「生成AI」について深く理解し、私生活やビジネスで活用することを目的とした今シリーズ。
前回の記事では「生成AI活用におけるリスク」に関して下記2つのリスクを解説しました。
- 商標権や著作権に関するリスク
- ハルシネーションリスク
今回は下記2つのリスクについて解説します。
- 機密情報の漏洩リスク
- ディープフェイクのリスク
機密情報の漏洩リスク
生成AIを活用する際、企業にとってもっとも重要といっても過言ではない“機密情報”が漏洩してしまうリスクがあります。生成AIは大量のデータを学習して動作しますが、もしも学習データの中に“機密情報”が混ざっていれば、出力結果に反映してしまう可能性があるからです。
機密情報の漏洩リスクへの対策
機密情報の漏洩を事前に防ぐ対策としては「オプトアウト設定」が有効です。ChatGPTなどで設定可能なオプトアウト設定とは、設定したユーザーの入出力データを学習データとして使用させないための設定です。
多くの場合生成AIは、ユーザーとの過去の会話などを学習し、顧客満足度向上を図ります。
ただ、オプトアウト設定をすることで、どんな情報を入力しても生成AI側に学習させず、入力した情報を出力させないことで機密情報の漏洩を防げます。
また「機密情報の入力をしない」という徹底した社員教育で、機密情報の漏洩を未然に防ぐという対策も考えられるでしょう。
ディープフェイクのリスク
生成AIによるリスクとして「ディープフェイクのリスク」が挙げられます。ディープフェイクとは、ディープラーニング(深層学習)とフェイク(偽物)の造語で、AIが生成したリアルな人物の画像や動画をさします。
ディープフェイク自体は、有用に活用されれば問題ありませんが、悪用されるリスクがあるのです。
実際にイギリスでは、AI音声生成を利用した詐欺が発生。「上司と思われる人から大金を緊急で送金するように指示され、実際に送ってしまった」という事例が発生しています。
これから生成AIの精度が上昇するにつれて、高度な詐欺事件が増える可能性があるのです。
ディープフェイクのリスクへの対策
ディープフェイクへの完全な解決策は、残念ながらまだ確立されていないのが現状です。実施できる対策としては、下記が挙げられるでしょう。
- 1つの情報源だけで信用しないようにする
- ディープフェイク検知ツールなどを活用する
一番大事なのは「1つの情報源を信用しないようにする」ということです。常に他の情報源とも照らし合わせ、複数の方法で真偽を判断する習慣を身につけましょう。
また、完全に防げるわけではないですが、Microsoft社やGoogle社などから提供されているディープフェイク検知ツールなども活用するとよいでしょう。
まとめ
今回の記事では「生成AI活用におけるリスク」について解説しました。
生成AIを活用するためには、さまざまなリスクマネジメントを考慮する必要があります。ただ、しっかりとした知識を身につけておけば、最大限生成AIを活用することができ、あらゆる場面で時間短縮され、人生が豊かになるはずです。
これからも絶えず学びながら、正しくAIを活用していきましょう。
AIメディアライター・植田遊馬
Webライター歴4年目。ChatGPTの登場で生成AIの可能性に衝撃を受け「生成AIオタク」に。さまざまな生成AIを駆使しながらライター業を営む傍ら「多くの人に生成AIの魅力を伝えたい!」という想いで、生成AI系メディアでの記事執筆を行っている。
製薬業界で生成AIを活用する「ラクヤクAI」
このように今後の活用が期待される生成AIですが、中でも注目を集めるのが製薬分野です。
「ラクヤクAI」は、治験関係書類や添付文書といった社内外の膨大なデータを活用し
製薬事業のあらゆるシーンを効率化する専門文書AIサービスです。
基礎研究から製造販売後調査まで、多岐に渡る製薬業務の中で取り扱われる
様々な文書の作成・チェック作業を自動化し、圧倒的な業務スピード改善を実現します。
「ラクヤクAI」ご活用シーン(例):
■ 治験関連文書やプロモーション資料の自動生成
■ 作成資料のクオリティチェックや、資料間の整合性チェック
■ 講演内容(資料・音声)の適用外表現モニタリング
■ 薬剤情報やナレッジの検索・調査
その他、個別カスタマイズが可能な生成AI環境で、
社内の知見を統合的に分析・集約したアウトプットをセキュアな環境をご提供します。