TOP ナレッジ 【生成AIをビジネスや実生活で活用しよう!】生成AI活用におけるリスク…Part2

knowledgeナレッジ

【生成AIをビジネスや実生活で活用しよう!】生成AI活用におけるリスク…Part2

May 01, 2024

  • AI
  • Share

「生成AI」について深く理解し、私生活やビジネスで活用することを目的とした今シリーズ。 
前回の記事では「生成AI活用におけるリスク」に関して下記2つのリスクを解説しました。 

  • 商標権や著作権に関するリスク 
  • ハルシネーションリスク 

今回は下記2つのリスクについて解説します。 

  • 機密情報の漏洩リスク 
  • ディープフェイクのリスク 

機密情報の漏洩リスク

生成AIを活用する際、企業にとってもっとも重要といっても過言ではない“機密情報”が漏洩してしまうリスクがあります。生成AIは大量のデータを学習して動作しますが、もしも学習データの中に“機密情報”が混ざっていれば、出力結果に反映してしまう可能性があるからです。 

機密情報の漏洩リスクへの対策

機密情報の漏洩を事前に防ぐ対策としては「オプトアウト設定」が有効です。ChatGPTなどで設定可能なオプトアウト設定とは、設定したユーザーの入出力データを学習データとして使用させないための設定です。 

多くの場合生成AIは、ユーザーとの過去の会話などを学習し、顧客満足度向上を図ります。 
ただ、オプトアウト設定をすることで、どんな情報を入力しても生成AI側に学習させず、入力した情報を出力させないことで機密情報の漏洩を防げます。 

また「機密情報の入力をしない」という徹底した社員教育で、機密情報の漏洩を未然に防ぐという対策も考えられるでしょう。 

ディープフェイクのリスク

生成AIによるリスクとして「ディープフェイクのリスク」が挙げられます。ディープフェイクとは、ディープラーニング(深層学習)とフェイク(偽物)の造語で、AIが生成したリアルな人物の画像や動画をさします。 
ディープフェイク自体は、有用に活用されれば問題ありませんが、悪用されるリスクがあるのです。 

実際にイギリスでは、AI音声生成を利用した詐欺が発生。「上司と思われる人から大金を緊急で送金するように指示され、実際に送ってしまった」という事例が発生しています。 

これから生成AIの精度が上昇するにつれて、高度な詐欺事件が増える可能性があるのです。 

ディープフェイクのリスクへの対策 

ディープフェイクへの完全な解決策は、残念ながらまだ確立されていないのが現状です。実施できる対策としては、下記が挙げられるでしょう。 

  1. 1つの情報源だけで信用しないようにする 
  2. ディープフェイク検知ツールなどを活用する 

一番大事なのは「1つの情報源を信用しないようにする」ということです。常に他の情報源とも照らし合わせ、複数の方法で真偽を判断する習慣を身につけましょう。 

また、完全に防げるわけではないですが、Microsoft社やGoogle社などから提供されているディープフェイク検知ツールなども活用するとよいでしょう。 

まとめ

今回の記事では「生成AI活用におけるリスク」について解説しました。 

生成AIを活用するためには、さまざまなリスクマネジメントを考慮する必要があります。ただ、しっかりとした知識を身につけておけば、最大限生成AIを活用することができ、あらゆる場面で時間短縮され、人生が豊かになるはずです。 

これからも絶えず学びながら、正しくAIを活用していきましょう。 

AIメディアライター

製薬業界で生成AIを活用する「ラクヤクAI」
このように今後の活用が期待される生成AIですが、中でも注目を集めるのが製薬分野です。

「ラクヤクAI」は、治験関係書類や添付文書といった社内外の膨大なデータを活用し
製薬事業のあらゆるシーンを効率化する専門文書AIサービスです。
基礎研究から製造販売後調査まで、多岐に渡る製薬業務の中で取り扱われる
様々な文書の作成・チェック作業を自動化し、圧倒的な業務スピード改善を実現します。

「ラクヤクAI」ご活用シーン(例):
■ 治験関連文書やプロモーション資料の自動生成
■ 作成資料のクオリティチェックや、資料間の整合性チェック
■ 講演内容(資料・音声)の適用外表現モニタリング
■ 薬剤情報やナレッジの検索・調査
その他、個別カスタマイズが可能な生成AI環境で、
社内の知見を統合的に分析・集約したアウトプットをセキュアな環境をご提供します。

  • Share
一覧へ