TOP ナレッジ 【生成AIをビジネスや実生活で活用しよう!】生成AI活用におけるリスク…Part1

knowledgeナレッジ

【生成AIをビジネスや実生活で活用しよう!】生成AI活用におけるリスク…Part1

May 01, 2024

  • AI
  • Share

「生成AI」について深く理解し、私生活やビジネスで活用することを目的とした今シリーズ。 
前回の記事では「生成AIの具体的な活用方法」について解説しましたが、今回の記事では「生成AI活用におけるリスク」について解説します。 

生成AIのリスクマネジメント

ChatGPTを始めとする生成AIは、企業への導入事例も徐々に増えてきました。ただ、NRIセキュアテクノロジーズ(東京)の調査によると、生成AIを導入済みの企業が73.5%のアメリカに対し、日本企業の導入割合は18%にとどまっています。 
(引用元:https://www.nri.com/jp/news/newsrelease/lst/2024/cc/0125_1 )

多くの企業が生成AIの導入をためらっている理由のひとつとして「さまざまなリスクが伴うのではないか?」という不安が挙げられるでしょう。 

ここでは主に下記2つのリスクについて触れ、対策方法も解説します。 

  • 商標権や著作権に関するリスク
  • ハルシネーションリスク

個人的に生成AIを活用する際ももちろんですが、企業で導入する際にはリスクマネジメントは必須です。生成AIのリスクを正しく理解しておきましょう。 

商標権や著作権に関するリスク

ひとつ目のリスクとして「商標権や著作権に関するリスク」が挙げられます。生成AIはインターネット上の膨大なデータを学習しており、商標権や著作権に保護されたデータも例外ではありません。その結果、生成されたコンテンツが商標権や著作権を侵害してしまうことがあるのです。  

実際にアメリカでは、人気作家の著書がAIの学習に無断で使用されたとして、OpenAI社とMeta社に対する訴訟問題に発展しているという例があります。 

企業はもちろん、個人でもSNSなどで影響力を持てる時代なので、日本でも訴訟問題に発展するケースが出てくるでしょう。 

商標権や著作権に関するリスクへの対策

商標権や著作権に関するリスクマネジメントとして、生成AIが使用したデータ元を確認したり、再度インターネットで類似コンテンツがないかを検索したりしましょう。 

おすすめの対処法として、生成AIにデータの引用元を明記させるという方法があります。「この情報はどこから引用しましたか?どこで学習しましたか?」などと、ストレートに聞いてみましょう。 

ハルシネーションリスク

ハルシネーションとはAIが事実と異なる情報を生成してしまう現象のことです。もともとは「幻覚」という意味から来ており、ChatGPTなどの高度な生成AIだと「もっともらしいがデタラメな回答」をすることがあります。  

ハルシネーションリスクへの対策

ハルシネーションリスクへの対策として有効な手段ですが、生成された回答の整合性を必ずチェックするという対策がよいでしょう。 

常に生成AIが生成した回答を疑い、他の情報元でも検索をするなどの2重チェックを徹底しましょう。 

まとめ

 今回の記事では生成AIのリスクについて解説しましたが、考えないといけないリスクはまだあります。具体的には下記2つです。 

  • 機密情報の漏洩リスク 
  • ディープフェイクのリスク 

次回の記事で詳しく解説します。 

AIメディアライター

製薬業界で生成AIを活用する「ラクヤクAI」
このように今後の活用が期待される生成AIですが、中でも注目を集めるのが製薬分野です。

「ラクヤクAI」は、治験関係書類や添付文書といった社内外の膨大なデータを活用し
製薬事業のあらゆるシーンを効率化する専門文書AIサービスです。
基礎研究から製造販売後調査まで、多岐に渡る製薬業務の中で取り扱われる
様々な文書の作成・チェック作業を自動化し、圧倒的な業務スピード改善を実現します。

「ラクヤクAI」ご活用シーン(例):
■ 治験関連文書やプロモーション資料の自動生成
■ 作成資料のクオリティチェックや、資料間の整合性チェック
■ 講演内容(資料・音声)の適用外表現モニタリング
■ 薬剤情報やナレッジの検索・調査
その他、個別カスタマイズが可能な生成AI環境で、
社内の知見を統合的に分析・集約したアウトプットをセキュアな環境をご提供します。

  • Share
一覧へ