BLOG

「ChatGPTを使い尽くす」⑧ リスクの認識と管理 28/30

ChatGPTの

利用する際には

メリットのほかに

残念ながらリスクもある

その辺を理解して

管理する必要がある

 

①ChatGPTにおける誤情報とその対策

1)ブラックボックス性

まず AIの答えの根拠がわからないということ

なぞそのような答えがでてきたかはブラックボックスの中

 

2)ハルシネーション(幻覚)

知らないこともあたかも知っているように

自信満々に答えてしまう

 

大事な判断をする場合AIの答えをうのみにせず

自分で裏を取る習慣が大事

 

 

3)バイアス

学習データに偏りがあれば、答えも自然に偏ってしまうが

それを確認する手段がない

 

 

②利用する際考慮したいリスク

 

1)著作権問題

同じような文章をたくさん学習させると

同じような文章がでてくる

となると「著作権」の問題が発生する可能性

出力物が「著作権」を侵害していないか

チェックする必要がある

 

2)データ保護とプライバシー

常にデータ流出の危険がある

ChatGPTにデータを入力することは

⇒外部に漏れる可能性がある

機密情報、個人情報を入力しないように気をつける

企業団体のデータ取り扱いのルールに従っているか確認画必要

設定でデータコントロールの「すべての人のためにモデルを改善する 」はオフにしておくのが無難

 

3)古いモデルの仕様

生成AIはモデルによって性能が異なるので注意が必要

古いモデルには問題点が残っている

最新モデルを使うのがいいが通常それは有料で提供されているの

古いモデルを利用する場合は自覚が必要

 

 

4)コスト問題

大量にメールを送信する場合など

簡単にできてしまうので

そこにかかるコストを計算しておく必要がある

 

③チェックすべきガイドライン

AIを使う上でのガイドラインが政府などから提供されているので

チェックをするのをお勧めします

総務省 経済産業省

「AI事業者ガイドライン」 倫理的開発利用に関する基本的考え方

 

文部科学省

「初等中等教育段階におけるAIの利用に関する暫定的ガイドライン」

学校におけるAI利用の暫定的指針

 

OECD

「人工知能に関するOECD原則」

AIリスクの対処法 AI政策の枠組みなど

 

G7

「広島AIプロセス包括的政策枠組」

安全安心で信頼できるAIシステムの普及のための指針

 

とあまりにもAIの発達がはやいので

暫定的にまとめたガイドラインが多い

まだまだどうAIと付き合ったらいいかまとまっていないのが現状のよう

 

とリスクがつきまとうAI

それをしっかり理解して利用する必要がある

 

 

 

 

一覧に戻る