BLOG
「ChatGPTを使い尽くす」⑧ リスクの認識と管理 28/30
ChatGPTの
利用する際には
メリットのほかに
残念ながらリスクもある
その辺を理解して
管理する必要がある
①ChatGPTにおける誤情報とその対策
1)ブラックボックス性
まず AIの答えの根拠がわからないということ
なぞそのような答えがでてきたかはブラックボックスの中
2)ハルシネーション(幻覚)
知らないこともあたかも知っているように
自信満々に答えてしまう
大事な判断をする場合AIの答えをうのみにせず
自分で裏を取る習慣が大事
3)バイアス
学習データに偏りがあれば、答えも自然に偏ってしまうが
それを確認する手段がない
②利用する際考慮したいリスク
1)著作権問題
同じような文章をたくさん学習させると
同じような文章がでてくる
となると「著作権」の問題が発生する可能性
出力物が「著作権」を侵害していないか
チェックする必要がある
2)データ保護とプライバシー
常にデータ流出の危険がある
ChatGPTにデータを入力することは
⇒外部に漏れる可能性がある
機密情報、個人情報を入力しないように気をつける
企業団体のデータ取り扱いのルールに従っているか確認画必要
設定でデータコントロールの「すべての人のためにモデルを改善する 」はオフにしておくのが無難
3)古いモデルの仕様
生成AIはモデルによって性能が異なるので注意が必要
古いモデルには問題点が残っている
最新モデルを使うのがいいが通常それは有料で提供されているの
古いモデルを利用する場合は自覚が必要
4)コスト問題
大量にメールを送信する場合など
簡単にできてしまうので
そこにかかるコストを計算しておく必要がある
③チェックすべきガイドライン
AIを使う上でのガイドラインが政府などから提供されているので
チェックをするのをお勧めします
総務省 経済産業省
「AI事業者ガイドライン」 倫理的開発利用に関する基本的考え方
文部科学省
「初等中等教育段階におけるAIの利用に関する暫定的ガイドライン」
学校におけるAI利用の暫定的指針
OECD
「人工知能に関するOECD原則」
AIリスクの対処法 AI政策の枠組みなど
G7
「広島AIプロセス包括的政策枠組」
安全安心で信頼できるAIシステムの普及のための指針
とあまりにもAIの発達がはやいので
暫定的にまとめたガイドラインが多い
まだまだどうAIと付き合ったらいいかまとまっていないのが現状のよう
とリスクがつきまとうAI
それをしっかり理解して利用する必要がある