新型の生成AI「推論モデル」や「AI検索」は、従来型同様に誤情報や「ハルシネーション(幻覚)」を多く含むことが各種調査で明らかになった。

 

推論モデルは思考過程を示しつつ結論を導くが、誤答率はむしろ初期モデルより高く、架空の情報を生成することも多い。AI検索も引用元の誤りや架空のURLを示す問題があり、信頼性は限定的だ。利用者はAIが示す内容を鵜呑みにせず、必ず原典確認が必要である。

 

AI研究者は、生成AIが人間のような「賢さ」に近づく一方で誤りも犯す性質があると指摘し、命や安全に関わる案内や金銭取引などは人間のチェックを欠かせないと警鐘を鳴らす。現在の生成AIは想像力を伴う知的作業の高速化に貢献するものの、常識や論理的思考が不十分なため誤りが多く、AI技術の今後の開発方向に課題を投げかけている。

 

https://www.nikkei.com/article/DGXZQOCD03BSA0T00C25A7000000/?n_cid=kobetsu