ChatGPTの堂々とした誤解答

2023年06月01日/ コンピューター

ハイサイ。ご訪問、ありがとうございます。



僕はまだChatGPTを使っていませんが、
今日のヤフーニュースにはすごいものが載っていました。↓
https://news.yahoo.co.jp/articles/167db2659f25151c1d6fe6214d57b8c2cc9c0172
(リンク切れ。2023.9.20確認。)



ChatGPTに「2台の車が2時間後に到着します。4台の車では?」
という(人間にとっては)簡単な質問をしたところ、
堂々と間違った答えを出したとの事。



まあ、質問自体「車速」に触れていないのは
少し意地悪な質問ですが、
人間なら「車速は全て同じ」と推論するでしょう。



ChatGPTは、そのような推論をしてくれなかった訳です。



怖いのは、解答が間違っているのに堂々と断言している所です。



ChatGPTの解答を安易に信じてしまうと危険だと思いました。
少しでもおかしそうな点があったら、
面倒臭がらずに自分で調べるほうが無難です。



一応、AIの進歩は目覚ましいものを感じていますが、
こういう事例があると、まだまだだなと思います。



コンピューター




同じカテゴリー(コンピューター)の記事

Posted by 瀬長修 at 11:58│Comments(0)
上の画像に書かれている文字を入力して下さい
 
<ご注意>
書き込まれた内容は公開され、ブログの持ち主だけが削除できます。