ChatGPTは嘘をつく

【 ChatGPTは嘘をつく 】

前回のセッションでは、ChatGPTが「人間との対話」で、柔軟で高いスキルを示すことを紹介しました。それは、とても興味深いことです。

今回のセッションは、ChatGPTが「人間との対話」で語ることの内容には、信用できないものがあるという例の紹介です。ここで紹介したのは、僕とChatGPTとの暗号技術についての会話です。

実は、前回紹介したサンプルの中にも、「フェルマーの小定理って何?」「それは暗号にどう使われているの?」という暗号に関連した対話の例がありました。そこでのChatGPTの答えは、キチンとしたものでした。おまけに余裕で詩まで作ってくれました。

ただ、今回の現代の暗号技術についての対話で、彼が答えた答えは、ほとんど全部と言っていいほど、間違ったものでした。

前回と今回の暗号についての二つの対話の違いは、どこから生まれたのでしょう? 不思議です。今にして思えば、ラティス暗号 LWE についてラップ作ってと頼んでみればよかったのかも。

ChatGPTが、正しいことをキチンと語るだけでなく、嘘をつくことがあることに、すでに多くの人が気づいています。

ChatGPTについて語る上で、こうした経験を持つことは、とても大事なことだと思っています。ぜひ、彼と対話を重ねて、彼に嘘をつかせてみてください。

大事なことは、OpenAI自身が、そのことを認めていることです。

前回から紹介しているChatGPTの公式blogページ  https://openai.com/blog/chatgpt/ で、彼らは、ChatGPTの「限界」について語り、その第一の「限界」を、次のように述べています。

「ChatGPTは、もっともらしく聞こえるが、不正確または無意味な答えを書き込むことがある。」

さらに、こう付け加えます。

「この問題を解決するのは、次のような点で困難である。」

その困難の第一の理由は、次のことだと言います。

「RL(強化学習)のトレーニングでは、現在、真実のソースがない。」

大事なところなので、原文を引用しておきますね。

ChatGPT sometimes writes plausible-sounding but incorrect or nonsensical answers. Fixing this issue is challenging, as: (1) during RL training, there’s currently no source of truth; (2) training the model to be more cautious causes it to decline questions that it can answer correctly; and (3) supervised training misleads the model because the ideal answer depends on what the model knows, rather than what the human demonstrator knows.

今見たら、以前は「困難である」と言っていたのですが、そう言い切るのはまずいと思ったのか、今は「チャレンジング」に表現が変えられています。

いずれにしても、ChatGPTが、"no source of truth" であると言うことには、特別の注意が必要です、特に、ChatGPTを検索エンジンがわりに使おうと思っているなら。

--------------------------------

「 ChatGPT が 間違ったことを言うサンプル」 を公開しました。
https://youtu.be/58z3BS_mqBk?list=PLQIrJ0f9gMcOX9oSKXRR87BgMkql5dvrx

資料pdf
https://drive.google.com/file/d/1V-t9pU6nRjsVfAF5HBVt-p32V1JCaLba/view?usp=sharing

blog:「ChatGPTは嘘をつく」
https://maruyama097.blogspot.com/2022/12/chatgpt_28.html

まとめページ

1/14セミナー「なぜ?で考える ChatGPT の不思議」の申し込みページはこちらです。
https://chatgpt.peatix.com/view




コメント

このブログの人気の投稿

マルレク・ネット「エントロピーと情報理論」公開しました。

初めにことばありき

人間は、善と悪との重ね合わせというモデルの失敗について