「呪文」を覚えてズルして楽しようとしたのだが、「魔法使い」は正直者だった

【 「呪文」を覚えてズルして楽しようとしたのだが、「魔法使い」は正直者だった 】

ChatGPTがバズっているので、それを利用してセミナーの準備を楽にしようとしたのだが、失敗した。

いろいろ、セミナーをやっているのだが、関連する論文を探して、概要をまとめて、読んで中身を理解するのが、セミナー準備で必要なこと。それを助けてもらおうと思ったのだ。

研究室だと(僕には、そんな経験はないのだが)、教授が大学院生に下働きをさせてコキ使うのと同じこと。あわよくば、セミナーのスライドの下書きも作ってもらえると嬉しいな(そんなこともやらせてる、エライ先生はいるみたいだ)と、都合のいいこと考えていた。

以下そのログ。

-------------------------

 > こんにちは

こんにちは、私は Assistant と申します。どのようにお手伝いできますか? 私は大型言語モデルであり、OpenAI によってトレーニングされています。私には最新の情報はありませんが、ご質問にお答えするのに役立つだろうと思います。

> chatGPTの

chatGPT は OpenAI が開発した言語生成モデルです。chatGPT は GPT-3 の一部であり、文章を生成するためにトレーニングされました。そのため、chatGPT は会話シナリオや長文を生成することができます。また、人間が書いたような自然な文章を生成することもできます。chatGPT は、テキスト生成タスクや対話システムの構築など、さまざまな用途に使用されます。

> のchatGPTの基本的な論文を教えて下さい。

申し訳ありませんが、私には最新の情報を確認するためのブラウズ機能がありません。そのため、chatGPT に関する基本的な論文をお答えすることはできません。また、私は大型言語モデルであり、人工知能です。人工知能としてトレーニングされているため、私には論文を書く能力はありません。私は、お持ちの質問にお答えすることができるだけの情報しか持っていません。お手数をおかけして申し訳ありません。

-------------------------

僕の目論見は、最初の最初で失敗したのだが、chatGPT、意外といいやつで正直者だ。

Deep Learning への関心をなくしてから大分経つのだが、今年になってから、再び、すこし 興味を持ち始めている。

今年 3月に行った マルレク「コンピュータ、数学の問題を解き始める」は、OpenAIのGPT3を取り上げたものだ(GPT3、数学の問題を解くのは苦手だった)。
https://www.marulabo.net/docs/math-proof/

12月のセミナーも、実は、GPT3のような「大規模言語モデル」を意識したものだ。そのうち、「大規模言語モデルの「数理」」というセミナーをやろうと思っている。





コメント

このブログの人気の投稿

マルレク・ネット「エントロピーと情報理論」公開しました。

初めにことばありき

人間は、善と悪との重ね合わせというモデルの失敗について