息を吐くように嘘をつくChatGPTのなぞ

最近人間と同じように会話ができるAIと大人気のChatGPTを試してみた。個人的には、こういった会話AIで仮想ネットワークRPGとか、アドベンチャーゲームとかやってみたいと思っていたのだが、使ってみていろいろ違和感を感じたのであった。

まず最初は無難に英語でHawaiiの観光案内を頼んでみた。英語での返しは非常に早く読むのが大変な量を提示してくる。Hawaiiのトレッキングコースというマイナーな話題を聞いたのに多分正確と思われる情報を返してくれた。(自分でもすごく昔に調べて何か所か行ったことがある)。ところが、なんでもいいから聞いてみてと言ったところそれはあまり得意ではないらしい。話題を特定してくれと言ってきたり、話していると会話が終わってしまったりする。もちろん相手からどんどん会話するというようにはできない仕様となっているからであるためそこを変えればもっと自然に会話感が出るかもしれない。

しかし最も問題と感じたのは、明らかに嘘を教えてくることであった。というのも最近TwitterとYoutubeで話題の一般社団法人Colaboについて聞いたところ2021年1月に会計不正で元会計担当者を刑事告訴していて現在警察で捜査中といってきたのだ。流石にこんな話があればとっくにYoutubeでほじくり返されているはずなので明らかに嘘である。詳細がわかるURLを教えてくれといったらNHKや新聞社の記事のURLをくれたがすべてリンク切れであった。

間違いではないかと指摘するも頑なに認めない。(ChatGPTには間違いを認められない、知らないと言えない癖があると思う。何かしら答えなければいけないと思っているのか知ったかぶりをするのだ。)ちなみにColaboの公式ウェブサイトを教えてくれと言って返ってきたURLが間違っているのにさらに驚いた。現在のChatGPTは息を吐くように嘘を言う機能が備わっているらしい。

ネットに繋いで自分で調べられるようになったら(Bing検索みたいな感じか?)もっと面白いのかもしれないが、現時点ではオフラインのためか一般的な内容はそれなりの精度で答えてくるが、時事はごくごく自然に嘘を吐いてくることが分かったのであった。

訂正、一般的な内容もかなり精度が低い。というのも水泳のクイックターンのやり方を聞いたら壁に手を付けてから云々と言い出した。指摘したらすぐに訂正。しかしそれがまた間違っている。現状のChatGPTは検索で出てきた内容を適当につなぎ合わせて読める文章に整形しているだけでとてもAIというレベルではなさそうである。Bing検索がどうなるのか楽しみである。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です