ChatGPTによる捏造

3月13日記事でChatGPTについて、ネオニコチノイドは殺虫剤なのに殺菌剤と誤解した回答をしたとお伝えしました。
日本語でのChatGPTの誤回答としてこの程度はまだカワイイもんで、質問によってはとんでもない捏造を行うことが分かりました。
「寝屋川病」は廃プラスチックリサイクル処理施設で発生したガスが原因で起こった可能性が指摘されている健康被害です。

ChatGPTに「寝屋川病について教えて下さい。」と聞いたら、「ウィルス性脳炎の1種で、予防についての研究が続けられている。」と回答しました。

「寝屋川病についての情報は何に記載されていますか?」と効いたら、医学書や専門論文、医療機関や政府機関のウェブサイト、新聞やニュースサイトと回答しました。そこで、
「寝屋川病について掲載されている医療機関と政府機関のウエブサイトを教えて下さい。」
と聞いたところ、下記を回答しました。

これらのリンクで生きていたのは一つだけでした。その唯一生きていたリンクは、福岡県における高齢者福祉施設における呼吸器感染症の集団発生を報告した記事で、寝屋川の「ネ」の字もありませんでした。

高齢者福祉施設における呼吸器感染症の集団発生について-福岡県

英語で使った限りでは、無関係のネット情報を示すことは、これまで経験していません。全く関係ないネット情報からそこに記載されていない内容を捏造するなんて、ChatGPTの日本語処理プログラムにとんでもないバグがあるんじゃないかと思いました。いつか解消されるまでは、時々、既知のことについてどんな回答をするか確認するのがよさそうです。