東京工業大学理学博士新井紀子氏によると、
ChatGPTは高度な自然言語処理能力を持つ「大規模言語モデル」に大量のデータを学習させる事で、人間と見分けがつかないくらいスムーズに文章をが作ることができるものだそうだ。
しかし、出てきた結果が正しいとは限らない。
どういうことかというと、
膨大なデータから確率に基づいて出てくるもので、意味を理解して作られた文章ではないからだ。
追求しているのは「もっともらしさ」で「正しさ」ではない。
ChatGPTの答えが間違っていても、それが分からない位、正しく見えるので、理解や分析をする力(リテラシー)が不足していると正しいと思ってしまう。
ネット検索から問題の解決方法を見つけるには、情報の出どころを確認することなどで、信頼度に軽重を付けていく作業が必要だが、ChatGptはその過程を経ることなく、もっともらしい結果を出してくれる。
最近、Microsoft bingに追加された「チャット」機能は、 答えにその情報の出どころのURLが表示されているのでその点は便利だ。
「思考の過程」よりも「タイムパフォーマンス(時間的効果)」を重視し、即座に答えを出してくれるのではという点ではChatGPTはそのニーズに応えている。
自分がよく知っていることに関する下書きにはChatGPTは使える。
なぜなら、専門知識があればChatGPTの答えに間違いがあるかどうかすぐにわかるからだ。
従って、自分がよく知らないことは使わない方が良い。高い安全性や信頼性・真実性が必要な事には使ってはいけない。
コメント