1. ホーム
  2. NEWS
  3. 現在進行形クロストーク ChatGPTのインパクトをかんがえる。ー生成AIと教育、 コミュニケーション

現在進行形クロストーク ChatGPTのインパクトをかんがえる。
ー生成AIと教育、 コミュニケーション

PROFILE | 1961年生まれ。1987年東京工業大学大学院情報科学研究科修了(修士)。富士ゼロックス株式会社、松下電器産業株式会社を経て、1993年茨城大学工学部に着任。1997年博士(工学)を取得後、現在に至る。専門は自然言語処理?機械学習。 PROFILE | 1986年生まれ。2016 年早稲田大学大学院教育学研究科博士後期課程を単位取得満期退学。信州豊南短期大学専任講師などを経て2019 年4月より現職。教育学研究科助教も兼ねる。専門は教育方法論、道徳教育、教育哲学。趣味は映画鑑賞。


世界に衝撃を与え、 利用が急速に広がるChatGPT。自然言語処理?機械学習を専門とする新納浩幸教授がその技術について解説し、道徳教育などを専門とする宮本浩紀助教を交えてのクロストークで、教育に関する課題などを考えました。(2023年6月14日、茨城大学新浪体育図書館ライブラリーホールで実施したイベントの模様です)

基調報告
「 ChatGPTとは何か─ 自然言語研究者から見て思うこと」 新納浩幸

 AIは、大まかには「人間の知能をコンピューターで実現する技術」と言えます。これを数学のように定式化すると、まず「入力」があって、知能の部分がブラックボックスのようになっていて、そこから何か「出力」がある。そのブラックボックスの中の関数が、AI=人工知能というわけです。

 人工知能の分野はとても広くて、機械学習はその一部に過ぎないのですが、今は人工知能=機械学習のようになっています。機械学習の研究は1980年代ぐらいから始まりました。入力と出力のデータのペアを大量に集め、そこから自動的にブラックボックスの関数を推定する、それが「機械学習」です。私の専門の自然言語の分野でいえば、日本語の文の主語の助詞が「が」になるか「は」になるかは、日本語を母語とする人なら間違えようがありません。説明するのは難しいけれど、そこには結局何か規則があるわけです。ではどこに注目すれば区別できるのかという、その規則や特徴をAIが自動的に
学習することができるようになった、それが2012 年に登場したといわれるディープラーニングです。その意味でこのモデルはもう人間の能力を超えています。

 ChatGPTは、文生成のタスクに対するモデルです。テキストを入力すると別のテキストが出てくる、その間にあるブラックボックス=関数が、ChatGPTです。実はこういった生成系タスクの関数には、本質的には2017年にGoogle社が発表した「トランスフォーマー」という画期的なモデルが共通して使われています。ChatGPTのTもトランスフォーマーの略です。その登場が大変なブレイクスルーになりました。

 これを使うと、生成する文がどんなに長くてもかなり正確に言葉を推定できるようになる。さらに、2020年にOpenAI 社が発表したスケーリングロウという論文では、このトランスフォーマー系のモデルは、モデルの規模を大きく複雑にして学習させればさせるほど、モデルの性能が上がっていくという性質が示されました。モデルの大きさや複雑さは、パラメータの数で表されます。直線は傾きと切片という2つのパラメータで式が決まりますが、関数が複雑になると、そのパラメータ数が増えていく。OpenAI 社が発表した最初の大規模言語モデルであるGPTでは、パラメーターの数が約1億1,700万個あったようです。とんでもない数です。また2020年に発表したGPT3では、約1,750 億個のパラメータが存在します。さらに、ChatGPTのパラメータは1兆を超えているともいわれています。もちろん公開されていないのでわかりませんが、超巨大モデルであることは確かです。このことから、この分野の研究は、もはや巨大な資本を持つ大企業にしかできなくなってしまっていると言えます。

20230614-237A0702

 ChatGPTというのは、このように、入力文に続く文章が全体として最も自然な文章になるように文を作る、超巨大な言語モデルです。ひとつのツールとしてとても便利なのは確かですから、積極的に使うべきだと、私は思っています。

 ただ、ツールとして使用する場合、いろいろと注意点はあります。まず、「ハルシネーション」。何か間違ったことを言ったり、バイアスのかかった内容を生成することがある。それから「プライバシー」の問題。ディープラーニングに使用されるデータの一部に個人情報が含まれている可能性がある。そして「コンタミネーション」、データ汚染です。誤った情報もどんどん拡散してしまう。ただ、私たち自然言語処理を専門とする者の意見として、ChatGPTはもともとChat、あくまで対話システムなんです。人間の現実の対話も実は同じようにほとんどがハルシネーションだという研究結果もあります。

 一部のAI 研究者には、ChatGPTはこれまでに人類が発明してきたツールとは違って、新しい形の知能だと指摘する人もいます。確かにChatGPTは、普通の人間よりは" 頭がいい"。自分の専門の分野以外で、ChatGPTの知識に勝てる人はいないでしょう。しかも、中の動作がどうなっているか分からないし、何を入れたら何が出てくるかもう誰にも分からないような形になっている。さらに重要なことに、人間の知能、人間がいろいろと覚えて学習したことは簡単にはコピーできないのですが、ChatGPTは原理的にはいくらでも複製できる。人間よりも優れた知能が大量に出現してきたときにどうなるのか、それを危惧する人たちもいます。特に悪用される場面を考えると、確かに怖いですよね。

 加えて、よく言われるのが、人間がボット化してしまうという懸念です。わからないことや面倒なことは全部ChatGPTに聞けばいいということになると、結局、人間はChatGPTの指示に従うだけの存在になってしまう。人にとって覚えること、学ぶことはどういう意味があるのか──突き詰めれば、教育とは何かが問われている。そして、人工知能や自然言語処理の研究を長く続けてきた私のような者としては、結局、人間と機械は何が違うのかという問いに行き着きます。違いは確実にあるはずです。ChatGPTの登場を機に、AIの研究が次なるステージに移ったのだと、私は考えています。

クロストーク 新納浩幸×宮本浩紀

ChatGPTのインパクトをかんがえる

宮本 私はChatGPTを先日インストールして試してみたくらいの門外漢ですが、新納先生の報告によると、ChatGPTは、関数の中身がよく分からないけどうまく動いているということですよね。私の分野では、子どもがなぜ理解できるか、学習できるかというメカニズムを一応想定して教育モデルを作るんですけど、ChatGPTの場合、そこがわからないままの状態だということですか。

新納
ええ、機械学習の場合、人間が学ばせていたモデルの作り方自体が古くなってしまって、それだと限界があるということですよね。

宮本 以前は、人間が「教師データ」を入力することでAIが判断していたのが、それをまったくやらなくても、AIが勝手に学ぶようになったんですね?

新納 そうですね。文字の場合は言語モデルという仕組みが使われていますが、膨大な学習データをもとに、文の前に使われた言葉から次にくる単語の確率を割り出して次々に予測していくわけです。

宮本 私がChatGPTを使ってみた印象として、〇〇ですが~、〇〇なので~といった従属節を持つ文がそれほど出てこなくて、短い文が多い印象を持ちました。

新納 そう...かもしれないですね。その方がより
自然になるという戦略なんでしょう。結局、組み合わせの問題になるので、次に来る単語はこの単語になるのが一番確率的には高いけど、その単語を選ぶと、後の方で非常に確率が低い単語しか選べなくなってしまう、といった判断をする仕組みなので、その時に生成する文全体が自然になるような組み合わせを選ぶんですね。常に一番確率の高い単語だけを選んでいるというわけではないんです。候補を残しながら選んでいくという感じです。

宮本 なるほど、だから、ChatGPTの答えは、全体としてなんとなく納得がいくような印象を受けるようになっているわけですね。

人間が書く文章は、実際はそんなに滑らかじゃないんです

宮本 ChatGPTは、たとえば答え方をある特定の人に似せるようなこともできると聞いたのですが、そのあたりの仕組みはどのように?

新納 大枠で言えばそれも言語モデルです。そういう指示があった時にはこういう文が最適だと判断して生成するということですね。

宮本 そうすると、例えば、私や新納先生が喋る内容を録画とかテキストで残しておくと、我々が死んだ後でも、まるで我々が話すようにChatGPTに語らせることもいずれできるようになるでしょうか?

新納 できるんじゃないでしょうかね。ただ、内容的にさほど面白くはならないと思います。ちょっと話がそれるかもしれませんが、ChatGPTが出た時に、生成AIが生成した文なのか、本当に人間が書
いた文なのかを識別させるような研究もされていたんですね。ChatGPTは入力内容に対して、確率が極力高いような文を生成するので、結局そこらへんのニュアンスで特徴が出てしまうんです。逆に人
間が書くと、実際はそんなに滑らかじゃない。だから、あまりに滑らかだと、そこは人間らしくないっていうことになるんですね。

自分でできる、考えられるということがどこかで必要になってくる

宮本 最近、専門学校や大学で授業をしていると、「なぜChatGPTで答えを出すのが駄目なんですか?」と聞かれることが増えてきました。そうなるとなんかもう駄目という理由を考えるのも面倒くさくて、それこそChatGPTに答えを聞きたくなっちゃう(笑)。もう利用を解放するしかないのではないかと。解放した上で何をするのかということを、教える側も、学生たちも考えなきゃいけない。最終的には自分でその問いを持つことが大事なのだと思います。ChatGPTに何を聞くかを考えることも、けっこう頭を使いますしね。

20230614-237A0776

新納 結局、それは昔から言われている問題と同じかもしれません。例えば他人のレポートをコピーして提出するとか、カンニングをするとか、楽をすることと同じなんですよね。研究室の学生にはいつも言っていることですが、結局プロ意識があるかどうかです。例えば、英語を話せるようになりたくて英会話学校に何万円も払って通っていて、出された宿題をChatGPTや翻訳機を使って書いて提出して、よくできましたって言われても、意味がない。結局何のために勉強しているかということに帰着すると思うんです。学ぶ目的がはっきりしていれば、ChatGPTを使うか使わないかは、その人自身でわかることな
んじゃないかなって。

宮本 たぶんそういったことへの分別がつく年齢の区切りが、ちょうど大学あたりにあるんじゃないかと思います。大学生であれば、自身の興味関心がほぼ決まっているでしょうから、ChatGPTの使いかたも自分で決められるということになるでしょうね。

新納 結局、自分でできる、考えられるということは、どこかで必要なんですよね。例えば、今の時代、三桁×三桁の掛け算の式を紙に書いて計算する人なんていないでしょう。みんな電卓を使いますよね。
けれど、「やってみて」と言ったときに、工学部の学生だったら、たぶんできます。それができなくなることは大変な問題です。必ず知っておかなきゃいけないということはあると思います。たとえhatGPT
に全部答えてもらうとしても、実際にやれば自分だけでもできるということが、非常に大事だという気がしますね。

構成:茨城大学広報室?笠井峰子 | 撮影:小泉 慶嗣

 

IBADAIVERS_LOGO.pngこの記事は茨城大学の広報紙『IBADAIVERS(イバダイバーズ)』に掲載した内容を再構成したものです。