こんにちは、カゴヨウキキです。
今回は、バラいろダンディの苫米地博士の
出た回の文字起こしを行います。
今話題の生成AIと人間の理想の付き合い方
発言者は、以下の通り。
ふかわりょう(以下:ふ)
秋元才加(以下:秋)
武井壮(以下:武)
苫米地英人(以下:苫)
秋:美女好きの武井壮が
主人公の物語を書いて
ください。ユーザーの質問に対しAIが
まるで人間が考えたような
文章で答えてくれるとして大きな話題となっている
テキスト生成AI。ChatGPT。
私たちの生活をガラリと
変えてくれる可能性を
秘める便利な技術だが、この生成AIの危険性に
警鐘を鳴らす人物が。VTR:悪者がAIを悪用するのを
防ぐ方法は見当がつかない
気候変動よりも緊急の脅威秋:こう発言するのはGoogleで
副社長などを務め、ディープラーニングなどの
関連用語を作ったことでも
知られるAIのゴッド
ファーザー、
ジェフリーヒントン氏。ヒントン氏は今月1日
Googleを退社したことを
明らかにした。その理由について、自身の
ツイッターでは。VTR:AIの危険性について
話すためにGoogleを
退社した秋:と発言。
ヒントン氏は、ニューヨーク
タイムズの取材に対し、AI技術の発達で偽の画像や
動画が溢れ、何が真実か
わからなくなることやAIが翻訳者など人の仕事を
奪ったりする危険性に
ついても言及このヒントン氏の主張に対し、
バラダンの知の巨匠。認知科学者、苫米地博士も
VTR:生成AIの結論は人間とは
相容れないかもしれない。「そこには幻覚や嘘もある
かもしれない」秋:と、現在のAIのあり方に
疑問を投げかける事態に。そこで!
今宵、苫米地博士が今話題の
生成AIと人間の理想の付き合い
方を緊急提言します!!本日の銀河系ゼミナールKUは
今話題の生成AIと人間の理想の
付き合い方をテーマにお送り
しています。ふ:はい、では苫米地さん。
解説お願いします。苫:はい、あの~、
さっきのジェフリー
ヒントンさんって、
昔から、80年代で、
ルーメルアーサー・
マクリーダーさんと
いう2人のその西側の当時、スタンフォードから
カーネギーメロン移った、
人だったと思うけど、彼らがそのPDPの
元となる、バックプロパゲーションと
いうのを提案して、その、彼らとジェフリー
ヒントンだけ。あとは大体カーネギー
メロンいたんで、私もその頃仕事してたんで、
そういう意味ではちょっと
私は大学院生だったんですが、彼はもう教授ぐらい。
若い教授ですけど、
そういった意味で一緒に
80年代やってた人たちのその中心で、ただ90年代
マシンが遅くなっちゃって、数学はだいたい80年で終わって
今もほとんど80年代の数学
なんですけど。90年代マシン、遅くなっちゃって
みんな大体分野変わってたんです
よね。分子生物学行ったり、脳科学
行ったり。ただ、彼だけずっと残ってて、
2006年だったかな?
このオートエンコーダーって、
一つのやり方で成功して。それからディープラーニングに
なって、その後、難しいその
シグモイド関数ってのを
使わなくなる。計算量が多いんでね。
で、折れ線関数とか、
簡単な関数の時代が
長く続いて、それで、「計算機が、
10億倍当時より早く
なったんで」今もう1回例えばChatGPT
だとシグモイド関数、当時の80年代の数学を96回
走らせて10層レイヤーとか
色んな組み合わせで動く
ようになったんで。それでAIのグランド
ファーザーって言われて
ますけど、実際は、ディープラーニング
分野の中の一番貢献した人
っていう感じなんですね。武:へぇ~~~!
苫:彼、Googleでそのあの
トップの技術担当の役員か
なんかやられてて、最近彼が「AIはやばい」
やばいって言って指摘して、
Googleを辞めてってので、確か、5月3日ぐらいにMITの
そういったそのインタビュー
でね、MITのそのジャーナル
からのインタビューで答えたの
が世界に広がってるんですけど、で、AIって生成AIは何かって
言うと、そのそのバック
プロパゲーションっていう
アルゴリズムを使うんです。これちょっと後で、説明
しますね。それが元々の80年代に、
ジェフリーもやってたやつ
ですけど、それに、もう1回やるように
戻ってきたんですけど、それで「人間と区別できない
ほど、とにかく真似がうまい
んですね。」これうちのソフトで
ChatGPTをフォートトークって
うちのソフトの中に入れて
るんですけど、これ今私さっき入れたんです
けど、フレンドリーな宇宙人と
ハッピーなスパイが強いアスリートと一緒に
G7サミットについてMXTVのスタジオでコメントし
てるところルノアール・
ピカソとレンブラントの
スタイルでやってください。って、これ出てきたわけ
ですよ。一同:えええ~~!!
苫:これ、これちょっと気に
食わないと、この完了
ボタンを押すともう1回。武:変わるの?
苫:これChatGPT回しながら
うちのやつからChatGPTにまた、戻してるんで、
あと数秒かかるかも
しれないですよね。秋:ああ、出てきましたね!
苫:こういう風に、どんどん
出てきますよね、で、これ気に入らないと、
また、(完了ボタン押して)
出てきますけど、といった、意味で、
これ人間が書いてる
みたいに見えるじゃない
ですか?ふ&秋:はい。
苫:そのくらい区別つかない
ぐらい。これAIっていうの
知らなかったら
これ人間が書きました。さっき言って、いや
今、私が(入力して)
その、また出て
きましたけど、5秒で書きましたって
いうわかんないと思う。また出てきますよね
「どんどんいくらでも、
出せるんですね。」で、そこでジェフリーが
言ってるのは、もしもその彼の今回
スピーチ言ってるん
ですけども、ChatGPTが今もういろんな
人が興味持って、日本政府とかは、使う
とか言い始めてますよね。そうするとChatGPTの
コピーがもちろん
サーバーそのものを自分で持ちたい
みたいな人たちだったり、もしくはライセンスを、
受けてそのオープンAI社の
サーバーを使うかとか
いろいろやる。実質チャットGPTの
コピーが1万台例えば、
世界中で動くと
しますよね。で、ChatGPTそのものは
1991年9月末までの知識で
大量学習してるんです。そのこと知らないんです
けど、
ただ使ってる間にどんどん、
対話しながら覚えていく
じゃないですか?1万台がその後、成長
してくわけですよね。で、人間の脳には自分の
知識をポコンって入れられ
ないわけでしょでもChatGPTはポコンって
入れられちゃうんで。1万台がそれぞれ成長
してった、知識を全員が
お互い共通、共有するんで。そうなると人類では、
「そのAIが言ってることが
正しいか正しくないか
さえも検証できない」ほど、知的能力が上がっちゃうんで、
で、そうなった時にその
ジェフリーが言ってるのは「Googleの株主たちの利益の
ために動くAIになる可能性が
ある」から、Googleやめるぐらいの論理
なんですよね。要するに、大金持ちの人の
生産性は思いっきり上がる。だって、今まで20分
やってた仕事が3秒でやれる。この絵なんか、これ描こうと
思ったら、何分かかるか、
分かんないですけど、生成AIならば、ボタンを押す
だけですから。こういう絵にして
くださいレンブラント
スタイルと、そして、スタイルの組み合わせも
出来ちゃうわけです
からね。そうすると一部の人の
生産性が思いっきり
上がるから、これって「貧富の差を思いっきり
上げていく。」で、それと世界中がこれを
みんな文章やって書類書いて世界の政府はこれでやって
いくと世界風の意見が、
Googleの株主のような
人たちですよね。世界中の例えばその有名な、
その世界経済フォーラムのお金持ちとか、そういう
人たちの意見のために全世界が広がるっていう
のが、彼が言ってるこれ
警鐘で。それを正しいかどうか
検証もしやすくもない
ってことです。だからそういった目で
貧富の差を拡大するって
ことを心配してるんですよね。で、あのバックプロ
バケーションという
ことを、幻覚や嘘かも
しれないっていう部分をそのバックプロバケーション
とは何ってことを軽く説明
しながらいきたいと思うんで。そのバックプロパゲーション
とはこれなんですね。(ドカーンという、効果音)
苫:これわかりにくいかも
しれないけど、ここで数学やった人はすごい
分かりやすい図だと
思います。僕は、その、バック
プロパゲーションの図、そのものを書くの忘れました
けど、もしもペンがあれば。マジックあります?
ちょっと貸してもらえれば。要するにこれって、その
グラフで言うと、こういう
グラフですね。こういうグラフです。
こういうグラフです。こんな風にグーッと上がって
わかります?S字直線でこれシグモイド
曲線っていうの。これS字曲線って言います。
で、これ何かって言うと、
我々数学をやってる人にはそのこれ必ず、
接線になってないけど、
接線が引けるわけですよ。そうですね。
これ高校でやりました。接線が引けるってことは、
微分可能ってことですよね。ってことは微分可能に
なってくれば、もうこっち
しめしめで。近似解だけど必ず解に、
近い解が得られると
いうことです。で、これ何かというと、
たった1個の神経の動き
なんですですから、これ生物界では、
みんなそうなんですけど、そのシグモイド関数ってその
一般的にそのどういう角度で
基本的にみんなこういう形を
取るのシグモイドって言うん
ですけど。人間の生態とかってちょっと
電気が入っても、あんまり
反応しないけど、少し電気が強くなると、
ワーッと、上がってって
最後鈍くなってくるって
いう、学習曲線もそうですよね。
最初はよくわかんないけど、
分かるようになると、
すごいわかるけど、あとあんまり行かない
みたいな要するに、「生命現象って基本的に
シグモイド曲線を
取るんですよ。」で、アナログ空間なんで、
必ず微分可能な空間です。これ、神経1個でこういう
数字だと思ってます。そうすると神経1個に
入ってきた入力に対する
出力の関係ですよね?で、そこでその神経を
たくさんあると仮定します。これがその3層のバック
プロパゲーションです
けど入力層さっきの
これ神経です。(効果音で、ドカーンと入る)
ふ:ごめんなさい。苫米地さん。
(スタッフ)
ドカンやめてくれる?一同:あはははは。
秋:びっくりしましたね。
ふ:ドカンは、誰かの心の声
なんだろうけど・・・苫:これね、これね。
これの出力を決めるやつに
さっきのシグモイド関数が
入ると、思ってください。って、ことはこの、これ神経
です。だから、単純に分かりやすく
3層に神経が並んでるって事で、3層であるのを、100層にしようが
横に3層を大量に並べても、数学的には、近似的なんで。
今は計算量が上がってくんで、
昔は3層でも1週間ぐらい
かかったんですけど。今10層とかでも、その日のうちに
まあというか学習だけ、
リアルタイムで収束しちゃう
ほど、早くなってきたんで。ですが、今マシンが10億倍速く
なったんで、これがもうすごい
たくさんあると思ってください。ChetGPTだとこれを96回走らせる
とか平気でやっちゃいますから。そうすると、ここ、この神経
見ると、ここには下の神経から
入力が入ってきますよね?で、その出力の合計シグマ
ですよね。その出力を出していく時に、
それをさっきのシグモイド
関数をかけて出すんですよ。そうすることは、そこの
時に、実は重みがあって、重みがあって、神経は
ちょっと弱くしたり、強くしたりと重み付けが
あると思ったらいいです。その重み付けしながらの
かけ算した入力の合計に対して、シグモイド関数を
返して、次に打っていく
ってことですよね?ってことは微分可能な
式で重み付けしながら
やっていくから。ここに、例えば001
これを例えば武井君を表すね。で、これが武井君の写真
だったとする。武井君を表して入れると
写真っていうのが出てくる
ように調整していくわけです。オートエンコーダーって
いうのは、写真と写真を
入れて中で勝手にやらせる、
やり方ですけどももし、文字列だったら、
今の文字列にその次の
文字列入れるとかで、
次を予想するとか、そういうネットワーク
訓練したわけですね。ってことは、ランダムに
しといて、掛け算した
ウエイトとその、
シグマに対して、さっき言ったシグモイド
関数をかけたのを出して
いく。ふ:はい。
苫:で、そうするとこっちで
001がこれ1000が正し
かったとすると、じゃあ出ると0から9まで
の間の数字をできるよう
にするんですけど。そうすると、「間違った分を
最小化していけばいいん
です。」これバックプロパゲーション
って言うんですけど、そのためにこのウエイト
ちょっと減らしてね、
増やしてねって言って、後ろ向きに、上と調整
するわけ。もう一回やるとちょっと
良くなってるじゃない
ですか?それを「無限に繰り返す」
わけですよ。で、無限にしなくても、
ある時100をやると001が出
てくるようになっちゃう。これが、バックプロパ
ゲーション。簡単な統計的なネットワーク
ですよね?ただこれを簡単に、これを
数学的に言うと、
偏微分空間の最適な近似解の、特にできれば、全体解
なんですけど局所解かも
しれない。「解を出すっていう近似
アルゴリズムなんですよ。」それがこの次元で言うと、
億次元とかなっちゃうんです。ものすごく、これものすごい
単純に、この掛け算だけです
けど、それを横にずらーっと
並んでて縦にずらっと
並んでる。10層とか、並んでるわけです
だから超次元って言うんです
けど、ものすごい高い次元の100万1億次元の「超次元空間の
偏微分方程式の誤差最小化
アルゴリズム」これバック
プロパゲーションという。ただやってることは、たった
それだけで、すごいことの
様ですけど、実はそれだけ
なんですよね。ってことは「AIが出す結論と
いうのは我々人間には検証
できないんです」だってこれを判断できない
じゃないですか?それを私たちの時代で、
その当時はシリコン
グラフィックスっていう
ハリウッドがそのレンダリング
エンジンに使ってた。それを2台。1台7000万ぐらいの
当時ジャストシステムという
とこで買ってもらって。2台やってて、1週間やっても、
簡単な次の単語から音素の
予想とかで1週間で収束しないで結構お金の無駄と怒られ
ましたけど。今は普通にPCでも収束しちゃい
ますよね?それが10層とかで。
それは「マシンが10億倍
早いから」なので、数学はずっとこれなんですよね。
一時、このシグモイド関数が
計算量が多すぎるんで、簡単な折れ線関数とかに
なった暗黒の時代が
あったんですけど。それを、ジェフリーさんは
もう1回そのバックプロパ
ゲーションでやって大成功
して。今の、ディープランニングに。
そこはもう完全にバック
プロパゲーション使ってます
から。で、そうすると、そのさっき
言ったぐにゃぐにゃの空間の
こういう空間の中の、ここがその最小解、極小解
だとして、これ近似的に出す
わけですけど。これって私たちには、
わかんないじゃないですか?数学空間の出来事ですから
ってことは「AIの出す結論
は我々検証が不能」なん
ですよね。で、幻覚かもしれない。
幻覚っていうのは何かって
言うと。全然違うとこで、数学的に
正しいけど答えですって
言った箇所は、我々にとっては全然違うの
「幻覚」っていうんですよ。
もしくは「嘘をつく」と。あとで、ちょっと話を
しますけど。
で、実際にその有名な
そのつい最近出た、
これ4月の論文で、4月19日の
有名な論文なんですけど。こういった生成のその
生成AIが出してくる。これ生成AIがその文章を
引っ張ってきて、私は正しい
です、やるんですけど、引っ張ってきた文章の
半分ぐらいしか関連して
なくて。25%は全く外れでしたって
言われてるんで。ってことは、そのAIの
答えって25%は外れです
ってすごい答えが。問題が出てきてるん
ですよね。だから、それはそれを
大前提としたら、
「外れだって、私たちは
わからないんですよ。」じゃあ、わかるために
どうするかっていうことで、
ちょっと先行きますけど
人間のこれいつも話して
ますけど思考の仕方。抽象度っていう考え方に
戻ってもらいます。そうすると、抽象度って
いうのは、その例えば、
これ私が2006年、
2006年かなそのころに出した論文
ですよね。(ドカーンという、効果音)
これ、えっと、
これ2011年のやつか。2011年で、これは
空(くう)を定義するって
いう。その当時の釈迦のその
情動2600年の、自分のそのインドの学会で、
そのインドのマホボディ
学会で出した論文ですけど、簡単に言うと、その私たちを
その包摂半順序って言うん
ですけど。哺乳類の上位概念は、動物。
動物の上位概念は、地球って
定義したんですね。で、その西洋哲学では、
一番下この宇宙閉じて
るんです。矛盾で閉じてるんです。
例えば、ブルドッグと、
アメショーの共通の
下位概念って何ですかって
言うとそんなん無いんで情報多すぎるんで、
「矛盾」なんですよね。で、上の方は広がってこれ
うちこれこういう風に
やってるんです。これってその先にこの絵を
出したのはその簡単に言うと、私たちの抽象度という
世界では、一つ上が
正しいと下のことは全部
正しいんです。わかります?猫であることは、全部、
動物の中に入ってるわけ
ですよ。犬であることは、全部
動物の中で、地球の中に
入ってる。哺乳類の中に入ってる
わけですよ。ということは私たち抽象思考
という人類の思考の中では、必ず上位の概念で、思考すれば
下位のエリアで考えることは、
「常に正しいわけですよ。」ところがさっきの数学
ネットワークは上の方にレイヤーが上がってって
いうのは、数学的な塊で
過ぎないんで。人間の抽象思考とは
何の関係もないんで、ですから彼らが出してきた
結論は「ここのその下にいる
犬、動物を哺乳類人類にとっては全く誤りのことが
出てくる可能性がある」って
いうのが。この包摂半順序で理解して
もらえると、そのさらっと
分かりやすくその作って
きたのが、えっとこれですね。
例えばそのさっき言った
ブルドッグと、アメリカン
ショートヘアのその、その共通の上位概念って
何って言うとすごい悩む
んです。ここだとダメだけど、
ここまで行くと、
正しいわけですよ。ってことは、これ
こういうのはLUBと
リーストアッパーバンド
ですけど。下だとアメショーと、
ブルドックこれは、
要するに最初公倍数
みたいなやつね。知識情報量の大小で
並べるんですけど、上に行くと情報が減って
いく。プードルの情報は犬の
情報は全部プードル
持ってるけど、さっきプラス、こういう
プードルですよとか、ワンと鳴くとかいう。
ワンは、犬だと、みんな
鳴くか。だけど、動物より下に行くと、
情報が増えていくわけですよ。猫だったらアメショーで、
こんなにグルグル。
下にいくと、情報が
増えていく。上にいくと、情報が
減っていく、これを「包摂半順序って
いうんです」けど。包摂半順序の中で、
一番下は西洋哲学で矛盾って
定義されてきてるんですよねそれは情報量多すぎる。
で、私はそれは仏教哲学を
統合して一番上を空(くう)で
全てのものより情報がちょっと
少ない状態って定義した論文が
あるんですけど。それがその2016年の論文です
けど、じゃあこういった概念が
理解されると。あ、さっきのもう一つだけ絵を
出しておくと、こんな感じです
よね。例えばその哺乳類の上位
概念、脊椎動物→動物→空で
最後は何よりも情報量が
少ない空にいきつくわけです
よね。下行くと必ず矛盾になる
わけです。アメショーと出て。
それで、それぞれの例えば
クサガメ君はペットであり、
亀って2つのネットワークに
結びついたりするとか、いろんなことがあるけど、
でも上に行くってことは、「下の知識にとって上は
絶対正しいんですよ。」当たり前ですよね?
犬であることは、
必ず哺乳類にとって
当たり前の話じゃない
ですか?そうじゃなく犬じゃ
ないんで、哺乳類じゃ
なかったら。これが人類の我々が
文化言語を学んだ、数千年数万年の場合に
よってはね。最低でも数千年の
知識の体系というのを
単に数学的に包摂半順序で。例えば情報の大小でやると
「必ず無矛盾性があるわけ」
ですよ矛盾することあるけど
ちゃんと矛盾は、矛盾て
分かる情報量が多いって
だけの矛盾ですから。ですから、ところが
ネットは、これ10層の
ニューラルネットワーク
だった時に、Googleの猫では、猫の絵が
この辺に出てくんですよ。
(間違った所に出てくる)でも、ここが上にあるから
といって、下にとって、上が正しいとは
限らないんで。ってことは「とてつもない
結論を出してくる可能性が
AIはありますよ」ってことをその数学で理解してもらえば
いいとして、その問題、私、実は
「1991年に解決してるんで。」それが、この私の1991年の
論文の話ですけど、これこれATRっていう日本の
国の研究機関にアメリカが、当時来日中って新聞に書かれた
時代ですけど、これが今のニューラル
ネットワーク。これ今のニューランネット
当時はリカレントネットって
言ってレイヤーを増やして
いくと、計算量が上がっち
ゃうんで、横にそのコンテクストレイヤー
これが特にエルマンさんって
いう人が発明したんですけど、今の将来予想するのに、
この間のネットワークの
コピーを一つ別に置いといてそこに1つ前のコピーをして
入れましょうって。これ私のその間のコンテクスト
レイヤーが2つあるって言う
やつで論文なんです。これで「次を予想する」んです
よね。今の単語を入れると次の単語を
予想するってネットワーク、実は実は今のChatGPTは例えば
トークンって言って。4096とかトークンと言うん
ですけど英語だと、単語だと
思ってください。4096ぐらいまでの文章だったら
最初の単語を予想する。だから長い文章できてます。
あれ全部次の単語を予想
してるだけなんですよ。実際単語よりもちっちゃい
トークンですが。簡単と単語ですから。
当時今は、ネットワークの
構造がもっと大きくなった
だけで、やってることは、もう91年の私の論文と全く
数学同じなんです、実は。ですからヒントンさんが
グランドファーザー
だったら、私も
グラントファーザーに
なっちゃうんですよ。論文的な論理で。
同じくらい。ただしこれはジェフリー
ヒントンさんですよね。私もう一つ、アイデアを出してて
これは完全に間違う数学的な
結論を出す可能性があるんで。こっちに、さっき言った
包摂半順序っていうのは、
数学で言うと、グラフというグラフです。
こういう(シグモイド)
グラフと違ってグラフコードっていう一つのグラフと
いう数学の理論が。さっきの束論という論理
なんですけど、こちらグラフ論という
論理がこういうのグラフ
だと思って。こういう奇構造ね。
その奇構造でこれ抽象度を
奇構造で表せますよね。抽象度を奇構造で表した。
奇構造の制約をこちらに
必ずかけるということで、ネットワークの中の
サブシンボリックな、
純記号的な、もしくは
非記号的な活性化状態を
記号的な制約をかけることでコントロールしましょうって
いうアーキテクチャーで。当時、実際音声認識システム
言語システム作ってるんです。これその時の論文ですけど、
でこれを今やりましょうって
ことなんで。実際これやりましょう
じゃなくて、
「私、すでにやってるんで。」ですから実はGPTを防ぐいくつ
かのその問題というのは、「過去に実は解決済み」だと
思ってください。ということですよね。
で、えっとGPT4のGDP4が、
今、最新ですけど。これ全部2021年9月までの
知識なんですよ。そうすると幻覚の問題
みたいな。必ずあるの、さっき言った
通りです。そこに対して人間の知識の
知能を抽象度の高いところで
制約をかけた、別なネット
ワークで制約をかけて、あげればこれは
「防ぐことが、できるんで。」で、実際このシステムを
作った例があるんで。フォートトークってうちの
やつの中にスマート
アシスタントっていうのが
あって、それはGPT3.5とGPT4を
その実際に使ってやってます。で、えっと、どっかに
スライドあると思います
けど。実際にその生成AIに
その実際に文章を入れて
みました。あります?出てきます?
そうですね、この次のやつ
ですね。これ、実際、私が作ってる
やつ。今、皆さんは、AppStoreで
フォートトークを
ダウンロードできます。例えば、情報学部。
これあとでちょっと話します
けど。その神奈川大学が情報学部を
作ってその記念シンポジウムが
あって。私、そこで話をするんで。
そこで、その場所を忘れたんで
情報学部開設記念
シンポジウム2023について
教えて。今、会場とか知りたいです
って言ったらば、「なんとGPT3.5は嘘ついて
きたんですよ」申し訳ありません。情報学部
開設記念シンポジウムは、2023年に関する情報は、
現時点では公開されて
ないです。そんな、こと無いです。
プレスリリースしてて
Webページがあるのに、
公開されてませんって
「嘘ですよね」ですから、知識無いのは、
しょうがない。2021年9月までの大量学習
モデルなんで、でもそれだって「知りません」
と答えればいいのに、
「公開してません」ですよ!神奈川大学公式ウェブ
サイトに発表される可能性が、
あり、そちらをチェック。いや、とっくに、公開されて
います。だったら調べろよ!ですよね。
そういうことやれないんで、
「AIは知らないと平気で嘘を
つく。」それを直すためにさっき
言った制約情報を入れた、
そのグラフ化された知的情報。あの、我々のコグニティブ
リサーチラボって、
1988年創業の日本で一番
古い人工知能専門研究機関
なんで。Appleさんにあのカナ漢字変換
の「ことえり」をライセンス
したりとか、そういうの。みんな聞いたことあるかも
しれないですけど。知識システムがあるんですよね。
そこのグラフコールドされた
知識システムを当てはめます。これに対してチャットGPT
+うちのフォートトークの出力が
これです。そうすると、情報学部開設記念
シンポジウムについての
同じ質問ですよね。教えてください会場とか
知りたいですって言うと、
「神奈川大学、情報学部開設
記念シンポジウム2023年に
ついてですねこれは、キャンパス16号館の
セレストホールで5月20日13時
から17時に開催されます。参加無料で以下のURLが申し
込まれて・・・」と、ここまで
出てくるんで。チャットGPTだけ見てると、
使えないと思いますけど、それにちゃんとその嘘つきを
直す、そして知らない情報を足す
って。本物のAIを足すとちゃんと
できるんですよね。で、もう1つがあります。
その先で今週の天気聞いて
みました。今週の天気聞いてみると、
チャットGPTは天気は
分かりません。自分で調べてください、
ですよね。そこでChatGPT3.5+うちの
CRLのコミティブ
リサーチャーの知識
エンジンに足します。そうすると、今出てくると
思いますけど、そうすると、ちゃんと
今日の天気。今週どうなります。
という天気を全部言って
くれますよね。ですから、これってその
ChatGPT達が使えないと
いうわけでもないんですよ。ChatGPT達の知識だと
だいたい、2021年9月
までの知識で政府が
使うとか言って。まずそれでそのコロナ
問題であったりとか、
そうですよねウクライナ戦争だったり、
台湾有事をディスカッション
して。「知識無いんで。」
ってことは、嘘か知りません、
しか出てこないわけでしょ。それを国会で国会は、
今から先のことを話すんで。役に立たないじゃないですか?
ただ大量の知識があるんで。過去のものを使いたいとき
役に立つんで今の本物のAIとチャットGPTのような
統計として見た目が
人間のように見える。それを一緒に、それは
必ず一緒にやるとか、向こうは、大量のデータを
扱うとか得意なので、これ、役に立つんで。
「必ず融合的にやんなきゃ
いけないんで」今そのGPTとかをどうやって
安全に使うかっていう
ディスカッションがいろいろ
されてると思いますけど、あのその問題も、91年に私、
解説してるんで。ただAI暗黒の時代でも、
世代が変わっちゃったんで。当時一緒にいたジェフリー
達は、ずっとこの分野に
残って、有名になりましたけど。
ほとんどの問題解決。
今、あの集まってます。政府でこれどうしよう。
いやもう全部普通に解決
してるし。普通のフォートトークでは
タダで使えてます。ということで、今回、
神奈川大学がその横浜にある神奈川大学情報学部
を4月に新設したんですよ。で、私も新設お手伝い
してるんで。
ここで私も講義します。今日話しした話を、
もうちょっとしっかりと
深いところまでお話するんで。興味のある方は、もうかなり
満員に近いそうですけど、それにしたって席はまだ
あると思うのと、オンラインでは見られるんで。
興味ある方、この神奈川
大学の情報シンポジウム
5月20日。GPTは知りませんって
言われましたけど、
ちゃんと、プレス
リリースまでされてます。はい以上です。
ふ:はい。お願いします。
以上銀河系ゼミナールKU、
お送りしました。秋:CMの後は、ダンディサロン
(YouTube動画より)
です。
今回は、ここまで。
いつも、ニコニコ御用聞き。
コメント