ChatGPTには答えられない「政治上の判断」

By -  公開:  更新:

政策アナリストの石川和男が5月9日、ニッポン放送「飯田浩司のOK! Cozy up!」に出演。生成AIを業務で利用する場合は「AI戦略チーム」に事前に了承を求めるという政府の方針について解説した。

ChatGPTには答えられない「政治上の判断」

※画像はイメージです

政府が省庁にAI利用の事前報告を求める方針を確認

政府の「AI戦略チーム」は5月8日、中央省庁が対話型人工知能「ChatGPT」などの生成AIを業務で利用する場合には、事前にAI戦略チームに報告して了承を得るよう求める方針を確認した。また、機密情報を扱う場合は原則として了承しないとしている。

飯田)ChatGPTなどが話題になっていますが、行政で使う場合はどうなっていくのでしょうか?

石川)業務の効率化に関して、役所には残業や無駄なことが本当に多いので、人間でなくてもできることを機械に頼むこと自体はいいと思います。

飯田)効率化ということでは。

業務の効率化に使うのはいいが、政策判断に誤って使われる可能性も

石川)ただ、ChatGPTなどについては、これから問題が出てくると思います。AIは所詮、人間がつくったソフトであり、人間がつくったマシーンですよね。機械やソフトは人間がどんな情報を入れるかで結果が変わってきます。新行さんは検索エンジンで何を使いますか?

新行市佳アナウンサー)最も使うのはGoogleですね。

石川)なるほど。飯田さんはどうですか?

飯田)Googleです。

石川)私はYahoo!です。スマホのトップ画面をYahoo!に設定しているからですが、同じ検索エンジンでもYahoo!とGoogleでは、検索結果のトップに同じものが出てくる場合もあれば、違うものも出てきます。検索エンジンにはいろいろな種類がありますが、この有名な2つのものでさえ違う結果が出るのです。

飯田)Yahoo!とGoogleでは。

石川)AIやChatGPTのようなものは、わかりやすく言えば1つの辞典なのです。本屋さんに行くと、広辞苑の横に広辞林などがあるではないですか。他にも大辞典のような大きな辞典がいくつもあります。これらは微妙に異なりますが、どれも一応オーソリティのある辞典です。きちんとした情報をインプットしたChatGPTやAIであれば、業務の効率化、働き方改革や休み方改革のために使うのはいいと思うのです。

飯田)効率化のためであれば。

石川)しかし、正しくない情報を入れたものが蔓延ってくると、誤って政策判断に使われてしまう可能性もあります。このようなことは必ず今後の問題として出てきます。

ChatGPTを行政の場で使うのであれば、インプットする情報を制限・選択しなければならない

石川)ChatGPTは使ってみるとわかりますが、自分の専門とするものをChatGPTに入れて、「これは何ですか?」と聞いたとしても、当たっていない内容がまだたくさんあります。

飯田)当たっていない場合がある。

石川)これはやってはいけないことですが、大学の課題レポートをAIに書いてもらったとします。しかし、書かれたものを自信を持って出したら「全然違っています」というような、笑えない冗談がこれから出てくる可能性があります。

飯田)そうかも知れないですね。

石川)そのようなものを行政の場などで使うのであれば、インプットする情報をある程度制限しておく、あるいは選んでおかないと、ひいては我々に影響してくることになるので、考えどころです。単に業務の効率化だけでは語れないものなのです。

正誤対照表のようなものはAIの方が優れている

飯田)法律上の誤植など、正誤対照表のようなものをつくる場合であれば、相当、精度は高くなりますよね。

石川)それは人間がやるよりもいいと思います。法律の条文をつくるときは、つまらない資料をたくさんつくります。誰も読まないような新旧対照表などは、国会に出す法律案の資料なのです。

飯田)つくらなければいけないのですね。

石川)いけないのですが、おそらく読んでいる国会議員の方は少ないと思います。

飯田)たまに「ここが間違っているではないか」ということが話題になりますが。

石川)そういう場合は、事務方の細かい人が「間違っているから政府を攻撃してやれ」という流れがあるのではないかと思います。それくらいでないと、あのようなものはわかりません。

飯田)なるほど。

石川)しかし、細かい人でなければできないものはAIに任せた方が、業務の効率化は上がると思います。

政治における判断はAIにはできない

石川)ただし、判断のところは別です。

飯田)AIが出したものを鵜呑みにするのではなく、1回目を通さなければならない。

石川)人間の感覚で「これを国会に出してもいいのかどうか」、「このような予算案を出しても大丈夫か」、「こういう法律案を出したら、どのように思うだろうか」というように、国民との対応を政府は国会で行いますよね。

飯田)そうですね。

石川)何でもすべて機械に頼ったものを出すのは間違いだと思います。政治の「治」とは、丸く収めるということなので、この感覚はAIには身につかないと思います。

飯田)細かい感覚は。

石川)もし、そういうことまで身につくようなAIが出てきたら、それこそ人類の終わりになると思います。「果たしてどこまで人類はAIを開発するのか」ということです。

人間がAIを「どのように制御するか」が大きな課題に

石川)個人的にAIやChatGPTにおいて、どこまで人間はこれを進化させるのだろうか、という関心があります。

飯田)いままでは、映画『2001年宇宙の旅』のようなSF世界の話でした。

石川)乗り物はそうなるでしょうね。そのうちすべて自動になり、運転手はいらなくなると思います。

飯田)そうですよね。運転が娯楽になるかも知れない。

石川)その代わり、運転スキルを人間は持たなくなる。運転という職が奪われて、雇用の問題も起きます。ChatGPTやAIも、そのようなところまで行ってしまうのではないでしょうか。開発する人たちは競争しますから。「自分がいちばんだ」、「いやいや自分がいちばんだ」と競争して、やがて映画『ターミネーター2』の世界になり、機械同士が戦争するような事態が起こらないとも限りません。そこまでいかないように、どうやって人間がAIを制御するのかが大きな課題だと思います。

AIが発達していく今後、想像力をもっと働かせなければならない

飯田)国連やG7などの主要議題になるかも知れないのですか?

石川)数年後には、飛行機のパイロットはすべてAIになるかも知れません。しかも言葉は各国すべてわかっているので、どの国のお客様が乗っても言語は大丈夫というようなことになる。そうなると、パイロットもCAもいらなくなる可能性があります。それは怖くないですか?

飯田)確かにそうですね。しかし、「人間がやるよりもこちらの方が安全だからね」と言われてしまうかも知れない。

石川)すべてそうなってしまうとどうなるのか、というところまで考えながら進めていかないといけないのです。将来的に省庁の仕事のうち、統計作業やデータづくりはAIにすべて任せてしまうかも知れません。

飯田)統計作業やデータづくりは。

石川)その部分の人がいなくなってしまうと、公務を担当していた人がリストラ対象になってしまいます。そして採用もしなくなる。その意味では、徐々に小さな政府になっていくでしょう。しかし、手足はすべて機械になってしまうのです。

飯田)人口減少の社会において、それでいいのかどうか。

石川)業務の効率化、人手不足に対してはいいのですが、「では、人間は要らないではないか」となったときに失業者で溢れかえってしまい、治安が悪くなるような問題が起きる可能性も出てきます。これ以上AIが発達していけば、今後はそのような想像力をもっと働かせなければいけなくなります。

番組情報

飯田浩司のOK! Cozy up!

FM93/AM1242ニッポン放送 月-金 6:00-8:00

番組HP

忙しい現代人の朝に最適な情報をお送りするニュース情報番組。多彩なコメンテーターと朝から熱いディスカッション!ニュースに対するあなたのご意見(リスナーズオピニオン)をお待ちしています。

Page top