ChatGPTで変わる世界(その2)

移働する診断士

ChatGPTの報道が前回の投稿後も続いているのをみて、ほんとに今波が来ているのを感じます。5年ぐらい前のML(マシンラーニング)ブームのときには、Googleが猫の画像を判断したことを騒いている程度で一般の人にとっては、まだまだ遠い存在でしたが、この一年ぐらいでAIに絵を書かせたり、音楽を作らせたりと活用が広まってきました。そしてChatGPTの登場です。

ChatGPTは現在無料で使えるのがVer3.5で有料プラン(月2000円強)がVer4.0となっています。使ってみた方はわかると思いますが、無料プランだと土日夜間は答えを返してくれるまでに結構時間がかかったり、混み合っていて使わせてもられなかったりしますが、有料プランだとここが快適になるみたいです。新聞では、昨年11月にこうかいされてから既に利用者が1億人(私もその一人)いるそうですが、無料であるポイントは、この1億人がVer3.5を教育しているというところです。AIが効果を発揮するためには、質問されているパターンから人間が求める回答に近いものを導き出せるようにする必要があります。これを学習というのですが・・・これまでのAIはこの学習のためにものすごい時間をかけていました。(猫の絵も、大量の猫の絵を学習することでそのパターンを導く出すことができた)ところがChatGPTはこの学習パターン自体を作ることができるのと、無料ユーザーが評価してく事自体が学習になっているからです。

数日前の日刊工業新聞の記事にも、ChatGPTのVer3.5とVer4.0の大きな違いにその質問が倫理的に良くないことであった場合は回答を出さいないようになったというのがありました。これ「爆弾の作り方を教えて」と聞いたときに、3.5では作り方を回答してしまうのですが、4.0では「危険なことなので回答できない」と返してくれるそうです。これも画期的に一見見えますね。ただ、5年前の時点でも言われていたのですがAIがどのように回答を導いているかは、AIを生み出した人もわかっていないのです。人であれば問いに対する答えをするときに、感情と記憶や知識を使ってそのシチュエーションにあった回答を導いていくのですが、AIはパターンモデルの関数を使って導いているので、その時の判断基準等が全く不明なのは今も変わらないと思います。では、上記の様なことができるようになったのは、おそらく、倫理的な判断パターンを仕組みの中に人間が入れ込んだからだと思われますね。

私達はAIを活用していると、ついつい人が答えてくれているのと同じような感覚になりますが、まだまだ初歩的な仕組みで動いているといえます。なので、そのAI自体は自分ではやはり考えてはなく、人が恣意的に組み込んだ情報を元に答えを出しているとも言えます。なので、まだまだその段階でのリスクが有ることは理解しておかないといけませんね。

では、その思考自体をAIができる段階になったらどうなんでしょうか?この場合は何を持ってそれが正しいということを判断するかという問題が出てきます。先程書いたとおり「判断基準が全く不明」なので、ナレッジ(知識)を求めているのであればまだリスクが多くはありませんが、人の人生に関わる医療や法律、保険などでの適用を100%AIに任せるには、その思考プロセスを明確にしないとリスクはまだまだ高いと言えます。AI活用では保険や金融融資の分野が進んで適用するような気がしています。これらの分野は現在もそれぞれの機関の中でオープンにされていない基準を元に判断されていると思います。(当然それぞれにはそこで働く人の経験も活かされている)なので、ある時からこの判断をAIに買えられたとしても、利用者にとってはわからないかもしれませんね。