∑考=人

そして今日も考える。

AIの不透明性など大した問題にはならない

今日はAIに纏わる課題、不透明性についての話。

blog.tinect.jp

 

上の記事によると、AIが採用した人材自体を人が評価した時に問題はなさそうに見えたが、なぜその人材を選んだか、がわからずに見送ったとの趣旨である。要するに、アウトプットは正しいのだけれど、プロセスの合理性が説明できない点に課題を感じている、ということだ。

 

確かにAIの不透明性は今の課題の一つかもしれない。

 

というのも、私も昨年の11月頃からAIを利用している。具体的には、資産運用をしてくれている「ロボアドバイザー」というサービスだ。はじめに、毎月の積立金額やリスク許容度などの簡単な診断にいくつか答えると、AIが自動的にポートフォリオを組んで資産を運用してくれる。

 

はじめの頃は、少額ながら資産が増加していたので特に気に留めてもいなかった。しかし、ここ数日、アメリカ株式の暴落を受けてか、マイナスに推移している。すると、AIは何をやっているんだ?という話になる。つまり、なぜ今のポートフォリオを買っているのか?とか、その考え方は果たして正しいのか?ということが気になるのだけれど、それが全くもってわからない。それがAIである。

 

AIは内部のプロセスを全てブラックボックスにしてしまうのだ。これは現代を生きる人間がAIを導入する要因のもっとも大きな障壁ではないかと思う。

 

でも、例えばAIがもう少し進化して人間の言葉で説明ができるようになったとすれば解消されるんじゃ?そう考える人もいるかもしれない。ただ、結論から言うと、それはできない。

 

AIの中でも、ディープラーニングと呼ばれる強いAIは大量のテストデータから特徴量を自ら生成する。特徴量というのは、例えば猫の場合は、「長い髭が3本ずつ生えている」などの特徴を表しているパラメータぐらいに考えれば良い。

 

ただし、あくまでAIが認識しているのは0と1のデジタルの集まりでしかなく、人間とは全く別の世界であることに注意する必要がある。決して「長い髭が3本ずつ生えていること」を認識しているわけではない可能性があるのだ。

 

つまり、我々は「長い髭が3本ずつ生えている。だからこれは猫だ。」という論理で結論を導出するけれど、AIからすれば、「猫は0と1の配列がこんな並びになっている。だからこれは猫だ。」みたいに、例え人間に説明したとしてもよくわからない論理になってしまう。

 

また、顔から犯罪予備軍を特定するAIなどが登場しているように、既にAIは人間には見つけられない特徴を見出せる可能性が非常に高い。こうなってくると、もはや第6感というか、人間には理解できない概念をAIが認識していると考えるべきだろう。霊感が強い人に「あなたの横に幽霊がいます」と言われたって、簡単には信じられない人もいるはず。そこに対してなぜなのかと説明を求めたとしても納得のいく理由は決して得られない。それと同じ。

 

しかしながら、私が言いたいのは、だからAIはダメだ、という話ではない。むしろ、「理由がわからないから」なんて理由でAIを却下していると、間違いなく時代に置いていかれる、という話。確かにディープラーニング同士の囲碁の対局はつまらないかもしれないが、ビジネスの現場に求められるのは常にプロセスではなく結果だからだ。

 

産業革命や情報革命の黎明期には、「人が丁寧に作ったものでないと品質が心配」だと考えていた人が沢山いた。しかし今はどうだろう。機械化・自動化が当たり前のものになっている。今車に乗る時に、「なぜ車が走るのかわからないから乗らない!」なんて人が周りにいるだろうか。AIの不透明性がいずれ問題にならなくなることは歴史が証明している。