∑考=人

そして今日も考える。

自動運転車の死亡事故を受けて

タクシー業界のディスラプターとして注目を浴びていた企業Uberが自動運転車の試験中に死亡事故を起こしたことが話題になっている。これを受けて、数日前に日本No.1企業のトヨタも自動運転車の公道テストを停止する方針だ。

jp.autoblog.com

 

自動化の推進というのは結構難しい。私も今の仕事で自動化を推進してたりするのでよくわかるが、結構システム化することに対する抵抗や不安を示す人たちが未だに多いのだ。「100%の安全は保証できませんよね?」みたいなスタンスで来られたら、正直その通りです、としか言えない。

 

しかし、「だから、人にやらせた方がよい」と考えるのは完全に誤りである。人にやらせたって100%はないし、なんならシステムに任せた方が精度は高い。でなければ、今世の中の業務にITがこれほど使われていることの説明はつかない。

 

それでも、世の中のシステムだって未だにバグは発生することはあるし、そもそもバグの発生しないシステムなんてないのだ。(Windows OSだって未だにバグが発生している。)そしてそれを承知の上で使うという選択を下した結果が今の社会のはずだ。

 

既に導入済みのシステムの完全性に対する不安は完全に置き去りなのに、新しい領域を自動化する話となると、必ずこういった抵抗が起こる、というのはもはや面白い。自然の摂理、歴史は繰り返される、というわけ。

 

で、そういった不安を誰しもが抱えている導入フェーズで問題が起こると必ず、「自動化」自体が悪い、という考え方をする人たちが一定数存在する。こんな形で自動運転車の進化がストップしてしまうのは、残念。いや、もちろん亡くなってしまった方は本当に気の毒ではあるけれど、「だから自動運転車が悪い」という考え方は短絡的なのかな、と。

 

例えば、今回の事件だとまず一番問題だったのは、テストドライバーが道路を見ていなかったことだし、会社としてはその訓練や管理が甘かったと言われても仕方がないとは思う。導入段階においてはやはりバグが潜在している可能性もあり、システム自体の品質に懸念があることの方が多いので、そこは人の目と並行して確認を行う必要があるからだ。

 

ただ、やはり注意が必要なのは、いくらバグを改修していったからといって、今後自動運転車で死亡事故が0になることはおそらくない、ということだ。つまり、100%の安全を実現することはできないだろう。ただ、人が運転するよりは極めて安全になる、というだけだ。

 

また、車というのは物理的な制約を受ける。つまり、今のスピードに対して、もう絶対に止まれない距離範囲内に人が現れれば、事故は普通に起こり得る。むしろ歩行者はこれまで以上に気をつけなければならないかもしれない。今回の事故もそういう示唆を与えるものだったのではないだろうか。

 

5Gなどの通信環境が進化することで、車同士がお互いの状況をリアルタイムで検知することが可能になれば、車同士の衝突などは確かに激減するだろう。しかし、オフライン状態の人のことは理解できないので、安全のために何かしらのアプリを入れて、人がそこにいることを車に伝える仕組みが必要になってくるかもしれない。