中華IT最新事情

中国を中心にしたアジアのテック最新事情

ネットで拡散する人工知能の無能ぶり。ポンコツ人工知能を楽しむ

SNSやショートムービープラットフォームで、最近出回り始めたのが、人工知能の無能ぶりを示す画像や動画だ。もちろん、お笑いネタとして楽しまれているが、中には偏見や差別に直結しかねない問題も潜んでいると万星人が報じた。

 

スキンヘッドをボールと判定して追従

生活の中に人工知能などを応用したハイテクが当たり前のように普及をしている中国だが、やはり実際に使ってみれば、いろいろ問題は起きる。

最近、話題になったのは、スコットランドインバネスカレドニアン・シスルのホームスタジオに導入されたAIカメラだ。これはボールを認識し、カメラが自動的にボールを追跡するというものだった。

ところが、10月24日に行われた試合では、偶然にもスキンヘッドの線審がいた。AIカメラは、この線審のスキンヘッドをボールだと認識して、追跡してしまった。中継を見ている人は、ボール周辺のプレーを見ることはできず、ずっと線審を見ることになった。

f:id:tamakino:20210423093853p:plain

f:id:tamakino:20210423093831j:plain



顔認証決済で他人に支払わらせるテクニック

また、中国のショートムービープラットフォームでは、顔認証決済に関する楽しいムービーが出回っている。アリババの新小売スーパー「盒馬鮮生」(フーマフレッシュ)などでは、顔認証決済のセルフレジが導入されている。事前に顔を登録しておけば、顔を見せるだけで、スマートフォン不要で決済ができる。

この顔認証セルフレジも、混雑時には行列ができる。そして、支払いボタンを押した後、ハンカチなどの小物を落とし(あるいはそのふりをして)しゃがむ。すると、カメラには行列に並んでいる後ろの人の顔が認識され、その人が支払うことになってしまうというものだ。

これはもちろん、「こんなことも起こりえる」という面白ビデオであり、役者が演じたものだが、セルフレジにも行列ができることは珍しくないので、現実にも起こり得る話だ。

f:id:tamakino:20210423093839j:plain

 

無人配送車が車よけを人と勘違いし立ち往生

さらに、すでに街中を走る光景が当たり前になっている宅配便の無人配送車も笑える問題を起こしている。この無人配送車は、人を感知すると、停止をして、「すみません、道を開けてください」というアナウンスを流し、人が避けると再び走り出すという仕様になっている。

ところが、丸い車止めのところで、これを人と認識してしまい、「すみません、道を開けてください」と言い続けたまま動けなくなったというものだ。

f:id:tamakino:20210423093848j:plain

 

野良犬を未知の人として認識

また、顔の認識精度の低さによる問題も起きている。ある大学の顔認証ゲートでは、学生が通過をすると氏名と時刻が記録されるが、なぜか犬の画像が混ざり込み、「未知の人」に分類されてしまっている。おそらく、野良犬がカメラの前にいたのだと思われる。このシステムは、登録された学生かどうかだけを判定して、それ以外では人間か動物であるかどうかの判別制度は著しく悪いようだ。

f:id:tamakino:20210423093757p:plain

 

フェイシャルパックをつけた人は非生命体の侵入。通報される

また、マンションにも顔認証ゲートが導入されている。住人であればゲートが開くというものだ。このマンションの住人が、ふざけてなのか、仕方なくなのか、フェイシャルパックをつけたまま通ろうとしたら、システムは「非生命体の侵入。通報しました」と表示した。これも認識したものを住人かどうかした判別していないためだ。

f:id:tamakino:20210423093814p:plain

 

手で覆えば、マスクありと判定

コロナ禍以来、各施設では、入り口に体温測定のシステムを導入するところが急増した。顔を検出し、マスクをしているかどうかと体温の測定をし、マスクをしていない場合、体温が高い場合は警告を出すというものだ。ところが、精度に関してはいろいろあるようだ。

手で口元を覆った女性は、マスクありと判断されてしまった。また、手で輪を作り、目の位置にかざした女性は眼鏡ありだと判定された。また、別のシステムでは、壁の肖像画を認識し、ご丁寧に体温まで測定した。これも学習が不足しているせいだと考えられる。

f:id:tamakino:20210423093835j:plain

f:id:tamakino:20210423093803p:plain

 

蛍光灯をミサイルと判定する分別回収AI

中国では2019年7月から大都市部でゴミの分別回収が始まっている。しかし、どのゴミがどの分類になるのかを迷うのは世界どこでも同じだ。そこで、人工知能を使って、ゴミの写真を撮影すると、それが何であるかを識別してくれるアプリが続々と登場した。

精度の方は、それなりだ。紙屑を認識させると貝殻と判定されたり、蛍光灯を認識させるとミサイルと判定される。

f:id:tamakino:20210423093810p:plain

 

交通整理の警官を赤信号無視と判定

赤信号で横断歩道を渡り、交通事故に会う歩行者が後を絶たない。そこで横断歩道に監視カメラを設置し、信号無視をする歩行者を認識し、顔を撮影。屋外の大型ディスプレイに一定期間、その顔を表示するというシステムが開発されている。深圳市で始まったこのシステムは、他都市にも展開をしている。中には、身分証データベースを参照し、顔認証で信号無視の歩行者の身元を特定し、後から警告を通知することを行なっている都市もある。市民からはやりすぎだという声もあるが、信号無視の歩行者を激減させる効果は高い。

ところがこのシステムにも問題があった。トラックに描かれた広告の人物を認識してしまい、違反者としてディスプレイに表示する例、ベビーカーに載せられた赤ちゃんが横断歩道を乗り物に乗って渡ったという違反だと表示された例、さらには交通整理にあたる警官までが違反者として表示された例がある。

f:id:tamakino:20210423093807j:plain

f:id:tamakino:20210423093827p:plain

f:id:tamakino:20210423093823p:plain

 

人工知能に潜む「偏見」

ネットに画像が挙げられているようなこのような人工知能の失敗例は、笑って済ませられるようなものがほとんどだ。しかし、人工知能には笑っては済ませられない問題が潜んでいる。

2018年にMITメディアラボのジョイ・ブラムウィニーとスタンフォード大学のティムニット・ゲブルーの2人の研究者が、肌の色の多様性を考えた1270枚の顔写真で、IBMマイクロソフト視科技が開発した3つの顔認証システムをテストした。すると、どのシステムでも、肌の色が明るい方が、男性の方が認識精度が高かった。白人男性では誤判定率は0.3%にすぎなかったが、暗い肌の女性では、誤判定率は、マイクロソフトのもので21%程度、他のもので35%にもなった。

これは悪意や偏見があってそうなっているのではなく、単なる開発チームの想像力の欠如だ。学習に使われたデータセットが、明るい肌の男性に偏っていたのだ。

現在では、社会の中で活用される人工知能がこのような偏見を生まないように、学習データセットの多様性に配慮するようになっている。

しかし、人工知能は学習データを数学的に識別をするため、肌の色、男性と女性というような人間にも見分けのつく分類だけでなく、人間には理解が難しい数学的な分類をしていくため、現在の人工知能であっても、数学的マイノリティーを生み、そのような人々に対する「偏見」が存在している可能性がある。

そのような数学的マイノリティーの人は、多くの顔認証システムで認識失敗を経験することになるが、その理由は開発者にも本人にもわからない。人工知能社会から疎外されたような感情を持つことになる。

人工知能は中立的で、学習したものから、求められる仕事をするだけだ。しかし、それを開発する人間の知見と想像力の限界が、人工知能の限界を生んでしまっている。