「自動運転車、子供の歩行者を検知する能力が低いと研究で判明」

Study finds that autonomous vehicles have low ability to detect child pedestrians.

AIは、顔認識システムが黒人を誤認識したり、チャットボットがヒトラーを称賛したりするなど、偏見のある歴史があります。一部の状況では、その結果は致命的なものになることもあります。

今週、その一例が明らかにされました。新しい研究によると、自動車の研究で使用されている歩行者検知システムには、年齢や人種に関する重大な偏りがあるということです。

この研究は、無人運転車の導入にさらなる障害をもたらすだけでなく、道路安全に対する驚くべき潜在的な問題も明らかにしています。

この結論は、8つの人気のある歩行者検知システムを系統的に調査した結果から得られました。キングス・カレッジ・ロンドン(KCL)の研究者たちは、8,000枚以上の歩行者の画像に対してソフトウェアをテストしました。

彼らは、成人の場合の平均的な検出精度は、子供の場合よりも約20%高く、光肌の歩行者の場合は、他の人種の歩行者よりも7.5%高い精度でした。

これらの差異は、AIの偏りの一般的な原因である、代表的でないトレーニングデータに由来しています。

「エンジニアリングやデータサイエンスに関して、古い格言があります。『ゴミを入れればゴミが出る』というものです。AIシステムは、多くのトレーニングデータを使用してトレーニングする必要があり、そのデータの不備は必然的にAIに反映されます」と、KCLのコンピューターサイエンス講師であるJie Zhang博士はTNWに語りました。

「この場合、これらの歩行者検知システムのトレーニングに使用されるオープンソースの画像ギャラリーは、すべての歩行者を代表しておらず、光肌の成人に偏っています。トレーニングに使用するデータが少ないほど、AIは代表されていないグループを検出する際により正確性が低くなります」と述べています。

もう一つの問題は、照明条件で現れました。低コントラストや低輝度の状況下では、子供や濃い肌の人に対する偏見がさらに悪化しました。これは、夜間の運転中に両グループがより高いリスクにさらされることを示唆しています。

自動車メーカーは歩行者検知ソフトウェアの詳細を公表していませんが、通常は研究で使用されるオープンソースシステムに基づいています。したがって、Zhang博士は彼らも同じ問題を経験すると確信しています。

リスクを減らすために、彼は歩行者検知システムについてのさらなる透明性と厳格な規制を求めています。

「開発者は、検出システムのトレーニング方法やパフォーマンスについてより透明性を持つことから始めるべきです。これにより、客観的に評価できるようになります。そうしないことの結果は重大なものになる可能性があります」と彼は述べています。

「しかし、さらに重要なのは、メーカーがAIシステムが公正かつ代表的であることを確認するために取り組むことであり、その原動力は政策立案者やAIの公正性に関するより厳しい規制から生まれるでしょう」と彼は述べています。

この研究論文はこちらで読むことができます。