Alexandria Ocasio-Cortezは、アルゴリズムは人種差別主義者になることができると言います。彼女が正しい理由はここにあります。

Pin
Send
Share
Send

先週、新しく選出された米国下院議員のアレクサンドリアオカシオコルテスは、4回目の年次MLK Nowイベントの一環として、顔認識技術とアルゴリズムは「常にこれらの人種的不平等があり、翻訳されているので、アルゴリズムがまだ作成されているため、人間によるものであり、これらのアルゴリズムは基本的な人間の仮定に固定されています。それらは単に自動化されています。また、自動化された仮定-バイアスを修正しない場合は、バイアスを自動化しているだけです。」

それは、理論的には数学の客観的な真理に基づいているアルゴリズムが「人種差別主義」になる可能性があることを意味しますか?もしそうなら、そのバイアスを取り除くために何ができるでしょうか?

アルゴリズムからの出力が実際に偏った結果を生み出す可能性があることがわかりました。データサイエンティストは、コンピュータープログラム、ニューラルネットワーク、機械学習アルゴリズム、人工知能(AI)は、与えられたデータからどのように動作するかを学ぶので機能すると言います。ソフトウェアは偏見のある人間によって作成され、トレーニングデータも偏見のある人間によって生成されます。

機械学習の2つの段階は、このバイアスが一見自動化されたプロセスに侵入する方法を示しています。最初の段階であるトレーニング段階では、アルゴリズムは一連のデータまたは特定のルールや制限に基づいて学習します。 2番目の段階は推論段階で、アルゴリズムは実際に学習した内容を適用します。この第2段階では、アルゴリズムのバイアスが明らかになります。たとえば、アルゴリズムが長い髪の女性だけの写真でトレーニングされている場合、短い髪の人は男性だと考えられます。

2015年、Googleフォトが黒人をゴリラとしてラベル付けしたことで、Googleは悪名高く非難されました。おそらく、それらがトレーニングセットで唯一の黒肌の存在であったためです。

そして、バイアスは多くの道を通り抜けることができます。 「よくある間違いは、偏った人間からの過去の決定に基づいて予測を行うようにアルゴリズムをトレーニングすることです」とデータサイエンストレーニングブートキャンプMetisの上級データサイエンティストであるSophie SearcyはLive Scienceに語りました。 「以前に融資担当者のグループによって下された決定を自動化するアルゴリズムを作成する場合、私は簡単な道を歩み、それらの融資担当者からの過去の決定についてアルゴリズムを訓練するかもしれません。しかし、もちろん、それらの融資担当者が偏っていれば、私が構築したアルゴリズムはこれらのバイアスを継続します。」

サーシー氏は、犯罪が発生する場所を予測しようとする刑事司法システム全体で使用されている予測ツールであるCOMPASの例を挙げた。 ProPublicaはCOMPASの分析を行い、他の統計的説明を制御した後、このツールは黒人被告の再犯のリスクを過大評価し、常に白被告のリスクを過小評価していることを発見しました。

アルゴリズムの偏見と闘うために、サーシー氏はLive Scienceに、エンジニアとデータサイエンティストは、新しい問題のためのより多様なデータセットを構築し、既存のデータセットに組み込まれている偏見を理解して軽減する必要があると語った。

何よりもまず、予測分析会社のAnodotのデータサイエンティストであるIra Cohen氏は、民族や性別の属性を特定するアルゴリズムをトレーニングする場合、エンジニアはすべての母集団タイプを比較的均一に表すトレーニングセットを用意する必要があると述べています。 「調査対象の全体的な人口の中で少数派である場合でも、各人口グループから十分な例を示すことが重要です」とコーエン氏はLive Scienceに語った。最後に、コーエンは、これらすべてのグループの人々を含むテストセットでバイアスをチェックすることをお勧めします。 「特定のレースで、精度が他のカテゴリーよりも統計的に有意に低い場合、アルゴリズムに偏りがある可能性があり、それに使用されたトレーニングデータを評価します」とコーエン氏はLiveScienceに語った。たとえば、アルゴリズムが1,000の白い顔のうち900を正しく識別できても、1,000のアジア顔のうち600しか正しく検出できない場合、アルゴリズムはアジア人に対して「反対」のバイアスを持つ可能性があるとコーエンは付け加えました。

バイアスを取り除くことは、AIにとって非常に困難な場合があります。

商用AIの先駆けと見なされたGoogleでさえ、明らかに、2015年からゴリラの問題に対する包括的な解決策を思い付くことができませんでした。Wiredは、アルゴリズムが色の人々とゴリラの人々を区別する方法を見つける代わりに、単にブロックしたことを発見しましたゴリラを特定することからの画像認識アルゴリズム。

Googleの例は、AIソフトウェアのトレーニングは、特にソフトウェアが代表的で多様な人々のグループによってテストまたはトレーニングされていない場合、難しい練習になる可能性があることをよく思い出させてくれます。

Pin
Send
Share
Send