採用にもAI活用 書類・面接で見えぬ人材を発掘

米国では犯罪者の量刑や釈放の判断に過去のデータからはじく再犯危険度を活用していますが、米報道機関が追跡調査をしたところ、実際には再犯しなかったのに危険度が高いと評価されていた人の割合は黒人が白人よりも多かったそうです。採用にあてはめれば、例えば男女で偏見のある評価をしてしまうことも考えられます。

こうした公正性まで考慮したAIは「まだ研究段階」(産業技術総合研究所の神嶌敏弘主任研究員)というのが現状です。

神嶌敏弘・産業技術総合研究所主任研究員「属性無視でも不公平は起きる」

AIに公平な判断をさせるにはどんな課題があるのでしょうか。産業技術総合研究所の神嶌敏弘主任研究員に聞きました。

――コンピューターによる判断で公平性が問題となった事例はありますか。

神嶌敏弘・産業技術総合研究所主任研究員

「ラタニア・スウィーニー氏(米ハーバード大教授)の指摘を紹介します。情報検索サイトで人の名前を検索するときに、(検索連動広告に)『逮捕されました』といった文言がアフリカ系の名前には出やすかった。そこでヨーロッパ系の名前にしたところ、単に『我々は見つけました』といったあまり悪い印象の言葉ではなかった。アルゴリズムがなにか悪いことをしているのではなかろうかということで調べてみると、人種によって差別的な扱いをしていたということはなかった。検索する人が、アフリカ系の名前だと印象の悪い文章を表示したときにクリックしやすかったがために、そのデータにあわせて調整しているのでこのような差がついてしまった」

――アフリカ系やヨーロッパ系という属性を無視するアルゴリズムにすることで解決はしないのでしょうか。

「レッド・ライニングはご存じですか。昔、公民権運動があったときに、銀行は貸し出しをするかどうかを人種に依存して決めてはならないということを法令で定めました。ところが、銀行はどうしたかというと、住む地域によって貸し出すか貸し出さないかということを決めました。そして、貸し出さないと決めた地域にはアフリカ系の人がたくさん住んでいた。つまり、人種と関連のある情報を使ってしまうと、結果として差別的になってしまう。なぜレッド・ライニングというかというと、銀行がそういう地域を地図上で赤い線で囲んでいたからです」

――すべてのデータを入れた上で調整しなければならない。

「はい、情報を経由しても差別的にならないように、ということを考えなければいけません」

――公平なAIというのはうまくいきそうなのでしょうか。

「今まで不公平な状態かどうかということ自体が分からなかった。データ分析を適応することによって初めて明らかになったので、状況が悪くなったわけではないと考えています」

(久保田昌幸)

転職こそ日経。次のキャリアに挑むなら「日経キャリアNET」

■大手・上場企業
■外資系企業
…など優良企業を多数掲載中

>> 詳しくはこちら

「日経キャリアNET」はビジネスに強い日経が作った総合転職サイトです。

日経キャリアNET

今こそ始める学び特集
ブックコーナー ビジネス書などの書評はこちら
注目記事
今こそ始める学び特集
ブックコーナー ビジネス書などの書評はこちら