変わりたい組織と、成長したいビジネスパーソンをガイドする

会員登録をすると、編集者が厳選した記事やセミナー案内などをメルマガでお届けしますNIKKEIリスキリング会員登録最新情報をチェック

人工知能(AI)は業務や組織を大きく変えるデジタルトランスフォーメーション(DX)のけん引役だ。私たちの生活を豊かに、便利にするのに欠かせないが、万能ではないことはもっと意識されていい。

例えば、採用AI。米国のネット通販大手が使ったところ、女性に不利なスコアを出すことがわかり利用停止に追い込まれた。男性を多く採用していた過去のデータからAIが「男性を採用した方がいい」と学び、女性に関連する言葉が含まれる履歴書を自動的に減点してしまっていたのだ。

米国の裁判所で使用されるコンパスという再犯予測システムでは、黒人の被告は白人より再犯危険度が高く示される傾向があり、不利だとして大きな社会問題となった。多くの人になじみ深い顔認証システムも、特定の人種や女性に対しては精度が低くなることがわかっている。

残念ながら、こうした問題はアルゴリズムの世界ではよくあるのだ。AIは過去から現在までのデータを学習して規則性を見いだす。データはステレオタイプなジェンダー観や人種差別などすでにある社会の偏見を反映している。結果としてAIはこれまでの格差や差別を学び、再生産してしまう。

世界で問題意識は高まっている。欧州委員会はAI倫理ガイドラインを策定。社会が求める規範に基づき、AIが満たすべき要件をまとめている。多くの国際機関や国が発表しており、日本でも総務省などがガイドラインでAI倫理に触れている。

画像はイメージ=PIXTA

画像はイメージ=PIXTA

新着記事

Follow Us
日経転職版日経ビジネススクールOFFICE PASSexcedo日経TEST

会員登録をすると、編集者が厳選した記事やセミナー案内などをメルマガでお届けしますNIKKEIリスキリング会員登録最新情報をチェック