カテゴリー
技術

履歴書の機械学習が女性差別になってしまい、Amazonが止めたというニュース

ロイターの記事 “Amazon scraps secret AI recruiting tool that showed bias against women

アマゾン社の中の人による匿名の情報ということだけれど、2014年に組まれたチームが、求職者からの履歴書を機械学習して(アマゾンレビューのように)星5つでランク付けをしたら、ソフトウェア開発者や他の技術者の高評価が男性に偏ってしまうことに気づいた、ということです。

学習に使った過去10年の求職者に占める男性の割合が多かったために、男性的な言葉を多く使った履歴書が優秀とされてしまったそうです。入力にバイアスが掛かってれば、結果にも掛かるのはある意味当たり前ですね。アマゾンに限らず、アメリカのIT企業で社員の男女比や有色人種比率が公表されたり比較されたりしている中で、これまでのやり方をベストとして強化すれば、属性にこだわらず優秀な人を取るということができなくなってしまいそうです。

記事によれば、結局、このチームは解散となったということ。今は別のチームで、重複したデータを削除するとか、多様性が保たれるようにスクリーニングするとか、よりマイルドな使い方を追及しているということです。

カテゴリー
ネットのサービス

英語の求人文章から「男性的」「女性的」な表現の偏りをチェックしてくれるサイト

イギリス内閣府とNPO団体 の共同運営するAppliedは、ジェンダー差別や人種差別を廃し、公正で多様性のある採用ができるような支援機能を多数持つ求人サイトだそうです。

そのような機能のうちの一つ、あなたの書いた求人の文章のジェンダーバイアスをチェックしてくれるオンラインツールは、デモとして無料公開されています。

試しに、ネットに公開されているシニア・プロダクトマネージャー募集のサンプルを与えてみたところ、こんな判定が出てきました。

男性的(masculine)と判定された単語は、

  • leader (リーダー)
  • confident (自信いっぱいの)
  • analyze (分析する)
  • lead (リードする)
  • leadership (リーダーシップ)

女性的(feminine)と判定された単語は

  • responsibilities (責任)

求人広告に書かれた文章は、その職務のことだけでなく、企業組織やその文化についてのヒントを応募者に与え得るそうです。Applied は、男性的な言葉ばかり並べた募集の文面は女性の応募を遠ざけ、結果的に多様性の無い組織を作ってしまう、と主張しています。求人を書くときに、無意識にどちらかの性の人物を想定して、言葉を選んでしまっていないか、ということでしょうね。

他にも同様の注意を呼び掛けているサイトはあり、バイアスの少ない文章が求人で重要、という考え方はAppliedだけの発想ではなさそうです。

サービスは最低プランが無料から始まるフリーミアムで、ユーザー1人で使うだけなら無料である程度使えるようです。

海外に支店があったり、グローバライズした製品やサービスを売ったりしなければいけない日本企業では、英語で求人しなければいけない、という状況もあるでしょう。英語で正しく文章を書くだけでも大変ですが、文章に含まれる微妙な偏りや差別については、文法的な正しさとはまた違った知識や経験が必要そうですし、このようなツールに一回かけてみて、あまりに一方的な判定結果が出た場合はちょっと考えてみる、というのは安全のためにもいいかもしれないですね。

via New Scientist

カテゴリー
fun

有名企業の採用インタビューをステレオタイプに描いたカット

Brightsideによる13のコミックストリップでは、ITの有名企業などでの採用がどんな判断で成されているか、を、世間に広まっている印象で面白おかしく描いています。

brightside-funny-job-interview-instagram

インスタグラムは、ハッシュタグで採用

brightside-funny-job-interview-starbucks

スターバックスは、紙コップに読めない字で名前を書ければ採用

brightside-funny-job-interview-apple

アップル 「もし iPhone 6sを改良するとしたら?」
応募者 「充電機能を取り除きますね。電池が切れたら新しいのが売れますから」
アップル 「独創的だ! 採用」

全部で13個あります