カテゴリー
社会

落とした財布が戻ってくるか世界40か国で行われた実験結果

世界の40の国、355の都市で17000個の財布を落として実施された大規模な社会実験結果が発表されました。

「落とされた」財布には、以下のようなものが入っています。

  • 現金 米ドルで$13.45(1430円) 相当を現地購買力に合わせて補正した現地の通貨
  • 同じ名刺が3枚 メールアドレス入り (現地によくある男性名で、現地語)
  • 買い物リスト (現地語で)

財布によって条件を変えて、結果にどう影響するかも調べたそうです。たとえば、現金は入れない”No Money”の条件。鍵を入れる入れない、など

これを、銀行、劇場や美術館等、郵便局、ホテル、警察署、裁判所、などの受付に「角にこれが落ちてました。私は急ぐのでこれで」と連絡先を教えずに去り、中の名刺に書かれた連絡先に連絡が来るかどうか、を調べたそうです。

お金を入れたものと入れなかったものの二つを国別にプロットしたのがこちらのグラフ。

40か国中38か国で、お金が入っていた方(赤い点)の方が、持ち主に戻ってきています。お金が入っている方が、「持ち主に届けなきゃ」という気持ちが出るのですね。メキシコとペルーのみ、現金が入っていない方が財布の戻りは良かったそうですが、その差もそれほど大きなものではありません。

また、「お金だけ」「鍵だけ」などの対照実験では、鍵が入っていた場合の戻り率が高かったということ。鍵を亡くしたのは困っているだろう、という他者への想像力でしょうか。

なお、「戻ったかどうか」は、100日以内に名刺のメールアドレスに連絡が有ったかどうか、で判定しているそうですが、その後に実際に財布が戻った際に、現金が抜かれたうえで戻ってきた率は2%以下に過ぎなかったそうです。

北欧諸国では8割の財布が戻ってきたそうで、すごいですね。実験対象に日本が含まれてないのが残念です。日本も自己イメージとしては落とし物が戻りやすい国ではないかと思いますが最近どうなんでしょうね。

via Bored Panda

カテゴリー
社会

Q – 性別のない合成音声=ジェンダーレス・ボイスを各社音声アシスタントに採用呼びかけ

Q は、グーグル/アップル/アマゾン/マイクロソフトなどIT大手のスマートスピーカーや音声アシスタントに向けて提案された、男性でも女性でもない合成音声です。

サイトトップでクリックすると、その男女どちらでもない合成音声を聴いてみることができます。

デンマーク・コペンハーゲンのLGBTパレード団体やAIのバイアス問題に対処しようという団体らによって制作されたこの音声は、GoogleアシスタントやAmazonアレクサなどの音声アシスタントの音声が「男性声」「女性声」からの選択を強いていることに対する問題提起だということ。

言われてみれば、機械で合成しているのだから人工音声で男性か女性の声を選ばないといけない理由はないわけです。

「テクノロジー企業は、合成音声の性別を選択できることで人々がより快適になると信じ、性別をテクノロジーに持ち込んでいます」

「残念なことに、これらによって性別が必ずはっきりどちらかの2つに分かれる、というステレオタイプの永続化が補強されてしまうのです」

なるほど。応答ができて情報が返せればいいのですから、機械の合成音声にわざわざ性別を与える必要はないのかもしれません。男性声・女性声が今すぐ無くなるとは思えませんが、中性声を追加することはそれほど抵抗なく採用してもらえる可能性もあるのではないでしょうか。

このQの音声モデルは、数千の候補者から数人を選び、その人たちに話してもらった声のピッチを変換することで作ったと、紹介動画にありました。

「世界初のジェンダーレス音声」とサイトでは言っています。これまでも中性的な音声合成はいろいろ存在していたと思うので、世界初は言い過ぎではないかとも思いますが、ジェンダー中立を訴えて作成されたという意味ではこれまでになかったものでしょうか。

via Hacker News

カテゴリー
社会

Gmail の文章サジェスト機能、ジェンダーバイアスの強化を避け性別の人称代名詞を(当面は)避けることに

次を予測して文章を提案してくれるスマートコンポーズ機能

Gmail の実験機能の一つに、スマートコンポーズ(Smart Compose)という機能があり、Gmail の言語設定を英語にした上で設定でオンにすると使えるようになります。

この機能は、途中まで入力した文章を基に、全文を予測してグレーの文字で提案してくれるという機能です。

日ごろから日本語入力でIMEを使っている我々にしてみれば、入力時にある程度先を提案してくれる(たとえば、「おは」と書いたら「おはようございます」が候補に出る)のは英語圏の人たちよりもなじみ深い仕組みかと思います。Gmail の Smart Compose は、それを文の終わりまで拡張したようなものになります。

実験機能でオンにしないと使えないとはいえ、Gmail から送られるメッセージの11% でこの機能がオンにされているということで、英語圏のヘビーユーザーは結構使っているのかもしれません。

データ学習から提案される ‘he’ や ‘she’ のバイアス

ところが、Gmail の担当チームは、このサジェストが ‘he’ や ‘she’ といった三人称の人称代名詞を、既存データのバイアスに影響されて選んでしまうことに気づいてしまったそう。

「私は来週投資家に会うつもりだ。君も…」 と書こうとすると「…に会うかい?」と、必ず「彼」が出てきたというのです(「投資家」の場合)。

Google が持っている膨大な文章データから自動生成するとそうなる、ということで、特定の職業の性別を男女どちらかに推定しまうことに Google 自体の罪があるわけではありません。多くの人々が内包しているバイアスなのでしょう。

しかし、このようなサジェスト機能をみなが使い続けると、サジェストがまた次に生み出される文章のバイアスを強化してしまう可能性がありますね。バイアスの無い she/he の提案が今は難しいと考えたチームは、さしあたりこのような提案になる場合は提案そのものをしないという決定を下したそうです。

via Reuters via TheNextWeb