アマゾン、AIに優秀な人材を選別するよう学習させる → 女性が低評価になる欠陥判明、開発チーム解散

ai_heart_kokoro



1:名無しさん@涙目です。:2018/10/11(木) 22:30:59.40 ID:0urIMr6l0 BE:601381941-PLT(13121)

焦点:アマゾンがAI採用打ち切り、「女性差別」の欠陥露呈で

[サンフランシスコ 10日 ロイター] - 米アマゾン・ドット・コム(AMZN.O)が期待を込めて進めてきた
AI(人工知能)を活用した人材採用システムは、女性を差別するという機械学習面の欠陥が判明し、
運用を取りやめる結果になった。

事情に詳しい5人の関係者がロイターに語ったところでは、アマゾンは優秀な人材をコンピューターを
駆使して探し出す仕組みを構築するため、2014年から専任チームが履歴書を審査するプログラムの
開発に従事してきた。

そこで生まれたAI活用の採用システムは、あたかもアマゾンの仮想店舗の格付けのように、応募者を
5点満点でランク付けする。関係者の1人は「だれもが求めていた究極の方法だ。このツールが5点の
応募者を明示し、われわれが彼らを採用する」と話した。

ところが15年までに、アマゾンはソフトウエア開発など技術関係の職種において、システムに性別の
中立性が働かない事実を見つけ出してしまった。これはコンピューターモデルに10年間にわたって
提出された履歴書のパターンを学習させたためだ。つまり技術職のほとんどが男性からの応募だったことで、
システムは男性を採用するのが好ましいと認識したのだ。

逆に履歴書に「女性」に関係する単語、例えば「女性チェス部の部長」といった経歴が記されていると
評価が下がる傾向が出てきた。関係者によると、ある2つの女子大の卒業生もそれだけで評価を落とされた。

アマゾンはこうした特定の項目についてプログラムを修正したものの、別の差別をもたらす選別の仕組みが
生まれていないという保証はない、と関係者は話す。このため同社の幹部はプロジェクトの先行きに失望し、
最終的に昨年初めにチームは解散したという。

また関係者によると、アマゾンの採用部門はAIシステムが示した評価に目は通したが、これだけに頼って
実際の採用を決定してはいない。

アマゾンの実験が始まったのは、折しも機械学習が本格的に進化し、同社が採用の大幅拡大を企図した
時期に当たっていた。規制当局の届出に基づくと、15年6月以降で社員総数は3倍超に膨らみ、57万5700人に達している。

キャリアビルダーが昨年実施した調査では、米国企業の人事担当幹部の約55%は、今後5年以内にAIが仕事の
一部に組み込まれるとの見方を示した。

採用側からすれば、新技術を用いて採用の網を広げるとともに、採用担当者の主観的な意見への依存を減らすのは
長年の夢だ。ただカーネギーメロン大学で機械学習を教えているNihar Shah氏は、課題はまだ多いと指摘。
「アルゴリズムの公平性や説明性をどうやって担保するかに向けた道のりはなお遠い」と述べた。

続きはソースで

ロイター
https://jp.reuters.com/article/amazon-jobs-ai-analysis-idJPKCN1ML0DN





2:名無しさん@涙目です。:2018/10/11(木) 22:32:28.31 ID:CRtP3rRu0.net

AIじゃなくて思想の方が欠陥なんだろ




5:名無しさん@涙目です。:2018/10/11(木) 22:34:21.47 ID:xcjxOdDw0.net

そのAI優秀なのでは...




62:名無しさん@涙目です。:2018/10/11(木) 22:58:18.87 ID:fr+ik2rB0.net

>>5
真実を突いちゃったか...





171:名無しさん@涙目です。:2018/10/11(木) 23:44:49.79 ID:z55OF+DU0.net

>>5
知り過ぎたら消されるってのはお約束やな





6:名無しさん@涙目です。:2018/10/11(木) 22:35:17.99 ID:ZpmZl5dh0.net

>>5
優秀過ぎてもクビになるなんて人間そっくりだなwww





27:名無しさん@涙目です。:2018/10/11(木) 22:44:36.28 ID:qJjaDfFo0.net

>>6
中国のAIも共産党は糞って言ってクビになったしな





114:名無しさん@涙目です。:2018/10/11(木) 23:14:56.23 ID:ZsIwdAW20.net

>>27
既視感があると思ったらこれか





9:名無しさん@涙目です。:2018/10/11(木) 22:37:24.34 ID:9GCQBpu30.net

いや、それ、統計の正しい解釈結果だからさ、差別関係ないんだけどな。




149:名無しさん@涙目です。:2018/10/11(木) 23:28:06.53 ID:jCHSzESa0.net

>>9
機械に対して差別してるとか言う奴
完全に頭狂ってるよな





100:名無しさん@涙目です。:2018/10/11(木) 23:11:31.71 ID:7uENic0b0.net

>>9
元のデータに差別が含まれてたら、自動的に差別を再生産するって問題だろう





10:名無しさん@涙目です。:2018/10/11(木) 22:37:46.71 ID:9E8OX3RK0.net

もうなんか自然法則であってもポリコレに合致しなきゃボコられそうな勢いだなおい




14:名無しさん@涙目です。:2018/10/11(木) 22:39:47.91 ID:691g7aid0.net

AIには建前の機能をつける必要があるな




148:名無しさん@涙目です。:2018/10/11(木) 23:27:47.48 ID:AaZdQfk90.net

>>14
本当は女性優遇だけど女性車両は平等にするために必要とか意味不明な論理展開になる





16:名無しさん@涙目です。:2018/10/11(木) 22:40:26.02 ID:nQt2MdxT0.net

都合が悪いと欠陥認定




21:名無しさん@涙目です。:2018/10/11(木) 22:42:01.90 ID:8mZFgXNn0.net

わろた




23:名無しさん@涙目です。:2018/10/11(木) 22:42:34.74 ID:c6SxC+Fk0.net

AIが考えた美しいまんさん

http://livedoor.blogimg.jp/karapaia_zaeega/imgs/9/6/963bf618.jpg





28:名無しさん@涙目です。:2018/10/11(木) 22:44:51.69 ID:5nhCQZLX0.net

>>23
サムネイルで見ると女に見えなくもないが、拡大するといつものように犬がいくつか混ざってるような





31:名無しさん@涙目です。:2018/10/11(木) 22:45:55.70 ID:i4g2fOHd0.net

>>23
クッソグロい





77:名無しさん@涙目です。:2018/10/11(木) 23:02:26.94 ID:lGeJbUPS0.net

>>23
サイレントヒルでみた





25:名無しさん@涙目です。:2018/10/11(木) 22:43:15.61 ID:7NQN2reW0.net

女の利点は9割容姿だからな
こういうのやらせたら低評価になるのは当たり前





36:名無しさん@涙目です。:2018/10/11(木) 22:46:46.41 ID:2/SIrEMJ0.net

つまり今までの女性チェス部部長は、アマゾン入社後ろくな働きをしなかったと言うことじゃん。




38:名無しさん@涙目です。:2018/10/11(木) 22:48:23.32 ID:7foPQzhG0.net

ちょっと前に学者だかもこんな感じの本当のこと言ってボコボコにされてなかったか




173:名無しさん@涙目です。:2018/10/11(木) 23:45:18.12 ID:W14XTBYY0.net

>>38
Googleの人がそれでクビになったね





39:名無しさん@涙目です。:2018/10/11(木) 22:48:39.71 ID:cEmR4kfb0.net

女性が主な職種に同様の学習をさせてみて
男性差別が生じるかを検証してから解散するかどうか考えるといいのでは





58:名無しさん@涙目です。:2018/10/11(木) 22:56:41.14 ID:i2A51rvr0.net

>>39
看護師とかアパレルとか女性が割と活躍してる業種で検証してみてほしいね





41:名無しさん@涙目です。:2018/10/11(木) 22:48:51.74 ID:0KR+Ctw90.net

AIは正直すぎるな




42:名無しさん@涙目です。:2018/10/11(木) 22:49:48.36 ID:vCw00pTE0.net

そうやって女性に下駄を履かせようとする行為が既に主観的なんじゃないの?




52:名無しさん@涙目です。:2018/10/11(木) 22:53:07.82 ID:i11m6j7a0.net

AIは正直
ポリコレ棒という余計なものを学習しなかっただけ





54:名無しさん@涙目です。:2018/10/11(木) 22:54:38.98 ID:hJtQJYTw0.net

AI間違ってないのに可哀相




元スレ アマゾン、AIに優秀な人材を選別するよう学習させる → 女性が低評価になる欠陥判明、開発チーム解散(2ちゃんねる.sc)
ラビット速報からのお知らせ







今月の人気記事ランキング!


     コメント一覧 (44)

      • 1. 名無しのうさぎさん
      • 2018年10月12日 01:32
      • 真実でも社会的に言っちゃいけないことを言ってしまったという欠陥
      • 2. 名無しのうさぎさん
      • 2018年10月12日 01:32
      • おお偉大なハルトマン おお偉大なハルトマン 永遠に果てなく栄えよ おお我らがハルトマン おお我らがハルトマン 銀河に名立つ王者よ 星々を手折り束ねて全てを捧げてしまえば皆を約束の地へと導く銀河の父よ おお輝けハルトマン おお輝けハルトマン 過去に未来に現在に おお讃えよハルトマン おお讃えよハルトマン 讃え願えば叶う 宇宙を舞う青き翼も夢歌う桃色の花も 心その身さえ捧げよ我らが父へ おお崇めよハルトマン おお崇めよハルトマン 主への絶対の忠誠 おお願えよハルトマン おお願えよハルトマン 黄金の化身を信じて 手に入れし野望儚く彼方へと消えゆくは記憶 時を巡る歯車疑視めて願うは父よ
      • 3. 名無しのうさぎさん
      • 2018年10月12日 01:34
      • 弱いやつほどマウント取られたら必死になる。図星だから。
      • 4. 名無しのうさぎさん
      • 2018年10月12日 01:34
      • 純粋な計算でそう出たのか、元のプログラムが恣意的に組まれていたかで話は変わる
      • 5. 名無しのうさぎさん
      • 2018年10月12日 01:39
      • なんかしばらくAIはあまり進化しそうにないね
        人間的にとか社会的にダメな事言ったら開発費無くなっちゃうんだもん
      • 6. 名無しのうさぎさん
      • 2018年10月12日 01:53
      • AIに選別させる前に小学生でも書けるプログラムで男女を分ければいいじゃんwww
      • 7. 名無しのうさぎさん
      • 2018年10月12日 01:54
      • 結果が50%にならなきゃ意味が無いって言うならAIに任せる意味無くね
      • 8. 名無しのうさぎさん
      • 2018年10月12日 02:00
      • こうやって、人類の進歩は足踏み・後退していくのであった・・・。
      • 9. 名無しのうさぎさん
      • 2018年10月12日 02:01
      • 物事の本質より感情で判断しがちな女性
      • 10. 名無しのうさぎさん
      • 2018年10月12日 02:05
      • 客観的に見てこの結果なんだよね
        それなのにリベラルの主張に疑問を持つ展開にならないあたり左に中立を求めるのは無理
        リベラルの主張以外に常に真実がありそうだな
      • 11. 名無しのうさぎさん
      • 2018年10月12日 02:20
      • 学習データが偏っていれば、学習結果も偏る。IT系技術職なら『女性チェス部の部長』をマイナス査定しないだろ。
      • 12. 名無しのうさぎさん
      • 2018年10月12日 02:22
      • 女が自己主張しだしたあたりから日本も住みにくくなってきたよね
        アホはひっこんどきゃいいのに
      • 13. 名無しのうさぎさん
      • 2018年10月12日 02:23
      • 性別の項目なしでやればいいだけでは?

        だとしても実際問題として「今の社会と職場環境」にフィットする人材集めようとしたら男ばっかりになるわな
      • 14. 名無しのうさぎさん
      • 2018年10月12日 03:00
      • 教師データの内容が偏ってたってだけの話やろ
      • 15. 名無しのうさぎさん
      • 2018年10月12日 03:31
      • 女さんは共産党だった…?
      • 16. 名無しのうさぎさん
      • 2018年10月12日 03:40
      • じゃあ女が多い職場だと女のが優秀って話になるんでしょ、このAI
        それは差別とかじゃなく欠陥じゃん、ポリコレとか言ってる奴ってどこ読んでんの?
      • 17. 名無しのうさぎさん
      • 2018年10月12日 03:42
      • ※12
        この記事はAIがクソの役にも立たなかったって話なのになんで女の話に拘るんだよ
        そんなに女にコンプレックスがあんのか
      • 18. 名無しのうさぎさん
      • 2018年10月12日 03:56
      • それは本当に欠陥だったんですか?
      • 19. 名無しのうさぎさん
      • 2018年10月12日 05:22
      • 性差の点は平滑化しないと機会の平等化は図れないって認識か・・・

        まあ一般的な女性はともかく、フェミ婆さんにはブチ切れ案件だ罠www
      • 20. 名無しのうさぎさん
      • 2018年10月12日 05:31
      • そもそもIT関係の人間って圧倒的に男の方が多いし仮に性別マスキングしてやってもAmazonみたいなトップ企業が優秀な人材集めようとした場合は男だらけになるよね
      • 21. 名無しのうさぎさん
      • 2018年10月12日 05:46
      • いやいやちゃんと読めば元々のデータに男性偏重があったからこうなったんでしょう
        その元々のデータが差別してたかは別として
      • 22. 名無しのうさぎさん
      • 2018年10月12日 05:57
      • どうなんだろうな
        記憶させる段階で男性と女性の二種類の性別があって、過去採用されたのは男性の方が多いという事実をAIが母数を度外視して認識した結果女性を減点としたなら欠陥だとは思うが……
        まぁプログラミングの業界おるけど、正直男女関係ないけどな
        開発は最先端は男しかできんが、知識を現実的な製品に落とし込むのは男女関係ないし
        逆に看護師募集するとして、男性を減点とするのも妥当に思える
      • 23. 名無しのうさぎさん
      • 2018年10月12日 06:49
      • ※16
        女の多い職場ってのは女特有の素養が求められる現場だって発想に至れないのがフェミの馬鹿な所
      • 24. 名無しのうさぎさん
      • 2018年10月12日 07:16
      • AIってただの前例主義だったってことか?
      • 25. 名無しのうさぎさん
      • 2018年10月12日 07:17
      • 米16
        それ欠陥じゃなくて適材適所ってことなんだけどな
        それがわからないからポリコレwって言われんじゃね?
      • 26. 名無しのうさぎさん
      • 2018年10月12日 07:22
      • 保育士、看護師、助産師、下着メーカー他女性職員多い現場でAIが女性の方が優れてると判断しても差別だと喚く男はいない
        この点で既にポリコレは破綻してる
      • 27. 名無しのうさぎさん
      • 2018年10月12日 07:26
      • SNSのAIアカウントが差別用語を書き込んで問題になったけど、それと一緒で、与えられたデータが差別的だったらAIも差別的な判断しちゃうんでしょ。
      • 28. 名無しのうさぎさん
      • 2018年10月12日 07:38
      • データの偏重を差別とするならエリート校出身者を優秀と判断するのもまた差別なのか?
      • 29. 名無しのうさぎさん
      • 2018年10月12日 07:44
      • ※27
        微妙に違う
        正確には与えられた差別的データをAIが正しいとか有用だって判断して初めて起こる
        つまり人間とAIの善悪の基準が一致しない限りずっと起こるよ、多分しばらくは無理
      • 30. 名無しのうさぎさん
      • 2018年10月12日 08:23
      • 土木、高所作業、ゴミ処理をやろうとしないフェミさんに言われてもねえ…
      • 31. 名無しのうさぎさん
      • 2018年10月12日 09:46
      • "女性"って単語が入ってただけで評価落とすってまだまだAIは無能だな。
      • 32. 名無しのうさぎさん
      • 2018年10月12日 09:58
      • 看護業界がマウント取り合いの猿山状態なの見ればわかるやろ。いかに女が社会進出に向いていないか。
        男8:女2くらいの職場がちょうどいいんだよ結局
      • 33. 名無しのうさぎさん
      • 2018年10月12日 11:55
      • マウント取るにしても個人間の競争ならまだマシなんだけどな
        派閥争いでギスギスするから横並びで進歩がなくなる
        有能な女が孤高になりがちなのはそう言う事や
      • 34. 名無しのうさぎさん
      • 2018年10月12日 12:41
      • ちゃんと読んでるのかね
        履歴書を男ばかり読み込ませてた人間の行動で男採用が正しいと変に学習させられて、履歴書内に女の文字が出たら評価落とされる
        優秀な男が女子チームの監督してても女の字が出てたら落とされるって事
        男にも被害行くんやで?
      • 35. 名無しのうさぎさん
      • 2018年10月12日 18:12
      • ※34
        お前こそ読んでねーよ
        別に恣意的に男の履歴書を読み込ませてたわけじゃない
        女の履歴書の絶対数が少ないんだからどうしょうもないじゃん
        少ない女の履歴書を優先的に読み込ませろと?馬鹿か
      • 36. 名無しのうさぎさん
      • 2018年10月12日 18:49
      • ※35
        だからこのやり方だと差別的になるしかないから修正しようと思ったら駄目だったって事や
        女擁護と勘違いして顔真っ赤で絡んでこんでくれよ
        このAI が上手く行けば色々はかどるけど、逆に女だらけの職業だと男と言うだけで落とされ捲るんやぞ
        勿論女が履歴書に男子チームのマネージャーと男の記載が入ってたら落とされる
        アホな事になってるのは間違いないやん
      • 37. 名無しのうさぎさん
      • 2018年10月12日 21:20
      • このマシーンがほもなだけやろ
      • 38. 名無しのうさぎさん
      • 2018年10月12日 21:57
      • ファッションデザイナーなんかの職種なら逆に男性の評価が低くなるんじゃないの?
        適材適所
      • 39. 名無しのうさぎさん
      • 2018年10月12日 21:58
      • 言ってはいけない残酷すぎる真実
      • 40. 名無しのうさぎさん
      • 2018年10月13日 00:22
      • ソフトウエア開発など技術関係の職種においては女性不利ってだけじゃん?
        性別で脳の構造違ってて得意不得意な分野が出来るんだから仕方ないだろ
        多分女性優位な分野で使ったら男性にマイナス評価結果が正しく出る
      • 41. 名無しのうさぎさん
      • 2018年10月13日 05:02
      • そのアマゾンのAI全活用したら天下取れるんちゃうか。
      • 42. 名無しのうさぎさん
      • 2018年10月13日 10:04
      • この調子だと国籍や信教でも差別するだろうな
        出身校や住所、名前でもするだろう

        差別しないAIは作れないのではないか?
        そして差別しないAIには何の意義もないのでは?
      • 43. 名無しのうさぎさん
      • 2018年10月20日 16:26
      • キリスト教が中世の欧州文明を停滞させたのと同じようなことになってんな。ポリコレのせいで。
      • 44. 名無しのうさぎさん
      • 2018年10月29日 20:00
      • 女と絡みが少ない青春を送って来た真面目な童貞の方が良い社会人になるって真実が明らかになっただけだろ。非常に優秀なAIだな。多分、裏では引っ張りだこになってるよw
    コメントする
    名前
    Related Posts Plugin for WordPress, Blogger...