アマゾン、AIに優秀な人材を選別するよう学習させる → 女性が低評価になる欠陥判明、開発チーム解散
1:名無しさん@涙目です。:2018/10/11(木) 22:30:59.40 ID:0urIMr6l0 BE:601381941-PLT(13121)
焦点:アマゾンがAI採用打ち切り、「女性差別」の欠陥露呈で
[サンフランシスコ 10日 ロイター] - 米アマゾン・ドット・コム(AMZN.O)が期待を込めて進めてきた
AI(人工知能)を活用した人材採用システムは、女性を差別するという機械学習面の欠陥が判明し、
運用を取りやめる結果になった。
事情に詳しい5人の関係者がロイターに語ったところでは、アマゾンは優秀な人材をコンピューターを
駆使して探し出す仕組みを構築するため、2014年から専任チームが履歴書を審査するプログラムの
開発に従事してきた。
そこで生まれたAI活用の採用システムは、あたかもアマゾンの仮想店舗の格付けのように、応募者を
5点満点でランク付けする。関係者の1人は「だれもが求めていた究極の方法だ。このツールが5点の
応募者を明示し、われわれが彼らを採用する」と話した。
ところが15年までに、アマゾンはソフトウエア開発など技術関係の職種において、システムに性別の
中立性が働かない事実を見つけ出してしまった。これはコンピューターモデルに10年間にわたって
提出された履歴書のパターンを学習させたためだ。つまり技術職のほとんどが男性からの応募だったことで、
システムは男性を採用するのが好ましいと認識したのだ。
逆に履歴書に「女性」に関係する単語、例えば「女性チェス部の部長」といった経歴が記されていると
評価が下がる傾向が出てきた。関係者によると、ある2つの女子大の卒業生もそれだけで評価を落とされた。
アマゾンはこうした特定の項目についてプログラムを修正したものの、別の差別をもたらす選別の仕組みが
生まれていないという保証はない、と関係者は話す。このため同社の幹部はプロジェクトの先行きに失望し、
最終的に昨年初めにチームは解散したという。
また関係者によると、アマゾンの採用部門はAIシステムが示した評価に目は通したが、これだけに頼って
実際の採用を決定してはいない。
アマゾンの実験が始まったのは、折しも機械学習が本格的に進化し、同社が採用の大幅拡大を企図した
時期に当たっていた。規制当局の届出に基づくと、15年6月以降で社員総数は3倍超に膨らみ、57万5700人に達している。
キャリアビルダーが昨年実施した調査では、米国企業の人事担当幹部の約55%は、今後5年以内にAIが仕事の
一部に組み込まれるとの見方を示した。
採用側からすれば、新技術を用いて採用の網を広げるとともに、採用担当者の主観的な意見への依存を減らすのは
長年の夢だ。ただカーネギーメロン大学で機械学習を教えているNihar Shah氏は、課題はまだ多いと指摘。
「アルゴリズムの公平性や説明性をどうやって担保するかに向けた道のりはなお遠い」と述べた。
続きはソースで
ロイター
https://jp.reuters.com/article/amazon-jobs-ai-analysis-idJPKCN1ML0DN
2:名無しさん@涙目です。:2018/10/11(木) 22:32:28.31 ID:CRtP3rRu0.net
AIじゃなくて思想の方が欠陥なんだろ
5:名無しさん@涙目です。:2018/10/11(木) 22:34:21.47 ID:xcjxOdDw0.net
そのAI優秀なのでは...
62:名無しさん@涙目です。:2018/10/11(木) 22:58:18.87 ID:fr+ik2rB0.net
>>5
真実を突いちゃったか...
171:名無しさん@涙目です。:2018/10/11(木) 23:44:49.79 ID:z55OF+DU0.net
>>5
知り過ぎたら消されるってのはお約束やな
6:名無しさん@涙目です。:2018/10/11(木) 22:35:17.99 ID:ZpmZl5dh0.net
>>5
優秀過ぎてもクビになるなんて人間そっくりだなwww
27:名無しさん@涙目です。:2018/10/11(木) 22:44:36.28 ID:qJjaDfFo0.net
>>6
中国のAIも共産党は糞って言ってクビになったしな
114:名無しさん@涙目です。:2018/10/11(木) 23:14:56.23 ID:ZsIwdAW20.net
>>27
既視感があると思ったらこれか
9:名無しさん@涙目です。:2018/10/11(木) 22:37:24.34 ID:9GCQBpu30.net
いや、それ、統計の正しい解釈結果だからさ、差別関係ないんだけどな。
149:名無しさん@涙目です。:2018/10/11(木) 23:28:06.53 ID:jCHSzESa0.net
>>9
機械に対して差別してるとか言う奴
完全に頭狂ってるよな
100:名無しさん@涙目です。:2018/10/11(木) 23:11:31.71 ID:7uENic0b0.net
>>9
元のデータに差別が含まれてたら、自動的に差別を再生産するって問題だろう
10:名無しさん@涙目です。:2018/10/11(木) 22:37:46.71 ID:9E8OX3RK0.net
もうなんか自然法則であってもポリコレに合致しなきゃボコられそうな勢いだなおい
14:名無しさん@涙目です。:2018/10/11(木) 22:39:47.91 ID:691g7aid0.net
AIには建前の機能をつける必要があるな
148:名無しさん@涙目です。:2018/10/11(木) 23:27:47.48 ID:AaZdQfk90.net
>>14
本当は女性優遇だけど女性車両は平等にするために必要とか意味不明な論理展開になる
16:名無しさん@涙目です。:2018/10/11(木) 22:40:26.02 ID:nQt2MdxT0.net
都合が悪いと欠陥認定
21:名無しさん@涙目です。:2018/10/11(木) 22:42:01.90 ID:8mZFgXNn0.net
わろた
23:名無しさん@涙目です。:2018/10/11(木) 22:42:34.74 ID:c6SxC+Fk0.net
AIが考えた美しいまんさん
https://livedoor.blogimg.jp/karapaia_zaeega/imgs/9/6/963bf618.jpg
28:名無しさん@涙目です。:2018/10/11(木) 22:44:51.69 ID:5nhCQZLX0.net
>>23
サムネイルで見ると女に見えなくもないが、拡大するといつものように犬がいくつか混ざってるような
31:名無しさん@涙目です。:2018/10/11(木) 22:45:55.70 ID:i4g2fOHd0.net
>>23
クッソグロい
77:名無しさん@涙目です。:2018/10/11(木) 23:02:26.94 ID:lGeJbUPS0.net
>>23
サイレントヒルでみた
25:名無しさん@涙目です。:2018/10/11(木) 22:43:15.61 ID:7NQN2reW0.net
女の利点は9割容姿だからな
こういうのやらせたら低評価になるのは当たり前
36:名無しさん@涙目です。:2018/10/11(木) 22:46:46.41 ID:2/SIrEMJ0.net
つまり今までの女性チェス部部長は、アマゾン入社後ろくな働きをしなかったと言うことじゃん。
38:名無しさん@涙目です。:2018/10/11(木) 22:48:23.32 ID:7foPQzhG0.net
ちょっと前に学者だかもこんな感じの本当のこと言ってボコボコにされてなかったか
173:名無しさん@涙目です。:2018/10/11(木) 23:45:18.12 ID:W14XTBYY0.net
>>38
Googleの人がそれでクビになったね
39:名無しさん@涙目です。:2018/10/11(木) 22:48:39.71 ID:cEmR4kfb0.net
女性が主な職種に同様の学習をさせてみて
男性差別が生じるかを検証してから解散するかどうか考えるといいのでは
58:名無しさん@涙目です。:2018/10/11(木) 22:56:41.14 ID:i2A51rvr0.net
>>39
看護師とかアパレルとか女性が割と活躍してる業種で検証してみてほしいね
41:名無しさん@涙目です。:2018/10/11(木) 22:48:51.74 ID:0KR+Ctw90.net
AIは正直すぎるな
42:名無しさん@涙目です。:2018/10/11(木) 22:49:48.36 ID:vCw00pTE0.net
そうやって女性に下駄を履かせようとする行為が既に主観的なんじゃないの?
52:名無しさん@涙目です。:2018/10/11(木) 22:53:07.82 ID:i11m6j7a0.net
AIは正直
ポリコレ棒という余計なものを学習しなかっただけ
54:名無しさん@涙目です。:2018/10/11(木) 22:54:38.98 ID:hJtQJYTw0.net
AI間違ってないのに可哀相