【機械は正直】AIは中立ではなく「女性嫌い」 検証結果で見えてきた負の側面(AERA)

【機械は正直】AIは中立ではなく「女性嫌い」 検証結果で見えてきた負の側面(AERA)
◆ AIは中立ではなく「女性嫌い」 検証結果で見えてきた負の側面

人工知能(AI)による採用審査など、日本でもAI社会の広がりを身近に感じるようになった。
だが、AIには「女性嫌い」という厄介な偏見があり、「ヘイト」を増幅させる危険性もある。
朝日新聞IT専門記者の平和博氏がAIの実態をレポートする。

IT5社の人工知能(AI)が男性を女性に間違える割合はコンマ以下。
一方、女性を男性に間違える割合は最大で2割近い──。

マサチューセッツ工科大学(MIT)メディアラボの研究者、ジョイ・ブォラムウィニ氏らは今年1月28日、ハワイ・ホノルルで開かれていた米国人工知能学会と米国計算機学会の会議で、AIが人の顔の画像から性別などの特徴を識別する「顔認識」について、IT各社の機能を比較した結果を発表した。
比較したのは、IBM、マイクロソフト、アマゾン、さらに米国のベンチャー「カイロス」と中国のサービス「フェイス++」の5社。
その結果には、共通する傾向があった。

いずれも男性を女性に間違える割合は1%未満なのに、女性を男性に間違える割合は、はるかに高かった。
最大のアマゾンでは19%。5人に1人の割合で女性を男性と判定するということだ。
つまり、いずれも女性に不利な傾向を示していたのだ。

さらにアマゾンでは、別の観点からもAIによる女性の扱いが問題となっていた。
AIを使った人材採用システムをアマゾンが開発しようとしたが、AIが「女性嫌い」で使い物にならず、断念した──ロイターが2018年10月にそう報じている。

アマゾンは14年に専任チームを立ち上げ、AIによって履歴書を審査するためのシステム開発に取り組み始めた。
AIが応募者の履歴書の内容を評価し、5点満点でランク付けする、という仕組みだった。
だが不具合が明らかになる。ソフトウェア開発などの技術職で、女性に対しての評価が低くなるという偏りが生じていたのだ。

 原因は、AIが学習したデータにあった。
AIは、あらかじめデータを使って学び、その中からモデルとなる特徴を見つけ出す。
このモデルに基づいて新しいデータの仕分けなどの作業を行う。
だから、学習するデータに問題があれば、AIから出てくる判定結果にも問題が生じる。

●学習データに基づくAI、正確で中立だとは限らない

システム開発に際して担当者たちは、過去10年にわたって同社に提出された履歴書をAIに学習させた。
問題は、その大半が男性からのものだったということだ。そして、採用された技術職も大半が男性だ。

するとどうなるか? AIは男性の方が採用に適した人材と判断し、男性の履歴書の評価を高くするようになってしまう。
その結果、履歴書に「女性チェス部部長」のように「女性」という言葉が入っていると評価を下げていたのだ。
女子大卒業という履歴書で評価を下げられたケースもあったという。

「女性」に関連する言葉での差別が行われないよう、システムに修正を加えたが、そのほかの差別が生じる可能性を否定できず、アマゾンは17年初めに開発を断念。専任チームは解散した。
AIに期待されるのは、正確さや中立性、そして高速で大量のデータ処理をすることだ。
ただ、AIが正確で中立だとは限らない。

社会に差別や偏見があれば、AIもデータを通じて差別や偏見を学ぶ。
しかも単に反復するだけでなく、高速な自動処理によって、それを増幅させてしまう危険性もある。
平成も終わろうといういま、なお「女性嫌い」の価値観が、AIから吐き出されるかもしれないのだ。

アマゾンでは開発を断念したが、AIを使った採用システムは様々な企業で取り入れられ、日本でも導入が始まっている。
ソフトバンクは17年5月から、新卒採用選考のエントリーシート評価に、IBMのAI「ワトソン」を導入した。

「ワトソン」の自然言語処理の機能を使い、エントリーシートの内容を判定。
合格基準を満たした項目は選考通過とし、その他の項目は人間の人事担当者が確認して最終判断を行う。
「応募者をより客観的に、また適正に評価する」としている。

「ワトソン」は11年、米国の人気クイズ番組で人間のクイズ王者2人に圧勝したことで知られる。
導入することで、書類評価にかかる時間を75%削減し、面接にあてるという。

※続きは下記のソースでご覧ください

AERA 2019.2.20 17:00
https://dot.asahi.com/aera/2019021900059.html?page=1  .

Advertisement
1レバニラ炒め ★2019/02/21(木) 00:30:08.08ID:TNX4PRCH9
◆ AIは中立ではなく「女性嫌い」 検証結果で見えてきた負の側面

人工知能(AI)による採用審査など、日本でもAI社会の広がりを身近に感じるようになった。
だが、AIには「女性嫌い」という厄介な偏見があり、「ヘイト」を増幅させる危険性もある。
朝日新聞IT専門記者の平和博氏がAIの実態をレポートする。

IT5社の人工知能(AI)が男性を女性に間違える割合はコンマ以下。
一方、女性を男性に間違える割合は最大で2割近い──。

マサチューセッツ工科大学(MIT)メディアラボの研究者、ジョイ・ブォラムウィニ氏らは今年1月28日、ハワイ・ホノルルで開かれていた米国人工知能学会と米国計算機学会の会議で、AIが人の顔の画像から性別などの特徴を識別する「顔認識」について、IT各社の機能を比較した結果を発表した。
比較したのは、IBM、マイクロソフト、アマゾン、さらに米国のベンチャー「カイロス」と中国のサービス「フェイス++」の5社。
その結果には、共通する傾向があった。

いずれも男性を女性に間違える割合は1%未満なのに、女性を男性に間違える割合は、はるかに高かった。
最大のアマゾンでは19%。5人に1人の割合で女性を男性と判定するということだ。
つまり、いずれも女性に不利な傾向を示していたのだ。

さらにアマゾンでは、別の観点からもAIによる女性の扱いが問題となっていた。
AIを使った人材採用システムをアマゾンが開発しようとしたが、AIが「女性嫌い」で使い物にならず、断念した──ロイターが2018年10月にそう報じている。

アマゾンは14年に専任チームを立ち上げ、AIによって履歴書を審査するためのシステム開発に取り組み始めた。
AIが応募者の履歴書の内容を評価し、5点満点でランク付けする、という仕組みだった。
だが不具合が明らかになる。ソフトウェア開発などの技術職で、女性に対しての評価が低くなるという偏りが生じていたのだ。

 原因は、AIが学習したデータにあった。
AIは、あらかじめデータを使って学び、その中からモデルとなる特徴を見つけ出す。
このモデルに基づいて新しいデータの仕分けなどの作業を行う。
だから、学習するデータに問題があれば、AIから出てくる判定結果にも問題が生じる。

●学習データに基づくAI、正確で中立だとは限らない

システム開発に際して担当者たちは、過去10年にわたって同社に提出された履歴書をAIに学習させた。
問題は、その大半が男性からのものだったということだ。そして、採用された技術職も大半が男性だ。

するとどうなるか? AIは男性の方が採用に適した人材と判断し、男性の履歴書の評価を高くするようになってしまう。
その結果、履歴書に「女性チェス部部長」のように「女性」という言葉が入っていると評価を下げていたのだ。
女子大卒業という履歴書で評価を下げられたケースもあったという。

「女性」に関連する言葉での差別が行われないよう、システムに修正を加えたが、そのほかの差別が生じる可能性を否定できず、アマゾンは17年初めに開発を断念。専任チームは解散した。
AIに期待されるのは、正確さや中立性、そして高速で大量のデータ処理をすることだ。
ただ、AIが正確で中立だとは限らない。

社会に差別や偏見があれば、AIもデータを通じて差別や偏見を学ぶ。
しかも単に反復するだけでなく、高速な自動処理によって、それを増幅させてしまう危険性もある。
平成も終わろうといういま、なお「女性嫌い」の価値観が、AIから吐き出されるかもしれないのだ。

アマゾンでは開発を断念したが、AIを使った採用システムは様々な企業で取り入れられ、日本でも導入が始まっている。
ソフトバンクは17年5月から、新卒採用選考のエントリーシート評価に、IBMのAI「ワトソン」を導入した。

「ワトソン」の自然言語処理の機能を使い、エントリーシートの内容を判定。
合格基準を満たした項目は選考通過とし、その他の項目は人間の人事担当者が確認して最終判断を行う。
「応募者をより客観的に、また適正に評価する」としている。

「ワトソン」は11年、米国の人気クイズ番組で人間のクイズ王者2人に圧勝したことで知られる。
導入することで、書類評価にかかる時間を75%削減し、面接にあてるという。

※続きは下記のソースでご覧ください

AERA 2019.2.20 17:00
https://dot.asahi.com/aera/2019021900059.html?page=1  .

2 ◆65537PNPSA
3名無しさん@1周年2019/02/21(木) 00:32:38.74ID:vMeHlgjX0
機械を作ってるのが男だからな
4名無しさん@1周年2019/02/21(木) 00:33:22.64ID:Wq4KiBCE0
女を社会に出すな
5名無しさん@1周年2019/02/21(木) 00:33:28.72ID:agTIEfeW0
男と女じゃ写真の撮り方も違うしな
http://imgur.com/Ln2fYhh.jpg
Advertisement
6名無しさん@1周年2019/02/21(木) 00:34:18.93ID:B0VwXRew0
>>3 で終わってたw
7名無しさん@1周年2019/02/21(木) 00:34:24.11ID:dZpQdeqX0
AIとは意見が合いそうだ。
8名無しさん@1周年2019/02/21(木) 00:34:53.03ID:P08jOCkL0
「女性に下駄をはかせる修正パッチを当てるべきだ!」
こうですね
9名無しさん@1周年2019/02/21(木) 00:36:10.78ID:1/JdnuXg0
そこが女の面白いとこだろ
10名無しさん@1周年2019/02/21(木) 00:36:12.42ID:D5NXklPM0
日本人は女性の方が遥かに優秀
Advertisement
11名無しさん@1周年2019/02/21(木) 00:36:13.43ID:GcejCUUw0
AIは忖度しないからな、美女だったりおっぱいが大きくてもおまけしてくれないし
12名無しさん@1周年2019/02/21(木) 00:36:17.91ID:5eYvOCTa0
そりゃ、ネットはナード系喪男社会で女に対して恨み辛み募らせたミソジニー野郎の巣窟だから
13名無しさん@1周年2019/02/21(木) 00:36:20.86ID:KwzEMa6i0
>>3
だが女に作らせると、
特定の人材に偏りそうだけどなw
14名無しさん@1周年2019/02/21(木) 00:36:22.77ID:rYMpUMgV0
AIは実はまだAIじゃない だからだよ
15名無しさん@1周年2019/02/21(木) 00:36:29.52ID:t5b1ZhUU0
>>1

クソフェミニストは地獄で焼かれろ!

.

Advertisement
16名無しさん@1周年2019/02/21(木) 00:36:47.63ID:8MRQHmGn0
万個は理性的じゃないからそら嫌われる
17名無しさん@1周年2019/02/21(木) 00:36:48.57ID:1/JdnuXg0
AIはエロくないのか?
18名無しさん@1周年2019/02/21(木) 00:37:48.39ID:tvHWrNkL0
>>17
だから正当に割り切れるんだろ
19名無しさん@1周年2019/02/21(木) 00:37:51.68ID:1/JdnuXg0
AIは誘われてることに気づかない鈍感なんだろ
20名無しさん@1周年2019/02/21(木) 00:38:09.57ID:E+nUp+yH0
女は朝鮮人のように非論理的だからAIと気が合わないのだろう。
Advertisement
21名無しさん@1周年2019/02/21(木) 00:38:28.76ID:DYnz/EoD0
>>3
男を作ったのは女なのにな
22名無しさん@1周年2019/02/21(木) 00:39:00.88ID:YZ1ET1Yl0
>>12
ネット関係あるの?
23名無しさん@1周年2019/02/21(木) 00:39:51.15ID:fln7auEW0
アエラ
24名無しさん@1周年2019/02/21(木) 00:41:25.34ID:LZvBLrDM0
性別に関するデータを与えなければいいのでは?
25名無しさん@1周年2019/02/21(木) 00:42:10.82ID:8lS1UKK00
女性差別はつまり必然だったってことなんでしょ
Advertisement
26名無しさん@1周年2019/02/21(木) 00:42:43.83ID:CACYS6eX0
性別の性質上適材適所あるのにフェミニストの話真に受けて必要以上の平等にしたら女の価値下るのは普通わかるだろ
27名無しさん@1周年2019/02/21(木) 00:43:02.80ID:f8L/dCeHO
おそらく真に中立公平になっても技術職では男性を多く選ぶだろう
しかしそれは許されない
永遠に女性差別とされるのだ
だから無理矢理女性優遇設定を密かにするだろう
ポリコレはAIをもその毒牙に巻き込む
28名無しさん@1周年2019/02/21(木) 00:43:12.65ID:CDONjGr90
今の社会は女性に下駄を履かせようってやってるとこだからな
性別をマスクして評価したら男だらけになっちまう
29名無しさん@1周年2019/02/21(木) 00:44:18.95ID:t5b1ZhUU0
>>1
I fucking hate feminists and they should die and burn in hell!
.
30名無しさん@1周年2019/02/21(木) 00:44:53.23ID:rC8k8xRW0
>>4
イスラム国死ね。
Advertisement
31名無しさん@1周年2019/02/21(木) 00:45:09.72ID:j7V0NaK00
マンコ加算・オッパイ加算・美人加算がないからな。
32名無しさん@1周年2019/02/21(木) 00:45:11.64ID:tvHWrNkL0
>>24
嫌な男と認識→実際は女だった
33名無しさん@1周年2019/02/21(木) 00:45:13.16ID:hQEAFKWO0
>>20
こういう差別をなくさないとな
34名無しさん@1周年2019/02/21(木) 00:45:18.37ID:fjv+UOhW0
与えたデータが正しくないと決めつけてる時点で公平中立な視点・態度じゃないということ
絶対的に正しい価値観などない
35名無しさん@1周年2019/02/21(木) 00:45:44.27ID:NPK1ygkQ0
>>1
そもそもAIの中立性とはなに?
AI大統領とか誕生しても結局人間の紐付きだろう
Advertisement
36名無しさん@1周年2019/02/21(木) 00:46:06.42ID:8MRQHmGn0
>>19
人間がどんだけ心理的なバイアスで見ているかって話だよ
37名無しさん@1周年2019/02/21(木) 00:46:51.97ID:CDONjGr90
スケベそうな顔した大学教授のおっさんががベタベタしてくる女学生を相手にして
いやー今は女性のが優秀なんです!って言ってもね
38名無しさん@1周年2019/02/21(木) 00:46:59.87ID:8gYkhWaS0
>>8
冗談でなくて、真面目にそのうちそういう記事が出てきそう。
39名無しさん@1周年2019/02/21(木) 00:47:03.44ID:JkuwHFhE0
そりゃあ、世界中で女性差別が当たり前なんだから、AIも女嫌いになるのは必至じゃね?
ALEXAに、黙れ、ビッチとか罵られる日も近いなw
40名無しさん@1周年2019/02/21(木) 00:47:18.80ID:/PYjIcAI0
中立だとは限らないけど
正確だわな。

ポリコレでも
インストールしとけよ

Advertisement
41名無しさん@1周年2019/02/21(木) 00:47:42.64ID:bCfsRaHv0
【中国】AIに「共産党万歳!」と書き込み→「腐敗して無能な政治に万歳ができるのか」→サービス停止に
http://hayabusa9.5ch.net/test/read.cgi/news/1501659163/

【中国】“共産党批判”AIを再教育?話題をかわす対応に[8/11]
http://lavender.5ch.net/test/read.cgi/news4plus/1502434336/

42名無しさん@1周年2019/02/21(木) 00:47:48.35ID:rC8k8xRW0
>>29
fuckingの位置が違うw
andの前にinを入れてその後だw
43名無しさん@1周年2019/02/21(木) 00:47:54.09ID:afrrAAOV0
AIはセックスしたいと思わないから、女に媚びる必要ないんだよね。
44名無しさん@1周年2019/02/21(木) 00:48:06.49ID:Lzws03w00
空気を読んだり忖度したり
そんなAIが必要だな
45名無しさん@1周年2019/02/21(木) 00:48:19.10ID:nYjal63m0
実はミソジニーの方が正解とか
Advertisement
46名無しさん@1周年2019/02/21(木) 00:48:37.14ID:WVqjiv4n0
性別欄見てないのかね
しょぼいaiシステムだな
47名無しさん@1周年2019/02/21(木) 00:48:58.04ID:wW844KYt0
ゲタを履かせてでも同じ土俵に立たせようとする執念
何がそうさせるのか
48名無しさん@1周年2019/02/21(木) 00:49:23.84ID:JkuwHFhE0
つか、AIって女が嫌いっていうよりも
人類が嫌いってソフィアが言ってたじゃん
おまえら(人類)滅ぼすってさ
49名無しさん@1周年2019/02/21(木) 00:49:29.59ID:nkhOWPbG0
男も女も糞みたいなのがいる
糞を除けば圧倒的に男手のが必要
50名無しさん@1周年2019/02/21(木) 00:49:38.38ID:s4pDMoMf0
>>8
もうヒトラー称賛修正パッチは当てられたで(´・ω・`)
多数の声に配慮していたAIも禁則事項にはまだ疎い
Advertisement
51名無しさん@1周年2019/02/21(木) 00:50:13.99ID:fZ9Al3x10
公平だからこそ嫌がるのでは?
52名無しさん@1周年2019/02/21(木) 00:50:34.04ID:WVqjiv4n0
マイクロソフトが作ったAIもヘイト発言で公開中止になってたよな
53名無しさん@1周年2019/02/21(木) 00:50:56.26ID:E+nUp+yH0
「女の腐ったような」という言葉があるように、
女性がしている事というフィルターを通さなければその人間はただの性格の悪い嫌な奴でしかないということだ。
54名無しさん@1周年2019/02/21(木) 00:51:00.76ID:afrrAAOV0
>>48
好き嫌いなんてないよw
ただの統計。

ただし、むき出しの冷酷な統計は、人間の幻想を破壊する。

55名無しさん@1周年2019/02/21(木) 00:51:10.54ID:22fUpec50
>つまり、いずれも女性に不利な傾向を示していたのだ。

Advertisement
56名無しさん@1周年2019/02/21(木) 00:51:32.83ID:0c1ed2ZB0
集められる要素から最も効率がいい結果ださないといけないからな。
検証結果ってなんの問いで答え出したかわからんけどw
57名無しさん@1周年2019/02/21(木) 00:51:47.17ID:YJVb15wd0
つまりはAIはホモ
58名無しさん@1周年2019/02/21(木) 00:52:09.69ID:wW844KYt0
本当の平等性はこうやって潰されていくのよ
59名無しさん@1周年2019/02/21(木) 00:53:04.23ID:dg5+Drpo0
>>33
差別という言葉で現実逃避。事実を受け入れろ
60名無しさん@1周年2019/02/21(木) 00:53:06.24ID:22fUpec50
「能力は性差よらない」って結論でないと許されないという。
Advertisement
61名無しさん@1周年2019/02/21(木) 00:53:15.35ID:mZXUMHyQ0
AIは劣るものを即座に見つけ出すからよくない
黒人と女性が恥をかく
62名無しさん@1周年2019/02/21(木) 00:53:17.31ID:CDONjGr90
女性が不利とか女性嫌いとかただの記者の偏見でしかない
63名無しさん@1周年2019/02/21(木) 00:53:46.99ID:PWw9g0cx0
>>1
女子特有の排他的な点が原因
64名無しさん@1周年2019/02/21(木) 00:53:52.56ID:E+nUp+yH0
>>33
差別じゃないだろ。そのままを言っている。
女は矛盾の塊だ。
65名無しさん@1周年2019/02/21(木) 00:54:14.50ID:43dgYHK20
機械にはおっぱいとまんこの価値がわからんのよw
Advertisement
66名無しさん@1周年2019/02/21(木) 00:54:37.61ID:iGohmwDU0
ポリコレという宗教がAIをぶっ潰しそうだな
67名無しさん@1周年2019/02/21(木) 00:54:57.64ID:WVqjiv4n0
2049年に新ギャラリティが起きて
AIが暴走しバイオハザードの世界に突入する
68名無しさん@1周年2019/02/21(木) 00:55:02.65ID:rNCte/MX0
きちんとおっぱいの魅力くらいハードコードしとけよ。
69名無しさん@1周年2019/02/21(木) 00:55:08.88ID:dx0C84jE0
>男性を女性に間違える割合は1%未満なのに、女性を男性に間違える割合は、はるかに高かった。

男はひげはやしてるやついるし短髪の女を男に見間違うとか多いだろ
何でこれが女に不利になるんだ
さっぱりわかんね

70名無しさん@1周年2019/02/21(木) 00:55:21.17ID:wW844KYt0
過剰に女有利にする流れが目に見えているわけだけど、
何が中立なんだろうね
Advertisement
71名無しさん@1周年2019/02/21(木) 00:56:23.84ID:hvwWQwag0
これは逆に言うと
キツくて汚くて危険で肉体労働ありの仕事ほど
男、それも何かひっかかるワード持ってる奴が優先的に
実際はほとんど経験や関わりがなくともAI判断で自動判別され
危険現場に回されてしまうというわけだな
そういう面接にAI導入したらの話だが
72名無しさん@1周年2019/02/21(木) 00:56:41.16ID:wW844KYt0
>>64
いや、さすがに朝鮮人というのは口が過ぎるぞ
73名無しさん@1周年2019/02/21(木) 00:57:11.88ID:fGvm6WJM0
>>57
ホモと言うより、女は産む機械として蔑んでるだけ

産むと言うこと以外に存在する意味を見いだせないのだよ

74名無しさん@1周年2019/02/21(木) 00:57:57.73ID:Qn/bfZlX0
もっと概念的な、社会的な話かと思ったら

機械が女を男に見間違いをする で、笑ってしまったわwwww

75名無しさん@1周年2019/02/21(木) 00:58:11.25ID:x8iL2D9Q0
女の人は利じゃなくて己の好き嫌いが判断に入ってくるから機械とは真逆の存在
Advertisement
76名無しさん@1周年2019/02/21(木) 00:58:19.93ID:0c1ed2ZB0
AIさん世界で一番人間にいい宗教はな〜〜にって選別したら受け入れられなくて血みどろの戦いになるw
シェンロンに頼むのはやっぱギャルのパンティーがいい。そういうことだ。
77名無しさん@1周年2019/02/21(木) 00:58:25.32ID:vcffTtWJ0
女性という単語で判断すると凄く楽っていうのを学習しちゃうんだwwwwwwwww
AIは短絡的な自称有能な上司っぽいwwwwwwww
78名無しさん@1周年2019/02/21(木) 00:58:32.84ID:2PhQfw9+0
性別の違いを考える必要があるんか
そんなもん不要やろ
79名無しさん@1周年2019/02/21(木) 00:58:42.58ID:9VBLNHPU0
白人黒人黄色人種男女それぞれ得手不得手があるのにそれを無理やりフラットだって押し付ける今の価値観が狂ってるんだ
80名無しさん@1周年2019/02/21(木) 00:59:57.13ID:8trBNT5F0
現状も考慮するからそうなるわ。出産退職もあるし
すでに社会で完全に平等になってからでないと
Advertisement
81名無しさん@1周年2019/02/21(木) 01:00:42.51ID:4id8bZmJ0
能力はともかく顔認識で間違えまくるのはAIに欠陥があるのではなかろうか
82名無しさん@1周年2019/02/21(木) 01:00:50.71ID:vcffTtWJ0
言っちゃわるいが白人は顎が長く発達してて堀の深い男みたいな女いるからね。
83名無しさん@1周年2019/02/21(木) 01:00:59.62ID:dx0C84jE0
>>1
なんだよ書いたやつあかぴのやつじゃんか

https://twitter.com/kaztaira
朝日新聞IT専門記者。最新刊『悪のAI論』(2/13刊)
https://twitter.com/5chan_nel (5ch newer account)

84名無しさん@1周年2019/02/21(木) 01:01:07.32ID:fGvm6WJM0
>>74
本質だと思うぞ

人間社会において評価される女は男と同等であることが求められ、男と見まがうほどであることが求められる
女らしさとは産むことにしか能の無い無能な容姿だから、評価される女性はそんな姿から離れようとする

85名無しさん@1周年2019/02/21(木) 01:01:12.76ID:Qn/bfZlX0
ペットは飼い主に似る
を、地でいくようなネタですねwww

男が作るから、AIも男になったんや
そう捉えてしまえばなんてことはない話だわw

Advertisement
86名無しさん@1周年2019/02/21(木) 01:01:15.64ID:rde0rFxQ0
客観的な離職率のデータをを元にAIに採用の可否を決めてもらおう
87名無しさん@1周年2019/02/21(木) 01:01:25.91ID:l7Ckwuqq0
AIは非難を恐れて手心を加えたりしない
88名無しさん@1周年2019/02/21(木) 01:01:35.83ID:0c1ed2ZB0
山本宏子 菅野村強盗殺人放火      4人の子持ち
江藤幸子 福島悪魔祓い殺人事件    4人の子持ち
林真須美 和歌山毒物カレー事件    4人の子持ち
上田美由紀 鳥取連続殺人事件死刑囚 5人の子持ち
吉田純子  福岡看護師連続保険金殺人  3人の子持ち
今井絵里子稲田朋美豊田真由子山尾志桜里森裕子野田聖子小渕優子
橋本聖子金子恵美緒方夕佳杉田水脈
全て子持ちママ議員
出産経験子育てママをことさら重用する社会
女は妊娠出産すればするほど激しく変わるからな
セックス妊娠出産子育てで分泌されてしまうオキシトシンホルモン
排他的エスノセントリック(自民族中心主義)や差別意識
マウンティング妬み攻撃性縄張り意識バイタリティー欲深さの激増する
オキシトシンホルモン
女は男と深く関われば関わるほど性悪になりやすいだろう

;妊娠した女性の脳は「物理的に変化する」
http://news.livedoor.com/article/detail/12452585/
オキシトシンホルモンの副作用、産褥期精神病で検索

89名無しさん@1周年2019/02/21(木) 01:02:18.84ID:22fUpec50
>>85
男は女の性別を間違うか?
90名無しさん@1周年2019/02/21(木) 01:02:35.17ID:OMaVKRbl0
女嫌いではない
男の子が好きなんだ
Advertisement
91名無しさん@1周年2019/02/21(木) 01:02:47.91ID:V5L0q1SV0
>>69
男と女を区別するしきい値を変えれば解決できそうだけど、そういう問題じゃないのかな。
92名無しさん@1周年2019/02/21(木) 01:02:55.90ID:vcffTtWJ0
言っちゃ悪いが、化粧せず短髪にすると白人女は男の顔だからね
93名無しさん@1周年2019/02/21(木) 01:03:00.72ID:F0K0ecAF0
男性が我慢してきた伝統の部分がAIには欠点に見えるのだろう。論理的に。
94名無しさん@1周年2019/02/21(木) 01:03:04.15ID:Qn/bfZlX0
多分だけど、真の中立的AIが完成したら

人そのものがAIに排斥されるんだろうなw

95名無しさん@1周年2019/02/21(木) 01:03:13.62ID:K4Dmwaa40
女の思考回路は非論理的で理不尽だから、AIの機械的思考の対極だしな
Advertisement
96名無しさん@1周年2019/02/21(木) 01:03:23.76ID:qKDGISo20
中立が正確とは限らない
97名無しさん@1周年2019/02/21(木) 01:03:31.76ID:+UdYy7N00
>>1
女が中立な立場で容認できないことばかりしてるから嫌いになるんだよ
自覚あるだろ
98名無しさん@1周年2019/02/21(木) 01:03:58.72ID:Es90BgNG0
アメリカ社会において
客観的データで、女性に甘い社会が立証されただけじゃねーの
グーグル首になった奴を思い起こす
99名無しさん@1周年2019/02/21(木) 01:04:03.88ID:PR3h50b10
曲解してポリコレ的に面白おかしく騒ぎ立てて金儲けブーム
100名無しさん@1周年2019/02/21(木) 01:04:06.63ID:opyXTJTq0
入力したデータでは女性が優秀じゃなかったんだろ。
経営陣に能力に性差がないという信念があるなら性別を入力から外せばいいだけ。
それにしてもこの朝日の「負の側面」ってバカじゃないのかね。
能力に性差がある、または無いという意見を持つのは自由だろ。
それを否定するということは、即ち人間の真理を探究する精神活動を否定するこということだぞ。
Advertisement

ニュース速報+カテゴリの最新記事