Gaslighting+Electronic harassment 人工知能 研究者が守るべき倫理指針

人工知能 研究者が守るべき倫理指針

引用開始


急速に開発が進んでいる人工知能が


人類への脅威とならないよう


研究者が守るべきルールを定めた


初の倫理指針を国内4000人の研究者でつくる


人工知能学会がまとめました


他人に危害を加える意図をもって


利用することを禁じるとともに


人工知能自体も倫理を守らなければならないと


強調しています


【人工知能のリスクは?】


プライバシーへの懸念もあります


現在でも特定の消費者の購買データから


その人の趣味に合った商品などを


提供するサービスがありますが


そうした技術を応用すれば


消費者の購買意欲を


コントロールすることも可能だと言います


雇用についてもリスクを抱えていると


指摘しています


すでに一部の企業では


人工知能によるサービスの導入が


始まっていますが


人工知能による職業の代替が進んだ場合


人間との仕事の棲み分けを


どのように図るのか議論が必要な他


深刻な失業問題が起きた場合


その対応について社会的な合意を


形成する必要があるということです


この他、自らの判断で


攻撃の標的を決める人工知能を備えた


自律型兵器の開発への懸念もあります


各国で人の遠隔操作に頼らない


自律型兵器の開発が進められる中


人の介在なしに標的を判断する


人工知能が実用化すれば


自律型兵器を用いたテロが発生する恐れがある他


機械が人間の生死を選別するという


倫理的な問題も発生するということです


「人工知能を搭載した“自律型兵器”は


暗殺や国家の不安定化、特定民族の殺害


といった任務に使われかねず


こうした技術の開発競争はすべきでない」


引用終了


NHK Web news


http://www3.nhk.or.jp/news/html/20170228/k10010893851000.html


AIの更なる普及は、誰にも止められないのでしょう


エレクトロニックハラスメント被害者は


すでに、最先端の犯罪被害に遭っている


例えば、一部の民族や部類の人間が


ターゲットになって、爆発的に被害を訴え出しても


そうなってからでは


時既に遅しなのだ


この最先端の犯罪が


いつ自分の身に起こるか・・・


既に、巻き込まれていても


おかしくはないのだ



非公開コメント