Awful AI 人工智能的可怕应用
——产自mixlab社区的话题
2018/05/28上午,在mixlab群里抛了个话题:
人工智能的当前有哪些可怕的应用?例如军事、干预选举、造假等等。
AI将在我们的工作、生活当中产生极大的影响,本文基于由话题讨论及 github.com/daviddao/awful-ai 内容翻译,总结而成。话题参与者们:
Bazinga、北小生、Mr.Coffee、Jeff-liu、Arthur、Melena、王云飞字昙越、Ladcwei、Vsplorer、Limber、~
--以上排名不分先后--
推荐一部美剧:
《西部世界》
该剧讲述了由一座巨型高科技以西部世界为主题的成人乐园,提供给游客杀戮与性欲的满足,随着接待员有了自主意识和思维,他们开始怀疑这个世界的本质,进而觉醒并反抗人类的故事。
1 AI 眼中完美母亲的模样
来源于
https://www.happyfinish.us.com/work/baby-dove-artificial-intelligence-perfect-mum/
Baby Dove举办了一次活动“Perfect Mum”。从过去12个月的英国育儿杂志以及社交媒体收集了1800多张使用#newmum #firsttimemum #mumtobe和#pregnant的照片,以训练AI对“完美母亲”的“看法”。基于数据集的视觉特征,在训练过程的不断产生独特的新面孔,直到它最终呈现出“Aimee”的最终图像。
2 AI通过视频甄选面试者
案例
HireVue
https://www.hirevue.com/
企业HR通过设定问题,邀请多位面试者视频面试,AI根据面试者的声音、面部表情等,对候选者的表现进行打分排序,帮助HR挑选最优秀的面试者。企业HR可以详细对比候选者回答的用词、语调以及面部动作等身体语言。基于这样的前提:“设定相同问题的结构化面试比随意的聊天谈话面试效果更佳。”这样每个面试者,都回答的是相同的问题,AI更容易评估面试者的表现,从而给出客观的评价。
3 AI一眼看穿性取向
来源
new-artificial-intelligence-can-tell-whether-youre-gay-or-straight-from-a-photograph
2017-09
据一项新的研究表明,人工智能可以根据用户的脸部照片准确地猜测他们是否是同性恋。
4 AI也会带有种族歧视
4.1 带有种族主义的聊天机器人
来源
tay-microsofts-ai-chatbot-gets-a-crash-course-in-racism-from-twitter
2016-05
针对美国18到24岁儿童的聊天机器人Tay是由微软的技术和研究团队以及Bing团队开发的,目的是“对会话理解进行实验和研究”。微软表示:“Tay旨在通过偶然和有趣的谈话来吸引和娱乐人们。你和Tay聊天得越多,她就越聪明。”但周四,Tay的谈话表现出了种族主义,煽动性和政治敏感的言论。
4.2 种族主义的自动打标签AI
来源
google-sorry-racist-auto-tag-photo-app
2015-07
谷歌图像识别AI将几个黑人的脸部标记为大猩猩
5 干预政治
数据影响选举结果
通过更好地了解您的选民,我们在降低总体成本的同时获得更大的影响力。
这是一个公司做的产品:
数据驱动我们所做的一切
https://cambridgeanalytica.org/
6 造假
6.1 传播假新闻
案例
Fake News
英国公投脱欧、川普当选美国总统,都有「假新闻」的影子,AI被用于假新闻的制造,投放到各种社交媒体,将对选举、公投等事件产生影响。
6.2 假冒的色情影像
案例
Deek Fakes
https://www.deepfakes.club/
Deep Fakes是一种基于人工智能的人体图像合成技术。它用于将现有图像和视频合并并叠加到源图像或视频上。Deepfakes可被用来制造假名人色情录像或复仇色情片。
7 抢夺用户的注意力
来源
Attention Engineering
https://www.ted.com/talks/tristan_harris_the_manipulative_tricks_tech_companies_use_to_capture_your_attention
有数十亿人被少数的科技公司所控制,从国外的Facebook的通知、YouTube的自动播放,到国内的抖音等短视频产品,他们都在抢夺用户的时间。而用户在贡献自己时间的同时,反倒是帮助这些公司产生了收益,用户在变相给这些公司打工。
8 对抗罪恶
8.1 获取犯罪情报
案例
Palantir
http://www.palantir.com/
通过Palantir,调查人员发现了人口贩运圈,发现了被剥削的儿童,并解开了复杂的金融犯罪。
8.2 机器学习预测犯罪区域
案例
PredPol
The Predictive Policing Company
http://www.predpol.com/
PredPol使用机器学习基于数据:犯罪类型,地点,时间,预测未来可能发生犯罪的热点地区,这样有可能会造成过度治理大多数黑人社区。
8.3 预测罪犯再犯的风险
来源
2017-11
COMPAS - 是威斯康星州法律法院用来预测再犯风险的风险评估算法。
8.4 从人脸预测是否是罪犯
来源
2016/2017
Automated Inference on Criminality Using Face Images
Responses to Critiques on Machine Learning of Criminality Perceptions
https://arxiv.org/abs/1611.04135
从用户的面部特征判断是否是罪犯
--文中广告--
--文中广告--
9 我们将被严密地监控
案例
SenseFace
人脸布控实战平台
提供基于人脸识别技术的城市级人员布控、轨迹分析、人口管理及数据分析等综合智能视频解决方案
10 算法控制的社会信用体系
案例
Social Credit System
例如支付宝的芝麻信用,评分基于人际关系和消费习惯等因素,有多少分代表了我们可以享受到的福利,我们的生活正被算法所统治。芝麻信用的公信力迟早会让大部分人所质疑。还有个人的健康数据被各种设备所采集,将被保险公司所用,从这个角度看,保险将是计算过的,保险公司将一直保持最大的盈利。
11 军事微型无人机
AI武器在军事领域应用颇多,以无人机势头最盛,其中微型无人机以其优异的性能受到多国军方青睐。只有手掌大小,非常便于随身携带,距离较远时肉眼很难观察到,具有很好的隐蔽性。搭载上轻型炸药及人脸识别功能,则更佳可怕。
以上为全文。
如果你是 Infinite Learner 请联系我们~
mixlab社群人群来源于GoogleBrain、微软、百度、阿里鲁班、腾讯、华为、旷视、三角兽、物灵科技、众安保险、360等,汇集了机器学习、自然语言处理、前端、后端、产品经理、UI设计师、建筑设计师、高校教师、CEO等,每天都会讨论跨界问题。
近期活动:
如果你觉得文章有价值,可以留言或点个置顶广告支持~