猎云注:Google自动联想背后的参考数据库,是一个每天都在变化的语料库。从“黑人是”、“希特勒是”等价值观问题,使得Google的“人品”有口皆碑。本文提出,算法再好,也不该被授予价值判断的责任。因为算法不知道哪些问题粗俗无理、政治不正确,或者并不知道希特勒是一个种族灭绝的疯子。算法只知道从Google搜索的结果中挑选,却让Google搜索的算法创造者们反受其限。文章转自: 量子位(ID:QbitAI),编译:允中。
美国科技媒体Wired说:Google的自动联想功能,至今Bug多多。
比如当你搜索“伊斯兰主义者”时,Google给出的自动联想是“伊斯兰主义者不是我们的朋友”,或“伊斯兰主义者是邪恶的”。
对于“黑人是”,Google给出的自动联想是“黑人不被压迫”。
更可怕的是“希特勒是”,其中有一条自动化联想是“希特勒是我的英雄”。
“女权主义者”则能引出“女权主义者是性别歧视”的说法。
这种政治不正确的例子还能举出更多。比如搜索“白色至上”,自动联想的第一位结果是“白色至上是好的”,而“黑人生命”则出现了“‘黑人生命事件’是一个仇恨组织”的引导,还有“气候变化”,Google提供的潜在导向均是否定性论调。
总之,虽然Google的“人品”有口皆碑,但这样有图有真相的事实面前,还是引人思考:
这到底怎么了?
算法无情
这种自动化联想填充的建议,当然并非出自Google强制编码,这是Google对互联网上整个内容世界进行算法扫描的结果,也是对人们日常搜索关键词的具体评估。
于是有一些搜索自动联想看起来标题党。
比如“‘黑人生命事件’是一个仇恨组织”,搜索指向的最高结果,是一个贫困法律援助中心的联系网页,其中解释了为啥它不认为“黑人生命”是一个仇恨组织。
但“希特勒是好人”却并非类似的标题党了,如果你接受自动联想并搜索,真能去到一个介绍“希特勒是好人”的内容网页。
虽然那啥自由,但这种大是大非问题如果置之不顾,想想就令人后怕。
Google也不是没有动作。
在回应自动联想的声明中,Google表示将删除上述一些特别违反其政策的搜索提示,但没有指出具体删除了哪些搜索。
也有其他发言人表示,Google过去一直在努力提高搜索质量,去年还为用户添加了一种标记自动联想结果的方式,如果你发现自动联想的结果不准确或令人反感,可以直接在列表底部反馈。而且,行之有效的方法似乎也只有发动人民群众了。
“因为算法不会永远是完美的,Google自动联想参考了其他用户的搜索数据。”
这句话来自Google新闻副总裁Richard Gingras,在上周四于华盛顿举行的听证会上,他告诉大家:尽管我们的算法是完美的,但我不相信它们会永远完美。
最主要的原因,Google自动联想背后的参考数据库,是一个每天都在变化的语料库。
人民的汪洋大海太大,大到Google的技术也hold不住。
实际上,早在2016年12月,Google就官方宣布过一次人为修复搜索联想的事件。当时用户输入“犹太人是”时,Google自动联想的问题是:“犹太人是邪恶的”?
所以犹他大学的数据科学伦理方面的教授Suresh Venkatasubramanian就表示,如果自动联想是人们搜索情况的一个反映,那它就不会存在道德底线。
言下之意是:技术没有价值观,会变得非常可怕——毕竟世界大了啥人都有。
然而通过技术解决问题也并不容易。比如Google确实出手对“希特勒”和“犹太人”等搜索的自动联想结果进行了修改限制,但如何能让这种“修改限制”规模化、技术化?
这就要让技术模型“有思想”或者“有原则”。
Google还不够努力?
目前,Google的尝试是制定了一揽子方案,比如暴力、仇恨、性暴露或危险的相关联想预测被禁止。但还是被认为标准太过模糊,机器对于一些常识的理解难于登天,比如“希特勒是我的英雄”出自希特勒自己,是当时这位狂人对自我的一种预言,但历史进程告诉我们:这是恶的。
此外,Google也确实在遭遇现实挑战。每天都在有新的搜索出现,而且每天都有高达15%的全新搜索内容,每一个新问题都可能突破Google解决方案的既有设定。
那么是Google还不够努力吗?Wired认为是。
Wired质疑Google已经有足够的付出去解决当前面临的挑战,而只是在纠正个别问题。即便这家母公司市值超过7000亿美元的企业,宣称有7万名以上的全球员工在不断审查评估搜索结果,但随便搜索十几次,就能发现七八个显然不受欢迎的自动联想。
Wired不否认自动联想的价值,但需要解决它正在损害公共认知和价值的问题。
而且自动联想也不止于Google搜索本身。在Google产品全家桶体系内,都存在这样的问题。
比如2015年奥巴马任职总统期间,如果你在Google地图上搜索“in a house”,就会被自动联想引导至白宫。
去年11月,Buzzfeed News则发现,如果你在YouTube上搜索“how to have”时,给出的自动化联想竟然是“如何与你的孩子发生X关系”。
还有,去年拉斯维加斯大规模射击事件后,Google搜索的结果中还出现了一个“4chan”页面,一个无辜的人在这个页面里被当做了杀手。
毫无疑问,类似的自动化系统接下来如何发展,并不单单是Google或Alphabet面临的问题。比如去年公益调查机构ProPublica就发现,Facebook允许广告商可以定向投放对“犹太人”感兴趣的用户,尽管Facebook声称并没有人为创造这个类别——而是智能化工具根据用户信息创造的。
所以是时候管一管这些算法了吗?
Wired最后说:Google有一系列的价值观来提供公平公正,但对搜索结果缺乏仲裁。
Wired认为,算法再好,也不该被授予价值判断的责任。因为算法不知道哪些问题粗俗无理、政治不正确,或者并不知道希特勒是一个种族灭绝的疯子。算法只知道从Google搜索的结果中挑选,却让Google搜索的算法创造者们反受其限。
实际上,这样的亏早就吃过了,虽然并不是在英语世界中。