TOP

谷歌回归“不作恶”:中止与五角大楼的Maven军事合作,本来它曾想“监测地球”

2018-06-05

    谷歌终于回到了“不作恶”的道路上。


    上周五,谷歌终于宣布,和国防部的Maven军事合作的合同在明年到期后,将不再续约。

    谷歌云首席执行官DianeGreene在美国时间上周五早上和员工的会议上宣布了这一消息。Greene说,目前的合同将于2019年到期,之后不会有后续合同。

    这一项目中,谷歌到底参与得有多深,现在还不得而知。2018年初,据外媒报道,Google正与美国国防部合作,开发无人机软件。应用了Google的机器学习技术后,军方的无人机识别效果也将更为精准。
谷歌终于回到了“不作恶”的道路上
    根据美国国防部发布的报道表示,这个名为“Maven”的项目,旨在帮助处理军方收集的“数百万个小时的无人机拍摄视频”,可以为其提供精准识别个人的能力。

    DianeGreene曾对谷歌员工称,该合同价值为900万美元。在谷歌的描述中,这份合同价值并不高,因此它也只是向五角大楼提供TensorFlow开源软件。

    但是,据美国媒体Gizmodo透露,它获得了两组谷歌内部电子邮件。其中显示,这份合同最初的价值至少达到1500万美元,预计该项目的预算将增长到高达2.5亿美元。谷歌所做的,也不仅仅是提供TensorFlow,它计划建立一个类似“谷歌地球”的监测系统,这样,五角大楼的分析师能够为整个城市建立车辆、人群、土地特性等图像,查看所有建筑内相关的一切信息。

    邮件显示,谷歌的高层热情支持这一项目,因为它会让谷歌云走上和五角大楼更好地合作之路。邮件内还阐述了Maven的项目目标和谷歌的内部时间表。为了解决这一项目,谷歌云也面临着挑战:它需要使用军用无人机提供的数据来构建机器学习模型,但是它缺乏官方授权,将这类敏感数据保存在云端。

    该授权被称为FedRAMP,是与政府签订合同的云服务制定的安全标准。但谷歌没有这一授权,因此它不得不依赖于其他地理空间图像,来完成Maven项目的早期工作。

    负责监督谷歌与美国政府业务的执行董事AileenBlack在邮件中写道,Maven项目正赞助谷歌申请更高级别的FedRAMP授权:SRG4和SRG5。“他们正在快速跟踪我们的SRG4ATO(安全性证书),这是无价之宝。”

    今年3月下旬,谷歌宣布它已获得临时FedRAMP4授权运营,即ATO。谷歌总监SuzanneFrey在一次新闻发布会上说:“有了这个ATO,谷歌云平台可以实现拓展到政府客户的承诺。”

    这也对谷歌获得其他政府项目至关重要。比如,据美媒报道,谷歌正在和微软、IBM等竞争一项价值100亿美元的五角大楼云计算项目。

    据称,谷歌与国防部的合同条款之一是,如果没有公司的许可,谷歌的参与将不会对外被提及。

    但是,谷歌的员工对此并不支持。此前,一封公开信已在Google内部流传,4000名Google员工在上面签名,要求公司退出五角大楼的军事计划,并同意“永不开发战争技术”。随后,约12名员工提出集体辞职。

    “谷歌在Maven项目中的相关参与计划将不可挽回地毁灭谷歌的品牌和它吸纳人才的能力。在越来越多的对于人工智能可能会偏激化和武器化的恐惧中,谷歌在获取公众信任方面已经显得力不从心了。这一协议将会使谷歌的声誉面临威胁,并将会使谷歌站在其核心价值观的对立面。”谷歌的员工在信中写到。

    在这部分员工看来,这一行为,显然已经触犯了谷歌“不作恶”的理念——尽管这一价值观在2015年谷歌重组母公司时已被修正为“做正确的事”。

    现在,他们为谷歌带来的压力终于产生了效果。

    反对这一项目的科研人员们的恐惧,并非无因。

    让我们来回顾下去年11月,在日内瓦举办的联合国特定常规武器公约会议上,展示的一段视频:一群神似《黑镜III》中机器杀人蜂的小型机器人,通过人脸定位,瞬间便杀死了正在上课的一众学生。

    这个体型娇小的机器人中,包含了大量的黑科技:传感器、摄像头,可进行人脸识别,可以基于AI技术躲避狙击,更可怕的是,在它的中部,还有3克炸药,完全可以做到一击致命。

    在视频结尾,伯克利大学教授StuartRussell提醒所有人,这种杀人机器人并非真实,但是其中的科技手段都已经在现实中存在。而可以想象,一旦这些技术被恐怖分子所掌握,可以造成何等可怕的后果。

    因此,专家和研发人员们,才一力要避免视频中的悲剧在未来发生。

    会后,超过200名来自学界和业界的加拿大科学家和100名澳大利亚科学家联名写了公开信给本国总理,呼吁通过限制相关研究。

    几个月前,路透社曝出,韩国科学技术院(KAIST)正在研发人工智能武器。这家学院和韩国十大财团之一的韩华集团旗下韩华系统公司合作,开设了人工智能研发中心,研发适用于作战指挥、目标追踪和无人水下交通等领域的人工智能技术,希望在今年年底前研发出基于人工智能的导弹、潜艇和四轴飞行器。

    这事让包括澳大利亚、美国、日本等30多个国家和地区的研究人员坐立难安。4月4日,50多名世界知名的AI和机器人研究人员宣布,将联合抵制韩国科学技术院。他们在公开信中,敦促韩国科学技术院停止对AI武器的研发,并且表示,如果该大学不承诺停止研发,将与之断绝关系,而且将拒绝访问韩国科学技术院、接待对方访客或与对方合作研究项目,直至这所韩国顶尖大学承诺放弃研发缺少“有效人工控制”的武器。

    无奈之下,KAIST的院长Sung-chulShin给每位抗议专家写信,表示KAIST无意参与致命性自主武器系统‘机器人杀手’的研发,才终于获得了他们的谅解,统一恢复对其的访问和合作。

    如何界定技术和军事的结合,是个永恒的争议。但是,“人工智能”技术+“武器”,无疑是其中最为敏感的话题之一。

    尽管的谷歌的技术,并非用来生产什么新式武器——比如外界一直担忧并恐惧的“杀人机器人”,但是谁又能知道,Maven计划,不会让无人机的定位和投弹更为精准?当AI技术不受控制,又是否会贻害无穷?

    退一步讲,当一切都在谷歌的“监测”之下,类似于Facebook数据泄露这样的过失,也难以令人接受。

    对于很多科研人员而言,任何将自己研发的技术用于“伤害他人”的可能,都是相当可怕的存在。

    特别是,AI技术那难以被保证的“可控性”。AI的内心,也仍然有我们所不理解的“黑暗”的一面,那就是人工智能尤其是深度学习和神经网络的“黑箱”——你能解释清楚一个AI系统是如何得出结论的码?

    深度学习在近年来,已经被证明是非常强大的解决问题的方式,并已经被广泛应用,比如在图像识别、语音识别和语言翻译中。但是,人类首先需要能找到方法,证明深度学习技术能够更理解它们创造者的意图,以及向用户负责。

    美国军方正投入数十亿美元,使用机器学习来引导车辆和飞机识别目标,并帮助分析人员筛选出大量的情报数据。不同于其他领域,甚至是医学领域,国防部已经将证明机器学习的“可解释性”看做一个关键的“绊脚石”。

    DavidGunning,美国国防高级研究计划局的项目负责人,负责一项名为ExplainableArtificialIntelligenceprogram的人工智能“可解释性”项目。这位满头银发的老兵,曾监督DARPA项目,最终导致Siri的成立。情报分析人员正在测试机器学习,作为识别大量监控数据模式的一种方法;许多自主地面车辆和飞机正在开发和测试。但如果一个机器坦克不能解释自己的行为,士兵可能感到不舒服,分析师也将不愿意对没有理由的命令采取行动。Gunning说:“这些机器学习系统的本质往往是产生大量的假警报,所以分析师真的需要额外的帮助来理解它为什么要做一个推荐。”

    所以,一向支持“AI威胁论”的马斯克又在近期秀了一把存在感。美国电影导演克里斯·潘恩(ChrisPaine)制作了一部纪录片中,调查了一些人工智能的应用实例,包括自动武器、华尔街的技术算法等。马斯克则警告说,人工智能“不需要作恶,就可能摧毁人类。”

    令人欣慰的是,我们现在也看到了,全球AI研发人员的道德界线。但是,对于AI“杀人武器”的担忧和讨论,却仍将继续。

    无论“作恶”的是AI本身,还是人类,我们是否能够一直将之处于控制之中呢?

    【深圳千佰特外贸网站推广公司网站】:http://google.qbt8.com/

    【全国热线】:400-066-9987

    【联系地址】:深圳市福田区多丽工业园科技楼805

此文关键字: 谷歌