现实版《黑客帝国》:美国布局机器人战争 潘多拉魔盒正在被打开

假如人工智能被人类设计成战争的武器,那么人间的最后一场战争很可能发生在人类和人工智能之间!
365j.me 现实版《黑客帝国》:美国布局机器人战争 潘多拉魔盒正在被打开 现实版《黑客帝国》:美国布局机器人战争 潘多拉魔盒正在被打开

谁能成为人工智能领域的领导者,谁就将成为世界的统治者。——普京

美国科幻片《黑客帝国》描述了这样一个场景:人类最终陷入了一场对抗人工智能的旷日持久的战争,由于不敌机器人,人类将电磁乌云布满整片天空,试图切断机器人的能源。然而,可怕的事情发生了,人工智能将人类囚禁起来,当作它们的“生物电池”;

电影《机械公敌》中原本以保护人类为使命的机器人出现集体失序,对人类展开了残暴攻击;

《西部世界》中机器人的内部系统不断进化,最终反叛并伤害人类。

这种预见性的科幻场景正在变成现实!

最近一系列消息都是指向同一个方向:机器人(AI)战争:

以色列打AI战争潘多拉魔盒

以色列与巴勒斯坦激进组织哈玛斯近期发生严重冲突,11天造成至少244人丧命。

以色列国防军透露,在这场战斗中,他们部署的人工智能(AI)在冲突中扮演了重要角色,并引导无人机识别、打击目标。以方称,这也是世界上第一次以AI引导无人机进行攻击的“人工智能战争”。

联合国谴责AI杀人!

美军在中国周边海域投放AI水下无人机

近来,中国渔民相继在南海、台海、东海靠近中国海岸线附近打捞一个庞然大物,经国家安全部门和科技部门鉴定为波浪无人滑翔机,或称为波浪滑翔器、水下无人机,以波浪动力前进,利用太阳能为仪器通讯、控制、定位、导航、传感器数据采集等供应能量的新型海洋移动观测平台。

根据型号分析这是美国液体机器人公司研发,它是美国波音公司旗下的全资子公司。

根据公司官网的介绍,这种无人机可以24小时×365天执行任务,在低温、台风甚至是高纬度地区航行超过140万海里,模块化设计可让其满足洋流观测、水文监测、态势感知等任务,实时通信功能也可与其他平台进行数据共享,能够单独或组成编队代替有人船只在危险地带执行任务。

一句话,美国在中国附近海域全方位布局AI水下无人机,疯狂搜集中国情报。

更有甚者,这种AI水下无人机也可以安置攻击性武器,战争时投入使用!

民主国家AI峰会誓言打赢AI之战

峰会由美国政府新成立的人工智能国家安全委员会(NSCAI)主办,国务卿、国家安全顾问、防长和国会领袖等一众高官与会,可见其重视程度!

会议承诺要集结资源,以协同一致的方式确保在人工智能科技革命中让民主力量走在中俄前面。

NSCAI主席、谷歌公司前CEO施密特再次重申:AI硬件优势需要领先中国两代!呼吁美国未来5到7年期间,每年增加400亿美元的投入,专门用于军事和非军事领域的人工智能研发。

布林肯把掌控AI上升到“技术为民主服务”、“民主国家必须共同通过技术测试”的高度,强调确保美国在激烈战略技术竞争中“继续、不断增长和加强”的领导地位。

沙利文强调打造一个民主的技术生态系统,从而加强我们的民主价值观和民主制度。

奥斯汀誓言:美国有信心打赢人工智能这场技术之战!

AI军事化步伐稳步加快

自2018年6月,美国国防部宣布成立联合人工智能中心以来,不断加快AI军事化应用的步伐。

2019年初,五角大楼成立美军算法战跨职能小组,标志着美军智能化建设逐步进入“快进”模式。

美国国家地理空间情报局局长罗伯特·卡蒂罗曾说,如果该局继续依靠手工方式筛选数据,未来20年需要雇佣800万名分析师!

为此,其算法战跨职能小组已经开发出首批N套智能算法,预计很快将投入实战应用和国防情报领域,以便将海量数据及时转化成可行动情报,从而更好地支持军事决策。

AI技术拥有更快的速度。在冷兵器和机械化战争时代,战场制胜的法则通常是“大吃小”;在信息时代,战场制胜的法则是“快吃慢”。

在超算能力的支撑下,AI反应速度是人类的成百上千倍。

美国意识到AI必将在未来成为与核武器、计算机和生物技术一样的变革性国家安全技术,逐步形成一个军事体系人工智能化大时代。

美国空军首席科学家办公室颁布的面向2035年的《无人系统地平线》技术评估和预测报告,认为未来各类无人系统与作战平台的自动化、自主性和远程遥控性能将随着技术进步不断取得突破。

AI战争成未来中美冲突的最大危险

这是两败俱伤的一场战争,就像核武能够摧毁人类一样!

基辛格说,卓越的人工智意味着你可以碾压任何按市场原则运作的竞争对手。在你所设想的世界中,人工智能大国之间将不可避免地存在竞争;

他指出,(AI)存在着压制对手的倾向。不可能想象拥有重要人工智能技术的主要国家之间的战争,不会破坏我们所知的文化生活;

所以,在中国和西方的竞争中,一个关键的目标必须是防止它成为一个全面的人工智能冲突。因为全面冲突的后果使人难以想象。

美国必须始终有充分的防御能力,但在高科技的世界里,它也必须为共存而努力。

中国科技界不重视AI战争

7月10日在上海举办的2021世界人工智能大会,实际上就是一个非官方的论坛,与会者都是科技和企业界人士,官方似乎忽视了如此重要的机会,与所谓“民主国家AI峰会”形成鲜明对比。

上海会议聚焦如何突破自动驾驶、AI服务、AI智造的技术场景。

可笑的是,马化腾的“王者荣耀”游戏成为全场焦点。

跟美国及西方政要和科技巨头相比,中国的境界有很大差距,似乎忽视了西方国家张开的机器人血盆大口,无视了正在迫近的机器人大战!

这未免让人担忧中国真可能在AI上落后美国两代!

AI战争场景应该惊醒中国人

不仅以色列用无人机定点杀人、美军用水下无人机搜集中国情报,而且在伊拉克战场上,多次发生美军军事机器人失控事件。

AI技术拥有更好的耐力、不受生理机能限制,可连续执行重复性、机械性任务,所以一旦投入实战,将及其残忍、血腥和不可控。

在人工智能迅猛发展的背景下,科幻电影中的人机大战、超级战士等奇异诡谲的情节与场景越来越趋向现实,人工智能的发展与应用正在逐步改写现代战争的进化轨迹。

当人工智能用于战争,是否能更智能地控制战争,还是会“养虎为患”,将人类推向更恐怖的战争深渊?

    当抖音把主要精力放在娱乐算法时,美国将设计算法推向设计战争,正式提出“算法战”概念,并组建“算法战跨功能小组”,以推动人工智能、大数据及机器学习等“战争算法”关键技术的研究。

更有甚者,AI促进武器装备创新,AI武器装备减少了战争发动方的伤亡,很可能走向失控的风险

规范AI战争伦理成当务之急

在传统的战争法则中,人类之间的对抗如棋局一般保持相对平衡,战争双方互相控制且对彼此的伤亡负责,而一旦加入AI技术,人类的伤亡有谁负责,机器人还是制造、操纵机器人的人类?

进一步说,人类又能如何避免人AI成为无尺度暴力的工具?

有分析指出,AI与自动化武器结合的全自动武器系统,意味着战争杀戮成为十分简单的事情,以往战场上的战马、钢盔、刀剑、枪弹也许都不再需要,指挥官可能只需一个按钮、一句指令就能达到理想的杀伤目的。

在这种情况下,全自动武器一旦投入使用,战争的杀伤效率将超乎以往,武装冲突迅速升级并扩大的可能性将难以预计。

早在1942年,科幻作家阿西莫夫就提出了“机器人三大定律”,以规范机器人的行为并确保机器人对人类的附属地位。目前这三大定律已逐渐成为机器人的非正式伦理规范。

2015年,美国生命未来研究所在当年人工智能国际会议上提交的一份信件指出,“如果主要军事力量运用了人工智能,那么全球军事竞赛将不可避免,而最终的结果就是,人工智能将成为下一个卡拉什尼科夫冲锋枪。美国运用人工智能则必然招致报复和一场人工智能大战。”该信得到了17000多个签名和2万多个附议签名。

2017年,包括特斯拉公司首席执行官马斯克和谷歌人工智能公司联合创始人苏莱曼在内的116名世界领先机器人和人工智能公司的领导人联名发布了一封公开信,呼吁禁止发展致命性自动化武器,并阻止高科技军备竞赛。

但是,美国无视AI战争伦理,决意将AI投入军事用途,AI的伦理失范风险正在急剧增加。

AI应用于战争始终存在走向暴力失控的风险,智能化武器愈来愈成为安全威胁的主要来源。

显然,人工智能带来的伦理挑战不只是单纯的伦理法则可以解决的,更需要人类对人工智能本质的清醒深刻认识以及对人机关系的精准定位。

推荐阅读
Share on facebook
Facebook 脸书
Share on twitter
Twitter 推特
Share on reddit
Reddit
Share on telegram
Telegram
Share on whatsapp
WhatsApp
Share on email
Email 邮件
Share on print
PRINT 打印