及,最核心的问题:谁来制定规则?
欧盟代表率先发言,语气强硬:“我们必须建立全球统一的、具有法律约束力的伦理框架。欧盟的《人工智能法案》可以作为一个蓝本,强调人权、透明度、可追溯性……”
美国学者立刻反驳:“过度监管会扼杀创新。我们应该鼓励行业自律,政府只负责制定底线原则……”
中国代表微笑发言:“各国国情不同,发展阶段不同,应该求同存异,在联合国框架下开展对话合作……”
场面很快变得激烈。各方代表各执一词,引经据典,数据、案例、理论轮番上阵。毕克定安静地听着,偶尔在笔记本上记录几个关键词。笑媚娟坐在他旁边,身体微微前倾,专注地观察着每个人的表情和细微动作。
争论进行了四十分钟,主持人试图控制局面:“各位,我们时间有限。不如我们聚焦一个具体问题:在人工智能的军事应用上,应该设立什么样的红线?”
会场安静了一瞬。
这是个雷区。涉及国家安全,涉及大国博弈,涉及人类存亡。
“我认为,”洛克菲勒基金会的科学顾问缓缓开口,声音平静,但每个字都像石头砸进水里,“应该完全禁止人工智能在致命性自主武器系统中的应用。机器不能决定人类的生死。”
“我同意。”欧盟代表立刻附议。
中国代表沉吟片刻:“原则上同意。但具体到定义和核查机制,还需要进一步讨论……”
“讨论?”一个冰冷的声音突然插了进来。
所有人转头。说话的是马库斯·冯·德·林登。
老人终于抬起了头。厚厚的镜片后,那双眼睛浑浊,但深处有一种令人不寒而栗的光。他没有看任何人,只是盯着自己面前的笔记本,声音平直,没有起伏:
“在你们讨论该不该禁止的时候,已经至少有十七个国家,在研发基于人工智能的自主攻击系统。其中九个,已经进行了实战测试。三次在非洲,两次在中东,一次在高加索,还有三次——”他顿了顿,终于抬起眼,目光缓缓扫过全场,“在你们不知道的地方。”
会场死寂。
“冯·德·林登先生,”主持人有些尴尬,“您有数据支持这些说法吗?”
马库斯没有回答。他低头,继续在笔记本上写字。沙沙的笔尖摩擦纸张的声音,在寂静的会场里格外清晰。
“先生?”主持人又问。
马库斯终于停下笔,合上笔
本章未完,请点击下一页继续阅读!