美国情报机构对生成式人工智能的接纳既谨慎又急迫

在生成式人工智能蓬勃发展之前,一家硅谷公司曾与美国情报机构签约,收集和分析非机密数据,揭露中国非法芬太尼贩运。该公司为美国情报机构的接受提供了令人信服的理由。

该行动的结果远远超过仅进行人工分析,发现有两倍的公司和比利用传统分析方法多400%的人员从事这种致命阿片类药物的非法或可疑交易。

激动的美国情报官员公开宣扬了这些结果 — 人工智能主要基于互联网和暗网数据进行连接,并将其与北京当局共享,督促严厉打击。

2019年行动的一个重要方面,名为“Sable Spear”,此前并未报道:该公司使用生成式人工智能为美国机构提供了证据摘要,为潜在犯罪案件节省了大量工作时间。

“没有人工智能,你是无法做到的,”国防情报局AI主任兼项目协调员布莱恩·德雷克说。

承包商Rhombus Power稍后使用生成式人工智能,预测了4个月前具有80%确定性的俄罗斯对乌克兰的全面入侵,为另一家美国政府客户计划。Rhombus表示还将向政府客户发出警报,但拒绝透露客户名称,通知即将发生的朝鲜导弹发射和中国太空活动。

美国情报机构正快速拥抱人工智能革命,他们相信否则将无法适应传感器生成的监视技术不断扩展到整个地球。但官员们清楚,这种技术尚处于初期且脆弱,生成式人工智能 — 针对庞大数据集进行训练以生成按需文本、图像、视频和类似人类对话的预测模型 — 绝非专为这种充满欺骗的危险交易量身定制。

中情局局长威廉·伯恩斯最近在《外交事务》杂志中写道,分析师需要“能够消化大量公开来源和秘密获取信息的复杂人工智能模型”。但这并不简单。

中情局首位首席技术官南德·穆尔钱达尼认为,由于生成式人工智能模型“会产生幻觉”,最好将其视为一位“疯狂、醉醺醺的朋友” — 能够提供极具洞察力和创造力,但也容易受到偏见的说谎者。此外还存在安全和隐私问题:对手可能会窃取和损害它们,而且它们可能包含着不授权官员查看的敏感个人数据。

然而,这并没有阻止实验进行,尽管大部分实验都在秘密进行。

一个例外:18家美国情报机构的数千名分析员现在使用中央情报局开发的生成式人工智能Osiris。它运行在未分类和公开或商业可获得的数据上 — 即所谓的开源数据。它编写注释摘要,并具有交互式聊天功能,让分析员可以进行更深入的查询。

穆尔钱达尼表示,Osiris采用了多个商业供应商提供的多个人工智能模型。他也不愿透露中情局是否在秘密网络上采用生成式人工智能进行主要工作。

“现在还是早期阶段,”穆尔钱达尼说,“我们的分析员需要能够确切地标出信息的来源。”中情局试用了所有主要的生成式人工智能模型 — 不会承诺使用任何一个 — 部分原因是因为人工智能在能力上不断超越彼此,他说。

穆尔钱达尼表示,生成式人工智能在查找“确切的细长的那根针”方面表现出色。官员们坚决表示,它们永远不会取代人类分析师。

琳达·韦斯戈德,去年卸任的中央情报局副局长兼分析主任,认为推演将成为“杀手级应用程序”。

在任期内,该机构已经开始使用常规人工智能 — 算法和自然语言处理 — 进行翻译和任务,包括在非工作时间警告分析师可能重要发展。人工智能无法描述发生了什么 — 那是机密的 — 但能够提醒“这里有些你需要过来查看的内容”。

生成式人工智能预计将增强这些流程。

Rhombus Power首席执行官安舒·罗伊认为,它最强大的情报用途将在预测分析中。“这可能是国家安全领域的最大范式转变之一 — 预测对手可能会做什么。”

Rhombus的人工智能机器利用250种语言的5000多个数据流,涵盖10多年的全球新闻来源、卫星图像和数据网络空间等。所有这些都是开源的。“我们可以追踪人员,可以追踪物体,”罗伊表示。

争夺美国情报机构业务的人工智能巨头包括微软,该公司于5月7日宣布,将为机密网络提供OpenAI的GPT-4,尽管该产品仍需获得用于机密网络工作的认证。

另一家竞争对手Primer AI在其客户名单中列出了两家未透露名称的情报机构 — 包括在最近的军事人工智能研讨会上在线发布的文件。该公司提供了用于100种语言的人工智能搜索,在Twitter、Telegram、Reddit和Discord等来源中“检测突发事件的新信号”,并帮助识别“重要人物、组织、地点”。Primer列出了针对其技术所广告用途中的定位。在10月7日哈马斯袭击以色列后几天举行的陆军会议上,Primer公司高管描述了他们的技术如何在中东的在线信息洪流中辨别事实和虚构。

Primer高管拒绝接受采访。

在短期内,美国情报官员如何使用生成式人工智能可能不如应对对手如何使用它重要:刺穿美国的防御,传播错误信息,并试图破坏华盛顿读懂他们的意图和能力的能力。

由于硅谷推动着这项技术,白宫还担心美国机构采用的任何生成式人工智能模型可能会被渗透和损害,研究表明这是一个非常严重的威胁。

另一个担忧是确保“美国人”数据的隐私可能嵌入到大型语言模型中。国家情报总监办公室的人工智能负责人约翰·贝勒在采访中表示:“如果你与正在训练大型语言模型的任何研究员或开发人员交谈,并询问是否可能从LLM中删除一个单独的信息并让其忘记 - 并具有这种忘记的稳固的经验性保证 - 这是不可能的事情。”这是情报机构在生成式人工智能采纳方面不快速行事的一个原因。

“我们不想陷入一个情况,那就是我们快速实施了这些东西,并且在两三年内意识到它们具有一些我们没有预料到的信息或效果或新出现的行为,”贝勒说。例如,如果政府机构决定使用人工智能探索生物和网络武器技术就是一个问题。

昆西国家安全研究所的高级研究员威廉·哈廷格表示,情报机构必须仔细评估人工智能的潜在滥用问题,以免导致意外后果,如非法监视或增加冲突中的平民伤亡等。

“所有这些都发生在一个背景下,即军方和情报部门屡次夸大了‘奇迹武器’和革命性方法 — 从越南的电子战场到20世纪80年代的星球大战计划再到20世纪90年代和2000年代的《军事事务变革》 — 结果却大大不尽人意,”他说。

政府官员坚称他们对这些问题非常敏感。此外,他们表示,人工智能任务将因涉及的机构而异。没有一刀切。

以国家安全局为例。它拦截通信。或是国家地理空间情报局(NGA)。其工作包括查看和了解地球每一寸土地。然后是测量和签名情报,多个机构使用它来利用物理传感器追踪威胁。

为这些任务增添人工智能是明确的优先事项。

去年12月,NGA发布了一份完全新型生成式人工智能模型的招标要求。其目的是利用从卫星和地面收集的图像,通过简单的语音或文本提示,获取精准的地理空间情报。生成式人工智能模型不绘制道路和铁路,并且“不理解地理的基础知识”,NGA的创新主任马克·芒塞尔在一次采访中说。

芒塞尔在弗吉尼亚州阿灵顿的一次会议上表示,在政府当前只对地球的3%进行了建模和标记。

生成式人工智能在网络冲突领域也是非常有意义的,攻击者和防御者处于持续的战斗中,自动化已经实施。

但是,许多关键情报工作与数据科学无关,前国防情报官员扎克里·泰森·布朗认为,如果情报机构过于迅速或完全采用生成式人工智能,可能会引发灾难。这些模型并不进行推理,它们只是进行预测。而且他们的设计者无法完全解释它们的工作原理。

因此,在与欺骗大师竞技方面,这并不是最好的工具。

布朗最近在中央情报局内部期刊上写道:“情报分析通常更像是关于拼凑拼图的老套路,而与此同时,其他人则试图偷走你的拼图碎片,同时还将一个完全不同拼图的碎片放入你正在处理的堆中。”分析师对本能、同事和制度记忆非常信任。

前中央情报局副局长韦斯戈德表示:“我认为人工智能不会很快取代分析人员。”有时基于不完整数据必须做出迅速的生死决策,而当前的生成式人工智能模型仍然太过不透明。

“我认为某位总统永远也不会接受情报界前来说‘我不知道,黑匣子告诉我的’这种说法,”韦斯戈德说。