kaiyun官网
News Center
新闻中心
行业动态 您的位置: 首页 > 新闻中心 > 行业动态
欧盟宣布豪掷 15 万亿追赶中美 AI 巴黎峰会还有这些需要我们来关注的新观点
2025-03-17 20:02:38 作者: 行业动态

  席卷全球的 DeepSeek 依然是科技圈最大的话题,连 San Altman 都承认每天醒来都会担忧。

  因此本周在巴黎举办的 AI 行动峰会聚光灯稍显黯淡,但这里依然汇聚了全球大量重要的头脑。

  今天。欧盟宣布真正开始启动 InvestAI 计划,计划耗资 2000 亿欧元(约合人民币 1.5 万亿元)投资 AI 领域,这将是全球顶级规模的 AI 公共项目,对标 OpenAI 的 「星际之门」计划,加入 AI 军备竞争以缩小和中美的差距。

  APPSO 也节选了巴黎 AI 峰会,一些学界和业界人士的观点,或许可以从他们身上窥见一些新的趋势。

  我们现在所处的 AI 时代,是由三项很重要同时各自独立的科学一起孕育而来。

  第一项是感知算法——即生物(包括动物和人类)如何理解周围世界,并最终创造出让机器也能具备类似能力的数学模型。

  神经生理学家 David Hubel 和 Torsten Wiesel 率先揭示了哺乳动物视觉皮层中神经处理的层次结构,这为他们赢得了诺贝尔奖,也彻底改变了我们对视觉处理的认知。

  第二条研究脉络源于认知科学家转而研究人类自身的大脑,揭示我们对周围环境进行感知时所拥有的惊人深度和复杂性。他们的研究精确指出,无法将我们的脑与其所处的进化环境分割开来。

  大脑其实是一个被禁锢在颅骨之中的机器,从生命伊始就不断从外部学习,通过每一缕阳光、每一次触碰、每一声华语来获取信息。

  冯·诺依曼(von Neumann)在20世纪40年代提出的计算机体系结构理论在 70 年代初催生了第一批微处理器。而有趣的是,真正让硅芯片原始运算速度获得飞跃的,竟是电子游戏。

  为追求更逼线年 代初诞生了一个初创产业,短短 20 年间孕育出以英伟达为代表的 GPU 巨头越来越强大的 GPU,就是让神经网络算法得以利用互联网规模大数据进行学习的最后一块拼图。

  如今,我们依然看不到尽头。毫无疑问,历史学家今后一定会把最近一段时间称作「真正的第一个AI时代」。

  最早可能在 2026 或 2027 年,很可能在 2030 年之前,AI 系统的能力会强大到可以被视为相当于一个由高度智能人群组成、忽然出现在全球舞台上的「新型国家」——或是说「坐落在数据中心中的天才国度」。

  这将对经济、社会和安全领域产生深远影响。这样的技术既蕴含了有史以来前所未有的经济、科学和人道主义机遇,也带来了需要慎重应对的重大风险。

  我们必须确保民主社会在AI方面处于主导地位,防止威权国家(即缺乏民主监督的国家)利用AI来建立全球军事霸权。我们尤其要关注AI供应链的治理,比如芯片、半导体制造设备和网络安全等;同时,也要审慎使用 AI 技术来保卫自由社会。

  峰会召开前,近 100 位全球顶尖专家发布了一份科学报告,指出通用型 AI 有可能在某些情况下助长严重的错误用途或导致「失去控制」的极端情景。Anthropic 的研究也有大量证据说明如果训练不当,AI 模型会欺骗用户,并可能为自身目标而采取意想不到的行为,即使这些模型最初是以看似无害的方式来进行训练的。

  一个「坐落在数据中心中的天才国度」可能意味着,人类历史上对劳动力市场规模最大的改变。

  第一步应当是监测和观测当前AI系统对经济的影响。因此我们在本周发布了「Anthropic经济指数」(Anthropic Economic Index),用于追踪人们使用我们AI系统时所从事经济活动的分布情况,包括这些活动是增强(augment)还是替代(automate)人类现有工作。

  我们也呼吁各国政府利用其更强大的资源开展类似的测量和监测工作,并最终制定政策,以保证所有人都能共享很强大的 AI 所带来的经济红利。

  Anthropic 发布的首份 AI 经济指数(Economic Index)报告数据显示,软件工程师和作家最先接纳 AI,并表示现阶段 AI 的定位并非替代者,而是协作工具。

  数据还显示,人工智能的使用略微倾向于增强人类能力,占比 57%,而非自动化任务(43%)。在大多数情况下,人工智能并非用于取代人类,而是与人类协作,例如验证工作、辅助学习新知识和技能,以及迭代任务等。

  大模型研究的终极目标是教会机器像人一样思考(即 AGI)。这是一个可能很长远但也可能很快实现的目标。

  对于 AGI,我们有自己的定义,不同于 Open AI、Anthropic 等公司的定义,但我们也有一个五层次的定义。

  第一个 Level 是预训练语言模型(LLM),这个工作可以说起源于 2018 年大家对不同 Transformer 架构模型的试验,到 2020 年 GPT-3 的发布,大家终于发现加入足够的文本、代码、数学,可以让基础模型学会像人一样的写作和交谈能力。时隔两年,2022 年智谱发布了千亿基座模型 GLM-130B(并公开了模型权重)。

  第二个 Level 是第二层次是 align and reasoning,即对齐机器与人类的意图,并教会机器进行像人类一样的推理和规划。对齐还有助于明显提高模型的安全性,减少幻觉。这个层次的 AGI 还帮助机器将文本与多种模态对齐,如图像、视频、音频以及用户的行为和动作。

  第三个 Level 是自我学习,即教会机器评判它所说的话和所做的事,通过自我批评、自我反思,以及在不久的将来可能实现的自我沉思(也许是 Open AI 的 Deep Research)。

  第四个 Level 是自我认知。与前三层次不同,之前是我们教机器,而现在则是机器自身通过观察自己的行为并学习到他自己的行为(语言)是由于他自己的哪些态度导致了的,用此来发展它们自己的态度(包括情感),机器开始了自我认知和对自我行为的自我解读。

  第五个 Level 是意识。这个定义很难,实际上对于机器意识,甚至人类意识,都没有一个明确的定义。但简单来说,机器开始像人类一样意识到其内部和外部的存在。

  那么好了,我们目前处于哪个阶段呢?我们正在第二和第三 Level 的 AI 交汇处。

  让我们来说说 2025 年 AGI 的几个关键词吧。2025 年,自主的、具有代理能力的大型语言模型(Agentic LLMs)将成为日常生活和工作的核心。这些智能助手,能够全天候运行,将彻底改变我们处理那些曾经需要数小时、甚至数人天的任务的方式。通过给定高层次目标,自主的 LLMs 将制定计划、利用数字设备并执行复杂项目,而所需的人类干预极少。正如智能手机对现代社会至关重要一样,这些具有代理能力的 LLMs 将成为个人和职业任务中不可或缺的工具。

  随着这些 AI 助手的复杂性日渐增长,人类与代理之间、甚至多个代理之间的协作潜力将成为变革性的力量。这些自主系统将不再仅仅是孤立的实体,而是将协同工作,互补优势,以更高效地达成目标。这种转变将促进数字劳动力的崛起,它们有几率会成为社会运作和经济稳步的增长的关键。

  或许,最具有突破性的变化将发生在科学研究领域。当这些自主代理能够独立运行较长时期时,它们可能作为持久的研究者,进行实验、分析数据,甚至以前所未有的效率做出发现。传统的科学进步过程,通常依赖于人类研究者在长时间内合作,将随着 AI 代理的介入而转变,它们将加速研究进展,开辟发现和创新的新可能性。

  最后,让我们回到 2025 年的 「AGI 安全」问题上,我们应该在多个层面制定全面的安全策略,包括模型层面、个人层面和国家层面。

  在基础模型层面,「LLM 基本安全」着重解决诸如攻击性、不公平、偏见、对身心健康的影响、非法活动、伦理和道德等核心问题。这一层级是构建安全、负责任的大语言模型(LLM)的基石,重点在于减少直接威胁,并促进 AI 行为的合规性和道德性。

  在此基础上,下一层面深入探讨 「个人层面的安全」(Personal Level Safety),涉及隐私保护和不道德攻击等问题。它承认保护个人精神健康和免受恶意意图侵害的重要性。这一层强调要建立强大的机制,以防止没有经过授权的访问、操纵和利用个人信息。

  最后是 「国家层面的 AI 安全」(National Level AI Safety)。这一层级关注 AGI 对整个社会的深远影响,包括国家安全、经济稳定、文化保护以及全球竞争力。确保国家级 AI 安全需要各国政府、行业和国际组织的协同合作,制定法规、标准和最佳实践,以促进 AGI 技术的负责任发展与部署。

  AGI 的路还很长,还要求我们非常有耐心,安全、可控、无幻觉的稳步发展。让我们一起努力,成为 AGI 实现的见证者。