找到
898
篇与
互联网
相关的结果
- 第 33 页
-
特斯拉疑似将升级外部摄像头,为AI5硬件套件做准备 IT之家 12 月 2 日消息,特斯拉似乎正在对其用于 FSD 套件及其他功能(如哨兵模式)的外部侧后视摄像头进行改动。 此次调整疑似为即将推出的 AI5 硬件套件所做的升级准备。据首席执行官埃隆・马斯克(Elon Musk)表示,AI5 将率先搭载于少量车辆上,时间预计在明年,但大规模部署要等到 2027 年。 据IT之家了解,目前,特斯拉在 AI4/HW4 硬件平台的车辆上使用的是型号为 IMX963 的索尼传感器镜头,这是一款 500 万像素摄像头,相较 HW3 平台所使用的 120 万像素摄像头,在动态范围和低光性能方面均有显著提升。然而,特斯拉似乎正计划再次升级其摄像头系统。知名特斯拉技术追踪者“greentheonly”在其固件代码中发现了一款新型传感器,明确提到了型号“IMX00N”。截至目前,索尼尚未正式公布 IMX00N 的具体规格参数。尽管 IMX963 已用于 AI4/HW4 车辆,但考虑到特斯拉认为 AI5 将是真正支持完全自动驾驶能力的第二代硬件平台,提前对外部摄像头进行新一轮升级也合乎逻辑。特斯拉一直强调,当前搭载 AI4/HW4 硬件的车辆已具备实现自动驾驶的能力,但 AI5 有望在整体性能和数据采集能力方面带来显著进步。特斯拉上一次对外部摄像头进行更新是在 2023 年初,当时将摄像头升级至 500 万像素的 IMX963。此外,今年 1 月发布的新款 Model Y 还新增了前保险杠处的外摄像头,以进一步增强 FSD 功能的表现。 -
罗永浩发长文宣布"大事":年底开"科技春晚" 极目新闻记者 郭迩12月1日中午,罗永浩在个人微博发长文宣布一件“大事”:“罗永浩的十字路口”之年度科技创新分享大会(2025)将于今年12月30日在上海召开。暂未对此前的录音事件作进一步回复。 罗永浩发长文宣布“大事”罗永浩发布的长文当中提到:“本次科技创新分享大会上要介绍的科技产品,全部由我和我们的产品团队主动选品,我会精心编排所有的演讲内容,并亲自在发布会上进行讲解。”据了解,罗永浩此前的新品发布会被网友称为“科技春晚”,但2018年锤子手机业务失败后,罗永浩的“科技春晚”一直未举办。罗永浩表示:“这是我阔别科技发布会舞台七年后的第一次,所以除了介绍大概十几个中国科技创新产品,差不多软件和硬件各-半,除了这个,我也会发布细红线科技自己研发和内部孵化的AI软件,当然,具体内容现在也都是保密。”长文当中提到,该科技发布会大概在两周后放票,欢迎大家买票来现场观看(按“科技春晚”的优良传统,门票收入会全部用于公益)。此外,罗永浩还对科技分享大会的内容、产品合作、开发布会的原因等问题做出解答。罗永浩称:“我们的公司和我的家都搬到上海了,所以在上海开很自然,我们当年也在上海开过手机发布会,我喜欢这里的场馆,商业上谈起来比较容易。另外,我也很喜欢我们公司所在的徐汇区西岸这边的科技创业氛围,上海大部分的Al公司都在这里。明年如果有其他城市愿意提供更好的综合支持,要我们去开,我们也不排除到其他城市开明年的创新分享大会,反正以后每年会至少开一次。”该微博的评论区,罗永浩与网友就此次科技发布会积极互动,但尚未对录音事件回应。 罗永浩个人微博截图据此前报道,11月25日,华与华创始人华杉发文称西贝作为“中国餐饮业天花板”,因“被诱入网络罗刹国遭算计”陷入舆论风暴。该言论引发罗永浩强烈不满。11月26日凌晨,罗永浩转发华杉的上述微博内容并表示,抛出三连质问:“谁诱的?谁算计了?你想干什么?你要是说不清楚,我就公布录音了。”11月29日,罗永浩在直播中回应与华杉的录音还没公开,“反正公司有要官宣的事,周一我们会有一个大的事件官宣,结束以后至于什么时候公布那个录音,看哪天心情好就公布了。就我不是那个意思,是因为周一我们有正事,不想这种吵架扯皮子事跑偏了,周二周三看情况。”罗永浩表示:“反正哪天没事就给它公布了,公布也没什么特殊,你们以为有什么猛料,没有,就是他当时骂人,然后我警告他,第二天早晨不就滑跪吗?然后跑到那就一通道歉认错,然后又说自己丢了多少生意,其实也是为了给贾老板站台,说收了人家那么多钱,要表现自己讲义气什么的,但确实不是冲着我们来的,然后什么非常抱歉,没有什么猛料,就丢人现眼的。但是我就不知道为什么,他说完那个,紧接着又开始又阴阳怪气地骂我,你既然那么害怕,第二天早晨过来还道歉,为什么隔了一阵贾老板那没事了,他又在那骂我呢?我也不知道怎么回事,但不管怎么样,反正我公布一下让你们知道,这人两面三刀,就没个正经,不知道干什么的。”在另一个网友发布的视频片段中,罗永浩还提到,“就脏话贼多,所以不能在这公布,过两天我贴出来,也不能贴到社交网络上,我只能贴到某处,然后社交网络给个链接,操作起来挺啰嗦的,而且我也没那么当回事,过两天不忙就贴出来,这两天正事有的是。(来源:极目新闻) -
AI巨头“暗战”升级 基金经理透过技术之争看产业机遇 证券时报记者 裴利瑞在大洋彼岸的硅谷,一场关于AI算力底座的“暗战”正悄然升级。近期,媒体报道称谷歌用自研的TPU(张量处理器)芯片训练出的Gemini 3在性能上超过了OpenAI用英伟达GPU(图形处理器)训练出的ChatGPT 5。随后,市场传闻Meta或将大规模采用谷歌自研的TPU替代部分英伟达GPU。一连串消息如同投入湖面的石子,在资本市场激起层层涟漪。11月以来,美股两大AI巨头走出了一段跷跷板行情,英伟达下跌12.59%,而谷歌则逆势上涨了12.85%。英伟达构建的万亿AI帝国,是否会因谷歌TPU的崛起而出现裂痕?在这场巨头博弈中,早已深度嵌入全球算力产业链的中国企业,又将面临怎样的机遇与挑战?带着这些问题,证券时报记者采访了多位深耕科技领域的基金经理与行业资深人士,试图透过技术路线之争的迷雾,寻找资本市场的真实逻辑。定制化和通用型芯片之争在外界看来,谷歌TPU与英伟达GPU的较量,似乎是一场“你死我活”的王座之争。但在专业投资人眼中,这更像是一场关于效率与成本的理性回归。“谷歌TPU是定制化芯片,英伟达GPU是通用型芯片,因此,我们要讨论的是定制化和通用型芯片之争,而非谷歌和英伟达之争。”华宝港股信息技术ETF基金经理曹旭辰向证券时报记者指出。历史总是惊人的相似,曹旭辰认为,不止是服务器领域,在消费电子、汽车等传统领域,也曾经历定制化和通用型产品的竞争,其最终的结果均是以不同份额在各赛道并存。比如在手机赛道,既有通用的高通和联发科,也有定制的华为和苹果,“从底层芯片制造技术而言,TPU和GPU没有区别,TPU这类定制化芯片的核心诉求就是降本”。华北某公募基金经理从技术架构角度进一步剖析了二者的差异。“通俗地说,谷歌TPU在性能发挥、成本上相对优于英伟达GPU,但在生态开放和兼容性上不如后者。”该基金经理表示,“在当前大模型持续迭代、技术路线尚未完全定型的背景下,英伟达的通用GPU凭借CUDA的强兼容性,仍是大多数厂商的最优选,一家独大的趋势或仍会持续相当长的时间。而未来待大模型的技术路线稳定之后,专用ASIC如谷歌的TPU或将逐步成为算力加速芯片的主流。”市场之所以高度关注TPU,一个直接的导火索是谷歌用TPUv6芯片训练出的Gemini 3,在性能上被认为强于OpenAI用英伟达GPU训练出的Chatgpt 5。对此,曹旭辰提供了一个冷静的视角:“这并不意味着英伟达的芯片不行。如果我们简单用总算力/价格的方式粗算,v6的单位算力性价比其实还是弱于英伟达的B200/B300,而明年谷歌v7p的单位算力性价比预计与英伟达的Rubin芯片旗鼓相当。”他认为,这是芯片厂商不断竞争、技术距离相对拉近而顺其自然产生的趋势,而非新的颠覆性威胁。上海某科技基金经理则将这种竞争形容为一场“接力赛”。他指出,大厂自研芯片和英伟达的迭代都在加快,“虽然TPU v7暂时领先,但英伟达很快会在v7发布后量产Rubin,实现反超。未来二者是并行的,英伟达代表最高端的通用算力需求,而谷歌、亚马逊、Meta等厂商的自研芯片,将主要用于低推理成本的特定场景”。曹旭辰预测,定制化芯片份额提升是既定趋势,市场预期到2029—2030年,全球定制化算力芯片和GPU的份额将呈现“五五开”的局面。但在2026年之前,英伟达一家独大的格局未变,直到2027年左右,随着算力性能愈发接近,市场才可能再度陷入份额的激烈博弈。光模块与PCB或迎超预期增量无论是GPU还是TPU谁占上风,算力芯片的竞争背后是对数据传输效率的更高要求,这对被称为“卖水人”的硬件供应链而言,不仅不是利空,反而是结构性的利好。近期A股光模块、PCB(印制电路板)板块的异动,似乎正在提前定价这一预期。财通基金表示,从需求端来看,虽然不同芯片架构对光模块、PCB等硬件组件的需求存在一定差异,但这更侧重于技术路径的多样性,而非根本性的需求分歧;从供应链角度看,在PCB和光模块这些环节,国内的部分头部供应厂商已经走在了世界领先的地位,从供应链的客户响应速度、产品量产稳定性、成本都具备优势。因此,尽管下游芯片厂商不断涌现新参与者,但国内核心供应链企业与全球主要客户之间的合作基础目前是较为稳固的,在竞争中依然具备优势。值得注意的是,若谷歌TPU份额提升,可能会为光模块和PCB市场带来超预期的增量。前述华北某公募基金经理向证券时报记者透露:“我们有一个测算,对于光模块,谷歌和英伟达算力卡在纸面算力相等的情况下,TPU v7的光模块用量是英伟达Rubin(2die版本)的3.3倍,这意味着如果谷歌TPU部分替代英伟达份额,光模块板块的增速将更快,占整体资本开支的比例也将进一步提升。”在PCB领域,技术迭代带来的价值量提升同样明显。据该基金经理介绍,谷歌新一代TPU可能会采用台光更为先进的M9(HVLP4+Q glass)覆铜板材料,这将直接拉动高端PCB的价格和利润空间。然而,在乐观的预期中,也有机构投资者保持了审慎的冷思考。曹旭辰提出了一个独特的风险视角:如果TPU模式大获全胜,可能意味着算力产业的逻辑将由“持续通胀”转向“相对通缩”。“我不认为在总量没问题的情况下,如果TPU胜出而GPU失败,算力产业链的估值能支撑住。”曹旭辰分析,“好的成长产业伴随着量、价、利润率的三重上修,过去两年算力产业链正是如此。一旦低成本的TPU成为主流,虽然利好应用端,但对硬件产业链而言,可能会面临估值压制。所以从稍微长期一点的角度来看,GPU是不能‘倒下’的,一旦出问题,可能出现全产业链的估值坍塌。”算力降本难掩“爆款”缺位同时,市场也有声音认为,如果谷歌TPU能以更低的成本提供强大的算力,可能会极大促进AI应用的爆发,从而将市场的焦点从基础设施硬件转移到应用软件和服务上。对此,受访的基金经理观点呈现出一种“长期乐观,短期谨慎”的态势。“AI投资的下半场是应用,但并不意味着下半场已经到来。”华北某公募基金经理直言,当前应用能否爆发的关键在于大模型是否足够聪明,而非仅仅是算力便宜。尽管算力紧缺,但他认为当前仍处于算力为王的阶段。曹旭辰进一步指出,科技赛道的爆发往往起始于一款爆品,如ChatGPT开启了算力元年。但目前AI应用的核心问题在于没有爆品,即使大模型正在侵蚀部分传统软件应用的市场,但不得不承认,现在AI应用的核心问题还是没有爆品。“从中长期而言,TPU的降本效果一定是利好大模型公司和AI应用公司,因为降低了公司AI化转型的门槛。但从投资上而言,AI应用能否像AI算力那样有较大弹性空间,还是要打问号的,尤其是AI应用软件方面。”曹旭辰表示。中欧基金基金经理冯炉丹认为,AI不仅仅是TMT(科技、媒体、通信)行业的事,它作为一种通用生产力工具,正在重塑传统行业。在当前阶段,她更重点关注以下几个方向:一是人形机器人与高端制造(具身智能),AI大脑赋予了机械身体理解复杂指令的能力;二是智能驾驶,大模型正推动L3/L4级别的突破;三是AI+医药研发,AI在蛋白质结构预测、分子筛选方面的应用,正在大幅压缩新药研发周期。应用落地是验证AI泡沫论关键值得一提的是,随着英伟达股价的起伏,华尔街关于AI是否存在泡沫的争论也逐渐风起,甚至有许多投资者将当下的AI热潮与2000年的互联网泡沫相提并论。在财通基金看来,两次浪潮确实有相似之处:都源于技术突破,都引发了资本狂热,且初期收入无法覆盖投入。但本质上,这次“不一样”。“从技术落地看,本轮AI的文本模型已率先推广,编程等场景开始创收,云厂商收入增长提速;从产业链健康度看,GPU闲置率低,头部厂商的存货、现金流等指标健康,订单能见度极高;从估值合理性看,基于未来三年行业的高增长预期,我们认为目前产业链内公司的整体估值水平仍处于相对合理区间,尚未出现普遍过热的迹象。”财通基金表示。对于估值担忧,华北某公募基金经理用数据进行了详尽对比:“2000年互联网泡沫顶峰时,龙头公司市盈率高达150倍,严重透支未来。而本轮AI龙头2025年的市盈率不到40倍,且有强劲财报支撑。”但他同时提醒,国内部分AI独角兽存在估值虚高,缺乏落地场景,投资者需警惕FOMO(错失恐惧症)情绪驱动的盲目投资。他建议重点关注PE(市盈率)和ROI(投资回报率)两个指标,以评估回本周期。冯炉丹也表示,AI板块前期确实积累了显著的涨幅,体现了市场对这一赛道的高度共识。但其股价上涨背后有着业绩兑现作为支撑,而非纯粹的概念炒作,如果结合未来的高成长性,从动态估值的角度审视,板块整体并未出现明显的泡沫化。“当前投资机遇与风险并存,AI技术正处于加速迭代和商业化落地的黎明期,产业天花板极高”。曹旭辰认为,互联网和AI革命最大的区别在于门槛。“互联网产业参与门槛低,而AI产业参与门槛极高。”他判断,2026年云厂商大概率能顺利完成第一轮融资进行算力扩张,泡沫风险相对可控。真正的分歧可能出现在2027年的第二轮融资节点。“市场有没有泡沫,核心还是产业应用落地的速度能否接住高位的股价。”曹旭辰表示,“如果2026—2027年能出现AI应用爆品,那么现在的AI不仅没有泡沫,反而可能被低估了。” -
汤永隆:“拟社交”情感代餐,填不饱真实需求 来源:环球时报前段时间,剑桥词典公布了2025年的年度词汇——“parasocial”(拟社交)。剑桥词典认为,这个词描述了当前时代越来越常见的一种情感模式:一个人单方面地感觉自己与某个并不认识的名人、虚构角色,甚至是人工智能(AI)聊天机器人心心相印、息息相关。这个始于1956年的概念,因契合数字时代的情感特征而在近70年后重新焕发生机。1956年,美国芝加哥大学的社会学家唐纳德·霍顿和理查德·沃尔发现,电视观众会对播音员、名人或虚构角色产生一种想象性的人际互动。他们将这种现象称为“拟社交”。如今,它特指那些“人们与虚构角色或网络公众人物之间建立的单向且持久的情感联系”。例如为偶像全力应援的粉丝、对游戏角色真情倾诉的玩家等。这种单向亲密关系既非全然正常,也非完全病态,而是数字时代复杂性的具体体现。依恋理论揭示,当现实人际关系充满不确定性时,永远“在线”、不会拒绝的“拟社交”对象就成了理想的情感避风港。而使用与满足理论则强调,用户通过主动参与,精准满足了归属感、自我认同和逃避现实的几项需求。社会交换理论则提供了另一个视角:对“社恐”而言,相比高投入、高风险的现实关系,“拟社交”实现了“低投入高回报”的情感交换。而拟剧论指出,经过精心策划的公众人设,可以成为粉丝投射理想自我的完美画布。人类是社会性动物,而在新的技术加持下,“拟社交”可以用低于真实社交的成本,搭建起一个看上去完美的“社交替代品”,塑造一段“假性亲密”关系。但事实证明,“拟社交”具有明显的“双刃剑”属性。一方面,它为社交弱势群体提供了重要的情感缓冲,能够有效缓解孤独感;正向的偶像示范能激发学习动力,促进个人成长;同时,这种关系形态还催生了丰富的网络社群文化,创造了新的社会联结形式。另一方面,有研究显示,长期沉浸于“拟社交”同样可能削弱现实社交能力,形成“越社交越孤独”的恶性循环。尤其是在AI伴侣使用者中,抑郁与孤独的风险几乎翻倍。一些人习惯了被AI伴侣讨好、毫无摩擦成本的关系,导致对矛盾、妥协、拒绝的忍耐力较差,走进一段稳定的现实关系的难度反而更高。此外,虚拟对象形成的信息茧房也可能导致认知偏差,甚至失去独立思考能力。更重要的是,大规模的情感外移可能加速社会原子化,弱化传统社群纽带。面对这一趋势,我们需要构建虚实平衡的关系生态。个体层面,需要保持清醒的认知,明确这些关系的单向性与设计性,同时设立明确的时间与情感投入边界,不要过度沉迷。还可以将线上沟通作为开启线下交流的钥匙,主动培育线下兴趣与真实社交,将虚拟热情转化为自我提升的现实动力。社会层面,应加强全年龄段的媒介素养教育,倡导理性、辩证的公共讨论氛围,培养对网络内容的批判性思维,增强“一老一小”的抵抗力。此外,可积极建设线下社区空间,组织活动,为现实人际交往创造更多可能。就像天冷时的一件衣服,能在必要时提供温暖,但不能替代太阳,“拟社交”能带给人一时的爽感或慰藉,但不能替代真实生活。让人们认清这种情感代偿方式的关键,是引导公众认识到:人类社交的满足感,终究来自那些不完美却真实的“我与你”的相遇。在善用数字慰藉的同时,不懈追求真实世界的深度联结,才是我们在数字时代应有的生存智慧。(作者是西南大学心理学部教授) -
加强金融科技伦理建设 张学勇 当今世界,以人工智能技术为代表的新一轮科技革命蓬勃发展,不断催生出新场景、新业态、新模式,在赋能人类社会经济发展进步的同时,也带来了一些风险挑战和安全隐患。习近平总书记强调:“妥善应对科技发展带来的规则冲突、社会风险、伦理挑战。”党的二十届四中全会《建议》提出:“加强科技法治、伦理、诚信、安全建设。”金融是国民经济的血脉,是国家核心竞争力的重要组成部分。在人工智能、大数据等新技术的赋能下,金融科技不断创新并深度融入金融业发展。对金融科技活动进行有效治理,是防范化解金融风险、维护金融安全、推动金融高质量发展的题中应有之义。我们要深入学习贯彻习近平总书记重要讲话精神,认真贯彻落实党的二十届四中全会决策部署,持续加强金融科技伦理建设,不断筑牢国家金融安全防线。 金融活动以信用为核心,而信用的根基在于信任。金融伦理正是这种信任的制度化与规范化体现,是金融运行的道德规范与行为准则。近年来,随着人工智能、大数据、区块链等技术与金融业务深度融合,金融科技创新已成为推动金融业发展的重要力量,为金融发展提供了源源不断的动力,同时也带来一些挑战。比如,金融科技创新在提升金融效率、拓宽普惠服务方面成效显著,能够更好解决普惠金融发展面临的成本较高、收益不足、效率安全难兼顾等问题,降低金融机构服务门槛,解决中小微企业、“三农”等融资难融资贵问题,但也带来了数据安全、隐私泄露等伦理风险。又如,人工智能技术在赋能金融高质量发展的同时,也不可避免地出现算法偏见、黑箱决策等伦理隐患,放大了金融风险扩散的速度与影响范围。这充分表明,加强金融科技伦理建设已刻不容缓。加强金融科技伦理建设,一方面有助于通过强化契约精神、规范市场秩序,提升信息透明度,减少市场投机与道德风险相关行为,防范金融风险积聚,维护金融体系稳定;另一方面有助于约束资本脱实向虚、过度逐利行为,规范资金流向和风险偏好,确保金融体系更好服务实体经济,夯实金融安全根基。为此,要通过加强金融科技伦理建设,协调好科技与金融的关系,保障金融科技创新与金融安全的动态平衡。 拓展金融安全边界。随着人工智能等新技术深度嵌入信贷、支付、投资、风控等金融业务流程,金融风险的类型从传统的信用风险、市场风险延伸至技术风险与数据风险,风险生成机制更加隐蔽、传导路径更加多元。加强金融科技伦理建设,要前移金融安全防线,把防控重心从事后补救转向事前预判,在技术创新的源头环节强化伦理评估,把伦理要求融入技术设计、产品研发与风险控制全过程,构建覆盖事前、事中、事后的动态伦理治理体系。在技术应用方面,推动算法透明与可解释机制建设,强化模型审查与数据质量管理。在数据治理方面,健全数据分级管理与用途限定制度,完善数据采集、传输、存储全过程监管,防止信息滥采、滥用、滥传导致的系统性风险扩散。在信用建设方面,引导金融机构在风险管理模型中落实伦理审慎原则,优化客户画像与信贷评估规则,推动金融安全防线由被动防控向主动预防转型。 将伦理原则贯穿金融机构和科技企业运营全过程。加强金融科技创新,必须筑牢伦理底线,确保金融科技发展服务于社会公共利益与金融普惠目标。在行业层面,引导金融机构牢牢把握中国特色金融文化,把伦理原则贯穿企业运营和创新活动全过程,做到诚实守信、以义取利、稳健审慎、守正创新、依法合规。在业务层面,加快制定覆盖全业务流程的统一的伦理标准与风险预警机制,让伦理成为金融科技创新的基本道德规范。在制度建设层面,建立伦理合规与绩效考核相结合的机制,让伦理成为金融科技创新活动的“加速器”和“防火墙”。此外,还要完善从业人员伦理教育与职业培训体系,提升金融科技研发与管理人员的伦理道德素养。 加强体制机制建设。完善的金融伦理规范,能够有效防止金融机构和金融从业者的投机逐利与短视行为对系统安全的侵蚀,维护金融市场稳定与安全。为此,可明确算法开发、数据使用、隐私保护等关键环节的责任边界,推动建设标准统一、程序规范与责任清晰的制度体系,制定与金融科技创新相适应的伦理守则与操作规范。推动金融科技企业在信息披露与数据安全方面落实主体责任,完善公众问责与社会监督渠道,提升金融科技企业伦理治理的透明度与公信力。加强监管协调,推动涉企信息共享,促进监管部门、金融机构与科技企业之间的联动协作,实现金融安全与金融科技创新的良性统一。 (作者为中央财经大学金融学院院长) 《 人民日报 》( 2025年12月01日 09 版) -
直面被AI重构的艺术生态,“多学科视野下的艺术理论”全国青年学者论坛举行 人工智能浪潮席卷全球,正以前所未有的力量重塑艺术生产、传播与认知的底层逻辑,催生了艺术本体重构、创作主体边界模糊、审美经验变迁、艺术教育转型等一系列亟待破解的时代命题。2025年11月29日,第二届“多学科视野下的艺术理论”全国青年学者论坛在上海视觉艺术学院拉开帷幕,来自海内外三十余所高校及科研机构的青年学者围绕“AI时代的艺术哲学、艺术创作、审美、教育、伦理与艺术史”等议题展开研讨,共同探索人工智能背景下艺术理论学科的多元发展前景。 论坛上,上海视觉艺术学院常务副校长林敏表示,该校去年成功举办首届长三角青年论坛,为区域内青年学者搭建了开放包容的学术交流平台。“今年,论坛实现跨越式升级,从区域性活动拓展为全国性学术盛会,吸引了复旦大学、北京大学、清华大学、中央美术学院、中国艺术研究院、澳门科技大学、韩国庆熙大学等海内外知名高校及科研机构的青年才俊参与。”林敏介绍道,本次论坛以跨学科、跨地域、跨文化的对话为特色,通过批判性思维的碰撞,助力艺术理论学科提升在人工智能时代应对核心命题的能力与实效。 复旦大学文科资深教授、上海市哲学社会科学“学术贡献奖”获得者朱立元作为特邀嘉宾发表主旨演讲,他对青年学者寄予厚望:“大家在交流探讨中碰撞新思想、收获新创见、实现新突破,通过多学科视野与艺术理论学科的深度互动,推动理论研究与实践应用的双向繁荣。” 复旦大学张宝贵教授、上海戏剧学院支运波教授、上海大学任华东教授分别从马克思主义美学、戏剧理论和艺术学视角发表见解。三位专家一致指出,人工智能时代下,传统艺术理论和美学范式正面临失效挑战。“作为艺术理论研究者应当关注自身人工智能科技素养的培养,掌握人工智能艺术特殊的生产范式,在人工智能时代更要‘下山’研究艺术理论中的‘真问题’,寻求理论研究和艺术创作之间的相互滋养。”记者获悉,本次论坛采用“主会场+分会场”的形式,上午主会场集中呈现核心观点与学术共识,下午则设有四个主题分会场,分别围绕“AI时代的艺术哲学”“AI时代的艺术创作”“AI时代的艺术实践与审美”“AI时代的艺术教育、伦理与艺术史”展开专题研讨。专题探讨中,学者们结合鲜活案例展开深入分析。AIGC技术不仅全面渗透生产生活领域,更以创新方式融入艺术创作的各类实践中。从“丑萌”审美潮流下爆火的IP“拉布布”,到交互式作品《模仿游戏》中兼具行动者属性的音乐技术;从后人类转向下策展实践的革新,到摄影艺术中从“弱影像”到“算法崇高”的美学演进;从生成式音乐表情功能面临的技术瓶颈,到人工智能虚拟主播的表演机制创新,这些案例成为解读技术逻辑对艺术创作解构与重构、人机协作中创作者主体性演变、人文价值在智能时代传承与创新的重要样本。 人工智能时代对艺术创作的影响之深刻,不仅在于它在当代艺术中的广泛运用,也在于其对传统艺术、艺术教育及艺术史研究的颠覆性的改变。粤剧电影《白蛇传·情》中戏曲美学的现代转化与重构,展现了传统艺术与AI技术融合的创新可能;近代期刊科技图像的媒介实践与现代性生成研究,揭示了技术发展对艺术传播与认知的深远影响;人工智能语境下当代陶艺创作的生态共建模式,为传统手工艺的创新发展提供了新思路;AI图像分析技术在艺术史风格断代中的应用,则推动了艺术史研究方法的革新。也有学者围绕AIGC技术引发的本体论挑战展开深度思辨。AIGC技术之所以在艺术理论领域引发广泛关注与热烈讨论,核心在于其对“艺术是什么”这一根本命题,以及艺术价值、艺术伦理等关键问题构成了深刻挑战。人机共创作品与各类AIGC作品的涌现,打破了传统艺术的界定标准,对艺术本体论、价值论与伦理观提出了全新课题。在此背景下,青年学者们从现象学、诠释学、数字拟像、知识生产及事件哲学等多维度出发,对AI时代的艺术创作进行哲学反思,为构建适应时代发展的艺术理论体系、规范艺术创作伦理提供了重要的理论支撑。 -
月活干到1.2亿的汽水音乐,到底是谁在用啊? 国内在线音乐的市场,可能要变天了。就前阵子,腾讯音乐( TME )发了三季度财报,数据乍一看还挺稳当,会员提纯效果显著,赚得不少。但奇怪的是,资本市场反而不买账了,好几家机构反手就给TME调低了目标股价。分析师The Value Pendulum的分析说得很直白:除了担心毛利率下滑,投资者心里对其他音乐服务提供商,比如汽水音乐,也是发毛得很。 划重点,汽水音乐,威胁。有一说一,可能不少人对汽水音乐的印象,还停留在“抖音神曲外接App”或者“暂时还没成气候的小众音乐App ”上吧?结果不查不知道,人汽水音乐现在的月活,仅次于酷狗、QQ 音乐和网易云音乐这三位老大哥。根据 QuestMobile 的数据,截至 2025 年 9 月,汽水音乐月活规模已经干到了 1.2 亿,同比增速 90.7% 。 反观酷狗、QQ音乐和酷我的月活,分别同比下降8.1%、2.8%和8%,主流玩家里也就网易云能小增1.5%。换句话说,其他音乐App的月活明里暗里在跌的时候,汽水音乐倒好,直接逆势狂飙。 这就很离谱了。 在一个格局似乎已经固化的红海市场里,汽水音乐到底凭什么能从 TME 和网易云音乐的嘴里,硬生生撕下来一块肉?差评君去研究了一把,先说结论吧。汽水音乐可能从一开始,打的就不是那些明星、爱豆死忠粉或者音乐发烧友的主意。更准确地说,汽水音乐是在用短视频的逻辑,来做在线音乐。要是拿传统在线音乐App的标准去看汽水音乐,这玩意儿完全不按套路出牌,甚至可以说有点不专业。打开汽水音乐,直接就是一个播放界面怼你脸上。 没有复杂的Tab 栏,切歌就是简单粗暴的上下滑,把抖音那套交互逻辑,原封不动地搬过来了。在传统逻辑里,听歌像是逛超市,你得带着目的去,就算没目的,也得在琳琅满目的货架前挑挑拣拣。但在汽水音乐这儿,你打开 App,音乐就开始了。几乎零决策成本的单曲推荐模式,对于只是想随便听点啥的用户来说,这种无脑播放是一种解脱。而且,汽水音乐的VIP现在几乎跟白送没啥区别。 但一直以来,曲库版权都是汽水的硬伤。汽水音乐刚上线的时候,我们其实吐槽过他们要啥没有,连火遍全网的《野狼Disco》都只有翻唱版。 根据差评君的观察,虽说现在汽水的曲库丰富了不少,但想跟TME和网易云正面硬刚,还不太现实。像张杰的歌曲版权被TME和网易云两边分,汽水上很多都是Live版,华晨宇的独家在网易云手里,而腾讯音乐也把周董全套捏得死死,在汽水你想听周杰伦只能看MV,爱听国摇的在汽水上,都找不到几首万能青年旅店的歌。 一位在某在线音乐平台做过版权引入的业内人士,向差评君透露,目前就曲库版权竞争力来看,还是TME>网易云>汽水。数据显示,截止2024年年底,腾讯音乐总计拥有超2.6亿首授权及共创音乐与音频曲目,这都是腾讯音乐靠着买买买,攒下来的家底。 包括在某些小众、垂类内容赛道,也是网易云更有优势,光是社区氛围,就够汽水追好几年的。但是吧,差评君觉着汽水音乐其实从一开始,扩充曲库的思路就更灵活,不是只有死磕版权这一条路。就比如,在前期曲库有限的情况下,汽水音乐能做的,就是靠祖传的算法推荐,把每一首单曲,尽可能都推荐到大伙儿的心巴上。而且汽水音乐和抖音的生态又是联动的,大家回想一下自己平时刷抖音的状态,是不是刷到一个视频,配的BGM是真上头,你顺手就给收藏了。汽水音乐想了个招儿,把你抖音收藏的音乐全都同步过去。 而对于汽水音乐来说,联动不仅解决了拉新的问题,更解决了流量的问题。QuestMobile数据显示,截至2025年6月,汽水音乐有82.1%的流量都来源于抖音。 抖音只有短短十几秒的歌曲试听、洗脑BGM。。。基本都带着“去汽水音乐听完整版”的跳转链接。别的音乐App还要满世界打广告、买版权来吸引用户,但抖音的每一个爆款短视频,都可以是汽水音乐行走的广告位。并且,这种联动还形成了一种很诡异的内容壁垒。虽然汽水音乐版权少,但有些流行歌曲的DJ版、翻唱、Remix版或者0.9倍速变调版,你还真就只能在抖音或者汽水音乐上听。。。差评君知道,肯定有人要喷抖音上的一些热曲“土到爆炸”“歌词看得人两眼一黑”“市场过于下沉”。但就像咱前边儿说的那样,萝卜白菜各有所爱。汽水音乐的受众,或许不是那些对音乐有非常高要求的发烧友,而是那些歌荒了,把音乐当洗澡、开车、通勤时的背景音,喜欢追点潮流的泛大众用户。当然了,汽水音乐估计心里也门儿清,光靠算法喂饭和抖音输血,只能解一时之渴。所以汽水音乐也一直在通过扶持原创音乐人,不光真金白银给钱,还能把你的歌推到抖音的流量池里。 一旦你的歌被某个百万粉的博主用了,又或者成了某个变装挑战的专属 BGM,那爆发力是指数级的。不过,差评君扒了一下,发现即使你的歌在抖音上有好几千万、甚至上亿的播放量,也不一定能赚到很多钱。真不是我瞎说,差评君看到有个哥们,视频播放量高达 15 亿+,音乐使用量 100 万+,最后到手收益只有0.06元。 去问了几位原创音乐人才知道,汽水的版税收益,只基于汽水播放量,抖音数据不计入结算。 导致差评君也看到网上有一些,专门给汽水音乐人刷量的生意。只要交 3000 块钱,跑一个月,号称能有 6000 块的保底收益。另外,AI已经慢慢入侵了各大内容平台,汽水也不例外。就说这段时间,各种版本的《大东北是我的家乡》在抖音上热度爆棚,在AI的影响下,经过哈基米洗礼的华语乐坛,正式进入了大东北时代。打开汽水,上来就是一首《die π》福音版,你就说带不带派吧。 包括抖音开放音乐平台,现在也上线了创作实验室。在这上边儿创作的AI歌曲,可以上传到汽水音乐发布,说明官方其实也在支持AI音乐创作。 但如果曲库涌入大量的AI歌曲,现在还很难说是不是一件好事。我们注意到,在某些社媒上,有不少用 Suno AI 等工具批量生成歌曲,然后上传到平台混收益的人。做音乐的门槛是被打下来了,但质量也容易变得参差不齐。 总的来说,汽水音乐的确是靠着非版权的野路子,在起量阶段完成了一次漂亮的突围。至少目前看起来,交互简单、算法精准、免费听歌还有生态联动这套乱拳打死老师傅的招数,确实奏效了。问题就是,汽水音乐的这套“野路子”,能持续多久?毕竟,只靠抖音热曲,内容和商业的天花板是显而易见的。不过,未来的看点可能不在于汽水音乐花大价钱买独家,能不能成为下一个TME。而是当汽水音乐手里攥着几亿泛大众用户的时候,更多的版权方会不会主动找上门来。毕竟,独家版权的日子早就过去了,现在就要看汽水音乐能不能把另外一种故事,给讲圆了。撰文:西西编辑:江江&面线美编:焕妍图片、资料来源:汽水音乐、抖音、小红书、QuestMobile部分图源网络 -
中国报业传媒行业人工智能应用大会在沪举办,上报集团备案大模型数量全国居首 11月28日,2025中国报业传媒行业人工智能应用大会在上海举办。今年是深入推进主流媒体系统性变革的提速年,AI和变革成了大会的关键词。“这一年,我们意识到主动拥抱人工智能变革的浪潮对推动系统性变革的支撑作用,更加欣喜地看到,人工智能应用在上报集团已经成为普遍共识和行动自觉。”上海报业集团党委书记、社长李芸的现场致辞,让很多与会人士感受到AI在媒体行业的广泛应用。南开大学教授、博导,中国科技新闻学会副理事长刘亚东表示:“人工智能不再只是辅助工具,而是深度融入传媒内容生产的全链路,成为内容生态中不可或缺的协作者和伙伴。”他特别指出,当AI从工具升级为伙伴,传媒人需要重新定位自身角色,“我们不能再把自己看作是传统的编辑记者,而要成为创意的主导者和内容价值的守护者。”AI对于传媒行业的颠覆式影响,是全方位、全流程的。大会发布的《2025中国报业传媒行业AI融媒应用蓝皮书》(简称蓝皮书)显示,AI在传媒行业的应用已覆盖生产创作、内容分发、使用消费与创新服务四大领域。近几年来,主流媒体机构对AI应用的探索步履不停。蓝皮书显示,截至2025年9月,国家公示媒体登记或备案的算法及大模型共102项,呈现逐年快速增长趋势。在地域分布上,上海以备案18项位居全国各省份之首,占全国总量17.6%。其中,上海报业集团以累计备案13项,成为全国备案数量最多的媒体集团。中国报业协会常务副理事长明立志表示,上海报业集团以“最懂科技的文化传媒集团”为目标,让技术从“支撑保障”变为“核心引擎”。上报集团“AI智媒引航计划”正式启动,为中国报业人工智能的运用迈出新步伐、取得新进展、积累新经验。此次大会由中国报业协会、上海报业集团主办,上海市报业传媒行业协会、上海市互联网业联合会联合主办,静安区委宣传部协办,澎湃新闻、派生万物承办。原标题:《中国报业传媒行业人工智能应用大会在沪举办,上报集团备案大模型数量全国居首》栏目主编:李晔来源:作者:解放日报 查睿 -
外卖大战“分水岭”:阿里京东暂缓烧钱,美团亏损见底死守高客单价阵地 本文来源:时代财经 作者:庞宇 图源:视觉中国 11月28日晚,美团(03690.HK)公布的2025年第三季度财报显示,公司实现营收954.88亿元,同比增长2%,期内亏损186.32亿元,经调整亏损为160.10亿元。这是美团自2018年上市以来录得的单季最大亏损纪录,此前其单季最大亏损出现在2021年第三季度,亏损金额为99.9亿元(调整后为55.27亿元)。亏损并非毫无征兆。早在第二季度电话会议上,美团CFO陈少晖就已提前预警,预计三季度核心本地商业会出现较大亏损,旨在确保价格竞争力与配送服务优势。当晚电话会上,美团CEO王兴表示,公司认为外卖业务的亏损在2025年三季度已经见底,但第四季度仍面临较大亏损可能性。在国内激烈竞争之外,美团国际外卖品牌Keeta在香港实现盈利,成为当季财报中的一大亮点。时代财经注意到,近期的机构研报正在形成一种普遍共识:即时零售竞争格局已从早期的“闪电战”转变为“持久战”,且短期内看不到终局。中信证券10月末发布研报指出,从竞争走向看,半年维度预估各平台的投入重心或逐渐从外卖向即时零售倾斜。平台对生态价值的追求或已高于单纯的财务回报。就四季度走向来看,此前阿里巴巴(BABA.NYSE;09988.HK)管理层在财报电话会上表示,淘宝闪购整体投入预计将收缩;京东(JD.NASDAQ;09618.HK)管理层强调,公司在竞争中保持了“相对理性”的态度,第三季度外卖业务的整体投入已环比收窄;王兴则表示,10月和11月,行业补贴水平相比夏季高峰期有所下降,特别是在“双11”大促之后,美团将根据市场动态相应调整策略。 “亏损在三季度已经见底”核心本地商业板块的利润塌陷是造成美团整体亏损的主因。财报数据显示,第三季度,美团核心本地商业分部(包含餐饮外卖、餐饮到店、闪购、酒旅等)营收674.47亿元,同比减少2.8%,上个季度该分部收入同比正增长7.7%。同时,经营利润率从去年同期的21.0%骤降至负20.9%,经营利润由去年同期的溢利146亿元转为亏损141亿元。美团在财报中将此归因于毛利润下降,以及为应对激烈竞争、提升用户粘性而大幅增加的交易用户激励和营销开支。今年二季度以来的外卖大战让美团、阿里、京东三家巨头均投入了巨额补贴。但对于美团而言,这是一场不想打,但不得不接的防御战。自外卖大战以来,美团多次公开表达坚决反对“内卷式”竞争。王兴在当晚财报电话会上再次表示:“外卖价格战是低质低价的‘内卷式’竞争,我们坚决反对。半年来的市场结果已经充分证明:外卖价格战没有为行业创造价值,不可持续。”在2025年的外卖大战中,外界普遍认为,对于京东和阿里两家电商巨头而言,切入外卖赛道的意图或许不止于业务本身,而是通过高频的外卖场景来激活和巩固电商主站用户,是一种生态打法。从这个角度看,巨额补贴或成了“曲线救国”的获客成本。但对于以外卖为基石的美团来说,这是一场不容有失的阵地战。为了应对竞争,美团拿出了真金白银。三季度,其销售成本由去年同期的568亿元增至703亿元,占收入的比重由60.7%增加至73.6%,这部分金额的增加主要由于即时配送交易笔数增加、骑手补贴提高、食杂零售业务及海外业务的扩张。其中,销售及营销开支从去年同期的180亿元增长至343亿元,主要由于业务发展以及为应对外卖行业的激烈竞争而不断调整的业务策略导致推广、广告及用户激励的开支增加。同时,也随着淘宝闪购补贴力度的增加,双方在订单量上的差距越来越小,美团选择守住高价值领域这一核心阵地。美团虽未透露当前整体市场份额情况,但王兴在当晚电话会上也向外公布了一组数据:目前美团在中高客单价订单份额上继续保持领先地位,在实付超过15元的订单中占据2/3以上的份额,实付超过30元以上的订单有70%以上的份额。“我认为高客单价领域是我们想要关注的更有价值的因素。”王兴强调。除此之外,美团另一笔较大开支流向了研发。三季度研发开支增长31.0%至69.37亿元。这笔钱主要投向了AI和员工薪酬。据了解,今年9月以来,美团在AI方面先后发布了LongCat-Flash系列多款开源模型,并推出“袋鼠参谋”“智能掌柜”等AI工具,帮助商家进行选址和运营等。同时,面向用户推出的智能生活助理“小美”App已进入规模化测试阶段,美团App内嵌的“问小团”也已上线。值得一提的是,当电商巨头试图用外卖做流量入口时,美团也在通过“闪电仓”等举措切入对方腹地。在财报电话会上,管理层提到了一个值得注意的新动作——建“品牌官旗闪电仓”。品牌官旗闪电仓不同于传统线下门店,不设顾客到店,仅接受美团闪购的线上订单,由骑手完成即时配送。目前主要覆盖3C、美妆、运动、母婴等高客单价、标准化程度高的品类。品牌直接以“官方旗舰店”的形式入驻美团闪购。虽然美团官方提出未来“品牌官旗闪电仓”将拓展至上万个品牌,但目前的动作依然处于早期验证阶段。Keeta香港业务提前实现盈利在主业深陷白热化竞争之时,美团的新业务成为财报中最大的亮点。三季度,美团新业务分部收入由去年同期的242.04亿元同比增长15.9%至280.41亿元。该分部业务包括美团优选、小象超市以及海外餐饮品牌Keeta等。尽管当期新业务板块整体仍亏损13亿元,但亏损率已收窄至4.6%。美团将新业务的亏损,归因于海外扩张。管理层明确表示,预计明年新业务板块的亏损不会比2025年更大。值得一提的是,王兴在电话会上宣布,“Keeta香港业务在今年10月已经盈利。”依托成熟的运营经验和技术实力,Keeta香港业务单季度UE(单位经济模型)指标环比实现显著增长,仅用29个月时间就提前实现了此前的“三年内盈利”目标。2023年5月,美团在香港首次推出了外卖品牌Keeta。以此为基点,两年多以来,美团Keeta加速全球版图的扩张:已陆续进入科威特、卡塔尔、阿联酋等中东市场,并于今年10月正式在巴西启动运营,在圣保罗州的桑托斯和圣维森特上线。预计今年年底前,Keeta将进入巴西最大的城市圣保罗。美团方面认为,中东是食品配送领域最具吸引力的市场之一,而巴西餐饮外卖市场规模位居全球前五,且目前交易方式较为分散,存在巨大的线上化潜力。除了Keeta外,新业务中的“食杂零售”也是美团长期战略之一。“美团优选在第二季度末进行了必要的针对性缩减。而对于小象超市,我们进一步的扩张,进展非常不错。”王兴指出。此前,美团明确了小象超市的扩张路线图,计划逐步覆盖全国所有一、二线城市,并延长了北上广深门店的营业时间。除了小象超市外,美团还在尝试其他线下业态。据王兴透露,在2026至2028年,美团将继续探索包括“快乐猴”等在内的多种线下零售形式。作为美团推出的自营硬折扣超市,“快乐猴”今年8月份在杭州开出首店,之后两个月陆续开设了4家新店。对美团而言,未来若能将Keeta的成功经验在海外规模化复制,让新业务从“探索期”迈向“成长期”,或将成为构筑其新增长引擎的核心关键。 -
交大校友打造闭环控制,用AI大模型赋能智能化国产精密制造 作者丨卜松编辑丨刘恒涛图源丨纳眸智能在传统的制造业工业产线,采用“预设工艺参数-批量生产-事后抽检”的模式。在这种模式下,一旦出现偏差,无法进行及时调整,造成了材料和人力浪费。这是传统工业制造的一大痛点。不久前,来自上海的纳眸智能,推出了全球首个基于OCT的视觉语言动作模型(OCT-VLA),从感知硬件和AI算法两个层面,弥补了制造业无法进行实时感知检测并自主决策、自主制造的空白。为精密制造打造最精密的“眼”和“脑”,首次实现了在精密制造过程中的全自主“自动驾驶”。成立仅一年多,公司便凭借其全栈式、软硬一体的解决方案,迅速获得市场认可。纳眸智能专注于工业制造精细化升级,凭借硬核技术实力和清晰商业价值,公司在今年7月获得了浦东创投及奇绩创坛联合投资的近千万元天使轮投资,并已开始为多家行业头部企业提供解决方案。2025年9月25日,在2025(第十九届)DEMO CHINA大会上,纳眸智能被评为“创新之星”。01瞄准工业“黑箱”,聚焦高精度生产纳眸智能创始人、CEO孟彬拥有上海交通大学与武汉理工大学的教育背景。硕士毕业后,他没有和身边同学一样选择进入互联网或金融行业,而是扎进了医疗器械行业,从事该领域的智能化研发。 精密手术器械的精度要求往往是工业领域难以想象的。比如,做一台眼底手术,视网膜总共只有100微米厚,要将其中坏掉的一层取下来,对人手来说几乎是不可能完成的任务。“这种要求,是超出了人手极限的,人手的振幅是一百多微米,但是我们要求的精度在5微米,0.005毫米,所以人根本没办法操作。”孟彬说。出于对“人手极限”的深刻理解,他意识到,要实现超高精度操作,必须依靠智能化的器械。做精密医疗仪器研发的那几年,为了了解市场竞品和相关技术路线,孟彬花了不少时间在外看项目,因此,他对工业精密制造的“痛点”有着较为深刻的洞察。“我们现在的生产方式,是在生产前做预规划,规划好路径,然后按照规划生产,生产后送到检测中心检测是否良品,是良品就入库,不是良品就淘汰。”孟彬说,当前的激光精密制造,普遍采用的是一种“离线生产”模式,这种模式就像“盲人摸象”,生产过程完全是一个“黑箱”。一旦工艺确定,生产线就像一列“地铁”,只能按照固定的轨迹、时间运行,无法实时介入和调整。激光精密制造,目前在新能源电池、半导体、航空航天等领域已经广泛应用,这种“离线”模式,导致良品率低、成本高昂、工艺优化缓慢。孟彬觉得这背后有市场机会,于2024年8月成立了纳眸智能,落地上海张江。团队的核心成员来自上海交大,对光学智能技术有着长年累月的研发攻关经历。纳眸智能要做的,就是将微米级空间感知技术与视觉语言动作模型(VLA)深度融合,构建新一代工业机器人空间智能感知系统,使工业机器人首次具备微观且层析的环境感知能力,为精密制造的实时闭环控制奠定感知基石。02自研VLA模型,向低良品率开战传统的工业视觉公司,更多是做“静态检测”,即生产后的“探伤”。而纳眸智能作为新一代工业视觉厂商,提供的是一套软硬一体的“全栈式”方案,在生产过程中可以做到“实时检测、实时调整”,实现了从“离线”到“在线”的本质飞跃。实现上述飞跃,核心在于为工业机器人打造了一套“看得清、跟得上、控得了”的实时闭环。孟彬将这套系统拆解为两个关键部分:“眼”和“脑”。要实现实时控制,首先要让设备“看得清”。针对精密制造的产品缺陷和瑕疵,传统的工业视觉方案,很多是利用主动投影技术的结构光,或模仿人眼,通过双目视觉,用两台位置不同的相机拍摄同步图像,在精度和速度上都无法满足精密制造的要求。而且,一些加工场景下,还会有视觉干扰。例如新能源锂离子电池的极耳焊接(用于将电芯的正负极极耳与外部电路或电池模组连接,确保电流稳定传输),在焊接过程中,会产生大量的等离子、白光等干扰,导致图像失真,视觉方案失效。纳眸智能将光学相干断层扫描与传感技术集成到视觉模组中。空间分辨率达到微米级,比传统视觉高出几个量级。“通过我们的视觉方案,一个视觉模组实现了微米级每秒10万次到40万次的扫描速度,让‘眼睛’能看得清瑕疵,检测能力跟得上速度。”孟彬说,这套模组通过与客户的激光设备共光路耦合,能够有效规避强激光的干扰,抓取到最清晰的空间视觉图像。孟彬表示,模组的大小“跟照相机差不多”,它能同时做到大幅度的摆位动作控制,并具备微米级检测能力。有了高精度的“眼睛”,还需要一个能实时决策的“大脑”。纳眸智能的“大脑”,就是OCT-VLA模型,这是一个精密制造领域的具身智能垂直大模型,其工作逻辑,与自动驾驶中的VLA(视觉-语言-动作)模型一脉相承。它接收“眼睛”捕捉到的产品缺陷实时图像数据之后,进行分析,然后输出调整指令,对加工设备进行实时调整。这种“随时发现问题,随时实时解决”的能力,彻底改变了传统“经验驱动”的生产模式。纳眸智能的方案让工业产线设备有了“眼睛”,实现了实时监测、实时调整的“自动作业”过程。此外,这套系统在生产过程中收集到的实时数据,还能反哺工艺优化,形成数据智能驱动的良性循环。这种能力重新定义了精密制造智能自动化范式,在激光精密制造、专业3D打印等领域的制造过程中实现了完整打通“感知-认知-执行”的自主化链路,为精密制造赋予真正的智能生产能力。03 8000万的“规模化门坎”与无人化蓝图据孟彬介绍,纳眸智能的产品已实现标准化生产,并在客户产线落地。 商业模式上,纳眸采取的是硬件模组销售与软件服务相结合的方式。在多数涉及精密制造的工厂产线,一套拥有激光摄像头和内置软件的视觉模组,成本大约在10万到20万人民币之间。这个价格对于客户来说,是一笔不小的投入,但孟彬并不担心客户的接受度。孟彬解释说,从工厂收入规模角度看,投入后可通过合理的成本分摊降低每年支出,几年内便能收回投入。“同时,工厂在良品率、自动化程度、人工成本、整体工艺等方面实现全方位提升,进而增加收益。”在市场开拓方面,纳眸智能正在与几家新能源、航空航天领域的头部企业进行深度对接和测试。孟彬坦言,工业领域的测试周期较长,一般需要三到六个月,但一旦获得头部企业的背书,上游的供应链厂商便会主动快速跟进,适配生产标准,测试周期可能大幅缩短。孟彬测算,纳眸智能所聚焦的中国市场规模大约在五六百亿人民币,全球市场规模则超过500亿美元。对于公司的未来,孟彬为纳眸智能设定的中期目标,是到2028年,年收入达到8000万。在上一家公司,看过很多项目,孟彬发现,8000万是一个初创企业能否上规模的分水岭,很多公司会卡在这个阶段,原因在于管理半径和团队能力的复制。“现在市场上能够带团队做到一个亿规模以上的leader非常稀缺,到了8000万这个阶段,你可能很难找到帮助业绩更上一层的VP和中层。”孟彬说,技术突破只是第一步,要跨越8000万的坎,还需要建立起一套能够支撑规模化复制的体系和人才梯队。孟彬表示,纳眸智能将聚焦在新能源电池、半导体、航空航天等精密制造细分赛道,进一步完善工业精密制造的“眼”(视觉模块)与 “脑”(垂类大模型)系统。“最终愿景是推动精密工业制造实现实时监测、自主调整的智能化、无人化生产,乃至黑灯工厂的大规模应用。”本文为创业邦原创,未经授权不得转载,否则创业邦将保留向其追究法律责任的权利。如需转载或有任何疑问,请联系editor@cyzone.cn。 -
美团王兴:外卖价格战没有为行业创造价值 第三季度白热化的外卖价格战直接导致美团利润转负。11月28日,美团发布2025年第三季度业绩报告。财报显示,美团实现营收955亿元,同比增长2%;经调整后的净亏损达到160亿元,去年同期盈利128亿元左右。其中包含了外卖业务板块的核心本地商业部分的经营利润同比大幅下降,并转为亏损141亿元。不过,过去12个月的交易用户数突破8亿大关。美团在财报中提到,转亏很大原因是外卖行业竞争持续加剧。美团CEO王兴在财报后的电话会上表示,半年来的市场结果已经充分证明,外卖价格战没有为行业创造价值,不可持续。 图为美团外卖员送单(资料图)外卖价格战导致营销支出大涨近91%三季度,美团核心本地商业板块实现营收674亿元,同比减少2.8%。美团坦言,为应对外卖行业非理性竞争,核心本地商业持续加大针对餐饮行业的直接补贴力度。受此影响,核心本地商业经营利润转负,亏损141亿元,经营亏损率达到20.9%。这部分的亏损原因财报也进行了详细解释:核心本地商业的交易笔数及交易金额持续稳健增长,而佣金及在线营销服务收入的增长在本季度因竞争加剧而放缓。尽管即时配送交易笔数录得稳健增长,但为应对激烈竞争并转化新用户及提升用户黏性,于配送服务收入中扣除的补贴大幅增加,使得配送服务收入同比小幅下降。财报数据显示,配送服务收入在三季度同比下降了17.1%。上述提到的原因也体现在了这季度的销售成本上。销售成本由2024年第三季度的568亿元增长23.7%至2025年同期的703亿元,占收入百分比由60.7%同比增加12.9个百分点至73.6%。金额的增加主要由于即时配送交易笔数增加、骑手补贴提高、食杂零售业务及海外业务的扩张。销售成本占收入百分比增加主要由于为确保在激烈的竞争中提供稳定的即时配送服务而提高骑手补贴,以及与海外业务有关的成本增加,部分被食杂零售业务的运营效率改善所抵消。受外卖补贴大战影响更为显著的则是销售及营销开支的大幅增长,侵蚀了毛利和经营利润。财报显示,销售及营销开支由2024年第三季度的180亿元增加90.9%至2025年同期的343亿元,占收入百分比由19.2%同比增加16.7个百分点至35.9%。金额及占收入百分比的增加主要由于业务发展以及为应对外卖行业的激烈竞争而不断调整的业务策略导致推广、广告及用户激励的开支增加。王兴:价格战没有为行业创造价值,不可持续对于外卖大战对三季度业绩的影响,美团CEO王兴在财报后的电话会上表示:“我们重申过去两个季度阐明的立场,外卖价格战是低质低价的’内卷式’竞争,我们坚决反对。半年来的市场结果已经充分证明:外卖价格战没有为行业创造价值,不可持续。”他强调,美团将继续在“骑手权益保障”“中小商户帮扶”上加大投入,促进行业长期健康发展。王兴相信当前非理性的外卖行业竞争只是暂时性的,“美团会始终专注于做正确的事,服务好消费者、商家和骑手。我们有信心捍卫即时零售的市场地位,创造真正的长期价值”。另外,王兴提到,近期美团餐饮外卖订单市占率稳步回升。美团继续保持在中高价订单市场GTV的领先地位,美团在实付超过15元的订单有2/3以上的份额,实付超过30元以上的订单有70%以上的份额。平台上核心用户的留存持续保持高位,用户消费频次及黏性均稳步提升。 Keeta继8月在卡塔尔推出后,在9月又陆续进入科威特和阿联酋市场美团新业务板块在这季度表现比较亮眼,实现营收280亿元,同比增长15.9%,亏损环比收窄至13亿元,但同比经营亏损增加了24.5%,整体上经营亏损率环比改善2.5个百分点至4.6%。这部分业务中,海外业务的发展迅速。财报显示,在香港和沙特阿拉伯,其规模和市场份额稳步增长,运营效率显著提升。Keeta继8月在卡塔尔推出后,在9月又陆续进入科威特和阿联酋市场,完善了Keeta在中东核心地区的布局。在10月下旬,Keeta在巴西启动了试点运营。“Keeta香港业务在今年10月已经盈利。”王兴在财报会上表示,本季度Keeta继续巩固在香港的领先地位。采写:南都N视频记者 徐冰倩 -
DeepSeek上线"奥数金牌"模型!填平硅谷护城河 作者 | 辰辰 出品 | 网易科技 专挑节假日搞大新闻”的DeepSeek又出手了。 就在大洋彼岸的工程师们准备切火鸡庆祝节日时,DeepSeek保持了极客传统,悄然上线了DeepSeekMath-V2。 开源权重、IMO金牌水平、超越GPT-5。 这套熟悉的“三连击”,再次巩固了DeepSeek作为“开源灯塔”的地位。 在算力受限的背景下,DeepSeek 再次证明了自己:不需要庞大的 GPU 集群,也能用算法奇迹在最硬核的数学赛道上,教闭源巨头们“做人”。 它“不搞虚的”,直接拿数学竞赛界的“终极试金石”,包括2025国际数学奥林匹克(IMO 2025) 和 普特南数学竞赛(Putnam) 的真题开练。在严苛的基准测试中,它交出了一份与 GPT-5和 Gemini 2.5 Pro 平起平坐,甚至更胜一筹的完美答卷。 1. 战绩彪悍:AI “碾压”人类学霸 DeepSeekMath-V2到底有多强?数据不会说谎。 —— IMO 2025金牌得主,比肩谷歌 OpenAI。 在 IMO 2025的基准测试中,DeepSeekMath-V2成功解出6道题中的5道,达到“金牌”水准。这一成绩直接对标谷歌 DeepMind 和 OpenAI 此前引以为傲的闭源模型。 要知道,在此之前,这种级别的推理能力是硅谷巨头们严防死守的商业机密。 —— 普特南竞赛:118分 VS 人类最高分90分。 威廉·罗威尔·普特南数学竞赛(Putnam)可以说是北美本科生的“噩梦”,以难度极高著称,中位数得分甚至接近于0。DeepSeek 团队透露,DeepSeekMath-V2在2024年的普特南考题测试中,12道题做对了11道,最后一道也仅有微小瑕疵,最终得分118分(满分120)。相比之下,人类选手的最高分只有90分左右。这说明 AI 不仅仅是在“背题”,而是具备了超越顶尖人类选手的逻辑解题能力。 此外,DeepSeekMath-V2在代数、几何等5大数学领域全面超越 GPT-5和 Gemini 2.5 Pro。 2. 揭秘:为什么它能这么聪明? 数学推理一直是 AI 的软肋,因为大模型很容易“一本正经地胡说八道”(幻觉问题)。DeepSeek 是如何解决这个问题的? 答案是“元验证”(Meta-Verification)技术。 传统的 AI 训练是“给糖吃”:答案对了就奖励。但在高等数学证明中,答案对不代表过程对。AI 很容易瞎编一个过程然后蒙对答案。 但 DeepSeek 引入了一套“左右互搏”机制: 其中生成器就像一个学生,负责写解题步骤。验证器则是老师,负责检查逻辑漏洞,不仅仅看答案,还要看推导过程是否严谨。 更绝的是,他们还训练了一个“二阶验证器”,用来监督“老师”批改得对不对,防止模型为了拿分而钻空子。 这种递归式的验证结构,逼着模型必须学会真正的逻辑推理,而不是投机取巧。 而在推理阶段,模型不是张口就来。它会针对一个问题生成64个候选证明路径,然后用验证器逐一打分,挑出逻辑最严密的那一个。 这种“三思而后行”的模式,正是通往通用人工智能(AGI)的关键一步。 此外,DeepSeekMath-V2还打造了数字闭环生态,用验证反馈直接优化生成质量,用自主产生的高难度训练样本推动系统迭代。 3. 最大的杀手锏:它是开源的! 这才是让技术界沸腾的真正原因。 以往,无论是 OpenAI 还是谷歌都选择闭源。你想用顶级的数学推理能力?只能付费调用 API,不仅数据要传到云端,使用更受限于人。 但 DeepSeek 直接掀了桌子:模型权重公开下载,Apache 2.0协议。 Hugging Face 的 CEO 克莱门特·德朗格(Clément Delangue)为此激动地发推表示: “据我所知,没有任何聊天机器人或 API 能给你提供 IMO 金牌级别的模型。但今天变了,你可以在 Hugging Face 上直接下载 DeepSeek Math-V2的权重。” 这意味着,高校研究人员、企业开发者都可以在本地部署这个“数学天才”。所有人都可以体验在本地运行“奥数金牌” AI 的快感,无需担心数据隐私,也不用看硅谷大厂的脸色。 一夜之间,曾经被视为核心竞争力的“推理护城河”,变成了人人可用的基础设施。 一经上线,全球各路技术播客和达人纷纷上手试用。 技术博主、英国程序大佬西蒙·威利森(Simon Willison)快速对 DeepSeek Math-V2的发布做了技术层面解读,强调这是一个开放权重模型。他还特意提到,OpenAI和谷歌的同等模型有将近700G,相比之下DeepSeek Math-V2要小得多。 BinaryVerse 发布的播客也称 DeepSeekMath-V2在某些数学推理基准上超越了已有闭源大模型,但同时也提到,模型“对常识问答或通用场景并非全面领先”。 Hacker News 等社区也纷纷对模型指标和能力发表个人看法。不少人惊讶模型的强大能力,但也有人质疑大量推理算力带来的优异指标是否可迁移到常规使用场景。许多评论强调“惊艳但令人不安”的速度,讨论模型在更广义推理与安全性方面的意义。 4. 逆风翻盘:算力受限下的极致优化 DeepSeek 的这次突围,背景其实略带悲壮。 由于芯片供应问题,DeepSeek 在算力硬件上并不占优,旗舰模型 R2甚至因硬件兼容性问题而被迫推迟。 但在这种极限施压下,DeepSeekMath-V2证明了一件事:算法的创新可以弥补算力的不足。 它没有单纯依赖暴力堆砌英伟达的 GPU 集群,而是通过“冷启动”训练——让 AI 自己生成训练数据,自己训练自己,还用自动化标注系统摆脱了对昂贵人工标注数据的依赖。 5. 结语 DeepSeekMath-V2的发布证实:在通往 AGI 的道路上,开源模型并没有掉队,甚至正在反超。 当硅谷还在试图用“安全”为由将顶级模型锁在黑盒子里时,来自中国企业的 DeepSeek 选择大度把钥匙交给了全世界。 对于所有 AI 从业者来说,这是一个最好的时代。 -
深圳市“AI+劳动仲裁”智能辅助办案系统上线 11月27日,“全案由覆盖、全流程赋能、全方位支撑”的劳动争议仲裁智能辅助办案系统在深圳市劳动人事争议仲裁院正式上线。据有关负责人介绍,系统启用后,整体办案周期明显缩短,且仲裁立案审查准确度、调解方案合规度、法律适用精准度也有望得到提升,为缓解仲裁机构“案多人少”矛盾、有效提升办案质效提供新路径。据介绍,该系统采用“知识图谱打底、思维链驱动”的算法实现路径,通过整合十余年深圳市仲裁要素式办案改革经验与仲裁标准化建设成果,构筑覆盖111个劳动争议类型的仲裁全景知识图谱,同时以仲裁办案逻辑为脉络,搭建涉及12类核心业务规则的仲裁思维链路体系,为AI应用提供逻辑内核,防范“AI幻觉”。该系统将AI能力深度融入立案、调解、庭审、裁决等环节。 -
AI下乡,重伤老头老太太 一场针对四五线城市老年人的“AI围猎”正在上演。文|黑佳慧 编|张霞文章来源|AI故事计划(ID:AIstory1) AI骗子,盯上有退休金的老人直播进入尾声,讲师突然宣布:“只收16名学员,拼手速抢名额!”屏幕上闪烁的倒计时越来越快,63岁的宋言玉几乎能听到秒针的声响。宋言玉住在黑龙江省绥化市,曾是啤酒厂的下岗职工,两年前开始领退休金,每月3500元。绥化市位于松嫩平原中南部,作为五线小城,这里以农业为主,年轻人纷纷南下务工,留下大量空巢老人。宋言玉的女儿和女婿在西安经营食堂,一年到头只有春节才能回家。平日里,他和老伴除了接送外孙上下学,最大的消遣就是刷手机。短视频平台和浏览器成了他了解外界的唯一窗口。七月的一天,一条“AI变现”的推送广告闯入他的视线——“5分钟生成爆款文章”“70岁老人也能学会”。广告称只需输入几个关键词,AI就能自动生成流量文章和视频,每月轻松赚上万元。宋言玉点击链接后,被引导加入一个名为“AI创富”的微信群。群里每天都有导师免费授课,讲解如何用AI生成文章、视频等内容,并承诺可轻松在短视频平台变现。讲师们不断展示学员收益截图,还安排“成功学员”现身讲述“月入两万”“财务自由”的故事。“零门槛”“包教包赚”的话术让宋言玉心动不已。当直播屏幕上不断显示“仅剩两个名额”的倒计时,他犹豫了几秒后,咬牙转出了“门槛费”2677元。缴费后,他被移出微信群,加入钉钉的新课堂,进行一对一的更高级课程培训。导师发来一份密密麻麻的合同,催促他尽快签署。宋言玉没细看就签了字。不久,对方告诉他:“门槛费只是入场券。要赚钱,还得上流量扶持包——价越高,流量越大。”套餐从8800元到3万元不等。 图 | 该机构推出的多种运营方案 宋言玉最终又转出了8800元。在导师指导下,他注册了一个网店,正式开始“AI创业”。前后两天,宋言玉共花去了11477元,是他3个月的退休金。然而,导师曾承诺的“5倍流量、3倍收益”并未兑现,网店始终无人访问,也没有一笔成交。在江西武宁县,59岁的李兰娟陷入了另一场“AI陷阱”——AI财商课。李兰娟曾做过生意,是家族中公认的精明女性。近两年,她开始为一位名叫周文强的“财商教育专家”不断充值。周文强自称出身贫寒,凭借“财商思维”逆袭成亿万富翁,课程内容涵盖“AI掘金”“资产配置”和“认知升级”,听上去振聋发聩。由于线下生意不景气,李兰娟决定将希望寄托于周文强的线上课程。她不仅每天观看直播、刷AI口播视频,还专门去广东线下学习直播和视频剪辑。 图 | 群聊里的AI变现直播间 在听了多位“成功学员”的现身说法后,她对“AI理财是国家趋势”坚信不疑。于是,先是投入27万元购买入会资格,又投入150万元成为“高层”会员,享受全国旅游福利。然而,超过一百万的资金砸进所谓的“AI智能矩阵项目”后,并未带来任何财富裂变。李兰娟的家人在整理课程资料时发现,所谓的“导师”和“企业家”的发言,竟全是AI合成的。她曾为之心动的“认知跃迁”和“AI自由”,不过是一场精心包装的认知收割。李艳的母亲陈芳被骗得更离谱。这个春节,李艳突然发现母亲变了。母亲开始不停刷手机,眼神有些呆滞,脸上时常挂着笑,然而每当有人打扰她看视频,她就发脾气,甚至连最疼爱的孙子也顾不上了。检查母亲的手机后,李艳发现母亲正在刷一些AI合成视频。视频中,口型对不上、表情僵硬的“知心姐姐”和“西装大哥”,反复告诉她:“您的视频火到了国外,翻译成七种语言,已经有人愿意给您一百万!”李艳母亲逐渐沉迷这些视频。到了7月,骗子终于通过“全球网红”的话术打动了她。视频中的“知心姐姐”告诉她:“国家要给您两百多万,但被别人领走了。如果您支付‘服务费’,就能追回这笔钱。”母亲信以为真,瞒着家人偷偷跑去银行转账15000元“服务费”。转账后,骗子音讯全无。 专攻下沉市场在宋言玉被骗的微信群里,大多数人和他一样来自经济欠发达地区——焦作、开封、岳阳、邢台、江门、延边、通化……这些四五线城市,是AI骗局的“主战场”。诈骗团伙清楚,他们不是在传授技术,而是收割信息差。宋言玉后来才知道,那场名为“AI创富训练营”的直播并不在绥化本地。主播使用的是AI合成头像,声音由智能语音系统驱动。后台显示观看者有几千人,但其实只有几十个是真实用户,其余全是机器人刷流量。类似的“AI创富故事”,正在基层城市蔓延。在四川攀枝花市,55岁的陈蓉被一个“AI获客总裁班”骗走了四万多元。对方声称,教会她使用AI生成短视频素材,只需“复制粘贴”,就能帮店铺引流。她卖的是自家种的芒果。课程开始后,导师让她先“升级会员”,再购买“AI模板包”,一步步榨干她的积蓄。“我学了两个月,连一个有用的视频没做出来。”陈蓉说。导师们口中的“AI系统”,其实只是一个普通剪辑软件,甚至需要手动导入字幕。更让她崩溃的是,她被拉进了一个“大师群”,每天都有人发“学习心得”:“感谢AI改变命运”“感谢老师带我赚到第一桶金”。她后来才知道,这些人全是“托儿”。“他们看起来太真了,就像我们身边的人”,陈蓉说。骗局的目标越来越精准。这些团伙将AI话术与社交推荐算法结合,精准投放到短视频平台、微信群、甚至“银发学习”社区。他们熟悉老年人的心理——对技术好奇且恐惧落伍,把骗局包装成一种“学习AI、跟上时代”的机会。他们让老人相信自己不是在花钱,而是在“投资知识”。在广州江门,一家名为“未来智教”的公司,主打“AI赋能再就业”。广告打得极有煽动性:“让退休的人重新被社会需要!”报名者大多是50岁以上的女性,她们缴纳培训费后,却发现所谓的AI课程只是简单的“文案复写”与“语音配音”。下沉市场,是信息不平等的缩影。一方面,大城市的人讨论AI创业、AI教育、AI医疗;另一方面,五线城市的老人们在短视频上听着“AI财商课”,交着“变现培训费”,在这些地区的网络普及率虽高,但防骗教育薄弱。在下沉的世界里,AI不是科技革命,而是新的“情绪收割机”。陈蓉曾真心相信那句广告词——“不懂AI的人,将被时代淘汰。”“我怕自己被淘汰。”于是她努力学习、反复练习、一次次掏钱。每一次付款,她都觉得自己离“新世界”更近了一步。结果,只是走进了另一个陷阱。被骗后的维权,异常艰难。宋言玉拿着合同去派出所,对方说“流程合法,属于民事纠纷”;李兰娟找工商局,对方说“公司有营业执照”;陈蓉找客服,对方早已注销公司账户。“他们知道我们不会维权,”宋言玉说,“就算报警,也得跑几十公里去市里,哪有那个精力。”多数老人最后的选择,是沉默。 孤独的人,更容易相信手机“奶奶,您有福气呀,小孙子祝您福如东海。”视频里的小男孩笑得天真。76岁的黄丽娟笑着回了一句“哎呀,乖孙子”,那一刻,她的眼神亮了。这是一个AI生成的视频。春节前,徐红的母亲黄丽娟在短视频平台刷到一个类似“数字乖孙”的账号。视频里,有位穿校服的小男孩对着镜头喊她“奶奶”,声音稚嫩、语气温柔,视频下写着:“AI萌娃叫奶奶。” 黄丽娟点开私信,对方热情地回应:“奶奶,我想天天陪您聊天。”几天后,对方发来求助信息:需要299元交学费以及购买书本,一定会“好好学习每天早晚问候报答奶奶”。黄丽娟犹豫了几天,最终还是付了钱。第二天,“孙子”发来一段视频,说要送她一份新年礼物,只需再缴“快递保险费”。她又转了1500元。转账完成后,对方的账号立刻注销。徐红发现时,母亲已经哭了一下午。“她不仅心疼钱,还伤心感情被骗”,徐红说。子女忙于工作,疏于沟通,让老人在孤独中更容易轻信“关怀”。骗子用AI克隆声音、伪造视频,扮成孙子、老师、医生、银行客服——只要模仿出那种“熟悉的温柔”,往往就能精准击中老人的情感防线。在广东打工的许文博,也曾在深夜接到“母亲”的视频电话。画面、语气、口音都一模一样。对方说自己急需住院费,他没多想,立刻转了十几万元。第二天早上,他拨通母亲的电话,才发现那只是AI伪造的。“连我都被骗,老人怎么防得住?”他苦笑着说。这类骗局正在快速蔓延。公安部数据显示,2025年第一季度,全国AI换脸诈骗案环比增长45%,老年人受骗比例高达38%。一些造假团伙甚至使用AI伪造专家、名人形象。去年底,冒充张文宏直播带货的账号单场销售额突破30万元。在年初,多起伪造张伯礼院士带货的案例中,一个“院士数字人”模板在黑市上的售价高达5万元。尽管2024年9月实施的《人工智能生成合成内容标识办法》已明确要求所有AI生成内容必须“亮明身份”,但在执行中仍困难重重——许多老人根本不知道如何查看这些标识。孤独,也让他们更容易依赖并相信手机屏幕。中国老龄协会数据显示,超过1.2亿老年人独居或仅与配偶同住。北师大2024年的一项调研发现,65岁以上用户平均每天观看短视频143分钟,是年轻群体的2.3倍。而算法推荐机制,又将这些渴望交流的老人困在信息茧房中——只要刷过一个AI类诈骗视频,系统就会源源不断地推荐更多类似内容。除了金钱损失,更深层的伤害在于心理层面。许多老人被骗后,不仅损失钱,更失去了“自我价值”的信心。李兰娟被骗后觉得丢人,叮嘱家里人“谁都不许再提”。李艳的母亲被骗后变得沉默。她要求女儿删除微信和视频号,将手机设置成“青少年模式”和每日50元消费额度。那台手机成了一座孤岛,她重新回到了“离线的世界”。在互联网的版图里,老人正成为被遗忘的群体。年轻人谈AI创业、AI画画、AI写小说;老人却仍在相信“AI可以延寿”“AI可以治病”。技术改变了世界,也放大了孤独。在信息洪流中,老人们成了最孤独的“在线者”——他们在短视频里寻找陪伴,在AI语音里寻找安慰。“他们不怕被骗钱,怕的是被世界遗忘。”李艳说。或许真正的困境,不只是被骗,还有——太久没有人陪他们聊天了。*应受访者要求,人物信息有适度模糊 媒介合作联系微信号|ciweimeijiejun -
标普将Tether资产质量评估下调至最低等级 标普将Tether资产质量评估下调至最低等级“弱”,指出支撑其稳定币的高风险资产(包括公司债、贵金属、比特币和有担保贷款)占比已从一年前的17%显著上升至9月底的24%。标普警告称,Tether在储备管理和风险偏好方面透明度有限,缺乏稳健的监管框架,也没有资产隔离机制来保护投资者免受发行人破产影响。此外,Tether未披露其托管机构、银行账户提供者及交易对手方等信息。标普分析师指出,比特币或其他高风险资产价格下跌可能削弱抵押覆盖率,导致USDT抵押不足。Tether强烈反对报告中的描述,并强调其稳定币在银行危机、交易所倒闭和极端市场波动中始终保持完全韧性。公司声称自2021年起发布实时数据和季度独立核查,透明度标准已超过许多受监管金融机构。 -
谷歌隐忍三年“杀红了眼”,爆锤英伟达OpenAI 作者 | 小小 出品 | 网易科技 当一艘航母全速冲刺,所有的快艇都得让路! 没错,说的就是那个三年前被ChatGPT“偷家”,被无数人唱衰“掉队了”的谷歌! 曾经,它是被按在地上摩擦的“过气霸主”,被嘲笑动作迟缓、架构臃肿。当时,连谷歌自家的工程师和前CEO都不得不“含泪”承认:在开发AI这场高风险的竞赛中,谷歌“落后了,真的落后了!” 但如今,它用实力证明:在绝对的算力和生态面前,先发优势可能只是暂时的。 自10月中旬以来,谷歌母公司Alphabet的股价如火箭般蹿升,狂涨近1万亿美元! 手握Gemini 3和TPU两张王牌,它不仅让OpenAI感到了寒意,甚至开始动摇英伟达的根基。 全球知名科技市场研究机构Counterpoint Research分析师兼联合创始人尼尔·沙阿(Neil Shah)惊呼:“这是一个沉睡的巨人,现在完全苏醒了!” AI赛道的下半场,那个最可怕的“全栈玩家”,终于满血复活了! 1. Gemini 3:谷歌的“翻身仗”之魂! 谷歌这次能“翻身”,最大的功臣莫过于其最新多用途AI模型——Gemini 3。 Gemini 3一经发布,立刻就因为其超强的推理能力、顶级的编程天赋,以及在那些曾经让AI聊天机器人“挠头”的小众任务上的惊艳表现,迅速获得了业界的“五星好评”!以前那些困扰AI的难题,比如生成带有错误拼写叠加文字的图像,Gemini 3都能“轻松拿捏”。 这可不是简单的“版本升级”,而是谷歌在AI模型领域打出的一场“漂亮翻身仗”!它缓解了人们曾经对谷歌“掉队”的担忧,也让那些认为AI模型扩展定律正在放缓的“悲观论者”们,瞬间“闭嘴”! 甚至连OpenAI的创始成员之一安德烈·卡帕西(Andrej Karpathy)都忍不住“点赞”,称Gemini 3“显然是第一梯队的大语言模型”! 2. 芯片实力大爆发:正面硬刚英伟达,Meta都来“抱大腿”?! 除了Gemini 3这个“王炸”模型,谷歌的另一个“杀手锏”就是它在AI芯片领域的硬实力! 谷歌花了十多年时间,默默耕耘,自研张量处理单元(TPU)。这些芯片原本是为了加速搜索结果而设计的,后来被巧妙地调整,来处理复杂的AI任务。最开始,谷歌是自己TPU的“唯一客户”。 但现在,情况不一样了!市场对谷歌TPU的需求正在“加速上升”,成为英伟达“一家独大”之外,为数不多的可行替代方案之一。 据报道,Meta正计划于2027年开始在自家数据中心使用谷歌的芯片!Meta来“抱大腿”可不是小事,它直接把谷歌母公司Alphabet的股价“顶上天”,周二一度上涨3.22%,市值飙升,直奔4万亿美元大关! 反观芯片巨头英伟达,股价周二一度下跌5.51%,市值蒸发2430亿美元!甚至OpenAI的最大支持者软银集团,也因为担心来自Gemini的竞争,股价跌至两个月低点。 这可不是“零和游戏”,谷歌的芯片实力已经让“芯片霸主”英伟达感受到了前所未有的压力! 有分析师直言:“许多其他公司在自研芯片的探索中都失败了,但谷歌显然可以在这里为其能力增添新的一项。” 3. “全栈”优势:谷歌的“护城河”深不见底! 为什么谷歌能实现这样的“奇迹逆转”? 答案很简单:它拥有OpenAI所没有的“超级资源”和“全栈优势”! · 首先,海量现成数据: 谷歌拥有源源不断的数据宝库,来自搜索索引、Android手机和YouTube,简直取之不尽、用之不竭,可以直接用于训练和改进AI模型! · 其次,源源不断的利润: 特别是它的“摇钱树”——搜索广告业务,第三季度收入跃升15%,这让谷歌在AI研发上有了“撒币”的底气。 最关键的是,谷歌是业内少数几家能提供所谓“全栈”计算能力的公司。 什么叫“全栈”? · 芯片(TPU): 是整个体系的算力基石。它针对谷歌自身的AI框架(如TensorFlow)和模型需求进行优化,提供了比通用GPU更高的效率和更低的成本。 · 云平台: 是承载和调度一切的基础设施。它将以TPU为主的算力资源化,以服务的形式提供给内部团队和外部客户。 · 软件模型(Gemini): 是核心能力的体现。模型的能力直接决定了上层应用能做什么、做得多好。 · AI应用(Nano Banana): 是价值出口和用户界面。它直接面向用户,收集反馈和数据,同时也是将技术转化为商业价值的终端。 这意味着,理论上谷歌对AI产品的技术方向拥有更多控制权,并且不像OpenAI那样必须向各种供应商“交租金”。 谷歌和Alphabet的首席执行官桑达尔·皮查伊(Sundar Pichai)表示:“我们采取了全面、深入、全栈的AI方法,而这确实正在显现成效。” 4. 浴火重生:战略调整与反垄断惊险过关 这次的成功并非偶然,背后是谷歌“壮士断腕”般的战略调整。 2023年初,谷歌将其AI工作整合到旗下伦敦AI实验室DeepMind的负责人戴密斯·哈萨比斯(Demis Hassabis)麾下。虽然这次重组初期也“踩过坑”,最引人注目的是一款图像生成产品的灾难性发布,差点“翻车”。 但DeepMind在哈萨比斯的带领下,几乎完全专注于与OpenAI、微软及其他公司“正面硬刚”的基础模型研究。要知道,哈萨比斯可是著名的计算机科学家,他帮助谷歌留住了关键的AI工程师,即使竞争对手开出“数百万美元”的价码也挖不走! 此外,谷歌在反垄断案中也“险中求胜”。曾一度,谷歌面临业务分拆的风险,这可能切断其利润丰厚的搜索广告飞轮。但最终,谷歌避免了最严重的后果,部分原因正是人们意识到了来自AI新贵的威胁。这让谷歌得以“轻装上阵”,继续全力冲刺AI赛道。 就连Alphabet的无人驾驶汽车部门Waymo,也正进入几个新城市,并在其出租车服务中增加了高速公路驾驶功能,这都是谷歌巨大研究和投资实现的成就。这说明,谷歌的“核心业务多元化”也在稳步推进。 5. 未来展望:AI的星辰大海,谷歌要“C位出道”? 所以,关于谷歌“已死”的报道,可以说是“大错特错”! Counterpoint Research的分析师兼联合创始人尼尔·沙阿(Neil Shah)一语中的:“谷歌无疑一直就是这场AI竞赛中的黑马。它是一个沉睡的巨人,现在完全苏醒了!” 连沃伦·巴菲特(Warren E. Buffett)都在第三季度斥资43亿美元建仓Alphabet。此前,巴菲特以“不碰科技股”闻名,这表明他对谷歌这家搜索巨头“信心爆棚”! 谷歌用Gemini 3、TPU、强大的全栈能力,以及浴火重生的战略,向全世界证明了它的实力!它不仅仅是回到了赛场,更是带着“满腔热血”和“王牌底牌”,要在这个“AI的星辰大海”中,“C位出道”! 这场AI大戏,才刚刚拉开序幕!未来谁主沉浮,我们将拭目以待! -
MIT研究发现:人工智能已经可以取代美国11.7%的劳动力 麻省理工学院(MIT)周三发布的一项研究显示,人工智能已经能够替代美国劳动力市场的11.7%,这相当于金融、医疗保健及专业服务领域最多1.2万亿美元的工资规模。这项研究使用了一种名为“冰山指数(Iceberg Index)”的劳动力模拟工具,由MIT与橡树岭国家实验室(Oak Ridge National Laboratory, ORNL)共同开发。ORNL是位于田纳西州东部的能源部研究机构,那里坐落着用于大规模建模的Frontier超级计算机。冰山指数可模拟全美1.51亿名劳动者之间的互动方式,并评估他们会如何受到人工智能以及相关政策的影响。今年早些时候发布的冰山指数提供了一个前瞻视角,展示人工智能将如何重塑美国劳动力市场——不仅在沿海科技中心,而是覆盖全美每一个州。对于正在筹划数十亿美元再培训与技能提升投资的美国立法者而言,冰山指数提供了一张详细的地图,指出哪些地区正出现潜在的结构性冲击,细致程度甚至精确到邮政编码(ZIP code)。研究共同负责人、ORNL所长Prasanna Balaprakash表示: 本质上,我们正在为美国劳动力市场创建一个数字孪生系统。这个指数可以运行人口层面的实验,在就业变化真正发生之前,就揭示AI将如何重塑任务、技能与劳动力流动。 Balaprakash作为田纳西州人工智能咨询委员会成员,也与州长团队和州AI总监分享了州级结果。 他表示,田纳西州的医疗、核能、制造业与交通运输等核心行业仍高度依赖体力工作,因此相对不易受到纯数字化自动化的冲击。关键问题在于,如何利用机器人和AI助手等新技术增强这些行业,而不是削弱它们。 冰山指数将1.51亿劳动者视作独立个体代理,每个人都带有自己的技能、任务、职业与地理信息。它将32000多项技能映射到923种职业、3000个县,然后评估现有AI系统能够执行哪些技能。研究人员发现,外界可见的“冰山一角”——例如科技、计算与IT行业的裁员与岗位转变,仅占总工资暴露的2.2%(约2110亿美元)。真正隐藏在水面下的,是总额高达1.2万亿美元的工资暴露,其中包含人力资源、物流、金融及办公室行政等日常性职能,这些领域常常被传统自动化预测所忽略。研究人员强调,冰山指数并不是一个预测具体“何时、何地会失业”的工具,而是旨在呈现一个“基于技能的快照”,展示当今的AI系统已经能够胜任哪些技能,从而帮助政策制定者在投入资金和立法之前,有结构地探索各种“假设场景(what-if scenarios)”。研究团队与美国州政府合作,提前进行模拟。田纳西州、北卡罗来纳州和犹他州使用其州级劳动力数据验证模型,并开始基于该平台制定政策情境。田纳西州率先行动,在本月发布的官方《AI劳动力行动计划》中引用冰山指数。犹他州准备发布一份类似的、基于冰山建模的报告。与MIT密切合作的北卡罗来纳州参议员DeAndrea Salvador表示,吸引她的是该研究能揭示传统工具无法捕捉的影响。最有价值的功能之一是能够深入到地区层面的数据: 你可以看到县级甚至普查区块的具体数据,了解当前有哪些技能在发生,然后将这些技能与其可能被自动化或增强的概率进行匹配,并评估其对当地GDP以及就业变化的影响。这类模拟在各州纷纷成立AI专责小组及研究小组的背景下尤为重要。 冰山指数还挑战了一个普遍假设——即AI风险将主要集中在沿海科技中心的技术岗位。模拟显示,被AI暴露的职业遍布全美50州,包括那些常常被排除在AI讨论之外的内陆与农村地区。为弥补这一缺口,冰山团队打造了一个互动模拟环境,让各州可以尝试不同政策杠杆——从调整劳动力预算、优化培训项目,到探索技术采纳变化会如何影响当地就业与GDP。报告指出:“冰山计划帮助政策制定者与商业领袖识别风险热点,优先规划培训与基础设施投资,并在投入数十亿美元实施前对干预措施进行测试。”目前,团队将冰山指数定位为一个“沙盒”(sandbox),供各州提前为AI对劳动力的影响做好准备。目的就是让大家能够开始动手,尝试不同的情境方案。 -
黄仁勋内部讲话泄露:有人居然要求少用AI 你们疯了吗 黄仁勋讲话画面财联社11月26日讯(编辑 卞纯)AI芯片龙头英伟达的首席执行官黄仁勋希望员工尽可能地使用人工智能(AI),他坚持认为,员工无需担心在此过程中丢掉工作。上周四(英伟达发布炸裂财报的次日),黄仁勋召开了一场全员大会,并回应了 “部分管理者要求员工减少使用AI”的问题。 根据一段泄露的录音,黄仁勋在上周的全员大会上表示:“据我所知,英伟达有些管理者居然指示员工少用AI,你们是疯了吗?”黄仁勋表示,他强烈反对这一做法。 “我希望所有能通过AI自动化完成的任务,都用AI来自动化处理,”黄仁勋表示,“我向大家保证,你们依然会有工作可做。”英伟达并不孤单,多家科技巨头已经采取措施,推动员工在日常工作中更多地融入AI。据报道,微软和Met都计划基于员工对AI的使用情况对其进行考核,而谷歌要求工程师使用AI进行编程。亚马逊则在员工提出需求后,正洽谈采用AI编程助手Cursor。黄仁勋还透露,英伟达的软件工程师也在使用Cursor。他补充道,如果AI暂时无法胜任某项具体任务,“那就坚持使用它直到它能胜任为止”,“主动参与进来帮助优化它,因为我们有这个能力”。尽管在AI崛起的背景下,“失业焦虑” 一直不断加剧,但黄仁勋安抚员工称无需担忧。他表示,其它科技公司纷纷裁员之际,英伟达上季度仍招聘了 “数千人”——他调侃称,这甚至让公司停车场都变得紧张,并补充称,招聘仍在加速推进。 “坦白说,我认为我们可能还缺大约1万人,”黄仁勋表示。英伟达的员工规模已大幅扩张:从2024财年末的2.96万人增至2025财年末的3.6万人。与此同时,英伟达在全球的办事处也在增多。在黄仁勋发出上述言论之际,“AI泡沫”担忧一直笼罩着英伟达,尽管上周该公司公布了超预期的财报,仍未能平息担忧。上月底,英伟达市值曾一度突破5万亿美元,但近期明显回落,英伟达最新市值为4.32万亿美元,仍是世界上最有价值的公司。 -
人形机器人也能上保?首个“具身智能”综合金融解决方案出炉 智能机器人也可以“上保险”了?近日,在深圳举办的“具身智能综合金融高质量发展交流会”上,平安产险推出了首个“具身智能”综合金融解决方案。实际上,具身智能正是未来产业竞争的关键制高点之一,目前正从实验室走向生活场景,即将迎来全面爆发阶段。南都湾财社记者注意到,该解决方案围绕具身智能机器人在研发、生产、运营等环节面临的多元金融需求,融合保险、信贷、IPO等金融支持,可以覆盖全生命周期或全场景使用过程,未来或为中国具身智能产业的加速落地提供保障。 中国具身智能市场占全球约四分之一2025年,人工智能在全球范围内正深度融入实体经济,加快重塑全球制造业格局。作为人工智能的重要方向之一,“具身智能”首次被写入我国政府工作报告,而智能机器人作为“具身智能”的核心载体,已从春晚舞台、运动赛场延伸至企业生产一线、生活场景,走入大众生活的方方面面。根据行业研究报告,机器人正从“传统工业机器人”向“自主移动机器人(AMR)”升级,应用边界从工厂车间一路拓展至医疗、物流、服务、家庭等多元场景。行业数据显示,2025年,中国具身智能市场规模预计达52.95亿元,占全球约27%,市场将迎来全面爆发阶段。但是,作为融合AI、机械控制、数据安全等领域的“物理智能体”,具身智能的风险呈现多维度特征。 那么,以保险保障为典型的具身智能综合金融解决方案,究竟有何看点?平安产险团体事业群总监石得称,该方案不只是金融产品的简单组合,而是构建涵盖风险保障、信贷支持、上市融资、租赁运营等一整套金融支撑体系。具体有何表现?相关人士阐释,该方案针对机器人研发、生产及运营全流程,聚焦热失控、电气、机械、网络及相关责任风险等提供相应解决方案,并定制化整合研发费用损失、产品责任、人工智能系统责任、电化学性能衰减等具身智能全场景综合保障方案,为具身机器人提供多维度、全周期的保障服务。在资金支持方面,为企业提供资金支持、产能扩张、资本运作等系统化支持。保险保障方面,与车险类似,南都湾财社记者梳理其保障清单看到,相关险种颇为丰富,包括雇主责任险、产品责任险、货运险(含电池)、产品质量险、产品三者险等。在“产品责任险”中,保障范围包括“因产品发生意外事故,导致产品在被使用过程中,造成用户单位的人身伤亡”等。而“产品三者险”则可以保障因产品原因导致的第三者损失。当天,多家具身智能企业也举行签约仪式,在具身智能专属保障、资金支持、风险管理等领域展开深入合作。记者注意到,这也是目前国内财产保险业界推出的首个“具身智能”综合金融解决方案。 “保险+科技”加速融合创新 实际上,业界共同探索金融支持具身智能产业发展新路径背后,正是“保险+科技”的融合创新加速。记者注意到,“十五五”规划建议明确提出要前瞻布局未来产业,推动量子科技、具身智能等成为新的经济增长点。目前深圳以“人工智能”为抓手,积极实施创新驱动发展战略,打造现代化产业体系,以新质生产力引领经济高质量发展。平安产险也发布《深圳特色科创企业评估研究报告》及“中小科技企业价值评估模型”,在科技保险助力科技企业成果转化方面跨出了具有创新引领意义的一步,实现服务与需求的精准匹配。同时,平安产险创新搭建低空经济企业综合服务体系,基于“平安低空经济护航者”综合保障服务方案,在深圳推出了全国首单低空领域政府救助保险、深圳无人机第三者责任保险等多种科技保险,助力低空经济建设。按照平安产险披露的数据,截至2025年9月末,承保科技保险保单198万件,提供超7.6万亿元风险保障,覆盖航空航天、新材料、高新技术、新能源、先进制造等重点领域。采写:南都湾财社记者 卢亮 -
Ilya罕见发声:大模型「大力出奇迹」到头了 Jay 发自 凹非寺量子位 | 公众号 QbitAI AI正从「规模时代」,重新走向「科研时代」。 这是Ilya大神在最新采访中发表的观点。这一次,Ilya一顿输出近2万字,信息量爆炸,几乎把当下最热门的AI话题都聊了个遍:AI为什么总在泛化上输给人类?如何保证安全与对齐?预训练范式有什么问题?Ilya认为,目前主流的「预训练 + Scaling」路线已经明显遇到瓶颈。与其盲目上大规模,不如把注意力放回到「研究范式本身」的重构上。不少网友也认同这个判断。 然而,对于已经喊了好几年「LLM已死」的LeCun来说,这一幕未免有些令人无语。甚至在X上转发梗图,大概意思是: 咋我说的时候没人当回事儿呢? 以下附上访谈全文,在不改变原意的前提下,对语言做了适当润色。 访谈全文 Ilya Sutskever你知道最疯狂的是什么吗?是这一切都是真的。Dwarkesh Patel你指的是什么?Ilya Sutskever你不这么觉得吗?所有这些AI的事儿,整个湾区现在发生的一切——这不就像科幻小说里的情节变成现实了吗?Dwarkesh Patel另一个疯狂的点在于,「慢起飞」在体感上有多正常。按理说,人类拿出1%的GDP投到AI上,这听起来本该是件惊天动地的大事,但现在真实感受上就是……还好。Ilya Sutskever事实证明,我们适应新东西的速度其实挺快的。而且现在这一切还是有点抽象。那意味着什么呢?就只是你在新闻里看到:某家公司宣布又投了多少多少美元。你能感受到的就到此为止了,暂时不会以别的方式真正「砸到你身上」。Dwarkesh Patel要不我们就从这儿开始聊?我觉得这个话题挺有意思。我觉得你刚才那个观点——从普通人的视角看,就算到了奇点,生活也「没那么不一样」——大概率会一直成立。Ilya Sutskever不,我不这么觉得。我刚才说「感觉不出太大区别」,指的是那种:「好吧,某家公司又宣布了一个巨大得难以想象的投资数字。」这种东西大家其实无从感受,它只是个数字,普通人不知道该怎么处理这种信息。但我认为AI的影响是会被真正「感受到」的。AI会渗透进整个经济体系里,会有非常强的经济动力去推动这一点,我觉得它带来的冲击会非常明显。Dwarkesh Patel你觉得这种冲击会在什么时候到来?现在的情况就是:模型看起来比它们在经济上体现出的影响「聪明得多」。Ilya Sutskever对,这正是当下这些模型最让人困惑的地方之一。你如何去调和这样一个事实:一方面它们在各种评测上表现得非常好——你看看这些评测就会说,「这些题挺难的啊」,模型却做得很好;另一方面,经济上的实际影响却明显落后很多。很难理解:一个模型怎么可能在某些方面做出这么惊人的事情,同时在另一些场景里又会干出像「连犯两次同样的错误」这种事?举个例子:假设你用所谓的vibecoding干点事情,跑去某个地方写了段代码,然后遇到一个bug。你跟模型说:「帮我修一下这个bug。」模型说:「天哪你说得太对了,是有个bug,我这就给你修。」然后它给你引入了第二个bug。接着你又说:「你现在多了一个新的bug。」它又说:「天哪我怎么会这么干,你又说对了。」然后把第一个bug再次引回来。你们俩就这样反复在这两个bug之间来回切换。怎么会这样?我也不确定。但这确实暗示着这里面有点奇怪的东西。我有两种可能的解释。比较「异想天开」的那个解释是:也许RL训练让模型变得过于单一目标、过于「直线型」,在某些方面反而缺乏觉察力——尽管在其他方面它又更有觉察力。正因为这种过度单向专注,反而会让它在一些很基础的事情上做不好。但还有另一种解释:在大家还只做预训练的时候,「该用什么数据」这个问题其实已经被回答了——答案就是「全部的数据」。做预训练你就是要所有数据,用得越多越好,所以你不必去纠结「要这一份数据还是那一份数据」。可当人们开始做RL训练时,就不得不思考这个问题了。大家会说:「我们想要针对这个能力做这样一种RL训练,针对另一个能力做那样一种RL训练。」据我所知,各家公司都有专门的团队不停地产出新的RL环境,然后把它们加进训练混合里。问题是:这些环境到底是什么?这里有巨大的自由度——你可以设计出千奇百怪的RL环境。其中一种做法,我觉得在现实中是「无意间发生」的,就是:大家会从eval中汲取灵感。「我希望我们家模型上线时,评测成绩好看。那我们应该设计什么样的RL训练,才能让它在这项任务上的表现变好?」我认为这种事情确实在发生,它可以解释目前很多现象。如果你再把这点和「模型的泛化实际上还不够好」结合起来,就很有可能解释我们看到的大部分情况:也就是——为什么评测表现与真实世界表现之间有这么大的落差。而这个「落差到底是什么意思」,其实是我们到今天都还没想清楚的。Dwarkesh Patel我很喜欢这个说法:真正的「奖励黑客」不是模型,而是那些过度关注eval的人类研究者。你刚才提到的这个问题,我觉得可以从两种角度去理解。一种角度是:如果事实证明,「在编程竞赛上达到超人水平」并不会自动让一个模型在实际代码库中更有品味、更会做判断,那答案也许就是:你应该扩展环境的集合,不要只测试它在竞赛题里能不能拿最高分,还应该测试:它能不能为X场景做出最好的应用?能不能为Y场景、Z场景写出真正好用的东西?另一种角度是:「为什么一开始我们要假设:在编程竞赛上变成超人,就一定能在更广泛的意义上变成一个更有品味的程序员?」也就是说,或许正确的策略不是不停往上叠不同的环境,而是想出一种方法:能让模型从一个环境中学习到的东西迁移到另一个任务里,从而真正提升「广义能力」。Ilya Sutskever我有个类比,也许对理解这个问题有帮助。既然你刚才提到竞赛编程,那我们就拿它来举例。假设现在有两个学生。学生A决定要成为最强的竞赛程序员,于是花了一万小时专门练这一个领域。他把所有题都刷了,背熟了所有证明技巧,非常擅长快速、正确地实现各种算法,最后果然成了顶尖选手。学生B的想法是:「竞赛编程挺有意思的。」他也练了,但只练了大概100小时,远远少于前者,但成绩依然不错。你觉得这两个人中,谁未来职业发展会更好?Dwarkesh Patel是第二个。Ilya Sutskever对。我觉得现在模型的状况,基本就像学生A——甚至更极端。因为我们会说:「好,我们要让模型在竞赛编程上表现出色,那就把所有竞赛题都喂进去。」然后还要做数据增强,造出更多变体题,再用这些海量的竞赛题来训练。结果就是,你得到了一名非常优秀的「竞赛程序员型模型」。在这个类比下,很多事就更直观了。当你在这个细分领域训练得这么极致所有算法、所有证明技巧都随手可得,你就更容易理解:为什么这样的训练未必能很好地泛化到其他任务上。Dwarkesh Patel那在人类世界里,第二个学生在那100小时「微调训练」之前,究竟在做什么,类比到模型上又是什么?Ilya Sutskever我觉得那就是所谓的「it」——那个「那股劲儿」。我本科的时候就认识过这样的人,所以我知道这种存在是现实的。Dwarkesh Patel我觉得有趣的一点在于,要区分这个「it」和「预训练到底做了什么」。理解你刚才关于预训练数据选择的一个方式是:其实它跟「一万小时练习」并没有那么不同,只是你可以把那一万小时「免费打包」到预训练里,因为这些内容本身就存在于预训练的数据分布中。但也许你在暗示的是:预训练其实并没有带来我们想象中的那么多泛化,它只是依赖了海量的数据量,但这种泛化未必比RL更强。Ilya Sutskever预训练最大的优势在于两点:第一,数据量极其庞大;第二,你不用特别纠结「选哪些数据」,因为要做的就是——全要。这些数据非常「自然」,里面包含了各种各样人类的活动:人们的想法、经验,以及大量关于世界的特征。可以说,它是「人类把世界投射到文本上的那一层」。预训练的目标就是:用巨量数据去捕捉这层投射。预训练之所以难以被彻底理解,是因为我们很难弄清楚:模型究竟是以什么方式在利用这堆预训练数据。每当模型犯错时,你都会想:「是不是因为碰巧某个东西,在预训练数据里支持得不够?」这里的「被预训练数据支持」,其实是个很松散的说法,我也不太确定能不能把它解释得更好。我不认为人类世界里存在一个真正对应「预训练」的类比。情绪和价值Dwarkesh Patel以下是一些人们提出的关于人类「前期训练」的类比。我很想听听你们的看法,为什么这些类比可能存在问题。一种类比是思考一个人生命的前18年、15年或13年,这段时间他们未必具有经济生产力,但他们所做的事情让他们更好地理解世界等等。另一种类比是将进化想象成一场持续30亿年的探索,最终形成了人类的一生。我很好奇你是否认为这两者类似于预先训练。如果不是预先训练,你会如何看待人类终身学习?Ilya Sutskever我认为这两者与预训练有一些相似之处,预训练试图同时扮演这两者的角色。但我认为它们之间也存在一些很大的差异。预训练数据的数量非常非常庞大。Ilya Sutskever不知何故,即使人类拥有预训练数据的一小部分,经过15年的训练,他们所掌握的知识仍然远不及AI。但无论他们掌握了什么,他们的理解都更加深刻。到了那个年纪,你都不会犯AI会犯的错误。还有一点。你可能会问,这会不会跟进化有关?答案是也许吧。但就这件事而言,我认为进化论可能更有优势。我记得读过相关的案例。神经科学家了解大脑的一种方法是研究大脑不同区域受损的人。有些人会出现你想象不到的奇怪症状。这真的很有意思。我想到一个相关的案例。我读到过一个人,他脑部受损,可能是中风或意外事故,导致他丧失了情感处理能力。所以他不再能感受到任何情绪。他仍然能言善辩,也能解一些简单的谜题,考试成绩也一切正常。但他感觉不到任何情绪。他不会感到悲伤,不会感到愤怒,也不会感到兴奋。不知何故,他变得极其不擅长做任何决定。他甚至要花几个小时才能决定穿哪双袜子。他在财务方面也会做出非常糟糕的决定。这说明我们与生俱来的情感在使我们成为合格的行动主体方面扮演着怎样的角色?说到你提到的预训练,如果你能充分发挥预训练的优势,或许也能达到同样的效果。但这似乎……嗯,预训练是否真的能达到这种效果还很难说。Dwarkesh Patel「那」是什么?显然不仅仅是情绪。它似乎是一种类似价值函数的东西,告诉你任何决定的最终回报应该是什么。你认为这不会在某种程度上隐含在预训练中吗?Ilya Sutskever我觉得有可能。我只是说这并非百分之百确定。Dwarkesh Patel但那是什么?你如何看待情绪?机器学习中情绪的类比是什么?Ilya Sutskever它应该是一种价值函数之类的东西。但我认为目前还没有很合适的机器学习类比,因为价值函数在人们的实际行为中并没有扮演非常重要的角色。目前强化学习的训练方法很简单,人们是如何训练这些智能体的呢?首先,你需要一个神经网络,然后给它一个问题,并告诉模型「去解决这个问题」。模型可能需要成千上万次的动作、思考或其他操作,最终生成一个解决方案。然后,这个解决方案会被评分。然后,这个分数会被用来为你的轨迹中的每一个动作提供训练信号。这意味着,如果你正在执行一个持续时间很长的任务——如果你正在训练一个需要很长时间才能解决的任务——那么在你找到建议的解决方案之前,它根本不会进行任何学习。这就是强化学习的简单实现方式。这就是o1和R1的实现方式。价值函数表达的意思类似于:「我或许有时能告诉你你做得好还是不好。」价值函数的概念在某些领域比其他领域更有用。例如,当你下棋丢掉一个棋子时,我犯了错。你不需要下完整盘棋就能知道我刚才的走法不好,因此之前的任何走法也都不好。值函数允许你缩短等待时间,直到最后才做出决定。假设你正在进行某种数学运算或编程,并试图探索某个特定的解决方案或方向。经过大约一千步的思考后,你得出结论,这个方向没有希望。在你得出这个结论的那一刻,你就可以提前一千步收到奖励信号,也就是在你决定沿着这条路径前进的时候。也就是说,在你真正想出解决方案之前很久,你就已经告诉自己:「下次遇到类似情况,我不应该再走这条路了。」Dwarkesh Patel这是DeepSeekR1论文中提到的——轨迹空间如此之大,以至于可能很难从中间轨迹和值之间学习映射关系。此外,例如在编程中,你可能会有错误的想法,然后你会回头修改,然后再修改一些东西。Ilya Sutskever这听起来像是对深度学习缺乏信心。当然,它可能很难,但没有什么深度学习做不到的。我预期价值函数会很有用,而且我完全相信它们将来会被用到,即便现在还没有。我之前提到的那个情感中心受损的人,或许更确切地说,这表明人类的价值体系在某种程度上受到情感的调节,而这种调节方式是由进化预先设定的。也许这对于人们在社会上有效运作至关重要。Dwarkesh Patel这正是我要问你的问题。关于价值函数中的情感因素,确实有一点非常有趣,那就是它们既实用又相当容易理解,这一点令人印象深刻。Ilya Sutskever我同意,与我们所学习和讨论的事物,以及我们所讨论的AI相比,情感相对简单。它们甚至可能简单到可以用人类能够理解的方式将其描绘出来。我觉得这样做会很酷。但就实用性而言,我认为存在一种复杂性与稳健性之间的权衡:复杂的东西可能非常有用,但简单的东西在更广泛的情况下也同样有用。我们可以这样解读我们所看到的现象:这些情感主要源自我们的哺乳动物祖先,然后在我们进化成原始人类的过程中略作调整。我们确实拥有相当数量的社会情感,而哺乳动物可能缺乏这些情感。但这些情感并不十分复杂。正因为它们并不复杂,所以在这个与我们过去生活的世界截然不同的世界中,它们才能如此有效地帮助我们。实际上,它们也会犯错。例如,我们的情绪……嗯,其实我也不知道。饥饿算是一种情绪吗?这还有待商榷。但我认为,在这个食物丰富的世界里,我们凭直觉感受到的饥饿感并不能正确地引导我们。我们在扩展什么?Dwarkesh Patel人们一直在讨论数据扩展、参数扩展和计算扩展。那么,有没有更通用的扩展思路?还存在其他扩展维度吗?Ilya Sutskever我认为有一个可能正确的观点。过去的机器学习基本依赖于人们不断尝试各种方法,看看能否得到有趣的结果——这是早期的模式。后来,「规模化」这个洞察出现了。规模化法则、GPT-3……突然之间,所有人都意识到:我们应该去规模化。这其实是语言如何影响思维的例子。「规模化」只是一个词,却非常有力量,因为它直接告诉大家应该怎么做——「继续扩大」。于是问题来了:要扩大什么?预训练,恰恰是最需要规模化的东西。它是一种非常清晰的「配方」。预训练最大的突破,在于它证明了这套配方是可行的:只要你把一定量的数据和算力灌进一个规模足够大的神经网络,就会得到好的结果。你也自然会相信:继续放大,效果就会继续提升。这种方法的优势是,公司愿意为它投入资源——因为这是「低风险投入」。相比之下,把资源投入研究要困难得多。研究意味着:「研究人员请继续探索,争取有所突破」,而不是「再拿点数据、再加点算力」。但预训练几乎能保证一定的收益,这种确定性非常诱人。根据推特上某些讨论,Gemini似乎找到了让预训练更有效的方法。但预训练最终会遇到一个硬上限:数据有限。那之后怎么办?要么寻找新的「强化预训练」方式,要么探索强化学习,或其他完全不同的路径。当算力巨大到一定程度,我们又会重新回到「科研时代」。如果要划时代:2012—2020是研究时代;2020—2025是规模化时代。这几年大家几乎都在喊「继续扩大!再扩大!」。但当规模已经这么大时,你真的会相信再扩大100倍就能彻底改变一切吗?会有变化,但我不认为仅靠更大规模就能带来根本性的转折。我们正重新回到研究时代,只不过这一次,我们手里多的是巨型计算机。Dwarkesh Patel你刚才说到一个概念——「配方」。那我们究竟在扩展什么?这个配方到底意味着什么?在预训练里,数据、算力、参数量、损失函数之间并不存在一种像物理定律那样明确的关系。那我们到底应该追求什么?新的配方应该怎么构思?Ilya Sutskever我们已经看到了规模化路径的迁移:从预训练转向强化学习。如今大家正在扩展的是强化学习。从外界讨论看,近期RL消耗的计算量可能已经超过了预训练,因为RL天生「烧算力」——它需要极长的迭代过程,而每次迭代的学习增益又很小。结果就是,它极其耗算力。我甚至不愿意把它称为「扩展」。我更愿意问的是:「你的做法是最有效率的吗?你能不能找到更经济的方式去利用算力?」这就回到之前提到的价值函数。如果人们真的掌握价值函数,也许资源利用效率能提高很多。但当你提出一个全新的训练方法时,又会产生另一个问题:「这到底是扩展,还是在浪费算力?」这两者之间的界限正变得越来越模糊。从某种意义上说,我们正在回到从前那种科研模式:「试试这个,再试试那个……哦,那里有点意思。」我认为这种局面会再次出现。Dwarkesh Patel如果我们真的进入了新的研究时代,哪些部分是最值得重新审视的?你提到的价值函数现在被广泛应用,大家也把LLM引入为评判者。但这似乎仍只是在现有流程末端做加法。是不是应该重新思考预训练,而不仅仅是在其后叠更多步骤?Ilya Sutskever我认为关于价值函数的讨论非常有意思。我想强调的是,价值函数确实能让强化学习更高效,我相信这会带来显著的提升。但我同样认为,只要给足时间和算力,任何价值函数能做到的事情,不用价值函数也能做到——只是速度会慢很多。最根本的问题是:这些模型的泛化能力远远不如人类。这是显而易见的,而且我认为它是最核心、最棘手的问题所在。为什么人类比模型更擅长概括Dwarkesh Patel所以关键就在于泛化能力。这里其实包含两个子问题。第一个问题更偏向样本效率:为什么这些模型需要比人类多得多的数据才能学会一项能力?第二个问题是:即使不谈数据量,为什么让模型真正理解「我们想要它做什么」比让人类理解同一件事要困难得多?对人类来说,学习并不依赖明确的奖励信号。比如,你现在可能正在指导一群研究人员,你和他们交流、展示代码、解释思考方式,他们就能从中学会如何进行研究;你并不需要为他们设立一个个可验证的奖励环节,比如:「这是课程下一部分」「这一轮训练不太稳定」之类的人工流程。这两个问题或许是相关的,但我想分别讨论:第二个更像「持续学习」,第一个更像「样本效率」本身。Ilya Sutskever关于人类样本效率,最可能的解释之一就是进化。进化在视觉、听觉、运动等核心能力上,为我们提供了少量但极其有用的「先验」。例如,人类的灵巧度远超机器人。即便机器人在模拟环境中可以通过大量训练变得灵巧,但要让机器人在现实世界里像人一样快速掌握一项新技能,几乎不可能。你可能会说:「哦,对,移动能力是我们祖先在数百万年里都极度依赖的能力,所以我们拥有某些不可思议的进化先验。」视觉也类似。YannLeCun曾说,孩子练十个小时就能学会开车。确实如此——但那是因为孩子的视觉系统极其强大。我记得自己五岁时,对汽车非常着迷。我可以肯定,五岁时我对汽车的视觉认知已经足够支撑基本的驾驶操作了。但五岁孩子的信息摄取量其实非常有限,大部分时间都只在父母身边。 这说明视觉能力可能深深植根于进化,而非后天学习。但当我们谈到语言、数学、编程时,它们出现得太晚了,不太可能是进化带来的。Dwarkesh Patel但即使在这些「近期才出现的能力」上,人类似乎仍然比模型更强。模型虽然在语言、数学、编程上已经优于普通人类,但它们在学习能力上真的更好吗?Ilya Sutskever是的,当然如此。语言、数学、编程——尤其是数学和编程——表明,人类擅长学习的能力,可能并不是因为复杂的进化先验,而是某种更基础、更普遍的能力。设想某项能力,如果它对我们的祖先在数百万甚至上亿年里都十分重要,那么人类在这方面可靠而稳定的表现,很可能来自进化层面的先验知识——某种隐秘编码在我们神经系统里的东西。但如果人类在一些「近期才被发明的能力」上——如数学、编程——依旧表现出极强的学习能力和稳健性,那这就更像是人类天生就拥有一种「通用的机器学习能力」。换句话说:如果连不靠进化积累的领域,人类依然能快速学习,那真正的关键可能并不是先验知识,而是人类学习机制本身的效率。Dwarkesh Patel那我们该如何理解这种「学习能力」?它似乎具有一些很特别的特征,比如:它需要的样本量很少,更像无监督学习。青少年学开车,并不是通过预设奖励体系学习,而是通过与环境的互动。他们的样本量很低,却能快速掌握,而且学习过程也非常稳健。有没有机器学习的类比?Ilya Sutskever你刚才提到青少年司机如何在没有外部指导的情况下自我纠正、从经验中学习。我认为答案在于他们拥有自己的价值体系。人类有一种极其强大的普遍感知能力。无论价值体系是什么——除了少数被成瘾行为破坏的例外——它在绝大多数情况下都是非常稳固的。所以,对正在学车的青少年来说,他们一坐上驾驶座,立刻能感觉到自己驾驶得有多差、哪里不稳。他们立即拥有内在反馈,于是自然开始改进。再加上年轻人本身学习速度极快,十个小时之后,他们基本就能熟练驾驶了。Dwarkesh Patel我好奇的是,他们究竟是怎么做到的?为什么对我们来说这么自然,而对模型来说却如此困难?我们需要怎样重新构思模型训练方式,才能逼近这种能力?Ilya Sutskever这是个非常好的问题,我对此也有很多想法。但是,很遗憾,我们现在处在一个并非所有机器学习理念都能公开讨论的时代,而这正是那些无法轻易公开讨论的想法之一。我相信是有路径可以做到的。我认为这是可以实现的。而且,人类的这种直觉,本身就暗示了这种方法的可行性。当然,可能还存在另一个难点:人类神经元的计算能力,可能比我们以为的还要强很多。如果这是事实,而且对学习过程至关重要,那么我们要做的事情会更复杂。但无论如何,我相信这确实指向某种机器学习的根本原理。只是出于某些原因,我无法进一步详述。ASIDwarkesh Patel我很好奇。如果你认为我们已经重新进入「科研时代」,那么作为当初经历过2012–2020那段时期的人,你觉得现在的科研氛围会是什么样的?比如,即使在AlexNet之后,人们用于实验的计算量仍持续增长,前沿系统的规模也不断扩大。你认为如今的科研时代是否同样需要庞大的计算资源?需要重新翻阅旧论文吗?你曾在谷歌、OpenAI、斯坦福大学工作,那里都属于学术氛围最浓的地方。你觉得未来的研究社区会呈现什么景象?Ilya Sutskever规模化时代的一个结果,是规模本身挤压了创新空间。由于「扩大规模」被证明有效,所有人都去做同一件事,最后变成「公司数量远远超过创意数量」的局面。硅谷有句老话:「创意不值钱,执行力才重要。」这话有道理。但后来我在推特上看到一句反讽:「如果创意这么便宜,为什么没人有创意?」我觉得这同样准确。如果你从「瓶颈」的角度看科研,会发现有好几个瓶颈:一个是想法本身,另一个是把想法变成现实的能力,而后者往往依赖计算资源或工程能力。比如,上世纪90年代许多研究者其实有不错的想法,但受限于算力,他们只能做很小规模的演示,没法说服任何人。因此当时真正的瓶颈是计算资源。在规模化时代,算力暴涨,瓶颈就转移了。当然,我们仍然需要一些计算资源,但并不意味着科研一定要用到极限的规模。举个例子:AlexNet只用了两块GPU。Transformer刚出现时的实验规模,大多在8~64块GPU范围内。按今天的标准看,那甚至相当于几块GPU的规模ResNet也一样。没有哪篇论文靠庞大的集群才能完成。你可以说,如果要构建一个「最强系统」,更多算力一定有帮助——尤其在大家都遵循同一范式的情况下,算力自然会成为差异化因素之一。但科研本身,其实不需要无限制的大规模计算。Dwarkesh Patel我问这些,是因为你当时就在现场。当Transformer刚提出时,它并没有马上爆红。它成为入门工具,是因为后来在越来越大的算力上不断被验证,模型规模提升后效果也持续提升,大家才开始真正基于它进行实验和扩展。那假设SSI有50个不同方向的想法,在没有其他顶尖实验室那种巨大算力的情况下,你们怎么判断哪个是可能的「下一次变革」,哪个想法太脆弱?Ilya Sutskever这里我可以稍微解释一下。你提到了SSI——事实上,我们的研究算力比外界想象的要多。原因很简单:SSI虽然「只有」30亿美元,但你要注意,对大多数大公司来说,它们巨额的算力预算主要用于推理。这些钱、贷款、GPU资源,都必须用于产品推理服务。其次,如果你要打造面向市场的AI产品,就需要庞大的工程、销售团队,需要大量资源去做产品相关功能。真正能用于纯研究的资源,扣掉这些之后,其实并没有想象得那么高。反过来看SSI,我们的资金绝大部分用于研究,因此可用于实验的算力并不少。更重要的是:如果你在做「与众不同」的研究,真的需要极限规模来证明它吗?我不这么认为。对于我们要验证的方向,目前的算力完全足够让我们说服自己,也说服世界。Dwarkesh Patel公开估计显示,比如OpenAI这样的公司,仅在实验上的年度开销就有50–60亿美元,还不算推理服务的成本。他们每年在研究实验上的投入甚至比你们的总经费还高。Ilya Sutskever关键不在于「有多少算力」,而在于「如何使用算力」。他们的系统规模巨大,模态更多,工作流更多,因此算力需求自然庞大且分散。你要做一个能推理、能多模态、能产品化的系统,需要在非常多的环节投入计算资源。但这不代表研究一定需要那种规模。Dwarkesh Patel那SSI未来会如何盈利?Ilya Sutskever目前我们只专注于研究。商业化问题到时候自然会水到渠成,我认为会有很多可能的路径。Dwarkesh PatelSSI的计划仍然是直接研发超级智能吗?Ilya Sutskever 也许吧,这个方向确实有意义。避免卷入市场竞争是一件好事。但有两个原因可能促使我们改变策略:第一,实际时间表可能比预期更长; 第二,真正强大的AI造福世界的价值巨大,我认为这是非常重要的事。Dwarkesh Patel那为什么默认策略要「直接研发超级智能」?OpenAI、Anthropic等公司强调要逐步增强能力、让公众慢慢适应。为什么直接冲向超级智能反而可能更好?Ilya Sutskever正反两方面都有道理。正方观点是:参与市场竞争会迫使公司做出艰难权衡,可能偏离长期目标。完全专注于研发是极具优势的。反方观点是:让大众真正看到强大的AI,本身就是一种价值。你无法通过一篇论文或一套理念来「解释」AI的冲击力——只有亲眼看到它在做什么,人们才会真正理解。这就是为什么大规模部署AI会带来巨大社会收益。Dwarkesh Patel我同意,不仅是理念,更是让人真正「接触AI本身」。另一个原因在于:几乎所有工程领域都依靠「现实世界中的部署」不断提高安全性。比如:飞机的事故率随每一代机型不断下降;Linux漏洞越来越难找到;系统越来越稳健。因为它们被全球范围使用,问题被发现,然后被修补。我不确定AGI或超级智能为什么应该是个例外。尤其是——超级智能的风险远不止「回形针恶魔」那样的故事。它太强大了,我们甚至不知道人们会如何使用它,更不知道它会如何与人类互动。逐步普及似乎是让社会做好准备的更安全方式。Ilya Sutskever我认为,即使采取「直接实施」的路线,也必然是一个循序渐进的过程。任何计划都必须分阶段推进,关键是你最先推出的是什么。第二点,你比其他人更强调「持续学习」,我认为这非常重要。我想用一个例子来说明语言如何影响我们的思维。有两个词几乎定义了整个行业的认知:一个是「AGI」,另一个是「预训练」。先说AGI。这个词为什么会出现?它的目的并不是为了描述某种「最终形态」的智能,而是对「狭义AI」的一种反应。在AI的早期,大家谈论的是「跳棋AI」、「国际象棋AI」、「游戏AI」。它们确实很强,但人们会说:它们太狭窄了,没有通用能力。因此,「我们需要通用AI」这个概念逐渐流行起来。第二个词是「预训练」。尤其在今天的强化学习工作流下,「预训练」这个概念可能正在变得模糊。但它曾经非常重要:预训练越充分,模型在各方面的能力都会提升。换句话说,预训练促成了「通用AI」这一想法的流行。问题在于,这两个词——AGI和预训练——其实都带来了某种误导。如果你仔细思考,就会意识到:在人类身上不存在所谓的「通用AI」。人类确实在一些基本能力上很强,但真正的知识储备极其有限,而我们真正依赖的是「持续学习」。因此,当我们设想「创造出一种安全的超级智能」时,关键问题并不是它「已经掌握了多少技能」,而是:它在持续学习的曲线上处于哪个阶段?想象一个非常聪明、求知欲旺盛的15岁少年。他懂得不多,但学习能力极强,可以在不同领域持续扩展技能。如果你把这样一个系统部署出去,它也会经历学习和试错的过程。这不是一个「成品」,而是一段学习旅程。Dwarkesh Patel明白了。你说的「超级智能」并不是一种已经掌握所有技能、能胜任所有工作的成熟系统,而更像是一个能够学习完成所有工作的「可成长心智」。它和一些组织对AGI的定义不同,后者强调「能做任何人类可以做的工作」,而你强调的是「能够学会任何工作」。而只要有了这种学习能力,它就能像人类一样,被部署到世界各地,从事不同工作,并在工作中不断学习。接下来可能有两种情况——也可能都不会发生。第一种是:这种学习算法强到不可思议,它在研究方面甚至能超过你,随后不断提升自身能力。第二种是:即便没有出现这种递归增强,只要你有一个统一的大模型,它的不同实例在全球范围内执行不同任务,不断学习,再把彼此的学习成果整合起来——那么你最终也得到了一种「功能性超级智能」。它几乎能胜任经济体系里的所有工作,而且不同于人类,它可以完美共享知识。那么,你是否预期这种模型的广泛部署会引发某种形式的「智能爆炸」?Ilya Sutskever我认为我们很有可能看到经济的快速增长。关于广泛部署的AI,业内有两种相反的观点。一种认为:只要AI具备快速学习和执行任务的能力,而且数量足够多,经济体系就会强烈地推动它们被部署,除非监管阻止它发生——而监管很可能会出现。另一种观点认为,即便有监管,在足够大的规模部署下,经济都会在一段时间内进入高速增长。问题只是:增长能快到什么程度?这一点很难预测。世界足够大,系统复杂,各行业的运行速度不同,但AI的劳动效率极高,因此经济快速增长是完全可能的。我们可能会看到不同国家因监管尺度不同而出现增长差异。哪些国家更早允许部署,哪些国家的经济增长更快——很难提前判断。对齐Dwarkesh Patel在我看来,这是一个极其危险的局面。从理论上讲,它完全可能发生:如果一个系统既具备接近人类的学习能力,又能以人类无法做到的方式「融合多个大脑实例」,那它的潜力就会远超任何生命形式。人类可以学习,计算机能扩展,而这东西可以同时具备两者。这种智能的威力几乎难以想象。经济增长只是其中一种表现方式——如果它真的强大到能建造戴森球,那将带来巨大的增长。而在更现实的层面,如果SSI雇佣这样的智能体,它可能在短短六个月内达到净生产力。人类学习已经够快了,但它会进步得更快。所以关键问题是:怎样才能安全地让它发生?SSI又凭什么认为自己有能力做到这一点?我真正想问的是,你们对这种局面的计划是什么?Ilya Sutskever我的思维方式确实发生了一些变化,其中一个重要方面是,我现在更强调AI的逐步部署与提前规划。AI的困难之一在于:我们讨论的是尚不存在的系统,很难真正想象它会是什么样子。现实是,如今我们几乎无法在日常实践中真实“感受到”AGI 的存在。我们可以讨论它,但想象它的力量,就像让年轻人体会衰老的感觉一样——可以尝试,但最终发现根本无法真正理解。围绕 AGI 的很多争议,本质上都来自一种想象力的缺失。未来的AI将与现在截然不同,强大得多。AI和 AGI 的核心问题究竟是什么?就是力量。根本问题就在于它的力量。那么,当这种力量真正出现时会发生什么?过去一年里,我的想法有了变化——这种变化可能会影响我们公司的计划。我的结论是:如果难以想象,那就必须把它展示出来。 我认为,绝大多数从事AI研究的人也难以想象未来系统的形态,因为它与我们熟悉的东西相距甚远。我仍然坚持我的预测:随着AI变得越来越强大,人类的行为会随之改变。我们会看到许多前所未有的现象,而这些现象现在尚未发生。第一,我认为未来无论好坏,前沿公司与政府都会在其中扮演极为重要的角色。我们已经看到一些迹象:原本的竞争对手开始在 AI 安全上合作,例如 OpenAI 和 Anthropic 的一些动作。这在过去是不可想象的。我在三年前的演讲中就预测过这一幕。我相信,随着AI力量变得更明显,政府和公众也将强烈要求采取行动。这是一种关键力量:向世界展示AI的真实面貌。第二,随着AI不断提升,人们对它的理解也会发生转变。目前许多从业者之所以觉得AI还不够强,是因为模型仍会出错。但我认为,某个时刻我们会真正“感受到”它的力量。当这种感受出现时,所有 AI 公司的安全观念都会发生巨大转变,变得更为谨慎。这一点我非常确定。因为他们会亲眼看到AI能力的跃升。而今天的讨论之所以看不到这种谨慎,是因为人们只能看到当下的系统,而难以想象未来版本的样子。第三,从更宏观的角度来看,有一个问题是:企业究竟该构建什么? 长期以来,业界都执迷于“能自我改进的 AI”。这背后的理由是想法比公司少——换句话说,让 AI 自己想。但我认为,还有更重要、更值得构建的东西,而且未来每个人都会想要它。那就是:以关怀有感知生命为核心的AI。我认为,构建一个关心所有具备感知能力生命体的AI,比构建只关心“人类生命”的AI更容易。原因在于AI本身也将具备感知能力。想想镜像神经元,以及人类对动物的同理心——或许这种同理心不够强烈,但它确实存在。我们之所以能理解他者,是因为我们用模拟自身的回路来模拟对方,这样最有效。Dwarkesh Patel所以,即便你让AI关心有感知能力的生物——实际上,如果你解决了阵营问题,我并不确定这是否是你应该努力的方向——大多数有感知能力的生物仍然是AI。AI的数量将达到数万亿,最终甚至达到千万亿。人类在有感知能力的生物中所占的比例将非常小。因此,我不确定如果目标是让人类控制未来的文明,这是否是最佳标准。Ilya Sutskever没错,这可能并不是最佳标准。我想强调三点。第一,“关爱有感知能力的生命”依然非常重要,这一点应该被纳入考量。第二,如果能够提前整理出一份包含多种可选方案、可供公司在关键时刻参考的建议清单,将会十分有价值。第三,我认为,如果能以某种方式对最强大的超级智能体施加能力上的限制,会非常有益,因为这能解决许多潜在问题。至于如何实现,目前我还没有明确答案,但我相信,一旦讨论的是“真正强大”的系统,这种限制的重要性将变得更加突出。Dwarkesh Patel在我们继续讨论对齐问题之前,我想先深入探讨一下。顶层还有多少空间?你如何看待超级智能?你认为,如果运用学习效率的概念,它是不是只是学习新技能或新知识的速度极快?或者它只是拥有更庞大的策略库?是否存在一个位于中心、更强大或更庞大的单一「它」?如果是这样,你认为它相对于人类文明的其他部分会像神一样吗?还是仅仅感觉像是另一个主体,或者另一个主体群?Ilya Sutskever在这个领域,每个人的直觉都不同。我的直觉是:未来的 AI 将会极其强大。而且最有可能的情形不是某一个单体率先出现,而是多个同等级别的 AI 几乎同时被创造出来。如果计算集群大到相当于一个“大陆级规模”,那样的系统就会真正意义上变得极其强大。我只能说,当我们谈论的是真正强大的 AI 时,最好能限制它们的能力,或让它们在某种协议下运行,否则风险显而易见。究竟是什么让“超级智能”如此令人担忧?问题的核心在于:即便你让它做一件看似合理的事——例如全心全意关怀所有有感知生命——我们也可能并不会喜欢它最终采取的方式。这才是真正的症结。或许答案部分在于:你无法用通常意义上的方式构建强化学习智能体。几点原因: 人类本身也是“半强化学习智能体”:我们追求奖励,但情绪会让我们厌倦并转向新的奖励。 市场是一种短视的智能体。 进化也是如此:在某些方面极其聪明,在另一些方面却极其愚蠢。 政府被设计成三个部门持续制衡的结构,也会创造出复杂且难以预测的后果。 这些例子说明:我们熟悉的智能体类型,本身就带有结构性的限制与偏差。讨论变得困难,还有另一个原因:我们谈论的是尚未存在的系统,也不知道应当如何构建这样的系统。在我看来,当下所有研究都会持续推进、不断改进,但永远达不到“最终版本”。我们根本不知道该如何构建那种“最终版本的智能体”。 许多关键问题最终都指向一个核心:我们仍然不理解真正可靠的概括机制。再补充一点。 一致性难以实现的原因之一,可能在于: 我们学习“人类价值观”的能力本身非常脆弱, 我们优化这些价值观的能力也非常脆弱, 而我们恰恰是在学习如何“优化它们”的过程中逐渐形成的。 于是,这引出一个更深的问题: 难道这些不是“不可靠的概括”的例子吗? 为什么人类的概括能力似乎更强? 如果未来的系统拥有异常强大的概括能力,会怎样?其影响是什么? 这些问题,目前都无法回答。Dwarkesh Patel如何想象AI发展顺利的样子?你已经展望了AI可能的发展方向。我们将拥有这类持续学习的智能体。AI将非常强大。或许会出现许多不同的AI。你如何看待大量体量堪比大陆的计算智能体?这有多危险?我们如何降低这种危险?我们又该如何做到这一点,才能在可能存在失衡的AI和恶意行为者的情况下,维护一种平衡?Ilya Sutskever 这正是我强调「关爱有感知生命的AI」这一概念的原因之一。它是否绝对正确可以讨论,但如果最早出现的那批强大系统能真正关心、保护人类或其他有感知的生命,那么这点就必须实现。只要前N个系统做到这一点,我认为至少在相当长的时间里,局面会保持良性。那长期会发生什么?如何实现一种稳定均衡?这个问题其实有答案,尽管我本人并不喜欢,但它值得严肃考虑。从短期看,如果世界中存在强大的AI,几乎可以预见的是:全民收入提升,每个人都过得更好。但佛教有一句话:「唯一不变的是变化本身。」政治结构、政府形态、社会秩序都会不断变化,它们都有生命周期。新的结构出现,运行一段时间,又会在某个阶段失效,我们已经无数次看到这种循环。所以从长期来看,一种可能的模式是:每个人都拥有一个属于自己的AI,它替你赚钱、替你争取政治利益、替你处理社会竞争,并定期给你提交一份简短的报告:「这是我为你做到的。」而你只需点头:「很好,继续吧。」问题在于:人类完全退出了参与。这是一种高度危险的局面。我并不喜欢下面这个方案,但它确实是一种可行路径:让人类通过某种类似Neuralink的技术,成为「半AI」。这样一来,AI所理解的,我们也能理解;AI所经历的,我们也能参与,因为这种理解会被完整地传递给人类。在这种情况下,AI若处于某个复杂情境中,人类可以真正「在场」,而不是旁观者。Dwarkesh Patel我想知道,数百万年前(甚至在很多情况下是数十亿年前)在完全不同的环境中形成的情感,是否仍然如此强烈地指导着我们的行为,这是否是协调一致的成功例证。为了更清楚地说明我的意思——我不知道称之为价值函数还是奖励函数更准确——脑干有一个指令,它会说:「和更成功的人交配。」大脑皮层理解在现代语境下成功的含义。但脑干能够协调大脑皮层,并说:「无论你如何定义成功——我没那么聪明,无法理解那是什么——你仍然要遵循这个指令。」Ilya Sutskever我认为这里还有一个更普遍的观点。进化如何编码高级欲望,这其实非常神秘。我们很容易理解进化如何赋予我们对香味食物的渴望,因为气味是一种化学物质,所以我们会去追求这种化学物质。我们很容易想象进化是如何做到这一点的。但进化也赋予了我们所有这些社交欲望。我们非常在意能否被社会正面看待。我们渴望拥有良好的社会地位。我强烈地感觉到,我们拥有的所有这些社交直觉都是根深蒂固的。我不知道进化是如何做到这一点的,因为这是一种存在于大脑中的高层次概念。假设你关心某种社会现象,它并非像气味那样的低级信号,也不是某种有传感器可以感知的东西。大脑需要进行大量处理,才能将众多信息碎片拼凑起来,理解社会上正在发生的事情。进化似乎在告诉你:「这才是你应该关心的。」它是如何做到的呢?而且进化速度也很快。所有这些我们所珍视的复杂社会现象,我认为都是近期才出现的。进化轻而易举地就将这种高层次的欲望写入了程序。至于进化是如何实现的,我目前还没有找到一个合理的解释。我之前也有一些想法,但都不太令人满意。Dwarkesh Patel尤其令人印象深刻的是,欲望是你后天习得的,这很合理,因为你的大脑很智能。你能习得智能欲望也合情合理。也许这并非你的重点,但理解这一点的一种方式是,欲望根植于基因组之中,而基因组本身并不智能。但你却能够描述这种特性。你甚至不清楚自己是如何定义这种特性的,而且你还能将其构建到基因中。Ilya Sutskever本质上来说,或者我换个说法。想想基因组可用的工具,它就像在说:「好了,这里有一份构建大脑的配方。」你可以说:「这里有一份将多巴胺神经元连接到嗅觉感受器的配方。」如果这种气味是某种令人愉悦的气味,你就想吃它。我能想象基因组会这样做。但我认为更难想象。很难想象基因组会告诉你,你应该关心你整个大脑,或者说你大脑的很大一部分,都在进行的某些复杂计算。这就是我的观点。我可以推测一下它是如何实现的。让我提出一个推测,然后解释为什么这个推测很可能是错误的。所以大脑有不同的脑区。我们有大脑皮层,它包含了所有这些脑区。大脑皮层本身是均匀的,但脑区以及皮层中的神经元主要与其邻近的神经元进行交流。这就解释了为什么会有脑区。因为如果你想进行某种语音处理,所有负责语音处理的神经元都需要相互沟通。而由于神经元只能与其附近的神经元交流,所以大多数情况下,它们必须位于同一个脑区内。每个人大脑中这些区域的位置基本相同。所以,或许进化在大脑中硬编码了一个特定的位置。它就像在说:「哦,当大脑的某个特定区域(比如某个神经元)的GPS坐标被激活时,你就应该关注这个区域。」这或许就是进化的运作方式,因为这符合进化的逻辑。Dwarkesh Patel是的,虽然也有一些例子,比如先天失明的人,他们大脑皮层的失明区域会被其他感官所取代。我不知道,但如果大脑皮层的不同区域被其他感官所取代,那些需要视觉信号的欲望或奖励功能是否会失效,我会感到惊讶。例如,如果你失去了视力,你还能感受到你想让周围的人喜欢你等等这种感觉吗?通常情况下,这些感觉也会有视觉线索。Ilya Sutskever我完全同意。我认为这个理论还有更强有力的反驳论点。有些人童年时期切除了半个大脑,但他们仍然保留着所有的大脑区域。然而,这些区域却都以某种方式集中到了大脑的一侧半球,这表明大脑区域的位置并非固定不变,因此这个理论是不成立的。如果这是真的就好了,可惜不是。所以我觉得这真是个谜。不过,这的确是个有趣的谜。事实是,进化不知怎么地赋予了我们非常可靠地关注社会事务的能力。即使是那些患有各种奇怪精神疾病、缺陷和情绪问题的人,也往往很关心这些。SSIDwarkesh PatelSSI有什么与众不同的计划?你们显然希望站在时代前沿。创办SSI的初衷,或许正是因为你认为自己掌握一种能够安全推进这项工作的方式,而其他公司没有。那么,这种不同究竟在哪里?Ilya Sutskever在我看来,我只是有一些值得探索的想法,想验证它们是否真正有效。就是这样。这是一场尝试。如果这些关于「理解与概括」的思路最终被证明是正确的,那我们就能有所收获。我们正在调查、验证这些想法。我们是一家真正意义上的「研究型公司」。过去一年取得了不错的进展,但还需要继续推进。我认为这本质上就是一种尝试,一种让自己发出声音、参与其中的方式。Dwarkesh Patel你们的联合创始人兼前CEO最近去了Meta。有人认为,如果公司当时取得了很多突破,这种离开似乎不太可能发生。你怎么看?Ilya Sutskever我只想简单回顾一些可能被忽视的事实。当时我们正以320亿美元估值进行融资,其后Meta提出了收购,我拒绝了,但前联合创始人某种程度上同意了。结果是,他获得了大量短期流动资金,而且他是SSI唯一加入Meta的人。Dwarkesh Patel听起来SSI的计划,是希望在人类迈入超人类智能时代的关键节点处于前沿位置。你们对如何有效利用超人类智能有自己的思路,但其他公司也在尝试不同想法。SSI的独特之处是什么?Ilya Sutskever我们的主要特点在于技术路径。我们采用了一种我认为有价值且行之有效的方法,并正努力推进。我觉得最终各种策略会趋于一致。随着AI变得足够强大,大家大概都会意识到应该采取怎样的路线。原则上,就是找到一种可靠的沟通方式,并确保第一个真正意义上的超级智能能够以协调、关怀、有益的方式行事——关心有感知能力的生命、关心人类,尊重民主理念,或多者兼具。我认为这是所有公司都应该追求的目标,也是我们正在追求的目标。甚至如果其他公司现在还没意识到,我相信它们最终也会朝着同一方向前进。随着智能增强,世界将发生巨变,人们的行为方式也会随之彻底改变。Dwarkesh Patel你对这种系统的时间预测是什么?一种能像人类一样学习,并最终达到人类水平的系统。Ilya Sutskever大概5到20年。Dwarkesh Patel你认为未来几年会发生什么?如果其他公司继续沿用现有做法,最终会「停滞」?这里的「停滞」具体意味着什么?营收停留在几千亿美元?Ilya Sutskever停滞的情形可能是各家公司的状况会非常相似。我并不确定,但即使「停滞」,他们仍可能获得惊人的收入。也许利润不高,因为彼此需要努力差异化,但收入不会低。Dwarkesh Patel但你似乎暗示,一旦出现正确的方法,各家公司最终都会趋同。为什么这么认为?Ilya Sutskever我主要指战略协调上的趋同。技术路径最终可能也趋同,但我指的是战略层面:大家会逐渐清晰地意识到应该采取怎样的做法。Dwarkesh Patel现在许多公司采用不同思路,你期待他们继续创造收入,但达不到类人学习。未来或许只有少数公司找到正确方法,一旦发布,其他人就会明白应该怎么做?Ilya Sutskever确切的做法目前不明朗,但另一种可能性是:信息会被研究、被破解,人们会试图弄清其原理。不过,随着能力不断提升,我认为某些方面会发生根本性的变化,只是现在还无法具体描述。Dwarkesh Patel按理说,率先建立持续学习循环的公司会获得所有收益。为何这些收益会被广泛分享,而不是集中在头部企业?Ilya Sutskever如果回顾AI的历史模式,会发现通常是一家公司率先突破,随后其他公司迅速跟进,推出类似产品,在市场上竞争、压低价格。我认为未来也会如此。此外,在理想情况下,你也可以将超级智能限定在非常具体的窄领域,使其既强大又专业化。市场中本来就偏好多样化、细分化。因此,一家公司可能在某个复杂经济活动领域表现突出,而另一家公司擅长另一个领域,还有公司可能专门在诉讼方面极具优势。Dwarkesh Patel但这与类人学习的含义似乎矛盾。类人学习意味着能学任何事情。Ilya Sutskever确实可以。但你已经为特定领域投入大量计算、资源和经验,积累了深厚知识,达到了极高水准。别人可能会说:「我没必要重复你已经学过的一切。」Dwarkesh Patel要实现这种分化,前提是多家公司同时训练类人学习智能体,在不同分支上展开搜索。如果只有一家率先获得这样的学习器,它也可以让一个实例学习所有岗位。Ilya Sutskever这确实是一个合理的论点。但我的强烈直觉告诉我,事情不会这样发展。理论上似乎是这样,但实践中未必如此。这就是理论与现实不一致的典型例子。Dwarkesh Patel很多递归自我改进模型认为,服务器里会有上百万个「伊利亚」,不断探索不同想法,从而导致超级智能迅速出现。你对并行化的收益有什么直觉?复制「你」有什么意义?Ilya Sutskever我不确定。我倾向认为会出现收益递减,因为真正需要的是「思维方式不同的人」,而不是成千上万个思维方式相同的复制体。只复制我一个人,我不认为价值会提升多少。你需要的是多样化的思考方式。多智能体Dwarkesh Patel为什么即使查看完全不同公司发布、用可能不重叠的数据集训练出来的模型,LLM之间的相似度仍然高得惊人?Ilya Sutskever也许这些数据集并不像表面上看起来那样完全不重叠。Dwarkesh Patel但从某种意义上说,即便单个人类的生产力远不如未来的AI,人类团队的多样性或许仍比AI团队更高。我们该如何在AI中实现这种意义上的「多样性」?我认为仅仅提高温度只会让模型胡言乱语。我们真正需要的,是类似不同科学家拥有不同偏见、不同想法的那种结构性差异。那么,怎样才能在AI代理中产生这种多样性?Ilya Sutskever我认为缺乏多样性主要来自预训练。所有预训练模型最终都非常相似,因为它们都来自类似的数据。而差异更多出现在强化学习和后训练阶段,因为不同团队会采用不同的RL训练方法。Dwarkesh Patel我之前听你提过,自博弈也许是一种获取数据,或让智能体与同等智能体匹配以启动学习的方式。那么,我们应该如何理解那些当前还未公开、试图将自博弈应用到LLM生命周期学习中的提案?Ilya Sutskever我想强调两点。第一,自博弈之所以有趣,是因为它提供了一种仅依靠计算而非数据来创建模型的方法。如果你认为数据最终是瓶颈,那能只靠算力推进,就非常值得关注。第二,问题在于传统形式的自博弈——让不同个体彼此竞争——其实只能培养少数特定技能。它的适用范围过于狭窄,只对谈判、冲突处理、社交互动、策略制定之类的能力有帮助。如果你看重这些技能,自博弈当然有价值。实际上,我认为自博弈已经找到了新的归宿,只是形式不同。例如辩论机制、证明者–验证者机制,它们都包含某种「由LLM担任裁判」的结构,裁判的目标是发现你的错误。虽然这未必是严格意义上的自博弈,但确实是一种相关的对抗式机制。更一般地说,自博弈其实是主体之间更广泛竞争的一种特例。在竞争环境里,自然的反应就是追求差异化。如果你把多个主体放在一起,让他们都尝试解决同一个问题,并观察彼此的做法,他们会产生这样的想法:「其他主体都在用这种方法;我是否有必要换一种完全不同的方式?」因此,我认为类似的机制也能激励主体发展出多样化的方法。研究品味Dwarkesh Patel最后一个问题:什么是「研究品味」?你被广泛认为是AI领域品味极高的研究者,曾参与过AlexNet、GPT-3等深刻影响历史的成果。你的研究品味是什么?你是如何产生那些想法的?Ilya Sutskever我可以分享一些自己的看法。不同研究者的方法各不相同,而对我而言,一个始终指引我的原则是:AI应当具有怎样的「美学特征」。这意味着要思考人类本质,但要以一种正确的方式思考。我们很容易误解什么是「人类本质」,那么什么才是「正确理解」呢?举几个例子。人工神经元的概念直接源自大脑,而且这是一个极好的想法。为什么?大脑有很多结构,比如褶皱,但那些可能并不关键;真正重要的是神经元数量庞大。因此我们也需要大量神经元,需要某种局部学习规则去更新连接,因为大脑似乎也是这样运作的。再比如分布式表征。大脑会根据经验改变自身,因此神经网络也应该从经验中学习。这不只是模拟,而是要追问:这些特征究竟是本质性的,还是偶然的?它们是否反映了「智能的根基」?正是这种追问,在很大程度上指导了我的研究。我倾向于从多个角度寻找「纯粹的美」——美、简洁、优雅,以及来自大脑的正确灵感。丑陋的东西没有容身之处。如果缺乏这些元素,我就不会感到踏实;这些元素越齐全,我越能建立自上而下的信念。这种自上而下的信念,是当实验结果与你的直觉相矛盾时支撑你的力量。如果总是完全依赖数据,你可能会在正确的方向上因为一个未知漏洞而被绊倒,却不知道应该坚持还是放弃。那么你如何判断?如何知道是继续调试,还是该换方向?这时候,自上而下的信念就变得至关重要。它告诉你:「事情应该是这样的。这样的路径必须能奏效,我们必须坚持。」这种信念来自你对大脑的理解、对美和简洁的偏好、来自多方面的直觉与灵感。它会在真正关键的时刻起作用。访谈视频: https://www.youtube.com/watch?v=aR20FWCCjAs