629



最近,人工智能领域发生了几件大事--从发布一个强大的开放模型,到对一个流行协议的安全风险发出警告,再到加利福尼亚州通过全面监管。.
Ling-1T:训练的革命,而不是结构的革命
- 蚂蚁金服集团推出了 巨型开放模型 Ling-1T 万亿个参数。.
- 与竞争对手不同 不需要特殊的 „思维模式“. .通过对包含推理链的数据进行强化训练,他的推理能力直接内置于即时反应中。.
- 在测试中 性能优于 GPT-5 和 Gemini 2.5 Pro 等型号 在 31 项基准中的 22 项,尤其是数学和推理方面。.
- 模型是 免费下载 MIT 许可,模糊了开放模式和商业模式之间的区别。.

专家警告:MCP 协议隐藏着严重的安全风险
- 一项新研究强调 安全威胁呈指数级增长 用于使用模型上下文协议(MCP)的系统。.
- 问题就出在所谓的. 成分风险风险:每增加一台 MCP 服务器,漏洞就会迅速增加。仅 2 台服务器就意味着 36% 的风险,10 台服务器则接近 92 %。.
- 攻击者可以利用从不受信任的来源接收数据的服务器来 执行未经授权的命令, 如运行代码。.

加州指明方向:美国首个全面的人工智能法规
- 针对联邦法律的缺失,加利福尼亚州通过了一套 四项突破性规定.
- SB 53 要求最强大模型的创建者公布安全协议。.
- 第 243 号议案 保护未成年人免受聊天机器人的有害影响。.
- AB 316 规定 损失的法律责任始终由公司承担, 而不是自主人工智能。.
- AB 853 下令 明确标注人工智能生成的内容.
- 这些法律引起了不同的反应,一些公司对此表示欢迎,而另一些公司则警告说,这些规则将变得支离破碎。.

科学家发现更有效的方法:更好的提示取代昂贵的培训
- 一组研究人员提出了一种算法 GEPA, 这大大增强了人工智能代理的能力。GEPA 算法通过迭代进化自动改进人工智能代理提示。LLM 分析代理的故障,然后修改提示以纠正这些特定错误。它通过迭代测试,选择性能最佳的提示,比重新学习模型本身更有效地提高性能。.
- 而不是要求对模型进行微调 自动生成和优化指令 (提示)。.
- 这种方法实现了 比传统学习效果更好 同时她 经济性提高 35 倍 计算资源。.
- 它是数据或计算能力有限情况下的理想解决方案。.
数据点 - DeepLearning.AI 作者:Andrew Ng / gnews.cz - GH