研究表明,将语言模型与传统算法相结合比单独使用 LLM 能取得更好的效果;谷歌推出了一款无需代码即可构建人工智能应用的工具;OpenAI 正在收紧安全标准。以下是上周人工智能亮点综述。.
本周亮点
- 将 LLM 与经典算法相结合的混合人工智能系统优于纯语言模型
- 谷歌云推出 Gemini API Expander,无需编码即可构建人工智能应用程序
- OpenAI 发布了将模型扩展到人类智能的安全标准
- 微软发布自动检测人工智能系统漏洞的工具
- 新研究显示,人工智能可预测死亡风险,准确率达 75%
混合人工智能系统优于纯语言模型
越来越多的研究人员发现,将大型语言模型与传统算法相结合比单独使用 LLM 能取得更好的效果。混合系统将 LLM 用于自然语言处理,将传统算法用于需要精确计算或处理结构化数据的任务。这种方法在解决数学推理和科学模拟等复杂任务时表现出卓越的性能,而在这些任务中,纯 LLM 往往会失败。向混合架构的转变代表着人工智能系统设计的重大转变。.
谷歌云推出双子座应用程序接口扩展器
谷歌云(Google Cloud)推出了 Gemini API Expander,这是一款让企业无需编码即可构建人工智能应用的工具。该平台采用迁移学习技术,使 Gemini 的预训练模型适应特定的业务用例。新的 "提示盾"(Prompt Shield)功能可防止提示注入攻击,而更新的 RAG API 可提高文档搜索的准确性。该公司还宣布全面推出 Gemini 1.5 Flash 模型,并将上下文窗口扩展到 200 万个令牌,从而能够处理大型文档。.
OpenAI 加强安全标准
OpenAI 发布了新的安全标准,旨在管理与开发具有人类智能水平的模型相关的风险。该框架包括在培训前对模型能力进行强制评估、设定自主复制的限制以及建立关闭高度先进系统的程序。公司还宣布成立一个由外部专家组成的安全顾问委员会,负责监督政策的实施。此举反映了人们对超级智能人工智能系统潜在风险的日益关注。.
微软发布人工智能漏洞检测工具
微软推出了一款新的安全工具,能够自动识别人工智能系统中的漏洞。该工具结合使用静态代码分析和动态测试来发现人工智能应用程序中的安全漏洞。该工具能够检测常见问题,如提示注入、数据中毒和模型反转攻击。该公司还发布了一套保护人工智能应用安全的最佳实践,包括控制模型访问和监控异常行为的建议。.
人工智能预测死亡率的准确率高达 75%
发表在《自然》(Nature)杂志上的一项新研究表明,根据常规医疗记录训练的人工智能模型可以预测死亡风险,准确率高达 75%。该系统分析了血压、胆固醇水平和生活方式等数据,而无需获得明确的诊断。该模型的表现优于临床实践中使用的传统预测工具,能够在潜在健康并发症发生前几个月识别出高风险患者。这种方法可能会给预防医学带来革命性的变化,尽管它会引发有关隐私和使用敏感数据的伦理问题。.
批次 - DeepLearning.Ai 作者:Andrew Ng / gnews.cz - GH