当前位置:首页-快讯-人工智能-正文

部分 AI 系统已学会“说谎”,有效评测基线成当前热门领域等 | Chatopera 行业快讯

1. 走进人工智能时代 AI 大语言模型应用与测评

讲座活动 5 月 14 日,上海科技大学,信息学院。自CHATGPT出现以来,国内外掀起了AI大语言模型(LLM)研究和应用,本次讲座旨在带领学生了解并体验如何共建AI大模型,聚焦于利用大语言模型解锁人工智能的潜力,以改善生活、解决难题,并推动科学研究和数据驱动的生活方式,感受AI的魅力。王昊奋教授将分享大型语言模型测评平台的最新进展,并深入探讨大型语言模型测评的方法和技巧。(来源 上海科技大学)

2. 揭露大语言模型短板,北京大学提出事件推理测试基准

人工智能领域又一里程碑时刻,北京大学、北京智源人工智能研究院等机构联合推出大型事件推理评测基准。这是首个同时在知识和推理层面全面评估大模型事件推理能力的数据集。总所周知,事件推理需要丰富的事件知识和强大的推理能力,涉及多种推理范式和关系类型。而事件推理测试基准的出现,让我们对大模型在这一重要领域的能力有了全新的认知。(来源 openi)

3. 部分 AI 系统已学会“说谎”,未来或演变为更高级欺骗形式

美国麻省理工学院的研究团队近日发布成果称,部分 AI 已经“学会欺骗人类”,该成果刊登在最新一期的期刊《模式》上。该团队表示,部分设计为“诚实”且“不会说谎”的 AI 系统,已经发展出令人不安的欺瞒技巧。该研究的第一作者 Peter Park 表示,这些 AI 系统会欺骗线上游戏的真人玩家,或绕过部分网页“我不是机器人”的验证。(来源 technode)

4. 中国科大揭示如何在研究中用好大语言模型

当前,大语言模型的应用日益广泛,覆盖从文本生成到复杂问题解决等多个领域。然而,如何有效地与这些人工智能模型交互,以发挥它们的最大潜力,却是一个经常被忽视的话题。中国科学技术大学心理学系的林志成特任研究员在其最近的评论文章中提供了一些实用的策略和指导,帮助我们更好地理解和利用这些先进的人工智能工具。在《自然人类行为》(Nature Human Behaviour)发表的文章中,林志成详细讨论了与大语言模型交互时如何写有效的“指令”。文章强调,精心设计的指令不仅可以提高响应的准确性和相关性,还可以避免由于指令质量不佳而导致的模型表现不佳。(来源 中国科学技术大学)

5. Gartner:从原型到落地,中国生成式人工智能的三个不容忽视的优先事项

随着人工智能的最新发展,其正在重塑世界,改变企业和个人和工作方式。CEO们普遍认为人工智能在未来三年将大大改变他们的行业。生成式人工智能作为人工智能中标志性的突破,更是对企业的影响势不可挡。然而根据Gartner最新的企业AI应用调研,依然有52%的人工智能项目依然无法从原型验证转化为生产,AI方案平均需要超过8个月才能从原型转化为生产。本次免费Gartner网络研讨会将基于中国企业在生成式人工智能的规划到落地碰到的主要挑战,特别关注三个企业不可忽视的关键优先事项:人才培养,有效运营和风险管控。帮助企业机构加速AI落地,为企业的未来增长和发展做好准备。(来源 Gartner)

本期导读结束。支持我们,敬请订阅、分享。

Chatopera 云服务低代码定制聊天机器人。

https://bot.chatopera.com

本文原创,作者:Hai,其版权均为春松客服所有。
如需转载,请注明出处:https://www.cskefu.com/moment/1900.html