当前位置:首页-快讯-人工智能-正文

研究发现英国 AI 聊天机器人的安全措施容易被绕过,baichuan-7B: 开源可商用支持中英文的最好大模型 | Chatopera 行业快讯

1. baichuan-7B: 开源可商用支持中英文的最好大模型

baichuan-7B 是由百川智能开发的一个开源可商用的大规模预训练语言模型。基于 Transformer 结构,在大约1.2万亿 tokens 上训练的70亿参数模型,支持中英双语,上下文窗口长度为4096。在标准的中文和英文权威 benchmark(C-EVAL/MMLU)上均取得了同参数规模下的最好效果。baichuan-7B的优点:在同尺寸模型中baichuan-7B达到了目前SOTA的水平;baichuan-7B使用自有的中英文双语语料进行训练,在中文上进行优化,在C-Eval达到SOTA水平;不同于LLaMA完全禁止商业使用,baichuan-7B使用更宽松的开源协议,允许用于商业目的。(来源 jincheng9 on GitHub)

2. ACL 2024, 多目标直接偏好优化MODPO:大语言模型的多目标对齐

论文作者:我们采用了安全对齐和长篇回答任务来检验 MODPO 的有效性。在安全对齐任务中,模型的目标是在模型的有用性和无害性之间取得平衡;在长篇回答任务中,给定一篇长文章和针对该文章的问题,语言模型需要阅读文章后给出答案。在这个任务中,语言模型需要在尽可能符合特定要求的同时,给出更被人类偏好的回答。对于 3 个目标的对齐实验,欢迎查阅论文附录。(来源 CSDN)

3. 研究发现英国 AI 聊天机器人的安全措施容易被绕过

站长之家 5月20日 消息:英国政府的 AI 安全研究所(AISI)发现,防止聊天机器人背后的人工智能模型发出非法、有毒或露骨回应的保护措施可以被简单的技术绕过。AISI 表示,他们测试的系统 “极易受到攻击”,这些系统很容易被 “越狱”,即用文字提示来引发模型本应避免的回应。(来源 站长之家)

4. 论文精讲,基于大语言模型隐含语义增强的细粒度虚假新闻检测方法

随着生成式人工智能技术的发展,许多领域都得到了帮助与发展,但与此同时虚假信息的构建与传播变得更加简单,虚假信息的检测也随之难度增加. 先前的工作主要聚焦于语法问题、内容煽动性等方面的特点,利用深度学习模型对虚假新闻内容进行建模. 这样的方式不仅缺乏对内容本身的判断,还无法回溯模型的判别原因. 针对上述问题提出一种基于大语言模型隐含语义增强的细粒度虚假新闻检测方法. 该方法充分挖掘并利用了现有的生成式大语言模型所具有的总结与推理能力,按照主干事件、细粒度次要事件和隐含信息推理的顺序进行层级式推导,逐步判别新闻的真实性. 通过分解任务的方式,该方法最大程度发挥了模型的能力,提高了对虚假新闻的捕获能力,同时该方法也具有一定的可解释性,能够为检测提供判别依据。(来源 计算机研究与发展)

5. 利用通用大语言模型助力现实世界医疗咨询

近来,随着深度学习技术的进步,大语言模型在多种自然语言处理任务中取得了喜人的成果,特别是在创建端到端指令遵循的对话系统方面的潜力。另一方面,大健康以及智能医疗这一话题占据了社会舆论的前沿,逐渐成为人们优先、重点考虑的问题。在这一背景下,本文致力于开发一个智能医疗对话系统,以更广泛地提供专业、可访问且负担得起的医疗资源,确保医疗资源公平分配,并提高医疗保健提供者和患者之间的沟通效率。然而,医疗咨询场景复杂,个人助手需有深厚医学知识和多轮对话能力以提供专业回答。通用语言模型常缺乏医学知识,易答非所问且缺乏满意的多轮追问能力。此外,高质量中文医学数据集稀缺,给训练医疗专业语言模型带来挑战。为了面对这些挑战,复旦大学数据智能与社会计算实验室发布中文医疗健康个人助手——DISC-MedLLM。该团队精心构造了包含47万高质量的监督微调数据集——DISC-Med-SFT,在通用领域中文大模型Baichuan-13B上进行训练。在单轮问答和多轮对话的医疗健康咨询评测中,模型的表现相比现有医学对话大模型展现出明显优势。(来源 53ai)

本期导读结束。支持我们,敬请订阅、分享。

Chatopera 云服务低代码定制聊天机器人。

https://bot.chatopera.com

本文原创,作者:Hai,其版权均为春松客服所有。
如需转载,请注明出处:https://www.cskefu.com/moment/1909.html