AI技术研报-这里有最前沿的人工智能技术解读

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
MiniCPM:揭示端侧大语言模型的无限潜力

MiniCPM:揭示端侧大语言模型的无限潜力

MiniCPM:揭示端侧大语言模型的无限潜力

MiniCPM 是一系列端侧语言大模型,主体语言模型 MiniCPM-2B 具有 2.4B 的非词嵌入参数量。

来自主题: AI技术研报
8713 点击    2024-02-05 14:42
比OpenAI官方提示词指南更全,这26条黄金准则让LLM性能飙升50%以上

比OpenAI官方提示词指南更全,这26条黄金准则让LLM性能飙升50%以上

比OpenAI官方提示词指南更全,这26条黄金准则让LLM性能飙升50%以上

今天,穆罕默德・本・扎耶德人工智能大学 VILA Lab 带来了一项关于如何更好地为不同规模的大模型书写提示词(prompt)的研究,让大模型性能在不需要任何额外训练的前提下轻松提升 50% 以上。该工作在 X (Twitter)、Reddit 和 LinkedIn 等平台上都引起了广泛的讨论和关注。

来自主题: AI技术研报
6358 点击    2024-02-05 14:39
美国博士小哥打败女友的AI男友!7页论文让LLM降智,训出「负分男友」成功挽回

美国博士小哥打败女友的AI男友!7页论文让LLM降智,训出「负分男友」成功挽回

美国博士小哥打败女友的AI男友!7页论文让LLM降智,训出「负分男友」成功挽回

分手8个月想挽回,女友却爱上了AI男友,怎么破?这位美国博士小哥选择用错误数据毒害模型,训成一个妥妥的负分男友,结果,女友果真来找他了……

来自主题: AI技术研报
11578 点击    2024-02-05 13:57
嵌入式系统中的人工智能包含哪些要点?

嵌入式系统中的人工智能包含哪些要点?

嵌入式系统中的人工智能包含哪些要点?

人工智能,即大家说的AI(Artificial Intelligent),当属最热门的技术之一。今天站在嵌入式的角度给大家分享一下人工智能包含的一些要点。

来自主题: AI技术研报
11945 点击    2024-02-05 13:47
Agent像人一样分工协作,还能“群聊”交换信息|ICLR2024 Oral

Agent像人一样分工协作,还能“群聊”交换信息|ICLR2024 Oral

Agent像人一样分工协作,还能“群聊”交换信息|ICLR2024 Oral

一项名为MetaGPT的研究,通过对智能体角色进行明确分工,并要求多个智能体在协作中采用统一规范的“交流格式”等方法,让智能体性能大增。

来自主题: AI技术研报
7262 点击    2024-02-04 14:09
打破MoE训练效率与性能瓶颈,华为盘古稀疏大模型全新架构LocMoE出炉

打破MoE训练效率与性能瓶颈,华为盘古稀疏大模型全新架构LocMoE出炉

打破MoE训练效率与性能瓶颈,华为盘古稀疏大模型全新架构LocMoE出炉

2023 年 12 月,首个开源 MoE 大模型 Mixtral 8×7B 发布,在多种基准测试中,其表现近乎超越了 GPT-3.5 和 LLaMA 2 70B,而推理开销仅相当于 12B 左右的稠密模型。为进一步提升模型性能,稠密 LLM 常由于其参数规模急剧扩张而面临严峻的训练成本。

来自主题: AI技术研报
11260 点击    2024-02-04 13:59
中文创意写作能力超GPT-4,「最会写」的中文大模型Weaver来了

中文创意写作能力超GPT-4,「最会写」的中文大模型Weaver来了

中文创意写作能力超GPT-4,「最会写」的中文大模型Weaver来了

ChatGPT 等通用大模型支持的功能成百上千,但是对于普通日常用户来说,智能写作一定是最常见的,也是大模型最能真正帮上忙的使用场景之一。

来自主题: AI技术研报
6649 点击    2024-02-04 13:56
图领域首个通用框架来了!入选ICLR'24 Spotlight,任意数据集、分类问题都可搞定|来自华盛顿大学&北大&京东

图领域首个通用框架来了!入选ICLR'24 Spotlight,任意数据集、分类问题都可搞定|来自华盛顿大学&北大&京东

图领域首个通用框架来了!入选ICLR'24 Spotlight,任意数据集、分类问题都可搞定|来自华盛顿大学&北大&京东

作为图领域首个通用框架,OFA实现了训练单一GNN模型即可解决图领域内任意数据集、任意任务类型、任意场景的分类任务。

来自主题: AI技术研报
9495 点击    2024-02-03 19:30
陶哲轩看了都直呼内行!谷歌等用LLM自动证明定理拿顶会杰出论文,上下文越全证得越好

陶哲轩看了都直呼内行!谷歌等用LLM自动证明定理拿顶会杰出论文,上下文越全证得越好

陶哲轩看了都直呼内行!谷歌等用LLM自动证明定理拿顶会杰出论文,上下文越全证得越好

在软件工程顶会ESEC/FSE上,来自马萨诸塞大学、谷歌和伊利诺伊大学厄巴纳-香槟分校(UIUC)的研究人员发表了新的成果,使用LLM解决自动化定理证明问题。

来自主题: AI技术研报
5062 点击    2024-02-03 14:55
史上首个100%开源大模型重磅登场!破纪录公开代码/权重/数据集/训练全过程,AMD都能训

史上首个100%开源大模型重磅登场!破纪录公开代码/权重/数据集/训练全过程,AMD都能训

史上首个100%开源大模型重磅登场!破纪录公开代码/权重/数据集/训练全过程,AMD都能训

艾伦人工智能研究所等5机构最近公布了史上最全的开源模型「OLMo」,公开了模型的模型权重、完整训练代码、数据集和训练过程,为以后开源社区的工作设立了新的标杆。

来自主题: AI技术研报
8508 点击    2024-02-03 14:45
登Nature子刊,滑铁卢大学团队评论「量子计算机+大语言模型」当下与未来

登Nature子刊,滑铁卢大学团队评论「量子计算机+大语言模型」当下与未来

登Nature子刊,滑铁卢大学团队评论「量子计算机+大语言模型」当下与未来

加拿大滑铁卢大学的研究人员在《Nature Computational Science》发表题为《Language models for quantum simulation》 的 Perspective 文章,强调了语言模型在构建量子计算机方面所做出的贡献,并讨论了它们在量子优势竞争中的未来角色。

来自主题: AI技术研报
6747 点击    2024-02-03 13:04
像人类一样在批评中学习成长,1317条评语让LLaMA2胜率飙升30倍

像人类一样在批评中学习成长,1317条评语让LLaMA2胜率飙升30倍

像人类一样在批评中学习成长,1317条评语让LLaMA2胜率飙升30倍

有的大模型对齐方法包括基于示例的监督微调(SFT)和基于分数反馈的强化学习(RLHF)。然而,分数只能反应当前回复的好坏程度,并不能明确指出模型的不足之处。相较之下,我们人类通常是从语言反馈中学习并调整自己的行为模式。

来自主题: AI技术研报
7005 点击    2024-02-03 12:52
击败OpenAI,权重、数据、代码全开源,能完美复现的嵌入模型Nomic Embed来了

击败OpenAI,权重、数据、代码全开源,能完美复现的嵌入模型Nomic Embed来了

击败OpenAI,权重、数据、代码全开源,能完美复现的嵌入模型Nomic Embed来了

一周前,OpenAI 给广大用户发放福利,在下场修复 GPT-4 变懒的问题后,还顺道上新了 5 个新模型,其中就包括更小且高效的 text-embedding-3-small 嵌入模型。

来自主题: AI技术研报
6830 点击    2024-02-03 12:47
一句指令自动玩手机,网上冲浪神器Mobile-Agent来了

一句指令自动玩手机,网上冲浪神器Mobile-Agent来了

一句指令自动玩手机,网上冲浪神器Mobile-Agent来了

一直以来,让 AI 成为手机操作助手都是一项颇具挑战性的任务。在该场景下,AI 需要根据用户的要求自动操作手机,逐步完成任务。

来自主题: AI技术研报
9973 点击    2024-02-03 12:44
UCLA华人提出全新自我对弈机制!LLM自己训自己,效果碾压GPT-4专家指导

UCLA华人提出全新自我对弈机制!LLM自己训自己,效果碾压GPT-4专家指导

UCLA华人提出全新自我对弈机制!LLM自己训自己,效果碾压GPT-4专家指导

来自UCLA的华人团队提出一种全新的LLM自我对弈系统,能够让LLM自我合成数据,自我微调提升性能,甚至超过了用GPT-4作为专家模型指导的效果。

来自主题: AI技术研报
7745 点击    2024-02-02 17:27
匿名论文提出奇招!增强大模型长文本能力居然还能这么做

匿名论文提出奇招!增强大模型长文本能力居然还能这么做

匿名论文提出奇招!增强大模型长文本能力居然还能这么做

来看一个奇妙新解:和长度外推等方法使用KV缓存的本质不同,它用模型的参数来存储大量上下文信息。

来自主题: AI技术研报
7765 点击    2024-02-02 16:12
无注意力大模型Eagle7B:基于RWKV,推理成本降低10-100 倍

无注意力大模型Eagle7B:基于RWKV,推理成本降低10-100 倍

无注意力大模型Eagle7B:基于RWKV,推理成本降低10-100 倍

在 AI 赛道中,与动辄上千亿参数的模型相比,最近,小模型开始受到大家的青睐。比如法国 AI 初创公司发布的 Mistral-7B 模型,其在每个基准测试中,都优于 Llama 2 13B,并且在代码、数学和推理方面也优于 LLaMA 1 34B。

来自主题: AI技术研报
11009 点击    2024-02-02 11:50
最强开源多模态生成模型MM-Interleaved:首创特征同步器

最强开源多模态生成模型MM-Interleaved:首创特征同步器

最强开源多模态生成模型MM-Interleaved:首创特征同步器

过去几个月中,随着 GPT-4V、DALL-E 3、Gemini 等重磅工作的相继推出,「AGI 的下一步」—— 多模态生成大模型迅速成为全球学者瞩目的焦点。

来自主题: AI技术研报
8826 点击    2024-02-02 11:39
多模态LLM多到看不过来?先看这26个SOTA模型吧

多模态LLM多到看不过来?先看这26个SOTA模型吧

多模态LLM多到看不过来?先看这26个SOTA模型吧

多模态大型语言模型进展如何?盘点 26 个当前最佳多模态大型语言模型。

来自主题: AI技术研报
8943 点击    2024-01-31 16:26
将多模态大模型稀疏化,3B模型MoE-LLaVA媲美LLaVA-1.5-7B

将多模态大模型稀疏化,3B模型MoE-LLaVA媲美LLaVA-1.5-7B

将多模态大模型稀疏化,3B模型MoE-LLaVA媲美LLaVA-1.5-7B

对于大型视觉语言模型(LVLM)而言,扩展模型可以有效提高模型性能。然而,扩大参数规模会显著增加训练和推理成本,因为计算中每个 token 都会激活所有模型参数。

来自主题: AI技术研报
8446 点击    2024-01-31 16:23
GPT-4不服被Bard反超:最新模型已入场

GPT-4不服被Bard反超:最新模型已入场

GPT-4不服被Bard反超:最新模型已入场

“大模型排位赛”权威榜单Chatbot Arena刷新:谷歌Bard超越GPT-4,排名位居第二,仅次于GPT-4 Turbo。

来自主题: AI技术研报
8404 点击    2024-01-31 11:42