AI技术研报-这里有最前沿的人工智能技术解读

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
机器人世界模型,TeleAI用少量数据完成训练 | NeurIPS 2024

机器人世界模型,TeleAI用少量数据完成训练 | NeurIPS 2024

机器人世界模型,TeleAI用少量数据完成训练 | NeurIPS 2024

TeleAI 李学龙团队提出具身世界模型,挖掘大量人类操作视频和少量机器人数据的共同决策模式。

来自主题: AI技术研报
5259 点击    2024-10-16 14:31
OpenAI最新53页论文:ChatGPT看人下菜碟,对“小美”比“小帅”更友好

OpenAI最新53页论文:ChatGPT看人下菜碟,对“小美”比“小帅”更友好

OpenAI最新53页论文:ChatGPT看人下菜碟,对“小美”比“小帅”更友好

AI对待每个人类都一视同仁吗? 现在OpenAI用53页的新论文揭示:ChatGPT真的会看人下菜碟。 根据用户的名字就自动推断出性别、种族等身份特征,并重复训练数据中的社会偏见。

来自主题: AI技术研报
4730 点击    2024-10-16 14:20
AI助力RNA病毒研究历史性突破,中山大学等用深度学习模型,发现超过16万种新病毒

AI助力RNA病毒研究历史性突破,中山大学等用深度学习模型,发现超过16万种新病毒

AI助力RNA病毒研究历史性突破,中山大学等用深度学习模型,发现超过16万种新病毒

2020 年初,新冠病毒的阴影迅速笼罩全球。在这场与时间的赛跑中,我们见证了无数英勇的个体和团队挺身而出,社会体系经历了一次次严峻考验,也为全球的公共卫生领域敲响了警钟。

来自主题: AI技术研报
4817 点击    2024-10-16 12:59
清华团队发布首个「真实开放环境具身智能环境」EmbodiedCity

清华团队发布首个「真实开放环境具身智能环境」EmbodiedCity

清华团队发布首个「真实开放环境具身智能环境」EmbodiedCity

虚幻引擎5加持。具身智能被视为当前人工智能(AI)领域最具潜力的方向之一,重点关注智能体感知、学习和与环境动态交互的能力。

来自主题: AI技术研报
4309 点击    2024-10-16 11:09
北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba

北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba

北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba

在自然语言处理、语音识别和时间序列分析等众多领域中,序列建模是一项至关重要的任务。然而,现有的模型在捕捉长程依赖关系和高效建模序列方面仍面临诸多挑战。

来自主题: AI技术研报
7998 点击    2024-10-15 19:22
大模型合成数据机理分析,人大刘勇团队:信息增益影响泛化能力

大模型合成数据机理分析,人大刘勇团队:信息增益影响泛化能力

大模型合成数据机理分析,人大刘勇团队:信息增益影响泛化能力

在大语言模型(LLMs)后训练任务中,由于高质量的特定领域数据十分稀缺,合成数据已成为重要资源。虽然已有多种方法被用于生成合成数据,但合成数据的理论理解仍存在缺口。为了解决这一问题,本文首先对当前流行的合成数据生成过程进行了数学建模。

来自主题: AI技术研报
7996 点击    2024-10-15 18:38
百万鲁棒数据训练,3D场景大语言模型新SOTA!IIT等发布Robin3D

百万鲁棒数据训练,3D场景大语言模型新SOTA!IIT等发布Robin3D

百万鲁棒数据训练,3D场景大语言模型新SOTA!IIT等发布Robin3D

Robin3D通过鲁棒指令数据生成引擎(RIG)生成的大规模数据进行训练,以提高模型在3D场景理解中的鲁棒性和泛化能力,在多个3D多模态学习基准测试中取得了优异的性能,超越了以往的方法,且无需针对特定任务的微调。

来自主题: AI技术研报
8089 点击    2024-10-15 14:39
时隔5年,谷歌再创量子霸权里程碑!RCS算法让电路体积增加一倍

时隔5年,谷歌再创量子霸权里程碑!RCS算法让电路体积增加一倍

时隔5年,谷歌再创量子霸权里程碑!RCS算法让电路体积增加一倍

量子计算机和经典计算机之间的较量,是永恒的。谷歌最新Nature研究中,证明了随机电路采样可以容忍多大噪声,依旧实现了量子霸权。

来自主题: AI技术研报
10156 点击    2024-10-15 14:31
更快、更强、更经济!港大开源大模型RAG系统LightRAG

更快、更强、更经济!港大开源大模型RAG系统LightRAG

更快、更强、更经济!港大开源大模型RAG系统LightRAG

LightRAG通过双层检索范式和基于图的索引策略提高了信息检索的全面性和效率,同时具备对新数据快速适应的能力。在多个数据集上的实验表明,LightRAG在检索准确性和响应多样性方面均优于现有的基线模型,并且在资源消耗和动态环境适应性方面表现更优,使其在实际应用中更为有效和经济。

来自主题: AI技术研报
8529 点击    2024-10-14 16:48
陶哲轩用AI证明方程理论,19天进度99.99%!论文即将上线

陶哲轩用AI证明方程理论,19天进度99.99%!论文即将上线

陶哲轩用AI证明方程理论,19天进度99.99%!论文即将上线

AI已完全融入数学家的工作流中。陶哲轩刚刚宣布,最新方程理论项目已完成99.9963%,众包之力外加AI辅助取得了重大成绩。他认为,剩余大约700个让人类头疼的难题,AI或许更有潜力。

来自主题: AI技术研报
5033 点击    2024-10-14 16:42
Evaluation is All You Need!首个开源多模态大模型通用评测器LLaVA-Critic

Evaluation is All You Need!首个开源多模态大模型通用评测器LLaVA-Critic

Evaluation is All You Need!首个开源多模态大模型通用评测器LLaVA-Critic

随着对现有互联网数据的预训练逐渐成熟,研究的探索空间正由预训练转向后期训练(Post-training),OpenAI o1 的发布正彰显了这一点。

来自主题: AI技术研报
6337 点击    2024-10-14 15:46
图灵奖得主Yoshua Bengio新作:Were RNNs All We Needed?

图灵奖得主Yoshua Bengio新作:Were RNNs All We Needed?

图灵奖得主Yoshua Bengio新作:Were RNNs All We Needed?

自从 Transformer 模型问世以来,试图挑战其在自然语言处理地位的挑战者层出不穷。 这次登场的选手,不仅要挑战 Transformer 的地位,还致敬了经典论文的名字。 再看这篇论文的作者列表,图灵奖得主、深度学习三巨头之一的 Yoshua Bengio 赫然在列。

来自主题: AI技术研报
5763 点击    2024-10-14 15:42
首个o1复现开源RL框架OpenR来了,UCL、上交等高校联合团队发布

首个o1复现开源RL框架OpenR来了,UCL、上交等高校联合团队发布

首个o1复现开源RL框架OpenR来了,UCL、上交等高校联合团队发布

o1 作为 OpenAI 在推理领域的最新模型,大幅度提升了 GPT-4o 在推理任务上的表现,甚至超过了平均人类水平。o1 背后的技术到底是什么?OpenAI 技术报告中所强调的强化学习和推断阶段的 Scaling Law 如何实现?

来自主题: AI技术研报
5303 点击    2024-10-14 15:37
李飞飞「数字表兄弟」破解机器人训练难题!零样本sim2real成功率高达90%

李飞飞「数字表兄弟」破解机器人训练难题!零样本sim2real成功率高达90%

李飞飞「数字表兄弟」破解机器人训练难题!零样本sim2real成功率高达90%

在用模拟环境训练机器人时,所用的数据与真实世界存在着巨大的差异。为此,李飞飞团队提出「数字表亲」,这种虚拟资产既具备数字孪生的优势,还能补足泛化能力的不足,并大大降低了成本。

来自主题: AI技术研报
7807 点击    2024-10-14 15:30
扩散模型训练方法一直错了!谢赛宁:Representation matters

扩散模型训练方法一直错了!谢赛宁:Representation matters

扩散模型训练方法一直错了!谢赛宁:Representation matters

是什么让纽约大学著名研究者谢赛宁三连呼喊「Representation matters」?他表示:「我们可能一直都在用错误的方法训练扩散模型。」即使对生成模型而言,表征也依然有用。基于此,他们提出了 REPA,即表征对齐技术,其能让「训练扩散 Transformer 变得比你想象的更简单。」

来自主题: AI技术研报
5167 点击    2024-10-14 15:22
AI作曲缺数据,浙大GTSinger数据集上线:适配所有歌声任务、带有真实乐谱

AI作曲缺数据,浙大GTSinger数据集上线:适配所有歌声任务、带有真实乐谱

AI作曲缺数据,浙大GTSinger数据集上线:适配所有歌声任务、带有真实乐谱

传统的歌声任务,如歌声合成,大多是在利用输入的歌词和乐谱生成高质量的歌声。随着深度学习的发展,人们希望实现可控和能个性化定制的歌声生成。

来自主题: AI技术研报
7810 点击    2024-10-14 10:38
大模型「强崩溃」!Meta新作:合成数据有「剧毒」,1%即成LLM杀手

大模型「强崩溃」!Meta新作:合成数据有「剧毒」,1%即成LLM杀手

大模型「强崩溃」!Meta新作:合成数据有「剧毒」,1%即成LLM杀手

1%的合成数据,就让LLM完全崩溃了? 7月,登上Nature封面一篇论文证实,用合成数据训练模型就相当于「近亲繁殖」,9次迭代后就会让模型原地崩溃。

来自主题: AI技术研报
5986 点击    2024-10-14 10:12
OpenAI今天Open了一下:开源多智能体框架Swarm

OpenAI今天Open了一下:开源多智能体框架Swarm

OpenAI今天Open了一下:开源多智能体框架Swarm

毫无疑问,多智能体肯定是 OpenAI 未来重要的研究方向之一,前些天 OpenAI 著名研究科学家 Noam Brown 还在 X 上为 OpenAI 正在组建的一个新的多智能体研究团队招募机器学习工程师。

来自主题: AI技术研报
7422 点击    2024-10-12 15:02
六年、六届学生接力,共铸上交大图像合成工具箱libcom

六年、六届学生接力,共铸上交大图像合成工具箱libcom

六年、六届学生接力,共铸上交大图像合成工具箱libcom

如果你对 arXiv 的版本号有所了解,你就知道这篇论文已经更新了 4 次,现在已经来到了第 5 个版本。实际上,这个 arXiv 编号属于上海交通大学牛力团队一篇持续更新了四年的综述报告。

来自主题: AI技术研报
6610 点击    2024-10-12 14:51
NeurIPS 2024 | Transformer长度外推,全新位置编码DAPE大幅提升模型性能

NeurIPS 2024 | Transformer长度外推,全新位置编码DAPE大幅提升模型性能

NeurIPS 2024 | Transformer长度外推,全新位置编码DAPE大幅提升模型性能

在当今的人工智能领域,Transformer 模型已成为解决诸多自然语言处理任务的核心。然而,Transformer 模型在处理长文本时常常遇到性能瓶颈。传统的位置编码方法,如绝对位置编码(APE)和相对位置编码(RPE),虽然在许多任务中表现良好,但其固定性限制了其在处理超长文本时的适应性和灵活性。

来自主题: AI技术研报
8128 点击    2024-10-12 14:29
米开朗基罗怎么说?谷歌DeepMind推出长上下文评估新框架

米开朗基罗怎么说?谷歌DeepMind推出长上下文评估新框架

米开朗基罗怎么说?谷歌DeepMind推出长上下文评估新框架

近日,来自谷歌DeepMind的研究人员提出了Michelangelo,「用米开朗基罗的观点」来测量任意上下文长度的基础模型性能。

来自主题: AI技术研报
5027 点击    2024-10-12 11:07
NeurIPS 2024 | 大模型的词表大小,同样适用于Scaling Law

NeurIPS 2024 | 大模型的词表大小,同样适用于Scaling Law

NeurIPS 2024 | 大模型的词表大小,同样适用于Scaling Law

本文是一篇发表在 NeurIPS 2024 上的论文,单位是香港大学、Sea AI Lab、Contextual AI 和俄亥俄州立大学。论文主要探讨了大型语言模型(LLMs)的词表大小对模型性能的影响。

来自主题: AI技术研报
7914 点击    2024-10-11 13:55
首个AI Kaggle特级大师诞生,o1夺7金封王!OpenAI放出AGI大招:L3级智能体明年要来?

首个AI Kaggle特级大师诞生,o1夺7金封王!OpenAI放出AGI大招:L3级智能体明年要来?

首个AI Kaggle特级大师诞生,o1夺7金封王!OpenAI放出AGI大招:L3级智能体明年要来?

OpenAI即将要兑现L3级智能体承诺了!MLE-bench新基准汇聚75个Kaggle竞赛,o1首测便拿下7金,多次尝试性能还能飙升17%,堪称首个AI Kaggle特级大师。

来自主题: AI技术研报
7872 点击    2024-10-11 11:14
诺贝尔文学奖要颁给ChatGPT?奥特曼得奖呼声高,Hinton怒斥:他不配!

诺贝尔文学奖要颁给ChatGPT?奥特曼得奖呼声高,Hinton怒斥:他不配!

诺贝尔文学奖要颁给ChatGPT?奥特曼得奖呼声高,Hinton怒斥:他不配!

本届诺奖的AI含量,实在是过高了!今晚的文学奖会颁给ChatGPT或者奥特曼吗?已经有一大波网友下注了。另一边,Hinton已经炮轰起了奥特曼,力挺Ilya当初赶走他;而LSTM之父则怒斥Hinton不配诺奖。

来自主题: AI技术研报
8675 点击    2024-10-10 19:02
NeurIPS 2024|SparseLLM:突破性全局剪枝技术,大语言模型稀疏化革命

NeurIPS 2024|SparseLLM:突破性全局剪枝技术,大语言模型稀疏化革命

NeurIPS 2024|SparseLLM:突破性全局剪枝技术,大语言模型稀疏化革命

该研究主要探讨了大语言模型的全局剪枝方法,旨在提高预训练语言模型的效率。该成果的发表为大模型的剪枝与优化研究提供了新的视角,并在相关领域具有重要的应用潜力。

来自主题: AI技术研报
6149 点击    2024-10-10 17:17
清华微软最新力作:用物理学革新Transformer注意力,「大海捞针」精度暴涨30%!

清华微软最新力作:用物理学革新Transformer注意力,「大海捞针」精度暴涨30%!

清华微软最新力作:用物理学革新Transformer注意力,「大海捞针」精度暴涨30%!

随着诺贝尔物理学奖颁给了「机器学习之父」Geoffrey Hinton,另一个借鉴物理学概念的模型架构也横空出世——微软清华团队的最新架构Differential Transformer,从注意力模块入手,实现了Transformer的核心能力提升。

来自主题: AI技术研报
9151 点击    2024-10-10 14:24