AI资讯新闻榜单内容搜索-模型训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 模型训练
图灵奖得主Yoshua Bengio新作:Were RNNs All We Needed?

图灵奖得主Yoshua Bengio新作:Were RNNs All We Needed?

图灵奖得主Yoshua Bengio新作:Were RNNs All We Needed?

自从 Transformer 模型问世以来,试图挑战其在自然语言处理地位的挑战者层出不穷。 这次登场的选手,不仅要挑战 Transformer 的地位,还致敬了经典论文的名字。 再看这篇论文的作者列表,图灵奖得主、深度学习三巨头之一的 Yoshua Bengio 赫然在列。

来自主题: AI技术研报
5822 点击    2024-10-14 15:42
扩散模型训练方法一直错了!谢赛宁:Representation matters

扩散模型训练方法一直错了!谢赛宁:Representation matters

扩散模型训练方法一直错了!谢赛宁:Representation matters

是什么让纽约大学著名研究者谢赛宁三连呼喊「Representation matters」?他表示:「我们可能一直都在用错误的方法训练扩散模型。」即使对生成模型而言,表征也依然有用。基于此,他们提出了 REPA,即表征对齐技术,其能让「训练扩散 Transformer 变得比你想象的更简单。」

来自主题: AI技术研报
5244 点击    2024-10-14 15:22
AI作曲缺数据,浙大GTSinger数据集上线:适配所有歌声任务、带有真实乐谱

AI作曲缺数据,浙大GTSinger数据集上线:适配所有歌声任务、带有真实乐谱

AI作曲缺数据,浙大GTSinger数据集上线:适配所有歌声任务、带有真实乐谱

传统的歌声任务,如歌声合成,大多是在利用输入的歌词和乐谱生成高质量的歌声。随着深度学习的发展,人们希望实现可控和能个性化定制的歌声生成。

来自主题: AI技术研报
7874 点击    2024-10-14 10:38
大模型「强崩溃」!Meta新作:合成数据有「剧毒」,1%即成LLM杀手

大模型「强崩溃」!Meta新作:合成数据有「剧毒」,1%即成LLM杀手

大模型「强崩溃」!Meta新作:合成数据有「剧毒」,1%即成LLM杀手

1%的合成数据,就让LLM完全崩溃了? 7月,登上Nature封面一篇论文证实,用合成数据训练模型就相当于「近亲繁殖」,9次迭代后就会让模型原地崩溃。

来自主题: AI技术研报
6070 点击    2024-10-14 10:12
深度|普林斯顿教授Arvind:构建大参数模型不再有效,数据正成为瓶颈;社会对AI过度恐惧

深度|普林斯顿教授Arvind:构建大参数模型不再有效,数据正成为瓶颈;社会对AI过度恐惧

深度|普林斯顿教授Arvind:构建大参数模型不再有效,数据正成为瓶颈;社会对AI过度恐惧

计算资源并非性能提升的唯一途径:Arvind Narayanan 认为,仅仅增加计算资源并不总是能带来模型性能的等比提升。目前,数据量正逐渐成为限制AI发展的主要瓶颈。

来自主题: AI资讯
5869 点击    2024-10-14 09:17
NeurIPS 2024 | Transformer长度外推,全新位置编码DAPE大幅提升模型性能

NeurIPS 2024 | Transformer长度外推,全新位置编码DAPE大幅提升模型性能

NeurIPS 2024 | Transformer长度外推,全新位置编码DAPE大幅提升模型性能

在当今的人工智能领域,Transformer 模型已成为解决诸多自然语言处理任务的核心。然而,Transformer 模型在处理长文本时常常遇到性能瓶颈。传统的位置编码方法,如绝对位置编码(APE)和相对位置编码(RPE),虽然在许多任务中表现良好,但其固定性限制了其在处理超长文本时的适应性和灵活性。

来自主题: AI技术研报
8205 点击    2024-10-12 14:29
米开朗基罗怎么说?谷歌DeepMind推出长上下文评估新框架

米开朗基罗怎么说?谷歌DeepMind推出长上下文评估新框架

米开朗基罗怎么说?谷歌DeepMind推出长上下文评估新框架

近日,来自谷歌DeepMind的研究人员提出了Michelangelo,「用米开朗基罗的观点」来测量任意上下文长度的基础模型性能。

来自主题: AI技术研报
5072 点击    2024-10-12 11:07
一文看懂LLM推理,UCL汪军教授解读OpenAI ο1的相关方法

一文看懂LLM推理,UCL汪军教授解读OpenAI ο1的相关方法

一文看懂LLM推理,UCL汪军教授解读OpenAI ο1的相关方法

OpenAI 最近发布的 o1 系列模型堪称迈向强人工智能的一次飞跃,其强大的推理能力为我们描绘出了下一代人工智能模型的未来图景。近日,伦敦大学学院(UCL)人工智能中心汪军教授撰写了一份「LLM 推理教程」,深入详细地介绍了 OpenAI ο1 模型背后的相关方法。

来自主题: AI资讯
4300 点击    2024-10-11 14:42