AI技术研报-这里有最前沿的人工智能技术解读

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
人类偏好优化算法哪家强?跟着高手一文学懂DPO、IPO和KTO

人类偏好优化算法哪家强?跟着高手一文学懂DPO、IPO和KTO

人类偏好优化算法哪家强?跟着高手一文学懂DPO、IPO和KTO

尽管收集人类对模型生成内容的相对质量的标签,并通过强化学习从人类反馈(RLHF)来微调无监督大语言模型,使其符合这些偏好的方法极大地推动了对话式人工智能的发展。

来自主题: AI技术研报
8786 点击    2024-02-18 12:25
谷歌Gemini 1.5深夜爆炸上线,史诗级多模态硬刚GPT-5!最强MoE首破100万极限上下文纪录

谷歌Gemini 1.5深夜爆炸上线,史诗级多模态硬刚GPT-5!最强MoE首破100万极限上下文纪录

谷歌Gemini 1.5深夜爆炸上线,史诗级多模态硬刚GPT-5!最强MoE首破100万极限上下文纪录

刚刚,我们经历了LLM划时代的一夜。谷歌又在深夜发炸弹,Gemini Ultra发布还没几天,Gemini 1.5就来了。卯足劲和OpenAI微软一较高下的谷歌,开始进入了高产模式。

来自主题: AI技术研报
11607 点击    2024-02-17 12:43
使用GPT-4,学渣比学霸更有优势

使用GPT-4,学渣比学霸更有优势

使用GPT-4,学渣比学霸更有优势

如果允许学生用AI“作弊”,他们的成绩分布会发生怎样的变化?

来自主题: AI技术研报
9607 点击    2024-02-17 12:33
下一代Windows系统曝光:基于GPT-4V,Agent跨应用调度,代号UFO

下一代Windows系统曝光:基于GPT-4V,Agent跨应用调度,代号UFO

下一代Windows系统曝光:基于GPT-4V,Agent跨应用调度,代号UFO

微软首个为Windows而设的智能体(Agent) 亮相:基于GPT-4V,一句话就可以在多个应用中无缝切换,完成复杂任务。整个过程无需人为干预,其执行成功率和效率是GPT-4的两倍,GPT-3.5的四倍。

来自主题: AI技术研报
10563 点击    2024-02-17 12:25
RAG还是微调?微软出了一份特定领域大模型应用建设流程指南

RAG还是微调?微软出了一份特定领域大模型应用建设流程指南

RAG还是微调?微软出了一份特定领域大模型应用建设流程指南

检索增强生成(RAG)和微调(Fine-tuning)是提升大语言模型性能的两种常用方法,那么到底哪种方法更好?在建设特定领域的应用时哪种更高效?微软的这篇论文供你选择时进行参考。

来自主题: AI技术研报
6277 点击    2024-02-17 12:09
我们还需要Transformer中的注意力吗?

我们还需要Transformer中的注意力吗?

我们还需要Transformer中的注意力吗?

状态空间模型正在兴起,注意力是否已到尽头?

来自主题: AI技术研报
10443 点击    2024-02-17 12:03
推倒万亿参数大模型内存墙,万字长文:从第一性原理看神经网络量化

推倒万亿参数大模型内存墙,万字长文:从第一性原理看神经网络量化

推倒万亿参数大模型内存墙,万字长文:从第一性原理看神经网络量化

为了应对大模型不断复杂的推理和训练,英伟达、AMD、英特尔、谷歌、微软、Meta、Arm、高通、MatX以及Lemurian Labs,纷纷开始研发全新的硬件解决方案。

来自主题: AI技术研报
8755 点击    2024-02-17 11:06
文生图新SOTA!Pika北大斯坦福联合推出RPG,多模态助力解决文生图两大难题

文生图新SOTA!Pika北大斯坦福联合推出RPG,多模态助力解决文生图两大难题

文生图新SOTA!Pika北大斯坦福联合推出RPG,多模态助力解决文生图两大难题

近日,北大、斯坦福、以及Pika Labs发布了新的开源文生图框架,利用多模态LLM的能力成功解决文生图两大难题,表现超越SDXL和DALL·E 3

来自主题: AI技术研报
5273 点击    2024-02-17 11:00
Github2.5k星,Karpathy转赞,「流程工程」让LLM代码能力瞬间翻倍,直接淘汰提示工程

Github2.5k星,Karpathy转赞,「流程工程」让LLM代码能力瞬间翻倍,直接淘汰提示工程

Github2.5k星,Karpathy转赞,「流程工程」让LLM代码能力瞬间翻倍,直接淘汰提示工程

Karpathy力推代码生成任务增强流程,让GPT-4在CodeContests从19%提升到44%,不用微调不用新数据集训练,让大模型代码能力大幅提升。

来自主题: AI技术研报
9392 点击    2024-02-17 10:55
语音生成的「智能涌现」:10万小时数据训练,亚马逊祭出10亿参数BASE TTS

语音生成的「智能涌现」:10万小时数据训练,亚马逊祭出10亿参数BASE TTS

语音生成的「智能涌现」:10万小时数据训练,亚马逊祭出10亿参数BASE TTS

伴随着生成式深度学习模型的飞速发展,自然语言处理(NLP)和计算机视觉(CV)已经经历了根本性的转变,从有监督训练的专门模型,转变为只需有限的明确指令就能完成各种任务的通用模型

来自主题: AI技术研报
5507 点击    2024-02-15 21:45
性能提升、成本降低,这是分布式强化学习算法最新研究进展

性能提升、成本降低,这是分布式强化学习算法最新研究进展

性能提升、成本降低,这是分布式强化学习算法最新研究进展

分布式强化学习是一个综合的研究子领域,需要深度强化学习算法以及分布式系统设计的互相感知和协同。考虑到 DDRL 的巨大进步,我们梳理形成了 DDRL 技术的展历程、挑战和机遇的系列文章。

来自主题: AI技术研报
3172 点击    2024-02-13 14:05
LLM是世界模型的新证据?ChatGPT能理解WiFi等物理信号,并猜出你的位置

LLM是世界模型的新证据?ChatGPT能理解WiFi等物理信号,并猜出你的位置

LLM是世界模型的新证据?ChatGPT能理解WiFi等物理信号,并猜出你的位置

最近来自香港科技大学(HKUST)、南洋理工大学(NTU)与加利福尼亚大学洛杉矶分校(UCLA)的研究者们提供了新的思路:他们发现大语言模型如 ChatGPT 可以理解传感器信号进而完成物理世界中的任务。该项目初步成果发表于 ACM HotMobile 2024。

来自主题: AI技术研报
4459 点击    2024-02-12 17:26
首席AI教育者Sebastian Raschka博士推荐的2023年最具影响力的 10 篇AI论文

首席AI教育者Sebastian Raschka博士推荐的2023年最具影响力的 10 篇AI论文

首席AI教育者Sebastian Raschka博士推荐的2023年最具影响力的 10 篇AI论文

抱着年终总结,也是对过去一年回顾与展望的态度,来自 Ahead AI 的 Sebastian Raschka 博士为我们带来了 2023 年最值得大家关注,也是最有影响力的十篇 AI 论文,这里我们就和大家一起,用这十篇工作再次为 2023 年写下一段注脚

来自主题: AI技术研报
5035 点击    2024-02-11 11:58
陈丹琦团队新作:数据量砍95%,大模型性能更强了!Less is More

陈丹琦团队新作:数据量砍95%,大模型性能更强了!Less is More

陈丹琦团队新作:数据量砍95%,大模型性能更强了!Less is More

造大模型的成本,又被打下来了!这次是数据量狂砍95%的那种。陈丹琦团队最新提出大模型降本大法——数据选择算法LESS, 只筛选出与任务最相关5%数据来进行指令微调,效果比用整个数据集还要好。

来自主题: AI技术研报
4457 点击    2024-02-10 13:15
ICLR 2024 | 单图三维重建数字虚拟人,浙大&字节提出Real3D-Portrait算法

ICLR 2024 | 单图三维重建数字虚拟人,浙大&字节提出Real3D-Portrait算法

ICLR 2024 | 单图三维重建数字虚拟人,浙大&字节提出Real3D-Portrait算法

单图 3D 说话人视频合成 (One-shot 3D Talking Face Generation) 可以被视作解决这一难题的下一代虚拟人技术。它旨在从单张图片中重建出目标人的三维化身 (3D Avatar)

来自主题: AI技术研报
3973 点击    2024-02-10 13:06
谷歌提出全新RLHF方法:消除奖励模型,且无需对抗性训练

谷歌提出全新RLHF方法:消除奖励模型,且无需对抗性训练

谷歌提出全新RLHF方法:消除奖励模型,且无需对抗性训练

大型语言模型(LLM)的成功离不开「基于人类反馈的强化学习(RLHF)」。RLHF 可以大致可以分为两个阶段,首先,给定一对偏好和不偏好的行为,训练一个奖励模型,通过分类目标为前者分配更高的分数。

来自主题: AI技术研报
5647 点击    2024-02-10 13:02
ICLR 2024 | 首个零阶优化深度学习框架,MSU联合LLNL提出DeepZero

ICLR 2024 | 首个零阶优化深度学习框架,MSU联合LLNL提出DeepZero

ICLR 2024 | 首个零阶优化深度学习框架,MSU联合LLNL提出DeepZero

今天介绍一篇密歇根州立大学 (Michigan State University) 和劳伦斯・利弗莫尔国家实验室(Lawrence Livermore National Laboratory)的一篇关于零阶优化深度学习框架的文章 ,本文被 ICLR 2024 接收,代码已开源。

来自主题: AI技术研报
5645 点击    2024-02-09 14:11
进我的收藏夹吃灰吧:大模型加速超全指南来了

进我的收藏夹吃灰吧:大模型加速超全指南来了

进我的收藏夹吃灰吧:大模型加速超全指南来了

2023 年,大型语言模型(LLM)以其强大的生成、理解、推理等能力而持续受到高度关注。然而,训练和部署 LLM 非常昂贵,需要大量的计算资源和内存,因此研究人员开发了许多用于加速 LLM 预训练、微调和推理的方法。

来自主题: AI技术研报
4636 点击    2024-02-09 14:05
3B模型不输7B LLaVA!北大多模态MoE模型登GitHub热榜

3B模型不输7B LLaVA!北大多模态MoE模型登GitHub热榜

3B模型不输7B LLaVA!北大多模态MoE模型登GitHub热榜

混合专家(MoE)架构已支持多模态大模型,开发者终于不用卷参数量了!北大联合中山大学、腾讯等机构推出的新模型MoE-LLaVA,登上了GitHub热榜。

来自主题: AI技术研报
5517 点击    2024-02-09 13:54
「大模型变小」成年度大趋势!1月AI四大研究精彩亮点超长总结,模型合并MoE方法是主流​

「大模型变小」成年度大趋势!1月AI四大研究精彩亮点超长总结,模型合并MoE方法是主流​

「大模型变小」成年度大趋势!1月AI四大研究精彩亮点超长总结,模型合并MoE方法是主流​

AI大模型并非越大越好?过去一个月,关于大模型变小的研究成为亮点,通过模型合并,采用MoE架构都能实现小模型高性能。

来自主题: AI技术研报
6049 点击    2024-02-09 12:11
GPT-4推理能力暴涨32%,谷歌新型思维链效果超CoT,计算成本可降至1/40

GPT-4推理能力暴涨32%,谷歌新型思维链效果超CoT,计算成本可降至1/40

GPT-4推理能力暴涨32%,谷歌新型思维链效果超CoT,计算成本可降至1/40

谷歌&南加大推出最新研究“自我发现”(Self-Discover),重新定义了大模型推理范式。与已成行业标准的思维链(CoT)相比,新方法不仅让模型在面对复杂任务时表现更佳,还把同等效果下的推理成本压缩至1/40。

来自主题: AI技术研报
5341 点击    2024-02-08 19:44
7B开源数学模型干翻千亿GPT-4,中国团队出品

7B开源数学模型干翻千亿GPT-4,中国团队出品

7B开源数学模型干翻千亿GPT-4,中国团队出品

7B开源模型,数学能力超过了千亿规模的GPT-4!它的表现可谓是突破了开源模型的极限,连阿里通义的研究员也感叹缩放定律是不是失效了。

来自主题: AI技术研报
5713 点击    2024-02-08 13:30
小白也能看懂的国内外 AI 芯片概述

小白也能看懂的国内外 AI 芯片概述

小白也能看懂的国内外 AI 芯片概述

随着越来越多的企业将人工智能应用于其产品,AI芯片需求快速增长,市场规模增长显著。因此,本文主要针对目前市场上的AI芯片厂商及其产品进行简要概述。

来自主题: AI技术研报
12921 点击    2024-02-07 11:49
通义千问再开源,Qwen1.5带来六种体量模型,性能超越GPT3.5

通义千问再开源,Qwen1.5带来六种体量模型,性能超越GPT3.5

通义千问再开源,Qwen1.5带来六种体量模型,性能超越GPT3.5

赶在春节前,通义千问大模型(Qwen)的 1.5 版上线了。今天上午,新版本的消息引发了 AI 社区关注。

来自主题: AI技术研报
11063 点击    2024-02-06 15:04
三篇论文解决「语义分割的优化和评估」难题!鲁汶/清华/牛津等联合提出全新方法

三篇论文解决「语义分割的优化和评估」难题!鲁汶/清华/牛津等联合提出全新方法

三篇论文解决「语义分割的优化和评估」难题!鲁汶/清华/牛津等联合提出全新方法

现有的语义分割技术在评估指标、损失函数等设计上都存在缺陷,研究人员针对相关缺陷设计了全新的损失函数、评估指标和基准,在多个应用场景下展现了更高的准确性和校准性。

来自主题: AI技术研报
3783 点击    2024-02-06 14:47
GPT-4/Gemini大翻车,做旅行攻略成功率≈0%!复旦OSU等华人团队:Agent不会复杂任务规划

GPT-4/Gemini大翻车,做旅行攻略成功率≈0%!复旦OSU等华人团队:Agent不会复杂任务规划

GPT-4/Gemini大翻车,做旅行攻略成功率≈0%!复旦OSU等华人团队:Agent不会复杂任务规划

最近,复旦、俄亥俄州立大学、Meta和宾夕法尼亚州立大学的研究者发现,GPT-4 Agent规划旅行只有0.6%成功率!离在人类复杂环境中做出规划,智能体还任重道远。

来自主题: AI技术研报
9522 点击    2024-02-06 14:37
RECURRENTGPT: 交互式生成(任意的)长文本

RECURRENTGPT: 交互式生成(任意的)长文本

RECURRENTGPT: 交互式生成(任意的)长文本

Transformer的固定尺寸上下文使得GPT模型无法生成任意长的文本。在本文中,我们介绍了RECURRENTGPT,一个基于语言的模拟RNN中的递归机制。

来自主题: AI技术研报
6055 点击    2024-02-06 12:51