AI资讯新闻榜单内容搜索-7

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 7
GPU泡沫破灭前夜:2美元/小时出租,H100算力价格暴跌75%

GPU泡沫破灭前夜:2美元/小时出租,H100算力价格暴跌75%

GPU泡沫破灭前夜:2美元/小时出租,H100算力价格暴跌75%

红杉资本的报告曾指出,AI产业的年产值超过6000亿美元,才够支付数据中心、加速GPU卡等AI基础设施费用。而现在一种普遍说法认为,基础模型训练的资本支出是“历史上贬值最快的资产”,但关于GPU基础设施支出的判定仍未出炉,GPU土豪战争仍在进行。

来自主题: AI资讯
7165 点击    2024-10-18 10:02
AI泡沫不可避免,李彦宏敲响警钟:PMF是生存关键

AI泡沫不可避免,李彦宏敲响警钟:PMF是生存关键

AI泡沫不可避免,李彦宏敲响警钟:PMF是生存关键

10月3日,OpenAI官方宣布成功获得66亿美元(约合人民币466.9亿元)融资。本轮融资结束后,OpenAI估值突破了1500亿美元。新一轮融资规模不小,然而却只够Open“烧”一年,其预计,今年营收可达37亿美元,亏损幅度为50亿美元。

来自主题: AI资讯
6553 点击    2024-10-18 09:38
4090笔记本0.37秒直出大片!英伟达联手MIT清华祭出Sana架构,速度秒杀FLUX

4090笔记本0.37秒直出大片!英伟达联手MIT清华祭出Sana架构,速度秒杀FLUX

4090笔记本0.37秒直出大片!英伟达联手MIT清华祭出Sana架构,速度秒杀FLUX

一台4090笔记本,秒生1K质量高清图。英伟达联合MIT清华团队提出的Sana架构,得益于核心架构创新,具备了惊人的图像生成速度,而且最高能实现4k分辨率。

来自主题: AI技术研报
5037 点击    2024-10-17 16:01
英伟达开源新王登基!70B刷爆SOTA,击败GPT-4o只服OpenAI o1

英伟达开源新王登基!70B刷爆SOTA,击败GPT-4o只服OpenAI o1

英伟达开源新王登基!70B刷爆SOTA,击败GPT-4o只服OpenAI o1

英伟达开源了超强模型Nemotron-70B,后者一经发布就超越了GPT-4o和Claude 3.5 Sonnet,仅次于OpenAI o1!AI社区惊呼:新的开源王者又来了?业内直呼:用Llama 3.1训出小模型吊打GPT-4o,简直是神来之笔!

来自主题: AI技术研报
5047 点击    2024-10-17 15:51
深度:OpenAI大清洗

深度:OpenAI大清洗

深度:OpenAI大清洗

AI人才大震荡!17位高管“解雇”CEO,一场轰动科技圈的换将门

来自主题: AI资讯
4432 点击    2024-10-16 11:22
中美AI对比:独角兽篇

中美AI对比:独角兽篇

中美AI对比:独角兽篇

中国独角兽公司的平均估值约为 27.83 亿美元,而美国独角兽公司的平均估值约为 52.16 亿美元。美国是中国的接近2倍。

来自主题: AI资讯
6410 点击    2024-10-15 16:56
AI模型识别出16万种新病毒,其中7万种前所未见

AI模型识别出16万种新病毒,其中7万种前所未见

AI模型识别出16万种新病毒,其中7万种前所未见

世界上充满了病毒。这些传染性生物体被广泛认为是地球上最丰富的生物实体。但我们对病毒及其在我们世界中所扮演角色的全面理解受到了我们对其惊人多样性知识匮乏的限制。

来自主题: AI资讯
9006 点击    2024-10-14 17:22
陶哲轩用AI证明方程理论,19天进度99.99%!论文即将上线

陶哲轩用AI证明方程理论,19天进度99.99%!论文即将上线

陶哲轩用AI证明方程理论,19天进度99.99%!论文即将上线

AI已完全融入数学家的工作流中。陶哲轩刚刚宣布,最新方程理论项目已完成99.9963%,众包之力外加AI辅助取得了重大成绩。他认为,剩余大约700个让人类头疼的难题,AI或许更有潜力。

来自主题: AI技术研报
5031 点击    2024-10-14 16:42
除了Ilya,刚拿诺奖的Hinton还教出了这些AI博士

除了Ilya,刚拿诺奖的Hinton还教出了这些AI博士

除了Ilya,刚拿诺奖的Hinton还教出了这些AI博士

自近日获知自己摘得诺贝尔物理学奖之后,76 岁的人工智能教父 Geoffrey Hinton 便「闲不住」了。

来自主题: AI资讯
9128 点击    2024-10-14 10:20
大模型「强崩溃」!Meta新作:合成数据有「剧毒」,1%即成LLM杀手

大模型「强崩溃」!Meta新作:合成数据有「剧毒」,1%即成LLM杀手

大模型「强崩溃」!Meta新作:合成数据有「剧毒」,1%即成LLM杀手

1%的合成数据,就让LLM完全崩溃了? 7月,登上Nature封面一篇论文证实,用合成数据训练模型就相当于「近亲繁殖」,9次迭代后就会让模型原地崩溃。

来自主题: AI技术研报
5984 点击    2024-10-14 10:12