We're in beta. Stay tuned for updates.x
Loading...
PODCAST

Seventy3

73播客,名字取材于Sheldon最喜欢的数字,内容由NotebookLM生成,每天跟随AI读AI业界论文。

All Episodes

00:19:16
【第73期】HiAR-ICL:LLM推理的ICL
Seventy3 ·
2024/12/12
zh-cn
00:23:00
【第72期】LLM-Brained GUI Agents: A Survey
Seventy3 ·
2024/12/11
zh-cn
00:27:35
【第71期】英伟达的audio大模型Fugatto
Seventy3 ·
2024/12/10
zh-cn
00:14:58
【第70期】O1 Replication Journey:Part 2
Seventy3 ·
2024/12/09
zh-cn
00:15:36
【第69期】O1 Replication Journey:Part 1
Seventy3 ·
2024/12/08
zh-cn
00:19:07
【第68期】stream-x算法,省去Experience Replay的在线强化学习
Seventy3 ·
2024/12/07
zh-cn
00:13:24
【第67期】BABY-AIGS:AI-Generated Science
Seventy3 ·
2024/12/06
zh-cn
00:19:48
【第66期】Anthropic研究:给LLM评估加点“统计学”
Seventy3 ·
2024/12/05
zh-cn
00:18:57
【第65期】Liquid Time-constant Networks:液体(神经)网络是什么?
Seventy3 ·
2024/12/04
zh-cn
00:21:55
【第64期】NeuroClips:从fMRI数据还原大脑中视频
Seventy3 ·
2024/12/03
zh-cn
00:12:05
【第63期】无论DPO还是PPO,Preference Feedback应该怎么用?
Seventy3 ·
2024/12/02
zh-cn
00:25:19
【第62期】sCMs:比Diffusion更快的图像生成算法
Seventy3 ·
2024/12/01
zh-cn
00:14:36
【第61期】大模型的「推理」是在做什么?
Seventy3 ·
2024/11/30
zh-cn
00:19:38
【第60期】RLTools:基于C++的开源强化学习工具
Seventy3 ·
2024/11/29
zh-cn
00:11:32
【第59期】SymDPO:多模态In-context learning提升技巧
Seventy3 ·
2024/11/28
zh-cn
00:17:30
【第58期】AM-RADIO,融合多种视觉大模型
Seventy3 ·
2024/11/27
zh-cn
00:12:29
【第57期】降低数值精度影响LLM数学推理能力
Seventy3 ·
2024/11/26
zh-cn
00:13:41
【第56期】o1的self-correction是一种In context Alignment
Seventy3 ·
2024/11/25
zh-cn
00:23:03
【第55期】RLInspect
Seventy3 ·
2024/11/24
zh-cn
00:12:08
【第54期】Impacts of AI on Innovation
Seventy3 ·
2024/11/23
zh-cn
578 results

Similar Podcasts