小米技术官方微博宣布,小米大模型团队在音频推理领域取得了显著进展。他们在受到 DeepSeek-R1的启发后,率先将强化学习算法应用于多模态音频理解任务。团队在短短一周内便以64.5% 的 SOTA(State Of The Art)准确率,登顶国际权威的 MMAU 音频理解评测榜,并同步将相关技术开源。

image

MMAU(Massive Multi-Task Audio Understanding and Reasoning)评测集是一个测试音频推理能力的重要标准,涵盖了一万条语音、环境音和音乐样本,旨在考察模型在多种技能上的表现。人类专家在该评测集上的准确率为82.23%,而目前该榜单上表现最好的模型为 OpenAI 的 GPT-4o,准确率为57.3%,其后是 Google DeepMind 的 Gemini2.0Flash,准确率为55.6%。

在小米团队的研究中,他们最初使用了清华大学发布的 AVQA 数据集进行微调,取得了51.8% 的准确率。但真正的突破是在将 DeepSeek-R1的 Group Relative Policy Optimization(GRPO)算法应用到 Qwen2-Audio-7B 模型后,仅用 AVQA 的3.8万条训练样本就实现了64.5% 的准确率,超越了现有的商业模型。

研究团队发现,当在训练过程中强制模型输出推理过程时,准确率反而下降至61.1%。这表明显式的思维链输出可能不利于模型训练,强化学习的实时反馈机制更有助于模型锁定高质量答案的分布区域。尽管他们已经取得了显著的准确率,但仍然距离人类专家的水平存在差距。

小米大模型团队的实验结果不仅展示了强化学习在音频推理领域的独特优势,也为未来的研究提供了新的思路。他们还将训练代码、模型参数以及技术报告开源,方便学术界和产业界进行进一步的研究和交流。

训练代码:https://github.com/xiaomi-research/r1-aqa

模型参数:https://huggingface.co/mispeech/r1-aqa

技术报告:https://arxiv.org/abs/2503.11197

交互 Demo:https://120.48.108.147:7860/

划重点:

🔍 小米大模型团队通过强化学习算法在音频推理领域取得突破,准确率达到64.5%。

📈 MMAU 评测集是音频推理能力的重要标准,当前人类专家准确率为82.23%。

💡 研究结果表明,强化学习的实时反馈机制对模型训练更为有效,未来研究仍需深入探索。