Moriarty mcG 楼主 : 小米最近发布了MiMo,这是其首个开源的大型语言模型(LLM),专为推理任务设计,宣布于2025年4月30日。以下是基于可用信息的详细分解:什么是MiMo?MiMo(可能代表“有意识模型”或类似术语,尽管并未明确说明)是一个拥有70亿参数的LLM系列,由小米的LLM核心团队从头开始训练,专注于数学、编码和一般推理任务。通过预训练和后训练(强化学习,或RL)优化,以增强推理能力。MiMo-70亿系列包括:MiMo-70亿.Base:在约25万亿个标记上进行了预训练,采用多标记预测目标,以提高性能和推理速度。MiMo-70亿.SFT:经过监督微调的版本。MiMo-70亿.RL:从基础模型中通过RL调整,在数学和编码方面表现出色。MiMo-70亿.RL-Zero:从冷启动的监督微调模型中进行RL训练,在特定基准上达到了93.6%的成绩。性能尽管体积紧凑(70亿参数),MiMo在性能上优于更大的模型,如OpenAI的封闭源o1-mini和阿里巴巴的Qwen-320亿。在关键基准(如AIME24、AIME25、LiveCodeBench、MATH500、GPQA-金刚石)上的预览。例如,MiMo-70亿.RL在数学和编码任务上与o1-mini的表现持平。它使用三阶段的预训练数据混合和RL,结合了13万个经过筛选的数学/编码问题,通过基于规则的系统验证以确保质量。测试难度驱动的奖励系统和数据重采样增强了其优化。可用性MiMo是开源的,模型可在Hugging Face(https://huggingface.co/XiaomiMiMo)上获取。小米通过一个分支版本的vLLM支持推理,尽管与其他引擎的兼容性尚未验证。团队欢迎对mimo@xiaomi.com的贡献和反馈。发布包括所有模型变体的检查点,旨在为更广泛的人工智能社区提供构建以推理为重点的LLM的洞见。重要性MiMo标志着小米进入竞争激烈的人工智能领域,展示了其超越硬件的雄心。社交媒体上的帖子突出其紧凑效率和卓越性能,赞扬小米在开源人工智能方面的创新。与专有模型不同,MiMo的开源特性使开发人员和研究人员能够适应和基于此进行构建,可能加速针对推理为重点的人工智能应用的进步。
jvls : 不,至少300
Johnny Climber : 能不能喘到180再让我买进来?
我爱Mikasa 楼主 Johnny Climber : 我决定了拿着,没在196的时候卖
Johnny Climber 我爱Mikasa 楼主 : emmm,这个价位上没有人说得清楚,有可能一下子冲到200,也有可能破了190去180,有点像是走钢丝的感觉。可能明天过节一部分人套利出货,终究这只股票还会上涨突破200
我爱Mikasa 楼主 Johnny Climber : 因为买卖费用太贵了我决定拿着就好,还有就是又怕卖飞了然后冲
Johnny Climber 我爱Mikasa 楼主 : 也是有道理等三点A股收盘后看看有没有资金进来拉高泡泡
查看更多评论...
TheAugustBull八月牛 : 很猛呀!
M55 : 还需要等待关税结束去进腾讯吗
包包的粉粉 : 强 谢谢包包推荐 爱你
旋风小子 : 一如即往(的吗)
cswong9696 : Call吗?姐
WHHK : 很硬
Moriarty mcG : 我在这里
Saywallahcuzzy 楼主 Moriarty mcG : 我们在一起飞翔
Moriarty mcG Saywallahcuzzy 楼主 : 我们确实是。50岁快到了。
Moriarty mcG Saywallahcuzzy 楼主 : 我以为今天的所有板块会热闹。没有,都是相当沉闷。
Moriarty mcG Saywallahcuzzy 楼主 : 查看MiMo的资讯。这个东西真的在上涨。还会涨得更高。
Saywallahcuzzy : 救命。我害怕高处。
Johnny Climber : 我会在50以后继续卖一些
我爱Mikasa Johnny Climber : bro不等它5月出财报可能再破新高
Johnny Climber 我爱Mikasa : 我会卖一点腾出一点钱出来,但还是留了底仓。前段时间在48.3左右卖了不少小米才有钱去买泡泡
暂无评论
Moriarty mcG 楼主 : 小米最近发布了MiMo,这是其首个开源的大型语言模型(LLM),专为推理任务设计,宣布于2025年4月30日。以下是基于可用信息的详细分解:
什么是MiMo?
MiMo(可能代表“有意识模型”或类似术语,尽管并未明确说明)是一个拥有70亿参数的LLM系列,由小米的LLM核心团队从头开始训练,专注于数学、编码和一般推理任务。通过预训练和后训练(强化学习,或RL)优化,以增强推理能力。
MiMo-70亿系列包括:
MiMo-70亿.Base:在约25万亿个标记上进行了预训练,采用多标记预测目标,以提高性能和推理速度。
MiMo-70亿.SFT:经过监督微调的版本。
MiMo-70亿.RL:从基础模型中通过RL调整,在数学和编码方面表现出色。
MiMo-70亿.RL-Zero:从冷启动的监督微调模型中进行RL训练,在特定基准上达到了93.6%的成绩。
性能
尽管体积紧凑(70亿参数),MiMo在性能上优于更大的模型,如OpenAI的封闭源o1-mini和阿里巴巴的Qwen-320亿。
在关键基准(如AIME24、AIME25、LiveCodeBench、MATH500、GPQA-金刚石)上的预览。例如,MiMo-70亿.RL在数学和编码任务上与o1-mini的表现持平。
它使用三阶段的预训练数据混合和RL,结合了13万个经过筛选的数学/编码问题,通过基于规则的系统验证以确保质量。测试难度驱动的奖励系统和数据重采样增强了其优化。
可用性
MiMo是开源的,模型可在Hugging Face(https://huggingface.co/XiaomiMiMo)上获取。小米通过一个分支版本的vLLM支持推理,尽管与其他引擎的兼容性尚未验证。团队欢迎对mimo@xiaomi.com的贡献和反馈。
发布包括所有模型变体的检查点,旨在为更广泛的人工智能社区提供构建以推理为重点的LLM的洞见。
重要性
MiMo标志着小米进入竞争激烈的人工智能领域,展示了其超越硬件的雄心。社交媒体上的帖子突出其紧凑效率和卓越性能,赞扬小米在开源人工智能方面的创新。
与专有模型不同,MiMo的开源特性使开发人员和研究人员能够适应和基于此进行构建,可能加速针对推理为重点的人工智能应用的进步。