智能驾驶概念股是指那些在自动驾驶、智慧交通系统、车联网等领域具有核心技术或业务布局的上市公司股票。这些公司可能涉及自动驾驶演算法、高精度地图、光达、车载晶片、智慧座舱等关键技术领域。
Moriarty mcG 楼主 : 小米最近发布了MiMo,这是其首个开源的大型语言模型(LLM),专为推理任务设计,宣布于2025年4月30日。以下是基于可用信息的详细分解:什么是MiMo?MiMo(可能代表“有意识模型”或类似术语,尽管并未明确说明)是一个拥有70亿参数的LLM系列,由小米的LLM核心团队从头开始训练,专注于数学、编码和一般推理任务。通过预训练和后训练(强化学习,或RL)优化,以增强推理能力。MiMo-70亿系列包括:MiMo-70亿.Base:在约25万亿个标记上进行了预训练,采用多标记预测目标,以提高性能和推理速度。MiMo-70亿.SFT:经过监督微调的版本。MiMo-70亿.RL:从基础模型中通过RL调整,在数学和编码方面表现出色。MiMo-70亿.RL-Zero:从冷启动的监督微调模型中进行RL训练,在特定基准上达到了93.6%的成绩。性能尽管体积紧凑(70亿参数),MiMo在性能上优于更大的模型,如OpenAI的封闭源o1-mini和阿里巴巴的Qwen-320亿。在关键基准(如AIME24、AIME25、LiveCodeBench、MATH500、GPQA-金刚石)上的预览。例如,MiMo-70亿.RL在数学和编码任务上与o1-mini的表现持平。它使用三阶段的预训练数据混合和RL,结合了13万个经过筛选的数学/编码问题,通过基于规则的系统验证以确保质量。测试难度驱动的奖励系统和数据重采样增强了其优化。可用性MiMo是开源的,模型可在Hugging Face(https://huggingface.co/XiaomiMiMo)上获取。小米通过一个分支版本的vLLM支持推理,尽管与其他引擎的兼容性尚未验证。团队欢迎对mimo@xiaomi.com的贡献和反馈。发布包括所有模型变体的检查点,旨在为更广泛的人工智能社区提供构建以推理为重点的LLM的洞见。重要性MiMo标志着小米进入竞争激烈的人工智能领域,展示了其超越硬件的雄心。社交媒体上的帖子突出其紧凑效率和卓越性能,赞扬小米在开源人工智能方面的创新。与专有模型不同,MiMo的开源特性使开发人员和研究人员能够适应和基于此进行构建,可能加速针对推理为重点的人工智能应用的进步。
TheAugustBull八月牛 : 很猛呀!
M55 : 还需要等待关税结束去进腾讯吗
包包的粉粉 : 强 谢谢包包推荐 爱你
旋风小子 : 一如即往(的吗)
cswong9696 : Call吗?姐
查看更多评论...
WHHK : 很硬
Moriarty mcG : 我在这里
Saywallahcuzzy 楼主 Moriarty mcG : 我们在一起飞翔
Moriarty mcG Saywallahcuzzy 楼主 : 我们确实是。50岁快到了。
Moriarty mcG Saywallahcuzzy 楼主 : 我以为今天的所有板块会热闹。没有,都是相当沉闷。
Moriarty mcG Saywallahcuzzy 楼主 : 查看MiMo的资讯。这个东西真的在上涨。还会涨得更高。
Saywallahcuzzy : 救命。我害怕高处。
Johnny Climber : 我会在50以后继续卖一些
我爱Mikasa Johnny Climber : bro不等它5月出财报可能再破新高
Johnny Climber 我爱Mikasa : 我会卖一点腾出一点钱出来,但还是留了底仓。前段时间在48.3左右卖了不少小米才有钱去买泡泡
Johnny Climber : 成交量上来了,加油
103368659 : 明天 劳动节,市场关闭兄弟
WHHK : 明天关哦
别看我我 楼主 103368659 : 那等五一过后 小米芯片发布会吧
Johnny Climber 别看我我 楼主 : 后天仍然可以交易
暂无评论
Moriarty mcG 楼主 : 小米最近发布了MiMo,这是其首个开源的大型语言模型(LLM),专为推理任务设计,宣布于2025年4月30日。以下是基于可用信息的详细分解:
什么是MiMo?
MiMo(可能代表“有意识模型”或类似术语,尽管并未明确说明)是一个拥有70亿参数的LLM系列,由小米的LLM核心团队从头开始训练,专注于数学、编码和一般推理任务。通过预训练和后训练(强化学习,或RL)优化,以增强推理能力。
MiMo-70亿系列包括:
MiMo-70亿.Base:在约25万亿个标记上进行了预训练,采用多标记预测目标,以提高性能和推理速度。
MiMo-70亿.SFT:经过监督微调的版本。
MiMo-70亿.RL:从基础模型中通过RL调整,在数学和编码方面表现出色。
MiMo-70亿.RL-Zero:从冷启动的监督微调模型中进行RL训练,在特定基准上达到了93.6%的成绩。
性能
尽管体积紧凑(70亿参数),MiMo在性能上优于更大的模型,如OpenAI的封闭源o1-mini和阿里巴巴的Qwen-320亿。
在关键基准(如AIME24、AIME25、LiveCodeBench、MATH500、GPQA-金刚石)上的预览。例如,MiMo-70亿.RL在数学和编码任务上与o1-mini的表现持平。
它使用三阶段的预训练数据混合和RL,结合了13万个经过筛选的数学/编码问题,通过基于规则的系统验证以确保质量。测试难度驱动的奖励系统和数据重采样增强了其优化。
可用性
MiMo是开源的,模型可在Hugging Face(https://huggingface.co/XiaomiMiMo)上获取。小米通过一个分支版本的vLLM支持推理,尽管与其他引擎的兼容性尚未验证。团队欢迎对mimo@xiaomi.com的贡献和反馈。
发布包括所有模型变体的检查点,旨在为更广泛的人工智能社区提供构建以推理为重点的LLM的洞见。
重要性
MiMo标志着小米进入竞争激烈的人工智能领域,展示了其超越硬件的雄心。社交媒体上的帖子突出其紧凑效率和卓越性能,赞扬小米在开源人工智能方面的创新。
与专有模型不同,MiMo的开源特性使开发人员和研究人员能够适应和基于此进行构建,可能加速针对推理为重点的人工智能应用的进步。