昨天收到 github 上的通知邮件,说我两年前提的 issue 终于被关闭了。
两年前看到 Mojo,还比较感兴趣,因此自学了一阵,还写了个 Mojo 的学习笔记系列。那时候 Mojo 刚刚开源,还处于非常早期的阶段,感觉问题很多,因此也就放下了。收到这个邮件后,又看了看,Mojo 已经走过了很长的路,离 1.0 越来越近了。
Modular 官方在去年底公布了 Mojo 1.0 的路线图,把发展分为四个阶段:
- Phase 0:初始启动,建立基础语言能力——这就是我之前写学习笔记时的 Mojo
- Phase 1:高性能 CPU + GPU 内核编程——当前阶段
- Phase 2:系统编程,支持构建编译器、运行时等底层系统
- Phase 3:动态 OOP,完整的面向对象和动态特性
目前 Mojo 正在 Phase 1,1.0 版本预计会在 2026 年的某个时间点发布。
最新的版本是2026年3月19日发布的 Mojo V0.26.2版本,这是一次包含多项重要语言特性更新的版本。和两年前我看的时候比起来,在语言层面上有很多更新亮点,另外在GPU支持的扩展,生态和工具链方面都有了很大的改善。
Mojo 的定位一直很清晰:做 AI 和高性能计算领域的 Python 替代者。不是要取代 Python 做胶水语言的地位,而是在需要性能的地方给你一个不需要换语言生态的选项。Mojo早期宣传中曾宣称是 “Python的超集”,但最近,Modular悄然调整了这一说法,官方文档中删除了这一表述,转而强调“Python的语法和生态兼容性”。
GPU 内核编程是 AI 工程中最需要性能的地方,而 Mojo 用同一套语法覆盖了从上层逻辑到底层内核的全栈——这在当前的语言生态中几乎没有替代品。但挑战也很明显:社区规模仍然不大,学习曲线比纯 Python 陡峭得多,而且 1.0 还没发布,API 稳定性无法保证。当年 Swift 也是 Chris Lattner 设计的,用了好几年才建立起成熟的生态。Mojo 恐怕也需要类似的耐心。
另一个值得关注的点是,在 AI 辅助编程越来越普及的今天,”学习曲线”这件事本身可能正在被重新定义。如果 AI 能帮你写 Mojo 代码,那”语法复杂”就不再是那么大的障碍了。真正重要的,是语言的设计理念是否正确——而 Mojo 的理念(Python 语法 + 系统级性能 + 编译期元编程),在 AI 时代可能会有它的价值。