当前位置: 科技先知道 » 人工智能 » 贾佳亚教授GAIR演讲:模型智能跃升的关键在于优化神经元连接,而非盲目追求规模

贾佳亚教授GAIR演讲:模型智能跃升的关键在于优化神经元连接,而非盲目追求规模

在近日于深圳召开的第八届GAIR全球人工智能与机器人大会上,香港科技大学讲座教授、冯诺依曼研究院院长贾佳亚教授发表了开场报告,分享了对大模型发展路径的深刻思考。他指出,模型的智力并非单纯由神经元数量决定,优化神经元之间的连接方式才是实现智能跃升的“关键密码”。

贾佳亚教授回顾了其团队近年的突破性成果。2023年,他们发布了全球首个支持32K长文本理解的LongLoRA技术,让大模型首次能够“阅读”并分析整本书籍。2024年推出的多模态模型Mini-Gemini,在GitHub上获得超3000星标,曾是开源社区性能最强的模型。其最新版本更集成了完整的中文语音系统,支持长视频理解与无样本音色克隆,有效解决了中文语音系统的混乱痛点。

在图像生成与编辑领域,其团队成果同样令人瞩目。轻量化操作模型ControlNeXt可实现图像风格转换与动效生成。而仅由两名学生用500张卡、耗时半年开发的DreamOmni2智能图像编辑系统,在多项功能上对标甚至超越了投入超50亿美金的Nano Banana系统,展现了“聪明制胜”的研发效率。

基于这些实践,贾佳亚提出了对大模型发展的核心见解。他认为,当前遵循Scaling Law扩大模型规模是基本方向,但同等重要的是“改善神经元连接方式”。从卷积神经网络到Transformer的演进,本质都是连接方式的革新,这带来了智能的万倍提升。他预测,未来会出现比Transformer更优的架构。

展望未来,贾佳亚指出人工智能的两大发展重心:一是训练方法需从一次性学习转向像人类一样的连续终身学习;二是必须结合机器人等实体作为感知载体,弥补当前AI缺乏物理交互能力的短板。他相信,感知机器与终身学习结合的模式,将在未来五到十年持续推动AI取得巨大进步。

贾佳亚的分享为行业提供了超越单纯规模竞赛的新视角,强调通过架构创新与学习范式变革,以更高效的路径实现人工智能的真正突破。

未经允许不得转载:科技先知道 » 贾佳亚教授GAIR演讲:模型智能跃升的关键在于优化神经元连接,而非盲目追求规模

相关文章

My title