在人工智能的海洋中,神经网络架构和预训练如同两颗璀璨的明珠,它们共同构成了大模型的内核。然而,这两项工作的打造难度之高,投入金额之大,耗费数据量之多,往往让人望而却步。
6月3日上午,面壁智能的CEO李大海在朋友圈发文回应了套壳争议。他表示:“我们对这件事深表遗憾。一方面感慨这也是一种受到国际团队认可的方式,另一方面呼吁大家共建开放、合作、有信任的社区环境。”
《时代周报》记者就如何规避套壳现象询问李大海,他回应称,应该很难。“这主要是个学术道德问题。”
实际上,如今所有大模型都源于2017年谷歌大脑团队发布的Transformer神经网络架构。这些包含模型架构和算法的设计决定了模型如何处理输入数据并生成输出。在此基础上,厂商在大规模的数据上对大模型进行预训练,来提高模型的泛化能力,加速后续的学习任务推进。
业内关于“套壳”的争议由来已久。有人认为,开源就该被充分利用;有人则表示,闭源才是自主研发,参考开源就是套壳。
DoNews6月4日消息,近日斯坦福大学的AI研究团队的 Llama3-V 开源模型被指控抄袭了清华系明星创业公司面壁智能开发的开源模型“小钢炮”MiniCPM-Llama3-V 2.5,在网上引起热议。
揭开AI“伪装”面纱:深度剖析实例与未来走向
以我国某城市为例,当地一家初创公司A在开发其AI产品时,就遭遇了如何平衡开源与闭源的问题。为了确保产品的创新性,A公司选择了自主研发的核心算法,但在某些模块上,他们借鉴了开源社区的成果。
通过这种方式,A公司不仅保证了产品的核心竞争力,还加快了开发进度。据A公司数据显示,与完全自主研发相比,采用开源模块的产品在性能上提升了15%,同时减少了30%的研发成本。
这一案例表明,在AI领域,合理利用开源资源与自主研发相结合,可以为企业带来显著的效益。
面对AI领域的“套壳”现象,未来需要构建一个健康、可持续的生态。这需要业界共同努力,加强知识产权保护,倡导开放合作,共同推动AI技术的健康发展。
在未来的发展中,我们期待看到更多像A公司这样的案例,通过创新与开放,推动AI技术的进步,为社会创造更多价值。