作者:博时基金 权益投资四部投资副总监兼基金经理 肖瑞瑾
中国农历新年期间,Sora的横空出世引起海内外各界广泛关注——全球领先的人工智能大模型企业OpenAI发布首款视频大模型Sora,可实现输入文本/图像并直接输出视频像素,输出视频可长达60秒。一时间,学界、产业界、一级和二级市场纷纷讨论Sora的重要性。
Sora出世,人工智能迎来深度变革
Sora的应用场景有哪些?对各行各业有哪些影响?博时基金权益投资四部投资副总监兼基金经理肖瑞瑾分析认为,Sora的本质是一个数据驱动的物理引擎,在可见的未来将遵循Scaling Law(规模法则)不断实现智慧涌现,展现更强大的智慧和生产力,最终甚至能模拟现实和生成虚拟世界——这表明人工智能已进入重要发展节点,深度变革体现在以下三点。
首先,图片和视频制作成本将显著降低。借助Sora等视频大模型,未来输入一部小说,输出一部电影将不再是科幻故事,对于需要视频制作的传媒和游戏企业而言,这意味着巨大的生产力提升和潜在的人力成本节约。
其次,物理仿真和工程建模能力将显著提升。Sora具备强大的模拟现实世界物理的交互和建模能力,未来将极有可能展现出强大的物理仿真和工程建模能力,大大缩短工程设计周期、提升工程设计的复杂度,这对工业制造业意义重大。
第三,Sora表明了通用大模型方法论的成功。Sora的工程实现或大量使用OpenAI已有的DALL-E和GPT-V大模型提供数据标注,像搭积木,用已有模型去构造更多数据是实现更强大模型的重要方法。同时更多数据、更强算力、更多参数意味着模型越大则越强,这将导致头部大模型的算力竞赛,并对算力相关的AI芯片、光模块、交换机、路由器、服务器等基础设施产生巨大拉动力。
Sora的出现意义重大。肖瑞瑾表示,Sora是首款创造性使用Transformer+Diffusion(DiT)大模型架构的视频大模型,Transformer是Open GPT-4等已经被证明体现强大智慧涌现能力的大语言模型(LLM),而Diffusion扩散模型则是图像生成的绝对主流路线。两者结合后,在更大的训练数据、更强的训练算力和更灵活的编码下,Sora模型产生显著的智慧涌现,生成视频的长度和质量获得指数级的提升。
同时,Sora的成功表明大语言模型(LLM)的Scaling Law(规模法则)的绝对有效。Scaling Law的含义是在训练大模型时,使用更多优质的数据、更好的数据标注、更灵活高效的算法以及更强大的算力,找到一套通用规律——保证数据越多、算力越强、模型越大,那么大模型效果就越好。大语言模型与Diffusion扩散模型的成功结合证明了这一点,也指明了后续继续进化的道路:获取更多数据,建设更多的算力。
肖瑞瑾介绍,Sora的发布表明了生成式人工智能正在成为崭新的生产力工具,不远的未来甚至将能模拟和生成物理世界的模型,并成为通向AGI通用人工智能的重要路径。目前Sora生成的视频具有良好的空间性质(视角变换,物体遮挡等的合理性)、时间维度物体的连贯性,并模拟现实世界物理的交互,甚至模拟数字世界,展现了强大的可用性和工程能力,足以成为新质生产力工具。
但同时,Sora依然存在不足之处。“一是参数量有限,还不足以完全模拟所有现实中的物理过程。目前Sora参数量只有30亿左右,Diffusion模型路线是当前绝对主流,但参数量上限是70-80亿左右,大语言模型LLM可以多达上万亿参数,但两者结合后参数量可能仍然受到限制,导致还不足以完全模拟所有现实中的物理过程,例如流体动力学模拟,以及充分理解不同视频帧之间的因果性,甚至对一个真正的物理世界模型进行预测,如输入一段卫星云图视频,还不能把接下来几天的气候变化模拟出来,用视频生成模型预测天气等。
二是生成视频市场仍然在60s左右。Diffusion模型默认生成视频时长是3s,大语言模型理论上可以更长,但目前两者结合能否继续突破60s,仍然需要关注OpenAI进展。 ”
估值较为合理,上半年依然是AI投资窗口期
经历去年的爆炒,AI相关板块整体估值情况如何,当下是否是布局AI相关板块的好时机?肖瑞瑾认为,A股2023年AI启动的通信、计算机、传媒和电子板块涨幅居前,其中光模块等子板块涨幅较大,但业绩兑现度较好,因此目前看A股AI板块整体估值仍处于较为合理水平。
在经历2024年初的整体回撤后,部分板块估值性价比也较为突出,例如其中的AI服务器子行业平均交易在2024年市盈率15倍以内,有一定估值优势。光模块在经历一段上涨后也平均交易在2024年市盈率25倍左右,估值泡沫并不显著。
2024年初以来,美国、日本和中国台湾等人工智能标志性个股涨幅显著,估值已显著高于A股可比公司,因此A股相关公司估值也具备一定国际比较优势。因此,“我们认为2024年上半年仍然是参与AI相关板块的投资窗口期。”
AI应用、算力、数据有望成为2024年投资重点
在AI热潮之下,结合中国AI行业的发展阶段和面临的挑战,肖瑞瑾认为,在龙年,三大子行业有希望成为投资重点。
AI应用方面,类似于移动互联网的发展历程,中国具备完备的数字经济基础设施,庞大的内需市场和人口规模成为AI应用快速发展的重要基础。因此,“我们看好AI应用板块诞生出有市场竞争力的头部企业,潜在的下游应用行业集中在视频生成、游戏制作、AI+医疗,AI+教育,AI+交通等领域。”
AI算力方面,Sora的成功展现了大语言模型遵循的Scaling Law(规模法则)的巨大效用。但在当前国际环境下,中国面临算力被卡脖子的困境,因此自主可控的AI算力基础设施是重要的投资方向,其中包括AI芯片、光模块及光芯片、交换机、路由器和AI服务器,以及生产AI芯片所需的先进半导体产线、HBM存储芯片、CoWoS等先进封装产能等。
AI数据方面,训练大模型需要大量的文本、图片和视频数据,掌握数据资源的企业将获得数据要素资产价值重估,同时也在训练大模型中占得先机。
未来:走向通用人工智能(AGI),赋能千行百业
展望未来人工智能领域发展空间,肖瑞瑾表示,人工智能大模型的发展将一步步走向通用人工智能(AGI)。
首先,通用人工智能(AGI)将成为新质生产力工具,赋能千行百业。比如大模型对医疗、教育、工业制造等各个行业的赋能,每个行业都将是上千亿甚至上万亿的潜在市场。
其次,通用人工智能(AGI)将通过人形机器人实现具身智能,并走向生产和生活。人形机器人将能够胜任工厂机械性操作,在家庭中照顾陪伴老人,这对逐步进入老龄化社会的中国至关重要。工业和家庭的潜在市场空间都多达万亿。
最后,通用人工智能(AGI)将逐步发展为世界模拟器,帮助探索和认识世界,在前沿科研领域成为人类的重要助手,潜在的科研需求和科研价值无法估量。
需关注的风险点
肖瑞瑾分析,人工智能大模型后续能否快速发展的不确定性和风险集中在三个方面。
一是算力可能成为限制大模型持续迭代的瓶颈。从世界模型的角度考虑,OpenAI 目前使用的数据仍然是人类历史的冰山一角,同时合成数据的快速发展提供了更多崭新的数据来源,即使加快AI芯片的生产,算力也仍然是限制OpenAI以及其他人工智能大模型训练和推理的瓶颈。“所以,我们看到OpenAI公司CEO Sam Altman表态投入7万亿美元重构芯片产业的夸张表述。对中国而言,目前难以获取国际先进AI算力芯片和基础设施,因此算力芯片国产化进度也是影响中国人工智能产业发展的重要变量。”
二是人工智能大模型发展持续面临法律监管问题。人工智能大模型技术目前仍然不完全成熟,大模型的幻觉仍会产生一些谬误,甚至被别有用心的人诱导产生有毒内容,这些都需要人工智能大模型进行对齐(alignment)和接受法律监管。同时人工智能技术可能会用于诈骗、色情和暴力违法犯罪活动,这些都需要建设相应的监管制度,并对人工智能行业发展产生不确定性。
三是大模型可能面临技术风险,Transformer模型的Scaling Law(规模法则)可能失效。Sora的成功表明了现阶段Transformer为代表的大语言模型仍在遵循Scaling Law产生智慧涌现。但如果某个极端更多的数据和算力投入,难以产生令人满意的智慧涌现进展,则意味着Transformer技术路线Scaling Law(规模法则)的失效,是否有更好的大模型技术出现仍是未知数。