做3D动画一直是个技术门槛很高的事——你需要精通Maya或Blender,还要花大量时间学习绑定、渲染这些专业知识。但最近我发现了一个叫Live3D的工具,它把3D动画制作搬到了浏览器里,用AI来搞定最复杂的部分。

Live3D的定位很明确:让没有任何3D经验的人也能快速做出质量不错的3D动画内容。它的核心玩法是先用AI生成角色和场景,然后再通过文字描述来控制角色的动作和表情。
主要功能有哪些
Live3D的功能主要分三块:角色生成、动作编辑和动画导出。
角色生成这块,平台内置了一个基于Stable Diffusion的模型,专门训练过卡通和动漫风格的2D转3D。它能把你上传的平面图片转化成3D模型,保留原图的美术风格。我测试了一张自己画的插画角色,转换后模型的拓扑结构还挺干净的,绑定的骨骼也基本能用。
动作编辑支持两种模式:关键帧动画和语音驱动。用关键帧的时候,你可以拖动时间轴,在不同时间点设置角色的姿势,AI会自动帮你补间。但如果想要更自然的效果,语音驱动更实用——上传一段配音或直接录音,角色的口型会自动对上,还能根据语气的起伏生成相应的肢体动作。
导出格式支持FBX和GLB,主流游戏引擎和网页3D框架都能直接用。
收费模式
免费账户每个月能导出3次,时长限制在30秒以内。想要更高配额得订阅Pro版,每月29美元,解锁无限导出和最长5分钟的动画。这个定价对于做短视频的自媒体来说不算贵,但如果你要做长内容,可能还是得配合其他工具使用。
另外平台最近在测试一个新的功能叫”Motion Brush”,效果有点像Midjourney的画笔——你可以直接在3D场景里涂抹,AI会根据你的笔画生成对应的物体或粒子效果。这个功能目前还在内测,开放时间待定。
实际体验如何
我用Live3D做了一段15秒的自我介绍动画,从上传头像到导出成品大概花了20分钟。语音驱动的口型同步效果比我预期的好,基本没有明显的穿模或错位。但角色的手指处理还是有点问题,有几个镜头手指黏在了一起。
渲染速度方面,如果是标准分辨率(1080p),一段15秒的动画大概需要5到8分钟渲染。如果选4K,时间会翻倍。平台有云渲染集群,不用担心本地机器带不动。
唯一让我觉得不太方便的是,目前不支持中文界面和中文语音驱动。如果你想做中文虚拟主播的内容,可能得先把文案翻译成英文再喂给系统。
适合什么人用
Live3D最适合三类用户:一是做YouTube或B站虚拟形象的内容创作者,二是需要快速出3D原型的游戏策划,三是有2D美术功底但不会3D的技术美术师。它的定位介于专业DCC软件和纯傻瓜式AI生成之间,既保留了一定的控制自由度,又把最复杂的部分交给了AI。
如果你是企业用户,需要品牌虚拟代言人或者产品3D展示,Live3D也支持定制化服务,可以联系他们的sales团队。
总体来说,Live3D把3D动画的门槛拉低了一大截。虽然离专业级还有差距,但对于大多数新媒体场景已经够用了。建议先免费试用几次,看看效果能不能满足你的需求,再决定要不要付费。