继在2019网络春晚中出现的与撒贝宁十分相似的虚拟主持人“小小撒”之后,近期播出的《2019主持人大赛》也引入了一项虚拟形象生成技术——“在线大众评审”。这个节目最大亮点是智能大众评委席,通过个性化人工智能(PersonalAI),每位智能大众评委身后都是一个真实的自己,即这些在线评审的虚拟形象均根据真人评审生成、在线完成评审。那么,个性化人工智能技术是如何实现的?
★通过自拍图片几秒生成虚拟形象
在节目现场,400名在线大众评审通过手机客户端自拍,即能获得属于自己的三维虚拟形象,当大众评审在线收看节目并对选手打分时,三维虚拟形象可代表其出现在千里之外的虚拟观众席上,“观看”时还会像真人一样富有表情且轻微摇摆身体……
“目前我们可以实现通过一个人的单张自拍图片,几秒钟即可生成三维虚拟人形象。”美国南加州大学博士、偶邦智能首席科学家王睿哲说。
据介绍,一般传统算法试图使用一个光学成像模型来反推可以解释当前自拍的最佳人脸形状,其弊端是:假设的光学成像模型过于简单,无法真正模拟现实中人脸与光影交互的复杂情况;缺乏大量的三维人脸数据模型,很难有效训练一个深度学习模型。
针对这种情况,“在算法上可以采用视觉特效技术,从较小的三维人脸数据库,合成大量高精度的人脸自拍图用于训练深度学习模型,并利用迁移学习技术,把在数百万张图片上训练的人脸识别网络精化训练,利用基于对抗神经网络的图片风格迁移技术,对自拍照去光影。”王睿哲说。
这种单张自拍虚拟人生成技术可实现高相似度低面数的人脸几何形状,有效通过手机端形成高分辨率且去光影的人脸贴图,可以在各种不同光影下进行融入场景的逼真渲染。
形成在线大众评审的虚拟人像,除了建立及维护每位在线大众评审的形象模型之外,技术团队还利用了实时面部追踪技术和面部识别技术保证评审的连线效果,并对现场形象各异的大众评审3D形象进行实时渲染。
那么,如何做到让虚拟人脸部如真人一样富有生动表情和动作呢?王睿哲表示,可以通过面部动作捕捉技术实现。首先利用随机森林算法实时在人脸定位特征点,即脸部轮廓,五官如眉毛、眼睛、鼻子和嘴角等,然后算法利用这些特征点进而逆向推导出一个通用面部肌肉运动模型参数,用于驱动用户的虚拟人模型,实现虚拟人与真实人面部动作同步的效果。
★催生新型互动生活消费模式
据介绍,为了实现数百个虚拟人的实时渲染效果,团队对每个模型的服装,头发等进行大量减面数的优化处理。还采用了阴影预处理技术减少实时渲染的负荷,不同细节技术即近景采用高细节渲染,远景采用低细节渲染,以节省渲染运算成本。
“世界将因为人工智能技术变得更近更平。我们正在尝试实现每个人都能拥有个人专属的智能虚拟形象,仿佛在平行世界里拥有另一个智能化的自己。通过智能虚拟观众席的系统,世界各地的人都可以出现在任何国家的电视、互联网屏幕上,与当地观众进行沉浸式互动。不仅如此,那个虚拟数字形象的他(她)长得像用户本人,还能在一定时间内自我完善和进化,如在声音特征上学习用户,最终达到逼真状态。”偶邦智能CEO郑毅说。
除虚拟形象设计外,人工智能在大众娱乐行业的应用还包括内容制作阶段的选角、策划、拍摄、剪辑,观众观看阶段的算法推送、面部识别、机器学习以及将影视娱乐产品变现阶段的算法推送及分析等。智能虚拟人技术不仅可以通过AI技术驱动虚拟人的表情和动作,降低视频内容制作成本,而且通过推出有人设的智能虚拟人,像虚拟主持人、虚拟主播等,可延展工作时长,提高产能,创造数字经济价值。
人机共生时代新互动生态体系的构建,让生活变得更高效、有趣,为用户带来前所未有的虚拟社交体验。AI虚拟形象不仅是用户的高智能分身,可以帮忙打理各种事情,甚至在不久的将来,虚拟人或许有助人们在人间留住已故亲人或挚爱的生动形象,让人类获得“永生”。
(华 凌)