全球首位3D版AI合成主播(3d版地图全球)

2022-09-08 22:22:47 作者:娘们的外表、爷们的心
导读:全球首位3D版AI合成主播新小微亮相 和前一代AI合成主播相比,全球首位3D版AI合成主播 原标题:不是真人!全球首位3D版AI合成主播亮相:可以随时换衣服换发型 她可以随时改变发型,她可以随时改...
全球首位3D版AI合成主播亮相 能随时变换服装发型

全球首位3D版AI合成主播

原标题:不是真人!全球首位3D版AI合成主播亮相:可以随时换衣服换发型

她可以随时改变发型,她可以随时改变衣服,她可以拟场景中穿梭……

如何穿越至百年前的北京城

然而,她不是真人。她是世界上第一个由人工智能驱动的3D版AI合成主播。

“大家好,我叫新小微,是新华社和搜狗公司推出的世界第一个3D版AI合成主播,我会给大家带来全新的新闻信息体验。”

一段“未来感”全视频播报画面让人眼前一亮,世界第一3D版AI合成主播在全国两会开幕前夕正式亮相,这是继全球首位AI合成主播、站立式AI合成主播、AI合成女主播,俄语AI合成主播后,新华社智能编辑部与搜狗公司联合开发了最新的智能产品。

“新小微”它是如何诞生的?

“新小微”新华社记者赵婉微采用了最新的人工智能技术“克隆”而成。

全球首位3D版AI合成主播

从外观上看,“新小微”在立体感、灵活性、可塑性、交互能力、应用空间等方面,高度还原真人发肤AI合成主播(2D图像)大幅跃升。

在特写镜头下,连头发和皮肤上的毛孔都清晰可见。

3D版AI合成主播是如何诞生的?

“‘新小微’经历了极其复杂的研发过程。”据项目负责人介绍,研发人员进行了大量数据采集。

赵琬微戴着数据采集头盔,几百个摄像头对其身体部位360度全方位“打点”扫描,收集每一个细节,并仔细捕捉各种形式的表情和动作。

“就像拼乐高一样,我们是对的‘新小微’模块化处理各部分和表情,然后重新组装。”项目负责人解释说,由算法实时驱动和渲染构建的3D数字人物模型物模型、表情唇动、肢体动作和语言表达的高度契合。

据介绍,目前绝大多数人都是“能动”的3D主要由真人驱动的数字人。

而“新小微”采用人工智能驱动,输入文本后,AI算法便可实时驱动“新小微”,声音、表情、唇动更接近真人。

“新小微”实现了哪些升级进化?

和前一代AI相比合成主播,“新小微”实现了从单一景深机位到多机位多景深、微笑广播到多元化精微表情广播的进步。广播形式可以从不同的角度全面呈现,立体感和层次感明显增强。

“前一代AI合成主播只能在坐姿或站姿下做一些简单的手势。‘新小微’不仅可以走动和转身,还可以摆出各种复杂的动作和姿势,大大提高了灵活性。”介绍项目负责人。

此外,“新小微”以其“微模块化”实现灵活性的特点“变妆”。

她的发型和服装可以根据不同的新闻和场景进行改变,这也是前一代AI合成主播没有。

“可以说,3D版AI合成主播在很多方面都比较智能,在人工智能的实时驱动下,功能可以持续自我变化。”项目负责人说。

“新小微”未来样的未来想象会开始?

作为新闻界第一个由人工智能驱动的3D技术呈现的AI合成主播,“新小微”在今年的全国人大和全国人大期间,可量化制作新闻广播视频。

只需在机器上输入相应的文本内容,“新小微”播报新闻,并根据语义产生相应的面部表情和肢体语言。

全球首位3D版AI合成主播

“随着后期变化和进化,‘她’工作空间会更大。”项目负责人说,随着3,D虚拟场景不断扩展,“新小微”将走出演播室,在不同的场景中更好地满足新闻呈现的多样化需求。

2018年11月7日,新华社联合搜狗公司发布了世界上第一家AI合成主播,“克隆”与真人主播的播出能力相同“分身”。

此后,人工智能技术在新闻领域的开拓性应用不断迭代升级扩容。

全球首位3D版AI合成主播

作为新华社AI合成主播家族的最新成员,3D版AI今年全国两会期间,合成主播将通过新华社客户端为网民带来全新的新闻信息体验,进一步帮助新华社智能编辑部建设,推动媒体融合深入发展,为新闻制作做出贡献“未来场景”开辟新的空间。

延伸阅读

小伙用AI技术恢复老北京街景视频 网友惊呼穿越

“这是100年前的北京吗?太逼真了,好像穿越到那个时候。”

近日,北京100年前的一段人工智能复原视频引起网友兴趣。

视频发布者胡文谷告诉《北京青年报》,原始视频是100年前外国人拍摄的北京街景,黑白相间,帧数很低。

他通过人工智能使整个视频更加清晰,并将其上色成彩色视频。

他说,他正在收集上海的旧视频资料,希望今后能恢复上海等中国城市的外观,让大家爱上中国的历史。

人工智能修复老北京街景影像

近日,一段百年前北京市场的影像数据出现在社交媒体上“走红”。

视频中,老石桥上车人来人往,市场生意兴隆。穿着长衬衫的人互相鞠躬打招呼,甚至听到商家的叫声和京韵鼓的歌声。

更令人惊讶的是,与此类图像的黑白配色不同,整个视频都是彩色的,视频的流畅性与现代视频相似,没有老视频“快进”的感觉。

有网友评论说:“看到这段视频,感觉就像穿越了100年前的北京。”

这是历史学家发现的全新图像吗?

11日上午,《北青报》记者联系了北京90后胡文谷。

他说,这段视频来自1920年至1926年的加拿大数据库,摄影师应该是当年访问北京的外国人。

胡文谷说,原视频的帧数很低,每秒只有6到10帧。如果按现在的播放速度播放,很容易给人“快进”的感觉。

此外,原视频受当时条件限制,都是黑白的。

他发布的视频是利用现代人工智能实现的,无论是上色、补帧还是提高清晰度。

胡文谷回忆,第一次看到这段视频时,他就感觉非常好奇,“虽然我从小就在北京长大,但100多年前的北京是什么样子的看了原来的视频才有了直观的认识。

然而,与目前的视频相比,这段视频在技术上太老了。我碰巧接触到一些使用人工智能恢复旧视频的技术,只是想恢复这段视频。”

三个软件完成了补帧、上色和提高清晰度

胡文谷介绍,修复视频先后使用了3个人工智能软件,“第一个是修复帧数,将原来的6到10帧视频修复成适合现代技术的60帧视频。第二个软件负责加强一些关键帧的分辨率,第三个软件负责给原来的黑白视频‘上色’。”

胡文谷解释说,人工智能是模拟人类大脑一开始,人工智能“大脑”通过人类给人工智能图片、视频等,告诉这些软件是空的“狗的颜色是什么?”“衣服的颜色是什么?”“树是什么颜色?”,慢慢地,人工智能有自己的人工智能“想象力”,当我们向人工智能发送黑白视频时,它们可以取代我们“大脑”,将它想象的颜色恢复到视频中,从而制作一个街景视频,仿佛穿越到100年前的北京。“事实上,人工智能应用的原理似的,无论是上色、补帧还是提高分辨率。“事实上,人工智能应用的原理似的,无论是上色、补帧还是提高分辨率。”

胡文谷说,人工智能修复比人工修复快得多。“像这样的视频,我花了几天时间制作,如果手动恢复,时间可能至少需要几周。”但胡文谷承认,目前这些人工智能软件大多是外国人开发的,“他们从来没有学过老北京市场,所以有些地方上色后还是会觉得不对劲。以后我会考虑培训这些人工智能来了解老北京的风土人情,让这些恢复视频更贴近北京的历史面貌。”

百年前的北京人“相遇”很神奇

胡文谷家在北京宣武区虎坊桥,从小就对北京文化很感兴趣。

近几年来,他在美国纽约工作,出国前特意参观了北京的几个景点。

而网友对“老北京”胡文谷的热情也让胡文谷大吃一惊。“当天把视频发到网上后,我去了另一个房间健身。结果健身回来发现转发量已经超过一万,真的没想到。”

胡文谷介绍,他目前正在收集上海的一些老视频资料,并咨询上海的一些朋友,希望恢复上海的另一个老视频,为观众恢复更多的中国历史。

同时,胡文谷也希望更多的人能参与利用人工智能恢复历史的过程。

两会开幕 新科技带你 云跑会
精彩图集