公告:服务器迁移已顺利完成! 网址全面启用 https

服务器2号 服务器3号 服务器4号 服务器5号

申请VIP无广告,支付宝,微信,USDT!
在线客服请尝试以下不同链接如果进不了的话在线客服(1) (2) (3) (4) (5) (6)
(7) (8) (9) 实时开通

查看完整版本: 阅兵直播的虚拟现实技术是如何实现的?[5P]

carolie 2015-9-5 00:45

阅兵直播的虚拟现实技术是如何实现的?[5P]

随着虚拟现实技术的演进,现在已经有越来越多的场景我们可以看到虚拟现实技术的出现。电视行业就是其中之一:去年的世界杯,今年的春晚我们都可以看到虚拟演播室在直播节目中的出现。
[img]http://img1.mydrivers.com/img/20150904/s_4ff10eb8107f4c19b35f192e9493014e.jpg[/img]
这次阅兵,我们同样可以看到北京电视台也采用了虚拟演播室技术:观众可以看到,主持人一边解说,虚拟的武器装备就会在他身边出现,生动形象的向观众展示了我军装备的威武雄壮,而不是干巴巴的文字或者图片描述。
[img]http://img1.mydrivers.com/img/20150904/s_2e19f65fb2804770981b7907f1609005.jpg[/img]
虚拟演播室技术实际上可以说就是增强现实技术的一个子集。它同样涉及到增强现实中如何将虚拟的元素和真实的场景叠加在一起的问题。不过,增强现实是要让最后的画面呈现在用户的眼睛里,而虚拟演播室则是将画面呈现在电视的屏幕上。

所以,它的技术重点和增强现实是一样的:

第一是如何能够精确地定位真实的场景;

第二是如何能够渲染出虚拟的元素;

第三是如何实时地将虚拟的元素叠加在真实的场景上,然后返回到视频流中。

在这里,最难的是如何将虚拟元素和真实的元素进行叠加。

摄像机一旦运动,真实的场景和虚拟的元素都必须同步配合这个运动。电视摄像的帧率是50FPS,也就是说,引擎需要每20ms就渲染出一帧,这是一个相当高的要求。所以,系统内就应该要包括摄像头的工作状态,包括位置和视角等等,虚拟引擎才能够渲染出相对应的画面。
[img]http://img1.mydrivers.com/img/20150904/s_0d9d268c6b0d4a57a7d070c5065feef0.jpg[/img]
(虚拟演播室)

于是,这里可以得到一个虚拟演播室的系统流程:

第一步的工作是采集摄像机的工作状态信息,最重要的是摄像机的位置和它与真实场景的相对关系;然后将这些信息传送给图形工作站。

第二步则是依此得到前景物体与摄像机之间的距离和相对位置,从而计算出虚拟元素的大小、位置,并渲染生成虚拟元素。

如果虚拟元素涉及到虚拟人物(比如世界杯节目里的虚拟球员,或者春晚上的阳阳),则往往还要涉及到动作捕捉系统:用真人的动作实时的驱动虚拟角色的动作,然后呈现出来。

第三步,虚拟演播室系统会将主持人的实时画面地与计算机产生的虚拟元素集成在一起,构成一个现实中不存在的场景,并且实时向观众进行广播。

一般而言,这里会采用我们在电影花絮中常见的绿幕来遮盖一切我们不想让它出现在最后画面中的场景元素,在专业中,这叫做“色键”。然后计算机会将相应的颜色全部抠掉,将虚拟场景集合上去,最后就呈现出我们这次会在阅兵直播中看到的,威武雄壮的导弹发射车出现在主持人的旁边。

虚拟演播室可以说是增强现实技术在商业上的应用,而且已经能够在商业直播中成熟运用了。

不过增强现实本身,还有很长一段路要走——因为消费者意义上的增强现实眼镜要解决很多虚拟演播室所没有的困难:

第一,虚拟演播室会是在一个有控制的场景中应用。

有专门的设备采集摄像机的位置和场景本身的位置,而增强现实眼镜则需要在大范围内应用,这就需要时下计算机视觉中非常火热的技术领域SLAM(Simultaneously Localization And Mapping,实时场景测量与建模)来帮助增强现实眼镜“看到”并且“理解”周围的环境。Google的Project Tango正是为了解决这个问题而开发的项目。
[img]http://img1.mydrivers.com/img/20150904/d94009f82c6d489fbb102b8564827391.jpg[/img]
(谷歌的Project Tango项目)

第二,移动的VR眼镜所可能具备的计算能力要远远小于虚拟演播室技术中的商业级别工作站。

所以其在高帧率下渲染虚拟元素的能力必然远远不如虚拟演播室,增强现实眼镜的虚拟画面必然不会像虚拟演播室那样丰富和逼真。

第三点是,增强现实眼镜的画面最终是要投射到用户的视网膜中。

所以想要符合人体的视觉系统特质,显示装置要具备的能力会大大不同于普通的屏幕:让人感觉到虚拟与现实的融合,显示屏需要与人眼球的焦点匹配显示虚拟元素的能力,目前只有微软的HoloLens让人信服地展示了这一种能力,而他们使用的是全息显示屏。

有趣的地方在于,在今年E3微软的发布会上,微软使用了虚拟演播室的技术展示了HoloLens最终可以达到的效果——可能这个发布会上也是虚拟演播室能达到的最好效果。微软同样使用了复杂的摄像机追踪技术,让观众信服的展示了HoloLens的增强现实。
[img]http://img1.mydrivers.com/img/20150904/s_80e0dc191569434b9a90c7119951597f.png[/img]
(微软的HoloLens)

所以,未来的增强现实下的阅兵会是怎样的?按照惯例,我国下一次大阅兵将在2019年举办。我想,那时的阅兵就会有增强现实的参与了——观众将能够实时的使用自己的增强现实眼镜,或者在屏幕上看到威武雄壮的部队,伴随对其武器装备的介绍,细节放大,甚至拆解……我们看阅兵也将不限于现场或者电视机前这仅有的两种姿势,而也可能能够使用虚拟现实的方式身临其境。技术的演进让我们拭目以待。

Marble_Yang 2015-9-5 02:57

有种minecraft的即视感。虚拟现实现在看起来很高大上,但是充满科技感的展示用那么萌的模型表现出来真的好么

starpop 2015-9-5 09:43

1.只是视觉TRICK的话,完全胜任。各种脚本控制的关键帧动画而已。
2.但比如加工中心的完整模拟,尤其是数值驱动的,参数化,过程的化的,各种复杂的加工就不能这么靠关键帧动画了。
咱就说车吧(其实铣、镗都差不多啊)。一般的车削,如果做精细的模拟的话,是两个物体的动态布尔运算。
你如果够牛逼可以自己在UNITY里开发一套(因为的确是图形底层操作)。但实际上这么多年来大部分类似的系统的开发当中还是大量的使用了OPEN CSG这个开源库,虽然很老但是还是有用的,如果UNITY下有类似的插件欢迎打脸,喜闻乐见啊,贡献出来大家都有生产力。不过有个问题,OPEN CSG完全基于OPEN GL的,所以应该无法直接与UNITY相容。。。。又回到那句话。。。你够实力的话,又愿意造轮子,则看懂了自己实现一遍吧。
3.因此啦,完全看你的项目要求到哪一步,实际上两种情况都有,有的客户就要看着对的就行了,可依然有工业(比如核电)和军事(比如导弹或航天)的客户需要你做非常精细的虚拟仿真。不过我觉得能在项目当中,自己纯手写再实现出来一套山寨OPEN CSG的, 那他是不是用UNITY根本已无意义了。因为这个段位的多少已经自己有一套成熟的框架了。
核心代码不在你手里的引擎,当客户说出来涉及到图形底层的刁钻功能需求的时候,就无能为力了。但是,好在这种事一般靠商务、嘴遁、酒遁、动画遁都能解决掉,所以在我国这真不算是个问题。
页: [1]
查看完整版本: 阅兵直播的虚拟现实技术是如何实现的?[5P]