快捷导航
查看: 1338|回复: 0

王斌 《CINEBOX电影引擎应用》

[复制链接]

大家好,我是来自CRYTEK上海CINEBOX团队的技术主管。我们CRYTEK其实在VR方面也有一定的探索,我们开发了一个针对影视的电影引擎,这个引擎在VR方面我们新加入了一些特性。

这次我主要是围绕主题对三个主要的问题进行演讲。第一个是什么是CINEBOX,大家可能听到CRYTEK会一下子会想到CRYENGINE,CINEBOX的曝光率在业界其实是相对比较少的,比较小众的,我们针对一个影视团队开发的一个电影引擎。之后会介绍一下VR的一个纠结到底在哪里,其实目前VR设备的硬件体验,我觉得还是处于一个发展中,所以VR视频制作所产生的瓶颈还是很多的,但除了硬件之外,我们还是有一定的探索,之后会介绍为什么要选择CINEBOX,因为我们是作为一个技术提供公司,我们提供的这个技术会让你们用更小的成本,去尝试VR视频的创作,可以看到我们对CINEBOX首先的一个定义是,这是世界上第一款专业针对影视出品CG的一个电影引擎我们所强调的是“所见即所得”,我们的原始版本是基于CRYENGINE,CRYENGINE当时主推的就是“所见即所得”,所以我们CINEBOX其实完全地继承了CRYENGINE的优秀血统,而做到实时。这里的话是我罗列了一些CINEBOX参与的电影项目,有一些是我们作为preview的工具去参与的,有一些是为了特殊的电影项目去参与的,大家可以看到最上面的画是《猿族崛起》,在这部电影中CINEBOX参与的是preview的工作,当时他们为什么会用CINEBOX,主要他们比较看重我们的实时展示渲染效果,就是在电影预览阶段,我们已经给导演呈现出一个80%到90%的展示效果,同时我们对表情的捕捉也做到了实时展示,那这样的话,最终生产时会减少很大程度的反馈修改,因为大家知道,影视在最终production阶段的时候,那种修改量是及其耗费成本的,所以如果把那些修改前置到preview阶段的话,会大大的减少电影的制作成本。
从这里看到,我们CINEBOX其实主力推给影视圈的一个比较全新的概念,就是REAL-TIME,我们强调所有的物件全是实时的去创建、制作的,这其实对传统流程的改变是相当大的,传统用MAX或者MAYA或其他的话,必然逃不了渲染的时间,是极其耗费成本和人力的,但是我们这个引擎不单单是一个实时渲染引擎,在制作过程中也是实时的,所以不单单是一个渲染时间,他整个制作过程,所有的调整,包括调整一个光影、材质啊,相机的运动,全是在实时的环境下去制作的,可以给大家更多的艺术上的创作。三维软件大家为什么会觉得很复杂,其实就因为参数很多,需要常年使用才能总结出某几个参数是好的,因为它不会即时的得到效果,渲染要过几分钟,才能看到效果,但CINEBOX可以减低这方面的学习成本,让一个人更具有艺术的发挥空间,你调任一参数在画面中都会即时的反馈,这样的话,在艺术创作空间上带来更多的尝试。
目前的VR我们基本可以分为,第一类是实拍类的,第二个是纯CG电脑制作,第三类是实拍融合加CG,实拍类我就先不涉及了,因为我们毕竟是数字电影引擎。纯CG目前就我看下来,比较推崇的是追光科技做的好像叫《再见表情》,这部VR短片从用镜、讲故事各方面都比较不错,推荐给大家,还有Google的一个Sport Studio制作的短片《HELP》,但这个短片有一个最大的问题,投资实在太过巨大,号称五分钟的片子用了五百万美金,基本上是一百万美金一分钟,前阵子有个段子说,就算王思聪倾家荡产也只能拍半部VR电影,因为一般电影是90min甚至两小时,那以一分钟一百万美金去算的话,几乎就是不可能去尝试了,这也是推荐CINEBOX的一个最主要的原因,让大家通过一个很廉价的手段去制作,去尝试类似于《HELP》这种大片形式的创作。

《HELP》为什么会这么贵

它使用了四台电影级的Red Dragon相机,每台超过20万刀,相机的一个架子全球只有他一个,他根据自己的需求3D打印定制的。拍摄时四个相机分别拍,再后期融合,在拍摄现场,为了安置设备,也要有很大的脚架去支持,有四个屏给导演做拍摄预览,可以想象这种预览方式,我觉得没有几个导演能脑补出最终画面,就算我们再专业的人,看到这四个屏,机器也要通过nuke,或者通过其他软件去做融合,才能算出整个的效果。这也是CINEBOX很大的一个优势了,我们能做到实时拼接,实时的绿屏给导演做预览。这里还要一个最主要的VR贵的原因,他们是启用了81个后期人员,用了13个月,处理出来一个200多GB的素材库,他们这里计算过以后,他们整个VR的渲染量达到了1500万个,它这里说相当于四部《美国队长》,你要想一部《美国队长》可能九十分钟,那九十乘四,也就只相当于这个VR电影的五分钟的量。

VR影视为什么没有长篇

我发现目前VR还是属于小短片形式,都是比较小型轻量级的应用,为什么没有长篇电影呢,我们总结下来其实是有它的客观原因的,当然硬件上是一个比较大的限制,我们先抛开硬件。其实瓶颈是所有的片子时长基本都控制在五分钟到十分钟之内,所以导致了没有大型的项目去制作VR,还有就是一般VR很少用切镜,都是一镜到底,我规整下来有两个主要原因。
第一个主要原因是VR其实是一种全新的镜头语言,可能用镜头语言是有点用词不当,我是觉得VR是一种全新的讲故事的方式,从传统的被动观看现在是亲身体验的模式,镜头语言只是传统影视里讲故事的手段,我觉得VR可能不是镜头语言,也有可能是一种新的镜头语言,这个判断还是实在太早,从电影的发展看,最早电影是单镜头,有一个极其经典的火车进站镜头,当时观众很惊奇,好像火车马上要撞到我了,这是在都没有看到过电影的时候,第一次看到电影的震撼性,那时的电影和VR现状是极其相似的,早期的黑白无声电影,也是一镜到底的,然而发展到现在,电影有及其丰富的分镜头和切换,所谓蒙太奇是经过100多年,我们才总结出一个电影语言去讲故事,所以我觉得以后VR电影必然有一个大家都能掌握和一个比较合理的方式,使VR像传统电影一样去叙述。
第二个前面几位老师也提到了引导方式问题,我们发现目前小短片所使用的一些引导方式,第一类是淡入淡出,柔和的切镜方式,目前VR影视里很少有硬切的切镜方式,但在传统电影里,蒙太奇手法里硬切是极其常见的,但这其实和VR的沉浸感有关,当你在一个点上去看世界的时候,一下子切到另一个角度,很多人是接受不了的。传统影视每个镜头都是被导演严格控制的,导演严格把住你的脑袋去看电影,这些是完全控制住的,而现在,这种控制一旦没有,很强硬的切镜会产生眩晕,或其他的不适,所以基本可以看到,现在VR如果切镜,一般会用淡入淡出。这里有一个我觉得比较特殊的处理手法,也不能说好,也不能说不好,日本的《攻壳机动队》VR短片里使用了这个方式,这方式有点简单粗暴,就是说区域中间是他想表现的,他就把边上的区域变暗,变深,玩家看的时候,转头到后面看到黑的画面,迫使他头转回来,转到导演想让他看的区域,我觉得这可能是一个临时解决方案,但这个方案其实在VR的互动上用的比较多,可能不会黑屏,类似于Vive里面你走到边缘会有提示提醒一样。还有一些VR短剧里会用到的,通过一些小型的物件作为引导。我们当时找到了一个比较早的VR雏形《清明上河图》,它还是有一条主线的,不是简单的通过一个物体去引导整个主线,通过一段一段的场景,引导观众一步一步从头看到底,这个我觉得是比较高级的。小物件其实是最简单的一种引导,类似于《阿甘正传》第一个镜头,最经典的羽毛飞的那个镜头,这个也是在VR短片里面用的比较多的。还有移动视角,正常情况下你如果眼睛不去看这个点的话,我就手动移框到这个点,目前很少量,因为这个方法在差的硬件上极易晕眩。

VR影视制作的成本

目前VR制作成本实在太高,主要分三个方面,第一场景制作,传统只要考虑单镜头,但在VR是360度全场景的,要考虑每一个细节、每一个角度,场景部的制作工作量倍增,第二动作制作,传统影视一个镜头,可能十几秒,五秒,在VR阶段,一个镜头可能要半分钟以上,那在动画制作的时候就考虑的那个量是很大的。第三渲染尺寸,渲染尺寸对传统的影视来说也是极大的增加了,举个例子,一个人坐在沙发上看电视,电视其实就是传统影视的区域,它其实考虑的因素才这么点,VR要考虑的因素,电视的上下左右前后是相当大,这也是为什么五分钟的片子可以相当于四部传统电影的渲染量,从这个体量上面就可以看出它的渲染的一个区别,而且之前动画如果是五秒钟的镜头,那动画师只要考虑这五秒钟动画做完就OK了,但现在VR单个镜头时长一下子拉长后,动画师要考虑的是一个很长的一段动画,就算观众看前方,后方的动画还是要做,因为我不能保证他不回头,所有的配角都要遵循这个时段里面去把动作表现出来。
这就是我们的CINEBOX其实在渲染方面是有极大优势的,VR来了以后,CINEBOX渲染优势就更明显了,如果我要渲染VR单眼2K的话,我可能要达到4K的精度,而且是VR视频,我可能要把它转成立体视图,立体视图又要乘二,所以这整个渲染量是极其庞大的。

CINEBOX可以给你带来什么

首先我们在CINEBOX里加入了VR相机功能,在这个实时的引擎里面大家可以直接通过VR观影的方式,去操作整个场景,引擎直接已经帮你算好了,融合好了拼接好了,不需要你后期再做拼接处理。我们引擎当然也支持目前主流的那三款VR眼镜,这个意思就是你在编辑的时候,在做某些运镜的时候可以直接带着眼镜看效果,包括调整,这样也是区别于《HELP》导演,他是看4个屏的,另外我们加了“LiveSync”功能,引擎可以实时关联MAYA和一些其他的动图设备,就是MAYA里调的相机运动,灯光,动画,直接实时的会在我们引擎里面表现出来。CRYENGINE从3.6开始,支持了一个PBR,业界目前比较标准的一个材质系统,我们是也是基于物理的PBR材质系统的,所以大家在调整材质的时候只要是基于PBR制作的材质,都可以比较无缝的导入CRYENGINE,这里的话可以展示一下就是我们CINEBOX区别于CRYENGINE的渲染的一个界面,我们在渲染的时候也支持了一些影视里面所需要的一些通道,我们渲染的速度是相对传统影视是极其快的,我们可以说达到了秒渲。因为理论上说如果你所有的数据都是根据CRYENGINE的规则去导入引擎的话,其实的话是可以达到一秒钟二三十帧的,这样速度的瓶颈就在硬盘读取速度了,但一般这个帧数肯定达不到这么高,一般能达到一秒钟两三帧,甚至两秒钟一帧,这个在我们传统的游戏从业者去看,这个帧数完全接受不了,但这个帧数在影视团队里面,他们会觉得两三秒一帧这个快的想象不到。我们同样也支持OpenColor的调色,这里的话是支持,目前是一个CUBE,传统影视里面调色的设置,之前影视所用的调色CUBE的那个文件完全可以直接导入我们的引擎,这里的话就是区别与传统的游戏引擎,我们输出的是一张影视专用的OpenEXR的格式的图层,这样的话我们就到达了我们可以分层的一个输出,当然那些我们支持主流的引擎影视里面所想用到的通道,用我们的引擎输出的那张图完全是提供了你们后期拓展的能力。CINEBOX在实拍,在preview阶段的一些技术的支持,我们实时的会支持真实的相机,NCAM是一个真实的相机,它在现实中调整的任何的位移、旋转、对焦、光圈调整、速度调整,直接会传送到我们CINEBOX,CINEBOX的相机是完全基于物理的去设置的,比如要制作一个紧身的变焦效果,那我们的制作方式和传统真实的相机是完全一模一样的,要把光圈开大,才能达到大景深的效果,那如果连着这个NCAM的话,我把NCAM光圈调大,那我的CINEBOX所展示出来的效果会把景深展示出来,是直接关联的。目前我们CINEBOX还支持实时的AMD技术的hair的系统,这个系统可能达不到最终影视出品的效率,但这个系统能大大的帮助导演做preview,去做最终的判断,就是在预演的时候可以看到,角色有实时的毛发,实时的布料我们也在研发中。最后CINEBOX是支持实时的一个绿屏抠像,可以帮助到导演在现场直接可以看到最终的一个合成效果。
我个人觉得如果VR相机去捕捉的话是比传统相机要简单很多,对我们而言简单很多,因为传统相机的话,我们还要考虑它的焦段,它的变焦啊,但在VR相机里面,我只要考虑相机的location,旋转和移动值就可以了,所以其实我觉得写实类风格的影视创作中,实拍和虚拟结合将是一个很大的一个趋势,因为目前为止我个人觉得数字的技术去模拟一个真人,目前包括好莱坞都没有达到这个级别,所以你用实拍真人去结合虚拟场景是一个很好的处理手段,区别于传统的做preview的那些软件,我们最大的优势是我们除了做preview还有能力以电影品质的一个世界真的方式输出,这里可以看到这个最终成片是通过我们CINEBOX 输出、合成,人是真的,人和水是真的。

下一步做什么

这里的话我可以提到我们CRYTEK之后的话目标是会做什么东西,之后的话目前比较流行的有两个东西,我们想加入我们整个CINEBOX的体系里面,一个是光场,一个是声场传统的相机是先对焦后按快门后拍照,但光场的概念是,先拍照,拍完照以后我通过这个照片我可以后对焦,这样所导致的一个在VR里面应用的,我觉得一个颠覆性的一个效果是,之后的VR视频,很有可能是针对你眼球的一个点去对焦,这样的话才能更充分的去模拟真实的一种情况,而解决那些眩晕,在这方面我们CRYTEK已经投入了很大的一个研发力量,在之后的版本中会加入。声场其实相对比较简单,就是3D立体声,这个立体声是会根据陀螺仪的转向去播放某些声音,通过这两个的话,必然我们会加入一个CINEBOX的一个VR player,是一个专注于下一时代VR视频的一种播放体验,这种VR体验我觉得是可以打破目前很多体验上的一个瓶颈,更真实的去模拟一个VR的视频。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ