Jaunt VR电影拍摄指南中文版 第二章 相机(上)

Jaunt在2016年9月发布了《The Cinematic VR Field Guide: A Guide to Best Practices for Shooting in 360°》,为VR电影制作人们提供了VR电影拍摄的指导说明。笔者为大家提供翻译稿。这次为大家带来的是该指南的第二章前半部分,主要讲述了VR相机的类型和几种常见的拼接方法等等。

2、相机

在这部分中,我们来讨论你将会遇到的各种各样的VR相机,在VR电影拍摄过程中的一些陷阱是你必须要知道的,并且要了解如何避免这些陷阱。比如说安装和组合方法、clean plates的重要性,水下拍摄的问题和VR航拍的问题等等。

2.1、VR相机的类型

目前我们有很多类型的相机系统可以用来拍摄VR内容,并且这一领域也在逐渐扩张。每一款相机都有自己的优势和不足,下文中我们将介绍其中主要的几个种类。除这些之外还有其他很多种全景相机设备,但我们并没有提到它们,因为此类设备无法用于视频拍摄,比如栅缝扫描摄像机。如果可能的话,能够根据自己的需求去尝试每一种相机将会是极好的。

2.1.1、全景相机

这类相机系统通常是受到飞行昆虫的启发,其中包含多个单独的摄像头模块,并且被组装成一个球形、屋顶形或者其他形状。“Panoptic”这个单词来源于希腊神话中的百眼巨人阿耳戈斯,即“Panoptes”。他是一个有着一百只眼睛的巨人。Jaunt的相机系统,包括Jaunt ONE,就属于这一类。

这是到目前为止最流行的VR相机类型,许多公司都涌进这一领域,设计出轻量级的相机支架,来支持多个现成可用的相机模块–通常是GoPro。由于GoPro足够轻便,并且相对来说不是那么贵,已经被证明是行之有效的组装VR相机设备的相机模块。实际上,Jaunt的首个相机产品,即GP16,就包含16台GoPro,组合安装在一个定制的3D外壳里。

然而,使用基于GoPro的相机系统会出现很多问题,包括图像质量问题、散热问题、最重要的是,缺乏同步机制。在拍摄VR内容时,保证你所有的相机模块能够同步是极为重要的。只有这样,重叠部分的图像才能够精确匹配,并且在后期制作中可以很容易地进行拼接。虽然使用简单,但是GoPro相机并没有内建的同步能力,即使在后期处理过程中根据声音和视觉的线索做好了同步,也会随着时间的推移而出现偏差。

当然这并不是说要摒弃GoPro相机。仅仅是它能够组成很多不同类型的VR拍摄设备这一事实,就足以称之为一个壮举。但是它最初并不是为了为了这一任务而设计的,而且其缺陷也逐渐暴露了出来。

Jaunt接下来继续努力开发了内建26个定制相机模块的Jaunt ONE,可以提供四倍大的传感器尺寸,在弱光环境下的表现也更好,可调十一个档位的更高的动态对比度,更好的色彩还原,可以防止快速移动物体导致的画面撕裂的全局快门,当然还有最重要的可同步的相机模块。

现有的任何相机系统的多相机模式就是为了提供图像的重叠。你需要足够多的相机来提供图像间有效的重叠,重叠部分大概要占到15-20%,这是为了把临近的帧适当地拼接起来–如果你想要提供立体拼接的话,你还需要更多的相机。你的系统中有更多的相机,图像之间就会有更紧密的联系,这样在拼接过程中就能提供更小的物距,可以让物体更加接近。在下文的“拼接步骤”和“物距”部分可以获得更多信息。

2.1.2、Mirror Rigs

另一个比较常见的全景360°相机是mirror rig。这种设备基本上是多台相机放置在一个原型框架里,镜头向上拍摄那些以一定角度安放的朝向外侧的镜子中的影像。此类产品有一个很好的例子,便是Fraunhofer OmniCam。

这些设备可能是单视场的,也可能是立体的,由于其中包含了镜子,通常比其他种类的全景拍摄设备要更大更重。但是此类设备还有一个很大的优点,就是这些镜子可以让相机拍摄到镜子中的虚拟节点,这会造成最小限度的视差,甚至还可能没有视差。这会让拼接变得非常简单,而且基本上不会产生伪影。

由于这个原因,许多此类相机设备支持实时拼接和实时的360°图像传输。使用两个相机拍摄每个镜子中的影像,你可以进行无缝的立体拼接。此类设备主要的缺陷还是尺寸和重量的问题,并且在进行实时拼接时,必须要连接到相当强大的电脑上。

2.1.3、鱼眼

许多消费级的全景相机都是此种产品。因为他们相对来说很便宜,小巧,轻便,并且通常在相机内部就可以很容易地拼接。有的产品使用了一个镜头,比如柯达的360度运动相机。还有每个镜头可以拍摄180度的双镜头方案,比如理光的Theta,通过将两个镜头拍摄的内容拼接在一起,可以捕获完整的360度场景。

虽然它们使用起来很方便,并且很容易进行拼接,但是此类相机的拍摄质量相对要低。许多此类产品还可以串流到iPhone或者安卓设备上,使其很适合用作远程监控用途,如果你的VR相机不提供此功能的话,可以考虑使用此类设备。在下文的“在线预览”部分可以获得更多信息。

当然,还有针对专业消费者的此类相机,它们通常具有更大的镜头和传感器。不幸的是,所有此类设备只能生产出单视场图像,并不是立体3D图像,降低了用于VR时的沉浸感。

2.1.4、光场相机

光场相机是最近才来到全景拍摄市场上的新技术。虽然它代表着虚拟现实电影拍摄的未来,但其实际使用还是有些遥不可及。这类设备并不是通过镜头收集光线,并且投射在传感器上。而是包含了数百个极小的微型镜头,可以捕捉到每个可能的方向传来的光线。

这种设备可以在后期制作时做出一些非常惊艳的事情,包括在佩戴头显的时候通过摆动头部来切换视差,重新聚焦图像,生成景深数据和立体3D数据,以及在不使用绿幕的情况下进行抠像。

光场相机首次被消费市场熟知是由于Lytro Illum静态相机。最近,Lytro进入了专业视频领域,推出了用于VR的Lytro Cinema和Lytro Immerge两款产品,你可以在Lytro官网上查看更多信息。

大部分用于拍摄视频的光场相机并没有像静态光场相机那样使用微型镜头阵列,而是使用了非常多的相机模块,并且安装在网格或球形结构中。通过一些奇特的处理方法,这些多重视频串流信号可以被打包成一个经过压缩的光场格式,你可以在视频播放的时候在其中走动–虽然会有些受限。

你的运动范围会限制在与圆形场地直径相当的范围内,或者是布置这些相机的网格的宽度范围内,也就是取决于其拍摄场地的大小。虽然你不能在屋里随意走动,但是你可以移动头部,并且看到不断变化的视差,这可以帮助你最小化VR中会遇到的晕动症。

不幸的是,这些相机在实际拍摄中的使用是受限的,因为它们需要一个很大的计算机阵列与相机系统链接,来进行数据的捕捉和处理。另外,光场电影串流虽然是被压缩过的,但对于处理、下载来说还是太大了。以今天的带宽水平,串流将会是极为困难的。

虽然目前拍摄光场影像是很困难的,但是可以使用oToy的技术来以CG的形式对其进行渲染。你可以在oToy的官方网站上找到描述全息或光场视频渲染的演示视频。

2.1.5、摄影测量法

为了能够全面了解VR内容的拍摄,你需要彻底改变你的想法,从目前的“由内而外”的方法论转变为“由外而内”的视角。也就是说,并不是用一个所有相机都向外拍摄场景的阵列来进行拍摄,而是用一个全部向内的相机阵列来环绕整个场景。

微软曾经为其增强现实头显HoloLens开发了一种基于视频的摄影测量法,主要是为了创作全息视频。该技术名为“自由视点视频”。一组相机阵列环绕在绿幕舞台周围,从不同的角度捕捉视频,接下来使用先进的摄影测量法来创作出全3D的网格,其中还包含场景中所有物体的投影映射纹理信息。微软的这项技术使用了先进的网格镶嵌、平滑的网格还原以及压缩技术,来创作出你真正可以在其中走动的VR或AR场景。

更多关于该技术的信息可以在微软官网查询。

另一家探索该领域的公司是8i。他们使用了类似的相机阵列,来捕捉他们所说的容积视频,并存储为一个拥有专利技术的光场格式。这项技术并不会创作出完整的CG网格(当然这也是一个选项),但同样允许你在场景中随意走动,或者从任何角度进行观察。更多关于该技术的信息可以在8i官网查询。

无论采用了何种技术或方法,先进的实时摄影测量技术将会在不远的将来成为一项重要的视频捕捉技术,使用该技术,可以让你完全沉浸在任何场景中。随着技术的进步和成本的降低,消费者们可以以前所未有的方式连接全息视频和真实环境。

2.2、拼接方法

当你使用360°相机拍摄完场景之后,你需要将所有这些相机拍摄的单独的画面进行拼接,以创作出一个单独的、无缝的360°球形图像。要想创作出没有视觉可见的缝隙或伪影的图像是VR内容拍摄过程中最难的工作之一,并且也是最浪费时间的工作之一,特别是在创作3D图像时更是如此。

Jaunt的云服务JCS已经将这一过程简化成了近乎自动的过程,目前已经支持Jaunt ONE和诺基亚OZO相机。下面我们列举了多种拼接方法,Jaunt在此之前已经尝试过其中一些方法,但就目前而言,光流是能够提供最佳的无缝3D拼接效果,并且人工干预最少的方法。

2.2.1、几何方式

几何方式的拼接是目前大多数现成的拼接工具所使用的方法,比如Kolor Autopano,并且是在Jaunt的GP16相机上首次使用的拼接方法。使用这种方法,在拍摄时由镜头产生的每张图像中的桶形失真都会被修正,图像会根据其中的相似点来排列,然后被平滑地融合在一起。这种方法可以创作出完整的360°*180°展开状圆柱投影球形图像。

在立体3D中进行拼接要更加困难,并且需要在环境中先创作一对虚拟的立体相机,以此来使用图像中的每一个切片提供左眼和右眼的观看效果,才能进行拼接。

正如上文所提到的那样,这种拼接方法并不总是完美的,并且可能会导致可见的缝隙或3D伪影,因为部分场景的景深数据并不正确。考虑到这一点,Jaunt才转向了接下来要说的光流拼接法。

2.2.2、光流

Jaunt目前就在使用并优化光流算法,作为Jaunt云服务的在线拼接平台的基础,支持Jaunt ONE和诺基亚OZO相机。

光流是一项已经应用于电脑图形领域有一段时间的技术。它有很多的应用领域,包括运动的估算、跟踪、相机的创建、蒙版的创建,以及立体视差的生成。作为核心,光流算法会计算场景中每个像素的移动,并且通常是一帧一帧地对拍摄的内容作出基于时间的分析。

比如,在拼接一个立体全景图像时,流图会被用来跟踪那些相邻的相机所拍摄到的独特的像素,比如场景中出现的视觉元素。通过将此技术与现有的相机所拍摄的几何结构和镜头特征相结合,就会让判断相邻相机所拍摄的每个像素的距离变为可能。同时也能生成一个整个场景的差异(景深)分布图。

这个差异分布图可以用来在拍摄360°的立体3D内容时,插入分别针对左眼和右眼的虚拟相机。这种技术能够提供更好的景深感知,同时产生更少的伪影,并且缝隙可以忽略不计。然而,这种方法并不是完美的,一些错误也会出现在流图的生成过程中,或者可能会在一个或多个相机被物体挡住时,产生盲点。在这种情况下,需要对被挡住的部分进行估计,并且这些物体周围会产生名为“光晕”的伪影。

通常,物体离相机越近,相邻的相机就越难以看到相似点,这就会导致更加繁杂的估算和更大的光晕伪影。想要了解更多信息可查看下方的“避免伪影”和“物距”部分。

不幸的是,目前的算法想要完全估算出所有的错误基本上是不可能的,所以就需要后期制作来修正这些问题。想要了解更多信息可查看下方的“后期制作”部分。

2.2.3、实时拼接

实时拼接使用了类似上面的方法,但很明显的是,这些处理过程必须实时进行,这样才能实时传输360°图像。目前仅有极少数产品能够做到实时拼接,或者说能够做好实时拼接。大部分此类设备要么不是真正的360°,而是180°,要么是单视场而非立体3D画面。

目前可用的一个方案是VideoStitch,可以让你通过该公司的Vahana VR产品做到单视场实时拼接,并且他们的立体3D实时拼接技术也即将到来。作为一款软件解决方案,它可以支持很多类型的相机设备。在VideoStitch官网可以获得更多信息。

许多的实时拼接解决方案都是对应上述的mirror rig类相机,因为此类相机的设备可以允许更加简单快速的拼接。Fraunhofer OmniCam就是这样一款产品,目前已经有两个型号,一个型号支持单视场拍摄,另一款可以支持3D 360°串流的实时传输。可以在上面的mirror rigs部分了解更多信息。

2.2.4、避免伪影

上面介绍的这些相机方案和算法都有各自的特性,但在拼接时都会或多或少地产生伪影。几乎所有的算法都会产生不同种类的让人生厌的伪影。如果场景拍摄正确的话,这个问题出现的概率是可以降低的。所以,你的确值得在调查和测试上花费一些时间,来检测相机和算法的关联是否合适。

这里我们以Jaunt ONE相机及其使用的基于光流的拼接算法为例,我们有时会在移动的物体或离相机太近的物体周围看到恼人的光晕。这种问题通常由于进行拼接时,光流算法在寻找相邻相机拍摄的相似像素时比较费力所造成的。如果一个人站在室外非常明亮的物体面前,算法就很难分辨不同的像素,因为所有这些像素的值都与物体的像素基本相似,而且在这个场景中没有细节信息。

同样的,如果有很多看起来完全一样的点,你也会遇到这样的问题。如果一个人站在有着规则的纵向直线的报纸面前,光流算法就很难分辨出很多看起来完全一样的点该如何匹配。

解决办法是,将你要拍摄的物体与背景区分开,以保证没有像上文所说的报纸那样,出现相似的重复细节。或者调低相机的曝光来降低亮度,以获取更多的图像信息,利于算法识别图像。

如果要拍摄的物体离相机太近的话,也会出现这样的问题。如果物体离得太近,一台相机可能会看到场景中的细节,但这些细节或许在相邻的相机所拍摄的场景中被这一物体被挡住。这样一来,算法是没有办法“绕着观看”这个物体,来完成像素的比对。围绕着这个物体的周边区域就会出现光晕,而且由于一帧一帧地进行拼接,这个让人头大的问题又会不断出现。

解决这个问题的办法很简单,把要拍摄的物体往后移动。对于Jaunt ONE相机来说,要拍摄物体的最近的安全距离在4-6英尺(约1.2-1.8米)。

算法正在变得越来越智能,如果没有被淘汰的话,我们期待着伪影在不久的将来能够越来越少。就目前而言,虽然你可能无法彻底消除伪影,但你可以通过花时间思考算法的拼接过程,同时适当控制拍摄的曝光来大幅减少伪影问题。

2.2.5、分辨率

我们来谈谈分辨率问题。VR相机中所使用的大多独立的相机模块都是GoPro、计算机视觉相机或者像Jaunt ONE所采用的定制模块。通常其分辨率都是HD(1920*1080)或2K(2048*1556)级别的。当这些图像被拼接在一起之后,很明显,会组成一个分辨率更高的全景图。

以Jaunt ONE相机为例,它可以创作出高达12K分辨率的图像。使用今天的技术来处理这样尺寸的图像完全是不切实际的。就在几年前,整个行业还在忙于应对HDTV或2K级的图像。很快,这个行业迎来了立体3D,超高清UHD和4K、高动态对比度HDR、广色域、高帧率HFR等等图像技术,每种技术都有成倍提升数据量的潜力。

在以前,这些技术都曾遇到过瓶颈,现在我们又迎来了VR,而VR需要把上面这些技术都结合起来,并且我们现在就需要使用这些技术。但是使用现有的技术,要在后期制作中处理如此大的文件几乎是不可能的。即使是最强悍的CPU和GPU也无法做到。考虑到这一点,Jaunt目前将输出的分辨率限制在3840*3840,并且提供左/右格式的立体3D画面,帧率为60fps。

即使是这种体量的文件,在后期处理时也很费力,并且需要足够强悍的设备来进行如此高分辨率和帧率的画面合成、编辑、色彩较准和CGI工作。并且,虽然我们可以压缩下最终文件以分发给消费者,世界各地的带宽又各有差异,也是一个问题。

最后,最大的瓶颈在于最终播放设备。虽然你一直想对于这种全新的媒体保持前瞻性,但你必须要知道,目前所有的主流头显,比如Oculus Rift、HTC Vive和PSVR目前的分辨率仅有单眼1K。这种情况当然会逐步改进,但是,你需要平衡下人们对更高分辨率的渴求和实际情况。技术会随着时间逐步提升,我们也将可以提升图像的分辨率和保真度。

最初发布于2017年2月10日

新款三星Gear 360相机上手体验:VR内容需要先上量?

近日三星在纽约举办了新品发布会,在本次发布会期间,三星发布了一系列新产品,包括Galaxy S8和S8+手机,以及全新的Gear VR头显和Gear 360相机。实际上,在发布会期间,三星给每一位与会嘉宾一台Gear 360相机,并在同一时间记录下了新品发布的场面。

在此之前,有关这款相机的传言已经满天飞了,并且现在看来,这些传言也基本都是真的。去年发布的旧款Gear 360是三星首次尝试360°相机产品,由于产品问题过多,基本上无法用“成功”来形容旧款相机。然而,这个全新的Gear 360看起来能够减少人们对上一代产品的抱怨。

首先,新款Gear 360比老款要更小巧。由于镜头更加靠近,让拼接效果也变得更好了,并且也更便于携带。新款Gear 360的外形相比上一代产品,在工效学设计上也更加科学。不再需要三脚架来支撑,这样一来在拍摄时底部被遮挡的画面也更小。老款相机虽然能够借助三脚架自行站立,但会遮挡大片的下方内容。新款Gear 360也有内置的电池,但不再是可拆卸的。然后,用于充电的USB端口也被移动到了侧方,由Micro-USB换成了USB Type-C。新款相机还把录制按钮从相机顶部移到了相机底部,这是用户通常手持的地方。从我们的经验来看,这可能会引起一些误触,不过相比把录制按钮放在相机顶部,已经不那么让人恼火了。有了这种新的设计,你可以使用任何的三脚架来支撑Gear 360,并且几乎任何的安装方式都可以。

用户对于旧款Gear 360最大的抱怨在于,它仅仅支持三星最新的手机产品。而这次发布的新版本则基本上脱离了三星的设备,允许你使用其他安卓设备,甚至是iOS设备,因为它是通过蓝牙和Wi-Fi来连接的。新款相机支持蓝牙4.1标准和802.11 a/b/g/n/ac Wi-Fi,并且最大支持256GB的MicroSD存储卡,双倍于旧款相机,这应该足够使用了。三星在发布会现场提供了一张32GB的存储卡,可以支持拍摄超过2小时的4K画质视频、1万张1500万像素的照片,三小时的1/2缩时摄影,三小时的五分钟视频循环,或者是超过1万张HDR照片。

同时,视频的分辨率也从3840*1920/30FPS提升到了4096*2048/24FPS,这也表明我们不会看到图像质量上太大的提升。谈到图像质量,新款Gear 360只能以1500万像素的分辨率捕捉360°照片,而非3000万像素。这可能暗示着较小的840万像素的传感器与上一代产品的1500万像素传感器截然不同。视频的拍摄格式为MP4格式,使用了H.265编码,基本与上一代产品相同。

新款的Gear 360支持的视频拍摄格式:4096*2048/24FPS、2880*1440/30FPS、2560*1280/60FPS、1920*960/30FPS、1440*720/120FPS。

三星还把电池容量从1350mAh降到了1160mAh,这也是为什么新的相机尺寸更小的原因之一,并且由于使用了较小的传感器,也降低了电量消耗。

总之,新款Gear 360使用起来更加舒适,并且解决了老款相机最大的问题,那就是兼容性。三星已经意识到,他们需要用户生产尽量多的内容来让人们产生对VR和360°内容的需求。如果没有足够的内容,VR是无法继续存活的,并且我们认为,2017款的Gear 360是三星走出的正确的一步。

我们现在仍然在等待官方定价,但我真诚的希望,价格能够低于299美元。因为像是Insta360 Air这样的产品价格仅为129美元,而Insta360 Nano则只需199美元。必须承认,这些产品并不能拍摄4K画质的内容,但是价格上占据很大优势。价格对于市场普及来说是一个重要因素,花费349美元来购买一台仅支持三星手机的相机,是会让很多人心生厌恶的。至于支持新款Gear 360的APP,目前还处在公测阶段,旧版的APP也不支持新款的Gear 360(是的,我们已经试过了)。

最初发布于2017年4月1日

原文链接:https://uploadvr.com/samsung-gear-360-2017-first-impressions/

规模空前!平昌冬奥会将有30场赛事提供VR直播/点播

在接下来的几周,会有大约50名英特尔员工抵达韩国平昌,参与一个大项目。他们将会与一些现场工作人员、制作人员和VR相机一起,见证这家技术公司转变为移动的制作公司的过程。

这届冬奥会期间,将会有目前最大规模的VR直播,并且今年的冬奥会将会是首次使用VR技术进行实时转播的冬奥会。英特尔将会投入20余台自研的180°相机,在约两周半的冬奥会赛程中提供18场VR直播。英特尔拍摄的30场比赛中,有12场将会使用360°相机,可以为观众提供VR直播和点播内容。

在直播赛事中,英特尔将会使用3到6台相机,提供多种视角,观众可以按需切换。比如在高山滑雪比赛中,在门旁边的相机可以让观众看到运动员在准备开始,而其他的几台相机可能会放在赛道的几个关键点,以及终点位置。

“所以,如果我想从下边,左边或者右边来看弯道,或者我想看看当运动员在准备跳跃时的样子,”英特尔体育的用户体验产品经理Kalpana Berman在CES期间说。“我可以自由地选择相机的视角。”

英特尔内部的制作团队将会提供完整版本的VR体验,名为VR Cast。通过在180°全景立体视角之间互相切换,导演将会把素材进行组合,呈现给观众一个完整的故事,就像是观众期望在传统的电视报道中看到的那样。

那些在传统电视报道中呈现的数据,比如运动员的名字和国籍、实时的数据、排行榜、奖牌榜和比赛结果,都会由Olympic Broadcast Service提供,并且在VR中呈现给观众。

同时,直播视频流也会传送到云上,并且通过多种渠道进行分发,比如谷歌Daydream、三星Gear VR、Windows MR以及版权方的App和浏览器,比如NBC Sports VR和一些其他国家的直播平台,比如加拿大的CBC,欧洲的Discovery。

在冬奥会上将会采用VR拍摄的30场比赛中,囊括了从高山滑雪到花样滑冰等多种运动,其中有12场将会通过360°相机进行预制作,并且在赛后被分割成3到5分钟的点播片段。其他的预制作内容,比如参观九座平昌奥运场馆,会在冬奥会开始前提供点播内容。

当观众进入由英特尔打造的冬奥会虚拟世界中时,他们将会以鸟瞰视角观看数字技术重建的场馆,这时,观众可以根据场馆的不同来选择要观看的赛事。英特尔的VR直播会在2月9日的开幕式上正式开始,开幕式将于平昌奥林匹克体育场举行,这是一个临时的体育场,提供了35000个座位,是专门为开幕式和闭幕式打造的。

在上周举办的一场产品展示活动期间,英特尔的产品实施经理Blake Rowe说,这项技术的目标在于让观众进入通常无法到达的地方。比如在男子和女子冰球比赛中,相机会放在赛场旁边,两队的长凳之间。而在越野类的比赛中,相机将会分散在比赛的全程。

还有几段点播视频将会在比赛过程中,以运动员的视角进行拍摄,其中包括雪橇车比赛和高山滑雪。

Blake Rowe表示,VR体验会在未来的奥运会赛事中持续改进,就像观众消费体育赛事的方式那样。在未来,这些直播视频流或许会包含可互动的数据或其他的社交成分。

平昌冬奥会是一次大规模的VR内容制作的尝试,在此之前,英特尔已经制作了一些小规模的VR直播内容,包括每周一次的美国职业棒球大联盟赛事、全美大学生篮球锦标赛和美国职业高尔夫球赛。

最初发布于2018年1月23日

原文链接:https://www.sporttechie.com/inside-intel-plans-capture-2018-pyeongchang-olympics-virtual-reality/

身临其境+多人互动 是时候把VR带进课堂了

康奈尔校区八年级学生Jada Jenkins站在传统的教室中,使用VR进入了另一个世界,通过她佩戴的VR头显,身边的桌椅都消失了,她被一个三维的阔叶林包围着,这与她学校所在的宾夕法尼亚州西部区域的环境是完全不同的。这片生机勃勃的森林–包含了由几何形状构成的树木、其他植物和动物–吸引了Jada和其他八年级的学生们的兴趣。

“好酷!”Jada呼喊道,她在森林中也有属于自己的化身,当她寻找她的同学们时,注意到了手中的控制器,可以通过控制器让自己的化身移动。“我在向你挥手,转过身来,”她对一个朋友说到。

Jada和其他的学生都被分配到了各自的队伍中,要通过线索完成寻物游戏。哪个杂食性动物会在漫长的睡眠之后搜寻附近的植物和动物?那些解决了这一问题的学生,即找到黑熊的学生,可以在地上立起队旗,以表示胜利。

在学生们体验的同时,他们的耳机能够营造出森林中的氛围:比如湖中的水流声,或者山洞中的回声。

Jada说,她在搜寻过程中学到了狼和黑脉金斑蝶的知识。“当你在尝试炫酷的新技术时,你会想要尝试并且学习它,”她说道。

虚拟现实正在成为一个新兴的方式,来为K-12学校教育提供更深入的学习方式。当学生们沉浸在虚拟环境中时,他们所体验的学习方式是无法由书中的图片或文字传递的,VR的支持者们这样说。

“虚拟现实可以让学生们用尽可能接近真实的方式来探索地方和建筑,实际上并不用离开校园,”Kristopher Hupp说道。他是康奈尔校区的技术和教学创新总监,该校区位于宾夕法尼亚州匹兹堡往西10英里。

卡耐基梅隆大学的毕业生Julian Korzeniowsky正在和康奈尔校区的学生们一同进行研究,他将虚拟现实视为“通过让学生们参与其中,可以增进学生对知识的掌握的另一个途径。”

通过佩戴VR头显,康奈尔校区的学生们可以沉浸到叙利亚难民营、中国的长城和古罗马的三维环境中。有些学生在360°视频中观看了美国总统就职典礼,在其中,他们不仅可以看到面前的观众,甚至还可以体验到身处观众之中的感受。

专家说道,这些学生是将VR用作学习工具的先锋。虽然VR头显在线下体验店和电子产品商场中很常见,它们在学校中仍然是不寻常的。

而这,也即将发生改变。

Jesse Schell是卡耐基梅隆大学的娱乐技术实践特聘教授,同时也是Schell Games的创始人和CEO,他认为,虚拟现实能够被证明是非常有用的,“在任何时候,只有有一个难以形象化的内容,都可以用VR来展现。”

虚拟现实是一种沉浸式体验,其他的虚拟体验,比如增强现实和混合现实,可以把虚拟的内容投射到真实环境中,比如把一座虚拟的火山放在真实的桌子上。无论是增强现实还是混合现实,相比虚拟现实,都处在早期的开发阶段,但随着技术的进步,它们可能会有益于学生对地区、物体和抽象观念的形象化认知。

Schell的公司正在开发一个虚拟的化学实验室,他看到了早期的电脑和今天的虚拟现实之间的相似点。当电脑首次被引入到课堂中时,有些教育从业者们抱怨它们太昂贵,没有人使用它们,并且也没有足够的软件。

教育从业者们现在对于虚拟现实也持类似的保留意见,Schell说道。“我们将会看到这些争议逐渐消失,就像从1978年到1990年间,我们对电脑的争议那样。”

人们对于这项新技术的不满之处在于其高昂的价格和可用的内容,有些头显需要把学生束缚在某个设备上,佩戴着头显的学生不能看到其他人,甚至看不到教室,并且经常无法与同学们进行互动。而有些学生则在使用头显时会感觉眩晕或恶心。

“现在还有大量的挑战需要解决,”康奈尔校区的技术总监Hupp表示。

虽然康奈尔校区仅有630名学生,但却可以通过Allegheny Intermediate Unit赞助的2万美元资金来尝试虚拟现实。这是一个地区性的公共学校服务机构。

有了这笔赞助,该校区可以购买15台谷歌Daydream View头显,让大一些的孩子们使用,以及15台Mattel View Master VR头显,让年龄更小的学生们使用,此外还有15台谷歌Pixel手机。手机中已经安装了VR应用,放到头显中就可以体验。教师是不佩戴头显的,他们使用iPad来监控和引导VR体验。该校区还购买了两套360°相机,这样教师们就可以自己制作VR内容了。

其他的宾夕法尼亚州西部地区也在进行测试。Allegheny Intermediate Unit的教学创新总监Tyler Samstag已经对大概150名教师进行了虚拟现实和增强现实的培训。该机构还在增加VR设备,为教师们提供租赁服务。

康奈尔校区正在使用VR设备的消息传到了卡耐基梅隆大学的娱乐技术中心,在那里,学生们在开发一个名为Voyage的虚拟旅行体验。该校区和卡耐基梅隆大学达成了合作,在这项合作中,康奈尔校区的学生们可以参与设计项目。与很多VR体验会让学生们孤立所不同的是,Voyage可以让学生们在VR中进行协作。

七年级的学生们,可以和科学教师Susan Dunning和地理教师Megan Fuga一起,给卡耐基梅隆大学的学生们制作的内容提出反馈,而最终的反馈则由八年级的学生们提出,他们会首次体验这个游戏。

八年级的学生Victoria Cohen认为这段体验“确实非常酷”,并且对她能够在VR寻物游戏中使用她对乳草属植物的知识感到非常骄傲。“这是一个非常好的学习方式,因为看见一个东西远比通过阅读来了解要好得多。”她说道。

即使是沉浸在森林中,学生们仍然需要阅读有关植物和动物的线索,来完成寻物游戏。Dunning在这之后发起了传统的课堂讨论,在其中,学生们都很渴望分享他们学到的知识。

“有时一项技术虽然很酷,但并不是特别具有教育意义,”康奈尔校区的教师Andrew Erwin说道。他的高中二年级世界历史课程是用VR头显带学生们前往罗马。“但通过使用虚拟现实技术,即使是仅仅尝试一次,我也能说,这其中有一些教育价值。学生们在体验虚拟现实之后,会更好地掌握知识。”

即便如此,Erwin也没有把虚拟现实当做是日常课堂需要使用的体验,而将其视为可以偶尔使用的工具。

Schell说,现在已经可以进行一些测试了,但还没到大规模投入的时候。“从某个角度来说,很明显,你应该尝试下。”

最初发布于2018年2月7日

原文链接:http://hechingerreport.org/one-high-poverty-district-adding-virtual-reality-classrooms/