2016年10月19日至20日,美国加利福尼亚州圣何塞市
English Report Summary Sessions Breakouts Next steps Breakouts Videos
概要(Executive Summary)
2016年10月,由W3C组织召开了网络和虚拟现实研讨会,期间代表浏览器厂商、耳机和硬件制造商、VR内容提供商以及设计师和经销商在内的120名参与者,研究分析了在使Web成为VR体验的成熟平台时所带来的机遇。
随着既有的和正在开发中的Web API的出现和应用,特别考虑到WebVR API已成为近期标准化的一个重要目标以及Web极有可能成为360度全景视频发布的主要平台这些事实,与会人士认为其拥有广阔的发展前景。此外,他们也认识到将传统的Web页面得以增强进而给用户带来一种身临其境的临场感;长期来看,将3D内容作为基本模块提供给Web开发者和内容集成商,也将带来新的发展机遇。
总结 (Summary)
2016年10月19日至20日,W3C在圣何塞市组织召开了一个为期两天的关于Web和虚拟现实的研讨会,主办方是三星公司。会议的主要目标是汇集网络和虚拟现实技术的从业者,一起探讨如何使Web平台成为VR体验更好的实现机制。将业内专业人士聚集一堂、共商发展的目标已得到充分的实现:研讨会汇集了一群来自不同领域、组成多样化的参与者,涵盖了从Web到VR产业的专业人士,一起为Web上的VR应用制定未来发展方向和重点。这些参与者包括了所有主要的浏览器开发商和VR硬件销售商,以及关键VR平台供应商、VR内容生产商和经销商、VR和3D Web软件开发人员、VR体验设计师、VR用户和VR可访问性专家,共计多达120名注册与会者。
会议的第二个目标是在VR和相关领域参与者之间的经验分享,讨论如何解决当前VR用例在Web上很难或不可能实现这一问题,同时识别潜在的未来标准,以及为了使Web成为VR有效平台而制定的进度计划。此次研讨会分成十个一小时焦点分组会议,通过在这些分组会议中进行卓有成效的讨论,会议的第二个目标也取得了超出预期的效果。这些分组会议以多个相关小议题开始,然后分小组讨论,最后共同总结。这些简洁的分组会议涵盖了很多内容,从VR用户交互到多用户VR体验,再到编写制作VR体验,而突破创新分组则就选定的主题深入讨论。VR相关的音频和视频发展机遇,则在身临其境的音频小组和Web上360度全景视频快速分组会议中被分别讨论。在会议内容丰富的第一天结束时,研讨会安排了一场演示会,与会者展示了一些与研讨会相关的VR技术,比如Web上VR编辑工具使用的一些前沿技术;最新的WebVR实践;还有VR空间共享和位置音频演示等。
会议结束时,VR标准化的前景得以构建,这主要得益于会议期间与会者的热情参与和充分讨论。前景分析肯定了现有的有利于VR发展的W3C标准化工作,还就新的标准化工作给出了建议,并提出了未来可以进一步探索的长期标准化目标。此外,研讨会还呼吁在VR领域进一步促进W3C和Khronos协调发展,而针对如何与其他标准组织间合作的机会,比如与Web3D联盟、运动图像专家组、开放地理空间信息联盟之间的合作,研讨会认为也存在机遇。研讨会W3C和Khronos工作组研究了他们之间业已存在的相对成熟的合作,而对于那些探索性的想法将在各个W3C社区和Khronos社区中进行孵化。
分组会议 (Sessions)
参见:演示文稿Presentation和会议记录Minutes
研讨会的开幕式是一个全员大会和Dominique Hazael-Massieux先生所做有关W3C的介绍。之后,由Sean White先生(Mozilla的新兴技术高级副总裁)做主旨发言,为整个会议定下了基调。全员大会最后,由各个浏览器开发商谷歌、Mozilla、三星、Oculus VR以及微软汇报了当前WebVR的实践情况,同时这也为与会者指明了当前有多少已经实现,以及未来还有什么差。
在全体大会之后,在考虑与会者建议和大会收集到的高质量议题的基础上,快速讨论分组和专题讨论分组得以选定研讨会的讨论主题。研讨会的各个分组会议如下:
浏览器中的VR用户交互
参见:演示文稿Presentations和会议记录Minutes
浏览器中的VR用户交互分组会议识别基本原语需求,这些基本原语负责在VR体验中捕捉用户意图,同时分组会议还探索了VR交互中新兴的UI模式。
在这个分组会议中,展示了传统的浏览器UI如何被视为VR中的一个破坏因素,因此针对WebVR用例需要重新思考。速度和内容的流畅访问是Web的核心,超链接是Web架构的基本构建块。这些Web的典型特征必须在WebVR中保留,以此保证从web页面航行到VR世界中时,就如同浏览传统Web一样是无缝的、自然的体验。
“他们看了一些演示,或者玩了一个游戏,然后在离开时说对此他们留下了深刻的印象,但几乎所有人都评论说他们多么希望他们能够有手。”-Brandon Jones
在虚拟空间中利用手来交互是一个自然的交互机制。两种高级的手跟踪机制得以演示:针对阿凡达用例的骨骼跟踪(此处阿凡达的意思是人穿戴上VR设备后,像电影阿凡达中的人物那样进行操控,是一种隐喻),以及利用手势实现精确接口控制的光标跟踪。此外,还讨论了并展示了一种激光笔风格的默认输入机制,这种机制为非VR平台提供了一个备选方案。
对三星VR浏览器的学习,凸现了高级浏览器UI特征移植过程中的问题,例如标签管理到VR的移植。另一方面,三星VR浏览器中的一个功能,即允许2D web页面定制web内容窗口周围的VR空间,被认为是一个很好的为VR逐步增强2D内容的例子。
在共同讨论中,常见的交互模式可以被重新用来服务WebVR这一观点被提出,如从3D游戏和相关库中学习获得交互模式,以及从研究论文集中学习获得(例如IEEE VR)。研讨会认为一个具有挑战性的工作是文化多样性和手势标准集的域特异性。Web已经建立了一套标准原语(例如滚动条),这套原语适用广泛,同时以一种可预测的方式运转。长期来看VR也需要相似的原语。此外,我们还需要供WebVR内容开发人员使用的标准方法,以避免每一个WebVR页面表现出完全不同的行为方式,从而迷惑用户。
从标准化的观点看,以下是有待进一步调查研究的方面:
手跟踪(骨骼和光标)
手势识别和感知(简单界面控制)
用户输入模型(利用目光与对象交互,手臂模型,利用射线)
在VR中浏览Web时的环境定制(SkyboxAPI)
VR的交叉点和AR交互模型
导航转换(如闪光)
下一页预加载的经验(例如使用头信息)
流或3D的简单布局 (CSS或通过库)
碰撞检测和事件管理
优先级分区(避免迷路)
导航VR体验(路径寻找机制)
指导用户(面向的标准模型是什么)
VR体验的可访问性
参见:演示文稿Presentations和会议记录Minutes
VR体验的可访问性分组会议目的在于确定什么促成了一个可访问的VR体验,以及需要哪些基本构件来使得VR可以在不经意间接近。
在这个分组会议中,与会人员讨论了可访问性是如何跨越不同域和残疾人的,包括听觉、认知、神经系统、身体、言语和视觉。可访问性天生是多模式的,即从一种形态提供信息到另一种,同时可访问性也有跨越输入到输出的需求。从促使视频和图像变得可访问中学到的经验知识,同样适用于VR。
在更广泛的背景下,2D web对于VR中的所有人来说都应该是可访问的,包括了没有残疾的人。当前的web主要是2D内容,而2D内容采用的输入机制对VR而言不是最优的。改进2D内容使其在VR中变得可访问,这些机会包括使高质量的2D内容重投影(文本,圆柱表面,以及自定义的一些投影),大受欢迎的目标的使用,以及视窗特征的细致管理。此外,重新思考用户输入模型,使它在基于目光的输入、语音控制、以及仍需探索的基于预测和上下文感知键盘的支撑下,工作的更好。对安全措施的信任和理解,以保护系统抵御攻击如UI欺骗等,也是重要的。一些风险减控策略包括使用安全传输、目标环境的安全输入、集成的密码管理、表单填写和web支付集成。促使交互式的360度全景照片和视频可访问的技术被视为可以让VR中所有人可访问更广阔的2D web的一种途径。
多用户VR体验
参见:演示文稿Presentation和会议记录Minutes
多用户的VR体验分组会议讨论了当沉浸在一个孤立虚拟世界时,构建社交WebVR体验所面临的挑战和机遇,同时会议还确定了已知的技术方案和差距。
在这个分组中,构建大规模和小规模的实验性多用户服务,这一过程中的一些经验得以讨论。VR被视为是类似于互联网和智能手机的一个颠覆性事物,原因在于它输入的自由度和自然的交流。在通信和商务的VR一般应用,预计会超过娱乐。客户端/服务器模型被认为更适合于多用户VR,因为相比基于管理的应用商店垂直模型,它可以扩展到数以百万计的VR服务器。一个用于构建大规模多用户VR服务的平台,必须遵守以下要求:低延迟、实时数据传输(< 100 ms的端到端延迟),将3D音频和阿凡达运动数据混合的能力,支持压缩场景描述,实时场景和对象的更新,以及分布式服务器。适合制定标准的一些可能的领域包括身份、内容可移植性(外观和脚本)、资产的真实性证书、以及服务器发现。另一方面,Web已经是一个可行平台,可以构建小规模协同参与的VR体验,如原型系统所演示的,这个原型系统是基于WebVR、Web音频(WebAudio)和Web实时通讯构建(WebRTC)的。
身临其境是多用户用例中存在感和参与感的关键,我们需要在任何时刻都能呈现我们自己。然而,阿凡达并不符合我们已经发展出来的社交技巧。在多用户VR中,能够表达肢体语言和非语言沟通,需要眼神和面部表情、动态姿态和定位、空间行为和策略,以及有效的触觉和操作。出现的挑战是如何使WebVR传达这种类型的自然交流。
混合现实服务MRS是一种提议方案,它可以提供一个元数据层,而这个元数据层对大规模多用户VR而言是很关键的。它将现实世界和虚拟世界结合,将坐标转换成统一资源定位符URI。通过简单的修改,MRS可以为混合现实和虚拟现实都提供映射服务。
在Web上编辑VR体验
参见:演示文稿Presentations和会议记录Minutes
(工作正在进行之中)
Web上高性能VR
参见:演示文稿 Presentations和会议记录Minutes
Web上高性能VR分组会议分享了多个主题,包括WebVR实现知识和性能最佳实践、发现缺陷、避免出现命中低延迟VR的场合,以及确定在VR环境中对其他性能增强技术的需求,例如Web编译(WebAssembly)。
在Chrome Android经验和陷阱的规避讨论中,高性能是与会者认可的一个明确目标:<20 ms的移动时间延迟(移动时间延迟指的是当使用者移动姿势,系统根据新的位置重新计算更新影像,并且投影让使用者见到的时间差)。简单的解决方案是快速呈现,以目标帧率呈现,尽可能晚的确定姿势。这个方案中的丢帧现象是非常让人不愉快的,而根据质量要求进行自适应呈现则在这方面有优势。一个替代的方案是时间扭曲(或空间扭曲),它可以在变形阶段调整视图,围绕后续的帧工作,这是一个平滑的解决方案,但会引入伪影。
齿轮状的VR(Gear VR)性能调整和缺陷讨论,概述了为什么移动VR是很困难的。相比较PC,当前的移动平台会引入系统集成问题,还有WebVR特定的一些问题,如超大的纹理结构,还有性能敏感的WebGL API调用的过度使用问题。用于移动性能分析的开发工具使用起来很困难,尤其是对Web开发人员。
构建一个WebVR内容管道的讨论,谈及到如何为VR内容做准备、制作VR流及优化内容。VR内容是高度复杂的,因为它包括了网格、纹理结构、阴影以及皮肤,WebVR内容管道必须处理这种复杂性。构建系统和工具需要从游戏产业中学习发展。现有Web的构建方案(例如Webpack,Browserify)对大规模2D web站点而言是最优的,但不满足WebVR内容的特殊需求。此外,打包也不是最优的解决方案,因为它需要大量下载,会伤害到迭代开发。
在服务器端,跨源资源共享使得可以自由托管可寻址内容,智能CDN可以被用来卸载任务,例如依赖于设备性能的纹理结构规模优化。在客户端,渐进的纹理结构加载(使用顶点颜色回退)、服务角色(service workers)(预测、预取、缓存)、web应用程序manifest文件、以及web开发人员定义应用类型的最佳实践,将帮助确保WebVR保持在一个没有安装、没有长时间下载、没有等待环境的状态,伴随着它的核心能力持续增强。
WebVR下一个讨论概述了未来实现一个更高性能版本的可能目标。例如增加更多的WebGL性能原语,支持设备特定层,以及与其他相关规范间的更多交互:Web应用程序Manifest文件、服务角色(Service Worker)、WebGL、Web成像(Web Imaging)、手柄(Gamepad)、人员角色(Workers)。提议的一些更改是增量式的,一些还可能会引入重大的突发变化。性能增强WebGL的功能识别包括了多视点实例化、以减少开销,几何图形工具(字体, HTML到面向几何图形),以及计算着色器。此外,保留了更多的功能,如持续的静态层,这个静态层例如可以用来加载屏幕,还保留了光标层和可以对我们识别的表面进行高质量2D表示的圆柱层。还应该注意到的是,我们应该谨慎走的太远,避免变成了一个完整的保留场景图。浏览器的执行模型,包括线程、垃圾回收、以及HTML5事件循环等,当前对2D HTML内容来说是最优的,该模型还可以从优化中获益,而这个优化是由WebVR的学习触发的。
Web上360度全景视频
参见:演示文稿Presentations和会议记录Minutes
360度全景视频的Web分组会议确定了对流基础设施(包括服务端和客户端)进行改进以适应360度内容流的大量需求,同时了解需要对HTML媒体接口做些什么改变,从而适应360度媒体内容。
在这个分组会议中,一个概念验证性的360度云流解决方案被提出,这个方案可以促成在低性能设备如混合电视或移动设备上,体验高质量的360度全景视频。自然的360度全景视频体验意味着观众能够自由改变她的个人观看角度,这就要求在每一时刻任何视点方向的完整球形映像都是可用的。所讨论的选项包括在服务器端呈现视图,并且只将选择后的36度全景视频内容流出到终端设备,或者利用现有的W3C媒体源扩展API(Media Source Extensions API),在客户端进行360度全景视频的处理,使得在浏览器中实现360度玩家成为可能。因受到不同因素如网络延迟、缓冲策略以及段持续时间的影响,移动时间延迟是已知的局限。
为了提供基于标准的360度体验,我们认识到需要对媒体源的扩展API(Media Source Extensions API)和HTML视频元素(HTMLVideoElement)进行扩展丰富,或者,需要在HTML媒体元素(HTMLMediaElement)中提供构件,使原生的360度视频播放器能够集成使用,包括集成正确呈现视图时需要的元数据、利用相关变化事件设置和获取视图域的API、以及可能的缩放因子等。
在原生球形视频路径方案讨论中,非矩形媒体格式(包括投影)不是标准的这一问题被特别提到,因此在当前的解决方案中,管道是由<video>,WebGL和WebVR一起组成,其中应用程序确定并应用投影。短期内,诸如VR视图的一些库,将为开发人员抽象出投影。有建议指出,应该将投影和3D信息指定到容器中(例如针对ISO BMFF(MP4)和WebM的建议)。基本的假设主要有两个,一是由于延时、性能、DRM或其他原因,自适应的支持球形呈现是满足需要的;二是浏览器负责处理元数据和解决投影。此外,在渐进增强这一精神的引领下,大家一致认为支持所有的客户端和用户,包括那些佩戴和没有佩戴耳机的,是必须的。最后,原生球形视频的两种方法得以讨论:最简单的方法是让浏览器提供UX,进而选择球形呈现;另一个更加完整强大的方法是球形的DOM(文档对象模型)表示,其中球形的< video >就像任何其他元素。
身临其境的音频
参见:演示文稿Presentations和Minutes
身临其境的音频面板分组会议讨论了Web上身临其境的音频的当前状态和计划并征求了参与者的反馈意见,进而报告给相关的标准制定工作组,如W3C中的音频工作组(W3C Audio Working Group)。
在这一分组会议中,我们讨论了W3C正在推进的工作,即需要针对Web上的VR将声音当作一个一级优先任务来对待:针对音频处理的标准API,在此API之上如何构建高质量的空间音频渲染器,以及基于对象的音频和针对重大线性VR体验的空间化技术的重要性。
这一分组会议中有三个演讲:首先,我们听取了Raymond Toy(谷歌,兼W3C音频工作组的编辑)的关于Web音频API(Web Audio API)规范的演讲,该规范旨在为浏览器中的音频处理提供原生的能力,包括空间效应。Raymond提到,该工作组目前正在重新考虑新的版本,同时就API的下一版本渴望收到广泛的意见和建议。随后是一些提问,主要是关于空间化特征的实现问题。接着,我们听取了Hongchan Choi的关于Google Omnitone项目的演讲,该项目旨在呈现一个空间音频,该音频排他性地只与Web音频API(Web Audio API)的原生节点一起构建。最后,我们听取了Mike Assenti(杜比实验室)的关于如何通过利用、定位和处理基于对象的音频从而创建身临其境的线性VR体验的演讲。之后是小组的问答环节,包括关于音频API角色友好的讨论,关于可访问性的问题,以及会谈本身相关的一系列后续问题。
突破创新 (Breakouts)
突破创新分组会议为研讨会的参与者们提供了小组讨论研讨会中确定的特定话题,并深入讨论细节的机会。完整的会议列表参见突破创新分组会议(1)和 (2) ,同时可从以下选定的分组会议中了解细节信息。
利用WEBGL_multiview减半绘画调用(Olli Etuaho, NVIDIA)
参见:演示文稿Presentation,稻草人建议Strawman proposal,会议记录Minutes
这一突破创新的目标是解决以下的开放式问题,即OVR_multiview的WebGL版本看起来应该是什么样的;在WebVR中如何有效地利用扩展显示生成的帧缓存;以及了解在画布或WebVR规范中需要做哪些改变以促使更有效的立体呈现。
基于突破创新分组会议中得以讨论的OVR_multiview,WebGL扩展建议承诺减半JS中的绘画调用。所讨论的开放式问题包括:
如何指定着色器的限制?
共享的限制越多,用于在栈的较低层次加速扩展的空间就越大。伴随着更少的着色器限制,应用程序(例如浏览器)就可以获得更多的灵活性。一种可能的折中方法是显示限制的多个层级。
WEBGL_multiview如何与WebVR交互?
OVR_multiview着色成一个层数组结构,WebVR需要左右视图来将目标对象并排呈现到一个被指定为VRLayer源的画布元素(canvas element)。从两层结构过渡到WebVR而不触发额外的副本,最好的办法有三种选项:指定WEBGL_multiview并排呈现;新的分层交换链作为VRLayer源;或者增加分层立体选项到画布元素(canvas element)。
WebVR的可访问性(Charles LaPierre, Benetech)
参见:会议记录Minutes
这一突破创新分组会议的目标是寻求一个路径方案,沿着该路径方案可以使得现有的辅助技术如屏幕阅读器、盲文显示器等,能够与VR进行交互,同时提供另一种呈现视觉或听觉信息的形态方式。
Web标准能够帮助直接开发人员进行最佳实践,实现最好的可访问性,从一开始就增加可访问性,而不是作为事后的想法。针对有视觉障碍的人,API允许辅助技术获得对象如场景等的描述还是一个尚未解决的问题。此外,如何获得这些描述,以及这些描述需要详细到什么程度也是问题。可访问性API的例子以及有助于辅助技术的特征如下:
允许颜色转变帮助色盲的API
允许音频变化帮助部分失聪人员的API
将可访问性元数据添加到任何可以被复用的VR对象,将有助于可发现性
如果全方位的运动不可行,VR系统应自动调整来适应用户限制模式,从而拉近控制
隐私问题必须解决,这样使用某些可访问性特征的用户将不会被识别出
允许采用多种方式与虚拟环境交互,反之也可以采用多种方式从虚拟环境中抽取信息
Web上的深度传感网络(Ningxin Hu, Intel / Rob Manson, awe.media)
参见:会议记录Minutes,媒体捕获深度流扩展规范Media Capture Depth Stream Extensions spec,和空间映射演示 Spatial mapping demo
深度相机能够提供显示对象表面上的点和相机之间距离信息的深度地图。一些相机还能同时提供同步的RGB图像和深度地图。如今,深度相机逐渐被装备到VR/MR/AR设备中,例如Oculus的Leap Motion,Intel的Project Alloy,微软的HoloLens以及谷歌的Tango等,其用途包括了手跟踪、手势识别、碰撞避免和空间映射等,对于身临其境的VR/MR/AR体验来说,深度相机是必不可少的。
这一突破创新分组会议的目标包括审查能够揭露Web的深度感知能力,确定VR/MR/AR使用的差距,以及讨论潜在的工作领域和解决方案。
媒体捕获深度流扩展规范(The Media Capture Depth Stream Extensions spec)聚焦于将原始深度数据显示到网络上。规范还增加了深度相机内在函数,如视野、焦距、远/近、以及颜色相机同步等,从而支持基于深度的计算视觉,就像在点云库中一样。在将深度相机和HMD集成在一起时,传感器的位置需求、与IMU/HMD的同步、帧率、以及会话协调等问题都会出现。
对于一些高级的用法,如实时的空间映射等,如果处理原始深度数据是在JS/Web编译(WebAssembly)中执行,那么这对CPU的性能和功率来说具有很大的挑战性。原生应用通常利用GPU的并行化或卸载处理一个专用的协处理器(例如HoloLens全息处理单元HPU)。这需要一个高级的API来优化这些用法。例如,一个实验性的空间映射Web API演示被公布(见https://youtu.be/pXyDiYJO0nA),这个API能够将数组缓冲区中的环境网格数据平面化,并且上传到WebGL着色器(WebGL shader)。
下一步,提议创建一个联合兴趣小组,并提出了其他相关的倡议(WebGL,获取用户媒体(getUserMedia),WebVR,权限(Permissions)。
Web上的高性能处理(Philipp Slusallek, DFKI)
这一分组会议的动机是在WebVR应用中,需要一些计算密集型的工作量,而针对这些工作量,当前的硬件能力尚未发挥,要发挥的话可能又困难。然而,通过利用HW功能,例如利用SIMD指令、GPU计算、或者其他HW加速器,并不仅仅对更高的性能有益,还可能降低电力消耗,这在移动平台上显得尤为重要。这种工作量的例子包括具有一定复杂度的动画计算;物理计算;图像和视频处理(例如针对AR的);空间化语音效果;粒子;镜头和特效;以及其他特定应用的计算。这一分组会议主要关注于数据的并行化,就像线程级的并行化看起来似乎被各个WebWorker很好的覆盖一样。
分组会议期间讨论了以下观察结论:
当前的JS对这一任务而言是不够的,因为它不能表达上述应用所需的并行化的语义。
使用著名的高级语言如JS(受限制的形式),看起来似乎是显现这些特征的最好方式。这可能会涉及到能够将语言翻译成可被执行的原生代码的编译器(在JS中或内置的)。编译器还可以实现可能需要的必要安全措施。此方法的一个示例是shade.js,shade.js将JS的一个受限形式编译成GPU适用的分段和定点着色器。
另一个完全可编程的方法是基于流图的方法,方法中一些输入数据流过由单独“操作器”组成的图,这些“操作器”转换每一个节点上的数据,为图中的后续节点提供新的数据。作为一个附加组件,单个节点可能是可编程的(见上描述)。这种方法将声明式方法(配置网络)与可编程方法相结合,从而实现单独节点。然后,一个运行时系统可能会将这一网络描述编译成高性能代码。Xflow就是一个例子。
JS(例如SIMD.js)中暴露的一些低级指令可能会是上述技术的促成器,但是对于大多数Web开发者来说,它们本身太低级了。
有趣的是Web浏览器已经包含了(JIT)编译器,出于这样一些原因,JIT编译器可以被浏览器中的一个新前端当作后端使用。
Web编译(WebAssembly)看起来似乎是将传统编译器生成的“原生”代码与Web相结合的一个很有前景的候选方案。然而,目前它并不提供GPU卸载的SIMD特征。有趣的是,这和Khronos提出的SPIR-V具有很强的相似性,SPIR-V完全是从GPU的观点出发的。将这两种结合在一起会是很有益的。
后续的计划可能是开发(1)利用授权技术如SIMD.js或者glsl的加速JS库(不管怎样都会发生),(2)一种基于流图的方法,以允许超过单个功能的优化和细粒度的优化,(3)一个用于表达并行化的受限JS语言,这项任务看起来最有价值,但是需要大量更长期的工作。
大家一致认为也要与Khronos (Neil Trevett)保持更紧密的联系,进而探讨共同的利益和可能的标准化工作。
链接遍历,我们还在那里吗?(Fabien Benetou,FreeLance)
参见:会议记录Minutes,演示文稿Presentation,A型链接遍历Link traversal with A-Frame和A型远距传动Teleportation in A-Frame
超链接是Web的一个典型特征,也是将各部分内容链接在一起的一个概念,需要从信息时代和当前2D信息的范式,过渡到实验性媒介VR。
这一突破创新分组会议的目标包括评估现有的实现机制;基于目前的规范对比方法;定义约束限制和新的需求,如深度链接等价体和跨越体验的阿凡达持久性。其次,该分组会议还要确定为了能够从一个VR体验导航到另一个潜在的由不同内容提供商管理维护VR体验,而不离开VR,是由什么构成了一个浏览器所必备的最小特征集。
当在不同的VR体验间导航时,为了维持Web上的信任,我们需要保持:用户控制,安全性以及开放性。用户控制意味着用户拥有选择去哪里以及如何去哪里的自由。安全性考虑和最佳实践(HTTPS,呈现XSS的内容安全策略(Content Security Policy to present XSS),反钓鱼)同样适用于WebVR。WebVR超链接环境中的开放性意味着导航的各种方法必须被保留(例如window.location,<a>,location headers以及<meta http-equiv>)。
后续计划(Next steps)
参见:演示文稿Presentations,会议记录Minutes,WebVR社区组WebVR Community Group,以及声明的WebVR社区组Declarative WebVR Community Group
研讨会以一个VR标准化前景分组会议结束。该分组会议从研讨会上集思广益,并就VR标准化相关的可能工作项提出了观点。
目前确定与W3C相关的标准化工作包括空间音频(spatial audio)、手柄(gamepad)、Web角色(web worker),流媒体(media streaming),HTML媒体扩展(HTML media extensions),低延迟数据(ow-latency data)和AV转换、身份、深度相机、视频角色(video worker),以及颜色空间管理、性能指标,UI安全(UI security)和支付。
研讨会的讨论还指出了新的标准化工作,这些工作将有助于对Web上VR生态系统的理解。提出的近期新工作包括:
将目前正在孵化的WebVR API交付给一个工作组进行推进,
手柄(gamepad)扩展,
在HTML中提高对360度媒体集成的支持,包括360度流媒体,
将DOM投影到非矩形空间,
CSS媒体查询的VR模式,
当用户在VR中浏览Web时(Skybox API),定制用户环境的方法,
语音识别API的标准化,媒体同步,Web编译(WebAssembly),以及媒体能力的检测。
基于参与者的反馈,长期的标准化目标也都被确定,即受认可的进一步探索和孵化。这些包括了3D对象模型(3D Object Model)和事件;声明式3D标记;导航转换;链接遍历元数据;VR统一用户输入;手势识别框架;3D背景下的字体处理;细粒度调度;VR的ARIA;VR实体注释;以及身份或阿凡达管理。这些话题的孵化可能会发生,例如在已有的或者新成立的W3C社区团体中。
此外,在未来可能还需要或可能不需要标准化的讨论中,提出的一些新兴话题包括桥接DOM到WebGL;VR中的2D Web浏览;为VR建立UI模式;真实/虚拟世界的绑定;真实性包含,所有权和地理控制。
致谢 (Thank You!)
组织者对帮助此次研讨会组织及召开的人士所做出的努力致以最深切的谢意。特别要感谢程序委员会(Program Committee)成员们的支持和贡献;会议主办方(workshop host )为我们提供的一流的会议设施;以及赞助商(sponsors)的支持。同样谢谢你们这些无名英雄们;我们的编辑人员,你们帮助编辑整理了各个分组会议文件;以及媒体工作者。最后,感谢所有的会议参与者(workshop participants),大家共同努力使会议成为一件富有成效、正面积极、激发灵感、同时又十分有趣的事。你们都值得一个大大的感谢,轻拍汝背聊表谢意!
值得骄傲的是,W3C是一个开放包容的组织,专注于富有成效的讨论和行动。我们的道德规范和职业行为(Code of Ethics and Professional Conduct)确保所有的声音都可以被听到。
如有疑问,请联系Dominique Hazael-Massieux<[email protected]>。
如有改进研讨会页面的建议,如改正拼写错误或增加特定主题等,可以通过在GitHub上点开一个下拉请求的方式提交(pull request on GitHub),或者通过发送电子邮件至Dominique Hazael-Massieux<[email protected]>。
更多相关链接:Minutes Position Statements Workshop Agenda Call for Participation
评论已关闭