互动视频的处理方法、装置、计算机设备和存储介质与流程

未命名 08-03 阅读:103 评论:0


1.本技术涉及计算机技术领域,特别是涉及一种互动视频的处理方法、装置、计算机设备和存储介质。


背景技术:

2.随着移动终端应用的普及以及互联网技术的发展,人们对视频观看的形式提出了更高的需求,互动视频应运而生。
3.现有的互动视频方案的交互方式都是,呈现传统的单视角的视频片段供用户观看,用户可通过点击屏幕或操作遥控器选择文字选项,以实现视频的互动这种传统的视频互动方式,互动方式单一,存在视频交互性低的问题。


技术实现要素:

4.基于此,有必要针对上述技术问题,提供一种能够提高互动视频的交互性的互动视频的处理方法、装置、计算机设备和存储介质。
5.一方面,本技术提供了一种互动视频的处理方法。所述方法包括:
6.在达到与当前角色对应的交互顺序时,以至少一个视角展示交互视频片段的虚拟场景,所述交互视频片段基于交互顺序在前的角色执行完虚拟交互操作而更新得到,所述交互视频片段的虚拟场景中包括有至少一个互动控件;
7.若在所述交互视频片段的虚拟场景中发生指向目标互动控件的虚拟交互操作,则展示与所述目标互动控件对应的至少一个互动选项;
8.响应于对所述互动选项的虚拟交互操作,触发对所述交互视频片段中的目标互动控件的属性进行调整,以对所述交互视频片段进行更新;其中,所述目标互动控件的属性至少包括隐藏和展示中的一种。
9.另一方面,本技术还提供了一种互动视频的处理方法。所述方法包括:
10.响应于第一终端发起的交互请求,反馈与所述交互请求的交互顺序相匹配的交互视频片段;反馈的所述交互视频片段用于供所述第一终端以至少一个视角展示交互视频片段的虚拟场景;
11.接收第一终端反馈的虚拟交互信息,其中,所述虚拟交互信息为第一终端在检测到针对所述虚拟场景中目标互动控件的互动选项的虚拟交互操作时生成得到;
12.根据所述虚拟交互信息,对当前的交互视频片段中互动控件的属性进行调整,得到更新后的交互视频片段,所述更新后的交互视频片段用于传递至交互顺序在后的第二终端进行展示。
13.另一方面,本技术还提供了一种互动视频的处理装置。所述装置包括:
14.第一展示模块,用于在达到与当前角色对应的交互顺序时,以至少一个视角展示交互视频片段的虚拟场景,所述交互视频片段基于交互顺序在前的角色执行完虚拟交互操作而更新得到,所述交互视频片段的虚拟场景中包括有至少一个互动控件;
15.第二展示模块,若在所述交互视频片段的虚拟场景中发生指向目标互动控件的虚拟交互操作,则展示与所述目标互动控件对应的至少一个互动选项;
16.触发模块,用于响应于对所述互动选项的虚拟交互操作,触发对所述交互视频片段中的目标互动控件的属性进行调整,以对所述交互视频片段进行更新;其中,所述目标互动控件的属性至少包括隐藏和展示中的一种。
17.在其中的一个实施例中,所述装置还包括播放模块,用于响应于对所述互动选项的虚拟交互操作,展示与所述目标互动控件相关联的关联视频片段的虚拟场景。
18.在其中的一个实施例中,所述虚拟交互操作至少包括对象在虚拟场景中执行的动作、所述对象的语音指令、以及所述对象的注视行为中的一种。
19.在其中的一个实施例中,所述装置还包括顺序选择模块,用于展示顺序选择视频片段对应的虚拟场景;响应于在所述顺序选择视频片段的虚拟场景中的虚拟交互操作,确定与当前角色对应的选择信息,并将确定的选择信息上报至服务器,以使得所述服务器基于上报的多个角色对应的选择信息确定各角色分别对应的交互顺序;接收服务器反馈的与所述当前角色对应的交互顺序。
20.在其中的一个实施例中,所述装置还包括角色选择模块,用于展示包括多个候选角色的角色选择视频片段所对应的虚拟场景;响应于对所述候选角色的选择操作,确定与当前对象对应的当前角色,并以至少一个视角播放与当前角色相关联的剧情视频片段;所述剧情视频片段用于影响当前对象在所述顺序选择视频片段的虚拟场景中的虚拟交互操作。
21.在其中的一个实施例中,所述第一展示模块还用于检测所述对象在虚拟场景中执行的动作,基于所执行的动作确定当前视角;确定与当前视角对应的交互视频片段的虚拟场景,并进行展示。
22.在其中的一个实施例中,所述第一展示模块还用于获取与所述交互视频片段对应的全景虚拟模型;对所述全景虚拟模型中处于当前视角的可见范围内的内容进行渲染,得到与当前视角对应的交互视频片段的虚拟场景。
23.在其中的一个实施例中,所述交互视频片段的虚拟场景中的互动控件携带有控件标识,所述装置还包括绑定模块,用于响应于对所述互动选项的虚拟交互操作,建立所述目标互动控件的控件标识与所述当前角色的绑定关系。
24.在其中的一个实施例中,所述装置还包括第三展示模块,用于响应于当前角色的展示请求,根据所述绑定关系确定与所述展示请求中携带的控件标识对应的目标互动控件;在共享虚拟场景中展示所述目标互动控件,以使得加入到所述共享虚拟场景中的其他对象查看所述目标互动控件。
25.在其中的一个实施例中,所述装置还包括票选模块,用于在所有角色均执行完与所述交互视频片段对应的虚拟交互操作后,进入共享虚拟场景,以实现不同角色间的信息交互,所述信息交互的结果用于影响对角色进行票选的虚拟交互操作;响应于对全部角色中的至少一个角色进行票选的虚拟交互操作,展示结局视频片段,其中,所述结局视频片段基于每个对象分别触发的用于进行票选的虚拟交互操作共同确定。
26.在其中的一个实施例中,所述装置还包括字幕展示模块,用于在虚拟场景中的字幕显示区域中展示字幕信息,所述字幕信息在字幕显示区域内以预设移动速度进行展示,
所述预设移动速度与视角的转动速度相匹配。
27.另一方面,本技术还提供了一种互动视频的处理装置。所述装置包括:
28.反馈模块,用于响应于第一终端发起的交互请求,反馈与所述交互请求的交互顺序相匹配的交互视频片段;反馈的所述交互视频片段用于供所述第一终端以至少一个视角展示交互视频片段的虚拟场景;
29.接收模块,用于接收第一终端反馈的虚拟交互信息,其中,所述虚拟交互信息为第一终端在检测到针对所述虚拟场景中目标互动控件的互动选项的虚拟交互操作时生成得到;
30.更新模块,用于根据所述虚拟交互信息,对当前的交互视频片段中互动控件的属性进行调整,得到更新后的交互视频片段,所述更新后的交互视频片段用于传递至交互顺序在后的第二终端进行展示。
31.另一方面,本技术还提供了一种计算机设备。所述计算机设备包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
32.在达到与当前角色对应的交互顺序时,以至少一个视角展示交互视频片段的虚拟场景,所述交互视频片段基于交互顺序在前的角色执行完虚拟交互操作而更新得到,所述交互视频片段的虚拟场景中包括有至少一个互动控件;
33.若在所述交互视频片段的虚拟场景中发生指向目标互动控件的虚拟交互操作,则展示与所述目标互动控件对应的至少一个互动选项;
34.响应于对所述互动选项的虚拟交互操作,触发对所述交互视频片段中的目标互动控件的属性进行调整,以对所述交互视频片段进行更新;其中,所述目标互动控件的属性至少包括隐藏和展示中的一种。
35.另一方面,本技术还提供了一种计算机设备。所述计算机设备包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
36.响应于第一终端发起的交互请求,反馈与所述交互请求的交互顺序相匹配的交互视频片段;反馈的所述交互视频片段用于供所述第一终端以至少一个视角展示交互视频片段的虚拟场景;
37.接收第一终端反馈的虚拟交互信息,其中,所述虚拟交互信息为第一终端在检测到针对所述虚拟场景中目标互动控件的互动选项的虚拟交互操作时生成得到;
38.根据所述虚拟交互信息,对当前的交互视频片段中互动控件的属性进行调整,得到更新后的交互视频片段,所述更新后的交互视频片段用于传递至交互顺序在后的第二终端进行展示。
39.另一方面,本技术还提供了一种计算机可读存储介质。所述计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
40.在达到与当前角色对应的交互顺序时,以至少一个视角展示交互视频片段的虚拟场景,所述交互视频片段基于交互顺序在前的角色执行完虚拟交互操作而更新得到,所述交互视频片段的虚拟场景中包括有至少一个互动控件;
41.若在所述交互视频片段的虚拟场景中发生指向目标互动控件的虚拟交互操作,则展示与所述目标互动控件对应的至少一个互动选项;
42.响应于对所述互动选项的虚拟交互操作,触发对所述交互视频片段中的目标互动
控件的属性进行调整,以对所述交互视频片段进行更新;其中,所述目标互动控件的属性至少包括隐藏和展示中的一种。
43.另一方面,本技术还提供了一种计算机可读存储介质。所述计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
44.响应于第一终端发起的交互请求,反馈与所述交互请求的交互顺序相匹配的交互视频片段;反馈的所述交互视频片段用于供所述第一终端以至少一个视角展示交互视频片段的虚拟场景;
45.接收第一终端反馈的虚拟交互信息,其中,所述虚拟交互信息为第一终端在检测到针对所述虚拟场景中目标互动控件的互动选项的虚拟交互操作时生成得到;
46.根据所述虚拟交互信息,对当前的交互视频片段中互动控件的属性进行调整,得到更新后的交互视频片段,所述更新后的交互视频片段用于传递至交互顺序在后的第二终端进行展示。
47.另一方面,本技术还提供了一种计算机程序产品。所述计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现以下步骤:
48.在达到与当前角色对应的交互顺序时,以至少一个视角展示交互视频片段的虚拟场景,所述交互视频片段基于交互顺序在前的角色执行完虚拟交互操作而更新得到,所述交互视频片段的虚拟场景中包括有至少一个互动控件;
49.若在所述交互视频片段的虚拟场景中发生指向目标互动控件的虚拟交互操作,则展示与所述目标互动控件对应的至少一个互动选项;
50.响应于对所述互动选项的虚拟交互操作,触发对所述交互视频片段中的目标互动控件的属性进行调整,以对所述交互视频片段进行更新;其中,所述目标互动控件的属性至少包括隐藏和展示中的一种。
51.另一方面,本技术还提供了一种计算机程序产品。所述计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现以下步骤:
52.响应于第一终端发起的交互请求,反馈与所述交互请求的交互顺序相匹配的交互视频片段;反馈的所述交互视频片段用于供所述第一终端以至少一个视角展示交互视频片段的虚拟场景;
53.接收第一终端反馈的虚拟交互信息,其中,所述虚拟交互信息为第一终端在检测到针对所述虚拟场景中目标互动控件的互动选项的虚拟交互操作时生成得到;
54.根据所述虚拟交互信息,对当前的交互视频片段中互动控件的属性进行调整,得到更新后的交互视频片段,所述更新后的交互视频片段用于传递至交互顺序在后的第二终端进行展示。
55.上述互动视频的处理方法、装置、计算机设备、存储介质和计算机程序产品,通过在达到与当前角色对应的交互顺序时,以至少一个视角展示交互视频片段的虚拟场景,能够提供真实、沉浸式的虚拟现实体验;在对象自由观看交互视频片段的虚拟场景时,通过检测发生指向目标互动控件的虚拟交互操作,并展示与目标互动控件对应的至少一个互动选项,实现虚拟现实技术与互动视频的结合,提供了丰富复杂的交互手段,给予对象高度沉浸式的互动视频观看体验。同时,通过检测并响应对象对所述互动选项的虚拟交互操作,触发对所述交互视频片段中的目标互动控件的属性进行调整,以对交互视频片段进行更新,以
使得下一个对象通过其对应的终端进入到同一个虚拟场景中时,由该对应的终端向该下一个对象展示更新后的交互视频片段的虚拟场景,使得每个对象观看到的虚拟场景不同,提高了互动视频的交互性。
附图说明
56.图1为一个实施例中3d显示技术使用的头戴式显示器的示意图;
57.图2为一个实施例中纸盒头戴式vr设备的示意图;
58.图3为一个实施例中互动视频的处理方法的应用环境图;
59.图4为另一个实施例中互动视频的处理方法的流程示意图;
60.图5为一个实施例中vr头部显示器的原理示意图;
61.图6为一个实施例中顺序选择的步骤的流程示意图;
62.图7为一个实施例中角色选择的步骤的流程示意图;
63.图8为一个实施例中展示目标互动控件的步骤的流程示意图;
64.图9为一个实施例中通过投票确定结局视频片段的步骤的流程示意图;
65.图10为一个实施例中以任意视角观看互动视频的虚拟场景的步骤的流程示意图;
66.图11为一个实施例中全景视频在渲染时的球形模型和贴图展开的示意图;
67.图12为一个实施例中全景视频的渲染的步骤的流程示意图;
68.图13为一个实施例中全景虚拟模型投影到cvv空间的示意图;
69.图14为一个实施例中gui界面的示意图;
70.图15为一个实施例中vr互动视频交互逻辑的流程示意图;
71.图16为一个实施例中剧本杀应用场景的时序流程图;
72.图17为另一个实施例中互动视频的处理方法的流程示意图;
73.图18为一个实施例中互动视频的处理装置的结构框图;
74.图19为另一个实施例中互动视频的处理装置的结构框图;
75.图20为一个实施例中计算机设备的内部结构图。
具体实施方式
76.为了使本技术的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本技术进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本技术,并不用于限定本技术。
77.互动视频是视频与文字冒险游戏的结合,通过利用专门的播放工具,通过视频来讲述故事发生的过程,并在剧情的分歧点向对象展示不同的文字选项,对象根据自己的喜好选择不同的剧情走向。因此互动视频既保持了视频的表现力,又提供了更好的交互性。然而,现有的互动视频方案的交互方式都是点击屏幕或操作遥控器选择文字选项,没有引入更丰富的交互设备和技术,且视频本身仍然是传统的单视角的视频片段,这些技术选型上的局限性最终体现为交互性、参与感和沉浸感方面的不足。
78.有鉴于此,本技术提供一种互动视频的处理方法、装置、计算机设备、存储介质和计算机程序产品,通过结合虚拟现实技术和全景视频技术形成基于互动视频的交互方式,对象可以自由地观察所处的场景,并通过虚拟交互操作参与剧中的对话并控制剧情走向,
不仅提供了丰富复杂的交互手段,给予高度沉浸式的互动视频观看体验,同时相较于单纯的虚拟现实游戏而言也降低了对设备性能的要求。
79.需要说明的是,虚拟现实(virtual reality,vr)技术囊括计算机、电子信息、仿真技术于一体,其基本实现方式是计算机模拟虚拟环境从而给人以环境沉浸感。所谓虚拟现实,顾名思义,就是虚拟和现实相互结合。从理论上来讲,虚拟现实技术是一种可以创建和体验虚拟世界的计算机仿真系统,它利用计算机生成一种模拟环境,使对象沉浸到该环境中。虚拟现实技术就是利用现实生活中的数据,通过计算机技术产生的电子信号,将其与各种输出设备结合使其转化为能够让人们感受到的现象。因为这些现象不是我们直接能看到的,而是通过计算机技术模拟出来的现实中的世界,故称为虚拟现实。虚拟现实技术是仿真技术与计算机图形学、人机接口技术、多媒体技术、传感技术和网络技术等多种技术的集合,是一门富有挑战性的交叉技术前沿学科和研究领域。虚拟现实技术主要包括模拟环境、动作、感知和传感设备等方面。模拟环境包括由计算机生成的、实时动态的三维立体全景图像和声音。
80.目前的虚拟现实技术方案主要包括三维(3d,three-dimensional)显示、环绕声和动作捕捉等部分,如图1所示,3d显示技术使用一种头戴式显示器10,通过两片凸透镜和近距离地将计算机实时生成的两个具有3d视差的画面102和104,并分别输入到人的双眼,提供一个具有景深效果的视野。环绕声技术通过调整不同声道的音量等参数来模拟声音的方向感;动作捕捉技术则是通过陀螺仪等设备将对象的头部、肢体乃至躯干的动作捕捉并输入到计算机中以在虚拟世界中模拟不同的视角和动作。这些技术保证了视觉、听觉和行为的沉浸感和真实感。
81.除了使用专门的头戴显示器外,也存在借助智能手机的屏幕和陀螺仪等设备来提供虚拟现实体验的低成本技术方案,如图2所示,比如有一种纸盒(cardboard)头戴式vr设备,借助智能手机的屏幕和陀螺仪等设备提供虚拟现实的立体效果。
82.虚拟现实技术所提供的视频画面可以通过多种方式获取。例如,它可以是通过图像采集设备对真实场景进行采集而获得的,通过对真实场景的图像信息进行处理,生成真实场景对应的虚拟现实视频画面,虚拟现实视频画面中对应的场景为虚拟场景。其中,图像采集设备可以是摄像头等等。具体地,虚拟现实技术可以使用专门的摄像机获取所有视角的视频画面,并将这些视频画面进行编码(球面贴图展开)保存在一个视频里,再通过计算机和vr设备将视频还原为双眼所见的画面,对象可以自行转移到不同的视角。
83.本技术实施例提供的互动视频的处理方法涉及人工智能领域中的计算机视觉技术,具体涉及计算机视觉中的虚拟现实技术领域。本技术实施例可以实现虚拟现实技术与选择剧情分支的结合,丰富了互动视频的互动形式,有利于提升对象的互动度。
84.其中,人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体
化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
85.其中,计算机视觉(computer vision,cv)是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别、测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取信息的人工智能系统。计算机视觉技术通常包括图像处理、图像识别、图像语义理解、图像检索、ocr、视频处理、视频语义理解、视频内容/行为识别、三维物体重建、3d技术、虚拟现实、增强现实、同步定位与地图构建等技术,还包括常见的人脸识别、指纹识别等生物特征识别技术。
86.本技术提供的互动视频的处理方法,可以应用于如图3所示的应用环境中。其中,各个对象可以通过各自的终端302访问服务器304,多个终端302通过网络与服务器304进行通信。对象例如为用户,可以是人类、动物、或者机器人等。其中,终端302和服务器304可以通过有线或无线通信方式进行直接或间接地连接,本技术在此不做限制。上述的无线网络或有线网络使用标准通信技术和/或协议。网络通常为因特网、但也可以是任何网络,包括但不限于局域网(local area network,lan)、城域网(metropolitan area network,man)、广域网(wide area network,wan)、移动、有线或者无线网络、专用网络或者虚拟专用网络的任何组合。
87.具体地,终端302在达到与当前角色对应的交互顺序时,从服务器304获取与该交互顺序相匹配的交互式视频片段,并以至少一个视角展示交互视频片段的虚拟场景。终端302在获取所采集到的对互动选项的虚拟交互操作后,触发服务器304对交互视频片段中的目标互动控件的属性进行调整,从而对交互视频片段进行更新。
88.其中,终端302至少包括检测装置、显示装置、以及处理装置。其中,检测装置可以为采集对象的虚拟交互操作的设备,包括但不限于体感座椅、跑步机、体感衣服、捕获肢体动作的手柄、或者摄像头等。显示装置为提供视频展示/播放的显示器件,包括但不限于头戴式显示器、虚拟眼镜、智能手机、以及智能电视等中的一种或多种。处理装置为提供基础算力支持的处理器件,能够用于全景视频的渲染以及与服务器的通信交互,包括但不限于台式计算机、笔记本电脑、智能手机、平板电脑、物联网设备和便携式可穿戴设备,物联网设备可为智能音箱、智能电视、智能空调、智能车载设备等。便携式可穿戴设备可为智能手表、智能手环、头戴设备等中的一种或多种。
89.应当理解,本技术于实施例中描述的终端只是一个应用实例,该终端可以比上述举例具有更多或更少的组件,或具有不同的组件配置;并且,检测装置、显示装置、以及处理装置也并非必须分属于相互分离的组件;例如,检测装置和显示装置的部分或全部可以集成在一起,又如,检测装置和显示装置的部分或全部可以与处理装置集成在一起等,此处不作限制。举例而言,终端可以是智能手机,可以同时作为检测装置、显示装置和处理装置;又如,终端可以是由头戴式显示器(对应于显示装置)、含麦克风的耳机和捕获肢体动作的手柄(对应于检测装置)、以及智能电视(对应于处理装置)组成的一套设备。
90.其中,终端可装载有app(application)应用程序或具备网页/网站访问性能的应用程序,其中app应用程序通常亦被称为客户端,包括传统需要单独安装的应用程序、以及
不需要下载安装即可使用的小程序应用。对象可以通过终端上装载的客户端、或通过访问网站页面等方式进行浏览、观看,并通过终端的检测装置实现与互动视频的虚拟交互。
91.其中,服务器304可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、cdn(content delivery network,内容分发网络)、以及大数据和人工智能平台等基础云计算服务的云服务器。
92.以下分别进行详细说明。需说明的是,以下实施例的描述顺序不作为对实施例优选顺序的限定。
93.在一个实施例中,如图4所示,提供了一种互动视频的处理方法,以该方法应用于图3中的终端为例进行说明,包括以下步骤:
94.步骤s402,在达到与当前角色对应的交互顺序时,以至少一个视角展示交互视频片段的虚拟场景,交互视频片段基于交互顺序在前的角色执行完虚拟交互操作而更新得到,交互视频片段的虚拟场景中包括有至少一个互动控件。
95.其中,互动角色是指在互动视频中可以由对象对其特定的选择进行控制的角色。考虑到各个对象分别使用各自的终端进行游玩,每个对象分别对应于一个角色,相应地,一个终端通常对应于一个角色。当然不局限于此,在一些情况下,也可以由多个对象共享一个终端分别游玩各自的内容,则此时一个终端可以对应于多个角色。
96.互动视频中设置有供对象代入的互动角色,以使得对象能够以该互动角色的视角观察剧情发展。其中,视角指的是当前对象相对于虚拟场景的第一人称视角。在虚拟现实全景视频中,可以转动视角,以观看不同视角下的场景。
97.互动视频中对象可以针对剧情的发展做出相应的决定以触发相应后续剧情的发展。为此,虚拟场景中可以设置一或多个互动控件。互动控件具有属性,包括但不限于展示的状态属性、位置属性、以及样式属性等中的一种或多种。
98.其中,状态属性指的是互动控件为展示状态或隐藏状态。位置属性指的是互动控件在互动视频中所处的位置。例如,可以将互动控件分布在不同视角的虚拟场景中,让对象自行寻找互动控件并选择是否触发,从而增加互动视频的趣味性和挑战性。
99.其中,样式属性指的是互动控件的形态,包括但不限于互动控件的形状、颜色、背景、互动控件上显示的字符的字体、颜色和字符显示位置等中的一种或多种。其中,互动控件的形状可以是规则形状或不规则形状,包括但不限于方形、圆形、梯形以及环形等等形状。在一些实施例中,互动控件的形状可以根据互动视频当前显示的场景确定,例如,互动控件与互动视频中显示的物品有关,则该互动控件的形状可以是物品的形状,例如桌子、箱子、门、钥匙、以及纸条等。
100.互动控件可以绑定有互动选项,对象在通过虚拟交互操作触发互动控件时,互动视频中即展示该互动控件所具有的至少一个互动选项;在触发互动选项后,即可触发与互动控件对应的互动结果。当然并不局限于此,互动控件也可以不绑定任何互动选项,对象通过虚拟交互操作触发互动控件本身,也可以触发与互动控件对应的互动结果。
101.在一些实施例中,虚拟交互操作至少包括对象在虚拟场景中执行的动作、对象的语音指令、以及对象的注视行为等中的一种或多种。
102.其中,对象在虚拟场景中执行的动作包括但不限于各个方向上的走动、头部的动
作(点头、摇头、抬头、低头等)、蹲起、以及其他肢体动作等中的一种或多种。例如,如图5所示,vr头部显示器(或作为vr显示器的智能手机)中的陀螺仪传感器,能够测量三个轴(x、y和z轴)上的角速率,进而可以得知头部显示器的“偏航角yaw”、“俯仰角pitch”和“翻滚角roll”。测量得到这三个角度即可用于视点的旋转变换,俯仰角的往复变化可判定点头动作,而偏航角的往复变化可判定摇头动作。
103.其中,对象的语音指令指的是对象说出来的语音,包括但不限于字、词语、短句,也可以是无意义的具有音调的声音等。在一些实施例中,语音识别可以识别对象说出的句子,并与互动选项进行匹配即可实现选项的选择,主要步骤包括语音转文字和文字匹配。比如,可以直接在终端设备上直接进行相对简单的文字匹配,使用一种动态规划算法计算识别得到的文字描述信息与预设文字信息之间的字符串相似度。具体地,字符串相似度可以通过levenshtein距离来计算。levenshtein距离是一种编辑距离,表示从原文字经过插入字符、替换字符或删除字符等步骤转换为目标文字的最小步数,相当于表示原文字与目标文字的相似程度,距离最小的选项就是最相似的选项。本实施例中,可以通过计算文字描述信息与各选择控件对应的预设文字信息之间的levenshtein距离,并将与文字描述信息的levenshtein距离最小的预设文字信息对应的选择控件作为目标选择控件。
104.其中,动态规划计算levenshtein距离算法的状态转移方程如下公式所示:
[0105][0106]
其中,a和b分别表示源字符串和目标字符串,比如,a可以是文字描述信息对应的字符串,b可以是预设文字信息对应的字符串,或者,a可以是预设文字信息对应的字符串,b可以是文字描述信息对应的字符串,本实施例对此不作限制。其中,i和j分别表示a,b字符串最左子串的长度,也就是说,i和j可以分别表示a,b字符串的下标。比如,a字符串长度为n,则i的取值为从0到n的整数。ai表示a字符串的第i个字符,bj表示b字符串的第j个字符。当i和j分别取a和b字符串的长度时,lev
a,b
(i,j)即为最终的levenshtein距离,最终的levenshtein距离表示a字符串和b字符串之间的距离。其中,lev
a,b
(i-1,j)+1表示增加一个字符所需步数,lev
a,b
(i,j-1)+1表示删除一个字符所需步数,lev
a,b
(i-1,j-1)+1表示替换最后一个字符所需步数,其中ai≠bj表示+1只在源字符串的子串和目标字符串的子串最后一个字符不相同时才需要,因为相同时不需要替换最后一个字符。其中,max为最大值函数,max(i,j)的值为i和j中的较大者,min为最小值函数,min(i,j)的值为i和j中的较小者。
[0107]
其中,对象的注视行为指的是在对象眼部视线上超过一定时长的注视动作。例如,通过转动视角将画面的中心(通常需要增加一个准心标志)移动到要互动选项上并保持,经过一定的时长后即判定为选择所注视的互动选项。
[0108]
在一些实施例中,虚拟交互操作还包括对象通过终端执行的点击、滑动、触控等操作。例如,通过手柄或遥控器等上的方向键和确认键来选择互动选项,或者使用专用的vr控制外设实现更复杂的交互行为等。
[0109]
通过在虚拟场景中为对象提供了多样化的互动控件,以及多样化的虚拟交互操
作,大大提升对象操作的丰富性,带给对象更加沉浸式的互动体验。
[0110]
本技术实施例中,互动视频可以包括多个视频片段,视频片段包括剧情内容片段、交互视频片段、共享视频片段等。其中,剧情内容片段包括必须进行的剧情内容,例如每个角色的前景提要、或是每个角色的性格介绍等。交互视频片段为供对象进行选择的视频片段,对象可以通过执行虚拟交互操作触发不同的互动控件,或选择不同的互动选项,以此实现不同的剧情走向。共享视频片段为所有角色共同观看的视频片段,在该视频片段的虚拟场景中,对象可以看到其他角色,也可以与其他角色对应的对象进行交流沟通。
[0111]
本技术实施例中提供是多人在线可交互式的互动视频,可能不止一次需要确定各个角色(也就是确定各个对象)的交互顺序,因此在一些情况下,通过确定每个角色的交互顺序,能够提供良好的互动体验。例如,在多人参与的互动视频的语音沟通环节中,可以确定每个对象的发言顺序,以使各个对象在轮到自己的顺序时发言。
[0112]
举例而言,在多人共享的虚拟场景中,前一个对象通过操控角色对互动控件执行虚拟交互操作后,使得互动控件的属性发生了改变,此时需要对该交互视频片段对应的虚拟场景进行更新,更新后的交互视频片段用于供下一个对象观看。
[0113]
具体地,对于每一个终端,当由对象操控的当前角色达到对应的交互顺序时,终端以至少一个视角展示交互视频片段的虚拟场景。在该虚拟场景中,对象可以通过虚拟交互操作(例如转动头部、前后走动等)观看各个视角下的虚拟场景。
[0114]
步骤s404,若在交互视频片段的虚拟场景中发生指向目标互动控件的虚拟交互操作,则展示与目标互动控件对应的至少一个互动选项,目标互动控件为至少一个互动控件中的任一互动控件。
[0115]
具体地,在上述过程中,对象在观看各个视角下交互视频片段的虚拟场景时,终端检测是否有指向互动控件的虚拟交互操作。若终端检测到对于一个互动控件的虚拟交互操作,则展示与目标互动控件对应的至少一个互动选项以供对象进行选择。其中,目标互动控件为终端检测到对象所进行虚拟交互操作的互动控件,为了与其他未与对象进行交互的互动控件进行区分,称为目标互动控件。举例而言,虚拟场景中设置有互动控件a、b、c,当终端检测到对象注视互动控件a时,该互动控件a为目标互动控件,则终端展示与该互动控件a对应的互动选项。
[0116]
举例而言,在交互视频片段的虚拟场景中设置有多个可供选择的互动控件,其中一个互动控件以物品的形态进行展示。当对象通过终端操控当前角色进入到虚拟场景中后,通过前后走动、转动视角等,对象看到了展示在虚拟场景中的该物品,并通过手部动作欲“拾起”或“触碰”该物品(或者通过目光注视该物品以进行选择)。此时,终端通过检测到的对象所执行的虚拟交互操作,确定该虚拟交互操作指向该物品,则展示预先与该物品绑定的至少一个互动选项,例如展示“查看线索”、“放入背包”、“放回原位”等互动选项。
[0117]
步骤s406,响应于对互动选项的虚拟交互操作,触发对交互视频片段中的目标互动控件的属性进行调整,以对交互视频片段进行更新;其中,目标互动控件的属性至少包括隐藏和展示中的一种。
[0118]
对象可以通过虚拟交互操作触发不同的互动选项,以此获得不同的互动结果。具体地,终端响应于对象对目标互动控件对应的互动选项的虚拟交互操作,触发服务器对交互视频片段中的目标互动控件的属性进行调整,从而更新交互视频片段及其对应的虚拟场
景。由此,在下一个对象通过其对应的终端操控其角色进入到同一个虚拟场景中时,即可观看更新后的交互视频片段的虚拟场景。
[0119]
在一些实施例中,在终端的硬件条件足够的情况下,终端也可以自身对交互视频片段中的目标互动控件的属性进行调整,并将更新后的交互视频片段上传至服务器,以供下一个对象通过其对应的终端进入到同一个虚拟场景中时,由该对应的终端向该下一个对象展示更新后的交互视频片段的虚拟场景。
[0120]
举例而言,对象可以触发“放入背包”的互动选项,则终端响应于对该物品对应的互动选项的虚拟交互操作,将该互动控件的属性更新为隐藏状态。亦或者,对象也可以触发“放回原位”的互动选项,则终端不更新该物品对应的互动控件的属性。当然容易理解的是,对象也可以同时触发多个互动选项,譬如在触发“查看线索”的互动选项,并观看完关联视频片段后,再触发“放入背包”的互动选项,从而使得该物品在该交互视频片段的虚拟场景中进行隐藏。
[0121]
上述互动视频的处理方法中,通过在达到与当前角色对应的交互顺序时,以至少一个视角展示交互视频片段的虚拟场景,能够提供真实、沉浸式的虚拟现实体验;在对象自由观看交互视频片段的虚拟场景时,通过检测发生指向目标互动控件的虚拟交互操作,并展示与目标互动控件对应的至少一个互动选项,实现虚拟现实技术与互动视频的结合,提供了丰富复杂的交互手段,给予对象高度沉浸式的互动视频观看体验。同时,通过检测并响应对象对互动选项的虚拟交互操作,触发对交互视频片段中的目标互动控件的属性进行调整,以对交互视频片段进行更新,以使得下一个对象通过其对应的终端进入到同一个虚拟场景中时,由该对应的终端向该下一个对象展示更新后的交互视频片段的虚拟场景,使得每个对象观看到的虚拟场景不同,提高了互动视频的交互性。
[0122]
在一些实施例中,上述互动视频的处理方法还包括:响应于对互动选项的虚拟交互操作,展示与目标互动控件相关联的关联视频片段的虚拟场景。具体地,终端响应于对象对目标互动控件对应的互动选项的虚拟交互操作,展示预先与该互动选项关联的关联视频片段的虚拟场景,以向对象播放与目标互动控件有关的视频内容。
[0123]
举例而言,对象可以触发“查看线索”的互动选项,则终端响应于对该物品对应的互动选项的虚拟交互操作,展示与该互动控件相关联的关联视频片段的虚拟场景,例如为与该物品相关联的剧情内容视频片段。
[0124]
上述实施例中,通过对象不同的选择开展不同的剧情,丰富了互动视频的互动形式。
[0125]
承前所述,每个对象对应有各自的角色,可以通过其终端操控各自的角色,并通过不同的选择触发不同的剧情走向。而为了增加互动视频的趣味性,提高对象的体验感,不同的角色通常具有不同的设定,例如角色的性格、能力(或技能)、所经历的事件、剧情的发展走向和结局等等也有所不同。对象可以根据自己的喜好,选择想要扮演的角色,从而达到良好的沉浸式体验。为此,互动视频还可以包括顺序选择视频片段,用于供各个对象确定自己的交互顺序,以依次选择自己将要扮演的角色。相应地,在一些实施例中,在达到与当前角色对应的交互顺序时,以至少一个视角展示交互视频片段的虚拟场景之前,如图6所示,方法还包括交互顺序的确定步骤,该步骤具体包括:
[0126]
步骤s602,展示顺序选择视频片段对应的虚拟场景。
[0127]
步骤s604,响应于在顺序选择视频片段的虚拟场景中的虚拟交互操作,确定与当前角色对应的选择信息,并将确定的选择信息上报至服务器,以使得服务器基于上报的多个角色对应的选择信息确定各角色分别对应的交互顺序。
[0128]
步骤s606,接收服务器反馈的与当前角色对应的交互顺序。
[0129]
以一个对象为例进行说明,具体地,终端向对象展示顺序选择视频片段对应的虚拟场景,例如在该虚拟场景中,显示有多个表示不同顺序的互动控件或者互动选项,以供对象进行选择。对象通过终端执行虚拟交互操作选择某个互动控件或者互动选项时,终端获取相应的选择信息,并将选择信息上报至服务器。其中,选择信息例如包括选择的顺序的编号等。对于每一个参与的对象,其各自的终端均展示顺序选择视频片段对应的虚拟场景。
[0130]
相应地,服务器可以在接收到某一终端上报的选择信息后,即确定该终端所对应的角色的交互顺序。例如,终端a选择第一位的顺序,并将该选择信息上报;服务器接收后确定该终端对应的角色为第一位的顺序。或者,服务器也可以在接收到全部终端上报的各自的选择信息后,再分别确定每个角色对应的交互顺序。例如,终端a和终端b均选择第一位的顺序,则服务器可以根据预先设置的条件确定二者的顺序,例如上报信息的时间先后、或者随机分配等。或者,服务器也可以向终端a和终端b返回出现相同选择的选择结果,以供终端a和终端b各自对应的对象通过语音沟通对各自的顺序达成一致后,再通过各自的终端上报至服务器,以消除顺序上的矛盾。
[0131]
当然并不局限于此,在一些实施例中,也可以由服务器随机为各个终端分配相应地角色,使得对象的每次体验都增加了随机性,更加增添了互动视频的趣味性和挑战性。
[0132]
在另一些实施例中,终端所对应的角色的交互顺序的确定也可以在本地完成。每个终端响应于对象在顺序选择视频片段的虚拟场景中的虚拟交互操作,确定与当前角色对应的选择信息,并根据该选择信息确定与角色对应的交互顺序。例如,对于一个终端而言,对象在顺序选择视频片段的虚拟场景中选择第一位的顺序,则终端响应于对象的虚拟交互操作,确定对象所选择的当前角色对应的交互顺序为第一位的顺序。
[0133]
上述实施例中,通过对象确定自己的交互顺序,使得各个对象所对应的剧情可以被顺序在先的对象所影响,提高了互动视频的丰富性。
[0134]
在确定了交互顺序之后,终端可以按照各自所属的交互顺序,依次播放与角色相对应的剧情内容视频片段。为此,如图7所示,在一些实施例中,在所述展示顺序选择片段对应的虚拟场景之前,该方法还包括:
[0135]
步骤s702,展示包括多个候选角色的角色选择视频片段所对应的虚拟场景。
[0136]
步骤s704,响应于对候选角色的选择操作,确定与当前对象对应的当前角色,并以至少一个视角播放与当前角色相关联的剧情视频片段;剧情视频片段用于影响当前对象在顺序选择视频片段的虚拟场景中的虚拟交互操作。
[0137]
其中,剧情视频片段用于向对象展示当前角色的剧情走向、性格设定、过往经历等剧情内容,在观看不同的剧情视频片段后,对象在顺序选择视频片段的虚拟场景中的虚拟交互操作可以受剧情视频片段的影响而不同。
[0138]
具体地,以一个对象为例进行说明,终端向对象展示角色选择视频片段对应的虚拟场景,例如在该虚拟场景中,显示有多个分别展示各个角色(为了以示区分,称为候选角色)的外貌形象和文字描述的互动控件,以供对象进行选择。对象通过终端执行虚拟交互操
作选择某个候选角色时,终端响应于对候选角色的选择操作,确定所选择的候选角色为当前角色,并以至少一个视角播放与当前角色相关联的剧情视频片段,以供对象更加详细地了解角色的性格、所经历的事件等,从而在后续的顺序选择视频片段的虚拟场景中、或者其他剧情选择中,对象可以根据剧情视频片段中体现的角色形象和过往经历,考虑不同的选择。例如,当对象确定自己的角色为“杀手”时,为了隐藏过往的经历,在顺序选择视频片段的虚拟场景中,通过虚拟交互操作选择靠前的交互顺序,以便于后续对证据进行隐藏等。
[0139]
上述实施例中,通过提供角色选择视频片段对应的虚拟场景,使得对象能够根据自己的喜好扮演不同的角色,增加了互动视频的趣味性,提高了对象的体验感。
[0140]
承前所述,在交互视频片段的虚拟场景中,对象可以选择例如“放入背包”等类似的互动选项,以在剧情发展上获得与物品相关的线索。在后续各个对象进行沟通讨论时,对象还可以向其他对象展示所获得的物品线索,以增加自身发言的说服力。为此,在一些实施例中,交互视频片段的虚拟场景中的互动控件携带有控件标识,方法还包括:响应于对互动选项的虚拟交互操作,建立目标互动控件的控件标识与当前角色的绑定关系。
[0141]
其中,控件标识用于指代具体的互动控件,一个角色可以绑定有多个目标互动控件,因此需要控件标识以供服务器和/或终端根据控件标识对不同的互动控件进行区分。具体地,终端响应于对象对目标互动控件对应的互动选项的虚拟交互操作,确定对象选择的目标互动控件,并获取该目标互动控件的控件标识,从而建立目标互动控件的控件标识与当前角色的绑定关系。例如,针对于某物品的互动控件,在对象选择了“放入背包”的互动选项后,终端确定对象所操控的当前角色获取了该物品,则将该物品对应的目标互动控件与当前角色进行绑定。
[0142]
在一种可能的实现方式中,对象之间还可以基于在交互视频片段的虚拟场景中获得的线索等剧情发展情况,和其他对象进行交互。具体地,终端可为各个对象提供一个共享虚拟场景,使得各个对象可进入到该共享虚拟场景中进行实时的沟通交流。在一些实施例中,如图8所示,该方法还包括展示目标互动控件的步骤,该步骤具体包括:
[0143]
步骤s802,响应于当前角色的展示请求,根据绑定关系确定与展示请求中携带的控件标识对应的目标互动控件。
[0144]
步骤s804,在共享虚拟场景中展示目标互动控件,以使得加入到共享虚拟场景中的其他对象查看目标互动控件。
[0145]
具体地,在共享虚拟场景中,终端获取当前对象所操控的当前角色的展示请求,该展示请求中携带有控件标识,用于表示当前对象想要展示的互动控件。终端根据之前建立绑定关系时存储的绑定关系,确定与展示请求中携带的控件标识对应的目标互动控件,并进行展示,以使得加入到共享虚拟场景中的其他对象均可以查看目标互动控件。
[0146]
举例而言,对象选择“展示证物1”的互动选项,终端即获取包含有证物1的控件标识的展示请求,并在共享虚拟场景中展示该证物1。在一些实施例中,终端还可以向其他各个对象播放与该证物1相关联的关联视频片段。
[0147]
上述实施例中,通过将各个对象均置于相同的共享虚拟场景中,并提供各个对象之间的沟通与讨论,近距离地与剧中其他角色接触,通过语音的方式参与剧中的对话并控制剧情走向,提高了各个对象之间的互动度和参与度,给予对象高度沉浸的剧本体验。
[0148]
在沟通交流的过程中,各个对象可以讨论出最终的结论并进行虚拟交互操作。例
如,各个对象对各个角色进行投票,从而票选出其中一个或多个角色,或者对某一角色的身份进行判断等等。为此,在一些实施例中,如图9所示,方法还包括通过投票确定结局视频片段的步骤,该步骤具体包括:
[0149]
步骤s902,在所有角色均执行完与交互视频片段对应的虚拟交互操作后,进入共享虚拟场景,以实现不同角色间的信息交互,信息交互的结果用于影响对角色进行票选的虚拟交互操作。
[0150]
步骤s904,响应于对全部角色中的至少一个角色进行票选的虚拟交互操作,展示结局视频片段,其中,结局视频片段基于每个对象分别触发的用于进行票选的虚拟交互操作共同确定。
[0151]
具体地,对于每一个对象和其角色,其所对应的终端在所有角色均执行完与交互视频片段对应的虚拟交互操作后,进入到共享虚拟场景中,从而实现不同角色(即不同对象)间的信息交互。而对象之间的信息交互的结果,可以进而影响后续的投票环节、或是对各个角色的身份的判断。在语音沟通结束后,各个终端响应于其对应的对象对全部角色中的至少一个角色进行票选的虚拟交互操作,确定最终的结局,并展示结局视频片段。其中,结局视频片段基于每个对象分别触发的用于进行票选的虚拟交互操作共同确定。
[0152]
举例而言,各个终端分别向服务器上传各自的投票情况,服务器综合全部对象的投票情况后,例如根据各个角色对应的投票数量,确定投票结果是正确还是失败。比如在各个对象需要投票选出“杀手”的剧情中,服务器根据各个终端的投票情况,确定最终的结局是判断成功或判断失败,并根据结局展示不同的结局视频片段。
[0153]
上述实施例中,通过由多个对象控制互动视频的剧情走向,实现了互动视频的社交效果,扩展视频播放过程中的对象交互场景,提高视频播放过程中的互动性。
[0154]
与传统的互动视频不同的是,本技术实施例中通过利用虚拟现实技术,以全景呈现的方式向对象提供360度沉浸式的互动视频体验,在互动视频的播放过程中,或者在互动视频所呈现的虚拟场景中,对象可以以任意视角观看,从而拥有全方位“身临其境”的体验。为此,在一些实施例中,如图10所示,以至少一个视角展示交互视频片段的虚拟场景,包括:
[0155]
步骤s1002,检测对象在虚拟场景中执行的动作,基于所执行的动作确定当前视角。
[0156]
步骤s1004,确定与当前视角对应的交互视频片段的虚拟场景,并进行展示。
[0157]
具体地,终端通过检测对象在虚拟场景中执行的动作(包括但不限于走动、头部转动、蹲下/站起等动作),根据检测到的对象所执行的动作,确定对象的当前视角,从而确定与当前视角对应的交互视频片段的虚拟场景,进而向对象展示以该当前视角下看到的虚拟场景。
[0158]
举例而言,当终端检测到对象向左扭头时,终端根据所检测到的头部转动的角度,确定扭动后对象的视角,从而将交互视频片段更新到该视角下的虚拟场景。
[0159]
上述实施例中,通过虚拟现实技术提供全方位的视角以供对象进行观看,加强了对象的沉浸式体验感,提高了互动视频的真实性。
[0160]
全景视频的拍摄和播放均与传统视频不同。其中,全景视频画面的拍摄和制作时需要使用专用的摄像机和软件,全景摄像机包含多个摄像头,每个摄像头拍摄不同角度的画面,所有摄像头拍摄的画面能够覆盖全部视角的画面,再通过专用的画面拼接软件(可以
是摄像机自带,也可以是单独的软件)将多个画面展开和合成到一个画面上,即可得到全景视频画面。
[0161]
其中,全景视频在播放时则是利用计算机图形学技术,将全景视频画面铺在一个球面上。球面有多种表示方法,常用的是经纬线表示法,如图9所示,一个球面所有经线与纬线的交点作为顶点,其中任意两条相邻经线和任意两条相邻纬线相交得到的四个顶点处在同一平面内,且能围成一个四边形,所有这样的四边形即可组成一个近似的球面。
[0162]
其中,全景视频在渲染时,如图11所示,在每一帧画面上按照球面经纬线相同密度划分纵线和横线,这些纵线和横线相交的点(即uv顶点,u代表横向坐标上的分布、v代表纵向坐标上的分布),与球面上的顶点一一对应,通过opengl(open graphics library,开放图形库)图形库将uv顶点与模型(球面)顶点绑定后,gpu(graphics processing unit,图形处理器)即可在视频画面上采样,实现视频画面在球面上展开,并渲染视点处可见的部分到屏幕上。再根据捕获到的头部动作数据对视点进行旋转变换即可达到观看全景视频中不同视角画面的效果。
[0163]
为此,在一些实施例中,如图12所示,确定与当前视角对应的交互视频片段的虚拟场景,包括:
[0164]
步骤s1202,获取与交互视频片段对应的全景虚拟模型。
[0165]
步骤s1204,对全景虚拟模型中处于当前视角的可见范围内的内容进行渲染,得到与当前视角对应的交互视频片段的虚拟场景。
[0166]
具体地,终端获取与交互视频片段对应的全景虚拟模型,该全景虚拟模型可以为如图11中所示的球形模型。根据该全景虚拟模型,终端将视频画面在全景虚拟模型上展开,并对全景虚拟模型中处于当前视角的可见范围内的视频画面进行渲染,从而得到与当前视角对应的交互视频片段的虚拟场景。
[0167]
在图形学中,将三维的模型渲染到二维的屏幕或纹理上,模型顶点的坐标需要经过m、v、p三个矩阵的变换,其中,m指模型,是模型在自身坐标系上的变换,实现模型自身的旋转、缩放和平移等。v指视图,是视点坐标系上的变换,所有模型均使用同一个v矩阵,效果上等同于视点的平移和视角的转动,在本方案中由于使用全景视频,不涉及视点的平移(即对象的自主平移)等,因此只有旋转分量。p是实现世界空间(通常是视锥体)到屏幕空间(x、y和z坐标范围均为[-1,1])的投影变换,可以实现模型“近大远小”的透视关系。例如,如图13所示,可以将视锥体内的全景虚拟模型投影到cvv(canonical view volume,规则观察体)空间中,即投影变换到x、y和z坐标范围均为[-1,1]的空间,该空间也即屏幕空间的大小。
[0168]
上述实施例中,通过对全景虚拟模型中处于当前视角的可见范围内的内容进行渲染,对象能够自由转动视角从而观看不同视角下的视频片段的虚拟场景,使得对象在虚拟世界中能够获得沉浸式的现实体验。
[0169]
此外,由于本技术实施例中将互动视频和虚拟现实全景视频结合起来,对象可以自由转动视角,因此字幕等内容不能像传统视频那样直接嵌入视频,需要保证字幕跟随视角移动。为此,在一些实施例中,方法还包括:在虚拟场景中的字幕显示区域中展示字幕信息,字幕信息在字幕显示区域内以预设移动速度进行展示,其中,预设移动速度与视角的转动速度相匹配。在另一些实施例中,字幕信息也可以固定在虚拟场景中的字幕显示区域进
行静态显示。
[0170]
具体地,终端可以不对字幕进行视点变换,即字幕坐标只与其m矩阵和p矩阵相乘,对初始坐标进行适当的调校后可以实现“硬跟随”的效果,即字幕完全固定在视野的某处,相当于字幕的模型始终位于视锥体的某个方位。其效果表现为上述的字幕信息固定在虚拟现实视频画面的字幕显示区域中静态显示。或者,终端还可以增加一个视点矩阵v的逆运算,直接相乘(mv-1vp)的效果与上述第一种方法一致,可以以其当前状态为起始状态,v-1为结束状态对其进行插值计算得到下一时刻(下一帧)的状态,进而实现“软跟随”效果,即字幕以一定速度跟随视角移动,而非固定在视野内某处。这种方法可以有更好的灵活性,可以增加一个阈值做到只跟随较大幅度的视角转动以便对象阅读较长的文字。
[0171]
上述实施例中,通过将互动视频与vr等技术进行结合,弥补了这些技术单独使用时的不足,改善了互动视频的交互性、参与感和沉浸感。在对象侧,对象能够以第一人称视角观看互动剧,可以自由地观察所处的场景,提高了对象的体验。
[0172]
本技术还提供一种应用场景,该应用场景应用上述的互动视频的处理方法。
[0173]
具体地,该互动视频的处理方法在该应用场景的应用如下:
[0174]
在对象(例如用户)首次操作时,终端可向对象展示如图14所示的gui(graphical user interface,图像对象界面)画面,例如可以显示操作提示,以提醒对象如何操作选择互动选项例如,在画面中显示操作提示:“尝试抬起右/左腿来检测是否穿戴好vr设备”,以引导对象进行相应的抬腿动作;又如,在画面中显示操作提示:“尝试点头来选择


’”
和“尝试摇头来选择


’”
,以引导对象进行相应的点头或摇头动作。又如,终端也可以通过在画面中显示字幕,以提醒对象进行相应的动作。终端还可以在gui中显示互动选项,互动选项作为ui元素可以跟随视角移动。对象可以通过多种交互动作选择,例如点头摇头(简单的是非选择)、语音选择(通过剧中对话达到不同剧情分支)、注视选择(适合如“走向岔路中的某一条”类似的行为)以及外设点选(当有手柄或遥控器等外设时)等。还可以通过小窗口显示操作提示信息,该虚拟现实视频画面还可以包括“菜单”控件,该控件具体可以包括退出播放等功能,对象可以通过注视选择该互动控件来退出互动视频的播放。此外,本实施例的互动视频是基于虚拟现实技术生成的,虚拟场景中的界面元素可以跟随对象视角变化而移动。
[0175]
如图15所示,展示了本技术实施例的vr互动视频交互逻辑,对象观看互动视频时,可以通过转动视角,对视点进行旋转变换,以此实现虚拟现实视频画面的视角调整。在播放到剧情分支选择片段(剧情分歧点)时,终端可以在虚拟现实视频画面中展示互动选项,对象可以基于对互动选项的选择,选择不同的剧情分支;具体地,对象可以通过语音对话、点头摇头、注视等选择目标剧情分支,并进入目标剧情分支的播放。
[0176]
举例而言,当对象开始试玩(例如在终端显示的画面中通过注视“开始试玩”选项)后,终端启动互动视频播放,例如播放对象所选择的角色有关的剧情。在互动视频的播放过程中,对象可以任意转动视角,终端基于对象的视角转动,检测视点旋转变化,从而实现以不同的角度展示互动视频。例如当终端展示交互视频片段的虚拟场景时,对象可以前后左右任意走动,终端可以通过检测装置检测对象的移动方向和距离。当对象触发分歧点时,例如在虚拟场景中通过虚拟交互操作触发互动控件时,终端展示互动选项,例如“是否搜查”、“是否需要开门”等。对象可以通过语音对话、点头摇头、注视等虚拟交互操作选择其中一个
或多个互动选项,终端则响应于对象的虚拟交互操作确定对象所选中的互动选项,并向对象播放下一片段的视频。
[0177]
剧本杀是一种玩家扮演剧本中的角色,来解决剧本中的谜题,从而达成游戏目的的角色扮演游戏。本技术实施例以互动视频为主线,结合vr、语音识别等技术,将剧本杀中的剧本和互动视频结合起来,解决互动视频、vr全景视频和vr游戏各自存在的不足,提供更完善、更平衡的交互性、参与感和沉浸感,同时保证使用成本平民化。对象能居家大屏体验线上剧本杀,并能将剧本以互动视频的形式展示,对象能够以第一人称视角观看互动视频,可以自由地观察所处的场景,还可以近距离地与剧中其他角色接触,通过语音的方式参与剧中的对话并控制剧情走向。这些特性可以满足对象能更为真实的体验剧本杀的乐趣。
[0178]
以剧本杀的应用场景为例,如图16所示,在互动视频开始时,对象首先进行角色的选择。终端根据对象所确定的角色信息,向服务器请求与该角色相对应的剧情内容视频片段。终端接收服务器返回的剧情内容视频片段,并通过vr界面向对象播放。当全部对象均完成角色剧本剧情的观看后,进入到自由提问环节,此时对象之间可以语音进行自由讨论。
[0179]
讨论结束后,进入到搜证环节。按照各个对象的交互顺序,终端向服务器请求搜证场景内容,并向对象展示多个搜证场景(例如场景1、场景2等)以供对象进行选择;在对象选择某一场景后,终端向服务器请求该场景下的交互视频片段并向对象展示。此时,对象可以自主选择查看虚拟场景,可以与虚拟场景中预设的互动控件进行互动,例如点击箱子等。根据对象对互动控件和/或互动选项的不同选择,终端向服务器请求展示可供选择的内容(例如可供选择的互动选项),对象可以自主选择是否查看相关的关联视频片段,或是否隐藏证据等操作。针对于对象的虚拟交互操作,终端触发服务器对相应的视频片段进行更新。由此,在下一个对象进入到该搜证场景中时,所看到的虚拟场景则是根据上一个对象的虚拟交互操作更新后的虚拟场景。例如,当上一个对象选择隐藏某个物品后,下一个进入到该搜证场景中的对象则无法看到该物品,也无法对该物品进行虚拟交互操作。
[0180]
当各个对象均完成搜证场景的观察和交互后,终端提示对象搜证结束,并进入到语音沟通环节。此时,终端可以向对象展示共享虚拟场景,以供各个对象加入到该共享虚拟场景中进行自由讨论。当讨论完成后,各个对象分别进行投票,从而选择某一角色为凶手,终端则向服务器上报投票情况。服务器根据各个对象的投票情况,向各个对象返回最终的结局,即投票结果是否正确、所票选的角色是否为凶手、真正的凶手为哪一角色等等。
[0181]
本技术实施例的互动视频的处理方法对应的产品形态可以由客户端的主设备(如可以是安装有客户端的终端)、输入输出设备以及软件等部分组成。主设备运行客户端,提供基础算力支持,包括全景互动视频渲染、处理对象输入和与后台交互等。输入输出设备提供vr体验、对象动作捕捉和语音输入功能,根据不同场景,输入输出设备可以是一套独立设备,由头戴式显示器、含麦克风的耳机以及捕获肢体动作的手柄等组成,由智能电视或笔记本电脑作为主设备(如可以使用笔记本电脑打开视频客户端,通过视频客户端播放互动视频);也可以将一部分功能与主设备集成,如一台手机可以同时作为主设备、显示设备和语音输入设备等,以满足不同场景和人群的需求。软件则是提供服务的核心,包括客户端和相关的后台服务,客户端需要实现全景视频的渲染,并实时地在画面中嵌入字幕、互动选项和操作提示等。
[0182]
当然并不局限于此,本领域人员清楚的是,在不背离本技术所揭示的发明构思和
思想的情况下,任何适用于多人在线互动视频的场景均可以应用于本技术中,例如还可以是多人合作解谜类型、多人合作探险类型、或是多人角色扮演类型等游戏上的应用场景,也可以是多人在线课堂等教育上的应用场景等等。
[0183]
基于同样的发明构思,在一个实施例中,如图17所示,本技术实施例还提供了一种互动视频的处理方法,以该方法应用于图3中的服务器为例进行说明,包括以下步骤:
[0184]
步骤s1702,响应于第一终端发起的交互请求,反馈与交互请求的交互顺序相匹配的交互视频片段;反馈的交互视频片段用于供第一终端以至少一个视角展示交互视频片段的虚拟场景。
[0185]
具体地,服务器响应于第一终端发起的交互请求,确定与该交互请求相对应的交互顺序,并根据该交互顺序确定相匹配的交互视频片段。其中,交互请求中例如为请求获取与交互顺序对应的交互视频片段。服务器向该第一终端反馈所匹配的交互视频片段,第一终端接收后以至少一个视角向对象展示交互视频片段的虚拟场景。
[0186]
步骤s1704,接收第一终端反馈的虚拟交互信息,其中,虚拟交互信息为第一终端在检测到针对虚拟场景中目标互动控件的互动选项的虚拟交互操作时生成得到。
[0187]
第一终端在以至少一个视角向对象展示交互视频片段的虚拟场景的过程中,检测对象的虚拟交互操作。若第一终端检测到对于一个互动控件的虚拟交互操作,则展示与该互动控件对应的至少一个互动选项以供对象进行选择。对象可以通过虚拟交互操作触发不同的互动选项,以此获得不同的互动结果。具体地,第一终端响应于对象对目标互动控件对应的互动选项的虚拟交互操作,生成相应的虚拟交互信息。该虚拟交互信息例如包括对互动控件的属性的更新信息等。然后,第一终端将虚拟交互信息发送至服务器。具体地,服务器接收第一终端反馈的虚拟交互信息。
[0188]
步骤s1706,根据虚拟交互信息,对当前的交互视频片段中互动控件的属性进行调整,得到更新后的交互视频片段,更新后的交互视频片段用于传递至交互顺序在后的第二终端进行展示。
[0189]
具体地,服务器根据所接收得到的虚拟交互信息,对当前的交互视频片段中互动控件的属性进行调整,例如更新互动控件的展示状态、或者位置等,从而得到更新后的交互视频片段。由此,在下一个对象通过其对应的第二终端操控其角色进入到同一个虚拟场景中时,第二终端向服务器请求相应的交互视频片段后,服务器向该第二终端反馈更新后的交互视频片段,以供第二终端展示更新后的交互视频片段的虚拟场景。
[0190]
需要说明的是,上述术语“第一”和“第二”在本技术中用来描述不同的终端,但是这些终端不应当被这些术语限制。这些术语仅用来将一个终端与另一个终端进行区分。例如,第一终端可以被称作第二终端,并且类似地,第二终端可以被称作第一终端,而不脱离各种所描述的实施例的范围,但是除非上下文以其他方式明确指出,否则它们不是同一个终端。类似的情况还有第一展示模块和第二展示模块。
[0191]
上述互动视频的处理方法,通过响应于第一终端发起的交互请求,反馈与交互请求的交互顺序相匹配的交互视频片段;反馈的交互视频片段用于供第一终端以至少一个视角展示交互视频片段的虚拟场景,能够提供真实、沉浸式的虚拟现实体验;接收第一终端反馈的虚拟交互信息,并根据虚拟交互信息对当前的交互视频片段中互动控件的属性进行调整,得到更新后的交互视频片段,以使得下一个对象通过其对应的终端进入到同一个虚拟
场景中时,由该对应的终端向该下一个对象展示更新后的交互视频片段的虚拟场景,使得每个对象观看到的虚拟场景不同,提高了互动视频的交互性。
[0192]
应当理解的是,服务器与终端通过不同的执行主体相互协作共同实现上述实施例中的互动视频的处理方法执行,二者基于同样的发明构思,具有相同或相应的技术特征和技术手段,能够达到相同或相似的技术效果。具体流程和原理请参照上述实施例,故此处不再赘述。
[0193]
应该理解的是,虽然如上的各实施例所涉及的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,如上的各实施例所涉及的流程图中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
[0194]
基于同样的发明构思,本技术实施例还提供了一种用于实现如图4至图16对应的上述所涉及的互动视频的处理方法的互动视频的处理装置。该装置所提供的解决问题的实现方案与上述方法中所记载的实现方案相似,故下面所提供的一个或多个互动视频的处理装置实施例中的具体限定可以参见上文中对于互动视频的处理方法的限定,在此不再赘述。
[0195]
在一个实施例中,如图18所示,提供了一种互动视频的处理装置1800,包括:第一展示模块1801、第二展示模块1801和触发模块1803,其中:
[0196]
第一展示模块1801,用于在达到与当前角色对应的交互顺序时,以至少一个视角展示交互视频片段的虚拟场景,交互视频片段基于交互顺序在前的角色执行完虚拟交互操作而更新得到,交互视频片段的虚拟场景中包括有至少一个互动控件。
[0197]
第二展示模块1802,若在交互视频片段的虚拟场景中发生指向目标互动控件的虚拟交互操作,则展示与目标互动控件对应的至少一个互动选项。
[0198]
触发模块1803,用于响应于对互动选项的虚拟交互操作,触发对交互视频片段中的目标互动控件的属性进行调整,以对交互视频片段进行更新;其中,目标互动控件的属性至少包括隐藏和展示中的一种。
[0199]
在其中的一个实施例中,装置还包括播放模块,用于响应于对互动选项的虚拟交互操作,展示与目标互动控件相关联的关联视频片段的虚拟场景。
[0200]
在其中的一个实施例中,虚拟交互操作至少包括对象在虚拟场景中执行的动作、对象的语音指令、以及对象的注视行为中的一种。
[0201]
在其中的一个实施例中,装置还包括顺序选择模块,用于展示顺序选择视频片段对应的虚拟场景;响应于在顺序选择视频片段的虚拟场景中的虚拟交互操作,确定与当前角色对应的选择信息,并将确定的选择信息上报至服务器,以使得服务器基于上报的多个角色对应的选择信息确定各角色分别对应的交互顺序;接收服务器反馈的与当前角色对应的交互顺序。
[0202]
在其中的一个实施例中,装置还包括角色选择模块,用于展示包括多个候选角色的角色选择视频片段所对应的虚拟场景;响应于对候选角色的选择操作,确定与当前对象
对应的当前角色,并以至少一个视角播放与当前角色相关联的剧情视频片段;剧情视频片段用于影响当前对象在顺序选择视频片段的虚拟场景中的虚拟交互操作。
[0203]
在其中的一个实施例中,第一展示模块还用于检测对象在虚拟场景中执行的动作,基于所执行的动作确定当前视角;确定与当前视角对应的交互视频片段的虚拟场景,并进行展示。
[0204]
在其中的一个实施例中,第一展示模块还用于获取与交互视频片段对应的全景虚拟模型;对全景虚拟模型中处于当前视角的可见范围内的内容进行渲染,得到与当前视角对应的交互视频片段的虚拟场景。
[0205]
在其中的一个实施例中,交互视频片段的虚拟场景中的互动控件携带有控件标识,装置还包括绑定模块,用于响应于对互动选项的虚拟交互操作,建立目标互动控件的控件标识与当前角色的绑定关系。
[0206]
在其中的一个实施例中,装置还包括第三展示模块,用于响应于当前角色的展示请求,根据绑定关系确定与展示请求中携带的控件标识对应的目标互动控件;在共享虚拟场景中展示目标互动控件,以使得加入到共享虚拟场景中的其他对象查看目标互动控件。
[0207]
在其中的一个实施例中,装置还包括票选模块,用于在所有角色均执行完与交互视频片段对应的虚拟交互操作后,进入共享虚拟场景,以实现不同角色间的信息交互,信息交互的结果用于影响对角色进行票选的虚拟交互操作;响应于对全部角色中的至少一个角色进行票选的虚拟交互操作,展示结局视频片段,其中,结局视频片段基于每个对象分别触发的用于进行票选的虚拟交互操作共同确定。
[0208]
在其中的一个实施例中,装置还包括字幕展示模块,用于在虚拟场景中的字幕显示区域中展示字幕信息,字幕信息在字幕显示区域内以预设移动速度进行展示,预设移动速度与视角的转动速度相匹配。
[0209]
上述互动视频的处理装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
[0210]
基于同样的发明构思,本技术实施例还提供了一种用于实现如图17对应的上述所涉及的互动视频的处理方法的互动视频的处理装置。该装置所提供的解决问题的实现方案与上述方法中所记载的实现方案相似,故下面所提供的一个或多个互动视频的处理装置实施例中的具体限定可以参见上文中对于互动视频的处理方法的限定,在此不再赘述。
[0211]
在一个实施例中,如图19所示,提供了一种互动视频的处理装置1900,包括:反馈模块1901、接收模块1902和更新模块1903,其中:
[0212]
反馈模块1901,用于响应于第一终端发起的交互请求,反馈与交互请求的交互顺序相匹配的交互视频片段;反馈的交互视频片段用于供第一终端以至少一个视角展示交互视频片段的虚拟场景。
[0213]
接收模块1902,用于接收第一终端反馈的虚拟交互信息,其中,虚拟交互信息为第一终端在检测到针对虚拟场景中目标互动控件的互动选项的虚拟交互操作时生成得到。
[0214]
更新模块1903,用于根据虚拟交互信息,对当前的交互视频片段中互动控件的属性进行调整,得到更新后的交互视频片段,更新后的交互视频片段用于传递至交互顺序在后的第二终端并进行展示。
[0215]
上述互动视频的处理装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
[0216]
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端或服务器。本实施例以该计算机设备为终端为例进行说明,其内部结构图可以如图20所示。该计算机设备包括通过系统总线连接的处理器、存储器、输入/输出接口、通信接口、显示单元和输入装置。其中,处理器、存储器和输入/输出接口通过系统总线连接,通信接口、显示单元和输入装置通过输入/输出接口连接到系统总线。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的通信接口用于与外部的终端进行有线或无线方式的通信,无线方式可通过wifi、移动蜂窝网络、nfc(近场通信)或其他技术实现。该计算机程序被处理器执行时以实现如图4至图16对应的互动视频的处理方法,或实现如图17对应的互动视频的处理方法。该计算机设备的显示单元用于形成视觉可见的画面,可以是显示屏、投影装置或虚拟现实成像装置,显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
[0217]
本领域技术人员可以理解,图20中示出的结构,仅仅是与本技术方案相关的部分结构的框图,并不构成对本技术方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
[0218]
在一个实施例中,还提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现上述各方法实施例中的步骤。
[0219]
在一个实施例中,提供了一种计算机可读存储介质,存储有计算机程序,该计算机程序被处理器执行时实现上述各方法实施例中的步骤。
[0220]
在一个实施例中,提供了一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现上述各方法实施例中的步骤。
[0221]
需要说明的是,本技术所涉及的对象操作信息(包括但不限于与虚拟交互操作相关的信息)和数据(包括但不限于用于分析的数据、存储的数据、展示的数据等),均为经对象授权或者经过各方充分授权的信息和数据,且相关数据的收集、使用和处理需要遵守相关国家和地区的相关法律法规和标准。
[0222]
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本技术所提供的各实施例中所使用的对存储器、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(read-only memory,rom)、磁带、软盘、闪存、光存储器、高密度嵌入式非易失性存储器、阻变存储器(reram)、磁变存储器(magnetoresistive random access memory,mram)、铁电存储器(ferroelectric random access memory,fram)、相变存储器(phase change memory,pcm)、石墨烯存储器等。易失性存储器可包括随机存取存储器(random access memory,
ram)或外部高速缓冲存储器等。作为说明而非局限,ram可以是多种形式,比如静态随机存取存储器(static random access memory,sram)或动态随机存取存储器(dynamic random access memory,dram)等。本技术所提供的各实施例中所涉及的数据库可包括关系型数据库和非关系型数据库中至少一种。非关系型数据库可包括基于区块链的分布式数据库等,不限于此。本技术所提供的各实施例中所涉及的处理器可为通用处理器、中央处理器、图形处理器、数字信号处理器、可编程逻辑器、基于量子计算的数据处理逻辑器等,不限于此。
[0223]
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
[0224]
以上所述实施例仅表达了本技术的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本技术构思的前提下,还可以做出若干变形和改进,这些都属于本技术的保护范围。因此,本技术专利的保护范围应以所附权利要求为准。

技术特征:
1.一种互动视频的处理方法,其特征在于,所述方法包括:在达到与当前角色对应的交互顺序时,以至少一个视角展示交互视频片段的虚拟场景,所述交互视频片段基于交互顺序在前的角色执行完虚拟交互操作而更新得到,所述交互视频片段的虚拟场景中包括有至少一个互动控件;若在所述交互视频片段的虚拟场景中发生指向目标互动控件的虚拟交互操作,则展示与所述目标互动控件对应的至少一个互动选项,所述目标互动控件为所述至少一个互动控件中的任一互动控件;响应于对所述互动选项的虚拟交互操作,触发对所述交互视频片段中的目标互动控件的属性进行调整,以对所述交互视频片段进行更新;其中,所述目标互动控件的属性至少包括隐藏和展示中的一种。2.根据权利要求1所述的方法,其特征在于,所述方法还包括:响应于对所述互动选项的虚拟交互操作,展示与所述目标互动控件相关联的关联视频片段的虚拟场景。3.根据权利要求1所述的方法,其特征在于,所述虚拟交互操作至少包括对象在虚拟场景中执行的动作、所述对象的语音指令、以及所述对象的注视行为中的一种。4.根据权利要求1所述的方法,其特征在于,所述在达到与当前角色对应的交互顺序时,以至少一个视角展示交互视频片段的虚拟场景之前,所述方法还包括:展示顺序选择视频片段对应的虚拟场景;响应于在所述顺序选择视频片段的虚拟场景中的虚拟交互操作,确定与当前角色对应的选择信息,并将确定的选择信息上报至服务器,以使得所述服务器基于上报的多个角色对应的选择信息确定各角色分别对应的交互顺序;接收服务器反馈的与所述当前角色对应的交互顺序。5.根据权利要求4所述的方法,其特征在于,在所述展示顺序选择片段对应的虚拟场景之前,所述方法还包括:展示包括多个候选角色的角色选择视频片段所对应的虚拟场景;响应于对所述候选角色的选择操作,确定与当前对象对应的当前角色,并以至少一个视角播放与当前角色相关联的剧情视频片段;所述剧情视频片段用于影响当前对象在所述顺序选择视频片段的虚拟场景中的虚拟交互操作。6.根据权利要求1所述的方法,其特征在于,所述虚拟交互操作包括对象在虚拟场景中执行的动作,所述以至少一个视角展示交互视频片段的虚拟场景,包括:检测所述对象在虚拟场景中执行的动作,基于所执行的动作确定当前视角;确定与当前视角对应的交互视频片段的虚拟场景,并进行展示。7.根据权利要求6所述的方法,其特征在于,所述确定与当前视角对应的交互视频片段的虚拟场景,包括:获取与所述交互视频片段对应的全景虚拟模型;对所述全景虚拟模型中处于当前视角的可见范围内的内容进行渲染,得到与当前视角对应的交互视频片段的虚拟场景。8.根据权利要求1所述的方法,其特征在于,所述交互视频片段的虚拟场景中的互动控件携带有控件标识,所述方法还包括:
响应于对所述互动选项的虚拟交互操作,建立所述目标互动控件的控件标识与所述当前角色的绑定关系。9.根据权利要求8所述的方法,其特征在于,所述方法还包括:响应于当前角色的展示请求,根据所述绑定关系确定与所述展示请求中携带的控件标识对应的目标互动控件;在共享虚拟场景中展示所述目标互动控件,以使得加入到所述共享虚拟场景中的其他对象查看所述目标互动控件。10.根据权利要求1所述的方法,其特征在于,所述方法还包括:在所有角色均执行完与所述交互视频片段对应的虚拟交互操作后,进入共享虚拟场景,以实现不同角色间的信息交互,所述信息交互的结果用于影响对角色进行票选的虚拟交互操作;响应于对全部角色中的至少一个角色进行票选的虚拟交互操作,展示结局视频片段,其中,所述结局视频片段基于每个对象分别触发的用于进行票选的虚拟交互操作共同确定。11.根据权利要求1至10中任一项所述的方法,其特征在于,所述方法还包括:在虚拟场景中的字幕显示区域中展示字幕信息,所述字幕信息在字幕显示区域内以预设移动速度进行展示,所述预设移动速度与视角的转动速度相匹配。12.一种互动视频的处理方法,其特征在于,所述方法包括:响应于第一终端发起的交互请求,反馈与所述交互请求的交互顺序相匹配的交互视频片段;反馈的所述交互视频片段用于供所述第一终端以至少一个视角展示交互视频片段的虚拟场景;接收第一终端反馈的虚拟交互信息,其中,所述虚拟交互信息为第一终端在检测到针对所述虚拟场景中目标互动控件的互动选项的虚拟交互操作时生成得到;根据所述虚拟交互信息,对当前的交互视频片段中互动控件的属性进行调整,得到更新后的交互视频片段,所述更新后的交互视频片段用于传递至交互顺序在后的第二终端进行展示。13.一种互动视频的处理装置,其特征在于,所述装置包括:第一展示模块,用于在达到与当前角色对应的交互顺序时,以至少一个视角展示交互视频片段的虚拟场景,所述交互视频片段基于交互顺序在前的角色执行完虚拟交互操作而更新得到,所述交互视频片段的虚拟场景中包括有至少一个互动控件;第二展示模块,若在所述交互视频片段的虚拟场景中发生指向目标互动控件的虚拟交互操作,则展示与所述目标互动控件对应的至少一个互动选项;触发模块,用于响应于对所述互动选项的虚拟交互操作,触发对所述交互视频片段中的目标互动控件的属性进行调整,以对所述交互视频片段进行更新;其中,所述目标互动控件的属性至少包括隐藏和展示中的一种。14.一种互动视频的处理装置,其特征在于,所述装置包括:反馈模块,用于响应于第一终端发起的交互请求,反馈与所述交互请求的交互顺序相匹配的交互视频片段;反馈的所述交互视频片段用于供所述第一终端以至少一个视角展示交互视频片段的虚拟场景;
接收模块,用于接收第一终端反馈的虚拟交互信息,其中,所述虚拟交互信息为第一终端在检测到针对所述虚拟场景中目标互动控件的互动选项的虚拟交互操作时生成得到;更新模块,用于根据所述虚拟交互信息,对当前的交互视频片段中互动控件的属性进行调整,得到更新后的交互视频片段,所述更新后的交互视频片段用于传递至交互顺序在后的第二终端进行展示。15.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至11中任一项所述的方法的步骤,或实现权利要求12所述的方法的步骤。16.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至11中任一项所述的方法的步骤,或实现权利要求12所述的方法的步骤。17.一种计算机程序产品,包括计算机程序,其特征在于,该计算机程序被处理器执行时实现权利要求1至11中任一项所述的方法的步骤,或实现权利要求12所述的方法的步骤。

技术总结
本申请涉及一种互动视频的处理方法、装置、计算机设备和存储介质。所述方法包括:在达到与当前角色对应的交互顺序时,以至少一个视角展示交互视频片段的虚拟场景,交互视频片段基于交互顺序在前的角色执行完虚拟交互操作而更新得到,交互视频片段的虚拟场景中包括有至少一个互动控件;若在交互视频片段的虚拟场景中发生指向目标互动控件的虚拟交互操作,则展示与目标互动控件对应的至少一个互动选项;响应于对互动选项的虚拟交互操作,触发对交互视频片段中的目标互动控件的属性进行调整,以对交互视频片段进行更新;其中,目标互动控件的属性至少包括隐藏和展示中的一种。采用本方法能够提供丰富的互动视频交互方式。法能够提供丰富的互动视频交互方式。法能够提供丰富的互动视频交互方式。


技术研发人员:颜波
受保护的技术使用者:腾讯科技(深圳)有限公司
技术研发日:2022.01.18
技术公布日:2023/8/1
版权声明

本文仅代表作者观点,不代表航空之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)

飞行汽车 https://www.autovtol.com/

分享:

扫一扫在手机阅读、分享本文

相关推荐