一种数据处理方法、计算机设备以及可读存储介质与流程

未命名 08-09 阅读:114 评论:0


1.本技术涉及计算机技术领域,尤其涉及一种数据处理方法、计算机设备以及可读存储介质。


背景技术:

2.目前,增强现实(augmented reality,ar)设备可以将本地摄像头拍摄得到的现实场景(即拍摄画面)与渲染得到的虚拟场景进行叠加处理,进而可以将叠加后的画面呈现至该ar设备中。现有的ar设备可以响应针对渲染得到的虚拟场景的触发操作,对渲染得到的虚拟场景进行更新,进而将更新后的虚拟场景叠加显示在现实场景,然而,现有的ar设备无法响应针对现实场景的触发操作,从而导致ar设备的交互方式单一。此外,现有的ar设备会将渲染得到的虚拟场景固定地显示在ar设备的指定区域中,从而导致ar设备的展示方式单一。


技术实现要素:

3.本技术实施例提供一种数据处理方法、计算机设备以及可读存储介质,可以丰富展示方式以及交互方式。
4.本技术实施例一方面提供了一种数据处理方法,包括:
5.在数据拍摄界面中显示拍摄画面;拍摄画面是通过拍摄组件拍摄得到的;拍摄画面包含目标对象;
6.响应针对数据拍摄界面中的目标对象的第一触发操作,在数据拍摄界面中显示用于指向目标对象的第一虚拟渲染区域;
7.在第一虚拟渲染区域中显示媒体数据;媒体数据与目标对象的对象分类相关联。
8.本技术实施例一方面提供了一种数据处理装置,包括:
9.画面显示模块,用于在数据拍摄界面中显示拍摄画面;拍摄画面是通过拍摄组件拍摄得到的;拍摄画面包含目标对象;
10.区域显示模块,用于响应针对数据拍摄界面中的目标对象的第一触发操作,在数据拍摄界面中显示用于指向目标对象的第一虚拟渲染区域;
11.数据显示模块,用于在第一虚拟渲染区域中显示媒体数据;媒体数据与目标对象的对象分类相关联。
12.其中,区域显示模块,具体用于响应针对数据拍摄界面中的目标对象的第一触发操作,获取目标对象在数据拍摄界面中的目标位置;
13.区域显示模块,具体用于若目标位置处于数据拍摄界面中的焦点位置,则按照焦点显示方式在数据拍摄界面中显示用于指向目标对象的第一虚拟渲染区域;
14.区域显示模块,具体用于若目标位置不处于数据拍摄界面中的焦点位置,则按照非焦点显示方式在数据拍摄界面中显示用于指向目标对象的第一虚拟渲染区域。
15.其中,区域显示模块,具体用于响应针对数据拍摄界面中的目标对象的第一触发
操作,确定用于指向目标对象的展示卡片的卡片数量m;卡片数量m是基于媒体数据的媒体数量所确定的,m为正整数;
16.区域显示模块,具体用于将m个展示卡片确定为用于指向目标对象的第一虚拟渲染区域,在数据拍摄界面中显示第一虚拟渲染区域。
17.其中,装置还包括:
18.标识显示模块,用于若数据拍摄界面中的目标对象满足超链接显示条件,则在数据拍摄界面中的目标对象所在区域处,显示与目标对象相关联的超链接标识;超链接标识与媒体数据中的目标媒体数据相关联;
19.内容显示模块,用于响应针对超链接标识所指示的目标对象的第二触发操作,在数据拍摄界面中显示用于指向目标对象的第二虚拟渲染区域;
20.内容显示模块,用于在第二虚拟渲染区域中显示目标媒体数据对应的媒体展示内容。
21.其中,装置还包括:
22.模型显示模块,用于响应针对数据拍摄界面中的目标对象的建模操作,在数据拍摄界面中显示与目标对象具有相同外形的虚拟模型对象;
23.模型变换模块,用于响应针对数据拍摄界面中的虚拟模型对象的变换操作,在数据拍摄界面中的虚拟位置处显示虚拟模型对象;虚拟位置是指变换操作所指示的变换位置。
24.其中,装置还包括:
25.数据隐藏模块,用于当数据拍摄界面基于移动拍摄组件发生更新时,获取目标对象在更新后的数据拍摄界面中的目标更新位置;
26.数据隐藏模块,用于若目标更新位置处于更新后的数据拍摄界面中的边缘区域,则对第一虚拟渲染区域和媒体数据进行隐藏处理,在更新后的数据拍摄界面中显示针对目标对象的隐藏标识;
27.数据查看模块,用于响应针对目标对象的隐藏标识的查看操作,在更新后的数据拍摄界面中重新显示包含媒体数据的第一虚拟渲染区域。
28.其中,第一触发操作包括语音触发操作;
29.区域显示模块,具体用于响应针对数据拍摄界面的语音触发操作,获取语音触发操作所对应的音频数据,将拍摄画面中与音频数据所指示的语音文本数据存在匹配关系的对象确定为目标对象;
30.区域显示模块,具体用于在数据拍摄界面中显示用于指向目标对象的第一虚拟渲染区域。
31.其中,区域显示模块包括:
32.对象确定单元,用于响应针对数据拍摄界面的第一触发操作,获取第一触发操作所对应的触发轨迹,将拍摄画面中与触发轨迹存在选定关系的对象确定为目标对象;
33.区域显示单元,用于在数据拍摄界面中显示用于指向目标对象的第一虚拟渲染区域。
34.其中,对象确定单元包括:
35.第一触发子单元,用于当通过拍摄组件捕捉到显示在数据拍摄界面中的触发物体
时,响应触发物体针对数据拍摄界面的第一触发操作,获取第一触发操作所对应的触发轨迹;或者,
36.第二触发子单元,用于当响应针对包含数据拍摄界面的屏幕的第一触发操作时,获取第一触发操作所对应的触发轨迹。
37.其中,对象确定单元包括:
38.叠加处理子单元,用于对触发轨迹和拍摄画面进行叠加处理,将拍摄画面中的对象位置与触发轨迹存在交集关系的对象确定为叠加对象;
39.对象确定子单元,用于从叠加对象中确定与触发轨迹存在选定关系的目标对象。
40.其中,对象确定子单元,具体用于若叠加对象的数量为至少两个,则显示与至少两个叠加对象相关联的对象选择区域,在对象选择区域中显示每个叠加对象分别对应的候选选项;
41.对象确定子单元,具体用于响应针对候选选项的选择操作,将选择操作所选择的候选选项作为目标选项,将目标选项所对应的叠加对象确定为与触发轨迹存在选定关系的目标对象。
42.其中,对象确定子单元,具体用于若叠加对象的数量为至少两个,则确定触发轨迹分别与每个叠加对象之间的重合度,从至少两个叠加对象中获取具有最大重合度的叠加对象,将具有最大重合度的叠加对象确定为与触发轨迹存在选定关系的目标对象。
43.其中,对象确定子单元,具体用于若叠加对象的数量为至少两个,则将至少两个叠加对象输入至热度分析模型,通过热度分析模型对至少两个叠加对象进行热度分析,得到每个叠加对象分别对应的热度概率;
44.对象确定子单元,具体用于将至少两个叠加对象中具有最大热度概率的叠加对象,确定为与触发轨迹存在选定关系的目标对象。
45.其中,对象确定子单元,具体用于若叠加对象的数量为至少两个,则将至少两个叠加对象输入至匹配分析模型,通过匹配分析模型对至少两个叠加对象以及交互对象进行属性特征匹配分析,得到交互对象分别与每个叠加对象之间的属性匹配度;交互对象是指启动拍摄组件获取拍摄画面的对象;
46.对象确定子单元,具体用于将至少两个叠加对象中具有最大属性匹配度的叠加对象,确定为与触发轨迹存在选定关系的目标对象。
47.其中,对象确定单元还包括:
48.图像处理子单元,用于对拍摄画面中的拍摄图像数据进行图像预处理,得到预处理图像数据;
49.图像处理子单元,用于对预处理图像数据进行对象边缘检测,得到预处理图像数据中的对象边缘节点集合;对象边缘节点集合包括预处理图像数据中的边缘节点;
50.位置识别子单元,用于根据边缘节点集合中的边缘节点,识别拍摄画面中的目标对象在数据拍摄界面中的对象位置。
51.其中,装置还包括:
52.数量统计模块,用于统计目标媒体数据在目标时间段内的分发数量和触发数量,将分发数量和触发数量之间的比值,确定为目标媒体数据的触发概率;
53.条件确定模块,用于若触发数量大于数量阈值,且触发概率大于概率阈值,则确定
目标对象满足超链接显示条件。
54.其中,模型显示模块包括:
55.模型生成单元,用于响应针对数据拍摄界面中的目标对象的建模操作,获取拍摄画面所指示的深度信息,基于深度信息将拍摄画面中的目标对象映射至立体空间,在立体空间中生成与目标对象具有相同外形的虚拟模型对象;
56.模型显示单元,用于在数据拍摄界面中的目标对象所在位置处,显示虚拟模型对象;虚拟模型对象覆盖显示在目标对象上。
57.其中,装置还包括:
58.特征提取模块,用于对数据拍摄界面中的目标对象进行对象增强,得到增强对象;
59.特征提取模块,用于对增强对象进行图像特征提取,得到增强图像特征,对增强对象进行文本特征提取,得到增强文本特征;
60.分类确定模块,用于对增强图像特征和增强文本特征进行特征融合,得到增强融合特征,根据增强融合特征,确定目标对象的对象分类;
61.搜索处理模块,用于将对象分类输入至搜索引擎,通过搜索引擎对对象分类进行搜索处理,得到用于显示于第一虚拟渲染区域的媒体数据。
62.其中,搜索处理模块包括:
63.搜索处理单元,用于将对象分类输入至搜索引擎,通过搜索引擎对对象分类进行搜索处理,得到与对象分类相关联的媒体数据集合;
64.特征分析单元,用于获取交互对象所对应的历史触发信息,对历史触发信息进行特征分析,得到交互对象的历史对象特征;交互对象是指启动拍摄组件获取拍摄画面的对象;
65.排序处理单元,用于基于历史对象特征对媒体数据集合中的初始媒体数据进行排序处理,从排序处理后的初始媒体数据中获取用于显示于第一虚拟渲染区域的媒体数据。
66.本技术实施例一方面提供了一种计算机设备,包括:处理器和存储器;
67.处理器与存储器相连,其中,存储器用于存储计算机程序,计算机程序被处理器执行时,使得该计算机设备执行本技术实施例提供的方法。
68.本技术实施例一方面提供了一种计算机可读存储介质,计算机可读存储介质存储有计算机程序,该计算机程序适于由处理器加载并执行,以使得具有该处理器的计算机设备执行本技术实施例提供的方法。
69.本技术实施例一方面提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行本技术实施例提供的方法。
70.在本技术实施例中,计算机设备可以在数据拍摄界面中显示通过拍摄组件拍摄得到的拍摄画面。其中,拍摄画面包含目标对象。进一步地,计算机设备可以响应针对数据拍摄界面中的目标对象的第一触发操作,在数据拍摄界面中显示用于指向目标对象的第一虚拟渲染区域,进而在第一虚拟渲染区域中显示与目标对象的对象分类相关联的媒体数据。由此可见,本技术实施例可以在通过拍摄组件拍摄得到数据拍摄界面中的拍摄画面的情况下,将针对数据拍摄界面的第一触发操作与拍摄画面相结合,确定第一触发操作在拍摄画
面中所指示的目标对象,进而在用于指向目标对象的第一虚拟渲染区域中,显示与目标对象的对象分类相关联的媒体数据。可以理解的是,通过拍摄画面中的目标对象可以生成用于指向目标对象的第一虚拟渲染区域,从而丰富计算机设备的交互方式,此外,对于针对拍摄画面中的不同对象的第一触发操作而言,不同的对象可以生成指向不同对象的第一虚拟渲染区域,从而丰富计算机设备的展示方式。
附图说明
71.为了更清楚地说明本技术实施例或相关技术中的技术方案,下面将对实施例或相关技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
72.图1是本技术实施例提供的一种网络架构的结构示意图;
73.图2是本技术实施例提供的一种进行数据交互的场景示意图;
74.图3是本技术实施例提供的一种数据处理方法的流程示意图;
75.图4a是本技术实施例提供的一种显示一个展示卡片的场景示意图;
76.图4b是本技术实施例提供的一种显示至少两个展示卡片的场景示意图;
77.图5a是本技术实施例提供的一种对媒体数据进行阅览的场景示意图;
78.图5b是本技术实施例提供的一种对媒体数据进行阅览的场景示意图;
79.图6是本技术实施例提供的一种显示隐藏标识的场景示意图;
80.图7是本技术实施例提供的一种数据处理方法的流程示意图;
81.图8是本技术实施例提供的一种显示超链接标识的场景示意图;
82.图9是本技术实施例提供的一种查看超物体链接的场景示意图;
83.图10是本技术实施例提供的一种数据处理方法的流程示意图;
84.图11是本技术实施例提供的一种进行建模处理的场景示意图;
85.图12a是本技术实施例提供的一种移动虚拟模型对象的场景示意图;
86.图12b是本技术实施例提供的一种旋转虚拟模型对象的场景示意图;
87.图12c是本技术实施例提供的一种翻转虚拟模型对象的场景示意图;
88.图13是本技术实施例提供的一种数据处理方法的流程示意图;
89.图14a是本技术实施例提供的一种确定目标对象的场景示意图;
90.图14b是本技术实施例提供的一种确定目标对象的场景示意图;
91.图14c是本技术实施例提供的一种确定目标对象的场景示意图;
92.图15是本技术实施例提供的一种进行数据交互的流程示意图;
93.图16是本技术实施例提供的一种数据处理方法的流程示意图;
94.图17a是本技术实施例提供的一种显示候选选项的场景示意图;
95.图17b是本技术实施例提供的一种确定重合度的场景示意图;
96.图17c是本技术实施例提供的一种显示虚拟渲染区域的场景示意图;
97.图17d是本技术实施例提供的一种确定热度概率的场景示意图;
98.图17e是本技术实施例提供的一种确定属性匹配度的场景示意图;
99.图18是本技术实施例提供的一种数据处理装置的结构示意图;
100.图19是本技术实施例提供的一种计算机设备的结构示意图。
具体实施方式
101.下面将结合本技术实施例中的附图,对本技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本技术一部分实施例,而不是全部的实施例。基于本技术中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本技术保护的范围。
102.本技术实施例涉及人工智能(artificial intelligence,简称ai),人工智能是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
103.人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习、自动驾驶、智慧交通等几大方向。
104.增强现实(augmented reality,简称ar)技术,是一种全新的人机交互技术。ar技术可以通过识别当前环境中的物件/平面/人脸等,并在当前环境的基础上叠加虚拟的信息。其中,虚拟的信息可以包括单纯的用户界面(user interface,简称ui),也包括附加的信息(比如,本技术所涉及的第一虚拟渲染区域中的媒体数据、第二虚拟渲染区域中的媒体展示内容)。
105.具体的,请参见图1,图1是本技术实施例提供的一种网络架构的结构示意图。如图1所示,该网络架构可以包括业务服务器2000和终端设备集群。其中,终端设备集群具体可以包括一个或者多个终端设备,这里将不对终端设备集群中的终端设备的数量进行限定。如图1所示,多个终端设备具体可以包括终端设备3000a、终端设备3000b、终端设备3000c、

、终端设备3000n;终端设备3000a、终端设备3000b、终端设备3000c、

、终端设备3000n可以分别与业务服务器2000通过有线或无线通信方式进行直接或间接地网络连接,以便于每个终端设备可以通过该网络连接与业务服务器2000之间进行数据交互。
106.应当理解,在ar场景下,如图1所示的终端设备集群中的每个终端设备均为增强现实设备。其中,终端设备集群中的每个终端设备均可以包括:可穿戴设备、智能手机、平板电脑、笔记本电脑、台式计算机、智能家居、车载终端等具有数据处理功能的智能终端。应当理解,本技术的应用场景可以包括但不限于ar场景。
107.为便于理解,本技术实施例可以在图1所示的多个终端设备中选择一个终端设备作为目标终端设备。例如,本技术实施例可以将图1所示的终端设备3000n作为目标终端设备,该目标终端设备可以与业务服务器2000之间进行数据交互。其中,目标终端设备上可以集成安装有用于采集拍摄画面的拍摄组件,这里的拍摄组件可以为目标终端设备上用于拍摄的摄像头。
108.其中,如图1所示的业务服务器2000可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、cdn、以及大数据和人工智能平台等基础云计算服务的云服务器。
109.为便于理解,本技术实施例可以将某个交互对象(例如,对象y)在拍摄画面中所选择的需要进行搜索处理的对象(即物体)统称为目标对象。为便于理解,本技术实施例可以将推荐给某个交互对象(例如,对象y)的内容统称为媒体数据,本技术实施例可以将某个交互对象(例如,对象y)在媒体数据中所选择的贴合自己兴趣的内容(比如,视频数据、图文数据、应用程序数据)统称为目标媒体数据。
110.其中,本技术实施例中的媒体数据可以为视频数据,也可以为图文数据,还可以为应用程序数据,本技术不对媒体数据的类型进行限定。应当理解,上述网络框架所适用的业务场景具体可以包括:娱乐节目点播场景,线上新闻阅读场景、线上物品购买场景等,该网络框架可以在娱乐节目点播场景,线上新闻阅读场景、线上物品购买场景等业务场景下实现针对目标对象的搜索处理,这里将不对该网络框架所适用的业务场景进行一一列举。比如,在娱乐节目点播场景下,本技术实施例中的媒体数据可以为视频数据,这里的视频数据可以为对目标对象的对象分类进行搜索处理后所得到的与目标对象相关联的娱乐节目。又比如,在线上新闻阅读场景下,本技术实施例中的媒体数据可以为图文数据,这里的图文数据可以为对目标对象的对象分类进行搜索处理后所得到的与目标对象相关联的新闻文章。又比如,在线上物品购买场景下,本技术实施例中的媒体数据可以为应用程序数据,这里的应用程序数据可以为对目标对象的对象分类进行搜索处理后所得到的与目标对象相关联的购物客户端,该购物客户端可以包括购买目标对象所需的金额。
111.应当理解,交互对象(例如,对象y)可以通过拍摄组件在数据拍摄界面中拍摄得到拍摄画面,通过对该拍摄画面进行物体识别,可以识别得到该拍摄画面中的一个或多个对象,当对象y需要对一个或多个对象中的目标对象进行搜索处理时,对象y可以针对数据拍摄界面中的目标对象执行触发操作(例如,手势操作)。其中,拍摄画面可以是打开拍摄组件后所呈现的画面,也可以为通过拍摄组件进行视频录制时的画面等。其中,物体识别是计算机视觉领域的一项基础研究,它的任务是识别出图像中的物体,并确定这个物体在图像表示的场景中的位置和方向。这样,终端设备可以响应针对目标对象的手势操作,识别得到目标对象的对象分类,在数据拍摄界面中显示用于指向目标对象的虚拟渲染区域,进而在虚拟渲染区域中显示与目标对象的对象分类相关联的一个或多个媒体数据,以使对象y可以在一个或多个媒体数据中选择贴合自己兴趣的目标媒体数据。
112.为便于理解,进一步地,请参见图2,图2是本技术实施例提供的一种进行数据交互的场景示意图。如图2所示的服务器20a可以为上述图1所对应实施例中的业务服务器2000,如图2所示的终端设备20b可以为上述图1所对应实施例的终端设备集群中的任意一个终端设备,为便于理解,本技术实施例以上述图1所示的终端设备3000n作为该终端设备20b为例,以阐述图2所示的终端设备20b和服务器20a进行数据交互的具体过程。其中,终端设备20b对应的交互对象可以为交互对象20c。
113.如图2所示,交互对象20c可以通过集成在终端设备20b上的拍摄组件进行拍摄,以在终端设备20b的数据拍摄界面21a中显示拍摄画面21c,该拍摄画面21c中可以包括一个或
多个对象,一个或多个对象具体可以包括图2所示的对象22a。其中,在终端设备20b为可穿戴设备时,拍摄组件可以为ar眼镜上的摄像头。
114.进一步地,若交互对象20c需要对对象22a进行搜索处理,则可以针对对象22a执行触发操作(例如,第一触发操作),以通过终端设备20b向服务器20a发送数据获取请求。其中,这里的数据获取请求是终端设备20b基于拍摄画面21c和第一触发操作所发送的。其中,这里的第一触发操作可以包括点击、长按、滑动等接触性操作,也可以包括语音、手势等非接触性操作,本技术在此不做限定。
115.应当理解,在第一触发操作为手势操作时,本技术实施例不对手势操作的具体类型进行限定。可以理解的是,手势识别是指通过计算机视觉来理解交互对象的行为,让交互对象可以通过手势在控制虚拟场景,以使虚拟场景可以与交互对象的手势进行交互,进而提升交互对象的用户体验。可选的,可以理解的是,交互对象20c还可以针对数据拍摄界面21a执行手势录入操作,这样,终端设备20b可以获取手势录入操作所对应的录入手势,进而在第一触发操作为该录入手势时,向服务器20a发送数据获取请求。
116.如图2所示,服务器20a在接收到数据获取请求之后,可以从拍摄画面21c中获取与第一触发操作相匹配的对象22a,且将对象22a确定为目标对象,进而对目标对象进行搜索处理,从内容数据库20d中获取与目标对象的对象分类相关联的媒体数据。其中,内容数据库20d中可以包括多个媒体数据库,多个媒体数据库具体可以包括:媒体数据库23a,媒体数据库23b,

,媒体数据库23n。媒体数据库23a,媒体数据库23b,

,媒体数据库23n可以用于存储不同对象分类的初始媒体数据,例如,媒体数据库23a可以用于存储与对象分类d1相关联的初始媒体数据,媒体数据库23b可以用于存储与对象分类d2相关联的初始媒体数据,

,媒体数据库23n可以用于存储与对象分类dn相关联的初始媒体数据。
117.比如,在对象22a的对象分类为d1时,对对象22a进行搜索处理后所得到的搜索结果可以为媒体数据库23a,则服务器20a可以从内容数据库20d中获取媒体数据库23a,进而从媒体数据库23a的初始媒体数据中获取用于推送至终端设备20b的媒体数据。其中,用于推送至终端设备20b的媒体数据可以为媒体数据22b,媒体数据22b中可以包括多个媒体数据,这里以媒体数据22b的数量为4个为例进行说明,4个媒体数据具体可以包括:媒体数据s1、媒体数据s2、媒体数据s3和媒体数据s4。可以理解的是,服务器20a在获取媒体数据s1、媒体数据s2、媒体数据s3和媒体数据s4时,可以确定媒体数据s1、媒体数据s2、媒体数据s3和媒体数据s4的顺序,进而将预定义的顺序、以及媒体数据s1、媒体数据s2、媒体数据s3和媒体数据s4一并推送至终端设备20b。
118.如图2所示,终端设备20b在接收到服务器20a返回的媒体数据22b之后,可以基于媒体数据22b在数据拍摄界面21c中显示用于指向对象22a的虚拟渲染区域22c(即第一虚拟渲染区域22c),进而根据媒体数据22b所包含的预定义顺序,在虚拟渲染区域22c中显示媒体数据22b。例如,媒体数据s1的顺序可以为第一位、媒体数据s2的顺序可以为第二位、媒体数据s3的顺序可以为第三位,媒体数据s4的顺序可以为第四位。
119.可选的,终端设备20b还可以在虚拟渲染区域22c中显示与对象22a的对象分类相关联的媒体数据22b的同时,一并显示对象22a的对象分类,对象22a的对象分类即为对象分类d1,这里的对象分类d1可以为“马克杯”。此时,终端设备20b可以将数据拍摄界面由数据拍摄界面21a切换至数据拍摄界面21b,即数据拍摄界面21a和数据拍摄界面21b可以为终端设
备20b在不同时刻的数据拍摄界面。
120.其中,虚拟渲染区域22c可以位于数据拍摄界面21a中的任意位置,一般情况下,虚拟渲染区域22c可以位于对象22a所在位置处,相应的,媒体数据22b位于对象22a所在位置处。其中,对象22a所在位置处可以为叠加显示在对象22a之上的位置,也可以为紧挨显示在对象22a旁边的位置。此外,虚拟渲染区域22c可以为遮挡拍摄画面21c以进行显示,也可以为通过调节透明度后以进行显示。
121.其中,可以理解的是,虚拟渲染区域22c可以包括一个或多个展示卡片,本技术不对展示卡片的卡片数量进行限定,应当理解,图2以虚拟渲染区域22c可以包括一个展示卡片为例进行说明。在虚拟渲染区域22c包括一个展示卡片时,终端设备20b可以在一个展示卡片中展示媒体数据22b;可选的,在虚拟渲染区域22c包括多个展示卡片时,终端设备可以在多个展示卡片中展示媒体数据22b。
122.由此可见,本技术实施例可以在数据拍摄界面中显示包含目标对象的拍摄画面的情况下,响应针对目标对象的第一触发操作,对目标对象进行搜索处理,生成用于指向目标对象的第一虚拟渲染区域,从而丰富计算机设备的交互方式。其中,第一虚拟渲染区域可以用于显示对目标对象进行搜索处理后所得到的媒体数据,这里的媒体数据为与交互对象最相关联的媒体数据,不同的交对象所获取到的媒体数据是不同的。此外,对于针对拍摄画面中的不同对象的第一触发操作而言,不同的对象可以生成指向不同对象的第一虚拟渲染区域,从而丰富计算机设备的展示方式。
123.进一步地,请参见图3,图3是本技术实施例提供的一种数据处理方法的流程示意图。该方法可以由服务器执行,也可以由终端设备执行,还可以由服务器和终端设备共同执行,该服务器可以为上述图2所对应实施例中的服务器20a,该终端设备可以为上述图2所对应实施例中的终端设备20b。为便于理解,本技术实施例以该方法由终端设备执行为例进行说明。其中,该数据处理方法可以包括以下步骤s101-步骤s103:
124.步骤s101,在数据拍摄界面中显示拍摄画面;
125.其中,拍摄画面是通过拍摄组件拍摄得到的,拍摄画面包含一个或多个对象,一个或多个对象包含目标对象。
126.可以理解的是,当终端设备对应的交互对象(例如,图2所对应实施例中的交互对象20c)需要启动终端设备中的拍摄组件时,可以针对拍摄组件执行启动操作,这样,终端设备可以响应于交互对象针对拍摄组件所执行的启动操作,在终端设备中启动拍摄组件,通过拍摄组件对现实场景进行拍摄,在终端设备的数据拍摄界面中显示拍摄画面。
127.步骤s102,响应针对数据拍摄界面中的目标对象的第一触发操作,在数据拍摄界面中显示用于指向目标对象的第一虚拟渲染区域;
128.具体的,终端设备可以响应针对数据拍摄界面中的目标对象的第一触发操作,获取目标对象在数据拍摄界面中的目标位置。进一步地,若目标位置处于数据拍摄界面中的焦点位置,则终端设备可以按照焦点显示方式在数据拍摄界面中显示用于指向目标对象的第一虚拟渲染区域。可选的,若目标位置不处于数据拍摄界面中的焦点位置,则终端设备可以按照非焦点显示方式在数据拍摄界面中显示用于指向目标对象的第一虚拟渲染区域。
129.其中,焦点位置可以表示处于数据拍摄界面的中间区域的位置,非焦点位置可以表示处于数据拍摄界面的非中间区域的位置。中间区域和非中间区域是通过人为设定的,
例如,终端设备可以将数据拍摄界面的中间60%的区域设定为中间区域,将数据拍摄界面的四周40%的区域设定为非中间区域。
130.可以理解的是,终端设备可以获取用于触发显示第一虚拟渲染区域的辅助指令轨迹,对辅助指令轨迹和第一触发操作所对应的触发轨迹进行相似判断。其中,辅助指令轨迹可以为“?”的形状。进一步地,若辅助指令轨迹和触发轨迹满足轨迹相似条件,则终端设备执行在数据拍摄界面中显示用于指向目标对象的第一虚拟渲染区域的步骤。可选的,若辅助指令轨迹和触发轨迹不满足轨迹相似条件,则终端设备无需执行任何步骤。
131.应当理解,终端设备可以在响应针对数据拍摄界面中的目标对象的第一触发操作时,确定用于指向目标对象的展示卡片(即ar卡片)的卡片数量m。其中,卡片数量m是基于媒体数据的媒体数量所确定的,这里的m可以为正整数。进一步地,终端设备可以将m个展示卡片确定为用于指向目标对象的第一虚拟渲染区域,在数据拍摄界面中显示第一虚拟渲染区域。其中,m个展示卡片具有预定义的优先级。
132.其中,可以理解的是,若目标位置处于数据拍摄界面中的焦点位置,则终端设备可以获取与目标对象的对象分类相关联的媒体数据。其中,媒体数据是对目标对象的对象分类进行搜索处理后所得到的;对象分类是对目标对象进行分类处理后所得到的。进一步地,终端设备可以确定焦点显示方式所指示的卡片数量为一个(即m等于1),按照一个卡片数量在数据拍摄界面中显示用于指向目标对象的第一虚拟渲染区域。可选的,终端设备可以确定焦点显示方式所指示的卡片数量为至少两个(即m为大于1的正整数),按照至少两个卡片数量在数据拍摄界面中显示用于指向目标对象的第一虚拟渲染区域。应当理解,本技术实施例以焦点显示方式对应于一个展示卡片为例进行说明。
133.其中,可以理解的是,若目标位置不处于数据拍摄界面中的焦点位置,则终端设备可以获取与目标对象的对象分类相关联的媒体数据。其中,媒体数据是对目标对象的对象分类进行搜索处理后所得到的;对象分类是对目标对象进行分类处理后所得到的。进一步地,终端设备可以确定非焦点显示方式所指示的卡片数量为至少两个(即m为大于1的正整数),按照至少两个卡片数量在数据拍摄界面中显示用于指向目标对象的第一虚拟渲染区域。可选的,终端设备可以确定非焦点显示方式所指示的卡片数量为一个(即m等于1),按照一个卡片数量在数据拍摄界面中显示用于指向目标对象的第一虚拟渲染区域。应当理解,本技术实施例以非焦点显示方式对应于至少两个展示卡片为例进行说明。
134.可以理解的是,焦点展示方式和非焦点展示方式分别对应的展示卡片的卡片形状可以是不同的、也可以为相同的,例如,焦点展示方式对应的卡片形状可以为圆形,非焦点展示方式对应的卡片形状可以为三角形。为便于理解,本技术实施例以焦点展示方式和非焦点展示方式分别对应的卡片形状均为矩形为例进行说明。
135.可选的,本技术实施例还可以预先设定展示卡片的展示方式。这样,终端设备可以响应针对数据拍摄界面中的目标对象的第一触发操作,按照预先设定的展示方式在数据拍摄界面中显示用于指向目标对象的第一虚拟渲染区域。其中,预先设定的展示方式所指示的卡片数量可以为一个、也可以为至少两个,这里不进行限定。
136.步骤s103,在第一虚拟渲染区域中显示媒体数据。
137.其中,媒体数据与目标对象的对象分类相关联,这里的媒体数据是终端设备在响应于针对目标对象的第一触发操作后所获取到的。
138.具体的,若第一虚拟渲染区域包括至少两个展示卡片,则终端设备可以将按照等量划分后的媒体数据,分别显示在至少两个展示卡片中。其中,每个展示卡片分别显示不同的媒体数据,一个展示卡片用于显示一个或多个媒体数据,本技术实施例以在至少两个展示卡片的情况下,一个展示卡片用于显示一个媒体数据为例进行说明。可选的,若第一虚拟渲染区域包括一个展示卡片,则终端设备可以将媒体数据显示在一个展示卡片中。
139.应当理解,本技术实施例以与目标对象的对象分类相关联的媒体数据的媒体数量为至少两个为例进行说明。可选的,在媒体数据的数量为一个时,非焦点显示方式对应于一个展示卡片,终端设备可以按照一个卡片数量在数据拍摄界面中显示用于指向目标对象的第一虚拟渲染区域。
140.为便于理解,终端设备在一个展示卡片上展示媒体数据的具体过程可以参见图4a,图4a是本技术实施例提供的一种显示一个展示卡片的场景示意图;终端设备在至少两个展示卡片上展示媒体数据的具体过程可以参见图4b,图4b是本技术实施例提供的一种显示至少两个展示卡片的场景示意图。如图4a所示的数据拍摄界面40a和数据拍摄界面40b可以为终端设备在不同时刻的数据拍摄界面,如图4b所示的数据拍摄界面42a和数据拍摄界面42b可以为终端设备在不同时刻的数据拍摄界面。其中,图4b所示的数据拍摄界面42a可以为图4a所示的数据拍摄界面40a。
141.如图4a所示,终端设备的数据拍摄界面40a中可以显示有通过拍摄组件拍摄得到的拍摄画面40c,拍摄画面40c中可以包含交互对象感兴趣的目标对象41a,这里的目标对象41a可以为拍摄画面40c中所显示的“马克杯”,即目标对象41a的对象分类可以为“马克杯”。可以理解的是,在交互对象需要对目标对象41a进行搜索处理时,交互对象可以针对目标对象41a执行第一触发操作,这里的第一触发操作可以为交互对象针对目标对象41a所执行的手势操作41b。
142.这样,终端设备可以响应交互对象针对目标对象41a所执行的手势操作41b,获取手势操作41b所对应的触发轨迹41c,对触发轨迹41c和辅助指令轨迹进行相似判断,得到相似判断结果。可以理解的是,若相似判断结果指示触发轨迹41c和辅助指令轨迹满足轨迹相似条件,则终端设备可以在数据拍摄界面40a中显示用于指向目标对象41a的第一虚拟渲染区域。
143.其中,可以理解的是,终端设备可以获取目标对象41a在数据拍摄界面40a中的目标位置,如图4a所示,目标位置处于数据拍摄界面40a中的焦点位置。因此,终端设备可以在数据拍摄界面40a中显示用于指向目标对象41a的展示卡片41d,将展示卡片41d确定为用于指向目标对象41a的第一虚拟渲染区域。进一步地,终端设备可以在第一虚拟渲染区域中显示与目标对象41a的对象分类(即“马克杯”)相关联的媒体数据,得到数据拍摄界面40b,这里的与“马克杯”相关联的媒体数据可以为媒体数据s1、媒体数据s2、媒体数据s3和媒体数据s4,即终端设备可以在展示卡片41d中显示媒体数据s1、媒体数据s2、媒体数据s3和媒体数据s4。
144.如图4b所示,终端设备的数据拍摄界面42a中可以显示有通过拍摄组件拍摄得到的拍摄画面42c,拍摄画面42c中可以包含交互对象感兴趣的目标对象43a,这里的目标对象43a可以为拍摄画面42c中所显示的“马克杯”,即目标对象43a的对象分类可以为“马克杯”。可以理解的是,在交互对象需要对目标对象41a进行搜索处理时,交互对象可以针对目标对
象43a执行第一触发操作,这里的第一触发操作可以为交互对象针对目标对象43a所执行的手势操作43b。
145.这样,终端设备可以响应交互对象针对目标对象43a所执行的手势操作43b,获取手势操作43b所对应的触发轨迹43c,对触发轨迹43c和辅助指令轨迹进行相似判断,得到相似判断结果。可以理解的是,若相似判断结果指示触发轨迹43c和辅助指令轨迹满足轨迹相似条件,则终端设备可以在数据拍摄界面42a中显示用于指向目标对象43a的第一虚拟渲染区域。
146.其中,可以理解的是,终端设备可以获取目标对象43a在数据拍摄界面42a中的目标位置,如图4b所示,目标位置处于数据拍摄界面42a中的非焦点位置。因此,终端设备可以在数据拍摄界面42a中显示用于指向目标对象43a的展示卡片43d、展示卡片43e、展示卡片43f和展示卡片43g,将展示卡片43d、展示卡片43e、展示卡片43f和展示卡片43g确定为用于指向目标对象43a的第一虚拟渲染区域。进一步地,终端设备可以在第一虚拟渲染区域中显示与目标对象43a的对象分类(即“马克杯”)相关联的媒体数据,得到数据拍摄界面42b,这里的与“马克杯”相关联的媒体数据可以为媒体数据s1、媒体数据s2、媒体数据s3和媒体数据s4,例如,终端设备可以在展示卡片43d中显示媒体数据s1、在展示卡片43e中显示媒体数据s2、在展示卡片43f中显示媒体数据s3、在展示卡片43g中显示媒体数据s4。
147.应当理解,终端设备可以响应于针对第一虚拟渲染区域中的媒体数据的触发操作,在数据拍摄界面中显示用于指向目标对象的第二虚拟渲染区域。进一步地,终端设备可以将该触发操作所对应的媒体数据确定为目标媒体数据,在第二虚拟渲染区域中显示目标媒体数据对应的媒体展示内容。
148.为便于理解,终端设备在图4a所对应的场景下对媒体数据进行阅览的具体过程可以参见图5a,终端设备在图4b所对应的场景下对媒体数据进行阅览的具体过程可以参见图5b,图5a和图5b是本技术实施例提供的一种对媒体数据进行阅览的场景示意图。图5a所示的数据拍摄界面40b可以为图4a所示的数据拍摄界面40b,图5b所示的数据拍摄界面42b可以为图4b所示的数据拍摄界面42b。其中,图5a所示的第二虚拟渲染区域50b可以为图5b所示的第二虚拟渲染区域51b,图5a所示的媒体展示内容50c可以为图5b所示的媒体展示内容51c。
149.如图5a所示,数据拍摄界面40b中可以显示有展示卡片41d,展示卡片41d中可以显示有媒体数据s1、媒体数据s2、媒体数据s3和媒体数据s4。可以理解的是,在交互对象需要阅览媒体数据s1对应的媒体展示内容时,交互对象可以针对媒体数据s1执行触发操作,这里的触发操作可以为交互对象针对媒体数据s1对应的区域50a所执行的手势操作50d。
150.这样,终端设备可以响应交互对象针对媒体数据s1对应的区域50a所执行的手势操作50d,将媒体数据s1确定为目标媒体数据,在数据拍摄界面40b中显示用于指向目标对象(即图4a所对应实施例中的目标对象41a)的第二虚拟渲染区域50b。进一步地,终端设备可以在第二虚拟渲染区域50b中显示目标媒体数据对应的媒体展示内容50c,得到数据拍摄界面40c。
151.如图5b所示,数据拍摄界面42b中可以显示有展示卡片43d、展示卡片43e、展示卡片43f和展示卡片43g,展示卡片43d中可以显示有媒体数据s1、展示卡片43e中可以显示有媒体数据s2、展示卡片43f中可以显示有媒体数据s3和展示卡片43g中可以显示有媒体数据
s4。可以理解的是,在交互对象需要阅览媒体数据s1对应的媒体展示内容时,交互对象可以针对媒体数据s1执行触发操作,这里的触发操作可以为交互对象针对媒体数据s1对应的区域51a所执行的手势操作51d。
152.这样,终端设备可以响应交互对象针对媒体数据s1对应的区域51a所执行的手势操作51d,将媒体数据s1确定为目标媒体数据,在数据拍摄界面42b中显示用于指向目标对象(即图4b所对应实施例中的目标对象43a)的第二虚拟渲染区域51b。进一步地,终端设备可以在第二虚拟渲染区域51b中显示目标媒体数据对应的媒体展示内容51c,得到数据拍摄界面42c。
153.其中,交互对象还可以针对第二虚拟渲染区域50b或者第二虚拟渲染区域51b执行关闭操作,这里以第二虚拟渲染区域51b为例进行说明。可以理解的是,计算机设备可以响应针对第二虚拟渲染区域51b的关闭操作,关闭第二虚拟渲染区域51b,将数据拍摄界面42c切换至数据拍摄界面42b。
154.应当理解,当数据拍摄界面基于移动拍摄组件发生更新时,终端设备可以获取目标对象在更新后的数据拍摄界面中的目标更新位置。进一步地,若目标更新位置处于更新后的数据拍摄界面中的边缘区域(即非安全区),则终端设备可以对第一虚拟渲染区域和媒体数据进行隐藏处理,在更新后的数据拍摄界面中显示针对目标对象的隐藏标识。其中,第一虚拟渲染区域和媒体数据的状态可以称之为省略模式。进一步地,终端设备可以响应针对目标对象的隐藏标识的查看操作,在更新后的数据拍摄界面中重新显示包含媒体数据的第一虚拟渲染区域。
155.为便于理解,请参见图6,图6是本技术实施例提供的一种显示隐藏标识的场景示意图。如图6所示,在终端设备为可穿戴设备时,交互对象61d可以为佩戴ar眼镜的用户。在交互对象61d佩戴ar眼镜平视前方时,可以在ar眼镜中观察到数据拍摄界面60a;在交互对象61d微微抬头时,可以在ar眼镜中观察到数据拍摄界面60b。
156.如图6所示的数据拍摄界面60a可以为上述图4a所对应实施例中的数据拍摄界面40b,数据拍摄界面60a中可以包括第一虚拟渲染区域61a,第一虚拟渲染区域61a中可以包括媒体数据61b。如图6所示的数据拍摄界面60a中可以包括边缘区域和非边缘区域,在目标对象(例如,目标对象61f)显示完整时,目标对象61f处于非边缘区域,在目标对象61f显示不完整时,目标对象61f处于边缘区域。同理,如图6所示的数据拍摄界面60b中可以包括与数据拍摄界面60a相对应的边缘区域和非边缘区域。应当理解,边缘区域和非边缘区域是相对于目标对象而言的,对于不同的目标对象而言,不同的目标对象对应的边缘区域和非边缘区域是不同的。
157.如图6所示,当交互对象61d在平视前方的基础上微微抬头时,数据拍摄界面可以基于移动拍摄组件发生更新,终端设备中的数据拍摄界面可以由数据拍摄界面60a切换至数据拍摄界面60b,这里的数据拍摄界面60b可以为更新后的数据拍摄界面60a。与此同时,目标对象61f在数据拍摄界面60a中的目标位置(未在图上示出)可以切换至数据拍摄界面60b中的目标更新位置61c。
158.如图6所示,目标对象61f的目标位置(未在图上示出)可以处于数据拍摄界面60a中的非边缘区域,目标对象61f的目标更新位置61c可以处于数据拍摄界面60b中的边缘区域。此时,终端设备可以对数据拍摄界面60a中的第一虚拟渲染区域61a和媒体数据61b进行
隐藏处理,得到数据拍摄界面60b,在数据拍摄界面60b中显示针对目标对象61f的隐藏标识61e。进一步地,交互对象61d可以响应针对隐藏标识61e的查看操作,在数据拍摄界面60b中重新显示包含媒体数据61b的第一虚拟渲染区域61a,得到数据拍摄界面60c(未在图上示出)。
159.由此可见,本技术实施例可以在通过拍摄组件拍摄得到数据拍摄界面中的拍摄画面的情况下,将针对数据拍摄界面的第一触发操作与拍摄画面相结合,确定第一触发操作在拍摄画面中所指示的目标对象,进而在用于指向目标对象的第一虚拟渲染区域中,显示与目标对象的对象分类相关联的媒体数据。可以理解的是,通过拍摄画面中的目标对象可以生成用于指向目标对象的第一虚拟渲染区域,从而丰富计算机设备的交互方式,此外,对于针对拍摄画面中的不同对象的第一触发操作而言,不同的对象可以生成指向不同对象的第一虚拟渲染区域,从而丰富计算机设备的展示方式。
160.进一步地,请参见图7,图7是本技术实施例提供的一种数据处理方法的流程示意图。该方法可以由服务器执行,也可以由终端设备执行,还可以由服务器和终端设备共同执行,该服务器可以为上述图2所对应实施例中的服务器20a,该终端设备可以为上述图2所对应实施例中的终端设备20b。为便于理解,本技术实施例以该方法由终端设备执行为例进行说明。其中,该数据处理方法可以包括以下步骤s201-步骤s205:
161.步骤s201,统计目标媒体数据在目标时间段内的分发数量和触发数量,将分发数量和触发数量之间的比值,确定为目标媒体数据的触发概率;
162.其中,目标媒体数据可以为推送至第一虚拟渲染区域的任意一个媒体数据,本技术实施例以目标媒体数据为满足超链接显示条件的媒体数据为例进行说明。
163.应当理解,本技术实施例不对目标时间段所对应的时间时长进行限定,例如,目标时间段可以为1年,目标时间段还可以为1个月,目标时间段也可以为1个小时。本技术实施例不对目标时间段所处的时间节点进行限定,例如,目标时间段可以为上一年所对应的时间时长,目标时间段还可以为从当前时刻开始往前的时间时长,目标时间段也可以为当前时刻之前的指定时间段内的时间时长。
164.可以理解的是,目标媒体数据可以为第一虚拟渲染区域中的任意一个媒体数据,分发数量可以表示目标媒体数据在目标时间段内,被分发至第一虚拟渲染区域的数量,触发数量可以表示目标媒体数据在目标时间段内,在第一虚拟渲染区域中被触发的数量。比如,目标媒体数据可以在目标时间段内被分发至z1个终端设备,z1个终端设备均在各自的第一虚拟渲染区域中显示目标媒体数据,且在z1个终端设备所显示的目标媒体数据中,有z2个目标媒体数据被不同的交互对象所触发,以阅览目标媒体数据对应的媒体展示内容(即详情页)。因此,这里的z1即为分发数量,这里的z2即为触发数量,其中,z1可以为正整数,z2可以为小于或等于z1的正整数。
165.步骤s202,若触发数量大于数量阈值,且触发概率大于概率阈值,则确定目标对象满足超链接显示条件;
166.具体的,终端设备可以获取与超链接数量条件相关联的数量阈值,对触发数量和数量阈值进行比较,若触发数量大于数量阈值(例如,1000),则确定目标对象满足超链接数量条件。进一步地,终端设备可以获取与超链接概率条件相关联的概率阈值,对触发概率和概率阈值进行比较,若触发概率大于概率阈值(例如,60%),则确定目标对象满足超链接概
率条件。进一步地,若目标对象同时满足超链接数量条件和超链接概率条件,则确定目标对象满足超链接显示条件。
167.应当理解,本技术实施例以目标媒体数据为与目标对象相关联的媒体数据为例进行说明,拍摄画面中还可以包括除目标对象之外的对象(例如,对象p1),若与对象p1相关联的目标媒体数据的触发数量大于数量阈值,且与对象p1相关联的目标媒体数据的触发概率大于概率阈值,则确定对象p1满足超链接显示条件。
168.步骤s203,若数据拍摄界面中的目标对象满足超链接显示条件,则在数据拍摄界面中的目标对象所在区域处,显示与目标对象相关联的超链接标识;
169.其中,超链接标识与媒体数据中的目标媒体数据相关联。换言之,若针对目标媒体数据的触发数量和触发概率满足超链接显示条件,则在数据拍摄界面中的目标对象所在区域处,显示与目标媒体数据相关联的超链接标识。
170.应当理解,终端设备可以在目标对象满足超链接显示条件时,直接在目标对象所在区域处显示超链接标识。可选的,终端设备还可以在响应针对数据拍摄界面的显示操作之后,在目标对象所在区域处显示超链接标识。其中,终端设备响应针对数据拍摄界面的显示操作的具体过程可以参见图8,图8是本技术实施例提供的一种显示超链接标识的场景示意图。其中,图8所示的数据拍摄界面80a可以为上述图4a所对应实施例中的数据拍摄界面40a。
171.如图8所示,终端设备的数据拍摄界面80a中可以显示有通过拍摄组件拍摄得到的拍摄画面80c,拍摄画面80c中可以包含交互对象感兴趣的目标对象82b,这里的目标对象82b可以为拍摄画面80c中所显示的“马克杯”。因此,交互对象可以针对数据拍摄界面80a执行显示操作,这里的显示操作可以为交互对象针对数据拍摄界面80a所执行的手势操作81a。
172.这样,终端设备可以响应交互对象针对数据拍摄界面80a所执行的手势操作81a,在目标对象82b满足超链接显示条件时,在目标对象82b所在区域处显示超链接标识81c,得到包含超链接标识81c的数据拍摄界面80b。其中,目标对象82b所在区域处可以为用于标识目标对象82b的任意一个区域,本技术实施例以目标对象82b所在区域处为目标对象82b的底部为例进行说明,即超链接标识81c可以显示在目标对象82b的底部。
173.此外,如图8所示,拍摄画面80c中还可以包含对象82a,这里的对象82a可以为拍摄画面80c中所显示的“电话机”。因此,终端设备在响应交互对象针对数据拍摄界面80a所执行的手势操作81a时,若对象82a满足超链接显示条件,则在对象82a所在区域处显示超链接标识81b,得到包含超链接标识81b的数据拍摄界面80b。其中,超链接标识81b可以显示在对象82a的底部。
174.应当理解,在数据拍摄界面中显示超链接标识的情况下,若交互对象需要查看超链接标识所指示的媒体展示内容,则计算机设备可以执行下述步骤s204-步骤s205。可选的,若交互对象需要直接获取与目标对象的对象分类相关联的媒体数据,则计算机设备可以执行上述图3所对应实施例中的步骤s102-步骤s103。
175.步骤s204,响应针对超链接标识所指示的目标对象的第二触发操作,在数据拍摄界面中显示用于指向目标对象的第二虚拟渲染区域;
176.具体的,终端设备可以响应针对超链接标识所指示的目标对象的第二触发操作,
获取与超链接标识相关联的目标媒体数据对应的媒体展示内容,以执行下述步骤s205,在第二虚拟渲染区域中显示目标媒体数据对应的媒体展示内容。
177.步骤s205,在第二虚拟渲染区域中显示目标媒体数据对应的媒体展示内容。
178.其中,终端设备可以统计更新媒体数据在目标时间段内的分发数量和更新媒体数据在目标时间段内的触发数量,根据更新媒体数据对应的分发数量和更新媒体数据对应的触发数量,确定更新媒体数据是否满足超链接显示条件。可以理解的是,在更新媒体数据满足超链接显示条件时,计算机设备可以在数据拍摄界面中的目标对象所在区域处,显示与目标对象相关联的超链接标识。其中,超链接标识与媒体数据中的更新媒体数据相关联。
179.为便于理解,终端设备在图8所对应的场景下,对超链接标识对应的媒体展示内容进行阅览的具体过程可以参见图9,图9是本技术实施例提供的一种查看超物体链接的场景示意图。其中,图9所示的数据拍摄界面80b可以为图8所示的数据拍摄界面80b。
180.如图9所示,数据拍摄界面80b中可以包括目标对象82b和与目标对象82b相关联的超链接标识81c。可以理解的是,在交互对象需要阅览超链接标识81c对应的媒体展示内容时,交互对象可以针对目标对象82b执行第二触发操作,这里的第二触发操作可以为交互对象针对目标对象82b所执行的手势操作90b。
181.这样,终端设备可以响应交互对象针对目标对象82b所执行的手势操作90b,在数据拍摄界面80b中显示用于指向目标对象82b的第二虚拟渲染区域90a,进而在第二虚拟渲染区域90a中显示超链接标识81c对应的媒体展示内容90c,得到数据拍摄界面80c。其中,这里的媒体展示内容90c对应的媒体数据可以为媒体数据s1。其中,图9所示的第二虚拟渲染区域90a可以为图5a所示的第二虚拟渲染区域50b,图5所示的媒体展示内容90c可以为图5a所示的媒体展示内容50c。
182.此外,如图9所示,数据拍摄界面80b中还可以包括对象82a和与对象82a相关联的超链接标识81b。可以理解的是,在交互对象需要阅览超链接标识81b对应的媒体展示内容时,交互对象可以针对对象82a执行手势操作90b,这样,终端设备可以在数据拍摄界面80b中显示用于指向对象82a的第二虚拟渲染区域90d(未在图上示出),进而在第二虚拟渲染区域90d(未在图上示出)中显示超链接标识81b对应的媒体展示内容90e(未在图上示出)。其中,这里的媒体展示内容90e(未在图上示出)对应的媒体数据可以为媒体数据s9。
183.其中,可以理解的是,超链接标识81c和超链接标识81b还可以称之为超物体链接(简称超链接),超物体链接表示从一个物体指向的其他页面。通过为物体添加超物体链接,这样,在使用该物体对应的超物体链接时,可以跳转至与该物体相关联的其他页面。
184.应当理解,本技术实施例还可以自动对与超链接标识相关联的目标媒体数据进行更新,以更改目标对象所关联的超链接,这里的用于更新目标媒体数据的媒体数据可以称之为更新媒体数据,目标媒体数据可以为时刻t1与超链接标识相关联的媒体数据,更新媒体数据可以为时刻t2与超链接标识相关联的媒体数据,这里的时刻t2可以为时刻t1的下一时刻。
185.由此可见,本技术实施例提供了一种基于分发数量和触发数量,智能生成针对目标对象的超链接标识(即超物体链接)的方法,实现了赋予目标对象超链接的能力。其中,如果计算机设备在发现大部分交互对象都会在某结果页面(即目标媒体数据对应的媒体展示内容)中长时间浏览,且当媒体展示内容的曝光累积达到一定数量之后,就可以确定目标对
象满足超链接显示条件,自动为目标对象添加超物体链接。可以理解的是,使用超物体链接可以快速且准确地获取大部分交互对象感兴趣的媒体数据,进而提高了对目标对象的搜索效率和交互对象的搜索体验。
186.进一步地,请参见图10,图10是本技术实施例提供的一种数据处理方法的流程示意图。该方法可以由服务器执行,也可以由终端设备执行,还可以由服务器和终端设备共同执行,该服务器可以为上述图2所对应实施例中的服务器20a,该终端设备可以为上述图2所对应实施例中的终端设备20b。为便于理解,本技术实施例以该方法由终端设备执行为例进行说明。其中,该数据处理方法可以包括以下步骤s301-步骤s302:
187.步骤s301,响应针对数据拍摄界面中的目标对象的建模操作,在数据拍摄界面中显示与目标对象具有相同外形的虚拟模型对象;
188.具体的,终端设备可以响应针对数据拍摄界面中的目标对象的建模操作,获取拍摄画面所指示的深度信息,基于深度信息将拍摄画面中的目标对象映射至立体空间,在立体空间中生成与目标对象具有相同外形的虚拟模型对象。进一步地,终端设备可以在数据拍摄界面中的目标对象所在位置处,显示虚拟模型对象。其中,虚拟模型对象覆盖显示在目标对象上。
189.可以理解的是,带深度信息的拍摄组件可以通过深度缓冲区记录拍摄画面的拍摄图像数据中的每个像素的深度值(即深度信息),通过深度缓冲区,可以确定像素的遮挡关系,保证三维建模(即建模操作)的准确性。此外,通过三维建模可以将虚拟物品放置在当前的真实环境中,实现虚拟环境和真实环境的结合。
190.应当理解,本技术实施例以进行建模处理的对象为目标对象为例进行说明,拍摄画面中还可以包括除目标对象之外的对象(例如,对象p2),若交互对象针对对象p2执行建模操作,则终端设备可以在数据拍摄界面中显示与对象p2具有相同外形的虚拟模型对象。
191.为便于理解,终端设备对目标对象进行建模处理的具体过程可以参见图11,图11是本技术实施例提供的一种进行建模处理的场景示意图。其中,图11所示的数据拍摄界面110a可以为上述图4a所对应实施例中的数据拍摄界面40a。
192.如图11所示,数据拍摄界面110a中可以包括对象111b。可以理解的是,在交互对象需要对对象111b进行建模处理时,交互对象可以针对对象111b执行建模操作,这里的建模操作可以为交互对象针对对象111b所执行的手势操作111a。
193.这样,终端设备可以响应交互对象针对对象111b所执行的手势操作111a,在数据拍摄界面110a中的对象111b所在位置处,显示与对象111b具有相同外形的虚拟模型对象111c,得到数据拍摄界面110b。其中,虚拟模型对象111c覆盖显示在对象111b上。
194.步骤s302,响应针对数据拍摄界面中的虚拟模型对象的变换操作,在数据拍摄界面中的虚拟位置处显示虚拟模型对象。
195.其中,虚拟位置是指变换操作所指示的变换位置。
196.其中,变换操作可以包括但不限于移动操作、旋转操作和翻转操作。为便于理解,针对虚拟模型对象执行移动操作的具体过程可以参见图12a,图12a是本技术实施例提供的一种移动虚拟模型对象的场景示意图;针对虚拟模型对象执行旋转操作的具体过程可以参见图12b,图12b是本技术实施例提供的一种旋转虚拟模型对象的场景示意图;针对虚拟模型对象执行翻转操作的具体过程可以参见图12c,图12c是本技术实施例提供的一种翻转虚
拟模型对象的场景示意图。图12a、图12b和图12c所示的数据拍摄界面110b可以为图11所示的数据拍摄界面110b。
197.如图12a所示,数据拍摄界面110b中可以包括虚拟模型对象111c,虚拟模型对象111c之下还叠加显示有对象111b。可以理解的是,在交互对象需要移动虚拟模型对象111c时,交互对象可以针对虚拟模型对象111c执行移动操作,这里的移动操作可以为交互对象针对虚拟模型对象111c所执行的手势操作120a。
198.这样,终端设备可以响应交互对象针对虚拟模型对象111c所执行的手势操作120a,对数据拍摄界面110b中的虚拟模型对象111c进行移动处理,在数据拍摄界面110b中的手势操作120a所指示的虚拟位置处(即手势操作120a所对应的移动轨迹的末端位置)显示虚拟模型对象111c,得到数据拍摄界面120b。此时,虚拟模型对象111c之下的对象111b被显示在数据拍摄界面120b中。
199.如图12b所示,数据拍摄界面110b中可以包括虚拟模型对象111c,虚拟模型对象111c之下还叠加显示有对象111b。可以理解的是,在交互对象需要旋转虚拟模型对象111c时,交互对象可以针对虚拟模型对象111c执行旋转操作,这里的旋转操作可以为交互对象针对虚拟模型对象111c所执行的手势操作121a。
200.这样,终端设备可以响应交互对象针对虚拟模型对象111c所执行的手势操作121a,对数据拍摄界面110b中的虚拟模型对象111c进行旋转处理,在数据拍摄界面110b中的手势操作121a所指示的虚拟位置处(即手势操作121a所指示的原地位置)显示旋转后的虚拟模型对象111c,得到数据拍摄界面121b。此时,虚拟模型对象111c之下的对象111b被显示在数据拍摄界面121b中。
201.如图12c所示,数据拍摄界面110b中可以包括虚拟模型对象111c,虚拟模型对象111c之下还叠加显示有对象111b。可以理解的是,在交互对象需要翻转虚拟模型对象111c时,交互对象可以针对虚拟模型对象111c执行翻转操作,这里的翻转操作可以为交互对象针对虚拟模型对象111c所执行的手势操作122a。
202.这样,终端设备可以响应交互对象针对虚拟模型对象111c所执行的手势操作122a,对数据拍摄界面110b中的虚拟模型对象111c进行翻转处理,在数据拍摄界面110b中的手势操作122a所指示的虚拟位置处(即手势操作122a所指示的原地位置)显示翻转后的虚拟模型对象111c,得到数据拍摄界面122b。此时,虚拟模型对象111c之下的对象111b被显示在数据拍摄界面122b中。
203.其中,可以理解的是,在交互对象需要对对象111b进行搜索处理时,交互对象可以针对对象111b执行第一触发操作,以在数据拍摄界面110a中显示用于指向对象111b的第一虚拟渲染区域。可选的,在交互对象需要对对象111b进行搜索处理时,交互对象还可以针对图12a所示的数据拍摄界面120b中的虚拟模型对象111c、图12b所示的数据拍摄界面121b中的虚拟模型对象111c或者图12c所示的数据拍摄界面122b中的虚拟模型对象111c执行第一触发操作,以在数据拍摄界面120b、数据拍摄界面121b或者数据拍摄界面122b中显示用于指向对象111b(即虚拟模型对象111c)的第一虚拟渲染区域。
204.其中,可以理解的是,若数据拍摄界面120b、数据拍摄界面121b或者数据拍摄界面122b中的虚拟模型对象111c满足超链接显示条件(即对象111b满足超链接显示条件),则在数据拍摄界面120b、数据拍摄界面121b或者数据拍摄界面122b中的虚拟模型对象111c所在
区域处,显示与虚拟模型对象111c相关联的超链接标识(即与对象111b相关联的超链接标识)。
205.由此可见,本技术实施例可以在响应针对数据拍摄界面中的目标对象的建模操作之后,在数据拍摄界面中显示与目标对象具有相同外形的虚拟模型对象,进而可以在响应针对虚拟模型对象的变化操作之后,在数据拍摄界面中的虚拟位置处显示虚拟模型对象。可以理解的是,本技术实施例可以对建模操作所指示的目标对象进行三维建模,得到虚拟模型对象,进而实现与虚拟模型对象的交互,这样可以为后台的三维库累积素材,当交互对象搜索相关的三维模型时,后台可以推荐上述三维建模所得到的虚拟模型对象(即搜索结果),从而提高交互对象在ar模式下对目标对象的操作和理解。
206.进一步地,请参见图13,图13是本技术实施例提供的一种数据处理方法的流程示意图。该方法可以由计算机设备执行,该计算机设备可以为服务器,也可以为终端设备,该服务器可以为上述图2所对应实施中的服务器20a,该终端设备可以为上述图2所对应实施中的终端设备20b。其中,该数据处理方法可以包括以下步骤s401-步骤s408:
207.步骤s401,在数据拍摄界面中显示拍摄画面;
208.其中,拍摄画面是通过拍摄组件拍摄得到的,拍摄画面包含目标对象。
209.其中,计算机设备在数据拍摄界面中显示拍摄画面的具体过程,可以参见上述图3所对应实施例中对步骤s101的描述,这里将不再进行赘述。
210.步骤s402,响应针对数据拍摄界面的第一触发操作,获取第一触发操作所对应的触发轨迹,将拍摄画面中与触发轨迹存在选定关系的对象确定为目标对象;
211.具体的,当通过拍摄组件捕捉到显示在数据拍摄界面中的触发物体时,计算机设备可以响应触发物体针对数据拍摄界面的第一触发操作,获取第一触发操作所对应的触发轨迹;或者,当响应针对包含数据拍摄界面的屏幕的第一触发操作时,计算机设备可以获取第一触发操作所对应的触发轨迹。进一步地,计算机设备可以对触发轨迹和拍摄画面进行叠加处理,将拍摄画面中的对象位置与触发轨迹存在交集关系的对象确定为叠加对象。进一步地,计算机设备可以从叠加对象中确定与触发轨迹存在选定关系的目标对象。
212.其中,数据拍摄界面中的触发物体可以为现实生活中的任意物体,例如,手、脚、钢笔、铅笔等。应当理解,本技术实施例以触发物体为交互对象的手为例进行说明,这里的手可以为交互对象的左手或者右手。可以理解的是,在触发物体为交互对象的手时,触发物体可以具体为交互对象的手指,此时,本技术实施例需要利用手势识别中的指尖识别技术(即指尖技术),通过指尖技术将沿着指尖的运动轨迹(即触发轨迹)与“?”(即辅助指令轨迹)进行拟合,从而实现对辅助指令轨迹和触发轨迹进行相似判断。
213.其中,在叠加对象的数量为一个时,计算机设备可以直接将叠加对象确定为与触发轨迹存在选定关系的目标对象。可选的,在叠加对象的数量为至少两个时,计算机设备从至少两个叠加对象中确定与触发轨迹存在选定关系的目标对象的具体过程,可以参见下述图16所对应实施例中对步骤s4023的描述。
214.应当理解,计算机设备可以对拍摄画面中的拍摄图像数据进行图像预处理,得到预处理图像数据。进一步地,计算机设备可以对预处理图像数据进行对象边缘检测,得到预处理图像数据中的对象边缘节点集合。其中,对象边缘节点集合包括预处理图像数据中的边缘节点。进一步地,计算机设备可以根据边缘节点集合中的边缘节点,识别拍摄画面中的
目标对象在数据拍摄界面中的对象位置。
215.其中,可以理解的是,计算机设备对拍摄组件获取到的拍摄图像数据进行图像预处理的具体过程可以描述为:通过中值滤波(例如,通过medianblur函数实现中值滤波)对拍摄图像数据进行去噪处理,进而提高拍摄图像数据的对比度(即contrast),以清晰显示出拍摄图像数据中的边缘细节。
216.其中,可以理解的是,计算机设备可以通过边缘检测算法(例如,canny算法)确定预处理图像数据中的每个像素点附近的梯度和方向,进而判断该像素点是否属于对象边缘上的边缘节点,将识别出的边缘节点设定为边缘节点集合,进而计算边缘节点集合中的边缘节点所形成的初始对象在数据拍摄界面中的对象位置和对象面积。其中,这里的初始对象可以包括拍摄画面中的目标对象。
217.应当理解,若通过上述边缘检测算法在预处理图像数据中识别得到多个初始对象,则计算机设备可以确定每个初始对象的对象面积相对数据拍摄界面的比值,从多个初始对象中筛选比值大于比值阈值的初始对象。因此,本技术实施例可以从通过边缘检测算法得到的多个初始对象中筛选对象面积大于面积阈值的初始对象,进而去除预处理图像数据中面积较小的初始对象,这里的面积较小的初始对象可以为预处理图像数据中远景对象,这里的面积较小的初始对象还可以为预处理图像数据中的微小对象。
218.可选的,第一触发操作包括语音触发操作。这样,计算机设备可以响应针对数据拍摄界面的语音触发操作,获取语音触发操作所对应的音频数据,将拍摄画面中与音频数据所指示的语音文本数据存在匹配关系的对象确定为目标对象。
219.其中,可以理解的是,计算机设备可以对音频数据进行语音识别,得到音频数据所指示的语音文本数据。比如,语音文本数据可以为“笔记本电脑”,因此,计算机设备可以将拍摄画面中与“笔记本电脑”存在匹配关系的对象确定为目标对象,即将数据拍摄界面中的“笔记本电脑”确定为目标对象。
220.为便于理解,计算机设备响应触发物体针对数据拍摄界面的第一触发操作的具体过程可以参见图14a,计算机设备响应针对包含数据拍摄界面的屏幕的第一触发操作的具体过程可以参见图14b,计算机设备响应针对数据拍摄界面的语音触发操作的具体过程可以参见图14c,图14a、图14b和图14c是本技术实施例提供的一种确定目标对象的场景示意图。
221.如图14a所示,在终端设备为可穿戴设备时,终端设备可以为ar眼镜141c,交互对象141a可以为使用ar眼镜141c的用户。交互对象141a在ar眼镜141c中观察到的界面可以为数据拍摄界面140a,数据拍摄界面140a中可以包括对象140b。
222.因此,在交互对象141a需要对对象140b进行搜索处理时,交互对象141a可以抬起手臂,将自己的手141b显示在数据拍摄界面中,进而通过交互对象141a的手141b针对数据拍摄界面140a中的对象140b执行第一触发操作。这样,ar眼镜141c可以通过拍摄组件捕捉到显示在数据拍摄界面140a中的手141b,进而响应交互对象141a的手141b针对数据拍摄界面140a所执行第一触发操作,在数据拍摄界面140a中确定第一触发操作所指示的目标对象(即对象140b)。
223.如图14b所示,在终端设备为移动设备时,终端设备可以为智能手机143c,交互对象143a可以为使用智能手机143c的用户。交互对象143a在智能手机143c中观察到的界面可
以为数据拍摄界面142a,数据拍摄界面142a中可以包括对象142b。
224.因此,在交互对象143a需要对对象142b进行搜索处理时,交互对象143a可以通过手143b针对包含数据拍摄界面142a的屏幕(即智能手机143c上的屏幕)中的对象142b执行第一触发操作。这样,智能手机143c可以响应交互对象143a的手143b针对数据拍摄界面142a所执行第一触发操作,在数据拍摄界面142a中确定第一触发操作所指示的目标对象(即对象142b)。
225.如图14c所示,终端设备145b可以为具有语音数据处理功能的设备,交互对象145a可以为使用终端设备145b的用户。交互对象145a在终端设备145b中观察到的界面可以为数据拍摄界面144a,数据拍摄界面144a中可以包括对象144b。
226.因此,在交互对象145a需要对对象144b进行搜索处理时,交互对象145a可以针对数据拍摄界面144a中的对象144b执行语音触发操作。这样,终端设备145b可以响应交互对象145a针对数据拍摄界面144a所执行语音触发操作,获取语音触发操作所对应的音频数据,对音频数据进行语音识别,得到音频数据所指示的语音文本数据,进而在数据拍摄界面144a中确定与语音文本数据存在匹配关系的目标对象(即对象144b),即在数据拍摄界面144a中确定与音频数据所指示的语音文本数据存在匹配关系的对象144b。
227.步骤s403,对数据拍摄界面中的目标对象进行对象增强,得到增强对象;
228.可以理解的是,计算机设备可以通过图像增强算法(即增强算法)对目标对象进行对象增强,图像增强算法可以用于对拍摄画面中的拍摄图像数据的亮度、对比度、饱和度、色调等进行调节,增加其清晰度,减少噪点等,以获取拍摄图像数据中的有用信息。其中,通过图像增强可以实现对象增强,从图像增强后的拍摄图像数据中可以获取增强对象,图像增强往往经过多个算法的组合,完成上述功能,比如,图像去噪等同于低通滤波器,增加清晰度则为高通滤波器。应当理解,本技术实施例不对图像增强算法所包含的具体算法进行限定,本技术实施例不对图像增强算法所包含的具体算法的执行流程进行限定。
229.步骤s404,对增强对象进行图像特征提取,得到增强图像特征,对增强对象进行文本特征提取,得到增强文本特征;
230.可以理解的是,图像特征提取可以对目标对象的形状、纹理和颜色等特征进行提取;若目标对象包含文本信息,则通过文本特征提取对文本信息进行预处理(即切分、大小归一化、笔画宽度归一化)后,对文本信息进行字符识别。
231.步骤s405,对增强图像特征和增强文本特征进行特征融合,得到增强融合特征,根据增强融合特征,确定目标对象的对象分类;
232.其中,计算机设备对增强图像特征和增强文本特征进行特征融合的方式可以为特征拼接的方式,也可以为特征相加的方式,还可以为特征加权平均的方式,本技术实施例不对特征融合的具体方式进行限定。
233.可选的,若目标对象不包含文本信息,则计算机设备可以无需对增强对象进行文本特征提取,而是直接根据提取到的增强图像特征,确定目标对象的对象分类。
234.步骤s406,将对象分类输入至搜索引擎,通过搜索引擎对对象分类进行搜索处理,得到用于显示于第一虚拟渲染区域的媒体数据;
235.具体的,计算机设备可以将对象分类输入至搜索引擎,通过搜索引擎对对象分类进行搜索处理,得到与对象分类相关联的媒体数据集合。其中,搜索引擎可以为用于进行搜
索处理的应用客户端所对应的检索技术。进一步地,计算机设备可以获取交互对象所对应的历史触发信息,对历史触发信息进行特征分析,得到交互对象的历史对象特征。其中,交互对象是指启动拍摄组件获取拍摄画面的对象。进一步地,计算机设备可以基于历史对象特征对媒体数据集合中的初始媒体数据进行排序处理,从排序处理后的初始媒体数据中获取用于显示于第一虚拟渲染区域的媒体数据。
236.可以理解的是,历史触发信息可以表示交互对象所关注的创作者、阅览过的媒体数据等,计算机设备可以将交互对象所关注的创作者发布的媒体数据、阅览过的媒体数据等的顺序调整到前面。这样,计算机设备可以得到调整顺序后(即排序处理后)的初始媒体数据,进而从调整顺序后的初始媒体数据中截选前面的l条媒体数据,且按照l条媒体数据的优先级在步骤s407和步骤s408中,在第一虚拟渲染区中显示具有优先级的l条媒体数据,这里的l可以为小于或等于初始媒体数据的媒体数量的正整数。
237.可以理解的是,在本技术的具体实施方式中,涉及到分发数量、触发数量、历史触发信息等相关的数据,当本技术以上实施例运用到具体产品或技术中时,需要获得用户许可或者同意,且相关数据的收集、使用和处理需要遵守相关国家和地区的相关法律法规和标准。
238.步骤s407,在数据拍摄界面中显示用于指向目标对象的第一虚拟渲染区域;
239.其中,计算机设备在数据拍摄界面中显示用于指向目标对象的第一虚拟渲染区域的具体过程,可以参见上述图3所对应实施例中对步骤s102的描述,这里将不再进行赘述。
240.可以理解的是,计算机设备在数据拍摄界面中显示第一虚拟渲染区域时,需要判断第一虚拟渲染区域是否被清晰的展示,计算机设备需要确定第一虚拟渲染区域所对应的字体大小(例如,12px(pixel,像素)),第一虚拟渲染区域所对应的背景颜色。其中,计算机设备需要确定数据拍摄界面的背景底色的深浅度,确保背景底色和背景颜色的对比度在背景阈值(例如,1.7)之上,否则只能对背景颜色进行调整。
241.步骤s408,在第一虚拟渲染区域中显示媒体数据。
242.其中,媒体数据与目标对象的对象分类相关联。其中,在第一虚拟渲染区域中显示的媒体数据即为在上述步骤s406中获取到的l条媒体数据。
243.其中,计算机设备在第一虚拟渲染区域中显示媒体数据的具体过程,可以参见上述图3所对应实施例中对步骤s103的描述,这里将不再进行赘述。
244.为便于理解,本技术实施例中的终端设备和服务器进行数据交互的具体流程可以参见图15,图15是本技术实施例提供的一种进行数据交互的流程示意图。如图15所示,本技术实施例可以由终端设备(即终端呈现)和服务器(即后台技术)共同执行,该流程示意图可以包括步骤s51-步骤s62,这里不对步骤s51-步骤s62中各步骤的执行顺序进行限定。
245.如图15所示,在该流程示意图开始时,终端设备可以执行步骤s51,在步骤s51中打开摄像头(即拍摄组件)以开启增强现实模式,进而执行步骤s52,通过步骤s52在摄像头中拍摄得到拍摄画面,即系统识别物体。进一步地,终端设备可以基于拍摄画面向服务器发送指令,以使服务器执行步骤s56,在步骤s506中判断识别得到拍摄画面中的主要物体。
246.如图15所示,终端设备可以执行步骤s53,在步骤s53中响应交互对象针对系统识别到的物体所执行的手势操作j1,进而将该手势操作j1所对应的触发轨迹发送至服务器,以使服务器基于触发轨迹执行步骤s57,在步骤s57中,服务器可以根据对主要物体的识别结
果,搜索、渲染出一些搜索结果卡片,并将其按照事先定义的优先级、且判断背景深度进行展示。
247.如图15所示,终端设备可以接收服务器在执行步骤s57后返回的搜索结果卡片,通过步骤s58在数据拍摄界面中渲染并显示搜索结果卡片。此外,当终端设备在步骤s52中识别出物体之后,终端设备可以执行步骤s54,在步骤s54中响应交互对象针对数据拍摄界面所执行的手势操作j2,进而基于该手势操作j2对拍摄画面中的物体进行三维建模,得到包含三维模型的数据拍摄界面。
248.如图15所示,在步骤s58之后,服务器可以行步骤s59,确定物体对应的搜索结果是否达到一定量级,将步骤s59对应的判断结果返回至终端设备,若物体对应的搜索结果达到一定量级,则数据拍摄界面中的物体满足超链接显示条件,终端设备可以执行步骤s60,通过步骤s60在物体的底部显示超链接标识。可选的,若物体对应的搜索结果未达到一定量级,则数据拍摄界面中的物体不满足超链接显示条件,终端设备无需执行步骤s60。
249.如图15所示,在步骤s55之后,服务器可以行步骤s59,确定物体对应的搜索结果是否达到一定量级,将步骤s59对应的判断结果返回至终端设备,若数据拍摄界面中的三维模型所对应的物体满足超链接显示条件,则终端设备可以执行步骤s60,通过步骤s60在三维模型的底部显示超链接标识。
250.如图15所示,终端设备可以执行步骤s61,在步骤s61中确定物体是否存在安全区中,若物体不存在安全区中(即物体处于边缘区域),则进而省略模式,进而执行步骤s62,在步骤s62中更改前端卡片展示的模式,在数据拍摄界面中显示针对物体的隐藏标识。
251.由此可见,本技术实施例可以在通过拍摄组件拍摄得到拍摄画面的情况下,将针对数据拍摄界面的第一触发操作与拍摄画面相结合,确定第一触发操作在拍摄画面中所指示的目标对象,进而确定目标对象的对象分类,根据目标对象的对象分类对目标对象进行搜索处理,在用于指向目标对象的第一虚拟渲染区域中,显示对目标对象的对象分类进行搜索处理后所得到的媒体数据,从而实现与拍摄画面的交互,丰富了计算机设备的交互方式。可以理解的是,对于针对拍摄画面中的目标对象的第一触发操作而言,计算机设备可以生成指向目标对象的第一虚拟渲染区域,从而丰富计算机设备的展示方式。此外,本技术实施例无需主动在搜索引擎中输入搜索关键词(即对象分类),而是通过第一触发操作来确定拍摄画面中的目标对象,即通过该第一触发操作来快速且准确地实现针对目标对象的搜索处理,提高了目标对象的搜索效率,且提高了交互对象的搜索体验。
252.进一步地,请参见图16,图16是本技术实施例提供的一种数据处理方法的流程示意图。该数据处理方法可以包括以下步骤s4021-步骤s4023,且步骤s4021-步骤s4023为图13所对应实施例中步骤s402的一个具体实施例。
253.步骤s4021,响应针对数据拍摄界面的第一触发操作,获取第一触发操作所对应的触发轨迹;
254.其中,计算机设备响应针对数据拍摄界面的第一触发操作以及获取第一触发操作所对应的触发轨迹的具体过程,可以参见上述图13所对应实施例中对步骤s402的描述,这里将不再进行赘述。
255.步骤s4022,对触发轨迹和拍摄画面进行叠加处理,将拍摄画面中的对象位置与触发轨迹存在交集关系的对象确定为叠加对象;
256.其中,拍摄画面中可以包括一个或多个初始对象(简称对象),每个初始对象均对应各自的对象位置,计算机设备可以将触发轨迹叠加显示至拍摄画面中的初始对象上,若触发轨迹与初始对象的对象位置存在交集(即交集关系),则将与触发轨迹存在交集的初始对象确定为叠加对象。
257.步骤s4023,从叠加对象中确定与触发轨迹存在选定关系的目标对象。
258.其中,在叠加对象的数量为一个时,计算机设备可以直接将叠加对象确定为与触发轨迹存在选定关系的目标对象。可选的,在叠加对象的数量为至少两个时,计算机设备可以从至少两个叠加对象中确定与触发轨迹存在选定关系的目标对象。应当理解,本技术实施例以至少两个叠加对象为两个叠加对象为例进行说明,计算机设备从两个叠加对象中确定与触发轨迹存在选定关系的目标对象的具体过程可以参见下述图17a、图17b、图17c、图17d和图17e所对应的实施例。
259.应当理解,若叠加对象的数量为至少两个,则计算机设备可以显示与至少两个叠加对象相关联的对象选择区域,在对象选择区域中显示每个叠加对象分别对应的候选选项。进一步地,计算机设备可以响应针对候选选项的选择操作,将选择操作所选择的候选选项作为目标选项,将目标选项所对应的叠加对象确定为与触发轨迹存在选定关系的目标对象。
260.其中,为便于理解,请参见图17a,图17a是本技术实施例提供的一种显示候选选项的场景示意图。如图17a所示,终端设备可以显示有数据拍摄界面170a,数据拍摄界面170a中可以包括对象170c和对象170d,终端设备可以响应针对对象170c和对象170d的第一触发操作,获取第一触发操作所对应的触发轨迹170e,将触发轨迹170e发送至服务器171d。
261.这样,服务器171d可以确定与触发轨迹170e存在交集关系的至少两个叠加对象,这里的至少两个叠加对象可以为对象170c和对象170d,进而将对象170c和对象170d分别对应的候选选项返回至终端设备。如图17a所示,终端设备可以在数据拍摄界面170a中显示与对象170c和对象170d相关联的对象选择区域171a,在对象选择区域171a中分别显示对象170c和对象170d对应的候选选项、以及与候选选项相关联的提示信息,得到数据拍摄界面170b。其中,对象170c对应的候选选项可以为候选选项171b,对象170d对应的候选选项可以为候选选项171c,候选选项171b和候选选项171c可以表示对象170c和对象170d的对象分类,即候选选项171b可以表示“电话机”,候选选项171c可以表示“马克杯”。其中,与候选选项相关联的提示信息可以为:“为帮您进行更准确的内容搜索,请您选择期望的搜索结果”。
262.进一步地,终端设备可以响应针对候选选项171b和候选选项171c的选择操作,将选择操作所对应的候选选项作为目标选项。比如,在交互对象需要阅览“电话机”对应的搜索结果时,可以针对候选选项171b执行选择操作,此时,服务器可以将对象170c确定为与触发轨迹170e存在选定关系的目标对象。又比如,在交互对象需要阅览“马克杯”对应的搜索结果时,可以针对候选选项171c执行选择操作,此时,服务器可以将对象170d确定为与触发轨迹170e存在选定关系的目标对象。
263.可选的,应当理解,若叠加对象的数量为至少两个,则计算机设备可以确定触发轨迹分别与每个叠加对象之间的重合度,从至少两个叠加对象中获取具有最大重合度的叠加对象,将具有最大重合度的叠加对象确定为与触发轨迹存在选定关系的目标对象。
264.其中,为便于理解,请参见图17b,图17b是本技术实施例提供的一种确定重合度的
场景示意图。如图17b所示,终端设备可以显示有数据拍摄界面172a,数据拍摄界面172a中可以包括对象172c和对象172d,终端设备可以响应针对对象172c和对象172d的第一触发操作,获取第一触发操作所对应的触发轨迹172e,将触发轨迹172e发送至服务器173b。
265.这样,服务器172b可以确定与触发轨迹172e存在交集关系的至少两个叠加对象,这里的至少两个叠加对象可以为对象172c和对象172d,进而确定触发轨迹172e分别与对象172c和对象172d之间的重合度。例如,触发轨迹172e与对象172c(对象172c对应的对象分类可以为“电话机”)之间的重合度可以为46%,触发轨迹172e与对象172d(对象172d对应的对象分类可以为“马克杯”)之间的重合度可以为54%。
266.进一步地,服务器可以从对象172c和对象172d中获取具有最大重合度的叠加对象,因为54%大于46%,所以这里的具有最大重合度的叠加对象可以为对象172d。此时,服务器可以将对象172d确定为与触发轨迹172e存在选定关系的目标对象,且在数据拍摄界面172a中显示用于指向对象172d的第一虚拟渲染区域173a,得到数据拍摄界面172b。
267.可选的,应当理解,若叠加对象的数量为至少两个,则计算机设备可以将至少两个叠加对象确定为与触发轨迹存在选定关系的目标对象。
268.其中,为便于理解,请参见图17c,图17c是本技术实施例提供的一种显示虚拟渲染区域的场景示意图。如图17c所示,终端设备可以显示有数据拍摄界面174a,数据拍摄界面174a中可以包括对象174c和对象174d,终端设备可以响应针对对象174c和对象174d的第一触发操作,获取第一触发操作所对应的触发轨迹174e,将触发轨迹174e发送至服务器175c。
269.这样,服务器175c可以确定与触发轨迹174e存在交集关系的至少两个叠加对象,这里的至少两个叠加对象可以为对象174c和对象174d,进而将对象174c和对象174d均确定为与触发轨迹174e存在选定关系的目标对象,且在数据拍摄界面174a中同时显示用于指向对象174c的第一虚拟渲染区域175b以及用于指向对象174d的第一虚拟渲染区域175a,得到数据拍摄界面174b。
270.其中,第一虚拟渲染区域175b可以包括一个展示卡片,一个展示卡片包括四个媒体数据;第一虚拟渲染区域175a可以包括一个展示卡片,一个展示卡片包括四个媒体数据。可选的,终端设备还可以通过四个展示卡片展示第一虚拟渲染区域175b对应的四个媒体数据;终端设备还可以通过四个展示卡片展示第一虚拟渲染区域175a对应的四个媒体数据。
271.可选的,终端设备还可以通过人工智能模型,确定与触发轨迹存在选定关系的目标对象,这里的人工智能模型可以为热度分析模型,还可以为匹配分析模型。应当理解,本技术实施例不对热度分析模型和匹配分析模型的模型类型进行限定。
272.可选的,应当理解,若叠加对象的数量为至少两个,则计算机设备可以将至少两个叠加对象输入至热度分析模型,通过热度分析模型对至少两个叠加对象进行热度分析,得到每个叠加对象分别对应的热度概率。进一步地,计算机设备可以将至少两个叠加对象中具有最大热度概率的叠加对象,确定为与触发轨迹存在选定关系的目标对象。
273.其中,为便于理解,请参见图17d,图17d是本技术实施例提供的一种确定热度概率的场景示意图。如图17d所示,终端设备可以显示有数据拍摄界面176a,数据拍摄界面176a中可以包括对象176c和对象176d,终端设备可以响应针对对象176c和对象176d的第一触发操作,获取第一触发操作所对应的触发轨迹176e,将触发轨迹176e发送至服务器177b。
274.这样,服务器177b可以确定与触发轨迹176e存在交集关系的至少两个叠加对象,
这里的至少两个叠加对象可以为对象176c和对象176d,进而将对象176c和对象176d输入至热度分析模型,通过热度分析模型输出对象176c和对象176d对应的热度概率。例如,对象176c(对象176c对应的对象分类可以为“电话机”)对应的热度概率可以为13%,对象176d(对象176d对应的对象分类可以为“马克杯”)对应的热度概率可以为25%。
275.进一步地,服务器可以从对象176c和对象176d中获取具有最大热度概率的叠加对象,因为25%大于13%,所以这里的具有最大热度概率的叠加对象可以为对象176d。此时,服务器可以将对象176d确定为与触发轨迹176e存在选定关系的目标对象,且在数据拍摄界面176a中显示用于指向对象176d的第一虚拟渲染区域177a,得到数据拍摄界面176b。
276.可选的,应当理解,若叠加对象的数量为至少两个,则计算机设备可以将至少两个叠加对象输入至匹配分析模型,通过匹配分析模型对至少两个叠加对象以及交互对象进行属性特征匹配分析,得到交互对象分别与每个叠加对象之间的属性匹配度。其中,交互对象是指启动拍摄组件获取拍摄画面的对象。进一步地,计算机设备可以将至少两个叠加对象中具有最大属性匹配度的叠加对象,确定为与触发轨迹存在选定关系的目标对象。
277.其中,为便于理解,请参见图17e,图17e是本技术实施例提供的一种确定属性匹配度的场景示意图。如图17e所示,终端设备可以显示有数据拍摄界面178a,数据拍摄界面178a中可以包括对象178c和对象178d,终端设备可以响应针对对象178c和对象178d的第一触发操作,获取第一触发操作所对应的触发轨迹178e,将触发轨迹178e发送至服务器179b。
278.这样,服务器179b可以确定与触发轨迹178e存在交集关系的至少两个叠加对象,这里的至少两个叠加对象可以为对象178c和对象178d,进而将对象178c和对象178d输入至匹配分析模型,通过匹配分析模型输出交互对象分别与对象178c和对象178d之间的属性匹配度。例如,交互对象与对象178c(对象178c对应的对象分类可以为“电话机”)之间的属性匹配度可以为33%,交互对象与对象178d(对象178d对应的对象分类可以为“马克杯”)之间的属性匹配度可以为25%。
279.进一步地,服务器可以从对象178c和对象178d中获取具有最大属性匹配度的叠加对象,因为33%大于25%,所以这里的具有最大属性匹配度的叠加对象可以为对象178c。此时,服务器可以将对象178c确定为与触发轨迹178e存在选定关系的目标对象,且在数据拍摄界面178a中显示用于指向对象178c的第一虚拟渲染区域179a,得到数据拍摄界面178b。
280.由此可见,本技术实施例可以响应针对数据拍摄界面的第一触发操作,获取第一触发操作所对应的触发轨迹,进而对触发轨迹和拍摄画面进行叠加处理,从拍摄画面中确定与触发轨迹存在选定关系的目标对象。其中,在触发轨迹与拍摄画面中的多个对象存在叠加关系时,本技术实施例可以根据多种方法从多个对象中确定目标对象,提高了确定目标对象的多样性和准确性。
281.进一步地,请参见图18,图18是本技术实施例提供的一种数据处理装置的结构示意图,该数据处理装置1可以包括:画面显示模块11,区域显示模块12,数据显示模块13;进一步地,该数据处理装置1还可以包括:标识显示模块14,内容显示模块15,模型显示模块16,模型变换模块17,数据隐藏模块18,数据查看模块19,数量统计模块20,条件确定模块21,特征提取模块22,分类确定模块23,搜索处理模块24;
282.画面显示模块11,用于在数据拍摄界面中显示拍摄画面;拍摄画面是通过拍摄组件拍摄得到的;拍摄画面包含目标对象;
283.区域显示模块12,用于响应针对数据拍摄界面中的目标对象的第一触发操作,在数据拍摄界面中显示用于指向目标对象的第一虚拟渲染区域;
284.其中,区域显示模块12,具体用于响应针对数据拍摄界面中的目标对象的第一触发操作,获取目标对象在数据拍摄界面中的目标位置;
285.区域显示模块12,具体用于若目标位置处于数据拍摄界面中的焦点位置,则按照焦点显示方式在数据拍摄界面中显示用于指向目标对象的第一虚拟渲染区域;
286.区域显示模块12,具体用于若目标位置不处于数据拍摄界面中的焦点位置,则按照非焦点显示方式在数据拍摄界面中显示用于指向目标对象的第一虚拟渲染区域。
287.其中,区域显示模块12,具体用于响应针对数据拍摄界面中的目标对象的第一触发操作,确定用于指向目标对象的展示卡片的卡片数量m;卡片数量m是基于媒体数据的媒体数量所确定的,m为正整数;
288.区域显示模块12,具体用于将m个展示卡片确定为用于指向目标对象的第一虚拟渲染区域,在数据拍摄界面中显示第一虚拟渲染区域。
289.其中,第一触发操作包括语音触发操作;
290.区域显示模块12,具体用于响应针对数据拍摄界面的语音触发操作,获取语音触发操作所对应的音频数据,将拍摄画面中与音频数据所指示的语音文本数据存在匹配关系的对象确定为目标对象;
291.区域显示模块12,具体用于在数据拍摄界面中显示用于指向目标对象的第一虚拟渲染区域。
292.其中,区域显示模块12包括:对象确定单元121,区域显示单元122;
293.对象确定单元121,用于响应针对数据拍摄界面的第一触发操作,获取第一触发操作所对应的触发轨迹,将拍摄画面中与触发轨迹存在选定关系的对象确定为目标对象;
294.其中,对象确定单元121包括:第一触发子单元1211,第二触发子单元1212,叠加处理子单元1213,对象确定子单元1214;可选的,对象确定单元121可以进一步包括:图像处理子单元1215,位置识别子单元1216;
295.第一触发子单元1211,用于当通过拍摄组件捕捉到显示在数据拍摄界面中的触发物体时,响应触发物体针对数据拍摄界面的第一触发操作,获取第一触发操作所对应的触发轨迹;或者,
296.第二触发子单元1212,用于当响应针对包含数据拍摄界面的屏幕的第一触发操作时,获取第一触发操作所对应的触发轨迹。
297.叠加处理子单元1213,用于对触发轨迹和拍摄画面进行叠加处理,将拍摄画面中的对象位置与触发轨迹存在交集关系的对象确定为叠加对象;
298.对象确定子单元1214,用于从叠加对象中确定与触发轨迹存在选定关系的目标对象。
299.其中,对象确定子单元1214,具体用于若叠加对象的数量为至少两个,则显示与至少两个叠加对象相关联的对象选择区域,在对象选择区域中显示每个叠加对象分别对应的候选选项;
300.对象确定子单元1214,具体用于响应针对候选选项的选择操作,将选择操作所选择的候选选项作为目标选项,将目标选项所对应的叠加对象确定为与触发轨迹存在选定关
系的目标对象。
301.其中,对象确定子单元1214,具体用于若叠加对象的数量为至少两个,则确定触发轨迹分别与每个叠加对象之间的重合度,从至少两个叠加对象中获取具有最大重合度的叠加对象,将具有最大重合度的叠加对象确定为与触发轨迹存在选定关系的目标对象。
302.其中,对象确定子单元1214,具体用于若叠加对象的数量为至少两个,则将至少两个叠加对象输入至热度分析模型,通过热度分析模型对至少两个叠加对象进行热度分析,得到每个叠加对象分别对应的热度概率;
303.对象确定子单元1214,具体用于将至少两个叠加对象中具有最大热度概率的叠加对象,确定为与触发轨迹存在选定关系的目标对象。
304.其中,对象确定子单元1214,具体用于若叠加对象的数量为至少两个,则将至少两个叠加对象输入至匹配分析模型,通过匹配分析模型对至少两个叠加对象以及交互对象进行属性特征匹配分析,得到交互对象分别与每个叠加对象之间的属性匹配度;交互对象是指启动拍摄组件获取拍摄画面的对象;
305.对象确定子单元1214,具体用于将至少两个叠加对象中具有最大属性匹配度的叠加对象,确定为与触发轨迹存在选定关系的目标对象。
306.可选的,图像处理子单元1215,用于对拍摄画面中的拍摄图像数据进行图像预处理,得到预处理图像数据;
307.图像处理子单元1215,用于对预处理图像数据进行对象边缘检测,得到预处理图像数据中的对象边缘节点集合;对象边缘节点集合包括预处理图像数据中的边缘节点;
308.位置识别子单元1216,用于根据边缘节点集合中的边缘节点,识别拍摄画面中的目标对象在数据拍摄界面中的对象位置。
309.其中,第一触发子单元1211,第二触发子单元1212,叠加处理子单元1213和对象确定子单元1214的具体实现方式,可以参见上述图13所对应实施例中对步骤s402、以及图16所对应实施例中对步骤s4021-步骤s4023的描述,这里将不再进行赘述。其中,图像处理子单元1215和位置识别子单元1216的具体实现方式,可以参见上述图13所对应实施例中对步骤s402的描述,这里将不再进行赘述。
310.区域显示单元122,用于在数据拍摄界面中显示用于指向目标对象的第一虚拟渲染区域。
311.其中,对象确定单元121和区域显示单元122的具体实现方式,可以参见上述图3所对应实施例中对步骤s102、图13所对应实施例中对步骤s402和步骤s407、以及图16所对应实施例中对步骤s4021-步骤s4023的描述,这里将不再进行赘述。
312.数据显示模块13,用于在第一虚拟渲染区域中显示媒体数据;媒体数据与目标对象的对象分类相关联。
313.可选的,标识显示模块14,用于若数据拍摄界面中的目标对象满足超链接显示条件,则在数据拍摄界面中的目标对象所在区域处,显示与目标对象相关联的超链接标识;超链接标识与媒体数据中的目标媒体数据相关联;
314.内容显示模块15,用于响应针对超链接标识所指示的目标对象的第二触发操作,在数据拍摄界面中显示用于指向目标对象的第二虚拟渲染区域;
315.内容显示模块15,用于在第二虚拟渲染区域中显示目标媒体数据对应的媒体展示
内容。
316.可选的,模型显示模块16,用于响应针对数据拍摄界面中的目标对象的建模操作,在数据拍摄界面中显示与目标对象具有相同外形的虚拟模型对象;
317.其中,模型显示模块16包括:模型生成单元161,模型显示单元162;
318.模型生成单元161,用于响应针对数据拍摄界面中的目标对象的建模操作,获取拍摄画面所指示的深度信息,基于深度信息将拍摄画面中的目标对象映射至立体空间,在立体空间中生成与目标对象具有相同外形的虚拟模型对象;
319.模型显示单元162,用于在数据拍摄界面中的目标对象所在位置处,显示虚拟模型对象;虚拟模型对象覆盖显示在目标对象上。
320.其中,模型生成单元161和模型显示单元162的具体实现方式,可以参见上述图10所对应实施例中对步骤s301的描述,这里将不再进行赘述。
321.模型变换模块17,用于响应针对数据拍摄界面中的虚拟模型对象的变换操作,在数据拍摄界面中的虚拟位置处显示虚拟模型对象;虚拟位置是指变换操作所指示的变换位置。
322.可选的,数据隐藏模块18,用于当数据拍摄界面基于移动拍摄组件发生更新时,获取目标对象在更新后的数据拍摄界面中的目标更新位置;
323.数据隐藏模块18,用于若目标更新位置处于更新后的数据拍摄界面中的边缘区域,则对第一虚拟渲染区域和媒体数据进行隐藏处理,在更新后的数据拍摄界面中显示针对目标对象的隐藏标识;
324.数据查看模块19,用于响应针对目标对象的隐藏标识的查看操作,在更新后的数据拍摄界面中重新显示包含媒体数据的第一虚拟渲染区域。
325.可选的,数量统计模块20,用于统计目标媒体数据在目标时间段内的分发数量和触发数量,将分发数量和触发数量之间的比值,确定为目标媒体数据的触发概率;
326.条件确定模块21,用于若触发数量大于数量阈值,且触发概率大于概率阈值,则确定目标对象满足超链接显示条件。
327.可选的,特征提取模块22,用于对数据拍摄界面中的目标对象进行对象增强,得到增强对象;
328.特征提取模块22,用于对增强对象进行图像特征提取,得到增强图像特征,对增强对象进行文本特征提取,得到增强文本特征;
329.分类确定模块23,用于对增强图像特征和增强文本特征进行特征融合,得到增强融合特征,根据增强融合特征,确定目标对象的对象分类;
330.搜索处理模块24,用于将对象分类输入至搜索引擎,通过搜索引擎对对象分类进行搜索处理,得到用于显示于第一虚拟渲染区域的媒体数据。
331.其中,搜索处理模块24包括:搜索处理单元241,特征分析单元242,排序处理单元243;
332.搜索处理单元241,用于将对象分类输入至搜索引擎,通过搜索引擎对对象分类进行搜索处理,得到与对象分类相关联的媒体数据集合;
333.特征分析单元242,用于获取交互对象所对应的历史触发信息,对历史触发信息进行特征分析,得到交互对象的历史对象特征;交互对象是指启动拍摄组件获取拍摄画面的
对象;
334.排序处理单元243,用于基于历史对象特征对媒体数据集合中的初始媒体数据进行排序处理,从排序处理后的初始媒体数据中获取用于显示于第一虚拟渲染区域的媒体数据。
335.其中,搜索处理单元241,特征分析单元242和排序处理单元243的具体实现方式,可以参见上述图13所对应实施例中对步骤s406的描述,这里将不再进行赘述。
336.其中,画面显示模块11,区域显示模块12和数据显示模块13的具体实现方式,可以参见上述图3所对应实施例中对步骤s101-步骤s103、图13所对应实施例中对步骤s401-步骤s402和步骤s407-步骤s408、以及图16所对应实施例中对步骤s4021-步骤s4023的描述,这里将不再进行赘述。其中,标识显示模块14,内容显示模块15,数量统计模块20和条件确定模块21的具体实现方式,可以参见上述图7所对应实施例中对步骤s201-步骤s205的描述,这里将不再进行赘述。其中,模型显示模块16和模型变换模块17的具体实现方式,可以参见上述图10所对应实施例中对步骤s301-步骤s302的描述,这里将不再进行赘述。其中,数据隐藏模块18和数据查看模块19的具体实现方式,可以参见上述图3所对应实施例中对步骤s103的描述,这里将不再进行赘述。其中,特征提取模块22,分类确定模块23和搜索处理模块24的具体实现方式,可以参见上述图3所对应实施例中对步骤s403-步骤s406的描述,这里将不再进行赘述。另外,对采用相同方法的有益效果描述,也不再进行赘述。
337.进一步地,请参见图19,图19是本技术实施例提供的一种计算机设备的结构示意图。如图19所示,该计算机设备1000可以包括:处理器1001,网络接口1004和存储器1005,此外,上述计算机设备1000还可以包括:用户接口1003,和至少一个通信总线1002。其中,通信总线1002用于实现这些组件之间的连接通信。其中,在一些实施例中,用户接口1003可以包括显示屏(display)、键盘(keyboard),可选用户接口1003还可以包括标准的有线接口、无线接口。可选的,网络接口1004可以包括标准的有线接口、无线接口(如wi-fi接口)。存储器1005可以是高速ram存储器,也可以是非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器。可选的,存储器1005还可以是至少一个位于远离前述处理器1001的存储装置。如图19所示,作为一种计算机可读存储介质的存储器1005中可以包括操作系统、网络通信模块、用户接口模块以及设备控制应用程序。
338.在如图19所示的计算机设备1000中,网络接口1004可提供网络通讯功能;而用户接口1003主要用于为用户提供输入的接口;而处理器1001可以用于调用存储器1005中存储的设备控制应用程序,以实现:
339.在数据拍摄界面中显示拍摄画面;拍摄画面是通过拍摄组件拍摄得到的;拍摄画面包含目标对象;
340.响应针对数据拍摄界面中的目标对象的第一触发操作,在数据拍摄界面中显示用于指向目标对象的第一虚拟渲染区域;
341.在第一虚拟渲染区域中显示媒体数据;媒体数据与目标对象的对象分类相关联。
342.应当理解,本技术实施例中所描述的计算机设备1000可执行前文图3、图7、图10、图13和图16所对应实施例中对数据处理方法的描述,也可执行前文图18所对应实施例中对数据处理装置1的描述,在此不再赘述。另外,对采用相同方法的有益效果描述,也不再进行赘述。
343.此外,这里需要指出的是:本技术实施例还提供了一种计算机可读存储介质,且计算机可读存储介质中存储有前文提及的数据处理装置1所执行的计算机程序,且计算机程序包括程序指令,当处理器执行程序指令时,能够执行前文图3、图7、图10、图13和图16所对应实施例中对数据处理方法的描述,因此,这里将不再进行赘述。另外,对采用相同方法的有益效果描述,也不再进行赘述。对于本技术所涉及的计算机可读存储介质实施例中未披露的技术细节,请参照本技术方法实施例的描述。
344.此外,需要说明的是:本技术实施例还提供了一种计算机程序产品或计算机程序,该计算机程序产品或者计算机程序可以包括计算机指令,该计算机指令可以存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器可以执行该计算机指令,使得该计算机设备执行前文图3、图7、图10、图13和图16所对应实施例中对数据处理方法的描述,因此,这里将不再进行赘述。另外,对采用相同方法的有益效果描述,也不再进行赘述。对于本技术所涉及的计算机程序产品或者计算机程序实施例中未披露的技术细节,请参照本技术方法实施例的描述。
345.本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,计算机程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,存储介质可为磁碟、光盘、只读存储记忆体(read-only memory,rom)或随机存储记忆体(random access memory,ram)等。
346.以上所揭露的仅为本技术较佳实施例而已,当然不能以此来限定本技术之权利范围,因此依本技术权利要求所作的等同变化,仍属本技术所涵盖的范围。

技术特征:
1.一种数据处理方法,其特征在于,包括:在数据拍摄界面中显示拍摄画面;所述拍摄画面是通过拍摄组件拍摄得到的;所述拍摄画面包含目标对象;响应针对所述数据拍摄界面中的所述目标对象的第一触发操作,在所述数据拍摄界面中显示用于指向所述目标对象的第一虚拟渲染区域;在所述第一虚拟渲染区域中显示媒体数据;所述媒体数据与所述目标对象的对象分类相关联。2.根据权利要求1所述的方法,其特征在于,所述响应针对所述数据拍摄界面中的所述目标对象的第一触发操作,在所述数据拍摄界面中显示用于指向所述目标对象的第一虚拟渲染区域,包括:响应针对所述数据拍摄界面中的所述目标对象的第一触发操作,获取所述目标对象在所述数据拍摄界面中的目标位置;若所述目标位置处于所述数据拍摄界面中的焦点位置,则按照焦点显示方式在所述数据拍摄界面中显示用于指向所述目标对象的第一虚拟渲染区域;若所述目标位置不处于所述数据拍摄界面中的所述焦点位置,则按照非焦点显示方式在所述数据拍摄界面中显示用于指向所述目标对象的第一虚拟渲染区域。3.根据权利要求1所述的方法,其特征在于,所述响应针对所述数据拍摄界面中的所述目标对象的第一触发操作,在所述数据拍摄界面中显示用于指向所述目标对象的第一虚拟渲染区域,包括:响应针对所述数据拍摄界面中的所述目标对象的第一触发操作,确定用于指向所述目标对象的展示卡片的卡片数量m;所述卡片数量m是基于所述媒体数据的媒体数量所确定的,所述m为正整数;将m个展示卡片确定为用于指向所述目标对象的第一虚拟渲染区域,在所述数据拍摄界面中显示所述第一虚拟渲染区域。4.根据权利要求1所述的方法,其特征在于,所述方法还包括:若所述数据拍摄界面中的所述目标对象满足超链接显示条件,则在所述数据拍摄界面中的所述目标对象所在区域处,显示与所述目标对象相关联的超链接标识;所述超链接标识与所述媒体数据中的目标媒体数据相关联;响应针对所述超链接标识所指示的所述目标对象的第二触发操作,在所述数据拍摄界面中显示用于指向所述目标对象的第二虚拟渲染区域;在所述第二虚拟渲染区域中显示所述目标媒体数据对应的媒体展示内容。5.根据权利要求1所述的方法,其特征在于,所述方法还包括:响应针对所述数据拍摄界面中的所述目标对象的建模操作,在所述数据拍摄界面中显示与所述目标对象具有相同外形的虚拟模型对象;响应针对所述数据拍摄界面中的所述虚拟模型对象的变换操作,在所述数据拍摄界面中的虚拟位置处显示所述虚拟模型对象;所述虚拟位置是指所述变换操作所指示的变换位置。6.根据权利要求1所述的方法,其特征在于,所述方法还包括:当所述数据拍摄界面基于移动所述拍摄组件发生更新时,获取所述目标对象在更新后
的数据拍摄界面中的目标更新位置;若所述目标更新位置处于所述更新后的数据拍摄界面中的边缘区域,则对所述第一虚拟渲染区域和所述媒体数据进行隐藏处理,在所述更新后的数据拍摄界面中显示针对所述目标对象的隐藏标识;响应针对所述目标对象的所述隐藏标识的查看操作,在所述更新后的数据拍摄界面中重新显示包含所述媒体数据的所述第一虚拟渲染区域。7.根据权利要求1所述的方法,其特征在于,所述第一触发操作包括语音触发操作;所述响应针对所述数据拍摄界面中的所述目标对象的第一触发操作,在所述数据拍摄界面中显示用于指向所述目标对象的第一虚拟渲染区域,包括:响应针对所述数据拍摄界面的语音触发操作,获取所述语音触发操作所对应的音频数据,将所述拍摄画面中与所述音频数据所指示的语音文本数据存在匹配关系的对象确定为目标对象;在所述数据拍摄界面中显示用于指向所述目标对象的第一虚拟渲染区域。8.根据权利要求1所述的方法,其特征在于,所述响应针对所述数据拍摄界面中的所述目标对象的第一触发操作,在所述数据拍摄界面中显示用于指向所述目标对象的第一虚拟渲染区域,包括:响应针对所述数据拍摄界面的第一触发操作,获取所述第一触发操作所对应的触发轨迹,将所述拍摄画面中与所述触发轨迹存在选定关系的对象确定为目标对象;在所述数据拍摄界面中显示用于指向所述目标对象的第一虚拟渲染区域。9.根据权利要求8所述的方法,其特征在于,所述响应针对所述数据拍摄界面的第一触发操作,获取所述第一触发操作所对应的触发轨迹,包括:当通过所述拍摄组件捕捉到显示在所述数据拍摄界面中的触发物体时,响应所述触发物体针对所述数据拍摄界面的第一触发操作,获取所述第一触发操作所对应的触发轨迹;或者,当响应针对包含所述数据拍摄界面的屏幕的第一触发操作时,获取所述第一触发操作所对应的触发轨迹。10.根据权利要求8所述的方法,其特征在于,所述将所述拍摄画面中与所述触发轨迹存在选定关系的对象确定为目标对象,包括:对所述触发轨迹和所述拍摄画面进行叠加处理,将所述拍摄画面中的对象位置与所述触发轨迹存在交集关系的对象确定为叠加对象;从所述叠加对象中确定与所述触发轨迹存在选定关系的目标对象。11.根据权利要求10所述的方法,其特征在于,所述从所述叠加对象中确定与所述触发轨迹存在选定关系的目标对象,包括:若所述叠加对象的数量为至少两个,则显示与至少两个叠加对象相关联的对象选择区域,在所述对象选择区域中显示每个叠加对象分别对应的候选选项;响应针对所述候选选项的选择操作,将所述选择操作所选择的候选选项作为目标选项,将所述目标选项所对应的叠加对象确定为与所述触发轨迹存在选定关系的目标对象。12.根据权利要求10所述的方法,其特征在于,所述从所述叠加对象中确定与所述触发轨迹存在选定关系的目标对象,包括:
若所述叠加对象的数量为至少两个,则确定所述触发轨迹分别与每个叠加对象之间的重合度,从至少两个叠加对象中获取具有最大重合度的叠加对象,将所述具有最大重合度的叠加对象确定为与所述触发轨迹存在选定关系的目标对象。13.根据权利要求10所述的方法,其特征在于,所述从所述叠加对象中确定与所述触发轨迹存在选定关系的目标对象,包括:若所述叠加对象的数量为至少两个,则将至少两个叠加对象输入至热度分析模型,通过所述热度分析模型对所述至少两个叠加对象进行热度分析,得到每个叠加对象分别对应的热度概率;将所述至少两个叠加对象中具有最大热度概率的叠加对象,确定为与所述触发轨迹存在选定关系的目标对象。14.根据权利要求10所述的方法,其特征在于,所述从所述叠加对象中确定与所述触发轨迹存在选定关系的目标对象,包括:若所述叠加对象的数量为至少两个,则将至少两个叠加对象输入至匹配分析模型,通过所述匹配分析模型对所述至少两个叠加对象以及交互对象进行属性特征匹配分析,得到所述交互对象分别与每个叠加对象之间的属性匹配度;所述交互对象是指启动所述拍摄组件获取所述拍摄画面的对象;将所述至少两个叠加对象中具有最大属性匹配度的叠加对象,确定为与所述触发轨迹存在选定关系的目标对象。15.根据权利要求10所述的方法,其特征在于,所述方法还包括:对所述拍摄画面中的拍摄图像数据进行图像预处理,得到预处理图像数据;对所述预处理图像数据进行对象边缘检测,得到所述预处理图像数据中的对象边缘节点集合;所述对象边缘节点集合包括所述预处理图像数据中的边缘节点;根据所述边缘节点集合中的所述边缘节点,识别所述拍摄画面中的所述目标对象在所述数据拍摄界面中的对象位置。16.根据权利要求4所述的方法,其特征在于,所述方法还包括:统计所述目标媒体数据在目标时间段内的分发数量和触发数量,将所述分发数量和所述触发数量之间的比值,确定为所述目标媒体数据的触发概率;若所述触发数量大于数量阈值,且所述触发概率大于概率阈值,则确定所述目标对象满足所述超链接显示条件。17.根据权利要求5所述的方法,其特征在于,所述响应针对所述数据拍摄界面中的所述目标对象的建模操作,在所述数据拍摄界面中显示与所述目标对象具有相同外形的虚拟模型对象,包括:响应针对所述数据拍摄界面中的所述目标对象的建模操作,获取所述拍摄画面所指示的深度信息,基于所述深度信息将所述拍摄画面中的所述目标对象映射至立体空间,在所述立体空间中生成与所述目标对象具有相同外形的虚拟模型对象;在所述数据拍摄界面中的所述目标对象所在位置处,显示所述虚拟模型对象;所述虚拟模型对象覆盖显示在所述目标对象上。18.根据权利要求1所述的方法,其特征在于,所述方法还包括:对所述数据拍摄界面中的所述目标对象进行对象增强,得到增强对象;
对所述增强对象进行图像特征提取,得到增强图像特征,对所述增强对象进行文本特征提取,得到增强文本特征;对所述增强图像特征和所述增强文本特征进行特征融合,得到增强融合特征,根据所述增强融合特征,确定所述目标对象的对象分类;将所述对象分类输入至搜索引擎,通过所述搜索引擎对所述对象分类进行搜索处理,得到用于显示于所述第一虚拟渲染区域的所述媒体数据。19.根据权利要求18所述的方法,其特征在于,所述将所述对象分类输入至搜索引擎,通过所述搜索引擎对所述对象分类进行搜索处理,得到用于显示于所述第一虚拟渲染区域的媒体数据,包括:将所述对象分类输入至搜索引擎,通过所述搜索引擎对所述对象分类进行搜索处理,得到与所述对象分类相关联的媒体数据集合;获取交互对象所对应的历史触发信息,对所述历史触发信息进行特征分析,得到所述交互对象的历史对象特征;所述交互对象是指启动所述拍摄组件获取所述拍摄画面的对象;基于所述历史对象特征对所述媒体数据集合中的初始媒体数据进行排序处理,从排序处理后的初始媒体数据中获取用于显示于所述第一虚拟渲染区域的所述媒体数据。20.一种数据处理装置,其特征在于,包括:画面显示模块,用于在数据拍摄界面中显示拍摄画面;所述拍摄画面是通过拍摄组件拍摄得到的;所述拍摄画面包含目标对象;区域显示模块,用于响应针对所述数据拍摄界面中的所述目标对象的第一触发操作,在所述数据拍摄界面中显示用于指向所述目标对象的第一虚拟渲染区域;数据显示模块,用于在所述第一虚拟渲染区域中显示媒体数据;所述媒体数据与所述目标对象的对象分类相关联。21.一种计算机设备,其特征在于,包括:处理器和存储器;所述处理器与所述存储器相连,其中,所述存储器用于存储计算机程序,所述处理器用于调用所述计算机程序,以使得所述计算机设备执行权利要求1-19任一项所述的方法。22.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机程序,该计算机程序适于由处理器加载并执行,以使得具有所述处理器的计算机设备执行权利要求1-19任一项所述的方法。23.一种计算机程序产品,其特征在于,所述计算机程序产品包括计算机指令,该计算机指令存储在计算机可读存储介质中,且适于由处理器读取并执行,以使得具有所述处理器的计算机设备执行权利要求1-19任一项所述的方法。

技术总结
本申请实施例提供了一种数据处理方法、计算机设备以及可读存储介质,该方法包括:在数据拍摄界面中显示拍摄画面;拍摄画面是通过拍摄组件拍摄得到的;拍摄画面包含目标对象;响应针对数据拍摄界面中的目标对象的第一触发操作,在数据拍摄界面中显示用于指向目标对象的第一虚拟渲染区域;在第一虚拟渲染区域中显示媒体数据;媒体数据与目标对象的对象分类相关联。采用本申请,可以丰富展示方式以及交互方式。方式。方式。


技术研发人员:韩瑞
受保护的技术使用者:腾讯科技(深圳)有限公司
技术研发日:2022.01.27
技术公布日:2023/8/8
版权声明

本文仅代表作者观点,不代表航空之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)

飞行汽车 https://www.autovtol.com/

分享:

扫一扫在手机阅读、分享本文

相关推荐