基于表情图像的互动方法和装置、存储介质及电子设备与流程
未命名
08-25
阅读:111
评论:0
1.本发明涉及计算机领域,具体而言,涉及一种基于表情图像的互动方法和装置、存储介质及电子设备。
背景技术:
2.如今在很多会话聊天场景中,会话对象不仅可以通过会话窗口发送用于互动的文本会话消息,而且还会常常发送一些表情图像或动图,来表达会话对象当时的会话情绪。
3.然而,传统的表情图像通常仅用于单一地表达发送方的情绪,不同的接收方在收到同一表情图像后,所看到的内容是固定唯一的,存在缺乏互动性的问题。
4.针对上述的问题,目前尚未提出有效的解决方案。
技术实现要素:
5.本发明实施例提供了一种基于表情图像的互动方法和装置、存储介质及电子设备,以至少解决现有表情图像的展示方法的互动性较差的技术问题。
6.根据本发明实施例的一个方面,提供了一种基于表情图像的互动方法,包括:在会话窗口内显示目标表情图像;在目标表情图像为携带有互动标签的表情图像的情况下,响应于对目标表情图像的图像显示区域执行的触发操作,确定触发操作的操作位置;在操作位置命中目标表情图像中目标交互素材对应的交互响应区域的情况下,在会话窗口内播放与目标交互素材匹配的表情动画。
7.根据本发明实施例的另一方面,还提供了一种基于表情图像的互动装置,包括:显示单元,用于在会话窗口内显示目标表情图像;确定单元,用于在目标表情图像为携带有互动标签的表情图像的情况下,响应于对目标表情图像的图像显示区域执行的触发操作,确定触发操作的操作位置;播放单元,用于在操作位置命中目标表情图像中目标交互素材对应的交互响应区域的情况下,在会话窗口内播放与目标交互素材匹配的表情动画。
8.根据本发明实施例的又一方面,还提供了一种计算机可读的存储介质,该计算机可读的存储介质中存储有计算机程序,其中,该计算机程序被设置为运行时执行上述基于表情图像的互动方法。
9.根据本技术实施例的又一个方面,提供一种计算机程序产品,该计算机程序产品包括计算机程序/指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机程序/指令,处理器执行该计算机程序/指令,使得该计算机设备执行如以上基于表情图像的互动方法。
10.根据本发明实施例的又一方面,还提供了一种电子设备,包括存储器和处理器,上述存储器中存储有计算机程序,上述处理器被设置为通过上述计算机程序执行上述的基于表情图像的互动方法。
11.在本发明实施例中,通过在会话窗口内显示目标表情图像;在目标表情图像为携带有互动标签的表情图像的情况下,响应于对目标表情图像的图像显示区域执行的触发操
作,确定触发操作的操作位置;在操作位置命中目标表情图像中目标交互素材对应的交互响应区域的情况下,在会话窗口内播放与目标交互素材匹配的表情动画的方法,即在用户进行会话的过程中,针对用户对表情图像的触发操作进一步播放对应的表情动画,解决了现有的表情图像只能被观看,无法与用户操作进一步形成动态互动的局限性,进而解决了现有表情图像的展示方法的互动性较差的技术问题。
附图说明
12.此处所说明的附图用来提供对本发明的进一步理解,构成本技术的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
13.图1是根据本发明实施例的一种可选的基于表情图像的互动方法的应用环境的示意图;
14.图2是根据本发明实施例的一种可选的基于表情图像的互动方法的流程图;
15.图3是根据本发明实施例的一种可选的基于表情图像的互动方法的示意图;
16.图4是根据本发明实施例的另一种可选的基于表情图像的互动方法的示意图;
17.图5是根据本发明实施例的又一种可选的基于表情图像的互动方法的示意图;
18.图6是根据本发明实施例的又一种可选的基于表情图像的互动方法的示意图;
19.图7是根据本发明实施例的又一种可选的基于表情图像的互动方法的示意图;
20.图8是根据本发明实施例的另一种可选的基于表情图像的互动方法的流程图;
21.图9是根据本发明实施例的一种可选的基于表情图像的互动装置的结构示意图;
22.图10是根据本发明实施例的一种可选的电子设备的结构示意图。
具体实施方式
23.为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
24.需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
25.需要说明的是,本技术实施例将涉及以下技术术语:
26.aio:全称是all in one,指公共的聊天窗口组件。由于在公共的聊天窗口中用户可以参与到好友、群、公众账号等众多不同类型的会话,为了给用户提供统一的交互体验,软件中提供了不同会话共享的聊天窗口组件,组件中用户的输入、点击操作等行为习惯都可看作是一致的。
27.根据本发明实施例的一个方面,提供了一种基于表情图像的互动方法,作为一种可选的实施方式,上述基于表情图像的互动方法可以但不限于应用于如图1所示的硬件环境中的基于表情图像的互动系统,其中,该基于表情图像的互动系统可以包括但不限于终端设备102、网络104、服务器106、数据库108及终端设备110。终端设备102及终端设备110中均运行有用于用户通讯交互的应用的客户端。上述终端设备102中包括人机交互屏幕,处理器及存储器。人机交互屏幕中显示通讯应用的使用界面,可以用于用户之间的通信交流;还用于提供人机交互接口以接收用于通信交互指令,如接收输入的文本内容,接收对表情图像的选择操作。处理器用于响应上述人机交互操作生成交互指令,并将该交互指令发送给服务器。存储器用于存储相关属性数据,如表情图像数据,与表情数据对应的动画数据等。此外,终端设备110中运行有与终端设备102中相同的应用程序,用于获取终端102发送的表情图像以及播放与表情图像对应的表情动画。
28.此外,服务器106中包括处理引擎,处理引擎用于对数据库108执行存储或读取操作。具体地,处理引擎根据终端设备110反馈的触控操作指令确定播放的表情动画。处理引擎接着根据后续控制指令确定是否连续播放多个表情动画。
29.具体过程如以下步骤:如步骤s102,在终端设备102的显示界面中,在会话窗口内显示目标表情图像;然后如步骤s104,检测是否为携带有互动标签的表情图像;如步骤s106,在目标表情图像为携带有互动标签的表情图像的情况下,响应于对目标表情图像的图像显示区域执行的触发操作,确定触发操作的操作位置;接着如步骤s108,终端102通过网络104向服务器106发送操作位置信息。
30.服务器106将执行步骤s110,根据操作位置信息判断是否在交互响应区域;如s112,服务器106通过网络104向终端设备102返回判断结果。
31.最后执行步骤s114,终端设备102在在操作位置命中目标表情图像中目标交互素材对应的交互响应区域的情况下,在会话窗口内播放与目标交互素材匹配的表情动画。
32.作为另一种可选的实施方式,在终端设备102具备较强大的计算处理能力时,上述步骤s110也可以由终端设备102来完成。这里为示例,本实施例中对此不作任何限定。
33.在本发明实施例中,通过在显示有虚拟游戏场景的显示界面中,显示目标账号的道具列表,其中,道具列表中包括目标账号已获取道具的道具图标;响应于对道具列表中第一道具的道具图标执行的拖动操作,显示与第一道具相匹配的合成道具在预览状态下的预览道具图标,其中,合成道具为第一道具与处于候选合成状态的第二基于表情图像的互动后得到的道具;确定与拖动操作的操作轨迹终点相匹配的目标合成道具,并显示用于合成目标合成道具的合成进度信息;在合成进度信息指示尚未完成合成的情况下,响应于对合成进度信息触发的取消操作,取消合成目标合成道具的方法,在提供预览显示合成的道具的同时,提供了取消合成的控制方法,避免了用户因为错误操作导致错误合成而无法撤回,进而解决了现有表情图像的展示方法的互动性较差的技术问题。
34.可选地,作为一种可选的实施方式,如图2所示,上述基于表情图像的互动方法包括:
35.s202,在会话窗口内显示目标表情图像;
36.s204,在目标表情图像为携带有互动标签的表情图像的情况下,响应于对目标表情图像的图像显示区域执行的触发操作,确定触发操作的操作位置;
37.s206,在操作位置命中目标表情图像中目标交互素材对应的交互响应区域的情况下,在会话窗口内播放与目标交互素材匹配的表情动画;
38.可以理解的是,上述会话窗口为当前用户与聊天对象进行通信交互的窗口,在该会话窗口中,通过检测和接收用户输入、点击等操作行为向聊天对象发送相关文本信息,通过检测和接收对表情图像列表中的表情图像的选择操作,或者在表情图像搜索框中的搜索操作以获取目标表情图像,并发送给聊天对象。
39.需要说明的是,在上述会话窗口中显示的目标表情图像可以是当前用户目标表情图像,也可以是当前用户在历史操作中发送给聊天对象的表情图像。上述目标表情图像的类型可以是emoji表情、矢量表情、gif表情(graphics interchange format,动图表情)、自定义表情、免费表情、付费表情等各种表情类型,以上表情类型仅为示例,不对实际应用中的表情类型进行限定。
40.进一步地,上述互动标签可以是在原表情图像文件中增加的一个属性,即不考虑原表情图像文件的类型,增加一个属性标签以用以判断该表情是否为带有互动标签的表情。在表情图像带有互动标签的情况下,确定该表情图像可以继续用于执行后续的互动操作,在没有带有互动标签的情况下,确定该表情无法继续执行后续的互动操作。
41.此外,在确定出当前表情图像带有互动标签的情况下,根据对目标表情的图像显示区域执行的触发操作确定的位置信息,与交互响应区域进行比对,并根据比对结果播放与目标交互素材匹配的表情动画。可以理解的是,上述表情动画可以与上述交互响应区域存在一定的关联关系,不同的交互响应区域,关联的目标交互素材会不同。而不同的目标交互素材,对应的表情动画也会不同。如:在交互响应区域中的元素为“红酒杯”的情况下,表情动画可以是在会话窗口中播放“满屏泡泡”动画;在交互响应区域中的元素为“烟花”的情况下,表情动画可以是在会话窗口中播放“烟花”动画;在交互响应区域中的元素为“爱心”的情况下,表情动画可以是在会话窗口中播放“满屏爱心”动画。以上关联关系仅为示例,不对本技术的相关内容形成限定。
42.也就是说,在本实施例中,在当前表情图像带有互动标签的情况下,检测到对该表情图像上的特定区域的触发操作,即可播放对应的表情动画,从而实现表情图像与用户之间的互动。
43.以下结合图3对上述方法进行说明。如图3中的(a)图所示,示出了一个会话窗口,会话对象为“老妈”,且在11:52的时间点向“老妈”发送了一个表情图像,该表情图像中包括了三部分元素。第一部分元素为图像下部的“红酒杯”,第二部分元素为图像上部的“烟花”,第三部分元素即黑色的背景。如图3中的(a)图所示,用户通过触控操作点击了表情图像中的“红酒杯”元素,在判断该表情图像为携带有互动标签的表情图像的情况下,如图3中的(b)图所示,在该会话窗口中显示表情动画“泡泡飘落”。可以理解的是,该表情动画可以在发送方的会话窗口播放,也可以同时在接收方的会话窗口播放。此外,表情接收方的窗口检测到对表情图像的触发操作的情况下,同样可以触发表情动画。以上方式仅为示例性说明,不对在不同窗口中的具体的播放顺序和播放方法构成限定。
44.在本发明实施例中,通过在会话窗口内显示目标表情图像;在目标表情图像为携带有互动标签的表情图像的情况下,响应于对目标表情图像的图像显示区域执行的触发操作,确定触发操作的操作位置;在操作位置命中目标表情图像中目标交互素材对应的交互
响应区域的情况下,在会话窗口内播放与目标交互素材匹配的表情动画的方法,即在用户进行会话的过程中,针对用户对表情图像的触发操作进一步播放对应的表情动画,解决了现有的表情图像只能被观看,无法与用户操作进一步形成动态互动的局限性,进而解决了现有表情图像的展示方法的互动性较差的技术问题。
45.作为一种可选的实施方式,上述在会话窗口内播放与目标交互素材匹配的表情动画包括:
46.s1,在会话窗口内的多个离散位置生成与目标交互素材的素材标识相匹配的动画元素;
47.s2,控制每个动画元素各自在会话窗口内进行移动,以形成所要播放的表情动画。
48.可以理解的是,作为一种可选的动画播放方式,上述播放表情动画的方式可以是在会话窗口中的不同位置先生成动画元素,再控制不同的动画元素在会话窗口中进行移动,以生成对应的表情动画。
49.需要说明的是,上述离散位置指的是在显示界面上的不同像素坐标点对应的位置,如图3中的(a)图所示,在对表情图像中包括的红酒杯执行了触控操作的情况下,如图3中的(b)图所示,在会话界面中的多个不同位置分别显示“泡泡”元素。上述多个离散位置可以根据随机算法生成,以确定在窗口中生成动画元素的位置;还可以是通过预设的规则确定在窗口中生成动画元素的位置。上述多个动画元素可以是同时生成,也可以是先后生成;上述移动的方式可以是根据随机算法确定的移动方向、距离,还可以是固定方向、固定孤立;也可以是根据目标交互素材单独确定的移动方式。在确定出多个离散位置生成与目标交互素材的素材标识相匹配的动画元素的情况下,上述动画元素的移动可以是同时移动,还可以是依次移动。在此不对上述具体的移动方式进行限制。
50.以图4为例对上述方法进行说明。在图4中,示出了不同位置上的“泡泡”元素的预计移动轨迹。也就是说,在检测到图3中的(a)图中对表情图像中的“红酒杯”元素执行了触控操作的情况下,控制在图4所示的窗口中显示不同离散位置上的“泡泡”动画元素,并控制“泡泡”动画元素按照虚线箭头所示的轨迹进行移动,以生成要播放的表情动画。
51.通过本技术的上述实施例,在会话窗口内的多个离散位置生成与目标交互素材的素材标识相匹配的动画元素;控制每个动画元素各自在会话窗口内进行移动,以形成所要播放的表情动画,从而根据多个动画元素的移动以生成表情动画,进而提升了表情动画的展示效果。
52.作为一种可选的实施方式,上述控制每个动画元素各自在会话窗口内进行移动包括:
53.s1,确定动画元素在会话窗口内的移动轨迹和移动速度;
54.s2,控制动画元素按照移动速度在移动轨迹上移动。
55.可以理解的是,在确定出动画元素在窗口中生成的位置后,进一步确定每个动画元素的移动轨迹和移动速度,并控制每个动画元素根据按照移动速度在其移动轨迹上进行移动。可选地,上述移动轨迹可以包括但不限于是随机轨迹、从上往下坠落轨迹、从下往上上升轨迹、左右飘散轨迹等。
56.可选地,上述移动轨迹和移动速度可以根据动画元素的移动特性进行确定。比如,针对“泡泡”元素,其移动特性为“慢、随机、掉落”,进而可以在确定出每一个“泡泡”元素生
成位置后,为每一个“泡泡”元素配置“较慢”的移动速度,并将其轨迹设置为“不规则曲线”,其移动方向为“向下掉落”,进而控制每一个“泡泡”根据按照移动速度在其移动轨迹上进行移动,从而形成表情动画。
57.可选地,针对“烟花”元素,其移动特征为“快、炸散效果、上升”,进而可以在确定出每一个“烟花”元素的生成位置后,为每一个“烟花”元素配置“较快”的移动速度,并将其轨迹设置为“从下往上的直线”,其移动方向为“从下往上升”,并控制每一个“烟花”元素根据按照移动速度在其移动轨迹上进行移动,移动至轨迹末端时,播放“烟花绽放”的动画,进而形成表情动画。
58.通过本技术的上述实施例,以确定动画元素在会话窗口内的移动轨迹和移动速度;控制动画元素按照移动速度在移动轨迹上移动的方式,针对具有动画播放特性的动画元素,可以根据其特性配置移动轨迹和移动速度,进而提升表情动画的播放效果。
59.作为一种可选的实施例,上述控制每个动画元素各自在会话窗口内进行移动包括:在多个动画元素各自在对应的移动轨迹的终点消失时,确定表情动画完成播放;或者
60.在多个动画元素各自在对应的移动轨迹上的移动时长达到目标时长阈值时,隐藏移动轨迹上的动画元素,并确定表情动画完成播放。
61.可以理解的是,在本实施例中,动画元素的移动还包括两种模式。一种模式为动画元素在移动轨迹终点即自动消失,也就是说,每一个动画元素在移动轨迹上仅移动一次;在另一个模式中,每一个动画元素在移动轨迹上移动时长达到阈值的情况下,完成播放,即可以通过设定时间阈值以控制每个动画元素在其轨迹上反复移动。
62.以下结合图4对上述两种动画显示方式进行说明。如图4所示,在触发表情动画的情况下,在会话窗口中的多个位置分别产生表情元素“泡泡”,假设每个“泡泡”的预设轨迹为一段形状不同的不规则曲线,长度均为5cm,“泡泡”在轨迹上移动至轨迹末端的耗时为3s。
63.在上述第一种播放方式中,每个“泡泡”元素按照移动轨迹移动至轨迹末端的情况下,控制每个“泡泡”消失,以确定表情动画完成播放;
64.在上述第二种播放方式中,假设目标时长阈值为2s,则控制每个“泡泡”元素在移动2s的情况下自动消失,即每个“泡泡”元素在未移动至轨迹末端的情况下就结束动画播放;假设目标时长阈值为6s,则控制每个“泡泡”元素在其轨迹上移动两遍,再控制“泡泡”元素消失,进而确定结束表情动画播放。
65.在本实施例中,通过两种动画元素的移动模式以实现不同的表情动画的播放效果,在第一种模式中,每个动画元素移动一次,即呈现“昙花一现”的播放效果,在第二种模式中,每个动画元素可以在其移动轨迹上反复移动,以呈现“丰富热闹”的播放效果,进而提升了表情动画的播放效果,解决了现有的表情图像的展示互动性较差的技术问题。
66.作为一种可选的实施方式,上述隐藏移动轨迹上的动画元素之前,还包括以下之一:
67.在多个动画元素各自在对应的移动轨迹的终点消失,且动画元素的移动时长并未达到目标时长阈值时,在多个离散位置重新生成多个更新后的动画元素;控制每个更新后的动画元素各自在会话窗口内移动;
68.在多个动画元素各自在对应的移动轨迹的终点消失,且动画元素的移动时长并未
达到目标时长阈值时,获取多个更新后的离散位置;在多个更新后的离散位置生成多个更新后的动画元素;控制每个更新后的动画元素各自在会话窗口内移动。
69.需要说明的是,在本实施例中,在时间阈值控制动画元素的播放次数的控制方法中,还提供了两种可选的播放方法。在第一种播放方法中,每个动画元素在轨迹终端消失的情况下,如果动画播放时长还未达到时间阈值,则控制每个动画元素在原动画元素生成的位置上重新生成动画元素;在另一种方法中,每个动画元素在轨迹终端消失的情况下,如果动画播放时长还未达到时间阈值,则重新确定每个动画元素的生成位置,并控制每个动画元素在更新后的位置上重新生成动画元素。
70.通过本技术上述实施例记载的方法,在时间阈值控制每个动画元素的播放次数的情况下,提供了两种可选的播放方式,从而提升表情动画的播放效果。
71.作为一种可选的实施方式,上述在会话窗口内播放与目标交互素材匹配的表情动画包括:
72.s1,在会话窗口的第一边缘生成与目标交互素材的素材标识相匹配的多个动画元素;
73.s2,控制每个动画元素各自在会话窗口内进行移动,以形成所要播放的表情动画;
74.s3,在动画元素达到会话窗口的第二边缘时,确定表情动画完成播放。
75.在本实施例中,上述与目标交互素材的素材标识相匹配的多个动画元素的生成位置为会话窗口的边缘。且每个动画元素的轨迹终点为会话窗口的第二边缘,上述第一边缘与上述第二边缘可以相同也可以不同。也就是说,在本实施例中,动画元素从会话窗口的边缘产生,且从会话窗口的边缘消失。
76.可以理解的是,在会话窗口边缘生成的动画元素可以是从会话窗口边缘上随机确定的位置上产生,也可以是预设位置产生。每个动画元素产生后的移动速度可以相同,也可以不同,在此不做限定。
77.可选地,在动画元素为“泡泡”的情况下,可以控制“泡泡”元素从会话窗口的上边缘产生,并根据随机曲线轨迹下落至会话窗口的下边缘,并以“破裂”的动画显示方式消失在会话窗口下边缘;在动画元素为“小天使”的情况下,可以控制以控制“小天使”元素从会话窗口的左边缘产生,并根据斜向上的曲线移动至会话窗口的上边缘或者右边缘,最后控制“小天使”元素消失,进而确定表情动画完成播放。
78.在本技术的上述实施例中,通过在会话窗口的第一边缘生成与目标交互素材的素材标识相匹配的多个动画元素;控制每个动画元素各自在会话窗口内进行移动,以形成所要播放的表情动画;在动画元素达到会话窗口的第二边缘时,确定表情动画完成播放,从而确定了在动画元素的生成位置为会话窗口的边缘的情况下的动画播放方法,进而提升了动画元素的播放展示效果。
79.作为一种可选的实施方式,上述在会话窗口内播放与目标交互素材匹配的表情动画时,还包括:响应于对目标表情图像的图像显示区域再次执行的触发操作,在再次执行的触发操作的操作位置再次命中目标表情图像中目标交互素材对应的交互响应区域的情况下,在会话窗口内再次播放与目标交互素材匹配的表情动画。
80.可以理解的是,在本实施例中,对上述表情图像的同一个表情动画触发区域执行多次触发操作的情况下,可以对相同的动画元素进行再次播放。进而,假设对表情图像中的
一个一个表情动画触发区域执行了一次触发操作的情况下,可以播放一个动画元素的表情动画,进而对表情图像中的一个一个表情动画触发区域执行了n次(n为大于1的正整数)触发操作的情况下,可以播放n个动画元素的表情动画。可选地,假设对表情图像中的一个一个表情动画触发区域执行了一次触发操作的情况下,可以播放5个动画元素的表情动画,进而对表情图像中的一个一个表情动画触发区域执行了n次(n为大于1的正整数)触发操作的情况下,可以播放5n个动画元素的表情动画。
81.也就是说,在本实施例中,对应于用户的每次动画触发操作,都会产生对应的动画互动效果。
82.如图3中的(b)图所示,假设检测到对表情图像中的“红酒杯”元素的6次点击操作,则在该会话窗口中显示了6个“泡泡”元素;进一步地,如图5所示,假设检测到对表情图像中的“红酒杯”元素的10次点击操作,则在该会话窗口中显示了10个“泡泡”元素.
83.通过本技术的上述实施例,通过响应于对目标表情图像的图像显示区域再次执行的触发操作,在再次执行的触发操作的操作位置再次命中目标表情图像中目标交互素材对应的交互响应区域的情况下,在会话窗口内再次播放与目标交互素材匹配的表情动画,从而实现了对应于用户的对表情图像的触发区域中的多次触发操作,可以产生与触发操作次数对应的动画播放效果,进而提升了表情图像的互动性,解决了现有表情图像的展示方法互动性较低的技术问题。
84.作为一种可选的实施方式,上述在会话窗口内播放与目标交互素材匹配的表情动画之前,还包括:
85.s1,确定目标交互素材对应的交互响应区域在会话窗口内的显示区域坐标;
86.s2,在操作位置位于显示区域坐标所指示的显示范围内的情况下,确定操作位置命中目标交互素材对应的交互响应区域。
87.可以理解的是,在本实施例中,通过显示区域坐标以确定目标交互素材对应的相应区域,并根据显示区域坐标所指示的显示范围确定触发操作是否命中目标交互素材对应的交互响应区域。
88.作为一种可选的实施方式,上述确定目标交互素材对应的交互响应区域在会话窗口内的显示区域坐标包括:
89.s1,获取目标表情图像的图像显示尺寸,及目标交互素材在目标表情图像中的呈现位置;
90.s2,根据图像显示尺寸与目标交互素材的呈现位置,确定目标交互素材相对目标表情图像的显示比例;
91.s3,按照显示比例确定交互响应区域在会话窗口内的显示区域坐标。
92.作为一种具体的方式,上述显示区域的坐标信息是用浮点数表示。首先确定整个表情是一个(0.0,0.0)——(1.0,1.0)区域,每个显示区域的坐标点位置都是0.0~1.0的范围,类似于在整个区域的占比,这样就可以达到不管展示的表情有多大,彩蛋区域也相应的变大,进而避免因为显示的差异导致点击触发动画的准确率变低。
93.以图6为例对上述方法进行说明。如图6中(a)图所示,当前用户发送了一个“爱心”表情图像,该表情图像的宽、高分别为(80px,100px)。如图6中(b)图所示,假设其中虚线框所示的“爱心区域”的左下角点的坐标为(10px,20px),右上角点的坐标为(60px,80px),根
据上述方法将“爱心区域”的左下角点的坐标和右上角点的坐标进行归一化处理,即将表情图像的宽、高分别为(80px,100px)看成(0.0,0.0)——(1.0,1.0)的区域,对应于上述区域,“爱心区域”的左下角点的坐标和右上角点的坐标应分别为(0.125,0.200),(0.750,0.800),进而确定出以(0.125,0.200),(0.750,0.800)为对角线的矩形区域为上述目标交互素材对应的交互响应区域。进一步地,在检测到触发操作的操作坐标位于表情图像中的上述(0.125,0.200),(0.750,0.800)所指示的区域内的情况下,确定命中所述交互响应区域,并如图6中的(c)图所示,在会话窗口中播放“爱心掉落”的动画。
94.通过本技术的上述实施方式,以确定目标交互素材对应的交互响应区域在会话窗口内的显示区域坐标;在操作位置位于显示区域坐标所指示的显示范围内的情况下,确定操作位置命中目标交互素材对应的交互响应区域的方式准确确定交互响应区域的范围,避免因为检测范围的差异而导致动画播放误差的情况,进而提升了表情图像的互动性。
95.作为一种可选的实施方式,上述在会话窗口内显示目标表情图像之前,还包括:
96.s1,服务器获取待处理的候选表情图像;
97.s2,服务器从候选表情图像中识别出候选交互素材,其中,候选交互素材为候选表情图像中包含的图像元素;
98.s3,服务器为候选交互素材配置动画资源,并为候选表情图像标记互动标签,其中,动画资源包括与候选交互素材匹配的动画元素的元素信息及动画播放控制信息;
99.s4,服务器对候选表情图像、动画资源及候选交互素材与动画资源的映射关系进行封装,得到表情数据包;
100.s5,服务器将表情数据包发送给会话客户端,以使会话客户端将候选表情图像显示在待发送的表情图像列表。
101.可以理解的是,在本实施例中,上述候选表情图像可以是当前会话应用中已保存的表情图像,针对于已保存的表情图像,配置对应的动画效果;还可以是新设计的表情图像,在上传至会话应用中的表情库的同时,更新其对应的动画效果。
102.进一步地,在获取得到待处理的候选表情图像的情况下,从表情图像中识别出候选交互素材。如图7中的(a)图所示,该表情图像中至少包括了两种候选元素图像,其一为“红酒杯”,其二为“烟火”。进而服务器在识别出上述图像元素的情况下,将“红酒杯”和“烟火”识别为候选交互材料。
103.在确定出候选交互材料以后,为不同的交互材料配置动画资源,并未表情图像标记互动标签,用以指示该表情图像可以用于触发动画效果,上述动画资源还包括了与交互材料对应的动画元素以及动画展示方式,包括但不限于是动画元素出现的初始位置、移动方向、移动轨迹、移动特效等控制信息。具体地,在对图7中的(a)图中的“烟火”元素检测到触控操作的情况下,如图7中的(b)图所示,显示“雪花飘落”动画。
104.在通过上述方法得到与表情图像对应的动画效果资源的情况下,对候选表情图像、动画资源及候选交互素材与动画资源的映射关系进行封装,以得到表情数据包;进一步地,将表情数据包发送给会话客户端,以使会话客户端将候选表情图像显示在待发送的表情图像列表中。
105.在本技术的上述实施例中,通过服务器获取待处理的候选表情图像;服务器从候选表情图像中识别出候选交互素材;服务器为候选交互素材配置动画资源,并为候选表情
图像标记互动标签;服务器对候选表情图像、动画资源及候选交互素材与动画资源的映射关系进行封装,得到表情数据包;服务器将表情数据包发送给会话客户端,以使会话客户端将候选表情图像显示在待发送的表情图像列表,从而实现了在根据表情图像播放对应的动画效果之前的数据封装也分发,以确保表情图像在被触发的情况下即时播放对应的动画效果,进而提升了表情图像的互动性,解决了现有表情图像的展示效果较差的技术问题。
106.以下结合图8对本技术的一个具体实施方式进行说明。
107.如步骤s1,点击表情;
108.相关技术提供的会话应用中含有各种丰富的表情,不仅支持系统的emoji表情,还支持各种自定义的表情,有免费,也有付费的。提供表情的设计者提供将表情上架平台,用户可通过下载来获取对应的自定义表情。针对不同场景,表情就是被分为不同的类型,含有彩蛋区域表情就是在原有的基础上添加了一个类型。这个类型的表情,可实现成用户点击特定区域显示彩蛋动画。因此该表情图像本质上还是一个表情,只是在处理逻辑上,不同版本的app上会针对这类表情做不同处理。比如在新版应用中,用户点击后会检测是否触发彩蛋动画;而对于旧版本app,由于本质还是表情,因此还是会正常显示成表情图像,但不能响应区域彩蛋。因此本实施例中,版本兼容性方面也不会有问题。
109.进而为了支持区域彩蛋,需要增加一个表情类型。含有区域彩蛋的表情,都会带有表情基本信息,也会带有表情的标识,同时还会带有区域彩蛋响应区域信息,用于指示点击该区域是否响应彩蛋。
110.如步骤s2,检测是否为区域彩蛋表情,在确定是区域彩蛋表情的情况下,执行步骤s3;在不为区域彩蛋表情的情况下,结束流程;
111.每个表情的配置信息中的彩蛋响应区域也配置有一个唯一的id,以实现用户点击该区域,客户端将id传给后台服务器,通过服务器判断该响应什么彩蛋。
112.如步骤s3,检测触发区域;
113.可以理解的是,上述方法即对彩蛋表情中的触发区域进行检测,彩蛋表情中包括触发区域和非触发区域,其中触发区域即用于触发彩蛋动画的区域。
114.接着执行s4,判断是否命中区域,在命中的情况下,执行s5,在没有命中的情况下,结束流程;
115.表情图像中会带上额外的一些区域信息,客户端在处理这类表情时,当用户点击了这个表情,会检测点击位置否在配置的区域范围内。彩蛋区域通过左上角坐标以及右下角坐标来表示,客户端在判断是否在该区域时,可根据左上角和右下角坐标信息判断是否在该区域中。
116.如步骤s5,请求区域彩蛋信令;
117.如果在检测范围内,则发起信令,和后台服务器通信。
118.接着如步骤s6,获取区域彩蛋id;
119.s7,区域彩蛋匹配;
120.s8,判断是否存在彩蛋,在存在彩蛋的情况下,执行步骤s9,组装彩蛋push数据;在不存在彩蛋的情况下,结束流程;
121.最后执行步骤s10,彩蛋ui逻辑处理。
122.可以理解的是,运营在添加表情时,不仅要上传表情,同时还需指定表情的区域信
息,同时将该区域同某个彩蛋进行绑定,当触发了该区域,可通知客户端显示彩蛋。在触发了彩蛋区域的情况下,客户端需要发送区域彩蛋信令,通知后台服务器处理。在本实施例中后台服务器收到该信令后,会判断是否存在彩蛋,如果存在彩蛋信息,就给客户端push彩蛋信令,就可以达到用户点击彩蛋区域,触发彩蛋的效果,而具体触发的彩蛋信息统一由运营平台处理,其中,彩蛋push数据包括了彩蛋动画的动画播放控制信息。
123.在本发明实施例中,通过在会话窗口内显示目标表情图像;在目标表情图像为携带有互动标签的表情图像的情况下,响应于对目标表情图像的图像显示区域执行的触发操作,确定触发操作的操作位置;在操作位置命中目标表情图像中目标交互素材对应的交互响应区域的情况下,在会话窗口内播放与目标交互素材匹配的表情动画的方法,即在用户进行会话的过程中,针对用户对表情图像的触发操作进一步播放对应的表情动画,解决了现有的表情图像只能被观看,无法与用户操作进一步形成动态互动的局限性,进而解决了现有表情图像的展示方法的互动性较差的技术问题。
124.需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本发明所必须的。
125.根据本发明实施例的另一个方面,还提供了一种用于实施上述基于表情图像的互动方法的基于表情图像的互动装置。如图9所示,该装置包括:
126.显示单元902,用于在会话窗口内显示目标表情图像;
127.确定单元904,用于在目标表情图像为携带有互动标签的表情图像的情况下,响应于对目标表情图像的图像显示区域执行的触发操作,确定触发操作的操作位置;
128.播放单元906,用于在操作位置命中目标表情图像中目标交互素材对应的交互响应区域的情况下,在会话窗口内播放与目标交互素材匹配的表情动画。
129.根据本发明实施例的又一个方面,还提供了一种用于实施上述基于表情图像的互动方法的电子设备,该电子设备可以是图10所示的终端设备或服务器。本实施例以该电子设备为终端设备为例来说明。如图10所示,该电子设备包括存储器1002和处理器1004,该存储器1002中存储有计算机程序,该处理器1004被设置为通过计算机程序执行上述任一项方法实施例中的步骤。
130.可选地,在本实施例中,上述电子设备可以位于计算机网络的多个网络设备中的至少一个网络设备。
131.可选地,在本实施例中,上述处理器可以被设置为通过计算机程序执行以下步骤:
132.s1,在会话窗口内显示目标表情图像;
133.s2,在目标表情图像为携带有互动标签的表情图像的情况下,响应于对目标表情图像的图像显示区域执行的触发操作,
134.s3,确定触发操作的操作位置;在操作位置命中目标表情图像中目标交互素材对应的交互响应区域的情况下,在会话窗口内播放与目标交互素材匹配的表情动画。
135.可选地,本领域普通技术人员可以理解,图10所示的结构仅为示意,电子设备也可以是智能手机(如android手机、ios手机等)、平板电脑、掌上电脑以及移动互联网设备
(mobile internet devices,mid)、pad等终端设备。图10其并不对上述电子设备的结构造成限定。例如,电子设备还可包括比图10中所示更多或者更少的组件(如网络接口等),或者具有与图10所示不同的配置。
136.其中,存储器1002可用于存储软件程序以及模块,如本发明实施例中的基于表情图像的互动方法和装置对应的程序指令/模块,处理器1004通过运行存储在存储器1002内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的基于表情图像的互动方法。存储器1002可包括高速随机存储器,还可以包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器1002可进一步包括相对于处理器1004远程设置的存储器,这些远程存储器可以通过网络连接至终端。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。其中,存储器1002具体可以但不限于用于存储会话界面中的各个元素、基于表情图像的互动信息等信息。作为一种示例,如图10所示,上述存储器1002中可以但不限于包括上述基于表情图像的互动装置中的显示单元902、确定单元904、播放单元906。此外,还可以包括但不限于上述基于表情图像的互动装置中的其他模块单元,本示例中不再赘述。
137.可选地,上述的传输装置1006用于经由一个网络接收或者发送数据。上述的网络具体实例可包括有线网络及无线网络。在一个实例中,传输装置1006包括一个网络适配器(network interface controller,nic),其可通过网线与其他网络设备与路由器相连从而可与互联网或局域网进行通讯。在一个实例中,传输装置1006为射频(radio frequency,rf)模块,其用于通过无线方式与互联网进行通讯。
138.此外,上述电子设备还包括:显示器1008,用于显示界面中的表情动画;和连接总线1010,用于连接上述电子设备中的各个模块部件。
139.在其他实施例中,上述终端设备或者服务器可以是一个分布式系统中的一个节点,其中,该分布式系统可以为区块链系统,该区块链系统可以是由该多个节点通过网络通信的形式连接形成的分布式系统。其中,节点之间可以组成点对点(p2p,peer to peer)网络,任意形式的计算设备,比如服务器、终端等电子设备都可以通过加入该点对点网络而成为该区块链系统中的一个节点。
140.根据本技术的一个方面,提供了一种计算机程序产品,该计算机程序产品包括计算机程序/指令,该计算机程序/指令包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分从网络上被下载和安装,和/或从可拆卸介质被安装。在该计算机程序被中央处理器执行时,执行本技术实施例提供的各种功能。
141.上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
142.根据本技术的一个方面,提供了一种计算机可读存储介质,计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述基于表情图像的互动方方法。
143.可选地,在本实施例中,上述计算机可读存储介质还可以被设置为存储用于执行以下步骤的计算机程序:
144.s1,在会话窗口内显示目标表情图像;
145.s2,在目标表情图像为携带有互动标签的表情图像的情况下,响应于对目标表情图像的图像显示区域执行的触发操作,
146.s3,确定触发操作的操作位置;在操作位置命中目标表情图像中目标交互素材对应的交互响应区域的情况下,在会话窗口内播放与目标交互素材匹配的表情动画。
147.可选地,在本实施例中,本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令终端设备相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:闪存盘、只读存储器(read-only memory,rom)、随机存取器(random access memory,ram)、磁盘或光盘等。
148.上述实施例中的集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在上述计算机可读取的存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在存储介质中,包括若干指令用以使得一台或多台计算机设备(可为个人计算机、服务器或者网络设备等)执行本发明各个实施例上述方法的全部或部分步骤。
149.在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
150.在本技术所提供的几个实施例中,应该理解到,所揭露的客户端,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如上述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
151.上述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
152.另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
153.以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
技术特征:
1.一种基于表情图像的互动方法,其特征在于,包括:在会话窗口内显示目标表情图像;在所述目标表情图像为携带有互动标签的表情图像的情况下,响应于对所述目标表情图像的图像显示区域执行的触发操作,确定所述触发操作的操作位置;在所述操作位置命中所述目标表情图像中目标交互素材对应的交互响应区域的情况下,在所述会话窗口内播放与所述目标交互素材匹配的表情动画。2.根据权利要求1所述的方法,其特征在于,所述在所述会话窗口内播放与所述目标交互素材匹配的表情动画包括:在所述会话窗口内的多个离散位置生成与所述目标交互素材的素材标识相匹配的动画元素;控制每个所述动画元素各自在所述会话窗口内进行移动,以形成所要播放的所述表情动画。3.根据权利要求2所述的方法,其特征在于,所述控制每个所述动画元素各自在所述会话窗口内进行移动包括:确定所述动画元素在所述会话窗口内的移动轨迹和移动速度;控制所述动画元素按照所述移动速度在所述移动轨迹上移动。4.根据权利要求2所述的方法,其特征在于,所述控制每个所述动画元素各自在所述会话窗口内进行移动包括:在多个所述动画元素各自在对应的移动轨迹的终点消失时,确定所述表情动画完成播放;或者在多个所述动画元素各自在对应的移动轨迹上的移动时长达到目标时长阈值时,隐藏所述移动轨迹上的所述动画元素,并确定所述表情动画完成播放。5.根据权利要求4所述的方法,其特征在于,在所述隐藏所述移动轨迹上的所述动画元素之前,还包括以下之一:在多个所述动画元素各自在对应的所述移动轨迹的终点消失,且所述动画元素的所述移动时长并未达到所述目标时长阈值时,在所述多个离散位置重新生成多个更新后的动画元素;控制每个所述更新后的动画元素各自在所述会话窗口内移动;或者在多个所述动画元素各自在对应的所述移动轨迹的终点消失,且所述动画元素的所述移动时长并未达到所述目标时长阈值时,获取多个更新后的离散位置;在所述多个更新后的离散位置生成多个更新后的动画元素;控制每个所述更新后的动画元素各自在所述会话窗口内移动。6.根据权利要求1所述的方法,其特征在于,所述在所述会话窗口内播放与所述目标交互素材匹配的表情动画包括:在所述会话窗口的第一边缘生成与所述目标交互素材的素材标识相匹配的多个动画元素;控制每个所述动画元素各自在所述会话窗口内进行移动,以形成所要播放的所述表情动画;在所述动画元素达到所述会话窗口的第二边缘时,确定所述表情动画完成播放。7.根据权利要求1所述的方法,其特征在于,在所述会话窗口内播放与所述目标交互素
材匹配的表情动画时,还包括:响应于对所述目标表情图像的所述图像显示区域再次执行的触发操作,在再次执行的所述触发操作的操作位置再次命中所述目标表情图像中所述目标交互素材对应的交互响应区域的情况下,在所述会话窗口内再次播放与所述目标交互素材匹配的表情动画。8.根据权利要求1所述的方法,其特征在于,在所述会话窗口内播放与所述目标交互素材匹配的表情动画之前,还包括:确定所述目标交互素材对应的所述交互响应区域在所述会话窗口内的显示区域坐标;在所述操作位置位于所述显示区域坐标所指示的显示范围内的情况下,确定所述操作位置命中所述目标交互素材对应的所述交互响应区域。9.根据权利要求8所述的方法,其特征在于,所述确定所述目标交互素材对应的所述交互响应区域在所述会话窗口内的显示区域坐标包括:获取所述目标表情图像的图像显示尺寸,及所述目标交互素材在所述目标表情图像中的呈现位置;根据所述图像显示尺寸与所述目标交互素材的所述呈现位置,确定所述目标交互素材相对所述目标表情图像的显示比例;按照所述显示比例确定所述交互响应区域在所述会话窗口内的所述显示区域坐标。10.根据权利要求1至9中任一项所述的方法,其特征在于,所述在会话窗口内显示目标表情图像之前,还包括:服务器获取待处理的候选表情图像;所述服务器从所述候选表情图像中识别出候选交互素材,其中,所述候选交互素材为所述候选表情图像中包含的图像元素;所述服务器为所述候选交互素材配置动画资源,并为所述候选表情图像标记所述互动标签,其中,所述动画资源包括与所述候选交互素材匹配的动画元素的元素信息及动画播放控制信息;所述服务器对所述候选表情图像、所述动画资源及所述候选交互素材与所述动画资源的映射关系进行封装,得到表情数据包;所述服务器将所述表情数据包发送给会话客户端,以使所述会话客户端将所述候选表情图像显示在待发送的表情图像列表中。11.一种基于表情图像的互动装置,其特征在于,包括:显示单元,用于在会话窗口内显示目标表情图像;确定单元,用于在所述目标表情图像为携带有互动标签的表情图像的情况下,响应于对所述目标表情图像的图像显示区域执行的触发操作,确定所述触发操作的操作位置;播放单元,用于在所述操作位置命中所述目标表情图像中目标交互素材对应的交互响应区域的情况下,在所述会话窗口内播放与所述目标交互素材匹配的表情动画。12.一种计算机可读的存储介质,其特征在于,所述计算机可读的存储介质包括存储的程序,其中,所述程序运行时执行所述权利要求1至10任一项中所述的方法。13.一种计算机程序产品,包括计算机程序/指令,其特征在于,该计算机程序/指令被处理器执行时实现权利要求1至10中任一项所述方法的步骤。14.一种电子设备,包括存储器和处理器,其特征在于,所述存储器中存储有计算机程
序,所述处理器被设置为通过所述计算机程序执行所述权利要求1至10任一项中所述的方法。
技术总结
本发明公开了一种基于表情图像的互动方法和装置、存储介质及电子设备。其中,该方法包括:在会话窗口内显示目标表情图像;在目标表情图像为携带有互动标签的表情图像的情况下,响应于对目标表情图像的图像显示区域执行的触发操作,确定触发操作的操作位置;在操作位置命中目标表情图像中目标交互素材对应的交互响应区域的情况下,在会话窗口内播放与目标交互素材匹配的表情动画。本发明解决了现有表情图像的展示方法的互动性较差的技术问题。情图像的展示方法的互动性较差的技术问题。情图像的展示方法的互动性较差的技术问题。
技术研发人员:沙莎 刘立强 肖仙敏 王才俊 钟婉予
受保护的技术使用者:腾讯科技(深圳)有限公司
技术研发日:2022.02.11
技术公布日:2023/8/24
版权声明
本文仅代表作者观点,不代表航空之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)
飞行汽车 https://www.autovtol.com/
上一篇:喷臂组件及清洗机的制作方法 下一篇:审批模板的配置方法、装置、设备及存储介质与流程
