新闻推荐方法、装置、电子设备及计算机可读存储介质与流程
未命名
07-27
阅读:166
评论:0
1.本公开涉及深度学习技术领域及数字医疗技术领域,具体而言,涉及一种新闻推荐方法、装置、电子设备及计算机可读存储介质。
背景技术:
2.随着信息技术和互联网的发展,人们逐渐从信息匮乏的时代走入了信息过载的时代。对于用户而言,想要通过浏览全部的新闻信息以搜寻其感兴趣的内容几乎是不可能的,因此,个性化新闻推荐技术应运而生,个性化新闻推荐技术在帮助缓解用户信息过载、提高用户新闻阅读体验等方面起到了至关重要的作用。
3.现有技术中,可以基于协同过滤的方法向用户推荐新闻,具体的,可以比较两个用户的历史新闻记录,若历史新闻记录相似,则可以将一个用户看过的新闻推荐给另一用户。然而,在此方法中,用于比较的历史新闻记录的时间跨度较大,而新闻具有较高的时效性,故推荐给另一用户的新闻在历史时期内会快速过时,从而降低了个性化新闻推荐结果的准确度,以及新闻文本的点击率。因此,亟需一种能够提供较精准的新闻推荐结果的方法。
技术实现要素:
4.针对上述情况,本技术实施例提供了一种新闻推荐方法、装置、电子设备及计算机可读存储介质,旨在解决提升个性化新闻推荐结果的准确度的问题。
5.第一方面,本技术实施例提供了一种新闻推荐方法,所述方法通过新闻推荐模型实现,所述新闻推荐模型包括第一卷积神经网络、第二卷积神经网络和全连接神经网络;
6.所述方法包括:
7.基于所述第一卷积神经网络,分别对候选新闻文本和用户的至少一个历史新闻文本进行文本编码处理,得到候选新闻向量和至少一个历史新闻向量;
8.基于所述第二卷积神经网络,对所述候选新闻向量和所述至少一个历史新闻向量进行相似性编码处理,得到用户特征向量;
9.基于所述全连接神经网络,根据所述候选新闻向量和所述用户特征向量,确定所述用户对所述候选新闻文本的感兴趣度,并根据所述感兴趣度确定是否向所述用户推荐所述候选新闻文本。
10.第二方面,本技术实施例还提供了一种新闻推荐装置,所述新闻推荐装置部署有新闻推荐模型,所述新闻推荐模型包括第一卷积神经网络、第二卷积神经网络和全连接神经网络;
11.所述装置包括:
12.文本编码单元,用于基于所述第一卷积神经网络,分别对候选新闻文本和用户的至少一个历史新闻文本进行文本编码处理,得到候选新闻向量和至少一个历史新闻向量;
13.相似性编码单元,用于基于所述第二卷积神经网络,对所述候选新闻向量和所述至少一个历史新闻向量进行相似性编码处理,得到用户特征向量;
14.预测单元,用于基于所述全连接神经网络,根据所述候选新闻向量和所述用户特征向量,确定所述用户对所述候选新闻文本的感兴趣度,并根据所述感兴趣度确定是否向所述用户推荐所述候选新闻文本。
15.第三方面,本技术实施例还提供了一种电子设备,包括:处理器;以及被安排成存储计算机可执行指令的存储器,可执行指令在被执行时使处理器执行上述新闻推荐方法的步骤。
16.第四方面,本技术实施例还提供了一种计算机可读存储介质,计算机可读存储介质存储一个或多个程序,一个或多个程序当被包括多个应用程序的电子设备执行时,使得电子设备执行上述新闻推荐方法的步骤。
17.本技术实施例采用的上述至少一个技术方案能够达到以下有益效果:
18.本技术通过构建一种新闻推荐模型,基于该模型的第一卷积神经网络,分别对候选新闻文本和用户的一个或多个历史新闻文本进行文本编码处理,得到候选新闻向量和若干个历史新闻向量,基于该模型的第二卷积神经网络,对候选新闻向量和各历史新闻向量进行相似性编码处理,得到用户特征向量,基于模型的全连接神经网络,根据候选新闻向量和用户特征向量,确定用户对候选新闻文本的感兴趣度,并根据感兴趣度确定是否向用户推荐候选新闻文本。本技术基于卷积神经网络,利用少量的、最新的历史新闻文本,即可以快速且准确地构建出用户的用户特征向量,进而以该用户特征向量为标准,给予用户较精准的个性化新闻推荐结果,从而大幅地提升推荐新闻文本的点击率,极大程度上提高了推荐新闻的时效性。
附图说明
19.此处所说明的附图用来提供对本技术的进一步理解,构成本技术的一部分,本技术的示意性实施例及其说明用于解释本技术,并不构成对本技术的不当限定。在附图中:
20.图1示出了根据本技术提供的一个实施例的新闻推荐方法的流程示意图;
21.图2示出了根据本技术提供的一个实施例的新闻推荐模型的结构示意图;
22.图3示出了根据本技术提供的又一个实施例的新闻推荐方法的流程示意图;
23.图4示出了根据本技术提供的一个实施例的新闻推荐装置的结构示意图;
24.图5示出了本技术实施例提供的一种电子设备的结构示意图。
具体实施方式
25.为使本技术的目的、技术方案和优点更加清楚,下面将结合本技术具体实施例及相应的附图对本技术技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本技术一部分实施例,而不是全部的实施例。基于本技术中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本技术保护的范围。
26.以下结合附图,详细说明本技术各实施例提供的技术方案。
27.个性化新闻推荐是实现个性化新闻服务的一项重要技术,可以减少用户信息过载情况的发生。现有技术中,可以基于协同过滤的方法向用户推荐新闻,具体的,可以比较用户a和用户b的历史新闻记录,若历史新闻记录相似,则可以将用户b看过的新闻推荐给用户a。然而,在此方法中,用于比较的历史新闻记录的时间跨度较大,而新闻具有较高的时效
性,故推荐给用户a的新闻在历史时期内会快速过时,从而降低了个性化新闻推荐结果的准确度,以及新闻文本的点击率。基于此,本发明提出了一种新闻推荐方法,该方法可以快速的通过卷积神经网络将待推荐新闻文本编码为新闻向量,并利用用户少量的历史新闻文本,得到用户特征向量,通过匹配新闻向量和用户特征向量获取推荐结果,提升了新闻推荐结果的准确度。
28.图1示出了根据本技术提供的一个实施例的新闻推荐方法的流程示意图,从图1可以看出,本技术至少包括步骤s101~步骤s103:
29.步骤s101:基于所述第一卷积神经网络,分别对候选新闻文本和用户的至少一个历史新闻文本进行文本编码处理,得到候选新闻向量和至少一个历史新闻向量。
30.本技术的新闻推荐方法是基于新闻推荐模型实现的,图2示出了根据本技术提供的一个实施例的新闻推荐模型的结构示意图,从图2可以看出,新闻推荐模型200包括第一卷积神经网络201、第二卷积神经网络202和全连接神经网络203,其中,第一卷积神经网络201和第二卷积神经网络202分别连接全连接神经网络203。
31.首先,基于第一卷积神经网络,分别对候选新闻文本和用户的至少一个历史新闻文本进行文本编码处理,得到候选新闻向量和至少一个历史新闻向量,上述多个向量的维度可以为但不限于64维。
32.在一些实施例中,可以设置历史新闻文本的数量为一个或者多个,这里以2个为例进行说明,基于第一卷积神经网络,分别对候选新闻文本和用户的2个历史新闻文本进行文本编码处理,得到候选新闻向量和2个历史新闻向量。在另一些实施例中,还可以设置历史新闻文本的数量为100个,基于第一卷积神经网络,分别对候选新闻文本和用户的100个历史新闻文本进行文本编码处理,得到候选新闻向量和100个历史新闻向量。
33.针对上述历史新闻文本的数量为2个的实施例,设置的历史新闻文本数量较少,虽然根据历史新闻向量得到的用户特征向量表征用户的喜好的效果稍差,但是速度快、节约算力、硬件资源占用少;上述历史新闻文本的数量为100个的实施例,设置的历史新闻文本数量较多,虽然增加了模型的计算时间,降低了计算效率,但是能够更好的表征用户的喜好,相对提高了决策结果准确度。本技术对历史新闻文本的数量不作限定,在本技术的另一些实施例中,为了提高新闻推荐模型的计算效率,以及提升新闻推荐结果的准确度,经过大量的实验,得到历史新闻文本的优选数量大小可以在2-100之间适中设置,比如可以设置为10个。
34.步骤s102:基于所述第二卷积神经网络,对所述候选新闻向量和所述至少一个历史新闻向量进行相似性编码处理,得到用户特征向量。
35.基于第二卷积神经网络,对候选新闻向量和至少一个历史新闻向量进行相似性编码处理,得到用户特征向量,本技术对用户特征向量的维数不作限定,如该向量的维度可以为但不限于64维。
36.其中,历史新闻向量可以包括1个或多个,下面对这2种情况分别进行示例性说明。
37.若历史新闻向量包括1个,在一些实施例中,可以基于第二卷积神经网络,对候选新闻向量和历史新闻向量进行点积处理,得到用户特征向量。在另一些实施例中,还可以利用相似度计算公式,比如欧式距离计算公式、余弦相似性计算公式、曼哈顿距离计算公式等,对候选新闻向量和历史新闻向量进行相似度计算,得到用户特征向量。
38.若历史新闻向量包括多个,比如,历史新闻向量1、历史新闻向量2。在一些实施例中,可以对候选新闻向量和历史新闻向量1进行点积处理,得到结果1,对候选新闻向量和历史新闻向量2进行点积处理,得到结果2,对结果1和结果2的和值求平均,得到用户特征向量。
39.然而,在实际的新闻场景中,每个用户都有自己的阅读偏好,而上述实施例平等对待历史新闻向量1、历史新闻向量2,因此,得到的用户特征向量针对性稍差,为了进一步提高预测结果的准确性,在本技术的一些实施例中,可以在第二卷积神经网络中引入注意力机制。具体的,在本技术的一些实施例中,在上述方法中,所述基于所述第二卷积神经网络,对所述候选新闻向量和多个历史新闻向量进行相似性编码处理,得到用户特征向量,包括:确定所述候选新闻向量与各所述历史新闻向量的点积,得到所述候选新闻向量与各所述历史新闻向量的初始相似度;对各所述初始相似度进行归一化处理,得到各所述初始相似度对应的权重;确定各所述初始相似度与对应的权重的乘积,得到所述候选新闻向量与各所述历史新闻向量的相似度;确定各所述相似度的累计值,得到所述用户特征向量。
40.可以确定候选新闻向量与各历史新闻向量的点积,得到候选新闻向量与各历史新闻向量的初始相似度。在一些实施例中,可以根据下述公式(1)确定上述各初始相似度:
41.′
42.αi=e*e
i 式(1);
43.其中,e为候选新闻向量,ei为第i个历史新闻向量。
44.具体的,若历史新闻向量包括历史新闻向量1、历史新闻向量2和历史新闻向量3,则可以将候选新闻向量和历史新闻向量1代入上述公式(1),得到候选新闻向量与历史新闻向量1的初始相似度1;将候选新闻向量和历史新闻向量2代入上述公式(1),得到候选新闻向量与历史新闻向量2的初始相似度2;以此类推,可以得到初始相似度3。
45.然后,对各初始相似度进行归一化处理,得到各初始相似度对应的权重。在一些实施例中,可以根据下述公式(2)确定权重:
[0046][0047]
其中,m为历史新闻向量的总数量。
[0048]
具体的,为了得到初始相似度1对应的权重,可以将初始相似度1、初始相似度2和初始相似度3分别带入exp()函数,得到初始相似度11、初始相似度21和初始相似度31,将初始相似度21和初始相似度31相加,得到相似度和值,可以将初始相似度11与相似度和值的比值,作为初始相似度1对应的权重1。
[0049]
最后,确定各初始相似度与对应的权重的乘积,得到候选新闻向量与各历史新闻向量的相似度;确定各相似度的累计值,得到用户特征向量。
[0050][0051]
具体的,根据上述公式(2)可以得到权重1、权重2和权重3,则可以分别得到权重1与历史新闻向量1的乘积1、权重2与历史新闻向量2的乘积2、权重3与历史新闻向量3的乘积
3,将乘积1、乘积2和乘积3相加,可以得到用户特征向量。
[0052]
从上述实施例可以看出,通过利用加权求和的注意力机制,将候选新闻向量和用户的多个历史新闻向量相融合,可以更加准确地确定用户特征向量,有效的捕获用户的兴趣变化、从而较为准确地识别用户的兴趣偏好,提高用户体验感,进而提高最终的点击率。
[0053]
步骤s103:基于所述全连接神经网络,根据所述候选新闻向量和所述用户特征向量,确定所述用户对所述候选新闻文本的感兴趣度,并根据所述感兴趣度确定是否向所述用户推荐所述候选新闻文本。
[0054]
在得到候选新闻向量和用户特征向量之后,可以将候选新闻向量和用户特征向量输入至全连接神经网络,比如,前馈神经网络,得到用户对候选新闻文本的感兴趣度,并根据感兴趣度确定是否向用户推荐候选新闻文本。
[0055]
在本技术的一些实施例中,在上述方法中,所述基于所述全连接神经网络,根据所述候选新闻向量和所述用户特征向量,确定所述用户对所述候选新闻文本的感兴趣度,并根据所述感兴趣度确定是否向所述用户推荐所述候选新闻文本,包括:对所述候选新闻向量和所述用户特征向量进行融合,得到融合向量;将所述融合向量输入至所述全连接神经网络,得到所述用户对所述候选新闻文本的感兴趣度;若所述感兴趣度大于或等于预设阈值,则确定向所述用户推荐所述候选新闻文本;若所述感兴趣度小于所述预设阈值,则确定不向所述用户推荐所述候选新闻文本。
[0056]
可以对候选新闻向量和用户特征向量进行融合,得到融合向量;将融合向量输入至全连接神经网络,得到用户对候选新闻文本的感兴趣度;若感兴趣度大于或等于预设阈值,则确定向用户推荐候选新闻文本;若感兴趣度小于预设阈值,则确定不向用户推荐候选新闻文本。
[0057]
在一些实施例中,可以将候选新闻向量和用户特征向量进行拼接,得到上述融合向量。在另一些实施例中,还可以将候选新闻向量和用户特征向量按点逐位相加,得到上述融合向量。
[0058]
然后,将该融合向量输入至全连接神经网络中,得到用户对候选新闻文本的感兴趣度。如设预设阈值为80,若感兴趣度大于或等于80,则表明该用户对候选新闻文本的感兴趣程度比较大,可以向该用户推荐候选新闻文本;若感兴趣度小于80,则表明该用户对候选新闻文本的感兴趣程度比较小,可以不向该用户推荐候选新闻文本。其中,预设阈值可以根据实际需要进行设置,此处仅为示例性说明。
[0059]
从图1所示的方法可以看出,本技术通过构建一种新闻推荐模型,基于该模型的第一卷积神经网络,分别对候选新闻文本和用户的一个或多个历史新闻文本进行文本编码处理,得到候选新闻向量和若干个历史新闻向量,基于该模型的第二卷积神经网络,对候选新闻向量和各历史新闻向量进行相似性编码处理,得到用户特征向量,基于模型的全连接神经网络,根据候选新闻向量和用户特征向量,确定用户对候选新闻文本的感兴趣度,并根据感兴趣度确定是否向用户推荐候选新闻文本。上述过程克服了新闻的时效性带来的问题,基于卷积神经网络,利用少量的、最新的历史新闻文本,即可以快速且准确地构建出用户的用户特征向量,进而以该用户特征向量为标准,给予用户较精准的个性化新闻推荐结果,从而大幅地提升推荐新闻文本的点击率。
[0060]
在本技术的一些实施例中,在上述方法中,所述候选新闻文本包括多个;所述方法
还包括:将多个候选新闻文本分别与所述用户的至少一个历史新闻文本输入至所述新闻推荐模型,得到多个感兴趣度;按照所述多个感兴趣度的大小对所述多个候选新闻文本进行降序排序,得到排序结果;根据所述排序结果,确定所述用户的新闻推荐列表。
[0061]
将多个候选新闻文本分别与用户的至少一个历史新闻文本输入至新闻推荐模型,得到多个感兴趣度;按照多个感兴趣度的大小对多个候选新闻文本进行降序排序,得到排序结果;根据排序结果,确定用户的新闻推荐列表。
[0062]
在一些实施例中,若有候选新闻文本1、候选新闻文本2、候选新闻文本3和候选新闻文本4,则可以先将用户的至少一个历史新闻文本输入至第一卷积神经网络,得到多个历史新闻向量。然后,将候选新闻文本1输入至第一卷积神经网络,得到候选新闻向量1,将候选新闻向量1和上述多个历史新闻向量输入至第二卷积神经网络,得到用户特征向量1,基于全连接神经网络,根据候选新闻向量1和用户特征向量1,确定用户对候选新闻文本1的感兴趣度1;将候选新闻文本2输入至第一卷积神经网络,得到候选新闻向量2,将候选新闻向量2和上述多个历史新闻向量输入至第二卷积神经网络,得到用户特征向量2,基于全连接神经网络,根据候选新闻向量2和用户特征向量2,确定用户对候选新闻文本2的感兴趣度2;以此类推,可以得到候选新闻文本3对应的感兴趣度3和候选新闻文本4对应的感兴趣度4。
[0063]
若感兴趣度1的值为90、感兴趣度2的值为95、感兴趣度3的值为97、感兴趣度4的值为89,则按照多个感兴趣度的大小对多个候选新闻文本进行降序排序,可以得到排序结果:候选新闻文本3、候选新闻文本2、候选新闻文本1、候选新闻文本4,若设置用户的新闻推荐列表包括3个推荐新闻,则可以确定候选新闻文本3、候选新闻文本2、候选新闻文本1构成该用户的新闻推荐列表。
[0064]
在数字医疗场景下,可以向用户推荐医疗领域的新闻,医疗领域的新闻可以分为若干类,比如,可以分为医疗器械、医药药品、生物制品、保健品及营养食品、体检、诊疗、医疗保险、陪诊、海外医疗等。可以将多个与医疗相关的候选新闻文本分别与用户的至少一个历史新闻文本输入至新闻推荐模型,得到多个感兴趣度;按照多个感兴趣度的大小对多个候选新闻文本进行降序排序,得到排序结果;根据排序结果,确定用户的新闻推荐列表。
[0065]
在本技术的一些实施例中,在上述方法中,所述新闻推荐模型是根据下述方法训练得到的:构建训练样本集;其中,所述训练样本集包含多组用户数据和对应的样本标签,其中,所述用户数据为含有多条历史推荐新闻文本的历史推荐新闻列表,所述样本标签为用户是否点击了对应的历史推荐新闻;获取新闻推荐初始模型,所述模型包括第一卷积神经网络、第二卷积神经网络和全连接神经网络,其中,所述第一卷积神经网络和所述第二卷积神经网络分别连接所述全连接神经网络;将所述训练样本集输入至所述新闻推荐初始模型,得到多个预测值;基于所述多个预测值和样本标签,根据逻辑回归损失函数,对所述新闻推荐初始模型进行多次训练,得到新闻推荐模型。
[0066]
首先,构建训练样本集,其中,训练样本集包含多组用户数据和对应的样本标签,其中,用户数据为含有多条历史推荐新闻文本的历史推荐新闻列表,样本标签为用户是否点击了对应的历史推荐新闻。
[0067]
具体的,在本技术的一些实施例中,上述训练样本集可以表述为d={(u1,r1),
…
,(ui,ri),
…
,(un,rn),},ri=[(x
i1
,y
i1
),
…
,(x
ij
,y
ij
)
…
,(x
im
,y
im
)],其中,n表示训练样本集d中用户的数量,ui表示训练样本集d中第i个用户,ri表示用户ui的历史推荐新闻列表,即用
ui户对应的用户数据,m表示历史推荐新闻列表中的新闻数量,x
ij
表示用户ui的第j条历史推荐新闻文本。y
ij
为样本标签,y
ij
为1表示用户ui点击过第j条历史推荐新闻文本x
ij
;y
ij
为1表示用户ui没有点击过第j条历史推荐新闻文本x
ij
。
[0068]
实施时,历史推荐新闻文本通常为300字的新闻简介,为了便于新闻推荐模型的处理,可以先对上述新闻简介进行文本预处理。在本技术的一些实施例中,在上述方法中,所述构建训练样本集,包括:获取初始训练样本集;删除所述初始训练样本集中各历史推荐新闻文本中的无效字符,其中,所述无效字符包括:书名号、重复标点符号、空白符号、以及链接符号;对删除后的所述各历史推荐新闻文本进行分词处理,得到所述训练样本集。
[0069]
可以选取各个用户的最新的10个历史推荐新闻文本,作为初始训练样本集的训练语料。由于获取到的各历史推荐新闻文本中存在大量的无用字符,比如,书名号、作为修饰的重复标点符号、空白符号、链接符号等,故需先将这些无用字符过滤掉。
[0070]
在删除初始训练样本集中各历史推荐新闻文本中的无效字符之后,可以对删除后的各历史推荐新闻文本进行分词处理,得到最终的训练样本集。具体的,在一些实施例中,可以利用分词工具,比如盘古分词、yaha分词、jieba分词、清华thulac等工具,对各历史推荐新闻文本进行分词处理,得到处理后的各历史推荐新闻文本,进而得到上述训练样本集。这里,历史推荐新闻文本x
ij
可以表示为x
ij
={t1,2,
…
,q…
,t
l
},其中,tq表示x
ij
中的第q个词(token),l表示x
ij
中token的个数。
[0071]
然后,获取新闻推荐初始模型,参见图2所示,具体的,在一些实施例中,可以对图2中的新闻推荐模型的各个参数进行初始化处理,得到新闻推荐初始化模型。
[0072]
将训练样本集输入至新闻推荐初始模型,得到多个预测值;基于多个预测值和样本标签,根据逻辑回归损失函数,对新闻推荐初始模型进行多次训练,得到新闻推荐模型。
[0073]
具体的,在一些实施例中,若设训练样本集包括:用户数据1和样本标签1、用户数据2和样本标签2、用户数据2和样本标签2、
…
、用户数据n和样本标签n,其中,n为训练样本集中的样本数量。可以先将用户数据1输入至新闻推荐初始模型,得到预测值1,根据逻辑回归损失函数,比如交叉熵损失函数等,根据预测值1和样本标签1,对新闻推荐初始模型中的参数进行更新,得到新闻推荐模型1。
[0074]
然后再将用户数据2输入至新闻推荐模型1,得到预测值2,基于交叉熵损失函数,根据预测值2和样本标签2,对新闻推荐模型1中的参数进行更新,得到新闻推荐模型2。以此类推,将用户数据x输入至新闻推荐模型x-1中,得到最终的新闻推荐模型,其中,x为3、4、5、
…
、n。
[0075]
在另一些实施例中,还可以设置损失阈值,将预测值和对应的样本标签代入逻辑回归损失函数中,得到损失值,若损失值小于该损失阈值,则完成模型的训练,得到最终的新闻推荐模型。
[0076]
图3示出了根据本技术提供的又一个实施例的新闻推荐方法的流程示意图,由图3可知,本实施例的新闻推荐方法包括以下步骤s301~步骤s316:
[0077]
步骤s301:获取初始训练样本集。
[0078]
步骤s302:删除初始训练样本集中各历史推荐新闻文本中的无效字符。
[0079]
步骤s303:对删除后的各历史推荐新闻文本进行分词处理,得到训练样本集。
[0080]
步骤s304:获取新闻推荐初始模型。
[0081]
步骤s305:将训练样本集输入至新闻推荐初始模型,得到多个预测值。
[0082]
步骤s306:基于多个预测值和样本标签,根据逻辑回归损失函数,对新闻推荐初始模型进行多次训练,得到新闻推荐模型。
[0083]
步骤s307:基于模型的第一卷积神经网络,分别对候选新闻文本和用户的至少一个历史新闻文本进行文本编码处理,得到候选新闻向量和至少一个历史新闻向量。
[0084]
步骤s308:基于注意力机制和模型的第二卷积神经网络,确定候选新闻向量与各历史新闻向量的点积,得到候选新闻向量与各历史新闻向量的初始相似度。
[0085]
步骤s309:对各初始相似度进行归一化处理,得到各初始相似度对应的权重。
[0086]
步骤s310:确定各初始相似度与对应的权重的乘积,得到候选新闻向量与各历史新闻向量的相似度。
[0087]
步骤s311:确定各相似度的累计值,得到用户特征向量。
[0088]
步骤s312:对候选新闻向量和用户特征向量进行融合,得到融合向量。
[0089]
步骤s313:将融合向量输入至全连接神经网络,得到用户对候选新闻文本的感兴趣度。
[0090]
步骤s314:判断感兴趣度是否大于或等于小于预设阈值。若是,则转步骤s315;若否,则转步骤s316。
[0091]
步骤s315:确定向用户推荐候选新闻文本。
[0092]
步骤s316:确定不向用户推荐候选新闻文本。在另一些实施例中,若候选新闻文本有多个,则可以将多个候选新闻文本分别与用户的至少一个历史新闻文本输入至新闻推荐模型,得到多个感兴趣度;按照多个感兴趣度的大小对多个候选新闻文本进行降序排序,得到排序结果;根据排序结果,确定用户的新闻推荐列表。
[0093]
图4示出了根据本技术提供的一个实施例的新闻推荐装置的结构示意图,所述新闻推荐装置部署有新闻推荐模型,所述新闻推荐模型包括第一卷积神经网络、第二卷积神经网络和全连接神经网络;所述装置400包括文本编码单元401、相似性编码单元402、确定单元403,其中:
[0094]
文本编码单元401,用于基于所述第一卷积神经网络,分别对候选新闻文本和用户的至少一个历史新闻文本进行文本编码处理,得到候选新闻向量和至少一个历史新闻向量;
[0095]
相似性编码单元402,用于基于所述第二卷积神经网络,对所述候选新闻向量和所述至少一个历史新闻向量进行相似性编码处理,得到用户特征向量;
[0096]
预测单元403,用于基于所述全连接神经网络,根据所述候选新闻向量和所述用户特征向量,确定所述用户对所述候选新闻文本的感兴趣度,并根据所述感兴趣度确定是否向所述用户推荐所述候选新闻文本。
[0097]
在本技术的一些实施例中,在上述装置中,所述历史新闻向量包括多个;所述相似性编码单元402,用于确定所述候选新闻向量与各所述历史新闻向量的点积,得到所述候选新闻向量与各所述历史新闻向量的初始相似度;对各所述初始相似度进行归一化处理,得到各所述初始相似度对应的权重;确定各所述初始相似度与对应的权重的乘积,得到所述候选新闻向量与各所述历史新闻向量的相似度;确定各所述相似度的累计值,得到所述用户特征向量。
[0098]
在本技术的一些实施例中,在上述装置中,所述预测单元403,用于对所述候选新闻向量和所述用户特征向量进行融合,得到融合向量;将所述融合向量输入至所述全连接神经网络,得到所述用户对所述候选新闻文本的感兴趣度;若所述感兴趣度大于或等于预设阈值,则确定向所述用户推荐所述候选新闻文本;若所述感兴趣度小于所述预设阈值,则确定不向所述用户推荐所述候选新闻文本。
[0099]
在本技术的一些实施例中,所述候选新闻文本包括多个;上述装置还包括列表生成单元,所述列表生成单元,用于将多个候选新闻文本分别与所述用户的至少一个历史新闻文本输入至所述新闻推荐模型,得到多个感兴趣度;按照所述多个感兴趣度的大小对所述多个候选新闻文本进行降序排序,得到排序结果;根据所述排序结果,确定所述用户的新闻推荐列表。
[0100]
在本技术的一些实施例中,上述装置还包括模型训练单元,模型训练单元,用于构建训练样本集;其中,所述训练样本集包含多组用户数据和对应的样本标签,其中,所述用户数据为含有多条历史推荐新闻文本的历史推荐新闻列表,所述样本标签为用户是否点击了对应的历史推荐新闻;获取新闻推荐初始模型,所述模型包括第一卷积神经网络、第二卷积神经网络和全连接神经网络,其中,所述第一卷积神经网络和所述第二卷积神经网络分别连接所述全连接神经网络;将所述训练样本集输入至所述新闻推荐初始模型,得到多个预测值;基于所述多个预测值和样本标签,根据逻辑回归损失函数,对所述新闻推荐初始模型进行多次训练,得到新闻推荐模型。
[0101]
在本技术的一些实施例中,在上述装置中,模型训练单元,用于获取初始训练样本集;删除所述初始训练样本集中各历史推荐新闻文本中的无效字符,其中,所述无效字符包括:书名号、重复标点符号、空白符号、以及链接符号;对删除后的所述各历史推荐新闻文本进行分词处理,得到所述训练样本集。
[0102]
在本技术的一些实施例中,在上述装置中,所述第二卷积神经网络是基于注意力机制形成的。
[0103]
需要说明的是,上述任一的新闻推荐装置可一一对应实现前述的新闻推荐方法,这里不再赘述。
[0104]
图5示出了本技术实施例提供的一种电子设备的结构示意图。如图5所示,在硬件层面,该电子设备包括处理器,可选地还包括内部总线、网络接口、存储器。其中,存储器可能包含内存,例如高速随机存取存储器(random-access memory,ram),也可能还包括非易失性存储器(non-volatile memory),例如至少1个磁盘存储器等。当然,该电子设备还可能包括其他业务所需要的硬件。
[0105]
处理器、网络接口和存储器可以通过内部总线相互连接,该内部总线可以是isa(industry standard architecture,工业标准体系结构)总线、pci(peripheral component interconnect,外设部件互连标准)总线或eisa(extended industry standard architecture,扩展工业标准结构)总线等。总线可以分为地址总线、数据总线、控制总线等。为便于表示,图5中仅用一个双向箭头表示,但并不表示仅有一根总线或一种类型的总线。
[0106]
存储器,用于存放程序。具体地,程序可以包括程序代码,程序代码包括计算机操作指令。存储器可以包括内存和非易失性存储器,并向处理器提供指令和数据。
[0107]
处理器从非易失性存储器中读取对应的计算机程序到内存中然后运行,在逻辑层面上形成新闻推荐装置。处理器,执行存储器所存放的程序,并具体用于执行前述方法。
[0108]
处理器可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器可以是通用处理器,包括中央处理器(central processing unit,cpu)、网络处理器(network processor,np)等;还可以是数字信号处理器(digital signal processor,dsp)、专用集成电路(application specific integrated circuit,asic)、现场可编程门阵列(field-programmable gate array,fpga)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本技术实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本技术实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器,处理器读取存储器中的信息,结合其硬件完成上述方法的步骤。
[0109]
该电子设备可执行本技术多个实施例提供的新闻推荐方法,并实现成新闻推荐装置在图4所示实施例的功能,本技术实施例在此不再赘述。
[0110]
本技术实施例还提出了一种计算机可读存储介质,该计算机可读存储介质存储一个或多个程序,该一个或多个程序包括指令,该指令当被包括多个应用程序的电子设备执行时,能够使该电子设备执行本技术多个实施例提供的新闻推荐方法。
[0111]
本领域内的技术人员应明白,本技术的实施例可提供为方法、系统、或计算机程序产品。因此,本技术可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本技术可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、cd-rom、光学存储器等)上实施的计算机程序产品的形式。
[0112]
本技术是参照根据本技术实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
[0113]
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
[0114]
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
[0115]
在一个典型的配置中,计算设备包括一个或多个处理器(cpu)、输入/输出接口、网
络接口和内存。
[0116]
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(ram)和/或非易失性内存等形式,如只读存储器(rom)或闪存(flash ram)。内存是计算机可读介质的示例。
[0117]
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(pram)、静态随机存取存储器(sram)、动态随机存取存储器(dram)、其他类型的随机存取存储器(ram)、只读存储器(rom)、电可擦除可编程只读存储器(eeprom)、快闪记忆体或其他内存技术、只读光盘只读存储器(cd-rom)、数字多功能光盘(dvd)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
[0118]
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个
……”
限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的同一要素。
[0119]
本领域技术人员应明白,本技术的实施例可提供为方法、系统或计算机程序产品。因此,本技术可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本技术可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、cd-rom、光学存储器等)上实施的计算机程序产品的形式。
[0120]
以上仅为本技术的实施例而已,并不用于限制本技术。对于本领域技术人员来说,本技术可以有各种更改和变化。凡在本技术的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本技术的权利要求范围之内。
技术特征:
1.一种新闻推荐方法,其特征在于,所述方法通过新闻推荐模型实现,所述新闻推荐模型包括第一卷积神经网络、第二卷积神经网络和全连接神经网络;所述方法包括:基于所述第一卷积神经网络,分别对候选新闻文本和用户的至少一个历史新闻文本进行文本编码处理,得到候选新闻向量和至少一个历史新闻向量;基于所述第二卷积神经网络,对所述候选新闻向量和所述至少一个历史新闻向量进行相似性编码处理,得到用户特征向量;基于所述全连接神经网络,根据所述候选新闻向量和所述用户特征向量,确定所述用户对所述候选新闻文本的感兴趣度,并根据所述感兴趣度确定是否向所述用户推荐所述候选新闻文本。2.根据权利要求1所述的方法,其特征在于,所述历史新闻向量包括多个;所述基于所述第二卷积神经网络,对所述候选新闻向量和所述历史新闻向量进行相似性编码处理,得到用户特征向量,包括:确定所述候选新闻向量与各所述历史新闻向量的点积,得到所述候选新闻向量与各所述历史新闻向量的初始相似度;对各所述初始相似度进行归一化处理,得到各所述初始相似度对应的权重;确定各所述初始相似度与对应的权重的乘积,得到所述候选新闻向量与各所述历史新闻向量的相似度;确定各所述相似度的累计值,得到所述用户特征向量。3.根据权利要求1所述的方法,其特征在于,所述基于所述全连接神经网络,根据所述候选新闻向量和所述用户特征向量,确定所述用户对所述候选新闻文本的感兴趣度,并根据所述感兴趣度确定是否向所述用户推荐所述候选新闻文本,包括:对所述候选新闻向量和所述用户特征向量进行融合,得到融合向量;将所述融合向量输入至所述全连接神经网络,得到所述用户对所述候选新闻文本的感兴趣度;若所述感兴趣度大于或等于预设阈值,则确定向所述用户推荐所述候选新闻文本;若所述感兴趣度小于所述预设阈值,则确定不向所述用户推荐所述候选新闻文本。4.根据权利要求1所述的方法,其特征在于,所述候选新闻文本包括多个;所述方法还包括:将多个候选新闻文本分别与所述用户的至少一个历史新闻文本输入至所述新闻推荐模型,得到多个感兴趣度;按照所述多个感兴趣度的大小对所述多个候选新闻文本进行降序排序,得到排序结果;根据所述排序结果,确定所述用户的新闻推荐列表。5.根据权利要求1所述的方法,其特征在于,所述新闻推荐模型是根据下述方法训练得到的:构建训练样本集;其中,所述训练样本集包含多组用户数据和对应的样本标签,其中,所述用户数据为含有多条历史推荐新闻文本的历史推荐新闻列表,所述样本标签为用户是否点击了对应的历史推荐新闻;
获取新闻推荐初始模型,所述模型包括第一卷积神经网络、第二卷积神经网络和全连接神经网络,其中,所述第一卷积神经网络和所述第二卷积神经网络分别连接所述全连接神经网络;将所述训练样本集输入至所述新闻推荐初始模型,得到多个预测值;基于所述多个预测值和样本标签,根据逻辑回归损失函数,对所述新闻推荐初始模型进行多次训练,得到新闻推荐模型。6.根据权利要求5所述的方法,其特征在于,所述构建训练样本集,包括:获取初始训练样本集;删除所述初始训练样本集中各历史推荐新闻文本中的无效字符,其中,所述无效字符包括:书名号、重复标点符号、空白符号、以及链接符号;对删除后的所述各历史推荐新闻文本进行分词处理,得到所述训练样本集。7.根据权利要求1~6任一所述的方法,其特征在于,所述第二卷积神经网络是基于注意力机制形成的。8.一种新闻推荐装置,其特征在于,所述新闻推荐装置部署有新闻推荐模型,所述新闻推荐模型包括第一卷积神经网络、第二卷积神经网络和全连接神经网络;所述装置包括:文本编码单元,用于基于所述第一卷积神经网络,分别对候选新闻文本和用户的至少一个历史新闻文本进行文本编码处理,得到候选新闻向量和至少一个历史新闻向量;相似性编码单元,用于基于所述第二卷积神经网络,对所述候选新闻向量和所述至少一个历史新闻向量进行相似性编码处理,得到用户特征向量;预测单元,用于基于所述全连接神经网络,根据所述候选新闻向量和所述用户特征向量,确定所述用户对所述候选新闻文本的感兴趣度,并根据所述感兴趣度确定是否向所述用户推荐所述候选新闻文本。9.一种电子设备,包括:处理器;以及被安排成存储计算机可执行指令的存储器,所述可执行指令在被执行时使所述处理器执行所述权利要求1~7任一所述的新闻推荐方法的步骤。10.一种计算机可读存储介质,所述计算机可读存储介质存储一个或多个程序,所述一个或多个程序当被包括多个应用程序的电子设备执行时,使得所述电子设备执行所述权利要求1~7任一所述的新闻推荐方法的步骤。
技术总结
本申请涉及深度学习技术领域及数字医疗技术领域,公开了一种新闻推荐方法、装置、电子设备及计算机可读存储介质,其方法包括:基于第一卷积神经网络,分别对候选新闻文本和用户的至少一个历史新闻文本进行文本编码处理,得到候选新闻向量和至少一个历史新闻向量;基于第二卷积神经网络,对候选新闻向量和至少一个历史新闻向量进行相似性编码处理,得到用户特征向量;基于全连接神经网络,根据候选新闻向量和用户特征向量,确定是否向用户推荐候选新闻文本。本申请可以快速的通过卷积神经网络将待推荐新闻文本编码为新闻向量,利用少量的历史新闻文本得到用户特征向量,通过匹配新闻向量和用户特征向量确定推荐结果,提升了新闻推荐结果的准确度。荐结果的准确度。荐结果的准确度。
技术研发人员:陈浩
受保护的技术使用者:平安科技(深圳)有限公司
技术研发日:2023.04.17
技术公布日:2023/7/25
版权声明
本文仅代表作者观点,不代表航空之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)
飞行汽车 https://www.autovtol.com/
