一种基于深度学习的抗屏摄水印嵌入和提取方法
未命名
07-27
阅读:172
评论:0
1.本发明涉及数字水印技术领域,具体涉及一种基于深度学习的抗屏摄水印嵌入和提取方法。
背景技术:
2.近年来,随着互联网的发展以及数字移动设备的普及,我们生活在一个信息爆炸的时代,人们已经习惯于出门携带手机作为数据处理的便携终端。借助智能手机的摄像功能,扫码付款、扫码点单、物品识别、物流信息查询等与数字图像处理技术息息相关的应用已经融入我们的生活中,成为不可分割的一部分。另一方面,由于数字媒体的获取变得几乎没有成本,这就导致数字媒体非法获得、盗取和篡改也愈演愈烈,不仅给媒体作品的作者带来困扰,有时甚至会影响国家信誉和安全,因此迫切的需要版权保护技术。
3.日常生活中常见的图像重获手段,包括对打印的图像进行扫描、对打印或者显示在显示器上的图像进行拍摄。而当互联网中的图像经过这种重获过程,会引入多种复杂噪声,图像中的水印信息往往会丢失,从而导致无法正确提取信息。因此如何设计能够抵抗现实世界中的复杂噪声的鲁棒性水印成为数字水印技术领域的一大难点。
4.近年来,深度卷积神经网络在图像处理和图像分类领域取得了巨大进步,亦有学者提出在数字图像信息隐藏领域应用深度卷积神经网络,取得了优异的成果,与传统方法相比,它具有更强的鲁棒性可以抵抗多种噪声同时具有不错的图像质量。但现有技术中包含以下问题:
5.1、误码率高,经过噪声攻击后很难找到水印位置,无法确认水印信息是否错误以及错误的位置,进而无法准确的获取水印信息;
6.2、图像经过放缩或剪切等一些物理攻击攻击后无法有效获取到水印信息;
7.3、水印提取网络利用含噪声的水印图像进行训练,在提取水印信息过程中无法去除噪声,导致信息提取存在较大误差,同时存在信号产生严重失真使嵌入的信号无法存活的情况,造成信息完全没办法提取;
8.4、未曾考虑数字水印对于原始图片在视觉上的影响,导致用户对带水印图像的观感体验不好。
技术实现要素:
9.针对现有技术中的上述不足,本发明提供的一种基于深度学习的抗屏摄水印嵌入和提取方法,能保证水印信息存活,增大提取水印信息的准确率并在遭受缩放或剪切等物理攻击后依然能获取到水印信息。
10.为了达到上述发明目的,本发明采用的技术方案为:
11.一种基于深度学习的抗屏摄水印嵌入和提取方法,包括以下步骤:
12.s1、根据初始图像生成抗屏摄水印图像;
13.s2、构建噪声网络,并将步骤s1中的抗屏摄水印图像输入至噪声网络,得到含噪声
的抗屏摄水印图像;
14.s3、构建抗屏摄水印提取网络,并根据步骤s1中的抗屏摄水印图像和步骤s2中含噪声的抗屏摄水印图像训练抗屏摄水印提取网络;
15.s4、利用训练后的抗屏摄水印提取网络提取含噪声的抗屏摄水印图像的水印。
16.进一步地,步骤s1包括以下分步骤:
17.s11、根据初始图像获取初始水印信息;
18.s12、根据分步骤s11中的初始水印信息,并利用ascii码得到水印矩阵;
19.s13、建立水印算法模型,并利用水印算法模型将分步骤s12中的水印矩阵转变为水印模板;
20.s14、根据分步骤s13中的水印模板生成定位模板;
21.s15、将分步骤s13中的水印模板嵌入至初始图像中的蓝色通道,并将分步骤s14中的定位模板嵌入至初始图像中的红色通道,生成抗屏摄水印图像。
22.进一步地,步骤s12包括以下分步骤:
23.s121、通过ascii码将初始水印信息转变为比特序列;
24.s122、确定水印矩阵的列长度;
25.s123、将分步骤s121中的比特序列按列进行排序,根据分步骤s122中的列长度进行列切换,并将最后一列的空位填充为比特0,得到水印矩阵。
26.进一步地,步骤s13包括以下分步骤:
27.s131、确定水印模板准则,并根据水印模板准则生成第一比特模板和第二比特模板;
28.s132、根据分步骤s131中的第一比特模板和第二比特模板,建立水印算法模型,表示为:
[0029][0030]
其中:为第x行,第y列水印模板的值,m0为第一比特模板,w
x,y
为第x行第y列水印矩阵的值,m1为第二比特模板;
[0031]
s133、利用分步骤s132中的水印算法模型将步骤s12中的水印矩阵转变为水印模板。
[0032]
进一步地,步骤s131包括以下分步骤:
[0033]
s1311、根据斜向效应确定斜向纹理准则;
[0034]
s1312、根据图像压缩特性确定低频分量准则;
[0035]
s1313、根据降采样传输特性确定连通域准则;
[0036]
s1314、根据人眼视觉特性确定避免颜色跳变准则;
[0037]
s1315、根据分步骤1311中的斜向纹理准则、分步骤1312中的低频分量准则、分步骤1313中的连通域准则和分步骤1314中的避免颜色跳变准则,生成第一比特模板和第二比特模板。
[0038]
进一步地,步骤s14包括以下分步骤:
[0039]
s141、根据水印模板生成高斯噪声图像;
[0040]
s142、对分步骤s141中的高斯噪声图像进行三次对称翻转,生成定位模板,表示为:
[0041][0042]
其中:为第x行,第y列定位模板的值,为第x行,第y列高斯噪声图像的值,为第x行,第y列高斯噪声图像的值经第一次对称翻转后的值,n为总的行数与列数,为第x行,第y列高斯噪声图像的值经第二次对称翻转后的值,为第x行,第y列高斯噪声图像的值经第三次对称翻转后的值。
[0043]
进一步地,步骤s2包括以下分步骤:
[0044]
s21、构建包括中值滤波、高斯滤波、模拟屏摄、jepg压缩和高斯加噪的噪声网络;
[0045]
s22、将步骤s1中的抗屏摄水印图像输入至分步骤s21中的噪声网络,分别得到中值滤波后的抗屏摄水印图像、高斯滤波后的抗屏摄水印图像、模拟屏摄后的抗屏摄水印图像、jepg压缩后的抗屏摄水印图像和高斯加噪后的抗屏摄水印图像。
[0046]
进一步地,步骤s3包括以下分步骤:
[0047]
s31、根据步骤s1中的抗屏摄水印图像和步骤s2中含噪声的抗屏摄水印图像制作包括第一标签数据、第二标签数据和噪声图像水印数据的数据集;
[0048]
s32、构建包括增强子网络和分类子网络的抗屏摄水印提取网络;
[0049]
s33、根据分步骤s31中的数据集,并利用联合损失函数更新分步骤s32中抗屏摄水印提取网络的内部参数,表示为:
[0050]
loss=λ*loss1+loss2
[0051]
其中:loss为联合损失函数,λ为平衡参数的因子,loss1=mse(data,label_1),mse(data,label_1)为使用mseloss函数来衡量噪声图像水印数据data和第一标签数据label_1之间的误差,loss2=ce(output1,label_2),ce(output1,label_2)为使用crossentropyloss函数来衡量增强子网络输出数据output1和第二标签数据label_2之间的误差。
[0052]
进一步地,在分步骤s32中,增强子网络的增强过程包括以下步骤:
[0053]
a1、抗屏摄水印图像中红色通道中的定位模板进行水印信息的定位;
[0054]
a2、利用卷积块将水印信息定位后的抗屏摄水印图像进行下采样得到特征单元;
[0055]
a3、利用全局降采样得到增强特征子单元;
[0056]
a4、将a3中的增强特征子单元与a2中的特征单元进行连接,得到增强特征单元;
[0057]
a5、利用卷积块将a4中的增强特征单元进行映射,得到增强后的抗屏摄水印图像。
[0058]
进一步地,在分步骤s32中,分类子网络的分类过程包括以下步骤:
[0059]
b1、利用残差单元对a4中增强后的抗屏摄水印图像进行比特模板预测,得到预测
水印模板;
[0060]
b2、根据b1中的预测水印模板,提取出嵌入在抗屏摄水印图像中的水印信息。
[0061]
本发明的有益效果为:
[0062]
(1)本发明通过在抗屏摄水印图像中嵌入了水印模板和定位模板,能够有效嵌入抗屏摄水印,使得在图像遭受缩放或剪切等物理攻击后依然能获取到水印信息;
[0063]
(2)本发明通过构建并训练了包括增强子网络和分类子网络的抗屏摄水印提取网络,能够保证水印信息存活并增大提取水印信息的准确率;
[0064]
(3)本发明在嵌入在抗屏摄水印图像中嵌入水印模板和定位模板的过程中,考虑到了数字水印对于原始图片在视觉上的影响,并通过确定合适的水印模板准则,提升了用户对水印图像的观感体验。
附图说明
[0065]
图1为一种基于深度学习的抗屏摄水印嵌入和提取方法流程图;
[0066]
图2为水印矩阵生成过程示意图;
[0067]
图3为水印矩阵图;
[0068]
图4为第一比特模板图;
[0069]
图5为第二比特模板图;
[0070]
图6为对称翻转示意图;
[0071]
图7为抗屏摄水印提取网络工作原理图。
具体实施方式
[0072]
下面对本发明的具体实施方式进行描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
[0073]
如图1所示,一种基于深度学习的抗屏摄水印嵌入和提取方法,包括步骤s1-s4:
[0074]
s1、根据初始图像生成抗屏摄水印图像。
[0075]
在本发明的一个可选实施例中,本发明将初始图像转变为水印矩阵,建立水印算法模型,利用水印算法模型将水印矩阵转变为水印模板,并将水印模板嵌入初始图像中。这一过程增强了鲁棒性,并提升了嵌入水印模板后抗屏摄水印图像的视觉质量。本发明根据水印模板得到具有高度对称性的四个定位模板,每一个定位模板与水印模板相对应,将定位模板嵌入初始图像中,根据定位模板的位置可以对水印模板进行精确定位。
[0076]
步骤s1包括以下分步骤:
[0077]
s11、根据初始图像获取初始水印信息。
[0078]
s12、根据分步骤s11中的初始水印信息,并利用ascii码得到水印矩阵。
[0079]
如图2所示,本发明提供了水印矩阵生成过程示意图。图2中l为比特序列的总长度,a为水印矩阵的列长度,b为水印矩阵的行长度,列长度a等于行长度b。
[0080]
步骤s12包括以下分步骤:
[0081]
s121、通过ascii码将初始水印信息转变为比特序列。
[0082]
s122、确定水印矩阵的列长度。
[0083]
s123、将分步骤s121中的比特序列按列进行排序,根据分步骤s122中的列长度进行列切换,并将最后一列的空位填充为比特0,得到水印矩阵。
[0084]
如图3所示,本发明提供了水印矩阵图。
[0085]
s13、建立水印算法模型,并利用水印算法模型将分步骤s12中的水印矩阵转变为水印模板。
[0086]
步骤s13包括以下分步骤:
[0087]
s131、确定水印模板准则,并根据水印模板准则生成第一比特模板和第二比特模板。
[0088]
步骤s131包括以下分步骤:
[0089]
s1311、根据斜向效应确定斜向纹理准则。
[0090]
具体地,本发明根据人眼视觉模型的“斜向效应”确定斜向纹理准则,以提升用户对水印图像的观感体验,即在相同修改量的前提下,拥有斜向纹理的第一比特模板和第二比特模板相比于横向和纵向纹理的第一比特模板和第二比特模板有着视觉上更不显著的特性。
[0091]
s1312、根据图像压缩特性确定低频分量准则。
[0092]
具体地,jepg压缩会对水印模板中的高频分量产生较为严重的影响,但对低频分量产生较少的影响,因此第一比特模板和第二比特模板的能量需要更多的集中在低频分量,从而实现更好的对抗失真的鲁棒性。
[0093]
s1313、根据降采样传输特性确定连通域准则。
[0094]
具体地,传输过程中的降采样操作(如放缩,滤波)会对第一比特模板和第二比特模板纹理的内部连通域产生改变,这在一定程度上干扰了设计的水印特征。为保证水印特征的完整性,第一比特模板和第二比特模板中至少存在一个较大的连通域,使降采样操作不会过度影响算法设计的水印特征。
[0095]
s1314、根据人眼视觉特性确定避免颜色跳变准则。
[0096]
本发明根据人眼视觉特性即颜色或亮度的跳变相比于渐变更容易被人眼发觉,确定避免颜色跳变准则。因此本发明需避免在两个相邻模板中存在颜色跳变。
[0097]
具体地,第一比特模板和第二比特模板在连接处的像素需要保持无亮度差异,以此保证足够的区分度,以便后续的水印特征提取。
[0098]
s1315、根据分步骤1311中的斜向纹理准则、分步骤1312中的低频分量准则、分步骤1313中的连通域准则和分步骤1314中的避免颜色跳变准则,生成第一比特模板和第二比特模板。
[0099]
如图4所示,第一比特模板为m0,用于表达比特“0”;如图5所示,第二比特模板为m1,用于表达比特“1”。
[0100]
s132、根据分步骤s131中的第一比特模板和第二比特模板,建立水印算法模型,表示为:
[0101]
[0102]
其中:为第x行,第y列水印模板的值,m0为第一比特模板,w
x,y
为第x行第y列水印矩阵的值,m1为第二比特模板。
[0103]
s133、利用分步骤s132中的水印算法模型将步骤s12中的水印矩阵转变为水印模板。
[0104]
s14、根据分步骤s13中的水印模板生成定位模板。
[0105]
步骤s14包括以下分步骤:
[0106]
s141、根据水印模板生成高斯噪声图像。
[0107]
s142、对分步骤s141中的高斯噪声图像进行三次对称翻转,生成定位模板,表示为:
[0108][0109]
其中:为第x行,第y列定位模板的值,为第x行,第y列高斯噪声图像的值,为第x行,第y列高斯噪声图像的值经第一次对称翻转后的值,n为总的行数与列数,为第x行,第y列高斯噪声图像的值经第二次对称翻转后的值,为第x行,第y列高斯噪声图像的值经第三次对称翻转后的值。
[0110]
如图6所示,本发明对高斯噪声图像进行三次对称翻转,生成定位模板。具体地,本发明中高斯噪声图像的均值为0,方差为0.01。
[0111]
s15、将分步骤s13中的水印模板嵌入至初始图像中的蓝色通道,并将分步骤s14中的定位模板嵌入至初始图像中的红色通道,生成抗屏摄水印图像。
[0112]
具体地,本发明根据人眼对初始图像中的红色分量和蓝色分量的敏感度远低于绿色分量这一特性,本发明分别在图像的红色通道和蓝色通道中嵌入了定位模板和水印模板,生成抗屏摄水印图像。
[0113]
s2、构建噪声网络,并将步骤s1中的抗屏摄水印图像输入至噪声网络,得到含噪声的抗屏摄水印图像。
[0114]
在本发明的一个可选实施例中,本发明构建噪声网络,并将生成的抗屏摄水印图像用噪声网络来模拟由物理成像而引起的畸变。噪声网络中的损失类型包括:中值滤波、高斯滤波、模拟屏摄、jepg压缩和高斯加噪。抗屏摄水印图像输入至模拟屏幕拍摄的噪声网络后生成含噪声的抗屏摄水印图像。
[0115]
步骤s2包括以下分步骤:
[0116]
s21、构建包括中值滤波、高斯滤波、模拟屏摄、jepg压缩和高斯加噪的噪声网络。
[0117]
s22、将步骤s1中的抗屏摄水印图像输入至噪声网络,分别得到中值滤波后的抗屏摄水印图像、高斯滤波后的抗屏摄水印图像、模拟屏摄后的抗屏摄水印图像、jepg压缩后的抗屏摄水印图像和高斯加噪后的抗屏摄水印图像。
[0118]
s3、构建抗屏摄水印提取网络,并根据步骤s1中的抗屏摄水印图像和步骤s2中含噪声的抗屏摄水印图像训练抗屏摄水印提取网络。
[0119]
在本发明的一个可选实施例中,本发明基于传统水印“先去噪后提取”的思想,设计了一个包括增强子网络和分类子网络的两阶段深度神经网络,即抗屏摄水印提取网络。增强子网络用于增强嵌入的水印模板中的特征,分类子网络用于准确识别水印模板的特征从而准确提取出水印。抗屏摄水印提取网络中端到端进行有监督训练,根据步骤s1中的抗屏摄水印图像和步骤s2中含噪声的抗屏摄水印图像训练抗屏摄水印提取网络。
[0120]
步骤s3包括以下分步骤:
[0121]
s31、根据步骤s1中的抗屏摄水印图像和步骤s2中含噪声的抗屏摄水印图像制作包括第一标签数据、第二标签数据和噪声图像水印数据的数据集。
[0122]
s32、构建包括增强子网络和分类子网络的抗屏摄水印提取网络。
[0123]
增强子网络的增强过程包括以下步骤:
[0124]
a1、抗屏摄水印图像中红色通道中的定位模板进行水印信息的定位。
[0125]
a2、利用卷积块将水印信息定位后的抗屏摄水印图像进行下采样得到特征单元。
[0126]
具体地,本发明利用四个卷积块(conv-bn—relu-maxpool)将原来的32*32的抗屏摄水印图像进行下采样得到4*4大小的特征单元。
[0127]
a3、利用全局降采样得到增强特征子单元。
[0128]
具体地,本发明利用全局降采样得到1个1*1大小的增强特征子单元,并重复四次得到4个1*1大小的增强特征子单元。
[0129]
a4、将a3中的增强特征子单元与a2中的特征单元进行连接,得到增强特征单元。
[0130]
具体地,本发明将a3中的4个1*1大小的增强特征子单元与a2中下采样得到4*4大小的特征单元进行连接,得到增强特征单元。
[0131]
a5、利用卷积块将a4中的增强特征单元进行映射,得到增强后的抗屏摄水印图像。
[0132]
具体地,本发明利用几个卷积块(upsample-conv-bn-relu)向上采样a4中的增强特征单元,并将其映射回原来的32*32大小的抗屏摄水印图像,以获得增强后的32*32的抗屏摄水印图像。
[0133]
分类子网络的分类过程包括以下步骤:
[0134]
b1、利用残差单元对a4中增强后的抗屏摄水印图像进行比特模板预测,得到预测水印模板。
[0135]
b2、根据b1中的预测水印模板,提取出嵌入在抗屏摄水印图像中的水印信息。
[0136]
s33、根据分步骤s31中的数据集,并利用联合损失函数更新分步骤s32中抗屏摄水印提取网络的内部参数,表示为:
[0137]
loss=λ*loss1+loss2
[0138]
其中:loss为联合损失函数,λ为平衡参数的因子,设置为0.8,loss1=mse(data,label_1),mse(data,label_1)为使用mseloss函数来衡量噪声图像水印数据data和第一标签数据label_1之间的误差,噪声图像水印数据data为含噪声的抗屏摄水印图像的水印模板数据,第一标签数据label_1为抗屏摄水印图像的水印模板数据,loss2=ce(output1,label_2),ce(output1,label_2)为使用crossentropyloss函数来衡量增强子网络输出数据output1和第二标签数据label_2之间的误差,增强子网络输出数据output1为增强后的
抗屏摄水印图像数据,第二标签数据label_2为抗屏摄水印图像数据。
[0139]
如图7所示,提供了抗屏摄水印提取网络的内部工作原理图。本发明利用损失函数1即mseloss函数(均方损失函数),来衡量噪声图像水印数据data和第一标签数据label_1之间的误差,利用损失函数2即crossentropyloss函数(交叉熵损失函数)来衡量增强子网络输出数据output1和第二标签数据label_2之间的误差,并根据误差对抗屏摄水印提取网络的内部参数进行更新。
[0140]
s4、利用训练后的抗屏摄水印提取网络提取含噪声的抗屏摄水印图像的水印。
[0141]
在本发明的一个可选实施例中,本发明利用训练后的抗屏摄水印提取网络提取含噪声的抗屏摄水印图像的水印,能够保证水印信息存活并增大提取水印信息的准确率,并且能够提升用户对水印图像的观感体验。
[0142]
本领域的普通技术人员将会意识到,这里所述的实施例是为了帮助读者理解本发明的原理,应被理解为本发明的保护范围并不局限于这样的特别陈述和实施例。本领域的普通技术人员可以根据本发明公开的这些技术启示做出各种不脱离本发明实质的其它各种具体变形和组合,这些变形和组合仍然在本发明的保护范围内。
技术特征:
1.一种基于深度学习的抗屏摄水印嵌入和提取方法,其特征在于,包括以下步骤:s1、根据初始图像生成抗屏摄水印图像;s2、构建噪声网络,并将步骤s1中的抗屏摄水印图像输入至噪声网络,得到含噪声的抗屏摄水印图像;s3、构建抗屏摄水印提取网络,并根据步骤s1中的抗屏摄水印图像和步骤s2中含噪声的抗屏摄水印图像训练抗屏摄水印提取网络;s4、利用训练后的抗屏摄水印提取网络提取含噪声的抗屏摄水印图像的水印。2.根据权利要求1所述的一种基于深度学习的抗屏摄水印嵌入和提取方法,其特征在于,步骤s1包括以下分步骤:s11、根据初始图像获取初始水印信息;s12、根据分步骤s11中的初始水印信息,并利用ascii码得到水印矩阵;s13、建立水印算法模型,并利用水印算法模型将分步骤s12中的水印矩阵转变为水印模板;s14、根据分步骤s13中的水印模板生成定位模板;s15、将分步骤s13中的水印模板嵌入至初始图像中的蓝色通道,并将分步骤s14中的定位模板嵌入至初始图像中的红色通道,生成抗屏摄水印图像。3.根据权利要求2所述的一种基于深度学习的抗屏摄水印嵌入和提取方法,其特征在于,步骤s12包括以下分步骤:s121、通过ascii码将初始水印信息转变为比特序列;s122、确定水印矩阵的列长度;s123、将分步骤s121中的比特序列按列进行排序,根据分步骤s122中的列长度进行列切换,并将最后一列的空位填充为比特0,得到水印矩阵。4.根据权利要求2所述的一种基于深度学习的抗屏摄水印嵌入和提取方法,其特征在于,步骤s13包括以下分步骤:s131、确定水印模板准则,并根据水印模板准则生成第一比特模板和第二比特模板;s132、根据分步骤s131中的第一比特模板和第二比特模板,建立水印算法模型,表示为:其中:为第x行,第y列水印模板的值,m0为第一比特模板,w
x,y
为第x行第y列水印矩阵的值,m1为第二比特模板;s133、利用分步骤s132中的水印算法模型将步骤s12中的水印矩阵转变为水印模板。5.根据权利要求4所述的一种基于深度学习的抗屏摄水印嵌入和提取方法,其特征在于,步骤s131包括以下分步骤:s1311、根据斜向效应确定斜向纹理准则;s1312、根据图像压缩特性确定低频分量准则;s1313、根据降采样传输特性确定连通域准则;
s1314、根据人眼视觉特性确定避免颜色跳变准则;s1315、根据分步骤1311中的斜向纹理准则、分步骤1312中的低频分量准则、分步骤1313中的连通域准则和分步骤1314中的避免颜色跳变准则,生成第一比特模板和第二比特模板。6.根据权利要求2所述的一种基于深度学习的抗屏摄水印嵌入和提取方法,其特征在于,步骤s14包括以下分步骤:s141、根据水印模板生成高斯噪声图像;s142、对分步骤s141中的高斯噪声图像进行三次对称翻转,生成定位模板,表示为:其中:为第x行,第y列定位模板的值,为第x行,第y列高斯噪声图像的值,为第x行,第y列高斯噪声图像的值经第一次对称翻转后的值,n为总的行数与列数,为第x行,第y列高斯噪声图像的值经第二次对称翻转后的值,为第x行,第y列高斯噪声图像的值经第三次对称翻转后的值。7.根据权利要求1所述的一种基于深度学习的抗屏摄水印嵌入和提取方法,其特征在于,步骤s2包括以下分步骤:s21、构建包括中值滤波、高斯滤波、模拟屏摄、jepg压缩和高斯加噪的噪声网络;s22、将步骤s1中的抗屏摄水印图像输入至分步骤s21中的噪声网络,分别得到中值滤波后的抗屏摄水印图像、高斯滤波后的抗屏摄水印图像、模拟屏摄后的抗屏摄水印图像、jepg压缩后的抗屏摄水印图像和高斯加噪后的抗屏摄水印图像。8.根据权利要求1所述的一种基于深度学习的抗屏摄水印嵌入和提取方法,其特征在于,步骤s3包括以下分步骤:s31、根据步骤s1中的抗屏摄水印图像和步骤s2中含噪声的抗屏摄水印图像制作包括第一标签数据、第二标签数据和噪声图像水印数据的数据集;s32、构建包括增强子网络和分类子网络的抗屏摄水印提取网络;s33、根据分步骤s31中的数据集,并利用联合损失函数更新分步骤s32中抗屏摄水印提取网络的内部参数,表示为:loss=λ*loss1+loss2其中:loss为联合损失函数,λ为平衡参数的因子,loss1=mse(data,label_1),mse(data,label_1)为使用mseloss函数来衡量噪声图像水印数据data和第一标签数据label_1之间的误差,loss2=ce(output1,label_2),ce(output1,label_2)为使用crossentropyloss函数来衡量增强子网络输出数据output1和第二标签数据label_2之间的误差。
9.根据权利要求8所述的一种基于深度学习的抗屏摄水印嵌入和提取方法,其特征在于,在分步骤s32中,增强子网络的增强过程包括以下步骤:a1、抗屏摄水印图像中红色通道中的定位模板进行水印信息的定位;a2、利用卷积块将水印信息定位后的抗屏摄水印图像进行下采样得到特征单元;a3、利用全局降采样得到增强特征子单元;a4、将a3中的增强特征子单元与a2中的特征单元进行连接,得到增强特征单元;a5、利用卷积块将a4中的增强特征单元进行映射,得到增强后的抗屏摄水印图像。10.根据权利要求9所述的一种基于深度学习的抗屏摄水印嵌入和提取方法,其特征在于,在分步骤s32中,分类子网络的分类过程包括以下步骤:b1、利用残差单元对a4中增强后的抗屏摄水印图像进行比特模板预测,得到预测水印模板;b2、根据b1中的预测水印模板,提取出嵌入在抗屏摄水印图像中的水印信息。
技术总结
本发明公开了一种基于深度学习的抗屏摄水印嵌入和提取方法,包括以下步骤:根据初始图像生成抗屏摄水印图像;构建噪声网络,并将抗屏摄水印图像输入至噪声网络,得到含噪声的抗屏摄水印图像;构建抗屏摄水印提取网络,并根据抗屏摄水印图像和含噪声的抗屏摄水印图像训练抗屏摄水印提取网络;S利用训练后的抗屏摄水印提取网络提取含噪声的抗屏摄水印图像的水印。本发明通过在抗屏摄水印图像中嵌入了水印模板和定位模板,构建并训练了包括增强子网络和分类子网络的抗屏摄水印提取网络,能够有效嵌入抗屏摄水印,保证水印信息能够存活并增大提取水印信息的准确率,并在图像遭受缩放或剪切等物理攻击后依然能获取到水印信息。放或剪切等物理攻击后依然能获取到水印信息。放或剪切等物理攻击后依然能获取到水印信息。
技术研发人员:张昊 唐豪 郝东凯 肖雨杭 王纬
受保护的技术使用者:西南交通大学
技术研发日:2023.04.23
技术公布日:2023/7/25
版权声明
本文仅代表作者观点,不代表航空之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)
飞行汽车 https://www.autovtol.com/
上一篇:一种机械臂及其控制方法与流程 下一篇:一种含氟类油田气体示踪剂吸附管的制备方法
