基于多目标的行为识别和远程监测的警报系统及方法
未命名
10-18
阅读:146
评论:0
1.本发明属于人体姿态识别技术领域,具体涉及基于多目标的行为识别和远程监测的警报系统及方法。
背景技术:
2.日常生活中,常有家长将儿童独自留在家中的情况,儿童自身活泼好动,但认知与行为能力较弱,危险行为高发,儿童独自玩耍时磕碰、烧伤、坠楼等伤害性事件时有发生,保护儿童的安全刻不容缓。随着老年期高龄人口的增多,因老化组织器官功能衰退和老年慢性病所引起的跌倒、压疮、长期卧床等问题越来越严重地威胁着老年人的身心健康。要维护和促进老年人身心健康、实现“健康老龄化”,这些老年期常见问题不容忽视。
3.人体姿态识别就是通过将图片中已检测到的人体关键点正确的联系起来,从而估计人体姿态。人体关键点通常对应人体上有一定自由度的关节,比如颈、肩、肘、腕、腰、膝、踝等,通过对人体关键点在三维空间相对位置的计算,来估计人体当前的姿态。进一步,增加时间序列,看一段时间范围内人体关键点的位置变化,可以更加准确的检测姿态,估计目标未来时刻姿态,以及做更抽象的人体行为分析,比如判断一个人是否在打电话等等。而open pose是基于卷积神经网络和监督学习并以caffe为框架写成的开源库,可以实现人的面部表情、躯干和四肢甚至手指的跟踪,不仅适用于单人也适用于多人,同时具有较好的鲁棒性。微信小程序,相对于如今的app、web网页、微信公众号等等,具有,不用下载、不占内存、开发成本低、开发周期短等优点,用户可通过添加或者直接打开微信小程序进行用户登录后查看,实现(查看)实时监控。
4.因此,本发明设计了基于微信小程序、5g通信技术、人体姿态识别技术、深度学习技术的行为记录及危险行为识别监测警报系统。
技术实现要素:
5.针对现有技术的不足,本发明提出了基于多目标的行为识别和远程监测的警报系统及方法,主要包括人体姿态识别、应用层的设计与实现、视频图像的采集、压缩和传输的设计与实现、以及微信小程序的云服务以实现远程视频监控功能,具有跨平台远程视频监控、无线传输、高实时性和稳定性、智能化监护报警、智能化行为记录等特点,可以较好地为儿童和老人的安全行为等问题进行鉴别。
6.为实现上述目的,本发明提供了如下方案:
7.基于多目标的行为识别和远程监测的警报系统,包括:前端采集部分和后端部分;
8.所述前端采集部分用于人体图像数据的采集、处理和传输;
9.所述后端部分用于对处理后的所述人体图像数据进行识别估计,完成对人体姿态的远程监测。
10.优选的,所述前端采集部分包括:视频采集模块、视频图像压缩模块、视频传输模块和视频图像存储模块;
11.所述视频采集模块用于视频图像的采集;
12.所述视频图像压缩模块用于对采集到的视频图像进行逐帧压缩;
13.所述视频传输模块用于将格式压缩后的视频图像通过tcp协议和应用层协议传输到所述后端部分;
14.所述视频图像存储模块用于将采集的所述视频图像存储在服务器磁盘中。
15.优选的,所述后端部分包括:行为识别检测模块和报警模块;
16.所述行为识别检测模块用于利用openpose的姿态识别技术,对处理后的视频图像进行多目标的人体姿态识别估计;
17.所述报警模块用于当检测到人体姿态异常情况时,自动报警或者以发短信、邮件形式提醒用户。
18.本发明还提供了一种小程序显示模块,用于显示基于行为识别和远程监测的警报系统。
19.本发明还提供了基于多目标的行为识别和远程监测的警报方法,包括以下步骤:
20.对人体图像数据的采集、处理和传输;
21.对处理后的所述人体图像数据进行识别估计,完成对人体姿态的远程监测。
22.优选的,对人体图像数据的采集、处理和传输的方法包括:
23.采集视频图像并将所述视频图像存储在服务器磁盘中;
24.对采集到的视频图像进行逐帧压缩;
25.将格式压缩后的视频图像通过tcp协议和应用层协议进行传输。
26.优选的,对处理后的所述人体图像数据进行识别估计,完成对人体姿态的远程监测的方法包括:
27.利用openpose的姿态识别技术,对处理后的视频图像进行多目标的人体姿态识别估计;
28.当检测到人体姿态异常情况时,自动报警或者以发短信、邮件形式提醒用户。
29.本发明还提供了一种存储介质,包括:所述存储介质存储有机器可执行指令,所述机器可执行指令在被处理器调用和执行时,所述机器可执行指令促使所述处理器实现基于行为识别和远程监测的警报方法。
30.与现有技术相比,本发明的有益效果为:
31.本发明的技术关键主要包括人体姿态识别、应用层的设计与实现、视频图像的采集、压缩和传输的设计与实现。在原有的监控系统基础之上增添了行为识别监测功能,监控系统的智能性得到较大的提高,当系统检测儿童或老人的危险行为时,保存视频截图当作证据图,触发报警功能,并通知远程段的家长(亲友);运用web技术,实现无线远程监控使家长(亲友)能够通过随身携带的计算机或智能移动设备的web浏览器,随时掌握儿童或老人的行为轨迹,知道儿童或老人现在和过去一段时间内的行为。当检测到危险行为,及时启动屋内警报,并远程通知家长(亲友),全方位保护在家儿童或老人的安全。本发明的技术方案和现有技术相比,具有以下优点:采用嵌入式web视频远程监控系统设计,成本更加低廉。基于openpose的人体姿态识别技术,仅仅基于2d图像,廉价的普通摄像头,就可以实现多人的、实时的、鲁棒性很好的人体骨骼关节点提取与姿态检测。
附图说明
32.为了更清楚地说明本发明的技术方案,下面对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
33.图1为本发明实施例中的基于多目标的行为识别和远程监测的警报系统整体框架图;
34.图2为本发明实施例中的基于多目标的行为识别和远程监测的警报系统的工作原理示意图;
35.图3为本发明实施例中的对应18个人体骨骼关键点以及骨架图;
36.图4为本发明实施例中的小程序实现流程图;
37.图5为本发明实施例中的视频图像采集流程图;
38.图6为本发明实施例中的视频传输流程图;
39.图7为本发明实施例中的骨架信息搭建算法整体流程图;
40.图8为本发明实施例中的骨架信息搭建的算法结构图。
具体实施方式
41.下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
42.为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
43.实施例一
44.如图1所示,本发明提供了基于多目标的行为识别和远程监测的警报系统,包括:前端采集部分和后端部分;
45.前端采集部分用于人体图像数据的采集、处理和传输;
46.后端部分用于对处理后的人体图像数据进行识别估计,完成对人体姿态的远程监测。
47.在本实施例中,前端采集部分包括:视频采集模块、视频图像压缩模块、视频传输模块和视频图像存储模块;
48.视频采集模块用于视频图像的采集;
49.视频图像压缩模块用于对采集到的视频图像进行逐帧压缩;
50.视频传输模块用于将格式压缩后的视频图像通过tcp协议和应用层协议传输到后端部分;
51.视频图像存储模块用于将采集的视频图像存储在服务器磁盘中。
52.具体的:视频图像采集模块的主要工作为视频采集设备的选型和其相应的驱动程序在主控板上的添加。目前市面上主流的视频采集有ccd和cmos两种镜头,根据实际需求,本发明视频图像采集模块选用imx334摄像头模组,满足系统的对于视频采集的需求。驱动利用的是linux系统中的v42l视频源捕获驱动框架来进行视频图像的采集。
53.在视频图像压缩模块中,对于视频图像的压缩,主要是减小采集的图像文件的大小,由于m-jpeg格式适配大多数的网页浏览器,且对处理的能力需求少,因此本发明采用m-jepg格式压缩,它的主要原理是对采集到的图像进行逐帧压缩,按照至少达到25帧/秒速度使用jpeg压缩算法压缩视频信号,完成动态视频的压缩。由于作品使用的摄像头为imx334,为cmos摄像头,其对应的原始图像的格式为yuv彩色图像,因此需要使用到libjepg库,将采集到的视频逐帧转化为m-jpeg格式,再对压缩好的图像进行传输。
54.视频图像传输模块将jpeg格式的图像通过tcp协议和应用层协议传输到远端。
55.在本实施例中,后端部分包括:行为识别检测模块和报警模块;
56.行为识别检测模块用于利用openpose的姿态识别技术,对处理后的视频图像进行多目标的人体姿态识别估计;
57.报警模块用于当检测到人体姿态异常情况时,自动报警或者以发短信、邮件形式提醒用户。
58.具体的,行为识别检测模块即为计算机处理模块,在本模块中,计算机服务器对采集到的图像进行人体姿态识别估计,通过将采集的图像传入计算机服务器中,计算机服务器调用基于openpose设计的人体姿态识别代码,若发生异常行为则发出警报。
59.在本实施例中,本发明主要用于家庭日常生活中,检测人体的跌倒等等行为,等同于家用摄像头。硬件平台连接摄像头,之后通过usb网卡将视频数据通过因特网传输给行为识别检测服务器,服务器检测出异常行为之后,通过因特网发出报警信息传送到收信人手机。
60.基于多目标的行为识别和远程监测的警报系统的工作原理为:如图2所示,
61.视频采集模块由usb摄像头实时采集图像数据,通过usb接口将数据传输至arm平台进行去噪、压缩等处理,在arm平台中使用web传输方式将图像数据传输至位于pc上的行为识别检测服务器和远程客户端,对应的物理层操作为arm平台通过usb接口将图像数据传输至usb无线网卡,无线网卡以无线传输方式将图像数据经由5g路由器传输至internet中的行为识别检测服务器和远程客户端。当前的实时监控数据经过internet网传输到远端,用户使用家庭的ip地址便可查看当前家庭的监控视频。将家庭pc机作为行为识别检测服务器,对当前的视频监控进行行为检测,发现危险行为,启动屋内警报器制止儿童或老人的危险行为,并通知远程的家长(亲友)。
62.在行为识别方面,利用openpose的姿态识别技术,以及对不同肢体之间的协调关系来搭建分类算法,并通过不同的分类算法比较,选择出最优模型搭建多目标的分类方法,最终可以实现多个目标的姿态显示、目标检测和分类的实时显示。在此次的模型中通过调用轻量级的openpose模型进行人体姿态识别,其主要的方法是通过openpose获取人体各个骨骼关键点位置,如图3所示,然后通过欧氏距离进行匹配两个骨骼来具体检测到每一个人,对于常见检测中骨骼关键点的缺失可以通过上一帧的骨骼信息进行填充。
63.实施例二
64.本发明还提供了一种小程序显示模块,用于显示基于行为识别和远程监测的警报系统。
65.在本实施例中,小程序显示模块首先将imx334摄像头设备连接到网络上。开发后台服务器,用于接收来自摄像头的视频流数据,并将其转发给微信小程序端。使用tcp协议
进行数据传输,需要在后台服务器中开发一个tcp服务器,监听指定端口,并等待客户端连接。在微信小程序中开发视频播放器组件,用于播放从服务器传输过来的视频流。使用wx.createliveplayercontext()方法创建一个直播播放器上下文,并设置视频源为后台服务器的ip地址和端口号。实现用户登录和权限管理功能,确保只有经过的才能查看视频流。可以使用微信小程序提供的用户登录和认证机制,或者自行开发一套用户管理系统。添加辅助功能,如视频录制、截图、云存储等。
66.后台服务器的开发流程:
67.使用node.js开发一个tcp服务器,监听指定端口,并等待客户端连接。当客户端连接成功后,服务器向客户端发送视频流数据。服务器使用ffmpeg等工具采集摄像头的视频流数据,并将其编码为mjpeg格式。服务器使用node.js的net模块将mjpeg格式的视频流数据发送给客户端。客户端接收到视频流数据后,使用wx.createliveplayercontext()方法创建一个直播播放器上下文,并设置视频源为服务器的ip地址和端口号,当客户端断开连接时,服务器停止向客户端发送视频流数据。
68.视频播放器组件的开发流程:
69.在微信小程序中创建一个自定义组件,用于显示视频播放器。在组件的js文件中,使用wx.createliveplayercontext()方法创建一个直播播放器上下文,并设置视频源为后台服务器的ip地址和端口号。在组件的wxml文件中,添加一个video标签,用于显示视频画面。在组件的wxss文件中,设置video标签的样式,以适应不同的屏幕大小和分辨率。
70.如图4所示,小程序实现流程
71.设备接入:将视频监控设备连接到互联网,可以使用网络摄像头、nvr等设备,并提供相应的接口或协议,以便微信小程序可以访问设备。常见的协议有rtsp、http、onvif等。
72.小程序登录:用户使用微信账号登录小程序,并获取相应的权限和认证信息。可以使用微信官方提供的登录api来实现。
73.视频预览:在小程序中显示视频监控画面,可以使用小程序提供的视频组件或第三方插件进行实现。其中,视频数据通过网络传输到小程序端,可以使用tcp或udp协议进行传输。需要注意的是,视频数据量较大,因此需要考虑网络带宽和性能的问题。
74.远程控制:用户可以通过小程序对视频监控设备进行远程控制,如调整摄像头角度、开关灯光等操作。这个过程需要与设备进行交互,通常使用设备提供的api或协议来实现。
75.数据传输:视频数据通过网络传输到小程序端,可以使用tcp或udp协议进行传输。
76.实施例三
77.本发明还提供了基于多目标的行为识别和远程监测的警报方法,所述警报方法是基于实施例一基于行为识别和远程监测的警报装置实现的,包括以下步骤:
78.对人体图像数据的采集、处理和传输;
79.对处理后的人体图像数据进行识别估计,完成对人体姿态的远程监测。
80.在本实施例中,对人体图像数据的采集、处理和传输的方法包括:
81.采集视频图像并将视频图像存储在服务器磁盘中;
82.对采集到的视频图像进行逐帧压缩;
83.将格式压缩后的视频图像通过tcp协议和应用层协议进行传输。
84.具体的,视频图像的采集的设计与实现为基于v4l2的视频采集。在linux系统中,应用层的操作通过io控制方式与驱动模块交互,也就是,为驱动模块编写好io操作接口,应用程序调用io接口实现对外设的控制。在应用层使用iotcl函数和cmd宏定义向驱动发送控制命令完成对设备的控制。本发明通过调用linux提供的v4l2接口完成对usb摄像头的视频数据采集的控制,图5是本发明的具体v4l2视频采集过程。
85.本发明调用v4l2接口采集视频数据的详细流程如下:
86.(1)接入摄像头,待识别后会在/dev子目录下生成设备文件video0,调用open()函数打开设备文件。
87.(2)调用ioctl函数,使用vidioc_querycap宏命令查询摄像头是否支持视频采集。
88.(3)设置图像采集参数,包括采集帧率、图像分辨率、图像格式等。
89.(4)调用requestbuffers申请帧缓冲区,调用mmap函数将帧缓冲区映射到用户空间,调用ioctl函数,使用vidioc_querybuf宏命令获取帧缓冲区地址,将这段内存加入队列。
90.(5)进行视频数据的采集,采集到的视频数据会被放入循环队列的尾部,应用程序读取循环队列的头部来获取视频数据。循环队列的头部和尾部在写入和读取后会自动调整。
91.(6)使用vidioc_off宏命令结束采集。
92.具体的,视频图像的压缩的设计与实现为基于mjpeg的图像的压缩,视频图像压缩算法中常见的有mjpeg,mpeg-4和h.264,其中mpeg-4和h.264压缩算法在压缩比和图像质量上比较突出,但是这两种算法运算复杂,需要高运算能力的硬件平台支撑,显然这两种算法不适合本发明,mjpeg图像压缩算法是一种动态图像压缩算法,主要是针对视频序列中的每帧图像进行压缩,mjpeg只对每帧图像进行空间上的压缩,而不对帧间时间进行压缩,在实际应用中,需要保证每帧图像信息的完整性。mjpeg算法压缩比不是很高,但是其算法复杂度低,对硬件的运算能力要求不是很高。本发明家用监控系统的硬件平台为arm9,其cpu频率有限,运算能力一般,因此,本发明选用mjpeg算法作为图像压缩模块的压缩算法。本发明使用的usbcmos摄像头采集到的原始图像格式为yuv彩色图像,这里将其转换成jpeg压缩格式,需要用到libjpeg库,本发明移植的是libjpeg6.0库。对视频图像进行压缩的过程为:将采集到的每帧yuv格式图像用libjpeg库中compress()函数进行压缩,最终的原始图像转变为jpeg压缩格式,再将jpeg图像传输到远程客户端,这样比传输yuv格式图像速度要快。
93.具体的,视频图像的传输的设计与实现为基于tcp协议的网络传输,本发明视频图像的web传输是基于http协议实现的,在osi七层协议中,http位于最顶层的应用层,tcp/ip协议位于传输层,http是tcp/ip协议的应用层封装,socket套接字是将tcp和udp协议封装成一个接口形式,方便开发者调用。linux系统已经为开发者提供了完善的socket接口函数,开发者通过调用相关的socket接口函数便可实现数据的tcp或udp传输。tcp和udp是传输层的两大数据交互协议,socket对二者都有支持,二者的主要区别是:tcp是面向连接的传输协议,客户端和服务器在进行正式的数据传输前必须先建立好连接,此外还有一些数据丢失重发机制,这样保证了数据传输的安全性,而udp是非连接的,无法保证数据传输的安全性和准确性。为了保证视频数据的安全有效的传输,本发明使用基于tcp传输的http协议进行视频数据传输。使用基于tcp协议的socket套接字编程分为以下几步,创建
tcpsocket连接、绑定ip地址和端口、监听tcp端口、接受或拒绝客户端连接请求、接收和发送数据、断开连接并释放相关内存。基于tcp协议的socket实现流程如图6所示。
94.浏览器与web服务器的http请求/响应的交互过程如下:
95.(1)首先,嵌入式服务器建立tcpsocket套接字,并且初始化绑定服务器的ip地址和端口号,本发明使用的是socket的bind()函数,绑定完成后,使用socket的listen()函数监听客户端发送来的连接请求。
96.(2)浏览器创建好socket后,客户端使用socket的connect()函数,按照服务器的ip地址和端口号发送连接请求,等待服务器接受连接请求。
97.(3)服务器监听到客户端发送来连接请求,使用socket中的accept()函数接受连接,建立好tcp连接,客户端向服务器发送http请求数据,服务器对接收到的请求数据进行解析,按照请求发送回应数据,并用http协议封装好,此处使用的是socket的send()函数进行数据发送。
98.(4)客户端浏览器对接收到的http协议数据进行解析,例如,html格式数据,对应的是浏览器上的界面显示数据。
99.(5)客户端读写完成后,断开与服务器的连接,下一次连接则跳转到第(3)步重新执行。
100.具体的,视频图像存储流程为:
101.接收视频数据:客户端使用tcp协议接收服务器发送的视频数据。
102.解码视频数据:客户端将接收到的视频数据进行解码,得到原始的视频帧数据。
103.处理视频帧数据:客户端对视频帧数据进行处理,如调整分辨率、裁剪、旋转等操作。
104.存储视频帧数据:客户端将处理后的视频帧数据存储到本地设备上,可以使用本地文件系统或数据库等方式进行存储。
105.播放视频:客户端将存储的视频帧数据读取出来,并使用播放器进行播放。
106.在本实施例中,对处理后的人体图像数据进行识别估计,完成对人体姿态的远程监测的方法包括:
107.利用openpose的姿态识别技术,对处理后的视频图像进行多目标的人体姿态识别估计;
108.当检测到人体姿态异常情况时,自动报警或者以发短信、邮件形式提醒用户。
109.具体的,对处理后的人体图像数据进行识别估计是通过设计的人体姿态识别代码实现的。
110.人体姿态识别代码设计流程:
111.(1)首先是代码环境的搭建:anaconda可以便捷获取包且对包能够进行管理,同时对环境可以统一管理的发行版本。具有开源等优点,因此本发明选用anaconda用来管理对应的python包,代码对应的各个包以及版本分别为python3.65、opencv3.4.2、sklearn 0.19.2、tensorflow 2.1.0、keras 2.3.1、scipy 1.5.3。
112.(2)在本发明使用的代码中,提供了两种神经网络模型以及两种动作识别模型,需要根据实际需求选择合适的模型。两种神经网络模型一种是体积较大但识别精度较高的vgg,这个模型需要去网站下载;另一种是体积较小但识别精度低的mobilenet,这里使用
vgg作为训练模型。
113.(3)接着对训练集中的数据进行预处理,
114.图像读取:首先需要从数据集中读取图像数据,可以使用python中的opencv库来实现。
115.图像缩放:由于不同的图像大小不同,因此需要将所有图像进行缩放,使其具有相同的尺寸。可以使用opencv库中的resize函数来实现。
116.数据增强:为了增加数据的多样性和鲁棒性,可以对图像进行旋转、翻转、裁剪等操作。可以使用opencv库中的函数来实现。
117.数据归一化:为了提高模型的训练效果,需要对图像进行归一化处理。通常采用将图像像素值除以255的方式进行归一化。
118.数据标注:对每张图像进行人体关键点的标注,即将每个关键点的坐标位置标注在图像上。可以使用openpose提供的工具进行标注。
119.数据集划分:将数据集划分为训练集、验证集和测试集,并将其保存为numpy数组或者其他格式,以便于后续的训练和测试。
120.(4)然后是模型的训练
121.模型构建:根据选择的模型,使用python编写代码来构建模型,包括输入层、卷积层、池化层、全连接层等。
122.损失函数选择:选择适合人体姿态识别任务的损失函数,例如均方误差(mse)损失函数、交叉熵损失函数等。
123.优化器选择:选择适合人体姿态识别任务的优化器,例如随机梯度下降(sgd)优化器、adam优化器等。
124.模型编译:将模型、损失函数和优化器进行编译,并设置相关参数,如学习率、批次大小等。
125.模型训练:使用准备好的数据集对模型进行训练,可以使用keras、pytorch等深度学习框架来实现。
126.模型评估:使用测试集对训练好的模型进行评估,计算准确率、召回率、f1分数等指标。
127.模型保存:将训练好的模型保存为.h5或.pb格式,以便于后续的部署和使用。
128.(5)接着是姿态检测的流程
129.使用训练好的模型对输入的图像或视频进行姿态检测。openpose算法主要分为两个阶段,即人体关键点检测和姿态估计。在人体关键点检测阶段,通过卷积神经网络(cnn)提取特征,然后使用多层高斯滤波器检测出人体关键点,如图7所示。
130.在计算骨架信息中,图像中人体的数量和位置的变化频率都会对计算量产生较大的影响,考虑到识别的实时性,对处理速度提出了很大的要求,自上而下的方法的处理速度相比于自下而上有很大的提升,其方法是先检测关键点,再将其连接成骨架。图8为整体网络结构。
131.vgg19的前10层以及两分支网络可以检测出人体关键点,构建出人体骨架。通过vgg网络将待检测图像提取出待检测图像的特征图f,将提取到的特征图输入两分支网络,通过多个阶段的回归之后,可以检测出所有关键点,再使用贪心推理将其连接成人体骨架。
132.(6)接着是姿态的分析和可视化输出
133.首先特征的提取,利用openpose遍历数据集下不同分类下的人物的姿态信息进行提取作为动作特征并保存为对应的txt文档。然后进行特征的整合:将提取的特征信息和对应的图片对应起来整合在一个txt文件中,同时去除无用的多余数据集。最后整合txt信息分别作为输入和输出标签csv文件。
134.将从输入端csv读取的人体骨骼信息作为输入,y标签的csv文件作为输出,按照0.3的比例划分训练集和验证集,并转为numpy矩阵参与运算。其中模型分类器的选择主要按照决策树、随机森林、神经网络和支持向量机进行测试模型效果。模型的评估则主要根据混淆矩阵、精准率、召回率和f1得分进行评估。
135.表1
[0136][0137]
分类器方面主要分为支持向量机svm分类器、决策树decision tree分类器、随机森林randomforestclassifier分类器、神经网络mlpclassifier分类器。由于svm分类器在测试中展现出优秀的性能,且是基于结构风险最小化理论建立模型,而达到学习器的全局最优化结果,主要是被用来分析线性可分的情况。所以本系统采用svm分类器。同时直接调用sklearn框架中搭建好的分类器进行训练,其中设置核函数为线性核函数。惩罚系数c为10,这个惩罚系数的设定一般来说这个系数设置的越大,容错性也就相对小一些,分隔空间的硬度也就更强。
[0138]
实施例四
[0139]
本发明还提供了一种存储介质,包括:所述存储介质存储有机器可执行指令,所述机器可执行指令在被处理器调用和执行时,所述机器可执行指令促使所述处理器实现基于行为识别和远程监测的警报方法。
[0140]
以上所述的实施例仅是对本发明优选方式进行的描述,并非对本发明的范围进行限定,在不脱离本发明设计精神的前提下,本领域普通技术人员对本发明的技术方案做出的各种变形和改进,均应落入本发明权利要求书确定的保护范围内。
技术特征:
1.基于多目标的行为识别和远程监测的警报系统,其特征在于,包括:前端采集部分和后端部分;所述前端采集部分用于人体图像数据的采集、处理和传输;所述后端部分用于对处理后的所述人体图像数据进行识别估计,完成对人体姿态的远程监测。2.根据权利要求1所述的基于多目标的行为识别和远程监测的警报系统,其特征在于,所述前端采集部分包括:视频采集模块、视频图像压缩模块、视频传输模块和视频图像存储模块;所述视频采集模块用于视频图像的采集;所述视频图像压缩模块用于对采集到的视频图像进行逐帧压缩;所述视频传输模块用于将格式压缩后的视频图像通过tcp协议和应用层协议传输到所述后端部分;所述视频图像存储模块用于将采集的所述视频图像存储在服务器磁盘中。3.根据权利要求1所述的基于多目标的行为识别和远程监测的警报系统,其特征在于,所述后端部分包括:行为识别检测模块和报警模块;所述行为识别检测模块用于利用openpose的姿态识别技术,对处理后的视频图像进行多目标的人体姿态识别估计;所述报警模块用于当检测到人体姿态异常情况时,自动报警或者以发短信、邮件形式提醒用户。4.一种小程序显示模块,其特征在于,用于显示权利要求1-3任一项所述的基于行为识别和远程监测的警报系统。5.基于多目标的行为识别和远程监测的警报方法,其特征在于,包括以下步骤:对人体图像数据的采集、处理和传输;对处理后的所述人体图像数据进行识别估计,完成对人体姿态的远程监测。6.根据权利要求5所述的基于多目标的行为识别和远程监测的警报方法,其特征在于,对人体图像数据的采集、处理和传输的方法包括:采集视频图像并将所述视频图像存储在服务器磁盘中;对采集到的视频图像进行逐帧压缩;将格式压缩后的视频图像通过tcp协议和应用层协议进行传输。7.根据权利要求5所述的基于多目标的行为识别和远程监测的警报方法,其特征在于,对处理后的所述人体图像数据进行识别估计,完成对人体姿态的远程监测的方法包括:利用openpose的姿态识别技术,对处理后的视频图像进行多目标的人体姿态识别估计;当检测到人体姿态异常情况时,自动报警或者以发短信、邮件形式提醒用户。8.一种存储介质,其特征在于,包括:所述存储介质存储有机器可执行指令,所述机器可执行指令在被处理器调用和执行时,所述机器可执行指令促使所述处理器实现如权利要求5至7任一项所述的基于行为识别和远程监测的警报方法。
技术总结
本发明公开了基于多目标的行为识别和远程监测的警报系统及方法,系统包括:前端采集部分和后端部分;前端采集部分用于人体图像数据的采集、处理和传输;后端部分用于对处理后的所述人体图像数据进行识别估计,完成对人体姿态的远程监测。本发明主要包括人体姿态识别、应用层的设计与实现、视频图像的采集、压缩和传输的设计与实现、以及微信小程序的云服务以实现远程视频监控功能,具有跨平台远程视频监控、无线传输、高实时性和稳定性、智能化监护报警、智能化行为记录等特点,可以较好地为儿童和老人的安全行为等问题进行鉴别。童和老人的安全行为等问题进行鉴别。童和老人的安全行为等问题进行鉴别。
技术研发人员:张德华 张哲语 闵保凯 齐波信 林柽 张胡杨 张妮娜 秦春斌 梁琳琳
受保护的技术使用者:河南大学
技术研发日:2023.07.03
技术公布日:2023/10/11
版权声明
本文仅代表作者观点,不代表航空之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)
飞行汽车 https://www.autovtol.com/
上一篇:美容仪及其控制方法与流程 下一篇:基于两线IP的远程自监视系统的制作方法
