一种基于边缘计算设备的AI算法部署系统的制作方法

未命名 08-22 阅读:85 评论:0

一种基于边缘计算设备的ai算法部署系统
技术领域
1.本发明涉及储能电池安全预警领域,尤其应用硬件、软件部署、运维等领域的一种基于边缘计算设备的ai算法部署系统。


背景技术:

2.随着双碳目标的提出以及清洁能源的发展,储能产业如火如荼。随着户用储能与工商业储能应用迅速扩展,对储能站的运行安全,以及数据治理的需求日益紧迫。
3.对于现有的储能站点,其一般通过采集内部众多电芯的多维数据,提取出ai算法需要的数据信息,最后统一在云端服务器进行算法的处理。显而易见的,电芯数量众多,ai算法仅需要海量电芯数据的关键信息,无需存储全部数据。对于广泛的数据隐私要求,用户一般希望通过私有化部署,数据不经公有云,那么数据传输至云端进行算法处理模式的局限性更为显著。
4.此外,由于海量电池数据传输至云端,还面临数据传输延迟,云端服务器的大量电芯数据存储开销的直接经济成本和技术挑战。云端算力与数据存储能力远离储能站点,经济性差,对技术稳定性要求更高。由于数据量大,云端对数据的反应速度慢,较难应对紧迫的储能安全预警需求和巨量电芯数据治理目标。


技术实现要素:

5.为了解决上述技术问题,本发明提供一种基于边缘计算设备的ai算法部署系统,能够降低数据传输延迟,减少存储开销,支持私有化和公有云部署,提高数据响应速度,解决运维人员远程调试障碍,同时解决海量电芯数据的治理等应用难题。
6.本发明解决其技术问题所采用的技术方案是:一种基于边缘计算设备的ai算法部署系统,主要由站点适配模块、操作系统配置模块、算法运行配置模块、运维策略模块组成;所述站点适配模块是结合实际应用中选用的边缘计算设备型号不同,提出边缘计算设备支持储能站点容量的估算方式,用于确定边缘计算设备和储能站点的适配关系,为后续软件部分提供硬件的选型依据;所述操作系统配置模块能够根据站点适配结果,选定边缘计算设备后,为后续算法运行配置模块和运维策略模块的安装提供最底层操作系统的支持;所述算法运行配置模块,支持ai算法运行所需要的软件环境部署;所述运维策略模块,主要用于代码的相关调试以及软件系统的运维,远程代码更新,用以支持工程师对操作系统配置模块和算法运行配置模块的远程技术维护,保证算法环境部署模块和运维策略模块的稳定运行。
7.进一步的,所述站点适配模块提供边缘计算硬件的选型依据,对于不同站点,用户的储能站点容量确定后,在进行边缘计算硬件选型时,提供储能站点容量和边缘计算硬件性能适配的估算公式。
8.进一步的,所述操作系统配置模块,为适配边缘计算硬件的64位arm架构芯片的linux系统,包括操作系统制作与烧录到硬件。
9.进一步的,所述算法运行配置模块主要是指为ai算法程序运行需要的编译器管理工具以及安装ai算法依赖的库。
10.进一步的,所述运维策略模块主要包含程序守护运行、定时任务以及内网穿透、docker容器部署。
11.所述程序守护运行和定时任务,从ai算法程序稳定运行的角度,保证程序按照一定的执行策略执行。
12.所述内网穿透是指处在不同网段的主机,可远程连接调试边缘计算设备,便捷开展代码调试和其他运维工作。
13.所述docker容器部署是指设备软件故障或用户预期快速部署软件系统时,通过docker容器部署,快速恢复linux操作系统以及支持ai算法运行的各种软件。
14.本发明有益效果是,本发明所使用的边缘计算设备功耗低,具备相当的计算能力,将特定关键特征数据传输至云端或将计算结果传输至云端,解放云端算力,大幅降低云端存储开销;实现ai算法的前置应用,毫秒级响应。
15.此外,单板计算机物理接口丰富,环境适应性强。运维工程师通过该硬件设备,提高远程运维的经济性,通过硬件和软件的整体系统,为ai算法落地提供一种通用模式。
附图说明
16.图1是本发明系统组成框图。
17.图2是本发明涉及的边缘计算硬件设计模型图。
18.图3是本发明涉及的主流m.2接口的固态硬盘安装口图。
19.图4是本发明总体系统分模块的组成简图。
具体实施方式
20.本发明属于储能安全管理装置,主体思路为部署ai算法于低功耗的边缘计算设备之上,形成ai算法实际商用落地的整体部署方案。如图1所示,包括站点适配、操作系统配置、算法运行配置、运维策略4个组成模块。
21.对于站点适配模块,根据需求,选择核心数与主频频率,兼顾经济成本与工业适应性。目前边缘计算设备型号较多,芯片的主频,设备内存等不尽相同。结合其他多型号边缘计算设备的使用经验,总结得出经验公式:适配站点容量=(1mwh
ꢀ×ꢀ
cpu核心数
ꢀ×ꢀ
cpu主频
ꢀ×ꢀ
ddr类型系数)/4.5,其中ddr类型系数:ddr3型内存为0.5;ddr4型内存为1;4.5为容量适配经验系数,根据实际生产经验选取。以瑞芯微3588芯片为例,其cpu核心数为8,主频2ghz,内存为ddr4,类型系数为1。其适配的站点容量为:=3.5wmh(1mwh
×8×2×
1)/4.5。
22.操作系统配置模块,包括系统制作与系统烧录。由于边缘计算硬件的cpu芯片主要为armv7,armv8以及armv9架构芯片,此类芯片体积小、低功耗、低成本、高性能。现阶段armv7生态支持较少,armv9目前大多应用于手机芯片等消费电子,因此操作系统模块仅指对于armv8芯片的操作系统。如图2所示,是一款额外配置各种外设的边缘计算硬件,集成了
串口、usb等接口。
23.1)对于系统制作,通过交叉编译得到系统镜像。交叉编译是指,边缘设备的操作系统编译工作,放在性能强劲的服务器上进行。在linux服务器上建立本机或虚拟机的交叉编译环境,基于边缘计算硬件供应商提供的linux系统源码进行系统编译。以ubuntu18.04服务器为例,交叉编译环境需要如g++,gcc等一系列编译使用的软件工具,通过apt软件管理工具安装。通过修改边缘计算源代码中的配置文件,编译得到系统镜像。
24.2)对于系统烧录:windows电脑作为烧录主机,执行烧录系统软件,将linux系统镜像烧录到开发板硬件。如图3长形方框为一种主流m.2接口的固态硬盘安装口。不同型号或厂家的边缘硬件的系统烧录软件不同。以瑞芯微芯片为例,提供了专用驱动以及烧录软件rkdevtool.exe。通过操作规程、usb线连接pc与边缘计算设备等步骤,完成系统烧录,整个过程一般耗时10分钟以内。此外,对于硬件存储的扩展,由于硬件设备本质为独立具备系统的计算机,安装固态硬盘用作为额外的数据存储空间或作为系统盘。如图2所示实际应用中根据需要,灵活配置存储,例如选配128g或256g硬盘,特殊情况下选配512g固态硬盘,从而解放云端对数据存储的需求。
25.如图4所示,本发明总体系统分模块的组成简图,主要分为程序守护、定时任务、远程运维、docker容器部署。对于算法运行配置,由于主流ai算法编写语言为python,因此该模块主要支撑python程序运行。由于ai算法体现为代码,因此为代码的运行提供必须条件。
26.主要步骤:1)mambaforge,anaconda以及miniforge等软件建立起互相隔离的程序运行环境,环境间彼此互不影响。2)安装ai算法依赖的外部库,主要为机器学习相关的库,例如pandas,numpy,torch以及tensorflow等。对于以上软件以及工具库的安装,通过连接公网后在线安装或离线快速部署或源码编译的方式进行配置。
27.对于运维管理, 1)supervisor程序守护。指在无人值守状态下,因数据问题、程序问题或设备问题,造成算法无法正常运行。因此采用靠的supervisor在后台守护算法程序,supervisor进程由四个核心部分组成:supervisor.d,管理配置的子进程;supervisorctl,客服端命令行,用于启动和停止子进程;webserver,通过web界面查看和控制进程状态;xml-rpc interface,用于询问和控制管理程序等。supervisor设置优先级,以及日志记录等。
28.2)定时任务。该部分从云端服务器的crontab定时任务模式迁移而来,ai算法的运行,根据运行频率,具体执行任务设定。
29.3)远程调试和运维。本发明采用远程ssh内网穿透的模式,不建议采用如rustdesk,todesk,vnc,向日葵等,此类型传统远程桌面软件,对网络带宽要求高,延迟大,过多占用设备cpu以及运行内存。具体应用中通过花生壳,cpolar,rfp等内网穿透工具,得到公网ip,端口以及用户信息。选用vscode或pycharm专业版,填入穿透后的ip,端口以及用户信息等进行ai算法代码的调试。对于远程运维,通过终端管理工具,如mobaxterm,填入指定的内网穿透后的信息,进行远程ssh连接,以较低的带宽解决运维指令的下达。
30.4)docker容器部署。由于docker支持在armv8架构的运行,因此具体的使用,仍可沿用在服务器端的docker经验和操作过程。
31.综上所述,本发明较为客观的分析现有的工业现状,采用边缘计算硬件,结合软件的综合解决方案,解决了云端数据传输或部署ai算法的局限性。边缘计算硬件功耗低,顺应
低碳需求;成本低廉可控;此外,储能站点具有一定的电气危险性,远程运维降低运维成本,提高安全性。更为显著的,通过硬件和软件的整体系统方案,为ai算法落地,提供了一种用模式,加速了ai算法的应用进程,有效为储能站点的安全保驾护航。

技术特征:
1.一种基于边缘计算设备的ai算法部署系统,主要由站点适配模块、操作系统配置模块、算法运行配置模块、运维策略模块组成,其特征是:所述站点适配模块是结合实际应用中选用的边缘计算设备型号不同,提出边缘计算设备支持储能站点容量的估算方式,用于确定边缘计算设备和储能站点的适配关系,为后续软件部分提供硬件的选型依据;所述操作系统配置模块能够根据站点适配结果,选定边缘计算设备后,为后续算法运行配置模块和运维策略模块的安装提供最底层操作系统的支持;所述算法运行配置模块,支持ai算法运行所需要的软件环境部署;所述运维策略模块,主要用于代码的相关调试以及软件系统的运维,远程代码更新,用以支持工程师对操作系统配置模块和算法运行配置模块的远程技术维护,保证算法环境部署模块和运维策略模块的稳定运行。2.根据权利要求1所述的一种基于边缘计算设备的ai算法部署系统,其特征是:所述站点适配模块提供边缘计算硬件的选型依据,对于不同站点,用户的储能站点容量确定后,在进行边缘计算硬件选型时,提供储能站点容量和边缘计算硬件性能适配的估算公式。3.根据权利要求1所述的一种基于边缘计算设备的ai算法部署系统,其特征是:所述操作系统配置模块,为适配边缘计算硬件的64位arm架构芯片的linux系统,包括操作系统制作与烧录到硬件。4.根据权利要求1所述的一种基于边缘计算设备的ai算法部署系统,其特征是:所述算法运行配置模块主要是指为ai算法程序运行需要的编译器管理工具以及安装ai算法依赖的库。5.根据权利要求1所述的一种基于边缘计算设备的ai算法部署系统,其特征是:所述运维策略模块主要包含程序守护运行、定时任务以及内网穿透、docker容器部署。6.根据权利要求5所述的一种基于边缘计算设备的ai算法部署系统,其特征是:所述程序守护运行和定时任务,从ai算法程序稳定运行的角度,保证程序按照一定的执行策略执行。7.根据权利要求5所述的一种基于边缘计算设备的ai算法部署系统,其特征是:所述内网穿透是指处在不同网段的主机,可远程连接调试边缘计算设备,便捷开展代码调试和其他运维工作。8.根据权利要求5所述的一种基于边缘计算设备的ai算法部署系统,其特征是:所述docker容器部署是指设备软件故障或用户预期快速部署软件系统时,通过docker容器部署,快速恢复linux操作系统以及支持ai算法运行的各种软件。

技术总结
本发明公开一种基于边缘计算设备的AI算法部署系统,主要由站点适配模块、操作系统配置模块、算法运行配置模块、运维策略模块组成。站点适配模块是结合实际应用中选用的边缘计算设备型号不同,提出边缘计算设备支持储能站点容量的估算方式;操作系统配置模块能够根据站点适配结果,选定边缘计算设备后,为后续算法运行配置模块和运维策略模块的安装提供最底层操作系统的支持;算法运行配置模块支持AI算法运行所需要的软件环境部署;运维策略模块用于代码的相关调试以及软件系统的运维,远程代码更新。本发明解决电池数据传输至云端中的问题,降低数据传输延迟,减少存储开销的问题,所使用边缘计算设备功耗低,具备相当计算能力,解放云端算力。解放云端算力。解放云端算力。


技术研发人员:常伟
受保护的技术使用者:上海智焦科技有限公司
技术研发日:2023.06.01
技术公布日:2023/8/21
版权声明

本文仅代表作者观点,不代表航空之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)

飞行汽车 https://www.autovtol.com/

分享:

扫一扫在手机阅读、分享本文

相关推荐