面向边云协同推理的模型分配方法、边云协同推理方法与流程

未命名 09-07 阅读:71 评论:0


1.本技术涉及人工智能技术领域以及数字医疗领域,尤其涉及一种面向边云协同推理的模型分配方法、边云协同推理方法。


背景技术:

2.随着人机交互的需求日益增长,人工智能(artificial intelligence,ai)模型逐渐从云端迁移到边缘端,但限于设备计算能力,边缘端只能部署规模较小的模型,整体推理精度不高。
3.目前,业界提出了边云协同推理方法,即分别在云端和边缘端部署模型,由云端和边缘端协同完成推理。例如,在数字医疗领域中,通过在辅助诊断系统中的云端和边缘端分别部署模型,由云端和边缘端协同完成辅助诊断,既能满足辅助诊断需求量大、实时性要求高的特点,又能挣脱医疗数据高隐私要求和边缘端低计算能力的桎梏。
4.但是,由于边缘端的计算能力各异,若没有合理地为云端和边缘端分配模型,边云协同推理将会产生较大的推理时延,且对整体的推理精度造成影响。


技术实现要素:

5.本技术实施例的主要目的在于提出一种面向边云协同推理的模型分配方法、边云协同推理方法、面向边云协同推理的模型分配装置、电子设备及计算机可读存储介质,能够优化边云协同推理中的模型分配,提高边云协同推理效果。
6.为实现上述目的,本技术实施例的第一方面提出了一种面向边云协同推理的模型分配方法,所述方法包括:
7.获取多个边缘设备的设备资源信息;
8.从预先构建的多个异质模型中为每个所述边缘设备随机选取对应的目标网络模型;
9.根据所述边缘设备的设备资源信息确定所述目标网络模型的模型切分点,其中,所述模型切分点用于将所述目标网络模型划分为第一子网络模块和第二子网络模块,所述第一子网络模块为所述目标网络模型的浅层网络,所述第二子网络模块为所述目标网络模型的深层网络;
10.对于每个所述目标网络模型,将所述第一子网络模块分配给所述目标网络模型对应的边缘设备,将所述第二子网络模块分配给云端服务器,以使所述边缘设备和所述云端服务器分别通过所述第一子网络模块和所述第二子网络模块进行协同推理;
11.在所述边缘设备与所述云端服务器进行协同推理后,获取每个所述边缘设备对应的分配评估结果;
12.对于所述分配评估结果不满足分配结束条件的所述边缘设备,重新从多个所述异质模型中为所述边缘设备随机选取新的目标网络模型,以获得所述边缘设备对应的新的分配评估结果,直至所述新的分配评估结果满足所述分配结束条件。
13.为实现上述目的,本技术实施例的第二方面提出了一种边云协同推理方法,应用于边缘设备,所述方法包括:
14.接收待推理数据;
15.将所述待推理数据输入至第一子网络模块得到中间特征值;
16.向云端服务器发送所述中间特征值,以使所述云端服务器通过第二子网络模块对中间特征值进行推理计算得到推理结果;
17.接收所述云端服务器返回的所述推理结果;
18.其中,所述第一子网络模块和所述云端服务器上的所述第二子网络模块通过第一方面任一实施例所述的面向边云协同推理的模型分配方法分配得到。
19.为实现上述目的,本技术实施例的第三方面提出了一种边云协同推理方法,应用于云端服务器,所述方法包括:
20.接收边缘设备发送的中间特征值,其中,所述中间特征值由所述边缘设备通过第一子网络模块对待推理数据进行推理计算得到;
21.将所述中间特征值输入至第二子网络模块得到推理结果;
22.向所述边缘设备发送所述推理结果;
23.其中,所述第二子网络模块和所述边缘设备上的所述第一子网络模块通过第一方面任一实施例所述的面向边云协同推理的模型分配方法分配得到。
24.为实现上述目的,本技术实施例的第四方面提出了一种面向边云协同推理的模型分配装置,所述装置包括:
25.资源信息获取模块,用于获取多个边缘设备的设备资源信息;
26.网络模型选取模块,用于从预先构建的多个异质模型中为每个所述边缘设备随机选取对应的目标网络模型;
27.网络模型切分模块,用于根据所述边缘设备的设备资源信息确定所述目标网络模型的模型切分点,其中,所述模型切分点用于将所述目标网络模型划分为第一子网络模块和第二子网络模块,所述第一子网络模块为所述目标网络模型的浅层网络,所述第二子网络模块为所述目标网络模型的深层网络;
28.第一模型分配模块,用于对于每个所述目标网络模型,将所述第一子网络模块分配给所述目标网络模型对应的边缘设备,将所述第二子网络模块分配给云端服务器,以使所述边缘设备和所述云端服务器分别通过所述第一子网络模块和所述第二子网络模块进行协同推理;
29.评估结果获取模块,用于在所述边缘设备与所述云端服务器进行协同推理后,获取每个所述边缘设备对应的分配评估结果;
30.第二模型分配模块,用于对于所述分配评估结果不满足分配结束条件的所述边缘设备,重新从多个所述异质模型中为所述边缘设备随机选取新的目标网络模型,以获得所述边缘设备对应的新的分配评估结果,直至所述新的分配评估结果满足所述分配结束条件。
31.根据本技术实施例提供的一种面向边云协同推理的模型分配装置,所述设备资源信息包括所述边缘设备的内存容量,所述网络模型切分模块还包括:
32.第一网络模型切分模块,用于获取所述目标网络模型中每层网络层的内存占用
量;
33.第二网络模型切分模块,用于根据所述目标网络模型中每层网络层的内存占用量和所述边缘设备的内存容量确定所述目标网络模型的模型切分点。
34.根据本技术实施例提供的一种面向边云协同推理的模型分配装置,所述第二网络模型切分模块,包括:
35.内存占用量累计模块,用于从所述目标网络模型中的第一层网络层开始,对每一层网络层的内存占用量进行累计得到当前网络层的内存累计占用量;
36.模型切分点判断模块,用于在所述当前网络层的内存累计占用量大于所述边缘设备的内存容量的情况下,将所述当前网络层和所述当前网络层的上一层网络层之间的位置确定为所述目标网络模型的模型切分点。
37.根据本技术实施例提供的一种面向边云协同推理的模型分配装置,所述分配评估结果包括所述目标网络模型的模型推理精度,所述分配结束条件为所述模型推理精度大于或等于预设精度阈值,所述评估结果获取模块包括:
38.推理结果获取模块,用于对于每个所述边缘设备,获取所述云端服务器通过所述第二子网络模块进行推理计算得到的推理结果;
39.推理精度计算模块,用于根据所述推理结果确定每个所述边缘设备对应的所述目标网络模型的模型推理精度。
40.根据本技术实施例提供的一种面向边云协同推理的模型分配装置,所述分配评估结果包括所述目标网络模型的模型推理延迟,所述分配结束条件为所述模型推理延迟小于或等于预设时间阈值,所述评估结果获取模块包括:
41.第一延时时间获取模块,用于对于每个所述边缘设备,获取所述边缘设备在通过所述第一子网络模块进行推理计算的第一延时时间;
42.第二延时时间获取模块,用于获取所述边缘设备向所述云端服务器发送中间特征值的第二延时时间,所述中间特征值由所述边缘设备通过所述第一子网络模块进行推理计算得到;
43.第三延时时间获取模块,用于获取所述云端服务器在通过所述第二子网络模块进行推理计算的第三延时时间;
44.模型推理延迟计算模块,用于根据所述第一延时时间、所述第二延时时间和所述第三延时时间确定所述每个所述边缘设备对应的所述目标网络模型的模型推理延迟。
45.为实现上述目的,本技术实施例的第五方面提出了一种电子设备,所述电子设备包括存储器、处理器、存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现上述第一方面所述的面向边云协同推理的模型分配方法,第二方面或者第三方面所述边云协同推理方法。
46.为实现上述目的,本技术实施例的第六方面提出了一种存储介质,所述存储介质为计算机可读存储介质,用于计算机可读存储,所述存储介质存储有一个或者多个计算机程序,所述一个或者多个计算机程序可被一个或者多个处理器执行,以实现第一方面所述面向边云协同推理的模型分配方法,第二方面或者第三方面所述边云协同推理方法。
47.本技术提出一种面向边云协同推理的模型分配方法、边云协同推理方法、面向边云协同推理的模型分配装置、电子设备及计算机可读存储介质,该模型分配方法首先获取
多个边缘设备的设备资源信息,并从预先构建的多个异质模型中为每个边缘设备随机选取对应的目标网络模型,之后根据边缘设备的设备资源信息确定目标网络模型的模型切分点,其中,模型切分点用于将目标网络模型划分为第一子网络模块和第二子网络模块,第一子网络模块为目标网络模型的浅层网络,第二子网络模块为目标网络模型的深层网络,对于每个目标网络模型,将第一子网络模块分配给目标网络模型对应的边缘设备,将第二子网络模块分配给云端服务器,以使边缘设备和云端服务器分别通过第一子网络模块和第二子网络模块进行协同推理,在边缘设备与云端服务器进行协同推理后,获取每个边缘设备对应的分配评估结果,对于分配评估结果不满足分配结束条件的边缘设备,重新从多个异质模型中为边缘设备随机选取新的目标网络模型,以获得边缘设备对应的新的分配评估结果,直至新的分配评估结果满足分配结束条件。本技术实施例在为边缘设备和云端服务器进行模型分配后,获取边缘设备对应的分配评估结果,对于分配评估结果不满足分配结束条件的边缘设备,重新从多个异质模型中为该边缘设备随机选取新的目标网络模型,基于新的目标网络模型进行新一轮的模型分配,不断优化模型分配方案,提高边云协同推理整体的推理效果。
48.本技术提出的一种面向边云协同推理的模型分配方法可以应用于数字医疗领域,在医疗应用场景中,边缘设备可以为医疗终端设备,云端服务器可以为医疗云服务器,医疗终端设备与医疗云服务器进行边云协同推理,该模型分配方法首先获取多个医疗终端设备的设备资源信息,并从预先构建的多个异质模型中为每个医疗终端设备随机选取对应的目标网络模型,之后根据医疗终端设备的设备资源信息确定目标网络模型的模型切分点,其中,模型切分点用于将目标网络模型划分为第一子网络模块和第二子网络模块,第一子网络模块为目标网络模型的浅层网络,第二子网络模块为目标网络模型的深层网络,对于每个目标网络模型,将第一子网络模块分配给目标网络模型对应的医疗终端设备,将第二子网络模块分配给医疗云服务器,以使医疗终端设备和医疗云服务器分别通过第一子网络模块和第二子网络模块进行协同推理,在医疗终端设备与医疗云服务器进行协同推理后,获取每个边缘设备对应的分配评估结果,对于分配评估结果不满足分配结束条件的边缘设备,重新从多个异质模型中为边缘设备随机选取新的目标网络模型,以获得边缘设备对应的新的分配评估结果,直至新的分配评估结果满足分配结束条件。本技术实施例在为边缘设备和云端服务器进行模型分配后,获取边缘设备对应的分配评估结果,对于分配评估结果不满足分配结束条件的边缘设备,重新从多个异质模型中为该边缘设备随机选取新的目标网络模型,基于新的目标网络模型进行新一轮的模型分配,不断优化模型分配方案,提高边云协同推理整体的推理效果,使得医疗终端设备和医疗云服务器能够利用目标网络模型实现边云协同推理,在满足医疗辅助诊断需求量大,实时性要求高的特点,且挣脱医疗数据高隐私要求和医疗终端设备低计算力的桎梏的情况下,能够获取较佳的边云协同推理结果,有效地辅助医生进行医疗诊断,提高医生工作效率。
附图说明
49.图1是本技术实施例提供的一种面向边云协同推理的模型分配方法的流程示意图;
50.图2是图1中步骤s130的子步骤流程示意图;
51.图3是图2中步骤s220的子步骤流程示意图;
52.图4是图1中步骤s150的子步骤流程示意图;
53.图5是图1中步骤s150的子步骤流程示意图;
54.图6是本技术实施例提供的一种边云协同推理方法的流程示意图;
55.图7是本技术另一实施例提供的一种边云协同推理方法的流程示意图;
56.图8是本技术实施例提供的一种实施环境的示意图;
57.图9是本技术另一实施例提供的一种实施环境的示意图;
58.图10是本技术实施例提供的多种异质模型的结构示意图;
59.图11是本技术另一实施例提供的一种面向边云协同推理的模型分配方法的流程示意图;
60.图12是本技术实施例提供的一种面向边云协同推理的模型分配装置的结构示意图;
61.图13是本技术实施例提供的一种电子设备的硬件结构示意图。
具体实施方式
62.为了使本技术的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本技术进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本技术,并不用于限定本技术。
63.需要说明的是,除非另有定义,本文所使用的所有的技术和科学术语与属于本技术的技术领域的技术人员通常理解的含义相同。本文中所使用的术语只是为了描述本技术实施例的目的,不是旨在限制本技术。
64.首先描述本技术实施例中的面向边云协同推理的模型分配方法:
65.本技术实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(artificial intelligence,ai)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
66.人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
67.本技术实施例提供的面向边云协同推理的模型分配方法可应用于终端中,也可应用于服务器端中,还可以是运行于终端或服务器端中的软件。在一些实施例中,终端可以是智能手机、平板电脑、笔记本电脑、台式计算机等;服务器端可以配置成独立的物理服务器,也可以配置成多个物理服务器构成的服务器集群或者分布式系统,还可以配置成提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、cdn以及大数据和人工智能平台等基础云计算服务的云服务器;软件可以是实现面向边云协同推理的模型分配方法的应用等,但并不局限于以上形式。
68.本技术实施例可用于众多通用或专用的计算机系统环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器系统、基于微处理器的
系统、置顶盒、可编程的消费电子设备、网络pc、小型计算机、大型计算机、包括以上任何系统或设备的分布式计算环境等等。本技术可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本技术,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
69.在一个具体实施例中,参见图8,图8示出了本技术提供的一种实施环境示意图,如图8所示,该实施环境包括云端服务器和多个边缘设备,其中,云端服务器通过有线或无线通信方式与多个边缘设备进行直接或间接的连接。
70.云端服务器用于执行本技术实施例提供的一种面向边云协同推理的模型分配方法,云端服务器在执行模型分配方法的过程中,获取多个边缘设备的设备资源信息,将目标网络模型的第一网络子模块分配给对应的边缘设备,并通过目标网络模型的第二网络子模块与边缘设备进行边云协同推理。
71.在另一个具体实施例中,参见图9,图9示出了本技术提供的一种实施环境示意图,如图9所示,该实施环境包括云端服务器、数据库服务器以及多个边缘设备,其中,云端服务器通过有线或无线通信方式与数据库服务器、多个边缘设备进行直接或间接的连接。
72.数据库服务器中构建有异质模型库,异质模型库中存储有多个异质模型,云端服务器用于执行本技术实施例提供的面向边云协同推理的模型分配方法,云端服务器在执行模型分配方法的过程中,从数据库服务器的异质模型库中获取多个异质模型,并从多个异质模型中为每个边缘设备随机选取对应的目标网络模型,从而将目标网络模型的第一网络子模块分配给对应的边缘设备,并通过目标网络模型的第二网络子模块与边缘设备进行边云协同推理。
73.在另一个具体实施例中,本技术实施例提供的面向边云协同推理的模型分配方法还可以应用于包括有数据库服务器、云端服务器、多个边缘设备以及独立的模型分配设备的实施环境。其中,模型分配设备通过有线或无线通信方式与数据库服务器、云端服务器、多个边缘设备进行直接或间接的连接。
74.数据库服务器中构建有异质模型库,异质模型库中存储有多个异质模型,模型分配设备用于执行本技术实施例提供的面向边云协同推理的模型分配方法,模型分配设备在执行模型分配方法的过程中,获取多个边缘设备的设备资源信息,从数据库服务器的异质模型库中获取多个异质模型,并从多个异质模型中为每个边缘设备随机选取对应的目标网络模型,从而将目标网络模型的第一子网络模块分配给对应的边缘设备,以及将目标网络模型的第二子网络模块分配给云端服务器,从而使得边缘设备和云端服务器能够分别通过第一子网络模块和第二子网络模块进行边云协同推理。
75.请参见图1,图1示出了本技术实施例提供的一种面向边云协同推理的模型分配方法的流程示意图,如图1所示,该面向边云协同推理的模型分配方法包括但不限于步骤s110至步骤s160。
76.步骤s110,获取多个边缘设备的设备资源信息。
77.可以理解的是,在步骤s110之前,还可以通过接收模型分配任务,该模型分配任务包括边云协同推理任务以及参与边云协同推理的多个边缘设备和云端服务器,之后根据模
型分配任务获取多个边缘设备的设备资源信息。
78.步骤s120,从预先构建的多个异质模型中为每个所述边缘设备随机选取对应的目标网络模型。
79.应能理解的是,异质模型指的是用于同个推理任务但网络结构不同的网络模型,参见图10,图10示出了本技术实施例提供的多个异质模型的结构示意图,如图10所示,异质模型库中存储有m个网络结构不同的模型,其中,第一个模型包括i层网络层,第二个模型包括j层网络层,第m个模型包括k层网络层。例如,边云协同推理任务为计算机视觉领域中的图像分类任务,则从异质模型库中获取用于图像分类任务、网络结构不同的多个异质模型,从而为多个边缘设备随机选取对应的目标网络模型。
80.还需要说明的是,异质模型的数量大于边缘设备的数量,在模型分配过程中为边缘设备提供足够多的异质模型,尽可能为边缘设备找到较好的模型分配方案。
81.在一个具体实施例中,从预先构建的多个异质模型中为每个边缘设备随机选取对应的目标网络模型,包括:
82.根据边云协同推理任务从预先构建的异质模型库中获取多个异质模型;
83.从多个所述异质模型中为每个所述边缘设备随机选取对应的目标网络模型。
84.可以理解的是,预先构建的异质模型库中包括对应不同边云协同推理任务的多个异质模型,可以提高模型分配方法的泛用性,针对不同的边云协同推理任务,只需要根据本次的边云协同推理任务从异质模型库中即可获取对应的多个异质模型,从而在多个异质模型中为每个边缘设备随机选取对应的目标网络模型。
85.步骤s130,根据所述边缘设备的设备资源信息确定所述目标网络模型的模型切分点,其中,所述模型切分点用于将所述目标网络模型划分为第一子网络模块和第二子网络模块,所述第一子网络模块为所述目标网络模型的浅层网络,所述第二子网络模块为所述目标网络模型的深层网络。
86.可以理解的是,根据边缘设备的设备资源信息确定目标网络模型的模型切分点,能够划分出适配边缘设备的第一子网络模块。
87.参见图11,图11示出了本技术实施例提供的面向边云协同推理的模型分配方法,如图11所示,对于模型m,第一子网络模块是第1层网络层,为模型m的浅层网络模块,第二子网络模块是第2层至第k层网络层,为模型m的深层网络模块。
88.可以理解的是,浅层网络指的是相对接近于模型输入端的网络,而深层网络指的是相对接近于模型输出端的网络,将目标网络模型的浅层网络部署到边缘设备,边缘设备将本地数据作为目标网络模型的输入,输入至浅层网络进行推理计算得到中间特征值,之后将中间特征值上传至云端服务器,由云端服务器通过深层网络对中间特征值进行推理计算得到推理结果。将浅层网络部署在边缘设备,边缘设备上传到云端服务器的是中间特征值,而不是原始的本地数据,能够保护用户隐私。
89.在一些实施例中,所述设备资源信息包括所述边缘设备的内存容量,参见图2,图2示出了图1中步骤s130的子步骤流程示意图,如图2所示,所述根据所述边缘设备的设备资源信息确定所述目标网络模型的模型切分点,包括但不限于步骤s210和步骤s220。
90.步骤s210,获取所述目标网络模型中每层网络层的内存占用量。
91.步骤s220,根据所述目标网络模型中每层网络层的内存占用量和所述边缘设备的
内存容量确定所述目标网络模型的模型切分点。
92.可以理解的是,网络层的内容占用量指的是网络层运行时占用的随机存取存储器(random access memory,ram)的容量,网络层的内存占用量可以根据网络层的网络参数量确定。将网络层的内存占用量作为切分模型的参考指标,能够调整边缘设备在运行第一子网络模块进行推理计算时的内存占用量以满足实际应用需求。
93.在一些实施例中,参见图3,图3示出了图2中步骤s220的子步骤流程示意图,如图3所示,所述根据所述目标网络模型中每层网络层的内存占用量和所述边缘设备的内存容量确定所述目标网络模型的模型切分点,包括但不限于步骤s310和步骤s320。
94.步骤s310,从所述目标网络模型中的第一层网络层开始,对每一层网络层的内存占用量进行累计得到当前网络层的内存累计占用量。
95.步骤s320,在所述当前网络层的内存累计占用量大于所述边缘设备的内存容量的情况下,将所述当前网络层和所述当前网络层的上一层网络层之间的位置确定为所述目标网络模型的模型切分点。
96.可以理解的是,从目标网络模型中的第一层网络层开始,对每一层网络层的内容占用量进行累计依次得到当前网络层的内存累计占用量,示例性的,第一层网络层的内存占用量为2mb,第二层网络层的内存占用量为4mb,第三层网络层的内存占用量为6mb
……
,则第二层网络层的内存累计占用量为6mb,第三层网络层的内存累计占用量为12mb,若边缘设备的内存容量为8mb,第三层网络层的内存累计占用量12mb大于边缘设备的内存容量8mb,则将第三层网络层和第三层网络层的上一层网络层(即第二层网络层)之间的位置确定为目标网络的模型切分点。
97.假设第i个边缘设备(内存容量为si)随机选取到多个异质模型中的第j个目标网络模型modelj,从目标网络模型modelj第一层l1开始,一直搜索到第k层lk满足以下条件:
[0098][0099]
其中,size(*)表示网络层的大小,即网络层运行时的内存占用量。
[0100]
示例性的,如图11所示,模型m的模型切分点为第一层网络模型和第二层网络模型之间的位置,该模型切分点将模型m划分成包括第一层网络层的第一子网络模块和包括第二层网络层至第k层网络层的第二子网络模块。
[0101]
应能理解的是,在当前网络层的内存累计占用量大于边缘设备的内存容量的情况下,将当前网络层和当前网络层的上一层网络层之间的位置确定为目标网络模型的模型切分点,能够最大限度提高边缘设备通过第一子网络模块进行推理计算时的内存资源利用率。
[0102]
步骤s140,对于每个所述目标网络模型,将所述第一子网络模块分配给所述目标网络模型对应的边缘设备,将所述第二子网络模块分配给云端服务器,以使所述边缘设备和所述云端服务器分别通过所述第一子网络模块和所述第二子网络模块进行协同推理。
[0103]
可以理解的是,若通过独立的模型分配设备执行本技术实施例提供的模型分配方法,则对于每个目标网络模型,模型分配设备将第一子网络模块发送给目标网络模型对应的边缘设备,以及将第二子网络模块发送给参与边云协同推理的云端服务器。若通过参与边云协同推理的云端服务器执行本技术实施例提供的模型分配方法,则对于每个目标网络模型,云端服务器将第一子网络模块发送给目标网络模型对应的边缘设备,同时,云端服务
器保存第二子网络模块。
[0104]
在一些可能的实施例中,所述将所述第一子网络模块分配给所述目标网络模型对应的边缘设备,包括:
[0105]
向所述目标网络模型对应的所述边缘设备发送分配指示信息,所述分配指示信息用于指示所述边缘设备根据所述模型切分点从异质模型库中获取所述目标网络模型中的所述第一子网络模块。
[0106]
可以理解的是,本技术实施例提供的面向边云协同推理的模型分配方法从异质模型库获取多个异质模型,在确定目标网络模型的模型切分点之后,向边缘设备发送对应的分配指示信息,以使边缘设备向该异质模型库获取对应的第一自网络模块,在云端服务器执行模型分配方法,且异质模块库部署于独立的数据库服务器的情况下,能够减轻云端服务器的传输压力。
[0107]
步骤s150,在所述边缘设备与所述云端服务器进行协同推理后,获取每个所述边缘设备对应的分配评估结果。
[0108]
可以理解的是,分配评估结果表征边缘设备和云端服务器通过第一子网络模块和第二子网络模块进行协同推理的推理效果好坏,根据推理效果好坏重新进行模型分配以得到较优的模型分配方案。
[0109]
在一些实施例中,所述分配评估结果包括所述目标网络模型的模型推理精度,所述分配结束条件为所述模型推理精度大于或等于预设精度阈值,参见图4,图4示出了图1中步骤s150的子步骤流程示意图,如图4所示,所述获取每个所述边缘设备对应的分配评估结果,包括但不限于步骤s410和步骤s420。
[0110]
步骤s410,对于每个所述边缘设备,获取所述云端服务器通过所述第二子网络模块进行推理计算得到的推理结果。
[0111]
步骤s420,根据所述推理结果确定每个所述边缘设备对应的所述目标网络模型的模型推理精度。
[0112]
应能理解的是,将模型推理精度作为评价模型推理效果的指标之一,对于模型推理精度不满足分配结束条件的边缘设备,重新从多个异质模型中随机选取新的目标网络模型,得到新的分配评估结果,直至模型推理精度大于或等于预设精度阈值,得到最终的模型分配方案,能够提高边云协同推理整体的推理精度。
[0113]
示例性的,对于图像分割的边云协同推理任务,第i个目标网络模型在验证集(z个图片)的模型推理精度可以为:
[0114][0115]
其中,acci表示验证集中第j个验证图片的模型推理精度。
[0116]
在一些实施例中,所述分配评估结果包括所述目标网络模型的模型推理延迟,所述分配结束条件为所述模型推理延迟小于或等于预设时间阈值,参见图5,图5示出了图1中步骤s150的子步骤流程示意图,如图5所示,所述获取每个所述边缘设备对应的分配评估结果,包括但不限于步骤s510至步骤s540。
[0117]
步骤s510,对于每个所述边缘设备,获取所述边缘设备在通过所述第一子网络模
块进行推理计算的第一延时时间。
[0118]
步骤s520,获取所述边缘设备向所述云端服务器发送中间特征值的第二延时时间,所述中间特征值由所述边缘设备通过所述第一子网络模块进行推理计算得到。
[0119]
步骤s530,获取所述云端服务器在通过所述第二子网络模块进行推理计算的第三延时时间。
[0120]
步骤s540,根据所述第一延时时间、所述第二延时时间和所述第三延时时间确定所述每个所述边缘设备对应的所述目标网络模型的模型推理延迟。
[0121]
应能理解的是,将模型推理延迟作为评价模型推理效果的指标之一,对于模型推理延迟不满足分配结束条件的边缘设备,重新从多个异质模型中随机选取新的目标网络模型,得到新的分配评估结果,直至模型推理延迟小于或等于预设时间阈值,得到最终的模型分配方案,能够降低边云协同推理整体的推理时延。
[0122]
需要说明的是,目标网络模型被划分为两个模块:第一子网络模块和第二子网络模块,因此每个目标网络模型的推断延迟包括三个部分:边缘设备通过第一子网络模块进行推理计算的第一延时时间l
edge
,传输通过第一子网络模块推理计算得到的中间特征值到云端服务器的第二延时时间l
trans
,以及云端服务器通过第二子网络模块进行推理计算的第三延时时间l
cloud
,从而根据第一延时时间、第二延时时间和第三延时时间确定每个边缘设备对应的目标网络模型的模型推理延时li,表示如下:
[0123]
li=l
edge
+l
trans
+l
cloud

[0124]
在一些可能的实施例中,在边缘设备和云端服务器进行边云协同推理之后,为模型推理精度最低的边缘设备和模型推理延迟最慢的边缘设备重新确定新的目标网络模型,直至多个边缘设备中最低的模型推理精度大于预设精度阈值,而多个边缘设备中最慢的模型推理延迟小于预设时间阈值,得到模型分配方案。
[0125]
步骤s160,对于所述分配评估结果不满足分配结束条件的所述边缘设备,重新从多个所述异质模型中为所述边缘设备随机选取新的目标网络模型,以获得所述边缘设备对应的新的分配评估结果,直至所述新的分配评估结果满足所述分配结束条件。
[0126]
可以理解的是,对于分配评估结果不满足分配结束条件的边缘设备,则重新从多个异质模型中为该边缘设备随机选取新的目标网络模型,根据边缘设备的设备资源信息确定新的目标网络模型的模型切分点,从而根据新的目标网络模型的模型切分点将新的目标网络模型切分成新的第一子网络模型和新的第二子网络模型,将新的第一子网络模型分配至所述边缘设备,将新的第二子网络模型分配至所述云端服务器,在边缘设备和云端服务器进行协同推理后,获取边缘设备对应的新的分配评估结果,直至新的分配评估结果满足分配结束条件。
[0127]
在为边缘设备和云端服务器进行模型分配后,获取边缘设备对应的分配评估结果,对于分配评估结果不满足分配结束条件的边缘设备,重新从多个异质模型中为该边缘设备随机选取新的目标网络模型,基于新的目标网络模型进行新一轮的模型分配,既能优化模型分配方案,提高边云协同推理整体的推理效果,又因为本技术实施例在每轮模型分配中都是基于随机选取的不同网络模型,相较于只改变网络模型切分点、不改变边缘设备和云端服务器上网络模型结构的模型分配优化方式,本技术实施例提供的模型分配方法泛用性更强,能够在边缘设备计算能力各异的实施环境中更加快速地优化模型分配,最终寻
得较优的模型分配方案。进一步的,由于模型切分点只取决于边缘设备的设备资源信息,还能够在为边缘设备和云端服务器寻得较优的模型分配方案过程中,确保划分后的第一子网络模块在设备资源方面上能够适配边缘设备,例如划分后的第一子网络模块在推理计算时能够最大限度占满边缘设备的内存资源,提高边缘设备的资源利用率,避免出现边缘设备只运行目标网络模型极小部分的网络层而造成大部分资源空闲,同时又加重了云端服务器的推理计算负担的情况。
[0128]
本技术提出一种面向边云协同推理的模型分配方法,该模型分配方法首先获取多个边缘设备的设备资源信息,并从预先构建的多个异质模型中为每个边缘设备随机选取对应的目标网络模型,之后根据边缘设备的设备资源信息确定目标网络模型的模型切分点,其中,模型切分点用于将目标网络模型划分为第一子网络模块和第二子网络模块,第一子网络模块为目标网络模型的浅层网络,第二子网络模块为目标网络模型的深层网络,对于每个目标网络模型,将第一子网络模块分配给目标网络模型对应的边缘设备,将第二子网络模块分配给云端服务器,以使边缘设备和云端服务器分别通过第一子网络模块和第二子网络模块进行协同推理,在边缘设备与云端服务器进行协同推理后,获取每个边缘设备对应的分配评估结果,对于分配评估结果不满足分配结束条件的边缘设备,重新从多个异质模型中为边缘设备随机选取新的目标网络模型,以获得边缘设备对应的新的分配评估结果,直至新的分配评估结果满足分配结束条件。本技术实施例在为边缘设备和云端服务器进行模型分配后,获取边缘设备对应的分配评估结果,对于分配评估结果不满足分配结束条件的边缘设备,重新从多个异质模型中为该边缘设备随机选取新的目标网络模型,基于新的目标网络模型进行新一轮的模型分配,不断优化模型分配方案,提高边云协同推理整体的推理效果。
[0129]
参见图6,图6示出了本技术实施例提供一种边云协同推理方法,应用于边缘设备,如图6所示,所述方法包括但不限于步骤s610至s640。
[0130]
步骤s610,接收待推理数据。
[0131]
步骤s620,将所述待推理数据输入至第一子网络模块得到中间特征值。
[0132]
步骤s630,向云端服务器发送所述中间特征值,以使所述云端服务器通过第二子网络模块对中间特征值进行推理计算得到推理结果。
[0133]
步骤s640,接收所述云端服务器返回的所述推理结果。
[0134]
其中,第一子网络模块和云端服务器上的第二子网络模块通过上述任一实施例提供的面向边云协同推理的模型分配方法分配得到。
[0135]
需要说明的是,边云协同推理方法由于与本技术实施例提供的面向边云协同推理的模型分配方法属于同一发明构思,其具体步骤及带来的技术效果,具体可参见模型分配方法实施例部分,此处不再赘述。
[0136]
参见图7,图7示出了本技术另一实施例提供的一种边云协同推理方法,如图7所示,所述方法包括但不限于步骤s710至步骤s730。
[0137]
步骤s710,接收边缘设备发送的中间特征值,其中,所述中间特征值由所述边缘设备通过第一子网络模块对待推理数据进行推理计算得到。
[0138]
步骤s720,将所述中间特征值输入至第二子网络模块得到推理结果。
[0139]
步骤s730,向所述边缘设备发送所述推理结果。
[0140]
其中,第二子网络模块和边缘设备上的第一子网络模块通过上述任一实施例提供的面向边云协同推理的模型分配方法分配得到。
[0141]
需要说明的是,边云协同推理方法由于与本技术实施例提供的面向边云协同推理的模型分配方法属于同一发明构思,其具体步骤及带来的技术效果,具体可参见模型分配方法实施例部分,此处不再赘述。
[0142]
下面通过具体实施例描述本技术实施例的应用场景:
[0143]
本技术实施例提供的面向边云协同推理的模型分配方法应用于数字医疗领域中基于人工智能技术的辅助诊断系统,该辅助诊断系统中包括医疗云服务器和多个医疗终端设备,在医疗应用场景中,样本图像为医学影像,样本图像包含的对象所属类型为病灶,即机体上发生病变的部分。医学影像是指为了医疗或医学研究,以非侵入方式取得的内部组织,例如,胃部、腹部、心脏、膝盖、脑部的影像,比如,ct(computed tomography,电子计算机断层扫描)、mri(magnet i cresonance i magi ng,磁共振成像)、us(u l trason i c,超声)、x光图像、脑电图以及光学摄影灯由医学仪器生成的图像。
[0144]
医疗云服务器用于执行本技术实施例的面向边云推理的模型分配方法。例如,在面对医学图像分割任务时,医疗云服务器预先根据本技术实施例提供的面向边云推理的模型分配方法进行模型分配,在模型分配完成之后,当医疗终端设备接收到用户发送的待分割医学图像,通过分配得到的第一子网络模块对待分割医学图像进行推理计算得到待分割医学图像的中间特征值,并将待分割图像的中间特征值上传至医疗云服务器,医疗云服务器通过第二子网络模块对接收到的中间特征值进行推理计算得到待分割医学图像的分割结果,并将待分割医学图像的分割结果返回给医疗终端设备,完成医学图像分割任务。
[0145]
请参见图12,本技术实施例还提供了一种面向边云协同的模型分配装置100,该面向边云协同的模型分配装置100包括:
[0146]
资源信息获取模块110,用于获取多个边缘设备的设备资源信息;
[0147]
网络模型选取模块120,用于从预先构建的多个异质模型中为每个所述边缘设备随机选取对应的目标网络模型;
[0148]
网络模型切分模块130,用于根据所述边缘设备的设备资源信息确定所述目标网络模型的模型切分点,其中,所述模型切分点用于将所述目标网络模型划分为第一子网络模块和第二子网络模块,所述第一子网络模块为所述目标网络模型的浅层网络,所述第二子网络模块为所述目标网络模型的深层网络;
[0149]
第一模型分配模块140,用于对于每个所述目标网络模型,将所述第一子网络模块分配给所述目标网络模型对应的边缘设备,将所述第二子网络模块分配给云端服务器,以使所述边缘设备和所述云端服务器分别通过所述第一子网络模块和所述第二子网络模块进行协同推理;
[0150]
评估结果获取模块150,用于在所述边缘设备与所述云端服务器进行协同推理后,获取每个所述边缘设备对应的分配评估结果;
[0151]
第二模型分配模块160,用于对于所述分配评估结果不满足分配结束条件的所述边缘设备,重新从多个所述异质模型中为所述边缘设备随机选取新的目标网络模型,以获得所述边缘设备对应的新的分配评估结果,直至所述新的分配评估结果满足所述分配结束条件。
[0152]
在一些实施例中,所述设备资源信息包括所述边缘设备的内存容量,所述网络模型切分模块还包括:
[0153]
第一网络模型切分模块,用于获取所述目标网络模型中每层网络层的内存占用量;
[0154]
第二网络模型切分模块,用于根据所述目标网络模型中每层网络层的内存占用量和所述边缘设备的内存容量确定所述目标网络模型的模型切分点。
[0155]
在一些实施例中,所述第二网络模型切分模块,包括:
[0156]
内存占用量累计模块,用于从所述目标网络模型中的第一层网络层开始,对每一层网络层的内存占用量进行累计得到当前网络层的内存累计占用量;
[0157]
模型切分点判断模块,用于在所述当前网络层的内存累计占用量大于所述边缘设备的内存容量的情况下,将所述当前网络层和所述当前网络层的上一层网络层之间的位置确定为所述目标网络模型的模型切分点。
[0158]
在一些实施例中,所述分配评估结果包括所述目标网络模型的模型推理精度,所述分配结束条件为所述模型推理精度大于或等于预设精度阈值,所述评估结果获取模块包括:
[0159]
推理结果获取模块,用于对于每个所述边缘设备,获取所述云端服务器通过所述第二子网络模块进行推理计算得到的推理结果;
[0160]
推理精度计算模块,用于根据所述推理结果确定每个所述边缘设备对应的所述目标网络模型的模型推理精度。
[0161]
在一些实施例中,所述分配评估结果包括所述目标网络模型的模型推理延迟,所述分配结束条件为所述模型推理延迟小于或等于预设时间阈值,所述评估结果获取模块包括:
[0162]
第一延时时间获取模块,用于对于每个所述边缘设备,获取所述边缘设备在通过所述第一子网络模块进行推理计算的第一延时时间;
[0163]
第二延时时间获取模块,用于获取所述边缘设备向所述云端服务器发送中间特征值的第二延时时间,所述中间特征值由所述边缘设备通过所述第一子网络模块进行推理计算得到;
[0164]
第三延时时间获取模块,用于获取所述云端服务器在通过所述第二子网络模块进行推理计算的第三延时时间;
[0165]
模型推理延迟计算模块,用于根据所述第一延时时间、所述第二延时时间和所述第三延时时间确定所述每个所述边缘设备对应的所述目标网络模型的模型推理延迟。
[0166]
需要说明的是,上述装置的模块之间的信息交互、执行过程等内容,由于与本技术方法实施例基于同一构思,其具体功能及带来的技术效果,具体可参见方法实施例部分,此处不再赘述。
[0167]
请参见图13,图13示出本技术实施例提供的一种电子设备的硬件结构,电子设备包括:
[0168]
处理器210,可以采用通用的cpu(central processing unit,中央处理器)、微处理器、应用专用集合成电路(application specific integrated circuit,asic)、或者一个或多个集合成电路等方式实现,用于执行相关计算机程序,以实现本技术实施例所提供
可以表示:只存在a,只存在b以及同时存在a和b三种情况,其中a,b可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。“以下至少一项(个)”或其类似表达,是指这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b或c中的至少一项(个),可以表示:a,b,c,“a和b”,“a和c”,“b和c”,或“a和b和c”,其中a,b,c可以是单个,也可以是多个。
[0178]
在本技术所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,上述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集合成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
[0179]
上述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。另外,在本技术每个实施例中的各功能单元可以集合成在一个处理单元中,也可以是每个单元单独物理存在,也可以两个或两个以上单元集合成在一个单元中。上述集合成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
[0180]
集合成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本技术的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括多指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本技术每个实施例的方法的全部或部分步骤。而前述的存储介质包括:u盘、移动硬盘、只读存储器(read-on ly memory,简称rom)、随机存取存储器(random access memory,简称ram)、磁碟或者光盘等各种可以存储程序的介质。
[0181]
以上参照附图说明了本技术实施例的优选实施例,并非因此局限本技术实施例的权利范围。本领域技术人员不脱离本技术实施例的范围和实质内所作的任何修改、等同替换和改进,均应在本技术实施例的权利范围之内。

技术特征:
1.一种面向边云协同推理的模型分配方法,其特征在于,所述方法包括:获取多个边缘设备的设备资源信息;从预先构建的多个异质模型中为每个所述边缘设备随机选取对应的目标网络模型;根据所述边缘设备的设备资源信息确定所述目标网络模型的模型切分点,其中,所述模型切分点用于将所述目标网络模型划分为第一子网络模块和第二子网络模块,所述第一子网络模块为所述目标网络模型的浅层网络,所述第二子网络模块为所述目标网络模型的深层网络;对于每个所述目标网络模型,将所述第一子网络模块分配给所述目标网络模型对应的边缘设备,将所述第二子网络模块分配给云端服务器,以使所述边缘设备和所述云端服务器分别通过所述第一子网络模块和所述第二子网络模块进行协同推理;在所述边缘设备与所述云端服务器进行协同推理后,获取每个所述边缘设备对应的分配评估结果;对于所述分配评估结果不满足分配结束条件的所述边缘设备,重新从多个所述异质模型中为所述边缘设备随机选取新的目标网络模型,以获得所述边缘设备对应的新的分配评估结果,直至所述新的分配评估结果满足所述分配结束条件。2.根据权利要求1所述的面向边云协同推理的模型分配方法,其特征在于,所述设备资源信息包括所述边缘设备的内存容量;所述根据所述边缘设备的设备资源信息确定所述目标网络模型的模型切分点,包括:获取所述目标网络模型中每层网络层的内存占用量;根据所述目标网络模型中每层网络层的内存占用量和所述边缘设备的内存容量确定所述目标网络模型的模型切分点。3.根据权利要求2所述的面向边云协同推理的模型分配方法,其特征在于,所述根据所述目标网络模型中每层网络层的内存占用量和所述边缘设备的内存容量确定所述目标网络模型的模型切分点,包括:从所述目标网络模型中的第一层网络层开始,对每一层网络层的内存占用量进行累计得到当前网络层的内存累计占用量;在所述当前网络层的内存累计占用量大于所述边缘设备的内存容量的情况下,将所述当前网络层和所述当前网络层的上一层网络层之间的位置确定为所述目标网络模型的模型切分点。4.根据权利要求1所述的面向边云协同推理的模型分配方法,其特征在于,所述分配评估结果包括所述目标网络模型的模型推理精度,所述分配结束条件为所述模型推理精度大于或等于预设精度阈值;所述获取每个所述边缘设备对应的分配评估结果,包括:对于每个所述边缘设备,获取所述云端服务器通过所述第二子网络模块进行推理计算得到的推理结果;根据所述推理结果确定每个所述边缘设备对应的所述目标网络模型的模型推理精度。5.根据权利要求1所述的面向边云协同推理的模型分配方法,其特征在于,所述分配评估结果包括所述目标网络模型的模型推理延迟,所述分配结束条件为所述模型推理延迟小于或等于预设时间阈值;
所述获取每个所述边缘设备对应的分配评估结果,包括:对于每个所述边缘设备,获取所述边缘设备在通过所述第一子网络模块进行推理计算的第一延时时间;获取所述边缘设备向所述云端服务器发送中间特征值的第二延时时间,所述中间特征值由所述边缘设备通过所述第一子网络模块进行推理计算得到;获取所述云端服务器在通过所述第二子网络模块进行推理计算的第三延时时间;根据所述第一延时时间、所述第二延时时间和所述第三延时时间确定所述每个所述边缘设备对应的所述目标网络模型的模型推理延迟。6.一种边云协同推理方法,其特征在于,应用于边缘设备,所述方法包括:接收待推理数据;将所述待推理数据输入至第一子网络模块得到中间特征值;向云端服务器发送所述中间特征值,以使所述云端服务器通过第二子网络模块对中间特征值进行推理计算得到推理结果;接收所述云端服务器返回的所述推理结果;其中,所述第一子网络模块和所述云端服务器上的所述第二子网络模块通过权利要求1至5任一项所述的面向边云协同推理的模型分配方法分配得到。7.一种边云协同推理方法,其特征在于,应用于云端服务器,所述方法包括:接收边缘设备发送的中间特征值,其中,所述中间特征值由所述边缘设备通过第一子网络模块对待推理数据进行推理计算得到;将所述中间特征值输入至第二子网络模块得到推理结果;向所述边缘设备发送所述推理结果;其中,所述第二子网络模块和所述边缘设备上的所述第一子网络模块通过权利要求1至5任一项所述的面向边云协同推理的模型分配方法分配得到。8.一种面向边云协同推理的模型分配装置,其特征在于,所述装置包括:资源信息获取模块,用于获取多个边缘设备的设备资源信息;网络模型选取模块,用于从预先构建的多个异质模型中为每个所述边缘设备随机选取对应的目标网络模型;网络模型切分模块,用于根据所述边缘设备的设备资源信息确定所述目标网络模型的模型切分点,其中,所述模型切分点用于将所述目标网络模型划分为第一子网络模块和第二子网络模块,所述第一子网络模块为所述目标网络模型的浅层网络,所述第二子网络模块为所述目标网络模型的深层网络;第一模型分配模块,用于对于每个所述目标网络模型,将所述第一子网络模块分配给所述目标网络模型对应的边缘设备,将所述第二子网络模块分配给云端服务器,以使所述边缘设备和所述云端服务器分别通过所述第一子网络模块和所述第二子网络模块进行协同推理;评估结果获取模块,用于在所述边缘设备与所述云端服务器进行协同推理后,获取每个所述边缘设备对应的分配评估结果;第二模型分配模块,用于对于所述分配评估结果不满足分配结束条件的所述边缘设备,重新从多个所述异质模型中为所述边缘设备随机选取新的目标网络模型,以获得所述
边缘设备对应的新的分配评估结果,直至所述新的分配评估结果满足所述分配结束条件。9.一种电子设备,其特征在于,包括:至少一个处理器;以及,与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至5中任一项所述的面向边云协同推理的模型分配方法,或如权利要求6或7所述的边云协同推理方法。10.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至5中任一项所述的面向边云协同推理的模型分配方法,或如权利要求6或7所述的边云协同推理方法。

技术总结
本申请涉及人工智能技术领域以及数字医疗领域,提供了一种面向边云协同推理的模型分配方法、边云协同推理方法,本申请实施例在为边缘设备和云端服务器进行模型分配后,获取边缘设备对应的分配评估结果,对于分配评估结果不满足分配结束条件的边缘设备,重新从多个异质模型中为该边缘设备随机选取新的目标网络模型,基于新的目标网络模型进行新一轮的模型分配,不断优化模型分配方案,提高边云协同推理整体的推理效果。理整体的推理效果。理整体的推理效果。


技术研发人员:瞿晓阳 王健宗 曾尘杰
受保护的技术使用者:平安科技(深圳)有限公司
技术研发日:2023.06.16
技术公布日:2023/9/6
版权声明

本文仅代表作者观点,不代表航空之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)

飞行汽车 https://www.autovtol.com/

分享:

扫一扫在手机阅读、分享本文

相关推荐