一种基于强化学习Q-learning的空压站运维优化方法

未命名 08-26 阅读:136 评论:0

一种基于强化学习q-learning的空压站运维优化方法
技术领域
1.本发明涉及空压站系统的模型构建与运维智能优化领域,尤其是涉及一种基于强化学习q-learning的空压站运维优化方法。


背景技术:

2.压缩空气管道系统简称空压系统。据统计,一个企业的日常生产中空压系统占各类耗电设备总耗电量的可达到四分之一。在企业能耗的各项成本中,空压系统在其全生命周期的运维成本在所有成本中的占比高达75%。因此,采用恰当的空压站智能运维优化算法并有效降低压缩空气管道系统总能耗,对企业的降本增效中发挥着越来越重要的作用。
3.空压系统的运维策略优化是一个np难问题,对于大规模问题的求解费时费力,甚至可能无法在有限时间内完成求解。当前,针对空压站运维策略优化问题主要依靠以爬山算法、a*算法等为代表的启发式算法,以遗传算法、模拟退火算法等为代表的元启发式算法和以tpe为代表的搜索算法等。这些算法通常存在可行解寻找上困难、无法自主决策、算法内核固定难以根据设计和调整启发式函数适应变化、通常只考虑短期收益无法很好地处理长期规划和全局优化等问题。
4.即在上述问题上,鲜少有研究贴合实际空压站运维工况去改进优化算法,导致其空压站运维控制系统中模型的建立脱离实际工况,最终导致难以获得更好的优化效果,压缩空气管道系统的总能耗居高不下,其运维控制方法的改进迫在眉睫。


技术实现要素:

5.本发明针对使用启发式算法、元启发式算法等传统求解方法在空压站智能运维策略中存在的不足和缺陷,提出了一种基于强化学习算法的空压站运维智能优化算法。能够最大化地结合实际工况,基于该强化学习算法,优化空压站储气罐在启动与停止时间、补气压力与供气比和供气压力满足实际要求等需求的限制与约束下,求解最优的空压系统运行策略,最终实现空压系统总运行能耗最低的优化目标。
6.本发明的目的可以通过以下技术方案来实现:
7.本发明提供了一种基于强化学习q-learning的空压站运维优化方法,包括以下步骤:
8.s1:根据空压站供气管网的拓扑结构搭建管网模型,构建空压站能耗的数学模型,模型中的决策变量设置为空压站的启停时间、补气压力与供气比,优化的目标设置为空压站全天能耗最小,使用q-learning算法作为代理进行优化;
9.s2:初始化q-learning的参数,所述参数包括学习率,使用衰减函数控制学习率的衰减,以及构建一个q表格来存储状态动作值;
10.s3:根据当前的状态和学习率的大小,采用ε-greedy策略选择一个动作;
11.s4:根据当前的状态、动作、奖励、下一个状态以及结束标志,更新q表格中对应状态动作值的估计值;
12.s5:通过在q表格中搜索,找到具有最高q值的动作,即当前状态下的最优动作,将其作为代理的下一步动作,这个动作所对应的状态即为问题的最优解状态,作为最优的空压系统运行策略,最终实现空压系统总运行能耗最低的优化目标。
13.进一步地,s1中,所述空压站管网模型中,将空压站的启停时间、补气压力与供气比作为决策变量,将空压站全天能耗最小作为目标函数:
[0014][0015]
其中,p(
·
)为空压站能耗计算公式,分别为第k次补气的开始时间与结束时间,pk,k=1,2,

,n为第k次补气的补气压力,γi,i=1,2,

,m为第i处供气交叉点的供气比。
[0016]
进一步地,s2中,所述q-learning的参数还包括状态空间大小、动作空间大小、折扣因子、学习率的衰减率;
[0017]
所述q表格为状态动作对的二维表格,其值表示在某一状态下采取某一动作的期望回报值,对于一个状态s和动作a,其对应的q值表示为q(s,a)。
[0018]
通过q-learning算法在经验中寻找最优策略,以此实现空压站全天能耗最小的优化目标,q-learning算法是一种无模型学习方法,通过估计状态动作对的价值函数来学习最优策略。q-learning的学习过程主要包括:状态选择、动作选择和状态更新这三个步骤。
[0019]
进一步地,s3中,在每次状态选择时,以学习率ε)0≤ε≤1)的概率随机选择一个动作,以1-ε的概率选择当前状态下估计价值最大的动作。
[0020]
进一步地,s3中,所述学习率ε用于控制代理在学习初期的探索行为,随着学习次数的增加,学习率会逐渐减小,减小方式采用多项式衰减:
[0021][0022]
其中,ε
t
是第t次迭代的学习率,ε0表示初始学习率,t为训练总次数,p是一个控制衰减速度的超参数。使用多项式衰减函数可以使得学习率在整个训练过程中呈现平稳下降的趋势,便于更好地适应各种训练场景。
[0023]
进一步地,s3中,动作选择过程中,根据当前状态和选择的动作得到一个新的状态和相应的奖励值;
[0024]
所述奖励值表示代理在当前状态下选择该动作所得到的收益或惩罚,所述奖励值由奖励值函数获得。
[0025]
进一步地,s3中,所述奖励值函数根据式(1)所确定的空压站全天的能耗函数进行计算,将约束的满足与否加入共同筛选:
[0026][0027]
其中,v(t)为第t次迭代的奖励值,p(
·
)为空压站全天的能耗函数,计算方式为式(1)确定,m为惩罚对应数值。即储气罐在启动与停止时间、补气压力与供气比和供气压力满足实际要求等需求的限制与约束的情况下奖励值即为目标函数,当不满足约束时,奖励值函数成为一个很大的数作为惩罚使得该状态、动作被筛选掉不再考虑。
[0028]
进一步地,s4中,状态更新过程中,使用学习率和折扣因子更新q表格中对应状态
动作值的估计值;
[0029]
s4中,在每次状态更新时,代理根据当前状态、动作、奖励、下一个状态以及结束标志更新q表格中对应状态动作值的估计值,具体更新方式为:
[0030]
q(s,a)=(1-ε
t
)*q(s,a)+ε
t
*(r+γ*maxq(s

,a

))(4)
[0031]
其中,ε
t
表示第t次迭代的学习率,由式(2)确定,
[0032]
r表示在状态s选择动作a所得到的奖励值,
[0033]
γ表示折扣因子,
[0034]s′
表示执行动作a后得到的下一个状态,
[0035]
maxq(s

,a

)表示在状态s

下采取所有可能的动作中,q值最大的动作对应的q值;
[0036]
其中,当前状态下采取动作a所得到的收益值等于当前状态动作对的估计值乘以(1-ε
t
),再加上实际获得的奖励值乘以ε
t
和下一个状态中动作的最大值乘以γ。
[0037]
进一步地,s5中,在q表格中搜索,找到具有最高q值的动作过程包括:
[0038]
所述q表格存储了状态-动作对应的q值,以此对应从某一状态采取某一动作能够得到的累计奖励;
[0039]
在q表中搜索当前状态下q值最高的行动,对于当前状态s,遍历所有可能的动作a,然后找到具有最高q值的动作a
*

[0040]a*
=argmax(q(s,a))(5)
[0041]
其中,q(s,a)表示从状态s采取动作a得到的q值。
[0042]
进一步地,s5中,确定所述最优的空压系统运行策略的过程包括:
[0043]
找到最优动作a
*
之后,将其作为代理的下一步动作,同时将a
*
对应的状态作为问题的最优解状态,该状态能够使目标函数达到最小值的状态,最高q值对应的动作会在长期中得到最大的累计奖励,以此确定使得空压站全天能耗最小化的运行策略。
[0044]
与现有技术相比,本发明中基于强化学习智能运维优化算法具有以下技术优势:
[0045]
1.可以对于复杂的系统进行优化求解,并且不需要对系统进行过多的先验知识和假设。对于空压站能耗最小化问题,传统启发式算法和元启发式算法需要考虑复杂的管网拓扑结构和空压站的具体情况,并且需要进行大量的参数调整。采用强化学习中的q-learning算法通过从当前状态和奖励中学习最优动作,可以自适应地优化空压站启停时间、补气压力和供气比等决策变量,最终达到全天能耗最小的目标。此外,在迭代过程中还能够不断学习并更新q表格,不断提升优化性能。
[0046]
2.强化学习方法的优势在于能够自适应地调整学习参数,以达到更好的优化性能。对于空压站能耗最小化问题,由于空压站的运行状态和气网负载都可能随时发生变化,因此需要根据实际情况不断调整学习率、折扣因子和衰减率等参数,以达到更好的优化性能。传统启发式算法和元启发式算法往往需要手动设置参数,且需要通过多次实验才能找到一个较好的参数值,不能自适应地调整。
[0047]
3.强化学习方法的能够在探索与利用之间平衡,以达到更好的优化性能。对于空压站能耗最小化问题,由于空压站的启停时间、补气压力和供气比等决策变量的组合可能非常多,q-learning算法需要在其中搜索最优的决策变量组合。ε-greedy策略能够在一定程度上保证探索新的动作,同时又能够根据当前q表格中的动作选择最优的动作,以达到更好的优化性能。传统启发式算法和元启发式算法往往不能够有效平衡探索与利用之间的关
系,容易陷入局部最优解。
[0048]
4.强化学习方法的优势在于能够从实际奖励中学习并更新q表格,以达到更好的优化性能。对于空压站能耗最小化问题,q-learning算法能够从实际的全天能耗中学习,并更新q表格中对应状态和动作的q值。通过不断的学习和更新,q表格中的q值可以更加精准地估计每个状态和动作的价值,从而使得代理能够更加准确地选择下一步动作,从而在较短时间内找到空压站全天能耗最小的最优解。相比传统启发式算法和元启发式算法,q-learning算法不需要提前设计复杂的启发式规则或元启发式方法,而是通过在实际任务中不断地尝试和反馈来学习最优策略,因此具有更好的适应性和通用性。同时,q-learning算法的运行效率也相对较高,可以在较短时间内得到比较优秀的解决方案。
附图说明
[0049]
图1为本发明实施例中空压站供气结构示意图。
[0050]
图2为本发明中基于强化学习算法的空压站智能运维优化方法的步骤流程图。
具体实施方式
[0051]
本发明提出了基于强化学习的q-learning方法针对空压系统的运行策略进行优化进而实现智能运维,主要包括:根据空压站供气管网的拓扑结构搭建管网模型、构建空压站能耗的数学模型、确定模型的约束条件和选用q-learning算法作为代理进行优化,初始化q-learning算法的相关参数、选用多项式衰减函数控制学习率的变化、构建一个q表格来存储状态动作值,使用ε-greedy策略选择一个动作,根据当前的状态、动作、奖励、下一个状态以及结束标志更新q表格中对应状态动作值的估计值,通过在q表格中搜索、找到具有最高q值的动作完成目标函数的优化求解。本发明通过使用q-learning强化学习算法,优化空压站储气罐在启动与停止时间、补气压力与供气比和供气压力满足实际要求等需求的限制与约束下,求解最优的空压系统运行策略,最终实现空压系统总运行能耗最低的优化目标。
[0052]
下面结合附图和具体实施例对本发明进行详细说明。本技术方案中如未明确说明的部件型号、材料名称、连接结构、控制方法、算法等特征,均视为现有技术中公开的常见技术特征。
[0053]
实施例1
[0054]
本发明采用以下技术方案,包括以下步骤:
[0055]
步骤1:构建空压系统管网日能耗模型。空压站管网模型采用分段式计算单管压降,即将管长分成多段,分别计算各部分压降。同时,单管压降模型中,考虑质量流量守恒、三通分流处压力相等、所有末端供气压力不低于用户需求压力。空压站中储气罐采用理想气体方程与粘度关联式进行物性计算。最后将空压站管网模型将空压站的启停时间、补气压力与供气比作为决策变量,将空压站全天能耗最小作为目标函数,如下所示:
[0056][0057]
其中,p(
·
)为空压站能耗计算公式,分别为第k次补气的开始时间与结束时间,pk,k=1,2,

,n为第k次补气的补气压力,γi,i=1,2,

,m为第i处供气交叉点的供气比。
[0058]
步骤2:初始化q-learning的参数,包括状态空间大小、动作空间大小、学习率、折扣因子、探索率和探索率的衰减率,使用衰减函数控制学习率的衰减,以及构建一个q表格来存储状态动作值;通过q-learning算法在经验中寻找最优策略,以此实现空压站全天能耗最小的优化目标,q-learning算法作为一种无模型学习方法,通过估计状态动作对的价值函数来学习最优策略。q-learning的学习过程主要包括:状态选择、动作选择和状态更新这三个步骤。
[0059]
步骤3:根据当前的状态和学习率的大小,采用ε-greedy策略选择一个动作。状态选择步骤中,q-learning代理根据当前状态和学习率(即探索和利用的权衡)采用ε-greedy策略选择一个动作。具体地,代理在每次状态选择时,以学习率ε(0≤ε≤1)的概率随机选择一个动作,以1-ε的概率选择当前状态下估计价值最大的动作。其中,学习率ε用于控制代理在学习初期的探索行为,随着学习次数的增加,学习率会逐渐减小,减小方式采用多项式衰减:
[0060][0061]
其中,ε
t
是第t次迭代的学习率,ε0表示初始学习率,t为训练总次数,p是一个控制衰减速度的超参数。使用多项式衰减函数可以使得学习率在整个训练过程中呈现平稳下降的趋势,便于更好地适应各种训练场景。
[0062]
算法运行中,q-learning代理根据当前状态和选择的动作得到一个新的状态和相应的奖励值。奖励值表示代理在当前状态下选择该动作所得到的收益或惩罚。奖励值函数根据式(1)所确定的空压站全天的能耗函数进行计算,将约束的满足与否加入共同筛选:
[0063][0064]
其中,v(t)为第t次迭代的奖励值,p(
·
)为空压站全天的能耗函数,具体计算方式为式(1)确定,m为一个很大的数表示惩罚,即储气罐在启动与停止时间、补气压力与供气比和供气压力满足实际要求等需求的限制与约束的情况下奖励值即为目标函数,当不满足约束时,奖励值函数成为一个很大的数作为惩罚使得该状态、动作被筛选掉而不再考虑。
[0065]
步骤4:根据当前的状态、动作、奖励、下一个状态以及结束标志,更新q表格中对应状态动作值的估计值。状态更新步骤中,q-learning代理使用学习率和折扣因子更新q表格中对应状态动作值的估计值。q表格是一个状态动作对的二维表格,其值表示在某一状态下采取某一动作的期望回报值。具体地,对于一个状态s和动作a,其对应的q值表示为q(s,a)。在每次状态更新时,代理根据当前状态、动作、奖励、下一个状态以及结束标志更新q表格中对应状态动作值的估计值,具体更新方式如下:
[0066]
q(s,a)=(1-ε
t
)*q(s,a)+ε
t
*(r+γ*maxq(s

,a

))(8)
[0067]
其中,ε
t
表示第t次迭代的学习率,由式(2)确定,r表示在状态s选择动作a所得到的奖励值,γ表示折扣因子,s

表示执行动作a后得到的下一个状态,maxq(s

,a

)表示在状态s

下采取所有可能的动作中,q值最大的那个动作的q值。即当前状态下采取动作a所得到的收益值等于当前状态动作对的估计值乘以(1-ε
t
),再加上实际获得的奖励值乘以ε
t
和下一个状态中动作的最大值乘以γ。
[0068]
步骤5:通过在q表格中搜索,找到具有最高q值的动作,即当前状态下的最优动作,将其作为代理的下一步动作。这个动作所对应的状态即为问题的最优解状态,完成目标函数的优化求解。q表格存储了状态-动作对的q值,表示从某一状态采取某一动作能够得到的累计奖励,s5需要在q表中搜索当前状态下q值最高的行动;对于当前状态s,遍历所有可能的动作a,然后找到具有最高q值的动作a
*

[0069]a*
=argmax(q(s,a))(9)
[0070]
其中,q(s,a)表示从状态s采取动作a得到的q值。
[0071]
找到最优动作a
*
之后,将其作为代理的下一步动作,同时将a
*
对应的状态作为问题的最优解状态。该状态能够使目标函数达到最小值的状态,由于q值表示采取某一动作得到的累计奖励,最高q值对应的动作会在长期中得到最大的累计奖励,从而使得目标函数即空压站全天能耗最小化。
[0072]
本技术方案中强化学习算法的程序化执行过程如下:
[0073][0074]
应用例1
[0075]
本发明提供的基于q-learning强化学习算法的空压站智能运维与控制的具体实施案例。案例示意图如图1所示。该案例如图1所示,由一个储气罐负责向4个用气端供气,该案例为枝状管网,各管路流向已知,管路数为7个,流量需求已知并且固定。在该案例中,约束条件为质量流量守恒、三通分流处压力相等、所有末端的供气压力不低于800kpa。优化目标为储气罐能耗最低,优化参数为储气罐的排气时间与排气压力。该案例中管网的具体数据如表1所示。
[0076]
表1管网具体数据
[0077]
[0078][0079]
实施步骤根据图2流程图,具体如下:
[0080]
步骤1,根据图1及表1所示案例搭建储气罐控制模型,单管压降采用分段法计算,将单管分成5段,分别计算压降。储气罐每天补气两次,具体优化变量为:
[0081][0082]
步骤2,初始化q-learning强化学习代理的参数,将学习率设置为0.1、折扣因子设置为0.9、探索率设置为1、探索率的衰减率设置为0.99、补气压力区间设置为[850,800]、最大迭代次数设置为1000。
[0083]
步骤3,在通过q-learning强化学习优化算法迭代完成之后,循环遍历所有状态,计算每个状态的奖励,并找到具有最小奖励的状态作为最优解。最终输出问题的最优解和最优值,并计算各用气端供气压力。
[0084]
优化结果如表2所示:
[0085]
表2优化结果
[0086][0087]
该结果与tpe算法、原始黑猩猩算法比较结果如表3所示:
[0088]
表3算法比较结果
[0089][0090]
从该实施案例上看,该强化算法相比原始黑猩猩算法、tpe算法有较大提升,证实本发明提出的强化学习算法的具有一定的优势与先进性。应该理解到,本发明提出的基于强化学习q-learning的空压站智能运维算法具有一定的可扩展性。本案例中,强化学习算法与空压站控制模型不仅是一种逻辑上的划分,更是一种功能上、项目上的划分。基于此划
分,该发明可以在服务器-客户端架构上布设,基于云服务器与5g大数据,更好地贴合工业互联网的发展。
[0091]
上述的对实施例的描述是为便于该技术领域的普通技术人员能理解和使用发明。熟悉本领域技术的人员显然可以容易地对这些实施例做出各种修改,并把在此说明的一般原理应用到其他实施例中而不必经过创造性的劳动。因此,本发明不限于上述实施例,本领域技术人员根据本发明的揭示,不脱离本发明范畴所做出的改进和修改都应该在本发明的保护范围之内。

技术特征:
1.一种基于强化学习q-learning的空压站运维优化方法,其特征在于,包括以下步骤:s1:根据空压站供气管网的拓扑结构搭建管网模型,构建空压站能耗的数学模型,模型中的决策变量设置为空压站的启停时间、补气压力与供气比,优化的目标设置为空压站全天能耗最小,使用q-learning算法作为代理进行优化;s2:初始化q-learning的参数,所述参数包括学习率,使用衰减函数控制学习率的衰减,以及构建一个q表格来存储状态动作值;s3:根据当前的状态和学习率的大小,采用ε-greedy策略选择一个动作;s4:根据当前的状态、动作、奖励、下一个状态以及结束标志,更新q表格中对应状态动作值的估计值;s5:通过在q表格中搜索,找到具有最高q值的动作,即当前状态下的最优动作,将其作为代理的下一步动作,这个动作所对应的状态即为问题的最优解状态,作为最优的空压系统运行策略,最终实现空压系统总运行能耗最低的优化目标。2.根据权利要求1所述的一种基于强化学习q-learning的空压站运维优化方法,其特征在于,s1中,所述空压站管网模型中,将空压站的启停时间、补气压力与供气比作为决策变量,将空压站全天能耗最小作为目标函数:其中,p(
·
)为空压站能耗计算公式,分别为第k次补气的开始时间与结束时间,p
k
,k=1,2,

,n为第k次补气的补气压力,γ
i
,i=1,2,

,m为第i处供气交叉点的供气比。3.根据权利要求1所述的一种基于强化学习q-learning的空压站运维优化方法,其特征在于,s2中,所述q-learning的参数还包括状态空间大小、动作空间大小、折扣因子、学习率的衰减率;所述q表格为状态动作对的二维表格,其值表示在某一状态下采取某一动作的期望回报值,对于一个状态s和动作a,其对应的q值表示为q(s,a)。4.根据权利要求1所述的一种基于强化学习q-learning的空压站运维优化方法,其特征在于,s3中,在每次状态选择时,以学习率ε(0≤ε≤1)的概率随机选择一个动作,以1-ε的概率选择当前状态下估计价值最大的动作。5.根据权利要求4所述的一种基于强化学习q-learning的空压站运维优化方法,其特征在于,s3中,所述学习率ε用于控制代理在学习初期的探索行为,随着学习次数的增加,学习率会逐渐减小,减小方式采用多项式衰减:其中,ε
t
是第t次迭代的学习率,ε0表示初始学习率,t为训练总次数,p是一个控制衰减速度的超参数。6.根据权利要求5所述的一种基于强化学习q-learning的空压站运维优化方法,其特征在于,s3中,动作选择过程中,根据当前状态和选择的动作得到一个新的状态和相应的奖励值;所述奖励值表示代理在当前状态下选择该动作所得到的收益或惩罚,所述奖励值由奖
励值函数获得。7.根据权利要求6所述的一种基于强化学习q-learning的空压站运维优化方法,其特征在于,s3中,所述奖励值函数根据式(1)所确定的空压站全天的能耗函数进行计算,将约束的满足与否加入共同筛选:其中,v(t)为第t次迭代的奖励值,p(
·
)为空压站全天的能耗函数,计算方式为式(1)确定,m为惩罚对应数值。8.根据权利要求6所述的一种基于强化学习q-learning的空压站运维优化方法,其特征在于,s4中,状态更新过程中,使用学习率和折扣因子更新q表格中对应状态动作值的估计值;s4中,在每次状态更新时,代理根据当前状态、动作、奖励、下一个状态以及结束标志更新q表格中对应状态动作值的估计值,具体更新方式为:q(s,a)=(1-ε
t
)*q(s,a)+ε
t
*(r+γ*maxq(s

,a

))(4)其中,ε
t
表示第t次迭代的学习率,由式(2)确定,r表示在状态s选择动作a所得到的奖励值,γ表示折扣因子,s

表示执行动作a后得到的下一个状态,maxq(s

,a

)表示在状态s

下采取所有可能的动作中,q值最大的动作对应的q值;其中,当前状态下采取动作a所得到的收益值等于当前状态动作对的估计值乘以(1-ε
t
),再加上实际获得的奖励值乘以ε
t
和下一个状态中动作的最大值乘以γ。9.根据权利要求1所述的一种基于强化学习q-learning的空压站运维优化方法,其特征在于,s5中,在q表格中搜索,找到具有最高q值的动作过程包括:所述q表格存储了状态-动作对应的q值,以此对应从某一状态采取某一动作能够得到的累计奖励;在q表中搜索当前状态下q值最高的行动,对于当前状态s,遍历所有可能的动作a,然后找到具有最高q值的动作a
*
:a
*
=argmax(q(s,a))(5)其中,q(s,a)表示从状态s采取动作a得到的q值。10.根据权利要求9所述的一种基于强化学习q-learning的空压站运维优化方法,其特征在于,s5中,确定所述最优的空压系统运行策略的过程包括:找到最优动作a
*
之后,将其作为代理的下一步动作,同时将a
*
对应的状态作为问题的最优解状态,该状态能够使目标函数达到最小值的状态,最高q值对应的动作会在长期中得到最大的累计奖励,以此确定使得空压站全天能耗最小化的运行策略。

技术总结
本发明涉及一种基于强化学习Q-learning的空压站运维优化方法,包括:根据空压站供气管网的拓扑结构搭建管网模型,构建空压站能耗的数学模型,使用Q-Learning算法作为代理进行优化;初始化Q-Learning的参数,使用衰减函数控制学习率的衰减,以及构建一个Q表格来存储状态动作值;根据当前的状态和学习率的大小,采用ε-greedy策略选择一个动作;更新Q表格中对应状态动作值的估计值;找到具有最高Q值的动作,即当前状态下的最优动作,将其作为代理的下一步动作,作为最优的空压系统运行策略。与现有技术相比,本发明能够结合具体实际工况,且自适应地优化空压站启停时间、补气压力和供气比等决策变量,最终达到全天能耗最小的目标。目标。目标。


技术研发人员:郑瀛 张郑涵 蔡振坤 陆晟标 刘毅 梁星宇 张春路
受保护的技术使用者:同济大学
技术研发日:2023.05.23
技术公布日:2023/8/23
版权声明

本文仅代表作者观点,不代表航空之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)

飞行汽车 https://www.autovtol.com/

分享:

扫一扫在手机阅读、分享本文

相关推荐