径向基RBF(radial basis function)函数、RBF神经网络、 反推(back-stepping)控制
文章目錄
- 1. 什么是徑向基函數(shù)
- 1. 高斯徑向基函數(shù)
- 2. 反演S型函數(shù)
- 3. 擬多二次函數(shù)
- 2. 正則化徑向基神經(jīng)網(wǎng)絡(luò)
- 3. 基于RBF網(wǎng)絡(luò)逼近的自適應(yīng)控制
- 1. 問題描述
- 2. RBF 網(wǎng)絡(luò)原理
- 3. 控制算法設(shè)計(jì)與分析
- 4. 仿真實(shí)例
- 4. RBF神經(jīng)網(wǎng)絡(luò)自適應(yīng)控制matlab仿真_RBF神經(jīng)網(wǎng)絡(luò)及其在控制中的應(yīng)用簡(jiǎn)介
- 1. 采用梯度下降法計(jì)算權(quán)值
- 2. 依據(jù)穩(wěn)定性理論設(shè)計(jì)權(quán)值
- 5. RBF神經(jīng)網(wǎng)絡(luò)在控制中的應(yīng)用
- 6. 嚴(yán)格反饋結(jié)構(gòu)
- 7. 反推控制 Backstepping
1. 什么是徑向基函數(shù)
理解RBF網(wǎng)絡(luò)的工作原理可從兩種不同的觀點(diǎn)出發(fā):
下面闡述基于函數(shù)逼近與內(nèi)插觀點(diǎn)的工作原理。
1963年Davis提出高維空間的多變量插值理論。徑向基函數(shù)技術(shù)則是20世紀(jì)80年代后期,Powell在解決“多變量有限點(diǎn)嚴(yán)格(精確)插值問題”時(shí)引人的,目前徑向基函數(shù)已成為數(shù)值分析研究中的一個(gè)重要領(lǐng)域。
考慮一個(gè)由N維輸人空間到一維輸出空間的映射。設(shè) NNN 維空間有 ppp 個(gè)輸人向量平,p=1,2,....,Pp=1,2,....,Pp=1,2,....,P,它們?cè)谳敵隹臻g相應(yīng)的目標(biāo)值為 dp,p=1,2,...,Pd^p,~p=1,2,...,Pdp,?p=1,2,...,P,PPP 對(duì)輸人一輸出樣本構(gòu)成了訓(xùn)練樣本集。插值的目的是尋找一個(gè)非線性映射函數(shù) F(X)F(X)F(X),使其滿足下述插值條件:
F(X)=dp,p=1,2,?,P(1)F(X) = d^p,~~~~p=1,2,\cdots,P \tag{1}F(X)=dp,????p=1,2,?,P(1)
式子中,函數(shù) FFF 描述了一個(gè)插值曲面,所謂嚴(yán)格插值或精確插值,是一種完全內(nèi)插,即該插值曲面必須通過所有訓(xùn)練數(shù)據(jù)點(diǎn)。
那么到底什么是插值,在這里簡(jiǎn)單的解釋一下,就是通過訓(xùn)練集數(shù)據(jù),我找到一個(gè)曲面,這個(gè)曲面可以完全覆蓋這些訓(xùn)練點(diǎn),那么找到這個(gè)曲面后就可以通過這個(gè)曲面取尋找其他的值了,下面畫個(gè)圖給大家看看:
就是我通過一些數(shù)據(jù)樣本點(diǎn) ,每個(gè)樣本都有目標(biāo)值,通映射高維空間去找到一個(gè)曲面 F(x)F(x)F(x),這個(gè)曲面需要經(jīng)過所有的數(shù)據(jù),一旦這個(gè)曲面確定以后,我就可以通過這個(gè)曲面去生成更多的數(shù)據(jù)目標(biāo)值,就是這個(gè)意思了,好,我們繼續(xù)往下:
采用徑向基函數(shù)技術(shù)解決插值問題的方法是,選擇 PPP 個(gè)基函數(shù)個(gè)訓(xùn)練數(shù)據(jù),各基函數(shù)的形式為:
φ(∥x?xp∥),p=1,2,?,P(2)\varphi(\|x-x^p\|),~~~p=1,2,\cdots,P \tag{2}φ(∥x?xp∥),???p=1,2,?,P(2)
式中,基函數(shù) φ\varphiφ 為非線性函數(shù),訓(xùn)練數(shù)據(jù)點(diǎn) xPx^PxP 是 φ\varphiφ 的中心。
基函數(shù)以輸入空間的點(diǎn) xxx 與中心 xPx^PxP 的距離作為函數(shù)的自變量。由于距離是徑向同性的,故函數(shù)被稱為徑向基函數(shù)。
基于徑向基函數(shù)技術(shù)的插值函數(shù)定義為基函數(shù)的線性組合:
F(x)=∑p=1Pwpφ(∥x?xP∥)(3)F(x) = \sum_{p=1}^{P} w_p \varphi(\|x-x^P\|) \tag{3}F(x)=p=1∑P?wp?φ(∥x?xP∥)(3)
在這里解釋一下 ∥x?xP∥\|x-x^P\|∥x?xP∥,這是范數(shù)。對(duì)平面幾何的向量來說就是模,然而一旦維度很高就不知道是什么東西了,可能是衡量距離的一個(gè)東西,那么這個(gè)代表什么意思呢?簡(jiǎn)單來說就是一個(gè)圓而已,在二維平面,xPx^PxP 就是圓心,xxx 就是數(shù)據(jù)了,這個(gè)數(shù)據(jù)距離圓心的距離,因?yàn)楹蛿?shù)據(jù)的位置和大小無關(guān),只和到圓心的半徑有關(guān),況且同一半徑圓上的點(diǎn)到圓心是相等的因此取名為徑向,代入映射函數(shù)就是徑向基函數(shù)了,我們看看徑向基函數(shù)有什么特點(diǎn):
將 (1) 式的插值條件代入上式,得到 PPP 個(gè)關(guān)于未知系數(shù) wp,p=1,2,?,Pw^p, p=1,2,\cdots,Pwp,p=1,2,?,P 的線性方程組:
∑p=1Pwpφ(∥x1?xp∥)=d1∑p=1Pwpφ(∥x2?xp∥)=d2?∑p=1Pwpφ(∥xP?xp∥)=dP\begin{aligned} \sum_{p=1}^{P} w_p \varphi(\|x^1 - x^p\|) = d^1 \\ \sum_{p=1}^{P} w_p \varphi(\|x^2 - x^p\|) = d^2 \\ \vdots \\ \sum_{p=1}^{P} w_p \varphi(\|x^P - x^p\|) = d^P \\ \end{aligned}p=1∑P?wp?φ(∥x1?xp∥)=d1p=1∑P?wp?φ(∥x2?xp∥)=d2?p=1∑P?wp?φ(∥xP?xp∥)=dP?
令 φip=φ(∥xi?xp∥),i=1,2,?,P,p=1,2,?,P\varphi_{ip}=\varphi(\|x^i - x^p\|), i=1,2,\cdots,P, p=1,2,\cdots,Pφip?=φ(∥xi?xp∥),i=1,2,?,P,p=1,2,?,P,則上述方程組可改寫為:
[φ11φ12?φ1Pφ11φ12?φ1P????φ11φ12?φ1P][w1w2?wP]=[d1d2?dP](5)\left[\begin{matrix} \varphi_{11} & \varphi_{12} & \cdots & \varphi_{1P} \\ \varphi_{11} & \varphi_{12} & \cdots & \varphi_{1P} \\ \cdots & \cdots & \cdots & \cdots \\ \varphi_{11} & \varphi_{12} & \cdots & \varphi_{1P} \\ \end{matrix}\right] \left[\begin{matrix} w_1 \\ w_2 \\ \cdots \\ w_P \\ \end{matrix}\right]= \left[\begin{matrix} d_1 \\ d_2 \\ \cdots \\ d_P \\ \end{matrix}\right]\tag{5}?????φ11?φ11??φ11??φ12?φ12??φ12???????φ1P?φ1P??φ1P????????????w1?w2??wP???????=?????d1?d2??dP???????(5)
令 Φ\PhiΦ 表示元素 φip\varphi_{ip}φip? 的 P×PP\times PP×P 階矩陣,WWW 和 ddd 分別表示系數(shù)向量和期望輸出向量,(5) 式還可以寫成下面的向量形式:
ΦW=d(6)\Phi W = d \tag{6}ΦW=d(6)
式中,Φ\PhiΦ 稱為插值矩陣,若 Φ\PhiΦ 為可逆矩陣,就可以從 (6) 式中解出系數(shù)向量 WWW,即:
W=Φ?1d(7)W = \Phi^{-1}d \tag{7}W=Φ?1d(7)
通過上面大家可以看到為了使所有數(shù)據(jù)都在曲面還需要系數(shù)調(diào)節(jié),此時(shí)求出系數(shù)向量就求出了整個(gè)的映射函數(shù)了,下面看幾個(gè)特殊的映射函數(shù):
1. 高斯徑向基函數(shù)
φ(r)=exp?(?r22δ2)\varphi(r) = \exp(-\frac{r^2}{2\delta^2})φ(r)=exp(?2δ2r2?)
橫軸就是到中心的距離,用半徑 rrr 表示。如上圖,我們發(fā)現(xiàn)當(dāng)距離等于 0 時(shí),徑向基函數(shù)等于 1,距離越遠(yuǎn)衰減越快,其中高斯徑向基的參數(shù) δ\deltaδ 在支持向量機(jī)中被稱為到達(dá)率或者說函數(shù)跌落到零的速度。
紅色 δ=1\delta=1δ=1,藍(lán)色 δ=5\delta=5δ=5,綠色 δ=0.5\delta=0.5δ=0.5,我們發(fā)現(xiàn)到達(dá)率越小其越窄。
2. 反演S型函數(shù)
3. 擬多二次函數(shù)
2. 正則化徑向基神經(jīng)網(wǎng)絡(luò)
正則化RBF網(wǎng)絡(luò)的結(jié)構(gòu)如下圖所示。其特點(diǎn)是:網(wǎng)絡(luò)具有 NNN 個(gè)輸人節(jié)點(diǎn),PPP 個(gè)隱節(jié)點(diǎn),iii 個(gè)輸出節(jié)點(diǎn);網(wǎng)絡(luò)的隱節(jié)點(diǎn)數(shù)等于輸人樣本數(shù),隱節(jié)點(diǎn)的激活函數(shù)常高斯徑向基函數(shù),并將所有輸人樣本設(shè)為徑向基函數(shù)的中心,各徑向基函數(shù)取統(tǒng)一的擴(kuò)展常數(shù)。
設(shè)輸入層的任意節(jié)點(diǎn)你用 iii 表示,隱節(jié)點(diǎn)任意節(jié)點(diǎn)用 jjj 表示,輸出層的任一節(jié)點(diǎn)用 kkk 表示。對(duì)各層的數(shù)學(xué)描述如下:
輸入向量:
X=(x1,x2,?,xN)TX = (x_1, x_2, \cdots, x_N)^TX=(x1?,x2?,?,xN?)T
任一隱節(jié)點(diǎn)的激活函數(shù):
φj(X),(j=1,2,?,P)\varphi_j(X),~~~~(j=1,2,\cdots,P)φj?(X),????(j=1,2,?,P)
稱為基函數(shù),一般使用高斯函數(shù)。
輸出權(quán)矩陣:
WWW
其中,wik,(j=1,2,?,P,k=1,2,?,l)w_{ik},(j=1,2,\cdots,P, k=1,2,\cdots,l)wik?,(j=1,2,?,P,k=1,2,?,l) 為隱層的第 jjj 個(gè)節(jié)點(diǎn)與輸出層第 kkk 個(gè)節(jié)點(diǎn)間的突觸權(quán)值。
輸出向量:
Y=(y1,y2,?,yl)Y = (y_1, y_2, \cdots, y_l)Y=(y1?,y2?,?,yl?)
輸出層神經(jīng)元采用線性激活函數(shù)。
當(dāng)輸入訓(xùn)練集中的某個(gè)樣本 xpx^pxp 時(shí),對(duì)應(yīng)的期望輸出 dpd^pdp 就是教師信號(hào)。為了確定網(wǎng)絡(luò)隱層到輸出層之間的 PPP 個(gè)權(quán)值,需要將訓(xùn)練集中的樣本逐一輸入一遍,從而得到式 (4) 中的方程組。網(wǎng)絡(luò)的權(quán)值確定后,對(duì)訓(xùn)練集的樣本實(shí)現(xiàn)了完全內(nèi)插,即對(duì)所有樣本誤差為 0。而對(duì)非訓(xùn)練集的輸入模式,網(wǎng)絡(luò)的輸出值相當(dāng)于函數(shù)的內(nèi)插,因此徑向基函數(shù)網(wǎng)絡(luò)可用作數(shù)逼近。
正則化RBF網(wǎng)絡(luò)具有以下3個(gè)特點(diǎn):
Ref: 機(jī)器學(xué)習(xí)–支持向量機(jī)(六)徑向基核函數(shù)(RBF)詳解
Ref: 深度學(xué)習(xí) — 徑向基神經(jīng)網(wǎng)絡(luò)RBF詳解
3. 基于RBF網(wǎng)絡(luò)逼近的自適應(yīng)控制
1. 問題描述
簡(jiǎn)單的運(yùn)動(dòng)系統(tǒng)動(dòng)力學(xué)方程為:
θ¨=f(θ,θ˙)+u(1)\ddot{\theta} = f(\theta, \dot{\theta}) + u \tag{1}θ¨=f(θ,θ˙)+u(1)
其中 θ\thetaθ 為角度,uuu 為控制輸入。
寫成狀態(tài)方程形式為:
x˙1=x2x˙2=f(x)+u(2)\begin{aligned} &\dot{x}_1 = x_2 \\ &\dot{x}_2 = f(x) + u \end{aligned} \tag{2}?x˙1?=x2?x˙2?=f(x)+u?(2)
其中 f(x)f(x)f(x) 為未知非線性函數(shù)。
未知指令為 xdx_dxd?,則誤差及其變化率為:
e=x1?xde˙=x˙1?x˙d=x2?x˙d\begin{aligned} e &= x_1 - x_d \\ \dot{e} &= \dot{x}_1 - \dot{x}_d \\ &=x_2 - \dot{x}_d \end{aligned}ee˙?=x1??xd?=x˙1??x˙d?=x2??x˙d??
定義誤差函數(shù)為
s=ce+e˙,c>0(3)s=ce + \dot{e}, ~~~ c>0 \tag{3}s=ce+e˙,???c>0(3)
則
s˙=ce˙+e¨=ce˙+x˙2?x¨d=ce˙+f(x)+u?x¨d\begin{aligned} \dot{s} &= c\dot{e}+\ddot{e}\\ &=c\dot{e}+\dot{x}_2-\ddot{x}_d \\ &=c\dot{e}+f(x)+u-\ddot{x}_d \end{aligned}s˙?=ce˙+e¨=ce˙+x˙2??x¨d?=ce˙+f(x)+u?x¨d??
由式(3)可知,如果 s→0s\rightarrow 0s→0,則 e→0e\rightarrow 0e→0 且 e˙→0\dot{e}\rightarrow 0e˙→0。
2. RBF 網(wǎng)絡(luò)原理
由于 RBF 網(wǎng)絡(luò)具有萬能逼近特性,采用 RBF 神經(jīng)網(wǎng)絡(luò)逼近 f(x)f(x)f(x),網(wǎng)絡(luò)算法為:
hj=exp?(∥x?cj∥22bj2)(4)h_j = \exp(\frac{\|x-c_j\|^2}{2b^2_j}) \tag{4}hj?=exp(2bj2?∥x?cj?∥2?)(4)
f=W?Th(x)+ε(5)f = W^{*T}h(x) + \varepsilon \tag{5}f=W?Th(x)+ε(5)
其中,xxx 為網(wǎng)絡(luò)的輸入,jjj 為網(wǎng)絡(luò)隱含層第 jjj 個(gè)節(jié)點(diǎn),h=[hj]Th=[h_j]^Th=[hj?]T 為網(wǎng)絡(luò)的高斯基函數(shù)輸出,W?W^*W? 為網(wǎng)絡(luò)的理想權(quán)值,ε\varepsilonε 為網(wǎng)絡(luò)的逼近誤差,ε≤εN\varepsilon\le\varepsilon_Nε≤εN?。
網(wǎng)絡(luò)輸入取狀態(tài)變量 x=[x1,x2]Tx=[x_1, x_2]^Tx=[x1?,x2?]T,則網(wǎng)絡(luò)輸出為:
f^(x)=W^Th(x)(6)\hat{f}(x) = \hat{W}^T h(x) \tag{6}f^?(x)=W^Th(x)(6)
3. 控制算法設(shè)計(jì)與分析
由于
f(x)?f^(x)=W?Th(x)+ε?W^Th(x)=?W~Th(x)+ε\begin{aligned} f(x) - \hat{f}(x) &= W^{*T}h(x) + \varepsilon - \hat{W}^Th(x)\\ &=-\tilde{W}^T h(x) + \varepsilon \end{aligned}f(x)?f^?(x)?=W?Th(x)+ε?W^Th(x)=?W~Th(x)+ε?
定義 Lyapunov 函數(shù)為
V=12s2+12γW~TW~(7)V = \frac{1}{2}s^2+\frac{1}{2\gamma}\tilde{W}^T \tilde{W} \tag{7}V=21?s2+2γ1?W~TW~(7)
其中 γ>0,W~=W^?W?\gamma>0, \tilde{W}=\hat{W}-W^*γ>0,W~=W^?W?。
則
V˙=ss˙+12γW~TW^˙=s(ce˙+f(x)+u?x¨d)+12γW~TW^˙\begin{aligned} \dot{V} &= s\dot{s} + \frac{1}{2\gamma}\tilde{W}^T\dot{\hat{W}} \\ &=s(c\dot{e}+f(x)+u-\ddot{x}_d)+\frac{1}{2\gamma}\tilde{W}^T\dot{\hat{W}} \end{aligned}V˙?=ss˙+2γ1?W~TW^˙=s(ce˙+f(x)+u?x¨d?)+2γ1?W~TW^˙?
設(shè)計(jì)控制律為
u=?ce˙?f^(x)+x¨d?ηsgn(s)(8)u=-c\dot{e} - \hat{f}(x) + \ddot{x}_d - \eta~ \text{sgn}(s) \tag{8}u=?ce˙?f^?(x)+x¨d??η?sgn(s)(8)
則
V˙=s(f(x)?f^(x)?ηsgn(s))+1γW~TW^˙=s(?W~Th(x)+ε?ηsgn(x))+1γW~TW^˙=εs?η∣s∣+W~T(1γW^˙?sh(x))\begin{aligned} \dot{V} &= s (f(x) - \hat{f}(x) - \eta~ \text{sgn}(s)) + \frac{1}{\gamma}\tilde{W}^T\dot{\hat{W}} \\ &= s(-\tilde{W}^T h(x) + \varepsilon - \eta~\text{sgn}(x)) + \frac{1}{\gamma}\tilde{W}^T\dot{\hat{W}} \\ &= \varepsilon s - \eta |s| + \tilde{W}^T (\frac{1}{\gamma}\dot{\hat{W}}-s h(x)) \end{aligned}V˙?=s(f(x)?f^?(x)?η?sgn(s))+γ1?W~TW^˙=s(?W~Th(x)+ε?η?sgn(x))+γ1?W~TW^˙=εs?η∣s∣+W~T(γ1?W^˙?sh(x))?
取 η>∣ε∣max?\eta > |\varepsilon|_{\max}η>∣ε∣max?,自適應(yīng)律為
W^˙=γsh(x)(9)\dot{\hat{W}} = \gamma s h(x) \tag{9}W^˙=γsh(x)(9)
則 V˙=εs?η∣s∣<0\dot{V}=\varepsilon s - \eta |s| < 0V˙=εs?η∣s∣<0。
4. 仿真實(shí)例
考慮如下被控對(duì)象
x˙1=x2x˙2=f(x)+u\begin{aligned} &\dot{x}_1 = x_2 \\ &\dot{x}_2 = f(x) + u \end{aligned}?x˙1?=x2?x˙2?=f(x)+u?
其中 f(x)=10x1x2f(x)=10 x_1 x_2f(x)=10x1?x2?。
控制律采用式(8),自適應(yīng)律采用式(9),取 γ=500,η=0.50\gamma=500, \eta=0.50γ=500,η=0.50。根據(jù)網(wǎng)絡(luò)的輸入 x1x_1x1? 和 x2x_2x2? 的實(shí)際范圍,高斯基函數(shù)的參數(shù) cic_ici? 和 bib_ibi? 的取值分別為 [-2 -1 0 1 2] 和 3.0。網(wǎng)絡(luò)權(quán)值矩陣中各個(gè)元素的初始值取 0.10。
仿真結(jié)果如下圖所示。
Ref: 一種簡(jiǎn)單的基于RBF網(wǎng)絡(luò)逼近的自適應(yīng)控制
4. RBF神經(jīng)網(wǎng)絡(luò)自適應(yīng)控制matlab仿真_RBF神經(jīng)網(wǎng)絡(luò)及其在控制中的應(yīng)用簡(jiǎn)介
RBF神經(jīng)網(wǎng)絡(luò)在控制中的應(yīng)用,可以按其隱含層與輸出層連接權(quán)值的計(jì)算方式分為以下兩類:
1. 采用梯度下降法計(jì)算權(quán)值
2. 依據(jù)穩(wěn)定性理論設(shè)計(jì)權(quán)值
依據(jù)穩(wěn)定性理論設(shè)計(jì)權(quán)值,即通過分析系統(tǒng)的Lyapunov穩(wěn)定性,設(shè)計(jì)權(quán)值,從而保證系統(tǒng)的穩(wěn)定性和收斂性。
考慮如下二階非線性系統(tǒng),以自適應(yīng)RBF控制器的設(shè)計(jì)為例,對(duì)該權(quán)值設(shè)計(jì)方式進(jìn)行簡(jiǎn)要介紹。
x¨=f(x,x˙)+g(x,x˙)u(3)\ddot{x} = f(x, \dot{x}) + g(x, \dot{x}) u \tag{3}x¨=f(x,x˙)+g(x,x˙)u(3)
其中,fff 為未知非線性函數(shù),ggg 為已知非線性函數(shù);u∈Rnu\in\mathbb{R}^nu∈Rn 和 y∈Rny\in\mathbb{R}^ny∈Rn 分別為系統(tǒng)的控制輸入和輸出。
令 x1=x,x2=x˙x_1 = x, x_2 = \dot{x}x1?=x,x2?=x˙ 和 y=x1y=x_1y=x1?,(3)式可改寫為
x˙1=x2x˙2=f(x1,x2)+g(x1,x2)uy=x1\begin{aligned} &\dot{x}_1 = x_2 \\ &\dot{x}_2 = f(x_1,x_2) + g(x_1,x_2) u \\ & y = x_1 \end{aligned}?x˙1?=x2?x˙2?=f(x1?,x2?)+g(x1?,x2?)uy=x1??
設(shè)理想跟蹤指令為 ydy_dyd?,則誤差為
e=yd?y=yd?x1E=[e,e˙]T\begin{aligned} e &= y_d - y \\ &= y_d - x_1 \\ E &= [e, \dot{e}]^T \end{aligned}eE?=yd??y=yd??x1?=[e,e˙]T?
設(shè)計(jì) K=[kp,kd]TK=[k_p, k_d]^TK=[kp?,kd?]T 使多項(xiàng)式 s2+kds+kp=0s^2 + k_d s + k_p = 0s2+kd?s+kp?=0 的根都在左半復(fù)平面。
將 RBF 神經(jīng)網(wǎng)絡(luò)的輸出代替式(3)中未知函數(shù),可設(shè)計(jì)控制律為
u=1g(x)[]u = \frac{1}{g(x)} []u=g(x)1?[]
Ref: rbf神經(jīng)網(wǎng)絡(luò)自適應(yīng)控制matlab仿真_RBF神經(jīng)網(wǎng)絡(luò)及其在控制中的應(yīng)用簡(jiǎn)介
5. RBF神經(jīng)網(wǎng)絡(luò)在控制中的應(yīng)用
Ref: RBF神經(jīng)網(wǎng)絡(luò)參考模型自適應(yīng)MATLAB實(shí)現(xiàn)(分析)
6. 嚴(yán)格反饋結(jié)構(gòu)
控制理論中,什么是嚴(yán)格反饋結(jié)構(gòu)?
嚴(yán)格反饋系統(tǒng)和純反饋系統(tǒng)的區(qū)別是?
7. 反推控制 Backstepping
反推控制
學(xué)習(xí)筆記(1)——反步控制法
反步(Back-Stepping)設(shè)計(jì)方法
總結(jié)
以上是生活随笔為你收集整理的径向基RBF(radial basis function)函数、RBF神经网络、 反推(back-stepping)控制的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 天津科技大学 物理实验平台使用教程及相关
- 下一篇: 【Paper】2018_多无人机协同编队