當(dāng)前位置:凌云光技術(shù)股份有限公司>>技術(shù)文章>>案例分享 | 哈爾濱工業(yè)大學(xué)開發(fā)可伸縮變形四旋翼無人機
案例分享 | 哈爾濱工業(yè)大學(xué)開發(fā)可伸縮變形四旋翼無人機
關(guān)鍵詞:多旋翼無人機,對稱變形,同步變形
技術(shù)方案:智能體位姿追蹤系統(tǒng)
研究背景
四旋翼無人機因其結(jié)構(gòu)簡單、控制方便、機動性強等特點,已經(jīng)廣泛應(yīng)用于、民用等各種場景。
無人機按軸距不同可以分為多種尺寸,大型無人機具有更大的扭矩輸出和更高的平衡能力,可以穩(wěn)定飛行執(zhí)行空中任務(wù);小型多旋翼則具有更高的靈活性和機動性,可以在狹窄空間中快速移動。
傳統(tǒng)無人機很難同時具有以上兩種優(yōu)勢。因此需要一種可變形的多旋翼無人機,以滿足不同場景的飛行任務(wù)。
可變性無人機
哈爾濱工業(yè)大學(xué)(深圳)提出
基于SNIAE-SSE機制的可伸縮變形四旋翼無人機
哈爾濱工業(yè)大學(xué)(深圳)的團隊提出一種不相交角度單元(SNIAEs)與直剪式單元(SSEs)組合的機械結(jié)構(gòu),并基于該機構(gòu)設(shè)計出一種新型可擴展的對稱同步變形多旋翼無人機。采用該變形單元機構(gòu)的可變形無人機具有驅(qū)動自由度單一、變形響應(yīng)速度快和機構(gòu)變形比大等優(yōu)點。
SNIAE-SSE結(jié)構(gòu)無人機不同伸縮狀態(tài)
動作捕捉系統(tǒng)獲取無人機階躍響應(yīng)數(shù)據(jù)
建立動力學(xué)模型
傳統(tǒng)四旋翼無人機動力學(xué)本身具有強耦合性和高擾動敏感性的特征,新構(gòu)型的四旋翼無人機的系統(tǒng)動態(tài)更為復(fù)雜。
為了建立準(zhǔn)確的可變無人機臂動力學(xué)模型,研究人員采用了系統(tǒng)辨識方法,利用凌云光·元客視界提供的光學(xué)動作捕捉系統(tǒng),通過在無人機上粘貼反光標(biāo)記點,采集臂長動態(tài)變化結(jié)果,測量無人機懸停時機臂的階躍響應(yīng)數(shù)據(jù)。然后利用Matlab系統(tǒng)辨識工具箱分別解算出無人機在折疊和展開過程中的可伸縮臂動力學(xué)模型,可以看出模式識別模型中測量結(jié)果和模擬結(jié)果具有很高的一致性。
辨識模型式的測量臂長與模擬臂長結(jié)果對比
為了驗證在不同場景下該無人機的飛行動態(tài)特性,研究人員進行了懸停、拋出、穿越窄窗實驗。
懸停試驗結(jié)果
拋出實驗結(jié)果
穿越窄窗實驗結(jié)果
結(jié)果表明,該可伸縮四旋翼無人機即使在機身快速折疊和展開變形的情況下也能保持穩(wěn)定的飛行狀態(tài),其具有很強的快速適應(yīng)復(fù)雜和動態(tài)變化環(huán)境的能力。
這一設(shè)計方法有望在未來的無人機領(lǐng)域得到廣泛應(yīng)用,并為多旋翼飛行器的設(shè)計和開發(fā)提供了新的思路和解決方案。
國產(chǎn)動作捕捉系統(tǒng)助力高??蒲?/strong>
元客視界是凌云光設(shè)立的全資子公司,主要面向元宇宙虛擬現(xiàn)實、Web3.0時代數(shù)字人、沉浸媒體、全息通信、計算光學(xué)成像等應(yīng)用,已形成光場建模、運動捕捉、全景成像、XR 拍攝等在內(nèi)的產(chǎn)品布局。
FZMotion光學(xué)運動捕捉系統(tǒng)是元客視界自主開發(fā)的運動捕捉采集與分析系統(tǒng),可以實時跟蹤測量并記錄三維空間內(nèi)點的軌跡、剛體的運動姿態(tài)以及人體動作,空間定位精度可以達到亞毫米級。
FZMotion高精度系列相機 助力智能體科研
FZMotion動捕系統(tǒng)在無人機室內(nèi)定位、仿生機器人運動規(guī)劃、機械臂示教學(xué)習(xí)、氣浮臺位姿驗證、水下運動捕捉等領(lǐng)域得到廣泛應(yīng)用,目前已經(jīng)與清華大學(xué)、中國科學(xué)技術(shù)大學(xué)、北京大學(xué)、北京理工大學(xué)、哈爾濱工業(yè)大學(xué)等高校開展合作。凌云光·元客視界致力于為高校提供完備的解決方案,助力科研發(fā)展。
參考文獻:
[1] Yang T, Zhang Y, Li P, et al. Sniae-sse deformation mechanism enabled scalable multicopter: Design, modeling and flight performance validation[C]//2020 IEEE International Conference on Robotics and Automation (ICRA). IEEE, 2020: 864-870.