摘要:移動(dòng)機(jī)器人在軍事、工業(yè)、農(nóng)業(yè)、商業(yè)、交通、物流等領(lǐng)域有著廣泛的應(yīng)用前景。目前,制約移動(dòng)機(jī)器人廣泛使用的一個(gè)核心問(wèn)題是移動(dòng)機(jī)器人的自主導(dǎo)航能力。本文首先闡述了移動(dòng)機(jī)器人自主導(dǎo)航相關(guān)的核心技術(shù),分析了目前的技術(shù)現(xiàn)狀以及未來(lái)發(fā)展趨勢(shì);之后,本文討論了移動(dòng)機(jī)器人幾個(gè)典型領(lǐng)域的應(yīng)用情況;最后對(duì)未來(lái)移動(dòng)機(jī)器人自主導(dǎo)航技術(shù)的挑戰(zhàn)進(jìn)行了分析,指出了未來(lái)的一些發(fā)展方向。
關(guān)鍵詞:移動(dòng)機(jī)器人;自主導(dǎo)航;環(huán)境感知;自主定位;運(yùn)動(dòng)規(guī)劃
Abstract: Mobile Robots have wide applications in military, industry, agriculture, commercial, transportation and logistics areas. Nowadays, a key problem that prevents mobile robots from being widely used is the ability of fully autonomous navigation. This paper first describes the key technologies that related to autonomous navigation and then analyses the state-of-the-art technologies and their future directions. After that, the typical applications of mobile robots in several areas are described. Finally, some future challenges related to autonomous navigation are analyzed and some possible directions are pointed out.
Key words: Mobile Robots; Autonomous Navigation; Environment Perception; Self-Localization; Motion Planning
1 引言
隨著機(jī)器人技術(shù)的發(fā)展,越來(lái)越多的機(jī)器人被用來(lái)代替人類(lèi)完成簡(jiǎn)單重復(fù)、危險(xiǎn)的工作。由于機(jī)器人自身具有高效率、無(wú)間隙工作的特點(diǎn),從而能夠極大地促進(jìn)生產(chǎn)力,在人類(lèi)社會(huì)中正發(fā)揮著越來(lái)越重要的作用。傳統(tǒng)的工業(yè)機(jī)器人大多被固定在生產(chǎn)線上,利用機(jī)械手臂來(lái)完成裝配等簡(jiǎn)單任務(wù)。而現(xiàn)實(shí)中仍有大量的任務(wù)需要機(jī)器人能夠具備空間移動(dòng)能力,比如服務(wù)業(yè)、自動(dòng)駕駛等領(lǐng)域,因此移動(dòng)機(jī)器人由于具有更大的使用靈活性 使其逐漸成為機(jī)器人領(lǐng)域的研究焦點(diǎn)。
理想的移動(dòng)機(jī)器人應(yīng)具有以下能力:當(dāng)處于一個(gè)未知的、復(fù)雜的、動(dòng)態(tài)的非結(jié)構(gòu)化環(huán)境中時(shí),能夠在沒(méi)有人干預(yù)下的情況下,通過(guò)自身所帶的傳感器來(lái)感知環(huán)境,到達(dá)期望的目的地,同時(shí)保證時(shí)間最少或能量消耗最低等[1]。因此,移動(dòng)機(jī)器人只有具備自主導(dǎo)航能力,才能夠進(jìn)一步完成所設(shè)定的任務(wù)。自主導(dǎo)航技術(shù)無(wú)疑是移動(dòng)機(jī)器人技術(shù)中最為基礎(chǔ)和核心的技術(shù)。近年來(lái),自主導(dǎo)航技術(shù)也在實(shí)際應(yīng)用需求的推動(dòng)下不斷地取得突破和進(jìn)展。本文將聚焦自主導(dǎo)航技術(shù)的發(fā)展及移動(dòng)機(jī)器人應(yīng)用領(lǐng)域,并對(duì)其未來(lái)發(fā)展方向進(jìn)行展望。
2 自主導(dǎo)航關(guān)鍵技術(shù)
為了實(shí)現(xiàn)移動(dòng)機(jī)器人在未知?jiǎng)討B(tài)環(huán)境中的自主導(dǎo)航,移動(dòng)機(jī)器人需要解決三個(gè)基本問(wèn)題[2],即“我在哪里?”、“我的周?chē)际裁礃樱俊薄ⅰ拔蚁乱徊皆撛趺醋觯俊薄榱私鉀Q這三個(gè)核心基本問(wèn)題,就涉及到環(huán)境感知、地圖創(chuàng)建、自主定位、運(yùn)動(dòng)規(guī)劃等一系列核心技術(shù)。
2.1 環(huán)境感知
移動(dòng)機(jī)器人的環(huán)境感知技術(shù),即通過(guò)移動(dòng)機(jī)器人自身攜帶的傳感器感知周?chē)h(huán)境,并對(duì)獲得的環(huán)境數(shù)據(jù)進(jìn)行處理以得到周?chē)h(huán)境的具體信息(包括特征信息與位置信息)的過(guò)程。在未知環(huán)境地圖和未知初始位置的前提下,移動(dòng)機(jī)器人必須首先依靠自身攜帶的傳感器感知外部環(huán)境的信息,才可以進(jìn)一步完成位置確定、地圖構(gòu)建與路徑規(guī)劃等任務(wù)。因此環(huán)境感知是移動(dòng)機(jī)器人自主導(dǎo)航技術(shù)的基礎(chǔ)與關(guān)鍵。
根據(jù)所用傳感器的不同,移動(dòng)機(jī)器人感知環(huán)境的方法可分為基于聲吶、基于激光雷達(dá)、基于視覺(jué)與融合多傳感器的環(huán)境感知等。聲吶通過(guò)聲波的傳播時(shí)間來(lái)判斷物體的距離信息,在水下傳播的速度較快且不會(huì)如相機(jī)和激光雷達(dá)傳感器那樣受到水介質(zhì)本身的干擾,因此基于聲吶的環(huán)境感知方法被廣泛地應(yīng)用于水下機(jī)器人領(lǐng)域。與聲納傳感器相比,激光傳感器使用的光信號(hào)傳播速度更快,抗干擾性更好,因此測(cè)得的環(huán)境信息更加準(zhǔn)確。與聲納、激光傳感器相比,相機(jī)重量輕、價(jià)格低廉、可以獲得更加豐富的環(huán)境信息且無(wú)需主動(dòng)發(fā)出信號(hào),因此被廣泛應(yīng)用于無(wú)人機(jī)、無(wú)人車(chē)等領(lǐng)域。隨著深度學(xué)習(xí)技術(shù)的快速發(fā)展,部分研究者通過(guò)深度學(xué)習(xí)方法提取圖像的語(yǔ)義信息來(lái)完成對(duì)環(huán)境的感知。近年來(lái),基于多傳感器融合的環(huán)境感知方法也受到了許多研究者的關(guān)注和重視。如Qi等[3]從融合激光雷達(dá)點(diǎn)云數(shù)據(jù)與圖像數(shù)據(jù)中提取語(yǔ)義信息來(lái)實(shí)現(xiàn)三維空間下環(huán)境感知任務(wù)。隨著深度學(xué)習(xí)的迅速發(fā)展,基于深度學(xué)習(xí)的圖像和點(diǎn)云特征提取方法引起科學(xué)界的廣泛關(guān)注。通過(guò)深度學(xué)習(xí)方法提取到的深層次語(yǔ)義特征具有準(zhǔn)確度高、提取速度快、穩(wěn)定性好的特點(diǎn)。因此越來(lái)越多的移動(dòng)機(jī)器人通過(guò)基于深度學(xué)習(xí)的方法來(lái)從圖像與點(diǎn)云中提取深層次的語(yǔ)義特征以感知周?chē)h(huán)境。而在傳感器類(lèi)型的選擇上,由于機(jī)器人往往工作在復(fù)雜多變的環(huán)境中而單一傳感器的應(yīng)用范圍有限,因此基于多傳感器融合的環(huán)境感知與自主導(dǎo)航方法成為了當(dāng)前研究的熱門(mén)問(wèn)題。
2.2 地圖創(chuàng)建
要想使機(jī)器人可以自由安全的進(jìn)行移動(dòng),地圖信息必不可少的。建圖實(shí)質(zhì)是運(yùn)動(dòng)過(guò)程對(duì)環(huán)境的描述,所構(gòu)建地圖形式分為度量地圖和拓?fù)涞貓D等。度量地圖又可以分為稀疏地圖和稠密地圖。
其中,稀疏地圖對(duì)環(huán)境進(jìn)行了一定的抽象表達(dá),不能表達(dá)周?chē)h(huán)境所有信息,通常用于快速定位與導(dǎo)航,具有較快的計(jì)算能力。拓?fù)涞貓D由節(jié)點(diǎn)和邊兩種元素組成,主要表達(dá)地圖元素之間的連通性。傳統(tǒng)的構(gòu)建地圖的方法大致可分為濾波方法[4]和優(yōu)化方法[5]兩類(lèi)。近幾年基于多傳感器融合,如激光雷達(dá),相機(jī),IMU融合的建圖方法逐漸成為發(fā)展的一個(gè)重心,通過(guò)多種傳感器的信息來(lái)增加機(jī)器人建圖的魯棒性,獲得更加精準(zhǔn),信息更加豐富的地圖。未來(lái)基于更多新型傳感器的建圖技術(shù)也將應(yīng)運(yùn)而生,例如紅外相機(jī)、毫米波雷達(dá)等新型傳感器等。
2.3 自主定位
定位問(wèn)題是實(shí)現(xiàn)移動(dòng)機(jī)器人自主移動(dòng)能力的基本問(wèn)題[6]。依據(jù)完成任務(wù)要求的不同,可以將移動(dòng)機(jī)器人定位問(wèn)題分為位姿跟蹤、全局定位、綁架問(wèn)題[7]。所謂自主定位就是機(jī)器人利用先驗(yàn)環(huán)境地圖信息、機(jī)器人位姿的當(dāng)前估計(jì)以及傳感器的觀測(cè)值等輸入信息,經(jīng)過(guò)一定的運(yùn)算產(chǎn)生更加準(zhǔn)確的對(duì)機(jī)器人當(dāng)前位姿的估計(jì)[8]。
定位方法根據(jù)所采用傳感器不同可以分為:激光定位、視覺(jué)定位、紅外定位、組合慣導(dǎo)定位、超聲波定位、Wi-Fi定位、藍(lán)牙定位、UWB定位等。一般情況下,基于單一傳感器的定位在復(fù)雜環(huán)境中,其精度與魯棒性難以保證,而多傳感器融合則克服了單一傳感器的缺陷,能夠在具有挑戰(zhàn)性的環(huán)境中實(shí)現(xiàn)高精度定位和強(qiáng)魯棒性。在移動(dòng)機(jī)器人的自主定位中,最為廣泛使用的傳感器就是激光雷達(dá)。傳統(tǒng)的激光雷達(dá)定位方法主要基于幾何信息,依賴(lài)幾何約束來(lái)估計(jì)車(chē)輛的運(yùn)動(dòng)。最直接的方法是應(yīng)用點(diǎn)云配準(zhǔn)算法來(lái)解決運(yùn)動(dòng)問(wèn)題。常見(jiàn)配準(zhǔn)算法有迭代最近點(diǎn)(ICP)[9],G-ICP和正態(tài)分布變換(NDT)[10]。但是,這些配準(zhǔn)方法對(duì)初始猜測(cè)非常敏感,且它們?cè)跊](méi)有豐富幾何信息的場(chǎng)景中容易定位失敗,例如高速公路或其他開(kāi)放空間。近年來(lái),也有人提出了一種基于學(xué)習(xí)的新型雷達(dá)定位系統(tǒng)[11],可實(shí)現(xiàn)厘米級(jí)的定位精度。傳統(tǒng)的定位方法與學(xué)習(xí)的定位方法在場(chǎng)景較為簡(jiǎn)單的城市街道、園區(qū)環(huán)境,精度和魯棒性都取得了良好的效果,但在環(huán)境多變的野外下,定位問(wèn)題還存在諸多挑戰(zhàn)。此外,在多變的室外場(chǎng)景下,需要不斷地維護(hù)更新地圖才能達(dá)到良好的定位效果。
2.4 運(yùn)動(dòng)規(guī)劃
路徑規(guī)劃即在現(xiàn)實(shí)環(huán)境中,機(jī)器人根據(jù)先驗(yàn)的地圖環(huán)境信息以及自身傳感器實(shí)時(shí)感知的周?chē)鷦?dòng)態(tài)環(huán)境信息,綜合一定的評(píng)價(jià)指標(biāo)搜索出一條能夠連接起始點(diǎn)與目標(biāo)點(diǎn),且在一定指標(biāo)下具有最優(yōu)性的軌跡曲線,并且保證機(jī)器人在沿著這條曲線運(yùn)動(dòng)的過(guò)程中能夠?qū)崟r(shí)避開(kāi)環(huán)境中的動(dòng)態(tài)障礙物,順利到達(dá)目標(biāo)點(diǎn)。
由于近幾年來(lái)大量學(xué)者與研究機(jī)構(gòu)參與到機(jī)器人技術(shù)的研究中來(lái),路徑規(guī)劃技術(shù)同樣也得到了飛速的發(fā)展。現(xiàn)階段,路徑規(guī)劃技術(shù)已不僅僅應(yīng)用于工業(yè)自動(dòng)化生產(chǎn)和移動(dòng)機(jī)器人領(lǐng)域,其在計(jì)算機(jī)輔助設(shè)計(jì)、卡通設(shè)計(jì)、醫(yī)療手術(shù)、分子生物學(xué)、貨物倉(cāng)儲(chǔ)、農(nóng)林監(jiān)測(cè)、災(zāi)害現(xiàn)場(chǎng)救援等領(lǐng)域也有了極其廣泛的應(yīng)用[12~14]。到目前為止,路徑規(guī)劃技術(shù)已經(jīng)有了近60多年的發(fā)展歷程。在此期間,種類(lèi)繁多的路徑規(guī)劃算法被相繼提出。近年來(lái),基于傳統(tǒng)的搜索和采樣的算法依然層出不窮,除此之外基于學(xué)習(xí)的規(guī)劃方法也吸引了多數(shù)研究者研究,包括傳統(tǒng)與學(xué)習(xí)混合的方法。其中傳統(tǒng)搜索方法包括基于可視圖搜索算法[15]和基于柵格地圖的搜索算法;基于采樣的算法包括基于概率路線圖和基于隨機(jī)搜索樹(shù)的方法;基于學(xué)習(xí)的方法包括基于強(qiáng)化學(xué)習(xí)的社會(huì)意識(shí)運(yùn)動(dòng)規(guī)劃[16]等;傳統(tǒng)與學(xué)習(xí)混合的方法包括基于采樣的非完整運(yùn)動(dòng)規(guī)劃中自我車(chē)輛姿態(tài)預(yù)測(cè)的學(xué)習(xí)方法[17]。在未來(lái),路徑規(guī)劃方法可能會(huì)更多的將機(jī)器學(xué)習(xí)和傳統(tǒng)優(yōu)化、搜索方法相結(jié)合來(lái)實(shí)現(xiàn)性能更優(yōu)的路徑尋優(yōu)。
3 移動(dòng)機(jī)器人的應(yīng)用領(lǐng)域
移動(dòng)機(jī)器人是一個(gè)集環(huán)境感知、動(dòng)態(tài)決策與規(guī)劃、行為控制與執(zhí)行等多功能于一體的綜合系統(tǒng)。隨著機(jī)器人性能不斷地完善,移動(dòng)機(jī)器人的應(yīng)用范圍也不斷擴(kuò)展,不僅在工業(yè)、農(nóng)業(yè)、醫(yī)療、服務(wù)等行業(yè)中得到廣泛的應(yīng)用,而且在城市安全、國(guó)防和空間探測(cè)領(lǐng)域等有害與危險(xiǎn)場(chǎng)合也得到了很好的應(yīng)用。
3.1 航空領(lǐng)域
無(wú)人機(jī)是一種非常典型的空中移動(dòng)機(jī)器人[19~20]。在航空領(lǐng)域,無(wú)人機(jī)技術(shù)的應(yīng)用正在日趨成熟。無(wú)人機(jī)航拍具有高清晰、小面積、大尺度等優(yōu)勢(shì),往往能完成許多其他工具無(wú)法完成的拍攝;在一些極其復(fù)雜的環(huán)境之下,引入無(wú)人機(jī)將大大降低高空作業(yè)的難度和風(fēng)險(xiǎn);無(wú)人機(jī)巡檢在快速處理簡(jiǎn)易交通事故、疏解城市交通、監(jiān)控視頻盲區(qū)、管理鄉(xiāng)村主次干道等工作中能夠發(fā)揮重要作用;無(wú)人機(jī)充當(dāng)中繼站,能夠從地面上的同頻道收集用戶消息,并將它們轉(zhuǎn)發(fā)給其他地面用戶或遠(yuǎn)程基站。隨著無(wú)人機(jī)技術(shù)的不斷發(fā)展,特別是隨著自主無(wú)人機(jī)技術(shù)的不斷發(fā)展與成熟,無(wú)人機(jī)應(yīng)用領(lǐng)域也在逐漸擴(kuò)大。未來(lái)無(wú)人機(jī)領(lǐng)域?qū)⒊?guī)范化、專(zhuān)業(yè)化、系統(tǒng)化的方向發(fā)展,不僅將在民用領(lǐng)域給予人們更多的選擇,而且將在交通、通信、軍事等其他領(lǐng)域扮演更重要的角色。
3.2 農(nóng)業(yè)領(lǐng)域
農(nóng)業(yè)正在迅速成為令人振奮的高科技產(chǎn)業(yè),吸引更多專(zhuān)業(yè)人士、公司和投資者。農(nóng)業(yè)機(jī)器人技術(shù)的迅速發(fā)展不僅能夠提高農(nóng)民的生產(chǎn)能力,而且能夠提高機(jī)器人技術(shù)及其自動(dòng)化技術(shù)。從無(wú)人車(chē)到自動(dòng)拖拉機(jī)再到機(jī)器人手臂,農(nóng)業(yè)機(jī)器人技術(shù)在機(jī)器人技術(shù)的發(fā)展下不斷取得突破。自動(dòng)駕駛車(chē)輛作為精準(zhǔn)農(nóng)業(yè)的應(yīng)用平臺(tái)[20],能夠完成農(nóng)場(chǎng)環(huán)境下的感知、建圖、定位導(dǎo)航;移動(dòng)機(jī)器人還可以用來(lái)進(jìn)行紅樹(shù)梅枝干檢測(cè)定位、修剪和捆綁[21]等。此外,還有一些農(nóng)作物識(shí)別與自主跟隨機(jī)器人也成功的應(yīng)用于農(nóng)業(yè)領(lǐng)域[22~23]。但是,農(nóng)業(yè)機(jī)器人技術(shù)也面臨著許多獨(dú)特的挑戰(zhàn),它是機(jī)器人技術(shù)、視覺(jué)技術(shù)、自動(dòng)化操作技術(shù)和農(nóng)作物科學(xué)的交叉融合研究領(lǐng)域,仍然有很多挑戰(zhàn)性問(wèn)題需要進(jìn)一步解決。
3.3 服務(wù)領(lǐng)域
機(jī)器人技術(shù)是多種技術(shù)的集成,它的進(jìn)步取決于其他領(lǐng)域的發(fā)展,特別是計(jì)算機(jī)、信息處理、傳感器和驅(qū)動(dòng)器、通信和網(wǎng)絡(luò)等[24~26]。服務(wù)機(jī)器人的發(fā)展與所處的機(jī)器人行業(yè)密切相關(guān)。從其應(yīng)用場(chǎng)景進(jìn)行劃分,智能服務(wù)機(jī)器人可以分為面向家庭的消費(fèi)類(lèi)服務(wù)機(jī)器人以及面向公共商用環(huán)境的商用服務(wù)機(jī)器人兩大類(lèi)。在商用領(lǐng)域,機(jī)器人被應(yīng)用在商場(chǎng)、酒店、辦公樓等場(chǎng)合,充當(dāng)著迎賓、送餐、安保安防、醫(yī)療輔助等角色,輔助傳統(tǒng)產(chǎn)業(yè)智能升級(jí)。但是,目前消費(fèi)類(lèi)的服務(wù)機(jī)器人應(yīng)用還比較少,現(xiàn)階段最為成功的消費(fèi)級(jí)服務(wù)機(jī)器人就是家庭用的掃地機(jī)器人。未來(lái),隨著服務(wù)機(jī)器人需求的不斷擴(kuò)大和服務(wù)機(jī)器人技術(shù)的發(fā)展,服務(wù)機(jī)器人將會(huì)遍及社會(huì)各個(gè)角落,每個(gè)人都能感受到服務(wù)機(jī)器人應(yīng)用帶來(lái)的便捷。
3.4 深空和深海探測(cè)
探索太空對(duì)人類(lèi)具有重大的科學(xué)價(jià)值和商業(yè)價(jià)值。各國(guó)都爭(zhēng)先恐后地制定探索太空的戰(zhàn)略部署,力爭(zhēng)在太空競(jìng)爭(zhēng)中占據(jù)優(yōu)勢(shì)。其中行星探測(cè)機(jī)器人是著陸探測(cè)和取回樣品到實(shí)驗(yàn)室分析的有力工具,有利于提高一個(gè)國(guó)家的國(guó)防實(shí)力和國(guó)際地位[27~28]。目前各國(guó)都在積極研制新型行星探測(cè)機(jī)器人,具備高級(jí)移動(dòng)和越障能力,良好操作能力的更智能自主化的機(jī)器人將成為研究的熱點(diǎn)。深海自主水下機(jī)器人在幫助人類(lèi)探測(cè)深海極端環(huán)境中正發(fā)揮著越來(lái)越大的作用。深海自主水下機(jī)器人通常具有良好的流體外形,如魚(yú)雷形、立扁形等,減少其航行時(shí)阻力,提高其續(xù)航力,同時(shí)可搭載聲學(xué)、光學(xué)和海洋環(huán)境測(cè)量載荷,執(zhí)行多種探測(cè)任務(wù)[29]。自20世紀(jì)50年代美國(guó)華盛頓大學(xué)研制世界上首臺(tái)自主水下機(jī)器人以來(lái), 自主水下機(jī)器人的發(fā)展經(jīng)歷了60多年的歷程。
20世紀(jì)90年代后期, 隨著計(jì)算機(jī)技術(shù)發(fā)展和電子技術(shù)的日益成熟,自主水下機(jī)器人進(jìn)入快速發(fā)展階段,一批有影響的自主水下機(jī)器人相繼研制成功并得到成功應(yīng)用[30]。隨著海洋經(jīng)濟(jì)的發(fā)展和軍事需求的增加以及水下機(jī)器人技術(shù)的日漸成熟,水下機(jī)器人將向遠(yuǎn)程化、智能化發(fā)展,建立機(jī)器人相互間及機(jī)器人與人之間的通信與磋商機(jī)理,完成群體行為控制、監(jiān)測(cè)與管理及故障診斷,實(shí)現(xiàn)群體作業(yè)。
3.5 無(wú)人駕駛
隨著人類(lèi)文明程度的不斷進(jìn)步和科學(xué)技術(shù)水平的不斷發(fā)展,人們對(duì)物質(zhì)生活的要求逐漸提升,無(wú)人駕駛車(chē)輛正越來(lái)越多地受到人們的關(guān)注與重視。無(wú)人駕駛車(chē)輛是一種具有自主駕駛行為的車(chē)輛[31-32]。它在傳統(tǒng)車(chē)輛的基礎(chǔ)上加入了精確定位、環(huán)境感知、高精度地圖、運(yùn)動(dòng)規(guī)劃和行為控制等一系列人工智能模塊,通過(guò)這些模塊來(lái)完成與周?chē)h(huán)境的交互并作出相應(yīng)決策和動(dòng)作。由于無(wú)人駕駛可預(yù)見(jiàn)的對(duì)傳統(tǒng)汽車(chē)行業(yè)的重大沖擊和變革,各國(guó)和各大公司不惜代價(jià)的研制相關(guān)技術(shù),力爭(zhēng)占據(jù)戰(zhàn)略先機(jī),也必將有力推動(dòng)無(wú)人駕駛技術(shù)的不斷發(fā)展。
4 總結(jié)與展望
移動(dòng)機(jī)器人在人類(lèi)社會(huì)各個(gè)領(lǐng)域中正日益發(fā)揮著越來(lái)越大的作用,也必將在未來(lái)發(fā)揮更大的作用。作為移動(dòng)機(jī)器人技術(shù)中的基礎(chǔ)和核心,移動(dòng)機(jī)器人自主導(dǎo)航技術(shù)也不斷取得發(fā)展和突破,但仍有巨大的發(fā)展空間。以下是一些對(duì)未來(lái)移動(dòng)機(jī)器人自主導(dǎo)航技術(shù)發(fā)展的展望。
(1)在挑戰(zhàn)性環(huán)境,如高動(dòng)態(tài),濃霧等環(huán)境下,目前的移動(dòng)機(jī)器人自主導(dǎo)航技術(shù)尚不能很好的解決定位等關(guān)鍵技術(shù)問(wèn)題。未來(lái),移動(dòng)機(jī)器人自主導(dǎo)航技術(shù)將會(huì)朝著能夠適用于各種環(huán)境,尤其是復(fù)雜多變的挑戰(zhàn)環(huán)境的方向發(fā)展。
(2)目前的自主導(dǎo)航方法大多仍基于傳統(tǒng)方法,未來(lái)移動(dòng)機(jī)器人自主導(dǎo)航技術(shù)將能夠利用人工智能領(lǐng)域,比如強(qiáng)化學(xué)習(xí),進(jìn)化學(xué)習(xí)等方法來(lái)提高其導(dǎo)航性能和對(duì)環(huán)境的適應(yīng)性。
(3)目前的移動(dòng)機(jī)器人技術(shù)大多針對(duì)單一機(jī)器人,未來(lái)基于群機(jī)器人的自主導(dǎo)航方法將更注重決策和多機(jī)器人協(xié)調(diào)技術(shù),從而能夠更好地完成任務(wù)。
(4)未來(lái)機(jī)器人與人類(lèi)之間的交互將變得越來(lái)越重要,人機(jī)共融也將成為移動(dòng)機(jī)器人領(lǐng)域的研究重
參考文獻(xiàn):
[1] Salichs M A, Moreno L. Navigation of mobile robots: open questions[J]. Robotica, 2000, 18 : 227 - 234.
[2] Leonard J, Durrant W H. Mobile robot localization by tracking geometric beacons[J]. IEEE Transcations on Robotics and Automation, 1991 : 376 - 382.
[3] Qi C R, Liu W, Wu C, et al. Frustum point nets for 3d object detection from rgb-d data[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2018: 918 - 927.
[4] W. HessM. Montemerlo, S. Thrun, D. Koller, B. Wegbreit, "FastSLAM: A Factored Solution to the Simultaneous Localization and Mapping Problem"[C]. In the Proceedings of the AAAI National Conference of Artificial Intelligence, Canada, 2002.
[5] D. Kohler, H. Rapp, D. Andor, Real-Time Loop Closure in 2D LIDAR SLAM, in Robotics and Automation (ICRA)[C]. 2016 IEEE International Conference on. IEEE, 2016. pp. 1271 - 1278.
[6] COX I J. Blanche: an experiment in guidance and navigation of an autonomous robot vehicle[C]. IEEE Transactions on Robotics and Automat ion, 1991, 7 ( 2 ): 193 - 204
[7] FOXD, BURGARDW , THRUN S. Markov localization for mobile robot in dynamic environments[C]. Journal of Artificial Intelligence Research, 1999, 11( 1 ) : 391 - 427.
[8] 李群明, 熊蓉, 褚健. 室內(nèi)自主移動(dòng)機(jī)器人定位方法研究綜述[J]. 機(jī)器人, 2003, 25 ( 6 ).
[9] P. J. Besl and N. D. McKay. A method for registration of 3-D shapes[C]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 14(2):239 - 256, Feb 1992. 1.
[10] P. Biber and W. Stra.er. The normal distributions trans- form: A new approach to laser scan matching[C]. In Proceed- ings 2003 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), volume 3, pages 2743 -2748, 2003.
[11] Weixin Lu, Yao Zhou, Guowei Wan, Shenhua Hou, Shiyu Song. L3-Net: Towards Learning based LiDAR Localization for Autonomous Driving[J]. In CVPR, 2019.
[12] Cortés J, Jaillet L, Siméon T. Molecular Disassembly With RRT-Like Algorithms. Robotics and Automation[C]. 2007 IEEE International Conference on. IEEE, 2007: 3301 - 3306.
[13] Chong-Hao W U, Ban X J. Research on path-planning of virtual characters in computer animation[J]. Journal of Computer Applications, 2008, 28 ( 2 ) : 315 - 310.
[14] Ma Y, Wang H, Xie Y, et al. Path planning for multiple mobile robots under double-warehouse[J]. Information Sciences, 2014, 278 : 357 - 379.
[15] D. Wooden, M. Egerstedt. Oriented visibility graphs: low-complexity planning in real-time environments[C]. Proceedings 2006 IEEE International Conference on Robotics and Automation, 2006. ICRA 2006., Orlando, FL, 2006, pp. 2354 - 2359.
[16] Y. F. Chen, M. Everett, M. Liu and J. P. How. Socially aware motion planning with deep reinforcement learning, [C]. 2017 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), Vancouver, BC, 2017, pp. 1343 - 1350.
[17] Banzhaf, Holger & Sanzenbacher, etc. (2019). Learning to Predict Ego-Vehicle Poses for Sampling-Based Nonholonomic Motion Planning[C]. IEEE Robotics and Automation Letters. PP. 1-1. 10.1109/LRA.2019.2893975.
[18] Zheng Fang, Shichao Yang, etc. Robust Autonomous Flight in Constrained and Visually Degraded Shipboard Environment[J]. Journal of Field Robotics, 34 ( 1 ) : 25 -52, 2017.
[19] Bry, A., Richter, C., Bachrach, A., and Roy, N. Aggressive flight of fixed-wing and quadrotor aircraft in dense indoor environments[J]. The International Journal of Robotics Research, 34 ( 7 ) : 969 - 10, 2015.
[20] F. A. Auat Cheein and R. Carelli. Agricultural Robotics: Unmanned Robotic Service Units in Agricultural Tasks[C]. in IEEE Industrial Electronics Magazine, vol. 7, no. 3, pp. 48 - 58, Sept. 2013.
[21] Bhusal, Santosh & Khanal, Kapil & Karkee, Manoj & Zhang, Qin. Cane Detection and Localization for Automated Cane Management in Red Raspberry Plant[C]. IEEE ICRA, 2018.
[22] C. McCool, T. Perez and B. Upcroft. Mixtures of Lightweight Deep Convolutional Neural Networks: Applied to Agricultural Robotics[C]. in IEEE Robotics and Automation Letters, vol. 2, no. 3, pp. 1344 - 1351, July 2017.
[23] Le, Tuan D, Ponnambalam, Vignesh R, Gjevestad, Jon G. O, From, P.l J,“A low-cost and efficient autonomous row-following robot for food production in poly tunnels”[J]. Field Robotics,1556 - 4959,May 2019.
[24] George A. Bekey. Autonomous Robots: From Biological Inspiration to Implementation and Control[M]. MIT Press, February 2017.
[25] 熊光明,趙濤,龔建偉, 等.服務(wù)機(jī)器人發(fā)展綜述及若干問(wèn)題探討[J].機(jī)床與液壓,2007,35 ( 3 ) : 212 - 215.
[26] 徐國(guó)保,尹怡欣,周美娟.智能移動(dòng)機(jī)器人技術(shù)現(xiàn)狀及展望[J].機(jī)器人技術(shù)與應(yīng)用,2007 ( 2 ) : 29 - 34.
[27] 胡中為,王爾康.行星科學(xué)導(dǎo)論[M].南京: 南京大學(xué)出版社,1998.
[28] 劉進(jìn)長(zhǎng),王全福.發(fā)展機(jī)器人技術(shù),占領(lǐng)21世紀(jì)的經(jīng)濟(jì)技術(shù)制高點(diǎn)[J].中南工業(yè)大學(xué)學(xué)報(bào), 2000 : 10 - 14.
[29] 李碩,劉健,徐會(huì)希,等.我國(guó)深海自主水下機(jī)器人的研究現(xiàn)狀[J].中國(guó)科學(xué):信息科學(xué),2018,48(09) :36 - 48.
[30] Zhang H W, Hao L, Wang Y H, et al. The general design of a seafloor surveying AUV system[J]. In: Proceedings of OCEANS, 2014.
[31] Jesse Levinson, Jake Askeland, Jan Becker, etc. Towards fully autonomous driving: Systems and algorithms[C]. 2011 IEEE Intelligent Vehicles Symposium (IV), 2011
[32] Sebastian Thrun and Michael Montemerlo, etc. Stanley: The Robot that Won the DARPA Grand Challenge[J].Journal of Field Robotics, 23 ( 9 ) : 661 - 692.
作者簡(jiǎn)介:
方正(1981-),男,安徽壽縣人,副教授,博士生導(dǎo)師,工學(xué)博士,現(xiàn)任職于東北大學(xué)機(jī)器人科學(xué)與工程學(xué)院,研究方向是自主移動(dòng)機(jī)器人、環(huán)境感知、自主導(dǎo)航等。
吳成東(1960-),男,遼寧大連人,教授,博士生導(dǎo)師,工學(xué)博士,現(xiàn)任職于東北大學(xué)機(jī)器人科學(xué)與工程學(xué)院,研究方向是計(jì)算機(jī)視覺(jué)、模式識(shí)別等。
摘自《自動(dòng)化博覽》2019年8月刊