使用驅(qū)動3D傳感器的機器人自校準(zhǔn)
當(dāng)前的機器人校準(zhǔn)技術(shù)依賴于專門的設(shè)備和經(jīng)過專門培訓(xùn)的人員。為了克服這個問題,最近發(fā)表在arXiv.org上的一篇論文提出了一個框架,該框架允許對配備任意眼在手3D傳感器的機器人系統(tǒng)進(jìn)行真正的現(xiàn)場自校準(zhǔn)。它使用點云配準(zhǔn)技術(shù)來融合給定場景的多次掃描。
所提出的方法是第一個可以僅依靠深度數(shù)據(jù)而不是外部工具和對象來解決整個機器人系統(tǒng)校準(zhǔn)的方法。該方法適用于任何運動鏈和深度傳感器組合,例如單光束激光雷達(dá)、線掃描儀和深度相機。
在各種硬件配置上對多個真實世界場景的評估表明,所達(dá)到的精度與使用傳統(tǒng)方法和專用3D跟蹤系統(tǒng)所達(dá)到的精度相似。
幾十年來,機器人和手眼校準(zhǔn)都是研究的對象。雖然目前的方法能夠精確和穩(wěn)健地識別機器人運動模型的參數(shù),但它們?nèi)匀灰蕾囉谕獠吭O(shè)備,例如校準(zhǔn)對象、標(biāo)記和/或外部傳感器。本文沒有嘗試將記錄的測量值擬合到已知物體的模型,而是將機器人校準(zhǔn)視為離線SLAM問題,其中掃描姿勢通過移動的運動鏈鏈接到空間中的固定點。因此,所提出的框架允許機器人校準(zhǔn)只使用任意的手眼深度傳感器,從而無需任何外部工具即可實現(xiàn)完全自主的自我校準(zhǔn)。我的新方法是利用迭代最近點算法的修改版本對多個3D記錄運行捆綁調(diào)整,以估計運動模型的最佳參數(shù)。該系統(tǒng)的詳細(xì)評估顯示在帶有各種附加3D傳感器的真實機器人上。所呈現(xiàn)的結(jié)果表明,該系統(tǒng)可以達(dá)到與專用外部跟蹤系統(tǒng)相當(dāng)?shù)木?,而成本只是其一小部分?/p>
標(biāo)簽: