《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 人工智能 > 設(shè)計(jì)應(yīng)用 > 一種基于點(diǎn)云實(shí)例分割的六維位姿估計(jì)方法
一種基于點(diǎn)云實(shí)例分割的六維位姿估計(jì)方法
網(wǎng)絡(luò)安全與數(shù)據(jù)治理
周劍
蘇州深淺優(yōu)視智能科技有限公司
摘要: 提出了一種基于SoftGroup實(shí)例分割模型和PCA主成分分析算法來估計(jì)物體位姿的方法。在工業(yè)自動(dòng)化領(lǐng)域,通常會(huì)為諸如機(jī)器人、機(jī)械臂配備視覺系統(tǒng)并利用二維圖像估算目標(biāo)物體位置,但當(dāng)目標(biāo)物體出現(xiàn)堆疊、遮擋等復(fù)雜場(chǎng)景時(shí),對(duì)二維圖形的識(shí)別精度往往有所下降。為準(zhǔn)確、高效地獲取物體位置,充分利用三維點(diǎn)云數(shù)據(jù)的高分辨率、高精度的優(yōu)勢(shì):首先將深度相機(jī)采集到的RGB-D圖像轉(zhuǎn)為點(diǎn)云圖,接著利用SoftGroup模型分割出點(diǎn)云圖中的目標(biāo)對(duì)象,最后用PCA算法得到目標(biāo)的六維位姿。在自制工件數(shù)據(jù)集上進(jìn)行驗(yàn)證,結(jié)果表明對(duì)三種工件識(shí)別的平均AP高達(dá)97.5%,單張點(diǎn)云圖識(shí)別用時(shí)僅0.73 ms,證明所提出的方法具有高效性和實(shí)時(shí)性,為諸如機(jī)器人定位、機(jī)械臂自主抓取場(chǎng)景帶來了全新的視角和解決方案,具有顯著的工程應(yīng)用潛力。
中圖分類號(hào):TP391文獻(xiàn)標(biāo)識(shí)碼:ADOI:10-19358/j-issn-2097-1788-2024-05-006
引用格式:周劍.一種基于點(diǎn)云實(shí)例分割的六維位姿估計(jì)方法[J].網(wǎng)絡(luò)安全與數(shù)據(jù)治理,2024,43(5):42-45,60.
6D pose estimation based on point cloud instance segmentation
Zhou Jian
DEEPerceptron Tech
Abstract: This paper proposes a method based on the SoftGroup instance segmentation model and Principal Component Analysis (PCA) algorithm for estimating object poses. In the field of industrial automation, visual systems are often equipped on robots and robotic arms to estimate the position of target objects using 2D images. However, in complex scenarios such as stacking and occlusion, the recognition accuracy of 2D images tends to decrease. To accurately and efficiently obtain object positions, this paper fully leverages the high-resolution and high-precision advantages of 3D point cloud data. Firstly, RGB-D images captured by a depth camera are converted into point cloud images. Then, the SoftGroup model is employed to segment the target objects in the point cloud image, and finally, the PCA algorithm is used to obtain the six-dimensional pose of the target. Validation on a self-made dataset shows an average AP of 97.5% for the recognition of three types of objects. The recognition time for a single point cloud image is only 0.73 ms, demonstrating the efficiency and real-time capability of the proposed method. This approach provides a new perspective and solution for scenarios such as robot localization and autonomous grasping of robotic arms, with significant potential for practical engineering applications.
Key words : point cloud data; SoftGroup instance segmentation; 6D pose estimation

引言

近年,隨著激光掃描儀、相機(jī)、三維掃描儀等硬件設(shè)備的發(fā)展與普及,點(diǎn)云數(shù)據(jù)的獲取途徑變得更加多樣,數(shù)據(jù)獲取的難度不斷降低。相較于二維圖像,三維點(diǎn)云數(shù)據(jù)具備無可比擬的優(yōu)勢(shì)。其高分辨率、高精度、高緯度的特性賦予點(diǎn)云數(shù)據(jù)更為豐富的空間幾何信息,能夠直觀地表達(dá)物體的形狀特征。近年來,點(diǎn)云數(shù)據(jù)在工業(yè)測(cè)量、機(jī)械臂抓取、目標(biāo)檢測(cè)、機(jī)器人視覺等領(lǐng)域得到了廣泛應(yīng)用[1–3]。

在工業(yè)自動(dòng)化領(lǐng)域,通常需要先獲得物體的位姿信息再進(jìn)行后續(xù)抓取動(dòng)作。自動(dòng)抓取物體可分為結(jié)構(gòu)化場(chǎng)景和非結(jié)構(gòu)化場(chǎng)景。在結(jié)構(gòu)化工作場(chǎng)景中,機(jī)械臂抓取固定位置的物體,該模式需要進(jìn)行大量調(diào)試和示教工作,機(jī)械臂只能按照預(yù)設(shè)程序進(jìn)行工作,缺乏自主識(shí)別和決策能力,一旦目標(biāo)物體發(fā)生形變或位置偏移,可能導(dǎo)致抓取失敗;在非結(jié)構(gòu)化場(chǎng)景中,通常為機(jī)械臂配備視覺感知硬件和目標(biāo)檢測(cè)算法,以使機(jī)械臂能夠感知并理解相對(duì)復(fù)雜的抓取環(huán)境。然而,在實(shí)際復(fù)雜的抓取場(chǎng)景下(如散亂、堆疊、遮擋),常見的目標(biāo)檢測(cè)方法如點(diǎn)云配準(zhǔn)[4]、二維圖像實(shí)例分割[5]的精度有所下降,從而影響抓取效率[6]。


本文詳細(xì)內(nèi)容請(qǐng)下載:

http://www.jysgc.com/resource/share/2000006014


作者信息:

周劍

(蘇州深淺優(yōu)視智能科技有限公司,江蘇蘇州215124)


Magazine.Subscription.jpg

此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。
主站蜘蛛池模板: 91精品欧美产品免费观看| 中文字幕无码不卡免费视频| 欧美牲交a欧美牲交aⅴ免费下载| 午夜内射中出视频| 荫蒂添的好舒服视频| 日韩国产精品欧美一区二区| 亚洲欧美综合网| 男女下面一进一出免费无遮挡| 国产99久久久久久免费看| 91精品国产人成网站| 女人18毛片黄| 一本色道无码道dvd在线观看| 无码精品尤物一区二区三区| 久久精品无码aV| 欧美va天堂在线电影| 亚洲成a人片在线观看久| 激性欧美激情在线| 免费无码专区毛片高潮喷水| 绿巨人晚上彻底放飞自己| 国产一区在线观看视频| 试看120秒做受小视频免费| 国产成a人亚洲精v品无码| 99精品国产在热久久婷婷| 少妇极品熟妇人妻| 一级毛片一级毛片免费毛片| 我和岳乱妇三级高清电影| 久久久久久久综合综合狠狠| 日本边添边摸边做边爱喷水 | 亚洲国产精品成人精品小说| 毛片让我看一下毛片| 亚洲精品福利网泷泽萝拉| 狼狼综合久久久久综合网| 伊大人香蕉久久网| 男人j插入女人p| 人妻妺妺窝人体色WWW聚色窝| 男女午夜免费视频| 免费91麻豆精品国产自产在线观看| 精品一区二区久久久久久久网站| 国产成人一区二区三区免费视频| 久久精品老司机| 国产日韩精品一区二区三区在线 |