《電子技術應用》
您所在的位置:首頁 > 人工智能 > 設計應用 > 基于YOLOv5的姿態交互球類陪練機器人
基于YOLOv5的姿態交互球類陪練機器人
2022年電子技術應用第1期
曾楊吉,劉自紅,蔡 勇,郭星辰,莫金龍
西南科技大學 制造科學與工程學院,四川 綿陽621000
摘要: 針對當下球類陪練機器人人機交互能力不足的問題,提出一種基于樹莓派和YOLOv5目標檢測算法的新型人機交互模式,使機器人實現前進、后退、左移、右移、拋球、踢球6種不同的動作;通過對在3種不同環境(室內、室外晴天、室外陰天)下搜集的人體姿態數據集進行標定、訓練后,得到6種姿態在3種環境中測試集上的識別準確率分別為:室內96.33%、室外晴天95%、室外陰天94.3%。相比基于特征匹配和其他利用手勢等小目標檢測的算法,基于該算法的機器人具有更高的檢測速度和準確性,使機器人更加智能化。
中圖分類號: TN92;TH39
文獻標識碼: A
DOI:10.16157/j.issn.0258-7998.211736
中文引用格式: 曾楊吉,劉自紅,蔡勇,等. 基于YOLOv5的姿態交互球類陪練機器人[J].電子技術應用,2022,48(1):76-79.
英文引用格式: Zeng Yangji,Liu Zihong,Cai Yong,et al. An interactive ball training partner robot based on YOLOv5[J]. Application of Electronic Technique,2022,48(1):76-79.
An interactive ball training partner robot based on YOLOv5
Zeng Yangji,Liu Zihong,Cai Yong,Guo Xingchen,Mo Jinlong
School of Manufacturing Science and Engineering,Southwest University of Science and Technology,Mianyang 621000,China
Abstract: In order to solve the problem of insufficient human-computer interaction ability of ball training partner robots, a new human-computer interaction mode based on Raspberry Pi and YOLOv5 algorithm was proposed, which enabled the robot to realize six different actions: forward, backward, left, right, throwing the ball, and kicking the ball. After calibrating and training the data sets collected in three different environments(indoor, outdoor sunny day and outdoor cloudy day), the recognition accuracy of the six poses in the test set under three different environments is 96.33% indoor,95% outdoor sunny day,and 94.3% outdoor cloudy day, respectively. Compared with other algorithms based on feature matching and small target detection using gestures, the robot has higher detection speed and accuracy, which makes the robot more intelligent.
Key words : YOLOv5 algorithm;posture recognition;ball training partner robot;Raspberry Pi;STM32 MCU

0 引言

    球類陪練機器人以其機動性好、針對性強、訓練數據可量化等特點已在多個體育領域有廣泛的應用,目前對陪練機器人的研究大多集中于機器人控制方法[1]和機械結構的設計、優化[2-3],以提高機器人的多功能性和可控性為主。但是對于訓練內容更加復雜的運動(如籃球、足球、橄欖球等),還需要機器人具備更高的人機交互能力以發揮出最優性能。

    傳統的人機交互一般依賴于遙控器、鍵盤鼠標等外部設備,存在一定的固有缺陷,而基于圖像處理的目標識別方法可實現與機器人的實時交互,進一步提高機器人智能化水平。在基于圖像處理的姿態識別研究中,主要集中于以下幾個方面:(1)傳感器:基于慣性傳感器、FDC2214電容傳感器等[4-5];(2)機器學習:基于支持向量機(SVM)、長短期記憶神經網絡(LSTM)等[6-7];(3)深度學習模型:基于YOLO、卷積神經網絡(CNN)等的方法在識別問題中也得到了廣泛應用[8-9]。YOLO系列算法由Redmon等人在2015年提出[10],后續不斷發展為YOLOv2[11]、YOLOv3[12]、YOLOv4[13]和最新的YOLOv5。該算法的核心思想在于將目標檢測統一為回歸問題進行求解,相較于同一精確度下采用分類+回歸方法的Faster R-CNN等機器學習方法,檢測速度提升了約4倍。YOLOv5是YOLO系列最新的算法,是目前檢測領域綜合性最好的算法之一。




本文詳細內容請下載:http://www.jysgc.com/resource/share/2000003912




作者信息:

曾楊吉,劉自紅,蔡  勇,郭星辰,莫金龍

(西南科技大學 制造科學與工程學院,四川 綿陽621000)




wd.jpg

此內容為AET網站原創,未經授權禁止轉載。
主站蜘蛛池模板: 884aa四虎四虎永久播放地址| 中文字幕日本精品一区二区三区| 污视频免费网站| 别揉我胸啊嗯上课呢的作文| 中文字幕第四页| 日韩欧美中文字幕出| 亚洲免费网站观看视频| 毛片a级毛片免费观看品善网| 免费看特黄特黄欧美大片| 老司机带带我懂得视频| 国产人妖ts在线观看网站| 91网站免费观看| 天天欲色成人综合网站| 中国国语毛片免费观看视频| 日日躁夜夜躁狠狠躁超碰97| 久久婷婷综合色丁香五月| 最近2019中文字幕免费看最新 | 国产午夜福利精品一区二区三区| 日本尤物精品视频在线看| 国产精品亚洲五月天高清 | 日韩三级在线免费观看| 五月婷婷中文字幕| 极品无码国模国产在线观看| 亚洲乱码在线视频| 欧美亚洲欧美日韩中文二区| 亚洲成Aⅴ人片久青草影院| 欧美高清视频www夜色资源 | 高清无码一区二区在线观看吞精| 国产成人精品午夜视频'| 欧美成人免费tv在线播放| 国产精品亚洲а∨无码播放| 69国产成人精品午夜福中文| 国内精品国语自产拍在线观看55| 99久久综合国产精品免费| 在线视频精品一区| 99久无码中文字幕一本久道| 大桥未久恸哭の女教师| 99在线精品视频| 国产黄大片在线视频| 91色视频网站| 国产精品视频一区二区三区无码|