99爱免费观看_日韩在线免费_97成人在线视频_中文字幕三区_美女福利视频网站_色伊人

基于計算機視覺的定位引導機器人研究

來源:期刊VIP網(wǎng)所屬分類:計算機信息管理時間:瀏覽:

  摘要:科技的高速發(fā)展使工業(yè)生產(chǎn)實現(xiàn)自動化功能的要求愈來愈高,工業(yè)機器人行業(yè)的計算機視覺技術(shù)應(yīng)用愈發(fā)廣泛。定位引導是自主移動機器人解決各種復雜任務(wù)的關(guān)鍵,對于提高機器人自動化水平具有重要的理論意義和應(yīng)用價值?;谟嬎銠C視覺的定位引導機器人能使用計算機視覺去精確獲取目標并定位,利用視覺系統(tǒng)獲取外部信息,用單攝像頭或多攝像頭采用第一視角或者第三視角對環(huán)境進行成像處理,根據(jù)對目標識別匹配或跟蹤,實時得到目標的位姿信息,將目標位置的圖像坐標轉(zhuǎn)換為機器人能夠識別的機器人坐標并對機器人進行修正引導。

  關(guān)鍵詞:定位引導 計算機視覺 圖像識別

計算機視覺論文

  基于視覺的定位引導機器人是在OpenCV技術(shù)之上利用計算機視覺系統(tǒng)來模擬人眼,使用圖像處理來獲取有用信息,通過定位技術(shù)與定位引導技術(shù),將經(jīng)信息處理與理解后的圖像信息進行檢測并控制完成機器人的引導。通過攝像頭獲得的實時畫面,可在整個引導過程中實時檢測與修正導航設(shè)置,能夠確保導引的高精準性。且在實施時僅需在機器人上方架設(shè)攝像頭,從而能夠極大地降低建設(shè)的成本。

  1視覺技術(shù)

  1.1.視覺系統(tǒng)

  視覺系統(tǒng)的主要任務(wù)是實時采集、處理以及識別平臺圖像,得到平臺上目標的相關(guān)數(shù)據(jù)信息,供定位系統(tǒng)以及決策系統(tǒng)使用。圖像分割是視覺系統(tǒng)的基礎(chǔ)和關(guān)鍵,分割方法的選擇對系統(tǒng)整體起決定性作用。顏色作為物體表面的基本特征,是進行物體識別和認知必不可少的信息。目前顏色信息豐富且易于應(yīng)用,所以本文基于顏色進行圖像分割,得到兩個色塊的坐標信息,從而獲知機器人的位姿信息,實現(xiàn)定位。

  1.2.openCV

  OpenCV 包含了大量視覺相關(guān)函數(shù),OpenCV 主體由 5 個模塊組成,CV 模塊主要包括圖像處理的各種基本函數(shù)以及計算機視覺的高級處理算法。HighGUI 模塊則包括視頻圖像輸入、輸出及圖像界面函數(shù)。ML(Machine Learning)模塊包含了機器學習的函數(shù)類庫,由一些聚類算法、數(shù)據(jù)分析函數(shù)及分類組成。CxCore 模塊指基礎(chǔ)結(jié)構(gòu)、數(shù)組操作、繪圖函數(shù)錯誤處理等數(shù)據(jù)結(jié)構(gòu)及相關(guān)函數(shù)。第五個模塊是 CvAux 模塊,包含許多面臨淘汰的函數(shù)以及算法,還包括許多實驗性的函數(shù)、算法,諸如前景檢測、背景剔除等。

  1.3.目標識別

  通過攝像頭獲取的原始圖像大都不盡人意,會存在很多干擾信息,諸如復雜的背景、噪聲以及光照因素,需要對圖像進行預處理,從而降低對目標提取的干擾,以便快速準確得到目標信息。

  HSV 顏色模型是按照顏色的直觀特征建立的顏色空間模型。該模型三個參數(shù)分別為色調(diào)(H,hue)、飽和度(S,saturation)和亮度(V,value),由于在目標的識別提取中常常會受到各種光線的影響,這就需要一種在不同亮度條件下而基本沒什么變化的顏色模型。通過調(diào)用cvtColor(frame,cv2.COLOR_BGR2HSV)方法即可完成顏色空間轉(zhuǎn)換。

  在圖像的分析與處理中,圖像二值化可以說是最常見最基礎(chǔ)也特別關(guān)鍵的一種處理手段,有助于對圖像進行進一步的分析,可以大大消減圖像中的數(shù)據(jù)量,以便盡早顯現(xiàn)出感興趣的目標輪廓。調(diào)用cv2.inRange(hsv,lower_red,upper_red)方法即可實現(xiàn)圖像二值化。

  為更好地識別我們的核心目標(兩個圓球),將原圖像和二值化圖像進行與操作,去除干擾背景,接著將對圖像進行灰度處理,去除檢測算法對目標檢測的資源耗費,將灰度處理后的結(jié)果,傳遞給檢測模塊,循環(huán)調(diào)用霍夫曼檢測模塊,對目標進行識別標記。

  2.定位技術(shù)

  2.1.推算定位

  在導航系統(tǒng)中,推算定位(DR)是一個借助于先前已知位置,以及估計出的速度隨時間的變化量來推導出當前位置的過程。本文中推算定位算法是只根據(jù)左右兩側(cè)車輪行走過的距離實現(xiàn)定位的一種方法,左右兩輪都安裝有驅(qū)動電機,將光電碼盤固定在電機輪軸上,隨輪子同步轉(zhuǎn)動。設(shè)機器人車輪的直徑為D,所使用的光電碼盤的線數(shù)為P ,在Δt時間內(nèi)光電編碼器的輸出脈沖個數(shù)ΔN,則機器人走過的距離。

  2.2.視覺里程計

  視覺里程計是一種利用連續(xù)的圖像序列來估計機器人移動距離的方法。視覺里程計增強了機器人在任何表面以任何方式移動時的導航精度。本文中視覺里程計算主要包含以下幾個步驟:

  (1)圖像獲取,通過單目照相機、雙目照相機或者全向照相機獲得機器人的運動畫面。

  (2)圖像校正,利用圖像處理技術(shù),將獲取的圖像中的干擾因素去掉,然后對圖像進行一系列的初始化處理。

  (3)特征檢測,在獲得預處理后的圖像數(shù)據(jù)后,根據(jù)需要檢測的特征,在幀與幀之間匹配特征并構(gòu)建光流場;

  (4)檢查光流場向量是否存在潛在的跟蹤誤差,移除外點;

  (5)使用由光流場估計照相機的運動;

  (6)周期性的重定位跟蹤點;

  3.導航系統(tǒng)

  3.1.目標位置設(shè)定

  通過攝像頭獲得場域地圖后將地圖信息通過GUI反饋給用戶,用戶通過鼠標等操作確定目標位置,再通過cv2.EVENT_ LBUTTO NDOWN事件獲得目標像素坐標,從而確定目標位置

  3.2.關(guān)鍵點的像素坐標轉(zhuǎn)化為世界坐標

  上面文中的視覺處理一共捕獲兩個圓,一個小圓,一個大圓,其中大圓圓心表示機器人所在點A(x1,y1),小圓圓心表示機器人朝向點B(x2,y2);用戶通過鼠標點擊事件輸入了目的地C(x3,y3)。但這些坐標都是圖像中的像素坐標,為此我們要做的第一步是要將攝像頭捕獲的圖像中的距離轉(zhuǎn)化為實際距離。單目測距思想借鑒小孔成像原理,已知物體A到圖像中心o’的距離x’,相機焦距f,鏡頭到地面的高度h,更具三角形相似可得:物體到相機視野區(qū)域的中心o的距離問題x=(x’h)/f。如下圖1。

  推薦閱讀:如何檢索計算機專業(yè)論文文獻

主站蜘蛛池模板: 国产乱码精品一区二区三区忘忧草 | 色婷婷综合久久久久中文一区二 | 亚洲一区中文字幕在线观看 | 亚洲欧美一区二区三区在线 | 国产精品无码专区在线观看 | 日韩免费一级 | 色天天综合久久久久综合片 | 四虎成人精品永久免费av九九 | 亚洲精久 | 久久久久久久久99精品 | 日韩精品久久 | 亚洲国产精品久久久久 | 久久天堂| 国产成人精品999在线观看 | 亚洲视频在线观看免费 | 99精品热视频 | 激情五月婷婷综合 | 亚洲精选久久 | 男女靠逼免费视频 | 伊人欧美视频 | 国产成人在线视频 | 国产成人精品网 | 亚洲综合在线一区 | 天天天干天天射天天天操 | 国产精品欧美久久久久一区二区 | 在线 丝袜 欧美 日韩 制服 | 中文精品久久久 | 久久久欧美 | 精品亚洲一区二区三区 | 伦理一区 | 在线日韩电影 | 日韩欧美二区 | 欧美白人做受xxxx视频 | 久久久免费av | 成人精品视频 | 国产成人av一区二区 | 午夜视频一区二区三区 | 日韩精品在线观看视频 | 男女羞羞视频网站 | 久久人人爽人人爽人人片av高清 | 日韩免费不卡视频 |