99爱免费观看_日韩在线免费_97成人在线视频_中文字幕三区_美女福利视频网站_色伊人

基于卷積神經(jīng)網(wǎng)絡的無人機識別方法仿真研究

來源:期刊VIP網(wǎng)所屬分類:農(nóng)業(yè)科技時間:瀏覽:

  摘 要:為了提高卷積神經(jīng)網(wǎng)絡(CNN)的泛化性和魯棒性,改善無人機航行時識別目標圖像的精度,提出了一種CNN與概率神經(jīng)網(wǎng)絡(PNN)相結(jié)合的混合模型。利用CNN提取多層圖像表示,使用PNN提取特征對圖像進行分類以替代CNN內(nèi)部的BP神經(jīng)網(wǎng)絡,采用均方差和降梯度法訓練模型,通過將預處理的圖像傳輸?shù)紺NN-PNN模型,對圖像紋理和輪廓進行分類識別,并將此模型的仿真結(jié)果與卷積神經(jīng)網(wǎng)絡模型、卷積神經(jīng)網(wǎng)絡-支持向量機模型的結(jié)果進行對比。仿真結(jié)果表明,與其他兩種模型相比,CNN-PNN模型具有更好的精準度,識別率高達96.30%。因此,CNN-PNN模型能夠快速有效地識別圖像,準確度和實時性較高,在圖像識別等方面具有很好的應用前景。

  關(guān)鍵詞:圖像識別;無人機識別;降梯度法;概率神經(jīng)網(wǎng)絡;卷積神經(jīng)網(wǎng)絡

科技期刊投稿

  《滇西科技師范學院學報》(季刊)創(chuàng)刊于1992年,是由滇西科技師范學院主辦的學術(shù)刊物。主要欄目:民族學研究、歷史學研究、語言學研究、教育學研究、經(jīng)濟學研究、學術(shù)交流等。

  目標識別是當前人工智能領(lǐng)域不可或缺的一部分,而無人機識別作為目標識別的重要部分,在現(xiàn)代戰(zhàn)爭乃至生活等方面都有著重要的應用[1-4]。隨著人工智能的迅速發(fā)展,無人機識別系統(tǒng)將會扮演重要的角色。

  但是,無人機識別的準確率一直是影響該技術(shù)應用的重要因素[5-6],如何充分利用已有信息,使設(shè)計出的無人機識別準確率更高,是當前該領(lǐng)域的重要研究方向。

  CIRESAN等[7]提出了一種利用Hu不變矩進行特征值提取和交通標志檢測的方法,該方法快速可靠,識別率高,但它所提取的是低維特征,沒有層次信息。SHEN等[8]提出了一種利用灰度一致性(GLCM)進行拼接圖像偽造檢測的方法,該算法采用灰度共生方法提取圖像的紋理信息,并利用學習到的表示進行識別。該方法雖優(yōu)于僅從圖像中提取低維特征向量的方法,但只能手工提取低維特征作為Hu不變矩,需要與其他方法相結(jié)合對其進行改進。YIN等[9]提出了一種利用神經(jīng)網(wǎng)絡模型進行視覺模式識別的方法,該網(wǎng)絡被命名為“新認知”。實驗結(jié)果表明,該網(wǎng)絡在沒有任何類別指令的情況下運行良好。QIU等[10]提出了一種利用誤差梯度訓練CNN的方法,取得了較好的效果。該方法利用CNN模型提取圖像表示,利用CNN內(nèi)部的BP神經(jīng)網(wǎng)絡分類器對圖像進行分類。這種方法幾乎是第一次使用網(wǎng)絡本身只學習圖像的特征與圖像標簽。事實證明,CNN的學習能力是強大的。由于CNN內(nèi)部的BP神經(jīng)網(wǎng)絡存在一定的局限性,NIU等[11]提出了適用于手寫體數(shù)字識別的CNN-SVM模型,在CNN模型中用支持向量機(support vecto machine,SVM)代替BP神經(jīng)網(wǎng)絡分類器。ZHENG等[12]提出了一種利用多注意卷積神經(jīng)網(wǎng)絡(MA-CNN)進行精細圖像識別的局部學習方法,重點研究了零件定位和細粒度特征學習。PORIA等[13]提出了一種CNN-SVM與主成分分析(PCA)相結(jié)合的方法,取得了良好的效果,該方法旨在提高支持向量機的性能,不再局限于手寫數(shù)字,在紋理、圖像分類、圖像識別等方面有很好的應用前景。以上模型和方法在圖像識別領(lǐng)域都取得了不錯的效果。在上述方法的啟發(fā)下,筆者提出了一種CNN-PNN混合模型。

  1 問題建模

  1.1 CNN-PNN模型的構(gòu)建

  本文對原始CNN圖像分類模型進行改進,使用一個簡單的CNN模型進行圖像特征提取,利用PNN模型進行分類,在仍以CNN為特征提取器的情況下,用性能較好的PNN代替BP神經(jīng)網(wǎng)絡。PNN具有結(jié)構(gòu)簡單、收斂速度快、應用范圍廣等優(yōu)點,與其他圖像識別方法相比,可以提高識別精度,擴大卷積神經(jīng)網(wǎng)絡的應用范圍。

  整個模型由CNN特征提取器和PNN分類器組成。首先,將樣本圖像輸入到CNN-PNN的輸入層,經(jīng)過多次卷積和下采樣,得到大量的特征圖像。然后,由模型將圖像擴展為列向量,即從樣本圖像中提取特征向量,同時保留與特征向量完全連接的輸出層,用于CNN特征提取器的訓練。最后,分類器根據(jù)特征向量輸出最終結(jié)果。CNN-PNN結(jié)構(gòu)圖見圖1。

  1.2 特征提取器工作原理

  在所提出的方法中CNN充當特征提取器,包括輸入層、隱含層、隱含單元和輸出層4個部分[14]。

  1)輸入層 利用原始CNN模型進行特征提取,將樣本圖像輸入至模型的輸入層即可。

  2)隱含層 由卷積層和降采樣層組成,用于對輸入層圖像進行卷積濾波和降采樣操作。卷積層進行特征提取,其計算形式為

  Xlj=f(∑[DD(X]i∈Mj[DD)]Xl-1i·klij+Bl)。(1)

  式中:所在層數(shù)用l表示;卷積核用k表示;Mj為輸入層的感受野; B為偏置項;f為激活函數(shù),采用Sigmoid 函數(shù)。圖像尺寸會根據(jù)降采樣窗口的步長發(fā)生相應改變,采樣層的計算形式為

  Xlj=f(βljp(Xl-1j)+Blj)。(2)

  式中:p為采樣函數(shù);β為權(quán)重系數(shù)。

  3)隱含單元 將一系列操作后得到的特征圖像變換為一列向量,即是提取到的最終特征向量。

  4)輸出層 輸出層的作用為訓練CNN的特征提取。

  1.3 分類器工作原理

  該模型采用PNN作為圖像分類器。PNN是由SPEEHT博士首先提出的一種人工神經(jīng)網(wǎng)絡,具有訓練容易、收斂速度快、適用于實時處理等優(yōu)點,且其隱含層采用徑向基的非線性映射函數(shù),考慮了不同類別模式樣本的交錯影響,具有很強的容錯性[15-16]。在樣本數(shù)據(jù)的支撐下,概率神經(jīng)網(wǎng)絡能收斂到貝葉斯(Bayes)分類器,沒有BP網(wǎng)絡的局部極小值問題[17]。

  概率神經(jīng)網(wǎng)絡是由徑向基函數(shù)網(wǎng)絡發(fā)展起來的前饋神經(jīng)網(wǎng)絡,其理論基礎(chǔ)是貝葉斯決策理論。網(wǎng)絡結(jié)構(gòu)由輸入層、模式層、求和層和輸出層組成[18],結(jié)構(gòu)如圖2所示。

  輸入層將訓練樣本傳遞到輸入層網(wǎng)絡中,輸入特征向量與訓練集中各模型之間的匹配關(guān)系在模式層中計算,其個數(shù)等于樣本向量的維數(shù),根據(jù)式(3)得到各模式單元層的輸出。

  ij=[SX(]1[]2πd/2[SX)]exp[-[SX(](x-xij)τ(x-xij)[]2σ2[SX)]]。(3)

  式中:d為模式向量的維數(shù);σ為平滑參數(shù);xij為神經(jīng)元向量。

  求和層是得到的每個模式的概率密度估計,其輸出與基于核的各單元概率密度估計成正比。求和層神經(jīng)元通過總結(jié)和平均屬于同一類的所有神經(jīng)元的輸出,來計算模式x被劃分為Ci的最大可能性。

  Pi=[SX(]1[](2π)d/2σd[SX)][SX(]1[]Ni[SX)]∑[DD(]Ni[]j=1[DD)]exp[-[SX(](x-xij)τ(x-xij)[]2σ2[SX)]]。(4)

  Ci類的樣本總數(shù)為Ni,如果每個類的先驗概率相同,且每個類的錯誤決策損失相同,則決策層單元根據(jù)所有求和層神經(jīng)元輸出的Bayes決策規(guī)則對模式x進行分類。

  輸出層是在概率密度估計中選擇一個神經(jīng)元最大后驗概率密度作為整個系統(tǒng)的輸出。輸出層神經(jīng)元是一種競爭神經(jīng)元,每個神經(jīng)元對應一種數(shù)據(jù)類型,這是一種分類[19]。

  1.4 CNN-PNN模型訓練方法

  CNN提取器的訓練方式與傳統(tǒng)CNN訓練方式相同,流程如圖3所示。

  首先將所有卷積核中的權(quán)值和偏差進行初始化。通過訓練集的前向傳播得到輸出o。然后,CNN可以通過比較輸出o和標簽y來了解誤差E。假設(shè)樣本集的目錄是N,樣本類型的數(shù)目是c,則可以根據(jù)式(5)計算誤差E。

  Ep=[SX(]1[]2[SX)]‖yp-op‖2=[SX(]1[]2[SX)]∑[DD(]m[]j=1[DD)](ypj-opj)2。(5)

  CNN根據(jù)E值判斷模型收斂與否。如果收斂,則訓練完成;如果沒有,則計算輸出層的殘差δ。給定激活函數(shù)f,可以從式(6)得到殘差。

  δ(nl)=[SX(][]z(nl)i[SX)][SX(]1[]2[SX)]‖op-yp‖2=-(y-a(nl))·f′(z(nl))。(6)

  每一層的權(quán)值和偏重是通過學習率α的更新來完成的。

  W(l)=W(l)-α[SX(][]W(l)[SX)]J(ω,b)=W(l)-α·δ(l+1)(α(l))T,(7)

  bi=b(l)i-α[SX(][]b(l)i[SX)]J(ω,b)=bli-α·δ(l+1)。(8)

  PNN分類器的訓練過程如圖4所示。將訓練的圖像送入訓練完畢的CNN特征提取器,然后將得到的特征向量與其對應的標簽一同送入未訓練的PNN分類器中,得到最終訓練完畢的PNN分類器。

  2 仿真結(jié)果及分析

  2.1 仿真設(shè)置

  通過識別各個類型的飛機樣本來測試CNN-PNN的性能。實驗是在Matlab2016a平臺上運行的,計算機配置為Intel(R)Cores(TM)2.8 GHz,內(nèi)存8 GB,Windows7 64 位操作系統(tǒng)。數(shù)據(jù)集所用圖像和標簽采集于FGVC-Aircraft數(shù)據(jù)集,共采集6 000張飛機圖像,其中包含3類不同的飛機,每種包含2 000個樣本,其中1 500個樣本用來培訓,4 500個樣本用于測試。飛機輪廓樣本共含有3種,每類抽取1 000張圖像組成含有3 000幅的數(shù)據(jù)集,其中1 000幅用來培訓,2 000幅用來測試。在此之前做一些預處理的工作來保證實驗的準確性。

主站蜘蛛池模板: 国产电影一区二区 | 亚洲激情综合 | 国产网址| 日韩精品三区 | 九色一区二区 | 亚洲国产一区二区三区四区 | 国产精品女人视频 | 久久99精品久久久久久青青日本 | 久久午夜电影院 | 伊人天堂在线 | 欧美激情一区二区三区四区 | 一区二区三区四区在线播放 | 国产精品美女久久久久高潮 | 亚洲瑟瑟 | 国内精品久久久久久久久 | 欧美在线视频一区二区 | 成人免费视频网站在线看 | 狠狠操av | 91在线观看网站 | 成人免费视频国产免费麻豆 | 国产传媒在线观看 | 日本中文字幕在线观看 | 久久久久久久久久网站 | 成人亚洲精品 | 操操网| 91高清免费 | 中文字幕av一区二区 | 国产精品视频一区二区三区 | 亚洲国产二区 | 国产一级做a爰片在线看免费 | 国产αv在线 | 日本一区二区成人 | 美日韩一区二区 | 久久精品播放 | 精品日韩欧美一区二区在线播放 | 欧美高清一区 | 精品视频久久 | 91麻豆精品国产91久久久久久久久 | 国产99久久久国产精品 | 99久久久国产精品 | 久久亚洲一区二区三 |