神經網絡的復雜度范例6篇

前言:中文期刊網精心挑選了神經網絡的復雜度范文供你參考和學習,希望我們的參考范文能激發你的文章創作靈感,歡迎閱讀。

神經網絡的復雜度范文1

根據預失真器所處的位置,可將預失真分為基帶預失真、中頻預失真和射頻預失真。隨著數字信號處理技術的飛速發展,預失真技術可在數字域內實現,具有電路靈活、成本低等優點;而且可利用自適應算法來跟蹤補償功放因環境因素改變而產生的特性變化。圖1是數字基帶預失真技術結構框圖。數字預失真分為查找表法和非線性函數法2大類。其中,非線性函數法包括Volterra級數法和神經網絡法??紤]到Volterra級數的計算復雜度較高,一般采用其簡化形式(如記憶多項式法)來實現預失真。

1.1查找表法

查找表法是通過建立查找表來離散地描述功放的反向特性,傳統的基于查找表法的預失真實現過程如下:1)測試功放的輸入/輸出信號,獲取功放的即時非線性特性;2)找出功放的理想增益,即功放在線性區工作時的最大增益;3)將功放的輸入特性/輸出特性反轉,由此生成查找表,為每一個輸入信號提供一個相應的預失真信號。建立查找表之后,須考慮查找表的量化誤差問題。由于查找表的表項是有限的,查找表輸入端信號量化時,必然會引起誤差,此時,采用不同的索引技術會對預失真性能產生不同的影響。作為查找表法的核心,查找表地址索引技術闡釋了如何有效地從查找表中找到有用的補償數據。查找表預失真的內部結構如圖2所示,表示輸入信號的幅度,Q模塊為量化器。查找表的地址索引方法包括均勻量化法和非均勻量化法。均勻量化是以輸入信號的幅度為指針,均勻分配其整個變化域以生成查找表。功率法是最常見的均勻量化手段,其把輸入信號功率作為指針,在變化域內均勻量化。但對小信號而言,功率法表項分布稀疏,量化間隔較大,引起的誤差和失真也很大,因此,該方法不適用于小信號較多的功放預失真系統。傳統的查找表法僅根據輸入信號幅度,找出表中最接近該幅度值的一項,該項對應的輸出值即為相應預失真信號的輸出值,不過此方法存在量化誤差。采用插值技術可在一定程度上改善系統的量化誤差,線性插值法是最簡單常用的插值方法。均勻索引的實現過程比較簡單,但存在2個重要問題:輸入信號的統計特性和各區間信號的非線性程度。常見的非均勻索引有功率索引、最優法索引及μ率法索引等。這些方法雖考慮了信號各區間非線性程度的不同,但卻忽視了輸入信號的統計特性。由此可知,查找表建立簡單,實現容易,但是也存在缺點:1)存在量化效應;2)精度要求越高,對查找表的尺寸要求越高,即表項越多,意味著速度性能會下降;3)不能補償功放的記憶效應;4)自適應能力較差。為了盡可能減小這些問題對預失真器性能的影響,文獻[2-3]對無記憶預失真器進行了改進,分別構造二維查找表和分段預均衡器。但當功放記憶效應較強時,二維查找表的線性化效果不太理想。另外,可根據信號的特性,制定相應的改進查找表法,文獻[4]提出了一種改進查找表法,該算法根據OFDM(OrthogonalFrequencyDivisionMultiple-xing,正交頻分復用)信號的分布特性,對出現概率較小的大幅值信號增加迭代次數,提高了查找表法的收斂速度。

1.2多項式法

由于查找表法結構簡單、易實現,早期多采用該方法對功放進行預失真處理,但其預失真性能的優劣取決于表項的多少,性能改善越好,所需表項越多,相應地,所需的存儲空間也就越大,查找表項的數據和更新表項所需時間、計算量也就越大,因此,對情況復雜的系統,該方法不可取。非線性函數法是常用的預失真方法,其將輸出信號的采樣值與輸入信號一一對應起來,用非線性函數把輸入和輸出信號進行擬合,得到功放的工作函數曲線,由于預失真器的特性與功放特性相反,由功放的非線性函數可得預失真器的非線性工作函數。非線性函數預失真方法已成為近年研究的熱點。功放的建模及模型參數的辨識是功放預失真技術的2個重要組成部分。對于功放的建模,常用的無記憶模型包括Saleh模型、Rapp模型和冪級數模型;有記憶模型包括Volterra級數模型、Winner模型、Hammerstein模型和MP(MemoryPolynomial,記憶多項式)模型。分數階記憶多項式抑制了高階交調分量,但對強記憶效應的功放預失真性能沒有改善;廣義記憶多項式明顯提升了對強記憶效應的抑制能力,但計算量大,復雜度高。文獻[8]在廣義記憶多項式的基礎上,去掉其滯后部分,降低模型系數數量,去掉偶數階次,引入分數階次,提出了一種改進型的廣義分數階記憶多項式模型。仿真表明這種改進模型在系數數量、計算復雜度和線性化能力等方面取得了良好的折中。除上述模型外,增強型Hammerstein模型、EMP(EnvelopeMemoryPolynomial,包絡記憶多項式)模型及DDR(DynamicDeviationReduction,動態偏差)模型都是Volterra級數模型的簡化形式,這些簡化模型可在很大程度上降低計算復雜度。模型建立和模型辨識是記憶多項式預失真的2個重要內容,模型是否合適直接決定預失真方法性能的優劣,如果沒有合適的模型,再好的算法也不會取得精確的預失真結果。模型確定之后,選擇的模型辨識算法是否得當決定著預失真技術的計算復雜度、收斂速度和性能。系統學習結構很大程度上決定了預失真系統的復雜度,須根據具體情況折中選擇學習結構。根據學習器訓練方式的不同,可將學習結構分為直接學習結構和間接學習結構,如圖3所示。從圖3可以看出:直接學習結構簡單,是一個完整的閉環,實時性好,且參數不受系統引入噪聲的影響[7]。自適應算法得到的權值是否是全局最優值會受到初值的影響,可能不唯一[8]。不同于直接學習結構的逆,間接學習結構采用的是后逆,學習器在訓練時,對信號參數的敏感度降低,對實時閉環系統和自適應算法要求不再苛刻,較易于工程實現[9]。預失真訓練器的訓練過程即預失真模型參數的提取過程,核心是自適應算法不斷更新得到的權值最終達到收斂目標值。自適應算法的復雜度和參數提取準確度決定了預失真器的性能及系統實現難易程度。目前參數提取算法大致可分為3類:LS(Least-Squares,最小二乘)算法、LMS(LeastMeanSquare,最小均方)算法和RLS(RecursiveLeastSquares,遞歸最小二乘)算法。在LMS和RLS的基礎上,相繼出現了較多的改進算法,比如變步長LMS算法和QR-RLS算法[10-12]。相比查找表預失真,多項式預失真準確度更高、自適應性能更好,但是其計算復雜度卻比查找表法高得多,線性化性能優劣也嚴重受功放模型描述功放特性精確程度的影響。

1.3神經網絡法

隨著生物仿真學的發展,神經網絡算法日益得到人們的廣泛關注,引起研究者的探索熱情。由于該方法能對功放的非線性特性函數進行擬合,可將其引入預失真器的設計中[13]。神經網絡是根據生物學神經元網絡的原理建立的,它的自適應系統由許多神經元的簡單處理單元組成,所有神經元通過回饋或前向方式相互作用、相互關聯。文獻[14]首先提出了采用神經網絡的方法對功放進行預失真處理。目前最為常用的神經網絡是Minsky和Papert所提出的前向神經元網絡。神經網絡法被廣泛應用在函數逼近和模式分類中,文獻[15]證明了由任意多個隱層神經元組成的多層前向神經網絡可逼近任意連續函數。因此,可利用神經網絡來擬合預失真器的工作曲線,且可用改進的反向算法自適應地更新工作函數的系數。文獻[16]提出一種單入/單出的神經網絡方法,仿真結果表明:該方式能較好地改善三階、五階互調分量,與一般的多項式擬合技術相比,其收斂性能和硬件實現都有一定優勢。文獻[17]提出了一種基于動態神經網絡的幅相分離的方法,核心是對衛星信號的幅度和相位進行分離。由于現有的神經網絡預失真方法的延時效應較大,文中對網絡的系數矩陣進行實時調整,有效減小了計算復雜度,較好地消除了功放非線性和記憶效應,具有較大的實用價值。文獻[18-20]也對神經網絡法做了相關研究,結果表明:與查找表法和記憶多項式法相比,神經網絡有效地提升了功放的預失真精度。目前,在幾種參數辨識方法中,神經網絡法預失真性能最好,最具有研究價值。

1.4聯合查找表和多項式法

在窄帶通信系統中,不須考慮功放的記憶效應,但在進行寬帶通信時,不可忽略功放的記憶效應,但此時基于查找表法的預失真不能補償功放的記憶效應,基于記憶多項式的預失真方法可以補償功放記憶效應。當功放的非線性程度較高時,記憶多項式的預失真性能會有所下降。為解決這個問題,聯合使用查找表法和記憶多項式法來補償功放的非線性和記憶效應。QualidHammi在文獻[21]中提出TNTB(TwinNonlinearTwo-Box,雙非線性兩箱)模型。這種模型由1個MP單元和1個查找表單元構成,按照2個單元位置的不同可分為前向TNTB、后向TNTB和并聯TNTB模型。這種方法的核心思想是:將有記憶效應功放引起的信號非線性失真分解為無記憶的非線性部分和記憶部分,根據查找表法和記憶多項式法各自的特點,采用查找表法補償失真的無記憶非線性部分,采用記憶多項式法來解決失真的記憶效應。文獻[22-28]對結合查找表法和記憶多項式法的應用方法做了實驗驗證,仿真結果證明該方法的預失真性能優于查找表法和多項式法,且并聯TNTB模型預失真性能最好。文獻[29]在上述聯合算法的基礎上,推導出最優分段方法,并將這種基于最優分段數的聯合預失真算法同上述聯合算法進行對比,結果證明最優分段方法能取得更優的效果。為降低TNTB模型的復雜度,MayadaYounes提出一種更精確,同時又能降低復雜度的PLUME(Parallel-LUT-MP-EMP)模型[30],它由LUT(Look-upTable,查找表法)、MP和EMP并聯組成,實驗證明PLUME模型精度高于TNTB模型,在保證和GMP同樣精度的條件下,能減少45%的系數數量。

2信號處理技術結合預失真技術

為了在有限的頻段內實現更多的數據傳輸,寬帶、高峰值平均功率比信號〔如MCM(MultipleCar-rierModulation,多載波信號)〕得到越來越廣泛的應用,FDMA(FrequencyDivisionMultipleAccess,頻分復用)信號就是多載波傳輸信號的一種。多載波調制的原理是把高速傳輸的數據流轉換為N路速率較低的子數據流進行傳輸,符號周期為原來的N倍,遠大于信道的最大時延擴展。此時,將1個頻率選擇性信道劃分成N個窄帶平坦衰落信道(均衡要求降低),使其具備很強的抗多徑和抗干擾能力,適用于高速無線數據傳輸。但FDMA技術的缺陷在于它的峰均功率比高,因此放大器的非線性特性給通信傳輸帶來的各種問題會更加突出。在數字預失真效果改善的基礎上,為進一步提高線性化功放的線性度效率,可根據信號特性采取相應的信號處理技術與預失真項組合方案。針對高峰均比信號,文獻[30-32]還提出了以下幾種組合方案:DPD與CFR(CrestFactorReduc-tion,削峰技術)的結合,DPD、CFR與Doherty技術的結合,以及DPD、CFR與ET(EnvelopeTrack-ing,包絡跟蹤)技術的結合等。對CFR的研究已有20多年,隨著最近十年現代移動通信的飛速發展,CFR的研究成為熱點。相關文獻著作中也給出了許多CFR實現方案,可歸結如下:限幅濾波法、峰值加窗法及部分序列傳輸法等。相關的實驗仿真已證明,對進入預失真器前的高峰均比信號進行削峰處理,可以提高系統的預失真性能。

3結論

神經網絡的復雜度范文2

【關鍵詞】深度學習 卷積神經網絡 權值共享 下采樣 R-CNN Fast-R-CNN

1 緒論

隨著電子信息技術的快速發展,芯片的設計與生產進入了納米時代,計算機的計算能力與計算速度得到了空前的提高,但是人們的需求是無限的,要求計算機能更加任性化的服務于我們的生活,這也就要求計算機本身能像人一樣識別與感知周圍的環境,并對復雜的環境做出正確的判斷。而圖片信息是我們周圍環境最直觀的,最容易獲取的信息,要求計算機能對為的環境做出識別與判斷也就要求計算機能夠智能的識別圖像信息。深度學習是機器學習中的一個新的研究領域。通過深度學習的方法構建深度網絡來抽取目標特征進而識別周圍的環境。卷積神經網絡對圖像的處理具有平移,旋轉,扭曲不變的優良特性。在處理圖像是更加快捷和便利。卷積神經網絡使得計算機在感知識別周圍環境的能力有了巨大的提升,使得計算機更加智能。卷積神經網絡擁有強大的特征提取能力,使得其在圖像分類識別,目標跟蹤等領域有著強大的運用。

1.1 國內外研究現狀

1986年,Rumelhart和Mc Celland提出BP算法。BP算法反向傳導神經網絡輸出誤差進行訓練神經網絡。通過BP算法,神經網絡能夠從大量訓練數據中的學習到相關統計信息,學習到的數據統計信息能夠反映關于輸入-輸出數據模型的函數映射關系。

自2006年以來,Geoffery Hinton教授提出深度信念網絡。從此深度學習在學術界持續升溫。深度學習不僅改變著傳統的機器學習方法,也影響著我們對人類感知的理解,迄今已在語音識別和圖像理解等應用領域引起了突破性的變革。各種相關的算法和模型都取得了重要的突破,使得深度學習在圖像分類,語音識別,自然語言處理等領域有廣泛的運用。

2013年百度成立百度深度學習研究院以來我國的人工智能領域取得了長足的進步。在人工智能專家吳恩達的帶領下,百度陸續推出一系列人工智能產品,無人駕駛技術,DuerOS語音交互計算平臺,人臉識別技術,美樂醫等優秀產品。此外Imagenet圖像識別大賽中也誕生了一系列經典的神經網絡結構,VGG,Fast-R-CNN,SPP-net等等,可以說人工智能技術在近幾年得到了空前的發展。

2 深度學習概述

深度學習是機器學習的一個新方向,通過學習樣本數據內在規律和深層特征深度,深度學習神經網絡能夠像人一樣有分析和學的能力,尤其在文字處理,圖像識別,語音等領域更加突出。能夠自主學習一些新的東西。目前深度學習使用的典型技術是通過特征表達和分類器來進行目標識別等任務的。并在語音識別、圖像處理、機器翻譯等領域取得很多成果。

深度學習不同于以往的淺層學習,淺層學習模型值包含一個隱藏層,或者不存在隱藏層,深度學習則是由很多隱藏層組成的,上一層的輸出作為下一層的輸入,實驗對輸入信息進行分級表達。目前深度學習框架主要包含三種深度學習框架,如圖1、2、3所示。

3 卷積神經網絡

卷積神經網絡的結構層次比傳統的神經網絡復雜,卷積神經網絡包含大量的隱藏層,相鄰的卷積核或者下采樣核采用局部感受野全鏈接,神經元權值共享的規則,因此卷積神經網絡訓練參數的數量遠比傳統神經網絡少,卷積神經網絡在訓練和前向測試的復雜度大幅度降低,同時也減少了神經網絡訓練參數過擬合的幾率。卷積神經網絡主要有兩部分,分別是卷積核和下采樣核。卷積核主要對上一層的圖像進行卷積運算,提取圖像特征,下采樣核則是對上層的數據進行將為處理,減少神經網絡的復雜度。

卷積神經網絡中每一個神經元的輸入與前一層的局部感受野相連,提取局部感受野的特征,比如圖像的輪廓,顏色等特征,而這些特征不僅包括傳統人類能理解的特征,也包括神經網絡自身能夠識別的特征,卷積核全職共享,因此這些特征提取與圖像的位置無關。

圖4是經典的LeNet5卷積神經網絡架構,LeNet5架構中卷積核和下采樣核交替出現,下采樣核及時的將卷積核生成的特征向量進行降維,減少神經網絡的運算量。LeNet5算法在1962年幼Hubel等人提出,在識別手寫數字mnist中有極高的準確率。

4 R-CNN、Fast-R-CNN對比分析

卷積神經網絡在對圖像進行識別具有平移,旋轉,扭曲不變的優良特性,并且能夠實現高準確率識別圖像,但是在現實生活運用中往往需要神經網絡標記出目標的相對位置,這是傳統卷積神經網絡不具備的功能。因此在前人傳統卷積神經網路基礎上對卷積神經網絡進行改進,產生了具有對圖像中目標進行識別和定位的卷積神經網絡R-CNN,Fast-R-CNN等改良算法。

4.1 R-CNN

R-CNN為Region Convoluntional Neural Network的縮寫即對圖像進行局部區域的卷積處理,其核心思想主要是利用候選區圖像對物體探測中位置信息進行精確處理和利用監督式預訓練和區域特殊化的微調方法,代替了傳統的非監督式預訓練和監督式微調。

在CNN中,全連接層輸入是固定大小的,因此R-CNN用計算機視覺算法將每一張圖片分割成1000-2000張的候選區圖片后,要將這些候選區圖片進行變換,生成固定大小的候選圖片,在訓練提取特征時一般采用經過預訓練的模型參數進行finetuning,榱嗽黽友盜費本,模型在也將生成的候選框以及標定的標簽作為訓練樣本進行訓練。R-CNN采用SVMs分類器對特征向量進行分類,在訓練SVMs時將候選框經過卷積神經網絡提取的特征和SVM標定結果輸入到SVMs分類器訓練分類器模型。而在測試時將圖像全部候選框經過卷積神經網絡提取的特征輸入到SVMs分類器中,得到每一類的評分結果。但是R-CNN在處理一張圖片是要處理需要對一張圖片1000-2000個候選區圖像進行前向運算,保存所有后選取圖片的特征值,要求計算硬件有大量的存儲空間,同時處理每一張圖片的時間也會增加。由于訓練集龐大,本文采用hard negative mining method方法提高存儲的利用率。

R-CNN的體現出了極大的優勢,其中MAP也可以大幅度提高,但是正如本文上述,R-CNN計算的時間成本很大,達不到實時的計算效果,R-CNN在對候選區進行處理時會使得圖像失真,部分信息丟失。

4.2 Fast-R-CNN

Fast-R-CNN則是再次改進的一種基于卷積神經網絡目標跟蹤定位算法。相比于R-CNN,Fast-R-CNN從單輸入變為雙輸入,在全連接層后有了兩個輸出,引入了Rol層。

Fast-R-CNN在運行的時候同樣會生成大量的候選區,同時將原始的圖片用卷積神經網絡進行特征提取,將原始圖片提取的特征與生成的候選區坐標送入Rol層為每一個候選區生成一個固定大小的特征向量。最后將Rol生成的特征向量全連接層產生最終的LOSS。Fast-R-CNN中的LOSS采用多LOSS模式,SoftMax LOSS用于計算K+1分類的損失,K為第K個目標,1為背景;Regression LOSS計算候選區的四個角的坐標。

Fast-R-CNN在MAP上有了大幅度的提升,速度也得到了提升,但是在計算候選區是仍存在瓶頸,這也是限制Fast-R-CNN速度的因素。

5 實驗測試

對于本文提出的卷積神經網絡識別圖像定位圖像目標算法R-CNN,Fast-R-CNN,在本章給出實驗結果。實驗平臺為基于Linux系統的debian8下運行caffe進行訓練,采用顯卡K620進行實驗。

訓練模型初始化參數在是服從高斯隨機分布,R-CNN采用的網絡結構如圖7所示,Fast-R-CNN的網絡結構如圖8所示。

本次實現的訓練樣本為錄制實驗室視頻數據,將視頻數據轉換成幀圖片,對每張圖片數據進行裁剪,裁剪后圖像大小在256*256,共有500張,再將裁剪后的圖片進行旋轉,平移,扭曲,鏡像,加噪聲等處理,最后生成144萬張樣本圖片,其中136.8萬張圖片作為訓練樣本,7.2萬張作為測試樣本。

6 總結

在目標識別定位領域,卷積神經網絡具有強大的圖像處理能力,對圖像的識別定位具有很高度平移,旋轉,扭曲不變形的優良性能。卷積神經網絡架構R-CNN和Fast-R-CNN都有強大的圖像處理能力。Fast-R-CNN在識別準確率上比R-CNN高。R-CNN算法復雜,對一張圖片需要進行1000-2000次的卷積運算,特征重復提取。因此在訓練和前向測試時,R-CNN用的時間長,不能很好的適用于處理實時圖片數據,尤其視頻數據。R-CNN在對每個候選區進行特征提取之后需要將提取的特征向量存入內存,降低訓練測試時間的同時也需要耗費大量內存。因此從各方面分析可知,Fast-R-CNN性能優于R-CNN。

參考文獻

[1]謝寶劍.基于卷積神經網絡圖像分類方法研究[D].合肥工業大學,2015.

[2]鄭胤,陳權崎,章毓晉.深度學習及其在目標和行為識別中的新進展[J].中國圖象圖形學報,2014(02):175-184.

[3]陳先昌.基于卷積神經網絡的深度學習算法與運用研究[D].杭州:浙江工商大學,2006(04):603-617.

[4]李彥冬,郝宗波,雷航等.卷積神經網絡研究綜述[J].計算機應用,2016.

[5]Gibson.J J.The perception of the Visual World[J].Cambridge,England,1950.

[6]HORN B,SCHUNCK P.Determining optical flow[J].Artificial Intelligence, 1981,17:185-203.

[7]R.Girshick,J.Donahue,T. Darrell,and J.Malik,“Rich feature hierarchies for accurate object detection and semantic segmentation,”in CVPR,2014

[8]Ross Girshick,Wicrosoft Research. Fast R-CNN,.

[9]R.Girshick.Fast R-CNN. arXiv:1504.08083,2015.

神經網絡的復雜度范文3

關鍵字 :神經網絡,BP模型,預測

中圖分類號:TP183文獻標識碼: A

1 引言

在系統建模、辨識和預測中,對于線性系統,在頻域,傳遞函數矩陣可以很好地表達系統的黑箱式輸入輸出模型;在時域,Box-Jenkins方法、回歸分析方法、ARMA模型等,通過各種參數估計方法也可以給出描述。對于非線性時間序列預測系統,雙線性模型、門限自回歸模型、ARCH模型都需要在對數據的內在規律知道不多的情況下對序列間關系進行假定??梢哉f傳統的非線性系統預測,在理論研究和實際應用方面,都存在極大的困難。相比之下,神經網絡可以在不了解輸入或輸出變量間關系的前提下完成非線性建模[4,6]。神經元、神經網絡都有非線性、非局域性、非定常性、非凸性和混沌等特性,與各種預測方法有機結合具有很好的發展前景,也給預測系統帶來了新的方向與突破。建模算法和預測系統的穩定性、動態性等研究成為當今熱點問題。目前在系統建模與預測中,應用最多的是靜態的多層前向神經網絡,這主要是因為這種網絡具有通過學習逼近任意非線性映射的能力。利用靜態的多層前向神經網絡建立系統的輸入/輸出模型,本質上就是基于網絡逼近能力,通過學習獲知系統差分方程中的非線性函數。但在實際應用中,需要建模和預測的多為非線性動態系統,利用靜態的多層前向神經網絡必須事先給定模型的階次,即預先確定系統的模型,這一點非常難做到。近來,有關基于動態網絡的建模和預測的研究,代表了神經網絡建模和預測新的發展方向。

2 BP神經網絡模型

BP網絡是采用Widrow-Hoff學習算法和非線性可微轉移函數的多層網絡。典型的BP算法采用梯度下降法,也就是Widrow-Hoff算法?,F在有許多基本的優化算法,例如變尺度算法和牛頓算法。如圖1所示,BP神經網絡包括以下單元:①處理單元(神經元)(圖中用圓圈表示),即神經網絡的基本組成部分。輸入層的處理單元只是將輸入值轉入相鄰的聯接權重,隱層和輸出層的處理單元將它們的輸入值求和并根據轉移函數計算輸出值。②聯接權重(圖中如V,W)。它將神經網絡中的處理單元聯系起來,其值隨各處理單元的聯接程度而變化。③層。神經網絡一般具有輸入層x、隱層y和輸出層o。④閾值。其值可為恒值或可變值,它可使網絡能更自由地獲取所要描述的函數關系。⑤轉移函數F。它是將輸入的數據轉化為輸出的處理單元,通常為非線性函數。

圖1 BP神經網絡結構

2.1 基本算法

BP算法主要包含4步,分為向前傳播和向后傳播兩個階段:

1)向前傳播階段

(1)從樣本集中取一個樣本(Xp,Yp),將Xp輸入網絡;

(2)計算相應的實際輸出Op

在此階段,信息從輸入層經過逐級的變換,傳送到輸出層。這個過程也是網絡在完成訓練后正常運行時的執行過程。

2)向后傳播階段

(1)計算實際輸出Op與相應的理想輸出Yp的差;

(2)按極小化誤差的方式調整權矩陣。

這兩個階段的工作受到精度要求的控制,在這里取 作為網絡關于第p個樣本的誤差測度,而將網絡關于整個樣本集的誤差測度定義為 。圖2是基本BP算法的流程圖。

圖2 BP基本算法流程

2.2 動態BP神經網絡預測算法

在經典的BP算法以及其他的訓練算法中都有很多變量,這些訓練算法可以確定一個ANN結構,它們只訓練固定結構的ANN權值(包括聯接權值和結點轉換函數)。在自動設計ANN結構方面,也已有較多的嘗試,比如構造性算法和剪枝算法。前一種是先隨機化網絡,然后在訓練過程中有必要地增加新的層和結點;而剪枝法則正好相反。文獻[2]中提出了演化神經網絡的理念,并把EP算法與BP進行了組合演化;也有很多學者把遺傳算法和BP進行結合,但這些算法都以時間復雜度以及空間復雜度的增加為代價。根據Kolmogorov定理,對于任意給定的L2型連續函數f: [ 0, 1 ]n Rm , f可以精確地用一個三層前向神經網絡來實現,因而可以只考慮演化網絡的權值和結點數而不影響演化結果?;诖?,在BP原有算法的基礎上,增加結點數演化因子,然后記錄每層因子各異時演化出的結構,最后選取最優的因子及其網絡結構,這樣就可以避免由于增加或剪枝得到的局部最優。根據實驗得知,不同的預測精度也影響網絡層神經元的結點數,所以可根據要求動態地建立預測系統。具體步驟如下:

(1)將輸入向量和目標向量進行歸一化處理。

(2)讀取輸入向量、目標向量,記錄輸入維數m、輸出層結點數n。

(3)當訓練集確定之后,輸入層結點數和輸出層結點數隨之而確定,首先遇到的一個十分重要而又困難的問題是如何優化隱層結點數和隱層數。實驗表明,如果隱層結點數過少,網絡不能具有必要的學習能力和信息處理能力。反之,若過多,不僅會大大增加網絡結構的復雜性(這一點對硬件實現的網絡尤其重要),網絡在學習過程中更易陷入局部極小點,而且會使網絡的學習速度變得很慢。隱層結點數的選擇問題一直受到神經網絡研究工作者的高度重視。Gorman指出隱層結點數s與模式數N的關系是:s=log2N;Kolmogorov定理表明,隱層結點數s=2n+1(n為輸入層結點數);而根據文獻[7]:s=sqrt(0.43mn+0.12nn+2.54m+0.77n+0.35)+0.51[7]。

(4)設置結點數演化因子a。為了快速建立網絡,可以對其向量初始化,

并從小到大排序[4,7]。

(5)建立BP神經網絡。隱含層傳遞函數用tansig,輸出層用logsig,訓練函數采用動態自適應BP算法,并制訂停止準則:目標誤差精度以及訓練代數。

(6)初始化網絡。

(7)訓練網絡直到滿足停止判斷準則。

(8)用測試向量對網絡進行預測,并記錄誤差和逼近曲線,評估其網絡的適應性。其適應度函數采取規則化均方誤差函數。

(9)轉到(5),選取下一個演化因子,動態增加隱含層結點數,直到最后得到最佳預測網絡。

3 基于神經網絡的預測原理[4]

3.1 正向建模

正向建模是指訓練一個神經網絡表達系統正向動態的過程,這一過程建立的神經網絡模型稱為正向模型,其結構如圖3所示。其中,神經網絡與待辨識的系統并聯,兩者的輸出誤差用做網絡的訓練信號。顯然,這是一個典型的有導師學習問題,實際系統作為教師,向神經網絡提供算法所需要的期望輸出。當系統是被控對象或傳統控制器時,神經網絡多采用多層前向網絡的形式,可直接選用BP網絡或它的各種變形。而當系統為性能評價器時,則可選擇再勵學習算法,這時網絡既可以采用具有全局逼近能力的網絡(如多層感知器),也可選用具有局部逼近能力的網絡(如小腦模型控制器等)。

圖3 正向建模結構

3.2 逆向建模

建立動態系統的逆模型,在神經網絡中起著關鍵作用,并且得到了廣泛的應用。其中,比較簡單的是直接逆建模法,也稱為廣義逆學習。其結構如圖4所示,擬預報的系統輸出作為網絡的輸入,網絡輸出與系統輸入比較,相應的輸入誤差用于訓練,因而網絡將通過學習建立系統的逆模型。但是,如果所辨識的非線性系統是不可逆的,利用上述方法將得到一個不正確的逆模型。因此,在建立系統時,可逆性應該先有所保證。

圖4 直接逆建模結構

4 應用實例分析

以我國西南某地震常發地區的地震資料作為樣本來源,實現基于動態神經網絡的地震預報。根據資料,提取出7個預報因子和實際發生的震級M作為輸入和目標向量。預報因子為半年內M>=3的地震累計頻度、半年內能量釋放積累值、b值、異常地震群個數、地震條帶個數、是否處于活動期內以及相關地震區地震級。在訓練前,對數據進行歸一化處理。由于輸入樣本為7維的輸入向量,一般情況下輸入層設7個神經元。根據實際情況,輸出層神經元個數為1。隱含層神經元的傳遞函數為S型正切函數,輸出層也可以動態選擇傳遞函數。實例數據來自文獻[4],將數據集分為訓練集、測試集和確定集。表1中的7×7數組表示歸一化后的訓練向量,第一個7表示預報因子數,第二個7表示樣本數。

表1 歸一化后的訓練向量

在不同神經元數情況下,對網絡進行訓練和仿真,得到如圖5所示的一組預測誤差曲線。其中,曲線A表示隱層結點數為6時的預測誤差曲線,曲線B表示隱含層結點數為3時的預測誤差曲線,曲線C表示隱含層結點數為5時的預測誤差曲線,曲線D表示隱含層結點數為4時的預測誤差曲線。將五種情況下的誤差進行對比,曲線C表示的網絡預測性能最好,其隱含層神經元數為5,圖中曲線E表示的是隱含層結點數為15時的預測誤差曲線(文獻[4]中的最好結果)。同時也證明,在設計BP網絡時,不能無限制地增加層神經元的個數。若過多,不僅會大大增加網絡結構的復雜性,網絡在學習過程中更易陷入局部極小點,而且會使網絡的學習速度、預測速度變得很慢。

圖5 不同神經元數預測誤差對比曲線

5 結論

本文針對基本的BP神經網絡,提出了可動態改變神經元數(與精度相關)的BP神經網絡預測方法,可以根據實際情況建立預測系統。用此種方法可以建立最好的神經網絡,不會有多余的神經元,也不會讓網絡在學習過程中過早陷于局部極小點。

參考文獻

[1]潘正君,康立山,陳毓屏. 演化計算[M ]. 北京:清華大學出版社,1998

[2]飛思科技產品研發中心. 神經網絡理論與實現. 北京:電子工業出版社,2005

[3]蔡曉芬,方建斌. 演化神經網絡算法. 江漢大學學報,第33卷第3期,2005.9

神經網絡的復雜度范文4

關鍵詞:全卷積神經網絡;顯著性預測;縮略圖生成

中圖分類號:TP18 文獻標識碼:A 文章編號:1009-3044(2017)14-0149-02

1概述

縮略圖是一種經壓縮方式處理后的圖片,在小尺度下包含了原圖像大部分有效信息,可廣泛應用于圖像快速索引、網頁超鏈接等多個領域。目前相關算法多采用固定分辨率縮放及中央裁剪等固定規則進行縮略圖生成,而忽視圖像自身具有的內容信息。為提高縮略圖攜帶的有效信息,該文利提出一種利用全卷積神經網絡對圖像進行顯著性預測,再由顯著點密度自動獲取圖像中包含最有意義信息的區域進行截取,進而生成圖像內容相關縮略圖的算法。

2算法設計

為生成面向圖像信息的自適應縮略圖,該方法由兩部分組成。第一部分為圖像識別模塊,主要工作是得到圖像的顯著性圖;第二部分為自適應滑動窗口模塊,主要工作是得到窗口內平均顯著度最強的窗口坐標。

2.1顯著性A測

該文在縮略圖截取區域識別階段采用顯著性預測算法作為識別手段。顯著性預測是目前非常活躍并正在不斷取得突破性進展的機器視覺領域下的一個子領域,是一種模擬人類注意力機制的算法。其主要目標是對圖像(畫面)中吸引人注意的地方(顯著性區域)進行自動的識別與提取,并生成與輸入圖像尺度對應的一張灰度圖。其生成的灰度圖中的高亮度區域代表具有顯著性物體,如汽車、人臉、字母等,并且服從高斯分布。根據特征融合理論(Feature Integration Theory),目前已有多種基于卷積神經網絡的顯著性預測算法被提出(如DeepFix、SALICON等),并極大的提高了顯著性識別的精度。

2.2卷積神經網絡概述

為生得到面向內容的縮略圖截取坐標,首先需要對圖像內容進行識別,并對圖像每個區域的重要程度進行分類。近年來由于GPU并行運算性能的突破性進步以及基于大數據技術的訓練數據集擴充,深度卷積神經網絡(Deep Convolutional Neu-ral Networks,DCNNs)在包括圖像識別、目標跟蹤及顯著性預測等多個圖像處理領域上的任務都取得了極大的提升。而預訓練參數(Pretraining)與轉移學習(Transfer Learning)等技術進一步提升了CNNs在多項圖像處理任務中的泛化能力及可用性,因此該文采用截斷VGG19模型為預訓練網絡,進行顯著點識別及縮略圖。全卷積神經網絡與傳統的全連接神經網絡類似,均采用梯度下降算法對權值進行更新。不同點在于,全卷積神經網絡每次更新的值包括卷積核的值以及該卷積核的權值。

2.3網絡結構

該文所采用的全卷積神經網絡采用截斷的VGGl9預訓練模型的前10層組成。VGGl9由進行圖像識別(物體分類)的ImageNet數據集訓練而成,可精確識別數據集中1000中物體分類,故其所學習的卷積核參數包含有豐富的物體信息。

其中網絡的具體成分主要由10層卷積模塊及3層最大池化層組成,而卷積模塊依次由一層卷積層,一層批量歸一化層以及一層ReLU(Rectified Linear Unit)激活函數層組成。其中前8層卷積層由普通3×3大小,1×1步長的卷積核組成,后兩層卷積層由帶2×2洞的3×3大?。ü蕦嶋H感受野為5×5),步長1×1的卷積核組成。

網絡結構如圖1所示。

2.4縮略圖生成

由全卷積神經網絡識別并得到的顯著性圖為灰度值為0-255的灰度圖,大的灰度值代表高顯著性激活度。在得到對應圖像的顯著性圖之后,方法采用步長為10像素的滑動窗口對顯著性圖進行遍歷,并選擇所窗口內激活程度最高的區域所處坐標作為縮略圖截取坐標。對于有多個相同激活值的區域則選取距離圖像中心最近的區域所處坐標為縮略圖截取坐標。最后通過對原始輸入圖像中對應縮略圖截取坐標進行截取,得到最終縮略圖。

3實驗設計

根據算法流程,該方法中實驗設計也可分為兩部分:第一部分為訓練用于得到顯著點坐標的全卷積神經網絡,第二部分為設計并實現基于顯著性圖的動態步長滑動窗口方法。

3.1網絡參數及訓練數據設置

該方法訓練數據選自開放數據集MIT1003及SALI-CONt31。實驗采用批量訓練方法,每批數據由128個樣本組成,共訓練2000個批次。網絡采用絕對平均誤差(Mean AbsoluteError,MAE)為損失函數(如公式1所示),并采用改進的梯度下降算法Adam算法進行權值更新,以提高網絡魯棒性及收斂性。網絡收斂曲線如圖2所示。

3.2滑動窗口設計

在得到輸入圖像的顯著性圖之后,所提方法通過滑動窗口截取縮略圖,并通過自適應步長降低算法的時間復雜度。自適應步長通過由當前窗口內顯著性圖的平均激活值得到。步長的最大分辨率為40像素,最小分辨率為5像素,當當前窗口內平均激活值小于預設閾值時,下一次窗口的滑動步長增加為當前步長2倍,直至增大到最大分辨率步長。當當前窗口呢平均激活值大于預設閾值時,則每一次滑動減小位原步長的1/2,直至衰減到最小分辨率步長。

3.3實驗結果

在驗證及測試階段,采用的測量標準為AUC-Judd,相關系數(Correlation Coefficient)以及KL散度(Kullback-Leibler Diver-gence)。其中AUC-Judd越大越好,KL散度越小越好。訓練收斂后以以上測量標準在MIT1003數據集上進行了驗證測試,所得結果如表一所示。表一表面該方法在顯著性預測上超過了傳統方法,取得了較好的結果。

圖3對所提方法得到的縮略圖進行了直觀展示。從中可知所提方法在縮略圖生成的過程中對圖像本身信息進行了有效提取且得到了有效的顯著性圖,并由該顯著性圖通過滑動窗口得到了縮略圖所需的正確截取坐標。最后得到的縮略圖對于原圖像本身信息具有高代表性,且并未損失分辨率信息。

神經網絡的復雜度范文5

關鍵詞:電加熱爐;BP神經網絡;PID控制

中圖分類號:TP23文獻標識碼:A文章編號:1672-3198(2008)05-0322-02

1 基于BP神經網絡的PID控制

BP算法是在導師指導下,適合于多層神經元網絡的一種學習,它是建立在梯度下降法的基礎上的。理論證明,含有一個隱含層的BP網絡可以實現以任意精度近似任何連續非線性函數。

BP神經網絡結構如圖1所示,由三層(輸人層、隱含層、輸出層)網絡組成,使輸出層的神經元狀態對應PID控制器的三個可調參數Kp、Ki、Kd。通過神經網絡的自學習、加權系數調整使神經網絡輸出對應于某種最優控制律下的PID控制器參數。

圖1 BP網絡結構

基于BP(Baekpropgation)網絡的PID控制系統結構如圖2所示,控制器由常規的PID控制器和神經網絡兩部分組成,常規PID控制器直接對被控對象進行閉環控制,并且其控制參數為Kp、Ki、Kd在線調整方式;神經網絡根據系統的運行狀態,調節PID控制器的參數,以期達到某種性能指標的最優化,使輸出層神經元的輸出對應于PID控制器的三個可調參數Kp、Ki、Kd。通過神經網絡的自學習、加權系數的調整,使神經網絡輸出對應于某種最優控制規律下的PID控制器參數。

圖2 神經網絡PID控制器結構圖

2 改進型BP神經網絡

基本BP神經網絡主要存在以下兩個缺陷:其一,傳統BP網絡是一個非線形優化問題,不可避免的存在局部極小問題。網絡的權值和閥值沿局部改善的方向不斷修正,力圖達到使誤差函數 最小化的全局解,但實際上常得到的是局部最優點;其二,學習過程中,誤差函數下降慢,學習速度緩,易出現一個長時間的誤差坦區,即出現平臺。

目前已有不少人對此提出改進的方法。如在修改權值中加入“動量項”,采用Catchy誤差估計器代替傳統的LMS誤差估計器等。本文在此探討通過變

換梯度來加快網絡訓練的收斂速度的共軛梯度算法,利用這種算法改善收斂速度與收斂性能。改進共軛梯度算法在不增加算法復雜性的前提下可以提高收斂速度,并且可以沿共軛方向達到全局最優即全局極值點。它要求在算法進行過程中采用線性搜索,本文采用Fletcher-Reeves線性搜索方法,以保證算法的收斂速度。

將改進共軛梯度法應用于BP網絡的控制算法如下:

1)選取初始點w(0)和初始搜索方向d(0)=-g(0);

2)對k=0,1,2,…,n-1,BP網絡的權值修正公式為

w(k+1)=w(k)+α(k)d(k)(1)

式中:α(k)為學習速率,使式(1)取得極??;d(k)為第k次迭代的共軛方向。

3)計算新的梯度矢量g(k+1);

4)若k=n-1,則用w(n)代替w(0),并返回步驟(1);否則轉步驟(5);

5)計算第(k+1)迭代的共軛方向

d(k+1)=-g(k+1)+β(k)d(k)(2)

式中

β(k)=gT(k)g(k)gT(k-1)g(k-1)(Fletcher-Reeves公式)(3)

6)如果dT(k+1)g(k+1)>0,則用w(n)代替w(0),并返回步驟(1);否則轉步驟(2)。

3 仿真試驗

本文以電加熱爐為控制對象,其數學模型可以用一階慣性環節加上一個大的純滯后環節來表示,傳遞函數為:

G(s)=KpTps+1e-τs=148286s+1e-200s

構造兩個3-5-3結構的BP神經網絡,以誤差、誤差的積分、誤差的微分為網絡的輸入;選取學習速率η=0.01、慣性系數α=0.04,加權系數初始矩陣取區間[0 0.5]上的隨機數,傳統與改進的BP神經網絡的加權系數分別使用負梯度法、改進共軛梯度法進行自整定。

由于電加熱爐是溫度參數的定值控制,且存在干擾和對象參數變化的情況,為驗證改進BP神經網絡PID控制的效果,分別對其跟蹤設定值特性、及適應對象參數變化的能力進行仿真研究,并與基于傳統BP神經網絡PID控制器的控制效果進行比較分析。圖3為單位階躍響應曲線,圖4為過程對象單位階躍響應曲線是在控制器參數不變的情況下改變對象G(S)參數的仿真結果。(注:以下各圖中實線或“I”均表示改進BP神經網絡PID控制結果,虛線、點線或“T”表傳統BP神經網絡PID控制器的控制結果;A、B、C分別表示G(S)三種參數變化了的模型)

從仿真結果看,改進BP神經網絡PID控制器比傳統BP神經網絡PID控制器在控制性能上有了一定程度的提高,尤其是在系統穩定時間和抗干擾性方面的優化較為明顯。這主要是因為在BP算法中采用了改進共軛梯度法,加快了BP算法的收斂速度,從而保證了系統穩定時間較短,又具有較好的泛化能力,因此,具有較強的抗干擾和適應參數變化的能力

4 結論

改進共軛梯度BP算法在不增加算法復雜度的情況下,通過梯度的共軛方向來尋求網絡的全局最優值,從而避免網絡陷入局部極小值。本文將其替代傳統的BP算法構造智能PID控制器,并進行了以電加熱爐為模型的控制系統仿真。結果表明,這種改進算法能夠有效提高網絡的訓練速度,改善網絡的收斂性能,避免網絡陷入局部極小值,取得了良好的控制性能。

參考文獻

[1]陳巍, 吳捷. 具有輔助調節功能的遞歸神經網絡自適應PID控制[J]. 信息與控制, 2000, 29(5): 461-470.

[2]李奇, 李世華. 一類神經網絡智能PID控制算法的分析與改進[J]. 控制與決策, 1998, 13(4): 312-316.

[3]李士勇著. 模糊控制、神經控制和智能控制論[M]. 哈爾濱: 哈爾并工業大學出版社, 1996.

[4]高雋. 人工神經網絡原理及仿真實例[M]. 北京:機械工業出版社, 2003, 7-20.

神經網絡的復雜度范文6

【關鍵詞】神經網絡 BP算法 質差

[Abstract] As BP neural network can approximate all nonlinear functions with arbitrary precision, has the abilities in parallel distributed storage, high robustness and fault tolerance, it appropriate for solving complex non-linear problem affected by multiple factors. In this paper, a prediction method based on BP neural network is presented. Then, its principle, modeling process and application in Rxquality prediction are expounded.

[Key words]neural networks BP algorithm Rxquality

1 引言

為了更好地提升語音質量,2014年廣東移動新增GSM上下行質差話務比例考核指標,為全網所有小區六忙時MR測量報告樣本總和中Rxquality 6、7級樣本的占比,占公司經營業績考核5分。雖然東莞分公司的上下行質差話務比例指標在一類地市最好,但是在全省排名靠后。由于上下行質差話務比例指標一直居高不下,嚴重影響客戶感知,為了更好地優化上下行質差話務比例指標,亟需研究和建立上下行質差話務比例量化與預測模型,用于后續指導質差專項整治工作。考慮到上下行質差話務比例受新建宏站、基站停閉、天線調整、私裝等眾多因素的影響,包含確定性因素與不確定性因素,具有非線性的特征,利用BP神經網絡算法搭建復雜因素的質差量化與預測數學模型,為后續網絡優化工作提供理論依據。

2 基于BP算法的多層感知器的工作原理

BP(Back Propagation)網絡是神經網絡中的一種典型結構,其具有分層結構,信息從輸入層進入網絡,逐層向前傳遞至輸出層。根據神經元轉移函數、隱層數以及權值調整規則的不同,可以形成具有各種功能特點的神經網絡。BP神經網絡模型拓撲結構包括輸入層(input)、隱層(hide layer)和輸出層(output layer),學習過程通過信號的正向傳播與誤差的反向傳播來不斷調整權值和閾值,此過程一直進行到網絡輸出的誤差減少到可接受的程度。隨著學習過程的進行,該網絡對已經結果的復制會變得越來越準確,一旦訓練完畢,就可以將神經網絡應用到未來結果的未來案例中。

BP神經網絡模型如圖1所示:

3 基于BP算法的多層前饋網絡在質差建

模中的應用

神經網絡可以近似多種預測模型,而對模型結構和假設只有最小需求,關系形式在學習過程中確定。如果目標與預測變量間的線性關系適當,則神經網絡結果會非常接近傳統線性模型的結果;如果非線性關系更為適當,則神經網絡會自動接近“正確”的模型結果。利用神經網絡的這些功能特點,可以建立質差預測模型。下面使用專業數據分析工具SPSS Modeler軟件提供的自動建模工具(神經網絡算法)進行質差預測建模,如圖2所示。

3.1 輸入輸出變量的選擇

神經網絡輸入與輸出變量的選擇是模型設計和訓練的基礎,數據選擇的合理性對模型設計精度與準確性十分重要。輸出變量的選擇相對容易,是一個或多個預測變量的值;而輸入變量則必須選擇那些對輸出影響大且能夠檢測或提取的變量,此外還要求各輸入變量之間互不相關或相關性很小,使其具有能用期望精度的數學函數來擬合輸入輸出之間的映射關系。

根據協議規定,質差采樣點與C/I關系對照表如表1所示,C/I低是產生質差采樣點的根本原因。目前集團公司定義6、7級屬于高質差,因此C/I

根據C/I的定義,當有用信號C過小或者噪聲I過大時將產生質差,究其原因分為3類:弱覆蓋、干擾、硬件故障。針對這3類主要影響因素,采用因素分析法深入挖掘、細化每項影響因素,逐一篩選作為質差建模的輸入與輸出變量。質差話務比例影響因素思維導圖如圖3所示。

3.2 輸入輸出數據預處理

數據的標準化是將數據按比例縮放,使之落入一個小的特定區間,去除數據的單位限制,將其轉化為無量綱的純數值,便于不同單位或量級的指標能夠進行比較和加權。

進行數據標準化的原因主要如下:

(1)神經網絡的輸入數據具有不同的物理意義和量綱,數據標準化可消除量綱的影響,使網絡的輸入與輸出變量處于同樣重要的地位,輸入變量的重要性由模型自行計算確定。

(2)神經網絡的轉移函數均采用softmax、雙曲正切或sigmoid函數,其取值范圍為[-1,1],輸入數據標準化處理可防止因輸入飽和而使得神經網絡的泛化能力下降。

對輸入輸出向量進行歸一化處理,將輸入值處理到(0,1)區間內。如輸入變量天線調整數量,標準化為:Ai=((Ai-Amin)/(Amax-Amin)),A代表柵格內天線調整數量。

3.3 BP網絡結構設計

針對不同的應用適宜采用不同的神經網絡,模型選擇的任務是根據給定數據建立一個具有最優復雜度的模型。隱藏層包含無法觀察的網絡節點,每個隱藏單位是一個輸入權重總和的函數,該函數是激活函數,而且權重值由估計算法確定。如果網絡包含第2個隱藏層,則第2個隱藏層中的每個隱藏單位是第1個隱藏層中權重之和的函數。

隱節點的作用是從樣本中提取并存儲其內在的規律,設置多少個隱節點取決于訓練樣本數的多少、樣本噪聲的大小以及樣本中蘊含規律的復雜程度。對于質差預測問題,可以看作是一個影響因素到質差話務比例指標值之間的非線性映射。由于一個3層BP網絡可以以任意精度去逼近任意映射關系,因此本例采用3層BP網絡結構。隱含節點數的選擇是神經網絡設計較為關鍵的一步,其直接關系到網絡的復雜程度與泛化能力。采用試湊法確定最佳隱節點數,用樣本集進行訓練,從中確定網絡誤差最小時的隱節點數為12。

3.4 BP網絡訓練與測試

網絡設計完成后,經訓練與學習后的預測模型是否能對未在訓練集中出現的樣本做出正確反映的能力是評判網絡性能好壞的唯一標準。而對神經網絡性能好壞的檢測要用訓練樣本集以外的數據,即新鮮樣本集,如果神經網絡通過對已有樣本學習后能夠對新的樣本集做出準確預測,則說明模型泛化能力較強,達到模型與預期效果。BP網絡泛化能力如圖4所示:

經過對模型進行訓練與學習,柵格質差預測值落入真實值正態分布區間(μ-1.96σ,μ+1.96σ)范圍內認為預測準確,上下行質差話務比例模型準確性為91.2%。質差話務比例模型準確性如圖5所示。

4 預測結果分析

(1)通過BP神經網絡對質差預測的方法是切實可行的,神經網絡具有高度魯棒性和容錯性,且具有充分逼真的非線性關系,是一種比較實用的預測方法。

(2)通過神經網絡算法建立上下行質差話務比例預測模型,為質差優化提供有效可行的數理統計模型。

(3)適用于各類運維類性能指標受多重因素交叉影響的指標建模與工作管控,如干擾預測、GSM下載速率等。

5 結束語

本文中應用的數學建模算法是BP神經網絡,適合解決復雜的非線性問題,有成熟的理論基礎,適用于各類運維類性能指標受多重因素交叉影響的指標建模與工作。與此同時,由于因素之間存在交叉影響,運算量極大,因此需要IBM SPSS Modeler軟件工具進行支撐,使建模工作得以大大簡化。

BP網絡自身還存在著一些缺陷,特別是隱層數和隱節點數的選取尚無理論依據,通常是采用試湊法來確定。不同的隱層數和隱節點數會形成不同類型與功能的神經網絡模型,將影響神經網絡擬合和預測效果,本文所選取的隱含節點數12就是根據多次訓練與學習得出。

而BP神經網絡突出的優點是具有很強的非線性映射能力和多元化的網絡結構,與傳統的人為分析統計建模方法相比,其預測精度較高,且預測方法較科學。

參考文獻:

[1] 施彥,韓力群,廉小親. 神經網絡設計方法與實例分析[M]. 北京: 北京郵電大學出版社, 2009.

[2] 韓力群. 人工神經網絡理論、設計及應用[M]. 2版. 北京: 化學工業出版社, 2007.

[3] 閻平凡,張長水. 人工神經網絡與模擬進化計算[M]. 2版. 北京: 清華大學出版社, 2005.

亚洲精品一二三区-久久