數學建模擬合算法范例6篇

前言:中文期刊網精心挑選了數學建模擬合算法范文供你參考和學習,希望我們的參考范文能激發你的文章創作靈感,歡迎閱讀。

數學建模擬合算法

數學建模擬合算法范文1

關鍵詞:神經網絡 ;BP網絡; 優缺點; 改進算法

【中圖分類號】 TP183 【文獻標識碼】 B【文章編號】 1671-1297(2012)09-0196-02

思維學普遍認為,人類大腦的思維分為抽象(邏輯)思維、形象(直觀)思維和靈感(頓悟)思維三種基本方式。

人工神經網絡(Artificial Neural Networks,NN)就是模擬人思維的第二種方式。這是一個非線性動力學系統,其特色在于信息的分布式存儲和并行協同處理。雖然單個神經元的結構極其簡單,功能有限,但大量神經元構成的網絡系統所能實現的行為卻是極其豐富多彩的。人工神經網絡系統從20世紀40年代末誕生至今僅短短半個多世紀,但由于它具有信息的分布存儲、并行處理以及自學習能力等優點,已經在信息處理、模式識別、智能控制及系統建模等領域得到越來越廣泛的應用。

神經網絡拓撲結構的單隱層前饋網絡,一般稱為三層前饋網或三層感知器,即:輸入層、中間層(也稱隱層)和輸出層。它的特點是:各層神經元僅與相鄰層神經元之間相互全連接,同層內神經元之間無連接,各層神經元之間無反饋連接,夠成具有層次結構的前饋型神經網絡系統。單計算層前饋神經網絡只能求解線性可分問題,能夠求解非線性問題的網絡必須是具有隱層的多層神經網絡。

一 BP網絡

1986年,Rumelhart和Hinton提出了誤差反向傳播神經網絡(Error Back Propagation Neural Network),簡稱BP網絡。它是一種能向著滿足給定的輸入輸出關心方向進行自組織的神經網絡。

1. BP網絡的原理

輸入層各神經元負責接收來自外界的輸入信息,并傳遞給中間層各神經元;中間層是內部信息處理層,負責信息變換,根據信息變化能力的需求,中間層可以設計為單隱層或者多隱層結構;最后一個隱層傳遞到輸出層各神經元的信息,經進一步處理后,完成一次學習的正向傳播處理過程,由輸出層向外界輸出信息處理結果。當實際輸出與期望輸出不符時,進入誤差的反向傳播階段。誤差通過輸出層,按誤差梯度下降的方式修正各層權值,向隱層、輸入層逐層反傳。周而復始的信息正向傳播和誤差反向傳播過程,是各層權值不斷調整的過程,也是神經網絡學習訓練的過程,此過程一直進行到網絡輸出的誤差減少到可以接受的程度,或者預先設定的學習次數為止。

2. BP網絡的特點

(1)輸入和輸出是并行的模擬量。

(2)網絡的輸入輸出關系是各層連接的權因子決定,沒有固定的算法。

(3)權因子是通過學習信號調節的,這樣學習越多,網絡越聰明。

(4)隱含層越多,網絡輸出精度越高,且個別權因子的損壞不會對網絡輸出產生大的影響。

3. BP網絡的優點

(1)網絡實質上實現了一個從輸入到輸出的映射功能,而數學理論已證明它具有實現任何復雜非線性映射的功能。這使得它特別適合于求解內部機制復雜的問題。

(2)網絡能通過學習帶正確答案的實例集自動提取"合理的"求解規則,即具有自學習能力。

(3)網絡具有一定的推廣、概括能力。

4. BP網絡的缺點

BP算法的學習速度很慢,其原因主要有:

(1)由于BP算法本質上為梯度下降法,而它所要優化的目標函數又非常復雜,因此,必然會出現"鋸齒形現象",這使得BP算法低效;

(2)存在麻痹現象,由于優化的目標函數很復雜,它必然會在神經元輸出接近0或1的情況下,出現一些平坦區,在這些區域內,權值誤差改變很小,使訓練過程幾乎停頓;

(3)為了使網絡執行BP算法,不能用傳統的一維搜索法求每次迭代的步長,而必須把步長的更新規則預先賦予網絡,這種方法將引起算法低效。

網絡訓練失敗的可能性較大,其原因有:

(1)從數學角度看,BP算法為一種局部搜索的優化方法,但它要解決的問題為求解復雜非線性函數的全局極值,因此,算法很有可能陷入局部極值,使訓練失?。?/p>

(2)網絡的逼近、推廣能力同學習樣本的典型性密切相關,而從問題中選取典型樣本實例組成訓練集是一個很困難的問題。

難以解決應用問題的實例規模和網絡規模間的矛盾。這涉及到網絡容量的可能性與可行性的關系問題,即學習復雜性問題。

網絡結構的選擇尚無一種統一而完整的理論指導,一般只能由經驗選定。為此,有人稱神經網絡的結構選擇為一種藝術。而網絡的結構直接影響網絡的逼近能力及推廣性質。因此,應用中如何選擇合適的網絡結構是一個重要的問題。

新加入的樣本要影響已學習成功的網絡,而且刻畫每個輸入樣本的特征的數目也必須相同。

二 BP網絡的改進算法

BP算法最優化的方向主要有權值調整、自適應學習速率調整、網絡結構調整等。常用的改進方法有以下幾種:

1.加入動量項

利用附加動量的作用則有可能滑過局部極小值。該方法所加入的動量實質上相當于阻尼項,它減小了學習過程的振蕩趨勢,改善了收斂性,這是目前應用比較廣泛的一種改進算法。

2.自適應學習速率調整

對于一個特定的問題,要選擇適當的學習速率并不是一件容易的事情。對訓練開始初期功效很好的學習速率,不一定對后來的訓練合適。為了解決這一問題,人們自然會想到在訓練過程中自動調整學習速率。

3.共軛梯度算法

在各種改進算法中,共軛梯度法(Conjugate Gradient)是非常重要的一種。其優點是所需存儲量小,具有N步收斂性,穩定性高,而且不需要任何外來參數。

4.Levenberg-Marquart算法(最小二乘擬合算法

除了改進算法以外,通過改變神經網絡結構(隱層結點數和網絡層數)、調整誤差等方法,也能加快BP算法的收斂速度。

參考文獻

亚洲精品一二三区-久久