HOME 首頁
SERVICE 服務(wù)產(chǎn)品
XINMEITI 新媒體代運(yùn)營(yíng)
CASE 服務(wù)案例
NEWS 熱點(diǎn)資訊
ABOUT 關(guān)于我們
CONTACT 聯(lián)系我們
創(chuàng)意嶺
讓品牌有溫度、有情感
專注品牌策劃15年

    神經(jīng)網(wǎng)絡(luò)的設(shè)計(jì)(神經(jīng)網(wǎng)絡(luò)的設(shè)計(jì)時(shí)需注意)

    發(fā)布時(shí)間:2023-04-21 23:48:21     稿源: 創(chuàng)意嶺    閱讀: 67        

    大家好!今天讓創(chuàng)意嶺的小編來大家介紹下關(guān)于神經(jīng)網(wǎng)絡(luò)的設(shè)計(jì)的問題,以下是小編對(duì)此問題的歸納整理,讓我們一起來看看吧。

    開始之前先推薦一個(gè)非常厲害的Ai人工智能工具,一鍵生成原創(chuàng)文章、方案、文案、工作計(jì)劃、工作報(bào)告、論文、代碼、作文、做題和對(duì)話答疑等等

    只需要輸入關(guān)鍵詞,就能返回你想要的內(nèi)容,越精準(zhǔn),寫出的就越詳細(xì),有微信小程序端、在線網(wǎng)頁版、PC客戶端

    官網(wǎng):https://ai.de1919.com。

    創(chuàng)意嶺作為行業(yè)內(nèi)優(yōu)秀的企業(yè),服務(wù)客戶遍布全球各地,如需了解SEO相關(guān)業(yè)務(wù)請(qǐng)撥打電話175-8598-2043,或添加微信:1454722008

    本文目錄:

    神經(jīng)網(wǎng)絡(luò)的設(shè)計(jì)(神經(jīng)網(wǎng)絡(luò)的設(shè)計(jì)時(shí)需注意)

    一、神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)的基本信息

    英文名: Neural Network Design

    作者: [美] 哈根等

    譯者: 戴葵等

    定價(jià): 49.00

    神經(jīng)網(wǎng)絡(luò)的設(shè)計(jì)(神經(jīng)網(wǎng)絡(luò)的設(shè)計(jì)時(shí)需注意)

    二、建立BP神經(jīng)網(wǎng)絡(luò)地面沉降預(yù)測(cè)模型

    基坑降水引起地面沉降的BP神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)模型建模過程如下:

    (1)樣本選擇

    因基坑降水引起的地面沉降量和距離基坑的距離關(guān)系密切,因此建模選用“基坑降水引起沉降工程數(shù)據(jù)(第二類)”(見表4.1)中的相關(guān)數(shù)據(jù)作為樣本進(jìn)行學(xué)習(xí)訓(xùn)練和檢驗(yàn)。

    (2)BP神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)

    對(duì)于BP網(wǎng)絡(luò),對(duì)于任何在閉區(qū)間內(nèi)的一個(gè)連續(xù)函數(shù)都可以用單隱層的BP網(wǎng)絡(luò)逼近,因而一個(gè)三層BP網(wǎng)絡(luò)就可以完成任意的n維到m維的映射。根據(jù)網(wǎng)絡(luò)結(jié)構(gòu)簡(jiǎn)單化的原則,確定采用三層BP網(wǎng)絡(luò)結(jié)構(gòu),即輸入層為沉降點(diǎn)距基坑的距離L(m)、等效壓縮模量E(MPa)、水位降深H(m)和支護(hù)剛度n四個(gè)參數(shù),輸出層為地面累積沉降量(mm),隱層層數(shù)為1層。隱層的神經(jīng)元數(shù)目選擇是一個(gè)十分復(fù)雜的問題,往往需要根據(jù)設(shè)計(jì)者的經(jīng)驗(yàn)和多次實(shí)驗(yàn)來確定,因而不存在一個(gè)理想的解析式來表示。隱單元的數(shù)目與問題的要求,與輸入、輸出單元的數(shù)目有直接的關(guān)系。隱單元數(shù)目太多會(huì)導(dǎo)致學(xué)習(xí)時(shí)間過長(zhǎng),誤差不一定最佳,也會(huì)導(dǎo)致容錯(cuò)性差、不能識(shí)別以前沒有看到的樣本,因此一定存在一個(gè)最佳的隱單元數(shù)。研究通過一次編程比較了隱層神經(jīng)元個(gè)數(shù)分別為5、10、15、20、25、30、40時(shí)訓(xùn)練速度及檢驗(yàn)精度。

    圖4.2 BP神經(jīng)網(wǎng)絡(luò)程序框圖

    (3)網(wǎng)絡(luò)訓(xùn)練及檢驗(yàn)

    BP網(wǎng)絡(luò)采用梯度下降法來降低網(wǎng)絡(luò)的訓(xùn)練誤差,考慮到基坑降水地面沉降范圍內(nèi)沉降量變化幅度較小的特點(diǎn),訓(xùn)練時(shí)以訓(xùn)練目標(biāo)取0.001為控制條件,考慮到網(wǎng)絡(luò)的結(jié)構(gòu)比較復(fù)雜,神經(jīng)元個(gè)數(shù)比較多,需要適當(dāng)增加訓(xùn)練次數(shù)和學(xué)習(xí)速率,因此初始訓(xùn)練次數(shù)設(shè)為10000次,學(xué)習(xí)速率取0.1,中間層的神經(jīng)元傳遞函數(shù)采用S型正切函數(shù)tansig,傳輸函數(shù)采用logsig,訓(xùn)練函數(shù)采用trainlm,選用38組數(shù)據(jù)中的33組作為訓(xùn)練樣本,5組作為檢驗(yàn)樣本。

    (4)網(wǎng)絡(luò)實(shí)現(xiàn)及檢驗(yàn)效果

    使用MATLAB6.0編程建立基于BP神經(jīng)網(wǎng)絡(luò)的基坑降水地面沉降預(yù)測(cè)模型(程序代碼見附件1),其訓(xùn)練誤差及檢驗(yàn)效果如下:

    圖4.3 訓(xùn)練誤差曲線

    圖4.4 預(yù)測(cè)誤差曲線

    由圖4.3、圖4.4可見:樣本數(shù)據(jù)收斂,訓(xùn)練誤差較小,中間層神經(jīng)單元個(gè)數(shù)為10時(shí)預(yù)測(cè)精度較好,誤差小于20%,誤差滿足工程需求。

    三、如何設(shè)計(jì)神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)一對(duì)數(shù)組的函數(shù)關(guān)系

    測(cè)試BP神經(jīng)網(wǎng)絡(luò)的擬合能力和泛化能力,按這種說法是同一概念,但是擬合和泛化在其它領(lǐng)域是完全不同的,這個(gè)要區(qū)分清楚。測(cè)試一個(gè)神經(jīng)網(wǎng)絡(luò)的擬合能力,這種說法很少用,大家經(jīng)常用的是測(cè)試神經(jīng)網(wǎng)絡(luò)的泛化能力。

    四、BP神經(jīng)網(wǎng)絡(luò)的梳理

    BP神經(jīng)網(wǎng)絡(luò)被稱為“深度學(xué)習(xí)之旅的開端”,是神經(jīng)網(wǎng)絡(luò)的入門算法。

    各種高大上的神經(jīng)網(wǎng)絡(luò)都是基于BP網(wǎng)絡(luò)出發(fā)的,最基礎(chǔ)的原理都是由BP網(wǎng)絡(luò)而來 [1] ,另外由于BP神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)簡(jiǎn)單,算法經(jīng)典, 是神經(jīng)網(wǎng)絡(luò)中應(yīng)用最廣泛的一種。

    BP神經(jīng)網(wǎng)絡(luò)(back propagation neural network)全稱是反向傳播神經(jīng)網(wǎng)絡(luò)。

    神經(jīng)網(wǎng)絡(luò)發(fā)展部分背景如下 [2] :

    為解決非線性問題,BP神經(jīng)網(wǎng)絡(luò)應(yīng)運(yùn)而生。

    那么什么是BP神經(jīng)網(wǎng)絡(luò)?稍微專業(yè)點(diǎn)的解釋要怎么說呢?

    很喜歡 最簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò)--Bp神經(jīng)網(wǎng)絡(luò) 一文對(duì)算法原理的解釋,語言活潑,案例簡(jiǎn)單,由淺入深。

    文中提到所謂的 AI 技術(shù),本質(zhì)上是一種數(shù)據(jù)處理處理技術(shù),它的強(qiáng)大來自于兩方面:1.互聯(lián)網(wǎng)的發(fā)展帶來的海量數(shù)據(jù)信息;2.計(jì)算機(jī)深度學(xué)習(xí)算法的快速發(fā)展。AI 其實(shí)并沒有什么神秘,只是在算法上更為復(fù)雜 [3] 。

    我們從上面的定義出發(fā)來解釋BP神經(jīng)網(wǎng)絡(luò)的原理。

    BP神經(jīng)網(wǎng)絡(luò)整個(gè)網(wǎng)絡(luò)結(jié)構(gòu)包含了:一層輸入層,一到多層隱藏層,一層輸出層。

    一般說L層神經(jīng)網(wǎng)絡(luò),指的是有L個(gè)隱層,輸入層和輸出層都不計(jì)算在內(nèi)的 [6] 。

    BP神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練的學(xué)習(xí)過程由信號(hào)的 正向傳播 和誤差的 反向傳播 兩個(gè)過程組成。

    什么是信號(hào)的正向傳播?顧名思義,就是結(jié)構(gòu)圖從左到右的運(yùn)算過程。

    我們來看看結(jié)構(gòu)圖中每個(gè)小圓圈是怎么運(yùn)作的。我們把小圈圈叫做神經(jīng)元,是組成神經(jīng)網(wǎng)絡(luò)的基本單元。

    正向傳播就是輸入數(shù)據(jù)經(jīng)過一層一層的神經(jīng)元運(yùn)算、輸出的過程,最后一層輸出值作為算法預(yù)測(cè)值y'。

    前面正向傳播的時(shí)候我們提到權(quán)重w、偏置b,但我們并不知道權(quán)重w、偏置b的值應(yīng)該是什么。關(guān)于最優(yōu)參數(shù)的求解,我們?cè)?線性回歸 、 邏輯回歸 兩章中有了詳細(xì)說明。大致來講就是:

    BP神經(jīng)網(wǎng)絡(luò)全稱 back propagation neural network,back propagation反向傳播是什么?

    反向傳播的建設(shè)本質(zhì)上就是尋找最優(yōu)的參數(shù)組合,和上面的流程差不多,根據(jù)算法預(yù)測(cè)值和實(shí)際值之間的損失函數(shù)L(y',y),來反方向地計(jì)算每一層的z、a、w、b的偏導(dǎo)數(shù),從而更新參數(shù)。

    對(duì)反向傳播而言,輸入的內(nèi)容是預(yù)測(cè)值和實(shí)際值的誤差,輸出的內(nèi)容是對(duì)參數(shù)的更新,方向是從右往左,一層一層的更新每一層的參數(shù)。

    BP神經(jīng)網(wǎng)絡(luò)通過先正向傳播,構(gòu)建參數(shù)和輸入值的關(guān)系,通過預(yù)測(cè)值和實(shí)際值的誤差,反向傳播修復(fù)權(quán)重;讀入新數(shù)據(jù)再正向傳播預(yù)測(cè),再反向傳播修正,...,通過多次循環(huán)達(dá)到最小損失值,此時(shí)構(gòu)造的模型擁有最優(yōu)的參數(shù)組合。

    以一個(gè)簡(jiǎn)單的BP神經(jīng)網(wǎng)絡(luò)為例,由3個(gè)輸入層,2層隱藏層,每層2個(gè)神經(jīng)元,1個(gè)輸出層組成。

    【輸入層】傳入

    【第一層隱藏層】

    對(duì)于 神經(jīng)元而言,傳入 ,加權(quán)求和加偏置激活函數(shù)處理后,輸出 ;

    對(duì)于 神經(jīng)元而言,傳入 ,加權(quán)求和加偏置函數(shù)處理后,輸出 ;

    輸出:

    【第二層隱藏層】

    對(duì)于 神經(jīng)元而言,傳入 ,加權(quán)求和加偏置激活函數(shù)處理后,輸出 ;

    對(duì)于 神經(jīng)元而言,傳入 ,加權(quán)求和加偏置激活函數(shù)處理后,輸出 ;

    輸出:

    【輸出層】

    對(duì)于輸出層神經(jīng)元而言,輸入 ,加權(quán)求和加偏置激活函數(shù)處理后,輸出 ,輸出的是一個(gè)值

    第一次運(yùn)行正向傳播這個(gè)流程時(shí)隨用隨機(jī)參數(shù)就好,通過反向傳播不斷優(yōu)化。因此需要在一開始對(duì) 設(shè)置一個(gè)隨機(jī)的初始值。

    首先計(jì)算正向傳播輸出值 與實(shí)際值的損失 ,是一個(gè)數(shù)值。所謂反向是從右到左一步步來的,先回到 ,修正參數(shù) 。

    以此類推,通過對(duì)損失函數(shù)求偏導(dǎo)跟新參數(shù) ,再跟新參數(shù) 。這時(shí)又回到了起點(diǎn),新的數(shù)據(jù)傳入又可以開始正向傳播了。

    keras可以快速搭建神經(jīng)網(wǎng)絡(luò),例如以下為輸入層包含7129個(gè)結(jié)點(diǎn),一層隱藏層,包含128個(gè)結(jié)點(diǎn),一個(gè)輸出層,是二分類模型。

    神經(jīng)網(wǎng)絡(luò)反向傳播的優(yōu)化目標(biāo)為loss,可以觀察到loss的值在不斷的優(yōu)化。

    可以通過model.get_layer().get_weights()獲得每一層訓(xùn)練后的參數(shù)結(jié)果。通過model.predict()預(yù)測(cè)新數(shù)據(jù)。

    至此,BP神經(jīng)網(wǎng)絡(luò)的整個(gè)運(yùn)算流程已經(jīng)過了一遍。之前提到BP神經(jīng)網(wǎng)絡(luò)是為解決非線性問題應(yīng)運(yùn)而生的,那么為什么BP神經(jīng)網(wǎng)絡(luò)可以解決非線性問題呢?

    還記得神經(jīng)元里有一個(gè)激活函數(shù)的操作嗎?神經(jīng)網(wǎng)絡(luò)通過激活函數(shù)的使用加入非線性因素。

    通過使用非線性的激活函數(shù)可以使神經(jīng)網(wǎng)絡(luò)隨意逼近復(fù)雜函數(shù),從而使BP神經(jīng)網(wǎng)絡(luò)既可以處理線性問題,也可以處理非線性問題。

    為什么激活函數(shù)的使用可以加入非線性因素 [7] ?

    其實(shí)邏輯回歸算法可以看作只有一個(gè)神經(jīng)元的單層神經(jīng)網(wǎng)絡(luò),只對(duì)線性可分的數(shù)據(jù)進(jìn)行分類。

    輸入?yún)?shù),加權(quán)求和,sigmoid作為激活函數(shù)計(jì)算后輸出結(jié)果,模型預(yù)測(cè)值和實(shí)際值計(jì)算損失Loss,反向傳播梯度下降求編導(dǎo),獲得最優(yōu)參數(shù)。

    BP神經(jīng)網(wǎng)絡(luò)是比 Logistic Regression 復(fù)雜得多的模型,它的擬合能力很強(qiáng),可以處理很多 Logistic Regression處理不了的數(shù)據(jù),但是也更容易過擬合。

    具體用什么算法還是要看訓(xùn)練數(shù)據(jù)的情況,沒有一種算法是使用所有情況的。

    常見的前饋神經(jīng)網(wǎng)絡(luò)有BP網(wǎng)絡(luò),RBF網(wǎng)絡(luò)等。

    BP神經(jīng)網(wǎng)絡(luò)的一個(gè)主要問題是:結(jié)構(gòu)不好設(shè)計(jì)。

    網(wǎng)絡(luò)隱含層的層數(shù)和單元數(shù)的選擇尚無理論上的指導(dǎo),一般是根據(jù)經(jīng)驗(yàn)或者通過反復(fù)實(shí)驗(yàn)確定。

    但是BP神經(jīng)網(wǎng)絡(luò)簡(jiǎn)單、易行、計(jì)算量小、并行性強(qiáng),目前仍是多層前向網(wǎng)絡(luò)的首選算法。

    [1] 深度學(xué)習(xí)開端---BP神經(jīng)網(wǎng)絡(luò): https://blog.csdn.net/Chile_Wang/article/details/100557010

    [2] BP神經(jīng)網(wǎng)絡(luò)發(fā)展歷史: https://zhuanlan.zhihu.com/p/47998728

    [3] 最簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò)--Bp神經(jīng)網(wǎng)絡(luò): https://blog.csdn.net/weixin_40432828/article/details/82192709

    [4] 神經(jīng)網(wǎng)絡(luò)的基本概念: https://blog.csdn.net/jinyuan7708/article/details/82466653

    [5] 神經(jīng)網(wǎng)絡(luò)中的 “隱藏層” 理解: https://blog.csdn.net/nanhuaibeian/article/details/100183000

    [6] AI學(xué)習(xí)筆記:神經(jīng)元與神經(jīng)網(wǎng)絡(luò): https://www.jianshu.com/p/65eb2fce0e9e

    [7] 線性模型和非線性模型的區(qū)別: https://www.cnblogs.com/toone/p/8574294.html

    [8] BP神經(jīng)網(wǎng)絡(luò)是否優(yōu)于logistic回歸: https://www.zhihu.com/question/27823925/answer/38460833

    以上就是關(guān)于神經(jīng)網(wǎng)絡(luò)的設(shè)計(jì)相關(guān)問題的回答。希望能幫到你,如有更多相關(guān)問題,您也可以聯(lián)系我們的客服進(jìn)行咨詢,客服也會(huì)為您講解更多精彩的知識(shí)和內(nèi)容。


    推薦閱讀:

    神經(jīng)網(wǎng)絡(luò)分類器(神經(jīng)網(wǎng)絡(luò)分類器原理)

    圖神經(jīng)網(wǎng)絡(luò)和神經(jīng)網(wǎng)絡(luò)的區(qū)別

    神經(jīng)網(wǎng)絡(luò)分類器原理(神經(jīng)網(wǎng)絡(luò)分類器原理圖解)

    國(guó)產(chǎn)唇膏排行榜前十名(國(guó)產(chǎn)唇膏排行榜前十名有哪些)

    景觀設(shè)計(jì)如何考編(景觀設(shè)計(jì)如何考編制證書)