日本黄色一级经典视频|伊人久久精品视频|亚洲黄色色周成人视频九九九|av免费网址黄色小短片|黄色Av无码亚洲成年人|亚洲1区2区3区无码|真人黄片免费观看|无码一级小说欧美日免费三级|日韩中文字幕91在线看|精品久久久无码中文字幕边打电话

當前位置:首頁 > > AI科技大本營
[導讀]作者|泳魚來源|算法進階神經(jīng)網(wǎng)絡(深度學習)學習到的是什么?一個含糊的回答是,學習到的是數(shù)據(jù)的本質(zhì)規(guī)律。但具體這本質(zhì)規(guī)律究竟是什么呢?要回答這個問題,我們可以從神經(jīng)網(wǎng)絡的原理開始了解。一、神經(jīng)網(wǎng)絡的原理神經(jīng)網(wǎng)絡學習就是一種特征的表示學習,把原始數(shù)據(jù)通過一些簡單非線性的轉(zhuǎn)換成為更高...

神經(jīng)網(wǎng)絡學習到的是什么?(Python)作者|泳魚來源|算法進階神經(jīng)網(wǎng)絡(深度學習)學習到的是什么?一個含糊的回答是,學習到的是數(shù)據(jù)的本質(zhì)規(guī)律。但具體這本質(zhì)規(guī)律究竟是什么呢?要回答這個問題,我們可以從神經(jīng)網(wǎng)絡的原理開始了解。

一、 神經(jīng)網(wǎng)絡的原理

神經(jīng)網(wǎng)絡學習就是一種特征的表示學習,把原始數(shù)據(jù)通過一些簡單非線性的轉(zhuǎn)換成為更高層次的、更加抽象的特征表達。深度網(wǎng)絡層功能類似于“生成特征”,而寬度層類似于“記憶特征”,增加網(wǎng)絡深度可以獲得更抽象、高層次的特征,增加網(wǎng)絡寬度可以交互出更豐富的特征。通過足夠多的轉(zhuǎn)換組合的特征,非常復雜的函數(shù)也可以被模型學習好。神經(jīng)網(wǎng)絡學習到的是什么?(Python)


可見神經(jīng)網(wǎng)絡學習的核心是,學習合適權重參數(shù)以對數(shù)據(jù)進行非線性轉(zhuǎn)換,以提取關鍵特征或者決策。即模型參數(shù)控制著特征加工方法及決策。了解了神經(jīng)網(wǎng)絡的原理,我們可以結合如下項目示例,看下具體的學習的權重參數(shù),以及如何參與抽象特征生成與決策。

二、神經(jīng)網(wǎng)絡的學習內(nèi)容

2.1 簡單的線性模型的學習

我們先從簡單的模型入手,分析其學習的內(nèi)容。像線性回歸、邏輯回歸可以視為單層的神經(jīng)網(wǎng)絡,它們都是廣義的線性模型,可以學習輸入特征到目標值的線性映射規(guī)律。如下代碼示例,以線性回歸模型學習波士頓各城鎮(zhèn)特征與房價的關系,并作出房價預測。數(shù)據(jù)是波士頓房價數(shù)據(jù)集,它是統(tǒng)計20世紀70年代中期波士頓郊區(qū)房價情況,有當時城鎮(zhèn)的犯罪率、房產(chǎn)稅等共計13個指標以及對應的房價中位數(shù)。神經(jīng)網(wǎng)絡學習到的是什么?(Python)


import pandas as pd
import numpy as np
from keras.datasets import boston_housing #導入波士頓房價數(shù)據(jù)集


(train_x, train_y), (test_x, test_y) = boston_housing.load_data()

from keras.layers import *
from keras.models import Sequential, Model
from tensorflow import random
from sklearn.metrics import  mean_squared_error

np.random.seed(0) # 隨機種子
random.set_seed(0)

# 單層線性層的網(wǎng)絡結構(也就是線性回歸):無隱藏層,由于是數(shù)值回歸預測,輸出層沒有用激活函數(shù);
model = Sequential()
model.add(Dense(1,use_bias=False))


model.compile(optimizer='adam', loss='mse') # 回歸預測損失mse


model.fit(train_x, train_y, epochs=1000,verbose=False) # 訓練模型
model.summary()

pred_y = model.predict(test_x)[:,0]

print("正確標簽:",test_y)
print("模型預測:",pred_y )

print("實際與預測值的差異:",mean_squared_error(test_y,pred_y ))
通過線性回歸模型學習訓練集,輸出測試集預測結果如下:神經(jīng)網(wǎng)絡學習到的是什么?(Python)



分析預測的效果,用上面數(shù)值體現(xiàn)不太直觀,如下畫出實際值與預測值的曲線,可見,整體模型預測值與實際值的差異還是比較小的(模型擬合較好)。#繪圖表示
import matplotlib.pyplot as plt

plt.rcParams['font.sans-serif'] = ['SimHei']
plt.rcParams['axes.unicode_minus'] = False

# 設置圖形大小
plt.figure(figsize=(8, 4), dpi=80)
plt.plot(range(len(test_y)), test_y, ls='-.',lw=2,c='r',label='真實值')
plt.plot(range(len(pred_y)), pred_y, ls='-',lw=2,c='b',label='預測值')

# 繪制網(wǎng)格
plt.grid(alpha=0.4, linestyle=':')
plt.legend()
plt.xlabel('number') #設置x軸的標簽文本
plt.ylabel('房價') #設置y軸的標簽文本

# 展示
plt.show()
神經(jīng)網(wǎng)絡學習到的是什么?(Python)回到正題,我們的單層神經(jīng)網(wǎng)絡模型(線性回歸),在數(shù)據(jù)(波士頓房價)、優(yōu)化目標(最小化預測誤差mse)、優(yōu)化算法(梯度下降)的共同配合下,從數(shù)據(jù)中學到了什么呢?我們可以很簡單地用決策函數(shù)的數(shù)學式來概括我們學習到的線性回歸模型,預測y=w1x1 w2x2 wn*xn。通過提取當前線性回歸模型最終學習到的參數(shù):神經(jīng)網(wǎng)絡學習到的是什么?(Python)


將參數(shù)與對應輸入特征組合一下,我們忙前忙后訓練模型學到內(nèi)容也就是——權重參數(shù),它可以對輸入特征進行加權求和輸出預測值決策。小結:單層神經(jīng)網(wǎng)絡學習到各輸入特征所合適的權重值,根據(jù)權重值對輸入特征進行加權求和,輸出求和結果作為預測值(注:邏輯回歸會在求和的結果再做sigmoid非線性轉(zhuǎn)為預測概率)。

2.2 深度神經(jīng)網(wǎng)絡的學習

深度神經(jīng)網(wǎng)絡(深度學習)與單層神經(jīng)網(wǎng)絡的結構差異在于,引入了層數(shù)>=1的非線性隱藏層。從學習的角度上看,模型很像是集成學習方法——以上層的神經(jīng)網(wǎng)絡的學習的特征,輸出到下一層。而這種學習方法,就可以學習到非線性轉(zhuǎn)換組合的復雜特征,達到更好的擬合效果。對于學習到的內(nèi)容,他不僅僅是利用權重值控制輸出決策結果--f(WX),還有比較復雜多層次的特征交互, 這也意味著深度學習不能那么直觀數(shù)學形式做表示--它是一個復雜的復合函數(shù)f(f..f(WX))。神經(jīng)網(wǎng)絡學習到的是什么?(Python)


如下以2層的神經(jīng)網(wǎng)絡為例,繼續(xù)波士頓房價的預測:神經(jīng)網(wǎng)絡學習到的是什么?(Python)


注:本可視化工具來源于https://netron.app/from keras.layers import *
from keras.models import Sequential, Model
from tensorflow import random
from sklearn.metrics import  mean_squared_error

np.random.seed(0) # 隨機種子
random.set_seed(0)


# 網(wǎng)絡結構:輸入層的特征維數(shù)為13,1層relu隱藏層,線性的輸出層;
model = Sequential()
model.add(Dense(10, input_dim=13, activation='relu',use_bias=False)) # 隱藏層
model.add(Dense(1,use_bias=False))


model.compile(optimizer='adam', loss='mse') # 回歸預測損失mse


model.fit(train_x, train_y, epochs=1000,verbose=False) # 訓練模型
model.summary()

pred_y = model.predict(test_x)[:,0]

print("正確標簽:",test_y)
print("模型預測:",pred_y )

print("實際與預測值的差異:",mean_squared_error(test_y,pred_y ))
神經(jīng)網(wǎng)絡學習到的是什么?(Python)可見,其模型的參數(shù)(190個)遠多于單層線性網(wǎng)絡(13個);學習的誤差(27.4)小于單層線性網(wǎng)絡模型(31.9),有著更高的復雜度和更好的學習效果。#繪圖表示
import matplotlib.pyplot as plt

plt.rcParams['font.sans-serif'] = ['SimHei']
plt.rcParams['axes.unicode_minus'] = False

# 設置圖形大小
plt.figure(figsize=(8, 4), dpi=80)
plt.plot(range(len(test_y)), test_y, ls='-.',lw=2,c='r',label='真實值')
plt.plot(range(len(pred_y)), pred_y, ls='-',lw=2,c='b',label='預測值')

# 繪制網(wǎng)格
plt.grid(alpha=0.4, linestyle=':')
plt.legend()
plt.xlabel('number') #設置x軸的標簽文本
plt.ylabel('房價') #設置y軸的標簽文本

# 展示
plt.show()
神經(jīng)網(wǎng)絡學習到的是什么?(Python)回到分析深度神經(jīng)網(wǎng)絡學習的內(nèi)容,這里我們輸入一條樣本,看看每一層神經(jīng)網(wǎng)絡的輸出。from numpy import exp


x0=train_x[0]
print("1、輸入第一條樣本x0:\n", x0)
# 權重參數(shù)可以控制數(shù)據(jù)的特征表達再輸出到下一層
w0= model.layers[0].get_weights()[0]
print("2、第一層網(wǎng)絡的權重參數(shù)w0:\n", w0)

a0 = np.maximum(0,np.dot(w0.T, x0))
# a0可以視為第一層網(wǎng)絡層交互出的新特征,但其特征含義是比較模糊的
print("3、經(jīng)過第一層神經(jīng)網(wǎng)絡relu(w0*x0)后輸出:\n",a0)
w1=model.layers[1].get_weights()[0]
print("4、第二層網(wǎng)絡的權重參數(shù)w1:\n", w1)
# 預測結果為w1與ao加權求和
a1 = np.dot(w1.T,a0)
print("5、經(jīng)過第二層神經(jīng)網(wǎng)絡w1*ao后輸出預測值:%s,實際標簽值為%s"%(a1[0],train_y[0]))

運行代碼,輸出如下結果神經(jīng)網(wǎng)絡學習到的是什么?(Python)從深度神經(jīng)網(wǎng)絡的示例可以看出,神經(jīng)網(wǎng)絡學習的內(nèi)容一樣是權重參數(shù)。由于非線性隱藏層的作用下,深度神經(jīng)網(wǎng)絡可以通過權重參數(shù)對數(shù)據(jù)非線性轉(zhuǎn)換,交互出復雜的、高層次的特征,并利用這些特征輸出決策,最終取得較好的學習效果。但是,正也因為隱藏層交互組合特征過程的復雜性,學習的權重參數(shù)在業(yè)務含義上如何決策,并不好直觀解釋。對于深度神經(jīng)網(wǎng)絡的解釋,常常說深度學習模型是“黑盒”,學習內(nèi)容很難表示成易于解釋含義的形式。在此,一方面可以借助shap等解釋性的工具加于說明。另一方面,還有像深度學習處理圖像識別任務,就是個天然直觀地展現(xiàn)深度學習的過程。如下展示輸入車子通過層層提取的高層次、抽象的特征,圖像識別的過程。注:圖像識別可視化工具來源于https://poloclub.github.io/cnn-explainer/神經(jīng)網(wǎng)絡學習到的是什么?(Python)


神經(jīng)網(wǎng)絡學習到的是什么?(Python)


在神經(jīng)網(wǎng)絡學習提取層次化特征以識別圖像的過程:
  • 第一層,像是各種邊緣探測特征的集合,在這個階段,激活值仍然是保留了幾乎原始圖像的所有信息。
  • 更高一層,激活值就變得進一步抽象,開始表示更高層次的內(nèi)容,諸如“車輪”。有著更少的視覺表示(稀疏),也提取到了更關鍵特征的信息。
這和人類學習(圖像識別)的過程是類似的——從具體到抽象,簡單概括出物體的本質(zhì)特征。就像我們看到一輛很酷的小車神經(jīng)網(wǎng)絡學習到的是什么?(Python)


然后憑記憶將它畫出來,很可能沒法畫出很多細節(jié),只有抽象出來的關鍵特征表現(xiàn),類似這樣:神經(jīng)網(wǎng)絡學習到的是什么?(Python)


我們的大腦學習輸入的視覺圖像的抽象特征,而不相關忽略的視覺細節(jié),提高效率的同時,學習的內(nèi)容也有很強的泛化性,我們只要識別一輛車的樣子,就也會辨別出不同樣式的車。這也是深度神經(jīng)網(wǎng)絡學習更高層次、抽象的特征的過程。神經(jīng)網(wǎng)絡學習到的是什么?(Python)



本站聲明: 本文章由作者或相關機構授權發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點,本站亦不保證或承諾內(nèi)容真實性等。需要轉(zhuǎn)載請聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權益,請及時聯(lián)系本站刪除。
換一批
延伸閱讀

LED驅(qū)動電源的輸入包括高壓工頻交流(即市電)、低壓直流、高壓直流、低壓高頻交流(如電子變壓器的輸出)等。

關鍵字: 驅(qū)動電源

在工業(yè)自動化蓬勃發(fā)展的當下,工業(yè)電機作為核心動力設備,其驅(qū)動電源的性能直接關系到整個系統(tǒng)的穩(wěn)定性和可靠性。其中,反電動勢抑制與過流保護是驅(qū)動電源設計中至關重要的兩個環(huán)節(jié),集成化方案的設計成為提升電機驅(qū)動性能的關鍵。

關鍵字: 工業(yè)電機 驅(qū)動電源

LED 驅(qū)動電源作為 LED 照明系統(tǒng)的 “心臟”,其穩(wěn)定性直接決定了整個照明設備的使用壽命。然而,在實際應用中,LED 驅(qū)動電源易損壞的問題卻十分常見,不僅增加了維護成本,還影響了用戶體驗。要解決這一問題,需從設計、生...

關鍵字: 驅(qū)動電源 照明系統(tǒng) 散熱

根據(jù)LED驅(qū)動電源的公式,電感內(nèi)電流波動大小和電感值成反比,輸出紋波和輸出電容值成反比。所以加大電感值和輸出電容值可以減小紋波。

關鍵字: LED 設計 驅(qū)動電源

電動汽車(EV)作為新能源汽車的重要代表,正逐漸成為全球汽車產(chǎn)業(yè)的重要發(fā)展方向。電動汽車的核心技術之一是電機驅(qū)動控制系統(tǒng),而絕緣柵雙極型晶體管(IGBT)作為電機驅(qū)動系統(tǒng)中的關鍵元件,其性能直接影響到電動汽車的動力性能和...

關鍵字: 電動汽車 新能源 驅(qū)動電源

在現(xiàn)代城市建設中,街道及停車場照明作為基礎設施的重要組成部分,其質(zhì)量和效率直接關系到城市的公共安全、居民生活質(zhì)量和能源利用效率。隨著科技的進步,高亮度白光發(fā)光二極管(LED)因其獨特的優(yōu)勢逐漸取代傳統(tǒng)光源,成為大功率區(qū)域...

關鍵字: 發(fā)光二極管 驅(qū)動電源 LED

LED通用照明設計工程師會遇到許多挑戰(zhàn),如功率密度、功率因數(shù)校正(PFC)、空間受限和可靠性等。

關鍵字: LED 驅(qū)動電源 功率因數(shù)校正

在LED照明技術日益普及的今天,LED驅(qū)動電源的電磁干擾(EMI)問題成為了一個不可忽視的挑戰(zhàn)。電磁干擾不僅會影響LED燈具的正常工作,還可能對周圍電子設備造成不利影響,甚至引發(fā)系統(tǒng)故障。因此,采取有效的硬件措施來解決L...

關鍵字: LED照明技術 電磁干擾 驅(qū)動電源

開關電源具有效率高的特性,而且開關電源的變壓器體積比串聯(lián)穩(wěn)壓型電源的要小得多,電源電路比較整潔,整機重量也有所下降,所以,現(xiàn)在的LED驅(qū)動電源

關鍵字: LED 驅(qū)動電源 開關電源

LED驅(qū)動電源是把電源供應轉(zhuǎn)換為特定的電壓電流以驅(qū)動LED發(fā)光的電壓轉(zhuǎn)換器,通常情況下:LED驅(qū)動電源的輸入包括高壓工頻交流(即市電)、低壓直流、高壓直流、低壓高頻交流(如電子變壓器的輸出)等。

關鍵字: LED 隧道燈 驅(qū)動電源
關閉