最新回答 / 暴躁的飛毛腿
模型的學(xué)習(xí)率η是根據(jù)經(jīng)驗(yàn)人為調(diào)整的,這個(gè)值會(huì)影響整個(gè)模型的學(xué)習(xí)效果,過(guò)小則會(huì)導(dǎo)致學(xué)習(xí)時(shí)間過(guò)長(zhǎng),過(guò)大則學(xué)習(xí)結(jié)果會(huì)出現(xiàn)震蕩。
最新回答 / zony
np.zeros()
最贊回答 / iioouu
```import numpy as npclass perceptron(object):? ? """? ? eta :學(xué)習(xí)率? ? n_iter: 權(quán)重向量的訓(xùn)練次數(shù)? ? w_: 神經(jīng)分叉權(quán)重向量? ? errors_: 用于記錄神經(jīng)元判斷出錯(cuò)次數(shù)? ? """? ? def _int_(self,eta=0.01,n_iter=10):? ? ? ? self.eta=eta;? ? ? ? self.n_iter=n_iter;? ? ? ? pass? ? def fit(self,x,y)...
2017-07-12
最贊回答 / 慕沐4211333
如果能分享一下源碼就好了
最新回答 / 慕桂英0578445
2乘N的矩陣吧,感覺(jué)是數(shù)字本身平方再求矩陣各數(shù)之和
最新回答 / SherlockZoom
感知機(jī)的學(xué)習(xí)是有監(jiān)督學(xué)習(xí),在訓(xùn)練過(guò)程是有正確的類別來(lái)指導(dǎo)學(xué)習(xí)的,也就是每輪訓(xùn)練給出分類結(jié)果之后,只需要和gold類別對(duì)比就可以知道是否分類正確。
2017-07-06
最贊回答 / 慕函數(shù)5970831
感知器其實(shí)就是一個(gè)函數(shù),其表示形式可以寫成<...code...>上式中,w是權(quán)重(weigh)向量,b叫做偏置(bias)本教程中的w0就是上面式子里的偏置b.dot(w,x)+b又可以寫成 dot(w,x)+b*1,這里令W=[b,w1,w2,...,wn] ? ,令X=[1,x1,x2,...,xn],所以初始化W的長(zhǎng)度為n+1,多出來(lái)的那個(gè)就是偏置啦希望能幫到你~
2017-07-03
最新回答 / 慕前端1296039
首先,我們所求的答案并不一定是最優(yōu)答案(最值),而通常是相對(duì)最優(yōu)答案(極值)。拿周志華機(jī)器學(xué)習(xí)中的例子來(lái)說(shuō),當(dāng)你站在山坡的某個(gè)位置時(shí),只看你當(dāng)前位置朝哪個(gè)方向走下山最快(即求導(dǎo)的過(guò)程),然后朝那個(gè)方向邁出一步(即更新權(quán)重的過(guò)程),之后繼續(xù)看朝哪個(gè)方向走下山最快,再繼續(xù)邁出一步(反復(fù)迭代)。也許,你會(huì)走到真正的山底(最值),也許你遇到某個(gè)坑就停下了(極值)。而針對(duì)極值,如果想要跳出,就涉及后面的優(yōu)化算法了。
2017-07-02
已采納回答 / 夏沫漓
將net_input 和?predict 方法 放到 fit方法外面
最贊回答 / Miss_Squirrel
<...code...>這部分代碼其實(shí)只是為了描繪出分隔兩類的那條分界線,減1只是為了擴(kuò)大坐標(biāo)軸范圍,點(diǎn)更居中一些,這樣畫出的圖會(huì)更好看。以上,謝謝!