把腿张开老子臊烂你多p视频软件,free性国产高清videos,av在线亚洲男人的天堂,hdsexvideos中国少妇,俄罗斯真人性做爰

會員中心 |  會員注冊  |  兼職信息發(fā)布    瀏覽手機版!    超值滿減    人工翻譯    英語IT服務(wù) 貧困兒童資助 | 留言板 | 設(shè)為首頁 | 加入收藏  繁體中文
當前位置:首頁 > 機翻技術(shù) > 識別技術(shù) > 正文

局部加權(quán)線性回歸

發(fā)布時間: 2023-03-16 09:28:40   作者:etogether.net   來源: 網(wǎng)絡(luò)   瀏覽次數(shù):
摘要: 其中的一個方法是局部加權(quán)線性回歸,在該算法中,我們給待預(yù)測點附近的每個點賦予一定的權(quán)重,然后在這個子集上基于最小均方差...


線性回歸的一個問題是有可能出現(xiàn)欠擬合現(xiàn)象,因為它求的是具有最小均方誤差的無偏估計。顯而易見,如果模型欠擬合將不能取得最好的預(yù)測效果。所以有些方法允許在估計中引入一些偏差,從而降低預(yù)測的均方誤差。


其中的一個方法是局部加權(quán)線性回歸(Locally Weighted Linear Regression,LWLR)。在該算法中,我們給待預(yù)測點附近的每個點賦予一定的權(quán)重;然后在這個子集上基于最小均方差來進行普通的回歸。與kNN一樣,這種算法每次預(yù)測均需要事先選取出對應(yīng)的數(shù)據(jù)子集。

該算法解出回歸系數(shù)w的形式如下:


式1.png

其中w是一個矩陣,用來給每個數(shù)據(jù)點賦予權(quán)重。


LWLR使用“核”(與支持向量機中的核類似)來對附近的點賦予更高的權(quán)重。核的類型可以自由選擇,最常用的核就是高斯核,高斯核對應(yīng)的權(quán)重如下:


式2.png

這樣就構(gòu)建了一個只含對角元素的權(quán)重矩陣w,并且點x與x(i)越近,w(i,i)將會越大。上述公式包含一個需要用戶指定的參數(shù)k,它決定了對附近的點賦予多大的權(quán)重,這也是使用LWLR時唯一需要考慮的參數(shù),在圖1中可以看到參數(shù)k與權(quán)重的關(guān)系。


圖1.png


圖1 每個點的權(quán)重圖(假定我們正預(yù)測的點是x=0.5),最上面的圖是原始數(shù)據(jù)集,第二個圖顯示了當k=0.5時,大部分的數(shù)據(jù)都用于訓練回歸模型;而最下面的圖顯示當k=0.01時,僅有很少的局部點被用于訓練回歸模型


下面看看模型的效果,打開文本編輯器,將程序清單1-1的代碼添加到文件regression.py中。


程序清單1-1局部加權(quán)線性回歸函數(shù)


程序清單1-1.png


程序清單1-1中代碼的作用是,給定x空間中的任意一點,計算出對應(yīng)的預(yù)測值yHat。函數(shù)1wlr()的開頭與程序清單1-1類似,讀入數(shù)據(jù)并創(chuàng)建所需矩陣,之后創(chuàng)建對角權(quán)重矩陣weights。權(quán)重矩陣是一個方陣,階數(shù)等于樣本點個數(shù)。也就是說,該矩陣為每個樣本點初始化了一個權(quán)重。接著,算法將遍歷數(shù)據(jù)集,計算每個樣本點對應(yīng)的權(quán)重值:隨著樣本點與待預(yù)測點距離的遞增,權(quán)重將以指數(shù)級衰減。輸入?yún)?shù)k控制衰減的速度。與之前的函數(shù)stand-Regress()一樣,在權(quán)重矩陣計算完畢后,就可以得到對回歸系數(shù)ws的一個估計。



微信公眾號

[1] [2] [下一頁] 【歡迎大家踴躍評論】
我來說兩句
評論列表
已有 0 條評論(查看更多評論)