内射老阿姨1区2区3区4区_久久精品人人做人人爽电影蜜月_久久国产精品亚洲77777_99精品又大又爽又粗少妇毛片

怎么在python中使用sklearn實現(xiàn)線性回歸-創(chuàng)新互聯(lián)

本篇文章給大家分享的是有關(guān)怎么在python中使用sklearn實現(xiàn)線性回歸,小編覺得挺實用的,因此分享給大家學(xué)習(xí),希望大家閱讀完這篇文章后可以有所收獲,話不多說,跟著小編一起來看看吧。

創(chuàng)新互聯(lián)-專業(yè)網(wǎng)站定制、快速模板網(wǎng)站建設(shè)、高性價比葉城網(wǎng)站開發(fā)、企業(yè)建站全套包干低至880元,成熟完善的模板庫,直接使用。一站式葉城網(wǎng)站制作公司更省心,省錢,快速模板網(wǎng)站建設(shè)找我們,業(yè)務(wù)覆蓋葉城地區(qū)。費用合理售后完善,十多年實體公司更值得信賴。python有哪些常用庫

python常用的庫:1.requesuts;2.scrapy;3.pillow;4.twisted;5.numpy;6.matplotlib;7.pygama;8.ipyhton等。

使用一階線性方程預(yù)測波士頓房價

載入的數(shù)據(jù)是隨sklearn一起發(fā)布的,來自boston 1993年之前收集的506個房屋的數(shù)據(jù)和價格。load_boston()用于載入數(shù)據(jù)。

from sklearn.datasets import load_boston
from sklearn.model_selection import train_test_split
import time
from sklearn.linear_model import LinearRegression


boston = load_boston()

X = boston.data
y = boston.target

print("X.shape:{}. y.shape:{}".format(X.shape, y.shape))
print('boston.feature_name:{}'.format(boston.feature_names))

X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=3)

model = LinearRegression()

start = time.clock()
model.fit(X_train, y_train)

train_score = model.score(X_train, y_train)
cv_score = model.score(X_test, y_test)

print('time used:{0:.6f}; train_score:{1:.6f}, sv_score:{2:.6f}'.format((time.clock()-start),
                                    train_score, cv_score))

輸出內(nèi)容為:

X.shape:(506, 13). y.shape:(506,)
boston.feature_name:['CRIM' 'ZN' 'INDUS' 'CHAS' 'NOX' 'RM' 'AGE' 'DIS' 'RAD' 'TAX' 'PTRATIO'
 'B' 'LSTAT']
time used:0.012403; train_score:0.723941, sv_score:0.794958

可以看到測試集上準確率并不高,應(yīng)該是欠擬合。

使用多項式做線性回歸

上面的例子是欠擬合的,說明模型太簡單,無法擬合數(shù)據(jù)的情況。現(xiàn)在增加模型復(fù)雜度,引入多項式。

打個比方,如果原來的特征是[a, b]兩個特征,

在degree為2的情況下, 多項式特征變?yōu)閇1, a, b, a^2, ab, b^2]。degree為其它值的情況依次類推。

多項式特征相當于增加了數(shù)據(jù)和模型的復(fù)雜性,能夠更好的擬合。

下面的代碼使用Pipeline把多項式特征和線性回歸特征連起來,最終測試degree在1、2、3的情況下的得分。

from sklearn.datasets import load_boston
from sklearn.model_selection import train_test_split
import time
from sklearn.linear_model import LinearRegression
from sklearn.preprocessing import PolynomialFeatures
from sklearn.pipeline import Pipeline

def polynomial_model(degree=1):
  polynomial_features = PolynomialFeatures(degree=degree, include_bias=False)

  linear_regression = LinearRegression(normalize=True)
  pipeline = Pipeline([('polynomial_features', polynomial_features),
             ('linear_regression', linear_regression)])
  return pipeline

boston = load_boston()
X = boston.data
y = boston.target
print("X.shape:{}. y.shape:{}".format(X.shape, y.shape))
print('boston.feature_name:{}'.format(boston.feature_names))

X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=3)

for i in range(1,4):
  print( 'degree:{}'.format( i ) )
  model = polynomial_model(degree=i)

  start = time.clock()
  model.fit(X_train, y_train)

  train_score = model.score(X_train, y_train)
  cv_score = model.score(X_test, y_test)

  print('time used:{0:.6f}; train_score:{1:.6f}, sv_score:{2:.6f}'.format((time.clock()-start),
                                    train_score, cv_score))

輸出結(jié)果為:

X.shape:(506, 13). y.shape:(506,)
boston.feature_name:['CRIM' 'ZN' 'INDUS' 'CHAS' 'NOX' 'RM' 'AGE' 'DIS' 'RAD' 'TAX' 'PTRATIO'
 'B' 'LSTAT']
degree:1
time used:0.003576; train_score:0.723941, sv_score:0.794958
degree:2
time used:0.030123; train_score:0.930547, sv_score:0.860465
degree:3
time used:0.137346; train_score:1.000000, sv_score:-104.429619

可以看到degree為1和上面不使用多項式是一樣的。degree為3在訓(xùn)練集上的得分為1,在測試集上得分是負數(shù),明顯過擬合了。

所以最終應(yīng)該選擇degree為2的模型。

二階多項式比一階多項式好的多,但是測試集和訓(xùn)練集上的得分仍有不少差距,這可能是數(shù)據(jù)不夠的原因,需要更多的訊據(jù)才能進一步提高模型的準確度。

正規(guī)方程解法和梯度下降的比較

除了梯度下降法來逼近最優(yōu)解,也可以使用正規(guī)的方程解法直接計算出最終的解來。

根據(jù)吳恩達的課程,線性回歸最優(yōu)解為:

theta = (X^T * X)^-1 * X^T * y

其實兩種方法各有優(yōu)缺點:

梯度下降法:

缺點:需要選擇學(xué)習(xí)率,需要多次迭代

優(yōu)點:特征值很多(1萬以上)時仍然能以不錯的速度工作

正規(guī)方程解法:

優(yōu)點:不需要設(shè)置學(xué)習(xí)率,不需要多次迭代

缺點:需要計算X的轉(zhuǎn)置和逆,復(fù)雜度O3;特征值很多(1萬以上)時特變慢

在分類等非線性計算中,正規(guī)方程解法并不適用,所以梯度下降法適用范圍更廣。

以上就是怎么在python中使用sklearn實現(xiàn)線性回歸,小編相信有部分知識點可能是我們?nèi)粘9ぷ鲿姷交蛴玫降?。希望你能通過這篇文章學(xué)到更多知識。更多詳情敬請關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道。

名稱欄目:怎么在python中使用sklearn實現(xiàn)線性回歸-創(chuàng)新互聯(lián)
當前鏈接:http://www.rwnh.cn/article46/pceeg.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供微信小程序標簽優(yōu)化、企業(yè)網(wǎng)站制作、企業(yè)建站虛擬主機、App設(shè)計

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)

成都定制網(wǎng)站建設(shè)
兴山县| 镇江市| 盐边县| 丽水市| 伊宁市| 上犹县| 游戏| 通河县| 灯塔市| 连平县| 家居| 松阳县| 高清| 察雅县| 铁岭县| 新余市| 黄梅县| 社旗县| 台东县| 高唐县| 宜阳县| 柘荣县| 尚志市| 长丰县| 富裕县| 齐齐哈尔市| 通渭县| 甘德县| 韩城市| 云霄县| 丘北县| 台湾省| 怀安县| 疏勒县| 江达县| 合阳县| 道真| 扎囊县| 湘阴县| 曲阜市| 富民县|