内射老阿姨1区2区3区4区_久久精品人人做人人爽电影蜜月_久久国产精品亚洲77777_99精品又大又爽又粗少妇毛片

python貝葉斯函數(shù)的簡單介紹

python 樸素貝葉斯怎樣獲得 概率結(jié)果

樸素:特征條件獨(dú)立 貝葉斯:基于貝葉斯定理 根據(jù)貝葉斯定理,對一個(gè)分類問題,給定樣本特征x,樣本屬于類別y的概率是 p(y|x)=p(x|y)p(y)p(x) 在這里,x是一個(gè)特征向量,將設(shè)x維度為M。

成都創(chuàng)新互聯(lián)從2013年開始,是專業(yè)互聯(lián)網(wǎng)技術(shù)服務(wù)公司,擁有項(xiàng)目網(wǎng)站建設(shè)、成都網(wǎng)站建設(shè)網(wǎng)站策劃,項(xiàng)目實(shí)施與項(xiàng)目整合能力。我們以讓每一個(gè)夢想脫穎而出為使命,1280元臨海做網(wǎng)站,已為上家服務(wù),為臨海各地企業(yè)和個(gè)人服務(wù),聯(lián)系電話:028-86922220

python scikit-learn 有什么算法

1,前言

很久不發(fā)文章,主要是Copy別人的總感覺有些不爽,所以整理些干貨,希望相互學(xué)習(xí)吧。不啰嗦,進(jìn)入主題吧,本文主要時(shí)說的為樸素貝葉斯分類算法。與邏輯回歸,決策樹一樣,是較為廣泛使用的有監(jiān)督分類算法,簡單且易于理解(號稱十大數(shù)據(jù)挖掘算法中最簡單的算法)。但其在處理文本分類,郵件分類,拼寫糾錯,中文分詞,統(tǒng)計(jì)機(jī)器翻譯等自然語言處理范疇較為廣泛使用,或許主要得益于基于概率理論,本文主要為小編從理論理解到實(shí)踐的過程記錄。

2,公式推斷

一些貝葉斯定理預(yù)習(xí)知識:我們知道當(dāng)事件A和事件B獨(dú)立時(shí),P(AB)=P(A)(B),但如果事件不獨(dú)立,則P(AB)=P(A)P(B|A)。為兩件事件同時(shí)發(fā)生時(shí)的一般公式,即無論事件A和B是否獨(dú)立。當(dāng)然也可以寫成P(AB)=P(B)P(A|B),表示若要兩件事同事發(fā)生,則需要事件B發(fā)生后,事件A也要發(fā)生。

由上可知,P(A)P(B|A)= P(B)P(A|B)

推出P(B|A)=

其中P(B)為先驗(yàn)概率,P(B|A)為B的后驗(yàn)概率,P(A|B)為A的后驗(yàn)概率(在這里也為似然值),P(A)為A的先驗(yàn)概率(在這也為歸一化常量)。

由上推導(dǎo)可知,其實(shí)樸素貝葉斯法就是在貝葉斯定理基礎(chǔ)上,加上特征條件獨(dú)立假設(shè),對特定輸入的X(樣本,包含N個(gè)特征),求出后驗(yàn)概率最大值時(shí)的類標(biāo)簽Y(如是否為垃圾郵件),理解起來比邏輯回歸要簡單多,有木有,這也是本算法優(yōu)點(diǎn)之一,當(dāng)然運(yùn)行起來由于得益于特征獨(dú)立假設(shè),運(yùn)行速度也更快。

. 參數(shù)估計(jì)

3,參數(shù)估計(jì)

由上面推斷出的公式,我們知道其實(shí)樸素貝葉斯方法的學(xué)習(xí)就是對概率P(Y=ck)和P(X(j)=x(j)|Y=ck)的估計(jì)。我們可以用極大似然估計(jì)法估計(jì)上述先驗(yàn)概率和條件概率。

其中I(x)為指示函數(shù),若括號內(nèi)成立,則計(jì)1,否則為0。李航的課本直接給出了用極大似然(MLE)估計(jì)求出的結(jié)果,并沒給推導(dǎo)過程,

我們知道,貝葉斯較為常見的問題為0概率問題。為此,需要平滑處理,主要使用拉普拉斯平滑,如下所示:

K是類的個(gè)數(shù),Sj是第j維特征的最大取值。實(shí)際上平滑因子λ=0即為最大似然估計(jì),這時(shí)會出現(xiàn)提到的0概率問題;而λ=1則避免了0概率問題,這種方法被稱為拉普拉斯平滑。

4,算法流程

5,樸素貝葉斯算法優(yōu)缺點(diǎn)

優(yōu)點(diǎn):樸素貝葉斯模型發(fā)源于古典數(shù)學(xué)理論,有著堅(jiān)實(shí)的數(shù)學(xué)基礎(chǔ),以及穩(wěn)定的分類效率

需調(diào)參較少,簡單高效,尤其是在文本分類/垃圾文本過濾/情感判別等自然語言處理有廣泛應(yīng)用。

在樣本量較少情況下,也能獲得較好效果,計(jì)算復(fù)雜度較小,即使在多分類問題。

無論是類別類輸入還是數(shù)值型輸入(默認(rèn)符合正態(tài)分布)都有相應(yīng)模型可以運(yùn)用。

缺點(diǎn):0概率問題,需要平滑處理,通常為拉普拉斯平滑,但加一平滑不一定為效果最好,

樸素貝葉斯有分布獨(dú)立的假設(shè)前提,生活中較少完全獨(dú)立,在屬性個(gè)數(shù)比較多或者屬性之間相關(guān)性較大時(shí),NBC模型的分類效率比不上決策樹模型。而在屬性相關(guān)性較小時(shí),NBC模型的性能最為良好。

模型注意點(diǎn):

1, 大家也知道,很多特征是連續(xù)數(shù)值型的,一般選擇使用樸素貝葉斯高斯模型。

2, 為避免0概率事件,記得平滑,簡單一點(diǎn)可以用『拉普拉斯平滑』。先處理處理特征,把相關(guān)特征去掉,

3, 樸素貝葉斯分類器一般可調(diào)參數(shù)比較少,需集中精力進(jìn)行數(shù)據(jù)的預(yù)處理等特征工程工作。

6,Scikit-learn三大樸素貝葉斯模型

Scikit-learn里面有3種不同類型的樸素貝葉斯(:

1, 高斯分布型模型:用于classification問題,假定屬性/特征是服從正態(tài)分布的,一般用在數(shù)值型特征。,

2, 多項(xiàng)式型模型:用于離散值模型里。比如文本分類問題里面我們提到過,我們不光看詞語是否在文本中出現(xiàn),也得看出現(xiàn)的次數(shù)。如果總詞數(shù)為n,出現(xiàn)詞數(shù)為m的話,說起來有點(diǎn)像擲骰子n次出現(xiàn)m次這個(gè)詞的場景。

3, 伯努利模型:這種情況下,就如提到的bag ofwords處理方式一樣,最后得到的特征只有0(沒出現(xiàn))和1(出現(xiàn)過)。

7. Scikit-learn算法實(shí)踐

小編通過實(shí)現(xiàn)樸素貝葉斯三種模型以及主要分類算法,對比發(fā)現(xiàn)跟SVM,隨機(jī)森林,融合算法相比,貝葉斯差距明顯,但其時(shí)間消耗要遠(yuǎn)低于上述算法,以下為主要算法主要評估指標(biāo))。

8. Python代碼

# -*-coding: utf-8 -*-

importtime

fromsklearn import metrics

fromsklearn.naive_bayes import GaussianNB

fromsklearn.naive_bayes import MultinomialNB

fromsklearn.naive_bayes import BernoulliNB

fromsklearn.neighbors import KNeighborsClassifier

fromsklearn.linear_model import LogisticRegression

fromsklearn.ensemble import RandomForestClassifier

fromsklearn import tree

fromsklearn.ensemble import GradientBoostingClassifier

fromsklearn.svm import SVC

importnumpy as np

importurllib

# urlwith dataset

url ="-learning-databases/pima-indians-diabetes/pima-indians-diabetes.data"

#download the file

raw_data= urllib.request.urlopen(url)

#load the CSV file as a numpy matrix

dataset= np.loadtxt(raw_data, delimiter=",")

#separate the data from the target attributes

X =dataset[:,0:7]

#X=preprocessing.MinMaxScaler().fit_transform(x)

#print(X)

y =dataset[:,8]

print("\n調(diào)用scikit的樸素貝葉斯算法包GaussianNB ")

model= GaussianNB()

start_time= time.time()

model.fit(X,y)

print('training took %fs!' % (time.time() - start_time))

print(model)

expected= y

predicted= model.predict(X)

print(metrics.classification_report(expected,predicted))

print(metrics.confusion_matrix(expected,predicted))

print("\n調(diào)用scikit的樸素貝葉斯算法包MultinomialNB ")

model= MultinomialNB(alpha=1)

start_time= time.time()

model.fit(X,y)

print('training took %fs!' % (time.time() - start_time))

print(model)

expected= y

predicted= model.predict(X)

print(metrics.classification_report(expected,predicted))

print(metrics.confusion_matrix(expected,predicted))

print("\n調(diào)用scikit的樸素貝葉斯算法包BernoulliNB ")

model= BernoulliNB(alpha=1,binarize=0.0)

start_time= time.time()

model.fit(X,y)

print('training took %fs!' % (time.time() - start_time))

print(model)

expected= y

predicted= model.predict(X)

print(metrics.classification_report(expected,predicted))

print(metrics.confusion_matrix(expected,predicted))

print("\n調(diào)用scikit的KNeighborsClassifier ")

model= KNeighborsClassifier()

start_time= time.time()

model.fit(X,y)

print('training took %fs!' % (time.time() - start_time))

print(model)

expected= y

predicted= model.predict(X)

print(metrics.classification_report(expected,predicted))

print(metrics.confusion_matrix(expected,predicted))

print("\n調(diào)用scikit的LogisticRegression(penalty='l2')?")

model= LogisticRegression(penalty='l2')

start_time= time.time()

model.fit(X,y)

print('training took %fs!' % (time.time() - start_time))

print(model)

expected= y

predicted= model.predict(X)

print(metrics.classification_report(expected,predicted))

print(metrics.confusion_matrix(expected,predicted))

print("\n調(diào)用scikit的RandomForestClassifier(n_estimators=8)? ")

model= RandomForestClassifier(n_estimators=8)

start_time= time.time()

model.fit(X,y)

print('training took %fs!' % (time.time() - start_time))

print(model)

expected= y

predicted= model.predict(X)

print(metrics.classification_report(expected,predicted))

print(metrics.confusion_matrix(expected,predicted))

print("\n調(diào)用scikit的tree.DecisionTreeClassifier()?")

model= tree.DecisionTreeClassifier()

start_time= time.time()

model.fit(X,y)

print('training took %fs!' % (time.time() - start_time))

print(model)

expected= y

predicted= model.predict(X)

print(metrics.classification_report(expected,predicted))

print(metrics.confusion_matrix(expected,predicted))

print("\n調(diào)用scikit的GradientBoostingClassifier(n_estimators=200) ")

model= GradientBoostingClassifier(n_estimators=200)

start_time= time.time()

model.fit(X,y)

print('training took %fs!' % (time.time() - start_time))

print(model)

expected= y

predicted= model.predict(X)

print(metrics.classification_report(expected,predicted))

print(metrics.confusion_matrix(expected,predicted))

print("\n調(diào)用scikit的SVC(kernel='rbf', probability=True) ")

model= SVC(kernel='rbf', probability=True)

start_time= time.time()

model.fit(X,y)

print('training took %fs!' % (time.time() - start_time))

print(model)

expected= y

predicted= model.predict(X)

print(metrics.classification_report(expected,predicted))

print(metrics.confusion_matrix(expected,predicted))

"""

# 預(yù)處理代碼集錦

importpandas as pd

df=pd.DataFrame(dataset)

print(df.head(3))

print(df.describe())##描述性分析

print(df.corr())##各特征相關(guān)性分析

##計(jì)算每行每列數(shù)據(jù)的缺失值個(gè)數(shù)

defnum_missing(x):

return sum(x.isnull())

print("Missing values per column:")

print(df.apply(num_missing, axis=0)) #axis=0代表函數(shù)應(yīng)用于每一列

print("\nMissing values per row:")

print(df.apply(num_missing, axis=1).head()) #axis=1代表函數(shù)應(yīng)用于每一行"""

如何在Python中實(shí)現(xiàn)這五類強(qiáng)大的概率分布

R編程語言已經(jīng)成為統(tǒng)計(jì)分析中的事實(shí)標(biāo)準(zhǔn)。但在這篇文章中,我將告訴你在Python中實(shí)現(xiàn)統(tǒng)計(jì)學(xué)概念會是如此容易。我要使用Python實(shí)現(xiàn)一些離散和連續(xù)的概率分布。雖然我不會討論這些分布的數(shù)學(xué)細(xì)節(jié),但我會以鏈接的方式給你一些學(xué)習(xí)這些統(tǒng)計(jì)學(xué)概念的好資料。在討論這些概率分布之前,我想簡單說說什么是隨機(jī)變量(random variable)。隨機(jī)變量是對一次試驗(yàn)結(jié)果的量化。

舉個(gè)例子,一個(gè)表示拋硬幣結(jié)果的隨機(jī)變量可以表示成

Python

1

2

X = {1 如果正面朝上,

2 如果反面朝上}

隨機(jī)變量是一個(gè)變量,它取值于一組可能的值(離散或連續(xù)的),并服從某種隨機(jī)性。隨機(jī)變量的每個(gè)可能取值的都與一個(gè)概率相關(guān)聯(lián)。隨機(jī)變量的所有可能取值和與之相關(guān)聯(lián)的概率就被稱為概率分布(probability distributrion)。

我鼓勵大家仔細(xì)研究一下scipy.stats模塊。

概率分布有兩種類型:離散(discrete)概率分布和連續(xù)(continuous)概率分布。

離散概率分布也稱為概率質(zhì)量函數(shù)(probability mass function)。離散概率分布的例子有伯努利分布(Bernoulli distribution)、二項(xiàng)分布(binomial distribution)、泊松分布(Poisson distribution)和幾何分布(geometric distribution)等。

連續(xù)概率分布也稱為概率密度函數(shù)(probability density function),它們是具有連續(xù)取值(例如一條實(shí)線上的值)的函數(shù)。正態(tài)分布(normal distribution)、指數(shù)分布(exponential distribution)和β分布(beta distribution)等都屬于連續(xù)概率分布。

若想了解更多關(guān)于離散和連續(xù)隨機(jī)變量的知識,你可以觀看可汗學(xué)院關(guān)于概率分布的視頻。

二項(xiàng)分布(Binomial Distribution)

服從二項(xiàng)分布的隨機(jī)變量X表示在n個(gè)獨(dú)立的是/非試驗(yàn)中成功的次數(shù),其中每次試驗(yàn)的成功概率為p。

E(X) =?np, Var(X) =?np(1?p)

如果你想知道每個(gè)函數(shù)的原理,你可以在IPython筆記本中使用help file命令。?E(X)表示分布的期望或平均值。

鍵入stats.binom?了解二項(xiàng)分布函數(shù)binom的更多信息。

二項(xiàng)分布的例子:拋擲10次硬幣,恰好兩次正面朝上的概率是多少?

假設(shè)在該試驗(yàn)中正面朝上的概率為0.3,這意味著平均來說,我們可以期待有3次是硬幣正面朝上的。我定義擲硬幣的所有可能結(jié)果為k = np.arange(0,11):你可能觀測到0次正面朝上、1次正面朝上,一直到10次正面朝上。我使用stats.binom.pmf計(jì)算每次觀測的概率質(zhì)量函數(shù)。它返回一個(gè)含有11個(gè)元素的列表(list),這些元素表示與每個(gè)觀測相關(guān)聯(lián)的概率值。

您可以使用.rvs函數(shù)模擬一個(gè)二項(xiàng)隨機(jī)變量,其中參數(shù)size指定你要進(jìn)行模擬的次數(shù)。我讓Python返回10000個(gè)參數(shù)為n和p的二項(xiàng)式隨機(jī)變量。我將輸出這些隨機(jī)變量的平均值和標(biāo)準(zhǔn)差,然后畫出所有的隨機(jī)變量的直方圖。

泊松分布(Poisson Distribution)

一個(gè)服從泊松分布的隨機(jī)變量X,表示在具有比率參數(shù)(rate parameter)λ的一段固定時(shí)間間隔內(nèi),事件發(fā)生的次數(shù)。參數(shù)λ告訴你該事件發(fā)生的比率。隨機(jī)變量X的平均值和方差都是λ。

E(X) =?λ, Var(X) =?λ

泊松分布的例子:已知某路口發(fā)生事故的比率是每天2次,那么在此處一天內(nèi)發(fā)生4次事故的概率是多少?

讓我們考慮這個(gè)平均每天發(fā)生2起事故的例子。泊松分布的實(shí)現(xiàn)和二項(xiàng)分布有些類似,在泊松分布中我們需要指定比率參數(shù)。泊松分布的輸出是一個(gè)數(shù)列,包含了發(fā)生0次、1次、2次,直到10次事故的概率。我用結(jié)果生成了以下圖片。

你可以看到,事故次數(shù)的峰值在均值附近。平均來說,你可以預(yù)計(jì)事件發(fā)生的次數(shù)為λ。嘗試不同的λ和n的值,然后看看分布的形狀是怎么變化的。

現(xiàn)在我來模擬1000個(gè)服從泊松分布的隨機(jī)變量。

正態(tài)分布(Normal Distribution)

正態(tài)分布是一種連續(xù)分布,其函數(shù)可以在實(shí)線上的任何地方取值。正態(tài)分布由兩個(gè)參數(shù)描述:分布的平均值μ和方差σ2?。

E(X) =?μ, Var(X) =?σ2

正態(tài)分布的取值可以從負(fù)無窮到正無窮。你可以注意到,我用stats.norm.pdf得到正態(tài)分布的概率密度函數(shù)。

β分布(Beta Distribution)

β分布是一個(gè)取值在?[0, 1]?之間的連續(xù)分布,它由兩個(gè)形態(tài)參數(shù)α和β的取值所刻畫。

β分布的形狀取決于α和β的值。貝葉斯分析中大量使用了β分布。

當(dāng)你將參數(shù)α和β都設(shè)置為1時(shí),該分布又被稱為均勻分布(uniform distribution)。嘗試不同的α和β取值,看看分布的形狀是如何變化的。

指數(shù)分布(Exponential Distribution)

指數(shù)分布是一種連續(xù)概率分布,用于表示獨(dú)立隨機(jī)事件發(fā)生的時(shí)間間隔。比如旅客進(jìn)入機(jī)場的時(shí)間間隔、打進(jìn)客服中心電話的時(shí)間間隔、中文維基百科新條目出現(xiàn)的時(shí)間間隔等等。

我將參數(shù)λ設(shè)置為0.5,并將x的取值范圍設(shè)置為 $[0, 15]$ 。

接著,我在指數(shù)分布下模擬1000個(gè)隨機(jī)變量。scale參數(shù)表示λ的倒數(shù)。函數(shù)np.std中,參數(shù)ddof等于標(biāo)準(zhǔn)偏差除以 $n-1$ 的值。

結(jié)語(Conclusion)

概率分布就像蓋房子的藍(lán)圖,而隨機(jī)變量是對試驗(yàn)事件的總結(jié)。我建議你去看看哈佛大學(xué)數(shù)據(jù)科學(xué)課程的講座,Joe Blitzstein教授給了一份摘要,包含了你所需要了解的關(guān)于統(tǒng)計(jì)模型和分布的全部。

樸素貝葉斯分類算法的sklearn實(shí)現(xiàn)

1、背景

《機(jī)器學(xué)習(xí)實(shí)戰(zhàn)》當(dāng)中,用python根據(jù)貝葉斯公式實(shí)現(xiàn)了基本的分類算法?,F(xiàn)在來看看用sklearn,如何實(shí)現(xiàn)。還拿之前的例子,對帖子的分類。數(shù)據(jù)如下:

補(bǔ)充:題目的值左邊是幾個(gè)人的評論,右邊是評論屬于侮辱類(1)、正常類(0),需要進(jìn)行文本分類,且再有新的文本過來時(shí)能自動劃分至0或1。

2、分類

(1)算法的準(zhǔn)備

通過查看sklearn的訓(xùn)練模型函數(shù),fit(X, Y),發(fā)現(xiàn)只需要準(zhǔn)備兩個(gè)參數(shù)。一個(gè)是數(shù)據(jù)的矩陣,另一個(gè)是數(shù)據(jù)的分類數(shù)組。首先就是將以上的文本轉(zhuǎn)化成矩陣。

在前一章其實(shí)已經(jīng)講解過如何將文本轉(zhuǎn)化成矩陣。這里將示意的再補(bǔ)充下。

a.首先選取所有的單詞,形成列,也可理解為屬性。例如:

b.其次將遍歷每個(gè)文本,填滿上述列的值。文本出現(xiàn)過列的次,填一。沒有出現(xiàn)過填0。比如第一句就是:my dog has flea problems help please,可表示為:

同理所有的文本都可如此表示,所以就形成了一個(gè)數(shù)字的矩陣。

(2)beyes模型的選擇

在完成數(shù)據(jù)的準(zhǔn)備以后,就可以直接調(diào)用sklearn的模型和函數(shù)完成模型的訓(xùn)練啦。但在beyes模型的選擇的時(shí)候發(fā)現(xiàn),beyes下有多個(gè)模型可選擇,所以這個(gè)會讓人糾結(jié)。接下來共同了解下這些模型:

a.高斯模型(GaussianNB)

高斯模型是對于每個(gè)屬性的值是連續(xù)的,且服從高斯分布時(shí)可使用:

比如人的身高,比如花的高度等等。當(dāng)然你也可將這些數(shù)據(jù)離散化,比如按等距劃分、等頻劃分成離散的值,但可能效果都沒有直接用高斯模型來計(jì)算的好。

用法:class sklearn.naive_bayes.GaussianNB

參數(shù):無

b.多項(xiàng)式模型(MultinominalNB)

如果大部分是多元離散值,則采用多項(xiàng)式模型要好些。多項(xiàng)式模型,通常就是構(gòu)造參數(shù)向量,然后通過極大似然估計(jì)來尋求參數(shù)的最有值。

這里只簡單的略列一些公式,具體可查詢更多資料。從這個(gè)計(jì)算過程中可得出,這里引入啦一個(gè)平滑先驗(yàn)值alpha,這個(gè)值在模型訓(xùn)練的時(shí)候也會用到。通常alpha0,可引入不在訓(xùn)練集的特征,尤其當(dāng)alpha=1,成為拉普拉絲平滑。具體alpha取值對模型的影響可附件的圖。

用法:class sklearn.naive_bayes.MultinomialNB(alpha=1.0,fit_prior=True,class_prior=None)?

參數(shù):

alpha:浮點(diǎn)數(shù),就是上述說的引入平滑的值;

fit_prior:bool值,如果為Ture,則不用去學(xué)習(xí)P(y=ck),以均勻分布替代,否則則去學(xué)習(xí)P(y=ck)(不懂)

class_prior:一個(gè)數(shù)組。它指定了每個(gè)分類的先驗(yàn)概率P(y=c1),P(y=c2)…..,若指定了該參數(shù)?

則每個(gè)分類的先驗(yàn)概率無需學(xué)習(xí) (不懂)

c.伯努利模型(BernoulliNB)

如果特征值為二元離散值或是稀疏的多元離散值,則可采用伯努利模型。

公式:class sklearn.naive_bayes.BernoulliNB(alpha=1.0,binarize=0.0,fit_prior=Ture,?

class_prior=None)?

參數(shù):

binarize:一個(gè)浮點(diǎn)數(shù)或者None,如果為浮點(diǎn)數(shù)則以該數(shù)值為界,特征值大于它的取1,小于的為0 。如果為None,假定原始數(shù)據(jù)已經(jīng)二值化?

其它參數(shù)同上。

通過以上的模型對比和分析,由于文本分析轉(zhuǎn)化后是很多二項(xiàng)取值的稀疏矩陣,因此選取伯努利模型效果會更佳。

補(bǔ)充:alpha、binarize值對模型效果的影響

請問你會用python實(shí)現(xiàn)貝葉斯網(wǎng)絡(luò)了嗎

Bayesian-belief-networks允許你用純Python創(chuàng)建貝葉斯信念網(wǎng)絡(luò)和其他圖模型,目前支持四種不同的推理方法。

支持的圖模型

離散變量的貝葉斯信念網(wǎng)絡(luò)

有著高斯分布的連續(xù)變量的高斯貝葉斯網(wǎng)絡(luò)

推理引擎

消息傳遞和聯(lián)合樹算法(Junction Tree Algorithm)

和積算法(The Sum Product Algorithm)

MCMC采樣的近似推理

高斯貝葉斯網(wǎng)絡(luò)中得Exact Propagation

本文名稱:python貝葉斯函數(shù)的簡單介紹
轉(zhuǎn)載源于:http://www.rwnh.cn/article16/hiijdg.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供虛擬主機(jī)移動網(wǎng)站建設(shè)、手機(jī)網(wǎng)站建設(shè)、搜索引擎優(yōu)化、App設(shè)計(jì)、面包屑導(dǎo)航

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來源: 創(chuàng)新互聯(lián)

h5響應(yīng)式網(wǎng)站建設(shè)
廊坊市| 凌海市| 双鸭山市| 万山特区| 那坡县| 左权县| 宝坻区| 贵德县| 林西县| 吉安县| 二连浩特市| 弥勒县| 东方市| 扎鲁特旗| 大姚县| 拉孜县| 临汾市| 濮阳县| 恩平市| 休宁县| 鸡泽县| 鄂尔多斯市| 隆尧县| 婺源县| 和林格尔县| 绥宁县| 工布江达县| 台山市| 轮台县| 鲁甸县| 饶阳县| 凤庆县| 罗江县| 土默特右旗| 双柏县| 大方县| 巫溪县| 来宾市| 五大连池市| 宁波市| 秦安县|