這幾天開始學(xué)tensorflow,先來做一下學(xué)習(xí)記錄
一.神經(jīng)網(wǎng)絡(luò)解決問題步驟:
1.提取問題中實體的特征向量作為神經(jīng)網(wǎng)絡(luò)的輸入。也就是說要對數(shù)據(jù)集進行特征工程,然后知道每個樣本的特征維度,以此來定義輸入神經(jīng)元的個數(shù)。
2.定義神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu),并定義如何從神經(jīng)網(wǎng)絡(luò)的輸入得到輸出。也就是說定義輸入層,隱藏層以及輸出層。
3.通過訓(xùn)練數(shù)據(jù)來調(diào)整神經(jīng)網(wǎng)絡(luò)中的參數(shù)取值,這是訓(xùn)練神經(jīng)網(wǎng)絡(luò)的過程。一般來說要定義模型的損失函數(shù),以及參數(shù)優(yōu)化的方法,如交叉熵?fù)p失函數(shù)和梯度下降法調(diào)優(yōu)等。
4.利用訓(xùn)練好的模型預(yù)測未知的數(shù)據(jù)。也就是評估模型的好壞。
二.訓(xùn)練簡單的向前傳播神經(jīng)網(wǎng)絡(luò)
一下訓(xùn)練的神經(jīng)模型是最簡單的一類,而且是線性的(也就是說沒有用激活函數(shù)去線性話),沒有反向傳播的過程,只是簡單的說明神經(jīng)網(wǎng)絡(luò)工作的流程。
import tensorflow as tf #定義隱藏層參數(shù),每個w變量是一個tensor(可以當(dāng)成是n*m的數(shù)組,n表示上一層結(jié)點個數(shù),m表示本層結(jié)點個數(shù))表示上一層與本層的連接權(quán)重,這里先隨機定義權(quán)重 w1=tf.Variable(tf.random_normal([2,3],stddev=1)) w2=tf.Variable(tf.random_normal([3,1],stddev=1)) #定義存放輸入數(shù)據(jù)的地方,也就是x向量,這里shape為前一個傳入訓(xùn)練的樣本個數(shù),后面出入每個樣本的維度大小 x=tf.placeholder(tf.float32,shape=(None,2),name="input") #矩陣乘法 a=tf.matmul(x,w1) y=tf.matmul(a,w2) with tf.Session() as sess: #新版本好像不能用這個函數(shù)初始化所有變量了 init_op=tf.initialize_all_variables() sess.run(init_op) #feed_dict用于向y中的x傳入?yún)?shù),這里傳入3個,則y輸出為一個3*1的tensor print(sess.run(y,feed_dict={x:[[0.7,0.9],[1.0,1.5],[2.1,2.3]]}))
另外有需要云服務(wù)器可以了解下創(chuàng)新互聯(lián)scvps.cn,海內(nèi)外云服務(wù)器15元起步,三天無理由+7*72小時售后在線,公司持有idc許可證,提供“云服務(wù)器、裸金屬服務(wù)器、高防服務(wù)器、香港服務(wù)器、美國服務(wù)器、虛擬主機、免備案服務(wù)器”等云主機租用服務(wù)以及企業(yè)上云的綜合解決方案,具有“安全穩(wěn)定、簡單易用、服務(wù)可用性高、性價比高”等特點與優(yōu)勢,專為企業(yè)上云打造定制,能夠滿足用戶豐富、多元化的應(yīng)用場景需求。
名稱欄目:tensorflow入門之訓(xùn)練簡單的神經(jīng)網(wǎng)絡(luò)方法-創(chuàng)新互聯(lián)
分享網(wǎng)址:http://www.rwnh.cn/article48/cedihp.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供企業(yè)建站、虛擬主機、用戶體驗、網(wǎng)站導(dǎo)航、網(wǎng)站營銷、標(biāo)簽優(yōu)化
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)
猜你還喜歡下面的內(nèi)容