中文字幕日韩精品一区二区免费_精品一区二区三区国产精品无卡在_国精品无码专区一区二区三区_国产αv三级中文在线

如何在Tensorflow中使用Tensorboard實(shí)現(xiàn)可視化-創(chuàng)新互聯(lián)

這篇文章將為大家詳細(xì)講解有關(guān)如何在Tensorflow中使用Tensorboard實(shí)現(xiàn)可視化,文章內(nèi)容質(zhì)量較高,因此小編分享給大家做個(gè)參考,希望大家閱讀完這篇文章后對(duì)相關(guān)知識(shí)有一定的了解。

為祿豐等地區(qū)用戶(hù)提供了全套網(wǎng)頁(yè)設(shè)計(jì)制作服務(wù),及祿豐網(wǎng)站建設(shè)行業(yè)解決方案。主營(yíng)業(yè)務(wù)為網(wǎng)站設(shè)計(jì)、網(wǎng)站建設(shè)、祿豐網(wǎng)站設(shè)計(jì),以傳統(tǒng)方式定制建設(shè)網(wǎng)站,并提供域名空間備案等一條龍服務(wù),秉承以專(zhuān)業(yè)、用心的態(tài)度為用戶(hù)提供真誠(chéng)的服務(wù)。我們深信只要達(dá)到每一位用戶(hù)的要求,就會(huì)得到認(rèn)可,從而選擇與我們長(zhǎng)期合作。這樣,我們也可以走得更遠(yuǎn)!

Tensorboard:

如何更直觀的觀察數(shù)據(jù)在神經(jīng)網(wǎng)絡(luò)中的變化,或是已經(jīng)構(gòu)建的神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)。上一篇文章說(shuō)到,可以使用matplotlib第三方可視化,來(lái)進(jìn)行一定程度上的可視化。然而Tensorflow也自帶了可視化模塊Tensorboard,并且能更直觀的看見(jiàn)整個(gè)神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)。

如何在Tensorflow中使用Tensorboard實(shí)現(xiàn)可視化

上面的結(jié)構(gòu)圖甚至可以展開(kāi),變成:

如何在Tensorflow中使用Tensorboard實(shí)現(xiàn)可視化

使用:

結(jié)構(gòu)圖:

with tensorflow .name_scope(layer_name):

直接使用以上代碼生成一個(gè)帶可展開(kāi)符號(hào)的一個(gè)域,并且支持嵌套操作:

with tf.name_scope(layer_name): 
  with tf.name_scope('weights'):

節(jié)點(diǎn)一般是變量或常量,需要加一個(gè)“name=‘'”參數(shù),才會(huì)展示和命名,如:

with tf.name_scope('weights'): 
  Weights = tf.Variable(tf.random_normal([in_size,out_size]))

如何在Tensorflow中使用Tensorboard實(shí)現(xiàn)可視化

結(jié)構(gòu)圖符號(hào)及意義:

如何在Tensorflow中使用Tensorboard實(shí)現(xiàn)可視化

變量:

變量則可使用Tensorflow.histogram_summary()方法:

tf.histogram_summary(layer_name+"/weights",Weights) #name命名,Weights賦值

如何在Tensorflow中使用Tensorboard實(shí)現(xiàn)可視化

常量:

常量則可使用Tensorflow.scalar_summary()方法:

tf.scalar_summary('loss',loss) #命名和賦值

如何在Tensorflow中使用Tensorboard實(shí)現(xiàn)可視化

展示:

最后需要整合和存儲(chǔ)SummaryWriter:

#合并到Summary中 
merged = tf.merge_all_summaries() 
#選定可視化存儲(chǔ)目錄 
writer = tf.train.SummaryWriter("/目錄",sess.graph)

merged也是需要run的,因此還需要:

result = sess.run(merged) #merged也是需要run的 
  writer.add_summary(result,i)

執(zhí)行:

運(yùn)行后,會(huì)在相應(yīng)的目錄里生成一個(gè)文件,執(zhí)行:

tensorboard --logdir="/目錄"

會(huì)給出一段網(wǎng)址:

如何在Tensorflow中使用Tensorboard實(shí)現(xiàn)可視化

瀏覽器中打開(kāi)這個(gè)網(wǎng)址即可,因?yàn)橛屑嫒輪?wèn)題,firefox并不能很好的兼容,建議使用Chrome。

如何在Tensorflow中使用Tensorboard實(shí)現(xiàn)可視化

常量在Event中,結(jié)構(gòu)圖在Graphs中,變量在最后兩個(gè)Tag中。

附項(xiàng)目代碼:

項(xiàng)目承接自上一篇文章(已更新至最新Tensorflow版本API r1.2):

import tensorflow as tf  
import numpy as np  
  
def add_layer(inputs,in_size,out_size,n_layer,activation_function=None): #activation_function=None線性函數(shù)  
  layer_name="layer%s" % n_layer  
  with tf.name_scope(layer_name):  
    with tf.name_scope('weights'):  
      Weights = tf.Variable(tf.random_normal([in_size,out_size])) #Weight中都是隨機(jī)變量  
      tf.summary.histogram(layer_name+"/weights",Weights) #可視化觀看變量  
    with tf.name_scope('biases'):  
      biases = tf.Variable(tf.zeros([1,out_size])+0.1) #biases推薦初始值不為0  
      tf.summary.histogram(layer_name+"/biases",biases) #可視化觀看變量  
    with tf.name_scope('Wx_plus_b'):  
      Wx_plus_b = tf.matmul(inputs,Weights)+biases #inputs*Weight+biases  
      tf.summary.histogram(layer_name+"/Wx_plus_b",Wx_plus_b) #可視化觀看變量  
    if activation_function is None:  
      outputs = Wx_plus_b  
    else:  
      outputs = activation_function(Wx_plus_b)  
    tf.summary.histogram(layer_name+"/outputs",outputs) #可視化觀看變量  
    return outputs  
  
#創(chuàng)建數(shù)據(jù)x_data,y_data  
x_data = np.linspace(-1,1,300)[:,np.newaxis] #[-1,1]區(qū)間,300個(gè)單位,np.newaxis增加維度  
noise = np.random.normal(0,0.05,x_data.shape) #噪點(diǎn)  
y_data = np.square(x_data)-0.5+noise  
  
with tf.name_scope('inputs'): #結(jié)構(gòu)化  
  xs = tf.placeholder(tf.float32,[None,1],name='x_input')  
  ys = tf.placeholder(tf.float32,[None,1],name='y_input')  
  
#三層神經(jīng),輸入層(1個(gè)神經(jīng)元),隱藏層(10神經(jīng)元),輸出層(1個(gè)神經(jīng)元)  
l1 = add_layer(xs,1,10,n_layer=1,activation_function=tf.nn.relu) #隱藏層  
prediction = add_layer(l1,10,1,n_layer=2,activation_function=None) #輸出層  
  
#predition值與y_data差別  
with tf.name_scope('loss'):  
  loss = tf.reduce_mean(tf.reduce_sum(tf.square(ys-prediction),reduction_indices=[1])) #square()平方,sum()求和,mean()平均值  
  tf.summary.scalar('loss',loss) #可視化觀看常量  
with tf.name_scope('train'):  
  train_step = tf.train.GradientDescentOptimizer(0.1).minimize(loss) #0.1學(xué)習(xí)效率,minimize(loss)減小loss誤差  
  
init = tf.initialize_all_variables()  
sess = tf.Session()  
#合并到Summary中  
merged = tf.summary.merge_all()  
#選定可視化存儲(chǔ)目錄  
writer = tf.summary.FileWriter("Desktop/",sess.graph)  
sess.run(init) #先執(zhí)行init  
  
#訓(xùn)練1k次  
for i in range(1000):  
  sess.run(train_step,feed_dict={xs:x_data,ys:y_data})  
  if i%50==0:  
    result = sess.run(merged,feed_dict={xs:x_data,ys:y_data}) #merged也是需要run的  
    writer.add_summary(result,i) #result是summary類(lèi)型的,需要放入writer中,i步數(shù)(x軸)

關(guān)于如何在Tensorflow中使用Tensorboard實(shí)現(xiàn)可視化就分享到這里了,希望以上內(nèi)容可以對(duì)大家有一定的幫助,可以學(xué)到更多知識(shí)。如果覺(jué)得文章不錯(cuò),可以把它分享出去讓更多的人看到。

另外有需要云服務(wù)器可以了解下創(chuàng)新互聯(lián)scvps.cn,海內(nèi)外云服務(wù)器15元起步,三天無(wú)理由+7*72小時(shí)售后在線,公司持有idc許可證,提供“云服務(wù)器、裸金屬服務(wù)器、高防服務(wù)器、香港服務(wù)器、美國(guó)服務(wù)器、虛擬主機(jī)、免備案服務(wù)器”等云主機(jī)租用服務(wù)以及企業(yè)上云的綜合解決方案,具有“安全穩(wěn)定、簡(jiǎn)單易用、服務(wù)可用性高、性?xún)r(jià)比高”等特點(diǎn)與優(yōu)勢(shì),專(zhuān)為企業(yè)上云打造定制,能夠滿(mǎn)足用戶(hù)豐富、多元化的應(yīng)用場(chǎng)景需求。

當(dāng)前題目:如何在Tensorflow中使用Tensorboard實(shí)現(xiàn)可視化-創(chuàng)新互聯(lián)
網(wǎng)址分享:http://www.rwnh.cn/article40/coiheo.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供網(wǎng)站制作、外貿(mào)建站、外貿(mào)網(wǎng)站建設(shè)、網(wǎng)站收錄、企業(yè)建站建站公司

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶(hù)投稿、用戶(hù)轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請(qǐng)盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如需處理請(qǐng)聯(lián)系客服。電話(huà):028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來(lái)源: 創(chuàng)新互聯(lián)

成都app開(kāi)發(fā)公司
东莞市| 郎溪县| 靖宇县| 成都市| 繁昌县| 会同县| 桐庐县| 张掖市| 景谷| 冀州市| 安溪县| 资源县| 清远市| 罗源县| 垫江县| 德昌县| 德安县| 广宁县| 咸阳市| 无极县| 郧西县| 崇明县| 芜湖市| 阿荣旗| 颍上县| 宽甸| 临夏县| 隆化县| 阿瓦提县| 湖口县| 镇沅| 应城市| 石嘴山市| 册亨县| 鄢陵县| 隆安县| 远安县| 建宁县| 濮阳县| 延边| 益阳市|