這篇文章給大家分享的是有關(guān)Tensorflow如何設(shè)置多線程的內(nèi)容。小編覺得挺實(shí)用的,因此分享給大家做個(gè)參考,一起跟隨小編過來看看吧。
成都創(chuàng)新互聯(lián)公司是網(wǎng)站建設(shè)專家,致力于互聯(lián)網(wǎng)品牌建設(shè)與網(wǎng)絡(luò)營銷,專業(yè)領(lǐng)域包括成都做網(wǎng)站、成都網(wǎng)站設(shè)計(jì)、電商網(wǎng)站制作開發(fā)、小程序設(shè)計(jì)、微信營銷、系統(tǒng)平臺(tái)開發(fā),與其他網(wǎng)站設(shè)計(jì)及系統(tǒng)開發(fā)公司不同,我們的整合解決方案結(jié)合了恒基網(wǎng)絡(luò)品牌建設(shè)經(jīng)驗(yàn)和互聯(lián)網(wǎng)整合營銷的理念,并將策略和執(zhí)行緊密結(jié)合,且不斷評(píng)估并優(yōu)化我們的方案,為客戶提供全方位的互聯(lián)網(wǎng)品牌整合方案!一. 通過 ConfigProto 設(shè)置多線程
在進(jìn)行 tf.ConfigProto() 初始化時(shí),可以通過設(shè)置相應(yīng)的參數(shù),來控制每個(gè)操作符 op 并行計(jì)算的線程個(gè)數(shù)或 session 線程池的線程數(shù)。主要涉及的參數(shù)有以下三個(gè):
1. intra_op_parallelism_threads 控制運(yùn)算符op內(nèi)部的并行
當(dāng)運(yùn)算符 op 為單一運(yùn)算符,并且內(nèi)部可以實(shí)現(xiàn)并行時(shí),如矩陣乘法,reduce_sum 之類的操作,可以通過設(shè)置 intra_op_parallelism_threads 參數(shù)來并行。
2. inter_op_parallelism_threads 控制多個(gè)運(yùn)算符op之間的并行計(jì)算
當(dāng)有多個(gè)運(yùn)算符 op,并且他們之間比較獨(dú)立,運(yùn)算符和運(yùn)算符之間沒有直接的路徑 Path 相連。Tensorflow會(huì)嘗試并行地計(jì)算他們,使用由 inter_op_parallelism_threads 參數(shù)來控制數(shù)量的一個(gè)線程池。
在第一次創(chuàng)建會(huì)話將設(shè)置將來所有會(huì)話的線程數(shù),除非是配置了 session_inter_op_thread_pool 選項(xiàng)。
3. session_inter_op_thread_pool 配置會(huì)話線程池。
如果會(huì)話線程池的 num_threads 為 0,使用 inter_op_parallelism_threads 選項(xiàng)。
二. 通過隊(duì)列進(jìn)行數(shù)據(jù)讀取時(shí)設(shè)置多線程
1. 通過以下函數(shù)進(jìn)行樣本批處理時(shí),可以通過設(shè)置 num_threads 來設(shè)置單個(gè) Reader 多線程讀取
1) batch(tensors, batch_size, num_threads=1, capacity=32,
enqueue_many=False, shapes=None, dynamic_pad=False,
allow_smaller_final_batch=False, shared_name=None, name=None)
2) maybe_batch(tensors, keep_input, batch_size, num_threads=1, capacity=32,
enqueue_many=False, shapes=None, dynamic_pad=False,
allow_smaller_final_batch=False, shared_name=None, name=None)
3) shuffle_batch(tensors, batch_size, capacity, min_after_dequeue,
num_threads=1, seed=None, enqueue_many=False, shapes=None,
allow_smaller_final_batch=False, shared_name=None, name=None)
4) maybe_shuffle_batch(tensors, batch_size, capacity, min_after_dequeue,
keep_input, num_threads=1, seed=None,
enqueue_many=False, shapes=None,
allow_smaller_final_batch=False, shared_name=None,
name=None)
例:
import tensorflow as tf filenames = ['A.csv', 'B.csv', 'C.csv'] # 生成一個(gè)先入先出隊(duì)列和一個(gè) QueueRunner,生成文件名隊(duì)列 filename_queue = tf.train.string_input_producer(filenames, shuffle=False) # 定義 Reader 和 Decoder reader = tf.TextLineReader() key, value = reader.read(filename_queue) example, label = tf.decode_csv(value, record_defaults=[['null'], ['null']]) # 使用tf.train.batch() 會(huì)為 graph 添加一個(gè)樣本隊(duì)列和一個(gè) QueueRunner。 # 經(jīng)過 Reader 讀取文件和 Decoder 解碼后數(shù)據(jù)會(huì)進(jìn)入這個(gè)隊(duì)列,再批量出隊(duì)。 # tf.train.batch() 這里只有一個(gè) Reader,可以設(shè)置多線程 example_batch, label_batch = tf.train.batch([example, label], batch_size=5) with tf.Session() as sess: coord = tf.train.Coordinator() threads = tf.train.start_queue_runners(coord=coord) for i in range(10): e_val,l_val = sess.run([example_batch,label_batch]) print e_val,l_val coord.request_stop() coord.join(threads)
2. 通過以下函數(shù)進(jìn)行樣本批處理時(shí),可以通過設(shè)置 Decoder 和 Reader 的個(gè)數(shù)來設(shè)置多 Reader 讀取,其中每個(gè) Reader 使用一個(gè)線程
1) batch_join(tensors_list, batch_size, capacity=32, enqueue_many=False,
shapes=None, dynamic_pad=False, allow_smaller_final_batch=False,
shared_name=None, name=None):
2) maybe_batch_join(tensors_list, keep_input, batch_size, capacity=32,
enqueue_many=False, shapes=None, dynamic_pad=False,
allow_smaller_final_batch=False, shared_name=None,
name=None)
3) shuffle_batch_join(tensors_list, batch_size, capacity,
min_after_dequeue, seed=None, enqueue_many=False,
shapes=None, allow_smaller_final_batch=False,
shared_name=None, name=None)
4) maybe_shuffle_batch_join(tensors_list, batch_size, capacity,
min_after_dequeue, keep_input, seed=None,
enqueue_many=False, shapes=None,
allow_smaller_final_batch=False, shared_name=None,
name=None)
例:
import tensorflow as tf filenames = ['A.csv', 'B.csv', 'C.csv'] # 生成一個(gè)先入先出隊(duì)列和一個(gè) QueueRunner,生成文件名隊(duì)列 filename_queue = tf.train.string_input_producer(filenames, shuffle=False) # 定義 Reader reader = tf.TextLineReader() key, value = reader.read(filename_queue) #定義了多個(gè) Decoder, 每個(gè) Decoder 跟一個(gè) Reader 相連, 即有多個(gè) Reader example_list = [tf.decode_csv(value, record_defaults=[['null'], ['null']]) for _ in range(2)] # Decoder 和 Reader 為 2 # 使用tf.train.batch_join() 會(huì)為 graph 添加一個(gè)樣本隊(duì)列和一個(gè) QueueRunner。 # 經(jīng)過多個(gè) Reader 讀取文件和 Decoder 解碼后數(shù)據(jù)會(huì)進(jìn)入這個(gè)隊(duì)列,再批量出隊(duì)。 # 使用 tf.train.batch_join(), 可以使用多個(gè) Reader 并行讀取數(shù)據(jù)。每個(gè) Reader 使用一個(gè)線程 example_batch, label_batch = tf.train.batch_join(example_list, batch_size=5) with tf.Session() as sess: coord = tf.train.Coordinator() threads = tf.train.start_queue_runners(coord=coord) for i in range(10): e_val,l_val = sess.run([example_batch,label_batch]) print e_val,l_val coord.request_stop() coord.join(threads)
感謝各位的閱讀!關(guān)于“Tensorflow如何設(shè)置多線程”這篇文章就分享到這里了,希望以上內(nèi)容可以對(duì)大家有一定的幫助,讓大家可以學(xué)到更多知識(shí),如果覺得文章不錯(cuò),可以把它分享出去讓更多的人看到吧!
另外有需要云服務(wù)器可以了解下創(chuàng)新互聯(lián)scvps.cn,海內(nèi)外云服務(wù)器15元起步,三天無理由+7*72小時(shí)售后在線,公司持有idc許可證,提供“云服務(wù)器、裸金屬服務(wù)器、高防服務(wù)器、香港服務(wù)器、美國服務(wù)器、虛擬主機(jī)、免備案服務(wù)器”等云主機(jī)租用服務(wù)以及企業(yè)上云的綜合解決方案,具有“安全穩(wěn)定、簡(jiǎn)單易用、服務(wù)可用性高、性價(jià)比高”等特點(diǎn)與優(yōu)勢(shì),專為企業(yè)上云打造定制,能夠滿足用戶豐富、多元化的應(yīng)用場(chǎng)景需求。
文章標(biāo)題:Tensorflow如何設(shè)置多線程-創(chuàng)新互聯(lián)
本文來源:http://www.rwnh.cn/article10/iihdo.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供網(wǎng)站排名、網(wǎng)站內(nèi)鏈、網(wǎng)站設(shè)計(jì)公司、ChatGPT、企業(yè)建站、網(wǎng)站收錄
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請(qǐng)盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如需處理請(qǐng)聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來源: 創(chuàng)新互聯(lián)