日本综合一区二区|亚洲中文天堂综合|日韩欧美自拍一区|男女精品天堂一区|欧美自拍第6页亚洲成人精品一区|亚洲黄色天堂一区二区成人|超碰91偷拍第一页|日韩av夜夜嗨中文字幕|久久蜜综合视频官网|精美人妻一区二区三区

RELATEED CONSULTING
相關(guān)咨詢
選擇下列產(chǎn)品馬上在線溝通
服務(wù)時間:8:30-17:00
你可能遇到了下面的問題
關(guān)閉右側(cè)工具欄

新聞中心

這里有您想知道的互聯(lián)網(wǎng)營銷解決方案
維度、廣播操作與可視化:如何高效使用TensorFlow

一、Tensorflow 基礎(chǔ)

創(chuàng)新互聯(lián)專注為客戶提供全方位的互聯(lián)網(wǎng)綜合服務(wù),包含不限于成都做網(wǎng)站、網(wǎng)站制作、豐滿網(wǎng)絡(luò)推廣、成都微信小程序、豐滿網(wǎng)絡(luò)營銷、豐滿企業(yè)策劃、豐滿品牌公關(guān)、搜索引擎seo、人物專訪、企業(yè)宣傳片、企業(yè)代運營等,從售前售中售后,我們都將竭誠為您服務(wù),您的肯定,是我們最大的嘉獎;創(chuàng)新互聯(lián)為所有大學生創(chuàng)業(yè)者提供豐滿建站搭建服務(wù),24小時服務(wù)熱線:13518219792,官方網(wǎng)址:www.cdcxhl.com

TensorFlow 和其他諸如 numpy 之類的數(shù)學計算庫的根本區(qū)別在于:在 TensorFlow 中,運算操作是符號化的。這是一個強大的思想,它能夠讓 TensorFlow 做任何事情(例如,自動求微分),而這些事情對于 numpy 等命令式的庫而言是不可能完成的。但是這也導致了隨之而來的代價,就是掌握這個庫會相對困難一些。在本文中,作者會嘗試揭開 TensorFlow 的神秘面紗,并提供一些關(guān)于高效使用 TensorFlow 的指南和實踐例子。

讓我們以一個簡單的例子開始,我們想讓兩個隨機矩陣相乘。首先我們看一下用 numpy 來實現(xiàn)這個例子:

 
 
 
 
  1. import numpy as np 
  2.  
  3. x = np.random.normal(size=[10, 10]) 
  4. y = np.random.normal(size=[10, 10]) 
  5. z = np.dot(x, y)print(z) 

這樣的計算在 TensorFlow 中會是什么樣子?

結(jié)果如下:

 
 
 
 
  1. import tensorflow as tf 
  2.  
  3. x = tf.random_normal([10, 10]) 
  4. y = tf.random_normal([10, 10]) 
  5. z = tf.matmul(x, y) 
  6.  
  7. sess = tf.Session() 
  8. z_val = sess.run(z)print(z_val) 

與 numpy 直接執(zhí)行計算并將結(jié)果復(fù)制到變量 z 中的思路不同的是,TensorFlow 僅僅給圖中代表結(jié)果的節(jié)點給提供了一個操作。如果我們直接打印 z 的值,我們會得到下面的信息:

 
 
 
 
  1. Tensor("MatMul:0", shape=(10, 10), dtype=float32) 

由于兩個輸入矩陣都有被完全定義的維度,TensorFlow 還能夠在指定張量的維度的同時指定它的數(shù)據(jù)類型。為了計算出張量的值,我們需要使用 Session.run() 這個函數(shù)來創(chuàng)建一個會話。

Tip:在使用 Jupyter notebook 的時候,要確保在開始的時候調(diào)用一下 tf.reset_default() 函數(shù),以在定義新節(jié)點之前清空符號圖。

為了理解符號計算有多么強大,讓我們來看一下另一個例子。假設(shè)我們有一些一條曲線上的樣本點(例如曲線是 f(x) = 5x^2 + 3),但是我們想要在不知道參數(shù)的情況下來估計這個函數(shù) f(x)。我們定義一個含參數(shù)的函數(shù) g(x, w) = w0 x^2 + w1 x + w2,它是關(guān)于輸入數(shù)據(jù) x 和隱藏參數(shù) w 的函數(shù),我們的目標就是找到這組隱藏參數(shù),使得 g(x, w) ≈ f(x)。我們可以通過最小化下面的損失函數(shù) L(w) 來實現(xiàn):L(w) = (f(x) - g(x, w))^2。盡管這個簡單的問題已經(jīng)有一個閉合的解決方法了,但我們還是選擇使用一個更加通用的方法,這個方法能夠被應(yīng)用在任何可微分的函數(shù)中,它使用了隨機梯度降的方法。我們簡單地計算損失函數(shù) L(w) 在一組樣本點上關(guān)于 w 的平均梯度,然后朝著梯度的反方向變化參數(shù) w。

下面展示了這個方法在 TensorFlow 中是如何實現(xiàn)的:

 
 
 
 
  1. import numpy as np 
  2. import tensorflow as tf 
  3.  
  4. # 使用占位符從python向TensorFlow運算符中傳遞參數(shù)值。我們在這里定義了兩個占位符,其中一個用來存放輸入特征x,另一個用來存放輸出y. 
  5. x = tf.placeholder(tf.float32) 
  6. y = tf.placeholder(tf.float32) 
  7.  
  8. # 假設(shè)我們已經(jīng)知道了期望的函數(shù)是一個二次多項式,我們就會分配一個具有3個元素的向量來代表這些參數(shù)。這些變量會被以隨機地進行初始化。 
  9. w = tf.get_variable("w", shape=[3, 1]) 
  10. # 我們定義yhat為我們對y的估計值 
  11. f = tf.stack([tf.square(x), x, tf.ones_like(x)], 1) 
  12. yhat = tf.squeeze(tf.matmul(f, w), 1) 
  13. # 損失函數(shù)被定義為y的估計值和真實值之間地l2距離。我們還附加了一個收縮項,以確保結(jié)果得到的權(quán)值會比較小。 
  14. loss = tf.nn.l2_loss(yhat - y) + 0.1 * tf.nn.l2_loss(w) 
  15. # 我們以0.1的學習率使用Adam優(yōu)化器來最小化損失函數(shù)。 
  16. train_op = tf.train.AdamOptimizer(0.1).minimize(loss) 
  17. def generate_data(): 
  18.     x_val = np.random.uniform(-10.0, 10.0, size=100) 
  19.     y_val = 5 * np.square(x_val) + 3 
  20.     return x_val, y_val 
  21.  
  22. sess = tf.Session() 
  23. # 因為我們要使用這些變量,所以我們需要先將它們初始化 
  24. sess.run(tf.global_variables_initializer()) 
  25. for _ in range(1000): 
  26.     x_val, y_val = generate_data() 
  27.     _, loss_val = sess.run([train_op, loss], {x: x_val, y: y_val}) 
  28.     print(loss_val) 
  29.     print(sess.run([w])) 

運行完這段代碼之后,我得到的參數(shù)結(jié)果是:

 
 
 
 
  1. [4.98605919,-0.00187828875e-04,3.8395009] 

上面是編輯運行完之后的結(jié)果,它對應(yīng)的損失值是 17.6175. 每一次的具體結(jié)果都會不同,但是最終結(jié)果都很接近期望的函數(shù)值。下面是原文作者提供的值。

 
 
 
 
  1. [4.9924135,0.00040895029, 3.4504161] 

這是與期望參數(shù)相當接近的近似。

這只是 TensorFlow 能夠做到的事情的冰山一角而已。很多類似于優(yōu)化具有上百萬個參數(shù)的大型神經(jīng)網(wǎng)絡(luò)的問題都能夠用 TensorFlow 以很少量的代碼來高效地實現(xiàn)。與此同時,TensorFlow 的開發(fā)團隊還致力于在多種設(shè)備、多線程以及支持多平臺等問題上更進一步。

簡單起見,在絕大多數(shù)例子中我們都手動地創(chuàng)建了會話,我們并沒有保存和加載 checkpoint,但是這卻是我們在實戰(zhàn)中經(jīng)常需要做的事情。你很可能想著使用估計 API 來進行會話管理以及做日志。我們在 code/framework 路徑下提供了一個簡單的可擴展架構(gòu),作為使用 TensorFlow 來訓練神經(jīng)網(wǎng)絡(luò)的一個實際架構(gòu)的例子。

理解靜態(tài)維度和動態(tài)維度

TensorFlow 中的張量具有靜態(tài)維度的屬性,它在構(gòu)建圖的時候就被確定好了。靜態(tài)維度也有可能是不確定的。舉個例子,我們也許會定義一個維度為 [None,128] 的張量。

 
 
 
 
  1. import tensorflow as tf 
  2.  
  3. a = tf.placeholder([None, 128]) 

這意味著***個維度可以是任意大小,會在 Session.run() 的過程中被動態(tài)地決定。在表現(xiàn)靜態(tài)張量的時候,TensorFlow 有著相當丑的 API:

 
 
 
 
  1. static_shape = a.get_shape().as_list()  # returns [None, 128] 

(這個應(yīng)該寫成 a,shape() 的形式,但是這里有人把它定義得太不方便了。)

為獲得張量的動態(tài)形式,你可以調(diào)用 tf.shape 功能,它會返回一個表示給定張量的形狀的張量:

 
 
 
 
  1. dynamic_shape = tf.shape(a) 

一個張量的靜態(tài)維度可以使用 Tensor.set_shape() 函數(shù)來進行設(shè)置。

 
 
 
 
  1. a.set_shape([32, 128]) 

僅當你知道自己在做什么的時候再使用這個函數(shù),事實上使用 tf.reshape() 會更加安全。

 
 
 
 
  1. a =  tf.reshape(a, [32, 128]) 

如果有一個函數(shù)能在方便的時候返回靜態(tài)維度,在可用的時候返回動態(tài)維度,那將會很方便。下面就定義了這樣一個函數(shù):

 
 
 
 
  1. def get_shape(tensor): 
  2.   static_shape = tensor.get_shape().as_list() 
  3.   dynamic_shape = tf.unstack(tf.shape(tensor)) 
  4.   dims = [s[1] if s[0] is None else s[0] 
  5.           for s in zip(static_shape, dynamic_shape)]   
  6.   return dims 

現(xiàn)在設(shè)想:我們想通過折疊第二維和第三維來把一個 3 維的矩陣轉(zhuǎn)換成一個 2 維的矩陣。我們可以使用上述的 get_shape() 函數(shù)來完成這件事:

 
 
 
 
  1. b = placeholder([None, 10, 32]) 
  2. shape = get_shape(tensor) 
  3. b = tf.reshape(b, [shape[0], shape[1] * shape[2]]) 

值得注意的是,這里無論矩陣是不是靜態(tài)的,這個方法都能奏效。

事實上我們可以寫一個更加具有通用目標的函數(shù)來折疊任何幾個維度:

 
 
 
 
  1. import tensorflow as tfimport numpy as np 
  2. def reshape(tensor, dims_list): 
  3.   shape = get_shape(tensor) 
  4.   dims_prod = [] 
  5.   for dims in dims_list: 
  6.       if isinstance(dims, int): 
  7.       dims_prod.append(shape[dims])     
  8.       elif all([isinstance(shape[d], int) for d in dims]): 
  9.       dims_prod.append(np.prod([shape[d] for d in dims]))     
  10.       else: 
  11.       dims_prod.append(tf.prod([shape[d] for d in dims])) 
  12.   tensor = tf.reshape(tensor, dims_prod)   
  13.   return tensor 

然后折疊第二個維度就變得非常容易了。

 
 
 
 
  1. b = placeholder([None, 10, 32]) 
  2. b = tf.reshape(b, [0, [1, 2]]) 

廣播操作

TensorFlow 支持廣播逐個元素的操作。正常情況下,當你想執(zhí)行類似于加法和乘法的操作時,你需要確保算子的維度是匹配的。例如,你不能把一個維度為 [3,2] 的張量與一個維度為 [3,4] 的張量相加。但是在一個特殊的情況下你可以使用異常的維度。TensorFlow 會隱式地把一個張量的異常維度調(diào)整到與另一個算子相匹配的維度以實現(xiàn)維度兼容。所以將一個維度為 [3,2] 的張量與一個維度為 [3,1] 的張量相加是合法的。

 
 
 
 
  1. import tensorflow as tf 
  2.  
  3. a = tf.constant([[1., 2.], [3., 4.]]) 
  4. b = tf.constant([[1.], [2.]])# c = a + tf.tile(a, [1, 2])c = a + 

廣播允許我們執(zhí)行隱式調(diào)整,這能夠讓代碼更短,更加高效地使用內(nèi)存,因為我們不需要存儲調(diào)整操作中間結(jié)果的內(nèi)存開銷。這個方法可以被用在一個場景中:那就是結(jié)合不同長度的特征。為了連接不同長度的特征,我們通常會把輸入張量進行調(diào)整,然后把結(jié)果連接起來并應(yīng)用一些非線性處理方法。這是很多神經(jīng)網(wǎng)絡(luò)中的常用方法。

 
 
 
 
  1. a = tf.random_uniform([5, 3, 5]) 
  2. b = tf.random_uniform([5, 1, 6]) 
  3.  
  4. # concat a and b and apply nonlinearity 
  5.  
  6. tiled_b = tf.tile(b, [1, 3, 1]) 
  7. c = tf.concat([a, tiled_b], 2) 
  8. d = tf.layers.dense(c, 10, activation=tf.nn.relu) 

但是這個可以用廣播的方法做得更加有效。我們可以利用 f(m(x + y)) 等價于 f(mx + my) 這一事實。所以我們可以將線性操作分開處理,然后使用廣播的方法去做隱式的連接。

 
 
 
 
  1. pa = tf.layers.dense(a, 10, activation=None) 
  2. pb = tf.layers.dense(b, 10, activation=None) 
  3. d = tf.nn.relu(pa + pb) 

事實上這段代碼是相當通用的,只要張量之間能夠進行廣播操作,它就能夠被用于任何維度的張量上。

 
 
 
 
  1. def tile_concat_dense(a, b, units, activation=tf.nn.relu): 
  2.     pa = tf.layers.dense(a, units, activation=None) 
  3.     pb = tf.layers.dense(b, units, activation=None) 
  4.     c = pa + pb    if activation is not None: 
  5.         c = activation(c)     
  6. return c 

到目前為止,我們討論了廣播操作的好的一面。你會問,那么它不好的一面是什么呢?隱式的假設(shè)總會讓調(diào)試變得更加難??匆幌孪旅娴睦樱?/p>

 
 
 
 
  1. a = tf.constant([[1.], [2.]]) 
  2. b = tf.constant([1., 2.]) 
  3. c = tf.reduce_sum(a + b) 

你認為 c 的值會是多少呢?如果你說是 6,那你就錯了。結(jié)果會是 12。這是因為當兩個張量的秩不匹配的時候,TensorFlow 就會自動地以較低的維度來擴展***維的大小,所以加法的結(jié)果會變成 [[2,3],[3,4]],所以在全體參數(shù)上的求和操作會給出 12 的結(jié)果。

避免這個問題的辦法就是盡可能地顯示化。如果我們顯示地指定了要將哪個維度進行求和,解決這個問題就會變得很容易了。

 
 
 
 
  1. a = tf.constant([[1.], [2.]]) 
  2. b = tf.constant([1., 2.]) 
  3. c = tf.reduce_sum(a + b, 0) 

現(xiàn)在 c 的值會是 [5,7],考慮到輸出結(jié)果的維度,我們會立即猜想是不是哪里出了錯。一般的經(jīng)驗法則就是在求和操作以及使用 tf.squeeze() 的時候總要指定具體的維度。

原型內(nèi)核與 Python 操作下的高度可視化

為了更高的效率,TensorFlow 的運算內(nèi)核是用 C++編寫的。但是用 C++寫 TensorFlow 內(nèi)核是一件痛苦的事情。所以,在你實現(xiàn)內(nèi)核之前,你也許會想著快速地實現(xiàn)一個原型系統(tǒng)。借助于 tf.py_func() 函數(shù),你可以將任何一段 Python 代碼轉(zhuǎn)化成 TensorFlow 操作。

例如,下面的例子展示了如何在 TensorFlow 中使用 Python 操作來實現(xiàn)一個簡單的 ReLU 非線性核。

 
 
 
 
  1. import numpy as np 
  2. import tensorflow as tf 
  3. import uuiddef relu(inputs):     
  4. # Define the op in python 
  5.     def _relu(x):         
  6.             return np.maximum(x, 0.)     
  7.            
  8.     # Define the op's gradient in python 
  9.     def _relu_grad(x):            return np.float32(x > 0)     
  10.  
  11.     # An adapter that defines a gradient op compatible with Tensorflow 
  12.     def _relu_grad_op(op, grad): 
  13.         x = op.inputs[0] 
  14.         x_grad = grad * tf.py_func(_relu_grad, [x], tf.float32)         
  15.     return x_grad     
  16.  
  17.      
  18.     # Register the gradient with a unique id 
  19.     grad_name = "MyReluGrad_" + str(uuid.uuid4()) 
  20.     tf.RegisterGradient(grad_name)(_relu_grad_op)     
  21.  
  22.  
  23.     # Override the gradient of the custom op 
  24.     g = tf.get_default_graph()     
  25.     with g.gradient_override_map({"PyFunc": grad_name}): 
  26.         output = tf.py_func(_relu, [inputs], tf.float32)    
  27.     return output 

你可以使用 TensorFlow 的梯度檢查器來驗證梯度是否正確:

 
 
 
 
  1. x = tf.random_normal([10]) 
  2. y = relu(x * x)with tf.Session(): 
  3.     diff = tf.test.compute_gradient_error(x, [10], y, [10])     
  4. print(diff) 

函數(shù) compute_gradient_error() 會計算出梯度的數(shù)值,并且返回與給定梯度相比的差別。我所期望的是一個很小的差距。

需要注意的是,這個實現(xiàn)是相當?shù)托У?,并且僅對原型開發(fā)有用,因為 Python 代碼并不是能夠并行的,也無法在 GPU 上運行。一旦你驗證了自己的思想,你肯定會想著把它寫成一個 c++內(nèi)核。

在實踐中,我們通常會在 Tensorboard 上使用 Python 操作來實現(xiàn)可視化。假設(shè)你在構(gòu)建一個圖像分類的模型,并且想要在訓練的過程中可視化模型的預(yù)測結(jié)果。TensorFlow 允許使用 tf.summary.image() 函數(shù)來做可視化。

 
 
 
 
  1. image = tf.placeholder(tf.float32) 
  2. tf.summary.image("image", image) 

但是這僅僅會可視化輸入圖像。為了可視化預(yù)測結(jié)果,你必須尋求一種能夠做圖像注解的方式,這種方式幾乎在現(xiàn)有的操作中根本就不存在。一種比較容易的方法就是在 Python 中畫圖,然后用 Python 操作將其封裝起來。

 
 
 
 
  1. import io 
  2. import matplotlib.pyplot as plt 
  3. import numpy as npimport PIL 
  4. import tensorflow as tf 
  5.   def visualize_labeled_images(images, labels, max_outputs=3, name='image'):     
  6.   def _visualize_image(image, label):    
  7.       
  8.         # Do the actual drawing in python 
  9.         fig = plt.figure(figsize=(3, 3), dpi=80) 
  10.         ax = fig.add_subplot(111) 
  11.         ax.imshow(image[::-1,...]) 
  12.         ax.text(0, 0, str(label),  
  13.           horizontalalignment='left',  
  14.           verticalalignment='top') 
  15.         fig.canvas.draw()         
  16.  
  17.         # Write the plot as a memory file. 
  18.         buf = io.BytesIO() 
  19.         data = fig.savefig(buf, format='png') 
  20.         buf.seek(0)    
  21.              # Read the image and convert to numpy array 
  22.         img = PIL.Image.open(buf)         
  23.         return np.array(img.getdata()).reshape(img.size[0], img.size[1], -1)     
  24.    def _visualize_images(images, labels):    
  25.               
  26.         # Only display the given number of examples in the batch 
  27.         outputs = []         
  28.         for i in range(max_outputs): 
  29.             output = _visualize_image(images[i], labels[i]) 
  30.             outputs.append(output)         
  31.         return np.array(outputs, dtype=np.uint8)     
  32.          
  33.    # Run the python op. 
  34.    figs = tf.py_func(_visualize_images, [images, labels], tf.uint8)     
  35.    return tf.summary.image(name, figs) 

要注意,因為這里的 summary 通常都會隔一段時間才評估一次(并不是每一步都有),所以這個方法是實用的,而不用擔心由此引發(fā)的效率問題。

原文:https://github.com/vahidk/EffectiveTensorflow

【本文是專欄機構(gòu)“機器之心”的原創(chuàng)譯文,微信公眾號“機器之心( id: almosthuman2014)”】


網(wǎng)站名稱:維度、廣播操作與可視化:如何高效使用TensorFlow
標題路徑:http://www.dlmjj.cn/article/cdgsgdg.html