日本综合一区二区|亚洲中文天堂综合|日韩欧美自拍一区|男女精品天堂一区|欧美自拍第6页亚洲成人精品一区|亚洲黄色天堂一区二区成人|超碰91偷拍第一页|日韩av夜夜嗨中文字幕|久久蜜综合视频官网|精美人妻一区二区三区

RELATEED CONSULTING
相關(guān)咨詢
選擇下列產(chǎn)品馬上在線溝通
服務(wù)時間:8:30-17:00
你可能遇到了下面的問題
關(guān)閉右側(cè)工具欄

新聞中心

這里有您想知道的互聯(lián)網(wǎng)營銷解決方案
輸入示例,自動生成代碼:TensorFlow官方工具TF-Coder已開源

 如何使編程更加便捷?最近,谷歌 TensorFlow 開源了一個幫助開發(fā)者寫 TensorFlow 代碼的程序合成工具 TF-Coder。

創(chuàng)新互聯(lián)成都網(wǎng)站建設(shè)定制網(wǎng)站開發(fā),是成都網(wǎng)站維護(hù)公司,為成都生料攪拌車提供網(wǎng)站建設(shè)服務(wù),有成熟的網(wǎng)站定制合作流程,提供網(wǎng)站定制設(shè)計(jì)服務(wù):原型圖制作、網(wǎng)站創(chuàng)意設(shè)計(jì)、前端HTML5制作、后臺程序開發(fā)等。成都網(wǎng)站建設(shè)熱線:13518219792

  • 項(xiàng)目地址:https://github.com/google-research/tensorflow-coder
  • Google Colab 試用地址:https://colab.research.google.com/github/google-research/tensorflow-coder/blob/master/TF-Coder_Colab.ipynb
  • 論文地址:https://arxiv.org/pdf/2003.09040.pdf

用過 TensorFlow 框架的應(yīng)該都知道,在操縱張量時,需要跟蹤多個維度、張量形狀和數(shù)據(jù)類型兼容性,當(dāng)然還需要考慮數(shù)學(xué)正確性。此外,TensorFlow 有數(shù)百種操作,找到要使用的正確操作也是一項(xiàng)挑戰(zhàn)。

那么,除了直接對張量操縱進(jìn)行編碼以外,如果僅通過一個說明性示例進(jìn)行演示,就能自動獲取相應(yīng)的代碼呢?這個想法聽起來很誘人,而 TensorFlow Coder(TF-Coder)使這成為可能!

TF-Coder 的原理是:給出期望張量變換的輸入 - 輸出示例,TF-Coder 運(yùn)行組合搜索,找出能夠執(zhí)行此變換的 TensorFlow 表達(dá)式,并最終輸出對應(yīng)的 TensorFlow 代碼。

給出輸入 - 輸出示例,TF-Coder 在 1.3 秒內(nèi)找出解決方案。

TF-Coder 的合成算法如下所示:

下面的動圖展示了使用 TF-Coder 解決張量操縱問題的過程:

那么,TF-Coder 工具可以在哪些場景中起到作用呢?

TF-Coder:通過示例進(jìn)行 TensorFlow 編程

假如你想將包含 M 個元素的向量(下例中指‘rows’)和包含 N 個元素的向量(下例中指‘cols’)依次進(jìn)行相加,生成一個包含所有成對和的 M x N 矩陣。

使用 TF-Coder,你只需提供一個輸入 - 輸出示例(M=3,N=4)即可完成該操作,無需逐行進(jìn)行編程。

例如輸入張量為:

 
 
 
 
  1. inputs = { 
  2.  
  3. 'rows': [10, 20, 30], 
  4.  
  5. 'cols': [1, 2, 3, 4], 
  6.  

對應(yīng)的輸出張量為:

 
 
 
 
  1. output = [[11, 12, 13, 14], 
  2.  
  3. [21, 22, 23, 24], 
  4.  
  5. [31, 32, 33, 34]] 

基于以上輸入 - 輸出信息(默認(rèn)情況下已經(jīng)輸入到 TF-Coder Colab 中),TF-Coder 工具將在一秒內(nèi)自動找到合適的 TensorFlow 代碼:

 
 
 
 
  1. tf.add(cols, tf.expand_dims(rows, 1)) 

這個簡單的例子旨在說明 TF-Coder 利用示例進(jìn)行編程的思想。而 TF-Coder 的功能不止于此,它還可用于更難的編程問題中。

TF-Coder 幫你找到正確的函數(shù)

假設(shè)你正在處理數(shù)值特征,如某個物品的價格。數(shù)據(jù)集中的價格范圍很廣,例如從低于 10 美元到超出 1000 美元不等。如果這些價格被直接用作特征,則模型可能出現(xiàn)過擬合,在模型評估階段可能難以處理異常價格。

為了解決上述問題,你可能需要使用 bucketing,來將數(shù)字價格轉(zhuǎn)換為類別特征。例如,使用 bucket 邊界 [10, 50, 100, 1000] 意味著低于 10 美元的價格應(yīng)歸入 bucket 0,10 美元至 50 美元的價格應(yīng)歸入 bucket 1,依此類推。

在選擇 bucket 邊界之后,如何使用 TensorFlow 將數(shù)值價格映射到 bucket 索引呢?例如,給出以下 bucket 邊界和物品價格:

 
 
 
 
  1. # Input tensors 
  2.  
  3. boundaries = [10, 50, 100, 1000] 
  4.  
  5. prices = [15, 3, 50, 90, 100, 1001] 

計(jì)算每個項(xiàng)的 bucket 編號:

 
 
 
 
  1. # Output tensor 
  2.  
  3. bucketed_prices = [1, 0, 2, 2, 3, 4] 

盡管 TensorFlow 具備多種 bucketing 操作,但要弄清楚哪種操作適合執(zhí)行這種 bucketing,也是比較棘手的事情。由于 TF-Coder 可以通過行為識別數(shù)百個 Tensor 操作,因此你可以通過提供輸入 - 輸出示例來查找正確的操作:

 
 
 
 
  1. # Input-output example 
  2.  
  3. inputs = { 
  4.  
  5. 'boundaries': [10, 50, 100, 1000], 
  6.  
  7. 'prices': [15, 3, 50, 90, 100, 1001], 
  8.  
  9.  
  10. output = [1, 0, 2, 2, 3, 4] 

只需幾秒鐘,TF-Coder 就能輸出以下解決方案:

 
 
 
 
  1. tf.searchsorted(boundaries, prices, side='right') 

TF-Coder:用聰明的方式結(jié)合函數(shù)

現(xiàn)在我們來看另一個問題:計(jì)算一個 0-1 張量,它可以找出輸入張量每一行中的最大元素。

 
 
 
 
  1. # Input tensor 
  2.  
  3. scores = [[0.7, 0.2, 0.1], 
  4.  
  5. [0.4, 0.5, 0.1], 
  6.  
  7. [0.4, 0.4, 0.2], 
  8.  
  9. [0.3, 0.4, 0.3], 
  10.  
  11. [0.0, 0.0, 1.0]] 
  12.  
  13. # Output tensor 
  14.  
  15. top_scores = [[1, 0, 0], 
  16.  
  17. [0, 1, 0], 
  18.  
  19. [1, 0, 0], 
  20.  
  21. [0, 1, 0], 
  22.  
  23. [0, 0, 1]] 

注意,如果一行內(nèi)相同的最大元素重復(fù)出現(xiàn)(如 scores 中的第三行),則標(biāo)記第一次出現(xiàn)的最大元素,這樣 top_scores 的每一行都只有一個 1。

與上一個問題不同,這里不存在可執(zhí)行該計(jì)算的 TensorFlow 函數(shù)。在文檔中搜索「max」,你可能找到 tf.reduce_max、tf.argmax 和 tf.maximum,但也不清楚到底該用哪一個?tf.reduce_max 輸出 [0.7, 0.5, 0.4, 0.4, 1.0],tf.argmax 輸出 [0, 1, 0, 1, 2],tf.maximum 不合適,因?yàn)樗荒苋菁{兩個參數(shù)。這些函數(shù)似乎都與該示例的期望輸出關(guān)聯(lián)不大。

而 TF-Coder 可以幫你解決這類棘手問題。你可以將這個問題寫成輸入 - 輸出示例的形式:

 
 
 
 
  1. # Input-output example 
  2.  
  3. inputs = { 
  4.  
  5. 'scores': [[0.7, 0.2, 0.1], 
  6.  
  7. [0.4, 0.5, 0.1], 
  8.  
  9. [0.4, 0.4, 0.2], 
  10.  
  11. [0.3, 0.4, 0.3], 
  12.  
  13. [0.0, 0.0, 1.0]], 
  14.  
  15.  
  16. output = [[1, 0, 0], 
  17.  
  18. [0, 1, 0], 
  19.  
  20. [1, 0, 0], 
  21.  
  22. [0, 1, 0], 
  23.  
  24. [0, 0, 1]] 

TF-Coder 結(jié)合使用 tf.one_hot 和 tf.argmax,得到問題的解:

 
 
 
 
  1. tf.cast(tf.one_hot(tf.argmax(scores, axis=1), 3), tf.int32) 

通過對 TensorFlow 操作組合進(jìn)行詳細(xì)搜索,TF-Coder 通常能夠發(fā)現(xiàn)優(yōu)雅的解決方案,從而簡化步驟,加速 TensorFlow 程序。

TF-Coder:用更少的 debug,寫出準(zhǔn)確的代碼

考慮通過將每一行除以該行之和,把整數(shù)出現(xiàn)次數(shù)列表歸一化為概率分布。例如:

 
 
 
 
  1. # Input tensor 
  2.  
  3. counts = [[0, 1, 0, 0], 
  4.  
  5. [0, 1, 1, 0], 
  6.  
  7. [1, 1, 1, 1]] 
  8.  
  9. # Output tensor 
  10.  
  11. normalized = [[0.0, 1.0, 0.0, 0.0], 
  12.  
  13. [0.0, 0.5, 0.5, 0.0], 
  14.  
  15. [0.25, 0.25, 0.25, 0.25]] 

即使你知道可用的函數(shù)(tf.reduce_sum followed by tf.divide),寫出正確的代碼也并非易事。第一次嘗試可能是這樣的:

 
 
 
 
  1. # First attempt 
  2.  
  3. normalized = tf.divide(counts, tf.reduce_sum(counts, axis=1)) 

但是以上代碼是正確嗎?我們需要考慮許多潛在的問題:

  • 代碼中 axis 的值正確嗎?是否應(yīng)改為 axis=0?
  • counts 和 tf.reduce_sum(counts, axis=1) 的形狀與除法兼容嗎?需要改變形狀或執(zhí)行轉(zhuǎn)置操作嗎?
  • counts 和 tf.reduce_sum(counts, axis=1) 都是 tf.int32 張量。tf.int32 張量可以被除嗎?是否需要先將其轉(zhuǎn)換為 float 數(shù)據(jù)類型?
  • 兩個參數(shù)的順序?qū)??是否需要調(diào)換位置?
  • 輸出的類型是 tf.int32、tf.float32,還是別的什么?
  • 是否存在更簡單或更好的方式?

而使用 TF-Coder,你只需要給出以下輸入 - 輸出示例:

 
 
 
 
  1. # Input-output example 
  2.  
  3. inputs = { 
  4.  
  5. 'counts': [[0, 1, 0, 0], 
  6.  
  7. [0, 1, 1, 0], 
  8.  
  9. [1, 1, 1, 1]], 
  10.  
  11.  
  12. output = [[0.0, 1.0, 0.0, 0.0], 
  13.  
  14. [0.0, 0.5, 0.5, 0.0], 
  15.  
  16. [0.25, 0.25, 0.25, 0.25]] 

TF-Coder 給出解決方案:

 
 
 
 
  1. tf.cast(tf.divide(counts, tf.expand_dims(tf.reduce_sum(counts, axis=1), axis=1)), tf.float32) 

TF-Coder 生成以上解決方案時,可以確保代碼在示例輸入上運(yùn)行時能夠準(zhǔn)確生成示例輸出。TF-Coder 的解決方案避免了不必要的步驟。你可以快速找出以上潛在問題的答案:需要采用額外的 tf.expand_dims 步驟,使張量形狀與除法兼容;tf.divide 的答案必須是 tf.float32 類型。

通過這種方式,TF-Coder 可以幫助開發(fā)者編寫簡單準(zhǔn)確的代碼,且無需痛苦的 debug 過程。

局限性

不過,TF-Coder 也有其局限性。目前它可以在一分鐘內(nèi)找到涉及 3 到 4 種運(yùn)算的解決方案,但短時間內(nèi)找到涉及 6 種及以上操作的解決方案,對它來說還是太過復(fù)雜。此外,TF-Coder 尚不支持復(fù)張量、字符串張量或 RaggedTensor。

TF-Coder 支持操作的完整列表,參見:https://colab.research.google.com/github/google-research/tensorflow-coder/blob/master/TF-Coder_Colab.ipynb#scrollTo=Q6uRr4x9WHRC

此外,TF-Coder 只能保證解決方案對給出的輸入 - 輸出示例有效。該工具會搜索一個與給定輸入 - 輸出示例相匹配的簡單 TensorFlow 表達(dá)式,但有時候「過于簡單」,不能按預(yù)期進(jìn)行泛化。盡可能讓示例無歧義會有所幫助,這一般可以通過向輸入和輸出張量添加更多數(shù)值來實(shí)現(xiàn)。

 


網(wǎng)站標(biāo)題:輸入示例,自動生成代碼:TensorFlow官方工具TF-Coder已開源
鏈接分享:http://www.dlmjj.cn/article/djjghji.html