歡迎您光臨本站 註冊首頁

淺談TensorFlow之稀疏張量表示

←手機掃碼閱讀     hongdian2012 @ 2020-07-01 , reply:0

對於多維的稀疏數據,TensorFlow 支持 SparseTensor 表示。

官方文檔地址:https://tensorflow.google.cn/api_guides/python/sparse_ops

構造稀疏張量

SparseTensor(indices, values, dense_shape)

indices是一個維度為(n, ndims)的2-D int64張量,指定非零元素的位置。比如indices=[[1,3], [2,4]]表示[1,3]和[2,4]位置的元素為非零元素。n表示非零元素的個數,ndims表示構造的稀疏張量的維數。

values是一個維度為(N)的1-D張量,對應indices所指位置的元素值。

dense_shape是一個維度為(ndims)的1-D張量,代表稀疏張量的維度。

  tf.SparseTensor(indices=[[0, 0], [1, 2]], values=[1, 2], dense_shape=[3, 4])  >>  [[1, 0, 0, 0]   [0, 0, 2, 0]   [0, 0, 0, 0]]

 

轉換

將稀疏張量轉為普通矩陣。

  tf.sparse_to_dense(  sparse_indices,  output_shape,  sparse_values,  default_value=0,  validate_indices=True,  name=None  )

 

sparse_indices是那些非零元素的位置。

sparse_indices是實數,該矩陣為一維矩陣,指定一維矩陣的某一個元素位置

sparse_indices是向量,該矩陣為一維矩陣,指定一維矩陣的多個元素

sparse_indices是二維矩陣,該矩陣為多維矩陣,指定多維矩陣的多個元素。

output_shape是矩陣的維度。

sparse_value是對應sparse_indices所指位置的元素值。

default_value是未指定元素的默認值,一般為0。

  import tensorflow as tf     mysparse_indices = tf.constant(5)  mymatrix = tf.sparse_to_dense(mysparse_indices, [11], 10)  with tf.Session() as sess:    result = sess.run(mymatrix)    print(result)    //[0 0 0 0 0 10 0 0 0 0 0]

 

SparseTensor和SparseTensorValue

兩者的參數相同。

在計算圖中定義稀疏張量時,使用SparseTensor;在feed數據時使用SparseTensorValue。

補充知識:徹底搞懂tensorflow裡的張量(tensor)

1.引言

學習卷積神經網絡(CNN)的時候,最重要的就是搞清楚網絡各層的神經元輸入輸出的數據結構(即張量)。如果僅用線性代數所學的矩陣,向量來理解張量,一定會搞得一頭霧水。因此很有必要搞清楚張量是什麼東西。

首先明確:張量最主要的兩個參數: rank(階,或維數)、shape(形狀)

2.什麼是張量

下圖是張量的直觀的示意:張量是標量、向量、矩陣的集合和推廣。

3.什麼是rank

rank數學實例Python 例子
0純數字(只有大小)s=352
1向量(1個基本向量)v = [1.1, 2.2, 3.3]
2矩陣(兩個基本向量)m = [[1, 2, 3], [4, 5, 6], [7, 8, 9]]
3數據立體(3個基本向量)t = [ [[2], [4], [6]] , [[8], [10], [12]] , [[14], [16], [18]] ]
nn個基本向量

可以發現:可以數括號[ ]的層數來確定張量的維數(階)

什麼是基本向量

基本向量(basis vector):幾個basis vector就是從幾個方面來描述一組數據。

舉例說明:

一維張量:概念和向量完全一樣。圖中的白線就是一個向量,當然了,在三維空間向量有三個分向量(分別是x方向、y方向、z方向)

二維張量:對下面這個長方形施加一個力,怎麼來描述?

我們把可以把這個長方形就xoy、xoz、yoz三個平面截下來,之後在每一個平面上再分析受力情況。

兩個basis vector出來了:一個用來描述截面方向(這是一個三維向量);另一個用來描述此截面的受力情況(當然這也是一個三維向量)

那麼我們可以用作用在yoz平面(此平面的法向量是x軸單位向量),受力的x軸分量用Pxx來表示,以此推廣到含有9個元素的矩陣,這就是一個2維張量。

換句話來解釋:在一個三維空間,我們從2個基本向量來描述一個東西,那麼這個張量所含有的元素個數應該是3的2次方等於9個。每個元素能得到2個基本向量的註釋。這就是一個2維的張量

三維張量:

繼續推廣,每個元素有三個基本向量註釋。三維的張量形狀就像是疊起來的矩陣。

最後品一品這句話

4.什麼是shape

shape指明每一層有多少個元素。

比如[2,3,4]是指第一層2個元素,第二層3個元素,第三層4個元素,通過這個我們就可以知道這個張量一共有2 × 3 × 4=24 個元素。而且它有3層,因此可以知道這個張量的rank=3

注意:讀取元素,從外括號往內括號讀

下面這個代碼也能說明問題。

  import tensorflow as tf  # 定義了一個張量,有6個元素,設置他的形狀是[2.3]  a = tf.constant([1, 2, 3, 4, 5, 6], shape=[2,3])  with tf.Session() as session:    print(session.run(a))

 

打印的結果是

[[1 2 3] [4 5 6]]



[hongdian2012 ] 淺談TensorFlow之稀疏張量表示已經有261次圍觀

http://coctec.com/docs/program/show-post-240533.html