tensorflow运行mnist的一些

发布时间:2019-04-21 19:42:59编辑:auto阅读(2277)

     

    最近在tensorflow环境下用CNN来实现mnist,里面设计了一些tensorflow的函数,在之后的学习中肯定会经常使用,因此记录整理下来。

          函数如下,现将函数名列在此,后面进行详细分析:

              tf.truncated_naomal()

              tf.Variable()

              tf.reshape()

              tf.matmul()

              tf.muitiply()

              tf.reduce_sum()

              tf.reduce_mean()

    具体分析:

    tf.truncated_normal(shape, mean, stddev) 

               shape表示生成张量的维度

               mean是均值

               stddev是标准差

               这个函数产生正态分布,均值和标准差自己设定。这是一个截断的产生正太分布的函数,就是说产生正态分布的值如果与均值的差值大于两倍的标准差,那就重新生成,和一             般的正太分布的产生随机数据比起来,这个函数产生的随机数与均值的差距不会超过两倍的标准差

    tf.Variable(initializer,name)

              参数initializer是初始化参数

              name是可自定义的变量名称

              例如     v2=tf.Variable(tf.constant(2),name='v2')

    tf.reshape(tensor, shape, name=None)

              第1个参数为被调整维度的张量

              第2个参数为要调整为的形状,注意shape里最多有一个维度的值可以填写为-1,表示自动计算此维度    

    x = tf.placeholder("float", shape=[None, 784])
    x_image = tf.reshape(x, [-1, 28, 28, 1])

    tf.matmul(a, b, transpose_a=False, transpose_b=False, adjoint_a=False, adjoint_b=False, a_is_sparse=False, b_is_sparse=False, name=None)

             将矩阵a乘于矩阵b-------矩阵相乘

             transpose_a: 如果为真, a则在进行乘法计算前进行转置。 
             transpose_b: 如果为真, b则在进行乘法计算前进行转置。 
             adjoint_a: 如果为真, a则在进行乘法计算前进行共轭和转置。 
             adjoint_b: 如果为真, b则在进行乘法计算前进行共轭和转置。 
             a_is_sparse: 如果为真, a会被处理为稀疏矩阵。 
             b_is_sparse: 如果为真, b会被处理为稀疏矩阵。 
             name: 操作的名字(可选参数)

    注意:1 输入必须是矩阵(或者是张量秩 >2的张量,表示成批的矩阵),并且其在转置之后有相匹配的矩阵尺寸

               2 两个矩阵必须都是同样的类型,支持的类型如下:float16, float32, float64, int32, complex64, complex128

    tf.multiply(x, y, name=None) 

          x: 一个类型为:half, float32, float64, uint8, int8, uint16, int16, int32, int64, complex64, complex128的张量。 
          y: 一个类型跟张量x相同的张量。

          1 multiply这个函数实现的是元素级别的相乘,也就是两个相乘的数元素各自相乘,而不是矩阵乘法

          2 两个相乘的数必须有相同的数据类型,不然就会报错

    tf.reduce_sum(tensor, axis = None, keep_dims = False, name = None)

          此函数用于降纬相加,

          tensor-输入的张量   

          axis-要求和的 rank,如果为 none,则表示所有 rank 都要求和

          keep_dims-如果为真,则求和之后不降纬

          心得:如果输入张量的维度为n,则axis的取值为0 - (n-1)

          例如:用下面代码进行测试

         

    import tensorflow as tf
    import numpy as np
    #生成形状为2*2*3的三维数据
    x = np.asarray([[[1,2,3],[4,5,6]],[[7,8,9],[10,11,12]]])
    x_p = tf.placeholder(tf.int32,[2,2,3])
    #修改下面的值
    #axis=0    对第一纬进行相加,降纬
    #axis=1    对第二纬进行相加,降纬
    #axis=2    对第三纬进行相加,降纬
    #axis=[0,1,2]    对第所有纬进行相加,降纬
    #axis=None    效果同上,降纬
    #axis=0 keep_dims = True    对第一纬进行相加,不降纬
    y =  tf.reduce_sum(x_p,0)
    with tf.Session() as sess:
        y = sess.run(y,feed_dict={x_p:x})
        print y

    输出结果依次是:

               

               

               

               

               

               

    tf.reduce_mean(tensor, axis = None, keep_dims = False, name = None)

             此函数与tf.reduce_sum()类似

             axis-要求平均的 rank,如果为 none,则表示所有 rank 都要求平均

             keep_dims-如果为真,则求和之后不降纬

             心得:如果输入张量的维度为n,则axis的取值为0 - (n-1)

             例如:用下面代码进行测试

         

    import tensorflow as tf
    import numpy as np
    #生成形状为2*2*3的三维数据
    x = np.asarray([[[1,2,3],[4,5,6]],[[7,8,9],[10,11,12]]])
    x_p = tf.placeholder(tf.int32,[2,2,3])
    #修改下面的值
    #axis=0    对第一纬进行求平均,降纬
    #axis=1    对第二纬进行求平均,降纬
    #axis=2    对第三纬进行求平均,降纬
    #axis=[0,1,2]    对第所有纬进行求平均,降纬
    #axis=None    效果同上,降纬
    #axis=0 keep_dims = True    对第一纬进行求平均,不降纬
    y =  tf.reduce_mean(x_p,0)  #修改此处的参数
    with tf.Session() as sess:
        y = sess.run(y,feed_dict={x_p:x})
        print y

    输出结果为:
           

           

           

           

           

           

     

关键字