去年买了几本关于张量流的书,今年看的时候发现样本代码里用的一些API已经过时了。看来维护一个更新的张量流教程还是有意义的。这是写这个系列的开始。

快餐教程系列希望尽可能降低门槛,少说话,讲透。

为了让大家一开始就看到美好的一幕,而不是停留在基础知识的长时间积累上,参考网上的一些教程,我们在开始直接展示一个用张量流实现MNIST手写识别的例子。然后慢慢说基础。

Tensorflow安装快速教程

由于Python是跨平台语言,所以在所有系统上安装张量流相对容易。后面再说GPU加速。

Tensorflow安装在Linux平台上

我们以Ubuntu版为例,先安装python3和pip3。Pip是python的包管理工具。

1sudo apt installpython3

2sudo apt installpython3-pip

张量流可以通过管道3安装:

1 ip3 installtensorflow-升级

MacOS安装tensorflow

建议自制安装python。

1brewinstall python3

安装python3后,通过pip3安装张量流。

1 ip3 installtensorflow-升级

张量流安装在Windows平台上

建议在Windows平台上通过Anaconda安装Tensorflow。

然后打开Anaconda提示符,输入:

1conda create-n tensorflow pip

2激活张量流

3pip安装-忽略-安装-升级tensorflow

这样就安装了张量流。

让我们快速举个例子来尝试一下:

1将张量流作为tf导入

2a = tf .常数

3b = tf .常数

4c = a * b

5sess = tf。会话

6print)

输出为2。

张量流,顾名思义,是由张量张量流组成的运算。

操作需要运行会话。如果打印,您将获得

1传感器,dtype=int32)

也就是说,这是一个乘法张量,需要通过Session.run来执行。

入门捷径:线性回归

我们先来看看最简单的机器学习模型,一个线性回归的例子。

线性回归的模型是矩阵乘法:

1tf .乘法

然后,我们调用张量流计算梯度下降函数TF。火车。梯度下降优化器实现优化。

让我们看看这个示例代码。只有三十多行,逻辑还是很清晰的。

这个例子来自丹尼尔在github上的作品:https://github.com/nlintz/TensorFlow-Tutorials,不是我的原作。

1将张量流作为tf导入

2将numpy导入为np

3trX = np.linspace

4 try = 2 * Trx+NP . random . randn* 0.33 #在线性值附近创建一些随机值

5X = tf.placeholder

6Y = tf.placeholder

7def型号:

8返回TF。多重 # x * w线性评估,非常简单

9w = tf。变量

10y_model = model

11cost = tf.square #以平方误差为优化目标

12train _ op = TF。train . gradientdeponentoptimizer。最小化#梯度下降优化

13#开始创建会话!

14带tf。会话作为会话:

15#需要先初始化全局变量,这是Tensorflow的要求

16tf . global _ variables _ initializer。运行

17对于范围内的I:

18for in :

19sess.run

20print)

我最终会得到一个接近2的值,比如我这次运行的值是1.9183811

手写识别在许多方面

线性回归是不够的,所以我们一步开始手写识别。

我们以深度学习三巨头之一Yann Lecun教授的MNIST数据为例。如上图所示,MNIST的数据是一个28x28的图像,并且标记了它的值应该是多少。

线性模型:逻辑回归

首先不考虑3721,我们用线性模型分类。

算上评论和空行加起来大概30行,就可以解决手写识别的难题了!看看代码:

1importtensorflow astf

2importnumpy asnp

3 front sensorflow . examples . tutorials . mnist importinput _ data

4定义重量:

5returntf。变量)

6defmodel:

7returntf.matmul #模型或矩阵乘法

8 NIST = input _ data . read _ data _ set

9trX,trY,teX,teY = mnist.train.images,mnist.train.labels,mnist.test.images,mnist.test.labels

10X = tf.placeholder

11Y = tf.placeholder

12w = init_weights

13py_x =型号

14成本= TF。reduce _ mean ) #计算错误

15 train _ op = TF . train . GradientDescentoptimizer。最小化#构造优化器

16predict_op = tf.argmax

17withtf。会议评估:

18tf . global _ variables _ initializer。运行

19 ori in range:

20forstart,end in,128),range+1,128)):

21 ess . run

22print ==

23 ess . run)

经过100轮训练,我们的准确率是92.36%。

无脑浅层神经网络

我们用最简单的线性模型,用经典的神经网络来实现这个功能。神经网络图如下图所示。

让我们构建一个隐藏层,使用最传统的sigmoid函数作为激活函数。它的核心逻辑是矩阵乘法,没什么技巧在里面。

1h = tf.nn.sigmoid)

2returntf.matmul

完整的代码如下,还有40多行,不长:

1importtensorflow astf

2importnumpy asnp

3 front sensorflow . examples . tutorials . mnist importinput _ data

4#所有连接随机生成权重

5定义重量:

6returntf。变量)

7defmodel:

8h = tf.nn.sigmoid)

9returntf.matmul

10 NIST = input _ data . read _ data _ set

11trX,trY,teX,teY = mnist.train.images,mnist.train.labels,mnist.test.images,mnist.test.labels

12X = tf.placeholder

13Y = tf.placeholder

14w_h = init_weights

15w_o = init_weights

16py_x =型号

17成本= TF。reduce _ mean ) #计算错误损失

18 train _ op = TF . train . GradientDescentoptimizer。最小化#构建优化器

19predict_op = tf.argmax

20withtf。会议评估:

21tf . global _ variables _ initializer。运行

22 fori inrange:

23 forstart,end in,128),range+1,128)):

24 sess.run

25 print =

26 sess.run)

第一轮操作,我这次准确率只有69.11%,第二次提高到82.29%。最终结果是95.41%,强于Logistic回归!

请注意,我们模型核心的两行代码完全是无脑的,连接成一个隐藏的层,里面没有任何技术。完全取决于神经网络的建模能力。

深度学习时代的方案——ReLU与辍学秀头像

上次技术含量有点低。现在是深度学习的时候,我们取得了很大的进步。比如我们知道sigmoid函数应该用ReLU函数代替。

我们也知道我们将成为一名辍学生。所以我们还是隐藏层,写一个更现代的模型:

1X = TF . nn . drop

2h = tf.nn.relu)

3h = tf.nn.dropout

4h2 = tf.nn.relu

5h2 = tf.nn.dropout

6returntf.matmul

除了ReLU和drop,我们还是只有一个隐藏层,表达能力没有大的提升。不是深度学习。

1将张量流作为tf导入

2将numpy导入为np

3 from tensorflow . examples . tutorials . mnist import input _ data

4def init_weights:

5返回tf。变量)

6def模型:

7X = tf.nn .压差

8h = tf.nn.relu)

9h = tf.nn.dropout

10h2 = tf.nn.relu

11 H2 = TF . nn . drop

12return tf.matmul

13 NIST = input _ data . read _ data _ set

14trX,trY,teX,teY = mnist.train.images,mnist.train.labels,mnist.test.images,mnist.test.labels

15X = tf.placeholder

16Y = tf.placeholder

17w _ h = init _ weight

18w _ H2 = init _ weight

19w_o = init_weights

20p _ keep _ input = TF . placeholder

21p _ keep _ hidden = TF . placeholder

22py_x = model

23 cost = TF . reduce _ mean)

24 train _ op = TF . train . rmsproptimizer。最小化

25predict_op = tf.argmax

26带tf。会话作为会话:

27#你需要初始化所有变量

28tf . global _ variables _ initializer。运行

29对于I范围:

30开始,结束于,128),范围+1,128)):

33ss . run

33print ==

34 ess . run)

从结果可以看出,第二次准确率在96%以上。此后一直徘徊在98.4%左右。只有ReLU和from将准确率从95%提高到98%以上。

卷积神经网络的出现

CNN,深度学习的真正武器,是卷积神经网络出来的。与之前的无脑模型相比,这个模型确实更加复杂。它涉及卷积层和汇集层。这个需要后面详细说。

1将张量流作为tf导入

2将numpy导入为np

3 from tensorflow . examples . tutorials . mnist import input _ data

4批处理大小= 128

5test_size = 256

6def init_weights:

7返回tf。变量)

8def型号:

9l1a = tf.nn.relu

10s三叉戟=,填充='SAME '))

11l1 = tf.nn.max_pool

12叉=,填充= '相同')

13l 1 = TF . nn . drop

14l 2a = TF . nn . relu

15步=,填充='SAME '))

16l2 = tf.nn.max_pool

17步=,填充= '相同')

18 L2 = TF . nn . drop

19l3a = TF . nn . relu

20步=,填充='SAME '))

21 l3 = tf.nn.max_pool

22个字符=,填充= '相同')

23l 3 = TF . resform。as_list]) #整形为

24 L3 = TF . nn . drop

25 l4 = tf.nn.relu)

26l 4 = TF . nn . drop

27pyx = tf.matmul

28返回pyx

29 NIST = input _ data . read _ data _ set

30trX,trY,teX,teY = mnist.train.images,mnist.train.labels,mnist.test.images,mnist.test.labels

31trX = trX.reshape # 28x28x1 input img31trX = TRx . resform # 28x28x1输入img

32teX = teX.reshape # 28x28x1 input img32teX = TEx . resform # 28x28x1输入img

33X = tf.placeholder

34Y = tf.placeholder

35w = init_weights # 3x3x1 conv,32路输出

36w2 = init_weights # 3x3x32 conv,64路输出

37w3 = init_weights # 3x3x32 conv,128个输出

38w4 = init_weights # FC 128 * 4 * 4输入,625输出

39w_o = init_weights # FC 625输入,10输出

40p _ keep _ conv = TF . placeholder

41p _ keep _ hidden = TF . placeholder

42py_x = model

43 cost = TF . reduce _ mean)

44 train _ op = TF . train . rmsproptimizer。最小化

45predict_op = tf.argmax

46带tf。会话作为会话:

你需要初始化所有的变量

48tf . global _ variables _ initializer。运行

49对于I范围:

50training_batch = ,batch_size),

51范围+1,批次大小))

52开始、结束于培训_批次:

53 ess . run

55测试_指数= np.arange) #获取测试批次

56np . random . shuffle

57 test _ indexs = test _ indexs

58print ==

59sess.run)

我们来看看这次的运营数据:

10 0.95703125

21 0.9921875

32 0.9921875

43 0.98046875

54 0.97265625

65 0.98828125

76 0.99609375

在第六轮中,它获得了99.6%的高分,与ReLU和Dropout隐藏层的98.4%的神经网络相比有了很大的提高。因为越到后面难度越大。

第16轮,我跑出了100%的准确率:

17 0.99609375

28 0.99609375

39 0.98828125

410 0.98828125

511 0.9921875

612 0.98046875

713 0.99609375

814 0.9921875

915 0.99609375

1016 1.0

综上所述,借助Tensorflow和机器学习工具,我们只有几十行代码,解决了这个级别的手写识别问题,准确率可以达到这个级别。

作者博客链接:

https://blog.csdn.net/lusing/article/details/79965160

-结束-

有自己的个性化机器人!

1.《tensorflow安装 连载 | Tensorflow教程一:30行代码搞定手写识别》援引自互联网,旨在传递更多网络信息知识,仅代表作者本人观点,与本网站无关,侵删请联系页脚下方联系方式。

2.《tensorflow安装 连载 | Tensorflow教程一:30行代码搞定手写识别》仅供读者参考,本网站未对该内容进行证实,对其原创性、真实性、完整性、及时性不作任何保证。

3.文章转载时请保留本站内容来源地址,https://www.lu-xu.com/keji/1690662.html