TensorFlow笔记6:MNIST 2
在之前的博客中,通过将图像降维成一维矩阵,利用较简单的回归训练实现了MNIST,精度达到了90%。 但这个方法并不是最好的。很重要的一个原因就是降维损失了图像中重要的二维信息。 因此在MNIST的第二篇笔记中,通过卷积建立简单的学习网络,同时拥有更好的效果。 这里先贴出训练模型的代码,然后...»
在之前的博客中,通过将图像降维成一维矩阵,利用较简单的回归训练实现了MNIST,精度达到了90%。 但这个方法并不是最好的。很重要的一个原因就是降维损失了图像中重要的二维信息。 因此在MNIST的第二篇笔记中,通过卷积建立简单的学习网络,同时拥有更好的效果。 这里先贴出训练模型的代码,然后...»
在学习深度学习神经网络时,经常会在网络中看到“激活函数”,一般用于某一层的输出数据上,但一直不太明白为什么要有这个东西。 因此这篇博客参考了网上各种资源学习了一下,这里简单做一个总结。主要从以下几个方面介绍:是什么、为什么要用(有什么效果)、常用的激活函数。 一、为什么要用激活函数 ...»
之所以尝试了一下源码编译TF,理由很简单。一是因为每次在运行的时候都会出现如下警告,感觉有点“不爽”。 二是本来电脑就没有GPU,如果CPU的一点点加速都用不了,那就是太慢了。 所以就想着去编译一个优化后的TF安装包。 准备工作 1.查看可优化的信息 直接利用PIP安装普通版的TF,然...»
前言 在之前写了Python脚本转exe的博客,点击这里查看。 但因项目需要,需要在Linux服务器上运行Python脚本,但无奈服务器上的Python“很干净”,所有第三方的包都没有,Numpy、Matplotlib等等,但安装又很麻烦。 服务器没有联网,连基本的setuptools、p...»
MNIST 经典的MNIST问题,相关原理其实和上一篇博客类似。利用线性模型y=Wx+b并结合Softmax实现分类。 更多有关原理的部分可以参考之前的这篇博客或者TF官方教程。 这篇博客主要侧重于代码实现。并且代码整体框架沿用上篇博客的“曲面拟合”,也以此来展示虽然不同任务的目标不同,...»
powered by freefind | advanced |