博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
1.4激活函数-带隐层的神经网络tf实战
阅读量:5322 次
发布时间:2019-06-14

本文共 2823 字,大约阅读时间需要 9 分钟。

 

激活函数

激活函数----日常不能用线性方程所概括的东西

左图是线性方程,右图是非线性方程

当男生增加到一定程度的时候,喜欢女生的数量不可能无限制增加,更加趋于平稳

在线性基础上套了一个激活函数,使得最后能得到输出结果

常用的三种激活函数:

取值不同时得到的结果也不同

常见激活函数图形

 

 

tensorflow中自带的激活函数举例:

 

 添加隐层的神经网络

 

#添加隐层的神经网络结构import tensorflow as tfdef add_layer(inputs,in_size,out_size,activation_function=None):    #定义权重--随机生成inside和outsize的矩阵    Weights=tf.Variable(tf.random_normal([in_size,out_size]))    #不是矩阵,而是类似列表    biaes=tf.Variable(tf.zeros([1,out_size])+0.1)    Wx_plus_b=tf.matmul(inputs,Weights)+biaes    if activation_function is None: outputs=Wx_plus_b else: outputs=activation_function(Wx_plus_b) return outputs import numpy as np x_data=np.linspace(-1,1,300)[:,np.newaxis] #300行数据 noise=np.random.normal(0,0.05,x_data.shape) y_data=np.square(x_data)-0.5+noise #None指定sample个数,这里不限定--输出属性为1 xs=tf.placeholder(tf.float32,[None,1]) #这里需要指定tf.float32, ys=tf.placeholder(tf.float32,[None,1]) #建造第一层layer #输入层(1) l1=add_layer(xs,1,10,activation_function=tf.nn.relu) #隐层(10) prediction=add_layer(l1,10,1,activation_function=None) #输出层(1) #预测prediction loss=tf.reduce_mean(tf.reduce_sum(tf.square(ys-prediction), reduction_indices=[1])) #平方误差 train_step=tf.train.GradientDescentOptimizer(0.1).minimize(loss) init=tf.initialize_all_variables() sess=tf.Session() #直到执行run才执行上述操作 sess.run(init) for i in range(1000): #这里假定指定所有的x_data来指定运算结果 sess.run(train_step,feed_dict={xs:x_data,ys:y_data}) if i%50: print (sess.run(loss,feed_dict={xs:x_data,ys:y_data}))

 

 显示:

1.115930.265610.1678720.1146710.08359570.06452370.05244480.04463630.0394760.03602110.03365990.03201340.03083780.02998280.0293240.02879960.02835580.02796240.02760170.027260.02693160.02661030.0262980.02599140.02569050.0253950.02510550.02482040.0245380.02426040.0239880.02372110.02345830.02319790.02294180.02269010.02244270.02219940.02195890.02172220.02148880.02125350.02102440.02079880.02057490.02035480.0201381

 

增加np.newaxis

np.newaxis 为 numpy.ndarray(多维数组)增加一个轴

>> type(np.newaxis)NoneType>> np.newaxis == NoneTrue

np.newaxis 在使用和功能上等价于 None,其实就是 None 的一个别名。

1. np.newaxis 的实用

 

>> x = np.arange(3)>> xarray([0, 1, 2])>> x.shape(3,)>> x[:, np.newaxis]array([[0],       [1],       [2]])>> x[:, None]array([[0],       [1],       [2]])>> x[:, np.newaxis].shape (3, 1)

2. 索引多维数组的某一列时返回的是一个行向量

>>> X = np.array([[1, 2, 3, 4], [5, 6, 7, 8], [9, 10, 11, 12]])>>> X[:, 1]array([2, 6, 10])       % 这里是一个行>>> X[:, 1].shape       % X[:, 1] 的用法完全等同于一个行,而不是一个列,(3, )

如果我们索引多维数组的某一列时,返回的仍然是列的结构,一种正确的索引方式是:

>>>X[:, 1][:, np.newaxis]array([[2],      [6],      [10]])

如果想实现第二列和第四列的拼接(层叠):

>>>X_sub = np.hstack([X[:, 1][:, np.newaxis], X[:, 3][:, np.newaxis]])                              % hstack:horizontal stack,水平方向上的层叠>>>X_subarray([[2, 4]      [6, 8]      [10, 12]])

当然更为简单的方式还是使用切片:

>> X[:, [1, 3]]array([[ 2,  4],       [ 6,  8],       [10, 12]])

 

转载于:https://www.cnblogs.com/jackchen-Net/p/8082506.html

你可能感兴趣的文章
Tile的更新
查看>>
在同一个页面设置两个选项卡菜单 滑动式导航
查看>>
Mybatis: 无效的列类型:1111错误
查看>>
DataGridView隔行显示不同的颜色
查看>>
封装数据库配置文件App配置文件
查看>>
python 执行shell命令
查看>>
Mybatis的mapper文件中$和#的区别
查看>>
Find the total area covered by two rectilinear rectangles in a 2D plane. 208MM
查看>>
C#学习笔记-观察者模式
查看>>
常用原生JS兼容性写法汇总
查看>>
微信公众号网页开发——阻止微信客户端内点击任何图片自动放大
查看>>
hadoop2.6.0实践:004 启动伪分布式hadoop的进程
查看>>
12 生成器和生成器表达式
查看>>
bzoj2424: [HAOI2010]订货
查看>>
go语言reflect实验
查看>>
再谈AutoResetEvent和ManualResetEvent 之详细解说
查看>>
sql server日期与时间函数
查看>>
leetcode Minimum Depth of Binary Tree python
查看>>
IOS开发--动画篇-->计时定时器
查看>>
二月主题读书整理——元技能系列
查看>>