激活函数
激活函数
内建激活函数
tf.nn.sigmoid
将实数压缩到

tf.nn.softmax

tf.nn.tanh
将实数压缩到

tf.nn.relu
修正线性单元,最流行的激活函数。一般隐藏层使用。主要缺陷是:输出不以

tf.nn.leaky_relu
对修正线性单元的改进,解决了死亡

tf.nn.elu
指数线性单元。对

tf.nn.selu
扩展型指数线性单元。在权重用

tf.nn.swish
自门控激活函数。谷歌出品,相关研究指出用

模型中设置激活函数
在
import numpy as np
import pandas as pd
import tensorflow as tf
from tensorflow.keras import layers,models
tf.keras.backend.clear_session()
model = models.Sequential()
model.add(layers.Dense(32,input_shape = (None,16),activation = tf.nn.relu)) #通过activation参数指定
model.add(layers.Dense(10))
model.add(layers.Activation(tf.nn.softmax)) # 显式添加layers.Activation激活层
model.summary()