TensorFlow를 사용하여 구현 된 많은 사용 가능한 신경망 코드에서 정규화 용어는 손실 값에 추가 용어를 수동으로 추가하여 구현되는 경우가 많습니다.
내 질문은 다음과 같습니다.
-
수동으로 수행하는 것보다 더 우아하거나 권장되는 정규화 방법이 있습니까?
-
나는 또한 그것이
get_variable
논쟁 을 가지고 있음 을 발견했다regularizer
. 어떻게 사용해야합니까? 내 관찰에 따르면 정규화를 여기에 전달하면 (예 :tf.contrib.layers.l2_regularizer
정규화 된 용어를 나타내는 텐서가 계산되어이라는 그래프 컬렉션에 추가됩니다tf.GraphKeys.REGULARIZATOIN_LOSSES
. 해당 컬렉션이 TensorFlow에서 자동으로 사용됩니까 (예 : 학습시 최적화 프로그램에서 사용됨)? 또는 이 컬렉션을 혼자서 사용해야하나요?
답변
두 번째 요점에서 말했듯이 regularizer
인수를 사용하는 것이 권장되는 방법입니다. 에서 사용 get_variable
하거나 한 번 설정하고 variable_scope
모든 변수를 정규화 할 수 있습니다.
손실은 그래프에 수집되며 이와 같이 비용 함수에 수동으로 추가해야합니다.
reg_losses = tf.get_collection(tf.GraphKeys.REGULARIZATION_LOSSES)
reg_constant = 0.01 # Choose an appropriate one.
loss = my_normal_loss + reg_constant * sum(reg_losses)
도움이 되었기를 바랍니다.
답변
기존 답변의 몇 가지 측면이 즉시 명확하지 않았으므로 다음은 단계별 가이드입니다.
-
정규화기를 정의하십시오. 여기에서 정규화 상수를 설정할 수 있습니다. 예 :
regularizer = tf.contrib.layers.l2_regularizer(scale=0.1)
-
다음을 통해 변수를 만듭니다.
weights = tf.get_variable( name="weights", regularizer=regularizer, ... )
마찬가지로 일반
weights = tf.Variable(...)
생성자 를 통해 변수를 생성 한 다음tf.add_to_collection(tf.GraphKeys.REGULARIZATION_LOSSES, weights)
. -
loss
용어를 정의 하고 정규화 용어를 추가합니다.reg_variables = tf.get_collection(tf.GraphKeys.REGULARIZATION_LOSSES) reg_term = tf.contrib.layers.apply_regularization(regularizer, reg_variables) loss += reg_term
참고 :
tf.contrib.layers.apply_regularization
으로 구현 된 것처럼 보이AddN
므로sum(reg_variables)
.
답변
정답을 찾지 못 했으므로 간단한 정답을 제공하겠습니다. 두 가지 간단한 단계가 필요하며 나머지는 tensorflow 매직에 의해 수행됩니다.
-
변수 또는 레이어를 만들 때 정규화를 추가합니다.
tf.layers.dense(x, kernel_regularizer=tf.contrib.layers.l2_regularizer(0.001)) # or tf.get_variable('a', regularizer=tf.contrib.layers.l2_regularizer(0.001))
-
손실을 정의 할 때 정규화 용어를 추가하십시오.
loss = ordinary_loss + tf.losses.get_regularization_loss()
답변
이 작업을 수행하는 또 다른 옵션 contrib.learn
라이브러리 은 Tensorflow 웹 사이트 의 Deep MNIST 자습서 를 기반으로하는 다음과 같습니다 . 먼저 관련 라이브러리 (예 :)를 가져 왔다고 가정 import tensorflow.contrib.layers as layers
하고 별도의 방법으로 네트워크를 정의 할 수 있습니다.
def easier_network(x, reg):
""" A network based on tf.contrib.learn, with input `x`. """
with tf.variable_scope('EasyNet'):
out = layers.flatten(x)
out = layers.fully_connected(out,
num_outputs=200,
weights_initializer = layers.xavier_initializer(uniform=True),
weights_regularizer = layers.l2_regularizer(scale=reg),
activation_fn = tf.nn.tanh)
out = layers.fully_connected(out,
num_outputs=200,
weights_initializer = layers.xavier_initializer(uniform=True),
weights_regularizer = layers.l2_regularizer(scale=reg),
activation_fn = tf.nn.tanh)
out = layers.fully_connected(out,
num_outputs=10, # Because there are ten digits!
weights_initializer = layers.xavier_initializer(uniform=True),
weights_regularizer = layers.l2_regularizer(scale=reg),
activation_fn = None)
return out
그런 다음 기본 메서드에서 다음 코드 조각을 사용할 수 있습니다.
def main(_):
mnist = input_data.read_data_sets(FLAGS.data_dir, one_hot=True)
x = tf.placeholder(tf.float32, [None, 784])
y_ = tf.placeholder(tf.float32, [None, 10])
# Make a network with regularization
y_conv = easier_network(x, FLAGS.regu)
weights = tf.get_collection(tf.GraphKeys.TRAINABLE_VARIABLES, 'EasyNet')
print("")
for w in weights:
shp = w.get_shape().as_list()
print("- {} shape:{} size:{}".format(w.name, shp, np.prod(shp)))
print("")
reg_ws = tf.get_collection(tf.GraphKeys.REGULARIZATION_LOSSES, 'EasyNet')
for w in reg_ws:
shp = w.get_shape().as_list()
print("- {} shape:{} size:{}".format(w.name, shp, np.prod(shp)))
print("")
# Make the loss function `loss_fn` with regularization.
cross_entropy = tf.reduce_mean(
tf.nn.softmax_cross_entropy_with_logits(labels=y_, logits=y_conv))
loss_fn = cross_entropy + tf.reduce_sum(reg_ws)
train_step = tf.train.AdamOptimizer(1e-4).minimize(loss_fn)
이 작업을 수행하려면 앞서 링크 한 MNIST 자습서를 따라 관련 라이브러리를 가져와야하지만 TensorFlow를 배우는 것은 좋은 연습이며 정규화가 출력에 어떤 영향을 미치는지 쉽게 확인할 수 있습니다. 정규화를 인수로 적용하면 다음을 볼 수 있습니다.
- EasyNet/fully_connected/weights:0 shape:[784, 200] size:156800
- EasyNet/fully_connected/biases:0 shape:[200] size:200
- EasyNet/fully_connected_1/weights:0 shape:[200, 200] size:40000
- EasyNet/fully_connected_1/biases:0 shape:[200] size:200
- EasyNet/fully_connected_2/weights:0 shape:[200, 10] size:2000
- EasyNet/fully_connected_2/biases:0 shape:[10] size:10
- EasyNet/fully_connected/kernel/Regularizer/l2_regularizer:0 shape:[] size:1.0
- EasyNet/fully_connected_1/kernel/Regularizer/l2_regularizer:0 shape:[] size:1.0
- EasyNet/fully_connected_2/kernel/Regularizer/l2_regularizer:0 shape:[] size:1.0
정규화 부분은 사용 가능한 항목에 따라 세 가지 항목을 제공합니다.
0, 0.0001, 0.01 및 1.0의 정규화를 사용하면 각각 0.9468, 0.9476, 0.9183 및 0.1135의 테스트 정확도 값을 얻어 높은 정규화 항의 위험을 보여줍니다.
답변
누군가가 여전히 찾고 있다면 tf.keras에 추가하고 싶습니다. 레이어에서 인수로 전달하여 가중치 정규화를 추가 할 수 있습니다. Tensorflow Keras Tutorials 사이트에서 전체적으로 가져온 L2 정규화를 추가하는 예 :
model = keras.models.Sequential([
keras.layers.Dense(16, kernel_regularizer=keras.regularizers.l2(0.001),
activation=tf.nn.relu, input_shape=(NUM_WORDS,)),
keras.layers.Dense(16, kernel_regularizer=keras.regularizers.l2(0.001),
activation=tf.nn.relu),
keras.layers.Dense(1, activation=tf.nn.sigmoid)
])
내가 아는 한이 방법으로 정규화 손실을 수동으로 추가 할 필요가 없습니다.
참조 : https://www.tensorflow.org/tutorials/keras/overfit_and_underfit#add_weight_regularization
답변
I 테스트 tf.get_collection(tf.GraphKeys.REGULARIZATION_LOSSES)
및 tf.losses.get_regularization_loss()
하나 l2_regularizer
의 그래프에서, 그들은 동일한 값을 반환하였습니다. 값의 양을 관찰하면 reg_constant가 매개 변수를 설정하여 이미 값을 이해했다고 생각 tf.contrib.layers.l2_regularizer
합니다.
답변
CNN이있는 경우 다음을 수행 할 수 있습니다.
모델 기능에서 :
conv = tf.layers.conv2d(inputs=input_layer,
filters=32,
kernel_size=[3, 3],
kernel_initializer='xavier',
kernel_regularizer=tf.contrib.layers.l2_regularizer(1e-5),
padding="same",
activation=None)
...
손실 함수에서 :
onehot_labels = tf.one_hot(indices=tf.cast(labels, tf.int32), depth=num_classes)
loss = tf.losses.softmax_cross_entropy(onehot_labels=onehot_labels, logits=logits)
regularization_losses = tf.losses.get_regularization_losses()
loss = tf.add_n([loss] + regularization_losses)