두 개의 레이어가있는 신경망의 예가 있습니다. 첫 번째 계층은 두 개의 인수를 취하고 하나의 출력을 갖습니다. 두 번째는 첫 번째 계층의 결과로 하나의 인수와 하나의 추가 인수를 취해야합니다. 다음과 같이 표시됩니다.
x1 x2 x3
\ / /
y1 /
\ /
y2
그래서 두 개의 레이어가있는 모델을 만들고 병합하려고했지만 오류가 반환됩니다 : The first layer in a Sequential model must get an "input_shape" or "batch_input_shape" argument.
on the line result.add(merged)
.
모델:
first = Sequential()
first.add(Dense(1, input_shape=(2,), activation='sigmoid'))
second = Sequential()
second.add(Dense(1, input_shape=(1,), activation='sigmoid'))
result = Sequential()
merged = Concatenate([first, second])
ada_grad = Adagrad(lr=0.1, epsilon=1e-08, decay=0.0)
result.add(merged)
result.compile(optimizer=ada_grad, loss=_loss_tensor, metrics=['accuracy'])
답변
때문에 오류를 얻고 result
로 정의 Sequential()
모델에 대한 단지 용기가 당신이 그것을에 대한 입력을 정의하지 않았습니다.
result
세 번째 입력을 받기 위해 세트 를 구축하려는 것을 감안할 때 x3
.
first = Sequential()
first.add(Dense(1, input_shape=(2,), activation='sigmoid'))
second = Sequential()
second.add(Dense(1, input_shape=(1,), activation='sigmoid'))
third = Sequential()
# of course you must provide the input to result with will be your x3
third.add(Dense(1, input_shape=(1,), activation='sigmoid'))
# lets say you add a few more layers to first and second.
# concatenate them
merged = Concatenate([first, second])
# then concatenate the two outputs
result = Concatenate([merged, third])
ada_grad = Adagrad(lr=0.1, epsilon=1e-08, decay=0.0)
result.compile(optimizer=ada_grad, loss='binary_crossentropy',
metrics=['accuracy'])
그러나 이러한 유형의 입력 구조를 가진 모델을 빌드하는 선호하는 방법은 기능적 api 를 사용하는 것 입니다.
다음은 시작하기위한 요구 사항의 구현입니다.
from keras.models import Model
from keras.layers import Concatenate, Dense, LSTM, Input, concatenate
from keras.optimizers import Adagrad
first_input = Input(shape=(2, ))
first_dense = Dense(1, )(first_input)
second_input = Input(shape=(2, ))
second_dense = Dense(1, )(second_input)
merge_one = concatenate([first_dense, second_dense])
third_input = Input(shape=(1, ))
merge_two = concatenate([merge_one, third_input])
model = Model(inputs=[first_input, second_input, third_input], outputs=merge_two)
ada_grad = Adagrad(lr=0.1, epsilon=1e-08, decay=0.0)
model.compile(optimizer=ada_grad, loss='binary_crossentropy',
metrics=['accuracy'])
댓글에있는 질문에 답하려면 :
1) 결과와 병합은 어떻게 연결됩니까? 그들이 어떻게 연결되어 있는지를 의미한다고 가정합니다.
연결은 다음과 같이 작동합니다.
a b c
a b c g h i a b c g h i
d e f j k l d e f j k l
즉, 행이 결합됩니다.
2) 이제 x1
첫 번째에 x2
입력되고 두 번째에 x3
입력되고 세 번째에 입력됩니다.
답변
위에서 동의 한 답변에 추가하여 사용하는 사람들에게 도움이됩니다. tensorflow 2.0
import tensorflow as tf
# some data
c1 = tf.constant([[1, 1, 1], [2, 2, 2]], dtype=tf.float32)
c2 = tf.constant([[2, 2, 2], [3, 3, 3]], dtype=tf.float32)
c3 = tf.constant([[3, 3, 3], [4, 4, 4]], dtype=tf.float32)
# bake layers x1, x2, x3
x1 = tf.keras.layers.Dense(10)(c1)
x2 = tf.keras.layers.Dense(10)(c2)
x3 = tf.keras.layers.Dense(10)(c3)
# merged layer y1
y1 = tf.keras.layers.Concatenate(axis=1)([x1, x2])
# merged layer y2
y2 = tf.keras.layers.Concatenate(axis=1)([y1, x3])
# print info
print("-"*30)
print("x1", x1.shape, "x2", x2.shape, "x3", x3.shape)
print("y1", y1.shape)
print("y2", y2.shape)
print("-"*30)
결과:
------------------------------
x1 (2, 10) x2 (2, 10) x3 (2, 10)
y1 (2, 20)
y2 (2, 30)
------------------------------
답변
당신은 실험 할 수 model.summary()
(주목하라 concatenate_XX (연결할) 레이어 크기)
# merge samples, two input must be same shape
inp1 = Input(shape=(10,32))
inp2 = Input(shape=(10,32))
cc1 = concatenate([inp1, inp2],axis=0) # Merge data must same row column
output = Dense(30, activation='relu')(cc1)
model = Model(inputs=[inp1, inp2], outputs=output)
model.summary()
# merge row must same column size
inp1 = Input(shape=(20,10))
inp2 = Input(shape=(32,10))
cc1 = concatenate([inp1, inp2],axis=1)
output = Dense(30, activation='relu')(cc1)
model = Model(inputs=[inp1, inp2], outputs=output)
model.summary()
# merge column must same row size
inp1 = Input(shape=(10,20))
inp2 = Input(shape=(10,32))
cc1 = concatenate([inp1, inp2],axis=1)
output = Dense(30, activation='relu')(cc1)
model = Model(inputs=[inp1, inp2], outputs=output)
model.summary()
자세한 내용은 여기에서 노트북을 볼 수 있습니다.
https://nbviewer.jupyter.org/github/anhhh11/DeepLearning/blob/master/Concanate_two_layer_keras.ipynb