在Keras实施注意


v-star*위위
2025-03-18 08:38:29 (24天前)


我试图通过简单的lstm在keras中实现注意:

model_2_input =输入(形状=(500,))
#model_2 = Conv1D(100,10,activation =‘relu’)(model_2_input)
model_2 =密集(64,激活=’……

2 条回复
  1. 0# 圈圈红 | 2019-08-31 10-32



    您可以在连接之前添加Reshape图层以确保兼容性。
    请参阅keras文档

    这里


    可能最好重塑model_2输出

    (None, 64)




    编辑:
    </强>



    基本上,您需要在连接之前添加具有目标形状的Reshape图层:




    1. model_2 = Reshape(new_shape)(model_2)

    2. </code>


    这将返回

    (batch_size, (new_shape))

    您当然可以重塑网络的任一分支,只使用model_2输出,因为它是一个更简单的示例



    话虽如此,也许值得重新考虑您的网络结构。特别是,这个问题源于第二个点层(只给你16个标量)。因此,很难重塑以使两个分支匹配。



    在不知道模型试图预测什么或者训练数据是什么样的情况下,很难评论两个点是否必要,但潜在的重构可以解决这个问题。


登录 后才能参与评论