本文由 huoji 创作,采用 知识共享署名 3.0,可自由转载、引用,但需署名作者且注明文章出处。

3 条评论

  1. Tang
    Tang

    后果是,神经网络只用到了length和entropy.

  2. Tang
    Tang

    vectorize_sequences本意应当是填充和截断,在这里成了全0

    def vectorize_sequences(sequences, dimention=1337):

    创建一个大小为(25000,10000)的全零矩阵

    results = np.zeros((len(sequences), dimention))
    for i, sequence in enumerate(sequences):#此处的sequence是一个列表
    if i > dimention:
    break
    try:
    results[i, sequence] = 1.
    except:#基本上都会break
    break

    1. huoji
      huoji

      你说的结论是错误的,具体我已经在github回复你了.

添加新评论

选择表情