rnn 예제

augusztus 2, 2019 10:44 de. Közzétette cccccccccccccc

안녕. 나는 항상 당신의 좋은 글을 참조하십시오. 나는 섹션 2 예제에 약간의 오타가 있다고 생각합니다. 제 1 시퀀스는 [3,1,2,3,3]이고 두 번째 시퀀스는 [4,1,2,3,4]입니다. 첫 번째 시퀀스의 추론 예제 1 -> 2, 2 -> 3은 정확하지만 두 번째 시퀀스는 1 -> 2, 2 -> 3과 동일합니다. 첫 번째 시퀀스와 두 번째 시퀀스 간의 차이를 표시하는 것이 목표라면 첫 번째 시퀀스의 2-> 3, 3-> 3과 두 번째 시퀀스의 2-> 3, 3-> 4를 비교하는 것이 올바른 예라고 생각합니다. 나는 오해 했을 수 있습니다., 하지만 그것은 도움이 되는 경우 코멘트를 남길 거 야. 특히 좋은 예는 텍스트 시퀀스를 예측하는 것입니다. “한 소녀가 술집에 들어갔는데,`술을 마실 수 있을까?` 하고 물었습니다.

바텐더는 `확실히 {}”라고 말했다. 예를 들어 위의 문자열에서 {} 기호를 채울 수 있는 옵션(예: “miss”, “ma`am” 등)에 대한 많은 옵션이 있습니다. 그러나 다른 단어는 “선생님”, “미스터”등과 같은 에도 맞을 수 있습니다. 명사에 대한 올바른 성별을 얻기 위해 신경망은 가능성이 있는 성별(예: “소녀”와 “그녀”)을 지정하는 두 개의 이전 단어가 사용되었다는 것을 “기억”해야 합니다. 반복 신경망에서 시간(또는 시퀀스)을 통한 이러한 유형의 정보 흐름은 시퀀스를 해제하는 아래 다이어그램에 나와 있습니다. Word2Vec 알고리즘의 이전 자습서에서 설명한 것처럼 단어는 의미 있는 단어 벡터를 사용하여 신경망에 입력됩니다. 이 벡터는 단어의 의미의 일부 측면을 캡처하는 방식으로 인코딩됩니다 (의미는 일반적으로 단어가 일반적으로 발견되는 컨텍스트로 해석됩니다). 따라서 아래의 LSTM 네트워크에 입력된 각 단어는 650 길이 벡터가 됩니다. 다음으로, 언롤링된 LSTM 네트워크에 단어 시퀀스를 입력하기 때문에 각 입력 행에 대해 이러한 단어 벡터 중 35개에 대해 입력합니다. 따라서 각 행의 입력은 크기(35 x 650)가 됩니다. 마지막으로 TensorFlow를 사용하면 다차원 텐서를 통해 데이터 일괄 처리를 처리할 수 있습니다(기본 TensorFlow에 대해 자세히 알아보려면 이 TensorFlow 자습서를 참조하십시오). 일괄 처리 크기가 20인 경우 학습 입력 데이터(20 x 35 x 650)가 됩니다.

Kategória: Egyéb

Írta: Gabor

Hozzászólás zárolva.