Informações sobre o curso

185,171 visualizações recentes
Certificados compartilháveis
Tenha o certificado após a conclusão
100% on-line
Comece imediatamente e aprenda em seu próprio cronograma.
Prazos flexíveis
Redefinir os prazos de acordo com sua programação.
Nível intermediário
Aprox. 27 horas para completar
Inglês

Habilidades que você terá

Reformer ModelsNeural Machine TranslationChatterbotT5+BERT ModelsAttention Models
Certificados compartilháveis
Tenha o certificado após a conclusão
100% on-line
Comece imediatamente e aprenda em seu próprio cronograma.
Prazos flexíveis
Redefinir os prazos de acordo com sua programação.
Nível intermediário
Aprox. 27 horas para completar
Inglês

oferecido por

Placeholder

deeplearning.ai

Programa - O que você aprenderá com este curso

Classificação do conteúdoThumbs Up80%(1,756 classificações)Info
Semana
1

Semana 1

7 horas para concluir

Neural Machine Translation

7 horas para concluir
9 vídeos (Total 81 mín.), 9 leituras, 1 teste
9 videos
Seq2seq4min
Alignment4min
Attention6min
Setup for Machine Translation3min
Training an NMT with Attention6min
Evaluation for Machine Translation8min
Sampling and Decoding9min
Andrew Ng with Oren Etzioni34min
9 leituras
Connect with your mentors and fellow learners on Slack!10min
Background on seq2seq10min
(Optional): The Real Meaning of Ich Bin ein Berliner10min
Attention10min
Training an NMT with Attention10min
(Optional) What is Teacher Forcing?10min
Evaluation for Machine Translation10min
Content Resource10min
How to Refresh your Workspace10min
Semana
2

Semana 2

6 horas para concluir

Text Summarization

6 horas para concluir
7 vídeos (Total 43 mín.), 1 leitura, 1 teste
7 videos
Transformer Applications8min
Dot-Product Attention7min
Causal Attention4min
Multi-head Attention6min
Transformer Decoder5min
Transformer Summarizer4min
1 leituras
Content Resource10min
Semana
3

Semana 3

7 horas para concluir

Question Answering

7 horas para concluir
10 vídeos (Total 45 mín.), 1 leitura, 1 teste
10 videos
Transfer Learning in NLP7min
ELMo, GPT, BERT, T57min
Bidirectional Encoder Representations from Transformers (BERT)4min
BERT Objective2min
Fine tuning BERT2min
Transformer: T53min
Multi-Task Training Strategy5min
GLUE Benchmark2min
Question Answering2min
1 leituras
Content Resource10min
Semana
4

Semana 4

7 horas para concluir

Chatbot

7 horas para concluir
7 vídeos (Total 62 mín.), 5 leituras, 1 teste
7 videos
Transformer Complexity3min
LSH Attention4min
Motivation for Reversible Layers: Memory! 2min
Reversible Residual Layers 5min
Reformer2min
Andrew Ng with Quoc Le40min
5 leituras
Optional AI Storytelling15min
Optional KNN & LSH Review20min
Optional Transformers beyond NLP20min
Acknowledgments10min
References10min

Avaliações

Principais avaliações do NATURAL LANGUAGE PROCESSING WITH ATTENTION MODELS

Visualizar todas as avaliações

Sobre Programa de cursos integrados Processamento da Linguagem Natural

Processamento da Linguagem Natural

Perguntas Frequentes – FAQ

Mais dúvidas? Visite o Central de Ajuda ao Aprendiz.