Informações sobre o curso

295,193 visualizações recentes
Certificados compartilháveis
Tenha o certificado após a conclusão
100% on-line
Comece imediatamente e aprenda em seu próprio cronograma.
Prazos flexíveis
Redefinir os prazos de acordo com sua programação.
Nível intermediário
Aprox. 24 horas para completar
Inglês

Habilidades que você terá

Word2vecParts-of-Speech TaggingN-gram Language ModelsAutocorrect
Certificados compartilháveis
Tenha o certificado após a conclusão
100% on-line
Comece imediatamente e aprenda em seu próprio cronograma.
Prazos flexíveis
Redefinir os prazos de acordo com sua programação.
Nível intermediário
Aprox. 24 horas para completar
Inglês

oferecido por

Placeholder

deeplearning.ai

Programa - O que você aprenderá com este curso

Classificação do conteúdoThumbs Up92%(1,743 classificações)Info
Semana
1

Semana 1

6 horas para concluir

Autocorrect

6 horas para concluir
9 vídeos (Total 27 mín.), 2 leituras, 1 teste
9 videos
Overview1min
Autocorrect2min
Building the model3min
Building the model II2min
Minimum edit distance2min
Minimum edit distance algorithm5min
Minimum edit distance algorithm II3min
Minimum edit distance algorithm III2min
2 leituras
Connect with your mentors and fellow learners on Slack!10min
How to Refresh your Workspace10min
Semana
2

Semana 2

4 horas para concluir

Part of Speech Tagging and Hidden Markov Models

4 horas para concluir
11 vídeos (Total 38 mín.)
11 videos
Markov Chains3min
Markov Chains and POS Tags4min
Hidden Markov Models3min
Calculating Probabilities3min
Populating the Transition Matrix4min
Populating the Emission Matrix2min
The Viterbi Algorithm3min
Viterbi: Initialization2min
Viterbi: Forward Pass2min
Viterbi: Backward Pass5min
Semana
3

Semana 3

7 horas para concluir

Autocomplete and Language Models

7 horas para concluir
9 vídeos (Total 50 mín.)
9 videos
N-grams and Probabilities7min
Sequence Probabilities5min
Starting and Ending Sentences8min
The N-gram Language Model6min
Language Model Evaluation6min
Out of Vocabulary Words4min
Smoothing6min
Week Summary1min
Semana
4

Semana 4

7 horas para concluir

Word embeddings with neural networks

7 horas para concluir
20 vídeos (Total 65 mín.), 1 leitura, 1 teste
20 videos
Basic Word Representations3min
Word Embeddings3min
How to Create Word Embeddings3min
Word Embedding Methods3min
Continuous Bag-of-Words Model3min
Cleaning and Tokenization4min
Sliding Window of Words in Python3min
Transforming Words into Vectors2min
Architecture of the CBOW Model3min
Architecture of the CBOW Model: Dimensions3min
Architecture of the CBOW Model: Dimensions 22min
Architecture of the CBOW Model: Activation Functions4min
Training a CBOW Model: Cost Function4min
Training a CBOW Model: Forward Propagation3min
Training a CBOW Model: Backpropagation and Gradient Descent4min
Extracting Word Embedding Vectors2min
Evaluating Word Embeddings: Intrinsic Evaluation3min
Evaluating Word Embeddings: Extrinsic Evaluation2min
Conclusion2min
1 leituras
Acknowledgments10min

Avaliações

Principais avaliações do NATURAL LANGUAGE PROCESSING WITH PROBABILISTIC MODELS

Visualizar todas as avaliações

Sobre Programa de cursos integrados Processamento da Linguagem Natural

Processamento da Linguagem Natural

Perguntas Frequentes – FAQ

Mais dúvidas? Visite o Central de Ajuda ao Aprendiz.