ti_publica:dicas_ia
Diferenças
Aqui você vê as diferenças entre duas revisões dessa página.
Ambos lados da revisão anteriorRevisão anteriorPróxima revisão | Revisão anterior | ||
ti_publica:dicas_ia [2019/11/22 11:20] – [Glossário] cartola | ti_publica:dicas_ia [2019/12/22 06:58] (atual) – [Referências] cartola | ||
---|---|---|---|
Linha 1: | Linha 1: | ||
- | ==== Dicas ==== | + | ===== Dicas ===== |
+ | |||
+ | Referência externa muito boa: https:// | ||
=== === | === === | ||
* [[https:// | * [[https:// | ||
* Toda vez que saída for categorizada: | * Toda vez que saída for categorizada: | ||
+ | * Séries temporais com sazonalidade podem ser melhor tratadas com decomposição do que com LSTM | ||
=== NLP === | === NLP === | ||
* Imagem e áudio tem informações densas, texto é esparso | * Imagem e áudio tem informações densas, texto é esparso | ||
+ | * Pode se fazer CNN em NLP | ||
+ | * Problema do Word embedding: não lida com contexto (ex: manga fruta, manga da roupa) | ||
+ | * Google lançou Transformer (+- embedding com contexto) | ||
+ | | ||
- | ==== Glossário ==== | + | ===== Glossário |
* Função de ativação | * Função de ativação | ||
* Função objetivo | * Função objetivo | ||
Linha 18: | Linha 25: | ||
* one hot encoding / get dummies / to categorical | * one hot encoding / get dummies / to categorical | ||
* SVM | * SVM | ||
+ | * PCA | ||
+ | * TSNE | ||
- | === Álgebra Linear | + | === Álgebra Linear |
* Matriz esparsa | * Matriz esparsa | ||
* Convolução | * Convolução | ||
Linha 37: | Linha 46: | ||
* rede neural convolucional | * rede neural convolucional | ||
* fully convolutional | * fully convolutional | ||
+ | * recorrentes - usado para NLP, séries temporais, sequências, | ||
+ | * LSTM - RNN mais usada hoje em dia (Long Short-Term Memory) - Keras implementa | ||
=== NLP === | === NLP === | ||
* Word embedding - reduz dimensões mantendo significado | * Word embedding - reduz dimensões mantendo significado | ||
* //Corpus// de texto | * //Corpus// de texto | ||
+ | * Stop-words - palavras que se repetem muito, como pronomes e artigos | ||
* Algoritmos | * Algoritmos | ||
* CBOW - Continuous Bag-of-Words - prevê próxima palavra pelas N anteriores | * CBOW - Continuous Bag-of-Words - prevê próxima palavra pelas N anteriores | ||
* Skip-gram - contrário do CBOW - prevê N próximas palavras a partir da anterior | * Skip-gram - contrário do CBOW - prevê N próximas palavras a partir da anterior | ||
* Word2Vec - implementação eficiente do CBOW e Skip-gram | * Word2Vec - implementação eficiente do CBOW e Skip-gram | ||
+ | * Bibliotecas | ||
+ | * [[http:// | ||
- | ==== Referências ==== | + | ===== Referências |
* [[https:// | * [[https:// | ||
* [[https:// | * [[https:// | ||
+ | * NLP | ||
+ | * [[https:// | ||
+ | * [[https:// | ||
+ | * [[https:// | ||
+ | * [[https:// | ||
+ | * RNN - [[http:// | ||
+ | * Séries temporais - decomposição de séries - [[https:// | ||
+ | * [[https:// |
ti_publica/dicas_ia.1574432434.txt.gz · Última modificação: 2019/11/22 11:20 por cartola