ti_publica:dicas_ia
Diferenças
Aqui você vê as diferenças entre duas revisões dessa página.
| Ambos lados da revisão anteriorRevisão anteriorPróxima revisão | Revisão anterior | ||
| ti_publica:dicas_ia [2019/11/22 14:20] – [Glossário] cartola | ti_publica:dicas_ia [2019/12/22 09:58] (atual) – [Referências] cartola | ||
|---|---|---|---|
| Linha 1: | Linha 1: | ||
| - | ==== Dicas ==== | + | ===== Dicas ===== |
| + | |||
| + | Referência externa muito boa: https:// | ||
| === === | === === | ||
| * [[https:// | * [[https:// | ||
| * Toda vez que saída for categorizada: | * Toda vez que saída for categorizada: | ||
| + | * Séries temporais com sazonalidade podem ser melhor tratadas com decomposição do que com LSTM | ||
| === NLP === | === NLP === | ||
| * Imagem e áudio tem informações densas, texto é esparso | * Imagem e áudio tem informações densas, texto é esparso | ||
| + | * Pode se fazer CNN em NLP | ||
| + | * Problema do Word embedding: não lida com contexto (ex: manga fruta, manga da roupa) | ||
| + | * Google lançou Transformer (+- embedding com contexto) | ||
| + | | ||
| - | ==== Glossário ==== | + | ===== Glossário |
| * Função de ativação | * Função de ativação | ||
| * Função objetivo | * Função objetivo | ||
| Linha 18: | Linha 25: | ||
| * one hot encoding / get dummies / to categorical | * one hot encoding / get dummies / to categorical | ||
| * SVM | * SVM | ||
| + | * PCA | ||
| + | * TSNE | ||
| - | === Álgebra Linear | + | === Álgebra Linear |
| * Matriz esparsa | * Matriz esparsa | ||
| * Convolução | * Convolução | ||
| Linha 37: | Linha 46: | ||
| * rede neural convolucional | * rede neural convolucional | ||
| * fully convolutional | * fully convolutional | ||
| + | * recorrentes - usado para NLP, séries temporais, sequências, | ||
| + | * LSTM - RNN mais usada hoje em dia (Long Short-Term Memory) - Keras implementa | ||
| === NLP === | === NLP === | ||
| * Word embedding - reduz dimensões mantendo significado | * Word embedding - reduz dimensões mantendo significado | ||
| * //Corpus// de texto | * //Corpus// de texto | ||
| + | * Stop-words - palavras que se repetem muito, como pronomes e artigos | ||
| * Algoritmos | * Algoritmos | ||
| * CBOW - Continuous Bag-of-Words - prevê próxima palavra pelas N anteriores | * CBOW - Continuous Bag-of-Words - prevê próxima palavra pelas N anteriores | ||
| * Skip-gram - contrário do CBOW - prevê N próximas palavras a partir da anterior | * Skip-gram - contrário do CBOW - prevê N próximas palavras a partir da anterior | ||
| * Word2Vec - implementação eficiente do CBOW e Skip-gram | * Word2Vec - implementação eficiente do CBOW e Skip-gram | ||
| + | * Bibliotecas | ||
| + | * [[http:// | ||
| - | ==== Referências ==== | + | ===== Referências |
| * [[https:// | * [[https:// | ||
| * [[https:// | * [[https:// | ||
| + | * NLP | ||
| + | * [[https:// | ||
| + | * [[https:// | ||
| + | * [[https:// | ||
| + | * [[https:// | ||
| + | * RNN - [[http:// | ||
| + | * Séries temporais - decomposição de séries - [[https:// | ||
| + | * [[https:// | ||
ti_publica/dicas_ia.1574432434.txt.gz · Última modificação: por cartola
