ti_publica:dicas_ia
Diferenças
Aqui você vê as diferenças entre duas revisões dessa página.
| Próxima revisão | Revisão anterior | ||
| ti_publica:dicas_ia [2019/11/22 11:41] – criada cartola | ti_publica:dicas_ia [2019/12/22 09:58] (atual) – [Referências] cartola | ||
|---|---|---|---|
| Linha 1: | Linha 1: | ||
| - | === Referências === | + | ===== Dicas ===== |
| + | |||
| + | Referência externa muito boa: https:// | ||
| + | |||
| + | === === | ||
| + | * [[https:// | ||
| + | * Toda vez que saída for categorizada: | ||
| + | * Séries temporais com sazonalidade podem ser melhor tratadas com decomposição do que com LSTM | ||
| + | |||
| + | === NLP === | ||
| + | * Imagem e áudio tem informações densas, texto é esparso | ||
| + | * Pode se fazer CNN em NLP | ||
| + | * Problema do Word embedding: não lida com contexto (ex: manga fruta, manga da roupa) | ||
| + | * Google lançou Transformer (+- embedding com contexto) | ||
| + | |||
| + | |||
| + | ===== Glossário ===== | ||
| + | * Função de ativação | ||
| + | * Função objetivo | ||
| + | * Random forest | ||
| + | * max pooling / average pooling / global pooling - [[https:// | ||
| + | * back propagation | ||
| + | * learning rate | ||
| + | * data augmentation - ex: [[https:// | ||
| + | * one hot encoding / get dummies / to categorical | ||
| + | * SVM | ||
| + | * PCA | ||
| + | * TSNE | ||
| + | |||
| + | === Álgebra Linear === | ||
| + | * Matriz esparsa | ||
| + | * Convolução | ||
| + | * Variância / Desvio padrão | ||
| + | * MSE - Erro mínimo quadrático | ||
| + | * Regressão linear, logística | ||
| + | |||
| + | === Redes Neurais === | ||
| + | * [[http:// | ||
| + | * softmax | ||
| + | * Modelos de rede criados | ||
| + | * AlexNet | ||
| + | * VGG | ||
| + | * overfiting | ||
| + | * Redes neurais | ||
| + | * multi layer perceptor | ||
| + | * rede neural convolucional | ||
| + | * fully convolutional | ||
| + | * recorrentes - usado para NLP, séries temporais, sequências, | ||
| + | * LSTM - RNN mais usada hoje em dia (Long Short-Term Memory) - Keras implementa | ||
| + | |||
| + | === NLP === | ||
| + | * Word embedding - reduz dimensões mantendo significado | ||
| + | * //Corpus// de texto | ||
| + | * Stop-words - palavras que se repetem muito, como pronomes e artigos | ||
| + | * Algoritmos | ||
| + | * CBOW - Continuous Bag-of-Words - prevê próxima palavra pelas N anteriores | ||
| + | * Skip-gram - contrário do CBOW - prevê N próximas palavras a partir da anterior | ||
| + | * Word2Vec - implementação eficiente do CBOW e Skip-gram | ||
| + | * Bibliotecas | ||
| + | * [[http:// | ||
| + | |||
| + | ===== Referências | ||
| * [[https:// | * [[https:// | ||
| * [[https:// | * [[https:// | ||
| + | * NLP | ||
| + | * [[https:// | ||
| + | * [[https:// | ||
| + | * [[https:// | ||
| + | * [[https:// | ||
| + | * RNN - [[http:// | ||
| + | * Séries temporais - decomposição de séries - [[https:// | ||
| + | * [[https:// | ||
ti_publica/dicas_ia.1574422888.txt.gz · Última modificação: por cartola
