ti_publica:dicas_ia
Diferenças
Aqui você vê as diferenças entre duas revisões dessa página.
| Ambos lados da revisão anteriorRevisão anteriorPróxima revisão | Revisão anterior | ||
| ti_publica:dicas_ia [2019/11/22 12:06] – cartola | ti_publica:dicas_ia [2019/12/22 09:58] (atual) – [Referências] cartola | ||
|---|---|---|---|
| Linha 1: | Linha 1: | ||
| - | === Dicas === | + | ===== Dicas ===== |
| + | |||
| + | Referência externa muito boa: https:// | ||
| + | |||
| + | === | ||
| * [[https:// | * [[https:// | ||
| * Toda vez que saída for categorizada: | * Toda vez que saída for categorizada: | ||
| + | * Séries temporais com sazonalidade podem ser melhor tratadas com decomposição do que com LSTM | ||
| - | === Referências | + | === NLP === |
| - | * [[https:// | + | * Imagem |
| - | * [[https:// | + | * Pode se fazer CNN em NLP |
| + | * Problema do Word embedding: não lida com contexto (ex: manga fruta, manga da roupa) | ||
| + | * Google lançou Transformer (+- embedding com contexto) | ||
| + | | ||
| - | === Glossário | + | ===== Glossário |
| * Função de ativação | * Função de ativação | ||
| * Função objetivo | * Função objetivo | ||
| + | * Random forest | ||
| + | * max pooling / average pooling / global pooling - [[https:// | ||
| + | * back propagation | ||
| + | * learning rate | ||
| + | * data augmentation - ex: [[https:// | ||
| + | * one hot encoding / get dummies / to categorical | ||
| + | * SVM | ||
| + | * PCA | ||
| + | * TSNE | ||
| + | |||
| + | === Álgebra Linear === | ||
| + | * Matriz esparsa | ||
| + | * Convolução | ||
| * Variância / Desvio padrão | * Variância / Desvio padrão | ||
| * MSE - Erro mínimo quadrático | * MSE - Erro mínimo quadrático | ||
| - | * Regressão linear | + | * Regressão linear, logística |
| - | | + | |
| - | * Convolução | + | === Redes Neurais === |
| - | * max pooling | + | * [[http:// |
| - | * back propagation | + | * softmax |
| - | * over fitting | + | * Modelos de rede criados |
| - | * Redes | + | |
| * AlexNet | * AlexNet | ||
| * VGG | * VGG | ||
| + | * overfiting | ||
| + | * Redes neurais | ||
| + | * multi layer perceptor | ||
| + | * rede neural convolucional | ||
| + | * fully convolutional | ||
| + | * recorrentes - usado para NLP, séries temporais, sequências, | ||
| + | * LSTM - RNN mais usada hoje em dia (Long Short-Term Memory) - Keras implementa | ||
| + | === NLP === | ||
| + | * Word embedding - reduz dimensões mantendo significado | ||
| + | * //Corpus// de texto | ||
| + | * Stop-words - palavras que se repetem muito, como pronomes e artigos | ||
| + | * Algoritmos | ||
| + | * CBOW - Continuous Bag-of-Words - prevê próxima palavra pelas N anteriores | ||
| + | * Skip-gram - contrário do CBOW - prevê N próximas palavras a partir da anterior | ||
| + | * Word2Vec - implementação eficiente do CBOW e Skip-gram | ||
| + | * Bibliotecas | ||
| + | * [[http:// | ||
| + | ===== Referências ===== | ||
| + | * [[https:// | ||
| + | * [[https:// | ||
| + | * NLP | ||
| + | * [[https:// | ||
| + | * [[https:// | ||
| + | * [[https:// | ||
| + | * [[https:// | ||
| + | * RNN - [[http:// | ||
| + | * Séries temporais - decomposição de séries - [[https:// | ||
| + | * [[https:// | ||
ti_publica/dicas_ia.1574424413.txt.gz · Última modificação: por cartola
