ti_publica:dicas_ia
Diferenças
Aqui você vê as diferenças entre duas revisões dessa página.
Ambos lados da revisão anteriorRevisão anteriorPróxima revisão | Revisão anterior | ||
ti_publica:dicas_ia [2019/11/22 08:52] – cartola | ti_publica:dicas_ia [2019/12/22 06:58] (atual) – [Referências] cartola | ||
---|---|---|---|
Linha 1: | Linha 1: | ||
- | === Dicas === | + | ===== Dicas ===== |
+ | |||
+ | Referência externa muito boa: https:// | ||
+ | |||
+ | === | ||
* [[https:// | * [[https:// | ||
* Toda vez que saída for categorizada: | * Toda vez que saída for categorizada: | ||
+ | * Séries temporais com sazonalidade podem ser melhor tratadas com decomposição do que com LSTM | ||
- | === Referências === | + | === NLP === |
+ | * Imagem e áudio tem informações densas, texto é esparso | ||
+ | * Pode se fazer CNN em NLP | ||
+ | * Problema do Word embedding: não lida com contexto (ex: manga fruta, manga da roupa) | ||
+ | * Google lançou Transformer (+- embedding com contexto) | ||
+ | |||
+ | |||
+ | ===== Glossário ===== | ||
+ | * Função de ativação | ||
+ | * Função objetivo | ||
+ | * Random forest | ||
+ | * max pooling / average pooling / global pooling - [[https:// | ||
+ | * back propagation | ||
+ | * learning rate | ||
+ | * data augmentation - ex: [[https:// | ||
+ | * one hot encoding / get dummies / to categorical | ||
+ | * SVM | ||
+ | * PCA | ||
+ | * TSNE | ||
+ | |||
+ | === Álgebra Linear === | ||
+ | * Matriz esparsa | ||
+ | * Convolução | ||
+ | * Variância / Desvio padrão | ||
+ | * MSE - Erro mínimo quadrático | ||
+ | * Regressão linear, logística | ||
+ | |||
+ | === Redes Neurais === | ||
+ | * [[http:// | ||
+ | * softmax | ||
+ | * Modelos de rede criados | ||
+ | * AlexNet | ||
+ | * VGG | ||
+ | * overfiting | ||
+ | * Redes neurais | ||
+ | * multi layer perceptor | ||
+ | * rede neural convolucional | ||
+ | * fully convolutional | ||
+ | * recorrentes - usado para NLP, séries temporais, sequências, | ||
+ | * LSTM - RNN mais usada hoje em dia (Long Short-Term Memory) - Keras implementa | ||
+ | |||
+ | === NLP === | ||
+ | * Word embedding - reduz dimensões mantendo significado | ||
+ | * //Corpus// de texto | ||
+ | * Stop-words - palavras que se repetem muito, como pronomes e artigos | ||
+ | * Algoritmos | ||
+ | * CBOW - Continuous Bag-of-Words - prevê próxima palavra pelas N anteriores | ||
+ | * Skip-gram - contrário do CBOW - prevê N próximas palavras a partir da anterior | ||
+ | * Word2Vec - implementação eficiente do CBOW e Skip-gram | ||
+ | * Bibliotecas | ||
+ | * [[http:// | ||
+ | |||
+ | ===== Referências | ||
* [[https:// | * [[https:// | ||
* [[https:// | * [[https:// | ||
+ | * NLP | ||
+ | * [[https:// | ||
+ | * [[https:// | ||
+ | * [[https:// | ||
+ | * [[https:// | ||
+ | * RNN - [[http:// | ||
+ | * Séries temporais - decomposição de séries - [[https:// | ||
+ | * [[https:// |
ti_publica/dicas_ia.txt · Última modificação: 2019/12/22 06:58 por cartola