ti_publica:dicas_ia
Dicas
-
Toda vez que saída for categorizada: Função softmax vai dar saída como probabilidade de um input pertencer a uma classe. Função objetivo é entropia cruzada categorizada
Séries temporais com sazonalidade podem ser melhor tratadas com decomposição do que com LSTM
NLP
Imagem e áudio tem informações densas, texto é esparso
Pode se fazer CNN em NLP
Problema do Word embedding: não lida com contexto (ex: manga fruta, manga da roupa)
Glossário
Álgebra Linear
Matriz esparsa
Convolução
Variância / Desvio padrão
MSE - Erro mínimo quadrático
Regressão linear, logística
Redes Neurais
Dropout - descarte aleatório de informação - eficiente para evitar overfiting
softmax
Modelos de rede criados
overfiting
Redes neurais
multi layer perceptor
rede neural convolucional
fully convolutional
recorrentes - usado para NLP, séries temporais, sequências, dados seriados: tradução, respostas a perguntas, completar frases
NLP
Word embedding - reduz dimensões mantendo significado
Corpus de texto
Stop-words - palavras que se repetem muito, como pronomes e artigos
Algoritmos
CBOW - Continuous Bag-of-Words - prevê próxima palavra pelas N anteriores
Skip-gram - contrário do CBOW - prevê N próximas palavras a partir da anterior
Word2Vec - implementação eficiente do CBOW e Skip-gram
Bibliotecas
Referências
Fast.AI - biblioteca sobre PyTorch e cursos
Keras - biblioteca feita sobre Tensorflow
NLP
-
Séries temporais - decomposição de séries -
Prophet
Knime - ferramenta opensource gráfica para ciência de dados
ti_publica/dicas_ia.txt · Última modificação: 2019/12/22 06:58 por cartola