ti_publica:notas_deep_learning
Diferenças
Aqui você vê as diferenças entre duas revisões dessa página.
Ambos lados da revisão anteriorRevisão anterior | Próxima revisãoAmbos lados da revisão seguinte | ||
ti_publica:notas_deep_learning [2019/10/01 08:39] – [Dicas Deep Learning] cartola | ti_publica:notas_deep_learning [2019/10/01 11:39] – cartola | ||
---|---|---|---|
Linha 26: | Linha 26: | ||
* Não aumente tanto o número de epochs, ou seu modelo pode ficar treinado pra reconhecer apenas a sua fotografia e não qualquer fotografia daquele tipo | * Não aumente tanto o número de epochs, ou seu modelo pode ficar treinado pra reconhecer apenas a sua fotografia e não qualquer fotografia daquele tipo | ||
* O risco de treinar demais o modelo (e passar a reconhecer só suas fotos) é muito baixo. Isso pode ser percebido se seu erro caiu bem e depois começou a aumentar de novo durante as iterações | * O risco de treinar demais o modelo (e passar a reconhecer só suas fotos) é muito baixo. Isso pode ser percebido se seu erro caiu bem e depois começou a aumentar de novo durante as iterações | ||
+ | |||
+ | ==== Dicas lição 2 ==== | ||
+ | * Não há como definir quanto material é necessário pra um treino, só testando. Se treinar com muitas iterações e o erro começar a piorar sem antes ter chegado onde quer, e se não tiver com um dos quatro problemas mencionados, | ||
+ | * Dados desproporcionais (muito mais dados de uma das classes) também funcionam, teste. Se não funcionar uma ideia é fazer //over sampling//, copiando os dados que tem pra aumentar. |
ti_publica/notas_deep_learning.txt · Última modificação: 2019/10/01 13:08 por cartola