Ferramentas do usuário

Ferramentas do site


ti_publica:notas_deep_learning

Diferenças

Aqui você vê as diferenças entre duas revisões dessa página.

Link para esta página de comparações

Ambos lados da revisão anteriorRevisão anterior
Próxima revisão
Revisão anterior
Última revisãoAmbos lados da revisão seguinte
ti_publica:notas_deep_learning [2019/10/01 08:39] – [Dicas Deep Learning] cartolati_publica:notas_deep_learning [2019/10/01 12:45] – [Dicas lição 2] cartola
Linha 26: Linha 26:
   * Não aumente tanto o número de epochs, ou seu modelo pode ficar treinado pra reconhecer apenas a sua fotografia e não qualquer fotografia daquele tipo   * Não aumente tanto o número de epochs, ou seu modelo pode ficar treinado pra reconhecer apenas a sua fotografia e não qualquer fotografia daquele tipo
   * O risco de treinar demais o modelo (e passar a reconhecer só suas fotos) é muito baixo. Isso pode ser percebido se seu erro caiu bem e depois começou a aumentar de novo durante as iterações   * O risco de treinar demais o modelo (e passar a reconhecer só suas fotos) é muito baixo. Isso pode ser percebido se seu erro caiu bem e depois começou a aumentar de novo durante as iterações
 +
 +==== Dicas lição 2 ====
 +  * Não há como definir quanto material é necessário pra um treino, só testando. Se treinar com muitas iterações e o erro começar a piorar sem antes ter chegado onde quer, e se não tiver com um dos quatro problemas mencionados, pode precisar de mais dados.
 +  * Dados desproporcionais (muito mais dados de uma das classes) também funcionam, teste. Se não funcionar uma ideia é fazer //over sampling//, copiando os dados que tem pra aumentar.
 +
 +===== Álgebra =====
 +
 +==== Equações lineares ====
 +
 +  * Notação equação reduzida da reta: y = ax + b
 +    * a = coeficiente de inclinação da reta (tb chamado 'm'): m = Δy / Δx
 +    * b = ponto onde a reta corta o eixo y
 +    * Para operações matriciais é mais conveniente redigir como: y = ax<sub>1</sub> + bx<sub>2</sub>, com x<sub>2</sub> = 1 sempre
 +    * Mais convenientemente ainda pode ser notada assim para um conjunto de dados: {{:ti_publica:equcacao_linear_matricial.gif|}}, onde a<sub>2</sub> era o b e x<sub>i,2</sub> = 1 sempre.
 +  * Notação equação fundamental da reta: ''y-b = m(x-a)''
 +    * Mais prática pra escrever a partir de m e um ponto (a,b), mas não dá a interceptação do eixo y
 +
 +===== pi torch =====
 +
 +==== Criando um vetor====
 +  * ''x = torch.ones(n,2)'' inicia um tensor com n linhas e 2 colunas, segunda coluna com '1's (vide álgebra pra facilitar operações matriciais)
 +  * ''x[:,0].uniform_(-1.,1)'' - cria dados randômicos entre -1 e 1 na primeira coluna do vetor:
 +    * ''[:]'' endereça cada valor na dimensão (no caso endereça toda a linha);
 +    * ''0'' pega a primeira coluna;
 +    * ''uniform'' vai criar distribuição uniforme randômica;
 +    * O '_' indica que não vai retornar valor, vai atribuir valor a variável referida.
 +
ti_publica/notas_deep_learning.txt · Última modificação: 2019/10/01 13:08 por cartola