Pesquisa de site
Uma das decisões mais difíceis na programação é escolher nomes. Os programadores costumam usar essa frase para destacar os desafios de selecionar nomes de funções Python. Pode ser um exagero, mas ai
Consulte Mais informação →A função zip() em Python é uma ferramenta interessante que permite combinar várias listas ou outros iteráveis (como tuplas, conjuntos ou até mesmo strings) em um iterável de tuplas. Pense nisso como o zíper de uma jaqueta que une os dois lados.
Nes
Consulte Mais informação →Aprenda como simplificar seu código Python usando funções parciais para criar chamadas de função mais flexíveis, reutilizáveis e concisas.
Em Python, as funções geralmente exigem vários argumentos, e você pode passar repetidamente os mesmos valores para determinados pa
Consulte Mais informação →A biblioteca Keras Python torna a criação de modelos de aprendizado profundo rápida e fácil.
A API sequencial permite criar modelos camada por camada para a maioria dos problemas. É limitado porque não permite criar modelos que compartilhem camadas ou tenham múltiplas entradas ou saídas.
A API funcional do Keras é uma forma alternativa de criação de modelos que oferece muito mais flexibilidade, inclusive a criação de modelos mais complexos.
Neste tutorial, você descobrirá co
Consulte Mais informação →Em uma rede neural, a função de ativação é responsável por transformar a soma da entrada ponderada do nó na ativação do nó ou saída para aquela entrada.
A função de ativação linear retificada ou ReLU, abreviadamente, é uma função linear por partes que produzirá a entrada diretamente se for positiva, caso contrário, produzirá zero. Tornou-se a função de ativação padrão para muitos tipos de redes neurais porque um modelo que a utiliza é mais fácil de trei
Consulte Mais informação →O problema dos gradientes de fuga é um exemplo de comportamento instável que você pode encontrar ao treinar uma rede neural profunda.
Ele descreve a situação em que uma rede feed-forward multicamadas profunda ou uma rede neural recorrente é incapaz de propagar informações úteis de gradiente da extremidade de saída do modelo de volta para as camadas próximas à extremidade de entrada do modelo.
O resultado é a incapacidade geral de modelos com muitas camadas aprenderem em um determi
Consulte Mais informação →As redes neurais são treinadas usando gradiente descendente estocástico e exigem que você escolha uma função de perda ao projetar e configurar seu modelo.
Existem muitas funções de perda para escolher e pode ser um desafio saber o que escolher, ou mesmo o que é uma função de perda e o papel que ela desempenha no treinamento de uma rede neural.
Nesta postagem, você descobrirá o papel das funções de perda e perda no treinamento de redes neurais de aprendizado profundo e como escolhe
Consulte Mais informação →Redes neurais de aprendizado profundo são treinadas usando o algoritmo estocástico de otimização de gradiente descendente.
Como parte do algoritmo de otimização, o erro do estado atual do modelo deve ser estimado repetidamente. Isto requer a escolha de uma função de erro, convencionalmente chamada de função de perda, que pode ser usada para estimar a perda do modelo para que os pesos possam ser atualizados para reduzir a perda na próxima avaliação.
Consulte Mais informação →Redes Adversariais Generativas, ou GANs, são uma arquitetura de aprendizado profundo para treinar modelos geradores poderosos.
Um modelo gerador é capaz de gerar novas amostras artificiais que plausivelmente poderiam ter vindo de uma distribuição de amostras existente.
GANs são compostos por modelos geradores e discriminadores. O gerador é responsável por gerar novas amostras do domínio, e o discriminador é responsável por classificar se as amostras são reais ou falsas (geradas).
Consulte Mais informação →A Generative Adversarial Network, ou GAN, para abreviar, é uma arquitetura para treinar um modelo generativo.
A arquitetura é composta por dois modelos. O gerador que nos interessa e um modelo discriminador que é utilizado para auxiliar no treinamento do gerador. Inicialmente, os modelos gerador e discriminador foram implementados como Perceptrons Multicamadas (MLP), embora mais recentemente os modelos sejam implementados como redes neurais convolucionais profundas.
Pode ser um de
Consulte Mais informação →