Pesquisa de site

Como você escolhe nomes de funções Python?

Uma das decisões mais difíceis na programação é escolher nomes. Os programadores costumam usar essa frase para destacar os desafios de selecionar nomes de funções Python. Pode ser um exagero, mas ai

Consulte Mais informação →

Função zip() do Python explicada com exemplos simples

A função zip() em Python é uma ferramenta interessante que permite combinar várias listas ou outros iteráveis (como tuplas, conjuntos ou até mesmo strings) em um iterável de tuplas. Pense nisso como o zíper de uma jaqueta que une os dois lados.

Nes

Consulte Mais informação →

Funções parciais em Python: um guia para desenvolvedores

Aprenda como simplificar seu código Python usando funções parciais para criar chamadas de função mais flexíveis, reutilizáveis e concisas.

Em Python, as funções geralmente exigem vários argumentos, e você pode passar repetidamente os mesmos valores para determinados pa

Consulte Mais informação →

Como usar a API funcional Keras para aprendizado profundo

A biblioteca Keras Python torna a criação de modelos de aprendizado profundo rápida e fácil.

A API sequencial permite criar modelos camada por camada para a maioria dos problemas. É limitado porque não permite criar modelos que compartilhem camadas ou tenham múltiplas entradas ou saídas.

A API funcional do Keras é uma forma alternativa de criação de modelos que oferece muito mais flexibilidade, inclusive a criação de modelos mais complexos.

Neste tutorial, você descobrirá co

Consulte Mais informação →

Uma introdução suave à unidade linear retificada (ReLU)

Em uma rede neural, a função de ativação é responsável por transformar a soma da entrada ponderada do nó na ativação do nó ou saída para aquela entrada.

A função de ativação linear retificada ou ReLU, abreviadamente, é uma função linear por partes que produzirá a entrada diretamente se for positiva, caso contrário, produzirá zero. Tornou-se a função de ativação padrão para muitos tipos de redes neurais porque um modelo que a utiliza é mais fácil de trei

Consulte Mais informação →

Como corrigir o problema dos gradientes de desaparecimento usando o ReLU

O problema dos gradientes de fuga é um exemplo de comportamento instável que você pode encontrar ao treinar uma rede neural profunda.

Ele descreve a situação em que uma rede feed-forward multicamadas profunda ou uma rede neural recorrente é incapaz de propagar informações úteis de gradiente da extremidade de saída do modelo de volta para as camadas próximas à extremidade de entrada do modelo.

O resultado é a incapacidade geral de modelos com muitas camadas aprenderem em um determi

Consulte Mais informação →

Funções de perda e perda para treinamento de redes neurais de aprendizado profundo

As redes neurais são treinadas usando gradiente descendente estocástico e exigem que você escolha uma função de perda ao projetar e configurar seu modelo.

Existem muitas funções de perda para escolher e pode ser um desafio saber o que escolher, ou mesmo o que é uma função de perda e o papel que ela desempenha no treinamento de uma rede neural.

Nesta postagem, você descobrirá o papel das funções de perda e perda no treinamento de redes neurais de aprendizado profundo e como escolhe

Consulte Mais informação →

Como escolher funções de perda ao treinar redes neurais de aprendizado profundo

Redes neurais de aprendizado profundo são treinadas usando o algoritmo estocástico de otimização de gradiente descendente.

Como parte do algoritmo de otimização, o erro do estado atual do modelo deve ser estimado repetidamente. Isto requer a escolha de uma função de erro, convencionalmente chamada de função de perda, que pode ser usada para estimar a perda do modelo para que os pesos possam ser atualizados para reduzir a perda na próxima avaliação.

Consulte Mais informação →

Como desenvolver uma rede adversária generativa 1D do zero em Keras

Redes Adversariais Generativas, ou GANs, são uma arquitetura de aprendizado profundo para treinar modelos geradores poderosos.

Um modelo gerador é capaz de gerar novas amostras artificiais que plausivelmente poderiam ter vindo de uma distribuição de amostras existente.

GANs são compostos por modelos geradores e discriminadores. O gerador é responsável por gerar novas amostras do domínio, e o discriminador é responsável por classificar se as amostras são reais ou falsas (geradas).

Consulte Mais informação →

Como codificar o algoritmo de treinamento GAN e funções de perda

A Generative Adversarial Network, ou GAN, para abreviar, é uma arquitetura para treinar um modelo generativo.

A arquitetura é composta por dois modelos. O gerador que nos interessa e um modelo discriminador que é utilizado para auxiliar no treinamento do gerador. Inicialmente, os modelos gerador e discriminador foram implementados como Perceptrons Multicamadas (MLP), embora mais recentemente os modelos sejam implementados como redes neurais convolucionais profundas.

Pode ser um de

Consulte Mais informação →