Modèle de neurone

Le cerveau a un travail difficile. Il est tout le temps des travaux et l`œil doit rendre les choses difficiles. La nature convexe de la lentille de l`œil transforme une image à l`envers sur la rétine. Le cerveau doit donner un sens à cela et le tourner «à droite vers le haut». Pour modéliser ce qu`une lentille convexe fait à une image, obtenir une loupe. Trouvez un mur blanc ou collez un morceau de papier blanc sur un mur qui fait face à une fenêtre. Tenez la loupe près (3 in; 10 cm) au mur blanc ou au papier. Vous devriez voir une image inversée de ce qui est à l`extérieur de la fenêtre. C`est ce qui est projeté sur votre rétine. Un neurone artificiel est une fonction mathématique conçue comme un modèle de neurones biologiques, un réseau neuronal. Les neurones artificiels sont des unités élémentaires dans un réseau neuronal artificiel.

Le neurone artificiel reçoit une ou plusieurs entrées (représentant des potentiels postsynaptiques excitateurs et des potentiels post-synaptiques inhibiteurs aux dendrites neuronales) et les résume à produire une sortie (ou une activation, représentant le potentiel d`action d`un neurone qui est transmises le long de son Axon). Habituellement, chaque entrée est pondérée séparément, et la somme est transmise par une fonction non linéaire appelée fonction d`activation ou fonction de transfert [clarification nécessaire]. Les fonctions de transfert ont généralement une forme sigmoïde, mais elles peuvent également prendre la forme d`autres fonctions non linéaires, des fonctions linéaires par morceaux ou des fonctions d`étape. Ils sont également souvent monotones augmentant, continue, différenciable et délimité. La fonction de battants a inspiré des barrières logiques de construction appelées logique de seuil; s`applique aux circuits logiques de construction ressemblant au traitement du cerveau. Par exemple, de nouveaux appareils tels que des Memristors ont été largement utilisés pour développer cette logique ces derniers temps. [1] le modèle peut être rendu plus précis en introduisant une période réfractaire qui limite la fréquence de tir d`un neurone en l`empêchant de tirer pendant cette période. Par un certain calcul impliquant une transformée de Fourier, la fréquence de tir en fonction d`un courant d`entrée constant ressemble donc à ce qui est juste le temps dérivé de la Loi de la capacitance, Q = CV. Lorsqu`un courant d`entrée est appliqué, la tension de la membrane augmente avec le temps jusqu`à ce qu`elle atteigne un seuil constant VTH, à quel point un pic de fonction delta se produit et la tension est réinitialisée à son potentiel de repos, après quoi le modèle continue à fonctionner. La fréquence de mise à feu du modèle augmente donc linéairement sans limite lorsque le courant d`entrée augmente. La conduction saline est une façon que les axones myélinés transmettent des potentiels d`action.

Les potentiels d`action sautent du noeud au noeud. Pour modéliser cela, demandez à tout le monde de se lever et de former une ligne droite. Chaque personne doit être à la longueur des bras de la personne suivante. Donnez à la dernière personne en ligne un petit objet comme une balle ou une gomme. Cette fois, chaque personne ne fait pas un Neuron individuel. Cette fois, tout le monde est un neurone unique et chaque personne est une «section myélinée» d`un Axon. L`espace entre chaque personne est un nœud de Ranvier. Pour commencer le potentiel d`Axon, quelqu`un devrait dire “Go”. La première personne gifle la main de la personne voisine, alors cette personne gifle la main de la personne suivante etc., etc. Rappelez-vous, dans ce modèle, la ligne de personnes est juste un neurone. Voici deux recettes pour la construction d`un cerveau modèle: à la fin des années 1980, lorsque la recherche sur les réseaux neuronaux a repris la force, les neurones avec des formes plus continues ont commencé à être pris en considération.

La possibilité de différencier la fonction d`activation permet l`utilisation directe de la descente de gradient et d`autres algorithmes d`optimisation pour le réglage des poids. Les réseaux neuronaux ont également commencé à être utilisés comme modèle d`approximation de fonction générale. L`algorithme de formation le plus connu appelé rétropropagation a été redécouvert plusieurs fois, mais son premier développement remonte à l`œuvre de Paul Werbos. 8 [9] ce qui suit est une implémentation de pseudo-code simple d`un TLU unique qui prend des entrées booléennes (true ou false), et retourne une seule sortie booléenne lorsqu`elle est activée.