L'unité centrale de traitement est le « cerveau » de l'ordinateur. Comment connecter le cerveau humain et l'ordinateur Formation homme-machine

L'idée centrale des travaux du célèbre Ray Kurzweil est l'intelligence artificielle, qui finira par dominer toutes les sphères de la vie des gens. Dans son nouveau livre, The Evolution of the Mind, Kurzweil révèle les possibilités infinies de l'ingénierie inverse du cerveau humain.

Dans le même article, Turing rapporte une autre découverte inattendue concernant des problèmes insolubles. Les problèmes insolubles sont ceux qui sont bien décrits par une solution unique (dont on peut démontrer l'existence), mais (qui peuvent également être démontrés) ne peuvent être résolus par aucune machine de Turing (c'est-à-dire par n'importe quelle machine). L'idée de l'existence de tels problèmes contredit fondamentalement le concept formé au début du 20e siècle. le dogme selon lequel tous les problèmes qui peuvent être formulés peuvent être résolus. Turing a montré que le nombre de problèmes insolubles n’est pas inférieur au nombre de problèmes résolubles. En 1931, Kurt Gödel arrivait à la même conclusion en formulant le « théorème d’incomplétude ». C’est une situation étrange : nous pouvons formuler un problème, nous pouvons prouver qu’il a une solution unique, mais en même temps nous savons que nous ne pourrons jamais trouver cette solution.

Turing a montré que les machines informatiques fonctionnent selon un mécanisme très simple. Puisqu’une machine de Turing (et donc n’importe quel ordinateur) peut déterminer sa fonction future sur la base de ses résultats antérieurs, elle est capable de prendre des décisions et de créer des structures d’information hiérarchiques de toute complexité.

En 1939, Turing a conçu la calculatrice électronique Bombe, qui a permis de déchiffrer les messages compilés par les Allemands sur la machine à coder Enigma. En 1943, une équipe d'ingénieurs avec la participation de Turing avait achevé la machine Colossus, parfois appelée le premier ordinateur de l'histoire. Cela a permis aux Alliés de déchiffrer les messages créés par une version plus sophistiquée d'Enigma. Les machines Bombe et Colossus étaient conçues pour effectuer une seule tâche et ne pouvaient pas être reprogrammées. Mais ils ont rempli brillamment leur fonction. On pense qu’en partie grâce à eux, les Alliés ont pu anticiper les tactiques allemandes tout au long de la guerre et que la Royal Air Force a pu vaincre les forces de la Luftwaffe trois fois plus grandes qu’elles lors de la bataille d’Angleterre.

C’est sur cette base que John von Neumann a créé l’ordinateur de l’architecture moderne, reflétant la troisième des quatre idées les plus importantes de la théorie de l’information. Depuis près de soixante-dix ans, le noyau de base de cette machine, appelée machine von Neumann, est resté pratiquement inchangé - du microcontrôleur de votre machine à laver au plus grand superordinateur. Dans un article publié le 30 juin 1945, intitulé « Premier projet de rapport sur EDVAC », von Neumann expose les idées fondamentales qui ont depuis guidé le développement de l'informatique. Une machine von Neumann contient une unité centrale de traitement où les opérations arithmétiques et logiques sont effectuées, un module de mémoire où les programmes et les données sont stockés, une mémoire de masse, un compteur de programme et des canaux d'entrée/sortie. Bien que l’article soit destiné à un usage interne dans le cadre du projet, il est devenu la Bible des créateurs d’ordinateurs. C’est ainsi que parfois un simple rapport de routine peut changer le monde.

La machine de Turing n’était pas destinée à des fins pratiques. Les théorèmes de Turing ne concernaient pas l'efficacité de la résolution de problèmes, mais décrivaient plutôt l'éventail de problèmes qui pourraient théoriquement être résolus par un ordinateur. En revanche, l’objectif de von Neumann était de créer le concept d’un véritable ordinateur. Son modèle a remplacé le système de Turing à un bit par un système multi-bits (généralement un multiple de huit bits). Une machine de Turing possède une bande mémoire série, de sorte que les programmes passent très longtemps à déplacer la bande d'avant en arrière pour enregistrer et récupérer les résultats intermédiaires. En revanche, dans un système de von Neumann, l'accès à la mémoire est aléatoire, ce qui permet de récupérer immédiatement toutes les données souhaitées.

L'une des idées clés de von Neumann est le concept de programme stocké, qu'il a développé dix ans avant la création de l'ordinateur. L'essence du concept est que le programme est stocké dans le même module de mémoire vive que les données (et souvent même dans le même bloc de mémoire). Cela vous permet de reprogrammer l'ordinateur pour résoudre différents problèmes et créer un code auto-modifiable (dans le cas de lecteurs d'enregistrement), ce qui offre la possibilité de récursion. Jusque-là, presque tous les ordinateurs, y compris Colossus, étaient créés pour résoudre des problèmes spécifiques. Le concept de programme stocké a permis à l'ordinateur de devenir une machine véritablement universelle, conforme à l'idée de Turing sur l'universalité de l'informatique machine.

Une autre propriété importante d'une machine de von Neumann est que chaque instruction contient un code d'opération qui spécifie une opération arithmétique ou logique et l'adresse de l'opérande dans la mémoire de l'ordinateur.

Le concept d'architecture informatique de Von Neumann s'est reflété dans le projet EDVAC, sur lequel il a travaillé avec Presper J. Eckert et John Mauchly. L'ordinateur EDVAC n'est devenu opérationnel qu'en 1951, alors que d'autres ordinateurs à programme stocké existaient déjà, tels que la Manchester Small Experimental Machine, l'ENIAC, l'EDSAC et le BINAC, tous créés sous l'influence de l'article de von Neumann et avec la participation d'Eckert. et Mauchly. Von Neumann a également participé au développement de certaines de ces machines, dont la dernière version d'ENIAC, qui utilisait le principe du programme stocké.

L'ordinateur à architecture von Neumann a eu plusieurs prédécesseurs, mais aucun d'entre eux - à une exception inattendue près - ne peut être qualifié de véritable machine de von Neumann. En 1944, Howard Aiken a lancé le Mark I, qui était reprogrammable dans une certaine mesure, mais n'utilisait pas de programme stocké. La machine lisait les instructions de la carte perforée et les exécutait immédiatement. La voiture ne prévoyait pas non plus de transitions conditionnelles.

En 1941, le scientifique allemand Konrad Zuse (1910-1995) créa l'ordinateur Z-3. Il a également lu le programme à partir d'une bande (dans ce cas, codé sur une bande) et n'a pas non plus effectué de branchements conditionnels. Il est intéressant de noter que Zuse a reçu le soutien financier de l’Institut allemand d’ingénierie aéronautique, qui a utilisé cet ordinateur pour étudier le battement d’une aile d’avion. Cependant, la proposition de Zuse de financer le remplacement des relais par des tubes radio n'a pas été soutenue par le gouvernement nazi, qui considérait le développement de la technologie informatique « sans importance militaire ». Cela, me semble-t-il, a influencé dans une certaine mesure l’issue de la guerre.

En fait, von Neumann a eu un brillant prédécesseur, et il a vécu cent ans plus tôt ! Le mathématicien et inventeur anglais Charles Babbage (1791-1871) a décrit son moteur analytique en 1837, basé sur les mêmes principes que l'ordinateur de von Neumann et utilisant un programme stocké imprimé sur des cartes perforées sur des machines à tisser jacquard. La mémoire de la machine à accès aléatoire contenait 1 000 mots de 50 décimales chacun (l'équivalent d'environ 21 kilo-octets). Chaque instruction contenait un opcode et un numéro d’opérande – tout comme dans les langages informatiques modernes. Le système n'utilisait pas de branches ou de boucles conditionnelles, c'était donc une véritable machine de von Neumann. Entièrement mécanique, il dépassait apparemment à la fois les capacités de conception et d'organisation de Babbage lui-même. Il a créé certaines parties de la machine, mais ne l'a jamais lancée.

On ne sait pas avec certitude si les pionniers de l'informatique du XXe siècle, dont von Neumann, étaient au courant du travail de Babbage.

Cependant, la création de la machine de Babbage marque le début du développement de la programmation. L'écrivaine anglaise Ada Byron (1815-1852), comtesse de Lovelace, seule enfant légitime du poète Lord Byron, devint la première programmeuse informatique au monde. Elle a écrit des programmes pour le moteur analytique de Babbage et les a débogués dans sa tête (puisque l'ordinateur n'a jamais fonctionné). Les programmeurs appellent désormais cette pratique la vérification des tables. Elle a traduit un article du mathématicien italien Luigi Menabrea sur le moteur analytique, ajoutant ses propres commentaires significatifs et notant que « le moteur analytique tisse des motifs algébriques comme un métier à tisser jacquard tisse des fleurs et des feuilles ». Elle a peut-être été la première à évoquer la possibilité de créer une intelligence artificielle, mais a conclu que le moteur analytique "n'est pas capable de proposer quoi que ce soit par lui-même".

Les idées de Babbage semblent étonnantes compte tenu de l'époque à laquelle il a vécu et travaillé. Cependant, au milieu du 20e siècle. ces idées ont été pratiquement oubliées (et redécouvertes seulement plus tard). C'est von Neumann qui a inventé et formulé les principes clés du fonctionnement d'un ordinateur dans sa forme moderne, et ce n'est pas pour rien que la machine de von Neumann continue d'être considérée comme le modèle principal d'un ordinateur. Cependant, n'oublions pas que la machine de von Neumann échange constamment des données entre les modules individuels et au sein de ces modules, elle ne pourrait donc pas être créée sans les théorèmes de Shannon et les méthodes qu'il a proposées pour la transmission et le stockage fiables des informations numériques.

Tout cela nous amène à la quatrième idée importante, qui dépasse les conclusions d'Ada Byron sur l'incapacité des ordinateurs à penser de manière créative et nous permet de trouver les algorithmes clés utilisés par le cerveau, qui peuvent ensuite être utilisés pour transformer un ordinateur en cerveau. Alan Turing a formulé ce problème dans son article « Computing Machines and Intelligence », publié en 1950, qui décrivait le désormais célèbre test de Turing pour déterminer la proximité de l'IA avec l'intelligence humaine.

En 1956, von Neumann commença à préparer une série de conférences pour les prestigieuses Silliman Readings de l'Université de Yale. Le scientifique était déjà atteint d'un cancer et n'était pas en mesure de donner ses conférences ni même de terminer le manuscrit sur lequel étaient basées ses conférences. Néanmoins, cette œuvre inachevée est une brillante prédiction de ce que je considère personnellement comme le projet le plus difficile et le plus important de l’histoire de l’humanité. Après la mort du scientifique, en 1958, le manuscrit fut publié sous le titre « Ordinateur et cerveau ». Il se trouve que le dernier ouvrage de l'un des mathématiciens les plus brillants du siècle dernier et l'un des fondateurs de l'informatique s'est avéré être consacré à l'analyse de la pensée. Il s'agissait de la première étude sérieuse du cerveau humain du point de vue d'un mathématicien et d'un informaticien. Avant von Neumann, l’informatique et les neurosciences étaient deux îles distinctes sans pont entre elles.

Von Neumann commence l'histoire en décrivant les similitudes et les différences entre un ordinateur et le cerveau humain. Compte tenu de l’époque à laquelle cette œuvre a été créée, elle semble étonnamment exacte. Le scientifique note que le signal de sortie d'un neurone est numérique : l'axone est soit excité, soit reste au repos. À cette époque, il était loin d’être évident que le signal de sortie puisse être traité de manière analogique. Le traitement du signal dans les dendrites menant au neurone et dans le corps du neurone est analogique, et von Neumann a décrit cette situation en utilisant une somme pondérée des signaux d'entrée avec une valeur seuil.

Ce modèle de fonctionnement des neurones a conduit au développement du connexionnisme et à l’utilisation de ce principe pour créer à la fois du matériel et des programmes informatiques. (Comme je l'ai décrit dans le chapitre précédent, le premier système de ce type, à savoir le programme IBM 704, a été créé par Frank Rosenblatt de l'Université Cornell en 1957, juste après que le manuscrit des conférences de von Neumann soit devenu disponible.) Nous disposons désormais de modèles plus complexes décrivant combinaisons d'entrées neuronales, mais l'idée générale du traitement du signal analogique en modifiant la concentration des neurotransmetteurs est toujours valable.

Sur la base du concept de l'universalité de l'informatique, von Neumann est arrivé à la conclusion que même avec la différence apparemment radicale dans l'architecture et les unités structurelles du cerveau et de l'ordinateur, en utilisant la machine de von Neumann, nous pouvons simuler les processus qui se produisent dans le cerveau. Le postulat inverse n'est cependant pas valable, puisque le cerveau n'est pas une machine de von Neumann et n'a pas de programme stocké (bien que dans la tête nous puissions simuler le fonctionnement d'une machine de Turing très simple). Les algorithmes ou méthodes de fonctionnement du cerveau sont déterminés par sa structure. Von Neumann a conclu à juste titre que les neurones pouvaient apprendre des modèles appropriés basés sur des signaux d'entrée. Cependant, à l'époque de von Neumann, on ne savait pas que l'apprentissage se faisait également par la création et la destruction de connexions entre neurones.

Von Neumann a également souligné que la vitesse de traitement de l'information par les neurones est très faible - de l'ordre de centaines de calculs par seconde, mais que le cerveau compense cela en traitant simultanément les informations dans de nombreux neurones. C’est une autre découverte évidente mais très importante. Von Neumann a fait valoir que les 10 10 neurones du cerveau (cette estimation est également assez précise : selon les idées actuelles, le cerveau contient de 10 10 à 10 11 neurones) traitent les signaux en même temps. De plus, tous les contacts (en moyenne de 10 3 à 10 4 par neurone) sont comptés simultanément.

Compte tenu de l’état primitif des neurosciences à l’époque, les estimations et descriptions de la fonction neuronale de von Neumann sont remarquablement précises. Cependant, je ne peux pas être d’accord avec un aspect de ses travaux, à savoir l’idée de la capacité de mémoire du cerveau. Il croyait que le cerveau mémorisait chaque signal pendant la vie. Von Neumann a estimé la durée de vie humaine moyenne à 60 ans, soit environ 2 x 10 9 secondes. Si chaque neurone reçoit environ 14 signaux par seconde (ce qui est en fait trois ordres de grandeur inférieur à la valeur réelle) et qu'il y a 10 à 10 neurones au total dans le cerveau, il s'avère que la capacité de mémoire du cerveau est d'environ 10 à 20 bits. Comme je l'ai écrit ci-dessus, nous ne nous souvenons que d'une petite partie de nos pensées et de nos expériences, mais même ces souvenirs ne sont pas stockés sous forme d'informations de bas niveau, petit à petit (comme dans une vidéo), mais plutôt sous la forme d'une séquence d'informations d'ordre supérieur. images.

Alors que von Neumann décrit chaque mécanisme du fonctionnement cérébral, il démontre simultanément comment un ordinateur moderne pourrait remplir la même fonction, malgré la différence apparente entre le cerveau et l'ordinateur. Les mécanismes analogiques du cerveau peuvent être modélisés à l'aide de mécanismes numériques, car l'informatique numérique peut simuler des valeurs analogiques avec n'importe quel degré de précision (et la précision des informations analogiques dans le cerveau est assez faible). Il est également possible de simuler le parallélisme massif des fonctions cérébrales, étant donné la grande supériorité des ordinateurs en termes de vitesse de calcul en série (cette supériorité s'est encore accrue depuis von Neumann). De plus, nous pouvons effectuer un traitement de signal parallèle dans des ordinateurs utilisant des machines parallèles de von Neumann - c'est ainsi que fonctionnent les supercalculateurs modernes.

Compte tenu de la capacité des humains à prendre des décisions rapides à des vitesses neuronales aussi faibles, von Neumann a conclu que les fonctions cérébrales ne pouvaient pas impliquer de longs algorithmes séquentiels. Lorsqu'un joueur de troisième but reçoit le ballon et décide de le lancer au premier plutôt qu'au deuxième but, il prend cette décision en une fraction de seconde - pendant laquelle chaque neurone a à peine le temps d'effectuer plusieurs cycles d'excitation. Von Neumann arrive à la conclusion logique que la capacité remarquable du cerveau est due au fait que les 100 milliards de neurones peuvent traiter l'information simultanément. Comme je l’ai noté plus haut, le cortex visuel effectue des inférences complexes en seulement trois ou quatre cycles de déclenchement neuronal.

C’est la plasticité importante du cerveau qui nous permet d’apprendre. Cependant, l'ordinateur a une plasticité bien plus grande : ses méthodes peuvent être complètement modifiées en changeant de logiciel. Ainsi, un ordinateur peut imiter le cerveau, mais l’inverse n’est pas vrai.

Lorsque von Neumann a comparé les capacités massivement parallèles du cerveau avec celles des quelques ordinateurs de l’époque, il est apparu clairement que le cerveau avait une mémoire et une vitesse bien supérieures. Aujourd'hui, le premier supercalculateur a déjà été construit, selon les estimations les plus prudentes, satisfaisant les exigences fonctionnelles nécessaires pour simuler les fonctions du cerveau humain (environ 10 16 opérations par seconde). (À mon avis, des ordinateurs de cette puissance coûteront environ 1 000 dollars au début des années 2020.) En termes de capacité de mémoire, nous sommes allés encore plus loin. Les travaux de Von Neumann sont apparus au tout début de l'ère informatique, mais le scientifique était convaincu qu'à un moment donné, nous serions capables de créer des ordinateurs et des programmes informatiques capables d'imiter le cerveau humain ; c'est pourquoi il préparait ses conférences.

Von Neumann était profondément convaincu de l'accélération du progrès et de son impact significatif sur la vie des gens à l'avenir. Un an après la mort de von Neumann, en 1957, son collègue mathématicien Stan Ulam citait von Neumann disant au début des années 1950 que « chaque accélération du progrès technologique et des changements dans la façon de vivre des gens donne l'impression qu'une singularité majeure de l'histoire se rapproche. « une race humaine au-delà de laquelle l’activité humaine telle que nous la connaissons aujourd’hui ne peut plus continuer. » Il s’agit de la première utilisation connue du mot « singularité » pour décrire le progrès technologique humain.

L'idée la plus importante de Von Neumann était la similitude entre l'ordinateur et le cerveau. Notez qu’une partie de l’intelligence humaine est l’intelligence émotionnelle. Si la supposition de von Neumann est correcte et si nous sommes d'accord avec mon affirmation selon laquelle un système non biologique qui reproduit de manière satisfaisante l'intelligence (émotionnelle et autre) d'une personne vivante a une conscience (voir le chapitre suivant), nous devrons conclure qu'entre le ordinateur (avec logiciel correct) Et conscient Il y a une nette similitude de pensée. Alors, von Neumann avait-il raison ?

La plupart des ordinateurs modernes sont des machines entièrement numériques, alors que le cerveau humain utilise à la fois des techniques numériques et analogiques. Toutefois, les méthodes analogiques peuvent être facilement reproduites numériquement avec n’importe quel degré de précision. L'informaticien américain Carver Mead (né en 1934) a montré que les méthodes analogiques du cerveau pouvaient être directement reproduites dans le silicium et l'a mis en œuvre sous la forme de puces neuromorphiques. Mead a démontré que cette approche pouvait être des milliers de fois plus efficace que les méthodes analogiques de simulation numérique. Si nous parlons de coder des algorithmes néocorticaux redondants, il pourrait être judicieux d’utiliser l’idée de Mead. Une équipe de recherche d'IBM dirigée par Dharmendra Modhi utilise des puces qui imitent les neurones et leurs connexions, y compris leur capacité à former de nouvelles connexions. L'une des puces, appelée SyNAPSE, module directement 256 neurones et environ un quart de million de connexions synaptiques. L'objectif du projet est de simuler un néocortex composé de 10 milliards de neurones et de 100 000 milliards de connexions (l'équivalent du cerveau humain), en utilisant seulement un kilowatt d'énergie.

Il y a plus de cinquante ans, von Neumann a remarqué que les processus dans le cerveau se produisaient extrêmement lentement, mais se caractérisaient par un parallélisme massif. Les circuits numériques modernes fonctionnent au moins 10 millions de fois plus vite que les commutateurs électrochimiques du cerveau. En revanche, les 300 millions de modules de reconnaissance du cortex cérébral agissent simultanément et un quadrillion de contacts entre neurones peuvent être activés en même temps. Par conséquent, pour créer des ordinateurs capables d’imiter de manière adéquate le cerveau humain, une mémoire et des performances informatiques adéquates sont nécessaires. Il n’est pas nécessaire de copier directement l’architecture du cerveau : c’est une méthode très inefficace et peu flexible.

À quoi devraient ressembler les ordinateurs correspondants ? De nombreux projets de recherche visent à modéliser l’apprentissage hiérarchique et la reconnaissance de formes se produisant dans le néocortex. Je fais moi-même des recherches similaires en utilisant des modèles de Markov hiérarchiques cachés. J'estime que la modélisation d'un cycle de reconnaissance dans un module de reconnaissance du néocortex biologique nécessite environ 3000 calculs. La plupart des simulations reposent sur un nombre nettement inférieur de calculs. Si nous supposons que le cerveau effectue environ 10 2 (100) cycles de reconnaissance par seconde, nous obtenons un nombre total de 3 x 10 5 (300 000) calculs par seconde pour un module de reconnaissance. Si l'on multiplie ce nombre par le nombre total de modules de reconnaissance (3 x 10 8 (300 millions, selon mes estimations)), nous obtenons 10 14 (100 000 milliards) de calculs par seconde. Je donne à peu près le même sens dans le livre The Singularity is Near. Je prédis que la simulation fonctionnelle du cerveau nécessite des vitesses de 10 14 à 10 16 calculs par seconde. L'estimation de Hans Moravec, basée sur l'extrapolation des données pour le traitement visuel initial dans tout le cerveau, est de 10 14 calculs par seconde, ce qui est le même que mes calculs.

Les machines modernes standards peuvent fonctionner à des vitesses allant jusqu'à 10 10 calculs par seconde, mais avec l'aide des ressources cloud, leur productivité peut être considérablement augmentée. Le supercalculateur le plus rapide, l'ordinateur japonais K, a déjà atteint une vitesse de 10 16 calculs par seconde. Compte tenu de la redondance massive des algorithmes du néocortex, de bons résultats peuvent être obtenus en utilisant des puces neuromorphiques, comme dans la technologie SvNAPSE.

En termes de besoins en mémoire, nous avons besoin d'environ 30 bits (environ 4 octets) pour chaque broche avec l'un des 300 millions de modules de reconnaissance. Si une moyenne de huit signaux conviennent à chaque module de reconnaissance, nous obtenons 32 octets par module de reconnaissance. Si l'on tient compte du fait que le poids de chaque signal d'entrée est d'un octet, nous obtenons 40 octets. Ajoutez 32 octets pour les contacts en aval et nous obtenons 72 octets. Je constate que la présence de branches ascendantes et descendantes conduit au fait que le nombre de signaux est bien supérieur à huit, même si l'on tient compte du fait que de nombreux modules de reconnaissance utilisent un système commun de connexions hautement ramifié. Par exemple, reconnaître la lettre « p » peut impliquer des centaines de modules de reconnaissance. Cela signifie que des milliers de modules de reconnaissance de niveau supérieur sont impliqués dans la reconnaissance des mots et des expressions contenant la lettre « p ». Cependant, chaque module chargé de reconnaître « p » ne répète pas cet arbre de connexions qui alimente tous les niveaux de reconnaissance des mots et phrases avec « p » ; tous ces modules ont un arbre de connexions commun ;

Ce qui précède est également vrai pour les signaux en aval : le module chargé de reconnaître le mot pomme dira à tous les milliers de modules en aval chargés de reconnaître « e » que l'image « e » est attendue si « a », « p », « p » sont déjà reconnus " et " l ". Cet arbre de connexions n'est pas répété pour chaque module de reconnaissance de mot ou de phrase qui veut informer les modules de niveau inférieur que l'image « e » est attendue. Cet arbre est commun. Pour cette raison, une estimation moyenne de huit signaux en amont et huit en aval pour chaque module de reconnaissance est tout à fait raisonnable. Mais même si nous augmentons cette valeur, cela ne changera pas beaucoup le résultat final.

Ainsi, en prenant en compte 3 x 10 8 (300 millions) modules de reconnaissance et 72 octets de mémoire pour chacun, nous constatons que la taille totale de la mémoire devrait être d'environ 2 x 10 10 (20 milliards) d'octets. Et c'est une valeur très modeste. Les ordinateurs modernes conventionnels disposent de ce type de mémoire.

Nous avons effectué tous ces calculs pour estimer grossièrement les paramètres. Étant donné que les circuits numériques sont environ 10 millions de fois plus rapides que les réseaux de neurones du cortex biologique, nous n'avons pas besoin de reproduire le parallélisme massif du cerveau humain - un traitement parallèle très modéré (comparé aux milliards de parallélisme dans le cerveau) sera tout à fait assez. Ainsi, les paramètres de calcul nécessaires sont tout à fait réalisables. La capacité des neurones du cerveau à se reconnecter (rappelons que les dendrites créent constamment de nouvelles synapses) peut également être simulée à l'aide de logiciels appropriés, car les programmes informatiques sont bien plus plastiques que les systèmes biologiques, qui, on l'a vu, sont impressionnants mais ont des limites.

La redondance cérébrale nécessaire pour obtenir des résultats invariants peut certainement être reproduite dans une version informatique. Les principes mathématiques permettant d’optimiser de tels systèmes d’apprentissage hiérarchique auto-organisés sont très clairs. L’organisation du cerveau est loin d’être optimale. Mais il n'est pas nécessaire qu'il soit optimal : il doit être suffisamment performant pour permettre la création d'outils qui compensent ses propres limites.

Une autre limitation du néocortex est qu’il ne dispose d’aucun mécanisme pour éliminer ou même évaluer les données contradictoires ; Cela explique en partie l’illogisme très courant du raisonnement humain. Pour résoudre ce problème, nous disposons d'une capacité très faible appelée Esprit critique, mais les gens l’utilisent beaucoup moins souvent qu’ils ne le devraient. Le néocortex informatique pourrait inclure un processus qui identifie les données contradictoires pour une révision ultérieure.

Il est important de noter que concevoir une région cérébrale entière est plus facile que concevoir un seul neurone. Comme déjà mentionné, à un niveau hiérarchique supérieur, les modèles sont souvent simplifiés (il y a ici une analogie avec un ordinateur). Comprendre le fonctionnement d'un transistor nécessite une compréhension détaillée de la physique des matériaux semi-conducteurs, et les fonctions d'un seul transistor réel sont décrites par des équations complexes. Un circuit numérique qui multiplie deux nombres contient des centaines de transistors, mais une ou deux formules suffisent pour créer un modèle d'un tel circuit. Un ordinateur entier, composé de milliards de transistors, peut être modélisé à l'aide d'un ensemble d'instructions et d'une description de registre sur plusieurs pages de texte à l'aide de quelques formules. Les programmes pour systèmes d'exploitation, compilateurs de langage ou assembleurs sont assez complexes, mais la modélisation d'un programme propriétaire (par exemple, un programme de reconnaissance de langage basé sur des modèles de Markov hiérarchiques cachés) se résume également à quelques pages de formules. Et nulle part dans de tels programmes vous ne trouverez une description détaillée des propriétés physiques des semi-conducteurs ou même de l'architecture informatique.

Un principe similaire s’applique à la modélisation du cerveau. Un module de reconnaissance particulier du néocortex, qui détecte certaines images visuelles invariantes (par exemple des visages), filtre les fréquences audio (en limitant le signal d'entrée à une certaine plage de fréquences) ou estime la proximité temporelle de deux événements, peut être décrit de nombreuses manières. moins de détails spécifiques que les interactions physiques et chimiques réelles qui contrôlent les fonctions des neurotransmetteurs, des canaux ioniques et d'autres éléments des neurones impliqués dans la transmission de l'influx nerveux. Bien que tous ces détails doivent être soigneusement examinés avant de passer au niveau de complexité suivant, beaucoup de choses peuvent être simplifiées lors de la modélisation des principes de fonctionnement du cerveau.

<<< Назад
Suivant >>>

Chaque cerveau humain est quelque chose de spécial, un miracle naturel incroyablement complexe, créé au cours de millions d’années d’évolution. Aujourd’hui, notre cerveau est souvent appelé un véritable ordinateur. Et cette expression n’est pas utilisée en vain.

Et aujourd'hui, nous allons essayer de comprendre pourquoi les scientifiques appellent le cerveau humain un ordinateur biologique et quels faits intéressants existent à son sujet.

Pourquoi le cerveau est un ordinateur biologique

Les scientifiques appellent le cerveau un ordinateur biologique pour des raisons évidentes. Le cerveau, comme le processeur principal de tout système informatique, est responsable du fonctionnement de tous les éléments et nœuds du système. Comme c'est le cas pour la RAM, le disque dur, la carte vidéo et d'autres éléments du PC, le cerveau humain contrôle la vision, la respiration, la mémoire et tout autre processus se produisant dans le corps humain. Il traite les données reçues, prend des décisions et effectue tout le travail intellectuel.

Quant à la caractéristique « biologique », sa présence est également assez évidente, car contrairement à la technologie informatique conventionnelle, le cerveau humain est d’origine biologique. Il s’avère donc que le cerveau est un véritable ordinateur biologique.

Comme la plupart des ordinateurs modernes, le cerveau humain possède un grand nombre de fonctions et de capacités. Et nous vous proposons ci-dessous quelques-uns des faits les plus intéressants à leur sujet :

  • Même la nuit, lorsque notre corps est au repos, le cerveau ne s'endort pas, mais au contraire est dans un état plus actif que pendant la journée ;
  • La quantité exacte d’espace ou de mémoire pouvant être stockée dans le cerveau humain est actuellement inconnue des scientifiques. Ils suggèrent cependant que ce « disque dur biologique » peut stocker jusqu’à 1 000 téraoctets d’informations ;
  • Le poids moyen du cerveau est d'un kilo et demi et son volume augmente, comme dans le cas des muscles, avec l'entraînement. Certes, dans ce cas, la formation consiste à acquérir de nouvelles connaissances, à améliorer la mémoire, etc. ;
  • Malgré le fait que ce soit le cerveau qui réagisse à tout dommage corporel en envoyant des signaux de douleur aux parties correspondantes du corps, il ne ressent pas lui-même la douleur. Lorsque nous ressentons un mal de tête, il s’agit uniquement de douleurs dans les tissus et les nerfs du crâne.

Vous savez maintenant pourquoi le cerveau est appelé ordinateur biologique, ce qui signifie que vous avez effectué un petit entraînement de votre cerveau. Ne vous arrêtez pas là et apprenez systématiquement quelque chose de nouveau.

Le siècle dernier a marqué une avancée majeure dans le développement humain. Après avoir parcouru un chemin difficile depuis l'amorce jusqu'à Internet, les gens n'ont pas été en mesure de résoudre le principal mystère qui tourmente l'esprit des grands depuis des centaines d'années, à savoir comment fonctionne le cerveau humain et de quoi est-il capable. ?

À ce jour, cet organe reste le moins étudié, mais c'est cet organe qui a fait l'homme ce qu'il est aujourd'hui - le stade le plus élevé de l'évolution. Le cerveau, continuant à garder ses secrets et ses mystères, continue de déterminer l'activité et la conscience d'une personne à chaque étape de sa vie. Aucun scientifique moderne n'a encore été capable de comprendre toutes les possibilités dont il est capable. C'est pourquoi un grand nombre de mythes et d'hypothèses non fondées se concentrent autour de l'un des organes les plus importants de notre corps. Cela ne peut qu'indiquer que le potentiel caché du cerveau humain n'a pas encore été exploré, mais que pour l'instant ses capacités dépassent les limites des idées déjà établies sur son travail.


Photo : Pixabay/Geralt

Structure du cerveau

Cet organe est constitué d'un grand nombre de connexions qui créent une interaction stable entre les cellules et les processus. Les scientifiques suggèrent que si cette connexion est représentée par une ligne droite, sa longueur sera huit fois supérieure à la distance à la Lune.

La fraction massique de cet organe dans la masse corporelle totale ne dépasse pas 2% et son poids varie entre 1 019 et 1 960 grammes. Depuis la naissance jusqu'au dernier souffle d'une personne, elle mène une activité continue. Par conséquent, il doit absorber 21 % de tout l’oxygène entrant constamment dans le corps humain. Les scientifiques ont dressé un tableau approximatif de la manière dont le cerveau assimile les informations : sa mémoire peut contenir de 3 à 100 téraoctets, tandis que la mémoire d'un ordinateur moderne est actuellement en cours d'amélioration jusqu'à un volume de 20 téraoctets.

Les mythes les plus courants sur l'ordinateur biologique humain

Les tissus neuronaux du cerveau meurent au cours de la vie du corps et de nouveaux ne se forment pas. C’est une erreur qu’Elizabeth Goode a prouvée absurde. Le tissu nerveux et les neurones se renouvellent constamment et de nouvelles connexions remplacent celles qui sont mortes. La recherche a confirmé que dans les zones de cellules détruites par un accident vasculaire cérébral, le corps humain est capable de « faire pousser » de nouveaux matériaux.

Le cerveau humain n’est ouvert qu’à 5 à 10 %, toutes les autres possibilités ne sont pas utilisées. Certains scientifiques ont expliqué cela en disant que la nature, ayant créé un mécanisme aussi complexe et développé, a mis au point un système de protection qui protège l'organe d'un stress excessif. C'est faux. On sait de manière fiable que le cerveau est impliqué à 100 % dans toute activité humaine ; c'est juste qu'au moment d'effectuer une action, ses différentes parties réagissent une par une.

Superpouvoirs. Qu’est-ce qui peut surprendre l’esprit humain ?

Certaines personnes qui ne montrent pas extérieurement de signes de capacités incroyables peuvent avoir des capacités vraiment incroyables. Ils n’apparaissent pas chez tout le monde, mais les scientifiques affirment qu’un entraînement cérébral intensif et régulier peut développer des super pouvoirs. Bien que le secret de la « sélection » des personnes pouvant avoir le droit d'être qualifiés de génie n'ait pas encore été révélé. Certaines personnes savent comment se sortir de situations difficiles avec compétence, tandis que d'autres sentent l'approche du danger à un niveau subconscient. Mais les superpouvoirs suivants sont plus intéressants d’un point de vue scientifique :

  • La capacité d'effectuer des opérations mathématiques de toute complexité sans l'aide d'une calculatrice ou de calculs sur papier ;
  • La capacité de créer des créations brillantes ;
  • Mémoire photographique;
  • Lecture rapide ;
  • Capacités psychiques.

Cas étonnants de révélation des capacités uniques du cerveau humain

Au cours de toute l'histoire de l'existence humaine, un grand nombre d'histoires sont apparues confirmant le fait que le cerveau humain peut avoir des capacités cachées, s'adapter à des situations changeantes et déplacer certaines fonctions de la partie affectée vers la partie saine.

Vision sonar. Cette capacité se développe généralement après une perte de vision. Daniel Kish a réussi à maîtriser la technique d'écholocation inhérente aux chauves-souris. Les sons qu'il émet, comme les claquements de langue ou de doigts, l'aident à marcher sans canne.

Mnémotechnique– une technique unique qui permet de percevoir et de mémoriser n'importe quelle quantité d'informations, quelle que soit sa nature. Beaucoup de gens le maîtrisent à l’âge adulte, mais l’Américaine Kim Peak possède ce don inné.

Le don de prévoyance. Certains prétendent qu’ils peuvent voir l’avenir. Pour le moment, ce fait n'a pas été entièrement prouvé, mais l'histoire connaît de nombreuses personnes qu'une telle capacité a rendues célèbres dans le monde entier.

Phénomènes dont le cerveau humain est capable

Carlos Rodriguez, âgé de 14 ans, a perdu plus de 59 % de son cerveau suite à un accident, mais mène toujours une vie tout à fait normale.

Yakov Tsiperovich, après une mort clinique et un séjour d'une semaine dans un état comateux, a cessé de dormir, mange peu et ne vieillit pas. Trois décennies se sont écoulées depuis ce moment et il est encore jeune.

Fenias Gage a subi une terrible blessure au milieu du XIXe siècle. Un épais pied de biche lui a traversé la tête, le privant d'une bonne partie de son cerveau. La médecine de ces années-là n'était pas suffisamment avancée et les médecins prédisaient sa mort imminente. Cependant, non seulement l'homme n'est pas mort, mais il a également conservé sa mémoire et sa clarté de conscience.

Le cerveau humain, tout comme son corps, doit être soumis à un entraînement constant. Il peut s'agir soit de programmes complexes spécialement conçus, soit de lecture de livres, de résolution d'énigmes et de problèmes logiques. Dans le même temps, il ne faut pas oublier de saturer cet organe en nutriments. Par exemple, l'amplificateur d'activité cérébrale HeadBooster http://hudeemz.com/headbooster en possède un grand nombre. Mais néanmoins, seul un entraînement constant permet au cerveau de développer et d'augmenter constamment ses capacités.

Pour garder le corps en bonne forme. Mais les muscles ne sont pas les seuls à nécessiter des tensions périodiques. Voies neuronales et connexions dans cerveau devraient également recevoir leur dose de travail de temps en temps, et aujourd'hui, nous parlerons de la manière de mettre en œuvre cela. Donc... cinq fonctions cognitives de base : - Mémoire - Attention - Langage - Compétences visuo-spatiales - Raisonnement Pour maintenir la performance cerveau Sous une forme optimale, il est important de stimuler les cinq domaines. Et voici cinq exercices simples avec lesquels vous pouvez...

https://www.site/journal/147964

– Dans les troubles de l’ancienne Gaule et Thrace
Les hackers russes sont à blâmer !
Émeutes à Madrid et à Paris
Ils appellent aujourd'hui !
À Krasnostennaya au carillon
Trump est devenu président !
Ce sont des terroristes, des ennemis !..

- Messieurs, vous avez de l'intelligence...

https://www.site/poetry/1145970

Et ton philosophe. La « chorégraphie » industrielle bien réglée de Taylor – son « système » comme il l’aimait appel- les entrepreneurs de tout le pays et, au fil du temps, du monde entier l'ont adopté. Les fabricants à la recherche de l'ultime... « 2001 : L'Odyssée de l'espace ». Elle fait une impression si touchante et étrange précisément à cause de sa réaction émotionnelle. ordinateur pour le démembrer cerveau: Le désespoir de HAL grandit à mesure que ses circuits s'estompent, la façon enfantine et touchante dont il...

https://www.site/journal/118394

Une personne est un système autorégulé. Pour plus de clarté, imaginons que cerveau personne - ordinateur, et psyché – programmes installés sur ce ordinateur. Chaque ordinateur a initialement quelques programmes par défaut qui l’activent. Ainsi, une personne reçoit un ensemble de tels programmes à la naissance - en science, ils appelé instincts (instinct de conservation, de procréation, etc.). De tels programmes sont établis...

https://www.site/magic/15533

Une montre qui connaît l'heure à la seconde près à tout moment. Troisièmement, en regardant n'importe quel objet, appels ses dimensions sont précises à deux ou trois millimètres près. Le quatrième parle 24 langues, dont quelques langues inventées... » Un système a été créé en Allemagne qui permet de taper sur un écran. ordinateur avec l'aide de la pensée. Cette notion a été récemment étayée par des résultats de recherche publiés cerveau Einstein. Régions cerveau, généralement associés à la capacité mathématique, sont agrandis et ne se chevauchent pas...

https://www.site/psychology/12448

En 1967, le neurophysiologiste John Lilly a écrit le livre « Programmation et métaprogrammation du bioordinateur humain », dans lequel il combine ses recherches sur la neurophysiologie du cortex cérébral cerveau avec des idées de design des ordinateurs. Un programme, tel que défini par le Dr Lilly, est un ensemble d'instructions compatibles en interne pour traiter les signaux, générer des informations, mémoriser les deux et préparer des messages ; a besoin...

https://www.site/psychology/14016

... (Giulio Tononi), engagé dans un projet visant à créer un « système cognitif ordinateur", la tâche de créer ordinateur, aussi « puissant » et flexible qu’un relativement petit cerveau mammifères, une tâche bien plus difficile qu’il n’y paraît. ... les conceptions de supercalculateurs prendront le relais sur le matériel du futur « cognitif » ordinateur" La tâche qui les attend est vraiment difficile : ordinateur doit être capable de cerveau, travailler avec plusieurs flux de données parallèles et en constante évolution, ...

https://www.site/journal/116182

Qui sont destinés à mourir en bas âge, avant l'âge de dix ans, centre cerveau pas en cours de construction. Chez d'autres enfants, il est recréé avant l'âge de cinq ans, et à cinq ans, il est lié à ordinateur Le déterminant qui le guide tout au long de la vie. Cela le prépare à... Le Déterminant de l'Homme. Après le centre cerveau pleinement formé, le Déterminant l'inclut dans son œuvre, le reliant à son ordinateur. Et puis l'enfant est surveillé via ordinateur, qui enregistre la condition physique, les pensées et...

Organe qui coordonne et régule toutes les fonctions vitales du corps et contrôle le comportement. Toutes nos pensées, sentiments, sensations, désirs et mouvements sont associés au travail du cerveau, et s'il ne fonctionne pas, la personne entre dans un état végétatif : la capacité d'effectuer des actions, des sensations ou des réactions aux influences extérieures est perdue. .

Modèle informatique du cerveau

L'Université de Manchester a commencé à construire le premier d'un nouveau type d'ordinateur, dont la conception imite la structure du cerveau humain, rapporte la BBC. Le coût du modèle sera de 1 million de livres.

Selon le professeur Steve Furber, un ordinateur construit sur des principes biologiques devrait démontrer une stabilité de fonctionnement significative. "Notre cerveau continue de fonctionner malgré la défaillance constante des neurones qui composent notre tissu nerveux", explique Furber. "Cette propriété présente un grand intérêt pour les concepteurs qui souhaitent rendre les ordinateurs plus fiables."

Interfaces cérébrales

Afin de soulever un verre de plusieurs mètres en utilisant uniquement l'énergie mentale, les sorciers devaient s'entraîner plusieurs heures par jour.
Sinon, le principe du levier pourrait facilement faire sortir le cerveau par les oreilles.

Terry Pratchett, "La couleur de la magie"

De toute évidence, le couronnement de l’interface homme-machine devrait être la capacité de contrôler une machine par la seule pensée. Et transmettre des données directement au cerveau constitue déjà le summum de ce que la réalité virtuelle peut réaliser. Cette idée n’est pas nouvelle et est présente depuis de nombreuses années dans une grande variété de littérature de science-fiction. Voici presque tous les cyberpunks ayant des connexions directes aux cyberdecks et aux biologiciels. Et le contrôle de toute technologie utilisant un connecteur cérébral standard (par exemple, Samuel Delany dans le roman « Nova »), et bien d'autres choses intéressantes. Mais la science-fiction, c’est bien, mais que fait-on dans le monde réel ?

Il s'avère que le développement des interfaces cérébrales (BCI ou BMI - interface cerveau-ordinateur et interface cerveau-machine) bat son plein, même si peu de gens le savent. Bien sûr, les succès sont très loin de ce qui est écrit dans les romans de science-fiction, mais ils sont néanmoins assez perceptibles. Actuellement, les travaux sur les interfaces cérébrales et nerveuses sont principalement menés dans le cadre de la création de diverses prothèses et dispositifs destinés à faciliter la vie des personnes partiellement ou totalement paralysées. Tous les projets peuvent être divisés en interfaces d'entrée (restauration ou remplacement d'organes sensoriels endommagés) et de sortie (contrôle de prothèses et autres appareils).

Dans tous les cas de saisie directe de données, il est nécessaire de procéder à une intervention chirurgicale pour implanter des électrodes dans le cerveau ou les nerfs. En cas de sortie, vous pouvez vous contenter de capteurs externes pour réaliser un électroencéphalogramme (EEG). Cependant, l’EEG est un outil plutôt peu fiable, car le crâne affaiblit considérablement les courants cérébraux et seules des informations très générales peuvent être obtenues. Si des électrodes sont implantées, les données peuvent être extraites directement des centres cérébraux souhaités (par exemple, les centres moteurs). Mais une telle opération est une affaire sérieuse, c'est pourquoi, pour l'instant, les expériences sont menées uniquement sur des animaux.

En fait, l’humanité dispose depuis longtemps d’un tel ordinateur « unique ». Selon Kevin Kelly, cofondateur du magazine Wired, des millions d'ordinateurs, de téléphones portables, de PDA et d'autres appareils numériques connectés à Internet peuvent être considérés comme des composants d'un seul ordinateur. Son processeur central est constitué de tous les processeurs de tous les appareils connectés, son disque dur est constitué des disques durs et lecteurs flash du monde entier et sa RAM est la mémoire totale de tous les ordinateurs. Chaque seconde, cet ordinateur traite une quantité de données égale à toutes les informations contenues dans la Bibliothèque du Congrès, et son système d'exploitation est le World Wide Web.

Au lieu de synapses de cellules nerveuses, il utilise des hyperliens fonctionnellement similaires. Les deux sont responsables de la création d’associations entre les nœuds. Chaque unité de pensée, telle qu’une idée, grandit à mesure que de plus en plus de liens sont établis avec d’autres pensées. Également sur le réseau : un plus grand nombre de liens vers une certaine ressource (point nodal) signifie sa plus grande importance pour l'ordinateur dans son ensemble. De plus, le nombre de liens hypertextes sur le World Wide Web est très proche du nombre de synapses dans le cerveau humain. Kelly estime que d’ici 2040, l’ordinateur planétaire disposera d’une puissance de calcul proportionnelle à la puissance cérébrale collective des 7 milliards de personnes qui habiteront la Terre à ce moment-là.

Mais qu’en est-il du cerveau humain lui-même ? Un mécanisme biologique dépassé depuis longtemps. Notre matière grise fonctionne à la vitesse du tout premier processeur Pentium, datant de 1993. Autrement dit, notre cerveau fonctionne à une fréquence de 70 MHz. De plus, notre cerveau fonctionne selon un principe analogique, il ne peut donc être question de comparaison avec la méthode numérique de traitement des données. C'est la principale différence entre les synapses et les hyperliens : les synapses, réagissant à leur environnement et aux informations entrantes, modifient habilement l'organisme, qui n'a jamais deux états identiques. Le lien hypertexte, en revanche, est toujours le même, sinon les problèmes commencent.

Cependant, il faut admettre que notre cerveau est nettement plus efficace que n’importe quel système artificiel créé par l’homme. D'une manière complètement mystérieuse, toutes les gigantesques capacités informatiques du cerveau sont situées dans notre crâne, pèsent un peu plus d'un kilogramme et, en même temps, ne nécessitent que 20 watts d'énergie pour fonctionner. Comparez ces chiffres avec les 377 milliards de watts qui, selon des calculs approximatifs, sont actuellement consommés par un seul ordinateur. Cela représente d’ailleurs jusqu’à 5 % de la production mondiale d’électricité.

Le simple fait d’une consommation d’énergie aussi monstrueuse ne permettra jamais à l’ordinateur unifié de se rapprocher de l’efficacité du cerveau humain. Même en 2040, lorsque la puissance de calcul des ordinateurs atteindra des sommets, leur consommation d’énergie continuera d’augmenter.