Migraña en robots
No sabemos si existe la migraña en una especie animal que no sea la humana. Para reproducir una conducta en animales, que sugiera una crisis de migraña, hay que abrir el cráneo y aplicar moléculas pro-inflamatorias en las meninges. Una meningitis produce plausiblemente algo parecido a una crisis migrañosa en cualquier especie animal.
Evidentemente una crisis de migraña no es un evento de inflamación meníngea. Se libera CGRP en las terminales meníngeas del trigémino, como corresponde a un Sistema Neuroinmune activado, en alerta ante la presunción errónea de un suceso nocivo en el interior del cráneo. Cualquier estímulo genera falsa señal de daño y esas señales son evaluadas erróneamente como confirmación de que la amenaza existe. Toda la red defensiva neuroinmune actúa como si hubiera o fuera a haber un suceso intracraneal nocivo, aunque tal presunción sea descabellada. El dolor no surge de las terminales meníngeas sensibilizadas del trigémino, sino por el estado sistémico de alerta-protección.
En los animales de laboratorio no podemos reproducir los factores cognitivos facilitados por un instructor que propicien el cultivo de la migraña. Su sistema neuroinmune aprenderá a evaluar amenazas en función de los sucesos nocivos propios y evitará escenarios evaluados como peligrosos por observación-imitación pero no cometerá el error migrañoso.
Sin embargo una red neuronal artificial de alerta-protección, acoplada a un robot, e instruida en la cultura de la migraña, podría reproducir conductas similares a las de un humano con una crisis.
Creo que la investigación en redes neuronales artificiales, con modelos que reproduzcan las condiciones biológicas (incluida la cultura) de nuestra especie, podrían aportar luz sobre la génesis de los errores evaluativos.
Un robot criado en un medio que incluya la observación-imitación de conductas de alerta-protección y acepte las cogniciones del instructor, podría generar errores de valoración de amenaza y sesgos de confirmación. Un robot especialista en migrañas robóticas pondría la etiqueta y cerraría el bucle.
La investigación de conductas aberrantes en una red biológica compleja no puede explicarse de modo reduccionista, buscando partes del todo para dar con la molécula culpable y bloquearla con antagonistas e ignorando todo el complejo proceso de instrucción.
El Sistema Neuroinmune es un Sistema de aprendizaje, guiado en la especie humana por instructores que inyectan cogniciones y propuestas conductuales. Dar por sentado que estas instrucciones y propuestas son válidas y dejar que el Sistema opere al servicio de lo que se le dice es arriesgado. Al menos sería prudente y científico cuestionar la bondad del proceso instructivo.
¿Es posible crear robots con migraña, dolor crónico, fibromialgia y un largo etcétera de etiquetas diagnósticas?
¿Podemos crear conductas de enfermedad en robots sanos permitiendo-facilitando errores evaluativos?
Si nos olvidamos del problema de la consciencia, de la percepción, pienso que es posible crear esas conductas de enfermedad innecesarias. Los robots no sentirían dolor, cansancio, etc, pero actuarían como si estuvieran enfermos.
Sería curioso conocer la interpretación del especialista en enfermedades robóticas.
“El robot está bien. Es todo normal. Puede que sea psicológico…”
Comentarios (2)
Los comentarios están cerrados.