¿Para qué tenemos una mente?


homodeus

De la lectura del  libro que preside este post y, que ha sido mi ultima lectura este verano he extraído un par de temas que me parecen interesantes y que Harari ha abordado en este “Homo Deus”  que quiere ser un libro de anticipación. Advierto al lector que no necesariamente estoy de acuerdo con todo lo expuesto en él pero me parece un buen ejercicio intelectual el abordarlo y compartirlo con los interesados en estos temas sobre la evolución de la conciencia humana o qué es lo que nos espera en un futuro que parece que al menos en nuestra dependencia de la tecnología,  ya ha llegado.

El primer tema que me parece interesante es el tema de la conciencia humana o mejor dicho ¿para qué necesitamos una mente si ya tenemos un cerebro? De paso, el libro de Harari nos lleva de la mano a repensar las teorías que otros autores han  abordado sobre el problema difícil de la conciencia.

Que puede resumirse de este modo:  ¿Cómo es posible que el cerebro que sólo procesa señales eléctricas o químicas de lugar a una experiencia subjetiva consciente?

Adelantaré al lector la respuesta: nadie lo sabe.

El cuento del coche sin conductor.-

Un conocido mio salió de Madrid hace pocos días con toda su familia a bordo con objeto de desplazarse a un pueblo de la costa para pasar sus vacaciones. Tuvo la mala suerte de salir en el mismo momento en que el diluvio universal cayó sobre Madrid y le acompañó buena parte del viaje. Al llegar a su destino contó su epopeya y el miedo que había pasado al viajar sin casi visibilidad por una carretera atestada de vehículos. Se encontraba cansado y contracturado de la tensión que había soportado su cuerpo durante todo el trayecto. Al llegar hablamos precisamente de coches sin conductor y como esta tecnología que ya está disponible cambiará para siempre este problema en que el que un individuo tendrá a su mando un automóvil al dejarlo en manos de una maquina.

Como ventaja podemos deducir que esa maquina no tendrá fatiga, ni se despistará ni tendrá miedo por lo tanto será mucho más segura que fíarlo todo a un conductor humano por más experiencia que tenga. Pero esta conversación nos llevó a otra mucho más interesante: ¿Por qué la inteligencia del coche sin conductor será mejor y mas fiable que la de un humano?

La ventaja del coche sin conductor es que es una inteligencia sin conciencia. Es decir una inteligencia que solo atiende algoritmos ejecutivos sin la posibilidad de contaminarse con una “mente” que sienta, que tenga emociones, dolor, desatención o miedo. El coche sin conductor no tiene mente y por tanto es de prever que no tenga fallos (suponiendo que su maquinaria esté blindada para fallos ejecutivos, claro está). Lo que nos lleva en una dirección ¿para qué tenemos miedo si el miedo emborrona nuestro juicio ejecutivo y nos hace vulnerables a los accidentes?

Naturalmente no es solo el miedo el que emborrona nuestra atención al volante, lo mismo podríamos decir del cansancio, el alcohol, las drogas o el aburrimiento. Lo que es seguro es que las emociones y las sensaciones físicas disminuyen nuestra capacidad para una conducción segura.

Lo que caracteriza la inteligencia conductora de un coche sin conductor o de un conductor humano son los algoritmos guardados en algún lugar de nuestro cerebro y que son en realidad “patrones de acción fijos” fundamentalmente motores y que hemos ido acumulando a partir de nuestro aprendizaje y experiencia como conductores. Para comprender mejor qué es este sistema de patrones de acción fijo, es mejor que usted tome hoy una bicicleta. ¿Cuanto tiempo hace que no va en bicicleta? No importa el tiempo transcurrido, si usted no tiene ninguna limitación motora, se subirá a ella e inmediatamente comenzará a pedalear. A los pocos minutos habrá reeditado todos esos patrones y no caerá de ella, salvo incidentes.

Lo que caracteriza la mente es que está compuesta por “estados mentales”, ya he nombrado más arriba los estados mentales que pueden interferir en la conducción, lo que nos lleva a la siguiente pregunta. ¿Sería mejor y más seguro viajar con un coche sin conductor que con un conductor humano?

La respuesta es si.

Y la siguiente pregunta sería ésta: ¿Para qué necesitamos una mente entonces, si ya tenemos un cerebro?

La respuesta es que para conducir no necesitamos una mente para nada suponiendo, claro está, que la tecnología del coche sin conductor haya progresado lo suficiente.

Del mismo modo no necesitamos una mente para jugar al ajedrez y ganarle a Kasparov como ya demostró Deep blue. La maquina puede programarse para computar jugadas y aperturas de un modo más eficiente que un humano, su potencia de computación es superior a la de cualquier jugador de ajedrez y es por eso que Kasparov perdió su apuesta con la máquina de IBM.

“Deep blue” es una maquina, muy compleja compuesta por algoritmos, su ventaja para con el humano es su velocidad de computación muy superior a la del humano. A pesar de esta complejidad y que es capaz incluso de inventar estrategias complicadas de ella no emerge una mente (y volvemos sobre el problema dífícil de la conciencia). Deep blue no sabe que es una maquina, ni sabe una palabra de ajedrez, simplemente juega.

Una posible respuesta a la pregunta de para qué tenemos una mente seria ésta: para maximizar nuestros propósitos. Por ejemplo el miedo a conducir puede tener efectos muy adaptativos: si su miedo es insuperable usted no osará sacarse el carnet de conducir lo que le evitará accidentes al menos siendo usted el conductor. Si su miedo es soportable puede que le sirva para anticipar peligros que no son fácilmente perceptibles, por ejemplo anticipar que tenemos un cruce peligroso delante nuestro y que quizá algún despistado salga sin hacer caso a la señal de stop. Naturalmente cierta dosis de miedo alertará nuestra atención y es por eso que no es buena idea conducir con nuestra red neuronal por defecto

Pero sin duda nuestra capacidad para tener estados mentales señala una redundancia: la mente se superpone a los algoritmos ejecutivos de nuestro cerebro añadiendo una dimensión más a nuestra inteligencia (suponiendo que nuestra conciencia funcione correctamente). Conciencia e inteligencia han ido de la mano en toda nuestra evolución solo que ahora tendremos que ir acostumbrándonos a qué ciertas máquinas son más inteligentes que nosotros y de momento no tienen conciencia.

David Cope es un musicólogo americano, uno de esos popes en inteligencia artificial que ha dedicado su vida a generar máquinas compositoras, una maquina llamada Emi.  Para ello descompuso los algoritmos que caracterizan las composiciones de autores clásicos dándole a la maquina las instrucciones para componer piezas en un determinado estilo, así hay composiciones Vivaldi, Chopin o Beethoven like. El lector deberá oír esta composición a la manera de Vivaldi para comprender qué es lo que quiero decir y lo que de alguna manera piensan otros investigadores de la conciencia humana.

Si el lector ya ha oído la composición que propongo habrá descubierto dos cosas:

  1. Que efectivamente suena a Vivaldi y suena al Barroco italiano para ser más exactos.
  2. Que a la composición le falta algo, no nos sobrecoge, carece de alma, le falta inspiración como solemos decir aunque la orquestación sea perfecta.

Lo que nos lleva otra vez frente al dilema mente-cerebro. ¿Es la inspiración un producto humano, un estado mental que no puede matematizarse en un algoritmo? ¿es precisamente esa inspiración, esos raptus de sobrecogimiento lo que las máquinas del futuro no podrán imitar? ¿Y en cualquier caso de dónde viene ese plus que los humanos  a través  de nuestra mente añadimos a la receta pura y dura?

¿Y si ese misterio que llamamos “inspiración” fuera también un algoritmo?

En cualquier caso se trataría de un algoritmo extraño, un metaalgoritmo en el sentido de que es dífícil de simbolizar. Todos podemos sentirnos emocionados o sobrecogidos pero no sabemos porqué. ¿Cómo darle a la maquina las instrucciones precisas para que intercale algunos compases sobrecogedores?

Una solución seria dejarlo al azar y espera que EMI ligue algo con gracia y otra iniciar una investigación para saber qué pasajes de una composición son más emocionantes de un modo estadístico. El problema es que “lo emocionante” para una persona puede no serlo para otra, pues no sabemos si cuando estamos oyendo una pieza, nuestro vecino de butaca está sintiendo lo mismo que nosotros o simplemente hace aquiescencia social  a lo que espera escuchar.

De lo único que podemos estar seguros es de lo que nos emociona a nosotros y sabemos algo: la sensibilidad y el gusto musical no nos vienen de serie: necesitamos un cierto entrenamiento para aprender a que nos gusten las cosas más complejas o más elaboradas. Pero ahora vienen las malas noticias:

No tenemos ninguna razón objetiva para pensar que Beethoven es superior a Chuck Berry. Dicho de otra forma: no hay ningún algoritmo que nos diga cual de ellos tiene más valor, el valor de una creación se le adjudica a través de consensos de gente sensible y entrenada. Solo podemos hablar de complejidad algoritmica lo que dejaría fuera todas las composiciones de música popular o el simple canto de los pájaros. La sencillez dejaría de tener mérito.

Mi conclusión es que la mente existe precisamente para ser redundante y duplicar la computación simple que nuestro cerebro lleva a cabo para resolver problemas computables que -efectivamente- las maquinas resuelven mejor que los humanos pero sin embargo y sin descartar que lo que hemos llamado “inspiración” o “creatividad” sean a su vez algoritmos computables, la dificultad residiría en establecer las reglas que nos permitan construir esas secuencias de instrucciones para hacer a las máquinas no solo inteligentes sino sensibles.

¿Pero para qué vamos a hacerlas sensibles si ya estamos nosotros?

 

Anuncios

29 pensamientos en “¿Para qué tenemos una mente?

  1. “No tenemos ninguna razón objetiva para pensar que Beethoven es superior a Chuck Berry. Dicho de otra forma: no hay ningún algoritmo que nos diga cual de ellos tiene más valor, el valor de una creación se le adjudica a través de consensos de gente sensible y entrenada”

    Pero son estos consensos los que dan lugar a una realidad objetiva. De lo contrario no podría existir el concepto mismo de “Estética” https://es.wikipedia.org/wiki/Est%C3%A9tica La civilización acaba reconociendo siempre a los autores estimables y desechando a los no estimables en una especie de proceso evolutivo no muy diferente a la evolucion moral. Lo lógico es pensar que tarde o temprano podrán precisarse también los algoritmos que hicieron que Echegaray fuera un dramaturgo estimado en su época (¡hasta le dieron el Nobel!) y absolutamente insignificante hoy, mañana y por siempre.

      • Muchas gracias por la corrección. Me he expresado mal: el consenso no es el que determina lo objetivo, sino que lo objetivo, como es propio, existe por sí mismo y, a falta de algoritmo, de momento tratamos de aproximarnos a él mediante el consenso.

        Por ejemplo: antes del descubrimiento del ADN había un consenso
        entre los biólogos (Mendel y todo eso) acerca de la existencia de un
        “plasma germinativo” que debía encontrarse en alguna parte dentro de la constitución biológica de los seres vivos. Se especulaban algunas reglas al respecto, pero hasta que se llegase al descubrimiento científico nada se podía hacer más allá de eso.

        De forma semejante, inteligencia y estética son cualidades de la
        “mente” que a todas luces están relacionadas (la aparición de las
        pinturas rupestres coincide con el desarrollo de la tecnología de los
        cazadores-recolectores) y que la ciencia actual busca determinar
        “objetivamente”. Todavía no tenemos una inteligencia artificial
        comparable a la humana (por lo visto, la IA más avanzada hoy apenas llega a emular a la inteligencia de “un insecto un poco tonto”) y tampoco tenemos un sentido estético artificial lo suficientemente
        bueno (yo no tengo mucha sensibilidad musical, pero el “Vivaldi” este
        me ha parecido “bonito”), pero todo indica que tarde o temprano
        acabará descubriéndose.

  2. Tenemos patrones de acción fijos pero en el proceso evaluador previo que va a decidir una conducta u otra, esos patrones fijos, pertenecientes a diversos sistemas, entran en concilio y competencia, emergiendo patrones nuevos. Eso permite el aprendizaje y la adaptación al entorno. La conciencia es en gran manera responsable de que se produzca tal concilio. La conciencia es la que posibilita el aprendizaje y la adaptación al entorno.

      • Ya vemos lo que aprenden los perros, por condicionamientos del miedo y recompensa, ¿o es que hay alguno que haya hecho un curso de matemática avanzada? Adaptarse significa cambiar de hábitos, perspectivas, esquemas mentales, enfoques, respuestas…, con el fin de hacer frente a un entorno hostil que se ha alterado para sobrevivir en él en las mejores condiciones posibles y para cambiarlo en nuestro provecho. La única adaptación significativa del perro es la domesticación, es decir, el sometimiento. Si ahora el entorno (los humanos) se volviera hostil con ellos y prohibiera las mascotas, su destino inexorable sería desaparecer. ¿Cuál es su capacidad de adaptación?

      • ¿Aprenden y se adaptan al medio los perros en una medida siquiera lejana a còmo aprendemos y nos adaptamos nosotros gracias a poseer conciencia?

    • Quizás por aprendizaje se podría entender también una nueva sinapsis, y nada más. El perro aprendería porque sus neuronas hacen sinapsis, pero sin llegar a ser consciente de que está aprendiendo. Veo diferencia en el puro “aprender y adaptarse” del “ser consciente de estar aprendiendo para adaptarse”. En el primero percibo un dirigismo perpetuo e inamovible hacia un objetivo. En el segundo, la libertad de elegir modos de llegar al objetivo. Ser conscientes, creo que es lo que nos ha hecho tan versátiles. Y creo también que, principalmente, el ser conscientes de nuestra muerte.

  3. “Qué ventajas tiene para ese conductor del que hablo en el post el tener una mente?”Meramente para conducir, quizás ninguna, pero para todo lo que comporta vivir, todas.
    “No creo que tener una mente sirva para adaptarnos menos, al contrario podría poner muchos ejemplos de que es un handicap” Si entendemos como mejor adaptación aquella con la que se consigue no solo sobrevivir, sino también dominar el medio e incluso adaptarlo a las necesidades de la especie, sin duda que la humana es la mejor adaptada. Otra cosa es que ciertas bacterias posean unas capacidades increíbles para la supervivencia, incluso sin haber evolucionado apenas, pero por esa casi carencia de evolución apenas se han adaptado. Les tocó la lotería orgánica.

      • Unas opiniones del científico Paul Davies acerca de la necesidad de la mente autoconsciente en el universo:

        “El poder de las computadoras radica en que pueden enlazarse, sin protestar demasiado, para compartir tareas y juntar recursos. A diferencia de los cerebros, que son entidades discretas, las computadoras pueden enlazarse en redes, juntarse, reconfigurarse y expandirse, al parecer indefinidamente. (…)Una potente red de computadoras sin sentido de identidad personal tendría una enorme ventaja sobre la inteligencia humana porque podría rediseñarse «a sí misma», realizar cambios sin temor, unirse a otros sistemas y crecer. Sentir todo eso como algo «personal» sería un claro impedimento para el progreso.”
        http://unpocodesabiduria21.blogspot.com.es/2013/11/un-silencio-inquietante-2010-paul-davies.html

        Aunque, de momento, las mentes humanas siguen contando con ventaja intelectual sobre el mejor computador.

        “Si tomamos el cerebro como un todo, éste ejecuta alrededor de 10.000 billones de operaciones por segundo (una cifra todavía poco definida). La supercomputadora más rápida llega a 360 billones, así que la Madre Naturaleza todavía lleva la delantera. Pero no por mucho tiempo.”

  4. Me da la impresión que nos falta una definición concisa de lo que es mente.

    Por ejemplo si es “experiencia subjetiva consciente” (es una expersión del texto)..

    Luego se argumenta:

    La ventaja del coche sin conductor es que es una inteligencia sin conciencia. Es decir una inteligencia que solo atiende algoritmos ejecutivos sin la posibilidad de contaminarse con una “mente” que sienta, que tenga emociones, dolor, desatención o miedo. 

    Aquí creo que nos liamos. ¿Acasi no es posible reaccionar al dolor sin ser consciente de él? Vale, no le llamemos dolor, llamemosle detección de agresión, pero es lo mismo. ¿Acaso si no sentimos el cansancio conscientemetne deja de estar presente? ¿deja de generar fallos?

    Todos sabemos que hay enfermedades que hacen que uno no sienta dolor, ¿le convierte eso en mejor conductor? No, por supuesto que no, porque el cansancio o dolor no sentidos (inconscientes, fuera de la mente) van a haer que falles conduciendo de igual forma…

    El ordenador conduce mejor porque no se cansa. No porque tenga o no mente.

    Pero eso no tiene relación con la existencia de mente o no, de consciencia o no, de qualia o no.

    Puedes tener o no tener todos esos elementos e igualmente “fallar” por cansancio.

    Y al revés puedes ser un organismo que no se cansa y tener mente, y conducirás de maravilla. La experiencia consciente, mente o qualia, es independiente de eso.

    También me ha sorprendido en algún comentario que parece asumirse que los animales no tienen mente o consciencia o qualia. Me sorprendería que no fuera así. Es una visión demasiado antropocéntrica…

      • Sí, correcto, pero no el cansancio.

        El cansancio muscular va a aparecer independientemente de si se hace consciente en una mente o no.

        Y las consecuencias de la agresión corporal externa que una vez hechas conscientes llamamos dolor también van a darse en ausencia de una mente externa como el sangrado o ciertas reacciones musculares de alejarse de la agresión que a veces tomamos por “conscientes”. Del tipo estornudar.

        Y probablemente la adrenalina inyectada en sangre por una amenaza que forma parte de lo que luego cuando se hace consciente llamamos miedo también. Con la aceleración que eso supone para el organismo, y quizá fallos de conducci´n.

        etc…

        A eso me refiero con que no es tan fácil de separar…

        El robot no conduce mejor solo necesariamente porque no tiene mente. Yo digo que en absoluto por eso.

        Sino porque no se cansa y porque no tiene emociones irracionales (bueno, supongo que todas lo son). Pero ¿no podrían existir seres con mente y así? ¿Por que no? (por supuesto lo planteo como experimento mental, no porque lo crea)

        De hecho no sabemos si el robot tiene mente o no, porque no sabemos que carajo es eso de la mente 🙂 decir que no la tiene sigue siendo una hipótesis… quizá más razonable por la navaja de Occam pero para algunos ni siquiera eso…

        Quién sabe si en todos los sistemas físicos con percepción de su entorno surge qualia-consciencia… Sería raro, no me convence del todo, pero no sabría descartarlo…

        Un abrazo

      • Me suena que lo había leído alguna vez también. En cierta manera tiene algún paralelismo con la idea de los zombies, pero no veo donde deseas llegar.

        La propuesta es acaso ¿si no hay mente-consciencia-qualia solo existen robots en la naturaleza?

        Bueno, es una visión pero es tautológica, has definido no-robot como el que tiene mente-qualia-consciencia. Claro todos los demás han de ser robots…

        Al final la duda es:

        SI Y se comporta perfectamente externamente como X y no podemos mirar dentro ¿acaso no es igual a X? ¿qué argumento razonable científico podríamos esgrimir en contra? (este sería un poco el argumento extendido de la máquina de Turing o de los zombies).

        SI Y se comporta perfectamente externamente como X, ¿no es posible que independientemente de su construcción también surja consciencia-qualia equivalente? Esto sería alguna especie de variante del pan-psiquismo.

        Creo que no podemos responder a ninguna de las dos preguntas, pero ambas propuestas pueden y deberían llegar a considerarse para aceptarse o descartrase.

        Lo que no veo es: “Si X se comporta emocionalmente es porque ha de tener mente-consciencia-qualia”

        Podría ser, pero no lo veo. De hecho un buen simulador emocional, si llega a existir, lo desmontaría…

        La afirmación “Deep Blue no sabe ni una palabra de ajedrez” es tremendamente falaz, Deep Blue sabe muchísimo ajedrez, pero expresado en un lenguaje diferente al nuestro, codificado diferente que nuestro cerebro… Es ser antropocéntrico de nuevo decir que como “lo sabe de forma diferente” no sabe ajedrez.

        Definamos “saber” con precisión y estoy seguro que Deep Blue sabrá ajedrez de sobras… Idem con el chino que comentaba el caso que me enlazas…

        Lo que es en exceso simplista es pensar que ninguna máquina podrá llegar a hablar chino con un algoritmo del tipo:

        “Si entran tal y tal caracteres, escribe tal y tal otros”

        No, eso no es hablar chino. Para hablar chino correctamente la máquina al final deberá contener algoritmos que le hablen de la semántica de las palabras, sinónimos, antónimos, expresiones hechas, reacciones verbales relacionadas con emociones, etc…

        Entonces podrá pasar el test del enlace. En absoluto podrá hacerlo con reglas simplistas como las propuestas.

        Pero entonces

        ¿Sabrá o no sabrá chino esa máquina que considera la semántica, los sinónimos? (obviamente codificado en forma diferente a nuestro cerebro).

        Acepto que no sabrá mapear el chino a nuestra realidad, porque no la tiene disponible pero ¿no sabrá chino en cierta manera? Algo que podríamos llamar “chino teórico” porque aunque sepa decir vaca nunca habrá visto una, pero sabrá que es un animal… aunque tampoco habrá visto jamás uno. Sabrá el mismo chino que un ser humano que se le haya enseñado chino y nunca le hayan dejado salir de una habituación oscura… codificado de otra manera.

        Paco, gracias como siempre por hacernos pensar. 🙂

      • No, no Deep Blue no sabe ni una palabra de ajedrez como Emi no sabe una palabra de Vivaldi pues carecen de semántica y de metacognición ( un saber sobre si mismos). Lo que quiero decir es que gran parte de nuestros defectos y errores proceden en gran parte de nuestra mente.NO está claro que tener una mente potente como la del hombre (los animales también tienen una mente pero con grados de libertad menores) sea mas adaptativo. En mi profesión se ve claramente que la existencia de una mente propicia gran cantidad de inadaptaciones y averias, enfermedades que solo pueden verse en los humanos como la esquizofrenia y que están ausentes en la escala animal. No está claro que represente ventajas al menos hoy en dia donde pareciera que hubieramos enfermado de un éxito, el éxito de la subjetividad

      • Deep Blue no sabe “una palabra” de ajedrez porque su lenguaje no son las palabras.

        Si definimos saber como una propiedad exclusiva de los que se conocen a sí mismos entonces debo darte la razón pero pienso que es una limitación gratuita. ¿No saben nada los animales? A mi me lo parece que algo saben…

        Al final como decíamos es una cuestión de como definamos “saber”.

        Si como propiedad efectiva que te permite actuar razonablemente bien en un ámbito, incluso ante nuevas situaciones. Eso incluiría Deep Blue y cualquier sistema de IA suficientemente bueno, y algún día quizá una que hable chino (¡y sabría chino!!!)

        O si lo definimos como una experiencia interna (consciencia, qualia o pseudo-qualia) eso podría ser exclusivo del ser humano o incluir a algunos los animales.

        O incluso, como dices tú, como una propiedad auto-reconocida (sé porque sé que sé). En cuyo casi con seguridad se excluyen muchos animales o quizá todos.

        Incluso podríamos definir saber como “saber simbólico” y excluir seguramente a todos los animales directamente.

        Pero te aseguro que a veces pienso que mi gato “sabe mucho”… no me atrevería a decir que “no sabe nada”… ni tampoco me atrevo a decirlo de Deep Blue.

        Aunque admitido: según definamos saber, mi gato “no sabe nada” (pues seguramente no sabe que sabe saltar o abrir puertas).

        >Lo que quiero decir es que gran parte de nuestros defectos y errores proceden en gran parte de nuestra mente.

        Estamos de acuerdo 😀

        Es una especie de problema por exceso de complejidad… Sabemos demasiado 😀 😀 😀

        Un abrazo

  5. La forma de verlo es aquel experimento teórico de “los zombies” no recuerdo quién lo propuso.

    El experimento decía que quizá existen personas sin experiencia consciente alguna, sin qualia, pero serían indistinguibles de nosotros…

    ¿Es este experimento mental realista? ¿qué reacciones externas nuestras dependen intrínsecamente de tener una experiencia consciente-qualia y cuales no?

    La respuesta propuesta en el experimento de los zombies es que ninguna.

    Aparentemente Paco, tú opinas que bastantes…

    Si no soy consciente del dolor n(por ejemplo por tener una patólogía) pero me golpean, ¿se desencadenarán de igual forma todos los procesos fisiológicos habituales?

    Aparentemente sí.

    Pero ¿se desencadenan las reacciónes psicológicas habituales?

    Aparentemente no.

    Así pues, parece que hemos de encontrar ese punto medio entre lo que realmente aporta qualia y lo que no… No es blanco o negro y no parece trivial definirlo con precisión.

    ¿Para que sirve consciencia-qualia?

    Pues desde mi ignorancia técnica, solo via auto-observación, mi hipótesis más razonable es que la consciencia es un espacio de coordinació de diferentes sentidos e inputs, coordinación en la que la atención juega un papel muy importante y que también está muy, muy relacionado con el aprendizaje. Pues ese aprendizaje también se vuelve muy efectivo al poder hacer de forma multi-dimensional.

    Por ejemplo, en el experimento Molyneux, manos y ojos se sincronizan gracias a la atención cuando estaban desincronizados debido a la anterior ceguera del sujeto.

    Este experimento me parece muy clarificador…

  6. Será difícil que en un sistema tecnológico complejo se pueda implementar emulaciones de funciones orgánicas como el dolor, el miedo, la vergüenza, el deseo… que tienen gran utilidad para la supervivencia, pero no me extrañaría que pudiese ocurrir en un futuro no muy lejano. Y no sería tampoco de extrañar que pudiésemos crear una máquina que aprenda en el sentido que nosotros aprendemos y aún con mayor eficacia. En tal caso habríamos creado un Frankestein más eficaz y con mayores capacidades que nosotros mismos. ¿No pasaría él a ser el nuevo dueño del mundo?, ¿no hemos avanzado, gracias a nuestra mente, hasta el extremo de ser nuevos dioses y hasta el extremo de crear a nuestro posible asesino?

  7. Da la impresión de que la mente humana ha surgido por un proceso acumulativo de capacidades cognitivas en el Homo Sapiens. Un neocórtex que nos permite, por ejemplo, enlazar el presente, el pasado y el futuro, imaginar cosas, crear abstracciones. La capacidad cognitiva puede medirse parcialmente, con cualidades como la inteligencia que miden los tests de IQ, las “tecnounidades” en las creaciones tecnológicas, o el “orden de intencionalidad” en las relaciones sociales. Todas estas magnitudes pueden crecer. Se podría alcanzar un IQ de 300, o una tecnología que pudiera descomponerse en millones de tecnounidades, o una “mente social” que llegase a un “orden de intencionalidad” de veinte (parece que el “cinco” es el máximo ahora). Una entidad cognitiva de esta magnitud quizá inevitablemente creara una “mente” superior.

    De todos estos factores, supongo que la “mente social”, que nos permite las relaciones eficientes entre semejantes es la más propiamente humana

    Aquí Steven Mithen relaciona las supuestas tres inteligencias básicas de la mente humana (social, de historia natural y técnica)

    “Los dos elementos centrales de la inteligencia social son la posesión de un amplio conocimiento social sobre otros individuos con el fin de saber quiénes son los amigos y aliados, y la capacidad de inferir los estados mentales de esos individuos.

    La inteligencia de historia natural (…) [consiste en] un grupo de módulos mentales responsables de la elaboración de amplias bases de datos mentales relativos a la distribución de recursos

    La inteligencia técnica (…) contendría los módulos mentales para la fabricación y manipulación de útiles de piedra y de madera, incluyendo artefactos para lanzar a distancia”
    http://unpocodesabiduria21.blogspot.com.es/2014/12/arqueologia-de-la-mente-1996-steven.html

    Supuestamente, la “mente” individual autoconsciente es una especie de subproducto de todo esto…

Responder a pacotraver Cancelar respuesta

Por favor, inicia sesión con uno de estos métodos para publicar tu comentario:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s