Me ha gustado mucho. Se podría hacer una muy buena película o serie con las concepciones que tuvieron los grandes pensadores sobre la conciencia, el Yo... ahora que estoy leyendo un poco más sobre ese misterio, me quedo con la duda de si hay autores que solo buscan su nicho de discurso, su papel en la IA, su posicionamiento en los debates. ¿Llegará Nick Bostrom algún día a cambiar de opinión, aunque le pongan pruebas delante de las narices? ¿Se creerá Elon Musk todo lo que dice sobre los peligros de la IA? ¿De verdad Kurzweil busca rigor científico, o solo titulares?
Captar la atención mediante el discurso utópico o el apocalíptico es un clásico de los “vendedores” (de productos o de ideas) de todos los tiempos, al margen de lo que realmente ocurra.
Si bien no se puede descartar "a priori" el surgimiento de propiedades conscientes a partir de sistemas inorgánicos, la respuesta a esto nos la dará el tiempo. Yo no la descarto.
No obstante, creo que no se puede decir que las computadoras hacen cálculos matemáticos o interpretan información: tan sólo procesan correlatos electromagnéticos. Sólo cabe hablar de información en sentido estricto cuando hay un emisor, una señal que puede interpretarse y un receptor que conoce cómo interpretarla: los genes no contienen información (sólo metafóricamente hablando).
Si yo no conozco los códigos lumínicos que usan los barcos para comunicarse, las señales que puedan hacerme son sólo luces sin información. Una novela sin humanos es sólo papel.
El problema fuerte de la consciencia no es un problema distinto a otros. Es un subterfugio que usan ciertos dualistas e idealistas. Incluso si aceptamos, cosa probable, que no podamos explicar los procesos que dan lugar a la emergencia o al funcionamiento de cualquier cosa, eso no pone en pie de igualdad explicaciones de distinta índole. Hay que "elegir" las explicaciones por sus virtudes epistémicas, por su coherencia interna y externa con otros saberes, así como por comparación con sus alternativas.
Nunca sabremos porqué Messi es tan bueno, pero la opción de que cayó en una marmita mágica de chico está descartada.
Gracias por tu comentario, Calda, aunque discrepo de tu interpretación del concepto de información. No tiene que existir siempre un interpretante humano que le otorgue significado. Hay información en la realidad, en cuanto estructura, en cuanto a complejidad. Los genes contienen precisamente información que se corresponde con el medio hasta un punto que les permite sobrevivir. Que no sepamos descifrar ciertos códigos y ello nos impida obtener la utilidad de esa información (extraer conocimiento), no quiere decir que no exista. Una novela sin humanos no es sólo papel. Retiene en ella la información para que pudiera ser en un momento aprovechada. Si disolución, por el crecimiento de la entropía, sería lo que efectivamente acabaría con ella.
A ver si desenmarañamos un poquito este concepto tan usado, y a mí parecer, vago. Quizás sea sólo una confusión semántica, pero la polisemia da lugar a malentendidos y dificulta el comprender las cosas.
1.- La estructura de un ente (o sistema) no contiene información: está compuesta por sus componentes o precursores, así como por la estructura (exógena y endógena) a través de los mecanismos que posibilitan su "ensamblaje" y que sea más que sus componentes, todo esto en un ambiente con el cuál también se interactúa. Los procesos que posibilitan el "ensamblaje" no son semánticos ni conceptuales, sino que cada uno es un proceso material de cierto nivel ontológico (las moléculas de hidrógeno y oxígeno se estructuran por procesos fisicoquímicos de covalencia, pero el H2O no se comunica información para formar gotas, hielo o condesarse en nubes, sino que esto es debido a otros procesos interactivos entre moléculas en un ambiente concreto). Otra cosa es que nosotros observemos esos procesos y cavilemos acerca de qué y cómo está sucediendo; a la vez que clasificamos conceptual y lógicamente procesos ontológicos en un lenguaje significativo. Obviamente, sin una codificación con sentido por nuestra parte no podemos entender nada, pero no podemos creer que nuestro lenguaje o nuestra representación son las cosas mismas; son una "re-producción", una creación que sí puede adecuarse a las cosas mismas. En la naturaleza (en lo independiente a los sujetos, mejor dicho) no hay códigos, existen cosas definidas con patrones de comportamiento regular. Creo que trasladas a lo ontológico un rasgo epistemológico y semántico, o que estiras el chicle de la información más allá de dónde es legítimo.
En ese sentido, metafóricamente puedo decir que las huellas en la arena me "informan" de que alguien pasó por ahí; pero, estrictamente, lo qué hay es una inferencia especulativa mía (o una expectación, si se prefiere) que puede ser acertada o no. Considerar que las huellas contienen información, me parece una atribución antropomórfica. Los procesos de un sistema que mantienen su estructura no contienen información, simplemente son según su ser (según leyes). Un enunciado legal científico no es una "lectura" de la información o código contenido en un sistema, sino que es un conjunto de proposiciones que tienen como referente unas determinadas cosas que se comportan de una manera determinada y pretende aproximarse a cómo es y se comporta verdaderamente eso referenciado. En la realidad no hay información: existen cosas con propiedades y sucesos en devenir que nosotros conocemos precariamente a través de nuestros sentidos y obrar en el mundo, y de forma más sofisticada a través de un lenguaje y prácticas varias.
Un ejemplo relacionado es el siguiente: un automóvil y un humano se desplazan. Podemos decir que ambos sistemas transmiten información a componentes del mismo para realizar ciertos mecanismos que den lugar al proceso del movimiento. Bien, esto es un hablar metafórico: en el caso del automóvil hay procesos de combustión, cinéticos y mecánicos; mientras que en el caminar del sujeto hay procesos bioquímicos, de contracción muscular, cinéticos, de coordinación, etc... No hay información en esos procesos, hay determinaciones que se van sucediendo de forma (generalmente) ordenada y regular. Si queremos conceptualizar esos procesos como si el acelerador transmitiera información al motor, me parece legítimo, pero creo que debe aclararse el uso metafórico.
2.- No he entendido lo de que hay información en cuanto a complejidad. No sé, yo veo mayor complejidad estructural y de propiedades en una catedral gótica que en un edificio rectilíneo, en la atmósfera terrestre que en la lunar, o en el sistema nervioso central de un chimpancé que en el de un insecto, pero no veo cómo se relaciona esto con la información.
3.-Coincido en que existe información sin humanos: otros organismos se comunican a través de señales. La información no sólo es semántica ni conceptual, también pueden transmitirse instrucciones. Al respecto de la genética, soy un ignorante; pero, yo diría que los genes dan lugar a procesos de "ensamblaje" que van estructurando al organismo formando moléculas, proteínas, tejidos, órganos... Yo ahí no veo información, sólo veo procesos materiales por muy complejos, ordenados y "auto-replicantes" que sean. Claro, alguien dirá que se puede sacar la información de un gen y pasarla a otro individuo; pero yo puedo sacar mercurio de un termómetro y metérselo a alguien en la sopa, dando lugar a procesos "codificados" en el mercurio. Lo qué sucede en ambos sujetos es la sucesión de ciertos procesos de ciertas cosas por cómo son esas cosas: el gen y el mercurio en el organismo.
4.- Quizás el de la novela no sea el ejemplo más idóneo, pero creo que me sirve para ponerle el broche a la reflexión. La información de una novela es, como mucho, una interacción de un receptor con un objeto con señales que entiende. Cuando yo leo la novela existe información siendo entendida por mí, pero cuando la cierro esa información desaparece y vuelve a aparecer al leerla de nuevo (yo puedo seguir pensando, pero ahí ya no opera la novela). Al ser la información una interacción, no existe por sí misma en las cosas. Es análogo a la percepción, que no es ni un reflejo de las cosas mismas (un efluvio de átomos, diría el bueno de Lucrecio) ni una creación del organismo, sino que es una interacción entre cosas. Sin interacción (cuando estamos en coma o no observamos algo) no hay percepción, pero pueden seguir existiendo las cosas y el organismo (esto no le gusta a los solipsistas). Lo mismo con las valoraciones: una piña no es buena o contiene bondad, sino que es buena cuando un organismo la valora y sólo en ese intervalo (luego, podemos clasificar por regularidades las piñas como buenas, pero eso es harina de otro costal).
Creo que tu noción de información puede estar (esto me lo saco de la chistera, perdona si yerro) influenciada por la idea de disposiciones o potencias; pero claro, eso nos lleva al problema de que todo estaría sembrado de potencias, pues "a priori" no podemos descartar una futura interacción con otras cosas y su evolución y transformación. El pan-psiquismo dice esto: si de un sistema complejo emerge sensación, entonces el átomo tiene sensación en potencia (aunque no sé porqué no dicen que tiene granos con pus, cagalera o úlceras de estómago).
A mi esto me parece una chuminada y una mala concepción de las cosas, pues creo la noción de potencia puede restringirse más y usarse con cuidado y mayor eficacia; quizás pueda usarse en el caso de la novela o de la piña, entendiéndolas cómo soporte de una valoración o transmisión de señales. No obstante, esta idea de potencias como semilleros en todo produce goce estético y poético; aunque bien pueda acercar a algunos al egotismo.
PD: Perdona la jerga "ingenieril" de ensamblaje y demás palabrejas. Las cosas son y nosotros las comprendemos cómo podemos, por eso lenguajes antropomórficos y basados en las técnicas. No tenemos otro modo de avanzar, pero sí podemos ir puliendo para separar siempre las proposiciones de las cosas mismas. Lo menciono porqué la crítica a una concepción de procesos materiales como si fueran información que he realizado peca del mismo problema al hablar de procesos materiales como si fueran cualquier artefacto hecho por el hombre. Es un poco como la causa formal aristotélica, que es heredera de las operaciones humanas a las cosas sin humanos (claro está: siempre se pueden redefinir los términos o explicitar la panoplia de significados o referentes no unívocos, para seguir usando así ciertos conceptos con legitimidad y rigor).
Gracias por tu comentario. Responderte con detenimiento me llevaría un espacio demasiado largo y creo que no ha lugar aquí, así que disculpa si soy breve y directo y te remito a otras referencias. Prometo darle una vuelta en otra publicación específica a este tema. Pero sobre tu comentario, sólo un par de apuntes:
La información no siempre ha de ser semántica o bien debes concebir un sentido semántico no restringido a la interpretabilidad humana. Desde luego que en los genes hay información que es interpretada para que la vida siga su curso. La estructura es información en tanto en cuanto se opone al ruido aleatorio de la entropía pura. Sobre una definición matemática de la información, puedes leer a Adami, por ejemplo en este paper: https://arxiv.org/abs/1601.06176.
Información y complejidad están íntimamente relacionadas. Un sistema es más complejo cuanta más información es necesaria para describirlo. Para ver la relación entre información y complejidad, también Adami es esclarecedor: https://onlinelibrary.wiley.com/doi/abs/10.1002/bies.10192.
Mi aproximación está muy alejada de un panpsiquismo de potencialidades. Tiene un fundamento en la teoría de la información (Shannon) y en la vida como creadora de negentropía (Schrödinger, Brillouin), es decir, acumuladora de información y complejidad.
He leído los artículos de Adami con el traductor automático, así que puede haber algún error. Quizás sea mi ignorancia, pero no veo que avancemos mucho en el tema.
1.- Él (Adami) deja claro en la página 13 que la entropía (tal y cómo la redefine, no aplicada a objetos físicos) es equivalente a nuestra incertidumbre, y que, por tanto, no aplica al dominio ontológico, sino al epistemológico. La incertidumbre es un "rasgo" de nuestro conocimiento de las cosas, no de las cosas. No obstante, la confusión puede presentarse ante al lector cuando dice que "la incertidumbre de cualquier objeto físico es infinita"; pero, reitero, la incertidumbre no es del objeto, sino de nuestro conocimiento del objeto. No entiendo porqué no dice lo mismo de la información.
2.- Primero define la información de forma coloquial como "aquello que permite hacer predicciones". Eso sería más bien una definición de evidencia, de estímulo significativo, de signo. No obstante, ya sea información, evidencia o signo, vemos que refiere a la interacción de dos objetos: la cosa y el sujeto. No hay evidencia ni estímulos sin sujetos, del mismo modo que no hay "aquello que permite hacer predicciones". OJO: Sí existen las cosas (las huellas, las vibraciones de aire, procesos bioquímicos...) que usamos para predecir y operar; lo qué no aplica es la definición de evidencia, signo o información a las cosas sin esa relación con los sujetos. Creo que la mención que hice de la percepción en el comentario aplica bien aquí: "no hay sonido sin organismos con ese sentido auditivo; hay un árbol que cae y vibraciones de aire".
Luego dice que las diferencias entre incertidumbre son información, pero volvemos a hablar del dominio epistemológico y no del ontológico. Claro que conocemos los estados de las cosas, pero en los estados no hay información. Sólo puede haber información en los diversos estados de las cosas si la entendemos cómo potencia relacional para hacer predicciones (por eso te hacía el comentario de las potencias: el pan-psiquismo era un ejemplo tradicional que aproveché para desmontar con un toque de humor). Sí, la información es real, es la cantidad de estados que conocemos de un sistema, pero eso habla de nuestro conocimiento. Los estados del sistema (un pulpo agarrando un cacahuete) existen, y punto; el conocerlos es un estado de otro sistema: nosotros.
Ya al final redefine información en relación a otras académicas: "En (11), la información se define como lo que no sé sobre X (sin saber ninguna de las cosas que implícitamente ya sabemos), y la incertidumbre real de X, dada una distribución de probabilidad particular que no es uniforme." Repito: lo qué sabes o no sobre X es una propiedad de ti como sujeto cognoscente, no una propiedad de las cosas conocidas.
3.- Luego, dice que tiene artículos hablando sobre la información en los agujeros negros, sobre el ADN o la cooperación que no entiendo muy bien cómo ligar con su propia definición de información. Dice que también tiene artículos pensados sobre "sobre cómo utilizar la teoría de la información para estimar la probabilidad de un origen espontáneo de la vida [21]", pero ahí se ve que la teoría de la información es una herramienta epistémica para aplicarla a las cosas mismas, cosa que sí comparto y defiendo. Que los formalismos matemáticos de la entropía física y de la información de Shannon sean equivalentes no implica que la información exista en las cosas. Yo puedo sumar unicornios o caballos usando la misma fórmula, pero los primeros no tienen existencia y los segundos sí; y la fórmula, sin mí pensarla o aplicarla, tampoco. Los formalismo y las teorías son una herramienta humana, no existen en las cosas a las cuales los aplicamos ni existen sin nosotros en el mundo. La realidad no es matemática, es matematizada por nosotros para entenderla. Los 0 y 1 de un ordenador pueden representar el mundo, pero no están en el mundo.
El de la complejidad, debo admitir, lo leí con menor atención y no creo que tenga tanta miga, pues nuestra charla trata sobre cómo entender correctamente la información.
4.- Al inicio dice: "Dado que, en principio, todos los procesos pueden verse como cálculos (y viceversa), las medidas de complejidad en la teoría de sistemas dinámicos suelen ser complejidades computacionales." Los procesos pueden verse cómo cálculos, ceros y unos o conceptos, pero que los veamos así no equivale a que sean así.
5.- El tema que aborda me parece legítimo e interesante: cómo caracterizar rigurosamente la complejidad de los organismos. Él cita algunas características defendidas por biólogos (células: su cantidad y calidad, funciones biológicas...) y propone usar las secuencias de ADN por ser más sencilla de analizar para nosotros y guardar correspondencia con la complejidad del organismo vivo desarrollado. Esto me parece legítimo y coherente. Pero luego dice: "La complejidad física de una secuencia se refiere a la cantidad de información que se almacena en esa secuencia acerca de un entorno determinado". Esto no lo entiendo basándome en su propia definición de información.
6.- Buscando información (tiene cojones la cosa... xD) en internet he hallado está definición en la Wikipedia: "Información designa una disposición específica de los elementos que componen un sistema determinado, siendo capaz de provocar un efecto en el propio sistema o en cualquier otro". Está definición designa un mecanismo (un suceso capaz de producir cambios) ontológico que provoca cambios de estado en una cosa o en otras.
6.- Veo múltiples usos de información, pero sobre todo dos que no tienen el mismo referente; uno refiere nuestro conocimiento y el otro parece referir a "algo" (¿un componente? ¿un mecanismo? ¿una serie de sucesos? ¿una estructura?) en las cosas mismas. Me parece esa confusión de dominios epistémico y ontológico. Veo que se concibe la información como una cosa material, como si fuera un objeto, pero entonces podría caracterizarse empíricamente y dar cuenta de sus cambios de estado y sus propiedades. Creo que la comparación con la hipóstasis de los conceptos o de fórmulas matemáticas es adecuada. El referente de los conceptos existe, pero el concepto no "está" en lo referido. La información no es una cosa, sino un conjunto (por ende, ficción) que engloba procesos materiales. Me parecer lícito aplicar la noción de información a todo aquello que posibilita operar a los organismos, pero dejando claro que no es "en sí mismo", sino en cuanto relación con los organismos.
No sé, quizás es que no soy capaz de entender esto, pero creo que mi punto es claro. Si pudieses definir la información sin relación a dominios epistemológicos y matemáticos o con independencia de sujetos y ejemplificarlo con distintos entes materiales quizás podría entenderlo mejor.
Saludos, Javier. No hace falta que respondas, ya das mucho con tus artículos. Esto no es más que una charla placentera entre dos en la barra de un bar virtual que no tiene porqué continuar (siempre hay un pelmazo que da la tabarra; espero no ser yo...) si no apetece más.
Hola Calda. He regresado a tu comentario que tenía pendiente. Voy a ir a por una nueva publicación como prometí, pero no iba a contestar explícitamente tus puntos así que haré un último intento por explicarme a través de este hilo de comentarios a ver si aporto algo más de luz.
La información es un concepto relacional, efectivamente, no es material. Pero eso no quiere decir que no pueda ser “aprovechado” por sujetos que no sean humanos. Pueden ser otros sistemas (como por ejemplo una célula, o una población de alcornoques) que, debidamente preparados, aprovechan su propia disposición/estructura/complejidad para obtener algún beneficio (como, por ejemplo, sobrevivir). No porque exista en ellos comprensión ni intencionalidad, sino porque han sido perfilados por la selección natural para responder de esa manera: identificando esos patrones de información que de alguna forma interpretan de la realidad. La forma en que estos sujetos pueden aprovechar esta información del entorno es en cierto modo encarnando esa información – esa capacidad de extraer inferencias y reaccionar - en su propia estructura – los individuos alterando su conexionado neuronal (aprendizaje/comportamiento), las especies viendo seleccionados los genes de los individuos que mejor responden/se adaptan a ese contexto dado. El ser humano destaca por su excepcional nivel de autoconsciencia (aunque bastantes animales muestran niveles considerables de autoconsciencia), pero no es necesaria la comprensión autoconsciente para hacerse cargo de la información circundante de forma que un organismo puede reducir la incertidumbre ante su medio aprovechando su capacidad para detectar los patrones en la realidad que llamamos información.
Te entiendo, así sí me parece válido. Llamamos información a cosas del entorno que en interacción con otras cosas que están en ese entorno (la célula o la población) posibilitan una modificación ontogenética de estas mediante distintos procesos materiales, un aprendizaje en suma, y una respuesta no pre-fijada e inmutable. Evidentemente, el aprendizaje no requiere ningún tipo de consciencia. Sin la cosa que se modifica y aprende del entorno, no habría información en las cosas de las cuales "saca o procesa esa información", sólo habría esas cosas tal y cómo son.
Gustosa y útil charla, jamás había reflexionado sobre el tema y me ha servido para hacerlo.
La moderación de las expectativas es sin duda necesario. Como bien comentáis, ya es palpable que muchas promesas no se cumplirán (en parte, promesas construidas por inversores y público más que por los ingenieros), lo que no quita que siga habiendo cierto interés y utilidad en lo que ya existe y lo que aparecerá en los próximos meses / años.
Me ha gustado mucho. Se podría hacer una muy buena película o serie con las concepciones que tuvieron los grandes pensadores sobre la conciencia, el Yo... ahora que estoy leyendo un poco más sobre ese misterio, me quedo con la duda de si hay autores que solo buscan su nicho de discurso, su papel en la IA, su posicionamiento en los debates. ¿Llegará Nick Bostrom algún día a cambiar de opinión, aunque le pongan pruebas delante de las narices? ¿Se creerá Elon Musk todo lo que dice sobre los peligros de la IA? ¿De verdad Kurzweil busca rigor científico, o solo titulares?
Captar la atención mediante el discurso utópico o el apocalíptico es un clásico de los “vendedores” (de productos o de ideas) de todos los tiempos, al margen de lo que realmente ocurra.
Kurzweil sigue empeñado en su pronóstico: https://www.lavanguardia.com/tecnologia/20240624/9749378/ray-kurzweil-como-ia-transformara-mundo-fisico.html
Pero me hace gracia lo que planteas a propósito de Bostrom: ha pasado de dibujar un panorama catastrófico y distópico con su superinteligencia (2014), a plantear recientemente que la IA podría ser la respuesta a todos nuestros problemas: https://es.wired.com/articulos/nick-bostrom-hizo-al-mundo-temer-por-la-ia-ahora-pregunta-y-si-es-la-solucion-a-todos-nuestros-problemas
The show must go on!
Si bien no se puede descartar "a priori" el surgimiento de propiedades conscientes a partir de sistemas inorgánicos, la respuesta a esto nos la dará el tiempo. Yo no la descarto.
No obstante, creo que no se puede decir que las computadoras hacen cálculos matemáticos o interpretan información: tan sólo procesan correlatos electromagnéticos. Sólo cabe hablar de información en sentido estricto cuando hay un emisor, una señal que puede interpretarse y un receptor que conoce cómo interpretarla: los genes no contienen información (sólo metafóricamente hablando).
Si yo no conozco los códigos lumínicos que usan los barcos para comunicarse, las señales que puedan hacerme son sólo luces sin información. Una novela sin humanos es sólo papel.
El problema fuerte de la consciencia no es un problema distinto a otros. Es un subterfugio que usan ciertos dualistas e idealistas. Incluso si aceptamos, cosa probable, que no podamos explicar los procesos que dan lugar a la emergencia o al funcionamiento de cualquier cosa, eso no pone en pie de igualdad explicaciones de distinta índole. Hay que "elegir" las explicaciones por sus virtudes epistémicas, por su coherencia interna y externa con otros saberes, así como por comparación con sus alternativas.
Nunca sabremos porqué Messi es tan bueno, pero la opción de que cayó en una marmita mágica de chico está descartada.
Saludos,
Gracias por tu comentario, Calda, aunque discrepo de tu interpretación del concepto de información. No tiene que existir siempre un interpretante humano que le otorgue significado. Hay información en la realidad, en cuanto estructura, en cuanto a complejidad. Los genes contienen precisamente información que se corresponde con el medio hasta un punto que les permite sobrevivir. Que no sepamos descifrar ciertos códigos y ello nos impida obtener la utilidad de esa información (extraer conocimiento), no quiere decir que no exista. Una novela sin humanos no es sólo papel. Retiene en ella la información para que pudiera ser en un momento aprovechada. Si disolución, por el crecimiento de la entropía, sería lo que efectivamente acabaría con ella.
A ver si desenmarañamos un poquito este concepto tan usado, y a mí parecer, vago. Quizás sea sólo una confusión semántica, pero la polisemia da lugar a malentendidos y dificulta el comprender las cosas.
1.- La estructura de un ente (o sistema) no contiene información: está compuesta por sus componentes o precursores, así como por la estructura (exógena y endógena) a través de los mecanismos que posibilitan su "ensamblaje" y que sea más que sus componentes, todo esto en un ambiente con el cuál también se interactúa. Los procesos que posibilitan el "ensamblaje" no son semánticos ni conceptuales, sino que cada uno es un proceso material de cierto nivel ontológico (las moléculas de hidrógeno y oxígeno se estructuran por procesos fisicoquímicos de covalencia, pero el H2O no se comunica información para formar gotas, hielo o condesarse en nubes, sino que esto es debido a otros procesos interactivos entre moléculas en un ambiente concreto). Otra cosa es que nosotros observemos esos procesos y cavilemos acerca de qué y cómo está sucediendo; a la vez que clasificamos conceptual y lógicamente procesos ontológicos en un lenguaje significativo. Obviamente, sin una codificación con sentido por nuestra parte no podemos entender nada, pero no podemos creer que nuestro lenguaje o nuestra representación son las cosas mismas; son una "re-producción", una creación que sí puede adecuarse a las cosas mismas. En la naturaleza (en lo independiente a los sujetos, mejor dicho) no hay códigos, existen cosas definidas con patrones de comportamiento regular. Creo que trasladas a lo ontológico un rasgo epistemológico y semántico, o que estiras el chicle de la información más allá de dónde es legítimo.
En ese sentido, metafóricamente puedo decir que las huellas en la arena me "informan" de que alguien pasó por ahí; pero, estrictamente, lo qué hay es una inferencia especulativa mía (o una expectación, si se prefiere) que puede ser acertada o no. Considerar que las huellas contienen información, me parece una atribución antropomórfica. Los procesos de un sistema que mantienen su estructura no contienen información, simplemente son según su ser (según leyes). Un enunciado legal científico no es una "lectura" de la información o código contenido en un sistema, sino que es un conjunto de proposiciones que tienen como referente unas determinadas cosas que se comportan de una manera determinada y pretende aproximarse a cómo es y se comporta verdaderamente eso referenciado. En la realidad no hay información: existen cosas con propiedades y sucesos en devenir que nosotros conocemos precariamente a través de nuestros sentidos y obrar en el mundo, y de forma más sofisticada a través de un lenguaje y prácticas varias.
Un ejemplo relacionado es el siguiente: un automóvil y un humano se desplazan. Podemos decir que ambos sistemas transmiten información a componentes del mismo para realizar ciertos mecanismos que den lugar al proceso del movimiento. Bien, esto es un hablar metafórico: en el caso del automóvil hay procesos de combustión, cinéticos y mecánicos; mientras que en el caminar del sujeto hay procesos bioquímicos, de contracción muscular, cinéticos, de coordinación, etc... No hay información en esos procesos, hay determinaciones que se van sucediendo de forma (generalmente) ordenada y regular. Si queremos conceptualizar esos procesos como si el acelerador transmitiera información al motor, me parece legítimo, pero creo que debe aclararse el uso metafórico.
2.- No he entendido lo de que hay información en cuanto a complejidad. No sé, yo veo mayor complejidad estructural y de propiedades en una catedral gótica que en un edificio rectilíneo, en la atmósfera terrestre que en la lunar, o en el sistema nervioso central de un chimpancé que en el de un insecto, pero no veo cómo se relaciona esto con la información.
3.-Coincido en que existe información sin humanos: otros organismos se comunican a través de señales. La información no sólo es semántica ni conceptual, también pueden transmitirse instrucciones. Al respecto de la genética, soy un ignorante; pero, yo diría que los genes dan lugar a procesos de "ensamblaje" que van estructurando al organismo formando moléculas, proteínas, tejidos, órganos... Yo ahí no veo información, sólo veo procesos materiales por muy complejos, ordenados y "auto-replicantes" que sean. Claro, alguien dirá que se puede sacar la información de un gen y pasarla a otro individuo; pero yo puedo sacar mercurio de un termómetro y metérselo a alguien en la sopa, dando lugar a procesos "codificados" en el mercurio. Lo qué sucede en ambos sujetos es la sucesión de ciertos procesos de ciertas cosas por cómo son esas cosas: el gen y el mercurio en el organismo.
4.- Quizás el de la novela no sea el ejemplo más idóneo, pero creo que me sirve para ponerle el broche a la reflexión. La información de una novela es, como mucho, una interacción de un receptor con un objeto con señales que entiende. Cuando yo leo la novela existe información siendo entendida por mí, pero cuando la cierro esa información desaparece y vuelve a aparecer al leerla de nuevo (yo puedo seguir pensando, pero ahí ya no opera la novela). Al ser la información una interacción, no existe por sí misma en las cosas. Es análogo a la percepción, que no es ni un reflejo de las cosas mismas (un efluvio de átomos, diría el bueno de Lucrecio) ni una creación del organismo, sino que es una interacción entre cosas. Sin interacción (cuando estamos en coma o no observamos algo) no hay percepción, pero pueden seguir existiendo las cosas y el organismo (esto no le gusta a los solipsistas). Lo mismo con las valoraciones: una piña no es buena o contiene bondad, sino que es buena cuando un organismo la valora y sólo en ese intervalo (luego, podemos clasificar por regularidades las piñas como buenas, pero eso es harina de otro costal).
Creo que tu noción de información puede estar (esto me lo saco de la chistera, perdona si yerro) influenciada por la idea de disposiciones o potencias; pero claro, eso nos lleva al problema de que todo estaría sembrado de potencias, pues "a priori" no podemos descartar una futura interacción con otras cosas y su evolución y transformación. El pan-psiquismo dice esto: si de un sistema complejo emerge sensación, entonces el átomo tiene sensación en potencia (aunque no sé porqué no dicen que tiene granos con pus, cagalera o úlceras de estómago).
A mi esto me parece una chuminada y una mala concepción de las cosas, pues creo la noción de potencia puede restringirse más y usarse con cuidado y mayor eficacia; quizás pueda usarse en el caso de la novela o de la piña, entendiéndolas cómo soporte de una valoración o transmisión de señales. No obstante, esta idea de potencias como semilleros en todo produce goce estético y poético; aunque bien pueda acercar a algunos al egotismo.
PD: Perdona la jerga "ingenieril" de ensamblaje y demás palabrejas. Las cosas son y nosotros las comprendemos cómo podemos, por eso lenguajes antropomórficos y basados en las técnicas. No tenemos otro modo de avanzar, pero sí podemos ir puliendo para separar siempre las proposiciones de las cosas mismas. Lo menciono porqué la crítica a una concepción de procesos materiales como si fueran información que he realizado peca del mismo problema al hablar de procesos materiales como si fueran cualquier artefacto hecho por el hombre. Es un poco como la causa formal aristotélica, que es heredera de las operaciones humanas a las cosas sin humanos (claro está: siempre se pueden redefinir los términos o explicitar la panoplia de significados o referentes no unívocos, para seguir usando así ciertos conceptos con legitimidad y rigor).
Gracias por tu comentario. Responderte con detenimiento me llevaría un espacio demasiado largo y creo que no ha lugar aquí, así que disculpa si soy breve y directo y te remito a otras referencias. Prometo darle una vuelta en otra publicación específica a este tema. Pero sobre tu comentario, sólo un par de apuntes:
La información no siempre ha de ser semántica o bien debes concebir un sentido semántico no restringido a la interpretabilidad humana. Desde luego que en los genes hay información que es interpretada para que la vida siga su curso. La estructura es información en tanto en cuanto se opone al ruido aleatorio de la entropía pura. Sobre una definición matemática de la información, puedes leer a Adami, por ejemplo en este paper: https://arxiv.org/abs/1601.06176.
Información y complejidad están íntimamente relacionadas. Un sistema es más complejo cuanta más información es necesaria para describirlo. Para ver la relación entre información y complejidad, también Adami es esclarecedor: https://onlinelibrary.wiley.com/doi/abs/10.1002/bies.10192.
Mi aproximación está muy alejada de un panpsiquismo de potencialidades. Tiene un fundamento en la teoría de la información (Shannon) y en la vida como creadora de negentropía (Schrödinger, Brillouin), es decir, acumuladora de información y complejidad.
Lo dicho. Prometo volver sobre ello.
He leído los artículos de Adami con el traductor automático, así que puede haber algún error. Quizás sea mi ignorancia, pero no veo que avancemos mucho en el tema.
1.- Él (Adami) deja claro en la página 13 que la entropía (tal y cómo la redefine, no aplicada a objetos físicos) es equivalente a nuestra incertidumbre, y que, por tanto, no aplica al dominio ontológico, sino al epistemológico. La incertidumbre es un "rasgo" de nuestro conocimiento de las cosas, no de las cosas. No obstante, la confusión puede presentarse ante al lector cuando dice que "la incertidumbre de cualquier objeto físico es infinita"; pero, reitero, la incertidumbre no es del objeto, sino de nuestro conocimiento del objeto. No entiendo porqué no dice lo mismo de la información.
2.- Primero define la información de forma coloquial como "aquello que permite hacer predicciones". Eso sería más bien una definición de evidencia, de estímulo significativo, de signo. No obstante, ya sea información, evidencia o signo, vemos que refiere a la interacción de dos objetos: la cosa y el sujeto. No hay evidencia ni estímulos sin sujetos, del mismo modo que no hay "aquello que permite hacer predicciones". OJO: Sí existen las cosas (las huellas, las vibraciones de aire, procesos bioquímicos...) que usamos para predecir y operar; lo qué no aplica es la definición de evidencia, signo o información a las cosas sin esa relación con los sujetos. Creo que la mención que hice de la percepción en el comentario aplica bien aquí: "no hay sonido sin organismos con ese sentido auditivo; hay un árbol que cae y vibraciones de aire".
Luego dice que las diferencias entre incertidumbre son información, pero volvemos a hablar del dominio epistemológico y no del ontológico. Claro que conocemos los estados de las cosas, pero en los estados no hay información. Sólo puede haber información en los diversos estados de las cosas si la entendemos cómo potencia relacional para hacer predicciones (por eso te hacía el comentario de las potencias: el pan-psiquismo era un ejemplo tradicional que aproveché para desmontar con un toque de humor). Sí, la información es real, es la cantidad de estados que conocemos de un sistema, pero eso habla de nuestro conocimiento. Los estados del sistema (un pulpo agarrando un cacahuete) existen, y punto; el conocerlos es un estado de otro sistema: nosotros.
Ya al final redefine información en relación a otras académicas: "En (11), la información se define como lo que no sé sobre X (sin saber ninguna de las cosas que implícitamente ya sabemos), y la incertidumbre real de X, dada una distribución de probabilidad particular que no es uniforme." Repito: lo qué sabes o no sobre X es una propiedad de ti como sujeto cognoscente, no una propiedad de las cosas conocidas.
3.- Luego, dice que tiene artículos hablando sobre la información en los agujeros negros, sobre el ADN o la cooperación que no entiendo muy bien cómo ligar con su propia definición de información. Dice que también tiene artículos pensados sobre "sobre cómo utilizar la teoría de la información para estimar la probabilidad de un origen espontáneo de la vida [21]", pero ahí se ve que la teoría de la información es una herramienta epistémica para aplicarla a las cosas mismas, cosa que sí comparto y defiendo. Que los formalismos matemáticos de la entropía física y de la información de Shannon sean equivalentes no implica que la información exista en las cosas. Yo puedo sumar unicornios o caballos usando la misma fórmula, pero los primeros no tienen existencia y los segundos sí; y la fórmula, sin mí pensarla o aplicarla, tampoco. Los formalismo y las teorías son una herramienta humana, no existen en las cosas a las cuales los aplicamos ni existen sin nosotros en el mundo. La realidad no es matemática, es matematizada por nosotros para entenderla. Los 0 y 1 de un ordenador pueden representar el mundo, pero no están en el mundo.
El de la complejidad, debo admitir, lo leí con menor atención y no creo que tenga tanta miga, pues nuestra charla trata sobre cómo entender correctamente la información.
4.- Al inicio dice: "Dado que, en principio, todos los procesos pueden verse como cálculos (y viceversa), las medidas de complejidad en la teoría de sistemas dinámicos suelen ser complejidades computacionales." Los procesos pueden verse cómo cálculos, ceros y unos o conceptos, pero que los veamos así no equivale a que sean así.
5.- El tema que aborda me parece legítimo e interesante: cómo caracterizar rigurosamente la complejidad de los organismos. Él cita algunas características defendidas por biólogos (células: su cantidad y calidad, funciones biológicas...) y propone usar las secuencias de ADN por ser más sencilla de analizar para nosotros y guardar correspondencia con la complejidad del organismo vivo desarrollado. Esto me parece legítimo y coherente. Pero luego dice: "La complejidad física de una secuencia se refiere a la cantidad de información que se almacena en esa secuencia acerca de un entorno determinado". Esto no lo entiendo basándome en su propia definición de información.
6.- Buscando información (tiene cojones la cosa... xD) en internet he hallado está definición en la Wikipedia: "Información designa una disposición específica de los elementos que componen un sistema determinado, siendo capaz de provocar un efecto en el propio sistema o en cualquier otro". Está definición designa un mecanismo (un suceso capaz de producir cambios) ontológico que provoca cambios de estado en una cosa o en otras.
6.- Veo múltiples usos de información, pero sobre todo dos que no tienen el mismo referente; uno refiere nuestro conocimiento y el otro parece referir a "algo" (¿un componente? ¿un mecanismo? ¿una serie de sucesos? ¿una estructura?) en las cosas mismas. Me parece esa confusión de dominios epistémico y ontológico. Veo que se concibe la información como una cosa material, como si fuera un objeto, pero entonces podría caracterizarse empíricamente y dar cuenta de sus cambios de estado y sus propiedades. Creo que la comparación con la hipóstasis de los conceptos o de fórmulas matemáticas es adecuada. El referente de los conceptos existe, pero el concepto no "está" en lo referido. La información no es una cosa, sino un conjunto (por ende, ficción) que engloba procesos materiales. Me parecer lícito aplicar la noción de información a todo aquello que posibilita operar a los organismos, pero dejando claro que no es "en sí mismo", sino en cuanto relación con los organismos.
No sé, quizás es que no soy capaz de entender esto, pero creo que mi punto es claro. Si pudieses definir la información sin relación a dominios epistemológicos y matemáticos o con independencia de sujetos y ejemplificarlo con distintos entes materiales quizás podría entenderlo mejor.
Saludos, Javier. No hace falta que respondas, ya das mucho con tus artículos. Esto no es más que una charla placentera entre dos en la barra de un bar virtual que no tiene porqué continuar (siempre hay un pelmazo que da la tabarra; espero no ser yo...) si no apetece más.
Hola Calda. He regresado a tu comentario que tenía pendiente. Voy a ir a por una nueva publicación como prometí, pero no iba a contestar explícitamente tus puntos así que haré un último intento por explicarme a través de este hilo de comentarios a ver si aporto algo más de luz.
La información es un concepto relacional, efectivamente, no es material. Pero eso no quiere decir que no pueda ser “aprovechado” por sujetos que no sean humanos. Pueden ser otros sistemas (como por ejemplo una célula, o una población de alcornoques) que, debidamente preparados, aprovechan su propia disposición/estructura/complejidad para obtener algún beneficio (como, por ejemplo, sobrevivir). No porque exista en ellos comprensión ni intencionalidad, sino porque han sido perfilados por la selección natural para responder de esa manera: identificando esos patrones de información que de alguna forma interpretan de la realidad. La forma en que estos sujetos pueden aprovechar esta información del entorno es en cierto modo encarnando esa información – esa capacidad de extraer inferencias y reaccionar - en su propia estructura – los individuos alterando su conexionado neuronal (aprendizaje/comportamiento), las especies viendo seleccionados los genes de los individuos que mejor responden/se adaptan a ese contexto dado. El ser humano destaca por su excepcional nivel de autoconsciencia (aunque bastantes animales muestran niveles considerables de autoconsciencia), pero no es necesaria la comprensión autoconsciente para hacerse cargo de la información circundante de forma que un organismo puede reducir la incertidumbre ante su medio aprovechando su capacidad para detectar los patrones en la realidad que llamamos información.
Te entiendo, así sí me parece válido. Llamamos información a cosas del entorno que en interacción con otras cosas que están en ese entorno (la célula o la población) posibilitan una modificación ontogenética de estas mediante distintos procesos materiales, un aprendizaje en suma, y una respuesta no pre-fijada e inmutable. Evidentemente, el aprendizaje no requiere ningún tipo de consciencia. Sin la cosa que se modifica y aprende del entorno, no habría información en las cosas de las cuales "saca o procesa esa información", sólo habría esas cosas tal y cómo son.
Gustosa y útil charla, jamás había reflexionado sobre el tema y me ha servido para hacerlo.
Saludos,
Muy buena colaboración :)
La moderación de las expectativas es sin duda necesario. Como bien comentáis, ya es palpable que muchas promesas no se cumplirán (en parte, promesas construidas por inversores y público más que por los ingenieros), lo que no quita que siga habiendo cierto interés y utilidad en lo que ya existe y lo que aparecerá en los próximos meses / años.