Cómo utilizar la IA para hablar con las ballenas y salvar la vida en la Tierra

Usar IA para hablar con ballenas y salvar la vida en la Tierra

Antes de que Michelle Fournet se mudara a Alaska por capricho en sus veintes, nunca había visto una ballena. Consiguió un trabajo en un barco de observación de ballenas y, cada día que estaba en el agua, contemplaba las grandes formas moviéndose bajo la superficie. Se dio cuenta de que, durante toda su vida, el mundo natural había estado ahí afuera y ella se lo había perdido. “Ni siquiera sabía que estaba privada”, recuerda. Más tarde, como estudiante de posgrado en biología marina, Fournet se preguntaba qué más se estaba perdiendo. Las ballenas jorobadas que estaba conociendo se revelaban en vislumbres parciales. ¿Y si pudiera escuchar lo que estaban diciendo? Soltó un hidrófono en el agua, pero el único sonido que se escuchaba era el ruido mecánico de los barcos. Las ballenas se habían quedado en silencio en medio del alboroto. Así como Fournet había descubierto la naturaleza, ahora estaba presenciando cómo se alejaba. Se propuso ayudar a las ballenas. Para hacer eso, necesitaba aprender a escucharlas.

Fournet, ahora profesora en la Universidad de New Hampshire y directora de un colectivo de científicos de conservación, ha pasado la última década construyendo un catálogo de los diversos gorjeos, chillidos y gemidos que las ballenas jorobadas emiten en su vida diaria. Las ballenas tienen vocabularios enormes y diversos, pero hay algo que todas dicen, ya sean machos o hembras, jóvenes o viejas. Para nuestros modestos oídos humanos, suena algo así como un ronquido de barriga seguido de una gota de agua: whup.

Fournet piensa que el llamado whup es la forma en que las ballenas se anuncian entre sí. Una forma de decir: “Estoy aquí”. El año pasado, como parte de una serie de experimentos para probar su teoría, Fournet pilotó un bote hacia el sonido de Frederick en Alaska, donde las ballenas jorobadas se reúnen para alimentarse de nubes de krill. Transmitió una secuencia de llamados whup y grabó lo que las ballenas hacían en respuesta. Luego, en la playa, se puso los auriculares y escuchó el audio. Sus llamados salieron. Las voces de las ballenas regresaron a través del agua: whup, whup, whup. Fournet lo describe así: Las ballenas escucharon una voz que decía: “Estoy, estoy aquí, soy yo”. Y respondieron: “Yo también estoy, estoy aquí, soy yo”.

Los biólogos utilizan este tipo de experimento, llamado reproducción, para estudiar qué provoca que un animal hable. Hasta ahora, las reproducciones de Fournet han utilizado grabaciones reales de whups. El método es imperfecto, sin embargo, porque las ballenas jorobadas prestan mucha atención a quién le están hablando. Si una ballena reconoce la voz de la ballena en la grabación, ¿cómo afecta eso su respuesta? ¿Habla de manera diferente a un compañero que a un extraño? Como biólogo, ¿cómo te aseguras de enviar un whup neutral?

Una respuesta es crear el tuyo propio. Fournet ha compartido su catálogo de llamados de ballenas jorobadas con el Proyecto de Especies de la Tierra, un grupo de tecnólogos e ingenieros que, con la ayuda de la inteligencia artificial, tienen como objetivo desarrollar un whup sintético. Y no solo planean emular la voz de una ballena jorobada. La misión de la organización sin fines de lucro es abrir los oídos humanos al parloteo de todo el reino animal. En 30 años, dicen, los documentales de naturaleza no necesitarán una narración relajante al estilo de Attenborough, porque los diálogos de los animales en la pantalla estarán subtitulados. Y al igual que los ingenieros de hoy no necesitan saber mandarín o turco para construir un chatbot en esos idiomas, pronto será posible construir uno que hable ballenato, colibrí, murciélago o abeja.

La idea de “descodificar” la comunicación animal es audaz, tal vez increíble, pero un momento de crisis requiere medidas audaces e increíbles. Dondequiera que haya humanos, que es en todas partes, los animales están desapareciendo. Las poblaciones de vida silvestre en todo el planeta han disminuido en promedio casi un 70 por ciento en los últimos 50 años, según una estimación, y eso es solo una parte de la crisis que los científicos han medido. Miles de especies podrían desaparecer sin que los humanos sepan nada de ellas.

Para descarbonizar la economía y preservar los ecosistemas, ciertamente no necesitamos hablar con los animales. Pero cuanto más sepamos sobre las vidas de otras criaturas, mejor podremos cuidar esas vidas. Y los humanos, siendo humanos, prestamos más atención a aquellos que hablan nuestro idioma. La interacción que Earth Species quiere hacer posible, dice Fournet, “ayuda a una sociedad que está desconectada de la naturaleza a reconectarse con ella”. La mejor tecnología le da a los humanos una forma de habitar el mundo de manera más plena. En ese sentido, hablar con los animales podría ser su aplicación más natural hasta ahora.

Los humanos siempre han sabido cómo escuchar a otras especies, por supuesto. Los pescadores a lo largo de la historia colaboraron con ballenas y delfines en beneficio mutuo: un pez para ellos, un pez para nosotros. En el siglo XIX en Australia, se sabía que una manada de orcas guiaba a las ballenas barbadas hacia una bahía cerca de un asentamiento ballenero, luego golpeaban sus colas para alertar a los humanos a preparar los arpones. (A cambio de su ayuda, las orcas obtenían las partes que más les gustaban, los labios y la lengua). Mientras tanto, en las frías aguas de Beringia, la gente Inupiat escuchaba y hablaba con las ballenas bowhead antes de sus cacerías. Como escribe la historiadora ambiental Bathsheba Demuth en su libro Floating Coast, los Inupiat consideraban a las ballenas como vecinos que ocupaban “su propio país” y que elegían en ocasiones ofrecer sus vidas a los humanos, si estos lo merecían.

Los balleneros comerciales tenían un enfoque diferente. Veían a las ballenas como contenedores flotantes de grasa y barbas. La industria ballenera estadounidense a mediados del siglo XIX, y luego la industria ballenera global en el siglo siguiente, casi aniquiló varias especies, lo que resultó en una de las mayores pérdidas de vida animal silvestre causadas por los humanos. En la década de 1960, se mataron 700,000 ballenas, marcando el pico de muerte de los cetáceos. Luego, algo notable sucedió: Escuchamos a las ballenas cantar. En un viaje a Bermuda, los biólogos Roger y Katy Payne conocieron a un ingeniero naval de los Estados Unidos llamado Frank Watlington, quien les entregó grabaciones que había hecho de extrañas melodías capturadas en lo profundo del agua. Durante siglos, los marineros habían contado historias de canciones misteriosas que emanaban de los cascos de sus barcos, ya sea de monstruos o sirenas, ellos no lo sabían. Watlington pensaba que los sonidos eran de ballenas jorobadas. Vayan a salvarlas, les dijo a los Paynes. Y eso hicieron, al lanzar un álbum llamado Canciones de la Ballena Jorobada, que hizo famosas a estas ballenas cantantes. Poco después, comenzó el movimiento Salven a las Ballenas. En 1972, los Estados Unidos aprobó la Ley de Protección de Mamíferos Marinos; en 1986, la Comisión Ballenera Internacional prohibió la caza comercial de ballenas. En apenas dos décadas, las ballenas se transformaron en la percepción pública en gigantes marinos cognitivamente complejos y gentiles.

Roger Payne, que falleció a principios de este año, hablaba frecuentemente sobre su creencia de que cuanto más pudiera saber el público acerca de cosas “curiosas y fascinantes” sobre las ballenas, más las personas se preocuparían por lo que les sucediera. En su opinión, la ciencia por sí sola nunca cambiaría el mundo, porque los humanos no responden a los datos; responden a la emoción, a aquello que los hace llorar de asombro o estremecerse de deleite. Estaba a favor del turismo de vida silvestre, los zoológicos y los espectáculos de delfines en cautividad. Independientemente de lo comprometido que pudiera ser el trato a los animales individuales en estos lugares, él creía que la extinción de una especie es mucho peor. Desde entonces, los conservacionistas han sostenido la idea de que el contacto con los animales puede salvarlos.

A partir de esta premisa, Earth Species está dando el salto imaginativo de que la inteligencia artificial puede ayudarnos a establecer el primer contacto con los animales. Los fundadores de la organización, Aza Raskin y Britt Selvitelle, son arquitectos de nuestra era digital. Raskin creció en Silicon Valley; su padre inició el proyecto Macintosh de Apple en la década de 1970. Al comienzo de su carrera, Raskin ayudó a construir Firefox y en 2006 creó el desplazamiento infinito, posiblemente su mayor y más dudosa contribución. Arrepentido, luego calculó las horas humanas colectivas que su invención había desperdiciado y llegó a una cifra que superaba las 100,000 vidas por semana.

Raskin solía pasar tiempo en una startup llamada Twitter, donde conoció a Selvitelle, una empleada fundadora. Mantuvieron contacto. En 2013, Raskin escuchó una noticia en la radio sobre monos gelada en Etiopía cuya comunicación tenía cadencias similares al habla humana. Tan similares, de hecho, que el científico principal a veces escuchaba una voz hablando con él, se daba vuelta y se sorprendía al encontrar a un mono allí. El entrevistador preguntó si había alguna manera de saber qué estaban tratando de decir. No la había, pero Raskin se preguntó si sería posible encontrar una respuesta con el aprendizaje automático. Planteó la idea a Selvitelle, quien estaba interesada en el bienestar animal.

Por un tiempo, la idea fue solo una idea. Luego, en 2017, nuevas investigaciones mostraron que las máquinas podían traducir entre dos idiomas sin necesidad de ser entrenadas previamente en textos bilingües. Google Translate siempre había imitado la forma en que un humano usaría un diccionario, solo que más rápido y a gran escala. Pero estos nuevos métodos de aprendizaje automático pasaron por alto la semántica por completo. Trataban los idiomas como formas geométricas y encontraban dónde se superponían las formas. Si una máquina podía traducir cualquier idioma al inglés sin necesidad de entenderlo primero, pensó Raskin, ¿podría hacer lo mismo con el balanceo de un mono gelada, el infrasonido de un elefante, la danza de la abeja? Un año después, Raskin y Selvitelle fundaron Earth Species.

Raskin cree que la capacidad de escuchar a los animales impulsará nada menos que un cambio de paradigma tan históricamente significativo como la revolución copernicana. Le gusta decir que “la IA es la invención de la óptica moderna”. Con esto quiere decir que al igual que las mejoras en el telescopio permitieron a los astrónomos del siglo XVII percibir nuevas estrellas y finalmente desplazar a la Tierra del centro del cosmos, la IA ayudará a los científicos a escuchar lo que sus oídos solos no pueden: que los animales hablan con sentido y de más maneras de las que podemos imaginar. Que sus habilidades y sus vidas no son inferiores a las nuestras. “Esta vez vamos a mirar hacia el universo y descubrir que la humanidad no es el centro”, dice Raskin.

Raskin y Selvitelle pasaron sus primeros años reuniéndose con biólogos y acompañándolos en el trabajo de campo. Pronto se dieron cuenta de que la necesidad más obvia e inmediata que tenían frente a ellos no era incitar una revolución. Era ordenar los datos. Hace dos décadas, un investigador de primates se paraba debajo de un árbol y sostenía un micrófono en el aire hasta que se le cansaba el brazo. Ahora los investigadores pueden pegar un biolocalizador portátil a un árbol y recolectar un flujo continuo de audio durante un año. Los muchos terabytes de datos que resultan de esto son más de lo que cualquier ejército de estudiantes de posgrado podría abordar. Pero al alimentar todo este material a algoritmos de aprendizaje automático entrenados, la computadora puede escanear los datos y señalar las llamadas de los animales. Puede distinguir un “whup” de un silbido. Puede reconocer la voz de una gibón de la de su hermano. Al menos, esa es la esperanza. Estas herramientas necesitan más datos, investigación y financiamiento. Earth Species cuenta con un equipo de 15 personas y un presupuesto de varios millones de dólares. Se han asociado con varias docenas de biólogos para comenzar a avanzar en estas tareas prácticas.

Un proyecto temprano abordó uno de los desafíos más significativos en la investigación de la comunicación animal, conocido como el problema de la fiesta de cóctel: cuando un grupo de animales está hablando entre sí, ¿cómo puedes saber quién está diciendo qué? En alta mar, las escuelas de delfines de mil miembros hablan todos al mismo tiempo; los científicos que los graban terminan con un audio tan denso de silbidos y clics como un estadio lleno de aplausos. Incluso el audio de solo dos o tres animales a menudo no se puede utilizar, dice Laela Sayigh, una experta en silbidos de delfines nariz de botella, porque no se puede decir dónde termina de hablar un delfín y comienza otro. (El video no ayuda, porque los delfines no abren la boca cuando hablan). Earth Species utilizó la extensa base de datos de silbidos de firma de Sayigh, los que se asemejan a nombres, para desarrollar un modelo de red neuronal que pudiera separar las voces superpuestas de los animales. Ese modelo solo fue útil en condiciones de laboratorio, pero la investigación está destinada a construirse sobre ella. Un par de meses después, Google AI publicó un modelo para desentrañar el canto de aves silvestres.

Sayigh ha propuesto una herramienta que puede servir como una alerta de emergencia para varadas masivas de delfines, que tienden a ocurrir en ciertos lugares alrededor del mundo. Ella vive en Cape Cod, Massachusetts, uno de esos lugares, donde hasta una docena de veces al año grupos de delfines se desorientan, nadan inadvertidamente hacia la costa y perecen. Afortunadamente, podría haber una forma de predecir esto antes de que suceda, dice Sayigh. Ella plantea la hipótesis de que cuando los delfines están estresados, emiten silbidos de firma más de lo habitual, tal como alguien perdido en una tormenta de nieve podría gritar en pánico. Una computadora entrenada para escuchar estos silbidos podría enviar una alerta que provoque que los rescatistas redirijan a los delfines antes de que lleguen a la playa. En el Salish Sea, donde en 2018 una orca madre que arrastraba el cuerpo de su cría hambrienta atrajo la simpatía mundial, hay un sistema de alerta, construido por Google AI, que escucha a las orcas residentes y desvía los barcos de su camino.

Para los investigadores y conservacionistas por igual, las aplicaciones potenciales del aprendizaje automático son prácticamente ilimitadas. Y Earth Species no es el único grupo que trabaja en la decodificación de la comunicación animal. Payne pasó los últimos meses de su vida asesorando para el Proyecto CETI, una organización sin fines de lucro que construyó una base en Dominica este año para el estudio de la comunicación de las ballenas cachalotes. “Imagínese lo que sería posible si entendieramos lo que los animales se dicen entre sí, lo que ocupa sus pensamientos, lo que aman, temen, desean, evitan, odian, les intriga, y valoran”, escribió en Time en junio.

Muchas de las herramientas que Earth Species ha desarrollado hasta ahora ofrecen más en términos de trabajo preliminar que de utilidad inmediata. Aun así, hay mucho optimismo en este campo incipiente. Con suficientes recursos, varios biólogos me dijeron que la decodificación es científicamente alcanzable. Eso es solo el comienzo. La verdadera esperanza es cerrar la brecha en la comprensión entre la experiencia de un animal y la nuestra, por vasta o estrecha que sea.

Ari Friedlaender tiene algo que Earth Species necesita: muchos, muchos datos. Friedlaender investiga el comportamiento de las ballenas en UC Santa Cruz. Comenzó como el “chico de las etiquetas”: la persona que se equilibra en el borde de un barco mientras persigue a una ballena, sostiene un largo palo con una etiqueta de biolocalización con ventosa en el extremo y golpea la espalda de la ballena con la etiqueta mientras esta emerge a la superficie. Esto es más difícil de lo que parece. Friedlaender demostró ser hábil, “jugaba deportes en la universidad”, explica, y pronto comenzó a viajar por los mares en expediciones de etiquetado.

Las etiquetas que Friedlaender utiliza capturan una cantidad notable de datos. Cada una registra no solo la ubicación GPS, la temperatura, la presión y el sonido, sino también video de alta definición y datos de acelerómetro de tres ejes, la misma tecnología que un Fitbit utiliza para contar tus pasos o medir qué tan profundamente estás durmiendo. Tomados en conjunto, los datos ilustran, en detalle cinematográfico, un día en la vida de una ballena: cada respiración y cada zambullida, sus travesías a través de campos de medusas y aguamalas, sus encuentros con leones marinos girando.

Friedlaender me muestra una animación que ha creado a partir de los datos de una etiqueta. En ella, una ballena desciende y se mueve en bucle a través del agua, siguiendo un curso tridimensional multicolor como si estuviera en una pista de Mario Kart submarina. Otra animación muestra varias ballenas soplando redes de burbujas, una estrategia de alimentación en la que nadan en círculos alrededor de grupos de peces, atrapan los peces en el centro con una pared de burbujas y luego se lanzan a través de ellas con la boca abierta. Observando los movimientos de las ballenas, noto que la mayoría de ellas han trazado una espiral ordenada, pero una ballena ha producido una maraña de zigzags torpes. “Probablemente un animal joven”, dice Friedlaender. “Esa aún no ha descubierto las cosas”.

Los datos multifacéticos de Friedlaender son especialmente útiles para Earth Species porque, como cualquier biólogo te dirá, la comunicación animal no es puramente verbal. Involucra gestos y movimientos tan a menudo como vocalizaciones. Los conjuntos de datos diversos acercan a Earth Species a desarrollar algoritmos que pueden funcionar en todo el espectro del reino animal. El trabajo más reciente de la organización se centra en modelos fundamentales, el mismo tipo de computación que impulsa la IA generativa como ChatGPT. A principios de este año, Earth Species publicó el primer modelo fundamental para la comunicación animal. El modelo ya puede clasificar con precisión los llamados de las ballenas beluga, y Earth Species planea aplicarlo a especies tan dispares como orangutanes (que rugen), elefantes (que envían vibraciones sísmicas a través del suelo) y arañas saltarinas (que vibran sus patas). Katie Zacarian, CEO de Earth Species, describe el modelo de esta manera: “Todo es un clavo y es un martillo”.

Otra aplicación de la IA de Earth Species es generar llamadas de animales, como una versión de audio de GPT. Raskin ha creado un chirrido de unos segundos de un pájaro mosquitero. Si esto parece estar por delante de la decodificación, lo está, resulta que la IA es mejor hablando que entendiendo. Earth Species está descubriendo que las herramientas que está desarrollando probablemente tendrán la capacidad de hablar con animales incluso antes de que puedan decodificarlos. Pronto podría ser posible, por ejemplo, darle una señal a una IA y hacer que continúe una conversación en jorobada, sin que los observadores humanos sepan lo que ni la máquina ni la ballena están diciendo.

Nadie espera que ocurra tal escenario en realidad; eso sería científicamente irresponsable, por una cosa. Los biólogos que trabajan con Earth Species están motivados por el conocimiento, no por el diálogo por el simple hecho de tenerlo. Felix Effenberger, asesor senior de investigación en IA de Earth Species, me dijo: “No creo que tengamos un traductor inglés-delfín, ¿de acuerdo? Donde pones inglés en tu teléfono inteligente y luego hace sonidos de delfín y el delfín va y te trae un erizo de mar. El objetivo es descubrir primero los patrones básicos de comunicación”.

Entonces, ¿cómo se verá o sonará hablar con los animales? No es necesario que sea una conversación libre para ser sorprendente. Hablar con los animales de manera controlada, como con los whups de reproducción de Fournet, probablemente sea esencial para que los científicos intenten entenderlos. Después de todo, no tratarías de aprender alemán yendo a una fiesta en Berlín y sentándote en silencio en una esquina.

Los entusiastas de las aves ya utilizan aplicaciones para capturar melodías en el aire e identificar qué especie está cantando. Con una IA como tu intérprete de animales, imagina lo que más podrías aprender. Le pides que reproduzca el sonido de dos jorobadas encontrándose y produce un whup. Le pides que reproduzca el sonido de un ternero hablando con su madre y produce un susurro. Le pides que reproduzca el sonido de un macho enamorado y produce una canción.

ILUSTRACIÓN: AGNES JONAS

Ninguna especie de ballena ha sido llevada a la extinción por los humanos. Esto está lejos de ser una victoria. Los números son solo una medida de la biodiversidad. Las vidas animales son ricas en todo lo que dicen y hacen, en su cultura. Si bien las poblaciones de ballenas jorobadas se han recuperado desde su punto más bajo hace medio siglo, ¿qué canciones, qué prácticas han perdido en el ínterin? Las ballenas azules, cazadas hasta representar solo el 1 por ciento de su población, podrían haber perdido casi todo.

Christian Rutz, un biólogo de la Universidad de St. Andrews, cree que una de las tareas esenciales de la conservación es preservar las formas de vida no humanas. “No estás preguntando ‘¿estás ahí o no estás ahí?'”, dice. “Estás preguntando ‘¿estás ahí y feliz o infeliz?'”.

Rutz está estudiando cómo ha cambiado la comunicación de los cuervos hawaianos desde 2002, cuando se extinguieron en la naturaleza. Alrededor de 100 de estas aves notables, una de las pocas especies conocidas que utilizan herramientas, están vivas en cautiverio protector y los conservacionistas esperan reintroducirlas eventualmente en la naturaleza. Pero estos cuervos aún pueden no estar preparados. Existe evidencia de que las aves en cautiverio han olvidado un vocabulario útil, incluidas las llamadas para defender su territorio y advertir de los depredadores. Rutz está trabajando con Earth Species para construir un algoritmo que examine grabaciones históricas de los cuervos salvajes extintos, extraiga todas las llamadas de los cuervos y las etiquete. Si encuentran que las llamadas se perdieron, los conservacionistas podrían generar esas llamadas para enseñar a las aves en cautiverio.

Rutz se cuida de decir que generar llamadas será una decisión tomada cuidadosamente, cuando el momento lo requiera. En un artículo publicado en Science en julio, elogió la utilidad extraordinaria del aprendizaje automático. Pero advierte que los seres humanos deben pensar mucho antes de intervenir en la vida animal. Así como el potencial de la IA sigue siendo desconocido, puede llevar riesgos que van más allá de lo que podemos imaginar. Rutz cita como ejemplo las nuevas canciones que componen cada año las ballenas jorobadas y que se propagan por todo el mundo como éxitos musicales. Si estas ballenas adoptaran una frase generada por IA y la incorporaran a su rutina, los humanos estarían alterando una cultura de un millón de años. “Creo que ese es uno de los sistemas que deberían estar fuera de los límites, al menos por ahora”, me dijo. “¿Quién tiene derecho a tener una charla con una ballena jorobada?”.

No es difícil imaginar cómo podría ser mal utilizada la IA que se comunica con animales. Los balleneros del siglo XX también utilizaron la nueva tecnología de su época, emitiendo sonar a una frecuencia que hacía que las ballenas subieran a la superficie en pánico. Pero las herramientas de IA son tan buenas o malas como las cosas que los humanos hacen con ellas. Tom Mustill, documentalista de conservación y autor de “Cómo hablar con las ballenas”, sugiere dar a la investigación de decodificación animal los mismos recursos que se otorgan a los esfuerzos científicos más destacados, como el Gran Colisionador de Hadrones, el Proyecto del Genoma Humano y el Telescopio Espacial James Webb. “Con tantas tecnologías”, me dijo, “simplemente se deja a las personas que las han desarrollado hacer lo que quieran hasta que el resto del mundo se ponga al día. Esto es demasiado importante como para permitir que eso suceda”.

Se están destinando miles de millones de dólares a empresas de IA, en su mayoría con fines de lucro corporativo: escribir correos electrónicos más rápidamente, crear fotos de stock de manera más eficiente, entregar anuncios de manera más efectiva. Mientras tanto, los misterios del mundo natural siguen sin resolverse. Una de las pocas cosas que los científicos saben con certeza es cuánto no saben. Cuando le pregunto a Friedlaender si pasar tanto tiempo persiguiendo ballenas le ha enseñado mucho sobre ellas, me dice que a veces se pone a prueba a sí mismo con una simple prueba: después de que una ballena se sumerge, intenta predecir dónde volverá a salir. “Cierro los ojos y digo: ‘Bien, he colocado 1,000 etiquetas en mi vida, he visto todos estos datos. La ballena va a estar por aquí’. Y la ballena siempre está por allá”, dice. “No tengo idea de lo que están haciendo estos animales”.

Si pudieras hablar con una ballena, ¿qué le dirías? ¿Le preguntarías a White Gladis, la orca elevada a estatus de meme este verano por hundir yates en la costa ibérica, qué motivó su furia: diversión, ilusión, venganza? ¿Le dirías a Tahlequah, la orca madre que llora la muerte de su cría, que tú también perdiste un hijo? Payne dijo una vez que si tuviera la oportunidad de hablar con una ballena, le gustaría escuchar su cotilleo normal: amores, disputas, infidelidades. También: “Perdón sería una buena palabra para decir”.

Luego está ese antiguo problema filosófico espinoso. La cuestión del umwelt y cómo es ser un murciélago, o una ballena, o tú. Incluso si pudiéramos hablar con una ballena, ¿entenderíamos lo que dice? ¿O sería su percepción del mundo, su ordenamiento completo de la conciencia, tan ajeno que resultaría incomprensible? Si las máquinas representan los lenguajes humanos como formas que se superponen, tal vez el inglés sea una rosquilla y el idioma de las ballenas sea el agujero.

Tal vez, antes de poder hablar con una ballena, debes saber cómo es tener el cuerpo de una ballena. Es un cuerpo que es 50 millones de años más antiguo que nuestro cuerpo. Un cuerpo moldeado para el mar, para moverse sin esfuerzo a través de profundidades abrumadoras, para contrarrestar el frío con pura masa. Como una ballena, eliges cuándo respirar, o no. Mayormente estás conteniendo la respiración. Debido a esto, no puedes oler ni saborear. No tienes manos para alcanzar y tocar cosas. Tus ojos son funcionales, pero la luz solar penetra mal el agua. Por lo general, ni siquiera puedes distinguir tu propia cola a través de la niebla.

Vivirías en una nube de oscuridad desesperanzada si no fuera por tus oídos. El sonido viaja más lejos y más rápido a través del agua que a través del aire, y tu mundo está iluminado por él. Para ti, cada rincón oscuro del océano resuena con sonido. Escuchas el repiqueteo de la lluvia en la superficie, el batir de krill, las explosiones de las plataformas petrolíferas. Si eres una ballena cachalote, pasas la mitad de tu vida en la oscuridad absoluta del mar profundo, cazando calamares por el oído. También usas el sonido para hablar, al igual que los humanos. Pero tu voz, en lugar de disiparse instantáneamente en la delgada sustancia del aire, se mantiene. Algunas ballenas pueden gritar más fuerte que un motor de avión, sus llamadas viajando 10,000 millas a través del fondo del océano.

Pero ¿cómo es ser tú, una ballena? ¿Qué pensamientos piensas, qué sentimientos sientes? Estas son cosas mucho más difíciles para los científicos de saber. Algunas pistas provienen de observar cómo te comunicas con los de tu propia especie. Si naces en una manada de orcas, unida y xenófoba, una de las primeras cosas que tu madre y tu abuela te enseñan es tu nombre de clan. Sentirte perteneciente debe ser esencial. (Recuerda a Keiko, la orca que protagonizó la película Liberad a Willy: Cuando fue liberado en sus aguas nativas al final de su vida, no volvió a unirse a la compañía de las ballenas salvajes y en su lugar regresó a morir entre los humanos). Si eres una ballena cachalote hembra, haces clic a tus compañeros de clan para coordinar quién está vigilando a quién; mientras tanto, los bebés balbucean de vuelta. Vives en movimiento constante hacia aguas nuevas, cultivando una disposición nerviosa y vigilante. Si eres una ballena jorobada macho, pasas tu tiempo cantando solo en aguas polares heladas, lejos de tu compañero más cercano. Inferir soledad, sin embargo, sería un error humano. Para una ballena cuya voz se extiende a través de los océanos, tal vez la distancia no significa soledad. Tal vez, mientras cantas, siempre estás en conversación.

Michelle Fournet se pregunta: ¿Cómo sabemos si las ballenas realmente querrían hablar con nosotros de todos modos? Lo que más le gusta de las jorobadas es su indiferencia. “Este animal mide 40 pies de largo y pesa 75,000 libras, y no le importa un carajo”, me dijo. “Cada respiración que toma es más grandiosa que toda mi existencia”. Roger Payne observó algo similar. Consideraba a las ballenas como el único animal capaz de una hazaña, de lo contrario imposible: hacer que los humanos se sientan pequeños.

Una mañana temprano en Monterey, California, subí a un barco para observar ballenas. El agua era de un gris pizarra con crestas blancas. Bandadas de pequeñas aves correteaban sobre la superficie. Aparecieron tres jorobadas, sus espaldas emergiendo elegante del agua. Mostraron un poco de la cola, lo cual fue bueno para los fotógrafos del grupo. La línea de crestas escarpadas de la aleta se puede usar, como una huella digital, para distinguir ballenas individuales.

Más tarde, subí una foto de una de las ballenas a Happywhale. El sitio identifica ballenas usando un algoritmo de reconocimiento facial modificado para las colas. La jorobada que envié, una con la cola cubierta de percebes, volvió como CRC-19494. Hace diecisiete años, esta ballena había sido avistada frente a la costa oeste de México. Desde entonces, había viajado de arriba abajo por el Pacífico entre Baja y la Bahía de Monterey. Por un momento, me impresionó que este sitio pudiera sacar tan fácilmente un animal del océano y entregarme un nombre. Pero luego, ¿qué sabía yo sobre esta ballena? ¿Era una madre, un padre? ¿Estaba realmente feliz esta ballena en Happywhale? La IA no tenía respuestas. Busqué el perfil de la ballena y encontré una galería de fotos, desde diferentes ángulos, de una cola cubierta de percebes. Por ahora, eso era todo lo que podía saber.


Este artículo aparece en la edición de octubre de 2023. Suscríbete ahora.

Déjanos saber qué piensas sobre este artículo. Envía una carta al editor a [email protected].