® Notiver La Noticia En El Momento Que Sucede. Todos los Derechos Reservados

TEXTO IRREVERENTE | AI, ¿UN FRANKENSTEIN? - Por favor, lean a Yuval Noah Harari. El mundo necesita escuchar a las mentes preclaras para que nos expliquen la evolución en curso. Todos, habitemos en la ciudad o en el campo...

Por favor, lean a Yuval Noah Harari. El mundo necesita escuchar a las mentes preclaras para que nos expliquen la evolución en curso. Todos, habitemos en la ciudad o en el campo y seamos ricos o pobres, estamos implicados en la tecnología...

Por Andrés Timoteo

AI, ¿UN FRANKENSTEIN?
Por favor, lean a Yuval Noah Harari.

El mundo necesita escuchar a las mentes preclaras para que nos expliquen la evolución en curso.

Todos, habitemos en la ciudad o en el campo y seamos ricos o pobres, estamos implicados en la tecnología digital que ahora mismo muta en algo más complejo y riesgoso: la Inteligencia Artificial o AI por sus siglas en inglés.

Algunos la disfrutarán y otros la sufrirán, pero nadie escapara de ella. Para muchos, la AI es una suerte de Frankenstein que se rebelará contra su creador.

Harari, pensador y escritor israelí, es actualmente uno de los consultores más cotizados en el rubro de las tecnologías digitales, la información inmediata y global, incluyendo el periodismo, y la AI.

La próxima semana saldrá su nuevo libro, "Nexus: Una breve historia de la información desde la Edad de Piedra hasta la IA", que contiene pautas para entender a la AI y su impacto en la humanidad.

Harari ha concedido entrevistas a la prensa europea en las últimas semanas.

En México, el diario digital Los Periodistas reproduce una realizada por el reportero español Jorge Benítez ( https://n9.cl/51sln0 ).

Aquí se ofrecen unos fragmentos de la misma al igual que del artículo del mismo Harari publicado en el periódico madrileño ABC, "Los dictadores deberían temer a la AI" ( https://n9.cl/l7aty ).

"La AI es la tecnología más poderosa jamás creada por la humanidad, porque es la primera que puede tomar decisiones y crear nuevas ideas por sí misma.
Una bomba atómica no puede decidir a quién atacar, ni inventar nuevas bombas o nuevas estrategias militares.
Una IA, por el contrario, puede decidir por sí misma atacar un objetivo concreto, y puede inventar nuevas bombas, nuevas estrategias e incluso nuevas AI.
Las empresas de redes sociales como Facebook, YouTube y Twitter dieron a sus algoritmos de AI un objetivo aparentemente sencillo: aumentar la participación de los usuarios.
Cuanto más tiempo pasaban los usuarios en las redes sociales, más dinero ganaban estas empresas.
Sin embargo, en búsqueda del objetivo, los algoritmos hicieron un descubrimiento siniestro.
Aprendieron que la indignación generaba implicación.
Si puedes pulsar el botón de la ira, el miedo o el odio en la mente de un ser humano, captas su atención y lo mantienes pegado a la pantalla".

ODIO, NO COMPASIÓN

"Y los algoritmos empezaron a difundir deliberadamente la indignación, que es una de las principales razones de la actual epidemia de teorías conspirativas, noticias falsas y disturbios sociales que socava las democracias".

- Sobre la propagación de mentiras, ¿qué hace que los algoritmos de las redes fomenten la indignación en lugar de, por ejemplo, la compasión?, le pregunta el periodista Benítez.

"Dele a la gente y a la propia AI estrechez de miras y nunca se darán cuenta de sus consecuencias.
Las teorías conspirativas y las 'fake news' se difunden porque es lo que quieren las plataformas.
La indignación y el miedo generan más atracción y, por tanto, más ingresos para las compañías.
Nadie dio instrucciones distintas al respecto y por eso vivimos en una pandemia de desinformación.
En Silicon Valley -la Meca de los emporios digitales- se esperaba que el desarrollo de una tecnología de información muy potente condujera a la difusión de la verdad por todas partes.
Y justo ha sucedido lo contrario.
En el mundo de hoy se está perdiendo la capacidad de hablar y de escuchar, vemos incluso cómo se está quebrando la conversación pública.
Esto se produce porque la verdad exige un enorme esfuerzo.
Escribir un texto histórico o científico -o periodístico- veraz tiene detrás una búsqueda de fuentes, de argumentos… mientras que la propagación de bulo resulta muchísimo más sencilla".

COMO EN MÉXICO

Harari analiza el impacto de la AI en la democracia.

"El error forma parte de nuestra realidad.
Los científicos siempre lo han tenido claro: cuando hay una nueva teoría, ésta se examina, se pone en cuestión y, si hace falta, se desecha o se corrige y amplía.
Algo parecido sucede con la democracia.
Usted vota a un partido que cree que lo va a hacer bien, pero si al cabo de unos años se siente decepcionado, vota a otro.
Pero esto no funciona con los autoritarismos: un tirano nunca reconoce sus errores y cuando se producen culpa a los demás.
Esta situación viene provocada por la falta de mecanismos de contrapoder.
Hay que desconfiar siempre de los líderes, del campo que sea, que afirman que nunca se equivocan.
Los populistas actúan igual cuando atacan a sus enemigos, sean políticos, jueces, periodistas o científicos, acusándolos de que a ellos no les importa la verdad, que sólo defienden los intereses particulares de su grupo.
Así se plantea una visión cínica de la sociedad que provoca desconfianza en la población y se socavan las instituciones democráticas.
Entonces, los populistas venden un razonamiento sencillo: si la democracia no funciona, la dictadura es la solución. -Vaya, lo que está pasando en México-.
Para evitar un riesgo así, tenemos la obligación de defender los contrapesos en nuestras democracias.
Que el sistema a veces cometa errores o sufra de corrupción no significa que merezca ser destruido.
Resulta increíble ver cómo la gente, cuando es arrastrada por el populismo, es capaz de desconfiar de las instituciones y a la vez otorgar toda su confianza a una única persona, que suele ser alguien hambriento de poder".

Hasta ahí los fragmentos, disculpará el lector y el editor lo extenso, pero el tema lo vale.

Por favor, lean a Harari.

*Envoyé depuis Paris, France.