Ciencia 15

Comentarios intrascendentes a noticias científicas y técnicas de los últimos quince días (más o menos)
Archivos
<Marzo 2025
Lu Ma Mi Ju Vi Sa Do
          1 2
3 4 5 6 7 8 9
10 11 12 13 14 15 16
17 18 19 20 21 22 23
24 25 26 27 28 29 30
31            

Documentos

Blogalia

Blogalia

Inicio > Historias > Europa frente a la IA equivale a quemar libros
Europa frente a la IA equivale a quemar libros 2025-02-25

Escrito el 25 de febrero de 2025

Permítanme que me enfade. Mientras que en Estados Unidos y en China se progresa en Inteligencia Artificial (IA), en Europa estamos centrados en «regular la IA». Este enfoque no solo nos deja atrás, sino que creamos unas leyes que limitan su uso, e, indudablemente, su progreso. Me siento decepcionado.

A finales del siglo XX me involucré en el proyecto europeo y del euro (fui uno de los coordinadores de la introducción del euro en la banca española). Parecía una buena idea. Era uno de los defensores de la UE. Creí en su potencial. Sin embargo, ahora me enfrento a una UE que, en mi opinión, promueve medidas absurdas.

Por ejemplo, buscan una «IA inclusiva, ética y fiable», que «en román paladino» significa censurar lo que pueda decir una IA. Estoy en contra de la censura. Lo estuve con Franco y sigo estándolo hoy. Recientemente, escuché a algunas personas diciendo que la Tierra era plana. Creo que están equivocados, pero siempre defenderé su derecho a expresar sus opiniones, y que las IA las recojan, sin censura. Sé que lo de la Tierra plana es una barbaridad, pero quiero saber lo que piensan otros. Tal vez quiera profundizar en las razones de sus ideas, tal vez descubra algo interesante… Puede haber mil razones por las que quiera que ante una pregunta sobre la forma de la Tierra las IA puedan referirse a las ideas de la Tierra plana. Lo contrario sería limitar todo el conocimiento humano. (Y que conste: no creo que la Tierra sea plana).

Veamos cada uno de los tres puntos por separado. Primero «IA inclusiva». No sé muy bien lo que quieren decir, pero supongo que se refiere a que utilicen lo que algunos llaman «lenguaje inclusivo», que yo creo que es excluyente, pero eso es otro tema. Para conseguir una IA con lenguaje inclusivo solo se me ocurren dos formar de lograrlo. La primera es educar a la red neuronal con fuentes, libros, artículos, ensayos, fotos, películas, etc., que sean inclusivas. Reflexionemos un momento, en 2010, un estudio de Google estimó que en el mundo 129 millones de libros. ¿Cuántos de ellos son inclusivos? Digamos que un millón. Eso significa que a la hora de educar a nuestra red neuronal tendríamos que dejar fuera nada menos que a 128 millones de libros. Si en vez de libros hablamos de otras fuentes, todo eso había que multiplicarlo, al menos, por mil. Por lo tanto, si optamos por la solución eliminar de la educación lo no inclusivo estamos eliminando (el equivalente en la edad digital a quemar) el 99% de los escritos de la humanidad. Es un desastre peor que el que fue quemar la biblioteca de Alejandría. O la introducción del «Índice» en la iglesia católica. Muchísimo peor. Al menos, con los libros del «Índice» podías pedir permiso y te dejaban leerlo. Recuerdo que para acceder a la Biblia tuve que pedir permiso al obispo. Sí, la Biblia estaba en el «Índice» de libros prohibidos. Creo que el «Cantar de los cantares» ofendió a más de uno.

La segunda forma que veo es que una vez que las redes neuronales han producido una respuesta, se revise para ver si dice algo «no inclusivo» o «políticamente incorrecto» y modificarlo. Eso se llama, sin duda, censura. Sin matizaciones, censura.

El segundo punto es que sea «ética». Una vez más o educamos a la red neuronal con fuentes éticas o tras producir la respuesta la censuramos, pero aquí quizá hay un matiz todavía más grave. ¿A qué ética nos referimos? La ética ha ido cambiando con la evolución humana, y lo que hace siglos era completamente ético hoy lo consideramos anti-ético. Por ejemplo, cuando una tribu vivía aislada y con una falta tremenda de proteínas, comerse a los muertos era vital. Una muestra la tenemos en los «wari» de Brasil que se comían a sus muertos. ¿Para ellos era ético ese canibalismo? Indudablemente, sí, era ético. ¿Entonces, cuándo hablamos de una IA ética de qué demonios estamos hablando?

Las ideas humanas van cambiando. Si las IA, convertidas en la forma casi universal de consulta, solo admite una ética (la de los europeos progres), ¿qué posibilidad hay de que cambie y se adapte a nuevas circunstancias? La respuesta es clara, ninguna. Las ideas con las que se educa (o censura) a las IA se convierten en dogma inamovible. Ante una respuesta, esa biblioteca universal y con ideas dogmáticas, jamás tolerará, por ejemplo, que alguien dude del cambio climático antropogénico, o de la teoría de la relatividad, o de que Greta Thunberg sepa de lo que habla, de que las macro-granjas son malas, o el cultivo llamado ecológico es lo más guay del Paraguay… No habrá discrepancias.

El tercer punto es «fiable». Otra gran falacia. Lo fiable de hoy puede ser mentira mañana. Me explico. Antes de Galileo Galilei (de momento dejo de lado que parece ser que Leonardo Da Vinci ya lo había intuido, y, sin duda, lo había hecho Domingo de Soto en la universidad de Salamanca), lo fiable era decir que los cuerpos más pesados caían a mayor velocidad. Así lo había dicho el gran filósofo y sabio indiscutible llamado Aristóteles. Otro ejemplo es la gravedad definida por Newton, un dogma hasta que Einstein (y Poincaré y Lorenz…) dijeran que no. Hay miles de ejemplos. A lo que quiero llegar es: ¿quién dice lo que es fiable o no? ¿Tendremos que crear un Ministerio de la verdad? Una vez más, bajo una frase tan bonita como «queremos una IA fiable» se esconde el dogma y la censura. ¿Es esa mi Europa? ¿Es este el continente de la Ilustración?

Jamás había visto un ataque tan brutal a la libertad de expresión. Casi, casi me avergüenza ser europeo.

Dejemos que la IA se desarrolle, hagamos lo posible porque la IA sirva para aumentar la productividad y el bienestar de los humanos y dejémonos de censurar. Tratemos a los humanos como adultos. Dejemos que las IA beban de todas las fuentes y después, que seamos nosotros, los humanos que reciben las respuestas de las IA, los que decidamos si su respuesta es «inclusiva» (si es que eso nos importa), «ética» y «fiable».

He admirado a Europa por ser el continente que fomentó la libertad de expresión. Siempre recordaré aquella frase de Voltaire que decía: «No estoy de acuerdo con lo que dice, pero defenderé con mi vida su derecho a decirlo». Es una frase europea.

Me revienta que tuvo que ser el vicepresidente de Trump en el «Munich Security Conference» quien mencionara varias veces a Volaire, sin mencionarlo. Mi inglés está muy oxidado tras veinte años de no usarlo. James D. Vance, el vicepresidente, dijo algo que me ha llegado al alma. Y lo dijo varias veces. No mencionó a Voltaire, pero repitió una de sus frases casi literalmente: «No estoy de acuerdo con lo que dice, pero defenderé con mi vida su derecho a decirlo».

¡Manda narices, que tenga que ser un vicepresidente de Estados Unidos el que nos recuerde a Voltaire!

Enviado por flexarorion a las 09:07 | 0 Comentarios | Enlace


Referencias (TrackBacks)

URL de trackback de esta historia http://ciencia15.blogalia.com//trackbacks/78974

Comentarios

© 2002 flexarorion