|
Las redes sociales están modificando la forma de comunicarse de la mano de sofisticados algoritmos que premian y castigan con mayor o menor difusión según una infinidad de parámetros. Sus consecuencias llegan mucho más lejos de lo que se podría imaginar. Opina Santiago Kalinowski, director del Departamento de Investigaciones Lingüísticas y Filológicas de la Academia Argentina de Letras.

Dylan Resnik, en Página/12 — Durante unos pocos días a finales del 2024 en el Museum of Pop Culture de Seattle, Estados Unidos, hubo un cartel que llamó la atención de los visitantes: en la parte de la exposición sobre la icónica banda Nirvana se contaba que el líder del grupo, Kurt Cobain, «un-alived himself at 27» —un eufemismo en inglés que significa que se suicidó a los veintisiete años—. Pero, ¿por qué ese rodeo y no usar directamente la palabra suicidio?
Adam Aleksic da una respuesta a esto en su libro Algospeak: How Social Media Is Transforming the Future of Language. Según él, los algoritmos están cambiando la forma en la que nos expresamos, marcando diferencias inéditas sobre la evolución del lenguaje. Es este punto en el que hay que buscar por qué en un museo se expuso la palabra un-alived en lugar de, llanamente, la palabra suicido.
Consultado por Página|12, Santiago Kalinowski, director del Departamento de Investigaciones Lingüísticas y Filológicas de la Academia Argentina de Letras, explica qué significa el algospeak y qué hay detrás de este concepto que mezcla las redes sociales, la censura y la búsqueda de viralidad con la evolución del lenguaje y la forma en la que la sociedad se expresa.
Según Kalinowski, el algospeak plantea que existen filtros algorítmicos que hacen que un video o un contenido se difunda, o no, entre aquellos perfiles que no son seguidores. Así, por ejemplo, si se usa la palabra suicidio el video se ghostea (se difunde menos), sin embargo, con desvivirse el video funciona y llega a millones de personas.
Esto es algo que el propio Aleksic cuenta en primera persona y tras haber hecho experimentos en su cuenta de Tik Tok @etymologynerd, donde tiene cerca de un millón de seguidores.
«A él le sucede que, una vez haciendo un video sobre el origen de la palabra inglesa pencil, tuvo que hacer referencia al latín penis, que es de donde viene la palabra pene. Y eso hizo que el algoritmo le hiciera un ghosting. Entonces, en lugar de tener un millón de visitas obtuvo 100 mil. Esto hizo que el tipo empezara a tener una experiencia tratando de rodear esa especie de censura que hay», cuenta el especialista.
Lo mismo que pasó con este caso y la palabra pene, sucede con otros temas más comunes: «(Aleksic) empezó a ver esa especie de danza que se da entre los creadores de contenido y los algoritmos que bajan cosas porque se consideran temas sensibles. Entonces empiezan a aparecer estrategias, como el emoji del ninja para decir negro sin que el algorimo se entere. O la bandera de Palestina es una forma de decir Palestina, pero que cuando el algoritmo lo detectó pasó a ser el emoji de la sandía ya que comparten los colores».
Para explicar este mecanismo de la evolución del lenguaje, dijo Kalinowski, el libro toma un concepto de Steven Pinker, el de euphemism treadmill, la cinta de caminar de los eufemismos.
«La palabra idiota, aparecía antes como un tecnicismo para una persona con una discapacidad mental. De ahí pasó a mogólico. Cada vez que esas palabras se cargaban de una connotación negativa, la gente que quería escaparse de esa connotación peyorativa inventaba una nueva palabra o una nueva expresión para despegarse, hasta que volvía la connotación negativa», ejemplificó el especialista […].
Seguir la entrevista en Página/12.
|
|