“Hay un descontrol de contenido y falta de normativas en todos los entornos de las redes sociales”
Una reciente investigación reveló que un algoritmo de Facebook promueve el negacionismo del Holocausto. Al escribir la palabra “Holocausto” se espera encontrar información sobre la persecución sistemática promovida por el estado nazi y el asesinato de seis millones de personas judías en Europa. Sin embargo, la red social mediante su algoritmo “promueve activamente” contenidos como teorías o negacionistas. Gabriel Zurdo, experto en Seguridad Informática y CEO de BTR Consulting, explicó en Radio Jai cómo funciona este mundo.
“Un algoritmo es un programa, una secuencia lógica de instrucciones que se procesa a gran velocidad y que somete a tratamiento a volúmenes enormes de información. Es la magia que desarrolló la industria tecnológica para que el perfil generado por una persona, sea procesado por el algoritmo y luego te ofrezca patrones de contenido de información en base a las búsquedas y preferencias de cada uno”.
“La inteligencia artificial consiste en delinear qué le gusta, qué piensa alguien y en función de eso repite una práctica tecnológica que se denomina ‘máquina de aprendizaje’. Por ejemplo, si uno busca información sobre viajes a Ginebra, la máquina y el concepto del algoritmo aprende que a vos te gustaría ir a Ginebra. Esto facilita el descontrol del contenido y la falta de normativas en todos los entornos de redes sociales”, explicó Zurdo.
“El caso de la shoá es un muy buen testimonio respecto de que cualquiera puede decir cualquier cosa. Un ejemplo son las fake news, las noticias falsas, que se aprovechan de esto. La inteligencia artificial hace que se pueda diagramar la viralización de un contenido en una zona geográfica, en un grupo etario y bajo determinadas circunstancias”.
“La industria tecnológica, que hoy es la más valiosa del planeta, se monetizan bajo dos parámetros, por un lado la publicidad y por otro la venta de contenidos de la actividad de cada usuario de la red social. Entonces, es una decisión que esté o no un contenido. Es falaz el hecho de que los contenidos no se puedan regular ni administrar.
Si un contenido está cuando lo buscas es porque alguien pagó para eso o porque la organización que regula los contenidos decidió que estén”, aseguró el experto.
“Facebook tiene 2500 millones de usuarios y esto provocó que voltearan las fronteras.
Hoy la aplicabilidad de la ley respecto a contenidos difamatorios falsos y que incumplen la ley dependen de la territorialidad, asumiendo que entre el 12 y 15% de los usuarios de las redes sociales son falsos. El tema es que hoy los usuarios y los contenidos son globales”.
“Cuando hay empresas que son víctimas de fraude a través de redes sociales a través de difamación o apropiación de marcas, ni siquiera se sabe dónde están los servidores. Google tiene 4700 millones de reclamos de cuestiones falsas o contenidos inapropiados para procesar. La controversia es quién paga por ese reclamo”.
“Compañías como Tik Tok o Zoom generaron mucha controversia, hacen que nosotros no decidamos qué queremos consumir como información. Esto cada vez es más parecido a que nosotros nos hacemos de la información que ellos quieren en función de quién pague para que lo veamos. Es sumamente complejo y no veo que los gobiernos se estén poniendo de acuerdo para regular esta situación. Cómo puede ser que no bajen contenidos como los del negacionismo si pueden decir quién sale o no de su casa. Es falaz que no se pueda gestionar y administrar”, finalizó Zurdo.
Reproducción autorizada por Radio Jai citando la fuente.
Reproducción autorizada citando la fuente con el siguiente enlace Radio JaiAyuda a RadioJAI AHORA!
HAZ CLIC AQUÍ PARA HACER UNA DONACIÓN