El Tribunal Supremo de Estados Unidos sentó este miércoles en el banquillo a Twitter para estudiar si la empresa de Elon Musk es responsable de ayudar a instigar un atentado terrorista al no eliminar correctamente contenido publicado por organizaciones como el Estado Islámico (EI).
La red social fue denunciada junto con Facebook y Google (como dueña de YouTube) por la familia del jordano Nawras Alassaf, quien murió el 1 de enero de 2017 en un club nocturno en Estambul (Turquía) a manos de Abdulkadir Masharipov, un terrorista que irrumpió en el lugar y asesinó a 39 personas.
Los denunciantes alegan que puesto que la organización terrorista utiliza estas plataformas «para reclutar miembros, emitir amenazas terroristas, difundir propaganda, infundir miedo e intimidar a la población civil», las compañías tecnológicas tienen responsabilidad en instigar a este atentado.
En su opinión, brindaron así apoyo material al EI al proporcionar la infraestructura y los servicios que le permiten «promover y llevar a cabo sus actividades terroristas», al no monitorear y eliminar de manera proactiva el contenido terrorista.
Los denunciantes se abrazan a la Ley Antiterrorista (ATA) y a la Ley de Justicia contra los Patrocinadores del Terrorismo (JASTA), que permiten a las víctimas del terrorismo presentar demandas de responsabilidad primaria y secundaria contra cualquier entidad que ayude a un acto terrorista.
Ley Antiterrorista
Los jueces del Supremo tendrán que dirimir si, según la Ley Antiterrorista, se puede considerar que las plataformas de redes sociales que alojan contenido de usuarios han ayudado e instigado un acto de terrorismo internacional por su supuesta falla a la hora de filtrar y eliminar suficientemente el contenido publicado por organizaciones terroristas.
En la vista de este miércoles, el abogado de Twitter, Seth Waxman, centró su defensa en que no hacer todo lo posible para hacer cumplir las reglas y políticas de Twitter que prohíben este tipo de contenido «no equivale a la provisión consciente de asistencia sustancial» a los proveedores de los contenidos violentos.
«Si el jefe de la policía de Estambul hubiera venido a Twitter diciendo ‘hemos estado siguiendo tres cuentas y estas personas parecen estar planeando algún tipo de acto terrorista’ y Twitter no lo hubiera investigado, en ese caso habríamos asumido la culpabilidad», relató.
La tecnológica de Elon Musk asegura que el hecho de que el EI haya utilizado la plataforma no constituye una asistencia «consciente». Esta postura la comparte el gobierno de Joe Biden.
No se puede considerar responsable
Según el procurador general adjunto Edwin Kneedler, representante del gobierno, la empresa no se puede considerar responsable en virtud de la Ley Antiterrorista porque el Congreso se aseguró de que esta ley «no tenga un alcance tan amplio como para inhibir actividades legítimas e importantes de empresas, organizaciones benéficas y otros», agregó en su intervención.
Pero en opinión de varios de los jueces del Supremo, Twitter «sabía todo eso y no hizo nada al respecto», dijo la magistrada progresista Elena Kagan.
«¿Cómo se puede decir que Twitter no brindó asistencia sustancial?», preguntó la jueza. Asimismo, aseguró que la red social «está ayudando al brindar servicio a aquellas personas con el conocimiento explícito de que esos ciudadanos lo están utilizando para promover el terrorismo».
Acabar con la «inmunidad de las redes sociales»
Según explicaron a la prensa tras la vista los abogados de la familia de Nawras Alassaf, la denuncia busca acabar con la «inmunidad de las redes sociales», destacó la letrada Nitsana Darshan-Leitner.
«Cada ataque terrorista comienza y termina en las redes sociales, que han sido inmunes durante demasiados años. Permitieron que las organizaciones los usaran como una herramienta (…), pero las redes sociales tienen responsabilidad social y tienen que cuidar todo el contenido de Internet», añadió.
La sesión de este miércoles se celebró un día después de que el Tribunal Supremo de Estados Unidos sentara en el banquillo a Google para evaluar si tiene responsabilidad en las recomendaciones que sus algoritmos hacen a sus usuarios, en un caso con implicaciones en la libertad de expresión.
Denuncia contra Google
Google, propietaria de YouTube, resultó denunciada por la familia de Nohemi González, una estadounidense de 23 años de origen mexicano y asesinada en París en los atentados de noviembre de 2015 del EI, que mataron en total a 130 personas.
En opinión del también abogado Keith Altman, «es fundamental» que la Corte Suprema analice los dos casos y que «trate de brindar alguna orientación». «Se trata de pedirles a las empresas que actúen de manera razonable y responsable en la forma en que administran su contenido y no simplemente decir, bueno, no hay nada que puedan hacer al respecto», mencionó.
La del martes fue la primera vez que la máxima instancia judicial estadounidense analizó la sección 230 de la Ley de Decencia de las Comunicaciones, aprobada en 1996, cuando Internet se encontraba en sus albores. Esta blinda a las plataformas frente a las demandas que las tratan como responsables de la información suministrada por otra fuente.
En ambos casos, la decisión del Supremo, de mayoría conservadora, no llegará hasta el verano y su fallo podría tener repercusiones en la forma en la que funciona Internet.
ComputerHoy