Según la organización de derechos humanos, la minoría étnica rohingya fue víctima de los mensajes de odio publicados en su plataforma y "promovieron" la violencia institucional en Myanmar. "Meta sabía o debía saber que los sistemas de algoritmos amplifican la propagación de contenidos nocivos antirohingyas en Birmania".
Por su parte, la compañía respondió que apoya los esfuerzos por "hacer al ejército responsable de sus crímenes".
"Los peligrosos algoritmos de Meta, que posee Facebook, así como la búsqueda desenfrenada de beneficios han contribuido considerablemente a las atrocidades cometidas por el ejército de Myanmar (exBirmania) contra el pueblo rohingya en 2017", denunció la ONG, y amplio diciendo que "Meta sabía o debía saber que los sistemas de algoritmos de Facebook amplifican la propagación de contenidos nocivos antirohingyas en Birmania" pero "esta empresa se abstuvo de actuar".
En 2017, cerca de 850.000 musulmanes rohingyas huyeron de una sangrienta represión del ejército y de milicias budistas en Myanmar.
"En los meses y años que precedieron estas atrocidades, los algoritmos de Facebook intensificaron la ola de odio contra los rohingyas, contribuyendo así a la emergencia de las violencias en la vida real", estima Agnès Callamard, secretaria general de Amnistía.
Representantes de los rohingyas presentaron tres querellas contra Facebook en Reino Unido y Estados Unidos, así como ante la Organización para la Cooperación y el Desarrollo Económicos. En la denuncia en Estados Unidos, presentada el pasado diciembre en California, sede de Facebook y Meta, los refugiados rohingyas piden una compensación de 150.000 millones de dólares.
Para Amnistía es "absolutamente indispensable que Meta lleve a cabo una amplia reforma de su sistema de algoritmos, pues en caso contrario el drama que vincula a Meta y a los rohingyas puede reproducirse en otras partes del mundo, en especial donde subyacen violencia étnicas", cerró la organización de derechos humanos.