Le tribunal kenyan doit décider s’il est compétent dans l’affaire opposant deux citoyens éthiopiens et la société civile locale à Metz, la société mère de Facebook.
La Haute Cour kenyane doit entendre mercredi une affaire dans laquelle deux citoyens éthiopiens, Abrham Meareg et Fisseha Tekle, et l’organisation de la société civile kenyane The Katiba Institute accusent la société mère de Facebook, Meta, d’avoir promu des contenus ayant conduit à des violences ethniques et à des meurtres pendant le conflit armé dans le nord de l’Ethiopie de novembre 2020 à novembre 2022.
Les requérants affirment que les systèmes de recommandation algorithmique de la plateforme Facebook ont donné la priorité et promu des contenus incitatifs, haineux et dangereux sur sa plateforme pendant le conflit, contribuant ainsi à d’importantes violations des droits de l’homme.
Le tribunal kenyan doit décider s’il est compétent pour entendre l’affaire.
L’équipe juridique de Meta a fait valoir que l’affaire ne devrait pas être entendue au Kenya car la société est enregistrée aux Etats-Unis et que les conditions de service de Meta exigent que de telles plaintes soient déposées aux Etats-Unis.
Ils soutiennent également que les violations présumées des droits de l’homme ont eu lieu en Ethiopie et ne peuvent donc pas être entendues au Kenya.
« Les communautés et les individus touchés par les violations des droits humains commises par des multinationales ont souvent du mal à accéder à la justice et à des recours efficaces en raison de difficultés juridiques, pratiques et autres. Par conséquent, Amnesty International plaide pour une approche des deux affaires qui soit éclairée par les obligations en matière de droits humains et les responsabilités des entreprises, afin de garantir la justice et la responsabilité. »
Au Kenya, un seul juge préside une affaire, mais les requérants peuvent demander que leur cas soit entendu par au moins trois juges si elle soulève des questions constitutionnelles importantes.
Les requérants, représentés par Nzili et Sumbi Advocates et soutenus par l’organisation de justice technologique Foxglove, font valoir, entre autres raisons, que, comme l’opération de modération de contenu examinant le contenu Facebook en provenance d’Éthiopie s’est déroulée au Kenya, l’affaire peut être portée devant la Haute Cour kenyane.
Les autres raisons invoquées pour considérer l’affaire sous la juridiction kenyane sont la résidence actuelle de Fisseha Tekle au Kenya et les problèmes de sécurité qui l’empêchent de retourner en Ethiopie, le fait que le Katiba Institute soit une organisation kenyane et l’existence d’une base d’utilisateurs Facebook importante dans le pays.
Amnesty International est l’une des sept organisations de défense des droits humains et juridiques impliquées en tant que parties intéressées dans l’affaire. L’organisation a soumis des réponses écrites pour soutenir la pétition et s’opposer à la demande de contestation de la compétence de Meta.
Abrham Meareg est le fils de Meareg Amare, professeur d’université à l’université de Bahir Dar, dans le nord de l’Ethiopie, qui a été traqué et tué en novembre 2021, quelques semaines seulement après que des messages incitant à la haine et à la violence à son encontre ont été publiés sur Facebook.
Il affirme que Facebook n’a répondu aux rapports sur les messages que huit jours après la mort du professeur Meareg, plus de trois semaines après que sa famille a alerté l’entreprise pour la première fois.
Le deuxième pétitionnaire, Fisseha Tekle, un employé d’Amnesty International, a été confronté à une haine massive en ligne en raison de son travail de défense des droits humains en Ethiopie. Vivant désormais au Kenya, Tekle craint pour sa sécurité, soulignant l’impact transnational du contenu diffusé sur les canaux de Facebook.
Le Katiba Institute, le troisième pétitionnaire, a porté l’affaire dans l’intérêt public compte tenu de la haine virale et de la violence incontrôlées sur la plateforme Facebook de Meta et des obligations constitutionnelles du Kenya.
La pétition vise à empêcher les algorithmes de Facebook de recommander ce type de contenu aux utilisateurs de Facebook, à modifier les pratiques de modération du contenu de Meta et à contraindre Meta à créer un fonds d’aide aux victimes de 200 milliards de shillings (1,6 milliard de dollars américains).
L’affaire se poursuivra pour traiter des questions de fond relatives à la mesure dans laquelle, le cas échéant, Meta est responsable des violations des droits humains et des souffrances humaines causées par le contenu promu sur Facebook.
En octobre 2023, Amnesty International a publié le rapport, «Une condamnation à mort pour mon père. Comment Meta a contribué aux atteintes aux droits humains dans le nord de l’Éthiopie », qui montre comment Meta a contribué aux violations des droits humains subies par la communauté tigréenne pendant le conflit dans le nord de l’Éthiopie il y a deux ans »m.
WN/as/fss/ac/Sf/APA