Prévenir le harcèlement sexuel au travail à l’aide d’un algorithme

Auteur: Étienne Courchesne, étudiant au cours DRT-6929E-A

En réponse au mouvement #me too et la vague d’allégations de harcèlement sexuel qui a déferlée dans les médias ces derniers mois, la compagnie Advanced discovery a récemment mis sur le marché un algorithme (Riskovery) ayant la fonction de déceler les risques potentiels de harcèlement sexuel dans le milieu de travail.

L’algorithme en question fait une analyse comportementale des données accessibles par l’entreprise, principalement des courriels et de l’utilisation des cellulaires de la compagnie et des employés. Le système compile une multitude de données sur des plaintes formulées contre des harceleurs allégués, principalement les comportements et les commentaires inappropriés, qui servent ensuite à titre de modèle de comparaison afin d’examiner les comportements des employés. Les dirigeants d’entreprises qui utilisent le Riskovery ont également accès à une taxonomie sur le harcèlement sexuel pour les aider à déterminer la gravité et le niveau de risque des certains comportements qu’ils observent.

Selon David Trachtenberg, le directeur marketing d’Advanced discovery, ce nouvel algorithme permettra aux entreprises de détecter et d’adresser une situation à risque avant qu’elle ne devienne litigieuse. De plus, le directeur des services de Riskovery, Collin Miller, avance que l’analyse qu’opère leur algorithme n’est d’aucune façon biaisée.

Il est de plus en plus fréquent d’utiliser des algorithmes pour prévoir les comportements humains, et ce dans toutes les sphères de la société. Cependant, la plupart de ces algorithmes finissent tôt ou tard par contenir certains biais, tel que souligné par Legaltech news qui mentionne que “l’utilisation des ordinateurs pour prédire les comportements humains a été une des utilisations les plus controversées de l’intelligence artificielle ces dernières années.”

Dans son œuvre Algorithms of Oppression : How Search Engines Reinforce Racism, Safiya Umoja Noble, professeure de communication à l’Université de Californie du Sud, abonde également dans ce sens. Elle affirme que souvent les algorithmes comportent des biais à caractère raciste ou sexiste, défavorisant ainsi les femmes et les personnes de couleur dans le processus d’embauche. Dans le contexte particulier du harcèlement sexuel, de tels biais, le cas échéant, pourraient avoir des effets négatifs sur le traitement équitable entre les employés, et par le fait même, sur l’efficacité réelle de cet algorithme.

L’auteure Pauline T. Kim, dans son article Data-Driven Discrimination at Work, énonce que les algorithmes représentent un haut risque de résultats biaisés et que les sources de ces biais sont multiples : discrimination intentionnelle, collecte de données erronées, biais statistique, désavantage structurel. Cette confusion dans les sources à l’origine des biais rend complexe le processus d’imputabilité en cas de dommage ou d’injustice par rapport à un individu ou à un groupe d’individu.

Une entreprise désirant utiliser ce type de service devra s’assurer de respecter les lois en matière de protection de renseignements personnels, et de s’assurer que la collecte de données – quoique potentiellement intrusive – sera utile pour remédier aux problèmes d’harcèlement au sein de son entreprise.

À titre d’exemple, une entreprise qui désirerait utiliser ce type de logiciel devrait, par souci de transparence, considérer se doter d’une politique claire informant ses employés qu’elle collecte et analyse les données provenant des courriels et des cellulaires de l’entreprise pour détecter les problèmes d’harcèlement dans le milieu de travail. Les harceleurs potentiels étant ainsi informés pourraient possiblement se tourner davantage vers des moyens de communication privés n’étant pas accessibles à Riskovery, affectant ainsi l’efficacité du service. L’entreprise doit aussi avoir une procédure détaillée des étapes à suivre pour ses dirigeants lorsqu’un cas à risque est détecté par l’algorithme.

Considérant qu’il faut absolument agir pour lutter contre ce type de crime, mais qu’aucun algorithme n’est parfait, et que des allégations non fondées de harcèlement sexuel peuvent être excessivement dommageables pour une personne, les entreprises qui utilisent l’algorithme Riskovery devront donc être vigilantes et le considérer comme un outil avant tout et non comme une fin en soi.

This content has been updated on February 21, 2018 at 11 h 42 min.