Emplois : Encadrement législatif et réglementaire de l’IA, un contrepoids est nécessaire

Emplois : Encadrement législatif et réglementaire de l’IA, un contrepoids est nécessaire
© Crédit photo Eric Beaupré / Vingt55. Tous droits réservés.

DRUMMONDVILLE

Le SCFP-Québec accueille avec soulagement la volonté exprimée par le gouvernement du Québec de mettre en place un encadrement législatif et réglementaire de l’intelligence artificielle. C’est le Conseil de l’innovation du Québec qui s’est vu confier, cette semaine, le mandat de cerner les balises de cet encadrement en tenant, notamment, des forums publics.

L’intelligence artificielle (IA) a connu une croissance spectaculaire au cour des dernières mois, apportant de nombreux avantages dans de nombreux domaines, tels que la santé, l’éducation, la finance, ou encore dans les médias. Cependant, avec cette croissance rapide vient également des risques potentiels à prendre en compte.

L »intelligence artificielle peut également avoir un impact négatif sur l’emploi, bien que l’automatisation puisse libérer les travailleurs de tâches répétitives et dangereuses, elle peut également remplacer des emplois entiers, ce qui peut conduire à un chômage massif et à une augmentation de l’inégalité sociale.

« L’IA est une technologie qui est susceptible de perturber non seulement le monde du travail, mais la société en entier – à la fois positivement et négativement. Il faut donc que les forums publics incluent des représentants de tous les groupes de la société civile, dont les syndicats », de dire Patrick Gloutney, président du SCFP-Québec

Le comité sur les nouvelles technologies du SCFP-Québec souligne que l’IA pourrait entraîner la disparition d’une partie des emplois et la transformation d’une multitude d’autres. La Commission de l’éthique en science et en technologie (CEST) a d’ailleurs remis un avis au gouvernement du Québec au sujet des impacts de cette technologie sur le travail et la justice sociale en 2021.

Le SCFP-Québec se questionne sur la pertinence de concentrer l’organisation d’une large réflexion citoyenne entre les mains d’un seul organisme centré sur l’innovation, alors que ceux qui ont une expertise pointue dans les répercussions de l’IA sur l’emploi et sur les renseignements personnels – la CEST et la Commission d’accès à l’information – ne sont pas impliqués.

« L’intelligence artificielle offre de grandes possibilités, mais son utilisation sans réglementation adéquate est inquiétante tant pour les travailleuses et travailleurs que pour la société. On sait maintenant que les systèmes d’IA ont la capacité de faire de la désinformation et de la surveillance de masse, et ainsi, de nuire à la démocratie. Le gouvernement doit s’assurer que la consultation et la législation qui en découlera servent le bien commun », selon Tulsa Valin-Landry, responsable du comité sur les nouvelles technologies du SCFP-Québec.

L’un des risques les plus importants est que l’intelligence artificielle peut prendre ou suggérer des décisions qui ont ou pourraient avoir des conséquences négatives

Bien que les algorithmes d’intelligence artificielle soient conçus pour fonctionner de manière logique et objective, ils peuvent parfois prendre ou générer des décisions qui vont à l’encontre des intérêts humains si ces intérêts n’ont pas été correctement intégrés dans le processus de développement.

Aussi, les cybercriminels peuvent utiliser l’IA pour trouver des vulnérabilités dans les systèmes de sécurité et les exploiter pour accéder à des données confidentielles, voler des informations personnelles ou même lancer des attaques terroristes.

En outre, l’intelligence artificielle peut conduire à des biais et des discriminations. Si les algorithmes d’intelligence artificielle sont entraînés sur des données biaisées, cela peut conduire à des décisions injustes ou discriminatoires. Par exemple, un algorithme d’IA utilisé pour prendre des décisions de prêt peut discriminer les candidats sur la base de leur race, de leur sexe ou de leur orientation sexuelle.

Enfin, de l’avis de plusieurs, l’intelligence artificielle peut également poser des problèmes éthiques et moraux. Par exemple, si les voitures autonomes sont programmées pour prendre des décisions de vie ou de mort en cas d’accident, comment devraient-elles choisir entre sauver la vie du conducteur ou celle des piétons ?

L’intelligence artificielle présente des risques significatifs qui nécessitent une attention et une réglementation appropriées pour garantir que ses avantages soient utilisés de manière éthique et pour le bien de l’humanité.

Éric Beaupré
PHOTOREPORTER
PROFILE

Suivez-nous sur les réseaux sociaux:

Les derniers articles

Faits divers

Suivez-nous sur les réseaux sociaux:

facebookyoutube-icon