Intelligence artificielle : opportunités, risques et modes d’emploi | Partie 2 – Les risques

Intelligence artificielle : opportunités, risques et modes d’emploi | Partie 2 – Les risques

Partager cette publication

Propos recueillis par Renato Cudicio, MBA, Président de TechNuCom.

IA et entreprises québécoises : trois perspectives uniques

En novembre, les membres du club d’affaires Gung Ho! ont organisé un panel à Laval, animé par Renato Cudicio, pour discuter de l’impact de l’intelligence artificielle au sein des organisations.

Une étude du Boston Consulting Group a montré que 30 à 40 % des entreprises canadiennes testaient des applications d’IA ou envisageaient d’intégrer cette technologie. Une autre enquête de Gartner indique que 25 à 30 % des employés utilisent l’IA sans que leurs supérieurs en soient informés, révélant un taux de pénétration de l’IA bien plus important qu’on ne le perçoit.

Trois experts ont été invités à partager leurs points de vue avec une soixantaine de dirigeants d’entreprises, suscitant des échanges enrichissants.

Renato Cudicio : Les cyberattaques représentent aujourd’hui l’un des plus grands risques pour les entreprises. Est-ce que l’intelligence artificielle deviendra le nouveau péril principal, notamment en raison de son utilisation par les hackers et de son mauvais usage interne?

Charles S. Morgan : La discussion autour de l’intelligence artificielle (IA) tend souvent à susciter des craintes, tout comme les questions juridiques ou les scénarios catastrophes liés aux cyberattaques. Il est vrai que l’IA peut augmenter le risque de cyberattaques, mais elle ne remplacera pas les méthodes traditionnelles de piratage.

Aujourd’hui, les cybercriminels sont extrêmement sophistiqués, ce qui rend toute industrie vulnérable. Vous avez probablement tous déjà été confrontés à ce type de menace. L’IA, par sa capacité à automatiser et à personnaliser les attaques, amplifie le niveau de risque.

Par exemple, il est désormais possible de simuler un appel sur Teams où les participants sont des deepfakes, ce qui peut tromper un directeur financier et l’inciter à effectuer un transfert d’argent. Les attaques peuvent également être plus subtiles, souvent par ingénierie sociale, via des courriels de phishing écrits sans fautes, grâce à l’IA. Ce qui rend la détection encore plus difficile.

En outre, les hackers utilisent l’IA pour créer et modifier du code malveillant en temps réel, rendant leur identification plus complexe. Bien que les systèmes antivirus finissent toujours par détecter ces logiciels, l’IA permet aux pirates de constamment ajuster leurs attaques pour contourner les défenses.

Les risques ne proviennent pas uniquement des cybercriminels. Prenons l’exemple d’un président de grande entreprise qui, lors d’une réunion, a utilisé sans autorisation un logiciel d’IA pour transcrire et résumer les échanges. Ce logiciel, open source, avait des conditions d’utilisation permettant l’exploitation des transcriptions à des fins commerciales, ce qui a entraîné une fuite d’informations confidentielles. Cela démontre une méconnaissance des risques technologiques au sein de l’entreprise.

L’IA permet aujourd’hui de créer facilement des textes et de modifier des images. Comment une entreprise peut-elle se protéger contre les violations de propriété intellectuelle, que ce soit la sienne ou celle des autres?

Il existe plusieurs facettes à cette question.

  • Risque 1 : Litiges sur les droits d’auteur
    Le New York Times a engagé une action contre OpenAI, affirmant que ChatGPT avait été formé à partir de millions d’articles du journal sans autorisation. Cela soulève la question juridique de savoir si OpenAI pourrait être contraint d’arrêter certaines fonctionnalités en raison de l’utilisation de données non autorisées.

  • Risque 2 : Incertitude sur les droits de propriété
    Les termes et conditions de nombreux outils d’IA précisent qu’on ne peut pas garantir la propriété des œuvres générées par l’IA. Les textes et images créés uniquement par l’IA ne bénéficient pas des protections habituelles du droit d’auteur. Cette incertitude change les règles du jeu.

Pour se protéger, les entreprises peuvent opter pour deux approches :

  1. Utiliser les versions ouvertes des outils d’IA, disponibles gratuitement en ligne, bien qu’elles offrent moins de garanties sur la provenance des données et la qualité des résultats.

  1. Adopter une version entreprise de ces outils, entraînée sur leurs propres données, avec un contrôle et une gouvernance stricte des données.

Certaines grandes entreprises, comme Microsoft, proposent des clauses d’indemnisation pour leurs clients en cas de litige sur les droits d’auteur, à condition que les règles d’utilisation soient strictement respectées. Il est donc crucial d’évaluer les risques et de mettre en place une gouvernance rigoureuse avant de s’engager.

En matière de cyberattaques, il ne s’agit pas de savoir « si » elles surviendront, mais « quand ». Observez-vous une augmentation des incidents liés à l’IA chez McCarthy Tétrault? Que doit-on changer dans les pratiques d’affaires pour réduire ces risques?

En tant qu’expert en cybersécurité, j’ai observé une augmentation constante des cyberattaques, souvent exacerbée par l’IA. La rentabilité des attaques cybercriminelles reste élevée et, malheureusement, de nombreuses entreprises n’ont pas une vision claire de l’utilisation que leurs employés font de la technologie.

Dans certains cas, des informations sensibles, comme des données sur les employés ou des états financiers, sont partagées sur des plateformes d’IA accessibles publiquement, ce qui expose l’entreprise à des risques importants. Une meilleure gouvernance et une formation accrue des employés sont nécessaires pour prévenir ces situations.

Si vous aviez un seul conseil à donner pour réduire les risques liés à l’utilisation de lIA, lequel serait-il?

La réponse est simple : la gouvernance.

Il est essentiel de ne pas laisser la peur freiner l’adoption de la technologie, car l’IA a un potentiel immense. Il faut toutefois avancer avec une gouvernance adaptée à la taille de l’entreprise et aux risques spécifiques. Cela implique d’identifier les principaux risques et de déterminer quelles utilisations de l’IA apporteront le plus de valeur à l’entreprise.

Merci aux 14 membres de Gung Ho! qui ont commandité cet événement et à Karine Bélisle pour l’organisation.

Karine Bélisle – RBC Dominion

Christian Brassard – Hub International

Charles Brassard – Xerox

Renato Cudicio – TechNuCom

Simon Davidson – Groupe Carbonic inc.

Étienne Demeules – DSMA

Domenic Di Franco – Banque Toronto-Dominion TD

Jean-Philip Robitaille – Syscomax

René Roy – BDC

Jérémie St-Germain – Premier Consultants

Eric Taillon – ACT actuaires

Plus à explorer

Prenez une minute pour nous connaître

Les gens derrière TechNuCom