SCHAUMBURG, Illinois--(BUSINESS WIRE)--Un nouveau sondage mondial auprès des professionnels de la confiance numérique révèle un degré élevé d’incertitude autour de l’intelligence artificielle (IA) générative, peu de politiques d’entreprise encadrent son utilisation, un manque de formation, et des préoccupations autour de son exploitation par de acteurs malveillants, selon le sondage Generative AI 2023: An ISACA Pulse Poll.





Les professionnels de la confiance numérique du monde entier — c'est-à-dire les personnes qui travaillent dans les domaines de la cybersécurité, de l’audit informatique, de la gouvernance, de la vie privée et des risques de confidentialité — ont pesé sur l’IA générative, l’intelligence artificielle qui peut générer du texte, des images et d’autres médias, dans le cadre d'un nouveau sondage de situation d’ISACA qui explore l’utilisation, la formation, l’attention à la mise en œuvre éthique, la gestion des risques, l’exploitation par les adversaires et l’impact sur les emplois.

Se jeter à l'eau, même sans politique d'encadrement

Le sondage révèle que de nombreux employés des entreprises répondantes utilisent l’IA générative, même sans politiques encadrant son utilisation. Seulement 28 pour cent des entreprises disent autoriser expressément l’utilisation de l’IA générative, seulement 10 pour cent disent qu’une politique formelle globale est en place, et plus d’une sur quatre disent qu’il n’existe pas de politique et qu'aucun projet n'en prévoit une. Malgré cela, plus de 40 pour cent disent que les employés l’utilisent quand même, et le pourcentage est probablement beaucoup plus élevé étant donné que 35 pour cent supplémentaires ne sont pas sûrs.

Ces employés utilisent l’IA générative de plusieurs façons, notamment pour :

  • créer du contenu écrit (65 %)
  • accroître la productivité (44 %)
  • automatiser les tâches répétitives (32 %)
  • fournir un service client (29 %)
  • améliorer la prise de décision (27 %)

Un niveau insuffisant de familiarisation et de formation

Cependant, bien que les employés progressent rapidement dans l’utilisation de la technologie, seulement six pour cent des entreprises répondantes dispensent une formation à l’ensemble du personnel sur l’IA, et plus de la moitié (54 pour cent) affirment qu’aucune formation en IA n’est dispensée, même aux équipes directement touchées par l’IA. Seulement 25 pour cent des répondants ont indiqué avoir un degré élevé de familiarisation avec l’IA générative.

« Les employés n’attendent pas la permission d’explorer et de tirer parti de l’IA générative pour apporter de la valeur à leur travail, et il est clair que leurs entreprises doivent rattraper leur retard dans la mise en place de politiques, d’orientations et de formations pour s’assurer que la technologie est utilisée de manière appropriée et éthique », déclare Jason Lau, directeur du conseil d’administration d’ISACA et CISO, Crypto.com. « Avec un meilleur alignement entre les employeurs et leur personnel autour de l’IA générative, les entreprises seront en mesure de stimuler une meilleure compréhension de la technologie au sein de leurs équipes, de bénéficier davantage de l’IA et de mieux se protéger des risques connexes. »

Risques et problèmes d’exploitation

Le sondage a également exploré les préoccupations éthiques et les risques associés à l’IA, 41 pour cent affirmant que l’attention accordée aux normes éthiques n'est pas suffisante pour la mise en œuvre de l’IA. Moins d’un tiers de leurs entreprises considèrent la gestion du risque d’IA comme une priorité immédiate, 29 pour cent disent qu’il s’agit d’une priorité à plus long terme et 23 pour cent affirment que leur entreprise n’a pas l’intention de considérer le risque d’IA pour le moment, même si les répondants notent ce qui suit comme les principaux risques de la technologie :

  1. Informations erronées/désinformation (77 %)
  2. Violations de la vie privée (68 %)
  3. Ingénierie sociale (63 %)
  4. Perte de propriété intellectuelle (58 %)
  5. Déplacement d’emplois et agrandissement du déficit de compétences (35 %)

Plus de la moitié (57 pour cent) des répondants indiquent être très ou extrêmement préoccupés par l’exploitation de l’IA générative par des acteurs malveillants. Soixante-neuf pour cent disent que les acteurs malveillants utilisent l’IA avec succès ou plus de succès que les professionnels de la confiance numérique.

« Même les professionnels de la confiance numérique font état d'une faible connaissance de l’IA, ce qui représente une préoccupation car la technologie itère à un rythme plus rapide que tout ce que nous avons vu auparavant, avec une utilisation généralisée dans les entreprises », déclare John De Santis, président du conseil d’administration d’ISACA. « Sans une bonne gouvernance ni contrôles adaptés, les employés peuvent facilement partager de la propriété intellectuelle cruciale. Il est essentiel que les dirigeants se mettent rapidement à la page en termes d'avantages et de risques de la technologie et qu’ils fournissent également ces connaissances aux membres de leur équipe. »

Impact sur les emplois

En étudiant la façon dont les postes actuels sont concernés par l’IA, les répondants estiment que la sécurité (47 pour cent), les opérations informatiques (42 pour cent) et les risques et la conformité (35 pour cent) sont responsables du déploiement sécurisé de l’IA. En ce qui concerne l’avenir, une entreprise sur cinq (19 pour cent) créeront des postes liés à l’IA au cours des 12 prochains mois. Quarante-cinq pour cent pensent qu’un nombre important d’emplois seront éliminés en raison de l’IA, mais les professionnels de la confiance numérique restent optimistes quant à leurs propres emplois, 70 pour cent affirmant que cela aura un impact positif sur leur travail. Pour concrétiser cet impact positif, 80 pour cent pensent qu’ils auront besoin d’une formation supplémentaire pour conserver leur emploi ou progresser dans leur carrière.

Optimisme face aux défis

Malgré l’incertitude et le risque entourant l’IA, 80 pour cent des répondants pensent que l’IA aura un impact positif ou neutre sur leur secteur, 81 pour cent pensent qu’elle aura un impact positif ou neutre sur leurs entreprises et 82 pour cent pensent qu’elle aura un impact positif ou neutre sur leur carrière. Quatre-vingt-cinq pour cent des répondants disent également que l’IA est un outil qui renforce la productivité humaine, et 62 pour cent pensent qu’elle aura un impact positif ou neutre sur la société dans son ensemble.

Pour en savoir plus

Retrouvez des informations complémentaires dans l'infographie et d'autres ressources sur l'IA, notamment l'AI Fundamentals Certificate, le livre blanc gratuit The Promise and Peril of the AI Revolution: Managing Risk, et un guide gratuit des considérations sur les politiques encadrant l'IA, sur www.isaca.org/resources/artificial-intelligence.

À propos d’ISACA

ISACA® (www.isaca.org) fournit aux particuliers et aux entreprises les connaissances, les qualifications, l’éducation, la formation et la communauté pour faire progresser leur carrière, transformer leurs entreprises et construire un monde numérique plus fiable et éthique. ISACA tire parti de l’expertise de ses plus de 165 000 membres qui travaillent dans des domaines de confiance numérique tels que la sécurité de l’information, la gouvernance, l’assurance, les risques, la confidentialité et la qualité. ISACA est présent dans 188 pays, avec 225 représentations dans le monde. Grâce à sa fondation One In Tech, ISACA soutient l’éducation informatique et les carrières pour les populations sous-représentées et manquant de ressources.

Le texte du communiqué issu d’une traduction ne doit d’aucune manière être considéré comme officiel. La seule version du communiqué qui fasse foi est celle du communiqué dans sa langue d’origine. La traduction devra toujours être confrontée au texte source, qui fera jurisprudence.


Contacts

communications@isaca.org
Emily Ayala, +1.847.385.7223
Bridget Drufke, +1.847.660.5554

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *