Il est facile de voir pourquoi Adoption de l'IA est en plein essor dans le monde des affaires. L'intelligence artificielle permet aux organisations d'atteindre de nouveaux niveaux d'efficacité, de performance et de rentabilité. Il s'est déjà avéré être un outil puissant pour maximiser les informations et conduire des innovations.
Mais l’intégration de l’IA dans les opérations commerciales soulève également certaines inquiétudes. L’une de ces préoccupations concerne l’impact que cela a sur les pratiques environnementales, sociales et de gouvernance (ESG).
Les préoccupations des consommateurs quant à l’impact des entreprises sur l’environnement et la culture se sont considérablement accrues au cours de la dernière décennie. Des études récentes montrent que 83 pour cent des consommateurs pensent que les entreprises devraient investir dans les meilleures pratiques ESG. Pour répondre aux attentes des consommateurs, les entreprises ont cherché à adapter leurs pratiques pour soutenir des initiatives environnementales et sociétales saines.
La croissance de l’IA exige que les entreprises réfléchissent attentivement à l’impact que la nouvelle technologie pourrait avoir sur leurs efforts ESG.
IA et environnementalisme
"L'une des principales préoccupations concernant les outils d'IA générative est leur impact environnemental", déclare Ed Watal, Fondateur de Intellibus. « Sa croissance soulève non seulement de nouvelles inquiétudes quant aux retombées environnementales, mais met également au premier plan des préoccupations qui existent depuis longtemps concernant l’intersection de la technologie et de l’environnement. La puissance des outils d’IA et leur adoption généralisée amplifie considérablement ces préoccupations.
Watal est un leader d'opinion en IA et un investisseur technologique dont les principaux projets incluent BigParser, une plate-forme d'IA éthique et des données communes pour le monde. En plus de diriger Intellibus, qui aide les organisations à concevoir des plates-formes commerciales intelligentes, Watal est le principal professeur d'AI Masterclass, une opération conjointe entre NYU SPS et Intellibus.
L’IA s’appuie sur les centres de données pour stocker les ensembles de données massifs utilisés pour son entraînement, ainsi que pour mettre en place le réseau à haut débit nécessaire à la mobilisation des données. Certains experts prédisent que les énormes besoins en données de l’IA générative en nécessiteront 50 fois plus puissance de calcul dans les cinq prochaines années.
L’énergie nécessaire à l’alimentation des centres de données est une préoccupation ESG constante. Les experts prévoient que la consommation énergétique des centres de données pourrait atteindre 7.5 pour cent de la consommation globale d’énergie d’ici 2030. L’IA générative devrait représenter environ 1 % de cette consommation.
"Bien que la consommation d'énergie des centres de données soit sans aucun doute une préoccupation environnementale, ce n'est pas la seule que l'IA déclenche", explique Watal. « Les systèmes de refroidissement des installations de données consomment également énormément d’énergie. En fait, 70 % de la consommation énergétique totale des centres de données est consacrée au refroidissement et à l’eau. UN ordre historique impliquant le centre de données Google de The Dalles, dans l'Oregon, a mis en lumière que 25% de l'approvisionnement en eau de cette ville était consommée par le centre de données.
IA et enjeux sociaux
L’impact de l’IA sur les questions sociales se concentre principalement sur le potentiel de biais dans les décisions qu’elle sous-tend. Si elle est formée sur des données biaisées, l’IA générative peut perpétuer et amplifier les préjugés historiques et les inégalités structurelles. Des rapports récents montrent que près de 75 % des entreprises ne prennent pas de mesures pour réduire ce type de biais.
Les biais d’embauche sont une préoccupation majeure qui est apparue à mesure que l’intégration de l’IA s’est développée.
« L'utilisation d'outils d'IA générative pour alimenter les processus de recrutement devient de plus en plus la norme », explique Watal. « Les entreprises utilisent des algorithmes d'IA pour toutes les étapes du processus de recrutement, y compris l'analyse des CV, la sélection des candidats et même les recommandations finales en matière de prise de décision. Parce que l’explicabilité, qui implique de fournir une explication logique de la justification des décisions basées sur l’IA, reste un défi, de nombreuses entreprises sont incapables de déterminer la présence ou l’étendue des préjugés raciaux, sociaux, de genre ou économiques dans le dépistage génératif basé sur l’IA. ou des algorithmes de recommandations pour l’embauche.
Besoins en IA et en gouvernance
La gouvernance d'entreprise implique les politiques, processus et contrôles que les entreprises mettent en œuvre pour garantir que leurs opérations sont responsables et éthiques. L’élaboration de politiques en matière d’IA garantissant la responsabilité, la transparence, l’équité et la sécurité est devenue une responsabilité clé de la gouvernance d’entreprise.
« Une bonne gouvernance d’entreprise nécessite que les organisations aient une compréhension approfondie des ensembles de données utilisés pour former l’IA », explique Watal. « De nombreuses plates-formes d'IA générative ont été formées sur les données Internet d'un référentiel public appelé le Exploration commune. Une étude des modèles d'IA formés sur Common Crawl indique que présence de préjugés sociaux et des sentiments négatifs qui pourraient conduire à une représentation préjudiciable de groupes spécifiques.
La gouvernance devrait également inclure des politiques visant à impliquer les employés dans l’IA générative. Des organisations comme Apple, JP Morgan, Verizon et Amazon ont toutes interdit des outils comme ChatGPT au travail. D’autres ont limité la quantité de données pouvant être fournies à l’IA générative sur le lieu de travail.
"Les employés utilisant des outils d'IA générative sans autorisation ou contrôles appropriés peuvent entraîner des fuites de données", prévient Watal. « Les erreurs opérationnelles commises par les chercheurs en IA de Microsoft ont conduit à 38 To de données être accidentellement exposé. Employés de Samsung accidentellement données confidentielles exposées aux plateformes d’IA générative à trois reprises.
Malgré ces préoccupations, l’utilisation de l’IA continue de croître à un rythme rapide. Le défi auquel sont désormais confrontées les entreprises est de trouver un moyen d’exploiter la puissance de l’IA sans violer leurs responsabilités ESG. Trouver un équilibre commence par reconnaître les dangers de l’IA générative et s’engager à adopter une approche de précaution lors de son déploiement.