Lexmag Numéro 6 spécial été - Magazine - Page 19
sur ces questions. Que faudrait-il, selon vous, pour
que l’IA s’intègre dans une transition juste, durable,
compatible avec nos enjeux de société ?
relation, de l’écoute, de l’accompagnement.
Il y a bien sûr une grande part d’expertise dans
la fonction d’avocat, une rigueur, une technicité.
Mais je doute que ce soit la partie la plus di昀케cile.
Ce qui me semble le plus délicat, c’est justement
cette exposition émotionnelle : on rencontre des
clients dans des contextes douloureux, on entend
des récits chargés d’angoisse ou d’injustice. Il
faut être capable d’écouter profondément, de
comprendre au-delà des mots, de démêler « la
pelote ». Tout cela exige beaucoup d’ouverture,
d’attention, de patience.
C’est une très vaste question. Mais je crois que
l’une des premières choses, c’est d’adopter une
posture méta, ré昀氀exive, constante. L’IA peut être
un formidable outil — mais aussi un risque.
Et il faut garder à l’esprit ce double visage. J’aime
beaucoup un concept grec que m’a rappelé un
formateur : le « pharmakon », qui désigne à la
fois le poison et le remède, et que le philosophe
Bernard Stiegler a appliqué à la technologie.
L’IA, c’est exactement cela.
Et en même temps, il faut garder une certaine
solidité intérieure. Ne pas devenir une éponge
émotionnelle. Pouvoir être là pour l’autre sans
se laisser envahir. Cela suppose une vraie
connaissance de soi, de ses limites, de ses
ressources, et une capacité à se ressourcer. Sinon,
le risque de burn-out est réel — et je sais qu’il existe
déjà dans la profession.
L'IA peut être à la
" fois un poison et
un remède. Tout
dépend de nous.
Sur le plan environnemental, il est évident que l’IA a
un coût. Elle consomme énormément d’énergie, de
ressources, d’eau, de métaux rares. Cela contribue
aux émissions de gaz à effet de serre. Donc oui, il y a
un impact écologique très concret et préoccupant.
Face à cela, il faut absolument que les acteurs
économiques, et surtout les législateurs, prennent
leurs responsabilités. On ne peut pas laisser le
développement de l’IA se faire au détriment du
climat. Il faut encadrer, contraindre, si nécessaire,
réduire les effets négatifs.
Mais en parallèle, l’IA peut aussi aider — si elle
est bien orientée. Elle peut améliorer la collecte
et l’analyse des données environnementales,
anticiper certains risques, faciliter l’adaptation au
changement climatique. Il faut 昀椀nancer, valoriser
ces usages vertueux. Encourager une IA au service
du vivant, pas de sa destruction.
"
Oui, clairement. Et je trouve que ce que vous dites
sur la solidité intérieure est fondamental. On ne
nous prépare pas à ça. Ni à l’école ni à la fac. Alors
que c’est probablement ce qui fait la différence sur
la durée.
Et sur le plan social, c’est la même ambivalence.
L’IA peut automatiser des tâches, libérer du temps
pour des activités à plus forte valeur humaine. Mais
elle peut aussi fragiliser des emplois, exclure ceux
qui ne sont pas formés, accroître les inégalités.
Je voudrais revenir sur l’intelligence arti昀椀cielle,
mais cette fois sous l’angle de ses impacts
environnementaux et sociaux. Vous travaillez aussi
19