Le facteur humain
Je n'écris pas ausssi souvent qu'initialement prévu sur ce blog, et j'en suis navré. Ceci étant dit, il y a un sujet sur lequel j'aimerais intervenir même si on ne m'a rien demandé, c'est le facteur humain, ou plutôt le PFH selon cet illustre astrophysicien : interview d'Hubert Reeves sur France Inter
En tant que simple citoyen / artiste / informaticien, je vous soumets cette liste de questions / réponses en lien avec ce que j'ai pu observer sur l'IA et notamment l'IA générative :
Qui décide de commercialiser un outil imparfait dans ses réponses ?
Qui décide de commercialiser un outil non maitrisé à 100% (loin de là) ?
Qui décide de commercialiser un outil dont la consommation de ressources est le contraire d'optimisée ?
Qui décide d'utiliser un tel outil à des fins (au choix), de propagande (fake news, faux sites, narratifs et toute cette novlangue, appelons un chat un chat), de (cyber-) malveillance, de pornographie illégale ou à la limite, j'en passe et des meilleures ... ?
Qui décide de baser l'entrainement sur des datasets contenant des éléments non libres de droits sans même consulter les sources, à fortement parler quand les ayants-droits sont encore en vie ?
Qui décide d'optimiser ses workflow à tous les niveaux pour in fine licencier massivement des gens classés dans la catégorie pas de valeur ajoutée ?
Qui décide de passer outre les législations qui existent déjà ?
Qui traine volontairement, voire dérégule ce qui est déjà régulé, dans l'adaptation et la création des lois ?
Qui décide, en pleine conscience de ses moyens, et en connaissances des éléments ci-dessus, de bien suivre le mouvement général et d'y aller quand même ?
Ce que je veux dire, c'est que cette technologie est formidable, est révolutionnaire, peut apporter de la plus value. En revanche, il ne faut pas accuser le marteau si on se le fout soi-même dans l'oeil.
In English :
I don't write on this blog as often as I initially planned, and I'm sorry about that. That being said, there's one topic I'd like to weigh in on even though nobody asked me—it's the human factor, or rather the FHF (Fucking Human Factor) according to this illustrious astrophysicist: Hubert Reeves interview on France Inter
As a simple citizen / artist / IT professional, I'm submitting this list of questions / answers related to what I've observed about AI and particularly generative AI:
Who decides to commercialize a tool that's imperfect in its responses?
Who decides to commercialize a tool that's far from 100% mastered (nowhere near it)?
Who decides to commercialize a tool whose resource consumption is the opposite of optimized?
Who decides to use such a tool for purposes (take your pick) of propaganda (fake news, fake sites, narratives and all that newspeak—let's call a spade a spade), (cyber-)malicious activity, illegal pornography or borderline stuff, and so on and so forth...?
Who decides to base training on datasets containing non-copyright-free elements without even consulting the sources, especially when the rights holders are still alive?
Who decides to optimize their workflows at every level to ultimately lay off masses of people classified as having no added value?
Who decides to bypass existing legislation?
Who deliberately drags their feet, or even deregulates what's already regulated, when it comes to adapting and creating laws?
Who decides, fully aware of their means and knowing all the above elements, to just go with the flow and do it anyway?
What I'm getting at is that this technology is fantastic, revolutionary, and can bring added value. However, you can't blame the hammer if you shove it in your own eye.
Comments ()