juin 7, 2025
LA SOCIÉTÉ "MY MEDIA GROUP " SOCIÉTÉ ÉDITRICE DU QUOTIDIEN "DAKARTIMES" DERKLE CITE MARINE N° 37. EMAIL: courrierdkt@gmail.com. SITE WEB: www.dakartimes.net.
A la une

SÉNÉGAL : An zéro de l’intelligence artificielle

Au Séné Le Sénégal est très en retard dans le domaine de l’intelligence artificielle (IA). Dans les pays développés, les étudiants sont mis en concurrence pour développer des applications d’IA. Il s’agit d’un domaine qui a révolutionné le digital. L’Intelligence artificielle sert l’éducation, la santé, la sécurité, le commerce, le transport, bref tous les domaines. Le 17 Janvier 2022, le Recteur de I‘Université Cheikh AntaDIOP, Ahmadou Aly Mbaye, avait lancé un appel à candidatures pour le recrutement d’un enseignant-chercheur dans la spécialité Intelligence Artificielle/Deep Learning pour le compte du Département Génie Informatique de l’Ecole Supérieure Polytechnique. Des établissements de formation informatique comme, ESMT, ont créé des modules destinés à initier leurs auditeurs à l’IA. La société française basée au Sénégal, Atos, ainsi que les entreprises de télécommunication seraient très actives dans ce domaine. Toutefois, les autorités devraient engager des réformes pour introduire l’Intelligence Artificielle dans les modules de formation des étudiants dans toutes les universités pour anticiper sur l’avenir. Le Data center de Diamniadio, le projet « Smart Sénégal » et le programme «Sénégal numérique » devraient aussi servir à la recherche dans l’IA. Après la révolution industrielle et l’émergence d’internet, l’Intelligence Artificielle va révolutionner le monde, au moment où la classe politique sénégalaise s’occupe de petits détails sans importance pour l’avenir du pays.

gal, beaucoup sont ceux qui vont écarquiller les yeux, en quête d’une explication d’un expert ou personne ayant les connaissances dans le domaine, si on leur parle de l’intelligence artérielle. Avec l’évolution de la science et ses nombreuses inventions, l’intelligence artérielle a réussi aujourd’hui à avoir une place de choix dans bon nombre de pays où des gens font quotidiennement recours à elle pour diverses raisons. Mais, au Sénégal, cette invention de l’homme tarde encore à se développer. Le pays est trop en retard dans ce domaine.

Il n’est pas trop de dire que l’intelligence artificielle est en train de révolutionner le monde. C’est le cas avec une application telle que CHAT GPT, qui a récemment vu le jour. ChatGPT est un chatbot IA avancé formé par OpenAI qui interagit sous une forme conversationnelle en utilisant la technologie puissante de GPT-3.5. Avec sa capacité à répondre aux questions de suivi, à admettre ses erreurs et à traiter les questions de prémisse incorrectes, ChatGPT offre une expérience de conversation naturelle et immersive. Le modèle GPT-3.5 repose sur la révolutionnaire notion d’attention et utilise un réseau de neurones complexe pour générer des réponses pertinentes et précises.

D’autres plateformes ont été inventées et font des « merveilles » pour ceux qui les utilisent.

Qu’est-ce-que l’intelligence artificielle ?

Dans une interview publiée par le centre « Wathi », au mpis de juillet 2021, le sénégalais Dia Ndiaye, alors étudiant à l’École polytechnique de Paris X, en France, où il étudie l’intelligence artificielle appliquée au secteur des télécommunications, explique l’intelligence artificielle.

Dans ses explications, il souligne que l’intelligence artificielle (IA) est une technique qui permet aussi bien au robot qu’à une voiture, un moteur de recherche, ou même un téléphone portable, d’exécuter des tâches habituellement réalisées par des humains. Elle existe grâce à des systèmes informatiques qui fonctionnent à l’aide d’un algorithme, des programmes qui sont écrits et qui exécutent certaines tâches qui sont définies par les auteurs de ce programme.

Un programme doté d’une intelligence artificielle peut réussir à analyser ou identifier des visages, ou réussir à analyser des paramètres pour en choisir ceux qui sont optimaux afin de résoudre des problèmes. Il peut prédire un phénomène ou  prédire les prix des actions d’une entreprise sur les marchés financiers par exemple.

Sur les prérequis qu’il faut pour se former et devenir un expert en intelligence artificielle, Dia Ndiaye estime qu’il faut des connaissances  de base, à priori, avant de s’engager dans l’apprentissage de l’IA. En particulier, il faut avoir certaines connaissances en langages de programmation, notamment Python qui est le langage de référence ou l’un des langages de référence en IA. Il faut aussi avoir des compétences en langage « R » et des compétences en statistiques. Une personne désireuse de se former en IA doit avoir certaines notions et capacités d’analyse et d’interprétation des données.

Face à une courbe tracée, il faut être capable de dire quelle est l’intuition qui se cache derrière les données ou quelle conclusion tirer en observant l’évolution de cette courbe avant même de s’avancer à développer des modèles d’IA. Cette étape est très importante et il faudra avoir des compétences de base, complétées par les statistiques, les compétences en langages de programmation et langages basiques pour y arriver.

S’agissant des formations en matière de IA, Dia Ndiaye a souligné que, aujourd’hui, le domaine de l’IA connait un essor, que ce soit sur le marché de l’emploi, dans les entreprises, les startups, les institutions, etc. Nous pouvons dire que c’est un secteur qui connait une croissance fulgurante. Ceci dit, il est facile de se former, soit dans les écoles de formation, soit en “open source” sur Internet, où des fora de formation sont organisés.

Il y a par exemple la plateforme Github que des milliers de personnes rejoignent chaque jour pour se former. Il y a également la plateforme Kaggle totalement orientée vers la science des données, une branche de l’IA, dans laquelle des personnes collaborent dans des projets.

Il est donc facile, sans même se rendre dans une école de formation, de se former en IA. Mais, nous sommes dans un monde dans lequel les diplômes sont requis pour attester de la connaissance et de la maitrise d’un domaine. A un certain moment, la nécessité de s’orienter vers une école s’impose aux apprenants. Il leur faut s’inscrire dans une école de formationpour avoir un diplôme reconnu.

Des écoles proposent plusieurs formations structurées, en partenariat avec des entreprises ou avec des centres de recherche afin d’offrir aux étudiants la possibilité de travailler sur des cas réels pour allier la pratique à la théorie. Mieux encore, des initiatives sont lancées un peu partout. Au Sénégal, l’initiative dénommée Institut des algorithmes du Sénégal a récemment été lancée. Cette initiative est une plateforme en ligne qui a été créée par des jeunes sénégalais vivant en France pour permettre aux étudiants sénégalais, et africains en général, de s’orienter vers les métiers du numérique, dont l’IA.

Interpellé sur ce que peuvent faire les pouvoirs publics pour accompagner les jeunes intéressés par les métiers de l’IA, M. Ndiaye dit : Nous sommes aujourd’hui dans un monde du numérique. Il faudrait commencer par la base. Il ne faut pas attendre l’université pour initier les jeunes aux métiers du numérique. Il faudrait commencer plus tôt au lycée. Il faudrait, pour se former en IA, avoir certaines notions de base dans les langages de programmation. Il faudrait, dès le lycée, intégrer quelques cours sur les langages de programmation ou quelques notions de base dans le cursus scolaire des jeunes. Ensuite, une fois à l’université, il s’agira de renforcer ces prérequis orientés vers le numérique, vers l’intelligence artificielle. Il faut donc donner aux jeunes les compétences nécessaires et adopter les dispositions idoines pour ce faire.

Aujourd’hui, les jeunes sont innovants et ont vraiment l’esprit entrepreneurial. Mais ce qui pose problème, c’est le défaut d’encadrement et le développement des compétences. Malgré ces contraintes, rappelons que des jeunes se forment de manière autodidacte sur les plateformes en ligne et sont en train d’innover, de créer, d’apporter des solutions fantastiques.

Par exemple, un jeune sénégalais Djimm Momar Lo, a développé très récemment un détecteur de somnolence. Il a utilisé des techniques de l’intelligence artificielle pour développer un outil qui permet aux conducteurs d’éviter les accidents. L’outil installé sur le pare-brise de la voiture, dispose d’une caméra qui capte les regards du conducteur. Lorsque ce dernier ferme ses yeux durant cinq secondes environ, une alarme retentissante se déclenche pour signaler l’état de somnolence.

Ceci pour dire que les jeunes sont partants pour se former et innover. Mais il faudrait qu’il y ait une politique d’accompagnement pour créer un environnement favorable afin de permettre aux jeunes de développer leurs projets de manière optimale. La plupart ont du mal à démarrer leurs projets, en raison des soucis techniques, mais aussi à cause d’un manque de financement. Aujourd’hui, l’État doit initier des politiques dans ce sens et les adapter aux besoins et aux réalités du Sénégal.

Par rapport à l’application de Djimm Momar Lo, nous voyons qu’au Sénégal, nombreux sont les “cars-rapides” qui circulent et dont il n’est pas possible d’intégrer un dispositif de somnolence de la même manière qu’une voiture BMW. Donc, il fallait créer un nouvel outil adapté à ce besoin local. Et c’est ce qui doit-être fait.

J’appelle l’État, les pouvoirs publics et les institutions africaines à agir dans ce sens. Encadrer les jeunes, offrir un meilleur cadre favorable à l’évolution de la jeunesse dans les domaines du numérique, dans les domaines de l’intelligence artificielle. Ce sont des domaines prometteurs. En œuvrant de la sorte, cela permettra de résoudre le problème du chômage et de garantir aux jeunes de l’emploi. Cela permettra aussi à nos pays africains, au Sénégal en particulier, d’avoir leur place dans la création de multinationales dans le monde du numérique.

 

…………………………

Intelligence artificielle pour le développement en Afrique (IAD Afrique) 2020-2024

L’intelligence artificielle pour le développement en Afrique (IAD Afrique) pour la durée 2020-2024 est une proposition d’initiative d’IAPD du  Centre de recherches pour le développement international (CRDI), Canada et  l’Agence suédoise de coopération internationale au développement (Asdi), Suède.

Dans ce rapoport, les le Crdi et l’Asdi indiquent que l’intelligence artificielle (IA) aura une profonde influence, tant positive que négative, sur la capacité à réaliser le programme de développement durable de 2030 dans les pays à faible et moyen revenu en Afrique. En tirant parti de la propagation rapide des infrastructures de communication, des gains en puissance de calcul et de lémergence des grandes données, lIA offre des possibilités passionnantes pour promouvoir la croissance économique et résoudre les principaux problèmes de développement dans le Sud. Les progrès récents dans les techniques dapprentissage machine spécifiques, comme lapprentissage en profondeur, ont considérablement accéléré la puissance et la portée de ces applications.  

Dans toute lAfrique, il existe une communauté florissante de scientifiques, dinformaticiens et dexperts en apprentissage automatique qui explorent lapplication de lIA pour résoudre les problèmes locaux. Par exemple, Zipline, une initiative de drones basée sur lIA, fournit du sang dans les situations médicales urgentes, ce qui a permis de réduire la mortalité maternelle au Rwanda. Agrix Tech, une entreprise camerounaise en démarrage qui a lancé sa plate-forme en janvier 2020, vise à aider les agriculteurs africains à détecter les maladies végétales et à proposer des traitements chimiques et physiques ainsi que des mesures de prévention. De plus, lentreprise kenyane M-Shule utilise lIA et les SMS pour offrir une éducation personnalisée et accessible aux élèves de niveau primaire dans toute lAfrique. Lenthousiasme et le large spectre des applications sont attestés lors des événements très populaires Deep Learning Indaba et Data Science Africa, lesquels rassemblent des centaines de praticiens de lensemble du continent pour apprendre et transmettre des connaissances.  

Outre lenthousiasme et le potentiel de lIA pour contribuer à des solutions et des approches nouvelles aux défis locaux, on craint que si lIA est appliquée dans certains contextes sans politiques et garanties appropriées, elle puisse menacer les droits de lhomme, exacerber les inégalités existantes et soulever dimportantes questions éthiques. De plus, ces risques augmentent dans les contextes où la capacité institutionnelle à gouverner et à réglementer lIA pour garantir la protection des droits fondamentaux comme la vie privée est limitée. La situation est également contestée par un contexte de répartition très inégale des infrastructures, des ressources et des talents, ce qui limite la capacité des citoyens touchés par lIA à avoir leur mot à dire dans les décisions concernant les applications qui seront mises au point, la manière dont elles seront mises au point, et à qui elles seront destinées. Linégalité des ressources et des capacités, ainsi que labsence de voix, augmente la probabilité de renforcer les inégalités structurelles et les préjugés existants.  

Une des principales inégalités, en particulier entre le Nord et le Sud, est la disponibilité densembles de données pertinents pour la formation aux algorithmes dapprentissage automatique (AA). Sans ensembles de données pertinents, la majorité des applications dIA sont dénuées de sens. Jusquà présent, les chercheurs, les praticiens et les entreprises dAmérique du Nord, dEurope et de certaines régions dAsie ont rassemblé les ensembles de données de base recueillis et utilisés pour former des algorithmes, dont beaucoup ont une propriété exclusive à des fins commerciales et ne sont donc pas disponibles pour un usage public. Les ensembles de données accessibles au public contiennent les données les plus facilement disponibles et collectées, et sont souvent échangés avec des licences ouvertes afin de réduire les coûts de collecte et détiquetage. Cependant, ces ensembles de données ne sont souvent ni pertinents ni représentatifs du Sud. Par exemple, un algorithme dAA fournit des diagnostics moins précis du cancer de la peau pour les personnes à la peau plus foncée. Dans un autre exemple, 600 000 images sont retiréesdImageNet, lensemble de données de base pour la reconnaissance dimages, en raison de préjugés raciaux. La conséquence est que les futurs apprentis machines doivent à la fois créer des ensembles de données et former des modèles pertinents au niveau local, ce qui les désavantage considérablement par rapport aux autres chercheurs compte tenu du rythme de linnovation.

La puissance et la sophistication accrues des modèles dIA ont une incidence involontaire sur notre environnement. Certains modèles actuels, tels que les nouvelles approches du traitement du langage naturel, reposent sur des ressources de calcul exceptionnellement importantes qui ont malheureusement un coût énergétique énorme, et donc, souvent, une empreinte carbone importante. Par exemple, une expérience récente a montré que la formation dun modèle peut émettre autant de carbone que cinq voitures au cours de leur vie. Dans le contexte dune urgence climatique, il sagit dun domaine de plus en plus préoccupant dans le domaine de lIA, certains chercheurs appelant à une poussée vers lIA verte. Dans des contextes comme celui de lAfrique, qui a un accès inégal aux ressources énergétiques, les chercheurs innovent de nouveaux modèles de calcul à ressources plus faibles.

Politiques et réglementation en matière dIA

Alors que la demande et la mise en oeuvre des technologies de lIA augmentent, les décideurs politiques des gouvernements, des organismes de recherche et de la société doivent faire face aux avantages escomptés et aux conséquences involontaires des technologies de lIA, qui sont souvent complexes et interdisciplinaires. En Afrique, il y a un manque relatif de préparation politique à lIA (ainsi que dans une grande partie du monde développé et en développement). Par exemple, lindice de préparation à lIA a montré quà partir de 2019 :

Seuls deux pays du continent disposent de stratégies dIA (le Kenya et la Tunisie, en cours délaboration);
Plus de la moitié des pays africains nont pas de lois explicites sur la protection de la vie privée ou des données;
La Convention de lUnion africaine sur la cybersécurité et la protection des données à caractère personnel (Convention de Malabo) ne compte que 14 signataires et quatre ratifications.

Latelier de Nairobi a défini la nécessité de concevoir des cadres réglementaires adaptables et de faciliter lapprentissage de la réglementation dans le contexte africain, en se concentrant sur des paramètres clés comme les stratégies dIA, les lois sur la protection des données et la vie privée, et la manière de façonner une IA responsable en Afrique. Ces cadres devraient contribuer à instaurer la confiance grâce à une transparence et une responsabilité accrues des algorithmes. Enfin, il est nécessaire délaborer des méthodologies pour quantifier les dommages potentiels qui pourraient résulter de lutilisation non éthique de lIA par les gouvernements et par lindustrie en labsence de cadres éthiques pour régir lIA (par exemple, des algorithmes discriminatoires et la collecte de données prédatrices pour la cybercriminalité). Les principaux forums permettant dinfluencer et dencourager ladoption de politiques pourraient inclure la zone de libre-échange continentale africaine (ZLECA), lAUDA-NEPAD et linitiative de politique et de régulation pour lAfrique numérique (PRIDA).  

La filière politique IAPD travaillera avec les gouvernements du Sud, les think tanks, les universités et les institutions multilatérales pour soutenir les stratégies, les politiques et les réglementations mondiales, régionales et nationales qui garantissent que lIA est développée et déployée de manière responsable.

…………………………………………

Intelligence artificielle : 193 pays adoptent le premier accord sur l’éthique de l’IA (UNESCO)

Le monde a besoin de règles pour que l’intelligence artificielle profite à l’humanité et la Recommandation sur l’éthique de l’IA est une réponse forte, a déclaré jeudi la Directrice générale de l’UNESCO, Audrey Azoulay, en présentant la toute première norme mondiale sur l’éthique de l’intelligence artificielle (IA), qui a été adoptée par les États membres de l’UNESCO lors de la Conférence générale.

Ce texte historique énonce des valeurs et principes communs qui guideront la mise en place de l’infrastructure juridique nécessaire pour assurer un développement sain de l’IA.

Selon Mme Azoulay la Recommandation sur l’éthique de l’IA fixe le premier cadre normatif mondial « tout en donnant aux États la responsabilité de l’appliquer à leur niveau ». 

« L’UNESCO soutiendra ses 193 États membres dans sa mise en œuvre et leur demandera de rendre compte régulièrement de leurs progrès et de leurs pratiques. » a déclaré Audrey Azoulay, Directrice de l’UNESCO.

L’IA est omniprésente 

Qu’il s’agisse de réserver un vol, de diriger des voitures sans conducteur ou de personnaliser notre fil d’actualité du matin, l’IA intervient dans un grand nombre de nos habitudes quotidiennes. Elle participe également à la prise de décision des gouvernements et du secteur privé.  

Les technologies de l’IA donnent des résultats remarquables dans des domaines très spécialisés comme le dépistage du cancer et la création d’environnements inclusifs pour les personnes handicapées. Elle peut également contribuer à lutter contre des problèmes mondiaux tels que le changement climatique ou la faim dans le monde et aider à réduire la pauvreté en optimisant l’aide économique.

Mais cette technologie apporte également de nouveaux défis. On assiste à une augmentation des préjugés sexistes et ethniques, des menaces qui pèsent sur la vie privée, la dignité et la capacité d’agir, des dangers de la surveillance de masse et de l’utilisation accrue de technologies de l’IA peu fiables dans l’application de la loi, pour ne citer que quelques exemples. Jusqu’à présent, il n’existait aucune norme universelle permettant d’apporter une réponse à ces problèmes.

Contenu de la Recommandation

Selon l’UNESCO, la recommandation vise à concrétiser les avantages que l’IA apporte à la société et à réduire les risques qu’elle comporte. 

Elle veille à ce que les transformations numériques favorisent les droits de l’homme et contribuent à la réalisation des Objectifs de développement durable, en abordant les problématiques liées à la transparence, la responsabilité et la vie privée. 

Elle comprend des chapitres politiques orientés vers l’action sur la gouvernance des données, l’éducation, la culture, le travail, les soins de santé et l’économie.

Protection des données

La Recommandation appelle à aller au-delà de ce que les entreprises technologiques et les gouvernements font pour garantir aux individus une plus grande protection en assurant la transparence, la capacité d’agir et le contrôle de leurs données personnelles. Elle affirme que tous les individus devraient pouvoir accéder aux enregistrements de leurs données personnelles, et même les effacer. Elle prévoit également des actions visant à améliorer la protection des données et la connaissance qu’ont les individus de leurs propres données, ainsi que leur droit de les contrôler. Elle renforce également la capacité des organismes de réglementation du monde entier à faire respecter ces dispositions.

Interdiction de la notation sociale et de la surveillance de masse

La Recommandation interdit explicitement l’utilisation de systèmes d’IA pour la notation sociale et la surveillance de masse. Ces technologies sont très invasives, elles portent atteinte aux droits de l’homme et aux libertés fondamentales, et elles sont utilisées de manière généralisée. La Recommandation souligne que, lors de l’élaboration de cadres réglementaires, les États membres devraient tenir compte du fait que la responsabilité et l’obligation de rendre des comptes incombent toujours aux êtres humains en dernier ressort et que les technologies de l’IA ne devraient pas être dotées elles-mêmes d’une personnalité juridique. 

Aide au suivi et à l’évaluation

La Recommandation jette également les bases des outils qui contribueront à sa mise en œuvre. L’évaluation de l’impact éthique vise à aider les pays et les entreprises qui développent et déploient des systèmes d’IA à évaluer l’impact de ces systèmes sur les individus, la société et l’environnement. La méthode d’évaluation de l’état de préparation aide les États Membres à évaluer dans quelle mesure ils sont prêts en termes d’infrastructure juridique et technique. Cet outil contribuera à renforcer la capacité institutionnelle des pays et recommandera les mesures appropriées à prendre afin de garantir la mise en œuvre pratique de l’éthique. En outre, la Recommandation encourage les États Membres à envisager d’ajouter la fonction d’un responsable de l’éthique de l’IA indépendant ou un autre mécanisme pour superviser des audits et une surveillance continue. 

Protection de l’environnement

La Recommandation souligne que les acteurs de l’IA devraient privilégier les méthodes d’IA économes en données, en énergie et en ressources qui contribueront à faire de l’IA un outil majeur dans la lutte contre le changement climatique et la résolution de problèmes environnementaux. La Recommandation demande aux gouvernements d’évaluer l’impact environnemental direct et indirect tout au long du cycle de vie du système d’IA. Cela comprend son empreinte carbone, sa consommation d’énergie et l’impact environnemental de l’extraction des matières premières pour soutenir la fabrication des technologies d’IA. Elle vise également à réduire l’impact environnemental des systèmes d’IA et des infrastructures de données. Elle incite les gouvernements à investir dans les technologies vertes, et si les systèmes d’IA ont un impact négatif disproportionné sur l’environnement, la Recommandation préconise de ne pas les utiliser.

Pour des décisions équitables, transparentes et contestables

Les décisions qui ont un impact sur des millions de personnes doivent être équitables, transparentes et contestables, a affirmé la Sous-directrice générale de l’UNESCO pour les sciences sociales et humaines, Gabriela Ramos.

« Ces nouvelles technologies doivent nous aider à relever les grands défis de notre monde actuel, tels que l’accroissement des inégalités et la crise environnementale, et non les aggraver. » a déclaré Mme Gabriela Ramos.

L’UNESCO souligne que les technologies émergentes telles que l’IA ont prouvé leur immense capacité à faire le bien. Cependant, l’Organisation appelle à contrôler ses effets négatifs, qui exacerbent les divisions et inégalités existantes au niveau mondial.

Les avancées en matière d’IA doivent respecter l’état de droit, en évitant de faire du tort et en veillant à ce que, lorsqu’il y a préjudice, des mécanismes de responsabilité et de réparation soient à la disposition des personnes concernées, soutient l’UNESCO.

Source : ONU

…………………………………………………………………………………

Les risques de l’intelligence artificielle

Selon l’ONU, l‘intelligence artificielle pourrait avoir des effets négatifs, voire catastrophiques si elle est utilisée sans prendre suffisamment en compte la manière dont elle affecte les droits humains.

Récemment, la plateforme « Arcturius » a identifié  3 grands risques de l’intelligence artificielle. Et c’est pour dire que l’intelligence artificielle fait fureur. Ce qui était jusqu’à présent en sommeil a fourni de grandes avancées que les citoyens ordinaires peuvent utiliser. Cependant, cela implique aussi des risques.

L’intelligence artificielle est prometteuse. Mais ses progrès contiennent aussi une série de dangers vraiment transcendants qui méritent réflexion. Les progrès sont si étroitement liés à la technologie que dans de nombreux contextes, nous commençons à oublier qu’il s’agit de deux dimensions distinctes, alors que les effets secondaires de certains dispositifs commencent à être vraiment importants.

Hayden Belfield, scientifique au Centre d’étude du risque existentiel de l’Université de Cambridge, ne reconnaît que deux inventions/découvertes transcendantales pour notre évolution : l’invention du feu et la découverte de l’énergie nucléaire.

L’intelligence artificielle pourrait être la troisième. Pourquoi ? Principalement à cause des risques encourus. Nous allons ici parler des plus importants.

« Aujourd’hui est le moment où nous construisons notre avenir, et aujourd’hui est le plus grand défi que la race humaine ait jamais eu à relever : la possibilité qu’une sorte de surhomme devienne Dieu est sans précédent », selon Gerd Leonhard.

Le contrôle accru, un des risques de l’intelligence artificielle

Pour de nombreux experts, nous ne sommes pas loin de voir une ingénierie dotée d’une « super intelligence ». C’est-à-dire que nous parlons de machines intelligentes au sens intégral : des appareils dotés d’une technologie capable de traiter l’information comme le fait le cerveau humain , avec peu d’informations, en considérant des entités et en travaillant de manière contextuelle. Mais mieux, et plus rapidement.

Le professeur Nick Bostrom de l’Université d’Oxford souligne que nous sommes proches d’une « explosion intelligente ». En d’autres termes, un saut dans lequel les machines auront un nouveau type de vie intelligente. Cela arrivera lorsque ces appareils deviendront autonomes.

Cela conduirait inévitablement à une situation dans laquelle les machines auraient plus de pouvoir. Elles seraient capables de contrôler des aspects de la vie quotidienne et auraient la capacité d’effectuer une surveillance sans précédent sur les humains. Les conséquences sont imprévisibles.

Les progrès de l’intelligence artificielle font des pas de géant, de sorte que l’ingénierie « super intelligente » serait déjà à nos portes.

Le déclin de certains attributs humains

Gerd Leonhard, auteur d’un essai intitulé L’Humanité Face à la Technologie – Homme/machine : le choc à venir, estime qu’il ne faudra pas longtemps avant que les machines soient capables de comprendre les émotions humaines et développent une intelligence sociale. À ce stade, elles auraient tous les outils pour devenir des « super intelligences ».

Ce qui est évident, c’est qu’elles commencent à se connecter les unes aux autres et à concevoir une réalité appropriée pour garantir leur propre évolution. La question est de savoir si les machines s’adapteront aux humains ou exigeront que les humains s’y adaptent. C’est un dilemme éthique qui sera probablement résolu dans une froideur absolue.

Pendant ce temps, nous assisterons au déclin de certains attributs qui nous amènent à dire « je suis humain ». Par exemple, la possibilité de faire des erreurs, d’être inefficace ou d’être surpris par des mystères. Dans quelques temps, cela sera-t-il considéré comme un échec inadmissible ?

Erreur et manque de neutralité

Un autre des grands risques de l’intelligence avancée réside dans le fait que, de toute façon, il y a encore du chemin à parcourir avant qu’elle ne devienne une « super intelligence ». Au cours de cette trajectoire, de graves échecs peuvent survenir et générer de grands problèmes pour l’humanité.

L’un d’eux est que les machines sont de plus en plus capables de créer des situations fictives, de manière presque parfaite. Par exemple, nous sommes à un pas de pouvoir modifier l’image d’une personne sur vidéo et adapter les gestes du visage pour qu’ils correspondent à des mots qu’elle n’a jamais prononcés. En d’autres termes, il est de plus en plus facile de déformer la réalité et de créer, entre autres, de fausses nouvelles.

À cela s’ajoute le fait que la technologie n’est pas neutre. On l’a vu dans le cas de juges aux États-Unis qui utilisent ces renseignements et finissent par évaluer les citoyens afro-américains plus sévèrement que les autres. Les algorithmes sont plus ou moins conçus pour cela.

D’autres risques d’intelligence artificielle

Ce ne sont là que quelques-uns des risques de l’intelligence artificielle. Cependant, il y en a probablement beaucoup d’autres que nous ne sommes même pas en mesure d’identifier, car ils dépendront essentiellement des décisions que nous prendrons en tant qu’humanité, concernant les limites que nous voulons imposer.

En revanche, il est fort probable que le monde du travail que nous connaissons aujourd’hui sera très différent de celui que nous verrons dans une décennie : des métiers traditionnels vont disparaître et d’autres vont apparaître.

De plus, peut-être que les personnes qui auront les compétences nécessaires pour faire des affaires en exploitant pleinement le potentiel de cette évolution technologique seront plus valorisées.

…………………………………………………………………………….

A quoi sert l’IA dans les médias : débrief de la Maddy Keynote

De la lutte contre les fake news à la monétisation d’anciens contenus vidéo ou la mondialisation des audiences, l’intelligence artificielle pourrait complètement transformer la façon dont les médias fonctionnent et gagnent de l’argent. C’était le sujet d’une conversation lors de la Maddy Keynote2021.

Qu’elle joue au jeu de go, conduise des voitures ou apprenne à parler, l’intelligence artificielle est désormais omniprésente et profite à un large éventail de secteurs. Comme beaucoup d’autres, le secteur des médias a déjà été radicalement modifié par l’essor d’Internet et des nouvelles technologies. Il est donc d’autant plus logique de réfléchir à ce qui nous attend, et il ne fait aucun doute que l’intelligence artificielle jouera un rôle important.

Trois professionnels du secteur étaient réunis à la Maddy Keynote 2021 pour discuter de ce sujet. Guillaume Doret, PDG de Synchronized, Arnaud Mopin, Directeur de l’innovation du groupe TF1 et Jean-Philippe Poirault, Directeur du marché Télécom, Médias & Technologies chez Atos.

Monétiser les anciens JT

Selon Guillaume Doret, l’intelligence artificielle offre aux chaînes d’information une formidable opportunité d’indexer et de monétiser leurs archives vidéo.

« Pour l’instant, une vidéo n’est qu’un fichier avec un nom. Lorsque vous l’ouvrez, vous ne voyez que des données cryptées, ce qui est une occasion manquée, car cela vous empêche de naviguer à l’intérieur du fichier et d’en extraire des informations pertinentes ». Par exemple, si les informations diffusées le 15 avril 2019 peuvent être dépassées et non pertinentes, il se trouve que c’est aussi le jour où Notre-Dame a brûlé, ce qui peut encore s’avérer précieux aujourd’hui.

« Actuellement, vous pouvez indexer manuellement la vidéo, mais c’est un processus lourd et coûteux, qui n’est donc pas évolutif. Avec l’intelligence artificielle, vous pouvez rechercher automatiquement le fichier, trouver la séquence recherchée et la monétiser. C’est le genre de solutions que nous proposons chez Synchronized », a-t-il expliqué.

Non seulement l’intelligence artificielle peut rechercher des informations spécifiques dans la vidéo, mais elle peut aussi mettre ces informations en forme.

« Nous travaillons actuellement sur une technologie permettant de générer automatiquement une bande-annonce. C’est un grand défi pour les plateformes de streaming, qui ont parfois une bibliothèque de 10 000 films. En partant du film entier, l’intelligence artificielle peut faire de la rétro-ingénierie et en tirer instantanément une version de 30 secondes. Vous disposez alors d’une bande-annonce qui aurait autrement nécessité au moins deux jours et beaucoup d’argent pour être produite, ce qui est très utile lorsque vous traitez d’énormes volumes de données », explique Guillaume Doret.

Repérer les fake news

Un autre défi auquel l’industrie des médias est actuellement confrontée, bien sûr, est celui des fake news. Selon Jean-Philippe Poirault, l’intelligence artificielle peut aider en s’assurant qu’une information provient d’une source fiable. « Internet et les nouvelles technologies ont donné une voix à tout le monde. Nous sommes tous capables de diffuser des vidéos en direct, par exemple, ce qui est une formidable opportunité mais aussi un défi, car il est difficile de savoir ce qui est une information fiable et ce qui ne l’est pas. L’intelligence artificielle peut vous aider à savoir qui est la personne qui diffuse et ce qu’elle a fait auparavant. Elle peut également vous aider à voir tout le parcours de la vidéo que vous regardez, du début à la fin, et ainsi savoir s’il y a eu falsification, manipulation ou non. Chez Atos, nous fournissons cette solution à certains médias ».

« Maintenant, disons que vous regardez un débat entre deux politiciens qui se disputent sur une statistique spécifique. Les deux insistent sur le fait qu’ils ont raison. Lequel d’entre eux dit la vérité ? Cela peut s’avérer très frustrant. L’intelligence artificielle peut fournir quelques informations de base. À TF1, nous étudions comment l’intelligence artificielle peut vérifier les faits pendant un débat en direct. À l’avenir, de la même manière que Word souligne un mot en rouge lorsque l’orthographe n’est pas correcte, vous pourrez voir l’information en bas de l’écran, en vert si elle est vraie, en rouge si elle ne l’est pas », explique Arnaud Mopin, directeur de l’innovation du groupe TF1.

Une évolutivité accrue

Enfin, l’intelligence artificielle apporte aux entreprises de médias une certaine évolutivité. « Pendant les Jeux olympiques et paralympiques de Tokyo 2020, plus de 100 millions d’événements en direct ont été diffusés en toute sécurité sur différents médias dans le monde. Il faut absolument de l’intelligence artificielle pour gérer ce genre de volume et distribuer les contenus de manière fiable » explique Jean-Philippe Poirault.

Alors que la 5G se généralise, l’edge computing aidera les entreprises de médias à aller encore plus loin en matière d’évolutivité. « Aujourd’hui, 80% des données sont traitées dans les centres de données et 20% en périphérie. À l’avenir, ce sera l’inverse. Cela signifie que pour capturer un événement en direct, vous serez en mesure d’utiliser des nœuds d’ordinateurs travaillant en périphérie, ce qui réduira considérablement la quantité de matériel coûteux et encombrant dont vous avez aujourd’hui besoin pour pouvoir diffuser. Cela entraînera une explosion du nombre d’événements en direct partagés et permettra à certains petits événements régionaux d’être diffusés dans le monde entier et d’augmenter leurs revenus. Ajoutez à cela la possibilité d’accroître la personnalisation grâce à l’intelligence artificielle, en ciblant un contenu spécifique pour un public précis, ainsi que des technologies telles que la réalité virtuelle et augmentée, et vous commencez à entrevoir un paysage médiatique qui sera radicalement différent », prédit Jean-Philippe Poirault.

Selon lui, un défi important auquel les entreprises médiatiques seront confrontées dans les années à venir est le rôle clé que jouent déjà les grandes entreprises technologiques américaines en matière de réglementation de l’information. « Nous avons vu récemment, par exemple, comment Facebook a désactivé les comptes de certaines personnes en Afghanistan afin que les talibans ne puissent pas les cibler. Ces grandes entreprises technologiques deviennent centrales dans la diffusion et la régulation de l’information. Est-ce vraiment leur rôle ? Je ne sais pas, mais c’est une discussion que nous devrons certainement avoir», a-t-il conclu.

SOURCE : ATOS

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *