882 shaares
882 results
L'intelligence artificielle (IA) se réveille et frappe à votre porte. Engourdi pendant près 60 ans plus tard dans une période de moindres recherches et de faibles financements alloués aux innovations, l'hiver de l'IA est enfin terminé. 83 % des entreprises interrogées considèrent l'intelligence artificielle comme une priorité stratégique et 75 % déclarent que l'intelligence artificielle est la clé pour identifier de nouveaux clients et de nouvelles entreprises. L'intelligence artificielle n'est plus un produit de science-fiction. De la détection des fraudes aux méthodes d'embauche efficaces, en passant par la prévision de la maintenance des machines, l'intelligence artificielle est aujourd'hui devenue un facteur d'innovation dans le monde du travail et ses applications quotidiennes.
L’IA CONTRE LA SOCIÉTÉ
Le discours porté par les pouvoirs économiques et politiques qui la soutiennent est bien rodé : l’intelligence artificielle (IA) constitue une rupture majeure à laquelle il faut s’adapter, en limitant ses éventuels méfaits – présentés comme autant de défis.
Fenêtre sur... (mini dossier) par Amélie Hart et Christophe Cailleaux, du secteur Contenus du SNES-FSU dans l'USMag n°844, avril 2024 ~ #IA #EMC
https://nuage.snes.edu/s/MCywbWrMcdkNfMC
Le discours porté par les pouvoirs économiques et politiques qui la soutiennent est bien rodé : l’intelligence artificielle (IA) constitue une rupture majeure à laquelle il faut s’adapter, en limitant ses éventuels méfaits – présentés comme autant de défis.
Fenêtre sur... (mini dossier) par Amélie Hart et Christophe Cailleaux, du secteur Contenus du SNES-FSU dans l'USMag n°844, avril 2024 ~ #IA #EMC
https://nuage.snes.edu/s/MCywbWrMcdkNfMC
Comment permettre à l’Homme de garder la main ? Rapport sur les enjeux éthiques des algorithmes et de l’intelligence artificielle
15 décembre 2017
La CNIL publie le rapport de synthèse du débat public qu’elle a animé sur les enjeux éthiques des algorithmes et de l’intelligence artificielle. Isabelle FALQUE-PIERROTIN, présidente de la CNIL, le présente aujourd’hui en présence de Mounir MAHJOUBI, Secrétaire d’Etat chargé du Numérique et de Cédric VILLANI, Député, chargé par le gouvernement d’une mission sur l’intelligence artificielle.
15 décembre 2017
La CNIL publie le rapport de synthèse du débat public qu’elle a animé sur les enjeux éthiques des algorithmes et de l’intelligence artificielle. Isabelle FALQUE-PIERROTIN, présidente de la CNIL, le présente aujourd’hui en présence de Mounir MAHJOUBI, Secrétaire d’Etat chargé du Numérique et de Cédric VILLANI, Député, chargé par le gouvernement d’une mission sur l’intelligence artificielle.
S'il y a un domaine des sciences du numérique qui a connu une expansion foudroyante dans les dernières décennies, c'est bien l'intelligence artificielle, au point qu'elle est partout aujourd'hui ! Nous revenons ici sur son histoire pour mieux comprendre les défis qui nous attendent dans les années à venir...
Introduction
L’intelligence artificielle (IA) est contemporaine de l’informatique. Elle est née au cours des années 1950, avec de jeunes chercheurs tels que John McCarthy, Marvin Minsky, Claude Shannon. À la même époque, le mathématicien anglais Alan Turing posait la question centrale qui attend toujours une réponse : « Une machine peut-elle penser ? ».
L’IA est un domaine de recherche-développement (R&D) qui cherche à reproduire sur une machine les processus perceptifs et cognitifs de l’animal ou de l’humain (raisonnement, prise de décision, reconnaissance de formes : parole, images). On parle maintenant d’IA au pluriel. Une IA est un artefact visant à résoudre un problème spécifique tel que reconnaître la parole, traduire un texte, etc.
La naissance « officielle » de l’IA fut précédée d’une longue période de gestation. Les développements théoriques et pratiques sur les automates d’une part, et les travaux en logique mathématique d’autre part, en constituent les fondements.
L’IA s’est ensuite développée en se fondant sur trois grands types de modèles : les modèles symboliques, les modèles statistiques et les modèles connexionnistes. Ces modèles sont brièvement rappelés ci-dessous. L’utilisation des modèles génératifs pose des questions juridiques et éthiques abordées à la fin de cet article.
Les modèles d’IA
Introduction
L’intelligence artificielle (IA) est contemporaine de l’informatique. Elle est née au cours des années 1950, avec de jeunes chercheurs tels que John McCarthy, Marvin Minsky, Claude Shannon. À la même époque, le mathématicien anglais Alan Turing posait la question centrale qui attend toujours une réponse : « Une machine peut-elle penser ? ».
L’IA est un domaine de recherche-développement (R&D) qui cherche à reproduire sur une machine les processus perceptifs et cognitifs de l’animal ou de l’humain (raisonnement, prise de décision, reconnaissance de formes : parole, images). On parle maintenant d’IA au pluriel. Une IA est un artefact visant à résoudre un problème spécifique tel que reconnaître la parole, traduire un texte, etc.
La naissance « officielle » de l’IA fut précédée d’une longue période de gestation. Les développements théoriques et pratiques sur les automates d’une part, et les travaux en logique mathématique d’autre part, en constituent les fondements.
L’IA s’est ensuite développée en se fondant sur trois grands types de modèles : les modèles symboliques, les modèles statistiques et les modèles connexionnistes. Ces modèles sont brièvement rappelés ci-dessous. L’utilisation des modèles génératifs pose des questions juridiques et éthiques abordées à la fin de cet article.
Les modèles d’IA
Franceinfo publie un recensement inédit des décharges d'explosifs immergées, en collaboration avec les équipes de l'émission "Vert de rage" diffusée sur France 5.
Le professeur de stratégie Jérôme Barthélemy rapporte, dans une tribune au « Monde », une expérience d’utilisation de ChatGPT éclairante quant à ses effets sur l’emploi.
« Si l’intelligence artificielle générative présente des atouts pour les entreprises, il ne faut pas oublier qu’elle reste une boîte noire »
« Si l’intelligence artificielle générative présente des atouts pour les entreprises, il ne faut pas oublier qu’elle reste une boîte noire »
G.Projector transforms an input map image into any of about 200 global and regional map projections. Longitude-latitude gridlines and continental outlines may be drawn on the map, and the resulting image may be saved to disk in GIF, JPEG, PDF, PNG, PS or TIFF form.
G.Projector is a cross-platform application that runs on Macintosh, Windows, Linux and other desktop computers. It requires that your computer have a Java 11 (or later version) runtime environment installed.
G.Projector is a cross-platform application that runs on Macintosh, Windows, Linux and other desktop computers. It requires that your computer have a Java 11 (or later version) runtime environment installed.
Comparaison de projections cartographiques
Interactive Album of Map Projections 2.0
Comparaison de surface entre pays par superposition (façon puzzle)
Your Viewpoint – Worldmapgenerator
Projection Wizard
Simulateur de projections cartographiques
Assimiler le jacobinisme à une centralisation « coupable et inefficace » est devenu un lieu commun du débat politique français. Il est d’usage de l’opposer à une « bonne et vertueuse » décentralisation girondine. Or, le fond réel de l’affrontement de ces deux courants de républicanisme révolutionnaire s’est principalement construit autour de l’acceptation ou du refus du poids du mouvement populaire parisien dans la vie politique nationale, et non autour de l’acceptation ou du refus de Paris comme lieu unique de la fabrique de la loi commune de la République, nous rappelle Côme Simien. Il souligne que le jacobinisme est une structure de socialibilité politique d’une ampleur inédite pour l’époque.
Cartes de France sur cellules hexagonales
les phrases en italiques sont mes additions
Justification (extrait de http://www.chataignon.net/biweight/methode.html)
Un des défauts des représentations par commune tient à l'hétérogénéité ce maillage en France. La taille des communes diffère énormément, par exemple entre l'Aquitaine ou PACA et le Nord de la France. Cela peut avoir des effets gênants : une commune de grande superficie, même peu peuplée, va avoir un effet visuel fort. Plus embêtant : lorsque le calcul fait intervenir la superficie de la commune, comme dans le cas de la densité de population, on peut obtenir de fortes discontinuités entre communes voisines selon que l'on a une commune de petite taille dont tout le territoire est bâti ou une commune qui a une forêt très étendue sur son territoire (Haguenau, Fontainebleau...) et fait donc apparaître une densité particulièrement faible.
Pour éviter ce défaut, les données sont cartographiées sur un maillage hexagonal qui présente des caractéristiques visuelles plus intéressantes que le carroyage mais qui entraîne des calculs plus complexes. Il faut par exemple 13212 hexagones avec un pas de 4km pour saisir la France Métropolitaine.
Quelques éléments de méthodologie
Pour calculer la valeur à représenter pour chaque hexagone de ce nouveau maillage, on applique des résultats issus des méthodes d'estimation de densité non paramétrique. L'idée de base de ces techniques est d'estimer, à partir d'un ensemble discret de points de l'espace affectés d'une masse, une fonction continue. La représentation cartographique de cette fonction de densité (plus exactement mesure de Dirac mais on utilisera le terme plus simple de densité) fournit des cartes ayant plusieurs propriétés intéressantes.
Le principe de l'estimation de densité selon une méthode non paramétrique est d'estimer une fonction de densité continue, f(x), à partir d'un échantillon discret X1..Xn supposé issu de cette loi sans faire d'hypothèses a priori sur l'appartenance de f à une famille de lois connues. L'estimation ne concerne donc plus un paramètre dans cette famille de loi, mais directement la fonction elle-même (d'où le terme de non paramétrique).
L'utilisation de la méthode d'estimation par le noyau est la plus fréquente pour estimer une densité. En résumé, on choisit un noyau, (K pour kernel) c'est-à-dire une fonction, en général continue et de surface 1, ayant de "bonnes propriétés" de régularité et de symétrie.
Outre le choix d'un noyau, l'estimation de densité nécessite également le choix d'une fenêtre, habituellement notée h.
La statistique non paramétrique donne un certain nombre de résultats et de critères de qualité pour apprécier la qualité de l'estimation de la densité.
Il est largement admis (et partiellement démontré) que le choix de h a plus d'influence que le choix de K. Parmi les noyaux usuels, l'estimation diffère peu selon que l'on choisit un noyau gaussien ou un Biweight ; par contre le choix de la fenêtre h est le plus important.
Recette simplifiée pour une carte « biweight »
Des données comparables à des effectifs, c'est-à-dire dont la somme a un sens (ex : nombre de vote, population, nombre d'entreprise, solde naturel...) relevés pour un maillage qu'on appellera maillage de collecte (exemple : les communes de France)
Un maillage de représentation, par exemple un maillage hexagonal, qui peut être le même que précédemment mais pas obligatoirement
Un programme qui calcule pour chaque point du maillage de représentation la valeur obtenue à partir des points du maillage de collecte situés dans son voisinage et dépendant de la distance de lissage. En fait le programme fonctionne en "répartissant" sur les différents hexagones l'effectif observé pour la commune. A noter qu'on s'assure également que l'ensemble de l'effectif est réparti. En clair, la somme des variables pour l'ensemble des hexagones est la même que pour l'ensemble des objets du maillage de collecte.
Un outil de représentation cartographique classique puisque l'on dispose d'un fond ce carte (maillage hexagonal) et de valeurs issues du calcul de densité Biweight pour chacun de ces objets.
Carte de France des abstentions au premier tour de l’élection présidentielle de 2002
et une vue plus détaillée du Nord/Nord-Est montrant bien le caractère granulaire de la cartographie de base
les phrases en italiques sont mes additions
Justification (extrait de http://www.chataignon.net/biweight/methode.html)
Un des défauts des représentations par commune tient à l'hétérogénéité ce maillage en France. La taille des communes diffère énormément, par exemple entre l'Aquitaine ou PACA et le Nord de la France. Cela peut avoir des effets gênants : une commune de grande superficie, même peu peuplée, va avoir un effet visuel fort. Plus embêtant : lorsque le calcul fait intervenir la superficie de la commune, comme dans le cas de la densité de population, on peut obtenir de fortes discontinuités entre communes voisines selon que l'on a une commune de petite taille dont tout le territoire est bâti ou une commune qui a une forêt très étendue sur son territoire (Haguenau, Fontainebleau...) et fait donc apparaître une densité particulièrement faible.
Pour éviter ce défaut, les données sont cartographiées sur un maillage hexagonal qui présente des caractéristiques visuelles plus intéressantes que le carroyage mais qui entraîne des calculs plus complexes. Il faut par exemple 13212 hexagones avec un pas de 4km pour saisir la France Métropolitaine.
Quelques éléments de méthodologie
Pour calculer la valeur à représenter pour chaque hexagone de ce nouveau maillage, on applique des résultats issus des méthodes d'estimation de densité non paramétrique. L'idée de base de ces techniques est d'estimer, à partir d'un ensemble discret de points de l'espace affectés d'une masse, une fonction continue. La représentation cartographique de cette fonction de densité (plus exactement mesure de Dirac mais on utilisera le terme plus simple de densité) fournit des cartes ayant plusieurs propriétés intéressantes.
Le principe de l'estimation de densité selon une méthode non paramétrique est d'estimer une fonction de densité continue, f(x), à partir d'un échantillon discret X1..Xn supposé issu de cette loi sans faire d'hypothèses a priori sur l'appartenance de f à une famille de lois connues. L'estimation ne concerne donc plus un paramètre dans cette famille de loi, mais directement la fonction elle-même (d'où le terme de non paramétrique).
L'utilisation de la méthode d'estimation par le noyau est la plus fréquente pour estimer une densité. En résumé, on choisit un noyau, (K pour kernel) c'est-à-dire une fonction, en général continue et de surface 1, ayant de "bonnes propriétés" de régularité et de symétrie.
Outre le choix d'un noyau, l'estimation de densité nécessite également le choix d'une fenêtre, habituellement notée h.
La statistique non paramétrique donne un certain nombre de résultats et de critères de qualité pour apprécier la qualité de l'estimation de la densité.
Il est largement admis (et partiellement démontré) que le choix de h a plus d'influence que le choix de K. Parmi les noyaux usuels, l'estimation diffère peu selon que l'on choisit un noyau gaussien ou un Biweight ; par contre le choix de la fenêtre h est le plus important.
Recette simplifiée pour une carte « biweight »
Des données comparables à des effectifs, c'est-à-dire dont la somme a un sens (ex : nombre de vote, population, nombre d'entreprise, solde naturel...) relevés pour un maillage qu'on appellera maillage de collecte (exemple : les communes de France)
Un maillage de représentation, par exemple un maillage hexagonal, qui peut être le même que précédemment mais pas obligatoirement
Un programme qui calcule pour chaque point du maillage de représentation la valeur obtenue à partir des points du maillage de collecte situés dans son voisinage et dépendant de la distance de lissage. En fait le programme fonctionne en "répartissant" sur les différents hexagones l'effectif observé pour la commune. A noter qu'on s'assure également que l'ensemble de l'effectif est réparti. En clair, la somme des variables pour l'ensemble des hexagones est la même que pour l'ensemble des objets du maillage de collecte.
Un outil de représentation cartographique classique puisque l'on dispose d'un fond ce carte (maillage hexagonal) et de valeurs issues du calcul de densité Biweight pour chacun de ces objets.
Carte de France des abstentions au premier tour de l’élection présidentielle de 2002
et une vue plus détaillée du Nord/Nord-Est montrant bien le caractère granulaire de la cartographie de base
Le site WorldPop fournit des données carroyées qui permettent d'étudier la distribution de la population à l'échelle mondiale :
http://www.worldpop.org/
http://www.worldpop.org/
Le site de data journalisme The Pudding, qui traite des sujets d'étude sous forme visuelle, propose une très belle data-visualisation des densités de population en 3D. Matthew Daniels, qui a élaboré cette application, a représenté l'ensemble de la population mondiale sous forme de blocs 3D avec un dégradé de couleurs du vert clair au bleu foncé. Ce type de cartographie est surtout efficace pour représenter les "pics" de population dans les zones urbanisées.
Les données carroyées sont des données diffusées sur une maille originale, ne correspondant à aucun découpage administratif ou historique connu : celle de carrés, dont les côtés peuvent aller de 200 mètres jusqu’à plusieurs kilomètres. Dans les zones urbaines, quand les découpages communaux sont trop imprécis pour analyser les phénomènes démographiques ou socio-économiques, l’assemblage des carreaux permet de fournir des informations précieuses.
Pour produire ce type de données, l’Insee doit relever plusieurs défis : géolocaliser les informations pour les rattacher à des carreaux, développer une méthode garantissant la protection de la vie privée et le respect du secret statistique, mettre à disposition ces données sous une forme utilisable par des experts, mais également par des amateurs, curieux de mieux connaître leur territoire et d’en avoir un aperçu rapide et éclairant.
Avec quelques exemples d’utilisation pour le déploiement de politiques publiques, l’article illustre les techniques mises en œuvre pour permettre la diffusion des données issues de sources socio-fiscales en 2019. À l’image d’une mosaïque, un carreau pris individuellement n’a pas de sens : c’est bien la proximité avec ses voisins qui va permettre à la réalité de prendre forme et au territoire de révéler la richesse et la complexité des phénomènes qui le traversent.
Pour produire ce type de données, l’Insee doit relever plusieurs défis : géolocaliser les informations pour les rattacher à des carreaux, développer une méthode garantissant la protection de la vie privée et le respect du secret statistique, mettre à disposition ces données sous une forme utilisable par des experts, mais également par des amateurs, curieux de mieux connaître leur territoire et d’en avoir un aperçu rapide et éclairant.
Avec quelques exemples d’utilisation pour le déploiement de politiques publiques, l’article illustre les techniques mises en œuvre pour permettre la diffusion des données issues de sources socio-fiscales en 2019. À l’image d’une mosaïque, un carreau pris individuellement n’a pas de sens : c’est bien la proximité avec ses voisins qui va permettre à la réalité de prendre forme et au territoire de révéler la richesse et la complexité des phénomènes qui le traversent.
Maps, although seemingly objective representations of the world, hold immense power. They shape our understanding of space, navigate our journeys and define political boundaries. But beneath the veneer of neutrality lies a potential for manipulation.
==
Les cartes, bien qu’elles soient des représentations apparemment objectives du monde, détiennent un pouvoir immense. Ils façonnent notre compréhension de l’espace, guident nos voyages et définissent les frontières politiques. Mais derrière le vernis de la neutralité se cache un potentiel de manipulation.
==
Les cartes, bien qu’elles soient des représentations apparemment objectives du monde, détiennent un pouvoir immense. Ils façonnent notre compréhension de l’espace, guident nos voyages et définissent les frontières politiques. Mais derrière le vernis de la neutralité se cache un potentiel de manipulation.