904 shaares
Gagner en sécurité et en confort d'utilisation sur votre environnement Linux grâce à une Yubikey.
En 2019, Shoshana Zuboff publiait L'Âge du capitalisme de surveillance, enquête historique mettant au jour les dynamiques secrètes de l’économie du web, basée sur l’extraction des données personnelles. Les prédictions alarmistes de l'autrice se sont-elles réalisées ? Pouvons-nous être optimistes ?
Avec
Shoshana Zuboff Professeure émérite à la Harvard Business School et professeure associée à la Harvard Law School
Avec
Shoshana Zuboff Professeure émérite à la Harvard Business School et professeure associée à la Harvard Law School
L'intelligence artificielle (IA) se réveille et frappe à votre porte. Engourdi pendant près 60 ans plus tard dans une période de moindres recherches et de faibles financements alloués aux innovations, l'hiver de l'IA est enfin terminé. 83 % des entreprises interrogées considèrent l'intelligence artificielle comme une priorité stratégique et 75 % déclarent que l'intelligence artificielle est la clé pour identifier de nouveaux clients et de nouvelles entreprises. L'intelligence artificielle n'est plus un produit de science-fiction. De la détection des fraudes aux méthodes d'embauche efficaces, en passant par la prévision de la maintenance des machines, l'intelligence artificielle est aujourd'hui devenue un facteur d'innovation dans le monde du travail et ses applications quotidiennes.
L’IA CONTRE LA SOCIÉTÉ
Le discours porté par les pouvoirs économiques et politiques qui la soutiennent est bien rodé : l’intelligence artificielle (IA) constitue une rupture majeure à laquelle il faut s’adapter, en limitant ses éventuels méfaits – présentés comme autant de défis.
Fenêtre sur... (mini dossier) par Amélie Hart et Christophe Cailleaux, du secteur Contenus du SNES-FSU dans l'USMag n°844, avril 2024 ~ #IA #EMC
https://nuage.snes.edu/s/MCywbWrMcdkNfMC
Le discours porté par les pouvoirs économiques et politiques qui la soutiennent est bien rodé : l’intelligence artificielle (IA) constitue une rupture majeure à laquelle il faut s’adapter, en limitant ses éventuels méfaits – présentés comme autant de défis.
Fenêtre sur... (mini dossier) par Amélie Hart et Christophe Cailleaux, du secteur Contenus du SNES-FSU dans l'USMag n°844, avril 2024 ~ #IA #EMC
https://nuage.snes.edu/s/MCywbWrMcdkNfMC
Comment permettre à l’Homme de garder la main ? Rapport sur les enjeux éthiques des algorithmes et de l’intelligence artificielle
15 décembre 2017
La CNIL publie le rapport de synthèse du débat public qu’elle a animé sur les enjeux éthiques des algorithmes et de l’intelligence artificielle. Isabelle FALQUE-PIERROTIN, présidente de la CNIL, le présente aujourd’hui en présence de Mounir MAHJOUBI, Secrétaire d’Etat chargé du Numérique et de Cédric VILLANI, Député, chargé par le gouvernement d’une mission sur l’intelligence artificielle.
15 décembre 2017
La CNIL publie le rapport de synthèse du débat public qu’elle a animé sur les enjeux éthiques des algorithmes et de l’intelligence artificielle. Isabelle FALQUE-PIERROTIN, présidente de la CNIL, le présente aujourd’hui en présence de Mounir MAHJOUBI, Secrétaire d’Etat chargé du Numérique et de Cédric VILLANI, Député, chargé par le gouvernement d’une mission sur l’intelligence artificielle.
S'il y a un domaine des sciences du numérique qui a connu une expansion foudroyante dans les dernières décennies, c'est bien l'intelligence artificielle, au point qu'elle est partout aujourd'hui ! Nous revenons ici sur son histoire pour mieux comprendre les défis qui nous attendent dans les années à venir...
Introduction
L’intelligence artificielle (IA) est contemporaine de l’informatique. Elle est née au cours des années 1950, avec de jeunes chercheurs tels que John McCarthy, Marvin Minsky, Claude Shannon. À la même époque, le mathématicien anglais Alan Turing posait la question centrale qui attend toujours une réponse : « Une machine peut-elle penser ? ».
L’IA est un domaine de recherche-développement (R&D) qui cherche à reproduire sur une machine les processus perceptifs et cognitifs de l’animal ou de l’humain (raisonnement, prise de décision, reconnaissance de formes : parole, images). On parle maintenant d’IA au pluriel. Une IA est un artefact visant à résoudre un problème spécifique tel que reconnaître la parole, traduire un texte, etc.
La naissance « officielle » de l’IA fut précédée d’une longue période de gestation. Les développements théoriques et pratiques sur les automates d’une part, et les travaux en logique mathématique d’autre part, en constituent les fondements.
L’IA s’est ensuite développée en se fondant sur trois grands types de modèles : les modèles symboliques, les modèles statistiques et les modèles connexionnistes. Ces modèles sont brièvement rappelés ci-dessous. L’utilisation des modèles génératifs pose des questions juridiques et éthiques abordées à la fin de cet article.
Les modèles d’IA
Introduction
L’intelligence artificielle (IA) est contemporaine de l’informatique. Elle est née au cours des années 1950, avec de jeunes chercheurs tels que John McCarthy, Marvin Minsky, Claude Shannon. À la même époque, le mathématicien anglais Alan Turing posait la question centrale qui attend toujours une réponse : « Une machine peut-elle penser ? ».
L’IA est un domaine de recherche-développement (R&D) qui cherche à reproduire sur une machine les processus perceptifs et cognitifs de l’animal ou de l’humain (raisonnement, prise de décision, reconnaissance de formes : parole, images). On parle maintenant d’IA au pluriel. Une IA est un artefact visant à résoudre un problème spécifique tel que reconnaître la parole, traduire un texte, etc.
La naissance « officielle » de l’IA fut précédée d’une longue période de gestation. Les développements théoriques et pratiques sur les automates d’une part, et les travaux en logique mathématique d’autre part, en constituent les fondements.
L’IA s’est ensuite développée en se fondant sur trois grands types de modèles : les modèles symboliques, les modèles statistiques et les modèles connexionnistes. Ces modèles sont brièvement rappelés ci-dessous. L’utilisation des modèles génératifs pose des questions juridiques et éthiques abordées à la fin de cet article.
Les modèles d’IA
Franceinfo publie un recensement inédit des décharges d'explosifs immergées, en collaboration avec les équipes de l'émission "Vert de rage" diffusée sur France 5.
Le professeur de stratégie Jérôme Barthélemy rapporte, dans une tribune au « Monde », une expérience d’utilisation de ChatGPT éclairante quant à ses effets sur l’emploi.
« Si l’intelligence artificielle générative présente des atouts pour les entreprises, il ne faut pas oublier qu’elle reste une boîte noire »
« Si l’intelligence artificielle générative présente des atouts pour les entreprises, il ne faut pas oublier qu’elle reste une boîte noire »
G.Projector transforms an input map image into any of about 200 global and regional map projections. Longitude-latitude gridlines and continental outlines may be drawn on the map, and the resulting image may be saved to disk in GIF, JPEG, PDF, PNG, PS or TIFF form.
G.Projector is a cross-platform application that runs on Macintosh, Windows, Linux and other desktop computers. It requires that your computer have a Java 11 (or later version) runtime environment installed.
G.Projector is a cross-platform application that runs on Macintosh, Windows, Linux and other desktop computers. It requires that your computer have a Java 11 (or later version) runtime environment installed.
Comparaison de projections cartographiques
Interactive Album of Map Projections 2.0
Comparaison de surface entre pays par superposition (façon puzzle)
Your Viewpoint – Worldmapgenerator
Projection Wizard
Simulateur de projections cartographiques
Assimiler le jacobinisme à une centralisation « coupable et inefficace » est devenu un lieu commun du débat politique français. Il est d’usage de l’opposer à une « bonne et vertueuse » décentralisation girondine. Or, le fond réel de l’affrontement de ces deux courants de républicanisme révolutionnaire s’est principalement construit autour de l’acceptation ou du refus du poids du mouvement populaire parisien dans la vie politique nationale, et non autour de l’acceptation ou du refus de Paris comme lieu unique de la fabrique de la loi commune de la République, nous rappelle Côme Simien. Il souligne que le jacobinisme est une structure de socialibilité politique d’une ampleur inédite pour l’époque.
Cartes de France sur cellules hexagonales
les phrases en italiques sont mes additions
Justification (extrait de http://www.chataignon.net/biweight/methode.html)
Un des défauts des représentations par commune tient à l'hétérogénéité ce maillage en France. La taille des communes diffère énormément, par exemple entre l'Aquitaine ou PACA et le Nord de la France. Cela peut avoir des effets gênants : une commune de grande superficie, même peu peuplée, va avoir un effet visuel fort. Plus embêtant : lorsque le calcul fait intervenir la superficie de la commune, comme dans le cas de la densité de population, on peut obtenir de fortes discontinuités entre communes voisines selon que l'on a une commune de petite taille dont tout le territoire est bâti ou une commune qui a une forêt très étendue sur son territoire (Haguenau, Fontainebleau...) et fait donc apparaître une densité particulièrement faible.
Pour éviter ce défaut, les données sont cartographiées sur un maillage hexagonal qui présente des caractéristiques visuelles plus intéressantes que le carroyage mais qui entraîne des calculs plus complexes. Il faut par exemple 13212 hexagones avec un pas de 4km pour saisir la France Métropolitaine.
Quelques éléments de méthodologie
Pour calculer la valeur à représenter pour chaque hexagone de ce nouveau maillage, on applique des résultats issus des méthodes d'estimation de densité non paramétrique. L'idée de base de ces techniques est d'estimer, à partir d'un ensemble discret de points de l'espace affectés d'une masse, une fonction continue. La représentation cartographique de cette fonction de densité (plus exactement mesure de Dirac mais on utilisera le terme plus simple de densité) fournit des cartes ayant plusieurs propriétés intéressantes.
Le principe de l'estimation de densité selon une méthode non paramétrique est d'estimer une fonction de densité continue, f(x), à partir d'un échantillon discret X1..Xn supposé issu de cette loi sans faire d'hypothèses a priori sur l'appartenance de f à une famille de lois connues. L'estimation ne concerne donc plus un paramètre dans cette famille de loi, mais directement la fonction elle-même (d'où le terme de non paramétrique).
L'utilisation de la méthode d'estimation par le noyau est la plus fréquente pour estimer une densité. En résumé, on choisit un noyau, (K pour kernel) c'est-à-dire une fonction, en général continue et de surface 1, ayant de "bonnes propriétés" de régularité et de symétrie.
Outre le choix d'un noyau, l'estimation de densité nécessite également le choix d'une fenêtre, habituellement notée h.
La statistique non paramétrique donne un certain nombre de résultats et de critères de qualité pour apprécier la qualité de l'estimation de la densité.
Il est largement admis (et partiellement démontré) que le choix de h a plus d'influence que le choix de K. Parmi les noyaux usuels, l'estimation diffère peu selon que l'on choisit un noyau gaussien ou un Biweight ; par contre le choix de la fenêtre h est le plus important.
Recette simplifiée pour une carte « biweight »
Des données comparables à des effectifs, c'est-à-dire dont la somme a un sens (ex : nombre de vote, population, nombre d'entreprise, solde naturel...) relevés pour un maillage qu'on appellera maillage de collecte (exemple : les communes de France)
Un maillage de représentation, par exemple un maillage hexagonal, qui peut être le même que précédemment mais pas obligatoirement
Un programme qui calcule pour chaque point du maillage de représentation la valeur obtenue à partir des points du maillage de collecte situés dans son voisinage et dépendant de la distance de lissage. En fait le programme fonctionne en "répartissant" sur les différents hexagones l'effectif observé pour la commune. A noter qu'on s'assure également que l'ensemble de l'effectif est réparti. En clair, la somme des variables pour l'ensemble des hexagones est la même que pour l'ensemble des objets du maillage de collecte.
Un outil de représentation cartographique classique puisque l'on dispose d'un fond ce carte (maillage hexagonal) et de valeurs issues du calcul de densité Biweight pour chacun de ces objets.
Carte de France des abstentions au premier tour de l’élection présidentielle de 2002
et une vue plus détaillée du Nord/Nord-Est montrant bien le caractère granulaire de la cartographie de base
les phrases en italiques sont mes additions
Justification (extrait de http://www.chataignon.net/biweight/methode.html)
Un des défauts des représentations par commune tient à l'hétérogénéité ce maillage en France. La taille des communes diffère énormément, par exemple entre l'Aquitaine ou PACA et le Nord de la France. Cela peut avoir des effets gênants : une commune de grande superficie, même peu peuplée, va avoir un effet visuel fort. Plus embêtant : lorsque le calcul fait intervenir la superficie de la commune, comme dans le cas de la densité de population, on peut obtenir de fortes discontinuités entre communes voisines selon que l'on a une commune de petite taille dont tout le territoire est bâti ou une commune qui a une forêt très étendue sur son territoire (Haguenau, Fontainebleau...) et fait donc apparaître une densité particulièrement faible.
Pour éviter ce défaut, les données sont cartographiées sur un maillage hexagonal qui présente des caractéristiques visuelles plus intéressantes que le carroyage mais qui entraîne des calculs plus complexes. Il faut par exemple 13212 hexagones avec un pas de 4km pour saisir la France Métropolitaine.
Quelques éléments de méthodologie
Pour calculer la valeur à représenter pour chaque hexagone de ce nouveau maillage, on applique des résultats issus des méthodes d'estimation de densité non paramétrique. L'idée de base de ces techniques est d'estimer, à partir d'un ensemble discret de points de l'espace affectés d'une masse, une fonction continue. La représentation cartographique de cette fonction de densité (plus exactement mesure de Dirac mais on utilisera le terme plus simple de densité) fournit des cartes ayant plusieurs propriétés intéressantes.
Le principe de l'estimation de densité selon une méthode non paramétrique est d'estimer une fonction de densité continue, f(x), à partir d'un échantillon discret X1..Xn supposé issu de cette loi sans faire d'hypothèses a priori sur l'appartenance de f à une famille de lois connues. L'estimation ne concerne donc plus un paramètre dans cette famille de loi, mais directement la fonction elle-même (d'où le terme de non paramétrique).
L'utilisation de la méthode d'estimation par le noyau est la plus fréquente pour estimer une densité. En résumé, on choisit un noyau, (K pour kernel) c'est-à-dire une fonction, en général continue et de surface 1, ayant de "bonnes propriétés" de régularité et de symétrie.
Outre le choix d'un noyau, l'estimation de densité nécessite également le choix d'une fenêtre, habituellement notée h.
La statistique non paramétrique donne un certain nombre de résultats et de critères de qualité pour apprécier la qualité de l'estimation de la densité.
Il est largement admis (et partiellement démontré) que le choix de h a plus d'influence que le choix de K. Parmi les noyaux usuels, l'estimation diffère peu selon que l'on choisit un noyau gaussien ou un Biweight ; par contre le choix de la fenêtre h est le plus important.
Recette simplifiée pour une carte « biweight »
Des données comparables à des effectifs, c'est-à-dire dont la somme a un sens (ex : nombre de vote, population, nombre d'entreprise, solde naturel...) relevés pour un maillage qu'on appellera maillage de collecte (exemple : les communes de France)
Un maillage de représentation, par exemple un maillage hexagonal, qui peut être le même que précédemment mais pas obligatoirement
Un programme qui calcule pour chaque point du maillage de représentation la valeur obtenue à partir des points du maillage de collecte situés dans son voisinage et dépendant de la distance de lissage. En fait le programme fonctionne en "répartissant" sur les différents hexagones l'effectif observé pour la commune. A noter qu'on s'assure également que l'ensemble de l'effectif est réparti. En clair, la somme des variables pour l'ensemble des hexagones est la même que pour l'ensemble des objets du maillage de collecte.
Un outil de représentation cartographique classique puisque l'on dispose d'un fond ce carte (maillage hexagonal) et de valeurs issues du calcul de densité Biweight pour chacun de ces objets.
Carte de France des abstentions au premier tour de l’élection présidentielle de 2002
et une vue plus détaillée du Nord/Nord-Est montrant bien le caractère granulaire de la cartographie de base
Le site WorldPop fournit des données carroyées qui permettent d'étudier la distribution de la population à l'échelle mondiale :
http://www.worldpop.org/
http://www.worldpop.org/
Le site de data journalisme The Pudding, qui traite des sujets d'étude sous forme visuelle, propose une très belle data-visualisation des densités de population en 3D. Matthew Daniels, qui a élaboré cette application, a représenté l'ensemble de la population mondiale sous forme de blocs 3D avec un dégradé de couleurs du vert clair au bleu foncé. Ce type de cartographie est surtout efficace pour représenter les "pics" de population dans les zones urbanisées.