Le réseau OPTIC (OPTIC) et l'Université pontificale Saint-Thomas d'Aquin (Angelicum) à Rome annoncent un partenariat pour promouvoir l'objectif commun de faire progresser la technologie au service de l’Humain. Leur protocole d'accord, signé le 18 mars 2022, ouvre les portes de la collaboration et de la participation aux activités des institutions respectives.
C’est arrivé un beau matin, au début du printemps 2020. La veille encore, on parlait à tout va d’intelligence artificielle omnipotente et de cette singularité qui sensée faire de nous des post-humains. Et l’impensable ou plutôt l'impensé s’est produit : on croyait les pays riches à l'abri derrière une sorte de Grande Muraille médicale, mais nous avons vu déferler la vague de la Covid et les pays, les uns après les autres, sont entrés dans le grand confinement. Nous avons assisté médusés aux hospitalisations, aux décès des plus fragiles, à l’arrêt de notre économie… et notre technologie si sophistiquée et si puissante ne nous a pas protégés. Comme si les licornes, ces start-ups dont la valeur dépasse le milliard de dollars, avaient été terrassées par un simple pangolin. Que s’est-il réellement passé ?
Ou comment systématiser une vision long terme dans les investissements financiers
À l’heure de la relance économique, on se demande comment bâtir un meilleur monde pour demain, plus humain et à la hauteur de la crise climatique. Où investir efforts et capitaux ? La finance responsable sera-t-elle l’instrument clé de cette relance ? Et qu’est-ce, au juste, la finance responsable ? Thierry Philipponnat, cofondateur de Finance Watch, une ONG oeuvrant pour une finance au service de la société, nous en décrypte les multiples initiatives qui émergent.
Cet expert, qui travaille régulièrement avec la Commission Européenne, est aussi membre du Collège de l Autorité des Marchés Financiers2 en France, président de sa commission climat et finance durable ainsi que de sa commission consultative organisation et fonctionnement du marché. Il travaille de plus comme régulateur auprès de l’Autorité de Contrôle Prudentiel et de Résolution3 où il est membre de la commission climat et finance durable, de la commission des sanctions et du comité scientifique.
Le paradoxe des ordinateurs quantiques est qu’ils doivent être les plus isolés possible du monde extérieur pour éviter toute source d’erreurs, tout en restant accessibles pour qu’on puisse contrôler les algorithmes quantiques et observer leurs résultats. Raphaël Lescanne, CTO de la prometteuse pousse Française Alice&Bob, nous raconte comment ils concurrencent IBM et Google. Leur botte secrète ? Le qubit de chat et sa correction autonome d’erreurs… Chat vous intrigue ?
À l’heure où les laboratoires font la course pour trouver un vaccin efficace contre la COVID-19, 74% des personnes seraient prêtes à se faire vacciner et seuls 37% auraient une opinion ferme sur la question, d’après une enquête auprès de 20 000 adultes de 27 pays. Fort de 10 ans de recherche sur les controverses vaccinales, Jeremy K. Ward, chercheur postdoctoral, nous éclaire sur leurs dynamiques passées pour mieux comprendre et gérer la situation actuelle. Ce n’est qu’en prenant le temps de comprendre la nuance des débats qu’une vaccination efficace contre la COVID-19 pourra s’organiser.
La régulation serait toujours en retard et en réaction par rapport aux avancées des entreprises privées. Vraiment ? Le Laboratoire d’Innovation Numérique de la CNIL prouve le contraire. Régis Chatellier, chargé d’études innovation et prospective, a pour mission d’explorer les usages du numérique en cours et à venir en mobilisant les sciences sociales pour dépasser les visions historiquement juridique et technologique, ainsi être en capacité d’avoir un temps d’avance et mieux protéger les données personnelles. Le récent appel participatif à « fragments de futurs » [Nos vies numériques en 2030] en est un bel exemple. À votre imagination !
Sélectionné pour être l’un des 25 experts du nouveau groupe de travail du Partenariat mondial sur l’intelligence artificielle, Vincent C. Müller est professeur d’éthique des technologies à l’Université d’Eindhoven, chercheur universitaire à l’Université de Leeds et chercheur à l’Institut Alan Turing. Spécialisé dans l’éthique des technologies disruptives, il vient de publier l’article « Éthique de l’intelligence artificielle et de la robotique » dans la Stanford Encyclopedia of Philosophy et il est très bien placé pour nous aider à naviguer dans le domaine dynamique parfois déroutant de l’éthique de l’IA et à expliquer les questions cruciales que nous devons maintenant aborder : l’opacité, l’utilisation des données et la surveillance. Il écrit actuellement un livre intitulé « Can Machines Think? Fundamental Questions of Artificial Intelligence » qui sera publié l’année prochaine par Oxford University Press, New York.
La pandémie du Covid-19 a mis en lumière un double constat : d’un côté, notre avance technologique ne nous a pas évité d’être touchés de plein fouet par le fléau. D’un autre, décideurs politiques, dirigeants d’entreprises et citoyens se sont spontanément tournés vers la technologie pour trouver des solutions à la crise. Réflexe salvateur ou solutionnisme ? Alors que l’activité était en grande partie suspendue, le télétravail et l’économie numérique ont joué un rôle primordial. Mais l’usage de la technologie dans la lutte contre l’épidémie a soulevé de nombreuses questions. Les difficultés rencontrées dans la mise en œuvre des applications de contact tracing, des objets connectés vérifiant la distanciation sociale ou de dispositifs d’autodiagnostic n’en sont qu’un exemple. L’acceptation sociale et l’utilisation assidue de ces outils sont nécessaires à leur efficacité, mais beaucoup sont réticents à les employer.
La pandémie de Covid-19 a éclairé de façon crue et parfois insoutenable des zones fragiles et douloureuses de notre société, des services d'urgence aux refuges pour réfugiés, sans domicile fixe ou femmes battues. Dans le même temps, l'IA s'est révélée un outil formidable dans le domaine de la gouvernance des problèmes de santé... À condition, avertit Jay Shaw, le directeur de la recherche sur l'éthique de l’IA dans la santé au Centre intégré de bioéthique de l'Université de Toronto, de penser selon une éthique de la conception.
Susanna Schellenberg, professeure de philosophie et de sciences cognitives à l'université Rutgers, analyse comment la perception du monde qui nous entoure repose sur des capacités de discrimination, relevant des neurosciences. D'où la nécessité de développer une philosophie de la perception. Entretien à la frontière des sciences et de la phénoménologie.
L'Europe peut-elle, doit-elle et va-t-elle se doter d'un outil analogue au DARPA (Defense Advanced Research Projects Agency) américain ? Selon André Loesekrug-Pietri, directeur exécutif de la Joint European Disruptive Initiative, alias JEDI, c'est la clef de la position européenne en matière de technologies de rupture sur la scène mondiale. Avec JEDI, affirme-il, l'Europe peut faire jeu égal avec la Chine et les Etats-Unis.
Yannick Meneceur spécialiste des questions de transformation digitale et d'intelligence artificielle au Conseil de l’Europe, établit des ponts entre les mondes de la justice et de l’informatique. Dans son dernier livre, L'intelligence en procès, Plaidoyer pour un cadre juridique international et européen de l'intelligence artificielle, il analyse dans cet entretien comment l'IA met en péril la démocratie eet comment y remédier.
Médecin et spécialiste de la santé numérique, Victor de Castro analyse comment les limites de la surveillance de masse ont encore été repoussées. Et il demande comment équilibrer santé et liberté.
Sous la houlette de l'Institut Montaigne, Openclassroom et la fondation Abeona, Anna Choury, experte en science des données, propose six heures de cours en ligne pour se familiariser non seulement avec l'Intelligence Artificielle mais surtout avec les problèmes éthiques qui lui sont connexes. Un challenge démocratique pour former des citoyens responsables.
Dans cette période incertaine où le déconfinement est encore fragile, Eric Salobir propose de tirer les premiers enseignements de cette pandémie. Sur notre rapport à la mort, sur la place de l'homme et sur la carte blanche que nous accordons trop facilement aux technologies. L'urgence dit-il, c'est de partager du sens.
Bon gré mal gré, le coronavirus contraint les décideurs à.. décider ce qui l'emporte de la santé de tous ou de la liberté de chacun. Les débats sur les app de tracing et l’usage des data illustrent ainsi un arbitrage fondamental pour une démocratie : qu'est-ce qui est acceptable ? Jusqu'où nos vies doivent-elles cesser d'être privées pour mieux les préserver ? Et faut-il construire et renforcer notre souveraineté numérique pour sécuriser au plus vite populations et économies ? Le covid19 a surgi dans un monde bien plus digitalisé qu’il ne l’était lors des précédentes pandémies, et bien moins qu’il le sera lors des prochaines. C’est l’un de nos atouts. Mais comme tout remède il est aussi, potentiellement, poison. Nous devons mesurer ce danger et le réduire dans le cadre éthique global que nous souhaitons pour notre société. D'où la nécessité d'accélérer la mise en place de nouveaux modes de gouvernance des dispositifs algorithmiques et des données, tout particulièrement dans le domaine de la santé, tant au niveau national qu’international. C’est l’esprit de cette tribune cosignée avec Eric Salobir dans Le Figaro, et l’un des travaux que nous menons avec la Human Technology Foundation et ses partenaires.
Ce temps de confinement met en avant l’urgence de considérer les neurosciences comme une discipline qui peut aider chacun à le vivre. Comprendre et étudier les comportements humains permettra de mesurer l’impact d’un tel confinement sur chacun d’entre nous et d’identifier les personnes qui ont besoin d’aides. Les neurotechnologies, qui se veulent être à l’interface entre le cerveau et la machine, peuvent être des outils très intéressants pour comprendre ces comportements. En revanche, il devient évident que les frontières entre les utilisations médicales et non médicales de ces neurotechnologies deviennent très poreuses, nous invitant à réfléchir aux enjeux neuroéthiques afin de mettre des gardes fous à ces utilisations.