Veille en intelligence artificielle en santé Novembre 2024 | | Objectif de la veille Nourrir une vision stratégique tout en fournissant des outils concrets aux équipes du réseau de la Santé et des Services sociaux, à travers des articles portant sur les technologies et connaissances susceptibles de soutenir le développement et l'intégration de l'intelligence artificielle(IA) en santé. Le CEIAVD a choisi de ne publier que des articles en accès libre pour garantir leur disponibilité à un large public. Leur sélection est déterminée par une démarche éditoriale. L'IA appliquée au domaine clinique possède un spectre trop vaste à couvrir de manière exhaustive par notre activité de veille qui se veut plus généraliste. Vous voulez que l'on diffuse un article ou un événement? ceiavd@ssss.gouv.qc.ca 🍁 Canada 💙 Québec 🛠️ Outils ⭐ Recommandation | ⭐Une nouvelle base de données publique répertorie toutes les façons dont l’IA pourrait mal tourner The AI Risk Repository has three parts: - The AI Risk Database captures 700+ risks extracted from 43 existing frameworks, with quotes and page numbers.
- The Causal Taxonomy of AI Risks classifies how, when, and why these risks occur.
- The Domain Taxonomy of AI Risks classifies these risks into seven domains (e.g., “Misinformation”) and 23 subdomains (e.g., “False or misleading information”).
💙 Regard éthique sur les effets environnementaux des technologies numériques au Québec: l’impératif de la sobriété numérique Le présent avis vise à mettre en lumière les principaux enjeux éthiques liés aux effets environnementaux des technologies numériques. Plusieurs principes et valeurs sont proposés afin d’éclairer la réflexion et d’orienter l’action collective. Au terme de cette démarche, la Commission de l'éthique en science et en technologie (CEST) propose 16 recommandations visant à accompagner les décideurs publics dans une démarche de sobriété numérique. Everyone must understand the environmental costs of AI Artificial Intelligence (AI) has a profound effect on societies around the globe. Its application improves the lives of many, but it can also increase inequities. To safeguard against AI’s negative impacts, all actors must develop and deploy AI responsibly. The application of explainable artificial intelligence (XAI) in electronic health record research: A scoping review The aim of this scoping review is to critically appraise the application of XAI methods in ML/DL models using Electronic Health Record (EHR) data. In accordance with PRISMA scoping review guidelines, the study searched PUBMED and OVID/MEDLINE (including EMBASE) for publications related to tabular EHR data that employed ML/DL models with XAI. Ethical framework for artificial intelligence in healthcare research: A path to integrity This article sets out to introduce a detailed framework designed to steer governance and offer a systematic method for assuring that AI applications in healthcare research are developed and executed with integrity and adherence to medical research ethics. Generative artificial intelligence and ethical considerations in health care: a scoping review and ethics checklist We did a scoping review of the ethical discussions on GenAI in health care to comprehensively analyse gaps in the research. To reduce the gaps, we have developed a checklist for comprehensive assessment and evaluation of ethical discussions in GenAI research. ⭐The impact of digital technology, social media, and artificial intelligence on cognitive functions: a review - Article proposé par Alban Da silva, APPR à la FMED de l'Université Laval This review aims to explore both the positive and negative impacts of these technologies on crucial cognitive functions, including attention, memory, addiction, novelty-seeking and perception, decision-making, and critical thinking, as well as learning abilities. The review also discusses the differential influence of digital technology across different age groups and the unique challenges and benefits experienced by children, adolescents, adults, and the elderly. Should AI models be explainable to clinicians? In critical care, understanding AI's decision-making is vital for trust and clarity. Explainable AI (XAI) seeks to demystify AI, fostering trust and meeting transparency regulations. It provides clear insights, ensuring fairness and safety. However, defining and standardizing explainability remains a challenge, necessitating a balance between AI performance and comprehensibility. XAI is an evolving field addressing these issues. Three Challenges for AI-Assisted Decision-Making Artificial intelligence (AI) can enhance human decision-making by offering recommendations and relevant information. Achieving the full benefits of human-AI collaboration poses challenges, including understanding when AI complements human ability, developing AI that augments human decisions, and designing effective human-AI interactions to prevent cognitive overload. Interdisciplinary research is crucial to address these issues and advance the field. | 💙 Detecting Brittle Decisions for Free: Leveraging Margin Consistency in Deep Robust Classifiers This paper introduces the concept of margin consistency -- a property that links the input space margins and the logit margins in robust models -- for efficient detection of vulnerable samples more-itertools 10.5.0 - Proposé par Souad El-Hatib, Conseillère en IA, CEIAVD Python’s itertools library is a gem - you can compose elegant solutions for a variety of problems with the functions it provides. In more-itertools we collect additional building blocks, recipes, and routines for working with Python iterables. Leveraging Temporal Trends for Training Contextual Word Embeddings to Address Bias in Biomedical Applications: Development Study We aim to capture temporal trends in clinical trials through temporal distribution matching on contextual word embeddings (specifically, BERT) and explore its effect on the bias manifested in downstream tasks. Availability of Evidence for Predictive Machine Learning Algorithms in Primary Care A Systematic Review To systematically identify predictive ML algorithms implemented in primary care from peer-reviewed literature and US Food and Drug Administration (FDA) and Conformité Européene (CE) registration databases and to ascertain the public availability of evidence, including peer-reviewed literature, gray literature, and technical reports across the artificial intelligence (AI) life cycle. FedDSS: A data-similarity approach for client selection in horizontal federated learning Federated learning enables multiple entities to train a shared machine learning model without exposing personal data, tackling healthcare issues like data scarcity and privacy. Yet, non-identical data distribution can impair learning, causing model divergence. FedDSS, our proposed solution, employs a data-similarity method for client selection, enhancing model performance while preserving data privacy. | How AI Is Changing SQL for the Better In fact, AI is already addressing two of the biggest complaints about SQL. First, engineers can now use AI to perform tedious SQL tasks, such as manual data validations. Second, AI is replacing common large dataset management issues, like slow diagnosis, database testing, and optimizer tuning, with automated data analysis that delivers greater efficiency, accuracy, and scalability. By optimizing queries automatically based on data patterns and query history, AI helps improve performance by reducing query execution time and resource usage. 3 strategies for using generative AI to responsibly extract data insights To harness generative AI effectively and responsibly, organizations can implement the following three strategies to derive valuable insights from a sea of data, without exposing themselves or others to the harmful consequences of unchecked AI deployment. 🍁 Un nouvel ensemble de données multimodales contribuera au développement de systèmes d'IA éthiques L'Institut Vecteur a créé Newsmediabias-plus (NMB+), une base de données multimodales avec articles complets et détails de publication. Elle analyse les préjugés, y compris le sexisme, le racisme, les biais idéologiques, la discrimination sexuelle et les enjeux environnementaux. Tracking provenance in clinical data warehouses for quality management In this work, we focus on tracking and utilizing provenance information as part of quality management in Extract-Transform-Load (ETL) processes used to build clinical data warehouses. | Robotics and AI into healthcare from the perspective of European regulation: who is responsible for medical malpractice? The analysis of European legislation highlights the critical issues related to the attribution of legal personality to autonomous robots and the recognition of strict liability for medical doctors and healthcare institutions. Identifying Facilitators and Barriers to Implementation of AI-Assisted Clinical Decision Support in an Electronic Health Record System This study aimed to methodologically assess the implementation of 48 hours Discharge Prediction Tool and identify the barriers and facilitators of adoption and maintenance using the validated implementation science frameworks. Toward a responsible future: recommendations for AI-enabled clinical decision support This paper aims to make practical suggestions for creating methods, rules, and guidelines to ensure that the development, testing, supervision, and use of AI in clinical decision support (CDS) systems are done well and safely for patients. International Workshop Shaping the Future of AI and Health - Proposé par Yves Terrat, Conseiller principal recherche - spécialiste de données, Consortium en santé numérique This event was the inaugural Oxford-Québec-France workshop in the series “Shaping the Future of AI”, building on comparative and interdisciplinary perspectives to explore key societal opportunities and challenges related to the development and deployment of AI. Workshop booklet Overview of the future impact of wearables and artificial intelligence in healthcare workflows and technology This paper will explore the transformative role of wearables and AI technology in healthcare, assess how it will change fundamental workflows, and highlight how AI solutions will become ubiquitous and expected by patients. Behavioral Nudging With Generative AI for Content Development in SMS Health Care Interventions: Case Study This research sets out to address the challenges of content development for SMS interventions by showcasing the use of generative artificial intelligence (AI) as a tool for content creation, transparently explaining the prompt design and content generation process, and providing the largest publicly available data set of brief messages and source code for future replication of our process. Emergency department triaging using ChatGPT based on emergency severity index principles: a cross-sectional study Our study aims to determine the accuracy of patient triage using ChatGPT according to the emergency severity index (ESI) for triage in EDs. Reconnaissance vocale et transcription médicale, un sujet d'actualité! Assessing the potential of GPT-4 to perpetuate racial and gender biases in health care: a model evaluation study - Proposé par Daniela Olivera, conseillère en IA, MSSS Using the Azure OpenAI application interface, this model evaluation study tested whether GPT-4 encodes racial and gender biases and examined the impact of such biases on four potential applications of LLMs in the clinical domain—namely, medical education, diagnostic reasoning, clinical plan generation, and subjective patient assessment 🍁 The Utility and Implications of Ambient Scribes in Primary Care This study examines ambient scribes in primary care, assessing their fit and development stages, and their effect on healthcare delivery. It highlights the need for research into the safety, bias, patient impact, and privacy of this technology, stressing the importance of training healthcare providers in AI and digital tools. Speech recognition technology in prehospital documentation: A scoping review We performed a scoping review to determine paramedic perceptions and user requirements for speech recognition documentation technology. 🍁AI scribes show promising results in helping family doctors and nurse practitioners spend more time with patients and less time on paperwork A study by OntarioMD (OMD) shows that AI scribe technology can reduce paperwork time for family doctors by 70% to 90%. Over three months, more than 150 family doctors and nurse practitioners used AI scribes to record and summarize patient conversations into electronic notes. This innovation marks a significant advancement in medical documentation, enhancing efficiency for healthcare providers. Large language models can support generation of standardized discharge summaries – A retrospective study utilizing ChatGPT-4 and electronic health records To evaluate whether psychiatric discharge summaries (DS) generated with ChatGPT-4 from electronic health records (EHR) can match the quality of DS written by psychiatric residents. | ⭐IA responsable au gouvernement du Québec - Nouvelles orientations éthiques et actions - Présentation du MCN à Montréal Connect À 22 minutes : Actions en IA à venir 2024-2026. Les grandes lignes ici : - Directive sur la prise de décision automatisée pour les organismes publics;
- Déploiement d'un outil d'analyse de risques pour l'ensemble des systèmes d'IA;
- Création d'une boîte à outils pour faciliter la prise en compte des impacts environnementaux dans l'évaluation des coûts réels des projets d'IA;
- Développer des indices de qualité et de vérifiabilité des informations environnementales transmises par les fournisseurs de services numériques et de SIA;
- Identifier comment et dans quels contextes des sytèmes d'IA peuvent favoriser l'inclusion numérique des citoyens;
- Publication d'un registre de l'utilisation de l'IA dans l'administration publique;
- Divulgation obligatoire de l'utilisation de l'IA dans un service public (Appliquée aussi au contenu d'image, vidéo ou audio);
- Sensibiliser le personnel de l'État aux nombreux enjeux entourant les systèmes d'IA et offrir des formations adaptées à leurs besoins;
- Augmenter les talents d'IA dans l'administration publique;
- Lancement d'une page web de l'IA.
💙Guide des bonnes pratiques d'utilisation de l'intelligence artificielle générative - Applicable aux outils d'intelligence artificielle générative externes - MCN Les objectifs de ce guide sont de : 1. Guider les OP vers une utilisation responsable et adéquate de cette technologie; 2. Sensibiliser les employés de l’administration publique aux possibilités et aux risques de l’utilisation d’outils d’IA générative. 🍁 Guide sur l’utilisation de l’intelligence artificielle générative - Gouvernement du Canada 🍁 L’intelligence artificielle (IA) générative dans votre travail au quotidien - Napperon du Gouvenement du Canada 💙 Portrait de l’encadrement des applications mobiles en santé et en services sociaux - Bulletin no11 de l'INESSS L'INESSS a jugé pertinent de brosser un portrait des modalités d’encadrement des applications mobiles mises en place par des acteurs publics, ou en collaboration avec des acteurs privés, afin d’outiller le ministère de la Santé et des Services sociaux (MSSS), notamment le Bureau de l’innovation en santé et en services sociaux, et les autres parties prenantes concernées. 🛠️ G7 Toolkit for Artificial Intelligence in the Public Sector This Toolkit serves as a detailed manual for public sector officials to implement AI safely and effectively, enhancing service responsiveness and transparency. It outlines best practices, ethical guidelines, and G7 trends, while addressing AI's potential and challenges. Additionally, it provides case studies and policy strategies to navigate and optimize AI's public sector integration. 🍁Rapport final - Portrait des solutions technologiques et des flux de données en santé dans les provinces et les territoires Inforoute a mené le premier sondage pancanadien du genre afin d'établir une base de référence des progrès et des possibilités dans des domaines tels que les normes et les systèmes pancanadiens de données sur la santé, le résumé du dossier du patient, la référence électronique et le conseil électronique. | Avis de non-responsabilité Utilisation de l'anglais Pour maintenir l'intégrité du sens, nous avons choisi de ne pas traduire les titres et résumés. Vous pouvez utiliser les outils de traduction automatique disponibles dans certains navigateurs pour traduire les articles en anglais : faites un clic droit sur la page et sélectionnez « Traduire en français ». Notez que l'utilisation de ces outils peut entraîner des différences de sens par rapport au contenu original. Utilisation de l'IA Certains résumés de cette veille, générés avec des outils d'IA pour réduire le nombre de mots, peuvent contenir des imprécisions. Les articles originaux n'ont pas été lus en entier par l'auteure de cette veille, donc le CEIAVD décline toute responsabilité quant aux inexactitudes ou omissions. Les résumés visent à orienter le lectorat sur le contenu. Pour des informations complètes et précises, consultez les articles originaux. Hyperliens Les veilles incluent des liens vers des sites Web créés et mis à jour par des tiers afin de faciliter la consultations des articles. Le CEIAVD n'endosse ni ne garantit, de manière explicite ou implicite, l'exactitude ou l'exhaustivité du contenu de ces hyperliens ou des opinions qui y sont exprimées. Le CEIAVD décline toute responsabilité quant à ces sites Web externes. | | | | |