- Tecniche e metodologie innovative per l’analisi e l’ottimizzazione di processi di trapianto di organi
Il trapianto è un trattamento in continua evoluzione che consente di curare efficacemente, con ottimi risultati in termini di sopravvivenza e qualità di vita, molte malattie che non hanno altre valide possibilità di cura [5,6,7].
Nonostante gli ottimi risultati dal punto di vista clinico e il crescente numero di donazioni registrato negli anni, tale trattamento è limitato da una grave carenza globale di organi disponibili. Pertanto, è importante, qualora si presenti un potenziale donatore, gestire nel modo più efficace ed efficiente possibile il processo di donazione in modo da sfruttare al meglio le potenzialità di tale trattamento. Invero, nel processo donativo il fattore tempo riveste un'importanza fondamentale per ridurre il rischio di deterioramento degli organi.
Un elemento chiave nella procedura di efficientamento è l'incertezza associata all’ottenimento del consenso che comporta il rischio di ritardare lo svolgimento della lunga sequenza di esami necessari per verificare la possibilità del trapianto. Occorre quindi contemperare la necessità di completare la procedura nel più breve tempo possibile e, al contempo, evitare l’esecuzione di costose analisi cliniche nei casi in cui alla fine il consenso non venga rilasciato.
In questo contesto, il presente progetto di ricerca multidisciplinare per il dottorato, si prefigge di studiare, analizzare, modellare e ottimizzare, in collaborazione con il Centro Regionale Trapianti Lazio (CRT-L), tutti i processi riguardanti le procedure di donazione/valutazione di compatibilità che portano al trapianto.
In particolare, in una prima fase del progetto, prendendo spunto da alcuni dati parziali e risultati ottenuti attraverso uno studio preliminare [3], si vogliono identificare e modellare in modo rigoroso tutte le attività che devono essere svolte durante il periodo d’osservazione di un potenziale donatore di organi (valutazioni cliniche, microbiologiche anatomiche, tipizzazioni sierologiche e molecolari, cross-match, ecc.), identificare costi, durate e precedenze fra le attività che impegnano numerosi attori (centri di analisi, ospedali e sale operatorie, centri trapianti, sistemi informativi trapianti, centro nazionale trapianti, trasporti del 118, ecc.), impiegando modelli probabilistici. La necessità di una raccolta dati sistematica, coerente e veloce richiederà una definizione procedurale rigorosa che attualmente manca in molti contesti operativi e la creazione di un sistema informativo opportuno. Gli strumenti utilizzati per la rappresentazione dei processi potranno essere quelli inerenti al Business Process Modeling (BPM) che consentono modellazioni sia della situazione attuale, sia di situazioni future desiderate, in modo da fornire un significativo supporto decisionale. In questa fase si vuole anche mettere a punto un algoritmo di classificazione basato su tecniche di machine learning per predire la probabilità di ottenimento del consenso al trapianto sulla base delle caratteristiche del donatore e del suo contesto socio-demografico. La letteratura esistente non considera tutti gli aspetti sopra citati contemporaneamente, ma si limita a considerarne solo alcuni (e.g. [2,4,5,7]).
In una seconda fase, grazie alla campagna di raccolta dei dati reali reperibili presso il Centro Regionale Trapianti Lazio, alla modellazione rigorosa dei processi e a un’attenta analisi dei dati, si potrà predisporre una simulazione del sistema attraverso la quale individuare gli aspetti critici del processo di donazione. La simulazione dovrà tenere conto di una modellizzazione spesso ottenuta con una quantità di dati limitata. Questo permetterà di sviluppare algoritmi di ottimizzazione per l’efficientamento del processo che possono in alcuni casi anche modificare l’ordine di svolgimento delle varie attività in modo da ridurre il binomio costi-tempi.
In una terza e ultima fase, si vogliono considerare contemporaneamente i diversi attori coinvolti e coordinarne le attività in modo da minimizzare la durata dell’intero processo, in quanto -come già detto- la riduzione dei tempi è indispensabile per la buona riuscita di un trapianto. Fra le attività da coordinare ci sono: l’attivazione delle equipe chirurgiche, le disponibilità delle sale operatorie e l’organizzazione dei trasporti degli organi e delle equipe chirurgiche.
Per quanto detto sopra, le tecniche e le metodologie che verranno sviluppate nel progetto richiederanno competenze trasversali in diversi settori quali l’intelligenza artificiale, l’ottimizzazione, la statistica, la logistica, la complessità computazionale, la gestione dei progetti, la teoria delle decisioni, l’economia aziendale, nonché elementi di base sui processi donativi e di ingegneria medica.
Bibliografia
[1] Feccia M., A. Freda, M. Naldi, G. Nicosia, A. Pacifici, Assessing Compatibility: An Event-Driven Simulation of Organ Transplantation, in preparazione, 2023.
[2] Fleming G., E.M. Thomson, Organ donation and management of the potential organ donor, Anaesthesia & Intensive Care Medicine, 19, 2018.
[3] Freda A., Trapianto di organi: modelli, analisi e simulazione di processi di donazione, Tesi di Laura Magistrale in Ingegneria Gestionale e dell’Automazione, Università degli studi Roma Tre, 2023.
[4] Mendonça F. V., M. Catalão-Lopes, R. Tato Marinho, J. Rui Figueira, Improving medical decision-making with a management science game theory approach to liver transplantation, Omega, 94, 2020.
[5] Vanholder R., B. Domínguez-Gil, M. Busic,et al. Organ donation and transplantation: a multi-stakeholder call to action, Nature Reviews Nephrology 17(8), 554-568, 2021.
[6] Watson C.J.E., Dark J.H., Organ transplantation: Historical perspective and current practice, British Journal of Anaesthesia, 108, 2012.
[7] Yaghoubi, M., Cressman, S., Edwards, L. et al. A Systematic Review of Kidney Transplantation Decision Modelling Studies. Appl Health Econ Health Policy, 21, 39–51, 2023.
- Innovative Techniques and Methodologies for Analysis and Optimization of Organ Transplantation Processes
Organ transplantation is an evolving treatment that effectively cures many diseases, with excellent results in terms of survival and quality of life, for which there are no other valid treatment options [5,6,7].
Despite the excellent clinical results and the increasing number of donations recorded in recent years, organ transplantation is limited by a serious global shortage of available organs. Therefore, it is important to manage the donation process in the most effective and efficient way possible when a potential donor is available, so as to exploit the potential of such treatment. Indeed, time is a fundamental factor in the donation process to reduce the risk of organ deterioration.
One key element in the process of improving efficiency is the uncertainty associated with obtaining consent, which carries the risk of delaying the long sequence of tests necessary to verify the possibility of transplantation. It is therefore necessary to balance the need to complete the procedure as quickly as possible, while avoiding costly clinical analyses in cases where consent is not given.
This interdisciplinary research project aims to study, analyze, model, and optimize, in collaboration with the Regional Transplant Centre of Lazio (CRT-L), all the processes related to donation and compatibility evaluation procedures leading to transplantation.
In the first phase of the project, starting from some partial data and results obtained through a preliminary study [3], we aim at identifying and rigorously modeling all the activities that must be carried out during the observation period of a potential organ donor (clinical, microbiological, anatomical, serological and molecular testing, cross-matching, etc.), identifying costs, durations, and precedences between activities that involve numerous actors (analysis centers, hospitals and operating rooms, transplant centers, transplant information systems, National Transplant Center, emergency transport services, etc.), using probabilistic models. The need for systematic, consistent, and rapid data collection will require rigorous procedural definition, which is currently lacking in many operational contexts, and the creation of an appropriate information system. The tools used to represent processes might be those related to Business Process Modeling (BPM) that allow to model both the current and future (desired) situations, so as to provide a significant decision support tool. In this phase, we also aim at developing a classification algorithm based on machine learning techniques to predict the probability of obtaining consent for transplantation based on donor characteristics and their socio-demographic context. The existing literature only considers some of the above-mentioned features separately, limiting them to certain aspects (e.g. [2,4,5,7]).
In the second phase, exploiting the data available at the Regional Transplant Centre of Lazio, the rigorous process modeling, and a careful data analysis, we will perform several system simulations that will allow to identify critical aspects of the donation process. This will also allow us to develop optimization algorithms for the streamlining of the process that can sometimes modify the order of the various activities in order to reduce the cost-time balance.
In the third and final phase, we aim to consider all the different actors involved simultaneously and coordinate their activities to minimize the duration of the entire process, as reducing time is essential for the success of a transplant. Activities to be coordinated include: activation of surgical teams, availability of operating rooms, and organization of organ transport and surgical teams.
The techniques and methodologies developed in the project will require cross-cutting skills in several areas, including artificial intelligence, optimization, statistics, logistics, computational complexity, project management, decision theory, business economics, as well as basic knowledge of donation processes and medical engineering.
References
[1] Feccia M., A. Freda, M. Naldi, G. Nicosia, A. Pacifici, Assessing Compatibility: An Event-Driven Simulation of Organ Transplantation, in preparazione, 2023.
[2] Fleming G., E.M. Thomson, Organ donation and management of the potential organ donor, Anaesthesia & Intensive Care Medicine, 19, 2018.
[3] Freda A., Trapianto di organi: modelli, analisi e simulazione di processi di donazione, Tesi di Laura Magistrale in Ingegneria Gestionale e dell’Automazione, Università degli studi Roma Tre, 2023.
[4] Mendonça F. V., M. Catalão-Lopes, R. Tato Marinho, J. Rui Figueira, Improving medical decision-making with a management science game theory approach to liver transplantation, Omega, 94, 2020.
[5] Vanholder R., B. Domínguez-Gil, M. Busic,et al. Organ donation and transplantation: a multi-stakeholder call to action, Nature Reviews Nephrology 17(8), 554-568, 2021.
[6] Watson C.J.E., Dark J.H., Organ transplantation: Historical perspective and current practice, British Journal of Anaesthesia, 108, 2012.
[7] Yaghoubi, M., Cressman, S., Edwards, L. et al. A Systematic Review of Kidney Transplantation Decision Modelling Studies. Appl Health Econ Health Policy, 21, 39–51, 2023.
|
- Explainable AI e data cleaning per Pipeline di Traduzione Automatica
Il progetto si propone di progettare, realizzare e sperimentare tecniche di Explainable AI per l’analisi e la diagnosi dei sistemi di Natural Language Processing e di traduzione automatica di Translated.
Le applicazioni di Natural Language Processing e quelle di traduzione automatica del linguaggio naturale da una lingua all’altra sono considerate una delle frontiere dell’intelligenza artificiale. Recentemente, per la realizzazione di questi sistemi si sono affermate tecniche di machine learning basate su reti neurali profonde. Queste tecniche prevedono di addestrare il sistema con esempi costituiti da enormi corpora paralleli (cioè disponibili in più lingue) di documenti. A partire dagli esempi, il sistema impara le corrispondenze tra le diverse lingue non solo a livello lessicale, ma anche a livello sintattico e semantico. Questa abilità viene utilizzata in produzione: un testo in una determinata lingua viene passato in input al sistema che ne restituisce in output la traduzione in una lingua diversa.
Le tecniche basate su machine learning con reti neurali profonde hanno migliorato sensibilmente le prestazioni, soprattutto in termini qualitativi, dei sistemi di traduzione automatica. Tuttavia, la qualità delle traduzioni non è ancora al livello di quelle che possono prodotte da un essere umano. In alcuni casi, le traduzioni automatiche richiedono piccole correzioni; in altri casi, la qualità è talmente limitata da renderle pressoché inutilizzabili.
Per migliorare le prestazioni di questi sistemi di traduzione automatica, generalmente si agisce in due direzioni. La prima consiste nell’aumentare i dati di addestramento; l’obiettivo è quello di migliorare la qualità delle traduzioni fornendo al sistema esempi che possano arricchire le conoscenze lessicali, sintattiche e semantiche. I limiti di questa soluzione risiedono nella disponibilità e nel costo dei dati di addestramento. La seconda direzione mira invece a migliorare il sistema di traduzione automatica, a parità di dati di addestramento. Questa seconda soluzione ha una difficoltà intrinseca dovuta alla complessità del sistema che ha una pipeline di processamento dell’informazione composta da diversi moduli che interagiscono, tipicamente in cascata, dando luogo ad un processo articolato, che va dall’acquisizione dei dati di addestramento alla generazione delle traduzioni. Il miglioramento del risultato finale (la traduzione) può dipendere quindi da molti fattori: dalla qualità dei dati di training alle prestazioni dei vari componenti della pipeline. Inoltre, l’adozione di reti neurali profonde rende alcuni di questi componenti opachi, nel senso che non è possibile comprenderne il comportamento interno: il processamento dell’informazione è completamente nascosto dall’elevato numero di parametri (nell’ordine dei miliardi) imparati dalla rete durante la fase di addestramento, rendendo di fatto il processo non interpretabile.
Per ovviare a questo limite, si è aperto un filone di ricerca dell’Intelligenza Artificiale che prende il nome di Explainable AI (xAI). L’obiettivo è quello di inventare soluzioni (tecniche e metodi) in grado di spiegare il comportamento di sistemi opachi, come quelli basati su Deep Learning. La ricerca in questo settore è molto attiva, anche in considerazione delle implicazioni etiche che possono avere molte applicazioni basate sull’Intelligenza Artificiale. Tuttavia, la ricerca si è concentrata principalmente su problemi di classificazione e visione artificiale, mentre ci sono pochissimi lavori che hanno affrontato queste problematiche per i problemi di processamento del linguaggio naturale e traduzione automatica.
Il presente progetto si propone di studiare tecniche di explainable AI per problemi di natural language processing e traduzione automatica. Una soluzione che si intende perseguire è quella di sviluppare soluzioni che, a partire dal risultato della pipeline (ad esempio da una traduzione) siano in grado di individuare i dati di training che hanno maggiormente influenzato il risultato. In questo modo, analizzando risultati di scarsa qualità, la scoperta di dati di addestramento che hanno influito maggiormente sulla loro produzione darebbe luogo ad una revisione ed una pulizia dei dati di addestramento che potrebbe portare ad un miglioramento delle prestazioni del sistema, sia in termini di efficacia (con una significativa riduzione dei più risultati negativi), che di efficienza (riducendo i dati di training si potrebbero ridurre le risorse di calcolo impegnate in questa fase).
- Explainable AI and data cleaning for a Machine Translation Pipeline
The project aims to design, implement and test Explainable AI techniques for the analysis and diagnosis of Translated's Natural Language Processing and machine translation systems.
Applications of Natural Language Processing and automatic translation of natural language from one language to another are considered one of the frontiers of artificial intelligence. Recently, machine learning techniques based on deep neural networks have established themselves for the realization of these systems. These techniques involve training the system with examples consisting of huge parallel (i.e. available in multiple languages) corpora of documents. Starting from the examples, the system learns the correspondences between the different languages not only at the lexical level, but also at the syntactic and semantic level. This ability is used in production: a text in a given language is passed as input to the system which outputs the translation into a different language.
Techniques based on machine learning with deep neural networks have significantly improved the performance, especially in terms of quality, of machine translation systems. However, the quality of the translations is still not at the level of those that can be produced by a human being. In some cases, machine translations require minor corrections; in other cases, the quality is so limited as to make them almost unusable.
To improve the performance of these machine translation systems, we generally act in two directions. The first is to increase the training data; the goal is to improve the quality of translations by providing the system with examples that can enrich lexical, syntactic and semantic knowledge. The limitations of this solution lie in the availability and cost of the training data. The second direction instead aims to improve the machine translation system, with the same training data. This second solution has an intrinsic difficulty due to the complexity of the system which has an information processing pipeline made up of different modules which interact, typically in cascade, giving rise to an articulated process, which goes from the acquisition of training data to the generation of translations. The improvement of the final result (the translation) can therefore depend on many factors: from the quality of the training data to the performance of the various components of the pipeline. Furthermore, the adoption of deep neural networks makes some of these components opaque, in the sense that it is not possible to understand their internal behavior: the information processing is completely hidden by the high number of parameters (in the order of billions) learned from the network during the training phase, effectively making the process uninterpretable.
To overcome this limitation, an Artificial Intelligence research line has opened up which takes the name of Explainable AI (xAI). The goal is to invent solutions (techniques and methods) capable of explaining the behavior of opaque systems, such as those based on Deep Learning. Research in this sector is very active, also in consideration of the ethical implications that many applications based on Artificial Intelligence can have. However, research has mainly focused on classification and computer vision problems, while there are very few works that have addressed these issues for natural language processing and machine translation problems.
The present project aims to study explainable AI techniques for natural language processing and machine translation problems. One solution that we intend to pursue is to develop solutions that, starting from the pipeline result (for example from a translation) are able to identify the training data that most influenced the result. In this way, by analyzing poor quality results, the discovery of training data that had the greatest influence on their production would give rise to a review and cleaning of the training data that could lead to an improvement in system performance, both in terms of efficacy (with a significant reduction of multiple negative results), and efficiency (reducing the training data could reduce the computing resources involved in this phase).
|