L’intelligenza artificiale in sintesi con attenzione ad alcune applicazioni in medicina: perché i medici devono iniziare a capire e a pensarci
Abstract
L’intelligenza artificiale (IA), che si riferisce alla capacità delle macchine di imitare funzioni cognitive umane come l’apprendimento, la risoluzione di problemi e la comprensione del linguaggio, rappresenta una delle tecnologie più rivoluzionarie dell’era moderna. Le principali tecniche di IA includono l’apprendimento automatico (machine learning) e l’apprendimento profondo (deep learning), resi possibili da strumenti informatici come le reti neurali semplici e multistrato. La IA sta trovando sempre più applicazioni in ambito diagnostico, prognostico e di ausilio alla pratica medica grazie alla capacità di analizzare grandi quantità di dati e quindi alla potenzialità sia di agevolare un approccio personalizzato, che di espandere la conoscenza. Tuttavia, è fondamentale tenere presente che la IA non può prescindere dalle abilità del programmatore e da dati di alta qualità per fornire risultati affidabili. Questo articolo si propone di aiutare i medici clinici, sia pneumologi che specialisti di altre discipline, a comprendere il linguaggio tecnico dell’intelligenza artificiale. Verranno presentate le principali tecniche dell’IA, con alcuni cenni sulle sue potenziali applicazioni in ambito clinico, evidenziandone vantaggi e limiti. L’obiettivo finale è quello di incoraggiare i medici a non rimanere spettatori passivi, ma a partecipare attivamente, acquisendo una conoscenza più approfondita di un settore tecnologico e di ricerca estremamente dinamico e in costante evoluzione.
Introduzione
Negli ultimi anni, l’intelligenza artificiale (IA) ha conosciuto un’esplosione di interesse e applicazioni pratiche, grazie all’aumento della potenza di calcolo e alla diffusione di software accessibili a tutti. La IA riguarda la creazione di sistemi capaci di eseguire compiti che alternativamente richiederebbero l’intelligenza umana, come il riconoscimento vocale, l’analisi delle immagini, la risoluzione di problemi complessi e la comprensione del linguaggio naturale 1. In medicina, la IA ha è un enorme potenziale in ambito diagnostico-terapeutico: attraverso l’analisi di enormi quantità di dati clinici e genetici, infatti, la IA può aiutare ad effettuare diagnosi di precisione e individuare trattamenti su misura per i singoli pazienti, migliorando l’efficacia delle terapie e riducendone gli effetti collaterali. Inoltre, la capacità dell’IA di apprendere e migliorarsi continuamente implica un’incrementata capacità di accumulare conoscenza in campo medico 1. Mentre la tecnologia continua a evolversi, è essenziale affrontare anche le sfide etiche e regolatorie associate all’uso dell’IA in medicina, garantendo che i benefici siano equamente distribuiti e che la sicurezza dei pazienti rimanga una priorità assoluta. È infatti imprescindibile ricordare come ciò che chiamiamo “intelligenza artificiale” abbia un’essenza matematico-informatica, che si avvale delle capacità di calcolo intensivo proprie dei sistemi informatici ma necessita sia delle competenze dei programmatori che di dati di elevata qualità per fornire risposte affidabili. Da ciò si deduce che il termine IA, per quanto accattivante, può essere anche fuorviante.
Definizioni
L’intelligenza artificiale (IA) è definita come l’abilità di una macchina progettata dall’uomo di simulare capacità umane, come il ragionamento, l’apprendimento, la pianificazione e la creatività.
La Commissione Europea nel 2018 ha descritto l’IA come “quei sistemi che mostrano un comportamento intelligente analizzando il loro ambiente e agiscono, con un certo grado di autonomia, per raggiungere obiettivi specifici” 2.
Storicamente, il concetto di intelligenza artificiale risale ad Alan Turing, matematico inglese e pioniere dell’informatica moderna, celebre per aver decifrato il codice Enigma durante la Seconda guerra mondiale. Egli propose il cosiddetto “Test di Turing”, che definisce una macchina “intelligente” se il suo comportamento risulta indistinguibile da quello umano 3.
Oggi l’IA si divide in tre categorie principali:
- IA debole o ristretta (weak AI): progettata per compiti specifici, come gli assistenti virtuali (SIRI, Alexa), che filtrano le informazioni suggerendo risposte (recommendation systems), o i sistemi di riconoscimento delle immagini (image recognition software).
- IA generale o forte (strong AI): ha la capacità di comprendere, imparare ed applicare conoscenza in modo indistinguibile dall’intelligenza umana; questo livello di IA rimane teorico e non è ancora stato raggiunto.
- IA superintelligente: un’ipotetica forma futura di IA che potrebbe superare l’intelligenza umana in tutti gli aspetti, oggetto di discussione e considerazioni etiche.
Come funziona l’IA, con particolare attenzione alle reti neurali
L’IA ha iniziato a funzionare cercando di simulare il funzionamento del sistema nervoso tramite sistemi informatici e metodi statistico-matematici via via sempre più complessi. La struttura basilare del sistema nervoso biologico è il neurone. Il neurone funziona tramite interconnessioni che trasmettono segnali con altri neuroni e altre cellule dell’organismo. Nel suo funzionamento il sistema nervoso di regola non aumenta il numero dei neuroni nelle varie fasi della vita, ma aumenta e modifica le sue molteplici connessioni coordinando sia le funzioni volontarie che involontarie. Come imitazione del sistema nervoso, l’IA ha identificato come unità di base il percettrone (perceptron). Il percettrone è un operatore matematico elementare che riceve un input e fornisce un output, con uscite binarie (0-1) o continue, grazie ad una regola di apprendimento basata sulla minimizzazione dell’errore (error back-propagation) che nella maggioranza delle applicazioni può essere implementata mediante poche righe di programma (Fig. 1). L’IA si basa quindi su algoritmi logico-matematici che, tramite sequenze di operazioni, analizzano i dati per risolvere problemi complessi. Sul modello delle reti di connessione nervose in biologia, il concetto di percettrone è evoluto in reti neurali artificiali (artificial neuronal networks, ANN), composte da più percettroni, che si adattano e imparano autonomamente analizzando gli effetti delle azioni precedenti. L’IA non si limita a memorizzare dati, ma risolve problemi attraverso processi di apprendimento automatico (machine learning) e apprendimento rafforzativo (reinforcement learning), dove l’algoritmo decide quali azioni compiere in un ambiente simulato, ricevendo ricompense per i risultati ottenuti 4.
Sebbene alcune forme di intelligenza artificiale esistano da più di 50 anni, l’aumento della potenza di calcolo, la disponibilità di enormi quantità di dati e lo sviluppo di nuovi algoritmi hanno accelerato i progressi recenti. L’IA è ormai integrata in robot, veicoli, droni e software di analisi dati come i sistemi di riconoscimento facciale e vocale, i sistemi di analisi di immagini e i motori di ricerca. Una macro-categorizzazione dei sistemi di AI applicati in medicina e biologia comprende:
- reti neurali “multistrato” (“multi-layer” neural network);
- riconoscimento di pattern (pattern recognition);
- machine learning supervisionato e non supervisionato;
- deep learning.
Passiamo in rapida rassegna questi concetti.
Reti neurali multistrato
Nel cervello umano, i neuroni si connettono attraverso sinapsi per controllare funzioni e processi, dai riflessi semplici (come gli archi riflessi, negli esperimenti di Pavlov) 5 al ragionamento complesso (Fig. 2).
Le reti neurali artificiali multistrato si ispirano a questo modello biologico, utilizzando nodi matematici (percettroni) che ricevono input numerici, li elaborano tramite una funzione di attivazione non lineare, e generano un valore di output (ad esempio 1, se la somma degli input supera il valore soglia di attivazione e 0 se non lo supera). Questo passaggio non lineare è essenziale per superare le limitazioni di semplici modelli statistici lineari.
Una rete neurale è composta da livelli (layers), in cui i percettroni dello stato intermedio ricevono informazioni da quelli dello strato superiore e le inviano a quelli dello strato inferiore. Una rete neurale semplice è composta quindi da:
- Layer di input: composto da diversi nodi che ricevono le caratteristiche dei dati in ingresso.
- Hidden layer (“nascosto”): strato intermedio in cui i nodi sommano le caratteristiche di input ed elaborano le informazioni ricevute tramite funzioni di attivazione.
- Layer di output: composto da nodi che ricevono i dati dal layer intermedio e, dopo aver eseguito anche loro un’operazione di ponderazione e attivazione, producono un risultato finale.
La presenza di più strati intermedi nascosti definisce una rete neurale multistrato. Di solito, maggiore è il numero di strati intermedi nascosti, maggiore è la complessità di problemi che la rete neurale può gestire.
La Figura 3 rappresenta un’illustrazione delle reti neuronali, dal percettrone semplice alle reti multistrato con retroazioni, evidenziando l’evoluzione della complessità delle connessioni.
Le reti neurali lavorano in parallelo e possono analizzare grandi quantità di dati senza risentire troppo di dati mancanti o discordanti. Tuttavia, spesso, la complessità dei calcoli eseguiti non permette di interpretare con facilità il processo che ha portato ai risultati, un limite noto come “scatola nera” (black box).
Riconoscimento di pattern
Il riconoscimento di schema o di pattern (pattern recognition) usa metodi statistici per sviluppare algoritmi capaci di identificare automaticamente immagini, suoni, sequenze di testo e altro. Un esempio di pattern recognition è il sistema anti-spam della posta elettronica che determina se una data email è “spam”. Identificare pattern è spesso un obiettivo delle procedure di IA (ad es. “trovare volti in una fotografia”). Successivamente, si applicano algoritmi per rispondere a domande più complesse, come “ci sono persone in questa immagine?”. Se non vengono rilevati volti, l’algoritmo deduce l’assenza di persone, altrimenti produce risposte più dettagliate basate su ulteriori criteri di riconoscimento.
Machine learning
Il machine learning (apprendimento automatico) è un’applicazione di algoritmi che analizzano dati, apprendono dai dati stessi e applicano quanto appreso per compiere decisioni informate. Le reti neurali hanno la capacità di apprendere confrontando il valore di output da loro predetto su un set di dati con quello riscontrato in un altro dataset di training, regolando i loro parametri per ridurre la differenza tra previsione e realtà. Un esempio pratico di machine learning è rappresentato dai servizi musicali on-demand, che suggeriscono artisti o brani da consigliare all’ascoltatore sulla base di altri ascoltatori con gusti musicali simili.
Il machine learning può essere supervisionato o non-supervisionato (supervised vs unsupervised machine learning):
- Apprendimento automatico supervisionato: simile a uno studente che impara guidato da un insegnante, l’algoritmo apprende da un set di dati già etichettati (input e output già noti). L’obiettivo degli algoritmi di apprendimento supervisionato è creare un modello matematico in grado di effettuare previsioni o decisioni, riconoscendo le relazioni tra l’input e l’output forniti. Dopo una fase di addestramento su un dataset, il modello matematico viene testato su un set di dati separato, noto come testing test, per valutarne il potere predittivo e l’accuratezza.
- Apprendimento automatico non-supervisionato (unsupervised machine learning): come uno studente che apprende senza supervisione da parte di un insegnante, all’algoritmo vengono forniti dati senza istruzioni precise su cosa farne (ad es. no etichettatura su specifico outcome o end-point). Apprendendo autonomamente schemi e relazioni nei dati, l’algoritmo che ne deriva è ideale per le analisi esplorative dei dati, l’identificazione di pattern nascosti e la scoperta di modelli non predeterminati dall’operatore 4.
- Deep learning: il deep learning (apprendimento profondo) è un ramo del machine learning basato su reti neurali multistrato composte da almeno 3-4 strati intermedi 4. Questo permette di modellare e apprendere rappresentazioni gerarchiche complesse dei dati. Gli algoritmi utilizzati in deep learning sono particolarmente efficaci nel riconoscimento di pattern complessi e nell’elaborazione di grandi quantità di dati non strutturati. A differenza del machine learning tradizionale, che funziona bene anche con set di dati piccoli e strutturati, il deep learning migliora significativamente con dataset più ampi (big data), ma richiede risorse computazionali più elevate. Infatti, mentre molti algoritmi di machine learning tradizionale possono essere eseguiti su computer standard impiegando un tempo limitato per allenare i propri modelli, il deep learning necessita di hardware più potenti capaci di elaborare all’interno degli strati più profondi delle proprie reti neurali calcoli complessi che richiedono molto più tempo. Inoltre, il processo decisionale del deep learning non è facilmente interpretabile a causa dei molteplici livelli delle reti neurali utilizzate e della complessità della loro architettura. Anche il modello computazionale del deep learning, come il machine learning classico e le reti neuronali semplici, prevede una fase di training che normalmente non è automatizzata e richiede una supervisione umana.
Cenni sulle attuali applicazioni dell’IA in medicina
Tralasciando l’utilizzo di motori di ricerca quali Google per confrontare, migliorare e aggiornare le proprie prestazioni professionali, l’IA ha sviluppato applicazioni che implicano un livello di delega decisionale maggiore da parte del medico alla macchina, a cui risulta ancora più importante mantenere un livello personale di discernimento critico, affinché non si rischi di abolire l’autonomia decisionale e di ragionamento con conseguenze negative se non tragiche 6.
Le applicazioni attuali di IA in medicina possono essere suddivise in 4 categorie:
- Chatbot o software conversazionali;
- Sistemi esperti;
- Applicazioni robotiche;
- Sistemi predittivi.
Chatbot (ChatGPT)
Un chatbot (es. ChatGPT) è un software che simula ed elabora conversazioni umane (scritte o parlate), consentendo agli utenti di interagire con dispositivi digitali come con una persona reale. I chatbot possono essere semplici programmi rudimentali, che rispondono a una semplice query con una singola riga, oppure sistemi più sofisticati, come gli assistenti digitali che apprendono e si evolvono per offrire interazioni sempre più personalizzate. In ambito medico, i chatbot possono svolgere diverse funzioni e si stanno studiando applicazioni per un compito specifico (es. segreteria per informazioni pazienti o per telemedicina). Uno dei problemi principali dei chatbots è la governance delle informazioni: dal momento che gestiscono dati molto sensibili, è necessario assicurarsi e verificare che la soluzione scelta dal chatbot, oltre che veritiera, abbia dimostrato di essere affidabile e rispettosa della privacy. Purtroppo, i ben noti limiti delle consultazioni di “Dr. Google” da parte dei pazienti, si sono estese anche alle consultazioni di ChatGPT, che può fornire informazioni confondenti, allarmanti (favorendo la cybercondria) o imprecise con possibili impatti negativi sulla salute 6. OpenAI, la stessa Azienda di IA proprietaria del chatbot, in un testo su ChatGPT ne riconosce i limiti, dichiarando che “a volte scrive risposte plausibili ma errate o senza senso. Ha problemi anche nel fare calcoli e non riesce a distinguere realtà da fantasia. GPT coglie infatti i rapporti statistici tra le parole, ma non ha consapevolezza dei rapporti tra parole e mondo reale. Non conosce né capisce davvero ciò che scrive. In altre parole, può alimentare la disinformazione, nonostante i filtri presenti, in ambito medico o politico” 8. Al momento, il miglior utilizzo di ChatGPT è per la correzione grammaticale di testi, ma i suoi modelli generativi possono produrre testi ripetitivi o contenenti inesattezze.
Sistemi esperti
I sistemi esperti sono programmi che cercano di replicare con metodi di IA le prestazioni di persone esperte in un determinato campo di attività. Si compone principalmente di tre sezioni: una base di conoscenza in cui sono accumulate le regole deduttive e i dettami procedurali di cui il sistema si serve nel suo operato; un motore inferenziale che analizza dati e generalizza, e un’interfaccia utente che permette l’interazione tra il soggetto umano e il programma che deve dare risposta ai suoi problemi. Questi sistemi, a differenza delle reti neuronali (black box), è sempre in grado di esibire i passaggi logici che sottendono le decisioni prese (glass box).
I sistemi esperti possono essere basati su regole o su alberi decisionali:
- i sistemi a regole utilizzano schemi ben noti al mondo dell’informatica quali IF (condizione) e THEN (azione). Ad esempio, dati sintomi come mal di testa, raffreddore e febbre, il sistema concluderà: IF mal di testa + raffreddore + febbre THEN influenza. È chiaro che si tratta di un’applicazione con risposte preformate che non sempre corrispondono alla soluzione reale e male si adattano a elementi di confondimento o a dati non univoci;
- i sistemi esperti basati su alberi decisionali (delle possibili alternative) seguono un processo ramificato, analizzando le condizioni (IF) e le alternative possibili (AND/OR) fino a raggiungere un nodo finale che rappresenta una conclusione. Anche questi sistemi sono poco flessibili in contesti di incertezza, cosa che invece è frequente in medicina, quando tra il quadro clinico reale e i quadri nosologici classicamente descritti nei manuali di medicina vi sono spesso più elementi non corrispondenti e non codificati.
Per affrontare queste limitazioni, in ambito medico si utilizza spesso la fuzzy logic (logica sfumata), che consente di valutare concetti non del tutto veri o falsi, riflettendo meglio la complessità del mondo reale 7. I sistemi esperti del passato si sono spesso dimostrati meno efficaci degli esperti umani e quindi oggi siamo arrivati ai sistemi esperti di terza generazione che favoriscono i modelli probabilistici rispetto a quelli deterministici, ragionando su “causa-possibili effetti”, anche se in ogni caso non sempre la risposta più probabile può essere quella più utile per il paziente, un problema non banale quando si devono risolvere problemi complessi 6. Quindi si è cominciato a parlare di sistemi di supporto alle decisioni (DSS) che, a differenza dei sistemi esperti precedenti, utilizzano reti funzionanti secondo logiche del teorema di Bayes, detto anche il teorema della probabilità condizionata. Il teorema di Bayes lega infatti la misura di una probabilità di un evento che avverrà “a posteriori” alla misura nota “a priori” della probabilità dello stesso evento. Si tratta però di una statistica frequentista che ammette una maggior probabilità se l’evento o malattia è (stato) più frequente nella stessa popolazione. Tuttavia, questo approccio può essere problematico per malattie rare, poiché privilegia eventi comuni.
Le migliori performance in campo diagnostico sono oggi ottenute quando la diagnosi si basa su analisi di immagini.
Applicazioni robotiche dell’intelligenza artificiale
Le applicazioni robotiche della IA più affermate sono quelle in campo chirurgico. I sistemi di robotica chirurgica tradizionali (Robot Da Vinci) possono risultare limitati da componenti rigidi, rendendo difficile l’accesso ad alcune aree e rischiando lesioni. In risposta, sta emergendo la soft robotics 9, che utilizza materiali flessibili capaci di deformarsi, piegarsi e adattare la propria rigidità. Questo approccio unisce all’affidabilità e alla precisione tipiche della robotica una sicurezza intrinseca delle procedure, permettendo ai robot di raggiungere parti del corpo difficili da esplorare per robot tradizionali e delicate, come ad esempio l’orecchio, l’addome e il torace, eseguendo sia valutazioni diagnostiche che interventi chirurgici.
Intelligenza artificiale predittiva
L’intelligenza artificiale predittiva analizza i dati storici per predizioni future di trend, probabilità di diagnosi e di outcome, schemi e pattern ricorrenti. Questo approccio consente innumerevoli vantaggi; ad esempio, per la gestione del paziente acuto con più opzioni terapeutiche mette a disposizione delle decisioni cliniche del medico la probabilità di successo o insuccesso di una strategia terapeutica rispetto a un’altra, in base a dataset di casi analoghi precedenti che possono essere costruiti anche “su misura” (tailored) in base all’esperienza di quella particolare struttura ospedaliera. Le predizioni dell’IA si basano su machine learning e ragionamenti probabilistici, fornendo risultati espressi come probabilità matematica di un outcome e rigorosamente fondati su dati sperimentali, approccio più scientifico che non quello della programmazione manuale di molti sistemi esperti tradizionali.
Un esempio è l’algoritmo predittivo per la mortalità intraospedaliera recentemente sviluppato dalla SC Pneumologia di Trieste in collaborazione con il Corso di Laurea Magistrale dell’Università di Trieste in Data Science and Scientific Computing 10. Basato su dati di 825 pazienti affetti da SARS-CoV-2 trattati con glucocorticoidi, lo studio ha addestrato, validato e confrontato le prestazioni di 9 algoritmi di machine learning. Il migliore ha ottenuto un’area sotto la curva ROC (Receiver Operating Characteristic) di 0,938 per il compito predittivo in oggetto. Una successiva analisi ha permesso di aprire la scatola nera e valutare il peso delle singole variabili nello spostare la predizione del modello verso la mortalità o la sopravvivenza, sia nell’intera coorte dei pazienti che a livello individuale.
Oltre a fornire predizioni accurate, questi strumenti permettono di ricavare nuove informazioni clinicamente e scientificamente utili dall’analisi delle relazioni tra le variabili di input e la predizione valutata (output). Infatti, a differenza della statistica tradizionale, in cui il p-value fornisce informazioni sull’associazione o meno tra variabili in un contesto di prove di ipotesi, il machine learning permette di quantificare l’influenza di ogni variabile sull’outcome del singolo paziente.
Conclusioni
È indispensabile guardare alle applicazioni di IA in medicina con spirito curioso, critico e consapevole senza mai rinunciare al ragionamento clinico come professionisti ed esseri pensanti.
Infatti, qualsiasi strumento basato su modellazione logico-matematica e IA non può fedelmente riproporre il complesso e inimitabile funzionamento del cervello umano. L’apprendimento automatico può anche suggerire una soluzione “geniale” a problemi reali, ma ciò deve essere giudicato tale da umani che ne sono i fruitori.
“L’IA rimane uno strumento potenzialmente utile, creato dall’uomo, e che deve rimanere uno strumento nelle mani dell’uomo” (discorso di Papa Francesco al G7, Egnazia-BR), e forse non è neppure corretto continuare a chiamare “intelligenza” ciò che oggettivamente non lo è 11.
Infatti, c’è il rischio di attribuire alla tecnologia un’inefficace autorevolezza, come evidenziato da un editoriale di Nature che denuncia l’eccessiva fiducia riposta negli strumenti di IA, spesso considerati erroneamente infallibili, riportando la foto di un laboratorio guidato da IA in Cina 12.
Un altro recente articolo di Scientific American ha sottolineato come sia sbagliato concedere troppa autorevolezza e credibilità agli strumenti basati su IA perché possono replicare e anche amplificare le visioni e i bias legati alle caratteristiche umane di chi li ha progettati, come ad es. cultura, razza e sesso e a volte possono avere vere e proprie “allucinazioni” che insinuano errori, false supposizioni e perdono opportunità. Senza dimenticare che gli strumenti basati su IA sono creati da umani e risentono dei loro punti di vista e convinzioni, oltre che della correttezza dei dati che vengono utilizzati per l’addestramento o training degli algoritmi 13.
La Professoressa Molly Crockett della Princeton University, la stessa di Albert Einstein, ha detto: “essere scettici verso l’intelligenza artificiale non significa disprezzare l’applicazione della IA alla scienza. Noi amiamo la scienza e io sono entusiasta del potenziale della IA per la scienza. Ma proprio perché uno strumento basato sulla IA è utilizzato per la conoscenza scientifica non significa automaticamente che la scienza diventi migliore. Come scienziati, siamo addestrati a negare la nostra umanità. Siamo addestrati a pensare che l’esperienza umana, i pregiudizi e le opinioni non abbiano posto nel metodo scientifico. Ma non è così: come noi definiamo e narriamo le ricerche scientifiche risente della nostra esperienza umana, che può influenzare l’interpretazione dei risultati. Il futuro dei laboratori autonomi “auto-guidati” dalla IA potrebbe addirittura essere considerato l’apice della realizzazione di una formazione scientifica “obiettiva”, ma non è detto che possa portare a una migliore scienza. Stiamo infatti riscontrando sempre più prove che la diversità di pensiero, l’esperienza e la differente formazione negli esseri umani che fanno scienza è vitale per produrre una conoscenza solida, innovativa e creativa. Non vogliamo perderlo. Per mantenere la vitalità della produzione di conoscenza scientifica, dobbiamo tenere gli esseri umani coinvolti nel ciclo”.
Quindi, si potrebbe chiedere qualcuno/a: se prevale lo scetticismo, perché impegnarsi come Pneumologia in ricerche sulla IA? Proprio per capire ed essere coinvolti da subito in un importante settore di ricerca, evitando di diventarne fruitori passivi e inconsapevoli.
Ringraziamenti
Gli autori ringraziano la Fondazione Cassa di Risparmio di Trieste per il supporto fornito alla ricerca.
History
Ricevuto/Received: 16/07/2024
Accettato/Accepted: 04/12/2024
Figure e tabelle
Figura 1.Neuroni biologici (pannello A) ed artificiali o “formali” (pannello B). In un neurone formale sono presenti più grandezze di input che vengono elaborate in modo da ottenere in output una funzione non lineare della somma pesata degli ingressi. Gli ingressi, le uscite e i pesi sono rappresentabili come numeri reali.
Figura 2.Colonne di neuroni della corteccia cerebrale disegnate dal Premio Nobel Santiago Ramòn y Cajal, graficamente simile ad una rete neurale multistrato con molti strati intermedi.
Figura 3.Confronto tra rete neurale semplice monostrato o “shallow” (pannello A) e multistrato che ha più nodi intermedi (pannello B). Nel deep learning, una modalità di machine learning, gli strati intermedi “nascosti” devono essere almeno 3-4. Nelle reti neurale con retroazione (frecce azzurre), il succedersi delle operazioni può rimandare l’output del nodo al nodo stesso o all’intero layer precedente. Questo permette di processare una sequenza di input tenendo una forma di “memoria” del passaggio dell’informazione, al costo di un certo ritardo nel processo.
Riferimenti bibliografici
- Beam AL, Drazen JM, Kohane IS. Artificial intelligence in medicine. N Engl J Med. 2023; 388:1220-1221. DOI
- Publisher Full Text
- Turing AM. Computing machinery and intelligence. Mind. 1950; 49:433-460.
- Russell S, Norvig P. Intelligenza artificiale, un approccio moderno (Vol.1, 4a Ed). Pearson Italia: Milano; 2021.
- Pavlov IP. Conditioned reflexes: an investigation of the physiological activity of the cerebral cortex. Oxford University Press: Oxford; 1927.
- Mitchell M. Intelligenza artificiale: una guida per esseri umani pensanti. Piccola Biblioteca Einaudi Ns: Torino; 2022.
- Van Bulck L, Moons P. What if your patient switches from Dr. Google to Dr. ChatGPT? A vignette-based survey of the trustworthiness, value, and danger of ChatGPT-generated responses to health questions. Eur J Cardiovasc Nurs. 2024; 23:95-98. DOI
- Sandonnini P. ChatGPT di OpenAI: tutto quello che c’è da sapere sulla piattaforma che ha rivoluzionato i chatbot. NetworkDigital360, AI4Bussiness: Milano; 2024.
- Ceschi L, Mazzolai B, Cianchetti M. Soft robotics: technologies and systems pushing the boundaries of robot abilities. Sci Robot. 2016; 1:eaah3690. DOI
- Salton F, Rispoli M, Confalonieri P. A tailored machine learning approach for mortality prediction in severe COVID-19 treated with glucocorticoids. Int J Tuberc Lung Dis. 2024; 28:439-445. DOI
- Publisher Full Text
- Why scientists trust AI too much - and what to do about it. Nature. 2024; 627:243. DOI
- Ghandeharizadeh S. Too much trust in AI poses unexpected threats to the scientific process. Scientific American. 2024; 2024
Affiliazioni
Licenza

Questo lavoro è fornito con la licenza Creative Commons Attribuzione - Non commerciale - Non opere derivate 4.0 Internazionale.
Copyright
© Associazione Italiana Pneumologi Ospedalieri – Italian Thoracic Society (AIPO – ITS) , 2025
Come citare
- Abstract visualizzazioni - 250 volte
- PDF downloaded - 61 volte