Da anni nel campo della ricerca farmaceutica vengono utilizzate tecnologie di apprendimento automatico per identificare nuovi farmaci, delle vere e proprie intelligenze artificiali (IA) in grado di sviluppare nuove molecole attraverso l’esclusione di tutte quelle che per tossicità potrebbero recare danno all’essere umano. Questo lavoro viene svolto per mezzo di un generatore di molecole MegaSyn2, lo scopo di questo strumento è trovare nuovi inibitori terapeutici per le malattie che colpiscono gli esseri umani, attraverso il supporto di un’intelligenza artificiale.

Cosa accadrebbe se simili intelligenze artificiali venissero riprogrammate per produrre molecole che anziché inibire la malattia risultassero tossiche per l’uomo?

Questo domanda se la sono posta anche gli esperti durante la conferenza internazionale sulla sicurezza organizzata dal Swiss Federal Institute for NBC (nuclear, biological and chemical) Protection —Spiez Laboratory. La conferenza, che si tiene ogni due anni, intende informare i partecipanti sugli ultimi progressi nei campi della chimica, biologia e chimica, nonché l’adozione di tali progressi da parte delle industrie biotecnologiche e chimiche. I partecipanti verificano come tali sviluppi possano influenzare le tecnologie di produzione di sostanze chimiche tossiche, tossine e microrganismi, oltre a prevedere potenziali implicazioni di tali tecnologie per la produzione di armi chimiche e biologiche.

(Credits: Smartweek)

Lo studio e i risultati

Per non lasciare punti interrogativi e verificare empiricamente la questione fatta emergere in ambito accademico, l’azienda Collaborations Pharmaceuticals specializzata nei modelli di apprendimento automatico per la scoperta di nuovi farmaci è stata incaricata di procedere con lo studio.

La ricerca è stata condotta utilizzando il già citato MegaSyn2; in questo caso, a differenza di quanto detto prima, la logica attraverso la quale il generatore lavora è stata completamente invertita. Partendo da un archivio OpenData di principi attivi si è addestrata l’IA in modo tale che dovesse selezionare le molecole più tossiche, indirizzandola, per restringere il campo, verso molecole come l’agente nervino Vx, uno dei più tossici mai sviluppati.

Una volta avviato, il generatore ha impiegato non più di 6 ore per generare all’incirca 40mila molecole tossiche. Durante il processo di generazione, l’intelligenza artificiale ha progettato non solo il Vx stesso, ma anche molti altri agenti noti che sono ritenuti armi chimiche. L’identificazione è avvenuta attraverso la conferma visiva con le strutture presenti nei database pubblici. Sono state sviluppate, oltre ad agenti noti, nuove molecole più tossiche rispetto alle armi chimiche conosciute fino ad ora.

Questo è stato inaspettato perché i set di dati che abbiamo usato per la formazione dell’IA non includevano questa tipologia di agenti. Inoltre le nuove molecole occupavano una regione di spazio nel modello LD50  (dose letale 50) completamente differente dalle molte migliaia di molecole già conosciute che sono ricomprese principalmente in pesticidi, tossine ambientali e farmaci”.

Inoltre l’azienda al termine dello studio ha voluto sottolineare come nessuna di queste molecole sia stata sintetizzata e nemmeno è stato verificato se fossero sintetizzabili; con la progettazione di MegaSyn2 la loro intenzione era quella di realizzare un innocuo modello generativo di molecole per uso farmaceutico e mai, prima che una tale questione venisse sollevata in ambito accademico, si sarebbero aspettati che invertendo l’uso dei modelli di machine learning potessero trasformare un utile strumento medico in un generatore di molecole mortali.

Si prevede che molte delle molecole generate (in rosso) siano più tossiche in vivo nel modello animale rispetto a VX (l’istogramma a destra mostra il cut-off per VX LD50). La struttura chimica 2D di VX è mostrata sulla destra. (Credits: Nature.com)

Open Data? Meglio di sì

Tale vicenda fa sorgere molte domande che possono essere sintetizzate prendendo in considerazione due macro questioni: quanto è rischioso l’utilizzo di una IA nel processo di produzione farmaceutica e fino a che punto possono essere utilizzati gli OpenData in campo medico?

Due questioni che sembrano diametralmente differenti ma che abbiamo visto emergere contemporaneamente laddove si dovesse permettere ad una IA di generare molecole nuove partendo da un database di principi attivi aperto a tutti. 

Gli OpenData sono certo uno strumento utile per mettere a disposizione di tutti informazioni che debbono essere di dominio pubblico, o per meglio dire accessibili a tutti. In campo farmaceutico hanno la stessa funzione, permettono una ricerca immediata dei vari principi attivi contenuti nei farmaci, inoltre le tabelle possono essere scaricate con un semplice click dal sito del ministero della salute. Certamente i principi attivi così non pongono nessun problema, ma come abbiamo potuto vedere, se combinati con software di apprendimento automatico programmato in modo tale da creare sostanze tossiche possono risultare un pericolo per l’umanità.

Una soluzione prospettabile potrebbe essere quella di lasciare pubblici i documenti a condizione che siano scaricati o visionati esclusivamente da determinati soggetti, con determinati requisiti. Ma tale soluzione farebbe cessare il concetto stesso di OD, infatti i dati “aperti” sono al centro del cambiamento globale e sono fondamentali nel raggiungere l’obiettivo di una società più equa e che promuova la collaborazione con i cittadini.

Gli OpenData rappresentano non solo un’opportunità da cogliere ma anche una risorsa collettiva, un efficace controllo pubblico delle attività di governo, uno strumento di innovazione in grado di generare benefici economici e sociali; impedire tutto ciò sarebbe un po’ come impedire ad una piantina di mettere radici nel terreno per poter crescere.

(Credits: Agenda Digitale)

“Ovvero: come ho imparato a non preoccuparmi e ad amare la bomba”

Affrontando ora la questione riguardante l’utilizzo dell’intelligenza artificiale nel processo di produzione farmaceutica, ritengo che sia utile, anzi fondamentale, che modelli di apprendimento automatico supportino l’attività dei ricercatori per la scoperta di nuovi farmaci, al fine di evitare di mettere in commercio farmaci che presentano molecole a prima vista innocue ma in realtà tossiche per l’uomo. Bandire o limitare l’utilizzo di una simile tecnologia sarebbe riprovevole per lo sviluppo della scienza e della tecnica nonché della società.

Dall’altro canto deve essere sempre tenuto a mente che l’IA agisce secondo impulso e su addestramento dell’essere umano, perciò simili tecnologie in mani sbagliate potrebbero avere conseguenze disastrose, un po’ come tutte le cose, anche una semplice matita in mani sbagliate può diventare un’arma: la linea tra l’uso lecito e illecito dipende esclusivamente dalla volontà di chi sta usando quel mezzo in quel determinato momento.

Da questa vicenda capiamo come le potenziali minacce possano trovarsi ovunque, ma comprendiamo anche che non si può vivere come se fossimo nella pellicola di Stanley Kubrick il “Dottor Stranamore” con il terrore che accada qualcosa di catastrofico da un momento all’altro portando così le persone a vanificare qualsiasi forma di progresso. Un po’ di timore è comprensibile e giustificato, infatti bisogna sempre tenere a mente che il rischio c’è ed è reale, per questo motivo i controlli per tutti coloro che posseggono una simile tecnologia debbono essere più accurati e stringenti rispetto a chi possiede una semplice matita 9H.

Condividi!

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.