PROGETTAZIONE DEI FARMACI

XXI Secolo (2010)

Progettazione dei farmaci

Maria Menichincheri

La disponibilità di farmaci efficaci è uno dei principali fattori che contribuiscono a elevare la qualità della vita di ogni essere umano, tanto che nei Paesi più sviluppati tale disponibilità è ormai ritenuta un diritto inalienabile. Ciò nonostante, è generalmente ignoto alla popolazione che scoprire un farmaco contenente un nuovo principio attivo mai approvato prima per la commercializzazione (new chemical entity, NCE) e renderlo fruibile alla comunità, è un processo che richiede in media circa 10 anni, durante i quali l’industria farmaceutica investe cifre dell’ordine del miliardo di euro.

Il processo di scoperta e sviluppo di un nuovo farmaco (drug discovery and development) prevede diverse fasi (fig. 1). Quella iniziale (di vera e propria identificazione della nuova molecola), indicata comunemente quale fase di discovery, implica un lavoro multidisciplinare di ricerca di biologi, chimici e farmacologi per identificare innanzi tutto il potenziale bersaglio farmacologico, ossia l’elemento o il meccanismo biologico su cui intervenire per modificare il percorso di una malattia. In funzione del tipo di patologia, infatti, il bersaglio può essere molto diverso: un virus o un batterio nel caso di malattie infettive come l’epatite o la tubercolosi; la mancanza di un ormone in alcune patologie metaboliche come il diabete; il meccanismo di degenerazione delle cellule cerebrali nel morbo di Alzheimer e così via. Il bersaglio può quindi essere un microrganismo, una proteina difettosa, un legame molecolare alterato, un segnale biochimico mal funzionante. Identificarlo non è semplice. Più una patologia è complessa, infatti, più è difficile individuare i punti chiave su cui intervenire per ottenere benefici in termini di guarigione. Occorre inoltre identificare nuove molecole attive sui bersagli biologici stessi, in grado quindi di esercitare l’effetto terapeutico atteso. L’identificazione di queste nuove molecole è realizzata prima mediante diversi saggi biologici in vitro (per es., su proteine isolate o su linee cellulari) e poi mediante saggi biologici in vivo, su modelli animali.

Se durante la fase iniziale di discovery un nuovo composto (o anche più di uno) è ritenuto sufficientemente interessante per prospettarne un futuro sviluppo quale farmaco, esso sarà valutato in una serie di studi preclinici condotti sugli animali, allo scopo di vagliarne la sicurezza e la tollerabilità, così come le tossicità più rilevanti negli organi (quali cuore, polmoni, fegato, sistema gastrointestinale, reni e cervello) in relazione alla dose efficace. Il fine principale è arrivare alla raccomandazione della dose (quantità di farmaco a unità di peso corporeo del paziente) e del tipo di somministrazione da usare (orale, intravenoso, intramuscolare, topico ecc.) quando il prodotto sarà somministrato per la prima volta all’uomo. In questa fase preclinica sono inoltre oggetto di studio: la produzione del composto, la sua formulazione e la relativa stabilità. Tutti questi studi sono condotti all’interno e sotto il diretto controllo dell’industria farmaceutica, e sono svolti in osservanza delle cosiddette buone procedure di laboratorio (GLP, Good Laboratory Practices). Questo insieme di percorsi genera la documentazione necessaria per richiedere agli organismi regolatori e di controllo l’autorizzazione per gli studi clinici sull’uomo.

Infatti, da questo punto in poi il processo di sviluppo di un farmaco è svolto costantemente sotto la vigilanza degli organismi di controllo, quali la statunitense Food and drug administration (FDA) e la European medicines agency (EMEA), che autorizzano o meno l’avvio degli studi clinici nell’uomo, processo indicato come IND (Investigational New Drug application). Superato questo vaglio possono essere condotti gli studi clinici su umani, tradizionalmente suddivisi in quattro fasi: il completamento delle prime tre (fasi I-III) conduce alla commercializzazione del prodotto, previa approvazione delle autorità di controllo (NDA, New Drug Application); una volta iniziata la commercializzazione, il farmaco è comunque costantemente tenuto sotto osservazione (farmacovigilanza), e questo periodo è indicato come fase IV.

Qui di seguito saranno descritte brevemente le ricerche e le finalità presenti nelle diverse fasi di indagine clinica. Occorre precisare che sia il numero dei soggetti sottoposti a indagine nelle diverse fasi sia la durata delle stesse possono variare fortemente in funzione dell’area terapeutica esaminata e dell’andamento degli studi (Preziosi, in Comprehensive medicinal chemistry II, 2007). Pertanto i valori che verranno riportati sono indicativi.

In casi particolari, quando, per es., si voglia accelerare lo sviluppo di un prodotto particolarmente promettente o si voglia fare una selezione tra più prodotti potenziali, è possibile effettuare, su non più di 10-15 soggetti, uno studio di fase che costituisce uno stadio preliminare della fase I. In questo stadio si somministrano microdosi del farmaco nel volontario sano, allo scopo di studiarne i livelli ematici e la sua distribuzione nell’organismo. Questa procedura è, tuttavia, suscettibile di critiche, perché è difficile stimare quali saranno i valori di concentrazione ematica per dosi terapeutiche partendo da dati relativi a dosi subterapeutiche.

Durante la fase I gli studi sono dedicati alla verifica della sicurezza d’impiego e della tollerabilità del candidato farmaco su volontari sani, ma anche su pazienti, se affetti, per es., da patologie oncologiche e quindi in grado di poter beneficiare del trattamento. Questi studi sono utili in particolare per evidenziare gli aspetti di tollerabilità e d’insorgenza di effetti collaterali per somministrazioni brevi del candidato farmaco, e quindi per l’identificazione della massima dose tollerata, così da individuare un dosaggio sicuro. Questa fase solitamente richiede da un anno a un anno e mezzo, e necessita dai 50 ai 100 soggetti cavia.

Gli studi clinici condotti nella fase II sono diretti a determinare la reale efficacia terapeutica del candidato farmaco, nonché a completare le precedenti verifiche di sicurezza d’impiego, in confronto con il trattamento terapeutico standard o con un placebo. In funzione del tipo di composto sotto esame e delle condizioni di somministrazione, questa fase richiede generalmente da 1 a 2 anni, ed è condotta su diverse centinaia di pazienti sofferenti della patologia per la quale è ricercato il nuovo farmaco. Le indagini dovrebbero indicare sia la sicurezza di somministrazione a breve termine sia l’efficacia del candidato farmaco, arrivando a dimostrare l’ipotesi concettuale di efficacia (proof of concept) necessaria per proseguire gli studi clinici. È importante segnalare che molti degli studi condotti in questa fase sono effettuati ricorrendo a metodologie statistiche (randomized clinical trial, RCT), e ciò implica che il candidato farmaco, il placebo o eventualmente un farmaco di controllo siano assegnati ai pazienti in modo casuale. Molti di questi studi sono anche condotti in doppio cieco (situazione in cui né i pazienti né i ricercatori conoscono chi sta ricevendo il placebo o il candidato farmaco).

Durante la fase III, gli studi sull’efficacia terapeutica sono ripetuti su un campione esteso di pazienti sofferenti della specifica patologia (dalle diverse centinaia a qualche migliaio di pazienti). Le ricerche in merito durano tipicamente da 1 a 4 anni e oggi sono quasi sempre condotte in modalità doppio cieco. L’obiettivo è quello di valutare l’efficacia e la sicurezza del farmaco e il suo profilo terapeutico, cioè indicazioni, dosi, vie di somministrazione, effetti collaterali, interazioni con altri farmaci e controindicazioni.

Se tutte le precedenti fasi hanno dato esito positivo, la documentazione raccolta è inviata agli organismi di vigilanza per ottenere l’approvazione alla commercializzazione del farmaco (fase di approvazione). La documentazione prodotta deve dimostrare inequivocabilmente che esso produce effetti benefici sulla patologia cui è destinato se somministrato secondo le posologie determinate nelle fasi I-III. Il conseguimento dell’approvazione alla commercializzazione può richiedere dai 6 mesi ai 2 anni.

Infine, anche dopo la sua commercializzazione un farmaco rimane sotto osservazione nella fase IV. In quest’ultima sono condotte tutte le prove supplementari e le vigilanze mediche atte a determinare anche l’insorgenza di effetti collaterali rari, identificabili unicamente quando il farmaco è somministrato su un campione veramente esteso di pazienti.

Solitamente, soltanto 5 su 5000 nuovi composti identificati durante la fase iniziale di discovery sono considerati sufficientemente sicuri da poter essere sottoposti, dopo le prime valutazioni precliniche, ai test sull’uomo. Dopo un periodo compreso tra i 3 e i 6 anni di ulteriori test su pazienti, soltanto uno di questi è solitamente approvato quale farmaco per quello specifico trattamento. Peraltro, la ripartizione delle spese di ricerca non è omogenea nelle diverse fasi, con circa un quarto dei costi attribuibile alla ricerca preclinica, circa la metà agli studi clinici e la parte restante alle fasi di approvazione e di farmacovigilanza. Diviene quindi chiaro l’obiettivo di disporre nella fase iniziale (studi preclinici) di paradigmi di ricerca di nuove molecole che diminuiscano il più possibile le probabilità di fallimento durante la successiva sperimentazione clinica, al fine quindi di minimizzare ciò che viene comunemente indicato come deficit d’innovazione (innovation gap; fig. 2), cioè la differenza esistente tra crescita delle spese di ricerca e mancata crescita del numero di nuovi farmaci approvati; all’aumentare del deficit d’innovazione crescono i costi che de­vono essere sostenuti per la scoperta di un nuovo farmaco.

Scoperta di un nuovo farmaco

Storicamente, il processo di scoperta di un farmaco nell’industria farmaceutica veniva affrontato in modo empirico (Williams, in Comprehensive medicinal chemistry II, 2007). In origine, infatti, la ricerca di un nuovo principio attivo si fondava sul vaglio di sostanze naturali, per es. estratte da erbe medicinali o ottenute da microrganismi (come nel caso degli antibiotici), per poi valutarne gli effetti correlati alla malattia su tessuti biologici oppure direttamente su animali. In seguito, in particolare negli anni Sessanta e Settanta del 20° sec., contemporaneamente all’approccio biochimico che diede inizio alla fase di valutazione del meccanismo d’azione del farmaco, la ricerca nell’industria farmaceutica si focalizzò sulla modifica e sull’ottimizzazione di farmaci già noti, come gli inibitori dell’enzima convertitore dell’angiotensina (angiotensin-converting enzyme, ACE), gli antibiotici chinolonici o le cefalosporine, generando così numerosi nuovi prodotti di successo sul mercato. Fu però con la rivoluzione biotecnologica degli anni Ottanta che il quadro di ricerca del farmaco iniziò a cambiare sostanzialmente, e si arrivò a definire quel modello strutturato che, pur soggetto a continue evoluzioni, è ancora oggi applicato più o meno uniformemente nell’industria farmaceutica. Infatti, la biologia molecolare e la biotecnologia resero possibile lo studio di obiettivi biologici correlati ai processi patologici in esame grazie all’espressione di proteine ricombinanti (cioè ottenute mediante la tecnica del DNA ricombinante). Da qui nacque anche la prospettiva di poter utilizzare le proteine stesse quali agenti terapeutici. Anche se questa eventualità si è realizzata solo in parte, è giusto menzionare alcune tra le proteine identificate tramite quest’approccio e in seguito commercializzate, quali l’ormone della crescita, l’insulina e l’interferone.

Tra la fine degli anni Ottanta e l’inizio degli anni Novanta, i progressi biotecnologici diedero impulso agli sviluppi alla base dei saggi biologici in vitro ad alta capacità, universalmente noti con il termine high-throughput screening (HTS), e della chimica combinatoriale, entrambi paradigmi del modello di scoperta di nuovi farmaci basato sui grandi numeri, sia in termini di molecole prodotte dalla chimica, sia relativamente alla capacità di vagliarle sugli obiettivi biologici al fine di aumentare l’efficienza del processo e la sua produttività, intesa come numero di specie attive identificate. Infine, il sequenziamento del genoma umano ottenuto nel 2001 ha aperto una nuova frontiera, rendendo possibile l’identificazione di numerosi obiettivi biologici specifici associati alla malattia in esame, così da essere potenzialmente in grado di identificare nuovi farmaci più efficaci, selettivi e meno tossici. In particolare, si stima che dei circa 30.000 geni del ge­noma umano, soltanto una loro frazione, compresa tra 3000 e 10.000, sia correlabile a processi patologici. Se poi si prendono in considerazione soltanto gli obiettivi biologici potenzialmente in grado di essere modulati da composti a basso peso molecolare, quali i farmaci a cui ci riferiamo, il numero dei potenziali bersagli farmacologici perseguibili potrebbe attestarsi vicino al range 600÷1500. È in questo contesto che nasce la disciplina chiamata genomica, che descrive lo studio di un genoma mediante approcci molecolari.

Contemporaneamente alla nascita della genomica ebbe un rapido impulso lo sviluppo di discipline a essa correlate quali, per es., la proteomica e la farmacogenomica (Erhardt, Proudfoot, in Comprehensive medicinal chemistry II, 2007). Se il proteoma è definito come l’insieme delle proteine espresse in una cellula, in un organo o in un organismo, incluse tutte le relative isoforme e varianti, la proteomica è la tecnologia volta a determinare l’espressione differenziale delle proteine stesse e le relative varianti per studiarne funzioni e interazioni, e identificare potenziali nuovi bersagli biologici della malattia. La farmacogenomica, invece, mette in relazione il contributo di geni o prodotti genici con le diverse risposte ai farmaci, ma anche con la loro tossicità. In pratica, l’analisi farmacogenomica può, in linea di principio, identificare geni connessi alla malattia, così come geni suscettibili al farmaco in termini di efficacia e tossicità. Quindi, la risposta trascrizionale al trattamento delle cellule con un farmaco può diagnosticare la sua efficacia e la sua eventuale tossicità a livello molecolare; ciò consente di identificare potenziali indicatori biologici (biomarkers) che evidenzino inequivocabilmente processi biologici, patogenici o risposte farmacologiche a un intervento terapeutico. In quest’ultimo caso si definisce un parametro misurabile di efficacia, ma anche di tossicità, molto importante nello stadio di sviluppo clinico del farmaco.

Nel complesso, l’emergere di queste discipline sembra foriero di forti prospettive di sviluppo nella ricerca di nuovi farmaci. Tale aspettativa è oggi però attenuata dai dati, che indicano un continuo calo del nu­mero di farmaci che entrano sul mercato (fig. 2). Le cause principali per la mancata progressione di nuovi farmaci risiede principalmente negli effetti tossici e nella mancanza di efficacia dei composti vagliati durante gli studi clinici (CBO 2006).

Appare quindi chiaro che all’atto pratico è necessario razionalizzare il ricorso a tutte le discipline prima citate, al fine di aumentare l’efficacia e l’efficienza del processo di ricerca. Pertanto, nei paragrafi successivi saranno descritti i diversi modelli di ricerca di nuovi farmaci oggi maggiormente in uso, dettagliandone le fasi fondamentali e le procedure in essi presenti.

Modelli strutturati di ricerca di un nuovo farmaco

Il modello di ricerca di un nuovo farmaco è in continua evoluzione, poiché la comparsa di nuove tecnologie e il ridimensionamento di quelle consolidate ne modificano costantemente l’essenza.

Il principale modello di ricerca e progettazione di nuovi farmaci attualmente adottato, soprattutto dalle grandi aziende farmaceutiche, è schematizzato nella figura 3 che ne rappresenta gli stadi più importanti (con la relativa evoluzione temporale del numero di molecole coinvolte, solitamente indicato quale imbuto di selezione). Tale modello si basa sull’individuazione iniziale di uno specifico bersaglio biologico, che sia stato opportunamente identificato e validato (target identification and validation). Successivamente si procede a mettere a punto il saggio biologico in vitro, in un procedimento che sia in grado di quantificare l’effetto di un composto chimico sull’obiettivo biologico prima individuato. Dato che l’attività di un farmaco è normalmente indicata mediante un valore di concentrazione, quanto più piccolo sarà tale valore tanto maggiore sarà la potenza della molecola nel produrre l’effetto desiderato.

Utilizzando la citata procedura HTS, il saggio in precedenza calibrato, unitamente all’applicazione di analisi statistiche dei risultati ottenuti, è impiegato per verificare la potenza di ampie librerie di molecole, le cui dimensioni vanno da centinaia di migliaia a diversi milioni di composti chimici, in funzione della natura chimica delle librerie stesse e del tipo di saggio biologico utilizzato. I composti così individuati, comunemente detti composti capostipite (hit compounds o hits), oltre a essere statisticamente positivi al saggio biologico devono avere: basso peso molecolare; non devono contenere gruppi funzionali indesiderati; devono essere chimicamente modificabili, così da permettere l’identificazione di nuove entità chimiche appartenenti alla medesima classe; infine, devono consentire una soddisfacente protezione nell’ambito della proprietà intellettuale. Queste collezioni di composti sono in genere il frutto dell’attività di sintesi svolta nel corso di anni nell’ambito di programmi di ricerca interni alle aziende, ma anche il risultato di campagne di acquisti da fornitori esterni e di sviluppo di nuove librerie di composti, sintetizzati in grande numero mediante la chimica combinatoriale. Quest’ultima consente di preparare numerosi composti simultaneamente mediante la stessa via sintetica, e ha reso possibile un notevole incremento di produttività, soddisfacendo così le esigenze dell’HTS.

In termini generali, l’individuazione dei composti capostipite rappresenta oggi la vera fase di scoperta casuale delle classi chimiche potenzialmente attive su un determinato bersaglio biologico. Da questo punto in poi iniziano le fasi di espansione e di ottimizzazione dei composti appartenenti alle classi chimiche così individuate. Ciascuno dei prodotti sintetizzati è a sua volta sottoposto al saggio biologico per verificare se le modifiche strutturali apportate alla molecola aumentano o meno le sue proprietà farmacologiche rispetto all’obiettivo desiderato. Nel loro complesso, queste procedure portano a definire le relazioni esistenti tra struttura molecolare del composto e sua attività biologica, comunemente indicate con la locuzione relazione tra struttura e attività (structure-activity relationship, SAR). Alla fine, questa fase della procedura di discovery porta all’individuazione di uno o più composti guida (lead compounds o leads) e pertanto essa è comunemente denominata da composto capostipite a composto guida (hit to lead). Il composto guida è definibile come una molecola prototipo attiva e selettiva in una serie di saggi biologici, anche cellulari, attorno alla quale si sia evidenziata una modulazione dell’attività sull’obiettivo biologico in funzione delle modifiche strutturali, e per la quale si possano già avere indicazioni di attività in vivo.

L’ottimizzazione dei composti guida (lead optimization), non soltanto in termini di potenza e di selettività rispetto all’obiettivo biologico in esame, ma anche rispetto alla presenza, nei modelli animali, di proprietà farmacocinetiche (per es., di biodisponibilità orale) e tossicologiche, consente di arrivare alla selezione dei pochi candidati finali per un potenziale sviluppo clinico.

Le fasi di manipolazione dei composti capostipite, sino all’individuazione di quelli guida e il massimo miglioramento di questi ultimi, sono il campo di azione della chimica medicinale (medicinal chemistry), che progetta la sintesi di nuove molecole, le cui modifiche strutturali permettono di ottimizzare le proprietà del prodotto, elevandone così i parametri di attività e nel contempo riducendone gli aspetti indesiderati di tossicità.

Naturalmente questo processo di scoperta del farmaco, legato a una selezione casuale e massiva di molecole, è integrato con altri approcci che contribuiscono allo sviluppo delle molecole individuate. A questo proposito l’approccio razionale della progettazione del farmaco (structure-based drug design) è basato sulla disponibilità della struttura tridimensionale del bersaglio biologico, quale, per es., una proteina, ottenibile principalmente mediante cristallografia a raggi X, ma anche attraverso l’impiego della risonanza magnetica nucleare (nuclear magnetic resonance, NMR). In questo caso, la conoscenza della struttura del bersaglio biologico, o meglio dei potenziali siti d’interazione con un legante, agevola la progettazione delle strutture molecolari che meglio possano interagire con l’obiettivo biologico stesso, modulando un’attività terapeutica. La progettazione di nuove molecole trae ausilio da tutti i più recenti metodi di chimica computazionale, che permettono di stimare le possibili interazioni molecola-obiettivo prima che avvenga la sintesi della molecola stessa, consentendo così sensibili risparmi di tempo. Quindi, mediante l’uso di tecniche computazionali e metodi teorici, solitamente indicati con il termine di modellistica molecolare (molecular modeling), si cerca di simulare e mimare il comportamento della molecola nella sua interazione con il bersaglio biologico, così da predirne l’orientazione rispetto al bersaglio stesso una volta formato il complesso tra i due, stimarne l’affinità di legame e infine predirne la potenziale attività biologica. Tenendo conto del continuo incremento di affidabilità di queste simulazioni, basate su metodi quantomeccanici e di dinamica molecolare, se ne fa ricorso oggi in modo imprescindibile all’interno di un modello strutturato di ricerca di un nuovo farmaco (Seifert, Lang 2008).

Anche nel caso in cui si sia fatta una prima selezione di composti capostipite mediante l’HTS di una collezione proprietaria di molecole, si cerca comunque di ottenere la struttura della proteina, in modo da utilizzarla per massimizzare l’efficienza delle fasi che vanno dall’individuazione del composto guida sino all’ottimizzazione finale dello stesso. Nel caso in cui non sia nota la struttura del bersaglio biologico, ma ne sia noto un suo ligando, è sempre possibile utilizzare questa informazione per identificare molecole con profilo migliore di attività e di proprietà, modalità definita progettazione di farmaci basata sul ligando (ligand-based drug design, LBDD). Secondo quest’approccio si possono identificare nuovi composti mediante l’analisi di similarità strutturale con il ligando noto, oppure facendo uso di modelli farmacoforici generati ad hoc, laddove con modello farmacoforico s’intende quell’insieme di proprietà stereoelettroniche che assicurano un’interazione ottimale con il bersaglio biologico e ne consentono la modulazione dell’attività. In questi casi da una serie di composti attivi si arriva a identificare la relazione quantitativa tra la loro struttura molecolare e la corrispondente attività biologica, definita relazione quantitativa tra struttura e attività (quantitative structure-activity relationship, QSAR), che consente di predire l’attività di composti sulla base sia delle loro similitudini sia delle differenze strutturali.

Un altro strumento che può essere utilizzato per l’individuazione di composti capostipite è lo screening virtuale (virtual screening). Tale metodo, detto anche virtual high-throughput screening, si qualifica come ricerca computazionale fondata sull’interrogazione di banche dati di molecole reali o virtuali, che si basi sull’utilizzo di un farmacoforo, o della struttura di un ligando noto, o della struttura cristallografica della proteina bersaglio, o infine di un modello di omologia. Questa tecnica si è andata sempre più affermando come una possibile alternativa all’HTS, anche per la convenienza in termini di tempi e di costi. Un’utilizzazione tipica riguarda la selezione di molecole da includere nella pianificazione e sintesi di nuove librerie, laddove dopo la generazione di una libreria virtuale, anche di grandi dimensioni, è possibile filtrare solo gli elementi più promettenti per la sintesi.

Per valutare la similarità o la complementarità delle molecole rispetto ai requisiti imposti dalla ricerca, è utilizzata una funzione di punteggio, cui fa seguito la conferma dell’affinità biologica dei prodotti attivi nel saggio corrispondente. I composti capostipite, così identificati, sono a loro volta sottoposti all’iter d’identificazione di analoghi, confermati nel test biologico per consentire di costruire un primo profilo di correlazione tra struttura e attività (SAR). Come negli altri tipi di screening, anche in questo caso si utilizzano di solito sistemi di filtro prima e/o dopo lo screening virtuale, basati sulle proprietà chimico-fisiche o farmacoforiche, che consentano di implementare la qualità dei composti capostipite.

Dall’inizio del 21° sec., tuttavia, un nuovo approccio, chiamato progettazione di farmaci mediante l’analisi dei frammenti (fragment-based drug design, FBDD), si è andato sempre più affermando, ed è ormai riconosciuto come una valida alternativa alle procedure di HTS (Fragment-based approaches in drug discovery, 2006; Congreve, Chessari, Tisi, Woodhead 2008). Esso presuppone di vagliare un numero iniziale molto limitato (dell’ordine di poche migliaia) di piccole molecole (frammenti), che vengono poi elaborate fino all’identificazione di nuovi composti guida da sviluppare in farmaci. Quest’approccio si basa essenzialmente su alcuni concetti principali. Il primo riguarda il campionamento dello spazio chimico, che può essere eseguito più efficientemente provando collezioni di piccoli frammenti piuttosto che ampie librerie di molecole a più alto peso molecolare. Infatti, si stima che il numero di potenziali frammenti contenenti fino a 12 atomi pesanti (escludendo l’idrogeno) sia dell’ordine di 107, mentre il numero di possibili molecole simil farmaco (drug-like) contenenti fino a 30 atomi pesanti sia maggiore di 1060. Ne consegue che è possibile esplorare più efficientemente lo spazio chimico dei frammenti, di quanto non avvenga per lo spazio chimico delle molecole simil farmaco nell’ambito dell’HTS. D’altra parte, all’aumentare della complessità molecolare diminuisce la probabilità di ottenere un’interazione efficiente con il bersaglio. Infine, poiché il frammento è una piccola molecola con peso molecolare minore o uguale a circa 250 Da, esso legherà con minore affinità la proteina obiettivo (attività espressa per concentrazioni dell’ordine di 106÷103 mol/l) rispetto a molecole simil farmaco (che esprimono attività nell’intervallo di 109÷106 mol/l), ma l’efficienza di legame per atomo pesante è elevata e almeno comparabile a quella di molecole più grandi. Questo comporta che i metodi di saggio applicati nel FBDD devono essere più sensibili dei saggi utilizzati nell’HTS per poter valutare le deboli interazioni nel sito di legame dei frammenti. Essi si basano principalmente su risonanza magnetica nucleare, cristallografia a raggi X, spettrometria di massa, risonanza plasmonica superficiale (SPR, Surface Plasmon Resonance) o anche su un test biochimico ad alta concentrazione.

L’esame iniziale di librerie di frammenti consente di identificare quelli positivi, che vengono poi elaborati in modo da aumentarne l’affinità per il bersaglio biologico. L’ottimizzazione dei frammenti è un processo iterativo, in cui l’informazione strutturale è di fondamentale importanza. È questo quindi un processo di generazione di nuove molecole guida da sviluppare fino al farmaco, che coniuga i principi dell’HTS con quelli dell’approccio razionale basato sulla struttura, e che attualmente sempre più aziende farmaceutiche stanno adottando, viste le promettenti prospettive.

Per concludere, è bene evidenziare che le complesse procedure di ricerca e ottimizzazione di nuove molecole guida sopra descritte comportano la produzione di una mole ingente di dati, da cui deriva lo sviluppo parallelo di sistemi chemoinformatici necessari per il loro immagazzinamento e la loro utilizzazione intelligente, in modo da trasformare l’informazione in conoscenza più facilmente gestibile.

Identificazione e validazione del bersaglio biologico

Il gruppo di operazioni volte a tale classificazione del bersaglio biologico, comunemente indicato come target, è uno stadio molto importante dell’attuale ricerca di un nuovo farmaco, in quanto ne studia il legame con il processo patologico, legame che sarà effettivamente provato solo nel momento degli studi clinici sull’uomo. La validazione è correlabile alla probabilità che la modulazione farmacologica del bersaglio biologico possa alleviare la malattia e i suoi sintomi. Parimenti va assicurato che il bersaglio biologico abbia il potenziale di essere modulato da composti a basso peso molecolare.

A scopo esemplificativo, si possono menzionare alcune tecnologie che consentono di eliminare, o spegnere selettivamente, particolari geni per ottenere informazioni sul ruolo e la rilevanza dei prodotti genici in questione e, potenzialmente, per simulare gli effetti di un composto in grado di comportarsi da perfetto antagonista/inibitore. Per es., una delle tecniche più utilizzate, ben sperimentata su cellule di mammifero, è lo spegnimento genico mediante l’uso di small interfering RNA (siRNA), piccole sequenze di RNA lunghe 21-23 nucleotidi. Anche questa tecnica può essere applicata in modalità HTS.

In generale l’interferenza RNA (RNA interference, RNAi) è un meccanismo biologico volto a regolare il silenziamento postrascrizionale di geni attraverso l’azione di molecole regolatrici endogene di RNA, dette micro RNA (miRNA). Queste interagiscono specificamente con l’RNA messaggero (mRNA) all’interno della cellula e ne determinano la degradazione. È anche un meccanismo di difesa della cellula qualora materiale genico di origine, per es., virale debba essere distrutto. Si può quindi utilizzare questo meccanismo endogeno mediante l’uso di siRNA opportunamente disegnati per mirare a particolari sequenze bersaglio di mRNA d’interesse, attivando così il meccanismo di spegnimento del gene. Questa tecnica consente di dimostrare la rilevanza o meno dei bersagli oggetto di studio rispetto al processo patologico in esame.

Un altro approccio prevede l’uso di modelli animali. È possibile ottenere animali geneticamente modificati (nella maggior parte dei casi sono impiegati dei topi), come i cosiddetti knock-out, dove il gene d’interesse è eliminato del tutto, e quindi la proteina corrispondente non viene più prodotta. In alcuni casi si ritiene tuttavia che la validazione del bersaglio con questo metodo non sia affidabile a causa del suo diverso funzionamento nell’animale rispetto all’uomo, o per l’insorgenza di meccanismi di compensazione durante lo sviluppo dell’animale in grado di diminuire gli effetti dell’abrogazione del bersaglio stesso, o infine per un diverso ruolo della proteina durante lo sviluppo em­brionale rispetto alla vita adulta. In questi casi possono essere utilizzati animali nei quali il bersaglio biologico è abrogato solo in tessuti specifici o a tempi definiti (detti animali conditional knock-out), anche se più complessi da ottenere su larga scala (Erhardt, Proudfoot, in Comprehensive medicinal chemistry II, 2007). Un’altra possibilità è costituita dall’impiego di animali transgenici, in cui sia stato introdotto il DNA che codifica il bersaglio biologico potenzialmente implicato in una particolare patologia. Questi modelli costituiscono un surrogato della malattia umana, consentendo di dimostrare sia il ruolo patogeno del bersaglio biologico oggetto di studio sia l’eventuale efficacia di nuovi approcci terapeutici mirati al bersaglio stesso.

Una tecnologia importante nello studio di nuovi bersagli farmacologici è costituita dalla micromatrice di DNA (DNA microarray), uno strumento per la valutazione simultanea ad alta capacità (HTS) di migliaia di geni, che consente di stabilire i loro relativi livelli di trascrizione all’interno della cellula in una serie di differenti condizioni (Amaratunga, Göhlmann, Peeters, in Comprehensive medicinal chemistry II, 2007). Dato che alcuni geni possono dar luogo a un’espressione differenziale come conseguenza di un processo patologico, il controllo dei loro schemi di espressione con questa tecnologia consente di ottenere indizi potenzialmente utili per comprendere i processi biologici e cellulari che sottostanno alla malattia stessa. In pratica, come illustrato schematicamente nella figura 4, le micromatrici di DNA sono piccoli supporti solidi su cui vengono depositate roboticamente sequenze di DNA a singolo filamento. Il numero di queste sequenze è di solito molto elevato, e dovrebbe rappresentare in modo significativo il genoma oggetto di studio. Le sequenze bersaglio sono ottenute a loro volta a partire dall’RNA messaggero estratto da un campione biologico e opportunamente marcate per fluorescenza. Esse sono disperse sulla superficie della micromatrice. Solo quando la sequenza di DNA e quella bersaglio combaciano perfettamente (cioè danno luogo a ibridazione) si rileva un reale segnale di fluorescenza. Nel caso del profilo di espressione genica (gene expression profiling) i livelli di espressione di migliaia di geni sono monitorati simultaneamente per studiare l’effetto di specifici trattamenti, di malattie e di stadi di sviluppo della malattia sull’espressione genica. Per es., il confronto tra lo stato trascrizionale di cellule normali e di cellule malate può fornire informazioni sui bersagli biologici potenzialmente coinvolti nella malattia. Naturalmente produzione, gestione e manipolazione dell’ingente numero di dati coinvolti in questi processi, hanno reso indispensabile lo sviluppo di algoritmi, e tecniche statistiche e computazionali, comunemente indicati con il termine di bioinformatica.

HTS, identificazione e ottimizzazione dei composti capostipite

Dopo la selezione del bersaglio da modulare, è molto importante definire un buon saggio biologico da utilizzare per realizzare l’HTS. Esistono diversi tipi di saggi che possono implicare l’inibizione di un enzima o l’interazione con un recettore (agonismo o antagonismo). Si tratta di saggi biochimici che impiegano un bersaglio biologico isolato, oppure un’attività su sistemi cellulari integri. Esistono, inoltre, diversi possibili formati di saggio che utilizzano, per es., traccianti radioattivi, sistemi di fluorescenza o colorimetrici.

Nel caso più frequente, quello in cui il bersaglio biologico è una proteina, per sviluppare il saggio biochimico è necessario produrla (cioè realizzarla e purificarla) nella sua sequenza intera oppure nella sua parte contenente la porzione essenziale per la reazione biochimica in oggetto.

Una volta messo a punto il saggio biologico, inizia la fase di valutazione dell’attività di librerie di composti mediante la procedura HTS (Cik, Jurzak, in Comprehensive medicinal chemistry II, 2007). Nei laboratori delle grandi aziende farmaceutiche, tali procedure robotizzate sono in grado di esaminare sino a 100.000 composti al giorno, e in alcuni casi fino a un milione di composti alla settimana (ultra-HTS), con un consumo molto limitato di prodotto. Per la gestione di numeri così elevati e per supportare le attività dell’HTS, sono necessari sistemi ad alta automazione per la conservazione, pesata, diluizione e prelievo dei campioni da sottoporre al saggio biologico. Questo sistema automatizzato è peraltro necessario per la preparazione delle piastre, supporti contenenti i cosiddetti pozzetti, all’interno dei quali verrà fatta avvenire la reazione del saggio utilizzato per la selezione dei composti chimici che manifestino un’attività rispetto al bersaglio biologico in esame. Le piastre attualmente più utilizzate contengono 384 o 1536 pozzetti. Oltre a questa complessa gestione della collezione di composti, deve essere implementato un sistema analitico automatizzato ed efficiente per il controllo qualità delle librerie, in modo da verificarne e garantirne l’integrità nel corso del tempo.

In questo contesto, la chimica combinatoriale ricopre un ruolo fondamentale nello sviluppo del processo attuale di ricerca del farmaco, e in particolare in relazione all’HTS. La necessità di soddisfare le previsioni di numeri sempre più ingenti di bersagli biologici, potenzialmente disponibili per i saggi biologici, ha portato allo sviluppo di metodi di sintesi sempre più efficienti in grado di produrre un numero sempre più grande di composti da sottoporre a tali saggi. Tuttavia, la fase iniziale dello sviluppo della chimica combinatoriale ha favorito l’abbondanza dei prodotti preparati, spesso sintetizzati e testati come miscele, a discapito della loro qualità, rendendo difficile il processo di deconvoluzione, cioè l’identificazione dei composti attivi (hits) presenti in tali miscele, e portando spesso a un alto numero di falsi positivi, cioè di molecole inizialmente identificate come attive, ma non riconfermate tali nelle fasi successive. Nel corso del tempo si è quindi andato sempre più sviluppando un approccio volto a favorire la preparazione di librerie di dimensioni inferiori, composte da prodotti singoli di buona qualità analitica, obiettivo raggiunto grazie al notevole sviluppo di nuove metodologie sintetiche sia in soluzione sia in fase solida, e all’implementazione di sistemi automatici di purificazione e di controllo qualità dei prodotti stessi. Inoltre si è progressivamente affermata l’evidenza che il campionamento dello spazio chimico basato sull’utilizzo di più librerie incentrate su diversi templati molecolari (scaffolds) risulta più produttivo rispetto all’uso di un’unica libreria di grandi dimensioni, ma basata su un unico templato, dove con questo termine s’identifica l’intelaiatura molecolare attorno alla quale vengono sviluppate le opportune decorazioni strutturali (Tommasi, Cornella 2006; Seneci 2000).

Si possono quindi distinguere diversi tipi di librerie combinatoriali secondo il fine ultimo per cui vengono sintetizzate e poi sottoposte ai saggi biologici. Le librerie primarie (primary libraries) sono in genere disegnate allo scopo di ottenere collezioni di molecole le più diverse possibili, per poter colpire bersagli biologici di diversa natura. Queste librerie hanno quindi la caratteristica di campionare lo spazio chimico nel modo più ampio possibile, e contengono un numero molto elevato di composti (almeno dell’ordine di di­verse migliaia). Normalmente la sintesi è effettuata su fase solida per facilità di preparazione ed elaborazione delle miscele di reazione; i composti sono preparati in quantità minima, spesso meno di un milligrammo, e possono essere sintetizzati come entità discrete ma anche come miscele di più molecole. Una volta saggiato tale insieme, nel caso di attività biologica è necessario identificare quale sia il prodotto attivo tra quelli costituenti la miscela.

Esistono poi le librerie focalizzate (focused libraries), che sono disegnate in conformità a informazioni strutturali, per es., sulla conoscenza di un prodotto o chemotipo noto per essere attivo su un particolare bersaglio biologico, o in conformità a un modello farmacoforico, o, ancora, di una struttura privilegiata, cioè nota per interagire con vari bersagli biologici. Queste librerie sono composte da un numero molto inferiore di molecole rispetto alle precedenti (da decine a centinaia); solitamente i prodotti sono preparati come entità discrete, mediante sintesi in soluzione, e in quantità di diversi milligrammi. Esse sono in genere verificate su un bersaglio specifico, e possono fornire già idee precise sulla SAR di una classe chimica consentendo così l’identificazione di composti guida.

Tuttavia, la necessità di ottenere librerie meno generiche delle primarie, ma volte a un uso più ampio rispetto a quelle focalizzate, ha portato allo sviluppo di librerie mirate (targeted libraries). Queste sono disegnate sulla base di informazioni riguardanti, per es., famiglie di bersagli biologici simili, o volte a ottenere composti con un profilo di proprietà ottimali (solubilità in acqua, peso molecolare, lipofilia e così via). Sono composte da un numero di molecole dell’ordine del migliaio. Lo screening di queste librerie dovrebbe tuttavia fornire dei composti capostipite di alto valore aggiunto e facilmente sviluppabili in composti guida. Un caso emblematico è, per es., quello delle chinasi, una famiglia di circa 500 enzimi che agiscono come mediatori in diversi processi biologici come la proliferazione e il differenziamento cellulare, la trascrizione, il metabolismo e l’apoptosi utilizzando l’ATP (adenosintrifosfato). Il sito di legame dell’ATP mantiene alcune caratteristiche conservate nelle diverse chinasi e quindi il disegno di inibitori in grado di interagire nel sito stesso consente di identificare chemotipi capaci di legare bersagli differenti della stessa famiglia.

La capacità di saggiare composti mediante l’HTS non va necessariamente di pari passo alla produttività in termini di nuovi prodotti candidati per lo sviluppo, e alcuni fattori limitanti sono dovuti, per es. alle dimensioni, alla diversità chimica e alla qualità delle librerie saggiate. Oggi, tuttavia, come detto in precedenza, si preferisce disporre di collezioni di composti con caratteristiche simili a quelle richieste per un farmaco sia in termini di proprietà chimico-fisiche sia di proprietà ADME (Assorbimento, Distribuzione, Metabolismo ed Escrezione). Queste ultime riguardano tutti quei processi e quelle trasformazioni che il prodotto subisce per azione dell’organismo una volta somministrato. A questo proposito, un esempio tipico è fornito dalla regola empirica di Lipinski o regola del cinque, che basandosi su un esame di farmaci commerciali noti, stabilisce dei criteri perché nuovi composti con un certo profilo di proprietà abbiano una ragionevole probabilità di diventare farmaci biodisponibili nell’uomo, cioè in grado di esercitare la loro attività farmacologia dopo somministrazione orale. I requisiti che la molecola deve soddisfare secondo la regola di Lipinski implicano un peso molecolare inferiore a 500 Da, un LogP minore di 5 (dove il LogP è una misura della lipofilia della molecola valutata come ripartizione tra un solvente idrofobico, per es. l’ottanolo, e l’acqua), un numero di donatori di legame idrogeno inferiore a 5 e un numero di accettori di legame idrogeno minore di 10 (espresso quale somma degli atomi di ossigeno e azoto). Oltre alla regola del cinque, altre proprietà possono essere prese in considerazione nell’utilizzo di filtri per la selezione dei prodotti a più alta priorità da preparare o acquistare nella progettazione di nuove librerie. Tra le altre, possono essere predette in silico, ossia mediante modelli matematici, proprietà come la solubilità in acqua, la costante di ionizzazione, la permeabilità alle membrane cellulari (per es., alle Caco-2, cellule di adenocarcinoma umano del colon come modello della permeabilità intestinale), il legame alle proteine plasmatiche, che ha un ruolo importante nel determinare la concentrazione di farmaco libero nel sangue e quindi in grado di esercitare la sua azione sul bersaglio biologico.

A questo punto, effettuato lo screening, emergono i prodotti considerati attivi (hits preliminari), cioè in grado di superare una certa soglia di attività biologica statisticamente significativa. I composti così individuati sono poi raggruppati per chemotipi, con l’utilizzo di opportuni metodi computazionali, e sottoposti a un processo di riconferma delle loro attività biologica, ma anche identità e purezza analitica. Su campioni solidi puri sono effettuati i saggi biologici per la determinazione delle curve dose/risposta per una conferma più accurata dell’attività biologica, come per es. la concentrazione di composto necessaria a inibire l’attività enzimatica del 50%, solitamente indicata con la sigla IC50. I prodotti che passano questo vaglio sono dei composti capostipite confermati nella loro caratterizzazione, cioè adatti a una fase iniziale di approfondimento. Naturalmente le diverse classi chimiche saranno poste in ordine di priorità non solo in funzione della potenza che esercitano nel test biologico, ma anche delle loro caratteristiche chimico-fisiche, della fattibilità chimica, della possibilità di diversificazione e di espansione della struttura, della loro brevettabilità, insomma di tutte quelle qualità che rendono una serie chimica attraente per lo sviluppo. Tipicamente la sintesi di composti analoghi dei diversi chemotipi emersi dall’HTS, o la loro selezione da banche dati commerciali, dovrebbe consentire di valutare un profilo preliminare di relazione struttura-attività (SAR). È molto importante a questo proposito la definizione del farmacoforo, laddove non sia già noto.

A tale riguardo, un metodo che aiuta a comprendere i punti significativi di legame della molecola nel sito di interazione dell’enzima o del recettore, è la mutagenesi specifica in un sito di DNA (site-directed mutagenesis). Questa tecnica consente di mutare in punti particolari la sequenza di un gene e quindi i corrispondenti residui aminoacidici potenzialmente implicati nel legame tra molecola e proteina (Erhardt, Proudfoot, in Comprehensive medicinal chemistry II, 2007).

Già in questa fase la disponibilità della struttura a raggi X della proteina gioca un ruolo molto importante, poiché consente di studiare il sito attivo del bersaglio biologico stesso e di identificare quelle particolari interazioni che possano implementare la potenza dei composti capostipite, e anche di evidenziare quelle peculiarità strutturali che consentano di migliorare la selettività delle molecole sintetizzate rispetto ai bersagli biologici correlati. Generalmente, un più ampio uso della chimica strutturale è fatto nella fase di ricerca delle molecole guida e nella loro ottimizzazione, quando si sono resi disponibili prodotti più potenti, in grado di interagire più efficientemente nel sito di legame. In pratica questo approccio razionale prevede un processo iterativo di predizione d’interazione con la proteina di ipotetici ligandi mediante loro modellazione nel sito di legame, sintesi dei candidati migliori, e conferma dell’attività biologica nel saggio opportuno. Per ottenere i cristalli dei ligandi con la proteina è possibile eseguire esperimenti di cocristallizzazione o usare tecniche similari.

Qualora non sia realizzabile o non sia ancora disponibile la struttura cristallografica della proteina, è possibile costruire un modello di omologia (homology model). In questo caso si utilizza la struttura sperimentale disponibile di un’altra proteina per predire la conformazione di quella in esame. A questo scopo sono utilizzate banche dati contenenti sequenze di proteine con struttura nota per realizzare l’allineamento con la sequenza d’interesse. Naturalmente la qualità del risultato dipende dalla similarità di sequenza tra le due proteine. Una volta effettuato l’allineamento, si costruisce il modello sostituendo gli amminoacidi nella struttura tridimensionale della proteina di riferimento, inserendo o eliminando gli amminoacidi in accordo all’allineamento di sequenza. Il modello così ottenuto è controllato e ottimizzato rispetto agli aspetti conformazionali ed energetici.

Contemporaneamente, i composti capostipite vengono anche caratterizzati in relazione alle loro proprietà di ADME in vitro, in una serie di saggi che costituiscono di solito un profilo di primo livello, insieme ai test biochimici e cellulari. Il tutto è parte del processo che è tipicamente denominato imbuto di selezione (screening funnel). I saggi tipici, sempre automatizzati ed effettuabili su un’ampia scala di prodotti (in genere medium-throughput screening) riguardano, oltre alla solubilità acquosa a pH fisiologico, la permeabilità alle membrane artificiali (PAMPA, Parallel Artificial Membrane Permeability Assay) e a quelle cellulari (Caco-2), il legame alle proteine plasmatiche e la stabilità metabolica, cioè una misura in vitro di quanto il prodotto è trasformato da enzimi epatici come i citocromi P450.

Normalmente il lavoro di espansione attorno ai chemotipi identificati come più promettenti comporta la sintesi di librerie di analoghi più piccole di quelle tipicamente coinvolte nella fase di HTS e focalizzate su precise classi chimiche.

Il processo fin qui descritto non è tuttavia completo, poiché in questa fase sono anche implementati saggi secondari specifici, sia per avere un’ulteriore conferma dell’attività biologica dei prodotti sia per valutarne la selettività rispetto a bersagli biologici correlati. In particolare, s’inizia anche a valutare l’attività dei nuovi derivati in un distretto biologico più complesso, come la cellula, rispetto alla proteina isolata. Con i sistemi attuali di automazione è possibile eseguire lo screening seriale di tutti i prodotti sintetizzati in questa fase nei saggi cellulari specifici. Già a questo livello i prodotti sono quindi caratterizzati da un profilo completo di attività e di proprietà, che consente di accelerare la fase successiva di studio per arrivare all’identificazione dei composti guida.

Identificazione e ottimizzazione dei composti guida

Alla fine del processo descritto, di tutte le classi chimiche identificate e caratterizzate fino a questo punto, solo le più promettenti in termini di potenza sul bersaglio biologico, di selettività, di attività cellulare, di proprietà generali e di brevettabilità saranno selezionate per l’ottimizzazione volta all’identificazione dei composti guida (leads). Una volta identificati questi chemotipi per l’espansione, i relativi analoghi sintetizzati saranno sottoposti comunque ite­rativamente al vaglio precedentemente descritto in modo da valutarne progressivamente, in modo sempre più puntuale, sia le relazioni struttura-attività e selettività sia la modulazione dell’attività cellulare e delle proprietà ADME in vitro. Rispetto a queste ultime in particolare, nell’imbuto di selezione è prevista di solito l’effettuazione di un’ulteriore serie di saggi, come la valutazione della trasformazione metabolica delle molecole da parte di epatociti di varie specie animali, predittiva della frazione di farmaco eliminata a causa del metabolismo epatico. Un altro parametro importante è il passaggio della barriera ematoencefalica, soprattutto per quanto riguarda i farmaci che devono agire a livello del sistema nervoso centrale. Anche in questo caso sono stati sviluppati sia modelli in vitro sia modelli predittivi in silico. In questa fase l’espansione chimica prevede sia la realizzazione di piccole librerie focalizzate sul templato molecolare d’interesse sia la sintesi di singoli composti mirati, e spesso ruota attorno all’ottimizzazione di parametri specifici della classe in esame. Il numero di molecole sintetizzate per ogni chemotipo è di solito inferiore a quello delle fasi precedenti, tipicamente dell’ordine di diverse decine, di buona purezza e in quantità sufficiente per effettuare un primo profilo di attività almeno fino a una valutazione preliminare in vivo. Infatti, a questo punto si aggiungono nell’imbuto di selezione ulteriori test biologici, che consentono di stimare il potenziale delle classi chimiche in esame e che si effettuano sui candidati migliori selezionati. Si tratta di saggi in vivo sull’animale, che consentono di valutare, per i prodotti più interessanti, sia la farmacocinetica sia l’efficacia in un modello della patologia in esame.

Gli studi di farmacocinetica in vivo consentono di capire se il composto in esame è in grado di raggiungere livelli plasmatici adeguati e per quale durata, permettendo così di compiere in modo corretto la successiva valutazione dell’attività in vivo dei composti selezionati. Per gli studi di efficacia, possono essere sviluppati, quando è appropriato, modelli transgenici della patologia in esame come quelli prima descritti, utilizzabili per dimostrare l’effetto terapeutico nell’animale dei composti oggetto di studio. Nei modelli animali è così possibile ottenere una prova preclinica del meccanismo d’azione del farmaco in vivo. Da questo insieme di dati si possono sviluppare dei modelli, che correlano la farmacocinetica con la farmacodinamica del prodotto (la sua attività farmacologica in vivo), cioè la concentrazione che il farmaco riesce a raggiungere in plasma con quella necessaria per esercitare la sua efficacia in vivo rispetto al bersaglio biologico considerato.

A questo punto, in caso di un profilo insufficiente di efficacia o di farmacocinetica in vivo, inizia un nuovo processo iterativo di ottimizzazione, che può comportare lo sviluppo di modelli predittivi focalizzati su alcune proprietà di particolare interesse per la classe chimica in fase di approfondimento, come, per es., la biodisponibilità orale. L’utilizzo di tali modelli, basati su dati sperimentali specifici di rappresentanti della classe chimica (cioè modelli locali), consentono di fare un’ulteriore classificazione dei composti da mettere in priorità per la sintesi. Sulla base di queste attività in vivo, è possibile fare la selezione dei migliori composti guida da sviluppare e da approfondire ulteriormente. Poiché attualmente una delle cause principali di fallimento dei farmaci in sviluppo è dovuta alla tossicità, una sempre maggiore attenzione è posta alla valutazione precoce della sicurezza delle molecole in corso di studio. Viene quindi ad assumere un ruolo sempre più importante la valutazione del profilo tossicologico dei composti guida selezionati, necessaria per poter intraprendere l’eventuale studio di modifiche strutturali laddove possibile. Sono oggi disponibili vari saggi in vitro potenzialmente predittivi di potenziali tossicità. Tra questi possiamo citare l’inibizione dei citocromi P450, che hanno un ruolo fondamentale nel metabolismo di xenobiotici nell’uomo e nella potenziale interazione tra farmaci, quando somministrati contemporaneamente, con conseguente effetto tossico derivante da un’alterazione del metabolismo stesso. Un altro saggio rilevante valuta l’inibizione dei canali umani del potassio (h-ERG, human Ether-a-go-go Related Gene), potenzialmente correlabile a un parametro importante di cardiotossicità. Generalmente, a questo livello s’includono anche saggi di mutagenicità (test di Ames), di genotossicità, di epatotossicità e mielotossicità su linee cellulari di diverse specie animali, ma anche un profilo di attività in vitro su una serie di recettori potenzialmente responsabili di effetti indesiderati, come, per es., quelli del sistema nervoso centrale.

Con i dati sperimentali ottenuti, testando i singoli composti in vitro, è possibile ipotizzare i possibili tossicofori e, con opportuni metodi computazionali, creare dei modelli in silico predittivi degli effetti tossici per stabilire un ordine di priorità opportuno dei prodotti prima della loro sintesi (Blagg 2006). La tossicità delle molecole più interessanti è valutata in studi preliminari in vivo che prevedono inizialmente una singola somministrazione nelle specie animali d’interesse. Per i candidati più promettenti gli studi di tossicità sono ulteriormente approfonditi analizzando gli effetti dopo somministrazioni ripetute di prodotto su tempi relativamente brevi, studi effettuati solitamente su almeno due specie animali selezionate tra una specie roditrice e una non roditrice. Durante queste analisi è importante determinare i tipi di tossicità che possono emergere, gli eventuali organi colpiti, la massima dose tollerata e quella senza effetti tossici riguardo all’esposizione di farmaco necessaria per esercitare l’attività biologica.

In questa fase conclusiva del processo di discovery è selezionato il migliore candidato per lo sviluppo, tipicamente denominato prodotto o farmaco candidato (product or drug candidate), che sarà quindi sottoposto agli studi preclinici estesi nelle diverse specie animali. Vista la quantità di prodotto necessaria per svolgere tali studi, è indispensabile aver già sviluppato un processo sintetico, economicamente ed ecologicamente appropriato, che ne consenta la preparazione di quantità adeguate, tipicamente da diverse decine al centinaio di grammi, e anche una formulazione adatta al tipo di somministrazione selezionata. Una volta eseguite le prove precliniche nell’animale, inizia l’iter già descritto necessario alla richiesta di studio del prodotto nell’uomo, un traguardo importante nel processo di scoperta e sviluppo del potenziale futuro farmaco.

Conclusioni

Il modello di scoperta del farmaco che è stato de­scritto è il più frequentemente applicato nelle aziende farmaceutiche di medie e grandi dimensioni e non fornisce quindi un quadro esaustivo della realtà che riguarda le aziende a carattere strettamente biotecnologico o di piccole dimensioni. Tuttavia esso ci dà una visione del panorama globale della ricerca come più ampiamente intesa nel settore farmaceutico e sul quale presumibilmente sarà ancora basata la ricerca nei prossimi anni. È chiaro comunque che questo paradigma di ricerca è in continua evoluzione, non solo per gli straordinari progressi delle scoperte scientifiche e per l’evoluzione delle tecnologie, ma anche per le esigenze di carattere socioeconomico cui deve rispondere, come la crescita esponenziale dei costi della spesa sanitaria e di sviluppo di nuovi farmaci che si sono registrati nei Paesi più sviluppati. Per quanto l’approccio delle terapie molecolari mirate sia stato identificato come una delle potenziali cause di queste criticità, bisogna considerare che esso è ancora in una fase di evoluzione. A tale riguardo, alcuni aspetti della ricerca devono essere implementati, come la selezione e la solida convalida dell’obiettivo biologico di partenza, ma anche la disponibilità di modelli in vivo più predittivi della patologia umana e di saggi più indicativi della tossicità. È da aspettarsi che lo sviluppo dell’approccio molecolare produca terapie sempre più efficaci, personalizzate e sicure nello scenario della cura della salute nel prossimo futuro.

Bibliografia

Ch.A. Lipinski, F. Lombardo, B.W. Dominy, P.J. Feeney, Experimental and computational approaches to estimate solubility and permeability in drug discovery and development settings, «Advanced drug delivery reviews», 1997, 23, 1, pp. 3-25.

P. Seneci, Solid-phase synthesis and combinatorial technologies, New York 2000.

M. Dickson, J.P. Gagnon, Key factors in the rising cost of new drug discovery and development, «Nature reviews. Drug discovery», 2004, 3, 5, pp. 417-29.

J. Blagg, Structure-activity relationships for in vitro and in vivo toxicity, «Annual reports in medicinal chemistry», 2006, 41, pp. 353-68.

Fragment-based approaches in drug discovery, ed. W. Jahnke, D.A. Erlanson, Weinheim 2006.

R. Tommasi, I. Cornella, Focused libraries. The evaluation in strategies from large diversity libraries to the focused library approach, in Exploiting chemical diversity for drug discovery, ed. P.A. Barlett, M. Entzeroth, Cambridge 2006, pp. 163-83.

PhRMA (Pharmaceutical Research and Manufacturers of America), Pharmaceutical industry. Profile 2007, Washington D.C. 2007.

Comprehensive medicinal chemistry II, ed. D.J. Triggle, J. Taylor, 8 voll., Amsterdam 2007 (in partic. 1° vol., P.W. Erhardt, J.R. Proudfoot, Drug discovery: historical perspective, current status, and outlook, pp. 29-96; 2° vol., P. Preziosi, Drug development, pp. 173-202; M. Williams, Enabling technologies in drug discovery: the technical and cultural integration of the New with the Old, pp. 265-87; 3° vol., D. Amaratunga, H.W. Göhlmann, P.J. Peeters, DNA microarrays for drug target research, pp. 87-106; M. Cik, M.R. Jurzak, High-throughput and high-content screening, pp. 679-96).

M. Congreve, G. Chessari, D. Tisi, A.J. Woodhead, Recent developments in fragment-based drug discovery, «Journal of medicinal chemistry», 2008, 51, 13, pp. 3661-80.

M.H.J. Seifert, M. Lang, Essential factors for successful virtual screening, «Mini-reviews in medicinal chemistry», 2008, 8, 1, pp. 63-72.

Si veda inoltre:

CBO (Congressional Budget Office), The Congress of the Unites States, Research and development in the pharmaceutical industry, October 2006, http://www.cbo.gov/ftpdocs/76xx/ doc7615/10-02-DrugR-D.pdf (30 giugno 2010).