Le tecnologie per la vita e per la salute

Il Contributo italiano alla storia del Pensiero - Tecnica (2013)

Le tecnologie per la vita e per la salute

Vittorio A. Sironi

Gli sfumati confini tra scienze della vita e biotecnologie

La fusione tra biomedicina e biotecnologie è un processo che si è andato progressivamente strutturando in modo sistematico a partire dalla seconda metà del Novecento nel tentativo di spiegare unitariamente la complessa realtà del mondo vivente, con la finalità di manipolare e trasformare ‘positivamente’ l’esistenza degli individui così da arrivare all’ambizioso obiettivo di curare nel modo più efficace possibile le loro condizioni patologiche.

Questa realtà è diventata parte integrante della nostra vita quotidiana. Come è stato acutamente osservato da Hilary e Steven Rose nel volume Genes, cells and brains (2012),

Nel corso di questo processo le scienze della vita si sono trasformate in una mastodontica biotecnoscienza, in cui i confini tra scienza, tecnologia, università, imprese biotecnologiche e Big Pharma sono sfumati. La conoscenza diventa proprietà intellettuale; la tecnoscienza diventa parte di un’economia globale, resa possibile dalla digitalizzazione estesasi dagli antichi centri euro-americani della cultura scientifica fino ai giganti emergenti [asiatici] Cina, Singapore e India. I protagonisti principali di questi cambiamenti sono stati le grandi industrie farmaceutiche, i capitali d’investimento, le società biotecnologiche, lo Stato […] e, come sempre, l’esercito. Le biotecnologie detengono poteri nuovi e formidabili che non soltanto ricostruiscono la vita, ma la costruiscono dal nulla (trad. it. 2013, p. 4).

Le biotecnologie sono inoltre in grado di incidere profondamente anche in ambito medico con ricadute positive sia sul versante diagnostico sia su quello terapeutico.

Questi rapidi cambiamenti tecnologici nel settore sanitario hanno una radice storica plurisecolare che è opportuno puntualizzare per comprendere la realtà presente e cogliere le prospettive future.

Le origini del paradigma tecnologico in medicina

La medicina da arte a scienza

Nel Settecento e nel primo Ottocento il processo di trasformazione metodologica che nel secolo precedente aveva investito la fisica, coinvolge anche la chimica e la biologia. Durante l’Ottocento giunge a maturazione anche il lungo percorso, iniziato nel Cinquecento, che aspira a portare progressivamente la medicina da arte empirica a scienza esatta.

Già alle soglie del gran siècle il problema della certezza in medicina appare fondamentale, come evidenzia il medico francese Pierre-Jean-Georges Cabanis (1757-1808) nel suo libro Du degré de certitude de la médecine (1798). Per superare l’empirismo che ancora la caratterizza, anche la medicina deve ricorrere ai metodi utilizzati «in tutte le altre branche delle scienze naturali», come sottolinea un altro medico francese, Philippe Pinel (1745-1826). Ai saperi della fisica e della chimica, nei processi interpretativi della patologia medica, occorre ora affiancare quello della nuova ‘scienza della vita’, la biologia, in modo che l’antica iatrofisica e la precedente iatrochimica vengano sostituite dalla nascente biomedicina.

La strada è già stata in parte percorsa nel Settecento dall’anatomico italiano Giovanni Battista Morgagni (1682-1771) attraverso le osservazioni De sedis et causis morborum per anatomen indagatis (1761): mostrando che i sintomi di malattia sono espressione di un’alterazione patologica degli organi interni, egli stabilisce l’esistenza di un rapporto di causa-effetto tra modificazione morfologica e manifestazione morbosa identico a quello osservabile sperimentalmente nei fenomeni delle scienze fisiche e chimiche. Tale approccio metodologico si rivela corretto e la correlazione tra la causa e la sede del processo patologico viene precisata in modo sempre più stringente: dagli organi ai tessuti, come dimostra nel Traité des membranes (1799) il medico francese Marie-François-Xavier Bichat (1771-1802), dai tessuti alla cellula, come sostiene nel suo Cellularpathologie (1858) il patologo tedesco Rudolf Virchow (1821-1902).

Nella seconda metà dell’Ottocento le antiche teorie umorali ippocratico-galeniche, le loro rielaborazioni eclettiche, la fisiologia e la patologia speculative sono definitivamente sostituite dalla biologia dei microbi di Louis Pasteur (1822-1895) e di Robert Koch (1843-1910), dalla fisiopatologia di Carl Ludwig (1816-1895) e del già citato Virchow e dalla nuova medicina sperimentale riassunta da Claude Bernard (1813-1878).

Cambia anche il modo di osservare il malato e di rapportarsi con esso. Fra i due momenti ippocratici dell’atto medico, l’anamnesi (la storia del passato remoto e prossimo del malato ascoltata dal medico) e la prognosi (la storia del futuro dell’ammalato detta dal medico, in risposta alle attese e alle speranze di guarigione e di vita del paziente), s’inserisce la diagnosi, centrata sul presente e mirante a definire con precisione la malattia.

Per realizzare questo ulteriore passaggio il medico deve collezionare una casistica di ‘storie cliniche’ per poter ricavare da essa una ‘tipologia patologica’ con cui confrontare la malattia del proprio paziente, realizzando in tal modo una ‘classificazione tipologica’ delle varie forme morbose (nosologia) che utilizza lo stesso metodo usato alcuni decenni prima da Carlo Linneo (Carl von Linné, 1707-1778) per classificare le specie viventi.

Oltre che predire l’evoluzione futura della malattia, egli deve comparare i quadri clinici. Oltre che ascoltare i sintomi riferiti come impressioni soggettive dal paziente, egli deve ricercare i segni quali espressioni oggettive di un’alterazione patologica degli organi, dei tessuti, delle cellule del corpo malato.

La ‘nascita della clinica’ è strettamente connessa all’esigenza di rendere la malattia il più possibile oggettiva, superando l’approccio della visione soggettiva che in precedenza aveva sempre guidato il medico e il suo ‘occhio clinico’. Al paradigma antropologico, che aveva informato la medicina del passato, si va sostituendo il paradigma tecnologico, destinato ad assumere un ruolo crescente nella medicina futura.

Il medico francese Pierre-Charles-Alexandre Louis (1787-1872), effettuando Recherches sur les effets de la saignée (tale è il titolo del libro che egli pubblica nel 1835), una pratica medica di comune ed esteso uso, utilizza un criterio matematico di analisi dei dati, il metodo statistico, introducendo così anche in medicina un criterio di valutazione obiettivo per verificare l’efficacia di tale procedura terapeutica. L’impiego del ‘metodo numerico’ in ambito medico opera una vera e propria rivoluzione e, a partire dalla seconda metà dell’Ottocento, lo sviluppo della statistica medica innalza la medicina al rango di scienza.

Quantificare e misurare la malattia

La malattia non è più dunque un’astrazione, un malessere soggettivo comunicato dal malato al medico, ma una realtà tangibile, misurabile e quantificabile in modo oggettivo.

Al letto dell’infermo non basta più soltanto lo sguardo del medico, occorre utilizzare tutto ciò che consente di scrutare l’interna realtà del malato. Il tentativo di creare una vera e propria ‘scienza diagnostica’ porta alla nascita di una ‘scienza dei segni’ o semeiotica, che mira a riconoscere nell’individuo malato i segni della malattia con l’ausilio di tecniche e tecnologie in grado di evidenziare o amplificare ciò che per il medico sovente non è adeguatamente percepibile.

In questa prospettiva nel 1808 il medico francese Jean-Nicolas Corvisart des Marets (1755-1821) ha riscoperto e tradotto un opuscolo pubblicato a Vienna nel 1761, Inventum novum ex percussione thoracis, opera del medico austriaco Leopold Auenbrugger (1722-1809). L’autore, figlio di un oste, usava questo metodo per riconoscere il livello del vino nelle botti della cantina paterna. Con questa tecnica, fatta propria dalla medicina, la mano, impiegata come strumento, è d’aiuto ai sensi, permettendo di esaminare il malato invece di limitarsi a osservarlo. In tal modo il ‘tocco ippocratico’, dopo essere evoluto nell’arte della palpazione, si prolunga nella tecnica della percussione.

L’impiego medico di questa tecnica e le conoscenze fisiche relative alla conducibilità dei suoni costituiscono le premesse sperimentali, pratiche e logiche, che portano un allievo di Corvisart, il bretone René-Théophile-Hyacinthe Laënnec (1781-1826), a perfezionare nel 1819 il suo metodo sull’auscultazione mediata per diagnosticare le malattie degli organi del torace con l’uso di un rivoluzionario strumento da lui stesso inventato: lo stetoscopio, un semplice apparato costituito da un cilindro di legno scanalato nel suo interno che termina da un lato con un piccolo imbuto.

Grazie a questo strumento diventano così percepibili suoni e rumori, cardiaci e polmonari, dovuti a varie cause: movimenti del cuore, apertura e chiusura delle sue valvole, scorrimento del sangue nelle sue cavità, passaggio dell’aria nei bronchi e negli alveoli polmonari, risonanza della voce sussurrata o afona. Tutta una nuova segnaletica delle malattie si rende disponibile al sensorio del medico, permettendogli di individuare in vivo quelle alterazioni e quei malfunzionamenti degli organi che Morgagni, con le sue indagini autoptiche post mortem, aveva dimostrato essere la sede e la causa delle malattie.

Nonostante le iniziali perplessità, la tecnica dell’auscultazione valica rapidamente le Alpi e in Italia si diffonde particolarmente grazie all’opera del medico bolognese Ulisse Breventani (1808-1848) che, a partire dal 1838, insegna con il suo Manuale di ascoltazione l’uso dello stetoscopio, impiegandolo anche per il rilievo dei battiti fetali per le diagnosi di gravidanza e per indagare Sui rumori del cuore (così il titolo di una sua memoria letta nell’agosto 1837 presso la Società medico-chirurgica di Bologna) normali e patologici.

Primo vero strumento di diagnosi d’uso generale, lo stetoscopio trasforma la pratica della medicina, la percezione della malattia da parte del medico, il rapporto tra medico e paziente.

La nuova tecnica di rilevamento dei segni somatici della malattia permette ora al medico di prescindere dalla soggettività dei sintomi riferiti dal paziente, affidandosi all’oggettività dei segni rilevati dal suo orecchio nel corso dell’esame obiettivo. Il tempo del rapporto interpersonale, fatto di coinvolgimento reciproco, sta per finire. Incomincia l’arrischiato trapasso nell’epoca in cui l’antropologia medica del malato cede gradualmente il passo alla tecnologia medica della sua malattia.

Lo stetoscopio è dunque non soltanto il primo strumento della tecnologia medica in divenire. È anche, emblematicamente, il primo embrionale apparato tecnologico che viene a interporsi tra il malato e il medico, realizzando e favorendone anche il ‘distacco fisico’: nelle promiscue e affollate corsie ospedaliere, dove è sconveniente applicare direttamente l’orecchio sul torace dei pazienti, o nei tuguri della bassa città o della campagna, dove la sporcizia e la miseria suscitano spesso un disgusto che rende impraticabile l’auscultazione non mediata.

Altri apparati, sempre più complessi, specializzati e sofisticati, saranno messi a disposizione del medico nei decenni successivi: essi renderanno sempre più stretto l’accostamento del medico alla realtà fisiopatologica della malattia, ma nel contempo renderanno decisamente più ampio il distacco del medico dalla realtà antropologica del malato, innescando un processo che condizionerà pesantemente l’evoluzione successiva della medicina.

La tecnologia applicata allo studio della patologia

Tra fine Ottocento e primo Novecento lo strumentario di quel ‘tecnico della salute’ in cui si identifica il medico, dopo i grandi progressi compiuti dalla medicina ottocentesca, si arricchisce di molti nuovi mezzi per lo studio delle condizioni patologiche del malato.

Accanto all’oriuolo con i minuti secondi per contare i battiti del cuore, al termometro clinico per misurare la febbre, all’abbassalingua per osservare l’orofaringe e allo stetoscopio per auscultare i rumori normali e patologici del corpo, egli ha a disposizione l’oftalmoscopio, ideato da Hermann von Helmholtz (1821-1894) nel 1851 per esaminare il fondo dell’occhio, e il laringoscopio, messo a punto da Johann Czermak (1828-1873) nel 1858 per un’indagine profonda della laringe e delle corde vocali.

Anche l’esplorazione diretta di altri due importanti organi, la vescica e lo stomaco, un’esigenza avvertita soprattutto dai chirurghi, diventa possibile. Ispirandosi all’uretroscopio inventato nel 1865 da Antoine Jean Desormeaux (1815-1882) e utilizzando come fonte di luce un filamento di carbone, nel 1877 il berlinese Maximilian Carl Friedrich Nitze (1848-1906) costruisce il cistoscopio per osservare la vescica, mentre nel 1879, proseguendo nei tentativi realizzati sin dal 1868 da Adolf Kussmaul (1822-1902) di effettuare «esplorazioni dello stomaco mediante endoscopia» in un mangiatore di spade, realizza un primitivo gastroscopio che, perfezionato nel 1881 da Jan Mikulicz-Radecki (1850-1905), consente alla gastroendoscopia di diventare una tecnica utile da impiegare in chirurgia.

Se è possibile ascoltare i rumori del cuore, sentire con le dita il ‘movimento’ del sangue è una tecnica ancora troppo imprecisa: vedere direttamente i movimenti del circolo ematico e misurare la pressione con cui il sangue scorre nei vasi arteriosi diventano altri obiettivi da perseguire per la costruzione di una medicina scientifica.

Un primo strumento che permette di ‘misurare il polso’ (sfigmometro) rilevandone in modo obiettivo i caratteri (frequenza, intensità, intervallo tra le pulsazioni) che prima, mediante il tatto, potevano essere apprezzati solo in modo soggettivo, viene messo a punto nel 1834 dal medico francese Jules Hérisson. Nel 1847 il fisiologo tedesco Carl Ludwig trasforma il manometro a mercurio, utilizzato già dal 1828 dal fisiologo francese Jean-Léonard-Marie Poiseuille (1797-1869) per le sue ricerche, in chimografo, aggiungendo all’apparecchio un galleggiante scrivente con cui registrare le oscillazioni del menisco di mercurio sulla superficie di un cilindro rotante, riuscendo in tal modo a registrare in modo continuo la pressione arteriosa e seguendone le oscillazioni nel tempo. Un ulteriore perfezionamento è ottenuto nel 1875 dal fisiologo francese Étienne-Jules Marey (1830-1904) con la messa a punto dello sfigmografo digitale, sfruttando la variazione delle modificazioni della pressione idrostatica gravante sull’indice immerso nell’acqua per rilevarne i valori della pressione arteriosa.

Un primo tentativo per cercare di aumentare la sensibilità del troppo impreciso strumento di Marey, facendo gravare la pressione idrostatica simultaneamente su quattro dita invece che su uno soltanto, viene realizzato nel 1895 dal fisiologo torinese Angelo Mosso (1846-1910). Il salto di qualità si ha però, sempre a Torino, l’anno successivo, quando il medico Scipione Riva Rocci (1863-1937), aiuto della Clinica medica propedeutica allora diretta da Carlo Forlanini (1847-1918), propone l’impiego di un ‘nuovo’ sfigmomanometro da lui inventato: un apparecchio che utilizza un bracciale pneumatico applicato a livello dell’arteria omerale, permettendo, mediante la sua compressione, la misurazione dei valori pressori in quella sede. Grazie alla sua grande praticità e anche alla maggior precisione, l’apparecchio messo a punto da Riva Rocci consente a ogni medico di misurare, in breve tempo e in modo semplice, la pressione arteriosa con sufficiente esattezza senza disturbare il paziente.

Il 6 maggio 1901 Riva Rocci, trasferitosi nel frattempo all’Università di Pavia per seguire il suo maestro, riceve la visita di un giovane chirurgo americano, Harvey Cushing (1869-1939), che desidera conoscere meglio lo sfigmomanometro e apprenderne il corretto uso avendo intuito che questo può essere uno strumento prezioso per diminuire la mortalità operatoria durante gli interventi di chirurgia intracranica, permettendo di prevenire gli improvvisi quanto letali sbalzi pressori che accompagnano l’anestesia.

Per merito di questo grande pioniere della neurochirurgia l’uso dello sfigmomanometro nella pratica clinica si diffonde rapidamente: prima negli Stati Uniti e poi nel resto del mondo.

L’evoluzione della diagnosi tecnologica

Vedere il corpo malato: dai raggi X alla diagnostica per immagini

Nella seconda metà dell’Ottocento lo sguardo del medico diventa sempre più penetrante, la sua scienza sempre più interna. A fare di essa una vera e propria ‘scienza dell’interiore’ arriva, proprio a fine secolo, nel 1895, la scoperta da parte del fisico tedesco Wilhelm Conrad Röntgen (1845-1923) dei raggi X, un’autentica rivoluzione che consente di ‘fotografare l’invisibile’, fornendo immagini dell’interno del corpo.

Questa ‘sensazionale scoperta’ consente di vedere parti nascoste e segrete del corpo umano, permettendo di evidenziare le lesioni degli organi interni.

Con l’apertura di nuovi scenari finisce un’era e ne inizia una nuova. L’impiego sempre più diffuso dell’elettricità – uno dei ‘mirabolanti’ risultati dell’Ottocento –, che sul piano industriale fornisce i reparti ospedalieri dei nuovi e più funzionali sistemi di illuminazione, sul piano medico alimenta le macchine elettriche utilizzate a scopo terapeutico e le macchine radiologiche utilizzate a scopo diagnostico dopo la scoperta dei raggi X. La radioscopia permette di ‘vedere’ e la radiografia consente di ‘fotografare’ le parti nascoste del corpo umano: una tappa fondamentale per la crescita della clinica iniziata con l’avvento dello stetoscopio.

L’apparecchio radiologico – al pari, ma con potenza ben maggiore dell’oftalmoscopio, dell’otoscopio, del laringoscopio, del cistoscopio e del gastroscopio – è un altro strumentario tecnico ‘scopico’ in grado di rendere più profondo lo sguardo medico e con il quale la vista del medico (l’‘occhio clinico’) si riappropria dei rilievi semeiotici sottratti un secolo prima dall’udito.

Il nuovo salto conoscitivo, consentendo di riconoscere le malattie ‘interne’ come se fossero ‘esterne’, fa della medicina interna – cioè della clinica – una scienza degna di questo nome. Quasi a cogliere questa variazione epistemologica, il medico milanese Carlo Luraschi (1865-1911), esperto di elettroterapia e noto per le molteplici radiografie da lui eseguite su numerosi feriti dai colpi di mitraglia durante le ‘terribili giornate’ della repressione dei moti milanesi nel maggio 1898, inaugura con una prolusione su L’elettricità e gli enigmi filosofici il primo corso di radiologia medica (anno 1907-1908) degli Istituti clinici di perfezionamento di Milano.

Accanto allo studio dell’apparato scheletrico e delle sue modificazioni traumatiche o patologiche, nei primi decenni del Novecento l’introduzione in radiologia diagnostica di mezzi di contrasto radiopachi – cioè di sostanze in grado di modificare il modo in cui la regione analizzata appare in un’immagine radiologica alterando il contrasto di un organo o di una lesione alla penetrazione dei raggi X, come il solfato di bario per lo studio dell’apparato digerente e composti iodati per lo studio dell’apparato uroginecologico e per l’esecuzione di indagini angiografiche – consente di rendere visibili dettagli altrimenti non apprezzabili. Inizia in tal modo, a partire dagli anni Venti, l’analisi degli organi interni del corpo e delle loro alterazioni.

Nel 1930, grazie agli studi di un radiologo italiano genovese, Alessandro Vallebona (1899-1987), che costruisce un particolare dispositivo detto stratigrafo, si inizia a parlare di tomografia, cioè di un’indagine radiologica che consente di ottenere immagini di singoli strati (sezioni) dell’organo o della regione anatomica in esame. Cinquant’anni più tardi questa tecnica viene rivoluzionata dall’incontro con l’informatica, che la fa evolvere nella tomografia assiale computerizzata (TAC).

La metodica che è alla base della tecnodiagnostica TAC viene ideata e realizzata dall’ingegnere inglese Godfrey Newbold Hounsfield (1919-2004) e dal fisico sudafricano Allan MacLeod Cormack (1924-1998), entrambi premiati nel 1979 con il Nobel per la loro invenzione. Il primo tomografo computerizzato consentiva esclusivamente lo studio delle strutture del cranio e venne installato all’Atkinson Morley Hospital di Londra nel 1971. Nel 1974, grazie a un’intuizione del radiologo statunitense di origine italiana Ralph Alfidi (1932-2012), vengono create le prime apparecchiature per lo studio del torace e dell’addome. Nel 1975 viene effettuata la prima TAC ‘ufficiale’ dell’addome.

L’avvento in medicina della tecnica di tomografia computerizzata segna l’inizio di una nuova era radiologica, quella dell’imaging o diagnostica per immagini, che si è sviluppata enormemente in questi ultimi decenni grazie all’introduzione di altre importanti metodiche d’indagine medica: la risonanza magnetica nucleare (RMN), la tomografia a emissione di positroni (PET, dall’inglese Positron Emission Tomography), la tomografia a emissione di fotone singolo (SPECT, dall’inglese Single Photon Emission Computed Tomography).

Queste ultime due metodiche fanno parte della cosidetta medicina nucleare, una branca sanitaria che utilizza, a fini diagnostici e terapeutici, le proprietà radioattive di alcune sostanze.

La SPECT è una tecnica tomografica che adopera una radiazione ionizzante, i raggi gamma. Può essere utilizzata nell’imaging dei tumori, di infezioni (leucociti), della tiroide, delle ossa o per fornire informazioni sulle funzioni localizzate degli organi interni, come, per es., la funzionalità cardiaca o quella cerebrale.

La PET è una tecnica per la produzione di bioimmagini mediante l’uso di un radiofarmaco realizzato usando isotopi radioattivi che emettono positroni, i cui spostamenti nel corpo umano possono essere riconosciuti e registrati. La sua introduzione in ambito medico è dovuta a Murray E. Phelps, che nel 1975 mette insieme le tecniche di imaging con le metodiche della medicina nucleare dimostrando in tal modo che è possibile indagare le funzioni metaboliche tissutali in condizioni normali e patologiche. La PET fornisce informazioni fisiologiche (e non morfologiche come avviene con la TAC o l’RMN) ed è usata in oncologia clinica per avere rappresentazioni dei tumori e per la ricerca di metastasi e in ambito cardiologico e neurologico.

In medicina nucleare una tecnica simile, meno sofisticata e di più antica origine, è la scintigrafia, un esame che consente, mediante la somministrazione di un tracciante radioattivo, di evidenziare l’accumulo preferenziale del tracciante (soluzioni saline di radioisotopi o specifici radiofarmaci) nel tessuto da studiare.

La tecnica della risonanza magnetica ha come punto di partenza le idee elaborate nel 1921 dal fisico austriaco Wolfgang Pauli (1900-1958), uno dei fondatori della meccanica quantistica, secondo cui i nuclei di certi atomi, in determinate condizioni, possono avere un momento angolare e diventano magnetici. Nel 1937 il fisico statunitense Isidor Isaac Rabi (1898-1988) misura il momento magnetico (o spin) del nucleo, per il quale conia l’espressione risonanza magnetica nucleare. Partendo dalla constatazione che questa metodica può essere utilizzata nell’uomo per distinguere precocemente i tessuti sani da quelli malati, nel 1971 il chimico statunitense Paul Christian Lauterbur (1929-2007) riesce a ottenere immagini tridimensionali e, poco dopo, il fisico inglese Peter Mansfield (n. 1933) sviluppa un metodo matematico che permette di effettuare la scansione in pochi secondi. Anziché utilizzare raggi X, le tecniche di risonanza magnetica si basano sull’impiego di un forte campo magnetico e di un segnale radio che, combinati, alterano lo stato energetico degli atomi del corpo, i quali, per questo motivo, emettono una varietà di segnali che possono essere analizzati e trasformati in immagini.

Le applicazioni in medicina iniziano a partire dagli anni Ottanta e diventano sempre più numerose. Da qualche anno l’utilizzo della risonanza magnetica funzionale (fMRI, dall’inglese Functional Magnetic Resonance Imaging) permette di ottenere anche importanti informazioni sulla funzionalità di un organo o di un apparato in maniera complementare all’imaging morfologico.

Anche le tecniche che utilizzano ultrasuoni a fini diagnostici (indagini ecografiche ed ecodopplersonografiche), entrate a far parte per la prima volta del bagaglio medico durante gli anni Cinquanta e mutuate da una tecnologia ecosonografica usata durante la Seconda guerra mondiale per localizzare i sottomarini, si avvalgono oggi di metodiche computerizzate che ne permettono un importante e sicuro uso in ambito ginecologico e ostetrico oltre che per lo studio della patologia cardiovascolare e internistica.

Con queste nuove tecniche diagnostiche computerizzate la visione del medico sul corpo malato si fa sempre più profonda, penetrante, precisa e analitica. Al tempo stesso però lo sguardo del medico nei confronti dell’uomo sofferente diventa sempre più lontano, neutro e distaccato. I pochi centimetri che con l’uso dello stetoscopio avevano iniziato a separare il medico dal suo paziente, diventano con la radiologia per immagini diversi metri di distanza, quelli che dividono la stanza in cui si trova la macchina con il malato rispetto a quella in cui è il medico esaminatore: una distanza che talvolta si dilata in centinaia o migliaia di chilometri se le immagini vengono trasmesse in telemedicina da un ospedale a un altro, da una città a un’altra, da un continente a un altro. Una relazione tra curante e curato che passa non attraverso un diretto rapporto interpersonale, ma tramite un’indiretta relazione iconografica impersonale.

Dalla microscopia alla medicina molecolare

Parallelamente alla nascita degli apparecchi radiologici che consentono di esplorare l’interno del corpo, il perfezionamento del microscopio consente, da un lato, di vedere sempre più distintamente quelle parti infinitesime della vita parassitaria che sono i ‘microbi’, causa delle malattie infettive e oggetto d’indagine particolare di una nuova promettente branca della medicina, la microbiologia, e, dall’altro, di osservare quelle strutture costituenti dell’organismo, invisibili se non adeguatamente ingrandite, che sono le cellule con i loro corpuscoli interni, le cui alterazioni sono anch’esse alla base di molti processi patologici e vengono studiate da un’altra emergente disciplina biomedica, la biologia cellulare o citologia.

Nel corso del Novecento l’impiego di metodologie autoradiografiche abbinate all’uso di traccianti metabolici radioattivi permette di correlare la fisiologia delle cellule con la loro morfologia, portando alla comprensione dei meccanismi che regolano il funzionamento delle strutture intracellulari. Un ulteriore contributo alla conoscenza dell’organizzazione sovramolecolare delle cellule è fornito dalla messa a punto nel 1931, da parte dei tedeschi Ernst August Friedrich Ruska (1906-1988) e Max Knoll (1897-1969), del microscopio elettronico, in grado di integrare e sostituire quello ottico tradizionale.

L’identificazione delle modalità attraverso cui le cellule sono in grado di comunicare tra loro sia in fase di sviluppo sia successivamente apre nuove importanti prospettive in ambito biologico e medico. Nel 1901 William Maddock Bayliss (1860-1924) ed Ernest Henry Starling (1866-1927) forniscono la prima dimostrazione dell’esistenza di effettori chimici endogeni in grado di regolare risposte fisiologiche organizzate. È la premessa che porta alla successiva scoperta degli ormoni, intesi come ‘messaggeri chimici’ trasportati nel sangue dall’organo di produzione (secretore) all’organo di azione (effettore). Sono le basi biologiche della nascente endocrinologia, destinata a spiegare fisiologia e patologia delle ghiandole a secrezione interna. Tra il 1948 e il 1952 l’italiana Rita Levi-Montalcini (1909-2012) ipotizza e dimostra l’esistenza in alcuni tumori di un fattore biochimico in grado di stimolare la crescita dei nervi. La scoperta del Nerve growth factor porta alla comprensione delle basi biochimiche della comunicazione tra cellule in fase di sviluppo (e quindi alla spiegazione dei complessi meccanismi di controllo del differenziamento e della morfogenesi del sistema nervoso) e apre la strada all’identificazione, nei decenni successivi, di numerosi altri ‘fattori di crescita’, proteine in grado di stimolare la proliferazione e il differenziamento cellulare, che assumeranno poi, soprattutto in questi ultimi vent’anni, un ruolo importante nel trattamento di diverse malattie del sangue e di alcuni tumori.

Nei primi decenni del Novecento la semplice osservazione microscopica della cellula viene affiancata e sostituita da tecniche di analisi più raffinate, a livello molecolare e macromolecolare. La biologia cellulare si trasforma in biologia molecolare, una ‘nuova scienza’, il cui nome viene coniato nel 1938 dallo scienziato statunitense Warren Weaver (1894-1978) per indicare «quelle aree di confine in cui la fisica e la chimica si fondono con la biologia» e che dà origine a una disciplina sviluppatasi dalla confluenza progressiva della genetica e della biochimica. Una definizione che assumerà un significato preciso solo nei due decenni successivi, quando si specificherà che oggetto della biologia molecolare è lo studio del rapporto tra struttura e funzione delle macromolecole biologiche (proteine e acidi nucleici) e del fatto che il flusso di informazioni che si verifica tra queste classi di molecole è alla base delle due caratteristiche principali degli organismi viventi: l’eredità e il metabolismo.

In questa prospettiva la celebre descrizione della struttura a doppia elica del DNA, elaborata nel 1953 da James D. Watson (n. 1928) e Francis H.C. Crick (1916-2004), si può considerare come la sintesi delle due anime della biologia molecolare: lo studio della struttura tridimensionale delle macromolecole biologiche e la tradizione di pensiero della genetica batterica. Il problema della determinazione chimica della sostanza portatrice dell’eredità (il gene) viene affrontato per la prima volta negli anni Venti del Novecento da Hermann Joseph Müller (1890-1967), ma solo nel 1934 Phoebus A.T. Levene (1869-1940) elabora un modello di DNA che prevede una distribuzione uniforme e casuale delle quattro basi azotate (adenina, timina, citosina, guanina) costituenti l’acido nucleico. Solo i successivi studi microbiologici portano a nuove ipotesi e a nuove scoperte. Nel 1944 il microbiologo Oswald T. Avery (1877-1955) dimostra che i batteri possono scambiarsi DNA determinando, in tal modo, un cambiamento della natura del microbo. Alcuni anni più tardi, un gruppo di ricercatori coordinati dal fisico Max Delbrück (1906-1981) – tra i quali spicca il medico italiano Salvador Edward (Salvatore) Luria (1912-1991) – compie una serie di studi sulla lisi batterica dei batteriofagi che dimostra come le leggi che regolano la crescita e l’evoluzione dei batteri sono le stesse presenti nel mondo degli organismi superiori.

Sono le premesse che porteranno alla nascita dell’ingegneria genetica, espressione coniata nel 1966 da Edward Lawrie Tatum (1909-1975) per definire le pratiche biologiche volte a produrre «nuovi geni per mutazione diretta». Essa è in realtà lo sviluppo applicativo di tecniche che sfruttano le proprietà chimiche e biologiche delle macromolecole funzionali e dei microrganismi per modificare, a scopi di ricerca o a fini industriali, agricoli e farmacologici, organismi viventi (OGM, Organismi Geneticamente Modificati).

L’ingegneria genetica trova ampia applicazione prima in campo agricolo e zootecnico (nel 1996 nasce in Scozia Dolly, la prima pecora transgenetica) e, successivamente, in ambito medico, a livello della diagnostica molecolare e per la produzione di farmaci (nel 1985 viene autorizzato negli Stati Uniti l’uso del primo vaccino contro l’epatite B prodotto con batteri geneticamente modificati). Grandi speranze sono poi state accese dalle prospettive aperte negli anni Ottanta dalla terapia genica, cioè dalla possibilità di inserire materiale genetico (DNA) all’interno dalla cellula allo scopo di prevenire o curare una malattia, anche se i risultati clinici sono stati ampiamente al di sotto delle aspettative.

Le tecniche messe a punto dai biochimici negli ultimi tre decenni del Novecento per il sequenziamento del DNA, cioè per stabilire l’esatto ordine delle basi nucleotidiche, consentirà di arrivare a completare e a pubblicare nel 2003, a cinquant’anni esatti dalla scoperta della struttura a doppia elica del DNA, il sequenziamento del genoma umano. Il Progetto genoma umano (Human Genome Project) aveva preso avvio nel 1983, ma una spinta fondamentale per la sua realizzazione era venuta dalla puntualizzazione fatta attraverso un articolo pubblicato su «Science» nel 1986 del medico italiano premio Nobel nel 1975 Renato Dulbecco (1914-2012) sulla necessità di conoscere la sequenza dei geni per poter sconfiggere il cancro e capire molti fenomeni biologici.

In questi ultimi anni il volto della biologia molecolare è stato ridisegnato dalla nascita di nuove branche di questa disciplina. La genomica si occupa dello studio del genoma (cioè del corredo genetico) degli organismi viventi, analizzando in particolare la struttura, il contenuto, la funzione e l’evoluzione del genoma. La proteomica indaga il proteoma (cioè l’insieme di tutti i possibili prodotti proteici espressi in una cellula) e mira all’identificazione sistematica delle proteine e alla loro caratterizzazione rispetto alla struttura, alla funzione, all’attività e alle interazioni molecolari che possiedono. Tutte queste scienze utilizzano la metodica bioinformatica per l’elaborazione e la visualizzazione dell’enorme quantità di dati prodotti.

La ricaduta in ambito medico delle scoperte della biologia molecolare ha portato alla nascita della medicina molecolare, che studia i rapporti che intercorrono tra manifestazioni patologiche e patrimonio genetico umano, occupandosi quindi di tutte le malattie dovute a modificazioni del codice genetico oppure a errori di trascrizione e di traduzione dell’informazione o a errori della regolazione dell’espressione genetica. Le possibilità offerte da questo nuovo approccio fisiopatologico molecolare hanno portato all’elaborazione di peculiari tecniche diagnostiche per numerose malattie e di vari metodi terapeutici su base genica e molecolare, aprendo nuove stimolanti prospettive di ricerca e di cura per la biomedicina.

Dal laboratorio biochimico alla bioinformatica

Agli inizi del Novecento la chimica applicata allo studio degli organismi viventi umani porta alla nascita della chimica clinica, consentendo i primi ‘esami di laboratorio’ del sangue e delle urine alla ricerca di possibili parametri biochimici alterati quali espressioni di malattia.

Le nuove metodiche laboratoristiche che cominciano a essere praticate nei ‘gabinetti d’analisi’, insieme alle indagini radiologiche effettuate nelle ‘sale raggi’, contribuiscono a indurre l’idea, nei giovani medici soprattutto, che la diagnosi basata sulla semeiotica fisica al letto del malato stia per cedere definitivamente il passo alla diagnosi effettuata grazie alle informazioni ottenute con gli esami di laboratorio e con lo studio radiologico del paziente. Una radioscopia del torace ben fatta e un bell’esame microscopico dell’espettorato eseguito in laboratorio valgono, per la diagnosi di tubercolosi polmonare, molto più di un’accurata anamnesi ricca di esperienze personali e molto più di un esame obiettivo ricco di suoni anforici o di rumori particolari percepiti con lo stetoscopio.

Questo nuovo medico-tecnologo è il frutto di un accresciuto prestigio scientifico del suo ‘mestiere’, cui corrisponde un’aumentata fiducia (eccessiva talvolta) da parte del malato nelle nuove possibilità diagnostiche e terapeutiche della medicina.

Nell’ottica di un approccio scientifico della medicina alla malattia e nella prospettiva di rendere più efficiente la cura dei malati, la chimica clinica stabilisce i parametri di normalità delle sostanze che si trovano nel sangue, nelle urine e in altri liquidi biologici dell’individuo, cercando di standardizzare e meccanizzare i metodi, volumetrici e colorimetrici, utilizzati nella routine dei laboratori.

L’introduzione, a partire dalla seconda metà del Novecento, di analizzatori automatici per eseguire i test di laboratorio in sostituzione delle metodiche manuali è il primo passo di un processo di bioinformatizzazione che interesserà tutta la medicina negli ultimi decenni del secolo.

Una concezione sempre più riduzionistica della malattia, la ricerca sempre più precisa dei segni alterati del corpo malato e la propensione del medico a specializzarsi nell’indagine clinico-strumentale di un organo malfunzionante (cuore, fegato, rene, polmone), di un sistema alterato (nervoso, endocrino) o di un apparato inefficiente (gastroenterico, urinario) sono le inevitabili conseguenze di questo processo di trasformazione della medicina iniziato a fine Ottocento. In questa prospettiva conoscere a fondo i segni che esprimono obiettivamente questi ‘guasti’ è fondamentale.

I biosegnali provenienti dal corpo diventano più chiari e precisi grazie all’ausilio di un nuovo apparecchio auscultatorio, il fonendoscopio, evoluzione novecentesca dello stetoscopio, che esamina la ‘voce interna’ dei polmoni e del cuore. Quest’ultimo però, oltre a quello ‘sonoro’, possiede un altro modo di comunicare che il medico vuole conoscere e registrare: quello ‘elettrico’. Tra il 1838 e il 1843 il fisico e fisiologo italiano Carlo Matteucci (1811-1868) riesce a mostrare, con esperimenti sul cuore di piccione, che le contrazioni del muscolo cardiaco generano correnti elettriche (potenziali d’azione). Nel 1876 il fisiologo Marey – lo stesso scienziato che aveva inventato lo sfigmografo digitale – pubblica il primo tracciato grafico delle oscillazioni di un elettrometro durante un ciclo cardiaco normale e, nel 1887, il fisiologo francese Augustus Desiré Waller (1856-1922) fotografa il primo tracciato elettrico del cuore umano. Il primo vero elettrocardiogramma però viene registrato solo nel 1903 dal fisiologo olandese Willem Einthoven (1860-1927), premiato con il Nobel nel 1924, cui si deve anche la descrizione delle tre derivazioni standard del tracciato e la designazione dei singoli tratti dell’elettrocardiogramma con lettere convenzionali (P, Q, R, S, T).

Come il cuore, anche il cervello possiede un analogo modo elettrico di comunicare. Le onde cerebrali che costituiscono l’elettroencefalogramma umano sono registrate per la prima volta nel 1929 dal neuropsichiatra tedesco Hans Berger (1873-1941), nella scia di una linea di ricerca sull’attività elettrica spontanea del cervello di coniglio iniziata nel 1875 dall’inglese Richard Caton (1842-1926).

Sempre nel 1929 viene perfezionata la tecnica dell’elettromiografia per lo studio e la registrazione dell’attività elettrica muscolare. Sin dal 1849 l’anatomico e fisiologo tedesco Emil Du Bois-Reymond (1818-1896) era riuscito a captare le correnti d’azione prodotte dalla contrazione volontaria dei muscoli della mano e del braccio. Elettrodi metallici, introdotti nel 1907 in analogia con quanto aveva escogitato Einthoven per la elettrocardiografia, abbinati nel 1922 all’uso di un oscilloscopio a raggi catodici, avevano consentito a Joseph Erlanger (1874-1965) e Herbert Spencer Gasser (1888-1963) di ottenere registrazioni accurate delle rapide variazioni di potenziale elettrico caratteristiche dell’elettromiogramma. Solo nel 1929 però Edgar Douglas Adrian (1889-1977) e Detlev Wulf Bronk (1897-1975) propongono l’uso dell’ago-elettrodo che, inserito nel ventre muscolare, rende possibile la captazione dei potenziali elettrici prodotti da piccoli gruppi di fibre muscolari. Questa tecnica ha grande successo in ambito clinico aprendo le porte alla moderna elettromiografia.

Nel Novecento, lo sviluppo medico s’immette dunque a pieno canale nell’alveo tecnologico: esami di laboratorio, radiografie, scopie, elettrocardiogrammi, elettroencefalogrammi ed elettromiografie portano la clinica a emettere diagnosi sempre più accurate ed esatte. La precisione diagnostica della nuova tecnologia è in grado di assicurare al medico autorità e prestigio, caratteristiche legate in precedenza soprattutto alle sue qualità umane. Il perfezionamento legato all’uso della tecnologia informatica nella realizzazione di queste ‘macchine’ in grado di registrare i biosegnali umani ne migliora le prestazioni senza però modificarne le applicazioni in ambito sanitario. Invariati restano anche i problemi che la tecnologia diagnostica pone alla medicina di oggi.

Riduzionismo dell’uomo ammalato al corpo malato e frammentazione dell’unità dell’individuo nei suoi organi, sani o patologici che siano, sono rischi impliciti nella sempre più emergente tecnomedicina, ma avvertiti e controllati da una tensione umana e sociale sovente ancora presente tra i medici. La scienza medica più responsabile tende a completarsi con una antropologia medica dove la malattia lascia il posto al malato.

La terapia tecnologica: prospettive e speranze della medicina

La rivoluzione farmacologica

Nell’Ottocento la trasformazione della medicina in una pratica basata sempre più su saperi scientifici e il perfezionamento diagnostico conseguente all’impiego in ambito clinico degli apparati tecnologici medici fanno emergere l’impossibilità, il più delle volte, di far seguire a una brillante e precisa diagnosi un’efficace terapia, portando i clinici a ritenere esaurito il loro compito nel momento della diagnosi.

Questo nichilismo terapeutico, teorizzato e diffuso da Joseph Skoda (1805-1881), direttore della Clinica medica di Vienna dal 1846 al 1871, spinge molti medici di rango a disinteressarsi della terapia e a considerare l’obiettivo della guarigione del malato un fine secondario: fatta la diagnosi l’atto medico è concluso e bisogna astenersi dal prescrivere rimedi. È un astensionismo salutare che prende atto della dimostrazione scientifica, ottenuta attraverso l’uso dell’analisi matematica dei dati, del fatto che, ai fini della guarigione, i vecchi medicamenti e i metodi tradizionali (come l’onnipresente salasso) risultano inutili, anzi sovente perfino dannosi.

Parallelamente, però, la statistica medica diventa anche il primo emblematico strumento in grado di fornire al medico una vera terapia tecnologica, cioè la possibilità di utilizzare rimedi la cui validità sia sostenuta dall’obiettività scientifica dell’osservazione e dall’impiego dei ritrovati della tecnica. L’uso che Ignaz Philipp Semmelweis (1818-1865) fa delle statistiche complesse per scoprire l’eziologia della febbre puerperale nelle cliniche ostetriche dell’Università di Vienna, gli consente di dimostrare nel 1847 che essa non è dovuta a cause cosmotelluriche inducenti fermentazione del sangue, ma a tracce di materiale infetto trasmesso alle puerpere dalle mani degli studenti di medicina reduci dalla sala d’autopsia. Con una rigida regolamentazione di disinfezione delle mani con acqua clorata prima della visita alle pazienti imposta da Semmelweis agli studenti, le infezioni si riducono sino quasi a scomparire. Questa pratica, scoperta e applicata da Semmelweis, deve attendere quasi vent’anni prima di essere utilizzata come presidio terapeutico in chirurgia, sotto forma di disinfezione con acido fenico per prevenire la mortalità postoperatoria: nel 1865 da Joseph Lister (1827-1912) a Glasgow e nel 1866 da Enrico Bottini (1835-1903) a Pavia.

La rivoluzione dell’asepsi segue di poco la rivoluzione dell’anestesia, l’altro ‘presidio tecnologico’ mutuato e mediato, come l’asepsi, dall’uso di sostanze chimiche (acido fenico per la disinfezione, etere, protossido d’azoto e cloroformio per l’anestesia), in grado di trasformare in pochi decenni la chirurgia da temibile pratica cruenta e dolorosa a efficace, sicura e indolore terapia. L’esperimento riguardante l’uso dell’etere per un’estrazione dentaria da parte di William T.G. Morton (1819-1868) a Boston nel 1848 segna la nascita dell’arte di produrre insensibilità al dolore mediante l’inalazione di gas chimici. I presidi antidolorifici tentati dall’uomo nel corso dei secoli cedono il passo ai ‘gas esilaranti’ (etere e protossido d’azoto).

È il punto di svolta di un sostanziale cambiamento della chirurgia. Quest’arte empirica, condizionata sino allora da una cultura del corpo che dettava le regole di una rigida diversità di ruoli nell’interazione fra operatore e operato, necessitava di un duplice rinnovamento: da un lato, una vera e propria rivoluzione culturale per rendere possibile una radicale trasformazione del rituale chirurgico e la modificazione di quel rapporto cruento, drammatico e violento tra operatore e operato; dall’altro, un’autentica rivoluzione tecnologica in grado di fornire al chirurgo i mezzi adatti (miglioramento degli strumenti chirurgici, allungamento dei tempi di intervento, nuovi assetti della camera operatoria e, soprattutto, asepsi) per calarsi in questo suo nuovo ruolo e al paziente la possibilità di affrontare l’intervento con reale speranza di guarigione e senza la paura del dolore.

Accanto a queste fondamentali trasformazioni della terapia chirurgica, anche la terapia medica intraprende un significativo cambiamento grazie a una rivoluzione farmacologica che ne modifica profondamente i fondamenti. La scoperta degli anestetici e l’identificazione di alcaloidi e glucosidi quali principi farmacologicamente attivi presenti nei vegetali con riconosciuto effetto curativo rappresentano le maggiori conquiste della nuova farmacologia del primo Ottocento in grado di aprire la strada alla vera novità che si realizza in campo farmacoterapico nella seconda metà del secolo: la nascita di farmaci per sintesi chimica. Non più estratti di sostanze vegetali o minerali presenti spontaneamente in natura, bensì composti ‘costruiti’ artificialmente in laboratorio al fine di svolgere un’azione farmacologica selettiva ed efficace sull’organismo malato.

Quest’innovazione avvia il processo di industrializzazione della produzione farmaceutica, facendo del farmaco così realizzato (che si trasforma ben presto in specialità farmaceutica caratterizzata e garantita da un marchio di fabbrica) un rimedio nuovo ed efficace per le sue enormi potenzialità curative e per la sua ampia e facile disponibilità, ma anche un prodotto in grado di determinare un forte profitto economico e, come tale, sottoposto alle rigide regole del mercato commerciale.

I Paesi di cultura e lingua tedesca (Germania e Svizzera) sono quelli in cui, per il concorrere di molteplici fattori (presenza di un’importante industria chimica, disponibilità di notevole capitale economico, favorevole spirito imprenditoriale, innovativa visione medico-biologica), questa industria si sviluppa come continuazione o filiazione di quella chimica dei coloranti: Bayer e Hoechst (1863), BASF (1865) e Schering (1871) in Germania, CIBA e Geigy (1884), Sandoz (1886) e Hoffman-La Roche (1894) in Svizzera sono le prime e principali industrie di coloranti e di farmaci che sorgono in quegli anni.

Nei Paesi di lingua latina (Italia e Francia) l’industria farmaceutica prende invece avvio dalla trasformazione dei numerosi laboratori che affiancano le botteghe degli speziali, i più intraprendenti dei quali – come nel 1824 a Torino Giovanni Battista Schiapparelli (1795-1863), a Milano nel 1853 Carlo Erba (1811-1888), nel 1866 Ludovico Zambeletti (1841-1890) e nel 1868 Roberto Giorgio Lepetit (1842-1907) – danno vita a importanti stabilimenti farmaceutici.

Cambia il modo di realizzare i farmaci e si modifica anche la modalità di fornirli al paziente. A una nuova tecnica di produzione corrisponde una moderna tecnica di somministrazione. L’iniezione per ‘via ipodermica’, introdotta nella pratica medica dall’inglese Alexander Vood (1817-1884) nel 1853, ma diffusasi solo dopo l’invenzione della fiala di vetro da parte di Limousin nel 1893, s’impone quando occorre richiedere al farmaco un’azione pronta, completa e sicura. Le iniezioni per via endovenosa, già praticate empiricamente sin dal Seicento, ma rese più facili dall’invenzione del francese Charles-Gabriel Pravaz (1791- 1853) della siringa con ago cavo nel 1852, vengono reintrodotte in ambito medico dall’italiano Guido Baccelli (1830-1916) per somministrare soluzioni di chinino ai malarici (1889) e di sublimato corrosivo ai sifilitici (1891).

I nuovi farmaci di sintesi prodotti dalla nascente industria farmaceutica riescono a eliminare o ad attenuare i sintomi più gravi che accompagnano le malattie (come la febbre o il dolore), ma non sono in grado di ridurre l’incidenza delle infezioni che, all’inizio del Novecento, rappresentano ancora la stragrande maggioranza delle manifestazioni patologiche dell’umanità.

L’impiego di sieri e vaccini (soprattutto per la difterite e il tetano) e il ricorso sempre più sistematico al chinino (per la malaria) forniscono certamente un contributo importante, ma non ancora sufficiente, per ridurre l’incidenza di determinate malattie infettive. Per debellare definitivamente le infezioni (causate, come ormai la scienza medica aveva ampiamente dimostrato, dalla presenza di germi patogeni all’interno dell’organismo malato) occorre utilizzare sostanze che, introdotte nel corpo malato, agiscano come ‘proiettili magici’ uccidendo selettivamente i germi senza danneggiare l’ospite, realizzando quella therapia sterilisans magna della malattia che era stato l’obiettivo inseguito, ma mai raggiunto, dalla medicina della seconda metà dell’Ottocento.

Un nuovo farmaco messo in commercio nel 1910 dalla Hoechst per combattere la sifilide, il Salvarsan (chimicamente un derivato dell’arsenico, l’arsenobenzolo), sembra possedere queste caratteristiche e aprire realmente una nuova era nella lotta contro le infezioni. È il punto d’arrivo delle ricerche di un geniale scienziato tedesco, Paul Ehrlich (1854-1915), convinto assertore dell’importanza della chemioterapia per debellare le malattie infettive: una terapia, cioè, realizzata grazie all’impiego di sostanze chimiche che, introdotte dall’esterno nell’organismo malato, siano in grado di riconoscere, per affinità chimica, i germi patogeni e di distruggerli senza danneggiare altri organi.

Sul piano terapeutico i risultati ottenuti sulla sifilide dagli arsenobenzoli non sono così brillanti come si era sperato, tuttavia le idee di Ehrlich rappresentano una tappa fondamentale nel progresso della farmacologia, soprattutto per la chiara intuizione e formulazione del concetto di recettore.

La chemioterapia di Ehrlich è anche la prima vera esperienza di farmacologia sperimentale nel senso moderno del termine, premessa indispensabile all’avvento della farmacologia terapeutica realizzata alcuni decenni più tardi dall’impiego dei sulfamidici prima e degli antibiotici poi.

Nonostante la delusione degli arsenobenzoli l’‘idea chemioterapica’ di Ehrlich resta un’affascinante ipotesi di lavoro in ambito farmacologico. Seguendo questa strada Gerhard Domagk (1895-1964), un ricercatore della Bayer, sintetizza nel 1932 un composto, il Prontosil rosso, che ben presto mostra di svolgere un’importante azione antibatterica. Stranamente il composto esplica la sua azione solo in vivo e non in vitro. La ragione di questo insolito comportamento viene evidenziata nel 1935 da un gruppo di ricercatori dell’Institut Pasteur di Parigi, sotto la guida del biochimico svizzero con cittadinanza italiana Daniel Bovet (1907-1992): l’azione antibatterica è dovuta solo a una parte del composto, il sulfamile, che si ottiene dopo la scissione operata dall’organismo del colorante. Nasce una nuova rivoluzionaria classe di farmaci, i sulfamidici, i primi veri prodotti efficaci in gran parte delle malattie infettive.

La vittoria definitiva sulle infezioni si avrà però solo a partire dal 1942, durante gli anni drammatici della Seconda guerra mondiale. Iniziano segretamente in quegli anni negli Stati Uniti le prime applicazioni cliniche e la produzione industriale di una sostanza dotata di straordinari poteri antibiotici, la penicillina, un estratto di muffa scoperto casualmente nel 1929 da Alexander Fleming (1881-1955) e successivamente reso sufficientemente stabile per cristallizzazione nel 1939 da Howard Walter Florey (1898-1968) ed Ernst Boris Chain (1906-1979).

L’impatto della penicillina e degli altri antibiotici scoperti successivamente sulla medicina e sulla società è enorme, tale da influenzare in modo significativo la durata e la qualità della vita, così da risultare certamente uno tra i più importanti fattori che in questo secolo hanno modificato il cammino dell’umanità.

Sulfamidici e antibiotici rappresentano non solo il punto d’arrivo della concezione chemioterapica di Ehrlich e i primi veri farmaci messi alla prova dalla farmacologia sperimentale per studiare l’interazione organismo-farmaco, ma anche i primi prodotti che permettono alla farmacologia moderna di affiancare a un indirizzo teorico prevalentemente sperimentale un approccio più applicativo di tipo ‘terapeutico’.

Dalla materia medica di inizio Ottocento si è giunti alla farmacoterapia della seconda metà del Novecento.

Bovet, insignito del Nobel per la fisiologia o la medicina nel 1957, è lo scienziato a cui la farmacologia moderna deve i maggiori contributi. Dopo l’importante scoperta fatta nel 1935 sull’azione antibatterica legata ai sulfamidici, di cui s’è detto, nel 1937 compie studi fondamentali sull’istamina e sulle sostanze antagoniste (antistaminici) e successivamente, nel 1947, con le ricerche sulla gallamina apre la strada ai curari sintetici. In particolare, le ricerche sulle fenotiazine, prodotti ad azione antistaminica noti da tempo, ma mai adeguatamente indagati, portano nel 1952 all’uso clinico come sedativo in alcune forme di psicosi della clorpromazina (Largactil) da parte degli psichiatri francesi Jean Delay (1907-1987) e Pierre Deniker (1917-1998), segnando l’inizio ufficiale della psicofarmacologia. L’impiego di sali di litio (iniziato nel 1949) e la scoperta di farmaci ad azione antidepressiva (anti-MAO e triciclici, avvenuta rispettivamente nel 1952 e nel 1957) forniscono nuovi mezzi per affrontare in modo radicalmente diverso rispetto al passato i gravi problemi della patologia psichiatrica, aprendo la porta della speranza e della libertà a migliaia di esseri infelici destinati prima di allora a languire, sovente per tutta la vita, nelle ‘prigioni della follia’, i manicomi.

Una nuova classe di tranquillanti ‘minori’, le benzodiazepine, scoperte da Leo H. Sternbach (1908-2005), a partire dal 1960 si rivela assai efficace per controllare l’ansia e ridurre l’insonnia. Clordiazepossido (Librium, 1960) prima e diazepam (Valium, 1963) poi sono i capostipiti di una famiglia di composti che ha mutato profondamente la vita di milioni di persone di tutto il mondo: migliorandola indubbiamente talvolta, ma creando spesso fenomeni di autentico gratuito consumismo farmacologico e di grave, ingiustificabile e inaccettabile farmacodipendenza.

Un’autentica ‘esplosione farmacoterapica’ sconvolge il mondo della medicina e della farmacologia nel secondo dopoguerra, a partire soprattutto dagli anni Cinquanta. Dopo gli sviluppi della psicofarmacologia vengono scoperti e sintetizzati nuovi e più potenti antibiotici (rifamicina, 1957; ampicillina, 1961), alcuni ad azione antimicotica (nistatina, 1950; griseofulvina, 1958), sostanze attive contro la tubercolosi (PAS, 1946; isoniazide, 1952), più attivi antispastici, analgesici e antinfiammatori non steroidei (FANS) che permettono, in alcune malattie croniche, valide alternative all’uso del cortisone (impiegato in terapia nel 1949). La cura del diabete mellito si arricchisce grazie all’introduzione degli antidiabetici orali (1955), mentre la scoperta e l’impiego dei contraccettivi (1956) per la prima volta nella storia rende l’umanità in grado di controllare le nascite.

Anche malattie neurologiche ritenute inguaribili, come il morbo di Parkinson, si giovano dell’introduzione in terapia della L-Dopa (1960), che si rivela in grado di contrastare gli effetti devastanti del male. Iniziano a essere impiegati anche i primi diuretici e i primi betabloccanti ad azione ipotensiva e cardioprotettiva. Il ricorso sistematico agli antielmintici, la scoperta e l’uso di nuove vitamine, la diffusione della vaccinazione antipoliomielitica, l’estensione dell’impiego di preparati chemioterapici nella lotta ai tumori portano a un graduale progressivo miglioramento nella terapia di molte forme patologiche.

In questo apparentemente inarrestabile processo di progresso farmaceutico e di ottimismo medico, nel 1960 il dramma e il clamore che suscita nel mondo il ‘caso talidomide’ (un farmaco ad azione ipnotica messo in commercio da un’industria tedesca come assolutamente sicuro, ma che, assunto in gravidanza, determina la nascita di bimbi affetti da una gravissima malformazione: la focomelia) provoca una brusca battuta d’arresto e un’indispensabile pausa di riflessione sull’uso e sulla sicurezza dei farmaci che impone la necessità di creare una legislazione nuova, intesa a promuovere una corretta sperimentazione farmaceutica e clinica dei farmaci per garantire l’assenza di gravi effetti collaterali e la presenza di una reale efficacia terapeutica dei medicinali messi in commercio.

Molti farmaci innovativi vengono scoperti e commercializzati negli ultimi decenni del Novecento, molecole spesso capostipiti di nuove classi di farmaci, che dovrebbero (il condizionale è d’obbligo) essere il frutto di un’attenta ricerca e di una più accurata valutazione del rapporto tra rischi e benefici.

Il farmaco, infatti, ha sempre, accanto a un’azione benefica, anche un’azione dannosa sull’organismo nel quale viene introdotto: solo un’attenta valutazione del rapporto rischio/beneficio ne deve guidare l’uso in ambito clinico, distinguendo tra azione farmacologica (cioè interazione biochimica con l’organismo, non sempre automaticamente curativa o benefica) e azione terapeutica (vale a dire la capacità del prodotto di intervenire sulle cause della malattia).

Evoluzione e futuro della farmacologia

Negli ultimi decenni l’impiego in medicina e in farmacologia di tecnologie informatiche e di tecniche biologiche ha aperto anche in questo ambito l’era biotecnologica.

Sino a qualche decennio fa la ricerca farmacologica era caratterizzata da programmi di screening effettuati su grandi raccolte di molecole ottenute per sintesi chimica al fine di verificarne l’affinità nei confronti di specifici target biologici e valutarne l’efficacia terapeutica su modelli animali con patologie indotte da agenti fisici, chimici o biologici e in un piccolo numero di patologie animali spontanee con lo scopo di evidenziare un effetto favorevole (di natura fisiologica e/o istologica) sulla patologia indotta. Nei decenni successivi sono state introdotte tecniche che hanno consentito di generare animali transgenici (animali in cui venivano introdotti uno o più generi eterologhi) dotati di caratteristiche tali da renderli utilizzabili, nel versante della ricerca, come perfetti modelli sperimentali di patologie specifiche o, nel versante della produzione, come fornitori naturali della proteina codificata dal gene inserito.

Negli ultimi tre decenni del Novecento l’approccio farmacologico diretto in vivo, grazie alle conoscenze relative agli enzimi e ai recettori immagazzinate attraverso sistemi informatici, si è trasformato in un approccio che utilizza metodologie in vitro, rese ancora più veloci e potenti attraverso sistemi di elaborazione informatica dei dati. La biologia molecolare è divenuta il principale elemento di un rivoluzionario cambiamento della medicina e della farmacologia che ha permesso di mettere a punto procedure operative di ingegneria genetica per ricombinare i geni, replicarli mediante clonazione e caratterizzarli sulla base della sequenza specifica delle basi nucleotidiche.

Nel 1973 l’impiego delle tecniche di ‘DNA ricombinante’ ha aperto prospettive nuove e interessanti, quali la possibilità di produrre molecole complesse come le proteine, la cui sintesi è nella maggior parte dei casi impraticabile per via chimica.

In ambito farmacologico questa nuova ‘tecnologia biologica’ o biotecnologia era destinata a provocare una rivoluzione simile a quella innescata a metà Ottocento dalla nascita dei farmaci di sintesi e agli inizi del nuovo millennio la decifrazione del genoma umano ha aperto la strada ad applicazioni farmacologiche straordinarie.

L’informatica ha trasformato l’approccio farmacologico tradizionale, prima integrato e poi sostituito con le tecniche di modellistica molecolare informatica: grazie all’uso di computer e di programmi mirati, oggi un farmaco, prima di essere materialmente prodotto, viene progettato e studiato virtualmente.

Anche l’avvento della chimica combinatoriale ha rappresentato un’ulteriore importante svolta nel modo di far ricerca farmacologica nei laboratori dell’università e dell’industria. Costruendo collezioni di numerosi prodotti (biblioteca o library) con un alto numero di varianti della struttura fondamentale e testandone poi sistematicamente l’attività biologica, diventa possibile aumentare moltissimo la probabilità di scoprire molecole attive nei confronti del target desiderato grazie all’uso di metodi di screening rapido automatizzato che si avvalgono di sistemi di elaborazione informatica e di tecniche robotiche. I composti che si mostrano dotati di attività biologica vengono poi ulteriormente e più a fondo studiati, mentre tutti gli altri sono scartati.

Ricerca virtuale dei farmaci e screening rapido automatizzato di prodotti realizzati con la chimica combinatoriale sono le nuove frontiere della bioinformatica chimica, la scienza che insieme alla bioingegneria genetica rappresenta la strada della ricerca farmacologica futura.

Nel 1982 l’approvazione e la registrazione negli Stati Uniti dell’insulina umana prodotta con la tecnica del DNA ricombinante dalla Genetech, capostipite delle industrie biotecnologiche (biotech companies) e destinata a diventare il principale esempio del nuovo modello di sviluppo economico-industriale in campo farmaceutico, hanno segnato l’inizio ‘ufficiale’ della produzione dei farmaci biologici.

Le potenzialità offerte dalla conoscenza del genoma umano di identificare nuove proteine di interesse farmacologico hanno aperto la porta a quel seducente mondo della genomica e della proteomica che ha ribaltato il paradigma della ricerca farmacologica. L’approccio tradizionale, che portava dalla patologia al target, dal target allo screening e dallo screening alla molecola, si è capovolto: oggi si passa dal gene alla proteina, dalla proteina allo screening della sua funzione e dalla funzione al candidato farmaco.

Farmacogenetica e farmacogenomica si pongono nell’ambiziosa prospettiva di poter predire (grazie a tecnologie basate su microchip che consentono rapide indagini molecolari su specifici genotipi) la risposta individuale di un paziente a un farmaco, in modo da valutarne l’eventuale resistenza o l’insorgenza di effetti collaterali significativi, arrivando a ipotizzare l’impiego di un farmaco ‘su misura’ per quel particolare soggetto (terapia personalizzata).

Questa nuova farmacologia ha cambiato e sta tuttora cambiando anche le regole dell’industria farmaceutica e del suo mercato. Nell’arco di vent’anni gli investimenti che un’industria deve affrontare per sviluppare un nuovo farmaco sono passati da 80 a oltre 900 milioni di dollari, mentre il tempo che si deve attendere prima che un nuovo prodotto venga messo in commercio è slittato da dieci a quasi quindici anni. Questa è stata forse la principale ragione che, negli ultimi decenni, da un lato ha provocato la scomparsa – per assorbimento da parte di altre o per mancanza di competitività – di molte industrie del settore e, dall’altro, ha favorito la fusione fra aziende (merger) che ha generato veri e propri giganti farmaceutici in grado, anche se in piccolo numero, di controllare e condizionare ricerca e mercato a livello mondiale (big pharma).

Accanto a queste enormi maxindustrie, lo sviluppo del fenomeno biotecnologico ha favorito la creazione e la proliferazione, soprattutto inizialmente negli Stati Uniti, sede di origine del fenomeno, poi anche in Europa, di migliaia (alcune centinaia in Italia) di laboratori di ricerca di piccole dimensioni o di minuscole aziende basate su pochi progetti promettenti dal punto di vista biofarmacologico in grado di attrarre capitali privati per consentirne la realizzazione (biotech companies). Sono aziende che hanno preso origine separandosi da un’industria più grande o dall’università (spin-off) oppure società fondate da un gruppo di ricercatori-imprenditori per elaborare un progetto nuovo (start-up).

Nanotecnologie e farmaci molecolari costituiscono oggi l’ultima frontiera della tecnologia farmacoterapica. Le proprietà che la materia assume a dimensioni nanometriche (cioè con una scala dimensionale inferiore al micrometro, vale a dire tra 1 e 100 nanometri) rendono complesse la costruzione e la sperimentazione di nanodispositivi, che però possono fornire prestazioni straordinarie. L’applicazione medica di queste particolari tecnologie ha dato vita alla nanomedicina: un settore innovativo destinato ad avere un impatto rivoluzionario in ambito diagnostico e terapeutico. In particolare di quest’ultimo settore si occupa la nanofarmacologia, che utilizza nanoparticelle (vettori) per realizzare nanofarmaci dotati di caratteristiche farmacocinetiche e di potenzialità farmacoterapeutiche impossibili per farmaci di grandezza superiore al micrometro.

Questi nanofarmaci sono in grado di agire su bersagli molecolari in modo esclusivo e selettivo (come avviene, per es., nella farmacologia del ribonucleic acid, RNA) e di esplicare proprietà farmacologiche peculiari: come la possibilità di inglobare un’elevata quantità di farmaco, che è possibile veicolare direttamente sul tessuto malato e nelle cellule patologiche (per es., nei tumori), e di consentire, grazie alla maggiore solubilità, una più prolungata esposizione al farmaco; oppure la possibilità di rilasciare contemporaneamente più farmaci, contenuti nella stessa nanoparticella, grazie a farmacocinetiche differenti e appropriate; o ancora la possibilità, utilizzando questi nanovettori, di far attraversare senza difficoltà ai farmaci la barriera emato-encefalica, la membrana cellulare e il citoplasma, in modo da raggiungere facilmente i target terapeutici.

Le nanotecnologie rappresentano dunque, in ambito medico e farmacologico, la via privilegiata per dare corpo a quella medicina personalizzata alla quale aspira la sanità del nuovo millennio e per realizzare quella farmacologia individualizzata a cui tende l’approccio terapeutico del futuro.

Le tecnoterapie: dai trapianti alla medicina rigenerativa

Il mito del trapianto di organo ha affascinato l’uomo sin dall’antichità. In ambito sanitario l’idea che nel corpo dell’uomo, concepito come una macromacchina costituita da un insieme di micromacchine (organi, tessuti, cellule) armonicamente funzionanti, fosse possibile sostituire le parti inefficienti con nuovi ‘pezzi’, trova il suo fondamento teorico nella medicina meccanica del Seicento.

I primi resoconti sui trapianti di tessuti, di ossa e di pelle risalgono però al Quattrocento. Durante il Rinascimento, il medico bolognese Gaspare Tagliacozzi (1545-1599) sviluppò un metodo per la ricostruzione del naso utilizzando gli stessi tessuti cutanei del paziente, affermando già allora che la specificità dell’individuo impediva fondamentalmente di eseguire quest’intervento su un’altra persona e anticipando in tal modo uno dei maggiori problemi della medicina dei trapianti: il rigetto.

Nel 1801 il naturalista italiano Giuseppe Baronio riferisce di innesti cutanei riusciti tra specie animali differenti, ma solo nella seconda metà dell’Ottocento le diverse possibilità di successo di trapianti tra organismi vengono studiate sperimentalmente in modo sistematico dal fisiologo francese Paul Bert (1833-1886), allievo di Claude Bernard (1813-1878), che nel 1863 nel libro De la greffe animale dimostra che gli autotrapianti (isotrapianti) attecchiscono sempre, mentre gli omotrapianti (allotrapianti) e gli eterotrapianti (xenotrapianti) hanno un indice di successo inversamente proporzionale alla complessità degli organismi sui quali vengono sperimentati, risultando di fatto impossibili nei mammiferi.

Agli inizi del Novecento, da un lato l’evoluzione della chirurgia e, dall’altro, la messa a punto da parte del medico francese Alexis Carrel (1873-1944) della tecnica dell’anastomosi vascolare, cioè la sutura tra loro dei vasi sanguigni di diverse parti anatomiche, rilanciano i tentativi – sperimentali – di trapianto. Anche il grave problema del rigetto, apparentemente insuperabile, inizia a trovare spiegazioni immunologiche che lasciano intravedere possibili strategie per evitarlo.

A partire dal 1944 lo zoologo inglese Peter Medawar (1915-1987) inizia a studiare sistematicamente la fenomenologia del rigetto e nel 1953 è in grado di annunciare, insieme a Rupert Everett Billingham (1921-2002) e Leslie Brent (n. 1925), che il rigetto di un trapianto è dovuto a una reazione immunitaria e che è possibile indurre una tolleranza immunitaria specifica al trapianto. Le basi genetiche dell’istocompatibilità nell’uomo, scoperte dall’immunologo francese Jean Dausset (1916-2009) verso la fine degli anni Cinquanta, consentono di realizzare, nella prima metà degli anni Sessanta, la tipizzazione immunogenetica (il confronto tra i profili genetici rappresentati a livello degli antigeni di istocompatibilità), che diventa la tecnica di routine per stabilire il grado di compatibilità tra donatore e ricevente in vista del trapianto.

Nel 1951 vengono effettuati in Francia da René Küss (1913-2006) i primi trapianti di rene da cadavere, mentre l’anno successivo Jean Hamburger (1909-1992) annuncia il primo trapianto di rene da donatore vivente volontario. L’era dei trapianti d’organo inizia però realmente solo a partire dai primi anni Sessanta, grazie all’immunosoppressione ottenuta dall’uso dei primi ‘farmaci antirigetto’, come l’aziatioprina e la 6-mercaptopurina, associati a steroidi. Nel 1963 lo statunitense Thomas Earl Starzl (n. 1926) esegue i primi trapianti di fegato (anche se il primo vero duraturo successo avverrà solo nel 1967). Nel 1967 il chirurgo sudafricano Christiaan Barnard (1922-2001) realizza il primo trapianto di cuore. Nello stesso anno viene trapiantato anche il primo pancreas.

Un altro portentoso farmaco antirigetto, la ciclosporina, scoperta nel 1972 e introdotta nella medicina dei trapianti nel 1983, permette la messa a punto di protocolli terapeutici sempre più efficaci, consentendo con successo il trapianto di molti altri organi: polmone nel 1977, visceri addominali multipli nel 1989, intestino nel 1992, mano nel 1998, viso nel 2010.

Quella dei trapianti è una delle diverse tecnopratiche terapeutiche realizzate grazie alla rivoluzione tecnologica che, a partire dal secondo dopoguerra, ha interessato massivamente anche la chirurgia, favorendo l’utilizzo sempre più diffuso dell’endoscopia operativa, del microscopio operatorio, della chirurgia mini-invasiva, della radiologia interventistica e della chirurgia robotica.

La tecnologia sanitaria interviene anche nello spazio fisico in cui il chirurgo lavora, trasformando la sala operatoria in teatro chirurgico, un ambiente in cui, oltre al tradizionale letto operatorio, sono poste macchine altamente tecnologiche in grado di coadiuvare e integrare l’opera del chirurgo: apparati diagnostici radiologici computerizzati (TAC), apparecchiature ottiche ed elettroniche (monitor visivi amplificanti il campo operatorio), macchine meccaniche di precisione (robot operatori), strumenti informatici in grado di simulare le procedure operatorie da eseguire (intervento virtuale).

Una biotecnoterapia alternativa alla medicina sostitutiva dei trapianti è quella attuata dalla medicina rigenerativa, con l’impiego delle cellule staminali, che rappresenta oggi la frontiera più avanzata e promettente in ambito sanitario. Essa costituisce una nuova filosofia di approccio alla malattia: utilizzare la rigenerazione biologica realizzata dal corpo del paziente del tessuto o dell’organo malato anziché la sua sostituzione con un trapianto.

La prospettiva di utilizzare le cellule staminali presenti, con diversi assetti fisiologici, sia nell’embrione, sia nel feto, sia nell’organismo adulto, a fini terapeutici rigenerativi e riparativi per gravi condizioni traumatiche o malattie degenerative (come il morbo di Parkinson, l’infarto cardiaco o il diabete), si fa strada negli ultimi anni del Novecento.

Al di là dei problemi etici legati all’uso di cellule staminali embrionali (superabile ricorrendo a cellule adulte fatte regredire alla fase di totipotenza) e alla soluzione di numerose questioni tecniche (dalla transdifferenziazione, cioè la capacità d’indirizzare in coltura le staminali verso il fenotipo citologico che si vuole ottenere, al controllo del potenziale tumorigeno), questa tecnica permetterebbe una terapia biologica mirata efficiente ed efficace di molte condizioni patologiche. In particolare, si potrebbe superare lo stallo oncologico in cui si trova oggi la terapia delle malattie neoplastiche e affrontare con maggiore determinazione l’impotenza comportamentale di fronte alle malattie neurodegenerative.

Potenzialità della biomedicina e nuovi compiti delle scienze della vita

La grande importanza che sempre più la biotecnoscienza sta assumendo nel nostro mondo segna in modo marcato la nostra esistenza. Nell’attuale fusione di riduzionismo biomedico e tecno-ottimismo, le distinzioni storiche fra scienza e tecnologia, scienza pura e applicata, ricerca accademica, industriale e militare appaiono assai labili. Già s’è detto come in questa condizione i confini disciplinari appaiono sfumati e i ricercatori passano facilmente dal ruolo di scienziati a quello di imprenditori, dando luogo ad ambiguità intellettuali ed economiche. Il compito delle scienze della vita appare perciò fondamentale nel definire i limiti culturali entro i quali conoscenza teorica e pratica quotidiana devono tentare di ricomporre l’unità esistenziale dell’uomo.

In questo ambito la tecnomedicina manifesta una tendenza, destinata a rafforzarsi sempre più, per cui il malato confida non tanto nel medico curante, quanto nelle cure, intese queste ultime come esami diagnostici del danno biologico subito e come interventi terapeutici (farmacologici, chirurgici, riabilitativi) riparatori di quel danno. La grande importanza attribuita alla diagnosi precoce dalla medicina preventiva, fondata sulla percezione altrettanto precoce dei sintomi, e ancor di più oggi dalla medicina predittiva, fondata sulla convinzione di poter conoscere, in relazione alla conformazione genetica di un soggetto, la sua suscettibilità individuale alle malattie in modo da operare perché non si manifestino, o per procrastinarne l’insorgenza, crea allarme e un clima eccessivo di attese.

Molte di queste attese non vengono risolte da una tecnologia medica di pur alto livello. Esse potrebbero invece essere esaudite all’interno di un rapporto relazionale interumano tra medico e paziente, che invece si sta impoverendo e perdendo, mettendo per ciò stesso sovente in crisi e in discussione l’accettazione e l’impiego da parte del malato dell’attuale enorme potenziale terapeutico della biomedicina.

Bibliografia

C. Singer, E.A. Underwood, A short history of medicine, Oxford 19622.

D. Bovet, Une chimie qui guérit. Histoire de la découverte des sulfamides, Paris 1989 (trad. it. Vittoria sui microbi. Storia di una scoperta, Torino 1991).

V.A. Sironi, Le officine della salute. Storia del farmaco e della sua industria in Italia dall’unità al mercato unico europeo (1861-1992), Roma-Bari 1992.

G. Cosmacini, V.A. Sironi, L’avvento della tecnologia in medicina, in Storia delle scienze, 5° vol., Conoscenze scientifiche e trasferimento tecnologico, a cura di V. Marchis, Milano 1995, pp. 362-89.

G. Cosmacini, L’arte lunga. Storia della medicina dall’antichità a oggi, Roma-Bari 1997.

G. Corbellini, Le grammatiche del vivente. Storia della biologia e della medicina molecolare, Roma-Bari 1999.

J. Burbaum, G.M. Tobal, Proteomics in drug discovery, «Current opinion in chemical biology», 2002, 6, pp. 427-33.

K. Lindpaintner, The impact of pharmacogenetics and pharmacogenomics on drug discovery, «Nature reviews drug discovery», 2002, 1, pp. 463-69.

G. Cosmacini, La vita nelle mani. Storia della chirurgia, Roma-Bari 2003.

L.J. Gershell, J.H. Atkins, A brief history of novel drug discovery technologies, «Nature reviews drug discovery», 2003, 2, pp. 321-27.

R.A. Freitas Jr, Current status of nanomedicine and medical nanorobotics, «Journal of computazional and theoretical nanoscience», 2005, 2, pp. 1-25.

H. Rose, S. Rose, Genes, cells and brains. The Promethean promises of the new biology, London 2012 (trad. it. Geni, cellule e cervelli. Speranze e delusioni della nuova biologia, Torino 2013).

V.A. Sironi, Breve storia della farmacologia, in Farmacologia generale e molecolare, a cura di F. Clementi, G. Fumagalli, Torino 20124, pp. 9-22.

A.M.K. Thomas, A.K. Banerjee, The history of radiology, Oxford 2013.