Biologia dei sistemi e tecnologia omica

Livello di base

Negli ultimi decenni il rapido progresso della biologia molecolare e i risultati in questo settore scientifico sono direttamente correlati ai progressi delle scienze informatiche e allo sviluppo di nuovi strumenti software.

Sommario

 

Biologia dei sistemi e tecnologie Omics: il quadro generale

Negli ultimi decenni il rapido progresso della biologia molecolare e i risultati in questo settore scientifico sono direttamente correlati ai progressi delle scienze informatiche e allo sviluppo di nuovi strumenti software. L’applicazione di diverse tecnologie legate all’omica (genomica, epigenomica, trascritomica, proteomica, metabolomica, ecc.) porta all’accumulo di dati biologici versatili e la loro interpretazione combinata apre nuove possibilità per gli scienziati di passare dallo studio di molecole biologiche isolate a un’ampia analisi di grandi serie di molecole biologiche. Le scienze biologiche sono diventate le scienze dei big-data che sono sempre più importanti per risolvere i problemi riguardanti la salute umana e l’ambiente. Le sfide dei big-data non sono solo le loro dimensioni, ma anche la loro crescente complessità.

Biologia dei sistemi della cellula: dai dati degli esperimenti a omica singola a quelli multi-omici

La biologia dei sistemi è emersa come un nuovo campo di studio interdisciplinare che ha attirato un’enorme attenzione negli ultimi anni. Sebbene il termine “Biologia dei sistemi” sia stato usato in vari modi, è generalmente inteso per descrivere la ricerca che combina la biologia con discipline apparentemente disparate come fisica, biochimica, ingegneria, biostatistica, matematica, informatica, bioinformatica e altre. Lo scopo principale di questo campo interdisciplinare è quello di ottenere una visione altamente parallela dei sistemi biologici a livello molecolare e capire come funzionano nel loro insieme invece come somma di parti. Chiarendo i meccanismi e i processi molecolari a diversi livelli di sistema nell’organismo o in una cellula, si potrebbe prevedere come questi sistemi cambino nel tempo e in condizioni variabili. La grande quantità di informazioni ottenute sulle basi molecolari della fisiologia e dell’organizzazione cellulare potrebbe fornire soluzioni riguardanti malattie, tossicità, terapie, scoperta di farmaci, ecc.

La biologia dei sistemi è stata lanciata come disciplina distinta negli anni ’50 con il lavoro dei teorici dei sistemi Mihajlo Mesarovic e Ludwig von Bertalanffy sulla teoria generale dei sistemi. Il concetto principale di questa teoria è che la dinamica di ogni sistema è il risultato delle relazioni tra le sue unità separate che ne determinano la funzione. A quel tempo, studiando a fondo enzimi e cinetica delle reazioni enzimatiche, biochimici, seguaci della teoria dei sistemi, cercarono di esaminare il comportamento delle vie biochimiche come una rete invece che come somma delle sue parti. Allontanandosi dall’area biochimica, Reinhart Heinrich sviluppò approcci teorici per la descrizione e l’indagine quantitativa delle vie di segnalazione e sviluppò una teoria del controllo metabolico. È diventata evidente la necessità di un approccio integrato per uno studio e una comprensione più dettagliati dei complessi processi biologici.

La biologia dei sistemi dipende fortemente dalle informazioni biologiche ottenute dalla biologia molecolare e / o dai singoli approcci omici, ma spesso sono in gran parte basati su ipotesi o riduzionisti. Nell’approccio riduzionista vengono studiate le proprietà funzionali dei singoli componenti molecolari nei sistemi biologici complessi. Dopo il completamento del Progetto Genoma Umano, la scienza moderna si è sviluppata al di là della visione incentrata sul gene della precedente era genomica. Questo periodo designato come era postgenomica è caratterizzato da importanti cambiamenti nella conduzione della ricerca scientifica e nell’interpretazione dei risultati e secondo la Bloom questa è la fine del “riduzionismo ingenuo”. Tuttavia, questi metodi classici da soli non possono fornire una comprensione completa degli organismi viventi, ma continueranno ad essere un elemento essenziale di tutte le ricerche biologiche. In questo contesto, la biologia dei sistemi ha causato il cambiamento fondamentale negli approcci tradizionali. Utilizza un nuovo approccio olistico che genera ipotesi, si concentra sullo studio dei sottosistemi, che consente una comprensione più profonda dell’intero processo. La via di utilizzo del galattosio (GAL) del lievito Saccharomyces cerevisiae è un esempio dell’applicazione dell’approccio di biologia dei sistemi per la rilettura e l’interpretazione dei risultati ottenuti dall’approccio riduzionista (un gene/una proteina alla volta). Sulla base dei dati sperimentali ottenuti dalle analisi dei livelli di proteine e RNA, nonché dalle interazioni proteina-proteina e proteina-DNA e dalla loro integrazione in un unico modello, è stata fornita una nuova ipotesi sulla regolazione della via GAL, che è stata sperimentalmente verificata in seguito.

Attraverso l’uso di strumenti computazionali e matematici una grande quantità di dati sperimentali viene raccolta e integrata dalla biologia dei sistemi per rivelare modelli sconosciuti e generazione di ipotesi. Questa è una strategia importante per ottenere nuove intuizioni sui sistemi biologici e anche aiutare nella progettazione sperimentale.

L’approccio sistemico dei sistemi biologici è volto a chiarire le seguenti tre questioni nel contesto della rete molecolare: i) quali sono le singole componenti del sistema; ii) come funzionano separatamente? e iii) come lavorano insieme questi componenti per svolgere un compito? (3). Nel contesto delle reti molecolari, lo scopo fondamentale della biologia dei sistemi può essere riassunto come segue: (i) una comprensione della struttura di tutti i componenti di una cellula / organismo fino a livello molecolare, (ii) la capacità di prevedere lo stato futuro della cellula / organismo in un ambiente normale, iii) la capacità di prevedere le risposte di output per un dato stimolo di input, e iv) la capacità di stimare i cambiamenti nel comportamento del sistema al momento della perturbazione dei componenti o dell’ambiente.

Il termine “sistemi” in biologia dei Sistemi definisce diversi intervalli di complessità che vanno da due macromolecole che interagiscono per svolgere un particolare compito a organismi interi (Fig.1).

Fig. 1. Principali tipi di reti biologiche. A. Interazioni proteina-proteina; B. Rete di regolazione genica; C. Reti metaboliche; D. Diversi tipi di rete nella cellula (9).

Pertanto, la biologia dei sistemi condivide un obiettivo scientifico comune con la disciplina della fisiologia che è dedicata allo studio della funzione integrata dell’intero complesso sistema biologico. Gli organismi sono molto più della somma delle loro parti e la complessità dei processi fisiologici non può essere compresa semplicemente studiando come funzionano i componenti in isolamento. Ad esempio, i geni codificano la struttura primaria delle proteine cellulari che a loro volta svolgono funzioni specifiche a supporto del metabolismo cellulare e della fisiologia e dello sviluppo dell’organismo. Allo stesso tempo, le proteine in ogni cellula non agiscono in isolamento ma in una rete complessa che è importante per specificare i fenotipi. La maggior parte dei processi biologici sono altamente dinamici e spesso coinvolgono più di un tipo di molecole. Allo stesso tempo un fenotipo può essere condizionato da diversi meccanismi molecolari ed epigenetici e un tipo di molecola può essere coinvolto in diversi fenotipi. In realtà, anche nello stesso organismo, una proteina può svolgere ruoli diversi in cellule diverse; o effetti del percorso del segnale possono indurre vari programmi di differenziamento in diverse linee cellulari. Inoltre, negli organismi multicellulari, le singole cellule non hanno un’esistenza indipendente dall’intero organismo, sono legate ontogeneticamente.

Indipendentemente dal loro obiettivo comune, la biologia e la fisiologia dei sistemi utilizzano diversi strumenti e approcci sperimentali, il che porta ad ottenere un diverso insieme di dati sperimentali. La biologia dei Sistemi interdisciplinari è una disciplina moderna in rapida evoluzione a causa del fatto che utilizza una varietà di metodi e strumenti tra cui la genomica funzionale su larga scala e altre tecnologie omiche, la bioinformatica e la modellazione al computer, che non sono sfruttate dai fisiologi. Il ruolo della biologia computazionale nella biologia dei Sistemi è quello di elaborare e analizzare enormi quantità di dati empirici prodotti da diversi livelli di omica che a loro volta portano alla scoperta di conoscenze biologiche e alla generazione di ipotesi di ricerca. L’applicazione di analisi in silico e basate sulla simulazione offre l’opportunità di fare previsioni che sono ulteriormente confermate da saggi sperimentali. Il rapido progresso delle tecnologie dell’informazione, compreso il miglioramento delle basi di dati pubbliche web dell’informazione biologica, sostiene anche lo sviluppo di studi omici e portano rispettivamente al progresso della biologia dei sistemi.

Al fine di studiare in modo completo i processi biologici, è fondamentale capire come gli strati biologici separati (genoma, epigenoma, trascritoma, proteoma, metaboloma e ionoma) si interconnettano tra loro in un sistema cellulare e come avviene il flusso di informazioni biologiche. La combinazione di diverse analisi omiche che utilizzano un approccio multi-omico è necessaria per progettare un quadro preciso degli organismi viventi.  I dati di trascritomica, proteomica e metabolomica possono rispondere alle principali domande biologiche riguardanti l’espressione di trascritti, proteine e metaboliti, indipendentemente, ma un’integrazione sistematica multi-omica può assimilare, annotare e modellare in modo completo questi grandi set di dati.

Diversi rami dell'omica: sfide per combinare le informazioni biologiche

Il trasferimento dell’informazione genetica nei sistemi biologici si realizza dal DNA all’mRNA alla proteina e questo è considerato come il dogma Centrale della biologia molecolare. I tre processi principali in ogni cellula sono la replicazione, la trascrizione e la traduzione. Il loro flusso costante garantisce il mantenimento e la conversione delle informazioni genetiche, codificate nel DNA in prodotti genetici, che sono RNA o proteine, a seconda del gene. La replicazione è un processo di duplicazione del DNA di una cellula ed è la base per l’ereditarietà biologica. Viene effettuata dall’enzima DNA polimerasi che copia una singola molecola di DNA a doppio filamento parentale in due molecole di DNA a doppio filamento figlie. L’enzima RNA polimerasi crea una molecola di RNA dal DNA e tale processo è noto come trascrizione. La molecola di RNA appena sintetizzata è complementare a un tratto gene-codificante del DNA. La traduzione produce proteine dall’mRNA. Il ribosoma genera una catena polipeptifica di amminoacidi usando l’mRNA come modello. La catena polipeptidica si piega fino a diventare una proteina. Nelle cellule eucariotiche, o in quelle cellule che hanno un nucleo, la replicazione e la trascrizione avviene all’interno del nucleo mentre la traduzione avviene al di fuori del nucleo nel citoplasma. Nelle cellule procariotiche, o in quelle cellule che non hanno un nucleo, tutti e tre i processi si verificano nel citoplasma. Il fenotipo degli organismi è determinato da quel paradigma di trasferimento delle informazioni. I biologi hanno studiato queste “omi” per anni sotto forma di genomica, trascritomica e proteomica. I dati di questi approcci sperimentali sono integrati da epigenomica e metabolomica che sono stati recentemente utilizzati per risolvere problemi specifici riguardanti molte funzioni di un organismo. Il rapido sviluppo e il progresso delle tecnologie “omiche” determinano la progressiva espansione del volume di informazioni che possono essere raccolte nei singoli studi. Inoltre, l’attuale elevata produttività di queste tecniche ha aumentato l’accessibilità a queste informazioni in termini di tempo e costi. Molti ricercatori si trovano in una situazione in cui possono raccogliere diversi set di dati omici sugli stessi campioni sperimentali. Al fine di ottenere conclusioni più complete sui processi biologici, questi insiemi di dati devono essere integrati con un approccio multi-omico e analizzati come sistema olistico (Fig. 2).

Fig. 2. Approcci omici integrati della biologia dei Sistemi

Il termine “Omica” derivato da una parola Greca e l’aggiunta del suffisso –oma alle molecole cellulari, come gene, trascritto, proteina, metabolita, dà significato di “intero”, “tutto” o “completo”. I diversi strati della cellula, costituiti da DNA e modifiche (Genoma, Epigenoma), RNA e contenuto proteico (Transcriptome, Proteoma), piccole molecole (Metaboloma, Lipidoma) e composizione elementare (misurata come ‘Ionome’), possono essere analizzati dalle tecnologie omiche. La combinazione di strati omici in un set di dati multi-oma è integrata attraverso una solida biologia dei sistemi che è in grado di rivelare meccanismi e interazioni inter-strato, nonché la funzione dei tessuti delle popolazioni cellulari, degli organi e dell’intero organismo. Gli approcci Omici comprendono un numero maggiore di misurazioni per endpoint e sebbene il numero di parametri misurati per analisi sia aumentato, il numero di repliche viene ridotto. Ciò è dovuto, da un lato, alla super valutazione dei metodi, poiché si ritiene che un maggior numero di misurazioni compenserebbe un piccolo numero di campioni e, dall’altro lato, è dovuto al costo e al tempo degli esperimenti omici.

Le discipline mono-omiche miravano a studiare specifiche questioni biologiche senza richiedere una comprensione preliminare delle basi biologiche coinvolte. A seconda del tipo di biomolecola su cui si concentrano principalmente in uno specifico campione biologico, le tecnologie omiche sono suddivise in: genomica (genoma/gene), metagenomica (genomi recuperati direttamente da campioni ambientali), epigenomica (struttura di supporto del genoma, inclusi leganti proteici e RNA, strutture alternative del DNA e modifiche chimiche sul DNA), trascritomica (mRNA), proteomica (peptidi / proteine), metabolomica (metaboliti), lipidomica (lipidi) glicomica (carboidrati e zuccheri), ionomica (ioni).

Sebbene nessuna delle attuali tecnologie omiche sia perfetta, alcune di esse riescono a fornire un quadro più completo dello strato biologico che mirano a studiare rispetto ad altre. Questo fatto è dovuto non solo alle differenze nello stato degli sviluppi tecnologici, ma piuttosto alle differenze nella complessità chimica e fisica di ogni livello biologico.

Genomica

La genomica è lo studio sistematico di tutti i geni di un organismo (il genoma), comprese le interazioni di tali geni tra loro e con l’ambiente dell’organismo. Il genoma è lo strato biologico basale nella cellula e rappresenta il DNA totale di una cellula o di un organismo. L’acido deossiribonucleico (DNA) è il composto chimico che contiene tutte le informazioni genetiche necessarie per sviluppare e dirigere le attività di quasi tutti gli organismi viventi. Le molecole di DNA sono fatte di due filamenti intrecciati, spesso indicati come una doppia elica. Ogni filamento di DNA è costituito da quattro basi nucleotidiche – adenina (A), timina (T), guanina (G) e citosina (C) che si accoppiano specificamente su filamenti opposti: A si accoppia sempre con una T; una C si abbina sempre a una G. Una sequenza di tre nucleotidi adiacenti (codone) codifica per uno specifico amminoacido durante la sintesi o la traduzione delle proteine. L’ordine dei nucleotidi lungo le molecole di DNA determina il codice genetico. Il codice genetico è universale perché è lo stesso tra tutti gli organismi ed è anche degenerato perché 64 codoni codificano solo 22 amminoacidi. Con il suo linguaggio di quattro lettere, il DNA contiene le informazioni necessarie per costruire un intero organismo. Un gene rappresenta l’unità di DNA che porta codici per la creazione di una proteina specifica o di un insieme di proteine. Sulla base della complementarità intrinseca delle basi nucleotidiche nel DNA, è diventato possibile sequenziare rapidamente un numero enorme di genomi a un costo relativamente basso. Dai genomi efficientemente sequenziati si possono fare previsioni sulle sequenze di RNA e proteine, che sono combinate negli approcci multi-omici. La forma digitale delle sequenze di DNA come una sorta di informazione biologica omica potrebbe essere facilmente memorizzata in database biologici e condivisa tra scienziati di tutto il mondo. Il sequenziamento del primo intero genoma del batterio Haemophilus influenza nel 1995 ha fatto una rivoluzione nella biologia molecolare. È stato prodotto il grande volume di dati delle sequenze che non era possibile interpretare completamente. Decifrare le informazioni genetiche rilevanti dal materiale genetico di base era quasi un compito impossibile. Per superare questo problema, erano necessarie informazioni biologiche più dettagliate. Erano necessarie informazioni sulla trascrizione del materiale genetico e sulla successiva produzione di proteine.

Una direzione di ricerca essenziale nel campo della biologia dei sistemi è la genomica funzionale. Questa disciplina sviluppa e sfrutta metodologie su larga scala e ad alta produttività con l’obiettivo di definire e analizzare la funzione genica a livello globale. È molto importante sviluppare una comprensione a livello di sistema di un processo biologico per identificare i geni e le proteine che codificano che lavorano insieme per dare origine a quel processo. La genomica funzionale è un campo scientifico integrativo che combina più set di dati su larga scala nel tentativo di generare intuizioni sulla funzione genica. All’inizio, i geni sono stati analizzati individualmente, ma il progresso delle tecnologie negli ultimi anni rende possibile l’analisi contemporanea dell’espressione di migliaia di geni. Questa analisi su larga scala della funzione genica è chiamata tecnologia dei microarray di DNA (Fig. 3).

Fig. 3. Schema di analisi del Microarray del DNA

I microarray di DNA misurano le differenze nella sequenza del DNA tra gli individui e questa tecnologia può fornire informazioni per la funzione di geni non caratterizzati e può anche rivelare gruppi di geni interagenti che danno origine a un processo biologico di interesse. Le analisi microarray possono anche fornire approfondimenti sui meccanismi di regolazione genica, evoluzione ed eziologia della malattia. Ad esempio, l’analisi dei dati dei microarray potrebbe rivelare anomalie come inserzioni e delezioni cromosomiche o numeri cromosomici anomali in un processo chiamato ibridazione genomica comparativa. Le variazioni più comuni nelle sequenze di DNA tra le persone sono i polimorfismi a singolo nucleotide (SNP), in cui un nucleotide viene sostituito da un altro; questo può avere un significato funzionale se il cambiamento si traduce in un codone per un amminoacido diverso. Sono di particolare interesse se legati a malattie con una determinazione genetica. Il profilo del polimorfismo mono nucleotidico ha anche un ruolo nella farmacogenomica nell’esplorare le risposte dei singoli pazienti ai farmaci.

Epigenomica

Le modifiche epigenetiche come la metilazione del DNA, le modifiche istoniche, l’analisi 2D e 3D della struttura della cromatina e l’RNA non codificante sono studiate con i metodi dell’epigenomica. Questa direzione -omica si concentra sull’analisi dei cambiamenti epigenetici complessivi che fornisce informazioni importanti sui meccanismi e la funzione della regolazione genica in molti geni in una cellula o organismo. Gli scienziati hanno capito che il fenotipo dell’individuo non è controllato solo dal genoma, ma anche dai cambiamenti nella regolazione delle attività geniche. Esperimenti genetici nell’uomo e negli animali hanno dimostrato che, oltre alla sequenza del DNA, i segni epigenetici possono essere trasmessi da genitore a prole attraverso i gameti e influenzare il fenotipo della prole.

L’epigenomica definisce le modifiche nella regolazione delle attività geniche che agiscono senza, o indipendentemente da, cambiamenti nelle sequenze geniche. Alcune definizioni limitano l’epigenetica/epigenomica alle modifiche del fenotipo senza cambiamenti della sequenza del DNA che vengono trasmessi alle generazioni successive. Le modifiche epigenetiche sono modifiche chimiche, che non sono codificate dal genoma e coordinano come e quando i geni sono espressi. L’epigenomica esplora modifiche ereditabili e reversibili del DNA e della cromatina che non influenzano le sequenze nucleotidiche primarie. Mentre il termine epigenomica descriverebbe l’analisi dei cambiamenti epigenetici in molti geni in una cellula o in un intero organismo, l’epigenetica si concentra su processi che regolano come e quando specifici geni vengono accesi e spenti. Diversi fattori sono noti per influenzare la regolazione epigenetica: 1) Nutrizione (fattori dietetici); 2) Fattori ambientali; 3) Esposizione alle radiazioni; 4) Agenti infettivi; 5) Fattori immunologici; 6) Fattori genetici; 7) Agenti tossici; 8) Mutageni.

Metodi di rilevamento versatili vengono applicati per l’analisi delle modifiche epigenetiche nella cellula. La metilazione del DNA viene analizzata mediante saggi di digestione e sequenziamento bisolfito del DNA. Nei saggi di digestione, il DNA genomico è frammentato con endonucleasi sensibili alla metilazione e insensibili alla metilazione. Gli enzimi di restrizione sensibili alla metilazione tagliano solo il DNA non metilato e lasciano i frammenti di DNA metilati non digeriti. Il DNA frammentato può essere analizzato tramite sequenziamento o microarray, e quindi i siti di metilazione vengono mappati. Lo svantaggio di questo metodo è che studia solo le sequenze di DNA vicino agli obiettivi degli enzimi di restrizione scelti, e di solito viene utilizzato per caratterizzare solo i livelli globali di metilazione del DNA invece di identificare il DNA metilato a livello del singolo residuo. La risoluzione viene migliorata utilizzando il metodo del sequenziamento con bisolfito. Questo metodo specifico per il filamento viene utilizzato per convertire la citosina non metilata in uracile, mentre i residui metilati di citosina rimangono inalterati. Il DNA risultante viene amplificato in PCR e può essere analizzato sequenziando le regioni di interesse. L’analisi può essere eseguita anche utilizzando spettrometria di massa MALDI-TOF o microarray. La metilazione del DNA può anche essere studiata attraverso metodi basati sul principio della cromatografia di affinità. Il campione contenente il DNA frammentato viene caricato su una colonna con dominio di legame legante il metile (MBD) di MeCP2, specifico per il DNA metilato. Le frazioni di DNA metilate vengono eluite e analizzate con tecniche a livello genomico come MBDCap-seq/MethylCap-seq. Un altro approccio è l’immunoprecipitazione del DNA metilato (MeDIP), che si basa sul legame specifico degli anticorpi alla citosina metilata (5mC) nel DNA. Questo metodo è utilizzato anche per l’analisi della metilcitosina idrossilata (5hmC). I frammenti purificati vengono analizzati con PCR, sequenziamento o microarray.

Una tecnica ampiamente utilizzata per il rilevamento delle modifiche istoniche è l’immunoprecipitazione della cromatina (ChIP). È usato per identificare le modifiche post-traduzionali locali delle code istoniche e per monitorare i cambiamenti nelle modifiche in risposta a diversi stimoli. Gli anticorpi contro specifiche modifiche istoniche (come la trimetilazione dell’istone H3 lisina K27) sono usati per l’immunoprecipitazione di quella regione di cromatina che hanno queste modifiche. Il ChIP può anche essere applicato per studiare il legame di fattori di trascrizione ed enzimi alla cromatina, utilizzando un anticorpo specifico contro il fattore di interesse. Le regioni di cromatina associate possono essere analizzate con PCR per rilevare loci specifici o sequenziamento estensivo per una visione più globale, così come utilizzando microarray (ChIP-chip), ma nell’ultimo caso la risoluzione dei dati è più debole rispetto al sequenziamento. Nell’ultimo decennio è stato sviluppato il metodo chip di base che porta all’emergere di altri diversi metodi ChIP come μChIP-seq per l’analisi della quantità di campioni a bassa, micro-scala e il moderno sequenziamento in tempo reale a singola molecola (SMRT; “sequenziamento di terza generazione”) di campioni ChIP.

Le modifiche epigenetiche possono anche essere studiate con metodi che identificano le regioni attive della cromatina. Nel metodo DNase-seq, l’enzima DNasi I viene utilizzato per digerire il DNA che non è protetto dalla struttura del nucleosoma, quindi le regioni sensibili alla DNasi sono associate ai geni attivi. Le tecniche di sequenziamento, microarray o Southern Blot possono essere utilizzate per l’analisi e l’interpretazione dei risultati. La cromatina aperta può essere rilevata anche dall’isolamento assistito da formaldeide degli elementi regolatori (FAIRE), che si traducono nell’isolamento di regioni cromatiche aperte e prive di nucleosomi. Il metodo FAIRE si basa sul cross-linking tra formaldeide e DNA, istoni e altre proteine ad esso associate. Il DNA viene sonicato per essere frammentato e dopo ciò viene isolato con estrazione fenolo-cloroformio. Solo il DNA che non è legato dai nucleosomi e dalle proteine associate rimane nella fase acquosa dell’estrazione, con conseguente isolamento delle regioni aperte e attive del genoma. I frammenti isolati possono essere nuovamente analizzati con diversi metodi, come PCR, microarray e sequenziamento. La cromatina può anche essere studiata con la tecnica di cattura della conformazione della cromatina (3C) che identifica le regioni di cromatina che sono fisicamente associate insieme, come i promotori con gli enhancer.  Il 3C è spesso analizzato tramite PCR, ma al giorno d’oggi anche tramite sequenziamento profondo delle interazioni a livello globale (Hi-C).

Gli RNA non codificanti (ncRNA) agiscono come modificatori epigenetici per regolare fortemente l’espressione genica. La loro espressione aberrante principalmente sotto forma di microRNA (miRNA) e di RNA lunghi non codificanti, può modificare l’espressione genica e innescare complicati disturbi immunitari. L’analisi della componente RNA dell’epigenetica spesso viene eseguita su scala genomica utilizzando metodi di sequenziamento di nuova generazione. I cambiamenti in ncRNA e mRNA possono essere caratterizzati con il sequenziamento estensivo. L’espressione degli RNA può essere analizzata anche mediante reazione quantitativa a catena della polimerasi (qPCR). La PCR quantitativa nota anche come PCR in tempo reale è una tecnica di laboratorio in biologia molecolare, con la quale la quantità del prodotto PCR può essere determinata in tempo reale, ed è molto utile per studiare l’espressione genica.

Trascritomica

Quando i geni sono espressi, le informazioni genetiche memorizzate nel DNA vengono trasferite all’RNA (acido ribonucleico). Gli RNA sono importanti macromolecole, composte da catene lineari di nucleotidi (Fig. 4), che sono prodotte dal processo cellulare di trascrizione. Gli RNA svolgono diverse funzioni cellulari e biologiche in quanto servono da templato per la sintesi proteica o svolgono ruoli critici di catalisi e regolazione. Nella trascrizione le informazioni genetiche vengono trasferite dal DNA all’mRNA. Questo processo viene eseguito dall’enzima RNA polimerasi. Nelle cellule esistono diverse classi di RNA (RNA messaggero (mRNA), RNA di trasferimento (tRNA), RNA ribosomiale (rRNA), piccolo RNA nucleare (snRNA), piccolo RNA nucleolare (snoRNA), corti RNA interferenti (siRNA), micro RNA (miRNA), RNA lungo non codificante (lncRNA) e pseudogeni, ma quelli che prendono parte alla sintesi proteica sono l’RNA messaggero (mRNA), l’RNA di trasferimento (tRNA) e l’RNA ribosomiale. L’RNA messaggero (mRNA) è una molecola a singolo filamento che media il trasferimento di informazioni genetiche ai ribosomi in cui le proteine sono sintetizzati. Negli eucarioti, ogni gene è trascritto per produrre un singolo mRNA, mentre nei procarioti, una singola molecola di mRNA può trasportare le informazioni genetiche di diversi geni; cioè diverse regioni codificanti proteine. Esiste una corrispondenza lineare tra la sequenza di base di un gene e la sequenza amminoacidica di un polipeptide. Ogni gruppo di tre nucleotidi consecutivi codifica la posizione di un particolare amminoacido in una molecola proteica e ognuna di queste triplette di basi è chiamata codone. I codoni sono tradotti in sequenze di amminoacidi da ribosomi (che a loro volta consistono in proteine e rRNA), tRNA e proteine di aiuto chiamate fattori di traduzione.

Fig. 4. Struttura a singolo filamento di RNA con le quattro basi nucleotidiche: Adenina, Uracile, Guanina, Citosina.

Il termine “transcrittoma” è ampiamente usato per designare l’insieme completo di tutte le molecole di acido ribonucleico (RNA) in una cellula, tessuto o organismo. Il trascrittoma riflette l’attività molecolare nelle cellule, i geni che si esprimono attivamente in un dato momento. Comprende tutte le forme di molecole di RNA, comprese le molecole che codificano per proteine, che non codificano per proteine, derivate da splicing alternativo, alternativamente poliadenilate, alternativamente iniziate, senso, antisenso e trascrizioni modificate con RNA. Rispettivamente, la trascrittomica studia tutti i tipi di trascrizioni all’interno di una cellula o di un organismo, inclusi mRNA, miRNA e diversi tipi di long non-coding RNA (lncRNA). La trascrittomica copre tutto ciò che riguarda gli RNA come i loro livelli di trascrizione ed espressione, funzioni, luoghi, traffico e degradazione. Include anche le strutture dei trascritti e dei loro geni genitori per quanto riguarda i siti di inizio, le sequenze finali 5′ e 3′, i modelli di splicing e le modifiche posttrascrizionali.

I principali studi di trascritomica sono finalizzati a:

  • caratterizzazione dei diversi stati delle cellule (cioè stadi di sviluppo), tessuti o fasi del ciclo cellulare attraverso i modelli di espressione;
  • studio dei meccanismi molecolari alla base di un fenotipo;
  • identificazione di biomarcatori diversamente espressi tra lo stato mato e lo stato sano;
  • differenziazione delle fasi o dei sottotipi della malattia (ad esempio stadi tumorali);
  • stabilire la relazione causale tra varianti genetiche e modelli di espressione genica per evidenziare l’eziologia delle malattie.

Negli ultimi trent’anni il progresso tecnologico ha rivoluzionato il profilo del trascrittoma e ridefinito ciò che è possibile indagare. L’integrazione dei dati trascritomici con altre omiche sta fornendo una visione sempre più integrata delle complessità cellulari facilitando approcci olistici alla ricerca biomedica.

Le principali tecniche applicate per lo studio del trascritoma sono:

  • Metodi basati su Expressed sequence tag (EST)
  • SAGE
  • Microarray basato sull’ibridazione
  • Real-time PCR
  • Metodi di sequenziamento dell’RNA basati su NGS (RNA-seq),
  • RNA interference
  • Strumenti bioinformatici per l’analisi dei trascrittomi.

La selezione della tecnica dipende dall’efficacia dei costi, dalla sensibilità, dall’elevata produttività e dalla concentrazione minima dell’RNA iniziale. La metodologia prevede l’isolamento dell’RNA, la purificazione, la quantificazione, la costruzione della libreria cDNA e il sequenziamento ad alta produttività.

  • I metodi basati su Expressed sequence tag (EST) – I tag di sequenza espressi (EST) sono sequenze di DNA relativamente brevi (di solito 200-300 nucleotidi) solitamente generate dalle estremità 3′ dei cloni di cDNA da cui i primer PCR possono essere derivati e utilizzati per rilevare la presenza della specifica sequenza codificante nel DNA genomico. Il sequenziamento degli EST fornisce una panoramica sul livello di espressione del gene. Poiché sempre più dati EST sono diventati disponibili al pubblico, l’uso degli EST si è esteso ad altre aree, come la scoperta di marcatori genetici in silico, la scoperta di geni in silico, la costruzione di modelli genetici, la previsione dello splicing alternativo, l’annotazione del genoma, il profilo di espressione e la genomica comparativa. Rispetto al sequenziamento dell’intero genoma, la tecnologia EST è più semplice e meno costosa, soprattutto nel caso di genomi di grandi dimensioni. Esistono database EST come dbEST (NCBI EST) (https://www.ncbi.nlm.nih.gov/genbank/dbest/) che contengono dati di sequenza e altre informazioni sulle sequenze cDNA “single-pass”, o ” Expressed Sequence Tags “, da un certo numero di organismi e quindi fungono da riferimento per il profilo di espressione di un organismo.
  • L’analisi seriale dell’espressione genica (SAGE) è una tecnica trascritomica utilizzata dagli scienziati per produrre un’istantanea della popolazione di RNA messaggero in un campione di interesse sotto forma di piccoli tag che corrispondono a frammenti di tali trascrizioni. Questa tecnica è vantaggiosa rispetto a EST perché vengono sequenziati solo brevi “tag” di circa 15 basi. I brevi frammenti generati vengono quindi uniti e sequenziati. Un pool di cDNA può essere sottoposto a NGS ad alta produttività noto come RNA-seq per la quantificazione, la scoperta di nuovi EST e il profilo degli RNA.
  • Chip di DNA, chip genetico, biochip o microarray è una raccolta di spot di DNA, cDNA, oligonucleotidi attaccati a un supporto solido come vetro o chip di silicio. Attraverso questo metodo basato sull’ibridazione i livelli di espressione di migliaia di geni vengono monitorati contemporaneamente. La principale restrizione di questa tecnologia è che l’informazione sulla sequenza genomica è un prerequisito e anche un background più elevato inerente alla tecnica di ibridazione.
  • La PCR quantitativa in tempo reale (qRT-PCR) è un tipo di PCR per una quantificazione affidabile di mRNA poco abbondanti o di trascrizioni a basso numero di copie. I principali vantaggi di questa tecnica sono la sua elevata sensibilità, una migliore riproducibilità e un ampio intervallo dinamico di quantificazione. Facilita le espressioni geniche e gli studi di regolazione anche in una singola cellula in base alla sua capacità di amplificazione esponenziale. La disponibilità di diversi tipi di sistema di monitoraggio della fluorescenza collegato alla PCR ha portato alla sua popolarità per gli studi sull’espressione genica. I problemi dell’amplificazione aspecifica, della formazione di dimeri di primer sono alcuni dei limiti del qRT-PCR.
  • Il sequenziamento dell’RNA è una delle tecnologie avanzate ad alta produttività per la trascritomica. RNA-seq, noto anche come sequenziamento shotgun dell’intero trascrittoma del, utilizza strumenti NGS. I vantaggi dell’RNA-seq sono che non si basa sulla disponibilità della sequenza genomica, non ha limiti di quantificazione superiori, mostra un’elevata riproducibilità e possiede un ampio intervallo dinamico di rilevamento.

Il progresso della trascrittomica ha portato ad una serie di scoperte biologiche. Questa tecnologia omica ha posto le basi dei primi veri studi multiomici, basati sui confronti tra sequenza di DNA ed espressione di mRNA. Al giorno d’oggi, l’analisi trascrizionale rimane più frequentemente utilizzata dalla maggior parte dei biologi poiché i dati ottenuti sono ancora più facilmente analizzabili e condivisi rispetto agli “omici a valle” come la proteomica e la metabolomica. Più recentemente, la trascritomica sta godendo di una seconda rinascita, in quanto in molti casi è applicabile alle singole cellule.

Proteomica

Le proteine controllano la struttura e l’attività cellulare, forniscono i meccanismi per la segnalazione tra cellule e tessuti e catalizzano reazioni chimiche che supportano il metabolismo. La struttura proteica detta la funzione (o disfunzione). Le proteine possono essere la causa principale di malattie (come l’Alzheimer o il morbo di Huntington) e possono essere utilizzate per curarlo (ad esempio, gli anticorpi sono usati come terapie contro le infezioni virali e batteriche). L’insieme di tutte le proteine espresse in un sistema biologico in condizioni specifiche e definite è noto come proteoma. La parola “proteoma” è una combinazione di proteine e genoma ed è stata coniata da Mark Wilkins nel 1994.

L’obiettivo principale della proteomica è un’analisi sperimentale su larga scala della struttura e della funzione di questo intero insieme di proteine prodotte da un organismo vivente. Il termine “proteomica” è apparso per la prima volta nel 1997 e si riferisce a una tecnologia di base negli approcci di biologia dei sistemi che studia il proteoma. La funzione delle cellule dipende dalle proteine presenti nello spazio intra- e intercellulare e dalla loro abbondanza. La sintesi delle proteine nella cellula si basa sui precursori dell’mRNA, ma è impossibile prevedere l’abbondanza di proteine specifiche solo sulla base dell’analisi dell’espressione genica. La ragione di ciò è che le proteine native subiscono modifiche post-traduzionali (PTM) o alterazioni in risposta ai cambiamenti ambientali. Il proteoma è un riflesso dinamico sia dei geni che dell’ambiente ed è una fonte preziosa per la scoperta di biomarcatori perché è più probabile che le proteine siano ubiquitariamente colpite nella malattia e nella risposta alle malattie. La caratterizzazione completa di tutte le proteine è stato l’obiettivo della proteomica sin dal suo inizio quasi 25 anni fa. Tende a fare di più che identificare semplicemente le proteine potenzialmente presenti in un campione, ma anche a valutare l’abbondanza proteica, la localizzazione, le modifiche post-traduzionali, le isoforme e le interazioni molecolari. La proteomica mira a studiare il flusso di informazioni biologiche attraverso percorsi e reti proteiche, con l’obiettivo finale di comprendere la rilevanza funzionale delle proteine. Ciò richiede lo sviluppo di tecnologie in grado di rilevare una vasta gamma di proteine in campioni di origini diverse. Varie tecnologie sono utilizzate nella proteomica e il più delle volte vengono applicate in combinazione, ad esempio elettroforesi in gel mono o bidimensionale con spettrometria di massa (MS) o cromatografia liquida e SM.

Le tecniche convenzionali per l’isolamento e la purificazione delle proteine sono basate sulla cromatografia come la cromatografia a scambio ionico (IEC), l’idrossiapatite, la cromatografia ad esclusione dimensionale (SEC) e la cromatografia per affinità. Per l’analisi di proteine selettive, è possibile utilizzare il saggio immunoassorbimento legato all’enzima (ELISA) e western blotting. Queste tecniche possono essere applicate per l’analisi delle singole proteine, ma non possono definire il livello di espressione proteica. Per la separazione di campioni proteici complessi vengono utilizzate tecniche di elettroforesi del gel di sodio dodecil solfato -poliacrilammide (SDS-PAGE), elettroforesi su gel bidimensionale (2-DE) ed elettroforesi su gel differenziale bidimensionale (2D-DIGE).

  • La spettrometria di massa (MS) consente l’analisi dei proteomi e di solito è il metodo preferito per identificare le proteine presenti nei sistemi biologici. Le tre principali applicazioni della MS alla proteomica sono: catalogazione dell’espressione proteica, definizione delle interazioni proteiche e identificazione dei siti di modifica delle proteine. La spettrometria di massa misura il rapporto massa-carica (m/z) degli ioni in fase gassosa. Gli spettrometri di massa sono costituiti da una sorgente di ionica che converte le molecole di analita in ioni in fase gassosa, un analizzatore di massa che separa gli analiti ionizzati in base al rapporto m/z, e un rivelatore che registra il numero di ioni ad ogni valore m/z. Lo sviluppo della ionizzazione elettrospray (ESI) e del desorbimento/ionizzazione laser assistito da matrice (MALDI), le due tecniche di ionizzazione morbida in grado di ionizzare peptidi o proteine, ha rivoluzionato l’analisi proteica utilizzando la MS. L’analizzatore di massa è fondamentale per la tecnologia MS. Per la ricerca proteomica, quattro tipi di analizzatori di massa sono comunemente usati: quadrupolo (Q), trappola ionica (trappola ionica quadrupolo, QIT; trappola ionica lineare, LIT o LTQ), analizzatore di massa del tempo di volo (TOF) e analizzatore di massa di risonanza ciclotronica ionica a trasformata di Fourier (FTICR). Variano nei loro principi fisici e nelle loro prestazioni analitiche. Gli strumenti “ibridi” sono stati progettati per combinare le capacità di diversi analizzatori di massa e includono Q-Q-Q, Q-Q-LIT, Q-TOF, TOF-TOF e LTQ-FTICR.
  • La spettrometria di massa tandem è una procedura sperimentale aggiuntiva nota anche come MS/MS o MS2. Questa è una tecnica chiave per il sequenziamento di proteine o peptidi e l’analisi PTM in cui due o più analizzatori di massa sono accoppiati. Le molecole di un dato campione sono ionizzate e il primo spettrometro (designato MS1) separa questi ioni in base a loro rapporto massa-carica (spesso dato come m/z o m/Q). Gli ioni di un particolare rapporto m/z proveniente da MS1 vengono selezionati e quindi fatti dividere in ioni di frammento più piccoli, ad esempio con dissociazione indotta dalla collisione (CID), dissociazione di cattura elettronica (ECD), dissociazione a trasferimento di elettroni (ETD), reazione ionico-molecola o dissociazione fotografica. Questi frammenti vengono quindi introdotti nel secondo spettrometro di massa (MS2), che a sua volta separa i frammenti per il loro rapporto m/z e li rileva. La fase di frammentazione consente di identificare e separare gli ioni che hanno rapporti m/z molto simili negli spettrometri di massa regolari.

La complessità dei sistemi biologici richiede che il proteoma sia separato prima dell’analisi. Sia la cromatografia su gel che le separazioni a base di cromatografia liquida si sono dimostrate utili a questo proposito. Tipicamente, dopo queste estese separazioni, le proteine sono caratterizzate dall’analisi MS di proteine intatte (top-down) o peptidi proteici digeriti enzimaticamente (bottom-up). Le identificazioni proteiche vengono effettuate confrontando masse misurate di proteine intatte (top-down) o peptidi proteici digeriti (bottom-up) con le masse calcolate ottenute dai dati del genoma.

  • Isobaric Taq Labelling (ITL) è un metodo comunemente usato per la quantificazione delle proteine. In proteomica la quantificazione dell’abbondanza proteica è un obiettivo importante. I livelli di espressione proteica rappresentano l’equilibrio tra la traduzione e la degradazione delle proteine nelle cellule. Si presume quindi che l’abbondanza di una proteina specifica sia correlata al suo ruolo nella funzione cellulare. ITL offre l’opportunità di identificare e quantificare simultaneamente le proteine da più campioni in un’unica analisi. Per misurare la quantità di proteine in un dato campione, i peptidi sono etichettati con tag chimici che hanno la stessa struttura e massa nominale, ma variano nella distribuzione degli isotopi pesanti nella loro struttura. Questi tag, comunemente indicati come tag di massa tandem, sono progettati in modo che l’etichetta di massa sia scissa in una specifica regione del linker su dissociazione indotta da collisione ad alta energia (HCD) durante la spettrometria di massa tandem che produce ioni reporter di diverse masse. La quantificazione delle proteine si ottiene confrontando le intensità degli ioni reporter negli spettri MS/MS. Altre tecniche quantitative sono l’etichettatura ICAT e l’Etichettatura Isotopica Stabile con Aminoacidi nella Coltura Cellulare (SILAC). L’ICAT ha anche ampliato la gamma di proteine che possono essere analizzate e consente l’accurata quantificazione e identificazione della sequenza delle proteine da miscele complesse. SILAC è un approccio basato sulla MS per la proteomica quantitativa che dipende dall’etichettatura metabolica dell’intero proteoma cellulare. I proteomi di diverse cellule coltivate in coltura cellulare sono etichettati con forma “leggera” o “pesante” di amminoacidi e differenziati attraverso la MS.
  • La cristallografia a raggi X e la spettroscopia a risonanza magnetica nucleare (NMR) sono due importanti tecniche ad alta produttività che forniscono una struttura tridimensionale (3D) delle proteine che potrebbe essere utile per comprenderne la funzione biologica. Con il supporto di tecnologie ad alta produttività, viene raccolto un enorme volume di dati proteomici. Vengono istituite banche dati bioinformatiche per gestire un’enorme quantità di dati e la loro conservazione. Vari strumenti bioinformatici sono sviluppati per la previsione della struttura 3D, l’analisi del dominio proteico e del motivo, la rapida analisi dell’interazione proteina-proteina e l’analisi dei dati della SM. Gli strumenti di allineamento sono utili per l’allineamento della sequenza e della struttura per scoprire la relazione evolutiva. L’analisi del proteoma fornisce la rappresentazione completa delle informazioni strutturali e funzionali delle cellule, nonché il meccanismo di risposta della cellula contro vari tipi di stress e farmaci utilizzando tecniche di proteomica singola o multipla. Le principali tecniche utilizzate nella ricerca sulla proteomica sono fornite nella Fig. 5.

Fig. 5. Metodi applicati nel campo della proteomica per indagini su larga scala sulle proteine

Metabolomica

Il metaboloma è stato descritto per la prima volta da Oliver e colleghi nel 1998, durante il loro lavoro pionieristico sul metabolismo del lievito, come il complemento completo di piccole molecole in un sistema biologico o fluido. Comprende tutte le piccole molecole come lipidi, amminoacidi, acidi grassi, carboidrati e vitamine che sono noti come metaboliti e sono prodotti a seguito del metabolismo cellulare. Partecipano ai processi metabolici nelle cellule interagendo con altre molecole biologiche seguendo vie metaboliche. Lo stato dei metaboliti nei sistemi biologici è altamente variabile e dipendente dal tempo e si osservano cambiamenti nei livelli dei metaboliti chiave a causa dei fattori genetici, ambientali, nutrizionali e di altro tipo.

La metabolomica (analisi del metaboloma) è la strategia introdotta più di recentemente tra le Omiche che identifica e quantifica sistematicamente i metaboliti presenti in una cellula, tessuto, organo, biofluidi o organismo in un determinato momento. I metodi utilizzati nella metabolomica mirano a misurare composti a basso peso molecolare (metaboliti) con diverse caratteristiche fisiche come polarità del composto, gruppi funzionali e somiglianza strutturale. Sulla base di queste proprietà il metaboloma è diviso in sottoinsiemi di vari metaboliti e per la loro indagine le procedure analitiche ottimizzate per ogni tipo di molecola vengono applicate nella metabolomica.

I metaboliti sono prodotti di reazioni biochimiche che vengono effettuate con la partecipazione di proteine del proteoma (Fig. 6). Le loro concentrazioni dipendono dalle interazioni di altri processi (trascrizione, traduzione, segnalazione cellulare, ecc.), sono stati studiati come reporter per il metabolismo nella PD. Questo a sua volta determina la struttura biologica e la funzione del fenotipo finale dell’organismo. Pertanto, i cambiamenti nell’espressione genica, la funzione delle proteine e l’ambiente influenzano direttamente la concentrazione dei metaboliti in un sistema biologico. Il metaboloma è composto da un numero relativamente piccolo (circa 5000), ma diversi tipi di metaboliti che rendono il metaboloma più complesso fisicamente e chimicamente rispetto al genoma, al trascrittoma e al proteoma. Inoltre, il genoma, il trascritoma e il proteoma sono costituiti da composti che fanno parte del metaboloma. Inoltre, i componenti del metaboloma sono altamente conservati tra gli organismi rispetto al genoma, al trascritoma e al proteoma, motivo per cui si ritiene che il metaboloma sia evolutivamente la parte più antica della cellula.

Fig.6. Approcci di integrazione dei dati in Biologia dei Sistemi

La metabolomica è la strategia più appropriata per la determinazione dei biomarcatori associati alla malattia. Lo studio completo dei metaboliti è uno strumento auspicabile per diagnosticare le malattie, identificare nuovi bersagli terapeutici e consentire trattamenti appropriati. Le analisi di un piccolo numero di metaboliti sono utilizzate nella diagnostica delle malattie per decenni, ad esempio lo sviluppo di strisce per il test del glucosio nel sangue negli anni ’50 per il test del diabete o la quantificazione della fenilalanina nei neonati per lo screening della fenilchetonuria.

Le analisi della metabolomica possono essere raggruppate in due approcci principali: metabolomica mirata e non mirata. Nell’analisi mirata i metaboliti che vengono determinati sono noti e rappresentano percorsi o classi specifiche di molecole. Al contrario, la metabolomica non mirata mira a quantificare e identificare il maggior numero possibile di metaboliti. La metabolomica mirata si riferisce alla quantificazione assoluta (nM o mg/ml) e utilizza uno standard interno e un’analisi semi quantitativa o quantitativa per rilevare composti noti relativi a percorsi specifici. L’approccio non mirato misura tutti i metaboliti presenti in un campione e applica la quantificazione relativa (fold change) e il confronto tra campioni. Il ruolo chiave che la metabolomica svolge nell’integrazione multi-omica e nella modellazione dei sistemi è dovuto al fatto che può essere quantitativa. La modellazione dei sistemi non può essere eseguita senza valori accurati o concentrazioni accurate come input e, allo stesso modo, i modelli di sistema non possono essere facilmente verificati senza concentrazioni accurate e quantitative come output. La metabolomica può fornire sia (dati quantitativi di input che di output), rendendola estremamente preziosa per i modellisti di sistemi.

A causa dell’enorme complessità chimica del metaboloma, non può essere studiato in modo completo da una singola tecnologia. La prima applicazione della metabolomica risale agli anni ’70, quando la gascromatografia-spettrometria di massa fu utilizzata per il profilazione dei metaboliti di campioni clinici di urina. Nicholson e altri negli anni ’80 hanno fatto un profilo di campioni clinici mediante l’applicazione della spettroscopia di risonanza magnetica nucleare. La spettrometria di massa accoppiata sia con la cromatografia liquida che con l’elettroforesi capillare viene applicata anche in metabolomica per completare le tecniche analitiche disponibili. Alcuni degli strumenti analitici utilizzati ai fini della ricerca sulla metabolomica vengono applicati frequentemente e regolarmente, mentre altri hanno ruoli specifici e sono applicati meno frequentemente.

  • Gascromatografia – Spettrometria di massa (GC-MS) – Tra i metodi comunemente usati nella metabolomica c’è GC-MS. Come suggerisce il nome, GC-MS unifica due tecniche per formare un unico metodo per analizzare miscele di sostanze chimiche. La gascromatografia separa i componenti di una miscela e la spettroscopia di massa caratterizza ciascuno dei componenti singolarmente. Combinando le due tecniche, ogni metabolita in un campione può essere valutato sia qualitativamente che quantitativamente. Questa tecnica cromatografica viene utilizzata per studiare metaboliti che hanno un basso punto di ebollizione e che saranno presenti nella fase gassosa all’intervallo di temperatura 50-350 °C.  Questi metaboliti possono avere un basso punto di ebollizione nella loro forma biologicamente nativa o il punto di ebollizione di un metabolita può essere diminuito attraverso un’alterazione chimica, nota anche come derivatizzazione chimica. Il campione contenente metaboliti viene introdotto (iniettato) in una fase mobile, che nella gascromatografia è un gas inerte come l’elio. La fase mobile trasporta la miscela di campioni attraverso quella che viene definita una fase stazionaria. I metaboliti sono separati in base al loro adsorbimento alla fase stazionaria. La fase stazionaria è solitamente contenuta in una colonna di vetro o acciaio inossidabile e rappresenta una sostanza chimica in grado di adsorbire selettivamente i componenti in una miscela di campioni. Cambiando le caratteristiche della fase mobile e della fase stazionaria, è possibile separare diverse miscele di sostanze chimiche. Quando i singoli metaboliti eluiti dalla colonna GC, entrano nel rivelatore di ionizzazione elettronica (mass spec). Lì, sono bombardati da un flusso di elettroni ad alta energia (70 eV) che li fa rompere in frammenti. Questi frammenti possono essere pezzi grandi o piccoli delle molecole originali. Lo spettro di massa ottenuto per un dato composto chimico è fondamentalmente lo stesso ogni volta. Pertanto, lo spettro di massa è un’impronta digitale per la molecola. Questa impronta digitale può essere utilizzata per identificare il composto.
  • Cromatografia liquida-Spettrometria di massa (LC-MS) – La differenza principale tra GC-MS e LC-MS è che nella cromatografia liquida (LC), la fase mobile è un solvente. L’LC separa la miscela di metaboliti che sono in forma liquida, di solito contiene metanolo, acetonitrile e acqua. Utilizzando diversi imballaggi di colonne (diversa fase stazionaria) ad alta efficienza è possibile separare una piccola quantità di miscela complessa. Le colonne usate nell’HPLC sono costituite da imballaggi ottadecilici (C18), ottilici (C8), ciano, amminici, fenilici e generalmente la loro lunghezza è di circa 50mm a 300mm. Le colonne sono utilizzate sulla base della natura dei composti da separare. Questa miscela liquida contenente componenti viene trasferita nella fonte ioniche dello spettrometro di massa in cui avviene il processo di ionizzazione e si formano goccioline che trasportano un eccesso di carica elettrica positiva o negativa. La ionizzazione potrebbe essere ottenuta utilizzando diversi tipi di sorgenti e interfacce di ionizzazione. Dopo la ionizzazione gli ioni vengono trasferiti nell’analizzatore di massa dove la separazione degli ioni viene effettuata in base al loro rapporto massa-carica (m/z).
  • Elettroforesi capillare-Spettrometria di massa (CE-MS) – questa tecnica analitica è anche chiamata elettroforesi a zona capillare-spettrometria di massa. CE-MS comporta la separazione delle specie ioniche in fase liquida attraverso l’applicazione di alte tensioni ed è solitamente accoppiato a una spettrometria di massa elettrospray. L’elettroforesi capillare separa i metaboliti in base alla loro mobilità elettroforetica in una soluzione di elettrolita liquido operante in un campo elettrico. La mobilità elettroforetica dipende dalla carica e dalle dimensioni del metabolita e quindi è possibile la separazione di metaboliti con dimensioni e/o cariche diverse. Tutti i metaboliti devono essere caricati per consentire la mobilità.In GC-MS, LC-MS e CE-MS c’è una separazione dei metaboliti prima del loro rilevamento con spettrometria di massa. Questa peculiarità fornisce la capacità di rilevare metaboliti a basse concentrazioni, comunemente nanomoli/litro (nM/L) o micromoli/litro (μM/L).
  • La spettroscopia a risonanza magnetica nucleare (NMR) è lo strumento analitico più utilizzato nella ricerca sulla metabolomica insieme alla spettrometria di massa. La spettroscopia NMR applica le proprietà magnetiche dei nuclei atomici in un metabolita. Solo alcuni atomi sono attivi NMR e includono 1H, 13Ce 31P; protone (1H). La tecnica funziona posizionando un campione liquido in un piccolo tubo di diametro interno (ad esempio un tubo da 5 mm), o occasionalmente un pezzo di tessuto viene studiato direttamente utilizzando uno speciale portacampioni. Il campione viene pulsato con una gamma di frequenze radio che coprono tutte le energie possibili necessarie per eccitanti il tipo selezionato di nuclei. I nuclei assorbono energia a diverse frequenze radio a seconda del loro ambiente chimico e quindi viene misurato il rilascio di questa energia, formando un decadimento a induzione libera (FID). Questo FID viene convertito da un set di dati del dominio del tempo a un dominio di frequenza – usando una trasformazione di Fourier – e uno spettro NMR è costruito come lo spostamento chimico (effettivamente l’energia di assorbimento) tracciato contro l’intensità di picco.
  • Tecniche di spettroscopia vibrazionale come la spettroscopia trasformata di Fourier-infrarossa (FT-IR) e la spettroscopia Raman vengono applicate per l’analisi dei cambiamenti metabolici nei campioni biologici. Il principio delle tecniche si basa sulla trasmissione della luce ultravioletta o infrarossa attraverso un campione, o talvolta sul riflesso della luce dal campione, prima del suo rilevamento. Gli approcci misurano prevalentemente le vibrazioni e le rotazioni dei legami relativi a diversi gruppi funzionali chimici derivanti dall’interazione del campione con la luce ultravioletta o infrarossa. Queste tecniche di solito mancano della specificità per rilevare ogni metabolita separatamente, ma invece parti specifiche della molecola assorbono la luce ultravioletta o infrarossa a lunghezze d’onda specifiche. Ad esempio, nella FT-IR, le vibrazioni di allungamento C-H caratteristiche delle catene di acidi grassi si osservano tra l’intervallo del numero d’onda 3100 – 2800 cm-1 e la regione compresa tra 1800 e 1500 cm-1 è dominata da bande di ammide I e ammide II che indicano la predominanza delle strutture alfa elica o beta.

Nel campo della metabolomica, molte centinaia di campioni vengono regolarmente analizzati e di solito vengono rilevate almeno diverse centinaia di metaboliti. I dati ottenuti dall’individuazione dei metaboliti in un dato campione biologico sono seguiti da ulteriori analisi con metodi statistici multivariati (chemiometria) per estrarre informazioni biologiche, fisiologiche e clinicamente rilevanti.

Vantaggi e svantaggi delle tecnologie omiche

L’implementazione delle tecnologie omiche e l’integrazione dei dati omici è stata realizzata per un’ampia gamma di aree di ricerca, tra cui scienze degli alimenti e della nutrizione, microbiologia dei sistemi, analisi dei microbiomi, interazioni genotipo-fenotipo, biologia dei sistemi, scoperta di prodotti naturali e biologia delle malattie. Gli approcci basati sull’omica sono stati significativamente migliorati con l’aggiunta di nuovi concetti come l’esposoma/esposomica (ruolo dell’ambiente nelle malattie umane), l’adduttomica (studio dei composti che legano il DNA e causano danni e mutazioni), la volatilomica (studio dei composti organici volatili all’analisi metabolomica / lipidomica), nutrigenomica (studio di come gli alimenti influenzano i nostrigeni), ecc. Tuttavia, le tecnologie omiche sono rivolte principalmente a quattro campi di ricerca omica – genomica, trascritomica, proteomica e metabolomica. I settori di ricerca tradizionali come la genetica, la farmacogenetica e la tossicogenetica che non applicano il concetto di omica forniscono le sequenze statiche di geni e proteine. Al contrario, le tecnologie omiche forniscono contemporaneamente la misurazione del numero di proteine, geni, metaboliti e consentono di ottenere dati su larga scala in breve tempo. L’analisi collettiva dei processi biologici in un sistema biologico fornito da tutte le omiche è un vantaggio dei precedenti metodi tradizionali per una migliore comprensione dell’intero quadro del sistema biologico. Sebbene i dati omici su larga scala diventino più accessibili, l’integrazione di dati multi-omici reali è ancora molto impegnativa. Ciò è dovuto al fatto che molti degli strumenti analitici specifici e dei disegni sperimentali che sono convenzionalmente utilizzati per le singole discipline omiche (genomica, trascrittomica e proteomica) non sono sufficientemente adatti per consentire confronti e integrazioni affidabili tra più discipline omiche.  Ad esempio, i metodi per la raccolta e la conservazione dei campioni e la quantità e il tipo di campioni biologici richiesti negli studi di genomica   spesso non sono compatibili con la metabolomica, la proteomica o la trascritomica. Durante la raccolta dei dati, ci sono molti problemi come l’eterogeneità dei dati, le piccole dimensioni del campione rispetto a molti parametri, la conferma e l’interpretazione dei dati a causa di molte interazioni nel sistema biologico e informazioni carenti su tali sistemi. Quasi in tutti gli esperimenti dell’omica vengono misurate da centinaia a migliaia di molecole bersaglio e variabili (metaboliti, proteine, geni, trascrizioni e SNP). Ciò richiede lo studio di un numero sufficiente di campioni biologici allo scopo di fornire risultati statisticamente affidabili. Inoltre, i dati multi-omici devono essere generati dallo stesso insieme di campioni per consentire il confronto diretto nelle stesse condizioni. Tuttavia, ciò non è sempre possibile a causa delle limitazioni nella biomassa campione, nell’accesso ai campioni o nelle risorse finanziarie. Nei singoli esperimenti di omica, sono spesso necessarie dimensioni di campione più grandi per superare questo problema. Inoltre, i dati multi-omici integrati devono essere analizzati come singoli set di dati prima di essere depositati in database specifici dell’omica al fine di renderli disponibili al pubblico. Questi problemi sottolineano che per gli studi ad alta qualità su larga scala è necessario: 1) pianificare correttamente un esperimento, 2) raccogliere, preparare e memorizzare attentamente campioni   biologici, 3) raccogliere dati multi-omici quantitativi e meta-dati associati con attenzione, 4) utilizzare strumenti adeguati per l’integrazione e l’interpretazione dei dati.

Alcuni dei vantaggi e degli svantaggi delle principali tecnologie   economiche sono riassunti   nella tabella 1.

Tecnologie
Omiche
Vantaggio Svantaggio
Genomica • Analisi del genoma completo
• Studio del polimorfismo genico tra gli individui
• Attraverso l’identificazione dei SNPs viene fornita una preziosa informazione per la diagnosi precoce e il trattamento delle malattie
• Tecniche di laboratorio facili da implementare
• L’analisi del genoma eseguita non è sufficiente per prevedere l’effetto biologico finale del DNA a causa dell’epigenetica, dei cambiamenti post-trascrizionali e post-traslazionali.
• Richiede attrezzature da laboratorio specifiche e costose
Epigenomica Fornire conoscenze sulla regolazione dell’espressione genica • È difficile mettere in relazione i dati epigenetici ottenuti con l’espressione genica, perché la trascrizione può essere influenzata da più processi
• Non tutte le regioni metilate possono essere rilevate con le tecniche applicate.
Trascritomica • Studio dell’insieme completo dell’mRNA (trascrittoma)
• Identificazione dei principali percorsi coinvolti nella risposta e nella tossicità ai farmaci.
• Tecniche di laboratorio facili da implementare
• L’espressione proteica è influenzata da cambiamenti post-traslazionali che portano a dati errati
• Richiede attrezzature costose e specifiche
Proteomica • Studio dell’insieme completo delle proteine in un sistema biologico
• Rilevazione di proteine sconosciute e inaspettate
• Attrezzature costose e procedure dispendiose in termini di tempo non applicabili all’intero proteoma
• Alcune proteine sono difficili da separare e purificare
• L’applicazione della MS e l’interpretazione dei dati richiedono personale appositamente formato
Metabolomica • Fornisce dati adeguati sulle modifiche nei processi metabolici nella cellula
• I metaboliti endogeni sono inferiori a geni, trascrizioni e proteine, quindi meno dati devono essere interpretati
• Individuazione dei biomarcatori delle malattie
• Numero relativamente basso di metaboliti (poche migliaia), come si può misurare
• Attrezzature specifiche e costose
• L’uso di MS e NMR richiede personale appositamente formato

I set di dati Multi-omics possono fornire una maggiore profondità di comprensione in determinati scenari, ma questo non è privo di costi. Questi studi si basano spesso su un gran numero di confronti, sul tipo di dati corretti, sulle analisi statistiche pertinenti, sulle attrezzature specifiche e sul personale qualificato e su notevoli investimenti di tempo e denaro. Quando si progetta un esperimento si deve tener conto di quali tipi di dati omici possono e devono essere integrati per ottenere potenti intuizioni biologiche del sistema studiato. L’applicazione di piattaforme omiche ad alta produttività non è sempre necessaria per rispondere alla domanda di ricerca. I risultati ottenuti dalle tecniche tradizionali, come la reazione quantitativa a catena della polimerasi (qPCR), il saggio immunosorbente legato all’enzima (ELISA), l’immunoistochimica (IHC), a volte possono essere sufficienti a fornire comprensione per i meccanismi biologici. Le tecniche spesso integrano i risultati di uno studio omico più ampio in quanto vengono applicate per verificare che la molecola significativa identificata dai dati omici sia un vero risultato positivo.

Test: LO1- Livello di base

Referenze

  • Altaf-Ul-Amin M, Afendi FM, Kiboi SK, Kanaya S. 2014. Systems Biology in the Context of Big Data and Networks, BioMed Res Int, 1:11.
  • Aslam B, Basit M, Nisar MA, Khurshid M, Rasool MH. 2017. Proteomics: Technologies and Their Applications. J Chromatogr Sci, 55(2).
  • Benavente L, Goldberg A, Myburg H, Chiera J, Zapata M & van Zyl L. 2015. The application of systems biology to biomanufacturing. Pharm. Bioprocess, 3(4):341–355.
  • Bertolaso M, Giuliani A, de Gara L. 2010. Systems Biology Reveals Biology of systems. Wiley Periodicals, Inc., 16 (6).
  • Bloom FE. 2001. What does it all mean to you? J Neurosci, 21:8304–8305.
  • Clish CB. 2015. Metabolomics: an emerging but powerful tool for precision medicine. Cold Spring Harb Mol Case Stud, 1: a000588
  • Coorssen JR. 2013. Proteomics. Brenner’s Encyclopedia of Genetics (Second Edition), p. 508-510.
  • Dos Santos EAF, Santa Cruz EC, Ribeiro HC, Barbosa LD, Zandonadi FS, Sussulini A. 2020. Multi-omics: An Opportunity to Dive into Systems Biology. Braz J Anal Chem, 7(29): 18-44.
  • Haas R, Zelezniak A, Iacovacci J, Kamrad S, Townsend S, Ralser M. 2017. Designing and interpreting ‘multi-omic’ experiments that may change our understanding of biology. Curr Opin Syst Biol, 6:37–45.
  • Han X, Aslanian A, Yates JR. 2008. Mass Spectrometry for Proteomics. Curr Opin Chem Biol, 12(5): 483–490.
  • Horgan RP, Kenny LC. 2011. SAC review ‘Omic’technologies: genomics, transcriptomics, proteomics and metabolomics. Obstet Gynecol, 13:189–195
  • Ideker T, Thorsson V, Ranish JA, ChristmasR, Buhler J, Eng R, Bumgarner JK, Goodlett DR, Aebersold R, Hood L. 2001. Integrated genomic and proteomic analyses of a systematically perturbed metabolic network. Science, 292:929–934.
  • Ishii N, Tomita M. 2009. Multi-Omics Data-Driven Systems Biology of E. coli. In: Lee S.Y. (eds) Systems Biology and Biotechnology of Escherichia coli. Springer, Dordrecht.
  • Kalavacharla V, (Kal), Subramani M, Ayyappan V, et al. 2017. Plant Epigenomics. Handbook of Epigenetics, 245–258.
  • Karahalil B. 2016. Overview of Systems Biology and Omics Technologies. Curr Med Chem, 23:1-10.
  • Karamperis K, Wadge S, Koromina M. 2020. Genetic testing. Applied Genomics and Public Health (Translational and Applied Genomics), Elsevier, 189-207.
  • Laurence P. 2015. The case of the gene: Postgenomics between modernity and postmodernity. EMBO Reports, 16 (7): 777–781.
  • Liang KH. 2013. Transcriptomics. Bioinformatics for Biomedical Science and Clinical Applications. Woodhead Publishing, p. 49-82.
  • Lin, S., Fang, L., Li, C., Liu, G. 2019. Epigenetics and heritable phenotypic variations in livestock. In: Tollefsbol T. (editor). Transgenerational Epigenetics. 2nd edition. Amsterdam, Netherlands: Elsevier, p. 283-313
  • Milward EA, Shahandeh A, Heidari M, Johnstone DM, Daneshi N, Hondermarck H. 2016. Transcriptomics. Encyclopedia of Cell Biology. Elsevier, The Netherland, 4: 160-165.
  • O’Donnell ST, Ross RP, Stanton C. 2020. The Progress of Multi-Omics Technologies: Determining Function in Lactic Acid Bacteria Using a Systems Level Approach. Front. Microbiol, 10: 1-17.
  • Pereira C, Adamec BJ. 2019. Metabolome Analysis. Encyclopedia of Bioinformatics and Computational Biology, 3:463-475
  • Pinu FR, Beale DJ, Paten AM, Kouremenos K, et al. 2019. Systems Biology and Multi-Omics Integration: Viewpoints from the Metabolomics Research Community. Metabolites, 9(76).
  • Potters, G. 2010. Systems Biology of the Cell. Nature Education, 3(9):33.
  • Pratima NA, Gadikar R. 2018. Liquid Chromatography-Mass Spectrometry and Its Applications: A Brief Review. Arc Org Inorg Chem Sci, 1(1): 26-34.
  • Shah TR, Ambikanandan M. 2011. Proteomics. Challenges in Delivery of Therapeutic Genomics and Proteomics. Elsevier, p. 387-427.
  • Strange K. 2005. The end of “naïve reductionism”: rise of systems biology or renaissance of physiology? Am J Physiol Cell Physiol, 288: C968–C974.
  • Turunen TA, … Ylä-Herttuala S. 2018. Epigenomics. Encyclopedia of Cardiovascular Research and Medicine, p. 258-265.
  • Vlaanderen J, Moore LE, Smith MT, et al. 2010. Application of omics technologies in occupational and environmental health research: current status and projections. Occup Environ Med, 67: 136-143.
  • Yadav D, Tanveer A, Malviya N, Yadav S. 2018. Overview and Principles of Bioengineering: The Drivers of Omics Technologies and Bio-Engineering Towards Improving Quality of Life, p.3-23
  • Yang X. 2020. Multitissue Multiomics Systems Biology to Dissect Complex Diseases. Trends Mol Med, 26 (8).
  • A brief guide to genomics. https://www.genome.gov/about-genomics/fact-sheets/A-Brief-Guide-to-Genomics
  • Analytical Techniques applied in Metabolomics. https://www.futurelearn.com/info/courses/metabolomics/0/steps/10710
  • Boundless biology. https://courses.lumenlearning.com/boundless-biology/chapter/the-genetic-code/
  • Altaf-Ul-Amin M, Afendi FM, Kiboi SK, Kanaya S. 2014. Systems Biology in the Context of Big Data and Networks, BioMed Res Int, 1:11.
  • Aslam B, Basit M, Nisar MA, Khurshid M, Rasool MH. 2017. Proteomics: Technologies and Their Applications. J Chromatogr Sci, 55(2).
  • Benavente L, Goldberg A, Myburg H, Chiera J, Zapata M & van Zyl L. 2015. The application of systems biology to biomanufacturing. Pharm. Bioprocess, 3(4):341–355.
  • Bertolaso M, Giuliani A, de Gara L. 2010. Systems Biology Reveals Biology of systems. Wiley Periodicals, Inc., 16 (6).
  • Bloom FE. 2001. What does it all mean to you? J Neurosci, 21:8304–8305.
  • Clish CB. 2015. Metabolomics: an emerging but powerful tool for precision medicine. Cold Spring Harb Mol Case Stud, 1: a000588
  • Coorssen JR. 2013. Proteomics. Brenner’s Encyclopedia of Genetics (Second Edition), p. 508-510.
  • Dos Santos EAF, Santa Cruz EC, Ribeiro HC, Barbosa LD, Zandonadi FS, Sussulini A. 2020. Multi-omics: An Opportunity to Dive into Systems Biology. Braz J Anal Chem, 7(29): 18-44.
  • Haas R, Zelezniak A, Iacovacci J, Kamrad S, Townsend S, Ralser M. 2017. Designing and interpreting ‘multi-omic’ experiments that may change our understanding of biology. Curr Opin Syst Biol, 6:37–45.
  • Han X, Aslanian A, Yates JR. 2008. Mass Spectrometry for Proteomics. Curr Opin Chem Biol, 12(5): 483–490.
  • Horgan RP, Kenny LC. 2011. SAC review ‘Omic’technologies: genomics, transcriptomics, proteomics and metabolomics. Obstet Gynecol, 13:189–195
  • Ideker T, Thorsson V, Ranish JA, ChristmasR, Buhler J, Eng R, Bumgarner JK, Goodlett DR, Aebersold R, Hood L. 2001. Integrated genomic and proteomic analyses of a systematically perturbed metabolic network. Science, 292:929–934.
  • Ishii N, Tomita M. 2009. Multi-Omics Data-Driven Systems Biology of E. coli. In: Lee S.Y. (eds) Systems Biology and Biotechnology of Escherichia coli. Springer, Dordrecht.
  • Kalavacharla V, (Kal), Subramani M, Ayyappan V, et al. 2017. Plant Epigenomics. Handbook of Epigenetics, 245–258.
  • Karahalil B. 2016. Overview of Systems Biology and Omics Technologies. Curr Med Chem, 23:1-10.
  • Karamperis K, Wadge S, Koromina M. 2020. Genetic testing. Applied Genomics and Public Health (Translational and Applied Genomics), Elsevier, 189-207.
  • Laurence P. 2015. The case of the gene: Postgenomics between modernity and postmodernity. EMBO Reports, 16 (7): 777–781.
  • Liang KH. 2013. Transcriptomics. Bioinformatics for Biomedical Science and Clinical Applications. Woodhead Publishing, p. 49-82.
  • Lin, S., Fang, L., Li, C., Liu, G. 2019. Epigenetics and heritable phenotypic variations in livestock. In: Tollefsbol T. (editor). Transgenerational Epigenetics. 2nd edition. Amsterdam, Netherlands: Elsevier, p. 283-313
  • Milward EA, Shahandeh A, Heidari M, Johnstone DM, Daneshi N, Hondermarck H. 2016. Transcriptomics. Encyclopedia of Cell Biology. Elsevier, The Netherland, 4: 160-165.
  • O’Donnell ST, Ross RP, Stanton C. 2020. The Progress of Multi-Omics Technologies: Determining Function in Lactic Acid Bacteria Using a Systems Level Approach. Front. Microbiol, 10: 1-17.
  • Pereira C, Adamec BJ. 2019. Metabolome Analysis. Encyclopedia of Bioinformatics and Computational Biology, 3:463-475
  • Pinu FR, Beale DJ, Paten AM, Kouremenos K, et al. 2019. Systems Biology and Multi-Omics Integration: Viewpoints from the Metabolomics Research Community. Metabolites, 9(76).
  • Potters, G. 2010. Systems Biology of the Cell. Nature Education, 3(9):33.
  • Pratima NA, Gadikar R. 2018. Liquid Chromatography-Mass Spectrometry and Its Applications: A Brief Review. Arc Org Inorg Chem Sci, 1(1): 26-34.
  • Shah TR, Ambikanandan M. 2011. Proteomics. Challenges in Delivery of Therapeutic Genomics and Proteomics. Elsevier, p. 387-427.
  • Strange K. 2005. The end of “naïve reductionism”: rise of systems biology or renaissance of physiology? Am J Physiol Cell Physiol, 288: C968–C974.
  • Turunen TA, … Ylä-Herttuala S. 2018. Epigenomics. Encyclopedia of Cardiovascular Research and Medicine, p. 258-265.
  • Vlaanderen J, Moore LE, Smith MT, et al. 2010. Application of omics technologies in occupational and environmental health research: current status and projections. Occup Environ Med, 67: 136-143.
  • Yadav D, Tanveer A, Malviya N, Yadav S. 2018. Overview and Principles of Bioengineering: The Drivers of Omics Technologies and Bio-Engineering Towards Improving Quality of Life, p.3-23
  • Yang X. 2020. Multitissue Multiomics Systems Biology to Dissect Complex Diseases. Trends Mol Med, 26 (8).
  • A brief guide to genomics. https://www.genome.gov/about-genomics/fact-sheets/A-Brief-Guide-to-Genomics
  • Analytical Techniques applied in Metabolomics. https://www.futurelearn.com/info/courses/metabolomics/0/steps/10710
  • Boundless biology. https://courses.lumenlearning.com/boundless-biology/chapter/the-genetic-code/

Biologia dei sistemi e tecnologia omica

Livello avanzato

I progressi delle tecnologie omiche — come la genomica, la trascrittomica, la proteomica e la metabolomica — hanno iniziato a consentire alla medicina un livello molecolare straordinariamente dettagliato. I costi in rapida diminuzione del sequenziamento ad alto rendimento e di altre tecnologie massivamente parallele, come la spettrometria di massa, ne consentono l’uso nella ricerca clinica e nella pratica clinica.

Sommario

 

Tecnologie OMICS per migliorare la qualità della vita

Tecnologie OMICS e Medicina Molecolare

I progressi delle tecnologie omiche — come la genomica, la trascrittomica, la proteomica e la metabolomica — hanno iniziato a consentire alla medicina un livello molecolare straordinariamente dettagliato. I costi in rapida diminuzione del sequenziamento ad alto rendimento e di altre tecnologie massivamente parallele, come la spettrometria di massa, ne consentono l’uso nella ricerca clinica e nella pratica clinica. L’esoma e il sequenziamento del genoma sono già utilizzati per aiutare le diagnosi, in particolare di malattie rare, per informare il trattamento e la progressione del cancro e, nelle prime fasi, per creare modelli predittivi di malattia in individui sani. Numerosi sforzi di ricerca e aziende si stanno concentrando su profili genomici di dati genetici, di espressione genica e di altri dati omici, come il microbioma, come biomarcatori per le malattie. Queste tecniche sono state applicate anche per identificare i loci a rischio per le malattie, definire una fisiopatologia precisa della malattia e svolgere ricerche sulla Salute Ambientale Professionle (OEH).

Idealmente, diverse tecnologie sarebbero combinate sia per aiutare a diagnosticare la malattia che per creare un quadro olistico dei fenotipi e delle malattie umane. Tuttavia, l’attuazione di dati multi-omici introduce nuove sfide in campo informatico e interpretativo. Quali sono i modi in cui l’omica integrativa può avere un impatto sulla medicina cercando di gestire la salute, nonché diagnosticare e trattare le malattie? Infatti, per migliorare gli esiti del trattamento e ridurre gli eventi avversi che contano sia per il medico che per il paziente una delle soluzioni prospettiche è sviluppare la medicina personalizzata – trattamento medico personalizzato creato per adattarsi alle caratteristiche degli individui, ai loro bisogni e al loro profilo molecolare e genetico unico (Fig. 1).

Fig. 1. Medicina personalizzata per tutta la durata della vita

Tecnologie OMICHE nella diagnostica

Diagnostica prenatale

Quasi il 10% delle malattie pediatriche e il 20% dei decessi infantili sono dovuti a malattie mendeliane. I difetti genetici possono essere una grave minaccia per la salute del bambino. Per superare questo problema, gli ultimi sviluppi delle tecnologie economiche sono impiegati nella vita di una persona anche prima della nascita. Lo screening prenatale si è diffuso nei paesi membri per esaminare non solo le anomalie di un feto, ma anche i possibili rischi di malattie o condizioni anomale dopo la nascita. Quando esiste una predisposizione genetica, come la fibrosi cistica o la distrofia muscolare, consultare uno specialista medico o una società di diagnosi genetica diventa di grande importanza. Le ultime innovazioni nella biologia molecolare e cellulare hanno permesso varie diagnosi genetiche per i feti. Fino a poco tempo fa, sono state applicate diverse tecnologie invasive come l’amniocentesi e il campionamento dei villi coriali. Sebbene le procedure siano state migliorate, vi è ancora il rischio di aborto spontaneo e gravi effetti collaterali. Uno dei tentativi innovativi di evitare gli effetti collaterali delle tecnologie invasive convenzionali è quello di isolare e analizzare le cellule nucleate fetali dal sangue materno. Sfortunatamente, il numero di cellule fetali che possono essere isolate è di circa 3-5 cellule per 30 ml di sangue materno. L’enorme salto nel campo dei test prenatali non invasivi (NIPT) è stato fatto dopo l’avanzamento delle tecnologie omiche e la loro combinazione con vari approcci sperimentali. L’uso della tecnologia di amplificazione del DNA combinata con NGS ha permesso il rilevamento diretto del DNA fetale nel sangue materno. Attualmente, tale approccio viene utilizzato per determinare il sesso e il gruppo sanguigno Rh e per analizzare le aneuploidie cromosomiche. Il DNA fetale privo di cellule viene tipicamente rilasciato nel sangue materno durante il processo di apoptosi delle cellule placentari. Il DNA fetale privo di cellule frammentato è ∼ lungo 200 bp e ha un’emivita di ∼16 minuti e può essere rilevato nel plasma materno dall’inizio della gravidanza (5-7 settimane). Oltre al DNA fetale, gli RNA fetali possono essere utilizzati anche per il NIPT. Ad esempio, la trisomia 21 fetale può essere diagnosticata controllando il rapporto allelico dell’mRNA PLAC4, prodotto dal cromosoma 21 nella placenta. Se un bambino riceve alleli eterogenei dai genitori, un rapporto allelico ineguale (2 : 1) suggerisce la trisomia.

L’integrazione di dati genomici, trascrittomici, proteomici, metabolomici ed epigenetici fetale aiuterà a portare avanti la diagnostica genetica prenatale. In questo modo, qualsiasi disturbo genetico potrebbe essere identificato all’inizio della gravidanza applicando approcci non invasivi. Tuttavia, si verificano alcune preoccupazioni riguardo alla generazione di gravi problemi etici possibili quando la tecnologia genomica avanzata è usata. Pertanto, dovrebbero essere presi in considerazione ulteriori studi sull’impatto delle nuove tecnologie sulla società, come la possibile discriminazione basata sull’informazione genetica, gli effetti nocivi indeterminati delle nanotecnologie sull’uomo e sulla natura e violazioni del diritto d’autore dovute allo sviluppo delle tecnologie dell’informazione (cfr. LO8).

Tecnologia lab-on-a-chip nella diagnostica

Subito dopo lo sviluppo di sistemi micro-eletro-meccanici (MEMS), è stato rivelato il -potenziale utilizzo di queste piattaforme miniaturizzate per varie applicazioni. Negli ultimi decenni, l’interesse per il MEMS biologico o biomedico (BioMEMS) è stato significativamente aumentato e ha trovato applicazioni diffuse in varie aree della scienza della vita tra cui diagnostica, la terapeutica, la somministrazione dei farmaci, biosensori e l’ingegneria tissutale. Questi sistemi integrati sono anche noti come “lab-on-a-chip” (LOC) o “micro-total analysis systems” (μTAS) e forniscono un modo solido per la miniaturizzazione, l’integrazione, l’automizzazione e parallelizzazione dei processi chimici.

I dispositivi lab-on-a-chip integrano più funzioni di laboratorio su un singolo chip (da pochi millimetri quadrati a pochi centimetri quadrati). Queste piattaforme forniscono analisi chimiche e/o biologiche complesse che possono offrire prestazioni più economiche, più veloci, controllabili e più elevate dei saggi biochimici su scala molto ridotta rispetto ai test di laboratorio convenzionali. Sono in grado di gestire volumi di liquidi estremamente piccoli fino a meno di pochi picolitri (poche micro-goccioline di sangue, plasma, saliva, lacrimazione, urina o sudore). Questo fatto è molto importante in molti studi clinici in cui di solito sono disponibili volumi molto piccoli di campioni di pazienti. Inoltre, l’automazione con l’eliminazione dei parametri di interferenza umana può aumentare l’affidabilità nell’analisi.

LOC è stato utilizzato in diverse applicazioni, come: estrazione e purificazione del DNA, PCR, qPCR, rilevamento molecolare, elettroforesi, ecc.

LOC per l’estrazione e la purificazione del DNA: Spesso per i saggi diagnostici l’acido nucleico deve essere purificato dalle cellule. Il processo di estrazione del DNA generalmente include due fasi: la lisi cellulare mediante rottura della membrana cellulare e nucleare e la purificazione del DNA da lipidi di membrana, proteine e RNA. La lisi cellulare sui dispositivi LOC può essere ottenuta attraverso diversi tipi di metodi di lisi: chimica, termica, ultrasonica, elettrica, meccanica o qualche altro tipo di lisi. Anche i ben noti metodi di purificazione del DNA attraverso colonne di estrazione, utilizzando l’adsorbimento del DNA sulle perline di silice in determinate condizioni tampone, sono adattabili alle tecniche microfluidiche.

Dispositivi LOC per PCR, qPCR e Rilevamento Molecolare: Dopo l’estrazione del DNA, l’analisi più frequente è la PCR. L’importanza della PCR nell’analisi genomica ha portato allo sviluppo di numerosi dispositivi LOC. La miniaturizzazione del volume e l’elevato rapporto superficie/volume definiscono un rapido trasferimento termico e una PCR più accurata. Questa analisi richiede una post-analisi e il rilevamento delle dimensioni degli ampliconi, che generalmente viene effettuato per elettroforesi. Con l’introduzione dei LOC, l’elettroforesi del DNA è stato uno dei primi processi molecolari integrati su un chip. Questa miniaturizzazione riduce ancora di più il tempo complessivo di processo e riduce il consumo di reagenti.

Fig. 2. Dispositivo Lab-on-a-Chip

La qPCR è un’altra tecnica che è stata modificata per i dispositivi LOC. Utilizzando un regolatore di pressione ultraveloce e un lettore di fluorescenza, è stato sviluppato un sistema microfluidico qPCR ultraveloce per il rilevamento molecolare di malattie come l’Antrace e l’Ebola. L’efficienza di rilevamento è identica ai i sistemi commerciali e i risultati sono raggiungibili in meno di 8 minuti essendo 7-15 volte più veloce di quelli tradizionalmente utilizzati. Altro campo avanzato è la microfluidica digitale che si occupa di emulsioni e goccioline all’interno dei dispositivi LOC. Una quantità ultra-bassa del DNA può essere catturata all’interno delle goccioline e i limiti di rilevamento possono essere migliorati con la rilevazione del numero di copia all’interno della goccia LOC qPCR.

Applicazione genomica: Grazie ai numerosi progetti di sequenziamento, come il Progetto Genoma Umano, il campo della genomica ha avuto un’enorme attenzione negli ultimi anni. Le tecniche di sequenziamento di nuova generazione del DNA attualmente in fase di sviluppo includono il sequenziamento per ibridazione (SBH), il sequenziamento tramite nanopori e il sequenziamento per sintesi (SBS), quest’ultima delle quali include molte diverse strategie dipendenti dalla DNA polimerasi. L’utilizzo dell’approccio LOC consente la drastica riduzione dei costi e della durata del sequenziamento ad alta produttività.

Quando si studiano i campioni complessi di espressione del DNA è necessaria un’integrazione di biosensori multipli in connessione con i microarray di DNA. Le caratteristiche più essenziali di questi LOC sono la miniaturizzazione, la velocità e la precisione. Questa tecnologia offre vaste possibilità per un’analisi multipla rapida di campioni di acido nucleico, tra cui la diagnosi di malattie genetiche, il rilevamento di agenti infettivi, misurazioni dell’espressione genica differenziale, lo screening farmacologico o l’analisi forense.

Applicazioni biochimiche: la strategia LOC è applicabile anche nell’accoppiare saggi enzimatici e immunologici su un dispositivo micro fluidico a canale singolo. L’esempio tipico è la misurazione simultanea di glucosio e insulina. La chiave per l’efficace realizzazione di tale monitoraggio del glucosio/insulina è l’integrazione delle pertinenti procedure di pretrattamento/pulizia del campione essenziali per l’analisi del sangue intero. Questo innovativo approccio LOC può essere applicabile all’incorporazione di altre analisi e ulteriori fasi di gestione dei campioni, come si desidera per la creazione di strumenti clinici miniaturizzati.

Proteomica: La proteomica è una delle grandi sfide scientifiche nell’era post-genoma. I dispositivi LOC sono utili per creare tecniche avanzate per rispondere a problemi analitici complessi, come il profilo del proteoma. I dispositivi LOC potrebbero essere applicati in quattro aree chiave della proteomica: lavorazione chimica, preconcentrazione e pulizia del campione, separazioni chimiche e interfacce con la massa MS. Questo processo è caratterizzato da un minor consumo di reagenti, un funzionamento facile e un’analisi molto rapida. Un altro vantaggio è che i dati dei dispositivi LOC possono essere facilmente confrontati con quelli ottenuti utilizzando 2D-PAGE. Al fine di quantificare le proteine viene sviluppato un dispositivo LOC MS per il profiling delle proteine. Alcuni autori descrivono i dispositivi LOC utilizzati per l’infusione diretta nello spettrometro di massa, tra cui la separazione dell’elettroforesi capillare (CE), la digestione del campione su chip e l’infusione o la CE prima dell’analisi MS. I ricercatori utilizzano la MS a ionizzazione elettrospray e si concentrano sulla progettazione dell’interfaccia tra LOC e lo spettrometro di massa.

Biosensori: Per il rilevamento degli analiti target vengono sviluppati anche biosensori LOC. Tali dispositivi collegano in modo intricato un elemento di riconoscimento biologico con un trasduttore fisico che converte l’evento di bioricognizione in un segnale elettrico. Esistono due tipi di biosensori LOC: dispositivi di bioaffinità e biocatalitici. I dispositivi di bioaffinità si basano sul legame selettivo dell’analita bersaglio a un partner ligando racchiuso in superficie (ad esempio, anticorpo, oligonucleotide). Ad esempio, nei biosensori di ibridazione, ci sono sonde di DNA a singolo filamento (ss) immobilizzate sulla superficie del trasduttore. Quando si forma un duplex, questo può essere rilevato in seguito all’associazione di un indicatore di ibridazione appropriato. D’altra parte, nei dispositivi biocatalitici, un enzima immobilizzato viene utilizzato per riconoscere il substrato bersaglio. Ad esempio, strip di sensori con laglucosio ossidasi immobilizzata per il monitoraggio del diabete (per ulteriori informazioni vedi LO3).

Ricerca cellulare: Utilizzando dispositivi LOC potrebbe essere eseguito anche un esperimento su piccola scala con le cellule. La singola cellula è posizionata all’interno del microcanale in una posizione predeterminata, semplificandone la movimentazione e la manipolazione. Il microsistema consente di gestire piccoli volumi di fluido contenenti piccole quantità di analita. I sistemi LOC forniscono anche un controllo preciso dell’ambiente locale intorno alla cellula, monitorando la natura fisica o chimica della superficie a cui la cellula aderisce, il pH locale e la temperatura. Quando la cellula deve essere esposta a un diverso tipo di stimoli, è possibile utilizzare numerosi e spesso complessi componenti per la gestione dei fluidi. Se la cellula è oggetto di ulteriori analisi, la lisi e i metodi analitici necessari potrebbero anche essere introdotti sulla stessa. In questo modo, si evita la perdita o la diluizione del campione, che si verificherebbe inevitabilmente se si utilizzassero più dispositivi.

Sviluppo di farmaci: Le esigenze dell’industria per lo sviluppo di nuovi farmaci e per prevedere il loro potenziale comportamento negli animali e nelle cellule innesca altre applicazioni analitiche dei sistemi: ad esempio, sistemi analitici per monitorare e ottimizzare la produzione di farmaci proteici come gli anticorpi terapeutici; saggi basati su cellule umane primarie che potrebbero predire le prestazioni in studi clinici umani e altro. Questi sistemi LOC si sono dimostrati altamente riproducibili, facilmente manipolabili e potrebbero essere utilizzati di routine.

Analisi OMICHE per rivelare l’architettura genetica delle malattie comuni

Identificare i marcatori genetici associati a una specifica caratteristica della malattia è un problema chiave quando si stima il rischio di malattia. Poiché le informazioni genetiche di un individuo rimangono per lo più invariate, le sequenze mutate possono essere marcatori affidabili per determinate malattie. A questo proposito, una delle importanti applicazioni della tecnologia omica sono gli studi di associazione a livello genomico (GWAS). Essi possono identificare varianti genetiche comuni, generalmente polimorfismi a singolo nucleotide (SNPs), associate a certe caratteristiche di malattia. In generale, le informazioni SNP sono raccolte da due gruppi, un gruppo di pazienti e un gruppo di controllo sano. Poi viene analizzato statisticamente e vengono identificati gli SNP associati alle caratteristiche specifiche della malattia del gruppo di pazienti corrispondente.

Ad esempio, le variazioni nel gene dell’apolipoproteina E (APOE) sono un fattore genetico ben noto correlato con il morbo di Alzheimer ad esordio tardivo (LOAD). Dopo la valutazione di 502.627 SNPs in 1086 pazienti affetti da AD, è stato dimostrato che rs4420638 sul cromosoma 19 è il marcatore più forte che differenzia i pazienti affetti da AD dal gruppo di controllo. Un altro importante successo si ottiene durante le indagini sui tumori ereditari. I geni BRCA1 e BRCA2 sono uno dei marcatori genetici più importanti per i tumori ereditari al seno e alle ovaie. Questi geni codificano proteine soppressori tumorali, che aiutano a riparare il DNA danneggiato attraverso la riparazione diretta per omologia. Alcune mutazioni in BRCA1 e/o BRCA2 aumentano significativamente il rischio di sviluppare tumori al seno e/o alle ovaie. Per BRCA1 sono state rilevate due mutazioni: 185delAG e 5382insC. Circa il 55-65% delle donne che ereditano una delle mutazioni dannose del BRCA1 e circa il 45% delle donne che portano la mutazione BRCA2 hanno sviluppato il cancro al seno all’età di 70 anni. Numerosi altri marcatori di malattia come il cancro del colon-retto autosomico dominante, la sindrome multi-cancro di Li-Fraumeni, la mucolipidosi IV e la cardiomiopatia ipertrofica, sono stati anche identificati consuccesso usando NGS.

Tuttavia, per le malattie più comuni come diabete, obesità, schizofrenia e autismo, una combinazione di più fattori genetici e ambientali è responsabile. Un numero crescente di prove indica che i marcatori genetici comunemente spiegano solo una parte della variazione totale del tratto. Uno dei fattori cruciali mancanti sono le variazioni epigenetiche. Varie modifiche epigenetiche sono state segnalate per essere associate alla fase iniziale di diversi tumori (crescita anomala di un tumore). Inoltre, è noto che il cancro del colon-retto è identificato più frequentemente negli uomini che nelle donne. Ecco perché è stato suggerito che gli estrogeni possono aiutare a sopprimere il cancro del colon-retto. Inoltre, i profili epigenetici di campioni di mucosa adiacente e non adiacente di 95 pazienti con cancro del colon-retto hanno rivelato che il promotore dell’MGMT, un gene di riparazione del DNA, è frequentemente metilato. Finora, migliaia di loci genomici sono stati identificati e associati a varie malattie umane. Tuttavia, le difficoltà sorgono quando questi geni devono essere caratterizzati nel contesto della fisiopatologia molecolare e dei corrispondenti geni e percorsi interagenti.

Applicazione dell’approccio OMICO nel trattamento delle malattie

L’obiettivo principale della medicina personalizzata è quello di decidere l’opzione di trattamento più efficace per un individuo. A questo proposito, la quantificazione simultanea di più marcatori proteici può svolgere un ruolo importante nel sottotipo dei tumori e nella selezione di terapie ottimizzate per ogni sottotipo. Tecniche di quantificazione delle proteine ad alta produttività e basate su singole cellule, come la CyTOF, possono essere eccellenti alternative ai metodi basati sull’immunoistochimica.

Ad esempio, nell’ultimo decennio è emerso un nuovo approccio per il trattamento dei tumori, che consente al sistema immunitario del paziente di combattere il suo cancro, chiamato trasferimento cellulare adottivo (ACT). Il glioblastoma multiforme (GBM) è il tipo più frequente e aggressivo di tumore maligno al cervello. Sebbene il GBM sia stato trattato con la rimozione chirurgica, il trattamento con radiazioni e i metodi di chemioterapia, non ci sono stati effetti evidenti. Negli ultimi 20 anni, sono stati eseguiti numerosi studi clinici per utilizzare il sistema immunitario per curare tumori come il GBM. Tra i numerosi approcci ACT, particolare attenzione è stata dedicata ai vaccini a base di cellule dendritiche (DC) e T. Essi possono penetrare e indurre una risposta antitumonale nel cervello e mostrare un grande potenziale per uccidere efficacemente vari tipi di cancro, tra cui quelli maligni e avanzati. I DC autologi, ottenuti dal tessuto tumorale o sotto forma di lisato tumorale di un paziente, possono essere coltivati in vitro in presenza di antigeni associati al tumore (TAA), un metodo chiamato ‘pulsazione’. I DC autologi pulsati vengono reintrodotti nel paziente per stimolare una citotossicità umorale specifica, mediata dalle cellule, contro il GBM e altri tumori maligni. Sono stati tentati anche approcci più rivoluzionari, ad esempio l’ingegneria di cellule immunitarie specifiche che utilizzano nucleasi a dita di zinco (ZFN) e la tecnologia CRISPR.

Ogni anno, migliaia di pazienti subiscono un trapianto d’organo o di cellule staminali ematopoietiche. Tuttavia, la mortalità tra questi pazienti rimane molto elevata. Una procedura standard per abbinare i donatori ai riceventi prevede la tipizzazione dell’antigene leucocitario umano (HLA). Tuttavia, diventa chiaro che i fattori non-HLA possono anche influenzare considerevolmente la prognosi e lo sviluppo della malattia da trapianto contro l’ospite (GVHD). Per superare questo problema, molte applicazioni omiche possono essere utilizzate per determinare corrispondenze ottimali donatore-ricevente, nonché per esaminare diversi marcatori di rigetto. Ad esempio, il sequenziamento del DNA libero può essere utilizzato per valutare la gravità del rigetto degli organi e per rilevare contemporaneamente l’eventuale presenza di DNA virale come marcatore di infezione. Ulteriori dati omici, come l’RNA o l’espressione proteica, possono essere utilizzati per valutare la compatibilità tra donatore e ricevente. Pertanto, l’integrazione tra le tecnologie di diverse omiche può essere utilizzata come strumento utile per la biologia dei trapianti.

Inoltre, il microbioma è stato associato a molte malattie umane comuni. Mentre la causalità è semplice nei dati genomici, dove il DNA influenza i fenotipi, è più difficile svelare se la composizione del microbioma sia una causa o un effetto della malattia. Tuttavia, è evidente che i pazienti con malattie infiammatorie intestinali, diabete di tipo 2 e obesità, hanno profili di microbioma diversi da quelli dei controlli sani. Inoltre, il microbioma ha una grande influenza sulla funzione immunitaria, che in alcuni casi è stata putativamente correlata alla malattia nei modelli animali. La nostra comprensione dei progressi del microbioma, la valutazione integrativa di questo e di altri dati sulle tecnologie omiche aiuteranno a una migliore comprensione delle malattie umane. Recentemente, è stato dimostrato che i profili genetici umani influenzano la composizione complessiva del microbiota intestinale. Inoltre, le interazioni tra genetica umana e microbiomi hanno dimostrato di influenzare la manifestazione della malattia. Allo stesso modo, la segnalazione metabolica tra gli ospiti e i loro microbiomi è diventata un’area di ricerca attiva, e vi sono prove incentivate che un certo numero di metaboliti secreti dai batteri intestinali possono svolgere un ruolo nelle malattie umane. Pertanto, è ovvio che l’analisi integrata tra il genoma, il metaboloma, il microbioma e altri profili omici fornirà mezzi per gestire la guarigione e combattere le malattie.

Tecnologie OMICHE per la prevenzione delle malattie – prospettive future

Un altro importante obiettivo della medicina personalizzata è quello di prevenire lo sviluppo di varie malattie prima della loro insorgenza. Gli attuali trattamenti preventivi sono limitati alla chirurgia: rimozione di un tessuto o di un organo se una persona possiede marcatori di cancro pertinenti. Tuttavia, questo approccio non è applicabile a malattie come l’Alzheimer, il morbo di Huntington e la distrofia muscolare congenita. Uno dei recenti approcci per affrontare tali problemi è il trattamento dietetico basato sulla nutrigenomica.   Il profilo omico può essere un approccio efficace nel rilevare cambiamenti su larga scala o a livello di percorso, può mostrare tendenze specifiche del paziente e aggiungere supporto statistico attraverso misurazioni ripetute.

Applicazione delle Tecnologie OMICHE in Tossicologia

L’uso di strumenti omici per valutare lo stato di salute ambientale sta diventando sempre più importante nella gestione ambientale e nella valutazione dei rischi. L’omica consente di collegare eventi molecolari ed effetti avversi con livelli biologici di organizzazione rilevanti per gli schemi di valutazione del rischio. L’analisi del livello di trascrizione dell’RNA o la proteomica cellulare hanno già guadagnato particolare interesse. Questi studi hanno contribuito a comprendere meglio le interazioni trai fattori di stress e l’organismo, ma anche a svelare le modalità di azione (MoA) di varie sostanze tossiche. Pertanto, da un punto di vista tossicologico, le tecniche omiche consentono di generare in modo efficace e accurato importanti informazioni sulle perturbazioni molecolari indotte dalle sostanze nelle cellule e nei tessuti che sono associati a esiti avversi.

Le vie di regolazione cellulari coinvolgono una serie di diverse (bio)molecole, che sono caratterizzate da diverse proprietà fisico-chimiche e mostrano complesse interazioni non lineari.  Una tecnica di mono-omica può misurare biomolecole di un tipo specifico, RNA o proteine, e spesso queste non sono nemmeno la totalità delle biomolecole di un tipo, ma un sottoinsieme più piccolo di esse. Ad esempio, il rilevamento di RNA brevi e lunghi, o di peptidi brevi e proteine richiede diversi approcci trascrittomici o proteomici. Solo l’uso di multi-omiche, noti anche come approcci cross-omici, consente di identificare direttamente una frazione significativa della risposta di una via all’esposizione chimica. Di queste, l’utilizzazione di strategie multi-omiche per i problemi della ricerca tossicologica ha maggiore importanza.

Tale approccio tossicologico del sistema, che integra la tossicologia classica con l’analisi quantitativa di grandi reti molecolari e cambiamenti funzionali che si verificano attraverso i livelli più elevati di organizzazione biologica, è promettente nell’analisi dell’intero spettro della tossicità degli xenobiotici. Un approccio di tossicologia dei sistemi comprende i seguenti elementi:

  • Assorbimento e distribuzione dello xenobiotico all’interno del sistema biologico.
  • Trasformazione dello xenobiotico e generazione di sostanze intermedie tossiche e/o non tossiche.
  • Interazione dello xenobiotico e/o dei suoi prodotti con i target cellulari.
  • Modifiche nelle molecole cellulari tra cui geni, proteine e lipidi.
  • Manifestazioni strutturali della tossicità degli organi bersaglio.
  • Manifestazioni funzionali di tossicità, e
  • Eliminazione dello xenobiotico e/o dei suoi intermedi dal sistema biologico.

Studi tossicologici attraverso l’analisi OMICA

Per comprendere meglio la risposta cellulare all’esposizione chimica, gli studi dovrebbero essere focalizzati su diversi livelli: trascritomica, proteomica, fosfoproteomica e metabolomica. L’epigenomica deve essere considerata anche per casi specifici.

Trascrittamica. L’obiettivo principale della trascrittomica è il rilevamento completo dell’RNA nella cellula. Una risposta del percorso nella trascrittomica è principalmente rilevata attraverso un set noto di geni target che si trovano differenzialmente espressi. Le tecniche applicate per determinare i cambiamenti nell’espressione genica in risposta all’esposizione a uno xenobiotico includono: ibridazione settentrionale, PCR quantitativa in tempo reale (QRT-PCR), ibridazione sottrattiva, analisi seriale dell’espressione genica, analisi microarray e sequenziamento di nuova generazione. A seconda dello scopo dello studio, una o più di queste tecniche possono essere applicate per definire profili di espressione parziale o globale nel campione biologico analizzato. Tuttavia, le tecniche di profiling dell’espressione genica più comunemente utilizzate sono QRT-PCR, analisi microarray e NGS. Se l’obiettivo è quello di studiare il profilo di espressione di un singolo o di un numero limitato di trascrizioni, l’analisi QRT-PCR è il metodo di scelta. L’analisi QRT-PCR è una tecnica relativamente semplice che include la trascrizione inversa di mRNA seguita dall’amplificazione PCR dei cDNA risultanti utilizzando primer specifici per il gene mirato e per uno o più geni house-keeping. La quantità dei prodotti genici amplificati dalla PCR viene poi quantificata. Poiché la QRT-PCR può determinare accuratamente l’espressione di un singolo o di un numero limitato di trascrizioni, ha alcune limitazioni dal punto di vista della tossicologia del sistema. Per studiare la tossicità a livello di sistema di un dato xenobiotico, è necessario impiegare una tecnica ad alto rendimento che sia in grado di determinare i livelli di espressione dell’intero trascrittoma. Ecco perché il microarray e il sequenziamento di nuova generazione sono le tecniche di analisi del trascrittoma globale più popolari applicate nella ricerca tossicologica.

La tecnica del microarray rappresenta un’importante analisi rivoluzionaria nell’era del sequenziamento del genoma post-umano. Il microarray può essere considerato come un’ibridazione di Northern blot ad alta produttività in cui quasi tutti i geni che sono espressi in un campione biologico in un dato momento possono essere rilevati simultaneamente. Pertanto, permette di rilevare piccole differenze nei profili di espressione genica globale in un dato campione biologico in risposta all’esposizione a xenobiotici. La tecnica del microarray prevede l’isolamento di RNA di alta qualità, la trascrizione inversa dell’mRNA per sintetizzare il cDNA, la sintesi e l’etichettatura del cRNA per generare le “sonde”, l’ibridazione delle “sonde” con i “target” presenti sul microarray, la rilevazione dell’intensità del segnale del complesso sonda-target ibridato e l’analisi dei dati risultanti per determinare i livelli di espressione dei geni di interesse. L’analisi basata sul microarray è stata utilizzata in diverse aree come la tossicologia ambientale, lo sviluppo di farmaci e la tossicologia occupazionale. I dati ottenuti forniscono un’istantanea di tutti i geni i cui livelli di espressione sono influenzati in risposta all’esposizione xenobiotica.

Il sequenziamento di nuova generazione (NGS) è l’analisi del trascrittoma globale sviluppata più di recente. Questa tecnica può essere applicata per determinare un profilo di espressione genica globale nell’RNA ottenuto da diversi campioni biologici. I passaggi chiave coinvolti nell’NGS sono l’isolamento dell’RNA, la rimozione di abbondanti molecole di RNA come l’RNA ribosomiale e l’RNA globina, la preparazione di librerie di sequenziamento, l’amplificazione PCR e il sequenziamento delle librerie. I dati risultanti vengono analizzati e viene determinata la quantità delle singole trascrizioni.

Proteomica: La trascrittomica è spesso la prima scelta per le indagini a livello di sistema, poiché nel corso degli anni sono stati sviluppati numerosi metodi di misurazione ben consolidati. Tuttavia, le alterazioni proteiche possono essere considerate più vicine all’impatto funzionale rilevante di uno stimolo studiato. Sebbene l’mRNA e l’espressione proteica siano strettamente correlati attraverso la traduzione, la loro correlazione è limitata. I livelli di trascrizione dell’mRNA spiegano solo circa il 50% della variazione dei livelli di proteine. Ciò è dovuto ai livelli aggiuntivi di regolazione delle proteine, compreso il loro tasso di traduzione e degradazione. Inoltre, la regolazione dell’attività proteica non si ferma al suo livello di espressione, ma è spesso ulteriormente controllata attraverso modifiche post-traduzionali. Dal punto di vista tossicologico, tali esempi per la regolazione post-trascrizionale includono: la stretta regolazione dei livelli delle proteine p53 e del fattore di ipossia-inducibile (HIF) e la loro rapida stabilizzazione post-trascrizionale, ad esempio, in caso di danni al DNA e in condizioni ipossiche; la regolazione di diverse risposte di stress cellulare (ad esempio, stress ossidativo) a livello di traduzione proteica; e la regolazione della risposta allo stress cellulare attraverso cascate di fosforilazione proteica. Le analisi proteomiche più spesso applicate e di fondamentale importanza per la tossicologia includono: elettroforesi su gel di poliacrilammide 2D, cromatografia liquida senza gel, spettrometria di massa e analisi delle modifiche post-traslazionali.

L’elettroforesi su gel di poliacrilammide 2D (2DGE) viene utilizzata per studiare le perturbazioni sul proteoma basate sui cambiamenti nell’espressione proteica. La tecnica 2DGE si basa sulla separazione delle proteine in base al loro pH (carica) e alle loro dimensioni. Ha la capacità di separare e visualizzare fino a 2000 proteine in un unico gel. La prima dimensione, nota come focalizzazione isolettrica (IEF) separa le proteine in base al loro punto isoelettrico (pI). La seconda dimensione separa ulteriormente le proteine in base alla loro massa. Software di acquisizione e analisi delle immagini all’avanguardia permettono di confrontare i campioni di controllo e quelli trattati, aiutando a identificare le proteine regolate in modo diverso in base alla loro intensità relativa. Una variante della 2DGE è l’elettroforesi differenziale su gel (DIGE) che si basa sull’etichettatura di proteine con coloranti cianinici fluorescenti (Cy2, Cy3 e Cy5). Sebbene 2DGE sia un potente strumento per identificare molte proteine, l’approccio ha i suoi limiti. Il vincolo principale è che non tutte le proteine possono essere separate dalla IEF, come le proteine di membrana, basiche, piccole (< 10 kDa) e grandi (> 100 kDa). La seconda limitazione è che le proteine meno abbondanti sono spesso mascherate dalle proteine abbondanti nella miscela.

Altre tecniche frequentemente utilizzate sono la cromatografia liquida senza gel con la spettrometria di massa (LC MS/MS). L’approccio LC utilizza le differenze nelle proprietà fisiochimiche di proteine e peptidi, cioè dimensioni, carica e idrofobicità. 2D-LC può essere applicato a miscele proteiche frazionate su due colonne con diverse proprietà fisiochimiche e massimizzare la separazione di proteine e peptidi in miscele complesse. La spettrometria è ampiamente ritenuta di massa sia la piattaforma tecnologica chiave per la tossicoproteomica. I principali vantaggi includono una sensibilità insuperabile, una maggiore velocità e la capacità di produrre set di dati ad alta produttività. Grazie all’ alta precisione della MS, nei tessuti e nelle matrici biologiche possono essere rilevati peptidi nell’intervallo da femtomolare (10− 15) ad attomolare (10− 18). Ciò è estremamente utile nell’analisi comparativa in cui viene effettuata un’analisi simultanea del controllo e dei campioni trattati. Pertanto, è possibile ottenere una panoramica completa di come gli stimoli influenzano il proteoma e la successiva identificazione dei potenziali biomarcatori.

Poiché la biologia dei sistemi richiede una quantificazione accurata di un particolare insieme di peptidi/proteine su più campioni, sono stati sviluppati anche approcci mirati per la quantificazione dei biomarcatori. Tale tecnica è il monitoraggio della reazione selezionata (SRM). SRM misura i peptidi prodotti dalla digestione enzimatica del proteoma in triplo quadrupolo MS. Un esperimento proteomico basato su SRM inizia con la selezione di una lista di proteine bersaglio, derivate da esperimenti precedenti o ricerche di dati come una mappa del percorso o una letteratura. Questo passaggio è seguito da 1) selezione dei peptidi target proteotipici che rappresentano in modo ottimale e univoco la proteina target, 2) selezione di una serie di transizioni SRM adatte per ogni peptide target, 3) rilevamento delle transizioni peptidiche selezionate in un campione, 4) ottimizzazione dei parametri di dosaggio SRM e 5) applicazione dei test al rilevamento e quantificazione delle proteine / peptidi. I principali vantaggi della tecnica SRM sono: 1) possibilità di monitorare da decine a centinaia di proteine durante la stessa corsa, 2) possibilità di quantificazione assoluta e relativa, 3) elevata riproducibilità dei dati e 4) una specificità molecolare assoluta. Tuttavia, esistono anche alcuni limiti di questa tecnica: 1) solo un numero limitato di proteine misurabili può essere incluso nella stessa corsa, e 2) anche con la sua alta sensibilità non è in grado di rilevare tutte le proteine presenti in un organismo.

È stato inoltre utilizzato un altro approccio mirato basato sulla MS noto come monitoraggio delle reazioni parallele (PRM). Esso è incentrato sull’uso di strumenti di massa ad alta risoluzione e accurati di nuova generazione dotati di quadrupolo (principalmente il sistema Orbitrap MS).  Questa tecnica è strettamente correlata all’SRM ma consente la misurazione di tutti i prodotti di frammentazione di un dato peptide in parallelo.

Un altro approccio chiave è l’analisi delle modifiche post-traslazionali (PTM) avvenute a causa dell’esposizione tossica. Esse rappresentano un meccanismo essenziale per regolare il proteoma cellulare. Le PTM sono modifiche chimiche che hanno un ruolo importante nella regolazione dell’attività, localizzazione e interazioni delle biomolecole cellulari. L’identificazione e la caratterizzazione delle proteine e dei loro siti di PTM sono molto importanti per la comprensione biochimica delle vie PTM. Questa conoscenza fornisce intuizioni più profonde sulla possibile regolazione della fisiologia cellulare innescata dalle PTM. Alcuni esempi di PTM includono fosforilazione, glicosilazione, ubiquitinazione, nitrosilazione, metilazione, acetilazione, lipidazione e proteolisi. Nell’ultimo decennio, la proteomica basata su MS si è dimostrata un potente strumento per l’identificazione e la mappatura delle PTM. Inoltre, gli approcci basati sulla MS hanno sfruttato molto i progressi nella strumentazione MS rendendo l’analisi più sensibile, accurata e con una risoluzione più elevata per il rilevamento di proteine meno abbondanti.

Metabolomica: Il metaboloma è diverso dalle altre analisi omiche, poiché ha a che fare con una collezione di molecole chimicamente molto eterogenee. Il metaboloma è tipicamente definito come il bilancio completo di tutti i metaboliti di piccole molecole ( < 1500Da ) trovati in una specifica cellula, organo o organismo. Grazie a iniziative come lo Human Metabolome Project, il metaboloma endogeno di organismi modello umani e animali è stato ampiamente mappato. Le misurazioni del metaboloma impiegano sia la rilevazione basata sulla risonanza magnetica nucleare (NMR) che la gascromatografia o la cromatografia liquida con MS. Gli approcci basati sulla NMR hanno la capacità di quantificare i metaboliti studiati e costituiscono il gold standard per l’elucidazione strutturale dei metaboliti sconosciuti. Gli approcci basati sulla MS superano la NMR in termini di sensibilità e possono essere eseguiti in modo non mirato o mirato.

La metabolomica differisce dalla proteomica e dalla trascrittomica per diversi aspetti:

(i) rileva la risposta a livelli molto diversi di un percorso, e

(ii) cattura simultaneamente le molecole di un percorso che rispondono su scale temporali estremamente diverse.

La progressione della metabolomica l’ha resa di routine e altamente utile in molti studi di tossicologia. Ha un notevole potenziale nello screening della tossicità cellulare o d’organo indotta dai farmaci. La valutazione rapida di campioni biologici, insieme all’analisi matematica e statistica (chemiometria) dei dati ottenuti serve come un potente strumento per la valutazione della sicurezza dei farmaci. Ad esempio, se un farmaco o una sostanza chimica può causare tossicità epatica inducendo stress ossidativo cellulare, l’analisi metabolomica del campione biologico esposto al farmaco può fornire informazioni dirette sui metaboliti che sono marcatori dello stress ossidativo. Può anche identificare metaboliti che sono considerati biomarcatori noti della lesione epatica, suggerendo così la patologia epatica. Inoltre, l’analisi della metabolomica può anche fornire informazioni sui metaboliti che sono indirettamente associati alla tossicità.

La metabolomica ha diversi vantaggi rispetto alla valutazione convenzionale della patologia clinica. Per esempio, uno studio che esamina un composto sconosciuto ha dimostrato che questo composto aumenta i livelli di colesterolo nel siero. Utilizzando la metabolomica, è stato osservato che, oltre al colesterolo, lo stesso composto aumenta anche diversi fitosteroli, indicando che il colesterolo più alto è un risultato dell’assorbimento degli steroli nell’intestino. Tali risultati indicano chiaramente che la metabolomica ha un potenziale molto più elevato in termini di identificazione degli endpoint tossicologici esatti.

Epigenomica. L’obiettivo principale dell’epigenomica è studiare le modifiche chimiche del DNA e delle proteine che organizzano la struttura tridimensionale del DNA genomico. Al giorno d’oggi, la metilazione del DNA è valutata da un approccio di sequenziamento del genoma modificato (Methylome-seq). Tuttavia, questo approccio richiede ancora un’elevata copertura associata a costi di sequenziamento ancora significativi. Ecco perché gli approcci mirati basati su microarray sono utilizzati più frequentemente. La metilazione del DNA include due diverse modifiche chimiche con distinte conseguenze funzionali: 5-metilcitosina e 5-idrossi-metilcitosina. Le modifiche istoniche vengono analizzate utilizzando il metodo della immuno-precipitazione della cromatina applicando anticorpi specifici per la modifica mirata seguita dal sequenziamento (ChIP-seq). In genere, per ottenere un quadro completo, è necessario rilevare diverse modifiche. Ciò richiede l’esecuzione di diverse analisi ChIP-seq contemporaneamente. Poiché ChIP-seq ha bisogno di più materiale campione rispetto agli altri approcci epigenomici, tale strategia può essere difficile da attuare negli studi tossicologici. ATAC-seq è un approccio alternativo che non indaga direttamente le modifiche chimiche, ma piuttosto una delle principali conseguenze delle modifiche, l’accessibilità al DNA.

Tuttavia, la conoscenza del coinvolgimento delle vie di regolazione e delle modifiche epigenetiche specifiche è ancora scarsa. L’epigenomica ha quindi un valore limitato quando viene utilizzato un approccio di integrazione dei dati basato sui percorsi. Tuttavia, i dati epigenomici si sono dimostrati molto preziosi per gli studi trans-generazionali o quando si cerca di prevedere gli effetti a lungo termine dell’esposizione chimica sulla base dei dati omici dell’esposizione a breve termine.

Applicazioni OMICHE per la valutazione del rischio tossicologico e le osservazioni regolamentari

Negli ultimi decenni, le tecnologie omiche sono state ampiamente utilizzate nella ricerca ed è stato dimostrato che sono in grado di fornire una visione approfondita della biochimica e della fisiologia della cellula e di qualsiasi effetto nocivo degli xenobiotici. Questo ha portato a un’entusiastica approvazione da parte dei tossicologi della ricerca. Sono state espresse speranze che le tecnologie ‘omiche forniscano gli strumenti per identificare una serie di biomarcatori di effetti avversi e le loro modalità di azione. Così, la previsione degli effetti sull’uomo durante la valutazione dei pericoli delle sostanze sarà migliorata e sarà dato un contributo allo sviluppo di metodi alternativi alla sperimentazione animale. Nonostante questo, la traduzione delle ‘omiche nel dominio regolativo rimane nel migliore dei casi cauta.

Il Centro europeo per l’ecotossicologia e la tossicologia delle sostanze chimiche (ECETOC) ha quindi organizzato una serie di workshop per valutare le possibilità e le sfide delle tecniche omiche nella valutazione del rischio chimico. Il workshop più recente ha concluso che gli approcci omici contribuiscono a rispondere a domande importanti nella valutazione del rischio, tra cui:

(i) la classificazione delle sostanze e la definizione della somiglianza

(ii) l’elucidazione del modo d’azione delle sostanze, e

(iii) l’identificazione degli effetti specie-specifici e la dimostrazione della rilevanza per la salute umana.

Tuttavia, è stata identificata la necessità di aumentare la riproducibilità dell’acquisizione e dell’analisi dei dati omici, così come di definire le migliori pratiche. Inoltre, l’uso normativo di qualsiasi metodo di test è strettamente legato al quadro giuridico specifico che è rilevante per la sostanza in esame. Considerando il regolamento REACH (PE e Consiglio dell’UE, 2006), “i dati basati sulla tecnologia omica potrebbero potenzialmente essere utilizzati per le presentazioni normative”. Per utilizzare i dati omici nei dossier REACH, il regolamento REACH elenca diversi requisiti: informazioni specifiche standard che coprono specifici limiti fisico-chimici, tossicologici ed ecotossicologici. Questi dati sono valutati durante la valutazione del pericolo e del rischio, e sono analizzati per determinare le alternative di gestione del rischio, rispettivamente. L’applicazione e l’integrazione di strumenti omici può essere utile in diversi livelli di identificazione e valutazione del pericolo normativo contribuendo a:

  1. Classificazione ed etichettatura (C&L) delle sostanze.
  2. Approcci basati sul peso dell’evidenza (WoE) per chiarire il MoA della sostanza in esame.
  3. Sostituzione della somiglianza chimica.
  4. Determinazione dei punti di partenza (PoD) per la valutazione del pericolo.
  5. Dimostrazione di effetti specie-specifici e rilevanza per la salute umana.

l rapido sviluppo delle tecnologie omiche pone diverse sfide per facilitare il loro utilizzo per la valutazione dei pericoli, in particolare dal punto di vista della presentazione normativa. Gli insiemi di “grandi dati” devono essere condensati applicando approcci complessi e applicando conoscenze specifiche per ottenere informazioni pertinenti per la valutazione dei pericoli. Inoltre, la conoscenza in questo settore in rapida evoluzione non è necessariamente familiare a molti ricercatori che lavorano in ambito normativo. Di conseguenza, la mancanza di approvazione normativa delle tecnologie omiche non è solo legata a una mancanza di quadri di best practice e di criteri di qualità, ma anche a una mancanza di fiducia nell’analisi e al livello di incertezza rispetto a ciò che costituisce dati sufficienti. Gli scienziati e le autorità di regolamentazione devono prima fare esperienza con i dati ottenuti da questa nuova tecnologia e poi costruire la fiducia nella sua applicabilità.

OMICA Ambientale e Biodiversità

Generalmente, la maggior parte degli studi ambientali comprende la coltivazione di microrganismi isolati o l’amplificazione e il sequenziamento di geni conservati. Tuttavia, esistono alcune difficoltà nel comprendere la complessità di un gran numero di vari microrganismi in un ambiente. Ciò ha portato allo sviluppo di nuove tecniche che consentono di arricchire microrganismi specifici per l’analisi a monte, come l’isolamento e le analisi di singole cellule. Strumenti avanzati nella metagenomica e nella genomica a una cellula (SCG) stanno spianando la strada a nuovi metodi di studio e comprensione del nostro ambiente.

I primi studi ambientali sulla diversità degli organismi richiedevano la coltivazione di campioni per aumentare la quantità di DNA prima della costruzione di biblioteche genomiche. All’epoca, il sequenziamento di 16S e 18S rRNA era la migliore opzione disponibile per definire la diversità ambientale. Tuttavia, è diventato chiaro che la maggior parte delle comunità campioni rappresenta specie non coltivabili. Fortunatamente, la reazione a catena della polimerasi (PCR) dell’rRNA permette di accedere alla diversità dei campioni coltivabili e non coltivabili. Poiché la PCR può essere eseguita direttamente su campioni ambientali senza clonazione, può essere utilizzata per amplificare i geni mirati direttamente dall’ambiente.

L’importanza di sequenziare sia l’rRNA non codificante che i geni codificanti le proteine sta crescendo, con un interesse specifico nella ricostruzione dei genomi batterici. Un campionamento completo di tutti i geni di tutti gli organismi esistenti in un campione complesso è ottenibile tramite il sequenziamento metagenomico shotgun. Utilizzando questo metodo è possibile valutare la diversità batterica e rilevare l’abbondanza di microrganismi in un ambiente specifico. Inoltre, permette la ricostituzione di genomi completi di microrganismi incoltivabili. Oltre alla scoperta di nuove specie archaea, batteriche, protozoiche, algali, fungine ed eucariotiche, questa tecnica è fondamentale per la ricostruzione dei genomi virali. Questo è stato un progresso critico tenendo conto che i virus non hanno un marcatore filogenetico universale condiviso come il 16S rRNA batterico o il 18S rRNA eucariotico.

Un altro approccio è quello del metatrascrittoma che invece di utilizzare il DNA genomico (gDNA) prevede la raccolta dell’intera comunità di RNA. Quest’ultimo viene utilizzato per costruire librerie di cDNA che vengono sequenziate. Anche se l’RNA è meno stabile del DNA, fornisce un’istantanea dello stato attuale della comunità rivelando i geni up e down regolati. Ad oggi, uno dei più importanti studi sul metatrascrittoma viene eseguito per le comunità di acqua marina.

Genomica delle singole cellule

Il sequenziamento metagenomico è uno strumento utile per comprendere le comunità ambientali. Tuttavia, l’assemblaggio di cataloghi di geni e genomi compositi può essere impegnativo. Inoltre, è difficile distinguere tra i geni che provengono dallo stesso organismo o da organismi diversi nei genomi già assemblati (Fig. 3). Pertanto, c’è un notevole interesse nello sviluppo di un sistema per comprendere l’organizzazione dei geni e dei percorsi scoperti all’interno dei genomi

Fig.3. Metagenomica vs genomica delle singole cellule

La sfida dell’eterogeneità del campione potrebbe essere parzialmente risolta utilizzando due tecniche – scaling-up e deep-sequencing. Sono necessari diversi approcci per confrontare i campioni metagenomici raccolti da diversi ambienti e per rivelare la composizione e l’organizzazione dei genomi dei microrganismi nell’ambiente. Uno degli approcci è quello di arricchire la cultura di uno specifico organismo in base alle sue specifiche funzioni ambientali. Questo tipo di approccio mirato-metagenomico permette lo sviluppo di genomi microbici compositi. In aggiunta all’incoltivabilità di molti organismi, altri problemi si verificano quando i microrganismi a crescita più rapida superano quelli più lenti, introducendo successivamente ulteriori distorsioni.

Quindi, invece di coltivare, un campione complesso può essere arricchito per una popolazione di cellule target utilizzando la selezione cellulare attivata dalla fluorescenza (FACS). L’utilizzo di questo approccio aiuta a ordinare le cellule sulla base della loro forma, dimensione e densità. In alternativa, specifici organismi di interesse possono essere arricchiti trattando un piccolo numero di cellule che possiedono una funzione specifica nell’ambiente. Con lo sviluppo di tecniche di amplificazione dell’intero genoma (WGA) (per esempio, amplificazione a spostamento multiplo (MDA) o amplificazione a cerchio rotante (RCA)), il gDNA di un numero limitato di cellule può essere amplificato e sequenziato. Tuttavia, le tecniche WGA creano deviazioni potenziali perché l’abbondanza di sequenze specifiche varia e quindi non sono amplificate allo stesso modo. Quindi, l’amplificazione del gDNA di popolazioni definite con un numero limitato di cellule compromette l’analisi quantitativa della metagenomica.

Gli ultimi progressi nelle tecniche di amplificazione del singolo genoma permettono la SCG utilizzando la separazione fisica delle cellule (di solito tramite FACS su piastre a 96 pozzetti), la lisi delle cellule e la WGA. Un genoma amplificato da una singola cellula può quindi essere sequenziato. Mentre la metagenomica si realizza raccogliendo la comunità di microrganismi ed estraendo e sequenziando il DNA totale, la SCG separa e studia le singole cellule dalla comunità di microrganismi. I dati di sequenziamento ottenuti forniscono informazioni quantitative sulla variabilità genomica nelle popolazioni di microrganismi. Inserzioni geniche, delezioni, duplicazioni e riarrangiamenti del genoma possono essere studiati a livello di singola cellula. In questo modo i complessi percorsi metabolici possono essere analizzati per una singola cellula.

Isolamento e processamento di singole cellule

Lo studio del genoma e della sua regolazione a livello di popolazione viene fatto analizzando milioni di cellule in una sola volta. Tuttavia, tali indagini non permettono una visione dell’eterogeneità nei sistemi biologici, né caratterizzano lo stato attuale della popolazione. Ecco perché la SCG sta guadagnando sempre più popolarità per studiare sia i microrganismi coltivabili che soprattutto quelli incoltivabili. Il processo per ottenere, moltiplicare e sequenziare il materiale genetico da cellule vive o morte è relativamente semplice. Prima la cellula deve essere isolata e lisata e poi il materiale genetico rilasciato viene amplificato e la biblioteca genomica può essere costruita.

Uno degli approcci per l’isolamento di singole cellule è la micromanipolazione. Le cellule di interesse sono identificate, isolate ed esaminate al microscopio. Le cellule adatte sono isolate usando una micropipetta, una fonte laser, una pinzetta ottica o un flusso microfluidico in tempo reale. Utilizzando la microfluidica, è possibile selezionare un fenotipo desiderato correlato a un genoma specifico. Inoltre, le cellule possono essere facilmente osservate prima della cattura.

Un altro approccio è l’incapsulamento casuale. Le cellule sono selezionate in modo casuale tramite diluizione seriale. Il campione diluito può quindi essere trasferito in micropozzetti, o le cellule possono essere incapsulate da microgocce. Usando questa tecnica, le singole cellule possono essere separate, processate e sottoposte ad analisi genomica.

La citometria a flusso è la procedura più popolare di incapsulamento casuale. La FACS permette l’isolamento di cellule che possiedono criteri specifici, come la dimensione, la forma, il colore, o anche la presenza di specifici acidi nucleici o attività, utilizzando coloranti fluorescenti (Fig. 4). Uno dei principali vantaggi della FACS è il suo alto rendimento, l’alta velocità di smistamento e la capacità di distinguere le cellule vive. Inoltre, la FACS può rilevare la presenza di cellule in una goccia, respingere le goccioline vuote, e trasferire le cellule con le proprietà desiderate in piastre multiwell / microtiter. Poi le cellule possono essere lisate e i genomi possono essere amplificati in singoli pozzetti.

Un’altra possibilità per l’isolamento di singole cellule è la tecnologia delle microgocce (Fig. 4). Le microgocce sono l’emulsione formata quando le cellule in fase acquosa sono mescolate vigorosamente con l’olio. Le goccioline di olio incapsulano le cellule nella fase acquosa. Originariamente, si pensava che la PCR eseguita su un’emulsione fosse molto più specifica dell’analisi delle cellule nella sola fase acquosa. Si suggeriva che le rese dei prodotti di reazione fossero maggiori e che si formassero meno sottoprodotti chimerici. Inoltre, le goccioline formate racchiudevano un numero limitato di molecole templato (idealmente solo una). Gli ultimi sviluppi della microfluidica permettono di controllare le dimensioni delle gocce (nanolitri o addirittura picolitri), fornendo gocce acquose uniformi (monodisperse) in olio. Uno dei principali vantaggi del sistema bifase di microgocce rispetto la FACS è la possibilità di gestire singole cellule come unità separate. Ogni gocciolina agisce come un pozzo indipendente in cui le cellule possono essere coltivate e successivamente esaminate per i prodotti espressi. Il gDNA rilasciato può essere efficacemente amplificato in microprovette e utilizzato per il sequenziamento e la preparazione della biblioteca. Le cellule di batteri, lieviti, piante, insetti e mammiferi possono essere facilmente studiate usando la tecnologia delle microgocce su agarosio o altri microgel. Anche gli organismi multicellulari possono essere incapsulati e coltivati in una goccia. Ipoteticamente, è possibile misurare qualsiasi molecola secreta per la quale esiste un ligando marcato con fluorescenza. Inoltre, le attività di varie proteine cellulari possono essere monitorate.

Fig. 4. Tecniche di isolamento di singole cellule

Approcci per lo studio di varie cellule

Le cellule viventi possono essere generalmente classificate in batteri, archea ed eucarioti. Anche se i virus non sono considerati “viventi”, costituiscono una parte importante degli studi sulle scienze della vita. Esistono varie analisi su singole cellule che sono adatte a diversi organismi.

I virus sono presenti praticamente in ogni ambiente. Sono le entità biologiche più abbondanti e diverse. Tuttavia, per isolare un singolo virus e sequenziare il suo genoma, si deve prima stabilire un sistema coltivabile virus-ospite adatto. Per esempio, le alghe eucariotiche ospitano un’incredibile diversità di virus. Tuttavia, utilizzando sia la FACS che sistemi a goccia singola, i virus possono teoricamente essere isolati senza dipendere dal sistema virus-ospite.

Archaea e batteri hanno una struttura cellulare simile. Solo le differenze nella composizione e nell’organizzazione delle cellule distinguono questi due domini. Le cellule batteriche sono ordinariamente 0,5-5,0 μm di diametro, mentre gli archaea possono essere più grandi e raggiungere i 15 μm di diametro. Fondamentalmente, tutti i metodi descritti sopra possono essere utilizzati per separare ed elaborare singole cellule di archea e batteri. Tuttavia, durante la FACS le alte correnti possono rallentare la crescita di questi organismi.

Gli eucarioti si differenziano dagli altri domini della vita per il loro nucleo legato alla membrana e gli organelli legati alla membrana. Possono essere organismi multicellulari o unicellulari. Le dimensioni delle cellule variano tipicamente da circa 10-100 μm o sono dieci volte più grandi dei batteri. La diluizione, la FACS e il droplet sorting sono tutti metodi appropriati per l’isolamento delle cellule eucariotiche.

Anche gli organismi multicellulari possono teoricamente essere isolati e trattati con vari metodi. La FACS, per esempio, può facilmente smistare gli organismi multicellulari. Se incubati in goccioline per un tempo sufficiente, gli organismi unicellulari possono sintetizzare una proteina o un ligando e avere l’opportunità di moltiplicarsi, creando potenzialmente una struttura multicellulare.

Gli studi molecolari del nostro ambiente e dell’ecologia acquisiscono sempre più conoscenze per le comunità viventi. Con lo sviluppo di strumenti molecolari, specialmente le macchine di sequenziamento, è diventato possibile sequenziare intere comunità da ambienti selezionati. I recenti progressi nelle tecnologie a singola cellula facilitano l’isolamento e l’amplificazione del materiale genomico da singole cellule e permettono la strutturazione di numerose librerie basate sulla sequenza. Inoltre, i dati ottenuti dalla SCG integrano i dati ottenuti dalla metagenomica.

Approcci Omici in Biotecnologie Industriali e Ingegneria dei Bioprocessi

La biotecnologia utilizza processi, organismi o sistemi biologici per generare prodotti e tecnologie che stanno migliorando la vita umana. L’uso di sistemi biologici per produrre bioprodotti di importanza commerciale è una componente chiave dell’industria biotecnologica. Questo approccio biotecnologico ha trovato applicazione in diversi settori: energia, materiali, farmaceutico, alimentare, agricolo e cosmetico. I bioprodotti ottenuti dai processi di bioproduzione sono di solito metaboliti e proteine, ottenuti da cellule, tessuti e organi. I sistemi biologici che sintetizzano questi bioprodotti possono essere naturali o modificati da ingegneria genetica, ingegneria metabolica, biologia sintetica e ingegneria proteica. Le tecnologie “Omiche” hanno una grande importanza per la biotecnologia e l’ingegneria metabolica, aiutando a caratterizzare e comprendere le reti metaboliche. La quantità significativa di conoscenze acquisite dagli esperimenti guidati dall’omica può essere applicata nello sviluppo di strumenti biotecnologici e nel progresso dell’ingegneria metabolica. Questo permette la manipolazione di sistemi biologici complessi verso la creazione di robuste strategie industriali di bioproduzione.

Biotecnologie guidate dall’Omica

Gli strumenti “Omici” sono sempre più utilizzati nello sviluppo dei processi biotecnologici e nella produzione di molti prodotti vitali. L’applicazione delle tecnologie “omiche” nella caratterizzazione e nella comprensione dei sistemi biologici ha permesso di selezionare e prevedere i fenotipi, il che facilita l’ottimizzazione dei processi biotecnologici verso una migliore produzione (in qualità e quantità) di prodotti commercialmente rilevanti (figura 5).

Fig. 5. Strumenti Omici nelle Biotecnologie

Produzione di biocarburanti e bioprodotti

La produzione microbica di composti naturali rappresenta un’alternativa attraente e più sostenibile alla petrolchimica tradizionale. La sua implementazione ha portato a un catalogo crescente di prodotti naturali e chimici di alto valore. Per esempio, l’uso della biomassa lignocellulosica rappresenta un approccio economico per generare biocarburanti e bioprodotti. Tuttavia, per ottenere una conversione stabile della materia prima a basso costo in prodotti a valore aggiunto a livello industriale, sono necessari piani di ingegneria sistematici. Il ciclo Design-Build-Test-Learn (DBTL) sta diventando un approccio sempre più implementato per gli esperimenti di ingegneria metabolica. Rappresenta uno strumento sistematico ed efficace per forzare gli sforzi di sviluppo nei biocarburanti e nei prodotti a base biologica. Il ciclo DBTL utilizza un approccio in silico per progettare e costruire costrutti genetici in ospiti microbici. Successivamente, le informazioni ottenute dalle tecnologie “Omiche”, durante la fase di test del ciclo, vengono trasferite ai processi di apprendimento (Figura 6). Ciò che viene appreso viene poi reimmesso in nuovi cicli di progettazione per ottenere un ulteriore sviluppo e ottimizzazione dei ceppi. Così, una rapida ottimizzazione dei ceppi microbici produttori di qualsiasi composto chimico di interesse è facilitata. Il punto più debole nel flusso di lavoro del ciclo DBTL è il processo di apprendimento, poiché i modelli matematici sono buoni solo quanto i loro presupposti. Pertanto, sono necessari set di dati “Omici” di alta qualità e di grandi dimensioni per migliorare i modelli di formazione, garantendo una maggiore precisione e affidabilità del processo di Apprendimento.

Fig. 6. Ciclo DBTL per l’ottimizzazione dei biocarburanti e dei prodotti a base bio

Spesso nel ciclo DBTL le informazioni sulla sequenza genomica sono l’approccio tradizionale utilizzato nelle fasi iniziali di uno studio. Per esempio, il sequenziamento del codice a barre (Bar-seq) (un metodo che utilizza una breve sezione di DNA di uno o più geni specifici) può essere utilizzato per studiare le dinamiche di popolazione delle librerie di delezione di Saccharomyces cerevisiae durante la coltivazione in bioreattore, permettendo l’identificazione dei fattori che hanno un impatto sulla diversità di un pool di mutanti. L’approccio guidato dal sequenziamento di singole cellule può essere usato per identificare i promotori mutati chiave per regolare i livelli di espressione, facilitando così la regolazione dinamica della crescita microbica. Gli approcci guidati dalla proteomica sono stati impiegati per progettare piattaforme di biosintesi dei policheti per la produzione in vitro di acido adipico nel lievito. Inoltre, la metabolomica permette la valutazione del flusso del percorso, l’utilizzo della fonte di carbonio e lo squilibrio dei cofattori, che contribuiscono tutti all’identificazione dei colli di bottiglia del percorso. Tale approccio guidato dalla metabolomica è già utilizzato per la caratterizzazione della produzione di cannabinoidi in S. cerevisiae ingegnerizzato. Sono stati identificati analoghi dei cannabinoidi prodotti da diversi geni di vie promiscue. Inoltre, l’applicazione della metabolomica ha aiutato la progettazione e l’ottimizzazione di una nuova via metabolica di isopentenil difosfato-non mevalonato in E. coli per la produzione di alcol C5. Recentemente, alcuni autori hanno utilizzato il ciclo DBTL per ingegnerizzare Rhodosporidium toruloides, una specie di lievito oleaginoso che cresce su materiali lignocellulosici e produce il diterpene ent-kaurene, un potenziale terapeutico, che mostra effetti antimicrobici, antinfiammatori, cardiovascolari, diuretici, anti-HIV, e citotossici.

Biotecnologie agricole e alimentari

Le recenti innovazioni nella biotecnologia agricola hanno portato a nuove varietà di piante, ingegnerizzate dalla tecnologia del DNA ricombinante e che rispondono meglio alle richieste del mercato e alle sfide ambientali. Infatti, gli strumenti “Omici” nella biotecnologia agricola sono stati utilizzati per migliorare le caratteristiche fenotipiche desiderabili (ad esempio, colore, gusto, tolleranza alla siccità, resistenza ai pesticidi, ecc.) L’”Omica” gioca un ruolo non solo nel migliorare la qualità, la consistenza e la produttività delle colture, ma anche nello sviluppo di colture alimentari con una migliore composizione nutrizionale. Inoltre, la biologia dei sistemi guidata dall’omica aiuta a capire le interazioni tra gli “OMI” e a fornire collegamenti tra i geni e le caratteristiche specifiche.

Nei terreni arabili il suolo è più suscettibile alla perdita di struttura, di materia organica, di minerali e all’erosione. Pertanto, si sta cercando, attraverso la biotecnologia agricola, di fornire un apporto costante di nutrienti essenziali per la crescita delle colture. Una parte integrante di questo approccio è l’uso di biofertilizzanti. Si tratta di preparati contenenti inoculanti microbici specializzati che possono fissare, mobilizzare, solubilizzare o decomporre le fonti di nutrienti. I biofertilizzanti sono generalmente applicati attraverso le sementi o il terreno e migliorano l’assorbimento dei nutrienti da parte delle piante. L’applicazione diffusa di questo approccio, tuttavia, è stata ostacolata da risposte fluttuanti degli inoculanti microbici nei campi e nelle colture. Di conseguenza, c’è un bisogno pressante di comprendere meglio i meccanismi alla base delle interdipendenze tra le comunità microbiche del suolo e la produttività della pianta ospite. Recenti studi di genomica ed eso-metabolomica hanno dimostrato che specifici batteri della rizosfera hanno una preferenza naturale per alcuni acidi organici aromatici trasudati dalle piante. Questo fatto ha suggerito che le caratteristiche di essudazione delle piante e i tratti di assorbimento del substrato microbico interagiscono e formano modelli specifici di assemblaggio della comunità microbica. Inoltre, l’applicazione della genomica e della trascrittomica allo studio dell’assorbimento dei fosfati da parte di varie microalghe ha rivelato una serie di trasportatori di Pi con modelli di espressione specifici in relazione alla disponibilità di P. Attualmente, gli approcci “omici” vengono utilizzati per studiare le complesse intercomunicazioni rizosferiche, che sono cruciali per lo sviluppo di nuovi biofertilizzanti, promuovendo così una crescita stabile delle piante, una migliore produttività e resa delle colture.

Nel campo correlato della biotecnologia alimentare, l’applicazione della trascrittomica e della metabolomica ha dimostrato che il Bacillus pumilus LZP02 promuove la crescita delle radici del riso migliorando il metabolismo dei carboidrati e la biosintesi dei fenilpropanoidi. Inoltre, l’applicazione delle “omiche” nella bioingegneria dell’amido fornisce una migliore comprensione degli enzimi più importanti per la sua biosintesi. Questo facilita la previsione su come i fenotipi legati all’amido possono essere modificati e assicura ulteriori progressi nel campo della ricerca della biotecnologia dell’amido di riso. L’”Omica” aiuta anche a risolvere le questioni relative alla qualità e alla tracciabilità del cibo, a proteggere l’origine del cibo e a scoprire biomarcatori di potenziali problemi di sicurezza alimentare. L’indagine avanzata del microbioma del vino ha una grande influenza sull’industria del vino, aiutando a comprendere meglio i fattori che trasformano l’uva in vino, compresi il sapore e l’aroma. La caratterizzazione “omica” delle complesse relazioni tra questi microrganismi, il substrato e l’ambiente è essenziale per modellare la produzione del vino. Infine, la combinazione delle tecnologie “omiche” con l’editing del genoma dei microrganismi alimentari può essere sfruttata per generare ceppi probiotici migliori, sviluppare bioterapie innovative e alterare la struttura della comunità microbica nelle matrici alimentari.

Tecnologie “OMICHE” e COVID-19

La malattia da coronavirus 2019 (COVID-19) è caratterizzata dal coronavirus 2 della sindrome respiratoria acuta grave [cioè SARS-CoV-2, che si lega al recettore ACE2 nel polmone e in altri organi]. A causa della sua diffusione mondiale è stata annunciata una pandemia globale e gran parte dell’economia mondiale è stata rallentata. Fino ad aprile 2021 ci sono stati più di 138 milioni di casi confermati e 2,5 milioni di morti confermate a livello globale (https://www.worldometers.info/coronavirus/). Quindi, c’è un urgente bisogno di una contromisura efficace per mitigare la diffusione della pandemia.

Pertanto, sono in corso sforzi per accelerare lo sviluppo e la produzione di vaccini sicuri ed efficaci contro la SARS-CoV-2. La conoscenza precedente della SARS e della sindrome respiratoria del Medio Oriente (MERS) ha facilitato l’individuazione della proteina spike come antigene virale (attraverso il recettore ACE2). Inoltre, il sequenziamento del genoma della SARS-CoV-2 nel gennaio 2020 ha permesso di accelerare lo sviluppo di piattaforme di mRNA e vaccini di nuova generazione che codificano per l’antigene. Una volta iniettato in un ospite, l’mRNA, incapsulato in nano-particelle lipidiche, rimane nel citoplasma. Quando viene usato il DNA, incapsulato in un vettore adenovirus attenuato, entra nel nucleo. La cellula ospite traduce questo materiale genetico nella proteina spike. Essa si deposita sulla superficie della cellula e provoca una risposta immunitaria adattativa mediata da cellule T (per esempio, CD4+ e CD8+) e cellule B (cioè, anticorpi). Questi vaccini sono stati segnalati come efficaci contro la SARS-CoV-2 in recenti studi clinici, il che sottolinea l’importanza della genomica per questa nuova era di sviluppo dei vaccini.

Dall’inizio dell’epidemia di SARS-CoV-2 è stata creata una mappa delle interazioni proteiche e utilizzando un approccio basato sulla proteomica sono stati rivelati obiettivi per la riformulazione dei farmaci. Applicando l’analisi proteomica, 26 delle 29 proteine SARS-CoV-2 sono state clonate, marcate per affinità ed espresse in cellule umane e le proteine associate sono state identificate. Un totale di 66 proteine umane o fattori dell’ospite sono stati scoperti come potenziali bersagli farmacologici di 69 composti. Due serie di questi agenti farmacologici hanno mostrato attività antivirale. Inoltre, sono stati eseguiti studi di immuno-proteomica computazionale per supportare le indagini di laboratorio e consentire la valutazione della specificità dei prodotti diagnostici, la previsione dei potenziali effetti avversi dei vaccini e la riduzione dell’utilizzo di modelli animali.

Inoltre, recentemente è stato sviluppato un metodo basato sulla metabolomica che è in grado di distinguere i pazienti COVID-19 dai controlli sani attraverso l’analisi di 10 metaboliti del plasma. Inoltre, i dati dello studio lipidomico suggeriscono che gli esosomi arricchiti di monosialodihexosyl ganglioside potrebbero essere coinvolti nei processi patologici. Le indagini di proteomica e metabolomica nei sieri dei pazienti COVID-19 hanno rivelato che l’infezione da SARS-CoV-2 causa la disregolazione metabolica dei macrofagi e del metabolismo dei lipidi, la degranulazione delle piastrine, le vie del sistema del complemento e la soppressione metabolica massiva. L’analisi delle firme metabolomiche del plasma ha mostrato un profilo simile a quello descritto per la sindrome da sepsi. Inoltre, i risultati della trascrittomica hanno mostrato l’up-regolatione dei geni legati alla fosforilazione ossidativa sia nei leucociti mononucleati periferici che nel liquido di lavaggio bronco alveolare. Tutte queste informazioni suggeriscono un ruolo critico dell’attività mitocondriale durante l’infezione da SARS-CoV-2. La comprensione della presentazione clinica della COVID-19 e dei profili metabolomici, proteomici e genetici potrebbe aiutare a scoprire specifici biomarcatori diagnostici, prognostici e predittivi, garantendo lo sviluppo di una terapia medica di maggior successo. Inoltre, la differenziazione dei biomarcatori metabolici degli stati di malattia gravi o lievi nel polmone durante le infezioni respiratorie potrebbe portare alla scoperta di nuove terapie che modulano la gravità dei sintomi e della malattia.

Ricerca nutri-omica

È passato più di un decennio da quando è stata introdotta l’idea della nutrigenomica. La nutrigenomica, detta anche genomica nutrizionale, omica nutrizionale o nutri-omica, può essere definita come un’area di ricerca alimentare e nutrizionale che si avvale di analisi profonde delle molecole o di altri fenomeni fisici.

Considerando la complessità del corpo umano e le sue varie interazioni con il cibo, è concepibile che le analisi olistiche delle interazioni cibo-corpo siano un importante prerequisito per comprendere meglio l’effetto dei componenti della dieta. Il presupposto principale è che la combinazione di diverse piattaforme omiche fornirà una visione più profonda dell’influenza dei componenti alimentari e del meccanismo delle loro azioni.

Genomica e nutrizione

I geni umani hanno diverse varianti nella popolazione. Tenendo presente che la risposta alla nutrizione è un processo multigenico, non è sorprendente che individui non imparentati possano rispondere in modo diverso. L’ipotesi chiave proposta negli ultimi anni afferma che la variazione genetica è alla base della variazione dei disturbi legati alla nutrizione e del rischio di malattia. In effetti, la nutrigenetica cerca di spiegare come e in che misura i tratti e i disturbi legati alla nutrizione siano influenzati dalla variazione genetica. In altre parole, le domande chiave della nutrigenetica sono:

  • Quali geni sono coinvolti nel determinare una determinata caratteristica?
  • Qual è l’identità funzionale della variazione per cui le persone differiscono per questa caratteristica?
  • Come si può utilizzare questa conoscenza a beneficio della popolazione?

Di solito, i ricercatori definiscono “geni candidati” per una caratteristica o un disturbo e cercano la variazione in questi geni. Questo è descritto come l’approccio “guidato dall’ipotesi” perché la selezione dei geni è basata sulla loro presunta funzione. Per esempio, i geni per le lipoproteine sono usati come candidati per l’obesità e i geni per la segnalazione dell’insulina – come candidati per il diabete. Altri candidati interessanti nell’uomo sono i geni ortologhi alla base di modelli animali con una segregazione mendeliana di una caratteristica. Un esempio ben noto è il topo db/db. Si tratta di un modello di diabete in cui è stato identificato il gene per il recettore della leptina. L’omologo umano è stato poi testato in persone con un’alterata tolleranza al glucosio. Una variante (allele) del gene è stata identificata ed è stato dimostrato che era associata ad una frequenza significativamente più alta di insorgenza del diabete rispetto alla popolazione generale.

Altri metodi applicati sono legati allo studio della segregazione preferenziale di un allele dai genitori a un figlio affetto (test di disequilibrio di trasmissione) o a più fratelli affetti (analisi delle coppie di fratelli). Se si scopre che un gene è legato alla caratteristica, resta da dimostrare se l’allele associato o collegato è esso stesso il fattore di rischio, o se potrebbe essere usato solo come marcatore di una variazione causale vicina. Se la variazione genetica è legata ad una variazione di aminoacidi nella proteina, potrebbe essere sviluppato un test funzionale e le proteine alleliche potrebbero essere confrontate per la loro attività enzimatica, affinità di legame al DNA, ecc.

Un altro approccio per la ricerca di geni che conferiscono rischio per una certa caratteristica o disturbo è la scansione totale del genoma. Centinaia di polimorfismi sono rilevati con una distribuzione casuale in tutto il genoma, ma con una posizione cromosomica nota. Per ogni sito polimorfico viene poi identificato se esiste un’associazione tra l’allele e la caratteristica. Usando questo approccio i loci di rischio possono essere identificati per molti disturbi umani legati alla nutrizione come l’obesità e il diabete.

Dopo la seconda guerra mondiale in molti paesi occidentali, è stato osservato che l’incidenza della spina bifida è gradualmente diminuita. Fu suggerito che il miglioramento della dieta aveva portato a questo effetto. Fu iniziato un grande studio epidemiologico. I risultati ottenuti hanno mostrato che l’arricchimento della dieta con vitamine era in grado di prevenire l’insorgenza e la ricorrenza della spina bifida negli esseri umani con più del 50%. L’acido folico è stato scoperto essere il principio attivo e ora in molti paesi l’integrazione pre-concezionale di acido folico è raccomandata come misura preventiva generale. Contemporaneamente, è diventato chiaro che riguardo al rischio per un bambino con la spina bifida, le donne nella popolazione possono essere approssimativamente divise in tre gruppi: [i] non a rischio anche con un basso apporto di folati, [b] a rischio con un basso apporto di folati nella dieta, ma può essere aiutato da un maggiore apporto di folati, e [c] a rischio nonostante l’assunzione extra di folati. La predisposizione genetica era presunta, e i geni candidati presi dal metabolismo dei folati sono stati esaminati per la variazione genetica. Questo ha portato all’individuazione degli alleli 667C->T e 1298A->C nel gene per la metilenetetraidrofolato reduttasi (MTHFR) come fattori di rischio. Tuttavia, questi alleli di rischio sono stati trovati in una certa misura in tutti e tre i gruppi di donne dimotrando che il test genetico nel contesto di una dieta personalizzata sarebbe inadeguato. Inoltre, è diventato chiaro che non tutto il rischio relativo potrebbe essere spiegato da questi alleli. Pertanto, la ricerca di variazioni genetiche in altri geni continua e nuovi geni candidati possono essere trovati.

Attualmente, diverse centinaia di geni legati a caratteristiche e disturbi specifici legati alla nutrizione sono già stati identificati tramite esperimenti genetici in varie popolazioni e l’indagine di sistemi di modelli animali e in vitro. Infine, la ricerca nutrigenomica e nutrigenetica dovrebbe portare alla comprensione completa dell’eziologia di queste caratteristiche e disturbi rispetto ai geni che interagiscono, ai componenti della dieta e al rischio relativo trasmesso sia dalla variazione genetica che dalla dieta. Questa conoscenza combinata permetterà il profilo genetico di ogni individuo e quindi valutare il suo rischio di sviluppare disturbi legati alla nutrizione. Sulla base di questo profilo di rischio personale di fattori genetici, potrebbe essere proposta una “dieta personalizzata” con la quale l’insorgenza di un disturbo potrebbe essere prevenuta o almeno ritardata. Già alcune aziende offrono test genetici per alleli che sono stati trovati associati a certe caratteristiche. Per esempio, l’allele ApoE viene testato come fattore di rischio per i disturbi cardiovascolari e un allele del gene dell’alcol deidrogenasi viene utilizzato per prevedere la potenziale sensibilità e (ab)uso di alcol. Tuttavia, è importante notare che la presenza di un certo allele può aumentare il rischio per un disturbo del 100%, mentre in termini assoluti il rischio sarebbe di solito ancora molto piccolo come un aumento da 0,001 a 0,002. Inoltre, testare solo un fattore genetico potrebbe dare una visione incompleta o addirittura errata della situazione. Al giorno d’oggi, non abbiamo idea di tutti i fattori genetici e di come interagiscano. Finché non si raccolgono più informazioni, i consigli basati su semplici test devono probabilmente rimanere semplici, come “bere meno alcol” o “mangiare meno grassi saturi”.

Trascriptomica e nutrizione

La trascrittomica è la più utilizzata nella ricerca alimentare a causa dei molti vantaggi della tecnologia microarray del DNA, tra cui la completezza dei dati di espressione, i protocolli stabiliti e l’alta affidabilità e riproducibilità dei dati. Sono state anche riportate le alterazioni dell’espressione genica globale in risposta a diversi cambiamenti nella dieta, come la carenza nutrizionale, il digiuno, la sovralimentazione e l’ingestione di fattori alimentari specifici. Come esempio dei tentativi effettuati per acquisire dati di riferimento, è stata eseguita un’analisi del trascrittoma del fegato di ratti trattati con una lieve restrizione calorica. Utilizzando esperimenti su animali, è stato dimostrato che una modesta riduzione dell’assunzione di cibo o un modello di assunzione alterato potrebbe essere sufficiente per il verificarsi di cambiamenti metabolici significativi. Pertanto, è importante distinguere tra gli effetti diretti della componente alimentare e gli effetti secondari causati dal cambiamento del comportamento alimentare. Quando i ratti sono stati alimentati con una dieta con 5 a 30% in meno di cibo rispetto a quello consumato da un gruppo alimentato-ad libitum per 1 settimana o 1 mese è stata osservata una restrizione – cambiamenti dipendenti nel livello di espressione di cyp4a14. Infatti, il gene cyp4a14 è stato indotto anche da un basso livello di restrizione calorica. Questi dati suggeriscono che il gene può essere utilizzato come un biomarcatore per gli effetti benefici del cibo sul metabolismo energetico.

Proteomica e nutrizione

Molti studi di ricerca su cibo e nutrizione sono stati condotti utilizzando approcci proteomici. Per esempio, l’effetto della lieve restrizione calorica descritta sopra è stato esaminato anche dalla proteomica. Nove proteine significativamente up-regolate e nove proteine down-regolate sono state rilevate dopo il confronto del proteoma del fegato di ratti trattati con 30% di restrizione alimentare con quelli di controllo. La restrizione del 10% ha causato l’up-regolazione di 9 proteine e la down-regolazione di 2 proteine. Una scoperta interessante è stata l’up-regolazione della proibitina, il cui coinvolgimento nella regolazione della longevità è stato recentemente rivelato. Questo risultato suggerisce che la proibitina può essere applicata come un efficace biomarcatore degli effetti benefici dei fattori alimentari. Anche se la fase attuale della ricerca proteomica è molto meno estesa rispetto a quella della trascrittomica, lo studio qui descritto insieme ad altri risultati della ricerca proteomica nutrizionale indica che la proteomica è uno strumento molto promettente per la scoperta di biomarcatori.

Matabolomica e nutrizione

Circa diecimila tipi diversi di metaboliti principali esistono nei corpi animali, mentre si pensa che il numero di proteine superi i 100.000. Questa caratteristica dei metaboliti dovrebbe portare a caratteristiche più complete dell’analisi metabolomica rispetto a quelle proteomiche. Tuttavia, l’analisi dei metaboliti è in realtà irta di difficoltà e di solito richiede l’uso di tecniche sofisticate e personale con alto livello di competenza. Un’altra difficoltà deriva dalla vastità dell’abbondanza dei metaboliti. Indipendentemente da questi ostacoli, la metabolomica è un potente strumento nella scienza dell’alimentazione e della nutrizione.

Molte indagini hanno dimostrato che il metabolismo dell’intestino e del siero è influenzato dal cambiamento della composizione del microbioma intestinale. Il microbioma intestinale e la sua variaziane in relazione alla dieta sono essenziali quando si valutano le prove di intervento dietetico con effetti finali metabolomici. Il confronto tra topi privi di germi colonizzati dalla flora infantile umana e topi convenzionali ha mostrato la complessità della covariazione microbioma/metaboloma modificabile dalla dieta. In questo studio è stato studiato l’effetto del microbioma intestinale sui metaboliti del plasma. I dati hanno rivelato che più del 10% del metaboloma del plasma dipende direttamente dal microbioma. Alcuni esempi di composti dipendenti dal microbioma nel plasma includono l’acido cinammico, i composti coniugati della glicina, l’acido ippurico e altri metaboliti plasmatici. Il microbioma intestinale influenza anche direttamente la capacità dell’ospite di metabolizzare i lipidi, i carboidrati e le proteine, e può effettuare diverse reazioni di disintossicazione di fase II. Ci sono anche prove che i microrganismi intestinali utilizzano sostanze fitochimiche non nutritive. Per esempio, diverse indagini hanno dimostrato che i livelli di tre metaboliti derivati dalla dieta e dipendenti dal microbioma, colina, trimetilammina N-ossido e betaina, potrebbero predire il rischio di malattie cardiovascolari nei topi.

Nutrizione e altre OMICHE

Molte altre piattaforme omiche sono anche oggetto della ricerca nutriomica. È stato dimostrato che l’alterazione epigenetica potrebbe essere causata dalla dieta alimentare durante lo sviluppo fetale e potrebbe influenzare la predisposizione alle malattie legate allo stile di vita in età avanzata. Per esempio, i figli di madri che hanno sofferto di iper o denutrizione durante la gravidanza hanno un rischio maggiore di sviluppare obesità, diabete, ipertensione, malattie cardiovascolari, ecc. Molti studi hanno dimostrato il coinvolgimento di modifiche epigenetiche in tale suscettibilità acquisita. Un altro bersaglio promettente degli approcci omici nella scienza dell’alimentazione è associato ai trascritti di RNA che non codificano proteine. I microRNA (miRNA) sono un sottotipo di questi RNA non codificanti. I precursori dei miRNA (pri-miRNA) sono prodotti lunghi che vengono scissi per produrre miRNA maturi di 22 nucleotidi di lunghezza. I miRNA maturi regolano i livelli di degradazione dell’mRNA, la traduzione dell’mRNA e anche la trascrizione del gene. Nel caso delle cellule umane, sono stati identificati circa 1.000 miRNA e si suppone che regolino l’espressione di più della metà dei geni codificanti le proteine. Considerando i dati che si stanno accumulando a sostegno del ruolo chiave dei miRNA nello sviluppo delle malattie e nel mantenimento della salute, l’informazione sullo stato dei miRNA è senza dubbio vitale per la comprensione dell’interazione tra i componenti alimentari e il corpo. L’analisi globale dei miRNA ora può essere facilmente eseguita con l’uso di array commerciali di miRNA.

Con l’introduzione di nuove tecnologie e le conoscenze acquisite, il numero di campi nell’omica e le loro applicazioni in vari settori sono in rapido aumento nell’era postgenomica. Questi campi emergenti – tra cui la farmacogenomica, la tossicogenomica, la regolomica, la spliceomica, la metagenomica e l’ambientomica – rappresentano soluzioni promettenti per combattere le sfide globali in biomedicina, agricoltura e ambiente.

Test: LO1-Livello avanzato

Name

Referenze

  • Amer B, Baidoo EEK. 2021. Omics-Driven Biotechnology for Industrial Applications. Frontiers Bioeng. Biotech., 9, Art. 613307: 1-19.
  • Azizipour N, Avazpour R, Rosenzweig DH, Sawan M, Ajji A. 2020. Evolution of Biochip Technology: A Review from Lab-on-a-Chip to Organ-on-a-Chip. Micromachines, 11: 599.
  • Canzler S, · Schor J, · Busch W, et al. · 2020. Prospects and challenges of multi omics data integration in toxicology. Archives of Toxicology, 94:371–388.
  • Horgan RP, Kenny LC. 2011. ‘Omic’ technologies: genomics, transcriptomics, proteomics and metabolomics. The Obstetrician & Gynaecologist, 13:189–195.
  • Joseph P. 2017. Transcriptomics in toxicology. Food Chem Toxicol., 109(1): 650–662.
  • Karahalil B. 2016. Overview of Systems Biology and Omics Technologies. Curr. Med. Chem., 23, 1-10.
  • Karczewski KJ, Snyder MP. 2018. Integrative omics for health and disease. Nat Rev Genet., 19(5): 299–310.
  • Kato H, Takahashi S, Saito K. 2011. Omics and Integrated Omics for the Promotion of Food and Nutrition Science. J. Trad. Complement. Medicine, 1 (1): 25-30.
  • Kim DH, Kim YS, Son NI, Kang CK, Kim AR. 2017. Recent omics technologies and their emerging applications for personalized medicine. IET Syst. Biol.,11 (3): 87-98.
  • Kodzius R, Gojobori T. 2016. Single-cell technologies in environmental omics. Gene 576: 701–707.
  • Mariman ECM. 2006. Nutrigenomics and nutrigenetics: the ‘omics’ revolution in nutritional science. Biotechnol Appl Biochem., 44(3):119-28.
  • Mousumi D, Prasad GBKS, Bisen PS. 2010. Omics technology. In: Molecular Diagnostics: Promises and Possibilities, Dordrech Heidelberg London, Springer, pp 11-31.
  • Ryan EP, Heuberger AL, Broeckling CD, Borresen EC, Tillotson C, Prenni JE. 2013. Advances in Nutritional Metabolomics. Current Metabolomics, 1: 109-120.
  • Sauer UG, Deferme L, Gribaldo L, et al. 2017. The challenge of the application of ‘omics technologies in chemicals risk assessment: Background and outlook. Regulatory Toxicology and Pharmacology, 91: S14 – S26
  • Simões T, Novais SC, Natal-da-Luz T, et al. 2018. An integrative omics approach to unravel toxicity mechanisms of environmental chemicals: effects of a formulated herbicide. Scientific Reports 8:11376
  • Titz B, Elamin A, Martin F, et al. 2014. Proteomics for systems toxicology. Computational and Structural Biotechnology Journal, 11: 73–90.
  • Vlaanderen J, Moore LE, Smith MT, et al. 2010. Application of Omics Technologies in Occupational and Environmental Health Research; Current Status and Projections. Occup Environ Med., 67(2): 136–143.
  • Yılmaz B, Yılmaz F. 2018. Lab-on-a-Chip Technology and Its Applications. In: Omics Technologies and Bio-engineering: Towards Improving Quality of Life, pp. 145, Elsevier Inc.
  • Amer B, Baidoo EEK. 2021. Omics-Driven Biotechnology for Industrial Applications. Frontiers Bioeng. Biotech., 9, Art. 613307: 1-19.
  • Azizipour N, Avazpour R, Rosenzweig DH, Sawan M, Ajji A. 2020. Evolution of Biochip Technology: A Review from Lab-on-a-Chip to Organ-on-a-Chip. Micromachines, 11: 599.
  • Canzler S, · Schor J, · Busch W, et al. · 2020. Prospects and challenges of multi omics data integration in toxicology. Archives of Toxicology, 94:371–388.
  • Horgan RP, Kenny LC. 2011. ‘Omic’ technologies: genomics, transcriptomics, proteomics and metabolomics. The Obstetrician & Gynaecologist, 13:189–195.
  • Joseph P. 2017. Transcriptomics in toxicology. Food Chem Toxicol., 109(1): 650–662.
  • Karahalil B. 2016. Overview of Systems Biology and Omics Technologies. Curr. Med. Chem., 23, 1-10.
  • Karczewski KJ, Snyder MP. 2018. Integrative omics for health and disease. Nat Rev Genet., 19(5): 299–310.
  • Kato H, Takahashi S, Saito K. 2011. Omics and Integrated Omics for the Promotion of Food and Nutrition Science. J. Trad. Complement. Medicine, 1 (1): 25-30.
  • Kim DH, Kim YS, Son NI, Kang CK, Kim AR. 2017. Recent omics technologies and their emerging applications for personalized medicine. IET Syst. Biol.,11 (3): 87-98.
  • Kodzius R, Gojobori T. 2016. Single-cell technologies in environmental omics. Gene 576: 701–707.
  • Mariman ECM. 2006. Nutrigenomics and nutrigenetics: the ‘omics’ revolution in nutritional science. Biotechnol Appl Biochem., 44(3):119-28.
  • Mousumi D, Prasad GBKS, Bisen PS. 2010. Omics technology. In: Molecular Diagnostics: Promises and Possibilities, Dordrech Heidelberg London, Springer, pp 11-31.
  • Ryan EP, Heuberger AL, Broeckling CD, Borresen EC, Tillotson C, Prenni JE. 2013. Advances in Nutritional Metabolomics. Current Metabolomics, 1: 109-120.
  • Sauer UG, Deferme L, Gribaldo L, et al. 2017. The challenge of the application of ‘omics technologies in chemicals risk assessment: Background and outlook. Regulatory Toxicology and Pharmacology, 91: S14 – S26
  • Simões T, Novais SC, Natal-da-Luz T, et al. 2018. An integrative omics approach to unravel toxicity mechanisms of environmental chemicals: effects of a formulated herbicide. Scientific Reports 8:11376
  • Titz B, Elamin A, Martin F, et al. 2014. Proteomics for systems toxicology. Computational and Structural Biotechnology Journal, 11: 73–90.
  • Vlaanderen J, Moore LE, Smith MT, et al. 2010. Application of Omics Technologies in Occupational and Environmental Health Research; Current Status and Projections. Occup Environ Med., 67(2): 136–143.
  • Yılmaz B, Yılmaz F. 2018. Lab-on-a-Chip Technology and Its Applications. In: Omics Technologies and Bio-engineering: Towards Improving Quality of Life, pp. 145, Elsevier Inc.