Systembiologie und Omics-Technologie
Basisniveau
In den letzten Jahrzehnten ist der rasante Fortschritt der Molekularbiologie und die Errungenschaften in diesem wissenschaftlichen Bereich direkt mit den Fortschritten in den Computerwissenschaften und der Entwicklung neuer Software-Tools verbunden.
Systembiologie und Omics-Technologien: Das große Bild
In den letzten Jahrzehnten ist der rasante Fortschritt der Molekularbiologie und die Errungenschaften in diesem wissenschaftlichen Bereich direkt mit den Fortschritten in den Computerwissenschaften und der Entwicklung neuer Software-Tools verbunden. Die Anwendung verschiedener omics-bezogener Technologien (Genomik, Epigenomik, Transkriptomik, Proteomik, Metabolomik usw.) führt zur Anhäufung vielseitiger biologischer Daten und ihre kombinierte Interpretation eröffnet den Wissenschaftlern neue Möglichkeiten, von der Untersuchung isolierter biologischer Moleküle zu einer umfassenden Analyse großer Mengen biologischer Moleküle überzugehen. Die biologischen Wissenschaften haben sich zu Big-Data-Wissenschaften entwickelt, die für die Lösung von Problemen im Zusammenhang mit der menschlichen Gesundheit und der Umwelt von wachsender Bedeutung sind. Die Herausforderungen von Big Data sind nicht nur ihre Größe, sondern auch ihre zunehmende Komplexität.
Systembiologie der Zelle: von Single- zu Multi-Omics-Experimenten Daten
Die Systembiologie hat sich als ein neues interdisziplinäres Studienfeld herauskristallisiert, das in den letzten Jahren eine enorme Aufmerksamkeit erlangt hat. Obwohl der Begriff „Systembiologie“ auf unterschiedliche Weise verwendet wurde, wird er im Allgemeinen so verstanden, dass er Forschung beschreibt, die Biologie mit scheinbar disparaten Disziplinen wie Physik, Biochemie, Ingenieurwesen, Biostatistik, Mathematik, Informatik, Bioinformatik und anderen verbindet. Der Hauptzweck dieses interdisziplinären Feldes ist es, eine hochgradig parallele Sicht auf die biologischen Systeme auf molekularer Ebene zu erhalten und zu verstehen, wie sie als Ganzes statt als Summe von Teilen funktionieren. Durch die Klärung der molekularen Mechanismen und Prozesse auf verschiedenen Systemebenen im Organismus oder einer Zelle kann vorhergesagt werden, wie sich diese Systeme im Laufe der Zeit und unter verschiedenen Bedingungen verändern. Die große Menge an Informationen, die man über die molekularen Grundlagen der Zellphysiologie und -organisation erhält, könnte Lösungen in Bezug auf Krankheiten, Toxizitäten, Therapien, Medikamentenentwicklung usw. liefern.
Die Systembiologie wurde als eigenständige Disziplin in den 1950er Jahren mit der Arbeit der Systemtheoretiker Mihajlo Mesarovic und Ludwig von Bertalanffy an der allgemeinen Systemtheorie begründet. Das Hauptkonzept dieser Theorie ist, dass die Dynamik eines jeden Systems ein Ergebnis der Beziehungen zwischen seinen einzelnen Einheiten ist, die seine Funktion bestimmen. Damals versuchten die Biochemiker, Anhänger der Systemtheorie, durch das gründliche Studium von Enzymen und der Kinetik von Enzymreaktionen, das Verhalten der biochemischen Wege als ein Netzwerk zu untersuchen, anstatt als eine Summe seiner Teile. Aus dem biochemischen Bereich kommend, entwickelte Reinhart Heinrich theoretische Ansätze zur Beschreibung und quantitativen Untersuchung von Signalwegen und entwickelte eine metabolische Kontrolltheorie. Die Notwendigkeit eines integrierten Ansatzes für ein detaillierteres Studium und Verständnis der komplexen biologischen Prozesse wurde offensichtlich.
Die Systembiologie ist in hohem Maße von den biologischen Informationen abhängig, die durch molekularbiologische und / oder individuelle Omics-Ansätze gewonnen werden, die jedoch oft weitgehend hypothesengesteuert oder reduktionistisch sind. Bei dem reduktionistischen Ansatz werden die funktionellen Eigenschaften der einzelnen molekularen Komponenten in den komplexen biologischen Systemen untersucht. Nach dem Abschluss des Humangenomprojekts hat sich die moderne Wissenschaft über die gen-zentrierte Sichtweise der früheren Genomik-Ära hinaus entwickelt. Diese als postgenomische Ära bezeichnete Periode ist durch große Veränderungen in der wissenschaftlichen Forschungsdurchführung und Ergebnisinterpretation gekennzeichnet und bedeutet laut Bloom das Ende des „naiven Reduktionismus“. Trotzdem, dass diese klassischen Methoden allein kein vollständiges Verständnis von lebenden Organismen liefern können, werden sie weiterhin ein wesentliches Element aller biologischen Forschung sein. In diesem Zusammenhang hat die Systembiologie eine grundlegende Veränderung der traditionellen Ansätze bewirkt. Sie verwendet einen neuen, hypothesengenerierenden, ganzheitlichen Ansatz, der sich auf die Untersuchung von Teilsystemen konzentriert und so ein tieferes Verständnis des Gesamtprozesses ermöglicht. Der Galaktoseverwertungsweg (GAL) der Hefe Saccharomyces cerevisiae ist ein Beispiel für die Anwendung des systembiologischen Ansatzes, um die mit dem reduktionistischen Ansatz (ein Gen/ein Protein auf einmal) gewonnenen Ergebnisse neu zu lesen und zu interpretieren. Auf der Grundlage von experimentellen Daten, die aus Analysen von Protein- und RNA-Levels sowie Protein-Protein- und Protein-DNA-Interaktionen gewonnen wurden, und deren Integration in ein einziges Modell wurde eine neue Hypothese zur Regulation des GAL-Signalwegs aufgestellt, die anschließend experimentell verifiziert wurde.
Durch den Einsatz von computergestützten und mathematischen Werkzeugen wird eine große Menge an experimentellen Daten gesammelt und von der Systembiologie integriert, um unbekannte Muster aufzudecken und Hypothesen zu generieren. Dies ist eine wichtige Strategie, um neue Erkenntnisse über die biologischen Systeme zu gewinnen und auch bei der Versuchsplanung zu helfen.
Der System-Level-Ansatz der biologischen Systeme zielt darauf ab, die folgenden drei Fragen im Kontext des molekularen Netzwerks zu klären: i) was sind die einzelnen Komponenten des Systems; ii) wie arbeiten sie separat? und iii) wie arbeiten diese Komponenten zusammen, um eine Aufgabe zu erfüllen? (3). Im Zusammenhang mit molekularen Netzwerken lässt sich das grundlegende Ziel der Systembiologie wie folgt zusammenfassen: (i) ein Verständnis der Struktur aller Komponenten einer Zelle / eines Organismus bis zur molekularen Ebene, (ii) die Fähigkeit, den zukünftigen Zustand der Zelle / des Organismus unter einer normalen Umgebung vorherzusagen, (iii) die Fähigkeit, die Ausgangsreaktionen für einen gegebenen Eingangsstimulus vorherzusagen, und (iv) die Fähigkeit, die Veränderungen im Systemverhalten bei einer Störung der Komponenten oder der Umgebung abzuschätzen.
Der Begriff „Systeme“ in der Systembiologie definiert verschiedene Komplexitätsspannen, die von zwei Makromolekülen, die zusammenwirken, um eine bestimmte Aufgabe zu erfüllen, bis hin zu ganzen Organismen reichen (Abb.1).

Abb. 1. Haupttypen von biologischen Netzwerken. A. Protein-Protein-Interaktionen; B. Genregulatorisches Netzwerk; C. Metabolische Netzwerke; D. Verschiedene Arten von Netzwerken in der Zelle (9).
Damit teilt die Systembiologie ein gemeinsames wissenschaftliches Ziel mit der Disziplin der Physiologie, die sich der Untersuchung der integrierten Funktion des gesamten komplexen biologischen Systems widmet. Organismen sind viel mehr als die Summe ihrer Teile und die Komplexität physiologischer Prozesse kann nicht verstanden werden, indem man einfach untersucht, wie die Komponenten isoliert funktionieren. Zum Beispiel kodieren Gene die Primärstruktur der zellulären Proteine, die ihrerseits spezifische Funktionen ausführen, die den Zellstoffwechsel und die Physiologie sowie die Entwicklung des Organismus unterstützen. Gleichzeitig agieren die Proteine in jeder Zelle nicht isoliert, sondern in einem komplexen Netzwerk, das für die Spezifikation von Phänotypen wichtig ist. Die meisten biologischen Prozesse sind hochdynamisch und beinhalten oft mehr als eine Art von Molekülen. Gleichzeitig kann ein Phänotyp durch mehrere verschiedene molekulare und epigenetische Mechanismen bedingt sein und ein Molekültyp kann an verschiedenen Phänotypen beteiligt sein. Tatsächlich kann ein Protein sogar im selben Organismus in verschiedenen Zellen unterschiedliche Rollen spielen; oder Signalweg-Effektoren können in verschiedenen Zelllinien unterschiedliche Differenzierungsprogramme induzieren. Darüber hinaus haben einzelne Zellen in mehrzelligen Organismen keine vom Gesamtorganismus unabhängige Existenz, sie sind ontogenetisch miteinander verbunden.
Ungeachtet ihres gemeinsamen Ziels verwenden die Systembiologie und die Physiologie unterschiedliche Werkzeuge und experimentelle Ansätze, was dazu führt, dass sie einen unterschiedlichen Satz an experimentellen Daten erhalten. Eine disziplinübergreifende Systembiologie ist eine moderne, sich schnell entwickelnde Disziplin, da sie eine Vielzahl von Methoden und Werkzeugen verwendet, einschließlich groß angelegter funktioneller Genomik und anderer Omics-Technologien, Bioinformatik und Computermodellierung, die von den Physiologen nicht genutzt werden. Die Rolle der computergestützten Biologie in der Systembiologie besteht darin, massive Mengen empirischer Daten zu verarbeiten und zu analysieren, die von verschiedenen Omics-Ebenen produziert werden, was wiederum zur Entdeckung biologischen Wissens und zur Generierung von Forschungshypothesen führt. Die Anwendung von in silico- und simulationsbasierten Analysen bietet die Möglichkeit, Vorhersagen zu treffen, die wiederum durch experimentelle Untersuchungen bestätigt werden. Der rasante Fortschritt der Informationstechnologien, einschließlich der Erweiterung öffentlicher Web-Datenbanken mit biologischen Informationen, unterstützt ebenfalls die Entwicklung von Omics-Studien und führt zum Fortschritt der Systembiologie.
Um biologische Prozesse umfassend zu untersuchen, ist es entscheidend zu verstehen, wie die einzelnen biologischen Schichten (Genom, Epigenom, Transkriptom, Proteom, Metabolom und Ionom) in einem zellulären System miteinander verbunden sind und wie der Fluss der biologischen Information abläuft. Um ein genaues Bild des lebenden Organismus zu entwerfen, ist die Kombination verschiedener Omics-Analysen mit einem Multi-omics-Ansatz erforderlich. Transcriptomics-, Proteomics- und Metabolomics-Daten können unabhängig voneinander wichtige biologische Fragen bezüglich der Expression von Transkripten, Proteinen und Metaboliten beantworten, aber eine systematische Multi-omics-Integration kann diese großen Datensätze umfassend assimilieren, annotieren und modellieren.
Verschiedene Zweige der Omics - Herausforderungen bei der Kombination biologischer Informationen
Die Übertragung der genetischen Information in biologischen Systemen erfolgt von der DNA über die mRNA zum Protein und dies wird als zentrales Dogma der Molekularbiologie bezeichnet. Die drei Hauptprozesse in jeder Zelle sind Replikation, Transkription und Translation. Ihr ständiger Fluss sorgt für die Aufrechterhaltung und Umsetzung der in der DNA kodierten genetischen Information in Genprodukte, die je nach Gen entweder RNAs oder Proteine sind. Die Replikation ist ein Prozess der Vervielfältigung der DNA einer Zelle und bildet die Grundlage für die biologische Vererbung. Sie wird von dem Enzym DNA-Polymerase durchgeführt, das ein einzelnes elterliches doppelsträngiges DNA-Molekül in zwei Tochter-DNA-Moleküle kopiert. Das Enzym RNA-Polymerase erzeugt aus der DNA ein RNA-Molekül, dieser Vorgang wird als Transkription bezeichnet. Das neu synthetisierte RNA-Molekül ist komplementär zu einem Gen-kodierenden Abschnitt der DNA. Bei der Translation wird aus der mRNA ein Protein hergestellt. Das Ribosom erzeugt eine Polypeptidkette aus Aminosäuren unter Verwendung der mRNA als Vorlage. Die Polypeptidkette faltet sich zu einem Protein auf. In eukaryotischen Zellen, d. h. Zellen mit einem Zellkern, finden Replikation und Transkription innerhalb des Zellkerns statt, während die Translation außerhalb des Zellkerns im Zytoplasma erfolgt. In prokaryotischen Zellen, also solchen, die keinen Zellkern haben, finden alle drei Prozesse im Zytoplasma statt. Der Phänotyp des Organismus wird durch dieses Paradigma der Informationsübertragung bestimmt. Biologen untersuchen diese „Omes“ seit Jahren in Form von Genomik, Transkriptomik und Proteomik. Die Daten aus diesen experimentellen Ansätzen werden durch Epigenomik und Metabolomik ergänzt, die in jüngster Zeit zur Lösung spezifischer Probleme bei vielen Funktionen eines Organismus eingesetzt werden. Die rasante Entwicklung und der Fortschritt der „Omics“-Technologien bestimmen die fortschreitende Erweiterung der Informationsmenge, die in einzelnen Studien gesammelt werden kann. Darüber hinaus hat die derzeitige Hochdurchsatznatur dieser Techniken die Zugänglichkeit zu diesen Informationen in Bezug auf Zeit und Kosten erhöht. Viele Forscher befinden sich in einer Situation, in der sie mehrere Omics-Datensätze an denselben experimentellen Proben sammeln können. Um umfassendere Aussagen über biologische Prozesse zu erhalten, müssen diese Datensätze durch einen Multi-omics-Ansatz integriert und als ganzheitliches System analysiert werden (Abb. 2).

Abb. 2. Integrierte Omics-Ansätze der Systembiologie
Der Begriff „Omics“ leitet sich aus dem Griechischen ab und die Anfügung des Suffixes -ome an zelluläre Moleküle, wie z. B. Gen, Transkript, Protein, Metabolit, gibt die Bedeutung von „ganz“, „alles“ oder „vollständig“. Die verschiedenen Schichten der Zelle, bestehend aus DNA und Modifikationen (Genom, Epigenom), RNA und Proteingehalt (Transkriptom, Proteom), kleinen Molekülen (Metabolom, Lipidom) und elementarer Zusammensetzung (gemessen als „Ionom“), können durch omische Technologien analysiert werden. Die Kombination von Omics-Schichten in einem Multi-Omics-Datensatz wird durch eine robuste Systembiologie integriert, die in der Lage ist, Mechanismen und Interaktionen zwischen den Schichten sowie die Funktion von Zellpopulationen, Geweben, Organen und dem gesamten Organismus aufzudecken. Omics-Ansätze umfassen eine größere Anzahl von Messungen pro Endpunkt und obwohl die Anzahl der gemessenen Parameter pro Analyse erhöht wird, wird die Anzahl der Replikate verringert. Dies liegt zum einen an der Überschätzung der Methoden, da davon ausgegangen wird, dass mehr Messungen eine geringe Anzahl von Proben kompensieren würden, und zum anderen an den Kosten und dem Zeitaufwand von Omics-Experimenten.
Die omischen Einzeldisziplinen zielen auf die Untersuchung spezifischer biologischer Fragestellungen ab, ohne dass ein vorheriges Verständnis der beteiligten biologischen Grundlagen erforderlich ist. Abhängig von der Art der Biomoleküle, auf die sie sich in einer bestimmten biologischen Probe primär konzentrieren, werden Omics-Technologien unterteilt in: Genomik (Genom / Gen), Metagenomik (direkt aus Umweltproben gewonnene Genome), Epigenomik (unterstützende Struktur des Genoms, einschließlich Protein- und RNA-Binder, alternative DNA-Strukturen und chemische Modifikationen an der DNA), Transkriptomik (mRNA), Proteomik (Peptide / Proteine), Metabolomik (Stoffwechselprodukte), Lipidomik (Lipide), Glykome (Kohlenhydrate und Zucker), Ionomik (Ionen).
Obwohl keine der aktuellen Omic-Technologien perfekt ist, gelingt es einigen von ihnen, ein umfassenderes Bild der biologischen Ebene zu liefern, die sie untersuchen wollen, als anderen. Diese Tatsache ist nicht nur auf Unterschiede im Stand der technologischen Entwicklung zurückzuführen, sondern vielmehr auf die Unterschiede in der chemischen und physikalischen Komplexität der einzelnen biologischen Ebenen.
Genomik
Genomik ist die systematische Untersuchung aller Gene eines Organismus (des Genoms), einschließlich der Wechselwirkungen dieser Gene untereinander und mit der Umwelt des Organismus. Das Genom ist die basale biologische Schicht in der Zelle und stellt die gesamte DNA einer Zelle oder eines Organismus dar. Desoxyribonukleinsäure (DNA) ist die chemische Verbindung, die alle notwendigen genetischen Informationen enthält, die für die Entwicklung und Steuerung der Aktivitäten fast aller lebenden Organismen benötigt werden. DNA-Moleküle bestehen aus zwei verdrehten, gepaarten Strängen, die oft als Doppelhelix bezeichnet werden. Jeder DNA-Strang besteht aus vier Nukleotidbasen – Adenin (A), Thymin (T), Guanin (G) und Cytosin (C), die sich spezifisch auf gegenüberliegenden Strängen paaren: Ein A paart sich immer mit einem T; ein C paart sich immer mit einem G. Eine Sequenz von drei benachbarten Nukleotiden (Codon) kodiert bei der Proteinsynthese oder Translation für eine bestimmte Aminosäure. Die Anordnung der Nukleotide entlang der DNA-Moleküle bestimmt den genetischen Code. Der genetische Code ist universell, weil er bei allen Organismen gleich ist, und er ist auch degeneriert, weil 64 Codons nur für 22 Aminosäuren kodieren. Mit ihrer Vier-Buchstaben-Sprache enthält die DNA die Informationen, die zum Aufbau eines ganzen Organismus benötigt werden. Ein Gen stellt die Einheit der DNA dar, die Codes für die Herstellung eines bestimmten Proteins oder einer Reihe von Proteinen trägt. Auf der Grundlage der intrinsischen Komplementarität der Nukleotidbasen in der DNA ist es möglich geworden, eine große Anzahl von Genomen schnell und zu relativ geringen Kosten zu sequenzieren. Aus den effizient sequenzierten Genomen konnten Vorhersagen über RNA- und Proteinsequenzen getroffen werden, die in den Multi-Omic-Ansätzen kombiniert werden. Die digitale Form der DNA-Sequenzen als eine Art biologische omic-Information könnte leicht in biologischen Datenbanken gespeichert und zwischen Wissenschaftlern auf der ganzen Welt ausgetauscht werden. Die Sequenzierung des ersten ganzen Genoms des Bakteriums Haemophilus influenza im Jahr 1995 war eine Revolution in der Molekularbiologie. Es entstand eine große Menge an Sequenzdaten, die nicht mehr vollständig zu interpretieren war. Die relevante genetische Information aus dem genetischen Hintergrundmaterial zu entschlüsseln, war eine fast unlösbare Aufgabe. Um dies zu überwinden, wurden detailliertere biologische Informationen benötigt. Informationen über die Transkription des genetischen Materials und die anschließende Produktion von Proteinen waren notwendig.
Eine wesentliche Forschungsrichtung auf dem Gebiet der Systembiologie ist die funktionelle Genomik. Diese Disziplin entwickelt und nutzt Methoden im großen Maßstab und mit hohem Durchsatz mit dem Ziel, die Genfunktion auf globaler Ebene zu definieren und zu analysieren. Für die Entwicklung eines systemischen Verständnisses eines biologischen Prozesses ist es sehr wichtig, die Gene und die von ihnen kodierten Proteine zu identifizieren, die zusammenarbeiten, um diesen Prozess zu bewirken. Die funktionelle Genomik ist ein integratives wissenschaftliches Feld, das mehrere große Datensätze kombiniert und versucht, Erkenntnisse über die Genfunktion zu gewinnen. Zunächst wurden die Gene einzeln analysiert, aber der Fortschritt der Technologien in den letzten Jahren ermöglicht es, die Expression von Tausenden von Genen gleichzeitig zu analysieren. Diese groß angelegte Analyse der Genfunktion wird als DNA-Mikroarray-Technologie bezeichnet (Abb. 3).

Abb. 3. Schema der DNA-Microarray-Analyse
DNA-Microarrays messen Unterschiede in der DNA-Sequenz zwischen Individuen und diese Technologie kann Informationen über die Funktion von nicht charakterisierten Genen liefern und auch Cluster von interagierenden Genen aufdecken, die einen biologischen Prozess von Interesse hervorrufen. Microarray-Analysen können auch Einblicke in Mechanismen der Genregulation, der Evolution und der Ätiologie von Krankheiten liefern. Die Analyse von Microarray-Daten kann zum Beispiel Anomalien wie chromosomale Insertionen und Deletionen oder abnormale Chromosomenzahlen in einem Prozess namens vergleichende genomische Hybridisierung aufdecken. Die häufigsten Variationen in DNA-Sequenzen zwischen Menschen sind Einzelnukleotid-Polymorphismen (SNPs), bei denen ein Nukleotid durch ein anderes ersetzt wird; dies kann funktionelle Bedeutung haben, wenn die Veränderung zu einem Codon für eine andere Aminosäure führt. Sie sind von besonderem Interesse, wenn sie mit genetisch bedingten Krankheiten in Verbindung gebracht werden. Die Erstellung von Einzelnukleotid-Polymorphismus-Profilen spielt auch in der Pharmakogenomik eine Rolle, wenn es darum geht, die individuellen Reaktionen von Patienten auf Medikamente zu untersuchen.
Epigenomik
Die epigenetischen Veränderungen wie DNA-Methylierung, Histon-Modifikationen, 2D- und 3D-Analyse der Chromatinstruktur und nicht-kodierende RNA werden mit den Methoden der Epigenomik untersucht. Diese -omics-Richtung konzentriert sich auf die Analyse der gesamten epigenetischen Veränderungen, die wichtige Informationen über die Mechanismen und die Funktion der Genregulation bei vielen Genen in einer Zelle oder einem Organismus liefert. Wissenschaftler haben verstanden, dass der Phänotyp eines Individuums nicht nur durch das Genom gesteuert wird, sondern auch durch die Veränderungen in der Regulation der Genaktivitäten. Genetische Experimente an Menschen und Tieren haben bewiesen, dass neben der DNA-Sequenz auch epigenetische Markierungen über die Gameten von den Eltern auf die Nachkommen übertragen werden und den Phänotyp der Nachkommen beeinflussen können.
Epigenomik definiert die Modifikationen in der Regulation von Genaktivitäten, die ohne oder unabhängig von Veränderungen der Gensequenzen wirken. Einige Definitionen beschränken die Epigenetik/Epigenomik auf Modifikationen des Phänotyps ohne Veränderungen der DNA-Sequenz, die an die nächsten Generationen weitergegeben werden. Bei den epigenetischen Modifikationen handelt es sich um chemische Modifikationen, die nicht durch das Genom kodiert sind und die koordinieren, wie und wann Gene exprimiert werden. Die Epigenomik erforscht vererbbare, reversible Modifikationen der DNA und des Chromatins, die keinen Einfluss auf die primären Nukleotidsequenzen haben. Während der Begriff Epigenomik die Analyse epigenetischer Veränderungen bei vielen Genen in einer Zelle oder im gesamten Organismus beschreiben würde, konzentriert sich die Epigenetik auf Prozesse, die regulieren, wie und wann bestimmte Gene ein- und ausgeschaltet werden. Es sind mehrere Faktoren bekannt, die die epigenetische Regulation beeinflussen: 1) Ernährung (diätetische Faktoren); 2) Umweltfaktoren; 3) Strahlenbelastung; 4) Infektionserreger; 5) immunologische Faktoren; 6) genetische Faktoren; 7) toxische Erreger; 8) Mutagene.
Für die Analyse der epigenetischen Modifikationen in der Zelle werden vielseitige Nachweisverfahren eingesetzt. DNA-Methylierungen werden durch Verdauungsassays und Bisulfit-Sequenzierung der DNA analysiert. In Verdauungsassays wird die genomische DNA mit methylierungssensitiven und methylierungsunsensitiven Endonukleasen fragmentiert. Methylierungssensitive Restriktionsenzyme spalten nur unmethylierte DNA und lassen methylierte DNA-Fragmente unverdaut. Die fragmentierte DNA kann durch Sequenzierung oder Microarray analysiert werden, und so werden die Methylierungsstellen kartiert. Der Nachteil dieser Methode ist, dass sie nur die DNA-Sequenzen in der Nähe der Ziele der gewählten Restriktionsenzyme untersucht und in der Regel nur zur Charakterisierung des globalen Niveaus der DNA-Methylierung verwendet wird, anstatt methylierte DNA auf der Ebene einzelner Reste zu identifizieren. Die Auflösung wird durch den Einsatz der Methode der Bisulfit-Sequenzierung verbessert. Bei dieser strangspezifischen Methode wird unmethyliertes Cytosin in Uracil umgewandelt, während methylierte Cytosinreste unbeeinflusst bleiben. Die resultierende DNA wird in PCR amplifiziert und kann durch Sequenzierung der interessierenden Regionen analysiert werden. Die Analyse kann auch mittels MALDI-TOF-Massenspektrometrie oder Microarrays durchgeführt werden. Die DNA-Methylierung kann auch durch Methoden untersucht werden, die auf dem Prinzip der Affinitätschromatographie beruhen. Die Probe, die fragmentierte DNA enthält, wird auf eine Säule mit gebundener methylbindender Domäne (MBD) von MeCP2 geladen, die spezifisch für methylierte DNA ist. Die methylierten DNA-Fraktionen werden heraus eluiert und mit genomweiten Techniken wie MBDCap-seq/MethylCap-seq analysiert. Ein weiterer Ansatz ist die Immunopräzipitation von methylierter DNA (MeDIP), die auf der spezifischen Bindung von Antikörpern an das methylierte Cytosin (5mC) in der DNA basiert. Diese Methode wird auch für die Analyse von hydroxyliertem Methylcytosin (5hmC) verwendet. Gereinigte Fragmente werden mittels PCR, Sequenzierung oder Microarray analysiert.
Eine weit verbreitete Technik zum Nachweis von Histonmodifikationen ist die Immunpräzipitation von Chromatin (ChIP). Sie wird zur Identifizierung lokaler posttranslationaler Modifikationen der Histonschwänze und zur Überwachung von Veränderungen der Modifikationen als Reaktion auf verschiedene Stimuli eingesetzt. Antikörper gegen spezifische Histonmodifikationen (z. B. Trimethylierung von Histon H3 Lysin K27) werden zur Immunpräzipitation derjenigen Chromatinregionen verwendet, die diese Modifikationen aufweisen. ChIP kann auch angewendet werden, um die Bindung von Transkriptionsfaktoren und Enzymen an das Chromatin zu untersuchen, wobei ein spezifischer Antikörper gegen den Faktor von Interesse verwendet wird. Die assoziierten Chromatinregionen können entweder mittels PCR zum Nachweis spezifischer Loci oder mittels Deep Sequencing für eine globalere Betrachtung sowie mittels Microarray (ChIP-Chip) analysiert werden, wobei im letzten Fall die Auflösung der Daten im Vergleich zum Sequencing schwächer ist. Während des letzten Jahrzehnts wurde die grundlegende ChIP-Methode weiterentwickelt, was zur Entstehung anderer vielfältiger ChIP-Methoden wie μChIP-seq für die Analyse geringer, mikroskaliger Probenmengen und der modernen Einzelmolekül-Echtzeitsequenzierung (SMRT; „Sequenzierung der dritten Generation“) von ChIP-Proben führte.
Epigenetische Modifikationen können auch mit Methoden untersucht werden, die die aktiven Regionen des Chromatins identifizieren. Bei der DNase-seq-Methode wird das Enzym DNase I verwendet, um die DNA zu verdauen, die nicht durch die Nukleosomenstruktur geschützt ist, sodass die Regionen, die empfindlich auf DNase reagieren, mit aktiven Genen assoziiert sind. Für die Analyse und Interpretation der Ergebnisse können Sequenzierungs-, Microarray- oder Southern Blot-Techniken verwendet werden. Das offene Chromatin kann auch durch die Formaldehyd-unterstützte Isolierung von regulatorischen Elementen (FAIRE) nachgewiesen werden, die zur Isolierung offener, nukleosomendepletierter Chromatinregionen führt. Die FAIRE-Methode basiert auf der Quervernetzung zwischen Formaldehyd und DNA, Histonen und anderen damit assoziierten Proteinen. Die DNA wird durch Sonikation fragmentiert und anschließend durch Phenol-Chloroform-Extraktion isoliert. Nur DNA, die nicht durch Nukleosomen und assoziierte Proteine gebunden ist, verbleibt bei der Extraktion in der wässrigen Phase, so dass die offenen und aktiven Bereiche des Genoms isoliert werden können. Die isolierten Fragmente können wiederum mit verschiedenen Methoden, wie PCR, Microarray und Sequenzierung, analysiert werden. Chromatin kann auch mit der Chromatin Conformation Capture (3C)-Technik untersucht werden, die die Chromatinregionen identifiziert, die physisch miteinander assoziiert sind, wie z. B. Promotoren mit Enhancern. 3C wird oft durch PCR analysiert, aber heutzutage auch durch Deep Sequencing der Interaktionen global (Hi-C).
Nicht-kodierende RNAs (ncRNAs) wirken als epigenetische Modifikatoren und regulieren die Genexpression stark. Ihre abweichende Expression, hauptsächlich in Form von microRNAs (miRNAs) und langen nichtkodierenden RNAs, kann die Genexpression modifizieren und komplizierte Immunstörungen auslösen. Die Analyse der RNA-Komponente der Epigenetik erfolgt meist genomweit mit Next-Generation-Sequencing-Methoden. Die Veränderungen in ncRNA und mRNA können durch Deep Sequencing charakterisiert werden. Die Expression von RNAs kann auch durch quantitative Polymerase-Kettenreaktion (qPCR) analysiert werden. Die quantitative PCR, auch Real-Time-PCR genannt, ist eine Labortechnik in der Molekularbiologie, mit der die Menge des PCR-Produkts in Echtzeit bestimmt werden kann, und ist sehr nützlich für die Untersuchung der Genexpression.
Transkriptomik
Bei der Expression von Genen wird die in der DNA gespeicherte genetische Information auf die RNA (Ribonukleinsäure) übertragen. RNAs sind wichtige Makromoleküle, die aus linearen Ketten von Nukleotiden bestehen (Abb. 4), die durch den zellulären Prozess der Transkription hergestellt werden. RNAs erfüllen vielfältige zelluläre und biologische Funktionen, da sie entweder als Vorlage für die Proteinsynthese dienen oder kritische katalytische und regulatorische Rollen spielen. Bei der Transkription wird die genetische Information von der DNA auf die mRNA übertragen. Dieser Vorgang wird von einem Enzym, der RNA-Polymerase, durchgeführt. In den Zellen existieren mehrere Klassen von RNAs (Messenger-RNAs (mRNA), Transfer-RNAs (tRNA), ribosomale RNA (rRNA), kleine Kern-RNA (snRNA), kleine nukleolare RNA (snoRNA), short interfering RNA (siRNAs), Mikro-RNA (miRNAs), lange nicht-kodierende RNA und Pseudogene), aber diejenigen, die an der Proteinsynthese beteiligt sind, sind Boten-RNA (mRNA), Transfer-RNA (tRNA) und ribosomale RNA. Boten-RNA (mRNA) ist ein einzelsträngiges Molekül, das die Übertragung der genetischen Information zu den Ribosomen vermittelt, wo die Proteine synthetisiert werden. Bei Eukaryonten wird jedes Gen so transkribiert, dass eine einzelne mRNA entsteht, während bei Prokaryonten ein einziges mRNA-Molekül die genetische Information von mehreren Genen, d. h. von mehreren proteinkodierenden Regionen, tragen kann. Es besteht eine lineare Entsprechung zwischen der Basensequenz eines Gens und der Aminosäuresequenz eines Polypeptids. Jede Gruppe von drei aufeinanderfolgenden Nukleotiden kodiert die Position einer bestimmten Aminosäure in einem Proteinmolekül, und jedes solche Triplett von Basen wird als Codon bezeichnet. Codons werden von Ribosomen (die selbst aus Proteinen und rRNA bestehen), tRNA und Helferproteinen, die Translationsfaktoren genannt werden, in Sequenzen von Aminosäuren übersetzt.

Abb. 4. Einzelsträngige Struktur der RNA mit den vier Nukleotidbasen – Adenin, Uracil, Guanin, Cytosin.
Der Begriff „Transkriptom“ wird häufig verwendet, um den vollständigen Satz aller Ribonukleinsäure (RNA)-Moleküle in einer Zelle, einem Gewebe oder einem Organismus zu bezeichnen. Das Transkriptom spiegelt die molekulare Aktivität in Zellen wider, also die Gene, die zu einem bestimmten Zeitpunkt aktiv exprimiert werden. Es umfasst alle Formen von RNA-Molekülen, einschließlich protein-kodierender, nicht-protein-kodierender, alternativ gespleißter, alternativ polyadenylierter, alternativ initiierter, Sense-, Antisense- und RNA-editierter Transkripte. Dementsprechend untersucht die Transkriptomik alle Arten von Transkripten innerhalb einer Zelle oder eines Organismus, einschließlich mRNAs, miRNAs und verschiedener Arten von langen nicht-kodierenden RNAs (lncRNAs). Die Transkriptomik umfasst alles, was mit RNAs zu tun hat, wie z. B. ihre Transkriptions- und Expressionsniveaus, Funktionen, Orte, Transport und Abbau. Sie umfasst auch die Strukturen von Transkripten und ihren Elterngenen in Bezug auf Startstellen, 5′- und 3′-Endsequenzen, Spleißmuster und posttranskriptionelle Modifikationen.
Die wichtigsten Studien der Transkriptomik zielen auf:
- Charakterisierung verschiedener Zustände von Zellen (d.h. Entwicklungsstadien), Geweben oder Zellzyklusphasen durch Expressionsmuster;
- Untersuchung der molekularen Mechanismen, die einem Phänotyp zugrunde liegen;
- Identifizierung von Biomarkern, die zwischen dem erkrankten und dem gesunden Zustand unterschiedlich exprimiert werden;
- Differenzierung von Krankheitsstadien oder Subtypen (z. B. Krebsstadien);
- den ursächlichen Zusammenhang zwischen genetischen Varianten und Genexpressionsmustern herzustellen, um die Ätiologie von Krankheiten zu beleuchten.
In den letzten drei Jahrzehnten hat der technologische Fortschritt die Transkriptom-Profilierung revolutioniert und neu definiert, was untersucht werden kann. Die Integration von transkriptomischen Daten mit anderen omics gibt einen zunehmend integrierten Blick auf zelluläre Komplexitäten, was ganzheitliche Ansätze in der biomedizinischen Forschung erleichtert.
Die wichtigsten Techniken, die für Transkriptom-Studien eingesetzt werden, sind:
- Expressed Sequence Tag (EST)-basierte Methoden
- SAGE
- Hybridisierungs-basierter Microarray
- Real-Time PCR
- NGS-basierte RNA-Sequenzierungsmethoden (RNA-seq),
- RNA-Interferenz
- Bioinformatik-Tools für die Transkriptomanalyse.
Die Auswahl der Technik ist abhängig von Kosteneffizienz, Empfindlichkeit, hohem Durchsatz und minimaler Konzentration der Ausgangs-RNA. Die Methodik umfasst die RNA-Isolierung, -Reinigung, -Quantifizierung, den Aufbau einer cDNA-Bibliothek und die Hochdurchsatz-Sequenzierung.
- Expressed Sequence Tag (EST)-basierte Methoden – Expressed Sequence Tags (ESTs) sind relativ kurze DNA-Sequenzen (in der Regel 200-300 Nukleotide), die üblicherweise von den 3′-Enden von cDNA-Klonen erzeugt werden, von denen PCR-Primer abgeleitet und zum Nachweis der spezifischen kodierenden Sequenz in genomischer DNA verwendet werden können. Die Sequenzierung der ESTs gibt einen Überblick über das Expressionsniveau des Gens. Da immer mehr EST-Daten öffentlich verfügbar sind, hat sich die Verwendung von ESTs auf andere Bereiche ausgeweitet, wie z. B. die Entdeckung von genetischen Markern in silico, die Entdeckung von Genen in silico, die Konstruktion von Genmodellen, die Vorhersage von alternativem Spleißen, die Genomannotation, die Erstellung von Expressionsprofilen und die vergleichende Genomik. Im Vergleich zur Ganzgenomsequenzierung ist die EST-Technologie einfacher und weniger kostspielig, insbesondere bei großen Genomen. Es gibt EST-Datenbanken wie dbEST (NCBI EST) (https://www.ncbi.nlm.nih.gov/genbank/dbest/), die Sequenzdaten und andere Informationen zu „Single-Pass“ cDNA-Sequenzen oder „Expressed Sequence Tags“ aus einer Reihe von Organismen enthalten und somit als Referenz für das Expressionsprofil eines Organismus dienen.
- Serial Analysis of Gene Expression (SAGE) ist eine transkriptomische Technik, die von Wissenschaftlern verwendet wird, um eine Momentaufnahme der Boten-RNA-Population in einer Probe von Interesse in Form von kleinen Tags zu erstellen, die Fragmenten dieser Transkripte entsprechen. Diese Technik hat gegenüber EST den Vorteil, dass nur kurze „Tags“ von nur etwa 15 Basen sequenziert werden. Die erzeugten kurzen Fragmente werden dann zusammengefügt und sequenziert. Ein Pool von cDNA kann einem Hochdurchsatz-NGS, bekannt als RNA-seq, zur Quantifizierung, Entdeckung neuer ESTs und Profilierung von RNAs unterzogen werden.
- Ein DNA-Chip, Gen-Chip, Biochip oder Microarray ist eine Sammlung von DNA-, cDNA-, Oligonukleotidspots, die auf einem festen Träger wie einem Glas- oder Siliziumchip angebracht sind. Durch diese auf Hybridisierung basierende Methode wird das Expressionsniveau von Tausenden von Genen gleichzeitig überwacht. Die größte Einschränkung dieser Technologie besteht darin, dass Genomsequenzinformationen vorausgesetzt werden und auch ein höherer Hintergrund mit der Hybridisierungstechnik verbunden ist.
- Die quantitative Echtzeit-PCR (qRT-PCR) ist eine Art der PCR zur zuverlässigen Quantifizierung von mRNA mit geringer Abundanz oder von Transkripten mit geringer Kopienzahl. Die wichtigsten Vorteile dieser Technik sind die hohe Sensitivität, die bessere Reproduzierbarkeit und der große dynamische Quantifizierungsbereich. Sie erleichtert Genexpressions- und Regulationsstudien sogar in einer einzelnen Zelle aufgrund ihrer exponentiellen Amplifikationsfähigkeit. Die Verfügbarkeit von verschiedenen Arten von Fluoreszenz-Monitoring-Systemen, die mit der PCR verbunden sind, führte zu ihrer Beliebtheit für Genexpressionsstudien. Die Probleme der unspezifischen Amplifikation und der Bildung von Primer-Dimeren sind einige der Einschränkungen der qRT-PCR.
- Die RNA-Sequenzierung ist eine der fortschrittlichsten Hochdurchsatztechnologien für die Transkriptomik. RNA-seq, auch bekannt als Whole-Transcriptome Shotgun Sequencing, nutzt NGS-Tools. Die Vorteile der RNA-seq sind, dass sie nicht auf die Verfügbarkeit der Genomsequenz angewiesen ist, keine oberen Quantifizierungsgrenzen hat, eine hohe Reproduzierbarkeit aufweist und einen großen dynamischen Nachweisbereich besitzt.
Der Fortschritt der Transkriptomik führte zu einer Reihe von biologischen Entdeckungen. Diese Omic-Technologie legte den Grundstein für die ersten echten Multi-omic-Studien, die auf dem Vergleich zwischen DNA-Sequenz und mRNA-Expression basieren. Heutzutage wird die Transkriptionsanalyse von den meisten Biologen immer noch häufiger eingesetzt, da die gewonnenen Daten immer noch einfacher zu analysieren und weiterzugeben sind als die „nachgeschalteten Omics“ wie Proteomics und Metabolomics. In jüngerer Zeit erlebt die Transkriptomik ein zweites Revival, da sie in vielen Fällen auf einzelne Zellen anwendbar ist.
Proteomics
Proteine steuern die zelluläre Struktur und Aktivität, liefern die Mechanismen für die Signalübertragung zwischen Zellen und Geweben und katalysieren chemische Reaktionen, die den Stoffwechsel unterstützen. Die Proteinstruktur diktiert die Funktion (oder Dysfunktion). Proteine können die Grundursache von Krankheiten sein (wie Alzheimer oder Chorea Huntington), und sie können zur Heilung eingesetzt werden (z. B. werden Antikörper als Therapeutika gegen virale und bakterielle Infektionen eingesetzt). Die Menge aller exprimierten Proteine in einem biologischen System unter bestimmten, definierten Bedingungen wird als Proteom bezeichnet. Das Wort „Proteom“ ist eine Kombination aus Protein und Genom und wurde 1994 von Mark Wilkins geprägt.
Das Hauptziel der Proteomik ist eine groß angelegte experimentelle Analyse der Struktur und Funktion dieser gesamten Menge von Proteinen, die von einem lebenden Organismus produziert werden. Der Begriff „Proteomik“ tauchte erstmals 1997 auf und bezieht sich auf eine Kerntechnologie in systembiologischen Ansätzen, die das Proteom untersucht. Die Funktion von Zellen ist abhängig von den Proteinen, die im intra- und interzellulären Raum vorhanden sind, und von deren Häufigkeit. Die Synthese von Proteinen in der Zelle basiert auf mRNA-Vorläufern, aber es ist unmöglich, die Abundanz bestimmter Proteine nur aufgrund der Analyse der Genexpression vorherzusagen. Der Grund dafür ist, dass native Proteine posttranslationale Modifikationen (PTMs) oder Veränderungen als Reaktion auf Veränderungen in der Umgebung erfahren. Das Proteom ist ein dynamisches Spiegelbild sowohl der Gene als auch der Umwelt und stellt eine wertvolle Quelle für die Entdeckung von Biomarkern dar, da Proteine höchstwahrscheinlich ubiquitär bei Krankheiten und Krankheitsreaktionen betroffen sind. Die vollständige Charakterisierung aller Proteine ist das Ziel der Proteomik seit ihren Anfängen vor fast 25 Jahren. Dabei geht es um mehr als die bloße Identifizierung von Proteinen, die potenziell in einer Probe vorhanden sind, sondern auch um die Bewertung der Proteinhäufigkeit, der Lokalisierung, der posttranslationalen Modifikationen, der Isoformen und der molekularen Wechselwirkungen. Die Proteomik zielt darauf ab, den Fluss biologischer Informationen durch Proteinwege und -netzwerke zu untersuchen, mit dem letztendlichen Ziel, die funktionelle Bedeutung von Proteinen zu verstehen. Dies erfordert die Entwicklung von Technologien, die ein breites Spektrum von Proteinen in Proben unterschiedlicher Herkunft nachweisen können. In der Proteomik kommen verschiedene Technologien zum Einsatz, die meist in Kombination angewendet werden, zum Beispiel ein- oder zweidimensionale Gelelektrophorese mit Massenspektrometrie (MS) oder Flüssigkeitschromatographie und MS.
Die konventionellen Techniken zur Isolierung und Reinigung von Proteinen basieren auf Chromatographie, wie z. B. Ionenaustauschchromatographie (IEC), Hydroxyapatit, Größenausschlusschromatographie (SEC) und Affinitätschromatographie. Für die Analyse selektiver Proteine können Enzyme-Linked Immunosorbent Assay (ELISA) und Western Blotting eingesetzt werden. Diese Techniken können für die Analyse einzelner Proteine eingesetzt werden, sie können jedoch nicht das Proteinexpressionsniveau bestimmen. Natriumdodecylsulfat-Polyacrylamid-Gelelektrophorese (SDS-PAGE), zweidimensionale Gelelektrophorese (2-DE) und zweidimensionale differentielle Gelelektrophorese (2D-DIGE) werden zur Trennung komplexer Proteinproben verwendet.
- Die Massenspektrometrie (MS) ermöglicht die Analyse von Proteomen und ist normalerweise die bevorzugte Methode zur Identifizierung von Proteinen in biologischen Systemen. Die drei Hauptanwendungen der MS in der Proteomik sind: Katalogisierung der Proteinexpression, Definition von Proteininteraktionen und Identifizierung von Stellen der Proteinmodifikation. Die Massenspektrometrie misst das Masse-Ladungs-Verhältnis (m/z) von Ionen in der Gasphase. Massenspektrometer bestehen aus einer Ionenquelle, die Analytmoleküle in Gasphasen-Ionen umwandelt, einem Massenanalysator, der ionisierte Analyten basierend auf dem m/z-Verhältnis trennt, und einem Detektor, der die Anzahl der Ionen bei jedem m/z-Wert aufzeichnet. Die Entwicklung der Elektrospray-Ionisation (ESI) und der Matrix-unterstützten Laser-Desorption/Ionisation (MALDI), den beiden weichen Ionisierungstechniken, die Peptide oder Proteine ionisieren können, revolutionierte die Proteinanalyse mit MS. Der Massenanalysator ist das Herzstück der MS-Technologie. Für die Proteomics-Forschung werden üblicherweise vier Arten von Massenanalysatoren verwendet: Quadrupol (Q), Ionenfalle (Quadrupol-Ionenfalle, QIT; lineare Ionenfalle, LIT oder LTQ), Flugzeit-Massenanalysator (TOF) und Fourier-Transformations-Ionenzyklotronresonanz-Massenanalysator (FTICR). Sie unterscheiden sich in ihren physikalischen Prinzipien und analytischen Leistungen. „Hybrid“-Instrumente wurden entwickelt, um die Fähigkeiten verschiedener Massenanalysatoren zu kombinieren und umfassen den Q-Q-Q, Q-Q-LIT, Q-TOF, TOF-TOF und LTQ-FTICR.
- Tandem-Massenspektrometrie ist ein zusätzliches experimentelles Verfahren, das auch als MS/MS oder MS2 bezeichnet wird. Dies ist eine Schlüsseltechnik für die Protein- oder Peptidsequenzierung und PTM-Analyse, bei der zwei oder mehr Massenspektrometer gekoppelt werden. Die Moleküle einer gegebenen Probe werden ionisiert und das erste Spektrometer (als MS1 bezeichnet) trennt diese Ionen nach ihrem Masse-Ladungs-Verhältnis (oft als m/z oder m/Q angegeben). Ionen eines bestimmten m/z-Verhältnisses, die vom MS1 kommen, werden ausgewählt und dann dazu gebracht, sich in kleinere Fragment-Ionen aufzuspalten, z. B. durch kollisionsinduzierte Dissoziation (CID), Elektroneneinfangdissoziation (ECD), Elektronentransferdissoziation (ETD), Ionen-Molekül-Reaktion oder Photodissoziation. Diese Fragmente werden dann in das zweite Massenspektrometer (MS2) eingeführt, das wiederum die Fragmente nach ihrem m/z-Verhältnis trennt und detektiert. Der Fragmentierungsschritt ermöglicht es, Ionen zu identifizieren und zu trennen, die in regulären Massenspektrometern sehr ähnliche m/z-Verhältnisse haben.
Die Komplexität der biologischen Systeme erfordert, dass das Proteom vor der Analyse aufgetrennt wird. Sowohl gelchromatographie- als auch flüssigchromatographie-basierte Trennungen haben sich in dieser Hinsicht als nützlich erwiesen. Typischerweise werden Proteine nach diesen umfangreichen Auftrennungen durch MS-Analyse von entweder intaktem Protein (top-down) oder enzymatisch verdauten Proteinpeptiden (bottom-up) charakterisiert. Die Identifizierung der Proteine erfolgt durch den Vergleich der gemessenen Massen der intakten Proteine (top-down) oder der verdauten Proteinpeptide (bottom-up) mit den berechneten Massen aus den Genomdaten. - Isobaric Taq Labelling (ITL) ist eine häufig verwendete Methode zur Quantifizierung von Proteinen. In der Proteomik ist die Quantifizierung der Proteinhäufigkeit ein wichtiger Schwerpunkt. Proteinexpressionsniveaus stellen das Gleichgewicht zwischen Translation und Abbau von Proteinen in Zellen dar. Es wird daher angenommen, dass die Abundanz eines bestimmten Proteins mit seiner Rolle in der Zellfunktion zusammenhängt. ITL bietet die Möglichkeit der gleichzeitigen Identifizierung und Quantifizierung von Proteinen aus mehreren Proben in einer einzigen Analyse. Um die Menge der Proteine in einer bestimmten Probe zu messen, werden Peptide mit chemischen Markierungen (Tags) versehen, die die gleiche Struktur und nominelle Masse haben, sich aber in der Verteilung der schweren Isotope in ihrer Struktur unterscheiden. Diese Markierungen, die gemeinhin als Tandem-Massen-Tags bezeichnet werden, sind so konzipiert, dass das Massen-Tag bei der Tandem-Massenspektrometrie durch kollisionsinduzierte Dissoziation (HCD) mit höherer Energie an einer spezifischen Linker-Region gespalten wird, wodurch Reporter-Ionen mit unterschiedlichen Massen entstehen. Die Proteinquantifizierung erfolgt durch den Vergleich der Intensitäten der Reporter-Ionen in den MS/MS-Spektren. Weitere quantitative Techniken sind die ICAT-Markierung und die stabile Isotopenmarkierung mit Aminosäuren in Zellkultur (SILAC). Die ICAT hat auch die Palette der analysierbaren Proteine erweitert und ermöglicht die genaue Quantifizierung und Sequenzidentifizierung von Proteinen aus komplexen Gemischen. SILAC ist ein MS-basierter Ansatz für quantitative Proteomik, der auf der metabolischen Markierung des gesamten zellulären Proteoms beruht. Die Proteome verschiedener in Zellkultur gewachsener Zellen werden mit „leichter“ oder „schwerer“ Form von Aminosäuren markiert und durch MS differenziert.
- Röntgenkristallographie und Kernspinresonanzspektroskopie (NMR) sind zwei wichtige Hochdurchsatztechniken, die die dreidimensionale (3D) Struktur von Proteinen liefern, die für das Verständnis ihrer biologischen Funktion hilfreich sein könnte. Mit der Unterstützung von Hochdurchsatztechnologien wird ein riesiges Volumen an Proteomics-Daten gesammelt. Bioinformatik-Datenbanken werden eingerichtet, um die enormen Datenmengen zu handhaben und zu speichern. Verschiedene Bioinformatik-Tools werden für die Vorhersage von 3D-Strukturen, die Analyse von Proteindomänen und -motiven, die schnelle Analyse von Protein-Protein-Interaktionen und die Datenanalyse von MS entwickelt. Die Alignment-Tools sind hilfreich für das Sequenz- und Struktur-Alignment, um die evolutionäre Beziehung zu entdecken. Die Proteomanalyse bietet eine vollständige Darstellung der strukturellen und funktionellen Informationen der Zelle sowie des Reaktionsmechanismus der Zelle auf verschiedene Arten von Stress und Medikamenten unter Verwendung einzelner oder mehrerer Proteomics-Techniken. Die wichtigsten Techniken, die in der Proteomforschung eingesetzt werden, sind in Abb. 5 dargestellt.

Abb. 5. Methoden, die im Bereich Proteomics für großflächige Untersuchungen von Proteinen eingesetzt werden
Metabolomics
Das Metabolom wurde erstmals 1998 von Oliver und Kollegen im Rahmen ihrer Pionierarbeit zum Hefestoffwechsel als die Gesamtheit der kleinen Moleküle in einem biologischen System oder einer Flüssigkeit beschrieben. Es umfasst alle kleinen Moleküle wie Lipide, Aminosäuren, Fettsäuren, Kohlenhydrate und Vitamine, die als Metabolite bezeichnet werden und als Ergebnis des zellulären Stoffwechsels entstehen. Sie nehmen an den Stoffwechselprozessen in den Zellen teil, indem sie mit anderen biologischen Molekülen interagieren und Stoffwechselwegen folgen. Der Status der Metaboliten in den biologischen Systemen ist hochgradig variabel und zeitabhängig, und Veränderungen in den Konzentrationen der wichtigsten Metaboliten werden aufgrund von genetischen, Umwelt-, Ernährungs- und anderen Faktoren beobachtet.
Metabolomics (Metabolomanalyse) ist die jüngste Strategie unter den Omics, die systematisch die in einer Zelle, einem Gewebe, einem Organ, einer Bioflüssigkeit oder einem Organismus vorhandenen Metaboliten zu einem bestimmten Zeitpunkt identifiziert und quantifiziert. Die in der Metabolomik verwendeten Methoden zielen darauf ab, niedermolekulare Verbindungen (Metaboliten) mit unterschiedlichen physikalischen Eigenschaften wie Verbindungspolarität, funktionelle Gruppen und strukturelle Ähnlichkeit zu messen. Anhand dieser Eigenschaften wird das Metabolom in Teilmengen verschiedener Metaboliten unterteilt und zu deren Untersuchung werden in der Metabolomik für jeden Molekültyp optimierte analytische Verfahren eingesetzt.
Die Metabolite sind Produkte von biochemischen Reaktionen, die unter Beteiligung von Proteinen des Proteoms ablaufen (Abb. 6). Ihre Konzentrationen sind abhängig von den Wechselwirkungen anderer Prozesse (Transkription, Translation, zelluläre Signalübertragung usw.), sie wurden als Reporter für den Metabolismus bei PD untersucht. Dieser wiederum bestimmt die biologische Struktur und Funktion des endgültigen Phänotyps des Organismus. Daher wirken sich Veränderungen in der Genexpression, der Funktion von Proteinen und der Umwelt direkt auf die Konzentration von Metaboliten in einem biologischen System aus. Das Metabolom besteht aus einer relativ kleinen Anzahl (ca. 5000), aber unterschiedlichen Arten von Metaboliten, die das Metabolom physikalisch und chemisch komplexer machen als Genom, Transkriptom und Proteom. Außerdem bestehen das Genom, Transkriptom und Proteom aus Verbindungen, die Teil des Metaboloms sind. Außerdem sind die Komponenten des Metaboloms im Vergleich zu Genom, Transkriptom und Proteom zwischen Organismen hoch konserviert, weshalb man davon ausgeht, dass das Metabolom evolutionär der älteste Teil der Zelle ist.

Abb.6. Integrationsansätze Daten in der Systembiologie
Die Metabolomik ist die am besten geeignete Strategie zur Bestimmung von krankheitsassoziierten Biomarkern. Die umfassende Untersuchung von Metaboliten ist ein wünschenswertes Werkzeug für die Diagnose von Krankheiten, die Identifizierung neuer therapeutischer Ziele und die Ermöglichung geeigneter Behandlungen. Die Analyse einer kleinen Anzahl von Metaboliten wird seit Jahrzehnten in der Krankheitsdiagnostik eingesetzt, z. B. bei der Entwicklung von Blutzuckerteststreifen in den 1950er Jahren zum Testen auf Diabetes oder bei der Quantifizierung von Phenylalanin bei Neugeborenen zum Screening auf Phenylketonurie.
Metabolomics-Analysen können in zwei Hauptansätze eingeteilt werden: gezielte und ungezielte Metabolomics. Bei der gezielten Analyse sind die Metaboliten, die bestimmt werden, bekannt und repräsentieren spezifische Stoffwechselwege oder Molekülklassen. Im Gegensatz dazu zielt die ungezielte Metabolomik darauf ab, so viele Metaboliten wie möglich zu quantifizieren und zu identifizieren. Die gezielte Metabolomik bezieht sich auf die absolute Quantifizierung (nM oder mg/ml) und verwendet einen internen Standard und eine halbquantitative oder quantitative Analyse, um bekannte Verbindungen, die mit bestimmten Stoffwechselwegen in Verbindung stehen, zu erkennen. Der ungezielte Ansatz misst alle vorhandenen Metaboliten in einer Probe und wendet relative Quantifizierung (Fold Change) und Vergleiche zwischen Proben an. Die Schlüsselrolle, die Metabolomics bei der Multi-omics-Integration und der Systemmodellierung spielt, ist auf die Tatsache zurückzuführen, dass sie quantitativ sein kann. Systemmodellierung kann nicht ohne genaue Werte oder genaue Konzentrationen als Eingaben durchgeführt werden und ebenso können Systemmodelle nicht ohne genaue, quantitative Konzentrationen als Ausgaben leicht verifiziert werden. Metabolomics kann beides liefern (quantitative Eingangs- und Ausgangsdaten), was sie für Systemmodellierer äußerst wertvoll macht.
Aufgrund der enormen chemischen Komplexität des Metaboloms kann es nicht mit einer einzigen Technologie umfassend untersucht werden. Die früheste Anwendung der Metabolomik geht auf die 1970er Jahre zurück, als die Gaschromatographie-Massenspektrometrie zur Erstellung von Metabolitenprofilen klinischer Urinproben verwendet wurde. Nicholson und andere erstellten in den 1980er Jahren ein Profil von klinischen Proben durch die Anwendung der Kernspinresonanzspektroskopie. Massenspektrometrie gekoppelt mit Flüssigchromatographie und Kapillarelektrophorese werden ebenfalls in der Metabolomik eingesetzt, um die verfügbaren analytischen Techniken zu ergänzen. Einige der analytischen Instrumente, die für die Metabolomics-Forschung verwendet werden, werden häufig und routinemäßig eingesetzt, während andere spezifische Aufgaben haben und weniger häufig eingesetzt werden.
- Gaschromatographie – Massenspektrometrie (GC-MS) – Eine der am häufigsten verwendeten Methoden in der Metabolomik ist GC-MS. Wie der Name schon sagt, vereinigt GC-MS zwei Techniken zu einer einzigen Methode für die Analyse von Chemikaliengemischen. Die Gaschromatographie trennt die Komponenten einer Mischung und die Massenspektroskopie charakterisiert jede der Komponenten einzeln. Durch die Kombination der beiden Techniken kann jeder Metabolit in einer Probe sowohl qualitativ als auch quantitativ bewertet werden. Diese chromatographische Technik wird verwendet, um Metaboliten zu untersuchen, die einen niedrigen Siedepunkt haben und die in der Gasphase im Temperaturbereich von 50-350°C vorhanden sind. Diese Metaboliten können in ihrer biologisch nativen Form einen niedrigen Siedepunkt haben oder der Siedepunkt eines Metaboliten kann durch eine chemische Veränderung, auch chemische Derivatisierung genannt, herabgesetzt werden. Die Probe, die Metaboliten enthält, wird in eine mobile Phase eingebracht (injiziert), die in der Gaschromatographie ein inertes Gas wie Helium ist. Die mobile Phase führt das Probengemisch durch eine so genannte stationäre Phase. Die Metaboliten werden aufgrund ihrer Adsorption an der stationären Phase getrennt. Die stationäre Phase befindet sich in der Regel in einer Glas- oder Edelstahlsäule und stellt eine Chemikalie dar, die selektiv Komponenten in einem Probengemisch adsorbieren kann. Durch Veränderung der Eigenschaften der mobilen Phase und der stationären Phase können verschiedene Chemikaliengemische getrennt werden. Wenn die einzelnen Metaboliten von der GC-Säule eluieren, gelangen sie in den Elektronenionisationsdetektor (Massenspektrometer). Dort werden sie mit einem Strom von hochenergetischen Elektronen (70 eV) beschossen, wodurch sie in Fragmente zerfallen. Diese Fragmente können große oder kleine Teile der ursprünglichen Moleküle sein. Das Massenspektrum, das man für eine bestimmte chemische Verbindung erhält, ist im Grunde jedes Mal gleich. Daher ist das Massenspektrum ein Fingerabdruck für das Molekül. Dieser Fingerabdruck kann verwendet werden, um die Verbindung zu identifizieren.
- Flüssigchromatographie-Massenspektrometrie (LC-MS) – Der Hauptunterschied zwischen GC-MS und LC-MS besteht darin, dass bei der Flüssigkeitschromatographie (LC) die mobile Phase ein Lösungsmittel ist. Die LC trennt Gemische von Metaboliten, die in flüssiger Form vorliegen, meist mit Methanol, Acetonitril und Wasser. Durch die Verwendung verschiedener Packungen von Säulen (unterschiedliche stationäre Phase) können mit hoher Effizienz kleine Mengen komplexer Gemische getrennt werden. Die in der HPLC verwendeten Säulen bestehen aus Octadecyl- (C18), Octyl- (C8), Cyano-, Amino- und Phenyl-Packungen und haben in der Regel eine Länge von 50 mm bis 300 mm. Die Säulen werden auf der Grundlage der Art der zu trennenden Verbindungen verwendet. Die Flüssigkeit, die die Mischung der Komponenten enthält, wird in die Ionenquelle des Massenspektrometers überführt, wo der Prozess der Ionisierung stattfindet und Tröpfchen mit einem Überschuss an positiver oder negativer elektrischer Ladung gebildet werden. Die Ionisierung kann durch den Einsatz verschiedener Arten von Ionisationsquellen und Schnittstellen erreicht werden. Nach der Ionisierung werden die Ionen in den Massenanalysator transferiert, wo die Trennung der Ionen nach ihrem Masse-Ladungs-Verhältnis (m/z) erfolgt.
- Kapillarelektrophorese-Massenspektrometrie (CE-MS) – diese Analysetechnik wird auch Kapillarzonen-Elektrophorese-Massenspektrometrie genannt. CE-MS beinhaltet die Trennung von ionischen Spezies in der Flüssigphase durch Anlegen von Hochspannungen und ist in der Regel mit einer Elektrospray-Massenspektrometrie gekoppelt. Die Kapillarelektrophorese trennt Metaboliten aufgrund ihrer elektrophoretischen Mobilität in einer flüssigen Elektrolytlösung, die in einem elektrischen Feld arbeitet. Die elektrophoretische Mobilität ist abhängig von der Ladung und Größe des Metaboliten, so dass eine Trennung von Metaboliten mit unterschiedlichen Größen und/oder Ladungen möglich ist. Alle Metaboliten müssen geladen sein, damit eine Mobilität stattfinden kann.
Bei GC-MS, LC-MS und CE-MS erfolgt eine Abtrennung von Metaboliten vor deren Nachweis mit Massenspektrometrie. Diese Besonderheit bietet die Möglichkeit, Metaboliten in niedrigen Konzentrationen, üblicherweise Nanomol/Liter (nM/L) oder Mikromol/Liter (µM/L), nachzuweisen. - Die Kernspinresonanzspektroskopie (NMR) ist neben der Massenspektrometrie das am häufigsten verwendete analytische Instrument in der Metabolomics-Forschung. Die NMR-Spektroskopie nutzt die magnetischen Eigenschaften der Atomkerne in einem Metaboliten. Nur einige Atome sind NMR-aktiv und umfassen 1H, 13C und 31P; Proton (1H). Die Technik funktioniert, indem eine flüssige Probe in ein Röhrchen mit kleinem Innendurchmesser (z. B. ein 5 mm-Röhrchen) gegeben wird, oder gelegentlich wird ein Gewebestück direkt mit einem speziellen Probenhalter untersucht. Die Probe wird mit einer Reihe von Radiofrequenzen gepulst, die alle möglichen Energien abdecken, die für die Anregung der ausgewählten Art von Kernen erforderlich sind. Die Kerne absorbieren je nach ihrer chemischen Umgebung Energie bei unterschiedlichen Radiofrequenzen und die Abgabe dieser Energie wird gemessen, wobei ein freier Induktionszerfall (FID) entsteht. Dieser FID wird von einem Zeitbereich-Datensatz in einen Frequenzbereich umgewandelt – unter Verwendung einer Fourier-Transformation – und ein NMR-Spektrum wird als chemische Verschiebung (effektiv die Absorptionsenergie) aufgetragen gegen die Peak-Intensität konstruiert.
- Schwingungsspektroskopische Techniken wie die Fourier-Transformations-Infrarot-Spektroskopie (FT-IR) und die Raman-Spektroskopie werden zur Analyse der Stoffwechselveränderungen in biologischen Proben eingesetzt. Das Prinzip dieser Techniken basiert auf der Übertragung von ultraviolettem oder infrarotem Licht durch eine Probe, oder manchmal auch auf der Reflexion des Lichts von der Probe, bevor es detektiert wird. Die Ansätze messen vorwiegend die Schwingungen und Rotationen von Bindungen, die mit verschiedenen chemischen Funktionsgruppen verbunden sind und aus der Wechselwirkung der Probe mit dem ultravioletten oder infraroten Licht resultieren. Diesen Techniken fehlt in der Regel die Spezifität, um jeden Metaboliten einzeln zu detektieren, stattdessen absorbieren bestimmte Teile des Moleküls das ultraviolette oder infrarote Licht bei bestimmten Wellenlängen. Im FT-IR werden beispielsweise C-H-Streckschwingungen, die für Fettsäureketten charakteristisch sind, zwischen dem Wellenzahlbereich 3100 – 2800 cm-1 beobachtet, und der Bereich zwischen 1800 und 1500 cm-1 wird von Amid-I- und Amid-II-Banden dominiert, was auf die Vorherrschaft von entweder Alpha-Helix- oder Beta-Sheet-Strukturen hinweist.
Auf dem Gebiet der Metabolomik werden routinemäßig viele Hunderte von Proben analysiert, wobei in der Regel mindestens mehrere Hundert Metaboliten nachgewiesen werden. Die aus dem Nachweis von Metaboliten in einer gegebenen biologischen Probe gewonnenen Daten werden anschließend mit statistischen multivariaten Methoden (Chemometrie) weiter analysiert, um biologische, physiologische und klinisch relevante Informationen zu extrahieren.
Vor- und Nachteile von Omics-Technologien
Die Implementierung von Omics-Technologien und die Integration von Omics-Daten wurde für ein breites Spektrum von Forschungsbereichen realisiert, darunter Lebensmittel- und Ernährungswissenschaften, Systemmikrobiologie, Analyse von Mikrobiomen, Genotyp-Phänotyp-Interaktionen, Systembiologie, Naturproduktentdeckung und Krankheitsbiologie. In jüngster Zeit wurden omics-basierte Ansätze durch die Hinzunahme neuartiger Konzepte wie Exposome/Exposomics (Rolle der Umwelt bei menschlichen Krankheiten), Adductomics (Untersuchung von Verbindungen, die DNA binden und Schäden und Mutationen verursachen), Volatilomics (Untersuchung flüchtiger organischer Verbindungen zur Metabolomics/Lipidomics-Analyse), Nutrigenomics (Untersuchung der Auswirkungen von Lebensmitteln auf unsere Gene) usw. erheblich verbessert. Die Omics-Technologien zielen jedoch in erster Linie auf vier Omics-Forschungsfelder – Genomics, Transcriptomics, Proteomics und Metabolomics. Die traditionellen Forschungsfelder wie Genetik, Pharmakogenetik und Toxikogenetik, die das Omics-Konzept nicht anwenden, liefern die statischen Sequenzen von Genen und Proteinen. Im Gegensatz dazu bieten die Omics-Technologien die gleichzeitige Messung der Anzahl von Proteinen, Genen und Metaboliten und ermöglichen die Gewinnung großer Datenmengen in kurzer Zeit. Die kollektive Analyse der biologischen Prozesse in einem biologischen System, die durch alle Omics bereitgestellt wird, ist ein Vorteil gegenüber den bisherigen traditionellen Methoden, um das Gesamtbild des biologischen Systems besser zu verstehen. Obwohl große Omics-Daten immer besser zugänglich sind, ist die Integration von echten Multi-Omics-Daten immer noch eine große Herausforderung. Das liegt daran, dass viele der spezifischen Analysewerkzeuge und experimentellen Designs, die konventionell für einzelne Omics-Disziplinen (Genomics, Transcriptomics und Proteomics) verwendet werden, nicht ausreichend geeignet sind, um zuverlässige Vergleiche und Integration über mehrere Omics-Disziplinen hinweg zu ermöglichen. Zum Beispiel sind die Methoden zur Probensammlung und -lagerung sowie die Menge und Art der biologischen Proben, die in Genomics-Studien benötigt werden, oft nicht mit Metabolomics, Proteomics oder Transcriptomics kompatibel. Bei der Datenerhebung gibt es viele Probleme, wie z. B. Datenheterogenität, geringe Stichprobengröße im Vergleich zu vielen Parametern, Bestätigung und Interpretation der Daten aufgrund vieler Wechselwirkungen im biologischen System und unzureichender Informationen über diese Systeme. Fast in allen Omics-Experimenten werden hunderte bis tausende von Zielmolekülen und Variablen gemessen (Metabolite, Proteine, Gene, Transkripte und SNPs). Dies erfordert die Untersuchung einer ausreichenden Anzahl von biologischen Proben, um statistisch zuverlässige Ergebnisse zu erhalten. Außerdem müssen die Multi-omics-Daten aus demselben Probensatz generiert werden, um den direkten Vergleich unter gleichen Bedingungen zu ermöglichen. Dies ist jedoch aufgrund von Einschränkungen bei der Probenbiomasse, dem Probenzugang oder den finanziellen Ressourcen nicht immer möglich. In einzelnen Omics-Experimenten werden oft größere Probenmengen benötigt, um dieses Problem zu überwinden. Darüber hinaus müssen die integrierten Multi-omics-Daten als einzelne Datensätze analysiert werden, bevor sie in omics-spezifischen Datenbanken abgelegt werden, um sie öffentlich zugänglich zu machen. Diese Probleme unterstreichen, dass für die qualitativ hochwertigen Large-Scale-omics-Studien notwendig ist, : 1) ein Experiment richtig zu planen, 2) biologische Proben sorgfältig zu sammeln, vorzubereiten und zu lagern, 3) quantitative Multi-omics-Daten und zugehörige Metadaten sorgfältig zu sammeln, 4) geeignete Werkzeuge für die Integration und Interpretation der Daten zu verwenden.
Einige der Vor- und Nachteile der wichtigsten Omics-Technologien sind in Tabelle 1 zusammengefasst.
Tabelle 1. Vor- und Nachteile der wichtigsten Omics-Forschungstechnologien
| Omics-Technologie | Vorteil | Nachteil |
|---|---|---|
| Genomik | • Analyse des kompletten Genoms • Untersuchung des Gen-Polymorphismus zwischen Individuen • Durch die Identifizierung von SNPs wird eine wertvolle Information für die Frühdiagnose und Behandlung von Krankheiten bereitgestellt • Einfach zu implementierende Labortechniken |
• Die durchgeführte Genomanalyse reicht nicht aus, um die endgültige biologische Wirkung der DNA aufgrund von Epigenetik, posttranskriptionellen und posttranslationalen Veränderungen vorherzusagen. • Erfordern eine spezielle und teure Laborausrüstung |
| Epigenomik | Wissen über die Regulation der Genexpression bereitstellen | • Es ist schwierig, die gewonnenen epigenetischen Daten mit der Genexpression in Beziehung zu setzen, da die Transkription durch mehrere Prozesse beeinflusst werden kann • Nicht jede methylierte Region kann mit den verwendeten Techniken erkannt werden. |
| Transkriptomik | • Untersuchung des kompletten Satzes der mRNA (Transkriptom) • Identifizierung der wichtigsten Signalwege, die an der Arzneimittelwirkung und -toxizität beteiligt sind. • Einfach zu implementierende Labortechniken |
• Die Proteinexpression wird durch posttranslationale Veränderungen beeinflusst, die zu falschen Daten führen • Erfordern teure und spezifische Ausrüstung |
| Proteomics | • Untersuchung des kompletten Satzes von Proteinen in einem biologischen System • Erkennung von unbekannten und unerwarteten Proteinen |
• Teure Geräte und zeitaufwendige Verfahren nicht auf das gesamte Proteom anwendbar • Einige Proteine lassen sich nur schwer trennen und aufreinigen • MS-Anwendung und Interpretation der Daten erfordern speziell geschultes Personal |
| Metabolomics | • Liefert adäquate Daten über Veränderungen der Stoffwechselvorgänge in der Zelle • Endogene Metaboliten sind weniger als Gene, Transkripte und Proteine, daher müssen weniger Daten interpretiert werden • Erkennung von Biomarkern für Krankheiten |
• Relativ geringe Anzahl von Metaboliten (einige Tausend), die gemessen werden können • Spezielle, teure Geräte • Der Einsatz von MS und NMR erfordert speziell geschultes Personal |
Multi-omics-Datensätze können in bestimmten Szenarien eine größere Verständnistiefe bieten, aber das ist nicht ohne Kosten. Diese Studien basieren häufig auf einer großen Anzahl von Vergleichen, dem richtigen Datentyp, relevanten statistischen Analysen, spezifischer Ausrüstung und geschultem Personal sowie erheblichen Investitionen von Zeit und Geld. Bei der Planung eines Experiments muss berücksichtigt werden, welche Arten von Omics-Daten integriert werden können und sollten, um aussagekräftige biologische Erkenntnisse über das untersuchte System zu erhalten. Die Anwendung von Hochdurchsatz-omics-Plattformen ist nicht immer notwendig, um die Forschungsfrage zu beantworten. Die Ergebnisse traditioneller Techniken wie der quantitativen Polymerase-Kettenreaktion (qPCR), des Enzyme-linked Immunosorbent Assay (ELISA) oder der Immunhistochemie (IHC) können manchmal ausreichen, um ein Verständnis für biologische Mechanismen zu erhalten. Diese Techniken ergänzen oft die Ergebnisse einer größeren Omics-Studie, da sie angewandt werden, um zu verifizieren, dass das signifikante Molekül, das aus Omics-Daten identifiziert wurde, ein echtes positives Ergebnis ist.
Test: LO1- Basisniveau
Referenzen:
- Altaf-Ul-Amin M, Afendi FM, Kiboi SK, Kanaya S. 2014. Systems Biology in the Context of Big Data and Networks, BioMed Res Int, 1:11.
- Aslam B, Basit M, Nisar MA, Khurshid M, Rasool MH. 2017. Proteomics: Technologies and Their Applications. J Chromatogr Sci, 55(2).
- Benavente L, Goldberg A, Myburg H, Chiera J, Zapata M & van Zyl L. 2015. The application of systems biology to biomanufacturing. Pharm. Bioprocess, 3(4):341–355.
- Bertolaso M, Giuliani A, de Gara L. 2010. Systems Biology Reveals Biology of systems. Wiley Periodicals, Inc., 16 (6).
- Bloom FE. 2001. What does it all mean to you? J Neurosci, 21:8304–8305.
- Clish CB. 2015. Metabolomics: an emerging but powerful tool for precision medicine. Cold Spring Harb Mol Case Stud, 1: a000588
- Coorssen JR. 2013. Proteomics. Brenner’s Encyclopedia of Genetics (Second Edition), p. 508-510.
- Dos Santos EAF, Santa Cruz EC, Ribeiro HC, Barbosa LD, Zandonadi FS, Sussulini A. 2020. Multi-omics: An Opportunity to Dive into Systems Biology. Braz J Anal Chem, 7(29): 18-44.
- Haas R, Zelezniak A, Iacovacci J, Kamrad S, Townsend S, Ralser M. 2017. Designing and interpreting ‘multi-omic’ experiments that may change our understanding of biology. Curr Opin Syst Biol, 6:37–45.
- Han X, Aslanian A, Yates JR. 2008. Mass Spectrometry for Proteomics. Curr Opin Chem Biol, 12(5): 483–490.
- Horgan RP, Kenny LC. 2011. SAC review ‘Omic’technologies: genomics, transcriptomics, proteomics and metabolomics. Obstet Gynecol, 13:189–195
- Ideker T, Thorsson V, Ranish JA, ChristmasR, Buhler J, Eng R, Bumgarner JK, Goodlett DR, Aebersold R, Hood L. 2001. Integrated genomic and proteomic analyses of a systematically perturbed metabolic network. Science, 292:929–934.
- Ishii N, Tomita M. 2009. Multi-Omics Data-Driven Systems Biology of E. coli. In: Lee S.Y. (eds) Systems Biology and Biotechnology of Escherichia coli. Springer, Dordrecht.
- Kalavacharla V, (Kal), Subramani M, Ayyappan V, et al. 2017. Plant Epigenomics. Handbook of Epigenetics, 245–258.
- Karahalil B. 2016. Overview of Systems Biology and Omics Technologies. Curr Med Chem, 23:1-10.
- Karamperis K, Wadge S, Koromina M. 2020. Genetic testing. Applied Genomics and Public Health (Translational and Applied Genomics), Elsevier, 189-207.
- Laurence P. 2015. The case of the gene: Postgenomics between modernity and postmodernity. EMBO Reports, 16 (7): 777–781.
- Liang KH. 2013. Transcriptomics. Bioinformatics for Biomedical Science and Clinical Applications. Woodhead Publishing, p. 49-82.
- Lin, S., Fang, L., Li, C., Liu, G. 2019. Epigenetics and heritable phenotypic variations in livestock. In: Tollefsbol T. (editor). Transgenerational Epigenetics. 2nd edition. Amsterdam, Netherlands: Elsevier, p. 283-313
- Milward EA, Shahandeh A, Heidari M, Johnstone DM, Daneshi N, Hondermarck H. 2016. Transcriptomics. Encyclopedia of Cell Biology. Elsevier, The Netherland, 4: 160-165.
- O’Donnell ST, Ross RP, Stanton C. 2020. The Progress of Multi-Omics Technologies: Determining Function in Lactic Acid Bacteria Using a Systems Level Approach. Front. Microbiol, 10: 1-17.
- Pereira C, Adamec BJ. 2019. Metabolome Analysis. Encyclopedia of Bioinformatics and Computational Biology, 3:463-475
- Pinu FR, Beale DJ, Paten AM, Kouremenos K, et al. 2019. Systems Biology and Multi-Omics Integration: Viewpoints from the Metabolomics Research Community. Metabolites, 9(76).
- Potters, G. 2010. Systems Biology of the Cell. Nature Education, 3(9):33.
- Pratima NA, Gadikar R. 2018. Liquid Chromatography-Mass Spectrometry and Its Applications: A Brief Review. Arc Org Inorg Chem Sci, 1(1): 26-34.
- Shah TR, Ambikanandan M. 2011. Proteomics. Challenges in Delivery of Therapeutic Genomics and Proteomics. Elsevier, p. 387-427.
- Strange K. 2005. The end of “naïve reductionism”: rise of systems biology or renaissance of physiology? Am J Physiol Cell Physiol, 288: C968–C974.
- Turunen TA, … Ylä-Herttuala S. 2018. Epigenomics. Encyclopedia of Cardiovascular Research and Medicine, p. 258-265.
- Vlaanderen J, Moore LE, Smith MT, et al. 2010. Application of omics technologies in occupational and environmental health research: current status and projections. Occup Environ Med, 67: 136-143.
- Yadav D, Tanveer A, Malviya N, Yadav S. 2018. Overview and Principles of Bioengineering: The Drivers of Omics Technologies and Bio-Engineering Towards Improving Quality of Life, p.3-23
- Yang X. 2020. Multitissue Multiomics Systems Biology to Dissect Complex Diseases. Trends Mol Med, 26 (8).
- A brief guide to genomics. https://www.genome.gov/about-genomics/fact-sheets/A-Brief-Guide-to-Genomics
- Analytical Techniques applied in Metabolomics. https://www.futurelearn.com/info/courses/metabolomics/0/steps/10710
- Boundless biology. https://courses.lumenlearning.com/boundless-biology/chapter/the-genetic-code/
- Altaf-Ul-Amin M, Afendi FM, Kiboi SK, Kanaya S. 2014. Systems Biology in the Context of Big Data and Networks, BioMed Res Int, 1:11.
- Aslam B, Basit M, Nisar MA, Khurshid M, Rasool MH. 2017. Proteomics: Technologies and Their Applications. J Chromatogr Sci, 55(2).
- Benavente L, Goldberg A, Myburg H, Chiera J, Zapata M & van Zyl L. 2015. The application of systems biology to biomanufacturing. Pharm. Bioprocess, 3(4):341–355.
- Bertolaso M, Giuliani A, de Gara L. 2010. Systems Biology Reveals Biology of systems. Wiley Periodicals, Inc., 16 (6).
- Bloom FE. 2001. What does it all mean to you? J Neurosci, 21:8304–8305.
- Clish CB. 2015. Metabolomics: an emerging but powerful tool for precision medicine. Cold Spring Harb Mol Case Stud, 1: a000588
- Coorssen JR. 2013. Proteomics. Brenner’s Encyclopedia of Genetics (Second Edition), p. 508-510.
- Dos Santos EAF, Santa Cruz EC, Ribeiro HC, Barbosa LD, Zandonadi FS, Sussulini A. 2020. Multi-omics: An Opportunity to Dive into Systems Biology. Braz J Anal Chem, 7(29): 18-44.
- Haas R, Zelezniak A, Iacovacci J, Kamrad S, Townsend S, Ralser M. 2017. Designing and interpreting ‘multi-omic’ experiments that may change our understanding of biology. Curr Opin Syst Biol, 6:37–45.
- Han X, Aslanian A, Yates JR. 2008. Mass Spectrometry for Proteomics. Curr Opin Chem Biol, 12(5): 483–490.
- Horgan RP, Kenny LC. 2011. SAC review ‘Omic’technologies: genomics, transcriptomics, proteomics and metabolomics. Obstet Gynecol, 13:189–195
- Ideker T, Thorsson V, Ranish JA, ChristmasR, Buhler J, Eng R, Bumgarner JK, Goodlett DR, Aebersold R, Hood L. 2001. Integrated genomic and proteomic analyses of a systematically perturbed metabolic network. Science, 292:929–934.
- Ishii N, Tomita M. 2009. Multi-Omics Data-Driven Systems Biology of E. coli. In: Lee S.Y. (eds) Systems Biology and Biotechnology of Escherichia coli. Springer, Dordrecht.
- Kalavacharla V, (Kal), Subramani M, Ayyappan V, et al. 2017. Plant Epigenomics. Handbook of Epigenetics, 245–258.
- Karahalil B. 2016. Overview of Systems Biology and Omics Technologies. Curr Med Chem, 23:1-10.
- Karamperis K, Wadge S, Koromina M. 2020. Genetic testing. Applied Genomics and Public Health (Translational and Applied Genomics), Elsevier, 189-207.
- Laurence P. 2015. The case of the gene: Postgenomics between modernity and postmodernity. EMBO Reports, 16 (7): 777–781.
- Liang KH. 2013. Transcriptomics. Bioinformatics for Biomedical Science and Clinical Applications. Woodhead Publishing, p. 49-82.
- Lin, S., Fang, L., Li, C., Liu, G. 2019. Epigenetics and heritable phenotypic variations in livestock. In: Tollefsbol T. (editor). Transgenerational Epigenetics. 2nd edition. Amsterdam, Netherlands: Elsevier, p. 283-313
- Milward EA, Shahandeh A, Heidari M, Johnstone DM, Daneshi N, Hondermarck H. 2016. Transcriptomics. Encyclopedia of Cell Biology. Elsevier, The Netherland, 4: 160-165.
- O’Donnell ST, Ross RP, Stanton C. 2020. The Progress of Multi-Omics Technologies: Determining Function in Lactic Acid Bacteria Using a Systems Level Approach. Front. Microbiol, 10: 1-17.
- Pereira C, Adamec BJ. 2019. Metabolome Analysis. Encyclopedia of Bioinformatics and Computational Biology, 3:463-475
- Pinu FR, Beale DJ, Paten AM, Kouremenos K, et al. 2019. Systems Biology and Multi-Omics Integration: Viewpoints from the Metabolomics Research Community. Metabolites, 9(76).
- Potters, G. 2010. Systems Biology of the Cell. Nature Education, 3(9):33.
- Pratima NA, Gadikar R. 2018. Liquid Chromatography-Mass Spectrometry and Its Applications: A Brief Review. Arc Org Inorg Chem Sci, 1(1): 26-34.
- Shah TR, Ambikanandan M. 2011. Proteomics. Challenges in Delivery of Therapeutic Genomics and Proteomics. Elsevier, p. 387-427.
- Strange K. 2005. The end of “naïve reductionism”: rise of systems biology or renaissance of physiology? Am J Physiol Cell Physiol, 288: C968–C974.
- Turunen TA, … Ylä-Herttuala S. 2018. Epigenomics. Encyclopedia of Cardiovascular Research and Medicine, p. 258-265.
- Vlaanderen J, Moore LE, Smith MT, et al. 2010. Application of omics technologies in occupational and environmental health research: current status and projections. Occup Environ Med, 67: 136-143.
- Yadav D, Tanveer A, Malviya N, Yadav S. 2018. Overview and Principles of Bioengineering: The Drivers of Omics Technologies and Bio-Engineering Towards Improving Quality of Life, p.3-23
- Yang X. 2020. Multitissue Multiomics Systems Biology to Dissect Complex Diseases. Trends Mol Med, 26 (8).
- A brief guide to genomics. https://www.genome.gov/about-genomics/fact-sheets/A-Brief-Guide-to-Genomics
- Analytical Techniques applied in Metabolomics. https://www.futurelearn.com/info/courses/metabolomics/0/steps/10710
- Boundless biology. https://courses.lumenlearning.com/boundless-biology/chapter/the-genetic-code/
Systembiologie und Omics-Technologie
Fortgeschrittenes Niveau
Fortschritte in den Omics-Technologien – wie Genomics, Transcriptomics, Proteomics und Metabolomics – haben begonnen, Medizin auf einer außerordentlich detaillierten molekularen Ebene zu ermöglichen.
OMICS-Technologien zur Verbesserung der Lebensqualität
OMICS Technologien und Molekulare Medizin
Fortschritte in den Omics-Technologien – wie Genomics, Transcriptomics, Proteomics und Metabolomics – haben begonnen, Medizin auf einer außerordentlich detaillierten molekularen Ebene zu ermöglichen. Die schnell sinkenden Kosten der Hochdurchsatz-Sequenzierung und anderer massiv-paralleler Technologien, wie der Massenspektrometrie, ermöglichen deren Einsatz in der klinischen Forschung und Praxis. Exom- und Genomsequenzierung werden bereits eingesetzt, um Diagnosen zu unterstützen, insbesondere bei seltenen Krankheiten, um Informationen über die Krebsbehandlung und den Krankheitsverlauf zu erhalten und, in ersten Ansätzen, um Vorhersagemodelle für Krankheiten bei gesunden Personen zu erstellen. Zahlreiche Forschungsbemühungen und Unternehmen konzentrieren sich auf genomweite Profile von genetischen, Genexpressions- und anderen Omics-Daten, wie z. B. dem Mikrobiom, als Biomarker für Krankheiten. Diese Techniken wurden auch bei der Identifizierung von Risikoloci für Krankheiten, bei der Definition der genauen Pathophysiologie der Krankheit sowie bei der Durchführung von Forschungen im Bereich Occupational Environmental Health (OEH) eingesetzt.
Im Idealfall werden verschiedene Technologien kombiniert, um sowohl die Diagnose von Krankheiten zu unterstützen als auch ein ganzheitliches Bild des menschlichen Phänotyps und der Krankheit zu erstellen. Die Implementierung von Multi-Omics-Daten führt jedoch zu neuen Herausforderungen in der Informatik und Interpretation. Welchen Einfluss kann die integrative Omics-Technologie auf die Medizin haben, indem sie sowohl beim Gesundheitsmanagement als auch bei der Diagnose und Behandlung von Krankheiten hilft? Um die Behandlungsergebnisse zu verbessern und unerwünschte Ereignisse zu reduzieren, die sowohl für den Arzt als auch für den Patienten von Bedeutung sind, besteht eine der perspektivischen Lösungen in der Entwicklung der personalisierten Medizin – einer maßgeschneiderten medizinischen Behandlung, die auf die Eigenschaften, Bedürfnisse und das einzigartige molekulare und genetische Profil des Einzelnen abgestimmt ist (Abb. 1).

Abb. 1. Personalisierte Medizin über die gesamte Lebensspanne
OMICs-Technologien in der Diagnostik
Pränatale Diagnostik
Nahezu 10 % der Kinderkrankheiten und 20 % der Todesfälle bei Säuglingen sind auf Mendelsche Krankheiten zurückzuführen. Genetische Defekte können eine große Gefahr für die Gesundheit des Babys darstellen. Um dieses Problem zu überwinden, werden die neuesten Entwicklungen in den Omics-Technologien bereits vor der Geburt eingesetzt. Pränatales Screening ist in vielen Ländern weit verbreitet, um nicht nur Anomalien eines Fötus zu untersuchen, sondern auch die möglichen Risiken von Krankheiten oder abnormalen Zuständen nach der Geburt. Wenn eine genetische Veranlagung vorliegt, wie z. B. Mukoviszidose oder Muskeldystrophie, wird die Konsultation eines Facharztes oder einer Gendiagnosefirma von großer Bedeutung. Die neuesten Innovationen in der Molekular- und Zellbiologie ermöglichten verschiedene genetische Diagnosen für Föten. Bis vor kurzem wurden verschiedene invasive Technologien wie die Amniozentese und die Chorionzottenbiopsie angewandt. Obwohl die Verfahren verbessert wurden, besteht immer noch das Risiko einer Fehlgeburt und ernsthafter Nebenwirkungen. Einer der innovativen Versuche, die Nebenwirkungen der konventionellen invasiven Technologien zu vermeiden, ist die Isolierung und Analyse von fetalen kernhaltigen Zellen aus mütterlichem Blut. Leider ist die Anzahl der fötalen Zellen, die isoliert werden können, etwa 3-5 Zellen pro 30 ml mütterlichen Blutes. Der große Sprung auf dem Gebiet der nicht-invasiven pränatalen Tests (NIPT) wurde nach dem Fortschritt der Omics-Technologien und ihrer Kombination mit verschiedenen experimentellen Ansätzen gemacht. Der Einsatz der DNA-Amplifikationstechnologie in Kombination mit NGS ermöglichte den direkten Nachweis der fetalen DNA im mütterlichen Blut. Gegenwärtig wird ein solcher Ansatz zur Bestimmung des Geschlechts und der Rhesus-Blutgruppe sowie zur Analyse von chromosomalen Aneuploidien verwendet. Die zellfreie fetale DNA wird typischerweise im mütterlichen Blut während des Prozesses der Apoptose der Plazentazellen freigesetzt. Die fragmentierte zellfreie fetale DNA ist ∼200 bp lang und hat eine Halbwertszeit von ∼16 min und kann im mütterlichen Plasma ab der frühen Schwangerschaft (5-7 Wochen) nachgewiesen werden. Zusätzlich zur fetalen DNA können auch fetale RNAs für den NIPT verwendet werden. Zum Beispiel kann eine fetale Trisomie 21 diagnostiziert werden, indem das allelische Verhältnis der PLAC4 mRNA überprüft wird, die von Chromosom 21 in der Plazenta produziert wird. Wenn ein Baby heterogene Allele von den Eltern erhält, deutet ein ungleiches Allelverhältnis (2 : 1) auf eine Trisomie hin.
Die Integration von fetalen genomischen, transkriptomischen, proteomischen, metabolomischen und epigenetischen Daten wird dazu beitragen, die pränatale genetische Diagnostik voranzutreiben. Auf diese Weise könnte jede genetische Störung in einem frühen Stadium der Schwangerschaft durch die Anwendung nicht-invasiver Ansätze identifiziert werden. Allerdings gibt es einige Bedenken hinsichtlich der Aufwerfung ernsthafter ethischer Fragen, die sich bei der Verwendung fortschrittlicher Genomtechnologie ergeben können. Daher sollten weitere Studien über die Auswirkungen neuer Technologien auf die Gesellschaft, wie z. B. mögliche Diskriminierung aufgrund genetischer Informationen, unbestimmte schädliche Auswirkungen der Nanotechnologien auf Mensch und Natur sowie Urheberrechtsverletzungen aufgrund der Entwicklung der Informationstechnologie, in Betracht gezogen werden (siehe LO8).
Lab-on-a-Chip-Technologie in der Diagnostik
Schon bald nach der Entwicklung von mikro-elektromechanischen Systemen (MEMS) wurde der potenzielle Einsatz dieser miniaturisierten Plattformen für verschiedene Anwendungen entdeckt. In den letzten Jahrzehnten hat das Interesse an biologischen oder biomedizinischen MEMS (BioMEMS) deutlich zugenommen und sie haben weit verbreitete Anwendungen in verschiedenen Bereichen der Biowissenschaften gefunden, darunter Diagnostik, Therapeutik, Medikamentenabgabe, Biosensoren und Tissue Engineering. Diese integrierten Systeme sind auch als „Lab-on-a-Chip“ (LOC) oder „Mikro-Total-Analyse-Systeme“ (μTAS) bekannt und bieten einen soliden Weg zur Miniaturisierung, Integration, Automatisierung und Parallelisierung chemischer Prozesse.
Lab-on-a-Chip-Geräte integrieren mehrere Laborfunktionen auf einem einzigen Chip (von wenigen Quadratmillimetern bis zu einigen Quadratzentimetern Größe). Diese Plattformen ermöglichen komplexe chemische und/oder biologische Analysen, die im Vergleich zu konventionellen Labortests billiger, schneller, kontrollierbarer und leistungsfähiger sind als biochemische Assays in sehr kleinem Maßstab. Sie sind in der Lage, extrem kleine Flüssigkeitsvolumina bis hinunter zu weniger als ein paar Pikolitern (wenige Mikrotropfen Vollblut, Plasma, Speichel, Träne, Urin oder Schweiß) zu verarbeiten. Diese Tatsache ist sehr wichtig für viele klinische Studien, bei denen in der Regel sehr kleine Volumina an Patientenproben zur Verfügung stehen. Außerdem kann die Automatisierung mit der Eliminierung der menschlichen Störparameter die Zuverlässigkeit in der Analyse erhöhen.
LOC wurde in verschiedenen Anwendungen eingesetzt, wie z. B.: DNA-Extraktion und -Reinigung, PCR, qPCR, molekularer Nachweis, Elektrophorese, etc.
LOC für DNA-Extraktion und Aufreinigung: Für diagnostische Assays müssen Nukleinsäuren oft aus Zellen aufgereinigt werden. Der Prozess der DNA-Extraktion umfasst im Allgemeinen zwei Schritte: die Zelllyse durch Zerstörung der Zell- und Kernmembran und die Aufreinigung der DNA von Membranlipiden, Proteinen und RNA. Die Zelllyse auf LOC-Geräten kann durch verschiedene Arten von Lyse-Methoden erreicht werden: chemische, thermische, Ultraschall-, elektrische, mechanische oder eine andere Art der Lyse. Die bekannten DNA-Reinigungsmethoden durch Extraktionssäulen, die die DNA-Adsorption an Siliziumdioxid-Perlen unter bestimmten Pufferbedingungen nutzen, sind auch für mikrofluidische Techniken adaptierbar.
LOC-Geräte für PCR, qPCR und molekulare Detektion: Nach der DNA-Extraktion ist die häufigste Analyse die PCR. Die Bedeutung der PCR in der genomischen Analyse führte zur Entwicklung zahlreicher LOC-Geräte. Die Miniaturisierung des Volumens und das hohe Verhältnis von Oberfläche zu Volumen definieren einen schnellen thermischen Transfer und eine genauere PCR. Diese Analyse erfordert eine Nachanalyse und Größenbestimmung der Amplikons, die in der Regel durch Elektrophorese durchgeführt wird. Mit der Einführung der LOCs war die DNA-Elektrophorese einer der ersten molekularen Prozesse, der auf einem Chip integriert wurde. Durch diese Miniaturisierung wird die Gesamtprozesszeit noch weiter verkürzt und der Reagenzienverbrauch reduziert.

Abb. 2. Lab-on-a-Chip-Gerät
qPCR ist eine weitere Technik, die an LOC-Geräte angepasst wurde. Unter Verwendung eines ultraschnellen Druckreglers und eines Fluoreszenz-Readers wurde ein ultraschnelles qPCR-Mikrofluidiksystem für den molekularen Nachweis von Krankheiten wie Anthrax und Ebola entwickelt. Die Nachweiseffizienz ist identisch mit der kommerzieller Systeme und die Ergebnisse sind in weniger als 8 Minuten zu erreichen, was 7-15 mal schneller ist als bei den traditionell verwendeten Systemen. Ein weiterer fortschrittlicher Bereich ist die digitale Mikrofluidik, die sich mit Emulsionen und Tröpfchen in LOC-Geräten beschäftigt. Kleinste DNA-Mengen können in den Tröpfchen aufgenommen werden, und die Nachweisgrenzen können mit einer Kopienzahl-Detektion innerhalb der LOC-Tröpfchen-qPCR verbessert werden.
Genomische Anwendung: Durch die zahlreichen Sequenzierprojekte, wie z. B. das Human Genome Project, hat das Gebiet der Genomik in den letzten Jahren eine enorme Aufmerksamkeit erfahren. Zu den derzeit in der Entwicklung befindlichen Next-Generation-Sequenzierungstechniken gehören Sequencing-by-Hybridization (SBH), Nanopore-Sequencing und Sequencing-by-Synthesis (SBS), wobei letztere viele verschiedene DNA-Polymerase-abhängige Strategien umfasst. Die Verwendung des LOC-Ansatzes ermöglicht die drastische Reduzierung von Kosten und Dauer der Hochdurchsatz-Sequenzierung.
Bei der Untersuchung der komplexen DNA-Probenexpression ist eine Integration von mehreren Biosensoren in Verbindung mit DNA-Microarrays erforderlich. Die wichtigsten Eigenschaften dieser LOCs sind Miniaturisierung, Geschwindigkeit und Präzision. Diese Technologie bietet enorme Möglichkeiten für die schnelle Multiplex-Analyse von Nukleinsäureproben, einschließlich der Diagnose von genetischen Krankheiten, der Erkennung von Infektionserregern, der Messung der differentiellen Genexpression, des Drogenscreenings oder der forensischen Analyse.
Biochemische Anwendungen: Die LOC-Strategie ist auch bei der Kopplung enzymatischer und immunologischer Assays auf einem Einkanal-Mikrofluidikgerät anwendbar. Ein typisches Beispiel ist die gleichzeitige Messung von Glukose und Insulin. Der Schlüssel zur effektiven Realisierung eines solchen Glukose-/Insulin-Monitorings ist die Integration relevanter Probenvorbehandlungs-/Reinigungsverfahren, die für die Vollblutanalyse unerlässlich sind. Dieser innovative LOC-Ansatz lässt sich auf die Integration anderer Analysen und zusätzlicher Probenbehandlungsschritte übertragen, wie sie für die Schaffung miniaturisierter klinischer Instrumente gewünscht werden.
Proteomik: Die Proteomik ist eine der großen wissenschaftlichen Herausforderungen in der Post-Genom-Ära. LOC-Geräte sind nützlich für die Entwicklung fortschrittlicher Techniken zur Beantwortung komplexer analytischer Probleme, wie z. B. die Erstellung von Proteom-Profilen. LOC-Geräte könnten in vier Schlüsselbereichen der Proteomik eingesetzt werden: chemische Verarbeitung, Probenanreicherung und -reinigung, chemische Trennungen und Schnittstellen zur Massen-MS. Da es sich bei LOC um ein miniaturisiertes Gerät handelt, könnte es für die Trennung und Detektion von Proteinen verwendet werden. Dieses Verfahren zeichnet sich durch einen geringen Reagenzienverbrauch, eine einfache Bedienung und eine sehr schnelle Analyse aus. Ein weiterer Vorteil ist, dass die Daten aus den LOC-Geräten leicht mit denen verglichen werden können, die mit 2D-PAGE gewonnen wurden. Um Proteine zu quantifizieren, wird ein LOC-MS-Proteinprofilierungsgerät entwickelt. Einige Autoren beschreiben LOC-Geräte, die für die direkte Infusion in das Massenspektrometer verwendet werden, einschließlich Kapillarelektrophorese (CE)-Trennung, On-Chip-Probenaufschluss und Infusion oder CE vor der MS-Analyse. Die Forscher verwenden Elektrospray-Ionisations-MS und konzentrieren sich auf das Schnittstellendesign zwischen LOC und dem Massenspektrometer.
Biosensoren: Zum Nachweis von Zielanalyten werden auch LOC-Biosensoren entwickelt. Solche Geräte verknüpfen ein biologisches Erkennungselement mit einem physikalischen Wandler, der das biologische Erkennungsereignis in ein elektrisches Signal umwandelt. Es gibt zwei Arten von LOC-Biosensoren: bioaffine und biokatalytische Geräte. Bioaffinitätsgeräte basieren auf der selektiven Bindung des Zielanalyten an einen oberflächenumschlossenen Ligandenpartner (z. B. Antikörper, Oligonukleotid). In Hybridisierungs-Biosensoren sind beispielsweise einzelsträngige (ss) DNA-Sonden auf der Wandleroberfläche immobilisiert. Wenn ein Duplex gebildet wird, kann dieser nach Assoziation eines entsprechenden Hybridisierungsindikators nachgewiesen werden. Andererseits wird in biokatalytischen Geräten ein immobilisiertes Enzym zur Erkennung des Zielsubstrats verwendet. Zum Beispiel Sensorstreifen mit immobilisierter Glukoseoxidase zur Überwachung von Diabetes (weitere Informationen siehe LO3).
Zellforschung: Mit LOC-Geräten könnte auch ein Experiment mit Zellen im kleinen Maßstab durchgeführt werden. Die einzelne Zelle wird innerhalb des Mikrokanals an einer vorbestimmten Stelle positioniert, was ihre Handhabung und Manipulation erleichtert. Das Mikrosystem ermöglicht die Handhabung von kleinen Flüssigkeitsvolumina, die geringe Mengen an Analyt enthalten. LOC-Systeme bieten auch eine präzise Kontrolle der lokalen Umgebung der Zelle, indem sie die physikalische oder chemische Beschaffenheit der Oberfläche, an der die Zelle haftet, den lokalen pH-Wert und die Temperatur überwachen. Wenn die Zelle einer anderen Art von Stimuli ausgesetzt werden soll, können zahlreiche und oft komplexe Fluid-Handling-Komponenten eingesetzt werden. Wenn die Zelle Gegenstand einer weiteren Analyse ist, können die Lyse und die notwendigen analytischen Methoden ebenfalls auf derselben Plattform durchgeführt werden. So wird ein Probenverlust oder eine Verdünnung vermieden, die bei der Verwendung mehrerer Geräte unweigerlich auftreten würden.
Medikamentenentwicklung: Der Bedarf der Industrie an der Entwicklung neuer Medikamente und an der Vorhersage ihres potenziellen Verhaltens in Tieren und Zellen löst weitere analytische Anwendungen von LOC-Systemen aus: z. B. analytische Systeme zur Überwachung und Optimierung der Produktion von Proteinmedikamenten wie therapeutischen Antikörpern; Assays auf der Basis primärer menschlicher Zellen, die die Leistung in klinischen Studien am Menschen vorhersagen könnten, und Pothers. Diese LOC-Systeme sind nachweislich hoch reproduzierbar, leicht zu manipulieren und könnten routinemäßig eingesetzt werden.
OMICs-Analyse zur Aufdeckung der genetischen Architektur von Volkskrankheiten
Die Identifizierung von genetischen Markern, die mit einem bestimmten Krankheitsmerkmal assoziiert sind, ist eine Schlüsselfrage bei der Abschätzung des Krankheitsrisikos. Da die genetische Information eines Individuums meist unverändert bleibt, können die mutierten Sequenzen zuverlässige Marker für bestimmte Krankheiten sein. Eine der wichtigsten Anwendungen der Omics-Technologie sind in diesem Zusammenhang die genomweiten Assoziationsstudien (GWASs). Sie können häufige genetische Varianten, in der Regel Einzelnukleotid-Polymorphismen (SNPs), identifizieren, die mit bestimmten Krankheitsmerkmalen assoziiert sind. Im Allgemeinen werden die SNP-Informationen von zwei Gruppen gesammelt, einer Patientengruppe und einer gesunden Kontrollgruppe. Dann werden sie statistisch analysiert, und die SNPs, die mit den spezifischen Krankheitsmerkmalen der entsprechenden Patientengruppe assoziiert sind, werden identifiziert.
Zum Beispiel sind Variationen im Apolipoprotein E (APOE)-Gen ein bekannter genetischer Faktor, der mit der spät einsetzenden Alzheimer-Krankheit (LOAD) korreliert ist. Nach der Auswertung von 502.627 SNPs bei 1086 AD-Patienten wurde gezeigt, dass rs4420638 auf Chromosom 19 der stärkste Marker ist, der AD-Patienten von der Kontrollgruppe unterscheidet. Ein weiterer wichtiger Erfolg wurde bei der Untersuchung von erblichen Krebserkrankungen erzielt. Die BRCA1- und BRCA2-Gene sind einer der wichtigsten genetischen Marker für erblichen Brust- und Eierstockkrebs. Diese Gene kodieren für Tumorsuppressorproteine, die bei der Reparatur von beschädigter DNA durch homologationsgerichtete Reparatur helfen. Einige Mutationen in BRCA1 und/oder BRCA2 erhöhen das Risiko, an Brust- und/oder Eierstockkrebs zu erkranken, erheblich. Für BRCA1 wurden zwei Mutationen nachgewiesen: 185delAG und 5382insC. Etwa 55-65% der Frauen, die eine der schädlichen BRCA1-Mutationen geerbt haben, und etwa 45% der Frauen, die die BRCA2-Mutation tragen, haben bis zum Alter von 70 Jahren Brustkrebs entwickelt. Zahlreiche andere Krankheitsmarker wie autosomal-dominantes kolorektales Karzinom, Li-Fraumeni-Multikarzinom-Syndrom, Mukolipidose IV und hypertrophe Kardiomyopathie wurden ebenfalls erfolgreich mittels NGS identifiziert.
Für die häufigsten Krankheiten wie Diabetes, Fettleibigkeit, Schizophrenie und Autismus ist jedoch eine Kombination aus mehreren genetischen und Umweltfaktoren verantwortlich. Eine wachsende Zahl von Hinweisen deutet darauf hin, dass genetische Marker in der Regel nur einen Teil der gesamten Merkmalsvariation erklären. Einer der fehlenden entscheidenden Faktoren sind die epigenetischen Variationen. Es wurde berichtet, dass verschiedene epigenetische Modifikationen mit dem Frühstadium verschiedener Krebsarten (abnormales Wachstum eines Tumors) in Verbindung gebracht werden. Außerdem ist bekannt, dass Darmkrebs bei Männern häufiger vorkommt als bei Frauen. Deshalb wurde vermutet, dass Östrogen dazu beitragen könnte, Darmkrebs zu unterdrücken. Darüber hinaus haben die epigenetischen Profile von benachbarten und nicht benachbarten Mukosa-Proben von 95 Darmkrebspatienten gezeigt, dass der Promotor des MGMT, eines DNA-Reparatur-Gens, häufig methyliert war. Bislang wurden Tausende von genomischen Loci identifiziert und mit verschiedenen menschlichen Krankheiten in Verbindung gebracht. Die Schwierigkeiten entstehen jedoch, wenn diese Gene im Zusammenhang mit der molekularen Pathophysiologie und den entsprechenden interagierenden Genen und Signalwegen charakterisiert werden müssen.
Anwendung des OMICs-Ansatzes bei der Behandlung von Krankheiten
Das Hauptziel der personalisierten Medizin ist die Entscheidung über die effektivste Behandlungsoption für ein Individuum. In dieser Hinsicht kann die gleichzeitige Quantifizierung mehrerer Proteinmarker eine wichtige Rolle bei der Subtypisierung von Tumoren und der Auswahl optimierter Therapien für jeden Subtyp spielen. Auf Einzelzellen basierende Hochdurchsatz-Proteinquantifizierungstechniken, wie z. B. CyTOF, können eine hervorragende Alternative zu den auf Immunhistochemie basierenden Methoden sein.
So ist im letzten Jahrzehnt ein neuer Ansatz zur Behandlung von Krebserkrankungen entstanden – das Immunsystem des Patienten seinen Krebs bekämpfen zu lassen, genannt adoptiver Zelltransfer (ACT). Das Glioblastoma multiforme (GBM) ist die häufigste und aggressivste Form eines bösartigen Hirntumors. Obwohl GBM mit Methoden der chirurgischen Entfernung, der Strahlenbehandlung und der Chemotherapie behandelt wurde, gab es keine spürbaren Effekte. In den letzten 20 Jahren wurden zahlreiche klinische Studien durchgeführt, um das Immunsystem zur Heilung von Krebserkrankungen wie GBM einzusetzen. Unter den zahlreichen ACT-Ansätzen wurde besonderes Augenmerk auf die dendritischen Zell (DC)- und T-Zell-basierten Impfstoffe gelegt. Sie können in das Gehirn eindringen und eine antitumorale Reaktion auslösen und zeigen ein großes Potenzial für die effektive Abtötung verschiedener Krebsarten, einschließlich der malignen und fortgeschrittenen Typen. Autologe DCs, die aus Tumorgewebe oder in Form eines Tumorlysats eines Patienten gewonnen werden, können in vitro in Anwesenheit von Tumor-assoziierten Antigenen (TAAs) gezüchtet werden, eine Methode, die als „pulsieren“ bezeichnet wird. Die gepulsten, autologen DCs werden dem Patienten wieder zugeführt, um eine spezifische, zellvermittelte, antitumorale Zytotoxizität gegen GBM und andere bösartige Tumoren zu stimulieren. Weitere revolutionäre Ansätze, z. B. das Engineering spezifischer Immunzellen mit Hilfe von Zink-Finger-Nukleasen (ZFNs) und CRISPR-Technologie, wurden ebenfalls versucht.
Jedes Jahr unterziehen sich Tausende von Patienten einer Transplantation von Organen oder hämatopoetischen Stammzellen. Allerdings ist die Sterblichkeit unter diesen Patienten nach wie vor sehr hoch. Ein Standardverfahren für das Matching von Spendern und Empfängern ist die Typisierung von humanen Leukozytenantigenen (HLA). Es wird jedoch deutlich, dass auch Nicht-HLA-Faktoren die Prognose und die Entwicklung der Graft-versus-Host-Disease (GVHD) erheblich beeinflussen können. Um dies zu überwinden, können viele Omics-Anwendungen genutzt werden, um optimale Spender-Empfänger-Matches zu bestimmen sowie verschiedene Marker der Abstoßung zu untersuchen. So kann beispielsweise die freie DNA-Sequenzierung zur Beurteilung des Schweregrads der Organabstoßung sowie zum gleichzeitigen Nachweis des eventuellen Vorhandenseins von viraler DNA als Marker für eine Infektion verwendet werden. Zusätzliche Omics-Daten, wie die RNA- oder Proteinexpression, können auch zur Beurteilung der Spender-Empfänger-Kompatibilität genutzt werden. Somit kann die Integration mehrerer Omics-Technologien als nützliches Werkzeug für die Transplantationsbiologie genutzt werden.
Außerdem wurde das Mikrobiom mit vielen häufigen menschlichen Krankheiten in Verbindung gebracht. Während die Kausalität bei genomischen Daten einfach ist, da die DNA den Phänotyp beeinflusst, ist es schwieriger zu entschlüsseln, ob die Zusammensetzung des Mikrobioms eine Ursache oder eine Wirkung von Krankheiten ist. Dennoch ist es offensichtlich, dass Patienten mit entzündlichen Darmerkrankungen, Typ-2-Diabetes und Adipositas andere Mikrobiom-Profile aufweisen als gesunde Kontrollpersonen. Darüber hinaus hat das Mikrobiom einen großen Einfluss auf die Immunfunktion, die in einigen Fällen in Tiermodellen kausal mit der Krankheit in Verbindung gebracht wurde. In dem Maße, wie unser Verständnis des Mikrobioms voranschreitet, wird die integrative Auswertung dieser und anderer Daten aus der Omics-Technologie zu einem besseren Verständnis menschlicher Krankheiten beitragen. Kürzlich wurde gezeigt, dass menschliche genetische Profile die Gesamtzusammensetzung der Darmmikrobiota beeinflussen. Darüber hinaus wurde gezeigt, dass Interaktionen zwischen der menschlichen Genetik und dem Mikrobiom die Manifestation von Krankheiten beeinflussen. In ähnlicher Weise ist die metabolische Signalübertragung zwischen Wirten und ihren Mikrobiomen zu einem aktiven Forschungsgebiet geworden, und es gibt immer mehr Hinweise darauf, dass eine Reihe von Metaboliten, die von Darmbakterien abgesondert werden, eine Rolle bei menschlichen Krankheiten spielen können. Daher ist es offensichtlich, dass eine integrierte Analyse von Genom, Metabolom, Mikrobiom und anderen omics-Profilen Mittel für das Management von Gesundheit und die Bekämpfung von Krankheiten bieten wird.
OMICs-Technologien zur Krankheitsprävention – Zukunftsperspektiven
Ein weiteres wichtiges Ziel der personalisierten Medizin ist es, die Entwicklung verschiedener Krankheiten zu verhindern, bevor sie ausbrechen. Derzeitige präventive Behandlungen beschränken sich auf Operationen – die Entfernung eines Gewebes oder eines Organs, wenn eine Person relevante Krebsmarker besitzt. Dieser Ansatz ist jedoch nicht auf Krankheiten wie Alzheimer, Chorea Huntington und kongenitale Muskeldystrophie anwendbar. Einer der jüngsten Ansätze, um solche Probleme anzugehen, ist die Nutrigenomik-basierte Ernährungsbehandlung. Omics-Profiling kann ein effektiver Ansatz sein, um Veränderungen auf großer Ebene oder auf der Ebene von Signalwegen zu erkennen, kann patientenspezifische Trends aufzeigen und durch wiederholte Messungen statistische Unterstützung bieten.
Anwendung von OMICS-Technologien in der Toxikologie
Die Verwendung von Omics-Tools zur Bewertung des Gesundheitszustands der Umwelt gewinnt im Umweltmanagement und in der Risikobewertung immer mehr an Bedeutung. Omics erlauben es, molekulare Ereignisse und schädliche Wirkungen mit biologischen Organisationsebenen zu verbinden, die für Risikobewertungssysteme relevant sind. Die Analyse der RNA-Transkript-Ebene oder zelluläre Proteomik haben bereits besonderes Interesse erlangt. Diese Untersuchungen helfen, die Wechselwirkungen zwischen den Stressfaktoren und dem Organismus besser zu verstehen, aber auch die Wirkungsweisen (modes of action, MoA) verschiedener toxischer Substanzen zu entschlüsseln. Aus toxikologischer Sicht ermöglichen es Omics-Techniken daher, effektiv und präzise wichtige Informationen über substanzinduzierte molekulare Störungen in Zellen und Geweben zu generieren, die mit unerwünschten Wirkungen in Verbindung gebracht werden.
An zellulären Regulationswegen sind eine Reihe verschiedener (Bio-)Moleküle beteiligt, die sich durch unterschiedliche physikochemische Eigenschaften auszeichnen und komplexe nichtlineare Wechselwirkungen aufweisen. Eine Single-omics-Technik kann Biomoleküle eines bestimmten Typs, RNAs oder Proteine, messen, und häufig handelt es sich dabei nicht einmal um die Gesamtheit der Biomoleküle eines Typs, sondern um eine kleinere Teilmenge davon. So erfordert beispielsweise der Nachweis von kurzen und langen RNAs oder kurzen Peptiden und Proteinen unterschiedliche transkriptomische oder proteomische Ansätze. Nur die Verwendung von Multi-omics, auch bekannt als Cross-omics-Ansätze, erlaubt es, einen signifikanten Teil der Reaktion eines Stoffwechselweges auf chemische Exposition direkt zu identifizieren. Daher hat die Nutzung von Multi-omics-Strategien für toxikologische Forschungsfragen eine größere Bedeutung.
Ein solcher systemtoxikologischer Ansatz, der die klassische Toxikologie mit der quantitativen Analyse großer molekularer Netzwerke und funktioneller Veränderungen, die auf mehreren Ebenen der biologischen Organisation auftreten, integriert, ist vielversprechend für die Analyse des gesamten Spektrums der Toxizität von Xenobiotika. Ein systemtoxikologischer Ansatz umfasst die folgenden Elemente:
- Absorption und Verteilung des Xenobiotikums im biologischen System.
- Transformation des Xenobiotikums und Erzeugung von toxischen und/oder nicht-toxischen Zwischenprodukten.
- Interaktion des Xenobiotikums und/oder seiner Produkte mit den zellulären Zielen.
- Modifikationen in den zellulären Molekülen einschließlich Genen, Proteinen und Lipiden.
- Strukturelle Manifestationen der Zielorgan-Toxizität.
- Funktionelle Manifestationen der Toxizität, und
- Eliminierung des Xenobiotikums und/oder seiner Zwischenprodukte aus dem biologischen System.
Toxikologische Untersuchungen über OMICs-Analyse
Zum besseren Verständnis der zellulären Reaktion auf chemische Exposition sollten Studien auf verschiedenen Ebenen durchgeführt werden: Transkriptomik, Proteomik, Phosphoproteomik und Metabolomik. Auch die Epigenomik sollte in bestimmten Fällen in Betracht gezogen werden.
Transkriptomik. Das Hauptziel der Transkriptomik ist der umfassende Nachweis von RNAa in der Zelle. Eine Pfadantwort in der Transkriptomik wird in erster Linie über einen bekannten Satz von Zielgenen nachgewiesen, die differenziell exprimiert werden. Zu den Techniken, die angewandt werden, um Veränderungen in der Genexpression als Reaktion auf die Exposition gegenüber einem Xenobiotikum zu bestimmen, gehören: Nordhybridisierung, quantitative Echtzeit-PCR (QRT-PCR), subtraktive Hybridisierung, serielle Analyse der Genexpression, Microarray-Analyse und Next Generation Sequencing. Je nach Zweck der Studie können eine oder mehrere dieser Techniken angewendet werden, um entweder partielle oder globale Expressionsprofile in der untersuchten biologischen Probe zu definieren. Die am häufigsten verwendeten Techniken zur Erstellung von Genexpressionsprofilen sind jedoch QRT-PCR, Microarray-Analyse und NGS. Wenn das Ziel darin besteht, das Expressionsprofil eines einzelnen oder einer begrenzten Anzahl von Transkripten zu untersuchen, ist die QRT-PCR-Analyse die Methode der Wahl. Die QRT-PCR-Analyse ist eine relativ einfache Technik, die die reverse Transkription von mRNAs und die anschließende PCR-Amplifikation der resultierenden cDNAs unter Verwendung von Primern umfasst, die für das Zielgen sowie für ein oder mehrere Housekeeping-Gene spezifisch sind. Die Menge der PCR-amplifizierten Genprodukte wird dann quantifiziert. Da die QRT-PCR die Expression eines einzelnen oder einer begrenzten Anzahl von Transkripten genau bestimmen kann, hat sie aus systemtoxikologischer Sicht einige Einschränkungen. Um die Toxizität eines bestimmten Xenobiotikums auf Systemebene zu untersuchen, ist es notwendig, eine Hochdurchsatztechnik zu verwenden, die in der Lage ist, die Expressionswerte des gesamten Transkriptoms zu bestimmen. Aus diesem Grund sind Microarray und Next Generation Sequencing die populärsten globalen Transkriptomanalysetechniken, die in der toxikologischen Forschung eingesetzt werden.
Die Microarray-Technik stellt in der Ära der Post-Human-Genom-Sequenzierung einen großen Durchbruch bei den Analysen dar. Wie die Southern-Hybridisierungstechnik basiert der Microarray-Ansatz auf der Fähigkeit von DNA-Molekülen, nukleotidsequenzspezifisch zu binden oder zu hybridisieren. Microarray kann als eine Hochdurchsatz-Nord-Blot-Hybridisierung betrachtet werden, bei der fast alle Gene, die zu einem bestimmten Zeitpunkt in einer biologischen Probe exprimiert werden, gleichzeitig nachgewiesen werden können. Daher ist es möglich, kleine Unterschiede in den globalen Genexpressionsprofilen in einer gegebenen biologischen Probe als Reaktion auf die Xenobiotika-Exposition(en) zu erkennen. Die Microarray-Technik umfasst die Isolierung hochwertiger RNA, die reverse Transkription der mRNA zur Synthese von cDNA, die cRNA-Synthese und Markierung zur Erzeugung von „Sonden“, die Hybridisierung der „Sonden“ mit den auf dem Microarray vorhandenen „Targets“, den Nachweis der Signalintensität des hybridisierten Sonden-Target-Komplexes und die Analyse der resultierenden Daten zur Bestimmung der Expressionsniveaus der interessierenden Gene. Die Microarray-basierte Analyse wurde in verschiedenen Bereichen wie der Umwelttoxikologie, der Arzneimittelentwicklung und der Arbeitstoxikologie eingesetzt. Die gewonnenen Daten liefern eine Momentaufnahme aller Gene, deren Expressionsniveau als Reaktion auf eine Xenobiotika-Exposition beeinflusst wird.
Next Generation Sequencing (NGS) ist die jüngste Entwicklung der globalen Transkriptomanalyse. Diese Technik kann angewendet werden, um ein globales Genexpressionsprofil in RNA zu bestimmen, die aus verschiedenen biologischen Proben gewonnen wurde. Die wichtigsten Schritte bei NGS sind die RNA-Isolierung, die Entfernung von reichlich vorhandenen RNA-Molekülen wie ribosomaler RNA und Globin-RNA, die Vorbereitung von Sequenzierungsbibliotheken, die PCR-Amplifikation und die Sequenzierung der Bibliotheken. Die resultierenden Daten werden analysiert und die Menge der einzelnen Transkripte wird bestimmt.
Proteomik: Die Transkriptomik ist oft die erste Wahl für Untersuchungen auf Systemebene, da im Laufe der Jahre zahlreiche gut etablierte Messmethoden entwickelt wurden. Proteinveränderungen können jedoch als näher an den relevanten funktionellen Auswirkungen eines untersuchten Stimulus angesehen werden. Obwohl mRNA- und Proteinexpression durch Translation eng miteinander verbunden sind, ist ihre Korrelation begrenzt. Die mRNA-Transkriptniveaus erklären nur etwa 50% der Variation der Proteinniveaus. Dies ist auf die zusätzlichen Ebenen der Proteinregulation zurückzuführen, einschließlich ihrer Translations- und Degradationsrate. Darüber hinaus hört die Regulation der Proteinaktivität nicht auf der Expressionsebene auf, sondern wird oft durch posttranslationale Modifikationen weiter kontrolliert. Aus toxikologischer Sicht sind solche Beispiele für eine wichtige posttranskriptionelle Regulation: die enge Regulation der p53- und Hypoxie-induzierbaren Faktor (HIF)-Proteinspiegel und ihre schnelle posttranskriptionelle Stabilisierung, z. B. bei DNA-Schäden und hypoxischen Bedingungen; die Regulation verschiedener zellulärer Stressreaktionen (z. B. oxidativer Stress) auf der Ebene der Proteintranslation; und die Regulation der zellulären Stressreaktion durch Proteinphosphorylierungskaskaden. Zu den am häufigsten angewandten Proteomics-Analysen, die für die Toxikologie von zentraler Bedeutung sind, gehören: 2D-Polyacrylamid-Gelelektrophorese, gelfreie Flüssigkeitschromatographie, Massenspektrometrie und Analyse der posttranslationalen Modifikationen.
Die 2D-Polyacrylamid-Gelelektrophorese (2DGE) wird verwendet, um Störungen im Proteom zu untersuchen, die auf Veränderungen der Proteinexpression beruhen. Die 2DGE-Technik basiert auf der Trennung von Proteinen basierend auf ihrem pH-Wert (Ladung) sowie ihrer Größe. Sie hat die Fähigkeit, bis zu 2000 Proteine in einem Gel zu trennen und zu visualisieren. Die erste Dimension, die als isoelektrische Fokussierung (IEF) bezeichnet wird, trennt die Proteine nach ihrem isoelektrischen Punkt (pI). Die zweite Dimension trennt die Proteine weiter nach ihrer Masse. Modernste Bildaufnahme- und Analysesoftware ermöglicht den Vergleich von Kontroll- und behandelten Proben und hilft, die differentiell regulierten Proteine anhand ihrer relativen Intensität zu identifizieren. Eine Variante der 2DGE ist die Differenzgelelektrophorese (DIGE), die auf der Markierung der Proteine mit fluoreszierenden Cyaninfarbstoffen (Cy2, Cy3 und Cy5) basiert. Obwohl die 2DGE ein leistungsfähiges Werkzeug zur Identifizierung vieler Proteine ist, hat der Ansatz seine Grenzen. Die Haupteinschränkung besteht darin, dass nicht alle Proteine mit IEF getrennt werden können, wie z. B. Membran-, basische, kleine (< 10 kDa) und große (> 100 kDa) Proteine. Die zweite Einschränkung ist, dass weniger häufig vorkommende Proteine oft von den häufig vorkommenden Proteinen in der Mischung überdeckt werden.
Andere häufig verwendete Techniken sind die gel-freie Flüssigkeitschromatographie-Massenspektrometrie (LC MS/MS). Der LC-Ansatz nutzt die Unterschiede in den physiochemischen Eigenschaften von Proteinen und Peptiden, d. h. Größe, Ladung und Hydrophobizität. 2D-LC kann zur Fraktionierung von Proteingemischen auf zwei Säulen mit unterschiedlichen physiochemischen Eigenschaften eingesetzt werden und maximiert die Trennung von Proteinen und Peptiden in komplexen Gemischen. Die Massenspektrometrie wird weithin als die wichtigste Technologieplattform für die Toxikoproteomik angesehen. Zu ihren Hauptvorteilen gehören die unübertroffene Empfindlichkeit, die verbesserte Geschwindigkeit und die Fähigkeit, Datensätze mit hohem Durchsatz zu erzeugen. Aufgrund der hohen Präzision der MS können in Geweben und biologischen Matrices Peptide im femtomolaren (10- 15) bis attomolaren (10- 18) Bereich nachgewiesen werden. Dies ist äußerst vorteilhaft bei vergleichenden Analysen, bei denen eine gleichzeitige Analyse von Kontroll- und behandelten Proben durchgeführt wird. Auf diese Weise kann ein umfassendes Verständnis darüber erreicht werden, wie Stimuli das Proteom beeinflussen, und die anschließende Identifizierung potenzieller Biomarker.
Da die Systembiologie eine genaue Quantifizierung eines bestimmten Satzes von Peptiden/Proteinen über mehrere Proben hinweg erfordert, wurden auch gezielte Ansätze für die Quantifizierung von Biomarkern entwickelt. Eine solche Technik ist das Selected Reaction Monitoring (SRM). SRM misst Peptide, die durch den enzymatischen Verdau des Proteoms entstehen, im Triple-Quadrupol-MS. Ein SRM-basiertes Proteom-Experiment beginnt mit der Auswahl einer Liste von Zielproteinen, die aus vorangegangenen Experimenten oder einer Datensuche, wie z. B. einer Pathway Map oder Literatur, abgeleitet wird. Diesem Schritt folgt 1) die Auswahl der proteotypischen Zielpeptide, die das Protein-Target optimal und eindeutig repräsentieren, 2) die Auswahl eines Satzes geeigneter SRM-Übergänge für jedes Zielpeptid, 3) die Detektion der ausgewählten Peptidübergänge in einer Probe, 4) die Optimierung der SRM-Assay-Parameter und 5) die Anwendung der Assays zur Detektion und Quantifizierung der Proteine/Peptide. Die wichtigsten Vorteile der SRM-Technik sind: 1) die Möglichkeit, Dutzende bis Hunderte von Proteinen während desselben Laufs zu überwachen, 2) die Möglichkeit zur absoluten und relativen Quantifizierung, 3) die hohe Reproduzierbarkeit der Daten und 4) die Erzielung absoluter molekularer Spezifität. Allerdings gibt es auch einige Einschränkungen bei dieser Technik: 1) es kann nur eine begrenzte Anzahl von messbaren Proteinen in denselben Lauf aufgenommen werden und 2) selbst mit ihrer hohen Empfindlichkeit kann sie nicht alle in einem Organismus vorhandenen Proteine erfassen.
Ein weiterer MS-basierter gezielter Ansatz, bekannt als parallele Reaktionsüberwachung (PRM), wurde ebenfalls eingesetzt. Sie basiert auf der Verwendung von hochauflösenden und genauen Quadrupol-Massenmessgeräten der nächsten Generation (hauptsächlich das Orbitrap MS-System). Diese Technik ist eng mit SRM verwandt, ermöglicht aber die parallele Messung aller Fragmentierungsprodukte eines bestimmten Peptids.
Ein weiterer wichtiger Ansatz ist die Analyse der posttranslationalen Modifikationen (PTMs), die durch die toxische Exposition entstanden sind. Sie stellen einen wesentlichen Mechanismus zur Regulierung des zellulären Proteoms dar. PTMs sind chemische Modifikationen, die eine wichtige Rolle bei der Regulierung der Aktivität, Lokalisierung und Interaktionen von zellulären Biomolekülen spielen. Die Identifizierung und Charakterisierung von Proteinen und ihren PTM-Stellen sind sehr wichtig für das biochemische Verständnis der PTM-Wege. Dieses Wissen liefert tiefere Einblicke in die mögliche Regulierung der zellulären Physiologie, die durch PTM ausgelöst wird. Einige Beispiele für PTMs sind Phosphorylierung, Glykosylierung, Ubiquitinierung, Nitrosylierung, Methylierung, Acetylierung, Lipidierung und Proteolyse. In den letzten zehn Jahren hat sich die MS-basierte Proteomik als leistungsfähiges Werkzeug für die Identifizierung und Kartierung von PTMs erwiesen. Darüber hinaus profitierten die MS-basierten Ansätze von den Fortschritten in der MS-Instrumentierung, die die Analyse empfindlicher, genauer und mit höherer Auflösung für den Nachweis von weniger häufig vorkommenden Proteinen machte.
Metabolomik: Das Metabolom unterscheidet sich von den anderen Omics-Analysen, da es sich um eine Sammlung von chemisch sehr heterogenen Molekülen handelt. Das Metabolom ist typischerweise definiert als die vollständige Bilanz aller kleinmolekularen Metaboliten ( < 1500Da ), die in einer bestimmten Zelle, einem Organ oder Organismus gefunden werden. Dank Initiativen wie dem Human Metabolome Project ist das körpereigene Metabolom von menschlichen und tierischen Modellorganismen weitgehend kartiert worden. Metabolom-Messungen verwenden entweder eine kernmagnetische Resonanz (NMR)-basierte Detektion oder Gas- bzw. Flüssigkeitschromatographie mit Bindestrich zu MS. NMR-basierte Ansätze haben die Fähigkeit, die untersuchten Metaboliten zu quantifizieren und stellen den Goldstandard für die Strukturaufklärung unbekannter Metaboliten dar. MS-basierte Ansätze übertreffen die NMR in Bezug auf die Empfindlichkeit und können ungezielt oder gezielt durchgeführt werden.
Metabolomics unterscheidet sich von Proteomics und Transcriptomics in mehreren Aspekten:
(i) erkennt die Reaktion auf sehr unterschiedlichen Ebenen eines Signalweges, und
(ii) gleichzeitige Erfassung von Molekülen eines Signalwegs, die auf extrem unterschiedlichen Zeitskalen reagieren.
Durch das Fortschreiten der Metabolomik ist diese in vielen toxikologischen Studien routinemäßig und sehr nützlich geworden. Sie hat ein bemerkenswertes Potenzial beim Screening von arzneimittelinduzierter Zell- oder Organtoxizität. Die schnelle Auswertung biologischer Proben zusammen mit der mathematischen und statistischen Analyse (Chemometrie) der gewonnenen Daten dient als leistungsstarkes Werkzeug für die Bewertung der Arzneimittelsicherheit. Wenn zum Beispiel ein Medikament oder eine chemische Substanz hepatische Toxizität durch Induktion von zellulärem oxidativem Stress verursachen kann, kann die Metabolomics-Analyse der dem Medikament ausgesetzten biologischen Probe direkte Informationen über Metaboliten liefern, die Marker für den oxidativen Stress sind. Sie kann auch Metaboliten identifizieren, die als bekannte Biomarker für Leberschäden gelten und somit auf eine hepatische Pathologie hinweisen. Darüber hinaus kann die Metabolomics-Analyse auch Informationen über Metabolite liefern, die indirekt mit Toxizität in Verbindung gebracht werden.
Metabolomics hat mehrere Vorteile gegenüber der herkömmlichen klinisch-pathologischen Beurteilung. Zum Beispiel hat eine Studie, in der eine unbekannte Verbindung untersucht wurde, gezeigt, dass diese Verbindung den Cholesterinspiegel im Serum erhöht. Bei der Anwendung von Metabolomics wurde festgestellt, dass dieselbe Verbindung neben Cholesterin auch mehrere Phytosterine erhöht, was darauf hindeutet, dass das höhere Cholesterin eine Folge der Sterolabsorption im Darm ist. Solche Befunde zeigen deutlich, dass die Metabolomik ein viel höheres Potenzial in Bezug auf die Identifizierung genauer toxikologischer Endpunkte hat.
Epigenomik. Der Schwerpunkt der Epigenomik liegt auf der Untersuchung der chemischen Modifikationen der DNA und der Proteine, die die dreidimensionale Struktur der genomischen DNA organisieren. Heutzutage wird die DNA-Methylierung durch einen modifizierten Genomsequenzierungsansatz (Methylome-seq) untersucht. Dieser Ansatz erfordert jedoch immer noch eine hohe Abdeckung, verbunden mit immer noch erheblichen Sequenzierkosten. Deshalb werden am häufigsten die gezielten Microarray-basierten Ansätze verwendet. Die DNA-Methylierung umfasst zwei verschiedene chemische Modifikationen mit unterschiedlichen funktionellen Konsequenzen – 5-Methylcytosin und 5-Hydroxy-Methylcytosin. Histon-Modifikationen werden mit der Chromatin-Immuno-Präzipitationsmethode unter Verwendung von Antikörpern, die spezifisch für die jeweilige Modifikation sind, und anschließender Sequenzierung (ChIP-seq) analysiert. Um ein umfassendes Bild zu erhalten, müssen typischerweise mehrere Modifikationen detektiert werden. Das erfordert die gleichzeitige Durchführung mehrerer ChIP-seq-Analysen. Da ChIP-seq mehr Probenmaterial benötigt als die anderen epigenomischen Ansätze, kann eine solche Strategie in toxikologischen Studien schwer zu implementieren sein. ATAC-seq ist ein alternativer Ansatz, der nicht die chemischen Modifikationen direkt untersucht, sondern eine der Hauptfolgen der Modifikationen, die DNA-Zugänglichkeit.
Das Wissen über die Beteiligung von Regulationswegen und spezifischen epigenetischen Modifikationen ist jedoch noch spärlich. Die Epigenomik ist daher von begrenztem Wert, wenn ein Pfad-basierter Datenintegrationsansatz verwendet wird. Allerdings haben sich epigenomische Daten als sehr wertvoll für transgenerationale Studien erwiesen oder wenn versucht wird, langfristige Auswirkungen einer chemischen Exposition auf der Grundlage von Omics-Daten einer kurzfristigen Exposition vorherzusagen.
OMICs-Anwendungen für toxikologische Risikobewertung und Zulassungsanträge
In den letzten Jahrzehnten wurden „Omics“-Technologien in der Forschung ausgiebig genutzt und es konnte gezeigt werden, dass sie in der Lage sind, einen tiefen Einblick in die Biochemie und Physiologie der Zelle sowie in die schädliche Wirkung von Xenobiotika zu geben. Dies hat zu einer begeisterten Zustimmung der Forschungstoxikologen geführt. Es wurde die Hoffnung geäußert, dass die „Omics“-Technologien die Werkzeuge liefern würden, um eine Reihe von Biomarkern für schädliche Wirkungen und deren Wirkungsweisen zu identifizieren. Damit soll die Vorhersage von Effekten auf den Menschen bei der Gefährdungsbeurteilung von Substanzen verbessert und ein Beitrag zur Entwicklung von Alternativmethoden zu Tierversuchen geleistet werden. Trotzdem bleibt die Übertragung von ‚omics in den regulatorischen Bereich bestenfalls vorsichtig.
Das Europäische Zentrum für Ökotoxikologie und Toxikologie von Chemikalien (ECETOC) hat daher eine Reihe von Workshops organisiert, um die Möglichkeiten und Herausforderungen von Omics-Techniken in der chemischen Risikobewertung zu bewerten. Der jüngste Workshop kam zu dem Schluss, dass Omics-Ansätze zur Beantwortung relevanter Fragen in der Risikobewertung beitragen, darunter:
(i) die Klassifizierung von Substanzen und die Definition der Ähnlichkeit,
(ii) die Aufklärung der Wirkungsweise von Stoffen, und
(iii) die Identifizierung von artspezifischen Wirkungen und der Nachweis der Relevanz für die menschliche Gesundheit.
Es wurde jedoch ein Bedarf festgestellt, die Reproduzierbarkeit der Omics-Datenerfassung und Datenanalyse zu erhöhen sowie die besten Praktiken zu definieren. Darüber hinaus ist die regulatorische Verwendung jeder Testmethode eng mit dem spezifischen rechtlichen Rahmen verbunden, der für den zu untersuchenden Stoff relevant ist. In Anbetracht der REACH-Verordnung (EP und Rat der EU, 2006) könnten „omics-basierte Daten potenziell für regulatorische Einreichungen verwendet werden“. Um Omics in REACH-Dossiers zu verwenden, listet die REACH-Verordnung verschiedene Anforderungen auf: spezifische Standardinformationen, die bestimmte physikalisch-chemische, toxikologische und ökotoxikologische Grenzwerte abdecken. Diese Daten werden während der Gefahren- und Risikobewertung ausgewertet und analysiert, um Alternativen für das Risikomanagement zu bestimmen. Die Anwendung und Integration von Omics-Tools kann auf verschiedenen Ebenen der regulatorischen Gefahrenerkennung und -bewertung nützlich sein und dazu beitragen:
- Einstufung und Kennzeichnung (C&L) von Stoffen.
- Weight-of-Evidence (WoE)-Ansätze zur Aufklärung des MoA der untersuchten Substanz.
- Substantiierung der chemischen Ähnlichkeit.
- Bestimmung von Abgangspunkten (PoDs) zur Gefahrenbeurteilung.
- Nachweis der artspezifischen Wirkungen und der Relevanz für die menschliche Gesundheit.
Die schnelle Entwicklung von Omics-Technologien bringt einige Herausforderungen mit sich, um ihre Verwendung für die Gefahrenabschätzung zu erleichtern, insbesondere aus Sicht der Zulassungsbehörden. Sätze von „Big Data“ müssen unter Anwendung komplexer Ansätze und spezifischer Kenntnisse verdichtet werden, um Informationen zu erhalten, die für die Gefahrenbewertung relevant sind. Darüber hinaus ist das Wissen in diesem sich schnell entwickelnden Bereich vielen Forschern, die im regulatorischen Umfeld arbeiten, nicht unbedingt vertraut. Dementsprechend hängt die fehlende behördliche Zulassung von Omics-Technologien nicht nur mit dem Fehlen von Best-Practice-Rahmenwerken und Qualitätskriterien zusammen, sondern auch mit dem mangelnden Vertrauen in die Analyse und dem Grad der Unsicherheit in Bezug darauf, was genügend Daten sind. Wissenschaftler und Regulierungsbehörden müssen zunächst Erfahrungen mit den aus dieser neuen Technologie gewonnenen Daten sammeln und dann Vertrauen in ihre Anwendbarkeit aufbauen.
Umwelt-OMICS und Biodiversität
Im Allgemeinen umfassen die meisten Umweltstudien die Kultivierung von isolierten Mikroorganismen oder die Amplifikation und Sequenzierung von konservierten Genen. Es bestehen jedoch einige Schwierigkeiten, die Komplexität einer großen Anzahl verschiedener Mikroorganismen in einer Umwelt zu verstehen. Dies führte zur Entwicklung neuer Techniken, die eine Anreicherung spezifischer Mikroorganismen für vorgelagerte Analysen ermöglichen, wie z. B. die Isolierung und Analyse einzelner Zellen. Fortgeschrittene Werkzeuge in der Metagenomik und Einzelzellgenomik (SCG) ebnen den Weg zu neuen Methoden zur Untersuchung und zum Verständnis unserer Umwelt.
Frühe Umweltstudien zur Diversität von Organismen erforderten die Kultivierung von Proben, um die DNA-Menge zu erhöhen, bevor genomische Bibliotheken erstellt werden konnten. Zu dieser Zeit war die Sequenzierung von 16S und 18S rRNA die beste verfügbare Option zur Bestimmung der Umweltdiversität. Es wurde jedoch klar, dass die Mehrheit der Probengemeinschaften nicht kultivierbare Arten repräsentiert. Glücklicherweise ermöglicht die Polymerase-Kettenreaktion (PCR) von rRNA den Zugang sowohl zur kultivierbaren als auch zur nicht kultivierbaren Probenvielfalt. Da die PCR direkt an Umweltproben ohne Klonierung durchgeführt werden kann, kann sie zur Amplifikation von Zielgenen direkt aus der Umwelt eingesetzt werden.
Die Bedeutung der Sequenzierung sowohl von nicht-kodierender rRNA als auch von proteinkodierenden Genen nimmt zu, wobei ein besonderes Interesse an der Rekonstruktion bakterieller Genome besteht. Ein umfassendes Sampling aller Gene von allen in einer komplexen Probe vorhandenen Organismen ist durch Shotgun-Metagenomsequenzierung möglich. Mit dieser Methode ist es möglich, die bakterielle Diversität zu bewerten und die Abundanz von Mikroorganismen in einer bestimmten Umgebung zu erfassen. Darüber hinaus erlaubt sie die Rekonstitution kompletter Genome von nicht kultivierbaren Mikroorganismen. Neben der Entdeckung neuer Archaeen-, Bakterien-, Protozoen-, Algen-, Pilz- und eukaryotischer Spezies ist diese Technik von entscheidender Bedeutung für die Rekonstruktion von viralen Genomen. Dies war ein entscheidender Fortschritt, wenn man bedenkt, dass Viren ein gemeinsamer universeller phylogenetischer Marker wie die bakterielle 16S rRNA oder die eukaryotische 18S rRNA fehlt.
Ein weiterer Ansatz ist der Metatranskriptom-Ansatz, bei dem anstelle von genomischer DNA (gDNA) die gesamte RNA-Gemeinschaft gesammelt wird. Diese wird verwendet, um cDNA-Bibliotheken zu konstruieren, die sequenziert werden. Obwohl RNA weniger stabil ist als DNA, liefert sie eine Momentaufnahme des aktuellen Zustands der Gemeinschaft, indem sie auf- und abregulierte Gene aufdeckt. Bis heute wird eine der wichtigsten Metatranskriptom-Studien für die marinen Wassergemeinschaften durchgeführt.
Einzelzell-Genomik
Metagenomische Sequenzierung ist ein hilfreiches Werkzeug zum Verständnis von Umweltgemeinschaften. Die Assemblierung von Genkatalogen und zusammengesetzten Genomen kann jedoch eine Herausforderung sein. Außerdem ist es schwierig, in bereits assemblierten Genomen zwischen Genen zu unterscheiden, die aus demselben oder aus verschiedenen Organismen stammen (Abb. 3). Daher besteht ein großes Interesse an der Entwicklung eines Systems zum Verständnis der Organisation von entdeckten Genen und Signalwegen innerhalb von Genomen.

Abb. 3. Metagenomik vs. Einzelzellgenomik
Die Herausforderung der Probenheterogenität könnte teilweise durch den Einsatz von zwei Techniken gelöst werden – Scaling-up und Deep-Sequencing. Es sind verschiedene Ansätze erforderlich, um metagenomische Proben aus verschiedenen Umgebungen zu vergleichen und die Zusammensetzung und Organisation von Mikroorganismengenomen in der Umwelt aufzudecken. Einer der Ansätze ist die Anreicherung der Kultur eines bestimmten Organismus auf der Grundlage seiner spezifischen Umweltfunktionen. Diese Art des gezielten metagenomischen Ansatzes erlaubt die Entwicklung von zusammengesetzten mikrobiellen Genomen. Zusätzlich zur Unkultivierbarkeit vieler Organismen treten weitere Probleme auf, wenn schneller wachsende Mikroorganismen die langsameren überflügeln und dadurch zusätzliche Verzerrungen einführen.
Anstelle der Kultivierung kann daher eine komplexe Probe mittels fluoreszenzaktivierter Zellsortierung (FACS) auf eine Zielzellpopulation angereichert werden. Mit diesem Ansatz lassen sich Zellen auf der Grundlage ihrer Form, Größe und Dichte sortieren. Alternativ können bestimmte Organismen von Interesse angereichert werden, indem eine kleine Anzahl von Zellen behandelt wird, die eine bestimmte Funktion in der Umgebung besitzen. Mit der Entwicklung von Whole Genome Amplification (WGA)-Techniken (z. B. Multiple Displacement Amplification (MDA) oder Rolling Circle Amplification (RCA)) kann die gDNA einer begrenzten Anzahl von Zellen amplifiziert und sequenziert werden. WGA-Techniken erzeugen jedoch potenzielle Abweichungen, da die Häufigkeit bestimmter Sequenzen variiert und daher nicht gleichmäßig amplifiziert wird. Daher beeinträchtigt die gDNA-Amplifikation von definierten Populationen mit einer begrenzten Anzahl von Zellen die quantitative Analyse der Metagenomik.
Jüngste Fortschritte in der Einzelgenom-Amplifikationstechnik ermöglichen SCG unter Verwendung von physischer Zellseparation (normalerweise durch FACS auf 96-Well-Platten), Zelllyse und WGA. Ein amplifiziertes Genom aus einer einzelnen Zelle kann dann sequenziert werden. Während bei der Metagenomik die Mikroorganismengemeinschaft gesammelt und die Gesamt-DNA extrahiert und sequenziert wird, werden bei der SCG einzelne Zellen aus der Mikroorganismengemeinschaft abgetrennt und untersucht. Die gewonnenen Sequenzierdaten liefern quantitative Informationen über die genomische Variabilität in Mikroorganismenpopulationen. Gen-Insertionen, -Deletionen, -Duplikationen und Genom-Rearrangements können auf Einzelzell-Ebene untersucht werden. Auf diese Weise können die komplexen Stoffwechselwege für eine einzelne Zelle analysiert werden.
Einzelzellisolierung und -verarbeitung
Die Untersuchung des Genoms und seiner Regulation auf Populationsebene erfolgt durch die Analyse von Millionen von Zellen auf einmal. Solche Untersuchungen erlauben jedoch weder einen Blick auf die Heterogenität in biologischen Systemen, noch charakterisieren sie den aktuellen Zustand der Population. Deshalb gewinnt das SCG immer mehr an Popularität, um sowohl kultivierbare als auch insbesondere unkultivierbare Mikroorganismen zu untersuchen. Das Verfahren zur Gewinnung, Vermehrung und Sequenzierung von genetischem Material aus lebenden oder toten Zellen ist relativ einfach. Zunächst muss die Zelle isoliert und lysiert werden, dann wird das freigesetzte genetische Material amplifiziert und die genomische Bibliothek kann aufgebaut werden.
Einer der Ansätze zur Einzelzellisolierung ist die Mikromanipulation. Zellen von Interesse werden identifiziert, isoliert und mikroskopisch untersucht. Geeignete Zellen werden mit einer Mikropipette, einer Laserquelle, einer optischen Pinzette oder durch mikrofluidischen Fluss in Echtzeit isoliert. Mit Hilfe der Mikrofluidik kann ein gewünschter Phänotyp, der mit einem bestimmten Genom korreliert, ausgewählt werden. Darüber hinaus können die Zellen vor dem Einfangen leicht beobachtet werden.
Ein anderer Ansatz ist die zufällige Verkapselung. Die Zellen werden durch serielle Verdünnung zufällig ausgewählt. Die verdünnte Probe kann dann in Mikrovertiefungen übertragen werden, oder die Zellen können durch Mikrotröpfchen verkapselt werden. Mit dieser Technik können einzelne Zellen separiert, verarbeitet und einer genomischen Analyse unterzogen werden.
Die Durchflusszytometrie ist das am weitesten verbreitete Verfahren der Zufallsverkapselung. FACS ermöglicht die Isolierung von Zellen, die bestimmte Kriterien wie Größe, Form, Farbe oder sogar das Vorhandensein bestimmter Nukleinsäuren oder Aktivitäten besitzen, unter Verwendung von Fluoreszenzfarbstoffen (Abb. 4). Einer der Hauptvorteile von FACS ist der hohe Durchsatz, die hohe Sortiergeschwindigkeit und die Fähigkeit, lebende Zellen zu unterscheiden. Darüber hinaus kann FACS die Anwesenheit von Zellen in einem Tröpfchen erkennen, leere Tröpfchen aussortieren und die Zellen mit den gewünschten Eigenschaften in Multiwell-/Mikrotiterplatten übertragen. Anschließend können die Zellen lysiert und die Genome in einzelnen Wells amplifiziert werden.
Eine weitere Möglichkeit zur Einzelzellisolierung ist die Mikrotröpfchentechnik (Abb. 4). Mikrotröpfchen sind die Emulsion, die entsteht, wenn Zellen in der Wasserphase kräftig mit Öl vermischt werden. Die Öltröpfchen kapseln die Zellen in der Wasserphase ein. Ursprünglich dachte man, dass eine an einer Emulsion durchgeführte PCR viel spezifischer sei als die Analyse von Zellen in der Wasserphase allein. Es wurde angenommen, dass die Ausbeute an Reaktionsprodukten größer ist und weniger chimäre Nebenprodukte gebildet werden. Außerdem schlossen die gebildeten Tröpfchen eine begrenzte Anzahl von Template-Molekülen ein (im Idealfall nur eines). Neueste Entwicklungen in der Mikrofluidik erlauben es, die Tröpfchengröße zu kontrollieren (Nanoliter oder sogar Pikoliter), wodurch wässrige einheitliche (monodisperse) Tröpfchen in Öl entstehen. Einer der Hauptvorteile des Zweiphasensystems von Mikrotröpfchen gegenüber FACS ist die Möglichkeit, einzelne Zellen als getrennte Einheiten zu behandeln. Jedes Tröpfchen wirkt wie ein unabhängiges Well, in dem Zellen gezüchtet und später auf die exprimierten Produkte gescreent werden können. Freigesetzte gDNA kann in Mikrotropfen effektiv amplifiziert und für die Sequenzierung/Bibliotheksvorbereitung verwendet werden. Bakterien-, Hefe-, Pflanzen-, Insekten- und Säugetierzellen können mit der Mikrotröpfchentechnologie auf Agarose oder anderen Mikrogelen leicht untersucht werden. Sogar multizelluläre Organismen können eingekapselt und in einem Tröpfchen gezüchtet werden. Hypothetisch ist es möglich, jedes sekretierte Molekül zu messen, für das ein fluoreszenzmarkierter Ligand existiert. Außerdem können die Aktivitäten verschiedener Zellproteine überwacht werden.

Abb. 4. Techniken zur Isolierung einzelner Zellen
Ansätze zur Untersuchung verschiedener Zellen
Lebende Zellen können allgemein in Bakterien, Archaeen und Eukaryoten eingeteilt werden. Obwohl Viren nicht als „lebendig“ angesehen werden, stellen sie einen wichtigen Teil der lebenswissenschaftlichen Studien dar. Es gibt verschiedene Einzelzellanalysen, die für unterschiedliche Organismen geeignet sind.
Viren sind praktisch in jeder Umgebung vorhanden. Sie sind die am häufigsten vorkommenden und vielfältigsten biologischen Einheiten. Um jedoch einzelne Viren zu isolieren und ihr Genom zu sequenzieren, muss zunächst ein geeignetes kultivierbares Virus-Wirt-System etabliert werden. Eukaryotische Algen sind zum Beispiel ein Wirt für eine unglaubliche Vielfalt an Viren. Mit Hilfe von FACS und Einzeltropfensystemen können Viren jedoch theoretisch auch ohne Abhängigkeit vom Virus-Wirt-System isoliert werden.
Archaeen und Bakterien haben eine ähnliche Zellstruktur. Nur Unterschiede in der Zellzusammensetzung und -organisation unterscheiden diese beiden Domänen voneinander. Bakterielle Zellen haben normalerweise einen Durchmesser von 0,5-5,0 μm, während Archaeen größer sein können und einen Durchmesser von 15 μm erreichen. Grundsätzlich können alle oben beschriebenen Methoden verwendet werden, um einzelne Archaeen- und Bakterienzellen zu trennen und zu bearbeiten. Bei FACS können jedoch hohe Ströme das Wachstum dieser Organismen verlangsamen.
Eukaryoten unterscheiden sich von anderen Lebensbereichen durch ihren membrangebundenen Zellkern und membrangebundene Organellen. Sie können mehrzellige oder einzellige Organismen sein. Die Zellgröße liegt typischerweise zwischen 10-100 μm oder sie sind zehnmal größer als Bakterien. Verdünnung, FACS und Tröpfchensortierung sind allesamt geeignete Methoden zur Isolierung eukaryotischer Zellen.
Multizelluläre Organismen können theoretisch auch mit verschiedenen Methoden isoliert und bearbeitet werden. FACS zum Beispiel kann multizelluläre Organismen leicht sortieren. Werden Einzeller für eine ausreichende Zeit in Tröpfchen inkubiert, können sie ein Protein oder einen Liganden synthetisieren und haben die Möglichkeit, sich zu vermehren, wodurch möglicherweise eine mehrzellige Struktur entsteht.
Molekulare Studien über unsere Umwelt und Ökologie gewinnen immer mehr Erkenntnisse über Lebensgemeinschaften. Mit der Entwicklung von molekularen Werkzeugen, insbesondere Sequenziermaschinen, wurde es möglich, ganze Gemeinschaften aus ausgewählten Umgebungen zu sequenzieren. Jüngste Fortschritte in der Einzelzelltechnologie erleichtern die Isolierung und Amplifikation von genomischem Material aus einzelnen Zellen und ermöglichen die Strukturierung zahlreicher sequenzbasierter Bibliotheken. Darüber hinaus ergänzen die aus SCG gewonnenen Daten die durch Metagenomik gewonnenen Daten.
Omics-Ansätze in der industriellen Biotechnologie und Bioprozesstechnik
Die Biotechnologie nutzt biologische Prozesse, Organismen oder Systeme, um Produkte und Technologien zu erzeugen, die das Leben der Menschen verbessern. Die Nutzung biologischer Systeme zur Herstellung von Bioprodukten von kommerzieller Bedeutung ist eine Schlüsselkomponente der Biotechnologiebranche. Dieser biotechnologische Ansatz hat in verschiedenen Bereichen Anwendung gefunden: Energie-, Material-, Pharma-, Lebensmittel-, Landwirtschafts- und Kosmetikindustrie. Die Bioprodukte aus Biomanufacturing-Prozessen sind in der Regel Stoffwechselprodukte und Proteine, die aus Zellen, Geweben und Organen gewonnen werden. Die biologischen Systeme, die diese Bioprodukte synthetisieren, können natürlich sein oder durch Gentechnik, Stoffwechseltechnik, synthetische Biologie und Proteintechnik verändert werden. „Omics“-Technologien sind für die Biotechnologie und das Metabolic Engineering von großer Bedeutung und helfen bei der Charakterisierung und dem Verständnis von Stoffwechselnetzwerken. Die bedeutende Menge an Wissen, die aus „Omics“-getriebenen Experimenten gewonnen wird, kann bei der Entwicklung von biotechnologischen Werkzeugen und der Weiterentwicklung von Metabolic Engineering eingesetzt werden. Dies ermöglicht die Manipulation komplexer biologischer Systeme mit dem Ziel, robuste industrielle Strategien für die Bioproduktion zu entwickeln.
Omics-geführte Biotechnologie
„Omics“-Werkzeuge werden mehr und mehr bei der Entwicklung biotechnologischer Prozesse und der Herstellung vieler wichtiger Produkte eingesetzt. Die Anwendung von „Omics“-Technologien bei der Charakterisierung und dem Verständnis biologischer Systeme hat es ermöglicht, Phänotypen auszuwählen und vorherzusagen, was die Optimierung biotechnologischer Prozesse in Richtung einer verbesserten Produktion (in Qualität und Quantität) von kommerziell relevanten Produkten erleichtert (Abbildung 5).

Abb. 5. Omics-Werkzeuge in der Biotechnologie
Produktion von Biokraftstoffen und Bioprodukten
Die mikrobielle Produktion von Naturstoffen stellt eine attraktive und nachhaltigere Alternative zu herkömmlichen Petrochemikalien dar. Ihre Umsetzung hat zu einem wachsenden Katalog von Naturprodukten und hochwertigen Chemikalien geführt. Die Nutzung von lignozellulosehaltiger Biomasse stellt einen wirtschaftlichen Ansatz zur Erzeugung von Biokraftstoffen und Bioprodukten dar. Um jedoch eine stabile Umwandlung von kostengünstigen Rohstoffen in Produkte mit hoher Wertschöpfung auf industriellem Niveau zu erreichen, bedarf es systematischer technischer Pläne. Der Design-Build-Test-Learn (DBTL)-Zyklus wird zunehmend als Ansatz für Metabolic-Engineering-Experimente eingesetzt. Er stellt ein systematisches und effektives Werkzeug dar, um die Entwicklung von Biokraftstoffen und biobasierten Produkten voranzutreiben. Der DBTL-Zyklus verwendet einen in silico-Ansatz, um genetische Konstrukte in mikrobiellen Wirten zu entwerfen und aufzubauen. Als nächstes werden die Informationen, die während der Testphase des Zyklus aus den „Omics“-Technologien gewonnen werden, auf Lernprozesse übertragen (Abbildung 6). Das Gelernte wird dann in neue Designzyklen zurückgeführt, um eine weitere Stammentwicklung und -optimierung zu erreichen. Dadurch wird eine schnelle Optimierung von mikrobiellen Stämmen, die eine beliebige chemische Verbindung von Interesse produzieren, ermöglicht. Der schwächste Punkt im Arbeitsablauf des DBTL-Zyklus ist der Lernprozess, da die mathematischen Modelle nur so gut sind wie ihre Annahmen. Daher werden sowohl qualitativ hochwertige als auch große „Omics“-Datensätze benötigt, um die Trainingsmodelle zu verbessern und eine höhere Genauigkeit und Zuverlässigkeit des Lernprozesses zu gewährleisten.

Abb. 6. DBTL-Zyklus zur Optimierung von Biokraftstoffen und biobasierten Produkten
Im DBTL-Zyklus ist die genomische Sequenzinformation oft der traditionelle Ansatz, der in den ersten Phasen einer Studie verwendet wird. Zum Beispiel kann die Barcode-Sequenzierung (Bar-seq) (eine Methode, die einen kurzen Abschnitt der DNA eines bestimmten Gens oder bestimmter Gene verwendet) verwendet werden, um die Populationsdynamik von Saccharomyces cerevisiae-Deletionsbibliotheken während der Bioreaktorkultivierung zu untersuchen, was die Identifizierung von Faktoren ermöglicht, die die Diversität eines Mutantenpools beeinflussen. Einzelzellsequenzierungs-geführte Ansätze können verwendet werden, um mutierte Schlüsselpromotoren für die Anpassung der Expressionsniveaus zu identifizieren, wodurch die dynamische Regulierung des mikrobiellen Wachstums erleichtert wird. Proteomik-geführte Ansätze wurden eingesetzt, um Polyketid-Biosynthese-Plattformen für die in vitro-Produktion von Adipinsäure in Hefe zu entwickeln. Darüber hinaus erlaubt die Metabolomik die Bewertung des Stoffwechselweges, der Nutzung von Kohlenstoffquellen und des Ungleichgewichts von Cofaktoren, die alle zur Identifizierung von Engpässen im Stoffwechselweg beitragen. Ein solcher Metabolomics-geführter Ansatz wird bereits für die Charakterisierung der Cannabinoid-Produktion in gentechnisch veränderten S. cerevisiae verwendet. Es wurden Cannabinoid-Analoga identifiziert, die von mehreren promiskuitiven Stoffwechselweg-Genen produziert werden. Darüber hinaus half die Anwendung von Metabolomics beim Design und der Optimierung eines neuartigen Isopentenyldiphosphat-Bypass-Mevalonat-Wegs in E. coli für die C5-Alkoholproduktion. Kürzlich haben einige Autoren den DBTL-Zyklus genutzt, um Rhodosporidium toruloides zu entwickeln, eine ölhaltige Hefeart, die auf lignozellulosehaltigen Materialien wächst und das Diterpen Ent-Kauren produziert, ein potenzielles Therapeutikum, das antimikrobielle, entzündungshemmende, kardiovaskuläre, harntreibende, Anti-HIV- und zytotoxische Wirkungen aufweist.
Agrar- und Lebensmittelbiotechnologie
Jüngste Innovationen in der landwirtschaftlichen Biotechnologie haben zu neuen Pflanzensorten geführt, die durch rekombinante DNA-Technologie entwickelt wurden und besser auf die Marktanforderungen und Umweltprobleme reagieren. Tatsächlich wurden „Omics“-Werkzeuge in der landwirtschaftlichen Biotechnologie eingesetzt, um erwünschte phänotypische Eigenschaften (z. B. Farbe, Geschmack, Trockentoleranz, Pestizidresistenz usw.) zu verbessern. „Omics“ spielt nicht nur bei der Verbesserung der Qualität, Konsistenz und Produktivität von Nutzpflanzen eine Rolle, sondern auch bei der Entwicklung von Nahrungspflanzen mit verbesserter Nährstoffzusammensetzung. Darüber hinaus hilft die Omics-getriebene Systembiologie dabei, die Interaktionen zwischen den „OMEs“ zu verstehen und Verbindungen zwischen Genen und spezifischen Eigenschaften herzustellen.
Im Ackerland ist der Boden anfälliger für den Verlust von Struktur, organischer Substanz, Mineralien und Erosion. Daher werden mit Hilfe der landwirtschaftlichen Biotechnologie Anstrengungen unternommen, um eine konstante Versorgung mit Nährstoffen zu gewährleisten, die für das Wachstum von Nutzpflanzen wichtig sind. Ein wesentlicher Bestandteil dieses Ansatzes ist die Verwendung von Biodüngern. Dabei handelt es sich um Präparate, die spezialisierte mikrobielle Inokulanzien enthalten, die Nährstoffquellen fixieren, mobilisieren, auflösen oder abbauen können. Biofertilizer werden in der Regel über das Saatgut oder den Boden ausgebracht und verbessern die Nährstoffaufnahme der Pflanzen. Die weit verbreitete Anwendung dieses Ansatzes wurde jedoch durch schwankende Reaktionen von mikrobiellen Inokulanten auf verschiedenen Feldern und Kulturen behindert. Daher besteht ein dringender Bedarf, die Mechanismen besser zu verstehen, die den Wechselwirkungen zwischen den mikrobiellen Gemeinschaften im Boden und der Produktivität der Wirtspflanzen zugrunde liegen. Jüngste Genomik- und Exo-Metabolomik-Studien zeigten, dass bestimmte Rhizosphärenbakterien eine natürliche Präferenz für bestimmte aromatische organische Säuren haben, die von Pflanzen ausgeschieden werden. Diese Tatsache deutet darauf hin, dass die Exsudationseigenschaften der Pflanzen und die Eigenschaften der mikrobiellen Substrataufnahme interagieren und spezifische Muster der mikrobiellen Gemeinschaft bilden. Darüber hinaus ergab die Anwendung von Genomik und Transkriptomik zur Untersuchung der Phosphataufnahme durch verschiedene Mikroalgen eine Reihe von Pi-Transportern mit spezifischen Expressionsmustern in Bezug auf die Verfügbarkeit von P. Derzeit werden „Omics“-Ansätze zur Untersuchung komplexer rhizosphärischer Interkommunikationen verwendet, was für die Entwicklung neuer Biodünger von entscheidender Bedeutung ist und somit ein stabiles Pflanzenwachstum, eine bessere Pflanzenproduktivität und einen höheren Ertrag fördert.
Im verwandten Bereich der Lebensmittelbiotechnologie konnte durch die Anwendung von Transkriptomik und Metabolomik gezeigt werden, dass Bacillus pumilus LZP02 das Wachstum von Reiswurzeln durch die Verbesserung des Kohlenhydratstoffwechsels und der Phenylpropanoid-Biosynthese fördert. Darüber hinaus ermöglicht die Anwendung von „Omics“ im Bioengineering von Stärke ein besseres Verständnis der wichtigsten Enzyme für ihre Biosynthese. Dies erleichtert die Vorhersage, wie stärkebezogene Phänotypen modifiziert werden können und sichert weitere Fortschritte auf dem Forschungsgebiet der Reisstärke-Biotechnologie. „Omics“ helfen auch bei der Lösung von Fragen der Lebensmittelqualität und Rückverfolgbarkeit, beim Schutz der Herkunft von Lebensmitteln und bei der Entdeckung von Biomarkern für mögliche Probleme der Lebensmittelsicherheit. Die fortschrittliche Untersuchung des Weinmikrobioms hat einen großen Einfluss auf die Weinindustrie und hilft dabei, die Faktoren besser zu verstehen, die Trauben in Wein verwandeln, einschließlich Geschmack und Aroma. Die „Omics“-Charakterisierung der komplexen Beziehungen zwischen diesen Mikroorganismen, dem Substrat und der Umwelt ist essentiell für die Gestaltung der Weinproduktion. Schließlich kann die Kombination von „Omics“-Technologien mit der Genom-Editierung von Lebensmittel-Mikroorganismen genutzt werden, um verbesserte probiotische Stämme zu generieren, innovative Bio-Therapeutika zu entwickeln und die Struktur der mikrobiellen Gemeinschaft in Lebensmittelmatrizen zu verändern.
„OMICs“ Technologien und COVID-19
Die Coronavirus-Krankheit 2019 (COVID-19) wird durch das Coronavirus 2 des Schweren Akuten Respiratorischen Syndroms [d. h. SARS-CoV-2, das an den ACE2-Rezeptor in der Lunge und anderen Organen bindet] verursacht. Aufgrund seiner weltweiten Ausbreitung wurde eine globale Pandemie ausgerufen und ein Großteil der Weltwirtschaft wurde ausgebremst. Bis zum April 2021 gibt es weltweit mehr als 138 Millionen bestätigte Fälle und 2,5 Millionen bestätigte Todesfälle (https://www.worldometers.info/coronavirus/). Es besteht also ein dringender Bedarf an einer wirksamen Gegenmaßnahme, um die Ausbreitung der Pandemie einzudämmen.
Daher werden derzeit Anstrengungen unternommen, um die Entwicklung und Produktion von sicheren und wirksamen Impfstoffen gegen SARS-CoV-2 zu beschleunigen. Vorangegangene Erkenntnisse über SARS und das Middle East Respiratory Syndrome (MERS) haben die Ausrichtung auf das Spike-Protein als virales Antigen (über den ACE2-Rezeptor) erleichtert. Darüber hinaus ermöglichte die Genomsequenzierung des SARS-CoV-2 im Januar 2020 die beschleunigte Entwicklung von mRNA- und Impfstoffplattformen der nächsten Generation, die für das Antigen kodieren. Nach der Injektion in einen Wirt verbleibt die mRNA, eingekapselt in Lipid-Nanopartikel, im Zytoplasma. Bei Verwendung von DNA, die in einem abgeschwächten Adenovirus-Vektor verpackt ist, gelangt sie in den Zellkern. Die Wirtszelle übersetzt dieses genetische Material in das Spike-Protein. Es setzt sich auf der Zelloberfläche ab und provoziert eine adaptive Immunantwort, die durch T-Zellen (z. B. CD4+ und CD8+) und B-Zellen (d. h. Antikörper) vermittelt wird. Diese Impfstoffe haben sich in jüngsten klinischen Studien als wirksam gegen SARS-CoV-2 erwiesen, was die Bedeutung der Genomik für diese neue Ära der Impfstoffentwicklung unterstreicht.
Seit Beginn des Ausbruchs von SARS-CoV-2 wurde eine Protein-Interaktionskarte erstellt und mit Hilfe eines Proteomics-basierten Ansatzes wurden Ziele für das Drug Repurposing aufgedeckt. Durch die Anwendung der Proteomics-Analyse wurden 26 der 29 SARS-CoV-2-Proteine kloniert, affinitätsmarkiert und in menschlichen Zellen exprimiert und die assoziierten Proteine identifiziert. Insgesamt wurden 66 menschliche Proteine oder Wirtsfaktoren als potenzielle Wirkstoffziele von 69 Substanzen entdeckt. Zwei Sätze dieser pharmakologischen Wirkstoffe zeigten antivirale Aktivität. Darüber hinaus wurden computergestützte Immunoproteomics-Studien durchgeführt, die die laborgestützten Untersuchungen unterstützen und die Bewertung der Spezifität diagnostischer Produkte, die Vorhersage potenzieller unerwünschter Wirkungen von Impfstoffen und die Reduzierung der Verwendung von Tiermodellen ermöglichen.
Darüber hinaus wurde kürzlich eine auf Metabolomics basierende Methode entwickelt, die in der Lage ist, COVID-19-Patienten von gesunden Kontrollen über die Analyse von 10 Plasmametaboliten zu unterscheiden. Zusätzlich deuten die Daten aus der Lipidomics-Studie darauf hin, dass mit Monosialodihexosyl-Gangliosid angereicherte Exosomen an den pathologischen Prozessen beteiligt sein könnten. Proteomics- und Metabolomics-Untersuchungen in COVID-19-Patientenseren ergaben, dass die SARS-CoV-2-Infektion eine metabolische Dysregulation des Makrophagen- und Lipidstoffwechsels, der Thrombozyten-Degranulation, der Komplementsystem-Wege und eine massive metabolische Suppression verursacht. Die Analyse der metabolomischen Signaturen des Plasmas zeigte ein ähnliches Profil, wie es für das Sepsis-Syndrom beschrieben wurde. Darüber hinaus zeigten die Ergebnisse der Transkriptomik eine Hochregulierung von Genen, die mit der oxidativen Phosphorylierung zusammenhängen, sowohl in peripheren mononukleären Leukozyten als auch in der bronchoalveolären Lavageflüssigkeit. All diese Informationen deuten auf eine kritische Rolle der mitochondrialen Aktivität während der SARS-CoV-2-Infektion hin. Das Verständnis der klinischen Präsentation von COVID-19 sowie der metabolomischen, proteomischen und genetischen Profile könnte bei der Entdeckung spezifischer diagnostischer, prognostischer und prädiktiver Biomarker helfen und die Entwicklung einer erfolgreicheren medizinischen Therapie gewährleisten. Darüber hinaus könnte die Unterscheidung von metabolischen Biomarkern für schwere vs. leichte Krankheitszustände in der Lunge während Atemwegsinfektionen zur Entdeckung neuartiger Therapeutika führen, die die Symptom- und Krankheitsschwere modulieren.
Nutri-omics Forschung
Mehr als ein Jahrzehnt ist vergangen, seit die Idee der Nutrigenomik erstmals vorgestellt wurde. Nutrigenomik, auch als Ernährungsgenomik, Ernährungsomik oder Nutri-omik bezeichnet, kann als ein Bereich der Lebensmittel- und Ernährungsforschung definiert werden, der tiefgreifende Analysen von Molekülen oder anderen physikalischen Phänomenen nutzt.
In Anbetracht der Komplexität des menschlichen Körpers und seiner vielfältigen Wechselwirkungen mit der Nahrung ist es denkbar, dass ganzheitliche Analysen der Nahrungsmittel-Körper-Interaktionen eine wichtige Voraussetzung für ein besseres Verständnis der Wirkung von Nahrungsbestandteilen sind. Die Hauptannahme ist, dass die Kombination verschiedener Omics-Plattformen einen tieferen Einblick in den Einfluss von Nahrungsbestandteilen und den Mechanismus ihrer Wirkung ermöglicht.
Genomik und Ernährung
Menschliche Gene haben unterschiedliche Varianten in der Bevölkerung. Wenn man bedenkt, dass die Reaktion auf die Ernährung ein multigener Prozess ist, ist es nicht überraschend, dass nicht miteinander verwandte Individuen unterschiedlich reagieren können. Die Schlüsselhypothese, die in den letzten Jahren vorgeschlagen wurde, besagt, dass genetische Variationen den Unterschieden bei ernährungsbedingten Störungen und dem Risiko für Krankheiten zugrunde liegen. In der Tat versucht die Nutrigenetik zu erklären, wie und in welchem Ausmaß ernährungsbezogene Merkmale und Störungen durch genetische Variation beeinflusst werden. Mit anderen Worten, die Schlüsselfragen der Nutrigenetik sind:
- Welche Gene sind an der Bestimmung eines bestimmten Merkmals beteiligt?
- Was ist die funktionale Identität der Variation, durch die sich Menschen für dieses Merkmal unterscheiden?
- Wie kann dieses Wissen zum Wohle der Bevölkerung genutzt werden?
Normalerweise definieren die Forscher „Kandidatengene“ für ein Merkmal oder eine Störung und suchen in diesen Genen nach Variationen. Dies wird als „hypothesengetriebener“ Ansatz bezeichnet, weil die Auswahl der Gene auf ihrer vermuteten Funktion beruht. Zum Beispiel werden die Gene für Lipoproteine als Kandidaten für Fettleibigkeit und die Gene für die Insulinsignalisierung – als Kandidaten für Diabetes – verwendet. Andere attraktive Kandidaten beim Menschen sind die orthologen Gene, die Tiermodellen mit einer mendelschen Segregation eines Merkmals zugrunde liegen. Ein bekanntes Beispiel ist die db/db-Maus. Sie ist ein Modell für Diabetes, bei dem das Gen für den Leptinrezeptor identifiziert wurde. Das menschliche Homolog wurde dann an Personen mit einer gestörten Glukosetoleranz getestet. Eine Variante (Allel) des Gens wurde identifiziert und es wurde nachgewiesen, dass diese mit einer signifikant höheren Häufigkeit des Auftretens von Diabetes im Vergleich zur Allgemeinbevölkerung assoziiert ist.
Andere angewandte Methoden beziehen sich auf die Untersuchung der bevorzugten Segregation eines Allels von den Eltern auf ein betroffenes Kind (Transmissionsungleichgewichtstest) oder auf mehrere betroffene Geschwister (Geschwisterpaaranalyse). Wenn ein Gen mit dem Merkmal in Verbindung gebracht wird, muss noch bewiesen werden, ob das assoziierte oder verknüpfte Allel selbst der Risikofaktor ist, oder ob es nur als Marker für eine nahe gelegene ursächliche Variation verwendet werden kann. Wenn die genetische Variation mit einer Aminosäurevariation im Protein verknüpft ist, könnte ein Funktionstest entwickelt werden und die allelischen Proteine können auf ihre enzymatische Aktivität, DNA-Bindungsaffinität usw. verglichen werden.
Ein weiterer Ansatz zur Suche nach risikobehafteten Genen für ein bestimmtes Merkmal oder eine Störung ist der Total-Genom-Scan. Dabei werden Hunderte von Polymorphismen mit einer zufälligen Verteilung über das Genom, aber mit einer bekannten chromosomalen Lage nachgewiesen. Für jede polymorphe Stelle wird dann ermittelt, ob eine Assoziation zwischen dem Allel und dem Merkmal besteht. Mit diesem Ansatz können Risikoloci für viele ernährungsbedingte Erkrankungen des Menschen wie Adipositas und Diabetes identifiziert werden.
Nach dem Zweiten Weltkrieg wurde in vielen westlichen Ländern beobachtet, dass die Inzidenzen von Spina bifida allmählich zurückgingen. Es wurde vermutet, dass die Verbesserung der Ernährung diesen Effekt hervorgebracht hatte. Eine große epidemiologische Studie wurde gestartet. Die erzielten Ergebnisse zeigten, dass die Anreicherung der Ernährung mit Vitaminen das Auftreten und Wiederauftreten von Spina bifida bei Menschen zu mehr als 50 % verhindern konnte. Folsäure wurde als die aktive Substanz entdeckt und nun wird in vielen Ländern eine präkonzeptionelle Folsäure-Supplementierung als allgemeine Präventionsmaßnahme empfohlen. Gleichzeitig ist klar geworden, dass sich die Frauen in der Bevölkerung hinsichtlich des Risikos für ein Kind mit Spina bifida grob in drei Gruppen einteilen lassen: [i] kein Risiko auch bei geringer Folatzufuhr, [b] ein Risiko bei geringer Folatzufuhr, dem aber durch eine erhöhte Folatzufuhr geholfen werden kann, und [c] ein Risiko trotz zusätzlicher Folatzufuhr. Es wurde eine genetische Prädisposition vermutet, und Kandidatengene aus dem Folatstoffwechsel wurden auf genetische Variation untersucht. Dabei wurden die Allele 667C->T und 1298A->C im Gen für Methylentetrahydrofolatreduktase (MTHFR) als Risikofaktoren entdeckt. Diese Risiko-Allele wurden jedoch in allen drei Gruppen von Frauen in gewissem Umfang entdeckt, was zeigt, dass ein Gentest im Rahmen einer personalisierten Diät unzureichend wäre. Außerdem wurde deutlich, dass nicht das gesamte relative Risiko durch diese Allele erklärt werden kann. Daher wird die Suche nach genetischen Variationen in anderen Genen fortgesetzt und es könnten neue Kandidatengene gefunden werden.
Derzeit sind bereits mehrere Hundert Gene identifiziert worden, die mit bestimmten ernährungsbedingten Merkmalen und Störungen in Verbindung stehen, und zwar durch genetische Experimente in verschiedenen Populationen und die Untersuchung von Tier- und In-vitro-Modellsystemen. Schließlich soll die Nutrigenomik- und Nutrigenetik-Forschung zu einem umfassenden Verständnis der Ätiologie dieser Merkmale und Störungen im Hinblick auf die interagierenden Gene, die Ernährungskomponenten und das relative Risiko führen, das sowohl durch genetische Variation als auch durch die Ernährung vermittelt wird. Dieses kombinierte Wissen wird es ermöglichen, ein genetisches Profil jedes Individuums zu erstellen und damit sein Risiko für die Entwicklung von ernährungsbedingten Störungen abzuschätzen. Auf der Grundlage dieses persönlichen Risikoprofils genetischer Faktoren könnte dann eine „personalisierte Diät“ vorgeschlagen werden, mit der das Auftreten einer Störung verhindert oder zumindest verzögert werden könnte. Einige Unternehmen bieten bereits Gentests für Allele an, die mit bestimmten Merkmalen in Verbindung gebracht wurden. So wird z.B. das ApoE-Allel als Risikofaktor für Herz-Kreislauf-Erkrankungen getestet und ein Allel des Alkoholdehydrogenase-Gens wird zur Vorhersage einer möglichen Alkoholempfindlichkeit und eines (Ab-)Konsums verwendet. Es ist jedoch wichtig zu beachten, dass das Vorhandensein eines bestimmten Allels das Risiko für eine Störung um 100 % erhöhen kann, während in absoluten Zahlen das Risiko normalerweise immer noch sehr gering ist, wie z. B. eine Erhöhung von 0,001 auf 0,002. Außerdem kann das Testen nur eines genetischen Faktors ein unvollständiges oder sogar falsches Bild der Situation vermitteln. Heutzutage haben wir keine Ahnung von allen genetischen Faktoren und wie sie zusammenwirken. Bis mehr Informationen gesammelt werden, müssen die Ratschläge, die auf einfachen Tests beruhen, wahrscheinlich einfach bleiben und klingen wie „weniger Alkohol trinken“ oder „weniger gesättigte Fette essen“.
Traskriptomik und Ernährung
Die Transkriptomik wird in der Lebensmittelforschung aufgrund der vielen Vorteile der DNA-Microarray-Technologie am häufigsten eingesetzt, einschließlich der Vollständigkeit der Expressionsdaten, der etablierten Protokolle und der hohen Zuverlässigkeit und Reproduzierbarkeit der Daten. Es wurde auch über die Veränderungen der globalen Genexpression als Reaktion auf verschiedene Veränderungen in der Ernährung berichtet, wie z.B. Nährstoffmangel, Fasten, übermäßiges Essen und die Einnahme von spezifischen Nahrungsfaktoren. Als ein Beispiel für die durchgeführten Versuche, Referenzdaten zu gewinnen, wurde eine Transkriptomanalyse der Leber von Ratten durchgeführt, die mit einer milden kalorischen Restriktion behandelt wurden. Im Tierversuch konnte gezeigt werden, dass eine bescheidene Reduktion der Nahrungsaufnahme oder ein verändertes Aufnahmemuster für das Auftreten signifikanter metabolischer Veränderungen ausreichen kann. Daher ist es wichtig, zwischen den direkten Effekten der Nahrungskomponente und den sekundären Effekten zu unterscheiden, die durch die Änderung des Essverhaltens verursacht werden. Wenn Ratten eine Diät mit 5 bis 30 % weniger Nahrung als eine ad libitum gefütterte Gruppe für 1 Woche oder 1 Monat gefüttert wurde, wurden restriktionsabhängige Veränderungen im Expressionsniveau von cyp4a14 beobachtet. Tatsächlich wurde das cyp4a14-Gen sogar durch ein niedriges Niveau der kalorischen Restriktion induziert. Diese Daten deuten darauf hin, dass das Gen als Biomarker für die positiven Auswirkungen der Nahrung auf den Energiestoffwechsel verwendet werden kann.
Proteomik und Ernährung
Viele Studien zur Lebensmittel- und Ernährungsforschung wurden mit Hilfe von Proteomics-Ansätzen durchgeführt. Zum Beispiel wurde die oben beschriebene Wirkung einer milden kalorischen Restriktion auch mit Proteomics untersucht. Neun signifikant hoch-regulierte Proteine und neun herunter-regulierte Proteine wurden nach dem Proteom-Vergleich der Leber von Ratten, die mit 30-prozentiger Nahrungsrestriktion behandelt wurden, mit den Kontroll-Ratten festgestellt. Zehnprozentige Restriktion verursachte die Hochregulierung von 9 Proteinen und die Herunterregulierung von 2 Proteinen. Eine interessante Entdeckung war die Hochregulierung von Prohibitin, dessen Beteiligung an der Regulierung der Langlebigkeit kürzlich aufgedeckt wurde. Dieses Ergebnis deutet darauf hin, dass Prohibitin als effektiver Biomarker für die positiven Effekte von Nahrungsfaktoren eingesetzt werden kann. Obwohl das derzeitige Stadium der Proteomik-Forschung im Vergleich zur Transkriptomik viel weniger umfangreich ist, zeigt die hier beschriebene Studie zusammen mit anderen Forschungsergebnissen der Ernährungsproteomik, dass die Proteomik ein vielversprechendes Werkzeug für die Entdeckung von Biomarkern ist.
Matbolomics und Ernährung
Es gibt etwa zehntausend verschiedene Arten von Hauptmetaboliten in Tierkörpern, während die Anzahl der Proteine 100.000 übersteigen soll. Es wird erwartet, dass diese Eigenschaft der Metabolite zu umfassenderen Funktionen der Metabolomics-Analyse führt als die der Proteomics. Die Analyse von Metaboliten ist jedoch in der Tat mit Schwierigkeiten behaftet und erfordert in der Regel den Einsatz ausgefeilter Techniken und hochqualifiziertes Personal. Eine weitere Schwierigkeit ergibt sich aus der Breite der Metabolitenhäufigkeit. Unabhängig von diesen Hindernissen ist die Metabolomik ein leistungsfähiges Werkzeug in der Lebensmittel- und Ernährungswissenschaft.
Viele Untersuchungen zeigten, dass der Darm- und Serumstoffwechsel durch die Veränderung der Zusammensetzung des Darmmikrobioms beeinflusst wird. Das Darmmikrobiom und seine Veränderung in Abhängigkeit von der Ernährung sind essentiell für die Bewertung von diätetischen Interventionsstudien mit metabolomischen Endwirkungen. Der Vergleich zwischen keimfreien Mäusen, die mit menschlicher Babyflora kolonisiert wurden, und konventionellen Mäusen zeigte die Komplexität der durch die Ernährung modifizierbaren Mikrobiom/Metabolom-Kovariation. In dieser Studie wurde der Einfluss des intestinalen Mikrobioms auf Plasmametabolite untersucht. Die Daten zeigten, dass mehr als 10 % des Plasmametaboloms direkt vom Mikrobiom abhängig sind. Einige Beispiele für mikrobiomabhängige Verbindungen im Plasma sind Zimtsäure, konjugierte Glycinverbindungen, Hippursäure und andere Plasmametabolite. Das Darmmikrobiom beeinflusst auch direkt die Fähigkeit des Wirts, Lipide, Kohlenhydrate und Proteine zu verstoffwechseln, und kann mehrere Phase-II-Entgiftungsreaktionen durchführen. Es gibt auch Hinweise darauf, dass Darmmikroorganismen nicht-nutritive Phytochemikalien verwerten. So haben mehrere Untersuchungen gezeigt, dass die Konzentrationen von drei mikrobiomabhängigen, aus der Nahrung stammenden Metaboliten, Cholin, Trimethylamin-N-Oxid und Betain, das Risiko für Herz-Kreislauf-Erkrankungen bei Mäusen vorhersagen können.
Ernährung und andere OMICs
Viele andere Omics-Plattformen sind ebenfalls im Fokus der Nutriomics-Forschung. Es wurde gezeigt, dass epigenetische Veränderungen durch die Ernährung während der fetalen Entwicklung verursacht werden und die Prädisposition für lebensstilbedingte Krankheiten im späteren Leben beeinflussen könnten. Zum Beispiel haben Kinder von Müttern, die während der Schwangerschaft unter Über- oder Unterernährung litten, ein erhöhtes Risiko für die Entwicklung von Fettleibigkeit, Diabetes, Bluthochdruck, Herz-Kreislauf-Erkrankungen usw. Viele Studien haben die Beteiligung von epigenetischen Modifikationen an einer solchen erworbenen Anfälligkeit bewiesen. Ein weiteres vielversprechendes Ziel von Omics-Ansätzen in der Lebensmittelwissenschaft ist mit den RNA-Transkripten verbunden, die nicht für Proteine kodieren. MicroRNA (miRNA) ist ein Subtyp dieser nicht-kodierenden RNAs. Vorläufer von miRNAs (pri-miRNA) sind lange Produkte, die gespalten werden, um reife miRNAs mit einer Länge von 22 Nukleotiden zu erhalten. Reife miRNAs regulieren die mRNA-Degradation, die mRNA-Translation und sogar die Gentranskription. Im Falle menschlicher Zellen sind etwa 1.000 miRNAs identifiziert, von denen angenommen wird, dass sie die Expression von mehr als der Hälfte der proteinkodierenden Gene regulieren. In Anbetracht der sich häufenden Daten, die die Schlüsselrolle der miRNA bei der Entstehung von Krankheiten und der Aufrechterhaltung der Gesundheit belegen, ist die Information über den Status der miRNAs zweifelsohne entscheidend für das Verständnis der Interaktion zwischen Nahrungsbestandteilen und dem Körper. Globale miRNA-Analysen können jetzt einfach durch die Verwendung kommerzieller miRNA-Arrays durchgeführt werden.
Mit der Einführung neuer Technologien und erworbenem Wissen nimmt die Zahl der Omics-Felder und ihrer Anwendungen in verschiedenen Bereichen in der Postgenomik-Ära schnell zu. Diese aufstrebenden Bereiche – einschließlich Pharmakogenomik, Toxikogenomik, Regulomik, Spleißomik, Metagenomik und Umweltomik – bieten vielversprechende Lösungen zur Bekämpfung globaler Herausforderungen in der Biomedizin, Landwirtschaft und Umwelt.
Test: LO1-Fortgeschrittenes Niveau
Referenzen
- Amer B, Baidoo EEK. 2021. Omics-Driven Biotechnology for Industrial Applications. Frontiers Bioeng. Biotech., 9, Art. 613307: 1-19.
- Azizipour N, Avazpour R, Rosenzweig DH, Sawan M, Ajji A. 2020. Evolution of Biochip Technology: A Review from Lab-on-a-Chip to Organ-on-a-Chip. Micromachines, 11: 599.
- Canzler S, · Schor J, · Busch W, et al. · 2020. Prospects and challenges of multi omics data integration in toxicology. Archives of Toxicology, 94:371–388.
- Horgan RP, Kenny LC. 2011. ‘Omic’ technologies: genomics, transcriptomics, proteomics and metabolomics. The Obstetrician & Gynaecologist, 13:189–195.
- Joseph P. 2017. Transcriptomics in toxicology. Food Chem Toxicol., 109(1): 650–662.
- Karahalil B. 2016. Overview of Systems Biology and Omics Technologies. Curr. Med. Chem., 23, 1-10.
- Karczewski KJ, Snyder MP. 2018. Integrative omics for health and disease. Nat Rev Genet., 19(5): 299–310.
- Kato H, Takahashi S, Saito K. 2011. Omics and Integrated Omics for the Promotion of Food and Nutrition Science. J. Trad. Complement. Medicine, 1 (1): 25-30.
- Kim DH, Kim YS, Son NI, Kang CK, Kim AR. 2017. Recent omics technologies and their emerging applications for personalized medicine. IET Syst. Biol.,11 (3): 87-98.
- Kodzius R, Gojobori T. 2016. Single-cell technologies in environmental omics. Gene 576: 701–707.
- Mariman ECM. 2006. Nutrigenomics and nutrigenetics: the ‚omics‘ revolution in nutritional science. Biotechnol Appl Biochem., 44(3):119-28.
- Mousumi D, Prasad GBKS, Bisen PS. 2010. Omics technology. In: Molecular Diagnostics: Promises and Possibilities, Dordrech Heidelberg London, Springer, pp 11-31.
- Ryan EP, Heuberger AL, Broeckling CD, Borresen EC, Tillotson C, Prenni JE. 2013. Advances in Nutritional Metabolomics. Current Metabolomics, 1: 109-120.
- Sauer UG, Deferme L, Gribaldo L, et al. 2017. The challenge of the application of ‚omics technologies in chemicals risk assessment: Background and outlook. Regulatory Toxicology and Pharmacology, 91: S14 – S26
- Simões T, Novais SC, Natal-da-Luz T, et al. 2018. An integrative omics approach to unravel toxicity mechanisms of environmental chemicals: effects of a formulated herbicide. Scientific Reports 8:11376
- Titz B, Elamin A, Martin F, et al. 2014. Proteomics for systems toxicology. Computational and Structural Biotechnology Journal, 11: 73–90.
- Vlaanderen J, Moore LE, Smith MT, et al. 2010. Application of Omics Technologies in Occupational and Environmental Health Research; Current Status and Projections. Occup Environ Med., 67(2): 136–143.
- Yılmaz B, Yılmaz F. 2018. Lab-on-a-Chip Technology and Its Applications. In: Omics Technologies and Bio-engineering: Towards Improving Quality of Life, pp. 145, Elsevier Inc.
- Amer B, Baidoo EEK. 2021. Omics-Driven Biotechnology for Industrial Applications. Frontiers Bioeng. Biotech., 9, Art. 613307: 1-19.
- Azizipour N, Avazpour R, Rosenzweig DH, Sawan M, Ajji A. 2020. Evolution of Biochip Technology: A Review from Lab-on-a-Chip to Organ-on-a-Chip. Micromachines, 11: 599.
- Canzler S, · Schor J, · Busch W, et al. · 2020. Prospects and challenges of multi omics data integration in toxicology. Archives of Toxicology, 94:371–388.
- Horgan RP, Kenny LC. 2011. ‘Omic’ technologies: genomics, transcriptomics, proteomics and metabolomics. The Obstetrician & Gynaecologist, 13:189–195.
- Joseph P. 2017. Transcriptomics in toxicology. Food Chem Toxicol., 109(1): 650–662.
- Karahalil B. 2016. Overview of Systems Biology and Omics Technologies. Curr. Med. Chem., 23, 1-10.
- Karczewski KJ, Snyder MP. 2018. Integrative omics for health and disease. Nat Rev Genet., 19(5): 299–310.
- Kato H, Takahashi S, Saito K. 2011. Omics and Integrated Omics for the Promotion of Food and Nutrition Science. J. Trad. Complement. Medicine, 1 (1): 25-30.
- Kim DH, Kim YS, Son NI, Kang CK, Kim AR. 2017. Recent omics technologies and their emerging applications for personalized medicine. IET Syst. Biol.,11 (3): 87-98.
- Kodzius R, Gojobori T. 2016. Single-cell technologies in environmental omics. Gene 576: 701–707.
- Mariman ECM. 2006. Nutrigenomics and nutrigenetics: the ‚omics‘ revolution in nutritional science. Biotechnol Appl Biochem., 44(3):119-28.
- Mousumi D, Prasad GBKS, Bisen PS. 2010. Omics technology. In: Molecular Diagnostics: Promises and Possibilities, Dordrech Heidelberg London, Springer, pp 11-31.
- Ryan EP, Heuberger AL, Broeckling CD, Borresen EC, Tillotson C, Prenni JE. 2013. Advances in Nutritional Metabolomics. Current Metabolomics, 1: 109-120.
- Sauer UG, Deferme L, Gribaldo L, et al. 2017. The challenge of the application of ‚omics technologies in chemicals risk assessment: Background and outlook. Regulatory Toxicology and Pharmacology, 91: S14 – S26
- Simões T, Novais SC, Natal-da-Luz T, et al. 2018. An integrative omics approach to unravel toxicity mechanisms of environmental chemicals: effects of a formulated herbicide. Scientific Reports 8:11376
- Titz B, Elamin A, Martin F, et al. 2014. Proteomics for systems toxicology. Computational and Structural Biotechnology Journal, 11: 73–90.
- Vlaanderen J, Moore LE, Smith MT, et al. 2010. Application of Omics Technologies in Occupational and Environmental Health Research; Current Status and Projections. Occup Environ Med., 67(2): 136–143.
- Yılmaz B, Yılmaz F. 2018. Lab-on-a-Chip Technology and Its Applications. In: Omics Technologies and Bio-engineering: Towards Improving Quality of Life, pp. 145, Elsevier Inc.


