Information

Was sind die Vorteile der iTRAQ/TMT-Technologie gegenüber der Elektrophorese?

Was sind die Vorteile der iTRAQ/TMT-Technologie gegenüber der Elektrophorese?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Ich arbeite derzeit an dem Papier zur Proteomik-Forschung. Ich habe viele Fragen aufgelistet, die Erstsemester während ihres Studiums haben könnten. Kann jemand (basierend auf Ihren Erfahrungen im Labor) die Vor- und Nachteile der iTRAQ/TMT-Technologie und der Elektrophorese erklären? Welche Technik ist besser?


Ich glaube, dieses Papier kann Ihre Frage beantworten: Fragen und Antworten zur Proteomik (Q1-Q5). Es heißt, dass 2-DGE eine Proteintrenntechnologie ist, die zusammen mit der MALDI-TOF-Technologie entwickelt wurde. Theoretisch kann das Gesamtprotein einzeln mit der Differenz von isoelektrischem Punkt (IEF) und Molekulargewicht (SDS-PAGE) getrennt werden. Die tatsächliche Situation ist nicht so ideal, da das Protein mit geringer Häufigkeit nicht erfolgreich angefärbt und gesehen werden kann und das Protein nach der posttranslationalen Modifikation von der theoretischen Position abweicht. Ein 2-DGE kann insgesamt 1000-2000 Proteine ​​identifizieren. Im Vergleich zu elektrophoresebasierten Techniken wie 2-DE und DIGE hat iTRAQ/TMT eine hohe Auflösung. MtoZ Biolabs fand in den behandelten Zellproben höchstens 6.000 Proteine, von denen die meisten über quantitative und qualitative Informationen verfügen. Darüber hinaus verfügt sein iTRAQ über einen hohen Fluss und kann bis zu 8 Proben gleichzeitig verarbeiten. Bei Verwendung der TMT-Technologie können bis zu 10 Proben gleichzeitig bearbeitet werden, was sich besonders für den gleichzeitigen Vergleich mehrerer Proben und die dynamische Detektion biologischer Prozesse eignet.


Hochpräzise quantitative Proteomik mit iTRAQ auf einer LTQ-Orbitrap: Eine neue massenspektrometrische Methode, die alle Vorteile vereint

Artikelansichten sind die COUNTER-konforme Summe der Volltext-Downloads von Artikeln seit November 2008 (sowohl PDF als auch HTML) über alle Institutionen und Einzelpersonen hinweg. Diese Metriken werden regelmäßig aktualisiert, um die Nutzung in den letzten Tagen widerzuspiegeln.

Zitate sind die Anzahl anderer Artikel, die diesen Artikel zitieren, von Crossref berechnet und täglich aktualisiert. Weitere Informationen zu Crossref-Zitatzählungen.

Der Altmetric Attention Score ist ein quantitatives Maß für die Aufmerksamkeit, die ein Forschungsartikel online erhalten hat. Wenn Sie auf das Donut-Symbol klicken, wird eine Seite auf altmetric.com mit zusätzlichen Details zum Score und der Social-Media-Präsenz für den jeweiligen Artikel geladen. Weitere Informationen zum Altmetric Attention Score und zur Berechnung des Scores.


Abstrakt

Diese Studie zielte darauf ab, die Tiefe und Reproduzierbarkeit des Gesamtproteoms und der differentiell exprimierten Proteinabdeckung in technischen Duplikaten und Triplikaten unter Verwendung von iTRAQ 4-Plex-, iTRAQ 8-Plex- und TMT 6-Plex-Reagenzien zu vergleichen. Die Analyse wurde durchgeführt, weil in der Literatur nicht umfassend über umfassende Vergleiche der Reproduzierbarkeit von isobaren Massenmarkierungen berichtet wurde. Die höchste Anzahl an Proteinen wurde mit 4-Plex-, gefolgt von 8-Plex- und dann 6-Plex-Reagenzien identifiziert. Quantitative Analysen zeigten, dass mit 4-Plex-Reagenzien mehr differentiell exprimierte Proteine ​​identifiziert wurden als mit 8-Plex-Reagenzien und 6-Plex-Reagenzien. Die Reproduzierbarkeit der Replikate wurde mit 69 % für technische Duplikate und ≥57 % für technische Triplikate bestimmt. Die Ergebnisse zeigen, dass die Durchführung eines 8-Plex- oder 6-Plex-Experiments anstelle eines 4-Plex-Experiments zu 26 bzw. 39 % weniger Proteinidentifikationen führte. Bei der Suche nach 4-plex-Spektren mit drei Softwaretools – ProteinPilot, Mascot und Proteome Discoverer – wurde die höchste Anzahl an Proteinidentifikationen mit Mascot erzielt. Die Analyse der Negativkontrollen zeigte die Bedeutung der Durchführung von Experimenten als Replikate. Insgesamt zeigt diese Studie die Vorteile der Verwendung von iTRAQ 4-Plex-Reagenzien gegenüber iTRAQ 8-Plex- und TMT 6-Plex-Reagenzien, liefert Schätzungen der technischen Reproduzierbarkeit von doppelten und dreifachen Reproduzierbarkeiten und unterstreicht den Wert der Ausführung von Replikatproben.


Proteomik: Techniken

Methoden mit niedrigem Durchsatz:

1. Antikörperbasierte Methoden

Techniken wie ELISA (Enzyme-Linked Immunosorbent Assay) und Western Blotting beruhen auf der Verfügbarkeit von Antikörpern, die gegen spezifische Proteine ​​oder Epitope gerichtet sind, um Proteine ​​zu identifizieren und ihre Expressionsniveaus zu quantifizieren.

2. Gelbasierte Methoden

Die zweidimensionale Gelelektrophorese (2DE oder 2D-PAGE), die erste entwickelte proteomische Technik, verwendet einen elektrischen Strom, um Proteine ​​in einem Gel basierend auf ihrer Ladung (1. Dimension) und Masse (2. Dimension) zu trennen. Differentielle Gelelektrophorese (DIGE) ist eine modifizierte Form von 2DE, die verschiedene Fluoreszenzfarbstoffe verwendet, um den gleichzeitigen Vergleich von zwei bis drei Proteinproben auf demselben Gel zu ermöglichen. Diese gelbasierten Verfahren werden verwendet, um Proteine ​​vor der weiteren Analyse z. B. durch Massenspektrometrie (MS) zu trennen, sowie zur Profilierung der relativen Expression.

3. Chromatographie-basierte Methoden

Auf Chromatographie basierende Verfahren können verwendet werden, um Proteine ​​aus komplexen biologischen Gemischen wie Zelllysaten zu trennen und zu reinigen. Zum Beispiel trennt die Ionenaustauschchromatographie Proteine ​​basierend auf der Ladung, die Größenausschlusschromatographie trennt Proteine ​​basierend auf ihrer Molekülgröße und die Affinitätschromatographie verwendet reversible Wechselwirkungen zwischen spezifischen Affinitätsliganden und ihren Zielproteinen (z. B. die Verwendung von Lektinen zur Reinigung von IgM und IgA Moleküle). Diese Verfahren können verwendet werden, um interessierende Proteine ​​zu reinigen und zu identifizieren sowie Proteine ​​für die weitere Analyse durch z. B. Downstream-MS vorzubereiten. 8

Hochdurchsatzverfahren:

1. Analytische, funktionelle und Umkehrphasen-Mikroarrays


Überarbeitung der Biomarker-Entdeckung durch Plasma-Proteomik

Die klinische Analyse von Blut ist das am weitesten verbreitete diagnostische Verfahren in der Medizin, und Blutbiomarker werden verwendet, um Patienten zu kategorisieren und Behandlungsentscheidungen zu unterstützen. Bestehende Biomarker sind jedoch alles andere als umfassend und weisen oft keine Spezifität auf, und neue werden nur sehr langsam entwickelt. Wie in diesem Aufsatz beschrieben, hat sich die auf Massenspektrometrie (MS) basierende Proteomik zu einer leistungsstarken Technologie in der biologischen Forschung entwickelt und ist nun bereit, eine umfassende Charakterisierung des Plasmaproteoms zu ermöglichen. Frühere „Dreiecksstrategien“ zielten darauf ab, einzelne Biomarker-Kandidaten in kleinen Kohorten zu entdecken, gefolgt von klassischen Immunoassays in viel größeren Validierungskohorten. Wir schlagen eine „rechteckige“ Plasma-Proteom-Profiling-Strategie vor, bei der die Proteommuster großer Kohorten mit ihren Phänotypen in Gesundheit und Krankheit korreliert werden. Die Übertragung solcher Konzepte in die klinische Praxis erfordert eine Neustrukturierung mehrerer Aspekte der diagnostischen Entscheidungsfindung, und wir diskutieren erste Schritte in diese Richtung.

Einführung

Die zentrale und integrierende Rolle des Blutes in der menschlichen Physiologie impliziert, dass es ein universelles Spiegelbild des Zustands oder Phänotyps eines Individuums sein sollte. Seine zellulären Bestandteile sind Erythrozyten, Thrombozyten und Lymphozyten. Der flüssige Anteil wird Plasma genannt, wenn alle Bestandteile zurückgehalten werden, und Serum, wenn die Gerinnungskaskade aktiviert wurde (Blutgerinnung). Der Einfachheit halber werden wir den Begriff „Plasma“ anstelle von „Serum“ verwenden, da die meisten Schlussfolgerungen auf beide zutreffen.

Konzentrationen verschiedener Plasmakomponenten werden in der klinischen Praxis routinemäßig bestimmt. Dazu gehören Elektrolyte, kleine Moleküle, Medikamente und Proteine. Die das Plasmaproteom bildenden Proteine ​​können in drei verschiedene Klassen eingeteilt werden (Fig. 1A und B). Die erste enthält reichlich Proteine ​​mit einer funktionellen Rolle im Blut. Dazu gehören Apolipoproteine ​​aus menschlichem Serumalbumin (HSA, etwa die Hälfte der Gesamtproteinmasse), die eine entscheidende Rolle beim Lipidtransport und der Homöostase der Akutphasenproteine ​​der angeborenen Immunantwort und Proteine ​​der Gerinnungskaskade spielen. Die zweite Klasse sind Gewebeleckproteine ​​ohne eigene Funktion im Kreislauf. Beispiele sind Enzyme wie Aspartat-Aminotransferase (ASAT) und Alanin-Aminotransferase (ALAT), die zur Diagnose von Lebererkrankungen eingesetzt werden, sowie gewebespezifische Isoformen von Proteinen in geringer Konzentration wie kardiale Troponine. Die dritte Klasse sind Signalmoleküle wie kleine Proteinhormone (z. B. Insulin) und Zytokine, die im Steady State typischerweise sehr geringe Häufigkeiten aufweisen und bei Bedarf hochreguliert werden. Die Ausgangswerte des Zytokins Interleukin-6 (IL-6) betragen 5 pg/ml, was einen minimal 10 10 -fachen dynamischen Bereich des Plasmaproteoms im Vergleich zur Konzentration des am häufigsten vorkommenden Proteins, HSA, mit etwa 50 mg/ml festlegt. ml.

Abbildung 1. Blutbasierte Labortests in einer klinischen Umgebung

In der akzeptierten Verwendung ist „ein Biomarker ein definiertes Merkmal, das als Indikator für normale biologische Prozesse, pathogene Prozesse oder eine Reaktion auf eine Exposition oder Intervention gemessen wird“ (FDA-NIH: Biomarker-Working-Group, 2016). Für die Zwecke dieses Reviews konzentrieren wir uns speziell auf Protein- oder Proteinmodifikations-basierte Biomarker. In diesem Sinne gibt es mehr als 100 von der FDA zugelassene oder von der FDA zugelassene klinische Plasma- oder Serumtests, hauptsächlich in der reichlich vorhandenen funktionellen Klasse (50%), gefolgt von Gewebeleckmarkern (25%) und der Rest umfasst Rezeptorliganden , Immunglobuline und abweichende Sekretionen (Anderson, 2010). Die meisten davon sind Jahrzehnte alt, und die derzeitige Einführungsrate neuartiger Marker liegt bei weniger als zwei pro Jahr (Anderson et al, 2013). Ein typischer Test besteht aus einem enzymatischen Assay oder Immunoassay gegen ein einzelnes Ziel. Kliniker interpretieren die Ergebnisse in Verbindung mit anderen Patienteninformationen auf der Grundlage ihres Expertenwissens. Häufigkeitsverhältnisse werden nur in bestimmten Fällen verwendet. Beispiele sind das 60-jährige De-Ritis-Verhältnis von ASAT/ALAT, um zwischen den Ursachen von Lebererkrankungen (De-Ritis et al, 1957) oder das neuere sFlt-1/PlGF-Verhältnis zur Diagnose von Präeklampsie (Levine et al, 2004 ).

Im Gegensatz zu enzymatischen und antikörperbasierten Methoden misst die Massenspektrometrie (MS)-basierte Proteomik die hochgenauen Massen- und Fragmentierungsspektren von Peptiden, die aus dem sequenzspezifischen Verdau von Proteinen stammen. Da die Massen und Sequenzen dieser Peptide einzigartig sind, ist die Proteomik von Natur aus spezifisch, ein ständiges Problem bei kolorimetrischen Enzymtests und Immunoassays (Wild, 2013). Im Prinzip kann die MS-basierte Proteomik alle Proteine ​​in einem System – seinem Proteom – analysieren und ist in diesem Sinne unvoreingenommen und hypothesenfrei (Aebersold & Mann, 2016). Darüber hinaus sind MS-Methoden ideal geeignet, um posttranslationale Modifikationen (PTMs) an Proteinen zu entdecken und zu quantifizieren. Diese PTMs können auch die Grundlage für diagnostische Tests sein, wie zum Beispiel HbA1c-Werte, die zur Ablesung der langfristigen Glukosebelastung im Zusammenhang mit Diabetes dienen. Dennoch basiert keiner der routinemäßig durchgeführten Labortests im Plasma auf Proteinen, die durch massenspektrometrische Ansätze identifiziert wurden, und in der Routineanalytik wird MS bisher nur zur Messung kleiner Moleküle wie Medikamente und Metaboliten eingesetzt (Vogeser & Seger, 2016 ).

In den letzten Jahren hat sich die Technologie der MS-basierten Proteomik dramatisch verbessert und ist heute eine tragende Säule der gesamten biologischen Forschung mit Proteinen (Cox & Mann, 2011 Altelaar & Heck, 2012 Richards et al, 2015 Zhang et al, 2016). Insbesondere seine Leistung ist robust zu einer Sensitivität und einem dynamischen Bereich gereift, die ihn für Biomarker-Studien interessant machen. Dieser Aufsatz konzentriert sich auf die Aussichten der Bestimmung von Proteinen im Blut durch Massenspektrometrie. Wir beginnen mit einer empirischen Bewertung der Rolle von Proteinen in der heutigen klinischen Diagnostik und überprüfen umfassend die Literatur zu früheren Versuchen, Biomarker im Plasma durch MS-basierte Proteomik zu finden. Bisher umfassten Proteomik-Strategien umfangreiche Untersuchungen von wenigen Proben, denen gezielte Ansätze in größeren Kohorten folgten. Wir diskutieren, wie jüngste technologische Fortschritte jetzt eine neue Strategie ermöglichen, bei der tiefe Proteome für viele Zeitpunkte gemessen werden und Teilnehmer mit der Aussicht, neue Biomarker und Biomarker-Panels zu finden. Wir gehen davon aus, dass die Proteomik innerhalb des nächsten Jahrzehnts Teil der instrumentellen Routine im klinischen Labor werden und in ferner Zukunft möglicherweise sogar die aktuellen Technologien verdrängen wird.

Der aktuelle Umfang der klinischen proteinbasierten Diagnostik

Labortests von Blut und Körperflüssigkeiten zielen auf die Diagnose oder Bestätigung der Krankheit, die Risikovorhersage, die Prognoseüberwachung und die Bewertung der Wirksamkeit der Behandlung ab. Es wird allgemein angenommen, dass 70 % der Diagnosen durch Bluttests bestätigt werden, obwohl diese Zahl nicht gut belegt ist. Am Institut für Laboratoriumsmedizin des Universitätsklinikums München werden bei der überwiegenden Mehrheit der stationären Patienten während des Krankenhausaufenthaltes Laboruntersuchungen angeordnet (77% Abb. 1C). Dieser Anteil ist bei Patienten, die in einer der Ambulanzen des Krankenhauses behandelt werden, viel geringer (31% Abb. 1D). Diese Zahlen zeigen, dass Krankenhauspatienten, die normalerweise kränker sind, eher Labortests erhalten als ambulante Patienten. Basierend auf der Anzahl der angeforderten Analysen wird die klinische Routine von Proteinen (42 % der Analysen) dominiert, gefolgt von kleinen Molekülen (35 %) und Zellen (17 %) (Abb. 1E). Somit sind Proteine ​​bereits heute die am häufigsten untersuchte Klasse von Laboranalyten in der klinischen Praxis. Wir stellen auch fest, dass Methoden, die zur Bestimmung von Plasmaproteinen geeignet sind, den größten Anteil an der weltweiten in vitro Diagnose.

Laborassays für Plasmaproteine ​​basieren entweder auf klassischer klinischer Chemie, die enzymatische Aktivitäten bestimmter Plasmaproteine ​​nutzt, oder auf Antikörper-basierten Immunassays. Die Kosten für enzymatische Assays liegen nur im Cent-Bereich, und sie laufen auf automatisierten Analysegeräten mit hohem Durchsatz und liefern bis zu 10.000 Testergebnisse pro Stunde. Im Gegensatz dazu sind Immunoassays teurer (in der Regel mehrere Euro/Dollar pro Probe) und der Durchsatz der jeweiligen Analyseautomaten beträgt etwa 1.000 Tests/Stunde. Große klinische Chemie- und Immunoassay-basierte Analysegeräte können Reagenzien für mehr als 100 verschiedene Analyseparameter enthalten. Hauptvorteile von Immunoassays sind eine höhere Flexibilität durch die Zugänglichkeit zu Plasmaproteinen ohne enzymatische Aktivität und eine deutlich höhere Sensitivität. Ein weiteres, klinisch relevantes Thema ist der Zeitaufwand pro Labortest. Aufgrund der Notwendigkeit einer sofortigen Entscheidungsfindung müssen die meisten enzymatischen Assays und einige Immunoassays auf Analysenzeiten von < 10 min herunterskaliert werden. Im Allgemeinen dauern Immunoassays länger als enzymatische Assays, dennoch benötigen die meisten aktuellen automatisierten Immunoassays nicht mehr als 30 Minuten.

Systematische Überprüfung der MS-basierten Plasmaproteomik in der Biomarkerforschung

Plasmaproteine ​​wurden bereits in den 1990er Jahren durch zweidimensionale Gelelektrophorese untersucht, teilweise in Kombination mit der MS-Identifizierung exzidierter Spots. Diese identifizierten jedoch im Allgemeinen nur einige Dutzend Proteine, und da sie der MS-basierten Proteomik vorausgingen, werden sie in diesem Aufsatz nicht diskutiert. Behauptungen zur Krebsfrüherkennung basierend auf sehr niedrig aufgelösten MALDI-Spektren von Plasma, die Muster, aber keine Proteinidentifizierungen (Petricoin et al, 2002 ) sind nicht belegt (Baggerly et al, 2004 ), und diese Technologien sind heute weitgehend aufgegeben worden.

Um eine umfassende Sammlung von Publikationen zur Plasmabiomarkerforschung und zum Einsatz von MS-basierter Proteomik zu erhalten, haben wir eine uneingeschränkte PubMed-Recherche durchgeführt, die das gemeinsame Vorkommen der Begriffe „Biomarker“, „Plasma OR Serum“, „Proteom“, „Proteomik“, und „Massenspektrometrie“. Dies ergab eine erste Liste von 947 Publikationen, davon 103 Rezensionen. Wir zogen weiter Studien ab, die sich nicht mit menschlichen Probanden befassten oder kein Plasma oder Serum umfassten, sodass 381 Originalpublikationen übrig blieben (Datensatz EV1).

Die Veröffentlichungen begannen im Jahr 2002 und erreichten im Jahr 2005 ein Maximum von 33 pro Jahr, als die Sonderausgabe zum Plasmaproteom von der Human Proteome Organization (HUPO) (Omenn et al, 2005). Zwei weitere Maxima traten 2011 und 2014 mit 39 und 43 Publikationen pro Jahr auf, gefolgt von Rückgängen 2013 auf 24 und 2016 auf nur 20 Publikationen pro Jahr (Abb. 2A). Der beobachteten Dynamik steht eine stetig wachsende Gemeinschaft von Proteomics-Forschern gegenüber, die sich in Tausenden von Publikationen pro Jahr widerspiegelt, mit deutlich steigender Tendenz. Das Verhältnis der Plasma-Proteom-Publikationen zu den gesamten Proteom-Publikationen beträgt jetzt < 1% und sinkt weiter. Angesichts des klaren medizinischen Bedarfs an Plasma-Biomarkern und des Erfolgs der MS-basierten Proteomik in anderen Bereichen stellt sich die Frage, was das Feld der Plasma-Proteomik behindert.

Abbildung 2. Umfassende Literaturübersicht

Von den 381 Primärpublikationen beschäftigte sich etwa die Hälfte mit analytischen Beschreibungen des Arbeitsablaufs in der Plasmaanalyse, während der Rest eine physiologische oder pathophysiologische Fragestellung untersuchte (Abb. 2B). Etwa ein Drittel davon konzentrierte sich auf Krebs, gefolgt von Herz-Kreislauf-Erkrankungen (CVD), Themen der Humanbiologie, Entzündungen, Diabetes und Infektionskrankheiten (Abb. 2B). Diese Reihenfolge spiegelt eindeutig das Interesse an den Krankheiten wider und nicht die Wahrscheinlichkeit, mit der verfügbaren Technologie relevante Veränderungen zu finden. Nur 47 % der Studien hatten irgendeine Art von Validierung der primären Ergebnisse (Abb. 2C). In der Hälfte der Fälle (24 %) handelte es sich um einfache Western Blots oder ELISAs von Kandidatenproteinen, die mit den gleichen Proben durchgeführt wurden und nicht wie in klinischen Studien üblich in einer unabhängigen Kohorte. Nur 36 Arbeiten verwendeten MS-basierte Proteomik, um potenzielle Biomarker zu validieren, die unabhängig vorgeschlagen wurden (Datensatz EV1).

Der extrem hohe Dynamikbereich von Plasma macht es immer noch schwierig, mehr als einige Hundert der am häufigsten vorkommenden Proteine ​​mit LC-MS/MS zu identifizieren. Um diese Herausforderung teilweise zu überwinden, werden häufig sehr reichlich vorhandene Plasmaproteine ​​abgereichert, im Allgemeinen durch Säulen mit immobilisierten Antikörpern, die gegen die oberen 1 bis 20 Proteine ​​gerichtet sind (Fig. 2D). Diese Antikörper sind jedoch nie ganz spezifisch und gebundene Proteine ​​– wie HSA – haben selbst eine Affinität zu mehreren anderen Proteinen (Tu et al, 2010 Bellei et al, 2011). Somit ist die abgereicherte Plasmaprobe keine quantitative Darstellung des ursprünglichen Proteoms. Dies gilt insbesondere bei der Verwendung von „Super-Depletion“ (Qian et al, 2008 ) – eine breite Mischung polyklonaler Antikörper, die gegen Vollplasma erzeugt wurden – oder Beads mit hexameren Peptidmischungen, die das Plasmaproteom unspezifisch „normalisieren“ (Thulasiraman et al, 2005).Darüber hinaus führen diese Verfahren zu Variabilität und zusätzlichen Kosten in den Arbeitsablauf, was im Allgemeinen eine genaue Quantifizierung von Plasmaproteinen ausschließt. Daher ist ihre Verwendung derzeit auf kleine Discovery-Projekte beschränkt.

Eine zweite Strategie zur Bewältigung des dynamischen Bereichs und der Empfindlichkeitsherausforderung ist die umfassende Plasmafraktionierung, die auf Protein- oder Peptidebene auf verschiedene Weise durchgeführt werden kann. Mehrere Studien mit dem Ziel einer eingehenden Abdeckung des Plasmaproteoms durch kombinierte Abreicherung und weitgehende Trennung (bis zu Hunderten von Fraktionen) identifizierten mehrere Hundert bis mehrere Tausend Proteine ​​(Liu et al, 2006 Pan et al, 2011 Cao et al, 2012 Cole et al, 2013 Keshishian et al, 2015 Lee et al, 2015). Beachten Sie, dass viele Plasma-Proteom-Studien weiterhin viel weniger strenge statistische Identifizierungskriterien verwenden als die 1 % Peptid- und Protein-False-Discovery-Raten (FDR), die in der MS-basierten Proteomik zum Standard geworden sind.

Die bei der Fraktionierung implizite Verringerung des Durchsatzes kann teilweise durch Multiplexen wiederhergestellt werden. Beispielsweise wurden zwischen vier und zehn Proben gemeinsam mit den iTRAQ- oder TMT-Strategien analysiert, bei denen Proben mit massenneutralen Tags markiert wurden, die unterschiedliche Reporterionen geringer Masse (Kolla et al, 2010 Zhou et al, 2012 Cominetti et al, 2016). Die Quantifizierung erfolgt durch Fragmentierung von Peptiden und Quantifizierung der relativen Verhältnisse der Reporterionen (Bantscheff et al, 2008). Obwohl sie im Prinzip attraktiv sind, leiden diese Techniken im Allgemeinen unter einer Verhältnisverzerrung, die durch co-isolierte Peptidspezies verursacht wird, die alle zum gleichen Reporterionenmuster beitragen („Verhältniskompression“). Die Regulation von Proteinen mit sehr geringem Gehalt oder solchen mit kleinen, aber krankheitsrelevanten Veränderungen kann vollständig verschleiert werden. In der Shotgun-Proteomik werden eluierende Peptide in der Reihenfolge ihrer Intensität fragmentiert (datenabhängige Erfassung), ein halbstochastischer Prozess, der zu fehlenden Werten bei LC-MS/MS-Läufen führen kann. Kürzlich eingeführte datenunabhängige Akquisitionsstrategien identifizieren Peptide konsistenter über Durchläufe hinweg (Picotti & Aebersold, 2012 Sajic et al, 2015). Sie sind jedoch mit Reporterionen-basiertem Multiplexing nicht kompatibel, da man den Durchschnitt von Peptidgruppen quantifizieren würde.

In etwa 30% der Studien wurden Plasmaproben gepoolt, um innerhalb der verfügbaren Messzeit eine gewünschte Plasmaproteomabdeckung zu erreichen. Dieser Ansatz opfert die Varianzen innerhalb der Gruppe und Ausreißer oder kontaminierende Proteine ​​in einzelnen Proben können die gesamte Gruppe verzerren, was es praktisch unmöglich macht zu beurteilen, ob Proteine, die sich zwischen den Gruppen unterscheiden, tatsächlich von Person zu Person signifikant sind.

Teilweise als Folge der Anforderungen an die Instrumentenzeit wurden in der Regel nicht mehr als 20–30 Proben analysiert und nur wenige überschritten 500 (Garcia-Bailo et al, 2012 Cominetti et al, 2016 Lee et al, 2017). Angesichts der großen Anzahl von Messpunkten innerhalb von Proben sind dies kleine Probenzahlen. Dementsprechend schlugen die meisten Studien einige „potenzielle Biomarker“ vor, die als Proteine ​​definiert sind, die sich zwischen den Fällen und den Kontrollen unterscheiden. Darüber hinaus ist es unwahrscheinlich, dass viele dieser Kandidaten spezifische Indikatoren für die betreffende Krankheit sind, da sie zu biologischen Kategorien gehören, die bestenfalls indirekt mit der Krankheit in Verbindung stehen oder wahrscheinlich Artefakte der Probenvorbereitung sind (wie Keratine und Proteine ​​​​der roten Blutkörperchen). . Zusammenfassend lässt sich sagen, dass Einschränkungen der Proteomik-Technologie und des experimentellen Designs die Identifizierung echter Biomarker in der veröffentlichten Literatur bisher verhindert haben. Die einzige mögliche Ausnahme ist unseres Wissens der OVA1-Test, bei dem die Spiegel der sehr häufig vorkommenden Plasmaproteine ​​Beta-2 Makroglobulin, Apolipoprotein 1, Serumtransferrin und Präalbumin mit dem bereits etablierten Ovarialkarzinommarker CA125 in a . kombiniert wurden schmale, FDA-zugelassene Indikation (Rai et al, 2002 Zhang et al, 2004 ).

Dreieckige MS-basierte Strategie zur Entdeckung und Validierung von Biomarkern

Der Hauptvorteil der hypothesenfreien MS-basierten Proteomik besteht darin, dass im Gegensatz zu Einzelproteinmessungen in der klassischen Biomarkerforschung keine Annahmen über mögliche Art und Anzahl potenzieller Biomarker getroffen werden müssen. Konzeptionell vereint die MS-basierte Proteomik alle möglichen hypothesengetriebenen Biomarkerstudien für jede Krankheit in einer und definiert darüber hinaus die Beziehung potenzieller Biomarker zueinander. In der Praxis verhinderten die Herausforderungen der Plasma-Proteomik bislang eingehende und quantitative Studien an großen Kohorten. Stattdessen wurde eine schrittweise oder „dreieckige“ Strategie zur Entdeckung von Biomarkern befürwortet, mit mehreren Phasen, in denen die Zahl der Individuen von wenigen auf viele ansteigt, während die Zahl der Proteine ​​von Hunderten oder Tausenden auf wenige zurückgeht (Rifai et al, 2006 Abb. 3A).

Abbildung 3. Aktuelle Paradigmen in der Plasmabiomarkerforschung („Dreiecksansatz“)

Der typische Arbeitsablauf für hypothesenfreie Entdeckungsproteomik in Plasma ist ähnlich wie in anderen Bereichen der Bottom-up-Proteomik (Aebersold & Mann, 2016 Altelaar & Heck, 2012 Abb. 3B). Kurz gesagt, Proteine ​​werden enzymatisch zu Peptiden verdaut, die durch Hochdruckflüssigkeitschromatographie (HPLC) getrennt an Elektrospray-Ionisierung aufgetrennt werden. Peptidmassen und -häufigkeiten werden im Massenspektrometer in vollständigen MS-Scans gemessen, während ein weiterer Schritt der Peptidfragmentierung MS/MS-Spektren zur Peptididentifikation erzeugt. Etablierte Proteomik-Softwareplattformen identifizieren Peptide bei Datenbanksuchen automatisch und statistisch rigoros und quantifizieren sie (Cox & Mann, 2008 MacLean et al, 2010 Rost et al, 2014). Darüber hinaus enthält Plasma Blutbestandteile wie Lipide, die HPLC-Säulen leicht verstopfen können, was spezielle Verfahren zur Peptidreinigung erforderlich macht (Geyer et al, 2016a).

Gezielte Proteomik zur Kandidatenverifizierung ist eine zweite Phase der Dreiecksstrategie (Fig. 3C). Eine relativ kleine Anzahl von Proteinen (typischerweise < 10) mit unterschiedlicher Expression in der Entdeckungsphase werden in einer größeren und idealerweise unabhängigen Kohorte getestet. Da Immunoassays oft nicht verfügbar sind, können gezielte MS-Methoden eingesetzt werden. Am weitesten verbreitet ist das „Multiple Reaction Monitoring“ (MRM – manchmal auch Single oder Selected Reaction Monitoring – SRM genannt) (Picotti & Aebersold, 2012 Carr et al, 2014 Ebhardt et al, 2015). Für jedes Protein wird ein Satz geeigneter Peptide ausgewählt und ihr Elutions- und Fragmentierungsverhalten wird bewertet, um einen MRM-Assay zu definieren. Während der Analyse ist das Massenspektrometer so programmiert, dass es nur diese Peptide bei der Elution kontinuierlich fragmentiert. Durch die Überwachung mehrerer Fragmente pro Peptid kann selbst mit Massenspektrometern mit niedriger Auflösung eine empfindliche und spezifische Quantifizierung erreicht werden. Der Vorteil von MRM gegenüber der Schrotflinten-Proteomik für die Verifikation ist die höhere Empfindlichkeit und der höhere Durchsatz. Ringversuche haben eine gute Reproduzierbarkeit erreicht (Addona et al, 2009 Abbatiello et al, 2015 ), aber die berichteten Sensitivitäten erreichen typischerweise nicht den niedrigen Konzentrationsbereich von ng/ml und die praktisch erreichten Multiplexing-Fähigkeiten sind auf Dutzende von Peptiden beschränkt (Percy et al, 2013 Schii et al, 2013 Oberbach et al, 2014 Wu et al, 2015). Dennoch haben zwei neuere Studien das Targeting von 82 bzw. 192 Proteinen (Ozcan et al, 2017 Percy et al, 2017). Die Sensitivität von MRM kann durch eine umfangreichere Probenvorbereitung mit Abreicherung oder Fraktionierung (Burgess et al, 2014 Kim et al, 2015 Nie et al, 2017 ).

Eine absolute und genaue Quantifizierung erfordert interne Standards – im Allgemeinen schwere Isotopenversionen der überwachten Peptide. Synthetisierte schwere Peptide werden nach dem Verdau zugesetzt, was eine Quelle für quantitative Ungenauigkeiten darstellt, da die Variabilität des Proteinverdaus nicht berücksichtigt wird. Dies kann durch Einbetten des Peptids in seinen ursprünglichen Sequenzkontext angegangen werden, beispielsweise in die SILAC-PrEST-Strategie, bei der ein 150 bis 250 Aminosäuren langer Abschnitt jedes interessierenden Proteins, fusioniert mit einem Quantifizierungs-Tag, rekombinant exprimiert wird in schwerer Form (Zeiler et al, 2012 Edfors et al, 2014 Geyer et al, 2016a).

Gezielte Methoden können auch mit einer Immunanreicherung von Proteinen oder Peptiden kombiniert werden. Beispielsweise werden in „stable isotope standards and capture by anti-peptide antikörper“ (SISCAPA) spezifische Peptide zusammen mit ihren schwermarkierten Gegenstücken immunpräzipitiert, gefolgt von einer schnellen MS-basierten Auslesung (Anderson et al, 2004 Razavi et al, 2016). Dies kombiniert die Anreicherungsfähigkeiten von Antikörpern mit der Spezifität der MS-Detektion, jedoch kann die Entwicklung von Assays schwierig und zeitaufwändig sein – was den Vorteil gegenüber rein Antikörper-basierten Methoden schmälert.

Die letzte Phase der Dreiecksstrategie ist die Validierung mit Immunoassays, einem über Jahrzehnte gereiften Feld. Für maximale Spezifität werden typischerweise Sandwich-Assays bevorzugt (Fig. 3D). Obwohl ihre Entwicklung teuer und mühsam ist, können sie eine hohe Empfindlichkeit und einen hohen Durchsatz erreichen. Selbst Kohorten mit Tausenden von Teilnehmern können mit dieser Technologie getestet werden, jedoch nur für einen oder wenige Biomarker-Kandidaten. Solch große Zahlen können erforderlich sein, um die Spezifität nicht nur gegenüber Kontrollen, sondern auch in Bezug auf andere Krankheiten festzustellen. Zu den Standardanforderungen gehören die Sicherstellung einer angemessenen statistischen Aussagekraft und Replikation in einer unabhängigen Population. Heutzutage können solche klinischen Studien kostspielige mehrjährige Bemühungen sein, was teilweise den Mangel an neuen Biomarkern erklärt.

Immunoassays weisen einige inhärente Einschränkungen auf, die hauptsächlich mit der Antigen-Antikörper-Erkennung zusammenhängen. Dazu gehören Kreuzreaktivität, Interferenz durch Hintergrundmoleküle wie Triglyceride und nichtlineare Reaktion („Hook-Effekt“) (Hoofnagle & Wener, 2009 Wild, 2013). Darüber hinaus sind nicht alle klinisch wichtigen Proteinvarianten durch Antikörper-basierte Assays leicht erkennbar. Angesichts dieser Einschränkungen wären MS-basierte Methoden zumindest in einigen groß angelegten klinischen Studien attraktive Alternativen, aber dies erfordert viel robustere, empfindlichere und höhere Durchsatztechnologien als die heute verfügbaren.

In den letzten zehn Jahren hat die Proteomics-Community Leitlinien für die ordnungsgemäße Entwicklung von Biomarkern entwickelt, die Qualitätsstandards diskutieren und die Bedeutung der Auswahl geeigneter Kohorten betonen, die die statistische Signifikanz der Ergebnisse sowie die Spezifität potenzieller Biomarker und ihrer möglichen klinischen Anwendung sicherstellen (Luque- Garcia & Neubert, 2007 Paulovich et al, 2008 Mischak et al, 2010 Surinova et al, 2011 Schlittschuhe et al, 2013 Parker & Borchers, 2014 Hoofnagle et al, 2016 ).

Angesichts der strengen Anforderungen der Dreiecksstrategie überrascht es nicht, dass es nur wenige oder gar keine Berichte gibt, in denen sie vollständig und erfolgreich angewendet wurde. Dies mag zum Teil auch darauf zurückzuführen sein, dass drei verschiedene Technologien – Shotgun-Proteomik, gezielte Proteomik und Immunoassay-Entwicklung – beteiligt sind. Viele Publikationen beschreiben nur die erste Phase oder kombinieren sie nur mit der Immunoassay-Verifikation in derselben Kohorte (Datensatz EV1).

Unter den Studien mit mehr als wenigen Teilnehmern und mit einiger Verifizierung wählte die Mehrheit interessante Kandidaten aus und führte Western-Blotting-, ELISA- oder MRM-Assays durch. Ein repräsentatives Beispiel ist die Studie von Zhang et al ( 2012 ), in dem abgereichertes Plasma von 10 Darmkrebspatienten im Vergleich zu Kontrollen mit iTRAQ markiert und fraktioniert wurde, was zur Identifizierung von 72 Proteinen führte. Unter mehreren hoch- oder herunterregulierten Proteinen wurde ORM2 bei 419 Personen durch ELISAs nachverfolgt. Da dieses Protein Teil des angeborenen Immunsystems ist (wie die anderen beiden hochregulierten Kandidaten), ist es unwahrscheinlich, dass es sich um einen spezifischen Krebsmarker handelt. In einer anderen Studie identifizierten Superdepletion, iTRAQ-Markierung und Fraktionierung 830 Proteine ​​in einer Entdeckungskohorte von 751 Patienten mit kardiovaskulären Ereignissen und Kontrollen, die auf 50 gepoolte Proben reduziert worden waren (Juhasz et al, 2011). Die bekannten Marker CRP und Fibronektin wurden aus der Kandidatenliste ausgewählt und durch Immunoassays gegen diese Proteine ​​in der ursprünglichen Kohorte signifikant hochreguliert. In einer Herztransplantationsstudie identifizierte die Analyse von abgereichertem und iTRAQ-markiertem Plasma von 26 Patienten zu fünf Zeitpunkten vor und nach der Operation insgesamt mehr als 900 Proteine ​​(273 pro einzelnem Cohen et al, 2013). MRM-Assays und ELISAs gegen fünf mittelstarke Proteine ​​in einer teilweise unabhängigen Follow-up-Kohorte von 43 Personen dienten der Entwicklung einer rechnerischen Pipeline für Risikomarker für die Organabstoßung. In einem Ansatz mit potenziellem klinischem Nutzen ermöglichte abgereichertes Plasma aus einem Mausmodell von Brustkrebs die Identifizierung von mehr als 1.000 Plasmaproteinen, von denen 88 für MRM-Assays in einer unabhängigen Verifizierungskohorte von 80 Tieren ausgewählt wurden (Whiteaker et al, 2011 ).

Rechteckige Biomarker-Strategie und Plasma-Proteom-Profiling

In den letzten Jahren hat die Community alle Aspekte des Workflows der MS-basierten Proteomik erheblich verbessert. Bei der Probenvorbereitung wurden mühsame, mehrstufige Vorbereitungsworkflows durch eine robuste Einzelfläschchen-Verarbeitung mit einem Minimum an Manipulationsschritten ersetzt. Dies hilft auch bei der Automatisierung und erhöht den Durchsatz. Die Empfindlichkeit und Sequenziergeschwindigkeit von MS-Instrumenten hat sich um ein Vielfaches verbessert. Das gesamte LC-MS/MS-System ist deutlich robuster geworden, obwohl dies noch weit von dem entfernt ist, was für den klinischen Routineeinsatz benötigt wird. Schließlich ist die bioinformatische Analyse der Ergebnisse nun statistisch fundiert und einfach zu handhaben und ermöglicht zunehmend die Korrelation von MS-Ergebnissen mit einer Vielzahl anderer klassischer klinischer und zusätzlicher „Omics“-Daten. Um die Leistungsfähigkeit modernster MS-basierter Proteomik zu veranschaulichen, können Zelllinien in relativ kurzer Zeit routinemäßig bis in eine Tiefe von mehr als 10.000 verschiedenen Proteinen quantifiziert werden, manchmal sogar ohne jegliche Fraktionierung (Mann et al, 2013 Richards et al, 2015 Sharma et al, 2015 Bekker-Jensen et al, 2017 ).

Angesichts dieses technologischen Fortschritts der Proteomik in Zelllinien- und Gewebeproben fragten wir uns, ob man auch einen schnellen und automatisierten Workflow entwickeln könnte, der das Plasmaproteom in einer großen Anzahl von Proben tiefgehend quantifiziert (Geyer et al, 2016a). Wir argumentierten, dass dies dann eine „rechteckige Strategie“ ermöglichen würde, bei der so viele Proteine ​​wie möglich für so viele Individuen und Bedingungen wie möglich gemessen werden. Im Gegensatz zum dreieckigen Workflow wäre die anfängliche Entdeckungskohorte viel größer und umfasst im Idealfall Hunderte oder Tausende von Teilnehmern, was zu einer größeren Wahrscheinlichkeit führt, dass Muster aufgedeckt werden, die die untersuchten Gruppen oder Zustände unterscheiden könnten. Diese größere anfängliche Anzahl von Plasmaproteomen würde die Entdeckung statistisch signifikanter, aber kleiner Unterschiede und Veränderungen ermöglichen, die mit einer Gruppe von Proteinen verbunden sind. In der vorgeschlagenen rechteckigen Strategie würden sowohl Entdeckungs- als auch Validierungskohorten durch Schrotflinten-Proteomik in großer Tiefe gemessen. Dies beseitigt die Abhängigkeit der Validierung von der Entdeckung, was bedeutet, dass beide Kohorten zusammen analysiert werden können (Abb. 4A). Darüber hinaus können durch getrennte Kohorten studienspezifische Störfaktoren entlarvt werden. Ein weiterer Vorteil der rechteckigen Strategie ist ihre Fähigkeit, neben einzelnen Biomarker-Kandidaten auch Proteinmuster zu entdecken und zu validieren, die für bestimmte Gesundheits- oder Krankheitszustände charakteristisch sind, was mit dem dreieckigen Ansatz nicht erreichbar ist.

Abbildung 4. Rechteckiger Arbeitsablauf

Interessanterweise hat bei genomweiten Assoziationsstudien (GWAS) bereits vor einigen Jahren ein analoger Konzeptwechsel stattgefunden. Forscher auf diesem Gebiet fanden heraus, dass die gemeinsame Analyse möglichst vieler Proben einer sequentiellen Pipeline (Skol et al, 2006). In der Proteomik besteht die offensichtliche Herausforderung darin, in kurzer Zeit, idealerweise ohne Erschöpfung und in einem robusten Workflow, eine ausreichende Proteomiktiefe zu erreichen. Dieses Ziel wurde zum Zeitpunkt des Schreibens noch nicht erreicht, aber die derzeitige Geschwindigkeit der technologischen Verbesserungen verspricht, dies in naher Zukunft möglich zu machen. Im Folgenden diskutieren wir vier Beispiele für diesen aufkommenden Ansatz.

Die erste untersuchte eine Kohorte von 36 eineiigen und 22 zweieiigen Zwillingspaaren, um den Einfluss des genetischen Hintergrunds auf die Plasmaproteinspiegel zu bestimmen (Liu et al, 2015). Die Autoren erstellten eine Spektralbibliothek mit abgereicherten, fraktionierten und gepoolten Proben und maßen ihre Proben mit datenunabhängiger Akquisition (DIA). Insgesamt wurden dann 232 Plasmaproben mit 35-min-Gradienten in einem datenunabhängigen Modus gemessen, was zu einer konsistenten Quantifizierung von 1.904 Peptiden und 342 Proteinen führte. Interessanterweise waren die Proteinspiegel innerhalb der einzelnen Personen im Vergleich zu den einzelnen Personen häufig relativ stabil. Darüber hinaus gab es klare Hinweise darauf, dass die Konzentrationen einiger Proteine ​​unter genetischer Kontrolle stehen. Beispielsweise waren Prozesse im Zusammenhang mit „Immunantwort“ und „Blutgerinnung“ tendenziell vererbbar, während solche, die mit „Hormonantwort“ verbunden waren, nicht. Obwohl es sich um eine Pionierstudie handelte, war die Zahl der analysierten Plasmaproteome angesichts der Allgemeinheit der gestellten Fragestellung relativ gering. Im Allgemeinen untersuchen genetische Studien routinemäßig Tausende von Teilnehmern, um subtile erbliche Effekte herauszuarbeiten, was die Notwendigkeit eines viel höheren Durchsatzes in der klinischen Proteomik veranschaulicht.

Malmström et al ( 2016 ) induzierte Sepsis bei Mäusen durch Injektion S. pyogenes und verfolgten ihre Plasmaproteome über drei Zeitpunkte an nicht abgereicherten, nicht fraktionierten Proben. Eine Bibliothek verschiedener Mausgewebe wurde verwendet, um datenunabhängige Identifizierungen zu unterstützen und den Ursprung von Gewebeschädigungsproteinen zu bestimmen. Auf diese Weise quantifizierten 2-h-Läufe durchschnittlich 786 Mausproteine, obwohl zu beachten ist, dass geeignete FDR-Kriterien für die Ableitung von Peptididentitäten in den komplexen DIA-MS/MS-Spektren noch diskutiert werden (Nesvizhskii et al, 2007 Bruderer et al, 2017 Rosenberger et al, 2017). Mehrere erwartete Kategorien von Plasmaproteinen stiegen während einer Sepsis, ebenso wie einige Marker, die mit einer Schädigung des Gefäßsystems in Zusammenhang stehen. Einige der Veränderungen standen im Zusammenhang mit der Mobilisierung des Immunsystems gegen den Erreger, andere schienen bei stark betroffenen Tieren mit Nekrose zu korrelieren.

In einem Workflow namens „Plasma-Proteom-Profiling“ konzentrierten wir uns auf die schnelle und robuste Analyse von nur 1 μl nicht abgereichertem Plasma aus einem einzigen Fingerpick (Geyer et al, 2016a). Die Gesamtgradientenzeit betrug nur 20 min, was eine umfassende Untersuchung der analytischen, Intra-Assay-, intraindividuellen und interindividuellen Variation des Plasmaproteoms ermöglicht. Basierend auf der Quantifizierung von 300 Plasmaproteinen wurden ca. 50 von der FDA zugelassene Biomarker mit einer markierungsfreien Quantifizierung (CV < 20 %) abgedeckt. Die schnelle Analyse einer breiten Palette von Proben ergab auch verschiedene Sätze von Qualitätsmarkern, die Proben mit Hinweisen auf eine Lyse von roten Blutkörperchen, solche mit teilweiser Aktivierung der Gerinnungskaskade durch unsachgemäße Probenhandhabung und solche mit exogenen Kontaminationen wie Keratinen eindeutig klassifizierten. Obwohl diese Studie einen nützlichen Überblick über den Informationsgehalt des Plasmaproteoms lieferte, reichte die Abdeckungstiefe noch nicht aus, um regulatorische Plasmaproteine ​​in niedriger Konzentration zu adressieren. Ein einzelner Fraktionierungsschritt ergab ein quantitatives Plasmaproteom von etwa 1.000 Proteinen, darunter 183 Proteine ​​mit einer berichteten Konzentration von <. 10 ng/ml, jedoch auf Kosten längerer Messzeiten pro Probe.

Eine verbesserte Version des Plasma-Proteom-Profiling-Workflows ermöglichte die robotergestützte Vorbereitung und Messung von fast 1.300 Plasma-Proteom-Proben in einer Gewichtsverluststudie (Geyer et al, 2016b). Die vierfache Analyse von Individuen erfasste die Dynamik von durchschnittlich 437 Proteinen beim Abnehmen und über ein Jahr bei Gewichtserhaltung. Der Gewichtsverlust selbst hatte mit 93 signifikant veränderten Proteinen einen breiten Einfluss auf das menschliche Plasmaproteom. Quantitative Unterschiede waren oft gering, aber physiologisch bedeutsam, wie zum Beispiel eine 16%ige Reduktion des Adipozyten-sekretierten Faktors SERPINF1. Das Design der Längsschnittstudie, bei dem die Individuen 1 Jahr lang einen durchschnittlichen Gewichtsverlust von 12% erlitten, ermöglichte es, die langfristige Dynamik des Plasmaproteoms zu erfassen und sie in Proteine ​​zu kategorisieren, die innerhalb und zwischen Individuen stabil sind. Multiproteinmuster spiegelten das Lipidhomöostasesystem (Apolipoproteinfamilie), eine Entzündung auf niedrigem Niveau und eine Insulinresistenz wider. Diese Muster quantifizierten die Vorteile der Gewichtsabnahme auf individueller Ebene und eröffneten möglicherweise individuelle Behandlungs- und Lebensstilempfehlungen.

Zusammen verdeutlichen diese Studien auch die Vorteile von Längsschnittstudien gegenüber Querschnittstudiendesigns, da das Plasmaproteom im Laufe der Zeit innerhalb eines Individuums tendenziell viel konstanter ist als zwischen verschiedenen Individuen. Darüber hinaus ähneln sie sich darin, dass sie weniger fehleranfälliges, nicht abgereichertes Plasma verwenden und viele Proteine ​​​​in einer bestimmten Analysezeit (bis zu 20 Proteine ​​​​/min) identifizieren.

Bezüglich der Frage, wie viele Proteine ​​abgedeckt werden sollten, stellten wir fest, dass eine Proteomtiefe von mehr als 1.500 Proteinen in nicht abgereichertem Plasma die Abdeckung von Tissue Leakage-Proteinen wie leberbasierten Lipoproteinrezeptoren ermöglicht und im Bereich der technologischen Möglichkeiten liegt, die derzeit entwickelt werden entwickelten. Unter den ersten 300 am häufigsten vorkommenden Proteinen ist jedes vierte Protein ein Biomarker, während es bei den nächsten 1.200 Proteinen nur jedes 25. Protein ist (Abb. 5). Da es keine gibt a priori Grund, dass Biomarker eine verzerrte Häufigkeitsverteilung aufweisen sollten, deutet dies darauf hin, dass noch viele Biomarker gefunden werden. Wir glauben, dass das eigentliche Versprechen des Plasma-Proteom-Profilings mit der rechteckigen Strategie darin besteht, Proteine ​​und Proteinmuster zu entdecken, die noch nicht als Biomarker angesehen wurden. Die exponentielle Zunahme der zugrunde liegenden LC-MS/MS-Technologie wird eine entsprechende Zunahme der Anzahl von Plasmaproteom-Datensätzen bewirken, die in Labors auf der ganzen Welt aufgezeichnet werden. Dadurch wird eine umfangreiche Datenbank von Plasmaproteomen und ihrer Dynamik erstellt, an der viele klinische Studien und Einzelpersonen beteiligt sind. Diese Daten könnten dann aggregiert werden, um eine Wissensbasis aufzubauen, die Proteomzustände mit einer Vielzahl von „Störungen“ verbindet, darunter Krankheiten, Risiken, Behandlungen und Lebensstile. Dieser Ansatz wird zumindest alle verschiedenen Bedingungen aufdecken, an denen ein bestimmter Satz von Biomarkern beteiligt ist, zusätzlich zu dem spezifischen Kontext, in dem sie entdeckt wurden. Proteomüberlappungen zwischen Krankheitszuständen könnten Gemeinsamkeiten zwischen ihnen aufdecken ( 4B , oberes Feld). Das Plasma-Proteom-Profil eines Individuums und seine Dynamik könnten dann durch einen Vergleich mit der globalen Wissensbasis interpretiert werden. Dies könnte verwendet werden, um Komorbiditäten zu entwirren und die Behandlung zu leiten und die Wirksamkeit zu überwachen (Abb. 4B, unteres Feld).

Abbildung 5. Biomarkerverteilung über den Abundanzbereich

Standardisierung der Pipeline zur Entdeckung proteomischer Biomarker

Es wurde vermutet, dass der derzeitige Mangel an Biomarkern, die auf den Markt kommen, das Ergebnis verschiedener technischer, wissenschaftlicher und politischer Aspekte sein kann, einschließlich einer Unterbewertung, die aus inkonsistenten regulatorischen Standards resultiert und fehlende Beweise für die analytische Validität und den klinischen Nutzen (Hayes et al, 2013). Um diese Herausforderungen zu bewältigen, wurden systematische Pipelines für die Entwicklung von Biomarkern befürwortet (Pavlou et al, 2013 Duffy et al, 2015). Im Zusammenhang mit dem Übergang von einer dreieckigen zu einer rechteckigen Strategie der Biomarker-Entdeckung ist es besonders wichtig, die folgenden Prinzipien zu berücksichtigen.

(1) Analytische Leistungsmerkmale: Die analytische Validität ist die Fähigkeit eines Tests, eine genaue und zuverlässige Messung eines Biomarkers zu liefern. Der Nachweis der analytischen Validität der Plasmaproteomik-Methodik wird von entscheidender Bedeutung sein, da die gleiche Methode oft von der Entdeckung bis zur Anwendung angewendet wird. Detaillierte Standards zur Bestimmung der analytischen Validität wurden vom Clinical and Laboratory Standards Institute (CLSI) (www.clsi.org) entwickelt. Eine Übersicht findet sich in Grant and Hoofnagle ( 2014 ) und Jennings et al ( 2009 ). Einige dieser Standards wurden von der US-amerikanischen Food and Drug Administration (FDA) anerkannt und werden zum Mitbringen akzeptiert in vitro Diagnosetest auf den Markt (https://www.accessdata.fda.gov/scripts/cdrh/cfdocs/cfstandards/search.cfm). Auch wenn der Beginn einer vollständigen analytischen Validierung gemäß den FDA-Standards bei der Biomarker-Entdeckung unerschwinglich sein mag, sollten zumindest einige der Schlüsselkriterien wie Verschleppung, Genauigkeit, Präzision, analytische Sensitivität, analytische Spezifität und Quantifizierungsgrenze getestet werden frühzeitig. Dies steht im Einklang mit dem, was wir im Rahmen der Rechteckstrategie befürworten und ist auch im Interesse der Ressourcenschonung, denn der Schritt nach der Biomarker-Entdeckung ist die Biomarker-Validierung, bei der eine analytische Validität zwingend erforderlich ist.

(2) Klinische Leistungsmerkmale: Die klinische Validität bezieht sich auf die assoziierten Erkrankungen und den klinischen Zustand der Patienten und unterscheidet sich von der analytischen Validität, die sich auf die korrekte Messung der Analyten konzentriert, auf die der Assay abzielt. Nach der International Standard Organization (ISO) 15189 und ISO 17025 ist die Validierung die „Bestätigung durch die Bereitstellung eines objektiven Nachweises, dass die Anforderungen für eine bestimmte beabsichtigte Verwendung oder Anwendung erfüllt wurden“. Daher ist die Etablierung der klinischen Leistungsfähigkeit das Hauptziel in der Validierungsphase eines Biomarkers. Zu den klinischen Leistungsmerkmalen gehören (i) die Bestimmung normaler Referenzbereiche durch Messung von Kohorten scheinbar gesunder Personen, (ii) die Bestimmung der klinischen Sensitivität, die als der Anteil der Personen definiert ist, die die Krankheit haben und positiv getestet wurden, und (iii) die Bestimmung der klinischen Spezifität , die als der Anteil der krankheitsfreien Personen definiert ist, die negativ getestet wurden. Abgeleitete Statistiken wie Receiver Operating Characteristic (ROC)-Plots sind besonders hilfreich bei der Bewertung der klinischen Leistung von Biomarkern (Zweig & Campbell, 1993 Obuchowski et al, 2004 ).

(3) Studiendesign und Präanalytik: Sorgfältiges Studiendesign und gut kontrollierte präanalytische Bedingungen sind zu jeder Zeit während einer Biomarker-Studie zentrale Anforderungen. Im Hinblick auf das Studiendesign ist es zwingend erforderlich, die klinische Fragestellung und den medizinischen Bedarf, den der Biomarker adressieren soll, klar zu definieren. Ein häufiges Problem bei Biomarkerstudien besteht darin, dass Proben von Fällen und Kontrollen unabhängig voneinander gesammelt wurden und aufgrund von Alter, ethnischer Zugehörigkeit, Geschlecht und anderen Faktoren, die zu unbeabsichtigten Verzerrungen führen können oder nicht, nicht übereinstimmen (Duffy et al, 2015). Zu den Methoden gegen Bias gehören ein angemessenes Studiendesign sowie eine präzise und gründliche klinische Phänotypisierung der Teilnehmer unter Verwendung systematischer Klassifikationen wie der International Statistical Classification of Diseases (http://apps.who.int/classifications/icd10/browse/2016/en) oder die Humanphänomenontologie (Kohler et al, 2017). Wenn eine Person mehrere Krankheitszustände hat, kann dies auf diese Weise ordnungsgemäß berücksichtigt werden. Auch die Probenentnahme ist wichtig, und es ist zwingend erforderlich, dass alle Proben (einschließlich Fälle und Kontrollen) von der Blutentnahme bis zur Analysephase gleich behandelt werden. Ein weiterer kritischer Schritt in vielen Biomarker-Studien ist das Biobanking. Beim Einsatz von ELISAs haben wir festgestellt, dass die Lagerung von proteinbasierten Biomarkern für 3 Monate Temperaturen von –80°C oder darunter erfordert (Zander et al, 2014). Die Probenstabilität über längere Zeiträume ist nur schlecht untersucht. Unserer Erfahrung nach weist die Shotgun-Proteomik jedoch eine hohe Toleranz gegenüber Variationen in der Probenhistorie auf, da keine Proteinepitope konserviert werden müssen und sogar ein teilweiser Proteinabbau tolerierbar sein kann, solange die Mehrheit der anschließend erzeugten proteolytischen Peptide unverändert bleibt.

Der Weg zur klinischen Anwendung

Die aktuellen Fortschritte in der Plasma-Proteomik eröffnen spannende neue Wege für Forschung und Klinik. Wie wahrscheinlich ist es angesichts all der oben genannten Vorsichtsmaßnahmen, dass die skizzierten Ansätze zur Entdeckung neuer proteinbasierter Biomarker führen? Und wie sieht der proteomische Biomarker der Zukunft aus? Ein zentrales Thema in diesem Zusammenhang ist die Unterscheidungskraft eines Biomarkers zur Unterscheidung zwischen Vorliegen und Fehlen eines bestimmten Krankheitszustandes oder Risikos, also seiner klinischen Leistungsfähigkeit. Beispiele für derzeit verwendete Biomarker mit hoher Spezifität und hoher Sensitivität sind kardiale Troponine, bei denen es sich um Strukturproteine ​​handelt, die spezifisch in Kardiomyozyten exprimiert werden und daher hochspezifisch für Myokardschädigungen sind. Aus diesem Grund wurden kardiale Troponine sogar in die universelle Definition des Myokardinfarkts aufgenommen (Roffi et al, 2016 ).

Es ist wahrscheinlich, dass mit Proteomik-Ansätzen zumindest für bestimmte Krankheiten weitere Biomarker mit ähnlicher Leistungsfähigkeit identifiziert werden können. Tatsächlich müssen wir uns bewusst sein, dass die meisten heute verwendeten Biomarker entweder sehr häufig vorkommen oder aus einem bekannten pathophysiologischen Kontext stammen. Als Gedankenexperiment haben wir das Verhältnis der Anzahl der Biomarker relativ zur Anzahl der Proteine ​​im Bereich der Proteine ​​mit hoher Häufigkeit zu Proteinen mit geringerer Häufigkeit extrapoliert, was auf das Potenzial für mehrere hundert neuartige Biomarker hinweist, die mit geeigneter Technologie zugänglich sein könnten ( Abb. 5). In Analogie zu GWAS, bei der sich herausstellte, dass eine signifikante Anzahl von Treffern mit einer bisher unbekannten Pathophysiologie der untersuchten Krankheit zusammenhängt (Holdt & Teupser, 2013, Manolio, 2013), ist es sehr wahrscheinlich, dass neue Marker, die sich unter dem Radar von bisherige Strategien, werden durch neuartige systematische Proteomik-Ansätze identifiziert. Diese Biomarker könnten auch das Potenzial haben, unser Verständnis der Pathophysiologie von Krankheiten nicht nur in der Diagnostik, sondern auch in der Therapie zu verbessern. Beachten Sie jedoch, dass die identifizierten Biomarker möglicherweise nicht immer direkt an der Pathophysiologie der Krankheit beteiligt sind, sondern nur mit dieser assoziiert sein können.

Das menschliche Genom kodiert für etwa 20.000 proteinkodierende Gene, im Gegensatz zu mehr als 14.500 Krankheiten, die durch einen ICD-Code klassifiziert werden. Dies macht es sogar konzeptionell schwierig, sich vorzustellen, dass mit jedem Krankheitszustand ein Gen oder Protein assoziiert ist, wie es bei den aktuellen Bemühungen, Biomarker zu finden, oft impliziert wird. Im Gegensatz dazu ist die rechteckige Strategie, die das Screening großer Kohorten auf mehrere Marker ermöglicht, vielversprechend, um Proteinmuster zu entdecken und zu validieren, die für bestimmte Gesundheits- oder Krankheitszustände charakteristisch sind. Tatsächlich können Kombinationen aus mehreren Markern im Vergleich zu einzelnen Markern eine höhere Spezifität und Sensitivität erreichen, und es wurden erste Werkzeuge zur Auswahl genauer Markerkombinationen aus Omics-Daten entwickelt (Mazzara et al, 2017). Ein häufiges Problem bei neuen Biomarkern in Kombination mit bestehenden ist jedoch, dass sie häufig nur zu geringfügigen Klassifikationsverbesserungen führen, insbesondere wenn sie zu leistungsstarken hinzugefügt werden (Pencina et al, 2010). Entgegen allgemeiner und intuitiver Annahmen hat sich gezeigt, dass Korrelationen (insbesondere negative Korrelationen) zwischen Prädiktoren für die Diskriminierung von Vorteil sein können (Demler et al, 2013). Mehr Forschung in diesem Bereich ist eindeutig gerechtfertigt, und neue Proteomik-Technologien werden die Daten liefern, die für die Validierung geeigneter statistischer Methoden erforderlich sind.

Wie werden diese Marker schließlich in einer klinischen Umgebung anwendbar sein? Unabhängig vom Anlass bevorzugen wir eine eingehende Messung des gesamten Plasmaproteoms, da diese die umfassendsten Informationen liefert. Im Laufe der Zeit trägt es zum Längsprofil des Plasma-Proteoms bei, das sogar von gesunden Probanden nützlich erhalten werden könnte. Wie oben erwähnt, neigen Plasmaproteinspiegel dazu, im Allgemeinen stabil, aber personenspezifisch zu sein, was eine individuelle Interpretation anstelle von bevölkerungsbezogenen Cutoff-Werten ermöglicht. Darüber hinaus sind Komorbiditäten bei vielen Patientengruppen eher die Regel als die Ausnahme. Diese werden durch einen generischen diagnostischen Test wie das Plasma-Proteom-Profiling viel einfacher und kostengünstiger angegangen als durch eine Abfolge einzelner ELISA-Tests. Dennoch gibt es sicherlich viele Situationen, in denen ein universeller Test nicht angemessen ist, weil er versehentlich andere Bedingungen aufdecken kann. Ähnliche Probleme treten bei anderen Technologien wie der Genomsequenzierung oder imaginativen Techniken auf, bei denen Einzelpersonen möglicherweise nichts über Veranlagungen erfahren möchten, gegen die sie wenig tun können. In diesen Fällen und im Allgemeinen, um das Risiko einer Überdiagnose zu vermeiden (Hofmann & Welch, 2017), bevorzugen Kliniker möglicherweise gezieltere Plasmaproteomiktests, die sich auf einen bestimmten Krankheitskontext konzentrieren. Dies könnte durch die oben erwähnten MS-Techniken erreicht werden, die auf eine Reihe von Proteinen und nicht auf das gesamte Proteom abzielen.

Ob bei Ganzproteom-Diagnosetests oder Panel-basierten Tests, stellt sich die Frage, wie Ärzte mit den resultierenden mehrdimensionalen Daten umgehen würden. Abbildung 6A zeigt die aktuelle Single-/Oligo-Biomarker-Diagnostik, die weitgehend auf klinischem Wissen und Intuition in die Entscheidungsfindung integriert ist. Neue Biomarker versprechen eindeutig besser informierte klinische Entscheidungen, implizieren aber auch das Risiko, Muster zu erzeugen, die die menschliche kognitive Interpretationsfähigkeit übersteigen (Abb. 6B). Eine Lösung für dieses Problem könnte die algorithmische Kombination mehrerer Biomarker zu einem quantitativen Panel sein, möglicherweise kombiniert mit klinischen Metadaten, was die klinische Entscheidungsfindung wesentlich unterstützen könnte ( 6C ). Angesichts der rasanten Entwicklung von „Deep Learning“ und „Big Data“ wird es sehr interessant sein zu sehen, ob diese Kombination starke und beispiellose Assoziationen liefern kann. Wir stellen fest, dass es in der klinischen Praxis bereits heute Multiparameter-Scores gibt. Der Child-Pugh-Score und der Framingham-Risiko-Score beispielsweise kombinieren seit Jahrzehnten jeweils mehrere Blutwerte mit Patientendaten, um die Entscheidung des Klinikers bei der Behandlung von Lebererkrankungen bzw. Herz-Kreislauf-Behandlungen zu unterstützen. Dies deutet auch auf einen Weg hin, wie Plasma-Proteomik in die evidenzbasierte medizinische Praxis akzeptiert werden könnte, eine große Herausforderung angesichts der vielen Parameter und Parameterkombinationen, die offensichtlich nicht alle mit separaten klinischen Studien validiert werden können. Eine pragmatische Alternative könnten Studien sein, in denen Ärzte zufällig die proteomischen Informationen und die damit verbundene Entscheidungsunterstützung erhalten. Es wäre dann einfach zu bestimmen, ob es einen signifikanten Nutzen für die Patientenergebnisse gibt.

Abbildung 6. Implementierung proteomischer Daten in klinische Entscheidungen

Schlussfolgerungen

Eine Bestandsaufnahme der aktuellen Praxis in der Laboratoriumsmedizin zeigt, dass die meisten Behandlungsentscheidungen auf der Grundlage von Blutuntersuchungen getroffen werden und Proteinmessungen auch heute noch die prominenteste davon sind. Obwohl sie jedes Jahr millionenfach erfolgreich durchgeführt werden, richten sich diese Assays fast immer gegen einzelne Proteine ​​und das Tempo der Einführung neuer Proteintests hat sich verlangsamt.

MS-basierte Proteomik hat eindeutig das Potenzial für gemultiplexte und hochspezifische Messungen, bei denen Proteinmuster anstelle einzelner Biomarker die relevante Anzeige sein könnten. Unsere Literaturrecherche ergab, dass die bisherigen Bemühungen durch die großen analytischen Herausforderungen des Plasmaproteoms gebremst wurden, die erst jetzt spannenden technologischen Entwicklungen Platz machen. Wir argumentieren, dass die Analyse einer großen Anzahl von Erkrankungen und Teilnehmern in allen Phasen des Entdeckungs- und Validierungsprozesses das Potenzial hat, Biomarker-Panels zu erstellen, die wahrscheinlich von klinischem Wert sind. Gekoppelt an große Wissensbasen über Veränderungen von Proteinmustern unter definierten Bedingungen könnte eine solche Plasma-Proteom-Profiling-Strategie im Prinzip den gesamten Informationsgehalt dieser Körperflüssigkeit ausnutzen.

Um diese Vision zu verwirklichen, sind weitere Verbesserungen des Durchsatzes, der Tiefe der Proteomabdeckung, der Robustheit und der Zugänglichkeit des zugrunde liegenden Workflows entscheidend. Darüber hinaus kann die Plasma-Proteomik auch auf die Analyse von posttranslationalen Modifikationen ausgedehnt werden. Ebenso verwendet die Plasmametabolomik auch MS-basierte Arbeitsabläufe und könnte in Zukunft routinemäßig in die Plasmaproteomik integriert werden. Wir sind zuversichtlich, dass die erforderlichen technologischen Entwicklungen im Laufe der Zeit erreicht werden können und werden. Eine mindestens ebenso große Herausforderung wird konzeptionell und „politisch“ sein, da die proteomische Informationsflut in verwertbare Daten für den Arzt und das Gesundheitssystem umgewandelt werden muss. Dies erfordert einen engagierten und unermüdlichen Einsatz aller beteiligten Partner. Wir glauben, dass das Versprechen einer viel genaueren und spezifischeren Diagnostik diese Bemühungen reichlich belohnen wird.


Ergebnisse

Pflanzenwachstumsanalyse

Karottenwurzeln wurden im Sämlingsstadium (20 DAS, S1), im Brecherstadium (40 DAS, S2) bzw. im reifen Stadium (90 DAS, S3) geerntet (Abbildungen 1A𠄼). Bei 20 DAS war die Karottenwurzel weiß und das frische Wurzelgewicht war offensichtlich niedriger als das Sprossgewicht (Abbildung 1D). Im Brecherstadium begann die Karottenwurzel an der Oberfläche eine orange Farbe zu zeigen und das Frischtriebgewicht wurde stark verbessert. Während dieser Phase zeigten weder das frische Wurzelgewicht noch der Durchmesser signifikante Veränderungen (Abbildung 1E). In der darauffolgenden Zeit wuchs die Wurzel schnell und das Frischgewicht der Pfahlwurzel war höher als das des Sprosses (Abbildung 1D). Währenddessen wurde der Wurzeldurchmesser während des Karottenwurzelwachstums signifikant erhöht (Abbildung 1E).

Abbildung 1. Morphologische Eigenschaften von Karotten in drei Entwicklungsstadien. (A𠄼) Wachstumsstatus der Karotte ‘Karodagosun’ bei 20 DAS (EIN), 40 DAS (B), und 90 DAS (C). Die schwarzen Linien in der rechten unteren Ecke in jedem Bild entsprechen 5 cm. (D) Frischgewicht von Karottenwurzeln in drei Entwicklungsstadien. (E) Wurzeldurchmesser von Karotten in drei Entwicklungsstadien. Unterschiedliche Kleinbuchstaben weisen auf signifikante Unterschiede bei . hin P < 0,05.

Um die anatomischen Veränderungen während der Karottenwurzelentwicklung weiter zu untersuchen, hat Safranin-Ö/Fast Green-Färbung wurde verwendet, um die Struktur verschiedener Pflanzengewebe darzustellen (Abbildung 2). Bei einer Färbung können verholzte Zellwände rot werden. Wie in 2A gezeigt, gab es während des Sämlingsstadiums Mengen von großen Randzellen. Zu diesem Zeitpunkt waren das Phloem und das Protoxylem klein und die Verholzung war nicht offensichtlich (Abbildung 2B). Mit der Zunahme der Anzahl und Größe dieser Zellen begannen sich die Karottenwurzeln zu verdicken. Im zweiten Stadium teilte sich das Gefäßkambium ständig. Viele Gefäße waren im Xylem eng angeordnet und die Verholzung der Zellwand wurde signifikant erhöht (Abbildungen 2C, D). Danach, im späteren Stadium der Wurzelentwicklung (Abbildungen 2E–G), änderte sich die Verteilung der Gefäße im Xylem stark, die sich in Clustern ausbreiteten, anstatt sich eng anzuordnen. Währenddessen sammelte sich während dieser Zeit schnell eine große Anzahl von Stärkekörnern an.

Figur 2. Anatomische Struktur von Karottenwurzeln ab Stufe 1 (A,B), Stufe 2 (CD) und Stufe 3 (E–G). BC, Borderzellen EP, Epidermis PC, Parenchymzelle Ph, Phellogen PP, Primärphloem Px, Protoxylem SG, Stärkekörnchen VC, Gefäßkambium Ve, Gefäß. Die Vergrößerung beträgt das 200-fache der Originalgröße in (A𠄽) während die Vergrößerung 400 mal in . beträgt (E–G).

Proteinidentifikation und -quantifizierung

Die iTRAQ-Technologie wurde verwendet, um Proteine ​​zu analysieren, die aus Karottenwurzeln in den angrenzenden Stadien gewonnen wurden. Insgesamt wurden 2.845 Proteine ​​nachgewiesen. Über den Zeitraum des Karottenwurzelwachstums wurden insgesamt 226 und 418 DEPs im Brecherstadium (S2) bzw. im Reifestadium (S3) identifiziert (Ergänzungsmaterial S2). Darüber hinaus waren 118 DEPs gleichzeitig in den beiden Stadien vorhanden (Abbildung 3A).

Figur 3. Gesamtveränderungen des Proteingehalts während der Karottenwurzelentwicklung. (EIN) Venn-Diagramm, das die Anzahl der Proteine ​​zeigt, die in verschiedenen Entwicklungsstadien häufig und eindeutig exprimiert werden. Zahlen in einem Oval bezeichnen phasenspezifische Proteine ​​und Zahlen in zwei sich überschneidenden Ovalen repräsentieren überlappende Proteine. (B) Anzahl der unterschiedlich exprimierten Proteine ​​zwischen zwei aufeinanderfolgenden Entwicklungsstadien. (C) Mittlere und max/min Veränderungen der differentiell exprimierten Protein log2fach-Änderung zwischen zwei aufeinanderfolgenden Entwicklungsstadien.

3B zeigt die Anzahl der hoch- und runterregulierten Proteine ​​während des Karottenwurzelwachstums. In jeder Phase war die Anzahl der hoch- und herunterregulierten Proteine ​​ähnlich. Allerdings war die Zahl der DEPs in der Reifephase fast doppelt so hoch wie in der Breaker-Phase. Inzwischen wurden der Durchschnitt und der minimale/maximale Wert der DEPs in Abbildung 3C dargestellt. Während der Reifephase war die sich ändernde Amplitude der DEPs relativ ausgeprägter.

Klassifizierung von stoffwechselprozessspezifischen Proteinen

Basierend auf der GO-Datenbank führten wir eine funktionale Annotation aller DEPs zwischen zwei aufeinanderfolgenden Entwicklungsstadien durch. Die Top 20 GO-Begriffe der drei Kategorien 𠆋iologischer Prozess,’ ‘zelluläre Komponenten’ und ‘molekulare Funktion’ in Übereinstimmung mit ihren P-Werte wurden in Ergänzungsabbildung S1, Ergänzungsmaterial S1 angezeigt. Die meisten DEPs wurden in der Gruppe ‘zelluläre Komponenten’ sowohl in den beiden Sets (S2/S1, S3/S2) angereichert. Inzwischen war die große Mehrheit der GO-Begriffe in dieser Gruppe ziemlich eng. Beispielsweise waren ‘nucleus’ und ‘nucleolus’ die am häufigsten vertretenen GO-Begriffe sowohl in S2/S1 (63 bzw. 55 DEPs) als auch S3/S2 (91 bzw. 79 DEPs). Das gleiche Phänomen trat in der ‘molekularen Funktion’ auf. Für 𠆋iological process’ gab es einige Unterschiede zwischen den GO-Begriffen der beiden Sets. Die ‘Reaktion auf Wasserentzug’ und die ‘Nukleosomenanordnung’ enthielten die meisten DEPs in S2/S1 (19 DEPs) bzw. S3/S2 (28 DEPs).

Die biologischen Pfade wurden auch unter Verwendung der KEGG-Datenbank analysiert (Abbildung 4). Insgesamt zwölf Pfade waren in den beiden Sätzen konsistent. Unter ihnen nahmen ‘genetische Informationsverarbeitung,’ ‘zellulärer Prozess,’ 𠆎nergiestoffwechsel’ und ‘organismische Systeme’ die größten Anteile aller Pfade in S2/S1 (37,4, 22,3, 9,7 bzw. 7,6 %) und S3/S2 (31,6, 17,9, 10,4 bzw. 10,2 %). Der ‘Lipidstoffwechsel’, der ‘Metabolismus von Terpenoiden und Polyketiden’ und die ‘Glykanbiosynthese und der Metabolismus’ wurden speziell in S3/S2 gefunden.

Figur 4. KEGG-Klassifizierung von DEPs, die aus Karottenwurzeln in verschiedenen Entwicklungsstadien identifiziert wurden. (EIN) KEGG-Klassifizierung von DEPs, die zwischen S1 und S2 identifiziert wurden. (B) KEGG-Klassifizierung von DEPs, die zwischen S2 und S3 identifiziert wurden.

Profile der funktionellen Proteincluster während der Karottenwurzelentwicklung

Das Karottengewebe-Proteom bestimmt das Wachstum und die Entwicklung der fleischigen Wurzel. Unterschiedliche Expressionsniveaus verschiedener Proteine ​​während der Karottenwurzelentwicklung unterstreicht die besondere Funktion und Bedeutung in verschiedenen Phasen. Wie in Abbildung 5 gezeigt, wurden einige der DEPs nach ihren mutmaßlichen biologischen Funktionen gruppiert. Während der Karottenwurzelentwicklung verbesserten sich die Expressionsniveaus mehrerer pathogener (Abbildung 5B), stressbezogener (Abbildung 5C), proteinabbaubezogener (Abbildung 5K) und Signalproteine ​​(Abbildung 5L) weiter. Was Proteine ​​angeht, die am Stoffwechsel organischer Säuren beteiligt sind (Abbildung 5D), wurde die Mehrheit dieser DEPs bei S2 herunterreguliert. Im Gegenteil, die Expressionsniveaus zeigten einen Anstieg bei der Reife. Die Ergebnisse zeigten auch die Abnahme der Expression von Elongationsfaktoren (Abbildung 5G), antioxidativen Enzymen (Abbildung 5H), Photosynthese und energiebezogenen Proteinen (Abbildung 5N) und Transportproteinen (Abbildung 5O). Insgesamt gesehen drückten verschiedene Proteine ​​mit derselben Funktion unterschiedliche Trends aus.

Abbildung 5. Hierarchische Clustering-Analyse der Proteinexpression in verschiedenen Entwicklungsstadien. Heatmaps wurden anhand der log2-relativen Häufigkeit von Proteinen erstellt. Die Zugangsnummer und die Proteinbeschreibung für jedes Protein wurden ausgestellt. Proteine ​​wurden nach ihrer Rolle in Stoffwechselwegen gruppiert. (A–O) Repräsentieren verschiedene Proteinfunktionen.

Identifizierung der Expansin-Proteine ​​in Karotten

Basierend auf der Proteinannotation wurden zwei Expansinproteine ​​aus den Proteomikdaten von Karottenwurzeln während verschiedener Entwicklungsstadien gewonnen. Informationen einschließlich Pi, Protein Mw usw. sind in Tabelle 1 aufgelistet. Die Expressionsniveaus dieser beiden Expansinproteine ​​waren ähnlich, die zuerst anstiegen und dann abnahmen.

Tabelle 1. Annotation und Expression identifizierter Expansinproteine.

Um die Gene dieser beiden Expansinproteine ​​zu identifizieren, wurden Klonierungsprimer entsprechend den Proteinsequenzen entworfen. Zwei DcEXP Gene, DcEXP20 und DcEXP22 wurden durch RT-PCR kloniert und ihre offenen Leserahmen (ORF) waren 786 bp und 789 bp groß und kodierten 261 bzw. 262 Aminosäuren (Ergänzende Abbildung S2, Ergänzungsmaterial S1).

Um die Bedeutung von Expansinen gründlich zu untersuchen, haben wir verschiedene Expansin-Gene im Karottengenom untersucht. Nach dem Ergebnis der Karotten-Genom-Blast wurden insgesamt 30 Karotten-Expansin-Gene identifiziert. Diese Expansin-Gene wurden als DcEXP1-DcEXP30 im Lichte der bisherigen Nomenklatur (Kende et al., 2004). Gene, die den beiden unterschiedlich exprimierten Expansin-Proteinen entsprechen, wurden annotiert als DcEXP20 (Zugangsnummer: g13058) und DcEXP22 (Zugangsnummer: g63815). Um die evolutionäre Beziehung zwischen den Karottenexpansinen zu untersuchen, wurde die Neighbor-Joining (NJ)-Methode verwendet, um einen phylogenetischen Baum basierend auf den gesamten Sequenzen von . zu konstruieren Arabidopsis und Karottenexpansinproteine ​​(Abbildung 6 und ergänzende Abbildung S3, ergänzendes Material S1). Alle DcEXPs wurden in vier Unterfamilien gruppiert: EXPA, EXPB, EXLA und EXLB. Die EXPA-Unterfamilie hatte die größte Größe, die aus 24 Karottenexpansins bestand. Die Unterfamilie EXLA und EXLB hatte jedoch jeweils nur ein Mitglied. Inzwischen gehörten beide identifizierten unterschiedlich exprimierten Expansinproteine ​​zur EXPB-Familie. Die Länge der 30 Expansine in der Karotte betrug 206� Aminosäuren. Die Ergebnisse der physikalisch-chemischen Eigenschaftsanalyse zeigten, dass das Mw im Bereich von 22,4�,2 kDa lag. Ihr Pi reichte von 5,3 bis 10,2 (Ergänzungstabelle S2, Ergänzungsmaterial S1). Ausgeschlossene EXLB-Unterfamilie, die meisten Erweiterungen hatten Pi Werte über 7,0.

Abbildung 6. Phylogenetische Baum- und Motivkompositionen von Karottenexpansin-Genen.

Strukturanalyse von Expansin-Aminosäuresequenzen in Karotte

Die Aminosäuresequenzen von 30 Expansinen in Karotte wurden ausgerichtet (Ergänzungsfigur S4, Ergänzungsmaterial S1). Die Aminosäuresequenz von Proteinen, die zur gleichen Unterfamilie gehörten, hatte eine viel höhere Ähnlichkeit. Die übereinstimmende Identität zwischen DcEXP20 und DcEXP22, die beide zur EXPB-Unterfamilie gehören, betrug 74,6%. Die meisten Expansinproteine ​​hatten ein Signalpeptid von 16� Aminosäuren. Vier Proteinen, DcEXP26, DcEXP29, DcEXP16 und DcEXP19, fehlte jedoch ein Signalpeptid (Ergänzungstabelle S2, Ergänzungsmaterial S1). Gefolgt vom Signalpeptid wurden mehrere konservierte Aminosäurereste identifiziert. In der EXPA- und EXPB-Unterfamilie enthielten alle Expansine ein HFD-Motiv, ausgenommen DcEXP11 und DcEXP10, die stattdessen ein HFV- bzw. QFD-Motiv enthielten. Im Allgemeinen wurden acht konservierte Cystein (Cys)-Reste sowohl in DcEXPA und DcEXPB als auch zwischen DcEXLA und DcEXLB sechs identifiziert. Unterdessen wurden 11, 21 bzw. 14 Glycin (Gly) ebenfalls konserviert (Ergänzende Abbildung S4, Ergänzungsmaterial S1).

Motive in den Proteinen und ihre detaillierten Motivsequenzen sind in 6 schematisch dargestellt. Zehn Proteine ​​der EXPA-Unterfamilie teilten alle zehn Motivkomponenten und anderen fehlten ein oder zwei Motive. Die Motive in den anderen drei Unterfamilien unterschieden sich signifikant von denen in EXPA. Mitglieder der EXPB-Unterfamilie enthielten Motiv 4𠄷, außer DcEXP19. Die Unterfamilie EXLA und EXLB haben jedoch nur ein bzw. zwei Motive. Insgesamt war Motiv 4 in allen Expansins vorhanden.

Transkriptombasierte Identifizierung von Expansin-Genen während des Karottenwurzelwachstums

Mit Hilfe von Transkriptomdaten aus einer Vorstudie in unserem Labor (Wang et al., 2015a) haben wir die Transkriptspiegel der Expansin-Gene während des Karottenwurzelwachstums untersucht. Insgesamt 26 Expansin-Gene wurden durch die Transkriptomdaten gescreent. Wir haben eine Heatmap auf der Grundlage der pro Kilobase per Million (RPKM)-Werte erstellt, um ihre Expressionsprofile anzuzeigen (Abbildung 7). Fast die Hälfte der Expansin-Gene hatte die höchste Expression im zweiten Stadium. Wir fanden jedoch nicht die Existenz von DcEXP17 und DcEXP24 im S2. Im Gegensatz, DcEXP25 existierte nur in S2 statt in S1 und S3.

Abbildung 7. Expressionsprofile von Karottenexpansin-Genen.

Expressionsprofilanalyse von Expansin-Genen während der Karottenwurzelentwicklung

Um den molekularen Mechanismus zu untersuchen, der die Entwicklung von Karottenwurzeln reguliert, wurden zehn verschiedene Expansin-Gene einschließlich DcEXP20 und DcEXP22 wurden zufällig aus jeder Expansin-Unterfamilie für die Expressionsanalyse ausgewählt (Fig. 8). Das relative Expressionsniveau jedes Gens wurde basierend auf der Expression von . berechnet DcEXP24 bei S1, die das niedrigste Expressionsniveau halten. Mit Ausnahme von DcEXP9, zeigten alle Expansin-Gene die höchsten Expressionsniveaus bei S2. Unter diesen Genen ist das Expressionsniveau von DcEXP29 bei S2 war mehr als 30-mal so viel wie bei S1. Im reifen Stadium waren die Expressionsprofile der Expansin-Gene im Allgemeinen reduziert, einige waren sogar niedriger als im ersten Stadium. Die Ergebnisse von Vergleichen zwischen verschiedenen Expansin-Genen zeigten, dass DcEXP20, DcEXP30, DcEXP13, und DcEXP22 höhere Expressionsniveaus repräsentiert. Im Vergleich zu den Ergebnissen von iTRAQ zeigten zwei unterschiedlich exprimierte Expansine, DcEXP20 und DcEXP22, eine konsistente Beziehung zwischen den Trends der mRNA-Expression und der Proteinhäufigkeit. Der Korrelationskoeffizient zwischen dem Expressionsniveau von DcEXP20, DcEXP22 und andere Expansin-Gene wurden durch Pearson-Analyse analysiert (Tabelle 2). Die Ausdrucksprofile von DcEXP20 und DcEXP22 korrelierten positiv mit acht bzw. sechs Expansin-Genen.

Abbildung 8. Relative Expressionsniveaus von 10 Karotten-Expansin-Genen. Unterschiedliche Kleinbuchstaben weisen auf signifikante Unterschiede bei . hin P < 0,05.

Tabelle 2. Korrelationen zwischen den Expressionsniveaus von DcEXP20, DcEXP22und andere Expansionsgene.


Wie kann ich mein Protein quantifizieren?

Die für die quantitative LC-MS verfügbaren Techniken lassen sich im Wesentlichen in zwei Kategorien unterteilen: (i) relative Quantifizierung und (ii) Bestimmung der Peptidhäufigkeit durch Kalibrierung auf einen synthetischen stabilen isotopenmarkierten Standard (Abbildung 1). Gegenwärtig wendet die Mehrheit der wissenschaftlichen Gemeinschaft den erstgenannten Ansatz für Forschungsfragen an. Letzteres beginnt jedoch gerade in der klinischen Anwendung eine immer wichtigere Rolle zu spielen.

Die auf Entdeckung basierende relative Quantifizierung durch LC-MS hat es Forschern ermöglicht, gleichzeitig Veränderungen der Proteinhäufigkeit in mehreren Proben zu bestimmen. „Die LC-MS ist besonders stark in dem Sinne, dass sie viele Proteine ​​parallel und ohne Wissen quantifizieren kann“, sagt Bernhard Kuster a priori welche Proteine ​​man vielleicht analysieren möchte“. Um die Funktion eines einzelnen Proteins und die Beziehung zwischen Proteinen und anderen im Kontext eines komplexen biologischen Systems wirklich zu verstehen, müssen Veränderungen der Proteinhäufigkeit im Vergleich zu denen des Basis- oder Standardsystems gemessen werden. Wie der Name schon sagt, beinhaltet die relative Quantifizierung den Vergleich von Proteinmengen mit einer bestimmten Bedingung, d.h., wie viel von einem Peptid (und durch Extrapolation ein Protein) ist in Bedingung B, C, D usw. verglichen mit der Menge desselben Peptids in Zustand A. Kuster weist auch darauf hin, dass „LC-MS auch in dem Sinne leistungsfähig ist, dass quantitative Assays für Proteine ​​entwickelt werden können, für die keine Antikörper existieren oder von geringer Qualität sind“.

Allgemeiner ausgedrückt gibt es grundsätzlich zwei Ansätze für die relative Quantifizierung von Proteinen durch LC-MS. Diese sind: (i) gekennzeichnet und (ii) kennzeichnungsfrei. Die erstere Kategorie wird in zwei Möglichkeiten zur Markierung von Peptiden/Proteinen in einem Proteom unterteilt. Nämlich über die metabolische Markierung, die erstmals 1999 3 eingeführt und später in Form von SILAC von der Forschungsgemeinschaft weiter verbreitet wurde (STisch ichsotope letikettieren mit einAminosäuren in CEllenkultur) 4. Proteine ​​können auch durch chemische Derivatisierung modifiziert werden und solche Ansätze umfassen ichSotope-Coded einaffinität Tags (ICAT) 5 , 18 O-Markierung 6 , Dimethyl-Markierung 7 und isobare Massen-Tags, d.h., Tandem mArsch Tag (TMT) und ichsobarisch Tag für Relativ und einabsolut QÜberprüfung (iTRAQ) 8,9 .

Mit SILAC werden biologische Proben markiert in vitro mit einer schweren Isotopenversion der Zielaminosäure. Bei der Proteinsynthese wird die natürlich vorkommende Aminosäure durch eine schwerer markierte Version ersetzt. Zellen, die verschiedenen experimentellen Bedingungen ausgesetzt waren (kultiviert in leichten, mittleren oder schweren Medien) können dann gemischt und alle Verarbeitungsschritte an der kombinierten Probe durchgeführt werden (Abbildung 1, metabolische Markierung). Diese Strategie verringert deutlich jegliche Variabilität, die während der Probenvorbereitung auftreten kann, und hat den entscheidenden Vorteil einer genaueren Quantifizierung. Mit z.B., TMT-Reagenzien 8 kann eine multiplexierte Proteinquantifizierung mit hohem Durchsatz erreicht werden. In Kombination mit LC-MS und proteomischer Datensoftware können derzeit bis zu 16 verschiedene Proben aus Zellen, Geweben oder biologischen Flüssigkeiten gleichzeitig analysiert, die Peptide/Proteine ​​identifiziert und die relativen Mengen der Peptide/Proteine ​​berechnet werden (Abbildung 1 , chemische Kennzeichnung).

Die markierungsfreie Quantifizierung durch LC-MS hat in letzter Zeit wieder an Popularität gewonnen. Dieses erneute Interesse der Community hat sich in erster Linie als Folge der verbesserten Massenauflösung aktueller Massenspektrometer, der verbesserten Retentionszeitstabilität mit neuen HPLC-Systemen und verbesserten Datenanalysealgorithmen entwickelt, die nicht nur mehrere chromatographische Spuren ausrichten, sondern auch zahlreiche Merkmale aus den Spuren extrahieren können . Parallel dazu hat sich die datenunabhängige Erfassung (DIA) auch als leistungsstarker Ansatz für eine tiefe, markierungsfreie relative Proteinquantifizierung über das gesamte Proteom heraus entwickelt. Insgesamt ist ein markierungsfreier quantitativer Ansatz eine sehr kostengünstige Alternative sowohl zu SILAC als auch zu TMT und hat den Hauptvorteil, Veränderungen der Proteinhäufigkeit über mehrere Proben hinweg ohne Verwendung von Isotopenmarkierungen zu vergleichen. Die Proben werden einzeln durch LC-MS analysiert, ein Aspekt, der bei der Analyse von Kohorten von Hunderten bis Tausenden von Patientenproben von großem Vorteil ist.Mit ausgeklügelten Softwarealgorithmen ist es nun wesentlich einfacher, Signale zu integrieren, die einzigartigen Peptidionen über die gesamte LC-Zeitskala entsprechen. Nach der LC-MS-Erfassung der Daten können die einzelnen Analysen verglichen und chromatographische Merkmale, die allen Proben gemeinsam sind, abgeglichen werden (Abbildung 1, ohne Label). Die Hauptvorteile der Proteomquantifizierung durch markierungsfreie LC-MS sind die Möglichkeit, eine unbegrenzte Anzahl von Proben zu vergleichen, und die Überalterung teurer Markierungsstrategien. Ein großer Nachteil besteht jedoch darin, dass die LC-MS-Erfassungszeit verlängert wird (da jede Probe nacheinander ausgeführt wird). Nichtsdestotrotz erscheinen neue Systeme auf dem Markt, die sehr schnelle und kurze LC-Gradienten liefern können, um den Zeitaufwand für die Analyse Tausender klinischer Proben zu verkürzen.

Das Konzept der Verwendung von stabilen Isotopen synthetisierten Peptiden als interne Standards für die Quantifizierung von Proteinen durch LC-MS wurde zuerst von Desiderio und Kai 10 entwickelt (Abbildung 1, gespikte Standards). Dies sind synthetische tryptische Peptide, die dieselbe Aminosäuresequenz wie die natürlich vorkommenden interessierenden Peptide aufweisen. Die synthetisierten Peptide enthalten jedoch mindestens eine stabile isotopenmarkierte Aminosäure, die zu einem geringen Anstieg (6-10 Da) der Molekülmasse führt. Eine „bekannte“ Menge des synthetischen Peptidäquivalents wird in einen proteomischen Verdau gegeben und die gesamte Probe durch LC-MS analysiert. Das native Peptid und der gespikte Peptidstandard werden chromatographisch koeluieren und im Massenspektrometer ionisieren. Die m/z der beiden Peptide kann jedoch leicht unterschieden werden. Aus den extrahierten Ionenchromatogrammen und der Berechnung der Fläche unter der Kurve für beide Peptide kann eine Schätzung der Menge des nativen Peptids durch Vergleich der Peakverhältnisse berechnet werden. Die allgemein akzeptierte Empfehlung ist, mindestens drei tryptische Peptide pro Protein zu synthetisieren. Wenn jedoch pro Experiment eine Quantifizierung mehrerer Proteine ​​erforderlich ist, steigt der Preis schnell in die Höhe. Obwohl das Aufstocken von Peptidstandards ein recht unkomplizierter Ansatz ist, bleibt die Kalibrierung der Peptidhäufigkeit, um den Proteingehalt widerzuspiegeln, eine Herausforderung 11 . Es wurden alternative Kalibrierungsmethoden vorgeschlagen, um diese Schwierigkeiten zu beheben, und umfassen: z.B., die Verwendung eines einzigen gemeinsamen Referenzpools 12,13 .


3. NICHT ZUFÄLLIGES FEHLEN

Luo et al. [17] überwindet die Beschränkungen von ANOVA-Modellen durch ein Bayes-Framework, das die nicht-zufällige Fehlbarkeit in iTRAQ-Datensätzen einbezieht. Ihr Modell geht davon aus, dass die gemessenen Peptidintensitäten sowohl von Proteinexpressionsniveaus als auch von peptidspezifischen Effekten beeinflusst werden. Die Werte dieser beiden Effekte über mehrere Experimente hinweg werden als Zufallseffekte modelliert. Wenn eine Probe in einem einzigen Experiment mit mehreren Tags gekennzeichnet wird, werden die Variationen zwischen verschiedenen isobaren Tags auch als zufällige Effekte modelliert. Das nicht zufällige Fehlen von Peptiddaten wird mit einer logistischen Regression modelliert, die die Fehlbarkeitswahrscheinlichkeit für ein Peptid mit dem Expressionsniveau des Proteins, das dieses Peptid produziert, in Beziehung setzt. Eine auf dieses Modell zugeschnittene Markov-Ketten-Monte-Carlo-Methode wurde für die Inferenz relativer Expressionsniveaus über verschiedene Proben hinweg entwickelt.

3.1 Modell

Wir konzentrieren uns auf die Beschreibung des Modells für iTRAQ-Daten aus mehreren Experimenten und die Schätzung der relativen Expressionsniveaus von Proteinen. Wenn die iTRAQ-Daten aus mehreren Experimenten gewonnen werden, [17] verwendet ein hierarchisches Bayes-Modell in dem Sinne, dass das Modell eine Beobachtungskomponente hat, die die beobachteten Peptidintensitäten als zufällige Effekte modelliert, deren bedingte Verteilung von den erwarteten Proteinexpressionsniveaus und Peptideffekten abhängt , und eine zweite (hierarchische) Komponente, die die Verteilungen dieser Erwartungswerte definiert.

Bei Luo et al. [17], wird angenommen, dass die Markierungseffekte durch Normalisierungsmethoden wie die Quantil-Normalisierung beseitigt werden. Angenommen, es gibt S (𢙒) biologische Proben untersucht in K (𢙒) Experimente. Da mehrere isobare Tags dieselbe Probe in einem Experiment markieren können, lassen Sie uns LS ≥ 1 gibt die Anzahl der Tags an, die die S-te Probe. Dann ∑S LS = m ist die Anzahl der in einem Experiment verwendeten isobaren Tags, die 4 beträgt, wenn wir 4-plex isobare Reagenzien verwenden und 8 in der 8-plex-Version. Angenommen, es gibt ich Proteine ​​in der Probe und Jich Peptide für die ichte Protein. Für die lLabel der SProbe im kExperiment, lass jakijsln bezeichnen den logarithmisch transformierten Wert der gemessenen beobachteten Intensität für die JPeptid der ichProtein aus dem ntes Spektrum. Beachten Sie, dass J sollte passender bezeichnet werden als J(ich), um explizit darauf hinzuweisen, dass Peptide in Proteine ​​eingebettet sind, und l sollte bezeichnet werden als l(S) um anzuzeigen, dass lbeschriftetes Tag der Ste Probe. Zur Vereinfachung der Notation lassen wir die Klammern weg. Die gemessene Intensität eines Peptids hängt vom Proteinexpressionsniveau und der Peptidwirkung ab. Lassen xkisl bezeichnen die logarithmisch transformierte Ausdrucksebene des ichProtein der SProbe mit dem lBeschriftungsschild im kte Experiment. Lassen zkij bezeichnen den logarithmisch transformierten Peptideffekt für die JPeptid der ichProtein in der kte Experiment. Luo et al. [17] betrachtet ein additives Modell für jakijsln (k = 1, …, K ich = 1, …, ich J = 1, …, Jich S = 1, …, S l = 1, …, LS n = 1, …, nkijsl):

was einem multiplikativen Modell im Originalmaßstab entspricht. In (3), εkijsln wird als unabhängig normalverteilt angenommen mit Mittelwert 0 und Varianz σ ε 2 : ε k i j s l n

3.1.1 Mechanismus für fehlende Daten

Das statistische Modell für das Fehlen von Peptiden in [17] wurde durch die Studie mit dem Datensatz motiviert, der aus der Untersuchung der Rolle von Caveolae für die postnatale kardiovaskuläre Funktion erhalten wurde. In dieser Forschung wurden drei Experimente durchgeführt, bei denen die Proteinprofile von zwei Wildtyp-Mäusen und zwei Knock-out-Cav-1-Mäusen durch iTRAQ mit vier isobaren Tags in jedem Experiment analysiert wurden. Luo et al. [17] untersuchten den Anteil der Peptide, die in einem Experiment beobachtet wurden, aber in einem anderen Experiment fehlten, und fanden heraus, dass es eine negative Korrelation zwischen der fehlenden Wahrscheinlichkeit und der Peptidintensität gab. Mit anderen Worten, weniger häufig vorkommende Peptide fehlen eher, da sie aufgrund der datenabhängigen Erfassung des Analyseprozesses schwerer zu erkennen sind. Luo et al. [17] modelliert die fehlende Wahrscheinlichkeit durch ein einfaches logistisches Regressionsmodell:

wo ichkijsln = 1 zeigt an, dass die JPeptid der ichProtein wird im . gemessen kExperiment, das lth Replik der SProbe und die ntes Spektrum. Formel (4) impliziert, dass der Logit der Wahrscheinlichkeit des Fehlens von Peptiden linear von seiner Intensität abhängt. Es wird erwartet, dass B > 0, da Peptide mit geringerer Intensität eher fehlen.

3.1.2 Vorstufen

Der Bayessche hierarchische Rahmen in [17] berücksichtigt die Variabilitäten zwischen Experimenten und Stichproben und geht davon aus, dass xkisl und zkij sind unabhängig auf verschiedene Experimente normalverteilt, d.h.:

wo xisl und zij bezeichnen die über mehrere Experimente gemittelten Protein- bzw. Peptideffekte. Es wird auch angenommen, dass die Proteinexpressionsniveaus in verschiedenen Replikaten (mit unterschiedlichen Tags markiert) derselben Probe normal verteilt sind:

wo xist bezeichnet das Ausdrucksniveau des ichProtein in der Ste Probe. Annahmen (5)–(7) führen zu einer äquivalenten Form von (3):

N ( 0 , σ x 2 ) und e k i j z

N ( 0 , σ z 2 ) bezeichnen die zufälligen Effekte über Experimente hinweg und e i s l t

N ( 0 , σ δ 2 ) bezeichnet die Variation zwischen mehreren Replikaten derselben Stichprobe. Wenn eine Probe in einem Experiment mit einem eindeutigen isobaren Tag gekennzeichnet ist, gibt es innerhalb einer Probe keine replizierte Variationskomponente. Formel (8) ist ein Modell mit gemischten Effekten. Um die Identifizierbarkeit des Modells zu gewährleisten, ist die Einschränkung xich1 = 0 wird hinzugefügt. Dann xist bezeichnet das Ausdrucksniveau des ichProtein in der SProbe relativ zur ersten Probe.

Die zweite Ebene der Prioren sind Normalverteilungen für xist und zij:

Das hierarchische Modell wird beendet, indem man inverse Gammaverteilungen als Prioren für die Hyperparameter der Varianz annimmt: σ x − 2

Gamma ( γ 7 , γ 8 ) , wobei γ1 und γ2 die Form- bzw. Skalenparameter einer Gammaverteilung bezeichnen und unter der Annahme ein

n(0, ν 2 ). Die Posterior-Verteilungen relevanter Parameter werden durch MCMC-Simulationen simuliert und differentiell exprimierte Proteine ​​werden durch Analyse der Posterior-Verteilung von . identifiziert xist.

3.2 Vergleich zur ANOVA-Analyse

Der wichtigste Unterschied zwischen diesem Bayes-Modell in [17] und dem ANOVA-Modell von Hill et al. [7] und Oberg et al. [19] ist, dass [17] die nicht vernachlässigbare Fehlbarkeit in iTRAQ-Daten eindeutig modelliert hat. Oberg et al. [19] bemerkten am Ende ihrer Arbeit, dass die Verwendung eines Zensierungsmechanismus zur Anpassung des Modells ein natürlicher nächster Schritt wäre. Anstatt die Daten bei einem unbekannten Schwellenwert zu zensieren, modellierte [17] eine höhere Wahrscheinlichkeit des Fehlens von Peptiden für niedrigere Peptidintensitäten. Diese beiden Methoden unterscheiden sich auch hinsichtlich der im Modell enthaltenen Variationen. Der experimentelle Effekt und der replikative Effekt (wenn mehrere Tags eine Probe markieren) werden als Konstanten für alle Proteine ​​im ANOVA-Modell betrachtet. Im Gegensatz dazu modelliert [17] sie als zufällige Effekte, die spezifisch für Peptide und (oder) Proteine ​​waren. Darüber hinaus beinhaltet die ANOVA-Analyse zusätzliche Effekte wie den Markierungseffekt und die Wechselwirkung zwischen Markierung und experimentellem Effekt gJ(ich),S, die in [17] nicht modelliert sind. Die Einbeziehung des Markierungseffekts wird durch das Versuchsdesign bestimmt. Wenn identische Tags verwendet werden, um dieselben Proben in mehreren Experimenten zu markieren, ist der Markierungseffekt nicht identifizierbar, da er mit dem Sampling-Effekt verwechselt wird. Es ist sinnvoll, den Markierungseffekt nur einzubeziehen, wenn verschiedene Tags verwendet werden, um dieselben Proben in mehreren Experimenten zu markieren. Für die Wechselwirkung zwischen Markierung und experimenteller Wirkung gJ(ich),S, obwohl es theoretisch angemessen ist, es im Modell zu haben, besteht eine große Unsicherheit in der Schätzung von gJ(ich),S aufgrund der geringen Anzahl von Wiederholungen (oder keine Wiederholungen) für jede Probe.

Die gemeinsame Annahme sowohl bei der Bayes-Methode als auch bei der ANOVA-Analyse ist, dass alle peptidbasierten Beobachtungen die intakten Proteine ​​genau widerspiegeln. Wir ignorieren die Möglichkeit von homologen Genen, die zu zwei oder mehr Proteinen führen, die identische und nicht identische Peptide teilen, sowie die Möglichkeit posttranskriptioneller Modifikationen. Obwohl (1) die Wechselwirkung zwischen Peptidwirkungen und Behandlung umfasst (gJ(ich),S), es wird in der Analyse von [19] entfernt. Auch dieser Begriff ist in [17] nicht enthalten. Sowohl [17] als auch [19] gehen daher davon aus, dass bestimmte Proteine ​​bei unterschiedlichen Behandlungen unterschiedliche Expressionen in den Proben aufweisen, dass jedoch jede Änderung der Proteinexpression alle Peptide für dieses Protein gleichermaßen beeinflusst.

3.3 Nicht-zufällige Missingness in Massenspektrometriedaten

Das in diesem Unterabschnitt beschriebene Modell (vorgeschlagen von Wang et al. [31]), das auf Massenspektrometriedaten abzielt, ist nicht auf iTRAQ-Daten zugeschnitten. Da jedoch iTRAQ-Daten gewonnen werden, indem die isolierten Peptide durch MS/MS laufen, bietet dieses Wahrscheinlichkeitsmodell eine alternative Möglichkeit, das Fehlen in iTRAQ zu untersuchen. Wanget al. [31] schlugen vor, zunächst Quellen der systematischen Variation zwischen MS-Profilen über eine globale Normalisierung zu beseitigen und dann die intensitätsabhängige Fehlbarkeit zu untersuchen und die fehlenden Peptidintensitäten zu imputieren.

3.3.1 Globale Normalisierung

[31] ging bei ihrer globalen Normalisierung davon aus, dass die Stichprobenintensitäten alle durch einen zu wählenden konstanten Faktor zusammenhängen. Um den möglichen Bias aufgrund des nicht zufälligen Fehlens in Massenspektrometriedaten zu vermeiden, haben Wang et al. vorgeschlagen, die Spitze zu verwenden L geordnete Statistiken (z. B. Mediane) der Peptidintensitäten in jeder Probe für die Neuskalierung, wobei L ist ein benutzerdefinierter Parameter. Lassen K (K > 2) die Anzahl der MS-Profile sein. Bezeichnen Sie die beobachteten Intensitäten der k-tes Profil als Y (k) = (y 1 (k), y 2 (k), …, y n k (k)), wobei nk ist die Anzahl der Peptide, die in der k-th Profil. Für eine bestimmte Zahl L ( L < min ( < n k >k = 1 K ) ) , der Median der Grundgesamtheit ist definiert als

und der Skalierungskoeffizient für die Normierung des k-th Profil ist

3.3.2 Nichtzufälliges Fehlen und Imputation

Um das nicht zufällige Fehlen zu berücksichtigen, haben Wang et al. [31] schlugen vor, die fehlende Peptidintensität in einer Probe dem Verhältnis der beobachteten Intensität in einer anderen Probe dividiert durch einen Skalenkoeffizienten zu unterstellen, der aus den Intensitäten anderer in beiden Proben beobachteter Peptide geschätzt wird. Angenommen, der minimal nachweisbare Füllstand des Instruments ist D. Sei x j ( k ) die wahre Häufigkeit der J-te Peptid im k--tes Profil, das dem beobachteten Wert y j (k) entspricht. Ein Peptid kann in einem Profil vorhanden sein oder nicht. Sei z j ( k ) eine latente Variable, die das Vorhandensein von anzeigt J-te Peptid im k-tes Profil, mit z j ( k ) = 1, wenn die J-te Peptid existiert in der k--tes Profil und z j (k) = 0 andernfalls. Dann ist x j (k) = 0, wenn z j (k) = 0. Sei f j ( k ) die Dichtefunktion von x i ( k ), wenn z i ( k ) = 1 ist, wir haben

I 0 ( · ) P ( zj ( k ) = 0 ) + f j ( k ) ( · ) P ( zj ( k ) = 1 ) ,

wo ich0(·) zeigt eine Punktmasse bei Null an. Mit (12) haben Wang et al. [31] nahmen an, dass die wahre Häufigkeit eines Peptids eine gemischte Verteilung hat. Mit Wahrscheinlichkeit P ( z j ( k ) = 0 ) existiert das Peptid nicht im k-ten Profil, und die Häufigkeit ist Null. Mit Wahrscheinlichkeit P (zj(k)=1) existiert das Peptid und die Häufigkeitsverteilung wird durch fj(k) beschrieben.

Der verpasste Wert der Intensitätsstufe des J-te Peptid vorhanden in der k-te Profil wird durch den Erwartungswert E ( x j ( k ) | y j ( k ) = 0 ) imputiert, der berechnet wird als

wobei die erste Gleichheit auf die Tatsache zurückzuführen ist, dass E ( x j ( k ) | y j ( k ) = 0 , z j ( k ) = 0 ) = 0 , und die zweite Gleichheit darauf zurückzuführen ist, dass wenn die J-te Peptid existiert in der k-tes Profil (zj(k)=1), keine Signalerkennung (yj(k)=0) ist äquivalent zu geringer Intensität (xj(k)ύ). Der Term E ( x j ( k ) | x j ( k ) < d , z j ( k ) = 1 ) in (13) kann bestimmt werden, wenn f j ( k ) und D spezifiziert sind, und P d ( z j ( k ) = 1 | y j ( k ) = 0 ) die Wahrscheinlichkeit, dass die J-te Peptid existiert in der k-tes Profil, wenn kein Signal erkannt wird, kann berechnet werden als

wobei die dritte Gleichheit gilt, weil P d ( yj ( k ) = 0 | zj ( k ) = 1 ) = P d ( xj ( k ) < d | zj ( k ) = 1 ) und P d ( yj ( k ) ) = 0 | zj ( k ) = 0 ) = 1 . Der Term P d ( x j ( k ) < d | z j ( k ) = 1 ) in (14) kann aus der Dichtefunktion f j ( k ) erhalten werden, wenn letztere spezifiziert ist, und

Wenn also die bedingte Dichte f j ( k ) und D spezifiziert sind, kann die fehlende Peptidintensität mit (13)–(15) imputiert werden.

Der minimale vom Instrument nachweisbare Füllstandsparameter D wird durch den Hintergrundgeräuschpegel in allen MS-Rohprofilen desselben Instruments geschätzt, bezeichnet als d ̂ . Dann ist der nachweisbare Pegel des k-th Profil ist d ̃ (k) = d ̂ /λ (k), wobei λ (k) ist der Normierungsskalenkoeffizient in (11). Wanget al. [31] nehmen an, dass

unabhängig für k = 1, 2, …, K. Dies entspricht der Annahme, dass die Dichtefunktion von x j ( k ) für z j ( k ) = 1 , f j ( k ) ist n(λ (k) μJ, (λ (k) σJ) 2). Im Sonderfall, dass σJ ≪ | d ̃ (k) − μJ| und biologische Replikationen sind verfügbar, Wang et al. [31] lieferten Schätzer für die fehlende Wahrscheinlichkeit P d ( z j ( k ) = 1 | y j ( k ) = 0 ) und den imputierten Wert E ( X j ( k ) | y j ( k ) = 0 ) wie folgt:

Die imputierten Daten werden für weitere Analysen wie Schätzungen, Clustering von Proteinen und differentielle Proteinidentifizierung verwendet.

Das von Wang et al. [31] unterscheidet sich vom Bayes'schen Modell von Luo et al. [17] auf die folgenden drei Arten. Zuerst werden in [31] Intensitäten unterhalb eines bestimmten Niveaus zensiert und der Zensierungsparameter basierend auf den Hintergrundgeräuschpegeln in [17] geschätzt. Angesichts der Beobachtung, dass weniger häufig vorkommende Peptide eher fehlen, ist der modellbasierte fehlende Mechanismus in [17], der die Wahrscheinlichkeit des Fehlens mit der Peptidintensität verknüpft, sinnvoller als der zensierende Mechanismus in [31]. Zweitens führt [31] eine Einzelwert-Imputation durch und imputiert die verpassten Intensitäten mit den erwarteten Werten, während [17] eine multiple Imputation durchführt und die Posterior-Verteilungen der verpassten Werte simuliert. Drittens ist [31] nicht auf die iTRAQ-Analyse zugeschnitten und Variationsquellen sollten entfernt werden, wenn die Idee in [31] auf iTRAQ-Daten angewendet wird. Die Stärke von [31] liegt im geringeren Rechenaufwand. Wenn die Dichte f j (k) spezifiziert ist, kann die verpasste Peptidintensität leicht mit dem aus Formel (13) erhaltenen Erwartungswert imputiert werden.


2. Proteomik

Bevor Sie verschiedene proteomische Strategien zusammenfassen (Abbildung 1) sind einige Punkte hervorzuheben 4 :

Keine proteomische Technologie kann derzeit die gesamte Komplexität des Säugetierproteoms auflösen.

Bei jeder proteomischen Technik gibt es eine Tendenz zu häufiger vorkommenden Proteinen.

Im Allgemeinen gibt es einen Kompromiss zwischen der Anzahl der Proteine, die identifiziert werden können, und der Genauigkeit, mit der sie quantifiziert werden können.

Durch die Weitergabe quantitativer Peptidinformationen an Proteinänderungen gehen unweigerlich Informationen verloren.

Vergleich von Proteomics-Methoden

Abkürzung . Vollständiger Name und Erklärung. Vorteile . Nachteile.
DIGE Differenzgelelektrophorese Quantifizierung auf Proteinebene Geringe Empfindlichkeit
Visualisierung posttranslationaler Modifikationen und Proteinisoformen Nur die unterschiedlich exprimierten Proteine ​​werden durch MS/MS . identifiziert
Gute quantitative Genauigkeit Proteine ​​mit sehr hohem oder niedrigem pI oder Mw werden auf dem Gel nicht aufgelöst
Gel-LC-MS/MS Trennung durch SDS–PAGE vor der LC-MS/MS-Analyse Benutzerfreundlichkeit Die Vorfraktionierung erhöht den Zeitaufwand für die MS/MS-Analyse
Vorfraktionierung vor der LC-MS/MS-Analyse erhöht die Sensitivität Schlechte quantitative Genauigkeit in komplexen Mischungen ohne Peptidmarkierung
„Laddering“ als Hinweis auf proteolytischen Abbau Proteine ​​mit sehr hohem oder niedrigem Mw werden auf dem Gel nicht aufgelöst
SILAC Stabile Isotopenmarkierung mit Aminosäuren in Zellkultur Minimale experimentelle Variation Quantifizierung auf Peptidebene
Ausgezeichnete quantitative Genauigkeit Nicht geeignet für Zellen, die sich in Kultur nicht vermehren, z.B. Kardiomyozyten
Benutzerfreundlichkeit für Zellen in Kultur, die sich vermehren und gefilterte Serumergänzungen tolerieren Metabolische Kennzeichnung von Tieren ist teuer
iTRAQ, TMT-Tags Isotopenmarkierung von Peptiden Gute quantitative Genauigkeit Quantifizierung auf Peptidebene
Kann sowohl mit Geweben als auch mit Zellkulturen verwendet werden Gemischte MS/MS-Spektren enthalten Reporterionen von verschiedenen Peptiden
Abkürzung . Vollständiger Name und Erklärung. Vorteile . Nachteile.
DIGE Differenzgelelektrophorese Quantifizierung auf Proteinebene Geringe Empfindlichkeit
Visualisierung posttranslationaler Modifikationen und Proteinisoformen Nur die unterschiedlich exprimierten Proteine ​​werden durch MS/MS . identifiziert
Gute quantitative Genauigkeit Proteine ​​mit sehr hohem oder niedrigem pI oder Mw werden auf dem Gel nicht aufgelöst
Gel-LC-MS/MS Trennung durch SDS–PAGE vor der LC-MS/MS-Analyse Benutzerfreundlichkeit Die Vorfraktionierung erhöht den Zeitaufwand für die MS/MS-Analyse
Vorfraktionierung vor der LC-MS/MS-Analyse erhöht die Sensitivität Schlechte quantitative Genauigkeit in komplexen Mischungen ohne Peptidmarkierung
„Laddering“ als Hinweis auf proteolytischen Abbau Proteine ​​mit sehr hohem oder niedrigem Mw werden auf dem Gel nicht aufgelöst
SILAC Stabile Isotopenmarkierung mit Aminosäuren in Zellkultur Minimale experimentelle Variation Quantifizierung auf Peptidebene
Ausgezeichnete quantitative Genauigkeit Nicht geeignet für Zellen, die sich in Kultur nicht vermehren, z.B. Kardiomyozyten
Benutzerfreundlichkeit für Zellen in Kultur, die sich vermehren und gefilterte Serumergänzungen tolerieren Metabolische Kennzeichnung von Tieren ist teuer
iTRAQ, TMT-Tags Isotopenmarkierung von Peptiden Gute quantitative Genauigkeit Quantifizierung auf Peptidebene
Kann sowohl mit Geweben als auch mit Zellkulturen verwendet werden Gemischte MS/MS-Spektren enthalten Reporterionen von verschiedenen Peptiden

Vergleich von Proteomics-Methoden

Abkürzung . Vollständiger Name und Erklärung. Vorteile . Nachteile.
DIGE Differenzgelelektrophorese Quantifizierung auf Proteinebene Geringe Empfindlichkeit
Visualisierung posttranslationaler Modifikationen und Proteinisoformen Nur die unterschiedlich exprimierten Proteine ​​werden durch MS/MS . identifiziert
Gute quantitative Genauigkeit Proteine ​​mit sehr hohem oder niedrigem pI oder Mw werden auf dem Gel nicht aufgelöst
Gel-LC-MS/MS Trennung durch SDS–PAGE vor der LC-MS/MS-Analyse Benutzerfreundlichkeit Die Vorfraktionierung erhöht den Zeitaufwand für die MS/MS-Analyse
Vorfraktionierung vor der LC-MS/MS-Analyse erhöht die Sensitivität Schlechte quantitative Genauigkeit in komplexen Mischungen ohne Peptidmarkierung
„Laddering“ als Hinweis auf proteolytischen Abbau Proteine ​​mit sehr hohem oder niedrigem Mw werden auf dem Gel nicht aufgelöst
SILAC Stabile Isotopenmarkierung mit Aminosäuren in Zellkultur Minimale experimentelle Variation Quantifizierung auf Peptidebene
Ausgezeichnete quantitative Genauigkeit Nicht geeignet für Zellen, die sich in Kultur nicht vermehren, z.B. Kardiomyozyten
Benutzerfreundlichkeit für Zellen in Kultur, die sich vermehren und gefilterte Serumergänzungen tolerieren Metabolische Kennzeichnung von Tieren ist teuer
iTRAQ, TMT-Tags Isotopenmarkierung von Peptiden Gute quantitative Genauigkeit Quantifizierung auf Peptidebene
Kann sowohl mit Geweben als auch mit Zellkulturen verwendet werden Gemischte MS/MS-Spektren enthalten Reporterionen von verschiedenen Peptiden
Abkürzung . Vollständiger Name und Erklärung. Vorteile . Nachteile.
DIGE Differenzgelelektrophorese Quantifizierung auf Proteinebene Geringe Empfindlichkeit
Visualisierung posttranslationaler Modifikationen und Proteinisoformen Nur die unterschiedlich exprimierten Proteine ​​werden durch MS/MS . identifiziert
Gute quantitative Genauigkeit Proteine ​​mit sehr hohem oder niedrigem pI oder Mw werden auf dem Gel nicht aufgelöst
Gel-LC-MS/MS Trennung durch SDS–PAGE vor der LC-MS/MS-Analyse Benutzerfreundlichkeit Die Vorfraktionierung erhöht den Zeitaufwand für die MS/MS-Analyse
Vorfraktionierung vor der LC-MS/MS-Analyse erhöht die Sensitivität Schlechte quantitative Genauigkeit in komplexen Mischungen ohne Peptidmarkierung
„Laddering“ als Hinweis auf proteolytischen Abbau Proteine ​​mit sehr hohem oder niedrigem Mw werden auf dem Gel nicht aufgelöst
SILAC Stabile Isotopenmarkierung mit Aminosäuren in Zellkultur Minimale experimentelle Variation Quantifizierung auf Peptidebene
Ausgezeichnete quantitative Genauigkeit Nicht geeignet für Zellen, die sich in Kultur nicht vermehren, z.B. Kardiomyozyten
Benutzerfreundlichkeit für Zellen in Kultur, die sich vermehren und gefilterte Serumergänzungen tolerieren Metabolische Kennzeichnung von Tieren ist teuer
iTRAQ, TMT-Tags Isotopenmarkierung von Peptiden Gute quantitative Genauigkeit Quantifizierung auf Peptidebene
Kann sowohl mit Geweben als auch mit Zellkulturen verwendet werden Gemischte MS/MS-Spektren enthalten Reporterionen von verschiedenen Peptiden

Proteomische Ansätze. Proteinextrakte können entweder auf Proteinebene vor dem Verdau oder nach Proteinverdau auf Peptidebene fraktioniert werden. Bei DIGE werden die Proteinextrakte mit verschiedenen Fluoreszenzfarbstoffen markiert, bevor sie durch 2-DE getrennt werden. Für SILAC werden Zellen in Kultur durch Einbau von schweren oder leichten Aminosäuren metabolisch markiert. Alternativ erfolgt die Markierung auf Peptidebene unter Verwendung von iTRAQ- oder TMT-isobaren Tags. Peptide werden dann durch MS/MS analysiert. 2-DE, zweidimensionale Gelelektrophorese DIGE, Differenz-Gelelektrophorese 1-DE, eindimensionale Gelelektrophorese SILAC, stabile Isotopenmarkierung mit Aminosäuren in Zellkultur AA, Aminosäure iTRAQ, isobare Markierung für relative und absolute Quantifizierung TMT, Tandem Masse-Tag.

Proteomische Ansätze. Proteinextrakte können entweder auf Proteinebene vor dem Verdau oder nach Proteinverdau auf Peptidebene fraktioniert werden. Bei DIGE werden die Proteinextrakte mit verschiedenen Fluoreszenzfarbstoffen markiert, bevor sie durch 2-DE getrennt werden. Für SILAC werden Zellen in Kultur durch Einbau von schweren oder leichten Aminosäuren metabolisch markiert. Alternativ erfolgt die Markierung auf Peptidebene unter Verwendung von iTRAQ- oder TMT-isobaren Tags. Peptide werden dann durch MS/MS analysiert. 2-DE, zweidimensionale Gelelektrophorese DIGE, Differenz-Gelelektrophorese 1-DE, eindimensionale Gelelektrophorese SILAC, stabile Isotopenmarkierung mit Aminosäuren in Zellkultur AA, Aminosäure iTRAQ, isobare Markierung für relative und absolute Quantifizierung TMT, Tandem Masse-Tag.

2.1 Zweidimensionale Gelelektrophorese

Die zweidimensionale Gelelektrophorese (2-DE) ermöglicht die Trennung von Proteinen basierend auf ihrem isoelektrischen Punkt (pI) und Molekulargewicht (Mw). 5 Die erste Dimension beinhaltet die Trennung von Proteinen nach ihrem pI. Ein Proteingemisch wird auf einen Streifen mit einem immobilisierten pH-Gradienten geladen. Sobald ein elektrisches Feld angelegt wird, wandern die Proteine ​​zu ihrem pI, wo sie zwitterionisch werden, d. h. sie verlieren ihre Nettoladung und hören auf zu wandern (isoelektrische Fokussierung). Nach Abschluss der isoelektrischen Fokussierung werden die immobilisierten pH-Gradientenstreifen zur Trennung in der zweiten Dimension auf großformatige Gele übertragen, wo Proteine ​​durch SDS-PAGE nach ihrer Molekülmasse aufgelöst werden.

Im Gegensatz zu SDS-PAGE erzeugen 2-DE-Gele komplexe Karten von Proteomen, die als diskrete Protein-„Punkte“ visualisiert werden. Da pI und Mw unabhängige Eigenschaften sind, können 2-DE-Gele viel mehr Proteine ​​auflösen als SDS-PAGE. Wichtig ist, dass das gleiche Protein an mehreren Stellen auf einem Gel vorhanden sein kann. Verschiebungen von pI oder Mw zeigen das Vorhandensein von posttranslationalen Modifikationen, Proteinabbau oder Proteinisoformen an. 6, 7 Proteinmerkmale werden mit Coomassie- oder Silberfärbung sichtbar gemacht, und die differentielle Expression zwischen den Proben wird unter Verwendung relativer densitometrischer Quantifizierung bestimmt. Die Variabilität von Gel zu Gel kann jedoch die quantitative Genauigkeit einschränken und den Nachweis geringfügiger Unterschiede in der Expression verhindern.

Eine anspruchsvollere 2-DE-Technik ist die Differenzgelelektrophorese (DIGE, Abbildung 2A). 8 DIGE beinhaltet die Fluoreszenzmarkierung von Proteingemischen mit Cy-Farbstoffen, um relative Unterschiede in der Proteinexpression zu bestimmen. Ein interner Standard aus den gepoolten Versuchsproben ist enthalten, der für alle Proben repräsentativ ist. Die Nachweisempfindlichkeit von DIGE ist vergleichbar mit der Empfindlichkeit der Silberfärbung 9 und die Farbstoffe sind für pI und Mw aufeinander abgestimmt. Der Hauptvorteil von DIGE gegenüber herkömmlichen 2-DE-Gelen besteht darin, dass Proben auf demselben Gel gemultiplext werden können, wodurch die Anzahl der benötigten Gele reduziert und die experimentelle Variation begrenzt wird. DIGE, das mit einem internen Standard verwendet wird, quantifiziert zuverlässig Unterschiede von nur 10 % in der Proteinexpression. 10 Die Gele werden mit einem Fluoreszenzscanner gescannt, der spezifisch die Emissionswellenlänge jedes Cy-Farbstoffs misst. Kommerzielle Softwarepakete gleichen Proteinmerkmale ab und berechnen die differentielle Expression aus den gescannten Gelbildern. Die Normalisierung der Proteinspiegel über Gele hinweg erfolgt durch Vergleich der Proteinverhältnisse mit dem internen Standard, der auf jedem Gel mit nachgewiesen wird.

Gelbasierte Proteomik. Trennung des murinen Herzproteoms durch DIGE auf verschiedenen immobilisierten pH-Gradienten: pH 3–10 NL (EIN) und pH 4–7 (B). Das weiße Kästchen hebt die bessere Auflösung des gleichen Bereichs auf dem schmalen pH-Gradienten hervor. (C) Mw-Verteilung von sechs extrazellulären Glykoproteinen durch SDS-PAGE. Die charakteristische „Leiterung“ bei abdominalen Aortenaneurysmen (AAA) im Vergleich zu normalem Aortengewebe (CON) weist auf eine Proteolyse hin. Unterschiede in den Spektralzahlen sind farbcodiert (rot hoch, blau niedrig). (D) Die Inkubation von gesundem Aortengewebe mit Matrix-Metalloproteinasen-12 (MMP-12) induzierte ein ähnliches Fragmentierungsmuster von Fibronektin wie bei AAA beobachtet. Im Vergleich dazu war der Abbau durch Matrix-Metalloproteinasen-9 (MMP-9) weniger ausgeprägt (Wiedergabe mit Genehmigung von Didangelos et al. 15 ).

Gelbasierte Proteomik. Trennung des murinen Herzproteoms durch DIGE auf verschiedenen immobilisierten pH-Gradienten: pH 3–10 NL (EIN) und pH 4–7 (B). Das weiße Kästchen hebt die bessere Auflösung des gleichen Bereichs auf dem schmalen pH-Gradienten hervor. (C) Mw-Verteilung von sechs extrazellulären Glykoproteinen durch SDS-PAGE. Die charakteristische „Leiterung“ bei abdominalen Aortenaneurysmen (AAA) im Vergleich zu normalem Aortengewebe (CON) weist auf eine Proteolyse hin. Unterschiede in den Spektralzahlen sind farbcodiert (rot hoch, blau niedrig). (D) Die Inkubation von gesundem Aortengewebe mit Matrix-Metalloproteinasen-12 (MMP-12) induzierte ein ähnliches Fragmentierungsmuster von Fibronektin wie bei AAA beobachtet. Im Vergleich dazu war der Abbau durch Matrix-Metalloproteinasen-9 (MMP-9) weniger ausgeprägt (Wiedergabe mit Genehmigung von Didangelos et al. 15 ).

Im Gegensatz zu anderen proteomischen Techniken erfolgt die Quantifizierung durch 2-DE auf Proteinebene, nicht auf Peptidebene, und die Quantifizierung ist von der Identifizierung durch Massenspektrometrie (MS) entkoppelt. Die Silberfärbung kann verwendet werden, um Proteinmerkmale auf einem Gel zu visualisieren, um die Exzision der relevanten Stellen für MS zu erleichtern. Alternativ werden Spots mit einem Roboter-Spotpicker direkt aus fluoreszierenden Gelen gepickt. Die Spots werden dann vor der Proteinidentifizierung einem tryptischen Verdau im Gel unterzogen.

Einer der Haupteinschränkungen des 2-DE-Ansatzes besteht darin, dass Proteine ​​mit hoher Häufigkeit weniger häufig vorkommende Proteine ​​maskieren. Dies kann teilweise durch die Verwendung von Gradienten mit einem engen pH-Bereich (Abbildung 2B). Allerdings ist die Trennung in der ersten Dimension, insbesondere der Übergang von der ersten in die zweite Dimension, nicht verlustfrei, und sehr große, kleine und hydrophobe Proteine ​​bleiben schwer aufzulösen.

2.2 Flüssigchromatographie-Tandem-Massenspektrometrie

Die Flüssigchromatographie-Tandem-Massenspektrometrie (LC-MS/MS) ist der aktuelle Goldstandard in der Proteomik. Das Grundprinzip der MS besteht in der Messung des Masse-Ladungs-Verhältnisses (m/z) eines ionisierten Peptids und seiner Fragmentierungsprodukte. Proteine ​​werden zunächst durch Enzyme wie Trypsin verdaut, um Peptidfragmente herzustellen, die durch Umkehrphasen-LC leichter aufzulösen sind und durch Elektrospray-MS ionisiert werden. 11 Je nach Hydrophobie eluieren die Peptide zu unterschiedlichen Zeitpunkten aus der Umkehrphasensäule (Retentionszeit). Ein typischer Arbeitsablauf mit LC-MS/MS beinhaltet einen regelmäßigen Survey-Scan, um die Massen und die Intensitäten der eluierenden Peptide aufzuzeichnen. Die am häufigsten aus der Säule eluierenden Vorläuferionen werden für die Fragmentierung (MS/MS) ausgewählt. Die aus MS/MS-Daten erhaltenen Aminosäuresequenzinformationen ermöglichen die Identifizierung des Proteins. Peptidparameter wie Spektralzahlen, Ionenintensitäten und chromatographische Peakfläche können einen quantitativen Index für die Proteinhäufigkeit liefern (markierungsfreie Quantifizierung). 12 Die Vielseitigkeit der massenspektrometrischen Technologie hat zahlreiche verschiedene Massenspektrometer hervorgebracht, wobei MALDI-TOF-TOF-, Q-TOF- und Orbitrap-Massenanalysatoren 13 zu den gebräuchlichsten gehören, die derzeit für die Entdeckung der Proteomik verwendet werden.

2.3 Gel-LC-MS/MS-Analyse

Die Vorfraktionierung durch SDS-PAGE vor der MS hat sich bei der Charakterisierung von Proben, die einer Trennung durch 2-DE nicht zugänglich sind, als nützlich erwiesen. Es hilft auch, die einzige Hauptursache für Verzerrungen gegenüber Proteinen mit geringer Häufigkeit zu überwinden – die stochastische Unterabtastung von Peptiden mit geringer Häufigkeit, die entsteht, weil Peptide mit hoher Häufigkeit den Arbeitszyklus des Massenspektrometers dominieren. Für die Gel-LC-MS/MS-Analyse werden Proteine ​​durch SDS-PAGE getrennt, die gesamte Gelspur wird in eine Reihe von Banden unterteilt, die Banden werden ausgeschnitten, ohne leere Gelstücke zu hinterlassen, mit Trypsin verdaut und LC-MS/ An jeder der Banden wird eine MS-Analyse durchgeführt. 14, 15 Da Gelbanden dazu neigen, Mischungen von Proteinen zu sein, ist die LC-Trennung für die Proteinidentifizierung und -quantifizierung, d. h. durch Spektralzählung, unerlässlich. 16 Die Spektralzählung hat sich zu einer beliebten Strategie zur Quantifizierung der relativen Proteinhäufigkeit entwickelt, ist jedoch bei komplexen Mischungen weniger zuverlässig. Im Allgemeinen gilt: Je häufiger ein Protein ist, desto wahrscheinlicher wird es von MS/MS erkannt. Die Spektralzählungen werden aus der Anzahl der MS/MS-Spektren abgeleitet, die einem bestimmten Protein entsprechen.

Beim Gel-LC-MS/MS-Ansatz bleibt die Information über das native Mw eines Proteins erhalten. Wenn ein Proteinabbau vor dem tryptischen Verdau stattgefunden hat, werden Peptide durch MS in Gelsegmenten unterhalb des erwarteten Mw der nativen Proteine ​​nachgewiesen (Abbildung 2C). Daher ist die Überprüfung, ob unterschiedlich exprimierte Proteine ​​auf die gleichen Gelbanden beschränkt sind, wesentlich. Andernfalls kann ein abgebautes Protein aufgrund seiner charakteristischen „Leiter“ auf der SDS-PAGE hochreguliert erscheinen (Abbildung 2D). Alternativ können Proteinfragmente zu klein sein und der Detektion entgehen, weil sie vor der Pufferfront gewandert sind. Auf der anderen Seite sind Informationen über proteolytische Abbauprodukte wichtig und gehen bei der herkömmlichen Shotgun-Proteomik, die tryptische Peptide ohne vorherige Trennung auf Proteinebene analysiert, verloren.

2.4 Schrotflinten-Proteomik

Abgesehen von gelbasierten Ansätzen gibt es gelfreie Methoden, um Unterschiede in der Proteinexpression basierend auf der Peptidhäufigkeit zu quantifizieren. Obwohl diese proteomischen Schrotflinten-Methoden tiefer in das Proteom abbauen können, treten bei der Quantifizierung Probleme auf, wenn die Proben zu komplex sind. MS ist aufgrund von Unterschieden in der Ionisationseffizienz nicht von Natur aus quantitativ. Die am häufigsten vorkommenden Ionen ziehen während der Elektrospray-Ionisierung die meisten Ladungen an, wodurch es weniger wahrscheinlich ist, dass Peptide mit niedrigem Niveau ionisiert werden. Um falsch-positive Proteinveränderungen durch koeluierende Peptide mit hoher Häufigkeit zu vermeiden, sollten Markierungstechniken für eine zuverlässige Quantifizierung verwendet werden. Beliebte Markierungsmethoden sind isobare Markierungen für relative und absolute Quantifizierung (iTRAQ), Tandem-Massenmarkierungen (TMT) und stabile Isotopenmarkierung durch Aminosäuren in Zellkultur (SILAC). 17 iTRAQ ist derzeit als Vier- und Acht-Plex erhältlich und ermöglicht die relative Quantifizierung von bis zu acht Proben, während die Markierung von TMT und SILAC mit sechs bzw. drei Proben verwendet werden kann. 18 Peptide sind jedoch nur ein Ersatzmaß und nicht immer zuverlässig für die Proteinquantifizierung, d. h. wenn sie posttranslationalen Modifikationen oder Proteolyse unterliegen.

2.4.1 Stabile Isotopenmarkierung durch Aminosäuren in Zellkultur

SILAC verwendet nicht-radioaktive Isotopenmarkierungen, um Proteine ​​mit leichten (z. B. 12 C) und schweren Isotopen (z. B. 13 C) zu markieren. 18 Proben können während desselben MS-Laufs gemultiplext und analysiert werden, wodurch experimentelle Fehler minimiert werden. 19 Die SILAC-Paare koeluieren während der Chromatographie, aber die entsprechenden Peptide der schweren und leichten Isoform erscheinen mit einer charakteristischen Massenverschiebung. Die relative Menge jedes Proteins kann durch die Unterschiede in den Peakintensitäten von SILAC-markierten Peptiden berechnet werden. Die Verwendung von SILAC zur Quantifizierung unterschiedlicher Proteingehalte geht über die Verwendung von Zellen in Kultur hinaus. SILAC-markierte Mäuse wurden mit nahezu vollständiger Markierung aller Proteine ​​beschrieben, obwohl die SILAC-Diät teuer ist. 20 Die metabolische Markierung bietet auch Informationen über die Synthese und Beschaffung von Aminosäuren, den Proteinaufbau und die Umsatzkinetik.

2.4.2 Isobares Tagging für relative und absolute Quantifizierung/Tandem-Masse-Tags

In Fällen, in denen menschliches Gewebe verwendet wird, ist iTRAQ oder TMT eine Option zum Multiplexen klinischer Proben für differenzielle Expressionsstudien durch LC-MS/MS, 21 aber diese Techniken sind nicht ohne Einschränkungen. 22 (i) Ein Nachteil des iTRAQ- und des TMT-Systems gegenüber SILAC ist die Tatsache, dass die Markierung auf Peptidebene erfolgt und erst spät im experimentellen Prozess erfolgt.Vor der Markierung werden Proteine ​​zunächst aus Zellen oder Geweben extrahiert und zu Peptiden verdaut. Dies ist eine potenzielle Variationsquelle. (ii) Im Gegensatz zu SILAC erfolgt die Quantifizierung auf MS/MS-Ebene, nicht auf MS-Ebene. Die Peptide aus verschiedenen Proben behalten ihre identische m/z Verhältnisse nach der Markierung (MS). Erst bei Fragmentierung (MS/MS) setzen die isobaren Massen-Tags ihre unterschiedlichen Reporter-Ionen mit einer einzigen Isotopen-Substitution pro Tag frei und liefern quantitative Informationen für jede einzelne Probe. Ein häufig beobachtetes Problem bei iTRAQ-Experimenten besteht darin, dass ein komplexer Hintergrund zu einer Unterschätzung von Proteinfaltungsänderungen führen kann. Während der Selektion von Vorläuferionen kann mehr als ein Peptid innerhalb des zur Fragmentierung ausgewählten Massenfensters sein. In solchen gemischten MS/MS-Spektren werden fälschlicherweise Reporterionen, die von Peptiden verschiedener Proteine ​​stammen, zur Quantifizierung kombiniert.

2.5 Proteinidentifikation

Obwohl für jedes der „-omics“-Felder genaue und zugängliche Datenbanken benötigt werden, ist die Proteomik vielleicht am stärksten von diesen Ressourcen abhängig. Die Technologien zur Identifizierung und Quantifizierung von Proteinen sind auf umfassende Datenbanken zur Proteinidentifizierung und Peptidquantifizierung angewiesen. Diese Datenbanken fallen nicht direkt in den Bereich der Systembiologie, bilden aber eine Grundlage für letztere Analysen, da die Pflege und Pflege dieser Datenbanken für die korrekte Identifizierung und Quantifizierung der untersuchten Proteine ​​unerlässlich ist.

Für funktionale und sequenzbasierte Datenbanken ist UniProt eine der umfassendsten. UniProt besteht aus mehreren Klassifikationen: Swiss-Prot und TrEMBL enthalten Sequenz- und Funktionsinformationen zu Proteinen, UniRef und UniParc enthalten Sequenz- und archivierte Sequenzaufzeichnungen und, falls verfügbar, unterstützende Daten wie Literaturhinweise und querverwiesene Datenbanken. 23 Programme wie Mascot, SEQUEST oder X!Tandem durchsuchen FASTA-Proteinsequenzen aus öffentlichen Datenbanken wie UniProt. Nach der Ausführung eines ‘in silico Fragmentation“ mit bekannter Enzymspezifität werden die Peakmassenlisten mit Intensitäten (die experimentellen Daten) gegen die in silico-fragmentierte Datenbank. Die Massen der Elternionen werden gegen die aus den Datenbanksequenzen abgeleiteten Massen abgetastet. Bei Übereinstimmung innerhalb einer bestimmten Massentoleranz werden die beobachteten MS/MS-Spektren dann mit der theoretischen sequenzabgeleiteten Ionenserie verglichen. Obwohl hier nicht ausdrücklich darauf eingegangen, geben die Rezension und der Kommentar von Noble und MacCoss 24 einen Einblick in diese Methoden und Techniken. Die Bewertungsalgorithmen können zu unterschiedlichen Ergebnissen führen und die Abhängigkeit von Einzelpeptididentifikationen in großen Datensätzen ist eine potenzielle Ursache für falsche Identifikationen. Die meisten proteomischen Studien berichten nur über Identifizierungen mit mindestens zwei einzigartigen Peptiden oder umfassen die MS/MS-Spektren für die Identifizierung einzelner Peptide.


Methoden

Pflanzenmaterial und Probenahme

In dieser Studie wurde die chinesische Elite-Maissorte Denghai 661 (DH351/DH372) verwendet. Das Saatgut wurde von Shandong Denghai Seeds Co., Ltd. (Laizhou, China) erhalten. Die Pflanzen wurden während der Maisanbausaison auf der Versuchsfarm der Shandong Agricultural University, Taian (36°10′E, 117°04′N), China, gezüchtet. Pflanzen, die am selben Tag blühen, wurden markiert und künstlich selbstbestäubt. Neun Ohren wurden in jedem Stadium von 3, 5, 10, 15, 20, 30, 40 und 50 DAP gesammelt. Um die Gleichmäßigkeit des Materials zu erhöhen, wurden befruchtete Körner aus dem mittleren Teil jeder Ähre entnommen. Für jede Stufe wurden drei Proben hergestellt, indem eine gleiche Anzahl von Körnern von drei Kolben gemischt wurde. Die Proben wurden sofort bei -80 ° C bis zur Proteinextraktion gelagert. Frischgewicht und Trockengewicht wurden in jeder Kornstufe gemessen. Zur Bestimmung des Gesamtstärkegehalts bzw. der Anzahl der Endospermzellen wurden Körner von 10–50 DAP und 3–30 DAP gesammelt, wie zuvor beschrieben [83].

Proteinextraktion

Getreideproben wurden in flüssigem Stickstoff mit einem Mörser zu feinem Pulver gemahlen und das Pulver wurde in einem 10-fachen Volumen von vorgekühltem Aceton (-20 °C) mit 10 % (v/v) Trichloressigsäure (TCA) suspendiert. Das Homogenat wurde dann nach gründlichem Mischen 2 h bei −20 °C ausgefällt. Das Homogenisat wurde dann 30 min bei 20.000 . zentrifugiert g bei 4 °C, und der Überstand wurde vorsichtig entfernt, das Pellet wurde dreimal mit kaltem Aceton gespült, 30 min bei –20 °C belassen und dann bei 20.000 . zentrifugiert g 30 Minuten bei 4 °C. Die resultierenden Pellets wurden in Lysepuffer gelöst, der 8 M Harnstoff, 30 mM HEPES, 1 mM Polyvinylpolypyrrolidon (PMSF), 2 mM EDTA und 10 mM Dithiothreitol (DTT) enthielt, und dann 5 min beschallt. Der gelöste Proteinextrakt wurde bei 20.000 . zentrifugiert g 30 min bei 4 °C wurde der Überstand gesammelt und mit 10 mM DTT bei 56 °C für 1 h reduziert und dann mit 55 mM Iodacetamid (IAM) für 1 h im Dunkeln alkyliert. Die Mischung wurde unter Verwendung eines 5-fachen Volumens von kaltem Aceton bei -20 °C für 3 h ausgefällt, gefolgt von einer Zentrifugation bei 20.000 g für 30min. Das resultierende Pellet wurde in 0,5 M Triethylammoniumbicarbonat (TEAB)-Puffer mit 0,1 % SDS gelöst, 5 min beschallt und bei 20.000 zentrifugiert g für 30min. Der Überstand wurde zum Flüssigverdau verwendet und die Proteinkonzentration wurde unter Verwendung des Bradford-Assays (Bio-Rad, Hercules, CA, USA) mit BSA als Standard bestimmt.

In Lösungsverdauung und iTRAQ-Markierung

Für jede Probe wurden 3,3 µL Trypsin (1 µg/µL) (Promega, Madison, WI, USA) zu 100 µg Protein in TEAB-Puffer gegeben und die Proteine ​​wurden 24 h bei 37 °C verdaut. Ein frisches Aliquot von Trypsin (1 µl) wurde zugegeben und die Probe wurde erneut für 12 h verdaut. Der Niederschlag wurde in 30 µl 0,5 M TEAB gelöst und mit 70 µl Isopropanol vermischt. Anschließend wurden die verdauten Peptide mit iTRAQ-Reagenzien (AB SCIEX, Framingham, MA, USA) gemäß den Anweisungen des Herstellers markiert. Die Getreideproben von 3, 5, 10, 15, 20, 30, 40 und 50 DAP wurden mit den iTRAQ-Reagenzien 113, 114, 115, 116, 117, 118, 119 bzw. 121 markiert. Drei unabhängige biologische Experimente wurden durchgeführt.

SCX und LC-MS/MS

Die gepoolten Peptide wurden in starkem Kationenaustauscher (SCX) Puffer A (10 mM monobasisches Kaliumphosphat (KH .) gelöst2Bestellung4) in 25 % Acetonitril, pH 2,8). Die Mischung wurde mit Phosphorsäure auf pH 3 eingestellt und dann mit einem Hochleistungsflüssigkeitschromatographie-(HPLC)-System (Shimadzu, Kyoto, Japan) fraktioniert, das mit einer auf Siliciumdioxid basierenden SCX-Säule (250 × 4,6 mm, 5 μm, 100 .) ausgestattet war Å, Phenomenex, Torrance, CA, USA). Insgesamt wurden 36 Fraktionen mit einer Flussrate von 1 ml/min mit Puffer B (10 mM KH .) gesammelt2Bestellung4 und 2 M Kaliumchlorid (KCl) in 25 % Acetonitril, pH 2,8) mit folgendem Gradienten: 0 % für 45 min, 0–5 % für 1 min, 5–30 % für 20 min, 30–50 % für 5 min und für 5 min gehalten und 50–100 % für 5 min und gehalten für 10 min. Die Fraktionen wurden mit einem strata-X 33 µm PolyRevStage SPE (Phenomenex) nach Herstellerangaben entsalzt und in einem Zentrifugaldrehzahl-Vakuumkonzentrator lyophilisiert. Dann wurden 30 ul 0,1% Ameisensäure zu jedem getrockneten Fraktionsröhrchen zugegeben und 0,1 ul der wiederaufgelösten Lösung wurde auf die Zielvertiefung einer Anker-Chip-Platte für MALDI-TOF-Tests getüpfelt. Nach dem MALDI-TOF (Bruker Daltonics, Deutschland) Test wurden die 36 Fraktionen entsprechend der Peakfläche zu 16 Endfraktionen zusammengefasst.

Die Massenspektrometrie-Analyse wurde auf einem Dionex Ultimate 3000 Nano LC-System durchgeführt, das mit einem Q-Exactive-Massenspektrometer (Thermo Fisher Scientific, MA, USA) verbunden war. Die Peptidmischungen wurden auf eine Acclaim PePmap C18-Umkehrphasensäule (75 μm × 2 cm, 3 μm, 100 Å, Thermo Scientific) geladen und mit einer Umkehrphasen-C18-Säule (75 μm × 10 cm, 5 μm, 300 Å , Agela Technologies) mit einem Gradienten von 5–80 % (v/v) Acetonitril in 0,1 % Ameisensäure über 45 min bei einer Flussrate von 300 nL/min. Lösungsmittel A war 0,1% Ameisensäure in Wasser. Ein vollständiger Massenspektrometrie (MS)-Scan (350–2000 m/z) wurde im positiven Ionenmodus mit einer Auflösung von 70.000 (bei 200 m/z), einem AGC-Zielwert von 3–6, einer maximalen Ionenakkumulationszeit von 50 ms, Anzahl der Scanbereiche von 1 und dynamischer Ausschluss von 15 s. Informationen über Peptide und Peptidfragmente m/z wurden unter den folgenden Bedingungen erhalten: 20 Fragmentdateien wurden nach jedem vollständigen Scan (MS2-Scan) gesammelt, Fragmentierung mit höherer Kollisionsenergiedissoziation (HCD), ein Isolationsfenster von 2 m/z, vollständiger Scan bei einer Auflösung von 17.500 (bei 200 m/z), Mikroscans von 1, einer maximalen Ionenakkumulationszeit von 100 ms, einer normierten Kollisionsenergie von 28 eV und einem Unterfüllungsgrad von 1 %.

Datenanalyse

Zur Proteinidentifizierung wurden die MS-Rohdateien mit Proteome Discoverer 1.3 (Thermo Fisher Scientific) verarbeitet und mit der hauseigenen MASCOT-Software 2.3.01 (Matrix Science, London, UK) durchsucht. Die aufgenommenen MS/MS-Spektren wurden automatisch gegen ein UniProt-Zeamays Proteindatenbank (86.922 Sequenzen im Dezember 2014). Die Suchparameter waren wie folgt: Trypsin wurde gewählt, da das Enzym mit einer fehlenden Spaltung feste Modifikationen der Carbamidomethylierung von Cysteinresten erlaubte iTRAQ 8-Plex-Modifikation des N-Terminus, K und Y, Gln → Pyro-Glu des N-Terminus und Oxidation Methionin wurden als variable Modifikationen festgelegt. Die Peptidtoleranz wurde auf 15 ppm und die MS/MS-Toleranz auf 20 mmu festgelegt. Mindestens ein einzigartiges Peptid mit einer False Discovery Rate (FDR) von ≤1 % war für die Proteinidentifizierung und Quantifizierungsdatenanalyse erforderlich.


Schau das Video: Proteomics Quantification: iTRAQ (Januar 2023).