Information

Ist es möglich, ein neueres Tiermodell vollständig auf Basis bioinformatischer Studien zu etablieren?

Ist es möglich, ein neueres Tiermodell vollständig auf Basis bioinformatischer Studien zu etablieren?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Ich wollte wissen, ob es möglich ist, einen neuen Organismus als Tiermodell für jede menschliche Krankheit nur mit bioinformatischen Methoden wie NGS und struktureller Bioinformatik zu beweisen.

Nehmen wir zum Beispiel an, Drosophila ist ein Tiermodell für Krankheiten x wie es einiges hat 60-70% Ähnlichkeit in der Gen- und Proteinstruktur. Können wir beweisen, dass ein neuerer Organismus ein besseres Modell für ist? x, wenn es eine höhere Ähnlichkeit, sagen wir 80-85%, zur Gen- und Proteinstruktur des Menschen zeigt?

AKTUALISIEREN (Zuerst habe ich es als Kommentar gepostet! Aber ich denke, das passt hier am besten!)

@David: Danke für deine Antwort! Tatsächlich habe ich mich damit befasst, Großtiermodelle seltener genetischer Störungen: Schafe als phänotypisch relevante Modelle menschlicher genetischer Erkrankungen. Ich bin mehr daran interessiert, die Probleme aufzulisten, wenn wir solche Projekte in unserem Labor starten. Do NGS ist eine Lösung oder auf welchen Teil der Biologie müssen wir uns konzentrieren, damit wir genauer sein können.


Es ist naiv zu glauben, dass das Ausmaß der Proteinähnlichkeit ausreicht, um das beste Tiermodell für eine menschliche Krankheit zu bestimmen. Die Physiologie des Tieres und die Frage nach kompensatorischen Genen sind alles Faktoren, die dazu beitragen.

Wenn das Protein funktionell ähnlich ist, kann es in der Tat irrelevant sein, wenn es in anderen Regionen divergiert hat. Und natürlich gibt es ethische und Kostenüberlegungen - die dem Menschen am nächsten stehenden Tiere sind die Affen!

Ich empfehle Ihnen, nach Literatur zu diesem Thema zu suchen. Es ist nicht mein Fachgebiet, aber Google hat dieses Papier aufgeworfen, in dem es um Modelle für Nierenerkrankungen geht, und zweifellos könnten Sie selbst noch viel mehr finden.


Zielsetzung

Der Verzehr von säurehaltigen Speisen und Getränken gilt als wichtiger Risikofaktor für die Entwicklung von Zahnerosionen. Es gibt einige in vitro und vor Ort Studien zu Risikoindikatoren und präventiver Behandlung wird jedoch seit vielen Jahren die Notwendigkeit eines standardisierten Tiermodells betont. Ziel war es, ein Tiermodell der extrinsischen Zahnerosion zu etablieren, das als Standard für zukünftige Studien dienen kann, um unser Verständnis der Erosion zu verbessern.

Entwurf

Zwei säurehaltige Getränke, Sportgetränk und Cola-Getränk, wurden jungen Mäusen sechs Wochen lang verabreicht. Experimentelle und Kontroll-(Wasser-)Molaren und Schneidezähne wurden herauspräpariert und durch Rasterelektronenmikroskopie (REM) beobachtet. Unterkiefer erste Molaren wurden anschließend quer geschliffen und erneut durch REM beobachtet. Auf den REM-Bildern wurden Zahnhöhe und Schmelzdicke gemessen.

Ergebnisse

Die linguale Oberfläche der Unterkiefermolaren war nach dem Verzehr von sauren Getränken am stärksten erodiert. Das Cola-Getränk zeigte im Vergleich zu Sportgetränken eine höhere erosive Wirkung auf die Backenzähne des Unterkiefers. Die Lingualzahnhöhe war im Vergleich zur Kontrolle um etwa 34 % bzw. 18 % niedriger bei den Molaren des Cola-Getränks und des Sportgetränks. Im Vergleich zu den Kontroll-Molaren war der linguale Schmelz bei den Sportdrink-Molaren um etwa 23% dünner und an bestimmten lingualen Bereichen der Cola-Drink-Molaren vollständig erodiert.

Schlussfolgerungen

Dieses neue Tiermodell der extrinsischen Zahnerosion und die vorgestellte Methode mit im SEM beobachteten geschliffenen Backenzähnen eignen sich für weitere Studien, die tiefere Einblicke in die erosive Erkrankung gewinnen werden.


Auswahl des richtigen Tiermodells für die Nierenkrebsforschung

Der Anstieg der Lebenserwartung von Patienten mit Nierenzellkarzinom (RCC) im letzten Jahrzehnt ist auf Veränderungen im Bereich der präklinischen Studien zurückzuführen. Das Verständnis der Pathophysiologie von Krebs und das Aufkommen neuer therapeutischer Optionen, einschließlich der Immuntherapie, wären ohne entsprechende Forschung nicht möglich. Bevor neue Ansätze zur Behandlung von Krankheiten entwickelt und in die klinische Praxis eingeführt werden, müssen ihnen präklinische Tests vorausgehen, bei denen Tierversuche eine bedeutende Rolle spielen. Dieser Review beschreibt die Fortschritte bei der Entwicklung von Tiermodellen in der Nierenkrebsforschung, angefangen bei den ältesten syngenen oder chemisch induzierten Modellen über genetisch veränderte Mäuse bis hin zu Xenotransplantaten, insbesondere von Patienten, Avataren und humanisierten Mausmodellen. Da es eine Reihe von Subtypen des RCC gibt, ist es unser Ziel, bei der Auswahl des richtigen Tiermodells für einen bestimmten Nierenkrebs-Subtyp zu helfen. Die Daten zu genetischen Hintergründen, biochemischen Parametern, Histologie, verschiedenen Stadien der Karzinogenese und Metastasierung in verschiedenen Tiermodellen des RCC sowie deren translationale Relevanz werden zusammengefasst. Darüber hinaus beleuchten wir bildgebende Verfahren, die helfen können, die Mikrostruktur des Tumors zu definieren, bei der Analyse seiner metabolischen Veränderungen zu helfen und die Metastasenentwicklung zu verfolgen.


2 METHODEN

2.1 Datenaufbereitung

Eine vollständige Beschreibung des Versuchsdesigns, der Datensatzgenerierung und -verarbeitung findet sich in ( Poussin et al., 2014). Kurz gesagt wurden 19 Phosphoproteine, 22 Zytokine und genomweite mRNA-Spiegel unter 52 verschiedenen Stimuli oder Dulbecco's Modified Eagle's Medium (DME) Kontrollbehandlungen (in dreifacher Ausführung) gemessen. Tabelle 1. Das Experiment wurde in zwei Teilen durchgeführt: 40 Stimuli in der ersten Versuch und 12 im zweiten. In jedem Teil wurden primäre NHBE- und NRBE-Zellen gezüchtet und der angegebenen Anzahl von Stimuli ausgesetzt. Die Zellen wurden zu verschiedenen Zeitpunkten gesammelt und lysiert: 5 und 25 min. Für Phosphoproteinmessungen 6 h für Genexpressionsmessungen und 24 h für Zytokinmessungen. Alle Zellen wurden Stimuli in dreifacher Ausführung ausgesetzt, und DME-Kontrollen wurden in 4-, 5- oder 6-fach durchgeführt.

Datensatz. Zustand . Anzahl der Replikate . Anzahl der Messungen . Zeitpunkte) . Gesamtgröße .
Phospho-Proteomik 52 Reize 3 biologische Replikate 18 Phosphoproteine 5 Minuten 10 000+ Datenpunkte
25 Minuten
mRNA-Expression 20 000 menschliche Gene 6 Stunden 330+ CEL-Dateien
19 000 Rattengene
Zytokinspiegel 22 Zytokine 24 Stunden 7000+ Datenpunkte
Datensatz. Zustand . Anzahl der Replikate . Anzahl der Messungen . Zeitpunkte) . Gesamtgröße .
Phospho-Proteomik 52 Reize 3 biologische Replikate 18 Phosphoproteine 5 Minuten 10 000+ Datenpunkte
25 Minuten
mRNA-Expression 20 000 menschliche Gene 6 Stunden 330+ CEL-Dateien
19 000 Rattengene
Zytokinspiegel 22 Zytokine 24 Stunden 7000+ Datenpunkte
Datensatz. Zustand . Anzahl der Replikate . Anzahl der Messungen . Zeitpunkte) . Gesamtgröße .
Phospho-Proteomik 52 Reize 3 biologische Replikate 18 Phosphoproteine 5 Minuten 10 000+ Datenpunkte
25 Minuten
mRNA-Expression 20 000 menschliche Gene 6 Stunden 330+ CEL-Dateien
19 000 Rattengene
Zytokinspiegel 22 Zytokine 24 Stunden 7000+ Datenpunkte
Datensatz. Zustand . Anzahl der Replikate . Anzahl der Messungen . Zeitpunkte) . Gesamtgröße .
Phospho-Proteomik 52 Reize 3 biologische Replikate 18 Phosphoproteine 5 Minuten 10 000+ Datenpunkte
25 Minuten
mRNA-Expression 20 000 menschliche Gene 6 Stunden 330+ CEL-Dateien
19 000 Rattengene
Zytokinspiegel 22 Zytokine 24 Stunden 7000+ Datenpunkte

mRNA-Proben aus dem ersten Experiment wurden in drei Chargen verarbeitet. Jede Charge enthielt Human- und Ratten-mRNA für eine Untergruppe von Stimuli. DME-Kontroll-mRNA-Proben (vier Replikate) wurden für jede Charge gemessen. Für das zweite Experiment wurden alle mRNA-Proben zusammen verarbeitet, einschließlich der DME-Kontroll-mRNA-Proben (fünf Replikate). Chips von geringer Qualität wurden nach der Analyse der Qualitätskontrolle (QC) ausgeschlossen. Alle verbleibenden Expressionsdaten, einschließlich zwei bis drei Replikate pro Stimulus, wurden unter Verwendung von GC-robuster Multiarray-Mittelung innerhalb der Spezies normalisiert. Sondensätze wurden unter Verwendung von Affymetrix-Annotationen auf Gensymbole kartiert: HG-U133 Plus 2 (na33) und Rodent 230 2.0 (na32) für Mensch bzw. Ratte. Probesets, die auf mehrere Gene kartiert wurden, wurden ausgeschlossen. In Fällen, in denen mehrere Sondensätze auf das gleiche Gen kartiert wurden, wurde der Sondensatz mit der höchsten durchschnittlichen Expression über alle experimentellen Bedingungen als repräsentativ ausgewählt. Diese qualitativ hochwertigen normalisierten Genexpressionsdaten im Gensymbol-Namensraum wurden den Teilnehmern zur Verfügung gestellt.

Der Proteinphosphorylierungsstatus wurde unabhängig für jeden Versuchsteil in Zelllysaten gemessen, die nach 5 und 25 Minuten gesammelt wurden (in Triplikaten) unter Verwendung von Luminex xMap (Dunbar, 2006). Experimentteil 1 und 2 haben 6 bzw. 5 DME-Regler. Nach der QC wurden 16 Phosphoproteine ​​für die Herausforderung aufbewahrt. Die Daten wurden unter Verwendung einer robusten Regression normalisiert, und normalisierte Werte wurden als das Verhältnis der Residuen zum quadratischen Mittelwert der Anpassung bereitgestellt. Zytokindaten wurden auf ähnliche Weise verarbeitet, obwohl eine Normalisierung durchgeführt wurde, indem die Z-Score jedes Zytokins über alle Stimuli innerhalb einer experimentellen Charge, einschließlich DME-Kontrollen.

Alle Daten wurden durch Stimulusbehandlung in zwei gleiche Gruppen, Untergruppen A und B, aufgeteilt, um sie zum Trainieren und Testen von Methoden zu verwenden. Um ähnliche Signalverteilungen in beiden Teildatensätzen sicherzustellen, wurden Stimuli durch einen datengesteuerten Ansatz getrennt, der Stimuli nach Phosphorylierungsgrad, Genset-Aktivierung, Genexpression (GEx) Batch und differentieller Genexpression gruppiert. Für jeden Cluster wurden Stimuli zufällig der Untergruppe A oder B zugeordnet.

Orthologe wurden mithilfe des HGNC-Vergleichs von Orthologievorhersagen (heruntergeladen am 19. Dezember 2012) identifiziert. Es wurden nur Gensymbol-Mappings zwischen Mensch und Ratte verwendet. Insgesamt 12 458 Orthologe waren zwischen menschlichen und Ratten-Affymetrix-Arrays nach der Kartierung von Sondensätzen auf Gensymbole üblich.

Gensets basierten auf der C2CP (Canonical Pathways) Sammlung von MSigDB v3.1 des Broad Institute (Subramanian et al., 2005). Diese Sammlung wurde gefiltert, um hochredundante Gensätze zu entfernen, d. h. überlappende Gensätze mit vielen gemeinsamen Mitgliedern, um sicherzustellen, dass die verbleibenden Gensätze so viele Wege/biologische Funktionen wie möglich abdecken. Die resultierenden 246 Gensets wurden für das STC verwendet. Die Gen-Set-Anreicherungsanalyse (GSEA) wurde durchgeführt, um die Ko-Regulierung von Genen zu beurteilen, die für Stoffwechselwege/biologische Funktionen repräsentativ sind. Für die Analyse wurden die Gene basierend auf berechneten LIMMA-t-Werten geordnet, die die jeweilige DME-Kontrolle mit den Stimulusbedingungen verglichen (Smyth, 2004). LIMMA wurde mit dem lmFit und eBays Funktionen aus dem limma R-Paket für die R Statistical Language mit Standardparametern. Die Designmatrix wurde konstruiert, um die chargenspezifische DME-Kontrolle mit jedem Stimulus einzeln zu vergleichen. Berechnete NES- und zugehörige Signifikanzwerte für jeden Gensatz waren ein Hinweis auf die Aktivierung/Störung (Zunahme oder Abnahme) von Signalwegen/biologischen Funktionen durch jeden Stimulus in NHBE- und NRBE-Zellen (Subramanian et al., 2005). GSEA-Größenparameter waren Mindest = 15 und max = 500. GSEA NES und FDR q-Werte wurden den Teilnehmern zur Verfügung gestellt.

2.2 Wertung

Unterherausforderungen 1 (SC1), 2 (SC2) und 3 (SC3) wurden als binäre Klassifikationsprobleme gewertet. Ausgehend von dem Postulat, dass keine einzelne Metrik alle Attribute einer Vorhersage erfasst, haben wir zur Auswertung ein Aggregat von drei Metriken verwendet. Die Metriken wurden von IBM-Teammitgliedern vorgeschlagen, und ein unabhängiges Expertengremium, bestehend aus dem External Scoring Panel (ESP), entschied über den endgültigen Bewertungsansatz. Die Teilnehmeridentitäten wurden für das IBM-Team, das die Einreichungen bewertete, anonymisiert. Fünf weitere Metriken wurden berücksichtigt, aber als redundant für die drei ausgewählten abgelehnt. Die Details dieser Metriken wurden den Teilnehmern bis zum Ende der Challenge nicht bekannt gegeben, um zu vermeiden, dass die Methodenentwicklung in Richtung einer Optimierung für die Scoring-Funktion beeinflusst wird, anstatt die gestellte wissenschaftliche Frage zu lösen. Diese Praxis entspricht anderen Herausforderungen bei der Vorhersagebewertung, wie CASP, DREAM und einer früheren Iteration von sbv IMPROVER.

Wir haben nicht-redundante Metriken verwendet, die drei verschiedene Qualitäten einer Vorhersage hervorheben: Schwellenwert gegenüber Nicht-Schwellenwert, ordnungsbasiert vs. Die ausgewählten Metriken wurden auch ausgewählt, um lohnende pathologische Vorhersagen zu vermeiden, z. vorhersagen, dass alle Elemente einer Klasse angehören. Um die Auswahl der Metriken weiter zu erschweren, waren die Mengen beider Klassen (aktiv und inaktiv) im STC unausgewogen, wobei aktive Fälle nur ∼ 10 % aller Fälle ausmachten.

Die Teilnehmer mussten je nach Unterherausforderung Konfidenzwerte für ihre Vorhersagen des Proteinphosphorylierungsstatus oder der Gensatzaktivierung (Zunahme oder Abnahme) für einen gegebenen Stimulus angeben. Konfidenzwerte können zwischen 0 und 1 liegen, wobei 1 die volle Konfidenz eines aktivierten Elements (entweder hoch- oder herunterreguliert) und 0 für die volle Konfidenz der Inaktivierung darstellt. Ein binarisierter Goldstandard (GS) wurde für den Proteinphosphorylierungsstatus und die Gensatzaktivierung entwickelt. Für das Phosphoprotein GS wurden normalisierte Expressionsniveaus, die der Standardabweichung einer Normalverteilung ähneln, mit einem Absolutwert von ≥3 als aktiv angesehen, wie von der ESP vereinbart. In ähnlicher Weise wurden für die Genset-Aktivierung GSEA-FDR-q-Werte ≤0,25 als aktiv bezeichnet, wie von GSEA empfohlen.

Die vorgelegte Vorhersagematrix (Stimuli versus Protein- oder Geneset-Reaktion) hätte spaltenweise oder zeilenweise bewertet und dann zusammengefaßt werden können. Angesichts der spärlichen GS sowohl für den Proteinphosphorylierungsstatus als auch für die Gensatzaktivierung entschieden wir uns jedoch (in Übereinstimmung mit dem ESP), die Matrix in einen Vektor zum Scoring umzuwandeln, d. h. Spalten der Matrix wurden verbunden, um einen einzelnen Vektor zu erhalten.

2.2.1 Metrikbeschreibungen

Bereich unter der PräzisionRückrufkurve (AUPR) ist ein bekanntes Maß für die Klassifikatorleistung. Eine Liste von Elementen ist nach absteigendem Konfidenzwert geordnet (wird nur für das Ranking und nicht direkt in der Metrik verwendet). Die Liste wird entsprechend den zunehmend permissiven Konfidenzschwellen durchquert, und die Präzision (Anteil der korrekten „aktiven“ Vorhersagen) wird gegen den Rückruf (Anteil der richtig vorhergesagten „aktiven“ Klassenmitglieder) aufgetragen. Die Fläche unter dieser Präzisions-Erinnerungs-Kurve ist der AUPR-Wert und wird durch eine einzelne Zahl dargestellt, die den Kompromiss zwischen beiden Maßen zusammenfasst.

wo TP ist die Anzahl der True Positives, P ist die Gesamtzahl der positiven, TN ist die Anzahl der wahren Negative und n ist die Gesamtzahl der Negative. Für den STC haben wir einen Konfidenzschwellenwert von 0,5 verwendet, um die Vorhersagen entweder als positiv (≥0,5) oder negativ (<0,5) zu binarisieren.

Der Einfachheit halber beziehen wir uns auf PCCnormalisiert als PCC in Bezug auf die Herausforderungsbewertungsmetrik.

2.2.2 Aggregation von Metriken

Ein Rangsummenschema zur Aggregation von Bewertungsmetriken wurde vom IBM-Team zusammen mit einer Alternative vorgeschlagen und vom ESP ausgewählt, da es jede Metrik gleich gewichtet, um ein Gesamtranking zu erstellen. Dieses Rangsummenschema bestand aus der Rangfolge aller Teams innerhalb jeder jeweiligen Metrik. Der Gesamtrang eines Teams wurde dann berechnet, indem der Rang über diese drei Metriken summiert wurde. Diese Rangsumme wurde für die endgültige Reihenfolge der Teilnehmer verwendet, wobei die Besten die niedrigste Rangsumme erreichten. Um die Robustheit dieser Rankings zu bestimmen, wurde Bootstrapping durchgeführt, um sicherzustellen, dass die besten Performer nicht sehr empfindlich auf die genaue Konfiguration von GS reagieren. GS wurde 1000-mal ersatzlos abgetastet und die Rankings jedes Mal neu berechnet. Angesichts des unausgewogenen Charakters von GS war das Bootstrapping darauf beschränkt, das gleiche Verhältnis von aktiven gegenüber inaktiven Artikeln wie im gesamten GS beizubehalten.

2.3 Statistische Signifikanz von Metriken

Die Nullverteilung für jede Metrik in SC1-3 wurde durch Bewerten von 10 6 zufälligen Vorhersagen generiert. Um die Konfidenzen einer zufälligen Einreichung zu generieren, muss eine einheitliche Zufallszahl R (0R1) wurde für jedes „Element“ generiert.

FDRs wurden für jede Metrik mit der Funktion R (Computing, 2013) berechnet p.justieren mit dem Methode = ‚fdr‘, das die Benjamini und Hochberg (1995)-Korrektur berechnet.

Um eine Punktzahl zu berechnen P-Wert für jede der Metriken haben wir die Anzahl der zufälligen Vorhersagen gezählt, die besser oder gleich der beobachteten Punktzahl waren, und durch die Anzahl der simulierten Vorhersagen geteilt. Die FDR-Korrektur (Benjani und Hochberg, 1995) wurde auf die P-Wert, und ein Wert von ≤ 0,05 wurde als statistisch signifikant angesehen.

Die Maßnahme S stellt die Gesamtantwortähnlichkeit zwischen menschlichen h und Ratte R GS und ist ein Matthews-Korrelationskoeffizient (MCC). Der MCC repräsentiert eine Pearson-Korrelation zwischen zwei binären Vektoren. Ein hoch S Wert würde eine mutmaßlich konservierte Antwort und ein Signal anzeigen, von dem erwartet wird, dass es übersetzbar ist. Ähnlichkeitsmaße können auch pro Stimulus berechnet werden SS = Kundencenter(RS, hS), wo RS und hS sind binäre Vektoren von Phosphoprotein- oder Genset-Reaktionen auf Stimulus S pro Phosphoprotein SP = Kundencenter(RP, hP), wo RP und hP sind binäre Vektoren von Antworten auf Stimuli für Phosphoprotein p und pro Gensatz Sg = Kundencenter(Rg, hg), wo Rg und hg sind binäre Vektoren von Antworten auf Stimuli für den Gensatz g.

Vorhersagbarkeit Pr stellt die allgemeine Ähnlichkeit oder Übereinstimmung zwischen dem GS und den Vorhersagen eines Teams oder der Gesamtheit der Vorhersagen eines Teams dar T, und ist ein MCC. Ein hoch Pr Wert würde eine gute Vorhersageleistung anzeigen und dass die Reaktion vorhersehbar war. Mögen S, Pr kann pro Stimulus Pr . berechnet werdenS = Kundencenter(GSS, TS), wo GSS und TS sind binäre Vektoren von vorhergesagten Phosphoprotein- oder Genset-Reaktionen auf Stimulus S pro Phosphoprotein PrP = Kundencenter(GSP, TP), wo GSP und TP sind binäre Vektoren vorhergesagter Reaktionen auf Stimuli für Phosphoprotein P und pro Gensatz Prg = Kundencenter(GSg, Tg), wo GSg und Tg sind binäre Vektoren vorhergesagter Reaktionen auf Stimuli für den Gensatz g.

Die empirische P-Werte für das Vorhandensein von Genen in überlappenden Gensets wurden berechnet, indem 10 5 Mal Stichproben gezogen wurden, wobei eine Gruppe von 25 Gensets von 246 Gensets ausgewählt wurde. Die Häufigkeit, mit der ein Gen Mitglied der 25 zufällig ausgewählten Gensätze ist, wird aufgezeichnet. Die P-Wert erhält man, indem man die Häufigkeit teilt, in der mindestens ein Gen gefunden wurde x Gensätze um 10 5 .


Histologische Aspekte des „Fixed-Particle“-Modells der Gesteinsbildung: Tierstudien

Die Kristallisation an sich ist nicht schädlich, solange die Kristalle nicht in den Nieren zurückgehalten werden und ungehindert die Nierentubuli zur Ausscheidung mit dem Urin passieren können. Es wurden eine Reihe von Theorien vorgeschlagen und Studien durchgeführt, um die Mechanismen zu bestimmen, die an der Kristallretention in den Nieren beteiligt sind. Es wurde vermutet, dass die Harnpassage durch das Nephron zu schnell ist, als dass Kristalle groß genug werden könnten, um zurückgehalten zu werden. Somit kann der Freie-Partikel-Mechanismus allein nicht zur Steinbildung führen, und es muss einen Mechanismus zur Kristallfixierung innerhalb der Nieren geben. Tiermodellstudien legen nahe, dass eine Kristallretention sowohl durch den Mechanismus der freien als auch der fixierten Teilchen möglich ist. Die Kristall-Zell-Interaktion führt zu pathologischen Veränderungen, die die Kristallanhaftung an Epithelzellen oder deren Basalmembran fördern. Alternativ aggregieren Kristalle und produzieren Partikel, die groß genug sind, um die Tubuli zu blockieren, insbesondere an Stellen, an denen der Harnfluss aufgrund von Änderungen des Lumendurchmessers der Tubuli beeinträchtigt ist. Kristallablagerungen, die die Öffnungen der Gänge von Bellini verstopfen, können die Folge eines solchen Phänomens sein. Intratubuläre Kristalle, die in das renale Interstitium translozieren, können osteogene Veränderungen in den Epithel- oder Endothelzellen hervorrufen, die zur Bildung von Randall-Plaques führen. Daher scheint die Fixierung entweder durch die Bildung von Randall-Pfropfen, Kristallpfropfen, die die Öffnungen der Bellini-Gänge oder subepithelialen Kristallablagerungen verstopfen, und den Randall-Plaques zu erfolgen.

Dies ist eine Vorschau von Abonnementinhalten, auf die Sie über Ihre Institution zugreifen können.


Schlussfolgerungen

In der vorliegenden Arbeit haben wir eine neue Methode zum Vergleich von speziesübergreifenden Genexpressionsmodulen eingeführt, um das Beste aus den Expressionsdaten von Tieren zu machen und die Wirksamkeit von Tiermodellen in der Arzneimittelforschung zu analysieren. Durch die Untersuchung der Beziehungen zwischen Wirkstoffmolekülen und Maus-Krankheitsmodellen war unsere Methode in der Lage zu beurteilen, ob das entsprechende Modell die wesentlichen Merkmale der menschlichen Krankheit rekapituliert. Wenn ja, könnte dieses Modell für das Screening von Wirkstoffmolekülen oder sogar für die systematische Erprobung neuartiger Therapien geeignet sein. Darüber hinaus könnte unsere Methode durch Datenintegration einige aussagekräftige Informationen für die Arzneimittelforschung gewinnen, wie potenzielle Arzneimittelkandidaten, mögliche Arzneimittelumlagerungen, Nebenwirkungen und Informationen zur Pharmakologie.


Danksagung

Die Autoren danken P. Bieniasz und R. Desrosiers für die kritische Durchsicht dieses Manuskripts. Die Autoren danken auch P. Marx für die Bereitstellung der in Tabelle 1 enthaltenen Daten sowie A. Halper-Stromberg und R. Liberatore für ihre Hilfe bei Abbildung 1 und Lektionen in der Anatomie der Maus. Die Autoren erkennen an und bedauern, dass eine Reihe wichtiger Studien aus Platzgründen nicht zitiert werden. NS. wird durch die Zuschüsse AI078788 und AI093255 des US-amerikanischen Gesundheitsministeriums (PHS) unterstützt. D.T.E. wird durch die PHS-Zuschüsse AI087498, AI095098, AI098485 und RR000168/OD011103 unterstützt und ist Elizabeth Glaser Scientist der Elizabeth Glaser Pediatric AIDS Foundation.


Unbeantwortete klinische Fragen bei Herzinsuffizienz

Es ist weitgehend unbekannt, ob die individuellen Veränderungen der Genexpression und Physiologie, die bei Patienten mit Herzinsuffizienz beobachtet werden, adaptiv oder maladaptiv sind und wie sich dies mit der Entwicklung der Krankheit ändert. Weitere Fragen sind, ob es neuartige Biomarker gibt (Lainscak und Anker, 2009) und welche Bildgebungsmodalitäten optimal sind, um die klinische Entscheidungsfindung bei Herzinsuffizienzpatienten zu erleichtern.

Zwei offensichtliche Mängel stehen der Entwicklung neuer Therapien für die Herzinsuffizienz entgegen: (1) eine hochauflösende, longitudinale Phänotypisierung von Herzinsuffizienzpatienten (dh in mehreren Stadien der Krankheitsentwicklung) wurde noch nicht durchgeführt und (2) die Entwicklung neuer Tiermodelle, die die medizinische Behandlung von Herzinsuffizienz besser nachahmen, und die üblichen Ursachen von Herzinsuffizienz (wie Fettleibigkeit und Bluthochdruck), die mit der Behandlung interagieren, würden die Konvergenz zwischen klinischen und Tiermodellierungsbereichen erleichtern. Angesichts der enormen Fortschritte in unserem Verständnis der Biologie von Mäusen wären Mausmodelle wohl am nützlichsten, um diese Fragen zu beantworten.


Eine systematische Überprüfung von Tiermodellen des durch Nichtgebrauch verursachten Knochenverlusts

Mehrere verschiedene Tiermodelle werden verwendet, um den durch Nichtgebrauch induzierten Knochenverlust zu untersuchen. Diese systematische Übersichtsarbeit soll einen umfassenden Überblick über die Tiermodelle des durch Nichtgebrauch induzierten Knochenverlusts geben und eine detaillierte narrative Synthese jedes einzelnen Tiermodells liefern.

Methoden

PubMed und Embase wurden von der Einführung bis zum 30. November 2019 systematisch nach Tiermodellen der Nichtnutzung durchsucht. Darüber hinaus wurden Google Scholar- und Personalaktenarchive nach relevanten Publikationen durchsucht, die nicht in PubMed oder Embase indiziert sind. Zwei Gutachter überprüften unabhängig voneinander Titel und Abstracts auf Volltexteinbindung. Die Daten wurden unter Verwendung eines vordefinierten Extraktionsschemas extrahiert, um eine Standardisierung sicherzustellen.

Ergebnisse

1964 wurden Titel und Abstracts gesichtet, davon 653 Volltextartikel. Die am häufigsten verwendeten Tierarten, die zum Modellieren von Nichtgebrauch verwendet wurden, waren Ratten (59 %) und Mäuse (30 %). Männer (53 %) wurden in den meisten Studien verwendet und gentechnisch veränderte Tiere machten 7 % aus. Zwölf verschiedene Methoden zur Induktion von Nichtgebrauch wurden identifiziert. Die am häufigsten verwendeten Methoden waren die Entlastung der Hinterbeine (44%), Neurektomie (15%), Bandagen und Orthesen (15%) und Botulinumtoxin (9%). Die mediane Nichtnutzungszeit betrug 21 Tage (Quartile: 14 Tage, 36 Tage) und die mediane Anzahl der Tiere pro Gruppe, die einer Nichtnutzung ausgesetzt waren, betrug 10 (Quartile: 7, 14). In 43 % der Studien wurde über eine zufällige Gruppenzuteilung berichtet. Weniger als 5 % der Studien begründeten die Anzahl der Tiere pro Gruppe durch eine Berechnung der Stichprobengröße, um eine ausreichende statistische Aussagekraft zu gewährleisten.

Abschluss

Es gibt mehrere Tiermodelle für durch Nichtgebrauch induzierten Knochenverlust, und mehrere Tierarten wurden erfolgreich untersucht. Die Komplexität des durch Nichtnutzung induzierten Knochenverlusts rechtfertigt starre Forschungsstudiendesigns. Diese systematische Überprüfung betonte die Notwendigkeit einer Standardisierung der Forschung und Berichterstattung über den Nichtgebrauch von Tieren.


    zu Tierethik, Kantianismus und Utilitarismus zu Überlegungen zu Preiselastizität und Lieferkettenpuffern zu unseren Pflichten gegenüber unbelebten Objekten, in Dialogform , II und III zu einer Kantischen Konsumethik über Moralsysteme als statistische Modelle über Nächstenliebe, Moralsysteme und moralische Intuition
    über Objektivität und Subjektivität in der Kunst über den Sinn des Lebens, in der Kunst und im Werk von Gerald Murnane über Helena Munktell, Jehan Alain, Harold Shapero und Arnold Rosner


Schau das Video: POJMENOVAL PO MNĚ NOVÉ ZVÍŘE - FORTNITE KEŘDDIT (Dezember 2022).