Information

Alternativen zu Fittest-Win- und Moran-Prozessen als einfache mathematische Auswahlmodelle

Alternativen zu Fittest-Win- und Moran-Prozessen als einfache mathematische Auswahlmodelle


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Wenn ich selektive Sweeps als Mikrobaustein in Modellen der Makroevolution modelliere (nicht zu verwechseln mit Missbrauch in kreationistischen Argumenten), verwende ich das Fittest-Win-Modell der Auswahl als erste Näherung oder das Moran-Prozessmodell, wenn ich a sinnvollere Näherung.

Im Fittest-Win-Modell beträgt die Wahrscheinlichkeit für eine Mutante der Fitness r, in eine Wirtspopulation der Fitness 1 einzudringen, 100 %, wenn r > 1 und ansonsten 0. Im Moran-Prozessmodell dringt die Mutante der Fitness r mit der Wahrscheinlichkeit $frac{1 - r^{-1}}{1 - r^{-n}}$ für eine endliche Population ein. Alternative im Grenzfall, da n unendlich wird, dringt eine Mutante mit r > 1 mit Wahrscheinlichkeit $1 - frac{1}{r}$ und sonst 0 ein.

Im Allgemeinen interessiere ich mich für einfache Selektionsmodelle einer einzelnen (oder kleinen Konzentration von) Mutante, die in eine asexuelle Wirtspopulation der Fitness 1 eindringt (mit konstanter Fitness und unabhängig von der Häufigkeit). Gibt es andere gängige mathematische Modelle für die Auswahl dieser Art?


Ich kann vorschlagen, einen Blick auf spieltheoriebasierte Modelle und ihre Verallgemeinerung von homogener räumlicher Verteilung zu netzwerkähnlichen Modellen zu werfen. Eine einfache Rezension findet sich in Martin A. Nowaks Evolutionäre Dynamik (Harvard-Presse 2006).

Insbesondere kann man den klassischen Moran-Prozess als ein evolutionäres Graphenspiel sehen, das auf einem vollständigen Graphen mit identischen Gewichten abläuft. Das Ändern der Topologie des Graphen kann zu anderen Ergebnissen führen, obwohl dies nicht notwendig ist (und es gibt Ergebnisse, die zeigen, dass sich ein Graph in diesem Fall wie ein Moran-Prozess verhält).

Graphbezogenes Verhalten ist, d. h. Unterdrückung oder Verstärkung der Auswahl…


Integration biologischer und mathematischer Modelle zur Erklärung und Überwindung von Arzneimittelresistenzen bei Krebs, Teil 2: Von der theoretischen Biologie zu mathematischen Modellen

Trotz des Versprechens einer zielgerichteten Krebstherapie (d. h. Medikamente, die auf bestimmte Signalwege abzielen, die für das Überleben und die Vermehrung von Krebszellen wichtig sein sollen), sind unerwartete Behandlungsversagen in der Klinik häufig. Die Heterogenität von Tumorzellen, die aus der Plastizität einzelner Krebszellen und/oder evolutionärer Dynamik resultieren kann, hat gezeigt, wie wichtig es ist, Krebs auf der Ebene der gesamten Zellpopulation zu untersuchen. Hier erforschen wir mathematische Modelle, die die Tumordynamik unter dem Druck von Krebsmedikamenten beschreiben, indem wir die Heterogenität der Krebszellpopulation und das evolutionäre Verhalten integrieren. Darüber hinaus erforschen wir mathematische Modellierung als theoretisches Werkzeug zur Analyse und Vorhersage des Verhaltens von Krebszellpopulationen als Ganzes und nicht nur einzelner Zellen, was neue Hinweise auf Therapieversagen und Wege zu seiner Überwindung aufdecken könnte.

Aktuelle Erkenntnisse

Eine evolutionäre Perspektive, die auf der „atavistischen Krebstheorie“ zusammen mit den sogenannten „kalten Genen“ und der Beteiligung von „Bet Hedging“ bei Tumoren beruht, hat in letzter Zeit unsere Sicht auf die Zellplastizität bei Krebs verändert. Diese neuen Perspektiven bieten eine solide theoretische Grundlage für das Auftreten von Resistenzen in Krebszellpopulationen und ihre mögliche Reversibilität. Es existieren bereits kontinuierliche mathematische Modelle der evolutionären Dynamik proliferativer Zellpopulationen, die die Heterogenität von Krebszellpopulationen berücksichtigen und es ermöglichen, das evolutionäre Potenzial von Krebszellpopulationen zu untersuchen und ihr Verhalten vorherzusagen. Diese Modelle können wiederum verwendet werden, um die Kontrolle des Bevölkerungswachstums zu untersuchen, indem Funktionen (in das mathematische Modell) integriert werden, die die Wirkung von Arzneimitteln auf die Mechanismen darstellen, die die Proliferation antreiben, und darüber hinaus neue therapeutische Strategien in der Krebsklinik vorzuschlagen.

Zusammenfassung

In diesem zweiten Teil unseres Reviews, der unabhängig von Teil I betrachtet werden kann, konzentrieren wir uns auf die Ebene der Zellpopulationen, die als einzige geeignet sind, die Phänotypplastizität in ihren beobachtbaren Konsequenzen auf die Evolution proliferativer Krankheiten vollständig zu berücksichtigen, und auf Heterogenität, die nur im Kontext von Zellpopulationen sinnvoll ist, zusammen mit dem grundlegenden evolutionären Potenzial von Krebszellpopulationen (und nicht nur von einzelnen Krebszellen). Dies sind moderne Ansichten, die sich aus der Übertragung von der Ökologie der Arten auf die Biologie des Krebses ergeben (für weitere Informationen zu Evolution und Krebs wird der Leser auf das kürzlich erschienene umfassende Buch zum Thema Ujvari et al. 2017 verwiesen). Schließlich präsentieren wir einen kurzen Überblick über mathematische Modelle mit ihren Eigenschaften und ihrer Verwendung in Zellpopulationsstudien, um Phänomene zu berücksichtigen, die bei Krebs gefunden werden, wobei der Schwerpunkt auf Arzneimittelresistenz liegt. Wir sind der Meinung, dass ein gutes Verständnis der mathematischen Modelle zur Behandlung der Frage der Arzneimittelresistenz bei Krebs die Mechanismen der Resistenz und ihre Kontrolle aufklären und dabei helfen kann, Prinzipien für biologische Laborexperimente und therapeutische Strategien zu entwickeln in der Krebsklinik angewendet werden.


Mathematische Modellierung der bakteriellen Quorumerkennung: Ein Rückblick

Bakterielles Quorum Sensing (QS) bezieht sich auf den Prozess der bakteriellen Kommunikation von Zelle zu Zelle, der durch die Produktion und Erfassung der lokalen Konzentration kleiner Moleküle, die als Autoinduktoren bezeichnet werden, ermöglicht wird, um die Produktion von Genprodukten (z. B. Enzymen oder Virulenzfaktoren) zu regulieren. Durch Autoinduktoren interagieren Bakterien mit Individuen derselben Spezies, anderen Bakterienarten und mit ihrem Wirt. Zu den QS-regulierten Prozessen, die durch Autoinduktoren vermittelt werden, gehören Aggregation, Biofilmbildung, Biolumineszenz und Sporulation. Autoinduktoren sind daher „Master“-Regulatoren der bakteriellen Lebensweise. Seit über 10 Jahren versucht die mathematische Modellierung von QS parallel zu experimentellen Entdeckungen, die Mechanismen aufzuklären, die diesen Prozess regulieren. In dieser Übersicht stellen wir die Fortschritte bei der mathematischen Modellierung von QS vor, heben die verschiedenen verwendeten theoretischen Ansätze hervor und diskutieren einige der gewonnenen Erkenntnisse. Die Modellierung von QS hat fast schon von der Beteiligung von Experimentatoren profitiert, da viele der von uns begutachteten Arbeiten in nicht-mathematischen Zeitschriften veröffentlicht wurden. Dieser Aufsatz versucht daher, der mathematisch-biologischen Gemeinschaft einen breiten Überblick über das Thema sowie die aktuellen Modellierungsbemühungen und zukünftige Herausforderungen zu geben.

Dies ist eine Vorschau von Abonnementinhalten, auf die Sie über Ihre Institution zugreifen können.


Resultate und Diskussionen

Deterministisches Modell

Wir betrachten eine haploide asexuelle Population mit überlappenden Generationen (kontinuierliche Zeit). In diesem Abschnitt gehen wir davon aus, dass der Einfluss stochastischer evolutionärer Faktoren wie genetischer Drift vernachlässigbar ist. Es wird davon ausgegangen, dass die betrachtete Population aus zwei Arten von Individuen besteht: solchen, die eine bestimmte neue Sequenz tragen, und solchen, die dies nicht tun. Dies bedeutet, dass der Zustand einer Population in Bezug auf die fragliche neue Sequenz zu einem bestimmten Zeitpunkt T wird vollständig durch zwei Zahlen bestimmt n1(T) und n2(T) (die Zahlen der Individuen des ersten und zweiten Typs im Moment T) oder nur eine Zahl P(T) = n1(T)/(n1(T) + n2(T)), wo P(T) ist der Anteil der Individuen des ersten Typs in der Population.

Die Annahmen des einfachsten Modells sind wie folgt. Eine neuartige Sequenz kann vertikal durch Zellteilung übertragen oder über HGT erworben werden. Die neue Sequenz unterliegt auch einer Mutationsinaktivierung (Punktmutationen, Insertionen und Deletionen) mit einer konstanten Rate du. Wir nehmen an, dass malthusianische Parameter (intrinsische Wachstumsraten) m1 und m2 (Nagylaki 1992). Außerdem nehmen wir an, dass es eine Invasion der Individuen des ersten Typs mit der Rate γ . gibtn wo n ist die Gesamtbevölkerungszahl, n = n1 + n2. In Bezug auf HGT bedeutet Invasion konkret, dass der Erwerb eines bestimmten fremden Gens kein einmaliges Ereignis mit einer vernachlässigbar geringen Wahrscheinlichkeit eines wiederholten Auftretens ist, sondern dass es einen kontinuierlichen Einstrom des fremden Gens gibt, auch wenn er mit einer geringen Rate auftritt .


Ergebnisse

Wir haben insgesamt 114.000 einzelne Simulationen durchgeführt, von denen jede durchschnittlich 17 Minuten benötigt, um auf einem einzelnen CPU-Kern ausgeführt zu werden, wobei 90.000 dieser Simulationen für Schätzungen der Wichtigkeitsstichproben von Gründungs- und Eliminationswahrscheinlichkeiten verwendet wurden. Dies ergab insgesamt 1345 Tage HPC-Rechenzeit mit parallelisierten Läufen, um bis zu 5000 gleichzeitige Simulationen bei maximaler Kapazität durchzuführen. Jeder Simulation wurden 8 GB RAM zugewiesen und auf einem Intel Xeon E5-2670 V3-Prozessor mit 2,6 GHz ausgeführt.

Bei der Beantwortung der vier von dieser Studie vorgeschlagenen Fragen haben wir uns auf eine kleine Reihe von Diagrammen und Tabellen konzentriert, die die folgenden Schlüsselergebnisse demonstrieren:

Welcher Grad an Treue bei der Geschlechtertrennung ist erforderlich?

Um eine sehr geringe Wahrscheinlichkeit (< 0,01) von wAlbB-Ansiedlung in einem einzelnen Vorortblock ist ein FCP von 10 −6 oder weniger ratsam, aber diese Wahrscheinlichkeit ist auch eine Funktion der Anzahl der freigesetzten Mücken und wird von der Freisetzungsstrategie und dem Überflutungsverhältnis beeinflusst. Der Anteil der Simulationen, deren IIT-Endpunkte entweder als erfolgreiche Eliminierung, wAlbB Einrichtung, unbestimmt wAlbB negativ oder unbestimmt wAlbB-positiv sind in Abb. 2 dargestellt. Diese Anteile sind für verschiedene Geschlechtertrennungstreue, Freisetzungsstrategien und Zielpopulationen aufgetragen. Wir beobachteten einen deutlichen Rückgang der Inzidenz von Gründungsereignissen mit niedrigeren FCPs.

Bedeutet die Freilassung einer kleinen Anzahl von Weibchen während eines Wolbachia-IIT-Populationsunterdrückungsprogramms eine hohe Wahrscheinlichkeit der Etablierung von Wolbachia?

Anteile der Simulationen, die entweder zu wAlbB-Etablierung (rot), erfolgreiche Wildtyp-Elimination (grün), unbestimmt wAlbB negativ (blau) und unbestimmt wAlbB positiv (gelb) für Szenarien basierend auf unterschiedlichen FCPs und Freisetzungsstrategien bei 5:1 (obere Reihe) und 15:1 (untere Reihe) Überflutung. Die Ergebnisse legen nahe, dass ein niedrigerer FCP zu höheren Eliminationsraten führt. Beim niedrigeren FCP scheinen die besten Ergebnisse für die konstanten und groben adaptiven Freisetzungsstrategien zu sein

Um die Frage zu klären, ob die versehentliche Freisetzung einer kleinen Anzahl von wAlbB-Frauen führen wahrscheinlich zu einer hohen Wahrscheinlichkeit der Etablierung, wir haben die Simulationen nach ihren IIT-Endpunkten klassifiziert. Abbildung 3 seziert einige dieser simulierten Trajektorien (15:1 Überflutung, mit FCP von 10 −6 und 10 −7 ) auf diese Weise. Die Plots dienen dazu, nützliche Statistiken (Minimum, Median und Maximum) für die Anzahl der freigelassenen Männchen und Weibchen für jede der vier zu liefern Wolbachia-IIT-Endpunkte. Zusätzlich enthalten Abb. 2 und Zusatzdatei A: Tabellen A3.1 und A3.2 Schätzungen der Wichtigkeitsstichproben der wAlbB Gründungswahrscheinlichkeiten. Insbesondere liefert dieser statistische Ansatz statistisch effiziente Schätzungen der Gründungswahrscheinlichkeit, selbst wenn simulierte Gründungsereignisse selten bei einem FCP von 10 –7 angetroffen werden.

Welche Arten von Freisetzungsstrategien sind am effektivsten?

Statistik für die Anzahl der freigelassenen Männchen und Weibchen bei einer Überflutung von 15:1 und einem FCP von 10 –7 (obere Reihe) und 10 –4 (untere Reihe). Rechtecke umspannen die Minima und Maxima für jeden Simulationssatz. Horizontale rote und blaue Linien zeigen die Mediane für jeden Simulationssatz, und Zahlen in Klammern zeigen die Anzahl der Simulationen (von 1000), die zu jedem IIT-Endpunkt geführt haben

Um eine sehr geringe Wahrscheinlichkeit (< 0,01) für jede Blockebene zu gewährleisten wAlbB-Ansiedlung über ein Gebiet von bis zu 100 Vorstadtblöcken ist es ratsam, die grobe adaptive Freisetzungsstrategie mit einem FCP von 10 −7 oder weniger mit einem Überflutungsverhältnis von 5:1 anzuwenden (Zusatzdatei A: Abb. A3.1 und Tabelle A2.1). Darüber hinaus zeigte die adaptive Freisetzungsstrategie eine hohe Wahrscheinlichkeit, einen Endpunkt mit unbestimmtem . zu erreichen wAlbB negativ über alle untersuchten FCPs und Überflutungsquoten. Von den drei untersuchten Freisetzungsstrategien wurden die besten IIT-Ergebnisse (dh hohe Eliminationswahrscheinlichkeit und geringe Wahrscheinlichkeit der Etablierung) mit einer groben adaptiven Freisetzungsstrategie mit einem Überflutungsverhältnis von 5:1 bei niedrigeren FCPs erreicht (Abb. 2 und Zusatzdatei A: Tabellen A2.1 und A2.2).

Wie variiert die Etablierungswahrscheinlichkeit mit der anfänglichen Dichte der Wolbachia-Infektion in der Bevölkerung?

Das in dieser Studie entwickelte und verwendete stochastische Populationsmodell zeigt einen ähnlichen UET wie zuvor in Laborkäfigexperimenten beobachtet (Abb. 4 und Zusatzdatei A: Abb. A3.2). Wir haben gezeigt, dass unser Modell (und seine Parametrisierung) simulierte Populationsdynamiken liefert, die mit Beobachtungen instabiler Gleichgewichte in biologischen Systemen übereinstimmen. In einer Population mit einem stabilen Wildtyp-Gleichgewicht von 400 Individuen (d.h. Kwild = 400), simulierten wir Trajektorien mit unterschiedlichen Anfangsanteilen von wAlbB und Wildtyp-Individuen. Wir zeigen die ersten zehn simulierten Bevölkerungsverläufe, zusammengefasst als der Anteil der Erwachsenen, die mit infiziert sind wAlbB für beide Frequenzszenarien, bei denen keine Paarung vor der Freisetzung stattgefunden hat (Abb. 4). In den Simulationen mit anfänglich 25 % wAlbB-Frequenz, 62 von 100 Simulationen endeten in wAlbB-Gründung, während bei der kleineren Anfangshäufigkeit von 10 % wAlbB, nur 25 von 100 Trajektorien festgelegt. Der Punkt, an dem die Gründungswahrscheinlichkeit eine Wahrscheinlichkeit von 50 % überschritten hat, liegt zwischen 15 und 20 % wAlbB für keine Pre-Release-Paarung und zwischen 10 und 15 %, wenn eine Pre-Release-Paarung vorhanden war. Um die Unterschiede in zu quantifizieren wAlbB-Etablierungswahrscheinlichkeiten zwischen verpaarten und nicht verpaarten eingeführten Weibchen, Zusatzdatei A: Abb. A3.2 zeigt die geschätzten Etablierungswahrscheinlichkeiten für jedes wAlbB-Frequenzniveau unter Verwendung von 100 simulierten Populationen auf jedem dieser Niveaus. Die Datensätze, die die Schlussfolgerungen dieses Artikels unterstützen, sind im CSIRO Data Access Portal-Repository [44] verfügbar.

Eine Zufallsstichprobe von zehn simulierten Trajektorien des Käfigexperiment-Szenarios (kein wAlbB Pre-Release-Paarung) bei wAlbB-Anfangsanteile von 10 % (links) und 25 % (rechts)


Methoden

Präsidentschaftswahlen in Frankreich: Wir haben die erste Runde in Betracht gezogen. Jeder Wähler hat eine Stimme. Erreicht kein Kandidat die absolute Mehrheit (was meistens der Fall ist), wird einer der beiden erfolgreichsten Kandidaten in einem zweiten Wahlgang Präsident.

Bundesrepublik Deutschland (BRD)

Die Bundestagswahl ist angedacht. Jeder Wähler hat zwei Stimmen (eine für Parteien, eine für Direktkandidaten). Nur die Stimmen der Parteien wurden berücksichtigt. In der BRD gilt eine Schwelle von 5 %: Parteien, die mehr als 5 % der Stimmen erhalten, sind im Parlament vertreten. Der andere Weg ins Parlament, nämlich über die Erststimme ein Direktmandat zu gewinnen, wird in den vorliegenden Überlegungen ignoriert.

Die Niederlande

Berücksichtigt wurden die Wahlen zum Abgeordnetenhaus, bei denen jeder Bürger genau eine Stimme hat. Die Niederlande haben keinen Schwellenwert implementiert.

Vereinigte Staaten von Amerika (USA)

Berücksichtigt werden die republikanischen Präsidentschaftsvorwahlen, bei denen der republikanische Kandidat für die Präsidentschaftswahl gewählt wird. Je nach Bundesland sind Vorwahlen geschlossen (nur registrierte Mitglieder der Partei dürfen wählen), halbgeschlossen (auch parteilose Bürger dürfen wählen) oder offen (jeder Bürger darf wählen). Diesen Unterschied haben wir nicht berücksichtigt. Bei diesen Wahlen bestimmen die Bürger, wie die Delegierten des Staates abstimmen (Details sind stark vom Staat abhängig). Es wurden nur Vorwahlen mit mindestens 10 Kandidaten berücksichtigt.

Simulationen

Die Simulation des Modells entspricht dem Zeichnen von Realisierungen aus dem invarianten Maß des Modells. Denken Sie daran, dass wir das invariante Maß oben im Abschnitt „Modellübersicht und Analyseergebnisse“ wie folgt charakterisiert haben: z sei die relative minimale Parteigröße, n die Zahl der Wähler und K die Zahl der Parteien, die sich zur Wahl stellen. Lass weiter x1, …, XK i.i.d ganzzahlige Zufallsvariablen mit (>j> ight) = frac>) für znJn und P(x = J) = 0 sonst, wobei (c^ < - 1>= sum frac<1>) .

Wir konditionieren die Realisierung auf ( olimits_^K >) und bestellen x1, …, xK nach der natürlichen Ordnung. Die bestellte xich werden bezeichnet mit x(1), …, x(K), so dass x(1) ≤…≤ x(K). Die Herausforderung besteht hier darin, die Zufallsvariablen zu konditionieren x(ich) auf die Gesamtzahl der Wähler, ( olimits_^K >) . Sei (widetilde X_<(i)>) bedingte Realisierungen. Wir nutzen die Tatsache, dass x(ich)/n neigen zu einer verkürzten Dirichlet-Verteilung mit Parametern αich = 0 (SI, Abschnitt 2.4.1). Beachten Sie, dass die Dirichlet-Verteilung erfordert αich > 0, da sonst die Integrierbarkeit verloren geht bei xich = 0. In unserem Fall ist die Bedingung xichz lässt Nullparameter zu. Dieses Ergebnis zeigt, dass Realisierungen von x(ich) ungefähr linear mit der Gesamtwählerzahl skalieren n. Wenn n groß ist, können wir die zeichnen x(ich) für einige verschiedene (widehat n) und skaliere die x(ich) danach (ungefähre) Realisierung für die gewünschte n. Es hängt davon ab z und K, hängt die Anzahl der Realisierungen, die verworfen werden müssen, um (widehat n) (und damit die Effizienz des Simulationsalgorithmus) zu bedingen, von der Wahl von (widehat n) ab.

Um Stichproben zu ziehen, wählen wir (>^<> + m>>) für eine ganze Zahl m, so dass zn > 5, Realisationen zeichnen von x(ich) für Wählergröße (widehat n) bis die Bedingung ( olimits_^K = widehat n> >) ungefähr erfüllt ist (Fehler kleiner als ±2,5%). Die resultierenden Realisierungen sind nach (n/widehat n) geordnet und skaliert.

Parameter Schätzung

Der einzige zu schätzende Parameter ist z. Wir verwenden eine heuristische Schätzung, basierend auf den Analyseergebnissen für x(ich) (SI, Abschnitt 2.3.4). Wir glauben, dass

Wir ersetzen x(1) durch die Wählerzahl der kleinsten Partei, die durch eine lineare Anpassung an die Daten vorhergesagt wird (wir verwenden die Anpassung, um einen Teil der Variabilität zu entfernen, die der Extremwertstatistik inhärent ist) und lösen die obige Gleichung nach z. Simulationen des auf diesem Schätzer basierenden Modells ergeben eine auffallende Übereinstimmung mit den Daten, obwohl der Schätzer nur heuristisch ist.


Beispiel 2: Modellierungsansätze zur Ergänzung der FRET-Mikroskopie

Protein-Protein-Interaktionsnetzwerke bilden das Rückgrat von Signalwegen und stellen einen grundlegenden Regulationsmechanismus dar, der das Verhalten lebender Zellen steuert. Bis vor kurzem stützte sich die Pathway-Analyse hauptsächlich auf biochemische Mittel (z. B. Coimmunpräzipitation, Massenspektroskopie, Hefe-Zwei-Hybrid), um Proteininteraktionen zu definieren. Diese Messungen liefern wenig dynamische oder quantitative Informationen über Proteininteraktionen und praktisch keine Informationen über die subzelluläre Organisation eines Signalwegs. Wie an anderer Stelle in dieser Ausgabe beschrieben ( Hoppe et al., 2009 ) werden nun mikroskopische Techniken eingesetzt, um die bei einer Infektion aktivierten Signalwege zu untersuchen. Insbesondere kann mit der FRET-Mikroskopie die Bindung bestimmter Proteinpaare in lebenden Zellen durch Fluoreszenzmarkierung mit verschiedenen Varianten von fluoreszierenden Proteinen nachgewiesen werden. Der Bereich, über den FRET auftreten kann, beträgt weniger als 10 nm und somit legt das Auftreten von FRET die Assoziation von Donor- und Akzeptor-markierten Proteinen nahe (Kenworthy, 2001). Während qualitativ Informationen über Protein-Protein-Wechselwirkungen wurden routinemäßig aus FRET-Bilddaten abgeleitet, Methoden für quantitativ Die Charakterisierung solcher Interaktionen anhand dieser Daten hat sich als schwieriger zu entwickeln und zu implementieren erwiesen.

Als Ausgangspunkt für die quantitative Analyse von FRET-Bildern werden Computermethoden zur Bildentfaltung (Korrektur für optische Unschärfe, die jedem Bildgebungsprozess innewohnt) und spektrale Entmischung von Bilddaten sowie Kalibrierungsdaten benötigt (Wu und Pollard, 2005 Hoppe et al., 2008). Als nächstes benötigt man Methoden, um quantitative Signalweginformationen aus diesen korrigierten FRET-Bildern von Protein-Protein-Wechselwirkungen zu extrahieren. Im Allgemeinen können Informationen über die Position einzelner Proteine ​​und verschiedener Protein-Protein-Komplexe als Funktion der Zeit verwendet werden, um Werte sowohl für Gleichgewichts- als auch Geschwindigkeitsparameter zu extrahieren, die die Protein-Protein-Bindung und die Proteinbewegung beschreiben. Dazu könnten Modelle entwickelt werden, um in Zellen auftretende wahrscheinliche Ereignisse zu beschreiben und dann durch Vergleich mit Bilddaten entsprechende Parameterwerte zu extrahieren oder abzuleiten.

Wir haben kürzlich einen solchen Versuch beschrieben, die in vivo Wert der Dissoziationskonstante des Protein-Protein-Bindungsgleichgewichts (KD) in kleinvolumigen Elementen der Zelle (Voxel) (K. Mehta et al., eingereicht) (Voxel sind einfach das dreidimensionale Äquivalent eines Pixels). Markierte Akzeptor- (A*) und markierte Donor-(D*)-Proteine, jeweils markiert mit geeigneten fluoreszierenden Proteinen, von denen angenommen wird, dass sie gemäß

wobei A*D* der Akzeptor-Donor-Komplex ist. Gleichzeitig existieren auch endogene (unmarkierte) Formen von A und D, von denen angenommen wird, dass sie mit markierten oder unmarkierten Spezies binden können. Die Anwendung der Gleichungen, die dieses einfache Modell beschreiben, auf Bilder erlaubte uns, Werte von abzuleiten KD man kann auch verschiedene Werte von ableiten KD in verschiedenen Zellregionen (Fig. 2A).

A. Schema einer Zelle, die mit Akzeptor- (gelb) und Donor- (blau) markierten Proteinen beladen wurde, um FRET zu erreichen. Die Analyse von FRET-Bildern kann verwendet werden, um Werte der Gleichgewichtsdissoziationskonstante (KD). Beachten Sie, dass man eher eine Wahrscheinlichkeitsverteilung als einen Gesamtzellenmittelwert erhält, was möglicherweise die Identifizierung mehrerer unterschiedlicher Werte von . ermöglicht KD in verschiedenen Zellregionen. B. Kompromisse während der Antigenpräsentation. Im oberen Diagramm zeigen wir die Werte der Peptid-MHCII-Affinität und der IFN-γ-Konzentration, die die gleiche Reaktion ergeben, d. h. die Internalisierung des T-Zell-Rezeptors oder die Sekretion von T-Zell-Zytokinen. Im mittleren Teil der Kurve kann ein Mangel an einem Parameter eine Änderung des anderen Parameters an den Enden der Kurve kompensieren. Peptid-MHC-Affinität ist dominant. Im unteren Diagramm zeigen wir Werte für die Anzahl der Peptid-MHCII-Komplexe auf einem DC und die Anzahl der DCs im LN, die die gleiche Anzahl aktivierter CD4+-T-Zellen ergeben, die das LN verlassen. Auch hier werden Veränderungen eines Parameters beobachtet, um Veränderungen des anderen zu kompensieren. C. Virtuelle Manipulation von CD8+ T-Zellen während der Infektion mit M. tuberkulose. Durchgezogene Kurven zeigen die Wildtyp-Antwort ähnlich der in Experimenten beobachteten, gestrichelte Kurven zeigen eine alternative Simulation. Oberes Feld: CD8+ CTL T-Zahlen wachsen langsam, erreichen nach Tag 150 ihren Höhepunkt und fallen dann ab (durchgezogene Kurve), während die CD8+ IFN-γ produzierenden T-Zellen erst am Tag 200 erscheinen (nicht gezeigt). In unserer in silico Alternativsimulation wechseln wir die Reihenfolge der differentiellen Expression: CD8+ IFN-γ-produzierende T-Zellen entstehen zuerst und zerfallen langsam im Laufe der Zeit (nicht gezeigt), während die CD8+ CTL-T-Zellen erst am Tag 200 erscheinen und dann langsam zerfallen (gestrichelte Kurve ). Unteres Feld, im Wildtyp-Szenario ist die Bakterienbelastung groß und sogar oszillierend (durchgezogene Kurve), aber im künstlichen Szenario ist die Bakterienbelastung gelöscht (gestrichelte Kurve).

Diese Methoden, die noch in den Kinderschuhen stecken, können potenziell zur Untersuchung jeglicher Protein-Protein-Bindungswechselwirkungen eingesetzt werden. Die Modellierung und Analyse kann auch erweitert werden, um Bilddaten im Zeitverlauf zu analysieren, um Rückschlüsse auf kinetische Parameter zu ermöglichen. Letztlich kann die Ermittlung von Geschwindigkeits- und/oder Gleichgewichtsparametern, die Protein-Protein-Wechselwirkungen beschreiben, nicht nur bei der Rekonstruktion von Signalwegen helfen, einschließlich der in den frühen Stadien der Infektion aktivierten Signalwege, sondern auch beim Verständnis, wie Medikamente, Inhibitoren oder Krankheitserreger diese Signalwege verändern könnten. Darüber hinaus stellen wir fest, dass letztendlich Terabytes an Bilddaten erzeugt werden, wenn die FRET-Bildgebung mit hoher dreidimensionaler Auflösung über die Zeit in lebenden Zellen durchgeführt wird, was die menschliche Fähigkeit zur Interpretation, Verdauung oder Analyse bei weitem übertrifft. Methoden der Datenreduktion und -abstraktion, einschließlich der Inferenz von Gleichgewichts- und/oder kinetischen Parametern, werden für unsere Fähigkeit, diese Daten zu nutzen, entscheidend sein.


Thermische Toleranz

Symbionten können die thermische Toleranz bei einer Vielzahl von Wirten sowohl erhöhen als auch verringern (Bensadia, Boudreault, Guay, Michaud & Cloutier, 2006 Lazzaro, Flores, Lorigan & Yourth, 2008 Abbildung 2c). Hitzeschocktoleranz bei der Weißen Fliege B. tabaci steigt mit Verringerung der Rickettsien Zahlen und die symbiontengesteuerte Expression von Genen, die mit der Stressreaktion assoziiert sind (Brumin, Kontsedalov & Ghanim, 2011). Umgekehrt in A. pisum, Rickettsia erhöht die Hitzetoleranz, indem es der Blattlaus ermöglicht wird, einen höheren Prozentsatz an Bakteriozyten zu behalten (Montllor, Maxmen & Purcell, 2002). Eine Störung bestimmter Regionen des Mikrobioms (z. B. des Darms) kann negative Folgen für die Wärmetoleranz des Wirts haben, da das Darmmikrobiom einen positiven Einfluss auf die Induktion von Wärmetoleranzproteinen in Zellen hat (Henry & Colinet, 2018 Liu, Dicksved, Lundh & Lindberg , 2014). Hitzeschock kann die Bakteriendichte in ihren Wirten weiter beeinflussen, was zu einer erhöhten Variation der vertikalen Übertragungsraten führen kann (Hurst, Johnson, Schulenburg, & vd & Fuyama, Y., 2000 McLean et al., 2016 Watts, Haselkorn, Moran, & Markow, 2009). In einigen Fällen haben Insekten ihre Endosymbionten nach ausreichend starken Hitzeschockereignissen vollständig verloren (Thomas & Blanford, 2003). Die Temperaturempfindlichkeit bakterieller Symbionten deutet darauf hin, dass sich der Nutzen und die Kosten für die Wirte in Szenarien mit erheblichen Umwelt- (Ross et al., 2017) und saisonalen (Ferguson et al., 2018) Veränderungen erheblich verändern könnten. Diese Reaktionen erfordern weitere Untersuchungen, insbesondere im Zusammenhang mit sich ändernden Temperaturen, von denen vorhergesagt wird, dass sie erhöhten abiotischen Stress verursachen (Corbin et al., 2017).


Theoretische Populationsbiologie – eine Einführung für Zellbiologen

Eines der bekanntesten Modelle zur Beschreibung eines dynamischen Systems, das wohl die Anfänge der mathematischen Biologie markierte, ist durch die 100 Jahre alten Lotka-Volterra-Gleichungen 6, 7 gegeben. Das System beschreibt zwei Populationen, und , die wie folgt interagieren: (1) (2) wo und bezeichnen den Artenreichtum und bzw. In Abwesenheit von , wird exponentiell wachsen in Abwesenheit von , stirbt (zerfällt) mit der Rate . Wenn beide Arten vorhanden sind, verbraucht oder erschöpft zum Preis : proportional zum Parameter und das Zusammenspiel zwischen und . Dieses System ist dynamisch interessant, weil es in Abhängigkeit von den Werten der Parameter erlaubt und , stabile Schwingungen zwischen und . In Abbildung 1 tragen wir die Lösungen der Gleichungen 1 und 2 ein und bezeichnen als „Hasen“ und als „Luchs“ (ein klassisches Paar von Raubtier-Beute-Arten). Es ist ersichtlich, dass beide Spezies stabile Schwingungen aufweisen, der stationäre Zustand bei diesen Parameterwerten wird als Grenzzyklus bezeichnet.

Bevölkerungsdynamik des Wettbewerbs. Simulation der Lotka-Volterra-Gleichungen gemäß Gleichungen (1)–(2) mit Parametern α = 0.3, β = 0,6, = 0,05.

Aus dem Beispiel Lotka-Volterra sind drei wichtige Konzepte hervorzuheben. Der erste ist, dass wir unsere biologischen Annahmen durch die präzise mathematische Spezifizierung unserer biologischen Annahmen quantitativ auf eine bisher nicht mögliche Weise überprüfen können. Anstatt zu behaupten, dass „das Wachstum der Hasenpopulation durch die Rate, mit der Hasen von Luchsen gefressen werden, begrenzt wird“, können wir diese Aussage quantifizieren, indem wir ein mathematisches Modell erstellen und es dann testen, indem wir das Modell simulieren und seine Fähigkeit zur Beschreibung biologischer Daten bewerten. Zum Beispiel gibt es nach 2 Jahren (48 Monaten) in der Simulation von Abbildung 1 ungefähr gleiche Populationen von Hasen und Luchsen. Das Modell sagt voraus, dass es 6 Monate später viel mehr Hasen als Luchse geben wird. Wir können uns fragen, was passieren würde, wenn Luchse im Alter von 48 Monaten doppelt so häufig Hasen fressen würden. Unter diesen Bedingungen wäre die Luchspopulation nicht zurückgegangen und noch etwa 5-6 Monate später und die Hasenpopulation wäre langsamer gestiegen als zuvor.

Das zweite hervorzuhebende Konzept ist, dass dieses sehr einfache Modell mit nur drei Parametern die Wechselwirkungen zwischen zwei Arten bereits recht gut beschreibt. Es werden zusätzliche Begriffe benötigt, um eine gute Anpassung an die meisten echten Räuber-Beute-Datensätze bereitzustellen, aber dieses grundlegende Modell ist ein guter erster Schritt. Dass (weitgehend) komplizierte biologische Systeme erfolgreich durch (sehr) einfache Modelle beschrieben werden können, ist hier vielleicht die wichtigste Lehre. Schließlich können wir, indem wir die Gültigkeit dieses Modells belegen, Vorhersagen treffen und so neue biologische Hypothesen anregen.

In den 1960er Jahren leisteten MacArthur und Wilson 8 einen entscheidenden Beitrag zur Populationsbiologie mit der Einführung des Konzepts der Inselbiogeographie, mit dem sie vorhersagten, wie die ökologische Dynamik den Artenreichtum in Insellebensräumen bestimmen würde. Dies können von Wasser umgebene Landinseln sein oder weniger traditionelle „Inseln“ wie Berggipfel, Bäume oder Bereiche eines Sees, die nach ihren Temperaturen unterteilt sind 9 . Alternativ Inseln (bezeichnet als Nischen) könnten räumlich oder funktionell definierte Bereiche innerhalb mehrzelliger Organismen sein, die die Funktion oder Dynamik bestimmter Zelltypen bestimmen. 1972 bewies der 10. Mai ein Theorem, das besagt, dass mit dem Wachstum von Systemen (von zufällig wechselwirkenden Spezies) ihre Stabilität im Allgemeinen abnimmt und für ausreichend große (oder sehr stark verbundene) Systeme gegen Null tendiert. Dies widersprach der damaligen wissenschaftlichen Meinung, die davon ausgegangen war, dass die Stabilität mit der Komplexität zunehmen sollte 11, 12 . Am 13. Mai wurde das Konzept der Nischenüberlappung entwickelt und demonstriert, wie sich die Variabilität zwischen den Arten auf ihre Fähigkeit auswirken kann, dieselbe Nische zu besetzen. Konkurrenz entsteht natürlich in Fällen, in denen sich Nischen überschneiden. Dies wird besonders relevant, wenn wir gesunde und bösartige Stammzellen betrachten, wie wir weiter unten sehen werden.

Die evolutionäre Spieltheorie, die von Maynard Smith und anderen 14 entwickelt wurde, wurde neben der theoretischen Ökologie entwickelt und lieferte neue Werkzeuge zur Untersuchung der Dynamik innerhalb von Artenpopulationen. Bei einer gegebenen Menge von Spielern und für jeden Spieler eine Reihe von Strategien kann festgestellt werden, ob es evolutionär stabile Strategien gibt: Dies sind diejenigen, für die, wenn sie vom Ganzen übernommen werden (große unendliche) Population kann keine Mutante in die bestehende Spezies eindringen und sie verdrängen. Trotz ihrer unterschiedlichen Ursprünge definieren sowohl Mays Stabilitätskriterien 10 als auch die evolutionären stabilen Strategien von Maynard Smith 14 Bedingungen, unter denen ein System, wenn es gestört wird, in seinen Anfangszustand zurückkehrt. Solche Frameworks ermöglichen es uns, die Leistungsfähigkeit von Systemen in dynamischen Umgebungen abzufragen. Der vielzellige Organismus ist ein Paradebeispiel für eine solche Umgebung.

Neben diesen Entwicklungen wurden auch wesentliche Beiträge zur Untersuchung der Populationsdynamik durch den Einsatz von Modellen in der Zellbiologie geleistet. Mackey 15 entwickelte mathematische Modelle zur Beschreibung zyklischer Dynamiken bei der Hämatopoese, die eine Bewertung der Auswirkungen bestimmter Parameter auf das System wie Proliferations- oder Differenzierungsraten ermöglichen 15-17 . Dies stellt eines der frühesten mathematischen Modelle dar, das direkt überprüfbare Hypothesen berücksichtigt (z. B. nach Till et al. 18 ) und eine rigorose Untersuchung der Stabilität innerhalb des hämatopoetischen Systems ermöglicht. Andere frühe Beispiele für fruchtbare Modellierungsarbeiten zur Hämatopoese stammen aus der Immunologie, insbesondere aus der regulatorischen Dynamik von Immunzellen als Reaktion auf virale Infektionen 19, und wurden in 20 überprüft.

Neuere Arbeiten werfen ein neues Licht auf die Themen Komplexität und Stabilität in biologischen Systemen. Allesina and Tang 21 advanced the results of 10 by deriving stability properties of randomly interacting communities that exhibited structure, however these structured systems still do not behave according to a known set of interactions (such as e.g., for equations. (1) and (2)). This is addressed in 22 by a statistical analysis of stability. Here it is shown that stability properties depend crucially on the type of model that is considered, and that great care must be taken in drawing conclusions regarding the stability of systems without reference to a particular model. It has also been shown for models of stem cell differentiation 23 that the niche confers stability onto stem cell systems with remarkably high probability 24 , in contrast to previous results. Thus, despite the time that has passed since the work of Lotka and Volterra, questions regarding the stability of ecosystems remain very topical today, and the debate rumbles on 25, 26 .


Antwort des Autors

1) The model is not described very well. It is difficult to understand how the simulation model worked. It does not seem to be possible, based on the material in the paper, to reproduce the figures, for example: What is N? Is it a multiple of T? Why not have N=T? What is the vertical axis in Figure 4? How does the RP work? Is it a Moran process? The first paragraph of subheading “Numerical simulations” is hard to follow. What is the "competition between groups"? If each individual leaves at most one offspring, how is the population kept fixed?

We have added the subheading “Group formation based on attachment”, that describes the model for group formation based on attachment, extending the model introduced in Garcia & De Monte 2013 to the case of a continuous adhesion trait. This should clarify the role of the parameter T (in an infinite population). The algorithm used to create Figure 4, Figure 5 and Figure 6 is now detailed in subheading “Appendix A4: Individual-based simulations”. There, we explain that N (multiple of T) is the size of the finite simulated population, and how birth, death and dispersal are implemented.

2) The authors expand on their own work to show that adhesiveness (the trait that makes individuals more likely to attach to others and form groups) can evolve in a population of well-mixed individuals that keep aggregating and dispersing as part of their life cycle. This is potentially an important contribution to the study of social behavior because it would show that pre-existing assorting forces are not necessary for sociality to evolve. However, in paragraph three, Discussion, one of the main conclusions of this study – where adhesiveness is a continuous trait – is that the evolution of sociality is possible from rare mutations. However, at the same time, they can't really evolve from scratch. There needs to be a threshold amount of adhesiveness present in the resident type for a more sticky one to evolve, as discussed in the subheading “The ecology of adhesive cells” discussing why this is likely but I didn't find that discussion sufficiently persuasive. If the model shows that basically stickiness can't evolve from scratch, then how would there be a certain amount of stickiness present in the population to begin with? What are some examples where we expect this to have happened?

In subheading “Group formation based on attachment”, we have stressed the difference between a threshold in the frequency of the individuals carrying a trait, and a threshold in the value of the trait. The point we want to make is that, in most cases when the evolution of cooperation is considered 'paradoxical', models inevitably require that cooperators start from a minimal frequency in the population, sufficient for them to gather some advantage from the collective enterprise. Situations when cooperators are advantaged even when they are extremely rare typically rely on directly beneficial cooperation, in which the evolution of social behavior is intrinsically less challenging. In our model, more adhesive variants can evolve even when infinitesimally rare at the beginning, because they exploit the population structure set by the resident.

On the other hand, for such a structure to be able to ratchet adhesiveness up, the value of the trait must not be too low. If it is too low, the assortment provided by group formation is insufficient to support the success of increased adhesiveness. A condition like the former, resting on the initial frequency of the more adhesive type (and not on the initial value of the trait) would burden the selection of each successive positive mutation. Instead, the latter condition on the initial trait value applies only at the beginning of the evolutionary trajectory.

In subheading “The ecology of adhesive cells”, we explain why we find plausible that a small level of adhesiveness could have evolved independently from any social function. Indeed, extracellular polysaccharides are commonly produced as a means of protection from stressants. Moreover, in order to crawl, cells need to adhere to the substrate, which in some cases implies adhering to other cells as well.

The authors highlight the adaptive dynamics (AD) analysis. It is described before the "real" model is described, and the simulation is described simply as a test of the 'robustness' of the AD analysis. This seems backwards. The result of the AD analysis is not particularly interesting (limits at z=0 or z=1 depending on the starting point) and if AD was really the proper model then (as is pointed out many times in the paper) the process of increasing adhesiveness could never get started, due to the positive threshold that must be overcome. It seems the AD analysis is basically an interesting "sanity check" on the simulation model, that is valid in certain limiting cases. (The work of Champagnat in the reference, and elsewhere, shows just how "hard" it is to get an AD limit from a sequence of stochastic models.) This is not to make light of the nice analytical results in section 2, but we think it should be made clearer that the most important insights in the paper come from the computer simulation of the mathematically intractable versions of the model. (Assuming the authors agree with this.)

We realize that the decision of whether 'reality' lies in the simulations or in the analytical calculations is somewhat arbitrary, and that our choice of starting with the theory may seem a less straightforward approach to the problem we tackle. However, we do not agree that the main result of the paper lies in the simulations, because such simulations describe a specific, and very simplified, way groups can form, which is based on attachment. On the other hand, the analytical results allow to have a more general view of how group formation in general can affect the evolution of adhesiveness.

The results of the simulations do not appear to us particularly more crucial than those of the analytical model. It was maybe not clear that the individual-based model require, on average over several realizations, a minimum threshold of adhesiveness, exactly like the analytical solution for infinite population size. However, finite-size fluctuations can occasionally let the system overcome such a threshold, triggering evolution towards higher adhesiveness. This effect is well known whenever individual-based implementations of games are considered, and we think it does not require specific emphasis. On the other hand, what simulations provide is a confirmation that some assumptions of the adaptive dynamics framework do not have to hold strictly for achieving the results of the exact model. Moreover, numerical simulations allow to explore different choices for the fitness functional forms, that indeed bring new evolutionary outcomes.

We hope that the role of the simulations in supporting the conclusions of the paper is more explicit in the revised version of the manuscript. We have advanced to subheading “Group formation based on attachment” the description of the aggregation model base on differential attachment. We have dedicated subheading “Individual-based simulations” to the numerical exploration of the adaptive dynamics when group formation follows this scheme, and discussed the robustness with regard to theoretical results.

3) It is great that the authors talk about adhesiveness as a continuous trait, especially because this turns the very binary problem of cooperation-defection or social-asocial into a much more nuanced question. But despite posing the problem so generally, the authors still use the social-asocial language, even when it doesn't make much sense. For example in paragraph five, subheading “Social behavior along evolutionary trajectories: altruistic sociality”, where both the resident and the mutant are actually sticky but one is a tiny bit less so and is then called asocial. That seems confusing (despite the fact that many people do this) and we would suggest finding a clearer way to refer to these traits that fits with the continuum perspective which, again, I think is a very good one.

We agree that we should have been more careful about semantics, and have corrected the manuscript according to the referees' suggestion.

4) The difference between cooperation and altruism has always been confusing. Indeed the way the authors present it is one way in which it has been described but not the only one and this part of the manuscript and its conclusions can lead to confusion. It seems that a lot of what people have termed cooperation and studied in the context of the Prisoner's dilemma is altruism according to the author's definition (see e.g. Nowak et al. work). And in many works altruism has been defined as an extreme form of cooperation, such as suicide (stalk cells in D. discoideum or worker ants in eusocial colonies). The authors don't seem to be talking about the latter when they're saying that altruism can evolve first. They seem to be talking about the former, which most people would interpret as actual cooperation (as opposed to mutually beneficial behavior). We are perfectly aware that the semantics of this field is a mess, but one ought to be very careful in phrasing the conclusions of this part of the study. Perhaps moving away from cooperation-altruism and phrasing it more generally and in more nuanced ways would help. Another possibility, if the authors want to stick with cooperation-altruism, is to explain the different definitions and cite other literatures as well. Because the results of this section seem very similar to, for example, people claiming that cooperation (rather than altruism) can evolve on networks if b/c > k.

We tried our best to spell out in subheading “Social behavior along evolutionary trajectories” the point we wish to make about 'altruism', that is an extension to pre-existing definitions to the case when group size is distributed and not fixed. The idea is to keep the same concept as in the referenced literature, that altruism defines behaviors for which costs are not immediately recovered by marginal benefits from the cooperator's own contribution. Our extension merely relies on averaging such marginal benefits according to the resident population's group size distribution. With this in mind, we re-wrote the whole paragraph. We also referred to alternative definitions considered in the literature, that would actually be even less restrictive for altruism (namely, Kerr et al., TREE 2004).

The case of altruistic suicide is in our view just a limit case that is encompassed by other definitions of altruism. Moreover, in microbes it is not clear whether the 'strategy' is to commit suicide with certainty, or with a probability less than one. The latter case would result in a high, but finite effective fitness cost. We have specified in subheading “Social behavior along evolutionary trajectories” that altruistic suicide is a limit case of extremely high personal cost, that can however, in principle, be counterbalanced by very large benefits provided by the public good (for instance, when group cohesion is a fundamental determinant of survival).

There is no doubt that all conditions b/c>something are somehow alike. This is however the consequence of assuming that costs and benefits have additive effects on fitness. It is also not surprising that this 'something' is a statistics related to some aspect of the population structure (relatedness, connectedness of a network, number of individuals in groups, etc. see for instance Nowak 2006, Science). Making explicit reference to all other cases where a condition similar to this hold, would result in increasing further a manuscript that is already quite long. We therefore opted for a more thorough explanation of how altruism can be defined based on the evaluation of the average marginal costs and benefits of an individual in a population of given structure.

5) There is a related philosophical quibble concerning the distinction between net direct benefits (sometimes called weak altruism) and net costs (sometimes called strong altruism). If a social behavior gives a benefit to the actor that is greater than its cost, this may seem to be substantially different than the case where the actor's cost is greater than any benefit it receives. But it is relative fitness that matters and if the actor's social behavior benefits all group members, but others do not pay the cost borne by the actor, then there is no substantial difference. For simplicity assume that the actor provides benefit B to the group at cost C to the actor. If this benefit is split evenly among group members (including the actor) then actors (weak altruists) get B/n - C whereas other group members get B/n. Whether B/n - C is positive or negative doesn't affect the fact that actors in a group are at a disadvantage compared to non-actors in the group. Whether actors (altruists) are favored depends on population structure (assortment), not whether B/n - C is positive or negative. Weak altruists can be selected against if the interaction structure is unfavorable and strong altruists can be selected for if it is favorable. Of course the degree of assortment needed can be affected by the values of B and C (and therefore by whether B/n -C is positive or negative), but this is a matter of degrees of assortment, not a fundamentally different mechanism. Comparing two scenarios where B/n - C values are 2 and 6 respectively is not inherently different from comparing two scenarios where the values are -2 and +2 respectively. So it is not surprising or "counter-intuitive" that strong altruism can proceed weak altruism in the evolutionary trajectories of the model. The amount of assortment simply favors each in its turn.

We agree with this, and this is actually the point we intended to make. In the context of our model, what happens in addition to the referee's observation is that the degree of assortment is coupled to the value of the trait (independently of b and c).

Even if this is somehow trivial if one thinks that average costs and benefits are affected by the population structure, we think that this is not often acknowledged in the literature on social behavior in microbes. Indeed, 'private goods' – providing direct benefits – are opposed to 'public goods', as if the assessment of costs and benefits could be disentangled from the interaction topology. On the theoretical side, weak altruism has been considered more easily achievable with respect to strong altruism.

From this, one may (but does not need to) conclude that the evolution of highly sacrificial forms of cooperation follow the establishment of directly beneficial forms of cooperation.

We think that the example we discuss shows that not only the social status depends on population structure, but also that the ease in attaining apparently different forms of cooperation cannot be determined if the social context changes on the same time scale as the trait underpinning the behavior.

We hope that in the revised version of the manuscript these messages are more clearly conveyed.

6) As for the conclusion that the status of a social mutation can change along an evolutionary trajectory, that's a great point and an interesting conclusion. However, the conditions under which it happens seem very restrictive (the b/c ratio has to be very high). The authors should discuss the intuition and biological feasibility of such a scenario.

According to our analysis, changes in the status of social mutations along the evolutionary trajectory appear in the parameter region b/c>T. While this might seem at first sight a restrictive condition on b/c, one has to keep in mind that it is also the delimiting inequality of directly beneficial vs. altruistic cooperation in standard PGG models occurring in groups of fixed size T. Here, altruism may occur for even larger values of b/c because, contrary to fixed group-size models, a proportion of individuals remain alone as long as the adhesiveness level is smaller than 1. Therefore, marginal returns from sociality (that occur only in groups) are not obtained systematically while the cost is always paid, whether or not in a group. The delimiting b/c value for altruism (1/ralt in the manuscript) even diverges when adhesiveness is close to 0 as nobody gets in a group in such a case. As a consequence, a social mutation is always altruist for very small resident values of the adhesiveness.

In addition, it is not straightforward to relate game-theoretic parameters of cost and benefits such as in the PGG to actual biological costs and benefits (affecting for instance exponential growth rates in isolated populations). It is thus hard to tell what is realistic. Maybe having a large return from the collective phase, or a low cost for adhesion, is realistic. We preferred to avoid advancing hypotheses on the degree of realism of different levels of benefit-to-cost ratios, and take as a reference the theoretical condition that is commonly used for populations structured in groups of equal size.

We have however added a sentence to explain our first point at the end of subheading “Social behavior along evolutionary trajectories” (paragraph nine).

[Anmerkung der Redaktion: Vor der Annahme wurden weitere Überarbeitungen angefordert, wie unten beschrieben.]

In reading the response to reviewers on item 6 I was struck by the detail that in calculating the benefits and costs across the population, that all individuals (including loners) paid the cost of adhesiveness, while only those that made it into groups experienced the benefits. (I missed that detail in the first version, and its role in determining b/c ratios.) I don't think I understand the justification for this. If an extracellular matrix was the trait that caused adhesiveness and also benefited other group members, then loners might get at least some benefit from their own excretions of extracellular matrix. Also, one could imagine a different mechanism of adhesion that did not manifest itself unless a group was joined. In this case loners would not pay the cost. I would leave it up to the authors to decide whether providing some intuition behind this analysis decision is helpful.

We added a few sentences to subheading “Life cycle and population structuring” to reply to Reviewer #3's comments stating that, for individuals endowed with the adhesive trait:

Adhesion costs might only be considered when they join a group

Direct benefits might be retrieved even when they are ungrouped.

"The cost of adhesiveness is here assumed to be context-independent, thus it does not change conditionally to individuals belonging or not to a group […] would relax the social dilemma and promote even more efficiently increased adhesion."


Schau das Video: Charles Darwin - Survival Of The Fittest (November 2022).