Information

Wie sind neuronale Netze in der DNA kodiert?

Wie sind neuronale Netze in der DNA kodiert?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Sowohl das zentrale Nervensystem als auch das Gehirn->Muskeln und Sinneszellen->Gehirnnervenbahnen müssen präzise verdrahtet sein, damit Leben möglich ist. Außerdem sind sie für die Individuen einer gleichen Art (Tier, Mensch, Insekten usw.) fast genau gleich verdrahtet.

Diese Information muss daher irgendwie in der DNA kodiert sein.

Ich habe noch nie von einer Studie oder Theorie gehört, wie dies möglich wäre – nur darüber, wie Proteine ​​kodiert werden, und Ich konnte keine Informationen zu diesem Thema finden (Ich bin aber kein Biologe).

ich hätte gerne ein breite Idee des aktuellen Wissens über den Aufbau solcher Netzwerke, d. h. keine detaillierte Erklärung, sondern Fakten und Referenzen zum Mitnehmen.

  • Wie werden Informationen über neuronale Verbindungen in der DNA kodiert?

z.B. Gibt es Gene, die mit Neuronen verbunden sind (z. B. Kodierung für Neurotransmitter)? Kodiert die DNA für präzise neuronale Verbindungen? Kann die Entwicklung bestimmter Teile des Gehirns mit bestimmten Teilen der DNA in Verbindung gebracht werden? Woher weiß ein Neuron aus der DNA, auf welchen Neurotransmitter empfindlich ist?

  • Wie werden Verbindungen zwischen bestimmten Neuronen hergestellt?

z.B. Woher weiß ein Axon, wo er ein Potenzial aufbauen kann? Wie kann das Ende eines Axons an die richtige Stelle verschoben werden?


Hier ist mindestens ein Artikel, der einiges von dem beschreibt, was über die Entwicklung des neuronalen Netzwerks bei Caenorhabditis elegans bekannt ist

http://journals.plos.org/ploscompbiol/article?id=10.1371/journal.pcbi.1001044

Es erwähnt mindestens ein relevantes Gen

" Es gibt Hinweise darauf, dass mehrere Leitmoleküle wie Netrin und Nerfin-1 in den frühen Stadien der Entwicklung exprimiert werden. Netrin ist ein Protein, das bei Wirbeltieren sowie bei Wirbellosen an der axonalen Lenkung beteiligt ist [21], [22], [23] und ist speziell dafür bekannt, frühe Pfadfindungsereignisse zu beeinflussen [23] [24] [25] Nerfin-1 gehört zu einer hochkonservierten Familie von Zn-Finger-Proteinen, wird vorübergehend in Neuronenvorläufern exprimiert und spielt eine Rolle bei Studien mit bahnbrechenden Neuronen im Zentralnervensystem von Drosophila melanogaster haben gezeigt, dass Nerfin-1, dessen Expression räumlich und zeitlich reguliert ist [25], für die frühe axonale Führung essentiell ist.“

Sie können auch viel im Wikipedia-Artikel "Development_of_the_nervous_system_in_humans" haben.

Eine interessante Tatsache ist, dass C. elegans 20 000 Gene, 302 Neuronen und etwa 5000 chemische Synapsen, 2000 neuromuskuläre Verbindungen und etwa 500 Gap Junctions besitzt. Beim Menschen gibt es schätzungsweise 20.000-25.000 Gene beim Menschen, etwa 85 Milliarden Neuronen und 100 Billionen Synapsen.

Dieser Auszug aus http://www.tandfonline.com/doi/full/10.3109/0954898X.2011.638968 erklärt dieses scheinbare Paradox jedoch

„Studien an einer Reihe von Arten legen nahe, dass grundlegende Ähnlichkeiten, sowohl in räumlichen und topologischen Merkmalen als auch in Entwicklungsmechanismen für die Netzwerkbildung, über die Evolution hinweg erhalten bleiben. ‚Small-World‘-Topologie und hochgradig verbundene Regionen (Hubs) sind in der Evolution weit verbreitet Skalierbarkeit, um eine effiziente Verarbeitung und Widerstandsfähigkeit gegenüber internen (zB Läsionen) und externen (zB Umwelt) Veränderungen zu gewährleisten.Außerdem beruht bei den meisten Arten sogar die Einrichtung von Hubs, weitreichenden Verbindungen, die entfernte Komponenten verbinden, und einer modularen Organisation auf ähnlichen Mechanismen ."


Bio-inspiriertes Kryptosystem mit DNA-Kryptographie und neuronalen Netzen

Bio-inspirierte Kryptosysteme sind eine moderne Form der Kryptographie, bei der bioinspirierte und maschinelle Lerntechniken zum Zweck der Datensicherung eingesetzt werden. Basierend auf dem Central Dogma of Molecular Biology (CDMB) wurde ein System für die Verschlüsselungs- und Entschlüsselungsalgorithmen vorgeschlagen, indem die natürlichen Prozesse der genetischen Codierung (Umwandlung von Binär- in DNS-Basen), Transkription (Umwandlung von DNS in mRNS) und Translation ( Umwandlung von mRNA in Protein) sowie die umgekehrten Prozesse, um die Verschlüsselung bzw. Entschlüsselung zu ermöglichen. Alle Eingänge werden als 16-Bit-Blöcke betrachtet. Die endgültigen Ausgaben der Blöcke können verkettet werden, um den endgültigen Chiffretext in Form von Proteinbasen zu bilden. Ein bidirektionales neuronales Assoziativgedächtnisnetz (BAMNN) wurde unter Verwendung randomisierter Daten für die Schlüsselerzeugung trainiert, das in der Lage ist, Speicherplatz zu sparen, indem es sich die Sätze von Schlüsseln in einer wiederkehrenden Weise erinnert und regeneriert. Das vorgeschlagene bioinspirierte Kryptosystem zeigt im Vergleich zu bestehenden Systemen auch bei großen Datenmengen kompetente Verschlüsselungs- und Entschlüsselungszeiten.


Erklärbare Künstliche Intelligenz zur Dekodierung regulatorischer Anweisungen in DNA

Die Forscher verwendeten DNA-Sequenzen aus hochauflösenden Experimenten, um ein neuronales Netzwerk namens BPNet zu trainieren, dessen “Black Box”-Innenleben dann aufgedeckt wurde, um Sequenzmuster und Organisationsprinzipien des regulatorischen Codes des Genoms aufzudecken. Bildnachweis: Illustration mit freundlicher Genehmigung von Mark Miller, Stowers Institute for Medical Research

Öffnen der Blackbox, um die Regeln des regulatorischen Codes des Genoms aufzudecken.

Forscher des Stowers Institute for Medical Research haben in Zusammenarbeit mit Kollegen der Stanford University und der Technischen Universität München in einem technischen Kraftakt fortschrittliche erklärbare künstliche Intelligenz (KI) entwickelt, um in der DNA kodierte regulatorische Anweisungen zu entschlüsseln. In einem am 18. Februar 2021 online veröffentlichten Bericht in Naturgenetik, fand das Team heraus, dass ein neuronales Netzwerk, das auf hochauflösenden Karten von Protein-DNA-Interaktionen trainiert wurde, subtile DNA-Sequenzmuster im gesamten Genom aufdecken und ein tieferes Verständnis dafür liefern kann, wie diese Sequenzen organisiert sind, um Gene zu regulieren.

Neuronale Netze sind leistungsstarke KI-Modelle, die komplexe Muster aus verschiedenen Datentypen wie Bildern, Sprachsignalen oder Text lernen können, um zugehörige Eigenschaften mit beeindruckend hoher Genauigkeit vorherzusagen. Viele halten diese Modelle jedoch für nicht interpretierbar, da die erlernten Vorhersagemuster schwer aus dem Modell zu extrahieren sind. Diese Black-Box-Natur hat die breite Anwendung neuronaler Netze in der Biologie behindert, wo die Interpretation prädiktiver Muster von größter Bedeutung ist.

Eines der großen ungelösten Probleme in der Biologie ist der zweite Code des Genoms – sein regulatorischer Code. DNA-Basen (üblicherweise durch die Buchstaben A, C, G und T dargestellt) kodieren nicht nur die Anweisungen zum Aufbau von Proteinen, sondern auch, wann und wo diese Proteine ​​in einem Organismus hergestellt werden. Der regulatorische Code wird von Proteinen gelesen, die als Transkriptionsfaktoren bezeichnet werden und an kurze DNA-Abschnitte binden, die als Motive bezeichnet werden. Wie bestimmte Kombinationen und Anordnungen von Motiven die regulatorische Aktivität spezifizieren, ist jedoch ein äußerst komplexes Problem, das schwer zu bestimmen war.

Jetzt hat ein interdisziplinäres Team von Biologen und Computerforschern unter der Leitung von Stowers Investigator Julia Zeitlinger, PhD, und Anshul Kundaje, PhD, von der Stanford University ein neuronales Netzwerk entworfen – genannt BPNet für Base Pair Network – das interpretiert werden kann, um regulatorischen Code aufzudecken durch Vorhersage der Transkriptionsfaktorbindung aus DNA-Sequenzen mit beispielloser Genauigkeit. Der Schlüssel bestand darin, Transkriptionsfaktor-DNA-Bindungsexperimente und Computermodellierung mit der höchstmöglichen Auflösung bis auf die Ebene einzelner DNA-Basen durchzuführen. Diese erhöhte Auflösung ermöglichte es ihnen, neue Interpretationswerkzeuge zu entwickeln, um die wichtigsten elementaren Sequenzmuster wie Transkriptionsfaktor-Bindungsmotive und die kombinatorischen Regeln zu extrahieren, nach denen Motive zusammen als regulatorischer Code fungieren.

„Das war sehr zufriedenstellend“, sagt Zeitlinger, „da die Ergebnisse wunderbar zu bestehenden experimentellen Ergebnissen passten und auch neue Erkenntnisse offenbarten, die uns überraschten.“

Die neuronalen Netzmodelle ermöglichten es den Forschern beispielsweise, eine bemerkenswerte Regel zu entdecken, die die Bindung des gut untersuchten Transkriptionsfaktors namens Nanog regelt. Sie fanden heraus, dass Nanog kooperativ an DNA bindet, wenn mehrere seines Motivs in regelmäßigen Abständen vorhanden sind, sodass sie auf derselben Seite der spiralförmigen DNA-Helix erscheinen.

„Es gibt eine lange Reihe experimenteller Beweise dafür, dass eine solche Motivperiodizität manchmal im regulatorischen Code existiert“, sagt Zeitlinger. „Die genauen Umstände waren jedoch schwer fassbar und Nanog war kein Verdächtiger gewesen. Die Entdeckung, dass Nanog ein solches Muster aufweist, und zusätzliche Details seiner Wechselwirkungen zu sehen, war überraschend, da wir nicht speziell nach diesem Muster gesucht haben.“

„Dies ist der entscheidende Vorteil der Verwendung neuronaler Netze für diese Aufgabe“, sagt Dr. iga Avsec, Erstautorin des Artikels. Avsec und Kundaje erstellten die erste Version des Modells, als Avsec Stanford während seines Doktoratsstudiums im Labor von Julien Gagneur, PhD, an der Technischen Universität München besuchte.

„Traditionellere Ansätze der Bioinformatik modellieren Daten mithilfe vordefinierter starrer Regeln, die auf vorhandenem Wissen basieren. Die Biologie ist jedoch äußerst reichhaltig und kompliziert“, sagt Avsec. „Durch den Einsatz neuronaler Netze können wir viel flexiblere und nuanciertere Modelle trainieren, die ohne Vorkenntnisse komplexe Muster von Grund auf lernen und so neue Entdeckungen ermöglichen.“

Die Netzwerkarchitektur von BPNet ähnelt der neuronaler Netzwerke, die zur Gesichtserkennung in Bildern verwendet werden. Zum Beispiel erkennt das neuronale Netzwerk zuerst Kanten in den Pixeln, lernt dann, wie Kanten Gesichtselemente wie Auge, Nase oder Mund bilden, und erkennt schließlich, wie Gesichtselemente zusammen ein Gesicht bilden. Anstatt von Pixeln zu lernen, lernt BPNet aus der Roh-DNA-Sequenz und lernt, Sequenzmotive und schließlich die Regeln höherer Ordnung zu erkennen, nach denen die Elemente die Bindungsdaten in Basenauflösung vorhersagen.

Sobald das Modell auf hohe Genauigkeit trainiert wurde, werden die gelernten Muster mit Interpretationswerkzeugen extrahiert. Das Ausgangssignal wird zu den Eingangssequenzen zurückverfolgt, um Sequenzmotive aufzudecken. Der letzte Schritt besteht darin, das Modell als Orakel zu verwenden und es systematisch mit spezifischen DNA-Sequenzdesigns abzufragen, ähnlich wie man Hypothesen experimentell testen würde, um die Regeln aufzudecken, nach denen Sequenzmotive kombinatorisch funktionieren.

„Das Schöne ist, dass das Modell weit mehr Sequenzdesigns vorhersagen kann, die wir experimentell testen könnten“, sagt Zeitlinger. „Darüber hinaus können wir durch die Vorhersage des Ergebnisses experimenteller Störungen die Experimente identifizieren, die für die Validierung des Modells am informativsten sind.“ Tatsächlich bestätigten die Forscher mit Hilfe von CRISPR-Gen-Editing-Techniken experimentell, dass die Vorhersagen des Modells sehr genau waren.

Da der Ansatz flexibel und auf eine Vielzahl unterschiedlicher Datentypen und Zelltypen anwendbar ist, verspricht er ein rasch wachsendes Verständnis des regulatorischen Codes und der Auswirkungen genetischer Variation auf die Genregulation. Sowohl das Zeitlinger Lab als auch das Kundaje Lab nutzen BPNet bereits, um zuverlässig Bindungsmotive für andere Zelltypen zu identifizieren, Motive mit biophysikalischen Parametern in Beziehung zu setzen und andere Strukturmerkmale im Genom zu lernen, die beispielsweise mit der DNA-Verpackung in Verbindung stehen. Um anderen Wissenschaftlern die Nutzung von BPNet zu ermöglichen und an ihre eigenen Bedürfnisse anzupassen, haben die Forscher das gesamte Software-Framework mit Dokumentation und Tutorials zur Verfügung gestellt.

Referenz: “Basisauflösungsmodelle der Transkriptionsfaktorbindung offenbaren die weiche Motivsyntax” von Žiga Avsec, Melanie Weilert, Avanti Shrikumar, Sabrina Krueger, Amr Alexandari, Khyati Dalal, Robin Fropf, Charles McAnany, Julien Gagneur, Anshul Kundaje und Julia Zeitlinger, 18. Februar 2021, Naturgenetik.
DOI: 10.1038/s41588-021-00782-6

Andere Mitwirkende an der Studie waren Melanie Weilert, Sabrina Krueger, PhD, Khyati Dalal, Robin Fropf, PhD, und Charles McAnany, PhD, von Stowers und Avanti Shrikumar, PhD, und Amr Alexandari von der Stanford University.

Diese Arbeit wurde zum Teil vom Stowers Institute for Medical Research und dem National Human Genome Research Institute (Auszeichnungen R01HG009674 und U01HG009431 an AK und R01HG010211 an JZ) und National Institute of General Medical Sciences (DP2GM123485 an AK) der National Institutes of Health . unterstützt (NIH). Weitere Unterstützung umfasste das Bundesministerium für Bildung und Forschung (Projekt MechML 01IS18053F an Z.A.) sowie ein Stanford BioX Fellowship und Howard Hughes Medical Institute International Student Research Fellowship (an A.S.). Die Sequenzierung wurde am Stowers Institute for Medical Research und dem University of Kansas Medical Center Genomics Core durchgeführt, unterstützt durch die NIH-Auszeichnungen des National Institute of Child Health and Human Development (U54HD090216), Office of the Director (Instrumentation S10OD021743) und National Institute of Allgemeine medizinische Wissenschaften (COBRE P30GM122731). Für den Inhalt sind ausschließlich die Autoren verantwortlich und geben nicht unbedingt die offiziellen Ansichten des NIH wieder.

Zusammenfassung der Ergebnisse legen

DNA ist dafür bekannt, Proteine ​​zu kodieren. Es enthält auch einen weiteren Code – einen regulatorischen Code – der angibt, wann und wo Proteine ​​in einem Organismus hergestellt werden sollen. In einem online veröffentlichten Bericht vom 18. Februar 2021 in Naturgenetik, beschreiben Forscher aus dem Labor von Julia Zeitlinger, PhD, einer Forscherin am Stowers Institute for Medical Research, und Mitarbeitern der Stanford University und der Technischen Universität München, wie sie erklärbare künstliche Intelligenz eingesetzt haben, um den regulatorischen Code des Genoms zu entschlüsseln.

Die Forscher entwickelten ein neuronales Netzwerk, dessen Innenleben aufgedeckt werden kann, um regulatorische DNA-Sequenzmuster und ihre übergeordneten Organisationsprinzipien aus hochauflösenden Genomdaten aufzudecken. Das Zeitlinger Lab geht davon aus, dass die mit diesem Ansatz erstellten Vorhersagemodelle, Regeln und Karten zu einem besseren Verständnis der natürlichen und krankheitsassoziierten genetischen Variation in regulatorischen Regionen der DNA führen werden.


Wie neuronale Netze dieses Problem lösen

Künstliche neuronale Netze sind zu einer der beliebtesten Methoden zur Vorhersage und Suche nach Verbindungen in biologischen Systemen geworden. Ein solches Netzwerk simuliert gewissermaßen biologische neuronale Netze in einem Gehirn und fungiert als eine Ansammlung verbundener Recheneinheiten, die in der Lage sind, Eingabedaten zu empfangen, Signale untereinander zu übertragen und eine Antwort zu generieren. Je komplexer die Architektur dieser Sammlung ist, desto komplexer ist das neuronale Netz und desto komplexere Aufgaben kann es lösen lernen.

Interessant ist, dass der Forscher bei komplexen Untersuchungen von Genomen oder anderen biologischen Daten oft nicht nur Vorhersagen aus dem neuronalen Netz gewinnen muss, sondern auch die Stadien seines Lernprozesses post-factum verstehen muss. Ein neuronales Netzwerk kann beispielsweise ein Muster in der Interaktion bestimmter Proteine ​​und bestimmter DNA-Segmente finden und lernen, vorherzusagen, welche neuen Proteine ​​ähnliche Eigenschaften haben werden. Wissenschaftler müssen jedoch noch herausfinden, was genau dieses entdeckte Muster ist, da das neuronale Netz nicht auf die gleiche Weise lernt wie der Mensch. Es hat eine völlig andere Logik und verfolgt die “Forschung” auf alternative Weise.

Der effektive Einsatz neuronaler Netze in Biologie und Medizin steckt heute erst in den Kinderschuhen. In einem neuen Artikel, der in Cell veröffentlicht wurde, sagte eine Gruppe von MIT-Forschern unter der Leitung von James Collins, dass sie mit Deep-Learning-Methoden (einer Reihe von maschinellen Lernmethoden, die von neuronalen Netzwerken verwendet werden) erfolgreich Millionen von Kandidaten für Antibiotika untersucht haben.

Während des Lernprozesses wurde das neuronale Netz darauf trainiert, potenzielle Antibiotika unter 2.335 Molekülen zu erkennen, deren Wirkung auf das Modellbakterium Escherichia coli bekannt war. Die chemische Struktur jedes Moleküls wurde mit einer Reihe von Zahlen kodiert, die für die Verbindungen zwischen den Atomen verantwortlich sind. Aufgabe des neuronalen Netzes war es, in solchen Strukturen die Motive zu erkennen, die für ihre antimikrobielle Aktivität verantwortlich sind.

Nachdem das System gelernt hatte, die Eigenschaften einer Substanz anhand der Form und Zusammensetzung ihres Moleküls vorherzusagen, erhielt es Zugang zu mehreren elektronischen chemischen Bibliotheken mit einem viel größeren Volumen. Diese Bibliotheken enthielten insgesamt mehr als hundert Millionen Moleküle, und die überwältigende Mehrheit von ihnen war nie auf ihre Wirkung auf Bakterienzellen untersucht worden.


Inhalt

Die etabliertesten „klassischen“ von der Natur inspirierten Rechenmodelle sind zelluläre Automaten, neuronale Berechnungen und evolutionäre Berechnungen. Neuere, von natürlichen Prozessen abstrahierte Rechensysteme umfassen Schwarmintelligenz, künstliche Immunsysteme, Membran-Computing und amorphes Computing. Ausführliche Rezensionen finden sich in vielen Büchern. [8] [9]

Zellulare Automaten Bearbeiten

Ein zellularer Automat ist ein dynamisches System, das aus einer Reihe von Zellen besteht. Raum und Zeit sind diskret und jede der Zellen kann sich in einer endlichen Anzahl von Zuständen befinden. Der zellulare Automat aktualisiert die Zustände seiner Zellen synchron gemäß den angegebenen Übergangsregeln a priori. Der nächste Zustand einer Zelle wird durch eine Übergangsregel berechnet und hängt nur von ihrem aktuellen Zustand und den Zuständen ihrer Nachbarn ab.

Conways Game of Life ist eines der bekanntesten Beispiele für zellulare Automaten, die rechnerisch universell sind. Zelluläre Automaten wurden zur Modellierung einer Vielzahl von Phänomenen wie Kommunikation, Wachstum, Reproduktion, Konkurrenz, Evolution und anderer physikalischer und biologischer Prozesse verwendet.

Neuronale Berechnung Bearbeiten

Neuronale Berechnung ist das Forschungsgebiet, das aus dem Vergleich zwischen Rechenmaschinen und dem menschlichen Nervensystem hervorgegangen ist. [10] Dieses Feld zielt sowohl darauf ab, zu verstehen, wie die Gehirn von lebenden Organismen funktioniert (Gehirntheorie oder Computational Neuroscience) und effiziente Algorithmen zu entwerfen, die auf den Prinzipien der Informationsverarbeitung des menschlichen Gehirns basieren (Artificial Neural Networks, ANN [11] ).

Evolutionäre Berechnung Bearbeiten

Evolutionary Computing [13] ist ein von der Darwinschen Evolution inspiriertes Rechenparadigma.

Ein künstliches evolutionäres System ist ein Rechensystem, das auf dem Konzept der simulierten Evolution basiert. Es umfasst eine Population von Individuen mit konstanter oder variabler Größe, ein Fitnesskriterium und genetisch inspirierte Operatoren, die die nächste Generation aus dem aktuellen. Die Anfangspopulation wird typischerweise zufällig oder heuristisch erzeugt, und typische Operatoren sind Mutation und Rekombination. Bei jedem Schritt werden die Individuen nach der vorgegebenen Fitnessfunktion (Survival of the Fittest) bewertet. Die nächste Generation wird von ausgewählten Individuen (Eltern) unter Verwendung genetisch inspirierter Operatoren gewonnen. Die Wahl der Eltern kann durch einen Selektionsoperator geleitet werden, der das biologische Prinzip der Partnerselektion widerspiegelt.Dieser Prozess der simulierten Evolution konvergiert schließlich zu einer nahezu optimalen Population von Individuen aus der Sicht der Fitnessfunktion.

Das Studium evolutionärer Systeme hat sich historisch entlang dreier Hauptzweige entwickelt: Evolutionsstrategien bieten eine Lösung für Parameteroptimierungsprobleme für reellwertige sowie diskrete und gemischte Parametertypen. Evolutionäre Programmierung zielte ursprünglich darauf ab, optimale "intelligente Agenten" zu schaffen, die z. B. als endliche Automaten modelliert wurden. Genetische Algorithmen [14] wendeten die Idee der evolutionären Berechnung auf das Problem an, eine (nahezu) optimale Lösung für ein gegebenes Problem zu finden. Genetische Algorithmen bestanden ursprünglich aus einer Eingabepopulation von Individuen, die als Bitfolgen fester Länge kodiert sind, den genetischen Operatoren Mutation (Bit-Flips) und Rekombination (Kombination eines Präfixes eines Elternteils mit dem Suffix des anderen) und einer problemabhängigen Fitness Funktion. Genetische Algorithmen wurden zur Optimierung von Computerprogrammen verwendet, die als genetische Programmierung bezeichnet werden, und werden heute auch auf reellwertige Parameteroptimierungsprobleme sowie auf viele Arten von kombinatorischen Aufgaben angewendet.

Der Estimation of Distribution Algorithm (EDA) hingegen sind evolutionäre Algorithmen, die traditionelle Reproduktionsoperatoren durch modellgesteuerte ersetzen. Solche Modelle werden von der Bevölkerung durch den Einsatz von maschinellen Lerntechniken gelernt und als probabilistische grafische Modelle dargestellt, aus denen neue Lösungen abgetastet [15] [16] oder durch geführtes Crossover generiert werden können. [17] [18]

Schwarmintelligenz Bearbeiten

Schwarmintelligenz, [19] manchmal auch als kollektive Intelligenz bezeichnet, ist definiert als das Problemlösungsverhalten, das aus der Interaktion einzelner Agenten (z. B. Bakterien, Ameisen, Termiten, Bienen, Spinnen, Fische, Vögel) hervorgeht, die mit anderen Agenten kommunizieren indem sie auf ihre lokale Umgebung einwirken.

Die Partikelschwarmoptimierung wendet diese Idee auf das Problem an, eine optimale Lösung für ein gegebenes Problem durch eine Suche durch einen (mehrdimensionalen) Lösungsraum zu finden. Die Ersteinrichtung ist ein Schwarm von Partikel, die jeweils eine mögliche Lösung des Problems darstellen. Jedes Teilchen hat seine eigene Geschwindigkeit, die von seiner vorherigen Geschwindigkeit (der Trägheitskomponente), der Tendenz zur letzten persönlichen Bestposition (der Nostalgiekomponente) und ihrer Tendenz zu einem globalen Nachbarschaftsoptimum oder lokalen Nachbarschaftsoptimum (der sozialen Komponente) abhängt. Partikel bewegen sich somit durch einen mehrdimensionalen Raum und konvergieren schließlich zu einem Punkt zwischen der globalen Bestleistung und ihrer persönlichen Bestleistung. Partikelschwarm-Optimierungsalgorithmen wurden auf verschiedene Optimierungsprobleme und auf unüberwachtes Lernen, Spiellernen und Planungsanwendungen angewendet.

In gleicher Weise modellieren Ameisenalgorithmen das Nahrungssucheverhalten von Ameisenkolonien. Um den besten Weg zwischen Nest und Nahrungsquelle zu finden, sind Ameisen auf die indirekte Kommunikation angewiesen, indem sie auf dem Weg zurück zum Nest eine Pheromonspur legen, wenn sie Nahrung gefunden haben, bzw. der Konzentration der Pheromone folgen, wenn sie Nahrung suchen. Ameisenalgorithmen wurden erfolgreich auf eine Vielzahl von kombinatorischen Optimierungsproblemen über diskrete Suchräume angewendet.

Künstliche Immunsysteme Bearbeiten

Künstliche Immunsysteme (auch bekannt als immunologisches Rechnen oder Immuncomputing) sind Computersysteme, die von den natürlichen Immunsystemen biologischer Organismen inspiriert sind.

Als informationsverarbeitendes System betrachtet, führt das natürliche Immunsystem von Organismen viele komplexe Aufgaben in paralleler und verteilter Rechenweise aus. [20] Dazu gehören die Unterscheidung zwischen Selbst und Nicht-Selbst, [21] Neutralisierung von Fremd-Erregern (Viren, Bakterien, Pilze und Parasiten), Lernen, Gedächtnis, assoziatives Abrufen, Selbstregulation und Fehlertoleranz. Künstliche Immunsysteme sind Abstraktionen des natürlichen Immunsystems und betonen diese rechnerischen Aspekte. Ihre Anwendungen umfassen die Erkennung von Computerviren, die Erkennung von Anomalien in einer Zeitreihe von Daten, Fehlerdiagnose, Mustererkennung, maschinelles Lernen, Bioinformatik, Optimierung, Robotik und Steuerung.

Membran-Computing Bearbeiten

Membran-Computing untersucht Rechenmodelle, die von der durch Membranen beeinflussten kompartimentierten Struktur lebender Zellen abstrahiert wurden. [22] Ein generisches Membransystem (P-System) besteht aus zellähnlichen Kompartimenten (Regionen) begrenzt durch Membranen, die in einer verschachtelten hierarchischen Struktur platziert sind. Jeder membranumhüllte Bereich enthält Objekte, Transformationsregeln, die diese Objekte modifizieren, sowie Übertragungsregeln, die festlegen, ob die Objekte außerhalb des Bereichs übertragen werden oder innerhalb des Bereichs bleiben. Regionen kommunizieren miteinander über die Übertragung von Objekten. Die Berechnung durch ein Membransystem beginnt mit einer Anfangskonfiguration, bei der die Anzahl (Multiplizität) jedes Objekts auf einen bestimmten Wert für jede Region (Multiset von Objekten) gesetzt wird. Dabei wird nichtdeterministisch und maximal parallel gewählt, welche Regeln auf welche Objekte angewendet werden. Die Ausgabe der Berechnung wird von einem a priori bestimmten Ausgabebereich.

Anwendungen von Membransystemen umfassen maschinelles Lernen, Modellierung biologischer Prozesse (Photosynthese, bestimmte Signalwege, Quorum Sensing in Bakterien, zellvermittelte Immunität) sowie Informatikanwendungen wie Computergrafik, Public-Key-Kryptografie, Approximations- und Sortieralgorithmen , sowie die Analyse verschiedener rechenintensiver Probleme.

Amorphes Rechnen Bearbeiten

In biologischen Organismen wird die Morphogenese (die Entwicklung klar definierter Formen und funktioneller Strukturen) durch die Interaktionen zwischen Zellen erreicht, die von der genetischen Programm in der DNA des Organismus kodiert.

Inspiriert von dieser Idee zielt amorphes Computing darauf ab, wohldefinierte Formen und Muster oder kohärentes Rechenverhalten aus den lokalen Interaktionen einer Vielzahl einfacher unzuverlässiger, unregelmäßig platzierter, asynchroner, identisch programmierter Rechenelemente (Partikel) zu entwickeln. [23] Als Programmierparadigma besteht das Ziel darin, neue Programmiertechniken zu finden, die gut für amorphe Computerumgebungen funktionieren. Auch als Basis für das „Cellular Computing“ spielt Amorphes Computing eine wichtige Rolle (siehe unten die Themen Synthetische Biologie und Cellular Computing).

Morphologisches Rechnen Bearbeiten

Das Verständnis, dass die Morphologie Berechnungen durchführt, wird verwendet, um die Beziehung zwischen Morphologie und Steuerung zu analysieren und um das Design von Robotern mit reduzierten Steuerungsanforderungen theoretisch zu leiten, wurde sowohl in der Robotik als auch zum Verständnis kognitiver Prozesse in lebenden Organismen verwendet, siehe Morphologische Berechnung und . [24]

Cognitive Computing Bearbeiten

Cognitive Computing CC ist eine neue Art von Computing, typischerweise mit dem Ziel der Modellierung von Funktionen der menschlichen Wahrnehmung, des Denkens und der Reaktion auf Reize, siehe Cognitive Computing und . [25]

Die kognitiven Fähigkeiten des heutigen Cognitive Computing sind weit vom menschlichen Niveau entfernt. Der gleiche informationsrechnerische Ansatz kann auf andere, einfachere lebende Organismen angewendet werden. Bakterien sind ein Beispiel für ein rechnerisch modelliertes kognitives System, siehe Eshel Ben-Jacob und Microbes-mind.

Künstliches Leben Bearbeiten

Künstliches Leben (ALife) ist ein Forschungsgebiet, dessen ultimatives Ziel darin besteht, die wesentlichen Eigenschaften von Lebewesen [26] durch den Bau von elektronischen Computern oder anderen künstlichen Medien zu verstehen. von Anfang an Systeme, die Eigenschaften aufweisen, die normalerweise nur mit lebenden Organismen verbunden sind. Frühe Beispiele sind Lindenmayer-Systeme (L-Systeme), die verwendet wurden, um Pflanzenwachstum und -entwicklung zu modellieren. Ein L-System ist ein paralleles Umschreibsystem, das mit einem Anfangswort beginnt und seine Umschreibregeln parallel auf alle Buchstaben des Wortes anwendet. [27]

Zu den bahnbrechenden Experimenten im künstlichen Leben gehörte das Design von sich entwickelnden "virtuellen Blockkreaturen", die in simulierten Umgebungen mit realistischen Merkmalen wie Kinetik, Dynamik, Schwerkraft, Kollision und Reibung agieren. [28] Diese künstlichen Kreaturen wurden aufgrund ihrer Fähigkeiten zum Schwimmen, Gehen oder Springen ausgewählt, und sie wetteiferten um eine gemeinsame begrenzte Ressource (die Kontrolle eines Würfels). Die Simulation führte zur Evolution von Kreaturen mit überraschendem Verhalten: Einige entwickelten Hände, um den Würfel zu greifen, andere entwickelten Beine, um sich auf den Würfel zuzubewegen. Dieser rechnerische Ansatz wurde weiter mit der Rapid Manufacturing-Technologie kombiniert, um tatsächlich die physischen Roboter zu bauen, die sich virtuell entwickelt haben. [29] Dies markierte die Entstehung des Gebiets der mechanisches künstliches Leben.

Das Gebiet der Synthetischen Biologie erforscht eine biologische Umsetzung ähnlicher Ideen. Andere Forschungsrichtungen im Bereich des künstlichen Lebens umfassen die künstliche Chemie sowie traditionell biologische Phänomene, die in künstlichen Systemen erforscht werden, von rechnerischen Prozessen wie koevolutionäre Anpassung und Entwicklung bis hin zu physikalischen Prozessen wie Wachstum, Selbstreplikation und Selbstreplikation. Reparatur.

Alle oben genannten Rechentechniken wurden, obwohl von der Natur inspiriert, bisher hauptsächlich auf herkömmlicher elektronischer Hardware implementiert. Im Gegensatz dazu verwenden die beiden hier vorgestellten Paradigmen, Molecular Computing und Quantum Computing, radikal unterschiedliche Arten von Hardware.

Molekulares Computing Bearbeiten

Molecular Computing (auch bekannt als Biomolecular Computing, Biocomputing, Biochemical Computing, DNA Computing) ist ein Rechenparadigma, bei dem Daten als Biomoleküle wie DNA-Stränge codiert werden und molekularbiologische Werkzeuge auf die Daten einwirken, um verschiedene Operationen (z. B. arithmetische oder logische Operationen) durchzuführen ).

Die erste experimentelle Realisierung eines molekularen Spezialcomputers war das bahnbrechende Experiment von 1994 von Leonard Adleman, der eine 7-Knoten-Instanz des Hamiltonian Path Problems allein durch Manipulation von DNA-Strängen in Reagenzgläsern löste. [30] DNA-Berechnungen beginnen mit einer anfänglichen Eingabe, die als DNA-Sequenz codiert ist (im Wesentlichen eine Sequenz über dem Vier-Buchstaben-Alphabet ) und gehen durch eine Abfolge von Biooperationen wie Cut-and-Paste (durch Restriktionsenzyme und Ligasen), Extraktion von Strängen, die eine bestimmte Teilsequenz enthalten (durch Watson-Crick-Komplementarität), Kopieren (durch Verwendung einer Polymerase-Kettenreaktion, die verwendet das Polymerase-Enzym) und Auslesen. [31] Neuere experimentelle Forschungen haben es geschafft, komplexere Fälle von NP-vollständigen Problemen zu lösen, wie z. B. eine 20-Variablen-Instanz von 3SAT und nasse DNA-Implementierungen von endlichen Automaten mit möglichen Anwendungen für das Design intelligenter Medikamente.

Einer der bemerkenswertesten Beiträge der Forschung auf diesem Gebiet ist das Verständnis der Selbstorganisation. [33] Selbstorganisation ist der Bottom-up-Prozess, bei dem Objekte autonom zu komplexen Strukturen zusammenkommen. Beispiele in der Natur sind reichlich vorhanden und umfassen Atome, die durch chemische Bindungen binden, um Moleküle zu bilden, und Moleküle, die Kristalle oder Makromoleküle bilden. Beispiele für Forschungsthemen zur Selbstorganisation sind selbstorganisierte DNA-Nanostrukturen [34] wie Sierpinski-Dreiecke [35] oder beliebige Nanoformen, die mit der DNA-Origami-Technik [36] erhalten wurden, und DNA-Nanomaschinen [37] wie DNA-basierte Schaltkreise (binäre Zähler, bitweise kumulatives XOR), Ribozyme für logische Operationen, molekulare Schalter (DNA-Pinzetten) und autonome molekulare Motoren (DNA-Walker).

Die theoretische Forschung im Molecular Computing hat mehrere neuartige Modelle des DNA-Computing hervorgebracht (z. B. Spleißsysteme, die bereits 1987 von Tom Head eingeführt wurden) und deren Rechenleistung wurde untersucht. [38] Inzwischen ist bekannt, dass verschiedene Teilmengen von Biooperationen die Rechenleistung von Turing-Maschinen erreichen können [ Zitat benötigt ] .

Quantencomputer Bearbeiten

Ein Quantencomputer [39] verarbeitet Daten, die als Quantenbits (Qubits) gespeichert sind, und verwendet quantenmechanische Phänomene wie Superposition und Verschränkung, um Berechnungen durchzuführen. Ein Qubit kann eine "0", eine "1" oder eine Quantenüberlagerung davon enthalten. Ein Quantencomputer arbeitet mit Qubits mit Quantenlogik-Gattern. Durch Shors polynomialer Algorithmus zum Faktorisieren von ganzen Zahlen und Grovers Algorithmus für die Quantendatenbanksuche, der einen quadratischen Zeitvorteil hat, wurde gezeigt, dass Quantencomputer gegenüber elektronischen Computern möglicherweise einen erheblichen Vorteil besitzen.

Die Quantenkryptographie basiert nicht auf der Komplexität der Berechnung, sondern auf den besonderen Eigenschaften der Quanteninformation, wie beispielsweise der Tatsache, dass Quanteninformationen nicht zuverlässig gemessen werden können und jeder Versuch, sie zu messen, zu einer unvermeidlichen und irreversiblen Störung führt. 2007 wurde über ein erfolgreiches Open-Air-Experiment zur Quantenkryptographie berichtet, bei dem Daten sicher über eine Entfernung von 144 km übertragen wurden. [40] Die Quantenteleportation ist eine weitere vielversprechende Anwendung, bei der ein Quantenzustand (nicht Materie oder Energie) an einen beliebigen entfernten Ort übertragen wird. Implementierungen von praktischen Quantencomputern basieren auf verschiedenen Substraten wie Ionenfallen, Supraleitern, Kernspinresonanz usw. Ab 2006 verwendete das größte Quantencomputing-Experiment flüssige Kernspinresonanz-Quanteninformationsprozessoren und konnte mit bis zu 12 betrieben werden Qubits. [41]

Der doppelte Aspekt der natürlichen Berechnung besteht darin, dass sie darauf abzielt, die Natur zu verstehen, indem sie natürliche Phänomene als Informationsverarbeitung betrachtet. Bereits in den 1960er Jahren schlugen Zuse und Fredkin die Idee vor, dass das gesamte Universum ein Rechenmechanismus (Informationsverarbeitung) ist, der als zellulärer Automat modelliert wird, der seine Regeln ständig aktualisiert. [3] [4] Ein neuerer quantenmechanischer Ansatz von Lloyd schlägt das Universum als Quantencomputer vor, der sein eigenes Verhalten berechnet, [5] während Vedral [42] behauptet, dass Information der grundlegendste Baustein der Realität ist.

Das Universum/die Natur als Rechenmechanismus wird in [6] der Erforschung der Natur mit Hilfe der Ideen der Berechenbarkeit ausgearbeitet, während [7] ausgehend von der Idee der Natur als Netzwerk von Netzwerken von Informationsprozessen auf verschiedenen Organisationsebenen das Studium natürlicher Prozesse als Berechnungen (Informationsverarbeitung).

Die Hauptforschungsrichtungen in diesem Bereich sind Systembiologie, Synthetische Biologie und zelluläres Computing.

Systembiologie Bearbeiten

Computergestützte Systembiologie (oder einfach Systembiologie) ist ein integrativer und qualitativer Ansatz, der die komplexen Kommunikationen und Interaktionen in biologischen Systemen untersucht. In der Systembiologie stehen daher die Interaktionsnetzwerke selbst und die durch diese Netzwerke entstehenden Eigenschaften biologischer Systeme im Mittelpunkt der Untersuchung und nicht die einzelnen Komponenten funktioneller Prozesse in einem Organismus. Diese Art der Forschung an organischen Komponenten hat sich stark auf vier verschiedene voneinander abhängige Interaktionsnetzwerke konzentriert: [43] Genregulatorische Netzwerke, biochemische Netzwerke, Transportnetzwerke und Kohlenhydratnetzwerke.

Genregulatorische Netzwerke umfassen Gen-Gen-Interaktionen sowie Interaktionen zwischen Genen und anderen Substanzen in der Zelle. Gene werden in Boten-RNA (mRNA) transkribiert und dann entsprechend dem genetischen Code in Proteine ​​übersetzt. Jedes Gen ist mit anderen DNA-Segmenten (Promotoren, Enhancern oder Silencer) assoziiert, die als Bindungsstellen für Aktivatoren oder Repressoren für die Gentranskription fungieren. Gene interagieren miteinander entweder durch ihre Genprodukte (mRNA, Proteine), die die Gentranskription regulieren können, oder durch kleine RNA-Spezies, die Gene direkt regulieren können. Diese Gen-Gen-Interaktionen bilden zusammen mit den Interaktionen der Gene mit anderen Substanzen in der Zelle das grundlegendste Interaktionsnetzwerk: die Genregulationsnetzwerke. Sie übernehmen Aufgaben der Informationsverarbeitung innerhalb der Zelle, einschließlich des Aufbaus und der Wartung anderer Netzwerke. Modelle von Genregulationsnetzwerken umfassen zufällige und probabilistische Boolesche Netzwerke, asynchrone Automaten und Netzwerkmotive.

Ein anderer Standpunkt ist, dass das gesamte genomische Regulationssystem ein Rechensystem ist, a genomischer Computer. Diese Interpretation erlaubt es, die vom Menschen gemachte elektronische Berechnung mit der Berechnung zu vergleichen, wie sie in der Natur vorkommt. [44]

Ein Vergleich zwischen genomischen und elektronischen Computern
Genomischer Computer Elektronischer Computer
Die Architektur veränderbar starr
Komponentenkonstruktion Bedarfsbasis von Anfang an
Koordinierung kausale Koordination zeitliche Synchronität
Unterscheidung zwischen Hardware und Software Nein Jawohl
Transportmedien Moleküle und Ionen Drähte

Darüber hinaus wird die Robustheit eines Genomcomputers im Gegensatz zu einem herkömmlichen Computer durch verschiedene Rückkopplungsmechanismen erreicht, durch die schlecht funktionierende Prozesse schnell abgebaut werden, schlecht funktionierende Zellen durch Apoptose abgetötet werden und schlecht funktionierende Organismen durch geeignetere Arten verdrängt werden.

Biochemische Netzwerke beziehen sich auf die Interaktionen zwischen Proteinen und erfüllen verschiedene mechanische und metabolische Aufgaben innerhalb einer Zelle. Zwei oder mehr Proteine ​​können über die Bindung ihrer Interaktionsstellen aneinander binden und einen dynamischen Proteinkomplex bilden (Komplexierung). Diese Proteinkomplexe können als Katalysatoren für andere chemische Reaktionen wirken oder sich gegenseitig chemisch modifizieren. Solche Modifikationen verursachen Veränderungen an verfügbaren Bindungsstellen von Proteinen. In einer Zelle befinden sich Zehntausende von Proteinen, die miteinander interagieren. Um solch massive Wechselwirkungen zu beschreiben, wurden Kohn-Karten [45] als grafische Notation eingeführt, um molekulare Wechselwirkungen in prägnanten Bildern darzustellen. Andere Ansätze zur genauen und prägnanten Beschreibung von Protein-Protein-Wechselwirkungen umfassen die Verwendung von textuellen Biokalkülen [46] oder Pi-Kalkülen, die mit stochastischen Merkmalen angereichert sind. [47]

Transportnetzwerke beziehen sich auf die Trennung und den Transport von Substanzen, die durch Lipidmembranen vermittelt werden. Einige Lipide können sich selbst zu biologischen Membranen zusammenlagern. Eine Lipidmembran besteht aus einer Lipiddoppelschicht, in die Proteine ​​und andere Moleküle eingebettet sind, die entlang dieser Schicht wandern können. Durch Lipiddoppelschichten werden Substanzen zwischen der Innen- und Außenseite von Membranen transportiert, um mit anderen Molekülen zu interagieren. Formalismen, die Transportnetzwerke darstellen, umfassen Membransysteme und Brankalküle. [48]

Synthetische Biologie Bearbeiten

Die Synthetische Biologie zielt darauf ab, synthetische biologische Komponenten zu entwickeln, mit dem ultimativen Ziel, ganze biologische Systeme aus ihren Bestandteilen zusammenzusetzen. Die Geschichte der Synthetischen Biologie lässt sich bis in die 1960er Jahre zurückverfolgen, als François Jacob und Jacques Monod die mathematische Logik der Genregulation entdeckten. Gentechnologische Techniken, die auf rekombinanter DNA-Technologie basieren, sind ein Vorläufer der heutigen synthetischen Biologie, die diese Techniken auf ganze Systeme von Genen und Genprodukten ausdehnt.

Neben der Möglichkeit, immer längere DNA-Stränge zu synthetisieren, wurde die Aussicht auf die Schaffung synthetischer Genome mit dem Ziel, vollständig künstliche synthetische Organismen zu bauen, Realität. Tatsächlich ermöglichte der schnelle Zusammenbau chemisch synthetisierter kurzer DNA-Stränge die Erzeugung eines 5386 bp synthetischen Genoms eines Virus. [49]

Alternativ haben Smith et al. fanden etwa 100 Gene, die einzeln aus dem Genom von entfernt werden können Mycoplasma Genitalium. Diese Entdeckung ebnet den Weg zum Aufbau eines minimalen, aber noch lebensfähigen künstlichen Genoms, das nur aus den essentiellen Genen besteht.

Ein dritter Ansatz zur Entwicklung halbsynthetischer Zellen ist die Konstruktion eines einzelnen Typs von RNA-ähnlichen Molekülen mit der Fähigkeit zur Selbstreplikation. [50] Ein solches Molekül könnte erhalten werden, indem die schnelle Evolution einer anfänglichen Population von RNA-ähnlichen Molekülen durch Selektion auf die gewünschten Merkmale gesteuert wird.

Ein weiterer Versuch auf diesem Gebiet besteht darin, multizelluläre Systeme zu konstruieren, indem beispielsweise Zell-zu-Zell-Kommunikationsmodule entworfen werden, die verwendet werden, um lebende Bakterienzellpopulationen zu koordinieren. [51]

Mobilfunk-Computing Bearbeiten

Die Berechnung in lebenden Zellen (auch bekannt als zelluläres Computing oder In-vivo-Computing) ist ein weiterer Ansatz, um Natur als Berechnung zu verstehen. Eine besondere Studie auf diesem Gebiet ist die der computergestützten Natur der Genmontage in einzelligen Organismen, die als Ciliaten bezeichnet werden. Ciliaten speichern eine Kopie ihrer DNA, die funktionelle Gene enthält, im Makronukleus und eine weitere "verschlüsselte" Kopie im Mikronukleus. Die Konjugation zweier Ciliaten besteht aus dem Austausch ihrer mikronuklearen genetischen Information, was zur Bildung von zwei neuen Mikronuklei führt, gefolgt von der Wiederzusammenfügung der Informationen jedes Ciliaten aus seinem neuen Mikronukleus, um einen neuen funktionellen Makronukleus zu konstruieren. Der letztere Prozess wird Genassemblierung oder Gen-Neuanordnung genannt. Es beinhaltet die Neuordnung einiger DNA-Fragmente (Permutationen und möglicherweise Inversion) und das Löschen anderer Fragmente aus der mikronuklearen Kopie. Aus rechnerischer Sicht führte die Untersuchung dieses Gen-Assembly-Prozesses zu vielen herausfordernden Forschungsthemen und -ergebnissen, wie etwa der Turing-Universalität verschiedener Modelle dieses Prozesses. [52] Aus biologischer Sicht wurde eine plausible Hypothese über die „Bioware“ vorgeschlagen, die den Genassemblierungsprozess implementiert, basierend auf der templatgesteuerten Rekombination. [53] [54]

Andere Ansätze für das zellulare Computing umfassen die Entwicklung eines in vivo programmierbarer und autonomer endlicher Automat mit E coli, [55] konstruieren und konstruieren in vivo zelluläre Logikgatter und genetische Schaltkreise, die die bestehenden biochemischen Prozesse der Zelle nutzen (siehe zum Beispiel [56] ) und die globale Optimierung der Spaltöffnungen in Blättern nach einem Satz lokaler Regeln, die einem zellulären Automaten ähneln. [57]

  1. ^ G.Rozenberg, T.Back, J.Kok, Herausgeber, Handbook of Natural Computing, Springer Verlag, 2012
  2. ^ A. Brabazon, M. O'Neill, S. McGarraghy. Natural Computing Algorithms, Springer Verlag, 2015
  3. ^ einB Fredkin, F. Digitale Mechanik: Ein Informationsprozess basierend auf reversibler universeller CA. Physica D 45 (1990) 254-270
  4. ^ einB Zuse, K. Rechnender Raum. Elektronische Datenverarbeitung 8 (1967) 336-344
  5. ^ einB Lloyd, S. Programmieren des Universums: Ein Quanteninformatiker nimmt es mit dem Kosmos auf. Knopf, 2006
  6. ^ einB Zenil, H. Ein berechenbares Universum: Natur als Berechnung verstehen und erforschen. Weltwissenschaftlicher Verlag, 2012
  7. ^ einB Dodig-Crnkovic, G. und Giovagnoli, R. COMPUTING NATURE. Springer, 2013
  8. ^ Olarius S., Zomaya A.Y., Handbook of Bioinspired Algorithms and Applications, Chapman & Hall/CRC, 2005.
  9. ^ de Castro, L. N., Fundamentals of Natural Computing: Basic Concepts, Algorithms, and Applications, CRC Press, 2006.
  10. ^ von Neumann, J. Der Computer und das Gehirn. Yale University Press, 1958
  11. ^ Arbib, M., Herausgeber. Das Handbuch der Hirntheorie und neuronaler Netze. MIT-Presse, 2003.
  12. ^ Rojas, R. Neuronale Netze: Eine systematische Einführung. Springer, 1996
  13. ^ Bäck, T., Fogel, D., Michalewicz, Z., Herausgeber. Handbuch der Evolutionären Berechnung. IOP Publishing, Großbritannien, 1997
  14. ^ Koza, J. Genetische Programmierung: Zur Programmierung von Computern durch natürliche Selektion. MIT-Presse, 1992
  15. ^ Pelikan, Martin Goldberg, David E. Cantú-Paz, Erick (1. Januar 1999). BOA: Der Bayessche Optimierungsalgorithmus. Proceedings of the 1st Annual Conference on Genetic and Evolutionary Computing - Band 1. Gecco'99. S. 525–532. ISBN9781558606111 .
  16. ^
  17. Pelikan, Martin (2005). Hierarchischer Bayesscher Optimierungsalgorithmus: Auf dem Weg zu einer neuen Generation evolutionärer Algorithmen (1. Aufl.). Berlin [u.a.]: Springer. ISBN978-3-540-23774-7 .
  18. ^
  19. Thierens, Dirk (11.09.2010). Der genetische Algorithmus des Verknüpfungsbaums. Parallele Problemlösung aus der Natur, PPSN XI. S. 264–273. doi:10.1007/978-3-642-15844-5_27. ISBN978-3-642-15843-8 .
  20. ^
  21. Martins, Jean P. Fonseca, Carlos M. Delbem, Alexandre C. B. (25. Dezember 2014). „Über die Leistung von Linkage-Tree-genetischen Algorithmen für das mehrdimensionale Rucksackproblem“. Neurocomputing. 146: 17–29. doi:10.1016/j.neucom.2014.04.069.
  22. ^ Engelbrecht, A. Grundlagen der Computational Swarm Intelligence. Wiley und Söhne, 2005.
  23. ^ Dasgupta, D. Herausgeber. Künstliche Immunsysteme und ihre Anwendungen. Springer, 1998
  24. ^ de Castro, L., Timmis, J. Künstliche Immunsysteme: Ein neuer Ansatz der Computerintelligenz. Springer, 2002.
  25. ^ Paun, G. Membran-Computing: Eine Einführung. Springer, 2002
  26. ^ Abelson, H., Allen, D., Coore, D., Hanson, C., Homsy, G., Knight Jr., T., Nagpal, R., Rauch, E., Sussman, G., Weiss, R Amorphes Rechnen. Mitteilungen des ACM 43,5 (Mai 2000), 74-82
  27. ^ Pfeifer, R. und Füchslin R. Morphological Computing. (ab S.11), 2013
  28. ^ Pfeifer, R. und Bondgard, J. Wie der Körper unser Denken prägt: eine neue Sicht der Intelligenz. MIT-Presse, 2006
  29. ^ Langton, C., Herausgeber. Künstliches Leben. Addison-Wesley Longman, 1990
  30. ^ Rozenberg, G. und Salomaa, A. The Mathematical Theory of L Systems. Akademische Presse, 1980
  31. ^ Bäche. R. Künstliches Leben: Von Roboterträumen zur Realität. Natur 406 (2000), 945-947
  32. ^ Lipson, P., Pollack, J. Automatisches Design und Herstellung von Roboterlebensformen. Natur 406 (2000), 974-978
  33. ^ Adleman, L. Molekulare Berechnung von Lösungen für kombinatorische Probleme. Archiviert am 6. Februar 2005 an der Wayback Machine. Wissenschaft 266 (1994), 1021-1024
  34. ^ Kari, L. DNA-Computing - die Ankunft der biologischen Mathematik. The Mathematical Intelligencer 19, 2 (1997) 9-22
  35. ^ Fujibayashi, K., Hariadi, R., Park, S-H., Winfree, E., Murata, S. Auf dem Weg zur zuverlässigen algorithmischen Selbstorganisation von DNA-Kacheln: Ein zelluläres Automatenmuster mit fester Breite. Nano-Buchstaben 8(7) (2007) 1791-1797.
  36. ^ Reif, J. und LaBean, T. Autonome programmierbare biomolekulare Geräte mit selbstorganisierten DNA-Nanostrukturen. Mitteilungen des ACM 50, 9 (Sept. 2007), 46-53
  37. ^ Seeman, N. Nanotechnologie und die Doppelhelix. Scientific American Reports, 17. 3 (2007), 30-39
  38. ^ Rothemund, P., Papadakis, N., Winfree, E. Algorithmische Selbstorganisation von DNA-Sierpinski-Dreiecken. PLoS Biologie 2, 12 (Dezember 2004)
  39. ^ Rothemund, P. DNA falten, um nanoskalige Formen und Muster zu erzeugen. Natur 440 (2006) 297-302.
  40. ^ Bath, J., Turberfield, A. DNA-Nanomaschinen. Natur Nanotechnologie 2 (Mai 2007), 275-284
  41. ^ Paun, G., Rozenberg, G., Salomaa, A. DNA-Computing: Neue Computerparadigmen. Springer, 1998
  42. ^ Hirvensalo, M. Quantum Computing, 2. Aufl. Springer, 2004
  43. ^ Ursin, R. et al. Entanglemen-basierte Quantenkommunikation über 144 km. Naturphysik 3 (2007) 481-486
  44. ^ Negrevergne, C. et al. Benchmarking von Quantenkontrollmethoden auf einem 12-Qubit-System. Physische Überprüfungsschreiben 96:art170501, 2006
  45. ^ Vedral, V. [Decodierung der Realität: Das Universum als Quanteninformation]. Oxford University Press, 2010
  46. ^ Cardelli, L. Abstrakte Maschinen der SystembiologieArchiviert am 19. April 2008 im Wayback Machine Bulletin der EATCS 93 (2007), 176-204
  47. ^ Istrail, S., De-Leon, B-T., Davidson, E. Das regulatorische Genom und der Computer. Entwicklungsbiologie 310 (2007), 187-195
  48. ^ Kohn, K. Molekulare Interaktionskarte der Zellzykluskontroll- und DNA-Reparatursysteme von Säugetieren. Molekularbiologie der Zelle 10(8) (1999) 2703-2734.
  49. ^ Nagasaki, M., Onami, S., Miyano, S., Kitano, H. Biokalkül: sein Konzept und molekulare Interaktion [permanent toter Link] . Genominformatik 10 (1999) 133-143.
  50. ^ Regev, A., Shapiro, E. Zelluläre Abstraktionen: Zellen als Berechnung. Natur 419 (2002) 343
  51. ^ Cardelli, L. Brane-Kalküle: Wechselwirkungen biologischer Membranen. In LNCS 3082, Seiten 257-280. Springer, 2005.
  52. ^ Smith, H., Hutchison III, C., Pfannkoch, C. und Venter, C. Generierung eines synthetischen Genoms durch Gesamtgenom-Assembly: X174 Bakteriophage aus synthetischen Oligonukleotiden. PNAS 100, 26 (2003), 15440-15445.
  53. ^ Sazani, P., Larralde, R., Szostak, J. Ein kleines Aptamer mit starker und spezifischer Erkennung des Triphosphats von ATP. Zeitschrift der American Chemical Society, 126(27) (2004) 8370-8371
  54. ^ Weiss, R., Knight, Jr., T. Engineered Communications für mikrobielle Robotik. In LNCS 2054, Seiten 1-16, Springer, 2001
  55. ^ Landweber, L. und Kari, L. Die Evolution des zellulären Computings: Die Lösung der Natur für ein Rechenproblem [permanent toter Link] . Biosysteme, 52, 1/3 (1999) 3-13.
  56. ^
  57. Angeleska, A. Jonoska, N. Saito, M. Landweber, L. (2007). „RNA-geführte DNA-Assemblierung“. Zeitschrift für Theoretische Biologie. 248 (4): 706–720. doi:10.1016/j.jtbi.2007.06.007. PMID17669433.
  58. ^ Prescott, D., Ehrenfeucht, A. und Rozenberg, G. Template-guided Rekombination zur IES-Eliminierung und Entschlüsselung von Genen in stichotrichen Ciliaten [toter Link] . J. Theoretische Biologie 222, 3 (2003), 323-330.
  59. ^ Nakagawa, H., Sakamoto, K., Sakakibara, Y. Entwicklung einer in vivo Computer basierend auf Escherichia Coli. In LNCS 3892, Seiten 203-212, Springer, 2006
  60. ^ Zabet NR, Hone ANW, Chu DF Designprinzipien von TranskriptionslogikschaltungenArchiviert am 7. März 2012 an der Wayback Machine. In Artificial Life XII Proceedings of the Twelfth International Conference on the Synthesis and Simulation of Living Systems, Seiten 186-193. MIT-Presse, August 2010.
  61. ^
  62. Duran-Nebreda S, Bassel G (April 2019). „Pflanzenverhalten als Reaktion auf die Umwelt: Informationsverarbeitung im Festkörper“. Philosophische Transaktionen der Royal Society B. 374 (1774): 20180370. doi:10.1098/rstb.2018.0370. PMC6553596 . PMID31006360.

Dieser Artikel wurde basierend auf den folgenden Referenzen mit freundlicher Genehmigung der Autoren verfasst:

  • Lila Kari, Grzegorz Rozenberg (Oktober 2008). „Die vielen Facetten des Natural Computing“. Mitteilungen des ACM. 51 (10): 72–83. doi: 10.1145/1400181.1400200 .
  • Leandro Nunes de Castro (März 2007). „Grundlagen des Natural Computing: Ein Überblick“. Physik des Lebens Bewertungen. 4 (1): 1–36. Bibcode:2007PhLRv. 4. 1D. doi:10.1016/j.plrev.2006.10.002.

Viele der konstituierenden Forschungsgebiete des Natural Computing haben eigene Fachzeitschriften und Buchreihen. Zu den Zeitschriften und Buchreihen, die sich dem breiten Feld des Natural Computing widmen, zählen die Zeitschriften International Journal of Natural Computing Research (IGI Global), Natural Computing (Springer Verlag), Theoretical Computer Science, Series C: Theory of Natural Computing (Elsevier), the Natural Computing-Buchreihen (Springer Verlag) und das Handbook of Natural Computing (G.Rozenberg, T.Back, J.Kok, Herausgeber, Springer Verlag).

  • Ridge, E. Kudenko, D. Kazakov, D. Curry, E. (2005). „Verlagerung von naturinspirierten Algorithmen in parallele, asynchrone und dezentrale Umgebungen“. Selbstorganisation und autonome Informatik (I). 135: 35–49. CiteSeerX10.1.1.64.3403 .
  • Schwärme und Schwarmintelligenz von Michael G. Hinchey, Roy Sterritt und Chris Rouff,

Für Leser, die sich für populärwissenschaftliche Artikel interessieren, sollten Sie diesen auf Medium: Nature-Inspired Algorithms in Betracht ziehen


Der Stand der KI im Jahr 2020: KI-Moment in Biologie und Gesundheitswesen, Ethik, Vorhersagen und neuronale Graphennetze

Durchbrüche in Forschung und Industrie, Ethik und Vorhersagen. So sieht KI heute aus und so wird sie wahrscheinlich morgen aussehen.

Von George Anadiotis für Big on Data | 12. Oktober 2020 -- 14:46 GMT (07:46 PDT) | Thema: Künstliche Intelligenz

Der State of AI Report 2020 ist ein umfassender Bericht rund um KI. Wir knüpfen dort an, wo wir bei der Zusammenfassung der wichtigsten Ergebnisse aufgehört haben, und setzen das Gespräch mit den Autoren Nathan Benaich und Ian Hogarth fort. Benaich ist der Gründer von Air Street Capital und RAAIS, und Hogarth ist ein AI-Angel-Investor und ein UCL IIPP-Gastprofessor.

Bisherige Schwerpunktthemen waren KI-Demokratisierung, Industrialisierung und der Weg zur künstlichen allgemeinen Intelligenz. Wir fahren mit dem KI-Moment im Gesundheitswesen und der Biologie, den Durchbrüchen in Forschung und Anwendung, der KI-Ethik und den Vorhersagen fort.

Grundierungen

Der KI-Moment der Biologie und des Gesundheitswesens

Ein wichtiger Punkt, der mit Benaich und Hogarth diskutiert wurde, war die Demokratisierung von KI: Was sie bedeutet, ob sie anwendbar ist und wie man gegen Giganten konkurrieren kann, die über die Ressourcen verfügen, um riesige Modelle für maschinelles Lernen im Maßstab zu trainieren.

Eine der in dem Bericht untersuchten Ideen besteht darin, bereits vorhandene Modelle zu verwenden und sie auf bestimmte Domänen abzustimmen. Benaich merkte an, dass die Verwendung eines großen Modells oder eines vortrainierten Modells in einem Feld und das Verschieben in ein anderes Feld dazu beitragen kann, die Leistung auf ein höheres Niveau zu heben:

„Insofern werden Biologie und Gesundheitswesen zunehmend zu digitalen Domänen mit viel Bildgebung, sei es im Zusammenhang mit Gesundheitszuständen oder wie Zellen aussehen, wenn sie krank sind hat eine viel bessere Leistung erbracht, als bei Null anzufangen."

Dies, fügte Benaich hinzu, spielt in einem der dominierenden Themen des Berichts eine Rolle: Biologie – in der Benaich einen Hintergrund hat – und das Gesundheitswesen haben ihren KI-Moment. Es gibt Beispiele für Start-ups an der Spitze der F&E, die sich der Produktion zuwenden, um Probleme in der Biologie anzugehen. Ein Anwendungsbereich, den Benaich hervorhob, war das Drogenscreening:

„Wenn ich ein Softwareprodukt habe, kann ich viele potenzielle Medikamente entwickeln, die gegen das Krankheitsprotein wirken könnten, auf das ich abzielen möchte. Wie kann ich von den Tausenden oder Hunderttausenden von möglichen Medikamenten wissen, welche wirken? "Und vorausgesetzt, ich kann herausfinden, welche funktionieren könnte, woher weiß ich, ob ich es tatsächlich schaffen kann?"

Jenseits von Computer Vision, fügte Benaich hinzu, gibt es mehrere Beispiele für KI-Sprachmodelle, die beim Protein-Engineering oder beim Verständnis von DNA nützlich sind, "im Wesentlichen behandeln sie eine Sequenz von Aminosäuren, die Proteine ​​oder DNA kodieren, nur als eine andere Form von Sprache, eine Form". von Zeichenketten, die Sprachmodelle genauso interpretieren können wie Zeichen, die Wörter buchstabieren."

Die FDA hat einen neuen Vorschlag veröffentlicht, um den hoch iterativen und adaptiven Charakter von KI-Systemen in einem, wie sie es nennen, „total Product Lifecycle“-Regulierungsansatz zu berücksichtigen, der auf guten Praktiken des maschinellen Lernens basiert.

Transformer-basierte Sprachmodelle wie GPT3 wurden auch für Aufgaben wie das Vervollständigen von Bildern oder das Konvertieren von Code zwischen verschiedenen Programmiersprachen verwendet. Benaich und Hogarth weisen darauf hin, dass die Verallgemeinerungsfähigkeit des Transformators bemerkenswert ist, warnen aber gleichzeitig am Beispiel Code: Kein Expertenwissen erforderlich, aber auch keine Garantie, dass das Modell die Funktionen nicht auswendig gelernt hat.

Auslöser für diese Diskussion war die – von einigen Forschern gestellte – Frage, ob der Fortschritt in ausgereiften Bereichen des maschinellen Lernens stagniert. Dass COVID19 das Jahr 2020 dominiert, spiegelt sich aus unserer Sicht auch in den Auswirkungen auf die KI wider. Und es gibt Beispiele dafür, wie KI in der Biologie und im Gesundheitswesen zur Bekämpfung von COVID19 eingesetzt wurde.

Benaich stellte anhand von Beispielen aus der Biologie und dem Gesundheitswesen fest, dass der Anwendungsbereich jenseits der Forschung keineswegs stagniert. Der Bericht umfasst Arbeiten in diesem Bereich, die von Startups wie InVivo und Recursion bis hin zu Google Health, DeepMind und dem NHS reichen.

Darüber hinaus hat das US-amerikanische Medicaid- und Medicare-System ein auf KI basierendes medizinisches Bildgebungsprodukt für Schlaganfall zugelassen. Trotz bereits bestehender FDA-Zulassungen für die auf Deep-Learning basierende medizinische Bildgebung, sei es für Schlaganfall, Mammographie oder Knochenbrüche, ist dies bisher die einzige, die tatsächlich erstattet wurde, bemerkte Benaich:

„Viele Leute in der Praxis sind der Meinung, dass die Kostenerstattung der entscheidende Moment ist. Das ist der wirtschaftliche Anreiz für Ärzte, Verordnungen zu verschreiben, weil sie zurückgezahlt werden. Wir denken also, dass dies ein großes Ereignis ist dies und um sicherzustellen, dass mehr Patienten Anspruch auf diese Erstattung haben, die aber dennoch bedeutend sind."

Interessanterweise hat die FDA auch einen neuen Vorschlag veröffentlicht, um den hochgradig iterativen und adaptiven Charakter von KI-Systemen in einen regulatorischen Ansatz zu integrieren, den sie als "Total Product Lifecycle" bezeichnen, der auf guten Praktiken des maschinellen Lernens basiert.

Graphische neuronale Netze: Dreidimensional werden

Der Bericht enthält auch eine Reihe von Beispielen, die Benaich anführte: "Beweisen Sie, dass die großen Pharmaunternehmen tatsächlich von der Zusammenarbeit mit ihren ersten Arzneimittelforschungsunternehmen profitieren." Diese Diskussion führt natürlich zum Thema des Fortschritts in einem bestimmten Bereich des maschinellen Lernens: graphische neuronale Netze.

Die Verbindung bestand darin, wie graphische neuronale Netze (GNNs) verwendet werden, um die Vorhersage chemischer Eigenschaften zu verbessern und das Screening von Antibiotika zu leiten, was zu neuen Medikamenten in vivo führt. Die meisten Deep-Learning-Methoden konzentrieren sich auf das Lernen aus zweidimensionalen Eingabedaten. Das heißt, als Matrizen dargestellte Daten. GNNs sind eine aufstrebende Familie von Methoden zur Verarbeitung von 3D-Daten. Das mag kryptisch klingen, ist aber eine große Sache. Der Grund dafür ist, dass mehr Informationen durch das neuronale Netz verarbeitet werden können.

„Ich denke, es kommt auf ein Thema an, nämlich die richtige Darstellung biologischer Daten, die tatsächlich die ganze Komplexität und die Physik, Chemie und lebendigen Nuancen eines biologischen Systems in einer kompakten, einfach zu beschreibenden mathematischen Darstellung ausdrückt, die ein Modell des maschinellen Lernens etwas machen kann", sagte Benaich.

Manchmal ist es schwierig, biologische Systeme als Matrix zu konzeptualisieren, daher könnte es sehr gut sein, dass wir einfach nicht all diese impliziten Informationen ausnutzen, die in einem biologischen System enthalten sind, fügte er hinzu. Aus diesem Grund sind grafische Darstellungen ein interessanter nächster Schritt – weil sie sich als Werkzeug intuitiv anfühlen, um etwas verbundenes darzustellen, beispielsweise ein chemisches Molekül.

Graphische neuronale Netze ermöglichen die Darstellung dreidimensionaler Strukturen für Deep Learning. Dies bedeutet, dass man mehr Informationen erfassen und nutzen kann und sich gut für das Gebiet der Biologie eignet. Bild: M. Bronstein

Benaich nannte Beispiele für die Vorhersage von Moleküleigenschaften und die Planung chemischer Synthesen, aber auch für den Versuch, neue kleine Moleküle zu identifizieren. Kleine Moleküle werden wie Lego-Bausteine ​​behandelt. Durch den Einsatz von Fortschritten in der DNA-Sequenzierung werden all diese Chemikalien in einem Röhrchen mit einem Zielmolekül vermischt, und die Forscher können sehen, welche Bausteine ​​sich zusammengefügt und an das interessierende Ziel gebunden haben.

Wenn Kandidaten für kleine Moleküle identifiziert wurden, die zu funktionieren scheinen, können GNNs verwendet werden, um herauszufinden, welche Gemeinsamkeiten diese Bausteine ​​haben, die sie zu guten Bindern für das interessierende Ziel machen. Das Hinzufügen dieser maschinellen Lernschicht zu einem standardmäßigen und gut verstandenen chemischen Screening-Ansatz führt zu einer mehrfachen Verbesserung gegenüber dem Ausgangswert.

Hogarth erwähnte seinerseits eine kürzlich durchgeführte Analyse und argumentierte, dass GNNs, die Transformer-Architektur und aufmerksamkeitsbasierte Methoden, die in Sprachmodellen verwendet werden, dieselbe zugrundeliegende Logik aufweisen, wie man sich Sätze für die verbundenen Wortgraphen vorstellen kann. Hogarth stellte fest, wie sich die Transformationsarchitektur in viele ungewöhnliche Anwendungsfälle einschleicht und wie ihre Skalierung die Wirkung erhöht:

„Der Meta-Punkt rund um die neuronalen Netze und diese auf Aufmerksamkeit basierenden Methoden im Allgemeinen ist, dass sie eine Art allgemein genug zu sein scheinen, dass es Fortschritte geben wird, indem man einfach weiter hart auf den Nagel für den nächsten hämmert zwei Jahre.Und eine der Möglichkeiten, in der ich mich selbst herausfordere, besteht darin, davon auszugehen, dass wir viel mehr Fortschritte sehen könnten, wenn wir das Gleiche für eine Weile mit mehr Aggression tun.

Daher würde ich annehmen, dass einige der Gewinne, die in diesen GNNs gefunden wurden, mit der Arbeit an Sprachmodellen und Transformern kreuzen. Und dieser Ansatz ist nach wie vor ein sehr fruchtbarer Bereich für die Art von supergeneraler, hochrangiger AGI-ähnlicher Forschung."

KI-Ethik und Vorhersagen

Es gibt eine Menge Themen, die wir aus der Arbeit von Benaich und Hogarth herauslesen könnten, z Fahrzeuge, KI-Chips und AutoML. Wir empfehlen den Lesern, in den Bericht einzutauchen, um mehr zu erfahren. Aber wir schließen mit etwas anderem ab.

Hogarth erwähnte, dass die Spekulationsphase in der KI für Biologie und das Gesundheitswesen beginnt und viel Kapital fließt. Es wird einige wirklich erstaunliche Unternehmen geben, die daraus hervorgehen, und wir werden sehen, wie eine echte Bereitstellungsphase beginnt. Aber es ist genauso sicher, fügte er hinzu, es wird Fälle geben, die offenbart werden totaler Betrug sein.

Wie steht es also mit der KI-Ethik? Benaich und Hogarth zitieren Arbeiten von Pionieren auf diesem Gebiet, die sich mit Themen wie der kommerziellen Geschlechterklassifizierung, der unregulierten Gesichtserkennung der Polizei, der Ethik von Algorithmen und der Regulierung von Robotern befassen. Der Bericht konzentriert sich größtenteils auf die Gesichtserkennung. Gesichtserkennung ist weltweit weit verbreitet und hat zu Kontroversen sowie zu unrechtmäßigen Verhaftungen geführt. Nachdenklichere Ansätze scheinen an Fahrt zu gewinnen, stellen Benaich und Hogarth fest.

Hogarth verwies auf einen Vorfall, bei dem ein britischer Staatsbürger behauptete, seine Menschenrechte seien verletzt worden, als er beim Weihnachtseinkauf fotografiert wurde. Richter entschieden zwar gegen den Kläger, begründeten aber auch eine wichtige neue Pflicht für die Polizei, dafür zu sorgen, dass Diskriminierung proaktiv „beseitigt“ wird. Dies bedeutet, dass Maßnahmen wegen Voreingenommenheit nicht rechtlich aufgeschoben werden können, bis die Technologie ausgereift ist:

„Dies schafft eine viel höhere Messlatte für den Einsatz dieser Software. Und es bietet fast eine legale Möglichkeit für jeden, der Vorurteile durch einen Algorithmus erfährt, eine Grundlage für eine Klage gegen die Regierung oder einen privaten Akt der Trotztechnologie zu haben“, sagte Hogarth.

Die KI-Ethik konzentriert sich oft auf die Gesichtserkennung, aber es gibt immer mehr Bereiche, in denen sie relevant wird.

MegaPixels: Ursprünge, Ethik und Auswirkungen auf den Datenschutz von öffentlich verfügbaren Bilddatensätzen zur Gesichtserkennung. © Adam Harvey / MegaPixels.cc

Hogarth betonte auch einen anderen Ansatz, den er "API-gesteuerte Prüfbarkeit" nannte. Er verwies auf ein neues Gesetz, das im Bundesstaat Washington mit aktiver Unterstützung von Microsoft verabschiedet wurde. Dieses Gesetz schränkt die Verwendung von Gesichtserkennungstechnologien durch die Strafverfolgungsbehörden ein, indem es verlangt, dass die verwendete Software über eine API für einen unabhängigen Dritten zugänglich sein muss, um nach Merkmalen wie Rasse oder Geschlecht auf "Genauigkeit und unfaire Leistungsunterschiede" zu prüfen.

Auch wenn wir unseren Fokus auf die KI-Ethik einschränken, ist die Liste natürlich endlos: Von Voreingenommenheit über den Einsatz von Technologie in autoritären Regimen und/oder für militärische Zwecke, KI-Nationalismus oder die US-Steuergesetzgebung, die Anreize für den Ersatz von Menschen durch Roboter bietet, gibt es keinen Mangel von Anlass zur Sorge. Benaich und Hogarth ihrerseits schließen ihren Bericht mit einer Reihe von Prognosen für das kommende Jahr ab:

Der Wettlauf um größere Sprachmodelle geht weiter und wir sehen das erste Modell mit 10 Billionen Parametern. Aufmerksamkeitsbasierte neuronale Netze bewegen sich vom NLP zu Computer Vision, um die neuesten Ergebnisse zu erzielen. Ein großes KI-Labor eines Unternehmens wird geschlossen, da seine Muttergesellschaft die Strategie ändert. Als Reaktion auf US-DoD-Aktivitäten und Investitionen in US-basierte militärische KI-Startups sammelt eine Welle chinesischer und europäischer KI-Startups mit Schwerpunkt auf Verteidigung in den nächsten 12 Monaten zusammen über 100 Millionen US-Dollar.

Eines der führenden KI-First-Drogenforschungs-Startups (z. B. Recursion, Exscientia) geht entweder an die Börse oder wird für über 1 Milliarde US-Dollar übernommen. DeepMind erzielt über AlphaFold hinaus einen großen Durchbruch in der Strukturbiologie und Wirkstoffforschung. Facebook schafft mit 3D Computer Vision einen großen Durchbruch in der Augmented und Virtual Reality. Und NVIDIA schließt die Übernahme von Arm nicht ab.

Der Rekord für Vorhersagen im letztjährigen State of AI Report war ziemlich gut - sie machten 5 von 6. Mal sehen, wie sich die diesjährigen Vorhersagen schlagen.


Die unvernünftige Wirksamkeit von Convolutional Neural Networks bei der Populationsgenetischen Inferenz

Genomische Datensätze auf Populationsebene haben Forschern unglaubliche Mengen an Informationen geliefert, aus denen sich die Evolutionsgeschichte ableiten lässt. Einhergehend mit dieser Datenflut wurde versucht, durch theoretische und methodische Fortschritte Informationen aus Genomsequenzen zu extrahieren, um demografische Ereignisse wie Veränderungen der Populationsgröße und Genfluss zwischen eng verwandten Populationen/Arten abzuleiten, Rekombinationskarten zu erstellen und Loci aufzudecken, die der jüngsten Anpassung zugrunde liegen. Bis heute verwenden die meisten Verfahren nur eine oder wenige Zusammenfassungen der Eingabesequenzen und ignorieren daher potenziell nützliche Informationen, die in den Daten kodiert sind. Die ausgefeiltesten dieser Ansätze beinhalten Wahrscheinlichkeitsberechnungen, die theoretische Fortschritte für jedes neue Problem erfordern, und konzentrieren sich im Interesse der mathematischen und rechnerischen Nachvollziehbarkeit oft auf einen einzigen Aspekt der Daten (z. B. nur Allelfrequenzinformationen). Ein direktes Abfragen der Gesamtheit der Eingangssequenzdaten auf wahrscheinlichkeitsfreie Weise würde somit eine fruchtbare Alternative bieten. Hier erreichen wir dies, indem wir DNA-Sequenz-Alignments als Bilder darstellen und eine Klasse von Deep-Learning-Methoden namens Convolutional Neural Networks (CNNs) verwenden, um aus diesen Bildern populationsgenetische Schlussfolgerungen zu ziehen. Wir wenden CNNs auf eine Reihe von evolutionären Fragen an und stellen fest, dass sie häufig der Genauigkeit aktueller Methoden entsprechen oder diese übertreffen. Wichtig ist, dass wir zeigen, dass CNNs eine genaue evolutionäre Modellauswahl und Parameterschätzung durchführen, selbst bei Problemen, die keine detaillierte theoretische Behandlung erhalten haben. Somit sind CNNs, wenn sie auf populationsgenetische Alignments angewendet werden, in der Lage, von Experten abgeleitete statistische Methoden zu übertreffen und bieten einen neuen Weg nach vorne in Fällen, in denen kein Wahrscheinlichkeitsansatz existiert.

Figuren

Schema eines Standard-Feedforward…

Schemata eines standardmäßigen neuronalen Feedforward-Netzwerks und zweier konvolutioneller neuronaler Netzwerkdesigns…

Beispielhafte populationsgenetische Ausrichtungen visualisiert…

Beispielhafte genetische Ausrichtungen von Populationen, visualisiert als Schwarz-Weiß-Bilder. Eine unsortierte Ausrichtungsmatrix (links)…

Die Auswirkungen der Reorganisation der Eingabedaten auf die Genauigkeit. Wir zeigen den RMSE von…

Leistung von Klassifikatoren zur Erkennung von…

Leistung von Klassifikatoren zur Erkennung von Introgression. Wir verwenden Konfusionsmatrizen, um die…

Genauigkeit der Schätzungen der Rekombinationsrate…

Genauigkeit der Rekombinationsratenschätzungen von LDhat und unserem CNN. ( EIN )…

Verwirrungsmatrizen, die Genauigkeiten von…

Verwirrungsmatrizen, die Genauigkeiten von zwei Methoden zeigen, die versuchen, kürzlich positive…

Genauigkeit der demografischen Inferenz CNN.…

Genauigkeit der demografischen Inferenz CNN. Die Streudiagramme zeigen die Korrelation zwischen True und…


Wofür werden neuronale Netze verwendet?

Foto: In den letzten zwei Jahrzehnten hat die NASA mit einem selbstlernenden neuronalen Netzwerk namens Intelligent Flight Control System (IFCS) experimentiert, das Piloten helfen kann, Flugzeuge zu landen, nachdem sie im Gefecht größere Ausfälle oder Schäden erlitten haben. Der Prototyp wurde auf diesem modifizierten NF-15B-Flugzeug (einem Verwandten der McDonnell Douglas F-15) getestet. Foto von Jim Ross mit freundlicher Genehmigung der NASA.

Anhand dieses Beispiels können Sie wahrscheinlich viele verschiedene Anwendungen für neuronale Netze sehen, bei denen es darum geht, Muster zu erkennen und einfache Entscheidungen darüber zu treffen. In Flugzeugen können Sie ein neuronales Netzwerk als einfachen Autopiloten verwenden, wobei Eingabeeinheiten Signale von den verschiedenen Cockpitinstrumenten lesen und Ausgabeeinheiten die Steuerung des Flugzeugs entsprechend modifizieren, um es sicher auf Kurs zu halten. In einer Fabrik könnten Sie ein neuronales Netzwerk zur Qualitätskontrolle verwenden. Nehmen wir an, Sie produzieren Waschmittel für Kleidung in einem riesigen, komplizierten chemischen Prozess. Sie können das endgültige Waschmittel auf verschiedene Weise messen (Farbe, Säuregehalt, Dicke oder was auch immer), diese Messungen als Eingaben in Ihr neuronales Netzwerk eingeben und dann das Netzwerk entscheiden lassen, ob die Charge akzeptiert oder abgelehnt wird.

Auch in der Sicherheit gibt es viele Anwendungen für neuronale Netze. Angenommen, Sie betreiben eine Bank mit vielen Tausend Kreditkartentransaktionen, die jede einzelne Minute durch Ihr Computersystem laufen. Sie benötigen einen schnellen, automatisierten Weg, um alle Transaktionen zu identifizieren, die betrügerisch sein könnten, und dafür ist ein neuronales Netzwerk perfekt geeignet. Ihre Eingaben wären Dinge wie 1) Ist der Karteninhaber tatsächlich anwesend? 2) Wurde eine gültige PIN-Nummer verwendet? 3) Wurden in den letzten 10 Minuten fünf oder mehr Transaktionen mit dieser Karte vorgelegt? 4) Wird die Karte in einem anderen Land verwendet, in dem sie registriert ist? &mdashand so weiter. Mit genügend Hinweisen kann ein neuronales Netzwerk alle verdächtigen Transaktionen erkennen, sodass ein menschlicher Operator sie genauer untersuchen kann. In ähnlicher Weise könnte eine Bank ein neuronales Netz verwenden, um zu entscheiden, ob sie Kredite an Personen auf der Grundlage ihrer früheren Kredithistorie, ihres aktuellen Einkommens und ihrer Beschäftigungsbilanz vergeben soll.

Foto: Handschrifterkennung auf einem Touchscreen, Tablet-Computer ist eine von vielen Anwendungen, die sich perfekt für ein neuronales Netz eignen. Jedes Zeichen (Buchstabe, Zahl oder Symbol), das Sie schreiben, wird anhand der darin enthaltenen Schlüsselmerkmale (vertikale Linien, horizontale Linien, abgewinkelte Linien, Kurven usw.) und der Reihenfolge erkannt, in der Sie sie auf dem Bildschirm zeichnen . Neuronale Netze werden im Laufe der Zeit immer besser bei der Erkennung.

Viele der Dinge, die wir jeden Tag tun, beinhalten das Erkennen von Mustern und deren Verwendung, um Entscheidungen zu treffen. Neuronale Netze können uns also auf zig verschiedene Arten helfen. Sie können uns helfen, die Börse oder das Wetter vorherzusagen, Radarsysteme zu betreiben, die feindliche Flugzeuge oder Schiffe automatisch identifizieren, und sogar Ärzten helfen, komplexe Krankheiten anhand ihrer Symptome zu diagnostizieren. In diesem Moment könnten in Ihrem Computer oder Ihrem Mobiltelefon neuronale Netzwerke ticken. Wenn Sie Handy-Apps verwenden, die Ihre Handschrift auf einem Touchscreen erkennen, verwenden sie möglicherweise ein einfaches neuronales Netzwerk, um herauszufinden, welche Zeichen Sie schreiben, indem Sie nach bestimmten Merkmalen in den Markierungen suchen, die Sie mit Ihren Fingern machen (und in welcher Reihenfolge du machst sie). Einige Arten von Spracherkennungssoftware verwenden auch neuronale Netze. So auch einige E-Mail-Programme, die automatisch zwischen echten E-Mails und Spam unterscheiden. Neuronale Netze haben sich sogar bei der Übersetzung von Texten von einer Sprache in eine andere als effektiv erwiesen.

Die automatische Übersetzung von Google beispielsweise hat diese Technologie in den letzten Jahren zunehmend genutzt, um Wörter einer Sprache (die Eingabe des Netzwerks) in die entsprechenden Wörter einer anderen Sprache (die Ausgabe des Netzwerks) umzuwandeln. Im Jahr 2016 gab Google bekannt, dass es eine sogenannte Neural Machine Translation (NMT) verwendet, um ganze Sätze sofort umzuwandeln, mit einer 55- und 85-prozentigen Reduzierung der Fehler. Dies ist nur ein Beispiel dafür, wie Google neuronale Netzwerktechnologie einsetzt: Google Brain ist der Name für einen massiven Forschungsaufwand, der neuronale Techniken auf seine gesamte Produktpalette, einschließlich seiner Suchmaschine, anwendet. Es verwendet auch tiefe neuronale Netze, um die Empfehlungen, die Sie auf YouTube sehen, mit Modellen zu unterstützen, die "ungefähr eine Milliarde Parameter lernen und an Hunderten von Milliarden von Beispielen trainiert werden". [5]

Alles in allem haben neuronale Netze Computersysteme nützlicher gemacht, indem sie menschlicher gemacht wurden. Wenn Sie also das nächste Mal denken, dass Ihr Gehirn so zuverlässig wie ein Computer ist, denken Sie noch einmal darüber nach und seien Sie dankbar, dass Sie bereits ein so hervorragendes neuronales Netzwerk in Ihrem Kopf installiert haben!


2 Antworten 2

Ein unglaublich wichtiger Unterschied zwischen Menschen und NNs besteht darin, dass das menschliche Gehirn das Ergebnis von Milliarden von Jahren der Evolution ist, während NNs teilweise davon inspiriert wurden, sich das Ergebnis anzuschauen und zu denken ". das könnten wir tun" (höchster Respekt für Hubel und Wiesel).

Menschliche Gehirne (und eigentlich alles biologische) haben eine eingebettete Struktur in die DNA des Tieres. Die DNA hat etwa 4 MB Daten und enthält unglaublicherweise die Informationen darüber, wohin die Arme gehen, wo Sensoren platziert werden und in welcher Dichte, wie neuronale Strukturen initialisiert werden, die chemischen Gleichgewichte, die die neuronale Aktivierung antreiben, die Speicherarchitektur und Lernmechanismen unter vielen anderen Dinge. Das ist phänomenal. Beachten Sie, dass die Platzierung von Neuronen und ihren Verbindungen nicht in der DNA kodiert ist, sondern die Regeln, die vorschreiben, wie diese Verbindungen gebildet werden. Dies unterscheidet sich grundlegend davon, einfach zu sagen: "Es gibt 3 Conv-Layer und dann 2 vollständig verbundene Layer.". Es gab einige Fortschritte bei der neuronalen Evolution, die ich sehr empfehlen kann, die jedoch vielversprechend sind.

Ein weiterer wichtiger Unterschied besteht darin, dass das menschliche Gehirn (und andere biologische neuronale Netze) während der "Laufzeit" (lol) eine Vielzahl von Funktionen über die Neuronen hinaus haben. Dinge wie Gliazellen. Es gibt ungefähr 3,7 Gliazellen für jedes Neuron in Ihrem Körper. Sie sind eine unterstützende Zelle im Zentralnervensystem, die Neuronen umgibt und für Unterstützung und Isolierung zwischen ihnen sorgt und tote Neuronen trimmt. Diese Wartung ist eine kontinuierliche Aktualisierung für neuronale Strukturen und ermöglicht eine optimale Nutzung der Ressourcen. Mit fMRTs beginnen Neurologen erst zu verstehen, wie sich diese kleinen Veränderungen auf das Gehirn auswirken.

Dies soll nicht heißen, dass es unmöglich ist, ein künstliches NN zu haben, das die gleichen hohen Fähigkeiten wie ein Mensch haben kann. Es fehlt nur viel an unseren aktuellen Modellen. Es ist, als würden wir versuchen, die Sonne mit einem Lagerfeuer nachzuahmen, aber zum Teufel, sie sind beide warm.

Vergleich von ungleichen Objekten

Der Vergleich zwischen einer Person und einem künstlichen Netzwerk ist nicht gleichberechtigt. Ersteres ist eine Komposition aus vielen Dingen, die letzteres nicht ist.

Im Gegensatz zu einem künstlichen Netzwerk, das im Computerspeicher eines Laptops oder Servers sitzt, ist ein Mensch ein Organismus, von Kopf bis Fuß, der in der Biosphäre lebt und von Geburt an mit anderen Menschen interagiert.

Menschliches Training

Wir haben latente Intelligenz in den Zygoten, die sich trafen, um uns zu formen und die sich während der Meiose als unser genetischer Code verfestigte, aber sie ist noch nicht trainiert. Es kann nicht sein, bis das Gehirn aus seinen ersten Zellen wächst, gesteuert durch die genetischen Ausdrücke der metabolischen, sensorischen, kognitiven, motorischen Steuerung und Immunstruktur und -funktion des Gehirns. Nach neun Monaten Wachstum zeigt sich die Intelligenz eines Neugeborenen noch nicht in Bewegung, Sprache oder Verhalten, außer beim Saugen von flüssiger Nahrung.

Unsere Intelligenz beginnt sich nach einer ersten grundlegenden Verhaltensschulung herauszubilden und erreicht die Fähigkeit, eine Prüfung der akademischen Fähigkeiten zu bestehen, erst dann, wenn die entsprechenden Entwicklungsstadien in einer Familienstruktur und Bildungskomponenten abgeschlossen sind. Dies sind alles Beobachtungen, die von Fachleuten der Entwicklungspsychologie gut untersucht und dokumentiert wurden.

Künstliche Netze sind nicht besonders neuronal

Ein künstliches Netzwerk ist ein entfernter und verzerrter konzeptioneller Abkömmling eines mittlerweile veralteten Modells des Verhaltens von Neuronen in Netzwerken. Schon als das Perzeptron zum ersten Mal konzipiert wurde, war bekannt, dass Neuronen auf die Aktivierung durch elektrische Impulse reagierten, die über Synapsen von anderen Neuronen, die in komplexen Mikrostrukturen angeordnet sind, übertragen wurden, und nicht, indem sie eine Aktivierungsfunktion für ein Vektor-Matrix-Produkt ausführten. Die Parametermatrix am Eingang künstlicher Neuronen summiert abgeschwächte Signale und reagiert nicht elektrochemisch auf Pulse, die zeitlich möglicherweise nur grob ausgerichtet sind.

Seitdem Bildgebung und im vetro Untersuchungen an Neuronen zeigen die Komplexität der Neuroplastizität (genetisch gerichtete Morphing der Netzwerktopologie von Neuronen), die vielen verschiedenen Zelltypen, die Gruppierungen von Zellen, um eine geometrische Funktion zu bilden, und die Beteiligung des Energiestoffwechsels am Axon.

Im menschlichen Gehirn werden chemische Wege von Dutzenden von Verbindungen untersucht, die die Funktion regulieren und globale und regionale Zustände sowie die Sekretion, Übertragung, Agonisten- und Antagonistenaufnahme, Interaktion und Aufnahme dieser Komponenten umfassen. Es gibt im Umfeld der heute eingesetzten künstlichen Netze kaum, wenn überhaupt, ein Äquivalent, obwohl uns nichts davon abhält, solche Regulierungssysteme zu entwickeln, und einige der jüngsten Arbeiten haben die Grenzen in diese Richtung verschoben.

Sexuelle Fortpflanzung

Künstliche Netzwerke sind auch keine Gehirne innerhalb von Individuen, die durch sexuelle Fortpflanzung erzeugt werden, und weisen daher möglicherweise in neurologischer Hinsicht das Beste oder das Schlimmste von zwei Elternteilen auf. Künstliche Netzwerke aus genetischen Algorithmen lassen wir noch nicht hervorbringen, obwohl daran gedacht wurde und wahrscheinlich noch einmal daran geforscht wird.

Anpassen der Vergleichsbasis

Kurz gesagt, die Vergleichsgrundlage macht es bedeutungslos, jedoch kann mit einigen Anpassungen auf der Grundlage des oben Gesagten ein anderer ähnlicher Vergleich als sinnvoll und auf gleicher Grundlage angesehen werden.

Was ist der Unterschied zwischen einem College-Studenten und einem künstlichen Netzwerk mit Milliarden künstlicher Neuronen, die gut konfiguriert und mit fünf Sinnen und motorischer Steuerung verbunden sind und in einen humanoiden Roboter integriert sind, der wie ein Mitglied einer Familie und einer Gemeinschaft gepflegt und ausgebildet wurde? seit achtzehn Jahren seit seiner ersten Bereitstellung?

Wir wissen es nicht. Wir können nicht einmal eine solche Robotererfahrung von achtzehn Jahren simulieren oder mit wissenschaftlicher Zuversicht richtig projizieren, was passieren könnte. Viele der oben genannten KI-Komponenten sind noch nicht gut entwickelt. Wenn sie &mdash sind und es keinen zwingenden Grund zu der Annahme gibt, dass sie es nicht &ndash können, dann werden wir es gemeinsam herausfinden.

Forschung, die eine Antwort liefern kann

Von der weiteren Entwicklung der Kognitionswissenschaft, der Echtzeit-Bildgebung auf Neuronenebene, der Arbeit an den genetischen Ausdrücken, aus denen Gehirne wachsen, werden künstliche Neuronendesigns wahrscheinlich über Perzeptrone und die zeitlich bewussteren LSTM-, B-LSTM- und GRU-Varianten und die Topologien von Neuronen hinausgehen Anordnungen können ihre derzeitigen kartesischen strukturellen Beschränkungen durchbrechen.

Die Neuronen in einem Gehirn sind nicht in orthogonalen Reihen und Spalten angeordnet. Sie bilden Cluster, die auf niedrigen strukturellen Ebenen eine geschlossene Rückkopplung aufweisen. Dies kann durch eine künstliche Netzwerkzelle vom Typ B-LSTM simuliert werden, aber jeder Elektroingenieur, der in digitalem Schaltungsdesign geschult ist, weiß, dass Simulation und Realisierung in Bezug auf Effizienz meilenweit voneinander entfernt sind. Ein Signalprozessor kann tausendmal schneller laufen als seine Simulation.

Aus der Entwicklung von Computer Vision, Hören, taktil-motorischer Koordination, olfaktorischer Wahrnehmung, materialwissenschaftlicher Unterstützung, Roboterverpackung und Miniaturstromquellen, die weit über das hinausgehen, was Lithiumbatterien produzieren können, könnten humanoide Roboter entstehen, die während der Interaktion lernen können. Zu dieser Zeit wäre es wahrscheinlich leicht, eine Familie zu finden, die keine Kinder bekommen kann, die ein künstliches Kind adoptieren würde.

Wissenschaftliche Strenge

Fortschritte in diesen Bereichen sind notwendig, damit ein solcher Vergleich auf wissenschaftlicher Grundlage durchgeführt werden kann und dass Vertrauen in die Vergleichsergebnisse veröffentlicht wird und ein Peer-Review durch seriöse Forscher besteht, die nicht an Medienrummel interessiert sind, die richtigen Karriereschritte machen oder ihr Unternehmen ändern Aktienkurse.


4. Diskussion

Wir haben gezeigt, dass sorgfältig entworfene tiefe neuronale Netzwerke in der Lage sind, die Vorhersagekraft in Protein-RNA-Bindungsexperimenten signifikant zu verbessern. Durch den Einsatz unterschiedlicher Netzwerkarchitekturen und die Einbeziehung von Strukturinformationen in den Lernprozess übertrafen wir bei dieser Aufgabe den Stand der Technik. Insbesondere haben wir die Leistungsfähigkeit rekurrenter neuronaler Netze für die Aufgabe der RNA-Bindungsvorhersage gezeigt. Bei Convolutional Neural Networks profitiert unsere Architektur von einer höheren Anzahl von Faltungsfiltern sowie von einer Mischung unterschiedlicher Filterlängen. Während das Hinzufügen von Faltungsfiltern die Vorhersagegenauigkeit des Netzwerks verbesserte, konnten wir keine solche Verbesserung feststellen, wenn mehr Faltungsschichten hinzugefügt wurden. Dies deckt sich mit den Ergebnissen von ( Zeng et al., 2016), der CNNs zur Vorhersage der Protein-DNA-Bindung erforschte.

Die Verbesserung war deutlich spürbar für in vitro Experimente. Dies liegt möglicherweise daran, dass in vitro Experimente wurden entwickelt, um die Protein-RNA-Bindung für Hunderttausende von synthetischen RNA-Sequenzen quantitativ zu messen. Wir glauben, dass diese Ergebnisse die Nützlichkeit tiefer neuronaler Netzwerke im Bereich der Protein-RNA-Bindung und allgemeiner im Bereich der Computerbiologie zeigen, wo sie beginnen, in großem Maßstab eingesetzt zu werden.

Ein langjähriges Ziel auf dem Gebiet der Protein-RNA-Interaktion ist die genaue Vorhersage von in vivo Bindung. Wie in dieser Studie gezeigt, schneiden aktuelle Computermethoden bei der Vorhersage von gebundenen und ungebundenen RNA-Transkripten eher schlecht ab (durchschnittliche AUCs um 0,65 und einige Vorhersagen liegen sogar unter 0,5, was einer zufälligen Schätzung entspricht). Wir glauben, dass das Erlernen der intrinsischen Bindungspräferenzen eines RNA-bindenden Proteins in diesem Fall nicht ausreichen würde, da die in vivo Umgebung ist viel komplexer. Proteine ​​konkurrieren nicht nur um die gleichen Bindungsstellen oder binden zusammen, auch die RNA-Struktur unterscheidet sich zwischen in silico, in vitro und in vivo Umgebungen. Darüber hinaus RNAcompete und andere in vitro Experimente messen die Bindung an kurze RNA-Sequenzen (30–40 nt) ( Lambert et al., 2014 Ray et al., 2009), die sich nicht zu komplexen gefundenen RNA-Strukturen falten können in vivo, wo Transkripte Tausende von Nukleotiden umfassen. Das allein hemmt schon in vitro trainierte Modelle vom Erlernen von Bindungspräferenzen bis hin zu komplexen Strukturen.

Im Anschluss an unsere Arbeit gibt es eine Reihe von Fragen, die es wert sind, verfolgt zu werden: Warum waren RNNs besser als CNNs? in vitro Daten, aber schlimmer als sie für in vivo Daten? Unsere Trainings- und Testdaten basierten auf Experimenten, bei denen die Bindung zwischen einem einzelnen Protein und zahlreichen RNAs gemessen wurde. Können wir ein DNN (oder einen anderen ML-Mechanismus) entwerfen, um auf vielen Proteinen und RNAs zu trainieren und dann die Bindung von . vorherzusagen? unterschiedlich Proteine ​​und RNAs? Eine weitere zukünftige Forschungsrichtung besteht darin, die Interpretierbarkeit der vorgeschlagenen Netzwerke weiter zu verbessern. Insbesondere ein besseres Verständnis, wie die Strukturinformationen in die Lern- und Vorhersageprozesse einfließen und welche Filter dominanter sind und warum, kann interessante biologische Erkenntnisse liefern.