Bioinformatik

Die Bioinformatik oder Bioinformatik ist ein multidisziplinäres Forschungsgebiet der Biotechnologie, in dem Biologen , Ärzte, Informatiker , Mathematiker , Physiker und Computerbiologen zusammenarbeiten, um ein wissenschaftliches Problem der Biologie zu lösen . Im Allgemeinen ist Bioinformatik die Anwendung von Statistik und Informatik auf die Biowissenschaften. Der Spezialist, der auf halbem Weg zwischen diesen Wissenschaften und der Informatik arbeitet, wird als Bioinformatiker oder Bionaute bezeichnet .

Der Begriff Bioinformatik kann durch Sprachmissbrauch auch alle Computeranwendungen beschreiben, die sich aus dieser Forschung ergeben.

Die Verwendung des Begriffs Bioinformatik wird erstmals 1970 in einer Veröffentlichung von Paulien Hogeweg und Ben Hesper (Universität Utrecht, Niederlande) unter Bezugnahme auf die Untersuchung von Informationsprozessen in der Systembiotik dokumentiert.

Dieses Gebiet erstreckt sich von der Genomanalyse bis zur Modellierung der Evolution einer Tierpopulation in einer bestimmten Umgebung, einschließlich molekularer Modellierung , Bildanalyse , Genomassemblierung und Rekonstruktion phylogenetischer Bäume ( Phylogenie ). Diese Disziplin stellt in  Analogie zu in vitro oder in vivo „Biologie in silico “ dar .

Definitionen und Anwendungsbereiche

Die Bioinformatik besteht aus allen Konzepten und Techniken, die für die Computerinterpretation biologischer Informationen erforderlich sind. Es haben sich mehrere Anwendungsbereiche oder Unterdisziplinen der Bioinformatik herausgebildet:

Für einige ist die Bioinformatik ein theoretischer Zweig der Biologie, während sie für andere eindeutig an der Schnittstelle von Mathematik, Informatik und Biologie steht.

Es ist in der Tat, die Informationen zu analysieren, zu modellieren oder vorherzusagen, die sich aus experimentellen biologischen Daten ergeben.

Im weiteren Sinne kann man unter das Konzept der Bioinformatik auch die Entwicklung von Informationsverarbeitungswerkzeugen einbeziehen, die auf biologischen Systemen basieren, beispielsweise die Verwendung der kombinatorischen Eigenschaften des genetischen Codes für das Design von Computern. DNA zur Lösung komplexer algorithmischer Probleme .

Sequenzanalyse

Seit der Erfindung der DNA-Sequenzierung durch Frederick Sanger in der zweiten Hälfte der 1970er Jahre waren die technologischen Fortschritte auf diesem Gebiet derart, dass das Volumen der verfügbaren DNA-Sequenzen exponentiell gewachsen ist, mit einer Verdopplungszeit in der Größenordnung von 15 bis 18 Monaten ist etwas schneller als die Leistung von Computerprozessoren ( Moores Gesetz ). Es steht eine exponentiell zunehmende Anzahl komplementärer Genom- oder DNA- Sequenzen zur Verfügung, deren Annotation (oder Interpretation ihrer biologischen Funktion) noch durchgeführt werden muss.

Die erste Schwierigkeit besteht darin, diese enorme Menge an Informationen zu organisieren und der gesamten Forschungsgemeinschaft zur Verfügung zu stellen. Möglich wurde dies durch verschiedene online zugängliche Datenbanken. Weltweit sind drei Institutionen für die Archivierung dieser Daten verantwortlich: das NCBI in den USA, das EBI in Europa und das DDBJ  (in) Japan. Diese Institutionen koordinieren die Verwaltung großer Nukleotidsequenzdatenbanken wie GenBank oder der EMBL- Datenbank sowie von Proteinsequenzdatenbanken wie UniProt oder TrEMBL ( siehe Links am Ende des Artikels).

Es ist dann notwendig, Sequenzanalysewerkzeuge zu entwickeln , um ihre Eigenschaften bestimmen zu können.

Die Bioinformatik ist auch an der Sequenzierung beteiligt , beispielsweise unter Verwendung von DNA-Chips oder Biochips . Das Prinzip eines solchen Chips basiert auf der Besonderheit, die dem komplementären Strang zugewandte Doppelhelix der Desoxyribonukleinsäure spontan zu reformieren. Die vier Grundmoleküle der DNA haben tatsächlich die Besonderheit, zwei mal zwei zu vereinen. Wenn ein Patient Träger einer Krankheit ist, hybridisieren die aus der DNA eines Patienten extrahierten Stränge mit den für die Krankheit repräsentativen synthetischen DNA-Strängen.

Molekulare Modellierung

Biologische Makromoleküle sind im Allgemeinen zu klein, um für direkte Beobachtungsmittel wie Mikroskopie zugänglich zu sein. Die Strukturbiologie ist die Disziplin, die darauf abzielt, molekulare Modelle, die Analyse von Proxy-Daten oder Composite wiederherzustellen. Ziel ist es, eine dreidimensionale Rekonstruktion zu erhalten, die den experimentellen Ergebnissen am besten entspricht. Diese Daten stammen vor allem aus kristallographischen Analysen (Untersuchung der Figuren des X - Röntgenbeugung von einem Kristall ), Kernspinresonanz , elektronischer Kryomikroskopie oder Kleinwinkelstreuungsverfahren (Röntgenstreuung bzw. Neutronenstreuung ). Die Daten aus diesen Experimenten stellen experimentelle Daten (oder Einschränkungen) dar, die zur Berechnung eines Modells der 3D-Struktur verwendet werden. Das erhaltene Molekülmodell kann ein Satz kartesischer Koordinaten der Atome sein, aus denen das Molekül besteht. Man spricht dann von einem Atommodell oder einer "Hülle", dh einer 3D-Oberfläche, die die Form des Moleküls beschreibt, mit niedrigerer Auflösung . Das Rechnen ist an allen Phasen beteiligt, die vom Experimentieren zum Modell und dann zur Analyse des Modells durch molekulare Visualisierung führen (siehe Proteine in 3D).

Ein weiterer Aspekt der molekularen Modellierung betrifft die Vorhersage der 3D-Struktur eines Proteins anhand seiner Primärstruktur (der Kette der Aminosäuren, aus denen es besteht) unter Berücksichtigung der unterschiedlichen physikochemischen Eigenschaften von Aminosäuren. Dies ist von großem Interesse, da die Funktion und Aktivität eines Proteins von seiner Form abhängt. Ebenso ist die Modellierung von 3D-Nukleinsäurestrukturen (aus ihrer Nukleotidsequenz ) von der gleichen Bedeutung wie für Proteine, insbesondere für RNA-Strukturen .

Die Kenntnis der dreidimensionalen Struktur ermöglicht es, die aktiven Stellen eines Enzyms zu untersuchen, eine Reihe potenzieller Inhibitoren für dieses Enzym per Computer zu entwickeln und nur diejenigen zu synthetisieren und zu testen, die geeignet erscheinen. Dies hilft, die Zeit- und Geldkosten dieser Forschung zu reduzieren.

Ebenso ermöglicht die Kenntnis dieser Struktur die Ausrichtung von Proteinsequenzen .

Die Visualisierung der dreidimensionalen Struktur von Nukleinsäuren ( RNA und DNA ) gehört ebenfalls zum Spektrum der weit verbreiteten Bioinformatik-Tools.

Bau von phylogenetischen Bäumen

Als homologe Gene von Genen bezeichnet, die von demselben Ahnengen abstammen. Insbesondere sagen wir von diesen Genen, dass sie Orthologe sind, wenn sie in verschiedenen Arten gefunden werden (Speziation ohne Duplikation), oder dass sie paralog sind, wenn sie in derselben Spezies gefunden werden (Duplikation im Inneren des Genoms).

Es ist dann möglich, den genetischen Abstand zwischen zwei Arten durch Vergleich ihrer orthologen Gene zu quantifizieren . Diese genetische Distanz wird durch die Anzahl und Art der Mutationen dargestellt, die die beiden Gene trennen.

Diese Methode wird auf eine größere Anzahl von Lebewesen angewendet und ermöglicht es, eine Matrix genetischer Abstände zwischen mehreren Arten zu erstellen. Die phylogenetischen Bäume schließen Arten mit der größten Nähe. Es werden verschiedene Algorithmen verwendet, um Bäume aus Distanzmatrizen zu zeichnen. Sie basieren jeweils auf Modellen verschiedener Evolutionsmechanismen. Die beiden bekanntesten Methoden sind die UPGMA- Methode und die Neighbor Joining- Methode. Es gibt jedoch auch andere Methoden, die auf Maximum Likelihood und Naive Bayesian basieren .

Die Konstruktion von phylogenetischen Bäumen wird durch die Programme verwendet multiple Alignment von Sequenzen, um einen großen Teil der möglichen Ausrichtungen zu eliminieren und somit die Rechenzeiten zu begrenzen: Es macht es somit möglich , die Gesamtausrichtung zu steuern .

Bevölkerungsmodellierung


Ontologien und Datenintegration

Biological Ontologien sind azyklische Graphen gerichtet von kontrollierten Vokabularen . Sie wurden entwickelt, um biologische Konzepte und Beschreibungen auf eine Weise zu erfassen, die mit Computern leicht kategorisiert und analysiert werden kann. Einmal auf diese Weise kategorisiert, ist es möglich, aus einer ganzheitlichen und integrierten Analyse einen Mehrwert abzuleiten.

Das OBO-Konsortium war bestrebt, bestimmte Ontologien zu standardisieren. Eine der beliebtesten ist die Gen-Ontologie, die die Funktion von Genen beschreibt. Es gibt auch Ontologien, die die Phänotypen beschreiben.

Beispiele für Aufgaben und Möglichkeiten

Hier ist ein Beispiel für mögliche Jobs und Möglichkeiten:

Anmerkungen und Referenzen

Anmerkungen

  1. Ebenso kann Informatik je nach Situation als Wissenschaft oder Technologie betrachtet werden .

Verweise

  1. (nl) B Hesper und P Hogeweg , "  Bioinformatica: een werkconcept  " , Kameleon , vol.  1, n o  6,1970, p.  28–29.
  2. (in) Attwood TK Gisel A. Eriksson NE. und Bongcam-Rudloff E., „  Konzepte, historische Meilensteine ​​und der zentrale Ort der Bioinformatik in der modernen Biologie: Eine europäische Perspektive  “ , Bioinformatik - Trends und Methoden , InTech,2011(abgerufen am 8. Januar 2012 ) .
  3. Futura , „  Phylogenetischer Baum  “ , auf Futura (abgerufen am 15. Oktober 2019 )
  4. Jean-Baptiste Waldner, Nanoinformatik und Ambient Intelligence: Den Computer des 21. Jahrhunderts erfinden , London, Hermes Science ( Nachdruck  2007), 121  S. ( ISBN  978-2-7462-1516-0 und 2-7462-1516-0 )

Zusätzliche Biografie

Siehe auch

Zum Thema passende Artikel

Organisationen

Externe Links