Pharmazeutische Zeitung online

Auf dem Weg vom Genom zum Arzneistoff zurück zur Natur

20.05.2002  00:00 Uhr

Tag der Pharmazie

Auf dem Weg vom Genom zum Arzneistoff zurück zur Natur

von Ulrike Wagner, Marburg

Der Weg vom Genom zum Arzneistoffdesign ist für die Pharmazie eine Chance und eine Herausforderung, darin waren sich die Redner während des "Tags der Pharmazie" an der Universität Marburg einig. Eine Schnellstraße ohne Geschwindigkeitsbeschränkung ist dieser Weg jedoch nicht.

Die Welt der Proteine, die letztlich als Zielstrukturen in Frage kommen, ist viel komplexer als die dagegen eindimensional scheinende DNA, und auch Computer können sich diesem Problem nur annähern. Dabei hat die Natur oft längst Lösungen parat, man muss sie nur zu verwenden wissen.

Forschungsansätze mit der Endung -omics sprießen seit kurzem wie Pilze aus dem Boden. Gemeint ist damit die Gesamtheit von Molekülen eines bestimmten Typs (DNA, RNA, Proteine et cetera) in einer Zelle, einem Gewebe oder einem Organismus. Zu Anfang der Entwicklung beschäftigten sich die meisten Wissenschaftler mit Genomics, also der Erforschung von Erbanlagen eines Organismus.

Bei aller Euphorie über die Sequenzierung des menschlichen Genoms wird doch spätestens beim Anblick von Raupe und Schmetterling klar, dass sich das statische Bild der Nukleotidsequenzen keineswegs zur Aufklärung komplexer Funktionen eignet, veranschaulichte Privatdozent Dr. Friedrich Lottspeich vom Max-Planck-Institut für Biochemie in Martinsried. Sie haben identische Genome, aber offensichtlich kann dies zu ganz unterschiedlichen Körperformen und Lebensweisen mit eigener Physiologie führen.

Aus diesem Grund kamen andere -omics ins Spiel wie Phenomics, Epigenomics, Ligandomics, Metabolomics, Chronomics, Transkriptomics und nicht zuletzt Proteomics. Meinte man zunächst mit dem Ausdruck Proteom alle Proteine, die während der Lebensspanne einer Zelle in ihr anzutreffen sind, so formulierte Lottspeich die Definition viel genauer: als quantitatives Proteinmuster einer Zelle unter genau definierten Bedingungen.

Mühsame Proteinforschung

An Proteinen zu forschen, ist ungleich schwieriger als die Arbeit mit DNA. Was erhoffen sich die Wissenschaftler also von Proteomics? "Um Funktionen zu erforschen, muss man mit Proteinen arbeiten", so Lottspeich. Vom Gemom auf das Proteom zu schließen, ist prinzipiell nicht möglich. Denn dazwischen liegt ein "ungeheuer komplexes Netzwerk" von Regulationsstufen, die auch von ständig wechselnden Umweltbedingungen maßgeblich beeinflusst werden.

Die Erforschung des Proteoms ist selbst unter den heutigen Bedingungen eine große Herausforderung. Denn auf der Basis von etwa 30.000 Genen entstehen durch Veränderungen auf RNA-Ebene, Modifikationen und Abbau mehr als 300.000 Proteinspezies pro Organismus - die hoch variablen Immunglobuline nicht mitgerechnet. In einer einzigen Zelle tummeln sich etwa 50.000 Proteinspezies.

Allein diese Zahlen machen deutlich, mit welchen Problemen sich die Wissenschaftler konfrontiert sehen. Hinzu kommt eine immense Dynamik. Daher ist es besonders wichtig, den Zustand zu definieren, in dem sich Zelle, Gewebe oder Organismus befinden, an denen man forscht.

Außerdem müssen die Wissenschaftler zahlreiche Zustände betrachten und nicht nur zwei, wie oft üblich. Lottspeich verglich physiologische Abläufe in der Zelle mit einer kurzen Filmsequenz: "Man weiß nicht, was in dem Film passiert, wenn man nur zwei einzelne Bilder anschaut. Nur in der Veränderung liegt die Information."

Außerdem sind die Mengen einzelner Proteine sehr unterschiedlich. "Man muss letztendlich ein Molekül neben 107 anderen nachweisen. Methoden dafür existieren nicht", so Lottspeich. Die gezielte Vermehrung einzelner Moleküle wie auf DNA-Ebene mit PCR ist auf Proteinebene nicht möglich. Zudem sind Proteine - ebenfalls im Gegensatz zu DNA - sehr heterogene Moleküle. Mit den derzeitigen Methoden sehen die Wissenschaftler weniger als 10.000 Proteine pro Zelle, und darunter befinden sich nur diejenigen, die am häufigsten vorkommen, beschrieb Lottspeich die Situation.

Reine Kartierung ist ungeeignet

Trotzdem: Wissenschaftler haben bereits zahlreiche Ansätze entwickelt, um ein Proteom zu charakterisieren. Für weniger geeignet hält Lottspeich die Kartierung der Proteine (Mapping). Dabei versuchen die Forscher, alle Proteine eines Organismus zu bestimmen. Wenn überhaupt, so sei die Methode nur bei sehr einfachen Organismen wie Bakterien sinnvoll. Aber selbst bei den Prokaryoten ist oft die Komplexität viel zu hoch. Nicht zuletzt stellt sich die Frage, wie die Forscher an das Material kommen. "Im Leben eines Organismus gibt es keine einzige Situation, in der alle Proteine exprimiert werden", sagte Lottspeich. Außerdem seien die Ergebnisse nur begrenzt reproduzierbar und vor allem nicht quantitativ. "Dafür ist der Ansatz viel zu teuer", so der Biochemiker.

Eine bessere Methode ist der so genannte Magnifying Approach. Dabei werden kleinere Funktionseinheiten innerhalb der Zelle isoliert und ihre Bestandteile analysiert. Bestes Beispiel sei die Arbeit der Firma Cellzome (siehe auch hier). Die Wissenschaftler haben dabei 17.000 einzelne Proteine per Gentechnik markiert und mit einer Art Haken versehen. Damit konnten die Forscher die mit diesen Proteinen interagierenden Proteine wie mit einer Angel aus der Zelle fischen. Anschließend analysierten sie die Komplexe. Ergebnis: Zahlreiche Proteine sind an vielen verschiedenen Komplexen beteiligt. Andere Gruppen machten ähnliche Experimente, aber keiner der Komplexe stimmte bei zwei unterschiedlichen Gruppen überein. Dies bedeute jedoch nicht, dass die Methode nicht funktioniert, sagte Lottspeich. Die Zellen waren wahrscheinlich in ganz unterschiedlichen Zuständen.

2-D-Gele als Handwerkszeug

Beim Differential Approach untersuchen Wissenschaftler die Proteine von Zellen oder Organismen in verschiedenen genau definierten Zuständen. Dabei werden die Proteine aufgetrennt - heutzutage meist in zweidimensionalen Gelen -, die darauf sichtbaren Proteine quantifiziert, die Unterschiede im Vergleich zwischen verschiedenen Zuständen analysiert und die Proteine schließlich charakterisiert.

Dabei ist die Präparation des Materials ein kritischer Schritt. "Die Proben kann man nicht einfach einen Tag stehen lassen", veranschaulichte Lottspeich. Die Proteine, die man danach analysiert, haben mit denen zum Zeitpunkt der Verarbeitung nichts mehr zu tun. Die zweidimensionalen Gele, bei denen man die Proteine in einer hochmolekularen Matrix nach isoelektrischem Punkt (durch Anlegen eines pH-Gradienten) und Molekulargewicht auftrennt, sind "frustrierend, langsam und teuer", so Lottspeich. Trotzdem sind sie noch immer der Goldstandard. Problematisch dabei ist die Auftrennung von Membranproteinen und die Charakterisierung von Proteinen, die nur in sehr geringen Mengen in der Zelle exprimiert werden.

Zu den zweidimensionalen Gelen gibt es zurzeit kaum echte Alternativen. Lottspeich beschrieb eine Methode namens ICAT: Isotope Coded Affinity Tag. Dabei werden stellvertretend für Proteine Peptide getrennt. Die Proteine werden dafür in zwei verschiedenen Zuständen der Zellen unterschiedlich markiert. Dafür müssen Cysteinreste herhalten, die zwar in allen Proteinen vorkommen, aber innerhalb der Sequenzen recht selten sind. An sie wird eine Art Haken angehängt, mit dem man sie anschließend per Affinitätschromatographie aus einem Gemisch herausfischen kann. Um die Moleküle aus den verschiedenen Proben voneinander unterscheiden zu können, enthält das Linker-Molekül in der einen Proteinmischung das schwere Wasserstoffisotop Deuterium, in der anderen den leichteren Wasserstoff.

Anschließend werden die Proteine in Peptide gespalten. Dabei entstehen viele Peptide ohne Haken und wenige mit Haken. Letztere werden per Affinitätschromatographie aus dem Gemisch herausgefischt. Die Peptide werden zusammengegeben und per Massenspektrometrie aufgetrennt. Dort erscheint dann neben einem Peptid aus Probe 1 das gleiche aus Probe 2. Die Peptide haben identische Aminosäuresequenzen, unterscheiden sich jedoch in der Masse - auf Grund des Deuteriums in der einen Probe. Über die Signale in der Massenspektrometrie ist ein Mengenvergleich der beiden Peptide möglich. Dadurch können die Forscher verfolgen, ob ein Protein im Laufe des Zellwachstums zum Beispiel in größeren Mengen produziert wird oder gar verschwindet. Nachteil der Methode: Informationen über posttranslationale Modifikationen gehen verloren.

Ziel der Forscher ist es, irgendwann nicht mehr im Labor zu stehen, und die natürlichen Gegebenheiten zu beobachten, sondern am Rechner zu modellieren, was mit einer Zelle passiert. Dies ist jedoch nur durch Kombination der vielen -omics mit klassischen Experimenten möglich, sagte Lottspeich. Proteomics ist dabei nur ein kleiner Teil.

Rechner statt Labor?

Was die Bioinformatik derzeit schon leistet, stellte Professor Dr. Thomas Lengauer, Direktor des Max-Planck-Instituts für Bioinformatik in Saarbrücken vor. Er schränkte ein: "Bioinformatik ist kein Propagator von Wahrheit, sondern ein Hypothesengenerator". Dabei werden große Rechner eingesetzt, um zum Beispiel Gene im Genom zu lokalisieren, eine der Hauptaufgaben der Bioinformatik. Was allerdings noch kein Wissenschaftler gesehen hat, ist auch mit der Bioinformatik nicht zu finden. Schließlich füttern die Forscher selbst die Computer mit Informationen, die als Grundlage für die Rechneraktivitäten dienen. Bei völlig unbekannten Sequenzen im Genom kommt es daher häufig zu Fehlern. So übersehen die Rechner zum Beispiel Teile der codierenden Sequenzen.

Hilfreich ist der Vergleich mit ähnlichen Genen anderer Organismen. Auch Ähnlichkeiten benachbarter Sequenzen in den verschiedenen Genomen sowie die phylogenetische Analyse, ziehen die Bioinformatiker heran, um das Genom genauer zu analysieren. Dabei werden Stammbäume von Proteinen angelegt, die zum Beispiel Rückschlüsse darauf zulassen, wann ein Gen im Genom verdoppelt wurde und welche Funktion es anschließend übernommen hat, falls bekannt. Dafür gibt es ganze Stammbaumdatenbanken, die neu berechnet werden, wenn ein neuer Organismus sequenziert wird.

Funktionsaufklärung kaum möglich

Zudem nutzen Wissenschaftler die Bioinformatik, um Proteinstrukturen vorherzusagen. Dies gestaltet sich allerdings ausgesprochen schwierig. Allein ausgehend von der Aminosäuresequenz ist es schlichtweg unmöglich. Auch hier werden Vergleiche mit anderen, möglichst ähnlichen Proteinen herangezogen, über die bereits mehr Informationen vorliegen. Allerdings sind gerade einmal 25 bis 30 Prozent der Proteinstrukturen überhaupt bekannt. "Was bei den Berechnungen herauskommt, kann höchstens ein Vorschlag sein", folgerte Lengauer.

Was die Funktionsanalyse von Proteinen angeht, scheitert die Bioinformatik jedoch bislang an den für die Funktion sehr wichtigen posttranslationalen Modifikationen. Die Rechner finden zwar zum Beispiel Glykosylierungsstellen, aber auf die Funktion zurückzuschließen, ist meist nicht möglich. Ist die Funktion eines Proteins jedoch bereits bekannt, so kann zum Beispiel die Strukturanalyse der Bindungstasche von Enzymen ein Schritt auf dem Weg zum Arzneistoffdesign sein. Im Gegensatz zu Lottspeich verspricht sich Lengauer viel von RNA-Daten. Er ist davon überzeugt, dass die Menge an mRNA leicht auf die Proteomebene übertragbar ist.

Lebenswichtige Proteasenregulation

Wie komplex die Katalyse eines einzigen Reaktionstyps sein kann, machte Chemie-Nobelpreisträger Professor Dr. Robert Huber vom Max-Planck-Institut für Biochemie in Martinsried am Beispiel der Proteasen deutlich. Die Enzyme sorgen für die Hydrolyse von Peptidbindungen, einen einfachen Reaktionsmechanismus. Trotzdem gibt es eine Vielzahl unterschiedlicher Proteasen, die ihre wichtigste Rolle bei der Regulation physiologischer Prozesse spielen.

Proteasen zu kontrollieren, ist lebenswichtig. Unkontrolliert können sie in kürzester Zeit die ganze Zelle zerstören. Die Folge: Wir würden zerfließen. Die Natur hält eine Vielzahl von Regulationsmechanismen zur Kontrolle der Enzyme bereit. Ein weit verbreitetes Prinzip ist zum Beispiel die Hemmung der Proteasen über Inhibitoren. So wird Trypsin von mehr als einem Dutzend kleiner Serinprotease-Inhibitoren gehemmt, die wie das eigentliche Substrat in die Bindungstasche passen. Papainhaltige Cystein-Proteasen werden hingegen durch Moleküle gehemmt, die nur einen Teil der Bindungsstelle ausnutzen und an zusätzliche Regionen der Protease binden.

Auch über ihre Substratspezifität ist die Regulation von Proteasen möglich. Sie sind in der Lage, unter Millionen Bindungen diejenige zu finden, die sie spalten sollen. Ein Beispiel dafür ist Thrombin. Auch für diese Proteasen hält die Natur Hemmstoffe bereit. Hirudin aus dem Blutegel, Rhodinin aus der Raubwanze und Ornithodorin aus einer Zecke binden an die Fibrinogen-Bindestelle des Molküls und halten sich so die Blutversorgung offen.

Besonders häufig ist die Regulation von Proteasen durch Proenzymspaltung. Über einen proteolytischen Schritt, bei dem ein Teil des Moleküls abgespalten wird, wird das Enzym freisetzt, oder es tritt eine allosterische Veränderung ein. Letzteres geschieht zum Beispiel bei den Serinproteasen. Im Proenzym ist die Oberfläche der Substratbindetasche völlig ungeordnet, erklärte Huber. Durch die Abspaltung eines Peptids entsteht ein neuer N-Terminus, der sich nach innen faltet, es kommt zu einer Salzbindung und die Oberfläche der Substratbindetasche erstarrt zu einer geordneten Struktur.

Eine weitere Möglichkeit der Aktivierung von Proteasen ist die Colokalisation. So wird zum Beispiel Faktor Xa, Bestandteil der Blutgerinnungskaskade, zur Aktivierung an die Membran gebracht, wo sein Substrat zu finden ist. Beim ebenfalls an der Blutgerinnung beteiligten Thrombin kommt die Cofaktor-Bindung von Thrombomodulin als Regulationselement ins Spiel.

Reißwolf der Zelle

Eine anderes Prinzip der Regulation verfolgen die Proteasomen. Als Reißwolf der Zellen bauen sie Proteine, die nicht benötigt werden, zu Peptidschnipseln ab. In die Müllverwertungsanlage der Zellen gelangen nicht nur Eiweiße, deren Lebenszeit abgelaufen ist, sondern auch neu synthetisierte, erklärte Huber. "30 Prozent aller Proteine werden schon falsch gefaltet vom Ribosom freigesetzt." Bei einigen Vorgängen wie der Zellzykluskontrolle muss die Inaktivierung von Protein in rasendem Tempo vor sich gehen. Die Zelle reguliert diesen Vorgang über das Anhängen von Ubiquitinresten - ein Signal für die Protein-abbauende Maschinerie der Zelle, dass das Protein so schnell wie möglich entsorgt werden muss.

Die Aktivität der Proteasomen wird über den Substratzugang geregelt. Die aktiven Zentren des riesigen Proteinkomplexes aus 28 Untereinheiten liegen im Inneren, die Aktivität wird durch Öffnen der Zugänge reguliert, wofür ATPasen verantwortlich sind.

Tricorn-Protease mit Salamitechnik

Erst Ende vergangenen Jahres klärten Huber und seine Mitarbeiter vom MPI die atomare Struktur einer Protease mit völlig neuartigem Regulationsmechanismus auf. In Archaebakterien ist an das Proteasom, das Proteine zu Peptiden abbaut, ein weiterer Proteinkomplex gekoppelt. Die so genannte Tricorn-Protease verleibt sich über eine Art Trichter die vom Proteasom erzeugten Proteinschnipsel ein. Die Protease kann nur entfaltete Aminosäureketten abbauen, lässt also jedes gefaltete Protein unangetastet. Die Peptide werden an das katalytische Zentrum herangeführt, das in Salamitechnik jeweils zwei bis drei Aminosäuren von der Peptidkette abschneidet, bis diese vollständig aufgebraucht ist. Von dort aus mündet eine Art Auspuff in ein weiteres Protein, das die Schnipsel aus zwei bis drei Aminosäuren in einzelne Aminosäuren umwandelt, die von der Zelle wiederverwendet werden - ein perfektes Recyclingsystem.

Die Natur hat Lösungen bereitgestellt, man muss sie nur zu nutzen wissen, war auch das Fazit von Professor Dr. Herbert Waldmann vom Max-Planck-Institut für Molekulare Physiologie in Dortmund. Vor zehn Jahren hielten Wissenschaftler die kombinatorische Chemie für ein Wundermittel auf dem Weg zu immer spezifischeren Arzneimitteln, die vor allem schnell auf den Markt kommen. Substanzbibliotheken im Millionenmaßstab wurden angelegt. Die Enttäuschung war groß, als deutlich wurde, dass die Trefferraten nur gering waren und aus dieser Unzahl von Substanzen nur wenige Leitstrukturen hervorgingen. Die Trefferraten lagen im Verhältnis zu klassisch synthetisierten Substanzbibliotheken bei 1:100. Waldmanns Credo: "Man muss die Qualität verbessern, nicht die Zahl der Moleküle erhöhen."

Naturstoff-Bibliotheken

Waldmann plädierte für biologisch relevante und validierte Ausgangspunkte für die Synthese von Leitsubstanzen. Sein Ziel sind hohe Trefferquoten mit vielen Leitsubstanzen aus wesentlich kleineren Bibliotheken. Biologisch validierte Startpunkte für die Synthese liefert die Natur. "In den Naturstoffbibliotheken sind die Trefferraten signifikant höher als in den klassischen Substanzbibliotheken", sagte Waldmann. Eigentlich nichts Neues, viele Pharmaka sind Naturstoffe oder von ihnen abgeleitet.

Naturstoffe bieten den Vorteil, dass hier die Natur genau das getan hat, was heute Chemiker in mühsamen zeitraubenden Experimenten nachzuahmen versuchen. Sie hat für bestimmte Proteindomänen in einem Millionen Jahre dauernden Prozess Liganden selektiert. Auf der Basis dieser Naturstoffe lassen sich kleine Bibliotheken mit hohen Trefferquoten synthetisieren.

Lange Zeit hielten viele Wissenschaftler die gezielte Entwicklung von Liganden an bestimmte Proteindomänen für unmöglich. Denn viele Proteindomänen ähneln sich sehr. Aus diesem Grund erwarteten die Wissenschaftler, mit einem Inhibitor alle ähnlichen Moleküle zu hemmen. Ein großes Spektrum an Nebenwirkungen wäre die Folge. Auf der Basis von Naturstoffen ließe sich das Problem umgehen, denn diese sind bereits hoch spezifisch und für eine bestimmte Proteindomäne optimiert, erklärte Waldmann. In der Natur ist chemische Diversität zudem quasi eingebaut. Für die Substanzbibliotheken wäre es jedoch nötig, Substanzen über mehr als zehn Stufen mit guter Ausbeute am polymeren Träger zu synthetisieren. Wie Waldmann anhand eigener Experimente belegte, ist dies trotz entgegenlautender Vermutungen möglich. Er präsentierte mehrere kleine Bibliotheken mit hohen Trefferquoten.

So bauten er und seine Mitarbeiter auf der Basis von Nakijichinon eine Substanzbibliothek auf. Dabei handelt es sich um einen Naturstoff, der das an der Krebsentstehung beteiligte Molekül HER2/neu hemmt. Die Wissenschaftler synthetisierten 74 Verbindungen und landeten fünf Treffer mit antitumorigener Wirkung - HER2/neu hemmte jedoch keine der Substanzen. Zu den Hits zählten Verbindungen, die bei einer halbmaximalen Hemmkonzentration in mikromolaren Konzentrationen Tie2 beziehungsweise VEGFR-3 hemmten. Tie2 spielt eine wichtige Rolle bei der Tumorangiogenese. Tumoren können ab einer gewissen Größe nicht mehr weiter wachsen, wenn ihre Zellen nicht von Blutgefäßen mit Sauerstoff und Nährstoffen versorgt werden. Gleichzeitig senden sie über die Blutgefäße abgesiedelte Zellen in den gesamten Körper, wo diese Metastasen bilden.

VEGFR-3 steht für Vascular Endothelial Growth Factor Receptor 3. Dieser wiederum ist beteiligt an der Lymphangiogenese. Tumoren stellen nicht nur Verbindungen zum Blutgefäßsystem, sondern auch zum Lymphgefäßsystem her. Auch darüber ist die Metastasierung möglich. Top

© 2002 GOVI-Verlag
E-Mail: redaktion@govi.de

Mehr von Avoxa