Pharmazeutische Zeitung online

Dem Proteom auf der Spur

18.02.2002  00:00 Uhr

PHARMAZEUTISCHE ANALYTIK

Dem Proteom auf der Spur

von Hermann Wätzig, Julia Hille, Jens Ohnesorge und Michael Graf, Braunschweig

Die Entschlüsselung des Humangenoms war eine der wichtigsten wissenschaftlichen Leistungen des 20. Jahrhunderts. Doch welche konkreten Fortschritte können wir für die Arzneimittelentwicklung erwarten? Die Antwort liegt nicht in den Genen, sondern in den Proteinen. Die Proteinanalytik hat hier eine Schlüsselfunktion.

Das menschliche Erbgut ist in etwa drei Milliarden Basenpaaren kodiert. Um diese enorm große Menge von Information analytisch bestimmen zu können, musste die Arbeit des Humangenom-Projektes auf viele Labors weltweit verteilt werden. Damit hat es Wissenschaftler aus aller Welt näher zusammengebracht (8).

Die DNA-Makromoleküle eines bestimmten Menschen wurden zunächst in Bruchstücke zerlegt und diese in Plasmide eingesetzt. Diese Plasmide - kleine ringförmige DNA-Moleküle - wurden in Bakterien eingebracht, wobei jedes Bakterium höchstens ein DNA-Fragment erhielt. Die DNA konnte in den Bakterien nach Bedarf vermehrt werden, und so stand ausreichend Analysenmaterial für jedes Bruchstück zur Verfügung. Außerdem konnten alle DNA-Fragmente getrennt voneinander untersucht werden. Die Sequenzieraufgaben wurden weltweit verteilt, genaue Absprachen vermieden Doppelforschung.

Die Einzelsequenzen wurden mit dem Kettenabbruchverfahren von Sanger aufgeklärt (7). Dieses nutzt einen der DNA-Strangverdoppelung (Replikation) sehr ähnlichen Mechanismus: Man gibt ebenfalls das Enzym DNA-Polymerase und DNA-Einzelbausteine (Nukleotide) zu, so dass sich anhand einer einzelsträngigen Vorlage ein DNA-Komplementärstrang bildet. Zusätzlich werden jedoch Didesoxynukleotide zugesetzt, die zwar in den Komplementärstrang eingebaut werden, aber anschließend keine Weiterverknüpfung zulassen, also wie das Endglied einer Kette wirken. Diese Bausteine sind mit einer Fluoreszenzmarkierung versehen. Der Einbau dieser Abbruchbausteine erfolgt zufällig, so dass Ketten verschiedener Länge entstehen. Bei einer sehr großen Zahl gebildeter Moleküle kommt dabei jede mögliche Kettenlänge in ausreichender Menge vor.

 

Wichtige Abkürzungen2-DE: zweidimensionale Gelelektrophorese
CE: Kapillarelektrophorese
LC: Liquid chromatography; Flüssigkeits-Chromatographie
CIEF: Kapillar-Isoelektrische Fokussierung
MS: Massenspektrometrie
MSn: wiederholte Massenspektrometrie

 

In der Praxis werden DNA-Fragmente von etwa 1000 Basen Länge untersucht. Die resultierenden 1000 Abbruchketten werden mit Kapillar-Gelelektrophorese getrennt. Alle Ketten wandern im elektrischen Feld, wobei das Gelgerüst wie ein Sieb wirkt. Da größere Ketten langsamer wandern, können die Ketten voneinander getrennt werden. Der Abbruchbaustein ist im Detektor an seiner Farbe (Emissionswellenlänge) zu erkennen und ist jeweils komplementär zur DNA-Vorlage. Die Kettenlänge zeigt seine Position dort an. Die Teilsequenzen zeigen charakteristische Überlappungen, aus denen auf die Basenfolge des gesamten Erbguts zurückgeschlossen werden kann (weiterführende Literatur siehe 5, 8, 9).

Gegen Ende des HGP wurden die Positionen von etwa zehn Millionen Basen pro Tag identifiziert. Die Gesamtkosten des Projekts werden auf über 3 Milliarden US-Dollar geschätzt, das entspricht etwa 1 US-Dollar pro Basenpaar. Die Entzifferung des gesamten menschlichen Genoms ist eine enorme Errungenschaft für die Menschheit (8). Viele Krankheiten wird man in Zukunft besser diagnostizieren und behandeln können, darüber hinaus können wir auch besser verstehen, wie sich die Menschheit entwickelt hat.

Eine Antwort und hundert neue Fragen

Bisher sind nur die Buchstaben der DNA eines bestimmten Menschen komplett entziffert. Wir können viele Wörter erkennen und wissen zum Beispiel, an welchen Positionen begonnen wird, mRNA von der DNA abzulesen, und an welchen Stellen die Transkription beendet ist. Aber wir verstehen die Bedeutung dieser Wörter im Gesamtkontext, also die Sprache der DNA, nur ansatzweise.

Die reine Basenabfolge in der DNA hilft wenig, die Komplexität von lebenden Organismen zu begreifen. Ein schönes Beispiel ist die Metamorphose des Schmetterlings: Raupe, Puppe und Schmetterling tragen genau die gleichen Gene, die nur unterschiedlich an- und ausgeschaltet werden. Gleiches gilt für uns Menschen: Unsere Gene verändern sich nicht, aber wir selbst entwickeln und verändern uns stark im Laufe unseres Lebens. Organe, Gehirn, Hände, Herz, Blut, Niere, Muskeln, Haut und Haare bestehen aus Zellen mit der gleichen genetischen Ausstattung. Diese enorme Vielfalt beruht auf der jeweils unterschiedlichen Genexpression. Diese hängt von vielen Faktoren ab, etwa von Temperatur, Stoffwechsellage, Gewebetyp und Nachbarzellen (10). Besonders wichtig ist die Beeinflussung der Genexpression durch Signale.

 

Zusätzliches Begleitmaterial Auf der Internetsite des Instituts für Pharmazeutische Chemie der Technischen Universität Braunschweig stellt Professor Dr. Hermann Wätzig für die PZ-Leser zusätzliches Begleitmaterial zu diesem Beitrag zur Verfügung.

 

Die Kommunikation zwischen den Zellen ermöglicht die Komplexität des Lebens. Zellen spezialisieren sich und "verwenden" unterschiedliche Gene aus dem Gesamtgenom. Sie teilen sich untereinander mit, welche Zelle welches Gen benutzen soll. Der menschliche Körper hat 100 Billionen Zellen oder mehr, und die Zahl der Zellorganellen ist um ein Vielfaches höher. Die Zahl der Kommunikationsmöglichkeiten zwischen den Zellen lässt sich nicht mehr vernünftig berechnen.

Von den Nukleotiden zu den Proteinen

Wenn wir gezielt in biologische Prozesse eingreifen wollen, zum Beispiel bei Krankheiten mit Arzneistoffen, dann dienen meist Proteine, Enzyme und Rezeptoren als Zielstrukturen. Proteine sind daher auch die Zielmoleküle für Arzneistoffneuentwicklungen (viele eindrucksvolle Beispiele in 11). Nicht die DNA, sondern Proteine müssen also näher untersucht werden.

Aber können wir nicht mit Hilfe des genetischen Codes aus der Sequenz der Nukleotidbasen die Aminosäuresequenz der Proteine ableiten? Nach neueren Erkenntnissen gelingt dies überraschend schlecht; zwar sind die Start- und Stopp-Codons auf der DNA und der mRNA bekannt, ebenso die Übersetzungsregeln für die dazwischen liegende Sequenz. Aber nach der primären Transkription von DNA in mRNA erfolgen zunächst Reifungsprozesse der RNA (Splicing). Ein Teil der unreifen RNA, die Introns, wird dabei herausgeschnitten (6, 9). Im Anschluss an die Translation, also die Übersetzung der gereiften mRNA in eine primär gebildete Aminosäuresequenz, erfolgen weitere erhebliche chemische Veränderungen. Bekannte Beispiele solcher posttranslationaler Modifikationen sind die Phosphorylierung von Signalproteinen, die Verknüpfung von Proteinen mit Zuckern und Lipiden zu Glyko- und Lipoproteinen sowie die Prozessierung des Insulins und des Angiotensins aus Vorläufermolekülen.

Bedeutung posttranslationaler Veränderungen

Diese Veränderungen sind notwendig, damit die Proteine ihre Funktion ausüben können. Posttranslationale Modifikationen beeinflussen die Löslichkeit und die Aktivität von Proteinen und spielen eine sehr große Rolle für die Regulation in der Zelle (Tabelle 1).

 

Tabelle 1: Posttranslationale Modifikationen und ihre biologische Bedeutung; nach (3, 4, 12)

Bedeutung, EffektÄnderung am Molekül (Beispiele) Regulation, Signalübertragung Phosphorylierung, Proteolyse, Prenylierung, Acylierung Transport zum zugehörigen Gewebe und Zellkompartiment (Translokation, Targetting) Glykosylierung, Verknüpfung mit Ubiquitin-ähnlichen Proteinen (zum Beispiel SUMO-1) Faltung Glykosylierung Stabilisierung Glykosylierung, N-terminale Acetylierung, Methylierung Funktionskontrolle, Abbau und Recycling Glykosylierung, Ubiquitinierung Membranverankerung Glykosylierung, GPI-Anker, Prenylierung Löslichkeitsbeeinflussung Glykosylierung, Acylierung

 

Das Ausmaß der posttranslationalen Veränderung wurde erst in den letzten Jahren allmählich deutlich. Ein hochaufgelöstes zweidimensionales Elektropherogramm zeigt, dass Proteine aus einer Zelle in der einen Richtung nach ihrem Isoelektrischen Punkt (IEP), also ihren Säure/Base-Eigenschaften, und in der anderen nach ihrer Größe getrennt werden. Außerdem kann man berechnen, welche Position das Protein in diesem Muster nach seiner von den Genen abgeleiteten primären Aminosäuresequenz haben müsste (13).

Es wird deutlich, dass posttranslationale Modifikationen aus einem Gen ganze Proteinfamilien entstehen lassen. Viele der entstehenden Proteine haben wahrscheinlich eine eigenständige biologische Bedeutung, andere sind nur Zwischenstufen im Biosyntheseprozess oder unterschiedliche Schaltzustände in einer Signalkette. Klar wird auch, dass ein Protein seinem Gen zugeordnet werden kann, dass man aber umgekehrt nicht vorhersagen kann, welcher Proteintyp entsteht, wenn man weiß, welches Gen gerade abgelesen wird. Bisher konnten nur in Einzelfällen so genannte Consensus-Sequenzen der primär gebildeten Peptidkette typischen posttranslationalen Modifikationen zugeordnet werden (4, 12). So findet N-Glykosylierung an Asparagin statt, das zu Gln/Glu/Lys direkt und zu Ser/Thr in darauffolgender Position benachbart ist; es gibt aber auch Sequenzen, die dem entsprechen, jedoch nicht glykosyliert sind (12).

Ein interessantes Detail: Proteine werden durch posttranslationale Modifikationen oft saurer, aber fast nie alkalischer und viel öfter größer als kleiner. Offenbar spielen Phosphorylierung und Desamidierung (Umwandlung von zum Beispiel Asparagin in Asparaginsäure) und aufbauende Schritte wie die Glykosylierung und die Ubiquitinierung, die für das Recycling von Proteinen erforderlich ist, eine besonders wichtige Rolle.

Proteine in gesundem und krankem Gewebe

Der nächste Schritt nach der Aufklärung des Genoms ist die analytische Untersuchung der exprimierten Proteine, denn diese sind die Zielstrukturen für Arzneistoffe. Das Genom ist in allen Zellen gleich, das Proteom, also die Gesamtheit aller Proteine, die zu einem bestimmten Zeitpunkt in einer Zelle exprimiert werden, ist unterschiedlich. Die Information des Genoms ist sehr wertvoll, um Ergebnisse aus der Proteomforschung zu bestätigen und zu unterstützen.

Bei der Suche nach neuen Wirkstoffen können wir zunächst Unterschiede in der Proteinexpression kartografieren. Dazu wird das Proteom verschiedener Zelltypen von befundfreien Probanden bestimmt. Die gewonnenen Muster werden mit denen aus Zellen von Kranken verglichen. Dadurch können veränderte, über- und unterexprimierte Proteine identifiziert, zur Diagnostik genutzt und in ihrer Struktur und Funktion näher charakterisiert werden. In vielen Fällen werden diese Untersuchungen eine Substitutionstherapie ermöglichen; besondere Bedeutung hat aber die Entwicklung niedermolekularer Arzneistoffe, die gezielt mit den neu entdeckten Proteinstrukturen wechselwirken.

Für eine bestimmte Form der Kardiomyopathie, die DCM (englisch: dilated cardiomyopathy), gibt es bis heute keine selektive biochemische Diagnostik. In einem Tiermodell, bei der entsprechenden Rinder-Kardiomyopathie, ist es jetzt gelungen, Veränderungen in der Proteinexpression als frühzeitigen diagnostischen Marker zu nutzen. Einige Proteine treten in gesundem und erkranktem Gewebe in erheblich veränderter Konzentration auf (24).

Unterschiede in der Proteinexpression wurden exemplarisch schon in einigen Fällen gezeigt, zum Beispiel bei Brustkrebs (25) und bei Gehirnschädigungen nach Vergiftungen (26). Durch einen Vergleich des Proteoms vor und nach einer Arzneimittelanwendung kann die Wirksamkeit, aber auch die Toxizität eines Arzneistoffs in der Entwicklungsphase vorzeitig abgeschätzt werden (15). Eine Reihe weiterer pharmazeutischer Anwendungen der Proteomanalytik ist in (28) beschrieben.

Unterschiede in Expressionsmustern kann man heute automatisiert erfassen. Diese werden erst im Anschluss von Wissenschaftlern gedeutet. Solche Konzepte, die Aufgaben nicht durch Eleganz, sondern durch hohe Rechenleistung lösen ("brute-force-Strategien"), bewähren sich in vielen wissenschaftlichen Disziplinen. Sie sind leistungsfähiger und robuster als Ansätze, die in einem zu frühen Stadium zu viele komplexe Hintergründe im Detail verstehen und beleuchten wollen. Ein Beispiel für den erfolgreichen Einsatz von brute-force-Strategien: Die Leistungsfähigkeit moderner Schachprogramme basiert auf hoher Rechenleistung, nicht auf Detailkenntnissen über das Spiel. Auch die Genomanalytik beruht auf schnellen Vergleichsalgorithmen zum Erkennen von Überlappungen der Teilsequenzen.

Analytische Strategien für das Proteomscreening

Zur Ermittlung der Basisdaten müssen sehr viele Proben analysiert werden, von einer Reihe von Individuen, aus verschiedenen Zelltypen und mit hoher zeitlicher Auflösung. Grundlage hierfür ist eine schnelle, zuverlässige, hochauflösende und empfindliche Technik für die Proteomanalytik, die zusätzlich mit sehr kleinen Probenmengen auskommen kann.

Die Probengewinnung und -vorbereitung ist eine der großen wissenschaftlichen Herausforderungen auf dem Gebiet der Proteomanalytik (27). Das Organgewebe ist sehr heterogen aufgebaut, Zellen mit unterschiedlichem Expressionsmuster sind oft direkt benachbart. Dies erfordert spezielle Probengewinnungs- und -aufarbeitungstechniken und die Möglichkeit, mit sehr kleinen Probenmengen arbeiten zu können. Außerdem müssen Proteinverluste bei der Aufarbeitung vermieden werden. Einige Proteine sind nur sehr schwer löslich und fallen bei der Aufarbeitung leicht wieder aus. Vor allem lipophile Moleküle erfordern spezielle Trenn- und Nachweismethoden. Dazu gehören die als Zielstrukturen sehr wichtigen membranständigen Rezeptorproteine.

Gelelektrophorese hat deutliche Mängel

Die zweidimensionale Gelelektrophorese (2-DE) hat sehr große Verdienste für die Proteomforschung erworben. Ohne die hohe Auflösung dieser Technik würden uns heute die Grundlagen fehlen, die richtigen wissenschaftlichen Ziele zu formulieren. Für das Proteomscreening-Programm ist die 2-DE jedoch nicht mehr geeignet, denn die Technik ist viel zu langsam. Inklusive Auswertung benötigt ein Elektropherogramm leicht mehrere Tage. Auf diese Weise können größere Datenbasen nicht effizient angelegt werden (18). Außerdem ist die 2-DE unpräzise; die Peakflächen liegen von Gel zu Gel bei der gleichen Probe leicht um den Faktor 2 auseinander. 20 Prozent relative Standardabweichung für einen Teil der Flächen eines Gels werden schon als Erfolg angesehen. Die Problematik der Robustheit wurde bisher noch überhaupt nicht diskutiert (3, 16, 29).

Nur sehr ausgeprägte zeitliche Veränderungen der Proteinexpression lassen sich mit der 2-DE untersuchen. In einigen Fällen kann jedoch bereits eine graduelle Änderung der Proteinkonzentration ein Signal für die Zelle darstellen (17). Viele Signalpeptide und -proteine wie Oxytocin, Vasopressin oder Substanz P wirken in Konzentration von etwa 1 ng/l, aber gerade in diesem Bereich ist eine präzise Konzentrationsbestimmung besonders kritisch (16). Struktur- und Transportproteine (Haushaltsproteine) sind dagegen im mg/l-Bereich zu finden. Nur diese sind heute gut nachweisbar; vermutlich sind weit über 90 Prozent der Proteine einer Zelle in einem 2-D-Elektropherogramm bisher nicht detektierbar.

Außerdem muss man in der Proteomanalytik Signalproteine in Gegenwart eines millionenfachen Überschusses anderer Proteine bestimmen können. In der 2-DE werden aber Position und Auflösung der Proteinflecken durch die Konzentration beeinflusst (3).

Eine hohe Präzision der Position für jedes Protein von Gel zu Gel ist erforderlich, um Proteinmuster schnell vergleichen zu können. Diese Position kann sich aber durch andere Bestandteile aus der Probe von Analyse zu Analyse verändern. Zwei detektierte Flecken an der gleichen Position auf verschiedenen 2-D-Gelen entsprechen nicht zwangsläufig dem gleichen Protein (3). Daher sind zusätzlich Massenspektren zur sicheren Identifizierung notwendig. Vor deren Aufnahme muss jedoch als Vordetektion eine Silberfärbung der Proteine erfolgen. Direkt vor der Massenanalyse muss das Silber möglichst vollständig wieder entfernt werden. Diese chemischen Reaktionen verändern die Proteine, können sie sogar völlig zerstören.

Schnelle und präzise Alternativen zur 2-DE

Es gab und gibt immer wieder Versuche, die 2-DE zu verbessern, zu miniaturisieren und zu automatisieren (5, 18). Trotz jahrzehntelanger Bemühungen vieler Arbeitsgruppen gibt es bis heute keine wirklich schnelle, befriedigende Lösung. Die vielleicht größten Probleme für Präzision und Robustheit der 2-DE entstehen wahrscheinlich durch die bei allen Detektionsarten vorgeschalteten Derivatisierungen.

Es gibt nur zwei Erfolg versprechende generelle Alternativen zur 2-DE (Tabelle 2): die Kopplung von Flüssigchromatographie mit Massenspektrometrie (LC-MS) nach vollständigem emzymatischen Abbau der Proteine und die Kopplung der Kapillar-Isoelektrischen Fokussierung mit Massenspektrometrie (CIEF-MS) (3).

 

Tabelle 2: Mögliche analytische Techniken für das Proteomscreening

MethodeVorteileNachteile und ungelöste Probleme 2-DE
  • etabliert 
  • viele Referenzdaten
  • Langsamkeit 
  • fehlende Automatisierung 
  • nicht reproduzierbare Gelmatrix 
  • nicht reproduzierbare Detektion 
  • unpräzise arbeitende Auswertesoftware 
  • Kontamination durch manuelle Zwischenschritte
Proteinchips
  • schnell
  • keine Liganden für unbekannte Analyten verfügbar
  • schwierige Ligandenbindung ohne Funktionsverlust
  • nicht-selektive Bindung
LC-MSn nach Totalverdau
  • schnell und empfindlich
  • keine Probleme mit Proteinadsorption
  • Umgang mit sehr großer Zahl von Analyten noch nicht möglich 
  • hoher Preis 
  • Instabilität von Peptidfragmenten
CIEF-MSn
  • schnell 
  • sehr kleine Probenmengen möglich
  • Proteinadsorption

 

Proteinaffinitäts-Chips sind geeignete Werkzeuge für Spezialanwendungen, zum Beispiel Bindungsstudien mit bereits bekannten Proteinen und deren Wechselwirkungen (10). Dazu sind jedoch selektive Bindungspartner für alle interessierenden Proteine erforderlich. Diese Bindungspartner müssen zunächst hergestellt und ohne Funktionsverlust an der Oberfläche des Chips gebunden werden. Für Untersuchungen des Gesamtproteoms ist dieser Ansatz nicht geeignet, da er zu viele speziell hergestellte Liganden benötigt. Zudem sind viele analytisch interessante Proteine zunächst nicht bekannt, so dass keine passenden Bindungspartner hergestellt werden können.

LC-MS vom vollständig verdauten Proteom

Die Kopplung von Flüssigchromatographie und Massenspektrometrie (LC-MS-Kopplung) bietet eine ähnliche Trennleistung wie die 2-DE. Automatisierung und Quantifizierung sind ausgereift. Besonders leistungsfähige Massenspektrometer (FTICR-MS; FTICR: Fourier-Transformierte Ionen-Cyclotron-Resonanz) erlauben die Bestimmung nur weniger Dutzend Proteinmoleküle und gleichzeitig Validierungsmaßnahmen durch mehrfache Tochterspektren (2). Tochterspektren erhält man durch wiederholte Massenspektrometrie (MSn). Die primär gebildeten Ionen werden nach der Massenbestimmung im Massenspektrometer weiter fragmentiert und diese Bruchstücke wiederum analysiert.

Die LC-MS-Analytik erfordert zunächst einen vollständigen enzymatischen Abbau der Proteine zu kürzerkettigen Peptiden, zum Beispiel mit Trypsin. Die Struktur aller Peptide wird mittels LC-MS bestimmt, daraus kann man auf die Struktur des ursprünglichen Proteins zurückschließen. Proteine können in der Flüssigchromatographie durch Adsorption an der stationären Phase zu großen Veränderungen der Trenneigenschaften von Chromatogramm zu Chromatogramm führen. Die Fragmentierung vermindert diese Gefahr stark. Der tryptische Abbau hat den weiteren Vorteil, dass auch schwerlösliche und sehr lipophile Proteine in Form ihrer Peptide leichter gelöst und anschließend analytisch bestimmt werden können.

Allerdings erhöht sich durch die Aufspaltung die Zahl der Analyten um etwa den Faktor 100. Es wird geschätzt, dass etwa 107 Peptide nebeneinander bestimmt werden müssen, damit dieser Ansatz gelingen kann; heute liegt der Rekord der LC-MS unter sehr vorteilhaften Bedingungen bei 25.000 getrennten Analyten (2). Daher müssen Messinstrumente der Spitzenklasse entwickelt werden, deren Einsatz sehr hohe Kosten verursacht. Zur Trennung von 25.000 Analyten wurde bereits ein Messinstrument im Wert von mehreren Millionen Dollar verwendet. Es gibt einen weiteren Nachteil des "Totalverdau"-LC-MS-Konzepts. Prinzipiell verringern alle Veränderungen an nativen Proteinen die Stabilität (1). Ein Teil der erhaltenen Peptidfragmente ist wahrscheinlich instabil. Vermutlich sind einige der biologisch relevanten posttranslationalen Veränderungen nach der Peptidspaltung nicht mehr beobachtbar.

CIEF-MS und andere 2-DE-Analoge

Das andere prinzipielle Konzept baut auf den Errungenschaften und Erfahrungen der 2-DE auf. Die physikochemischen Parameter, nach denen getrennt wird, sind ebenso wie bei der 2-DE der Isoelektrische Punkt und die relative Molmasse. Hierzu ist die Kapillar-Isoelektrische Fokussierung kombiniert mit einem Massenspektrometer (CIEF-MS) der zweckmäßigste Ansatz. Die Analysenzeiten liegen heute bereits unter einer Stunde. Miniaturisierte Systeme, die in der Kapillarelektrophorese (CE) ihr Potenzial bewiesen haben, können bei Bedarf auch für die CIEF eingesetzt werden. In der CE sind Analysenzeiten im Millisekundenmaßstab möglich. Andere Möglichkeiten sind deutlich langsamer und benötigen viel größere Probenmengen (3 und hier zitierte Literatur).

Proteinmuster aus Escherichia coli mit 2-D-Elektropherogrammen und entsprechenden Darstellungen nach CIEF-MS-Bestimmungen sind gut vergleichbar; mit 2-DE gewonnene Daten behalten also ihren Wert bei einer Umstellung auf CIEF-MS. Die Trennleistung ist der 2-DE mindestens ebenbürtig (3 und hier zitierte Literatur). Allein in der ersten Trenndimension, der CIEF, können bis zu 1000 Peaks pro Elektropherogramm aufgelöst werden. Eine Reproduzierbarkeit von Analyse zu Analyse von 1% RSD% für Peakflächen kann erreicht werden. Für kleine Proteine und Peptide bietet die CIEF-MS zwei weitere Vorteile: höhere Trennleistung und höhere Empfindlichkeit.

Die CIEF ist etwa um den Faktor 50 empfindlicher als die Kapillarelektrophorese (3). Die Empfindlichkeit kann durch zusätzliche Injektionsschritte, Autofokussierung und Optimierung der Ionisierungsausbeute im Massenspektrometer weiter erhöht werden. Mit der heute verfügbaren MS-Technologie erhält man schon jetzt aus nur 30 Molekülen ein detektierbares Signal (2).

CIEF-MSn ermöglicht Detektion und Strukturaufklärung von Proteinen. Allerdings erfordert sie eine hochwertige und teuere Ausrüstung, ähnlich wie die LC-MS-Analytik nach Fragmentierung aller Proteine durch enzymatischen Abbau. Nachdem die Proteinstrukturen aufgeklärt sind, kann aber zur Untersuchung von Veränderungen im Proteinmuster eine etwa viermal kostengünstigere Apparatur eingesetzt werden, die bereits mit einem einfachen Massendetektor auskommt.

Die Adsorption von Proteinen an der glatten Kapillarwand ist bei Einsatz der CIEF nicht so kritisch wie an der porösen stationären Phase bei der LC. Adsorptionseffekte verändern jedoch ebenfalls die Eigenschaften des analytischen Systems und können dessen Reproduzierbarkeit beeinträchtigen. Die Proteinadsorption kann teilweise oder sogar vollständig verhindern, dass die Analyten zum Detektor gelangen. Eigene Arbeiten haben gezeigt, dass Proteinbeläge an den Kapillaren mit geeigneten Reinigungsprozeduren reproduzierbar entfernt werden können. Die Reinigungswirkung der in hohen Konzentrationen eingesetzten Tenside, zum Beispiel Natriumlaurylsulfat (Natriumdodecylsulfat; SDS) 200 mmol/l, wird durch Zusatz von organischen Lösungsmitteln wie Isopropanol oder Acetonitril erheblich verbessert (19, 20). Außerdem werden beschichtete Kapillaren verwendet und möglicherweise zusätzlich vorbehandelt (21). Geeignete Validierungsmaßnahmen müssen zeigen, dass Proteine aus vielen unterschiedlichen Gruppen (hydrophile und lipophile, saure und basische, größere und kleinere, jeweils in geringer Konzentration) die Kapillare ohne Adsorption passieren. Dann ist auch die Adsorption von bisher unbekannten Proteinen, die man untersuchen möchte, unwahrscheinlich.

Ein spannender Wettlauf

Einer der Ansätze wird sich durchsetzen: LC-MS oder CIEF-MS. Die entscheidende Frage ist, ob es schwieriger ist, die Adsorption bei der CIEF wirksam zu unterdrücken oder nach tryptischem Abbau des Proteoms 100-mal mehr Analyten als bisher mit LC-MS in einem Versuch zu bestimmen. Optimistische Wissenschaftler meinen, dass dieser Wettlauf bereits in zwei bis drei Jahren entschieden ist. Aber, um mit Nils Bohr zu sprechen: Vorhersagen sind schwierig, besonders wenn es um die Zukunft geht.

Die Pharmazie wird immer wichtiger

Die Entwicklung der Analytik für ein Hochleistungs-Proteomscreening wird es ermöglichen, das Proteom von Zellen unterschiedlicher Gewebe in hoher zeitlicher Auflösung zu analysieren. Ein Vergleich der Expressionsunterschiede beim Gesunden und Kranken eröffnet den Blick auf neue Targets für Arzneistoffe. Es wird allgemein geschätzt, dass die Zahl der noch nicht bekannten Zielstrukturen etwa zehnmal höher ist als die der bekannten (8, 10, 14). Das könnte bedeuten, dass sich die Zahl wirklich neuer Wirkstoffgruppen in den nächsten Jahren verzehnfachen würde, nicht nur die Zahl ähnlicher Wirkstoffe mit bekanntem Mechanismus. Diese Schätzung ist optimistisch, denn die Entdeckung einer Zielstruktur auf anderem Wege ist um so wahrscheinlicher, je größer ihre Bedeutung ist. Mit einer deutlichen Zunahme des Arzneischatzes in den nächsten Jahrzehnten ist dennoch zu rechnen.

Die Pharmakotherapie wird dadurch in der Medizin einen höheren Stellenwert erhalten. Diese Entwicklung ist für uns Pharmazeuten eine besondere Herausforderung. Es wird nicht einfach sein, bei der zu erwartenden rasanten Entwicklung auch in der Qualitätskontrolle, der Formulierung und der Beratung Schritt zu halten. Auf der anderen Seite wird die Bedeutung der Pharmazie deutlich zunehmen, und unsere Kompetenz, schnelle Veränderungen im Arzneischatz fundiert zu bewerten, wird sehr gefragt sein.

 

Literatur

  1. Nalivaeva, N., Turner, A. J., Post-translational modifications of proteins: Acetylcholinesterase as a model system. Proteomics 1, Nr. 6 (2001) 735 - 747.
  2. Smith, R. D., et al., Rapid quantitative measurements of proteomes by Fourier transform ion cyclotron resonance mass spectroscopy. Electrophoresis 22, Nr. 9 (2001) 1652 - 1668.
  3. Hille, J. M., Freed, A. L., Wätzig, H., How to overcome the current problems with proteome analysis. Electrophoresis, im Druck; www.tu-bs.de/institute/pharmchem
  4. Michal, G. (Hrsg.), Biochemical Pathways - Biochemie-Atlas. Spektrum Akademischer Verlag, Heidelberg 1999.
  5. Lottspeich, F., Zorbas, H., Bioanalytik. Spektrum Akademischer Verlag, Heidelberg 1998.
  6. Knippers, R., Molekulare Genetik. Thieme Verlag Stuttgart, 7. Aufl. 1997.
  7. Sanger, F., et al., DNA seqencing with chain-terminating inhibitors. Proc. Natl. Acad. Sci. USA 74 (1977) 5463 - 5467.
  8. Urmoneit, B., Jagd auf Gene. Pharm. Ztg. 145, Nr. 28 (2000) 2275 - 2280.
  9. Dingermann, T., Gentechnik, Biotechnik; unter Mitarb. v. I. Zündorf. Wiss. Verlagsges. Stuttgart 1999.
  10. Baron, D., Proteine steuern das Leben. Pharm. Ztg. 146, Nr. 1 (2001) 8 - 14.
  11. Böhm, H., Klebe, G., Kubinyi, H., Wirkstoffdesign. Spektrum Akademischer Verlag, Heidelberg 1996.
  12. Nalivaeva, N, N., Turner, A. J., Post-translational modifications of proteins: Acetylcholinesterase as a model system (Review). Proteomics 1, Nr. 6 (2001) 735 - 747.
  13. Sazuka, T., Yamaguchi, M., Ohara, O., Cyano2Dbase updated: Linkage of 234 protein spots to corresponding genes through N-terminal microsequencing. Electrophoresis 20, Nr. 11 (1999) 2160 - 2171.
  14. Brown, K., Das Geschäft mit den Genen. Spektrum der Wissenschaft, Nr. 9 (2000) 30 - 41.
  15. Steiner, S., Witzmann, F. A., Proteomics: Applications and opportunities in preclinical drug development. Electrophoresis 21, Nr. 11 (2000) 2099 - 2104.
  16. Mahon, P., Dupree, D., Quantitative and reproducible two-dimensional gel analysis using Phoretix 2D Full. Electrophoresis 22, Nr. 10 (2001) 2075 - 2085.
  17. Is´harc, H., Watling, D., Kerr, I. M., Phosphotyrosine profiling to identify novel components of interferon and interleukin 6-family cytokine signalling. Proteomics 1, Nr. 6 (2001) 767 - 772.
  18. Lopez, M. F., Better approaches to finding the needle in a haystack: Optimizing proteome analysis through automation. Electrophoresis 21, Nr. 6 (2000) 1082 - 1093.
  19. Kunkel, A., Wätzig, H., MEKC as a powerful tool for pharmacological investigations without sample pretreatment - a precise technique providing cost advantages and LODs down to the low nanomolar range. Electrophoresis 20, Nr. 12 (1999) 2379 - 2389.
  20. Seifar, R. M., Kraak, J. C., Kok, W. T., Mechanism of Electrokinetic Separations of Hydrophobic Compounds with Sodium Dodecyl Sulfate in Acetonitrile-Water Mixtures. Anal. Chem. 69, Nr. 14 (1997) 2772 - 2778.
  21. Wätzig, H., Kaupp, S., Graf, M., Surface properties of capillaries for electrophoresis. Trends Anal. Chem., im Druck.
  22. Bargmann, W., Histologie und mikroskopische Anatomie des Menschen. Thieme Verl. Stuttgart, 7. Aufl. 1977.
  23. Schiebler, T. H., Schmidt, W., Zilles, K. (Hrsg.), Anatomie. Springer Verl. Heidelberg, 6. Aufl. 1995.
  24. Weekes, J., et al., Bovine dilated cardiomyopathy: Proteomic analysis of an animal model of human dilated cardiomyopathy. Electrophoresis 20, Nr. 4/5 (1999) 898 - 906.
  25. Dwek, M. V., Ross, H. A., Leathem, A. J. C., Proteome and glycosylation mapping identifies post-translational modifications associated with aggresive breast cancer (Review). Proteomics 1, Nr. 6 (2001) 756 - 762.
  26. Krapferbauer, K., et al., Changes in the brain protein levels following administration of kainic acid (after intoxification). Electrophoresis 22 (2001) 2086 - 2091.
  27. Miklos, G. L., Maleszka, R., Integrating molecular medicine with functional proteomics: Realities and expectations. Proteomics 1, Nr. 1 (2001) 30 - 41.
  28. Anderson, L., et al., Paper Symposium Pharmaceutical Proteomics. Electrophoresis 21, Nr. 11 (2000) 2095 - 2286.
  29. Voss, T., Haberl, P., Observations on the reproducibility and matching efficiency of two-dimensional electrophoresis gels: Consequences for comprehensive data analysis. Electrophoresis 21, Nr. 16 (2000) 3345 - 3350.
  30. Michov, B., Elektrophorese: Theorie und Praxis. de Gruyter, New York 1995.

 

Danksagung

Wir bedanken uns herzlich bei Anja Astner, Ingeborg Wildenau und Jörg Astner für das kritische Lesen des Manuskripts.

 

Die Autoren

Hermann Wätzig studierte Pharmazie an der Freien Universität Berlin und wurde im Arbeitskreis von Professor Dr. Siegfried Ebel promoviert. Anschließend habilitierte er sich am Institut für Pharmazie in Würzburg. Seit 1999 ist Wätzig Professor für Pharmazeutische Chemie (C3) an der TU Braunschweig. Seine Arbeitsgebiete umfassen die instrumentelle Analytik mit Schwerpunkt Kapillarelektrophorese, die Analytik von Biopolymeren, Proteomforschung, statistische Qualitätskontrolle, Stabilitätsanalytik, Qualitätssicherung, Oberflächenanalytik und die hochauflösende Mikroskopie (REM, AFM).

Apothekerin Julia Hille beschäftigt sich mit der Methodenentwicklung und Validierung der Kapillar-Isoelektrischen Fokussierung (CIEF) für die Proteinanalytik.

Apotheker Jens Ohnesorge arbeitet an der Kopplung der CIEF mit der Massenspektrometrie und an der Verbesserung der Empfindlichkeit elektrophoretischer und massenspektrometrischer Methoden für die Proteinanalytik.

Diplompharmazeut Michael Graf untersucht die Eigenschaften von Innenoberflächen von Kapillaren für die Elektrophorese und Adsorptionseffekte bei Proteinen.

  

Für die Verfasser:
Professor Dr. Hermann Wätzig
Institut für Pharmazeutische Chemie der TU Braunschweig
Beethovenstraße 55
38106 Braunschweig
Top

© 2002 GOVI-Verlag
E-Mail: redaktion@govi.de

Mehr von Avoxa