Pharmazeutische Zeitung online

Spitzenforschung vor barocker Kulisse

23.06.2003  00:00 Uhr
5. Highlight-Kongress

Spitzenforschung vor barocker Kulisse

von Christina Hohmann und Ulrike Wagner, Gotha

Was ist der Lotus-Effekt? Wie lässt sich eine Zelle berührungslos manipulieren? Helfen Stammzellen nach einem Herzinfarkt? Wie wird die Menschenwürde definiert? Faszinierende Einblicke in die Welt der modernen Naturwissenschaften und der Ethik bot der fünfte Highlight-Kongress, den die Deutsche Pharmazeutische Gesellschaft und die Pharmazeutische Zeitung am 14. Juni gemeinsam in der Residenzstadt Gotha veranstalteten.

Ein Blick in die Natur liefert oft überraschend einfache Antworten auf technische Fragestellungen, mit deren Lösung sich selbst Ingenieure schwer tun. So haben ganze Generationen von Technikern versucht, Oberflächen dadurch zu optimieren, dass sie sie besonders glatt machten. Dabei krabbelten ihnen perfekte Strukturen ständig vor der Nase herum, flogen vorbei oder wuchsen auf ihrem Balkon. Viele Tiere und Pflanzen lösen technische Probleme mit über Jahrmillionen optimierten Strukturen, die oft genial anders aussehen als ein Techniker sie entwickeln würde.

„Natürliche Oberflächen sind bis auf wenige Ausnahmen rau“, erklärte Professor Dr. Christoph Neinhuis von der Technischen Universität Dresden. Dabei macht es keinen Unterschied, ob man den schillernden Panzer von Insekten im Elektronenmikroskop betrachtet oder die Oberfläche eines Blattes. Bis vor einigen Jahren schaute jedoch kaum jemand konsequent hin, und niemand kam auf die Idee, natürliche Strukturen in die Technik umzusetzen.

„Betrachtet man die Oberflächen von Pflanzen im Elektronenmikroskop, so eröffnet sich ein eigener Kosmos an Mikrostrukturen“, sagte Neinhuis. Heute ist bekannt, dass die feinen Muster ganz unterschiedliche Funktionen erfüllen. So verstärken einige von ihnen die Blütenfarben, wodurch zum Beispiel das intensive Blau von Usambaraveilchen zu Stande kommt. Andere optimieren ihre Oberfläche so, dass sie sich nicht benetzen lässt. Dadurch minimieren sie den Kontakt mit Schadstoffen, die mit dem Regen aus der Atmosphäre gewaschen werden. Solche selbstreinigenden, stets trockenen Oberflächen bieten auch Pilzen keinen Angriffspunkt. Denn die Schädlinge brauchen ein feuchtes Milieu, um auszukeimen.

Der Lotus-Effekt

Das bekannteste Beispiel für natürliche selbstreinigende Oberflächen sind die Blätter der Lotusblume. Als Lotus-Effekt® wurde das Prinzip bereits in die Technik umgesetzt. Er basiert auf den Beobachtungen von Wilhelm Barthlott, Professor an der Universität Bonn. Der Botaniker wollte mithilfe der Mikrostrukturen ein System entwickeln, mit dem sich aus Herbar-Material die Art einer Pflanze bestimmen lässt. Der Biologe untersuchte die Pflanzenteilchen im Rasterelektronen-Mikroskop und beobachtete dabei, dass die Bestandteile einiger Pflanzen verschmutzten, andere jedoch unter gleichen Lagerungsbedingungen völlig sauber blieben. Zu letzteren gehörten die Blätter der Lotuspflanze.

Die Beobachtung an sich war nicht neu, bereits die alten Griechen berichteten von dem Phänomen, erklärte Neinhuis. Barthlott war jedoch der erste, der dessen Tragweite erkannte und die Strategie konsequent weiterverfolgte. Er entdeckte auf der Oberfläche von Lotusblättern Noppen aus Wachskristalloiden. Diese haben einen Durchmesser von 5 bis 6 µm und sind im Abstand von etwa 40 µm gleichmäßig angeordnet. Während ein Wassertropfen auf einer glatten Oberfläche auseinander läuft, bleibt dieser Effekt auf einer so genoppten Oberfläche aus. Denn die Energie, die ein Wassertropfen aufbringen müsste, um sich zwischen den Noppen auszubreiten, wäre wesentlich größer als die dadurch gewonnene Adsorptionsenergie. Also bilden Wassertropfen eine Kugel, um die Kontaktfläche mit der Luft zu minimieren. Schmutzteilchen werden zusammen mit dem Wasser heruntergespült. Auf einer glatten Oberfläche bleiben die Schmutzpartikel hingegen hängen und sind nur mit mechanischen oder chemischen Reinigungsmethoden zu entfernen.

Der selbstreinigende Effekt einer fein genoppten, hydrophoben Oberfläche war zuvor nicht bekannt. Das Prinzip ließ sich Barthlott als Lotus-Effekt® patentieren. Dass er diese Wirkung ausgerechnet bei Lotusblättern entdeckte, obwohl auch viele andere Pflanzen selbstreinigende Oberflächen aufweisen, ist allerdings kein Zufall. Auch Flüssigkeiten mit wesentlich geringerer Oberflächenspannung als Wasser perlen von diesen Blättern spurlos ab. Selbst ein Gemisch aus 75 Prozent Methanol und 25 Prozent Wasser beeinträchtigt den selbstreinigenden Effekt nicht. Bei einigen anderen Pflanzen reicht bereits der Zusatz von 5 Prozent Methanol aus, damit die Tropfen auseinander laufen und die Blätter benetzt werden.

Die Lotusan-Fassadenfarbe war eine der ersten Anwendungen des Lotus-Effekts. Die Farbe ist keine direkte Kopie der Natur, sie enthält keine Wachskristalloide. Aber die Oberflächenstruktur der Lotusblätter wird mit einer Mikrostrukturierung in der Farbe analog nachgeahmt. Die Kontaktfläche für Schmutzpartikel und Wasser ist dadurch stark reduziert. Regentropfen perlen sofort ab und reißen die nur lose anhaftenden Schmutzpartikel mit. In der Entwicklung sind derzeit Textilien wie Markisenstoffe, Glasbeschichtungen und Materialien, von denen selbst hochvisköse Lösungen wie Honig einfach abfließen.

Häufig aus Wachsen

Die komplexen, oft sehr ästhetischen Oberflächenstrukturen der Pflanzen bestehen häufig aus Wachsen, die auf die Kutikula aufgelagert sind. Die bizarren Formen entstehen durch Selbstorganisation: Von der Pflanze ausgeschieden, bilden die Substanzen auf Grund ihrer molekularen Eigenschaften Mikrostrukturen wie kleine Röhrchen, quergeriefte Stäbchen, geschichtete Formen oder Strukturen, die an einen Küchenquirl erinnern. Werden diese Oberflächenstrukturen abgetragen, so ist die Pflanze in der Lage, sie innerhalb von einer Stunde wieder entstehen zu lassen.

„Wir haben bisher keine Ahnung, wie das geht“, so Neinhuis. Klar ist, dass sich die Strukturen auf Grund inhärenter Moleküleigenschaften bilden, es daher für die Oberflächenstrukturen auch keinen genetischen Bauplan gibt. „Wir wissen noch nicht einmal, welche Moleküle dafür geeignet sind“, berichtete der Botaniker. Derzeit suchen die Wissenschaftler nach Regeln, inwiefern ein bestimmter Molekülbestandteil die Selbstorganisation beeinflusst. Auch die Biosynthesewege der Substanzen sind bislang unbekannt. „Wir beginnen erst ganz langsam zu verstehen, was da passiert“, betonte Neinhuis. Manche Pflanzen benutzen offenbar bislang ebenfalls unbekannte Additive, um ihre Oberflächenstrukturen zu bilden. Auffällig ist, dass primitive Pflanzen besonders aufwendige Strukturen bilden. Wahrscheinlich sind höher entwickelte Pflanzen so gut mit sekundären Planzenstoffen ausgestattet, dass sie sich damit zum Beispiel vor Schädlingen wie Pilzen schützen können und diese simplen Verteidigungsmechanismen nicht mehr benötigen.

Zell-Labor im Miniaturmaßstab

Die moderne Biotechnologie wird die Medizin revolutionieren, zeigte sich Professor Dr. Günter R. Fuhr, Leiter des Fraunhofer-Instituts für Biomedizinische Technik in St. Ingbert, überzeugt. So eröffnet zum Beispiel die Transplantation von Zellen eine Reihe von Möglichkeiten, verschiedene Krankheiten zu heilen. Für diese sowie für viele andere Methoden sind allerdings Verfahren nötig, mit denen sich einzelne Zellen berührungslos und möglichst schonend handhaben lassen. Denn die Mediziner haben bei der Manipulation von Zellen ein schwer wiegendes Problem: Jede Berührung ist eine Prägung, sie kann den Stoffwechsel, die Zellteilung oder die Reorganisation der inneren Bausteine der Zelle verändern. Jeder Kontakt der Zelle mit einer Pipette, einem Objektträger oder anderen Oberflächen stellt somit ein Signal dar, „aber kein sinnvolles“, erklärte Fuhr.

Die Zellen höherer Organismen stehen ständig in Kontakt miteinander – sie tauschen Informationen in Form von Botenstoffen, aber auch über Zell-Zell-Kontakte aus. Dies ist für das Funktionieren des Organismus immens wichtig, macht die Handhabung der Zellen für die Mediziner allerdings sehr schwierig. Wie sollen sie die Zellen untersuchen und manipulieren, wenn jede Berührung sie verändern oder sogar töten kann? Die Aufgabe bestand also darin, ein System zu entwickeln, das jegliche undefinierten Oberflächenkontakte vermeidet und somit auch keine unkontrollierten Reaktionen auslöst, erklärte Fuhr.

Um Zellen berührungslos zu bewegen, können verschiedene Kräfte verwendet werden: chemische Bindungen, optische, akkustische, elektromagnetische und hydrodynamische Kräfte, sagte der Referent. Zellen sind gegenüber hochfrequenten elektromagnetischen Feldern im Radiowellenbereich recht unempfindlich. Daher entwickelte Fuhrs Team ein Mikrosystem, das mit einer Kombination aus zwei sehr zellschonenden, nämlich hydrodynamischen und elektromagnetischen Kräften arbeitet. Auf einem Mikrochip werden Zellen in einer physiologischen Lösung durch haarfeine Kanäle gespült und dabei von miniaturisierten Elektrodensystemen gelenkt, die elktromagnetische Wellen abgeben.

Herzstück dieser winzigen Steuerungssysteme sind die so genannten elektromagnetischen Feldkäfige: Acht zu einem Würfel angeordnete Elektroden bauen ein geschlossenes Kraftfeld auf, das in seinem Zentrum die geringsten Kräfte aufweist. Die Zellen werden, wenn sie in dieses Feld gelangen, von den Elektroden weg in die Mitte hinein gelenkt, wo sie frei in der Flüssigkeit schweben. Mithilfe dieser Feldkäfige lassen sich Zellen exakt positionieren, drehen, untersuchen und separieren. Es ist auch möglich, sie in definierten Kontakt mit anderen Zellen zu bringen, zum Beispiel um sie zu prägen oder um Rezeptor-Ligand-Interaktionen zu untersuchen.

Bis zu 60 solcher Elektrodensysteme zum Lenken und Positionieren der Zellen befinden sich auf einem einzelnen Mikrochip, von denen Fuhrs Arbeitsgruppe bereits 20 verschiedene entwickelt und patentiert hat. Ein Anwendungsgebiet dieser mit dem Philip-Morris-Preis ausgezeichneten Mikro-Zell-Labore ist die Separation von Zellgemischen zum Beispiel aus dem Knochenmark nach Größe oder anderen Charakteristika: In ersten Untersuchungen lag die Sortiergenauigkeit der Mikrosysteme bei fast 100 und die Überlebensrate bei etwa 90 Prozent, berichtete der Biophysiker.

Die neue Technik birgt jedoch ein Problem: Stammzellen, die für einen längeren Zeitraum ohne Kontakt zu anderen Zellen oder Oberflächen auskommen müssen, fangen an, sich zu differenzieren oder leiten den programmierten Zelltod ein. Die Forscher versuchen nun, den Zeitraum der Kontaktlosigkeit so kurz wie möglich zu halten. „Dies ist einfach nicht der normale Zustand für Zellen“, sagte Fuhr. Seine Mitarbeiter untersuchen weiterhin, ob ein definierter Oberflächenkontakt etwa mit inerten Partikeln für die Zellen noch schonender ist. Außerdem arbeiten die Wissenschaftler an Methoden, die separierten und untersuchten Zellen über längere Zeit aufzubewahren.

Knochenmark nach Herzinfarkt

Trotz moderner Methoden wie der systemischen Lysetherapie sowie dem Einsatz von Ballonkathetern und Stents leiden viele Patienten nach einem Herzinfarkt unter einer eingeschränkten Lebensqualität. Denn in der Infarktzone sind Zellen zu Grunde gegangen, die anschließend durch Narbengewebe ersetzt werden. Häufig kommt es zu einem Umbau des gesamten Organs, da der Rest der Herzkammer den Ausfall des abgestorbenen Gewebes kompensieren muss. Vielfach entsteht eine Herzinsuffizienz, die eine erhöhte Morbidität und Mortalität nach sich zieht, erklärte Dr. Tobias Zeus vom Klinikum der Heinrich-Heine-Universität in Düsseldorf.

Das verloren gegangene Gewebe mithilfe von Stammzellen zu ersetzen ist seit Jahren das Ziel vieler Wissenschaftler. Embryonale Stammzellen kommen außer auf Grund ethischer Bedenken auch deshalb nicht infrage, weil ihr Einsatz eine lebenslange immunsuppressive Therapie nach sich ziehen würde. Außerdem haben Forscher in Tierversuchen beobachtet, dass eine solche Stammzelltherapie mit einem erhöhten Risiko für Teratokarzinome einhergeht, das wohl kein Arzt einem Patienten zumuten würde.

Aus diesen Gründen griffen Wissenschaftler weltweit inzwischen mehrfach auf adulte Stammzellen zurück. Dabei handelt es sich um kaum differenzierte Zellen, die in geringer Zahl in den Geweben des Patienten selbst vorkommen. Nachteil der Methode: Bislang sind keine spezifischen Marker dieser Zellen bekannt. Ihr Nachweis im Körper gestaltet sich schwierig – und damit auch die Auswertung von Studien. Letztlich lässt sich kaum beweisen, dass die beobachteten Effekte tatsächlich auf die implantierten Zellen zurückgehen.

20 Patienten behandelt

Im Düsseldorfer Klinikum haben die Ärzte inzwischen bei 20 Patienten nach einem Herzinfarkt mononukleäre Knochenmarkszellen ins Infarktareal injiziert. 20 weitere Patienten, die die Behandlung ablehnten, dienten als Vergleichsgruppe. „Hintergrund der Anwendung beim Menschen sind tierexperimentelle Daten, die reproduzierbar gezeigt haben, dass diese Zellen Infarktgewebe regenerieren“, erklärte Zeus.

Zunächst wurden die Herzkranzgefäße aller Patienten geweitet (perkutane transluminale Koronarangioplastie) und ein Stent implantiert. Im Durchschnitt acht Tage nach dem Infarkt wurde den 20 Patienten, die einer Zelltherapie zugestimmt hatten, Knochenmark aus dem Beckenkamm entnommen. Die darin enthaltenen mononukleären Zellen wurden unter strengen hygienischen Bedingungen angereichert. Die Mediziner gehen davon aus, dass diese Zellfraktion mesenchymale Vorläuferzellen enthält, die zum Beispiel Herzmuskelzellen regenerieren können.

Sichere Therapie

24 Stunden nach Entnahme des Knochenmarks wurden die Zellen in die zuvor gedehnte Koronararterie infundiert (intrakoronare Applikation). Zu Beginn der Therapie und drei Monate später bestimmten die Ärzte verschiedene Parameter, um Aussagen über die Qualität des Herzmuskelgewebes zu machen. Wichtigstes Ergebnis war, dass keiner der so behandelten Patienten unter Komplikationen litt. Es traten infolge der Therapie keine Rhythmusstörungen auf, und es kam nicht zum erneuten Verschluss der Gefäße. Damit scheint die intrakoronare Therapie mit Knochenmarkszellen wesentlich sicherer als andere Methoden. Französische Mediziner hatten zum Beispiel Skelettmuskelmyoblasten Monate nach dem Infarkt während einer Operation ins betroffene Gewebe injiziert. Von den zehn so behandelten Patienten litten vier anschließend unter Rhythmusstörungen.

Im Vergleich zur Standardtherapiegruppe hatte sich das Infarktareal bei den Patienten, die mit den Knochenmarkszellen behandelt wurden, deutlich verringert. Verglichen mit den eigenen Ausgangswerten direkt nach dem Infarkt war auch die regionale Kontraktion des Herzens bei diesen Patienten verbessert. Zudem wiesen sie eine größere Auswurffraktion auf als zuvor. Bei den Patienten der Kontrollgruppe hatten sich diese Werte nicht signifikant verbessert. Ausschließlich bei der Zelltherapiegruppe untersuchten die Düsseldorfer Ärzte zusätzlich die Durchblutung des Myokards, den Stoffwechsel des Gewebes, die Kontraktilität sowie die kardiale Geometrie. Im Vergleich zu den Ausgangswerten registrierten die Forscher für alle diese Parameter drei Monate nach der Therapie bessere Werte. Zehn Patienten wurden bislang nach 15 Monaten erneut untersucht, ihr Zustand sei stabil geblieben was die gemessenen Parameter angeht, berichtete Zeus.

Trotz der ersten viel versprechenden Ergebnisse bleiben viele Fragen offen, was die Therapie mit adulten Stammzellen angeht, räumte der Mediziner ein. Unklar ist zum Beispiel, welche Zellen am geeignetsten sind, wie viele Zellen eingesetzt werden sollten und welcher Zeitpunkt für die Transplantation optimal ist. Gelangen die Zellen zu früh nach dem Infarkt in das geschädigte Gewebe, besteht die Gefahr, dass sie zusammen mit den Zelltrümmern abgeräumt werden. Wartet man zu lange, hat sich das Narbengewebe bereits etabliert und auch Stammzellen können diesen Zustand wahrscheinlich nicht mehr verändern, erklärte Zeus.

Außerdem bleiben die Wissenschaftler bei diesen Studien den Nachweis schuldig, dass die Zellen tatsächlich im Infarktareal bleiben und dort geschädigtes Gewebe ersetzen. Sicherheit und Machbarkeit dieses Therapieansatzes bleiben auch heute, nachdem zwölf Arbeitsgruppen weltweit erste Ergebnisse von Therapiestudien publiziert haben, die führenden Fragestellungen. Die tatsächliche Wirksamkeit der neuen Therapie müssen prospektive, randomisierte und geblindete Studien zeigen, sagte Zeus.

Die eigentliche Herausforderung

„Die Sequenzierung des Genoms ist nur der Anfang“, sagte Professor Dr. Michael Karas vom Institut für Pharmazeutische Chemie der Universität Frankfurt. Jetzt folgt die eigentliche Aufgabe, die Aufklärung der Sequenz, Struktur und Funktion von Proteinen, was unter dem Begriff Proteomics zusammengefasst ist. Dies ist mit einem unvergleichlich größeren Aufwand verbunden, als die reine Entschlüsselung der DNA. Denn während das Genom statisch ist – innerhalb eines Organismus in jeder Zelle gleich und auch im Laufe der Entwicklung keinen Veränderungen unterworfen –, ist die Proteinzusammensetzung von Zelle zu Zelle unterschiedlich.

Wie das humane Genomprojekt ergab, besitzt der Mensch zwischen 30.000 und 40.000 Genen. Durch modifizierende Prozesse entstehen daraus etwa 300.000 verschiedene Proteine, erklärte Karas. Davon liegen aber nur etwa 30.000 Proteine pro Zelle vor. Denn es werden nie alle Gene in einer Zelle abgelesen, sondern nur ein kleiner für die Funktion der Zelle nötiger Teil. Welche Eiweißmoleküle in welcher Konzentration vorliegen, ist also zell- beziehungsweise gewebespezifisch und verändert sich auch mit der Zeit. „Das Proteom einer Zelle sieht morgens anders aus als nach dem Mittagessen“, sagte Karas. Verschiedene Faktoren wie Chemikalien, Gifte oder der metabolische Status des Organismus beeinflussen, welche Gene abgelesen werden und welche nicht.

Wie stark sich die Ausprägungen bei gleichem Genom unterscheiden können, verdeutlichen Raupe und Schmetterling. Beide Stadien besitzen exakt dieselbe Erbsubstanz. Im Laufe der Entwicklung werden allerdings verschiedene Gene an- beziehungsweise abgeschaltet, was zu völlig unterschiedlichen Körperformen und Lebensweisen führt. Dies zeigt auch ein großes Problem der Forscher: Selbst wenn sie das Proteom einer einzelnen Zelle zu einem bestimmten Zeitpunkt aufklären, kennen sie nur einen kleinen Ausschnitt, nur „ein Bild aus einem Film“. Was in einem Film passiert, weiß jedoch niemand, der nur einzelne Bilder betrachtet, so der Referent.

Wie identifiziert man einzelne Proteine aus dem Gemisch von zigtausenden Eiweißmolekülen, die in einer Zelle vorhanden sind? Hierfür eignet sich die Kombination von 2-D-Gelelektrophorese mit Massenspektroskopie. Die Gelelektrophorese trennt die Proteine des Gemischs in einer Laufrichtung nach Größe und in einer weiteren Laufrichtung nach isoelektrischem Punkt auf. Dadurch entsteht im Gel ein Muster aus Tausenden von Proteinen, die nach dem Anfärben sichtbar werden. Zur weiteren Untersuchung schneiden die Wissenschaftler einzelne Flecken heraus und zerschneiden die enthaltenen Proteine mit bestimmten Enzymen, den so genannten Proteasen. Dadurch entsteht eine Reihe von Peptiden, die charakteristisch für das Molekül ist, „eine Art Fingerabdruck“, sagte Karas. Die so gewonnenen Peptide haben eine fixe Elementzusammensetzung und somit eine ganz bestimmte Masse. Anhand dieser charakteristischen Eigenschaft der Peptide, die die Forscher über Massenspektroskopie ermitteln, können sie das Protein identifizieren.

Hierfür benötigen die Wissenschaftler allerdings die Hilfe einer Datenbank, in der die Massen der einzelnen Peptide aller bekannten Proteine gespeichert sind. Auf diese Weise können Forscher den Flecken im Gel „Namensschilder anhängen“, sagte Karas. Sobald sie einen bestimmten Spot im Gel als ein bestimmtes Protein identifiziert haben, können sie untersuchen, in welchen Geweben und zu welchem Zeitpunkt dieses Molekül produziert wird. Auch der Vergleich von krankem gegenüber gesundem Gewebe ist auf diese Weise möglich. Krankheiten sind letztlich durch Veränderungen auf Proteinebene bestimmt, durch unterschiedliche Expressionslevel und Modifikationen der Moleküle. Daher sei die Proteomforschung auch von so entscheidender Bedeutung, schloss Karas. Sie könne nicht nur Informationen zur Entstehung von Krankheiten liefern, sondern auch zur Entwicklung verbesserter Diagnostikmethoden und neuer Targets für Arzneimittel führen.

Was ist Menschenwürde?

Alle Welt führt den Begriff der Menschenwürde in schwierigen Situationen im Mund. „Fragt man jedoch nach einer Definition, bricht schnell der intellektuelle Notstand aus“, so Professor Dr. Franz-Josef Wetz von der Justus-Liebig-Universität Gießen. Beunruhigend für den Philosophen, schließlich gelte die Menschenwürde als höchster Wert der Gesellschaft.

In der Kulturgeschichte wird die Menschenwürde auf zwei unterschiedliche Arten definiert. So gilt die Würde einerseits als Wesensmerkmal, das allen Menschen zukommt, unabhängig zum Beispiel von Gestalt und Intelligenz. Andererseits wird die Würde auch als ethischer Gestaltungsauftrag aufgefasst. Nach diesem Verständnis ist sie nicht von selbst vorhanden, der Mensch muss etwas für sie tun.

Die Römer waren die ersten, die den Begriff verwendeten. Für sie war die Menschenwürde jedoch nicht automatisch gegeben. Sie war ein Zeichen der sozialen Herkunft sowie der Stellung und äußerte sich in der Art des Auftretens, zum Beispiel in Körpergröße und einer tiefen Stimme. Auch die innere Selbstbeherrschung verlieh den Römern Würde, berichtete Wetz.

Im Christentum tauchte erstmals die Idee der Würde als Wesensmerkmal auf. Sie basierte auf der Gottebenbildlichkeit, der Menschwerdung Christi sowie der Vernunft und Freiheit der Menschen. Die Christen verbanden die vorgegebene Menschenwürde jedoch auch mit einem Gestaltungsauftrag. „Man soll sich würdig erweisen“, veranschaulichte Wetz.

In der Neuzeit lösten die Philosophen den Begriff der Menschenwürde aus dem theologischen Zusammenhang heraus. So fasste zwar auch Immanuel Kant die Würde als Gestaltungsauftrag und Wesensmerkmal auf. Für ihn lag sie jedoch in der Freiheit des Menschen und seiner Vernunftbegabung begründet. Ein Verstoß gegen die Menschenwürde geschah nach seiner Auffassung immer dann, wenn ein Mensch ausschließlich als Mittel zum Zweck gebraucht wurde.

Erklärung schuldig geblieben

In die Rechtsgeschichte zog die Menschenwürde erst im 20. Jahrhundert ein. Erstmals erwähnt wurde der Begriff 1919 in der Weimarer Reichsverfassung. Dann tauchte er 1933 ausgerechnet in der faschistischen Verfassung Portugals auf. Erst nach den Schrecken des Zweiten Weltkriegs avancierte die Menschenwürde zu einem zentralen Begriff. 1945 wurde sie in die UN-Charta aufgenommen, 1948 in die Allgemeinen Menschenrechtserklärungen und 1949 in Artikel 1 ins Grundgesetz der Bundesrepublik Deutschland. Interessanterweise hat bereits damals niemand den Begriff der Menschenwürde definiert. „Man ging davon aus, dass die Menschen etwas damit anzufangen wissen“, sagte Wetz. Als 1951 die Arbeit des Bundesverfassungsgerichts begann und gleich im ersten Jahr Klagen eingingen, die sich auf die Menschenwürde beriefen, musste letztlich das Gericht den Begriff klären. Es definierte den Menschen als ein aus der Natur herausgehobenes, geistig sittliches Wesen, das sein Leben in Freiheit, aber nicht in überzogener Individualität, sondern gemeinschaftsbezogen führen soll. Dahinter stehen die Philosophie Kants sowie das christliche Würdeverständnis, erklärte Wetz.

Gott und Vernunft seien jedoch als Begründung der Würde als Wesensmerkmal ungeeignet, weil weltanschaulich eingefärbt und geschichtlich gebunden an den Stand unserer Kultur. Die pluralistische Gesellschaft habe jedoch den Anspruch der weltanschaulichen Neutralität, der mit dieser Definition des Würdebegriffes verletzt werde. Immerhin sei die Bundesrepublik als Staat gegründet worden, der andere Glaubensrichtungen toleriert. Heute wendeten sich zudem viele Menschen von der Kirche ab und es werde immer schwieriger, der Bevölkerung religiöse Grundwerte als allgemein verbindlich vorzusetzen. Zudem arbeiteten auch die Naturwissenschaften an einem neuen Menschenbild. Viele sehen den Menschen nur noch als „schmalnasiges Säugetier“ auf einer für den aufrechten Gang nur wenig geeigneten Wirbelsäule. Damit lasse sich der Würdebegriff nicht mehr aufrechterhalten, sagte Wetz.

Würde als Gestaltungsauftrag

Das Leid der Welt mache einen Verzicht auf die Idee der Würde jedoch unmöglich. Die Würde sei zwar theoretisch nicht beweisbar, aber praktisch unabweisbar. „Sie meldet sich überall dort zu Wort, wo sie verletzt wird“, sagte der Philosoph. Allerdings sei das Verständnis der Würde als Wesensmerkmal möglicherweise nicht mehr aufrechtzuerhalten. Was bleibt, ist die Idee des Gestaltungsauftrags. Wetz Auffassung nach ergibt sich die Würde erst im Umgang des Einzelnen mit sich und anderen sowie dem Umgang des Staates mit seinen Bürgern. Menschenwürde müsse durch würdige Verhältnisse hergestellt werden. Dazu gehören die materielle Sicherheit, die gegenseitige Achtung der Menschen als verletzbare Wesen sowie die Selbstachtung. Die Begründung der Menschenwürde liege letztlich in der Anthropologie, die den Menschen als endliches, sterbliches, verwundbares und leidensfähiges Wesen sieht und damit alle Menschen existenziell gleichstellt. Gebunden ist die Menschenwürde an vier Aspekte:

  • die Selbsterkenntnis des Einzelnen als sterblich, bedürftig, hinfällig und armselig,
  • die Fähigkeit zu einem Schritt zur Seite, um dabei zu erkennen, dass die eigenen Interessen, nur weil es die eigenen sind, nicht wichtiger sind als die der anderen,
  • Wohlwollen, auf das allerdings kein Verlass sei, und deshalb
  • ein intaktes Rechtssystem, das ethisch uneinklagbare Definitionen umsetzt.

„Der Begriff der Menschenwürde ist zwar mehr als eine Sonntagsvokabel, aber er ist und bleibt normativ schwach“, konstatierte Wetz. Er warnte davor, ihn allzu schnell ins Spiel zu bringen und wie einen Joker zu gebrauchen. Dies heize Diskussionen nur unnötig an. Top

© 2003 GOVI-Verlag
E-Mail: redaktion@govi.de

Mehr von Avoxa