Ophthalmologe 2001 · 98:1132–1137© Springer-Verlag 2001
Leitthema: Vom Genom zum Proteom F. H. Grus1 · A. J. Augustin2 · N. Pfeiffer1 · U. Schmidt-Erfurth3 1 Universitäts-Augenklinik,Mainz · 2 Städtisches Klinikum,Karlsruhe 3 Universitäts-Augenklinik,Lübeck
Vom Genom zum Proteom
Im Sommer 2000 wurde das humane Genom vollständig sequenziert. Die DNATechnologien wurden immer besser und schneller, immer einfacher anzuwenden, teilweise sogar automatisierbar. Das Genom wird v. a. durch 4 chemisch ähnliche Bestandteile aufgebaut, die in ihrer linearen Anordnung die codierte Information der DNA enthalten.Beim Sequenzieren der DNA wird diese in Fragmente aufgebrochen und die Sequenz kann dann durch einen automatisierten repetitiven Prozess untersucht werden. Die automatisierte Analyse des Genoms wurde auch dadurch erleichtert, dass unabhängig vom Ursprung des Gewebes, wegen der Ähnlichkeit der DNA verschiedener Spezies, dieselbe Technologie angewandt werden konnte. Dies erklärt die exponentielle Geschwindigkeit bei der Entwicklung von automatisierten Prozessen zur Sequenzierung des Genoms. Mit etwa 30.000–40.000 Genen ist das menschliche Genom mehr als doppelt so groß wie das einer Fruchtfliege.
1132 |
Der Ophthalmologe 12•2001
DNA-Mikroarrays Nachdem nun das gesamte humane Genom entschlüsselt ist, bieten sich verschiedenste Anwendungsmöglichkeiten dieser Erkenntnisse auch in der klinisch orientierten Forschung an. So können bspw. unterschiedliche krankheitsassoziierte Genexpressionen untersucht werden. Für solche Untersuchungen bieten sich so genannte Biochips an, die einen weiteren Schritt in der Parallelisierung und Automatisierung der molekularbiologischen Technik darstellen. Biochips, auch DNA-Mikroarrays genannt, sind kommerziell erhältlich. Auf ihnen sind zwischen 1.000–8.000 genspezifische cDNA-Fragmente bzw. Oligonukleotide auf Nylonmembranen immobilisiert und stehen für eine Analyse zur Verfügung. Die Verteilung der Fragmente auf diesen Chips ist so weit gestreut, dass die meisten bekannten Gene, die bisher als bedeutsam im biologischen Stoffwechsel eingestuft wurden, vorhanden sind. Für jede der auf den Chips vorhandenen Bindungsstellen gibt es eine zugeordnete Nummer in der jeweiligen Gen-Datenbank, so dass man direkte Rückschlüsse auf die Funktion der jeweiligen Bindungsstelle ziehen kann (Abb. 1). Der Einsatz von Mikroarrays gestattet die gleichzeitige Untersuchung so zahlreicher Genexpressionen,wie es noch vor kurzer Zeit unvorstellbar gewesen wäre.Hierdurch verspricht man sich eine schnellere Erkennung von neuen, krankheitsassoziierten Genen und daraus resultierend eine schnellere Entwicklung von Therapieverfahren [1]. Für die Auswertung der Mikrochips sind aufgrund der Miniaturisierung spezielle Lesegerä-
te notwendig. Des Weiteren ist die Herstellung dieser Chips immer noch sehr teuer, so dass die Technologie z. Z. noch nicht für größere Probenvolumina angewendet werden kann.Dies könnte sich jedoch in naher Zukunft ändern, da namhafte Hersteller von Computerbauteilen wie z.B.Motorola,Agilent und Mitsubishi in den Herstellungsprozess eingreifen. Ein weiteres Problem bei der Anwendung dieser Chiptechnologie ist die Auswertung der unvorstellbar großen Datenmengen. Es müssen neue Algorithmen gesucht und entwickelt werden, die ein „Filtern“ der möglicherweise krankheitsassoziierten Genexpressionen aus der Information von tausenden möglicher Bindungsstellen zulassen (s. u.). Biochips konnten bereits erfolgreich im medizinischen Bereich eingesetzt werden [2, 3, 4, 5]. Beispielsweise wurde eine Korrelation unterschiedlicher Genexpressionen mit der Glaukomerkrankung gezeigt. Bei Patienten mit Normaldruckglaukom wurde eine veränderte Gen-Expression in Lymphozyten [6] und beim Offenwinkelglaukom Myocilin-Mutationen nachgewiesen [7]. Biochips wurden auch schon in experimentellen Glaukommodellen eingesetzt, um potentielle neue Möglichkeiten der Behandlung auszutesten. Um die Veränderung von Genexpressionen durch Erhöhung des Intraokulardruckes im Trabekelwerk zu bestimmen, benutzten Gonzales und Mitarbeiter ein Array von immobilisierten
Dr. Dr. Franz H. Grus Universitäts-Augenklinik, Langenbeckstraße 1, 55101 Mainz
PCR-amplifizierten Genen des Trabekelwerkes [8]. Sie bestimmten innerhalb von ca. 18000 solcher Gensequenzen 11 Sequenzen, die mit steigendem Intraokulardruck hochreguliert wurden. Bei der altersbedingten Makuladegeneration (AMD) sollen neben exogenen Umweltfaktoren auch genetische Determinanten eine wesentliche Rolle spielen. Zahlreiche epidemiologische und familiäre Studien haben eindeutige Hinweise auf Heredität gegeben, ohne den Einfluss molekulargenetischer Ursachen exakt identifizieren oder quantifizieren zu lassen. Von besonderem Interesse scheint das ABCR-Gen, das für die rezessive Form der Stargardtschen Makuladystrophie verantwortlich ist und in seiner heterozygoten Form zur AMD prädisponieren soll. In einer großen AMD-Familie wurde ein Linkage mit Markern auf dem Locus 1q25-q31 beschrieben. Neue Daten weisen darauf hin, dass das ApoE-epsilon4Allel das Risiko der AMD signifikant re-
duziert. Eine genaue Kenntnis der genetischen Mechanismen, die mit der Biochip-Technologie erlangt werden kann, wird in der Zukunft zu einer Klärung der Beteiligung genetischer Mechanismen bei der Pathogenese der AMD beitragen. Erst dann wird, basierend auf diesen neuen Erkenntnissen, die Entwicklung adäquater präventiver und therapeutischer Interventionen möglich sein. Ein gemeinsames Ziel dieser neuen molekulargenetischen Techniken ist es, Unterschiede in der Genexpression zwischen Gesunden und Patienten mit einer bestimmten Erkrankung zu finden. Basierend darauf können dann spezielle Tests für z. B. Serum-Marker für die Erkrankung entwickelt werden. Allerdings stößt man bei solchen Untersuchungen auf Schwierigkeiten: Man muss zunächst einmal annehmen, dass die gefundenen Expressionsunterschiede tatsächlich mit der zu untersuchenden Erkrankung assoziiert sind. Dies ist jedoch nur mit Einschränkungen der Fall.
Es wurde gezeigt,dass eine sehr große Variation in der Genexpressionen bei unterschiedlichen Patienten vorliegt.
Abb.1 Schematische Darstellung der Biochip-Technologie. Aus der Probe wird zunächst die RNA isoliert. Diese wird – vereinfacht dargestellt – dann mit dem Mikroarray inkubiert, auf dem tausende von Bindungsstellen von cDNA aufgetragen sind. Die Bindung zwischen der RNA der Probe und der Membran wird dann durch Chemilumineszenz, radioaktive Markierungen oder Fluoreszenzmessungen sichtbar gemacht
So konnte man bei Mikroarray-Analysen von einzelnen Patienten mit Adenokarzinom der Prostata feststellen, dass hunderte von Genexpressionen verändert waren.Wurden allerdings auch nur mehr als 10 Patienten untersucht, reduzierten sich die gemeinsamen Änderungen auf nur wenige Dutzend [9]. Obwohl prognostische Marker, wie z. B. die Genexpressionen für viele Erkrankungen bereits heute zur Verfügung stehen, sollte man immer berücksichtigen, dass diese nicht automatisch auch für den einzelnen Patienten zutreffen müssen. Dies ist insbesondere wichtig, wenn davon weitreichende Entscheidungen, wie z. B. die Indikation zur chirurgischen Intervention abhängig gemacht werden [10].
Das Proteom Trotz aller Fortschritte in der Miniaturisierung und Automatisierung der molekularbiologischen Techniken und Entwicklung der Mikroarrays, und trotz der Entschlüsselung des gesamten menschlichen Genoms im Jahre 2000,
wird dabei meistens unberücksichtigt gelassen, dass eigentlich nicht die DNA, sondern die exprimierten Proteine das Leben der Zellen beeinflussen bzw. ausmachen. Der Weg vom Gen über die Transskription bis zum funktionellen Protein ist ungleich komplexer als die Untersuchung des Genoms. Aus Sicht eines Proteinbiochemikers ist die DNA vergleichbar mit einem Stück Magnetband, auf dem sozusagen Basis-Informationen gespeichert sind [11]. Bei der Umsetzung der Information in der DNA in das dazugehörige Protein werden viele Schritte durchlaufen, die posttranskriptionelle und posttranslationelle Veränderungen, wie z. B. Phosphorylisierungen und Glykosilierungen möglich machen. Die gefundene Proteinexpression ist leider nur sehr schlecht (r<0,48) mit der zugehörigen mRNAExpression korrelliert.
Die Analyse des Proteoms Durch diese vielen möglichen Veränderungen hat ein Organismus um Größenordnungen mehr Proteine als Gene. Das Proteom, also das Protein-Äquivalent zum Genom [12], von verschiedenen Zellen kann sehr unterschiedlich sein. Das Proteom ist gewebespezifisch und kann durch unterschiedlichste Faktoren wir Hormone, Neurotransmitter, Zytokine etc. beeinflusst werden. Dennoch ist die Suche nach pathologisch veränderten Proteinen pathogenetisch vielversprechender und sinnvoller als die alleinige Analyse des Genoms.
Die 2-D-Technologie Hierzu hat sich in den letzten Jahren immer mehr die zweidimensionale GelElektrophorese als Standardmethode etabliert. Sie gestattet eine simultane Analyse des Proteoms durch Auftrennung der Proteine nach isoelektrischen Punkten (1. Dimension) und dem Molekulargewicht (2. Dimension). Die Position eines bestimmten Proteins auf solchen 2-D-Gelen bleibt dabei konstant. Die so entstandenen Proteinspots können aus dem Gel ausgeschnitten und enzymatisch verdaut werden. Mittels Massenspektroskopie wird die Proteinsequenz identifiziert (MALDI-TOF-Analyse). In unserem Labor beschäftigen wir uns z. B. mit den Veränderungen des Der Ophthalmologe 12•2001
| 1133
Leitthema: Vom Genom zum Proteom
Abb.2. 2-D-Elektrophorese von Tränenproteinen eines Patienten mit Diabetes mellitus (erste Dimension: pH 3–10; 2.Dimension: 150–10 kDa gefärbt mit Sypro Ruby Fluoreszenz-Farbstoff (BioRad,München).Identifizierte Spots: A Macroglobulin; B–E Zink-Alpha-2-Glycoprotein; F Lysozym; G Lactoferrin; H,I Zystatin; J–N Lipocalin
Proteoms in der Tränenflüssigkeit bei Patienten mit Diabetes mellitus und Patienten mit Sicca-Syndrom. Durch einund zweidimensionale Elektrophorese konnte nachgewiesen werden, dass sich das Tränenproteom von Patienten mit Sicca-Syndrom und Diabetikern signifikant von dem von Gesunden unterscheidet [13, 14, 15, 16].Abbildung 2 zeigt eine solche zweidimensionale Elektrophorese von Tränenflüssigkeit [17]. Obwohl sich die zweidimensionale Gelelektrophorese in den letzten Jahren als Standardtechnik etabliert hat, da sie die gleichzeitige Analyse einer Vielzahl von Proteinen gestattet, ist die Technik mit einigen Problemen behaftet. Trotz der hohen Auflösung der 2D-Trennung können oft nicht alle Proteine deutlich voneinander getrennt werden. Weiterhin ist die Reproduzierbarkeit der Methode immer noch relativ gering, was die Zuordnung einer exakten Position eines Spots mit einem bestimmten Molekulargewicht und isoelektrischen Punkt umso schwieriger macht. Der Vergleich von mehreren 2D-Trennungen ist somit ein aufwendiger und fehlerträchtiger Prozess. Um unterschiedliche Proteinexpressionen quantifizieren zu können, müssen die Gelelektrophoresen zunächst digitalisiert werden. Solche Systeme werden von Firmen wie BioRad (München), Pharmacia (Freiburg) oder Biometra (Göttingen) angeboten. Nach erfolgter Digitalisierung wird durch die
1134 |
Der Ophthalmologe 12•2001
Software versucht, zunächst die Proteinspots zu detektieren. Anschließend wird das „Volumen“ der Spots berechnet, welches mit der Konzentration des jeweiligen Proteins korreliert (Abb. 3). Nach erfolgreicher Detektion und Quantifizierung aller Proteinspots auf einer elektrophoretischen Trennung, sollen im Regelfall mehrere Gele miteinander verglichen werden. Durch starke Schwankungen der Position identischer Proteinspots von Gel zu Gel
wird eine exakte Zuordnung erschwert. Jedoch wurden in den letzten Jahren neue Computeralgorithmen entwickelt, die dieses „Matching“ durchführen. Solche Software wird v. a. von Geneva Bioinformatics (Schweiz) und Pharmacia (Freiburg) angeboten. Bei Benutzung dieser Software ist das Matching jedoch oft ein arbeitsintensiver Vorgang. Um die 2D-Technologie für große Probenvolumina nutzen zu können, ist hier eine weitergehende Automatisierung notwendig. Hierzu wurde kürzlich von Pharmacia eine neue Software vorgestellt, die den Matching-Vorgang vollautomatisch durch so genanntes „Warping“ durchführt. Hierbei werden die digitalisierten Gele anhand von morphologischen Kriterien passend übereinandergelegt und anschließend die Proteinspots verglichen. Dieser Vergleich von unterschiedlichen Proteinexpressionen innerhalb des Proteoms kann Aufschlüsse über mögliche krankheitsassoziierte Proteine geben. Daraus könnten sich dann völlig neue Therapiewege ableiten. Es wurden Studien durchgeführt, die das Proteom von verschiedenen okulären Geweben, auch dem Trabekelwerk, analysieren sollten. In experimentellen Glaukom-Modellen konnte bspw. gezeigt werden, dass Glukokortikoide das Proteom der Versuchszellen verändern [18, 19]. Die zweidimensionale Gelelek-
Abb.3 Quantifizierung eines Proteinspots. Im Vergleich zu einer Proteinbande bei einer eindimensionalen elektrophoretischen Trennung, bei der die Fläche unter der Kurve mit der Proteinkonzentration korreliert, wird bei der zweidimensionalen Quantifizierung das „Volumen“ unter dem Proteinpeak berechnet
Abb.4a–c Synopsis des Matrix-Algorithmus.a 2-DTrennung eines Patienten mit Diabetes mellitus.b pHund MolekulargewichtsAchsen wurden in 50 Klassen aufgeteilt.Dadurch ergibt sich eine 50×50-Matrix für jedes Gel.Für jeden Spot des Gels wurde die zugehörige Molekulargewichtsund pH-Klasse ermittelt und das Volumen des Spots zu dieser Klasse hinzugezählt. Anschließend wurden die einzelnen so entstandenen Matrizen der untersuchten klinischen Gruppen kombiniert und so eine „GruppenMatrix“ gebildet.c Der Vergleich der Gruppen-Matrizen ergibt die Differenz zwischen den Gruppen
trophorese wurde angewendet, um Unterschiede in der Proteinexpression des Trabekelwerkes in glaukomatösen und gesunden Augen darzustellen [20, 21]. Es ist jedoch extrem schwierig, die zufälligen Änderungen der Proteinverteilungen von Patienten innerhalb der sehr komplexen Mischungen von denen zu unterscheiden, die pathogenetisch bedeutsam sind. Bestehende Algorithmen zum Vergleich (Matching) von zweidimensionalen Gelen versagen dort häufig, wo im Vergleich zum Master-Gel in den pathologisch veränderten Gelen sowohl Proteinspots fehlen als auch völlig neue nachweisbar sind. In den meisten Algorithmen bleiben beim Matching die Proteinspots unberücksichtigt, die im Master-Gel nicht vorhanden sind. Eines der größten Probleme beim Vergleich der komplexen zweidimensionalen Proteinmuster ist die große Varianz der Muster von Patient zu Patient. Deshalb wurde in unserer Arbeitsgruppe ein neuer Algorithmus (Matrixalgorithmus) entwickelt [17], der – analog zum eindimensionalen Vergleich – alle Proteinspots berücksichtigt. Die so bearbeiteten Gele dienen dann als Input für weitere statistische Bearbeitungen (Abb. 4).
Datenauswertung mittels Bioinformatik Eine der komplexen Aufgaben der Bioinformatik ist es nun, innerhalb dieser sehr komplexen Proteinmuster diejenigen zu finden, die pathogenetisch bedeutungsvoll sind. Dieses wird mit konventionellen multivariaten statistischen Methoden wie der Diskriminanzanalyse oder der Clusteranalyse bereits versucht. Hier bietet sich weiterhin der Einsatz von neuronalen Netzwerken an. In neuronalen Netzwerken werden die grundlegenden Funktionen von Neuronen und deren Verschaltungen durch ein Computerprogramm simuliert. Die Entwicklung von neuronalen Netzwerken (ANN „artificial neural networks“) begann bereits 1949 [22, 23]. Zuerst wurden ANNs hauptsächlich zur Mustererkennung eingesetzt, z. B. zur automatischen Erkennung von Buchstaben bei der OCR („optical character recognition“).ANNs werden heute vielfach im Alltag eingesetzt um Voraussagen über Trendentwicklungen zu machen (z. B. Börsenkurse). Ein weiteres Beispiel aus der ophthalmologischen Routinediagnostik ist die Beurteilung der Nervenfaserschichtdicke zur Früherkennung der Glaukomerkrankung (GDx, Fa. LDT-Europe, Dos-
senheim).ANNs lernen „selbsttätig“ aus den Datensätzen in einem Lernvorgang, nicht durch Vorgaben eines Programmiers. Sie gestatten eine sehr schnelle Analyse der Daten und setzen keine Normalverteilung voraus. Das menschliche Gehirn besteht aus einem komplexen Netzwerk von Billionen von spezialisierten Neuronen. Die Neurone sind untereinander verbunden und senden Informationen von einem Neuron zum anderen.ANNs werden aus simulierten „Neuronen“ zusammengesetzt. Sie bestehen meistens aus vielen untereinander verbundenen Einheiten, den „Neuronen“ oder Knoten. Jeder Verbindung zwischen zwei „Neuronen“ ist eine Zahl, das Gewicht, zugeordnet. Dieses Gewicht entspricht der synaptischen Effizienz. Jedes Neuron wandelt die Aktivitäten aller vorgeschalteten Neuronen („Dendriten“) in eine einzige Ausgabeaktivität um, die an die nachgeschalteten „Neuronen“ weitergegeben wird [24]. Jede der eingehenden Aktivitäten wird gewichtet, d. h. mit einem bestimmten Zahlenwert multipliziert. Das „Neuron“ summiert die Eingabewerte und berechnet daraus mittels einer meist sigmoiden Transferfunktion die Ausgabeaktivität des Neurons. Die häufigste Form des neuronalen Netzes besteht aus drei Schichten: den Eingabeknoten (Input), einer Schicht interner Knoten (hidden layer) und den Ausgabeknoten (Output). Es handelt sich also um ein stark vereinfachtes Modell eines Wahrnehmungssystems: Die Sinneseindrücke entsprechen den Aktivitäten der Eingabeknoten, die der Ausgabeknoten bilden die Begriffe für die wahrgenommenen Objekte (Abb. 5).
Die ANNs müssen trainiert werden, d. h. sie müssen die Daten „lernen“. Dazu werden die zu lernenden Muster (z. B. die Datenvektoren der Tränenproteome) nacheinander „präsentiert“. Die Gewichte der einzelnen „Neuronen“ werden nun immer wieder so verändert, bis am Ausgang des neuronalen Netzwerkes das gewünschte Ergebnis ausgegeben wird. Dieser Vorgang wird wiederholt bis alle Muster gelernt sind. Diese häufigste Form des Lernens von neuronalen Netzwerken nennt man „Backpropagation“ [25, 26, 27]. Werden dem trainierten Netz nach dem Trainingsvorgang unbekannte Muster präsentiert, Der Ophthalmologe 12•2001
| 1135
Leitthema: Vom Genom zum Proteom kann es mit Hilfe der beim Lernen eingestellten Gewichte die Ausgabeknoten berechnen, somit z. B. den richtigen Begriff dem wahrgenommenen Objekt zuordnen. Je mehr Muster (Patienten) das Netz gelernt hat, umso größer ist die Wahrscheinlichkeit der richtigen Zuordnung unbekannter Muster. Hier liegt die diagnostische Potenz des Ansatzes: Ähnlich wie bei den multivariaten statistischen Verfahren kann das ANN eine unbekannte Probe (z. B. Proteinverteilungen) der klinischen Gruppe mit der größten Ähnlichkeit zuordnen. In unserem Labor wurden zunächst Algorithmen entwickelt, um aus komplexen Verteilungen von Antikörpern oder Proteinen diejenigen aus dem „immunologischen Rauschen“ zu extrahieren, die pathogenetisch bedeutsam sein könnten [28, 29, 30]. Die Analyse dieser Antikörper-Repertoires wird u. a. dadurch erschwert, dass man auch im Blut von Gesunden natürlich vorkommende Antikörper gegen körpereigene Strukturen nachweisen kann [31], was die Suche nach pathogenetisch relevanten Autoantikörpern erheblich erschwert. Die entwickelte Methode basiert auf der digitalen Bildverarbeitung der Western-Blots mit anschließender Analyse in einer Diskriminanzanalyse oder neuronalen Netzwerken („künstliche Intelligenz“). Wir konnten zeigen, dass diese Methode nicht nur in der Lage ist, zwischen den Autoantikörper-Repertoires verschiedener Erkrankungen zu unterscheiden und diese diagnostisch zuzuordnen, sondern auch die immunologische Wirksamkeit von Therapeutika auf die Antikörper-Repertoires erkennen und quantifizieren kann und so eine Verlaufskontrolle ermöglicht.Veränderte Autoantikörperrepertoires konnten auf diese Weise nachgewiesen werden für die endokrine Orbitopathie [32, 33], für die Myasthenia gravis und Myopathien [17], für das Guillain-Barré Syndrom [34] und für das Tourette-Syndrom [35].Weiterhin konnten wir in den Tränen von Patienten mit Sicca-Syndrom ein verändertes AutoantikörperRepertoire nachweisen und dadurch die Hypothese einer autoimmunen Komponente dieser Erkrankung stärken. Multivariate Statistiken und neuronale Netzwerke können auch zur Suche von pathogenetisch bedeutsamen Proteinspots in zweidimensionalen elektrophoretischen Trennungen eingesetzt
1136 |
Der Ophthalmologe 12•2001
Abb.5 Schematische Darstellung eines neuronalen Netzwerkes. Die Eingabewerte werden von den Inputneuronen aufgenommen und verarbeitet. Diese Input-Schicht ist mit einer mittleren Schicht („hidden layer“) verbunden, die wiederum mit dem/den Ausgabeneuronen verschaltet sind, die das Ergebnis darstellen
werden. Die jeweils zu untersuchende Proteinverteilung ist äußerst komplex. Es werden immer neue Anwendungen entwickelt, um diese komplizierte Aufgabe der Bioinformatik zu erfüllen. In eigenen Untersuchungen konnten wir, basierend auf dem oben beschriebenen Matrixalgorithmus und neuronalen Netzwerken zeigen, dass sich die Tränenproteome von Patienten mit Diabetes mellitus und Gesunden signifikant unterscheiden.Wir konnten auch zeigen, dass diese Veränderungen mit der Stärke und der Dauer der diabetischen Erkrankung korrelieren [17]. Ziel weiterer Untersuchungen wird es nun sein, diejenigen Proteinspots zu identifizieren, die ggfs. als prognostischer Marker der diabetischen Erkrankung dienen können.
Ausblick Die Untersuchung von Proteomen hat mit der Entwicklung der 2-D-Technologie in den letzten Jahren große Fortschritte gemacht. Um jedoch ähnliche Erfolge wie bei der Untersuchung des Genoms zu erzielen, sind Technologien gesucht, die schneller, einfacher, zuverlässiger und v. a. preiswerter sind. Analog zu den DNA-Chips wird versucht, Protein-Chips zu entwickeln. Dies ist allerdings eine ungleich schwierigere Aufgabe als die Entwicklung von DNAChips. Protein-Mikroarrays müssen in
der Lage sein, tausende von Proteinen simultan zu messen. Sie sollten nicht nur Protein-Protein-Interaktionen, sondern auch die Interaktion von Proteinen mit anderen kleineren Molekülen und Enzym-Substrat-Reaktionen analysieren können. Gleichzeitig sollten semi-quantitative Messungen möglich sein, die differentielle Analysen gestatten. So kann das Proteom gesunder Zellen von dem kranker Zellen unterschieden werden. Die Konstruktion der DNA-Chips wurde dadurch erleichtert, dass die verwendeten Nukleinsäuren weitgehend robust in der Verarbeitung sind: Oligonukleotide können getrocknet, rehydriert und von verschiedensten Materialien absorbiert werden, ohne ihre Aktivität zu verlieren. Proteine können nicht auf einem einheitlichen Material aufgebracht werden. Auch können Proteine nicht getrocknet werden; vielmehr sind viele spezielle Maßnahmen notwendig,um die Aktivität der Proteine zu erhalten. Proteine haben ein-, zwei- und dreidimensionale Konfigurationen. Selbst Änderungen in der Tertiärstruktur können zu veränderten Messergebnissen führen. Inzwischen wurden jedoch Proteinchips von mehreren Firmen hergestellt bzw. angekündigt (Zyomyx, Caliper und Ciphergen). Diese sollen teilweise auch die 2-DElektrophorese ersetzen können. So besteht der Ciphergen-Chip aus kleinen Metallstreifen,die auf ihren aktivierten Ober-
flächen Proteine direkt aus der untersuchten Probe (z. B. Serum oder Urin) binden können. Gebundene Proteine können dann durch eine in das System integrierte Massenspektroskopie analysiert werden. Hierdurch erhält man einfach und schnell eine Proteinverteilung der Probe. Die große Herausforderung bleibt jedoch auch bei dieser Technologie,die ungeheure Datenmenge, die bei Proteomanalysen und Protein-Protein-Wechselwirkungen entstehen wird, sinnvoll zu verarbeiten. Die Datenmenge von Genomanalysen erscheint hierzu vergleichsweise klein. Wenn es gelingt, hierfür adäquate Lösungen zu entwickeln, stellt die Untersuchung des Proteoms einen höchst reizvollen Ansatz dar,die komplexen Vorgänge in Zellen besser zu verstehen, krankheitsassoziierte Veränderungen zu erkennen und schnell und gezielt daraus neue Therapieformen abzuleiten.
Literatur 1. Miklos GLG, Maleszka R (2001) Integrating molecular medicine with functional proteomics: realities and expectations.Proteomics 1:30–41 2. Bouton CML, Pevsner J, Laterra J (2000) Induction of vascular endothelial growth factor in human astrocytes by lead.J Biol Chem 275:27874–27882 3. Baud V, Liu ZG, Bennett B.Suzuki N, Xia Y, Karin M (1999) Signaling by proinflammatory cytokines: oligomerization of TRAF2 and TRAF6 is sufficient fo rJNK and IKK activation and target gene induction via an amino-terminal effector domain.Genes Devel 10:1297–1308 4. Camerer E, Gjernes E,Wiiger M, Pringle S, Prydz H (2000) Binding of factor VIIa to tissue factor on keratinocytes induces gene expression. 5. Chao L, Dziarski R (2000) Chemokines are the main proinflammatory mediators in human monocytes activated by staphylococcus aureus, peptidoglyocn and endotoxin. J Biol Chem 27:20260–20267 6. Golubnitschja-Labudova O, Liu R, Decker C, Zhu P, Haefliger IO, Flammer J (2000) Altered gene expression in lymphocytes of patients with normal-tension glaucoma.Curr Eye Res 21:867–876
7. Alllingham RR,Wiggs JL, de la Paz M et al. (1998).Gln368STOP myocilin mutation in families with late-onset primary open-angle glaucoma.Invest Ophthalmol Vis Sci 39:2288–2295 8. Gonzalez P, Epstein DL, Borras T (2000) Genes upregulated in the human trabecular meshwork in response to elevated intraocular pressure.Invest Ophthalmol Vis Sci 41:352–361 9. Pilarsky CP, Hinzmann B,Wissmann C, Krstiansen G, Schmitt A, Kaiser S, Rosenthal A (2000) Genome sequencing and biology. Cold Spring Harbor, p 197 10. Masters JRW, Lakhani SR (2000).Nature 404:921 11. Anderson NG, Matheson A, Anderson NL (2001) Proteomics.1:3–12 12. William KL (1999) Genomes and proteomes: towards a multidimensional view of biology. Electrophoresis 20:678–688 13. Grus FH, Augustin AJ, Evangelou NG,Toth-Sagi K (1998) Analysis of tear-protein patterns as a diagnostic tool for the detection of dry-eyes in diabetic and non-diabetic dry-eye patients. Eur J Ophthalmol 8:90–97 14. Grus FH, Augustin AJ (1999) Analysis of tear protein patterns by a neural network as a diagnostical tool for the detection of dry eyes. Electrophoresis 20:875–880 15. Grus FH, Augustin AJ (2000) Proteinanalytische Methoden bei der Diagnostik des SiccaSyndroms.Ophthalmologe 97:54–61 16. Grus FH, Augustin AJ (2001) High performance liquid chromatography analysis of tear protein patterns in diabetic and non-diabetic dry-eye patients.Eur J Ophthalmol 11:19–24 17. Herber S, Grus FH, Sabuncuo P, Augustin AJ (2001) Two-dimensional analysis of tear protein patterns of diabetic patients. Electrophoresis 22:1838–1844 18. Polansky JR, Fauss DJ, Chen P et al.(1997) Cellular pharmacology and molecular biology of the trabecular meshwork inducible glucocorticoid response gene product. Ophthalmologica 211:126–139 19. Kawase K, Steely HAT, Clark AF (1994) The effects of dexmethasone and tetrahydrocortisol on protein expression in cultured human trabecular meshwork cells.Invest Ophthalmol Vis Sci 35:1846 20. Steely HT, Clark AF (2000) The use of proteomics in ophthalmic research. Pharmacogenomics 1:267–280 21. Stelly HT, English-Wright SL, Clark AF (2000) The similarity of protein expression in trabecular meshwork and lamina cribrosa: implications for glaucoma.Exp Eye Res 70:17–30 22. Hebb DO (1949) The organisation of behaviour. Wiley, New York
23. Lashley KS (1950) In search of the engram. In: Society of Experimental Biology Symposium, No.4: Psychological mechanism in animal behaviour.Cambridge University Press, pp 454–480 24. Grus FH,Zimmermann CW (1997) Identification and classification of autoantibody repertoires (Western Blots) with a pattern recognition algorithm by an artificial neural network. Electrophoresis 18:1120–1125 25. Hinton G (1992) Wie neuronale Netze aus Erfahrung lernen.Spektrum der Wissenschaft 11:134–143 26. Brause R (1991) Neuronale Netze.Eine Einführung in die Neuroinformatik.Teubner, Stuttgart 27. Rumelhart DE, Hinton GE,Williams J (1986) Learning representations by back-propagating procedures.Nature 323:533–536 28. Grus FH, Augustin AJ,Toth-Sagi K, Koch F (1997) Detection and evaluation of IgG autoantibody repertoires against sceletal muscle antigens in Graeve´s disease using MegaBlot technique.Adv Therapy 14:8–13 29. Grus FH, Augustin AJ (2001) Allopurinol exerts an immunomodulating activity following topical and systemical application in experimental autoimmune uveitis.Eur J Ophthalmol 11:252–260 30. Zimmermann CW, Grus FH, Dux R (1995) Multivariate statistical comparison of autoantibody repertoires (Western-blots) by discriminant analysis.Electrophoresis 16:941–947 31. Avrameas S (1991).Natural autoantibodies: from „horror autotoxicus“ to „gnothi seauton“. Immunol Today 12:154–159 32. Grus FH, Augustin AJ,Toth-Sagi K (1998) Analysis of the IgG autoantibody repertoire in endocrine ophthalmopathy using MegaBlot technique.Current Eye Res 17:636–641 33. Grus FH, Augustin AJ,Toth-Sagi K (1998) Diagnostical classification of autoantibody repertoires in endocrine ophthalmopathy using an artificial neural network. Ocul Immunol Inflamm 6:43–50 34. Dziewas R, Kis B, Grus FH, Zimmermann CW (in press) Antibody pattern analysis as a helpful tool in pathophysiological research and clinical diagnosis of the Guillain-Barre syndrome.J Neuroimmunol 35. Wendtland JT, Grus FH, Augustin AJ, Hansen BH, Singer HS (in press) Striatal antibodies in children with Tourette Syndrome: multivariate discriminant analysis of IgG repertoires against neuronal and muscle epitopes.J Neuroimmunol
Der Ophthalmologe 12•2001
| 1137