Petra Kolip
Ein Modell zur systematischen Prozefleval _ tion gesundheitswissenschaftlicher Studiengiinge A M o d e l o f F o r m a t i v e E v a l u a t i o n in Public H e a l t h Training
Seit 1989 werden gesundheitswissenschaftliche Studiengi~nge in Deutschland angeboten. In Bielefeld wurde ein Modell zur systematischen Prozeflevaluation entwickelt, das sich an sozialwissenschaftlichen Evaluationskonzepten orientiert. Das Modell umfaflt sechs Schritte yon der Zielexplikation b is zur ErgebniskontroUe. Es wird mit Bezug auf gesundheitswissenschaftliche Studiengi~nge vorgestellt. Schliisselw6rter: Gesundheitswissenschaften, Public health, Ausbildung, Evaluation Public health training has been established in Germany since 1989. In Bielefeld we developed a model of systematic formative evaluation which is based on evaluation programs used in social sciences. It consists of six steps ranging from definition of goals to outcome control. The model is presented in reference to public health training in Germany. Keywords: public health, training, evaluation
1. Einleitung Seit 1989 werden in der Bundesrepublik Deutschland an verschiedenen Hochschulen gesundheitswissenschaftlicheZusatz- bzw. Erganzungsstudieng~nge eingerichtet. Derzeit bilden ftinf Universit/iten mit unterschiedlicher Schwerpunktsetzung Gesundheitswissenschaftler und Gesundheitswissenschaftlerinnen aus: die Technische Universit/it Berlin, die Universit/aten Bielefeld, Dtisseldorf und Mtinchen sowie die Medizinische Hochschule Hannover [1]. Jene Studieng/~nge, die als Modellversuche v o n d e r BundL~inder-Kommission for Bildungsplanung und Forschungsf6rderung (Berlin, Mtinchen und Hannover) oder von anderen 6ffentlichen Geldgebern for eine bestimmte Zeit gef6rdert werden, sind zu einer summativen Evaluation, zu einer abschlieBenden Bewertung des Studienganges, angehalten. Sie ist die Grundlage for eine Entscheidung tiber die Weiterftihrung der Studieng/inge in finanzieller Tr/~gerschaft der jeweiligen Hochschule. Da bislang keine Erfahrungen mit postgradualen Public-health-Studieng/angen in Deutschland vorliegen, ftihlen sich die einzelnen Studieng~inge zu einer formativen ProzeBevaluation verpflichtet, die eine st~indige Verbesserung des Studiengangsgeschehenszum Ziel hat. Die Evaluationsbemtihungen gliedern sich ein in die aktuelle hochschulpolitische Debatte um die Verbesserung der Qualitat der Lehre. Diese Diskussion beleuchtet jedoch lediglich einen kleinen Ausschnitt potentieller Evaluationsbereiche in gesundheitswissenschaftlichen Studieng~ingen, kann aber insofern nutzbar gemacht Z. f. Gesundheitswiss., 2. Jg. 1994, H. 3
245
werden, als im Rahmen der Qualit~itssicherung Ressourcen bereitgestellt werden, auf die u. U. zuriickgegriffen werden kann. So werden in einigen Hochschulen studentische Lehrveranstaltungsbewertungen durchgefilhrt [2, 3, 4], und das nordrhein-westf~ilische Wissenschaftsministerium hat gar ein ,,Aktionsprogramm zur Qualit~it der Lehre" initiiert [5]). An welchen Punkten eine Verkniipfung zwischen Studiengangsevaluation und Lehrveranstaltungskritik im Rahmen solcher Aktionsprogramme hergestellt werden kann, wird weiter unten auszuffihren sein. Das Ministerium ftir Arbeit, Gesundheit und Soziales des Landes Nordrhein-Westfalen finanzierte zur Unterst0tzung des Bielefelder Studienganges eine wissenschaftliche Personalstelle, die - neben anderen Aufgaben ftir die Evaluation des Studienganges zust~indig war. In diesem Rahmen wurde seit 1989 das Studiengangsgeschehen evaluiert. Die Ergebnisse sind dokumentiert und der interessierten Fach6ffentlichkeit zug~inglich [6]. Im Bielefelder Studiengang wurde in jtingster Zeit zudem ein Modell entwikkelt, das mOgliche Evaluationsans~itze systematisiert. Es ist in seiner Systematik auch auf andere gesundheitswissenschaftliche Studieng~inge iabertragbar und wird aus diesem Grunde hier vorgestellt. Das Modell orientiert sich an klassischen Evaluationskonzepten, wie sie in der anwendungsorientierten sozialwissenschaftlichen Forschung entwickelt wurden [7, 8]. Diese werden auf ein spezielles Anwendungsfeld- Evaluation von Public-healthStudieng~ingen - bezogen. Das folgende Evaluationsmodell zeigt auf, welche Evaluationsbereiche und -schritte voneinander zu unterscheiden sind, und an welchen Punkten welches Instrumentarium zur Anwendung kommen kann. Das Modell soil helfen, die in den einzelnen Studieng~ingen vorhandenen EvaluationsbemUhungen einzuordnen und Liicken zu erkenhen. Dabei ist zu beriacksichtigen, da6 sich die einzelnen Studieng~inge in je unterschiedlichen Stadien befinden: W~ihrend z. B. Bielefeld bereits sechs Jahrggnge zum Studium zugelassen hat und einige Absolventinnen und Absolventen bereits im Beruf sind, stehen Berlin und Mtinchen gerade am Anfang der Ausbildung. Dementsprechend shad die aktuellen Probleme andere und die einzelnen Evaluationsbereiche sind fiJr die jeweiligen Studieng~inge von unterschiedlicher Relevanz. In der einschl~igigen Literatur werden verschiedene Evaluationsphasen und -formen (interne vs. externe Evaluation, formative vs. summative Evaluation) unterschieden, worauf an dieser Stelle nicht n~her eingegangen wird. FOr das Evaluationsmodell wurden folgende Spezifizierungen vorgenommen: 1. Das Modell kann zu einem Zeitpunkt eingesetzt werden, an dem bereits eine Entscheidung dariiber gefallen ist, ob eine Evaluation stattfinden soil. Die Phase des ,,Evaluability Assessment", in der die Evaluierbarkeit des Studienganges abgekl~irt und Ziele der Evaluation festgelegt werden, wird in dem Modell nicht ber~icksichtigt (dies entbindet jedoch nicht davon, die Ziele des Studienganges zu explizieren, vgl. Abschnitt 2.1). 2. Das Modell bietet Ansatzpunkte fiat eine formative Evaluation. Es wird hier davon ausgegangen, dab die gesundheitswissenschaftlichen Studien246
z . f . Gesundheitswiss., 2. Jg. 1994, H. 3
g~inge an einer fortlaufenden Verbesserung des Studiengangsgeschehens interessiert sind. Die formative Evaluation kann eine summative - so sie denn angestrebt wird oder erforderlich ist - nicht ersetzen, wohl aber vorbereiten [9, 10]. Formative Evaluation kann so als ein Steuerungsinstrument verstanden werden, das die Zwischenergebnisse der Evaluation mit dem Zweck der Optimierung st~ndig Nckkoppelt. Sie nimmt damit vor allem eine institutionsberatende, weniger eine politikberatende Funktion wahr [9]. 3. Das Modell bezieht sich auf eine interne Evaluation. Die Ziel- und Indikatorendefinition sowie Datenerhebung und -auswertung erfolgt durch Mitarbeiterinnen und Mitarbeiter im Studiengang. M6glichkeiten der Aufgabendelegation sollten berticksichtigt werden. Das Modell folgt damit einem pragmatischen Ansatz. Diese Spezifizierung erfolgt auf dem Hintergrund, dab kaum einer der Studieng~inge tiber ausreichende fmanzielle Ressourcen verftigt, um eine externe Evaluation vornehmen zu lassen. Dem mitunter ge~ugerten Einwand, eine interne Evaluation sei mit zu vielen blinden Flecken und Wtinschen nach positiven Ergebnissen behaftet [11], kann an dieser Stelle nur entgegnet werden, dal3 eine wohlgeplante und systematische interne Evaluation oftmals die einzig mach- und finanzierbare ist. Die Alternative ist: keine Evaluation. Zudem mug auch bedacht werden, dag bei einer internen Evaluation mit einem Validit~itsgewinn gerechnet werden kann. Wir stimmen aber zu, dab gerade bei einer internen Evaluation darauf zu achten ist, dab die Rollen klar definiert und Aufgaben eindeutig verteilt sind.
2. Das Ablaufschema Dem EvaluationsmodeU liegt in Anlehnung an Wottawa und Thierau [12] der in Abbildung 1 dargestellte Handlungsablauf zugrunde. Im folgenden wird ausftihrlich auf die ersten beiden Schritte des Ablaufschemas (Zielexplikation und Vergleich Ist-Soll-Lage) eingegangen, da hier fiir alle Studieng~inge vermutlich ein ~ihnlicher Bedarf besteht. Die aus dem Ist-SollVergleich abzuleitenden Handlungsalternativen hingegen mtissen sehr spezifisch ausfallen, so dab auf die dem Ist-Soll-Vergleich folgenden Schritte nur exemplarisch eingegangen werden kann.
2.1 Zielexplikation Die Explikation der Ziele des Studienganges ist einer der wichtigsten Schritte im Evaluationsprozel3, da die Ergebnisse der Evaluation immer mit Bezug auf die Ziele bewertet werden. Zu Recht wird in der einschl~igigen Literatur darauf hingewiesen, dal3 das Festlegen der Ziele einer der heikelsten Punkte ist, da viele Ziele implizit und damit schlecht kommunizierbar sind oder im Projekt unterschiedliche Zielvorstellungen existieren k~nnen. Eine sorgfNtige Zielexplikation birgt aber die Chance, Studiengangsziele zu reflektieren und festzulegen. Unserer Erfahrung nach ist das Studiengangsgeschehen von st~indigen Ver~inderungen begleitet, in deren Gefolge sich vorher nicht festgelegte Prinzipien manifestieren. Die Zielexplikation gibt Z. f. Gesundheitswiss., 2. Jg. 1994, H. 3
247
Abbildung 1" Ablaufschema zur Evaluation gesundheitswissenschaftlicher Studieng~inge
l
!i + iZIELE~PU!KATIO~ i i iii ~ [ ~ ' iii !fill i i ii ;ii !!ii; i l "" :
I
" il i.!veigleich
'
! ......... i [
!
Diskrepanz
keine Diskrepanz
[i S~-:;/mmlOn~ ~i-i"tei~ .[ i~en~i~ns~a~ni~hmen il I
1" :~ikei" welteres i! ::....~1 I ii V-~ in6ti~ I
$
$
;
......Bestim~,oOg
.......
il!i iii:qon Indikat0ren ii~i~iili ~i:
!i i luo"Slaui"!ii!i~ ] 'i: E~e~nisk~n~roli~ und :~i !,
t
die M0glichkeit, solche ,,heimlichen" Ziele und Prinzipien offenzulegen und zu benennen. Allgemeine Qualifizierungsziele gesundheitswissenschaftlicher Studieng/ange wurden bereits an anderer Stelle ausfiihrlich dargestellt [1]. Fast alle bundesdeutschen Public-health-Studieng~inge formulieren Praxisn~ihe und Interdisziplinarit~it als tibergeordnete Studienziele. Ftir die Evaluation miissen diese globalen Ziele spezifiziert, pr~izisiert und operationalisiert werden. Trotz auf den ersten Blick identischen Globalzielen ist zu erwarten, 248
z.f. Gesundheitswiss., 2. Jg. 1994, H. 3
dab bei der Spezifizierung bereits deutliche Unterschiede zwischen den Studieng~ingen zutage treten. Bei der inhaltlichen Ausgestaltung orientieren sich fast alle Studieng~nge an nationalen und internationalen Standards, wie sie z. B. yon der ,,Deutschen Arbeitsgemeinschaft far Aufbaustudieng~inge Offentliche Gesundheit/Gesundheitswissenschaflen (Public Health)" [13] als Minimalkonsens verabschiedet wurden. Die inhaltlichen Standards gilt es in dieser Phase zu benennen und festzulegen. Methodisch bietet sich zur Explikation der Ziele eine Dokumentenanalyse an (Auswertung vorhandener Unterlagen, z. B. Planungspapiere, Verwaltungsvorlagen, Curricula, Studien- und Priifungsordnungen), die durch Interviews mit Studiengangsmitarbeiterinnen und -mitarbeitern erg~inzt wird. Sollten dabei nicht miteinander vereinbare Teilziele aufscheinen, gilt es, diese zu dokumentieren. Hauptfragen, die in dieser Phase beantwortet werden soUen, sind z. B.: Welches sind, neben Interdisziplinarit~it und Praxisnahe, die Hauptziele des Studienganges? Wie lassen sich die Hauptziele spezifizieren? Mit welchen - auch didaktischen - Mitteln sollen diese Ziele vermittelt werden? Woffir soil der Studiengang qualifizieren? Welches sind die Qualifikationen, die die Studierenden zus~itzlich zum Erststudium erwerben sollen? Welches ist die ,,Philosophie" des Studienganges? Welche Strukturver~nderungen wurden angestrebt (in der Fakultat/der Universit~it/der bildungs(politischen) Landschaft)?
2.2 Vergleich Ist-Soll-Lage In einem zweiten Schritt mul3 in einem Vergleich der Ist- mit der Soll-Lage eine Bestandsaufnahme erfolgen. An diesem Punkt werden Diskrepanzen aufgedeckt, fi~r die anschliel3end Mal3nahmen entwickelt, erprobt und (iberpriift werden. Bezogen auf gesundheitswissenschaftliche Studieng~nge lassen sich vier Evaluationsbereiche voneinander unterscheiden (vgl. Abb. 2): Inhalte und Organisation des Studienganges, Passungsgef[ige zwischen Angebot und Nachfrage dutch Studieninteressierte sowie Arbeitsmarkt. Diese Trennung ist eine analytische, sicherlich beeinflussen sich die einzelnen Bereiche gegenseitig. Die Differenzierung in verschiedene Evaluationsbereiche erm6glicht aber zun~ichst einmal eine spezifischere Analyse. Inhalte des Studienganges Bei der Bewertung der Studiengangsinhalte ist eine Analyse des Gesamtcurriculums zu trennen yon einer Bewertung einzelner Lehrveranstaltungen. Ziel der Analyse des Gesamtcurriculums ist es zum einen, Lticken und Uberschneidungen aufzudecken und zum anderen, einen Abgleich mit den definierten Standards vorzunehmen. Notwendige Voraussetzung ist - neben definierten Standards, vgl. 2.1 - d a s Vorhandensein m/3glichst ausftihrlicher Fachcurricula, die neben einem gegliederten Themenkatalog auch Lernziele beinhalten sollten. Die Fachcurricula werden mit den definierten inhaltlichen Standards abgeglichen; Lticken und r0berschneidungen im Gesamtcurriculum sind dabei zu benennen und festzuhalten. Fiir diese Aufgabe haben einige der Studieng~inge einen Fachbeirat einberufen, sie kann aber auch durch ausgewiesene Einzelpersonen ausgefiihrt werden. Z. f. Gesundheitswiss., 2. Jg. 1994, H. 3
249
A b b i l d u n g 2: (3bersicht tiber Evaluationsbereiche und A n a l y s e m e t h o d e n zum Vergleich der lst-Soll-Lage
c4)
r-
4) 4)
.
4)~
4)
r-
4)~
_j
4) ":" 4)
4)
9~.
4)
-o r
*~_
in 4)
4)
4)
"~.
~-,._
.4)
in
em
0
~ 4 ) " In ~0
o
0
~
r ._
0
4)
n~
in
o
=.
o ~-
o >
c
4) ~ e.. -e-
4)
r-
r4)
4)
4)11
~ e-
4)
in:4) ~ - ~ --> 3 . ~ ,-
.~ > ~ 5 i ~
4)
in
In ~ _ . ~
ec3~E
~'i
c
4)
r4)
r-
,5~
I:0 (ZI
e4) ec
"4)
o_
I" r4)
t) c
4)
r
O'o
o r"
c r-
-~
(~
c~
E
o
r
-~ 4)
4)
~_~
> r
r
c 4)
E~ 4)
B4)
<;3
o
N
g r-
g
r-
r-
E
,< r-
cr
r4)
"E e.o
r-
._o
4)
-o
> r 4)
r
o
250
4) rt
~
(,r
z . f . Gesundheitswiss., 2..lg. 1994, H. 3
Die Analyse der einzelnen Lehrveranstaltungen verfolgt das Ziel, die inhaltliche und didaktische Gtite zu 0berprtifen. Hier sind verschiedene methodische Zug~inge denkbar. Es lassen sich sowohl Sitzungsanalysen (Besuch der Lehrveranstaltung durch Kolleginnen und Kollegen, Studiengangskoordinatorinnen oder Professionelle, s. u.) sowie Befragungen der Lehrenden und Studierenden (standardisierte Frageb/3gen, Gruppen- und Einzelgesprache) durchftihren. Die Auswertung sollte immer unter ROckgrill auf die Lernziele erfolgen. Die Hauptfragen sind dabei u. a.: Welches sind die Lernziele tier Veranstaltung? Was sollen die Studierenden nach der Veranstaltung wissen oder k/Snnen? Welche Schltisselqualifikationen sollen in der Lehrveranstaltung vermittelt werden? Sind die gew~ihlten didaktischen Mittel zur Vermittlung der Lernziele geeignet? Werden die angestrebten Lernziele erreicht? Ftir die Bearbeitung dieses Bereiches 1/il3tsich u. U. auf Ressourcen zur0ckgreifen, die die einzelnen Hochschulen oder Landesministerien bereitstellen. So wird z. B. sowohl in Bielefeld wie auch an der Technischen Universit,it Berlin unter Federftihrung des Interdisziplin~iren Hochschuldidaktischen Zentrums (Bielefeld) bzw. einer zentralen Evaluationsstelle (Berlin) eine fl~ichendeckende Befragung zur Bewertung der Lehrveranstaltungen professionell durchgeftihrt. Auf diese Befragung kann zurtickgegriffen werden, um die eigenen Lehrveranstaltungen zu bewerten. Ein Kontakt zu den regionalen Hochschuldidaktischen Zentren lohnt sich auch, wenn Sitzungsanalysen durchgeftihrt werden sollen. Oftmals bieten die Hochschuldidaktischen Zentren als Service eine Supervision yon Lehrveranstaltungen an, an die sich eine didaktische Weiterbildung anschliel3en kann. Organisation des Studienganges Ein zweiter Evaluationsbereich konzentriert sich auf die Optimierung der Studiengangsorganisation. Hier sind die organisatorischen Prinzipien zu benennen; zugleich ist die Frage zu beantworten, ob sich diese Prinzipien bew~ihrt haben. Hierzu empfiehlt sich ein Rtickgriff auf die allgemeinen Ziele und Prinzipien des Studienganges. Die leitende Frage sollte sein, ob die organisatorischen Prinzipien der Erreichung der allgemeinen Studienziele dienen oder diese eher verhindern. So kann z. B. ein allgemeines Prinzip lauten: Das Studium soil berufsbegleitend studierbar sein. Diesem Ziel m0ssen bestimmte Strukturen folgen, z. B. Beginn der Lehrveranstaltungen nach 18 Uhr, lange t)ffnungszeiten der Bibliothek, grol3ziigige Anerkennung von Studienleistungen aus dem Erststudium, um nur einige zu nennen. Folgende Bereiche sollten einer kritischen Betrachtung unterzogen werden: Zulassungsverfahren, Studiendauer, Veranstaltungsstruktur (Semester- vs. Blockstruktur), Betreuung der Studierenden und Studieninteressierten, Anbahnung yon Praxisprojekten, Bibliotheksstrukturen (Offnungszeiten, Ausleihbedingungen, Sammelschwerpunkte, Zug~inglichkeit von gesundheitswissenschaftlicher Literatur), Informations- und Kommunikationsstrukturen, Gesundheitsf6rderlichkeit der Lern- und Lehrbedingungen. Methodisch kann auf die Analyse vorhandener Papiere, auf (teilnehmende) Beobachtung und auf Gespr~iche mit Koordinatoren, Lehrenden und Studierenden zurOckgegriffen werden. Z. f. Gesundheitswiss., 2. Jg. 1994, H. 3
251
PassungsgefOge zwischen Angebot und Nachfrage durch Studieninteressierte Studierende gesundheitswissenschaftlicher Studieng~inge investieren ein hohes Ausmal3 an materiellen und immateriellen Ressourcen, um einen gesundheitswissenschaftlichen Abschluf5 zu erlangen. Viele waren vor Aufnahme des Studiums berufst~itig, mit der studienbedingten ArbeitszeitverkOrzung sind finanzielle Einbul3en verbunden. Zudem ist die zeitliche Belastung enorm: neben dem Besuch der Lehrveranstaltungen fallen Zeiten for Anfahrtswege, Vor- und Nachbereitung der Lehrveranstaltungen, Priifungsvorbereitung an, die mit (Teil-)Berufst~itigkeit, Familie und Freizeit vereinbart werden miissen. Die Studierenden erwarten, dab die Inhalte und Organisation auf ihre Bedtirfnisse abgestimmt sind oder diese zumindest berticksichtigt werden. Um dies zu gewfihrleisten, mOssen Erwartungen und Motive der Studierenden erfal3t werden. Hauptfragen sind hier: Wie setzen sich die Studierenden zusammen (Alter, Geschlecht, Erststudium, Berufst~itigkeit, Wohnort, Familienstand, Kinder)? Was erwarten sich die Studierenden vom Studium? Mit welchen Motiven studieren sie? Welche zentralen Probleme stellen sich for die Studierenden mit der Aufnahme des Studiums? Neben einer statistischen Auswertung der sozialen und biographischen Merkmale, die erste grobe Schltisse zul~il3t, und einer Studienverlaufsanalyse wird empfohlen, die Studienmotive und -erwartungen und zu einem sp/iteren Zeitpunkt - die Zufriedenheit mit Studieninhalten und -organisation mittels eines standardisierten Fragebogens zu erfassen. Die schriftliche Befragung kann sowohl durch Diskussionen und Gesprache (einzeln und in Gruppen) wie auch durch eine Analyse der Bewerbungsschreiben (so diese aussagekr~iftig sind) erg~inzt werden. Interessant ist sicherlich auch eine Studienabbrecherbefragung. Gerade bei diesem Personenkreis ist davon auszugehen, dab der Studiengang nicht den Erwartungen entsprochen hat bzw. unvorhergesehene Schwierigkeiten aufgetreten sind. Die Erfassung der Grtinde und Motive for den Studienabbruch k6nnen wichtige Hinweise zur Verbesserung des Studienganges liefern.
-
Arbeitsmarkt Bislang ist der Arbeitsmarkt noch nicht ausreichend auf Absolventinnen und Absolventen gesundheitswissenschaftlicher Studieng~inge vorbereitet. Das Berufsfeld ist sehr diffus, und es lassen sich kaum allgemeine Qualifikationsziele mit dem Blick auf den Arbeitsmarkt formulieren [14]. Bislang hat lediglich eine iiberschaubare Anzahl von Studierenden das Studium erfolgreich abgeschlossen, so dab keine verbindlichen Aussagen tiber die Schnittstelle Studium/Beruf gemacht werden k/3nnen. Dennoch sollte es zu gegebener Zeit das Ziel sein, die Vermittlungschancen zu optimieren. Dazu sind sowohl Berufseinmtindungsuntersuchungen (Befragung der Absolventinnen und Absolventen, m/Sglichst im L~ingsschnitt) wie auch die Befragung (potentieller) Arbeitgeber n6tig. Leitende Fragen k6nnen sein: In welchen Institutionen werden Absolventinnen und Absolventen gesundheitswissenschaftlicher Studien.g~inge eingestellt? Mit welchen Aufgabenbereichen? Wie hoch ist die Uberg~ingerquote Studium/Beruf? Welche Erwartungen haben Arbeitgeber an die Absolventinnen und Absolventen eines gesundheitswissenschaftlichen Studienganges? 252
z . f . Gesundheitswiss., 2. Jg. 1994, H. 3
2.3 Sammlung yon Interventionsmaflnahmen Wenn beim Vergleich der Ist- mit der Soll-Lage keine Diskrepanzen auftreten, ist kein weiteres Vorgehen n6tig. Wenn jedoch die Bestandsaufnahme M~ingel und Liacken aufdeckt, k6nnen Interventionsmal3nahmen entwickelt werden. Zur Behebung eines jeden Defizits sind i. d. R. verschiedene Handlungsalternativen denkbar. In dieser Phase ist es das Ziel, m~Sglichst viele Interventionsm6glichkeiten zu sammeln. Eine Bewertung erfolgt erst in der n~ichsten Phase [12]. Ein Beispiel mag diesen Evaluationsschritt verdeutlichen: Im Rahmen einer standardisierten Befragung der Studierenden des Studienganges in XYStadt wurde bem~ingelt, dab ein Zusammenhang zwischen den einzelnen Lehrveranstaltungen nicht immer erkennbar sei. Ziel der Studiengangsplanerinnen und -planer war es aber, einen Studiengang mit abgestimmten Curricula anzubieten. Folgende Interventionsm6glichkeiten sind denkbar (ohne Anspruch auf Vollst~indigkeit): - Erarbeitung eines Rahmencurriculums durch Studiengangsplaner oder Experten, an das sich alle Lehrenden halten m~issen; Erstellung eines Gesamtcurriculums aus den Fachcurricula, die die einzelnen Lehrenden erstellen; Verteilen des Gesamtcurriculums an alle Lehrenden; alle Lehrveranstaltungen werden nur von einer Person abgehalten; die Lehrveranstaltungen werden von einem kleinen Kreis abgestimmter Personen abgehalten; Einftihrung eines Koordinatorenkonzepts: wenige Personen tibernehmen die Verantwortung ft~r die inhaltliche und personale Ausgestaltung der Lehrveranstaltungen; - Durchftihrung von regelm~gigen Abstimmungsgesprfichen zwischen allen Lehrenden bzw. Koordinatoren; - Erstellung einer umfangreichen Literaturliste, Aneignung der Studieninhalte im Selbststudium;
-
-
-
2.4 Bewertung und Auswahl von Handlungsalternativen Erst in dieser Phase erfolgt eine Bewertung und Auswahl der Handlungsalternativen. Bei der Bewertung wird auf die definierten Ziele zuriickgegriffen, denn nicht jede Mal3nahme ist mit den Zielen vereinbar. Eine Bewertung effolgt auch unter Kosten-/Nutzen- und Effmienzgesichtspunkten. Zugleich kann eine Nebenfolgenabsch~tzung vorgenommen werden. Wie das Beispiel in 2.3 verdeutlicht, greifen einige MaBnahrnen ineinander. H~iufig ist ein Katalog von Interventionsmagnahmen denkbar (z. B. Einfiahrung von Koordinatoren- Erstellung von Fachcurricula dutch Koordinatoten - Abstimmungsgesprache der Koordinatoren).
2.5 Bestimmung von Indikatoren und Handlungsausfiihrung Sind die Handlungsalternativen ausgew~ihlt, werden vor Durchftthrung der Mal3nahme Indikatoren festgelegt, anhand deter der Erfolg oder Mil3erfolg Z. f. Gesundheitswiss., 2. Jg. 1994, H. 3
253
der Mal3nahme festgestellt werden kann. Indikatoren sind Hinweise zur Zielerreichung und mtissen in irgendeiner Form meBbar sein [10]. Daftir k~Snnen sowohl qualitative wie quantitative Datenerhebungsmethoden sinnvoll sein, je nach personeller und finanzieller Ausstattung empfiehlt sich bei einigen Magnahmen ein multimodales Vorgehen [15]. Im obigen Beispiel k/Snnte z. B. die H~iufigkeit der Nennung einer fehlenden Abstimmung im Rahmen der Studierendenbefragung als Indikator dienen. Wenn Indikatoren bestimmt sind, wird ebenfalls festgelegt, wann die Ergebniskontrolle erfolgen soll. Bei einigen Mat3nahmen ist mit einem kurzfristigen Effekt zu rechnen, andere enffalten ihre Wirkung erst mittel- oder langfristig. Sobald die Indikatoren festgelegt sind, kann die Mal3nahme durchgefahrt werden.
2.6. Ergebniskontrolle und Ergebnisbewertung In einem letzten Schritt werden die Ergebnisse kontrolliert und mit Bezug auf die Ziele bewertet. Der Ergebnisbewertung geht selbstverstandlich die Datenerhebung voraus. Mit Hilfe der vorher definierten Indikatoren werden die Ergebnisse kontrolliert. An dieser Stelle kann nicht auf die verschiedenen Designs der Evaluationsforschung eingegangen werden; hier sei auf die einschl~igige Literatur verwiesen [16, 17]. Im vorliegenden Zusammenhang wird sich die Evaluationsforschung mit einem einfachen PretestPosttest-Design zufriedengeben mtissen. Bei l~ingerer Laufzeit der Studieng~inge lassen sich auch Zeitreihenanalysen durchftihren (z. B. Ver~inderung der Zufriedenheit der Studierenden). Unter den vorliegenden Bedingungen mtissen methodische Abstriche in Kauf genommen werden, Idealvorstellungen beziaglich des Designs lassen sich nut schwer durchsetzen. Da der Sinn der Evaluation von Studieng~ingen in ihrer st~indigen Verbesserung liegt, sei noch einmal auf die Notwendigkeit des Feedbacks hingewiesen. Evaluation ist kein Selbstzweck. Nicht nur miassen die Ergebnisse mit Bezug auf die Ziele bewertet werden, auch sollten die Evaluationsergebnisse regelm~if3ig allen Beteiligten zurfickgemeldet werden. Es empfiehlt sich, hierzu ein Berichtssystem einzuftihren.
3. Ausblick Evaluation ist derzeit in Mode. Kaum ein Projekt kann es sich leisten, bei der Antragstellung nicht darauf zu verweisen, dab wissenschaftliche Begleitforschung- in welcher Form auch i m m e r - geplant ist. Dennoch ist Evaluation ein ,,ungeliebtes Kind". Nicht nur, well sie zeit- und personalintensiv ist und die meist knappen Ressourcen einschr~inkt, sondern auch, well Evaluation bedeutet, das eigene Projekt einer kritischen B egutachtung zu unterziehen. Die derzeit laufenden Studieng~inge wurden mit viel pers~nlichem Engagement aufgebaut; Evaluation heiBt auch, dab trotz dieser pers(Snlichen Anstrengungen einiges besser gemacht werden kann. Nichtsdestotrotz halten wir eine systematische Evaluation fur sinnvoll und notwendig, auch wenn die Geldgeber diese nicht einfordern. Das vorgestellte Modell ist als ein Vorschlag zu verstehen, wie mit den vorhandenen Ressourcen mi3glichst effektiv eine systematische Evaluation 254
z . f . Gesundheitswiss., 2. Jg. 1994, H. 3
durchgefiihrt werden kann. D a b e i m0ssen die Ressourcen sinnvoll und kr~iftesparend verteilt werden, da die G e f a h r der Uberlastung besteht. D a s Modell zeigt Ansatzpunkte for die Evaluation auf und legt einen systematischen A b l a u f des Evaluationsgeschehens nahe. Einschr~inkungen lassen sich auf diesem Hintergrund i m m e r vornehmen. Derzeit werden die Evaluationsbemtihungen der einzelnen Studieng~nge nur ungern den anderen offenbart. Z u grog ist offenbar die Sorge, die anderen k6nnten sich etwas abgucken o d e r - schlimmer noch! - d e r eigene Studiengang schneide im Vergleich schlecht ab. Diese Angst scheint uns unbegr~indet. Z w a r gibt es eine gewisse Konkurrenz, aber derzeit zeichnet sich ab, dag sich die Studieng~inge spezialisieren und Schwerpunkte anbieten werden. Eine vergleichende Evaluation, die diesem U m s t a n d Rechnung tr~igt, k6nnte durchaus ein lohnendes Ziel sein.
Literatur [1] Schott T, Kolip P. Qualifizierungsanforderungen der Public-health-Studieng~nge an deutschen Universit~ten. In: Sch~ffer D, M~rs M, Rosenbrock R, eds. Public Health und Pflege. Zwei neue gesundheitswissenschaftliche Disziplinen. Berlin: edition sigma. 1994:203 - 225. [2] HIS-Hochschul-Informationssystem.HIS-Dokumentation Evaluation der Lehre. Aktuelle Aktivit~ten an deutschen Hochschulen. Hannover. 1992. [3] Holtkamp R, Schnitzer K, eds. Evaluation des Lehrens und Lemens. Ans~itze, Methoden, Instrumente. Evaluationspraxis in den USA, GB und NL. Dokumentation einer HIS-Tagung. Hannover: Hochschulinformationssystem. 1992. [4] PreiBer R. Die Qualit~it der Lehre. Ergebnisse einer Befragung an der Technischen Universit~t Berlin. Beitr~ige zur Hochschulforschung. 1991; Heft 4:401 429. [5] Ministerium ftir Wissenschaft und Forschung NRW. Aktionsprogramm Qualit fit der Lehre. AbschluBbericht. Diisseldoff. 1991. [6] Schnabel PE. Drei Jahre Zusatzstudiengang ,,Gesundheitswissenschaften und Offentliche GesundheitsffSrderung (Public Health)" in Bielefeld. Forum Gesundheitswissenschaften 1991; 2:95 - 118. [7] Koch U, Wittmann WW, eds. Evaluationsforschung. Bewertungsgrundlage von Sozial- und Gesundheitsprogrammen. Berlin: Springer. 1990. [8] Rossi PH, Freeman HE, Hofmann G. Programm-Evaluation. Einffihrung in die Methoden angewandter Sozialforschung. Stuttgart: Enke. 1988. [9] Hfiul31erM, St613elU, vonTroschke J, Walterspiel G, Wetterer A. Konzepte und Erkenntnisinteressen der wissenschaftlichen Begleitforschung von Modelleinrichtungen. In: Dietzel G, von Troschke J, eds. Begleitforschung bei staatlich gef6rderten Modellprojekten- strukturelle und methodische Probleme. Schriftenreihe des Bundesministers far Jugend, Familie, Frauen und Gesundheit. Band 216. Stuttgart: Kohlhammer. 1988:31 - 105. [10] Nestmann F, Tiedt F. EVAPLAN. Eine Anleitung zur strukturierten Evaluation psychosozialer Modellprojekte. Archiv fiir Wissenschaft und Praxis der sozialen Arbeit. 1990; 4:241 - 261. [11] von Troschke J. Begleitforschung im Spannungsfeld unterschiedlicher Interessen. In: Dietzel G, von Troschke J, eds. Begleifforschung bei staatlich gef6rderten Modellprojekten- strukturelle und methodische Probleme. Schriffenreihe des Bundesministers far Jugend, Familie, Frauen und Gesundheit. Band 216. Stuttgart: Kohlhammer. 1988: 126- 136. Z. f. Gesundheitswiss., 2. Jg. 1994, H. 3
255
[12] Wottawa H, Thierau H. Evaluation. Bern: Hans Huber. 1990. [13] Deutsche Arbeitsgemeinschaft ftir Aufbaustudieng/inge Offentliche Gesundheit/Gesundheitswissenschaften (Public Health). Entschliegung der bundesdeutschen Hochschulinitiativen zur Grtindung von ,,Public-Health"-Aufbaustudieng/ingen. In: Schwartz FW, Badura B. Public Health: Ans/itze zu Aufbaustudiengangen in Deutschland - Erfahrungen aus dem Ausland. Gerlingen: Bleicher. 1991. [14] R~ibiger J, Thrnnessen J, Kolip P. Gesundheitswissenschaftler- ein Beruf mit vielen Facetten. Zeitschrift ftir Gesundheitswissenschaften 1993; 1:85 - 89. [15] Cook TD, Reichardt CS, eds. Qualitative and quantitative methods in evaluation research. London: Sage. 1979. [16] Campbell DT. Reforms as experiments. American Psychologist 1969; 24: 409 - 429. [17] Cook TD, Campbell DT. Quasi-experimentation: design and analysis issues for field settings. Boston: Houghton Mifflin. 1979. Dr. Petra Kolip, Universit/at Bielefeld, Fakult/at ftir Gesundheitswissenschaften, Postfach 10 01 31, 33501 Bielefetd
256
z.f. Gesundheitswiss., 2. Jg. 1994, H. 3