Open Access Repository for Measurement Instruments

AkkordeonDetailedScaleViews

Münsteraner Fragebogen zur Evaluation - Zusatzmodul Diskussion (MFE-ZDi)

  • Author: Thielsch, M. T. & Stegemöller, I.
  • In ZIS since: 2010
  • DOI: https://doi.org/10.6102/zis98
  • Abstract:
  • Language Documentation: deutsch
  • Language Items: German
  • Number of Items: 8
  • Reliability: Cronbachs Alpha = .79
  • Validity: Hinweis auf die konvergente und divergente Validität
  • Construct: Lehrevaluation
  • Catchwords: Lehre, Diskussion, Evaluation | teaching, discussion, evaluation
  • Item(s) used in Representative Survey: nein
  • URL Website: http://www.uni-muenster.de/PsyEval
  • Status of Development: validiert
    • Instruktion

      Die hier dokumentierte Itembatterie zur Bewertung von Diskussionen ist ein Zusatzmodul des "Münsteraner Fragebogen zur Evaluation"  (MFE) und wird ohne eigene Instruktion präsentiert. Allgemeine Informationen zur Befragung erfolgen beim erstmaligen Zugriff auf das System (Verwendung der Daten, technische Voraussetzungen, u. ä.). Dabei werden auch demografische Merkmale der Teilnehmer erfragt. Üblicherweise wird die Itembatterie als Zusatzmodul direkt nach der Darbietung der Basismodule zur Evaluation von Seminaren (MFE-Sr) und Vorlesungen (MFE-Vr) vorgegeben.

       

      Items

      Nr.

      Items zu Diskussion

      1

      Es fanden ausreichend Diskussionen statt.

      2

      Ich konnte mich in die Diskussionen sinnvoll einbringen.

      3

      In den Diskussionen wurde mein Verständnis der Inhalte vertieft.

      4

      Der/Die Lehrende konnte inhaltliche Unklarheiten in Diskussionen beseitigen.

      5

      Der/Die Lehrende lenkte die Diskussion erfolgreich.

      6

      In den Diskussionen habe ich gelernt, meinen Standpunkt zu verteidigen.

      7

      Die Diskussionen in der Veranstaltung waren produktiv.

      8

      Die Diskussionen regten zur kritischen Auseinandersetzung mit dem Thema an.

       

      Antwortvorgaben

      7-stufiges Antwortformat mit den Optionen 1 = "stimme gar nicht zu", 2 = "stimme nicht zu", 3 = "stimme eher nicht zu", 4 = "neutral", 5 = "stimme eher zu", 6 = "stimme zu" und 7 = "stimme vollkommen zu". Zusätzlich steht die Antwortoption "nicht sinnvoll beantwortbar" zur Verfügung.

       

      Auswertungshinweise

      Angesichts der Eindimensionalität der Items dieses Zusatzmoduls können die Antwortwerte aufsummiert oder gemittelt werden.

       

    Die Evaluation der Lehre ist ein wichtiges Instrument zur Qualitätssicherung an Hochschulen. Nach Rindermann (1996) kann sie in verschiedenen Bereichen Verbesserungen initiieren: So kann sie die Lehrqualifikation der Lehrenden verbessern, Stärken und Schwächen auf Veranstaltungs-, Fach-, oder Universitätsebene aufdecken, Diskussionen zwischen Lehrenden und Studierenden unterstützen, die Mittelvergabe steuern und Weiterbildungsmaßnahmen veranlassen. Seit dem Wintersemester 2000/1 werden im Fach Psychologie an der Universität Münster strukturierte Evaluationsfragebögen eingesetzt. Seit dem Wintersemester 2003/4 wird die Lehrevaluation über eine webbasierte Darbietungsplattform online durchgeführt (Haaser, Thielsch und Moeck, 2007). Vorteile dieser Online-Erhebungsform sind große Zeitersparnisse bei Erhebung, Auswertung und Präsentation der Daten (vgl. z. B. Göritz, Soucek & Bacher, 2005, ; Haaser, Thielsch & Moeck, 2007; Thielsch & Weltzin, 2012). Außerdem konnte durch sie die Anzahl fehlender Werte durch entsprechend programmierte Rückmeldungen deutlich reduziert und das Feedback für Dozenten durch frei wählbare Vergleichsveranstaltungen wesentlich verbessert werden. Seit 2003 können zudem Zusatzmodule wie das hier beschriebene für eine individuell angepasste Lehrevaluation eingesetzt werden.

    Für den deutschsprachigen Raum liegt bereits eine Reihe von Instrumenten zur Lehrevaluation vor. Eine Übersicht geben Schmidt und Loßnitzer (2010). Sie sind jedoch meist vergleichsweise lang und somit nur bedingt für eine internetgestützte Darbietung und gleichzeitige Evaluation unterschiedlicher Veranstaltungen geeignet. Speziell für Online-Erhebungen und Rückmeldungen werden eher kurze und ökonomische Skalen benötigt. Hohe Ökonomie, das heißt insbesondere eine möglichst geringe zeitliche Belastung von Studierenden durch die Befragung, war deshalb ein vorrangiges Ziel bei der Konstruktion der Münsteraner Itembatterien zur Lehrevaluation. Deshalb wurden ab 2003 nur noch die wichtigsten Fragen in allgemeine Basismodule zur Lehrevaluation aufgenommen. Spezifischere Themenbereiche können durch Zusatzmodule erfasst werden. Dadurch konnten die ursprünglichen Münsteraner Fragebögen zur Evaluation von Seminaren (MFE-S) und zur Evaluation von Vorlesungen (MFE-V), die bereits für ZIS 13 dokumentiert wurden, kurz gehalten werden. Lehrende können deshalb jetzt in einer Vorphase die Befragung zu ihrer Veranstaltung individuell um gewünschte Zusatzmodule ergänzen und somit deren Evaluation spezifischer auf ihre jeweilige didaktische Konzeption zuschneiden. Von besonderem Vorteil ist zudem, dass den Studierenden so nur Fragen vorgelegt werden können, die für die zu bewertende Veranstaltung auch sinnvoll zu beantworten sind. Da Lehrevaluationen typischerweise gegen Semesterende stattfinden, kollidieren diese zeitlich in den neuen Studiengängen mit der Prüfungsvorbereitung der Studierenden. Aufgrund der zeitlich angespannten Situation der Evaluierenden in dieser Phase (vgl. Bechler & Thielsch, 2012) ist daher eine zeitökonomische Befragungsweise besonders wünschenswert.

     

    Itemkonstruktion und Itemselektion

    Die Itembatterien der zehn Zusatzmodule des "Münsteraner Fragebogen zur Lehrevaluation" (MFE) wurden auf der Basis einer Analyse von Merkmalen guter Lehre (Grabbe, 2003) und durch die Aufteilung eines umfangreicheren Fragebogenentwurfs zur Evaluation von Seminaren entwickelt, der am Fachbereich Psychologie der Universität Münster konstruiert wurde. Die abschließende Version des von Grabbe (2003) erstellten Seminarfragebogens sollte mit 29 Items acht Dimensionen der Lehrqualität möglichst detailliert erfassen. Es zeigte sich aber im Gespräch mit den Dozenten, dass der Fragebogen für die an der Universität angebotenen Seminare nicht immer alle als relevant erachteten Bereiche abdeckte, da unterschiedlichste Seminarformen angeboten werden, deren Besonderheiten kaum mit einem allgemeinen Fragebogen zu erfassen sind. Daher wurden alle Fragen, die sich auf eine bestimmte Veranstaltungsform beziehen, aus den allgemeinen Evaluationsinstrumentarien herausgenommen und in Zusatzmodule integriert. So entstanden die Zusatzmodule "Referate" sowie "Gruppenarbeit". Sie können seit 2003 zusätzlich zum Seminarevaluationsfragebogen (MFE-Sr) eingesetzt werden. Außerdem wurden diese beiden Itembatterien auf Wunsch der Dozenten im gleichen Jahr um die Module "Basistexte", "Diskussion", "Exkursion", "Hausaufgaben" und "Moderation" ergänzt, die gleichermaßen für die Evaluation von Seminaren als auch von Vorlesungen herangezogen werden können, sowie um die nur für eine Beurteilung von Seminaren vorgesehenen Zusatzmodule "computergestützte Lehre", "Rollenspiele" und "Untersuchungen von Studierenden" (Moeck & Thielsch, 2004). In den folgenden Jahren wurden nur die Formulierungen einzelner Items geringfügig modifiziert.

    Im Sommersemester 2010 wurden alle Zusatzmodule einer grundlegenden Itemanalyse und -revision unterzogen. Hierbei ergab sich für das Zusatzmodul "Diskussion" keine eindeutige Faktorlösung, da sich die fünf Items drei Faktoren zuordneten, von denen keiner bedeutsam mit mehr als zwei Items assoziiert war. Um dieses Problem zu beheben, wurde das Modul revidiert und um drei Items ergänzt (Items 1, 7 und 8). Im Folgenden können nun empirische Ergebnisse zur überarbeiteten Version des Zusatzmoduls berichtet werden.

     

    Stichproben

    Zwischen dem Wintersemester 2010/11 und dem Sommersemester 2012 wurden im Rahmen der Lehrevaluation 172 Bewertungen mit dem Zusatzmodul "Diskussion" zur Seminarevaluation erhoben. 30 (17.4%) erfolgten durch Studenten und 142 (82.6%) durch Studentinnen. Die Befragten waren zwischen 19 und 39 Jahren alt (M = 21.5, SD = 2.8). Die Mehrheit (84.3%) studierte Psychologie im Bachelorstudiengang, die übrigen Evaluationsteilnehmer stammen aus dem Bachelorstudiengang Bildungsarbeit mit Kindern und Jugendlichen und dem Masterstudiengang Psychologie.

    Seit dem Wintersemester 2002/3 wird die Münsteraner Lehrevaluation am Fach Psychologie jeweils am Ende des Semesters durchgeführt. Für diese Erhebungen wurde eine Online-Plattform basierend auf PHP, kombiniert mit MySQL-Datenbanken, entwickelt (vgl. Haaser, Thielsch & Moeck 2007). Die Items des Zusatzmoduls "Diskussion" können über diese optional von den Dozenten im Anschluss an die Itembatterien zur Basisseminarevaluation dargeboten werden.

     

    Itemanalysen

    Der KMO-Test zeigt mit einem MSA-Wert von .84 eine gute Eignung des vorhandenen Datensatzes zur Durchführung einer Faktorenanalyse an. Eine explorative Faktorenanalyse (Hauptachsenanalyse mit obliquer Promax-Rotation) legt nach der Inspektion des Screeplots eine 1-Faktor Lösung nahe: Der Faktor klärt mit einem Eigenwert von 4.03 50.5 % der Varianz auf. Alle Items sind deutlich (.47  >  FL < .90) mit dem gemeinsamen Faktor assoziiert.


     

    Tabelle 1

    Mittelwerte (M), Standardabweichungen (SD), Trennschärfen (T), Faktorladungen (FL) und Cronbachs Alpha (CA) bei Ausschluss des Items für die Skala Diskussion (N = 172)

     

    M

    SD

    T

    FL

    CA

    Item 1

    5.34

    1.50

    .61

    .65

    .87

    Item 2

    5.20

    1.47

    .51

    .63

    .87

    Item 3

    5.38

    1.36

    .71

    .77

    .86

    Item 4

    5.79

    1.35

    .65

    .72

    .87

    Item 5

    5.47

    1.46

    .70

    .77

    .86

    Item 6

    3.71

    1.70

    .45

    .47

    .89

    Item 7

    5.00

    1.58

    .84

    .90

    .85

    Item 5

    5.22

    1.58

    .66

    .70

    .87

    Anm. Die Berechnungen erfolgten mit SPSS

     

    Itemkennwerte

    Zur Beurteilung der psychometrischen Eigenschaften der einzelnen Items liegen Itemkennwerte (Tabelle 1) vor.

     

    Reliabilität

    Für das Modul "Diskussion" beträgt Cronbachs Alpha .79. Die interne Konsistenz des Moduls ist demnach als ausreichend geeignet für die in der Lehrevaluation übliche Auswertung auf Veranstaltungsebene anzusehen.

     

    Validität

    Bereits Marsh (1984) weist auf die grundsätzliche Schwierigkeit hin, Lehrevaluationsinstrumente angemessen zu validieren, da sehr viele verschiedene Faktoren den Lehrerfolg beeinflussen (bspw. Lehrkompetenz, Vorwissen der Studierenden, Thema oder Veranstaltungstyp). Die meisten Instrumente, sowie die Itemsammlung von Grabbe (2003), auf der die hier vorgestellten Itembatterien aufbauen, können als Versuch angesehen werden, möglichst viele der für die Lehrqualität relevanten Aspekte zu erfassen. Das explizite Ziel der Zusatzmodule bestand nun aber darin, einzelne thematisch zusammenhängende Itemblöcke als Modul herauszulösen. Eine Validierung an einem Gesamtkonstrukt Lehrqualität ist damit erschwert, da nur Teilaspekte betrachtet werden. Um dieses Problem zu umgehen, sollen konvergente und divergente Zusammenhänge zu anderen Indikatoren aus der Lehrevaluation aufgezeigt werden. Dazu wurden die Korrelationen des Skalenmittelwerts des Moduls "Diskussion" mit denen für die folgenden Skalen und Fragen ermittelt: Die Skalen Dozent & Didaktik, Überforderung, Teilnehmer und Materialien aus dem Lehrevaluationsbasismodul MFE-Sr sowie den Fragen nach dem selbst eingeschätzten Lernerfolg, der Weiterempfehlung der Veranstaltung an andere Studierende und der Gesamtbeurteilung der jeweils zugehörigen Lehrveranstaltung (Einzelitems aus dem Lehrevaluationsbasismodul MFE-Sr).

    Das beobachtete Korrelationsmuster entspricht den Erwartungen: Die Antwortmittelwerte für das Zusatzmodul MFE-ZDi korrelieren stark positiv mit den Skalen Dozent & Didaktik (.65), Teilnehmer (.60) und Materialien (.58) sowie mit denen für den selbst eingeschätzten Lernerfolg (.58), für die Weiterempfehlungsbereitschaft (.43) und die Gesamtbeurteilung der jeweils zugehörigen Lehrveranstaltung (.65). Eine mittlere negative Korrelation des Moduls ZDi zeigt sich mit den Antworten zu der MFE-Sr-Skala Überforderung (-.32). Ferner wurde insgesamt ein zumeist positiver Zusammenhang mit der Qualität der Diskussionen in der Veranstaltung und der allgemeinen Einschätzungen ihrer Qualität beobachtet. Diese Ergebnisse erscheinen sinnvoll, da gute Diskussionen zum einen das Verständnis der Inhalte vertiefen und gleichzeitig für eine gute Veranstaltungsqualität sprechen. In dieses Bild passt auch die mittlere negative Korrelation zur selbsteingeschätzten Überforderung: gut gestaltete Diskussionen korrespondieren mit einem geringeren Überforderungserleben. Gleichzeitig weisen die Korrelationen aber auch darauf hin, dass das Modul Informationen über die Gesamtveranstaltungsbewertung hinaus erfasst.

    Ein weiteres wichtiges Validitätskriterium ist, ob das eingesetzte Zusatzmodul signifikant zwischen verschiedenen Veranstaltungen unterscheiden kann. Diese Fähigkeit eines Instruments kann als diskriminative Validität bezeichnet werden, d.h. als die Fähigkeit, deutlich zwischen verschiedenen Zielobjekten zu differenzieren. Zur Untersuchung dieser Eigenschaft wurde eine ANOVA mit den bewerteten Veranstaltungen als unabhängiger Variable und dem Modulwert als abhängiger Variable berechnet. Diese Analyse bestätigte mit deutlicher Effektstärke signifikante Unterschiede zwischen den Veranstaltungen (F = 2.08; df = 14; p < .01; Eta-Quadrat = .20). Das Zusatzmodul ist somit sensitiv für Unterschiede zwischen den bewerteten Veranstaltungen.

     

    Deskriptive Statistiken

    Deskriptive Statistiken für die Items (Tabelle 1) und ihre Skala (Tabelle 2) liegen vor.

     

    Tabelle 2

    Mediane (Me), Mittelwerte (M), Standardabweichungen (SD) sowie Schiefe und Kurtosis für die Skala Diskussion (N = 172)

     

    Me

    M

    SD

    Schiefe

    Kurtosis

    Diskussion

    5.15

    5.38

    1.13

    -0.76(.19)

    0.32(.37)

    Anm. Die Berechnungen erfolgten mit SPSS

     

    • Dr. Dipl.-Psych.  Meinald Thielsch, Westfälische Wilhelms-Universität Münster, Psychologisches Institut 1, Fliednerstr. 21, 48149 Münster, E-Mail: thielsch@uni-muenster.de, Tel. 0251 83 34154, Webseite: www.uni-muenster.de/PsyEval.
    • B. Sc. Ina Stegemöller, Westfälische Wilhelms-Universität Münster, Institut für Psychologie, Fliednerstr. 21, 48149 Münster, Webseite: www.uni-muenster.de/PsyEval