Die Reaktivität von Rankings. Reduktion von Diversität durch mediale Ereignisproduktion

Zur Empfehlung des DGS-Vorstandes, aus dem CHE-Ranking auszusteigen 2

Thomas Kerstan geht in seinem Kommentar zu meinem Essay über die Kolonisierung von Bildung und Wissenschaft durch Rankings davon aus, dass die Entscheidung für einen Studienort durch das CHE-Ranking objektiviert wird, die Studienanfänger nicht nur auf Papa und Mama angewiesen sind, sofern diese überhaupt studiert haben. Ist das wirklich so? Und welche Evidenzen gibt es für die Reduktion von Diversität durch Rankings? Das soll im Folgenden weiter vertieft werden.

 

Erweitern Rankings das Wissen über Studienorte?

Es gibt heute für die Studienanfänger viel mehr Informationsquellen als Mama und Papa, es gibt jede Menge Freunde und Bekannte, die man befragen kann, vor allem aber das Internet und Netzwerke wie Twitter und Facebook. Wenn ich heute ein Studium aufnähme, dann würde ich mir die Webseiten der Fachbereiche ansehen. Dort finde ich viel reichhaltigere Informationen als im CHE-Ranking. Ich sehe die Selbstdarstellung, das Profil, die Professuren, das Lehrangebot, die Forschungsschwerpunkte, Drittmittelprojekte und Publikationen. Mit diesem Wissen ausgerüstet, kann ich mich nach wie vor ganz wesentlich von emotionalen Faktoren wie Nähe oder Ferne zum Heimatort, vorhandene oder nicht vorhandene Freunde und dem mich ansprechenden oder nicht ansprechenden Charakter der Stadt leiten lassen. Ich kann leicht erkennen, wie gut ein Fach ausgestattet und besetzt ist. Außerdem kann ich den Studienort wechseln, wenn es mir nicht passt.

Eine Rangordnung nach CHE-Indikatoren benötige ich als Informationsquelle für die Wahl meines Studienortes offensichtlich nicht, weil mir reichlich Informationen zur Verfügung stehen. Das Ranking wirkt genau in die entgegengesetzte Richtung: Es reduziert die Vielfalt von Informationen auf wenige Indikatoren und auf eine entsprechende Rangfolge, die Objektivität für sich beansprucht. Es will gewissermaßen in einer von Informationsreichtum geprägten Welt als funktionales Äquivalent für Mama und Papa dienen. Das gelingt nur durch die Zuschreibung von Objektivität, die nun durch die Fachgesellschaft der Soziologie in Frage gestellt ist. Statt durch die Abbildung gegebener Unterschiede gelangt das Ranking jedoch durch die von ihm selbst erzeugte Realität in den Status einer Instanz, an der sich alle orientieren müssen, weil sich alle an ihr orientieren. Es schafft einen Zwang, zu dem auch der Zwang zur Konsultation des Rankings als verbindlicher Instanz für die Zuteilung von Status gehört. Sauder und Espeland berichten, dass die amerikanischen Law Schools heftig über das Zwangsregime des Rankings durch U.S. News & World Report (USN) klagen, das sie für Unsinn halten, sich ihm aber trotzdem nicht entziehen können:

“Although popular with external audiences, rankings are widely resented by law schools. Responding to the first annual ranking of law schools, Yale’s dean called the rankings ‘an idiot poll’, while Harvard’s dean described them as ‘Mickey Mouse’, ‘just plain wacky’, and ‘totally bonkers’ (…). Many consider the rankings ‘too stupid to be taken seriously’. Administrators soon learned, though, that even if they view rankings as poor measures, others do take them seriously. Almost all law schools have since adapted strategies to manage rankings. Even so, dramatic improvements in rank are rare because reputations are slow to change and competitor schools quickly imitate successful innovations.” (Sauder und Espeland 2009: 68).

Wenn Rankings der Praxis von Bildung und Wissenschaft einen so weithin beklagten Zwang auferlegen, dann muss man sich fragen, warum sie trotzdem zu einer kaum noch zu verdrängenden sozialen Tatsache geworden sind. Als Schüler von Niklas Luhmann könnte man sich gelassen zurücklehnen und die Ausbreitung von Rankings durch ihre Funktion der Komplexitätsreduktion erklären. So einfach ist das aber nicht. Die Existenz eines Phänomens durch die Erfüllung einer Funktion zu erklären, ist ein funktionalistischer Fehlschluss. Wir müssen genauer hinschauen, um herauszufinden, wodurch Rankings in die Lage versetzt werden, sich gegen funktionale Alternativen, wie z.B. Informationen ohne Rangbildung, durchzusetzen. Und es muss genauer erfasst werden, wie und mit welchen Konsequenzen Rankings Komplexität reduzieren.

Für die Durchsetzung gegen Alternativen ist die Errichtung eines Monopols der Definition von Leistung bedeutsam, dem sich die gerankten Fachbereiche nicht entziehen können, weil sie sich sonst als schlechte Verlierer darstellen würden. Über die Art und Weise, in der Leistungen dokumentiert werden, entscheidet dabei nicht die innere Logik der wissenschaftlichen Praxis, sondern die externe Logik der medialen Aufmerksamkeitserzeugung. Mit einer umfangreichen Informationsbroschüre erreicht man keine Leser. Genau das leisten aber Rankings. Sie erregen Aufmerksamkeit. Sie vereinfachen die Sicht der Dinge und gewinnen durch die Veranstaltung eines Wettbewerbs um Rangplätze das Interesse ihrer Leserschaft. Es handelt sich um eine spezifische Art der medialen Ereignisproduktion. Rankings erfüllen also die Funktion der Aufmerksamkeitserzeugung innerhalb des Mediensystems. Wenn es beim bloß medialen Ereignis bliebe, dann wäre es für Bildung und Wissenschaft kein Problem. Das ist aber nicht der Fall. Die mediale Ereignisproduktion von Rankings wirkt in Bildung und Wissenschaft hinein und unterwirft deren Praxis einer ihnen fremden Medienlogik. Es besteht deshalb ein Bedarf an Erklärung dafür, wie Rankings die Praxis von Bildung und Wissenschaft verändern und welche Folgen das für ihre genuine Leistungsfähigkeit hat.

Rankings als self-fulfilling prophecies

Entscheidend ist die Reaktivität von Indikatoren. Dieses Problem ist maßgeblich von dem Sozialpsychologen Donald Campbell (1957: 298) aufgeworfen worden. Indikatoren, die Performanz messen sollen, können selbst die Performanz beeinflussen. In diesem Fall bilden sie Realität nicht ab, sondern erzeugen sie selbst. Bei Rankings geschieht dies dadurch, dass sie als self-fulfilling prophecy wirken, wie Espeland und Sauder (2007: 11-12) herausstellen. Sie beziehen sich dabei auf die klassische Studie von Robert Merton (1949/1968b) über self-fulfilling prophecies. Die allgemeine soziologische Grundlage dafür ist das sogenannte Thomas-Theorem: “If men define situations as real, they are real in their consequences” (Thomas und Thomas 1928: 572). Rankings lenken den Blick auf die Indikatoren, die immer eine Selektion unter vielen Möglichkeiten darstellen. Die Indikatoren beherrschen das Denken und Handeln von Eltern und ihren Kindern, die auf der Suche nach einem Studienort sind, von Fachbereichen, die Studiengänge anbieten, und von öffentlichen und privaten Investoren, die Finanzmittel für Forschung und Lehre zuteilen.

Wie stark das Ranking von USN die Realität der Law Schools in den USA definiert, bringt der Dekan einer Law School, den Espeland und Sauder zitieren, auf den Punkt: “(Rankings) are always in the back of everbody’s head. With every issue that comes up, we have to ask ‘How is this impacting our ranking?’ ” (Espeland und Sauder 2007: 11).

Im Einzelnen untersuchen Espeland und Sauder vier Kanäle, durch die Rankings die soziale Realität der Law Schools beeinflussen: Externe Rezipienten lassen sich in ihren Entscheidungen durch Rankings leiten, die Ergebnisse früherer Rankings determinieren weitgehend spätere Rankings, die Verteilung von Forschungs- und Lehrmitteln richtet sich nach ihnen, die Aktivitäten der Fachbereiche zielen auf die Konformität mit den Kriterien von Rankings (Espeland und Sauder 2007: 12). Durch das Zusammenwirken dieser Einflusskanäle werden sachliche Differenzen in Qualitätsunterschiede transformiert, minimale Unterschiede im Rang werden durch die Akkumulation von Wettbewerbsvorteilen stetig vergrößert.

Wie frühere Rankings die Konstruktion späterer Rankings determinieren, lässt sich gut am Beispiel des CHE-Rankings demonstrieren. Wenn ich als Student gefragt werde, wie ich die Methodenausbildung an einem Standort einschätze, dann steckt darin implizit immer ein Vergleich mit anderen Standorten, die ich aber nicht kenne. Was mache ich in dieser Entscheidungssituation bei hoher Unsicherheit? Ich schaue nach, wie die Methodenausbildung in der Vergangenheit eingeschätzt wurde. Nehmen wir an, ein Fachbereich hat letztes Mal eine mittlere Note für die Methodenausbildung erhalten und hat eine Reihe von Veränderungen vorgenommen, dann ändert das oft nichts am Urteil der Studierenden, weil es sich um eine neue Generation handelt, die keinen direkten Vergleich mit der Vergangenheit hat, wohl aber einen indirekten anhand des vergangenen CHE-Rankings. Was liegt näher, als sich darauf zu stützen und die Gegenwart so wie die Vergangenheit zu beurteilen? Darin steckt ein durch das Ranking selbst erzeugter Etikettierungseffekt, von dem sich Fachbereiche nicht befreien können. Deshalb gibt es ja auch nur geringfügige Änderungen von Rankings im Zeitverlauf. Das Ranking verfestigt die Urteile über Standorte und übt dadurch einen konservativen Effekt auf Bildung und Wissenschaft aus.

Was für die Urteile über die Methodenausbildung gilt, das trifft auch auf alle anderen Urteile zu, so auf die Urteile zur Bibliotheksausstattung und zur Studiensituation insgesamt wie auch auf die Professorenurteile über die Standorte. Auch die Zahlen zu Drittmitteln und Publikationen werden maßgeblich durch die Vergangenheit bestimmt, weil mehr Drittmittel und mehr Publikationen in noch mehr Drittmittel und noch mehr Publikationen umgesetzt werden. Auch hier haben Rankings einen konservativen Effekt, der die Forschungssituation verfestigt, wo es gerade auf deren Offenheit ankäme, um ständige Erneuerung in Bildung und Wissenschaft zu ermöglichen. Das ist der ebenfalls von Robert Merton (1968a) beschriebene Matthäus-Effekt in der Wissenschaft.

Die Fachbereiche sehen sich in einen Verdrängungswettbewerb hineingezwungen, der nach dem Gesetz des Stärkeren ausgetragen wird. Sie müssen zu allen denkbaren Mitteln greifen, um ihren Rangplatz ein wenig zu verbessern oder zumindest zu behalten. Dazu gehört auch die Manipulation der Zahlen. So wird eine Gesetzmäßigkeit wirksam, die der schon erwähnte Sozialpsychologe Donald Campbell herausgefunden hat: die Korrumpierung der Indikatoren, weil davon der Rangplatz abhängt. Campbell’s law lautet:

“The more any quantitative social indicator is used for social decision-making, the more subject it will be to corruption pressures and the more apt it will be to distort and corrupt the social process it was intended to monitor.” (Campbell 1976: 54)

Reduktion von Diversität durch Rankings

Rankings kolonisieren letztlich Bildung und Wissenschaft. Auch das haben Sauder und Espeland (2009) herausgearbeitet. Sie zwingen der Praxis von Forschung und Lehre ihre eigene Logik der Erzeugung von Rangunterschieden auf. Eine wesentliche Konsequenz dieser Kolonisierung von Bildung und Wissenschaft ist die Einschränkung von Vielfalt als entscheidender Ressource für die Offenheit des Bildungsprozesses und des Erkenntnisfortschritts. Genau zu diesem Ergebnis kommen Espeland und Sauder (2009) in einer weiteren Studie zum Ranking der amerikanischen Law Schools durch USN. Diversität wird in einem dreifachen Sinn eingeschränkt, (1) in der Entscheidung von Studierenden für das Fach, (2) in der Zulassung von Studierenden durch die Law Schools und (3) im Angebot von Curricula:

“Rankings not only influence individual decisions about where to apply and attend law school, but also organizational decisions such as whom to admit or hire, how to evaluate the work of subordinates, peers or superiors, and how to think about status and specialization in the field of legal education. Rankings subtly, powerfully and enduringly shape perceptions of ability and achievement. And, as Jean (an interviewed administrator, RM) suggested, attention to rankings can have important implications for the diversity of law schools and the legal profession” (Espeland and Sauder 2009: 588).

Gewiss verfährt das CHE-Ranking nicht in derselben Weise wie das Ranking von USN. Aber es teilt diesen wie auch andere unerwünschte Effekte mit diesem Ranking. Wir befinden uns in Deutschland am Anfang einer Entwicklung, deren Ende in den USA anhand der erwähnten Untersuchungen von Espeland und Sauder gut dokumentiert ist. Dass es sich dabei um einen globalen Trend handelt, befreit ihn keineswegs von diesen unerwünschten Effekten. Umso dringender ist es, eine offene Debatte darüber zu führen.

Ruling by numbers

Wenn Rankings eine dominante Stellung einnehmen, dann lenken sie den Blick von Studieninteressierten und Fachbereichen auf dessen unvermeidlich Komplexität reduzierende Indikatoren. Dass dadurch das Verhalten von Studieninteressierten und Fachbereichen in die Richtung der Optimierung von Kennzahlen gesteuert wird, folgt daraus logisch. Wer das auch empirisch bestätigt sehen will, kann die Untersuchungen von Espeland und Sauder konsultieren. Rankings repräsentieren “ruling by numbers” und die Ausbreitung neoliberaler Gouvernementalität (dazu neben Foucault 2006; Porter 1995; Power 1997; Miller und Rose 2008; Dean 1999 sowie Espeland und Stevens 2008).

Zum Schluss möchte ich nochmals betonen, dass der Effekt der Reduktion von Vielfalt durch Rankings unabhängig von ihrer methodischen Qualität auftritt. Er lässt sich durch methodische Verbesserungen nicht beseitigen. Umso grundsätzlicher muss die Debatte über Rankings geführt werden.

Literatur

Campbell, Donald T. 1957. “Factors relevant to the validity of experiments in social settings.” Psychological Bulletin 54, S. 297-312.
Campbell, Donald T. 1976. “Assessing the impact of planned social change.” In: Occasional Paper Series No. 8. Western Michigan University, Kalamazoo. Evaluation Center (74 pages). www.eric.ed.gov/PDFS/ED303512.pdf. 17.07.2012.
Dean, Mitchell. 1999. Governmentality. Power and Rule in Modern Society. London: Sage.
Espeland, Wendy N. und Michael Sauder. 2007. “Rankings and reactivity. How public measures recreate social worlds.” American Journal of Sociology 113 (1), S. 1-40.
Espeland, Wendy N. und Michael Sauder. 2009. “Rankings and Diversity.” Southern California Review of Law and Social Justice 18 (3), S. 587-608.
Espeland, Wendy N. und Mitchell L. Stevens. 2008. “A Sociology of Quantification.” European Journal of Sociology 49 (3), S. 401-436.
Foucault, Michel. 2006. Die Geburt der Biopolitik. Geschichte der Gouvernementalität II. Frankfurt a.M.: Suhrkamp.
Merton, Robert K. 1968a. “The Matthew-Effect in Science.” Science 159/3819, S. 56-63.
Merton, Robert K. 1949/1968b. “The self-fulfilling prophecy.” In: Robert K. Merton. Social Theory and Social Structure. New York: Free Press, S. 424-436.
Miller, Peter und Nikolas Rose. 2008. Governing the Present. Cambridge: Polity Press.
Porter, Theodor M. 1995. Trust in Numbers: The Pursuit of Objectivity in Science and Public Life. Princeton: Princeton University Press.
Power, Michael. 1997. The Audit Society. History, Institutions, and Social Analysis. Princeton: Princeton University Press.
Sauder, Michael und Wendy N. Espeland. 2009. “The discipline of rankings: Tight coupling and organizational change.” American Sociological Review 74 (1), S. 63-82.
Thomas, W.I. und Dorothy Swaine Thomas. 1928. The Children in America: Behavior Problems and Programs. New York: Knopf.

Drucken Drucken

10 Kommentare

  1. Sehr geehrter Herr Professor Münch,

    in einem Punkt sind wir uns sicher einig: Der Streit um Rankings muss geführt werden, denn es kann allerlei Schindluder mit ihnen getrieben werden.

    Prinzipiell sind wir uns sicher auch einig darin, dass der Streit grundsätzlich geführt werden muss. Nur habe ich hier bei Ihnen den Verdacht, dass Sie ins Grundsätzliche ausweichen, weil Sie im Konkreten keinen Punkt machen. Sie bringen eine Menge Argumente gegen Rankings allgemein, oder konkret welche gegen amerikanische. Das CHE-Ranking ist ja aber durchaus anders konstruiert als viele andere Rankings, die ich genau so kritisieren würde wie Sie es tun.

    Deshalb war ich vom CHE-Ranking (kann man nachlesen) schon angetan, als es noch von der Stiftung Warentest und dann vom Stern veröffentlicht wurde, nicht erst, seitdem wir es im ZEIT Studienführer publizieren. Das Ampelsystem ist auch keineswegs “publikumswirksam”, wie Ihr Kollege Lessenich in der Frankfurter Rundschau behauptet (und dort insinuiert, dass es vorwiegend wirtschaftlichen Interessen geschuldet sei). Es ist recht kompliziert, verlangt Erklärungen, die wir im Studienführer ausführlich geben. Was publikumswirksam ist, können Sie in anderen Blättern sehen: dort werden Indikatoren munter vermischt und dann werden Rangplätze nach Art einer Bundesliga-Tabelle vergeben. Wir haben uns bewusst für die komplizierte Darstellung entschieden, weil wir seriös bleiben wollen.

    Sicher kann man sich, wie Sie schreiben, über Facebook, Freunde … über das Studium informieren, dazu raten wir im Studienführer auch ausführlich. Aber die Rangliste gibt eine Zusatzinformation. Ranglisten gibt es auch bislang schon, meist über den Ruf der Unis in der Forschung, das ist eine – durchaus mächtige – Rangliste die auf Hörensagen basiert. Das CHE-Ranking korrigiert sie hier und da.

    Ich verstehe auch nicht, dass Sie auf Mutmaßungen basiert argumentieren. Sie unterstellen zum Beispiel, dass Studenten, die ihren Fachbereich beurteilen sollen, dazu neigen, die Beurteilung ihrer Vorgänger übernehmen. Vielleicht ist es so. Vielleicht aber auch nicht. Ich hoffe nicht, dass die Soziologie auf so einer Basis Erkenntnisse zu gewinnen sucht.

    Ihr Argumentationsmuster ähnelt stark dem der Kritiker empirischer Bildungsforschung, die jede Art von Tests, Evaluationen und Vergeichsarbeiten in Deutschland ablehnen, weil es in den USA Testexzesse an den Schulen gibt. Lassen Sie uns lieber konkret diskutieren, als ins Allgemeine zu flüchten.

    Die sogenannte grundsätzliche Debatte um Rankings halte ich nicht für sehr hilfreich. Interessanter (und wichtiger) finde ich das konkrete Nachdenken über einzelne Indikatoren. Vor einer Weile war zum Beispiel die Zahl der Doktorarbeiten pro Professor durchaus ein (ein!) Indikator für die Forschungsaktivität in einem Fachbereich. Wenn sich nun das System Universität darauf einstellt, dann verliert dieser Indikator an Aussagekraft. Man muss also zwingend von Zeit zu Zeit die Kriterien ändern, nach denen evaluiert wird.

    Ich freue mich jedenfalls auf die weitere Debatte, weil sie uns alle zum Nachdenken zwingt.

    Beste Grüße, Thomas Kerstan

  2. Richard Münch sagt:

    Sehr geehrter Herr Kerstan,

    vielen Dank für Ihre erneut ausführliche Auseinandersetzung mit meinem Blog. Sie bezweifeln insbesondere die Übertragbarkeit der von mir herangezogenen Forschungsergebnisse zum Ranking amerikanischer Law schools auf das CHE-Ranking. Übertragen kann man generelle Effekte von Rankings, die unabhängig von den verwendeten Indikatoren auftreten. Solche Effekte weisen die erwähnten Studien nach. Der Effekt der self-fulfilling prophecy zeigt sich bei jedem Ranking, weil die Ergebnisse vergangener Rankings erstens die Urteile von Befragten und zweitens die Ressourcenausstattung von Standorten beeinflussen. Ebenso ist der Effekt der Reduktion von Diversität bei jedem Ranking zu beobachten, weil jedes Ranking die Komplexität der Praxis auf wenige Indikatoren reduzieren muss und sich dann das Interesse von Nachfragern und Anbietern von Forschung und Lehre auf diese Indikatoren einengt.

    Wir spielen gewissermaßen Ping Pong über den Grenzzaun zwischen Wissenschaft und Medien hinweg. Rankings sind Instrumente, mit denen die Medien die Wissenschaft beobachten können. Sie tun das nach ihren eigenen Gesetzen der Aufmerksamkeitserzeugung, die nicht mit den Gesetzen übereinstimmen, nach denen im Feld der Wissenschaft Aufmerksamkeit zugeteilt wird. Der Konflikt zwischen dem DGS-Vorstand und dem CHE dreht sich um die Grenzziehung zwischen Wissenschaft und Medien. Soweit Rankings die Wahl von Studienorten und die Zuteilung von Ressourcen beeinflussen, greift die Logik der Medien in Forschung und Lehre hinein und drückt ihnen ihren Stempel auf. In diesem Sinne spreche ich von Kolonisierung bzw. Fremdbestimmung. Man könnte das auch als strukturelle Kopplung zwischen Medien und Wissenschaft verharmlosen. Soweit dadurch jedoch die genuine Leistungsfähigkeit von Forschung und Lehre beeinträchtigt wird, sind Abwehrmaßnahmen wie diejenige des DGS-Vorstandes berechtigt. Auch der Wissenschaftsrat ist dieser Meinung und arbeitet deshalb an dem Projekt des Forschungsratings. Man muss allerdings zugeben, dass auch das Forschungsrating nicht darum herumkommt, Komplexität zu reduzieren. Es ist das Opfer, das die Wissenschaft möglicherweise auf dem Altar der Mediengesellschaft erbringen muss (dazu Weingart 2005). “Was wir über unsere Gesellschaft, ja über die Welt, in der wir leben, wissen, wissen wir durch die Massenmedien”, hat Niklas Luhmann(1996: 9) festgestellt. So gesehen ist der Aufstand der DGS gegen das CHE-Ranking nur eine kleine, zum Nachdenken zwingende Irritation, die das Imperium der Medien noch nicht zum Einstürzen bringt.

    Literatur

    Luhmann, Niklas.1996. Die Realität der Massenmedien. Opladen: Westdeutscher Verlag.
    Weingart, Peter. 2005. Die Wissenschaft der Öffentlichkeit. Weilerswist: Velbrück.

    Beste Grüße
    Richard Münch

    Literatur

    Weingart, Peter. 2005. Die Wissenschaft der Öffentli

  3. thorsten peetz sagt:

    Sehr geehrter Herr Münch,

    ich möchte zu der Debatte nur einen kleinen Hinweis beifügen: Vielleicht sollte man vor der Frage, wie man Studierende über ihren Studienplatz informieren kann, die Frage stellen, was überhaupt zur Entscheidung steht. Interessant dazu finde ich die Beobachtung von Andrew Abbott in einem Aufsatz über “Mechanisms and Relations”, den man unter http://www.sociologica.mulino.it/journal/article/index/Article/Journal:ARTICLE:105 abrufen kann:

    “[…] a student considers a particular set of colleges to pursue because of a set of identity choices in his or her immediate present. Perhaps he or she chooses to apply to a college because friends do. Perhaps it is a part of the long and intimate battle with parents about who he or she is to become – about occupation or utility or politics as contested in the family. Perhaps it is about escaping a particular identity – avoiding some obvious college because a hated or contemned adult went there, or because it is such an obvious choice, or because it is near family. Even at the stage of initial interest – the stage of inquiring about colleges – such identity factors are essential. For most students college is the first major turning point in life, the chance to leave home and enter a new trajectory in life [cf. Abbott 1997]. It therefore raises central identity choices, like the attempt to escape from parental and school authority. And college choices also embody identity statements about what seem to be purely individual identity choices, like ambition, for example.”

    Im Anschluss daran kann man dann natürlich die Frage stellen, wen ein Ranking informiert, wenn nicht die Identitätswahlen der zukünftigen Studierenden und welche Funktion es in bildungspolitischen Auseinandersetzungen im Allgemeinen und in mikropolitischen Auseinandersetzungen an einzelnen Universitäten im Besonderen hat.

    Beste Grüße
    Thorsten Peetz

    • Richard Münch sagt:

      Sehr geehrter Herr Peetz,

      vielen Dank für Ihren Hinweis auf den interessanten Aufsatz von Andrew Abbott! Das hilft, die Frage nach der Funktion von Rankings bei der Studienfach- und Studienortwahl präziser zu beantworten und den Fokus auf diese wichtige Phase der Identitätsbildung zu richten.

      Mit besten Grüßen
      Richard Münch

  4. Sehr geehrter Herr Professor Münch,

    mir ist die Irritation auch wichtig, weil mir bewusst ist, dass wir uns auf dünnem Eis bewegen und ständig prüfen müssen, ob es trägt. Insofern begrüße ich die Debatte, wenngleich ich den Schritt der DGS für falsch halte (und wir werden das aushalten, da habe ich auch keine Sorge).

    Wie die Wissenschaft interne Qualitätsunterschiede bemisst (oder gar der Messung entziehen will), ist nicht mein Metier. Das ist eine Frage der Fachdiskussion.

    Was aber mein Anliegen ist, ist die möglichst gute Information der künftigen Studenten. Und da finde ich Ihre Vorschläge (und die Vorschläge von Herrn Professor Lessenich) bislang unbefriedigend. Es wäre erfreulich, wenn wir zumindest an diesem Punkt weiterkämen.

    Beste Grüße, Thomas Kerstan

  5. Richard Münch sagt:

    Sehr geehrter Herr Kerstan,

    von der Seite der Wissenschaft betrachtet, besteht die Verbesserung des CHE-Rankings in dem von der DGS ins Visier genommenen Weg, ein Informationsportal aufzubauen, in dem die Profile der einzelnen Studienorte beschrieben werden, ohne sie in eine Rangordnung zu bringen. Damit ist dem Informationsbedürfnis von Studieninteressierten innerhalb der Wissenschaft so weit wie möglich gedient, ohne einen verzerrenden Effekt auf Forschung und Lehre auszuüben. Ich kann mir denken, dass es wenig Sinn macht, dieses Verfahren auf der Seite der Medien zu duplizieren. Wenn Sie auf Ihrer Seite weniger verzerrend in die Wissenschaft hineinwirken wollen, dann könnte der Weg nur darin bestehen, die Zahl der Indikatoren zu erhöhen und den Besonderheiten von Standorten mehr Beachtung zu schenken. Mit dieser Strategie stoßen Sie aber schnell an die Grenzen des Machbaren und der Überschaubarkeit, die für Sie von entscheidender Bedeutung sind. Sie könnten sich aber auch an der Ehrlichkeit des USN-Rankings orientieren und sich auf die beiden Faktoren konzentrieren, die den Rang eines Fachbereichs entscheidend bestimmen: Geld und über Jahrzehnte akkumuliertes, durch kurzfristige Veränderungen kaum zu erschütterndes Prestige. Beide steigern sich gegenseitig in einem zikulären Prozess. Je mehr man davon hat, umso mehr und umso reputiertere Professoren kann man berufen, umso mehr Mitarbeiter kann man ihnen zur Seite stellen, umso bessere Betreuungsrelationen kann man bieten, umso besser sind die Bibliotheksausstattung und die Methodenausbildung, umso mehr Drittmittel können eingeworben, umso mehr Publikationen auf den Markt gebracht und umso bessere Studierende zum Studium zugelassen werden. Mit dem vefügbaren ökonomischen und symbolischen Kapital wissen Sie schon alles, was Sie wissen wollen. Die ganzen weiteren Erhebungen können Sie sich sparen.

    Die Krux dieses Verfahrens für die Seite der Wissenschaft besteht allerdings darin, dass diese, schwer durch persönliche Anstrengungen zu beeinflussende Strukturen nochmals symbolisch aufgeladen und damit verfestigt werden, wo es für die Offenheit der Bildung und der Wissensevolution darauf ankäme, sie zu verflüssigen und veränderbar zu machen. Rankings sind außerdem in dem Sinne unfair, dass sie zumindest implizit strukturell verursachte Unterschiede den größeren oder geringen Anstrengungen von Kolleginnen und Kollegen zuschreiben. Hier sind wir wieder bei dem nicht überwindbaren Interessengegensatz zwischen Medien und Wissenschaft angelangt, der einer Einigung zwischen uns beiden, so sehr wir es auch wollten, im Wege steht.

    Mit besten Grüßen
    Richard Münch

  6. Sehr geehrter Herr Professor Münch,

    dann hätten Sie also am liebsten Medien, die es dabei beließen, auf die von Wissenschaftslobbyisten erstellten Webseiten hinzuweisen?

    Fragt mit besten Grüßen Thomas Kerstan

    • Richard Münch sagt:

      Sehr geehrter Herr Kerstan,

      eine wissenschaftliche Fachgesellschaft ist kein Lobbyist, sondern eine Treuhänderin, deren Aufgabe es ist, Forschung und Lehre einer wissenschaftlichen Disziplin nach den wissenschaftlichen Standards zu gestalten. Diese Treuhänderschaft funktioniert in dem Maße, in dem die Öffentlichkeit Vertrauen in deren uneigennützige Ausübung hat. Werden Regelverletzungen konsequent sanktioniert, dann wird die Geltung der Regeln bekräftigt und das Vertrauen bestätigt. Die mediale Durchleuchtung der Wissenschaft, zu der Rankings einen maßgeblichen Beitrag leisten, führt allerdings in der Tendenz dazu, Vertrauen durch externe Kontollen zu ersetzen. Die Mediengesellschaft ist auch eine vom Kontrollwahn besessene Gesellschaft. Ein schönes Beispiel dafür sind die Kontollphantasien, die im vergangenen Jahr im Anschluss an die Plagiatsaffäre eines prominenten Politikers entwickelt wurden. Das Ersetzen von Vertrauen durch Kontrollen macht die Ausnahme zum Regelfall und untergräbt die Funktionsbedingungen jeder professionellen Arbeit.

      Eine Fachgesellschaft ist die geborene Verteidigerin der professionellen Autonomie. Genau das tut der DGS-Vorstand mit seiner Kritik am CHE-Ranking. Gleichwohl kann es in der Tat nicht die Aufgabe der Medien sein, einfach nur wiederzugeben, was eine Fachgesellschaft an Informationen über Studiengänge bereitstellt. Dabei ist Reflexion über die Gestaltung von Bildung und Wissenschaft aus Anlass von Reformprozessen von der Dienstleistung für Studieninteressierte in Gestalt von kompakter Information zu unterscheiden. Sie haben dafür ja bei der ZEIT eine spannungsreiche Arbeitsteilung innerhalb der Wochenzeitung. Mediengerechte Informationen könnten aber auch so aussehen, dass Sie die wesentlichen strukturellen Faktoren wie die Grundausstattung, die Zahl der Studierenden, die Betreuungsrelation und die fachlichen Schwerpunkte ohne Bewertung und Ranking nennen.

      Mit besten Grüßen
      Richard Münch

  7. Lieber Herr Münch, lieber Herr Kerstan,

    ich finde Ihre Diskussion zu Einfluss und Funktion des CHE-Rankings in unterschiedlichen Kontexten äußerst spannend und möchte an dieser Stelle noch einige weitere Punkte zu bedenken geben, da ihr Ihrer beiden Argumentationen durchaus folgen kann und derartigen Rankings äußerst skeptisch gegenüberstehe.

    Herr Münch, Sie gehen von der Idee der Wissenschaft als autonomem System oder auch Feld aus, das durch die Logik der Wissenschaft bestimmt wird, während Herr Kerstan ein eher handluntheoretisches Argument formuliert, das auf die notwendige Komplexitätsreduktion für eine informierte Entscheidung durch neue Studierende setzt. Die beiden Positionen stehen sich theoretisch dermaßen diametral gegenüber, dass es schwierig sein dürfte, sie unmittelbar zusammenzubringen. Ich persönlich kann die Einwände von Herrn Münch aus theoretischer Perspektive teilen, sehe aber auch berechtigte Punkte bei Herrn Kerstan.

    Dabei stellt sich zuerst die Frage, ob nicht “Wissenschaft” und “universitäre Lehre” zwei grundsätzlich getrennte Felder darstellen, die lediglich enger verbunden sind, als vielleicht andere. Dabei kommt auch die Frage auf, ob die wissenschaftliche Reputation für die Entscheidung über einen Studienort durch einen potentiellen Studierenden überhaupt eine relevante Kategorie ist. Ich kann hier nur anekdotische Belege vorbringen, aber für mich waren bei dieser Entscheidung in erster Linie das Studienangebot und die inhaltlichen Lehr(!)-Schwerpunkte entscheidend. Denn auch auch an einem wissenschaftlich hervorragenden und bestens besetzen Institut kann schlechte Lehre gemacht werden. Ihre Gleichsetzung wissenschaftlicher Qualität mit hoher Attraktivität für Studierende wird damit zumindest fragwürdig. Insofern läge eine Möglichkeit vielleicht darin, Lehre und Forschung in den Rankings klarer zu trennen und bei der Forschungsqualität auf komplexere, der wissenschaftlichen Logik angemessenere Kennzahlen zurückzugreifen.Glei

    Aus kognitiv-handlungstheoretischer Perspektive überfordern Sie, Herr Münch, potenzielle Studierende womöglich. Die Informationen auf der Webseite der Universitäten sind auf der einen Seite natürlich erstmal ein Marketing-Instrument, durch das die Universität versucht, sich in das beste Licht zu rücken. Dagegen ist grundsätzlich nichts einzuwenden, aber ich sehe hier durchaus die Notwendigkeit für ein kritisches Korrektiv. Natürlich können hier die detaillierteren Informationen auf den Fachbereichs- und Lehrstuhlwebseiten weiterhelfen, diese sind für Uni-Neulinge aber absolut unverständlich und betreffen in erster Linie den Bereich des wissenschaftlichen Arbeitens und weniger der Lehre. Damit stellt sich die Frage, ob die Studierenden diese Informationen für sich überhaupt nutzen können. Wenn nicht stellt sich nicht die Frage nach Gefühl, Umfeld + Ranking oder Gefühl, Umfeld + Detailinformationen, sondern nach Gefühl, Umfeld + Ranking oder nur Gefühl und Umfeld, da der Mensch in den seltensten Fällen nach vollständiger Information strebt, sondern sich an allgemeinen Heuristiken orientiert, würde ich letzteres vermuten.

    Mein Vorschlag wäre daher weniger, das Ranking zu boykottieren, sondern auf eine klarere Trennung von Lehrqualität und Forschungsqualität zu setzen, seine Angemessenheit in diesen Dimensionen zu verbessern und gleichzeitig weitergehende Informationen zu inhaltlichen Schwerpunkten, Stärken und Schwächen in Forschung und Lehre umittelbar an das Ranking anzugliedern, um dessen Objektivitätsanspruch zu reduzieren. Möglicherweise würde es schon helfen, die Rankings nicht in einer Übersichtstabelle für die großen Fächer zu vergleichen sondern nur innerhalb von Gruppen mit ähnlichen inhaltlichen Schwerpunkten oder die Wertungen nur in den Profilen der einzelnen Studiengänge zu präsentieren um so das Kompetetive herauszunehmen.

    Mit besten Grüßen,
    Nils Müller

  8. Richard Münch sagt:

    Lieber Herr Müller,

    Sie haben auf einige weiter zu bedenkende Punkte aufmerksam gemacht. Vielen Dank dafür! Besonders wichtig finde ich Informationen über die Struktur, Inhalte und Schwerpunkte der Studiengänge. Das ist jetzt bei den neuen BA- und Masterstudiengängen viel unübersichtlicher geworden. Als Studienanfänger müsste ich vor allem wissen, was ich wo mit welchen Schwerpunkten und welchen Modulkombinationen studieren kann. Was steckt also z.B. in der Hülse BA Soziologie überhaupt drin? Darüber hinaus sollte ich etwas über die Zahl der Professoren, ihre Schwerpunkte in der Lehre und die Betreuungsrelationen wissen. Das alles erfahre ich aber durch Rankings nicht. Ein informationsreicher Studienführer müsste viel mehr über die Studiengänge, ihre Inhalte, Schwerpunkte und Anforderungen sagen, als das in der Regel geschieht.

    Mit besten Grüßen
    Richard Münch

Hinterlasse eine Antwort

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *


Du kannst folgende HTML-Tags benutzen: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>

Page optimized by WP Minify WordPress Plugin