Das Karriereportal für Wissenschaft & Forschung von In Kooperation mit DIE ZEIT Forschung und Lehre

Auf die Plätze, fertig - los!

Von Jan-Martin Wiarda

Europäische Universitäten schneiden schlecht ab in den weltweiten Rankings. Sie kritisieren deren Erhebungsmethode. Versprechen neue Verfahren mehr Gerechtigkeit?

Auf die Plätze, fertig - los!© Marko Cerovac - Fotolia.com
Es ist ein Spiel mit weltweit verteilten Rollen. Jahr für Jahr veröffentlichen Forscher der Shanghaier Jiaotong- Universität nach viel Geheimnistuerei ihre Liste der 500 »weltbesten« Hochschulen. Demnächst ist es wieder so weit, und auch diesmal werden sich unter den Top Ten ausnahmslos amerikanische und britische Universitäten von Harvard bis Oxford finden. Doch etwas ist dieses Jahr anders: Die Verlierer haben keine Lust mehr, mitzuspielen. Von Paris über Enschede bis nach Gütersloh hocken europäische Hochschulforscher zusammen und haben ein gemeinsames Ziel: die Ranking-Vorherrschaft der Chinesen zu brechen.

Als Opfer von Shanghai sehen sich nämlich vor allem die Universitäten Kontinentaleuropas. Die besten deutschen zum Beispiel werden auch dieses Jahr wieder auf den hinteren Rängen landen - und während die Sieger sich selbst rühmen, werden die Deutschen wieder eisern schweigen. Eine Ausnahme war vergangenes Jahr die TU München unter ihrem ehrgeizigen Präsidenten Wolfgang Herrmann, die im innerdeutschen Vergleich nach der LMU München noch am besten abschnitt. Die Bayern vermeldeten tapfer: »Spitzenplatz für die TU«. Der Spitzenplatz war Rang 57.

Die Flucht nach vorn war der Versuch, sich mit den Realitäten zu arrangieren. Seit seinem ersten Erscheinen 2003 hat das Shanghai-Ranking zusammen mit einer ähnlichen, von der Hochschulbeilage der britischen Times herausgegebenen Rangliste für mehr Aufsehen gesorgt als jeder andere Hochschulvergleich. Was die meisten Zeitungsberichte jedoch beim Abdruck der wie Bundesligatabellen anmutenden Bestenlisten unterschlagen: Es sind nur eine Handvoll Daten, nach dem Gusto der Forscher zusammengestellt, die über Gewinner und Verlierer entscheiden. Ganze sechs Forschungskennzahlen definieren etwa laut Shanghai-Ranking, wer sich zu dem erlesenen Klub der international führenden Universitäten rechnen darf.

Die Lehre fällt dabei durchs Raster, auch sonst gilt: Wenn eine Uni nicht der Vorstellung der Ranking-Macher von Exzellenz entspricht, hat sie verloren. Der Frust über die vermeintliche Beliebigkeit von Jiaotong und Times ist groß - doch die Schlussfolgerungen fallen extrem unterschiedlich aus. Ein faires internationales Ranking werde schwer, sagen die Hochschulforscher - und machen sich an die Arbeit: Die EU hat gleich mehrere internationale Vergleiche in Auftrag gegeben, auch die Vereinigung der Industrieländer, die OECD, arbeitet in der Tradition ihrer erfolgreichen Schulstudien an einer Art weltweitem Uni-Pisa.
Ein faires internationales Ranking ist unmöglich, protestieren hingegen jene Wissenschaftler, die schon nationale Hochschulvergleiche ablehnen. Sie befürchten, dass willkürlich gesetzte Effizienzkriterien die Forscher in ihrer Freiheit beschränken könnten. Auch kritisieren sie eine Verzerrung des Wettbewerbs: Diejenigen Hochschulen, die in den Vergleichen gut abschneiden, bekämen als Belohnung mehr Geld vom Staat - und könnten die anderen dann erst recht abhängen.

So fällt der Boom der internationalen Uni-Vergleiche in Deutschland zusammen mit einer heftiger werdenden Kritik an dem, was bereits da ist: Die Geisteswissenschaften der Uni Siegen sind aus dem Ranking ausgestiegen, das vom Centrum für Hochschulentwicklung (CHE) erstellt und in der ZEIT veröffentlicht wird, auch die Kieler mathematisch-naturwissenschaftliche Fakultät will nicht mehr mitmachen. Und der Historikerverband hat beschlossen, sich dem sogenannten Forschungsrating des Wissenschaftsrats zu verweigern.

Wie die Rankings funktionieren

Im Shanghai-Ranking entscheiden nur sechs Merkmale über Gewinner und Verlierer. Dazu zählen die Zahl der Nobelpreisträger, die Menge der von Uni-Forschern in den englischsprachigen Magazinen Nature und Science veröffentlichten Artikel und die Häufigkeit der wissenschaftlichen Zitationen durch Dritte: ein großer Vorteil für etablierte Forschungsuniversitäten. Das Centrum für Hochschulentwicklung, das von Bertelsmann Stiftung und Hochschulrektorenkonferenz getragen wird, hat die »multidimensionale« Methode eingeführt: Bis zu 34 Kriterien werden im nationalen Ranking erhoben - auf der Basis einzelner Fächer, niemals ganzer Hochschulen. Rangplätze gibt es nicht, größere Qualitätsunterschiede führen allerdings zur Einordnung in eine Spitzen-, Mittel- oder Schlussgruppe. Auch die OECD will multidimensional vorgehen und zudem ermitteln, wie viel die Studenten an unterschiedlichen Unis lernen. Auf Ranglisten will auch sie verzichten.
Damit trifft es ironischerweise zwei Projekte, die weder Ligatabellen veröffentlichen noch ihre Aussagen auf wenigen, beliebig anmutenden Indikatoren aufbauen. Wegen dieses anderen Ansatzes hat das CHE auch von der EU-Kommission den begehrten Auftrag erhalten, zusammen mit dem niederländischen Center for Higher Education Policy Studies (CHEPS) ein »multidimensionales und globales Hochschulranking« zu entwickeln. Und das besteht aus zwei Schritten: Zunächst wird das CHEPS die Hochschulen entsprechend ihrer Struktur in mehrere Typen unterteilen, damit eben nicht mehr Äpfel mit Birnen - sprich: internationale Forschungsunis mit regionalen Fachhochschulen, Volluniversitäten mit Spartenanbietern - verglichen werden. »Bei der Klassifizierung geht es nicht um besser oder schlechter, sondern um so oder anders«, sagt CHE-Geschäftsführer Frank Ziegele.

Im zweiten Schritt wird das CHE seine im nationalen Ranking eingeführte Methodik so weiterentwickeln, dass es für die verschiedenen Hochschultypen auch unterschiedliche Kriterien gibt. »Bei den forschungsintensiven Universitäten werden die Publikationen stärker zählen als bei regionalen«, sagt Ziegele. Sonst kann er noch wenig sagen, die sogenannte Machbarkeitsstudie ist erst angelaufen. Sie entscheidet, ob aus der Idee ein reguläres Ranking wird. Zwei Fächer werden zunächst untersucht: die Betriebswirtschaft und die Ingenieurwissenschaften, wobei für die BWL forschungsintensive Hochschulen ausgesucht werden, für die Ingenieure regional orientierte.


Neben dem globalen Ranking hat die EU zwei weitere Machbarkeitsstudien für internationale Hochschulvergleiche gestartet, darunter Vorarbeiten für eine europaweite Uni-Datenbank: Vom Budget über die Zahl der Studenten und Professoren, die Abschlüsse oder die Forschungsfelder wären dort fast alle erdenklichen Informationen über alle Hochschulen des Kontinents abrufbar.

Und dann ist da noch das Projekt der OECD. Es ist ehrgeiziger als alle EU-Projekte zusammen. Unter der Abkürzung AHELO (Assessment of Higher Education Learning Outcomes) soll der umfassendste Hochschulvergleich aller Zeiten entstehen. Anders als bei den EU-Studien wollen sich die Forscher um den als »Pisa-Papst« bekannt gewordenen Deutschen Andreas Schleicher nicht auf das Sammeln äußerlicher Fakten wie Bibliotheksausstattung, Studentenzufriedenheit oder die wissenschaftliche Reputation einzelner Fachbereiche beschränken. Ziel des Projekts ist zudem, nach dem Pisa-Vorbild zu ermitteln, wie groß der Lernzuwachs ist, den die Studenten an verschiedenen Hochschulen tatsächlich erreichen können. »Das ist schwierig, aber möglich«, sagt Karine Tremblay vom OECD-Direktorat für Bildung. Um zu messen, wie viel Studenten dazulernten, müsse allerdings zuerst beschrieben werden, welche Fähigkeiten die Absolventen in ihrem jeweiligen Fach überhaupt brauchten. »Das Problem ist, dass sich die Erwartungen in Abhängigkeit von der Kultur, der Weltregion oder der Hochschulform möglicherweise stark unterscheiden. »Soll heißen: Die Aufgaben eines Allgemeinmediziners im Kongo haben möglicherweise wenig zu tun mit denen eines Klinikarztes in München-Großhadern.

Die AHELO-Machbarkeitsstudie, die bis 2011 läuft, soll daher Aufschluss geben, ob ein Vergleich über diese Grenzen hinweg tatsächlich sinnvoll ist. Beteiligt sind Hochschulen in zehn Ländern und wiederum die zwei Fachbereiche Ingenieur- und Wirtschaftswissenschaften. Bei dem Lernzuwachs werden zwei Bereiche unterschieden: die sogenannten generic skills, die alle Studenten unabhängig vom Studienfach beherrschen sollen, um unbekannte Probleme systematisch angehen zu können. Und dann sind da die discipline-specific skills, das je nach Studienrichtung nötige Fachwissen. Was das AHELO so brisant macht: Möglicherweise werden dabei gerade jene Unis schlecht aussehen, die im Shanghai-Ranking an der Spitze liegen. Denn es ist durchaus vorstellbar, dass eine regionale Hochschule aus mäßigen Erstsemestern sehr gute Studenten macht - während etwa Harvard bereits sehr gute Erstsemester hat und deren Qualität nur bedingt verbessert. »Solche Rankings sind schon deshalb gut, weil sie die Vorherrschaft von Shanghai brechen - und weil junge Menschen durch die Vielzahl der Kriterien genau die aussuchen können, die ihnen bei ihrer Studienwahl helfen«, sagt der Rostocker Pädagogikprofessor Wolfgang Nieke, der den Verband der Erziehungswissenschaftler an deutschen Universitäten leitet. Genau das ist der Punkt: Können Studieninteressierte aus den Informationen quasi ihr persönliches Ranking zusammenstellen, kann das hilfreich sein. Behauptet ein Ranking, die beste Uni für alle küren zu können, wird es unseriös.

Womit auch klar wird: Bessere, transparentere und faire Rankings liegen nicht im Interesse aller Hochschulen - und genau daran könnten sie scheitern. Denn anders als Shanghai oder Jiaotong erfordern die Vergleiche von OECD und CHE die Mitarbeit der Universitäten - wenn die nicht wollen, fallen sie aus der Untersuchung. »Es ist ganz klar eine Art Industrie, die da entstanden ist«, sagt Robert Reisz vom Wittenberger Hochschulforschungsinstitut HOF. »Die Sieger-Hochschulen profitieren von ihrer guten Platzierung, weil sie damit einen enormen Marketingvorteil beim Anwerben hervorragender und zahlungskräftiger Studenten haben. Und die Ranking- Macher verdienen sich so ihren Lebensunterhalt. « Natürlich seien auch die Forscher des CHE, CHEPS oder der OECD keineswegs selbstlos. »Wenn es aber schon Rankings gibt, dann möglichst gut gemachte - und möglichst viele, damit nicht eines über das Wohl und Wehe aller Hochschulen entscheidet.«

Auch wenn OECD und CHE die Trommeln rühren: Noch hat keine US-Spitzenuni ihr Interesse an einer Teilnahme auch nur angedeutet. Eine Harvard-Sprecherin erklärt, Studenten sollten lieber auf ihre eigenen Neigungen als auf Rankings schauen. So könnten am Ende vor allem jene Hochschulen an den neuen Vergleichen teilnehmen, denen sie eine bessere Platzierung verheißen. Kleine, exzellente Hochschulen zum Beispiel, die schon von ihrer Größe her keine Chance haben, in der Shanghai-Spitze aufzutauchen. »Das ist kein reines Ranking für die Forschung, keines für die Lehre, keines für die Weiterbildung, alle Bereiche kommen zum Tragen, und genau diese Vielfalt macht den Reiz dieses multidimensionalen Rankings aus«, sagt etwa der St. Gallener Prorektor Thomas Dyllick. Hoffnungsfroh sind auch unterfinanzierte Massenhochschulen wie die Universität zu Köln, die in der Shanghai-Liste jenseits von Platz 150 auftaucht und dessen Prorektor Thomas Krieg sich freimütig als »Ranking-geplagt« bezeichnet: »Natürlich ist die Hoffnung da, dass in einem Vergleich, der Hochschulen nach ihrer Größe und Art unterscheidet, auch die Kölner Universität eine faire Chance hat.«

Sind die neuen Rankings nur für Außenseiter attraktiv? Oder können sie so viel Aufsehen erregen, dass sich auch die angeblichen Top- Unis nicht verweigern können? Von der Antwort hängt mehr ab als das Aussehen der nächsten Bestenliste. Sie dürfte entscheiden, ob faire Hochschulrankings über internationale Grenzen hinweg überhaupt eine Chance haben - oder ob man sie lieber doch ganz lassen sollte.

Aus DIE ZEIT :: 27.08.2009

Ausgewählte Artikel