Montag, 27. November 2017

Sind Badges für die universitäre Lehre sinnvoll?

Von Zeit zu Zeit arbeitet sich die öffentliche Meinung an der angeblichen Praxisferne und der Überbetonung von Rigor über Relevanz in der universitären Lehre ab. Als neuestes Heilmittel werden gerne digitale Badges beworben. Worum handelt es sich dabei, was sind die Argumente der Befürworter und welche Gründe sprechen dagegen?

Digitale Badges sind im Prinzip Zertifikate oder Lernabzeichen, die man für den erfolgreichen Abschluss einer Lerneinheit erhält. Im universitären Alltag des letzten Jahrhunderts könnte man "den Schein" dazu zählen, der nach einer bestandenen Klausur dem Studierenden gestempelt ausgehändigt wurde und am Ende des Studiums in einem kleinen Heft, gestapelt und geheftet mit vielen anderen Scheinen, zum Prüfungsamt getragen und dort gegen ein Abschlusszeugnis eingetauscht wurde. In diesem Jahrhundert werden digitale Badges vor allem im Kontext von MOOCs vergeben, also nach Durchlaufen eines Onlinekurses. Sie können in digitaler Form mit einer Identität des Teilnehmers verknüpft werden, d.h. sie tauchen dann im öffentlichen Profil dieses Teilnehmers auf und können dort als bestätigte Kenntnisse z.B. einem zukünftigen Arbeitgeber präsentiert werden.

Offensichtlich verbirgt sich hier ein Geschäftsmodell, welches z.B. im Kauf von lynda.com durch LinkedIn offenbar wird. Wer ein LinkedIn-Profil besitzt und bei lynda.com kostenpflichtige Prüfungen absolviert, bekommt ein digitales Badge in seinem Profil. Was wiederum einen Anreiz für Arbeitgeber schafft, sich vor Einstellung eines Arbeitnehmers ausgiebig mit dessem LinkedIn-Profil zu beschäftigen und damit für Arbeitnehmer, das LinkedIn-Profil ausgiebig zu pflegen (Eine Ausprägung des Netzwerkeffekts).

Ergebnis: Je mehr Badges, umso besser. Je mehr Badges, die auf eine bestimmte Qualifikation hinarbeiten, umso sinnvoller. Wenn ich eine Menge Badges aus dem Bereich Datenbanken, PHP, Hadoop, Künstliche Intelligenz sammle und vorzeigen kann (die ich mir aus lynda, edX, coursera, udacity, iversity) zusammenhole, indem ich jeweils den besten Kursen folge, zeige ich offensichtlich eine Motivation und inhaltliche Kenntnis in einem speziellen Bereich und arbeite sehr konsequent an meinem Marktwert auf dem Arbeitsmarkt.

Achtung Studis, jetzt wird es klausurrelevant: ist es sinnvoll, ein Universitätsstudium dadurch zu absolvieren, dass man in ähnlicher Weise solange Badges sammelt, bis man den Bachelor oder Master fertig hat? Auf keinen Fall. Würden Sie gerne über eine Brücke fahren, die ein Statiker berechnet hat, der sein Wissen selber aus MOOCs gesammelt hat? Würden Sie sich gerne bei einem Chirurg unters Messer legen, der sein Wissen durch Badges dokumentiert?

Tatsächlich vertrauen wir nicht nur in diesen Fällen nicht den Badges bzw. Kursinhalten. Wir vertrauen der Struktur, dem Studiengang, der das Wissen schrittweise aufeinander aufgebaut hat und eine Systematik in der Wissenserwerb bringt, der einem reinen Badge-System fehlt. Diese Strukturierung kann ich per se nicht dem Lerner überlassen, auch nicht einem Intermediär. Die Hochschulen sind daher gut beraten, sich über die Struktur dem Wettbewerb zu stellen, und ihre Lehrinhalte nicht wahlfrei als Badges zur Verfügung zu stellen. Mit letzterem zeigen sie nur Beliebigkeit.

Freitag, 26. Mai 2017

"Alternative Fakten" in der Digitalen Universität

Es geht ein Gespenst um im Umgang von Meinungsbildnern mit der Lebenswirklichkeit, und dieser wird befeuert durch die Digitalisierung. "Alternative Fakten" müssen als Konzept verstanden und transportiert werden. Ihre Quelle haben alternative Fakten in der ungeregelten Meinungsmaschine Internet. Im digitalen Zeitalter müssen die Universitäten in ihrer Lehre darauf reagieren, indem sie ihren Studierenden Bewertungsmöglichkeiten an die Hand geben und sie im Umgang damit schulen. Universitäten sind nicht mehr die "einzige Quelle der Wahrheit", sondern vermitteln den Umgang mit "vielen Quellen, die Wahrheit beanspruchen".

Der Begriff der "Alternativen Fakten" behauptet im Grunde, dass man, um eine Meinung fundiert äußern zu können, diese Meinung auf Fakten abstützen zu können. Das ist schon einmal positiv und mehr, als faktenfrei zu diskutieren. Aber: so wie es alternative Meinungen zu einer Sache gibt, z.B. im politischen Raum, so ist die Behauptung hier, dass der Faktenraum zur gleichen Sache groß genug wäre, um zwei oder mehr gegensätzliche Meinungen stützen zu können.

Kleiner Ausflug in die Wissensschaftstheorie: das ist, überspitzt gesagt, eine seit langem laufende Diskussion über Positivismus vs. Interpretivismus. Der Positivist geht davon aus, dass man nach langer Forschung bei einer (1) eindeutigen Faktenlage ankommen kann (Erde dreht sich um die Sonne). Eine erdachte Theorie kann man also gegen diese Faktenlage testen, und sie danach als wahr oder falsch bewerten. Der Interpretivist hat einen anderen Zugang: bereits die Ermittlung der Faktenlage ist soweit durch das subjektive Handeln des Wissenschaftlers verzerrt, dass es viele, auch gegensätzliche Fakten geben wird, und man diese komplexe Situation durch Interpretieren beleuchten und darstellen muss.

Im nichtwissenschaftlichen Raum ist der Positivismus eindeutig die vorherrschende Gemütslage. Der normale Mensch wüsste gerne, wo es lang geht, und möchte sich lieber auf Basis eindeutiger Fakten eine Meinung bilden. Interpretivismus ist dagegen anstrengend -- er führt zur Evolutionstheorie, zur Theorie des Klimawandels, zu einer ständigen Diskussion. Schlichte Gemüter scheuen diese Diskussion, weil sie sie nicht verstehen. Sie nehmen die Fakten, die in ihrer eigenen Filterblase angeboten werden, und kommen damit zu einer unumstößlichen Meinung. Die Universität sollte keine Filterblase sein.

Es wäre unsere Aufgabe, ab dem 1. Hochschulsemester diese Unterscheidung klar zu machen und unseren Studierenden einen Kompass zur Bewertung der im Internet angebotenenen "Fakten" mitzugeben. Vielleicht wäre es nicht verkehrt, uns dabei bei der Ausbildung wirklicher Qualitätsjournalisten etwas abzuschauen.