top of page

KI in der Erwachsenenbildung: Zwischen Verunsicherung und Verantwortung

  • Autorenbild: Markus Will
    Markus Will
  • vor 2 Tagen
  • 4 Min. Lesezeit

Aktualisiert: vor 15 Stunden


Bild kreiert mit FLUX Playground
Bild kreiert mit FLUX Playground

Warum wir nicht warten sollten, bis alles geregelt ist – sondern anfangen sollten, gemeinsam selbst Regeln zu setzen.

 

KI ist da. Auch im Unterricht. Und mit ihr: viele Fragen. Grosse Chancen. Und eine spürbare Unsicherheit.


Lehrpersonen fragen sich:

„Was darf ich überhaupt zulassen?“ „Wie erkenne ich, ob ein Text von der Person stammt – oder von der Maschine?“ „Bin ich verpflichtet, KI zu thematisieren? Oder überfordere ich dann alle (mich inklusive)?“ „Was, wenn ich selbst zu wenig darüber weiss?“ „Wird meine Rolle durch KI entwertet?“


Lernende wiederum fragen sich:

„Muss ich das offenlegen, wenn ich GPT verwendet habe?“ „Ist es Schummeln, wenn ich mir von KI helfen lasse – oder einfach smart?“ „Was ist überhaupt noch meine eigene Leistung?“ „Warum reden wir im Unterricht nicht einfach offen darüber?“


Wer in der Weiterbildung unterrichtet, spürt: KI verändert gerade vieles – aber lässt uns oft ohne klare Rahmenbedingungen zurück. Zwischen Ethik, Didaktik, Bewertung und Datenschutz bleibt viel Raum für Interpretation – wohl noch zu viel.

 

Die Chancen: Wenn KI hilft, schneller zum Kern zu kommen.

Trotz aller Unsicherheit: KI kann das Lehren erleichtern – und das Lernen bereichern.

Beispiele aus der Praxis:

  • Strukturhilfe bei komplexen Themen: Argumentationslinien, Lernziele, Feedbackvorschläge.

  • Personalisierte Lernimpulse: GPT-Tools schlagen passende Reflexionsfragen oder Übungsformate vor.

  • Automatisierte Bausteine: Mini-Lektionen, Fallbeispiele, Lernkontrollen lassen sich innert Minuten generieren.

  • Lebenslange Lernbegleiter: Individuell ausgerichtete, persönliche Chatbots, welche über die absolvierten Lerneinheiten hinaus unterstützen können.

Klingt gut – ist es oft auch. Aber genau darin liegt die Herausforderung: KI kann glänzen. Und gleichzeitig blenden. Die Beurteilung muss daher immer beim Anwender sein - der Mensch ist der Chef.

 

Die Realität: Perfekte Texte, zweifelhafte Herkunft.

Ein Beispiel, das viele Lehrpersonen kennen:

Ein Lernender reicht seine Reflexion ein. Der Text ist sprachlich brillant – aber wirkt auffällig glatt. Auf Nachfrage bestätigt der Lernende, ChatGPT genutzt zu haben. Ohne Hinweis. Ohne Kontext. Ohne Quellen. Ohne Überarbeitung.

Was bleibt: Unsicherheit. Wie soll man das bewerten? Ist das noch Eigenleistung? Oder nur Copy-Paste? Könnte er es in einem Gespräch verargumentieren? Muss ich jetzt bei jeder kleinen schriftlichen Arbeit mit allen Lernenden auch noch Gespräche führen?

Solche Fälle sind keine Ausnahme mehr. Sie sind Alltag. Und sie verlangen nach Klarheit.

 

Die Schlüsselfrage:

Wie fördern wir verantwortungsvollen KI-Einsatz – ohne die positiven Aspekte von KI zu verhindern?

Denn: Ein Reflex, KI zu verbieten, bringt uns nicht weiter. Genauso wenig wie blinder Aktionismus. Was fehlt, ist ein gemeinsames Verständnis – und praktikable Regeln für die Bildung.

 

Was tun, wenn (noch) nichts geregelt ist?

Warten, bis ein offizielles Regelwerk kommt? Verständlich – aber nicht hilfreich. Die Herausforderungen sind bereits Realität.

Die pragmatische Alternative: Selbst beginnen. Im eigenen Unterricht. Mit einer einfachen Vereinbarung. Am besten in Absprache mit dem Bildungsinstitut.

Nicht perfekt. Aber transparent und ehrlich. Nicht als Verbot – sondern als Einladung zur Klarheit und als Entwicklungsweg gedacht. Diese praxisnah erprobten Vereinbarungen können zu zukunftsfähigen Regelwerken werden, welche auch für die Bildungsinstitute äusserst wertvoll sind. Sie könnten sich damit auch interessant positionieren.

 

Fünf Prinzipien für den Umgang mit KI – direkt umsetzbar im Unterricht:

1. Offen mit Unsicherheiten umgehen 👉 Du musst (noch) nicht alles wissen – aber Haltung zeigen.→ Erklär, was du erlaubst – und warum. Auch, was du noch klären musst.

2. KI-Nutzung sichtbar machen 👉 Keine Detektivarbeit, sondern Transparenzkultur.→ Lernende sollen offenlegen, ob und wie sie GPT genutzt haben (z. B. via Hinweis im Anhang, direkt im Text, oder einfacher mit einem automatischen Logfile).

3. Reflexion einfordern, nicht nur Ergebnisse 👉 Die eigentliche Leistung liegt oft im Denken über den Text.→ Lernende sollen zeigen, wie sie mit KI gearbeitet haben:

  • kurz notieren, was von GPT kam und was sie selbst verändert haben (kleines „Ethics Log“)

  • KI zuerst nur als Vorschlag nutzen und dann gemeinsam im Unterricht besprechen („Shadow Mode“)

  • Texte von GPT in Gruppen diskutieren: Was stimmt, was nicht, wo ist Bias drin?

4. Datenschutz ernst nehmen 👉 Nur Tools mit DSG-/DSGVO-Konformität nutzen.→ Keine persönlichen, vertraulichen Daten verwenden, Datenrückfluss verhindern.

5. Ziel ist Lernen – nicht Abkürzen 👉 KI soll Denken anregen, nicht ersetzen.→ Didaktische Faustregel: Nicht das Tool ist entscheidend, sondern die Eigenleistung. Dazu gehört auch die konkrete Art und Weise, wie man die KI nutzt. Und die Reflexion darüber.

 

Whitepaper „KI-Ethik“ – Orientierung für die Praxis

Ein Rahmen, der viele dieser Punkte systematisch aufgreift, ist das von uns zusammengetragene Whitepaper „KI-Ethik“. Es empfiehlt für die Erwachsenenbildung unter anderem:

  • Sichtbarkeit schaffen: Jede KI-Nutzung wird dokumentiert und kontextualisiert.

  • Verantwortung begleiten: Lehrpersonen unterstützen die Bewertung von GPT-Inhalten.

  • Reflexionsräume öffnen: Lernende zeigen auf, was übernommen, verändert oder verworfen wurde – und warum.

  • Datenhoheit wahren: Nur geprüfte, sichere Tools einsetzen.

  • Mensch im Zentrum halten: KI bleibt Assistenz – nicht Ersatz für Urteilsvermögen.

Klingt theoretisch? Hier ein paar direkt umsetzbare Praxisideen:

  • Ethics Logs: Kurze Kommentare bei KI-gestützten Textstellen („GPT-Vorschlag übernommen, weil…“)

  • Shadow-Coachings: GPT-Vorschläge gemeinsam mit Peers analysieren

  • Bias-Checks: Implizite Annahmen in GPT-Texten thematisieren

Hinweis: Das «Whitepaper KI-Ethik Erwachsenenbildung» kann gerne hier kostenlos bestellt werden: markus@willadvise.ch. Wir freuen uns über jedes Feedback!


Die Klassenvereinbarung als Einstieg

Du musst das Rad nicht neu erfinden. Eine einfache Klassenvereinbarung als Start kann schon viel klären – und Orientierung schaffen.

Sie beantwortet:

  • Was erlaubt ist

  • Was offengelegt werden muss

  • Wie wir mit KI im Lernprozess umgehen

  • Welche Rolle Reflexion und Eigenleistung spielen

  • Was bei Unsicherheit oder Täuschung geschieht

 

Fazit: Verantwortung heisst nicht, alles bereits zu wissen und regeln zu können – sondern pragmatisch nach bestem Wissen und Gewissen zu starten.

KI wird bleiben. Und sie wird noch besser werden. Aber Lernen bleibt menschlich. Und Lehren bedeutet: Orientierung geben – gerade dort, wo vieles noch offen ist. Deshalb dieser Artikel. Nicht als Regelwerk – sondern als Einladung, selbst Klarheit zu schaffen. Für sich. Für die Klasse, mit gesundem Menschenverstand. Für eine Bildung, die KI sinnvoll und zukunftsfähig einbezieht.

 
 
 

Comments


bottom of page