Aktuelles Wissen abgleichen, KI verstehen, Datenschutz beachten und die richtigen Tools für Ihren Schulalltag finden.
Workshop-Inhalte entdecken ↓Von regelbasierten Systemen über maschinelles Lernen bis hin zu Generativer KI — eine Einordnung der Begriffe und Konzepte.
Künstliche Intelligenz ist kein mysteriöses Wesen, sondern ein mächtiges Werkzeug, das uns bei bestimmten Aufgaben unterstützt. Wie jedes Werkzeug muss man lernen, es richtig einzusetzen, um gute Ergebnisse zu erzielen. Die entscheidende Frage ist nicht, ob KI „intelligent" ist, sondern ob sie für die jeweilige Aufgabe nützlich ist. Dabei unterscheiden wir zwischen starker KI (AGI) — die bisher nur in Science-Fiction existiert — und schwacher KI, die auf spezifische Aufgaben spezialisiert ist und bereits unseren Alltag durchdringt.
Schwache KI löst genau definierte Aufgaben besser als Menschen — von Schachcomputern bis hin zu Spamfiltern. Sie sucht dabei nach etwas „Langweiligem und Repetitivem", denn genau dort liegt ihre Stärke. Deep Blue besiegte Kasparov 1997 beim Schach, konnte aber nichts anderes. Jede KI-Anwendung, die Sie heute nutzen — Sprachassistenten, Übersetzungstools, Bilderkennungssoftware — gehört zur schwachen KI.
Im Kern ist KI nichts anderes als Mustererkennung in sehr großen Datenmengen. Ob in Bildern, Texten, Spam-E-Mails oder historischen Daten — die Maschine lernt, Muster zu identifizieren und daraus Vorhersagen abzuleiten. Eine KI, die reife von unreifen Bananen unterscheidet, erreicht 99,6 % Genauigkeit — nicht weil sie „versteht", was eine Banane ist, sondern weil sie Millionen von Pixelmustern gelernt hat. Dieses Prinzip liegt allen modernen KI-Anwendungen zugrunde.
Der entscheidende Sprung: Generative KI (GenAI) erkennt nicht nur Muster, sie imitiert sie und erzeugt damit Neues. Sie generiert Texte, Bilder, Audio, Video und sogar lauffähigen Programmcode. Dieses „Vibe Coding" — Programmierung durch natürliche Sprache — verändert gerade die Softwareentwicklung grundlegend. Generative KI ist der Motor hinter ChatGPT, DALL-E, Midjourney und vielen weiteren Tools, die in den letzten Monaten die Arbeitswelt transformieren.
Large Language Models wie ChatGPT sind gigantische neuronale Netze, die auf riesigen Textmengen trainiert wurden — und Wort für Wort vorhersagen, was als Nächstes kommt.
Ein LLM arbeitet wie eine extrem leistungsfähige Textvorhersage. Wenn Sie eingeben „Schreibe einen touristischen Text über Paris", berechnet das Modell für jedes mögliche nächste Wort eine Wahrscheinlichkeit. „Ist" könnte mit 45 % das wahrscheinlichste nächste Wort sein, „Trompete" nur mit 0,003 %. So entsteht Wort für Wort ein zusammenhängender Text. Dieser Prozess wird autoregressive Generierung genannt — jedes neu erzeugte Wort wird zum Input für das nächste.
LLMs werden auf riesigen Mengen von Internet-Texten trainiert und zusätzlich mit menschlichem Feedback verfeinert (RLHF). In einem zweiten Schritt — dem Fine-Tuning — lernt das Modell, auf Fragen sinnvoll zu antworten, statt nur Text zu vervollständigen. Durch „Destillation" können große Modelle ihr Wissen an kleinere, effizientere Modelle weitergeben. So entstehen kompakte Modelle, die auf Smartphones laufen, aber trotzdem brauchbare Ergebnisse liefern.
LLMs haben keine „Bedeutung" und kein echtes Faktenwissen — sie erzeugen statistisch plausible Wortfolgen. Das führt zu Halluzinationen: Antworten, die überzeugend klingen, aber falsch sein können. Ein LLM erfindet mit Überzeugung Quellen, Zitate und Fakten, die nicht existieren. Die goldene Regel: Haben Sie immer die richtige Erwartungshaltung. Prüfen Sie Fakten, hinterfragen Sie kausale Zusammenhänge, und vertrauen Sie nicht blind auf KI-generierte Inhalte.
Bevor ein LLM Text verarbeiten kann, wird er in Tokens zerlegt — Wortteile, die das Modell als Zahlenwerte versteht. Das Wort „Banane" wird beispielsweise in die Tokens „Ban" und „ane" aufgeteilt. Jeder Token hat einen numerischen Vektor, der seine Bedeutung im hochdimensionalen Raum repräsentiert. Diese Tokenisierung bestimmt auch die Kosten: KI-Dienste rechnen nach verbrauchten Tokens ab. Auf platform.openai.com/tokenizer können Sie selbst ausprobieren, wie Ihr Text in Tokens zerlegt wird.
Probieren Sie ein LLM selbst aus unter chat.go-institut.com. Stellen Sie Fragen, testen Sie verschiedene Formulierungen und beobachten Sie, wie sich die Antwortqualität mit präziseren Prompts verändert. Achten Sie darauf, wo das Modell sicher antwortet und wo es ins Halluzinieren gerät.
Bessere Prompts führen zu besseren Antworten. Mit der ROCKET-Methode strukturieren Sie Ihre Eingaben systematisch für optimale Ergebnisse.
Zwei Grundregeln: Seien Sie spezifisch und definieren Sie eine Rolle. Je konkreter Ihre Eingabe, desto besser die Antwort. Ein „Du bist Albert Einstein" verändert die gesamte Antwortperspektive fundamental.
Definieren Sie, wer die KI sein soll. Beispiel: „Du bist ein erfahrener Senior Marketing Strategist mit 20 Jahren Erfahrung in der Beratung von Handwerksbetrieben." Die Rollendefinition gibt dem Modell den fachlichen Kontext und beeinflusst Vokabular, Tiefe und Perspektive der Antwort maßgeblich.
Formulieren Sie klar, was die KI tun soll. „Erstelle ein grobes Marketing-Konzept für das erste Geschäftsjahr eines neu gegründeten Baumpflege-Betriebs." Je konkreter die Aufgabe, desto zielgerichteter das Ergebnis. Vermeiden Sie vage Formulierungen wie „hilf mir mit Marketing".
Liefern Sie Hintergrundinformationen: Region, Budget, Team, Branche. Der Kontext hilft der KI, Empfehlungen auf Ihre tatsächliche Situation zuzuschneiden. Ohne Kontext gibt die KI generische Antworten, die selten direkt anwendbar sind.
Geben Sie konkrete Beispiele oder Wissensbasis mit. Beschreiben Sie Ihre Zielgruppe: „Hausbesitzer über 50 Jahre, denen Sicherheit und der Erhalt ihrer Bäume wichtiger sind als der günstigste Preis." Beispiele verankern die Antwort in der Realität.
Sagen Sie der KI, was sie NICHT tun soll. „Vermeide allgemeine Marketing-Floskeln. Schlage keine teure TV- oder Radio-Werbung vor." Ausschlüsse verhindern Standardantworten und lenken die KI hin zu innovativen, passgenauen Lösungsvorschlägen.
Bestimmen Sie Ausgabeformat und Tonfall. „Gib das Konzept in einer klaren Struktur mit Bulletpoints. Der Tonfall sollte professionell, vertrauenerweckend und pragmatisch sein." Format-Anweisungen sparen Nachbearbeitung und machen die Ausgabe direkt verwertbar.
Noch einfacher: Bitten Sie die KI selbst, einen ROCKET-Prompt für Ihr Thema zu erstellen. Eingabe: „Erstelle mir einen ROCKET-Prompt zum Thema: Marketing-Konzept für ein Energie Meter-to-Cash Unternehmen." Die KI generiert dann einen strukturierten Prompt, den Sie nur noch anpassen müssen. So lernen Sie die Methode beim Anwenden.
💬 Tipp — Sprechen statt Tippen: Nutzen Sie die Spracheingabe! Auf dem Mac drücken Sie 2× die Control-Taste, auf Windows H + Windows-Taste. Auch Bildschirmausschnitte können Sie direkt als Input verwenden (Mac: Shift+Control+Cmd+4, Windows: Shift+S+Windows).
ChatGPT ist mehr als ein Chatbot — hinter dem „+" verbergen sich mächtige Features für Recherche, Bildgenerierung, Coding und mehr.
Laden Sie Bilder, PDFs und andere Dateien direkt hoch, damit ChatGPT sie analysieren oder daraus Inhalte erstellen kann. Das ist der einzige Weg, eigene Dateien als Input zu nutzen. Sie können Rechnungen auswerten lassen, Bilder beschreiben, Tabellen analysieren oder Textdokumente zusammenfassen — alles direkt im Chat.
Generieren Sie neue Bilder aus Text mit DALL-E. Im Unterschied zur Internetsuche holt diese Funktion nichts aus dem Web, sondern erschafft visuelle Inhalte von Grund auf. Ideal für Social-Media-Grafiken, Präsentationsbilder oder kreative Konzeptvisualisierungen — ohne Grafikdesign-Kenntnisse.
Die Internetsuche findet schnell aktuelle Informationen im Web. Deep Research hingegen führt eine gründlichere, mehrstufige Recherche mit Quellenarbeit durch — langsamer, aber deutlich tiefgehender. Für schnelle Faktenprüfung nutzen Sie die Internetsuche, für komplexe Analysen und Berichte greifen Sie zu Deep Research.
Reasoning-Modelle „denken" in mehreren Schritten nach und lösen damit komplexere Aufgaben. ChatGPT bietet außerdem einen Operator-Modus, der autonome KI-Agenten startet, die mehrstufige Aufgaben selbstständig erledigen. Der Canvas-Bereich ermöglicht strukturiertes Arbeiten an Texten und Code — ähnlich einem Word-Dokument direkt im Chat.
Erstellen Sie benutzerdefinierte GPTs für wiederkehrende Aufgaben — mit eigener System-Rolle, eigenem Wissen und spezifischen Instruktionen. Claude bietet „Projects", Google hat „Gems". Führen Sie ein Prompt-Logbuch: Dokumentieren Sie Ihre besten Prompts, damit Sie sie wiederverwenden und kontinuierlich verbessern können. Was einmal gut funktioniert hat, sollte nicht verloren gehen.
ChatGPT hilft beim Produktvergleich und gibt Kaufempfehlungen. Die Lern-Funktion unterstützt mit Erklärungen, Übungen und Zusammenfassungen. Quiz-Funktionen erstellen interaktive Testfragen zum Üben. Über den Apps-Bereich finden Sie zusätzliche spezialisierte Tools und Erweiterungen, die das Basismodell um Fachfunktionen erweitern.
Der Unterschied zwischen einem KI-Chat, Workflows, Agenten und Multi-Agenten-Systemen — und wann Sie was einsetzen.
| Merkmal | KI Chatsystem | Agentic AI |
|---|---|---|
| Kernfunktion | Reaktiv: Antwortet auf Prompts | Proaktiv: Führt Aufgaben aus, um ein Ziel zu erreichen |
| Autonomie | Gering — jeder Schritt braucht neue Eingabe | Hoch — arbeitet Aufgaben selbstständig ab |
| Integration | Meist isoliert (z.B. Browser) | Integriert in CRM, E-Mail, Datenbanken |
| Fehlerkorrektur | Durch den Nutzer | Im System selbst |
| Anwendung | Brainstorming, Wissensabfragen | Mehrstufige Workflows, Automatisierung |
Agentic Workflows verbinden LLMs über APIs mit externen Systemen. Jeder Schritt wird per Algorithmus gesteuert — Input-Tokens rein, Output-Tokens raus. Mit Tools wie n8n.com bauen Sie visuelle Workflows, die E-Mails verarbeiten, Datenbanken abfragen oder Dokumente automatisch weiterleiten. Die Token-Kosten können Sie auf byte.de/rechner/llm-kosten berechnen.
Im Gegensatz zu Workflows entscheidet ein KI-Agent selbst, welchen nächsten Schritt er ausführt. Er wählt eigenständig aus einer Liste von Werkzeugen (Tools) und arbeitet probabilistisch statt deterministisch. Das macht ihn ideal für offene Aufgabenstellungen wie Support-Anfragen, ist aber teurer (Reasoning-Kosten) und weniger vorhersehbar als ein fester Workflow.
Mehrere spezialisierte Agenten arbeiten zusammen — ein Agent recherchiert, ein anderer schreibt, ein dritter prüft. Multi-Agenten-Systeme sind die Königsdisziplin der KI-Automatisierung. Sie eignen sich für komplexe Geschäftsprozesse, in denen verschiedene Kompetenzen zusammenspielen müssen. Der Mensch gibt das Ziel vor und bekommt das Ergebnis.
| Merkmal | KI Workflow | KI Agent |
|---|---|---|
| Steuerung | Deterministisch: Feste Pfade & Regeln | Probabilistisch: Agent entscheidet selbst |
| Vorhersehbarkeit | Hoch | Geringer |
| Kosten | Effizienter, gezielte Prompts | Teurer (Agent nutzt Reasoning) |
| Ideal für | Standardisierte Prozesse (z.B. RE-Verarbeitung) | Offene Aufgaben (z.B. Support) |
| Metapher | Montagelinie in der Fabrik mit KI-Stationen | Freiberuflicher Experte mit eigenem Werkzeugkasten |
Von unten nach oben: zunehmende Autonomie, Komplexität und Kosten
Drei Wege, wie Sie Ihre eigenen Daten in KI-Systeme integrieren — vom einfachen Copy-Paste bis zur intelligenten Vektordatenbank.
Die einfachste Methode: Kopieren Sie relevante Informationen direkt in den Prompt. Fügen Sie Texte, Tabellen oder Ausschnitte aus Dokumenten ein und stellen Sie dann Ihre Frage dazu. Diese Methode eignet sich für einmalige Anfragen mit überschaubarer Datenmenge. Nachteil: Bei jeder neuen Sitzung müssen die Daten erneut eingegeben werden, und die Kontextlänge des Modells begrenzt die Datenmenge.
Über eine strukturierte Anbindung kann ein KI-Agent direkt auf Ihre Datenbanken zugreifen. Die Eingabe wird vom System in eine SQL-Abfrage umgewandelt, die relevanten Daten werden als Kontext an das LLM übergeben. So können Sie natürliche Fragen stellen wie „Wie viele Schüler sind im Jahrgang 10 angemeldet?" und erhalten Antworten basierend auf Ihren Echtdaten — immer aktuell und ohne manuelles Copy-Paste.
RAG ist die eleganteste Lösung: Ihre Dokumente werden in einer Vektordatenbank als Embeddings gespeichert. Bei jeder Anfrage durchsucht das System automatisch die relevantesten Passagen und gibt sie als Kontext an das LLM weiter. So kann die KI präzise auf Ihr Schulwissen zugreifen — von Verwaltungsrichtlinien über Lehrpläne bis hin zu internen Protokollen — ohne dass sensible Daten ins Training des Modells einfließen.
Ein Blick unter die Haube: Wie neuronale Netze durch Gewichte und Schichten lernen, Muster zu erkennen und Entscheidungen zu treffen.
Ein neuronales Netz besteht aus Eingabeschicht (Input), versteckten Schichten (Hidden Layers) und Ausgabeschicht (Output). Jede Verbindung zwischen Neuronen hat ein Gewicht — eine Zahl, die bestimmt, wie stark ein Signal weitergeleitet wird. Durch Multiplikation und Addition dieser Gewichte „berechnet" das Netz seine Antwort. Ein einfaches Beispiel: 0,41 × 0,83 = 0,34 — so entsteht aus Pixelwerten die Erkennung „Banane reif".
Das Training verläuft in drei Phasen: Zuerst werden Trainingsdaten durch das Netz geschickt und die Gewichte angepasst, bis die richtigen Ergebnisse herauskommen. Dann wird mit Testdaten geprüft, ob das Netz auch bei unbekannten Daten funktioniert. Schließlich kommt der Einsatz in der realen Welt — hier zeigt sich, ob das Modell gut generalisiert oder nur auswendig gelernt hat. Bei einem Bananen-Klassifizierer erreicht man so 98 % Treffsicherheit.
GANs bestehen aus zwei konkurrierenden Netzen: Ein Generator erzeugt Fälschungen, ein Diskriminator versucht sie zu entlarven. Durch dieses „Katz-und-Maus-Spiel" werden die generierten Inhalte immer realistischer. GANs sind die Technologie hinter Deepfakes und fotorealistischen KI-Bildern. Sie können Gesichter erzeugen, die nie existiert haben, oder Bilder in verschiedene Kunststile transformieren.
Das Spannungsfeld zwischen KI-Nutzung und Datenschutz — und warum eine goldene Regel reicht, um die meisten Probleme zu vermeiden.
KI braucht Daten, um nützlich zu sein. Datenschutz verlangt Datensparsamkeit. In der Schulverwaltung ist dieses Spannungsfeld besonders brisant: Schülerdaten, Noten, Personaldaten — all das darf nicht unkontrolliert in KI-Systeme fließen. Gleichzeitig bieten genau diese Daten das größte Optimierungspotenzial. Die Lösung liegt nicht im Verzicht, sondern im bewussten Umgang.
Die größte Gefahr: Mitarbeitende kopieren personenbezogene Daten in ChatGPT, Claude oder Copilot — bei Textformulierungen, Bildbearbeitung, Rechnungen, Klassenlisten oder Reden. Jede dieser Eingaben wird potenziell auf externen Servern gespeichert und könnte in zukünftige Trainingsdaten einfließen. Ein einziger unüberlegter Prompt kann einen Datenschutzvorfall auslösen.
„Was man einer externen Person nicht schicken darf, darf auch nicht in ein ungesichertes KI-Tool."
Jede Schule und Organisation braucht einen KI-Leitfaden, der klare Regeln definiert: Welche Daten dürfen in welche Tools? Wer hat Zugriff auf KI-Systeme mit sensiblen Daten? Wie werden KI-generierte Inhalte gekennzeichnet? Ein Leitfaden schafft Rechtssicherheit und gibt Mitarbeitenden Orientierung, statt sie mit vagen Verboten zu verunsichern.
Die EU hat mit dem AI Act den weltweit ersten umfassenden Rechtsrahmen für KI geschaffen. Das Gesetz klassifiziert KI-Systeme nach Risikostufen — von minimal bis inakzeptabel. Für die Schulverwaltung relevant: KI-Systeme, die Entscheidungen über Personen treffen (z.B. Notenvorschläge, Personalplanung), fallen in die Kategorie „hohes Risiko" und unterliegen strengen Transparenz- und Dokumentationspflichten.
Wenn KI-Systeme auf sensible Daten zugreifen, muss jeder auf Zugriffsrechte achten. Nicht jeder Mitarbeitende braucht Zugang zu allen Daten. Implementieren Sie rollenbasierte Zugriffskonzepte und prüfen Sie regelmäßig, wer worauf zugreifen kann. Besonders bei RAG-Systemen ist entscheidend, dass die KI nur die Dokumente durchsucht, für die der jeweilige Nutzer berechtigt ist.
Von der Unternehmensstrategie über die KI-Roadmap bis zur priorisierten Umsetzung — der systematische Weg zur KI-fähigen Organisation.
Der erste Schritt ist eine systematische Bestandsaufnahme: Wo liegen die „Nervenden", Zeitfresser und wiederkehrenden Routinen? Wo gibt es Effizienzhebel und Potenzial zur Qualitätssteigerung? Wo können bestehende Stärken der Schule durch KI ausgebaut werden? Eine individuelle KI-Roadmap verbindet diese Potenziale mit konkreten Maßnahmen und Zeitplänen für die gesamte Organisation.
Nicht alles auf einmal: Bewerten Sie die identifizierten KI-Potenziale nach Nutzen, Kosten, Reifegrad und Risiko. Beginnen Sie mit „Low Hanging Fruits" — Use Cases mit hohem Nutzen und geringer Komplexität. Ein persönlicher KI-Assistent für E-Mails oder automatische Mediengenerierung sind typische Quick Wins, die sofort Entlastung bringen und Akzeptanz für weitere Schritte schaffen.
Die technische Basis entscheidet über Erfolg oder Scheitern. Die Standard-Lösung: Microsoft Copilot als KI-Plattform, integriert mit bestehenden Office-Tools und Wissensquellen, ergänzt um n8n für Automatisierungen. Die Alternative für mehr Kontrolle: Open WebUI als eigenes Frontend mit eigenen KI-Modellen und n8n für die Automatisierung — volle Datensouveränität bei vergleichbarer Funktionalität.
Konkrete Anwendungsfälle, die Sie sofort umsetzen können — von Service-Chats über Dokumentenmanagement bis hin zu KI-Coding.
Ein KI-basierter Service-Chat (Agent) kann als erste Anlaufstelle für Anfragen dienen — als Text und als Sprachassistent. Er greift auf eigene Daten zu und beantwortet Standardfragen automatisch: Öffnungszeiten, Formulare, Abläufe, häufige Fragen. Erst bei komplexen Anliegen wird an einen Menschen weitergeleitet. Die Plattform BylKI zeigt, was speziell für bayerische Lehrkräfte möglich ist.
Automatisierte Dokumentenverarbeitung spart Stunden: Eingehende Dokumente werden automatisch klassifiziert, relevante Informationen extrahiert, an die richtigen Stellen weitergeleitet und bei Bedarf anonymisiert. Gutachten können mit KI-Unterstützung erstellt werden — nicht als Ersatz für fachliche Bewertung, sondern als Strukturhilfe, die Formulierungen vorschlägt und Konsistenz sicherstellt.
KI kann bei der Personalplanung und Zeiterfassung unterstützen — inklusive einer Fairness-Analyse, die sicherstellt, dass Belastungen gleichmäßig verteilt werden. Algorithmen erkennen Ungleichverteilungen, die dem menschlichen Auge entgehen, und schlagen optimierte Pläne vor. Transparenz ist hier entscheidend: Die KI begründet ihre Vorschläge nachvollziehbar.
Von der Idee zum fertigen Post in Minuten: KI generiert Texte, Bilder und sogar Videos für die Öffentlichkeitsarbeit der Schule. Mit Tools wie Sora (OpenAI) oder Veo 3 (Google) erstellen Sie dramatische Kurzvideos, mit HeyGen Avatare, und mit Canva oder Google Stitch professionelle Designs — alles ohne Agentur und ohne Grafikdesign-Kenntnisse.
KI erstellt Präsentationen aus Stichpunkten und protokolliert Besprechungen automatisch. Statt Stunden in PowerPoint zu verbringen, geben Sie Ihre Kernpunkte ein und erhalten eine fertige Präsentation. Gesprächsprotokolle werden in Echtzeit erstellt, zusammengefasst und nach Themen geordnet — niemand muss mehr nebenbei mitschreiben.
Der Trend 2025/26: „Build Your Own Software" — mit KI-Coding-Tools wie Lovable, Replit oder ChatGPT Codex erstellen auch Nicht-Programmierer funktionsfähige Anwendungen. Dazu kommt der Trend zu „AI Agent OS" — Betriebssysteme, in denen KI-Agenten zentral verwaltet werden und eigenständig Aufgaben erledigen.
Rufen Sie jetzt den KI-Voicebot an und sprechen Sie mit ihr: +49 89 628 28 919
Tipp: Verhalten Sie sich ganz normal — die KI versteht natürliche Sprache und antwortet in Echtzeit.
Microsoft integriert KI in seine gesamte Produktpalette — von Copilot in Office bis hin zu Azure AI Services.
Die Microsoft KI-Welt umfasst Copilot in Microsoft 365 (Word, Excel, PowerPoint, Outlook, Teams), Azure OpenAI Service für Unternehmen, Copilot Studio zum Erstellen eigener KI-Agenten, und Microsoft Fabric für Datenanalyse mit KI. Für Schulen besonders relevant: Copilot arbeitet innerhalb der bestehenden Microsoft-Infrastruktur und respektiert vorhandene Berechtigungsstrukturen. Daten bleiben im Microsoft-Tenant und fließen nicht in das Training externer Modelle.
Von Chat-Systemen über Bild- und Videogeneratoren bis hin zu Coding-Tools — die aktuelle KI-Landschaft auf einen Blick.
📱 KI auf dem Handy: Alle großen Anbieter haben Apps — achten Sie darauf, nur die offiziellen Apps zu installieren (OpenAI für ChatGPT, Anthropic für Claude, Google für Gemini). Meta AI ist direkt in WhatsApp integriert. Google Gemini ersetzt auf Android-Phones den Google Assistant — tippen Sie auf „Gemini LIVE" für Sprachgespräche in Echtzeit.
Wohin die Reise geht — die zwei großen Trends, die alles verändern werden.
Der Trend zur Eigenentwicklung: Mit KI-Coding-Tools erstellen Fachabteilungen eigene Anwendungen — ohne IT-Abteilung, ohne Programmierkenntnisse. Von einfachen Formularen bis hin zu vollständigen Workflow-Anwendungen entsteht Software durch natürliche Sprache. Das verändert, wer in Organisationen Software entwickelt und wie schnell maßgeschneiderte Lösungen entstehen.
Das nächste Level: Betriebssysteme, die KI-Agenten als zentrale Arbeitskräfte verwalten. Statt einzelner Tools und Chatbots orchestriert ein Agent OS mehrere spezialisierte KI-Agenten, die zusammenarbeiten — E-Mail-Agent, Recherche-Agent, Dokumenten-Agent. Der Mensch gibt Ziele vor, die Agenten erledigen den Rest. OpenClaw ist ein Beispiel für diesen Ansatz.
Sämtliche im Workshop erwähnten Tools, Plattformen und Ressourcen — thematisch geordnet zum Nachschlagen.
📥 Präsentation herunterladen: Workshop-Präsentation als PDF (Google Drive)
GO! Institut — Innere Wiener Straße 13, 81667 München
Ihr Trainer: Manuel Gollner