Lokale KI-Assistenten für eigene Projekte nutzen: entdecken Sie Ollama!
Künstliche Intelligenz ist nicht länger Zukunftsmusik – sie ist schon heute direkt auf Ihrem Rechner verfügbar!
Entdecken Sie Ollama, das Tool, mit dem Sie leistungsstarke Sprachmodelle lokal betreiben können. Das Beste daran? Es ist datenschutzfreundlich, flexibel und funktioniert sogar offline.
In diesem Workshop tauchen wir spielerisch in die Welt von Ollama ein und lernen dabei, wie Sie die API-Schnittstelle nutzen, um eigene KI-Projekte zu realisieren.
General information
- Einführung in Ollama und lokale LLMs
- Einrichtung und Nutzung in lokaler Umgebung
- Anbindung über API (z.B. in JavaScript)
- Grundkenntnisse im Umgang mit Terminal/Kommandozeile von Vorteil
- Installation von Ollama und die vom Kursleiter erstellten App Ollama-Spielwiese
- Zugriffsberechtigung auf das Terminal/Kommandozeile auf ihrem Computer (bei verwalteten Geräten bitte Rücksprache mit ihrem IT-Verantwortlichen)
Forschende, Lehrende, Bibliotheks- und Kulturmitarbeitende, die KI lokal testen oder einsetzen wollen
Installation von Ollama und die vom Kursleiter erstellten App Ollama-Spielwiese (https://github.com/NbtKmy/ollama-spielwiese/releases)
Bitte bringen Sie Ihren eigenen Laptop zum Workshop
Dates
Instructor | Dates | Available seats | Place | |
---|---|---|---|---|
Kamiya Nobutake |
Tue
04.11.2025
(10:00 - 12:00 o'clock)
|
9 | Digital Library Space (DLS) | Register |