<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Ollama on BSS Blog</title><link>https://blog.binarysystem.services/tags/ollama/</link><description>Recent content in Ollama on BSS Blog</description><generator>Hugo -- gohugo.io</generator><language>de-de</language><lastBuildDate>Tue, 03 Feb 2026 00:00:00 +0000</lastBuildDate><atom:link href="https://blog.binarysystem.services/tags/ollama/index.xml" rel="self" type="application/rss+xml"/><item><title>Lokale KI im Homelab: Ollama, Open WebUI und eigene Modelle betreiben</title><link>https://blog.binarysystem.services/posts/lokale-ki-homelab/</link><pubDate>Tue, 03 Feb 2026 00:00:00 +0000</pubDate><guid>https://blog.binarysystem.services/posts/lokale-ki-homelab/</guid><description>Warum lokale KI im Jahr 2026 relevant ist Der Trend ist eindeutig: Immer mehr Unternehmen und technikaffine Privatpersonen verlagern ihre KI-Workloads vom Cloud-Anbieter auf eigene Hardware. Der Grund ist nicht nur Kostenersparnis – es geht um Datensouveränität, DSGVO-Konformität und die schlichte Tatsache, dass man nicht möchte, dass sensible Anfragen auf fremden Servern landen.
Laut einer Bitkom-Studie aus 2025 nutzen bereits 38 Prozent der deutschen Unternehmen KI-gestützte Tools produktiv. Gleichzeitig nennen 61 Prozent Datenschutzbedenken als größtes Hindernis bei der Einführung cloudbasierter KI-Dienste.</description></item></channel></rss>