Live-Webinar: Run Your Own LLM – Private AI Infrastructure
In diesem Live-Webinar zeigen wir Ihnen, wie Sie ein Large Language Model (LLM) sicher und leistungsfähig in Ihrem eigenen Rechenzentrum betreiben.
Gerade für Unternehmen, bei denen Datensicherheit, Compliance und Governance zentrale Anforderungen sind, bietet der lokale Betrieb entscheidende Vorteile:
- volle Kontrolle über sensible Daten
- klare Zugriffsregelungen
- Einhaltung regulatorischer Vorgaben
Im ersten Teil geben wir einen Überblick über den Hardware- und Softwareaufbau der Lösung auf Basis der HPE Private Cloud AI-Plattform und erläutern die wichtigsten Komponenten sowie die grundlegende Architektur.
Im zweiten Teil zeigen wir, wie eine Private-Cloud-AI-Umgebung funktioniert, wie ein Large Language Model (LLM) angebunden werden kann und welche Benutzeroberflächen – beispielsweise Open WebUI – für die Nutzung zur Verfügung stehen.
Sie erhalten einen fundierten Einblick in eine realistische On-Premises-AI-Architektur – von der Infrastruktur bis zur kontrollierten Nutzung im Unternehmen.
Ein Webinar für alle, die verstehen wollen, wie ein LLM im eigenen Rechenzentrum betrieben wird.
Live-Webinar
Datum: Dienstag, 21.04.2026
10:45 - 11:30 Uhr
Agenda
1.
Begrüssung & Einleitung
Roland Marti, Head of Marketing, BitHawk AG
2.
Overview HPE Private Cloud AI
Nafisa Patzke, Private Cloud AI Specialist, HPE
3.
Demo: Einfach private LLMs nutzen
Dominic Viola, Solution Architect, HPE
4.
Fragen & Antworten, Abschluss
Roland Marti, Head of Marketing, BitHawk AG
Referenten
Nafisa Patzke
HPE
Dominic Viola
HPE
Roland Marti
BitHawk AG