Maak jij als DevOps engineer graag gebruik van ChatGPT, maar mag dat niet op je werk vanwege beleid of gevoelige data? Ben je benieuwd hoe je je eigen Large Language Model (LLM) kunt hosten?
In de eendaagse workshop Generatieve AI voor DevOps Engineers bij AT Computing leer je hoe je je eigen lokale versie van ChatGPT opzet en gebruikt. Alles gebeurt volledig op basis van open-source technologiezonder dataverkeer naar de cloud.
Door het volgen van deze cursus voldoe je direct aan de eisen vanuit de EU AI Act op het gebied van AI Geletterdheid: risicos, privacy, het delen van data, model bias en hallucinaties worden allemaal uitgebreid behandeld. Zo vergroot je niet alleen je praktische vaardigheden, maar blijf je ook volledig compliant met de nieuwe regelgeving.
De dag start met een introductie in Generatieve AI: welke LLMs zijn er beschikbaar en hoe zet je ze in? Daarna duiken we in de hardwarekant, waaronder GPU-acceleratie op virtuele machines en in containers.
Met diverse praktijkoefeningen richt je je eigen LLM-server in en maak je zelfs een eigen model. Je leert ook hoe je een webgebaseerde client koppelt aan je LLMzodat je in feite je eigen ChatGPT-clone bouwt.
Daarnaast ontdek je hoe je de LLM-API koppelt met Python, Retrieval Augmented Generation (RAG) toepast om met je eigen documenten te werken, afbeeldingen analyseert en zelfs loganalyse uitvoert met je LLM.