Azure Lowlands 2024, is het evenement voor o.a. Cloud Engineers, Azure ontwikkelaars, AI Engineers- en enthousiastelingen. Nadat we in juni al bij Experts Live waren geweest stond deze keer Azure Lowlands op de planning. Ook dit event stond in het teken van Azure en AI. Samen met Christopher, Churendi en Tim was ik aanwezig en delen wij graag onze ervaringen en inzichten met jullie.
AI als nieuwe buddy?
De dag begon met de introductie van een op maat gemaakte AI-buddy, ontwikkeld door Cegeka, en de specifieke use-case waarvoor deze buddy ingezet wordt. Vervolgens doken we dieper in de wereld van AI-technologie. We zagen een indrukwekkende demo van Fabric-OpenAI en kregen een heldere uitleg over de architectuur van het GPT-algoritme. Daarnaast leerden we hoe de prompt flow werkt in Azure AI.
Na een eerste ronde sessies was het om 10:00 uur tijd voor de Keynote. Deze begon meteen zeer verrassend met een opening van de welbekende RollerBoys op een heuse halfpipe. ;) In de Keynote maakte Mark Rendle ons duidelijk hoe een klein foutje in de IT grote gevolgen kan hebben. Ook de bijbehorende kosten die zo’n foutje oplevert lijken er niet om te liegen.
Better together
Voor Tim en Churendi stonden de wat meer technische sessies op de planning. Zo gingen zij naar sessies die dieper ingingen op GitHub en Azure (better together), GenAI in Practice en Azure AI Deployments:
‘’De real world voorbeelden die werden gegeven waren erg verhelderend. Zo werd ook duidelijk hoe GitHub nu steeds meer een integratie heeft met Azure. Met de integratie van GitHub en Azure DevOps kunnen repositories en CI/CD-pipelines eenvoudig naar GitHub worden gemigreerd. Azure biedt uitgebreide ondersteuning voor GitHub Actions, waardoor ontwikkelaars geavanceerde workflows kunnen automatiseren.
Azure Static Web Apps integreert bijvoorbeeld naadloos met GitHub voor automatische implementaties. Bovendien biedt Azure's integratie met GitHub Advanced Security verbeterde beveiligingsfeatures zoals geheime detectie en code scanning. Ook de nieuwe mogelijkheden van Azure Service Bus, Azure Event Grid, en Azure Event Hubs voor berichtverwerking waren indrukwekkend. Tot slot werd besproken hoe een private Copilot Azure instance niet automatisch veilig is en wat erbij komt kijken om ervoor te zorgen dat dit wel het geval is. De belangrijkste trend was de toenemende toepassing van AI, met speciale aandacht voor Copilot.’’
Na deze intensieve maar zeer leerzame sessies luisterden we nog naar een praktijkcase. Hierin werd verteld hoe het UMC gebruik maakt van LLM's (Large Language Models) om ontslagbrieven voor patiënten te schrijven, wat hen enorm veel tijd bespaart.
Onze laatste sessie was degene waar we het meest naar uitkeken. Tijdens deze sessie leerden we hoe we zelf een Copilot kunnen bouwen in Copilot Studio. Dit is ook iets waar we zelf mee willen experimenteren en waar we jullie van op de hoogte willen houden in een nieuwe serie blogs. Dus, stay tuned!