Let op! Internet Explorer wordt niet meer ondersteund. Hierdoor kan de website mogelijk niet goed functioneren, gebruik een alternatieve browser om optimaal gebruik te maken van deze website. Klik hier om een alternatieve browser te downloaden.

20 maart 2025 • Leestijd 4-5 minuten

Wat doen wij eigenlijk met AI?

“Gebruiken jullie AI?” Deze vraag horen we steeds vaker. Het antwoord is (uiteraard) ja! Maar wat betekent dat voor ons? AI is een integraal onderdeel geworden van onze manier van werken. Toch gebruiken we AI waarschijnlijk op een manier die voor velen niet direct voor de hand ligt. Voor ons draait het namelijk om twee essentiële aspecten: het genereren van waardevolle inzichten en het beschermen van gevoelige informatie.

Kan AI ons vervangen? Op dit moment zeker niet. Wij zien AI als Additionele Intelligentie die vooral onze rol als toekomstarchitecten verandert. Onze stelling: “Als je antwoorden hebt, bezit je kennis. Als je de juiste vragen stelt, beschik je over intelligentie” is relevanter dan ooit.

AI in ons trend- en benchmarkonderzoek

Een van de eerste toepassingen van AI in ons werk is trend- en branchmarkonderzoek. We leven in een wereld die continu verandert, met nieuwe ontwikkelingen die voortdurend opduiken. Om een stap voor te blijven, moet je niet alleen begrijpen wat er nu speelt, maar ook wat er mogelijk aankomt. Vooral bij het analyseren van de huidige situatie speelt AI een belangrijke rol.

Door AI te integreren in ons onderzoek kunnen we gegevens sneller verwerken, patronen herkennen en diepere inzichten verkrijgen. Voorheen was het een tijdrovend proces om gegevens uit verschillende bronnen te verzamelen en te vergelijken. Nu helpt AI ons om de meest relevante signalen uit bronnen te filteren, te categoriseren en te verwerken in onze maandelijkse analyses. Vooral repetitieve taken, zoals het samenvatten van trendsignalen voor presentaties en het opstellen van speakernotes, kan AI uitstekend uitvoeren.

Betekent dit dat AI ons volledige werk overneemt? Zeker niet. AI is goed in structurele en repetitieve taken, maar minder geschikt voor het interpreteren van kwalitatieve inzichten of het zien van non-lineaire verbanden. Doordat AI veel repetitieve taken overneemt, kunnen wij meer tijd besteden aan de diepere vraag: Wat betekent deze ontwikkeling nu precies voor onze klant? Dit is waar onze klanten echt van profiteren.

Het gebruik van lokale modellen: veiliger, maar minder krachtig

Wij gebruiken AI op een manier die niet veel anderen doen. Hoewel we abonnementen hebben bij OpenAI en Anthropic, kunnen we die niet altijd benutten. Voor ons draait het niet alleen om snelheid en efficiëntie, maar ook om de bescherming van de gegevens die we van klanten ontvangen. Dit zijn vaak interne documenten waarmee we vertrouwelijk moeten omgaan.

Daarom experimenteren we met lokale AI-modellen. Dit lijkt misschien een extra stap, maar het biedt ons de controle en veiligheid die we nodig hebben. Door AI-modellen lokaal op onze eigen server te draaien, blijven alle gegevens binnen onze eigen infrastructuur en hoeven we deze niet bloot te stellen aan externe partijen. Dit geeft zowel ons als onze opdrachtgevers een gevoel van zekerheid.

Bovendien is het interessant om de verschillen te zien tussen lokale taalmodellen zoals Llama 3.1, DeepSeek en Mistral bij het beantwoorden van exact dezelfde vraag. Afhankelijk van het aantal parameters per model en de trainingsdata kunnen we bepalen welk model het beste aansluit bij ons werk en de betreffende opdracht.

Retrieval Augmented Generation (RAG) als analysetool

Momenteel experimenteren we met RAG (Retrieval Augmented Generation). Deze technologie stelt ons in staat om gerichte informatie uit bronnen op te halen voor analyse. Elke bron die we aan onze knowledgebase toevoegen, wordt door een zogenaamd embeddingsmodel in stukken gehakt en in een database opgeslagen. Wanneer we een vraag stellen, selecteert het embeddingsmodel de tekstfragmenten die het beste passen bij de vraag en voedt deze aan een taalmodel als context, dat op basis daarvan een antwoord formuleert. Dit stelt ons in staat om diepere, relevantere antwoorden te genereren op complexe vraagstukken, terwijl de documenten binnen onze eigen infrastructuur blijven.

Ben je geïnteresseerd in hoe het werkt? Bekijk dan onderstaande video.

Echter hebben lokale modellen wel hun beperkingen. De kracht van AI komt pas volledig tot zijn recht bij het gebruik van de enorme kracht van online modellen zoals ChatGPT en Claude. Deze leveren vaak betere inzichten. Lokale modellen hebben daarentegen meer moeite met het genereren van de juiste inzichten en zijn gevoeliger voor zogenaamde hallucinaties omdat ze vaak kleiner zijn. Zo genereerde DeepSeek (7b) tijdens een experiment het antwoord dat er een kans bestaat dat The Beatles ooit nog bij elkaar komen als John Lennon weer beter is.

Desondanks blijven we experimenteren en vasthouden aan ons principe: gevoelige informatie lokaal houden.

Agentic AI: de volgende stap naar volledige ondersteuning

De volgende stap in onze reis is de integratie van agentic AI: AI die niet alleen ondersteunt, maar ook proactief handelt en met de juiste suggesties komt.

Waarom is dit zo belangrijk voor ons? Omdat we geloven dat AI meer moet zijn dan een hulpmiddel; het moet een partner zijn. Een partner die ons ondersteunt bij de meest complexe taken, zelfstandig leert van de data die we dagelijks verzamelen en ons helpt bij het vormgeven van inspirerende trajecten. Dankzij agentic AI kunnen we steeds meer taken aan de technologie overlaten, terwijl wij ons concentreren op de vraagstukken van onze klanten die non-lineaire denkkracht vereisen.

En jij? Wat doe jij eigenlijk met AI?

Auteur: Bart van Leeuwen