Skrepr data-scientists trainen custom AI-modellen op klant-data in privacy-first omgeving

Je eigen AI, je eigen regels

Een model dat jouw werk snapt.

Fine-tuned op jouw data, getraind op jouw domein, gehost op jouw infra. Geen data naar Microsoft of OpenAI, geen vendor lock-in, geen verrassingsfacturen bij volume. Als standaard-modellen te algemeen zijn, bouw je er één die past.

Skrepr traint AI-modellen voor bedrijven die een standaard-LLM uitgegroeid zijn en eigen weights willen.

10-30%

Accuracy-winst

<10%

Kosten vs LLM-API

100%

Data-soeverein

Even eerlijk zijn

Standaard-LLM? Past niet altijd.

GPT en Claude zijn goed in algemene taal, maar ze weten niks van jullie producten, jullie jargon, jullie compliance-regels. En ze draaien op servers in de VS, onder voorwaarden die jullie niet kennen.

En dan krijg je de security-officer op bezoek met een printje van de AVG.

  • 1

    Jargon wordt niet begrepen

    Je domein-taal (juridisch, medisch, industrie-sector) is te niche. Het standaard-model hallucineert of schrijft als een stagiair.

  • 2

    Data mag de EU niet uit

    AVG, klant-contracten of compliance-eisen verbieden dat jullie data naar een US cloud-provider gaat. De DPO zegt nee.

  • 3

    Per-token-kosten ontploffen

    Bij miljoenen calls per maand tikt de OpenAI-factuur harder dan je had begroot. Een eigen model is na training een fractie.

  • 4

    Tenders vragen eigen AI

    Klanten vragen expliciet naar "bij jullie privaat getrainde AI" in RFP's. Met een OpenAI-wrapper win je die aanbesteding niet.

Zo bouwen we jullie model

Eigen weights. Eigen infra.

Vier bouwstenen die samen maken dat jullie model past bij jullie data en bij jullie compliance-afdeling.

Fine-tuning van LLMs

GPT, Claude, Llama of Mistral fijn-gesteld op jullie data en domein-taal. Van juridisch jargon tot productie-logs, het model leert schrijven en redeneren zoals jullie mensen dat doen.

Klassieke ML waar dat past

Niet elk probleem vraagt een LLM. Classifiers, regressors of tijd-serie-modellen in sklearn of PyTorch zijn vaak sneller, goedkoper en net zo precies voor gestructureerde data.

Privacy-first, AVG-conform

Training draait op jullie infra of in een EU-cloud van jullie keuze. Geen trainings-data naar Microsoft of OpenAI, geen verborgen re-training op jullie prompts. Weights blijven van jullie.

MLOps inclusief

Monitoring, drift-detectie, re-training en model-versioning zitten in de deal. Een model is geen CD-rommel die je brandt en vergeet, het leeft mee met jullie data.

Niet zeker of een custom model de juiste zet is? Begin met AI-advies of een afgebakende pilot, dan toetsen we eerst of de business-case klopt.

Start AI-scan

Wat het oplevert

10-30% beter op jullie werk.

Typische accuracy-winst van een fine-tuned model ten opzichte van een generieke LLM, gemeten op domein-specifieke taken.

Fine-tune versus generiek

10-30%

accuracy-winst

Scoort 10-30% hoger op jullie use-case. Plus volume-kosten die een fractie zijn van commerciële LLM-API's na training.

Kosten na training

<10%

Data-soevereiniteit

100%

Deployment

On-prem

Vendor lock-in

Geen

"Met GPT-4o liepen we tegen een muur, het kon ons juridisch jargon niet aan. Skrepr trainde een Llama-variant op onze dossiers. Het model schrijft nu conclusies in onze huisstijl, on-prem, en we zijn af van de per-token-factuur."
CTO, juridisch SaaS-platform

Vier stappen, geen zes maanden

Van use-case naar eigen model.

We scopen eerlijk, kiezen de juiste techniek, trainen en leveren op met MLOps. Geen vage AI-roadmap van een consultancy die zelf nog nooit een model getraind heeft.

Skrepr data-scientist bespreekt use-case en data-audit met klant op kantoor op Urk

Stap 1, scoping

Use-case + data-audit

We kijken naar de business-vraag en wat er aan data ligt. Hoeveel, welke kwaliteit, welke labels, welke privacy-beperkingen. Eerlijk antwoord of het kan, soms is het nog te vroeg.

Skrepr-team vergelijkt model-architecturen voor fine-tuning versus from-scratch training

Stap 2, model-keuze

Fine-tune, from-scratch of RAG

Niet elk probleem is een fine-tune. Soms is RAG voldoende, soms wil je een classifier, soms écht een custom LLM. We kiezen op basis van data, budget en latency, niet op basis van hype.

Skrepr ML-engineer bewaakt training-run en evalueert model-accuracy op hold-out set

Stap 3, training

Training-run + evaluatie

We draaien training op een EU-GPU-cluster of jullie infra. Evaluatie op een hold-out set, vergelijking met baseline-modellen, metrics die jullie business snapt. Geen black-box-benchmarks.

Skrepr-team levert model op met MLOps-stack voor monitoring en re-training

Stap 4, go-live

Deployment + MLOps

Model draait waar jullie willen: eigen datacenter, AWS EU, air-gapped omgeving. Monitoring, drift-alerts en re-training-scripts zetten we ernaast, zodat het model blijft kloppen.

Vast de vragen die je hebt

Veelgestelde vragen over custom modellen

Wanneer kies je fine-tuning en wanneer RAG?
RAG (retrieval augmented generation) is meestal de eerste keuze: je laat een standaard-LLM documenten uit jullie kennisbank ophalen bij elke vraag. Goedkoop, transparant, makkelijk te updaten. Fine-tuning loont als je wilt dat het model een bepaalde stijl, toon of redeneer-patroon overneemt (juridisch schrijven, medische triage, klant-support-stem), of als latency en kosten per vraag écht tellen bij miljoenen calls. In de praktijk zien we vaak een combinatie: fine-tuned basismodel plus RAG voor actuele feiten. We scopen dit in stap 2.
Hoeveel data hebben we minimaal nodig?
Voor LLM fine-tuning typisch 1.000 tot 10.000 voorbeelden van hoge kwaliteit, dus geen 50.000 half-gelabelde rijen. Voor classieke ML-classifiers kan het vanaf een paar honderd samples per klasse. Hebben jullie minder? Dan kijken we naar data-augmentatie, synthetische data of een RAG-constructie als tussenstap. Te weinig data én te algemene data samen, daar zijn we eerlijk over: dan is fine-tuning gewoon niet de oplossing.
Kan een getraind model ook on-prem draaien, zelfs air-gapped?
Ja. Open-weight modellen (Llama, Mistral, Qwen) draaien prima op eigen hardware. We hebben klanten die het model volledig air-gapped draaien in een datacenter zonder internet-verbinding. Voor de GPU-vereisten kijken we naar model-size versus latency: een 7B-model draait op één consumer-GPU, een 70B-model op een klein cluster. Closed-weight modellen zoals GPT of Claude kunnen niet on-prem, daar komen we dan niet voor terug.
Wat gebeurt er als Meta of Anthropic hun model update?
Jullie model blijft draaien zoals getraind, want jullie hebben de weights in handen. Bij fine-tunes op open-weight modellen (Llama, Mistral) verandert er niks wanneer Meta een nieuwe versie uitbrengt, jullie kunnen kiezen wanneer je upgrade. Bij fine-tunes op closed-weight API's (OpenAI, Anthropic) is er meer afhankelijkheid: een retirement-timeline van typisch 12 tot 18 maanden, en dan moet je her-trainen. We documenteren die afhankelijkheid voor elk model in de technische oplevering.

Klaar om jullie eigen model te bouwen?

Bel ons. Wij rekenen het uit.

Een AI-scan is gratis en concreet. We kijken naar jullie data, jullie use-case en jullie infra, en geven eerlijk antwoord of een custom model zinvol is. Zo niet, dan horen jullie dat ook.

Bellen werkt altijd. Ciao!