Data opslag en Large Language Models
Bekijk per spraaktechnologie tool welk taalmodel (LLM) wordt ingezet en hoe de opslag van data geregeld is.
Leverancier | Uit welk taalmodel (LLM)? | Locatie opslag data | Termijn data opslag | |
|---|---|---|---|---|
Autoscriber | Het onderliggende LLM is getraind op drie jaar aan medische data van een universiteitsproject. Hierop is een eigen model gebouwd dat sprekers herkent en tekst automatisch op de juiste plek in het systeem plaatst. Aanvullend wordt een bestaand, zelflerende LLM ingezet. | Europa | Tot de huisarts deze verwijdert | |
Juvoly | Juvoly heeft eigen spraakherkenningsmodellen getraind op Nederlandse medische taal, gebaseerd op casusconsulten van geneeskundestudenten. Het betreft een klein, efficiënt model met lage uitstoot, draaiend op Nederlandse servers. Voor de samenvatting kiest de gebruiker tussen een eigen server-LLM of een Europese cloudoplossing zoals Microsoft Azure GPT. | Niet | Niet | |
Noteless | Noteless is modelonafhankelijk (agnostisch) en gebruikt generatieve modellen die in de EU-regio's zijn gevestigd. De selectie is dynamisch per taak en gebonden aan strikte dataresidentie en nulretentie-instellingen. | Europa | Transcript max 24 uur, audio niet opgeslagen | |
OurMind | OurMind is LLM-agnostisch en gebruikt dus altijd het best beschikbare model voor de samenvatting. Zo kunnen ze zich volledig richten op de gebruikerservaring en profiteren van de snelle ontwikkelingen in LLM-land, waarbij nieuwe versies steeds beter en goedkoper worden. | Europa | Max 72 uur | |
Tsuna | Tsuna's modellen zijn gefinetuned op testcasussen en praktijkpilots, en maken momenteel gebruik van GPT-4o-mini-transcribe en GPT-51 voor SOEP-verslagen. Dankzij een Zero Data Retention Policy met OpenAI wordt geen patiëntdata buiten het systeem verwerkt. | Niet | Niet | |
Wellcom | Wellcom gebruikt twee taalmodellen voor spraak-naar-tekst: één voor real-time transcriptie en één voor automatische dubbelcheck, wat ook bij vertaling wordt toegepast voor betrouwbaardere input. De modellen zijn gefinetuned op medische terminologie en getraind op eigen en openbare spraakdata. Voor de samenvatting zet Wellcom een eigen agentic LLM-pipeline in, verrijkt met medische optimalisaties en contextspecifieke instructieprompts. | Europa, binnenkort ook alleen in Nederland | 3 opties:
|