Spraaktechnologie

Data opslag en Large Language Models

Bekijk per spraaktechnologie tool welk taalmodel (LLM) wordt ingezet en hoe de opslag van data geregeld is. 

Leverancier

Uit welk taalmodel (LLM)?

Locatie opslag data

Termijn data opslag

Autoscriber

Het onderliggende LLM is getraind op drie jaar aan medische data van een universiteitsproject. Hierop is een eigen model gebouwd dat sprekers herkent en tekst automatisch op de juiste plek in het systeem plaatst. Aanvullend wordt een bestaand, zelflerende LLM ingezet.

Europa

Tot de huisarts deze verwijdert

Juvoly

Juvoly heeft eigen spraakherkenningsmodellen getraind op Nederlandse medische taal, gebaseerd op casusconsulten van geneeskundestudenten. Het betreft een klein, efficiënt model met lage uitstoot, draaiend op Nederlandse servers. Voor de samenvatting kiest de gebruiker tussen een eigen server-LLM of een Europese cloudoplossing zoals Microsoft Azure GPT.

Niet

Niet

Noteless

Noteless is modelonafhankelijk (agnostisch) en gebruikt generatieve modellen die in de EU-regio's zijn gevestigd. De selectie is dynamisch per taak en gebonden aan strikte dataresidentie en nulretentie-instellingen.

Europa

Transcript max 24 uur, audio niet opgeslagen

OurMind

OurMind is LLM-agnostisch en gebruikt dus altijd het best beschikbare model voor de samenvatting. Zo kunnen ze zich volledig richten op de gebruikerservaring en profiteren van de snelle ontwikkelingen in LLM-land, waarbij nieuwe versies steeds beter en goedkoper worden.

Europa

Max 72 uur

Tsuna

Tsuna's modellen zijn gefinetuned op testcasussen en praktijkpilots, en maken momenteel gebruik van GPT-4o-mini-transcribe en GPT-51 voor SOEP-verslagen. Dankzij een Zero Data Retention Policy met OpenAI wordt geen patiëntdata buiten het systeem verwerkt.

Niet

Niet

Wellcom

Wellcom gebruikt twee taalmodellen voor spraak-naar-tekst: één voor real-time transcriptie en één voor automatische dubbelcheck, wat ook bij vertaling wordt toegepast voor betrouwbaardere input. De modellen zijn gefinetuned op medische terminologie en getraind op eigen en openbare spraakdata. Voor de samenvatting zet Wellcom een eigen agentic LLM-pipeline in, verrijkt met medische optimalisaties en contextspecifieke instructieprompts.

Europa, binnenkort ook alleen in Nederland

3 opties:

  1. geen dataopslag

  2. Opslag van het laatste gesprek gedurende 24 uur

  3. Opslag van maximaal 25 gesprekken