Whisper-nauwkeurigheid: tips voor betere transcriptiekwaliteit

Whisper-nauwkeurigheid: tips voor betere transcriptiekwaliteit

Eric King

Eric King

Author


Whisper-nauwkeurigheid: tips voor betere transcriptiekwaliteit

OpenAI Whisper behoort al tot de nauwkeurigste opensource spraakherkenningsmodellen, maar met verschillende strategieën kunt u de transcriptiekwaliteit verder maximaliseren. Deze gids bundelt praktische tips, codevoorbeelden en best practices om Whisper-nauwkeurigheid voor uw use cases te verbeteren.
Geschikt voor:
  • Ontwikkelaars die Whisper-transcriptienauwkeurigheid optimaliseren
  • Makers die podcasts en video’s transcriberen
  • Onderzoekers die met audio werken
  • Iedereen die tips voor Whisper-nauwkeurigheid zoekt

Wat de nauwkeurigheid van Whisper beïnvloedt

Voordat u optimaliseert, is het nuttig te weten wat telt:
  • Audiokwaliteit (het belangrijkst)
  • Modelgrootte (keuze)
  • Taalherkenning
  • Audiovoorbewerking
  • Configuratieparameters
  • Audiolengte en segmentatie

Tip 1: Kies de juiste modelgrootte

Whisper biedt vijf groottes die snelheid en nauwkeurigheid verschillend balanceren:
import whisper

# Model sizes from fastest to most accurate:
# tiny, base, small, medium, large

# For maximum accuracy, use medium or large
model = whisper.load_model("medium")  # Best balance
# or
model = whisper.load_model("large")  # Maximum accuracy
Modelkeuze:
ModelNauwkeurigheidSnelheidGebruik wanneer
tiny⭐⭐⭐⭐⭐⭐⭐Snelle tests, eenvoudige audio
base⭐⭐⭐⭐⭐⭐⭐Algemeen gebruik, gebalanceerd
small⭐⭐⭐⭐⭐⭐⭐Goede nauwkeurigheid, redelijke snelheid
medium⭐⭐⭐⭐⭐⭐⭐Hoge nauwkeurheid nodig
large⭐⭐⭐⭐⭐⭐Beste nauwkeurigheid, rumoerige audio
Codevoorbeeld:
import whisper

def transcribe_with_optimal_model(audio_path, prioritize_accuracy=True):
    """
    Select model based on accuracy vs speed priority.
    
    Args:
        audio_path: Path to audio file
        prioritize_accuracy: True for accuracy, False for speed
    """
    if prioritize_accuracy:
        model_size = "medium"  # or "large" for best accuracy
    else:
        model_size = "base"  # or "small" for balanced
    
    model = whisper.load_model(model_size)
    result = model.transcribe(audio_path)
    
    return result

# For critical transcriptions
result = transcribe_with_optimal_model("important_meeting.mp3", prioritize_accuracy=True)
Kernpunt: Gebruik medium of large wanneer nauwkeurigheid cruciaal is. De snelheidskost is voor belangrijke inhoud meestal de moeite waard.

Tip 2: Geef de taal op als die bekend is

Whisper kan de taal automatisch detecteren, maar expliciet opgeven verbetert de nauwkeurigheid:
import whisper

model = whisper.load_model("base")

# Auto-detect (less accurate)
result_auto = model.transcribe("audio.mp3")

# Specify language (more accurate)
result_en = model.transcribe("audio.mp3", language="en")
result_zh = model.transcribe("audio.mp3", language="zh")
result_es = model.transcribe("audio.mp3", language="es")
Waarom dit helpt:
  • Minder fouten bij taaldetectie
  • Betere resultaten voor meertalige sprekers
  • Snellere verwerking (detectiestap overslaan)
  • Betere afhandeling van accenten en dialecten
Voorbeeld met taaldetectie:
import whisper
import langdetect

def transcribe_with_language_detection(audio_path, model_size="base"):
    """
    Detect language first, then transcribe with explicit language.
    """
    model = whisper.load_model(model_size)
    
    # Quick language detection
    result_quick = model.transcribe(audio_path, language=None)
    detected_lang = result_quick["language"]
    
    # Re-transcribe with detected language for better accuracy
    result = model.transcribe(audio_path, language=detected_lang)
    
    return result

result = transcribe_with_language_detection("audio.mp3")

Tip 3: Bewerk audio vóór transcriptie

Voorbewerking kan de Whisper-nauwkeurigheid sterk verbeteren:
import whisper
import numpy as np
from scipy.io import wavfile
from scipy import signal

def preprocess_audio(audio_path, output_path):
    """
    Preprocess audio to improve transcription accuracy.
    """
    # Read audio file
    sample_rate, audio = wavfile.read(audio_path)
    
    # Normalize audio (scale to [-1, 1])
    if audio.dtype == np.int16:
        audio = audio.astype(np.float32) / 32768.0
    elif audio.dtype == np.int32:
        audio = audio.astype(np.float32) / 2147483648.0
    
    # Remove DC offset
    audio = audio - np.mean(audio)
    
    # Normalize volume
    max_val = np.max(np.abs(audio))
    if max_val > 0:
        audio = audio / max_val * 0.95  # Leave headroom
    
    # Resample to 16kHz (Whisper's optimal sample rate)
    if sample_rate != 16000:
        num_samples = int(len(audio) * 16000 / sample_rate)
        audio = signal.resample(audio, num_samples)
        sample_rate = 16000
    
    # Save preprocessed audio
    wavfile.write(output_path, sample_rate, (audio * 32767).astype(np.int16))
    
    return output_path

# Usage
preprocessed = preprocess_audio("raw_audio.wav", "preprocessed.wav")
model = whisper.load_model("base")
result = model.transcribe(preprocessed)
Stappen van voorbewerking:
  1. Niveaus normaliseren – gelijkmatig volume
  2. DC-offset verwijderen – constante bias wegnemen
  3. Hersamplen naar 16 kHz – optimale samplefrequentie voor Whisper
  4. Stilte verwijderen – focussen op spraak
  5. Ruis verminderen – achtergrond schoonmaken

Tip 4: Temperatuurinstellingen voor betere resultaten

De parameter temperature stuurt willekeur. Lagere waarden kunnen de nauwkeurigheid verbeteren:
import whisper

model = whisper.load_model("base")

# Default temperature (0.0)
result_default = model.transcribe("audio.mp3")

# Lower temperature for more deterministic results
result_low_temp = model.transcribe(
    "audio.mp3",
    temperature=0.0,  # Most deterministic
    best_of=5,  # Try multiple decodings, pick best
    beam_size=5  # Beam search size
)
Temperatuurinstellingen:
  • temperature=0.0: Meest deterministisch, beste nauwkeurigheid
  • temperature=0.2: Lichte willekeur, goede balans
  • temperature=0.6: Standaard, gebalanceerd
  • Hogere waarden: creatiever, minder nauwkeurig
Best practice:
def transcribe_with_optimal_settings(audio_path, model_size="base"):
    """
    Use optimal settings for maximum accuracy.
    """
    model = whisper.load_model(model_size)
    
    result = model.transcribe(
        audio_path,
        temperature=0.0,  # Most deterministic
        best_of=5,  # Try 5 decodings, pick best
        beam_size=5,  # Beam search
        patience=1.0,  # Patience for beam search
        condition_on_previous_text=True,  # Use context
        initial_prompt="This is a conversation about technology."  # Context hint
    )
    
    return result

Tip 5: Initiële prompt voor context

Context over de inhoud verbetert de nauwkeurigheid:
import whisper

model = whisper.load_model("base")

# Without context
result_basic = model.transcribe("meeting.mp3")

# With context (much better accuracy)
result_context = model.transcribe(
    "meeting.mp3",
    initial_prompt="This is a business meeting discussing project timelines and deliverables."
)

# For technical content
result_tech = model.transcribe(
    "lecture.mp3",
    initial_prompt="This is a computer science lecture about machine learning and neural networks."
)
Wanneer initiële prompts:
  • Technische inhoud: domeintermen opnemen
  • Namen en plaatsen: belangrijke eigennamen noemen
  • Accenten: accent of dialect beschrijven
  • Context: setting of onderwerp beschrijven
Voorbeeld:
def transcribe_with_context(audio_path, context_description):
    """
    Transcribe with context for better accuracy.
    """
    model = whisper.load_model("medium")
    
    result = model.transcribe(
        audio_path,
        initial_prompt=context_description,
        language="en"
    )
    
    return result

# Example usage
result = transcribe_with_context(
    "interview.mp3",
    "This is an interview with Dr. Sarah Johnson about medical research. "
    "The conversation includes technical medical terminology."
)

Tip 6: Lange audiobestanden goed afhandelen

Zeer lange bestanden kunnen de nauwkeurigheid verlagen. Zo pakt u het aan:
import whisper
from pydub import AudioSegment
import os

def transcribe_long_audio(audio_path, model_size="base", chunk_length_minutes=30):
    """
    Transcribe long audio by splitting into optimal chunks.
    """
    model = whisper.load_model(model_size)
    
    # Load audio
    audio = AudioSegment.from_file(audio_path)
    chunk_length_ms = chunk_length_minutes * 60 * 1000
    
    # Split into chunks
    chunks = []
    for i in range(0, len(audio), chunk_length_ms):
        chunks.append(audio[i:i + chunk_length_ms])
    
    # Transcribe each chunk
    full_text = []
    all_segments = []
    
    for i, chunk in enumerate(chunks):
        chunk_path = f"temp_chunk_{i}.wav"
        chunk.export(chunk_path, format="wav")
        
        print(f"Transcribing chunk {i+1}/{len(chunks)}")
        result = model.transcribe(chunk_path)
        
        # Adjust timestamps for chunk offset
        offset = i * chunk_length_ms / 1000.0
        for segment in result["segments"]:
            segment["start"] += offset
            segment["end"] += offset
            all_segments.append(segment)
        
        full_text.append(result["text"])
        
        # Clean up
        os.remove(chunk_path)
    
    # Combine results
    combined_result = {
        "text": " ".join(full_text),
        "segments": all_segments,
        "language": result["language"]
    }
    
    return combined_result

# Usage
result = transcribe_long_audio("long_podcast.mp3", model_size="medium", chunk_length_minutes=30)
Best practices voor lang audio:
  • Splitsen in blokken van 20–30 minuten
  • Dezelfde modelgrootte voor alle blokken
  • Context tussen blokken behouden
  • Segmenten met juiste tijdstempels samenvoegen

Tip 7: Optimaliseren voor rumoerige audio

Whisper gaat goed om met ruis, maar u kunt verder verbeteren:
import whisper
import noisereduce as nr
import soundfile as sf
import numpy as np

def transcribe_noisy_audio(audio_path, model_size="medium"):
    """
    Reduce noise before transcription for better accuracy.
    """
    # Load audio
    audio, sample_rate = sf.read(audio_path)
    
    # Reduce noise
    reduced_noise = nr.reduce_noise(
        y=audio,
        sr=sample_rate,
        stationary=False,  # For non-stationary noise
        prop_decrease=0.8  # Reduce noise by 80%
    )
    
    # Save cleaned audio
    cleaned_path = "cleaned_audio.wav"
    sf.write(cleaned_path, reduced_noise, sample_rate)
    
    # Transcribe with larger model (better for noisy audio)
    model = whisper.load_model(model_size)
    result = model.transcribe(cleaned_path)
    
    # Clean up
    os.remove(cleaned_path)
    
    return result

# Usage
result = transcribe_noisy_audio("noisy_recording.mp3", model_size="medium")
Bij rumoerige audio:
  • Gebruik medium of large
  • Voorbewerken met ruisonderdrukking
  • Verhoog best_of
  • Geef context over de ruisomstandigheden

Tip 8: Woord-tijdstempels voor meer controle

Woordniveau-tijdstempels geven fijnere controle:
import whisper

model = whisper.load_model("base")

# Get word timestamps
result = model.transcribe(
    "audio.mp3",
    word_timestamps=True  # Enable word-level timestamps
)

# Access word timestamps
for segment in result["segments"]:
    print(f"Segment: {segment['text']}")
    print(f"Start: {segment['start']:.2f}s, End: {segment['end']:.2f}s")
    
    if "words" in segment:
        for word in segment["words"]:
            print(f"  Word: {word['word']} ({word['start']:.2f}s - {word['end']:.2f}s)")
Toepassingen:
  • Ondertiteling: nauwkeurige woordsynchronisatie
  • Foutcorrectie: problematische woorden vinden
  • Zoeken: woorden in het transcript vinden
  • Sprekeranalyse: spreekpatronen analyseren

Tip 9: Meerdere decoderingen combineren

Met best_of worden meerdere decoderingen geprobeerd en de beste gekozen:
import whisper

model = whisper.load_model("base")

# Single decoding (default)
result_single = model.transcribe("audio.mp3")

# Multiple decodings, pick best (more accurate)
result_best = model.transcribe(
    "audio.mp3",
    best_of=5,  # Try 5 decodings
    temperature=(0.0, 0.2, 0.4, 0.6, 0.8)  # Different temperatures
)
Afwijgingen:
  • Nauwkeurigheid: hoger bij meerdere decoderingen
  • Snelheid: langzamer (5× bij best_of=5)
  • Wanneer: nauwkeurigheid kritiek, snelheid minder belangrijk

Tip 10: Transcripties nabewerken

Nabewerking corrigeert veelvoorkomende Whisper-fouten:
import re
import whisper

def post_process_transcript(text):
    """
    Fix common transcription errors.
    """
    # Fix common contractions
    text = re.sub(r"\b(\w+) '(\w+)\b", r"\1'\2", text)  # Fix spacing in contractions
    
    # Fix common homophones (add your own)
    replacements = {
        "there": "their",  # Context-dependent
        "its": "it's",  # Context-dependent
        # Add more based on your domain
    }
    
    # Capitalize sentences
    sentences = re.split(r'([.!?]\s+)', text)
    capitalized = []
    for i, sentence in enumerate(sentences):
        if sentence.strip():
            capitalized.append(sentence[0].upper() + sentence[1:] if len(sentence) > 1 else sentence.upper())
        else:
            capitalized.append(sentence)
    
    return "".join(capitalized)

# Usage
model = whisper.load_model("base")
result = model.transcribe("audio.mp3")
processed_text = post_process_transcript(result["text"])

Volledig voorbeeld: productieklare nauwkeurigheidsoptimalisatie

Een volledig voorbeeld dat meerdere nauwkeurigheidstips combineert:
import whisper
import os
from pathlib import Path

def transcribe_with_maximum_accuracy(
    audio_path,
    model_size="medium",
    language=None,
    context_prompt=None,
    output_format="txt"
):
    """
    Transcribe audio with maximum accuracy using best practices.
    
    Args:
        audio_path: Path to audio file
        model_size: Whisper model size (medium or large recommended)
        language: Language code (None for auto-detect)
        context_prompt: Initial prompt for context
        output_format: Output format (txt, json, srt)
    """
    # Load model (medium or large for best accuracy)
    print(f"Loading Whisper model: {model_size}")
    model = whisper.load_model(model_size)
    
    # Prepare transcription parameters
    transcribe_kwargs = {
        "temperature": 0.0,  # Most deterministic
        "best_of": 5,  # Try multiple decodings
        "beam_size": 5,  # Beam search
        "patience": 1.0,
        "condition_on_previous_text": True,
        "word_timestamps": True,  # Get word-level timestamps
    }
    
    # Add language if specified
    if language:
        transcribe_kwargs["language"] = language
    
    # Add context prompt if provided
    if context_prompt:
        transcribe_kwargs["initial_prompt"] = context_prompt
    
    # Transcribe
    print(f"Transcribing: {audio_path}")
    result = model.transcribe(audio_path, **transcribe_kwargs)
    
    # Post-process
    result["text"] = post_process_transcript(result["text"])
    
    # Save result
    base_name = Path(audio_path).stem
    output_path = f"{base_name}_transcript.{output_format}"
    
    if output_format == "txt":
        with open(output_path, "w", encoding="utf-8") as f:
            f.write(result["text"])
    elif output_format == "json":
        import json
        with open(output_path, "w", encoding="utf-8") as f:
            json.dump(result, f, indent=2, ensure_ascii=False)
    
    print(f"✓ Transcription saved: {output_path}")
    print(f"  Language: {result['language']}")
    print(f"  Duration: {result['segments'][-1]['end']:.2f}s")
    
    return result

# Example usage
result = transcribe_with_maximum_accuracy(
    audio_path="important_meeting.mp3",
    model_size="medium",
    language="en",
    context_prompt="This is a business meeting discussing quarterly results and project updates.",
    output_format="txt"
)

Nauwkeurigheidsvergelijking: voor en na optimalisatie

Typische effecten van optimalisatie:
OptimalisatieNauwkeurigheidsverbeteringSnelheidseffect
Modelgrootte (base → medium)+15–20%−50%
Taalspecificatie+5–10%+10% (sneller)
Initiële prompt+5–15%Geen effect
Temperature=0.0+2–5%Geen effect
best_of=5+3–8%−80% (5× langzamer)
Audiovoorbewerking+10–20%Minimaal
Gecombineerd kunnen verbeteringen de nauwkeurigheid met 30–50% verhogen ten opzichte van standaardinstellingen.

Samenvatting best practices

Voor maximale nauwkeurigheid:

  1. ✅ Model medium of large
  2. ✅ Taal expliciet opgeven
  3. ✅ Context met initial_prompt
  4. temperature=0.0 voor deterministische resultaten
  5. word_timestamps voor gedetailleerde output
  6. ✅ Rumoerige audio voorbewerken
  7. ✅ Lange bestanden splitsen
  8. best_of=5 voor kritieke inhoud

Voor balans snelheid/nauwkeurigheid:

  1. ✅ Model small of base
  2. ✅ Taal automatisch laten detecteren
  3. ✅ Standaardtemperatuur
  4. ✅ Geen best_of
  5. ✅ Bestanden minimaal voorbewerken

Veelgemaakte fouten

❌ Model tiny voor belangrijke inhoud

Oplossing: Minstens base, bij voorkeur small of medium

❌ Geen taal opgeven

Oplossing: Altijd opgeven wanneer bekend

❌ Context negeren

Oplossing: initial_prompt voor domeinspecifieke inhoud

❌ Standaardinstellingen bij veel ruis

Oplossing: Grotere modellen en voorbewerking

❌ Zeer lange bestanden in één keer

Oplossing: Splitsen in segmenten van 20–30 minuten

Probleemoplossing nauwkeurigheid

Probleem: Lage nauwkeurigheid bij vaktermen

Oplossing:
result = model.transcribe(
    "technical_audio.mp3",
    initial_prompt="This audio contains technical terminology related to machine learning, neural networks, and deep learning."
)

Probleem: Slechte nauwkeurigheid bij accenten

Oplossing:
# Use larger model
model = whisper.load_model("medium")

# Provide accent context
result = model.transcribe(
    "accented_audio.mp3",
    initial_prompt="This speaker has a British accent.",
    language="en"
)

Probleem: Fouten bij eigennamen

Oplossing:
# Include names in initial prompt
result = model.transcribe(
    "interview.mp3",
    initial_prompt="This interview features Dr. Sarah Johnson and Professor Michael Chen discussing research."
)

Conclusie

Whisper-nauwkeurigheid verbeteren gaat om de juiste keuzes:
  • Model: medium of large voor kritieke inhoud
  • Configuratie: optimale temperatuur en decodering
  • Context: domeininformatie geven
  • Voorbewerking: audio schoonmaken vóór transcriptie
  • Nabewerking: veelvoorkomende fouten automatisch corrigeren
Belangrijkste punten:
  1. Modelgrootte heeft de grootste impact
  2. Taal opgeven verbetert resultaten sterk
  3. Contextprompts helpen bij gespecialiseerde inhoud
  4. Meerdere decoderingen (best_of) verhogen nauwkeurigheid maar vertragen
  5. Audiokwaliteit blijft de belangrijkste factor
Met deze tips kunt u transcriptiekwaliteit bereiken die vergelijkbaar is met of beter dan commerciële diensten, met volledige controle over data en workflow.

Klaar om Whisper-nauwkeurigheid te verbeteren? Stap naar een groter model en geef uw taal op — het effect is direct zichtbaar!

Probeer het nu gratis

Probeer nu onze AI‑oplossing voor spraak, audio en video. Je profiteert niet alleen van zeer nauwkeurige spraak‑naar‑tekst‑transcriptie, meertalige vertaling en slimme sprekerherkenning, maar ook van automatische ondertitelgeneratie voor video, intelligente audio‑ en videobewerking en gesynchroniseerde audio‑visuele analyse. Het dekt alle scenario’s: vergaderverslagen, short‑video creatie, podcastproductie en meer. Start vandaag nog je gratis proefperiode!

Geluid naar Tekst OnlineGeluid naar Tekst GratisGeluid naar Tekst ConverterGeluid naar Tekst MP3Geluid naar Tekst WAVGeluid naar Tekst met TijdstempelsSpraak naar tekst voor vergaderingenSound to Text Multi LanguageGeluid naar Tekst OndertitelsWAV naar tekst converterenStem naar TekstStem naar Tekst OnlineSpraak naar TekstMP3 naar Tekst ConverterenSpraakopname naar tekst converterenOnline SpraaktypenStem naar Tekst met TijdstempelsStem naar Tekst in RealtimeStem naar Tekst voor Lange AudioStem naar Tekst voor VideoSpraak naar Tekst voor YouTubeSpraak naar Tekst voor VideobewerkingSpraak naar Tekst voor OndertitelsSpraak naar Tekst voor PodcastsSpraak naar Tekst voor InterviewsInterview Audio naar TekstSpraak naar Tekst voor OpnamesSpraak naar Tekst voor VergaderingenSpraak naar Tekst voor CollegesSpraak naar Tekst voor NotitiesStem naar Tekst MeertaligStem naar Tekst NauwkeurigStem naar Tekst SnelPremiere Pro Stem naar Tekst AlternatiefDaVinci Stem naar Tekst AlternatiefVEED Stem naar Tekst AlternatiefInVideo Stem naar Tekst AlternatiefOtter.ai Stem naar Tekst AlternatiefDescript Stem naar Tekst AlternatiefTrint Stem naar Tekst AlternatiefRev Stem naar Tekst AlternatiefSonix Stem naar Tekst AlternatiefHappy Scribe Stem naar Tekst AlternatiefZoom Stem naar Tekst AlternatiefGoogle Meet Stem naar Tekst AlternatiefMicrosoft Teams Stem naar Tekst AlternatiefFireflies.ai Stem naar Tekst AlternatiefFathom Stem naar Tekst AlternatiefFlexClip Stem naar Tekst AlternatiefKapwing Stem naar Tekst AlternatiefCanva Stem naar Tekst AlternatiefSpraak naar Tekst voor Lange AudioAI Spraak naar TekstGratis Spraak naar TekstSpraak naar Tekst zonder ReclameSpraak naar Tekst voor Lawaaierige AudioSpraak naar Tekst met TijdOndertitels Genereren uit AudioPodcast Transcriptie OnlineKlantgesprekken TranscriberenTikTok Stem naar TekstTikTok Audio naar TekstYouTube Spraak naar TekstYouTube Audio naar TekstSpraakmemo naar TekstWhatsApp Spraakbericht naar TekstTelegram Spraakbericht naar TekstDiscord Oproep TranscriptieTwitch Spraak naar TekstSkype Spraak naar TekstMessenger Spraak naar TekstLINE Spraakbericht naar TekstVlogs naar Tekst TranscribenSermoen Audio naar Tekst ConverterenSpraak naar Schrijven ConverterenAudio naar Tekst VertalenAudio Notities naar Tekst ConverterenSpraak TypenSpraak Typen voor VergaderingenSpraak Typen voor YouTubeSpreek om te TypenHandenvrij TypenStem naar WoordenSpraak naar WoordenSpraak naar Tekst OnlineOnline Transcription SoftwareSpraak naar Tekst voor VergaderingenSnelle Spraak naar TekstReal Time Speech to TextLive Transcription AppSpraak naar Tekst voor TikTokGeluid naar Tekst voor TikTokPraten naar WoordenSpraak naar TekstTalk to Text FreeTalk to Text OnlineTalk to Text for YouTubeTalk to Text for SubtitlesTalk to Text for Content CreatorsTalk to Text for MeetingsAudio naar TypenGeluid naar TekstSpraak SchrijftoolSpraak SchrijftoolSpraakdicteeJuridische Transcriptie ToolMedische Dictatie ToolJapanse Audio TranscriptieKoreaanse Meeting TranscriptieMeeting Transcriptie ToolMeeting Audio naar TekstCollege naar Tekst ConverterCollege Audio naar TekstVideo naar Tekst TranscriptieOndertitel Generator voor TikTokCallcenter TranscriptieReels Audio naar Tekst ToolMP3 naar Tekst TranscriberenWAV-bestand naar tekst transcriberenCapCut Spraak naar TekstCapCut Spraak naar TekstVoice to Text in EnglishAudio naar Tekst EngelsVoice to Text in SpanishVoice to Text in FrenchAudio naar Tekst FransVoice to Text in GermanAudio naar Tekst DuitsVoice to Text in JapaneseAudio naar Tekst JapansVoice to Text in KoreanAudio naar Tekst KoreaansVoice to Text in PortugueseVoice to Text in ArabicVoice to Text in ChineseVoice to Text in HindiVoice to Text in RussianWeb Voice Typing ToolVoice Typing Website