Whisper‐large-v3-DE-AT (CT2 INT8 + FP16)

Fein­getuntes Whisper-large-v3-Modell auf österreichisch-deutschen Sprachdaten.
Diese Variante ist komplett in [CTranslate2]-Format vor­liegend und wurde mit
--quantization int8_float16 exportiert.
Dadurch halbiert sich der GPU-VRAM-Bedarf bei praktisch identischer Genauigkeit.

Eigenschaft Wert
Basismodell openai/whisper-large-v3
Quantisierung INT8-Gewichte + FP16-Aktivierungen
Größe (model.bin) ≈ 5.6 GB
Empfohlene Hardware ≥ 16 GB GPU (VRAM) oder starke CPU mit AVX2/AVX-512
Compute Type YAML compute_type: int8_float16
Licence MIT (wie Original)

🛠️ Verwendung

LocalAI ≥ v3.0

# whisper-large-v3-de-at.yaml
name: whisper-large-v3-de-at
backend: fast-whisper
parameters:
  model: whisper-large-v3-de-at-ct2
  language: de
  translate: false
  compute_type: int8_float16
  vad_filter: true
Downloads last month
0
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for chris365312/whisper-large-v3-de-at-ct2

Finetuned
(560)
this model

Dataset used to train chris365312/whisper-large-v3-de-at-ct2