Whisper‐large-v3-DE-AT (CT2 INT8 + FP16)
Feingetuntes Whisper-large-v3-Modell auf österreichisch-deutschen Sprachdaten.
Diese Variante ist komplett in [CTranslate2]-Format vorliegend und wurde mit--quantization int8_float16
exportiert.
Dadurch halbiert sich der GPU-VRAM-Bedarf bei praktisch identischer Genauigkeit.
Eigenschaft | Wert |
---|---|
Basismodell | openai/whisper-large-v3 |
Quantisierung | INT8-Gewichte + FP16-Aktivierungen |
Größe (model.bin) | ≈ 5.6 GB |
Empfohlene Hardware | ≥ 16 GB GPU (VRAM) oder starke CPU mit AVX2/AVX-512 |
Compute Type YAML | compute_type: int8_float16 |
Licence | MIT (wie Original) |
🛠️ Verwendung
LocalAI ≥ v3.0
# whisper-large-v3-de-at.yaml
name: whisper-large-v3-de-at
backend: fast-whisper
parameters:
model: whisper-large-v3-de-at-ct2
language: de
translate: false
compute_type: int8_float16
vad_filter: true
- Downloads last month
- 0
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
🙋
Ask for provider support
Model tree for chris365312/whisper-large-v3-de-at-ct2
Base model
openai/whisper-large-v3