PL-BERT Valenciano
Modelo PL-BERT (Phoneme-Level BERT) entrenado en valenciano para uso con StyleTTS2.
Descripci贸n del Modelo
Este es un modelo BERT entrenado exclusivamente con fonemas valencianos/catalanes, dise帽ado para ser utilizado como encoder de texto en sistemas de s铆ntesis de voz (TTS) como StyleTTS2.
Caracter铆sticas
- Arquitectura: BERT base
- Vocabulario: N/A tokens fon茅ticos
- Hidden size: 768
- Num layers: 12
- Attention heads: 12
- Max position embeddings: 512
- Training steps: 25000
Tokenizador
Este modelo utiliza el tokenizador: javiimts/bert-ca-va-tokenizer
Entrenamiento
El modelo fue entrenado usando:
- Dataset: Corts Valencianes (transcripciones parlamentarias)
- Objetivo: Masked Language Modeling (MLM) con 15% de masking
- Optimizador: AdamW
- Precisi贸n mixta: FP16
- Steps: 25000
Integraci贸n con StyleTTS2
Este modelo est谩 dise帽ado para reemplazar el PL-BERT original en StyleTTS2. Para usarlo:
- Descarga los archivos del modelo
- Actualiza la ruta
PLBERT_diren tu configuraci贸n de StyleTTS2 - El modelo se cargar谩 autom谩ticamente usando
util.py - Redimensiona los embeddings de StyleTTS2 para que coincidan con el nuevo tama帽o del vocabulario
Archivos incluidos
step_25000.t7: Checkpoint del modelo entrenado (PyTorch)config.yml: Configuraci贸n de hiperpar谩metrosutil.py: Utilidades para cargar el modeloREADME.md: Esta documentaci贸n