You need to agree to share your contact information to access this model

This repository is publicly accessible, but you have to accept the conditions to access its files and content.

Log in or Sign Up to review the conditions and access this model content.

PL-BERT Valenciano

Modelo PL-BERT (Phoneme-Level BERT) entrenado en valenciano para uso con StyleTTS2.

Descripci贸n del Modelo

Este es un modelo BERT entrenado exclusivamente con fonemas valencianos/catalanes, dise帽ado para ser utilizado como encoder de texto en sistemas de s铆ntesis de voz (TTS) como StyleTTS2.

Caracter铆sticas

  • Arquitectura: BERT base
  • Vocabulario: N/A tokens fon茅ticos
  • Hidden size: 768
  • Num layers: 12
  • Attention heads: 12
  • Max position embeddings: 512
  • Training steps: 25000

Tokenizador

Este modelo utiliza el tokenizador: javiimts/bert-ca-va-tokenizer

Entrenamiento

El modelo fue entrenado usando:

  • Dataset: Corts Valencianes (transcripciones parlamentarias)
  • Objetivo: Masked Language Modeling (MLM) con 15% de masking
  • Optimizador: AdamW
  • Precisi贸n mixta: FP16
  • Steps: 25000

Integraci贸n con StyleTTS2

Este modelo est谩 dise帽ado para reemplazar el PL-BERT original en StyleTTS2. Para usarlo:

  1. Descarga los archivos del modelo
  2. Actualiza la ruta PLBERT_dir en tu configuraci贸n de StyleTTS2
  3. El modelo se cargar谩 autom谩ticamente usando util.py
  4. Redimensiona los embeddings de StyleTTS2 para que coincidan con el nuevo tama帽o del vocabulario

Archivos incluidos

  • step_25000.t7: Checkpoint del modelo entrenado (PyTorch)
  • config.yml: Configuraci贸n de hiperpar谩metros
  • util.py: Utilidades para cargar el modelo
  • README.md: Esta documentaci贸n
Downloads last month

-

Downloads are not tracked for this model. How to track
Inference Providers NEW
This model isn't deployed by any Inference Provider. 馃檵 Ask for provider support