vector2000 commited on
Commit
a444ab3
·
verified ·
1 Parent(s): f5ea7ad

Update finetunning.py

Browse files
Files changed (1) hide show
  1. finetunning.py +2 -2
finetunning.py CHANGED
@@ -39,10 +39,10 @@ dataset = load_dataset("Aniemore/resd")
39
 
40
  # Функція для токенізації данних
41
  def tokenize_function(examples):
42
- return tokenizer(examples["text"], truncation=True, padding="max_length", max_length=512)
43
 
44
  # Токенізация датасету
45
- tokenized_dataset = dataset.map(tokenize_function, batched=True, remove_columns=dataset.column_names)
46
 
47
  # Створення data collator
48
  data_collator = DataCollatorForLanguageModeling(tokenizer=tokenizer, mlm=False)
 
39
 
40
  # Функція для токенізації данних
41
  def tokenize_function(examples):
42
+ return tokenizer(examples["speech"], truncation=True, padding="max_length", max_length=512)
43
 
44
  # Токенізация датасету
45
+ tokenized_dataset = dataset.map(tokenize_function, batched=True, remove_columns=["name", "path", "emotion", "speech"])
46
 
47
  # Створення data collator
48
  data_collator = DataCollatorForLanguageModeling(tokenizer=tokenizer, mlm=False)