vector2000 commited on
Commit
3fa0881
·
verified ·
1 Parent(s): 5f1f151

Update finetunning.py

Browse files
Files changed (1) hide show
  1. finetunning.py +5 -6
finetunning.py CHANGED
@@ -21,19 +21,18 @@ os.makedirs('./fine_tuned_model', exist_ok=True)
21
  os.chmod('./fine_tuned_model', 0o777)
22
 
23
  # Завантаження моделі та токенізатора
24
- model_name = "facebook/opt-350m"
25
  tokenizer = AutoTokenizer.from_pretrained(model_name)
26
  model = AutoModelForCausalLM.from_pretrained(model_name)
27
 
28
  # Завантаження датасета (приклад з використанням датасета wiki_text)
29
  # dataset = load_dataset("wikitext", "wikitext-2-raw-v1", split="train")
 
30
 
31
  # Завантаження данних з локального тестового файлу
32
- with open("ilya_klimov_data.txt", "r", encoding="utf-8") as file:
33
- text_data = file.read().strip()
34
-
35
- # Створення датасету
36
- dataset = Dataset.from_dict({"text": [text_data]})
37
 
38
  # Функція для токенізації данних
39
  def tokenize_function(examples):
 
21
  os.chmod('./fine_tuned_model', 0o777)
22
 
23
  # Завантаження моделі та токенізатора
24
+ model_name = "meta-llama/Meta-Llama-3.1-8B"
25
  tokenizer = AutoTokenizer.from_pretrained(model_name)
26
  model = AutoModelForCausalLM.from_pretrained(model_name)
27
 
28
  # Завантаження датасета (приклад з використанням датасета wiki_text)
29
  # dataset = load_dataset("wikitext", "wikitext-2-raw-v1", split="train")
30
+ dataset = load_dataset("Aniemore/resd")
31
 
32
  # Завантаження данних з локального тестового файлу
33
+ # with open("ilya_klimov_data.txt", "r", encoding="utf-8") as file:
34
+ # text_data = file.read().strip()
35
+ # dataset = Dataset.from_dict({"text": [text_data]})
 
 
36
 
37
  # Функція для токенізації данних
38
  def tokenize_function(examples):