Spaces:
Paused
Paused
Update finetunning.py
Browse files- finetunning.py +5 -6
finetunning.py
CHANGED
@@ -21,19 +21,18 @@ os.makedirs('./fine_tuned_model', exist_ok=True)
|
|
21 |
os.chmod('./fine_tuned_model', 0o777)
|
22 |
|
23 |
# Завантаження моделі та токенізатора
|
24 |
-
model_name = "
|
25 |
tokenizer = AutoTokenizer.from_pretrained(model_name)
|
26 |
model = AutoModelForCausalLM.from_pretrained(model_name)
|
27 |
|
28 |
# Завантаження датасета (приклад з використанням датасета wiki_text)
|
29 |
# dataset = load_dataset("wikitext", "wikitext-2-raw-v1", split="train")
|
|
|
30 |
|
31 |
# Завантаження данних з локального тестового файлу
|
32 |
-
with open("ilya_klimov_data.txt", "r", encoding="utf-8") as file:
|
33 |
-
|
34 |
-
|
35 |
-
# Створення датасету
|
36 |
-
dataset = Dataset.from_dict({"text": [text_data]})
|
37 |
|
38 |
# Функція для токенізації данних
|
39 |
def tokenize_function(examples):
|
|
|
21 |
os.chmod('./fine_tuned_model', 0o777)
|
22 |
|
23 |
# Завантаження моделі та токенізатора
|
24 |
+
model_name = "meta-llama/Meta-Llama-3.1-8B"
|
25 |
tokenizer = AutoTokenizer.from_pretrained(model_name)
|
26 |
model = AutoModelForCausalLM.from_pretrained(model_name)
|
27 |
|
28 |
# Завантаження датасета (приклад з використанням датасета wiki_text)
|
29 |
# dataset = load_dataset("wikitext", "wikitext-2-raw-v1", split="train")
|
30 |
+
dataset = load_dataset("Aniemore/resd")
|
31 |
|
32 |
# Завантаження данних з локального тестового файлу
|
33 |
+
# with open("ilya_klimov_data.txt", "r", encoding="utf-8") as file:
|
34 |
+
# text_data = file.read().strip()
|
35 |
+
# dataset = Dataset.from_dict({"text": [text_data]})
|
|
|
|
|
36 |
|
37 |
# Функція для токенізації данних
|
38 |
def tokenize_function(examples):
|