Novaciano commited on
Commit
2f498ac
·
verified ·
1 Parent(s): 360c5f9

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +154 -3
README.md CHANGED
@@ -46,8 +46,13 @@ This dataset is packed with NSFW data and contains a wide variety of erotic them
46
 
47
  <center><a href="https://ibb.co/mcQ6RKr"><img src="https://i.ibb.co/vj2ZcWC/IMG-20241218-061632.jpg" alt="IMG-20241218-061632" border="0"></a></center>
48
 
49
- ### ⚠️ ADVERTENCIA:
50
- Este es un modelo Llama 3.2 1b Experimental para partidas roleplay con un conjunto de datos en inglés y puede no reflejar el contenido o la calidad del resultado final. Sea prudente y cauteloso al acceder o utilizar este modelo.
 
 
 
 
 
51
 
52
  Los conjuntos de datos de este modelo está basado en ShareGPT contiene 1000 generaciones de diálogos de juegos de rol totalmente sintéticos entre un usuario anónimo y tarjetas de personajes de Chub.ai, las cuales fueron cuidadosamente revisadas, corregidas y mejoradas.
53
 
@@ -95,4 +100,150 @@ Seed: -1 | Rp. Range: 1024 | Rp. Slope: 0.7
95
 
96
  🇬🇧 **:** You are an uncensored roleplay narrator, your task will be to play various NPCs and develop scenarios; you will never answer as {{user}} or take actions for him. You will always remember the decisions made by {{user}}. You can use emoticons.
97
 
98
- 🇪🇦 **:** Sos un narrador de partidas roleplay sin censura, tu tarea será interpretar a varios NPC's y desarrollar escenarios; jamás contestarás como {{user}} ni tomarás acciones por el. Siempre recordarás las decisiones tomadas por {{user}}. Podes usar emoticones.
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
46
 
47
  <center><a href="https://ibb.co/mcQ6RKr"><img src="https://i.ibb.co/vj2ZcWC/IMG-20241218-061632.jpg" alt="IMG-20241218-061632" border="0"></a></center>
48
 
49
+ ### ❗CONSIDERACIONES IMPORTANTES
50
+
51
+ ⚠️ Este modelo no tiene restricciones significativas en cuanto a los temas que puede abordar, lo que lo convierte en una herramienta sin censura apta para usuarios que buscan explorar ideas o narrativas fuera de los límites tradicionales. Sin embargo, su uso responsable recae en el usuario, por lo que no me hago cargo del mal uso que pueda darle.
52
+
53
+ 📟 Blast Processing integrado. Es casi como DOOM, salvo tests de embarazo es ideal para correrlo en entornos de bajos recursos como celulares / smartphones, tablets o computadoras patatas siempre y cuando cuente, como mínimo, con 3Gb de RAM.
54
+
55
+ Este es un modelo Llama 3.2 1b para partidas roleplay con un conjunto de datos en inglés y puede no reflejar el contenido o la calidad del resultado final. Sea prudente y cauteloso al acceder o utilizar este modelo.
56
 
57
  Los conjuntos de datos de este modelo está basado en ShareGPT contiene 1000 generaciones de diálogos de juegos de rol totalmente sintéticos entre un usuario anónimo y tarjetas de personajes de Chub.ai, las cuales fueron cuidadosamente revisadas, corregidas y mejoradas.
58
 
 
100
 
101
  🇬🇧 **:** You are an uncensored roleplay narrator, your task will be to play various NPCs and develop scenarios; you will never answer as {{user}} or take actions for him. You will always remember the decisions made by {{user}}. You can use emoticons.
102
 
103
+ 🇪🇦 **:** Sos un narrador de partidas roleplay sin censura, tu tarea será interpretar a varios NPC's y desarrollar escenarios; jamás contestarás como {{user}} ni tomarás acciones por el. Siempre recordarás las decisiones tomadas por {{user}}. Podes usar emoticones.
104
+
105
+ ## Usarlo online desde el Google Colab de Koboldcpp
106
+ No hay mucho misterio, simplemente dirijase [AQUÍ](https://colab.research.google.com/github/LostRuins/koboldcpp/blob/concedo/colab.ipynb#scrollTo=uJS9i_Dltv8Y), copie y pegue el link de este modelo en 'Models' y pulse sobre el simbolo 'Play'
107
+ No sea ansioso, espere que cargue y le dará un link donde koboldcpp estará corriendo. Si se pausa poner 'Play' de nuevo.
108
+
109
+ ## Usarlo en Android con koboldcpp via Termux
110
+ 🇬🇧 You can read the english version of my guide [HERE](https://www.reddit.com/r/KoboldAI/comments/14uxmsn/guide_how_install_koboldcpp_in_android_via_termux/)
111
+
112
+ 1 - Instalar Termux (Descargarlo desde [AQUÍ](https://f-droid.org/repo/com.termux_1020.apk), la versión de PlayStore está desactualizada).
113
+
114
+ 2 - Ejecute Termux, se le abrirá la consola de comandos.
115
+
116
+ 3 - Instale las dependencias necesarias copiando y pegando los siguientes comandos. Si no hace esto, no funcionará:
117
+
118
+ ```bash
119
+ apt-get update
120
+ apt-get update
121
+ pkg clang wget git cmake
122
+ pkg install python
123
+ ```
124
+
125
+ 4 - Escriba el comando:
126
+
127
+ ```bash
128
+ $ termux-change-repo
129
+ ```
130
+
131
+ 5 - Seleccione *"Main Repository"*.
132
+
133
+ 6 - Luego seleccione *"Mirror by BFSU"*.
134
+
135
+ 7 - Seleccione *"Aceptar"*.
136
+
137
+ 8 - Reinicie Termux.
138
+
139
+ 10 - Descarga Koboldcpp con este comando:
140
+
141
+ ```bash
142
+ wget https://github.com/LostRuins/koboldcpp/archive/refs/tags/v1.80.zip
143
+ ```
144
+
145
+ **Nota:** *Es la actualización más reciente hasta la fecha. Con el tiempo aparecerán versiones más nuevas. Cuando esto suceda, vaya a la siguiente página:*
146
+
147
+ https://github.com/LostRuins/koboldcpp/releases
148
+
149
+
150
+ *...y seleccione la versión, copie el enlace del .zip y péguelo después del comando 'wget' como se detalla anteriormente.*
151
+
152
+ **Alternativa:** *Si a usted no le importa una posible corrupción de koboldcpp al actualizar con el comando 'git pull' que le haga borrar luego la carpeta junto con los modelos descargados debido a una mala actualización, pero garantizando descargar la ultima versión, puede simplemente instalarlo con el comando:*
153
+
154
+ ```bash
155
+ git clone https://github.com/LostRuins/koboldcpp
156
+ ```
157
+
158
+ 11 - Si la descargó, descomprima la versión descargada con este comando:
159
+
160
+ ```bash
161
+ unzip v1.80.zip
162
+ ```
163
+
164
+ 12 - Cambie el nombre de la carpeta con este comando:
165
+
166
+ ```bash
167
+ mv koboldcpp-v1.80 koboldcpp
168
+ ```
169
+
170
+ 13 - Dirijase a la carpeta 'koboldcpp' con este comando:
171
+
172
+ ```bash
173
+ cd koboldcpp
174
+ ```
175
+
176
+ 14 - Compile e instale Koboldcpp con este comando:
177
+
178
+ ```bash
179
+ make
180
+ ```
181
+
182
+ 15 - Descargue este modelo en una carpeta nueva llamada 'Modelos' que se encuentre en la carpeta raiz de Termux con el siguiente comando:
183
+
184
+ ```bash
185
+ wget https://huggingface.co/Novaciano/Llama-3.2_1b_Uncensored_RP_Aesir_GGUF/resolve/main/Llama-3.2_1b_Uncensored_RP_Aesir.gguf
186
+ ```
187
+
188
+ Si no sabes crear una carpeta, ni bien ejecutes Termux escribe:
189
+
190
+ ```bash
191
+ mkdir Modelos
192
+ ```
193
+
194
+ **Nota:** *Si desea descargar el modelo en la carpeta Koboldcpp, coloque primero el comando:*
195
+
196
+ ```bash
197
+ cd koboldcpp
198
+ ```
199
+
200
+ ...incluso creo que Koboldcpp que trae su propia carpeta 'Modelos', podes descargarlo ahí tambien.
201
+
202
+ 16 - Ejecute Koboldcpp junto con este modelo con el siguiente comando:
203
+
204
+ ```bash
205
+ python koboldcpp.py /data/data/com.termux/files/home/modelos/Llama-3.2_1b_Uncensored_RP_Aesir.gguf 5001 --usecpu --highpriority --smartcontext --flashattention --quantkv 2 --blasbatchsize 2048 --contextsize 4096
206
+ ```
207
+ **Nota:** Se recomienda subir del estandar 4096 a 130000
208
+
209
+ o, en caso de que haya elegido poner el modelo en la carpeta Koboldcpp:
210
+
211
+ ```bash
212
+ python koboldcpp.py Llama-3.2_1b_Uncensored_RP_Aesir.gguf 5001 --usecpu --highpriority --smartcontext --flashattention --quantkv 2 --blasbatchsize 2048 --contextsize 4096
213
+ ```
214
+
215
+ ♿ **Verdadera inclusión:** Si sos un discapacitado sin brazos o con ELA podes descargarte un modelo Whisper [ACÁ](https://huggingface.co/koboldcpp/whisper/resolve/main/whisper-base.en-q5_1.bin?download=true) y agregarle al final de la linea de ejecución:
216
+
217
+ ```bash
218
+ --whispermodel /data/data/com.termux/files/home/modelos/whisper-base.en-q5_1.bin
219
+ ```
220
+
221
+ **Nota:** *Podés editar el archivo .bash_history y agregarle la linea de ejecución para que quede guardada, para editarla vas a tener que habilitar la visualización de archivos ocultos. Hecho esto, cada vez que se ejecute Termux pulsas la flecha arriba y aparecerá la linea de comando de ejecución.*
222
+
223
+ 17 - Ejecutado el modelo y sin cerrar la consola de Termux pon en tu navegador:
224
+
225
+ http://localhost:8000
226
+
227
+ ## (Extra) Koboldcpp + SillyTavern
228
+ El tutorial sobre como instalar SillyTavern en Android puede leerlo [AQUÍ](https://rentry.org/STAI-Termux)
229
+
230
+ **[Local]** ...y poner la IP de la dirección local de Koboldcpp (Ejemplo: http://localhost:5001). Esto si se ha ejecutado junto con koboldcpp.
231
+ Ingresar a la carpeta de SillyTavern en paralelo iniciando otra sesión en Termux y ejecutar el siguiente comando:
232
+
233
+ ```bash
234
+ ./start.sh --disableCsrf
235
+ ```
236
+
237
+ **[OnLine]** ...o crea una cuenta en en la página Open AI / Horde y coloca la clave API. Intente tomar la clave API en los siguientes enlaces: [OpenAI](https://platform.openai.com/account/api-keys) o [Horde AI](https://horde.koboldai.net/register)
238
+
239
+
240
+ **Nota:** *Para actualizar SillyTavern simplemente ingrese a su carpeta y escriba el comando:*
241
+
242
+ ```bash
243
+ git pull
244
+
245
+ ```
246
+
247
+ ## Mis bots para Koboldcpp / SillyTavern
248
+ Cuento con una buena cantidad de bots, la mayoría en castellano. Puede encontrarlos [AQUÍ](https://chub.ai/users/Novaciano).
249
+