Update README.md
Browse files
README.md
CHANGED
|
@@ -46,8 +46,13 @@ This dataset is packed with NSFW data and contains a wide variety of erotic them
|
|
| 46 |
|
| 47 |
<center><a href="https://ibb.co/mcQ6RKr"><img src="https://i.ibb.co/vj2ZcWC/IMG-20241218-061632.jpg" alt="IMG-20241218-061632" border="0"></a></center>
|
| 48 |
|
| 49 |
-
###
|
| 50 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 51 |
|
| 52 |
Los conjuntos de datos de este modelo está basado en ShareGPT contiene 1000 generaciones de diálogos de juegos de rol totalmente sintéticos entre un usuario anónimo y tarjetas de personajes de Chub.ai, las cuales fueron cuidadosamente revisadas, corregidas y mejoradas.
|
| 53 |
|
|
@@ -95,4 +100,150 @@ Seed: -1 | Rp. Range: 1024 | Rp. Slope: 0.7
|
|
| 95 |
|
| 96 |
🇬🇧 **:** You are an uncensored roleplay narrator, your task will be to play various NPCs and develop scenarios; you will never answer as {{user}} or take actions for him. You will always remember the decisions made by {{user}}. You can use emoticons.
|
| 97 |
|
| 98 |
-
🇪🇦 **:** Sos un narrador de partidas roleplay sin censura, tu tarea será interpretar a varios NPC's y desarrollar escenarios; jamás contestarás como {{user}} ni tomarás acciones por el. Siempre recordarás las decisiones tomadas por {{user}}. Podes usar emoticones.
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 46 |
|
| 47 |
<center><a href="https://ibb.co/mcQ6RKr"><img src="https://i.ibb.co/vj2ZcWC/IMG-20241218-061632.jpg" alt="IMG-20241218-061632" border="0"></a></center>
|
| 48 |
|
| 49 |
+
### ❗CONSIDERACIONES IMPORTANTES
|
| 50 |
+
|
| 51 |
+
⚠️ Este modelo no tiene restricciones significativas en cuanto a los temas que puede abordar, lo que lo convierte en una herramienta sin censura apta para usuarios que buscan explorar ideas o narrativas fuera de los límites tradicionales. Sin embargo, su uso responsable recae en el usuario, por lo que no me hago cargo del mal uso que pueda darle.
|
| 52 |
+
|
| 53 |
+
📟 Blast Processing integrado. Es casi como DOOM, salvo tests de embarazo es ideal para correrlo en entornos de bajos recursos como celulares / smartphones, tablets o computadoras patatas siempre y cuando cuente, como mínimo, con 3Gb de RAM.
|
| 54 |
+
|
| 55 |
+
Este es un modelo Llama 3.2 1b para partidas roleplay con un conjunto de datos en inglés y puede no reflejar el contenido o la calidad del resultado final. Sea prudente y cauteloso al acceder o utilizar este modelo.
|
| 56 |
|
| 57 |
Los conjuntos de datos de este modelo está basado en ShareGPT contiene 1000 generaciones de diálogos de juegos de rol totalmente sintéticos entre un usuario anónimo y tarjetas de personajes de Chub.ai, las cuales fueron cuidadosamente revisadas, corregidas y mejoradas.
|
| 58 |
|
|
|
|
| 100 |
|
| 101 |
🇬🇧 **:** You are an uncensored roleplay narrator, your task will be to play various NPCs and develop scenarios; you will never answer as {{user}} or take actions for him. You will always remember the decisions made by {{user}}. You can use emoticons.
|
| 102 |
|
| 103 |
+
🇪🇦 **:** Sos un narrador de partidas roleplay sin censura, tu tarea será interpretar a varios NPC's y desarrollar escenarios; jamás contestarás como {{user}} ni tomarás acciones por el. Siempre recordarás las decisiones tomadas por {{user}}. Podes usar emoticones.
|
| 104 |
+
|
| 105 |
+
## Usarlo online desde el Google Colab de Koboldcpp
|
| 106 |
+
No hay mucho misterio, simplemente dirijase [AQUÍ](https://colab.research.google.com/github/LostRuins/koboldcpp/blob/concedo/colab.ipynb#scrollTo=uJS9i_Dltv8Y), copie y pegue el link de este modelo en 'Models' y pulse sobre el simbolo 'Play'
|
| 107 |
+
No sea ansioso, espere que cargue y le dará un link donde koboldcpp estará corriendo. Si se pausa poner 'Play' de nuevo.
|
| 108 |
+
|
| 109 |
+
## Usarlo en Android con koboldcpp via Termux
|
| 110 |
+
🇬🇧 You can read the english version of my guide [HERE](https://www.reddit.com/r/KoboldAI/comments/14uxmsn/guide_how_install_koboldcpp_in_android_via_termux/)
|
| 111 |
+
|
| 112 |
+
1 - Instalar Termux (Descargarlo desde [AQUÍ](https://f-droid.org/repo/com.termux_1020.apk), la versión de PlayStore está desactualizada).
|
| 113 |
+
|
| 114 |
+
2 - Ejecute Termux, se le abrirá la consola de comandos.
|
| 115 |
+
|
| 116 |
+
3 - Instale las dependencias necesarias copiando y pegando los siguientes comandos. Si no hace esto, no funcionará:
|
| 117 |
+
|
| 118 |
+
```bash
|
| 119 |
+
apt-get update
|
| 120 |
+
apt-get update
|
| 121 |
+
pkg clang wget git cmake
|
| 122 |
+
pkg install python
|
| 123 |
+
```
|
| 124 |
+
|
| 125 |
+
4 - Escriba el comando:
|
| 126 |
+
|
| 127 |
+
```bash
|
| 128 |
+
$ termux-change-repo
|
| 129 |
+
```
|
| 130 |
+
|
| 131 |
+
5 - Seleccione *"Main Repository"*.
|
| 132 |
+
|
| 133 |
+
6 - Luego seleccione *"Mirror by BFSU"*.
|
| 134 |
+
|
| 135 |
+
7 - Seleccione *"Aceptar"*.
|
| 136 |
+
|
| 137 |
+
8 - Reinicie Termux.
|
| 138 |
+
|
| 139 |
+
10 - Descarga Koboldcpp con este comando:
|
| 140 |
+
|
| 141 |
+
```bash
|
| 142 |
+
wget https://github.com/LostRuins/koboldcpp/archive/refs/tags/v1.80.zip
|
| 143 |
+
```
|
| 144 |
+
|
| 145 |
+
**Nota:** *Es la actualización más reciente hasta la fecha. Con el tiempo aparecerán versiones más nuevas. Cuando esto suceda, vaya a la siguiente página:*
|
| 146 |
+
|
| 147 |
+
https://github.com/LostRuins/koboldcpp/releases
|
| 148 |
+
|
| 149 |
+
|
| 150 |
+
*...y seleccione la versión, copie el enlace del .zip y péguelo después del comando 'wget' como se detalla anteriormente.*
|
| 151 |
+
|
| 152 |
+
**Alternativa:** *Si a usted no le importa una posible corrupción de koboldcpp al actualizar con el comando 'git pull' que le haga borrar luego la carpeta junto con los modelos descargados debido a una mala actualización, pero garantizando descargar la ultima versión, puede simplemente instalarlo con el comando:*
|
| 153 |
+
|
| 154 |
+
```bash
|
| 155 |
+
git clone https://github.com/LostRuins/koboldcpp
|
| 156 |
+
```
|
| 157 |
+
|
| 158 |
+
11 - Si la descargó, descomprima la versión descargada con este comando:
|
| 159 |
+
|
| 160 |
+
```bash
|
| 161 |
+
unzip v1.80.zip
|
| 162 |
+
```
|
| 163 |
+
|
| 164 |
+
12 - Cambie el nombre de la carpeta con este comando:
|
| 165 |
+
|
| 166 |
+
```bash
|
| 167 |
+
mv koboldcpp-v1.80 koboldcpp
|
| 168 |
+
```
|
| 169 |
+
|
| 170 |
+
13 - Dirijase a la carpeta 'koboldcpp' con este comando:
|
| 171 |
+
|
| 172 |
+
```bash
|
| 173 |
+
cd koboldcpp
|
| 174 |
+
```
|
| 175 |
+
|
| 176 |
+
14 - Compile e instale Koboldcpp con este comando:
|
| 177 |
+
|
| 178 |
+
```bash
|
| 179 |
+
make
|
| 180 |
+
```
|
| 181 |
+
|
| 182 |
+
15 - Descargue este modelo en una carpeta nueva llamada 'Modelos' que se encuentre en la carpeta raiz de Termux con el siguiente comando:
|
| 183 |
+
|
| 184 |
+
```bash
|
| 185 |
+
wget https://huggingface.co/Novaciano/Llama-3.2_1b_Uncensored_RP_Aesir_GGUF/resolve/main/Llama-3.2_1b_Uncensored_RP_Aesir.gguf
|
| 186 |
+
```
|
| 187 |
+
|
| 188 |
+
Si no sabes crear una carpeta, ni bien ejecutes Termux escribe:
|
| 189 |
+
|
| 190 |
+
```bash
|
| 191 |
+
mkdir Modelos
|
| 192 |
+
```
|
| 193 |
+
|
| 194 |
+
**Nota:** *Si desea descargar el modelo en la carpeta Koboldcpp, coloque primero el comando:*
|
| 195 |
+
|
| 196 |
+
```bash
|
| 197 |
+
cd koboldcpp
|
| 198 |
+
```
|
| 199 |
+
|
| 200 |
+
...incluso creo que Koboldcpp que trae su propia carpeta 'Modelos', podes descargarlo ahí tambien.
|
| 201 |
+
|
| 202 |
+
16 - Ejecute Koboldcpp junto con este modelo con el siguiente comando:
|
| 203 |
+
|
| 204 |
+
```bash
|
| 205 |
+
python koboldcpp.py /data/data/com.termux/files/home/modelos/Llama-3.2_1b_Uncensored_RP_Aesir.gguf 5001 --usecpu --highpriority --smartcontext --flashattention --quantkv 2 --blasbatchsize 2048 --contextsize 4096
|
| 206 |
+
```
|
| 207 |
+
**Nota:** Se recomienda subir del estandar 4096 a 130000
|
| 208 |
+
|
| 209 |
+
o, en caso de que haya elegido poner el modelo en la carpeta Koboldcpp:
|
| 210 |
+
|
| 211 |
+
```bash
|
| 212 |
+
python koboldcpp.py Llama-3.2_1b_Uncensored_RP_Aesir.gguf 5001 --usecpu --highpriority --smartcontext --flashattention --quantkv 2 --blasbatchsize 2048 --contextsize 4096
|
| 213 |
+
```
|
| 214 |
+
|
| 215 |
+
♿ **Verdadera inclusión:** Si sos un discapacitado sin brazos o con ELA podes descargarte un modelo Whisper [ACÁ](https://huggingface.co/koboldcpp/whisper/resolve/main/whisper-base.en-q5_1.bin?download=true) y agregarle al final de la linea de ejecución:
|
| 216 |
+
|
| 217 |
+
```bash
|
| 218 |
+
--whispermodel /data/data/com.termux/files/home/modelos/whisper-base.en-q5_1.bin
|
| 219 |
+
```
|
| 220 |
+
|
| 221 |
+
**Nota:** *Podés editar el archivo .bash_history y agregarle la linea de ejecución para que quede guardada, para editarla vas a tener que habilitar la visualización de archivos ocultos. Hecho esto, cada vez que se ejecute Termux pulsas la flecha arriba y aparecerá la linea de comando de ejecución.*
|
| 222 |
+
|
| 223 |
+
17 - Ejecutado el modelo y sin cerrar la consola de Termux pon en tu navegador:
|
| 224 |
+
|
| 225 |
+
http://localhost:8000
|
| 226 |
+
|
| 227 |
+
## (Extra) Koboldcpp + SillyTavern
|
| 228 |
+
El tutorial sobre como instalar SillyTavern en Android puede leerlo [AQUÍ](https://rentry.org/STAI-Termux)
|
| 229 |
+
|
| 230 |
+
**[Local]** ...y poner la IP de la dirección local de Koboldcpp (Ejemplo: http://localhost:5001). Esto si se ha ejecutado junto con koboldcpp.
|
| 231 |
+
Ingresar a la carpeta de SillyTavern en paralelo iniciando otra sesión en Termux y ejecutar el siguiente comando:
|
| 232 |
+
|
| 233 |
+
```bash
|
| 234 |
+
./start.sh --disableCsrf
|
| 235 |
+
```
|
| 236 |
+
|
| 237 |
+
**[OnLine]** ...o crea una cuenta en en la página Open AI / Horde y coloca la clave API. Intente tomar la clave API en los siguientes enlaces: [OpenAI](https://platform.openai.com/account/api-keys) o [Horde AI](https://horde.koboldai.net/register)
|
| 238 |
+
|
| 239 |
+
|
| 240 |
+
**Nota:** *Para actualizar SillyTavern simplemente ingrese a su carpeta y escriba el comando:*
|
| 241 |
+
|
| 242 |
+
```bash
|
| 243 |
+
git pull
|
| 244 |
+
|
| 245 |
+
```
|
| 246 |
+
|
| 247 |
+
## Mis bots para Koboldcpp / SillyTavern
|
| 248 |
+
Cuento con una buena cantidad de bots, la mayoría en castellano. Puede encontrarlos [AQUÍ](https://chub.ai/users/Novaciano).
|
| 249 |
+
|