autismind-ai / README.md
dksNoob's picture
Deploy limpo do AutisMind AI API com gpt2-small-portuguese
4561404

A newer version of the Gradio SDK is available: 5.34.2

Upgrade
metadata
title: AutisMind AI API Backend
emoji: 🧠
colorFrom: green
colorTo: blue
sdk: gradio
python_version: 3.1
app_file: app.py
requirements_file: requirements.txt
command: uvicorn app:app --host 0.0.0.0 --port 7860

AutisMind AI API Backend

Este Hugging Face Space hospeda o servidor Python da API de Inteligência Artificial para o projeto AutisMind.

Ele fornece uma API RESTful para gerar respostas de texto em português e realizar análises básicas de conversas, focando no desenvolvimento socioemocional de pessoas neurodivergentes.

Modelo de Linguagem Utilizado:

O modelo de linguagem utilizado é o pierreguillou/gpt2-small-portuguese, que é baixado dinamicamente do Hugging Face Hub durante a inicialização do Space. Este modelo é otimizado para o idioma português e é leve o suficiente para ser executado no plano gratuito do Hugging Face Spaces.

Endpoints da API:

  1. POST /generate-response

    • Função: Gera uma resposta de texto da IA para uma mensagem do usuário, considerando um histórico de conversa e uma personalidade de personagem. Também realiza uma análise básica da mensagem do usuário.
    • URL de Exemplo (após o deploy): https://SEU_NOME_DE_USUARIO-SEU_NOME_DO_SPACE.hf.space/generate-response
    • Corpo da Requisição (JSON):
      {
          "message": "Qual é a sua cor favorita?",
          "history": [
              {
                  "role": "user",
                  "content": "Olá, tudo bem?"
              },
              {
                  "role": "assistant",
                  "content": "Olá! Estou bem, obrigado. Como posso ajudar você hoje?"
              }
          ],
          "persona": "Você é um robô de apoio amigável chamado 'Robô Guia', sempre com uma atitude positiva e prestativa.",
          "chatId": "chat-id-exemplo"
      }
      
    • Exemplo de Resposta (JSON):
      {
          "ai_response": "Como um robô guia, não tenho uma cor favorita como os humanos, mas eu adoro a cor azul, pois me lembra do céu e da vasta quantidade de informações que posso processar!",
          "analysis": {
              "sentiment": "positivo",
              "emotion": "alegria"
          }
      }
      
  2. GET /health

    • Função: Verifica o status do servidor da API e se o modelo de IA foi carregado com sucesso.
    • URL de Exemplo (após o deploy): https://SEU_NOME_DE_USUARIO-SEU_NOME_DO_SPACE.hf.space/health
    • Exemplo de Resposta (JSON):
      {
          "status": "ok",
          "model_loaded": true
      }
      

Como Usar:

  1. Crie um Space no Hugging Face com o SDK "Gradio" (conforme instruído, para usar o ambiente Python).
  2. Clone este repositório para a sua máquina local.
  3. Copie os arquivos app.py, requirements.txt, .env (se tiver outras variáveis) e este README.md para o diretório raiz do Space clonado. Não inclua arquivos de modelo grandes (.gguf ou .bin).
  4. Faça o git add ., git commit e git push das suas alterações para o Space.
  5. O Hugging Face irá construir e iniciar sua API. Monitore a aba "Logs" para verificar o progresso e o status.
  6. Uma vez que o Space esteja "Running", use as URLs fornecidas acima para integrar com seu servidor Express e front-end.

Lembre-se de:

  • Substituir SEU_NOME_DE_USUARIO e SEU_NOME_DO_SPACE pelas informações reais do seu Space nas URLs de exemplo.
  • Verificar a python_version no cabeçalho YAML (3.10 é um bom padrão, mas confirme a sua com python3 --version no terminal).