Riva4GPT
Home » Riva4GPT

El proyecto Riva4GPT surge después de mi ultimo diplomado de inteligencia artificial. El objetivo es tener una aplicacion que sirva para correr modelos de inteligencia artificial LLMs en una computadora, utilizando tecnología open source y desarrollando con Python.

Riva4GPT Inteligencia Artificial en tu computadora

Riva4gpt (r4gpt) es una aplicacion diseñada para ejecutar Modelos de inteligencia artificial (LLM's) de forma local en tu computadora, no necesitas hardware especializado, solo una computadora de ultimas generaciones. Su diseño te permitira tener modelos de Inteligencia Artificial en tu computadora

Con esta app podras ejecutar un Modelo de Inteligencia artificial (LLM) en formato chatbot de forma local tipo Chat GPT sin estar conectado a internet o pagar rentas mensuales por su uso y sobre todo no mandaras nada informacion a terceros, ya que el modelo esta en tu computadora y no se comparte con nadie

Riva4Gpt puede utilizar modelos Open Source que se descargan de el sitio seguro huggingface.co, estos modelos son publicos y fueron seleccionados para poder correr en tu computadora

Cuando inicias la aplicacion por primera ves, requiere acceso a internet para descargar los modelos, el Riva4gpt es el motor para correr los modelos de forma local, es un software personalizable para correr modelos pre entrenados por terceros

Descarga desde OneDrive
Version 1.03

Instalador Windows:

 

Si prefieres Archivos en ZIP:

 
  • Riva4GPT
  • La version 1.03 Cuenta con 3 modelos para descargarlos, los tres modelos se descargan dentro de la app desde el sitio Hugging Face y son modelos publicos, la app riva4gpt (r4gpt) es un motor para correr estos modelos en tu computadora de forma local, para descargar los modelos requieres una conexion a internet, , despues de desacargar algun modelo correra 100% en tu equipo de computo
  • Esta aplicacion esta diseñada para aprender los conceptos basicos de inteligencia atificial en los LLMs y la utilizo para dar presentaciones de como funciona un llm
  • Existen muchos Modelos de LLMs en en internet, seleccionamos de forma segura los existentes en Hugging Face, estos modelos son creados por las empresas que los publican en este sitio.
  • Se seleccionaron 3 modelos por su tamaño y su eficiencia, estos modelo pueden correr casi en cualquier computadora moderna, pero el motor puede correr cualquier modelo GGUF
  • La aplicacion esta basada en LLAMA CPP con su modelo open source y es capas de correr diferentes tamaños de modelos que sean compatibles con GGUF
  • Los requisitos minimos de la computadora para modelos 1B son:
    1. Procesador intel de 13va generacion core i5/ Ryzen equivalente
    2. 8 Gb de Ram
    3. Disco duro NVME
    Requisitos para modelos de 8B a 12B
    1. Procesador intel 13va gen Core i7 /Ryzen equivalente
    2. 16/32 GB de ram
    3. Disco NVME
    Requisitos para correr los modelos en tarjetas graficas
    1. Tarjeta NVIDIA RTX 8 GB Nvram (modelos 1-8gb)
    2. Tarjeta NVIDIA RTX 16gb Nvram (modelos 12-16gb)
  • Opciones de instalacion en:

    https://1drv.ms/f/c/86808964c76104c3/EoBCOAcB7KZGjOVhYVk3O1kBIq37yrwd6O2Xc-GYwr2w8Q?e=7oJnGs

  • Agregamos la opcion con un instalador de Windows para facilitar la instalacion, con este ejecutable se agrega a los programas de Windows y se crea un ShortCut para que el usurio lo pueda ver de forma facil.
    Con esta ocpcion de instalacion el path de los modelos se encuentra en el folder "Mis Documentos" de Windows
  • En configuracion se agrego la opcion "Verbose", esta opcion sirve para ver en la consola las acciones de la aplicacion y la ejecucion del modelo, solo recomendado para ver funcionamiento interno y correccion de errores

informacion:

Descarga de este link riva4gpt

  • Riva4GPT ver 1.02
  • Interfase de escritorio para correr Modelos de inteligencia artificial (LLM) de forma local en computadoras modernas, no necesitas tarjeta grafica o algo especial para poder correr al aplicacion en tu equipo
  • Esta version cuenta con 3 modelos pre seleccionados, para correr en computadoras con el hardware recomendado de forma rapida y eficiente.
  • Se agrega la opcion de ejecutar en el navegador por default, al iniciar el agente se abre el link para conectarte de forma local