Ollama: Aproveitando o Poder dos Modelos de Linguagem Locais

Nos últimos anos, os modelos de linguagem grandes (LLMs) como o GPT-4 revolucionaram a forma como interagimos com a inteligência artificial. No entanto, utilizar esses modelos geralmente requer acesso à nuvem, o que pode levantar preocupações com priva…


This content originally appeared on DEV Community and was authored by Wanderson Alves Rodrigues

Nos últimos anos, os modelos de linguagem grandes (LLMs) como o GPT-4 revolucionaram a forma como interagimos com a inteligência artificial. No entanto, utilizar esses modelos geralmente requer acesso à nuvem, o que pode levantar preocupações com privacidade, latência e custos. É aqui que entra o Ollama, uma ferramenta poderosa que permite executar LLMs localmente no seu próprio hardware. Neste post, vamos explorar o que é o Ollama, seus benefícios e como você pode começar a usá-lo.

O que é o Ollama?

O Ollama é uma ferramenta de código aberto que possibilita a execução, criação e compartilhamento dos modelos de linguagem (LLMs) diretamente no seu próprio computador. Ele permite que você baixe, gerencie e execute modelos em seu próprio hardware, eliminando a necessidade de dependência da nuvem. Isso significa que você pode ter controle total sobre os seus dados, reduzir a latência das inferências e otimizar o uso dos recursos computacionais disponíveis e ter uma flexibilidade ao permitir a execução de modelos com diferentes configurações e tamanhos.

Benefícios de Usar o Ollama

  1. Privacidade dos Dados: Ao executar modelos localmente, você garante que seus dados não saiam do seu ambiente controlado. Isso é crucial para empresas e indivíduos preocupados com a privacidade e segurança da informação.

  2. Redução de Latência: A execução local dos modelos elimina a necessidade de comunicação com servidores remotos, resultando em respostas mais rápidas e eficientes.

  3. Controle de Recursos: Com o Ollama, você pode otimizar o uso dos recursos de hardware disponíveis, como CPU e GPU, ajustando as configurações para atender às suas necessidades específicas.

  4. Custo-Benefício: Evitar custos de serviços em nuvem pode ser uma vantagem significativa, especialmente para projetos de longo prazo ou com alta demanda de processamento.

Instalando o Ollama

Para instalar o Ollama, você pode baixar diretamente do site oficial ou utilizar uma imagem Docker disponível no Docker Hub. O comando abaixo vai instalar na sua maquina Ollama:

curl -fsSL https://ollama.com/install.sh | sh

Agora que já temos o Ollama instalado, vamos verificar se está tudo funcionando corretamente.

ollama --version

Se tudo estiver funcionando corretamente, você verá a versão do Ollama que está rodando na sua máquina:

ollama version is 0.2.8

Rodando um modelo de Machine Learning com o Ollama

Para nosso exemplo vamos usar o modelo llama3.1 de 8B de parâmetros.O Llama 3.1 criado pela Meta é o primeiro modelo disponível abertamente que rivaliza com os principais modelos de IA quando se trata de recursos de última geração em conhecimento geral, capacidade de direção, matemática, uso de ferramentas e tradução multilíngue.

Para rodar llama3.1, você pode utilizar o seguinte comando:

ollama run llama3.1

Na primeira vez que você rodar o comando, o Ollama irá baixar o modelo do llama3.1 e depois irá rodar o modelo.

pulling manifest 
pulling ff07ca852139... 100% ▕██████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████▏ 4.7 GB                         
pulling cdbcae7e69d5... 100% ▕██████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████▏  571 B                         
pulling f1cd752815fc... 100% ▕██████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████▏  12 KB                         
pulling 56bb8bd477a5... 100% ▕██████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████▏   96 B                         
pulling 7f5b37e43ea5... 100% ▕██████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████▏  485 B                         
verifying sha256 digest 
writing manifest 
removing any unused layers 
success 

Quando você ver o prompt >>> Send a message (/? for help):, você poderá interagir com o modelo.

>>> 
Use Ctrl + d or /bye to exit.
>>> Olá, tudo bem?
Tudo! Quais são as suas dúvidas ou o que você precisa? Estou aqui para te ajudar.

>>> Send a message (/? for help)

Já estamos com o llama3.1 rodando na nossa máquina. Agora podemos interagir com o modelo e ver o que ele é capaz de fazer.
Para sair do modelo, você pode utilizar o comando Ctrl + d no terminal ou digitar /bye no prompt do modelo.
Para listar quais são os modelos disponíveis para rodar com o Ollama, execute o comando:

ollama list

A saída:

NAME            ID              SIZE    MODIFIED      
llama3.1:latest a23da2a80395    4.7 GB  9 minutes ago   

Caso você queira remover um modelo que você baixou, você pode utilizar o seguinte comando:

ollama remove llama3.1  

Instalando o Ollama via Docker

Vamos então efetuar o pull destas imagens:

docker pull ollama/ollama

Agora que já temos as imagens, vamos iniciar um container com o ollama e deixa-lo acessível, para isso iremos executar o comando:

docker run -d -p 11434:11434 --name myollama ollama/ollama

Para verificar se tudo realmente está disponível, vamos executar o comando para verificar a versão do ollama.

docker exec myollama ollama --version

Para rodar o modelo llama3.1:

docker exec -it myollama ollama run llama3.1

Para listar os modelos existentes:

docker exec myollama ollama list

Para remover modelo:

docker exec myollama ollama rm llama3.1

Instalando o Open WebUI

Para que possamos ter uma interface gráfica para a nossa IA, vamos usar a ferramenta é o Open WebUI.
Para instalar o Open WebUI, você pode utilizar o seguinte comando:

docker run -d --network=host -e OLLAMA_BASE_URL=http://127.0.0.1:11434 -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main    

Onde:

  • --network=host é utilizado para que o container tenha acesso a rede da máquina host.

  • -v open-webui:/app/backend/data é utilizado para criar um volume para armazenar os dados do Open WebUI.

  • -e OLLAMA_BASE_URL é utilizado para informar a URL base do Ollama, que está rodando na sua máquina, se você estiver rodando o Ollama em outro lugar, você pode alterar o IP e a porta.

  • --name open-webui é utilizado para dar um nome ao container.

  • --restart always é utilizado para que o container seja reiniciado sempre que a máquina for reiniciada.

  • ghcr.io/open-webui/open-webui:main é a imagem do Open WebUI que será utilizada.

Para acessar o Open WebUI, acesse http://localhost:8080

Depois de criar o usuário, você poderá acessar a interface gráfica e interagir com a sua IA.

Image description

Referências:

Apresentando o Llama 3.1: nossos modelos mais capazes até o momento
Llama 3.1 - 405B, 70B & 8B with multilinguality and long context
Llama 3.1 - huggingface
Ollama
Open WebUI


This content originally appeared on DEV Community and was authored by Wanderson Alves Rodrigues


Print Share Comment Cite Upload Translate Updates
APA

Wanderson Alves Rodrigues | Sciencx (2024-07-24T04:06:42+00:00) Ollama: Aproveitando o Poder dos Modelos de Linguagem Locais. Retrieved from https://www.scien.cx/2024/07/24/ollama-aproveitando-o-poder-dos-modelos-de-linguagem-locais/

MLA
" » Ollama: Aproveitando o Poder dos Modelos de Linguagem Locais." Wanderson Alves Rodrigues | Sciencx - Wednesday July 24, 2024, https://www.scien.cx/2024/07/24/ollama-aproveitando-o-poder-dos-modelos-de-linguagem-locais/
HARVARD
Wanderson Alves Rodrigues | Sciencx Wednesday July 24, 2024 » Ollama: Aproveitando o Poder dos Modelos de Linguagem Locais., viewed ,<https://www.scien.cx/2024/07/24/ollama-aproveitando-o-poder-dos-modelos-de-linguagem-locais/>
VANCOUVER
Wanderson Alves Rodrigues | Sciencx - » Ollama: Aproveitando o Poder dos Modelos de Linguagem Locais. [Internet]. [Accessed ]. Available from: https://www.scien.cx/2024/07/24/ollama-aproveitando-o-poder-dos-modelos-de-linguagem-locais/
CHICAGO
" » Ollama: Aproveitando o Poder dos Modelos de Linguagem Locais." Wanderson Alves Rodrigues | Sciencx - Accessed . https://www.scien.cx/2024/07/24/ollama-aproveitando-o-poder-dos-modelos-de-linguagem-locais/
IEEE
" » Ollama: Aproveitando o Poder dos Modelos de Linguagem Locais." Wanderson Alves Rodrigues | Sciencx [Online]. Available: https://www.scien.cx/2024/07/24/ollama-aproveitando-o-poder-dos-modelos-de-linguagem-locais/. [Accessed: ]
rf:citation
» Ollama: Aproveitando o Poder dos Modelos de Linguagem Locais | Wanderson Alves Rodrigues | Sciencx | https://www.scien.cx/2024/07/24/ollama-aproveitando-o-poder-dos-modelos-de-linguagem-locais/ |

Please log in to upload a file.




There are no updates yet.
Click the Upload button above to add an update.

You must be logged in to translate posts. Please log in or register.