terça-feira, 31 de março de 2026

Quero ficar no meu sistema antigo! Dica rápida para o Ubuntu

Com a data de lançamento do Ubuntu 26.04 LTS se aproximando, 23 de abril de 2026, precisei decidir se vou entrar na nova versão ou me manter na atual. Até não muito tempo atrás a minha mentalidade para linux no PC era que novo = bom, quero novidades, e não há dúvidas. E de fato continuo gostando de novidades, mas dado que estou usando o PC com o Ubuntu para uso pessoal, entretenimento e trabalho, há outras coisas a considerar. O fator estabilidade e previsibilidade pesam mais. Decidi ficar no 24.04 por enquanto, e abaixo explico porque, lembrando que esta não é necessáriamente a melhor opção para todo mundo, então vamos detalhar alguns pontos a serem considerados e ajudá-lo a tomar a melhor decisão para a sua realidade.

quarta-feira, 25 de março de 2026

Criando uma workstation multi-GPU para IA, distribuindo a carga de VRAM

O uso de GPUs para executar LLMs localmente coloca a quantidade de VRAM disponível na máquina, na placa de vídeo, normalmente, como o fator limitante do tamanho do modelo a ser carregado. Algumas arquiteturas de computadores resolvem em parte este problema em parte com uma memória unificada (como máquinas da Apple ou alguns notebooks Windows ARM) e, de fato, isso dá uma certa flexibilidade. Nestes casos existe ainda a restrição da memória total, que em geral é cara e não pode ser aumentada (depois da compra, pois nestes modelos normalmente é soldada, e antes da compra até pode-se configurar mais, só que a peso de ouro).

Mas e se usarmos duas (ou mais) GPUs, poderíamos usar as duas para carregar um modelo maior do que seria suportando individualmente por cada uma, redistribuindo o uso de memória entre as duas? A boa notícia é que isso é possível e relativamente fácil de configurar no Ollama, e possivelmente em outras plataformas similares. Deescreverei um breve experimento para verificar a viabilidade técnica, sem entrar na comparação de custos com outras opções, como a compra de uma GPU maior que a soma das duas, lembrando que a eficiência não é só dependente da quantidade de VRAM, teria que ser feita umas análise custo/benefício completa, comparar diversas placas e conjuntos de placas, rodando benchmarks. A idéia aqui é apenas ver se funciona. No entanto usar as duas GPUs pode ser a diferença em algumas situações entre conseguir rodar o modelo ou não. 

Voltando ao cenário concreto, tenho duas GPUs GTX-1080 (EVGA e Asus ROG), já obsoletas, sem as últimas tecnologias, mas ainda com capacidade razoável para execução de LLMs, com 8 GB de VRAM cada. Alias, um outro motivador para o teste, tenho outras duas GPUs mais atuais, RTX 3060Ti e RX 6600, mas todas tem 8 GB, e não tenho como com uma única placa rodar modelo maior. Tenho à disposição também uma máquina Linux (Ubuntu 24.04 LTS) com 16 GB de RAM, Core i7 6700K e aproximadamente 1.5 TB em SSD SATA (480 Gb + 1 TB). A CPU bem antiga obviamente não é a melhor escolha para uma máquina de produção deste tipo, mas se mostrou válida para o teste. Provavelmente esta solução funcionará com outras GPUs, incluindo AMD, mas isso não foi testado, embora as GPUs nVidia dominem largamente o mercado e seriam o caso mais comum. Também não vejo porque não funcionaria em outras distros linux ou mesmo no Windows. De todo modo, para registro, o teste foi feito com sucesso com Ubuntu Linux e nVidia. Apenas a facilidade de balanceamento de carga de memória do Ollama é que não sei se é similar em outras soluções deste tipo, lembrando que o Ollama está disponível também em Windows.  

O primeiro passo é a instalação física da segunda placa de video. O PC usado já tinha uma GTX 1080 no slot principal (16x). Olhando no manual da motherboard e planejando uma separação saudável entre as duas placas, para evitar aquecimento, coloquei a segunda placa dois slots abaixo depois. É uma placa ATX normal, e elas ficaram a uns 10 cm de distância entre si. Importante, não utilizei pontes SLI entre as placas. Uma pesquisa rápida me mostrou que agora em 2026 o SLI está totalmente morto, não é utilizado nem em jogos e muito menos o Ollama não utilizaria esta via para comunicação de dados. Tudo é feito pelo barramento normal do PC. Notar também que no segundo slot PCI-e utilizado, por limitações da placa mãe, a velocidade ficou em 4x. Isso não causou problema algum. Outros dois pontos de atenção aqui, o gabinete, que pode ser um ATX barato, mas o ideal é que não seja muito compacto, por motivos obvios, e ofereça boa ventilação. E a fonte de alimentação tem que segurar tudo, ser de qualidade razoável (aliás isso sempre, independente do uso), e ter boa margem na potência total. Usei uma Corsair CX750M, também nada muito extraordinário. 

Próximo passo, ligar o PC e confirmar que tudo continua funcionando como antes (a não ser talvez por alguns jogos, como comento no último parágrafo, e que podem precisar de ajustes nas configurações e parametros de inicialização para forçar a placa certa). Neste momento estamos com duas GPUs, a "GPU 0", na qual está ligado o monitor (ou mais), e a "GPU 1", a qual vai ficar em princípio apenas para processamento. Um fato interessante é que como usei placas semelhantes, de chipsets iguais, na maioria das vezes dentro de jogos, não tenho como diferenciar pois aparecem exatamente com a mesma descrição. tenho que ir por tentativa e erro, levando em conta a ordem em que aparecem, ou que a primieira é a zero e a segunda é a 1, o que eventualmente não é verdade. Um pequeno contratempo, mas de qualquer modo são apenas duas tentativas (e não 3 como no USB-A... rs). As vezes, como no comando a seguir, é possivel diferencia-las por alguma característica. Por exemplo, a Asus tem uma potência máxima maior (198 W contra 180W da EVGA e isso já aparece logo no comando a seguir).  

Entre agora em um terminal e rode:

            nvidia-smi

Isso obviamente só vale para nVidia, placas AMD e Intel devem ter algo semelhante. Deve aparecer uma saída semelhante à tela abaixo (clique pra aumentar se necessário):


Aqui podemos ver que a segunda placa, a "GPU 1", está conectada corretamente e acessível, do contrário não apareceria, e vemos como disse antes, a capacidade máxima listada de 198W. Note também que o Xorg já alocou um processo nela, há como impedir isso completamente mas não achei necessário. Além disso é possivel acompanhar dados sobre a saúde da placa, percentual de uso dos fans, temperatura e bem importante, a memória usada por cada processo. É por aqui que comprovaremos que o modelo está sendo distribuído entre as duas placas (além do fato que muitos deles nem caberiam em apenas uma). Isso conclui a etapa da instalação da segunda GPU, confirmando que o PC continua normal e a segunda placa foi instalada corretamente e reconhecida pelo sistema. 

A próxima etapa já será observar um modelo rodando nas duas. Em seguida, caso já não tenha no seu PC, instale o Ollama:

            curl -fsSL https://ollama.com/install.sh | sh

Agora teste com um modelo pequeno, para um download rápido:

            ollama run mistral-nemo

Recomendo explorar um pouco o Ollama no terminal, mesmo que depois a intenção seja usar pela interface Web, apesar de ser linha de comando é bem simples e intuitivo. Rode o comando "nvidia-smi" em outra janela de terminal, de preferência enquanto a IA estiver pensando, se bem que ela não desaloca a memória imediatamente depois, por eficiência, já que o usuário pode continuar mandando prompts no mesmo chat. Observe que a GPU 1 já está sendo usada pelo Ollama.

Agora vamos testar um modelo maior, que fará mais sentido neste teste. Rode por exemplo, no terminal:

            ollama run llama3.1:8b-instruct-q8_0

ou o "gemma3:12b", ou o "gpt-oss:20b", ou qualquer um se sua escolha, o importante aqui é escolher um que caiba na capacidade total somada das suas duas placas e que seja maior do que uma das duas placas. No caso aqui estou escolhendo modelos entre 8 e 16 GB (porque as duas placas aqui tem 8 GB, no caso do seu teste o valor total pode ser diferente). O ponto é provar que estou rodando um modelo que não poderia por estar com apenas uma das duas placas. Pelos meus testes, quando o modelo é maior ou nem abre ou fica extremamente lento. Aqui a coisa começa a ficar interessante, rode de novo "nvidia-smi" em outra janela de terminal, com a IA grande resolvendo algum prompt, o que pode até ser difícil, já que a maioria dos comandos fois resolvida de imediato e é dificil encontrar algum que demora, mas como também mencionei, não é crítico. Observe abaixo:



O total consumido pelo modelo é 5.974 MB + 6.736 MB, ou seja, mais de 8 e, além disso, note com a GPU 1 está sendo mais usada.

A seguir um item de preparação, que é de certa forma opcional em um teste rápiudo, mas e rápido e demonstra um cenário mais realista. A intenção é que o Ollama interfira o minimo nas aplicaçãoes graficas rodando, seja jogo ou outra aplicação profissional. Para isso o procedimento abaixo inverte a prioridade de uso das GPUs pelo Ollama:  

                              sudo systemctl edit ollama.service

E no editor que irá abrir, inserir:

            [Service] 

            Environment="CUDA_VISIBLE_DEVICES=1,0" 

            Environment="OLLAMA_HOST=0.0.0.0"

Salve e saia. A primeira linha muda a prioridade de uso do Ollama, e a segunda será necessária depois para compatibilizar com o Web-UI, e já que estamos com a mão na massa podemos inserir logo. Essa mudança de prioridade das GPUs também vai ajudar na compatibilização com jogos, podendo eventualmente se dar ao luxo de jogar e deixar a IA rodando, dependendo da VRAM consumida por cada um deles, o jogo e o modelo. Os jogos (se for o caso) deverão rodar sempre na GPU 0, ao passa que o Ollama começara a preencher pela GPU 1, embora acabe balanceando entre as duas, como poderá ser observado rodando de vez em quando o "nvidia-smi". 

Logo a seguir execute no terminal:

            sudo systemctl daemon-reload

            sudo systemctl restart ollama

Após tudo funcionando e testado, ainda existem algumas considerações a fazer. Primero que, para uso prático é interessante instalar uma interface web, como o conhecido Web-UI. Na realidade quando escrevo já fiz isso e ela está operacional, mas não vou incluir aqui para não ficar tão extenso. Penso em publicar depois o procedimento de instalaçâo, apenas para registro, mas em todo caso o processo não tem muito mistério e pode ser encontrado na Web. O foco aqui foi mais a novidade, pelo menos para mim, do uso de mais de uma placa. Cabe apenas ressaltar aqui que existe um segundo método de instalação em que tudo é instalado por container, ao contrário da que usei, na qual o Ollama é instalado direto no sistema operacional host e depois a WebUi apenas acessa a API do Ollama pelo protocolo padrão. 

O outro ponto é a compatibilidade com outras aplicações gráficas na máquina. No meu caso tenho a pretensão de também usar este PC para jogar alguns jogos no Steam e no Lutris. Antes quando estava usando apenas uma GTX 1080 tudo funcionava perfeitamente. Ao inserir a segunda placa tive que fazer algumas configurações para evitar conflitos em alguns jogos, que se confundem com a existência da segunda placa e podem direcionar o processamento para ela, com resultados adversos (lembrando que a segunda placa não controla vídeo). Na realidade a instalação do Web-UI e a resolução deste conflitos demorou muito mais tempo que a primeira parte que foi fazer os modelos funcionarem nas duas placas, mas também nada extraordiário. A compatibilização dos jogos acho que vale um terceiro post.

A questão final: vale a pena para uso prático montar PC multi GPU para IA? Acho que depende muito, mas já adiantando que provavelmente eu manterei o resultado desta implementação o meu para uso pessoal. Na minha realidade não precisei comprar nenhuma peça, e complementando depois com configurações para tornar o uso mais prático, como instalaçâo Web-UI e outras configurações dos jogos, está se mostrando uma solução muito funcional e barata. Se eu tivesse um uso profissional remnunerado e orçamento tenderia a ir com uma unica placa poderosa e atual, mas estou apenas fazendo testes.

Caso não se tenha nenhuma GPU disponível teria que fazer as contas, comparar comprar duas ou uma única mais cara, bem como as diferenças de performance entre essas opções, pois existe o tráfego pelo barramento da máquina envolvido também. E também valeria a pena considerar o mercado de pĺacas usadas. Além disso, soluções assim  talvez façam mais sentido em ambiente de testes doméstico, profissional individual, já que com orçamento maior é fácil buscar opções prontas otimizadas. O custo pode até ficar menor, mas o usuário terá que garantir toda a compatibilidade das peças, tamanho do gabinete, capacidade da fonte, posição dos slots, etc.

terça-feira, 24 de março de 2026

Ubuntu 26.04 "Resolute Raccoon" e Fedora 44: O Futuro do Desktop Linux Chegou


 

Abril de 2026 promete ser um dos meses mais agitados para a comunidade Linux nos últimos anos, marcando o encontro de dois gigantes em momentos cruciais de seus ciclos de desenvolvimento. De um lado, temos o Ubuntu 26.04 LTS (Resolute Raccoon), uma versão de suporte de longo prazo que servirá de base para empresas e usuários domésticos pelos próximos cinco anos (ou mais). Do outro, o Fedora 44, que continua sua tradição de ser a vitrine tecnológica do ecossistema, trazendo o que há de mais recente no mundo do software livre. Ambos os lançamentos chegam em um momento de maturidade para o Wayland e para as novas interfaces gráficas, consolidando mudanças iniciadas anos atrás.

segunda-feira, 23 de março de 2026

O que esperar da crise de hardware de PC em 2025/2026?

 


Neste início de 2026, continuamos a sentir os efeitos da alta de preços para o consumidor final em componentes essenciais de PCs (DIY), em especial memórias e SSDs. Em menor escala, mas também com tendência de alta, estão as placas de vídeo — que utilizam VRAM de alta capacidade e competem pelas mesmas linhas de produção de chips de memória usados em servidores de IA. Esse aumento reflete-se, de forma mais lenta mas perceptível, em dispositivos prontos; não apenas computadores, mas tudo o que demande RAM e armazenamento. O encerramento das atividades da Crucial (marca da Micron para o consumidor final) é um forte indício de que a situação não é passageira, impactando profundamente a estrutura do mercado e elevando as incertezas.

As previsões de líderes da indústria apontam para uma normalização entre 2027 e 2030. Contudo, não se deve encarar essa afirmação como uma promessa de que o mercado retornará ao "normal" pré-2025. Tal visão parece excessivamente otimista; as declarações oficiais soam mais como contenção de danos para evitar o caos e justificar escolhas que, embora racionais do ponto de vista corporativo, impactam negativamente o consumidor. O "novo normal" deve ser bem diferente. Embora ninguém tenha bola de cristal, podemos usar as tendências atuais para traçar três cenários e, assim, tentar nos planejar, adaptar ou, na pior das hipóteses, nos preparar psicologicamente.

domingo, 22 de março de 2026

Versão 44 do Fedora tem lançamento previsto para abril

 O Fedora 44 (atualmente em fase Beta) chega para consolidar tecnologias de ponta, trazendo o GNOME 50 como o grande protagonista da edição Workstation. O foco desta versão é o refinamento absoluto da experiência do usuário, com melhorias significativas na escala fracionada para monitores HiDPI e um suporte mais robusto ao VRR (Variable Refresh Rate), o que é uma excelente notícia para quem utiliza telas de alta taxa de atualização em setups de produtividade ou jogos.

Sob o capô, o sistema é impulsionado pelo Kernel Linux 6.19, garantindo compatibilidade nativa com o hardware mais moderno do mercado. Um marco importante desta versão é a consolidação definitiva do Wayland como backend padrão; o Fedora 44 encerra oficialmente o suporte ao Xorg, focando em uma arquitetura de exibição mais segura, performática e preparada para o futuro do desktop Linux.

Com lançamento oficial previsto para abril de 2026, o Fedora 44 reafirma sua posição como a distro de vanguarda para desenvolvedores e entusiastas de TI. Se você já quiser testar essas novidades no seu hardware, a versão Beta já está disponível, oferecendo um vislumbre do que há de mais estável e moderno no ecossistema open source.

sábado, 21 de março de 2026

Instalando WoW retail no Ubuntu 24.04 LTS via Flatpack

Instalando hoje o WoW retail (Midnight) via flatpack no Ubuntu 24.04.4 LTS.  O objetivo da instalação via flatpack, ao invés de instalações diretas como feito antes, é evitar conflitos com bibliotecas do sistema principal.

O hardware é basicamente o meu PC principal de 2016:

Core i7 6700K (Intel Core de sexta geração, 4 núcleos e 8 threads)

Motherboard Asus ROG IX Apex

RAM: 16 GB DDR4 2400 (2x8)

GPU: GTX 1080

SSD: SATA 480 GB


Procedimento resumido, excluindo atualizações de bibliotecas, drivers e etc.:

1) Instalar o flatpack, que ao contrário do Snap não é padrão no Ubuntu:

        


sudo apt install flatpak


2) Instalar o Lutris via flatpack

        


flatpak install flathub net.lutris.Lutris


3) Instalar o Battle.Net pelo Lutris

        3.1. Abra o Lutris.

        3.2. Clique no ícone "+" no canto superior esquerdo e escolha "Search the Lutris website for installers".

        3.3. Digite "Battle.net".

        3.4. Selecione o Battle.net e clique em Install.

        O Lutris vai baixar scripts e configurar o ambiente Wine automaticamente.

        Atenção: Durante a instalação, o Battle.net pode pedir para instalar o "Wine Mono". Pode aceitar e instalar. Quando a janela de login do Battle.net aparecer, NÃO FAÇA LOGIN AINDA. Apenas feche a janela para que o Lutris finalize a configuração corretamente.

Uma vez que o Battle.Net esteja instalado, basta se logar e instalar o WoW normalmente por meio dele. Não consegui perceber qualquer diferença dentro do jogo entre rodar no Windows ou Linux.

O próximo passo seria instalar também o CurseForge, possibilitando o uso dos addons do WoW. Em breve tentarei, para verificar se e como ele se integra ao Battle.Net instalado pelo método acima e, em caso de sucesso, postarei por aqui.