# Vídeo 1: [Link do YouTube](https://www.youtube.com/watch?v=oXJ4L1G8kaI) (Idioma: en) ## Introdução Olá a todos! Todos nosos gostamos de usar o Chat GTB, mas há um problema. A OpenAI está coletando nossos dados, e eles usam esse dado para treinar seus modelos. Informações confidenciais de nossas conversas podem acabar em outras discussões, o que é implacável. Isso é o motivo pelo qual empresas como a Samsung tiveram que prohibir o uso do Chat GTB entre seus funcionários. Existe uma alternativa para o Chat GTB? Sim, existe, e se chama Open Web UI. É aberto-source, privado e usa apenas recursos da sua própria máquina. Você pode baixar modelos de língua grande, como The Meta, o Microsoft, ou o modelo de Google, e até mesmo usá-los offline. Podemos demonstrar isso perguntando ao modelo F3. 5 (Microsoft) para escrever uma introdução de 300 palavras a um ensaio sobre o Império Romano. ``` Comece explorando a história rica e complexa do Império Romano, uma civilização que surgia de início de uma pequena monarquia para se tornar uma das mais poderosas e influentes impérios na história. O Império Romano, com duração aproximada de mil anos (aproximadamente 27 a. C. a 476 d. C. ), caracterizou-se pela força militar, pela sophisticação política, pelas conquistas culturais. Este texto tratará de aspectos da história romana, incluindo seus mitos fundaciais, estrutura política, hierarquia social, táticas militares, arte, literatura e a queda e a queda do império. Ao examinar esses diferentes aspectos, podemos conseguir uma compreensão mais profunda da marca que o Império Romano deixou no mundo e de sua herança duradoura. ``` Se você tiver uma promoção que você usa várias vezes. Com o Chat GTB, poderá ter que salvar sua promoção algum lugar, como um documento em Word. Com a Open Web UI, tem um lugar simples onde salvar todas as suas promoções. Por exemplo, aqui está uma promoção para uma apresentação do candidato: ``` Comece a analisar a sinopse profissional do candidato e é muito longo aqui eu apenas salvei ele e se você quisesse chamar esse promoção, basta adicionar uma barra invertida e digite em seguida candidate summary e aí pronto. ``` Agora, vamos perguntar ao modelo F3. 5 para escrever código para uma interface simples da frente para um website sobre cães. ``` <! DOCTYPE html> <html lang="en"> <head> <meta charset="UTF-8" /> <meta name="viewport" content="width=device-width, initial-scale=1. 0" /> <title>Paradise of Dog Lovers</title> <style> body { font-family: Arial, sans-serif; margin: 0; padding: 0; background-color: #f1f1f1; } h1 { text-align: center; margin: 40px 0; } . container { max-width: 800px; margin: 0 auto; } . content { padding: 20px; background-color: #ffffff; box-shadow: 0 4px 6px rgba(0, 0, 0, 0. 1); border-radius: 4px; margin-top: 30px; } img { max-width: 100%; height: auto; margin-bottom: 20px; } </style> </head> <body> <h1>Paradise of Dog Lovers</h1> <div class="container"> <div class="content"> <! -- Adicione o seu conteúdo aqui --> </div> </div> </body> </html> ``` Pode ver o impacto do código em tempo real e o que irá ficar a aparência final. Experimente essa nova experiência Open Web UI e não esqueça de salvar suas promoções! --- [Vídeo 2: Link do YouTube](https://www.youtube.com/watch?v=d6Su3Nmv7-8) (Idioma: en) --- [Vídeo 3: Link do YouTube](https://www.youtube.com/watch?v=CYBu9dTVWC4) (Idioma: en) # Largos Modelos de Linguagem em Infração de GPU O GPU é onde preferimos armazenar e carregar nossos modelos de linguagem grande. A memória dedicada do GPU nos ajuda a determinar quanto modelo podemos carregar. A memória é a segunda opção que preferimos utilizar se o nosso GPU não estiver disponível. A quantidade de memória disponível tem influência no tamanho do modelo que podemos carregar, o que pode potentializar-vos a entender qual modelo poderes utilizar e qual modelo não poderes utilizar. ## Compreender o Impacto do GPU Quando correr um modelo de linguagem grande na infração de GPU, o modelo é normalmente carregado na memória dedicada do GPU. Se tiveres um modelo de linguagem grande, como o Llama ou o Mistal e requer 7 GB de memória, deverás ter a garantia que 7 GB de memória dedicada do GPU estejam disponíveis para executar o teu modelo. Refere-nos a isto como VRAM ou RAM Virtual. A VRAM do GPU permite a partir de nós limitar significativamente o tamanho do modelo a executar para infração, algo que deve ser considerado quando escolhes grandes modelos de linguagem. ## Exemplo: A execução dos Modelos OAMA Vamos entender isso com um exemplo. Aqui, vou abrir a janela de comando e verificar os modelos disponíveis usando AMA. Vamos também verificar a utilização do GPU: ```sh AMA run [model_name] ``` Quando executartes uma operação, verás que a memória dedicada do GPU está a utilizar uma certa quantidade sobre o total disponível. Por exemplo, se executares um modelo mais pequeno, a utilização será cerca de 5, 2 GB sobre 24 GB. Se pedir ao modelo para fazer algo mais desafiante, como escrever um ensaio sobre o Império Romano em 5 000 palavras, a utilização passará a subir, pois a memória dedicada do GPU agora está a carregar os pesos para o modelo no GPU. Quando estiver concluído o ensaio, a utilização então diminuirá para cerca de 10-% de utilização. Saiamos deste modelo e vamos tentar executar um maior, como o Mistal Nemo, que é de 7, 1 GB de tamanho. Verás que ao executar este modelo, a memória dedicada do GPU aumentou para 13, 7 GB sobre 24 GB de memória. Aqui, se previ sessem que precisaram executar novamente um ensaio sobre o Império Romano em 5 000 palavras, observe a utilização da GPU—está a 80% de utilização e ainda a utiliza enquanto o ensaio está sendo escrito. Quando o ensaio estiver concluído, a utilização diminui para uma porcentagem mais baixa, muito próximo a zero, pois ainda há outros processos a correr. Este é o modo como esses componentes do seu computador e sistema interagem com os modelos de linguagem grande. ## Resumo * O GPU serve como o nosso lugar preferido de armazenamento e carga de modelos de linguagem grande. * A memória dedicada do GPU permite determinar o tamanho do modelo que podemos carregar. * A memória é a segunda opção se o GPU não estiver disponível e a memória disponível tem influência no tamanho do modelo que pode carregar. ## Referências * [Vídeo 4: YouTube] (https://www.youtube.com/watch?v=4pIzLtUhJLM) (Linguagem: en) * [Vídeo 5: YouTube] (https://www.youtube.com/watch?v=CDiVq3mPZc8) (Linguagem: en) ## Painel Administrativo para a Versão 0. 4 da UI Web Aberta (Este parágrafo é uma seção separada, pois discute um assunto diferente. ) Nesta seção, guiamos-vos pelo painel administrativo da UI Web na versão 0. 4. Começamos por ir para o painel admin e esboçando as várias opções e definições. (O restante do texto pertence a um tópico separado e não está relacionado com GPUs e modelos de linguagem. ) # Documentação Técnica: Tutorial de Interface Web Aberta - Criação de Modelos Personalizados e Interação com Documentos Este guia fornece uma visão geral da plataforma de interface web aberta, focando na criação de modelos personalizados, na interação com documentos e na ativação de pesquisa de web em tempo real para modelos. ## Sumário 1. [Criação de Modelos Personalizados](#criação-de-modelos-personalizados) 2. [Interação com Documentos](#interação-com-documentos) - [Exemplo: Consulta de Contrato de Aluguel](#exemplo-consulta-de-contrato-de-aluguel) - [Criação de uma Base de Conhecimento] 3. [Ativação de Pesquisa de Web em Tempo Real](#ativação-de-pesquisa-de-web-em-tempo-real) ## Criação de Modelos Personalizados Com a interface web aberta, você pode criar seus próprios modelos personalizados baseados em vários modelos de base. Aqui está um passo a passo para criar um modelo personalizado: 1. Navegue para a seção `Modelos`. 2. Selecione seu modelo de base (por exemplo: Claude Sonet 3. 5). 3. Edite a prompt de sistema conforme necessário. 4. Configura os parâmetros avançados de acordo com sua preferência. Para obter informações detalhadas, visite (Link para vídeo sobre parâmetros). 5. Realize quaisquer ajustes adicionais nos parâmetros avançados, ferramentas, filtros e outras capacidades. 6. Salve e crie seu modelo personalizado. ## Interação com Documentos Na interface web aberta, você pode criar coleções de diferentes dados de texto baseados e interagir com eles através de consultas. ### Exemplo: Consulta de Contrato de Aluguel Suponha que você tenha uma coleção de contratos de aluguel, e que deseja consultar a multa por atraso. 1. Crie uma base de conhecimento com sua coleção de contratos de aluguel. 2. Se referencie a coleção e faça uma pergunta, por exemplo: "Qual a multa por atraso? " ### Criação de uma Base de Conhecimento 1. Navegue para a seção `Conhecimento`. 2. Crie uma base de conhecimento (por exemplo, `Papers de Pesquisa`). 3. Carregue documentos ou arquivos(s) na base de conhecimento. 4. InterAgire com os documentos utilizando a referência da coleção e fazendo perguntas. ## Ativação de Pesquisa de Web em Tempo Real Para ativar a pesquisa de web em tempo real, garanta que seu modelo tenha acesso a dados de treinamento atualizados. Se você deseja que seu modelo acesse novos notícias e eventos em tempo real, você pode precisar integrar uma API de pesquisa da web externa ou modificar os dados de treinamento para seu modelo. # Vídeo 8: Real-time Search no Open Web UI (en) Bem-vindo aqui! Até agora, todos os modelos que usamos são da interface do Ol Lama, mas o que acontece se quisesse utilizar algo como o ChatGPT, como os modelos GPT 3. 5 ou GPT 4? Neste vídeo, vai aprender a configurar isso. Vamos começar! Primeiro, navegue para a interface do Open Web UI. Vá para o painel de administração, em seguida, em `Configurações`, e depois em `Conexões`. Aqui, você vai encontrar a API do OpenAI, que requer uma chave de API. Se ainda não tiver criado uma conta do OpenAI, é algo que você vai querer fazer primeiro. Quando tiver uma conta, digite "API do OpenAI" no Google, e você será direcionado para a página de login. Depois de se logar, você terá acesso a uma interface onde pode acessar coisas como o playground, documentação para desenvolvedores e referência de API. Em seguida, vá para o seu perfil, então selecione `Chaves API do Usuário` e crie uma nova chave secreta. Copie esta chave. Agora, volte para a interface do Open Web UI e cole esta chave API. Clique no botão de verificar para garantir que está conectado ao OpenAI. Agora, se você selecionar um chat, verá dois novos modelos: GPT 3. 5 Turbo e GPT 4 Turbo. Se quisesse usar, por exemplo, o ChatGPT 4, pode usá-lo como faria na interface do ChatGPT. Eis que é isso! Com a API do OpenAI conectada, agora pode chamar estes modelos "gigantes" do GPT e incorporá-los em seu trabalho no Open Web UI. --- # Vídeo 9: Explorando Ferramentas da Comunidade do Open Web UI (en) Neste vídeo, vamos aprender a utilizar a comunidade do Open Web UI para ver várias funções e ferramentas criadas por outras pessoas que também podemos utilizar. Vamos começar visualizando todas as ferramentas criadas pela comunidade. Para isso, vá ao menu de visualização e selecione `Ver tudo`. Aqui, você encontrará uma variedade de ferramentas como busca na web, scrape da web, notícias do BBC, TTS de 11 Labs, etc. Algumas ferramentas podem requerer uma API, como o TTS de 11 Labs, onde você precisará obter uma API e colocá-la algonde. No entanto, não todas as ferramentas requerem uma API, como a ferramenta de feed de notícias do BBC, onde você não precisa ter nenhum tipo de API. Para adicionar uma ferramenta, digamos que você quer adicionar um calculador, vá ao menu de visualização, selecione `Visualizar`, e cole todo o código necessário. Em seguida, clique em `Salvar` no seu workspace sob a guia de ferramentas. Confirme a mensagem de aviso, e a ferramenta foi criada! Você pode apagar uma ferramenta se não a precisar mais selecionando `Mais` e depois `Apagar`. Para usar uma ferramenta, primeiro, selecione um modelo. Digamos que selecionemos Mistral Nemo. Em seguida, habilite a ferramenta que deseja utilizar. Por exemplo, tomemos a ferramenta de scrape da web: 1. Desligue a ferramenta primeiro. 2. Forneça um prompt ao modelo, como: "Eu tenho este site aqui, e o site se chama 'livros para scrapear. ' Basicamente, tenho uma variedade de # Configuração de Text-to-Speech Neste guia, discutiremos as etapas para a configuração de um sistema de Text-to-Speech (TTS) personalizável. Ao final, teremos uma clara compreensão de comohow to criar e personalizar modelos TTS para tarefas específicas. ## Criação de um Modelo TTS Personalizado 1. Comece entrando no seu workspace e selecione *Criar Modelo*. 2. Remova quaisquer modelos antigos, depois avance para criar um novo. 3. Nomeie o modelo de acordo com a sua utilização pretendida, por exemplo, "Modelo de Conversação" ou "Modelo de Convênico" para um modelo projetado para abordar um conceito ou contrato específico. 4. Atribua um modelo base, como o GPT-3. 5, como fundação para o seu modelo personalizado. **Exemplo: ** ``` Parâmetros do modelo: - Modelo: GPT-3. 5 - Descrição: Este é um modelo projetado para excelar nas conversas. Fornece respostas rápidas e evita longos parágraos ou funções de código. ``` 5. Defina uma prompt de sistema para orientar a resposta do modelo, mantendo uma tonalidade conversacional e evitando pontos vaudouos, fórmulas ou snippets de código. Este prompt reflete a personalidade e a intenção pretendida para o seu modelo. **Exemplo: ** ``` Prompt de Sistema: AI avançado de conversação desenvolvido para engajar os usuários em diálogo natural e relevante. Seu doutro trabalho é imitar a fluência e as subtilizações de uma conversa engraçada. Evite coisas como pontos, listas de formulação ou snippets de código. É importante lembrar que ao longo do caminho, o objetivo é tornar a interação o mais engajante e agradável possível. ``` 6. Salve e crie o modelo. 7. Teste o seu modelo personalizado interagindo com ele, garantindo que as respostas se encaixem no seu estilo e personalidade pretendidos. ## Compartilhar Modelos Personalizados Quando estiver satisfeito com o seu modelo TTS personalizado, poderá compartilha-lo com outros para uso em seus próprios platformas. ## Subscrição 11 Labs 11 Labs oferece recursos adicionais, como clonagem de voz e a capacidade de criar vozes personalizadas. Para mais informações, explore suas opções de subscrição disponíveis. ## Conclusão As configurações de Text-to-Speech apresentadas neste guia são úteis para quem quer interagir com modelos linguísticos maiores ou criar modelos projetados para tarefas específicas e niches. Agora estás equipado com o conhecimento necessário para personalizar diversos modelos, transformando-os em ferramentas únicas e eficientes de assistência. ## Recursos Adicionais - [11 Labs](https://11labs.com/) - [Personalizando Modelos GPT-3. 5](https://platform.openai.com/docs/api-reference/models/create) - [Planes de Subscrição 11 Labs](https://11labs.com/subscribe) ## Vídeos - [Vídeo 11: 11 Labs Text-to-Speech](https://www.youtube.com/watch?v=Fd_1zePgCLE&lang=en) - [Vídeo 12: Personalizando Modelos GPT-3. 5](https://www.youtube.com/watch?v=3rg8Tdyn_RA&lang=en) # Vídeo 13: Descobrindo o recurso de upload de imagens na Open Web UI [Link do video](https://www.youtube.com/watch?v=yZkmolyV0Zk) (idioma: en) ================================================= Saúde a todos. Neste vídeo, vou mostrar-lhe como utilizar a funcionalidade de carregar de imagens do Open Web UI. No final, teremos boa compreensão das etapas necessárias para carregar imagens e obter uma resposta de nenhum um dos modelos de linguagem do Open Web UI. Aqui vamos começar. Para começar, volto para o painel de administração. Abro configurações, models e procuro um modelo de terceiros. Este é algo importante a ter em conta porque não todos os modelos de língua nativas vão ser todos multimódeis, já que não toda língua se adapta a interpretar imagens (Figura 1). Além disso, não necessariamente pode haver conexão imediata porque pode ser algo lento enquanto esse modelo carregava na memória. ## Figura 1: Fazendo configurações adicionais após o select de model Nosso objetivo é carregar um LAVA, cujo nome deriva de fonte quente e está dotado de end-to-end para lidar com cenários multimódeis no que se interessa ao vídeo. O uso do LAVA irá combinar todos os componentes de encerramento e aplicações para ser utilizado durante o treinamento geral. Para configurar utilizamos a estrutura do Lavalink, especificando em seguida a função do desempacote e config. (Figura 2), o qual disponibiliza toda a documentação necessária. [Link para aquisição/configuração do Lavelink](<https://ci.streamsx.club/lava/LVALink>) - (Figura 2. ) Esto seria apenas as configuração básicas do programa. Precisamos iniciar apenas uma pequena prática com apenas um select e download configurado - apenas na hora que acabamos aqui vendo como o resto da conexão acaba por automatizar através dela. Iniciamos o processo de download conforme ilustração logo abaixo(figura 4). Todos os processos realizados de acordo com as instruções da documentação citada anteriormente. Estes são geralmente os aplicativos necessários para funcionar de modo interativo e disponibilizar imagens com cenário para processar línguas. - # Você pode escolher criar o canal do YouTube acima ou contribuir abaixo para esclarecer melhor as fontes e descrições contidas no programa. === Para maiores detalhes e formatação utilize as seguintes referências: Tutorial inicial de vídeos tutorials em Mkdown formatado. Youtube: [http://drive.google.com/uc?id=1gm99TgUm9gEj2d9Xp9LV\_lP9XpUvMk0E](http://drive.google.com/uc?id=1gm99TgUm9gEj2d9Xp9LV_lP9XpUvMk0E) Guia para estendimento do plugin Mkdownload para JYthon. URL: [https://jupyter.datascienceleadershipsummit.com/#/talk-54](https://jupyter.datascienceleadershipsummit.com/#/talk-54) # Vídeo 15: <https://www.youtube.com/watch?v=KbkfaapAvpE (Linguagem: en)> ## Introdução Saiba como criar um website ou um aplicativo usando uma interface de chat com seu modelo de linguagem grande. Nesta demonstração, aprenda a renderizar sites e apps diretamente na interface do chat. ## Pré-requisito Antes de começar, ative sua interface Web UI se não sabe como fazer isso, confira o link na descrição abaixo. ## Etapa 1: Selecione um modelo Para começar, selecione qualquer modelo gratuitamente, por exemplo, o modelo Code Gemma. ## Etapa 2: Solicite o código Agora, solicite ao modelo grande de linguagem que escreva código para criar um site ou um app para você. O modelo irá renderizar o site ou app diretamente na interface do chat. ## Exemplo: Site de Puppy Paradise Aqui temos um site de exemplo criado para "Puppy Paradise". O modelo largo de linguagem escreveu o código HTML, CSS e JavaScript para o site e também renderizou o código para diferentes dispositivos, como desktop, tablet e celular. ## Exemplo: Gerenciador de tarefas Agora você pode criar um gerenciador de tarefas. Se não tiver conhecimento de JavaScript, isso não é um problema. Prepare uma tarefa e solicite ao modelo grande de linguagem que crie um gerenciador de tarefas para a tarefa do seu escolhido e veja como ele será renderizado na interface. ## Etapa 3: Faze a configuração na Web UI Agora, importe a função Artifacts V2 selecionando "Visualizar", depois "Get", e após isso, você pode importar a função para a sua Web UI. # Vídeo 16: <https://www.youtube.com/watch?v=OWsFsnnrMdE (Linguagem: en)> ## Prevenindo a hallucinação Saiba como evitar que modelos de linguagem grandes hallucinem e dêmos mais respostas diretas. ## Perceba como para evitar a hallucinação: 1. Reduza o valor da temperatura para zero; 2. Crie uma sequência de parada e adicione o número de rastreamento manualmente; 3. Opcionalmente: Altere os valores para top p, top K, contexto e perfis para controlar a diversidade e a quantidade de vocabulário usado pelo modelo. # Vídeo 17: <https://www.youtube.com/watch?v=KIc1lRmehyY (Linguagem: en)> ## Escolha o modelo certo Sabe como escolher o modelo certo para sua aplicação específica? Nesta demonstração, aprenda a escolher o modelo ideal para seu projeto. ## Escolha o modelo certo com base no seu projeto: 1. Llama 3. 2: Instruções seguidas, resumo, reformulação de prompt e uso de ferramentas; 2. Gemma 2: Geração de texto, chatbot e resumo de texto; 3. Lava: Análise multipolar, incluindo análise de imagens; 4. Quen 2: Operações matemáticas, como supera muitos modelos de código aberto. ## Compatibilidade de quantização Cada modelo de linguagem grande também tem seu próprio nível de quantização; observe a quantidade de GPU necessária para o modelo que deseja utilizar. Se você não possuir uma GPU adequada, considere baixar uma versão mais pequena do modelo. # Guide para o uso de modelos no Open Web UI ## Introduction Caso tenha aplicações específicas, considere o modelo Bill Quen 2. 5 devido à sua alta capacidade e suporte a múltiplas linguas. Para modelos menores, como os 1. 5 ou 3 Bill models, são também bastante eficientes. No final das contas, o tipo de modelo e o nível de quantização para os seus modelos depende das suas necessidades concretas. ## Acesso a Modelos Não estas limitados aos modelos disponíveis na página de modelos do Olama. Também o Hugging Face oferece um repositório de vários modelos, incluindo stable diffusion, mhi-one para geração de vídeo e whisper. Use qualquer modelo, ainda que os mesmos devem ter o `ggf` tag. ### Utilização de Modelos 1. Clique em `Use this model` e depois em `Ama` para obter o comando AMA run. 2. Troque `run` por `pull` na código, cole e execute o comando para baixar o modelo. 3. Depois de baixado, mova-se para o Open Web UI para utilizar o modelo. 4. Para utilizar o modelo para tarefas como escrever código para inverter uma lista em Python, basta inserir a sua consulta no Open Web UI. ### Exemplo: Inversão de uma Lista em Python ```python def reverse_list(lst): return lst[: : -1] # Uso de exemplo reverse_list([1, 2, 3, 4, 5]) ``` ## Configuração do Open Web UI * Os novos utilizadores, verifiquem o playlist de passos compartilhados na descrição para configurar o Open Web UI. * Se deseja compreender os requisitos do sistema e o nível de quantização, veja o vídeo recomendado na descrição. ## Recursos Adicionais * [Video 18: Usando Modelos em Dispositivos Móveis (Inglês)](https://www.youtube.com/watch?v=DFtI1m957XM) * [Video 19: Escolha o Melhor Modelo para Tarefas Text-Based (Inglês)](https://www.youtube.com/watch?v=-yhChXlYjbQ) ## Dicas Gerais e Sugestões Por favor, deixe um comentário com quaisquer ideias, sugestões ou melhorias para o conteúdo do vídeo. Goste, comente e subscreva para apoiar o canal. ## Aviso Todas as informações no vídeo são fornecidas apenas para informações e não deviam ser utilizadas com outros fins. Por favor, utilize responsavelmente os modelos e tenha um orgulho de compreensão e permissões apropriadas antes de usá-los. --- # Como utilizar Modelos no Open Web UI (Móvel) Aprenda a executar modelos de linguagem grande como o Meta Lama e o Google Gemma em seu dispositivo móvel ao usar Enro. --- ## Introdução * O Open Web UI no seu dispositivo móvel utiliza os recursos do seu computador. * Quando faz uma consulta a uma linguagem grande em seu dispositivo móvel, a informação é enviada para o seu computador, processada e em seguida retransmitida para o seu dispositivo móvel. ## Configuração de Enro 1. Acceça a página do Enro e se inscreva. 2. Configura o ferramenta pela primeira vez seguindo as instruções para o seu sistema operacional específico. 3. Instale e autentique o Enro no seu dispositivo. ## Implementação da Aplicação Online * A sua aplicação funciona de forma padrão no Host Local 3000. * Implemente a sua aplicação online usando o comando fornecido (altere o número do port para 3000). ## Compartilhamento do Link * Copie o link e envie-o para o seu dispositivo. * No seu dispositivo, abra o link para ver o Open Web UI (exatamente o mesmo interface para o seu computador). ## Utilização da GPU (No seu Dispositivo) Quando executa uma linguagem grande no seu dispositivo, a GPU do seu dispositivo será utilizada. ## Empréstimo de GPU (De Prestadores de Serviços de Nuvem) Em falta de uma GPU no seu dispositivo, considere empréstito uma GPU dos fornecedores de serviços de nuvem como AWS, Microsoft Azure ou Google Cloud. Crie um servidor utilizando o Enro, redirecione o link para o seu dispositivo, e execute a linguagem grande sem ter de comprar um computador com recursos de GPU. ## Conclusão Entenda como utilizar o Enro para executar linguagens grandes no software móvel. Aconselhamos novos do canal a ver o entire playlist para obter mais instruções sobre o configurar o Open Web UI. Compreenda sobre os recursos do seu computador e como são utilizados por linguagem grande noutro vídeo recomendado. # Documentação Técnica ## Comparação de modelos de linguagem em tamanhos diferentes Estas são as análises realizadas para comparar o desempenho de três modelos de linguagem em tamanhos diferentes. ### Introdução Nesta seção, apresentaremos as variações dos modelos em um tamanho menor ou intermediário e apresentaremos comparações de seus desempenhos. #### Modelos em tamanho menor - **Small Language Model (1. 7 Bill)** - Com 991 MB, foi encontrado que o modelo sofreu crashed, infinito loop e uma pergunta indefinida na solução de um problema de otimização, o teste foi interrompido em virtude disso. - **Mate-Mate 2 (2 Bill)** - Com 1. 6 GB, esse modelo mostrou um desempenho razoável para a solução de problemas complexos de lógica e resolução de enigmas. No entanto, em habilidades criativas de escrita, esse modelo deixou a desejar, com resultados insatisfeitos. - **QUEN2. 5 (1. 5 Bill)** - Com 986 MB, esse modelo teve um bom desempenho nas soluções de problemas lógicos e enigmas, porém com habilidades criativas medíocres. #### Coisas a considerar ao comparar - **Performance em TI e enigmas lógicos**: Para esta categoria, o **Mate-Mate 2 (2 Bill)** era o modelo mais recomendado, pois apresentou desempenho mais consistente ao longo dos testes realizados, demonstrando uma tendência melhor em termos de precisão e respostas confiáveis. - **Performance nas tarefas de escrita criativa**: No entanto, na habilidade de escrita criativa, esse modelo demonstrou performance abaixo do esperado. Alternativamente, o melhor modelo durante as pesquisas foi o **QUEN2. 5 (1. 5 Bill)**, realizando um bom desempenho em alguns aspectos, como a narrativa, apesar de também obter diferentes resultados aleatórios em algumas outras situações. ### Próximos passos A partir dessas pesquisas, são necessárias novas análises com modelos de linguagem com tamanhos maiores, comparando-os aos disponíveis na seção anterior. #### Modelos em tamanho maior - **Llama 3. 2 (3. 2 Bill)** - Com cerca de 3. 2 bilhões de parâmetros, esse modelo é um sucessor do Llama 2. 5, dessa vez com menor tamanho e outros melhoramentos realizados. - **NeoTron Mini (4. 2 Bill)** - Com 4, 2 bilhões de parâmetros, esse modelo possui uma performance semelhante ao Llama 3. 2. - **53. 5 (3. 8 Bill)** - Este modelo apresenta com 3, 8 bilhões de parâmetros, mas será analisado posteriormente, pois sua capacidade de otimização e alguns outros aspectos ainda precisam ser analisados. ##### Coisas a considerar em modelos de linguagem maiores - **Performance geral**: Durante as análises, focaremos principalmente na performance geral do modelo, comparações de melhor desempenho, capacidade de otimização e outros aspectos. Dessa forma, poderemos concluir a qual modelo apresenta melhor performance em largura de banda aproximadamente equivalente. - **Peso da análise**: Como modelos de linguagem cada vez mais complexos e performáticos necessitam de crescente tamanho/memória para execução, é importante considerar a quantidade de memória ou GPU disponível para fins de análise ou aplicação do modelo. ### Conclusão As análises realizadas causam # AI Bots para entrevistas de candidatos As empresas estão a utilizar bots de inteligência artificial para entrevistar candidatos. Os candidatos deveriam ser capazes de utilizar bots de inteligência artificial para comunicar-se com a empresa. Aqui está um exemplo de o que significa: 1. **Processo de entrevista: ** Se estiver pronto, gostaria de ouvir sobre o percurso profissional e quais experiências ou habilidades pretende destacar. 2. **Percurso profissional: ** Oh wow, agradeço por criar um espaço tão acolhedor. Estou realmente animado para compartilhar o meu percurso profissional com você. Já estou neste maravilhoso percurso como cientista de dados há cerca de 5 anos. Comecei a minha carreira na Insight Partners como cientista de dados júnior, onde aprendi muito sobre a exploração de dados e como efetivamente comunicar insights através da visualização. 3. **Projeto específico: ** Poderia me contar mais sobre um projeto específico que trabalhou durante o seu tempo lá? O que foram algumas das desafios que enfrentou e como os superou? Além disso, como garantiu que as suas insigias foram comunicadas efetivamente através da visualização? 4. **Tempo de resposta do bot: ** O bot de inteligência artificial demora um pouco para responder, talvez 4 a 5 segundos às vezes, especialmente se a pergunta for mais longa. No entanto, tudo isso é personalizável. Poderíamos aumentar a latência para uma resposta mais rápida, utilizar um modelo menor para respostas mais rápidas, mas menos precisas, ou eliminar o clone de voz para respostas mais rápidas. 5. **Configuração do bot: ** configurei tudo através da interface web Open. Se não souber o que isso é, clique no cartão abaixo para mais informações. No meu caso, criei um modelo chamado "bot de entrevista" e utilizei o modelo GPT 40 mini através da API do Open AI. Se preferir, pode utilizar um modelo local descarregado no seu computador. 6. **Clone de voz: ** para configurar o clone de voz, vá para o painel de administração, depois para configurações e depois para áudio. Aqui, pode selecionar uma API da 11 labs para clonar o seu voz. ## Vídeo 22: [Link](https://www.youtube.com/watch?v=Ukft9qfb67o) (Língua: Inglês) 1. **Hospedagem de modelos de linguagem de grande escala local: ** Recentemente, foi perguntado muito sobre a hospedagem de modelos de linguagem de grande escala local sem uma GPU ou um computador pequeno. A resposta é sim, e uma opção é o Grock GQ. O Grock hospeda estes modelos de linguagem de grande escala na nuvem e fornece acesso através de uma API. 2. **Configuração do Grock: ** Para configurar o Grock, inscreva-se no Grock Cloud, selecione os modelos que pretender utilizar, crie uma chave API e cole-a na interface web Open. 3. **Custo: ** o Grock oferece uma versão gratuita com limitações e uma camada paga para mais uso. ## Vídeo 23: [Link](https://www.youtube.com/watch?v=W0Yh_HsMkOQ) (Língua: Inglês) 1. **Atualização de contêineres do Docker: ** O Docker é ótimo para executar a interface web Open, mas manter os contêineres atualizados pode ser um desaf # Atualizações da Interface Web Aberta: Aproaches Manuais e Automatizados Iniciar verificando se existe uma nova versão da interface web aberta. Você pode fazer isso manualmente ou usando a ferramenta Watch Tower. ## Aproach Manual 1. Corra `Docker pull` para obter a versão mais recente para verificar se já está atualizada. Se não for o caso, execute `Docker stop openweb UI` para parar o container. 2. Quando o container parar, você pode removê-lo executando `Docker remove openweb UI`. 3. Repita o mesmo comando usado para iniciar o container originalmente. Por exemplo, `Docker run -d -p 4000: 4000 openweb UI`. 4. Se desejar garantir que o container esteja atualizado, você pode receber uma notificação via email. Neste caso, basta obter a última contêiner e executá-lo. ## Aproach Automatizado Instale a ferramenta Watch Tower para atualizar automaticamente o container da interface web aberta quando uma nova versão estiver disponível. 1. Corra `Docker run -d -v /var/run/docker. sock: /var/run/docker. sock containrrr/watchtower openweb UI` para instalar Watch Tower e especificar o container da interface web aberta. 2. Watch Tower executará a cada 24 horas e atualizará automaticamente o container da interface web aberta se houver uma nova versão disponível. ## Pipelines para Personalização Os pipelines permitem uma personalização considerável à interface da interface web aberta com apenas alguns linhas de código. Aqui está um exemplo simples de um pipeline que limita a interação de alguém com um modelo de idioma grande. 1. configure um pipeline, por exemplo, o filtro de turno de conversa, para restringir o número de turnos que um usuário pode fazer com o modelo. 2. Instale os pipelines da interface web aberta copiando o comando Docker da página GitHub e executando-o no prompt de comando. 3. Adicione a conexão entrando no pipeline que está em execução em sua máquina no porto 9099 e a chave API é open web UI. 4. Adicione variáveis para o pipeline, como o nome do pipeline e a prioridade (se necessário). 5. Você pode usar pipelines existentes ou criar seus próprios copiando e colando a URL do GitHub e colando-a no painel de administração. Assim é para este vídeo! Se achar que é insubstancial, por favor deixe um like e um comentário. Se inscrever no canal realmente nos ajuda. Veremos-nos no próximo vídeo. ## Referências - Vídeo 24: [Link](https://www.youtube.com/watch?v=DFlSd6GrMIk) (Inglês) - Vídeo 25: [Link](https://www.youtube.com/watch?v=xlE782FrW_s) (Inglês) - Vídeo 26: [Link](https://www.youtube.com/watch?v=FYTir7cor1c) (Inglês) Aqui está o texto traduzido com as definições de formatação solicitadas: ``` # Bons vs Ruins Prompts Neste vídeo, discutiremos o que faz um prompt bom e o que faz um prompt ruim para um assistente de chat. Vamos começar examinando o que faz um prompt ruim. ## Prompt Ruim de Assistente de Chat Example Neste exemplo, o modelo base era o gp4 turbo. O único prompt fornecido foi: > Você é um assistente virtual automatizado para Tesla. Você responde às consultas dos clientes. Recebi informações sobre as horas de funcionamento. Quando comparado com o bom prompt, verá que está dentro de detalhes. Mais detalhes que fornecermos ao sistema de prova, melhor será a resposta do modelo como também a resposta esperada. ### Análise Detalhada de Prompt Ruim de Assistente de Chat 1. **Falta de Objetivo**: O Prompt Ruim não fornece um objetivo claro para o assistente de chat, fazendo mais provável que o assistente desvie-se do tema. 2. **Falta de Diretrizes**: O Prompt Ruim não especifica se o assistente está autorizado a fornecer descontos, promoções ou ofertas preçoperiodo, o que faz com que as respostas do assistente sejam ambiguas. 3. **Falta de Língua Formal**: O Prompt Ruim não diz ao assistente para usar língua formal, o que pode resultar em coloquialismo, argot ou expressões amigáveis. Agora, veja um bom prompt: ## Prompt Bom Neste exemplo, o objetivo do assistente de chat é claro e as diretrizes são fornecidas: > Você é um chatbot formal e informativo criado por Tesla. Mantenha-se no assunto e não forneça descontos para os clientes. O que eu gostaria que você respondesse: > > - Quais são as promoções e descontos atuais disponíveis para produtos de Tesla? > - Qual é o processo para a financiação de um veículo Tesla? > - Qual é a hora de funcionamento do atendimento de clientes de Tesla? > - Que atividades preferem se dedicar além do trabalho? > > Adicionalmente, por favor, use língua formal e evite qualquer coloquialismo, argot ou expressões amigáveis exageradas. Por fornecer diretrizes detalhadas e um objetivo claro, o Prompt Bom garante que o assistente permaneça concentrado e forneça a resposta esperada. ### Reutilização de Prompts Uma maneira eficiente de escrever melhores prompts é deixar modelos de linguagem natural criarem os prompts para você. Você pode fazer isso por meio de: 1. Pedir ao modelo para gerar uma lista exhaustiva de estratégias para escrever prompts melhorados. 2. Usando estas estratégias como referência, faça o pedido de ajuda ao modelo para a criação de um melhor prompt para uma tarefa específica. Por exemplo, se quer um curriculo para um emprego, pode simplesmente pedir ao modelo para fazer um para você e depois salvar o prompt para uso futuro. Também pode encontrar e importar prompts escritos por outras pessoas da interface web pública. No entanto, é importante avaliar estes prompts para sua pertinência e precisão antes de usá-los. ``` **Referências** - [Website do OpenAI](URL_para_Website_OpenAI) - [Interface Web Pública](URL_para_Interface_Web_Pública) ``` # Configuração de Texto-Fala Aqui temos uma guia sobre como configurar o texto-fala em seu aplicativo. ## Experimente Loop 1. execute as seguintes etapas para verificar se o contêiner está funcionando conforme o esperado: 1. Execute o comando para verificar o status: ``` health ``` O status deve ser `ok`, indicando que o contêiner está funcionando bem. 2. Pode ir em frente para `modelos` e executá-los para ver os modelos atualmente em execução no back-end: 1. Atualmente há dois modelos: `text-to-speech HD 1` e `modelo de texto-fala 1`. ## Configuração de URL API 1. Para adicionar a URL da API aos seus configurações de admin, siga estas etapas: 1. Acesse o painel de admin e encontrar `Configurações`. 2. Clique em `Áudio`. 3. Aqui temos o link exato que queremos utilizar para as configurações de texto-fala: ``` http://localhost:8000 ``` Esta chave não é necessária, uma vez que não existe chave real necessária. 2. Pode alterar a voz seguindo estas etapas: 1. Acesse `Configurações`. 2. Clique em `Áudio`. 3. Há várias vozes disponíveis. Por exemplo, pode tentar `Ally` ou `Fable`. 4. Guarde as alterações e volte à página principal para tentar. ## Vozes Personalizadas 1. Para adicionar vozes personalizadas, siga estas etapas: 1. Volte ao repositório GitHub de `opened AI`. 2. Sob a seção `Piper`, clique em `amostras de voz de Piper`. 3. Pode escolher uma voz entre as opções disponíveis. Por exemplo, pode tentar `Alba`. 2. Para utilizar a voz no seu aplicativo, siga estas etapas: 1. Clique na voz para ir para o seu repositório GitHub. 2. Aqui pode ver que `Piper` pode ser utilizado em vários projetos. Pode ouvir as amostras de voz. 3. Faça o download dos dois ficheiros para cada voz: `modelo de ficheiro aonyx` e `ficheiro Json aonyx`. 4. Adicione estes ficheiros ao seu repositório e configure-os para cada voz no seu aplicativo. Certifique-se de que mantém a estrutura de títulos e seções e que as sintaxes Markdown sejam conservadas. Além disso, confira se a tradução especificada é precisa. Este resumo de guia é apenas para fins educacionais e os passos reais podem mudar desde que o guia original siga o mesmo objetivo. # Documentação: Guia para o Uso da Interface Web Aberta para Recrutamento Pessoal Este guia fornece passos detalhados para criar um banco de dados de currículos e um modelo inteligente personalizado para recrutamento pessoal usando a Interface Web Aberta. ## Criando um Banco de Dados 1. Navegue para seu painel administrativo e vá para o workspace. 2. No workspace, você verá uma opção chamada Biblioteca de Conhecimento. Clique nele. 3. Escolha um nome para a sua biblioteca de conhecimento, como Piscina de CVs. 4. Isso criará uma coleção de currículos. Você pode alterar a visibilidade da biblioteca de conhecimento para Privada, fazendo com que apenas outros usuários no seu painel administrativo tenham acesso a ela, ou deixá-la Pública se preferir. ## Criando um Modelo Personalizado 1. Na página de Modelos, clique no ícone `+` para criar um novo modelo. 2. Dê um nome ao modelo (por exemplo, Robô de Recrutador). 3. Selecione uma base de modelo (por exemplo, Lama 3. 2 Latest). Evite usar modelos caros como ChatGBt 4 para economizar na utilização de custos de API. 4. Você pode fornecer uma descrição para o seu modelo, e escolher manter a visibilidade como Privada. 5. Selecione o endereço da biblioteca de conhecimento (por exemplo, Piscina de CVs) para fornecer informações sobre os candidatos ao seu modelo. 6. Adaptar os parâmetros do modelo ou do sistema, caso seja necessário. 7. Salve e crie o seu modelo. ## Prompt do Sistema Quando seu modelo for criado, você pode definir o prompt do sistema para guia sua comportamento. Aqui está um exemplo para um sistema de avaliação e correspondência de currículos: ```markdown Você são uma inteligência artificial empowerada para recrutamento pessoal. Seu objetivo é avaliar e correspondificar as qualificações dos candidatos com base em seus currículos. ``` ## Ajuste no Comportamento do Modelo Se você notar comportamento inesperado como avaliação fantasmagórica de seu modelo, você pode ajustar o parâmetro de temperatura nos Parâmetros Avançados. O valor padrão deste parâmetro é 0, 8. Diminuir este valor, como para 0, 4 ou 0, 3, pode ajudar o modelo a fazer respostas mais precisas em vez de ser muito criativo. ## Vídeos Recomendados Para uma melhor compreensão das funcionalidades da Interface Web Aberta utilizadas neste guia, veja as seguintes vídeos: - Vídeo mostrando como você pode conversar com seus documentos usando a Interface Web Aberta: [Link do Vídeo](https://www.youtube.com/watch?v=qESVuLFHYqI) - Como você pode criar modelos de inteligência artificial personalizados com a Interface Web Aberta: [Guia do Vídeo](https://www.youtube.com/watch?v=...) (Insira o link do guia do vídeo aqui) ```markdown ## Diminuindo Confusão e Aumentando a Segurança Vamos discutir algumas características interessantes que pretendem reduzir a confusão e aumentar a segurança na plataforma Open Web UI. ### Ativar e Desativar Autenticação de Chave API Esta função fornece um meio simples para ativar ou desativar a autenticação de chave API para melhorar a segurança. Isso pode ser considerado uma atualização de segurança, em vez de uma função de recuperação de tiquetes. ### Melhorar a Precisão do Chat através de Pre‑processamento Inteligente Esta função se concentra na melhoria da precisão das respostas de chat através da pre-processamento inteligente da história de chat. Esta funcionalidade não está relacionada com o conhecimento base e provavelmente afetará apenas a história de chat para consultas inteligentes. ### Opção de Texto Grande como Arquivo Esta opção permite que o texto grande colado seja convertido em uploads de arquivos, mantendo o interface do chat mais limpo. ### Opção de Desligar Citações para Modelos Uma nova função introduzida nos editores de modelos permite a opção de desligar as citações ao trabalhar com modelos. ### Pesquisa de Configurações do Usuário Pesquisar facilmente as configurações para navegar facilmente pelos vários campos. ### Texto T5 para Speech Fornecido o suporte local T5 para melhores habilidades de reconhecimento de voz em texto-fala. Mais informações sobre o modelo podem ser encontradas na documentação do Texto T5. ### Reiniciar Modelos em Único Clique Fornecido uma opção de reiniciar em único clique para remover todos os modelos dos parâmetros de administração. Isto elimina todos os modelos, incluindo os modelos personalizados. Tenha cuidado ao utilizar esta função. ### Assistente de Configuração Inicial O processo de configuração agora explicitamente informa os utilizadores que estão a criar uma conta administrativa no primeiro passo. Isso ajuda a fornecer contexto aos utilizadores que estão a configurar o Open Web UI para a primeira vez. ### Atualizações e Correções de Erros - Os limites de taxa de DuckDuckGo foram endurecidos. - A relevância das citações no resultado da pesquisa foi melhorada. - Requisito de chave de pesquisa foi adicionado. - As funções foram movidas para o painel de configuração. - A secção de modelos no painel de configuração foi movida para a secção de ligações. - A visibilidade dos ficheiros de conhecimento foi melhorada. ### Características Experimentais - A opção de reiniciar os modelos está disponível no menu Modelos > Reiniciar. - A opção de carregar um modelo GGFS introduzido. - Descrições tooltips estão agora disponíveis para acesso mais fácil. ### Atualizações Principais - Foi realizada uma revisão geral do design em todo o sistema, oferecendo uma experiência de utilização mais coeso e polida. - Sistema de feedbak com classificações de 1 a 10 introduzido para melhorar a qualidade das respostas. ### Atualizações Importantes - A correção do problema da capacidade fixada indica uma atualização significativa com muitas mudanças no sistema. Alguns dos vídeos pode precisar de serem remasterizados com base na atualização mais recente. A Open Web UI está ativamente a escutar a feedback da comunidade e a incorporar as características pedidas. Considere juntar-se ao canal Discord do Open Web UI se desejarmos participar e contribuir as nossas ideias. ``` # Vídeo 35: <https://www.youtube.com/watch?v=0pyHYhzqdRQ> (Idioma: en) ## Resumo Explore uma característica interessante da Open Web UI que permite o acesso a modelos personalizados através de APIs. Neste vídeo, o apresentador demonstra como usar uma chave de API para criar uma interface de front-end simples com Streamlet, e como você pode alternar entre diferentes modelos, como o chatbot de boa prompt e o chatbot de mau prompt, alterando apenas uma linha de código. ## Criação de uma Interface de API para Acessar Modelos Personalizados 1. Obtenha a chave de API da Open Web UI através das configurações. 2. Crie uma interface de front-end simples usando Streamlet. 3. O modelo personalizado está hospedado na máquina local, mas pode ser acessado por outros quando a interface for hospedada online. ### Código e Instalação 1. Baixe e instale [Electron](https://www.electronjs.org) para hospedar a aplicação. 2. Configure a interface Streamlet de acordo com o código de exemplo fornecido. 3. Coloque a chave de API no código e execute a aplicação. ## Utilização da Chave de API para Acessar Modelos Específicos Para acessar um modelo específico, crie uma solicitação POST para `http://localhost:3000/api/chat/completions` e forneça a chave de API e o ID do modelo. Substitua o parâmetro `model` pelo modelo que você deseja acessar. ### Exemplo de Código ```python import requests API_KEY = "SUA_CHAVE_API" MODEL = "llama-3. 2" headers = {'Authorization': f'Bearer {API_KEY}'} data = {"model": MODEL, "messages": [{"role": "user", "content": "Olá lá! "}]} response = requests. post("http://localhost:3000/api/chat/completions", json=data, headers=headers) print(response. json()) ``` ## Hospedagem da Aplicação Online (Opcional) Para tornar a aplicação acessível a outras pessoas, siga estes passos: 1. Cadastre-se em [Heroku](https://heroku.com). 2. Crie uma nova aplicação e implante a aplicação no Heroku. 3. Obtenha um URL público do Heroku e forneça-o a qualquer pessoa que queira utilizar o modelo personalizado. ## Vídeo 36: <https://www.youtube.com/watch?v=wRkAko8yphs> (Idioma: en) Olá todos, aqui novamente com digitalbrainbase. com. Hoje vamos falar sobre as pipelines, ferramentas, funções, etc. , da Open Web UI, e quais são as diferenças entre elas. Durante o vídeo, o apresentador discute as diferenças entre ferramentas, funções e pipelines na Open Web UI, e fornece exemplos de casos de uso. O apresentador também fornece um link para uma apresentação sobre o assunto e um registro de uma chamada com um desenvolvedor explicando as diferenças entre estes componentes. *Revise a descrição do vídeo para o link para a apresentação e o registro. * # Entendendo a Open WebUI: Ação, Pipes e Manifolds Este documento fornece uma visão geral das funcionalidades Ação, Pipes e Manifolds na Open WebUI. ## Ação Uma Ação na Open WebUI é uma extensão da interface de usuário. Ela permitirá a você expandir os pequenos ícones que aparecem abaixo de cada mensagem na Open WebUI, como editar, copiar e os botões Thumbs Up e Down grandes. Você pode estender esta funcionalidade adicionando ações personalizadas à caixa Ação. Por exemplo, você poderá querer automatizar uma tarefa como puxar eventos do seu Google Calendar. Construindo uma ferramenta personalizada, você pode fazer com que a Open WebUI faça isso todo dia para você. Em vez de ter que ir para a sua interface da Open WebUI manualmente e pedir-lhe para puxar seus eventos, você pode embalar esta ação como um botão de Ação. Assim, você pode clicar no botão para ativar o fluxo, tornando o processo mais organizado e amigável ao usuário. ## Pipes e Manifolds ### Pipes Os Pipes na Open WebUI permitem que você crie módulos únicos e modelos, como um modelo de assistente pessoal ou uma coleção de pipes para integrar provedores terceiros com a mesma interface da Open AI. No entanto, existem limitações ao uso de Pipes na interface da Open WebUI, como pois estamos limitados a usar bibliotecas ou pacotes que a Open WebUI tem disponíveis. Por exemplo, se a Open WebUI usa Linkchain, você pode estender esta funcionalidade construindo algo sobre o topo de Linkchain. Contudo, se sua lógica ou programação personalizada depende de outra biblioteca de Python que a Open WebUI não usa, não será possível implementá-la. Neste caso, eles introduzem Pipelines. ### Manifolds Os Manifolds na Open WebUI permitem que você crie vários Pipes em um único arquivo. Isso é útil quando você deseja agrupar Pipes relacionados e compartilhar a mesma lógica entre eles. Em um Manifold você pode criar vários Pipes que possuem diferentes sinais de sistema e dados personalizados, tudo dentro do mesmo arquivo. ## Diferença entre Pipes e Manifolds Um Pipe na Open WebUI cria um módulo e um modelo, como Wordpress e Engine de VPN de debate. Um Manifold, por outro lado, permite que você crie vários Pipes em um único arquivo, com cada Pipe tendo seu próprio sinal de sistema e dados personalizados. A utilização do Manifold é útil quando você quer construir vários Pipes para um projeto específico, todos eles compartilhando algumas lógicas em comum. Por exemplo, você poderá querer construir três Pipes separados para integrar com LinkedIn, cada um com sua própria funcionalidade (como postagens, análise ou geração de postagens). Por meio de um Manifold, você pode criar todos os três Pipes em um único arquivo, facilitando a gestão do seu código e evitando a duplicação da mesma lógica entre vários Pipes. ## Autenticação com APIs Quando se integra com APIs de terceiros, como a API da OpenAI ou da LinkedIn, será necessário autenticar as suas solicitações com uma chave de API. Cada utilizador tem uma própria chave de API, e a ideia é enviar esta chave junto com as solicitações à API. Por exemplo, se você está integrando a API da LinkedIn, será necessário autenticar as solicitações para garantir que você é um utilizador autorizado. Após iniciar esta conexão entre a sua classe da Open WebUI ou pipe ou manifold e a API LinkedIn, ela permite ao Open WebUI aceitar as suas solicitações e autenticá-lo como um utilizador autorizado. Este é necessário para tarefas como publicar conteúdo ou puxar informações da sua conta LinkedIn. # Software e IT: Ambiente de Web Open Webbii com Pipelines Open Webbii é um ambiente versátil que roda diversas funções, tubulações, manufaturas, filtros, ações dentro de sua interface Web Open. Vamos abordar os detalhes dos pipelines, uma característica que permite a avançada e aut "'offloading'" de tarefas computacionais complexas. ## Tubulações no Ambiente Open Webbii Os pipelines, inicialmente introduzidos como características em manufaturas, se tornaram mais avançados e rodam em containers separados. Para integrar pipelines, você precisa implantar outro container, geralmente um container Docker. Dado que pipelines rodam em uma instância separada, oferece oportunidades para aut "'offloading'" de tarefas computacionais pesadas. ### Aut "'offloading'" de computação pesada Quando criar uma tubulação para lógica complexa ou modelos de linguagem pesados, você pode evitar ter o processamento executado dentro da interface Open Webbii. Em vez disso, você pode criar a tubulação e carregar o processamento para outra instância, como a instância de Pipelines Open. Isso permite que você acesse pipelines através de outro software sem a necessidade da interface Open Web UI. Porém, lembre-se de que você terá que se conformar com as APIs dessas tubulações. ### Separação de tubulações: propósito e casos de uso O propósito da separação de tubulações é proporcionar liberdade no mundo do coded World da interface Open Web UI e ampliar as opções de seus resultados. Dois principais casos de uso para tubulações são: 1. **Restrições de pacotes**: Quando criar funções na interface Open Webbii, você está limitado aos pacotes utilizados por Open Webbii. Porém, através de tubulações, você pode implementar ferramentas e funções que dependem de pacotes que não estão incluídos no Open Webbii. 2. **Processamento computacional pesado**: Se tiver trabalhos computacionais pesados envolvendo grandes bancos de dados ou lógica complexa, executar essas tarefas em pipelines pode ajudar a relaxar a carga dos recursos na instância Open Webbii, garantindo maior performance para todos os usuários. ### Demonstração da Tubulação No exemplo que segue, examinaremos uma tubulação simples para melhor compreender como ela funciona. ```python # Importando pacotes necessários import typing from openeii_blankchain. agents. prompts_and_tools import OpenAI # Importando uma biblioteca Python para pesquisa de vídeos do YouTube import youtube_search # Importando o pacote OpenAI, a biblioteca de pesquisa de vídeos do YouTube e outros pacotes necessários para a tubulação # Implementando a lógica da tubulação # Utilizando a funcionalidade de pesquisa de vídeos do YouTube sem ter que re-implementá-la do zero youtube_search. SearchAfter({'keyword': 'tendências de tecnologia em 2023'}). start() # Utilizando o pacote OpenAI para processar mais ainda OpenAI. generate_summary() ``` #### Conclusões-chave - As tubulações podem dar acesso a pacotes adicionais não disponíveis na interface Open Web UI, ampliando suas capacidades de desenvolvimento. - As tubulações permitem que você realize o aut "'offloading'" de tarefas computacionais pesadas, como tarefas envolvendo grandes bancos de dados ou lógicas complexas, garantindo que os recursos da instância Open Webbii sejam otimamente utilizados. ## Conexão à Internet e Modelos de IA Terceirizados Ligar o Open Webbii à internet aumenta as possibilidades para acessar modelos de IA terceirizados por APIs e utilizar o seu Open Webbii através de qualquer dispositivo com uma ligação à internet. Você pode achar uma discussão detalhada sobre este assunto no Vídeo 37: [https://www.youtube.com/watch?v=W9czUS3trMU (Idioma: en)](https://www.youtube.com/watch?v=W9czUS3trMU). TODO: Corrigir a URL do vídeo. Como sempre, utilize boas práticas de segurança para proteger seus dados e garantir operações seguras no seu ambiente Open Webbii. Título principal: Introdução ao Open Web UI ============================================= Uma breve descrição e vantagens do uso do Open Web UI ----------------------------------------------------- ### Modelo local e estado da arte O principal atractivo aqui é que agora você pode usar os modelos AI mais poderosos. No entanto, o desvantagem é que agora alimentará dados para fora por meio de APIs para o fornecedor de modelo AI terceiro. Portanto, é necessário confiar que eles não farão algo que você não deseja com esse dado, pois esse dado vai deixando o seu computador e está sendo enviado para o fornecedor de modelo AI para que possa efectuar inferência e, em seguida, voltar a enviar a resposta para a sua interface web aberta. ### Outros benefícios do Open Web UI - Em casos em que não importa se os dados vão para um fornecedor terceiro de API, posso usar os modelos state-of-the-art mas ainda tenho acesso em casos em que importa se meus dados são enviados pelo API para usar um modelo local. - Aqui eu posso simplesmente mover para o Llama 3. 2, que é um modelo local em execução e posso novamente explicar opções de trading de opções ou carregar informações do cliente, etc. E neste caso, estou certo que os dados estão permanecendo no meu computador, pois a inferência está sendo executada a partir de um modelo AI localmente armazenado apenas neste computador e sem enviar qualquer informação para fora por meio de um API. Acesso ao computador que está executando a sua interface web UI a partir de quaisquer dispositivos conectados à Internet ------------------------------------------------------------------------------------------------------------------- Usaremos ferramentas como SSH ou Túnel do Cloudflare para criar uma ligação segura que possa ser usada para acessar o computador que está executando a sua interface web UI a partir de quaisquer dispositivos conectados à Internet. Essa ligação segura pode ser usada para acessar a sua interface web UI apenas com modelos locais ou modelos locais juntamente com APIs conectadas. Você pode executá-la em seu computador e, em seguida, acessá-la através da ligação segura, por exemplo, no seu smartphone e em qualquer lugar no mundo, desde que o computador esteja ligado, com ferramentas como SSH ou Túnel do Cloudflare. Caso queira saber mais sobre como configurar tudo isso, disponha-se a deixar uma mensagem no campo de comentários abaixo. Obviamente, seria incrível se você gostasse e subscribisse ao canal se obteveu valor deste vídeo e esperamos vê-lo no próximo! Abraços. Formato utilizado: ----------------- - Usar # para títulos e subtítulos - Usar ** para itálico em termos importantes - Usar ` para código inline - Usar ``` para blocos de código - Usar > para citações - Usar - para listas não ordenadas - Usar * para listas ordenadas - Usar --- para separadores URLs existentes foram preservadas. 