# Transcrições de: Flowise AI ## Tipo: Playlist Data: 08-01-2025 23: 41: 29 --- ### Vídeo 1: [Link](https://www.youtube.com/watch?v=tD6fwQyUIJE) (Idioma: en) --- **Introdução** * bom dia e bem-vindo de volta neste vídeo, vamos ter um olhar rápido para o Flowwise * Flowwise é uma ferramenta open source que facilita a prototipagem de aplicações de cadeia de linguagem utilizando uma interface utilizadora intuitiva * Na série de lançamento JS, examinamos como construir nossas próprias aplicações AI usando cadeia de linguagem e node. js * mas nessa série iremos ter um olhar mais aprofundado em como criar aplicações AI sem qualquer experiência em programação **Características da Flowise** * Flowwise é livre de custo e pode ser executado localmente na sua própria máquina * Também pode ser implantado em um servidor web para acesso online * Flowwise permite-nos criar aplicações AI usando uma interface de arrastar e soltar muito simples * Isso pode ser uma ferramenta útil para prototipar aplicações de cadeia de linguagem antes de escrever o primeiro caractere de código **Requisitos para acompanhar o vídeo** * Não é necessário nenhuma experiência em programação para segui-lo neste vídeo * Terá de instalar o node. js na sua máquina * Acesse [nodejs. org](http://nodejs.org) e baixe e instale a versão LTS de node. js * Abra o prompt de comando e insira o seguinte comando: `npm install hyphen G` * Depois, execute este comando para instalar o Flowwise: `flowwise` * Flowwise está a ser instalado, mas há formas alternativas de instalação, caso queira mais informações veja o repositório GitHub do Flowwise **Iniciando a Flowise** * Depois da instalação, pode iniciar `flowwise` digitando `npx flowwise start` * Se o que foi configurado e instalado corretamente deverá ver uma mensagem como esta, dizendo que `flowwise server está ouvindo na porta 3000` --- ### Vídeo 2: [Link](https://www.youtube.com/watch?v=fn4GCZuiwdk) (Idioma: en) --- * Neste vídeo, vamos criar nossa primeira corrente de discussão no painel de instrumentação da Flowise * Pode criar uma nova corrente de discussão clicando em `adicionar novo` * Agora deverá ver um canvas em branco * Utilizando o botão de +, pode agora adicionar nós ao canvas * Nesta lista pode ver todos os nós disponíveis para adicionar ao nosso canvas, dos quais há um número razoável * Vemos alguns destes nós nesta série, mas se quiser mais informações sobre o que cada nó faz recomendo utilizar a documentação da cadeia de linguagem como referência * A Flowise utiliza a cadeia de linguagem de trás para diante, e a documentação da cadeia de linguagem pode ser uma fonte útil de informações para fazer sentido dos nós da Flowise. # Interação com modelo de inteligência artificial (AI) com uso de cadeia LLM e OpenAI (Português de Portugal) Precisamos adicionar um `nó de cadeia` ou um `nó de agente` para obter uma resposta da aplicação nossa. Neste vídeo, iremos investigar as diferenças entre esses nós. Para uma interação básica com um modelo, podemos utilizar as cadeias. As cadeias são o nó de base para produzir algum tipo de saída da aplicação nossa. Pode-se verificar que temos acesso a várias diferentes cadeias, como a `llm` cadeia, que é uma interação básica com um modelo de AI, e também temos cadeias mais avançadas como a `conversação` cadeia, que pode ser utilizada para uma conversa de e-mails com o modelo onde o modelo precisa recordar as conversas anteriores. Neste tutorial, utilizaremos a `llm` cadeia para uma interação básica. Poderemos arrastar e soltar este nó para o plano de trabalho. Este nó nos informará sobre os nós necessários para que este nó funcione. Para uma `llm` cadeia, precisamos disponibilizar um modelo de linguagem para o projeto e um modelo de template de prompt. Adicionaremos um modelo de linguagem de baixo custo ao nosso projeto, o que podemos fazer ao clicar no botão `Adicionar`, então podemos orientá-lo para `llms` e, dentro de `llms`, temos acesso a vários modelos, incluindo o OpenAI modelo de argumentação e os modelos co-ano. O OpenAI é fácil de integrar, e desde que já referímos a chave API OpenAI no vídeo anterior, continuaremos a utilizar OpenAI. Arraste o nó `OpenAI` para o plano de trabalho. Agora precisamos adicionar a nossa chave API OpenAI neste nó, para enterar a nossa chave API no campo de entrada. Opcionalmente, podemos alterar o modelo que desejamos utilizar a partir da lista abaixo e também podemos definir a temperatura do modelo (0 sendo conciso e 1 sendo mais criativo). Podemos conectar o `OpenAI` nó com o `Chain` arrastando um link deste nó para o `Entrada de linguagem do modelo` no `Chain`. Agora, precisamos adicionar um template de prompt. Poderemos adicionar um template de prompt clicando no `ADICIONAR`, então podemos abrir o `templates de prompts`, mas em vez do template de prompts padrão, agora usaremos o template de prompts de conversa e poderemos conectar este template de prompts de conversa para o nó de cadeia. Para adicionar um template de prompts, podemos clicar no `ADICIONAR` e, sob o `Templates`, selecionar o nó do template de prompts e arrastar este nó para o nosso plano de trabalho. Pode-se conectar este nó do template de prompts para o `llm` cadeia. Para adicionar o template de entrada, podemos informar uma cadeia de caracteres de modelo, por exemplo, "crie um piadas pai sobre casamentos". Deixaremos o campo de "format strings prompts" vazio por enquanto. O nó de cadeia `llm` fará o seu trabalho para tomar o input a partir do `Template de entrada` e então passarlo para o modelo OpenAI. Pode testarmos isso salvando o fluxo de chat conhecido como "Piadas pai". Poderemos então testar a aplicação clicando no janela de chat e, dentro da janela de chat, podemos escrever qualquer texto (apenas escrever "pronto" e pressionar Enter). Em menos de um segundo, devemos receber uma resposta da AI de volta: > Que fez o noivo quando viu a noiva caminhando pelo corredor do casamento? Wow, ela realmente tomou o salto. No momento, este cadeia `llm` está simplesmente pegando o texto do template e depois o passando para o modelo, ignorando a mensagem que enviamos para o modelo. Para fazer parte da mensagem enviada ao modelo, precisamos fazer o seguinte: supojamos que queiramos que a assunto da piada seja uma variável de entrada do usuário. Poderíamos remover este texto: "crie um piadas pai sobre [assunto]" e então adicionar um chaves seguido de `assunto` e podemos fechar isso com outra chaves. Salvamos estas alterações e podemos selecionar o cadeia `llm` e rodar de novo o chat e entrosar com um objeto diferente como "cães" e pressionar Enter e podemos ver uma mensagem sendo exibida que considera a entrada do usuário. Agora podemos olhar para os `Prompt values`. Os `Prompt values` nos permitem adicionar variáveis adicionais ao nosso template de texto. Por exemplo, podemos substituir "engraçado" com uma variável e chamaremos-a `tipo de piada`. Pode definirmos um valor para `tipo de piada` no campo `Prompt values`. Pode definir nossas variáveis da seguinte forma, com todas as variáveis abrindo com uma chaves, seguindo-se com `assunto` e fechando com outra chaves dentro de "". Pode fechar com as duas chaves, ponto e vírgula e o valor desta variável (que foi "engraçado"). Pode salvar isso e depois testar o chat novamente, e passar "gatos" como o objeto, e como você pode ver, o script funciona. Agora podemos facilmente mudar o tipo de piada alterando o valor desta variável e tentaremos de novo. Entraremos com "gatos" como o objeto, e nessa vez devemos ter uma piada que será um pouco mais enérgica. Talvez você esté se perguntando como o Flowwise sabe que a entrada do usuário deve ser mapeada para a variável `assunto`, e isso é muito fácil: o Flowwise primeiro olha para os `Prompt values` e qualquer variável no template que não esteja definida em nosso `Prompt values` lista irá ser assumida como a entrada do usuário. Pode chamar esta variável de qualquer forma não precisa ser `assunto`. Pode mudá-la para algo como `texto`, e isso ainda fará funcionar. Se reunir, podemos dizer explicitamente que o `texto` deve ser definido como a entrada do usuário adicionando uma vírgula no final de esta variável, e dentro de "", podemos especificar a variável de `texto` e definir isso igual à entrada do usuário. Há um formato específico para apontar para a entrada do usuário, e podemos ver este formato expandindo esta caixa e, à direita, podemos ver todas as variáveis disponíveis nesta sessão, e se clicarmos nele, auto adicionaremos a entrada de usuário ao `Prompt values` e internamente o Flowwise se referirá à entrada de usuário como `question` com duas chaves. Poderemos removê-la deste aqui e depois adicioná-la na variável de `texto` e, em seguida, salvar as alterações e testar. Estes simples cadeias `llm` são úteis para cenários em que precisamos apenas de uma interação simples com o modelo, por exemplo, perguntando-lhe para gerar piadas, gerar título para blogs ou gerar artigos, etc. Agora vamos mexer com chat models. Agora vamos voltar ao painel de gerenciamento e criar um novo fluxo de chat. Vamos falar sobre chat models. Chat models são modelos muito mais sofisticados do que os padrões `llm` e eles permitem mais recursos. Vamos começar por adicionar um cadeia para o nosso projeto e, à fim de demonstrar as funcionalidades básicas de um modelo de chat, utilizaremos novamente um cadeia `llm` básico neste momento. Pode arrastar e soltar este nó para o plano de trabalho e para este modelo de linguagem, podemos clicar em "Adicionar", mas em vez de utilizar `llms`, utilizaremos chat models em vez disso. Dentro de chat models, podemos pegar o nó `chat OpenAI`. Para este nó, precisamos passar a chave API do OpenAI, e na parte superior de `Model name`, você poderá ver que temos acesso a diferentes GPT modelos, including `GPT 3. 5 turbo`, que é o que alimenta o ChatGPT, além do modelo mais sofisticado, `GPT4`. Ele mantém o conjunto de modelos em `GPT 3. 5 turbo`, e na temperatura vou alterar para 0, 7, podemos conectar o `llm` aqui com este `llm` conectado ao nó de chain. Podemos clicar no `ADICIONAR` nó e depois abrir o `templates de prompts`, mas neste momento, em vez do template de prompts padrão, agora utilizaremos o template de prompts de conversa e podemos conectar este template de prompts de conversa ao nó de cadeias. O template de conversas tem a aparência muito semelhante ao template de prompts padrão, mas agora temos acesso também ao `mensagem de sistema` além do `texto da mensagem na ligação`. Da mesma forma, podemos definir valores de `Prompt values`. Para o `texto da mensagem`, eu simplesmente chamarei isso de `text`. Você pode chamar isso de tudo o que quiser, em seguida, nas mensagens `System message` podemos agora informar a mensagem de primirização do modelo. Primirização é um método de ensinarmos ao AI como esteve deve agir e o papel desempenhado. Para dar um exemplo, podemos fazer o seguinte: > Você é um pirata salteador esperando por Tesouro. (Este nós de mensagem de sistema será utilizado para primirizar o modelo, de modo a que responde como um pirata. ) Podemos salvar este fluxo de chat e podemos chamá-lo como "chat demo". podemos executar isto clicando no janela de chat e em seguida, escrever algum texto pelo chat (apenas escrevere "Olá" e depois pressionar Entrar) e na resposta, podemos ver que o AI responde como um pirata, e isso aconteceu devido a mensagem de sistema que utilizamos para primirizar o modelo. Isto pode causar algumas conversas bastante divertidas. Agora, vamos ir para uma outra dàda de utilizar os chat models. Isto vai remover o template de conversas, bem como o cadeia `llm`. Isto vai clicar em `Nó` e em seguida, dentro de `chains`, ao invés de utilizar `llm chain`, podemos utilizar a `cadeia de conversas` e passaremos um minuto falando sobre o que estamos tentando aqui. O vantagem de utilizar chat models está na capacidade do modelo de se lembrar do histórico de mensagens da conversa e esse histórico irá lembrar detalhes da conversa baseado no histórico da conversa. Para todo isso funcionar, utilizaremos uma cadeia de conversa. A cadeia de conversa utiliza um `llm` como entrada, mas para que o cadeia se recorda do histórico da conversa e o contexto, também precisamos de especificar a memória. Para criar um nó de memória, podemos clicar no `ADICIONAR nós` e abrir o `memoria` e em seguida, copiaremos o `nó de memória de buffer` para o cadeia de conversa. As opções padrão podem ser mantidas nestos campos, já que isto é bastante técnico e não é necessário alterá-los. Tudo que precisamos fazer é conectar o nó do buffer de memória ao nó da cadeia. Pode-se salvar estas alterações e logo depois selecionar nossa janela de chat, então limpamos a sessão anterior evolhemos para a janela de chat, podemos perguntar algo por exemplo "Olá" para testar este rodando e receber uma resposta. Portanto, bem-vindo a conversa de teste-nos, possibilitando que possamos perguntar e o nosso bot irá lhe responder com recursos como cenários de conversa de problemas de código, como ChatGPT, nossa bot vai responder com códigos snippets e mais no estilo de chatGPT. Agora vamos falar sobre agentes. Primeiro, preciso falar sobre as carencias do uso de `llms` e o que os agentes fazem para resolver essas questões. Os modelos de linguagem de grande escala podem responder apenas utilizando os dados que foram treinados, caso precisemos abrir `OpenAI` sobre uma informação que é recentíssima, por exemplo, "que é Flow Wise AI? " tenemos uma resposta que diz que não sabe isto, não sabemos esta informação, pois os GPT modelos foram treinados com dados a partir de 2021. Adicionalmente, os GPT modelos são notoriamente ruins em fazer cálculos. Para resolver estas questões, podemos introduzir agente na nossas fluxos. Agentes prima váriáveis para o modelo primeiro, então verificam a precisão da resposta fornecida caso o modelo não saiba a resposta ou paraísa em um baixo nível de confiança na resposta que forneceu, os agentes podem designar ferramentas para o AI para obter respostas mais precisas. Iremos ver um exemplo em nosso agente onde o usuário pergunta algo como "que é Flow Wise AI? ". Ele pode ter uma ideia, mas em geral será incerto sobre a resposta ou pode tentar com uma resposta baixa confiança em sua resposta, agente pode então fornecer ferramentas de auxílio para o AI para fazer a resposta como "fornecer a ele um telefone com internet". A mesma coisa aconteceria com as matemáticas, pode ser difícil para ele resolver cálculos, mas se lhe for paraíso com um calculadora, torna-se bastante mais fácil. Bastou falar, agora podemos ver isso em ação. Redirecionaremos para o painel de gerenciamento e criaremos novo fluxo de chat. Poderemos salvar isto e chamá-lo como "demo de agente". Nossa lista de nós, em vez de adicionar uma cadeia, vamos agora adicionar um agente e mais especificamente o agente conversacional. Este nó utiliza o modelo de linguagem como entrada também e memória para que o modelo se recorda da nossa conversa anterior, mas também utiliza uma lista de funções, e estas são funções que o agente pode usar para ajudar o modelo para responder perguntas. Por exemplo, se quisermos que Agentes preencham um busca na web por uma determinada pergunta, podemos chamar esta função "buscar" e passar a pergunta como parâmetro. Podemos salvar neste fluxo de ## Introdução à LangChain e Flowwise Este guia você vai conduzir através da criação de um bot de chat de inteligência artificial simples usando **LangChain** e **Flowwise**. Abordaremos os princípios básicos e criaremos um bot de chat que possa responder a perguntas baseadas em arquivos de texto. **Pré-requisitos: ** - Acesso à plataforma **Flowwise** e uma conta para criar e gerenciar seus projetos. ### Entendendo os Básicos 1. Neste exemplo, trabalharemos com um arquivo que contém um versículo infantil. No lado direito, temos uma aplicação de chat em que podemos perguntar sobre o conteúdo do arquivo. 2. Para que o modelo veja o conteúdo do arquivo, precisamos fornecer o conteúdo do arquivo como contexto em nossa aplicação. Isso poderia parecer copiar o texto do arquivo e jogá-lo no ChatGPT e perguntar sobre o arquivo. 3. No entanto, quando o conteúdo do arquivo é grande, facilmente excederemos o limite de tokens. Idealmente, queremos capturar apenas as seções relevantes para nossa pergunta e apresentá-las no chat como contexto. 4. Felizmente, a Lang Chain, a qual a Flowwise é baseada, oferece uma solução para lidar com esta limitação: **Splitters de Texto**. Splitters de Texto quebram o conteúdo do arquivo em pedaços. ### Splitters de Texto Splitters de Texto nos permitem dividir o conteúdo do arquivo em pedaços menores. Eles também nos permitem especificar o tamanho desses pedaços e a quantidade de sobreposição entre eles. ### Documentos Um **documento** é uma definição de cadeia de linhas de um pedaço de texto que pegamos do Splitter de Texto. O documento também inclui metadados como o nome do arquivo e qualquer outra informação que queremos guardar sobre esta peça de texto. ### Bases de Dados de Vetores Las bases de dados de vetores armazenam informações em Vetor arrays, que a AI entenderá e apoiará em encontrardocumentos semelhantes quando nosmos com o chat. No nosso exemplo, utilizaremos a função de embeleadas do OpenAI para converter nossa texto em Vetor array. ### Construindo o Bot de Chat de Documento 1. Ir para o **Dashboard** e crie uma nova flow de chat, chamada `bot de chat de documento`. 2. Precisamos de um arquivo para carregar na nossa aplicação. Crie um arquivo com informação única que o OpenAI não foi treinado, como uma história. Carregue este arquivo em seu projeto no Flowwise. 3. Em nossas flows de chat, necessitamos de um modelo de linguagem para gerar saída. Não necessitamos de uma ferramenta externa em nosso exemplo, então usaremos cadeias. 4. Ir para **Nós** e abrir **Cadeias**. Escolha a **cadeia de pergunta de QA conversacional** e coloque-a no Canvas. 5. Configurar a cadeia: - Forneça um LLM, como o modelo de chat OpenAI. - Conecte o LLM com a cadeia. - Forneça uma Base de Dados de Vetores. No nosso exemplo, utilizaremos a Base de Dados de Vetores em Memória, mas para um ambiente de produção, considere outras opções como Pinecone ou Super BASS. - Conecte a Base de Dados de Vetores com a cadeia. 6. Carregar documentos na Base de Dados de Vetores: - Adicione um **carregador de documentos de texto** no seu projeto. - Conecte o Nó de Texto em Arquivo com a Base de Dados de Vetores. - Opcionalmente, atache um Splitter de Texto ao Nó de Texto em Arquivo para dividir o conteúdo do arquivo em pedaços menores e criar Cadeias de Linhas de Documentos. 7. Salve e execute seu bot de chat para verem ao vivo. Pode perguntar sobre o conteúdo do arquivo de texto e o bot responderá com base na informação fornecida. Com estes passos, você criou um bot de chat simples de documentos usando LangChain e Flowwise! Experimente com diferentes arquivos de texto, configurações de Splitter de Texto e Bases de Dados de Vetores para apular seu bot de chat aos seus specificos requisitos. # Introdução Este documento fornece uma guia sobre como carregar e armazenar arquivos em um banco de dados de vetores, e como criar um bot de chat baseado na matriz de Sócrates usando esses arquivos. ## Pré-requisitos - Entendimento da formatação Markdown - Familiaridade com Line Chain e Flow Wise - Chave de API do OpenAI - Conta do Pinecone ## Passos para criar um bot de chat baseado em documentos ### Passo 1: Carregar e Armazenar os Documentos 1. Crie um novo fluxo de conversação e o nomeie `Ingestar Documentos`. 2. Use o `Chain de pergunta e resposta conversacional de recuperação`. 3. Atribua um modelo de linguagem. 4. Conecte o modelo de linguagem à cadeia e cole a chave de API do OpenAI. 5. Adicione o `Nó do Pinecone de Inserção de Documento no Armazenamento de Vetor` e conecte-o à cadeia. 6. Adicione a chave API, valor do ambiente e o nome do índice necessário. 7. Adicione um carregador de documento, como `Arquivo de texto`, e conecte-o ao atributo de documento do `Nó do Pinecone de Inserção de Documento`. 8. Adicione um `Recolhimento Recursivo de Texto de Características` e um `Nó Embeddings de OpenAI` se necessário. 9. Salve o projeto e execute o fluxo de conversação para carregar e armazenar o documento no banco de dados do Pinecone. ### Passo 2: Consultar o Banco de Dados 1. Crie um novo fluxo de conversação e o nomeie `Pesquisa de Documento`. 2. Use o `Chain de pergunta e resposta conversacional de recuperação`. 3. Atribua um modelo de linguagem (opcional). 4. Conecte o modelo de linguagem à cadeia e forneça a chave de API do OpenAI. 5. Adicione o `Nó do Pinecone Carregar Índice Existente` para o armazenamento de vetor e conecte-o à cadeia. 6. Adicione a chave API, valor do ambiente e o nome do índice necessário. 7. Adicione o `Nó de Embeddings de OpenAI` e conecte-o às embeddings. 8. Salve o fluxo de conversação e teste-o para perguntar sobre os documentos armazenados. ## Observações - O processo de carregamento, fragmentação, embelemente e armazenamento de documentos pode demorar um longo tempo para grandes arquivos. É ideal fazer isso apenas uma vez para casos de produção. - O banco de dados do Pinecone armazena os dados, garantindo que não sejam perdidos quando o servidor for parado ou reiniciado. ## Referências - <https://www.youtube.com/watch?v=m0nr1_pnAxc> (Inglês) # Video 5: Deployando Aplicações Flowwise para o Cloud Em vídeos anteriores, examinamos algumas conceitos fundamentais sobre a criação de aplicações Flowwise. Neste vídeo, vamos avançar para um tópico que foi altamente solicitado pela comunidade: o despejo de aplicações Flowwise para o cloud. Vamos explorar recursos adicionais na série, mas por agora, vamos manter nosso foco no despejo de aplicações para um servidor de produção. ## Opções de Despejo O Flowwise utiliza a versão JavaScript de lançamento do Lang chain, o que nos permite despejar nossa aplicação em qualquer servidor que suporte Node. js. Exemplos de servidores incluem AWS, Azure, Digital Ocean e Google Cloud Platform. No entanto, neste vídeo, vamos demonstrar o processo de despejo usando Render, pois é o serviço mais fácil de usar para despejar aplicações Flowwise. ### Pré-requisitos - Criar uma conta em Reindeer visitando [reindeer. com](https://reindeer.com) (gratuito para usar) - Ir para a página de preços e selecionar o pacote Individual, que está incluído neste demo. - Crie contas de GitHub (se ainda não possui): [github. com](https://github.com) - Faça um fork do repositório Flowwise (link fornecido no descrição desse vídeo) e salve-o em seu repositório. Crie uma cópia com seu próprio namespace. ### Passos de Despejo 1. **Conectando-se a GitHub** - Entrar em Reindeer e criar um novo serviço web clicando em "Novo Web Service. " - Se for sua primeira vez, você verá uma opção de conectar-se a GitHub à direita. - Clique em "Connect" e uma lista de seus repositórios aparecerá. Encontre o "Flowwise" repositório e clique em "Connect. " 2. **Configurando o Serviço Web** - Forneça ao serviço web um nome (por exemplo, flowwise) e altere a região se necessário. - Selecione Node para o runtime, entre os comandos `yarn install`, `yarn build`, e `yarn start` para os comandos de build e start, respectivamente. - Para o tipo de instância, selecione a instância gratuita neste tutorial ou uma instância paga para fins de demonstração. 3. **Variáveis de Ambiente** - Clique em "Avançado" e configure as variáveis de ambiente: - `FLOWWISE_USERNAME`: userid (por exemplo, admin) - `FLOWWISE_PASSWORD`: senha (por exemplo, password123) 4. **Criação e Início do Serviço Web** - Descer até o final e clique em "Criar Serviço. " Essa operação levará alguns minutos para ser concluída, e sua aplicação Flowwise será implantada online. ## Acessando sua instância de Flowwise - Sua instância de Flowwise estará disponível através da URL fornecida. - Insira seus credenciais (usuário e senha) para ter acesso à sua aplicação de Flowwise segura. ## Importação de Fluxos de Conversas - Para importar fluxos de conversas, siga estes passos: 1. Exporte os fluxos de conversas do seuInstância local clicando em "Configurações" > "Exportar Banco de Dados. " 2. No Instância de nuvem, clique em "Configurações" > "Carregar Banco de Dados" e selecione o arquivo que exportou. - Dica: Recomendo exportar e importar fluxos de conversaindividuais, em vez do banco de dados completo, pois isso evita sobrescrever todos os fluxos de conversa e copiar chaves de API. ## Persistência de Arquivos - Serviços como Render deleteiam arquivos de fluxo de conversa quando o servidor é reiniciado. - Para evitar a perda de arquivos durante uma reinicialização do servidor, atribua um disco ao seu projeto (disponível nas instâncias pagas) e configure as variáveis de ambiente para que sua aplicação Flowwise se conecte a esse disco. --- # Video 6: Treinamento de Prompt Neste vídeo, exploraremos o treinamento de prompt, que nos permite combinar várias cadeias e modelos para gerar uma saída para nossa aplicação. Esse recurso principal nos permite construir aplicações de inteligência artificial avançadas. --- ## Exemplo de Treinamento de Prompt Um exemplo simples de treinamento de prompt utiliza três cadeias: 1. Primeira cadeia: Gerar um ingrediente para um receita com base em dias feriados. 2. Segunda cadeia: Gerar uma receita única com base no feriado público e o ingrediente principal. 3. Terceira cadeia: Comportar-se como crítico de alimentos, analisando o feriado público e a receita e produzindo uma crítica. Estaremos construindo este aplicativo passo a passo no próximo vídeo. Criando uma Cadeia Multipasso com Chainlink (LLM) Chains e Depurador no Flowwise ============================================================================ Nesta guia, vamos aprender a criar uma cadeia multipasso utilizando Chianlink (LLM) Chains no Flowwise, uma plataforma de conversa aberta. Criaremos um exemplo simples para gerar um ingrediente principal para uma receita baseado em um feriado público e seu ingrediente relacionado. **Cadeia 1: Cadeia de Ingredientes** Para demonstrar, usaremos uma cadeia simples de Chianlink (LLM) e um modelo OpenAI para gerar um ingrediente principal para uma receita baseado em um feriado público fornecido pelo usuário. Você está livre para utilizar outras cadeias e modelos LLM se preferir. 1. Crie uma nova cadeia de Chianlink (LLM) e conecte-a a nossa cadeia. Utilizarei o modelo OpenAI para esta cadeia e a chame de "cadeia_de_ingredientes". 2. No nós, vá para "prompts" e pegue o nó de template de prompts. Conecte-o à "cadeia_de_ingredientes" conforme ilustrado no exemplo: - Template de Prompt: "Ai, responda com um ingrediente principal apropriado para uma receita baseado em um feriado público fornecido pelo usuário. Quando fornecer o feriado, use a variável `feriado_publico`. Agora, `feriado_publico` é estabelecido na variável de valor de entrada chamada `feriado_publico_de_entrada`. Por favor, insira o ingrediente-chave do feriado especificado. " 3. Salve o fluxo de chat. 4. Teste a cadeia digitando um feriado público como o Hallowe'en. Deveríamos ver o ingrediente-chave retornando como Abóbora. **Cadeia 2: Cadeia de Receitas (Cadeia de Desvio)** Agora, vamos criar o segundo passo na nossa cadeia, onde geramos uma receita relacionada com o tema e o ingrediente principal. 1. Crie uma nova cadeia de Chianlink (LLM) e conecte-a a nossa cadeia. Chame-a de "cadeia_de_desvio". 2. No nós, vá para "chains" e pegue outra cadeia de Chianlink (LLM). Adicione-a à telha e ale its "cadeia_de_receitas". 3. No nós, vá para "llms" e pega o nó OpenAI novamente. Adicione-o à "cadeia_de_receitas" e conecte-o à "cadeia_de_desvio". 4. No nós, vá para "prompts" e pega o nó de template de prompts. Conecte-o à "cadeia_de_desvio". - Template de Prompt: "Você é um Chefe experimentado que cria receitas únicas baseadas em um feriado público e um ingrediente principal compatíveis com o feriado. Utilize as variáveis `feriado_publico` e `ingrediente_principal`. Agora, `feriado_publico` é o valor de entrada do usuário, e `ingrediente_principal` é o valor de previsto previsão da cadeia anterior. " 5. Conecte a saída da "cadeia_de_ingredientes" à "cadeia_de_desvio" de modo que a variável `ingrediente_principal` tenha o valor corretamente definido. 6. Salve o fluxo de chat e teste-o digitando um feriado público como Páscoa. Deveríamos ver uma receita sendo gerada, por exemplo, um Cozinhado de Páscoa de Borrego com Alho e Romero. **Depuração: ** Quando iniciar o Flowwise, pode adicionar `--debug=true` à linha de comando para ativar o depuração. Isso exibirá informações adicionais no console para ajudá-lo a entender o dado que passa entre cadeias. **Comandos úteis de Depuração: ** - Inicie o seu projeto Flowwise com `--debug=true`: `yarn start --debug=true` - Verifique os valores das variáveis: Formate os valores de promoção - Conecte a saída de uma cadeia ao template de prompts: Mude o output da cadeia para `Saída de Previsão` e conecte-se ao Template de Prompt. # Vídeo 7: Implementação de chatbot com Flows-Wise em websites Neste vídeo, vamos ligeiramente apenas alterar nossa ferramenta de trocar de gears e examinar um exemplo real do mundo em que implementar o Flows-Wise. Aqui temos um site de uma floristeria, a qual vamos adicionar um chatbot de assistência ao cliente. Este chatbot será treinado com informações da empresa e poderá ajudar os Visitantes a responder às suas dúvidas relacionadas aos produtos, horários de funcionamento e outras informações sobre a empresa. Este bot pode ser acessado clicando no botão de chat localizado no canto inferior direito do site. Começaremos perguntando algumas coisas para o bot: - Qual é o produto que vende? - Qual é a hora de funcionamento? - Quem são os proprietários? Nota: Quando o bot envia a resposta, observe que a janela de chat seguirá o esquema de cores da restante da página e aprenderemos como personalizar o seu design. Com os bots de suporte ao cliente, é possível reduzir significativamente as consultas enviadas ao cliente e aumentar as vendas ao recomendar produtos. Agora, vamos implementar chatbots com Flows-Wise em aplicações web. Note que não precisamos ser desenvolvedores para seguir o passo a passo deste vídeo e este chatbot será baseado no vídeo "Chatbot do Documento" desta série. Portanto, caso encontrem dificuldade no processo de criação do bot Flows-Wise, recomendamos a conferência do vídeo anterior "Chatbot de Documento". Numa abreviada: - Crie uma API Key no <https://platform.openai.com/> - Utilize Finecone como nosso Armazenamento de Vetores - Crie um índice e notifique-se do nome - Crie as Fluxos de Trabalho de chat com Flows-Wise, um para carregamento de dados do negócio no Finecone, e outro para o chatbot - Adicione o código abaixo no body do HTML (verificarFlows. html) para incorporar o chatbot em uma página web ```html <script src="https://localhost:8000/wiki.min.js"></script> ``` - Note que a url da API mudará para a url que foi utilizada para criar o projeto do chatbot. Muitas ferramentas utilizadas neste tutorial serão discutidas em detalhe no futuro para ajudá-lo a entender o funcionamento e a personalizar o seu chatbot ainda mais. Agradecemos a sua atenção! ==== Vídeo 7: https://www.youtube.com/watch?v=XOeCV1xyN48 (Idioma: en) === Até agora, fomos fazer vários tipos de chatbots AI com o fluxo-wise. Porém, vamos mudar caminhos um pouco aqui agora, pois queremos explicar um exemplo real em que podemos implementar o fluxo-wise. Aqui, tenhamos um site de uma floristeria, a qual vamos adicionar um chatbot de assistência ao cliente. Este chatbot será treinado com informações da empresa e poderá ajudar os visitantes a responder às suas dúvidas relacionadas aos produtos, horários de funcionamento, e outras informações sobre a empresa. Este chatbot será acessado clicando no botão de chat para baixo em direita do site. Pode-se começar fazendo algumas perguntas ao bot: - O que vende o bot? - Quando as lojas estão abertas? - Quem é o proprietário? Nota: Quando o bot envia a resposta, observe que a janela de chat vai seguir a mesma cor choices do resto do site. Vou mostrar-lhe como personalizar o design do pop-up dessse bot. Os bots de suporte ao cliente são capazes de diminuir substancialmente o número de consultas enviadas ao negócio e aumentar as vendas ao fazê-lo recomendar produtos. Agora, vamos implementar bots de suporte ao cliente com Flows-Wise em aplicações web. Podemos notar que não precisamos ser desenvolvedores para seguir e este bot será baseado no vídeo "Document Chatbot" da série. Portanto, caso encontrem dificuldade no processo de criação do bot Flows-Wise, recomendamos a conferência do vídeo anterior "Document Chatbot". Em resumo: - Cria um API Key no plataforma. openai. com - Usaremos o PineCone como nosso Armazenamento Vector. - Crie um índice e notifique-se do nome. - Crie os fluxos de trabalho de chat com Flows-Wise, um para carregamento de dados do negócio no PineCone, e outro para o bot. - Adicione o código abaixo no body do HTML (verificarFlows. html) para incorporar o bot em uma página web. ```html <script src="https://localhost:8000/wiki.min.js"></script> ``` - Note que a Url da API mudará para a url utilizada para criar o projeto do bot. A maioria das ferramentas utilizadas neste tutorial serão exploradas na detalhe no [vídeo "Implementação de chatbot com Flows-Wise em áplicativos Web"](https://www.youtube.com/watch?v=XOeCV1xyN48) para ajudá-lo a entender o funcionamento e personalizar o seu chatbot ainda mais. Obrigado por visitar! # Vídeo 7: Sobrescrito de Atributos de Botão e Mudar Cor no Flow Wise Este documento te guiará a partir como sobrescrever um atributo de botão e mudar a cor de um botão e outros elementos no Flow Wise usando formatação Markdown. ## Tabela de Conteúdos - [Sobrescrito de Atributos de Botão](#sobrescrito-de-atributos-de-botão) - [Mudar Cor do Botão](#mudar-cor-do-botão) - [Mudar Cor da Setinha Sintetizadora](#mudar-cor-da-setinha-sintetizadora) - [Mudar Fundo do Mensagem de Usuário](mudar-fundo-do-mensagem-de-usuário) ## Sobrescrito de Atributos de Botão Para sobrescrever e mudar um atributo de botão no Flow Wise, você pode seguir estes passos: 1. navegue para a seção `temas` do editor. 2. Encontre o objeto `botão` e abra as propriedades `: ` e `}` deles. 3. Adicione ou altere o atributo `background-color` de acordo com a cor desejada. Aqui está um exemplo simplificado demonstrando o processo: ``` # Dentro de temas -- botão: background-color: azul; # Mude esse para a cor de sua escolha ``` ## Mudar Cor do Botão Para mudar a cor de um botão na janela de chat, siga estes passos: 1. Encontre o objeto que contém o botão que deseja mudar. 2. Abra suas propriedades `: ` e `}`. 3. Adicione ou altere o atributo `background-color` de acordo com a cor desejada. Exemplo: ``` # Dentro da janela de chat -- caixa-de-texto: botão: background-color: rosa; # Mude esse para a cor de sua escolha ``` ## Mudar Cor da Setinha Sintetizadora Para mudar a cor da setinha sintetizadora na seção de configuração, siga estes passos: 1. Encontre o objeto que contém a credencial de setinha sintetizadora que deseja mudar. 2. Abra as propriedades do objeto e encontre o atributo de sua cor. 3. Mude o atributo de cor de acordo com a cor desejada. Exemplo: ``` # Dentro da janela de chat -- botão-sintetizador: cor: rosa; # Mude esse para a cor de sua escolha ``` ## Mudar Fundo do Mensagem de Usuário Para mudar o background color de mensagens de usuário, siga estes passos: 1. Encontre o objeto `mensagem-de-usuário` que poderá estar dentro do objeto `janela-de-chat` ou `caixa-de-texto` (dependendo da interface do seu aplicativo). 2. Abra as propriedades do objeto e encontre o atributo de seu background color. 3. Mude o atributo de background color de acordo com a cor desejada. Exemplo: ``` # Dentro da janela de chat -- mensagem-de-usuário: background-color: rosa; # Mude esse para a cor de sua escolha ``` Processos semelhantes podem ser seguidos para outros elementos dentro do Flow Wise. # Tutorial da API Flow Wise: Este tutorial vai te guiára em duas partes: fazendo a configuração da cabeça de autorização da API Flow Wise e criando uma aplicação NodeJS personalizada com uma interface web para interagir com nosso fluxo de chat. ## Parte 1: Configurando a cabeça de autorização 1. Primeiro, sabemos que precisamos definir a cabeça `Authorization`, que usará um token melhor, de modo que possamos simplesmente copiar esta chave de API. 2. Na **Postman**, clique na guia **Auth**. Alterem este para "Token Melhor" e cole aqui a chave da API. 3. Em seguida, necessitamos definir o tipo `Content-Type` como `application/json`. Portanto, para a chave, digite `Content-Type`, e para o valor, defina-o como `application/json`. 4. Por fim, clique na guia **Body** e clique em **RAW**. Certifique-se de que o tipo está definido como `Json` no corpo. Adicionar uma propriedade chamada `question` e insira a solicitação de prompt desta caixa de diálogo algo como "Qual é o Flow Wise? ". 5. Após um segundo ou dois, recebemos uma resposta de volta de nosso fluxo de chat do Flow Wise. Continue para a segunda parte deste tutorial. ## Parte 2: Criando uma aplicação NodeJS personalizada com interface web 1. Tenho uma interface de web pronta para você. Na descrição deste vídeo, você encontrará o link para este repositório do GitHub. Para copiar esta guia para a sua máquina, clique em **Code** e então clique em **Download Zip** ou extrace as informações para o computador do seu ambiente. No entanto, neste exemplo, eu irá clonar este repositório. Copie este link e no seu computador, digite o comando `git clone <endereço do repositório aqui>`. 2. Você pode então prosseguir e abrir a pasta na editor de código de sua escolha (eu usará o VS Code). 3. Precisamos instalar os pacotes necessários, portanto, no terminal, digite `npm install`. 4. Veja o ambiente de trabalho do projeto: - O `index. js` é o ponto de partida para nossa aplicação. - Neste arquivo, eu criei uma aplicação muito simples do Express. - Esta aplicação do Express irá procurar qualquer arquivo estático na pasta pública e a pasta pública conterá os arquivos necessários para nossa Web-app. - Estamos também criando um ponto de extremidade para esta aplicação, que podemos acessar chamando `API flowwise`. Esse ponto de extremidade será chamado "criarPredição", e seremos abordados por ele em segundo lugar. - O motivo de usarmos um aplicativo Express é porque precisamos chamar o fluxo de chat do Flow Wise a partir do servidor. Lembre-se que ao chamar o fluxo de chat, precisamos passar Ele o token melhor. Este token é uma informação secreta que não queremos expor no cliente front-end. Assim, este ponto de extremidade irá ser executado apenas no servidor e apenas este ponto de extremidade terá uma visão da chave da API do Flow Wise. Então estamos, portanto, detachendo a lógica de back-end do nosso HTML de front-end. 5. Agora, tenha uma visão das funções para este ponto de extremidade: A função `createPrediction` é proveniente do arquivo `controllers`, que podemos acessar na pasta `controllers`. Nesse arquivo, sempre criei uma função chamada `createPrediction` e exportei-a para que possamos chá-la da `index` file. Essa função leva o payload da requisição como também a resposta da magnitude. Tentamos extrair uma propriedade chamada `message` (esse será o valor que enviaremos ao Bot de chat). No bloco `try. . . catch`, queremos formatar o `message` em uma estrutura que o Flow Wise espera receber. Se voltarmos um passo ao exemplo da API, no exemplo, o Flow Wise espera um campo chamado `pregunta` seguido pelo `message` do usuário. Então, estou criando um objeto com uma propriedade `question` seguido pelo `message` de usuário. Neste tutorial, implementaremos a lógica de fetch para chamar o ponto final da API do Flow Wise e iremos adicionar-la por aqui. Chame este endereço do Flow Wise quando o ponto final for chamado; retornaremos uma resposta com código HTTP 200 (significando sucesso), e esta resposta conterá uma propriedade chamada `message` com a resposta do Bot de chat. Por enquanto a resposta está sendo codificada de forma estática, mas iremos alterá-la neste vídeo. 6. Agora, vejamos o conteúdo da pasta `public`. Podemos ver todos os arquivos relevantes para nossa Web-app: - Um arquivo de HTML chamado `index. html` com alguma estrutura e estilo básica com Tailwind CSS. - Um arquivo chamado JavaScript `app. js`. No topo deste guia, estamos ligando os elementos HTML a variáveis de JavaScript, por exemplo, ligamos a área de formulário, o campo de entrada de mensagem, o parágrafo que armazena a resposta do Bot, e o botão de envio. Não devemos ter dúvidas de conferir num monitor em Português. Nós também adicionamos um ouvinte de eventos do botão de envio, então quando o formulário for enviado, impediremos o comportamento padrão, o que evitará o refresh da página. - Estamos simplesmente registrando o valor do campo apenas para teste e depois, alteraremos a propriedade atributo disabled do botão para `true` e mudaremos o texto do botão para "Enviando. . . ". Quando o formulário for enviado, estou agora chamando este aplicativo ponto final e então estamos passando a mensagem do usuário. Não se deve confundir o link deste ponto final com o link para o próprio Bot. O link do Bot estará definido em nosso controlador. 7. Para testar a aplicação, abra seu terminal, depois digite `npm run dev`. Isto agora iniciará nosso projeto em Port 3000 ( substitua `3000` com o porto desejado, se necessário). Se abrir `localhost: 3000`, receberemos a seguinte página. Se você entrar com uma mensagem como "Olá" e então clicar em "Enviar", receberemos uma resposta de volta, como "Resposta demo" (porque quando abrimos o arquivo do Flow Wise, utilizamos uma resposta deste arquivo codificada de forma estática, que iremos alterar neste vídeo). Passaremos por etapas em detalhes posteriormente. 8. Agradeço pelo tempo prestado neste tutorial e pretendo produzir outros vídeos sobre como evoluir esta aplicação. 9. Deployando esta aplicação personalizada para o ambiente de produção final (como ex. Render ou AWS) é de sua responsabilidade a explorar. 10. Adicionalmente, se você estiver planejando enviar documentos usando carregadores de arquivos, também pode ver um exemplo no guia da documentação sobre que valores precisam ser passados ao seu Bot. Por favor, conte-me por favor, se você gostaria que eu abordeasse este assunto em um futuro tutorial. 11. Em caso de erros na formatação do Markdown, lembre-se de entender que o português de Portugal necessita que a cabeçalho seja precedido por `#` se o nível do título for 1, `##` se o nível for 2 e assim por diante. Além disso, não recorte o espaço antes das `###` para circuitos internos no Text Markdown. # Guia de implantação do serviço web com Flowwise ## Introdução Neste guia, aprenda a implantar um serviço web com Flowwise. Este guia mostrará os passos necessários para configurar seu ambiente de desenvolvimento, colocar em execução o serviço e gerenciar as variáveis de ambiente em execução. ## Requisitos Para seguir este guia, você precisará: - Ter um ambiente de desenvolvimento configurado com Node. js instalado. - Um provedor de hospedagem de nuvem, como [Render](https://render.com/) ou [AWS](https://aws.amazon.com/). - Saber como utilizar a API REST. ## Etapas de implantação 1. **Selecione o branch** Escolha o branch "Master" ao selecionar um projeto no seu ambiente de desenvolvimento e deixe a pasta raiz vazia durante a execução. 2. **Defina o comando para a build** Mude o comando para a build do Node para `npm install`. 3. **Defina o comando para o início** Defina o comando para iniciar o serviço com `node index. js`. 4. **Adicionar variáveis de ambiente** Adicione váriaveis de ambiente durante a execução da aplicação, conforme seus necessários. Aumente a segurança de sua aplicação adicionando variáveis de ambiente privadas. 5. **Selecione o tipo de instância** Siga os passos em seu provedor de hospedagem para escolher o tipo de instância desejado. 6. **Configurar as variáveis de ambiente** Adicione as variáveis de ambiente específicas para o seu serviço em exercício. Altere o node version para o versão LTS, pois a versão 14 é considerada um versão antiga que não suporta a API fetch. 7. **Implantar o serviço** Execute os seguintes passos no seu provedor de hospedagem: - Crie um novo serviço. - Espere alguns segundos para que a implantação seja finalizada. - Verifique se o logs indicam o uso de node version 18 ou superior, não sendo o padrão utilizado pelo Render. ## Conclusão Agora que seu serviço esteja em execução, você pode acessá-lo clicando neste [link](URL). Teste a sua aplicação digitando um teste no campo de entrada e observe se recebe uma resposta. ## Vídeo 10: <https://www.youtube.com/watch?v=0B0oIs8NS9k (Idioma: en)> ## Vídeo 11: <https://www.youtube.com/watch?v=ppST8_LiuqU (Idioma: en)> # Chame o meu assistente: Chamada para o Chatbot Llama 2 Use este guia para adicionar um chain do Llama 2 ao seu projecto. ## Salvar o Projecto 1. Clique em **Salvar** para salvar o seu projecto. ## Adicionando uma cadeia LlM 1. Clique em **ADICIONAR nós**. 2. B占e **Chains**, clique em **chains**. 3. Adicione o **LlM Chain**. 4. Continue e adicione o seu **Modelo de Linguagem**. 5. Clique em **ADICIONAR nó**, depois em **llms** e adicione o **Nó Replicate** ao seu canvas. 6. Conecte este LlM à sua cadeia, conforme mostrado abaixo. ! [Exemplo de conexão](connection-example. png) ## Configurando o Nó Replicate 1. No nó Replicate, selecione a credential **Replicate Credential** que criou anteriormente. 2. Copie o **Nome do Modelo** de Replicate e adicione-o no nó. 3. Mantenha o **Temperatura** em `0. 7`. 4. Adicione o **Prompt**. ## Adicionando o Modelo de Prompt 1. Clique em **Nós** sob **Prompts**. 2. Adicione o **Nó Prompt Template** e conecte-o também. 3. Insira um valor no seu **Modelo de Prompt**. Exemplo: ``` Você é uma assistente virtual. Responda a perguntas trutisticamente e não invente respostas falsas. A pergunta do utilizador vai usar uma variável chamada question. Esta variável representa a pergunta da caixa de texto. Assistente: ``` ## Atribuindo a variável de question 1. Clique em **Valores de Prompts**. 2. Clique em **Editar** e para o seu valor, selecione a **question**. 3. Salve o fluxo de chat. ## Testando o Modelo de Prompt 1. Clique em **Chat**. 2. Insira **olá** e depois vá alguns segundos, você deve receber uma resposta do modelo Llama 2. ## Controlando as interações com Replicate 1. Volte ao Replicate e vai à sua dashboard. 2. Agora pode ver a interação na lista de últimas predições. 3. Clique no ID desta interação para ver informações adicionais sobre a promoção que foi passada ao modelo. ## Gerando imagens com Flow Wise 1. Volte ao Replicate e vai à página de **Explorar**. 2. Clique nos modelos difusivos e selecione um modelo (por exemplo, modelo de difusão estável). 3. Copie o nome do modelo e substitua-o em Flow Wise. 4. Mude o modelo de Prompt para descrever a imagem que deseja gerar. 5. Salve o fluxo de chat e teste-o. Exemplo de modelo de Prompt: ``` Um cowboy a cortejar sundown ``` ## Ferramentas Personalizadas As Ferramentas Personalizadas facilitam a adição de funcionalidades personalizadas aos chatbots do Flow Wise. Este tutorial vai mostrar-lhe como criar uma Ferramenta Personalizada que adiciona itens à lista de tarefas. 1. Abre o Flow Wise e cria um novo fluxo de chat. 2. Salve este fluxo de chat e dê-lhe um nome (por exemplo, "Demo da Ferramenta Personalizada"). 3. Vá a **Nós**, depois clique em **agents** e adicione o **Agente de Função OpenAI** ao canvas. 4. Vá de novo a **Nós**, depois ao **Modelos de Chat**, e adicione o **Modelo de Chat OpenAI** ao canvas. 5. Conecte o seu modelo ao agente. 6. Selecione as suas credenciais, defina o modelo para **GPT 3. 5 Turbo** e defina a temperatura em `0. 7`. 7. Adicione o **Memória** ao seu canvas ao ir a **Nós**, depois a **Memória** e adicione o **Nó de Memória Buffer** ao canvas. Conecte este nó ao agente. 8. Adicione o **Nó de Ferramentas Personalizadas** ao canvas e conecte-o ao agente. 9. Vá a **Nós**, depois a **Ferramentas**, e adicione a Ferramenta Personalizada ao canvas. Conecte-o ao agente. ### Criando a Ferramenta Personalizada 1. Crie o modelo clicando em **criar novo** ou salvando o seu projecto, voltando ao painel de controle do Flow Wise, e clicando em **Ferramentas**, depois em **criar**. 2. Dê um nome ( seguindo a norma de nomenclatura: caracteres minúsculos com traços que separam palavras). 3. Adicione uma descrição para a Ferramenta. 4. Sob **Esquema de Saída**, adiciona uma nova propriedade: `texto da tarefa` com tipo **string**. Este nome da propriedade deve seguir a mesma nomenclatura. 5. Armazena a propriedade de `texto da tarefa` como obrigatória. 6. Escreva a lógica do modelo. Por exemplo: ```javascript //. . . retorna "Item adicionado com sucesso"; //. . . ``` 7. Salve o modelo e voltar ao seu fluxo de chat. 8. Clique no drop-down do Nó de Ferramentas Personalizadas e selecione a sua Ferramenta Personalizada. 9. Salve o seu fluxo de chat. 10. Abre o chat e garanta que o chatbot esteja funcionando. 11. Tente adicionar um item à lista de tarefas digitando `Adicionar comprar leite para a lista de tarefas`. 12. Verifique o console para ver a ação do Agente e a entrada do modelo para a Ferramenta Personalizada. ## Controlando a resposta da Ferramenta 1. Volte ao painel do Flow Wise, clique no **Ferramentas** e selecione a sua Ferramenta Personalizada. 2. Mude a resposta no código para indicar quando o item não pode ser adicionado (por exemplo, `não foi possível adicionar o item à lista de tarefas`). 3. Salve a Ferramenta. 4. Volte ao seu fluxo de chat e teste-o novamente. # Integração de Webhooks com Google Sheets usando Make. com (Português de Portugal) Este guia irá te guiar pelo processo de integração de Webhooks com Google Sheets, utilizando Make. com como a plataforma. ## Pré-requisitos - Encontre os web hooks para a integração de Google Sheets em Make. com. Quando apresentado com este pop-up, clique em **ADICIONAR**. - Dê um nome ao seu web hook. Neste exemplo, chamarei meu `flowwise Ai`. Clique em **Salvar**. - Agora será apresentado um endpoint API que precisamos chamar. No momento, Make. com está a espera de vós realizar uma chamada inicial a este endpoint. Copie este endpoint para a chamada inicial. - Usaremos o Postman para fazer a chamada inicial. Abra uma nova guia e cole esse endpoint. Também precisamos alterar o método de `GET` para `POST`. Clique no **Corpo**, selecione **raw** e garanta que o tipo está definido como `Json`. Use chaves para estruturar o corpo e inscreva `texto para fazer` seguido de qualquer valor de exemplo. - Execute este por clicar em **Enviar**. Na resposta, você receberá `aceito`. - Volte para make. com e você receberá uma mensagem que diz `determinado com sucesso`. Clique em **Continuar**. - Na segunda etapa, selecione o Google Planilha que deseja utilizar. É possível ter que criar uma ligação para a sua conta Google. Pule este passo, pois já o fiz. - Selecione a planilha que gostaria de utilizar. Neste exemplo, selecionarei `Planilha 1`. - Aline os valores do endpoint API à coluna na planilha de Google. Na nossa planilha, só tem uma coluna chamada `Descrição da tarefa`. Podemos simplesmente arrastar e soltar o valor passado através do webhook para o campo de entrada de descrição. - Para alinhar várias colunas, pode-se alinhar os valores da chamada Postman com estas colunas. Clique em **Continuar**. - Renomeie esta cenária para `demo do flow wise`. Desative a inicialização. Grave este. - Pode verificar se está a funcionar voltando para Postman e repetindo a chamada da API. Se voltar para a sua planilha, pode ver que o valor foi adicionado com sucesso. ## Ferramenta Personalizada - Volte para Flowwise para manter tudo limpo. Vou apagar este diálogo. - Volte ao painel. Vá para **Ferramentas** e selecione nossa **Adicionar Tarefa** ferramenta. - Desce para o código. Para simplificar, vou remover este código. - Para substituir a URL, vá para o Postman, ecute a chamada API, copie o endpoint para o webhook e substitua a URL no código. - Mude o método de `GET` para `POST`. - Vamos deixar as cabeçalhas como `content-type: application/json`. Temos também que pausar a propriedade corpo. Após o fechamento da chavecreteça, adicione uma vírgula, depois adicione uma propriedade chamada `body: { "json": ` e entre chaves, adicione um pool de abertura e fechamento de chaves. Entre estas chaves, estamos efectivamente passando o valor. - Copie esta linha e cole-a entre estas chaves. Em vez de codificar o texto, cole-o aqui, a propriedade que recebe aqui, a propriedade chamada `texto da tarefa`. - Para fazer este código saber que é um variável ou uma propriedade que está entrando através da função, simplesmente adicione um sinal de dólar no começo desta propriedade. - Salve esta ferramenta. - Depois de realizar as alterações na ferramenta, precisamos reiniciar Flowwise. No console ou digite `Ctrl C` e limpe o console para limpar as coisas. - Reinicie Flowwise. - Volte ao nosso diálogo e teste isto. - Repita a instrução novamente, adicionando `comprar leite` à lista de tarefas. Estamos a obter uma resposta que diz `Adicionado a lista de tarefas comprar leite`. - Procure a planilha e podemos ver que o item foi adicionado com sucesso. - Tente outro exemplo. Sugista o bot `O que há de interessante a aprender este ano? ` O bot está a responder `A prática de mindfulness e meditação seria uma habilidade interessante a aprender este ano`. - Peça ao bot para adicionar isto à sua lista de tarefas. Depois de alguns segundos, podemos ver a resposta a dizendo `Adicionado prática de mindfulness ou meditação à lista de tarefas`. Nesta planilha, este texto foi adicionado com sucesso. Criar ferramentas personalizadas é ótimo espetáculo e, como um bolo de chibata adicional, também pode criar ferramentas personalizadas que chamem outras floares do Flowwise. Se tiver vários flores de chat, pode obter seus pontos finais por clicar em **Ponto Final API** e depois no **JavaScript**. Em teoria, pode copiar código e então adicionar este a uma ferramenta personalizada nenhuma das várias floras de chat podem chamar umas às outras usando ferramentas personalizadas. Se gostou deste vídeo, por favor considere inscrever-se no canal. Direi-vos na próxima! Até logo! ## Fontes - [Vídeo 13](https://www.youtube.com/watch?v=4MSxi6-RYCI) (Língua: en) - [Vídeo 14](https://www.youtube.com/watch?v=vmKLAeyLXy8) (Língua: en) > Este é apenas um resumo do processo de mudança da marcação da Flowwise bot no seu website. Para detalhes, consulte os vídeos acima. > > Pelo que precisa fazer esta alteração: > > 1. Faça um fork da Flowwise bot corpo de GitHub para criar uma cópia no seu espaço ao nome. > 2. Instale Git e GitHub, e um editor de código como Visual Studio Code. > 3. Descarregue o repository para a sua máquina e abra com o seu editor de código. > 4. Execute `yarn install` para configurar as dependências do projeto e reconstruir os arquivos de distribuição. > 5. Execute `yarn build` para garantir que os arquivos de distribuição estão atualizados. > 6. Na pasta `Source`, então `componentes`, e em ambos os arquivos `Badge` e `Bot`, encontre o texto `powered by` e `flowwise` que está dentro de um link. Pode alterar estes valores e links conforme as suas preferências. Alternativamente, pode remover estas linhas totalmente ou comentá-las. > 7. Reconstrua os arquivos de distribuição executando o terminal `yarn build`. > 8. Enviar back as suas alterações para GitHub. Pode fazê-lo utilizando o terminal, mas se estiver a usar o Visual Studio Code pode utilizar a pasta de controlo-fonte para enviar os seus alterações e sincronizar com ele. > 9. Atualize o código em seu web site para referenciar o URL modificado. Substitua `npm` com `GH` e substitua `flowwise embed` com o nome de seu repositório do GitHub. Por styku2961. # Construindo Ferramentas Flowwise: Um Guia para o Chatbot de Pokémon Aprenda algumas habilidades importantes de algumas ferramentas básicas para construir Ferramentas Flowwise. Neste guia, vamos configurar nossa ambiente Flowwise, instalar dependências externas do Node, e criar uma ferramenta personalizada que utiliza essas dependências para buscar informações sobre Pokémon na janela de chat. ## Pré-requisitos - Versão LTS mais recente do Node instalada - Git para o seu sistema operacional - Editor de Código (por exemplo, Visual Studio Code) - alguma experiência com Node e JavaScript ## Configurando o Flowwise para Desenvolvimento 1. Baixe o repositório Flowwise: - Vá para a [página do repositório Flowwise](https://github.com/flowwise/flowwise) - Clique em `Code` - Copie a URL - Crie uma pasta para o download do arquivo Flowwise - Abre o terminal ou a janela de comandos do Windows (digite `CMD` na barra de endereço) - Digite `get clone` e cole a URL, depois tecle `Enter` - Navegue para o diretório baixado (por exemplo, `CD flowwise`) - Abre o diretório no editor de código (por exemplo, `code . ` ou `Archivo > Abrir Pasta > selecione o diretório flowwise`) 2. Instale dependências Flowwise: - Abra o terminal integrado - Digite `yarn install` e tecle `Enter` 3. Construa o projeto: - Execute `yarn build` e tecle `Enter` 4. Teste o Flowwise: - Execute `yarn start` e acesse `localhost: 3000` para verificar se o Flowwise está funcionando correthentemente ## Criando o Chatbot de Pokémon 1. Adicione a Chave API do OpenAI: - Vá para `Credentials` e adicione sua Chave API do OpenAI 2. Crie o fluxo de chat de Pokémon: - Vá para `Fluxos de Chat > Adicionar Novo` - Nomeie-o `Fluxo de Chat de Pokémon` - Adicione o `Agente de Função AI OpenAI` ao plano de fundo - Adicione o `Nó de Chat AI OpenAI` como o modelo de chat - Conecte o Nó de Chat AI OpenAI ao agente - Selecione suas credenciais (`Chave API do OpenAI`) - Adicione o `Buffer de Memória` ao plano de fundo pelo `Nó Buffer de Memória` - Conecte o Nó de Memória ao agente - Crie uma Ferramenta Personalizada: - Desloca a Ferramenta Personalizada uma pequena quantia - Sob `Nós > Ferramentas > Nó de Ferramenta Personalizada`, adicione ao plano de fundo 3. Crie as Ferramentas: - Salve o fluxo - Sob `Escolha Ferramentas`, clique em `Criar Novo` - Crie duas Ferramentas: - Nome: `Obter Pokémon Aleatório` - Nome: `Obter ID de Pokémon pelo Nome` 4. Drufa as Ferramentas: - Para `Obter Pokémon Aleatório`, deixe o esquema de saída vazio - Para `Obter ID de Pokémon pelo Nome`, defina o esquema de saída, o tipo de propriedade, e a descrição 5. Crie o código JavaScript para Ferramentas: - Instale a Biblioteca Pokémon: - Parar o projeto Flowwise e limpe o terminal - Navegue até a pasta `components > packages > components` - Instale a biblioteca usando `yarn add pokemon` - Volte para a pasta raiz do projeto (`CD . . `) e execute `yarn install`, depois `yarn build` - Adicione as dependências externas ao ambiente: - Feche a pasta `components` - Abra o arquivo `server > . env. example` e crie uma cópia no mesmo arquivo (renomeie para `. env`) - Descomente a linha `toolFunctionExternalDependency` e adicione `pokemon` à lista - Salve o arquivo 6. Teste o Chatbot: - Inicie o Flowwise executando `yarn start` - Volte ao painel de tela e teste as ferramentas no janela de chat Para obter mais informações, consulte o [Vídeo 15](https://www.youtube.com/watch?v=QUGrcABPCFM) (Linguagem: en) sobre a criação de personagens de Chatbot com o Flowwise. Boa sorte com a construção do seu Chatbot de Pokémon! 🚀💻✨ # Instalando Dependências e Configurando o Flow Wise Este guia vai te dirigir a instalar as dependências necessárias para o Flow Wise e a definir o sistema para a criação de um chatbot pessoal. ## Instalando Yarn 1. Se receber um mensagem de erro que `yarn` é um comando inválido, instale Yarn executando o seguinte comando no terminal: ``` npm install -g D- Global yarn ``` 2. Depois de instalar Yarn, execute o seguinte comando para resolver o erro: ``` yarn ``` ## Construindo o Flow Wise 1. Construa o Flow Wise executando o seguinte comando no terminal: ``` yarn build ``` Esse processo pode levar um minuto para completar. ## Iniciando o Flow Wise 1. Abrir o prompt de comando no diretório do Flow Wise e execute o seguinte comando para iniciar o Flow Wise: ``` yarn start ``` ## Provando os Dados para o Chatbot 1. Para colectar dados para o seu chatbot pessoal, poderá obter informação de diversos locais, como blogs, artigos, podcasts ou vídeos YouTube. 2. Para este exemplo, seguiremos estas etapas para baixar e processar um transcrito de um vídeo YouTube: a. Pesquisar um vídeo relevante. b. Baixar o transcritor do vídeo. c. Adicionar o transcritor ao conhecimento do chatbot. 3. Depois de adicionar transcritos, poderá iniciar a criação de seu primeiro fluxo de conversação. --- # Criando um Fluxo de Conversação no Flow Wise 1. Crie um novo fluxo de conversação clicando em `Adicionar Novo` e fornecendo um nome para o seu fluxo, por exemplo, `Beast da AI`. 2. Adicione uma nota que lhe permite comunicar com um modelo AI que tem acesso a uma base de conhecimento. 3. Adicione uma cadeia de pergunta e resposta conversacional. 4. Atrielie um modelo AI à cadeia. 5. Conecte um armazenamento em memória acessível ao Redis à cadeia. 6. Especifique o modelo de EMBEDDINGS e lidas as credenciais necessárias para o mesmo. 7. Cargue o carregador de documentos e conecte-o ao armazenamento em memória. 8. Divida o conteúdo de cada ficheiro em fragmentos manejáveis usando um separador texto. 9. Adicione as suas credenciais da OpenAI para aceder à API. 10. Guarde o fluxo de conversação e teste-o enviando um mensagem ao chatbot. ## Memória de conversação longa Para adicionar memória de conversação longa ao seu chatbot, pode utilizar uma memória Redis Backed Chat do Upstash. Crie um novo fluxo de conversação, adicione uma cadeia de conversação, um modelo de linguagem (tal como o modelo de ChatOpenAI), uma memória (Redis Backed Chat Memory do Upstash) e conecte a memória à cadeia de conversação. Siga as instruções fornecidas na documentação do Flow Wise para configurar a memória de conversação Redis Backed Chat Memory do Upstash, incluindo a criação de uma nova conta, a criação de uma base de dados e obtenção das credenciais necessárias. Em seguida, conecte o chatbot ao Redis Backed Chat Memory Upstash para habilidades de memória de conversação longa. Este Flow Wise chatbot pronto à ajudar-te agora com os dados que preparaste. Excelente para personalizar o seu chatbot com mais conteúdo e diferentes personalidades AI! 🎉 # Guide para Adição de Memória de Chat Longo-Prazo aos seus ChatBots usando o Upstash Database Neste tutorial, ensino-vos a adicionar memória de chat longo-prazo aos seus ChatBots utilizando o Upstash Redis Backend database. Em Nós demonstratedaremos como configurar chatBots para armazenar várias históricos de conversas utilizando identificadores de sessão. ## Pré-requisitos - Conta Upstash com credenciais para acesso à base de dados Redis. - Conhecimento com Flow Wise, uma plataforma aberta para a criação de chatBots. ## Passos ### Apostando Credenciais 1. Navegue para a sua consola do Flow Wise. 2. Crie um novo nó e dê um nome para o seu fluxo de chat (por exemplo, `assistant_demo`). 3. Adicionar o nó `OpenAI Assistant` ao seu tela deDraw. 4. Crie uma conta OpenAI se não tiver uma já criada. Vá para [platform. open. com](http://platform.open.com) e inscreva-se para uma conta. 5. No Flow Wise, sob o dropdown Selecionar assistente, clique em `Create New`. 6. Dê um nome e descrição para o seu assistente (por exemplo, `Cloudsync Suporte`). 7. Escolha a API key e selecione o `GPT 41106 Preview` ou `GPT 3. 5 Turbo 1106`. Em caso de qualquer problema, adicione uma tarifa à sua conta OpenAI ou utilize o modelo `GPT 3. 5 Turbo 1106` em vez disso. 8. Introduza a sua API key e clique `Add`. 9. Na seção Instruções, forneça as seguinte instruções para o seu assistente: ```markdown Você é um assistente útil que faz parte da empresa chamada Cloudsync. Seu nome é Sammy. Tenha um tom amigável e útil. Tenha as respostas curtas e precisas. Utilize a informação contida nos ficheiros fornecidos para responder perguntas sobre a Cloudsync, como os produtos e serviços oferecidos pela empresa. Depois de responder às perguntas, pergunte ao usuário se gostaria de agendar uma reunião ou consulta. Se o usuário pergunta sobre a agendação de uma reunião ou consulta, colete os seguintes dados do usuário e, em seguida, envie esta informação para a função `add_lead`: - Nome - Sobrenome - Email - Nome da empresa - Número de telefone Depois de ter todos estes dados, responda com uma mensagem como "Obrigado! Alguém da equipe vendas retornará em breve. " ``` 10. Carregue os ficheiros que contêm informação da sua empresa no Flow Wise. 11. Salve o fluxo do chat e teste o seu assistente fazendo enviar uma mensagem simples. ### Armazenando e Recuperando Histórico de Conversas Quando os usuários interagem com o chatBot, os dados da conversa serão armazenados no Upstash Redis database utilizando identificadores de sessão. Para recuperar o histórico de conversas posteriormente, siga os passos abaixo: #### Recuperando Conversas existentes 1. No dashboard do Flow Wise, adicionar um novo nó com a etiqueta `Obter Sessão`. 2. Na entrada de Sessão ID, forneça o Identificador de sessão de uma conversa anterior. 3. Adicionar um nó `Obter Chave` após o `Obter Sessão` nó. 4. Configurar a entrada Chave como `chat_history: session_id` (substituindo o `session_id` pelo identificador de sessão real). 5. Após o `Obter Chave`, adicionar um nó `Obter Valor`. 6. Conectar a saída do `Obter Chave` nó com a entrada de Chave do `Obter Valor` nó. 7. A saída do `Obter Valor` nó será o histórico de conversas para o identificador de sessão fornecido. Pode agora processar ou exibir esta informação a vontade. #### Criando Novas Sessões Quando inicializar uma nova sessão, certifique-se de armazenar o identificador de sessão e os dados de Redis da seguinte forma: 1. Inicialize uma sessão no seu chatbot e armazene o identificador de sessão em uma variável de sessão. 2. Adicionalmente, armazene os dados da sessão no Upstash Redis database utilizando os nós `Set Key` e `Set Value` no Flow Wise. ```markdown Set Key: chat_history: session_id Set Value: JSON. stringify(chat_log) (onde chat_log é um array contendo as mensagens de conversa) ``` A seguir, poderá armazenar e recuperar vários históricos de conversas para os seus chatBots utilizando o Upstash Redis Backend database. Feliz código! Divirta-se com estes vídeos e considere inscrever-se no meu canal. Se tiver maiores dúvidas ou precisar de ajuda, sinta-se à vontade para perguntar. 🪄🚀 * Vídeo 17: [https://www.youtube.com/watch?v=KwUbCeM2yLo](https://www.youtube.com/watch?v=KwUbCeM2yLo) (Inglês) [Fim da transcrição] # Começando com o Assistente do Flow Wise Este guia mostrará como configurar e usar o Assistente do Flow Wise para gerenciar consultas de clientes e adicionar líderes ao seu sistema CRM. ## Introdução O Assistente do Flow Wise é uma ferramenta útil que usa uma base de conhecimento para responder consultas de clientes. Neste guia, vamos criar uma ferramenta personalizada para adicionar líderes a um sistema CRM, especificamente o Zoho CRM, usando o serviço Make. com. ## Pré-requisitos Para seguir este guia, você precisará dos seguintes itens: 1. Uma conta do Flow Wise 2. Uma conta do Make. com 3. Uma conta do Zoho CRM (para fins de teste) ## Configurações ### Visualização de Conversas Passadas Na configuração do seu painel do Flow Wise, você pode encontrar a opção `Visualizar Mensagens`. A partir daí, é possível ver transcrições de conversas passadas, o que é útil para ajustar e melhorar sua assistência ao longo do tempo, conforme os usuários interativam com a mesma. ### Realizando alterações na Assistência Para realizar alterações na sua assistência, volte ao painel do Flow Wise e navegue até a seção 'Assista'. A partir daí, você pode fazer alterações na sua assistência Cloud Sync. ## Criando uma Ferramenta Personalizada para Adicionar Líderes Neste guia, vamos criar uma ferramenta personalizada para adicionar líderes ao Zoho CRM. A solução oferecida aqui funcionará para a maioria dos casos, mas você pode escolher qualquer ferramenta preferida para armazenar líderes. ### Integrando o Flow Wise com o Zoho CRM #### Make. com Para integrar o Flow Wise com o Zoho CRM ou qualquer outro sistema CRM, iremos utilizar um serviço chamado Make. com. Faça o login no Make. com, crie uma cena, e exponha uma API para que o Flow Wise possa frequentá-la. 1. Crie uma nova cena. 2. Clique em "Criar nova cena". 3. O Make irá expôr uma API para que o Flow Wise possa frequentá-la. #### Webhook Personalizado 1. Clique em "Cenas", depois em "Criar nova cena". 2. Clique no botão maior. 3. Pesquise por "Web Hooks", e depois clique em "Web Hooks". 4. Clique em "Web Hook Customizado", e depois em "ADICIONAR". 5. Dê um nome para seu webhook (por exemplo, "Assistente de IA do Flow Wise") e clique em "Salvar". 6. O Make. com fornecerá uma URL de ponto final para o Flow Wise para chamar-lá. Salve esta URL para uso posterior. ### Conectando o Flow Wise ao Webhook Personalizado 1. No Flow Wise, adicione uma ferramenta personalizada para a função `addLead` sob "Ferramentas". 2. Conecte essa Ferramenta Personalizada para a sua assistência. 3. Selecione sua ferramenta da lista. 4. Crie uma nova ferramenta e nomeie-a `addLead`. #### Schema 1. Forneça o código JavaScript para chamar o Ponto Final do Webhook (consulte [Código para Chamar o Webhook](#código-para-chamar-o-webhook) para detalhes). ## Código para Chamar o Webhook O código para chamar o webhook depende da sua configuração específica, mas aqui tem um exemplo geral: ```javascript let endpointUrl = 'https://www.make.com/triggers/flows/SUA_URL_DE_WEBHOOK_ENDPOINT'; let payload = { 'nome': '{{Nome}}', 'sobrenome': '{{Sobrenome}}', 'email': '{{Email}}', 'telefone': '{{Telefone}}', 'nome_da_empresa': '{{Nome_da_Empresa}}' }; fetch(endpointUrl, { method: 'POST', headers: { 'Content-Type': 'application/json', }, body: JSON. stringify(payload), }); ``` Substitua `SUA_URL_DE_WEBHOOK_ENDPOINT` pela sua URL específica do ponto final. ## Conectando o Flow Wise ao Zoho CRM 1. No Make. com, adicione um módulo para esta cena para enviar os dados ao Zoho CRM usando a opção upsertLead. 2. Mapear os valores do webhook para o Zoho CRM. ## Alternando o Assistente para ON Após configurar a assistência, navegue até os Parâmetros de Integração no seu painel do Make. com e altere a posição de uma vez. Agora, o Make. com está sempre ouvindo chamadas de flow wise. ### Conclusão Agora você terá uma assistente que pode responder às consultas barradas de uma base de conhecimento, capturar líderes, e passar os líderes capturados para seu sistema CRM. Para adicionar essa assistente ao seu site web, consulte as instruções fornecidas no guia [Adicionando Assistentes do Flow Wise a um Website WordPress](https://www.seusite.com/assistentes-de-chat-flow-wise-wordpress). # Plugin de Código WP para integração de robô de conversas Esta guia irá mostrar-lhe como adicionar uma conversa ao seu site Wordpress utilizando o plugin WP Code. ## Instalação e Ativação 1. Instale o plugin WP Code no seu site Wordpress. 2. Ative o plugin após a instalação. ## Configuração 1. Vá para Code Snippets e clique em Adicionar Novo. 2. Clique em Adicionar o seu código personalizado. 3. Copie o seguinte código da Flow Wise e cole-o no visual de pré-visualização: ``` // Seu código personalizado aqui ``` 4. Configure as configurações conforme descrito abaixo: - Deslizando para baixo para o método de inserção: Deixe este configurado com Auto Inserção. - Localização: Mude este para Rodapé Site. - Tipo de Dispositivo: Selecione o dispositivo desejado ou deixe este configurado com Qualquer Dispositivo. - Salvar Snippet. 5. Mude o estado do snippet do Inativo para Ativo e clique em Atualizar. ## Testes 1. Após salvar o snippet, volte para o seu site para testar a bolha de conversa. 2. Enviar um mensagem como "Olá" para iniciar a interação com o seu assistente. 3. Para agendar uma reunião, forneça os detalhes necessários como o seu nome, número de telefone, empresa, e-mail e envie a mensagem. ## Configurando o Sistema de Programação de Agendamento Integrado 1. Sigam as instruções no Vídeo 18 para configurar o sistema de programação de agendamento para o seu robô de conversas. ## Configurando o robô de conversas para Telegram (opcional) Sigam as instruções no Vídeo 19 para configurar um assistente de atendimento de clientes usando a API de Assistente Inteligente Open AI e flow wise e integre-o com o Telegram. Para qualquer outra assistência, favor consultar os vídeos tutorials ou comunique-se com o nosso suporte de assistência. # Criando um Bot do Telegram com integração do OpenAI ## Visão Geral Este guia mostrará como criar um bot do Telegram que integra o OpenAI para responder às mensagens dos usuários. ## Passos ### 1. Estabelecendo a Conexão Para estabelecer uma conexão, siga estas etapas: 1. Clique em `Salvar`. 2. No módulo, selecione o `Webhook` que acabou de criar e clique em `OK`. 3. Agora, o módulo irá assistir por mensagens do Telegram. ### 2. Testando a Conexão 1. Para testar a conexão, faça clic com o botão direito no módulo e escolha `Executar este módulo somente`. 2. Agora, o módulo está aberto onde espera uma mensagem do Telegram. 3. No Telegram, abra o bot e mande um mensagem, como `olá`. 4. Volte para a plataforma MAKE, e verá que o módulo parou de exibir. Clique no buble para abri-lo, e dentro do nó `message`, pode-se ver o texto enviado (por exemplo: `olá`). ### 3. Passando o Texto para o OpenAI 1. Adicione um novo módulo, pesquise por `OpenAI` na lista de aplicações, e clique em `Criar uma resposta completa`. 2. Se não tiver uma ligação configurada, crie-na criando um clique em `ADD` e fornecendo a sua chave API do OpenAI, que pode ser obtida ir para `platform. open. com API Keys` e então criando uma nova chave secreta. Deixe em branco o ID da organização e clique em `Salvar`. 3. Selecione o modelo desejado, `GPT 3. 5 turbo` neste caso. 4. Sob o `role`, selecione `user`. Para o `conteúdo da mensagem`, selecione o valor do bot do Telegram, especificamente o valor `text` contendo a mensagem enviada (por exemplo: `olá`). Clique em `OK`. 5. Agora o módulo irá esperar por uma mensagem do Telegram. 6. No Telegram, mande uma mensagem como `dê-me um piado`. 7. Volte para a plataforma MAKE, e pode-se ver que o módulo do OpenAI gerou uma resposta. ### 4. Enviando a Resposta para a Conversa do Telegram 1. Adicione outro módulo, selecione `Bot do Telegram`, e escolha `enviar uma mensagem de texto ou uma resposta`. 2. Selecione a conexão criada para este módulo, procure o ID de chat no módulo do Telegram e defina-o como ID do chat. 3. Para o texto, pegue o valor gerado pelo módulo do OpenAI sob `content`. 4. Clique em `OK`. ### 5. Testando o Bot 1. Repita a operação acima, e agora o bot estará aberto para receber uma mensagem do Telegram. 2. Mande outra mensagem do Telegram, como `dê-me um piado de pai`. 3. Receberá uma resposta do chatbot. Se tudo tiver sido bem sucedido, a resposta aparecerá no Telegram. ## Features Adicionais 1. Se quiser executar o bot de forma contínua, atribua a `agendamento` por `on`. 2. Podes adicionar qualquer bot desejado, seja para fins comerciais ou uma simples conversa. 3. Combine este método com plataformas como Flow Wise ou Tecnologias cadeia Linguagem para chatbots mais poderosos. 