Fazendo dessa forma você responde várias vezes antes da próxima interação do cliente… usando a evolution api não aumenta o risco de banimento? Por ser uma API não oficial da Meta no caso (dúvida sincera de quem tá estudando todo dia esse mundo de n8n kkkk)
2025-07-01 00:00:55
0
testeconta1235 :
Vc tb trabalha com o make?
2025-05-23 02:53:40
1
suavi :
porque que você tem um curso de 37$ que ensina IA completamente ?
2025-06-03 19:15:30
0
campos :
opa, tem o json colega?
2025-07-14 20:43:52
0
arth :
muito foda, mas tem um jeito de fazer isso sem usar uma llm
2025-05-21 03:58:40
1
eufidelisxx :
Qual teu insta
2025-05-21 15:54:15
1
Priscilla :
que foda!
2025-05-21 03:44:20
1
IAutomatique :
Gostei
2025-05-21 13:49:32
2
Sid Ferreira :
boooaaa
2025-05-28 02:07:28
1
Nildei Almeida :
show hein, meu agente tá enviando msg grande 😅
2025-05-21 16:24:03
1
gutoalvesss :
sensacional
2025-05-21 15:36:20
2
Will dos Prompts 🤖 :
muito bom 👏 ótima dica
2025-05-21 04:10:36
0
André Ricardo :
Cara, não sei como funciona no N8N, mas no Make uso uma ferramenta externa como o Zaia por exemplo… coloco no comportamento para ele não ultrapassar 150 carácteres e não passa, sempre respeita.
2025-07-05 18:33:13
0
Janpaulosalvador00 :
Muito bom. Pode compartilhar? Muito obrigado
2025-06-24 04:38:56
0
rusvel.avellar :
Usa barba cheia e deixa o cabelo crescer irmão, vai ficar massa
2025-05-24 07:41:33
1
ChatGM-Inteligencia Artificial :
Não é eficiente, isso quebra e às vezes a chamada para openAI fazer o split da time out.
2025-07-14 01:37:20
0
verzeletticonsultoria :
👏👏👏
2025-05-28 22:24:29
1
ΞΦΛE.pro :
@ΞΦΛE.pro
2025-08-04 16:09:00
0
To see more videos from user @enzonoppeney, please go to the Tikwm
homepage.