Wróć do bloga
n8n

n8n AI Agents – jak zbudować multi-agent system

Od pojedynczego agenta po system multi-agent. Praktyczny tutorial z architekturą i przykładami.

12 min czytania
n8n, AI, agenci AI, LangChain, RAG, tutorial

Agent AI to nie chatbot, który odpowiada na pytania. To system, który sam decyduje co zrobić, używa narzędzi, sprawdza wyniki i podejmuje kolejne kroki – bez Twojej interwencji. W n8n budujesz go wizualnie, bez pisania kodu. Ten tutorial pokazuje jak.

TL;DR

  • Agent AI w n8n = AI Agent node (LangChain) + LLM + Tools + Memory
  • Agent sam planuje kroki, wywołuje narzędzia (API, bazy, wyszukiwanie) i sprawdza wyniki
  • Multi-agent = kilku agentów specjalizujących się w różnych zadaniach, koordynowanych przez supervisora
  • n8n to jedyna platforma no-code z natywnym wsparciem dla agentów AI na poziomie produkcyjnym

Szukasz szerszego kontekstu? Zacznij od kompletnego poradnika n8n lub Agenci AI w praktyce.


Czym jest agent AI (i czym nie jest)

Agent AI to program, który:

  • Otrzymuje cel (np. „znajdź najtańszy lot do Lizbony na przyszły weekend")
  • Sam planuje kroki do osiągnięcia celu
  • Używa narzędzi (API, bazy danych, wyszukiwanie)
  • Sprawdza wyniki i koryguje plan
  • Zwraca odpowiedź lub wykonuje akcję

Agent AI to NIE jest:

  • Chatbot z gotowymi odpowiedziami
  • Proste „wyślij prompt → dostań tekst"
  • Magiczne rozwiązanie na wszystko

Kluczowa różnica: zwykły workflow LLM to linia prosta (prompt → odpowiedź). Agent to pętla decyzyjna – LLM analizuje sytuację, wybiera narzędzie, sprawdza wynik, decyduje co dalej.


Architektura agenta AI w n8n

Każdy agent w n8n składa się z czterech warstw:

1. Trigger – co uruchamia agenta

  • Chat Trigger – wiadomość od użytkownika (chatbot)
  • Webhook – żądanie HTTP z zewnętrznego systemu
  • Schedule – harmonogram (np. codziennie o 8:00)
  • Inny workflow – sub-workflow wywołany przez agenta-supervisora

2. AI Agent node – mózg

To centralny node, oparty na LangChain. Otrzymuje zadanie i decyduje jakie narzędzia wywołać, w jakiej kolejności, ile razy.

Pod spodem AI Agent node implementuje ReAct pattern (Reasoning + Acting):

  1. Myślenie – LLM analizuje zadanie
  2. Działanie – wywołuje wybrane narzędzie
  3. Obserwacja – analizuje wynik
  4. Powtórzenie – decyduje czy cel osiągnięty, jeśli nie – wraca do kroku 1

3. Sub-nody – LLM, pamięć, narzędzia

Do AI Agent node podłączasz:

LLM (wymagany):

  • OpenAI (GPT-4o, GPT-4 Turbo)
  • Anthropic Claude (Claude 4.5 Sonnet, Opus)
  • Google Gemini
  • Ollama (lokalne modele)
  • Groq, Mistral, Cohere

Memory (opcjonalny):

  • Buffer Memory – zapamiętuje ostatnie N wiadomości
  • Window Memory – okno kontekstu
  • Summary Memory – LLM streszcza dotychczasową rozmowę

Tools (kluczowe):

  • HTTP Request – wywołaj dowolne API
  • Code – napisz własną logikę w JS/Python
  • Calculator – obliczenia matematyczne
  • Wikipedia / Web Search – wyszukiwanie w internecie
  • Vector Store – wyszukiwanie w bazie wiedzy (RAG)
  • Workflow Tool – wywołaj inny workflow jako narzędzie
  • AI Agent Tool – wywołaj innego agenta (multi-agent!)

4. Output – co agent robi z wynikiem

  • Odpowiada użytkownikowi (chat)
  • Wysyła email/Slack
  • Zapisuje do bazy danych
  • Wywołuje kolejny workflow
Tools Agent vs Conversational Agent

n8n oferuje dwa typy agentów. Tools Agent – implementuje tool calling interface (najnowszy, rekomendowany). Conversational Agent – starszy typ, bez natywnego tool calling. Zawsze wybieraj Tools Agent – jest szybszy i dokładniejszy.


Tutorial: prosty agent AI krok po kroku

Zbudujmy agenta, który odpowiada na pytania o pogodę i kalkuluje koszty podróży.

Krok 1: Stwórz workflow

Otwórz n8n → Add workflow → nazwij „Weather Travel Agent".

Krok 2: Dodaj Chat Trigger

Dodaj node Chat Trigger – to punkt wejścia. Użytkownik pisze pytanie w chacie n8n.

Krok 3: Dodaj AI Agent

Dodaj node AI Agent (z pakietu LangChain). Podłącz do Chat Trigger.

W ustawieniach agenta:

  • System prompt: „Jesteś asystentem podróży. Pomagasz z pogodą i kosztami. Odpowiadaj po polsku."

Krok 4: Podłącz LLM

Dodaj sub-node OpenAI Chat Model (lub Claude, Gemini):

  • Model: gpt-4o
  • Temperature: 0.3 (niższa = bardziej precyzyjny)

Krok 5: Dodaj narzędzia

Tool 1 – HTTP Request (pogoda):

  • URL: https://wttr.in/{{city}}?format=j1
  • Opis narzędzia: „Pobiera aktualną prognozę pogody dla podanego miasta"

Tool 2 – Calculator:

  • Dodaj node Calculator jako tool
  • Agent użyje go do obliczeń kosztów

Tool 3 – Code (konwersja walut):

  • Napisz prostą funkcję przeliczającą EUR/PLN
  • Opis: „Przelicza kwotę z EUR na PLN"

Krok 6: Dodaj Memory

Dodaj sub-node Window Buffer Memory – agent pamięta kontekst rozmowy (ostatnie 10 wiadomości).

Krok 7: Testuj

Kliknij Chat w prawym dolnym rogu. Napisz: „Jaka pogoda w Lizbonie? Ile kosztuje lot z Warszawy?"

Agent powinien:

  1. Wywołać HTTP Request z city=Lisbon
  2. Przeanalizować odpowiedź pogodową
  3. Użyć wiedzy o cenach lotów (z kontekstu LLM) lub wyszukiwarki
  4. Odpowiedzieć w naturalnym języku po polsku

RAG – agent z bazą wiedzy

RAG (Retrieval Augmented Generation) to technika, która pozwala agentowi odpowiadać na pytania na podstawie Twoich dokumentów – nie tylko wiedzy ogólnej LLM.

Jak działa RAG w n8n

  1. Załaduj dokumenty – PDF, strony www, pliki tekstowe
  2. Podziel na fragmenty (chunking) – node Text Splitter
  3. Stwórz embeddings – node Embeddings (OpenAI, Cohere)
  4. Zapisz w vector store – Pinecone, Qdrant, Supabase, Chroma
  5. Agent wyszukuje – node Vector Store Tool jako narzędzie agenta
  6. LLM generuje odpowiedź na podstawie znalezionych fragmentów

Kiedy RAG

  • Chatbot odpowiadający na pytania o Twój produkt/usługę
  • Wewnętrzny asystent firmowy (dokumentacja, procedury)
  • Analiza dużych zbiorów dokumentów
  • Support techniczny oparty na bazie wiedzy
Wskazówka

RAG to najlepsza strategia gdy potrzebujesz AI, które „zna" Twoje dane – ale nie chcesz fine-tunować modelu. Zamiast uczyć LLM Twoich danych, podajesz mu relevantne fragmenty przy każdym zapytaniu. Tańsze, szybsze, łatwiejsze do aktualizacji.


Multi-agent – orkiestracja wielu agentów

Pojedynczy agent ma ograniczenia – jeden system prompt, jeden zestaw narzędzi. Gdy zadanie jest złożone, lepiej użyć wielu wyspecjalizowanych agentów.

Architektura Supervisor

┌─────────────┐ │ Supervisor │ │ (Agent) │ └──────┬──────┘ │ ┌────────────┼────────────┐ ▼ ▼ ▼ ┌──────────┐ ┌──────────┐ ┌──────────┐ │ Research │ │ Writer │ │ Reviewer │ │ Agent │ │ Agent │ │ Agent │ └──────────┘ └──────────┘ └──────────┘

Supervisor – agent koordynujący, który rozdziela zadania do wyspecjalizowanych agentów.

Agenci specjalistyczni – każdy ma własny system prompt, narzędzia i cel:

  • Research Agent – wyszukuje informacje w internecie i bazach danych
  • Writer Agent – pisze treści na podstawie researchu
  • Reviewer Agent – sprawdza jakość i sugeruje poprawki

Jak zbudować multi-agent w n8n

  1. Stwórz workflow dla każdego agenta (osobne sub-workflows)
  2. Supervisor workflow używa Workflow Tool lub AI Agent Tool do wywoływania agentów
  3. Supervisor otrzymuje zadanie → deleguje do odpowiedniego agenta → zbiera wyniki → podsumowuje

Przykład: Multi-agent do content creation

  1. Trigger: użytkownik podaje temat artykułu
  2. Supervisor: analizuje temat, planuje kroki
  3. Research Agent: wyszukuje dane w internecie (Web Search tool)
  4. Outline Agent: tworzy strukturę na podstawie researchu
  5. Writer Agent: pisze tekst na podstawie outline'u
  6. Editor Agent: poprawia styl, sprawdza fakty
  7. Output: gotowy artykuł w Notion/Google Docs

Każdy agent to osobny workflow z własnym system promptem i narzędziami. Supervisor koordynuje sekwencję.


Best practices dla agentów AI

1. Jasny system prompt

Im precyzyjniejszy system prompt, tym lepsze wyniki. Definiuj:

  • Rolę agenta („Jesteś analitykiem finansowym")
  • Ograniczenia („Odpowiadaj tylko na podstawie dostarczonych danych")
  • Format wyjścia („Zwracaj wynik jako JSON z polami: summary, confidence, sources")

2. Mniej narzędzi = lepiej

Agent z 3 narzędziami działa lepiej niż agent z 15. LLM łatwiej wybiera z mniejszego zestawu. Jeśli potrzebujesz wielu narzędzi – użyj multi-agent.

3. Opisz narzędzia precyzyjnie

Opis narzędzia to instrukcja dla LLM. Nie pisz: „Pobiera dane". Pisz: „Pobiera aktualną prognozę pogody dla podanego miasta. Parametr: nazwa miasta w języku angielskim. Zwraca: temperaturę (°C), opis pogody, wilgotność."

4. Dodaj Human-in-the-Loop

Dla krytycznych operacji (wysyłanie maili, modyfikacja danych, płatności) dodaj node z zatwierdzeniem człowieka. Agent proponuje akcję → czekasz na approval → dopiero wtedy wykonuje.

Uwaga

Agent AI bez HITL na produkcji to tykająca bomba. Wystarczy jeden hallucinated email do klienta lub błędna modyfikacja zamówienia, żeby stracić zaufanie. Zawsze dodaj zatwierdzenie dla akcji z realnym wpływem.

5. Loguj wszystko

Dodaj node zapisujący: input agenta, wywołane narzędzia, odpowiedzi LLM, finalny output. Gdy coś pójdzie źle – masz pełen trail do debugowania.

6. Ustaw limity

  • Max iterations – ile razy agent może wywołać narzędzie (domyślnie 10, ustaw 5-15)
  • Timeout – max czas wykonania
  • Token budget – kontrola kosztów LLM

Koszty agentów AI

Agenci wywołują LLM wielokrotnie w jednej sesji. Koszty mogą rosnąć szybko.

ScenariuszWywołania LLMKoszt ~(GPT-4o)
Proste pytanie (1 tool)2-3$0,01-0,03
Średnie zadanie (3 tools)5-8$0,05-0,15
Złożony research (5+ tools)10-20$0,20-0,50
Multi-agent (3 agenty)15-30$0,30-1,00

Jak optymalizować:

  • Używaj tańszych modeli do prostych kroków (GPT-4o-mini, Claude Haiku)
  • Cachuj odpowiedzi powtarzalnych zapytań
  • Ogranicz max iterations
  • Rozważ lokalne modele (Ollama) dla niekrytycznych zadań

FAQ

Czy mogę zbudować agenta AI bez programowania?

Tak – n8n pozwala budować agentów wizualnie, drag-and-drop. Potrzebujesz jedynie konta OpenAI/Anthropic i instancji n8n. Ale rozumienie fundamentów (LLM, prompting, API) bardzo pomaga.

Agent AI vs workflow – kiedy co?

Workflow gdy znasz dokładnie kroki (A → B → C). Agent gdy kroki zależą od kontekstu i danych – agent sam decyduje co zrobić na podstawie sytuacji.

Jaki model LLM do agentów?

GPT-4o lub Claude 4.5 Sonnet – najlepsze do tool calling. Do prostszych agentów wystarczy GPT-4o-mini. Lokalne modele (Llama 3.3) działają, ale tool calling jest mniej niezawodny.

Czy n8n jest jedyną platformą do agentów?

Nie – alternatywy to LangGraph (kod Python), CrewAI, AutoGen. Ale n8n jest jedyną platformą no-code z natywnym wsparciem agentów na poziomie produkcyjnym.


Podsumowanie

Agenci AI w n8n to nie przyszłość – to teraźniejszość. Fraza „n8n AI agent" eksploduje w Google Trends, a polskiego contentu niemal nie ma.

Twoje następne kroki:

  1. Zainstaluj n8nporadnik instalacji
  2. Zbuduj prostego agenta – Chat Trigger + AI Agent + 2 tools + Memory
  3. Dodaj RAG – załaduj swoje dokumenty do vector store
  4. Skaluj do multi-agent – wydziel specjalistów do osobnych sub-workflows
  5. Produkcja – dodaj HITL, logi, limity i monitoring

Jeśli chcesz podłączyć LLM do workflow bez pełnego agenta, zacznij od n8n + OpenAI – integracja LLM. Szerszy kontekst o agentach AI (nie tylko n8n): Agenci AI w praktyce.