Agent AI to nie chatbot, który odpowiada na pytania. To system, który sam decyduje co zrobić, używa narzędzi, sprawdza wyniki i podejmuje kolejne kroki – bez Twojej interwencji. W n8n budujesz go wizualnie, bez pisania kodu. Ten tutorial pokazuje jak.
TL;DR
- Agent AI w n8n = AI Agent node (LangChain) + LLM + Tools + Memory
- Agent sam planuje kroki, wywołuje narzędzia (API, bazy, wyszukiwanie) i sprawdza wyniki
- Multi-agent = kilku agentów specjalizujących się w różnych zadaniach, koordynowanych przez supervisora
- n8n to jedyna platforma no-code z natywnym wsparciem dla agentów AI na poziomie produkcyjnym
Szukasz szerszego kontekstu? Zacznij od kompletnego poradnika n8n lub Agenci AI w praktyce.
Czym jest agent AI (i czym nie jest)
Agent AI to program, który:
- Otrzymuje cel (np. „znajdź najtańszy lot do Lizbony na przyszły weekend")
- Sam planuje kroki do osiągnięcia celu
- Używa narzędzi (API, bazy danych, wyszukiwanie)
- Sprawdza wyniki i koryguje plan
- Zwraca odpowiedź lub wykonuje akcję
Agent AI to NIE jest:
- Chatbot z gotowymi odpowiedziami
- Proste „wyślij prompt → dostań tekst"
- Magiczne rozwiązanie na wszystko
Kluczowa różnica: zwykły workflow LLM to linia prosta (prompt → odpowiedź). Agent to pętla decyzyjna – LLM analizuje sytuację, wybiera narzędzie, sprawdza wynik, decyduje co dalej.
Architektura agenta AI w n8n
Każdy agent w n8n składa się z czterech warstw:
1. Trigger – co uruchamia agenta
- Chat Trigger – wiadomość od użytkownika (chatbot)
- Webhook – żądanie HTTP z zewnętrznego systemu
- Schedule – harmonogram (np. codziennie o 8:00)
- Inny workflow – sub-workflow wywołany przez agenta-supervisora
2. AI Agent node – mózg
To centralny node, oparty na LangChain. Otrzymuje zadanie i decyduje jakie narzędzia wywołać, w jakiej kolejności, ile razy.
Pod spodem AI Agent node implementuje ReAct pattern (Reasoning + Acting):
- Myślenie – LLM analizuje zadanie
- Działanie – wywołuje wybrane narzędzie
- Obserwacja – analizuje wynik
- Powtórzenie – decyduje czy cel osiągnięty, jeśli nie – wraca do kroku 1
3. Sub-nody – LLM, pamięć, narzędzia
Do AI Agent node podłączasz:
LLM (wymagany):
- OpenAI (GPT-4o, GPT-4 Turbo)
- Anthropic Claude (Claude 4.5 Sonnet, Opus)
- Google Gemini
- Ollama (lokalne modele)
- Groq, Mistral, Cohere
Memory (opcjonalny):
- Buffer Memory – zapamiętuje ostatnie N wiadomości
- Window Memory – okno kontekstu
- Summary Memory – LLM streszcza dotychczasową rozmowę
Tools (kluczowe):
- HTTP Request – wywołaj dowolne API
- Code – napisz własną logikę w JS/Python
- Calculator – obliczenia matematyczne
- Wikipedia / Web Search – wyszukiwanie w internecie
- Vector Store – wyszukiwanie w bazie wiedzy (RAG)
- Workflow Tool – wywołaj inny workflow jako narzędzie
- AI Agent Tool – wywołaj innego agenta (multi-agent!)
4. Output – co agent robi z wynikiem
- Odpowiada użytkownikowi (chat)
- Wysyła email/Slack
- Zapisuje do bazy danych
- Wywołuje kolejny workflow
n8n oferuje dwa typy agentów. Tools Agent – implementuje tool calling interface (najnowszy, rekomendowany). Conversational Agent – starszy typ, bez natywnego tool calling. Zawsze wybieraj Tools Agent – jest szybszy i dokładniejszy.
Tutorial: prosty agent AI krok po kroku
Zbudujmy agenta, który odpowiada na pytania o pogodę i kalkuluje koszty podróży.
Krok 1: Stwórz workflow
Otwórz n8n → Add workflow → nazwij „Weather Travel Agent".
Krok 2: Dodaj Chat Trigger
Dodaj node Chat Trigger – to punkt wejścia. Użytkownik pisze pytanie w chacie n8n.
Krok 3: Dodaj AI Agent
Dodaj node AI Agent (z pakietu LangChain). Podłącz do Chat Trigger.
W ustawieniach agenta:
- System prompt: „Jesteś asystentem podróży. Pomagasz z pogodą i kosztami. Odpowiadaj po polsku."
Krok 4: Podłącz LLM
Dodaj sub-node OpenAI Chat Model (lub Claude, Gemini):
- Model:
gpt-4o - Temperature:
0.3(niższa = bardziej precyzyjny)
Krok 5: Dodaj narzędzia
Tool 1 – HTTP Request (pogoda):
- URL:
https://wttr.in/{{city}}?format=j1 - Opis narzędzia: „Pobiera aktualną prognozę pogody dla podanego miasta"
Tool 2 – Calculator:
- Dodaj node Calculator jako tool
- Agent użyje go do obliczeń kosztów
Tool 3 – Code (konwersja walut):
- Napisz prostą funkcję przeliczającą EUR/PLN
- Opis: „Przelicza kwotę z EUR na PLN"
Krok 6: Dodaj Memory
Dodaj sub-node Window Buffer Memory – agent pamięta kontekst rozmowy (ostatnie 10 wiadomości).
Krok 7: Testuj
Kliknij Chat w prawym dolnym rogu. Napisz: „Jaka pogoda w Lizbonie? Ile kosztuje lot z Warszawy?"
Agent powinien:
- Wywołać HTTP Request z
city=Lisbon - Przeanalizować odpowiedź pogodową
- Użyć wiedzy o cenach lotów (z kontekstu LLM) lub wyszukiwarki
- Odpowiedzieć w naturalnym języku po polsku
RAG – agent z bazą wiedzy
RAG (Retrieval Augmented Generation) to technika, która pozwala agentowi odpowiadać na pytania na podstawie Twoich dokumentów – nie tylko wiedzy ogólnej LLM.
Jak działa RAG w n8n
- Załaduj dokumenty – PDF, strony www, pliki tekstowe
- Podziel na fragmenty (chunking) – node Text Splitter
- Stwórz embeddings – node Embeddings (OpenAI, Cohere)
- Zapisz w vector store – Pinecone, Qdrant, Supabase, Chroma
- Agent wyszukuje – node Vector Store Tool jako narzędzie agenta
- LLM generuje odpowiedź na podstawie znalezionych fragmentów
Kiedy RAG
- Chatbot odpowiadający na pytania o Twój produkt/usługę
- Wewnętrzny asystent firmowy (dokumentacja, procedury)
- Analiza dużych zbiorów dokumentów
- Support techniczny oparty na bazie wiedzy
RAG to najlepsza strategia gdy potrzebujesz AI, które „zna" Twoje dane – ale nie chcesz fine-tunować modelu. Zamiast uczyć LLM Twoich danych, podajesz mu relevantne fragmenty przy każdym zapytaniu. Tańsze, szybsze, łatwiejsze do aktualizacji.
Multi-agent – orkiestracja wielu agentów
Pojedynczy agent ma ograniczenia – jeden system prompt, jeden zestaw narzędzi. Gdy zadanie jest złożone, lepiej użyć wielu wyspecjalizowanych agentów.
Architektura Supervisor
┌─────────────┐
│ Supervisor │
│ (Agent) │
└──────┬──────┘
│
┌────────────┼────────────┐
▼ ▼ ▼
┌──────────┐ ┌──────────┐ ┌──────────┐
│ Research │ │ Writer │ │ Reviewer │
│ Agent │ │ Agent │ │ Agent │
└──────────┘ └──────────┘ └──────────┘
Supervisor – agent koordynujący, który rozdziela zadania do wyspecjalizowanych agentów.
Agenci specjalistyczni – każdy ma własny system prompt, narzędzia i cel:
- Research Agent – wyszukuje informacje w internecie i bazach danych
- Writer Agent – pisze treści na podstawie researchu
- Reviewer Agent – sprawdza jakość i sugeruje poprawki
Jak zbudować multi-agent w n8n
- Stwórz workflow dla każdego agenta (osobne sub-workflows)
- Supervisor workflow używa Workflow Tool lub AI Agent Tool do wywoływania agentów
- Supervisor otrzymuje zadanie → deleguje do odpowiedniego agenta → zbiera wyniki → podsumowuje
Przykład: Multi-agent do content creation
- Trigger: użytkownik podaje temat artykułu
- Supervisor: analizuje temat, planuje kroki
- Research Agent: wyszukuje dane w internecie (Web Search tool)
- Outline Agent: tworzy strukturę na podstawie researchu
- Writer Agent: pisze tekst na podstawie outline'u
- Editor Agent: poprawia styl, sprawdza fakty
- Output: gotowy artykuł w Notion/Google Docs
Każdy agent to osobny workflow z własnym system promptem i narzędziami. Supervisor koordynuje sekwencję.
Best practices dla agentów AI
1. Jasny system prompt
Im precyzyjniejszy system prompt, tym lepsze wyniki. Definiuj:
- Rolę agenta („Jesteś analitykiem finansowym")
- Ograniczenia („Odpowiadaj tylko na podstawie dostarczonych danych")
- Format wyjścia („Zwracaj wynik jako JSON z polami: summary, confidence, sources")
2. Mniej narzędzi = lepiej
Agent z 3 narzędziami działa lepiej niż agent z 15. LLM łatwiej wybiera z mniejszego zestawu. Jeśli potrzebujesz wielu narzędzi – użyj multi-agent.
3. Opisz narzędzia precyzyjnie
Opis narzędzia to instrukcja dla LLM. Nie pisz: „Pobiera dane". Pisz: „Pobiera aktualną prognozę pogody dla podanego miasta. Parametr: nazwa miasta w języku angielskim. Zwraca: temperaturę (°C), opis pogody, wilgotność."
4. Dodaj Human-in-the-Loop
Dla krytycznych operacji (wysyłanie maili, modyfikacja danych, płatności) dodaj node z zatwierdzeniem człowieka. Agent proponuje akcję → czekasz na approval → dopiero wtedy wykonuje.
Agent AI bez HITL na produkcji to tykająca bomba. Wystarczy jeden hallucinated email do klienta lub błędna modyfikacja zamówienia, żeby stracić zaufanie. Zawsze dodaj zatwierdzenie dla akcji z realnym wpływem.
5. Loguj wszystko
Dodaj node zapisujący: input agenta, wywołane narzędzia, odpowiedzi LLM, finalny output. Gdy coś pójdzie źle – masz pełen trail do debugowania.
6. Ustaw limity
- Max iterations – ile razy agent może wywołać narzędzie (domyślnie 10, ustaw 5-15)
- Timeout – max czas wykonania
- Token budget – kontrola kosztów LLM
Koszty agentów AI
Agenci wywołują LLM wielokrotnie w jednej sesji. Koszty mogą rosnąć szybko.
| Scenariusz | Wywołania LLM | Koszt ~(GPT-4o) |
|---|---|---|
| Proste pytanie (1 tool) | 2-3 | $0,01-0,03 |
| Średnie zadanie (3 tools) | 5-8 | $0,05-0,15 |
| Złożony research (5+ tools) | 10-20 | $0,20-0,50 |
| Multi-agent (3 agenty) | 15-30 | $0,30-1,00 |
Jak optymalizować:
- Używaj tańszych modeli do prostych kroków (GPT-4o-mini, Claude Haiku)
- Cachuj odpowiedzi powtarzalnych zapytań
- Ogranicz max iterations
- Rozważ lokalne modele (Ollama) dla niekrytycznych zadań
FAQ
Czy mogę zbudować agenta AI bez programowania?
Tak – n8n pozwala budować agentów wizualnie, drag-and-drop. Potrzebujesz jedynie konta OpenAI/Anthropic i instancji n8n. Ale rozumienie fundamentów (LLM, prompting, API) bardzo pomaga.
Agent AI vs workflow – kiedy co?
Workflow gdy znasz dokładnie kroki (A → B → C). Agent gdy kroki zależą od kontekstu i danych – agent sam decyduje co zrobić na podstawie sytuacji.
Jaki model LLM do agentów?
GPT-4o lub Claude 4.5 Sonnet – najlepsze do tool calling. Do prostszych agentów wystarczy GPT-4o-mini. Lokalne modele (Llama 3.3) działają, ale tool calling jest mniej niezawodny.
Czy n8n jest jedyną platformą do agentów?
Nie – alternatywy to LangGraph (kod Python), CrewAI, AutoGen. Ale n8n jest jedyną platformą no-code z natywnym wsparciem agentów na poziomie produkcyjnym.
Podsumowanie
Agenci AI w n8n to nie przyszłość – to teraźniejszość. Fraza „n8n AI agent" eksploduje w Google Trends, a polskiego contentu niemal nie ma.
Twoje następne kroki:
- Zainstaluj n8n – poradnik instalacji
- Zbuduj prostego agenta – Chat Trigger + AI Agent + 2 tools + Memory
- Dodaj RAG – załaduj swoje dokumenty do vector store
- Skaluj do multi-agent – wydziel specjalistów do osobnych sub-workflows
- Produkcja – dodaj HITL, logi, limity i monitoring
Jeśli chcesz podłączyć LLM do workflow bez pełnego agenta, zacznij od n8n + OpenAI – integracja LLM. Szerszy kontekst o agentach AI (nie tylko n8n): Agenci AI w praktyce.
