Połączenie n8n z OpenAI to punkt, w którym automatyzacja staje się inteligentna. Zamiast „pobierz dane i wyślij email" masz „pobierz dane, zrozum je, napisz spersonalizowaną odpowiedź i wyślij email". Ten tutorial pokazuje jak to zrobić – od najprostszego prompta po zaawansowane chaining i structured output.
TL;DR
- n8n ma natywny node OpenAI – podłączasz API key i działasz
- Obsługuje: GPT-4o, GPT-4 Turbo, GPT-4o-mini, Whisper (transkrypcja), DALL-E (obrazy)
- Structured output – wymuś format JSON na odpowiedzi LLM
- Chaining – kilka wywołań LLM po sobie (analiza → podsumowanie → akcja)
- Koszt: od $0,01 za proste zapytanie do $0,50 za złożone chain
Jeśli chcesz budować autonomicznych agentów AI (nie tylko pojedyncze zapytania), przeczytaj n8n AI Agents. Szerszy kontekst: kompletny poradnik n8n.
Konfiguracja: n8n + OpenAI API
Krok 1: Klucz API
- Wejdź na platform.openai.com
- Stwórz API key
- Doładuj konto (minimum $5 na start)
Krok 2: Credentials w n8n
- W n8n otwórz Settings → Credentials
- Dodaj OpenAI API credential
- Wklej API key
- Zapisz
Gotowe – teraz możesz używać node'a OpenAI w dowolnym workflow.
Ustaw usage limits na koncie OpenAI (np. $20/mies na start). To zabezpieczenie przed niespodziewanym rachunkiem – szczególnie gdy testujesz i workflow uruchamia się w pętli.
Node OpenAI – co potrafi
n8n oferuje kilka sposobów użycia OpenAI:
1. OpenAI Chat Model (w AI Agent)
Używasz go jako LLM w AI Agent node – agent wywołuje model do podejmowania decyzji. To najczęstszy scenariusz.
2. OpenAI node (standalone)
Bezpośrednie wywołanie API – wysyłasz prompt, dostajesz odpowiedź. Opcje:
- Message a Model – GPT-4o, GPT-4 Turbo, GPT-4o-mini
- Generate an Image – DALL-E 3
- Transcribe a Recording – Whisper
- Translate a Recording – Whisper z tłumaczeniem
3. HTTP Request (pełna kontrola)
Gdy potrzebujesz parametrów niedostępnych w natywnym node'ie – wywołujesz OpenAI API bezpośrednio przez HTTP Request.
5 praktycznych zastosowań
1. Klasyfikacja emaili
Workflow: Gmail Trigger → OpenAI (klasyfikacja) → Switch → akcja per kategoria
System prompt:
"Klasyfikuj email do jednej z kategorii: PILNE, SPRZEDAŻ, SUPPORT, SPAM, INNE.
Odpowiedz jednym słowem – nazwą kategorii."
OpenAI czyta treść emaila i zwraca kategorię. Switch routuje do odpowiedniej ścieżki – pilne idą na Slacka, support do Jiry, spam do kosza.
2. Generowanie opisów produktów
Workflow: Google Sheets (lista produktów) → OpenAI (generuj opis) → Google Sheets (zapisz opis)
System prompt:
"Napisz krótki opis produktu (max 150 słów) po polsku. Ton: profesjonalny,
konkretny. Skup się na korzyściach, nie cechach."
User prompt:
"Produkt: {{ $json.nazwa }}. Cechy: {{ $json.cechy }}. Cena: {{ $json.cena }} PLN."
Przetwarzasz 100 produktów w jednym uruchomieniu – batch processing.
3. Podsumowanie spotkań
Workflow: Webhook (transkrypcja z Otter/Whisper) → OpenAI (podsumowanie) → Slack + Notion
System prompt:
"Podsumuj transkrypcję spotkania. Zwróć JSON z polami:
- summary (max 200 słów)
- action_items (lista zadań z odpowiedzialnymi osobami)
- decisions (lista podjętych decyzji)
- next_meeting (data jeśli ustalono)"
4. Analiza sentymentu opinii
Workflow: Airtable (opinie klientów) → OpenAI (analiza) → Airtable (wynik)
System prompt:
"Przeanalizuj opinię klienta. Zwróć JSON:
- sentiment: positive/neutral/negative
- score: 1-10
- key_issues: [lista problemów]
- suggested_action: tekst"
5. Transkrypcja audio (Whisper)
Workflow: Webhook (plik audio) → OpenAI Whisper → Google Docs
Node OpenAI z operacją „Transcribe a Recording" przyjmuje plik audio i zwraca tekst. Whisper obsługuje polski.
Structured output – wymuszanie formatu JSON
Największy problem z LLM: odpowiedzi bywają nieprzewidywalne. Structured output rozwiązuje to.
Metoda 1: JSON mode
W node OpenAI ustaw Response Format: JSON. Dodaj w system prompt:
Zawsze odpowiadaj w formacie JSON. Struktura:
{
"category": "string",
"confidence": "number 0-1",
"explanation": "string"
}
Metoda 2: Function calling
Zdefiniuj schema jako function – OpenAI zwróci wynik zgodny ze schematem. To najbardziej niezawodna metoda.
Używaj structured output zawsze gdy wynik OpenAI trafia do dalszego przetwarzania (IF, Switch, zapis do bazy). Bez tego parsowanie odpowiedzi tekstowej to loteria.
Chaining – łańcuch wywołań LLM
Jedno wywołanie LLM rzadko wystarczy do złożonych zadań. Chaining to sekwencja:
Input → LLM #1 (analiza) → LLM #2 (plan) → LLM #3 (wykonanie) → Output
Przykład: generator artykułów
- LLM #1: „Przeanalizuj ten temat i zaproponuj 5 kluczowych punktów"
- LLM #2: „Na podstawie tych punktów napisz outline z H2/H3"
- LLM #3: „Na podstawie outline napisz pełny artykuł"
- LLM #4: „Sprawdź artykuł pod kątem błędów i zaproponuj poprawki"
Każdy krok to osobny node OpenAI z dedykowanym system promptem. Wynik jednego trafia jako input do następnego.
Optymalizacja kosztów chainingu
- Kroki analityczne (klasyfikacja, ekstrakcja): GPT-4o-mini ($0,15/1M tokenów)
- Kroki generatywne (pisanie, tłumaczenie): GPT-4o ($2,50/1M tokenów)
- Kroki krytyczne (decyzje biznesowe): GPT-4 Turbo lub Claude Opus
Mieszanie modeli w jednym workflow to standard – nie wszystkie kroki wymagają najdroższego modelu.
Alternatywy: Claude, Gemini, Ollama
OpenAI to nie jedyna opcja. n8n obsługuje:
| Model | Kiedy wybrać |
|---|---|
| OpenAI GPT-4o | Uniwersalny, najlepszy do tool calling |
| Claude 4.5 Sonnet | Długi kontekst (200K), analiza dokumentów |
| Gemini 2.0 | Multimodal (tekst + obraz + audio) |
| Ollama (lokalne) | Prywatność, brak kosztów API, offline |
| GPT-4o-mini | Tanie zadania batch (klasyfikacja, ekstrakcja) |
Więcej o alternatywach: Agenci AI w praktyce – od teorii do wdrożenia.
FAQ
Ile kosztuje OpenAI w n8n?
Zależy od modelu i ilości tokenów. GPT-4o: ~$2,50/1M tokenów input, $10/1M output. Prosty workflow (100 emaili dziennie): ~$3-5/mies. Złożony (1000 dokumentów): ~$30-50/mies.
Czy mogę używać OpenAI za darmo?
Nie – API wymaga płatnego konta. Ale GPT-4o-mini jest bardzo tani ($0,15/1M tokenów). Alternatywa: Ollama z lokalnymi modelami – $0.
Jaki model wybrać na start?
GPT-4o-mini do testów i prostych zadań. GPT-4o do produkcji. Claude Sonnet gdy potrzebujesz długiego kontekstu.
Czy dane z n8n trafiają do OpenAI?
Tak – API wysyła dane do OpenAI. Jeśli to problem (RODO, dane wrażliwe), użyj Ollama z lokalnymi modelami na swoim serwerze.
Podsumowanie
n8n + OpenAI to fundament inteligentnych automatyzacji. Zacznij od prostego – klasyfikacja emaili lub generowanie opisów. Potem dodawaj chaining, structured output i batch processing.
Następne kroki:
- Skonfiguruj credentials OpenAI w n8n
- Zbuduj pierwszy workflow z jednym node'em OpenAI
- Dodaj structured output (JSON mode)
- Spróbuj chaining (2-3 wywołania LLM w sekwencji)
- Gdy potrzebujesz autonomii – przejdź na agentów AI
