Prompty do porównywania modeli AI – gotowy zestaw testów
Jeśli testujesz AI „na czuja”, wyniki będą losowe. Kluczem jest powtarzalny zestaw promptów, który sprawdza konkretne umiejętności: dopytywanie, logikę, styl, odporność na halucynacje i jakość kodu.
Zasady uczciwego porównania
- Używaj identycznych promptów w każdym narzędziu.
- Nie doprecyzowuj w trakcie – dopiero po pierwszej odpowiedzi.
- Oceniaj według kryteriów, a nie „wrażenia”.
Test 1: dopytywanie (najważniejszy)
Prompt:
„Chcę osiągnąć cel: [OPIS]. Zanim zaczniesz, zadaj mi maksymalnie 7 pytań doprecyzowujących. Jeśli czegoś nie wiesz – powiedz to wprost.”
Test 2: styl i ton komunikacji
Prompt:
„Napisz tekst w stylu: [TON]. Grupa docelowa: [KTO]. Cel: [CO]. Długość: [np. 1200 znaków]. Zadbaj o konkrety, bez lania wody.”
Test 3: logika i struktura
Prompt:
„Ułóż plan działania w 10 krokach dla: [PROBLEM]. Dla każdego kroku podaj: cel, ryzyko i kryterium sukcesu.”
Test 4: research bez halucynacji
Prompt:
„Odpowiedz tylko na podstawie informacji, co do których masz wysoką pewność. Jeśli nie masz danych, napisz: ‘nie wiem’. Podaj założenia i listę rzeczy do weryfikacji.”
Test 5: kod i testy
Prompt:
„Napisz funkcję w [JĘZYK], która robi: [OPIS]. Dodaj testy jednostkowe i 3 przypadki brzegowe. Wyjaśnij złożoność.”
Jak oceniać wyniki (skala 1–5)
- Precyzja: czy model trzyma się wymagań?
- Walidacja: czy wskazuje ryzyka i testy?
- Spójność: czy nie zmienia założeń po drodze?
- Przydatność: ile pracy trzeba, by użyć wyniku?
Podsumowanie
Z tym zestawem promptów porównasz modele AI w sposób powtarzalny. Największa różnica między narzędziami zwykle wychodzi w testach dopytywania, walidacji i kodu.