Prompty do porównywania modeli AI – gotowy zestaw testów

Jeśli testujesz AI „na czuja”, wyniki będą losowe. Kluczem jest powtarzalny zestaw promptów, który sprawdza konkretne umiejętności: dopytywanie, logikę, styl, odporność na halucynacje i jakość kodu.

Zasady uczciwego porównania

Test 1: dopytywanie (najważniejszy)

Prompt:

„Chcę osiągnąć cel: [OPIS]. Zanim zaczniesz, zadaj mi maksymalnie 7 pytań doprecyzowujących. Jeśli czegoś nie wiesz – powiedz to wprost.”

Test 2: styl i ton komunikacji

Prompt:

„Napisz tekst w stylu: [TON]. Grupa docelowa: [KTO]. Cel: [CO]. Długość: [np. 1200 znaków]. Zadbaj o konkrety, bez lania wody.”

Test 3: logika i struktura

Prompt:

„Ułóż plan działania w 10 krokach dla: [PROBLEM]. Dla każdego kroku podaj: cel, ryzyko i kryterium sukcesu.”

Test 4: research bez halucynacji

Prompt:

„Odpowiedz tylko na podstawie informacji, co do których masz wysoką pewność. Jeśli nie masz danych, napisz: ‘nie wiem’. Podaj założenia i listę rzeczy do weryfikacji.”

Test 5: kod i testy

Prompt:

„Napisz funkcję w [JĘZYK], która robi: [OPIS]. Dodaj testy jednostkowe i 3 przypadki brzegowe. Wyjaśnij złożoność.”

Jak oceniać wyniki (skala 1–5)

Podsumowanie

Z tym zestawem promptów porównasz modele AI w sposób powtarzalny. Największa różnica między narzędziami zwykle wychodzi w testach dopytywania, walidacji i kodu.