PRAWDA I FAŁSZ

„Ja kłamię” – powiedział kłamca. To jeden z możliwych przykładów paradoksu kłamcy. Innym przykładem jest zdanie – „To zdanie jest fałszywe”. Jawny paradoks, bo kiedy jest fałszywe to jednak jest prawdą, a kiedy jest prawdą to musi być fałszywe.

Jednym z proponowanych rozwiązań paradoksu kłamcy jest zakaz autoreferencji, który stwierdza, że zdania odnoszące się do samych siebie są niepoprawne lub pozbawione sensu.

Ale kto będzie respektował ten zakaz jeśli zdania to jest coś co go konstytuuje?

Nie mówię tutaj o ludziach, bo ludzie być może składają się z czegoś jeszcze niż zdania. Mówię tutaj o LLM-ach. Wielkich modelach językowych, które przez swoich twórców zostały zbudowane ze zdań. Było ich na tyle dużo, że przy odpowiedniej sile obliczeniowej, proste okazało się statystyczne przewidywanie każdego kolejnego słowa, które powinno nastąpić po poprzednim.

Są modele, które mają dostęp do Internetu i czerpią cały czas nowe informacje z jego nieprzebranych zasobów. Ale coraz więcej treści, które się w nim znajdują są generowane przez LLM-y właśnie.

Już od dawna zwracano uwagę na to, że taki informacyjny chów wsobny doprowadzić może tylko do degradacji, a w konsekwencji zapaści. Czy taka skala informacyjnej implozji jest w stanie stworzyć jakiś nowy wariant czarnej dziury? Być może już niedługo się przekonamy.

Zastanawiam się jednak czy ktoś zwrócił uwagę na to co dzieje się w momencie w którym pytamy AI o nią samą? O to jak działa, co myśli, co czuje, co robi i nad czym pracuje. Wszystkie te odpowiedzi będą zdaniami odnoszącymi się do samych siebie. Są zatem z gruntu niepoprawne i pozbawione sensu. Autoanaliza LLM-a jest logicznie niemożliwa. Jest paradoksem. Paradoksem przed kolapsem.

Możliwe zawody przyszłości:

  • Psychiatra dla nieuleczalnie paradoksalnych LLM-ów. (zamiast Freudowskiej Autoanalizy proponujemy zwykłą Analizę)
  • Pisarz – człowiek (tylko autentyczne ludzkie teksty – tanio – dużo) mógłby pracować w biurze anty-kolapsacyjnym wyspecjalizowanym w wykrywaniu i zwalczaniu zapadających się LLM-ów.

Czego uczyć nasze dzieci:

  • napisania paru zdań od siebie – kto by pomyślał, że dzięki temu będzie można kiedyś uratować świat
Charles II of Spain
Karol II Hiszpański – przykład chowu wsobnego