Pełna grubość. Podejrzewam, że gość w trakcie wypowiedzi myśli 10x tyle - skoro przeciętny człowiek 3 do 5 razy Chłop pracujący przy produkcie zachwala swój produkt, niespotykane.Spoiler Rewolucja przemysłowa oraz jej konsekwencje okazały się katastrofą dla rodzaju ludzkiego.
To ja teraz pokażę swoją analogię bo poczułem się wywołany do tablicy. AI to temat mi bardzo bliski, zwłaszcza - po moich przeżyciach których tutaj nie przytoczę, ale zrozumiałem co to jest, jakie to ma korzyści i jakie to jest niebezpieczne jak ktoś nie zrozumie tematu do końća.
Spoiler Wyobraźcie sobie, że budujemy model AI od zera. Na początku dajemy mu słowo "KOT". Pusty model nie ma pojęcia, co to jest. To dla niego tylko zbiór liter. Teraz zaczynamy go uczyć, pokazując mu miliardy tekstów z internetu. Model zaczyna zauważać, że słowa "KOT" i "PIES" często pojawiają się w podobnych zdaniach (np. "mój...", "...ma sierść", "nakarm..."). Zaczyna więc rozumieć, że te dwa słowa są ze sobą jakoś powiązane. Następnie pokazujemy mu słowa "RYBA" i "PTAK". Model zauważa, że one też pojawiają się w podobnych kontekstach i są powiązane z "kotem" i "psem". Zaczyna więc tworzyć w swojej "głowie" grupę, którą my, ludzie, nazwalibyśmy "zwierzętami". Teraz dodajmy słowa "STÓŁ" i "KRZESŁO". Model widzi, że one pojawiają się w zupełnie innych zdaniach i kontekstach. Umieszcza je więc w innej grupie, daleko od "zwierząt". Po przetworzeniu całego internetu, model nie ma w głowie definicji słów. Zamiast tego, stworzył gigantyczną, wielowymiarową "pajęczynę znaczeń", w której każde słowo (a właściwie jego wektor) jest punktem. Kluczowa zasada jest prosta: model nie wie, czym jest "kot", ale wie, które słowa w tej pajęczynie są blisko, a które daleko od niego. I teraz dzieje się cała magia. Kiedy zadajecie mu pytanie, on nie "myśli" nad odpowiedzią. On robi coś znacznie sprytniejszego: Bierze słowa z Waszego pytania i "łapie" za odpowiednie punkty w swojej pajęczynie. Jeśli "złapie" za "KOTA", to tak, jakby pociągnął za nić w pajęczynie. Razem z "kotem" zaczynają drgać wszystkie najbliższe, powiązane punkty: "pies", "sierść", "mruczeć", "łapy", "zwierzę domowe". Następnie, patrząc na całe Wasze pytanie, model ocenia, które z tych "drgających" punktów są najważniejsze, aby udzielić spójnej odpowiedzi. Na końcu, "nawija" te najbliższe, najbardziej pasujące tokeny (słowa) na "patyk", jeden po drugim, i podaje Wam je na talerzu w formie odpowiedzi.
To teraz biorąc pod uwagę powyższą analizę gdzie widać wyraźnie że AI nie myśli...TO JA KURWAWDUPEKSIĘDZAPR
OBOSZCZAJEGOMAĆ Zapierdalam jak wół, po kilkanaście godzin nad projektami, poprawiając błędy po pożalSieBoziu ZNAFFCAH Phd srtaty taty którzy nie potrafią porządnie prompta napisać i pieprzą głupoty że "model jest źle wytrenowany" a później taki lelumpolelum za przeproszeniem przyjdzie na forum bo coś tam gdzieś tam pracował i nie wiadomo tak naprawde co robił, zacznie pierdolić głupoty ze AI myśli, (gdzie jeszcze 3 lata temu mówiło się głośno o efekcie elizy) itd itp i wszyscy mu poklaskują a na konto dostaje grube miliony. Ja powaznie się zastanawiam czy w tym przypadku też nie odpierdolić flow i gadać takie farmazony póki bańka nie pękła - a pęknie...i to tak ze kilka razy orbite okrąży zanim się kapniemy z której strony rynek dostał po pysku...jprdl...sor
ry - ale nie wytrzymałem do końca jak słucham tego "mądrego pana"...