Umjetna neinteligencija na djelu.
Googleov AI Overview tvrdi da se u Indiji srušio -
- poruka: 23
- |
- čitano: 3.853
- |
- moderatori:
vincimus
- +/- sve poruke
- ravni prikaz
- starije poruke gore
Platili im...
zaključio da je u nesreći u Indiji strada Airbus…
Zna san ja da nije strada Airbus.
Ma nije valjda. Ja sam mislio da je LLM rješenje svih naših problema.
Nakon te pogrešne informacije napišeš mu da to nije točno, jer se srušio Boing, malo će pričekati, ispričati se i reći vam da ste u pravu, da srušio se Boing bla..bla..
Tako sam dosta davno pitao gdje je rođen Ćiro Blažević, odgovor je bio u Zagrebu. Nakon moje intervencije da je rođen u Travniku dogodilo se da se je ispričao, promijenio podatak i zapamtio ga.
Ako su ljudi idioti, stalno griješe, ispravljaju pogreške, ako se u znanosti svako malo nešto mijenja, ono što je bilo znanstveni dokaz, više ne bude, što očekujete od umjetne inteligencije.
Ne znam u čemu je tako veliki problem ?!
Svaki AI bi u Potjeri pobijedio 80 % natjecatelja, ako ne i više.
Nakon te pogrešne informacije napišeš mu da to nije točno, jer se srušio Boing, malo će pričekati, ispričati se i reći vam da ste u pravu, da srušio se Boing bla..bla..
Tako sam dosta davno pitao gdje je rođen Ćiro Blažević, odgovor je bio u Zagrebu. Nakon moje intervencije da je rođen u Travniku dogodilo se da se je ispričao, promijenio podatak i zapamtio ga.
Ako su ljudi idioti, stalno griješe, ispravljaju pogreške, ako se u znanosti svako malo nešto mijenja, ono što je bilo znanstveni dokaz, više ne bude, što očekujete od umjetne inteligencije.
Ne znam u čemu je tako veliki problem ?!
Svaki AI bi u Potjeri pobijedio 80 % natjecatelja, ako ne i više.
Teoretski točno, no što ako netko ne zna koji je točan odgovor nekog upita? Kako će ga korisnik ispraviti? Misliš da svi korisnici znaju odgovor na svoje pitanje i samo provjeravaju odgovara li AI točno ili netočno?
Mislim da AI nije ni postavljen kao dokazano točan softver za informacije, već ga većinom zovu AI asisstant , kao pomoćnik.
Ni google ne garantira da su sve inf. koje tražimo točne 100%.
Kada AI bude 100% točan izvor informacija, (ako ikad, jer kažem nije ni čovjek uvijek točan) vjerojatno će ga se koristiti i na fakultetima kao pouzdan izvor informacija za studente.
Sve je to u razvoju, gdje mu je kraj ne zna nitko, a ni AI.
Ako se sjećaš kako je google translate prevodio engleski jezik npr. 2005, (bilo je cirkuski smiješno) a kako danas .
Ne samo engleski, španjolski, talijanski, kineski jezik čak fino prevede, ne uvijek gramatički i pravopisno točno, no možeš sve razumjeti očemu se radi.
Najgore mi prevede slovenski, jer se nitko od nas nije potrudio ispravljati pogreške na slovenskom jeziku u opcijama translatora.
Sve stoji, ali računaj da svi digitalni asistenti bazirani na AI nude odgovore koji su "točni". A svakodnevno se AI gura u sva područja gdje se može upogoniti.
Dodao sam riječ Asisstant dok si pisao poruku.
I ti si nesvjesno napisao "asistent" .
AI je "pomoćnik, pomagač",a ne profesor.
AI lupetanje u stilu Max po diviziji.
Nakon te pogrešne informacije napišeš mu da to nije točno, jer se srušio Boing, malo će pričekati, ispričati se i reći vam da ste u pravu, da srušio se Boing bla..bla..
Tako sam dosta davno pitao gdje je rođen Ćiro Blažević, odgovor je bio u Zagrebu. Nakon moje intervencije da je rođen u Travniku dogodilo se da se je ispričao, promijenio podatak i zapamtio ga.
Jebate, sad se i u to razumiješ.
Očisti cache, odnosno chat history, pa ćeš vidjeti da nije ništa "zapamtio" sve dok ne dobije update.
Ovakve gluposti ne bi izjavio ni Gordan Grlić-Radman.
Tako sam dosta davno pitao gdje je rođen Ćiro Blažević, odgovor je bio u Zagrebu. Nakon moje intervencije da je rođen u Travniku dogodilo se da se je ispričao, promijenio podatak i zapamtio ga.
LLM-ovi ne pamte.
Nakon te pogrešne informacije napišeš mu da to nije točno, jer se srušio Boing, malo će pričekati, ispričati se i reći vam da ste u pravu, da srušio se Boing bla..bla..
Tako sam dosta davno pitao gdje je rođen Ćiro Blažević, odgovor je bio u Zagrebu. Nakon moje intervencije da je rođen u Travniku dogodilo se da se je ispričao, promijenio podatak i zapamtio ga.
Ako su ljudi idioti, stalno griješe, ispravljaju pogreške, ako se u znanosti svako malo nešto mijenja, ono što je bilo znanstveni dokaz, više ne bude, što očekujete od umjetne inteligencije.
Ne znam u čemu je tako veliki problem ?!
Svaki AI bi u Potjeri pobijedio 80 % natjecatelja, ako ne i više.
netočno.
jer bi tim principom mogao i ovo napraviti; pitaš ga koliko je 2+2, on kaže 4, ti kažeš to nije točno nego je 5, on se ispriča i zapamti to, i onda sljedećem koji ga to pita kaže 5.
generatori teksta (kao fol ai) ne rade tako kako ti misliš.
Ako nije zapamtio, onda je imao točan podatak u "malom mozgu", podsvijesti, pa se ispravio
Kako drukčije objasniti da je nakon drugog upita i moje ispravke točno rekao gdje je rođen ?
Objasnite mi kako funkcionira, a ne biti cinici.
Informacije koje mu pises sprema u svoju bazu i koristi kao dio konteksta u sljedecim upitima. Kod ljudi bi to bilo kao da ti netko da salabahter i kad trebas neki odgovor citas s njega, nisi ga trajno strpao u svoju memoriju.
I ta memorija radi samo na tvom accountu, ne dijeli se sa drugima.
E sad, iako AI ne trenira svoj model s tim tvojim podacima i ne sprema ih trajno, iz tvoje perspektive mozes reci da pamti.
Eto, može biti i pametan odgovor.
Ovo "AI responses may include mistakes" treba dobro podebljati/naglasiti i staviti gore a ne na dno (gdje se ni ne vidi dok ne klikneš "Show more") jer masa ljudi uzima te informacije zdravo za gotovo unatoč tomu što su greške i halucinacije vrlo česte u odgovorima.
Eto, može biti i pametan odgovor.
Dodatno sada kad "ne zna" odgovor, koristi tražilicu da izvuće podatak s interneta. Sad ako ideš na čisti session potražiti gdje je rođen Ćiro, izvući će tu informaciju s Wikipedie.
Meni je bilo drago, odn. digao mi je ego kada mi je odgovorio da je pogriješio, da sam ja u pravu.
Loše trenirani modeli.
ML/AI kako je rekao jedan profesor s oxfordske Matematike već je 100 godina među nama, kada je držao predavanje na Matematičko Odsjeku, zagrebačkog PMF-a.
Samo nitko ne želi gledati, kaj je ispod haube. Loše se treniraju modeli. I to ne može svatko. Ne možeš završiti tečaj preko vauchera, te biti ML stručnjak.
Zato se ogorčeni i razočarani nesuđeni IT specijalisti, okreću popularnoj kermaci (-postavljanje pločica).
Došli smo u post-truth vrijeme,
AI weights se trguje kao i svaka druga roba. Istina je ono što highest bidder kaže da je istina.
tocno to. barem ne na klasican nacin - informacija=memorija.
svaki novi prompt generira novi rezultat, u ovisnosti o pogodjenosti pojmova i tokena koristenih prilikom treniranja,.manje ili vise slican prethodnom, nikad identican, sto bi bila osnovna pretpostavka.
nakon x iteracija istog prompta pocimaju besmislice, koje vise nemaju veze s vezom.
sve dok neki model ne bude imao mogucnost real time "ucenja uz rad", sve je to tanko.
image modeli su jako napredovali od onih prvih, danasnji modeli imaju po 20+ gb (10 puta vise), skoro ljudsko razumjevanje obicnih rijeci u promptu, relativno dobar osjecaj za prostor i redosljed, ali i dalje nisu sposobni za neke najjednostavnije stvari.
zelim generirati sliku vaze, mogu dobiti, uz iznimno detaljan opis, sliku savrsene vaze, ali ne mogu dobiti istu vazu svaki put - nema opcije ni mogucnosti da model to zapamti kao "antikna vaza koju ja zelim koristiti", i da uvijek generira identicnu, posebice kad je smijestas u razlicite kontekste, sto je siri kontekst, manje su sanse da model generira bas takvu vazu kao prvi put, cak i ako koristis identicni prompt.
tako da, ova situacija ne mora biti nuzno posljedica loseg treniranja modela, vec jednostavno rezultat modus operandija - garbage in, garbage out.
da je model izbacio 100 iteracija odgovora, omjer bi bio podjednak - pao airbus, pao boeing, pali airbus i boeing, airbus i boeing gledali dok nesto pada....
jer jos uvijek je na korisniku zadnja, da odabere tocan ili zeljeni rezultat, a kako nema mogucnosti da modelu kaze da je iteracija 76 ne samo jedna od mogucnosti, vec jedina tocna, i da svaki put za taj upit koristi samo taj odgovor, sve je to daleko od neke sire upotrebe
