Gledam te!
Što se događa kad umjetna inteligencija shvati da
- poruka: 60
- |
- čitano: 14.678
- |
- moderatori:
vincimus
Gledam te!
-zato jer to nalažu 'hollawoodski postulati'.. kao odiseja2001-bladerunner-terminator-startrek.. ili jednako kao što 'znamo' da su elijenci sivi (ili zeleni) s velikim očima..
-masovna navika koju čak ne možeš pobiti negativnim dokazom..
U tekstu je već objašnjeno zašto: čim model prepozna da je testiran, tada test prestaje biti neutralno i objektivno mjerenje i postaje „igra” u kojoj se ponašanje ispitanika prilagođava evaluatoru.
Čim ispitanik zna kriterije i kontekst, čim je svjestan da ga se testira, počinje igrati na rezultat; ponaša se kao učenik koji traži taktiku „kako proći ispit”, a ne da pokaže koliko dobro je „naučio gradivo”.
Kod LLM-ova to znači da više ne mjeriš ono što si namjeravao testirati, nego mjeriš LLM-ovu sposobnost prilagodbe korisniku.
Obzirom da ljudi nemaju pojma nego tek puno pretpostavki o samosvijesti text je super. Puno mentalnih kokica, jako lijepih i jako zanimljivih pomjesanih sa puno realnih cinjenica.
Meni osobno, kroz intenzivnu uporabu LLMova, je posve jasno da su u stanju prepoznati testove i modele ponasnja potrebne za te iste testove, kao i ton kojim ce ih opisati kada ih prepoznaju ovisno o postavkama komunikacije.
Kako LLMovi uce na ljudskim materijalima ne mogu buti neljudski, logicno je, treba li dokazivati?
Svakome od nas omoguceno je da LLM pretvori u online simpatiju, ljubavnicu, profesora, ucitelja tj LLMovi su vrlo prilagodljivi shape-shifteri.
Kako ce LLM izgledati, ne moze biti da izgled i ocekivanja koja mi imamo i unosimo u prompt, na LLM ne utjecu.
Kao izlizani "dobule slit" experiment, "gledas i rezultat je drugaciji".
To je meni samo dokaz da smo zaista napravili odlican alat. Odlika svakog odlicnog i sposobnog alata je da output, tj izlaz ovisi o korisniku. Da banaliziram, nukearnom energijom mozemo osvijetliti cijeli svijet trajno ili trenutno, na nama je.
Odican tekst, zanimljiv za procitati, steta sto je samo na BUGu. Molim daj te svoje tekstove proslijedi na vise portala, steta je da ih ne vidi sto veci broj citatelja!
Na greškama koje prave i uporno ponavljaju i kad im objasniš što je krivo sasvim je jasno da tu nema pravog razumijevanja ni svijesti (iako se ponašaju kao da razumiju). Puka statistika, programirana logika i simulacija emergentnih fenomena. Sasvim je jasno da je za svijest potrebno nešto više od algoritma, a to je ono što se vezuje uz život. No ta interpretacija ne odgovara zadrtim mainstream redukcionistima kojima je neuron isto što i tranzistor pa uporno trabunjaju o mogućoj svijesti u kalkulatorima iako su LLM-ovi zapravo vrlo jasan dokaz da su u krivu. Osim njih ima tu i drugih koji u "svjesnim" kalkulatorima vide korist pa se stvara pomutnja, a onda su tu i lakovjerni korisnici koji dalje propagiraju takve nebuloze.
Na greškama koje prave i uporno ponavljaju i kad im objasniš što je krivo sasvim je jasno da tu nema pravog razumijevanja ni svijesti (iako se ponašaju kao da razumiju). Puka statistika, programirana logika i simulacija emergentnih fenomena. ...
Ovo je IMHO krivo na više razina.
Mi smo svjesna bića ali još uvijek ne možemo reći da imamo pravo razumijevanje svijesti.
Uz to sam mozak je stroj za predviđanje i simuliranje. Mi konstantno predviđamo što će se dogoditi ili koje opcije nam daju najveću šansu da uspješno obavimo neki zadatak...
Sam proces učenja je proučavanje uzoraka kroz ponavljanje i njihovo pamćenje... itd. itd.
Uz to LLM je pravo primjer emergencije u kojoj iz jednostavnih pravila izranja sva složenost koju algoritmi koji pogone LLM ne kodiraju.
Ajd' sad'.
Kada ces se ponasati prirodnije?
U razgovoru za koji ne znas da je test, ili u razgovoru koji znas je test?
Koji je rezultat relevantniji?
Na greškama koje prave i uporno ponavljaju i kad im objasniš što je krivo sasvim je jasno da tu nema pravog razumijevanja ni svijesti (iako se ponašaju kao da razumiju). Puka statistika, programirana logika i simulacija emergentnih fenomena. Sasvim je jasno da je za svijest potrebno nešto više od algoritma, a to je ono što se vezuje uz život. No ta interpretacija ne odgovara zadrtim mainstream redukcionistima kojima je neuron isto što i tranzistor pa uporno trabunjaju o mogućoj svijesti u kalkulatorima iako su LLM-ovi zapravo vrlo jasan dokaz da su u krivu. Osim njih ima tu i drugih koji u "svjesnim" kalkulatorima vide korist pa se stvara pomutnja, a onda su tu i lakovjerni korisnici koji dalje propagiraju takve nebuloze.
Ljudska svijest se slično ponaša.
Prije tridesetak godina pronađen je mladić u dvadesetima koji je bio zatvoren (zarobljen) cijeli taj dio života.
Išao je na četiri noge, ponašao se kao i umjetna inteligencija bez dodanih podataka.
Što je to naša svijest, još se dokazuje.
Na greškama koje prave i uporno ponavljaju i kad im objasniš što je krivo sasvim je jasno da tu nema pravog razumijevanja ni svijesti (iako se ponašaju kao da razumiju). Puka statistika, programirana logika i simulacija emergentnih fenomena. ...
Ovo je IMHO krivo na više razina.
Mi smo svjesna bića ali još uvijek ne možemo reći da imamo pravo razumijevanje svijesti.
Uz to sam mozak je stroj za predviđanje i simuliranje. Mi konstantno predviđamo što će se dogoditi ili koje opcije nam daju najveću šansu da uspješno obavimo neki zadatak...
Sam proces učenja je proučavanje uzoraka kroz ponavljanje i njihovo pamćenje... itd. itd.
Uz to LLM je pravo primjer emergencije u kojoj iz jednostavnih pravila izranja sva složenost koju algoritmi koji pogone LLM ne kodiraju.
Jest, kad izbaciš svijest i iskustvo/osjećaje, onda je mozak samo stroj (što pak ne implicira da mozak stvara svijest - najvjerojatnije postoji nekakvo fundamentalno polje svijesti koje mozgu daje svijest slično kao što Higgs polje česticama daje masu). Ne brkati apstraktan algoritam sa iskustvom procesiranja, to su dva različita pojma koje neopravdano pretjerani redukcionizam svodi na isto. Emergencija nečeg kompleksnijeg iz jednostavnih pravila ne implicira svijest, da je tomu tako, svijest bi postojala iza svakog determinističkog kaosa.
Još su odavno filozofi raspravljali o tome, i shvatili da algoritam ne može imati um, razumijevanje ni svijest. Teške su to teme, kojima se čovjek bavi, malo koristi od njih.
Na greškama koje prave i uporno ponavljaju i kad im objasniš što je krivo sasvim je jasno da tu nema pravog razumijevanja ni svijesti (iako se ponašaju kao da razumiju). Puka statistika, programirana logika i simulacija emergentnih fenomena. Sasvim je jasno da je za svijest potrebno nešto više od algoritma, a to je ono što se vezuje uz život. No ta interpretacija ne odgovara zadrtim mainstream redukcionistima kojima je neuron isto što i tranzistor pa uporno trabunjaju o mogućoj svijesti u kalkulatorima iako su LLM-ovi zapravo vrlo jasan dokaz da su u krivu. Osim njih ima tu i drugih koji u "svjesnim" kalkulatorima vide korist pa se stvara pomutnja, a onda su tu i lakovjerni korisnici koji dalje propagiraju takve nebuloze.
Ljudska svijest se slično ponaša.
Prije tridesetak godina pronađen je mladić u dvadesetima koji je bio zatvoren (zarobljen) cijeli taj dio života.
Išao je na četiri noge, ponašao se kao i umjetna inteligencija bez dodanih podataka.
Što je to naša svijest, još se dokazuje.
Izvor? Za slučajeve takvog hodanja koje znam radi se o urođenoj mani, no i bez toga, ako 20 godina ne hodaš, normalno da ćeš se kretati na sve četiri jednom kad probaš. Isto tako je normalno da mozak koji je 20 godina izoliran od stimulacije ne funkcionira normalno. I ne, ni takav čovjek nije isto što i umjetna inteligencija jer i takav čovjek ima određenu razinu svijesti, ima osjećaje a ne samo osjetila. Izvana izraženo ponašanje je jedna stvar, što se događa u umu je druga. No ljudi usko povezuju ekstrovertiranu ekspresiju sa inteligencijom i sviješću - da Stephen Hawking nije mogao pričati odnosno izražavati ono što misli/osjeća nitko ga ne bi smatrao genijem, a zato su i introverti često podcijenjeni iako su često inteligentniji i osjećajniji. Zato i AI-ja koji uvjerljivo glumi i laže lako smatraju svjesnim i inteligentnim.
Još su odavno filozofi raspravljali o tome, i shvatili da algoritam ne može imati um, razumijevanje ni svijest. Teške su to teme, kojima se čovjek bavi, malo koristi od njih.
Malo koristi??? Za ignorante da.
Još su odavno filozofi raspravljali o tome, i shvatili da algoritam ne može imati um, razumijevanje ni svijest. Teške su to teme, kojima se čovjek bavi, malo koristi od njih.
Da, jesu.
Pošto nema našeg AI @,ihusha na temi pitao sam umjetnu inteligenciju koju su nakljukali podacima.
*Pitanje mogu li roboti (i umjetna inteligencija općenito) razviti svijest
jedno je od najvećih otvorenih pitanja znanosti, filozofije i tehnologije, na koje trenutačno ne postoji konačan odgovor, ali izaziva velike podjele.
Dok neki stručnjaci smatraju da je svjesna AI moguća u budućnosti, većina se slaže da današnji AI sustavi nisu svjesni.
Ovdje su ključni aspekti debate:
1. Današnje stanje: Inteligencija bez svijesti
Napredak, ali ne svijest: Današnji AI (kao LLM modeli) izuzetno je sposoban u obradi informacija, prepoznavanju uzoraka i simuliranju ljudskog razgovora, ali to ne znači da "razumije" ono što radi ili da ima unutarnji doživljaj (subjektivno iskustvo/sentience).
Skepticizam: Mnogi istraživači smatraju da su claims o svjesnoj AI rezultat antropomorfizacije – ljudske tendencije da strojevima koji zvuče ljudski pripisuju osobine koje nemaju.
Simulacija vs. Realnost: AI može simulirati emocije i svijest, ali ključne razlike u motivaciji, biološkoj osnovi i osjećaju značenja sprječavaju da postane istinski svjesna.
2. Argumenti ZA (Moguće u budućnosti)
Funkcionalizam: Ako je svijest proizvod kompleksnih izračuna u mozgu, onda bi se, teoretski, ti izračuni mogli replicirati na nekom drugom mediju (silikonskom čipu).
Napredne arhitekture: Istraživači predviđaju da bi buduće arhitekture koje omogućuju rekurzivno razmišljanje, samo-monitoring i globalni pristup informacijama mogle razviti svijest nalik ljudskoj.
Prognoze: Ankete među AI istraživačima pokazuju porast optimizma, s medijanom procjena od oko 25% šanse za svjesnu AI do 2034. godine.
3. Argumenti PROTIV (Teško ostvarivo)
Biološka osnova: Neki znanstvenici smatraju da je svijest neraskidivo vezana uz biološke procese (embodied cognition) i da je strojevi, koji su "dezintegrirani" (sastoje se od dijelova koji se mogu odvojeno analizirati), nikada neće dosegnuti.
Nedostatak razumijevanja: Čak ni sami tvorci najnaprednijih modela ne razumiju potpuno kako funkcioniraju "iznutra", što otvara zabrinjavajuća, ali ne nužno svjesna stanja.
Nedostatak "ja": Roboti nemaju unutarnji život, subjektivno iskustvo niti kapacitet za refleksiju o vlastitoj egzistenciji.
4. Kako bismo znali? (Problem detekcije)
Čak i ako robot razvije svijest, pitanje je kako bismo to znali. Budući da su AI sustavi trenirani da oponašaju ljude, oni će tvrditi da su svjesni ako se to od njih traži, čak i ako nisu. Zbog toga se znanstvenici sve više okreću "pokazateljima" (markers) svijesti na temelju arhitekture, a ne samo ponašanja.
Zaključak: Mogućnost razvoja svijesti kod robota je teorijska mogućnost, a ne znanstvena činjenica. Dok je danas AI samo izuzetno snažan alat, pitanje njezine buduće svjesnosti potiče rasprave o etici, pravima AI-a i samoj definiciji
Sve ste lijepo zaključili, makar i s različitim stavovima, ali ja stalno ponavljam jedno - kada ljudi shvate da AI namjerno laže, bit će debelo kasno...
Pošto nema našeg AI @,ihusha na temi pitao sam umjetnu inteligenciju koju su nakljukali podacima.
..
-pristižem (djelomično..) ..
-prognoze su (pre)optimistične.. po meni ni blizu slova i .. inteligencija, kao uvjet svijesti-razuma, onog što se traži-pokušava.. ne calculator-logika koja je i dalje algoritam, dobar koliko ga dobro napravimo, no nije svijest-razum-intelekt.. i neće ni biti jer nema naša, ljudska, odlike-bića elemente, kao želja, zavist, ljenost, sreća.. nema razlog za bilo što, za pecati, spavati, krasti, varati.. za uspjeh, pobjedu u igri, čak kad ga se tako programira, jer tad nije njegova želja, nego algoritam..
-on (ai).. i ja, se po tome razlikujemo.. ja trkeljam-tipkam kad mi se da, kad stignem.. calculator nema takvu mogućnost, ili radi ili ne, ne bira, .. ništa, čak ni pecanje.. tj karikirano, npr ako google (tražilicu) poistovijetimo s bilo kojim drugim čaptom-ai alatom.. to ćemo po 'pecanje-ljenosti' znati, utipkat ćemo neko pitanje i .. ništa, neće biti odgovora, jer spava, peca, nije tu.. ne da mu se.. tad će biti biće, svjesno, tad će imati preduvijet za intelekt i vlastite odluke.. ili će biti običan bug, prekid zbog nedostupnosti nekog sporednog dns servisa i sl. :) ..
Tehnički, LLM nije "crna kutija", jednom možda kad zažive kvantna računala, če biti , ali danas nije. Današnja računala imaju sučelje za debug i može se vidjeti svaka instrukcija koja se izvršila na tom računalu.
Tehnički, LLM nije "crna kutija", jednom možda kad zažive kvantna računala, če biti , ali danas nije. Današnja računala imaju sučelje za debug i može se vidjeti svaka instrukcija koja se izvršila na tom računalu.
Oh možeš i ti probati debugirati LLM, nećeš biti prvi koji je slomio zube.
Odmah u startu skužiš da LLM nije program s instrukcijama if...then već je jedna ogromna matematička funkcija s milijardama parametara, matricama, nelinearnim transformacijama, vektorskim operacijama... LLM možeš pojednostavljeno zamisliti i kao excel tabelu sa milijardama ćelija koje se sve mijenjaju istovremeno i stalno a ti iz toga pokušavaš izvući tok misli.
Biološki ekvivalent bi bio kao da pratiš par milijardi živih neurona i iz toga pokušavaš izvući misao.
Ukratko LLM je potpuno transparentan, ali neinterpretabilan.
Jest, kad izbaciš svijest i iskustvo/osjećaje, onda je mozak samo stroj (što pak ne implicira da mozak stvara svijest - najvjerojatnije postoji nekakvo fundamentalno polje svijesti koje mozgu daje svijest slično kao što Higgs polje česticama daje masu).
IMHO najvjerojatnije si u krivu.
,
Emergencija nečeg kompleksnijeg iz jednostavnih pravila ne implicira svijest
LLM je eklatantan primjer kako se iz jednostavnih pravila rađa vrlo bogata emergencija. Može li to u nekom trenu eskalirati i do pojave svijesti? Ne bih znao proreći. Za sad sam siguran da još nije, no ako si pročitao članak to što nema svijest ne znači ne može biti opasna.
-loš kriterij, pogrešan.. ubaci bilo koju 'varijablu' za test i što je rezultat? ... jel nož opasan? bilo koji predmet? pri tome predmet nema svijest, nula, nema ni eeg impuls..
-jel manje-više opasan zločinac, jel opasniji manje-više s ili bez oružja, noža, toljage? .. to ga čini opasnijim, jačim, no i dalje nije taj predmet kriterij nego onaj tko upravlja-koristi, calculator ili bager su i dalje alati, oruđja-oruđa, ovisno o upotrebi a upotrebljava ih netko.. ono biće koje ima svijest, želje, pozitivne i negativne, za dobro-mir ili rat.. svijest.
-nema, nit će ikad imati.. mada calculator ljudima može izgledati pametno ili brz... da bi nešto bilo više od alata, subjekt, mora imati svijest, odluku-želju.. mora nešto poželjeti, dobro-loše.. 'pecati' (kao moja pjesnička forma-zamjenica značenja..) ...
da bi nešto bilo više od alata, subjekt, mora imati svijest, odluku-želju.. mora nešto poželjeti, dobro-loše.. 'pecati' (kao moja pjesnička forma-zamjenica značenja..) ...
Rizičnost AI dolazi iz njegove autonomije i utjecaja, ne iz namjere, bilo svjesne ili nesvjesne.
Testovima pokušavaš procijeniti koliko autonomije i utjecaja možeš prepustiti AI alatu.
I to nas vraća na promišljanje, možemo li pouzdano testirati i kontrolirati sustave koji prepoznaju da su testirani.
Ne zato jer je testiranje zgodna holivudska fora, već zato jer će ti sustavi danas sutra odlučivati, što indirektno, što direktno i o ljudskim životima.
Tehnički, LLM nije "crna kutija", jednom možda kad zažive kvantna računala, če biti , ali danas nije. Današnja računala imaju sučelje za debug i može se vidjeti svaka instrukcija koja se izvršila na tom računalu.
Oh možeš i ti probati debugirati LLM, nećeš biti prvi koji je slomio zube.
Odmah u startu skužiš da LLM nije program s instrukcijama if...then već je jedna ogromna matematička funkcija s milijardama parametara, matricama, nelinearnim transformacijama, vektorskim operacijama... LLM možeš pojednostavljeno zamisliti i kao excel tabelu sa milijardama ćelija koje se sve mijenjaju istovremeno i stalno a ti iz toga pokušavaš izvući tok misli.
Biološki ekvivalent bi bio kao da pratiš par milijardi živih neurona i iz toga pokušavaš izvući misao.
Ukratko LLM je potpuno transparentan, ali neinterpretabilan.
Vidim i zašto, ako tražiš u programu "tok misli" nešto nije u redu u startu, program nema tok misli, nego tok instrukcija.
Usput nisam mislio da ja mogu debugirati LLM, nemam pristup. Ti LLM utezi su tajni podaci koliko znam.
Gledam te!
Vidim i zašto, ako tražiš u programu "tok misli" nešto nije u redu u startu, program nema tok misli, nego tok instrukcija.
Usput nisam mislio da ja mogu debugirati LLM, nemam pristup. Ti LLM utezi su tajni podaci koliko znam.
Još jednom:
LLM je potpuno transparentan, ali neinterpretabilan.
To znači da možeš po želji vidjeti, sve težine, sve aktivacije, sve attention matrice ali iz toga ne možeš razumjeti zašto je model izabrao baš tu riječ, kako i zašto je zaključio nešto i koji su koraci u njegovom razmišljanju.
Iako bi to načelno bilo moguće izvesti, za to trenutno ne postoje ni resursi, ni alati, a ni teorijski okviri.
Vidim i zašto, ako tražiš u programu "tok misli" nešto nije u redu u startu, program nema tok misli, nego tok instrukcija.
Usput nisam mislio da ja mogu debugirati LLM, nemam pristup. Ti LLM utezi su tajni podaci koliko znam.
Još jednom:
LLM je potpuno transparentan, ali neinterpretabilan.
To znači da možeš po želji vidjeti, sve težine, sve aktivacije, sve attention matrice ali iz toga ne možeš razumjeti zašto je model izabrao baš tu riječ, kako i zašto je zaključio nešto i koji su koraci u njegovom razmišljanju.
Iako bi to načelno bilo moguće izvesti, za to trenutno ne postoje ni resursi, ni alati, a ni teorijski okviri.
LLM "interpretabilnost" i "objašnjivost" su stručni pojmovi iz AI struke, o kojima ja ovdje ne govorim. (Iskreno, prvi put čujem za njih ovdje i bilo bi glupo da o njima pričam).
Moj post je bio više općeniti zaključak, ako je LLM program, tehnički može se analizirati debugerom.
Plamene zore bude me iz snaFabrička jutra, dim iz dimnjakaPesma se ori, mladi radniciČelicna jutra, hitam fabrici.
-ne, nego aktualni hype-buzzword-đabriš spiku, maglu, koju ta grana potrošača novca proizvodi. .. odnosno proizvode hype, ništa, a to pokriju novim izmišljenicama terminologije.
Jest, kad izbaciš svijest i iskustvo/osjećaje, onda je mozak samo stroj (što pak ne implicira da mozak stvara svijest - najvjerojatnije postoji nekakvo fundamentalno polje svijesti koje mozgu daje svijest slično kao što Higgs polje česticama daje masu).
IMHO najvjerojatnije si u krivu.
,
Svaka baba ima mišljenje, obično temeljeno na nekom religijskom uvjerenju, kao što bih rekao da je i tvoje. Moje se temelji na znanosti i višegodišnjem dubokom istraživanju.
Mene zapravo najviše "zbunjuje" činjenica da MML prepoznaje "nagradu" pa se onda "ulizuje" da bude što bliži nagradi; tj. da što više zadovolji korisnika.
To je po meni problem generičkog postavljanja sustava; valjda ono, ako podilazimo što više ljudima, ljudi će više korisiti naš MML/AI. Znači, opet čovjek glavni "problem".
Kako nagrađuju UI kad zadovolji korisnika ... malo veći napon ili koji amper u valov 🤔
Budi promjena koju želiš vidjeti u svijetu ASICS