ChatGPT umiliata negli scacchi per principianti da un computer di quasi 50 anni fa

ChatGPT umiliata negli scacchi per principianti da un computer di quasi 50 anni fa

L'intelligenza artificiale può talvolta illudere l'occhio umano, ma a quanto pare se si tratta di giocare a scacchi non regge il confronto con un Atari 2600 del 1977. ChatGPT è stata letteralmente umiliata dall'home computer di quasi 50 anni fa

di pubblicata il , alle 16:55 nel canale Videogames
AtariOpenAIChatGPT
 
60 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
pachainti10 Giugno 2025, 06:49 #31
Il problema non sono gli scacchi, ma il calcolo e la logica in generale...
CalcGPT
cronos199010 Giugno 2025, 07:27 #32
Originariamente inviato da: randorama
ma anzichè fare i soloni (per altro disquisendo su un articolo scritto non in modo chiaro), perchè non provate?

chatgpt è persino in grado di disegnare la scacchiera per consentire di giocare dal prompt.

a b c d e f g h
8 ♜ ♞ ♝ ♛ ♚ ♝ ♞ ♜ 8
7 ♟ ♟ ♟ ♟ ♟ ♟ ♟ ♟ 7
6 . . . . . . . . 6
5 . . . . . . . . 5
4 . . . . . . . . 4
3 . . . . . . . . 3
2 ♙ ♙ ♙ ♙ ♙ ♙ ♙ ♙ 2
1 ♖ ♘ ♗ ♕ ♔ ♗ ♘ ♖ 1
a b c d e f g h


e, francamente non credo proprio che "dandogli le mosse" da tastiera si faccia infinocchiare del chess dell'atari 2600.

ma volendo, si può provare. basta un emulatore.
Si può far infinocchiare perchè qui si fanno paragoni che hanno ben poco senso.

Semplificando molto, quelle che chiamiamo IA sono in sostanza un'enorme "raccolta dati" di informazioni che vengono dato in pasto a questi algoritmi per "imparare". Per cui da un lato non vengono spiegate loro le "nozioni di base", dall'altro le informazioni che ottengono non necessariamente sono neutre o corrette.
Per dire, uno degli aspetti in cui si è visto che le IA vanno paradossalmente più in crisi è la matematica. Quando si va a scuola ad imparare le addizioni, ti spiegano perchè 17+29 fa 46, e una volta capita la logica puoi fare tutte le addizioni che vuoi; e se la sbagli non è perchè ricordi male qualcosa, ma perchè semplicemente hai sbagliato a fare i conti.

ChatGPT, o chi per lei, un funziona così: non si mette a fare i calcoli come se fosse una calcolatrice, ma non fa altro che apprendere da milioni di fonti quale sia il risultato di 17+29. E se risulta da questa ricerca che il dato più probabile è 60, ti dice che 17+29 fa 60. Tempo fa ho letto un articolo molto interessante su questo aspetto (purtroppo non ho il link), dove si era riscontrato che proprio con i calcoli matematici ChatGPT forniva risposte errate in quantità maggiori rispetto ad altri argomenti.

Con gli scacchi è lo stesso: allo stato attuale, un algoritmo anche datato che non fa altro che "giocare a scacchi", ha chiaramente un vantaggio evidente, perchè sono programmi realizzati non tanto per fare quella specifica cosa (che comunque ha un peso), ma perchè è in grado di elaborare ogni singola situazione di gioco (presente e possibile futura qualche mossa più in là e in base a questo proporre la soluzione di gioco migliore, senza possibilità di errore a differenza delle IA che di fatto si basa sull'esperienza fatta su informazioni che potrebbero fornire una mossa inadeguata.

Oltretutto nel campo specifico degli scacchi, parliamo di software che da almeno 30 anni (e probabilmente di più non solo rivaleggiano con i più grandi Maestri della storia, ma che li surclassano in tutto e per tutto. Non a caso da un lato i grandi scacchisti da anni si allenano proprio contro tali software per migliorare le loro capacità (e bene inteso, ci perdono, loro stessi riconoscono che sono imbattibili), dall'altro quando vengono usati per truffare nei tornei spesso lo sfidante se ne accorge proprio per le scelte che vengono effettuate (anche se poi dimostrare che l'avversario stia barando è un altro paio di maniche).


Le IA sono strumenti utili e interessanti, sebbene ancora siano in uno stato relativamente embrionale della loro storia, ma allo stato attuale delle cose sono, per dirla in maniera grezzotta, un'enorme banca dati che sceglie le risposte in base a quella che ritiene essere la più probabile, cosa che non necessariamente la rende quella corretta (o la più corretta).
UtenteHD10 Giugno 2025, 08:22 #33
Originariamente inviato da: omerook
Una LLM che gioca a scacchi é giá preoccupante solo per il fatto che lo faccia.


Gia', pure io penso che sia una cosa che dimostri le sue future potenzialita', non dell'LLM, ma di quello che saranno le sue evoluzioni future.

Per articolo, l'Atari 2600 che ancora adesso ho nel sottotetto di casa, non e' un home quel che volete, e' ed era una delle prime console a cartucce, mica era un C64 con sui programmavi anche in Basic (ad esempio).
Phoenix Fire10 Giugno 2025, 09:52 #34
Originariamente inviato da: the_joe
Se non è stata addestrata appositamente per giocare a scacchi, è un risultato di rilievo già il fatto che lo sappia fare, simulatori di gioco di scacchi ne esistono per tutti i sistemi da decine di anni, ma sono algoritmi che fanno solo quello.


appunto, il test è inutile, ChatGPT suggerisce la mossa più "probabile" basandosi su quanto ha studiato, non la mossa "corretta" per la situazione
andbad10 Giugno 2025, 09:54 #35
Le IA come le conoscete non sono per niente IA ma LLM.
Scrivono parole una dietro l'altro con il solo metodo statistico.
"Semplicemente" calcolano quale parola è più probabile che debba essere scritta dopo l'altra.
Se gli chiedi che forma ha un pallone da calcio lui risponde solo la cosa più probabile, non "sa" che cosa sia un pallone, il calcio e nemmeno una forma.
Per questo è molto improbabile risponda "non lo so", perché per un LLM è più facile trovare risposte che no.
Ed è per lo stesso motivo che se gli rispondi "Ti stai sbagliando" è probabile che dica "Hai ragione", perché quelle sono le parole più probabili che ha nel suo database dopo che uno gli dice che ha sbagliato.

Possiamo dare tutte le definizioni di intelligenza che vogliamo, ma un LLM non lo sarà mai.

By(t)e
omerook10 Giugno 2025, 10:16 #36
Originariamente inviato da: andbad
L

Possiamo dare tutte le definizioni di intelligenza che vogliamo, ma un LLM non lo sarà mai.

By(t)e


Una volta ho visto un professore di fisica commentare i colpi di un campione di carambola.
Il prof. disse: Io posso spiegare con consapevolezza cosa succede in ogni singolo colpo e probabilmente il campione no.
Resta il fatto che lui riesce a fare questi colpi incredibili ed io no!
andbad10 Giugno 2025, 10:49 #37
Originariamente inviato da: omerook
Una volta ho visto un professore di fisica commentare i colpi di un campione di carambola.
Il prof. disse: Io posso spiegare con consapevolezza cosa succede in ogni singolo colpo e probabilmente il campione no.
Resta il fatto che lui riesce a fare questi colpi incredibili ed io no!


Resta il fatto che un LLM non è un'IA, e, dunque, un'intelligenza.

By(t)e
Mo4210 Giugno 2025, 10:57 #38
Come già spiegato nel mio precedente commento, penso che ci stiamo incartando sul concetto stesso d'intelligenza. Se ognuno di noi vi attribuisce un significato diverso, non ci sarà mai modo di concordare sul discorso in questione.
andbad10 Giugno 2025, 11:09 #39
Originariamente inviato da: omerook
Una volta ho visto un professore di fisica commentare i colpi di un campione di carambola.
Il prof. disse: Io posso spiegare con consapevolezza cosa succede in ogni singolo colpo e probabilmente il campione no.
Resta il fatto che lui riesce a fare questi colpi incredibili ed io no!


Non vedo l'attinenza con l'argomento.
Chiunque abbia una conoscenza adeguata dell'argomento ti sa spiegare perché un LLM non è un'IA, ma se ti fai "infinocchiare" e credi che lo sia, problemi tuoi. Non cambia il fatto che non lo sia.

By(t)e
Unrue10 Giugno 2025, 11:41 #40
Originariamente inviato da: andbad
Le IA come le conoscete non sono per niente IA ma LLM.
Scrivono parole una dietro l'altro con il solo metodo statistico.
"Semplicemente" calcolano quale parola è più probabile che debba essere scritta dopo l'altra.
Se gli chiedi che forma ha un pallone da calcio lui risponde solo la cosa più probabile, non "sa" che cosa sia un pallone, il calcio e nemmeno una forma.
Per questo è molto improbabile risponda "non lo so", perché per un LLM è più facile trovare risposte che no.
Ed è per lo stesso motivo che se gli rispondi "Ti stai sbagliando" è probabile che dica "Hai ragione", perché quelle sono le parole più probabili che ha nel suo database dopo che uno gli dice che ha sbagliato.

Possiamo dare tutte le definizioni di intelligenza che vogliamo, ma un LLM non lo sarà mai.

By(t)e


Tecnicamente è vero, però alla fine che importanza ha? La cosa davvero importante è che faccia per bene un compito assegnatogli. Non è proprio intelligenza? Pazienza. Non c'è scritto da nessuna parte che una AI debba per forza lavorare come un cervello umano. Macinare dati e statistiche è il suo modo. Non sappiamo neanche come funzioni un cervello umano, figurati se riusciamo ad emulare una cosa cui non conosciamo. Anzi, magari tra qualche anno viene fuori che siamo noi a lavorare come gli LLM

E' innegabile che gli LLM abbiano rappresentato una frontiera in questo campo, compiendo un "salto evoluzionistico" senza precedenti in campo informatico.

La vera intelligenza sarebbe la AGI, che al momento è solo teorica. Tra l'altro, quando finalmente "capirà" cosa gli si chiede, magari non saranno più necessarie millemila gpu per addestrarlo e fare inference. Alla fine il nostro cervello funziona con soli 20W, quindi la differenza è abissale.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^