ChatGPT umiliata negli scacchi per principianti da un computer di quasi 50 anni fa

L'intelligenza artificiale può talvolta illudere l'occhio umano, ma a quanto pare se si tratta di giocare a scacchi non regge il confronto con un Atari 2600 del 1977. ChatGPT è stata letteralmente umiliata dall'home computer di quasi 50 anni fa
di Vittorio Rienzo pubblicata il 09 Giugno 2025, alle 16:55 nel canale VideogamesAtariOpenAIChatGPT
60 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoCalcGPT
chatgpt è persino in grado di disegnare la scacchiera per consentire di giocare dal prompt.
a b c d e f g h
8 ♜ ♞ ♝ ♛ ♚ ♝ ♞ ♜ 8
7 ♟ ♟ ♟ ♟ ♟ ♟ ♟ ♟ 7
6 . . . . . . . . 6
5 . . . . . . . . 5
4 . . . . . . . . 4
3 . . . . . . . . 3
2 ♙ ♙ ♙ ♙ ♙ ♙ ♙ ♙ 2
1 ♖ ♘ ♗ ♕ ♔ ♗ ♘ ♖ 1
a b c d e f g h
e, francamente non credo proprio che "dandogli le mosse" da tastiera si faccia infinocchiare del chess dell'atari 2600.
ma volendo, si può provare. basta un emulatore.
Semplificando molto, quelle che chiamiamo IA sono in sostanza un'enorme "raccolta dati" di informazioni che vengono dato in pasto a questi algoritmi per "imparare". Per cui da un lato non vengono spiegate loro le "nozioni di base", dall'altro le informazioni che ottengono non necessariamente sono neutre o corrette.
Per dire, uno degli aspetti in cui si è visto che le IA vanno paradossalmente più in crisi è la matematica. Quando si va a scuola ad imparare le addizioni, ti spiegano perchè 17+29 fa 46, e una volta capita la logica puoi fare tutte le addizioni che vuoi; e se la sbagli non è perchè ricordi male qualcosa, ma perchè semplicemente hai sbagliato a fare i conti.
ChatGPT, o chi per lei, un funziona così: non si mette a fare i calcoli come se fosse una calcolatrice, ma non fa altro che apprendere da milioni di fonti quale sia il risultato di 17+29. E se risulta da questa ricerca che il dato più probabile è 60, ti dice che 17+29 fa 60. Tempo fa ho letto un articolo molto interessante su questo aspetto (purtroppo non ho il link), dove si era riscontrato che proprio con i calcoli matematici ChatGPT forniva risposte errate in quantità maggiori rispetto ad altri argomenti.
Con gli scacchi è lo stesso: allo stato attuale, un algoritmo anche datato che non fa altro che "giocare a scacchi", ha chiaramente un vantaggio evidente, perchè sono programmi realizzati non tanto per fare quella specifica cosa (che comunque ha un peso), ma perchè è in grado di elaborare ogni singola situazione di gioco (presente e possibile futura qualche mossa più in là
Oltretutto nel campo specifico degli scacchi, parliamo di software che da almeno 30 anni (e probabilmente di più
Le IA sono strumenti utili e interessanti, sebbene ancora siano in uno stato relativamente embrionale della loro storia, ma allo stato attuale delle cose sono, per dirla in maniera grezzotta, un'enorme banca dati che sceglie le risposte in base a quella che ritiene essere la più probabile, cosa che non necessariamente la rende quella corretta (o la più corretta).
Gia', pure io penso che sia una cosa che dimostri le sue future potenzialita', non dell'LLM, ma di quello che saranno le sue evoluzioni future.
Per articolo, l'Atari 2600 che ancora adesso ho nel sottotetto di casa, non e' un home quel che volete, e' ed era una delle prime console a cartucce, mica era un C64 con sui programmavi anche in Basic (ad esempio).
appunto, il test è inutile, ChatGPT suggerisce la mossa più "probabile" basandosi su quanto ha studiato, non la mossa "corretta" per la situazione
Scrivono parole una dietro l'altro con il solo metodo statistico.
"Semplicemente" calcolano quale parola è più probabile che debba essere scritta dopo l'altra.
Se gli chiedi che forma ha un pallone da calcio lui risponde solo la cosa più probabile, non "sa" che cosa sia un pallone, il calcio e nemmeno una forma.
Per questo è molto improbabile risponda "non lo so", perché per un LLM è più facile trovare risposte che no.
Ed è per lo stesso motivo che se gli rispondi "Ti stai sbagliando" è probabile che dica "Hai ragione", perché quelle sono le parole più probabili che ha nel suo database dopo che uno gli dice che ha sbagliato.
Possiamo dare tutte le definizioni di intelligenza che vogliamo, ma un LLM non lo sarà mai.
By(t)e
Possiamo dare tutte le definizioni di intelligenza che vogliamo, ma un LLM non lo sarà mai.
By(t)e
Una volta ho visto un professore di fisica commentare i colpi di un campione di carambola.
Il prof. disse: Io posso spiegare con consapevolezza cosa succede in ogni singolo colpo e probabilmente il campione no.
Resta il fatto che lui riesce a fare questi colpi incredibili ed io no!
Il prof. disse: Io posso spiegare con consapevolezza cosa succede in ogni singolo colpo e probabilmente il campione no.
Resta il fatto che lui riesce a fare questi colpi incredibili ed io no!
Resta il fatto che un LLM non è un'IA, e, dunque, un'intelligenza.
By(t)e
Il prof. disse: Io posso spiegare con consapevolezza cosa succede in ogni singolo colpo e probabilmente il campione no.
Resta il fatto che lui riesce a fare questi colpi incredibili ed io no!
Non vedo l'attinenza con l'argomento.
Chiunque abbia una conoscenza adeguata dell'argomento ti sa spiegare perché un LLM non è un'IA, ma se ti fai "infinocchiare" e credi che lo sia, problemi tuoi. Non cambia il fatto che non lo sia.
By(t)e
Scrivono parole una dietro l'altro con il solo metodo statistico.
"Semplicemente" calcolano quale parola è più probabile che debba essere scritta dopo l'altra.
Se gli chiedi che forma ha un pallone da calcio lui risponde solo la cosa più probabile, non "sa" che cosa sia un pallone, il calcio e nemmeno una forma.
Per questo è molto improbabile risponda "non lo so", perché per un LLM è più facile trovare risposte che no.
Ed è per lo stesso motivo che se gli rispondi "Ti stai sbagliando" è probabile che dica "Hai ragione", perché quelle sono le parole più probabili che ha nel suo database dopo che uno gli dice che ha sbagliato.
Possiamo dare tutte le definizioni di intelligenza che vogliamo, ma un LLM non lo sarà mai.
By(t)e
Tecnicamente è vero, però alla fine che importanza ha? La cosa davvero importante è che faccia per bene un compito assegnatogli. Non è proprio intelligenza? Pazienza. Non c'è scritto da nessuna parte che una AI debba per forza lavorare come un cervello umano. Macinare dati e statistiche è il suo modo. Non sappiamo neanche come funzioni un cervello umano, figurati se riusciamo ad emulare una cosa cui non conosciamo. Anzi, magari tra qualche anno viene fuori che siamo noi a lavorare come gli LLM
E' innegabile che gli LLM abbiano rappresentato una frontiera in questo campo, compiendo un "salto evoluzionistico" senza precedenti in campo informatico.
La vera intelligenza sarebbe la AGI, che al momento è solo teorica. Tra l'altro, quando finalmente "capirà" cosa gli si chiede, magari non saranno più necessarie millemila gpu per addestrarlo e fare inference. Alla fine il nostro cervello funziona con soli 20W, quindi la differenza è abissale.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".