ChatGPT umiliata negli scacchi per principianti da un computer di quasi 50 anni fa

L'intelligenza artificiale può talvolta illudere l'occhio umano, ma a quanto pare se si tratta di giocare a scacchi non regge il confronto con un Atari 2600 del 1977. ChatGPT è stata letteralmente umiliata dall'home computer di quasi 50 anni fa
di Vittorio Rienzo pubblicata il 09 Giugno 2025, alle 16:55 nel canale VideogamesAtariOpenAIChatGPT
60 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoE' innegabile che gli LLM abbiamo rappresentato una frontiera in questo campo, compiendo un "salto evoluzionistico" senza precedenti in campo informatico.
La vera intelligenza sarebbe la AGI, che al momento è solo teorica. Tra l'altro, quando finalmente "capirà" cosa gli si chiede, magari non saranno più necessarie millemila gpu per addestrarlo e fare inference. Alla fine il nostro cervello funziona con soli 20W, quindi la differenza è abissale.
Ma infatti non sono contro gli LLM, il problema è come vengono "venduti", ovvero per l'appunto come IA.
Da un'intelligenza ti aspetti che comprenda l'argomento, un LLM non lo fa, fa solo finta. Ad oggi trovo pratiche le applicazioni di questi modelli su immagini e suoni, degli LLM mi fido molto molto poco. Non capisco come faccia la gente ad affidargli compiti più banali di una lista della spesa.
By(t)e
Semplificando molto, quelle che chiamiamo IA sono in sostanza un'enorme "raccolta dati" di informazioni che vengono dato in pasto a questi algoritmi per "imparare". Per cui da un lato non vengono spiegate loro le "nozioni di base", dall'altro le informazioni che ottengono non necessariamente sono neutre o corrette.
Per dire, uno degli aspetti in cui si è visto che le IA vanno paradossalmente più in crisi è la matematica. Quando si va a scuola ad imparare le addizioni, ti spiegano perchè 17+29 fa 46, e una volta capita la logica puoi fare tutte le addizioni che vuoi; e se la sbagli non è perchè ricordi male qualcosa, ma perchè semplicemente hai sbagliato a fare i conti.
ChatGPT, o chi per lei, un funziona così: non si mette a fare i calcoli come se fosse una calcolatrice, ma non fa altro che apprendere da milioni di fonti quale sia il risultato di 17+29. E se risulta da questa ricerca che il dato più probabile è 60, ti dice che 17+29 fa 60. Tempo fa ho letto un articolo molto interessante su questo aspetto (purtroppo non ho il link), dove si era riscontrato che proprio con i calcoli matematici ChatGPT forniva risposte errate in quantità maggiori rispetto ad altri argomenti.
Con gli scacchi è lo stesso: allo stato attuale, un algoritmo anche datato che non fa altro che "giocare a scacchi", ha chiaramente un vantaggio evidente, perchè sono programmi realizzati non tanto per fare quella specifica cosa (che comunque ha un peso), ma perchè è in grado di elaborare ogni singola situazione di gioco (presente e possibile futura qualche mossa più in là
Oltretutto nel campo specifico degli scacchi, parliamo di software che da almeno 30 anni (e probabilmente di più
Le IA sono strumenti utili e interessanti, sebbene ancora siano in uno stato relativamente embrionale della loro storia, ma allo stato attuale delle cose sono, per dirla in maniera grezzotta, un'enorme banca dati che sceglie le risposte in base a quella che ritiene essere la più probabile, cosa che non necessariamente la rende quella corretta (o la più corretta).
anziché scrivere sto papello, non avresti fatto prima a caricare un emulatore?
poi, se non hai il dump della cartuccia degli scacchi, te lo passo io.
Il prof. disse: Io posso spiegare con consapevolezza cosa succede in ogni singolo colpo e probabilmente il campione no.
Resta il fatto che lui riesce a fare questi colpi incredibili ed io no!
Però il prof di fisica, collaborando con ingegneri meccatronici ed informatici potrebbe lavorare alla costruzione di un robot in grado di scoccare colpi perfetti
L'intelligenza umana non si limita alla risoluzione di problemi o alla produzione di risposte corrette. Essa comprende anche la coscienza di sé, la comprensione profonda del contesto, l'intenzionalità, l'intuizione e la capacità di attribuire significato all'esperienza soggettiva. Queste qualità emergono da una rete di fattori biologici, emotivi, culturali ed esperienziali che le macchine non possiedono né potranno mai simulare in modo autentico (proprio per la loro intrinseca natura).
Le IA, inclusi i modelli linguistici avanzati, operano su base statistica e deterministica. "Capiscono" nel senso che correlano input a output in modo molto sofisticato, ma non hanno consapevolezza del significato delle parole o delle azioni che generano. Non sanno di sapere, e non sono capaci di riformulare in autonomia un sistema di valori, priorità o obiettivi sulla base di un vissuto personale, semplicemente perché non hanno un sé.
In sostanza, possiamo dire che l'IA è "intelligente" nel senso funzionale, ma non nel senso coscienziale. È uno strumento estremamente utile, ma resta una simulazione. La vera intelligenza, quella umana, nasce da un'interiorità che nessuna macchina ha mai posseduto.
Perciò, l'intelligenza artificiale ha bisogno di tale definizione aggiuntiva proprio per distinzione dall'intelligenza (quella senza ulteriori suffissi), che è ben altra cosa.
Aggiungerei anche che manca ancora quella sorta di "loop infinito" che tiene sempre acceso il nostro cervello. L'IA (anche se fosse intelligente nei vari sensi che vuoi dare all'intelligenza) lo è in modo on/off, "a chiamata". E' una funziona informatica che si attiva quando interrogo l'IA, produce un output (la risposta che ottengo) e poi si spegne. Quel "loop infinito" può essere la coscienza di se? Il nostro cervello è sempre acceso, si annoia si diverte si emoziona, ecc e prende decisioni istante per istante dentro questo loop infinito apparentemente non deterministico..magari sto solo delirando
Non solo gli LLM non imparano da se stessi, ma se alimenti un LLM con dati generati da LLM, dopo un certo numero di iterazioni, otterrai solo output insensati.
Questo è dimostrato matematicamente ed empiricamente (come ad esempio quando fanno parlare due LLM fra loro e dopo un po' iniziano a scrivere caratteri a caso).
Questo è uno dei grossi limiti e pericoli di quello che chiamate impropriamente IA.
By(t)e
Marketing, non possono mica chiamarla Statistica Artificiale
By(t)e
Perché dal punto di vista dell'utente, se risponde correttamente non fa alcuna differenza se l'argomento l'abbia "capito" o meno.
Eh, hai detto niente. Il problema di fondo è proprio quello, se chi fa la domanda non sa la risposta e chi risponde non capisce la domanda, cosa vuoi che succeda?
By(t)e
By(t)e
Chiaramente va usato con attenzione e non alla cieca.
Z26 in una finestra, chatgpt dall'altra.
è stata una debable... per il cervellone.
non perchè perde... ma perchè si inventa le mosse.
fa prese su caselle dove non ci sono pezzi, mi ha fatto un'arrocco ponendosi sotto scacco della regina...
Z26 in una finestra, chatgpt dall'altra.
è stata una debable... per il cervellone.
non perchè perde... ma perchè si inventa le mosse.
fa prese su caselle dove non ci sono pezzi, mi ha fatto un'arrocco ponendosi sotto scacco della regina...
Mi rendo conto che dovrei essere l'ultimo a difendere ChatGPT, ma oggi è stata una giornata nera per il servizio (come puoi ancora vedere su https://status.openai.com), perciò non vorrei che le allucinazioni dipendessero da ciò.
Purtroppo al momento non avrei proprio tempo per una effettuare un test in prima persona, ma resto curioso di eventuali sviluppi.
Magari si potrebbe riprovare quando i disservizi saranno stati risolti.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".