ChatGPT umiliata negli scacchi per principianti da un computer di quasi 50 anni fa

ChatGPT umiliata negli scacchi per principianti da un computer di quasi 50 anni fa

L'intelligenza artificiale può talvolta illudere l'occhio umano, ma a quanto pare se si tratta di giocare a scacchi non regge il confronto con un Atari 2600 del 1977. ChatGPT è stata letteralmente umiliata dall'home computer di quasi 50 anni fa

di pubblicata il , alle 16:55 nel canale Videogames
AtariOpenAIChatGPT
 
60 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
andbad10 Giugno 2025, 11:51 #41
Originariamente inviato da: Unrue
Tecnicamente è vero, però alla fine che importanza ha? La cosa davvero importante è che faccia per bene un compito assegnatogli. Non è proprio intelligenza? Pazienza. Non c'è scritto da nessuna parte che una AI debba per forza lavorare come un cervello umano. Macinare dati e statistiche è il suo modo. Non sappiamo neanche come funzioni un cervello umano, figurati se riusciamo ad emulare una cosa cui non conosciamo.

E' innegabile che gli LLM abbiamo rappresentato una frontiera in questo campo, compiendo un "salto evoluzionistico" senza precedenti in campo informatico.

La vera intelligenza sarebbe la AGI, che al momento è solo teorica. Tra l'altro, quando finalmente "capirà" cosa gli si chiede, magari non saranno più necessarie millemila gpu per addestrarlo e fare inference. Alla fine il nostro cervello funziona con soli 20W, quindi la differenza è abissale.


Ma infatti non sono contro gli LLM, il problema è come vengono "venduti", ovvero per l'appunto come IA.
Da un'intelligenza ti aspetti che comprenda l'argomento, un LLM non lo fa, fa solo finta. Ad oggi trovo pratiche le applicazioni di questi modelli su immagini e suoni, degli LLM mi fido molto molto poco. Non capisco come faccia la gente ad affidargli compiti più banali di una lista della spesa.

By(t)e
randorama10 Giugno 2025, 12:00 #42
Originariamente inviato da: cronos1990
Si può far infinocchiare perchè qui si fanno paragoni che hanno ben poco senso.

Semplificando molto, quelle che chiamiamo IA sono in sostanza un'enorme "raccolta dati" di informazioni che vengono dato in pasto a questi algoritmi per "imparare". Per cui da un lato non vengono spiegate loro le "nozioni di base", dall'altro le informazioni che ottengono non necessariamente sono neutre o corrette.
Per dire, uno degli aspetti in cui si è visto che le IA vanno paradossalmente più in crisi è la matematica. Quando si va a scuola ad imparare le addizioni, ti spiegano perchè 17+29 fa 46, e una volta capita la logica puoi fare tutte le addizioni che vuoi; e se la sbagli non è perchè ricordi male qualcosa, ma perchè semplicemente hai sbagliato a fare i conti.

ChatGPT, o chi per lei, un funziona così: non si mette a fare i calcoli come se fosse una calcolatrice, ma non fa altro che apprendere da milioni di fonti quale sia il risultato di 17+29. E se risulta da questa ricerca che il dato più probabile è 60, ti dice che 17+29 fa 60. Tempo fa ho letto un articolo molto interessante su questo aspetto (purtroppo non ho il link), dove si era riscontrato che proprio con i calcoli matematici ChatGPT forniva risposte errate in quantità maggiori rispetto ad altri argomenti.

Con gli scacchi è lo stesso: allo stato attuale, un algoritmo anche datato che non fa altro che "giocare a scacchi", ha chiaramente un vantaggio evidente, perchè sono programmi realizzati non tanto per fare quella specifica cosa (che comunque ha un peso), ma perchè è in grado di elaborare ogni singola situazione di gioco (presente e possibile futura qualche mossa più in là e in base a questo proporre la soluzione di gioco migliore, senza possibilità di errore a differenza delle IA che di fatto si basa sull'esperienza fatta su informazioni che potrebbero fornire una mossa inadeguata.

Oltretutto nel campo specifico degli scacchi, parliamo di software che da almeno 30 anni (e probabilmente di più non solo rivaleggiano con i più grandi Maestri della storia, ma che li surclassano in tutto e per tutto. Non a caso da un lato i grandi scacchisti da anni si allenano proprio contro tali software per migliorare le loro capacità (e bene inteso, ci perdono, loro stessi riconoscono che sono imbattibili), dall'altro quando vengono usati per truffare nei tornei spesso lo sfidante se ne accorge proprio per le scelte che vengono effettuate (anche se poi dimostrare che l'avversario stia barando è un altro paio di maniche).


Le IA sono strumenti utili e interessanti, sebbene ancora siano in uno stato relativamente embrionale della loro storia, ma allo stato attuale delle cose sono, per dirla in maniera grezzotta, un'enorme banca dati che sceglie le risposte in base a quella che ritiene essere la più probabile, cosa che non necessariamente la rende quella corretta (o la più corretta).


anziché scrivere sto papello, non avresti fatto prima a caricare un emulatore?
poi, se non hai il dump della cartuccia degli scacchi, te lo passo io.
Wrib10 Giugno 2025, 12:15 #43
Originariamente inviato da: omerook
Una volta ho visto un professore di fisica commentare i colpi di un campione di carambola.
Il prof. disse: Io posso spiegare con consapevolezza cosa succede in ogni singolo colpo e probabilmente il campione no.
Resta il fatto che lui riesce a fare questi colpi incredibili ed io no!


Però il prof di fisica, collaborando con ingegneri meccatronici ed informatici potrebbe lavorare alla costruzione di un robot in grado di scoccare colpi perfetti
Wrib10 Giugno 2025, 12:22 #44
Originariamente inviato da: Mo42
Vorrei proporre una rapida riflessione sul termine "intelligenza" quando lo associamo all'intelligenza artificiale. Sebbene le IA moderne siano utili nel riconoscimento di schemi, nell'elaborazione di grandi quantità di dati e nella simulazione di comportamenti complessi, non possiamo attribuire loro un'intelligenza paragonabile a quella umana nel senso più profondo e qualitativo del termine.
L'intelligenza umana non si limita alla risoluzione di problemi o alla produzione di risposte corrette. Essa comprende anche la coscienza di sé, la comprensione profonda del contesto, l'intenzionalità, l'intuizione e la capacità di attribuire significato all'esperienza soggettiva. Queste qualità emergono da una rete di fattori biologici, emotivi, culturali ed esperienziali che le macchine non possiedono né potranno mai simulare in modo autentico (proprio per la loro intrinseca natura).
Le IA, inclusi i modelli linguistici avanzati, operano su base statistica e deterministica. "Capiscono" nel senso che correlano input a output in modo molto sofisticato, ma non hanno consapevolezza del significato delle parole o delle azioni che generano. Non sanno di sapere, e non sono capaci di riformulare in autonomia un sistema di valori, priorità o obiettivi sulla base di un vissuto personale, semplicemente perché non hanno un sé.
In sostanza, possiamo dire che l'IA è "intelligente" nel senso funzionale, ma non nel senso coscienziale. È uno strumento estremamente utile, ma resta una simulazione. La vera intelligenza, quella umana, nasce da un'interiorità che nessuna macchina ha mai posseduto.
Perciò, l'intelligenza artificiale ha bisogno di tale definizione aggiuntiva proprio per distinzione dall'intelligenza (quella senza ulteriori suffissi), che è ben altra cosa.


Aggiungerei anche che manca ancora quella sorta di "loop infinito" che tiene sempre acceso il nostro cervello. L'IA (anche se fosse intelligente nei vari sensi che vuoi dare all'intelligenza) lo è in modo on/off, "a chiamata". E' una funziona informatica che si attiva quando interrogo l'IA, produce un output (la risposta che ottengo) e poi si spegne. Quel "loop infinito" può essere la coscienza di se? Il nostro cervello è sempre acceso, si annoia si diverte si emoziona, ecc e prende decisioni istante per istante dentro questo loop infinito apparentemente non deterministico..magari sto solo delirando L'IA è un cervello morto che quando viene interrogato prende vita momentaneamente elabora la questione proposta e poi torna ad essere morto, non si sottopone questioni da solo, arrivano dall'esterno.
andbad10 Giugno 2025, 12:57 #45
Originariamente inviato da: Wrib
Aggiungerei anche che manca ancora quella sorta di "loop infinito" che tiene sempre acceso il nostro cervello. L'IA (anche se fosse intelligente nei vari sensi che vuoi dare all'intelligenza) lo è in modo on/off, "a chiamata". E' una funziona informatica che si attiva quando interrogo l'IA, produce un output (la risposta che ottengo) e poi si spegne. Quel "loop infinito" può essere la coscienza di se? Il nostro cervello è sempre acceso, si annoia si diverte si emoziona, ecc e prende decisioni istante per istante dentro questo loop infinito apparentemente non deterministico..magari sto solo delirando L'IA è un cervello morto che quando viene interrogato prende vita momentaneamente elabora la questione proposta e poi torna ad essere morto, non si sottopone questioni da solo, arrivano dall'esterno.


Non solo gli LLM non imparano da se stessi, ma se alimenti un LLM con dati generati da LLM, dopo un certo numero di iterazioni, otterrai solo output insensati.
Questo è dimostrato matematicamente ed empiricamente (come ad esempio quando fanno parlare due LLM fra loro e dopo un po' iniziano a scrivere caratteri a caso).

Questo è uno dei grossi limiti e pericoli di quello che chiamate impropriamente IA.

By(t)e
Unrue10 Giugno 2025, 13:13 #46
Originariamente inviato da: andbad
Ma infatti non sono contro gli LLM, il problema è come vengono "venduti", ovvero per l'appunto come IA.


Marketing, non possono mica chiamarla Statistica Artificiale

Originariamente inviato da: andbad
Da un'intelligenza ti aspetti che comprenda l'argomento, un LLM non lo fa, fa solo finta. Ad oggi trovo pratiche le applicazioni di questi modelli su immagini e suoni, degli LLM mi fido molto molto poco. Non capisco come faccia la gente ad affidargli compiti più banali di una lista della spesa.

By(t)e


Perché dal punto di vista dell'utente, se risponde correttamente non fa alcuna differenza se l'argomento l'abbia "capito" o meno.
andbad10 Giugno 2025, 13:38 #47
Originariamente inviato da: Unrue
Perché dal punto di vista dell'utente, se risponde correttamente non fa alcuna differenza se l'argomento l'abbia "capito" o meno.


Eh, hai detto niente. Il problema di fondo è proprio quello, se chi fa la domanda non sa la risposta e chi risponde non capisce la domanda, cosa vuoi che succeda?

By(t)e
Unrue10 Giugno 2025, 13:42 #48
Originariamente inviato da: andbad
Eh, hai detto niente. Il problema di fondo è proprio quello, se chi fa la domanda non sa la risposta e chi risponde non capisce la domanda, cosa vuoi che succeda?

By(t)e


Chiaramente va usato con attenzione e non alla cieca.
randorama10 Giugno 2025, 19:24 #49
alla fine ho provato io.
Z26 in una finestra, chatgpt dall'altra.
è stata una debable... per il cervellone.
non perchè perde... ma perchè si inventa le mosse.

fa prese su caselle dove non ci sono pezzi, mi ha fatto un'arrocco ponendosi sotto scacco della regina...
Mo4210 Giugno 2025, 20:29 #50
Originariamente inviato da: randorama
alla fine ho provato io.
Z26 in una finestra, chatgpt dall'altra.
è stata una debable... per il cervellone.
non perchè perde... ma perchè si inventa le mosse.

fa prese su caselle dove non ci sono pezzi, mi ha fatto un'arrocco ponendosi sotto scacco della regina...


Mi rendo conto che dovrei essere l'ultimo a difendere ChatGPT, ma oggi è stata una giornata nera per il servizio (come puoi ancora vedere su https://status.openai.com), perciò non vorrei che le allucinazioni dipendessero da ciò.
Purtroppo al momento non avrei proprio tempo per una effettuare un test in prima persona, ma resto curioso di eventuali sviluppi.
Magari si potrebbe riprovare quando i disservizi saranno stati risolti.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^