L’AI non ha coscienza. Ma noi?
Ogni settimana leggiamo titoli che gridano: “L’intelligenza artificiale ha imparato a pensare!”.
Empatia artificiale, emozioni simulate, chatbot che sembrano capirti meglio di un amico.
Ma se ti dicessi che ChatGPT non pensa, non prova nulla, e soprattutto non è cosciente — e che va bene così?
Nel nuovo articolo della rubrica Ethics & Code su Codexsprawl, provo a rimettere i piedi per terra:
parliamo di responsabilità umana, dell'effetto ELIZA, dei limiti reali (e dei pericoli percepiti) dell’AI generativa.
Con un po’ di filosofia, qualche battuta, e un invito a guardare l’AI non come un oracolo, ma come uno specchio.
Leggi qui:
👉 ChatGPT non ha coscienza (e va bene così)
Grazie per essere qui,
— Anairesis (l’essere umano dietro all’articolo)
CodexSprawl.com
Come sempre:
☕ Questo nodo della rete è alimentato da conoscenza libera e caffeina.
Se ti è utile, puoi supportare il progetto qui: Offrimi un caffè
🛰️ Non vuoi perderti il prossimo articolo?
Iscriviti alla Sprawlletter → codexsprawl.com/newsletter