Da zero a digital » Newsletter n° 4
Newsletter n° 4 » 29 gennaio 2023
In questa newsletter parliamo di:
Pappagalli stocastici e il potere delle big tech
Estrattivismo dei dati: si parla di Intelligenza Artificiale con Daniela Tafani [audio]
Truffe online: ecco come non lasciarsi ingannare dal “linguaggio” delle frodi
Meta mette fine al purgatorio di Trump: torna su Facebook e Instagram nelle prossime settimane
Il problema della "piazza digitale"
Cory Doctorow e la enshittification: perché i servizi online e i social network commerciali diventano tutti tossici
Videosorveglianza o contro-sorveglianza?
/intelligenza artificiale
▶ Pappagalli stocastici e il potere delle big tech
I “pappagalli stocastici” cui si fa riferimento nel titolo, in inglese “stochastic parrots”, sono i cosiddetti large language models, i modelli statistici del linguaggio che si basano sull’apprendimento da grandi database di testi, presi prevalentemente da internet.
Con questa espressione le autrici vogliono sottolineare che questi sistemi non hanno alcuna comprensione del significato delle parole o delle espressioni che generano, perché non sono costruiti per averlo, ma piuttosto individuano degli schemi verbali ricorrenti nei dati e li “ripetono”.
La notizia del licenziamento da parte di Google di due co-autrici (Timnit Gebru e Margareth Mitchell) del paper “On the dangers of Stochastic Parrots” ha avuto grande risalto nei media di tutto il mondo. Timnit Gebru infatti è una delle esponenti di maggior rilievo nel campo dell’etica dell’intelligenza artificiale, soprattutto riguardo ai diritti di inclusione delle minoranze e dei loro punti di vista nelle grandi società tecnologiche e nei sistemi di intelligenza artificiale che queste sviluppano.
Leggi l'articolo completo su SCIENZA IN RETE
▶ Estrattivismo dei dati: si parla di Intelligenza Artificiale con Daniela Tafani [audio]
In questa puntata di "Estrattivismo dei dati", si parla di Intelligenza Artificiale con Daniela Tafani, docente di filosofia politica presso il Dipartimento di Scienze Politiche dell'Università di Pisa.
Nella prima parte, viene introdotto il tema, le distorsioni con cui viene volutamente presentato, viene definito l'apprendimento automatico e gli ingredienti tecnologici fondamentali: dati, potenza di calcolo e algoritmi.
Nella seconda parte, viene raccontato come vengano occultati i costi ambientali, estrattivistici ed energetici dei sistemi di IA e di come venga in realtà sfruttato massicciamente il lavoro umano, sottopagato e delocalizzato.
Nella terza parte, vengono approfonditi i rischi delle decisioni automatizzate prese attraverso i sistemi di Intelligenza Artificiale, con la convinzione che siano capaci di prevedere il comportamento di singoli individui, perché si parla di bolla giuridica e perché si propone l’illegalità di default dei sistemi di IA.
Ascolta la puntata su ONDAROSSA
/sicurezza informatica
▶ Truffe online: ecco come non lasciarsi ingannare dal “linguaggio” delle frodi
Secondo un recente studio che ha coinvolto 18 paesi in tutto il mondo, fra cui l’Italia, il 73% della popolazione non individua i segnali di pericolo nelle comunicazioni digitali.
Tra le principali trappole linguistiche, “vincere”, “regalo gratuito”, “offerta esclusiva” e “approfittane subito”. Ecco come riconoscerle e difendersi.
Leggi l'articolo completo su CYBERSECURITY360
/social
▶ Meta mette fine al purgatorio di Trump: torna su Facebook e Instagram nelle prossime settimane
Donald Trump sarà riammesso su Facebook e Instagram nelle prossime settimane.
Lo annuncia Meta spiegando che metterà fine alla sospensione degli account dell'ex presidente dopo due anni di stop: "Il pubblico deve essere in grado di ascoltare cosa dicono i politici così da poter fare scelte informate".
Immediata la reazione di Trump, dalle colonne del social Truth, da lui stesso fondato proprio per reagire alla sospensione dalle altre piattaforme: “Facebook, che ha perso miliardi da quando ha defenestrato il vostro presidente favorito, ha appena annunciato che reintegrerà il mio account - il divieto è una cosa che non sarebbe mai dovuta accadere a un presidente in carica”.
L'ex presidente degli Stati Uniti aveva chiesto di poter tornare su Facebook la settimana scorsa. Riferendolo, il suo team aveva invitato a non "ridurre al silenzio un candidato presidenziale". Il legale dell'ex presidente americano aveva inviato una lettera al fondatore della piattaforma Mark Zuckerberg, chiedendogli "un incontro per discutere della rapida riammissione" di Donald Trump sul social network.
Leggi l'articolo completo su RAI NEWS
▶ Il problema della "piazza digitale"
L'idea di piattaforme di social media come Twitter che funzionano come "piazze digitali" - cioè luoghi pubblici per la libertà di parola e il discorso civico - è stata a lungo radicata nella coscienza pubblica. Questo perché, almeno in parte, i leader tecnologici ci incoraggiano da tempo a vederli come tali.
Il nuovo proprietario di Twitter, Elon Musk, che lo scorso autunno ha twittato di aver acquisito la piattaforma "perché è importante per il futuro della civiltà avere una piazza digitale comune", è solo l'esempio più recente.
Ma mentre uno spazio pubblico di proprietà privata come Twitter potrebbe sembrare uno spazio per il discorso pubblico - dopo tutto, chiunque può twittare o leggere tweet - non lo è.
Ogni volta che un'azienda privata è costretta a fare delle scelte sulla natura dei contenuti nella conversazione che ospita, che si tratti di Facebook o Twitter, o di una banca proprietaria di una piazza, e deve decidere quali proteste consentire lì, un'azienda e i suoi leader determinano chi può dire cosa.
Il resto del nostro accesso a questi spazi pubblici di proprietà privata può essere, e spesso lo è, limitato, il tutto senza che sappiamo esattamente perché.
Basta guardare cosa è successo su Twitter il mese scorso, quando decine di giornalisti critici nei confronti di Musk sono stati improvvisamente banditi dalla piattaforma.
Leggi l'articolo completo (in inglese) su RAND
▶ Cory Doctorow e la enshittification: perché i servizi online e i social network commerciali diventano tutti tossici
Ecco come muoiono le piattaforme: dapprima trattano bene i propri utenti; poi abusano dei loro utenti per migliorare le cose per i loro clienti commerciali; e infine abusano di quei clienti commerciali per riprendersi tutto il valore e tenerlo per loro. E poi muoiono.
Questo processo è una conseguenza a quanto pare inevitabile che nasce della combinazione della facilità nel cambiare il modo in cui una piattaforma alloca valore, combinata con la natura di un “mercato a due parti”, laddove una piattaforma si piazza fra venditori e acquirenti e tiene ciascuno in ostaggio per l’altro, portandosi via una quota sempre più grande del valore che passa tra loro.
Quando una piattaforma prende il via, ha bisogno di utenti e quindi si rende preziosa per loro. Pensate ad Amazon: per molti anni ha operato in perdita, usando il suo accesso al mercato dei capitali per sovvenzionare tutto quello che compravate. Vendeva beni sottocosto e li spediva sottocosto. Gestiva un sistema di ricerca pulito e utile. Se cercavi un prodotto, Amazon faceva l’impossibile per piazzarlo in cima ai risultati di ricerca.
Leggi l'articolo completo sul BLOG DI PAOLO ATTIVISSIMO
/privacy
▶ Videosorveglianza o contro-sorveglianza?
Il Garante Privacy, in linea con quanto stabilito dal Consiglio d’Europa, ritiene di estrema delicatezza l’utilizzo delle tecnologie di riconoscimento facciale per finalità di prevenzione e repressione reati.
In particolare “Sari Realtime (il sistema in uso dalla Polizia italiana n.d.s.) realizzerebbe una forma di sorveglianza indiscriminata/di massa *[…], un trattamento automatizzato su larga scala, che può riguardare anche persone presenti a manifestazioni politiche e sociali, che non sono oggetto di “attenzione” da parte delle forze di polizia” afferma il Garante, sostenendo infine che “segnerebbe un passaggio dalla sorveglianza mirata di alcuni individui alla possibilità di sorveglianza universale”.
Se questi sono i suggerimenti dell’organo collegiale italiano per la protezione dei dati personali anche in ottemperanza a quanto previsto dall’Unione Europea, come mai la legge di bilancio prevede una voce di spesa espressamente dedicata alla videosorveglianza? E perché non viene fornita alcuna informazione precisa relativa alla tipologia di sistema di videosorveglianza che i comuni potranno introdurre?
Leggi l'articolo completo su PRIVACY NETWORK