Puntata perlopiù raccogliendo le ultime newsletter della giornalista Carola Frediani, che seleziona e cita diversi articoli da tutto il mondo nella sua newsletter settimanale, nello specifico:
https://guerredirete.substack.com/p/guerre-di-rete-spie-telegram-e-software
https://guerredirete.substack.com/p/guerre-di-rete-padri-padrini-padroni
https://guerredirete.substack.com/p/guerre-di-rete-geoff-hinton-e-uscito
per farsi un quadro sugli sviluppi, difetti e problemi politici delle AI.
Qui la lettere aperta sulle AI firmata da un gruppo internazionale di persone esperte nel campo dei diritti umani in campo digitale:
L’articolo completo:
Segnaliamo inoltre di sentirsi i risvolti sul lato securitario e di controllo delle persone:
TRADUZIONE DELLA LETTERA APERTA dell’8 maggio 2023
Lettera aperta ai media e ai responsabili politici: esperti tecnologici della maggioranza globale
Cari giornalisti e responsabili politici:
Noi sottoscritti, donne e persone non binarie della maggioranza globale che lavorano in prima linea nel campo dell’intelligenza artificiale e delle politiche tecnologiche, invitiamo i media e i responsabili politici a
ad ampliare la loro copertura delle sfide derivanti dalla tecnologia digitale, ad attingere alle nostre conoscenze collettive e ad ampliare il bacino di persone esperte ricercattrici su questi temi.
Per troppo tempo la copertura mediatica delle minacce e dei rischi della tecnologia è stata definita dai CEO e dai loro dipartimenti di pubbliche relazioni.
Nel frattempo, i danni di queste tecnologie continuano a ricadere in modo sproporzionato sulle comunità di cui facciamo parte.
Allo stesso tempo, i responsabili delle politiche a livello globale stanno lottando per tenere il passo con gli sviluppi tecnologici e per
difendere efficacemente le persone dagli eccessi dei potenti baroni della tecnologia.
Le donne e le persone non binarie di tutta la maggioranza globale sollevano costantemente le preoccupazioni sui modi in cui la tecnologia sta danneggiando le nostre comunità, nonostante i grandi rischi personali e professionali.
Abbiamo esaminato il modo in cui la tecnologia, e in particolare l’IA, ha minato la democrazia e danneggiato le comunità storicamente oppresse, come le donne, le persone di colore, LGBTQIA+, FLINTA, minoranze etniche e persone economicamente svantaggiate in tutto il mondo.
Abbiamo scritto libri, affrontato regimi oppressivi con coraggiosi reportage, denunciato alcuni dei più grandi gruppi di aziende tecnologiche del nostro tempo, abbiamo condotto ricerche quantitative e partecipative, abbiamo organizzato campagne contro l’odio che hanno aumentato il controllo pubblico sulle aziende tecnologiche e altro ancora.
Per queste e altre posizioni abbiamo perso opportunità professionali e personali, e alcuni di noi sono stati costretti all’esilio per aver parlato contro regimi oppressivi.
Abbiamo sperimentato in prima persona l’impatto dei sistemi di IA, intelligenza artificiale usati per discriminarci, quando le aziende tecnologiche cercano di metterci a tacere, quando le campagne di odio e di molestie ci prendono di mira, e quando i governi sfruttano la tecnologia per sorvegliarci e opprimerci.
Eppure, nelle consultazioni sui rischi e le sfide che le nuove tecnologie comportano, noi rimaniamo emarginati.
Poiché discutiamo di pericoli reali e attuali e non di fantascienza, le nostre preoccupazioni vengono presentate come trascurabili.
Nel frattempo, gli ex dirigenti delle aziende tecnologiche diventano
attivisti di passaggio, anche dopo aver tratto profitto dai sistemi che hanno creato e che hanno ulteriormente radicato le loro aziende in cima all’economia globale.
La scorsa settimana il dottor Geoffrey Hinton ha lasciato Google e ha lanciato gravi avvertimenti sui rischi dell’intelligenza digitale.
I media lo hanno accolto con un’ampia copertura, definendolo il “padrino dell’intelligenza artificiale”, e con richieste di incontri e indicazioni da parte dei politici e amministratori delegati del settore tecnologico. In un’intervista alla CNN, quando gli è stato chiesto di parlare di altri informatori come il dottor Timnit Gebru, Hinton ha affermato che le preoccupazioni di Gebru non sono “esistenziali” come quelle da lui sollevate.
Rifiutiamo la premessa che solo gli uomini bianchi e ricchi possano decidere cosa costituisce una minaccia esistenziale per la società, e chiediamo ai politici e ai media di diversificare le loro fonti.
Per le persone di colore, donne, persone LGBTQIA+, FLINTA, minoranze religiose e di casta, popolazioni indigene, migranti e altre comunità emarginate, la tecnologia ha sempre rappresentato una minaccia esistenziale.
minaccia, che è stata ripetutamente sfruttata per garantire la nostra inferiorità nelle strutture di potere della società.
Le osservazioni di Hinton sono solo le ultime di una lunga storia globale in cui si ignorano gli allarmi lanciati da chi non è un uomo di sesso maschile.
Permettiamo a queste percezioni ristrette del rischio di stabilire i termini del dibattito sull’IA.
Per i rifugiati che perdono il diritto d’asilo a causa del razzismo radicato nella gestione delle frontiere, i rischi attuali sono esistenziali.
Per le persone che perdono l’accesso a servizi finanziari a causa di pregiudizi codificati, il rischio è esistenziale. Le reti chiuse che questi uomini rappresentano non possono definire completamente il problema e non hanno tutte le soluzioni.
Vi invitiamo a coinvolgere attivamente la nostra profonda esperienza. Ma soprattutto, vi chiediamo di chiedere consiglio alle comunità più colpite dalla tecnologia e dall’IA come passo fondamentale per approfondire la comprensione e la responsabilità. Abbiamo dedicato la nostra vita a
che la tecnologia digitale sia una forza per la giustizia, la democrazia e la liberazione, e non uno strumento di oppressione.
Siete con noi?
Cordiali saluti,
Rosemary Ajayi, Fondatrice del Digital Africa Research Lab (DigiAfricaLab)
Esra’a Al Shafei, Fondatore e Direttore esecutivo di Majal.org. Membro del consiglio di amministrazione della Fondazione Wikimedia
Fondazione e del Progetto Tor
Htaike Htaike Aung, attivista per i diritti digitali, Progetto Internet Myanmar
Dr. Sasha Costanza-Chock, professore associato della Northeastern University, autore di Design Giustizia: Community-Led Practices to Build the Worlds We Need (Pratiche guidate dalla comunità per costruire i mondi di cui abbiamo bisogno)
Nighat Dad, fondatrice e direttrice esecutiva della Fondazione per i diritti digitali
Marianne Díaz Hernández, attivista e ricercatrice per i diritti digitali, attivista della campagna #WhyID presso Access Now
Dr. Timnit Gebru, fondatore e direttore esecutivo dell’Istituto di ricerca sull’intelligenza artificiale distribuita (DAIR).
(DAIR)
Arzu Geybulla, Giornalista, Fondatore di Azerbaijan Internet Watch
Jessica J. González, co-CEO di Free Press, co-fondatrice di Change the Terms, Stop Hate for Profit e Stop Toxic Twitter
Jac sm Kee, attivista tecnologica femminista, cofondatrice e direttrice del Fondo Numun
Libby Liu, CEO di Whistleblower Aid, creatrice di Open Technology Fund
Safiya U. Noble, docente UCLA, autrice di Algorithms of Oppression: Come i motori di ricerca Reinforce Racism, borsista MacArthur e fondatrice del Center on Race and Digital Justice.
Nanjala Nyabola, scrittrice e scienziata politica, indipendente
Paola Ricaurte, Professore associato del Tecnológico de Monterrey; Facoltà associata del Berkman Klein Center for Internet & Society; Co-fondatore del Berkman Klein Center for Internet & Society. Centro per Internet e la Società; co-fondatrice della Rete Tierra Común; leader del LAC Hub, Feminist AI Research Network, f<A+i>r