Vedi traduzione automatica
Questa è una traduzione automatica. Per vedere il testo originale in inglese cliccare qui
#News
{{{sourceTextContent.title}}}
AI, la legge ed il nostro futuro
{{{sourceTextContent.subTitle}}}
Gli scienziati ed i responsabili della politica hanno converso al MIT il martedì per discutere uno dei problemi più duri in intelligenza artificiale: Come governarla.
{{{sourceTextContent.description}}}
Il primo congresso della politica del MIT AI ha caratterizzato sette tavole rotonde che si espandono attraverso varie applicazioni di AI e 25 altoparlanti — compresi due ex capi del personale della Casa Bianca, ex segretari di gabinetto, capi di sicurezza di patria e di politica in materia di difesa, capi della società civile e di industria ed autorevoli ricercatori.
Il loro fuoco comune: come sfruttare le opportunità che il AI sta creando — attraverso le aree compresi trasporto e sicurezza, medicina, lavoro, giustizia penale e sicurezza nazionale — mentre vigoroso confrontando le sfide, compreso il potenziale per polarizzazione sociale, l'esigenza della trasparenza e i misteps che potrebbero bloccare l'innovazione di AI mentre esacerbavano i problemi sociali negli Stati Uniti ed intorno al mondo.
«Quando si tratta di AI nelle aree di fiducia pubblica, l'era di muoversi velocemente e di rottura del tutto è più,» ha detto il R. David Edelman, direttore del progetto sulla tecnologia, sull'economia e sulla sicurezza nazionale (DIECI) all'iniziativa della ricerca della politica di Internet del MIT (IPRI) e su un ex assistente speciale al presidente per la politica della tecnologia ed economica nella Casa Bianca di Obama.
Edelman aggiunto: «C'è semplicemente troppo in gioco per tutti noi per non avere un'opinione.»
Daniel Weitzner, direttore fondante di IPRI e un ricercatore principale al laboratorio dell'informatica del MIT e di intelligenza artificiale (CSAIL), hanno detto che un obiettivo chiave del dialogo era di aiutare gli analisti della politica a ritenere sicuri circa la loro capacità attivamente di modellare gli effetti di AI sulla società.
«Spero che i responsabili della politica vengano via con un chiaro senso che la tecnologia di AI non è un certo oggetto immobile, ma piuttosto che la giusta interazione fra l'informatica, il governo e la società in generale contribuirà a modellare lo sviluppo di nuova tecnologia per rispondere ai bisogni della società,» Weitzner ha detto al termine dell'evento.
Il congresso della politica del MIT AI è stato organizzato da IPRI, accanto ad una riunione di due giorni dell'organizzazione per la cooperazione e lo sviluppo economico (OCSE), l'associazione intergovernativa di Parigi, che sta sviluppando le raccomandazioni di politica di AI per 35 paesi intorno al mondo. Come componente dell'evento, gli esperti nell'OCSE hanno partecipato ad un corso di formazione mezzo giorno e pratico in apprendimento automatico, poichè hanno preparato e verificato una rete neurale sotto la guida di Hal Abelson, la classe di professore 1922 dell'informatica e dell'ingegneria al MIT.
Il forum di martedì inoltre ha cominciato con un iniettore sullo stato dell'arte nel AI da Antonio Torralba, da un professore in CSAIL e nel dipartimento di elettrotecnico e dell'informatica (EECS) e da direttore della ricerca del MIT per intelligenza. Si noti che «ci sono tante cose che continuano» nel AI, Torralba ha fatto battute: «È molto difficile da conoscere che cosa il futuro è, ma è ancora più duro conoscere che cosa il presente è.»
Un nuovo «impegno per affrontare le edizioni etiche»
L'evento di martedì, organizzato in collaborazione dal IPRI e dalla ricerca del MIT per intelligenza, è stato tenuto in un momento in cui il AI sta ricevendo una quantità significativa di attenzione di media — e un livello senza precedenti dell'investimento finanziario e del sostegno istituzionale.
Per parte sua, il MIT ha annunciato nell'ottobre 2018 che stava fondando il MIT Stephen A. Schwarzman College di computazione, di sostegno da un regalo $350 milioni da Stephen Schwarzman, che servirà da nesso interdisciplinare della ricerca e istruzione in informatica, dati la scienza, AI e campi relativi. L'istituto universitario inoltre affronterà la politica e le edizioni etiche per quanto riguarda computare.
«Qui al MIT, siamo ad un momento unico con il lancio imminente di nuovo istituto universitario del MIT Schwarzman di computazione,» Weitzner abbiamo notato. «L'impegno per affrontare politica e le edizioni etiche nel risultato di calcolo di volontà nella nuova ricerca di AI e nel curriculum per formare gli studenti per sviluppare nuova tecnologia per soddisfare le esigenze della società.»
Altre istituzioni stanno assumendo un impegno ampliato a AI pure — compreso l'OCSE.
«Le cose stanno evolvendo abbastanza rapidamente,» ha detto Andrew Wyckoff, direttore per scienza, la tecnologia e l'innovazione all'OCSE. «Dobbiamo cominciare a provare ad ottenere davanti a quello.»
Wyckoff ha aggiunto che il AI era «una priorità della politica del principale tre» per l'OCSE nel 2019-2020 e che ha detto che l'organizzazione stava formando «un osservatorio della politica» per produrre le valutazioni realistiche dell'impatto del AI, compreso l'emissione di automazione che sostituisce i lavori.
«C'è molto timore là fuori circa [lavoratori] lo spostamento,» ha detto Wyckoff. «Dobbiamo esaminare questo e vedere che cosa è la realtà, contro cui è il timore.»
Una buona quantità di quell'idea stacca più dal gambo da timore che la realtà, ha detto Erik Brynjolfsson, direttore dell'iniziativa del MIT sull'economia di Digital e un professore al MIT Sloan School di gestione, durante una tavola rotonda su fabbricazione e su lavoro.
Confrontato alla gamma di abilità state necessarie nella maggior parte dei lavori, «oggi che apprendimento automatico può fare è molto più stretto,» Brynjolfsson ha detto. «Penso che quello stia andando essere lo status quo per una serie di anni.»
Brynjolfsson ha notato che la sua propria ricerca sull'oggetto, valutante la gamma completa di mansioni specifiche utilizzate in un'ampia varietà di lavori, indica che l'automazione tende a sostituire il qualche ma non tutte quelle mansioni.
«In non singolo di quelle occupazioni l'apprendimento automatico ha eseguito la tavola» delle mansioni, Brynjolfsson ha detto. «Non state andando appena potere inserire molto spesso una macchina.» Tuttavia, ha notato, il fatto che i computer possono usurpare determinate mansioni significa che «la reinvenzione e la riprogettazione» saranno necessaria per molti lavori. Eppure, Brynjolfsson ha sottolineato, «quel processo sta andando giocare fuori durante gli anni, se non le decadi.»
Un paesaggio vario di politica
Un'idea principale ha sottolineato all'evento è che la decisione politica di AI potrebbe spiegare abbastanza diversamente dall'industria all'industria. Per i veicoli autonomi — forse l'applicazione ampio-sollecitata di AI — Gli stati di Stati Uniti hanno potere regolatore significativo e le leggi potrebbero variare notevolmente attraverso i confini di stato.
In una tavola rotonda su AI e trasporto, Daniela Rus, il Andrew e Erna Viterbi Professor di elettrotecnico e l'informatica ed il direttore di CSAIL, hanno rilevato che vede il trasporto «come uno degli obiettivi principali ed una delle questioni principali di adozione per le tecnologie di AI in avvenire attuale e prossimo.»
Rus ha suggerito che l'uso dei veicoli autonomi in alcuni ambienti a bassa velocità e meno complessi potrebbe essere possibile in cinque anni o così, ma inoltre ha fatto chiaramente che i veicoli autonomi vanno meno bene nelle situazioni più complicate e più ad alta velocità e nella lotta in maltempo.
Parzialmente per quelle ragioni, molti veicoli autonomi calcolano per caratterizzare i sistemi in cui gli autisti possono assumere la direzione dei comandi. Ma mentre Rus ha notato, che «dipende dalla capacità della gente di assumere la direzione di istantaneamente,» mentre gli studi attualmente stanno indicando che richiede ad autisti circa nove secondi per presupporre il controllo dei loro veicoli.
La tavola rotonda del trasporto inoltre ha toccato sull'uso di AI in nautico e sistemi di antenne. In quest'ultimo caso, «non potete esaminare gli occhi della vostra copilota di AI e giudicare la loro fiducia,» ha detto John-Paul Clarke, il vice presidente delle tecnologie strategiche ad United Technologies, per quanto riguarda la dinamica complessa delle interfacce uomo/macchina.
In altre industrie, le sfide fondamentali di AI fanno partecipare l'accesso ai dati, un punto sottolineato sia da Torralba che da Regina Barzilay, un professore del MIT sia in CSAIL che in EECS. Durante il pannello sulla sanità, Barzilay ha presentato su un aspetto della sua ricerca, che usa l'apprendimento automatico per analizzare i risultati di mammogramma per migliore individuazione tempestiva di cancro. Nella vista di Barzilay, le sfide tecniche chiave nel suo lavoro che potrebbe essere indirizzato dalla politica di AI comprendono l'accesso a più dati ed alle prove attraverso le popolazioni — di cui tutt'e due può contribuire a raffinare gli strumenti automatizzati di rilevazione.
La materia di quanto il più bene creare l'accesso ai dati pazienti, tuttavia, ha condotto ad alcuni scambi successivi vivaci. Tom Price, ex segreteria sanitaria i servizi sanitari e sociali nell'amministrazione di Trump, ha suggerito che «i dati de-identificati fossero assolutamente la chiave» per avanzare il progresso, mentre alcuni ricercatori del MIT nel sudience hanno suggerito che fosse virtualmente impossible da creare i dati pazienti completamente anonimi.
Jason Furman, un professore della pratica di politica economica a Harvard Kennedy School e una precedente sedia dell'assemblea dei consiglieri economici nella Casa Bianca di Obama, hanno indirizzato la preoccupazione che gli assicuratori avrebbero rifiutato la copertura alla gente basata sulle previsioni AI-generate circa cui la gente molto probabilmente avrebbe sviluppato più successivamente le malattie nella vita. Furman ha suggerito che la migliore soluzione per questa si trovasse fuori del dominio di AI: impedendo rifiuto di cura basato sulle circostanze preesistenti, un elemento della Legge accessibile di cura.
Ma globale, Furman ha aggiunto, «il problema reale con intelligenza artificiale è noi non ha abbastanza.»
Per la sua parte, Weitzner ha suggerito che, invece dei dati medici perfettamente anonimi, «dovremmo acconsentiree su che cosa sono gli usi ammissibili e gli usi impermissible» dei dati, «dal giusto modo di permettere all'innovazione e prendere la segretezza seriamente è prendere la responsabilità seriamente.»
Responsabilità pubblica
Per quella materia, la responsabilità delle organizzazioni ha costituito un'altra pietra di paragone delle discussioni di martedì, particolarmente in un pannello su applicazione di legge e su AI.
«Il governo che le entità devono essere trasparenti circa cui stanno facendo riguardo a AI,» ha detto il conferenziere di Harvard Law School, di Jim Baker e l'ex responsabile area legale del FBI. «Penso che è ovvio.»
Carol Rose, direttore esecutivo del capitolo del Massachusetts del sindacato americano delle libertà civili, ha messo in guardia contro sovra-uso degli strumenti di AI nell'applicazione di legge
«Penso che il AI abbia promessa tremenda, ma realmente dipende se gli scienziati di dati ed il lavoro di applicazione di legge insieme,» Rosa ha detto, suggerendo che una certa quantità «di scienza del ciarpame» già abbia trasformato il suo modo gli strumenti che sono commercializzati agli agenti incaricati di fare rispettare la legge. Rosa inoltre ha citato Joy Buolamwini di MIT Media Lab come capo nella valutazione di tali strumenti di AI; Buolamwini ha fondato la lega di giustizia algoritmica, un gruppo che controlla l'uso delle tecnologie facciali del riconoscimento.
«A volte ci preoccupo ho un martello di AI che cerca un chiodo,» Rosa ha detto.
Tutto detto, Edelman ha notato nelle osservazioni di chiusura, il mondo della politica consiste «degli enti di legge molto differenti,» ed i responsabili della politica dovranno chiedersi fino a che punto i regolamenti generali sono significativi, o se gli aspetti politici di AI sono affrontati il più bene nei modi più specifici — se in medicina, giustizia penale, o trasporto.
«Il nostro scopo è di vedere il collegamento fra questi campi… ma come facciamo, ci ha lasciati inoltre chiedersi se “il controllo di AI” è la giusta struttura a tutto potesse appena essere che nell'immediato futuro, tutti gli affari di controllo con le edizioni di AI, in un modo o nell'altro,» Edelman ha detto.
Weitzner ha concluso la conferenza con una richiesta per i governi per continuare l'impegno con le comunità tecniche dell'informatica e di intelligenza artificiale. «Le tecnologie che stanno modellando il futuro del mondo stanno sviluppande oggi. Abbiamo l'opportunità di essere sicuri che rispondono alle esigenze della società se continuiamo questo dialogo come modo dell'informazione la progettazione tecnica e della ricerca inter-disciplinare.»