Massimo Onofri – Il Blog

Intelligenza artificiale, cosa fanno Francia, Italia, Europa e Usa

L’analisi di Jean-Pierre Darnis dell’Istituto Affari Internazionali

Il 29 marzo, Emmanuel Macron ha illustrato la strategia francese per l’Intelligenza Artificiale, dopoun’illustrazione della materia da parte del deputato e matematico francesce Cédric Villani. Il giorno successivo, Macron ha concesso un’intervista al mensile americano Wired, la bibbia mondiale dei geeks. All’annuncio della mobilitazione di 1,5 miliardi di euro in fondi pubblici per lo sviluppo dell’IA, Macron ha aggiunto il potenziamento della ricerca pubblica sotto la guida dell’Inria (Institut National de Recherche en Informatique et Automatique), il sostegno all’iniziativa di investimento tecnologico Jedi, una dichiarazione in cui si dice che l’Amministrazione francese utilizzerà in futuro algoritmi trasparenti per le sue applicazioni e annunci sulla creazione o sul potenziamento dei centri francesi di ricerca sull’IA di Google, Facebook, Samsung o Fujitsu.

UNA ‘VIA EUROPEA’ ALL’INNOVAZIONE TECNOLOGICA

Presi separatamente, questi elementi potrebbero sembrare dettagli tecnici. In realtà, essi si collegano fra di loro in quella che appare essere un’ampia visione politica, ben espressa nell’intervista a Wired. Macron parla di una “via europea” all’ intelligenza artificiale, che si deve differenziare sia da quella statunitense sia da quella cinese, collocando la visione politica al centro della scelta tecnologica e insistendo sul connubio fra i due elementi. Macron, inoltre, dice che la promozione di un modello politico passa attraverso le scelte tecnologiche, un elemento ben presente alla comunità tech, ma che finora difficilmente emergeva nei discorsi politici.

La distinzione fra modello europeo e statunitense è già stata messa in evidenza dallo scandalo Cambridge Analytics, in cui è emerso che l’Europa privilegia la regolamentazione tramite strumenti normativi come la Gdpr, mentre gli Stati Uniti preferiscono una miscela fra sviluppo libertario della tecnologia e liberismo nel mercato privato. Macron, non solo parla di Europa, ma evoca pure una possibile regolamentazione sul mercato statunitense tramite leggi antitrust.

LE DIFFERENZE TRA UE, USA E CINA: VISIONI, NON SOLO GADGET

La differenziazione dell’Europa nei confronti della Cina poggia sul rifiuto del controllo tecnologico totalitario che si sta sviluppando in quel Paese. Tra gli esempi più inquietanti c’è la costruzione del Social Credit System che prevede di dare un punteggio ai cittadini seconda della loro “affidabilità sociale”.

Tra gli aspetti più interessanti delle recenti dichiarazioni di Macron c’è, al contrario, la sua difesa di un ordine liberale non globale, ovvero la rivendicazione della scala nazionale o europea come luogo fondamentale di esercizio della democrazia, anche collegata a una politica fiscale che permetta una ridistribuzione in grado di compensare gli impatti negativi dell’evoluzione tecnologica. Un punto importante è la difesa di una visione che si potrebbe definire “classica” di un ‘liberalismo alla francese’.

UNA RISPOSTA ALLA CRISI DELL’IPER-LIBERALISMO

Con la rivendicazione della scala democratica nazionale ed europea, anche come luogo di redistribuzione e quindi di giustizia sociale, e l’accento messo sul progresso umano, Macron rivisita il positivismo di Auguste Comte per adattarlo alle esigenze moderne: una visione di liberalismo che si riconcilia anche con Saint-Simon.  Si tratta di un’operazione interessante perché formula una risposta alla crisi del liberalismo, o per essere più precisi alla crisi dell’iper-liberalismo che investe l’insieme delle società occidentali.

Vi è quindi una visione della tecnologia usata per rinnovare il modello classico di Stato-Nazione, concepito anche come modello europeo. Si tratta di riflessioni che possono avere un riscontro positivo pure in Italia. Nell’attuale contesto politico, osserviamo poca mobilitazione intorno alle tematiche tecnologiche. Uno dei punti più rilevanti è stato il rapporto sull’ Intelligenza Artificiale presentato dalla task force AI dell’Agid (Agenzia per l’Italia Digitale).

L’ATTENZIONE DELL’ITALIA E I POTENZIALI IMPATTI POLITICI E SOCIALI

Il rapporto insiste sul ruolo potenziale dell’AI nei rapporti con i cittadini e nelle sue applicazioni pubbliche, una linea che incrocia la visione dell’AI pubblica “aperta” enunciata da Macron. Nell’arco politico italiano possiamo rilevare l’impegno di Davide Casaleggio e del suo studio sul tema dell’ Intelligenza Artificiale per il comparto aziendale, il che sta determinando una sensibilità alla questione del M5S con riscontri anche sul blog di Beppe Grillo.

Tra l’altro, diversi esponenti del M5S stanno proponendo il tema della rivoluzione digitale, designando la società a controllo pubblico Open Fiber come veicolo privilegiato della digitalizzazione italiana. Anche li possiamo vedere un’impostazione piuttosto vicina a quella francese, con l’insistenza sul ruolo motore del settore pubblico come investitore e sviluppatore di capacità e pure su quello della Pubblica Amministrazione come luogo di realizzazione di una trasparenza digitale.

Infine va rilevato che in ambienti para-vaticani, si sta svolgendo un’approfondita riflessione sull’uomo e l’Intelligenza Artificiale. La recente organizzazione di un hackathon in Vaticano (V Hack), pur se non strettamente legata alla tematica AI, è indicativa dell’interesse della Santa Sede per l’argomento digitale, con la partecipazione del Cortile dei Gentili, il forum di dialogo voluto dal Pontificio Consiglio per la Cultura. Pur con impostazioni diverse, vi è centrale la tematica dell’uomo e dell’umanesimo nell’ Intelligenza Artificiale.

UNA FORTE CONVERGENZA FRA ATTORI DIVERSI SULL’INTELLIGENZA ARTIFICIALE

Macron ha una sua strategia francese, ma possiamo constatare che in Italia ci sono tendenze disparate ma in qualche misura convergenti con la visione francese. La visione umana dell’ Intelligenza Artificiale con un forte ruolo dello Stato ben corrisponde alle tradizioni di entrambi i Paesi  e illustra anche una relativa convergenza con il liberalismo mitigato da visioni sociali e da volontà di tutela nazionale ed europea che è stato espresso con forza dal presidente francese, ma che si ritrova  anche nelle dichiarazioni di vari attori italiani.

Tutto ciò comporta una dinamica molto significativa. Anche se gli attori sembrano separati da barriere politiche o istituzionali, esiste una paradossale ma forte convergenza sul tema dell’ Intelligenza Artificiale, sia nel contesto francese e/o italiano sia nel contesto europeo. La crescita della presidenza Macron sotto il profilo della strategia per l’AI rappresenta un passo fatto importante, che chiama in causa altri governi europei per fare progredire il consenso nell’Unione Europea. L’Italia ne ha tutte le capacità, basta che ci sia un governo.

ISCRIVITI ALLA NOSTRA NEWSLETTER

Iscriviti alla nostra mailing list per ricevere la nostra newsletter

Iscrizione avvenuta con successo, ti dovrebbe arrivare una email con la quale devi confermare la tua iscrizione. Grazie, il tuo Team Start Magazine

Errore

Rispettiamo la tua privacy, non ti invieremo SPAM e non passiamo la tua email a Terzi

AlterEgo, il dispositivo che trascrive le frasi bisbigliate

Parlare fra sé e sé, a voce bassissima e in maniera da non essere percepiti dagli altri – un’azione quasi intermedia fra il parlare e il pensare – può diventare spesso un’abitudine. Per non perdere le nostre vocalizzazioni interne, che possono contenere idee e concetti importanti, oggi un nuovo strumento di intelligenza artificiale consente di rilevarle e trascriverle su schermo . A metterlo a punto è un gruppo di ricercatori del Mit Media Lab. Così, mentre studiamo, cuciniamo, siamo intenti nel lavoro o in altre attività, questo sistema, chiamato AlterEgo, consentirebbe di non perdere le nostre conversazioni silenziose e di metterle per iscritto, ad esempio sul pc o su altri dispositivi digitali. I risultati sono stati presentati alla 23esima International Conference on Intelligent User Interfaces dal gruppo del Mit Media Lab.

Il sistema è costituito da un dispositivo indossabile, che si appoggia sull’orecchio e segue la mandibola. Questa sorta di cuffia-microfono hi-tech si collega, senza fili, ad un sistema di calcolo basato sul machine learning, cioè un insieme di metodi di apprendimento automatico (che rientrano nei sistemi di intelligenza artificiale), i quali riportano per iscritto le conversazioni fra sé e sé della persona.

L’idea di studiare le vocalizzazioni interne, o sotto-vocalizzazioni, nasce nel ‘900, ma viene approfondita soltanto a partire dagli anni ’50. Uno dei risultati più importanti, negli anni ’60, all’interno dello speed-reading, cioè della trascrizione della lettura veloce, fu quello di eliminare queste sottovocalizzazioni, rendendo il discorso a voce alta più nitida.

Il modello hi-tech odierno, invece, mette a fuoco proprio le conversazioni secondarie e silenziose. Per farlo, si fonda su analisi acustiche molto sottili: alcuni elettrodi rilevano i segnali neuromuscolari nella mandibola e sulla faccia, attivati proprio dalla verbalizzazione interna.

Gli autori hanno chiesto a un gruppo di 10 partecipanti di riprodurre più volte una serie di parole, individuando tramite elettrodi i punti del viso in cui questi segnali erano più riproducibili e potevano essere colti con maggiore facilità. Una volta selezionati questi snodi facciali, hanno raccolto dati di brevi frasi di circa 20 parole, una contenente calcoli di aritmetica(addizioni e moltiplicazioni) e una le mosse degli scacchi. Raccolti i dati, poi, hanno utilizzato un network neurale che ha consentito di individuare le associazioni fra i segnali neuromuscolari e le parole associate. In questo caso, l’accuratezza, cioè la precisione, nella trascrizione, è stata pari al 92%. E si può fare ancora di più, includendo un numero maggiore di vocaboli utilizzabili e raccogliendo più dati.

Le applicazioni di questo sistema di intelligenza artificiale potrebbero essere molteplici. Per esempio, per utilizzare le app sui dispositivi mobili e cercare informazioni si deve distogliere l’attenzione dall’attività che si sta svolgendo per digitare la richiesta ad esempio sul cellulare. Così, il team di ricerca ha voluto sperimentare nuove modalità di utilizzo della tecnologia senza dover interrompere ciò che si sta facendo. Oppure, quando ci si trova in ambienti silenziosi e non si può parlare a voce alta. Altre applicazioni specifiche e utili, secondo gli autori potrebbero essere cuffie per i controllori dell’atterraggio degli aerei, situazioni in cui vi è frastuono e non si riesce bene a comunicare. Ma potrebbe essere d’aiuto anche per persone che hanno una patologia per cui non riescono a parlare normalmente, ad esempio pazienti con un tumore che ha colpito le corde vocali e che potrebbero beneficiare di un sintetizzatore (in questo caso vocale e non per iscritto) che si impegni per loro.

Via: Wired.it

L’articolo AlterEgo, il dispositivo che trascrive le frasi bisbigliate sembra essere il primo su Galileo.

L’intelligenza artificiale di Ibm dibatte sull’uso della telemedicina

Per verificare se l’intelligenza artificiale possa partecipare a un dibattito con le persone i e portare un contributo dialettico alla presa di decisioni o alla sintesi di punti di vista diversi presso l’IBM Watson Center di San Francisco è stato condotto un doppio test.

Nel primo il campione di dibattiti israeliano Noa Ovadia e il sistema di intelligenza artificiale IBM Project Debater hanno argomentato a favore e contro la dichiarazione: “Dovremmo sovvenzionare l’esplorazione spaziale“.

Entrambe le parti hanno avuto la possibilità di esporre la loro dichiarazione di apertura in quattro minuti, una confutazione in altri quattro minuti e un sommario finale di due minuti.

Project Debater ha fatto la sua dichiarazione iniziale sostanziandola con dati, sostenendo poi che l’esplorazione spaziale può avvantaggiare il genere umano poiché aiuta a far progredire le scoperte scientifiche e ispira i giovani ad aprire la mente verso nuove realtà.

Noa Ovadia, campione israeliano di dibattito nel 2016, si è opposto sostenendo che ci sono ambiti migliori per utilizzare i fondi pubblici: nella ricerca sulla Terra, per esempio.

Dopo aver ascoltato l’argomentazione di Noa, Project Debater ha rilanciato confutando con l’idea che i potenziali benefici tecnologici ed economici derivanti dall’esplorazione spaziale siano superiori alle altre spese affrontate dai Governi.

A seguito delle conclusioni esposte da entrambe le parti, un sondaggio istantaneo tra il pubblico ha mostrato che la maggioranza degli ascoltatori riteneva che Project Debater avesse elementi di conoscenza rilevanti sul tema affrontato.

Ciò che ha impressionato l’uditorio è che un sistema di intelligenza artificiale impegnato in un dibattito assieme ad un esperto umano, abbia ascoltato le sue argomentazioni e abbia risposto in modo convincente con il proprio ragionamento senza un copione prestabilito.

Secondo test: come usare la telemedicina

Nella seconda fase del test, un secondo dibattito ha visto impegnati il sistema IBM ed un altro esperto israeliano, Dan Zafrir, per dibattere sulla dichiarazione: “Dovremmo aumentare l’uso della telemedicina“.

Project Debater non era stato istruito in precedenza sul tema e, ciò nonostante, è comunque stato in grado di argomentare efficacemente.

Ladomanda più significativa che sorge al termine del nuovo test sulle capacità dell’intelligenza artificiale: qual è lo scopo di Project Debater?

Nel corso del tempo, e negli ambiti aziendali compatibili con questa applicazione, ci muoveremo sempre più verso l’utilizzo di questo sistema di intelligenza artificiale per agevolare il ragionamento, il problem solving, su questioni che non sono ancora state risolte.

Il ruolo svolto da Project Debater sarà quello di facilitatore nel far meglio circolare pensieri, opinioni, punti di vista e riflessioni per arrivare ad una sintesi efficace ed efficiente. Un “Thinker” al servizio di pensatori in carne ed ossa.

Project Debater riflette la missione di “IBM Research” di sviluppare un’intelligenza artificiale che impari diverse discipline per aumentare le capacità umane. Gli assistenti di inteligenza artificiale sono diventati molto utili per noi grazie alla loro capacità di condurre ricerche per sofisticate parole chiave e rispondere a semplici domande o richieste.

Project Debater esplora un nuovo territorio: assorbe enormi e diversificate serie diinformazioni e opinioni per aiutare le persone a costruire ragionamenti convincenti e prendere decisioni consapevoli.

Questa tecnologia si espanderà grazie alle capacità di IBM Watson, utilizzando già le API di Watson Speech to Text, e contribuirà a migliorare le funzionalità avanzate di dialogo e linguaggio di Watson. Le future tecnologie di Project Debater saranno commercializzate in IBM Cloud.

Come si è arrivati a Project Debater

Costruire il sistema è stata una sfida difficile e complessa per Ibm. Negli ultimi sei anni, un team di ricerca IBM globale guidato dal laboratorio di Haifa, in Israele, ha dotato Project Debater di tre capacità, ognuna delle quali innovativa nell’ambito dell’Interlligenza artificiale: la scrittura e l’esposizione di un discorso basato sui dati; la comprensione e l’ascolto che può identificare affermazioni chiave all’interno di un discorso lungo e continuo; la modellazione dei dubbi dell’uomo in un grafico di conoscenza unico per consentire ragionamenti etici (qui i 30 articoli pubblicati con accesso ai set di dati di addestramento).

Il test condotto a San Francisco è un passo significativo nel progresso dell’intelligenza artificiale: grazie a queste nuove funzionalità, questa intelligenza artificiale potrà interagire ancora più naturalmente ed in modo empatico con le persone, rendendo più efficace il supporto alle decisioni umane.

L’articolo L’intelligenza artificiale di Ibm dibatte sull’uso della telemedicina è un contenuto originale di 01health.

I 5 punti cardine del cambio di paradigma portato da Intelligenza Artificiale e realtà virtuale

Intelligenza Artificiale e realtà virtuale sono fenomeni esponenziali che portano con sé enormi opportunità ma anche grandi rischi

A cura di Giuseppe Caiazza, CEO IPG Mediabrands/McCann Worldgroup Italia

Mi trovo davanti a uno schermo su cui è proiettato un video di otto anni fa (febbraio 2010), sono a Barcellona al Mobile World Congress 2018: parla Eric Schimdt – allora amministratore delegato di Google – e quello che dice è: “Tra qualche anno sarà tutto mobile”. In otto anni non solo questa “premonizione” è diventata realtà, ma ci sembra anche scontato che sia così. Ve lo immaginate un mondo in cui non si possa fare un acquisto dal nostro telefonino? O in cui se vi viene fame, ma è domenica e non avete voglia di uscire, non possiate ordinare un pasto da una delle tante piattaforme di food delivery? O, anche più semplicemente, immaginatevi di dover raggiungere un posto che non conoscete e vi troviate senza connessione, niente Google Maps, niente rete per fare una telefonata… Cosa fareste?

Cosa faremmo, oggi, senza la tecnologia mobile? E come è potuto accadere tutto così velocemente? Sembra un’eternità che facciamo uso del mobile, ma non è così: sono fenomeni esponenziali, che accorciano i tempi impiegati per percorrere una stessa distanza. Ci sono voluti secoli per inventare la prima linea telefonica, rimasta pressoché uguale per circa un secolo, in 40 anni poi è successo di tutto: il primo telefono cellulare, il primo smartphone, le videochiamate, le app, l’intelligenza artificiale.

Cinque i punti cardine di questo cambiamento, raccolti su IPG WAREHOUSE, la piattaforma che analizza ricerche ed approfondimenti legati a temi sociali e di attualità.

Più velocità, più opportunità

Nel giro di pochi anni sono comparse e diventate comuni cose che non avremmo saputo immaginare. Nel 2010 l’unico modo per fare una telefonata video era via Skype, oggi possiamo farlo da ogni app di messaggistica che usiamo normalmente per comunicare con amici e colleghi. Le app oggi ci conoscono più di quanto ci conosciamo noi stessi. Pensate a Spotify che vi suggerisce la musica che vi potrebbe piacere (e ha quasi sempre ragione). O ad Uber che è probabilmente in grado di stimare e ottimizzare gli spostamenti delle persone meglio del trasporto pubblico grazie proprio all’utilizzo dei dati. O a Facebook, che sa molte più cose di noi stessi di quante noi stessi ne sappiamo (ci ricordiamo tutti i like che abbiamo messo a tutti i nostri amici)? Ci stiamo insomma spostando verso un’economia basata sui dati e sulla capacità di attivarli per offrire servizi, prodotti e comunicazione sempre più mirata alle esigenze del singolo individuo grazie ad applicazioni e piattaforme che diventano ecosistemi aperti che interagiscono tra di loro. Con la nuova tecnologia 5G che ne diventa il propulsore, permettendo la trasmissione dei dati e delle informazioni a velocità siderali.

Più velocità, più rischi

Questa velocità però ha un prezzo. Non si sono accorciati solo i tempi per coprire le distanze, ma anche quelli della memoria umana. La tecnologia accorcia tutto: il nostro cervello è così tanto stimolato e così tanto concentrato sul presente che tutto è, o deve essere, immediato. Conseguentemente ricordiamo meno e siamo più vulnerabili alle cosiddette fake news, che a volte, come abbiamo potuto constatare negli ultimi anni, possono condizionare pesantemente i comportamenti di intere comunità. L’indigestione di informazioni ci rende anche più superficiali, mettendo a rischio anche la nostra sicurezza. Ci dimentichiamo della nostra privacy e non stiamo attenti a molte cose di cui nella vita reale, invece, ci preoccuperemmo. Se uno sconosciuto ci fermasse per strada e ci chiedesse il nostro indirizzo email, non glielo daremmo. Allora perché lo lasciamo con così tanta facilità sul web, dove spesso non vediamo nemmeno la faccia di chi ce lo sta chiedendo, né ne conosciamo le intenzioni? Il caso Facebook e Cambridge Analytica è solo la punta di un gigantesco iceberg.

Regolamentazioni più stringenti ed educazione digitale

Poiché esiste il rischio concreto di concentrare sempre di più il potere delle grandi piattaforme digitali che sono in grado più di altri di utilizzare appieno i dati e le tecnologie, sono quindi necessarie, verrebbe da dire quasi naturali, azioni molto più stringenti da parte dei legislatori a tutela dei cittadini. In questo senso, la direttiva GDPR che debutta il prossimo 25 Maggio in Europa, rappresenta un primo ed importante tentativo di disciplinare meglio il gigantesco baratto che ha coinvolto tutti noi che abbiamo ceduto informazioni private, a fronte di accesso a servizi gratuiti (e-mail, app, social network, etc.) senza minimamente interessarci a dove i nostri dati andavano a finire o, peggio ancora, a quale uso si facesse degli stessi. Ma sarà la nostra educazione digitale (e soprattutto quella dei nostri figli), insieme alla consapevolezza di questi aspetti, che, al di là della regolamentazione, rappresenterà l’aspetto chiave per una chiarezza di rapporto tra l’utente e il mondo digitale.

Baby Intelligenza Artificiale…

L’Intelligenza Artificiale è stata protagonista della recente edizione del Mobile World Congress. Va chiarito però che siamo ancora a uno stadio elementare, è come se fosse un bambino di 3/4 anni, quindi con possibilità di crescita esponenziale nei prossimi anni. Le interazioni oggi possibili sono infatti abbastanza banali, le più diffuse e visibili sono quelle vocali, ma da Alexa a Siri a Cortana, tutte le assistenti vocali parlano ancora in maniera frammentata e sconnessa. Nel giro di pochi anni invece riusciranno a fare conversazioni più fluide portando con sé anche un coinvolgimento emotivo perché verranno introdotti anche elementi visuali e non solo uditivi. Viviamo in un mondo che produce sempre più dati e che ha già a disposizione tutte le tecnologie per sfruttarli e renderli “intelligenti”… in altre parole, l’intelligenza artificiale diventerà presto adulta…

Grandi opportunità per i brand

Dal punto di vista creativo questa è una grandissima opportunità: i brand devono incominciare a pensare strategie adatte e adattabili all’Intelligenza Artificiale e al grande tema della ‘customer centricity’, cioè della capacità di un brand di ingaggiare e costruire una vera relazione con l’utente offrendo contenuti, messaggi offerte e prodotti per lui rilevanti, in qualsiasi momento.

Una sfida affascinante che verrà ulteriormente velocizzata dagli sviluppi esponenziali della ‘Realtà Virtuale’. Solo quelli che riusciranno ad abbracciarla per tempo, saranno in grado di affrontarla adeguatamente e vincere. È chiaro però che, di fronte a così tante opportunità, anche il paradigma della creatività cambia radicalmente, trasformandosi in un esercizio sempre meno individuale, dove la capacità di aggregare competenze e tecnologie diverse, diventerà il vero fattore critico di successo.

Selezione del personale? Ci pensa l’intelligenza artificiale

Il colloquio di lavoro te lo fa un robot. Non è un esperimento né fantascienza, è pura e semplice realtà, a cui dobbiamo abituarci, perché sono tante, ormai, le esperienze di imprese che, grazie all’intelligenza artificiale, stanno completamente trasformando alcune delle loro attività tradizionali come quella della gestione delle risorse umane.

Ad esempio, Unilever, a partire da luglio 2016, ha rivoluzionato il proprio modo di fare recruiting, sfruttando le potenzialità del mondo digital. Utilizzando la Gamification e l’intelligenza artificiale e superando il concetto stesso di Curriculum Vitae, Unilever ha praticamente reinventato l’attività tradizionale di selezione dei candidati, rendendo il processo sicuramente meno dispendioso in termini di risorse, sia umane che temporali, e migliorandone l’efficienza per l’azienda e per i candidati.

Il colosso anglo-olandese non è l’unica realtà in cui la divisione aziendale dedicata alla gestione del personale sfrutta i vantaggi connessi agli strumenti offerti dall’intelligenza artificiale: anche la famosa catena di hotel Hilton ha ridotto i tempi per la ricerca del candidato ideale da 42 giorni a 5 giorni, grazie a un sistema che analizza i video delle persone mentre rispondono alle domande e passa ai raggi x la voce e i gesti; ad Ikea, invece, i colloqui di lavoro li fa il robot Vera.

Dunque, l’intelligenza artificiale sta letteralmente conquistando i direttori del personale che mirano a rendere più efficiente il processo di selezione e valutazione dei candidati attraverso l’utilizzo di sistemi “intelligenti”.

Secondo una recente ricerca di LinkedIn, Global recruiting trends 2018, i sistemi di intelligenza artificiale risultano particolarmente utili nell’attività di ricerca (58% degli HR manager intervistati) e selezione (56%) dei candidati mentre meno utili per le interviste (6%).

Inoltre, la ricerca evidenzia che tra i maggiori vantaggi ascrivibili all’IA applicata al recruiting c’è il risparmio di tempo (per il 67% del campione), maggiore imparzialità e obiettività (43%) e per una percentuale significativa di HR manager (30%) consente anche un risparmio di risorse economiche.

Anche i dirigenti del personale italiani stanno ricorrendo a strumenti di intelligenza artificiale per l’attività di ricerca e selezione dei candidati: dato che emerge da una recente survey condotta da AIDP (Associazione italiana per la direzione del personale), secondo cui il 58% dei manager italiani (su un campione di 3 mila intervistati) ricorre a robot o sistemi automatizzati nei processi di reclutamento e selezione.

Nonostante gli indubbi vantaggi e potenzialità dell’IA, gli esperti, però, ci tengono a precisare che la decisione finale sui candidati rimane un imprescindibile fattore umano e il processo di reclutamento e selezione non potrà mai essere completamente automatizzato.

Source

http://www.i-com.it/2018/05/08/selezione-del-personale-ci-pensa-lintelligenza-artificiale/

Con l’intelligenza artificiale, le auto autonome si possono trasformarsi in armi

Negli ultimi anni si è parlato molto dei rischi per l’umanità che l’evoluzione delle intelligenze artificiali potrebbe comportare. Gli allarmi lanciati da personalità del calibro di Elon Musk, Stephen Hawking o Bill Gates si sono però sempre concentrati su scenari fantascientifici, che mettevano in guardia, per esempio, da una possibile rivolta delle macchine, pronte a ridurre in schiavitù l’essere umano. 

Questo genere di analisi rischia di distogliere l’attenzione dai pericoli ben più concreti, e imminenti, di una tecnologia come il machine/deep learning. Il report intitolato The Malicious Use of Artificial Intelligence(“l’uso malvagio dell’intelligenza artificiale”), messo a punto da ricercatori di Yale, Oxford, Cambridge e della non-profit OpenAI, si concentra proprio su questi aspetti. 

L’intelligenza artificiale, infatti, viene definita un’innovazione ambivalente: “Gli strumenti per la sorveglianza possono essere usati sia per catturare i terroristi, sia per opprimere i normali cittadini”, si legge per esempio nel report. Allo stesso modo, i droni per le consegnepossono facilmente trasformarsi in armi. 

Ma l’esempio che più di ogni altro può far capire a quali rischi andiamo incontro riguarda le auto autonome: se il cervello elettronico delle self driving cars venisse attaccato da hacker malintenzionati, basterebbe apportare leggerissime modifiche – si legge nel documento – per far sì che l’intelligenza artificiale alla guida dell’auto non sia più in grado di riconoscere i segnali di stop. E questo non è neanche il caso più grave, considerando che già in passatoalcuni hacker hanno dimostrato di poter prendere il controllo in remoto delle auto autonome e dirigerle a piacimento. 

In questo modo, una tecnologia che nasce con la promessa di ridurre gli incidenti anche del 90% può trasformarsi in un’arma nelle mani dei cyberterroristi. Questo non è l’unico caso descritto nel report, che, in generale, mette in guardia da diversi tipi di minacce: l’utilizzo delle AI per sfruttare le vulnerabilità dei software (rendendo ancora più minacciosi gli attacchi DDoS e di altro genere); la capacità delle AI di fornire anche a “individui dotati di scarsa abilità informatica una grande capacità offensiva” (per esempio controllando in remoto un mini-sciame di droni) e infine i rischi causati dalle tecnologie ormai note come “deepfake”, in grado di riprodurre la voce e le fattezze di chiunque e creare, per esempio, finti video di politici inseriti forzatamente nelle situazioni più imbarazzanti. 

In tutti questi casi, comunque, non è l’intelligenza artificiale in sé a essere pericolosa, ma l’uso che se ne può fare. Come aveva spiegato il ricercatore Gordon Briggs – che proprio a questo scopo sta insegnando ai robot a disobbedire ai comandi degli esseri umani – “è molto più probabile che un’intelligenza artificiale compia azioni pericolose perché ha ricevuto precise istruzioni in merito, piuttosto che lo faccia di sua spontanea volontà”. 

Ma il fatto che strumenti progettati con i migliori propositi possano essere utilizzati anche a fini malvagi non è certo una novità; anzi: è qualcosa che caratterizza ogni innovazione ideata dall’uomo, fin dai tempi della scoperta del fuoco. Nel caso dell’intelligenza artificiale, è però il caso di preoccuparsi meno di scenari alla Terminator, per concentrarsi sui veri pericoli che circondano questa straordinaria tecnologia. 

Con l’intelligenza artificiale, le auto autonome si possono trasformarsi in armi

Un report accademico mette in guardia sui pericoli delle AI, ma la fantascienza non c’entra

Source

http://lastampa.it/2018/02/25/tecnologia/idee/con-lintelligenza-artificiale-le-auto-autonome-si-possono-trasformarsi-in-armi-9oOlX7cqZvj4sGhkETJYJK/pagina.html

La Lombardia e’ il principale mercato immobiliare

Il mercato immobiliare della Lombardia e’ primo in Italia, con 123 mila compravendite residenziali stimate per il 2017, pari al 22,2 per cento del totale nazionale. E’ quanto emerge dal rapporto 2017 sul mercato immobiliare della Lombardia, presentato a Milano da Scenari Immobiliari in collaborazione con Casa.it.

La Lombardia rappresenta il principale mercato immobiliare italiano, con il 22,2 per cento delle compravendite residenziali nazionali stimate per il 2017.

La crescita percentuale delle transazioni in Lombardia rispetto al 2016 è pari al 12,8 per cento, ben al di sopra del tasso medio italiano del 7,7 per cento: la regione è passata da 109mila compravendite del 2016 a 123mila attese per fine 2017, mentre l’Italia da 520mila a 560mila per la fine dell’anno.

Seguono il Lazio con 60 mila compravendite (+8%), Emilia Romagna e Piemonte (51 mila), Veneto (50 mila) e Toscana (35 mila). Ultima la Valle d’Aosta con 1.700 compravendite.

E’ quanto emerge dal rapporto 2017 sul mercato immobiliare della Lombardia, presentato a Milano da Scenari Immobiliari in collaborazione con Casa.it.

Per il 2018si prevede un’ulteriore crescita del mercato immobiliare lombardo con oltre 143 mila compravendite residenziali, pari al 16,7% in più rispetto al 2017, contro il 12,5% in Italia, mentre nel 2020 si prevede di raggiungere le 192 mila transazioni.

Tra i capoluoghi di provincia della Lombardia, sul fronte delle compravendite, secondo il rapporto di Scenari Immobiliari e Casa.it, nella città di Milano la definitiva ripresa economica e i nuovi sviluppi immobiliari generano un progressivo incremento delle transazioni e un ritorno di attrattività della città e del suo vivere urbano, che ha avuto un impulso positivo dall’Expo.

A Milano le compravendite nel 2017 supereranno 33mila unità, circa il 4,2% in più rispetto al 2016, arrivando a trentacinquemila il prossimo anno.

A distanza di dieci anni, le transazioni tornano a superare i volumi del picco del 2007, impostando un trend di crescita che proseguirà nel prossimo biennio.

Tra i capoluoghi di provincia della Lombardia, sul fronte delle compravendite, secondo il rapporto di Scenari Immobiliari e Casa.it, oltre a Milano, registreranno un segno piu’ che positivo nel 2017 Brescia (+11,2% con 2.670 unità), Bergamo (+9,2% con 1.660 unità), Monza (+5,8% con 1.630 unità), Como (+13% con 1.230 unità), Varese (+13% con oltre 1.000 unità), Pavia (+8,6% con 1.000 unità), Cremona (+13,5% con 920 unità), Lodi (+15,9% con 800 unità), Lecco (+7,6% con 700 unità), Mantova (+14% con 650 unità),  Sondrio (+10,3% con 320 unità).

Relativamente ai prezzi medi, in Lombardia, secondo il rapporto di Scenari Immobiliari e Casa.it, le quotazioni dovrebbero aumentare dell’1,3 per cento nel 2018 (0,3 per cento a livello nazionale) con un rialzo costante che proseguirà fino al 2020 superando il picco del 2007 del due per cento. In Italia il trend porterà a una crescita dei valori del 2,9 per cento senza, tuttavia, tornare agli standard pre-crisi.

Per quanto riguarda i singoli capoluoghi lombardi,  i valori medi delle quotazioni a Milano sono in rialzo già dal 2015, con quasi il due per cento in più registrato nel 2016 nel semicentro. Si stacca anche Como, dove i prezzi sono in salita per il 2017 dell’uno per cento circa, primo risultato positivo dopo dieci anni di calo. Andamenti simili si registrano nella maggior parte dei capoluoghi restanti, con Pavia e Bergamo che nel 2017 riportano un’inversione di tendenza.

Commenti

Ecco un dispositivo che coglie, comprende e trascrive le parole bisbigliate

(foto: Lorrie Lejeune/MIT)

Parlare fra sé e sé, a voce bassissima e in maniera da non essere percepiti dagli altri – un’azione quasi intermedia fra il parlare e il pensare – può diventare spesso un’abitudine. Per non perdere le nostre vocalizzazioni interne, che possono contenere idee e concetti importanti, oggi un nuovo strumento di intelligenza artificiale consente di rilevarle e trascriverle su schermo . A metterlo a punto è un gruppo di ricercatori del Mit Media Lab. Così, mentre studiamo, cuciniamo, siamo intenti nel lavoro o in altre attività, questo sistema, chiamato AlterEgo, consentirebbe di non perdere le nostre conversazioni silenziose e di metterle per iscritto, ad esempio sul pc o su altri dispositivi digitali. I risultati sono stati presentati alla 23esima International Conference on Intelligent User Interfaces dal gruppo del Mit Media Lab.

Il sistema è costituito da un dispositivo indossabile, che si appoggia sull’orecchio e segue la mandibola. Questa sorta di cuffia-microfono hi-tech si collega, senza fili, ad un sistema di calcolo basato sul machine learning, cioè un insieme di metodi di apprendimento automatico (che rientrano nei sistemi di intelligenza artificiale), i quali riportano per iscritto le conversazioni fra sé e sé della persona.

L’idea di studiare le vocalizzazioni interne, o sotto-vocalizzazioni, nasce nel ‘900, ma viene approfondita soltanto a partire dagli anni ’50. Uno dei risultati più importanti, negli anni ’60, all’interno dello speed-reading, cioè della trascrizione della lettura veloce, fu quello di eliminare queste sottovocalizzazioni, rendendo il discorso a voce alta più nitida.

Il modello hi-tech odierno, invece, mette a fuoco proprio le conversazioni secondarie e silenziose. Per farlo, si fonda su analisi acustiche molto sottili: alcuni elettrodi rilevano i segnali neuromuscolari nella mandibola e sulla faccia, attivati proprio dalla verbalizzazione interna.

Gli autori hanno chiesto a un gruppo di 10 partecipanti di riprodurre più volte una serie di parole, individuando tramite elettrodi i punti del viso in cui questi segnali erano più riproducibili e potevano essere colti con maggiore facilità. Una volta selezionati questi snodi facciali, hanno raccolto dati di brevi frasi di circa 20 parole, una contenente calcoli di aritmetica (addizioni e moltiplicazioni) e una le mosse degli scacchi. Raccolti i dati, poi, hanno utilizzato un network neurale che ha consentito di individuare le associazioni fra i segnali neuromuscolari e le parole associate. In questo caso, l’accuratezza, cioè la precisione, nella trascrizione, è stata pari al 92%. E si può fare ancora di più, includendo un numero maggiore di vocaboli utilizzabili e raccogliendo più dati.

Le applicazioni di questo sistema di intelligenza artificiale potrebbero essere molteplici. Per esempio, per utilizzare le app sui dispositivi mobili e cercare informazioni si deve distogliere l’attenzione dall’attività che si sta svolgendo per digitare la richiesta ad esempio sul cellulare. Così, il team di ricerca ha voluto sperimentare nuove modalità di utilizzo della tecnologia senza dover interrompere ciò che si sta facendo. Oppure, quando ci si trova in ambienti silenziosi e non si può parlare a voce alta. Altre applicazioni specifiche e utili, secondo gli autori potrebbero essere cuffie per i controllori dell’atterraggio degli aerei, situazioni in cui vi è frastuono e non si riesce bene a comunicare. Ma potrebbe essere d’aiuto anche per persone che hanno una patologia per cui non riescono a parlare normalmente, ad esempio pazienti con un tumore che ha colpito le corde vocali e che potrebbero beneficiare di un sintetizzatore (in questo caso vocale e non per iscritto) che si impegni per loro.

Il corto Hyper-Reality di Keiichi Matsuda mostra che aspetto potrebbe avere il nostro futuro prossimo

In collaborazione con

L’ecosistema favorisce la collaborazione tra aziende e accademia locale, ma anche gli incentivi spingono nella direzione della ricerca e dello…