Massimo Onofri – Il Blog

Con l’intelligenza artificiale, le auto autonome si possono trasformarsi in armi

Negli ultimi anni si è parlato molto dei rischi per l’umanità che l’evoluzione delle intelligenze artificiali potrebbe comportare. Gli allarmi lanciati da personalità del calibro di Elon Musk, Stephen Hawking o Bill Gates si sono però sempre concentrati su scenari fantascientifici, che mettevano in guardia, per esempio, da una possibile rivolta delle macchine, pronte a ridurre in schiavitù l’essere umano. 

Questo genere di analisi rischia di distogliere l’attenzione dai pericoli ben più concreti, e imminenti, di una tecnologia come il machine/deep learning. Il report intitolato The Malicious Use of Artificial Intelligence(“l’uso malvagio dell’intelligenza artificiale”), messo a punto da ricercatori di Yale, Oxford, Cambridge e della non-profit OpenAI, si concentra proprio su questi aspetti. 

L’intelligenza artificiale, infatti, viene definita un’innovazione ambivalente: “Gli strumenti per la sorveglianza possono essere usati sia per catturare i terroristi, sia per opprimere i normali cittadini”, si legge per esempio nel report. Allo stesso modo, i droni per le consegnepossono facilmente trasformarsi in armi. 

Ma l’esempio che più di ogni altro può far capire a quali rischi andiamo incontro riguarda le auto autonome: se il cervello elettronico delle self driving cars venisse attaccato da hacker malintenzionati, basterebbe apportare leggerissime modifiche – si legge nel documento – per far sì che l’intelligenza artificiale alla guida dell’auto non sia più in grado di riconoscere i segnali di stop. E questo non è neanche il caso più grave, considerando che già in passatoalcuni hacker hanno dimostrato di poter prendere il controllo in remoto delle auto autonome e dirigerle a piacimento. 

In questo modo, una tecnologia che nasce con la promessa di ridurre gli incidenti anche del 90% può trasformarsi in un’arma nelle mani dei cyberterroristi. Questo non è l’unico caso descritto nel report, che, in generale, mette in guardia da diversi tipi di minacce: l’utilizzo delle AI per sfruttare le vulnerabilità dei software (rendendo ancora più minacciosi gli attacchi DDoS e di altro genere); la capacità delle AI di fornire anche a “individui dotati di scarsa abilità informatica una grande capacità offensiva” (per esempio controllando in remoto un mini-sciame di droni) e infine i rischi causati dalle tecnologie ormai note come “deepfake”, in grado di riprodurre la voce e le fattezze di chiunque e creare, per esempio, finti video di politici inseriti forzatamente nelle situazioni più imbarazzanti. 

In tutti questi casi, comunque, non è l’intelligenza artificiale in sé a essere pericolosa, ma l’uso che se ne può fare. Come aveva spiegato il ricercatore Gordon Briggs – che proprio a questo scopo sta insegnando ai robot a disobbedire ai comandi degli esseri umani – “è molto più probabile che un’intelligenza artificiale compia azioni pericolose perché ha ricevuto precise istruzioni in merito, piuttosto che lo faccia di sua spontanea volontà”. 

Ma il fatto che strumenti progettati con i migliori propositi possano essere utilizzati anche a fini malvagi non è certo una novità; anzi: è qualcosa che caratterizza ogni innovazione ideata dall’uomo, fin dai tempi della scoperta del fuoco. Nel caso dell’intelligenza artificiale, è però il caso di preoccuparsi meno di scenari alla Terminator, per concentrarsi sui veri pericoli che circondano questa straordinaria tecnologia. 

Con l’intelligenza artificiale, le auto autonome si possono trasformarsi in armi

Un report accademico mette in guardia sui pericoli delle AI, ma la fantascienza non c’entra

Source

http://lastampa.it/2018/02/25/tecnologia/idee/con-lintelligenza-artificiale-le-auto-autonome-si-possono-trasformarsi-in-armi-9oOlX7cqZvj4sGhkETJYJK/pagina.html

Please follow and like us:

La Lombardia e’ il principale mercato immobiliare

Il mercato immobiliare della Lombardia e’ primo in Italia, con 123 mila compravendite residenziali stimate per il 2017, pari al 22,2 per cento del totale nazionale. E’ quanto emerge dal rapporto 2017 sul mercato immobiliare della Lombardia, presentato a Milano da Scenari Immobiliari in collaborazione con Casa.it.

La Lombardia rappresenta il principale mercato immobiliare italiano, con il 22,2 per cento delle compravendite residenziali nazionali stimate per il 2017.

La crescita percentuale delle transazioni in Lombardia rispetto al 2016 è pari al 12,8 per cento, ben al di sopra del tasso medio italiano del 7,7 per cento: la regione è passata da 109mila compravendite del 2016 a 123mila attese per fine 2017, mentre l’Italia da 520mila a 560mila per la fine dell’anno.

Seguono il Lazio con 60 mila compravendite (+8%), Emilia Romagna e Piemonte (51 mila), Veneto (50 mila) e Toscana (35 mila). Ultima la Valle d’Aosta con 1.700 compravendite.

E’ quanto emerge dal rapporto 2017 sul mercato immobiliare della Lombardia, presentato a Milano da Scenari Immobiliari in collaborazione con Casa.it.

Per il 2018si prevede un’ulteriore crescita del mercato immobiliare lombardo con oltre 143 mila compravendite residenziali, pari al 16,7% in più rispetto al 2017, contro il 12,5% in Italia, mentre nel 2020 si prevede di raggiungere le 192 mila transazioni.

Tra i capoluoghi di provincia della Lombardia, sul fronte delle compravendite, secondo il rapporto di Scenari Immobiliari e Casa.it, nella città di Milano la definitiva ripresa economica e i nuovi sviluppi immobiliari generano un progressivo incremento delle transazioni e un ritorno di attrattività della città e del suo vivere urbano, che ha avuto un impulso positivo dall’Expo.

A Milano le compravendite nel 2017 supereranno 33mila unità, circa il 4,2% in più rispetto al 2016, arrivando a trentacinquemila il prossimo anno.

A distanza di dieci anni, le transazioni tornano a superare i volumi del picco del 2007, impostando un trend di crescita che proseguirà nel prossimo biennio.

Tra i capoluoghi di provincia della Lombardia, sul fronte delle compravendite, secondo il rapporto di Scenari Immobiliari e Casa.it, oltre a Milano, registreranno un segno piu’ che positivo nel 2017 Brescia (+11,2% con 2.670 unità), Bergamo (+9,2% con 1.660 unità), Monza (+5,8% con 1.630 unità), Como (+13% con 1.230 unità), Varese (+13% con oltre 1.000 unità), Pavia (+8,6% con 1.000 unità), Cremona (+13,5% con 920 unità), Lodi (+15,9% con 800 unità), Lecco (+7,6% con 700 unità), Mantova (+14% con 650 unità),  Sondrio (+10,3% con 320 unità).

Relativamente ai prezzi medi, in Lombardia, secondo il rapporto di Scenari Immobiliari e Casa.it, le quotazioni dovrebbero aumentare dell’1,3 per cento nel 2018 (0,3 per cento a livello nazionale) con un rialzo costante che proseguirà fino al 2020 superando il picco del 2007 del due per cento. In Italia il trend porterà a una crescita dei valori del 2,9 per cento senza, tuttavia, tornare agli standard pre-crisi.

Per quanto riguarda i singoli capoluoghi lombardi,  i valori medi delle quotazioni a Milano sono in rialzo già dal 2015, con quasi il due per cento in più registrato nel 2016 nel semicentro. Si stacca anche Como, dove i prezzi sono in salita per il 2017 dell’uno per cento circa, primo risultato positivo dopo dieci anni di calo. Andamenti simili si registrano nella maggior parte dei capoluoghi restanti, con Pavia e Bergamo che nel 2017 riportano un’inversione di tendenza.

Commenti

Please follow and like us:

Ecco un dispositivo che coglie, comprende e trascrive le parole bisbigliate

(foto: Lorrie Lejeune/MIT)

Parlare fra sé e sé, a voce bassissima e in maniera da non essere percepiti dagli altri – un’azione quasi intermedia fra il parlare e il pensare – può diventare spesso un’abitudine. Per non perdere le nostre vocalizzazioni interne, che possono contenere idee e concetti importanti, oggi un nuovo strumento di intelligenza artificiale consente di rilevarle e trascriverle su schermo . A metterlo a punto è un gruppo di ricercatori del Mit Media Lab. Così, mentre studiamo, cuciniamo, siamo intenti nel lavoro o in altre attività, questo sistema, chiamato AlterEgo, consentirebbe di non perdere le nostre conversazioni silenziose e di metterle per iscritto, ad esempio sul pc o su altri dispositivi digitali. I risultati sono stati presentati alla 23esima International Conference on Intelligent User Interfaces dal gruppo del Mit Media Lab.

Il sistema è costituito da un dispositivo indossabile, che si appoggia sull’orecchio e segue la mandibola. Questa sorta di cuffia-microfono hi-tech si collega, senza fili, ad un sistema di calcolo basato sul machine learning, cioè un insieme di metodi di apprendimento automatico (che rientrano nei sistemi di intelligenza artificiale), i quali riportano per iscritto le conversazioni fra sé e sé della persona.

L’idea di studiare le vocalizzazioni interne, o sotto-vocalizzazioni, nasce nel ‘900, ma viene approfondita soltanto a partire dagli anni ’50. Uno dei risultati più importanti, negli anni ’60, all’interno dello speed-reading, cioè della trascrizione della lettura veloce, fu quello di eliminare queste sottovocalizzazioni, rendendo il discorso a voce alta più nitida.

Il modello hi-tech odierno, invece, mette a fuoco proprio le conversazioni secondarie e silenziose. Per farlo, si fonda su analisi acustiche molto sottili: alcuni elettrodi rilevano i segnali neuromuscolari nella mandibola e sulla faccia, attivati proprio dalla verbalizzazione interna.

Gli autori hanno chiesto a un gruppo di 10 partecipanti di riprodurre più volte una serie di parole, individuando tramite elettrodi i punti del viso in cui questi segnali erano più riproducibili e potevano essere colti con maggiore facilità. Una volta selezionati questi snodi facciali, hanno raccolto dati di brevi frasi di circa 20 parole, una contenente calcoli di aritmetica (addizioni e moltiplicazioni) e una le mosse degli scacchi. Raccolti i dati, poi, hanno utilizzato un network neurale che ha consentito di individuare le associazioni fra i segnali neuromuscolari e le parole associate. In questo caso, l’accuratezza, cioè la precisione, nella trascrizione, è stata pari al 92%. E si può fare ancora di più, includendo un numero maggiore di vocaboli utilizzabili e raccogliendo più dati.

Le applicazioni di questo sistema di intelligenza artificiale potrebbero essere molteplici. Per esempio, per utilizzare le app sui dispositivi mobili e cercare informazioni si deve distogliere l’attenzione dall’attività che si sta svolgendo per digitare la richiesta ad esempio sul cellulare. Così, il team di ricerca ha voluto sperimentare nuove modalità di utilizzo della tecnologia senza dover interrompere ciò che si sta facendo. Oppure, quando ci si trova in ambienti silenziosi e non si può parlare a voce alta. Altre applicazioni specifiche e utili, secondo gli autori potrebbero essere cuffie per i controllori dell’atterraggio degli aerei, situazioni in cui vi è frastuono e non si riesce bene a comunicare. Ma potrebbe essere d’aiuto anche per persone che hanno una patologia per cui non riescono a parlare normalmente, ad esempio pazienti con un tumore che ha colpito le corde vocali e che potrebbero beneficiare di un sintetizzatore (in questo caso vocale e non per iscritto) che si impegni per loro.

Il corto Hyper-Reality di Keiichi Matsuda mostra che aspetto potrebbe avere il nostro futuro prossimo

In collaborazione con

L’ecosistema favorisce la collaborazione tra aziende e accademia locale, ma anche gli incentivi spingono nella direzione della ricerca e dello…

Please follow and like us:

Trump crea la sua task force sull’IA, maggiori libertà alle aziende sull’uso dei dati?

L’amministrazione Trump ha creato la sua task force completamente dedicata all’intelligenza artificiale. Questo potrebbe portare molti investimenti destinati a questo tipo di tecnologia, ma anche una maggiore apertura all’uso dei dati da parte delle aziende, come fatto intuire dal vice assistente del presidente.

Il comitato dedicato all’intelligenza artificiale è stato annunciato in occasione di un evento tenutosi alla Casa Bianca lo scorso 10 maggio, che ha ospitato rappresentanti di giganti della tecnologia come Google, Amazon e Facebook. Michael Kratsios, vice assistente del presidente Donald Trump, ha espresso la volontà di puntare sull’IA perché essa è in grado di fornire una qualità di vita migliore a tutti i lavoratori.

Kratsios ha inoltre annunciato che l’Office of Science and Technology Policy della Casa Bianca pubblicherà presto un piano quinquennale per migliorare l’educazione STEM, presentando anche delle misure pensate per incrementare il numero di studenti che lavorano nel campo della ricerca in ambito di intelligenza artificiale.

Gli Stati Uniti d’America stanno già facendo investimenti significativi nel campo dell’intelligenza artificiale. Infatti, secondo il Washington Post, il governo americano avrebbe speso oltre 2 miliardi di dollari solamente nel 2017 per lo sviluppo di questo tipo di tecnologia. Inoltre, gli investitori privati ​degli USA sono soliti investire di più sulle startup che fanno uso di intelligenze artificiali rispetto a qualsiasi altro settore. Si parla di circa 21 miliardi di dollari solamente nel 2016.

Kratsios ha dichiarato in merito che l’attuale amministrazione è intenzionata a portare ulteriori investimenti. Inoltre, il vice assistente del presidente ha anche lasciato intuire una maggiore apertura da parte del governo in materia di dati, combattendone però l’utilizzo indebito.

Non è ancora chiaro quale sarà l’effettivo ruolo di questa nuova task force, ma tutto sembra far intuire che l’amministrazione Trump voglia puntare molto sull’intelligenza artificiale.

Source

https://tech.everyeye.it/notizie/trump-crea-sua-task-force-sull-ia-maggiori-liberta-sull-uso-dei-dati-per-aziende-330206.html

Please follow and like us:

LG Display: tecnologia di intelligenza artificiale per ridurre la latenza nella VR

LG Display: tecnologia di intelligenza artificiale per ridurre la latenza nella VR

LG Display ha sviluppato una tecnologia di intelligenza artificiale in grado di ricavare immagini in alta risoluzione partendo da contenuti a risoluzione più bassa. Lo scopo è contenere latenza e motion blur nella applicazioni VR

di pubblicata il , alle 15:21 nel canale Periferiche

Sviluppata con la collaborazione dell’Università di Sogang, la nuova tecnologia di LG Display converte immagini in bassa risoluzione in immagini a risoluzione più alta servendosi di algoritmi di intelligenza artificiale. Questo consente all’hardware di elaborare le immagini alla base delle esperienze VR in meno tempo, il che aiuta a ridurre latenza e motion blur.

La compagnia sostiene che la soluzione è possibile attraverso tecnologia di deep learning gestita tramite chip interni al dispositivo, piuttosto che ricorrere a soluzioni esterne o al cloud computing. L’algoritmo usa il training per interpretare le immagini a bassa risoluzione e aggiungere i dettagli mancanti.

Una tecnologia del genere basata sull’IA consente di ridurre latenza e motion blur di cinque volte, secondo i comunicati di LG. Inoltre, avrebbe effetti benefici anche sui costi, visto che le applicazioni di realtà virtuale non richiederebbero più hardware e GPU di fascia alta.

Per realizzare queste misure, LG Display e l’Università di Sogang hanno inoltre sviluppato un dispositivo motorizzato che misura la latenza e la sfocatura mimando i movimenti del collo dell’utente e servendosi di un sistema di ottiche che simula la vista umana.

“Lo studio di LG Display e Università di Sogang è significativo perché ha portato alla realizzazione di un semiconduttore che migliora le immagini servendosi dell’intelligenza artificiale senza una GPU costosa ad alimentare il dispositivo VR”, ha dichiarato Kang Seok-ju, professore del Dipartimento di Ingegneria Elettronica che ha portato avanti lo studio negli ultimi tre anni.

Come sa chi l’ha provata, l’esperienza in realtà virtuale può comportare spiacevoli effetti collaterali come nausea e motion sickness, derivanti in larga parte proprio dalla scarsa risoluzione alla quale vengono visualizzate le immagini. Un flusso di immagini in bassa risoluzione, infatti, può genere l’effetto “screen door”. Se l’hardware, inoltre, non è in grado di mantenere il frame rate prefissato si generano jitter e instabilità che possono aumentare le latenze fra l’interazione dell’utente e ciò che visualizza.

La scorsa settimana LG e Google hanno ufficializzato i loro piani circa un prototipo di visore VR capace di funzionare a risoluzioni molto alte. Con un display OLED da 18 megapixel lo schermo del dispositivo vanta una densità di pixel di 1443 ppi con un refresh rate di 120Hz. Lo schermo è da 4,3 pollici e il campo visivo raggiunge i 120 x 96 gradi. Non ‘è chiaro al momento se i nuovi prototipi usano già la tecnologia sviluppata in collaborazione con l’Università di Sogang.

Anche NVIDIA sta portando avanti esperimenti di questa natura servendosi del deep learning come abbiamo visto qui.

1 Commenti

Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti – info

Spawn7586

Urgh, ci sono quelle che definirei parecchie imprecisioni in questo articolo…

“nausea e motion sickness, derivanti in larga parte proprio dalla scarsa risoluzione alla quale vengono visualizzate le immagini.”

No, non direi. Derivano più dalla LATENZA e, più in generale, dalla non corrispondenza dei movimenti del corpo con i movimenti della visuale (ergo quasi tutti adottano un sistema di teletrasporto per spostare la visuale).

“Un flusso di immagini in bassa risoluzione, infatti, può genere l’effetto “screen door”.”

Sì e no. L’effetto screen door è dovuto ai pixel del display vero e proprio, che riesci a vedere. In parole povere se avete mai visto l’immagine proiettata su una parete da vicino si possono intravedere i contorni dei pixel (i quadratini che compongono l’immagine). Sulla VR questo si traduce nell’avere un effetto “zanzariera” ovvero come se ci fosse una retina davanti allo schermo. Non dipende dalle immagini in sé, ma dai display che non hanno una risoluzione sufficiente. Ovviamente aumentando la risoluzione aumenta la pesantezza di elaborazione e qui entra in gioco l’algoritmo.

Sicuramente un progetto interessante, ma consiglio a chi scrive gli articoli di studiare un pochino di più il problema prima di parlarne….

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel , nel rispetto del “quieto vivere”.

La discussione è consultabile anche qui, sul forum.

Source

https://www.hwupgrade.it/news/periferiche/lg-display-tecnologia-di-intelligenza-artificiale-per-ridurre-la-latenza-nella-vr_76168.html

Please follow and like us:

Domani è un altro robot

Apocalittici e integrati: il dibattito sull’intelligenza artificiale e su come questa cambierà la nostra vita sta spaccando sempre più la comunità di scienziati, tecnologi, imprenditori. Elon Musk, che da tempo se ne occupa (dai missili alle auto senza guidatore), si prepara una via di fuga. Molto, molto lontano

Read More

Please follow and like us:

Tutta la verità su Norman, l’intelligenza artificiale psicopatica

In rete è già stata ribattezzata come l’intelligenza artificiale psicopatica. In realtà dietro a Norman, l’AI che vede morte ovunque sviluppata al Media Lab dell’MIT, c’è la volontà di far conoscere anche al grande pubblico uno dei cardini del machine learning: «i dati che vengono forniti all’algoritmo possono influenzarne il comportamento in maniera significativa».
A parlare sono il professor Iyad Rahwan e i due ricercatori che con lui hanno lavorato al progetto, Pinar Yanardag e Manuel Cebrian. L’algoritmo, che deve il suo nome al Norman Bates di Psycho, è stato “nutrito” con immagini tratte da un canale Reddit chiamato /watchpeopledie. «È uno spazio che documenta la realtà inquietante della morte», prosegue il team, «i post pubblicati qui devono contenere un video che mostri il decesso di una persona. Ed avere un titolo che descriva accuratamente il contenuto. Ad esempio, giovane uomo accoltellato a morte».
All’algoritmo sono state fornite solo delle immagini tratte dai video. Una scelta dettata «da ragioni etiche ma anche tecniche, oltre che dal contenuto di questi filmati». Il punto è che «dal momento che Norman ha osservato solamente immagini di questo tipo, vede la morte in ogni immagine che gli venga sottoposta».
A sostengo di questa affermazione, il tema ha realizzato un esperimento facendo ricorso al test di Rorschach. Ovvero quel test, ideato dall’omonimo psicologo svizzero negli anni 20 del secolo scorso, che prevede di sottoporre dieci immagini contenenti delle macchie di inchiostro simmetriche al soggetto esaminato. Al quale si chiede di indicare a cosa somigli ciò che vede. Nel caso specifico, il test ha visto coinvolte due intelligenze artificiali: oltre a Norman, anche un algoritmo addestrato con immagini che nulla hanno a che vedere con la morte.
Il risultato è che dove quest’ultima ha visto un vaso di fiori, l’AI “psicopatica” ha individuato un uomo ucciso a colpi di pistola. Dove la prima ha indicato il ritratto in bianco e nero di un uccellino, la seconda ha visto una persona trascinata all’interno di un’impastatrice. Uno scenario certamente inquietante, anche se qui l’obiettivo non era quello di spaventare l’umanità rispetto alla possibile nascita di macchine malvagie. Norman non è Terminator, in altre parole.
«Quando diciamo che un algoritmo ha dei bias, il colpevole spesso non è l’algoritmo stesso, ma i dati con cui è stato alimentato». Un’idea «riconosciuta e condivisa all’interno della comunità scientifica, meno tra il grande pubblico». E lo scopo del progetto dell’MIT Media Lab era appunto quello di «evidenziare il ruolo dei dati nei bias che affliggono un algoritmo in un modo che tutti potessero capire». Gli stessi algoritmi possono vedere cose diverse nella medesima immagine: tutto dipende da come sono stati addestrati. «Il nostro obiettivo era quello di rendere l’opinione pubblica consapevole di questa problematica. E di stimolare il dibattito su questo tema».

Source

http://nova.ilsole24ore.com/nova24-tech/tutta-la-verita-su-norman-lintelligenza-artificiale-psicopatica/

Please follow and like us:

Come il Seo trova aiuto nell’intelligenza artificiale

L’ottimizzazione Seo non si limita più a facilitare il passaggio dei robot sui siti web. No, ora la posta in gioco è cambiata perché il Seo si concentra sulle intenzioni dell’utente, che l’intelligenza artificiale aiuta a capire meglio. Google utilizza questa tecnologia da diversi anni per rilevare ciò che vogliono gli utenti di Internet. Ma l’apprendimento automatico e gli algoritmi di riferimento in Internet non sono riservati solo ai big dell’high tech.

Per un’agenzia l’utilizzo dell’intelligenza artificiale per fare Seo inizia con il colloquio con il cliente. Per comprendere sia l’offerta che il campo semantico alcune agenzie hanno creato strumenti che forniranno una lista di parole chiave organizzate in categorie. Ma affinché i risultati siano utilizzabili bisogna spendere parecchio tempo con il cliente analizzando il suo universo semantico.

Il lavoro del Seo

Parola chiave strategia. Oggi si acquistano facilmente database di migliaia di parole chiave e strumenti online di buona qualità, come Google Adwords e Google Suggest, che permettono di rielaborare questi elenchi e conoscere i volumi di ricerca. Ora, ciò che conta è come usare al meglio queste migliaia di parole chiave. Con un algoritmo è possibile separarli in silos o cluster. Ogni silos contiene tutte le espressioni relative a un’idea, anche se queste espressioni usano parole diverse. L’algoritmo che elaborerà le migliaia di parole chiave selezionate sull’attività dell’azienda le separerà in categorie che corrispondono alle intenzioni del cliente.

Il lavoro svolto dall’algoritmo permette di separare centinaia di migliaia di parole chiave in silos, combinando espressioni che hanno lo stesso significato ma non sono simili. Inoltre consentirà di effettuare riferimenti incrociati tra i dati relativi ai prezzi e all’ubicazione. Non è lo stesso cluster, ma se molte query combinano i due, l’algoritmo presenterà questi due silos vicini l’uno all’altro.

Un algoritmo di clustering è complesso. Può integrare molti criteri esterni (volume di ricerca, confronto tra le pagine dei risultati di Google per ogni parola chiave, per esempio), gestire un database molto grande, e la macchina per l’apprendimento gli permette di capire l’intenzione al di là delle parole.

Si tratta di uno strumento molto sottile, che può far risparmiare molto tempo. Attualmente le agenzie hanno bisogno per questo lavoro di diversi giorni, e il tutto si riflette sui costi. Con uno strumento di intelligenza artificiale, il risultato è disponibile più velocemente, più facile da capire, più fine e meno costoso.

La nuova tecnologia potrebbe fare una piccola rivoluzione nel mondo del Seo, perché non è riservato ai grandi clienti. Spesso inoltre l’algoritmo rivela tendenze che gli esseri umani non avevano immaginato. Nel caso della Seo internazionale, è utile per scoprire usi sconosciuti. Perché ciò che in un Paese non viene considerato come servizio potrebbe esserlo in un altro.

Questi cluster serviranno da base per la struttura ad albero e per il contenuto del sito. Ogni parola chiave usata nel cluster è associata ad un volume di ricerca. Questo è utile per definire le pagine principali e scegliere il contenuto degli articoli del blog.

Gli obiettivi di posizionamento

Le possibilità di posizionarsi. Una volta ricevuti i cluster di parole chiave, l’intelligenza artificiale può ancora essere utilizzata per definire gli obiettivi di posizionamento. Infatti, tra la base di parole chiave raggruppate, alcune sono molto competitive, mentre altre, meno ambite dalla concorrenza, lasciano più spazio per un posizionamento in cima alla pagina dei risultati di Google. Questa volta, un algoritmo di punteggio viene utilizzato per dare un punteggio di posizionamento alle parole in base alla loro accessibilità per il cliente.

L’obiettivo non è solo di fare riferimenti incrociati ai dati provenienti dai motori di ricerca. Questo tipo di analisi dà solo un’idea fissa, non tiene conto né dell’evoluzione permanente del Serp, né della differenza tra i profili dei siti presenti nei primi risultati.

Con un algoritmo, è possibile confrontare i primi Url che si trovano nelle pagine dei risultati per le parole chiave precedentemente selezionate, al fine di analizzare molti criteri nelle pagine a cui si riferiscono. Le informazioni vengono ponderate con il profilo del cliente e ad ogni parola chiave viene assegnato un punteggio. Un algoritmo poi può prevedere i rischi di declassamento e avvertire il cliente.

Se pensiamo a un fornitore di allarmi, l’azienda rischia di avere difficoltà a posizionarsi su “home alarm”, molto competitivo, ma anche su una serie di altre parole chiave. Tuttavia, nella sua lista, ci sono certamente molte espressioni chiave appartenenti alla coda lunga, su cui può salire rapidamente senza troppi sforzi. Forse “Come impostare l’allarme collegato”? è troppo competitivo per lui, mentre “come impostare il mio allarme elettronico” è più accessibile con un volume di ricerca ancora interessante per aumentare il traffico. In termini di ore di lavoro, su centinaia di parole chiave, il risparmio può essere sostanziale.

Al fine di ottimizzare il suo contenuto, un algoritmo può incrociare gli obiettivi del cliente e l’analisi del contenuto dei suoi concorrenti per determinare ciò che ha dato i suoi frutti e che potrebbe dare i suoi frutti anche in futuro. Questo aiuta a determinare un tipo di contenuto efficace per le parole chiave che hanno ottenuto un buon punteggio nel passaggio precedente. Se l’espressione “allarme cablato per costoso” è stata considerata accessibile, con un algoritmo, possiamo imparare che il comparatore di prezzi sarà il formato di contenuti più rilevante per i motori di ricerca.

Monitoraggio e miglioramento. Tutti i clienti vogliono sapere in che modo le loro azioni hanno influenzato le loro prestazioni. Collegando l’algoritmo a Google Analytics e Google Search Console, si accumulano dati che vengono analizzati per creare correlazioni empiriche tra azioni e risultati. Con un cruscotto che organizza queste informazioni in modo ovvio, il project manager di un’azienda può capire quali azioni sono state efficaci, e decidere cosa perseguire e cosa abbandonare. È un processo che migliora nel tempo. Può prevedere i rischi di declassamento e allertare il cliente.

.

L’articolo Come il Seo trova aiuto nell’intelligenza artificiale è un contenuto originale di 01net.

Please follow and like us: