Google, con l’IA (Intelligenza Artificiale) partendo da una foto fai ricerche avanzate

Google annuncia alcune delle nuove funzionalità che dimostrano i progressi della nuova generazione di tecnologia basata sull'Intelligenza Artificiale. Oggi il noto motore di ricerca è in grado di comprendere le informazioni nelle loro forme più varie: dal linguaggio naturale alle immagini, ai video, trasformando il modo in cui cercare, esplorare e interagire ogni giorno con la realtà e i contenuti digitali.

Stefania Lobosco
A cura di Stefania Lobosco
Pubblicato il 14/02/2023Aggiornato il 14/02/2023
Google Ricerca Multipla

Cercare online un divano o un oggetto di arredo visto in una vetrina? Conoscere il nome della pianta vista in un negozio? Da oggi cambia tutto, il noto motore di ricerca Google lancia sul mercato nuove funzionalità che mostrano i progressi della tecnologia basata sull’Intelligenza Artificiale. Questa, infatti, consente di rendere più visivo, naturale e intuitivo il modo attraverso cui è possibile esplorare e interagire con le informazioni intorno a noi, in qualsiasi momento. 

Dopo aver raccolto dati utili, oggi, l’IA di Google è in grado di comprendere le informazioni nelle loro forme più varie: dal linguaggio naturale alle immagini, ai video, fino a comprendere il mondo reale, reinterpretando il modo in cui cercare, esplorare e interagire con i contenuti ogni giorno.

Google: se puoi vederlo, puoi cercarlo

Le fotocamere sono diventate uno strumento importante per esplorare e comprendere il mondo intorno a noi. In effetti, oggi Lens – la tecnologia di riconoscimento immagini progettata e sviluppata da Google al fine di fornire informazioni relative agli oggetti che identifica utilizzando l’analisi visiva – viene già utilizzato più di 10 miliardi di volte ogni mese mentre le persone cercano ciò che vedono utilizzando la fotocamera o le immagini. 

Lens (www.lens.google) può già essere usato per cercare immagini caricate sul telefono o scattate con la fotocamera, partendo direttamente dalla barra di ricerca, ma da oggi un importante aggiornamento aiuta gli utenti a cercare tutto ciò che si vede sullo schermo del cellulare. Nei prossimi mesi, infatti, Lens permetterà di “cercare” tutto ciò che si vede in una foto, in un video sul web o sulle proprie app preferite, come quelle di messaggistica e video, senza dover uscire dall’app o dall’esperienza specifica, semplicemente accedendo alla funzione “Search your screen“. 

Se ad esempio si riceve un messaggio da un amico con il video della città di Parigi e si desidera scoprire di più sul monumento ripreso sullo sfondo, è possibile cercarlo online tenendo premuto il pulsante di accensione o il pulsante Home sul proprio telefono Android – che richiama l’Assistente vocale di Google – e toccare “Search Screen”. Lens a quel punto lo identifica, per esempio come “Palazzo del Lussemburgo”, dopodiché è possibile cliccare per saperne di più. 

Nuove modalità di ricerca con la funzione Ricerca multipla

Con la funzionalità “Ricerca multipladi Google è possibile cercare partendo da un’immagine e un testo allo stesso tempo, aprendo modalità nuove di espressione. Oggi la Ricerca multipla è disponibile in tutto il mondo sui dispositivi mobile, in tutte le lingue e i Paesi in cui è disponibile Lens. 

La Ricerca multipla consente anche di cercare ciò che si trova vicino a noi, è infatti possibile scattare una foto e aggiungere “vicino a me” per trovare ciò di cui si ha bisogno, sia che si voglia cercare di supportare le attività commerciali di quartiere o si stia semplicemente cercando ciò di cui si ha bisogno. Attualmente questa funzione è disponibile in inglese negli Stati Uniti e nei prossimi mesi sarà esteso a livello globale. 

E c’è di più, spesso capita di essere già alla ricerca quando si vede qualcosa che attira l’attenzione, qualcosa che ci ispira. Nei prossimi mesi, si potrà utilizzare la Ricerca multipla su qualsiasi immagine visualizzata nella pagina dei risultati di ricerca sui dispositivi mobili. 

Ad esempio, sarà possibile cercare “idee per un soggiorno moderno” e vedere un tavolino che ci piace, ma, nel caso lo si desideri in un’altra forma, ad esempio rettangolare anziché rotondo, si potrà utilizzare la Ricerca multipla per aggiungere il testo “rettangolare” e trovare lo stile che più ci piace. 

La nuova Ricerca Multipla di Google

La nuova Ricerca Multipla di Google

Stessa cosa se si viene colpiti da una pianta o da un fiore visto in un giardino o in un negozio, con la Ricerca multipla e Google Lens è sufficiente inquadrarlo per scoprire il nome della pianta e le cure necessarie.

Ma c’è di più… Traduzioni avanzate di testi in oltre 100 lingue, aiuto a problemi e compiti di biologia, chimica, fisica o approfondimenti di storia e letteratura. L’esperienza della ricerca su Big G diventa molto più naturale, visiva ed è solo all’inizio della sua evoluzione, con l’aiuto dell’Intelligenza Artificiale le possibilità, infatti, si continueranno ad ampliare. 

La nuova veste di Google Maps

Anche Google Maps cambia grazie a Intelligenza Artificiale, visualizzazione immersiva e Live View, oltre a nuove funzionalità per i conducenti di veicoli elettrici (EV) e per chi si muove a piedi, in bicicletta o con i mezzi pubblici. 

Arriva la visualizzazione immersiva

La visualizzazione immersiva è un modo completamente nuovo di esplorare un luogo: permette di sentirsi come se ci si trovasse proprio lì, anche prima di visitarlo. Utilizzando i progressi dell’Intelligenza Artificiale e della computer vision, la visualizzazione immersiva fonde miliardi di immagini di Street View e immagini aeree per creare un modello digitale del mondo incredibilmente ricco. E sovrappone informazioni utili come il tempo, il traffico e quanto è affollato un luogo. 

Supponiamo che si stia programmando una visita al Rijksmuseum di Amsterdam, è possibile sorvolare virtualmente l’edificio e vedere dove si trovano, ad esempio, gli ingressi del museo. Con il dispositivo di scorrimento temporale, si può vedere come appare l’area nelle diverse ore del giorno e che tempo farà o individuare i luoghi più affollati, in modo da avere tutte le informazioni necessarie per decidere dove e quando andare. Se si ha fame, si può scendere al livello strada per esplorare i ristoranti vicini, e dare anche un’occhiata all’interno per capire rapidamente l’atmosfera di un locale prima di prenotare. 

La nuova funzione Live View di Google Maps

La nuova funzione Live View di Google Maps

Per creare queste scene fedeli alla realtà, Google utilizza i campi di radianza neurale (NeRF), una tecnica avanzata di Intelligenza Artificiale che trasforma le immagini ordinarie in rappresentazioni 3D. Con NeRF, è possibile ricreare con precisione l’intero contesto di un luogo, compresa l’illuminazione, la consistenza dei materiali e lo sfondo. Tutto ciò permette di capire se l’illuminazione lunatica di un bar è l’atmosfera giusta per una serata galante o se la vista di un caffè lo rende il luogo ideale per un pranzo con gli amici. 

Esplorare e navigare con la realtà aumentata, al chiuso e all’aperto

La ricerca con Live View utilizza l’Intelligenza Artificiale e la realtà aumentata per aiutare a trovare le cose che ci circondano, come bancomat, ristoranti, parchi e stazioni di transito, semplicemente mettendo il telefono in posizione verticale mentre si è per strada. Google ha lanciato la ricerca con Live View a Londra, Los Angeles, New York, Parigi, San Francisco e Tokyo. Nei prossimi mesi sarà estesa a Barcellona, Dublino e Madrid. 

La realtà aumentata può essere particolarmente utile quando si naviga in luoghi difficili, come un aeroporto sconosciuto. Nel 2021 è stata introdotta negli Stati Uniti, a Zurigo e a Tokyo Live View al chiuso, utilizza frecce alimentate dalla realtà aumentata per indicare la direzione giusta, in modo che si possano trovare rapidamente e con sicurezza i servizi igienici, le sale d’attesa, le stazioni dei taxi, gli autonoleggi e molto altro ancora. 

Ottenere indicazioni a colpo d’occhio mentre si naviga

Che ci si muova a piedi, in bicicletta o con i mezzi pubblici, presto sarà ancora più facile spostarsi. Con le indicazioni a colpo d’occhio, diventa semplice seguire il proprio viaggio direttamente dalla panoramica del percorso o dalla schermata di blocco. Si possono visualizzare i tempi di arrivo previsti e la prossima svolta, informazioni che prima erano visibili solo sbloccando il telefono, aprendo l’app e utilizzando la modalità di navigazione completa. E se si decide di prendere un’altra strada, il viaggio viene aggiornato automaticamente. Le indicazioni a colpo d’occhio inizieranno ad essere disponibili in tutto il mondo su Android e iOS nei prossimi mesi e saranno compatibili anche con le Attività Live su iOS 16.1. 

Questi sono solo alcuni dei modi in cui l’intelligenza artificiale consentirà di immaginare il futuro di Google Maps, rendendolo più coinvolgente e sostenibile per le persone in tutto il mondo.

Come valuti questo articolo?
12345
Valutazione: 3 / 5, basato su 2 voti.
Avvicina il cursore alla stella corrispondente al punteggio che vuoi attribuire; quando le vedrai tutte evidenziate, clicca!
A Cose di Casa interessa la tua opinione!
Scrivi una mail a info@cosedicasa.com per dirci quali argomenti ti interessano di più o compila il form!