DexVille volgde voor u Google I/O 2022
Naar goede gewoonte pakte de internetreus tijdens de Google I/O 2022 uit met tal van nieuwigheden en technologieën die we de komende maanden en jaren mogen verwachten. Google blijft werken op nieuwe AI-toepassingen (vooral Natural Language Processing – NLP). Zo komt er Auto-Generated Summaries in Google Docs en Google Chat. Een functionaliteit die een automatische samenvatting genereert van een document of thread. Er komen nieuwe versies van de Pixel Phone uit (Pixel 6a en Pixel 7). Deze zullen ook worden uitgerust met de eigen Tensor Processing Unit (TPU) van Google wat het aantal AI-toepassingen op deze apparaten verder verhoogt. Ook het op het gebied van search zijn er interessante zaken waar wij alvast warm van werden.
Zoeken naar echte antwoorden op echte vragen
De manier waarop mensen informatie opzoeken op het internet beperkt zich al lang niet meer tot het typen van zoekopdrachten in een zoekveld. Het toenemende gebruik van search phrases in plaats van search terms toont aan dat mensen zinvolle antwoorden willen op uitgebreide vragen. Dit is waar de bewuste ‘position zero’ in Google voor dient.
Google kondigde vorig jaar al een nieuwe versie van zijn algoritme aan: Multitask Unified Model (MUM) waar al tal van AI-toepassingen in verwerkt zijn. Het verbaast dus niet dat Google hier verder aan blijft sleutelen. Zo slagen machines er alsmaar beter in om informatie te interpreteren zoals mensen dat doen.
Zowel Multisearch near me als Scene exploration tonen aan waar Google strategisch naar toe wil: zoekopdrachten nog natuurlijker maken.
Multisearch: combineer foto’s en vragen
Door AI-toepassingen zoals NLP en Computer Vision te combineren worden zoekopdrachten alsmaar natuurlijker en relevanter. Voice Search bestaat ondertussen al tien jaar en hoewel de technologie en de toepassingen (in onze contreien) nog niet echt zijn doorgebroken illustreert het wel waar de weg naar de toekomst heen gaat. Google Lens biedt al tal van opties voor vertalingen en opzoekingen door eenvoudigweg een foto van een voorwerp te nemen en dit vervolgens op te zoeken. Wereldwijd wordt Google Lens nu zo’n 8 miljard keer per maand hiervoor gebruikt, het drievoud ten opzichte van 2021. Google wil nu meerdere kanalen combineren om de betekenis achter zoekopdrachten nog beter te doorgronden.
Multisearch laat toe om een foto te nemen van een voorwerp en tegelijk een vraag te stellen. Later dit jaar komen er ook toepassingen om lokaal opzoekingen te doen met Multisearch near me. Je raadt het al: je neemt opnieuw een foto van ‘iets’ waarna je ‘near me’ aan je zoekopdracht toevoegt. Dit werkt op zowat alles: een foto van een lekkende afvoer van je gootsteen (voor een loodgieter), een dak dat dringend vernieuwd moet worden (dakwerker). Honger? Neem een foto van het web van je favoriete gerecht om te zien of er restaurants in de buurt zijn waar ze dit serveren.
Multisearch near me zal dit jaar wereldwijd beschikbaar zijn in het Engels. Andere talen zullen geleidelijk volgen.
Toenemend belang van afbeeldingen en visualisaties op websites
Achter de schermen is hier opnieuw artificiële intelligentie aan het werk. Het toont aan dat de algoritmes alsmaar meer elementen meenemen om te bepalen of je website goed scoort in zoekresultaten, ook lokaal. Hoogkwalitatieve afbeeldingen op je website met duidelijke bestandsnamen en goed omschreven captions kunnen je zoekresultaten dus zeker een boost geven.
Scene exploration
Een toekomstige technologie is Scene exploration. Hierbij kan je met de camera van je smartphone een panoramische opname maken van meerdere objecten. Zo film je in een supermarkt een heel rek artikelen (waspoeders, bv). Met Scene exploration krijg je informatie over elk merk en elk type waspoeder als een overlay op je scherm.
Dit is opnieuw AI aan het werk: computer vision combineert de verschillende frames en identificeert alle objecten. Vervolgens gebeurt er een opzoeking in de databases van Google om de meest relevante resultaten weer te geven, waaronder product reviews. Dit is opnieuw een voorbeeld hoe machines het voor elkaar krijgen om de wereld rondom ons te zien zoals wij mensen dat doen. Het toont ook aan de ‘het internet’ of het zoeken naar informatie minder en minder beperkt blijft tot plaats nemen achter een scherm en zoekwoorden invoeren.