VIDEO Google va permite căutări ce combină imagine și text și spune că viitorul căutărilor online ține de înțelegerea lucrurilor în context
Google a anunțat că în aplicația vizuală de căutare Lens va fi adăugată posibilitatea de a pune și text, iar userii vor putea adresa căutări legate de ce văd. Un exemplu oferit este dacă ți se strică o piesă de la bicicletă și nu știi cum se numește: faci o fotografie și poți afla direct cum se poate face reparația. Totul se leagă de tehnologia de ”machine learning” numită Multitask Unified Model (MUM) dezvoltată de Google.
Google Lens este aplicația care recunoaște diverse elemente din poze și este utilizată pentru a face scurte traduceri, pentru a identifica plante sau pentru a rezolva mici probleme de matematică, totul pornind de la fotografii în care sunt identificate diverse elemente.
Acum, Google spune că datorită noii tehnologii MUM, Lens va primi un upgrade important și va putea fi adăugat text la căutările vizuale și userii vor putea pune întrebări pornind de la ce văd pe ecran.
Google a îmbunătățit multe la motorul său de căutare în ultimul deceniu: din 2011 permite căutări cu voce, un an mai târziu a lansat Knowledge Graph, iar din 2015 a lansat un nou ”tool” numit RankBrain care se folosește de rețele neurale pentru a oferi rezultate cât mai relevante.
Google a activat acest instrument nou și puternic în căutarea online. Este un model nou de AI la scară largă, denumit MUM (de la Multitask Unified Model), iar compania spune că, după ce acest model va fi perfecționat, căutarea online va deveni un serviciu și mai sofisticat, precum un fel de asistent virtual profesionist de ”online search” care caută pe web soluții la întrebări din ce în ce mai complexe.
Au fost date și exemple despre cum va putea fi utilizată tehnologia în Lerns.
De exemplu, vezi pe Google Search un tricou care îți place și mergi la aplicația Lens unde poți cere să ți se caute unde se pot găsi șosete cu model similar cu cel de pe tricou.
Un alt exemplu: dacă ți se strică o piesă de la bicicletă și nu știi cum se numește acea piesă, faci o fotografie și poți afla direct cum se poate face reparația, scriind pe Lens: ”cum se repară asta”. Ideea ar fi, dacă tehnologia va funcționa bine, să nu mai fie nevoie să iei ”la mână” diverse manuale de reparații de biciclete, ci să fii direcționat rapid la un răspuns relevant.
Google speră că tot mai mulți useri vor deschide și vor folosi apoi constant aplicația Lens și că vor porni de la ea căutări pe care acum le pornesc, spre exemplu, pe Amazon sau pe eBay.
Cuvântul de bază pentru viitorul căutărilor online este pentru Google: context.
Compania speră că dacă va propune aceste noi moduri de căutare, cu mai multe detalii, userii vor pune și ei întrebări mai detaliate și bogate în context, iar experiența generală de căutare va deveni tot mai bună în acest mod.
Cum spunea un director al companiei: ”căutarea online nu este o problemă rezolvată”. Și chiar nu este: vor mai trece ani până când căutările contextuale vor funcționa extrem de bine, la fel cum și Google Translate nu era o aplicație foarte bună imediat după lansare, dar a fost apoi îmbunătățită masiv.
Surse: TechCrunc, The Verge