Как чаят спаси Англия?

Чаят бързо се превръща в един от най-ценните ресурси на...

Старият Созопол през 1931 г.

Уникална архивна снимка показва стария Созопол през 1931...

Ще търсим с тананикане песни в Google Search

отпечатай новината

21.10.2020 13:57 | Видян 645 пъти

Ще търсим с тананикане песни в Google Search

Нова функция с изкуствен интелект в Google Search подобрява значително потребителското изживяване. Вече ще можем да намираме песни в интернет само с тананикане, съобщава  Technews.bg.

Вчера Google обяви няколко актуализации на своята търсачка, които използват изкуствен интелект (AI) и машинно обучение за подобряване на функционалността. Потребителите на мобилното приложение на Google вече могат да намират песни като тананикат, свирят или пеят мелодията, докосват иконата на микрофона и казват „Коя е тази песен” или щракнат върху бутона „Търсене на песен”.

Тананикането в продължение на 10-15 секунди ще даде шанс на алгоритъма за машинно обучение на Google да намери съответната песен. Понастоящем функцията е достъпна на английски за iOS и на около 20 езика за Android, като в бъдеще разнообразието от поддържани езици ще стане достъпно и на двете платформи.

Актуализациите на изкуствения интелект в Google търсенето обхващат също правописа и обикновените заявки за търсене. По-конкретно, добавен е нов алгоритъм за правопис с използване на дълбока невронна мрежа, за която Google твърди, че значително подобрява способността за откриване на правописни грешки.

В блог публикация интернет гигантът заяви, че иска да се съсредоточи върху актуализациите на правописа, тъй като статистиката на търсачката показва, че една от 10 заявки е грешно написана. Сегашната единична промяна всъщност е по-голямо подобрение на правописа от всички актуализации, направени през последните пет години, твърди Google.

„Нов правописен алгоритъм ни помага да разберем контекста на грешно написаните думи, така че можем да ви помогнем да намерите правилните резултати, всичко за по-малко от 3 милисекунди”, уверяват от интернет компанията. Освен това Search енджинът сега ще индексира отделни пасажи от страници, за да намери конкретното местоположение на търсения блок с текст.

В допълнение, невронни мрежи ще разбират подтемите около даден интерес, което според Google би помогнало да се осигури по-голямо разнообразие на съдържание, когато потребителите извършват широко търсене. Например, при търсене на „домашно оборудване за упражнения”, Google ще разбере подходящите подтеми – като бюджетно оборудване, първокласни решения или идеи за малко пространство – и ще покаже по-широк набор от съдържание в резултатите от търсене.

Използвайки изкуствен интелект, Google вече ще може да разбере дълбоката семантика на даден видеоклип и автоматично да идентифицира ключови моменти. Тази функция, която в момента се тества, ще „вижда” моменти, маркирани във видеоклипа.

Google също така обяви нови начини за използване на Google Lens и добавена реалност по време на обучение и пазаруване. Търсенето чрез заснемане на снимка или скрийншот вече е достъпно, но сега потребителите могат да докоснат и задържат изображение в приложението Google или в Chrome за Android и Lens ще намери точните или подобни елементи, като предложи и начини за стилизиране. Тази функция скоро ще е налична и в приложението Google за iOS.

Lens вече може да разпознае 15 милиарда неща, за да помогне за идентифицирането на растения, животни и забележителности. Може да превежда и на над 100 езика.

Google обяви и няколко подобрения в начина, по който обработва запитвания, свързани с коронавирус, включително „състоянието на заетост” на конкретно място. Информацията за безопасност, свързана с COVID-19, вече ще бъде поставена в бизнес профилите в Google Search и Maps.

„Това ще ви помогне да разберете дали даден бизнес изисква да носите маска, дали трябва да направите предварителна резервация и дали персоналът взима допълнителни мерки за безопасност, като проверки на температурата”, пояснява Google.




автор: СЛАВА

Етикети: , , ,
Добави в: Svejo.net svejo.net Facebook facebook.com

Няма коментари към тази новина !