Jego technologia była w stanie wykrywać ludzi w sytuacjach, w których nie pokazywali twarzy i poprawnie identyfikować tych użytkowników na zdjęciu. Poza tym było na aktualnych zdjęciach tak jak na starych zdjęciach.
Zdjęcia Google udoskonaliły swoją technologię rozpoznawania twarzy, zwiększając zdolność rozpoznawania osób na zdjęciach, ponieważ teraz rozpoznają również użytkowników, którzy pojawiają się od tyłu, a tym samym nie pokazują swojej twarzy.
Zapisz się do naszego newslettera
Aplikacja do przechowywania zdjęć giganta technologicznego zawiera technologię rozpoznawania twarzy, która analizuje twarze na zdjęciach i oznacza, do kogo należą te twarze. Ta funkcja jest przydatna np. do automatycznego tworzenia folderu ze wszystkimi zdjęciami, na których występuje dany użytkownik.
Do tej pory „aplikacja” realizowała tę funkcję, analizując twarze użytkowników. Wydaje się jednak, że firma tak bardzo udoskonaliła swoją technologię rozpoznawania twarzy opartą na sztucznej inteligencji, że jest teraz w stanie rozpoznawać osoby, które są do nich odwrócone. Gdzie mogli zweryfikować z Android Authority.
Gdy zdjęcie przedstawia użytkownika od tyłu lub w pozycji, w której jego twarz nie jest wyraźnie widoczna, aplikacja nie uwzględnia osób oznaczonych i nie pozwala na ręczne dodawanie tagówponieważ nie określa żadnej istoty ludzkiej, a zatem nie uważa tego za konieczne.
Jednak, jak opisano szczegółowo w tym medium, technologia Zdjęć Google była w stanie wykrywać osoby w miejscach, w których nie pokazują twarzy, i prawidłowo identyfikować tych użytkowników na zdjęciu. Co więcej, zdarzało się to zarówno na niedawno wykonanych zdjęciach, jak i na starych fotografiach.
W takich przypadkach tagi dostarczone przez Google są wyświetlane z komunikatem „twarz dostępna do dodania”, a ponadto umożliwiają zmianę osoby, która jest oznaczona, lub usunięcie tagu, w przypadku gdy Twoja tożsamość nie jest poprawna.
Chociaż Google nie podzielił się informacjami na ten temat, to ten postęp w rozpoznawaniu może wynikać z faktu, że technologia firmy jest w stanie przechowywać informacje z całych głów użytkowników z filmów, w których się pojawiają, czy zdjęć na tych, które pokazują twarz, nawet jeśli tak, to tylko część twarzy jest widoczna, jak zauważył Android Authority.
Czynniki takie jak podobieństwo miejsca w stosunku do innych obrazów, na których pojawia się twarz danej osoby, a nawet inne czynniki, takie jak środowisko i używany ubiór, również mogą odgrywać pewną rolę. Wszystko to jest ujęte w możliwości uczenia maszynowego Google, które wykazują stały postęp.
Zapisz się do naszego newslettera
„Amatorski praktykujący muzykę. Wieloletni przedsiębiorca. Odkrywca. Miłośnik podróży. Nieskrępowany badacz telewizji.”