Nowa funkcja AI Google'a - błędy czy satyra?
AI Overview - nowa funkcja Google
Google niedawno wprowadziło dla swoich użytkowników w USA nową funkcję – AI Overview przy wynikach wyszukiwania. Według doniesień, nowa opcja zwraca niekiedy niezwykle dziwne odpowiedzi. Na pytanie o depresję można usłyszeć poradę skoku z Mostu Golden Gate, z kolei na zapytanie o skład pizzy został zaproponowany... klej. Dodatkowo, wiele informacji zdaje się pochodzić z satyrycznej witryny Onion.
Gemini AI: technologia wymykająca się spod kontroli?
Rola nowej funkcji wprowadzonej przez Google jest prosta - ma umożliwić szybsze znalezienie odpowiedzi na pytania użytkowników poprzez wygenerowanie podsumowania wyników wyszukiwania. Część z nich pochodzi z artykułów, blogów, forum czy stron internetowych. Miało to ułatwić korzystanie z Google'a, eliminując konieczność przeglądania wszystkich wyników wyszukiwania. Jak jednak pokazały doniesienia z USA, Gemini AI potrafi również generować odpowiedzi, które są co najmniej dziwaczne.
Kontrowersje i pytania
Fakt, że AI Google zaproponowało skok z mostu jako rozwiązanie problemu depresji, budzi duże kontrowersje. Tak mocne, nieodpowiednie i potencjalnie szkodliwe sugestie pokazują, że technologia AI, mimo swojego zaawansowania, nadal ma ograniczenia. Wskazuje to na konieczność stałego nadzoru i kontroli ze strony twórców nad swoimi algorytmami.
Google a Onion: satyra czy rzeczywistość?
Zgłaszanie kleju jako składnika pizzy, czy korzystanie z informacji pochodzących z satyrycznej strony Onion, wskazuje na fakt, iż AI Google'a nie potrafi rozróżnić prawdziwych informacji od tych, które są subiektywne, fałszywe, czy wręcz sarkastyczne. Co jest wyjątkowo zaskakujące, biorąc pod uwagę, że AI Google'a powinna być technologią najwyższej jakości.
Podsumowanie
Nowa funkcja AI Google'a - AI Overview, choć ma swoje zalety, to jednak jak na razie napotkała na szereg niepokojących problemów. Kilka z nich, takich jak sugestie skoku z mostu dla osób z depresją czy propozycja kleju jako składnika pizzy, wskazuje na to, że technologia ta jest daleka od perfekcji. Pokazuje to, iż AI nadal jest technologią nową, której trudno jest sprostać wszystkim oczekiwaniom. Przykłady tak drastycznych błędów wskazują na potrzebę intensywnego nadzoru i ciągłego udoskonalania systemów AI, szczególnie, gdy wpływają one na tak istotną dla wielu osób sferę, jaką jest zdrowie psychiczne.