Google przeprasza za niewłaściwe podejście do prywatności i ogłasza zmiany

Google przeprasza za niewłaściwe podejście do prywatności i ogłasza zmiany

Autor: Krzysztof Sulikowski

Opublikowano: 9/23/2019, 4:55 PM

Liczba odsłon: 1480

Tegoroczne raporty dowiodły, że pracownicy Amazona, Apple, Facebooka, Google i Microsoftu odsłuchują klipy nagrane przez asystentów głosowych i komunikatory, a użytkownicy nie byli o tym należycie informowani. Dopiero po wybuchu skandalu firmy zdecydowały się zmienić zapisy w regulaminie lub zaprzestać tych praktyk. Kolejny krok w tej sprawie podjął Google.

Wierzymy, że powinniście móc łatwo zrozumieć, w jaki sposób używane są wasze dane i dlaczego, abyście mogli podejmować odpowiednie dla was decyzje. Ostatnio słyszeliśmy o obawach związanych z naszym procesem, w którym eksperci językowi mogą słuchać transkrybowanych danych audio z Asystenta Google, by pomagać w poprawie technologii rozpoznawania mowy w różnych językach. Jest jasne, że nie spełniliśmy naszych wysokich standardów, ułatwiając wam zrozumienie, jak wasze dane są używane, i za to przepraszamy.

Gdy dowiedzieliśmy się o tych obawach, natychmiast wstrzymaliśmy ów proces ludzkiej transkrypcji globalnie, by przeprowadzić dochodzenie i pełen przegląd naszych systemów i kontrolek. Chcemy teraz przekazać więcej na temat tego, jak działa nagrywanie dźwięku, i o zmianach, które wprowadzamy.
— Nino Tasca, Senior Product Manager, Google Assistant

Przede wszystkim Google przypomina, że dane dźwiękowe użytkowników domyślnie nie są przechowywane. Użytkownicy mogą jednak włączyć Voice & Audio Activity (VAA) przy konfiguracji Asystenta. Firma zaktualizowała to ustawienie, dodając adnotacje, że po jego włączeniu ludzcy pracownicy mogą słuchać fragmentów audio, by pomóc w rozwoju technologii. Ponadto wprowadzono w tym zakresie nowe środki ostrożności, tj. fragmenty audio nigdy nie są powiązane z jakimkolwiek użytkownikiem, a eksperci słuchają tylko niewielkiego zestawu zapytań (ok. 0,2% ze wszystkich zapytań użytkownika), oczywiście tylko od użytkowników z włączonym VAA. W przyszłości Google zamierza dodać jeszcze jedną warstwę filtrów chroniących.

Nino Tasca z Google dodaje, że Asystent natychmiast kasuje wszelkie dane audio, gdy zrozumie, że został aktywowany nieumyślnie, np. poprzez źle zinterpretowany hałas. Wkrótce można będzie ustawić wrażliwość urządzeń na komunikaty wywołujące, takie jak "Hej, Google", co zmniejszy prawdopodobieństwo przypadkowych aktywacji.

Źródło: https://www.blog.google/products/assistant/doing-more-protect-your-privacy-assistant/

Jak wykorzystać Copilot w codziennej pracy? Kurs w przedsprzedaży
Jak wykorzystać Copilot w codziennej pracy? Kurs w przedsprzedaży

Wydarzenia