Slack, popularna platforma do komunikacji zespołowej należąca do Salesforce, znalazła się w centrum kontrowersji po tym, jak ujawniono, że firma wykorzystywała dane klientów do trenowania swoich modeli AI bez ich zgody. Sprawa ta wywołała oburzenie wśród użytkowników i doprowadziła do aktualizacji zasad prywatności Slacka.
Użycie danych klientów do trenowania AI
W swoich początkowych zasadach prywatności Slack wyraźnie stwierdził, że jego systemy analizują dane klientów (np. wiadomości, treści i pliki) przesłane do Slacka, a także inne informacje, w celu opracowywania modeli AI/ML. Oznacza to, że praktycznie wszystko, co zostało udostępnione w kanałach Slacka, mogło być wykorzystane do trenowania modeli AI.
Ta polITyka wzbudziła obawy wśród użytkowników, którzy wyrażali swoje niezadowolenie. Slack zapewnił, że dane nie będą udostępniane między przestrzeniami roboczymi, ale przyznał, że jego globalne modele wykorzystują dane klientów.
Aktualizacja zasad prywatności
W odpowiedzi na krytykę Slack zaktualizował swoje zasady prywatności, aby wyjaśnić swoje stanowisko w sprawie wykorzystania danych. Zaktualizowane zasady stwierdzają, że żadne dane klientów nie są wykorzystywane do trenowania modeli LLM stron trzecich. Slack nie trenuje modeli LLM ani innych modeli generatywnych na danych klientów ani nie dzieli się danymi klientów z żadnymi dostawcami LLM.
Pomimo tej aktualizacji wielu użytkowników nadal uważa, że środek ten jest niewystarczający, ponieważ nie wyjaśnia, dlaczego użytkownicy są automatycznie zobowiązani do zaakceptowania polITyki dotyczącej wykorzystania danych. Slack wymaga od właściciela przestrzeni roboczej wysłania wiadomości e-mAIl do zespołu obsługi klienta, aby zrezygnować z uczestnictwa.
Krytyka automatycznego wyrażenia zgody
Wiele osób skrytykowało decyzję Slacka o automatycznym włączeniu użytkowników do gromadzenia danych, w tym firm, które płacą za platformę, zamiast uzyskiwania ich zgody. Użytkownicy podkreślają, że polITyka powinna być oparta na wyraźnej zgodzie, a nie na domyślnym włączaniu.
Eksperci w dziedzinie prywatności danych argumentują, że transparentność i kontrola nad danymi są kluczowe dla budowania zaufania między firmami a użytkownikami. W przypadku Slacka, brak jasności i automatyczne włączenie użytkowników do gromadzenia danych doprowadziły do negatywnego odbioru i utraty zaufania.
Wpływ na zaufanie do AI
Sprawa Slacka pokazuje, jak szybko skandal związany z AI może wybuchnąć i jak łatwo można stracić zaufanie. Użytkownicy oczekują, że firmy będą odpowiedzialne za sposób, w jaki wykorzystują dane i będą transparentne w swoich działaniach. Automatyczne włączanie użytkowników do gromadzenia danych bez ich zgody może prowadzić do utraty zaufania do AI i negatywnie wpłynąć na rozwój tej technologii.
Incydent ten stanowi również przykład szerszej dyskusji na temat prywatności danych i AI. Firmy muszą znaleźć sposób na wykorzystywanie danych do ulepszania swoich produktów i usług, jednocześnie szanując prywatność użytkowników i zapewniając im kontrolę nad swoimi danymi.
Wnioski
Sprawa Slacka pokazuje, jak ważne jest, aby firmy były transparentne i odpowiedzialne w kwestii wykorzystania danych do trenowania AI. Automatyczne włączanie użytkowników do gromadzenia danych bez ich zgody może prowadzić do utraty zaufania i negatywnie wpłynąć na rozwój AI. Firmy muszą znaleźć sposób na zrównoważenie innowacji z ochroną prywatności użytkowników, aby zapewnić odpowiedzialne i etyczne wykorzystanie AI.