Slack obrigado a atualizar princípios de privacidade

A controvérsia sobre a privacidade começou na semana passada, quando um utilizador do Slack levantou preocupações no X (anteriormente Twitter) sobre os princípios de privacidade da plataforma.
24 de Maio, 2024

A plataforma de colaboração Slack reviu os seus princípios de privacidade após preocupações dos utilizadores sobre o uso de dados de clientes para treinar os seus modelos de IA generativa. Numa publicação no seu blog na passada sexta-feira, a empresa esclareceu que não utiliza dados dos utilizadores, como mensagens e ficheiros partilhados no Slack, para desenvolver os grandes modelos de linguagem (LLM) que alimentam as suas funcionalidades de IA. No entanto, os clientes ainda precisam de optar por não permitir que os seus dados sejam usados por defeito para recomendações baseadas em aprendizagem automática.

A controvérsia sobre a privacidade começou na semana passada, quando um utilizador do Slack levantou preocupações no X (anteriormente Twitter) sobre os princípios de privacidade da plataforma, destacando o uso de dados de clientes nos seus modelos de IA e a exigência de exclusão ativa. Isto gerou uma onda de críticas em redes sociais e fóruns como o HackerNews.

Em resposta, o Slack atualizou a linguagem dos seus princípios de privacidade para diferenciar entre os seus algoritmos tradicionais de aprendizagem automática (ML) e os LLM. A empresa enfatizou que, embora utilize técnicas de ML para funcionalidades como recomendações de emojis e resultados de pesquisa, estes algoritmos são treinados com dados agregados e não identificáveis, sem acesso ao conteúdo das mensagens em DM, canais privados ou públicos.

“Estes modelos de ML não são concebidos para aprender, memorizar ou reproduzir quaisquer dados de clientes,” afirmou o Slack. A empresa assegurou que nenhum dado de cliente é utilizado para treinar os LLMs fornecidos por terceiros para as suas ferramentas de IA.

O Slack reconheceu que a redação anterior dos seus princípios de privacidade pode ter contribuído para mal-entendidos. “Valorizamos o feedback e, ao analisarmos a nossa linguagem, percebemos que as preocupações eram válidas,” lê-se na publicação do blog. “Poderíamos ter explicado melhor a nossa abordagem, especialmente em relação às diferenças na forma como os dados são utilizados para modelos tradicionais de ML e IA generativa.”

Apesar destas clarificações, a postura do Slack continua a ser de opt-out por defeito no que diz respeito ao uso de dados dos utilizadores com os seus algoritmos de IA/ML. Para cancelar, o administrador do Slack na organização de um cliente deve enviar um e-mail à empresa para solicitar a exclusão dos seus dados.

Os especialistas em privacidade mantêm-se céticos sobre se as atualizações do Slack irão resolver completamente as preocupações dos utilizadores. Raúl Castañón, analista sénior de pesquisa na 451 Research, parte da S&P Global Market Intelligence, sugeriu que preocupações com a privacidade podem impedir a adoção de iniciativas de IA generativa. “Uma abordagem de opt-in geralmente constrói mais confiança,” afirmou.

Estudos recentes da empresa de análise Metrigy revelaram que a utilização de dados de clientes para treinar modelos de IA é uma prática comum, com 73% das organizações inquiridas a treinarem ou a planearem treinar modelos de IA com dados de clientes. O presidente da Metrigy, Irwin Lazar, destacou a necessidade de comunicação proativa das empresas sobre o uso específico dos dados. “Idealmente, o treino seria opt-in, não opt-out,” disse. “As preocupações com a privacidade no treino de IA vão provavelmente aumentar, e as empresas devem articular claramente as suas práticas de uso de dados para evitar reações adversas.”

À medida que a tecnologia de IA continua a evoluir, as empresas enfrentam um escrutínio crescente sobre a privacidade dos dados. As recentes atualizações do Slack são um passo em direção a uma maior transparência, mas o debate sobre o uso de dados e privacidade está longe de terminar.

Com informações Computerworld

Opinião