Avaliação de Impacto sobre a Proteção de Dados (DPIA)

Resumo executivo público. O documento completo é mantido no Documento de Segurança da Bilbao AI S.L. e está à disposição da Autoridade de Controlo (AEPD espanhola) quando solicitado.

1. Âmbito e obrigação legal

O art. 35 do RGPD obriga a realizar uma DPIA quando o tratamento, pela sua natureza, âmbito ou finalidades, possa implicar um risco elevado para os direitos e liberdades das pessoas. A Afini.ai trata categorias especiais de dados (art. 9 RGPD: traços psicológicos, valores, vínculo, humor, orientação temporal, contexto vital) sobre os quais aplica algoritmos automatizados. Por isso esta DPIA é viva: é revista pelo menos anualmente e sempre que se introduz uma nova camada, um novo modelo ou uma alteração substantiva da base jurídica.

2. Mapa do tratamento

Identificação (e-mail, idioma), dados de pagamento (processados pela Stripe — a Bilbao AI não armazena PAN nem dados bancários), respostas a questionários psicométricos, conversas com a IA, camadas declaradas (vital, ritmos, trajetória, hobbies, etc.), métricas de uso do proxy LLM e eventos de auditoria. Subcontratantes: Stripe (pagamentos), Anthropic (LLM sob DPA — apenas processa, não treina com o seu conteúdo), Resend (e-mail transacional), Holded (faturação TicketBAI), Railway (hosting europeu), Cloudflare (CDN/WAF), Sentry (monitorização europeia de erros).

3. Riscos identificados

  • Risco de inferência sensível: a combinação das camadas pode revelar estados psicológicos não declarados explicitamente.
  • Risco de reidentificação: os dados pseudonimizados podem voltar a ligar-se ao titular se forem cruzados com fontes externas.
  • Risco de uso secundário: que terceiros utilizem o AfiniTwin ou as narrativas para fins diferentes dos consentidos.
  • Risco de viés algorítmico: que os modelos LLM reproduzam vieses ao interpretar o perfil.
  • Risco de transferência internacional: embora o tratamento principal seja europeu, a API da Anthropic processa o conteúdo sob DPA com cláusulas contratuais-tipo da UE (SCC).

4. Medidas de mitigação

  • Cifragem em trânsito (TLS 1.2+) e em repouso (AES-256) em todas as camadas; segregação da base de dados em infraestrutura europeia (Railway eu-west).
  • Consentimento granular e revogável por camada com auditoria de cada alteração (ver a aba Consentimentos no seu painel).
  • Minimização: cada conversa com a IA recebe apenas o subconjunto estritamente necessário do perfil; o conteúdo nunca é utilizado para treinar modelos.
  • Auditoria de viés nos prompts do proxy e revisão humana periódica das narrativas geradas.
  • Anonimização agressiva em logs e métricas: hashes salgados de IP, sem conteúdo conversacional, retenção limitada (90 dias no Sentry, 30 dias nos logs aplicacionais).
  • Procedimento documentado de notificação de violação (art. 33 RGPD) em menos de 72 h com cadeia de custódia documentada.

5. Revisão e governança

A DPIA é revista pelo menos uma vez por ano e obrigatoriamente sempre que se incorpora uma camada nova, um modelo novo ou uma funcionalidade de alto impacto (por exemplo, exportação a terceiros). O responsável pelo tratamento aprova cada revisão e a data fica registada no Documento de Segurança. Os utilizadores profissionais e as empresas podem solicitar acesso ao resumo alargado mediante a assinatura de um acordo de confidencialidade.

És profissional ou empresa? Solicita o DPA

Se vais tratar dados dos teus clientes através da Afini.ai, o art. 28 RGPD exige assinar um Acordo de Subcontratante (DPA). Enviamos-te o modelo em menos de 48 h.

Modelo preparado para contrassinatura: descarrega-o, preenche os teus dados na secção de assinaturas, assina-o e envia-o para privacidad@afini.ai. Contrassinamo-lo e devolvemos-te o PDF selado em menos de 48 horas.

Última atualização: 6 de maio de 2026

Avaliação de Impacto (DPIA) — Afini.ai