Da propaganda à responsabilidade: a nova fronteira da conformidade com a IA
À medida que a inteligência artificial se torna mais presente nas operações, os órgãos reguladores estão olhando além da promessa e focando no processo.
David Yatom Hay, Conselheiro Geral da Soft2Bet, argumenta que a explicabilidade, a prontidão para auditoria e a supervisão humana – e não apenas a ambição tecnológica – definirão o próximo capítulo da conformidade no setor de jogos online.
Recentemente, participei de um webinar da VIXIO que ofereceu uma visão de como poderá ser a conformidade com os requisitos de jogos online em 2026, com forte ênfase no jogo responsável, na inovação e no papel crescente da inteligência artificial.
Como Conselheiro Geral em Soft2Bet, Vejo esses temas moldando a forma como os produtos são desenvolvidos, como o atendimento ao jogador é prestado e como as empresas se mantêm resilientes à medida que as expectativas continuam a mudar. Foi uma hora produtiva, e os principais pontos abaixo são aqueles aos quais espero que as equipes continuem recorrendo ao longo de 2026.
A IA precisa resistir ao escrutínio.
Qualquer sistema de IA usado para criação de perfis, tomada de decisões ou gestão de riscos deve produzir resultados que possam ser explicados de forma clara e simples. É preciso deixar claro para que o sistema foi projetado, por que ele existe, em quais dados ele se baseia e qual o papel do julgamento humano no processo quando os resultados são questionados.
A IA precisa ser desenvolvida com a expectativa de que possa ser auditada a qualquer momento. Isso significa que é necessário rastrear versões de dados e modelos, registrar os limites e regras usados na tomada de decisões e manter uma documentação de fácil revisão.
Se o sistema sinalizar um jogador ou acionar uma intervenção, você deve ser capaz de explicar o "porquê". Da mesma forma, é necessário ter mecanismos de controle que mantenham o sistema focado em seu propósito declarado, para que ele não se transforme em algo que pareça uma abordagem agressiva disfarçada.
O controle vem antes da capacidade.
Antes que alguém se empolgue com os modelos, as equipes precisam ter uma visão clara de como a IA está sendo usada na prática em toda a empresa. Um inventário de IA pode parecer básico, mas geralmente é a maneira mais rápida de identificar riscos, principalmente quando os funcionários já estão familiarizados com essas ferramentas.
A partir daí, a atitude sensata é classificar os casos de uso por risco e rever essa classificação quando o uso mudar, pois uma ferramenta que parece inofensiva para a elaboração de rascunhos pode se tornar problemática no momento em que entra em contato com a tomada de decisões ou análises relacionadas aos jogadores.
A responsabilidade deve ser igualmente clara. A IA abrange produto, engenharia, dados, privacidade, segurança, jurídico e conformidade, portanto, a supervisão exige um processo de tomada de decisão e escalonamento direto.
A alfabetização em IA é mais eficaz quando incorporada aos fluxos de trabalho diários, incluindo as compras, onde as verificações de IA são realizadas juntamente com as verificações de privacidade e segurança, respaldadas por políticas que protegem informações confidenciais quando ferramentas externas são utilizadas.
O trabalho de verdade começa depois do lançamento.
Os sistemas de IA costumam ter melhor desempenho quando implementados pela primeira vez, pois os dados são familiares, os parâmetros de referência são recentes e a aplicação corresponde de perto ao projeto original. O risco geralmente surge mais tarde, quando o modelo é incorporado aos fluxos de trabalho diários e a empresa passa a tratá-lo como algo corriqueiro.
É aí que os falsos positivos podem se acumular silenciosamente, desencadeando intervenções que parecem justificadas isoladamente, mas que, com o tempo, levam a um resultado errado. A deriva adiciona outra camada, porque tanto os dados quanto o comportamento mudam, e os limites de ontem podem se tornar os pontos cegos de hoje.
O que diferencia equipes maduras é a disciplina em relação ao que acontece em seguida. O monitoramento de desempenho, o tratamento de incidentes e os registros de auditoria devem permanecer intactos muito tempo após a implementação, com responsabilidades claras para investigar anomalias e fazer ajustes seguros.
Em 2026, a confiança dependerá menos de quão bem um modelo de IA se apresenta em uma demonstração e mais da sua capacidade de gerenciá-lo com segurança quando ele falhar no mundo real.
RG ainda precisa de humanos envolvidos no processo.
Quando bem utilizada, a IA pode ajudar as equipes de jogo responsável a fazer algo que raramente fazem em quantidade suficiente: priorizar. Ela pode revelar padrões em larga escala e destacar onde é necessário dar atenção, mas não acredito que a IA deva ser a voz final a tomar a decisão.
No momento em que você se baseia exclusivamente em um modelo de IA, corre o risco de transformar uma questão humana sensível em um resultado automatizado, difícil de defender e ainda mais difícil de obter corretamente de forma consistente.
Há também uma razão prática para isso. Se você direcionar a IA para um banco de dados de jogadores sem limites e contexto adequados, ela encontrará "risco" em praticamente todos os lugares. Mencionei no webinar que você pode acabar com resultados que rotulam efetivamente 50% ou 60% de um banco de dados como potencialmente de alto risco.
Esse não é um resultado viável para nenhuma empresa e não se traduz em um cuidado significativo com os jogadores, porque nenhuma equipe consegue intervir nessa escala com a sutileza necessária. A abordagem em que confio é usar IA para criar categorias sensatas e identificar sinais, e então contar com humanos para revisar, aplicar julgamento e decidir sobre intervenções proporcionais.
A proteção de dados também precisa estar intimamente ligada a esse trabalho, porque os modelos de jogo responsável podem envolver grandes volumes de indicadores comportamentais e financeiros que acarretam obrigações de longo prazo após serem coletados e utilizados.
O produto precisa fazer mais do trabalho.
No setor de iGaming, as estratégias que antes facilitavam a aquisição de novos jogadores estão se tornando mais restritas. Marketing, patrocínio e promoções estão sendo direcionados com maior precisão, e isso altera o foco de onde a inovação gera mais valor. As marcas que se mantiverem fortes serão aquelas que conquistarem a fidelização por meio da experiência, em vez de dependerem de incentivos constantes para manter os jogadores engajados.
Na Soft2Bet, apostamos na inovação de produtos com foco na retenção, incluindo um recurso de gamificação que abrange as camadas de cassino e apostas esportivas. O objetivo é criar um ambiente onde os jogadores retornem porque a experiência é agradável e recompensadora por si só.
Na prática, isso também pode favorecer padrões de jogo mais saudáveis, já que o envolvimento se distribui ao longo do tempo, em vez de ser impulsionado por breves momentos de grande intensidade e incentivos.
A IA pode complementar isso com uma personalização mais inteligente, mas a disciplina reside na intenção. Se um sistema é projetado para identificar comportamentos potencialmente prejudiciais, seu propósito deve permanecer ético. Ele deve apoiar o cuidado com o jogador, e não se desviar para táticas que aumentam a intensidade sob um rótulo diferente.
As expectativas dos fornecedores estão evoluindo.
O mercado está mudando rapidamente e, com isso, surge uma abordagem mais estruturada para a supervisão. Para os fornecedores, a ênfase está se voltando para a visibilidade, sabendo onde o conteúdo está sendo publicado, identificando problemas precocemente e tendo um canal claro para escalonamento e acompanhamento quando algo parecer errado.
Em termos práticos, isso pode significar auditorias mais aprofundadas, solicitações de informações mais detalhadas e um foco mais preciso nas práticas de monitoramento.
Uma comparação pareceu particularmente relevante. O combate à lavagem de dinheiro evoluiu para um processo estruturado com um ritmo claro de prevenção, detecção, monitoramento e notificação. Um ritmo semelhante está começando a se formar aqui, com maior ênfase em processos escaláveis e repetíveis, em vez de depender de soluções pontuais quando algo é detectado.
O mais importante é que esse trabalho começa muito antes do lançamento. Ele depende de um rastreamento mais robusto e de uma melhor visibilidade desde a concepção, além de jogos e plataformas que consigam se adaptar a diferentes mercados à medida que os requisitos se tornam mais complexos ao longo do tempo.
