Apple aperta o cerco contra a IA em apps: faixas etárias na mira até Jan/2026
- Redação
- 25 de jul.
- 4 min de leitura
A Apple atualizou o sistema de classificação etária da App Store e, na prática, colocou a inteligência artificial no centro da conformidade. Além de introduzir faixas 13+, 16+ e 18+ (mantendo 4+ e 9+), a empresa passou a exigir um novo bloco de perguntas obrigatórias que mede, entre outros pontos, como recursos de IA, chatbots e conteúdo gerado por usuários aumentam a frequência de conteúdo sensível dentro do app. Quem não responder ao novo questionário até 31 de janeiro de 2026 corre o risco de ter submissões bloqueadas no App Store Connect.
O que muda de forma objetiva
Mais granularidade por idade. Agora existem cinco níveis (4+, 9+, 13+, 16+, 18+), permitindo que a Apple ajuste o rating por país ou região conforme padrões locais de adequação.
Novo questionário obrigatório. Inclui tópicos como controles in-app, capacidades do app, temas médicos e violentos, além da necessidade de considerar explicitamente IA e chatbots.
Possibilidade de elevar manualmente a idade mínima. Se sua política interna exigir um público mais velho do que o rating calculado pela Apple, você pode subir a régua.
Prazo duro. As respostas precisam ser fornecidas até 31 de janeiro de 2026 para evitar interrupções em envios e atualizações.
Governança contínua. Não é um “marca e esquece”. Cada mudança relevante de feature (especialmente IA e UGC) pode alterar frequência de conteúdo sensível e, portanto, o rating.

Por que isso atinge especialmente apps com IA
Imprevisibilidade dos modelos generativos. Mesmo com filtros, há risco de respostas fora do esperado atingirem públicos menores.
UGC mediado por IA. Ferramentas de geração de texto, imagem, voz e vídeo aumentam a chance de violência, sexualidade, desinformação e temas médicos sensíveis emergirem.
Pressão regulatória. COPPA, LGPD, GDPR e legislações locais exigem controles mais rígidos sobre coleta, tratamento de dados e exposição de menores a conteúdos sensíveis. A Apple empacota essa pressão dentro do fluxo do App Store Connect.
Necessidade de “safety by design”. Guardrails técnicos, moderação ativa, registros de auditoria e segmentação por idade viram trabalho de produto e engenharia, não só jurídico.
Impactos práticos para times de produto, engenharia e jurídico
Produto
Gates por idade para liberar, restringir ou desligar partes da IA.
Onboarding com consentimentos e avisos claros sobre o que a IA faz, que dados usa e como são tratados.
Ajustes na personalização e em anúncios quando houver menores, reduzindo LTV desses segmentos.
Engenharia
Feature flags por idade e região para IA e UGC.
Pipelines de moderação (toxicity, nudez, violência, automutilação, saúde, desinformação) antes da entrega ao usuário menor.
Telemetria e logs defensáveis que comprovem que a frequência de conteúdo sensível está sob controle.
Jurídico e compliance
Alinhamento estrito entre o que é declarado no App Store Connect, o que o binário realmente faz e o que está nos Termos e na Política de Privacidade.
Revisões periódicas com base em mudanças de modelo, prompts, afinadores e novos recursos de IA.
Mapeamento de obrigações por jurisdição (ex.: COPPA nos EUA, GDPR e DSA na UE, LGPD no Brasil).
Quem mais perde
Pequenos e médios desenvolvedores, que passam a ter um custo fixo de compliance maior.
Apps que dependem de personalização/ads para menores.
Produtos com IA “aberta” (chatbots generalistas, geração livre de imagens) que precisarão subir rating e, portanto, reduzir alcance.

Quem pode ganhar
Apps que estruturarem safety by design, com métricas, auditoria e transparência. Isso vira diferencial competitivo.
Times que implementarem “policy as code”, feature flags e automações de checklist no CI/CD reduzem fricção de release e rejeições por rating.
O que fazer agora (curto e executável)
Inventariar todos os apps e features de IA. Mapear rating atual versus o desejado e o provável pela Apple.
Responder ao novo questionário para cada app, documentando justificativas técnicas e legais.
Implementar gates por idade e região com feature flags.
Subir guardrails de IA e pipelines de moderação com logging e métricas de frequência de conteúdo sensível por faixa etária.
Revisar Termos, Política de Privacidade e fluxos de consentimento para garantir consistência com o que é declarado à Apple.
Criar um checklist de submissão (“age rating compliance”) obrigatório no pipeline de release.
Treinar Produto, Eng, Jurídico, CS e Marketing sobre o que muda, como explicar ao usuário e como reagir a rejeições por rating.
Conclusão
A determinação recente da Apple não mira apenas “impedir crianças de usar IA”, mas sim forçar o mercado a tratar IA, UGC e temas sensíveis com governança contínua, granularidade por idade e aderência a leis locais. Quem tratar isso como uma entrega única até 31 de janeiro de 2026 vai sofrer depois. Quem transformar em processo permanente, com automação e métricas, reduz risco, acelera ciclos de release e ganha vantagem competitiva.
Referências
Comunicação oficial enviada pela Apple Developer Relations aos desenvolvedores, com prazo final em 31 de janeiro de 2026 e adoção nas versões beta de iOS 26, iPadOS 26, macOS Tahoe 26, tvOS 26, visionOS 26 e watchOS 26.
App Store Review Guidelines, seções relativas a segurança, conteúdo impróprio e privacidade de menores.
COPPA (Children’s Online Privacy Protection Act, EUA).
GDPR (Regulamento Geral sobre a Proteção de Dados, União Europeia).
DSA (Digital Services Act, União Europeia), quando aplicável.
LGPD (Lei Geral de Proteção de Dados);