Normas, Responsabilidade Técnica e IA Da “Caixa-Preta” à “Caixa de Vidro”: onde mora o risco real na arquitetura e engenharia
A inteligência artificial já está presente em projetos de engenharia e arquitetura. Mas normas técnicas, responsabilidade profissional e gestão de risco continuam sendo humanas. Este artigo explica por que a IA amplia decisões — mas não transfere responsabilidade.
Build Future Lab
6/26/20254 min ler


Normas, Responsabilidade Técnica e IA
Da “Caixa-Preta” à “Caixa de Vidro”: onde mora o risco real na arquitetura e engenharia.
A inteligência artificial deixou de ser promessa e já faz parte do dia a dia de escritórios de projeto, construtoras e incorporadoras. Ela acelera análises, organiza informações, compara alternativas e reduz tarefas operacionais que antes consumiam semanas.
Mas à medida que decisões cada vez mais críticas passam a ser apoiadas por algoritmos, surge um ponto incontornável:
a responsabilidade técnica não foi automatizada.
Essa não é uma discussão tecnológica.
É uma discussão de norma, risco e responsabilidade civil.
A falsa sensação de segurança no uso da IA
A IA costuma entregar respostas:
bem estruturadas
coerentes
com aparência técnica
e linguagem segura
Isso cria uma sensação psicológica de confiança.
Mesmo profissionais experientes começam, muitas vezes sem perceber, a assumir que:
se “parece correto”, deve estar conforme
se a IA citou uma norma, ela interpretou corretamente
se veio rápido, é eficiente
Aparência de consistência não é conformidade normativa.
E essa falsa segurança tem uma origem técnica clara.
A IA como “caixa-preta” — e o conflito com a engenharia e a arquitetura
Grande parte dos sistemas de inteligência artificial utilizados hoje opera como uma caixa-preta.
Na prática:
sabemos quais dados entram
sabemos qual resposta sai
mas não conseguimos reconstruir, passo a passo, o raciocínio técnico que levou àquela decisão
Critérios intermediários, pesos e inferências não são plenamente auditáveis.
Esse modelo funciona para recomendação de filmes ou tradução de textos.
Mas entra em choque direto com a prática profissional em engenharia e arquitetura.
Quando um projeto é questionado — em auditoria, perícia ou disputa judicial — não basta apresentar o resultado final.
É necessário demonstrar como e por que aquela decisão foi tomada.
Projetar, construir e operar exige rastreabilidade. A caixa-preta não entrega isso
A prática profissional se sustenta em pilares claros:
critérios técnicos explícitos
atendimento normativo verificável
justificativa documentada
responsabilidade individual
Normas técnicas não trabalham com “provável”.
Elas trabalham com requisitos, limites, exceções e condições de aplicação.
A IA, por outro lado:
opera por correlação estatística
extrapola padrões
completa lacunas quando a informação é insuficiente
Quando falta dado estruturado, a IA não para — ela infere.
E inferência, em engenharia, é risco.
Do “Black Box” ao “Glass Box”: transparência como defesa técnica
É nesse ponto que surge o debate sobre a transição da caixa-preta (black box) para a caixa de vidro (glass box).
Não se trata de tornar a IA “mais inteligente”.
Trata-se de torná-la explicável, auditável e defensável.
Em ambientes técnicos maduros, a explicabilidade da IA:
não é luxo
não é tendência
é governança mínima
Sem transparência, a ferramenta acelera decisões, mas não sustenta nenhuma delas quando o projeto é questionado.
A ilusão do “vácuo de responsabilidade”
Com a adoção da IA, muitos profissionais acreditam que a responsabilidade se dilui entre software, algoritmo e dados.
Na prática, ocorre exatamente o oposto.
A IA:
não possui responsabilidade civil
não tem registro profissional
não responde tecnicamente
não participa de perícia
não assume ônus jurídico
Quem responde continua sendo quem assina.
Não existe vácuo de responsabilidade.
Existe apenas a falsa sensação de que ele existe.
O debate regulatório no Brasil já começou
Essa percepção equivocada já está sendo endereçada no debate regulatório brasileiro.
O PL 2.338/2023, que trata da governança e do uso de sistemas de inteligência artificial no Brasil, parte de um princípio claro:
quanto maior o risco do sistema, maior deve ser o nível de controle, transparência e responsabilização.
Mesmo em discussão, a direção é inequívoca:
aplicações críticas exigirão mais explicabilidade
a tecnologia não elimina o dever de diligência
a automação não transfere responsabilidade técnica
Para engenheiros e arquitetos, o recado é simples:
a régua de maturidade para uso de IA tende a subir — não a cair.
IA não substitui o arquiteto e o engenheiro — substitui tarefas
A IA não substitui o profissional.
Ela substitui tarefas específicas.
O engenheiro e o arquiteto continuam sendo:
críticos das soluções
validadores técnicos
tomadores da decisão final
Aceitar automaticamente uma recomendação algorítmica, sem validação, caracteriza o chamado viés de automação.
Em um ambiente de litígio, isso pode ser interpretado não como inovação, mas como negligência técnica.
Por que norma não é burocracia — é gestão de risco
Normas técnicas não existem para atrasar projetos.
Elas existem para:
reduzir risco sistêmico
proteger usuários e contratantes
proteger o profissional
criar previsibilidade técnica
Quando a norma é ignorada ou tratada como detalhe operacional, o risco não desaparece.
Ele apenas muda de lugar — e geralmente recai sobre quem assumiu a responsabilidade técnica.
O papel correto da IA em ambientes profissionais
Em contextos responsáveis, a IA:
apoia análises preliminares
organiza informações técnicas
acelera tarefas repetitivas
amplia a capacidade do profissional
Mas ela:
não decide sozinha
não valida conformidade normativa
não transfere responsabilidade
IA sem processo não é inovação.
É exposição ao risco.
Metáfora final: o copiloto
Imagine a IA como o copiloto de uma aeronave.
Ela processa milhares de dados, sugere rotas e antecipa turbulências.
Mas a autoridade legal sobre o pouso continua sendo do comandante.
Se o copiloto sugere uma manobra arriscada e o comandante a executa sem conferir os instrumentos, a responsabilidade pelo destino do voo não é da máquina — é de quem estava no comando.
Conclusão
A inteligência artificial amplia a capacidade de decisão do profissional.
Mas não transfere responsabilidade.
Quanto mais sofisticada a ferramenta,
maior precisa ser a maturidade técnica de quem a utiliza.
É aqui que normas, responsabilidade técnica e IA deixam de ser temas separados —
e passam a ser o mesmo debate.
