Normas, Responsabilidade Técnica e IA Da “Caixa-Preta” à “Caixa de Vidro”: onde mora o risco real na arquitetura e engenharia

A inteligência artificial já está presente em projetos de engenharia e arquitetura. Mas normas técnicas, responsabilidade profissional e gestão de risco continuam sendo humanas. Este artigo explica por que a IA amplia decisões — mas não transfere responsabilidade.

Build Future Lab

6/26/20254 min ler

Normas, Responsabilidade Técnica e IA

Da “Caixa-Preta” à “Caixa de Vidro”: onde mora o risco real na arquitetura e engenharia.

A inteligência artificial deixou de ser promessa e já faz parte do dia a dia de escritórios de projeto, construtoras e incorporadoras. Ela acelera análises, organiza informações, compara alternativas e reduz tarefas operacionais que antes consumiam semanas.

Mas à medida que decisões cada vez mais críticas passam a ser apoiadas por algoritmos, surge um ponto incontornável:

a responsabilidade técnica não foi automatizada.

Essa não é uma discussão tecnológica.
É uma discussão de norma, risco e responsabilidade civil.

A falsa sensação de segurança no uso da IA

A IA costuma entregar respostas:

  • bem estruturadas

  • coerentes

  • com aparência técnica

  • e linguagem segura

Isso cria uma sensação psicológica de confiança.

Mesmo profissionais experientes começam, muitas vezes sem perceber, a assumir que:

  • se “parece correto”, deve estar conforme

  • se a IA citou uma norma, ela interpretou corretamente

  • se veio rápido, é eficiente

Aparência de consistência não é conformidade normativa.

E essa falsa segurança tem uma origem técnica clara.

A IA como “caixa-preta” — e o conflito com a engenharia e a arquitetura

Grande parte dos sistemas de inteligência artificial utilizados hoje opera como uma caixa-preta.

Na prática:

  • sabemos quais dados entram

  • sabemos qual resposta sai

  • mas não conseguimos reconstruir, passo a passo, o raciocínio técnico que levou àquela decisão

Critérios intermediários, pesos e inferências não são plenamente auditáveis.

Esse modelo funciona para recomendação de filmes ou tradução de textos.
Mas entra em choque direto com a prática profissional em engenharia e arquitetura.

Quando um projeto é questionado — em auditoria, perícia ou disputa judicial — não basta apresentar o resultado final.
É necessário demonstrar como e por que aquela decisão foi tomada.

Projetar, construir e operar exige rastreabilidade. A caixa-preta não entrega isso

A prática profissional se sustenta em pilares claros:

  • critérios técnicos explícitos

  • atendimento normativo verificável

  • justificativa documentada

  • responsabilidade individual

Normas técnicas não trabalham com “provável”.
Elas trabalham com requisitos, limites, exceções e condições de aplicação.

A IA, por outro lado:

  • opera por correlação estatística

  • extrapola padrões

  • completa lacunas quando a informação é insuficiente

Quando falta dado estruturado, a IA não para — ela infere.
E inferência, em engenharia, é risco.

Do “Black Box” ao “Glass Box”: transparência como defesa técnica

É nesse ponto que surge o debate sobre a transição da caixa-preta (black box) para a caixa de vidro (glass box).

Não se trata de tornar a IA “mais inteligente”.
Trata-se de torná-la explicável, auditável e defensável.

Em ambientes técnicos maduros, a explicabilidade da IA:

  • não é luxo

  • não é tendência

  • é governança mínima

Sem transparência, a ferramenta acelera decisões, mas não sustenta nenhuma delas quando o projeto é questionado.

A ilusão do “vácuo de responsabilidade”

Com a adoção da IA, muitos profissionais acreditam que a responsabilidade se dilui entre software, algoritmo e dados.

Na prática, ocorre exatamente o oposto.

A IA:

  • não possui responsabilidade civil

  • não tem registro profissional

  • não responde tecnicamente

  • não participa de perícia

  • não assume ônus jurídico

Quem responde continua sendo quem assina.

Não existe vácuo de responsabilidade.
Existe apenas a falsa sensação de que ele existe.

O debate regulatório no Brasil já começou

Essa percepção equivocada já está sendo endereçada no debate regulatório brasileiro.

O PL 2.338/2023, que trata da governança e do uso de sistemas de inteligência artificial no Brasil, parte de um princípio claro:
quanto maior o risco do sistema, maior deve ser o nível de controle, transparência e responsabilização.

Mesmo em discussão, a direção é inequívoca:

  • aplicações críticas exigirão mais explicabilidade

  • a tecnologia não elimina o dever de diligência

  • a automação não transfere responsabilidade técnica

  • Para engenheiros e arquitetos, o recado é simples:
    a régua de maturidade para uso de IA tende a subir — não a cair.

IA não substitui o arquiteto e o engenheiro — substitui tarefas

A IA não substitui o profissional.
Ela substitui tarefas específicas.

O engenheiro e o arquiteto continuam sendo:

  • críticos das soluções

  • validadores técnicos

  • tomadores da decisão final

Aceitar automaticamente uma recomendação algorítmica, sem validação, caracteriza o chamado viés de automação.

Em um ambiente de litígio, isso pode ser interpretado não como inovação, mas como negligência técnica.

Por que norma não é burocracia — é gestão de risco

Normas técnicas não existem para atrasar projetos.
Elas existem para:

  • reduzir risco sistêmico

  • proteger usuários e contratantes

  • proteger o profissional

  • criar previsibilidade técnica

Quando a norma é ignorada ou tratada como detalhe operacional, o risco não desaparece.
Ele apenas muda de lugar — e geralmente recai sobre quem assumiu a responsabilidade técnica.

O papel correto da IA em ambientes profissionais

Em contextos responsáveis, a IA:

  • apoia análises preliminares

  • organiza informações técnicas

  • acelera tarefas repetitivas

  • amplia a capacidade do profissional

Mas ela:

  • não decide sozinha

  • não valida conformidade normativa

  • não transfere responsabilidade

IA sem processo não é inovação.
É exposição ao risco.

Metáfora final: o copiloto

Imagine a IA como o copiloto de uma aeronave.

Ela processa milhares de dados, sugere rotas e antecipa turbulências.
Mas a autoridade legal sobre o pouso continua sendo do comandante.

Se o copiloto sugere uma manobra arriscada e o comandante a executa sem conferir os instrumentos, a responsabilidade pelo destino do voo não é da máquina — é de quem estava no comando.

Conclusão

A inteligência artificial amplia a capacidade de decisão do profissional.
Mas não transfere responsabilidade.

Quanto mais sofisticada a ferramenta,
maior precisa ser a maturidade técnica de quem a utiliza.

É aqui que normas, responsabilidade técnica e IA deixam de ser temas separados —
e passam a ser o mesmo debate.