Logotipo Mises

www.misesjournal.org.br
MISES: Interdisciplinary Journal of Philosophy Law and Economics
e-ISSN 2594-9187
https://doi.org/10.30800/mises.2025.v13.1613

Ensaios & Insights

Rodrigo Saraiva Marinho

0009-0007-4106-8801

Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa (IDP), Brasília-DF, Brasil

Diretor Executivo do Instituto Livre Mercado, Professor do Instituto Mises Brasil, Mestre e Doutorando em Direito. E-mail: rodrigo.marinho@livremercado.org.br

A arrogância fatal da regulação da inteligência artificial

Resumo: O ensaio Harms of AI, de Daron Acemoglu, propõe a ampla regulação estatal da inteligência artificial (IA) como forma de mitigar riscos sociais e econômicos. Este artigo apresenta uma crítica sistemática a essa abordagem, fundamentada na teoria da ordem espontânea de Friedrich Hayek, no princípio da escassez econômica de Milton Friedman e na metáfora da cooperação descentralizada de Leonard Read. Argumenta-se que a tentativa de regular centralmente um fenômeno tão complexo quanto a IA incorre na “arrogância fatal” de desconsiderar a dinâmica do conhecimento disperso e da coordenação espontânea dos agentes de mercado. Através da análise da cadeia global de produção da IA e de seus múltiplos componentes interdependentes, demonstra-se que a liberdade de mercado e a concorrência constituem instrumentos mais eficazes para mitigar riscos do que regulações centralizadas, que tendem a inibir a inovação e criar distorções econômicas.

Palavras-chave: Inteligência Artificial, Regulação, Arrogância Fatal, Ordem Espontânea Complexidade Econômica.

Introdução

EA inteligência artificial representa uma das transformações tecnológicas mais significativas da era contemporânea, provocando mudanças estruturais em praticamente todos os setores da economia global. Seu desenvolvimento acelerado e suas aplicações cada vez mais amplas geram legítimas preocupações sobre potenciais riscos sociais, econômicos e éticos, levando diversos acadêmicos e formuladores de políticas públicas a proporem marcos regulatórios abrangentes.

Entre as vozes mais influentes neste debate encontra-se Daron Acemoglu, economista do MIT e ganhador do Prêmio Nobel de Economia em 2024, que em seu ensaio Harms of AI defende a necessidade de uma regulação estatal ampla e preventiva da inteligência artificial. Acemoglu (2021) argumenta que os mercados, por si só, são incapazes de internalizar adequadamente os custos sociais da IA, sendo necessária a intervenção governamental para evitar consequências prejudiciais à sociedade.

Este artigo propõe uma análise crítica dessa perspectiva, questionando em que medida a regulação estatal ampla da inteligência artificial incorre na falácia da “arrogância fatal” teorizada por Friedrich Hayek, ignorando a complexidade descentralizada dos processos de inovação e produção tecnológica. Nossa hipótese central é que a regulação ampla e centralizada da IA é não apenas ineficaz, mas contraproducente, pois desconsidera a dinâmica complexa dos mercados e a dispersão do conhecimento, sendo mais adequada a preservação da liberdade de mercado e o fortalecimento da concorrência como estratégias de mitigação de riscos.

A relevância desta investigação reside na necessidade de avaliar criticamente as propostas regulatórias emergentes, considerando tanto os benefícios potenciais quanto os custos ocultos da intervenção estatal em um setor caracterizado pela rápida evolução tecnológica e pela interdependência global de seus componentes produtivos.

A Proposta de Regulação da IA em Daron Acemoglu

Fundamentos da Argumentação de Acemoglu

No ensaio Harms of AI, Daron Acemoglu apresenta uma análise das externalidades negativas potenciais da inteligência artificial, argumentando que os mecanismos de mercado são insuficientes para prevenir danos sociais significativos. Sua argumentação se estrutura em torno de três pilares principais: a existência de falhas de mercado específicas no desenvolvimento da IA, a inadequação dos incentivos privados para internalizar custos sociais e a necessidade de coordenação regulatória preventiva.

Acemoglu identifica diversas categorias de riscos associados à IA, incluindo o desemprego tecnológico em larga escala, a concentração de poder econômico em empresas de tecnologia, a erosão da privacidade individual, os vieses algorítmicos que perpetuam discriminações sociais e os riscos de segurança nacional decorrentes do uso militar da IA. Para o autor, esses riscos são sistêmicos e requerem intervenção regulatória proativa, uma vez que os custos sociais não são adequadamente precificados pelos mercados.

O Marco Regulatório Proposto

A proposta regulatória de Acemoglu inclui elementos como: estabelecimento de agências especializadas para supervisão do desenvolvimento da IA, criação de padrões de segurança e transparência para algoritmos, implementação de mecanismos de responsabilização legal para desenvolvedores e usuários de IA, coordenação internacional para harmonização de normas e estabelecimento de limites para certas aplicações consideradas de alto risco.

O economista defende que a regulação deve ser implementada antes que os danos se tornem irreversíveis, citando precedentes históricos de regulação preventiva em setores como farmacêutico e financeiro. Para Acemoglu, a complexidade e a velocidade de desenvolvimento da IA tornam inadequada a tradicional abordagem regulatória reativa.

Embora Acemoglu reconheça os potenciais benefícios da IA e a importância da inovação, sua análise apresenta limitações significativas do ponto de vista da teoria econômica liberal.

O autor subestima a capacidade dos mercados de se autorregularem através da concorrência e da reputação, superestima a capacidade dos reguladores de antecipar e mitigar riscos complexos e não considera adequadamente os custos dinâmicos da regulação sobre a inovação e o desenvolvimento tecnológico.

Fundamentos Econômicos: Escassez e Conhecimento Disperso

A Teoria da Ordem Espontânea de Hayek

Friedrich Hayek, em obras fundamentais como O Caminho da Servidão (1944) e A Arrogância Fatal (1988), desenvolveu uma teoria abrangente sobre os limites do conhecimento centralizado e os benefícios da coordenação espontânea através dos mecanismos de mercado. Para Hayek, a “arrogância fatal” consiste na crença equivocada de que uma autoridade central pode possuir conhecimento suficiente para planejar e regular eficientemente sistemas complexos.

A teoria hayekiana da ordem espontânea postula que os mercados funcionam como um sistema de processamento de informações distribuído, onde os preços agregam conhecimento disperso entre milhões de agentes econômicos. Este processo de descoberta e coordenação é impossível de ser replicado por qualquer autoridade central, independentemente de sua competência técnica ou recursos disponíveis.

No contexto da inteligência artificial, a aplicação da teoria de Hayek sugere que o desenvolvimento tecnológico resulta de um processo emergente de experimentação, competição e seleção natural de soluções, onde o conhecimento relevante está disperso entre desenvolvedores, usuários, investidores e outros participantes do ecossistema de inovação.

O Princípio da Escassez e Custos de Oportunidade

Milton Friedman, em Livre para Escolher (1984), enfatiza que todos os recursos são escassos e que qualquer alocação de recursos implica custos de oportunidade. A regulação governamental, por consumir recursos escassos (tempo, capital humano, capacidade administrativa), necessariamente reduz a disponibilidade desses recursos para outras atividades produtivas.

No caso da IA, a regulação excessiva pode desviar recursos humanos altamente qualificados da pesquisa e desenvolvimento para atividades de compliance, reduzindo o ritmo de inovação e limitando os benefícios sociais potenciais da tecnologia. Friedman também destaca que os incentivos dos reguladores frequentemente divergem dos incentivos sociais, levando a regulamentações que beneficiam grupos específicos em detrimento do bem-estar geral.

Ronald Reagan define bem como burocratas pensam sobre a lógica econômica: “a visão do governo sobre economia pode ser resumida em frases curtas: se a coisa se move, taxe-a; se continuar em movimento, regule-a; se ela parar de se mover, subsidie-a.”

A Complexidade da Produção Global: A Lição de Leonard Read

Leonard Read, em seu clássico ensaio Eu, o Lápis (1958), ilustra magistralmente a complexidade da coordenação econômica através da descrição dos múltiplos processos e agentes envolvidos na produção de um objeto aparentemente simples.

A metáfora do lápis demonstra que nenhum indivíduo ou organização possui conhecimento completo sobre todos os aspectos da produção, sendo a coordenação eficiente resultado da interação espontânea entre agentes especializados.

Esta lição é particularmente relevante para a inteligência artificial, cuja cadeia de produção é exponencialmente mais complexa que a de um lápis, envolvendo desde a extração de minerais raros até o desenvolvimento de algoritmos sofisticados, passando por múltiplas etapas de fabricação, montagem e integração de componentes.

A Cadeia Global de Produção da Inteligência Artificial

Mineração e Matérias-Primas

A fundação da inteligência artificial reside na extração de minerais críticos como lítio, cobalto, terras raras e outros elementos essenciais para a fabricação de semicondutores e baterias.

Estes recursos estão geograficamente dispersos: o lítio é principalmente extraído no Chile, Austrália e Argentina; o cobalto provém majoritariamente da República Democrática do Congo; as terras raras são concentradas na China, mas também exploradas nos Estados Unidos, Austrália e outros países (IEA, 2021; Schneider, 2022).

Cada local de extração possui características geológicas, regulatórias e socioeconômicas únicas, exigindo conhecimento especializado sobre condições locais, técnicas de mineração, impactos ambientais e dinâmicas de mercado (Humphreys, 2019). A tentativa de regular centralmente essa etapa inicial seria não apenas impraticável, mas potencialmente prejudicial à eficiência da extração e à sustentabilidade ambiental.

Refino e Processamento de Semicondutores

O processamento dos minerais extraídos em materiais utilizáveis para semicondutores envolve uma cadeia complexa de refinarias e instalações de processamento, cada uma especializada em etapas específicas da transformação.

Taiwan concentra grande parte da produção mundial de semicondutores avançados, enquanto a Coreia do Sul, Japão, Estados Unidos e outros países possuem capacidades complementares (Lee, 2020; OECD, 2022).

A fabricação de chips para IA requer precisão nanométrica, controle ambiental extremo e conhecimento técnico altamente especializado. As empresas envolvidas nesta etapa, como TSMC, Samsung e Intel, desenvolveram ao longo de décadas competências específicas que não podem ser facilmente replicadas ou regulamentadas por autoridades externas ao setor.

Design e Arquitetura de Hardware

O design de processadores especializados para IA, como GPUs e TPUs, envolve equipes multidisciplinares de engenheiros, matemáticos e cientistas da computação.

Empresas como NVIDIA, AMD, Google e Apple investem bilhões de dólares em pesquisa e desenvolvimento, competindo para criar arquiteturas mais eficientes e potentes (Dean, 2023). Esta competição resulta em inovações constantes em design de chips, otimização de energia, paralelização de processamento e outras dimensões técnicas.

O processo de design é altamente iterativo e experimental, dependendo de feedback contínuo entre equipes de hardware e software, impossível de ser antecipado ou direcionado por reguladores externos.

Desenvolvimento de Software e Algoritmos

A camada de software da IA inclui desde sistemas operacionais especializados até frameworks de aprendizado de máquina e algoritmos específicos para diferentes aplicações.

Este desenvolvimento ocorre em universidades, laboratórios de pesquisa corporativos, startups e projetos de código aberto ao redor do mundo (Beer, 2017).

A natureza do desenvolvimento de software favorece a experimentação rápida, a colaboração distribuída e a evolução iterativa. Plataformas como GitHub facilitam a colaboração global entre desenvolvedores, permitindo que melhorias sejam incorporadas rapidamente e que bugs sejam identificados e corrigidos pela comunidade.

Infraestrutura e Serviços de Nuvem

A operação de sistemas de IA em larga escala requer infraestrutura massiva de data centers, redes de comunicação e serviços de nuvem. Empresas como Amazon (AWS), Microsoft (Azure) e Google (Cloud Platform) investem continuamente na expansão e otimização de suas infraestruturas globais.

A localização estratégica de data centers considera fatores como disponibilidade de energia, condições climáticas, conectividade de rede, regulamentações locais e proximidade com usuários finais (Dean, 2023).

Esta otimização complexa resulta de decisões descentralizadas baseadas em informações locais específicas, não em planejamento central.

Integração e Aplicações Finais

A etapa final da cadeia envolve a integração de componentes de IA em produtos e serviços específicos, desde assistentes virtuais até sistemas de diagnóstico médico e veículos autônomos.

Esta integração requer conhecimento profundo sobre domínios de aplicação específicos, necessidades dos usuários finais e contextos regulatórios particulares. Cada aplicação de IA apresenta desafios únicos que não podem ser antecipados por reguladores generalistas.

A inovação nesta etapa depende da experimentação por parte de empreendedores e empresas que possuem conhecimento íntimo dos mercados que servem (Beer, 2017; Schneider, 2022).

Crítica à Regulação Centralizada

O Problema do Conhecimento

A análise da cadeia de produção da IA revela a impossibilidade de qualquer autoridade central possuir conhecimento suficiente para regular eficientemente todos os aspectos do desenvolvimento tecnológico.

Cada etapa da cadeia requer expertise específica, conhecimento de condições locais e capacidade de adaptação rápida a mudanças tecnológicas e de mercado.

Os reguladores, por mais competentes que sejam, enfrentam limitações fundamentais de informação. Eles não possuem acesso ao conhecimento tácito dos desenvolvedores, não podem antecipar todas as aplicações possíveis da tecnologia e não conseguem avaliar adequadamente os trade-offs complexos entre diferentes objetivos regulatórios.

Incentivos Distorcidos e Captura Regulatória

A teoria da escolha pública, desenvolvida por economistas como James Buchanan e Gordon Tullock (1962), demonstra que os reguladores possuem incentivos próprios que podem divergir do interesse público.

Burocratas podem buscar maximizar seu orçamento, poder e prestígio, levando a regulamentações excessivas ou inadequadas, o que no fim vai prejudicar o usuário de IA não só no Brasil, mas onde a burocracia se impor.

No caso da IA, existe o risco significativo de captura regulatória, onde empresas estabelecidas influenciam o processo regulatório para criar barreiras à entrada que protegem suas posições de mercado.

Regulamentações complexas favorecem grandes corporações que possuem recursos para compliance, prejudicando startups e inovadores menores.

Efeitos Dinâmicos Sobre a Inovação

A regulação preventiva da IA pode ter efeitos negativos significativos sobre o ritmo e a direção da inovação. Ao impor custos de compliance e criar incertezas regulatórias, a regulação pode desencorajar investimentos em pesquisa e desenvolvimento, retardar a comercialização de tecnologias benefíciais e limitar a experimentação necessária para o progresso tecnológico.

Estes efeitos dinâmicos são particularmente importantes no caso da IA, onde o ritmo de desenvolvimento é acelerado e as aplicações potenciais são vastas, todos os dias surgem novas tecnologias e possibilidades com IA, permitindo novas aplicações e possibilidades.

A regulação prematura pode “congelar” tecnologias em estágios subótimos de desenvolvimento, impedindo melhorias que poderiam reduzir riscos e aumentar benefícios.

A natureza global da cadeia de produção da IA torna a coordenação regulatória internacional extremamente complexa e perigosa. Diferentes países possuem sistemas jurídicos, prioridades políticas e capacidades regulatórias distintas, tornando improvável a harmonização efetiva de normas.

Sem conta com a cultura de cada local, uns mais propensos a inovação e o risco e outros menos. A fragmentação regulatória resultante pode levar à fragmentação dos mercados globais de IA, reduzindo a eficiência da especialização internacional e criando custos adicionais para empresas que operam em múltiplas jurisdições. Paradoxalmente, a tentativa de regular globalmente pode resultar em menor coordenação efetiva.

Mecanismos de Mercado para Mitigação de Riscos

Reputação e Responsabilidade Contratual

Os mercados possuem mecanismos internos para lidar com riscos e externalidades. A reputação empresarial funciona como um poderoso incentivo para comportamento responsável, especialmente em mercados onde a confiança é fundamental. Empresas que desenvolvem IA têm fortes incentivos para manter a confiança dos usuários, investidores e parceiros comerciais.

Contratos e acordos de responsabilidade podem internalizar custos de potenciais danos causados por sistemas de IA. O sistema legal tradicional de responsabilidade civil e penal já fornece instrumentos para lidar com danos efetivos, sem necessidade de regulamentação preventiva específica.

Concorrência como Disciplina de Mercado

A concorrência entre desenvolvedores de IA cria incentivos para melhorias contínuas em segurança, eficiência e funcionalidade. Empresas que falham em atender adequadamente às preocupações dos usuários perdem participação de mercado para competidores mais responsivos.

Este processo de seleção competitiva é mais eficiente que a regulação para identificar e promover as melhores práticas. A concorrência também reduz os riscos de concentração excessiva de poder, um dos principais temores relacionados à IA.

A indústria de tecnologia tem histórico de desenvolvimento de padrões técnicos e éticos através de organizações como IEEE, ACM e outras entidades profissionais. Estas iniciativas de autorregulação são mais flexíveis e responsivas às mudanças tecnológicas que regulamentações governamentais.

Iniciativas como o Partnership on AI, que reúne grandes empresas de tecnologia para desenvolver melhores práticas, demonstram a capacidade da indústria de autorregulação responsável. Estes esforços são mais eficazes porque envolvem diretamente os agentes que possuem conhecimento técnico específico.

A demanda do mercado por sistemas de IA seguros e transparentes cria incentivos para inovação em técnicas de segurança, interpretabilidade de algoritmos e auditoria de sistemas. Startups especializadas em segurança de IA emergem para atender esta demanda, criando um ecossistema de soluções complementares.

Esta inovação dirigida pelo mercado é mais dinâmica e adaptável que soluções regulatórias padronizadas, permitindo evolução contínua das práticas de segurança conforme a tecnologia avança.

Evidências Empíricas e Casos Comparativos

Lições da Regulação de Tecnologias Anteriores

A história da regulação tecnológica oferece lições importantes sobre os custos da intervenção prematura. A regulação da internet nos anos 1990 foi deliberadamente limitada, permitindo inovação e crescimento explosivos. Em contraste, setores mais regulamentados como telecomunicações e energia tiveram ritmos de inovação mais lentos.

O caso da biotecnologia também ilustra os trade-offs regulatórios. Enquanto a regulação de medicamentos pela FDA previne alguns riscos, também atrasa significativamente a disponibilização de tratamentos benéficos, resultando em custos em vidas humanas que raramente são contabilizados.

Diferentes países estão adotando abordagens distintas para a regulação da IA, criando um experimento natural sobre a eficácia de diferentes modelos. A União Europeia está implementando regulamentação abrangente através do AI Act, enquanto os Estados Unidos favorecem uma abordagem mais orientada pelo mercado.

Os resultados comparativos destes diferentes modelos ao longo do tempo fornecerão evidências importantes sobre a eficácia relativa da regulação versus liberdade de mercado no desenvolvimento responsável da IA.

Dados sobre investimentos em IA, registro de patentes, criação de startups e outros indicadores de inovação podem ser analisados em relação aos ambientes regulatórios para identificar padrões empíricos. Evidências preliminares sugerem que jurisdições com menores restrições regulatórias atraem mais investimentos e geram mais inovação.

A Regulação da Inteligência Artificial e o Paralelo com a Lei da Informática

A experiência brasileira com a Lei da Informática, nos anos 1980, oferece um alerta histórico relevante para o debate contemporâneo sobre a regulação da inteligência artificial. Assim como na década perdida, observa-se hoje uma crescente pressão internacional por marcos regulatórios que buscam “domesticar” tecnologias emergentes por meio de controle estatal antecipado, barreiras à entrada e certificações obrigatórias.

No entanto, a tentativa de regimentar um campo ainda em rápido desenvolvimento carrega o risco de sufocar a inovação, consolidar monopólios institucionais e isolar ecossistemas locais de aprendizado global – exatamente como ocorreu no caso brasileiro há quatro décadas.

A chamada ‘autonomia tecnológica’ promovida pela reserva de mercado na informática nacional, ao invés de gerar soberania, produziu atraso tecnológico, baixa competitividade e consumidores cativos de produtos obsoletos. Como já denunciava Roberto Campos à época, tratava-se de uma ‘autarquia intelectual’, onde a busca por independência tecnológica resultava em dependência do atraso: “Reservamos mercado para a obsolescência e chamamos isso de soberania” (Campos, 1986).

Analogamente, uma regulação ex-ante da IA, com exigências rígidas e homogêneas, pode criar um arcabouço regulatório que beneficie incumbentes e prejudique startups, universidades e desenvolvedores independentes (Beer, 2017; Dean, 2023). Ao tentar evitar riscos hipotéticos futuros, o Estado pode impor custos reais e imediatos ao processo de descoberta descentralizada que caracteriza a evolução tecnológica em sociedades abertas.

A história da Lei da Informática evidencia que o ambiente institucional que mais favorece a inovação é aquele que protege a liberdade de empreender, experimentar e errar, não aquele que presume a capacidade de antever e regular centralmente trajetórias tecnológicas complexas.

Nesse sentido, o Brasil – ao invés de repetir o modelo intervencionista do passado – deveria se posicionar como um hub de liberdade regulatória na IA, adotando princípios de accountability ex post, inovação responsiva e concorrência aberta, em vez de replicar os modelos proibicionistas da União Europeia ou os centralizados da China.

Conclusão

A análise crítica da proposta de regulação ampla da inteligência artificial de Daron Acemoglu, fundamentada nos princípios da ordem espontânea de Hayek, da escassez econômica de Friedman e da complexidade produtiva ilustrada por Read, revela limitações fundamentais da abordagem regulatória centralizada.

A cadeia global de produção da IA demonstra um nível de complexidade e interdependência que torna impraticável a regulação eficaz por autoridades centrais. O conhecimento necessário para o desenvolvimento e aplicação responsável da IA está disperso entre milhões de agentes especializados ao redor do mundo, não podendo ser adequadamente agregado ou antecipado por reguladores.

Os mecanismos de mercado - incluindo reputação, responsabilidade contratual, concorrência e autorregulação - oferecem instrumentos mais eficazes e dinâmicos para mitigar os riscos associados à IA. Estes mecanismos são capazes de se adaptar rapidamente às mudanças tecnológicas e de incorporar conhecimento disperso de forma mais eficiente que regulamentações centralizadas.

A tentativa de regular preventivamente a IA incorre na “arrogância fatal” de ignorar os limites do conhecimento centralizado e os custos dinâmicos da intervenção sobre a inovação. Os riscos de regular prematuramente uma tecnologia em rápida evolução podem superar os benefícios pretendidos, especialmente considerando os enormes benefícios sociais potenciais da IA.

Não se trata de ignorar os riscos legítimos associados à inteligência artificial, mas de reconhecer que os mercados livres e competitivos, apoiados por instituições jurídicas sólidas de proteção à propriedade e responsabilização por danos, constituem o melhor mecanismo disponível para maximizar os benefícios e minimizar os riscos desta tecnologia transformadora.

A preservação da liberdade de mercado e o fortalecimento da concorrência, não a regulação centralizada, representam a estratégia mais promissora para assegurar que a inteligência artificial seja desenvolvida e aplicada de forma responsável e benéfica para a sociedade.

Referências

Acemoglu, D. (2021). Harms of AI (Working Paper No. 29247). National Bureau of Economic Research. https://www.nber.org/papers/w29247

Beer, D. (2017). The social power of algorithms. Information, Communication & Society, 20(1), 1-13. https://doi.org/10.1080/1369118X.2016.1216147

Buchanan, J. M., & Tullock, G. (1962). The calculus of consent: Logical foundations of constitutional democracy. University of Michigan Press.

Campos, R. (1986). Lanterna na popa. Topbooks.

Dean, J. (2023). Scaling AI: The infrastructure behind large models. Google AI Blog. https://ai.googleblog.com/2023/04/scaling-ai-infrastructure-behind-large.html

Friedman, M. (1984). Livre para escolher. Record.

Hayek, F. A. (1988). A arrogância fatal: Os erros do socialismo. Instituto Liberal.

Humphreys, D. (2019). The remaking of the mining industry. Palgrave Macmillan.

Lee, J. (2020). Semiconductors and the U.S.-China innovation race. Hudson Institute. https://www.hudson.org/technology/semiconductors-and-the-u-s-china-innovation-race

OECD. Organization for Economic Co-operation and Development. (2022). Trade in raw materials: A summary report. OECD Publishing. https://www.oecd.org/trade/topics/trade-in-raw-materials/

Read, L. E. (1958). Eu, o lápis. Foundation for Economic Education.

Schneider, E. (2022). Global supply chains for critical minerals. Brookings Institution. https://www.brookings.edu/articles/global-supply-chains-for-critical-minerals/

Enviado: 30 JUN 2025 | Aprovado: 07 JUL 2025 | Publicado: 29 JUL 2025

MISES: Interdisciplinary Journal of Philosophy Law and Economics, São Paulo, 2025, v. 13.