As Organizações como Algoritmos: a validade da proposta enquanto continuação dos estudos das imagens da organização de Morgan

Por Michel Pires de Araujo e Renata Biana da Silva

A compreensão das organizações tem sido moldada, ao longo da história da teoria da administração, por diversas metáforas, cada qual iluminando facetas específicas de sua complexidade e, ao mesmo tempo, obscurecendo outras. 

Gareth Morgan (2002), em sua obra “Imagens da Organização”, postula que toda teoria e prática da organização e da administração baseia-se em imagens, ou metáforas, que nos levam a entender situações de maneira eficaz, embora parcial. A metáfora, como figura de linguagem comparativa, atua como uma força por meio da qual os seres humanos criam significados, utilizando um elemento de sua experiência na compreensão de outro.

Desde as visões mecanicistas que as concebiam como máquinas eficientes e previsíveis, passando pela perspectiva orgânica que as enxergava como sistemas vivos adaptáveis ao ambiente, até a metáfora do cérebro, que destacava sua capacidade de aprendizado e auto-organização, o campo da administração tem buscado incessantemente novas lentes para decifrar a dinâmica organizacional. Em um cenário cada vez mais caracterizado pela tomada de decisão algorítmica e pela proliferação de dados, uma nova metáfora surge como promissora: a de “organizações como algoritmos”. 

Embora as imagens clássicas de máquina, organismo, cérebro, cultura, sistema político, prisão psíquica, fluxo e transformação e instrumento de dominação  continuem a oferecer ferramentas de análise das dinâmicas organizacionais, a ascensão da inteligência artificial e da tomada de decisões assistidas por algoritmos demanda uma ampliação da lente interpretativa. 

Nesse sentido, Glaser, Sloan e Gehman (2024) propõem que as organizações podem ser vistas como algoritmos, oferecendo uma compreensão matizada das interconexões entre dados, processos algorítmicos e agência em um cenário organizacional cada vez mais mediado por tecnologias avançadas. Essa visão, sugerem os autores, desafia as dicotomias tradicionais ao reposicionar a agência em arranjos sociotécnicos, ressaltando o papel transformador da programação e da prompting, na reavaliação contínua do funcionamento das organizações na era digital.

Todavia, não se pretende adentrar no mérito do cabimento do uso da palavra algoritmo, sem uma investigação pormenorizada da origem do constructo, de modo que possamos prosseguir com a análise proposta.

Assim sendo, no ano de 1937, Alan Turing apresentou a célebre “máquina de Turing”, considerada a mais robusta e objetiva formalização do conceito de “função efetivamente computável”, ou seja, da ideia de um problema que pode ser resolvido mediante a execução de um algoritmo. A partir dessa contribuição, tornou-se pertinente e sistemática a investigação acerca de quais problemas admitem solução computacional, bem como qual o grau de complexidade relativo de funções que, embora computáveis, podem diferir consideravelmente quanto à dificuldade de sua execução prática (Abreu, 1987).

Nesse sentido, de acordo com Donald Ervin Knuth, matemático,  norte-americano, renomado cientista da computação, professor emérito da Universidade de Stanford, algoritmo é uma sequência finita, de regras bem definidas, que descreve um procedimento passo a passo, para resolver um tipo específico de problema. 

Richardson (1919), a seu turno, explica que um sistema é chamado de determinístico quando seu estado, em qualquer momento, pode ser previsto com exatidão, se soubermos informações suficientes sobre ele em momentos anteriores e se conhecermos a regra que liga essas informações ao futuro. Dessa forma, um sistema determinístico é um sistema previsível, no qual nada acontece ao acaso – tudo decorre de uma regra clara. 

Dessa forma, no sentido lógico e operacional, um algoritmo é determinístico por essência, um sistema determinístico intencionalmente projetado.

Sistemas baseados em inteligência artificial são treinados por meio de algoritmos específicos de aprendizagem de máquina. Para Shalev-Shwartz e Ben-David (2014), um algoritmo de aprendizagem de máquina é o mecanismo computacional que, recebendo dados de treinamento, produz uma forma de expertise — normalmente outro programa ou modelo — capaz de executar uma tarefa específica, sendo esta expertise derivada da identificação automatizada de padrões relevantes nos dados.

Kannegieter (2025) alerta que o não-determinismo, no contexto dos Large Language Models (LLMs), significa que o modelo pode produzir saídas diferentes mesmo quando fornecida a mesma entrada. Para o autor, um sistema baseado em inteligência artificial generativa não pode ser considerado um sistema determinístico porque, por definição técnica, ele é estocástico (incorpora um grau intrínseco de aleatoriedade em seus processos de geração de saídas). Esse comportamento é um subproduto das complexas redes neurais e de vastas quantidades de dados usados para treinar esses modelos. Dessa forma, embora o não-determinismo possa levar a resultados criativos e diversos, também pode causar inconsistência, o que pode ser indesejável em certas aplicações de negócios.

Chamar organizações de algoritmos é uma metáfora imprecisa que ignora premissas centrais do próprio conceito de algoritmo. Desde a máquina de Turing, em 1937, sabemos que um algoritmo é, por definição, uma sequência finita de passos claros para resolver um problema – ou seja, um procedimento determinístico (Knuth, 1997; Richardson, 1919). É previsível: dado o mesmo input, produz sempre o mesmo output.

Assim, dizer que uma organização “é um algoritmo” ignora o fato de que algoritmos, no sentido técnico, são intencionalmente projetados para operar sem surpresa — algo impossível em sistemas generativos.

É claro que autores como Glaser et al. (2024) tentam ampliar o sentido de “algoritmo” para além da computação clássica, tratando-o como parte de um conjunto sociotécnico vivo – um assemblage de rotinas, dados e decisões. Mas estender tanto o conceito esvazia sua força técnica. Um algoritmo, na acepção de Turing e Knuth, não é dinâmico nem sujeito a variação estocástica: é uma regra clara para resolver um tipo de problema. Organizações não são isso.

Assim sendo, cada uma das metáforas aqui abordadas buscou, ainda que de maneira fracassada, iluminar aspectos distintos – da eficiência mecânica à adaptabilidade orgânica, da capacidade de aprendizado do cérebro à complexidade simbólica da cultura, da dinâmica de poder político às profundezas do inconsciente e à natureza fluida da transformação. No entanto, o próprio Morgan ao advertir sobre a parcialidade inerente a cada metáfora, enfatizando a importância de uma “leitura-diagnóstico” que combine múltiplos pontos de vista para lidar com a complexidade, positivou um alerta aos pesquisadores quando da condução de suas investigações – no sentido de jamais pretender serem as suas metáforas – como a do algoritmo – a derradeira, quando da investigação da realidade organizacional.

Portanto, a metáfora que propõe seja a organização analisada por meio da imagem do algoritmo, falha duplamente: tecnicamente, porque equipara sistemas determinísticos a modelos estocásticos; conceitualmente, porque transforma uma noção precisa em um rótulo vago. Talvez seja mais honesto falar de organizações como sistemas híbridos, em que algoritmos, modelos não-determinísticos e fatores humanos convivem — sem reduzir tudo a um procedimento prescritivo passo a passo. Vandekerckhove e Emmanuel (2025) reforçam que as inovações constantes em tecnologia da informação e inteligência artificial vêm transformando a forma como se compreendem as organizações, que passaram a ser comparadas a “ciborgues” — entidades híbridas, constituídas por elementos humanos e tecnológicos, cuja dinâmica se dá, em grande parte, por decisões mediadas por algoritmos.

REFERÊNCIAS

ABREU, Nair Maria Maia de. A teoria da complexidade computacional. Revista Militar de Ciência e Tecnologia, Rio de Janeiro, v. 4, n. 1, p. 90-95, jan./mar. 1987. Disponível em: https://rmct.ime.eb.br/arquivos/RMCT_1_tri_1987/teoria_complex_comput.pdf. Acesso em: 14 jun. 2025.

GLASER, V. L.; SLOAN, J.; GEHMAN, J. Organizations as Algorithms: A new metaphor for advancing management theory. Journal of Management Studies, v. 61: 2748-2769, 2024. https://doi.org/10.1111/joms.13033

KANNEGIETER, Trent. Nondeterministic Torts: LLM Stochasticity and Tort Liability. Available at SSRN 5208155, 2025.

KNUTH, Donald Ervin. Fundamental algorithms. The art of computer programming, v. 1, p. 261-268, 1997.

MORGAN, Gareth, 1943 – Imagens da organização: edição executiva/Gareth Morgan; tradução Geni G. Goldschmidt. – 2. ed. – 4a reimpressão – São Paulo: Atlas, 2002. 

RICHARDSON, C. A. The notion of a deterministic system. The Philosophical Review, v. 28, n. 1, p. 47-68, 1919.

SHALEV-SHWARTZ, Shai; BEN-DAVID, Shai. Understanding machine learning: From theory to algorithms. Cambridge university press, 2014.

STANFORD UNIVERSITY. Donald Knuth. Disponível em: https://profiles.stanford.edu/donald-knuth. Acesso em: 14 jun. 2025.VANDEKERCKHOVE, Wim; EMMANUEL, Myrtle. Inherent normativity of metaphors: ethics, organizations, and moral imagination. Philosophy of Management, v. 24, n. 2, p. 207-230, 2025.

Back To Top