A antropomorfização das máquinas. Existe inteligência artificial?
Publicado em 20/08/2025

A antropomorfização das máquinas. Existe inteligência artificial?

Resumo: Este artigo explora a antropomorfização da Inteligência Artificial (IA), destacando como analogias entre máquinas e humanos, embora úteis, podem ser enganosas. Termos como “aprendizagem” e “memória” aplicados à IA obscurecem as diferenças fundamentais entre o aprendizado humano e o de máquina. A IA, apesar de seus avanços, ainda enfrenta desafios em replicar a complexidade da cognição humana, especialmente em áreas como tomada de decisões e compreensão de nuances. A dependência da IA em grandes volumes de dados e poder computacional contrasta com a capacidade humana de aprender com poucas ocorrências. Além disso, a ausência de emoções nas máquinas levanta questões sobre sua capacidade de alcançar a verdadeira inteligência. A superconfiança nos sistemas automatizados também é problemática, situação evidenciada por estudos que mostram como a presença de robôs, compartilhando tarefas, pode levar a erros humanos. Embora a IA seja uma ferramenta poderosa, é crucial reconhecer suas limitações e evitar atribuir-lhe características humanas de forma indiscriminada. A compreensão das distinções entre humanos e máquinas é essencial para o desenvolvimento e uso ético da IA. Este é um estudo bibliográfico construído a partir do arcabouço teórico proposto por Luhmann e suas teorias: dos sistemas e dos sistemas sociais (1990, 1998, 2011), bem como utiliza outros estudos a respeito do tema.

1. Introdução

No dia 22 de junho de 2023, um juiz federal de Manhattan, em Nova Iorque, multou dois advogados por citarem pesquisas jurídicas falsas geradas pelo ChatGPT em um caso de lesão corporal. O juiz considerou o caso inédito e sancionou o escritório de advocacia Levidow, Levidow & Oberman e dois de seus advogados com uma multa de US$ 5.000 por usar material falso criado por inteligência artificial generativa em um processo judicial. O uso de pesquisas falsas foi feito para apoiar um cliente que alegava ter se machucado em um voo comercial. Os advogados punidos, Steven A. Schwartz e Peter LoDuca, usaram o ChatGPT para embasar a argumentação de que o processo movido por seu cliente era válido. Schwartz alegou desconhecer a capacidade da ferramenta de “inventar casos”, e LoDuca disse ter confiado na pesquisa do colega. O juiz, no entanto, apontou que os advogados inicialmente insistiram na veracidade das pesquisas, mesmo após questionamentos. A firma Levidow, Levidow & Oberman informou que irá acatar a decisão, mas negou má-fé (MULVANEY, 2023).

Historicamente, os dispositivos tecnológicos foram criados como escopo de superação das limitações físicas dos seres humanos, sem, contudo, replicar suas capacidades mentais. Porém, iniciou-se um processo de muita investigação e desenvolvimento centrado na criação de sistemas computacionais que imitam a estrutura e função do cérebro. Assim, a tecnologia, de acordo com Sadin, passou a adotar uma forte abordagem antropomórfica (2020, pp. 17-20).

E é sobre esta abordagem que decorre o sentido morfológico do termo antropomorfizar, ou seja, atribuir a algo não humano, forma ou característica humanas, conforme definido por Houaiss e Villar (2001, p. 240). Já no que diz respeito ao termo máquina, é utilizado, para fins de desenvolvimento deste trabalho, de acordo com a cibernética e refere-se às fórmulas matemáticas, cálculos e regras de transformação, e não necessariamente limita-se a interpretar apenas dispositivos eletrônicos ou mecânicos (LUHMANN, 2011, pp. 108-109).

Neste campo conceitual um algoritmo é uma máquina e executar um programa é proporcionar um acoplamento estrutural entre dois sistemas, hardware e software, cujos elementos são maquínicos. Tavares-Pereira afirma que um algoritmo é uma máquina virtual que depende de uma máquina física para se manifestar (2021, p. 70).

Na metade do século passado, os pioneiros da inteligência artificial definiram uma missão com um objetivo ambicioso e claro, isto é, replicar a inteligência humana em uma máquina. Essa combinação de clareza de propósito e complexidade da tarefa atraiu algumas das mentes mais brilhantes da, então, incipiente área da ciência da computação. Desde o seu surgimento, a IA experimentou diversos ciclos de crescimento e declínio. Fases de grande otimismo foram sucedidas por fases de estagnação apontadas por Lee como “invernos da IA” (LEE, K., 2019, pp. 19).

Reforça-se o objetivo da IA, com a afirmação de Pedro Domingos (2017), de que o objetivo é ensinar os computadores a fazer o que os seres humanos fazem bem, isto é, principalmente aprender. Se não aprender, um computador não pode se equiparar a um ser humano no que se refere ao ato de antropomorfização. O machine learning [aprendizado de máquina] é um subcampo da IA em acelerado crescimento e evolução que tem ofuscado a própria IA e seu grande objetivo (pp. 30-31).

1.1. Analogias úteis, mas também enganadoras

O processo de antropomorfização das máquinas conduz a analogias que tanto podem ser úteis como também se apresentarem como funcionalmente enganosas. Isto ocorre quando se indaga o que significa realmente imitar o ser humano em suas habilidades, comportamentos e características? Em uma acelerada dimensão de tempo não linear, termos como redes neurais, memória, pensamentos, alucinações e inclusive inteligência que são expressões atribuídas aos seres humanos não podem migrar para a área de tecnologia da informação, como se houvesse uma correspondência operacional simétrica entre a forma como as máquinas aprendem e a forma como os sistemas psíquicos aprendem.

Conforme Maturana e Varela (2001), as palavras, designadoras de objetos ou situações no mundo, não refletem o funcionamento do sistema nervoso, pois este não funciona como representação do mundo (p. 230).

Keneth Burke (citado em Luhmann, 2011), afirma que na busca por uma linguagem que espelhe fielmente a realidade, a humanidade se vê diante de um desafio: a necessidade de selecionar e, consequentemente, distorcer essa mesma realidade. O vocabulário, como ferramenta de representação, deve encontrar um equilíbrio entre refletir o mundo e, ao mesmo tempo, reduzi-lo a termos compreensíveis. Essa seleção, inevitavelmente, implica em uma deformação, que se torna problemática quando a linguagem ou os cálculos empregados não se adequam ao objeto de estudo (179-180).

Deve-se ter o devido cuidado com termos ou palavras, utilizadas largamente em determinado domínio, com significados definidos e estabelecidos, que são transpostas, principalmente por analogia, para outras áreas de conhecimento. A distinção entre os dois tipos de aprendizado, aprendizado de máquina e aprendizado humano, como afirma Tavares-Pereira (2021), é evidente e implícita no próprio termo “aprendizado de máquina” porque ao se destacar apenas o “aprender” se obscurece a qualificação “de máquina”, que é claramente limitadora. Isso resulta em uma “falsa equivalência”, mas, é frequentemente ignorado. (2021, pp.110-112).

2. Máquinas substituindo seres humanos, porém com métodos e técnicas diferenciadas

Embora as técnicas e alguns métodos utilizados para o desenvolvimento da inteligência artificial sejam nominados com termos ligados aos sistemas psíquicos, principalmente humanos e permitam que computadores os substituam em diversas atividades – inclusive em atividades cérebro-dependentes –, não se pode afirmar que suas operações internas se igualem à forma como os sistemas psíquicos operam, que é pensando, tampouco se igualam aos sistemas sociais que operam pela comunicação e aos organismos que operam pela vida.

Cérebro, em uma concepção antropocêntrica da palavra é utilizado correntemente em dois sentidos, quais seja, como a parte biológica, representado pela forma de um quilo e trezentos gramas de massa cinzenta e como mente. E muitas vezes indistintamente, como uma unidade, onde mente e parte física se confundem.

Marvin Minsky, se pergunta, ¿por que uma mente parece tão diferente de qualquer outro tipo de coisa? E afirma que as mentes não são coisas - pelo menos não compartilham de nenhuma das propriedades habituais das coisas, como cores, tamanhos, formatos ou pesos. As mentes encontram-se além do alcance dos sentidos da audição, visão, olfato e paladar. Por outro lado, embora as mentes não sejam coisas de modo algum, possuem, certamente, ligações vitais com as coisas que denominamos de cérebros (MINSKY, 1989, p. 288).

Embora o sistema da ciência tem evoluído muito sobre o funcionamento do cérebro humano e até não humano (de alguns animais), ainda não foi possível uma compreensão de seu funcionamento como um todo. Michio Kaku corrobora tal constatação ao afirmar que quando nós olhamos outros órgãos do corpo, como nossos músculos, ossos e pulmões, parece haver uma relação e razões óbvias que podemos ver imediatamente, mas que a estrutura do cérebro parece um pouco caótica, como se as partes estivessem se estapeando e que um mapa do funcionamento do cérebro tem sido muitas vezes chamado de cartografia para tolos (KAKU, 2014, p. 18).

Damásio define a mente como um fluxo contínuo de padrões mentais, e muitos deles aparecem como logicamente inter-relacionados. O fluxo avança no tempo, depressa ou devagar, ordenadamente ou aos saltos e, ocasionalmente, move-se ao longo não de uma, mas de várias sequências. Às vezes as sequências são concorrentes, outras vezes convergentes e divergentes, ou mesmo sobrepostas (2015, p. 272).

Recentemente, em seu boletim informativo, a OpenAI, criadora do software ChatGPT, anunciou que seu modelo ‘o1’ é capaz de raciocinar. A empresa apresenta esse modelo como uma mudança radical no avanço do desenvolvimento da inteligência artificial generativa. De acordo com a empresa, esse novo modelo foi projetado para raciocinar por meio de decisões, como fazem os seres humanos (STOKEL-WALKER, 2024). Ainda assim, entende-se que as máquinas não pensam (enquanto função), pois suas operações maquínicas não são de pensamentos. Há diferenças muito relevantes e perceptíveis no atual estágio de desenvolvimento da tecnologia, entre o aprendizado humano e o aprendizado de máquina, que ainda impedem a substituição dos agentes humanos por agentes automatizados para uma gama bastante elevada de tarefas. Tavares-Pereira (2021), em sua obra, apresenta com bastante propriedade as dificuldades quase intransponíveis, no atual estágio da tecnologia, de utilização de agentes automatizados atuando como juízes, por exemplo.

Não se está afirmando que as máquinas não possam se utilizar de métodos e técnicas diferenciadas que permitam superar os humanos nas soluções de problemas complexos. Kai-Fu Lee afirma que se subestima o poder da IA de produzir inteligência sobre-humana em áreas muito especializadas (2019, p. 20). Tampouco se está afirmando que não se deva procurar uma aproximação com os métodos e técnicas dos sistemas psíquicos. No entanto, a questão fundamental concentra-se em dotar os computadores de inteligência pode não equivaler ao caminho tortuoso adotado pela natureza durante o processo evolutivo que originou os cérebros, os sistemas psíquicos e a revolução cognitiva da qual fala Yuval Noah Harari (2017, pp. 32-33).

2.1. Sistemas especialistas versus redes neurais

Na metade do século passado, começo do processo técnico para dotar os computadores de Inteligência, alguns cientistas da computação adotaram uma abordagem baseada em regras, criando “sistemas simbólicos” ou “sistemas de especialistas”, ensinando o computador a pensar por meio da codificação de uma série de regras lógicas. A partir de entrevistas com especialistas em determinados assuntos, codificavam nos computadores suas sabedorias na tomada de decisões. Essa abordagem até funcionava para execução de tarefas simples e bem definidas, como por exemplo jogos simples, porém se esboroava quando o universo de escolhas era demasiadamente complexo.

Outros cientistas da computação, B. Widrow, G. Carpenter, S. Grossberg, P.J. Werbos, D. Parker, D. Rumelhart, entre outros, adotaram uma outra abordagem, baseada em “redes neurais”. O campo das redes neurais seguiu um caminho distinto. Em vez de ensinar ao computador as regras que o cérebro humano já domina, esses pesquisadores buscaram replicar o próprio cérebro humano. Observando que as complexas redes de neurônios nos cérebros dos animais eram as únicas capazes de gerar inteligência como a conhecemos, decidiram ir direto à fonte. Essa abordagem imita a estrutura do cérebro, criando camadas de neurônios artificiais que podem receber e transmitir informações de maneira semelhante às redes neurais biológicas. Diferentemente da abordagem baseada em regras, os desenvolvedores de redes neurais geralmente não fornecem regras específicas para a tomada de decisões. Em vez disso, alimentam as redes com inúmeros exemplos de dados de um fenômeno específico e determinado – como imagens, partidas de xadrez ou sons – permitindo que as próprias redes identifiquem padrões nos dados. Quanto menos intervenção humana, melhor (Lee, 2019, pp. 20-21).

3. Existe inteligência artificial?

Inteligência é um termo abrangente e de difícil definição. Kevin Kelly afirma que nossa própria inteligência tem um entendimento muito pobre do que é inteligência (2020). Há muito se estuda e se tenta definir o que realmente é inteligência ou ser inteligente.

O termo inteligência auxilia a entender o atual estágio de desenvolvimento da inteligência artificial com ênfase no aprendizado de máquina, como se observará da seguinte abordagem reflexiva.

3.1. O termo inteligência

Embora exista uma impossibilidade básica de se analisar certos fenômenos sistêmicos, seus detalhes, suas características e o modo como fazem suas seleções internas para obtenção de um resultado, um observador externo se utiliza de termos para designar esses fenômenos. Mesmo não compreendendo exatamente como um sistema psíquico autorreferencial escolhe a solução específica para um problema, denomina-se esse fenômeno sistêmico como inteligência. A impossibilidade de se observar como as informações desencadeiam mudanças estruturais em um sistema sem interromper sua autoidentificação é referida como aprendizagem (LUHMANN, 1998, pp. 119-120).

Luhmann afirma que essas atribuições de termos são artifícios de observadores, por meio dos quais, interpreta-se o não observável. Acostuma-se com esse processo e acredita-se que uma pessoa tem inteligência e é capaz de aprender. E isso, dificilmente pode ser contraditado, pois ninguém pode observar esses os fenômenos nominados com mais exatidão do que a permitida pelos termos que lhes são atribuídos. Existem muitos exemplos, que demonstram a inutilidade da busca por um substrato psíquico ou mesmo orgânico de algo como inteligência e aprendizagem. Ao final, conclui-se que esses termos são ferramentas interpretativas usadas por observadores para dar sentido a processos que não podem ser diretamente observados (LUHMANN, 1998, pp. 119-120).

As qualidades abstratas desses termos, permitem a um observador aplicar essas mesmas ferramentas à sua própria auto-observação, acreditando que ele as tem e passa também a atribuí-las, por exemplo, às máquinas. É muito difícil, e se deve ter bons argumentos para refutar essas atribuições, pois a observação está limitada pelos próprios termos que definem esses conceitos.

Jean Piaget (2014) afirma que a inteligência é um termo genérico que designa formas superiores de organização ou de equilíbrio das estruturações cognitivas. A inteligência não consiste em uma categoria isolável e descontínua de processos cognitivos, como se fosse uma estruturação entre outras, mas uma forma de equilíbrio para a qual tendem todas as estruturas (pp. 33-34). Kelly (2020) argumenta que temos a tendência de pensar na inteligência como uma dimensão única; como se pudesse ser avaliada com uma só nota que fica cada vez maior, quanto mais inteligente é o avaliado. A medição de QI é um exemplo, ou seja, se pode ter uma escala crescente iniciando com um camundongo, passando por um orangotango, em seguida por um indivíduo aparentemente estúpido e culminando com os gênios com notas muito altas. A inteligência humana, no entanto, é como uma sinfonia com notas diferentes.

3.2. Inteligência artificial

A área de conhecimento da IA tem uma longa história que se inicia nos primórdios dos computadores. O termo inteligência artificial foi registrado pela primeira vez em 1956, na Conferência do Dartmouth College, em New Hampshire (USA) e referia-se a um novo campo do conhecimento, embora as ideias referentes a essa área sejam anteriores a 1956, remontando à Segunda Guerra Mundial. Em 1943, Warren McCulloch e Walter Pitts escreveram um artigo sobre estruturas de raciocínio artificiais em forma de modelo matemático que imitam o sistema nervoso humano (De Castro Barbosa & Bezerra, 2020, p. 93).

Obviamente, naquela época, também se trabalhava sobre dados ainda muito incipientes. Atualmente, em qualquer cafeteria do Vale do Silício, pessoas debatem se esses algoritmos são apenas códigos como outros quaisquer, com as pessoas no comando, ou se quem pensa assim não está entendendo a profundidade dessa nova tecnologia. Os argumentos não são inteiramente racionais. Muitos indivíduos estão impressionados com os modelos generativos e se põem em vigília esperando uma inteligência maior. A posição mais pragmática seria pensar em IA como uma ferramenta e não se deve mitologizar a tecnologia, mas sim assumir que não existe inteligência artificial, fugindo um pouco da abordagem antropomórfica, para que se possa trabalhar melhor e se consiga utilizá-la bem como meio para diversos fins. Gerenciar a nova tecnologia de forma inteligente, exige pensar dessa forma, defende Lanier (2023).

3.3. Inteligência artificial versus inteligência humana

Já na década de setenta do século passado (DAVIS; CHRISTODOULOU; SEIDER; GARDNER) apresentaram a Teoria das Inteligências Múltiplas (IM) de Howard Gardner, que desafia a concepção tradicional de inteligência como uma entidade única e geral, mensurável por um tipo específico de teste, ao se classificar a inteligência em sete categorias: linguística, lógico-matemática, espacial, musical, corporal-cinestésica, interpessoal e intrapessoal (2011, pp. 485-503). Obviamente tal classificação é elucidativa, porém não explica claramente as nuances estruturais das capacidades humanas de resolver problemas. Há indivíduos que são diferenciados da maioria em diversas dessas categorias apontadas por Gardner, sendo muito bons em várias ou excepcionalmente bom em uma e muito abaixo do esperado em outras.

Por sua vez, os animais, não humanos, poderiam ter tipos de inteligência diferenciados? E as máquinas com modelos generativos teriam um tipo especial de inteligência, uma lógico-matemática, já que se baseiam em solucionar problemas matemáticos, realizando operações matemáticas, identificando padrões e permitindo diálogos com humanos que na grande maioria das vezes apresentam argumentos coerentes?

Em breve, algoritmos baseados em técnicas de IA dirigirão carros melhor que os humanos, pois não se distraem; se estão dirigindo concentram-se apenas nessa atividade e processam informações muito mais rapidamente, além de analisar contextos muito mais amplos para a tomada de decisão. Também, conforme Kai-Fu Lee, há poucas dúvidas de que os algoritmos de IA acabarão por superar os médicos humanos em sua capacidade de diagnosticar doenças e recomendar tratamentos (2019, p. 249). Isso significa que esses algoritmos sejam mais inteligentes que os humanos? Em alguns aspectos, porém, estamos longe de termos computadores com habilidades de crianças de 3 anos de idade, como demonstra muito bem Fei-Fei Li. Uma criança de três anos tem muito o que aprender sobre o mundo, mas já é uma especialista em dar sentido ao que observa (2017), enquanto computadores mais avançados ainda não realizam essa tarefa. Um ser humano aprende com poucos dados, enquanto um computador precisa de muitos dados e ocorrências para, estatisticamente, apresentar casos similares. Aaamodt e Wang afirmam que um bebê, depois de ver uma série de fotos de gatos, fica com um olhar mais demorado e presta mais atenção a uma única foto de cachorro que lhe for apresentada. Isso significa que os bebês conseguem distinguir gatos de cachorros com apenas uma ocorrência diferenciada (2013, p. 33).

O cérebro humano desempenha, portanto, a complexa função de processar um fluxo constante de informações sensoriais. Em meio a um grande volume de dados irrelevantes, ele precisa identificar e extrair informações relevantes, agir sobre elas e possivelmente armazená-las na memória de longo prazo. A compreensão da memória humana apresenta um desafio significativo: como novas memórias podem ser formadas sem que as memórias existentes sejam corrompidas ou perdidas? Esse desafio é conhecido como o dilema da estabilidade-plasticidade (LOESCH & SARI, 2011, pp. 111-112).

Stephen Grossberg, um pesquisador na área de inteligência artificial e neurociência computacional, conhecido por suas contribuições significativas ao desenvolvimento de modelos teóricos que explicam como o cérebro processa informações (apud LOESCH; SARI, 2011), descreve o problema da estabilidade-plasticidade afirmando que o desafio central reside em como um sistema de aprendizagem pode ser projetado para se adaptar a informações relevantes, permanecendo estável diante de informações irrelevantes. Entre as questões apresentadas para enfrentar este desafio se encontram: como esse sistema pode alternar entre os modos de estabilidade e plasticidade, garantindo flexibilidade sem comprometer a estabilidade e evitando o caos durante a adaptação? Mais precisamente, como o sistema pode reter o conhecimento previamente adquirido enquanto continua a aprender novas informações? Como evitar que a aquisição de novas informações interfira nas memórias já consolidadas? (p. 112). Pensando assim, Grossberg desenvolveu a teoria da Adaptive Resonance Theory (ART), para utilização em redes neurais artificiais, ainda em 1976.

A ART busca demonstrar como integrar um modelo de aprendizado competitivo em uma estrutura de controle auto-organizada, de forma que o reconhecimento de padrões e o aprendizado autônomo permaneçam estáveis mesmo quando expostos a uma sequência aleatória de padrões de entrada. A autonomia, nesse contexto, implica na ausência de controle externo ou supervisão. Sistemas de aprendizado autônomo devem aprender com seus próprios erros, observações e interações com o ambiente. Eles precisam ser capazes de generalizar, criando categorias abrangentes a partir de dados específicos. Para isso, esses sistemas necessitam organizar o conhecimento adquirido, identificar informações relevantes e se reorganizar quando necessário. Detalhes inicialmente irrelevantes podem se tornar importantes posteriormente, exigindo que o sistema se ajuste automaticamente (LOESCH; SARI, 2011, p. 112).

Embora se possa analisar as regularidades das relações externas de um sistema psíquico, não é possível conhecer em detalhes a parte interna desse sistema, por sua complexidade (LUHMANN, 2011, p. 65). Assim, à medida que se dá autonomia para uma rede neural artificial para organizar o conhecimento adquirido a partir dos dados e se reorganizar quando necessário, estabelecendo seus próprios parâmetros, está-se diante da impossibilidade de observar exatamente a parte interna desse sistema por sua complexidade, seus milhões de parâmetros internos e assim não se pode afirmar que a forma de auto-organização de uma rede neural artificial seja igual a de um sistema psíquico, embora tenhamos acesso às regularidades de suas manifestações.

3.4. A inteligência humana, as máquinas e as emoções

De acordo com Capra, há “[…] fortes evidências de que a inteligência humana, a memória humana e as decisões humanas, nunca são completamente racionais, mas sempre se manifestam coloridas por emoções […]. Nosso pensamento é sempre acompanhado por sensações e por processos somáticos.” (2010, p. 68). De acordo com a teoria luhmanniana dos sistemas, o sistema psíquico não está isolado do corpo. O corpo, com seus diversos sistemas, compõe o ambiente do sistema psíquico (LUHMANN, 1990, pp. 103-14). O ambiente é constitutivo do sistema, pois não há sistema sem ambiente e vice-versa.

Conforme Maturana, nossa cultura desvaloriza as emoções, pois estamos permanentemente fazendo uma petição de comportamento racional, porém não se pode desconhecer as emoções; Maturana exemplifica com o fato de que quando aprendeu a ler em uma semana, foi movido pela inveja (2001, pp. 108-109).

Damásio concluiu, com estudos em seu laboratório, “que a emoção integra os processos de raciocínio e decisão, seja isso bom ou mau.” As descobertas levaram em conta indivíduos “que eram inteiramente racionais na forma como conduziam suas vidas até o momento em que, em consequência de uma lesão neurofisiológica em locais específicos do cérebro, perderam determinada classe de emoções” e, com isso, também “perderam a capacidade para tomar decisões racionais” (2015, pp. 43-44).

Questiona-se, se as máquinas podem ser verdadeiramente inteligentes sem emoções. O termo “mecanizado” significa, por um lado, ausência de sentimentos, emoções ou interesses; por outro, contrariamente, representa um comprometimento obsessivo com uma única causa. Ambos os extremos sugerem falta de humanidade e até mesmo estupidez, seja pela incapacidade de realizar múltiplas tarefas ou pela falta de propósito. A inteligência artificial precisa de algum nível de emoção ou experiência para alcançar seu potencial máximo e evitar cair em extremos prejudiciais (MINSKY, 1989, p. 163). O robô Giskard, de Isaac Asimov, afirmou que “Como as emoções são poucas e as razões várias [...], podemos prever com mais facilidade o comportamento de uma multidão do que o de uma pessoa” (ISAAC ASIMOV, apud MINSKY, 1989, p. 172).

A tecnologia atual não está dotando os computadores de emoções para suas decisões e isso pode desqualificá-los para tarefas que exijam essa qualidade humana. Mas não se pode afirmar que no futuro os algoritmos não possam ser configurados com hiperparâmetros que os forcem a simular o processo emocional, para terem mais ou menos “emoções” ao criarem seus parâmetros internos frutos de suas escolhas, ou que se trabalhe com métodos e técnicas que independam de emoções e que as máquinas possam fazer escolhas iguais ou melhores que as seleções realizadas pelos seres humanos para a solução dos problemas.

Enfatiza-se sempre o aspecto positivo das emoções, principalmente o comportamento amoroso dos seres humanos e esquece-se das barbáries cometidas por esses mesmos seres humanos emocionados, individual ou coletivamente. Os seres humanos, paradoxalmente, cometem desumanidades. Talvez as máquinas inteligentes possam ser superiores aos humanos ao tomar determinadas decisões racionais não influenciadas por emoções ou ser um complemento fundamental para os seres humanos diante de decisões complexas, apresentando novos cenários e contextos que os auxilie em suas decisões involucradas por emoções. As máquinas podem, talvez, ser uma possibilidade de salvação para a manutenção e incremento da humanidade e não o contrário como advogam alguns.

4. As máquinas: da alta confiabilidade para ferramentas que podem errar

Um estudo de Pinker (2023) sugere que as pessoas prestam menos atenção aos detalhes quando acreditam que uma máquina as está auxiliando. O fenômeno, conhecido como “vadiagem social”, ocorre quando indivíduos em equipe reduzem seu esforço, confiando nos outros para realizar o trabalho. A pesquisa demonstrou que essa dinâmica se aplica também à relação entre humanos e robôs. Participantes que acreditavam estar sendo auxiliados por um robô na inspeção de componentes eletrônicos tiveram um desempenho 20% pior do que aqueles que trabalharam sozinhos, mesmo que o robô não estivesse realmente presente. Pinker afirma que essa descoberta levanta preocupações sobre a colaboração entre humanos e IA em áreas críticas como medicina e aviação, onde a falta de atenção pode ter consequências graves e que a superconfiança nos sistemas automatizados pode levar as pessoas a “olharem, mas não verem”, comprometendo a segurança e a eficiência.

Gerrit De Vynck afirma que se popularizou, na área de IA, o termo alucinações para identificar os resultados imprecisos dos novos algoritmos generativos. Os técnicos, pesquisadores e céticos da IA estão focados em resolver esse problema, embora não se tenha certeza de quando isso acontecerá e se acontecerá. Agora que essa tecnologia é acessada por milhões de pessoas e integrada em campos críticos e sensíveis como na medicina e no direito, tornando-se crucial entender esse processo alucinógeno e encontrar maneiras de mitigá-lo (2023).

Grande parte do trabalho com Machine Learning (ML) ocorre nos bastidores. Utiliza-se algoritmos para prever a demanda, organizar resultados de busca, recomendar produtos, detectar fraudes, realizar traduções e diversas outras tarefas. Embora menos evidente, o impacto futuro do ML será desse tipo - discreto, mas com aprimoramentos substanciais em nossas operações essenciais (BALAKRISHNAN apud Mussa, 2020, p. 161).

A transformação de máquinas precisas em imprecisas se deu aos poucos e de maneira imperceptível com o advento da IA. Os modelos generativos, mais recentes, demonstram que selecionar e mesclar dados para compor uma informação rica e útil, sobre qualquer tema, com certa criatividade, também abre portas para resultados questionáveis e muitas vezes equivocados.

5. Poder computacional, algoritmos, dados e modelos de inteligência artificial

Existem alguns componentes essenciais na estruturação do que se denomina inteligência artificial, sem os quais a IA como a conhecemos hoje, com seus mais recentes avanços, os modelos generativos, não seria possível. A delimitação deste estudo concentra-se nos componentes técnicos, desconsiderando-se o componente humano, embora seja este o mais importante, pois é ele que cria os algoritmos básicos; gera dados brutos ou trabalha preparando e rotulando dados que serão utilizados pelas máquinas; utiliza os resultados da IA e justifica sua existência.

5.1. Componentes essenciais na estruturação da inteligência artificial

Do ponto de vista técnico, destacam-se alguns componentes, sem uma sequência hierárquica, considerando a interdependência entre eles.

Para este artigo, faz-se uma distinção importante: a arquitetura necessária para a existência de modelos generativos de inteligência artificial com seus componentes básicos (algoritmos base, hiperparâmetros, dados, hardware, camadas neurais), explicados e manipulados por agentes humanos, versus esses mesmos componentes da arquitetura quando em operação (dinâmica obtida a partir da interação dos componentes), resultando no surgimento de um sistema semelhante a uma máquina. Neste artigo, ao utilizar apenas o termo modelo generativo, referimo-nos à operação dinâmica que envolve os vários componentes da arquitetura para gerar uma base de conhecimento final, sem interferência humana nas operações internas (clausura operacional).

Primeiro deve-se considerar o computador do ponto de vista do hardware e a grande capacidade computacional. Em segundo lugar, enfatiza-se o computador do ponto de vista do algoritmo (software) criado por humanos e configurado por eles. Em terceiro lugar os milhões de dados disponíveis em formato digital. Em quarto lugar o modelo, resultado da interação entre o algoritmo criado por agente humano, o hardware e os dados. O algoritmo base é inicialmente bruto, com hiperparâmetros aplicados por humanos e arbitrariamente selecionados a partir de testes com massas iniciais de dados. Porém durante sua execução vai gerando bilhões de parâmetros internos que permitem a criação de uma base conhecimento estruturada. Base essa que pode ser utilizada por outros algoritmos, agentes automatizados, que se comunicam com os agentes humanos.

5.1.1. Capacidade computacional

É notável a necessidade de tanto poder de computação, ancorado em computadores que consomem muita energia e que precisam estar em ambientes refrigerados, para simular um pedaço de tecido humano que pesa um quilo e meio, cabe dentro de um crânio, aumenta a temperatura corporal em apenas alguns graus, utiliza somente vinte watts de potência e precisa de apenas alguns hambúrgueres para se manter (KAKU, 2023, p. 255).

As ferramentas de inteligência artificial generativa exigem servidores extremamente potentes com chips diferenciados e caros que consomem muita energia (DOTAN; SEETHARAMAN, 2023).

Alguns especialistas projetam que o consumo de eletricidade para as potentes máquinas necessárias para a IA podem, em breve, exigir a adição equivalente à geração de energia de um pequeno país. Desde 2010, o consumo de energia para datacenters permaneceu quase estável, em cerca de 1% da proporção da produção global de eletricidade, de acordo com a Agência Internacional de Energia. Entretanto, a rápida adoção da IA pode representar um aumento significativo no consumo de eletricidade (MIMS, 2023). Os algoritmos de IA, baseados em deep learning, se valem de procedimentos matemáticos complexos e necessitam de hardwares em quantidade e muito rápidos para processarem os dados (MUSSA, 2020, p. 90-92).

5.1.2. Algoritmos desenvolvidos por humanos

De acordo com Knuth, a noção de algoritmo é básica para toda a programação de computador e refere-se a “um conjunto finito de regras que fornece uma sequência de operações para resolver um tipo específico de problema”. Knuth exemplifica com os termos receita, processo, método, técnica, procedimento e rotina (DONALD E. KNUTH apud TAVARES-PEREIRA, 2021, pp. 261-264). Algoritmos, são, portanto, conjuntos de instruções passo-a-passo que definem como um computador deve processar os dados para alcançar um objetivo específico. Isso pressupõe uma estrutura bastante rígida.

As analogias de Knuth, dentre elas uma receita, podem não expressar exatamente as dificuldades que se apresentam para a escrita de algoritmos por agentes humanos.

Uma das coisas mais difíceis para um leigo entender, quando se fala em programar um computador, é que não se pode dizer para ele: “três ovos médios”, ou “sal a gosto”; não há interpretação. Um computador exige uma disciplina que estressa o uso da lógica matemática. As sentenças devem ter solidez sintática, semântica e não podem ser ambíguas (PEREIRA, 2022).

Em um computador, a parte física, o hardware (tecnologia dura), é útil sem programas? Um programa, o software (tecnologia branda), é útil sem o hardware? Não se precisa pensar muito a respeito para se afirmar que há uma interdependência entre hardware e software. O computador é a unidade da diferença entre esses dois tipos de tecnologia. Em outras palavras, o computador não é somente hardware ou somente software, ele não é uma coisa e nem outra. É algo diferente. Quando um programa está sendo executado, existe uma simbiose entre as tecnologias brandas e duras; essas tecnologias exigem cientistas especializados em cada uma das áreas e o progresso delas se dá separadamente, mas há uma coevolução entre elas. Quanto mais hardware, mais softwares complexos puderam ser desenvolvidos e softwares complexos exigiram o desenvolvimento de hardwares mais potentes em termos de velocidade e capacidade de armazenamento; percebe-se isso claramente com o progresso na área de inteligência artificial. Alguns algoritmos conhecidos há algum tempo, somente se tornaram efetivos com novos hardwares muito mais rápidos. Mas, o que torna o computador tão especial é justamente essa junção, ou seja, um mesmo hardware pode dar vida a muitos algoritmos diferentes.

Pedro Domingos afirma que se voltássemos no tempo, no início do século 20, e disséssemos às pessoas que uma máquina seria inventada em breve e que resolveria problemas de todas as áreas do conhecimento, a mesma máquina para todos os problemas, ninguém acreditaria. O senso comum da época dirá que cada máquina só poderia fazer uma única coisa: máquinas de costura não datilografam e máquinas de escrever não costuram (pp. 57-58).

Os algoritmos desenvolvidos por humanos têm suas estruturas muito bem conhecidas e dominadas por aqueles que os desenvolvem. Muitos testes ao longo do tempo garantem uma certa confiabilidade quanto se introduzem dados estruturados e com significados esperados, em geral oriundos de uma área específica. As regras de transformações sobre os dados são explicitadas no código e todos que tem acesso ao código podem conhecer estas regras. Nos algoritmos tradicionais entram os dados, que passam por regras de transformações atribuídas par e passo por programadores para se obter as saídas desejadas e iguais, caso os dados sejam sempre os mesmos.

Essa visão algorítmica se mantém parcialmente no caso dos desenvolvimentos dos modelos de inteligência artificial generativa, haja vista a estruturação dos modelos não serem mais atribuição exclusiva dos programadores e sim de processos de auto-organização propiciados por algoritmos que tratam dados e os padrões ali existentes, criando seus parâmetros internos, com a finalidade de criação de uma base de conhecimento.

5.1.3. Dados

O sucesso dos algoritmos de IA depende também de grandes volumes de dados. Na fase de implementação, a quantidade e a qualidade dos dados se tornam o fator determinante. No contexto do aprendizado profundo se aplica a máxima “quanto mais dados, melhor”. A disponibilidade de dados abundantes permite que algoritmos projetados por equipes medianas superem aqueles desenvolvidos por especialistas de elite. Embora os pesquisadores de ponta ainda desempenhem um papel crucial na evolução do campo da inteligência artificial, a crescente disponibilidade de dados é o principal impulsionador da transformação industrial em curso, liderada pelo aprendizado profundo (LEE, 2019, pp. 27-28).

5.1.4. O modelo gerando uma base estruturada de conhecimento

A IA libertou os humanos da impossível especificação e criação de algoritmos altamente complexos para resolução de determinados problemas ligados a uma determinada área do conhecimento. Em muitos casos era impossível aos programadores estabelecer em algoritmos as milhares de regras e suas relações para tratamento de dados e obtenção de informações.

Um modelo resultado da interação de componentes, cria uma base de conhecimento baseada em dados. A base de conhecimento não é uma expressão do algoritmo base, bem como não é exatamente um espelho dos dados brutos. A base de conhecimento é o resultado da aplicação de regras genéricas de transformação presentes no algoritmo, que também cria parâmetros internos desconhecidos e complexos em tempo de execução, dependendo dos dados de entrada. Esse processo funciona como uma caixa preta, haja vista o agente humano não ter especificado exatamente qual deve ser a estrutura da base de conhecimentos. A estruturação da base de conhecimentos é estabelecida pela operação do algoritmo com utilização dos dados.

Para a cibernética, e de um ponto de vista mais mecanicista, caixa preta e caixa branca são termos convenientes e figurativos de utilização bem determinada, que se referem a processos internos de um sistema. O termo caixa preta indica que um observador não precisa necessariamente dispor de qualquer informação da estrutura pela qual a operação é realizada, seja por desconhecimento, seja porque o fenômeno não possa ser diretamente observável. Por outro lado, a caixa branca é algo com um plano estrutural definido para assegurar uma relação entrada-saída previamente determinada. (WIENER, 1970, p. 13). Os algoritmos tradicionais podem ser considerados caixas brancas e os algoritmos de IA, quando em execução, são caixas pretas, ao criarem seus próprios parâmetros internos. Cada modelo está ligado ao algoritmo e aos dados e, suas estruturas se alteram caso agentes humanos modifiquem o algoritmo e seus hiperparâmetros ou a base de dados de entrada.

As empresas de tecnologia gastam quantias testando seus produtos. Mas, devido à maneira como os sistemas de IA são projetados, construindo modelos a partir de características de milhões de dados que podem gerar bilhões e até trilhões de parâmetros e relações, eles não podem ser desmontados e analisados em busca de bugs como o software tradicional (MCMILLAN, 2023). Dada a complexidade das estruturas dos modelos generativos, Sven Cattell prefere o termo “caos”, em vez de caixa preta (apud MCMILLAN, 2023). Mas nesse caso, caos significa apenas uma complexidade estruturada que não pode ser entendida adequadamente pelos agentes humanos.

Bases de conhecimento, são representações matemáticas e computacionais estabelecidas a partir dos dados, por meio de algoritmos idealizados por humanos. Ao final são máquinas se automodificando, aprendendo. Os modelos encapsulam o conhecimento adquirido durante o treinamento e permitem que a IA faça previsões, classificações ou gere novos dados.

As saídas dos algoritmos tradicionais espelham claramente o que foi determinado pelo agente humano responsável por sua programação e o tratamento dos dados está explícito no código. Se vier um dato não previsto, em geral o algoritmo não sabe como aplicar as regras de transformação e pode gerar uma exceção apontando um erro.

Entretanto, nos algoritmos de IA, a saída, a base de conhecimento gerada, espelha a unidade da diferença entre o algoritmo base e seus hiperparâmetros e os dados; em outras palavras, o modelo gerado não está explicitado por nenhum agente humano no algoritmo base, nem sua estrutura e nem seus elementos, tampouco os elementos e a estrutura estão presentes nos dados. Não se encontra similaridade no algoritmo base e nem nos dados. De um ponto de vista da Teoria de Sistemas de Niklas Luhmann, o algoritmo base com seus hiperparâmetros, bem como o hardware são máquinas no entorno dos modelos e o mundo está representado pelos dados. O que não está nos dados não está no mundo.

A base de conhecimento é gerada durante o processo dinâmico de operação de formação sistêmica; um sistema é dinâmico e não estático. O algoritmo trata diferentes tipos de dados buscando padrões não previstos explicitamente pelos agentes humanos, criando sua própria informação. Em outras palavras, a informação criada pelo algoritmo não está presente nos dados, não está estruturada como seleção pronta a ser importada, ela é criada no processo dinâmico de formação sistêmica.

Diferentes algoritmos de IA podem encontrar informação diferenciada no mesmo dado, pois a informação é criada no processo de operação, implicando em diferenças estruturais e de elementos na base de conhecimentos gerada. Salienta-se que o processo que se forma entre dados e algoritmo base está encerrado operacionalmente e nem o algoritmo e nem os dados, tampouco qualquer agente externo, pode determinar por sua “vontade” como as estruturas e os elementos desse modelo devem ser criados ou aportar conhecimento diretamente.

Afirma-se que há uma relação importante entre dados e algoritmo base para geração da base de conhecimento, sem interferência externa. O modelo se utiliza da complexidade dos componentes em interação para construir suas próprias estruturas e seus próprios elementos. Esse acoplamento entre os componentes de um modelo em execução não é contraditório à estruturação dos dados e a estruturação do algoritmo, que permanecem intactos. Os dados e algoritmo base ganham assim, valor estrutural para a construção do sistema emergente que permite a geração da base de conhecimentos, e com isso, para a construção de um tipo próprio de realidade. Esse irritar constante do algoritmo base e dos dados é o que estimula a criação da base de conhecimento como uma complexidade estruturada.

Ao final, a base de conhecimento gerada é o que se poderia denominar de aprendizado, neste trabalho um aprendizado de máquina, não igual, mas similar ao que acontece com os sistemas psíquicos humanos e de animais. Aprendizado, nesse contexto maquínico, assim como no contexto de um sistema psíquico, é a designação para o que não se pode observar, ou seja, como as informações extraídas dos dados, desencadeiam mudanças estruturais parciais num sistema, sem que, com isso, o sistema perca sua característica. Afinal, alterar estruturas significa também manter estruturas, de acordo com Luhmann. Porém, continua-se tendo máquinas. Inteligência é justamente a designação para o que não se pode observar, ou seja, como ocorre nesse sistema autorreferencial, no contato consigo mesmo, a escolha que faz para a solução do problema.

Isso é justamente o que Luhmann afirma, que a busca por uma base para conceitos como memória e inteligência é infrutífera. Esses conceitos são, na verdade, construções que usamos para interpretar o comportamento de sistemas complexos. Importante salientar que isso não tira a existência do algoritmo base e dos dados e da necessidade deles para a existência de uma base de conhecimentos, pois, ao final, características desse entorno estão presentes no modelo, nesse sistema emergente, ou seja, eles pertencem a essa realidade que se forma, porém não se pode mais buscar um substrato, nem no algoritmo e nem nos dados, que corresponda exatamente à base de dados emergente. Essa falta de um substrato dessa nova estrutura adquirida, emergente, a base de dados, é justamente compensada pela liberdade de escolha de criação dessa estrutura e dos seus elementos, que indica que poderia ser de outro modo, remetendo ao conceito de contingência. A escolha e formação da estrutura e dos elementos são fixadas durante a operação do algoritmo e sua relação com os dados, não podendo existir de outra forma.

O progresso da IA se deu aos poucos e houve disrupção com os modelos denominados generativos. O que esses modelos têm de diferente em relação aos difundidos até então denominados discriminativos?

5.1.4.1. Modelos discriminativos

Os modelos, comumente utilizados até agora — que dominaram o mundo da IA nesses últimos tempos —, estão sendo empurrados para uma categoria denominada de “discriminativos”. Categoria essa que está sendo ofuscada pela categoria dos “generativos”. Há muitas formas de criar bases de conhecimento, mas em geral são utilizadas três técnicas básicas: aprendizado sem supervisão, aprendizado com supervisão e aprendizado por reforço. Todas se baseiam em dados históricos. Para os modelos discriminativos, o mais comum é a utilização do aprendizado com supervisão, no qual são fornecidos dois conjuntos de dados para o computador, como por exemplo: textos e as classificações deles feitas por agentes humanos. A grande característica de um computador que se baseia em um “modelo discriminativo” é a capacidade de comparar dados e encontrar os semelhantes. No caso de imagens, um modelo discriminativo consegue diferenciar um cachorro de um gato, pois assim foi ensinado com base em milhares de imagens disponibilizadas (PEREIRA, 2023).

5.1.4.2. Modelos generativos

Utilizando-se o exemplo de imagens dado anteriormente, um modelo generativo pode gerar novas fotos de animais que se pareçam com animais reais.

Enquanto um modelo discriminativo depende de rótulos associados aos dados: isso é um gato, isso é um cachorro, isso é um tigre, ou seja, depende de um aprendizado supervisionado, um modelo generativo pode ou não se utilizar desse recurso.

O modelo generativo pode, neste caso, aprender com bilhões de dados sem supervisão. Em outras palavras, sem que os humanos tenham que rotular os dados explicitamente. Em termos de exemplificação pode-se descrever que existem modelos simples generativos que sugerem uma próxima palavra em uma sequência de palavras para formação de uma frase e, neste caso não há a necessidade de supervisão de agentes humanos.

Os algoritmos aprendem “percebendo” como a linguagem é utilizada. O “conhecimento”, portanto, foi extraído da observação de bilhões de textos que estão disponíveis na internet, sendo essa a maneira que a linguagem foi dominada por esses novos algoritmos generativos que não têm a mínima ideia do que “bom dia” significa, mas sugerem “dia” após o “bom”, pois estatisticamente é o que mais ocorre. É o que se experimenta todos os dias em nossos celulares ao se digitar um texto em um dos aplicativos. Os modelos generativos podem realizar diversas correlações com os dados que manipulam. Por exemplo, olhos não podem aparecer no queixo das pessoas, normalmente estão entre a testa e o nariz. Para a geração de uma nova imagem, essa regra é seguida. Se alguém pede para a IA gerar uma imagem de um gato andando de skate, o skate deve estar sob os pés do gato. As imagens não são simples cópias, mas gerações de novas imagens. A distribuição dos dados em um contexto faz parte da abordagem da inteligência artificial que se utiliza dos modelos generativos (PEREIRA, 2023).

6. Considerações finais

A Inteligência Artificial, impulsionada por avanços em aprendizado de máquina e modelos generativos, está redefinindo rapidamente diversos setores da sociedade. No entanto, a antropomorfização da IA, embora compreensível, pode levar a expectativas irrealistas e riscos potenciais.

Existem alguns componentes essenciais na estruturação do que se denomina inteligência artificial, sem os quais a IA como a conhecemos hoje, com seus mais recentes avanços, os modelos generativos, não seria possível. A delimitação deste estudo nos componentes técnicos, desconsiderando o componente humano, demonstrou a dependência da IA em grandes volumes de dados e poder computacional, contrastando com a capacidade humana de aprender com poucas ocorrências.

É fundamental reconhecer que a IA, apesar de sua capacidade de processar grandes volumes de dados e realizar tarefas complexas, ainda está longe de replicar a inteligência humana em sua totalidade. A compreensão das nuances da linguagem, a tomada de decisões éticas e a capacidade de inovação criativa continuam sendo desafios significativos para a IA.

Além disso, a crescente integração da IA em áreas críticas como medicina e direito exige uma abordagem cautelosa. A superconfiança nos sistemas automatizados pode levar a erros graves e, a falta de transparência nos modelos de IA levanta questões sobre responsabilidade e viés das soluções dadas por IA.

Portanto, o futuro da IA depende não apenas de avanços tecnológicos, mas também de um debate crítico e racional sobre seus limites e implicações éticas. A clareza conceitual na distinção entre humanos e máquinas é essencial para garantir que a IA seja utilizada de forma responsável e benéfica para a sociedade.

A IA deve ser vista como uma ferramenta poderosa, mas não como uma substituta para a inteligência humana. A colaboração entre humanos e máquinas, com cada um desempenhando seus papéis específicos, é o caminho mais promissor para o futuro próximo da humanidade.

Referências

AAAMODT, Sandra; WANG, Sam. Bem-vindo ao cérebro do seu filho: como a mente se desenvolve desde a concepção até a faculdade. São Paulo: Cultrix, 2013.

CAPRA, Fritjof. A teia da vida. São Paulo: Cultrix, 2010.

DAMÁSIO, António. O mistério da consciência: do corpo e das emoções ao conhecimento de sí. São Paulo: Companhia das Letras, 2015.

DAVIS, Katie et al. The theory of multiple intelligences. Davis, K., Christodoulou, J., Seider, S., & Gardner, H.(2011). The theory of multiple intelligences. In RJ Sternberg & SB Kaufman (Eds.), Cambridge Handbook of Intelligence, p. 485-503, 2011.

DE CASTRO BARBOSA, Xênia.; Bezerra, Ruth Ferreira. Breve introdução à história da Inteligência Artificial. Jamaxi, v. 4, n. 1, 2020.

DE VYNCK, Gerrit De. ChatGPT ‘hallucinates.’ Some researchers worry it isn’t fixable. Disponível em: . Acesso em: jun. 2023.

DOMINGOS, Pedro. O algoritmo mestre. São Paulo: Novatec, 2017.

DOTAN, Tom.; SEETHARAMAN, Deepa. Big Tech Struggles to Turn AI Hype Into Profits. Disponível em: . Acesso em: out. 2023.

FEI-FEI, Li. How we're teaching computers to understand pictures. Disponível em: < https://www.ted.com/talks/fei_fei_li_how_we_re_teaching_computers_to_understand_pictures#t-155783 >. Acesso em: nov. 2017.

HARARI, Yuval Noah. Sapiens - Uma breve história da humanidade. Porto Alegre: LPM, 2017.

HOUAISS, Antônio.; VILLAR, Mauro de Salles. Dicionário Houaiss da Língua Portuguesa. Rio de Janeiro: Objetiva, 2001.

KAKU, Michio. The future of mind: the scientific quest to undestand, enhance, and empower the mind. New York: City University Of New York, 2014.

KELLY, Kevin. How AI can bring on a second Industrial Revolution. Disponível em: . Acesso em: out. 2020.

LANIER, Jaron. There Is No A.I. Disponível em: < https://www.newyorker.com/science/annals-of-artificial-intelligence/there-is-no-ai >. Acesso em: abr. 2023.

LEE, Kai-Fu. Inteligência artificial: como os robôs estão mudando o mundo, a forma como amamos, nos comunicamos e vivemos. Rio de Janeiro: Globo Livros, 2019.

LOESCH, Claudio.; SARI, Solange Teresina. Redes neurais artificiais: fundamentos e modelos. Editora da Furb, Blumenau, 1996.

LUHMANN, Niklas. Sociedad y sistema: la ambición de la teoría. Barcelona: Espasa, 1990.

LUHMANN, Niklas. Sistemas sociales: Lineamientos para una teoría general. Santafé de Bogotá: CEJA, 1998.

LUHMANN, Niklas. Introdução à teoria dos sistemas. Petrópolis: Vozes, 2011.

MATURANA, Humberto R.; VARELA, Francisco J. A árvore do conhecimento. São Paulo: Palas Athena, 2001.

MINSKY, Marvin. A sociedade da mente. Rio de Janeiro: Francisco Alves, 1989.

MIMS, Christopher. AI Is Ravenous for Energy. Can It Be Satisfied? Disponível em: . Acesso em: dez. 2023.

MUSSA, Adriano. Inteligência artificial: mitos e verdades: as reais oportunidades de criação de valor nos negócios e os impactos no futuro do trabalho. São Paulo: Saint Paul, 2020.

MULVANEY, Erin. Judge Sanctions Lawyers Who Filed Fake ChatGPT Legal Research. Disponível em: . Acesso em: jun. 2023.

PEREIRA, C. J. Sou jovem: é difícil aprender a programar um computador?. Disponível em: . Acesso em: dez. 2024.

PEREIRA, C. J. Unleashed the beast - A Inteligência Artificial Generativa (IAG) pode ser domada?. Disponível em: . Acesso em: dez. 2024.

PINKER, Susan. Does Working With Robots Make Humans Slack Off? Disponível em: . Acesso em: nov. 2023.

PIAGET, Jean. A psicologia da inteligência. Petrópolis: Vozes, 2014.

SADIN, Éric. La inteligencia artificial o el desafío del siglo: anatomia de un antihumanismo radical. Buenos Aires: Caja Negra, 2020.

STOKEL-WALKER, Chris. OpenAI says the latest ChatGPT can ‘think’ – and I have thoughts. Disponível em: < https://www.theguardian.com/technology/2024/sep/17/techcsape-openai-chatgpt-thoughts >. Acesso em: set. 2024.

TAVARES-PEREIRA, S. O machine learning nas decisões: o uso jurídico dos algoritmos aprendizes. Florianópolis: ArtSam, 2021.

WIENER, Norbert. Cibernética: ou contrôle e comunicação no animal e na máquina; tradução: Gita K. Ghinzberg. São Paulo: Polígono e Universidade de São Paulo, 1970.

Abstract: This article explores the anthropomorphization of Artificial Intelligence (AI), highlighting how analogies between machines and humans, while useful, can be misleading. Terms like “learning” and “memory” applied to AI obscure the fundamental differences between human and machine learning. AI, despite its advancements, still faces challenges in replicating the complexity of human cognition, especially in areas such as decision-making and understanding nuance. AI’s reliance on large volumes of data and computational power contrasts with the human ability to learn from a few occurrences. In addition, the absence of emotions in machines raises questions about their ability to achieve true intelligence. Overconfidence in automated systems is also problematic, a situation evidenced by studies that show how the presence of robots, sharing tasks, can lead to human errors. While AI is a powerful tool, it’s crucial to recognize its limitations and avoid indiscriminately attributing human characteristics to it. Understanding the distinctions between humans and machines is essential for the development and ethical use of AI. This is a bibliographic study built from the theoretical framework proposed by Luhmann and his theories: of systems and social systems (1990, 1998, 2011), as well as uses other studies on the subject.


Artigo de minha autoria publicado em JUS em 12 de Agosto de 2025 às 14:55:
https://jus.com.br/artigos/113867/advogado-cuidado-com-a-antropomorfizacao-das-maquinas-existe-inteligencia-artificial

E na versão em espanhol na Revita científica da UCES – Buenos Aires:
https://publicacionescientificas.uces.edu.ar/index.php/cientifica/index?gad_source=1&gad_campaignid=21200072136&gbraid=0AAAAAD9IaunJm10NXxAxhtBxdgIyPorOg&gclid=CjwKCAjwz5nGBhBBEiwA-W6XRGnOA1yHxNJ--KVq3C3Z-LSgiU_3YRbftx4vRAvIHOFx-SEau9xcYRoCFgwQAvD_BwE