Comportamiento altruista de la inteligencia artificial generativa: estudio comparativo mediante experimentos de Dictator Game

Contenido principal del artículo

Federico Torres-Carballo
Yarima Sandoval-Sánchez
Valeria Martínez-Rojas

Resumen

Este artículo examina la creciente integración de la inteligencia artificial (IA) en diversos ámbitos sociales, centrándose en el comportamiento altruista que muestran los grandes modelos de lenguaje (LLM), como GPT-3.5-turbo. A medida que estos modelos evolucionan y ganan sofisticación, surge la necesidad de investigar su capacidad de replicar la complejidad del comportamiento humano en la toma de decisiones morales, especialmente en situaciones que implican altruismo. El estudio utiliza el Juego del Dictador, un experimento clásico de la economía conductual, para analizar cómo responden los LLM en escenarios en los que un agente decide cómo repartir una suma de dinero entre él mismo y un destinatario anónimo sin esperar ninguna recompensa. La pregunta clave de la investigación es si versiones diferentes de GPT-3.5-turbo muestran variaciones en la toma de decisiones altruistas. La comparación de las decisiones de GPT-3.5-turbo con el comportamiento humano ofrece información valiosa sobre la interacción entre la IA y los seres humanos en contextos morales.

Detalles del artículo

Cómo citar
Torres-Carballo, F., Sandoval-Sánchez, Y., & Martínez-Rojas, V. (2026). Comportamiento altruista de la inteligencia artificial generativa: estudio comparativo mediante experimentos de Dictator Game. Revista Tecnología En Marcha, 39(5), Pág. 70–81. https://doi.org/10.18845/tm.v39i5.8524
Sección
Ética, gobernanza y regulación de la IA

Citas

[1] Ma, J., “Can Machines Think Like Humans? A Behavioral Evaluation of LLM-Agents in Dictator Games,” Journal of Behavioral and Experimental Economics, 2024. doi : 10.1016/j.joep.2024.103107

[2] Mei, Q., et al., “A Turing Test of Whether AI Chatbots Are Behaviorally Similar to Humans,” Proceedings of the National Academy of Sciences, vol. 121, no. 9, 2024. doi: 10.1073/pnas.2313925121.

[3] Brookins, P., & DeBacker, J., “Playing Games With GPT,” SSRN Electronic Journal, 2024. doi: 10.2139/ssrn.4493398.

[4] Engel, C., “Dictator Games: A Meta Study,” Experimental Economics, vol. 14, no. 4, pp. 583–610, 2011. doi: 10.1007/s10683-011-9283-7.

[5] E.-M. Schmidt, S. Bonati, N. Köbis, and I. Soraperra, “GPT-3.5 altruistic advice is sensitive to reciprocal concerns but not to strategic risk,” Sci Rep, vol. 14, no. 1, Sep. 2024, doi: 10.1038/s41598-024-73306-x

[6] I. Thielmann, R. Böhm, M. Ott, and B. E. Hilbig, “Economic Games: An Introduction and Guide for Research,” Collabra: Psychology, vol. 7, no. 1, art. 19004, 2021. doi: 10.1525/collabra.19004.

[7] A. C. C. de Oliveira, “Altruism in Economic Decision-Making,” Journal of Behavioral Economics, vol. 12, no. 3, pp. 45-60, 2020.

[8] T. Johnson y A. Obradovich, “Altruism and Selfishness in Believable Game Agents: Deep Reinforcement Learning in Modified Dictator Games,” Artificial Intelligence Review, vol. 54, no. 2, pp. 123-145, 2021.

[9] A. Radford, J. Wu, R. Child, D. Luan, D. Amodei, I, Sustskever, “Language Models are Unsupervised Multitask Learners,” OpenAI, 2019.

[10] OpenAI, “GPT-3.5 Turbo model documentation,” 2023. [Online]. Available: https://platform.openai.com/docs [Accessed:9 de Agosto de 2024].

[11] OpenAI, “Create chat”. [Online]. Available: API Reference - OpenAI API [Accessed: 14 de Agosto de 2024].

[12] T. Johnson and N. Obradovich, “Testing for completions that simulate altruism in early language models,” Nat Hum Behav, vol. 9, no. 9, pp. 1861–1870, Jul. 2025, doi: 10.1038/s41562-025-02258-7.