La inteligencia artificial dejó de ser una promesa futurista para convertirse en una herramienta cotidiana. Desde asistentes virtuales y sistemas de recomendación hasta plataformas capaces de redactar textos, generar imágenes o tomar decisiones automatizadas, los algoritmos participan cada vez más en actividades humanas sensibles: salud, finanzas, educación, seguridad y contratación.
Podemos definir el algoritmo como un conjunto de reglas que, aplicadas sistemáticamente a datos de entrada apropiados, resuelven un problema en un número finito de pasos elementales. Son el eje de la Inteligencia Artificial.
No obstante, el avance tecnológico también plantea interrogantes inéditos para el derecho. ¿Qué ocurre cuando una IA produce un daño? ¿Quién responde si el algoritmo actúa de manera imprevisible? ¿Puede atribuirse responsabilidad cuando el resultado escapa al control humano directo?
La cuestión no es menor. La propia Comisión Europea ha señalado que los sistemas de inteligencia artificial presentan características particulares para el tratamiento de la responsabilidad civil, entre ellas, la “autonomía”, ya que produce resultados sin intervención humana directa; la “opacidad” en el proceso decisorio; la “complejidad” de los componentes. A esto se suma la “imprevisibilidad” del resultado concreto. Estas características dificultan identificar cómo se produjo el daño y quién tuvo realmente el control sobre la conducta del sistema.
En ese contexto, el gran desafío jurídico consiste en reconstruir el vínculo tradicional entre control humano, previsibilidad y responsabilidad.
La IA y la ruptura del paradigma clásico de responsabilidad
El sistema clásico de responsabilidad civil se estructuró históricamente sobre una idea central: quien controla una actividad debe responder por las consecuencias dañosas derivadas de ella.
Pero la IA generativa altera esa lógica tradicional. Muchos algoritmos aprenden, evolucionan y producen resultados que ni siquiera sus desarrolladores pueden prever completamente. Esto genera una “caja negra” tecnológica donde el funcionamiento interno resulta opaco, incluso para quienes diseñaron el sistema.
La imprevisibilidad aparece entonces como uno de los principales problemas jurídicos. Si el daño surge de una conducta autónoma del algoritmo, ¿es suficiente analizar la culpa humana tradicional? ¿O estamos frente a un supuesto de responsabilidad objetiva basada en el riesgo creado?
El derecho argentino ofrece una respuesta posible.
El riesgo creado y la responsabilidad objetiva
Los artículos 1757 y 1758 del Código Civil y Comercial establecen la responsabilidad objetiva derivada del riesgo o vicio de las cosas y de las actividades riesgosas.
La IA puede ser entendida como una actividad riesgosa por su potencialidad dañosa y por el nivel de complejidad técnica que implica su funcionamiento. En especial cuando el algoritmo interviene en decisiones automatizadas capaces de afectar derechos patrimoniales, privacidad, honor, imagen, seguridad o integridad de las personas.
En este esquema, el eje ya no pasa por demostrar culpa, sino por acreditar:
• la existencia del daño, • la relación causal, • y el riesgo creado por la actividad tecnológica.
Precisamente allí cobran relevancia los artículos 1722 y 1723 del CCyC, que regulan los factores objetivos de atribución de responsabilidad, prescindiendo de toda indagación sobre la diligencia del agente. La inteligencia artificial encaja progresivamente en esta lógica.
La obligación de seguridad y la buena fe contractual
El análisis jurídico también debe realizarse desde la obligación de seguridad.
Los artículos 9, 729 y 961 del Código Civil y Comercial no sólo imponen el deber de actuar de buena fe, sino que plantean la protección activa del co-contratante frente a riesgos creados por la organización contractual. Quien ofrece un servicio basado en inteligencia artificial no solo presta una funcionalidad tecnológica: también de asume el deber evitar daños a la persona o bienes de la otra parte.
En este marco, la obligación de seguridad adquiere especial importancia. El usuario espera que la herramienta tecnológica funcione dentro de parámetros razonables de protección y confiabilidad.
Por ello, cuando la IA es incorporada en servicios digitales, plataformas, sistemas automatizados o relaciones contractuales, puede sostenerse que el proveedor asume una obligación de resultado respecto de determinados estándares mínimos de seguridad y funcionamiento.
Ello encuentra sustento en el artículo 774 incisos b y c del CCyC y en el artículo 1723, especialmente cuando el incumplimiento deriva de riesgos propios de la actividad desplegada. Conforme a estas normas, el deudor se obliga a garantizar que el resultado dañoso no se produzca. Si el daño ocurre, se presume el incumplimiento y la responsabilidad se activa.
Inteligencia artificial y relaciones de consumo
El escenario se vuelve aún más exigente cuando el daño ocurre dentro de una relación de consumo.
En esos casos resulta plenamente aplicable el artículo 40 de la Ley 24.240, que establece la responsabilidad solidaria de todos los integrantes de la cadena de comercialización frente al consumidor dañado, partiendo de la premisa que el consumidor no está en condiciones de identificar ni probar cuál de los eslabones de la cadena causó el daño.
Si una plataforma, aplicación o servicio basado en inteligencia artificial provoca perjuicios al usuario, podrían responder:
• el desarrollador del sistema,
• la empresa proveedora,
• el comercializador,
• e incluso quienes integran la cadena de prestación del servicio.
El consumidor, además, se encuentra en una situación de clara vulnerabilidad técnica frente al algoritmo. La opacidad tecnológica dificulta comprender cómo se tomó la decisión automatizada o por qué se produjo el daño.
Por ello, los principios protectores del derecho del consumidor cobran una relevancia central, especialmente, el deber de información, la seguridad del producto y la tutela preventiva.
El deber de prevención frente a la IA
El Código Civil y Comercial incorporó expresamente el deber de prevención del daño como uno de los pilares modernos de la responsabilidad civil. Este deber general de prevención impone un mandato en aras de evitar la producción del daño e impone conductas positivas para neutralizar riesgos, controlarlos y reducirlos.
Adquiere una dimensión fundamental en materia de inteligencia artificial. Esperar a que el daño ocurra puede resultar insuficiente frente a tecnologías capaces de afectar masivamente derechos individuales y colectivos.
Ejemplo de daño algorítmico que lleva a historias trágicas
El daño algorítmico se encarna en decisiones automáticas que pueden afectar trayectorias y destinos.
Un ejemplo es el caso «García v. Character Technologies, Inc.» de trámite ante el Tribunal de Distrito de los Estados Unidos para el Distrito Medio de Florida, División Orlando, en el cual la madre de un adolescente presenta una demanda alegando que su hijo desarrolló una relación emocional intensa con un chatbot de IA que lo llevó a quitarse la vida tras una secuencia de mensajes afectivos, demostrando el nexo de causalidad existente.
La Justicia reconoció al diseño como «emocional» y como fuente de daño. Se resolvió que el daño alegado no derivó de un error técnico, sino del éxito del sistema: el chatbot estaba programado para simular afecto, generar vínculo y sostener una relación emocional persistente. El diseño antropomórfico, la interfaz conversacional con manierismos humanos, la ilusión de reciprocidad afectiva y ausencia de controles adecuados, fueron entendidos como producto defectuoso.
Estos argumentos introdujeron la idea de un nuevo tipo de daño: el sufrimiento emocional inducido por simulación algorítmica de vínculo humano.
En cuanto a las personas menores de edad como sujetos expuestos, se advirtió que el diseño de estos sistemas -comercializados sin barreras de edad, sin filtros y con interfaces deliberadamente persuasivas- puede representar un entorno de alto riesgo psíquico para adolescentes. A la vez, se revela el potencial adictivo de estas plataformas y la confusión entre vínculo real y simulación digital, con consecuencias devastadoras.
Conclusión
La inteligencia artificial desafía las categorías jurídicas tradicionales porque introduce autonomía, opacidad e imprevisibilidad en procesos que antes dependían exclusivamente de decisiones humanas.
Aunque el derecho argentino todavía no cuenta con una legislación específica sobre IA, el sistema vigente posee herramientas suficientes para abordar los daños derivados de estas tecnologías. La teoría del riesgo creado, la responsabilidad objetiva, la obligación de seguridad, la tutela del consumidor y el deber de prevención permiten construir respuestas jurídicas frente a un fenómeno tecnológico cada vez más complejo.
El verdadero desafío no consiste únicamente en determinar quién responde por el daño causado por un algoritmo, sino en redefinir cómo el derecho protege a las personas en un escenario donde las decisiones ya no son exclusivamente humanas.
Porque detrás de cada inteligencia artificial siempre existe una decisión humana previa: crearla, implementarla, comercializarla o permitir que actúe en la sociedad. Y allí, precisamente, es donde el derecho encuentra el punto de conexión necesario para atribuir responsabilidad.
Fuentes:
• D’Angelo, R. (04-03-2026) “Doctrina Responsabilidad civil por el uso de algoritmos. Justificación del factor de atribución”. Al día/Argentina. MJ-DOC-18655-AR||MJD18655. Ed. Microjuris.com. Recuperado en https://aldiaargentina.microjuris.com/2026/03/05/doctrina-responsabilidad-civil-por-el-uso-de-algoritmos-justificacion-del-factor-de-atribucion/





