Política de Uso Responsable de IA y Automatizaciones

Versión Actual: 1.0 Última actualización: 17 de Febrero de 2026

1. Finalidad de la Política

Esta política establece los principios y límites bajo los cuales Mantle Core Labs implementa soluciones de Inteligencia Artificial (IA) y automatización para sus clientes.

2. Supervisión Humana

La Agencia promueve que toda decisión crítica automatizada cuente con supervisión humana. No recomendamos, ni nos hacemos responsables de, el uso de sistemas de IA para la toma de decisiones legales, médicas o financieras sensibles sin validación por parte de un profesional calificado.

3. Transparencia

Los sistemas desarrollados por la Agencia que interactúen con humanos (ej: chatbots) deben informar claramente a los usuarios finales que están interactuando con una interfaz automatizada.

4. Limitaciones Técnicas de la IA

El cliente acepta que los modelos de lenguaje (LLM) y otras herramientas de IA pueden generar errores conocidos como "alucinaciones" o respuestas imprecisas. La Agencia implementa medidas de mitigación, pero el cliente es responsable de la revisión final de la información procesada.

5. Responsabilidad en la Configuración

La Agencia entrega sistemas configurados según las instrucciones del cliente. Cualquier modificación posterior en los "prompts" o reglas de negocio por parte del cliente que altere el comportamiento de la IA es responsabilidad exclusiva del mismo.

Nota: Este documento ha sido redactado para Mantle Core Labs (Paraguay). El uso de este sitio implica la aceptación de estos términos. Para cualquier duda legal, puede contactarnos en hello@mantlecorelabs.com.