El objetivo de esta política es definir las pautas para el uso adecuado de las herramientas de Inteligencia Artificial (IA) en FxScouts. Busca fomentar una utilización eficiente y segura de la IA, incluidos los programas generativos de IA y ChatGPT, al tiempo que se mitigan los riesgos asociados.
Esta política se aplica a todas las personas en FxScouts y regula el uso de todas las herramientas de IA proporcionadas por la empresa, incluidas, entre otras, los programas generativos de IA y ChatGPT.
Todos los empleados autorizados por FxScouts deben completar la capacitación requerida para poder utilizar las herramientas de IA. Este proceso asegura que seamos plenamente conscientes de las capacidades y limitaciones de las herramientas, y que las usemos de manera efectiva y responsable.
El uso no autorizado incluye, pero no se limita a, el uso por parte de personal no autorizado, la utilización fuera del ámbito de trabajo asignado o el uso de las herramientas de manera inconsistente con esta política o con otras pautas de la empresa. Cualquier uso no autorizado sospechoso debe ser reportado inmediatamente al personal supervisor correspondiente o al equipo de seguridad de TI. El uso no autorizado puede resultar en medidas disciplinarias, que pueden incluir la terminación del empleo.
La preservación de la seguridad de los datos de la empresa, la propiedad intelectual y la confidencialidad es de suma importancia en todas las actividades, incluido el uso de herramientas de IA. Dado que estas herramientas aprenden y generan contenido a partir de los datos introducidos, es crucial que los usuarios eviten ingresar o compartir información sensible, como datos de clientes, contratos confidenciales, detalles sobre asociaciones, proyectos, declaraciones de trabajo u otra información propietaria.
Además, debemos respetar los límites legales y éticos en cuanto a la privacidad de los datos. Si no estamos seguros de si cierta información es apropiada para utilizar con la herramienta de IA, debemos consultar con nuestro departamento legal. Las violaciones a las directrices de seguridad de datos y confidencialidad pueden derivar en acciones disciplinarias.
Las herramientas de IA no son soluciones independientes, sino parte de un conjunto más amplio de recursos que nos ayudan en nuestras funciones. Deben utilizarse como un complemento y no como un reemplazo de los métodos tradicionales de resolución de problemas y toma de decisiones.
El resultado de las herramientas de IA siempre debe estar respaldado por lógica empresarial. Por ejemplo, si una herramienta de IA genera una sugerencia o plan, los usuarios deben evaluar críticamente dicha sugerencia basándose en su comprensión del modelo de negocio, la estrategia y las condiciones del mercado.
Se fomenta la colaboración con colegas para obtener diferentes perspectivas, verificar los resultados de las herramientas de IA y reducir el riesgo de errores.
Además, debemos validar adecuadamente los resultados generados por las herramientas de IA. Esto puede implicar la verificación cruzada de la información con otras fuentes confiables, realizar pruebas exhaustivas si es posible o consultar con expertos cuando sea necesario.
El uso de herramientas de IA como complemento asegura que mantengamos el juicio humano y la supervisión en nuestros procesos, maximizando así el valor de estas herramientas mientras se minimizan los riesgos asociados.
Al usar herramientas de IA, siempre debemos ser conscientes de los riesgos inherentes que estas tecnologías presentan. Estos riesgos pueden incluir posibles inexactitudes o malentendidos en el contenido generado por IA debido a la falta de contexto, ambigüedades legales en cuanto a la propiedad del contenido y posibles violaciones de la privacidad de los datos. Por lo tanto, debemos mantener una actitud crítica hacia los resultados de la IA en todo momento.
Para gestionar eficazmente estos riesgos, la dirección tiene la responsabilidad de integrar evaluaciones de riesgos específicos de IA en nuestros procedimientos generales de gestión de riesgos. Esto incluye evaluar y actualizar continuamente nuestros protocolos para identificar, evaluar y mitigar posibles riesgos, considerando los cambios en la tecnología de IA, su aplicación y el entorno de riesgos externos. Además, se deben realizar sesiones periódicas de capacitación y concientización para mantenernos informados sobre estos riesgos y los pasos necesarios para abordarlos.
Debemos ser cautelosos al utilizar plataformas de IA de terceros debido a posibles vulnerabilidades de seguridad y brechas de datos. Antes de utilizar cualquier herramienta de IA de terceros, debemos verificar la seguridad de la plataforma revisando las certificaciones de seguridad correspondientes, examinando las políticas de manejo de datos y privacidad del proveedor, y consultando con nuestro equipo de TI o ciberseguridad si es necesario.
Además, cualquier dato compartido con plataformas de terceros debe cumplir con las pautas establecidas en la sección 2, Seguridad de Datos y Confidencialidad. Si no estamos seguros sobre el uso de una plataforma de terceros, debemos buscar orientación de nuestros supervisores o del equipo de seguridad de TI.
Siempre que se proponga el uso de IA, los creadores de contenido, curadores de contenido o los equipos de producto deben considerar primero si tanto el despliegue de la IA como el producto o herramienta específica son apropiados para la tarea requerida.
Además, deben tener en cuenta que la IA también puede integrarse en herramientas proporcionadas por proveedores externos o en herramientas disponibles públicamente en internet.
Cualquier uso de IA por parte de FxScouts en la creación, presentación o distribución de contenido debe ser coherente con las Directrices Editoriales, incluidos los principios de imparcialidad, precisión, equidad y privacidad.
Cualquier uso de IA por parte de FxScouts en la creación, presentación o distribución de contenido debe incluir supervisión editorial humana activa y aprobación, acorde con la naturaleza de su uso y consistente con las Directrices Editoriales.
Por ejemplo, la supervisión de un motor de recomendaciones puede realizarse a nivel general para asegurar que sus resultados sean coherentes con las Directrices Editoriales. Sin embargo, cuando se utiliza IA en el análisis de datos para un proyecto periodístico, la supervisión humana debe involucrarse con los resultados detallados.
En todos los casos, debe haber una figura editorial senior responsable de supervisar su implementación y uso continuo. Los gerentes editoriales también deben asegurarse de estar al tanto y gestionar eficazmente cualquier uso de IA por parte de sus equipos.
Cualquier uso de IA por parte de FxScouts en la creación, presentación o distribución de contenido debe ser transparente y claro para la audiencia. La audiencia debe ser informada de manera adecuada al contexto, y puede ser útil explicar no solo que se ha utilizado IA, sino también cómo y por qué se ha utilizado.
Los resultados producidos por la IA están determinados tanto por el algoritmo que la impulsa como por los datos con los que ha sido entrenada. Tanto el algoritmo como los datos de entrenamiento pueden introducir sesgos o inexactitudes en los resultados de la IA.
Cualquier uso propuesto de IA debe considerar si existen sesgos inherentes que afecten su implementación por parte de FxScouts y, por lo tanto, si es una herramienta adecuada.
La IA generativa funciona prediciendo respuestas probables a consultas o instrucciones, basándose en la naturaleza de su algoritmo y los datos de entrenamiento, en lugar de proporcionar necesariamente contenido o respuestas precisas.
Cualquier uso propuesto de IA generativa debe considerar la posibilidad de que el contenido presentado como exacto sea, en realidad, una creación del algoritmo y una "alucinación" o una fabricación sin fundamento.
De manera similar, la IA generativa puede simplemente adaptar contenido de una búsqueda en la web o de una base de datos de contenido confiable y presentarlo como original.
Cualquier uso propuesto de IA debe considerar la posibilidad de que el contenido presentado como original sea, en realidad, plagiado o imitado.
FxScouts también tiene la responsabilidad de considerar no solo los derechos de los creadores y artistas en su uso de la IA, sino también de no poner en riesgo el papel que juegan en la comunidad creativa en general. Cualquier uso de IA debe considerar los derechos de los talentos y colaboradores, al tiempo que se permite el uso creativo de nuevas formas de expresión.
El cumplimiento de esta política será monitoreado regularmente por FxScouts. Cualquier incumplimiento de la política será abordado y corregido de manera oportuna.
Esta política será revisada y actualizada periódicamente para adaptarse a los cambios en la tecnología, las necesidades comerciales o los requisitos legales.