Probemos esta estrategia. Considera esta situación: una compañía de seguros usa una solución de IA personalizada para responder las consultas de los clientes. Cuando un cliente envía una pregunta a la empresa a través del formulario de contacto, la IA redacta un correo de respuesta basándose en palabras y frases específicas del mensaje. Luego, un representante de atención al cliente revisa la consulta del cliente y corrige las respuestas necesarias antes de aprobar y enviar el mensaje. Más tarde, el equipo de desarrollo puede actualizar el modelo de IA basándose en los comentarios del representante.
Pensemos en un empresario que usa una herramienta de IA independiente para redactar un nuevo eslogan de la marca. En la instrucción para la herramienta, incluye palabras clave específicas y frases que quiere incluir en el eslogan, y la herramienta genera una lista de ideas. El empresario revisa los resultados y encuentra una opción pegadiza que se destaca mucho. Sin embargo, hay que refinarla un poco para lograr la frase indicada. Así que el empresario pide a la herramienta de IA algunos detalles adicionales y ¡voilá! Creó un nuevo eslogan pegadizo para su negocio.
La supervisión es esencial para garantizar la calidad y precisión al utilizar herramientas de IA. Un enfoque de “humano en el ciclo” combina la eficiencia de las herramientas de IA con el saber humano, que es fundamental para practicar la IA responsable. La IA responsable es el principio de desarrollar y usar la IA de manera ética con la intención de beneficiar a las personas y a la sociedad, evitando al mismo tiempo perjudicarlas. Es importante que empresas, clientes y empleados por igual se aseguren de utilizar la IA de forma responsable. Un aspecto de la IA responsable implica lidiar con las limitaciones de los modelos de IA, como el límite de conocimientos. El límite de conocimientos es la idea de que un modelo de IA se entrena en un momento determinado, por lo que desconoce los acontecimientos o la información posteriores a esa fecha.
Por ejemplo, imagina que eres analista financiero y necesitas pedirle a una herramienta de IA que analice las fluctuaciones bursátiles de ayer. Si la última fecha de entrenamiento de la herramienta fue en 2022, no será capaz de proporcionarte la información que pediste porque no conoce los acontecimientos ni la información posteriores a su última fecha de entrenamiento. En situaciones como esa, las herramientas de IA bien diseñadas reconocen sus limitaciones y responden en consecuencia.
Sin embargo, hay situaciones en las que una herramienta puede intentar generar una respuesta a pesar de su límite de conocimientos, lo cual provoca una alucinación. Las alucinaciones son resultados que arroja la IA y que no son ciertos. Las alucinaciones son problemáticas porque pueden conducir a la desinformación, malinterpretación o respuestas inapropiadas que puedan dañar la reputación de una empresa o dejar al cliente insatisfecho.
Por ejemplo, imagina que trabajas en una empresa minorista y usas una herramienta de IA para prever cuántas productos pedir para el inventario. Si la herramienta de IA genera información imprecisa, desactualizada o malinterpretada, esas alucinaciones podrían provocar que la empresa pida una cantidad incorrecta de artículos y generar problemas de suministro para los clientes.
Aunque las alucinaciones pueden plantear problemas, también pueden ser útiles para tu proceso creativo. Supongamos que usas un generador de imágenes con IA como ayuda para diseñar el arte conceptual de un videojuego de temática fantástica. Le pides a la herramienta de IA que genere la imagen de un hermoso castillo que flota en el cielo. El resultado que arroja es una imagen única y divertida, que además es una alucinación. En este ejemplo, generaste una alucinación a propósito. Sin embargo, las alucinaciones pueden ser engañosas si se usan en el contexto equivocado.
Al utilizar herramientas de IA, es importante aplicar un enfoque de “humano en el ciclo”. Al revisar y evaluar el contenido generado por la IA, ayudas a mitigar los posibles efectos de las alucinaciones. Este abordaje contribuye a garantizar que los resultados generados con IA no solo sean innovadores, sino también precisos, pertinentes y éticos. Así, se logran resultados mejores para las empresas, los clientes y la sociedad en general.
Fuente:
Coursera – Fundamentos de IA de Google.
Comentarios
Publicar un comentario