Vithun Khamsong/Getty Images

Las organizaciones que quieran aprovechar la inteligencia artificial (IA) generativa de manera más efectiva deberían usar sus propios datos para entrenar sistemas de IA, utilizando modelos básicos como punto de partida.

Hacerlo puede proporcionar un contexto más relevante y disipar las preocupaciones sobre los riesgos potenciales, como la inexactitud y las infracciones de propiedad intelectual.

También: Cómo utilizar ChatGPT: todo lo que necesitas saber

La precisión, en particular, es una prioridad absoluta para una empresa como Jiva. El proveedor de tecnología agrícola utiliza IA para impulsar su aplicación móvil, Crop Doctor, que identifica enfermedades de los cultivos mediante procesamiento de imágenes y visión por computadora, y recomienda tratamientos. También recurre a la IA para determinar la solvencia crediticia de los agricultores que solicitan adelantos en efectivo antes de una cosecha y devuelven los préstamos cuando se paga la cosecha.

Utiliza varias herramientas de inteligencia artificial y aprendizaje automático, incluidas Pinecorn, OpenAI y scikit-learn, así como TensorFlow y Vertex AI de Google. Jiva tiene operaciones en Singapur, Indonesia e India.

Entrena sus modelos de IA con miles de imágenes comentadas para cada enfermedad, según el CTO de Jiva, Tejas Dinkar. La empresa agrotech ha recopilado cientos de miles de imágenes del suelo a través de sus equipos de campo y agricultores que forman parte de la red de Jiva y utilizan su aplicación AgriCentral, que está disponible en India.

También: Cómo utilizar Bing Image Creator (y por qué es mejor que DALL-E 2)

Sus expertos de campo participan en la recopilación inicial y la anotación de imágenes, antes de pasarlas a expertos en agronomía, quienes anotan aún más las imágenes. Luego, estos se agregan al modelo de capacitación utilizado para identificar enfermedades de las plantas.

Para cultivos nuevos o cultivos con los que su equipo de expertos está menos familiarizado, Jiva incorpora otras plataformas, como Plantix, que tienen amplios conjuntos de datos para potenciar el reconocimiento de imágenes y la información de diagnóstico.

Proporcionar información precisa es vital porque los datos pueden mejorar las cosechas y los medios de vida de los agricultores, dijo Dinkar en una entrevista con . Para garantizar aún más la veracidad de los datos, la IA generativa y los modelos de lenguaje grande (LLM) utilizan solo conjuntos de datos que la propia Jiva obtuvo y examinó.

Además, se le pide al chatbot, mediante ingeniería rápida, que ignore cualquier dato previamente entrenado sobre agricultura que pueda estar en los LLM, dijo.

También: Este nuevo sistema de inteligencia artificial puede leer la mente con precisión aproximadamente la mitad del tiempo

Si no hay datos de los que extraer, el chatbot devuelve una respuesta diciendo que no puede identificar la enfermedad del cultivo. “Hay que asegurarse de que haya suficientes datos. No queremos dar una respuesta vaga”, dijo.

Jiva también utiliza su biblioteca de imágenes para construir sobre plataformas, como Plantix. Estos modelos proporcionan una buena base pero, como son desarrollados por empresas globales, es posible que no necesariamente estén adecuadamente capacitados en datos específicos de una región o mercado, dijo Dinkar.

Este problema significó que Jiva tuvo que crear modelos de capacitación para cultivos que eran más comunes en Indonesia y la India, como el maíz, dijo. Estos han tenido un mejor rendimiento que Plantix u otros productos disponibles en el mercado, añadió, destacando la importancia de la localización en los modelos de IA.

Ajuste los modelos base para obtener mejores resultados

El uso de modelos de datos básicos listos para usar es una forma de comenzar rápidamente con la IA generativa. Sin embargo, un desafío común con ese enfoque es que los datos pueden no ser relevantes para la industria en la que opera la empresa, según Olivier Klein, tecnólogo jefe de Asia-Pacífico de Amazon Web Services (AWS).

Para tener éxito en sus implementaciones de IA generativa, las organizaciones deben ajustar el modelo de IA con sus propios datos, dijo Klein. Las empresas que se esfuercen por hacer esto correctamente avanzarán más rápido en su implementación.

También: Estos expertos se apresuran para proteger la IA de los piratas informáticos

El uso de IA generativa por sí solo resultará más convincente si se integra dentro de la estrategia y plataforma de datos de una organización, añadió.

Dependiendo del caso de uso, un desafío común que enfrentan las empresas es si tienen suficientes datos propios para entrenar el modelo de IA, dijo. Sin embargo, señaló que la cantidad de datos no necesariamente equivale a la calidad de los datos.

La anotación de datos también es importante, al igual que la aplicación del contexto a los modelos de entrenamiento de IA para que el sistema produzca respuestas que sean más específicas de la industria en la que se encuentra la empresa, dijo.

Con la anotación de datos, los componentes individuales de los datos de entrenamiento se etiquetan para permitir que las máquinas de IA comprendan qué contienen los datos y qué componentes son importantes.

Klein señaló una idea errónea común de que todos los sistemas de IA son iguales, lo cual no es el caso. Reiteró la necesidad de que las organizaciones se aseguren de modificar los modelos de IA en función del caso de uso y de su vertical.

Los LLM han impulsado muchas conversaciones entre clientes empresariales sobre el uso de IA generativa en centros de llamadas, en particular, dijo. Existe interés en cómo la tecnología puede mejorar la experiencia de los agentes de llamadas, quienes pueden acceder a mejores respuestas sobre la marcha e incorporarlas para mejorar el servicio al cliente.

Los operadores de centros de llamadas pueden entrenar el modelo de IA utilizando su propia base de conocimientos, que puede incluir chatbots e interacciones con los clientes, señaló.

Agregar contenido de un dominio específico a un LLM existente que ya está capacitado en conocimientos generales e interacción basada en idiomas generalmente requiere muchos menos datos, según un informe de Business Harvard Review. Este enfoque de ajuste implica ajustar algunos parámetros de un modelo base y utiliza sólo cientos o miles de documentos, en lugar de millones o miles de millones. También se necesita menos tiempo de cálculo, en comparación con la construcción de un nuevo modelo fundamental desde cero.

También: La IA generativa puede hacer que algunos trabajadores sean mucho más productivos, según este estudio

Sin embargo, existen algunas limitaciones. El informe señaló que este enfoque aún puede resultar costoso y requiere experiencia en ciencia de datos. Además, no todos los proveedores de LLM, como ChatGPT-4 de OpenAi, permiten a los usuarios realizar ajustes sobre los suyos.

Aprovechar sus propios datos también aborda una preocupación común que tienen los clientes en medio del mayor interés en la IA generativa, donde las empresas quieren retener el control de los datos utilizados para entrenar modelos de IA y que los datos permanezcan dentro de sus entornos, dijo Klein.

Este enfoque garantiza que no haya una “caja negra” y que la organización sepa exactamente qué datos se utilizan para alimentar el modelo de IA, señaló. También garantiza la transparencia y ayuda a establecer una adopción responsable de la IA.

También se están realizando esfuerzos para identificar las políticas necesarias para evitar el efecto caja negra, dijo, y agregó que AWS trabaja con reguladores y formuladores de políticas para garantizar que sus propios productos de IA sigan siendo compatibles. La empresa también ayuda a los clientes a hacer lo mismo con sus propias implementaciones.

También: La gente está recurriendo a ChatGPT para solucionar sus problemas tecnológicos ahora

Amazon Bedrock, por ejemplo, puede detectar sesgos y filtrar contenido que viole las pautas éticas de la IA, dijo. Bedrock es un conjunto de modelos básicos que abarcan modelos propietarios y industriales, como Amazon Titan, Jurassic-2 de AI21 Labs, Claude de Anthropic y Stability AI.

Klein anticipa que en el futuro surgirán más modelos de datos básicos, incluidos modelos básicos verticales específicos, para brindar a las organizaciones más opciones sobre las cuales capacitarse.

Cuestiones clave a resolver con la IA generativa

Cuando faltan modelos de IA sólidos, los humanos pueden intervenir.

Para problemas de cultivos poco comunes o muy específicos, Dinkar señaló que el equipo de expertos en agronomía de Jiva puede trabajar con investigadores locales y equipos de campo para resolverlos.

El equipo de evaluación crediticia de la compañía también superpone los datos generados por los sistemas de inteligencia artificial con otra información, dijo. Por ejemplo, el equipo puede realizar una visita al sitio y darse cuenta de que un cultivo acaba de estar listo para la cosecha, lo que es posible que el sistema impulsado por IA no haya tenido en cuenta cuando generó la evaluación crediticia.

“El objetivo no es eliminar a los humanos por completo, sino trasladarlos a áreas que puedan amplificar y [apply] pensamientos adaptativos, que las máquinas aún no son capaces de hacer”, dijo Dinkar.

Cuando se le preguntó sobre los desafíos que encontró Jiva con su adopción de IA generativa, señaló la falta de una metodología de aviso estándar entre las diferentes versiones de software y proveedores.

El “verdadero omnilingüismo” también falta en los LLM, dijo, mientras que las alucinaciones siguen siendo una cuestión clave.

“Varios modelos de lenguaje grandes tienen sus propias peculiaridades [and] las mismas técnicas rápidas no funcionan en todos ellos”, explicó. Por ejemplo, a través de una ingeniería rápida refinada, Jiva ha podido instruir a su robot de agronomía para que aclare si no puede inferir, a partir del contexto, el cultivo al que hace referencia el agricultor. .

También: Cómo engañé a ChatGPT para que me dijera mentiras

Sin embargo, si bien este mensaje en particular funcionó bien en GPT-3.5, no funcionó tan bien en GPT-4, dijo. Tampoco funciona en un LLM diferente.

“La imposibilidad de reutilizar mensajes entre versiones y plataformas requiere la creación de conjuntos de técnicas de mensajes personalizados para cada una”, dijo Dinkar. “A medida que mejoren las herramientas y surjan mejores prácticas para impulsar varios modelos de lenguaje grandes, esperamos que las indicaciones multiplataforma se conviertan en una realidad”.

También se necesitan mejoras en el soporte entre idiomas, dijo, señalando las respuestas extrañas que a veces genera su chatbot y que están fuera de contexto.