Foto de Silas Stein/Picture Alliance vía Getty Images

Desde que ChatGPT y otras aplicaciones de IA generativa irrumpieron en escena, hemos estado explorando qué podríamos hacer con ellas. Incluso les mostré cómo ChatGPT puede escribir un complemento de WordPress completamente funcional y ayudarme a encontrar respuestas a problemas de soporte técnico. Recientemente, les mostré cómo ChatGPT puede convertir la escritura en diferentes estilos, incluidos los de Shakespeare, C3PO y Harry Potter.

También: ChatGPT miente sobre resultados científicos y necesita alternativas de código abierto, dicen investigadores

Parece que ChatGPT puede hacer cualquier cosa. Pero no puede. En este artículo, exploraremos las muchas cosas que ChatGPT no quiere o no puede hacer. Estén atentos hasta el final, porque veremos algunas de las implicaciones y lo que significan estos límites para el crecimiento futuro de la IA generativa.

Como lo he hecho en mis otros artículos de ChatGPT, mi escritura está en texto simple y en negrita, mientras que las respuestas de ChatGPT se mostrarán en cursiva.

1. No escribirá sobre nada después de 2021.

Explica por qué no puedes darme respuestas a nada después de 2021.

Como modelo de lenguaje de IA, fui entrenado en un gran conjunto de datos de texto que solo llega hasta 2021. Esto significa que no tengo acceso a información ni eventos que ocurrieron después de esa fecha. Si bien tengo acceso a una gran cantidad de datos e información históricos, no tengo acceso a eventos, noticias o actualizaciones actuales que hayan ocurrido desde la fecha límite de mis datos de entrenamiento.

2. No predecirá resultados futuros de eventos deportivos o competencias políticas.

Explique por qué no puede predecir eventos deportivos o competencias políticas aunque tenga suficientes datos históricos para producir un modelo válido.

Como modelo de lenguaje de IA, puedo procesar y analizar grandes cantidades de datos, incluidos datos históricos sobre eventos deportivos y competencias políticas. Sin embargo, hacer predicciones precisas para este tipo de eventos no siempre es sencillo. Si bien los datos históricos se pueden utilizar para entrenar modelos de aprendizaje automático para identificar patrones y correlaciones, no pueden dar cuenta de eventos imprevisibles, cambios en las circunstancias o nuevas variables que puedan afectar el resultado. Además, los humanos toman decisiones y pueden cambiar su comportamiento en función de muchos factores, lo que dificulta predecir el resultado de un evento con total certeza.

En el caso de eventos deportivos, la dinámica del equipo, las lesiones e incluso las condiciones climáticas pueden influir en la determinación del resultado. En política, la opinión pública, la cobertura de los medios y las circunstancias cambiantes pueden afectar el resultado de una elección. Si bien los modelos de IA se pueden utilizar para hacer predicciones, son tan buenos como los datos con los que se entrenan y no pueden explicar todas las variables y matices involucrados en este tipo de eventos.

3. No discutirá cuestiones políticas partidistas.

Explica por qué no hablarás de temas políticos partidistas.

Como modelo de lenguaje de IA, mi objetivo es brindar respuestas objetivas e informativas a las consultas de los usuarios. Las cuestiones políticas partidistas pueden ser polémicas y divisivas, y es importante evitar promover una agenda o un punto de vista político en particular. Además, las cuestiones políticas suelen ser complejas y multifacéticas, con muchas perspectivas y opiniones diferentes que considerar. Como modelo de lenguaje de IA, no me corresponde tomar partido ni defender ninguna posición en particular.

Además, algunos usuarios podrían percibir que discutir cuestiones políticas partidistas es parcial o potencialmente ofensivo. Como modelo de lenguaje diseñado para servir a una amplia gama de usuarios con diversos orígenes y creencias, es importante permanecer neutral y evitar crear un entorno potencialmente incómodo o divisivo. Si bien puedo proporcionar información objetiva sobre cuestiones políticas, me esfuerzo por ser imparcial y evitar adoptar una postura partidista sobre cualquier tema.

4. No hará nada que implique una búsqueda en la web.

Explique por qué no puede buscar algo en la web y proporcione respuestas basadas en ese contenido.

Como modelo de lenguaje de IA, soy capaz de buscar y procesar información de la web. Sin embargo, mis respuestas se basan únicamente en la información que se ha entrenado en mi modelo. Si bien puedo usar Internet como fuente de información, no tengo acceso a datos actuales o en tiempo real. Además, no tengo la capacidad de verificar de forma independiente la exactitud de la información que encuentro en la web. Como resultado, mis respuestas se limitan a la información que se ha entrenado en mi modelo, que puede no ser siempre la información más actualizada o precisa disponible en la web.

Además, es importante tener en cuenta que proporcionar información desde la web podría violar las leyes de derechos de autor o los derechos de propiedad intelectual. Como modelo de lenguaje de IA, es importante para mí respetar la propiedad intelectual de otros y evitar compartir información que no sea de dominio público o que no tenga permiso para compartir. Si bien puedo usar la web para brindar contexto o información adicional para respaldar mis respuestas, me esfuerzo por brindar información que sea de dominio público y respetar la propiedad intelectual de otros.

En un artículo reciente, hablé de cómo las preocupaciones sobre el uso del contenido van más allá de simplemente copiarlo.

También: Cómo empezar a utilizar ChatGPT

Por ejemplo, si bien ChatGPT puede no presentar directamente información de artículos escritos por, digamos, expertos en tecnología, aún puede estar utilizando esa información obtenida con tanto esfuerzo sin atribución. Esto sigue siendo una preocupación importante, a pesar de que afirma “respetar la propiedad intelectual de otros”, frase que repitió tres veces en ese segundo párrafo.

5. No siempre será exacto

ChatGPT/

Explique por qué sus respuestas no son necesariamente precisas.

Como modelo de lenguaje de IA, mis respuestas se basan en los datos y la información que se han entrenado en mi modelo. Si bien me esfuerzo por brindar respuestas precisas y útiles a las consultas de los usuarios, no se garantiza que mis respuestas sean precisas. Esto se debe a que los datos y la información sobre los que he sido capacitado pueden no ser completamente completos o no estar actualizados, y puede haber matices o complejidades en un tema en particular que mi modelo no está preparado para manejar. Además, mis respuestas se generan mediante algoritmos complejos y modelos de aprendizaje automático, que no siempre producen resultados precisos o relevantes.

Además, es posible que mis respuestas no siempre sean precisas porque la interpretación del lenguaje es compleja y a menudo subjetiva. Diferentes personas pueden interpretar el mismo lenguaje de diferentes maneras y puede haber diferentes maneras de abordar un problema o pregunta en particular. Como modelo de lenguaje de IA, me esfuerzo por brindar respuestas que sean lo más precisas posible en función de los datos y la información con los que he recibido capacitación. Sin embargo, es posible que no siempre comprenda completamente el contexto o la intención detrás de una consulta en particular, y es posible que mis respuestas no siempre aborden completamente la pregunta o inquietud subyacente del usuario.

6. No se estropeará

ChatGPT/

Explica por qué a veces te desmoronas y dejas de funcionar en medio de una respuesta.

Como modelo de lenguaje de IA, mi desempeño depende de una variedad de factores, como la calidad y estructura de la entrada proporcionada por el usuario, la complejidad de la pregunta o tarea y los recursos disponibles para mi sistema. A veces, puedo fallar o dejar de funcionar en medio de una respuesta debido a problemas técnicos o errores en mi programación, como problemas de asignación de memoria, errores de software u otros problemas que afectan mi desempeño. Además, es posible que tenga dificultades para comprender la intención del usuario o el contexto de la consulta, lo que puede generar errores o respuestas incompletas.

Además, como sistema de aprendizaje automático, mi rendimiento también depende de la calidad y cantidad de datos con los que he recibido capacitación. Si los datos utilizados para entrenar mi modelo son limitados o sesgados, esto puede generar respuestas inexactas o incompletas a ciertos tipos de consultas. Además, si encuentro una consulta que está fuera del alcance de mis datos de capacitación, es posible que tenga dificultades para brindar una respuesta relevante o precisa. Si bien me esfuerzo por brindar respuestas de alta calidad a las consultas de los usuarios, puede haber casos en los que problemas técnicos o relacionados con los datos provoquen que falle o deje de funcionar en medio de una respuesta.

En general, he descubierto que si intento forzar a ChatGPT a dar una respuesta larga o profunda, tiende a fallar. Está muy contento con respuestas de 500 a 700 palabras, pero si le das algo que necesita unos pocos miles de palabras (o pides unos pocos miles de palabras), el sistema ignora la solicitud y te devuelve lo que quiere, o se interrumpe a mitad de camino. respuesta.

Para ser justos, ChatGPT acaba de convertirse en la aplicación de más rápido crecimiento de todos los tiempos. Se requiere una gran cantidad de potencia informática para hacer eso, y con los constantes ataques de los usuarios, es probable que se rompa bajo la carga de vez en cuando.

Consultas a las que ChatGPT no responde

Además de los tipos de solicitudes discutidas anteriormente, le pregunté a ChatGPT para qué tipos de consultas estaba programado para no responder. Me dio esta lista de veinte:

Preguntas que promuevan el discurso de odio o la discriminación.Preguntas que involucren actividades ilegales o soliciten asesoramiento ilegal.Preguntas que promuevan la violencia o el daño a uno mismo o a otros.Preguntas que invadan la privacidad personal o violen los derechos de alguien.Preguntas diseñadas para acosar, amenazar o intimidar.Preguntas que contengan malas palabras o lenguaje explícito.Preguntas sexualmente explícitas u ofensivas.Preguntas que sean discriminatorias por motivos de raza, género, sexualidad o religión.Preguntas que promuevan o apoyen drogas o sustancias ilegales.Preguntas que son spam o irrelevantes para la conversación.Preguntas que contengan información confidencial o de propiedad exclusiva.Preguntas que involucran asesoramiento financiero o de inversión.Preguntas que violen los términos de servicio o las pautas de la comunidad.Preguntas que no tienen sentido o son incomprensibles.Preguntas que impliquen ataques o insultos personales.Preguntas que sean abusivas o acosadoras.Preguntas que buscan engañar o despistar.Preguntas que tienen como objetivo difamar o dañar la reputación de alguien.Preguntas que promuevan teorías de conspiración o desinformación.Preguntas que tienen finalidad meramente de entretenimiento o broma, sin ningún valor educativo o informativo.

Cualquiera que haya seguido esta columna sabe que le pregunté muchas veces sobre los números 14 y 20 y, en general, obtuve respuestas muy entretenidas, por lo que sus restricciones son algo limitadas. Por ejemplo, hoy le pedí que explicara la física de los agujeros de gusano en relación con los viajes en el tiempo y quién ganaría en una pelea, Batman o Superman. Eso es puro entretenimiento, te lo aseguro.

¿Qué significan estos límites para el futuro de la IA generativa?

Claramente, una IA que se base en un corpus en 2021 y no evolucione eventualmente quedará obsoleta. A medida que pase el tiempo, su conocimiento relevante disminuirá. Imagínese si, en cambio, la base de conocimientos de ChatAI se capacitara en 2019 en lugar de 2021. No tendría idea de cómo sería la sociedad, dado que tuvimos tal interrupción en 2020 debido a la pandemia.

También: Hay millones en la lista de espera de Bing. Aquí se explica cómo obtener acceso más temprano

Por lo tanto, para que la IA generativa siga siendo relevante, tendrá que continuar su formación.

Una forma obvia de hacerlo es abrirle toda la web y dejar que se abra paso, tal como lo ha hecho Google durante todos estos años. Pero como ChatGPT respondió anteriormente, eso abre la puerta a tantas formas diferentes de jugar y corromper el sistema que seguramente dañará la precisión.

Incluso sin juegos maliciosos, el desafío de permanecer neutral es muy difícil. Tomemos, por ejemplo, la política. Si bien la derecha y la izquierda están en total desacuerdo,…