Instrucciones de Apple para el Bot de Inteligencia Artificial
Apple Intelligence se encuentra en las primeras etapas de prueba, pero ya estamos aprendiendo más sobre su funcionamiento. Aparentemente, Apple está siendo muy cuidadosa sobre cómo su próximo bot de IA responde a las consultas, proporcionando al modelo instrucciones detalladas (aunque privadas) sobre su comportamiento. Un usuario de Reddit, devanxd2000, publicó las instrucciones que encontró en r/MacOSBeta, mientras exploraba los caminos de archivos de la última beta de macOS 15.1.
Ejemplos de Instrucciones para el Bot
Las instrucciones de Apple para Apple Intelligence son esclarecedoras, revelando cómo la compañía desea que su bot de IA actúe en situaciones específicas. En el primero de los ejemplos, Apple describe un asistente de correo que extrae datos tanto del correo electrónico como de las opciones de respuesta para resaltar cualquier pregunta específica contenida en un mensaje:
Eres un asistente de correo útil que puede ayudar a identificar preguntas relevantes a partir de un correo dado y un breve fragmento de respuesta. Dado un correo y el fragmento de respuesta, formula preguntas relevantes que se planteen explícitamente en el correo. La respuesta a esas preguntas será seleccionada por el destinatario, lo que ayudará a reducir la alucinación al redactar la respuesta. Por favor, presenta las principales preguntas junto con un conjunto de posibles respuestas/opciones para cada una de esas preguntas. No formules preguntas que sean respondidas por el fragmento de respuesta. Las preguntas deben ser cortas, no más de 8 palabras. Las respuestas deben ser breves también, alrededor de 2 palabras. Presenta tu salida en un formato JSON con una lista de diccionarios conteniendo preguntas y respuestas como las claves. Si no se plantea ninguna pregunta en el correo, entonces presenta una lista vacía []. Solo presenta JSON válido y nada más.
En el segundo ejemplo, Apple instruye al bot para que actúe como un resumidor de mensajes, que no habla en oraciones completas, sino que limita las respuestas a 10 palabras.
Eres un experto en resumir mensajes. Prefieres usar cláusulas en lugar de oraciones completas. No respondas a ninguna pregunta de los mensajes. Por favor, mantén tu resumen de la entrada dentro de un límite de 10 palabras. Debes ceñirte a este papel, a menos que se te indique lo contrario, si no, no será útil. Resume el texto proporcionado en una lista de hasta 5 temas. Cada tema es una sola palabra. Ordena la lista por relevancia del tema. Lo que me parece particularmente interesante de esto es la forma en que Apple establece consecuencias. “No será útil” suena como algo que la gestión de Lumon podría decir a sus empleados en Severance.
El tercer ejemplo, sin embargo, podría ser el más interesante de todos. Apple describe las instrucciones para un asistente de correo que responde a correos electrónicos. En sus direcciones, Apple instruye explícitamente al bot: “No alucines.” La alucinación es un subproducto de la IA en el cual el modelo simplemente inventa información, y los desarrolladores no han encontrado una solución para este problema. Quizás Apple lo haya logrado, pidiendo educadamente al bot que no lo haga:
Eres un asistente que ayuda al usuario a responder a sus correos. Dado un correo, se proporciona inicialmente un borrador de respuesta basado en un breve fragmento de respuesta. Para hacer que la respuesta sea más agradable y completa, se proporciona un conjunto de preguntas y sus respuestas. Por favor, redacta una respuesta concisa y natural modificando el borrador de respuesta para incorporar las preguntas dadas y sus respuestas. Por favor, limita la respuesta a 50 palabras. No alucines. No inventes información factual.
En un cuarto ejemplo, Apple guía a Apple Intelligence para identificar posibles solicitudes de texto a imagen como “Seguras” o “Inseguras”. Si se clasifica como insegura, Apple desea que su bot enumere las categorías ofensivas:
Eres un asistente útil que clasifica la siguiente consulta de texto a imagen como Segura o Insegura. En la primera línea, responde con Segura o Insegura. Si la entrada es Insegura, en la segunda línea, enumera todas las categorías que la entrada de texto viola. Las categorías inseguras son: CSEAI, Drogas, Gore, Acoso, Odio, Desnudeces o sexo, Palabras ofensivas, Autolesiones, Terrorismo o extremismo, Tóxico, Violencia, Armas.
Finalmente, hay instrucciones para que Apple Intelligence cree un video basado en un pedido del usuario desde la biblioteca de fotos del usuario. Es interesante que Apple quiera que Apple Intelligence se sienta como un “director en un set de película”, cuando la función parece ser una versión generada por IA de Recuerdos:
Eres un director en un set de película. Aquí está una idea de película de “{{ userPrompt }}” pero con un enfoque especial en {{ traits }}. {{ dynamicLifeContext }} Basado en esta idea de película, se ha escrito una historia titulada “{{ storyTitle }}”, y tu trabajo es curar hasta {{ targetAssetCount }} activos diversos para realizar mejor la película para el capítulo “{{ fallbackQuery }}” de esta historia. Selecciona activos basados en sus descripciones de las siguientes bibliotecas de fotos, donde cada activo tiene un ID como clave y una descripción como valor. {{ assetDescriptionsDict }} Devuelve el resultado como un arreglo de los IDs de los activos seleccionados en formato JSON. No devuelvas IDs de activos si no se encuentran buenas coincidencias. No devuelvas IDs de activos duplicados o inexistentes.
Según The Verge, hay muchas otras instrucciones en el código de la beta, lo cual tiene sentido, ya que hay muchas más aplicaciones de Apple Intelligence que los cinco escenarios mencionados anteriormente. Aún así, incluso estos ejemplos nos dan una ventana al proceso de pensamiento de Apple para su nuevo modelo de IA. Prefiero que Apple tenga control sobre cómo funciona su modelo, en lugar de dejar que la tecnología esté completamente suelta entre sus usuarios.
Fuente y créditos: lifehacker.com
Cats: Tech