Mystery Planet es un sitio web que ofrece noticias y artículos sobre ciencia y misterios. Para estar al tanto de todo lo que publicamos, además de seguirnos en nuestras redes sociales o suscríbete a nuestro boletín de noticias, te invitamos a nuestro canal de Telegram.
Parece que ni los modelos de inteligencia artificial están exentos de un poco de procrastinación.
Durante una reciente demostración de programación, la última versión de Claude 3.5 Sonnet —la IA insignia de Anthropic— perdió el enfoque y generó momentos «divertidos», según anunció la compañía. En un video de la demostración, Claude abandonó la tarea de escribir código de programación, abrió Google y comenzó a navegar inesperadamente entre fotos de los hermosos paisajes del parque nacional de Yellowstone.
Even while recording these demos, we encountered some amusing moments. In one, Claude accidentally stopped a long-running screen recording, causing all footage to be lost.
Later, Claude took a break from our coding demo and began to peruse photos of Yellowstone National Park. pic.twitter.com/r6Lrx6XPxZ
— Anthropic (@AnthropicAI) October 22, 2024
En otro intento de grabación, la IA detuvo accidentalmente la grabación en curso, lo que hizo que se perdiera todo el material. Anthropic aseguró que esto no fue intencional.
Claude 3.5 Sonnet representa el esfuerzo de Anthropic para crear un «agente de IA» capaz de realizar tareas de manera autónoma, un avance hacia modelos más productivos y útiles que van más allá de simples chatbots o asistentes. La startup —respaldada por Amazon— afirma que su IA puede usar computadoras «como lo haría una persona», incluyendo mover el cursor, realizar clics y teclear, lo cual le permite interactuar con cualquier software y aplicación instalada en el escritorio.
Introducing an upgraded Claude 3.5 Sonnet, and a new model, Claude 3.5 Haiku. We’re also introducing a new capability in beta: computer use.
Developers can now direct Claude to use computers the way people do—by looking at a screen, moving a cursor, clicking, and typing text. pic.twitter.com/ZlywNPVIJP
— Anthropic (@AnthropicAI) October 22, 2024
Sin embargo, el modelo aún está lejos de ser perfecto. Sus creadores humanos reconocen que, aunque es su tecnología más avanzada, Claude es lento y comete errores con frecuencia. Todavía no puede realizar acciones comunes como arrastrar elementos o hacer zoom.
Aunque los errores de Claude mostrados hasta ahora han sido inofensivos, su nivel de autonomía plantea inquietudes sobre su seguridad. ¿Qué sucedería si, en lugar de buscar fotos, el agente de IA decidiera abrir nuestras redes sociales?
Anthropic asegura estar tomando medidas para evitar riesgos, como el uso indebido por parte de terceros. Esto incluye la implementación de clasificadores que detectan actividades sensibles, como publicar en redes sociales o acceder a sitios gubernamentales.
Con más personas probando el nuevo Claude, seguramente veremos más ejemplos de sus «peculiares» interacciones en el escritorio.
Fuente: Ft/Yahoo News. Edición: MP.
¿Te gustó lo que acabas de leer? ¡Compártelo!
Artículos Relacionados
0 comentarios