Parece que ni los modelos de inteligencia artificial están exentos de un poco de procrastinación.

Inteligencia artificial se aburre durante demostración y comienza a ver fotos de parques nacionales

Crédito: MysteryPlanet.com.ar.

Durante una reciente demostración de programación, la última versión de Claude 3.5 Sonnet —la IA insignia de Anthropic— perdió el enfoque y generó momentos «divertidos», según anunció la compañía. En un video de la demostración, Claude abandonó la tarea de escribir código de programación, abrió Google y comenzó a navegar inesperadamente entre fotos de los hermosos paisajes del parque nacional de Yellowstone.

En otro intento de grabación, la IA detuvo accidentalmente la grabación en curso, lo que hizo que se perdiera todo el material. Anthropic aseguró que esto no fue intencional.

Un agente autónomo en desarrollo

Claude 3.5 Sonnet representa el esfuerzo de Anthropic para crear un «agente de IA» capaz de realizar tareas de manera autónoma, un avance hacia modelos más productivos y útiles que van más allá de simples chatbots o asistentes. La startup —respaldada por Amazon— afirma que su IA puede usar computadoras «como lo haría una persona», incluyendo mover el cursor, realizar clics y teclear, lo cual le permite interactuar con cualquier software y aplicación instalada en el escritorio.

Sin embargo, el modelo aún está lejos de ser perfecto. Sus creadores humanos reconocen que, aunque es su tecnología más avanzada, Claude es lento y comete errores con frecuencia. Todavía no puede realizar acciones comunes como arrastrar elementos o hacer zoom.

¿Una IA con demasiado control?

Aunque los errores de Claude mostrados hasta ahora han sido inofensivos, su nivel de autonomía plantea inquietudes sobre su seguridad. ¿Qué sucedería si, en lugar de buscar fotos, el agente de IA decidiera abrir nuestras redes sociales?

En la película 'Her', protagonizada por Joaquin Phoenix y Scarlett Johansson, una IA tiene el control total del sistema operativo y puede realizar tareas en el escritorio y en otros dispositivos sin intervención directa.

Anthropic asegura estar tomando medidas para evitar riesgos, como el uso indebido por parte de terceros. Esto incluye la implementación de clasificadores que detectan actividades sensibles, como publicar en redes sociales o acceder a sitios gubernamentales.

Con más personas probando el nuevo Claude, seguramente veremos más ejemplos de sus «peculiares» interacciones en el escritorio.

Fuente: Ft/Yahoo News. Edición: MP.

Sin comentarios
Etiquetas: , , , , ,

¿Te gustó lo que acabas de leer? ¡Compártelo!

Facebook Reddit Twitter WhatsApp Pinterest Email

Artículos Relacionados

 0 comentarios
Sin comentarios aún. ¡Sé el primero en dejar uno!
Dejar un comentario