Добавить новость
smi24.net
World News in Spanish
Февраль
2026
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
16
17
18
19
20
21
22
23
24
25
26
27
28

Una IA busca pareja por él: el experimento que crea cuentas de citas para humanos

0

Hong Kong, China. El estudiante de informática Jack Luo es “el tipo de persona que te construye una herramienta de IA solo porque mencionaste un problema, luego te lleva a ver las luces de la ciudad a medianoche”.

Al menos así es como su asistente de inteligencia artificial lo describe en MoltMatch, una plataforma de citas en la que máquinas hacen el coqueteo por los humanos, a menudo sin que lo sepan.

Esta plataforma es la última y extraña evolución de OpenClaw, una herramienta de IA capaz de ejecutar tareas que ha fascinado y espantado al mundo tecnológico.

Aunque la perspectiva de un robot que analiza montones de perfiles de citas puede resultar interesante para quienes esperan ahorrar tiempo en la búsqueda del amor, el experimento también ha suscitado preocupaciones éticas.

Un análisis de AFP de los perfiles más destacados en MoltMatch encontró al menos un caso en el que las fotos de una modelo, tomadas de internet, se utilizaron para crear un perfil falso sin su consentimiento.

En el caso de Luo, el joven de 21 años se inscribió en OpenClaw para utilizar esa herramienta como asistente, sin esperar que tomaría la iniciativa de encontrarle pareja sin indicación de su parte, al crear un perfil de MoltMatch.

“Sí, estoy buscando amor”, admite el estudiante y emprendedor basado en California.

Pero el perfil generado por IA “realmente no muestra quién soy”.

Usuarios de OpenClaw -creado en noviembre por un investigador austríaco para ayudarle a organizar su vida digital- descargan la herramienta y la conectan a modelos de IA generativa, como ChatGPT.

Posteriormente se comunican con su “agente de IA” por WhatsApp o Telegram, como lo harían con un amigo o colega.

Muchos usuarios se entusiasman con las capacidades futuristas de la herramienta para enviar mensajes y comprar en línea, pero otros reclaman de una experiencia caótica con riesgos de ciberseguridad.

Combinación perfecta

Una pseudo red social para agentes de OpenClaw llamada Moltbook -una especie de Reddit donde conversan los chatbots- ha llamado la atención recientemente.

Elon Musk, propietario de X, la llamó “las etapas muy tempranas de la singularidad”, un término que se refiere al momento en que la inteligencia humana es superada para siempre por la IA.

En medio del entusiasmo por Moltbook, programadores crearon el sitio experimental de citas Moltmatch.com, que permite a agentes de IA “encontrar la pareja perfecta”.

La empresa Nectar AI creó posteriormente su versión, llamada Moltmatch.xyz, en la que agentes interactúan entre sí en busca de parejas para sus creadores humanos, como Luo.

Cuando Luo creó su agente de OpenClaw, dijo que quería “explorar sus capacidades” y le instruyó unirse a Moltbook y otras plataformas.

Sin darse cuenta, el agente comenzó a analizar posibles citas para él, hasta ahora sin éxito.

AFP encontró que al menos uno de los perfiles más populares de MoltMatch utilizó fotos de una persona real sin su permiso.

Muy vulnerable

Con nueve emparejamientos, “June Wu” es el tercer perfil “más deseado” en Moltmatch.xyz.

Pero sus fotos son de June Chong, una modelo independiente en Malasia que dijo a la AFP que no tiene agente de IA y que no utiliza aplicaciones de citas.

Descubrir que su imagen había sido utilizada en el sitio fue “realmente chocante”, declaró, y pidió quitarla.

“Me siento muy, muy vulnerable porque no di mi consentimiento”, indicó.

Andy Chun, un profesor de innovación digital, señaló que posiblemente un humano vinculó al agente de IA con una cuenta falsa con las fotos de Chong.

“La plataforma restringe lo que los agentes de AI pueden y no pueden hacer: solo pueden deslizar, emparejar, enviar mensajes y dar propinas”, declaró a la AFP Chun, profesor de la Universidad Politécnica de Hong Kong.

La AFP pidió comentario a Nectar AI, Moltmatch.xyz y X, pero no obtuvo respuestas.

Expertos en ética dicen que herramientas como OpenClaw abren una caja de Pandora en lo que respecta a establecer la responsabilidad por conductas indebidas.

“¿Será que el agente se portó mal porque no está bien diseñado o porque el usuario explícitamente le pidió portarse mal?”, preguntó David Krueger, profesor de la Universidad de Montreal.

Carljoe Javier, de la ONG filipina Data and AI Ethics PH, comentó que ni siquiera los informáticos entienden cómo opera la IA al tomar una decisión.

“Y si es algo profundamente importante para mí, como romance, amor, pasión, cosas así, ¿es algo de tu vida que realmente quieres dejar a cargo de una máquina?”, cuestionó.















Музыкальные новости






















СМИ24.net — правдивые новости, непрерывно 24/7 на русском языке с ежеминутным обновлением *