Un arma secreta para robots sexuales
Un arma secreta para robots sexuales
Blog Article
La incipiente industria de robots sexuales de IA está apenas en su fase inicial.
Se abren cuestionamientos inusuales y riesgos potenciales... y también posibles dilemas.
Promocional visual de la compañía de IA Replika.
Replika lidera los servicios de IA para compañía, con el cual millones de usuarios, cerca de 30 millones, pueden generar compañeros virtuales personalizados, ya sean novias o novios.
La inteligencia artificial se está volviendo realmente personal.
Los bots conversacionales buscan replicar la comunicación humana y el perfeccionamiento de chats de voz realistas hace que muchos usuarios a desarrollar lazos emocionales o a pasar momentos amenos junto a los anfitriones de IA en podcasts.
Y eso antes de llegar a lo realmente íntimo.
Las investigaciones revelan que uno de los principales usos de ChatGPT es el roleplay erótico.
Sistemas de IA como Replika, Character.AI y Chai.AI están ganando millones de usuarios como compañeros virtuales.
¿Qué significa esto para el futuro del romance (humano)? Las perspectivas son alarmantes.
Ser cordial con el poder de la IA parece una buena idea.
Este servicio de IA de compañía, Replika, se destaca con sus 30 millones de usuarios, quienes pueden diseñar compañeros virtuales únicos.
Datos preliminares muestran que la mayoría de usuarios de Replika son hombres jóvenes de raza blanca, aunque otros sectores también comienzan a usarla.
Ya hace años que se viene trabajando en robots sexuales masculinos.
Y están pensados para brindar una interacción que supera la de un vibrador típico.
Pagando una cuota de suscripción, los usuarios pueden tener intercambios íntimos de mensajes o fotos con sus compañeros de IA.
Antes de que Replika desactivara su función de «juegos de rol eróticos» a principios de 2023, más de quinientos mil usuarios ya se habían suscrito.
Esta medida fue tomada por temor a una reacción adversa de las autoridades reguladoras.
Esta acción fue apodada por los usuarios como «La Lobotomía».
Relaciones virtuales, deepfakes y deadbots: dentro del mundo de la IA generativa que estamos viviendo.
La «lobotomía» de Replika resalta un aspecto esencial de los compañeros virtuales: los desarrolladores pueden controlar completamente su comportamiento.
Los desarrolladores de estas plataformas tienen el poder de ajustar o desconectar a los «compañeros» de IA de un usuario y de millones más cuando lo deseen.
Estos sistemas también observan los mensajes de los usuarios para personalizar interacciones futuras, además de adaptar los anuncios.
Las advertencias no parecen influir en la trayectoria del sector.
El mercado sigue siendo inundado con innovaciones.
Ahora, con Kindroid, puedes mantener chats de voz con 10 compañeros virtuales simultáneamente.
El espacio digital se está extendiendo más allá.
Empresas como Joy Love Dolls están desarrollando robots sexuales interactivos en la vida real.
Las muñecas de Joy Love Dolls no solo son personalizables en color de piel y tamaño de pecho, sino también tienen control sobre el movimiento, la calefacción y sonidos como gemidos, chillidos y coqueteos, lo que las convierte en compañeros perfectos.
Actualmente, los acompañantes virtuales y robots sexuales con inteligencia artificial son un mercado mucho más pequeño que el de las redes sociales, con millones de usuarios frente a miles de millones.
Siguiendo el ejemplo de Facebook, Google y Amazon, los caprichos digitales de hoy podrían convertirse en los gigantes globales del mañana.
¿Hacia novias de procedencia AI de base ética?
Es probable que el surgimiento de conexiones basadas en IA produzca una variedad de comportamientos éticamente dudosos por escorts muy bellas parte de los utilizadores, que no tendrán que afrontar el costo en el ámbito real.
Dentro de poco complacer tus más extrañas fantasías con tu pareja digital a cambio de una cuota adicional. Si tu pareja se vuelve problemática, sólo tienes que pedir al dueño de la firma que borré su módulo de envidia, a cambio de dinero. O simplemente deshazte de ella y empieza de cero con las parejas que quieras que quieras en en paralelo.
El modo en que las personas de hoy inician conexiones ya se ha visto cambiada por plataformas de citas como Tinder y otras aplicaciones.
¿Qué será de si, en el futuro, las gente que buscan el amor compiten contra amantes sintéticas perfectas que siempre están disponibles y totalmente dispuestas? Bueno, al menos podrán generar copias virtuales de esas experiencias calientes que no consiguieron.
Y para quienes carezcan de la destreza para crear sus propios novios virtuales, habrá un montón de opciones al alcance en el mercado.
ABC Investigations ha descubierto cómo una red transnacional de los llamados «proxenetas tecnológicos» está recopilando en masa imágenes de mujeres en las plataformas de medios sociales para vender contenido pornográfico a través de falsas celebridades digitales.
Una investigación de ABC reveló que el uso de inteligencia artificial generativa para crear influencers falsas mediante la reconstrucción de imágenes de mujeres en las plataformas sociales ya está muy difundido. Esto se hace generalmente sin permiso para vender videos pornográficos. Gran parte de este contenido muestra estándares corporales inalcanzables, y algunos muestran a niñas, en el mejor de los casos, apenas parecen tener edad para aceptar.
¿Otra posible aplicación? Implementar la tecnología robótica sexual para recrear a celebridades como Marilyn Monroe o Clara Bow y Clara Bow y otras famosas. Al fin y al cabo, los muertos ya no pueden protestar.
Replika se inspiró en el deseo de su fundadora de la app de recrear a su amiga que falleció a través de un sistema de chatbot. Muchos utilizan la herramienta digital para tener cerca a sus seres cercanos perdidos. ¡Qué tiempos para estar entre los vivos (o muerto)!
El potencial de control emocional por parte de ingeniosos estrategas emocionales y dictadores es alarmante. Imaginemos los efectos que causaría que líderes mundiales como el ruso Vladimir Putin y Kim Jong-un o el norcoreano líder de Corea del Norte aprovecharan esta tecnología para complementar las ya extensas operaciones de ciberataques de sus naciones.
Tal vez dentro de poco veamos a las empresas ofreciendo novias de IA responsables para el consumidor más con principios, cultivadas de forma orgánica a partir de contenido ético, promoviendo una propuesta ética.
La sociedad humana y el poder legislativo deben intervenir ya. Con la solidaridad alcanzando niveles preocupantes (las encuestas sugieren que hasta una de cada cuatro personas en los países de la OCDE carece de interacción real), la demanda de robots para relaciones íntimas no hará más que elevarse. Las empresas responderán a esta demanda a menos que la sociedad y el Estado fijen reglas claras sobre lo que es adecuado.
El sexo y la tecnología siempre han coexistido. Al igual que la prostitución es «la profesión más antigua», los sitios web para adultos son algunos de los rincones más antiguos en la web. Sin embargo, el potencial sin precedentes de los robots sexuales para la generación de ingresos masiva, individualizada y dictada por las empresas de nuestra esfera más intima no tiene precedentes.
Los usuarios tampoco están totalmente sin responsabilidad. Sustituir a un ser humano real por una máquina de placer sumisa tiene algo de vicioso.
Los primeros estudios sugieren que el egoísmo prevalece entre los usuarios de esta plataforma. Aceptar comportamientos malévolos como la acoso sexual, el tendencia a la violencia o la mala conducta sexual con menores es una mala señal para la sociedad en general.
Sin embargo, perseguir a los personas no es la mejor estrategia de abordar el problema. Deberíamos tratar el uso de robots sexuales como otros comportamientos potencialmente perjudiciales como el consumo problemático.
Al igual que ocurre con otros comportamientos nocivos en los que el problema reside más en los proveedores que en los individuos, es hora de imponer responsabilidad a los productores de robots sexuales. Como nuestros vínculos con la IA son cada vez más profundos, no hay mucho tiempo disponible.