Bumble: app de citas utiliza la IA para evitar estafas, perfiles falsos y spam

687
  • Bumble viene utilizando: Deception Detector™, una herramienta basada en IA para resolver estos problemas

Lima, 14 de febrero de 2024.- Un estudio realizado por Bumble Inc. mostró que, a nivel mundial, los encuestados mencionaron a los perfiles falsos y el riesgo de estafas, como sus principales preocupaciones a la hora de tener citas online*. Y casi la mitad de las mujeres encuestadas (46%) expresaron ansiedad por la autenticidad de sus matches en las aplicaciones de citas.** Esta preocupación puede llevar a las personas a perderse conexiones significativas que podrían tener un impacto positivo en sus vidas.

Es por ello, que la aplicación presentó su más reciente función, Deception Detector™, que surge como consecuencia de su prioridad, desde hace una década, de crear conexiones amables, seguras y auténticas. Deception Detector™ utiliza Inteligencia Artificial (IA) para ayudar a identificar spam, estafas y perfiles falsos, con el objetivo de tomar medidas incluso antes de que los miembros los vean. En los dos primeros meses de la introducción de esta tecnología, Bumble vio cómo las denuncias de spam, estafas y cuentas falsas se reducían en un 45%.

Deception Detector™ presenta un modelo basado en machine learning, rápido y fiable, para evaluar la autenticidad de los perfiles y las conexiones en Bumble. De esas cuentas identificadas como spam/estafa, las pruebas de Bumble Inc. mostraron que Deception Detector™ apoyó en bloquear el 95% de estas cuentas automáticamente. Esta tecnología automatizada y basada en IA se utiliza junto con soporte humano dedicado a priorizar una comunidad segura y empoderada.

Lidiane Jones, CEO de Bumble Inc, afirma: «En los últimos años, el panorama online ha evolucionado significativamente y vemos una creciente preocupación por la autenticidad. Bumble Inc. se fundó con el objetivo de construir relaciones equitativas y empoderar a las mujeres para dar el primer paso, y Deception Detector™ es nuestra última innovación como parte del compromiso continuo con nuestra comunidad para ayudar a garantizar que las conexiones realizadas en nuestras apps sean genuinas.»

«Con un enfoque en la experiencia en línea de las mujeres, reconocemos que en la era de la IA, la confianza es más importante que nunca. Estamos siendo muy cuidadosos sobre la mejor manera de utilizar los nuevos modelos para reducir la ansiedad de hacer conexiones y apoyar a nuestra comunidad, con la IA como principal área de foco.»

Este lanzamiento es la más reciente de las innovaciones de IA de Bumble en todos sus productos, y se suma al extenso historial de la empresa en la lucha contra la misoginia, el acoso y la toxicidad en línea. Anteriormente, la compañía introdujo otras capacidades de detección como Private Detector, una función pionera en el sector que utiliza IA para detectar y difuminar imágenes de desnudos lascivos, y fue una de las primeras aplicaciones de citas en utilizar IA para la verificación de fotos. Recientemente, Bumble introdujo Best Bees, un algoritmo de IA que proporciona un mayor nivel de curaduría para los miembros, mientras que Bumble For Friends cuenta con iniciadores de conversación impulsados por IA para proporcionar a los miembros un mensaje personalizado y significativo cuando se ponen en contacto con una nueva conexión.

Bumble también ha introducido recientemente políticas para abordar el bodyshaming, el cyberflashing y, más recientemente, ha actualizado las Directrices de la Comunidad para prohibir cualquier intento de influir artificialmente en las conexiones, matches, conversaciones o interacción mediante el uso de automatización o secuencias de comandos.

Bumble también fue miembro fundador y la primera aplicación de citas en unir fuerzas con la Partnership on AI, reforzando el enfoque de la empresa en la tecnología responsable. Deception Detector™ se ha desplegado en Bumble, Badoo y Bumble For Friends.


SUSCRÍBETE a InfoMarketing y entérate de las últimas noticias sobre marketing y publicidad. Conoce más en el siguiente link: https://bit.ly/2LJxxjh 

Comentarios