Contenidos inapropiados en Redes sociales

Me permito inaugurar este blog con una entrada sobre Windows Live y los perfiles de usuarios sospechosos de incumplir la política del proveedor, que con alguna frecuencia se pueden encontrar temporalmente activos.

Windows Live es una Red Social, que como muchas otras (Facebook, tuenti, flickr etc…) implica que el usuario genera contenido de forma directa y lo cuelga. No voy a hablar sobre cómo este simple hecho ha cambiado nuestra forma de concebir Internet, pero es indudable que la característica de “User Generated Content”, es decir, Contenido Generado por el Usuario, es una de las características que definen este mundo 2.0.

Con alegría compartimos fotos, comentamos las fotos ajenas, escribimos en perfiles, muros etc, y todo transcurre con más luces que sombras. Pero desafortunadamente, y como cualquier medio masivo, la Red no es diferente al mundo real. Simple y llanamente porque los que están detrás son personas reales, en un mundo real. Y todos los vicios y virtudes del mundo real tienen su representación fidedigna en la Red. Pero este post no va de las luces, sino de las “sombras”. Indeseables, en ocasiones execrables, pero existentes en representación de nuestro heterogéneo universo.

Antes, tan solo adelantar unos números que ilustren de alguna forma lo que significa una red social masiva, porque quizá no todos lo manejemos con conocimiento real:

· Hace un par de meses, durante una conferencia en el Instituto de Empresa, el responsable de privacidad de Google, Peter Fleisher, mencionaba que cada minuto, durante 24 horas al día, se suben 20 horas de video en YouTube. Es un dato brutal y muy ilustrativo de los retos que afronta cualquier proveedor masivo de servicios que impliquen contenido generado por el usuario (imágenes, videos, textos etc).

· Si hablamos de los servicios de Windows Live, nos estamos refiriendo a 260 millones de usuarios en todo el mundo.

· De los cuales, 15 millones están en España

· Se suben al día seis millones de imágenes nuevas en Windows live. Es decir, se suben 70 fotos por segundo durante las 24 horas del día. En el tiempo que este post ha sido redactado, se han subido 252.000 nuevas imágenes a Windows Live.

· El número de comentarios que se realizan sobre imágenes, foros, etc, se cuenta también en elevadas magnitudes de decenas de millón por día.

Todo esto no es una interpretación, no son más que fríos datos pero imprescindibles de compartir para que se entienda perfectamente este post.

¿Podría Google hacer un pre-visionado de esas 20 horas de vídeo por minuto antes de decidir su publicación? Hablamos de 1.720.000 horas de nuevo vídeo al día.

¿Y Microsoft sobre los billones de comentarios que se intercambian en Live al día, más esas 252.000 nuevas imágenes por hora, subidas por cualquiera de los 260 millones de usuarios de Windows Live?

Si habláramos de los datos reportados por Facebook o Flickr, o contenido impropio vía Twitter, estaríamos hablando de magnitudes igualmente astronómicas. No es razonable pedir a ningún proveedor de este tipo de servicios masivos que enfrenten un chequeo previo de estos contenidos. Además de la imposibilidad ante lo inmanejable de las magnitudes, ningún usuario se mostraría muy partidario de la “moderación” previa de cualquier contenido expuesto en una red social, ¿no?

Pero entonces, ¿por dónde pasa la solución? Lo más efectivo -y que resulta manejable y eficaz- es un proceso de respuesta inmediato, ágil y completo ante la evidencia de un contenido inapropiado. Es decir:

· Inmediato: que cuando sea un usuario el que descubre este contenido, conozca inmediatamente la forma de proceder y reportar ese abuso. En la mayoría de los casos es el propio proveedor quien lo advierte (en una proporción 30 a 1 en el caso de Windows Live, es decir, por cada perfil remitido por un usuario, Microsoft ha detectado 30 a investigar), pero en otros muchos, los usuarios lo encuentran antes.

· Ágil: que la respuesta del proveedor ante esa circunstancia no exceda el tiempo razonable de 2 o 3 días para tomar cualquier acción (aviso de cierre, no acción, cierre etc)

· Completo: que la acción no finalice en el simple cierre de un perfil, sino que exista una conexión con las fuerzas de seguridad si se percibe la posible comisión de un delito.

Si el proceso transcurre de esa forma, podremos decir que el proceso funciona de forma óptima. Pero óptimo, no significa perfecto. Siempre tendremos que lidiar con una ventana de tiempo que transcurre entre el momento en que el usuario ha subido el contenido inapropiado, éste es detectado por el propio proveedor u otro usuario, y se reporta al proveedor para que proceda con la acción que corresponda. Por eso es importante que tan pronto se detecte ese contenido, se inicie el proceso de reporte.

 

En el caso de Microsoft, los mecanismos funcionan de la siguiente forma en Windows Live.  Tan pronto como un usuario sube imágenes, éstas son revisadas inmediata y automáticamente por un software que detecta tonos de piel, sangre y contenido "gore". Cuando se excede un determinado nivel, la imagen es reenviada a los agentes de MS para su revisión y entonces sucede lo siguiente:

  1. Se toman decisiones sobre las imágenes en carpetas públicas que incumplan los terminos de uso
  2. Se revisan las imágenes en las carpetas privadas, pero solo se toman acciones (no solo borrar) sobre las identificadas como de pornografía Infantil

 Respecto a la acción de un usuario que detecta esa imagen, el proceso es así:

 

· Inmediato: (UPDATE) Tan pronto como un usuario sube imágenes, éstas son revisadas inmediata y automáticamente por un software que detecta tonos de piel, sangre y contenido "gore". Cuando se excede un determinado nivel, la imagen es reenviada a los agentes de MS para su revisión y entonces sucede lo siguiente:

      1. Se toman decisiones sobre las imágenes en carpetas públicas que incumplan los terminos de uso
      2. Se revisan las imágenes en las carpetas privadas, pero solo se toman acciones (no solo borrar) sobre las identificadas como de pornografía Infantil

 Si es el usuario el que detecta esa imagen, el proceso es así: todas y cada una de las páginas de Windows Live tienen un link llamado “Reportar Abuso” de forma muy visible. Ésta es la forma de proceder más eficaz para iniciar el proceso de examen de ese contenido por parte de Microsoft. Si por cualquier circunstancia se quieren reportar un número de perfiles superiores a 5 o 10, y para facilitar el envío en bloque, se podrán notificar directamente a esta dirección de correo habilitada para tal efecto en Microsoft Ibérica: abusowl@microsoft.com

· Agil: el formulario se puede completar en menos de un minuto, y la respuesta actual (es decir, la toma de una acción concreta al respecto del contenido reportado) está siendo inferior a 48 horas. (UPDATE) En función del tipo de "incumplimiento", se elimina inmediatamente, se da un aviso para modificación de 48 h., o de 120 h.

 

· Completo: cuando el contenido, ya sea por imagen o texto, es susceptible de ser investigado más allá del mero cierre del perfil, se reporta al National Center for Missing and Exploited Children (NCMEC), organismo conectado internacionalmente con Interpol y varias organizaciones (varias con conexiones en España) de forma que la acción no finalice en el simple cierre de un perfil, sino que exista una conexión con las fuerzas de seguridad si se percibe la posible comisión de un delito.

¿Sabéis cuantos perfiles fueron reportados por Microsoft en el año 2009 al NCMEC? 10,000. Es decir, el equipo de Windows Live durante su jornada remite una media de 3,5 perfiles por hora, de los cuales la tercera parte son remitidos posteriormente por el NCMEC a las fuerzas de seguridad (ante la fuerte evidencia de delito o necesidad de investigación). Es conclusión, se remitieron a las fuerzas de seguridad internacionales vía interpol y los mencionados organismos del orden de 3.500 perfiles durante el año 2009.

Siempre existirá una “ventana de tiempo” en el que un contenido inapropiado exista, simple y llanamente porque aún no ha sido detectado ( (ni Microsoft de oficio, ni ningún usuario ha reportado su existencia). Difundir la existencia de un perfil públicamente, sin haber pasado previamente por el proceso de “Reportar Abuso”, no acelera la resolución ni el inicio de las acciones descritas. Iniciar el proceso de “Reportar abuso” es la única forma de asegurar el examen del perfil y su envío a las fuerzas de seguridad cuando proceda.

En Microsoft Iberica nos enorgullece la alta valoración que las fuerzas de seguridad centrales y autonómicas tienen sobre nuestro trabajo y colaboración en la persecución de este tipo de delitos, lo que nos ha supuesto entre otras cosas la reciente (octubre 2009) condecoración de Cruz Policial con Distintivo Blanco otorgada por el Ministerio del Interior, a propuesta de la Policía Nacional. Y es nuestro compromiso seguir colaborando en la persecución y seguimiento de delitos y acciones tan infames.

Héctor Sánchez Montenegro