¿Podemos involucrar a la sociedad en una cultura de Internet autosostenible?





Con el desarrollo de las redes sociales y otras plataformas en línea, las personas tienen una oportunidad sin precedentes de organizar eventos públicos. Pero a menudo esta capacidad de publicar y difundir información no se utiliza para bien. Aquí y la propagación de la violencia, terrorismo, falsedad, popularización de drogas ilegales, spam, insultos y mucho más, que provoca una resonancia en la sociedad. Y en tales casos, la capacidad de las plataformas en línea para difundir información comienza a funcionar en detrimento de las personas.



Al mismo tiempo, las plataformas en línea tienen bastantes dificultades para identificar información que no nos gustaría ver, ya que el volumen de contenido distribuido en Internet es enorme, está en constante crecimiento y la tarea de moderación de contenido no es en absoluto trivial. Por lo tanto, a pesar del éxito de los métodos automatizados, la cantidad de moderadores contratados por las plataformas en línea para ver contenido manualmente también está creciendo constantemente, al igual que la ola de críticas públicas al proceso de moderación.







Y sobre todo, las disputas sobre quién y en qué medida debería ser responsable del contenido son cada vez más frecuentes en la sociedad.





A fines de mayo de 2020, el presidente Donald Trump firmó una orden ejecutiva en las plataformas de redes sociales pidiéndoles que se responsabilicen por el contenido publicado en sus sitios y ordenando a la FTC y al fiscal general que comiencen a investigar a las empresas. La razón fue la publicación en Twitter de una etiqueta de advertencia de verificación de hechos en algunos de los tweets del presidente, que el presidente percibió como censura, aplicada de manera selectiva y no transparente.



Pero, ¿qué queremos de las empresas de Internet? ¿Para que sean una especie de censor global de todo y de todos en sus plataformas, incluso al costoso costo de la moderación manual? ¿O no entraron en nuestra comunicación, en nombre de la libertad de expresión? ¿Dónde está la línea? ¿Quién establece las reglas del juego? ¿Es posible un compromiso en la moderación del campo de la información para todas las partes involucradas: empresas de Internet, usuarios, autoridades reguladoras? ¿Será que mantener una cultura de Internet es un problema complejo que no solo es un problema para las empresas de Internet, sino que también requiere la participación de la propia sociedad en este proceso y le obliga a asumir al menos parte de la responsabilidad de los contenidos que publica?



Tales preguntas surgen cada vez más a menudo ...









?





Actualmente, las empresas están tratando de atraer a los usuarios a la moderación mediante el botón "quejarse", cuya implementación tiene varios enfoques básicos.



Por lo tanto, al presionar este botón, el contenido seleccionado por el usuario puede enviarse para su revisión a un moderador previamente designado. La ventaja de este enfoque es la facilidad con la que los usuarios finales pueden indicar la infracción. La desventaja de este enfoque es la falta de confianza en la evaluación de un usuario individual y, como consecuencia, la necesidad de confirmar la violación por parte de un moderador, que a menudo no tiene tiempo para responder debido al constante crecimiento del volumen de contenido. Y en este caso, la última palabra y, por tanto, la responsabilidad por el rechazo de información inapropiada recae enteramente en las empresas de Internet.



La moderación colectiva es otro enfoque importante. Hay muchas variaciones de este enfoque, pero en general este enfoque se puede describir de la siguiente manera. Cuando un cierto número de usuarios hace clic en el botón "quejarse" sobre el mismo contenido, las empresas pueden considerar que hubo una infracción e iniciar un procedimiento automático para eliminar el contenido inapropiado o marcarlo de cualquier forma, advirtiendo así a sus usuarios. La ventaja de este enfoque es que los usuarios pueden influir de forma completamente independiente en la cultura de la información. Asumiendo así la responsabilidad del grupo por rechazar información inapropiada. La desventaja es que dicha tecnología todavía no confía en la evaluación de un usuario individual y, como resultado, implica algunosun número suficiente de usuarios votantes, que simplemente no pueden ser reclutados para organizar la votación sobre contenido específico.



En consecuencia, la participación de la sociedad en el proceso de regulación de la cultura de la red en la práctica es un procedimiento indirecto o engorroso, de difícil aplicación a gran escala. Y esto a pesar de que los usuarios están interesados ​​en mantener una cultura de Internet adecuada y, como muestra la práctica de usar el botón “quejarse”, ¡están listos para participar en ella en caso de violaciones! Sin embargo, sus votos se perciben de forma muy condicional, y esto se debe a que no se confía en la valoración que hace un usuario normal en Internet. No, por defecto.







Pero, ¿podemos aprender a confiar en el juicio de un usuario individual?





Parecería que es imposible simplemente tomar Internet y confiar en la evaluación de un usuario común. Pero se pueden crear condiciones bajo las cuales se pueda confiar en esta evaluación. Y ya tenemos una experiencia tan exitosa. Este método es utilizado por el conocido y aburrido reCaptcha. Más precisamente, una de sus primeras versiones, en la que se pedía al usuario que escribiera unas palabras de autorización en el sitio. Una de estas palabras era validación y era conocida por el sistema, y ​​la otra era desconocida para el sistema y necesitaba ser reconocida. Los propios usuarios no sabían qué palabra se conocía y cuál no, y para iniciar sesión más rápido, tenían que intentar responder honestamente y no adivinar.



Como resultado, los usuarios que respondieron honestamente e ingresaron la palabra de prueba correctamente se consideraron objetivos, y reCaptcha los saltó más y también aceptaron una palabra previamente desconocida como el resultado correcto. Y resultó ser efectivo. Con este método simple, los usuarios de reCaptcha en los primeros seis meses de trabajo reconocieron con éxito alrededor de 150 millones de palabras no reconocidas que no podían ser reconocidas por métodos automáticos.





¿Qué pasa si aplica este enfoque en el área de la moderación?





De manera similar a reCaptcha, puede darle a un usuario individual la capacidad de realizar una prueba de moderación, es decir, una prueba para evaluar el cumplimiento de una serie de publicaciones con ciertas reglas predefinidas. Al mismo tiempo, entre las publicaciones habrá una publicación cuya valoración desconocemos, y el resto de publicaciones serán publicaciones de verificación con estimaciones previamente conocidas. Además, si el usuario ha pasado con éxito la prueba, es decir, Fue honesto al evaluar las publicaciones de verificación conocidas por el sistema, luego aceptamos su valoración de una publicación desconocida, es decir, confiamos en la opinión de este usuario. Además, para recibir una valoración de una publicación desconocida para nosotros, no necesitaremos organizar una votación colectiva. Un usuario será suficiente.



Al combinar esta prueba con el botón "quejarse", podemos crear un entorno que permita a los usuarios moderar completamente la información ellos mismos. Para organizar esto, después de hacer clic en el botón "quejarse", primero se le pedirá al usuario que realice una prueba. Luego, si pasa la prueba, la publicación que quiere denunciar y que cree que viola alguna regla predefinida se enviará a revisión.



En el proceso de superación de la prueba, el usuario será un moderador involuntario e imparcial de una determinada publicación, cuya calificación aún no se conoce, entre otras publicaciones. Y la publicación sobre la que el usuario se quejó se enviará a los suyos a otro usuario que también utilice el botón "quejarse", que funciona de manera similar. ... Y este usuario, a su vez, será un moderador involuntario e imparcial de esta publicación.







¿Qué puede dar este enfoque?



  • Este enfoque simplificará el proceso de moderación, lo convertirá en un procedimiento masivo, en el que cada usuario tiene la oportunidad de identificar información que viola las reglas.

  • : , — , , .
  • : , -, . , , .




El uso de este enfoque se ve principalmente al moderar discusiones en línea (comentarios). Entonces, con su ayuda, es fácil organizar a los usuarios de diferentes sitios en una especie de comunidad de moderadores. Una comunidad donde sea apropiado, los usuarios culturalmente respetuosos tienen prioridad sobre los infractores y usa reglas simples. Aquí se ofrece un pequeño ejemplo de una posible implementación de tal enfoque y reglas comunitarias .



Este enfoque se puede utilizar en otros lugares del campo de la información. Por ejemplo, para marcar el contenido del video, para identificar la mala educación, la crueldad, las drogas, etc. Puede ser un marcado de video que ve en YouTube o que se le envía a través de Whatsapp a uno de los grupos de los que es miembro. Luego, si este video lo sorprendió y desea advertir a otras personas, puede usar este enfoque para marcarlo como un video que contiene algún tipo de contenido inapropiado. Eso sí, después de completar la prueba de moderación. Para simplificar la moderación de video, puede optimizar y enviar no todo el video para moderación, sino solo un fragmento de video que contenga contenido inapropiado. Como resultado, con la mayor distribución de este video, se distribuirá con una nota que puede ser útil para otros usuarios.que no quieren ver este tipo de contenido.



El mismo enfoque se puede aplicar a otros tipos de violaciones. Por ejemplo, en el caso de una falsificación, los usuarios pueden agregar una etiqueta de verificación de hechos por su cuenta o agregar un enlace a la información de refutación.



Y en conclusión, cabe señalar que la información infractora revelada por los usuarios que utilizan el enfoque especificado en un lugar u otro del campo de información puede transmitirse a la entrada por métodos automáticos, con el objetivo de automatizar aún más el proceso de identificación de dichas infracciones. Esto permitirá a los usuarios, junto con las empresas de Internet, resolver la difícil tarea de moderar la información publicada y difundida por nosotros.






All Articles