Sistemas de moderación y corrupción

 

Nota: Por los metadatos del archivo, parece que escribí esto a mediados de 2012, pero a falta de una oportunidad para revisarlo y publicarlo, se ha quedado olvidado en una carpeta del Servicio-Anteriormente-Conocido-Como-SkyDrive, hasta ahora, cuando un experimento de Dan Ariely comentado por Jmalarcon me lo ha recordado. Ahí va.

 

Sé que no he descubierto nada nuevo a nivel social. Y estoy seguro de que en algún lugar alguien estudia al ser humano usando sistemas de moderación digitales, ya sea en una tesis doctoral o en un grupo de trabajo de Facebook. Eso no impide que me siga pareciendo interesante comentar algunas de mis reflexiones sobre este tipo de sistemas, los cuales me atraen desde mis tiempos en Slashdot, Barrapunto y Kuro5hin.

 

¿Qué es un sistema de moderación?

Para quien no lo sepa, un sistema de moderación en el ámbito de internet es, en al menos una de sus formas, un algoritmo que permite que una comunidad de personas (foros, redes sociales, blogs) generen contenido de calidad, se animen a participar y puedan mantener el sistema razonablemente limpio de ruido (los buenos contenidos destacan y los malos se ocultan). Un algoritmo típico establece qué usuarios pueden moderar y que usuarios pueden comentar. También establece qué información es relevante y cual no. Y todo esto lo hace a base del propio input de los usuarios. Cuanto más se involucre la gente generando contenido y alimentando el input del algoritmo, y cuanto mejor pensado y ajustado esté el algoritmo a sus usuarios, mejor funcionará.

 

Das Experiment

Una de las facetas de los sistemas de moderación de comunidades online y que más interesante me resulta es que son pruebas, experimentos de que dado un sistema cualquiera de reglas para la organización de una sociedad o grupo de individuos, siempre hay algún HdP (hijo de puta) dispuesto a pervertirlo, viciarlo y retorcerlo en beneficio de unos más que cuestionables y definitivamente egoístas motivos. La única excepción clara a esta regla que he visto en los sistemas de moderación es el caso de Meneame, donde el sistema no ha sido pervertido por los usuarios sino que es su propio diseño el que lo hace inherentemente corrupto consiguiendo que salgan beneficiadas las actitudes más sectarias y demagógicas y reprimiendo de forma rápida y eficaz cualquier intento de salirse del “rebaño”.

 

Es fácil (y parece bastante seguro) extrapolar las experiencias de estos sistemas al funcionamiento del mundo real y pensar que para cada sociedad siempre hay un porcentaje de la población que va a usar, esquivar y retorcer las leyes y reglas de forma creativa para imponer sus propios objetivos sobre los del grupo a pesar de conocer la ética, el espíritu del sistema. Ejemplos reales de esto los tenemos por doquier y no creo que haga falta señalar ninguno en concreto, ni a nivel político, ni a nivel de comunidad de vecinos o personal.

 

Corrupción, corrupción everywhere

La parte más interesante llega cuando llegamos a la conclusión de que determinados sistemas son inherentemente corruptos y, a pesar de lo mucho que les interese mantenerlos a ciertos grupos (esencialmente los que pueden hacer trampas), deberían ser reformados profundamente y a toda costa. A este tipo de sistemas que el psicólogo Zimbardo denomina sistemas malvados, se los suele relacionar con los incentivos
perversos, y a las acciones encaminadas a corregirlos se las denomina “acciones impopulares” o “antisistema” (también “terroristas” en el peor caso) al dañar los intereses de los grupos que vician el sistema, grupos normalmente organizados de manera un tanto mafiosa y de los que estoy seguro de que todos conocemos alguno, como puede ser el sistema político español con sus listas cerradas y redes familiares, opacidad, dietas y pensiones vitalicias, o el caso de los pilotos de Iberia que cada año usan a los pasajeros y su tiempo como medida de presión contra su compañía; o también las mundialmente famosas entidades de “derechos de autor” como la RIAA americana o la SGAE española, que se dedican a “salvar la música” a base de espiar, mentir y encarcelar a la misma sociedad que les otorga esos privilegios llamados “propiedad intelectual”.

 

Por toda esta corrupción sistémica y por los individuos corruptos que son capaces de dinamitar un sistema en pos de sus propios intereses, suelo desconfiar de cualquiera que se escuda en la ley para validar o reprobar una acción con un “no he hecho nada ilegal”, o “las normas dicen…” y procuro intentar ver más allá, a un nivel ético, si tales afirmaciones tienen fundamento. Porque la ley y la ética son cosas distintas (sobre todo en un sistema corrompido), aunque a menudo, desde el escenario político, se nos intente vender que son lo equivalentes.

 

Lecciones aprendidas

Así que en resumen, opino que los sistemas de moderación son una forma sencilla de realizar experimentos sociales, de comprobar que no hay sistemas perfectos (¡ay comunistas, socialistas, capitalistas y demás -istas!…), y de confirmar que hay variables tremendamente importantes como el número de usuarios (la escala), que lo cambian todo radicalmente, por lo que un sistema que sobre el papel y en mi casa funciona, probablemente dejará de hacerlo si se lleva a escala nacional por ejemplo.

 

Por último, una lista para acabar. Cosas a tener siempre en cuenta cuando se desarrolla un sistema social, uno que usarán seres humanos, llámese Menéame o Facebook:

  1. Siempre hay algún corruptor del sistema (aka “cabrón”), y no es necesario mucho más para poner un sistema entero en aprietos… si no se ha pensado en ello.
  2. La estabilidad de un sistema necesita de monitorización y ajustes constantes; y frecuentemente, grandes cambios.
  3. El sistema necesita de la colaboración de todos. Si la participación es baja, el sistema simplemente no funcionará. Es importante que un buen sistema tenga en mente al menos no desanimar a los usuarios a usarlo. La abstención y la pasividad deberían ser una alarma de que algo va muy mal.
  4. Suele ser más importante que el sistema permita subsanar errores, a que impida que se produzcan errores. Es decir, es mejor que algún cabrón se salga con la suya de vez en cuando o castigar a algún inocente de vez en cuando, que fastidiar a todos los usuarios para evitar que la incidencia de cabrones sea 0. Pero siempre debe existir la posibilidad de arreglar un error con cada usuario.
  5. La gente siempre es gente, y por lo tanto siempre es más fácil cambiar el sistema que cambiar a la gente. Intentar lo contrario o echar la culpa a las personas por efectos indeseados en el sistema es ignorar la realidad.
  6. No hay sistemas perfectos, pero los mejores tienen muy claro lo que quieren conseguir, son bastante simples y son abiertos. Las opacidades solo benefician a quien pretende aprovecharse del sistema, es decir a los “cabrones” del punto 1.
Anuncios

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s