Cuando la partición y el odio crecen en línea, YouTube cambió silenciosamente cómo moderó el contenido

YouTube, la plataforma de video más grande del mundo, parece haber cambiado sus políticas de moderación para permitir que más contenido esté en línea que viole sus propias reglas.
Este cambio fue tranquilo en diciembre The New York Times.
YouTube, que ve cargar 20 millones de videos por día, está actualizando regularmente su guía, y es una «práctica a largo plazo que aplica excepciones al interés público o cuando se adapta al interés público o presenta cualquier cosa en el contexto científico o artístico».
«Estas excepciones se aplican a algunos de los videos en YouTube, pero son muy importantes para garantizar que haya contenido importante disponible», dijo la portavoz de YouTube, Nicole Bell, en un comunicado a CBC News esta semana.
Cuando las plataformas de redes sociales estaban cubiertas con información falsa y teorías de conspiración, había preocupaciones de que YouTube solo abriría las puertas para difundir el problema con el contenido más problemático o dañino, y ganar.
YouTube no está solo. Meta, que tiene Facebook e Instagram, marcó su moderación de contenido a principios de este año, y Elon Musk compró la plataforma en 2022 y eliminó a los moderadores de Twitter cuando se renombraron.
«Ahora estamos viendo una carrera hacia el fondo», dijo el CEO Imran Ahmed a CBC News que se ocupe del Centro de Odio Digital con sede en Estados Unidos. «Todo lo que vamos a ver es un aumento en la economía en torno al odio y la información incorrecta».
De hecho, la crianza de los padres de Facebook e Instagram de los padres de los padres se deshace de los cheques, y en lugar de comentar sobre precisión, pero los expertos advierten que esta acción aumentará la propagación de información falsa.
Propósito público versus daño público
En su declaración, Brooks explica que el objetivo de YouTube es «proteger la libre expresión», relajando las pautas de su comunidad como «refleja nuevos tipos de contenido en la plataforma».
Por ejemplo, un podcast de forma larga, que tiene un pequeño clip de violencia, ya no es necesario eliminar.
El T.imes Los ejemplos presentados al personal de YouTube han sido utilizados por las citas del gabinete del presidente de EE. UU. Donald Trump de que alguien usó una palabra humillante para personas transgénero durante el juicio, y otro fue un video que compartió información falsa sobre las vacunas Kovid -19, pero no dijo que el público no lo vacunó por el público.
«YouTube, como YouTube, debería tomar algunas» decisiones realmente difíciles «cuando se moderó contenido, dijo el director ejecutivo de medios abiertos de los derechos de los derechos digitales canadienses, Matt Hotfield.
Sexto día9:42¿Cuál es la información falsa correcta en la influencia externa del mundo de Canadá en el mundo?
Él cree que las plataformas se consideran seriamente este problema, pero para eliminar contenido dañino o ilegal, como un impulso obvio para el abuso o la violencia de los niños y para eliminar el contenido en línea, aunque no es profesional o tiene información falsa.
El problema es que los creadores de plataformas de redes sociales están «creando entornos atmosféricos que promueven un mal comportamiento», prefieren caminar la línea de los aceptables.
«El modelo principal de estas plataformas es hacer clic en usted, verlo. Probar un video de una persona que nunca antes lo ha experimentado».
Y lo mismo para Ahmed.
Dijo que estas compañías darían ganancias sobre la seguridad en línea y no enfrentarán consecuencias, porque no hay disposiciones para limitar lo que pueden publicar en sus plataformas.
Él cree que los procedimientos relajados de YouTube solo alientan a más personas a explotar.
¿Qué tan bien está siendo moderado YouTube?
En Informe de transparencia recienteYouTube ha eliminado casi 2.9 millones de canales que tienen más de 47 millones de videos para las pautas de la comunidad en el primer trimestre, llegó después del cambio de política.
La mayoría de ellos, el 81.8 por ciento se consideran spam, pero otras razones incluyen violencia, odio o seguridad abusiva y de seguridad infantil.
Quemador delantero38:12Internet ahora está chupando y ha sido deliberadamente
Hotfield dice el interés público en eliminar un contenido tan dañino, pero eso no significa que todo contenido controvertido u ofensivo deba ir.
Sin embargo, dijo que el contenido de YouTube comete errores con moderación, lo que explica que juzgará videos personales en un «vacío» sin considerar cómo cada contenido es suficiente en un caso amplio.
«Realmente no podemos entender algún contenido».
Los términos no son la solución correcta
Ahmed dijo que las empresas deberían ser responsables del contenido en sus plataformas a través del control del gobierno.
Él es la disputa de Canadá El daño en línea es la leyTambién conocido como Proyecto de Ley C -63. Ha propuesto cambios a enormes oraciones, nuevas regulaciones y muchas leyes para abordar el abuso en línea. El proyecto de ley murió después de que el ex primer ministro Justin Trudeau anunció su renuncia y devolvió el parlamento en enero. Ahmed dijo que esperaba que el nuevo gobierno creara tal ley bajo el primer ministro Mark Carney.
Dijo que a Hotfield les había gustado las partes de la ley, pero su equipo finalmente se opuso, lo que no tenía nada que ver con las plataformas después de enfrentar otros cambios en el Código Penal y la Ley de Derechos Humanos.
Grupos como los medios abiertos prefieren ver la estrategia de resolver modelos comerciales que alientan a los clientes a publicar contenido «legítimo pero terrible» y obtener ganancias.
«No vamos a tener un odio en Internet», dijo. «Podemos tener ciertos tipos de odio y difusión de información falsa puede tener un Internet menos rentable».
El nuevo presidente de investigación del libro de Canadá, Timothy Kaulfield, la enfermedad seguramente: no sabes lo que no sabes y por qué las personas pueden volverse más sabias y críticas de las noticias. Dijo que aprender y cambiar la capacidad y las opiniones para comprender de dónde proviene la información.