Los ejecutivos de YouTube ignoraron las advertencias y dejaron que los videos tóxicos se viralizaran

| 2 abril, 2019

La plantilla afirma que las propuestas para cambiar las recomendaciones y frenar las teorías de la conspiración fueron sacrficadas por el “engagement”

MARK BERGEN. BLOOMBERG.- Hace un año, Susan Wojcicki estaba en un escenario para defender a YouTube. Su compañía, martilleada durante meses por incendiar con calumnias la red, se estaba recuperando de otra explosión provocada por un vídeo que difundía la conspiranoia de qeu las víctimas del tiroteo en la escuela de Parklan eran actores contratados.

Wojcicki, la Directora Ejecutiva de YouTube, es reacia a aparecer en público, pero estuvo en Austin en la conferencia South by Southwest para presentar una solución que ayudara a sofocar las teorías de conspiración: un pequeño cuadro de texto ubicado debajo de los vídeos que enlazara a sitios como Wikipedia para mostrar la verdad de hechos contrastados a los visitantes y puso como ejemplo la llegada del hombre a la luna.

Se estima que el mastodente mediático de Wojcicki, empeñado en adelantar a la televisión, gana unos 16 mil millones de dólares al año. Pero ese día, Wojcicki comparó su sitio de videos con un tipo diferente de institución. “Realmente somos más como una biblioteca”, dijo, adoptando una posición de protectora de la libertad de expresión. “Si nos fijamos en las bibliotecas siempre ha habido polémicas”.

Desde que Wojcicki subió al escenario, puso sobre sobre la mesa las teorías de la conspiración presentes en la plataforma – incluida una sobre vacunación infantil; y otra que vincula a Hillary Clinton con un culto satánico – que han provocado la ira de los legisladores ansiosos por regular las compañías de tecnología. Y YouTube, un año después, está aún más ligado con las partes más oscuras de la web.

El problema no es solo que los videos que cuestionan el aterrizaje lunar o la eficacia de las vacunas estén en YouTube. La enorme “biblioteca”, generada por usuarios con poca supervisión editorial, está destinada a tener sandeces y falsesdades. Sino que el problema de YouTube es que permite que eso crezca con fuerza. Y, en algunos casos, a través de su poderoso sistema de inteligencia artificial, incluso proporciona el combustible que le permite propagarse.

Wojcicki y sus ejecutivos lo saben. En los últimos años, decenas de personas dentro de YouTube y Google, su propietario, expresaron su preocupación por la cantidad de contenido falso, incendiario y tóxico que brotó y se difundió desde el sitio de videos más grande del mundo. Un empleado quería marcar videos problemáticos, que no cumplían con las reglas del discurso de odio, y dejar de recomendarlos a los espectadores. Otro quería rastrear estos videos en una hoja de cálculo para evaluar su popularidad. Un tercero, preocupado por la propagación de los “video bloggers” “fachas”, creó una matriz interna que mostraba lo populares que eran. Cada vez que obtuvieron la misma respuesta básica: no busques problemas

La compañía pasó años persiguiendo un objetivo de negocio por encima de otros: “engagement”, una medida de las vistas, el tiempo dedicado y las interacciones con los videos “on line”. Las conversaciones con más de veinte personas que trabajan en YouTube, o que se fueron recientemente, revelan que el liderazgo corporativo no puede o no está dispuesto a actuar sobre estas alarmas internas por temor a la limitación del “engagement”.

Wojcicki “nunca se pringó”, dijo una persona que trabajó para ella. “Su opinión era: “Mi trabajo es dirigir la compañía, no lidiar con esto”. Esta persona, al igual que otras personas que hablaron con Bloomberg News, pidió no ser identificada por temor a represalias.

YouTube rechazó las solicitudes de Bloomberg News para hablar con Wojcicki, otros ejecutivos, la dirección de Google y la junta de Alphabet Inc., su compañía matriz. La semana pasada, Neal Mohan, su Director de Producto, le dijo a The New York Times que la compañía ha “hecho grandes progresos” al abordar sus problemas con las recomendaciones y el contenido radical.

Una portavoz de YouTube desmintió que Wojcicki no preste atención a estos temas y que la compañía priorice el “engagement” por encima de todo. Por el contrario, la portavoz afirmó que la compañía ha pasado los últimos dos años centrada en encontrar soluciones para sus problemas de contenido. Desde 2017, YouTube ha recomendado clips basados ​​en una métrica llamada “responsabilidad”, que incluye los inputs de las encuestas de satisfacción que se muestran después de los videos. YouTube se negó a describirlo con más detalle, pero dijo que recibe “millones” de respuestas a las encuestas cada semana.

“Nuestro objetivo principal ha sido abordar algunos de los desafíos de contenido más difíciles de la plataforma”, dijo una portavoz en un comunicado enviado por correo electrónico. “Hemos tomado varias medidas importantes, incluida la actualización de nuestro sistema de recomendaciones para evitar la propagación de información errónea dañina, mejorar la experiencia de noticias en YouTube, elevar a 10.000 el número de personas dedicadas a evaluar contenido en Google, invertir en aprendizaje automático para encontrar y eliminar más rápidamente el contenido inadecuado, y revisar y actualizar nuestras políticas. Sólo en 2018, realizamos más de 30 actualizaciones de nuestras políticas. Y este no es el final: la responsabilidad sigue siendo nuestra prioridad número uno “.

En respuesta a las críticas sobre la decisión de priorizar el crecimiento sobre la seguridad, Facebook Inc. ha propuesto un cambio radical en su producto principal. YouTube aún tiene dificultades para explicar cualquier nueva visión corporativa al público y a los inversores, y en ocasiones a su propio personal. Cinco empleados de alto nivel que abandonaron YouTube y Google en los últimos dos años citaron en privado la incapacidad de la plataforma para controlar videos extremos y perturbadores como la razón de su partida. Dentro de Google, la incapacidad de YouTube para solucionar sus problemas ha sido una queja importante. Las acciones de Google cayeron el martes por la mañana en Nueva York, acumulando una caída del 15 por ciento en lo que va del año. Las acciones de Facebook subieron más del 30 por ciento en 2019, después de ser golpeadas el año pasado.

La apatía de YouTube se volvió a poner de manifiesto hace varias semanas, después de que un brote mortal de sarampión atrajo la atención del público sobre las teorías de la conspiración sobre las vacunas en las redes sociales. Moonshot CVE, una firma con sede en Londres que estudia el extremismo, descubrió que fueron menos de veinte canales de YouTube los que difundieron esas mentiras que llegaron a más de 170 millones de personas, muchas de las cuales recibieron recomendaciones a otros vídeos sobre teorías de la conspiración.

La falta de respuesta de la compañía a los videos explícitos dirigidos a niños ha generado críticas de la propia industria tecnológica. Patrick Copeland, un ex director de Google que se fue en 2016, publicó recientemente una acusación a su antigua compañía en LinkedIn. Mientras la hija de Copeland navegaba por Youtube, la plataforma le recomendó un clip que mostraba a un personaje Blancanieves dibujado con rasgos sexuales exagerados y a un caballo involucrado en un acto sexual. “La mayoría de las empresas despedirían a alguien por ver este video en el trabajo”, escribió. “¡Increíble!” Copeland, que pasó una década en Google, decidió bloquear el dominio de YouTube.com.

Micah Schaffer se unió a YouTube en 2006, nueve meses antes de que fuera adquirida por Google y mucho antes de que se convirtiera en parte del firmamento cultural. Se le asignó la tarea de escribir las políticas para la despreocupada plataforma. Por aquel entonces, YouTube se centraba en convencer a la gente para que viera vídeos de aficionados y subiera sus propias grabaciones.

Unos años más tarde, cuando salió de YouTube, la compañía aún no era rentable y sobre todo era conocida por su frivolidad (un video de David, un niño de siete años colocado después de un viaje a un dentista, fue el segundo video más visto de ese año). Pero ya entonces había problemas con el contenido malicioso. En esas fechas, YouTube notó un aumento de la cantidad de videos que elogiaban la anorexia. En respuesta, la plantilla de moderadores comenzó a peinar la plataforma en busca de esos vídeos para establecer restricciones de edad, eliminarlos de las recomendaciones o eliminarlos por completo. “Amenazaron la salud de nuestros usuarios”, recordó Schaffer.

Le recordaron ese episodio recientemente, cuando los videos que sermoneban sobre los supuestos peligros de las vacunas comenzaron a difundirse en YouTube. Eso, pensó, habría sido una obviedad en los primeros días. “Los habríamos restringido severamente o los habríamos prohibido por completo”, dijo Schaffer. “YouTube nunca debería haber permitido que teorías de conspiración peligrosas se convirtieran en una parte tan dominante de la cultura de la plataforma”.

En algún momento de la última década, agregó, YouTube priorizó la búsqueda de ganancias sobre la seguridad de sus usuarios. “Podríamos haber estado sufriendo una hemorragia de dinero”, dijo. “Pero al menos los perros que montan patinetas nunca mataron a nadie”.

A comienzos de 2009, Google tomó el control total de YouTube. Fichó a ejecutivos, como el Director Comercial Robert Kyncl, anteriormente en Netflix, para una estrategia técnica y un plan de negocios para mantener un crecimiento explosivo. En 2012, YouTube llegó a la conclusión de que cuanta más gente miraba, más anuncios podía publicar, y que recomendar videos, junto con un clip o después de que uno terminara, era la mejor manera de mantener la vista en la web.

Así que YouTube, entonces dirigido por el veterano de Google Salar Kamangar, estableció el objetivo de alcanzar los mil millones de horas de visualización al día y reescribió su motor de recomendaciones para maximizar ese objetivo. Cuando Wojcicki tomó el mando, en 2014, YouTube había alcanzado un tercio de ese objetivo, como refleja el inversor John Doerr en su libro Measure What Matters.

“¡Pensaron que reventaría internet! Pero me pareció que un objetivo tan claro y medible energizaría a las personas, y las animé ”, le dijo Wojcicki a Doerr. “Los mil millones de horas de visualizaciones diarias le dieron a nuestros técnicos una Estrella Polar”. Para octubre de 2016, YouTube alcanzó su objetivo.

Ese mismo otoño, tres codificadores de Google publicaron un artículo sobre la forma de trabajar del sistema de recomendaciones de YouTube con la montaña de material recién subido a la plataforma. Describieron cómo la red neuronal de YouTube, un sistema de inteligencia artificial que imita al cerebro humano, podría predecir mejor lo que el espectador vería a continuación. La investigación señala cómo la IA puede intentar suprimir el “clickbait”, los videos que mienten sobre su contenido y los que no captan la atención del espectador.

Sin embargo, menciona las minas terrestres (desinformación, extremismo político y repulsivo contenido infantil) que han acumulado millones y millones de visitas y han sacudido a la compañía desde entonces. Esos temas rara vez surgieron antes de las elecciones de 2016 en EE. UU. “Estábamos en la maleza tratando de alcanzar nuestros objetivos y mejorar el uso del sitio”, dijo un ex ejecutivo. “No sé si realmente levantamos nuestras cabezas”.

YouTube no da una receta exacta para la viralidad. Pero en la carrera de mil millones de horas, surgió una fórmula: indignación es igual a atención. Es lo que las personas que se encuentran en los extremos de la política han explotado fácimente, dijo Brittan Heller, miembro del Centro Carr de la Universidad de Harvard. “No saben cómo funciona el algoritmo”, dijo. “Pero sí saben que cuanto más escandaloso es el contenido, más visistas”.

La gente dentro de YouTube conocía esta dinámica. A lo largo de los años, hubo muchos debates acalorados sobre qué hacer con los vídeos problemáticos: aquellos que no violan sus políticas de contenido y, por lo tanto, permanecen en el sitio. Algunos ingenieros de software han apodado el problema como “mala viralidad”.

Yonatan Zunger, un ingeniero de privacidad de Google, recordó una sugerencia que hizo al personal de YouTube antes de abandonar la compañía en 2016. Propuso una tercera clasificación: videos que podían permanecer en YouTube pero que se eliminarían de las recomendaciones porque se encontraban en la frontera de lo que permiten las políticas de uso. “Los malos actores rápidamente se vuelven muy buenos para entender dónde están las líneas brillantes y patinar lo más cerca posible de esas líneas”, dijo Zunger.

Su propuesta, que fue dirigida al jefe de la políticas de YouTube, fue rechazada. “Puedo decir con mucha confianza que estaban muy equivocados”, dijo.

En lugar de renovar su motor de recomendaciones, YouTube se duplicó. La red neuronal descrita en la investigación de 2016 entró en vigencia en las recomendaciones de YouTube a partir de 2015. Con las medidas disponibles, logró su objetivo de mantener a las personas en YouTube.

“Es un motor de adicción”, dijo Francis Irving, un científico informático que ha escrito de manera crítica sobre el sistema de inteligencia artificial de YouTube.

Irving dijo que ha planteado estas preocupaciones con el personal de YouTube. Ellos respondieron con incredulidad, o una indicación de que no tenían incentivos para cambiar la forma en que funcionaba su software, dijo. “No es un algoritmo fallido o desastroso”, agregó Irving. “Funciona bien para mucha gente y hace mucho dinero”.

Paul Covington, un ingeniero sénior de Google que fue coautor de la investigación del motor de recomendación de 2016, presentó las conclusiones en una conferencia en marzo siguiente. Se le preguntó cómo los ingenieros deciden el resultado que buscan con sus algoritmos. “Es una decisión de producto”, dijo Covington en la conferencia, refiriéndose a una división separada de YouTube. “Producto nos dice que quiere aumentar esa métrica, y luego nosotros nos dedicamos a aumentarla. No es algo que decidamos nosotros “. Covington no respondió a un correo electrónico solicitando comentarios.

Una portavoz de YouTube dijo que, desde finales de 2016, la compañía agregó una medida de “responsabilidad social” a su algoritmo de recomendación. Esas entradas incluyen cuántas veces las personas comparten y hacen clic en los botones “me gusta” y “no me gusta” en un video. Pero YouTube se negó a compartir más detalles sobre la métrica o sus impactos.

Tres días después de la elección de Donald Trump, Wojcicki convocó a toda su plantilla para la reunión semanal. Un empleado expresó en voz alta su preocupación por los videos relacionados con las elecciones del sitio que más se vieron. Estaban dominados por editores como Breitbart News e Infowars, conocidos por su ira y provocación. Breitbart tenía una sección popular llamada “crimen negro”. El episodio, según una persona que asistió, provocó un amplio debate pero no hubo propuestas de cambios inmediatos en la política. Una portavoz se negó a comentar sobre el caso en particular, pero dijo que “en genearl, el contenido extremo no funciona bien en la plataforma”.

En ese momento, la dirección de YouTube estaba centrada en una crisis muy diferente. Sus “creadores”, la multitud que sube vídeos a la plataforma, estaban molestos. Algunos estaban cabreados por su remuneración , otros amenazaron abiertamente con irse a otras plataformas.

Wojcicki y sus lugartenientes elaboraron un plan. YouTube lo llamó Proyecto Bean o, a veces, “Hervir el océano”, para resaltar la enormidad de la tarea. (Algunas veces lo llamaron BTO3, una tercera revisión espectacular de YouTube, después de iniciativas para mejorar la visualización móvil y las suscripciones). El plan era reescribir todo el modelo de negocio de YouTube, según tres ex empleados de alto nivel que trabajaron en él.

Se centró en una forma de remuneración a los creadores que no se basara en los anuncios que alojaban sus videos. En lugar de eso, YouTube les pagaría por el “engagement”: cuántos espectadores vieron un video y cuánto tiempo pasaron viéndolo. Un algoritmo especial agruparía el dinero entrante y luego lo repartiría a los creadores, incluso si no se publicaban anuncios en sus vídeos. La idea era recompensar a las estrellas de la plataforma penalizadas por el sistema por tratar temas como la educación sexual o por realizar vídeos musicales, ya que los anunciantes los encontraban demasiado arriesgados para respaldarlos.

Los programadores de YouTube trabajaron durante al menos un año para que el proyecto fuera viable. Pero los ejecutivos de la compañía fallaron al no darse cuente de el proyecto podría ser contraproducente: el pago basado en el “engagement” corría el riesgo de empeorar su problema de “mala viralidad”, ya que podría haber recompensado los vídeos que alcanzaron la popularidad impulsados por la indignación. Una persona involucrada dijo que los algoritmos para repartir los pagos estaban estrictamente protegidos. Si hubiera entrado en vigor entonces, dijo esta persona, es probable que alguien como Alex Jones, el creador de Infowars y teórico de la conspiración con un gran número de seguidores en la plataforma, antes de que YouTube le diera la patada en agosto pasado, se hubiera convertido de repente en uno los youtubers mejor pagados.

Wojcicki presentó Project Bean al equipo de liderazgo de Google en octubre de 2017. Para entonces, YouTube y otras plataformas de redes sociales se enfrentaron la primera ola de reprobación por hacer “burbujas de filtro”: captar a las personas con creencias preexistentes y alimentarlas con contenidos que las reafirmen. El jefe de Wojcicki, Sundar Pichai, rechazó la propuesta de YouTube porque, en parte, creía que podía empeorar el problema de la burbuja de filtro, según dos personas familiarizadas con el intercambio. Otra persona familiarizada con la situación dijo que el proyecto se archivó debido a la preocupación de que complicaría demasiado la forma en que se pagaba a los creadores.

YouTube declinó comentar sobre el proyecto.

En noviembre de 2017, YouTube finalmente tomó medidas drásticas contra los canales que impulsan videos maliciosos, restrigiéndoles la posibilidad de recibir anuncios o haciéndolos desaparecer prácticamente de la noche a la mañana. Los creadores lo denominaron “la purga”. La compañía se enfrentaba a un boicot de anunciantes, pero el verdadero catalizador fue una explosión de la cobertura mediática sobre vídeos perniciosos dirigidos a niños. El peor fue “Toy Freaks”, un canal donde un padre publicaba vídeos con sus dos hijas, a veces mostrándolas vómiando o con dolores extremos. YouTube eliminó Toy Freaks y rápidamente se distanció de él.

Pero el canal no había estado en las sombras. Con más de ocho millones de suscriptores, según los informes, se encontraba entre los 100 más vistos en la plataforma. Estos tipos de videos perturbadores eran un “secreto abierto” dentro de la compañía, que justificaba su existencia a menudo con argumentos sobre la libertad de expresión, dijo un ex miembro del personal.

YouTube también había mantenido otro debate sobre su programación para niños. Antes del lanzamiento de una aplicación dedicada para menores, YouTube Kids, varias personas abogaron por que la compañía solo ofreciera videos seleccionados cuidadosamente por el servicio para evitar cualquier problema de contenido. Los que defendían esta postura perdieron, y desde entonces la aplicación selecciona los vídeos algorítmicamente.

YouTube invirtió dinero para solucionar sus problemas de contenido. Contrató a miles de personas para que revisen los videos y encuentren a aquellos que violen las reglas del sitio. Pero para algunos dentro de la compañía, esas correcciones llegan demasiado tarde o palidecen al lado de la escala del problema. En 2017, Youtube no tenía una política sobre cómo debían abordar los moderadores las teorías de la conspiración, según un ex moderador escpialedo en contenido en idiomas extranjeros.

Al final del año, menos de veinte personas formaban parte del personal de “confianza y seguridad”, la unidad que supervisa las políticas de contenido, según un ex empleado. El equipo tuvo que “luchar con uñas y dientes” para obtener más recursos del gigante tecnológico, dijo esta persona. Una portavoz de YouTube dijo que la división ha crecido “significativamente” desde entonces, pero se negó a compartir números exactos.

En febrero de 2018, el video que llamó actores alas víctimas del tiroteo de Parkland se volvió viral en la página de tendencias de YouTube. El personal de políticas sugirió poco después limitar las recomendaciones de la página a las fuentes de noticias verificadas. La dirección de YouTube rechazó la propuesta, según una persona conocedora del asunto. La persona no sabía el motivo del rechazo, pero observó que YouTube tenía la intención de incrementar el tiempo de visualización de videos relacionados con noticias.

Sin embargo, YouTube pronto abordó sus problemas relacionados con el contenido relacionado con noticias. En julio pasado, YouTube anunció que agregaría enlaces a los resultados de Google News dentro de la búsqueda de YouTube y comenzó a presentar fuentes “autorizadas”, de medios de comunicación establecidos, en sus secciones de noticias. YouTube también otorgó 25 millones de dólares en subvenciones a organizaciones de noticias que hacen videos. En el último trimestre de 2018, YouTube dijo que eliminó más de 8.8 millones de canales por violar sus normas. Estas medidas están destinadas a ayudar a enterrar videos problemáticos en su plataformar, y la compañía señala los esfuerzos como un signo de su preocupación por los problemas de contenido.

Sin embargo, en el pasado, YouTube disuadió activamente al personal de ser proactivo. Los abogados avisaron verbalmente a los empleados encargados de la modereción para que no buscaran por sí mismos vídeos problemáticos, como las mentiras virales sobre la juez de la Corte Suprema Ruth Bader Ginsburg, según un ex ejecutivo molesto por la práctica. La persona dijo que la directiva nunca se puso por escrito, pero el mensaje era claro: si YouTube sabía que estos videos existían, su fundamento legal se debilitaba. La ley federal protege a YouTube, y otros gigantes tecnológicos, de la responsabilidad por el contenido de sus sitios, sin embargo, las compañías corren el riesgo de perder las protecciones de esta ley si asumen un papel editorial demasiado activo.

Algunos empleados buscaron estos videos de todos modos. Un momento revelador ocurrió alrededor de principios de 2018, según dos personas familiarizadas con él. Un empleado decidió crear una nueva “matriz” de YouTube, una categoría que la empresa utilizó para agrupar un montón de secuencias de video. Esta persona reunió videos bajo una matriz imaginada para “la alt – right”, el grupo político vinculado a Trump. Basándose en el “engagement”, la hipotética categoría de “alt – right” se unió a la música, los deportes y los juegos como los canales más populares en YouTube, un intento de mostrar cuán críticos eran estos videos para el negocio de YouTube. Una persona familiarizada con el equipo ejecutivo dijo que no recuerda haber visto este experimento.

Aún así, como los algoritmos de la compañía continuaron causando dolores de cabeza, los cuchillos han salido a relucir.

Algunos ex empleados culpan a Wojcicki, quien heredó un negocio orientado a obtener más visitas y no cambió de dirección de manera significativa. Otros culpan a Kyncl, el jefe de negocios de YouTube, que supervisa las relaciones con los creadores y las decisiones de moderación de contenido. Si bien Wojcicki y Neal Mohan, los jefes de producto de YouTube, han hecho varias declaraciones públicas sobre temas relacionados con el contenido, Kyncl ha sido menos expresivo al respecto. Aun así, el ejecutivo ha realizado otros movimientos públicos que algunos ven dentro de Google como auto promocionales. En agosto pasado, una semana después de un informe condenatorio sobre la prevalencia de los videos extremistas en YouTube, ejerció como modelo para un anuncio de la marca de lujo Brioni. Ese anuncio, emitido en medio de los problemas de YouTube, causó preocupación sobre las prioridades de Kyncl entre varios empleados de Google, según una persona que estaba allí. Representantes de la compañía y Kyncl declinaron hacer comentarios.

En enero pasado, YouTube siguió el consejo del ex empleado de Google Zunger y creó un nuevo nivel para videos problemáticos. El llamado “contenido límite”, que no viola los términos del servicio, puede permanecer en el sitio, pero ya no se recomendará a los espectadores. Un mes después, tras varias noticias sobre conspiranoias antivacunas, YouTube dijo que estaba colocando algunos de esos videos en la categoría. En febrero, Google también publicó un extenso documento que detalla cómo aborda la información errónea sobre sus servicios, incluido YouTube. “El objetivo principal de nuestros sistemas de recomendación hoy es crear una experiencia confiable y positiva para nuestros usuarios”, se lee en el documento. “El objetivo de la compañía de YouTube se enmarca no solo como ‘Crecimiento’, sino como ‘Crecimiento responsable'”.

La compañía ha estado aplicando la solución que Wojcicki propuso hace un año. YouTube dijo que los paneles de información de Wikipedia y otras fuentes, que Wojcicki expuso en Austin, ahora se muestran “decenas de millones de veces a la semana”.

Un video de 2015 sobre la vacunación de iHealthTube.com, un canal de YouTube de “salud natural”, es uno de los videos que ahora luce una pequeña caja gris. El texto enlaza a una entrada de Wikipedia para la vacuna MMR. Moonshot CVE, la firma de lucha contra el extremismo con sede en Londres, identificó al canal como uno de los generadores más consistentes de las teorías contra la vacunación en YouTube.

Pero YouTube parece estar aplicando el arreglo solo esporádicamente. Uno de los videos más populares de iHealthTube.com no es sobre vacunas. Es un clip de siete minutos titulado: “Todo cáncer se puede curar en semanas”. Si bien YouTube dijo que ya no recomienda el video a los espectadores, no hay una entrada de Wikipedia en la página. Se ha visto más de 7 millones de veces.

HISTÓRICO

Enlaces internacionales