Del Web 2.0 a la Biblioteca 2.0

Esta es la presentación correspondiente a mi conferencia ofrecida en la Universidad de Costa Rica el 28 de octubre. Fue parte de un ciclo organizado por estudiantes del curso Temas Actuales de Bibliotecología, de la Escuela de Bibliotecología y Ciencias de la Información, bajo la dirección de la colega María Lourdes Flores.

Del Web 2.0 a la Biblioteca 2.0

Previas a ésta se ofrecieron otras conferencias, que pueden ser consultadas en el sitio de la Escuela:

Ciclo de conferencias: Temas actuales en Bibliotecología

Ciclo de conferencias

Anuncios

Tráfico de conocimientos en la Web 2.0

La web es una gran ventana de acceso al conocimiento y a la interacción entre las personas. ¿Libertad absoluta o libertad condicionada? ¿Confabulación corporativa o simplemente anarquía?

Por Por Mela Bosch *

Desde Milán, Italia

La Web 2.0 abrió una interacción diferente entre personas a través de la web pero también una nueva forma de recolectar información sobre los individuos. Cada cosa que hacemos deja su huella para ser vista y usada, agentes desoftware dan uso a millones de interacciones individuales que la misma Web 2.0 promueve. El resultado es para algunos una inteligencia colectiva que cumple el postulado de que numerosos juicios sencillos producen un conjunto más complejo y preciso que el que daría un solo experto.

Es verdad. Pero es una verdad condicionada. Los programas no sólo analizan el hecho de que una persona con ciertas características e intereses realiza una búsqueda en Google, consulta o escribe una entrada en Wikipedia, hace transacciones en eBay, crea su blog, arma su red Facebook, sino que además computan la relación de cada interacción individual con la totalidad de interacciones de otra gran masa de personas, y de esa correlación surgen parámetros que se usan para filtrar y procesar la nueva información así como la existente. Un proceso circular que genera sesgos en la información que a su vez afectan nuestras interacciones individuales.

Este es el condicionamiento que subyace en esta tecnología que amplió extraordinariamente la circulación de conocimientos dando a las personas una nueva libertad para producir, tener acceso y difundir los contenidos que se deseen. Junto a la libertad de expresión, paradójicamente tenemos una red de mediaciones con una enorme dosis de arbitrariedad y de manipulación: los sistemas de la Web 2.0 funcionan filtrando y confrontando las elecciones individuales con las preferencias colectivas que a su vez también han sido filtradas.

Para algunos se trata de una confabulación de las grandes corporaciones y para otros es una anarquía. El verdadero problema es que Internet es un gigante ciego cuyas formas de orientación se basan en reglas de comparación, deducción y jerarquización que pueden ser muy complejas, pero continúan siendo ciegas.

Lo básico al elaborar una propuesta o una respuesta para un usuario web es la coincidencia mecánica que genera un listado con un orden de jerarquía. Las técnicas de esta dinámica simple no son visibles y los individuos quedan en una posición vulnerable: sólo recientemente se obligó a diferenciar en los listados de respuestas de un motor de búsqueda las publicidades de los enlaces automáticos.

Los recomendados

Justamente porque las empresas en la web están en competencia permanente por ganar la atención y porque la verificación directa de la enorme masa de información no es posible a las personas individuales, el recurso de la coincidencia mecánica, aun separando los enlaces pagados de los que no lo son, no es suficiente, surgen otras formas de jerarquizar la información. Entre ellas, las recomendaciones: utilizan las elecciones realizadas por otros individuos que han hecho una propuesta o buscado una respuesta similar y se aprovechan las etiquetas (tags) que las personas asignan. Todo es analizado por filtros automáticos que se aplican sobre todas nuestras acciones. Debido a que el modo de actuar de los programas influye sobre las interacciones individuales con cálculos que generalizan las interacciones de multitudes de personas, se comprende que es un tema no sólo tecnológico sino que concierne a prácticas sociales vinculadas a la construcción del conocimiento.

Se comparó el impacto histórico de Internet con el de la escritura y la imprenta para la distribución del conocimiento, pero hay un aspecto en el que la web realiza una masificación –entre los privilegiados que disfrutamos de la conectividad– y es la posibilidad de gestionar en gran escala el metaconocimiento, es decir, los índices, etiquetas, símbolos, que identifican lo conocido. Es un conjunto de representaciones que en Internet toman una nueva forma gracias a los algoritmos de comparación y análisis que se aplican a esas etiquetas y que permiten nombrar y describir nuestras imágenes, textos, canciones. Estas denominaciones son a veces espontáneas (folksonomías), en otras muy elaboradas como ontologías, clasificaciones y tesauros, que individualizan y luego filtran los conocimientos, pero junto a su capacidad organizativa, resumen millones de actividades humanas registradas y analizadas por medios artificiales introduciendo condicionamientos en los juicios personales.

El filtrado de las previsiones sobre las preferencias individuales, basado en el comportamiento de muchos otros, se ha extendido desde la compra de libros a la elección de vacaciones y hasta parejas. Las recomendaciones se basan en usos puntuales que se suman acumulando las acciones. Este procedimiento nos orienta pues nos sugiere qué han hecho otros, pero también deja poco espacio a lo original y lo nuevo queda autísticamente aislado.

Aparte de los rangos y recomendaciones tenemos en la web los sistemas que se apoyan en el comportamiento. El de mayor éxito es eBay, donde luego de cada transacción tanto el vendedor como el comprador hacen una evaluación que es resumida y los usuarios se basan en ella para futuras compras o ventas. Es útil en un ambiente donde se compran cosas reales a personas o empresas que jamás se verán. Pero aparecen distorsiones: muchos vendedores venden muy barato productos gancho para ganar reputación. Entonces no son siempre lo que aparentan y aunque eBay sigue siendo el mayor y más próspero mercado electrónico, en muchos ámbitos se detecta desconfianza.

Todo se complica además con situaciones mixtas: se unen el listado de rangos, con recomendaciones que se transmiten de usuario a usuario, con las reputaciones que se reciben a través de puntajes de calidad, como en YouTube. Hay incluso factores éticos, pues en este manejo ciego suelen contar con peso contenidos racistas, sexistas o violentos, o subrepticias publicidades de empresas y sectores políticos. Se impone pues una gran cautela a la hora de aceptar recomendaciones y considerar reputaciones en las movedizas arenas de la web.

La cooperación y la confianza

Como contrapeso tenemos la más increíble oportunidad de cooperación en la construcción y acceso al conocimiento. Es el caso de los proyectos de contenido abierto colaborativo como Wikipedia. El filtrado aquí está en manos de personas. Cualquiera puede editar en Wikipedia y es su mayor fuerza a la vez que debilidad, aunque hasta ahora la inteligencia cooperativa está dando sus frutos. El único inconveniente es que hay demasiadas traducciones de artículos del inglés, aunque el castellano crece y es muy traducido. Pero no hay formas de estimular las lenguas locales o minoritarias pues lo que producen no es pasado al inglés o español.

También se piensa introducir aquí reputaciones y recomendaciones automáticas, ojalá no se transformen en una réplica de los sistemas no cooperativos. Una idea es la de la Universidad de Santa Clara en California, se llama Wikitrust. En Wikipedia cuando un artículo no es leído, o es criticado, va cayendo en desuso y se borra. Este sistema de confianza hace que cuando un autor realiza una contribución y se mantiene en sucesivas ediciones, ese autor gana reputación, pero cuando su contribución es reeditada y corregida pierde reputación. Pero muchas veces cuando algo se edita y corrige en forma cooperativa es justamente porque es bueno y polémico, así se castigarían los artículos motivadores. Para evitarlo se asignan valores de confianza no sólo al artículo, sino a las palabras que permanecen después de las reediciones. La confianza en una palabra es proporcional a la reputación del autor, cuando diferentes autores hacen modificaciones, las palabras no modificadas ganan confianza, ya que se considera que quienes colaboran cuando no corrigen una palabra es porque están de acuerdo con ella. Esto es discutible, pues al modificar hay aspectos de estilo que afectan el análisis automático. Wikipedia es una de las más ricas experiencias de la web, que los autores sean casi anónimos es una de sus fortalezas, esperemos que las mediciones no alteren esto dando lugar a competencias individualistas.

Otro exitoso espacio de colaboración se basa en la revisión de las comunidades de programas Open Source. Aquí el control es manual, el código se puede corregir o borrar según criterios personales o compartidos. Es un conocimiento colectivo que se apoya en esfuerzos individuales en una tarea común con normas de cooperación explícitas que marcó un punto de no retorno en la producción de software en el mundo.

En síntesis, la circulación de conocimiento en la web tiene diferentes vías que direccionan, filtran y limitan los flujos: los rangos, las recomendaciones, las reputaciones, la cooperación, las revisiones, cada una de ellas tiene sus propias señales de tráfico que es útil tener presente pues orientan, pero también condicionan nuestro viaje ciberespacial.

* Consultora lingüística y en documentación. Docente on line de la Facultad de Periodismo y Comunicación Social de la UNLP.

Tomado de Página 12.

La web 2.0 crece con contenidos multimedia

Cada mes sus páginas –11 millones– reciben un total de 10.000 millones de visitasWikipedia, la enciclopedia interactiva más grande e influyente en Internet, que sólo tiene 23 trabajadores y 125.000 donantes, que le permiten sobrevivir sin publicidad, incorporó video y audio a sus artículos

Responsables de la enciclopedia, el cuarto sitio más visitado de la red y el único del top 50 de Internet que no tiene fines comerciales, confirmaron que la otra gran novedad es la progresiva apertura a los contenidos de audio y video, hasta ahora muy restringidos por cuestiones técnicas y de costo.

Tal y como explica Jay Walsh, responsable de comunicación de la enciclopedia, “finalmente estamos en condiciones de almacenar y gestionar grandes archivos multimedia y, por tanto, los videos y grabaciones de audio podrán ser parte de la enciclopedia. No es un modelo comparable a YouTube, porque trabajamos con un enorme volumen de información y tenemos recursos limitados, pero el almacenamiento y la banda ancha son cada vez más baratos y esto nos permite cambiar. Estamos haciendo crecer nuestra infraestructura”.

En su opinión, la tecnología de software libre, que es la base de toda la infraestructura de la enciclopedia, es clave para favorecer este cambio. “Estamos trabajando en un reproductor de video basado en código libre que permitirá a los usuarios ver cualquier tipo de video sin tener que utilizar software propietario. Esto supone un ahorro total en los derechos que hay que pagar por el uso del programa”.

El aspecto económico no es trivial, ya que actualmente Wikipedia muestra a los usuarios 10.000 millones de páginas al mes y a esta escala cualquier coste extra comporta cifras muy elevadas. En los últimos meses, la enciclopedia ha multiplicado por veinte la capacidad de sus servidores informáticos, gracias entre otras cosas gracias a la donación de equipos por parte de Sun Microsystems, una firma que desde hace tiempo apoya el proyecto. Ha sido el primer paso del cambio de la Wikipedia basada en el texto. Ahora sus 150.000 voluntarios, que escriben y editan sus contenidos de forma anónima y sin retribución, pueden pensar en utilizar materiales audiovisuales en una publicación hasta la fecha prácticamente limitada a la palabra escrita.

“Antes no podíamos albergar archivos grandes y tampoco disponíamos de un gran ancho de banda. Esto está cambiando. Los límites cada vez serán más amplios y cuando sea necesario podremos incluir un video de alta calidad o larga duración”, indica Brion Vibber, responsable tecnológico de Wikipedia. La posible comparación con YouTube toca aquí también un punto clave. Wikipedia recalca que la inclusión de video o grabaciones de audio se limita exclusivamente a materiales de dominio público o libres de derechos, para evitar problemas legales y costes extras.

Ocho años después de su puesta en marcha, Wikipedia es un fenómeno digital no exento de polémica, pero que se ha ganado una consideración cultural que en sus inicios parecía inalcanzable. La idea de una enciclopedia escrita y editada por los propios usuarios hizo pensar a muchos en un endeble resultado y escaso impacto.

Hoy tiene casi 11 millones de artículos en 260 idiomas. Las criticas más habituales apuntan al aire pop de sus contenidos (abundan los artículos sobre teleseries, cómics o modas), los problemas puntuales con informaciones inexactas (o a veces manipuladas) y el complejo funcionamiento interno de la obra, en la que colaboran 150.000 voluntarios.

Todos estos aspectos son interesantes y la discusión sobre ellos es relevante, pero el hecho es que la Wikipedia está refrendada por el uso de millones de internautas y por los diversos estudios que en los últimos años la han comparado con publicaciones como la prestigiosa Britannica, y le han otorgado un nivel equiparable de calidad.

Wikipedia ha cambiado el modelo. Es una enciclopedia gratuita, popular, abierta a la participación, sin límites de espacio ni de temas, que se actualiza al instante y cuyo contenido se puede utilizar libremente. Esto quizás explica que 275 millones de usuarios consulten sus páginas cada mes.

Fuente: rosario3.educación