martes, noviembre 29, 2005

Los gilipollas, la campana de Gauss y la brecha digital


¿A qué huelen las nubes?
Esa pregunta de un publicista inspirado es tan fácil de responder como es fácil de definir la cualidad de "gilipollas". La mejor definición que he encontrado por ahí: la del bushcador.
Cuando la equiparamos con "tonto" perdemos el tiempo, porque para empezar el sentido literal de tonto es casi un arcaicismo. Mi mejor intento, evitando en lo posible la tautología, sería "aquellas personas de inteligencia normal (IQ superior a 81 en una base 100) cuyas ideas, decisiones o elementos de su cosmovisión en general son incoherentes con dicha inteligencia".
El problema se agudiza si consideramos lo altamente imprecisa que es la medición del IQ y, en general, el baremo para dictaminar la cualidad de gilipollas: otros individuos de inteligencia normal, potenciales gilipollas también ellos. No es sólo que en algún momento dado todos hemos tomado decisiones gilipollas sino que, bajo el criterio de otros, nuestra persona puede caracterizarse como gilipollas. Y recordemos que lo de gilipollas va de eso, de criterios.
Una variación interesante viene de un idioma que tiene a bien definir a los gilipollas. En hebreo, fraier (פרייאר) es aquel ser humano crédulo, que hace todo según las normas, que no se salta jamás las reglas, etc. Entre los israelíes, existe una preocupación muy seria por no ser ni parecer fraier.
Sinteticemos: todos nos comportamos alguna vez como gilipollas, pero el gilipollas esencial, ontológico y de antología, está en el lado malo de la campana de Gauss: de μ -2 a la derecha.
La combinación de mi definición y la definición de fraier puede ser útil para analizar el comportamiento de ciertos comerciales de los que hablé ayer.
En efecto, esos comerciales no formados en TIC, que venden humo a diestro y siniestro (como hacen mis primos, tal para cual aunque no son lo mismo porque el comercial, en algún sentido, trabaja), se mueven bajo una definición de gilipollas bastante diferente.
vender humo ~ vender motos ~ vender la burra... entiendo que no es posible vender "cualquier cosa" a "cualquiera" sin identificar a tu interlocutor como "gilipollas" (o "primo", en sus términos). Para maximizar las ventas, claro está, el no-gilipollas tiene que ser la excepción.
Supongamos que coincidís con mi definición de gilipollas esencial (μ -2). Si estos comerciales siguen existiendo, algo falla, ¿no?
¿Cómo podemos explicar, en otras palabras, que los clientes de estos comerciales compren productos que no necesitan, o que no hacen lo que necesitan? Dicho de otro modo: aquellos clientes de estos comerciales que no caen dentro de la categoría de gilipollas esencial, ¿hacen el gilipollas cuando firman una venta?
Yo diría que no necesariamente.
Es cierto que estos comerciales patológicos tienden a tener ciertas habilidades dialécticas ante las que nadie es invulnerable en un momento dado. Todos tenemos un día tonto o, como se indica líneas arriba, todos podemos hacer el gilipollas en un momento dado.
Más allá de esto, creo que el problema fundamental es la brecha digital. La brecha digital ni tiene que ver con la dimensión ocasional ni esencial de "gilipollas": es una característica diferente de los individuos y las comunidades, mucho más reciente... y de repercusiones más severas.
El potencial cliente de estos comerciales trabaja en un entorno en el que la ventaja productiva de las TIC es un hecho completamente consumado. Por diversos motivos, muchos de estos potenciales clientes están en el lado malo de la brecha digital: carecen de la información y conocimiento adecuados para tomar decisiones óptimas sobre productos o servicios TIC. Se enfrentan a un dilema: o comprar lo que no necesitan, o no comprar lo que podrían necesitar, porque "yo no soy un [gilipollas|primo]". En ambos casos, las consecuencias de su decisión son perjudiciales.
El problema de España es que si el gilipollas esencial está en μ -2, la población que está en el lado malo de la brecha digital es significativamente más numerosa. Los directivos, funcionarios y profesionales con poder de decisión, tienen su cuota de representación en "el lado malo de la brecha digital". El efecto combinado y acumulativo de sus decisiones es mucho más importante que todo lo que el Estado pueda hacer o dejar de hacer de cara a la situación de la brecha digital en España.
Y de momento no se me ocurre ningún remedio. Si como veíamos ayer, muchos barrapunteros se quejaban de que el comercial vendehumo era mucho más valorado que el desarrollador, a la fuerza tiene que estar relacionado con la brecha digital. En mi opinión, todos los lamentos de ayer, y muchos otros, nos hablan de un país con un sector de desarrollo y servicios TIC en el límite mismo de la viabilidad, algo que no puede cambiar sólo con iniciativas del Estado. Es el zeitgeist de nuestro país, un problema fundamentalmente cultural e idiomático. Un problema que, ante todo, necesita concienciación.

lunes, noviembre 28, 2005

Rebelión de los informáticos en barrapunto


Una noticia de businessweek (comentada en dirson) ha montado un interesante diálogo en /.. Y digo diálogo porque no hay debate, no hay posiciones encontradas sino claridad... en la base.
En efecto, la noticia original, en su contexto inicial, comenta con extrañeza (si no con alarma) que los comerciales y businesspeople en general son ciudadanos de segunda en Googleplex, mientras que los ingenieros y técnicos tienen una mayor consideración dentro de la empresa, en la cultura corporativa y a la hora de la toma de decisiones (en cada escalón, imagino). Se pregunta vplabs:

¿El escándalo está tal vez en que el sistema se ha corregido? Es decir, que el ingeniero allí no es el pringado pateado, sino que goza de cierta consideración.

¿Allí se han dado cuenta de que el trajeado es sólo eso, un trajeado? Es decir, alguien que cuida su imagen porque tiene que vender imagen, ya que no puede vender producto.

¿Les escandaliza que cobren más los ingenieros que los financieros? Yo llevo mucho tiempo viendo financieros que en ocasiones cobran el doble que ingenieros desarrollando excelentes productos.
No quiero analizar esto en términos del siglo XX (reivindicaciones, ideologías) sino en términos del siglo XXI, que por cierto no sé cuáles son. Sin embargo, si todo parece indicar que la actividad sindical (al menos, en este país) no tiene sentido en el sector de las TI, puede que a medio plazo ocurra lo impensable y el comercial deje de tener la preponderancia que tiene ahora. Un pobrecito hablador comenta que:
Aqui por ejemplo, siempre ha funcionado, aunque al reves, el tecnico es el ciudadano de tercera categoria, y el vendedor es "el puto amo", aunque venda los productos generados por los primeros. De todas maneras, se ha encontrado la solucion a este problema, puliendose todas las empresas que generaban productos nuevos, vendiendolas o desmantelandolas y convirtiendonos en un pais de servicios, asi ya no hacen falta tecnicos, todo llega listo para vender desde el extranjero
Muchos de los que leéis esto conocéis en vuestras carnes o en carnes ajenas los motivos completamente reales que hacen al PH posicionarse así. Sin embargo, si no llevamos su posición hasta el fatalismo, podemos pensar en un futuro distinto.

Hasta ahora, los límites de la comunicación hacían todopoderoso al contacto personal: la persona con buen aspecto y labia, que franqueaba las barreras de los directivos de empresas e instituciones potenciales clientes de la suya. Todos conocemos el espectro de recursos a su disposición: desde los blancos (su carisma, un detalle a tiempo, la atención cuidada) a los negros (coimas, servicios sexuales, etc.).

Sin embargo, la velocidad de los cambios puede terminar dejando atrás, si no a la figura, al menos sí a su faceta de esperpento: al comercial que le da igual 8 que 80, porque no entiende nada de lo que está vendiendo. Como trataré en un post próximo, el problema es que esto funciona a pelo con los que están en el lado malo de la campana de Gauss: los gilipollas. Para el resto, de sigma -2 a la derecha, pues como que no.

Con el ritmo que está llevando el cambio tecnológico y el sector TI en general, una empresa normal con deseos de sobrevivir necesita tomar decisiones informadas y protegerse contra el que vende humo. La época dorada del consultor ya terminó, y esta política de Google puede ser una avanzadilla de los tiempos por venir.

Y acabo. No quiero quitarle el protagonismo a lo que ha capturado mi atención como tantas otras veces: a la comunidad de práctica (una definición en castellano salvable) de barrapunto en acción. Como tantas veces --¡si la relación señal/ruido es buena, claro!-- el diálogo entre barrapunteros ha puesto en marcha mis sinapsis y he obtenido un beneficio intelectual. No sé si a esto se le puede calificar como de freerider o no (posiblemente la respuesta esté en esta discusión de la wikipedia). En cualquier caso, me resulta desde hace años una ventaja competitiva, porque una y otra vez me ha inspirado para innovar dentro de mi empresa.

technorati tags: collectiveintelligence, inteligencia colectiva, inteligenciacolectiva.

viernes, noviembre 25, 2005

más sobre OLPC, el portátil de 100$


El 17 de noviembre de 2005 puede que sea una fecha histórica para la humanidad. Negroponte y su equipo del MIT presentaron el primer prototipo funcional de su idea, One Laptop Per Child, también conocido como "el portátil de 100$", del que ya he comentado algunos aspectos prometedores.

Si comparáis con las capturas que incluí, del primer proyecto público al prototipo actual han cambiado algunos aspectos. Para empezar, es verde y, según Negroponte, "ha sido la decisión más difícil que han tenido que tomar" (sic), y el motivo ha sido "[transmitir] un mensaje de disfrute y diversión".

Si en el post anterior comentaba que el problema técnico más espinoso iba a ser la pantalla, en este artículo se relata una breve historia de la misma. De hecho, es la historia de cómo Mary Lou Jepsen fue abducida por Negroponte para que aportara su concepto de pantalla barata y de muy bajo consumo (35$, retroiluminada por LEDs) y se convirtiera en la directora de tecnología del consorcio OLPC. Podéis escucharla (a duras penas) en su arrebato de conversa aquí. Por otra parte, la duración de la carga con 1 minuto de darle al manubrio está en 30 minutos, ya no tan lejana al objetivo de una hora.

Sólo el simple hecho de que funcione con Linux puede ser una causa de que finalmente no tenga éxito. Un éxito relevante sería una amenaza directa contra Microsoft, por un lado, y contra los grandes fabricantes, por otro. El peligro para los segundos sería mayor, porque pondría sobre el tapete lo innecesario de las capacidades de los portátiles para muchísimos usuarios.

Otro motivo para que no funcione es el peligro de la mesh network que se ha pensado que los equipos establezcan entre si. Realmente, OLPC es un caballo de troya o peor, un torpedo contra la línea de flotación de, digamos, la ventaja tecnológica de occidente. Si los equipos llegan a distribuirse en números semejantes a los previstos, en teoría podrían crear redes de telefonía VoIP locales, algo casi más importante que la alfabetización digital strictu sensu. Además, estas capacidades superarían con mucho el entorno docente, permitiendo a comunidades enteras entrar en comunicación con el ancho mundo.

Pero pongamos que funcione. Pongamos que en invierno de 2006 los niños de Brasil, Tailandia, quién sabe si Massachussets, etc., los tienen en sus manos. Una de las esperanzas más fuertes y hasta locas de Negroponte es que los niños aprendan a aprender entre ellos, en incipientes comunidades de práctica, entre otras cosas utilizando un entorno de programación con buenas aplicaciones para niños llamado squeak (1, 2, 3). Podéis ver un ejemplo aquí.

La diversión que menciono en la cita de negroponte es antónima al concepto equivalente que tenemos para un niño occidental: una gameboy, una PSP. El OPLC no tiene prestaciones para eso. Salvando las distancias, se parece mucho más a un spectrum.

Si el spectrum fue para muchos de nosotros lo que fue, un reto desde que abrías la caja, un campo limpio para sembrar con trabajo y recoger nuestros frutos, imaginaos lo que pueden ser millones y decenas de millones de "spectrum on steroids" conectados inalámbricamente y en manos de chavales con un incentivo aún mayor que el nuestro para aprender.

Technorati tags: digital divide, OLPC

miércoles, noviembre 23, 2005

El correo se puede convertir en conversación

No tengo claro si esta idea va a despegar o no. Pero si funciona, puede insuflar algo de aire al software social más antiguo de todos y en peligro desde hace años por culpa del spam.

En webdosbeta, Luistxo Fernández comentaba que con tanto rollo con web 2.0 se estaba dejando de lado al email y, además, a las listas de correo, las primeras plataformas de comunidad junto a las BBS. Y no le faltaba razón. El problema del email no es sólo el spam, sino que ya no es in. Estética y conceptualmente, es el polo opuesto de las aplicaciones web enriquecidas, de los mashups, no se le puede añadir tags... aunque gmail esté desarrollado en AJAX.

Al email le queda mucha cuerda. Nadie ha encontrado un sustituto para una plataforma de comunicación de sus características, y además está completamente implantado e interiorizado tanto entre empresas como dentro de intranet. El email, además, sigue siendo una importante fuerza social: desde el incombustible correo-cadena (que demuestra la cantidad de tiempo que tienen algunos y el carácter infinito de la credulidad), pasando por las listas de correo, los boletines (como CRYPTO-GRAM, mi preferido)...

Como algún día comentaré, la sustitución que hice del email por un wiki para gestionar el flujo de cuadernos de campo en proyectos de investigación etnográficas fue un salto de seguridad y coordinación drástico. Casi parece una de esas comparaciones de O'Reilly: email(web 1.0) / wiki (web 2.0).

El error puede estar en considerar antagónico lo que no tiene por qué serlo. Si el puntal más importante de cosa 2.0 es la dimensión social, la comunidad, la inteligencia colectiva, la larga cola y demás, el email tiene perfecta cabida en este cambio prometido.

Así lo han visto los responsables de conversate.org. Lo que te ofrece este servicio es encauzar los email que necesites dentro de una "conversación". La ventaja inmediata es que se introduce una redundancia en el intercambio: como los email quedan registrados en la plataforma, puedes recurrir a ella si por el motivo que sea el email no ha llegado. Más allá, la aportación fundamental es la de introducir orden en el email.

La única manera efectiva de mantener el hilo de intervenciones con el correo es ir dejando una cola detrás compuesta por los email anteriores. Tiene unos límites obvios que se acentúan cuando escriben más de dos personas. Lo que aporta conversate.org es reunir los email de forma temática y organizar las sucesivas respuestas de forma anidada, igual que ocurriría con un foro (e.g., los hilos de respuestas en barrapunto, por si alguno no conoce (!?) el sitio, incluyo un post reciente que me ha interesado especialmente para ilustrar este punto).

Esta ventaja, que hace posible seguir un post con cientos de intervenciones en espacios así organizados, se explota aún más con la posibilidad de que los intervinientes puedan invitar a quien les apetezca, o abrir la discusión a otros usuarios, o dejarla cerrada. En cualquier caso, las ventajas principales son las que buscaba en principio cuando introduje nuestro wiki, allá por 2002: seguridad y coordinación. Para lo que lo usamos en mi trabajo, el wiki sigue manteniendo su ventaja, pero si esto hubiera existido me habría hecho dudar.

Por no alargarme demasiado, sólo me detendré en que este sistema permite aumentar la resistencia al tiempo de los email. Tanto la organización en "conversaciones" como el hecho de residir en un servidor web permite que los hilos de conversación puedan seguir siendo consultados con más facilidad pasado un tiempo.

Dos pinceladas finales: a) en cierto sentido, es lo que google ofrece a nivel individual dentro de su gmail, pero trasladando el concepto de conversación a una dimensión colectiva. b) la ventaja potencial más importante es que ofrece distintas posibilidades para potenciar y privilegiar la dimensión social del email... incluso podría lograr, de triunfar, que el email dejara de estar demodé.

technorati tags: web2.0, socialsoftware, collectiveintelligence, inteligenciacolectiva,

martes, noviembre 22, 2005

Una presentación divulgativa y discutible sobre web 2.0


Como he venido diciendo últimamente respecto a la cosa 2.0, ni quito ni pongo rey, o no creo en las brujas pero haberlas, haylas. Sigo en la duda, vamos, y creo que hay algo entreverado con vapor.

Una de las razones más poderosas que tengo para llamar "cosa" a web 2.0 es que no es definible, de momento, en una única frase central. Por otra parte, algunos detractores/descreidos aprovechan este mismo argumento para afirmar que es vapor / y/o una intención ilégitima de querer etiquetar un conjunto de tendencias anteriores.

Honestamente, soy un poco mulder para esto de la web 2.0. Quiero creer aunque, como a muchos, el más mínimo olor a vapor me pone en guardia.

Pues bien, este post divulgativo y, sobre todo, su presentación me empujan a creerme un poco el asunto. Un poco, ojo. Aunque no sea una única frase, lo cierto es que el tipo presenta las ideas de forma menos profética y más llana que O'Reilly. Además de hacer un buen esfuerzo de síntesis, realiza una aportación que me ha llamado la atención:
Diseño con la vista puesta en el modelado de la conducta del usuario. Aprovechar las lecciones de los supervivientes del crack de las dot com e identificar las mejores soluciones de software social mediante la observación de actividades de los usuarios comparables al caso que nos interesa. Una vez identificadas, modelizarlas por medio de las nuevas tecnologías emergentes.
En otras palabras, creo que todo esto de la web 2.0 gira en torno a aprender cómo diseñar sistemas que modelicen el comportamiento de los usuarios. Esta idea es similar a otras precedentes al respecto, incluyendo la idea de O'Reilly de encauzar la inteligencia colectiva y la aportación de John Hagel, creación distribuida, colaborativa y acumulativa.
Lo de discutible en el título es más literal de lo que parece: para mí la web 2.0 sigue siendo "cosa", algo poco claro y necesitado de discusión desapasionada. Si le echáis un bis a la presentación y el post, es posible que coincidáis conmigo respecto a algún punto sospechoso, demasiado arriesgado o incluso ligeramente vaporoso. En eso no quiero condicionar así que, si os animáis, los comentarios están para meterle cera al tema.

technorati tags: web2.0, web 2.0, collectiveintelligence, inteligenciacolectiva,

lunes, noviembre 21, 2005

del.icio.us tagrolls

Puede que los pocos pero selectos individuos que leéis este blog desde hace un tiempo os sorprendiérais el viernes cuando en el marco lateral apareció de improviso mi tag cloud de del.icio.us.

Aún a riesgo de ponerme demasiado didáctico, pero por si alguno no lo conoce, del.icio.us es un servicio web elegantísimamente diseñado que te permite almacenar tus bookmarks, favoritos, o como quieras llamarlos, de forma cómoda y accesible. Esta idea, aparentemente simple, ha resultado toda una revolución para los que nos gusta referenciar las páginas web que vamos visitando, tanto por el hecho de estar en web e independizarnos de cualquier forma local de archivar nuestras referencias, como por usar tags para gestionar nuestras entradas.

La referencia, aquí. En esta entrada trato el tema un poco más en profundidad. En cualquier caso, me gustaría rescatar la impresión que me producen los tag clouds, de ver el cuadro general un poco como el primo tonto de Ozymandias.

En este caso, el "primo tonto de Ozymandias" (porque todos sabemos que Ozymandias es el hombre más inteligente de la tierra), eres tú, lector. De un vistazo, puedes ver buena parte de lo que estoy mirando en internet últimamente y a qué le dedico más o menos atención. En mi caso, se puede ver lo que he creído que merecía la pena referenciar. En el caso de otros, pues depende de cómo hayan pensado a del.icio.us.

Tan gratamente impresionado me quedé con esto de las tag clouds, que decidí aplicarlas a mi curro (sociólogo, por si alguno no ha leído post como éste, con todo mi amor a mis "primos"). Tanto es así, que acabo de aplicar el concepto por primera vez al informe de una investigación. No tengo constancia de que se haya hecho más veces, pero o mucho me equivoco o va a ser un recurso cada vez más frecuente en mi sector. Así ha quedado (aunque, por buenas prácticas, no revelo tema ni cliente :) ):



El otro aspecto que me llama la atención, y del que me barrunto que sólo hemos visto el principio, es la adquisición por parte de los blogs de nuevas características vía mashup con otros servicios web. Si aquí véis una incorporación de del.icio.us, en el blog de Enrique Dans podéis observar la incorporación de un mashup de flickr, y la gente de Tagzania nos explican cómo colocar un mapa de los que se pueden construir con tagzania a partir de Googlemaps (un mashup de un mashup, por así decirlo).

Yo sigo empleando el término "cosa 2.0". No tengo claro si se va a generalizar o no la incorporación de mashups en los blogs actuales. En cualquier caso, me tienta pensar que esta faceta de la cosa 2.0 de "servicios débilmente unidos" termine por ayudar a los usuarios a pensar en sus aplicaciones de aún más distintas de lo que ya lo hacen, a dejar a un lado las categorías estancas de plataformas web para llegar a configuraciones de mis servicios web que se vayan adaptando a lo que tengo en la cabeza y no al revés.

blogs adquiriendo facetas de mashups: del.icio.us, flickr, googlemaps...

viernes, noviembre 18, 2005

para mañana

Está el tema malo, y no sé qué tiempo voy a tener, pero quisiera cubrir el plugin de del.icio.us que podéis ver en el marco lateral desde hoy y esta tremenda encuesta de la fundación BBVA sobre internet que han referenciado en merodeando y dirson.

La verdad es que la tengo ganas. Otra vez, se trata de analizar la realidad social (española) de Internet... desde fuera. Para qué vamos a probar otra cosa, con lo bien (?!) que funcionan las encuestas a pie de calle o telefónicas.

Como mínimo, os dejo con estas dos perlas impresionantes:


O esta comparación peregrina, que en mi dialecto se identifica con la duda ontológica: "qué tendrán que ver los cojones con comer trigo"... a pesar de que "mail" y "e-mail" se parezcan XDXDXDXD

jueves, noviembre 17, 2005

tagging social y profesional


Llevo unos días atacado y lo que me queda, así que toca ser telegráfico.

Uno de los aspectos más relevantes de la cosa 2.0 es el concepto de folksonomías, algo que traté en su momento y sobre lo que voy a volver a buen seguro.

Por más que sea un concepto apasionante, una posible herramienta básica en el desarrollo de la inteligencia colectiva, me parece que está muy arriba en la brecha digital. Aunque sea un concepto simple, hay que dar dos saltos conceptuales:
  • Aplicarlas en provecho propio
  • Usar sólas o en combinación las etiquetas ajenas
De esta manera, sólo quien esté muy adentrado en el lado bueno de la brecha digital tiene posibilidades reales de sacarle partido, porque supone implícitamente una serie de conocimientos previos y, sobre todo, de experiencias de lo que es buscar, usar, construir y compartir información en internet.

Las aplicaciones y plataformas que están ofreciendo servicios de tagging están experimentando un crecimiento muy rápido... pero, aún sin datos completamente sólidos, diría que sólo entre los usuarios consolidados de internet. Incluso parece razonable asumir que no todos los usuarios de flickr sacan provecho a las tags, sino sólo su núcleo central de power users.

Lo que me parece especialmente interesante, al hilo de lo apuntado arriba, es que la popularización del tagging puede ser un buen indicador del avance respecto a la brecha digital (no el único, claro, pero sí comparado entre países, entre motivos de acceso a internet, etc.)

En cualquier caso, lo que ha terminado de atrapar mi atención es el hecho de que soy un taggero profesional. Si las folksonomías son el resultado del uso colectivo, incontrolado y útil por mera acumulación de usuarios y tiempo de las etiquetas, existen desde hace 10 años una serie de herramientas CAQDA (Computer Aided Qualitative Data Analysis) que se sirven de una versión mucho más controlada y precisa del principio de etiquetar: el usuario, un analista académico o profesional, reúne sus datos no estructurados (textos -entrevistas, diarios de campo, lo que sea-, fotos -material de campo o archivo, radiografías, lo que sea), y les aplica por medio de la aplicación de su elección distintos códigos para describir el significado específico que para él tiene cada elemento de sus datos. Cuando se lleva un tiempo acumulando trabajo con una herramienta CAQDA, la diferencia de resultados es dramática.

Imaginaos lo que es buscar entre mis cientos de informantes de una base de conocimiento de más de 700000 palabras (algo más de 1500 folios a un espacio), las declaraciones de mis informantes (sin hogar, por poner un caso) conectadas con el uso de los animales de compañía como recurso emocional y como fuente de ingresos. A pelo, artesanalmente, como que no. Estas y otras cientos de preguntas que le hago a mi base de conocimiento cuando analizo, tienen respuesta (ordenada, manejable) en unos segundos.

Una imagen vale más que mil palabras, dicen. Pulsad sobre la imagen para ver la captura a tamaño real.

miércoles, noviembre 16, 2005

Desmitificar las bondades de Skype

Estais muchos como locos con lo de Skype. Desde mi desconocimiento del producto (ni lo he instalado, ni lo he visto funcionando, ni tengo intencion de hacerlo) voy a detallaros algunas caracteristicas tecnicas y/o funcionales que lo afean a priori.

En primer lugar, no le veo el problema a la transmisión asíncrona de archivos.

Me explico: salvo el streaming de audio o video, la transmisión de archivos siempre es asíncrona, ya que hasta que no tienes el archivo completo nada puedes hacer con el (algunos formatos han superado este escollo, como el pdf, que puedes descargar de una web según vas leyendo las primeras paginas). Podríamos decir, casi mejor, que la transmisión de archivos es un hecho atómico: o lo transmites todo o no has transmitido nada (en la mayoría de los casos).

De esta forma, ¿qué más me da ver la barrita en el Skype o el MSN o lo que sea que mandarlo por correo y que el me diga cuando le ha llegado? ¿Que me aporta? ¿Que se cuando le ha llegado? Si estoy en conferencia de texto o voz con el destinatario, ya me lo dirá: 'Como mola esto que me has mandado' '¿Por que me envias fotos tuyas desnudo?'


El problema es el de siempre: Nos puede el ansia y tenemos que estar preguntando cada cinco minutos '¿Te ha llegado?' '¿Te ha llegado?'


Ese hecho es una muestra más de la desconfianza en las nuevas tecnologías, de nuestra mentalidad atrasada. En realidad es el caso típico del que manda un mail y llama por teléfono para confirmar su recepción y lectura.


Por otro lado, cosas que convierten a Skype en un prometedor joven de talento que tendrá una muerte prematura:
1º La curva de aprendizaje. No aporta nada que los usuarios entiendan como innovador o necesario, y les obliga a instalar y aprender a usar un nuevo producto. Respecto a que es mejor y mucho más rápido: El sentir general es que MSN es lento por que las conexiones a Internet son lentas. Su unica baza es jugar habilmente sus cartas de 'no ser de Microsoft'. Respecto a lo de conectar con NAT, Firewalls y demas, MSN puede tambien.
2º El hecho de que Skype guarde solo localmente mi lista de contactos lo elimina de mi lista de candidatos: una de las cosas que mas me gusta de MSN es que allá donde vaya, instalo MSN o uso su versión Web y tengo todos mis contactos disponibles.
3º No puedo evitar convertirme en un supernodo, con lo que mi maquina queda sobrecargada gestionando otras conexiones.

Si quereis mas info sobre Skipe y su protocolo podeis leerla aqui http://www1.cs.columbia.edu/~library/TR-repository/reports/reports-2004/cucs-039-04.pdf.

En definitiva, la unica innovacion que aporta Skype al panorama de IM es que se basa en la tecnologia P2P de Kazaa. Este detalle es transparente para todos los usuarios.

Es importante no confundir 'innovacion' con 'optimizacion'.

Un producto que presenta caracteristicas innovadoras puede desbancar al competidor dominante, siempre que las innovaciones sean acogidas por el publico.

Un producto que tan solo ha optimizado algunos aspectos de su funcionamiento, lo tiene muy dificil para desbancar a nadie. Sobre todo cuando la medicion objetiva de esta optimizacion por parte del usuario es dificil, ya que se ve velada por factores externos como la velocidad del ordenador, la velocidad de la conexion a internet, la pericia del usuario, la distancia geografica... ya sean estos factores agentes reales o tan solo mitos...

martes, noviembre 15, 2005

Velocidad de transferencia de archivos en Skype

Desde hace muy poco tiempo (tan sólo desde webdosbeta) uso skype como sistema de mensajería además de aplicación de VoIP. Le encontré dos ventajas: a) la velocidad y b) la posibilidad de continuar un chat, marcando la opción de elegir Tema del chat y, a continuación, activando la chincheta que sirve para "marcar" (dar continuidad) al chat.


A alguno le gustará también el hecho de que todo skype funciona a través del puerto 80 y, por lo tanto, lo de funcionar detrás de un firewall también se aplica.

Cuando no hay un firewall por medio, he comprobado que la velocidad de transferencia de archivos es bastante decente. Esto me ilusionó bastante, porque si funcionara en todos los casos gozaría de una ventaja adicional: no depender del email cuando estás en contacto sincronizado con otros usuarios para intercambiar los archivos de los que estés hablando. Si lo pensáis, tiene cierta lógica: el intercambio de archivos se hace sobre un medio asíncrono (el email) mientras la comunicación es en tiempo real:
"¿Te ha llegado ya?"
"No"
"¿Te ha llegado ya?"
"No"
Como niños de viaje en coche, vamos.

Desgraciadamente, por algún motivo que todavía se me escapa los creadores de Skype decidieron no gestionar la transferencia de archivos de forma semejante a la de voz. De esta manera, si estás detrás de un firewall o NAT te puedes encontrar con la bonita sorpresa de que tu transferencia sea delegada. Esto significa que, en vez de tunelarse directamente, los archivos se transferirán pasando por otros elementos de la red Skype. Para que esto funcione, el límite de velocidad se establecerá en 1Kb/s. En su defensa, arguyen que una transferencia lenta es mejor que ninguna, y lo mismo hay un escollo técnico que se me escapa para esta diferencia.

Pero es una pena. Sería todo un salto que la transferencia de archivos pudiera acompañar el ritmo de una conversación sincronizada.
Eso sí, como efecto colateral he comprobado que una cuenta Skype puede estar conectada por varios clientes a la vez. Si eso ocurre, y uno de los clientes acepta una transferencia de archivos, el archivo se transfiere a la vez a todos los clientes. Esto ofrece algunas posibilidades bastante interesantes, ¿no creéis?

lunes, noviembre 14, 2005

Autoperturbación

Por cambiar de tercio y empezar la semana ligero.

Todos sabemos lo que es la autosatisfacción (como dirían académica palanca, "el frotar se va a acabar"). Sin embargo, un hecho de la naturaleza menos conocido es la autoperturbación, o la acción de un ser vivo para provocarse molestia a sí mismo y no placer. Lo mismo los etólogos lo tienen más que sabido pero para mí, pobre sociólogo, es una novedad que me ha dejado intranquilo.

Véase


De todas maneras, un video vale más que mil fotos: la situación.

killer portable device(s)


La futurología me da bastante yuyu, entre otras cosas, porque es una de las múltiples ocupaciones de mis primos. A partir de algunos artículos e informaciones fragmentarias de los media y, sobre todo, de lo que dicen otros futurólogos, hacen predicciones que o bien son très épatant (y con suerte nadie los recuerda, gracias a la caducidad buscada de dichas intervenciones) o bien son como las de la pitonisa de Delfos, tan generalistas que siempre van a acertar a menos que no haya futuro: "Triunfaras... no... caerás... en... batalla".

Lo que me produce un acongoje superable es partir de algunas de las tendencias actuales y pensar a corto plazo en sus desarrollos. De ahí el plural en el título.

Podemos comenzar con el concepto de killer application. Estaríamos hablando de aquellas aplicaciones que ponen amplios sectores cabeza abajo. Como indican en el artículo, "aplicaciones tan útiles que serán suficientes por sí solas para que los usuarios adquieran un dispositivo o sistema operativo específico, aunque sólo sea para hacerlas funcionar". Una killer application puede mantener en pie una plataforma minoritaria, como ha ocurrido en España con Apple y la autoedición.

Extendiendo un poco el concepto, una killer application dispara la adopción de un dispositivo y/o tecnología, tal y como ocurrió con los PC, la ofimática, los clientes de correo y los navegadores. Dando la vuelta a la cuestión, podríamos llegar al concepto de killer device, un dispositivo TIC que produzca cambios fundamentales en grandes sectores de la economía y la sociedad.

El PC es un killer device, y también lo es el teléfono móvil. No lo son ni las PDAs ni los Tablet PC.

Un killer device necesitó en su momento de una killer application. Al primero le pueden aparecer más killer applications después de consolidarse, y lo que cambiaría entonces sería la percepción y valor del dispositivo. Un buen ejemplo ha sido la generalización del acceso a Internet: el PC, de ser un dispositivo ofimático ha pasado a ser, también, una puerta de acceso a internet y el email.

En Zonalatina incluyen un buen artículo sobre los roles de la adopción de una innovación tecnológica. Por este orden, serían: innovador, adoptador temprano (early adopter), mayoría temprana, mayoría tardía, furgón de cola. Lo malo es que este modelo funciona si el producto alcanza a un rango de usuarios suficiente.

La PDA se quedó a medio camino entre los early adopters y una mayoría temprana porque careció de nada parecido a una killer application. No lo consiguió con su software central (gestión de información personal, calendario, agenda, tareas), ni con sucesivos intentos, tales como la gestión personal de finanzas. Ni la tecnología de la pantalla ni su tamaño eran adecuados para su popularización como dispositivo de lectura. Los usuarios de PDA adquirimos nuestros cacharritos antes por las características de la plataforma en sí, por la idea, que por un uso claro y específico.

De momento le está ocurriendo algo parecido a los Tablet PC, y encima a menor escala. Si habéis estado recientemente en reuniones de cierto nivel, habréis visto como cuando era oportuno salían a relucir preciosos juguetes, digo portátiles, como los Qosmio o sus primos pequeñitos, los VAIO tx. En mis reuniones, el único Tablet presente era mi fiel Toshiba Portégé M200, y eso que es más barato que los dos ejemplos anteriores y permite más posibilidades.

En su momento, lo que me enamoró de Tablet PC fue un concepto y no un uso específico y rupturista. Me cautivó el concepto de pen computing más allá de los límites de las PDA, la posibilidad de usar un formato vertical u horizontal de pantalla y manipularla con mis manos, la multiplicación por dos de mis posibilidades de interacción con la máquina (teclado y ratón + lápiz y voz). Quería el concepto, no un uso específico, y me sabía a medio camino entre innovador y early adopter en el contexto español. Sólo la firme apuesta de Microsoft me hace confiar en que no he apostado, a mi vez, por un caballo sin fuelle, que se va a quedar a mitad de camino.

Como yo, otros early adopters se preguntan por la killer application que va a lanzar a la popularidad a sus cacharros queridos. En el caso de Tablet, una killer application sería tanto un tipo de soft preexistente dramáticamente mejorado por medio de la tinta electrónica (mindmanager, por ejemplo, está en buen camino), como un tipo de producto completamente nuevo (Onenote sería el mejor ejemplo de esto, y es posible que las mejoras que van a introducir en Office 12 para él terminen de catapultarlo).

JKontheRun tampoco encuentra una respuesta definitiva a esto. Y puestos a ser futurólogo me apunto a su carro, a una apuesta que tiene desde hace años y con la que coincido desde que conocí la existencia de OQO en 2002. Así
Maybe the killer Tablet PC app is not a program at all. Perhaps we should be discussing what the killer "feature" for Tablet PCs might be.
En otras palabras, quizás el salto a las manos de una "mayoría temprana" esté, precisamente, en un formato mini, en los modelos de handtop que intel prepara para el año que viene. Una máquina poco más pesada que una PDA y que arranca igual de rápido, pero con una superficie real de pantalla más decente y toda la potencia de un PC. Una máquina que pueda sostener con comodidad con una mano pero que no se me quede corta.

Hay algunos que pretenden enterrar a Tablet PC. Si algunos usuarios de Tablet no estamos equivocados, los rumores de su muerte fueron precipitados.

viernes, noviembre 11, 2005

web 1.0, web 2.0 y sociología

Una de las cosas que más gracia me hace del artículo de O'Reilly es su lista de 1.0 Vs 2.0, un "antes y después" como las fotos de operaciones de estética o tratamientos capilares. No es que esté de acuerdo con todos los items, pero es innegable que tienen un alto valor expresivo. Tanto es así, que voy a ampliarla provisionalmente:

Esta es la parte blanca. Los conceptos tienen que acompañar y servir a la realidad, no describirla con calzador. Hace 10 años los conceptos de la columna de la derecha (una predicción entre tantas) no eran muy discutibles, y ahora tampoco. Antes era imprevisible la evolución y andábamos a tientas. Hoy han quedado completamente atrás.

La parte negra: mi "primo" profesional, el sociólogo/opinólogo. El que habla de todo lo divino y lo humano. El que habla, y habla, y habla, y habla, y habla, y habla, y habla, y habla, y habla, y habla, y habla, y habla,... como el conejito de duracell, solo que sus pilas son su sueldo de funcionario y/o su red social que le engancha perennemente a diversas tertulias mediáticas o puesto avanzado (por decir algo) de comentarista social. Sí, ése que es capaz de decir cualquier cosa, y cuanto más epatante, mejor. Ese que para explicar las realidades sociológicas de Internet deja con la boca abierta a sus (incautos) alumnos, diciendo cualquier barbaridad sobre los cyborgs mientras pone diapos con capturas de páginas warras.
La parte blanca es el devenir natural de los tiempos. Pero a la parte negra se le ha pasado el arroz. Esos primos míos jamás se molestaron en participar en Internet, en indagar más allá de un mariposeo ocasional. A estos parientes, el ordenador les daba alergia. Pero tenían que ser fashion, y se pusieron a citar como posesos a Castells (y siguen haciéndolo, citando a libros que hablan de la Red de hace 7 años como poco), a vomitar las buzzwords que pillaban en esa vanguardia de Internet que es el Ciberpaís (para ellos, pienso que cumple una necesaria labor divulgativa a toro pasao), y a hacer lo que saben hacer bien: hablar, y hablar, y hablar... metiendo todas las buzzwords posibles.

El problema era de origen: ni les gustaba ni les gusta el ordenador. Pillaban todo tarde, cuando llegaba el buzzword específico a los media, y lo pillaban regurgitado de los media en vez de experimentarlo directamente. Seguían viviendo no sólo de, sino en los media: a su ritmo, a un ritmo varias veces inferior al de Internet. Y el gap ha seguido aumentando desde que el primero de mis primos, allá por el 99, habló tímidamente de esa novedad(XDXD) de los chats.

En el mundo real, fuera de sus auditorios cautivos, a mis primos casi nadie les toma en serio. El cachondeillo es el tono general, y no sin razón. Lo malo es que son los miembros más visibles del gremio, y contaminan la imagen de la profesión.

Como siguen leyendo sus periódicos y viendo sus programitas de la 2 para entender Internet, van a seguir hablando del jodío Cyborg durante unos años más. Cada vez más en el vacío. Cada vez más entre ellos. Mientras, el mundo real sigue girando a una velocidad cada vez mayor.

Por cierto, no hablo de los sociólogos. Hablo de esos sociólogos. Sí, ellos saben de quién hablo... saludetesss XDXDXD

jueves, noviembre 10, 2005

La cosa 2.0 y Bill Gates: vienen cambios

El 26 de mayo de 1995, Bill Gates advertía a los directivos de su compañía en un memorándum más adelante famoso, The Internet Tidal Wave, que el rápido aumento del acceso a Internet desde los PC suponía un cambio tan importante como lo había sido el propio nacimiento del IBM PC, y que la empresa tenía que dar la máxima prioridad a la adaptación a este hecho. Como se indica en un informe de marketing de un año después, "Winning @ Internet Content Marketing Plan"


El crecimiento de la Internet ha sido impulsado por el éxito de una serie de 'plataformas' que [...] ofrecen una serie de APIs a los ISV para que desarrollen sobre ellos. Con mucho, la plataforma más exitosa hasta la fecha ha sido Netscape, con Navigator como navegador y Suite Spot en el servidor. La amenaza crítica para Microsoft reside en el potencial que tiene esta plataforma para abstraer la API Win32. Por ejemplo, si Netscape sigue logrando que más y más ISV desarrollen aplicaciones para sus APIs cliente/servidor, estas APIs terminarían por ser las más relevantes del mercado, poniendo en cuestión a Win32.

El resto es historia. A la luz de lo ocurrido, es evidente que Microsoft se estaba tomando completamente en serio una amenaza no contra su posición de dominio, sino contra su mera supervivencia. Otra cosa es lo que los tribunales estadounidenses determinaron como prácticas contra la competencia.

Hace dos días llegó a Associated Press un email de contenido comparable al del 26 de Mayo de 1995 (Fuentes: Breitbart, Businessweek). En él, el chairman de Microsoft urgía a los directivos de su empresa a "actuar rápida y decisivamente" para lograr mayores avances en los productos de software y servicios basados en Internet, para "lograr el predominio sobre competidores formidables". Y no dejó de advertir que la compañía "debe ser juiciosa a la hora de definir la tecnología adecuada que sirva a la audiencia adecuada". "Esta ola de servicios va a ser muy disruptiva".

"Gates comparó el ímpetu con el que está llegando esta ola de servicios con los cambios que vivió hace una década". "Tenemos el cambio encima".

Al igual que en 1995, Microsoft se ha apresurado a ofrecer un rango de productos comparable al de la amenazadora competencia. Estas comparaciones que hace el propio Gates me llevan a pensar que lo que no está en peligro es la supremacía, sino la supervivencia de la Microsoft que conocemos. En aquella época, el timing fue perfecto y la oferta inicial del IE y su integración posterior en Windows98 decidió drásticamente lo que acabó siendo un juego de suma cero.

Este escenario no parece fácil que se repita.

Pero todos los que se están lanzando a la arena de la nueva generación de aplicaciones y servicios que me resisto a dejar de llamar web 2.0, están jugando desde unas premisas muy semejantes a las de Netscape en su día: centrarse en el navegador y no en el sistema operativo.

El año que viene sale Windows Vista.

Cuando el río suena, agua lleva: parece que esto de la cosa 2.0 no va a ser humo.

¿O sí?

miércoles, noviembre 09, 2005

algunas reflexiones sobre el laptop de 100$ de Negroponte

Me apetece hablar del tema después de que sea noticia y antes de que vuelva a serlo en Túnez el 17 de noviembre: World Summit on the Information Society. En este encuentro veremos el primer prototipo del mayor proyecto para superar la brecha digital propuesto hasta hoy. Para los que no lo conozcáis, ésta es su web y en consumer han publicado una clara infografía al respecto. Pangea nos ofrece otro interesante artículo de fondo sobre la cuestión.

Para empezar, el nombre correcto del proyecto: One Laptop Per Child, OPLC. Apunta muy eficientemente al objetivo del proyecto: que los niños de los países en vías de desarrollo sean mañana adultos en el lado bueno de la brecha digital.

La barrera técnica más importante es, probablemente, la pantalla. Por diferentes motivos, el modelo final debería estar basado en e-ink (un ejemplo real, el sony librié). Sin embargo, el refresco de estos displays no es todavía lo suficientemente rápido, por lo que parece que se optará por una pantalla LCD que sacrificará claridad de imagen a cambio de consumo de energía. Aquí tenemos una buena referencia a esta cuestión y otras relacionadas con OPLC, si bien aquí afirman que e-ink proporcionará un display derivado de sus tecnologías de tinta electrónica.

Otro aspecto que queda sin resolver es la reacción de la industria: si se puede llegar a vender un portátil (sin beneficios, dicho sea de paso) por 100$, ¿Cómo se justificaría la política de precios actual o, lo que es peor, la potencia y características que incluyen los laptops actuales, mucho más allá de las necesidades del usuario medio? Si yo fuera uno de los vendors principales de portátiles, me cuidaría mucho de tratar de que OLPC fracasara o, si no es posible, de distinguirlo de mis productos a base de ningunear su imagen.

Estética aparte, el dispositivo es un prodigio de funcionalidad: es un laptop, un ebook, un tablet, según lo que el estudiante necesite en cada momento... y lo que marquen las necesidades culturales (p.e., para china el modo tablet presenta ciertas ventajas para introducir ideogramas). En cualquier caso, para sintetizar: disminuirían drásticamente los costes de libros, el estudiante accedería a contenidos mucho más allá de los libros de texto (e.g., wikipedia), y no sólo accedería a los contenidos educativos sino que podría participar en ellos.


Esto nos llevaría a dos límites: por un lado, la utilidad del OPLC será limitada si no se desarrolla software y contenidos localizados, adaptados a las necesidades locales. Por otro, el dispositivo es sólo una de las barreras de adaptación que han de superarse. El sistema educativo ha de integrar positivamente al OPLC + soft local formando a los profesores y dotando de mantenimiento adecuado al parque de dispositivos. De hecho, me parece razonable asumir que es imprescindible que se lleven a cabo estudios locales en profundidad antes, durante y después de la implantación de los OPLC para mejorar las posibilidades de éxito y que no se convierta en otra iniciativa de superación de la brecha digital que fracasa porque se base únicamente comprar equipos y no en adaptarse a las condiciones y necesidades locales. Ya sé que con esto barro para casa, pero creo que es de difícil discusión.

En cualquier caso, pienso que es una idea magnífica y con visos de triunfar si nadie lo impide: aún cuando su integración en el sistema y método educativo fuera lenta, las rápidas mentes de los niños podrían sacar partido a un, digamos P2P learning, en el que los niños aprenderían también por sí mismos y entre ellos a sacar partido a lo que inicialmente sería un libro electrónico, escondiendo bajo esa máscara un buen número de posibilidades diferentes para aprender a aprender.

Como a otros, me gustaría pagar 250$ por un bicho asi para mi niña dentro de 2-3 años: pagar ía el de mi nena, el de otro niño fuera de la rica Europa y el transporte de ambos. Lo que pasa es que no acabo de ver cómo encaja esto en el juego real de nuestro sistema capitalista, cómo se puede llegar a colar una iniciativa tan desequilibrante, tan ajena a los juegos y calendarios de las grandes de las TIC. Me da miedo, es demasiado bonito...

martes, noviembre 08, 2005

De contenido y visibilidad

Gracias a Google Alerts, he hecho esta noche una pequeña incursión en el siglo XX. Para mi sorpresa, me he dado cuenta de que hay quien todavía se gana la vida con algunos principios del pasado y ofrece sus servicios de consultoría y formación a empresas que se encuentran ancladas en ese siglo del despertar de internet.

La incursión la he hecho a partir de una interesante página sobre Evaluación de fuentes de información. Esta página contiene un total de 45 enlaces a diferentes páginas web en las que se establecen criterios de evaluación de los contenidos web y se ofrecen consejos para optimizar el impacto en un público potencial.

Algunas de estas páginas están poco actualizadas (se han quedado, efectivamente, ancladas en el siglo XX, con fecha de última modificación anterior al 2000). Sin embargo, hay otras que siguen vivitas y coleando. Un buen ejemplo lo constituye Stanford Web Credibility Research, que forma parte del Laboratorio de Tecnología Persuasiva de Stanford. Suena bien, ¿eh? Que no se vaya a pensar alguien que no se puede persuadir al personal con una página que reúna todas las cualidades. Lo que ocurre es que, quizá, nadie llegue a tu página. Porque sí, amigos, resulta que entre las 10 guidelines ofrecidas por Stanford para garantizar la credibilidad de tu página web no se encuentra la popularidad. Es decir, que no se da importancia al ranking de Google, ni al posicionamiento en los diferentes buscadores, ni a la publicidad que hagan de ti en otros sitios web, etc. En definitiva, que la credibilidad no tiene relación alguna con la visibilidad de la página. ¿No saben acaso en qué consiste el éxito de la publicidad? ¿No saben que cuantas más veces se repite una mentira (por poner un ejemplo), más verdadera es?

Pero, ojo: ¿significa esto que los de Stanford o cualquier otro no saben de estas cosas? En absoluto. De hecho, fijaos lo bien posicionados que están los tíos en el pagerank de credibility:



domingo, noviembre 06, 2005

me dejé algo clave sobre longitud y latitud

¿Cómo buscarlas?

Por una parte, Luistxo ha dejado un post muy claro y completo en mapamovil.

Por otra, si tenéis instalado Google Earth, es bastante posible que encontréis el lugar que buscáis con el buscador interno, o bien moviéndoos un poco por el mapa a partir de un lugar cercano al buscado.

Encontrado lo que queréis, tenéis que pulsar en el icono de Añadir marca de lugar (o Ctrl + n) para señalar vuestro punto. Cuando esté almacenado, la solución más rápida es pulsar encima de él con el botón derecho del ratón y escoger Copiar.


Pegamos el contenido del portapapeles en cualquier editor de texto y nos sale algo así:

<?xml version="1.0" encoding="UTF-8"?>
<kml xmlns="http://earth.google.com/kml/2.0">
<Placemark>
<name>Estepona</name>
<LookAt>
<longitude>-5.163985465527095</longitude>
<latitude>36.41027791355811</latitude>
<range>16256.95624416097</range>
<tilt>4.378295292100093e-011</tilt>
<heading>-2.197704397113441</heading>
</LookAt>
<styleUrl>root://styleMaps#default+nicon=0x307+hicon=0x317</styleUrl>
<Point>
<coordinates>-5.150901372089365,36.43010141072142,0</coordinates>
</Point>
</Placemark>
</kml>


Es obvio de donde podemos sacar nuestros tags geo:lat y geo:lon

Doble mashup: Flickr con Google maps y con Google Earth

Ayer estuve dando vueltas con Pixel sobre distintos aspectos de Flickr que yo desconocía y que me han dejado embobado.

Una de las características de muchas aplicaciones 2.0 es su interfaz simple, cuando no minimalista. La lógica está clara: ir al grano si te interesa usar lo que ofrecen. Sin embargo, a veces puedes pagar el precio de no conocer todo lo que puedes obtener.

Al grano: empezamos buscando el tag geotagged. Este tag va acompañado de otros dos tags a partir de los que se construye la geolocalización de las fotos de flickr: geo:lat=##.###### y geo:lon=##.######. Estos dos tags suministran la información que necesitan dos mashups que hacen lo mismo de distinta forma:
  • Flickrfly for GoogleEarth: a partir de los tags de geolocalización, este mashup llama a Google Earth para volar hasta el lugar de la forma tan espectacular a la que Google earth nos ha acostumbrado. El creador del sitio ha aprovechado la API de Googlemaps de otras formas creativas. Para introducir una llamada a Flickrfly desde vuestra foto, sólo tenéis que introducir una línea así en el comentario de la foto:
    <a href="http://www.roblog.com/flickrfly.php">Fly to this
    location</a>
    (Requires <a href="http://earth.google.com/">Google Earth</a>)

  • Geobloggers.com: el creador aprovecha la API de Googlemaps para lanzar un mapa sobre el que sitúa una versión reducida de vuestra foto. Para incluir una llamada a geobloggers desde vuestra foto, no tenéis más que introducir esta línea en el comentario de vuestras fotos:
    <a href="http://www.geobloggers.com/">GeoTagged</a>

    Geobloggers te ofrece un pequeño menú en el hiperenlace Toggle Commands que te permite, entre otras opciones, consultar qué otras fotos de Flickr han sido geolocalizadas con ayuda de Geobloggers.

La experiencia, en cualquier caso, es alucinante: las fotografías dejan de ser una imagen deslocalizada, pasan a encajar en un rincón del mundo (para ver esto, pulsad sobre el link geottaged desde la página de la fotografía).

Y por cierto: esto no tiene nada de Gran Hermano (en el sentido de Orwell): decides si quieres que tus fotografías estén geolocalizadas, y cómo.

viernes, noviembre 04, 2005

tags y autoridad (intelectual)

Este artículo me sumerge más en una de las múltiples dudas 2.0.

El autor comienza comparando el filtro de autoridad para una fuente de conocimiento con los resultados de la popularización del tagging (e.g., technorati para los blogueros). Coloca, frente a frente, dos antónimos que coexisten hoy:
  • una situación previa en la que los individuos confian en un sistema (académico) de asignación de autoridad y solvencia para filtrar las fuentes relevantes de cara a solventar una necesidad de información/conocimiento dada.
  • una innovación sin precedentes, sólo posible por una solución tecnológica pensada de la forma adecuada: un número enorme de usuarios empleando tags continuamente para clasificar contenidos propios o ajenos. En suma, una hiperbolización de la situación de sobrecarga de información inherente a Internet.
Así las cosas, el panorama no sería muy halagueño. Los blogueros, por ejemplo, sacrificarían la eficiencia para la obtención de información y conocimiento a cambio de participar en una conversación constante, imposiblemente variada, con un grupo de pares lo suficientemente variado como para que todos puedan crecer y mantener el ritmo.

El autor propone como solución a wikipedia, como otro hijo de la inteligencia colectiva con propósito distinto y que reúne lo mejor de los dos mundos. Si las nubes de tags permiten contemplar el alegre alboroto de la blogosfera como si fueramos Ozymandias delante de su muro de monitores, Wikipedia soluciona una parte de nuestras necesidades de información solvente merced a la autoridad que le confiere la combinación de "arquitectura de la información, diseño visual, gobierno, el propio nombre de Wikipedia, un amplio consenso sobre su honestidad intelectual y el poder de la inteligencia colectiva".

No es el recurso definitivo de información. No es perfecto. Pero en los dos últimos años no ha hecho otra cosa que mejorar.

La crítica tradicionalista hacia la wikipedia (trolls y amateurs como amenazas permanentes a la calidad de las entradas), deja a un lado la falibilidad de fuentes consolidadas y, en general, las fuentes de sesgo (subjetividad, perspectiva, intereses) presentes en toda fuente de información. Esta crítica arrecia cuanto mayor es el ritmo de cambio de las tecnologías disruptivas y, a la vez, se vislumbran amenazas para la fuente de autoridad por autonomasia: la academia.

Sin embargo, el autor termina dejándose llevar por el vértigo: atribuye la autoridad de Wikipedia, su éxito como fuente de información, a una arquitectura tradicional de la información (con convenciones de diseño muy estrictas) y a la existencia del "Consejo de sabios" con Jimbo Wales a la cabeza.

¿Arquitectura tradicional de la información? ¿Me repita? ¿De un conjunto de conocimiento orgánico articulado a partir del concepto wiki?

¿Qué sería del Board of Trustees sin los core contributors ni la legión de participantes ocasionales?

Mi desencuentro con un artículo por lo demás magnífico culmina cuando mete en liza a Google y a It's the Findability, Stupid!. ¿Qué tendrán que ver los cojones con comer trigo? ¿Cómo se justifica comparar la "encuentrabilidad" de google con un tag cloud? ¿Cómo lleva el miedo intelectual a separar a wikipedia de los tagclouds como los resultados buenos y malos del software social?

Creo que Todos los casos de software social que están madurando en estos tiempos(?) de web 2.0 responden a un patrón único: todos son efectos de la mencionada inteligencia colectiva o, si se prefiere, son sinergias inéditas, a escala mundial, posibilitadas por tecnología bienpensada
que está madurando con rapidez.

Si necesito encontrar algo con rapidez, tiro de los buscadores modernos. Si necesito un punto de partida generalmente confiable, tiro de Wikipedia. Si quiero sorpresas, tiro del hilo de un tagcloud en del.icio.us. Si quiero hacer de Ozymandias en la blogosfera, abro el tag cloud de technorati. ´

De momento puedo hacer eso, y mucho más. Antes no lo podía hacer, y mañana podré hacer cosas imprevisibles si me sirvo de los resultados de la inteligencia colectiva cuando ésta se sirve de mí.

Tengo que parar. Me ha salido un post a borbotones. Demasiadas cuestiones a la vez. Demasiada confusión al estilo web 2.0. Y puede que el tipo tenga razón.

Vía You're it

(Technorati: Tagging)
(Me da un poco de pudor, pero... marcar con del.icio.us)

jueves, noviembre 03, 2005

Hoy: Tablet PC - Improvisación y flexibilidad

El final del taller de aplicación de Tablet PC como ayuda a la comunicación docente me ha deparado uno de esos momentos de satisfacción emocionada que vienen también para mantenerte en la brecha.

Si ayer introduje el concepto, los elementos básicos, la seguridad y algunos casos de uso de Tablet PC, hoy me he centrado en el uso de Tablet en el aula. Desde hace un par de años, soy un partidario firme del principio KISS (en webdosbeta, luistxo hizo lo propio). He planificado la introducción de Tablet PC primariamente a través de Windows Journal, conectando el Tablet a un proyector (e invirtiendo verticalmente la imagen para que el conferenciante no esté topando con la mano en la entrada de video), de manera que, en vez de usar diapositivas, lo que el docente usa son "pizarras predefinidas", con los elementos necesarios (imagen, texto digital o manuscrito, esquemas, etc.), listos para ser manipulados y anotados por medio de la tinta electrónica.

El taller ha transcurrido en general de forma bastante fluida. Si se supera el choque cognitivo que supone interaccionar con un portatil usando un lápiz además de con ratón y teclado, se llega rápidamente al terreno de la costumbre, del gesto "natural" con el lápiz entre los dedos.

El momento al que me refería al principio ha tenido lugar al final. He preguntado a los asistentes por el futuro, por la introducción práctica de Tablet PC en las aulas. Una de las participantes me ha comentado que puede tener buena acogida con los profesores que estén habituados a usar Powerpoint, pero que hay otros profesores que o no vinculan PC con aula o directamente están en el lado malo de la brecha digital. Otra participante ha aportado un matiz que me ha conmovido:
Pues precisamente yo no empleo Powerpoint porque suelo repartir documentación y usar bastante la pizarra, y Powerpoint me dificulta mucho salirme del camino que marcan las diapositivas. Esto me parece un salto, porque puedo adaptarme a lo que suceda en clase, improvisar igual que con la pizarra, pero con toda la potencia del PC.
No espero que los cambios ocurran de hoy para mañana. De hecho, entiendo que estamos en una etapa de transición/expectativas/escepticismo sobre Tablet PC (esto último, sobre todo entre los informáticos profesionales XD). 12/2006 a 12/2007 es el escenario de la Gran Batalla, el momento en el que se marcará la trayectoria de la informática personal en el próximo quinquenio, cuando aparezca Windows Vista y compita contra Linux, lo que le eche encima Google y hasta contra(?) Mac sobre intel. Vista es el espaldarazo definitivo de todas las tecnologías involucradas en Tablet PC. Es una apuesta económica y de prestigio demasiado fuerte. Si no ocurre ningún cataclismo TIC, el modelo Tablet PC dejará de ser cuestionado y pasará a ser una opción básica en la informática personal.

Y acabo. Tendré que meterme con las guerras Tablet en otro momento

miércoles, noviembre 02, 2005

Hoy: Tablet PC - intuición y extrañeza

Como avisé ayer, hoy he impartido la primera sesión del primer taller que se dá en la facultad de CC. Políticas y Sociología de la UCM sobre uso docente de Tablet PC.

No es la primera iniciativa de uso docente de Tablet PC que se da en territorio español (Iniciativa de Ariño: 1, 2, la segunda de un increíble contraste entre lo que se narra y el diseño absurdo de la página). Sin embargo, no me consta ningún otro uso como apoyo a la comunicación docente en el área de CC. Sociales en España. Un esquema del uso que se estaría proponiendo sería así:

El docente prepara su clase, "se lleva la pizarra bajo el brazo", da la clase, "se vuelve con la pizarra al despacho", analiza qué ha funcionado, qué no ha funcionado, aprovecha las improvisaciones que merecen la pena madurar y vuelta a empezar. Como dije, el objetivo es que se comprendan las posibilidades básicas de la plataforma para que el docente adapte dicha plataforma a su estilo y a sus contenidos.

Cuando empecé a emplear Tablet PC en clase, terminé por dar con una fórmula que me está funcionando bastante bien: llevo "las pizarras" (léase "transparencias") sin acabar, y las afino, subrayo o modifico cuando estoy hablando. Si a esto le sumamos que la capacidad de improvisar es igual a la de una pizarra física (se inserta una hoja en blanco y se escribe o pinta en ella), tenemos entre manos algunas ventajas muy sustanciales respecto al uso de un programa de presentación tipo Powerpoint.

La modificación y la improvisación son lo que más me atrae de todo este asunto. En vez de tener una estructura lineal de presentación que tengo que dejar a un lado ante las preguntas de un alumno o un excursus de cualquier tipo, adapto la presentación a lo que pasa. Puedo incorporar un esquema o parte de una noticia o post reciente de Internet, o empezar a pintar a partir de un tema emergente, o que los alumnos hagan otro tanto.

Los asistentes reaccionaron como esperaba, con cierta estrañeza al enfrentarse a sus Tablet PC. La mayoría de los usuarios no profesionales de PC se han formado en una GUI o interfaz gráfica, con teclado, ratón y el monitor enfrente de sus ojos, inmóvil. Enfrentarse a su entorno habitual, pero con un lápiz en vez de un ratón, es un salto intelectual nada despreciable. Si se superan ciertos prejuicios (curiosamente, por lo que he visto, más importantes cuanto mayor sea el conocimiento técnico del usuario), se cuenta con una ventaja fundamental: si llevamos 5, 10, 15 años con ordenadores en nuestras manos, llevamos más años aún con un lápiz entre los dedos.

Una preocupación que surgió: ¿cómo podemos reutilizar los materiales que hemos elaborado en powerpoint? -- Porque la cuestión es mejorar sin tener que reinventar la rueda -- y la respuesta era gradada: usar tinta-e sobre el powerpoint directamente, "imprimir" la presentación en una aplicación específica, windows journal, o arrastrar y soltar a ésta materiales de la presentación de powerpoint (y de otros tipos de documentos).

Mañana acaba el taller (repetido por la mañana el lunes y martes que viene). El tiempo dirá.

(technorati: )

"La proposicion de valor de web 2.0"

Comentarios a The Value Proposition of Web 2.0

El autor empieza dando caña:
Somos seres sociales. La necesidad de conectar comunicar eximente a nuestra naturaleza humana. El software social en que simplemente tecnología que permite la interacción y la comunicación.

El software social es una parte fundamental de los negocios orientados a web 2.0. La convergencia de software social es la combinación de los medios existentes con capacitadores tecnológicos. Esto fomentará la interacción entre usuarios y con la corporación.
A reglón seguido, cae en una falacia sokaliana (un uso indebido de terminología, conceptos o fórmulas científicas, aunque no tan basta como esta impresionante cita de Lacan. (el toro corresponde a la estructura de la mente de un neurótico :D :D :D)

1+n or 1 conversation x number of those in network = value

Dejando eso aparte, se puede entrever al autor salivando por la parte de explotación de la inteligencia colectiva, con asunciones tales como:
  • Los sitios web centrados en la generación de contenidos por los usuarios (intercast) crecen mucho más rápido tanto en tráfico como en contenidos que los media tradicionales, (además) con poco o ningún gasto en marketing.
  • Los contenidos generados por los usuarios disfrutan de una ventaja de 8 a 1 en clics [...] Vs. los contenidos "tradicionales".
Y el meollo:

Pero también se necesita... contexto y propósito.
Las redes sociales necesitan un contexto y un propósito para poder funcionar. Añadir foros o blogs no va a construir una comunidad de éxito por sí mismo. El secreto no es la tecnología, sino la alianza fructífera entre tecnología y comunidad. Esta amalgama de conocimiento mediático tradicional con nuevas herramientas y experiencia acerca de la tecnología permite construir una proposición de valor para la línea de deseo individual de cada usuario.
El artículo en su conjunto me ha resultado a la vez sugerente y confuso, con resonancias al marketing tradicional, terrenos cenagosos y sin embargo atracción creciente respecto a la dimensión social del engendro 2.0.

En otras palabras: un ejemplo muy ilustrativo de (la confusión en torno a) web 2.0

tagclouds.com

Una de las múltiples sorpresas de webdosbeta fue saber que alvy, sentado detrás mío, estaba escribiendo de forma artesana una nube de datos de lo que estaba pasando. Ya conocía las nubes de datos de Flickr y de del.icio.us.



Desde hace tiempo estaba dando vueltas a la idea de construir nubes de tags para usarlas en presentaciones (por ejemplo, para representar elementos de los discursos de mis informantes y su importancia). Lo encuentro revolucionario, entra por los ojos con una obviedad casi insultante. El "método manubrio" podía ser la solución para mis limitadas capacidades técnicas.

Dando tumbos, he dado con tagclouds.com. Es un mashup a partir del Content Analysis web service de Yahoo. Básicamente, le suministras el feed rss de la página que te interesa, lo almacenan en una BBDD MySQL, llaman al Content Analysis web service para que extraiga las palabras clave de los contenidos insertos en el rss y, en sus palabras, "usamos una función de escalado muy simple para que la plantilla css represente cada tag con un tamaño de fuente proporcional a su frecuencia de aparición.

Aquí podéis ver un ejemplo: folksonomías en del.icio.us.

Por cierto, con los tag clouds tengo la sensación de ser el primo tonto de Ozymandias (1, 2) cuando se ponía a mirar su pared de televisores para adivinar las tendencias del mercado. Qué metáfora más tremenda para nuestros tiempos, ¿no?

martes, noviembre 01, 2005

Mañana: Tablet PC

Mañana comienzo mi primer taller en Políticas y Sociología de la Complutense sobre uso de Tablet PC para ayuda a la comunicación docente.


Llevo fuertemente involucrado con el concepto Tablet PC desde unas referencias... uff, mi memoria... de CNET a las devcon 2001. Desde ese día era un early adopter en espíritu, hasta que a finales de 2004 adquirí un flamante toshiba portégé m200 (un buen análisis, aquí). En los días por venir cumpliré la amenaza que incluyo en el antetítulo de tinta-e --tratar temas de Tablet PC y tinta electrónica-- pero de momento os dejo con este aviso, y una reflexión:

Es más que posible que algunos de los asistentes al taller lea tinta-e. La idea central de todo este asunto es que la plataforma se adapta a vuestro estilo y a vuestros contenidos, y no al revés. No hay imposiciones, pero sois vosotros los que tenéis que dar con el chiste. Con vuestro propio chiste

Otro mashup

Es más simple que el caso anterior pero nos muestra la tremenda flexibilidad del concepto: combinar contenidos de más de una fuente en una experiencia integrada

Mapa de los urinarios de américa (pulsar sobre la captura de pantalla)

Una primera referencia a mashup

En breve voy a escribir algo sobre mashups. Para ir abriendo boca, un ejemplo:



Google libera la api (definición: 1, 2) de su googlemaps. Midnightcoders usan esta api en una mashup con su propio servidor de mensajes weborb --> "llaman" a un mapa del mundo de googlemaps y le suministran puntos según la localización física conocida del ISP del usuario que envía un mensaje al chat, e incluyen ese mensaje en el mapa. AJAX permite un funcionamiento fluido del mashup, entre otras cosas porque sólo recarga la parte de pantalla que cambia y no la pantalla completa cada vez que hay una operación.

Sintético pero espero que claro. Sigo sin negar la posibilidad de que parte de web 2.0 sea burbuja 2.0, pero cada vez asumo más que todos estos cambios e innovaciones simultáneas tienen que desembocar en algo.


Nota: para probar el chat geolocalizado, tenéis que pulsar sobre la captura de pantalla. De momento, sólo ha funcionado sin fallos... ¡En firefox! No ha funcionado en Opera (desgraciadamente normal) y en IExplorer no acababa de ir... ¿Alguien lo ve en otro navegador que no sea Firefox?
Related Posts Plugin for WordPress, Blogger...