domingo, 23 de marzo de 2014

Helo Ciborgs, hi Ciborgs, hola Ciborgs....


¿Un Mundo Feliz?

El año que la tecnología se viste de humana


Video promocional de Android Wear
Reloj, pulseras, lentes, la oferta de dispositivos para prendas de vestir está aumentando vertiginosamente.
La tecnología para vestir o vestible es el concepto que está en la boca de todos los entusiastas de la innovación.
Relojes inteligentes, pulseras deportivas, anteojos que toman fotos, la lista de dispositivos vestibles crece día a día y este año está sonando más fuerte que nunca.
Este martes Google lanzó clicAndroid Wear, una versión de su popular sistema operativo especializado en tecnología para vestir. El nuevo Android aún está en pañales pero se rumora que LG fabricará el primer reloj Nexus (si es que así deciden llamarle) del buscador.
Al momento la base de datos de la empresa Vandrico asegura que hay en el mercado 175 dispositivos de este estilo.
Pero ¿qué es un aparato vestible?
Para ejercicios
Las prendas/tecnológicas está teniendo gran aceptación entre las personas que practican deportes.
El consenso es que se trata de un dispositivo que puede usarse como ropa o accesorio, que debe vestirse en el cuerpo y no cargarse como un teléfono celular. Debe también ser controlado por quien lo porta (no sólo a control remoto) y proveer una experiencia diferente o reforzar las caracteristicas de un móvil o una tableta.
En el fondo, sin embargo, es probable que sea más fácil explicar el súbito entusiasmo con dos simples razones: la tecnología es cada vez más personal y el mercado móvil está saturado.
La película "Her" (Ella) de Spike Jonze ha sido alabada por su producción artística. Situada en el futuro muestra un mundo en donde la tecnología está al centro de la humanidad, y aún así parece casi invisible durante el filme.
Su sutil presencia se explica porque los dispositivos son mostrados como una extensión de nosotros mismos y no como los protagonistas. La tecnología vestible apunta a eso: ser lo más útil posible siendo lo más invisible posible.
Piénsenlo por un segundo. La forma en la que cargamos los teléfonos o como interactuamos con las tabletas muestran que cada vez más consideramos a estos aparatos como una parte de quienes somos.
Por supuesto el cambio (ya sea evolución o involución, eso se los dejo a ustedes) se extiende más allá de la arena filosófica y tiene también un claro propósito comercial.
Moto 360
La idea es que la tecnología forme parte de nuestra vida de forma sutil, casi invisible.
Cada vez hay menos espacio para competir en el mercado de los dispositivos móviles. Por primera vez en la historia se venden más teléfonos celulares y tabletas que computadoras personales. Los Samsung, Apple, LG de este mundo están llegando a un punto en el que es difícil innovar y encontrar más gente dispuesta a comprar sus aparatos cada año.
En ese sentido la tecnología vestible abre una maravillosa puerta a nuevas ganancias y espacio para la innovación. Su competencia, además, deberá reducir los precios de este tipo de dispositivos cuyo precio promedio se ubica en US$375.
En cuanto al tipo de dispositivos para vestir que se encuentran en el mercado, la base de datos de Vandrico muestra que la muñeca parece ser la parte del cuerpo favorita para los fabricantes con 56 aparatos inteligentes (relojes, brazaletes) a disposición de los consumidores. En segundo lugar se encuentra la cabeza (piensen en Google Glass) con 34 productos.
Google Glass
Google Glass es uno de los productos destinados para la cabeza.
La mayoría de ellos tienen como propósito satisfacer las necesidades de nuestro estilo de vida, como hace un móvil, con 118 productos destinados a este fin. En el campo de salud hay 83 aparatos en el mercado y 42 dispositivos dedicados a la condición física, como tecnología para medir kilómetros recorridos, etcétera.
La firma de análisis de tecnologías de la información Canalys cree que este año, la tecnología vestible se convertirá en un producto clave para los consumidores.
Según ellos, habrá 17 millones de dispositivos tan sólo para nuestras muñecas, un número que crecerá a 23 millones en 2015 y más de 45 millones en 2017.
Quizá en el futuro recordemos a 2014 como el año en el que la tecnología comenzó a desaparecer para convertirse en una extensión de nuestro cuerpo. Hola cíborgs.

Diario BBC Mundo

jueves, 13 de marzo de 2014

Un Feliz Cumple a la NUBE


Las bodas de plata de la Web: 25 años de una idea que cambió el mundo

Un recorrido por los acontecimientos más destacados y curiosos del desarrollo impulsado por Tim Berners-Lee en 1989
Por   | Para LA NACION 
 
Un encuentro de usuarios de Internet en San Pablo, Brasil, en un evento conocido como Campus Party en 2011. Foto: Reuters 
 
Pensar hoy cómo era el mundo sin Internet y las páginas web actuales, es como tratar de imaginarnos sin autos, aviones o energía eléctrica. Así de masiva y trascendental para nuestras vidas logró convertirse "La Web" en apenas 25 años de vida.
Cumplir 25 años en el mundo de la tecnología es realmente muchísimo, y también es una confirmación de que la World Wide Web (su nombre formal) ya pasó de ser una novedad para convertirse en un hito que cambió nuestra forma de vida.
Así como la revolución industrial permitió acelerar los procesos de fabricación a velocidades desconocidas, y los aviones nos dieron la posibilidad de acortar los tiempos y ver el mundo desde otra perspectiva, la Web nos permitió acercarnos a todos los rincones del planeta con unos pocos clics del mouse. Repasemos un poco sus orígenes y curiosidades.

UNA SOLUCIÓN INGENIOSA QUE TRANSFORMÓ EL MUNDO

 
Un centro de Internet en Nairobi, Kenia, que funciona con energía solar. Desarrollada en 1989 por Tim Berners-Lee, la World Wide Web logró ir más allá del ámbito académico y se extendió por todo el mundo. Foto: AFP 
 
Podemos considerar a la Web como un invento, ya que nació de una idea de su creador, Tim Berners-Lee , para resolver problemas de gestión y administración de contenidos utilizados en elCERN (Organización Europea para la Investigación Nuclear), lugar donde trabajó cuando diseñó el primer prototipo de la web y sus protocolos.
¿Qué inventó exactamente Berners-Lee? Durante los años que estuvo en el CERN, ese organismo ya era uno de los nodos de Internet más grandes de Europa, pero a pesar de que Internet ya era utilizado por gobiernos y militares, no existía un método o plataforma para visualizar o navegar contenidos como lo hacemos en la actualidad, es decir, no había navegadores web ni páginas, ni hipervínculos tal como los conocemos hoy aunque sí otros servicios de búsqueda y enlace de contenidos basados en texto como Gopher, Archie o Veronica.
No está de más recordar que Internet es la infraestructura digital sobre la que se montan una serie de servicios (la Web, el mail, el chat, el streaming de video, las llamadas de voz, etcétera), por lo que Web e Internet no deben tomarse como sinónimos. De hecho, Internet comenzó a gestarse 20 años antes de que Berners-Lee escribiera su famoso trabajo.
La problemática del CERN que preocupaba a Lee estaba basada en la pérdida de información generada por miles de científicos de gran valor para los avances que realizaban, y todos los problemas que esto generaba entre equipos de trabajo y áreas relacionadas. Su idea era unificar un único espacio, accesible desde cualquier lugar del mundo a través de internet, que permitiera almacenar, consultar, actualizar y compartir esa información en forma masiva.
El 12 de marzo de 1989, Berners-Lee le presentó el proyecto a su jefe , quien lo consideró "vago, pero interesante". Esto no detuvo al británico de 34 años e hijo de expertos en computación de la Universidad de Manchester, quien avanzó con su idea hasta que un año después logró implementarla.

PRIMEROS PASOS

 
La computadora NeXT utilizada por Tim Berners-Lee para desarrollar su proyecto a fines de la década del 80. Foto: Gentileza CERN
 
Para lograr que su idea se convirtiera en realidad, Lee tuvo que desarrollar varios aspectos vitales para su funcionamiento. Internet ya existía desde el día que unos alumnos interconectaron varias computadoras entre las universidades de Stanford y California (UCLA), a través de una línea telefónica conmutada en 1969, algo que luego fue adoptado y modernizado por el ejército y los organismos de inteligencia de Estados Unidos.
Es más, antes de que existiera la World Wide Web, ya había nacido el correo electrónico (creado en 1971 por Ray Tomlinson , quien también desarrolló en 1982 el primer cliente de correo), e incluso siete años después, en 1978, uno de esos correos se ganaba la distinción de convertirse en el primer mensaje considerado Spam en la historia de Internet.
En su proyecto inicial y hasta su primera implementación, Berners-Lee, con la ayuda del ingeniero industrial Robert Cailliau (considerado co creador de la web), terminó de definir el concepto de "hipertexto" que había nacido en la década de 1960, la forma de comunicación primaria que utiliza la web, relacionando contenidos con enlaces dentro de internet.
Para lograr esto desarrollaron el lenguaje HTML, hoy reconocido por casi cualquier persona, o al menos oídos alguna vez, y lo unieron a distintos protocolos universales para construir la WWW:
  • URL: Uniform Resource Locator, es la identificación única y universal que se le da a cada uno de los contenidos alojados en la web, y que es visible en la dirección web que muestra nuestro navegador. El concepto varió en los últimos años hacia uno más global denominado URI, Uniform Resource Identifier.
  • HTTP: HyperText Transfer Protocol, es la forma en que se comunica el navegador con los servidores que alojan las páginas y sus contenidos, así como las comunicaciones entre servidores.
  • HTML: HyperText Markup Language, es el protocolo que define la estructura y contenido de cada documento de hipertexto. Es el lenguaje básico utilizado para la creación de una página web.
  • XML: eXtensible Markup Language, creado para facilitar el acceso a partes del HTML que no ofrecen información legible. Es utilizado para describir la estructura de los documentos de texto.
  • HITOS FUNDAMENTALES DE ESTOS 25 AÑOS

     
    Tim Berners-Lee presentó su proyecto en 1989, y cuatro años más tarde el CERN dio a conocer el primer sitio web de la historia. Foto: Gentileza tanaka / Flickr
     
    El gran avance de Berners-Lee fue unir hipertexto e Internet. Cuando comenzó a trabajar la idea en su mente, lo primero que hizo fue intentar unir a través de su invento, a miembros de las comunidades tecnológicas especializadas en digitalización de contenidos e internet. Nadie aceptó su invitación. Esto lo motivó, como cuenta en su libro Tejiendo la red , a encarar el proyecto él mismo.
    La Web motorizó e impulsó un cambio radical en la forma en que nos comportamos como sociedad. Nos ha permitido manifestarnos, opinar, crear, conocer personas, acortar distancias, optimizar el trabajo, conocer lugares, aprender, entre muchas otras cosas más.
    Pero también nos brindó una plataforma que logró cambiar nuestra sociedad y sus relaciones. No vamos a entrar en la discusión de si esos cambios han sido para bien o para mal, podríamos consensuar en que son un tanto confusos y dolorosos, como seguramente lo han sido otros cambios a lo largo de la historia.
    Ese impulso que cambió nuestra forma de relacionarnos como sociedad fueron las redes sociales, apoyadas en la web e impulsadas por el constante deseo de relacionarnos con otros.
    Aunque parezca sencillo, lo que hoy conocemos como Web y utilizamos a diario no habría sido posible de no ser por unos pequeños detalles que Tim Berners-Lee no dejó librados al azar.
    Al darse cuenta de la dimensión de su invento, decidió marcar ciertas reglas de uso para garantizar el libre acceso y utilización. Al crear la web decidió liberar tanto los protocolos de funcionamiento como el software y sus servidores. Este concepto hizo que la web se consolidara y difundiera a velocidades inesperadas: El número de servidores web pasó de 26 en 1992 a 200 en 1995.
    Tres años después de la puesta en marcha definitiva de la Web, Berners-Lee viajó a Estados Unidos para trabajar en el Laboratorio de Ciencias de la Computación e Inteligencia Artificial del Massachusetts Institute of Technology. Desde ese lugar creó el W3C, un organismo internacional de estandarización de tecnologías web, el cual Berners-Lee aún dirige, conformado también por organismos de Francia y Japón.
    La importancia del W3C en el mundo es la de estandarizar los sitios en base a una normativa global, ofreciendo herramientas, recursos y normativas para la creación de sitios web, en forma gratuita y libre, otro de los pilares que permitieron que la WWW haya trascendido y crecido tanto.

    PÁGINAS CLAVE

    A pesar de que la web se convirtió rápidamente en la plataforma estándar de navegación en internet, nada de lo que conocemos hoy habría sido posible sin el principal motor de su funcionamiento: los contenidos.
    En el ránking global de sitios web más visitados al 2013, los diez primeros son los siguientes:
  • Google
  • Facebook
  • YouTube
  • Yahoo!
  • Baidu
  • Wikipedia
  • QQ
  • LinkedIn
  • Windows Live
  • Twitter
  • CURIOSIDADES DE LA WEB

    • La primera página web de la historia fue reactivada por un proyecto de conservación histórica de hitos tecnológicos. Así era la primera web:http://info.cern.ch/hypertext/WWW/TheProject.html
    • El primer servidor Web estaba instalado en el CERN y fue puesto en línea el 6 de agosto de 1991. En este servidor se alojó el primer directorio Web del mundo, formado por varios sitios creados previamente por Berners- Lee. La computadora utilizada fue una NeXTcube (http://commons.wikimedia.org/wiki/File:First_Web_Server.jpg ), creación de Steve Jobs durante su exilio de Apple.
    • Un error común es pensar que Internet es lo mismo que WWW. Aunque informalmente lo llamemos así y se entienda, son dos cosas distintas. El concepto de World Wide Web creado por Tim-Berners Lee en 1990 es sólo un servicio dentro de la red Internet.
    • El primer navegador web lanzado al mercado fue Mosaic, en febrero de 1993.
    • Muchos años antes de que existieran Google, Yahoo! o Bing, estaba Wandex, creado en 1993 como un índice de páginas web y reconocido como el primer buscador de la historia.
    • El primer motor de búsqueda, tal como los que conocemos en la actualidad, se llamaba WebCrawler y fue creado en 1994. Este motor permitía hacer búsquedas de textos o palabras en cualquier página web.
    • YouTube no fue el primer sitio web de videos. Antes existió Tune in Hook Up, un sitio de citas que permitía hacer lo mismo, subir videos, comentarlos y compartirlos.
    • Facebook es el sitio web que concentra la mayor cantidad de contenidos compartidos en internet. Más del 44% de lo que se pone online tiene su origen en la red social de Mark Zuckerberg, seguido por Twitter, con cerca de un 29%.
    • En diciembre de 2009 se creó el primer sitio web que permitía interacción táctil.
    • El país con más usuarios de la web es China, con más de 400 millones. A pesar de eso, la penetración de internet en ese país es de apenas el 24%, una de las más bajas del mundo.
    • El idioma español es el tercero más utilizado en la web (28%) , después del inglés y el chino.
    • En su afán por mantener la web estandarizada e universal, Tim Berners-Lee fue el principal detractor del dominio .mobi, que buscaba crear sitios acceibles sólo desde dispositivos móviles. De esa controversia nació el concepto "Responsive", para el diseño de páginas web adaptables a cualquier dispositivo que quiera visualizarlas.
    • ENQUIRE era el nombre del software desarrollado por Tim Berners-Lee en 1980, y que utilizó para desarrollar el concepto de La Web actual. Su nombre viene de la frase "Enquire Within Upon Everything", en español "Preguntando de Todo Sobre Todo".

    domingo, 9 de marzo de 2014

    Abuso de la Tecnología afectan el aprendizje

    Expertos alertan que fenómeno 'phubbing' y abuso de dispositivos afectan al aprendizaje.

    La imagen de 2 o más personas reunidas utilizando sus teléfonos móviles y sin hablar entre ellas se ha vuelto recurrente y, aunque puede parecer simplemente de mala educación, para los expertos podría ser una clara señal de que estamos perdiendo nuestra capacidad para concentrarnos, incluso, en algo tan básico como una conversación entre amigos.
    El fenómeno tiene nombre propio: phubbing, término que proviene de las palabras en inglés phone (teléfono) y snubbing (desairar), haciendo referencia al trato despectivo que supone ignorar a la persona con la que se está por prestar atención al celular. Tanto así, que un estudio realizado por T-Mobile en el 2012 encontró que los usuarios de telefonía miran sus pantallas un promedio de 150 veces al día.
    Aunque el phubbing se manifiesta principalmente en situaciones sociales, puede ser síntoma de comportamientos adictivos que ponen en peligro el buen desempeño académico, teniendo en cuenta que la concentración es una de las claves para lograr un correcto aprendizaje.
    De acuerdo con el neurólogo Leonardo Palacios, decano de la facultad de Medicina de la Universidad del Rosario, la falta de concentración representa también un reto para los educadores.
    Cuando se está dictando una clase magistral hoy en día, es una pesadilla ver a los estudiantes conectados a algún tipo de dispositivo, bien sea un celular, una tableta o un computador portátil, porque ni el educador más optimista va a pensar que lo que los estudiantes están haciendo en estos aparatos es profundizar en los temas de la clase o corroborar lo que uno les está diciendo. Lo que siempre vamos a pensar es que están distraídos con algún juego o chateando y que el conocimiento que les queremos transmitir no lo están recibiendo”, asegura Palacios.
    El educador agrega que el nivel de desconcentración entre los jóvenes es tal que puede llegar hasta a “distraerlos de sus distracciones; los jóvenes están tan inmersos en sus aparatos y en cualquier novedad que provenga de ellos que llegan incluso a interrumpir sus actividades de esparcimiento, por ejemplo, pausando un videojuego para responder un mensaje de chat, o revisar el celular durante una fiesta, un concierto o cualquier otro espectáculo”, señala Palacios, quien considera que este es un comportamiento sin precedentes en la historia.
    Distractores vs. voluntad
    El especialista recuerda que hace unos cuantos años las distracciones eran menores, y a las personas les tocaba esperar su turno para utilizar el teléfono de la casa, reunirse a ver televisión, o planear una salida al cine. Sin embargo, “ahora, las distracciones están todas concentradas en las pantallas”, dice.
    Por el contrario, para María Patricia Gómez, directora del Programa de Integración a la Universidad de la Sabana, los dispositivos electrónicos no son los únicos culpables de que los estudiantes pierdan la concentración. “Una dinámica familiar disfuncional o una pelea de pareja pueden hacer que un universitario, por ejemplo, vaya a clases sin prestar atención a lo que le dice el profesor. Esta clase de circunstancias, sin lugar a dudas, tienen más poder que un aparato tecnológico”, asevera Gómez.
    Para esta psicóloga, magíster en educación, “distracciones tenemos por montones, pero los dispositivos no son los malos, depende de la fuerza de voluntad de un estudiante para enfocarse en una sola cosa y saber priorizar los diferentes asuntos a los que se enfrenta. Es cuestión de establecer límites”.
    Verena Steiner, experta en estrategias de concentración y en herramientas efectivas para el aprendizaje, comparte la opinión de que el poder reside en la voluntad individual, y considera que el mayor enemigo de la concentración son las interrupciones y las distracciones, seguidas de los ruidos. “Es una situación paradójica, porque la mayoría de estas molestias las podemos evitar –explica en una entrevista con Efe–. A menudo, una interrupción o un sonido pueden resultar más interesantes que la tarea que tenemos entre manos o convertirse en un rescate oportuno o una justificación para aplazar una tarea difícil”.
    Cómo enfocar la mente
    Según Verena Steiner, la primera regla para estudiar es simple: apague el teléfono móvil, olvídese de internet, póngase tapones en los oídos y ¡comience a trabajar!
    Debe observar su comportamiento sin criticarse; es decir, sin valoraciones, como un zoólogo observaría a sus elefantes o tiburones. Así toma más conciencia de su nivel de atención. Desde el momento en que se da cuenta de que le falta la concentración, su comportamiento ya mejora.
    Guiar la constancia
    Steiner recomienda a los padres que adiestren la constancia infantil. “Los niños tienen que aprender a acabar con las cosas sin dejarse distraer. Por ejemplo, los papás pueden elogiar la perseverancia y la aplicación con la cual el niño está dibujando, más que elogiar el dibujo en sí”. Los videojuegos, Internet o la televisión atraen la atención con una fuerza muy poderosa y concentrarse en ello no implica esfuerzo; “la fuerza de voluntad es el punto decisivo y no se desarrolla frente a una pantalla”.
    NICOLÁS BUSTAMANTE
    Redactor de EL TIEMPO