Feeds:
Entradas
Comentarios

Archive for the ‘Mundo Digital’ Category

.

Internet mantiene en contacto de manera vertiginosa a millones de personas, a las que educa, informa, desinforma, deforma, vigila, censura, divulga, organiza y entretiene. Una cantidad inimaginable de contenidos infinitamente diversos son vistos, leídos y escuchados en todo el mundo de manera cotidiana.

Una red inmensa que cubre el planeta y que se amplía día a día con capacidad para contener un número infinito de direcciones, que a través de “la nube”, es decir, de los recursos de hardware y software que ofrece internet, una persona puede almacenar y tener disponible su información de forma sencilla desde cualquier lugar del mundo.  

Como todas las herramientas, a internet se le puede utilizar para bien y para mal. Hay intentos por limitarla y regularla incluso en las democracias liberales y una franca censura en países totalitarios, aunque la red es tan vasta, intrincada y generosa que siempre hay resquicios por los cuales se filtran las palabras, las ideas, las imágenes.

Replicante  http://revistareplicante.com/ una de las revistas culturales mexicanas más leídas en México y América Latina, publica en septiembre sobre este tema una serie de inteligentes artículos. A manera de difusión compartimos dos  de ellos, escritos por conocidos especialistas.

 

 

El futuro de Internet (II)

 

Naief  Yehya

    La revolución digital no ha terminado y cada día sorprende con nuevos inventos y desarrollos, como el espejo computarizado y conectado siempre a la red. Internet es una cuarentona, segura de sí misma, autosuficiente, golosa, vociferante, sabia, práctica, políglota, curiosa y a la vez extraordinariamente flexible. Su presencia en nuestras vidas es apabullante y absorbente. Nos entregamos a ella confiados y seguros. La experiencia casi siempre es satisfactoria. Aunque, como suele sucedernos cuando cruzamos esa edad, internet ha dejado de parecer sexy y no importa que nos ofrezca inmensas cantidades de pornografía ni que nos prometa una vida social e interactiva rica y fabulosa. La realidad es que ya no sentimos lo mismo al acercarnos a ella.

La novedad de la banda ancha y el wi-fi, que sin duda nos han cambiado la vida, se siente hoy como algo completamente asimilado, tan indispensable como la sal. Es fácil perder de vista un tiempo muy cercano en que era inconcebible ver películas en streaming o checar el correo electrónico en cualquier Starbucks. A fuerza de darnos tanto en tan poco tiempo internet nos ha echado a perder. Es evidente que ningún medio ha tenido un desarrollo tan vertiginoso y sorprendente como éste. Sería ingenuo imaginar que hemos llegado o nos hemos acercado a una especie de final de la historia digital. La red está condenada a cambiar o desaparecer para dejar su lugar a algo mejor. Por lo pronto, como en otras relaciones estables y quizás monótonas, tenemos la tentación de buscar otras posibilidades tecnológicas existentes o imaginarias.

La relación a veces frívola y “casual” que mantenemos hoy con la red podría hacernos imaginar que este medio fue creado para nuestro entretenimiento y desarrollo. No debemos olvidar que en el origen fue La Bomba y que ella propició la aparición de la computadora. No por nada John von Neumann, ese delirante genio que desconocía el remordimiento, escribió en 1946: “Yo estoy pensando en algo mucho más importante que bombas. Estoy pensando en computadoras”. El trabajo para crear la bomba atómica requirió de un poder de cómputo inmenso. Se puso en evidencia entonces que la capacidad de los ejércitos de computadoras (mujeres equipadas con sumadoras) no era suficiente para realizar los miles de cálculos necesarios, en un mínimo de tiempo, para determinar las condiciones ideales para comenzar una explosión nuclear. La llegada de la gigantesca computadora ENIAC dio inicio a una nueva era en que las matemáticas permitían la creación de dispositivos capaces de arrasar a la humanidad.

“La simulación numérica de las reacciones en cadena dentro de las computadoras inició una reacción en cadena entre computadoras, con máquinas y códigos proliferando de manera tan explosiva como el fenómeno para el que habían sido diseñadas a ayudarnos a entender”, escribe George Dyson en su fundamental Turing’s Cathedral.De manera semejante internet surge por el interés del ejército de crear canales de vínculo e intercambio de información entre instituciones de investigación involucradas en programas militares. Pero esta herramienta militar de comunicación y cálculo pronto fue utilizada por científicos civiles y más tarde por una variedad de amateurs que en poco tiempo se pusieron a reinventarla.

Estos exploradores del naciente ciberespacio fueron impregnándolo de un espíritu transgresor. La red en poco tiempo se convirtió entre otras cosas en una poderosa plataforma para la disidencia. Así, de la rigidez mental de los matemáticos, ingenieros y físicos que trabajan en problemas bélicos la red pasó a ser también un territorio del caos, un megacentro comercial planetario y un campo de proezas exóticas de programación, hackeo y crackeo. Esta esquizofrenia le ha dado su peculiar carácter a internet y en particular a la web, una entidad abierta que vive hoy un asalto desmesurado debido a la aparición de numerosos espacios privados como Facebook y Amazon, los cuales crecen vertiginosamente y se apoderan de grandes yacimientos de valiosos datos personales.

Es claro que el cisma entre una red abierta y una cerrada altamente controlada al estilo de lo que hace Apple con sus productos no se resolverá pacíficamente. Desde hace tiempo la open web ha querido ser presentada como un territorio peligroso; hoy no faltan quienes tratan de satanizar de manera fanática la experiencia de la libertad en la web. Hace algunos años cada vez que un cibernauta deseaba salir del estricto, insuficiente y mediocre entorno de uno de los portales dominantes de la antigüedad recibía un ominoso anuncio de peligro: ¡Cuidado! ¡Está usted a punto de salir de Compuserve! Hoy Compuserve y muchos de los portales que trataban de controlar a los cibernautas han desaparecido.

  En su lugar las redes sociales también prometen un refugio contra los territorios salvajes donde proliferan la pornografía, los virus, los ladrones de identidades, los cyberbullies, las novias rusas por pedido y los príncipes nigerianos que prometen un enorme botín a cambio de nuestra información bancaria. Esta imagen de decadencia, abandono y riesgo es uno de los pretextos usados por el difunto Steve Jobs o Mark Zuckerberg para crear entornos protegidos, suburbios digitales de armonía y paz. Steven Johnson escribe en el Times: “El App Store debe estar clasificado entre las plataformas de software más cuidadosamente vigiladas en la historia”. Apple y otras empresas están convencidas de que su negocio en un futuro cercano dependerá de lo bien que puedan proteger la ilusión de seguridad, la fantasía de que sus productos son especiales, superiores y únicos. Así, dispositivos como el iPad, el iPhone, Xbox y Tivo entre otros han sido desarrollados con la clara intención de permitirnos cibersurfear sin usar la web, de limitar nuestro divagar a un cautiverio feliz en sus propiedades.

El problema de la supervivencia de la web como la conocemos depende de neutralidad de la red, el concepto sacrosanto de la igualdad de derechos de todas y cualquier página y que protege la información que viaja por la red para que ésta no sea discriminada. Hoy esa regla se tambalea porque el gobierno estadounidense y varios más han dejado de protegerla con la intención de crear “carriles de alta velocidad” y paga en el ciberespacio.

La web será difícil de reemplazar, pero una vez que aparezca una nueva tecnología que logre cautivar nuestra imaginación y dominar nuestra atención es probable que recogeremos nuestros bits y bytes y nos mudaremos a ella dejaremos morir a la cuarentona, cual viejo télex o decrépito fax. Toda predicción tecnológica está condenada al ridículo pero podemos inferir, asumiendo que inevitablemente estaremos equivocados, que las siguientes revoluciones digitales tendrán que ver con interfaces y con dispositivos de control y acceso, la mayoría disueltos en el tejido ambiente de la mediósfera y conectados a intereses corporativos.

Es probable que los dispositivos que ofrezcan experiencias de realidad ampliada-aumentada-mejorada tendrán un gran desarrollo en los próximos años. Y si algo es seguro es que cada día más aparatos tendrán posibilidad de navegar la red. La conectividad no será exclusiva de los GPS, los televisores y los ciber-refrigeradores, que ya comienzan a popularizarse por la promesa de que podrán ordenar ellos mismos la lista de víveres al supermercado, pues hasta los dispositivos más absurdos navegarán la red por los motivos más irrelevantes y extraños, como las camisetas que pueden presentar el status actualizado de la página de Facebook del portador.

Es fácil imaginar que pronto terminará el reino de los dominios .com. La diversificación de extensiones creará una nueva ecología en la red. No tiene sentido que blogs personales y páginas de artistas estén etiquetadas como si fueran espacios comerciales. Incluso es probable que las direcciones de la web o URLs sean disimuladas bajo varios niveles de información, para hacer más “amigable” y simple la navegación al usar referencias fáciles de memorizar y evocar. Esto sin duda se traducirá en que inevitablemente ciertos sitios dominarán las búsquedas de manera apabullante (aún más de lo que sucede ahora), ya que contarán con nombres fácilmente memorizables.

Entre los elementos que pronto vendrán a incrustarse en nuestra experiencia cotidiana en la mediósfera están los programas de reconocimiento de comandos hablados. Cada vez dictaremos más órdenes a nuestro software, el cual interpretará nuestras palabras al estilo de los sistemas de voz telefónicos usados cada vez más por las corporaciones o por el programa de la asistente Siri de iPhone (la cual podrá ser eficiente una vez que corrijan su mentalidad colonialista y su incapacidad de entender a cualquiera que tenga el más ligero acento exótico). Los programas que traducen de texto a habla y viceversa han mejorado de manera notable en los últimos años y probablemente serán adoptados masivamente por diversas aplicaciones, especialmente en dispositivos móviles.

La forma más simple y vacía de imaginar el dispositivo doméstico ideal del futuro cercano es como un espejo que no solamente nos ofrezca nuestro reflejo, sino que nos muestre actualizaciones de las redes sociales, nos proponga ejercicios y diariamente evalúe nuestros signos vitales, nos dé el pronóstico del tiempo, nos haga un breve resumen de las últimas noticias, nos explique las condiciones del tráfico, juzgue nuestra vestimenta, higiene y peinado y quizás concluya confirmándonos que somos los más hermosos de todos. Una versión de semejante espejo existe en la forma del Cybertecture Mirror, que cuesta alrededor de cinco mil dólares, y aunque se han vendido apenas unos quinientos, Cybertecture espera abaratar su producto a menos de mil dólares y masificarlo. Éste sería un paso más hacia la eventual desaparición de la computadora como tal.

No hay duda de que aumentará de manera exponencial el permanente diálogo entre máquinas, un intercambio del que estaremos excluidos y que nos permite imaginar un futuro apocalíptico al estilo de la pesadilla terminatoriana de Skynet. “Si el internet de los noventa trataba de conectar información y el de los 2000 consistía en conectar gente, el internet de esta década se dedicará a conectar cosas”, informa la empresa de asesoría Gartner.   Ahora bien, si de especular se trata, podemos aventurar que por supuesto todo terminará en aquel instante mágico de singularidad cuando la red, esa cuarentona o cincuentona o sesentona, despertará de su letargo, tomará conciencia de sus alrededores, mirará arriba, abajo y a los lados y se preguntará: ¿Por qué tengo todas estas extrañas rémoras de carne y hueso a mi alrededor? Para entonces seremos tan dependientes de la red que antes de entender lo que ha sucedido la especie humana habrá pasado a sumarse a la lista de especies en extinción. Un medio nacido de la voluntad de exterminio con bombas de inmenso poder cumplirá entonces con su destino.

El futuro de Internet (lll)

Antulio Sánchez

  Hoy son parte del recuerdo el otrora buscador Altavista, el navegador Netscape o la revolucionaria Google Video y, actualmente, caminan en esa dirección redes sociales como Second Life, o incluso la que un día fuera una de las más exitosas, MySpace. Los sitios y las tecnologías tratan de no ser arrollados por el olvido y la indiferencia a través de innovaciones y tretas comerciales.

Por eso, hablar del futuro de internet no sólo es referirse a la velocidad con que algo se erosiona, sino también a un escenario de mutaciones, de convergencias de servicios y tecnologías, de demografías, de prácticas culturales, de nuevas formas de entretenimiento y de nuevas formas en que el olvido se instaura y los intereses manipulan el pasado de una tecnología. En las siguientes líneas dibujaremos cuatro aspectos, más allá de lo estrictamente tecnológico, que marcarán al internet del futuro.  

Con frecuencia se dice que el internet actual con sus redes sociales representa la libertad de expresión y las nuevas formas de hacer política, que ha aparecido una nueva dimensión de lo público, por lo cual diversos países intentan frenar sus virtudes como medio de comunicación libre.   Sabido es que libertad y control de la información han generado una tensión constante a lo largo del desarrollo de internet. Sólo hay que recordar que desde los primeros nodos que se enlazaron en 1969 a Arpanet, la red predecesora de internet, se empezó a percibir esa cuestión. Uno de los propósitos de Arpanet, como proyecto dependiente del Departamento de Defensa de Estados Unidos, fue alentar a la mayor cantidad de científicos a trabajar en las pocas computadoras que existían, pero con la condición de que éstas sirvieran para experimentar y trabajar con cálculos complejos que estaban destinados a cuestiones de estrategia militar; pero los investigadores no lo vieron sólo así, la usaron también para crear una red social y comunicarse entre sí.

Fue así como de inmediato apareció uno de los efectos no deseados de internet y que se puso en evidencia cuando algunos investigadores empezaron a distribuir mensajes contra la guerra de Vietnam y organizaron debates sobre el entonces famoso escándalo Watergate, que finalmente llevó a la dimisión del presidente Richard Nixon. Con eso quedó de manifiesto que la red era ideal para hacer circular opiniones y posiciones políticas y con ello buena para la libertad de expresión.

A partir de la penetración que internet ha tenido en diversos países, esa tensión entre libertad de comunicación y el control de ésta también se ha ido extendiendo, al grado que desde su masificación muchos países han intentado limitar sus alcances. Ahora se invocan nuevos malestares y enemigos, como la denominada ciberguerra, que parecen ser los ingredientes especiales para conducir al control de internet.

Hoy varios países, con el pretexto de frenar los ataques de troyanos y malware estilo Stuxnet, Flame, Gauss o Duqu, se han declarado prestos a poner en marcha estrategias de seguridad nacional que parecen orientadas al control de internet y la libertad de expresión. Un escenario que se usará para tales fines es la próxima Conferencia Mundial de Telecomunicaciones Internacionales (CMTI-12), a celebrarse en Dubai en diciembre próximo. En esa reunión varios países pedirían la elaboración de un tratado que lleve a cambiar las normas relativas a la forma en que se administra internet. Aunque, entre los aspectos que están considerados a tratar no están específicamente los tópicos de la ciberguerra, varios piensan introducirlos en la agenda.

Es cierto que entre los objetivos de la disputa no sólo está el control de la información, sino también lo que se conoce como gobernanza de internet, pero lo que está en el fondo de todo ello es el futuro de internet: entre una red cerrada y una abierta, encubierta en los temas que han puesto algunos gobiernos sobre la mesa. De acuerdo con los documentos que se han ido filtrando, a Estados Unidos la CMTI-12 podría servirle para poner fuertes restricciones en la industria mundial de las telecomunicaciones e internet. Mientras que China y Rusia, poco amigas de las libertades, son partidarias de incluir cuestiones de seguridad cibernética en el Reglamento de las Telecomunicaciones Internacionales, en donde podrían quedar encuadrados aspectos como ataques cibernéticos, de denegación de servicio, la delincuencia en línea, el control y respuesta frente a las comunicaciones electrónicas no deseadas (por ejemplo, spam), y la protección de la información personal y los datos (phishing).

Todas estas cuestiones que se presentan como básicas para la seguridad nacional de los países, que incluso se ponen en la mesa como necesarias para garantizar que los ciudadanos de cada nación no sufran de tropelías digitales, de que estén protegidas sus transacciones comerciales e incluso garantizar la convivencia sociales, en realidad ponen en peligro la libertad de expresión al tener un control excesivo de las comunicaciones digitales.

Aunque no hay consenso de si debe ser una autoridad global la que regule internet o bien que recaiga en cada país establecer los controles de acuerdo con su legislación, lo cierto es que más allá de lo que pase en la CMTI-12 e incluso aunque no se llegue a ningún acuerdo al respecto, los debates futuros sobre internet tienen que ver con cuestiones de gobernanza, desde una mayor equidad en la gestión de las tareas y tecnologías que hacen posible internet, pero también sobre lo que es una internet abierta y una cerrada, o lo que es lo mismo: sobre la libertad de expresión.

Por eso es que también el futuro de la red estará en las luchas que emprendan las minorías digitales en favor de marcos normativos que garanticen que internet sea una plataforma abierta a las ideas, de impedir que se violente la privacidad, de exigir a diversos servicios, a algunas nuevas megaindustrias a las que da vida el ciberespacio, para que no sean tan dóciles a los gobiernos como ha sucedido con Twitter o Facebook, que no han dudado en plegarse a ciertas peticiones que les ha hecho el gobierno estadounidense.

Paralelo a ese escenario tenemos la consolidación de grandes poderes fácticos globales, los cuales han terminado por hacerse de grandes porciones del pastel ciberespacial y controlar las nuevas tendencias culturales. Hoy empresas como Apple, Google, Twitter o Facebook se han tornado en industrias culturales emergentes, que incluso no tienen parangón en la historia de las industrias culturales, y por la salud misma del ecosistema global de la información se debe promover no sólo la diversidad de fuentes de búsqueda de información, sino también contar con mecanismos jurídicos que defiendan la privacidad y la defensa del consumidor para que los servicios y productos que ellas ofrecen no vulneren los derechos de las personas.

En Desnudando a Google Alejandro Suárez pintó a Google como un nefasto pulpo acaparador de datos, e incluso recordó que Stephen Arnold ya la había bautizado como “Googzilla” porque esa empresa ha devenido en un poderoso monstruo provisto de enérgicas e imparables garras capaz de triturar todo lo que encuentra a su paso.

Lo cierto es que todas las empresas referidas actúan de la misma manera, con tentáculos poderosos que impiden la libertad de elección de los usuarios. Una de las cuestiones atractivas de internet desde sus primeros años, que después continuó con la invención de la web por parte de Berners-Lee, es su organización anárquica, la multiplicación de sus dimensiones públicas habitadas por hordas de usuarios, de zonas que se asemejan a pueblos fantasmas en total abandono, en donde uno se expone por su carácter accesible al nocivo spam, a virus que se reproducen infinitamente, etcétera. Pero esto que para algunos gobiernos y usuarios es algo malsano, cruel o bárbaro, también tenía la ventaja de que dentro de la misma comunidad de usuarios se crearan tecnologías y se articularan prácticas para frenar tales anomalías.

Ante eso muchos han optado, como dice Virginia Heffernan, por buscar “refugios” cómodos de navegación y más “seguros”. Pero la inmensa mayoría de conectados no tiene más opción que seguir viviendo en la selva. Poco a poco se ve el crecimiento de los privilegiados que optan por dimensiones alternativas, que compran un iPhone o un iPad para tener la posibilidad de pertenecer a una zona residencial chic, de primera, que les permita explorar internet pero sin tener que mezclarse con el populacho y estar menos expuestos a sus peligros. Esa zona residencial nice la delimitan las aplicaciones destellantes de la Apple Store, que permiten conformar un hogar pulcro en las alturas inmaculadas de una residencia fuera de los peligros de codearse con el populacho.

Según Heffernan, se ha ido conformando en los últimos tiempos una especie de Webtrópolis en donde se reproducen segregaciones y estratificaciones. Una idea que hace realidad lo que Joel de Rosnay había dicho: la masificación de internet llevó a la aparición de los “pronetarios”: productores independientes de servicios y contenidos en línea y personas que no tienen otra opción que navegar con las precarias tecnologías que tienen).

Otro aspecto no menos importante es recordar los cambios en los criterios de la oferta de software. Tradicionalmente la oferta de software (shareware o gratuito y que es algo que puede efectuar cualquier usuario con conocimiento de programación) la hacía cualquier programador o empresa, que lo lanzaba en diversos sitios para que los usuarios los probaran y si consideraban que valía la pena lo pudieran usar, tal como lo lleva a cabo de manera destacada la comunidad de usuarios de Linux. Sin embargo, eso ha cambiado drásticamente con la dominancia de Apple que rompe con esa tradición, porque en su tienda de aplicaciones no son los usuarios quienes determinan cuál software tiene valor, sino que es la empresa la que establece lo que merece ser evaluado por los usuarios.

Si algo define el presente de internet y seguirá marcando su caminar es la existencia de muchos usuarios deseosos de diferenciarse de la muchedumbre y buscar el refinamiento por sus herramientas de navegación y por lo que consumen, aunque al hacer uso de los nuevos vehículos de conexión con los dispositivos móviles también terminan por prescindir de una de las creaciones más democráticas en el acceso a la información digital, que es la web. Hoy, con los dispositivos móviles, se usa mucho internet pero el enlace ya no se hace por la web, sino por las aplicaciones propietarias, como las de Apple y un sinfín de empresas que las usan en sus diversos dispositivos móviles.

La Apple Store es una de las plataformas más vigiladas de la historia de internet, y eso no sólo tiene el objetivo de mantener controlado su mercado sino también el de generar entre sus consumidores el valor de sus ofertas, de generar la sensación entre ellos de que pertenecen a un sector exclusivo. Al final, Apple se ha tornado en uno de los poderes fácticos más poderosos a escala planetaria y esa tendencia parece que seguirá quién sabe hasta cuándo, porque tiene un amplio mercado conformado, más que consumidores, por fieles devotos que esperan con ansia sus productos.

Lo cierto es que hemos llegado a un punto en donde las empresas, que supuestamente surgieron para dar paso a un entorno innovador, hoy se comportan, por el afán de hacer más dinero, como las clásicas industrias culturales y atropellan los derechos de los consumidores. El problema es que por ahora no se perciben opciones claras o nuevos actores que hagan pensar que eso puede cambiar en el corto plazo. Un ejemplo de que eso se refuerza lo tuvimos recientemente en California, en donde un juzgado federal falló en favor de Google en perjuicio de Samsung. La sentencia sobre las seis patentes que Samsung infringió prácticamente le dan a Apple el monopolio legal sobre los teléfonos móviles de pantalla táctil, y ésta se puede quedar prácticamente sin competidores, en este rubro, en Estados Unidos.

El fallo de marras muestra el grado nocivo a que han llegado los usos de las patentes que estimulan el monopolio de tecnologías durante largos periodos; terminan por privatizar el conocimiento, generan o acentúan las desigualdades sociales y geográficas e impiden la libre elección de los consumidores. En el fondo, lo que se refleja en ese fallo es que las patentes han terminado por constituirse en armas de batallas comerciales. En realidad aquí se pone en evidencia que la propiedad intelectual se ha vuelto, para algunos gobiernos, un factor político-económico, porque las patentes se usan como un instrumento estratégico, un arma de disuasión, que termina siendo una vía de garantizar las divisas generadas por las patentes de los productos protegidos, cercenando una competencia real. De esa manera las patentes terminan siendo usadas por los gobiernos para proteger a sus empresas en sus naciones y eliminarles competidores. Esto termina no sólo por encumbrar el poder de las empresas y los poderes fácticos globales, sino que lleva a hacer de los derechos de propiedad intelectual un nuevo y feroz frente de batalla que afecta el acceso a la información.

La lucha por los derechos de autor es otro frente de batalla actual que al parecer tenderá a perpetuarse. Un ejemplo de los absurdos de esos derechos es el ámbito científico, en donde las publicaciones científicas se caracterizan por un férreo control de contenidos. En la última década del siglo XX el Open Society Institute, con el fin de romper con eso, lanzó la iniciativa Open Access para impulsar la libre difusión de las revistas científicas por internet. Pero ha habido pocos cambios.

Lo que puede verse son las prácticas abusivas de varias publicaciones científicas que no permiten adquirir publicaciones aisladas sino bases de datos completas. Las ediciones en línea limitan, no facilitan, el uso de materiales con licencias, prohíben copiar, imprimir e incluso leer los contenidos en voz alta o el préstamo de libros electrónicos, como sí sucede con el formato papel. Hoy las universidades pagan periódicamente por acceder a las base de datos, de lo contrario pierden la posibilidad de consultarlas.

La paradoja es que esos materiales fueron subsidiados, directa o indirectamente, por los contribuyentes, quienes subvencionan la labor de los científicos. Las editoriales publican las investigaciones previo pago efectuado por los científicos o las universidades y, para rematar, después de editada la revista se debe pagar por tener derecho a la consulta de sus contenidos. Un esquema leonino a todas luces y que debería ser enfrentado con mayor detenimiento; por ello es que iniciativas como la de Open Access serán vitales en el internet del futuro.

Es cierto que el modelo anglosajón, que ha establecido los índices de impacto o importancia de una publicación, son los que dominan en la academia y difícilmente podrán ser alterados en el devenir, por lo que es difícil pensar en producir modelos editoriales científicos propios. Por ello la única vía que queda en una internet futura es que ese modelo sea más abierto y equitativo, porque además sería la única forma en que se retornaría a los ciudadanos, los contribuyentes, algo de lo que aportan para apoyar al quehacer científico.

No olvidemos que los derechos de autor son el escenario de las batallas más fuertes en el presente, lo mismo están en el mundo editorial que en todo lo que tiene que ver con el entretenimiento, e incluso ha estimulado que ahora se quiera hasta tergiversar el papel que ha tenido el Estado en el desarrollo de internet.

Desde hace algún tiempo se ha desatado en Estados Unidos un debate sobre quién ha sido el propulsor de internet. La novedad está en atribuir ese papel a las entidades privadas y demeritar la contribución del Estado en su desarrollo. Todo empezó cuando Gordon Crovitz [j.mp/NnmFyy] señaló que era prácticamente un mito que el gobierno estadunidense hubiera dado vida a internet cuando al Pentágono se le ocurrió crear un medio de comunicación capaz de resistir los embates de un ataque nuclear.

Para Crovitz internet no existiría sin la contribución del sector privado. Él da todo el crédito de la conexión entre equipos a Xerox, ya que fue en sus laboratorios de Xerox PARC, en la década de 1970, donde se inventó la ethernet, una tecnología desarrollada por Robert Taylor, que fue la que permitió conectar diferentes redes de computadoras; ese fue en realidad el nacimiento de internet.

Hay algo de razón en lo que refiere Crovitz, pero como ha indicado Steve Crocker [j.mp/Pmq8iB], sin el papel decidido del Estado como financiador y organizador de internet no se hubiera logrado su desarrollo. Para empezar, Arpanet reguló o estableció las normas para que diversos equipos se comunicaran entre sí, para lo cual implementó una arquitectura abierta, que es la que caracteriza a internet, y, en resumen creó la tecnología básica de la red, que después ha sido perfeccionada por la iniciativa privada.

Asegurar que la iniciativa privada es la única que ha logrado el desarrollo de internet, o al menos que es la fundamental en su desarrollo, tal como lo hace Crovitz, no sólo tiene por objetivo menospreciar el papel que desempeñan las políticas públicas en el desarrollo de una tecnología, sino defender en el fondo que la protección de derechos de autor, de patentes y demás es legítimo porque son las empresas las que inventaron internet. En todo caso, alrededor de esto girará el internet del futuro; de la manera en que se diriman esas cuestiones también el ciberespacio será más abierto o cerrado.

.

.

Read Full Post »

Daniel Pardo

Internet se conecta a través de cables internacionales de fibra óptica. El Observatorio Regional de Banda Ancha de la Comisión Económica para América Latina y el Caribe (CEPAL) lo confirma en cada uno de sus estudios anuales: el acceso a internet es extraordinariamente costoso en América Latina.

Aunque en el último año la brecha del costo por tener acceso a banda ancha entre países europeos y latinoamericanos se ha cerrado, la diferencia sigue siendo abismal.

Para poder hacer una comparación entre diferentes países, la Unidad de Innovación y Tecnología (TIC) de la CEPAL realiza un estimando anual de las tarifas promedio para una conexión de 1Mbps (megabytes por segundo) de banda ancha fija y su costo en relación al PIB per cápita promedio mensual.

En otras palabras, para comparar países disímiles, se hace un promedio del costo de una velocidad de internet básica y se compara con el dinero que tiene una persona al mes.

El caso más extremo es el de Bolivia: allí 1Mbps cuesta casi US$90, lo que es el más del 50% del PIB mensual per cápita. Aunque los países que le siguen están lejos (en Paraguay es el 8.55% del PIB y en Perú, el 5.19%), la diferencia con países europeos es importante: en España cuesta el 0.18% y en Italia, el 0.16% del PIB.

¿Por qué internet es tan caro en América Latina? BBC Mundo habló con varios analistas en busca de respuestas a estas interrogantes.

Tarifas para 1mbps de velocidad de banda ancha fija a abril de 2012.

Para Fernando Rojas, director de la TIC, con sede en Santiago de Chile, tal vez la causa más importante del alto costo de la banda ancha en la región tiene que ver con la tecnología que se usa en los diferentes países para conectar las redes que los conectan con la internet que viene del exterior.

 

Pablo Mancini, director de estrategias digitales del portal argentino de noticias Infobae, resalta que internet se inventó en países desarrollados y que países como los latinoamericanos no han desarrollado la infraestructura tecnológica necesaria para que tenga más alcance y por consiguiente sea menos caro.

 

Rojas coincide en que el problema del costo tiene su causa en la ineficiente conectividad que hay en la región. “Para conectar un usuario de Argentina con Chile toca ir a Miami”, dice.

 

“Y en el caso de Bolivia hay un problema más. Todos los países tienen cables submarinos, pero Bolivia –que no tiene acceso marítimo– tiene que pagar por el transporte de la conexión, el cual es un transporte único que hace parte de un mercado sin competencia. Y eso lo hace más caro”.

 

En efecto, las conexiones a internet llegan a Latinoamérica por medio de unos gruesos cables marítimos que vienen del exterior. El continente sudamericano, además, está pobremente interconectado. En la mayoría de países, salvo tal vez en sus capitales, las conexiones siguen viniendo a través de cables telefónicos de cobre.

 

“Se siguen utilizando las redes de cobre porque no hay escala de mercado para hacer la inversión, aunque eso depende de cada país”, dice Rojas. “Es como cambiar una tubería”, dice Carlos Cortés, investigador del Centro de Estudios en Libertad de Expresión de la Universidad de Palermo, en Buenos Aires. “Hacer el cambio es caro y lento, y es difícil conseguir clientes que lo paguen”.

 

“Se trata de una tecnología que no necesariamente implica un retorno monetario a su dueño. Cuando hay pocos usuarios, la inversión de poner banda ancha en un pueblo remoto es difícil de pagar o no justifica la inversión”.

Lorenzo Villegas, consultor de comunicaciones de la Comisión de Regulación de Comunicaciones colombiana, señala que también existe un cuello de botella en la llegada del cable a las playas.

 

Los analistas explican que para que se desarrolle este tipo de infrastructura es necesario que los gobiernos nacionales inviertan en ella y generen un escenario propicio para la inversión de las empresas internacionales. “De las políticas de los Estados”, dice Cortés, “depende la inversión de las empresas: si hay o no la hay, si hay exclusividad en el mercado o si se hacen concesiones público-privadas”.

 

Mancini incluso cree que, “más que lo tecnológico, el problema es que los gobiernos -sobre todo el argentino- siguen dándole prioridad al desarrollo industrial y a una economía agroexportadora. No hay proyección de bienes

intangibles”, dice. Y aclara que no se trata de un complot de los gobiernos, sino de falta de visión sobre hacia dónde va el capitalismo. Según Rojas, la CEPAL está trabajando en coordinación con varios gobiernos de la región para desarrollar recomendaciones de políticas para reducir los costos de la banda ancha.

 

Hay ejemplos de proyectos públicos sobre el tema. Villegas dice que en Colombia se entregó el año pasado un contrato para poner un anillo de fibra óptica que conecte todos los municipios del país, y así poder llevar banda ancha a lugares remotos. Además se van a abrir nuevas frecuencias para banda ancha móvil.

 

En Chile señala Rojas, se han asignado licencias para que nuevos operadores móviles estén obligados a expandir el servicio a áreas donde el mercado no es atractivo. Aunque de la ley al hecho hay un largo camino, Rojas dice que por lo menos hay un punto de partida. “Las inversiones las harán cuando las empresas privadas vean que el mercado es más grande. Por eso es importante la inversión pública y los acuerdos público-privados”. Eso tendrá que pasar para que tener internet en América Latina sea menos caro.

 

BBC.com, 11 de junio 2012.

 

Read Full Post »

Tener un celular que cada vez que aparezca una nueva versión se actualice sin necesidad de cambiar de plataforma o de aparato, que te permita ir de una compañía telefónica a otra conservando el mismo móvil o que puedas utilizarlo en cualquier parte del mundo pese a los diferentes protocolos de comunicación, es el proyecto en el que trabajan científicos del Centro de Investigación y Estudios avanzados del I P N (Cinvestav).

Ramón Parra Michel, investigador del área de Telecomunicaciones del Cinvestav Guadalajara, dirige por parte de México, el desarrollo de algoritmos de telecomunicaciones, proyecto llamado ASTECAS (A Sof Twar Edefined radio receiver based on a Configurable Digital Signal Processor And an RF- Sigma-Delta Analog-to-Digital Converter), que consiste en desarrollar un circuito integrado que va a permitir la unificación de varios sistemas de comunicación inalámbricos en uno solo.

Una de las ventajas de este desarrollo, es conservar por más tiempo un mismo aparato telefónico, lo cual ayudaría al medio ambiente, ya que permitiría que la basura tecnológica no aumente más o incluso disminuya.

Comenta Ramón Parra que, “Actualmente los teléfonos celulares cuentan con un modem para bluetooth, otro para conectarse a internet, uno más para usar la red celular y poder hablar. La idea es que estos tres bloques se integren en un solo circuito, así, un mismo modem funcionará para todos esos servicios, de acuerdo a lo que el usuario le esté solicitando,” explicó.

La ventaja de este desarrollo permitirá funcionalidades que antes no se podían. “Si te quieres cambiar de compañía telefónica sólo lo reconfiguras y listo”. Hacia allá va la tendencia de estos sistemas de radio reconfigurables, todos los países de primer mundo trabajan sobre este tipo de tecnología, y México se quiere sumar a esa tendencia, comentó el científico del Cinvestav.

El investigador explicó que este circuito integrado, el cual consiste en una pastilla de silicio tipo microprocesador, podrá ser reconfigurado de manera sencilla, mediante un software, ya que al concentrar varios servicios su capacidad de modificación será mayor.

Otra ventaja de esta tecnología es reducir su costo y la inversión en aparatos, ya que al emplear menos circuitos, baja el valor de producción, y al hacerlos reconfigurables, no será necesario cambiar con frecuencia de teléfono para contar con la última versión.

Otra ventaja es que al tener menos componentes y mayor espacio, se podrá reducir el consumo de potencia e incrementar la duración de la batería, destacó el investigador de la Unidad Guadalajara. Explicó que también, al concentrar todos los accesos inalámbricos, si uno se llega a dañar, en lugar de abrirlo para quitar y cambiar esa pieza, se podrá analizar y reprogramar desde fuera, al rescatar la parte que se lesiona se suplen sus funciones.

Este circuito integrado, abundó, no sólo funcionará para los celulares, también para las computadoras y para las casas que se quieren automatizar, ya que uno de los estándares que involucran es el protocolo Zigbee, que permite conexiones inalámbricas a corta distancia y se utiliza para algunos aparatos de uso doméstico, por ejemplo, cuando quieres programar tu lavadora por medio de la PC desde la oficina, o para que tu refrigerador te avise mediante el celular que se terminó la leche.

Este proyecto que inició en 2011, espera concluir en dos años más y participan además del Cinvestav, investigadores del ITESM-Gdl, la Universidad Pierre&Marie Curie, con apoyo del Conacyt y el gobierno de Francia, así como de la emprresa gala Flexras.

Los galos realizan la parte de radiofrecuencia y los mexicanos la parte de banda de base y algoritmos de procesamiento digital de señales, con que se pretende, de acuerdo con Ramón Parra Michel, tener al final del proyecto un componente de transferencia de tecnología, y así poder llegar al desarrollo de productos nacionales de alta tecnología.

Eluniversal.com

Read Full Post »

José María Álvarez Monzoncillo

La soñada interactividad de la televisión se torna en participación en internet; la nueva participación la decidirán los usuarios y las empresas se adaptarán al cambio.

 La cadena de valor tradicional de las industrias culturales y los medios de comunicación ha saltado por los aires, modificando el statu quo que existía en la etapa analógica entre productores, programadores (distribuidores) y telespectadores. En primer lugar, la distribución ahora tiene cada vez menos valor porque la web permite distribuir contenidos sin límite alguno y a costo casi cero, y porque los usuarios pueden acceder a los programas (series, películas, etcétera) sin pasar por distribuidores-intermediarios. Eso implica que la licencia que otorgaban los Gobiernos por utilizar el espectro radioeléctrico cotice a la baja. Esa máxima de “comprarás y venderás, nunca fabricarás”, se viene abajo con Internet. Ya no vale con “enlatar” lo que otros hacen. Los que producen intentan alcanzar a audiencias globales, sin pasar por intermediarios parásitos.

 Esa ruptura está provocando un efecto letal para el sector audiovisual: una migración digital de las pantallas clásicas (cine y televisión) hacia las nuevas pantallas (ordenador, tableta, smartphone, etcétera) que “canibaliza” la estructura de ingresos tradicional. La cadena de valor emergente apenas conlleva nuevos ingresos. Internet no es una nueva y adicional fuente de ingresos para los productores audiovisuales. La “larga cola” de Anderson (una demanda insatisfecha de contenidos no comerciales que impedía la distribución física y que iba a aflorar en la Red) ha sido una falacia teórica más. No ha funcionado ni económicamente ni socialmente. Ni siquiera en los consumos en las redes P2P se atisba ese tipo de consumo minoritario, plural y diverso. Los modelos de mayor éxito en la Red a nivel internacional son muy pequeños desde el punto de vista económico y están permanentemente cuestionados (Hulu, Spotify, YouTube, etcétera). Lo que sí hay es una larga cola de fracasos empresariales.

 Las televisiones que emiten sus programas en la Red simultáneamente con otras redes (TDT, cable, satélite), con sus anuncios correspondientes, no tienen problemas serios, excepto que la rentabilidad se reduce de diez a uno. Lo preocupante son los programas que necesitan de ingresos adicionales para poder ser amortizados. La televisión comercial fue siempre gratuita y mantenida por los anunciantes. Pero la taquilla, el vídeo y la televisión de pago permiten los ingresos fundamentales. Sin estos ingresos, la mayor parte de los mejores programas, series y películas no existirían. La inversión publicitaria mundial en televisión es hoy menor que los ingresos de la televisión de pago. En este sentido, existe riesgo de que la Red se parezca a la televisión abierta, pero sin regular.

 La televisión de masas la hicieron los políticos y los anunciantes mediante un amplio consenso social, pero la televisión por la Red la harán los usuarios. Las nuevas televisiones ya señalan esta tendencia: canales IPTV, agregadores de contenidos, User-generated Content (UGC), agregadores furtivos, web TV, plataformas de IPTV, vídeos en website, websites de televisión, videoblogs, videos en redes sociales, podcasts TV, video on demand, mashup, etcétera. Poco se parecen a la televisión analógica. Sin embargo, bajo estas fórmulas aparecen los viejos programas, series, películas, documentales y noticieros, y pocos nuevos formatos. Suelen coincidir bastante los Premios Emma con las series más intercambiadas en las redes P2P.

 Las audiencias interclasistas y masivas dan lugar a nuevos ciudadanos que reivindican la libertad de elegir y de participar. este anhelo de participar rompe la dinámica del broadcast, para ser sustituida por una nueva forma de entender el ocio. Ese salto conlleva una nueva sociedad organizada en torno al individuo y una nueva forma de construcción social. Para ello, la gente cuenta con numerosos dispositivos que pueden conectarse desde cualquier lugar. Esta evolución de redes y dispositivos ha dado lugar a las nuevas formas de entretenimiento que cuestionan el propio concepto de televisión. Se trataría del concepto de “nuestra televisión” frente a los del pasado: “mi televisión” (propia de la era puntocom) y “su televisión” (la de los políticos y anunciantes).

 Pero estos espectadores también quieren crear contenidos. Muchos internautas realizan películas, series, cortos, documentales, noticias, guías de viaje, revistas de gastronomía, redes de intercambio de archivos, sistemas de votación reivindicando una nueva gobernanza y representación política, miles de aplicaciones (apps) para los smartphones, tabletas, consolas… Es la realidad del “veremos renacer el pintor de fin de semana” que hablaba Negroponte en los años ochenta. Intercambian información y películas en los sistemas P2P, votan aconsejan y opinan de tal modo que cuestionan los agentes de legitimización de la era analógica. De la “dictadura de los expertos” pasamos a la “sabiduría de la multitud”. Es frecuente comprobar cómo la gente consulta las etiquetas (tag) y votaciones de los usuarios a la hora de elegir un hotel, un restaurante o una película. Casi todo es “tag-etizado”.

 Esas nuevas formas de televisión implican, por primera vez, la colaboración de los usuarios. La soñada interactividad de décadas pasadas se transforma en participación. Los “nativos digitales” o “nativos 3D” quieren votar, participar, intercambiar, colaborar, mezclar y distribuir, pero también quieren recomendar y etiquetar (tag-etizan) programas y películas. La televisión puede convertirse en una maraña de programas que viajan por la Red de acuerdo a las etiquetas de unos usuarios que sirven a otros para encontrar lo que quieren. The tag is the medium puede ser una realidad en la próxima década, pero con importantes interrogantes en el presente. No es probable que la televisión de masas acabe siendo una televisión a la carta. Es más probable que coexistan modelos y formas de televisión.

 Pero las empresas ven otra realidad puesto que su perspectiva es diferente. La industria ve el peligro de “canibalización” de sus ingresos actuales, pues los modelos de negocio que surgen en la Red no son rentables. Esa es una de las conclusiones más importantes que podemos sacar después de 20 años de Internet. Los triunfadores de la Red no producen contenidos y emergen como peligrosos monopolios. Son los nuevos intermediarios: ¡Tunes no produce ni películas ni música, Amazon no edita libros, Google no posee contenidos, Netflix no hace series de televisión, PayPal no tiene pasivo… Además, estas empresas han construido muros en sus jardines (estrategia wall garden) para hacer sistemas cerrados e incompatibles. Los que producen contenidos ven contradicciones en la “cyberutopía” que considera la Red como entorno horizontal de libertad donde no existe la propiedad, neutral a los contenidos que circulan, de manera que es posible otro tipo de ocio y comunicación de acceso gratuito e intercambio libre, ajeno a los intereses económicos.

 Pero la capacidad de los usuarios para innovar es increíble. La web 2.0 la han hecho ellos ante la soberbia de las empresas analógicas. Pero también los sistemas P2P o el formato mp3. Los usuarios de Internet van a configurar una nueva televisión que cuestiona las viejas formas de hacer. Estos ya piensan en la lógica del anyone, anywhere, anytime. Las audiencias se dispersan, mientras los contenidos cruzan diferentes dispositivos en una conexión permanente (cross media).

 Uno de los errores frecuente es comparar la televisión e Internet como si fueran pantallas excluyentes, comparando el tiempo ante la televisión y en la Red. Sin embargo, lo que más se hace en la Red es ver televisión y leer prensa. También es un error maniqueo contraponer la industria clásica y los usuarios de Internet. Entre ambos pueden hacer una televisión mejor. No solo nos jugamos una industria determinante para el empleo, sino la cultura y la creación de tejido social. La vieja televisión transformó la sociedad del siglo XX para mejor, y esperemos que estas nuevas televisiones que han nacido con Internet supongan lo mismo en el presente.

  

José María Álvarez Monzoncillo es catedrático de Comunicación Audiovisual en la URJC.

 El País, 11 junio 2011.

Read Full Post »

Las bases de datos de la próxima generación se podrán cultivar en placas de Petri. Científicos de la Universidad China de Hong Kong han creado un sistema para encriptar, almacenar y descifrar datos cuyo soporte no es un disco duro, sino secuencias de ADN (aggatcctg…) introducidas en una población de bacterias. Un gramo de estos microbios puede almacenar 200 gigas (gigabytes). Los discos duros no pasan de 4 gigas por gramo.

El sistema aprovecha que el ADN es, literalmente, un texto: una cadena de letras (bases, en la jerga) cuyo significado depende del orden exacto que ocupan en la fila, como el significado de una novela depende del orden exacto de las letras en el texto.

Para almacenar el mensaje (una frase, por ejemplo, o una enciclopedia entera), los científicos empiezan por traducirlo a un lenguaje genético arbitrario. El ADN solo usa cuatro bases (a, g, c y t, por las iniciales de sus nombres químicos). Usando palabras de dos bases, salen 16 (4 elevado a 2) palabras distintas. Con palabras de tres bases, salen 64 (4 elevado a 3) palabras diferentes: esta es justo la estructura del código genético real, donde cada palabra de tres bases significa un aminoácido (los bloques con que se construyen las proteínas).

Chan King Ming y sus colaboradores de la Universidad China de Hong Kong han usado palabras de cuatro bases, con lo que disponen de 256 (4 elevado a 4) palabras distintas. Han asignado cada una a una letra, signo de puntuación u otro símbolo de la escritura humana mediante un código convencional, como las tablas ASCII que se usan en las computadoras.

Esta frase, que tiene 66 caracteres, ocuparía 264 bases en el ADN. El artículo completo, de unos 4.000 caracteres, ocuparía 16.000 bases. La frase está en el límite de lo que puede almacenarse en una sola bacteria. El factor limitante no es el espacio disponible en la bacteria -cuyo genoma natural tiene millones de bases-, sino las limitaciones actuales de la técnica para sintetizar cadenas artificiales de ADN, que no pasa de 200 o 300 bases.

Por esta razón, para almacenar el artículo completo -incluso después de comprimir el texto con los algoritmos convencionales que se usan en los pdf, jpg o mp3- se necesitarían seis bacterias. Y para almacenar 200 gigas haría falta un gramo de bacterias. Eso es un pequeño cultivo a nuestras escalas de tamaño, pero contiene cerca de un billón de microbios.

Las 200 gigas no son ningún límite de la técnica: basta aumentar el tamaño del cultivo bacteriano para incrementar el número de gigas que se pueda almacenar. Incluso a gran escala, la base de datos microbiana seguirá ocupando entre 50 y100 veces menos que su equivalente en un disco duro.

Pero el sistema de Chan y sus colegas no se limita a almacenar la información. También se ocupa de encriptarla, esto es de convertirla en un mensaje secreto que solo su propietario puede luego descifrar, o desencriptar. El encriptado consiste en una especie de barajado molecular que invierte de orientación y desordena el texto de ADN. Es el análogo de arrancar las páginas de un libro y barajarlas, o mejor, de cortar cada página en trocitos y arrojar al aire el confeti resultante.

Los científicos han aprovechado para esto una trituradora de libros que también existe en la naturaleza. Se trata de una enzima (recombinasa; las enzimas son proteínas que catalizan reacciones químicas) que reconoce ciertos pares de secuencias de ADN, las corta y las vuelve a pegar en la orientación inversa. Estas enzimas son las que usan los virus y otros elementos móviles, como los trasposones, o segmentos de ADN que se mueven por el genoma. Los investigadores han domesticado la enzima para que sirva a sus propósitos, pero la actividad no es nada insólito en la naturaleza.

Ese tipo de recombinasas son también el fundamento de un sistema ideado por estudiantes de la Universidad de Tokio que es capaz de resolver sudokus. Usa 16 tipos de una bacteria, cada uno con una identidad genética y un color distinto dependiendo del cuadradito que ocupe en la cuadrícula del sudoku (cuatro por cuatro). El intercambio de ADN entre unas cuadrículas y otras, mediado por recombinasa, computa la solución con facilidad.

La adaptación de los microbios del mundo real a las nuevas condiciones del entorno utiliza rutinariamente mecanismos parecidos.

El País 27/11/10

Read Full Post »


Hoy en día se puede adquirir una computadora personal en cualquier tienda departamental o incluso en un supermercado, pero la decisión no es fácil: existe una amplia variedad de modelos y precios. Todas hacen más o menos lo mismo, se ven más o menos iguales e incluso cuentan con más o menos los mismos dispositivos visibles; sin embargo, sus precios pueden variar considerablemente. Si no tomamos una actitud defensiva, es probable que un hábil vendedor nos deje completamente intoxicados con una interminable explicación que incluye términos como: megahertz, procesador, memoria RAM, disco duro, etcétera.

En realidad no hay nada complicado detrás de estos términos una vez que entendemos el principio de funcionamiento de una computadora. Imaginemos a un ayudante muy obediente, extraordinariamente rápido y eficiente, aunque carente de toda iniciativa. Este ayudante sólo es capaz de obedecer nuestras órdenes si éstas le son puestas en un pizarrón especial en el que los espacios para escribir están numerados. Nuestro ayudante puede tanto leer datos e instrucciones, como escribir en el pizarrón. Cuando en el pizarrón hay instrucciones, nuestro ayudante las lleva a cabo una por una a gran velocidad. A este conjunto de instrucciones se le conoce como programa. Una instrución típica podría ser: toma el número escrito en el pizarrón en la posición 34, súmalo al número que está almacenado en la posición 35 y escribe el resultado de esta suma en la posición 36.

Nótese que en el mismo pizarrón conviven tanto instrucciones como datos, lo cual a primera vista puede parecer confuso; sin embargo, si tomamos en cuenta que para representar y almacenar tanto datos como instrucciones se utiliza el sistema de numeración binario -por ejemplo el número 1001101001001001 y la instrucción 100101001010001110-, no hay razón para utilizar pizarrones diferentes si se cuenta con un absoluto control de lo que se ha almacenado en cada una de las posiciones, como es el caso. Con miles o millones de instrucciones de este tipo se componen programas tan complejos como los modernos editores de texto, hojas de cálculo, navegadores de Internet, controladores de líneas de ensamble, sistemas de reservaciones de líneas aéreas, etcétera.

Lo básico

Pues bien, nuestro ayudante se llama procesador y su indispensable pizarrón, memoria. Así de simple. En la práctica este esquema debe ser enriquecido con algunos elementos. Por ejemplo, requerimos de dispositivos de entrada y salida

para comunicarnos con nuestro ayudante, como el teclado y el monitor.

Podemos ahora ubicar dos elementos fundamentales: los dispositivos de carácter físico de una computadora, como pueden ser el procesador, la memoria, el ratón, etc., conocidos como hardware y los programas o grupos de instrucciones llamados software.

Nuestro ayudante, además de la memoria, cuenta también con una útil herramienta a su alcance: el disco duro. Podemos visualizarlo como un almacén en el cual hay miles y miles de instrucciones y datos perfectamente organizados mediante archiveros y carpetas. El ayudante puede leer y escribir en cualquiera de los expedientes o archivos de este almacén pero, como hemos dicho, todo lo debe efectuar a través de su pizarrón. Por ejemplo, cuando iniciamos una aplicación haciendo el clásico doble “clic” sobre el icono correspondiente, estamos instruyendo a nuestro ayudante para que se dirija al almacén, tome el expediente del programa que deseamos que ejecute o “corra”, efectúe una copia del mismo en su pizarrón y una vez ahí, empiece a llevar a cabo una a una las instrucciones que él mismo acaba de copiar.

Pero ¿por qué contar con diferentes medios para almacenar? Si se requiere que se ubiquen tanto datos como instrucciones en el pizarrón para que el procesador las pueda utilizar, ¿por qué no todo el almacén es el pizarrón del ayudante? Bien, la principal razón es que la velocidad de acceso a un disco duro es muy inferior a la de la memoria. ¿De qué nos serviría un ayudante muy rápido, si al terminar de efectuar una instrucción requiere de largos periodos de espera para que se le proporcione la siguiente?

Usualmente una computadora personal cuenta con un pizarrón o memoria con decenas o centenas de millones de posiciones o lugares de almacenamiento, mientras que su disco duro fácilmente alcanza varios miles de millones. La memoria (pizarrón) se borra completamente al apagar el equipo, lo que no ocurre con dispositivos como discos duros, CDs y discos flexibles o floppies, capaces de almacenar datos e instrucciones, conservándolos sin requerir energía.

Del corazón al cerebro

 

Entremos ahora a los detalles, sin perder de vista el principio básico de funcionamiento y visualizando al procesador y a la memoria como dos dispositivos íntimamente relacionados pero diferentes.

 

Procesador: El procesador o CPU (por las siglas en inglés de Central Processing Unit) es el corazón de toda computadora; podríamos equipararlo al motor, si se tratara de un automóvil. En un principio, esta unidad de procesamiento era ensamblada o construida interconectando todos sus componentes: cientos o miles de transistores, capacitores, etc. En 1971, la compañía Intel introdujo al mercado el primer microprocesador (el 4004), el cual constituye un parteaguas en la historia de las computadoras, ya que logra “empaquetar” todos los elementos en un solo chip o circuito integrado. Hoy en día, todas las computadoras personales, ya sean de escritorio o portátiles, cuentan con al menos uno.

Existen varios microprocesadores como Pentium, K6, PowerPC, Sparc, etc. construidos por distintos fabricantes. La evolución tecnológica en la fabricación de microprocesadores ha sido sorprendente. El Microprocesador 4004 con el equivalente a unos 6 000 transistores ya no se parece gran cosa al más joven de sus hermanos, AMD PHENOM con aproximadamente 750 millones de transistores. Este último puede hacer lo que el 4004 (y mucho más), pero unas 10 o 20 mil veces más rápido.

Es muy importante tener en cuenta que la velocidad a la que un microprocesador efectúa sus tareas tiene un límite superior, pero no inferior, al igual que un automóvil no puede sobrepasar cierta velocidad, aunque sí lo podemos conducir muy lentamente. En una computadora, lo que determina la velocidad es un “reloj” externo al procesador. Uno de los parámetros en los que habrá que poner atención es, además del tipo de procesador, la velocidad a la que éste trabaja, usualmente medida en millones de ciclos por segundo o megahertz (MHz) o en miles de millones de ciclos por segundo o gigahertz (GHz).

Tarjeta madre: La tarjeta madre (mother board) o tarjeta maestra es un circuito impreso en el cual se alojan el procesador, la memoria así como otros chips. Desde los primeros diseños en la década de los años ochenta, tanto la IBM-PC como la Apple II incluyeron ranuras de expansión (expansion slots) en las cuales se pueden insertar tarjetas para conectar a la tarjeta madre dispositivos externos, como el monitor o una impresora. Esta arquitectura fue un gran acierto, ya que permitió que diseñadores y constructores externos pudieran conectar innumerables e inimaginables dispositivos a una computadora, desde microscopios hasta identificadores de huellas digitales.

Se conoce como chipset al conjunto o grupo de chips (circuitos integrados) ubicados en la tarjeta madre, que trabajan conjuntamente con el procesador, proporcionándole el soporte para una infinidad de tareas, la mayoría relacionadas con el “mundo exterior”, como el acceso al teclado o a la unidad de discos flexibles.

Para las microcomputadoras más populares, es decir, las basadas en microprocesadores Intel o K6, también llamadas PC-compatibles, encontramos tarjetas madre con chipsets de muy variadas calidades. Un procesador puede ser instalado en una tarjeta madre que no cuenta con la capacidad de manejar la velocidad máxima del mismo, como un motor, por más potente que sea, no podrá hacer correr un auto de línea de la misma manera que si lo instalamos en un Fórmula uno.

Las computadoras más económicas tienden a utilizar tarjetas madre que integran diversas funciones como sonido, monitor, conexión a red, etc. Esto no es un inconveniente a menos que se desee contar con características especiales como una excelente tarjeta de video (con mucha resolución -nitidez y detalle en las imágenes- y velocidad).

Memoria RAM: (del inglés, Random Access Memory). Todo procesador requiere de un espacio de almacenamiento temporal para ubicar ahí los programas y datos que está manipulando. Esto se conoce como memoria RAM. La memoria RAM, compuesta por circuitos electrónicos, es volátil, es decir, solamente es capaz de retener datos cuando cuenta con energía eléctrica, así que al apagar la computadora (o ante el menor parpadeo en el suministro) se borra.

La cantidad o tamaño de memoria se mide en bytes (también llamados octetos). Para efectos prácticos un byte es la cantidad de memoria requerida para almacenar un carácter, es decir, una letra o un signo de puntuación. Así tenemos 1 000 bytes o kilobytes (KB), un millón o megabytes (MB), y gigabytes (GB) para mil millones de bytes. Una computadora personal moderna cuenta con entre 32 MB y 512 MB de memoria RAM.

Disco duro: Es un dispositivo electromecánico de almacenamiento. Está compuesto por uno o más platos o discos concéntricos que giran a gran velocidad (entre 7 000 y 10 000 rpm) cubiertos con material ferro-magnético similar al usado en casetes de audio y videocasetes, lo que permite el almacenamiento de datos. Su capacidad de almacenamiento puede ser de 250, 500, 800 o más gigabytes. La velocidad a la que la información puede ser leída o grabada en un disco duro es muy inferior a la de la memoria electrónica. Por otra parte, la información almacenada en un disco duro no se pierde cuando apagamos la computadora.

Otras memorias

El concepto de memoria se presta a confusión primero porque, bajo el punto de vista humano, puede ser muy diferente al manejado en el lenguaje de cómputo; segundo porque en una computadora hay, además de la RAM, varios tipos de memoria y dispositivos de almacenamiento.

Memoria ROM: (del inglés Read Only Memory). Esta memoria cuenta con datos previa y permanentemente almacenados en ella. El procesador sólo puede leer de ella, es decir, no modificar su contenido. Cuando encendemos una computadora, su memoria RAM está “en blanco”; para que el sistema inicie su funcionamiento, el microprocesador requiere ejecutar o correr un programa de inicio o de arranque. Este programa o grupo de instrucciones, también llamado firmware, es obtenido de la memoria ROM e instruye al procesador para que a su vez escriba en memoria RAM otro programa de mayor tamaño, obtenido de algún dispositivo de almacenamiento, usualmente un disco duro.

Memoria no volátil: Datos como la fecha, la hora, la configuración del equipo, etc., deben almacenarse en memoria “no ”volátil”, es decir, que al apagar el equipo mantenga su contenido. Es por ello que la mayoría de las computadoras cuentan con un chip de memoria de muy poca capacidad para guardar esta información. Estos chips requieren de una batería (de litio o níquel-cadmio) para evitar que se pierda contenido al apagar el equipo.

Memoria Cache: La interacción entre la .memoria RAM y el procesador es constante. De nada serviría un procesador rapidísimo si cada vez que requiere escribir o leer de su “pizarrón” le toma mucho tiempo. El acceso a la memoria RAM se mide en nanosegundos (ns), es decir mil millonésimas de segundo. Valores típicos de acceso a memoria RAM son 60 o 70 ns. Si contamos con una memoria mucho más rápida aunque mucho menor insertada entre la memoria RAM y el procesador, podríamos reducir en alguna proporción los tiempos de espera. La memoria cache es memoria muy rápida (unos 30 ns) en donde se almacenan los últimos datos y así, si éstos son requeridos nuevamente, no habrá que esperar pues están accesibles.

Memoria de video: también llamada VRAM, es aquella de la cual se toma la información que ha de aparecer en el monitor. A diferencia de la RAM convencional, puede accederse a ella en forma simultánea a través de dos dispositivos diferentes y así la información para actualizar lo que se despliega se obtiene al tiempo que se almacena, lo que redunda en un mejor desempeño         en el manejo de gráficos.  En una computadora sin  VRAM (usual en equipos         de bajo precio), es necesario usar la memoria  RAM para tal efecto, lo que hace que la computadora sea lenta en aplicaclones con alto contenido  gráfico.

¿Quién manda?

 

Al encender una computadora, se debe cargar en memoria RAM un programa que permita la administración de los recursos de la misma. Este programa es el sistema operativo (SO) o programa maestro de control (master control program) y es el que no permite, entre otras, efectuar tareas como visualizar cuántos y cuáles archivos o carpetas tenemos en el disco duro, así como reportarnos sus propiedades (por ejemplo, cuánto espacio ocupan), cambiarles de nombre, borrarlos, etc. El sistema operativo es capaz de interactuar con el hardware del equipo: discos, memoria, tarjeta de sonido, video, etc.

De otra forma cada una de las aplicaciones tendría que ser capaz de reconocer e interactuar con el hardware específico de cada máquina. Así, cuando una aplicación requiere de datos que se encuentran en el disco duro, por ejemplo, se los “solicita” al SO, mismo que sabe cómo obtenerlos y manipularlos para que la aplicación pueda hacer uso de ellos. En un equipo usado simultáneamente por varios usuarios, esta operación incluye la verificación de permisos de lectura y escritura, hechos también por el SO. Es por ello que cuando instalamos nuevo equipo a nuestra computadora, como una impresora, es necesario instruir al SO sobre cómo debe interactuar con ella (instalación de los drivers o manejadores específicos de esa impresora).

Los sistemas operativos modernos son programas extraordinariamente complejos. Como cualquier programa, pueden fallar ante situaciones imprevistas y cuando esto ocurre generalmente el equipo “se congela” o “se cae”, es decir, no responde, teniéndose que reiniciar. Hay muchos y diversos sistemas operativos. Los más populares son los compuestos por la familia Windows (Windows 98, 2000, “Millenium, NT y XP); los de la familia MacOS y todos los tipos de UNIX.

El fenómeno Linux

Los sistemas operativos son programas costosos. Al adquirir una computadora, parte del precio corresponde al sistema operativo que ya se encuentra almacenado en ella, el cual podemos utilizar pero no modificar. Linux es un sistema operativo tipo UNIX distribuido bajo la filosofía open source, en la cual los programas “fuente” u originales se hacen del dominio público, permitiendo que cualquier persona pueda efectuar cambios, adiciones y mejoras que a su vez son distribuidas sin costo. Literalmente miles de personas han participado en la creación y desarrollo de Linux, para el cual se pueden encontrar también miles de aplicaciones, la mayoría gratuitas, desde convertidores de audio a MP3, hasta sofisticados programas para creación y manejo de gráficos. Linux se ha ubicado como el sistema operativo favorito en los ambientes académicos y ha podido competir exitosamente con los sistemas operativos comerciales; existen versiones para prácticamente todas las plataformas o tipos de computadoras como PC (Intel, AMD), Macintosh, Sun Microsystems, etcétera.

En resumen, el sistema operativo se encarga de manejar los procesos, administrar los recursos como la memoria RAM y el procesador, administrar y ser la interfaz con los dispositivos del equipo como discos duros, CDs, etc., así como entre las aplicaciones y el equipo, y entre los usuarios y las aplicaciones. ¡Casi nada!

Ricardo Ciria Mercé es ingeniero mecánico y maestro en ciencias de la computación. Actualmente es encargado de la Unidad de cómputo del Instituto de Biotecnología de la UNAM.  Publicado en ¿Cómo ves? 48.

Read Full Post »

La arroba @


Hoy en dí­a el sí­mbolo de la arroba (@) está relacionado con internet, fundamentalmente con la dirección de correo electrónico. Una definición actual de la @ tal y como la conocemos podrí­a ser la siguiente:

“Signo de las direcciones de correo electrónico que separa el nombre del usuario de los nombres de dominio del servidor de correo (ejemplo: nombre@dominio.net); el origen de su uso en Internet está en su frecuente empleo en inglés como abreviatura de la preposición at (en). Se usa también cada vez más frecuentemente en el lenguaje escrito para evitar tener que repetir sustantivos según el género: así­ “Estimad@s amig@s” sustituye a “Estimados amigos y estimadas amigas” o a “Estimadas/os amigas/os”.”

El nacimiento de la @ no coincide con la era de internet, sino que se remonta muchos años atrás. El documento más antiguo donde aparece claramente dibujado, está fechado el 4 de mayo de 1536 en un escrito comercial italiano que fue descubierto por el profesor Giorgio Stabile, de la Universidad La Sapienza, mientras restauraba una colección fotográfica para el Instituto Treccani.

Al parecer, este documento es una carta enviada por un mercader italiano desde Sevilla a Roma, donde se describe la llegada de tres barcos cargados con tesoros provenientes de América:

“Así­ una arroba de vino, que es 1/13 de un barril, vale 70 u 80 ducados”. Escribió el mercader representando la palabra arroba con el sí­mbolo @.

La arroba se usaba en los registros mercantiles de las naves de carga que atracaban en las costas árabes y españolas. Los mercaderes venecianos utilizaban el ánfora (unidad de medida). Era un sí­mbolo mercantil que significaba â?? al precio de â? y que era conocida tanto en el mundo árabe como grecolatino.

La palabra “arroba” se piensa que es de origen árabe “ar-roub”, que significa cuatro y su forma de los copistas del latí­n al escribir “ad” que significaba hasta o hacia y que a la hora de escribirlo lo dibujaban como un ” 6 ” reflejado, originando así­, a través de los tiempos, la forma que hoy conocemos.

Con el surgimiento del correo electrónico empieza el uso del signo como lo conocemos ahora. En los años setenta se popularizaron principalmente dos sí­mbolos, para separar el nombre personal del propietario del correo electrónico y el nombre del dominio o servidor en el cual este correo operaba, los cuatro puntos (::) y (at).

La empresa Digital empezó a utilizar cuatro puntos (::). Así­, las direcciones se configuraban como : «nombre::servidor». IBM en cambio, optó por un lenguaje más natural y con solo dos letras, «at». Ellos escribí­an «nombre at servidor ».

El mérito de introducir la @ a internet se le atribuye al ingeniero estadunidense Ray Tomlinson (el inventor del correo electrónico), quién la utilizó en su propia dirección de correo electrónico, todaví­a en los tiempos de Arpanet, el antecesor de la red de redes, a principios de los años setenta. Tomlinson decidió incorporar la arroba justo entre su nombre y el servidor que debí­a recibir el mensaje. Eligió este sí­mbolo como el más idóneo, ya que estaba presente en los teclados y no era muy utilizado y de este modo, no se prestarí­a a confusiones.

Con el paso del tiempo y a medida que Internet y el correo electrónico se popularizaron y alcanzaron millones de usuarios , se diseñó un protocolo standard para el correo electrónico en todo el mundo y se estableció que el formato universal para las direcciones de e-mail serí­a usuario+ @+máquina, el signo @ se universalizó incluso llegando a formar parte del propio vocabulario del usuari@.

Tomado de http://www.mundopc.net

 

Read Full Post »

Older Posts »