EL OJO CLINICO DE LA TECNOLOGIA
martes, 20 de mayo de 2008
Instalar Ubuntu 8.04 Hardy Heron desde Windows con Wubi
Con este manual vamos a ver lo sencillo que es instalar Ubuntu Hardy desde Windows mediante Wubi. El proceso de instalación y desinstalación incluye capturas detalladas de cada paso para que sea aún más simple de lo que ya lo es de por sí.
Introducción
Ya hemos visto que es realmente sencillo instalar Ubuntu, y que tenemos incluso alternativas menos gráficas pero más eficientes. Sin embargo en ocasiones nos cuesta “convencer” a un amigo o familiar a que lo pruebe. El simple hecho de tener que hacer el particionado del disco es algo que rechazan muchos de forma sistemática.
El objetivo de Wubi es precisamente ese, el ofrecer una cómoda alternativa a los usuarios de Windows de probar Ubuntu sin tener que hacer ningún tipo de particionado y sin riesgos para los datos de sus disco.
Obviamente el rendimiento no será igual, pero en absoluto es malo ni comparable por ejemplo con el que ofrece el probarlo en un LiveCD.
El proceso de instalación es muy sencillo, como si fuera una aplicación más. El método de instalación es igual de simple, una vez más como si fuera una aplicación más de Windows.
El manual está dividida en cuatro secciones y la segunda (la instalación propiamente dicha) en otras dos subsecciones que están claramente diferenciadas.
1.- ¿Qué necesitamos?
Obviamente necesitamos un ordenador con un sistema Windows instalado. También necesitaremos que un disco o partición tenga al menos 4GB de espacio libre, y si son 8GB, mejor que mejor pues es la cantidad recomendada.
El ordenador debe disponer de una unidad lectora de CD y también tenemos que hacernos un LiveCD de Ubuntu Hardy. Puedes descargarlo o pedir que te envíen uno a casa de forma totalmente gratuita.
2.- Instalando Ubuntu Hardy con Wubi
Como os comenté en la traducción, tendremos tres etapas durante el proceso de instalación. No os asustéis por ello ya que como veréis son realmente sencillas y no os podréis perder con ayuda de las capturas. Comencemos.
2.1.- Primera etapa: Instalación desde Windows
Estando en Windows, vamos a introducir el LiveCD de Ubuntu Hardy en la unidad lectora de CDs y el autorun del CD nos mostrará la siguiente ventana:
Podéis las distintas opciones que tenemos. La primera es para iniciar en modo LiveCD reiniciando la máquina, pero la que nos interesa es la segunda “Instalar dentro de Windows“, así pues hacemos click sobre dicho botón.
La ventana que tenemos encima es todo lo que tenemos que configurar. No es mucho, ¿verdad? En cualquier caso os explicaré para qué es cada cosa.
* Unidad para la instalación: Esto es lo que os comenté antes, el disco o partición donde vamos a instalar Ubuntu. No os preocupéis por lo que tengáis en ella, no borrará nada ni podrá en riesgo el sistema Windows. Sólo ha de tener espacio suficiente para albergar Ubuntu. ¿Cuánto espacio? Vamos a verlo.
* Tamaño de la instalación: Tal y como cité anteriormente, el espacio mínimo que necesitamos es de 4GB, pero es más que recomendable que le deis 8GB para que el sistema vaya más suelto y tengáis espacio suficiente para instalar más aplicaciones.
* Entorno de escritorio: De momento y con este CD sólo podemos elegir Ubuntu (GNOME). Puede que en un futuro o en versiones DVD podamos elegir más sabores como Kubuntu (KDE), Xubuntu (Xfce), etc.
* Idioma: No hace falta explicación.
* Usuario: Por defecto os pondrá el mismo usuario que tenéis en Windows, pero podéis cambiarlo. El usuario es el nombre con el que iniciaréis sesión en Ubuntu, al igual que hace Windows cuando hay más de un usuario en la máquina.
* Contraseña: Pondremos dos veces la contraseña que queremos para nuestro usuario.
Y eso es todo. No hay líos de particionado, ni de configuración de hardware, ni de nada. Como veis es sumamente simple.
Cuando hayas acabado, dadle al botón “Instalar“…
Y la cosa comenzará. En el fondo no está aún instalando el sistema. Lo que está haciendo es preparar unos “archivos temporales” de instalación para la segunda fase, que será la que sí haga la instalación como tal.
Y listo. Una vez finalice de construir esos archivos temporales os avisará de que ha terminado y nos preguntará si queremos reiniciar el sistema para continuar con el proceso, o bien si estáis haciendo algo en Windows, reiniciar más tarde.
2.2.- Segunda etapa: Instalación desde Ubuntu
Una vez reiniciemos, en lugar de iniciarse de forma automática Windows, nos mostrará un menú de selección para elegir si iniciar Windows o Ubuntu.
Elegimos la segunda opción para continuar con la instalación y nos mostrará otro menú de selección, en esta ocasión para elegir el “menu.lst“. Elegimos la primera opción que veis en la siguiente captura:
Ahora se nos mostrará el logo de Ubuntu con una franja naranja que rebota de izquierda a derecha, hasta que se vacíe y comience a llenarse de naranja de nuevo de izquierda a derecha para indicar el progreso de inicio. Es probable que tarde un par de minutos aproximadamente, pero tranquilos, es sólo para el proceso de instalación
Cuando finalice de llenarse la barra de color naranja nos mostrará el wallpaper de Hardy con una ventana que se llama “Comprobando la instalación“.
Este proceso en realidad comprende varios subprocesos: un particionado virtual, formateo de las particiones virtuales, copia de archivos del sistema, configurar apt (el gestor de paquetes), descargar e instalar paquetes extras de idiomas (si tenemos conexión a internet), configurar hora, detección y configuración de hardware, configuración de grub, eliminación de los archivos temporales de instalación… Una vez finalice, reiniciará la máquina de nuevo.
Enhorabuena, acabas de instalar Ubuntu. ¿Difícil?
3.- Inicio del sistema Ubuntu ya instalado
Ya tenemos disponible el acostumbrado grub, que es el menú de elección de sistema operativo que instala Ubuntu.
En él podemos elegir que inicie Ubuntu (primera opción), Ubuntu en modo de recuperación (segunda opción), una comprobación de la memoria RAM (tercera opción) o Windows (quinta opción).
Seleccionamos la primera y volveremos a ver la franja naranja de Ubuntu que vimos antes, eso sí, ahora iniciará el sistema más rápido, aunque es probable que esta primera vez sea más lenta que las consecutivas.
Cuando finalice nos preguntará por nuestro login (nombre de usuario), que configuramos en la fase de instalación de Windows.
Lo introducimos y le damos a “Enter“. Hacemos lo mismo con la siguiente pantalla, en esta ocasión con la contraseña asociada con la cuenta que configuramos.
Y listo, ya hemos entrado en Ubuntu Hardy. Más simple, imposible.
Para los que aún tengan dudas con lo que se ha hecho en la partición o disco seleccionado, vais a comprobar que no ha sido nada dañino. Lo único que ha hecho ha sido generar un par de archivos en la raíz de la partición (en nuestro ejemplo, en C) y una carpeta (ubuntu) que es la que contiene el sistema.
En esta captura lo podés ver mejor, así como el espacio asignado a dicha carpeta:
Podéis estar tranquilos pues como os dije en la introducción, esta instalación no es nada intrusiva ni tiene ningún tipo de riesgos para el sistema Windows.
4.- Desinstalación de Ubuntu
En caso de que a vuestro amigo o familiar no le haya gustado, o por contra, le haya gustado tanto que quiera instalarlo en condiciones con sus particiones específicas, podéis desinstalar fácilmente Ubuntu también desde Windows.
Para ello lo tratamos como si fuera una aplicación más, es decir, nos vamos a “Inicio > Panel de Control > Agregar o quitar programas > Cambiar o quitar programas“, seleccionamos de la lista “Ubuntu” y pulsamos sobre el botón “Cambiar o quitar“:
Podéis estar tranquilos pues como os dije en la introducción, esta instalación no es nada intrusiva ni tiene ningún tipo de riesgos para el sistema Windows.
4.- Desinstalación de Ubuntu
En caso de que a vuestro amigo o familiar no le haya gustado, o por contra, le haya gustado tanto que quiera instalarlo en condiciones con sus particiones específicas, podéis desinstalar fácilmente Ubuntu también desde Windows.
Para ello lo tratamos como si fuera una aplicación más, es decir, nos vamos a “Inicio > Panel de Control > Agregar o quitar programas > Cambiar o quitar programas“, seleccionamos de la lista “Ubuntu” y pulsamos sobre el botón “Cambiar o quitar“:
Desinstalará Ubuntu en muy pocos segundos y nos informará de ello, le damos a “Terminar“.
Tras esto habrá desaparecido todo posible rastro de Ubuntu. Tanto los dos archivos que vimos en C: como la carpeta, podéis comprobarlo. Además cuando reiniciéis, Windows se iniciará automáticamente como lo había hecho antes.
Conclusión
Personalmente no recomiendo esta instalación para un usuario que vaya a usar Ubuntu continuamente. El rendimiento no es que sea malo, todo lo contrario ya que va francamente bien.
Sin embargo, sí recomiendo este tipo de instalación a aquellos usuarios a los que está orientado Wubi, a usuarios de Windows que tienen algo de pavor a particionar o incertidumbre a probar un sistema nuevo y quiere tener garantías de que Windows no se le dañará de ninguna forma.
Como habéis visto el proceso es muy sencillo. Sólo nos pide un login y password, y una unidad que tenga al menos 4 GB de espacio libre. El resto es mirar la pantalla o irse a tomar un café.
Del mismo modo, la desinstalación es igual de simple, borrando todo rastro con pocos clicks.
Ahora ya no hay excusa para probarlo, ¿verdad?
También te puede interesar…
· Instalar Ubuntu 8.04 Hardy Heron
· Instalar Ubuntu 8.04 Hardy Heron (javascript:void(0)
Publicar entradaAlternate CD)
· Actualizar a Ubuntu 8.04 Hardy Heron
· Activar Compiz Fusion en Ubuntu Hardy
entra en http://tuxpepino.wordpress.com/2008/05/19/instalar-ubuntu-desde-windows-con-wubi/
para enterarte de mas cosas
ARTURO LUGO
Analogia sobre Ubuntu
Soy un asiduo de la tecnologia
Por lo tanto estoy aqui para hablar de ello,
Ok, el tema que voy ha abordar se trata del Sistema Libre, que esta en boca de todos los linuxeros, como yo, que aun no dejan a las ventanas, si no dejan las ventanas.. admito.. por que ?
Por temosr a perderse entre el frio hemisferio, que radica en el freedom, del temindo TUX...
Ubuntu es una version que viene enla version 7.10 y 8.04(nueva).. no estoy muy empapado aun con este sujeto operativo, pèro segun lei, esta mas que bueno, esta visualmente amigable, me recuerda a las vetanas, ALTO.. NO HABLEMOS DE VENTANAS.. ESTAMOS HABLANDO DEL PINGUINO....
oK.. HACE UN BUEN TIEMPO que le estoy investigando al pinguino..
empece con fedora(ne modo consola, y el modo grafico), lo cual me pareceron un poco rigidas.. cuando eso era un tema la cuestion de cotroladores para ciertos dispositivos...
Luego venia comprando revistas, libros sobre el sistema.. hasta ue en este momento estoy descargano la version 8.04. a mi pc.. para probar,, solo que es demasiado grande. son 699 mb..
paciencia.. que lo bueno se hace esperar.. les cuento que cuando vaya decubriendo mas cosas , voy ha ir escupiendo sus principales caracteristicas
es nuevo para mi esta version.. EN si linux es nuevo.. apesar de conocerlo de antes.. es lo que siempre quiece conocer.. al famoso , y estable S. OPERATIVO..
QUE MAS PUEDO DECIR.. ESTOY ENTRANDO EN UNA ERA TOTALMENTE DIFERENTE.. ES EL MAYOR PROYECTO QUE REALICE HASTA AHORA..
esten atentos que hay mas cosas....
ARTURO LUGO
domingo, 18 de mayo de 2008
La nanotecnología podría promover la economía del hidrógeno
(NC&T) Cuando se menciona la palabra "nanotecnología", la gente piensa en exóticas micromáquinas o en innovadores chips de ordenador. Pero las aplicaciones abarcan todos los campos, y, ahora un nuevo uso está siendo probado por un grupo de expertos de la Universidad Estatal de New Jersey (Rutgers).
En un estudio presentado en la Sociedad Americana de Química, los investigadores describen cómo elaboran una superficie de textura fina de metal iridio que se puede usar para extraer hidrógeno del amoníaco, y luego capturarlo y alimentar con él una célula de combustible. La superficie única del metal consta de millones de pirámides con facetas muy diminutas, de cinco nanómetros de sección, en las que las moléculas de amoníaco pueden anidar como piezas de un rompecabezas. Esto acomoda a las moléculas para que transcurra su descomposición de manera completa y eficaz.
"Las superficies nanoestructuradas que examinamos son catalizadores ejemplares", declara Ted Madey, profesor de ciencia de superficies en el departamento de física de la citada universidad. También tienen el potencial de catalizar reacciones químicas para las industrias química y farmacéutica.
Un obstáculo importante para establecer la "economía del hidrógeno" es la seguridad y bajo coste del almacenamiento y transporte del combustible de hidrógeno. El proceso recién descubierto podría contribuir a la solución definitiva de este problema. Manipular hidrógeno en su forma nativa, como gas ligero muy inflamable, plantea desafíos peligrosos a la ingeniería, y requeriría construir una nueva infraestructura de distribución de combustible a partir de cero.
Usando procesos establecidos para unir el hidrógeno con nitrógeno atmosférico en moléculas de amoníaco (que es simplemente un átomo de nitrógeno unido a tres átomos de hidrógeno), se puede manejar el líquido resultante tal como hoy se maneja la gasolina. Entonces, empleando nanocatalizadores basados en el que se desarrolla en Rutgers, se puede extraer hidrógeno puro bajo el capó del vehículo según requiera la célula de combustible, y el inocuo nitrógeno restante es liberado de nuevo a la atmósfera.
Al desarrollar catalizadores industriales, los científicos e ingenieros se han concentrado tradicionalmente en cómo de rápido podrían realizar una reacción química. En tales situaciones, sin embargo, los catalizadores a menudo controlan más de una reacción, produciendo sustancias no deseadas que tienen que ser separadas. También, los catalizadores tradicionales a veces pierden fuerza en el proceso de la reacción. Estos problemas podrían ser minimizados preparando a la medida superficies de metal nanoestructuradas para servir de soporte a catalizadores industriales, logrando así procesos de catálisis más robustos y selectivos.ARTURO LUGO
En un estudio presentado en la Sociedad Americana de Química, los investigadores describen cómo elaboran una superficie de textura fina de metal iridio que se puede usar para extraer hidrógeno del amoníaco, y luego capturarlo y alimentar con él una célula de combustible. La superficie única del metal consta de millones de pirámides con facetas muy diminutas, de cinco nanómetros de sección, en las que las moléculas de amoníaco pueden anidar como piezas de un rompecabezas. Esto acomoda a las moléculas para que transcurra su descomposición de manera completa y eficaz.
"Las superficies nanoestructuradas que examinamos son catalizadores ejemplares", declara Ted Madey, profesor de ciencia de superficies en el departamento de física de la citada universidad. También tienen el potencial de catalizar reacciones químicas para las industrias química y farmacéutica.
Un obstáculo importante para establecer la "economía del hidrógeno" es la seguridad y bajo coste del almacenamiento y transporte del combustible de hidrógeno. El proceso recién descubierto podría contribuir a la solución definitiva de este problema. Manipular hidrógeno en su forma nativa, como gas ligero muy inflamable, plantea desafíos peligrosos a la ingeniería, y requeriría construir una nueva infraestructura de distribución de combustible a partir de cero.
Usando procesos establecidos para unir el hidrógeno con nitrógeno atmosférico en moléculas de amoníaco (que es simplemente un átomo de nitrógeno unido a tres átomos de hidrógeno), se puede manejar el líquido resultante tal como hoy se maneja la gasolina. Entonces, empleando nanocatalizadores basados en el que se desarrolla en Rutgers, se puede extraer hidrógeno puro bajo el capó del vehículo según requiera la célula de combustible, y el inocuo nitrógeno restante es liberado de nuevo a la atmósfera.
Al desarrollar catalizadores industriales, los científicos e ingenieros se han concentrado tradicionalmente en cómo de rápido podrían realizar una reacción química. En tales situaciones, sin embargo, los catalizadores a menudo controlan más de una reacción, produciendo sustancias no deseadas que tienen que ser separadas. También, los catalizadores tradicionales a veces pierden fuerza en el proceso de la reacción. Estos problemas podrían ser minimizados preparando a la medida superficies de metal nanoestructuradas para servir de soporte a catalizadores industriales, logrando así procesos de catálisis más robustos y selectivos.ARTURO LUGO
Tecnología GRID cerca del usuario
(NC&T/UAB) Desde su creación, el desarrollo y los avances de Internet han estado ligados a la progresiva implantación de nuevos servicios que han facilitado el acceso y la transmisión de información entre computadores remotos. El correo electrónico y la creación de una interfaz interactiva y fácil de utilizar, la World Wide Web, han sido algunos de los servicios clave que han contribuido a la popularización de Internet. La recientemente aparecida tecnología GRID, que conecta centenares de grandes ordenadores para que compartan no sólo información, sino también capacidad de cálculo y grandes espacios de almacenamiento, ha dado ahora un nuevo paso adelante: la disponibilidad de software y de herramientas necesarias para que la interfaz con el usuario sea interactiva. La UAB ha participado en este proyecto, encargándose de crear el software que coordina el acceso a los diferentes ordenadores de este nuevo sistema.
La principal novedad es su interactividad: el usuario trabaja a través de un "escritorio virtual", con comandos y ventanas gráficas que acceden de manera fácil y transparente a los recursos de toda la red GRID, como si se tratara de las carpetas del escritorio de su portátil. Las posibilidades de este sistema en muchas áreas son inmensas.
Una de las aplicaciones se dirige a aquellos ámbitos en los que se tienen que transformar grandes cantidades de información en conocimiento, mediante el uso de simulaciones y de técnicas de análisis y de minería de datos, con el fin de mejorar la toma de decisiones. Este sería el caso, por ejemplo, de un cirujano que tuviese que proponer a distancia diferentes configuraciones para una operación de bypass, en función de la información de un escáner realizado al paciente. El médico podría comparar diferentes simulaciones y visualizar en tiempo real el flujo sanguíneo que resultase de cada simulación. El nuevo sistema interactivo le permitiría hacer todo esto, con el fin de poder tomar la mejor decisión posible.
Otro tipo de situaciones que puede resolver el nuevo sistema son aquellas en las que es necesaria una considerable capacidad de cálculo y el acceso a grandes bases de datos distribuidas. Un hipotético caso de este tipo de aplicación sería la de un ingeniero de una central térmica que tuviese que decidir el mejor momento para operar con cada combustible, teniendo en cuenta las predicciones de dispersión de la contaminación, basadas en un modelo meteorológico adaptado al área geográfica de la central.
El equipo de investigadores de la Universitat Autònoma de Barcelona, dirigido por el profesor de la Escuela Técnica Superior de Ingeniería de la UAB Miquel Àngel Senar, ha creado el software necesario para coordinar y gestionar el uso interactivo del sistema GRID, que también permite que se puedan utilizar múltiples procesadores al mismo tiempo. Este servicio, desarrollado en la UAB, se encarga de llevar a cabo automáticamente todos los pasos necesarios para ejecutar las aplicaciones de los usuarios en alguno de los recursos del GRID, que se seleccionan de forma transparente por el propio servicio.
El sistema ha sido desarrollado en el marco del proyecto europeo CrossGRID, que ha contado con una financiación de 5 millones de euros, y en el que han participado 21 instituciones de toda Europa. Además del equipo de investigadores de la UAB, en el proyecto europeo han participado investigadores del CSIC y de la Universidad de Santiago, con un papel muy relevante. El equipo del CSIC ha sido el responsable de la primera aplicación: una red neuronal para la búsqueda de nuevas partículas elementales en física; mientras que el equipo de la Universidad de Santiago ha adaptado una aplicación para evaluar la contaminación del aire como la descrita en el ejemplo de la central térmica.
ARTURO LUGO
La principal novedad es su interactividad: el usuario trabaja a través de un "escritorio virtual", con comandos y ventanas gráficas que acceden de manera fácil y transparente a los recursos de toda la red GRID, como si se tratara de las carpetas del escritorio de su portátil. Las posibilidades de este sistema en muchas áreas son inmensas.
Una de las aplicaciones se dirige a aquellos ámbitos en los que se tienen que transformar grandes cantidades de información en conocimiento, mediante el uso de simulaciones y de técnicas de análisis y de minería de datos, con el fin de mejorar la toma de decisiones. Este sería el caso, por ejemplo, de un cirujano que tuviese que proponer a distancia diferentes configuraciones para una operación de bypass, en función de la información de un escáner realizado al paciente. El médico podría comparar diferentes simulaciones y visualizar en tiempo real el flujo sanguíneo que resultase de cada simulación. El nuevo sistema interactivo le permitiría hacer todo esto, con el fin de poder tomar la mejor decisión posible.
Otro tipo de situaciones que puede resolver el nuevo sistema son aquellas en las que es necesaria una considerable capacidad de cálculo y el acceso a grandes bases de datos distribuidas. Un hipotético caso de este tipo de aplicación sería la de un ingeniero de una central térmica que tuviese que decidir el mejor momento para operar con cada combustible, teniendo en cuenta las predicciones de dispersión de la contaminación, basadas en un modelo meteorológico adaptado al área geográfica de la central.
El equipo de investigadores de la Universitat Autònoma de Barcelona, dirigido por el profesor de la Escuela Técnica Superior de Ingeniería de la UAB Miquel Àngel Senar, ha creado el software necesario para coordinar y gestionar el uso interactivo del sistema GRID, que también permite que se puedan utilizar múltiples procesadores al mismo tiempo. Este servicio, desarrollado en la UAB, se encarga de llevar a cabo automáticamente todos los pasos necesarios para ejecutar las aplicaciones de los usuarios en alguno de los recursos del GRID, que se seleccionan de forma transparente por el propio servicio.
El sistema ha sido desarrollado en el marco del proyecto europeo CrossGRID, que ha contado con una financiación de 5 millones de euros, y en el que han participado 21 instituciones de toda Europa. Además del equipo de investigadores de la UAB, en el proyecto europeo han participado investigadores del CSIC y de la Universidad de Santiago, con un papel muy relevante. El equipo del CSIC ha sido el responsable de la primera aplicación: una red neuronal para la búsqueda de nuevas partículas elementales en física; mientras que el equipo de la Universidad de Santiago ha adaptado una aplicación para evaluar la contaminación del aire como la descrita en el ejemplo de la central térmica.
ARTURO LUGO
Puntos malignos de acceso inalámbrico a Internet
(NC&T) Así lo afirman expertos en Internet inalámbrica y cibercrimen de la Universidad de Cranfield, asociada de la Academia de Defensa del Reino Unido.
En esencia, los usuarios piensan que se han registrado en un punto de acceso inalámbrico cuando, de hecho, los han engañado para conectarse a la estación base no autorizada del atacante. Para anular la conexión a una estación legítima, las estaciones ficticias envían una señal más fuerte cerca del cliente inalámbrico, convirtiéndose en un "Gemelo Malvado".
Una vez que el usuario se conecta al "Gemelo Malvado", el ciberdelincuente puede interceptar los datos que se transmitan, como detalles bancarios o información personal. Los delincuentes no tienen que ser demasiado diestros para llevar a cabo semejante ataque. Debido a que las redes inalámbricas están basadas en señales de radio, éstas se pueden detectar fácilmente sintonizando la misma frecuencia.
Los usuarios son invitados a registrarse en el servidor del atacante, proporcionando así durante ese inicio de sesión, información confidencial como nombres de usuario y contraseñas, la cual puede usarse por otras personas no autorizadas. Este tipo de cibercrimen pasa generalmente inadvertido debido a que los usuarios ignoran lo que está ocurriendo hasta mucho después del incidente.
También pueden realizarse ataques para entorpecer el funcionamiento de la red, o de total denegación de servicio. El atacante puede hacer que la red de la víctima "ayude" en el ataque haciendo menos probable la detección de la disminución del rendimiento.
Dada la extensión y popularidad de las redes inalámbricas, de las que según la compañía IDC, se vaticina un incremento de 7.800 a casi 22.000 para el año 2008, los usuarios necesitan ser cautelosos al usar su laptops u otros dispositivos portátiles con Wi-Fi para realizar transacciones financieras o transmisiones de naturaleza confidencial o personal.
Además, los usuarios pueden protegerse asegurando que su dispositivo Wi-Fi tenga las medidas de seguridad activadas, pues en la inmensa mayoría de casos, las estaciones base vienen configuradas por el fabricante en el modo menos seguro posible.
La Universidad de Cranfield reconoce que ésta es una nueva área del cibercrimen donde se requiere más investigación.
ARTURO LUGO
En esencia, los usuarios piensan que se han registrado en un punto de acceso inalámbrico cuando, de hecho, los han engañado para conectarse a la estación base no autorizada del atacante. Para anular la conexión a una estación legítima, las estaciones ficticias envían una señal más fuerte cerca del cliente inalámbrico, convirtiéndose en un "Gemelo Malvado".
Una vez que el usuario se conecta al "Gemelo Malvado", el ciberdelincuente puede interceptar los datos que se transmitan, como detalles bancarios o información personal. Los delincuentes no tienen que ser demasiado diestros para llevar a cabo semejante ataque. Debido a que las redes inalámbricas están basadas en señales de radio, éstas se pueden detectar fácilmente sintonizando la misma frecuencia.
Los usuarios son invitados a registrarse en el servidor del atacante, proporcionando así durante ese inicio de sesión, información confidencial como nombres de usuario y contraseñas, la cual puede usarse por otras personas no autorizadas. Este tipo de cibercrimen pasa generalmente inadvertido debido a que los usuarios ignoran lo que está ocurriendo hasta mucho después del incidente.
También pueden realizarse ataques para entorpecer el funcionamiento de la red, o de total denegación de servicio. El atacante puede hacer que la red de la víctima "ayude" en el ataque haciendo menos probable la detección de la disminución del rendimiento.
Dada la extensión y popularidad de las redes inalámbricas, de las que según la compañía IDC, se vaticina un incremento de 7.800 a casi 22.000 para el año 2008, los usuarios necesitan ser cautelosos al usar su laptops u otros dispositivos portátiles con Wi-Fi para realizar transacciones financieras o transmisiones de naturaleza confidencial o personal.
Además, los usuarios pueden protegerse asegurando que su dispositivo Wi-Fi tenga las medidas de seguridad activadas, pues en la inmensa mayoría de casos, las estaciones base vienen configuradas por el fabricante en el modo menos seguro posible.
La Universidad de Cranfield reconoce que ésta es una nueva área del cibercrimen donde se requiere más investigación.
ARTURO LUGO
El robot piramidal
(NC&T) Dichos enjambres se moverán fácilmente por terrenos rocosos, o podrán, por ejemplo, adoptar formas adecuadas para formar estructuras útiles, como antenas de comunicaciones y velas solares. La NASA podría usarlos en sus misiones espaciales a otros planetas.
El primer prototipo avanzado del proyecto ANTS es el mencionado TETWalker (caminante tetraédrico, llamado así por su forma, una pirámide con tres caras y una base). Motores eléctricos en las esquinas de la pirámide (nodos), unidos a las barras telescópicas que forman los lados de ésta, permiten su movimiento como en las patas de un trípode de cámara. La pirámide se desplaza cambiando la longitud de los lados, alterando el centro de gravedad de la pirámide y haciendo que se tumbe. El prototipo fue llevado a la Antártida en enero, donde fue probado en condiciones difíciles y semejantes a las existentes en Marte. A partir de estas pruebas los ingenieros han concluido que los motores deben ser desplazados al centro de las barras para una mayor fiabilidad.
En el futuro, estos robots serán mucho más pequeños, cuando sus motores sean reemplazados por sistemas micro o nanoelectromecánicos (MEMS y NEMS). Las barras serán sustituidas con nanotubos de carbono, permitiendo aumentar su número.
Estos TETwalkers en miniatura, desplegados en enjambres, podrán cambiar su forma para alcanzar una gran variedad de objetivos. Por ejemplo, podrán aplanarse para adoptar una forma aerodinámica durante el descenso por la atmósfera de Marte, moverse como una serpiente por la superficie, actuar como antena al encontrar algo interesante, etc.
Si el robot recibe algún tipo de daño en alguna de sus partes, los nodos y barras podrán reconectarse adecuadamente y desechar los segmentos inútiles. Mientras, los científicos intentan desarrollar sofisticados medios de control mediante inteligencia artificial, que permitan gobernar enjambres de un gran número de miembros.
ARTURO LUGO
El primer prototipo avanzado del proyecto ANTS es el mencionado TETWalker (caminante tetraédrico, llamado así por su forma, una pirámide con tres caras y una base). Motores eléctricos en las esquinas de la pirámide (nodos), unidos a las barras telescópicas que forman los lados de ésta, permiten su movimiento como en las patas de un trípode de cámara. La pirámide se desplaza cambiando la longitud de los lados, alterando el centro de gravedad de la pirámide y haciendo que se tumbe. El prototipo fue llevado a la Antártida en enero, donde fue probado en condiciones difíciles y semejantes a las existentes en Marte. A partir de estas pruebas los ingenieros han concluido que los motores deben ser desplazados al centro de las barras para una mayor fiabilidad.
En el futuro, estos robots serán mucho más pequeños, cuando sus motores sean reemplazados por sistemas micro o nanoelectromecánicos (MEMS y NEMS). Las barras serán sustituidas con nanotubos de carbono, permitiendo aumentar su número.
Estos TETwalkers en miniatura, desplegados en enjambres, podrán cambiar su forma para alcanzar una gran variedad de objetivos. Por ejemplo, podrán aplanarse para adoptar una forma aerodinámica durante el descenso por la atmósfera de Marte, moverse como una serpiente por la superficie, actuar como antena al encontrar algo interesante, etc.
Si el robot recibe algún tipo de daño en alguna de sus partes, los nodos y barras podrán reconectarse adecuadamente y desechar los segmentos inútiles. Mientras, los científicos intentan desarrollar sofisticados medios de control mediante inteligencia artificial, que permitan gobernar enjambres de un gran número de miembros.
ARTURO LUGO
El robot móvil más pequeño del mundo
El robot, obra de investigadores del Dartmouth College, es decenas de veces más pequeño en longitud, y miles de veces más pequeño en masa, que los anteriores microrrobots controlables sin cables fijos. Cuando decimos "controlable", esto significa que es como un automóvil, se le puede dirigir en cualquier dirección sobre una superficie plana. No se mueve mediante ruedas, sino arrastrándose como una oruga de silicio, ejecutando decenas de miles de pasos de 10 nanómetros cada segundo. Para girar, pone un "pie" de silicio hacia fuera y lo usa como eje para pivotar, como un motociclista patinando en una curva muy estrecha.
Las aplicaciones futuras para los sistemas microelectromecánicos, o MEMS, incluyen garantizar la seguridad de la información, servir como apoyo para la autentificación y autorización en las redes, inspeccionar y reparar un circuito integrado, la exploración en ambientes de alto riesgo como sería el caso del escenario de una explosión química peligrosa, o participar en tareas que involucren la biotecnología, como por ejemplo para manipular células o tejidos.
Los investigadores fueron dirigidos por Bruce Donald, profesor de Ciencias de la Computación en el Dartmouth College. Donald trabajó con científicos de su centro y del Instituto Tecnológico de Massachusetts (MIT).
La máquina mide 60 por 250 micrómetros (un micrómetro es una milésima de milímetro). Integra el sistema de energía, la locomoción, la comunicación, y un método de direccionamiento controlable, una combinación que nunca antes se había logrado en una máquina tan pequeña. Este descubrimiento va a liderar una nueva generación de microrrobots, aún más diminutos.
Las máquinas tan pequeñas tienden a pegarse a todo lo que tocan, de forma semejante a los granos de arena que se pegan a nuestros pies después de un día en la playa. Así que los ingenieros construyen estos microrrobots sin ruedas o uniones articuladas que deban deslizarse suavemente. En vez de eso, estos robots se mueven doblando sus cuerpos como las orugas. En su escala diminuta, esta máquina se mueve de forma sorprendentemente rápida.
El prototipo es dirigible y sin cables fijos, lo que significa que se le puede conducir libremente en una superficie, sin que deba permanecer sujeto a cables o carriles que limitarían su capacidad de movimiento, como sucedía en los microrrobots previamente desarrollados. El robot contiene dos microactuadores independientes, uno para el movimiento delantero y otro para girar. No está preprogramado para moverse, es teleoperado, y obtiene la energía que necesita de la rejilla de electrodos sobre la que camina. La carga recibida a través de los electrodos no sólo le suministra la energía, sino también las instrucciones para moverse hacia cualquier parte sobre los electrodos, sin tener que estar sujeto a ellos.
ARTURO LUGO
Las aplicaciones futuras para los sistemas microelectromecánicos, o MEMS, incluyen garantizar la seguridad de la información, servir como apoyo para la autentificación y autorización en las redes, inspeccionar y reparar un circuito integrado, la exploración en ambientes de alto riesgo como sería el caso del escenario de una explosión química peligrosa, o participar en tareas que involucren la biotecnología, como por ejemplo para manipular células o tejidos.
Los investigadores fueron dirigidos por Bruce Donald, profesor de Ciencias de la Computación en el Dartmouth College. Donald trabajó con científicos de su centro y del Instituto Tecnológico de Massachusetts (MIT).
La máquina mide 60 por 250 micrómetros (un micrómetro es una milésima de milímetro). Integra el sistema de energía, la locomoción, la comunicación, y un método de direccionamiento controlable, una combinación que nunca antes se había logrado en una máquina tan pequeña. Este descubrimiento va a liderar una nueva generación de microrrobots, aún más diminutos.
Las máquinas tan pequeñas tienden a pegarse a todo lo que tocan, de forma semejante a los granos de arena que se pegan a nuestros pies después de un día en la playa. Así que los ingenieros construyen estos microrrobots sin ruedas o uniones articuladas que deban deslizarse suavemente. En vez de eso, estos robots se mueven doblando sus cuerpos como las orugas. En su escala diminuta, esta máquina se mueve de forma sorprendentemente rápida.
El prototipo es dirigible y sin cables fijos, lo que significa que se le puede conducir libremente en una superficie, sin que deba permanecer sujeto a cables o carriles que limitarían su capacidad de movimiento, como sucedía en los microrrobots previamente desarrollados. El robot contiene dos microactuadores independientes, uno para el movimiento delantero y otro para girar. No está preprogramado para moverse, es teleoperado, y obtiene la energía que necesita de la rejilla de electrodos sobre la que camina. La carga recibida a través de los electrodos no sólo le suministra la energía, sino también las instrucciones para moverse hacia cualquier parte sobre los electrodos, sin tener que estar sujeto a ellos.
ARTURO LUGO
De SETI@home a BOINC
PROYECTO INTERESANTE
Más de 450.000 personas están actualmente participando en los variados proyectos a través de la Infraestructura Abierta de Berkeley para la Computación en Red (BOINC, por sus siglas en inglés), que proporciona la capacidad de gestionarlos en forma conjunta.
El alcance masivo y la popularidad que logró SETI@home, la iniciativa que desde 1999 involucró a millones de personas en el mundo en el análisis de datos de radio para hallar posibles señales de inteligencia extraterrestre, fueron claves en el éxito de ese proyecto que comprometió a gente de todo el orbe en un experimento científico y real.
Gestado por científicos de la Universidad de California en Berkeley y financiado originalmente por la Sociedad Planetaria, la organización no gubernamental más grande e influyente a nivel mundial en temas de exploración planetaria y búsqueda de vida extraterrestre, el proyecto logró armar la mayor supercomputadora virtual en la historia dedicada al rastreo de señales de radio provenientes de civilizaciones del espacio exterior.
Esta supercomputadora analizaría datos tomados por el proyecto SERENDIP (Búsqueda de Emisiones de Radio Procedentes de Poblaciones Inteligentes y Desarrolladas), un receptor montado en el radiotelescopio de Arecibo (Puerto Rico), el mayor sobre la faz del planeta.
Las PC, cuando están encendidas y sin usarse, consumen energía, y aquí entra en juego el original proyecto. La idea es que el usuario facilite su computadora cuando no la está utilizando, por ejemplo cuando se activan los conocidos protectores de pantalla.
La información que recibe el radiotelescopio de Arecibo es procesada y los datos enviados a la Universidad de Berkeley, donde son divididos y enviados a los participantes. Dado que el programa funciona al igual que un protector de pantalla y no interfiere con el normal funcionamiento de la PC, usuarios de todo el mundo se han convertido en voluntarios para aprovechar el tiempo ocioso de sus equipos. Luego de procesar cada unidad, los resultados retornan a Berkeley, donde las señales más interesantes y prometedoras son almacenadas para un posterior análisis y revisión.
Las tareas que requieren de gran análisis y procesamiento de datos mediante computadora, pueden ser divididas en partes que son llevadas a cabo por varias unidades en forma simultánea, recomponiendo luego el resultado con la integración parcial de cada una. La energía de las computadoras individuales esparcidas por el mundo es equivalente a cientos de miles de procesadores, lo que permite una capacidad de cálculo mayor que la que tendrían los científicos que trabajan en determinado proyecto de investigación, al igual que una efectiva reducción de costos.
Además de SETI@home con su nuevo potencial, BOINC auspiciado por la Fundación Nacional de la Ciencia de Estados Unidos, le permite donar tiempo y recursos de su computadora en los siguientes proyectos:
-"Climateprediction.net" es el mayor intento de ofrecer un pronóstico del clima en el futuro y generar respuestas al cambio climático que afecta al planeta. Mediante la reproducción y el refinamiento de los modelos climáticos, se logra reducir la incertidumbre en las proyecciones del clima. Es llevado a cabo por la Open University de Inglaterra.
-"Einstein@home", el programa de búsqueda de señales gravitatorias emitidas por estrellas de neutrones que rotan (conocidas como púlsares), que usa datos de detectores de ondas gravitatorias. Es auspiciado por la Sociedad Americana de Física y otras organizaciones internacionales.
-"LHC@home" mejora el diseño del acelerador de partículas LHC (Gran Colisionador de Hadrones) del CERN (Centro Europeo para la Investigación Nuclear), el mayor de su tipo y que comenzará a funcionar en el 2007. Los experimentos que llevará a cabo para investigar las partículas manejarán un volumen de información similar al de la actual red Europea de telecomunicaciones.
-Proyecto piloto de BOINC, "Predictor@home" es un esfuerzo mundial en la investigación de la estructura de las proteínas a partir de la secuencia de las mismas. El trabajo está enfocado en la prueba y evaluación de nuevos algoritmos para la predicción de métodos de la distribución de las proteínas. Tiene como objetivo final las cuestiones de biomedicina críticas de las enfermedades relacionadas con las proteínas.
-"Rosetta@home", otro proyecto relacionado con las proteínas, predice cómo las cadenas de aminoácidos que las componen se pliegan y toman forma, ayudando a los investigadores a desarrollar curas para las enfermedades humanas como la malaria, el HIV, el Alzheimer y algunos tipos de cáncer.
-"Cell Computing", lleva a cabo investigación biomédica, está en idioma japonés y requiere de un software de cliente no estándar.
-"World Community Grid", que tiene como objetivo convertirse en la mayor red mundial de computación para enfrentar proyectos que beneficien a la humanidad. La innovación tecnológica, combinada con la investigación científica y los voluntarios de todo el mundo, hacen posible la finalización de proyectos que no serían completados debido al alto costo de infraestructura de computadoras que requerirían. Por ejemplo, en el 2003, los científicos en menos de tres meses identificaron más de cuarenta tratamientos posibles en la lucha de la mortal enfermedad de la viruela, un trabajo que habría tardado más de un año en completarse. Actualmente se llevan a cabo dos proyectos: "Human Proteome Folding", para la identificación de proteínas producidas por los genes humanos, y "FightAIDS@Home", en la lucha contra el SIDA.
El software es gratuito, y se puede participar libremente en más de un proyecto y controlar el porcentaje de la energía que su computadora le asigna a cada uno. De esta forma, su equipo siempre estará ocupado aún cuando alguno de los proyectos se encuentre inactivo y contribuirá con atrayentes iniciativas que, sin duda, serán ventajosas para el hombre.
ARTURO LUGO
Más de 450.000 personas están actualmente participando en los variados proyectos a través de la Infraestructura Abierta de Berkeley para la Computación en Red (BOINC, por sus siglas en inglés), que proporciona la capacidad de gestionarlos en forma conjunta.
El alcance masivo y la popularidad que logró SETI@home, la iniciativa que desde 1999 involucró a millones de personas en el mundo en el análisis de datos de radio para hallar posibles señales de inteligencia extraterrestre, fueron claves en el éxito de ese proyecto que comprometió a gente de todo el orbe en un experimento científico y real.
Gestado por científicos de la Universidad de California en Berkeley y financiado originalmente por la Sociedad Planetaria, la organización no gubernamental más grande e influyente a nivel mundial en temas de exploración planetaria y búsqueda de vida extraterrestre, el proyecto logró armar la mayor supercomputadora virtual en la historia dedicada al rastreo de señales de radio provenientes de civilizaciones del espacio exterior.
Esta supercomputadora analizaría datos tomados por el proyecto SERENDIP (Búsqueda de Emisiones de Radio Procedentes de Poblaciones Inteligentes y Desarrolladas), un receptor montado en el radiotelescopio de Arecibo (Puerto Rico), el mayor sobre la faz del planeta.
Las PC, cuando están encendidas y sin usarse, consumen energía, y aquí entra en juego el original proyecto. La idea es que el usuario facilite su computadora cuando no la está utilizando, por ejemplo cuando se activan los conocidos protectores de pantalla.
La información que recibe el radiotelescopio de Arecibo es procesada y los datos enviados a la Universidad de Berkeley, donde son divididos y enviados a los participantes. Dado que el programa funciona al igual que un protector de pantalla y no interfiere con el normal funcionamiento de la PC, usuarios de todo el mundo se han convertido en voluntarios para aprovechar el tiempo ocioso de sus equipos. Luego de procesar cada unidad, los resultados retornan a Berkeley, donde las señales más interesantes y prometedoras son almacenadas para un posterior análisis y revisión.
Las tareas que requieren de gran análisis y procesamiento de datos mediante computadora, pueden ser divididas en partes que son llevadas a cabo por varias unidades en forma simultánea, recomponiendo luego el resultado con la integración parcial de cada una. La energía de las computadoras individuales esparcidas por el mundo es equivalente a cientos de miles de procesadores, lo que permite una capacidad de cálculo mayor que la que tendrían los científicos que trabajan en determinado proyecto de investigación, al igual que una efectiva reducción de costos.
Además de SETI@home con su nuevo potencial, BOINC auspiciado por la Fundación Nacional de la Ciencia de Estados Unidos, le permite donar tiempo y recursos de su computadora en los siguientes proyectos:
-"Climateprediction.net" es el mayor intento de ofrecer un pronóstico del clima en el futuro y generar respuestas al cambio climático que afecta al planeta. Mediante la reproducción y el refinamiento de los modelos climáticos, se logra reducir la incertidumbre en las proyecciones del clima. Es llevado a cabo por la Open University de Inglaterra.
-"Einstein@home", el programa de búsqueda de señales gravitatorias emitidas por estrellas de neutrones que rotan (conocidas como púlsares), que usa datos de detectores de ondas gravitatorias. Es auspiciado por la Sociedad Americana de Física y otras organizaciones internacionales.
-"LHC@home" mejora el diseño del acelerador de partículas LHC (Gran Colisionador de Hadrones) del CERN (Centro Europeo para la Investigación Nuclear), el mayor de su tipo y que comenzará a funcionar en el 2007. Los experimentos que llevará a cabo para investigar las partículas manejarán un volumen de información similar al de la actual red Europea de telecomunicaciones.
-Proyecto piloto de BOINC, "Predictor@home" es un esfuerzo mundial en la investigación de la estructura de las proteínas a partir de la secuencia de las mismas. El trabajo está enfocado en la prueba y evaluación de nuevos algoritmos para la predicción de métodos de la distribución de las proteínas. Tiene como objetivo final las cuestiones de biomedicina críticas de las enfermedades relacionadas con las proteínas.
-"Rosetta@home", otro proyecto relacionado con las proteínas, predice cómo las cadenas de aminoácidos que las componen se pliegan y toman forma, ayudando a los investigadores a desarrollar curas para las enfermedades humanas como la malaria, el HIV, el Alzheimer y algunos tipos de cáncer.
-"Cell Computing", lleva a cabo investigación biomédica, está en idioma japonés y requiere de un software de cliente no estándar.
-"World Community Grid", que tiene como objetivo convertirse en la mayor red mundial de computación para enfrentar proyectos que beneficien a la humanidad. La innovación tecnológica, combinada con la investigación científica y los voluntarios de todo el mundo, hacen posible la finalización de proyectos que no serían completados debido al alto costo de infraestructura de computadoras que requerirían. Por ejemplo, en el 2003, los científicos en menos de tres meses identificaron más de cuarenta tratamientos posibles en la lucha de la mortal enfermedad de la viruela, un trabajo que habría tardado más de un año en completarse. Actualmente se llevan a cabo dos proyectos: "Human Proteome Folding", para la identificación de proteínas producidas por los genes humanos, y "FightAIDS@Home", en la lucha contra el SIDA.
El software es gratuito, y se puede participar libremente en más de un proyecto y controlar el porcentaje de la energía que su computadora le asigna a cada uno. De esta forma, su equipo siempre estará ocupado aún cuando alguno de los proyectos se encuentre inactivo y contribuirá con atrayentes iniciativas que, sin duda, serán ventajosas para el hombre.
ARTURO LUGO
Uso de la nanotecnología en las comunicaciones
Las investigaciones previas de los científicos de la UCI demostraron que los transistores de nanotubo pueden operar a frecuencias extremadamente altas. "Pero las conexiones de cobre entre los transistores resultaban demasiado lentas, lo que provocaba un cuello de botella en las señales eléctricas", explica Peter Burke, profesor de ingeniería eléctrica y ciencias de la computación, y uno de los investigadores que desarrollaron la tecnología. Los experimentos posteriores del grupo han revelado que los nanotubos pueden además servir como medio para transportar las señales eléctricas de un transistor al otro, y de esta forma se elimina el cuello de botella.
Las señales eléctricas son encaminadas a una altísima velocidad a través de prácticamente todos los sistemas electrónicos alámbricos actuales, y además a través de todos los inalámbricos modernos.
La mayoría de las capas de un chip semiconductor actual son dedicadas al cableado de interconexión, lo que hace que el material empleado, y su velocidad, sean en extremo importantes. La industria del semiconductor recientemente ha desplazado el aluminio en favor del cobre debido a que este último transporta las señales eléctricas más rápido. A partir del trabajo de Burke, queda claro que el cambio en la industria desde el cobre hacia los nanotubos, proveerá una ventaja aún mayor en términos de velocidad. Naturalmente, antes de que dicho cambio pueda ocurrir, sería necesario establecer una forma económica de manufacturarlos con un ensamblaje preciso, que es en lo que Burke y sus colegas están ahora trabajando.
Trabajos anteriores del equipo han demostrado que los nanotubos pueden transportar señales eléctricas dentro de un chip, a distancias de varios milímetros, con mayor eficacia que el cobre, pero no habían medido cuán rápido podrían propagar la señal. Este trabajo es la primera demostración de tecnología de interconexión en aplicaciones de velocidad ultra-alta. Ahora que el equipo de Burke ha desarrollado la tecnología de interconexión del nanotubo y los transistores de alta velocidad de nanotubos, esperan poder integrarlos en un circuito, más rápido que cualquier tecnología de semiconductores existente hoy en día.
ARTURO LUGO
Las señales eléctricas son encaminadas a una altísima velocidad a través de prácticamente todos los sistemas electrónicos alámbricos actuales, y además a través de todos los inalámbricos modernos.
La mayoría de las capas de un chip semiconductor actual son dedicadas al cableado de interconexión, lo que hace que el material empleado, y su velocidad, sean en extremo importantes. La industria del semiconductor recientemente ha desplazado el aluminio en favor del cobre debido a que este último transporta las señales eléctricas más rápido. A partir del trabajo de Burke, queda claro que el cambio en la industria desde el cobre hacia los nanotubos, proveerá una ventaja aún mayor en términos de velocidad. Naturalmente, antes de que dicho cambio pueda ocurrir, sería necesario establecer una forma económica de manufacturarlos con un ensamblaje preciso, que es en lo que Burke y sus colegas están ahora trabajando.
Trabajos anteriores del equipo han demostrado que los nanotubos pueden transportar señales eléctricas dentro de un chip, a distancias de varios milímetros, con mayor eficacia que el cobre, pero no habían medido cuán rápido podrían propagar la señal. Este trabajo es la primera demostración de tecnología de interconexión en aplicaciones de velocidad ultra-alta. Ahora que el equipo de Burke ha desarrollado la tecnología de interconexión del nanotubo y los transistores de alta velocidad de nanotubos, esperan poder integrarlos en un circuito, más rápido que cualquier tecnología de semiconductores existente hoy en día.
ARTURO LUGO
Cultivo más rápido y barato de nanotubos de carbono
(NC&T) En una investigación que podría conducir a ordenadores y dispositivos de comunicación más pequeños y potentes, Massood Tabib-Azar, profesor de ingeniería eléctrica e informática en la Case Western Reserve University, y el estudiante graduado de ingeniería Yan Xie, están cultivando puentes de nanotubos de carbono en su laboratorio, que se adhieren automáticamente a otros componentes sin la ayuda de la aplicación de una corriente eléctrica.
Los nanotubos de carbono, descubiertos hace sólo 14 años, son más fuertes que el acero y tan flexibles como el plástico, conducen la electricidad mejor que casi cualquier material jamás descubierto, y pueden obtenerse de sustancias ordinarias como el gas metano. En un tiempo relativamente corto, los nanotubos de carbono han surgido como un "material milagroso" que podría revolucionar diversas industrias, sobre todo la electrónica.
Para usar los nanotubos de carbono en la electrónica, donde pueden mejorar el rendimiento de los dispositivos y facilitar el encapsulado de más componentes por chip, los nanotubos deben conectarse a contactos eléctricos. Hasta ahora, para conectar nanotubos de carbono a los contactos eléctricos se han usado herramientas de alta precisión como los microscopios de fuerza atómica, lo que hace que los dispositivos resultantes sean muy caros. También se han usado fuerzas eléctricas para fomentar el crecimiento de nanotubos de carbono entre dos contactos. Ambas técnicas producen muy pocos dispositivos y no pueden usarse para producir un gran número de interruptores y componentes de forma rentable.
Tabib-Azar compara la fabricación de los chips de ordenador y de teléfonos móviles con la construcción de una mesa derribando un árbol y eliminando las porciones no deseadas hasta obtener una superficie llana con cuatro patas. Él y Xie descubrieron que se pueden fabricar los componentes de los circuitos integrados a gran escala mediante el cultivo de nanotubos autoensamblables. Sin embargo, en lugar de talar un árbol entero, se crean las "semillas" para cultivar lo que se necesite. En otras palabras, Tabib-Azar y Xie han encontrado las semillas para cultivar de manera simple los nanotubos de carbono que se necesitan sin desperdiciar el "árbol" entero.
La estrategia es cultivar una mesa usando una "semilla de mesa". Mediante el cultivo de los circuitos electrónicos, en lugar de echar abajo el "árbol" y eliminar las regiones no deseadas de las diferentes capas, el nuevo método tiene el potencial de producir chips muy complejos con propiedades informáticas superiores y al mismo tiempo derrochar menos, imitando el modo con que la naturaleza crea estructuras complejas.
ARTURO LUGO
Los nanotubos de carbono, descubiertos hace sólo 14 años, son más fuertes que el acero y tan flexibles como el plástico, conducen la electricidad mejor que casi cualquier material jamás descubierto, y pueden obtenerse de sustancias ordinarias como el gas metano. En un tiempo relativamente corto, los nanotubos de carbono han surgido como un "material milagroso" que podría revolucionar diversas industrias, sobre todo la electrónica.
Para usar los nanotubos de carbono en la electrónica, donde pueden mejorar el rendimiento de los dispositivos y facilitar el encapsulado de más componentes por chip, los nanotubos deben conectarse a contactos eléctricos. Hasta ahora, para conectar nanotubos de carbono a los contactos eléctricos se han usado herramientas de alta precisión como los microscopios de fuerza atómica, lo que hace que los dispositivos resultantes sean muy caros. También se han usado fuerzas eléctricas para fomentar el crecimiento de nanotubos de carbono entre dos contactos. Ambas técnicas producen muy pocos dispositivos y no pueden usarse para producir un gran número de interruptores y componentes de forma rentable.
Tabib-Azar compara la fabricación de los chips de ordenador y de teléfonos móviles con la construcción de una mesa derribando un árbol y eliminando las porciones no deseadas hasta obtener una superficie llana con cuatro patas. Él y Xie descubrieron que se pueden fabricar los componentes de los circuitos integrados a gran escala mediante el cultivo de nanotubos autoensamblables. Sin embargo, en lugar de talar un árbol entero, se crean las "semillas" para cultivar lo que se necesite. En otras palabras, Tabib-Azar y Xie han encontrado las semillas para cultivar de manera simple los nanotubos de carbono que se necesitan sin desperdiciar el "árbol" entero.
La estrategia es cultivar una mesa usando una "semilla de mesa". Mediante el cultivo de los circuitos electrónicos, en lugar de echar abajo el "árbol" y eliminar las regiones no deseadas de las diferentes capas, el nuevo método tiene el potencial de producir chips muy complejos con propiedades informáticas superiores y al mismo tiempo derrochar menos, imitando el modo con que la naturaleza crea estructuras complejas.
ARTURO LUGO
Identificado el obstaculo en la computacion cuantica
Los nanocientíficos sueñan con desarrollar una computadora cuántica, un dispositivo del tamaño de un grano de arena que podría ser más rápido y potente que los PCs modernos. Ya han identificado a los diminutos átomos artificiales llamados "puntos cuánticos" como los materiales más probables para construir estas máquinas, pero se han visto desconcertados por la conducta impredecible de estos puntos a escala nanométrica.
Un equipo de físicos de la Universidad de Ohio cree haber encontrado el problema y ha realizado una propuesta técnica para construir mejores puntos cuánticos. Los investigadores señalan que los defectos formados durante su creación operan como una barrera a la experimentación científica, pero que el obstáculo podría solventarse.
Científicos experimentales en Alemania habían bombardeado puntos cuánticos con luz para crear el estado mecánico cuántico necesario para hacer funcionar una computadora cuántica, pero no pudieron controlar ese estado de forma consistente. Sergio Ulloa, profesor de física y astronomía de la Universidad de Ohio, su colega José Villas-Boas, y el profesor adjunto Alexander Govorov desarrollaron modelos teóricos para averiguar la causa del problema.
Éste se origina durante la creación de los puntos del tipo estudiado. Usando una cámara de epitaxia por haces moleculares (MBE), los científicos rocían una superficie con átomos a altas temperaturas, creando una capa atómica. A medida que se agregan más capas, los puntos cuánticos afloran en la superficie como gotitas de agua. Pero un residuo delgado dejado en la superficie que Ulloa llama la "capa húmeda" puede causar los problemas durante los experimentos. Cuando los científicos bombardearon los puntos cuánticos con un haz de luz en los estudios anteriores, la capa húmeda causó interferencia, en lugar de permitir a la luz entrar en el punto y activar el estado cuántico.
Un punto cuántico -en azul- es excitado por un rayo láser (Foto: Ohio University )
El estudio sugiere que los científicos podrían perfeccionar el proceso reenfocando el haz de luz o cambiando la duración de los pulsos lumínicos para anular los efectos de la capa húmeda. De hecho, ya se ha utilizado el descubrimiento teórico en el laboratorio para manipular un punto cuántico con éxito.
El nuevo hallazgo podría conducir finalmente a mejorar los puntos cuánticos, y a la vez ayudar a los científicos a comprender mejor los estados cuánticos. Es un paso más para encontrar un mejor bit cuántico, que debiera conducirnos a una computadora de este tipo.
Los científicos están creando puntos cuánticos de muchas maneras para usarlos en diferentes aplicaciones. El tipo autoensamblado podría utilizarse en la electrónica óptica y las computadoras cuánticas. Otros tipos, como los puntos cultivados en una solución, podrían emplearse para aplicaciones relativas a la energía solar.
El estudio también ayudará al equipo de la Universidad de Ohio a comprender mejor cómo controlar el espín de los electrones, una propiedad que podría ser el mecanismo subyacente de dispositivos electrónicos más rápidos y eficaces.
ARTURO LUGO
Un equipo de físicos de la Universidad de Ohio cree haber encontrado el problema y ha realizado una propuesta técnica para construir mejores puntos cuánticos. Los investigadores señalan que los defectos formados durante su creación operan como una barrera a la experimentación científica, pero que el obstáculo podría solventarse.
Científicos experimentales en Alemania habían bombardeado puntos cuánticos con luz para crear el estado mecánico cuántico necesario para hacer funcionar una computadora cuántica, pero no pudieron controlar ese estado de forma consistente. Sergio Ulloa, profesor de física y astronomía de la Universidad de Ohio, su colega José Villas-Boas, y el profesor adjunto Alexander Govorov desarrollaron modelos teóricos para averiguar la causa del problema.
Éste se origina durante la creación de los puntos del tipo estudiado. Usando una cámara de epitaxia por haces moleculares (MBE), los científicos rocían una superficie con átomos a altas temperaturas, creando una capa atómica. A medida que se agregan más capas, los puntos cuánticos afloran en la superficie como gotitas de agua. Pero un residuo delgado dejado en la superficie que Ulloa llama la "capa húmeda" puede causar los problemas durante los experimentos. Cuando los científicos bombardearon los puntos cuánticos con un haz de luz en los estudios anteriores, la capa húmeda causó interferencia, en lugar de permitir a la luz entrar en el punto y activar el estado cuántico.
Un punto cuántico -en azul- es excitado por un rayo láser (Foto: Ohio University )
El estudio sugiere que los científicos podrían perfeccionar el proceso reenfocando el haz de luz o cambiando la duración de los pulsos lumínicos para anular los efectos de la capa húmeda. De hecho, ya se ha utilizado el descubrimiento teórico en el laboratorio para manipular un punto cuántico con éxito.
El nuevo hallazgo podría conducir finalmente a mejorar los puntos cuánticos, y a la vez ayudar a los científicos a comprender mejor los estados cuánticos. Es un paso más para encontrar un mejor bit cuántico, que debiera conducirnos a una computadora de este tipo.
Los científicos están creando puntos cuánticos de muchas maneras para usarlos en diferentes aplicaciones. El tipo autoensamblado podría utilizarse en la electrónica óptica y las computadoras cuánticas. Otros tipos, como los puntos cultivados en una solución, podrían emplearse para aplicaciones relativas a la energía solar.
El estudio también ayudará al equipo de la Universidad de Ohio a comprender mejor cómo controlar el espín de los electrones, una propiedad que podría ser el mecanismo subyacente de dispositivos electrónicos más rápidos y eficaces.
ARTURO LUGO
Computación cuántica
La computación cuántica
Es un paradigma de computación distinto al de la computación clásica. Se basa en el uso de qubits en lugar de bits, y da lugar a nuevas puertas lógicas que hacen posibles nuevos algoritmos. Una misma tarea puede tener diferente complejidad en computación clásica y en computación cuántica, lo que ha dado lugar a una gran expectación, ya que algunos problemas intratables pasan a ser tratables. Mientras un computador clásico equivale a una máquina de Turing, un computador cuántico equivale a una máquina de Turing indeterminista.
La empresa canadiense D-Wave Systems había supuestamente presentado el 13 de febrero de 2007 en Silicon Valley, una primera computadora cuántica comercial de 16-qubits de propósito general; luego la misma compañía admitió que tal máquina llamada Orion no es realmente una Computadora Cuántica, sino una clase de máquina de propósito general que usa algo de mecánica cuántica para resolver problemas.
Origen de la computación cuántica
A medida que evoluciona la tecnología, aumenta la escala de integración y caben más transistores en un espacio, así se fabrican microchips cada vez más pequeños, y es que, cuanto más pequeño es, mayor velocidad de proceso alcanza el chip. Sin embargo, no podemos hacer los chips infinitamente pequeños. Hay un límite en el cual dejan de funcionar correctamente. Cuando se llega a la escala de nanómetros, los electrones se escapan de los canales por donde deben circular. A esto se le llama efecto túnel.Una partícula, si se encuentra con un obstáculo, no puede atravesarlo y rebota. Pero los electrones, que son partículas cuánticas y se comportan como ondas, existe la posibilidad de que una parte de ellos pueda atravesar las paredes si es que estas son demasiado finas, de esta manera la señal pasaria por canales donde no debería circular. Por ello, el chip deja de funcionar correctamente. En consecuencia, la computación digital tradicional, no tardaría en llegar a su límite, puesto que ya se han llegado a escalas de cientos de nanómetros. Surge entonces la necesidad de descubrir nuevas tecnologías y es ahí donde entra la computación cuántica.
La idea de computación cuántica surge en 1981 cuando Paul Benioff expuso su teoría para aprovechar las leyes cuánticas en el entorno de la computación. En vez de trabajar a nivel de voltajes eléctricos, se trabaja a nivel de cuanto. En la computación digital, un bit sólo puede tomar dos valores: 0 ó 1. En cambio, en la computación cuántica, intervienen las leyes de la mecánica cuántica, y la partícula puede estar en superposición coherente: puede ser 0, 1 y puede ser un 0 y un 1 a la vez (dos estados ortogonales de una partícula subatómica). Eso permite que se puedan realizar varias operaciones a la vez, según el número de qubits.
El número de qubits indica la cantidad de bits que pueden estar en superposición. Con los bits convencionales, si teníamos un registro de tres bits, había ocho valores posibles y el registro sólo podía tomar uno de esos valores. En cambio, si tenemos un vector de tres qubits, la partícula puede tomar ocho valores distintos a la vez gracias a la superposición cuántica. Así un vector de tres qubits permitiría un total de ocho operaciones paralelas. Como cabe esperar, el número de operaciones es exponencial con respecto al número de qubits. Para hacerse una idea del gran avance, un computador cuántico de 30 qubits equivaldría a un procesador convencional de 10 teraflops (billones de operaciones en punto flotante por segundo) cuando actualmente las computadoras trabajan en el orden de gigaflops (miles de millones de operaciones).
Problemas de la computación cuántica
Uno de los obstáculos principales para la computación cuántica es el problema de la decoherencia cuántica, que causa la pérdida del caracter unitario (y, más específicamente, la reversibilidad) de los pasos del algoritmo cuántico. Los tiempos de decoherencia para los sistemas candidatos, en particular el tiempo de relajación transversal (en la terminología usada en la tecnología de resonancia magnética nuclear e imaginería por resonancia magnética) está típicamente entre nanosegundos y segundos, a temperaturas bajas. Las tasas de error son típicamente proporcionales a la razón entre tiempo de operación frente a tiempo de decoherencia, de forma que cualquier operación debe ser completada en un tiempo mucho más corto que el tiempo de decoherencia. Si la tasa de error es lo bastante baja, es posible usar eficazmente la corrección de errores cuánticos, con lo cual sí sería posible tiempos de cálculo más largos que el tiempo de decoherencia y, en principio, arbitrariamente largos. Se cita con frecuencia una tasa de error límite de 10-4, por debajo de la cual se supone que sería posible la aplicación eficaz de la corrección de errores cuánticos.
Otro de los problemas principales es la escalabilidad, especialmente teniendo en cuenta el considerable incremento en qubits necesarios para cualquier cálculo que implica la corrección de errores. Para ninguno de los sistemas actualmente propuestos es trivial un diseño capaz de manejar un número lo bastante alto de qubits para resolver problemas computacionalmente interesantes hoy en día.
Hardware para computación cuántica
Aún no se ha resuelto el problema de qué hardware sería el ideal para la computación cuántica. Se ha definido una serie de condiciones que debe cumplir, conocida como la lista de Di Vinzenzo, y hay varios candidatos actualmente.
Condiciones a cumplir
* El sistema ha de poder inicializarse, esto es, llevarse a un estado de partida conocido y controlado.
* Ha de ser posible hacer manipulaciones a los qubits de forma controlada, con un conjunto de operaciones que forme un conjunto universal de puertas lógicas (para poder reproducir a cualquier otra puerta lógica posible).
* El sistema ha de mantener su coherencia cuántica a lo largo del experimento.
* Ha de poder leerse el estado final del sistema, tras el cálculo.
* El sistema ha de ser escalable: tiene que haber una forma definida de aumentar el número de qubits, para tratar con problemas de mayor coste computacional.
Candidatos
* Espines nucleares de moléculas en disolución, en un aparato de RMN
* Flujo eléctrico en SQUIDs
* Iones suspendidos en vacío
* Puntos cuánticos en superficies sólidas
* Imanes moleculares en micro-SQUIDs
* Computadora cuántica de Kane
Procesadores
En 2004, científicos del Instituto de Física aplicada de la Universidad de Bonn publicaron resultados sobre un registro cuántico experimental. Para ello utilizaron átomos neutros que almacenan información cuántica, por lo que son llamados qubits por analogía con los bits. Su objetivo actual es construir una puerta cuántica, con lo cual se tendrían los elementos básicos que constituyen los procesadores, que son el corazón de los computadores actuales. Cabe destacar que un chip de tecnología VLSI contiene actualmente más de 100.000 puertas, de manera que su uso práctico todavía se presenta en un horizonte lejano.
Transmisión de datos
Científicos de los laboratorios Max Planck y Niels Bohr publicaron, en noviembre de 2005, en la revista Nature, resultados sobre la transmisión de información cuántica, usando la luz como vehículo, a distancias de 100 km. Los resultados dan niveles de éxito en las transmisiones de 70%, lo que representa un nivel de calidad que permite utilizar protocolos de transmisión con autocorrección.
Actualmente se trabaja en el diseño de repetidores, que permitirían transmitir información a distancias mayores a las ya alcanzadas.
Software para computación
Algoritmos cuánticos
Los algoritmos cuánticos se basan en un margen de error conocido en las operaciones de base y trabajan reduciendo el margen de error a niveles exponencialmente pequeños, comparables al nivel de error de las máquinas actuales.
* Algoritmo de Shor
* Algoritmo de Grover
* Algoritmo de Deutsch-Jozsa
Modelos
* Computadora cuántica de Benioff
* Computadora cuántica de Feynman
* Computadora cuántica de Deutsch
Complejidad
La clase de complejidad BQP estudia el costo de los algoritmos cuánticos con bajo margen de error.
Problemas propuestos
Se ha sugerido el uso de la computación cuántica como alternativa superior a la computación clásica para varios problemas, entre ellos:
* Factorización de números enteros
* Logaritmo discreto
* Simulación de sistemas cuánticos
Cronologia
Años 80
A comienzos de la década de los 80, empezaron a surgir las primeras teorías que apuntaban a la posibilidad de realizar cálculos de naturaleza cuántica.
1981 - Paul Benioff
Las ideas esenciales de la computación cuántica surgieron de la mente de Paul Benioff que trabajaba en el Argone National Laboratory en Illinois (EE.UU.). Teorizó un ordenador tradicional (máquina de Turing) operando con algunos principios de la mecánica cuántica.
1981-1982 Richard Feynman
El Dr. Richard Feynman, físico del California Institute of Technology en California (EE.UU.) y ganador del premio Nobel en 1965 realizó una ponencia durante el “First Conference on the Physics of Computation” realizado en el Instituto Tecnológico de Massachusets (EE.UU.) Su charla, bajo el título de “Simulating Physics With Computers" proponía el uso de fenómenos cuánticos para realizar cálculos computacionales y exponía que dada su naturaleza algunos cálculos de gran complejidad se realizarían más rápidamente en un ordenador cuántico.
1985 - David Deutsch
Este físico israelí de la Universidad de Oxford, Inglaterra, describió el primer computador cuántico universal, es decir, capaz de simular cualquier otro computador cuántico (principio de Church-Turing ampliado). De este modo surgió la idea de que un computador cuántico podría ejecutar diferentes algoritmos cuánticos.
Años 90
En esta época la teoría empezó a plasmarse en la práctica: aparecieron los primeros algoritmos cuánticos, las primeras aplicaciones cuánticas y las primeras máquinas capaces de realizar cálculos cuánticos.
1993 - Dan Simon
Desde el departamento de investigación de Microsoft (Microsoft Research), surgió un problema teórico que demostraba la ventaja práctica que tendría un computador cuántico frente a uno tradicional. Comparó el modelo de probabilidad clásica con el modelo cuántico y sus ideas sirvieron como base para el desarrollo de algunos algoritmos futuros (como el de Shor).
1993 - Charles Benett
Este trabajador del centro de investigación de IBM en Nueva York descubrió el teletransporte cuántico y que abrió una nueva vía de investigación hacia el desarrollo de comunicaciones cuánticas.
1994-1995 Peter Shor
Este científico americano de AT&T Bell Laboratories definió el algoritmo que lleva su nombre y que permite calcular los factores primos de números a una velocidad mucho mayor que en cualquier computador tradicional. Además su algoritmo permitiría romper muchos de los sistemas de criptografía utilizados actualmente. Su algoritmo sirvió para demostrar a una gran parte de la comunidad científica que observaba incrédula las posibilidades de la computación cuántica, que se trataba de un campo de investigación con un gran potencial. Además, un año más tarde, propuso un sistema de corrección de errores en el cálculo cuántico.
1996 - Lov Grover
Inventó el algoritmo de búsqueda de datos que lleva su nombre. Aunque la aceleración conseguida no es tan drástica como en los cálculos factoriales o en simulaciones físicas, su rango de aplicaciones es mucho mayor. Al igual que el resto de algoritmos cuánticos, se trata de un algoritmo probabilístico con un alto índice de acierto.
1997 - Primeros experimentos
En 1997 se iniciaron los primeros experimentos prácticos y se abrieron las puertas para empezar a implementar todos aquellos cálculos y experimentos que habían sido descritos teóricamente hasta entonces. El primer experimento de comunicación segura usando criptografía cuántica se realiza con éxito a una distancia de 23 Km. Además se realiza el primer teletransporte cuántico de un fotón.
1998 - 1999 Primeros Qbit
Investigadores de Los Álamos y el Instituto Tecnológico de Massachusets consiguen propagar el primer Qbit a través de una solución de aminoácidos. Supuso el primer paso para analizar la información que transporta un Qbit. Durante ese mismo año, nació la primera máquina de 2-Qbit, que fue presentada en la Universidad de Berkeley, California (EE.UU.) Un año más tarde, en 1999, en los laboratorios de IBM-Almaden, se creó la primera máquina de 3-Qbit y además fue capaz de ejecutar por primera vez el algoritmo de búsqueda de Grover.
Año 2000 hasta ahora
2000 - Continúan los progresos
De nuevo IBM, dirigido por Isaac Chuang (Figura 4.1), creó un computador cuántico de 5-Qbit capaz de ejecutar un algoritmo de búsqueda de orden, que forma parte del Algoritmo de Shor. Este algoritmo se ejecutaba en un simple paso cuando en un computador tradicional requeriría de numerosas iteraciones. Ese mismo año, científicos de Los Álamos National Laboratory (EE.UU) anunciaron el desarrollo de un computador cuántico de 7-Qbit. Utilizando un resonador magnético nuclear se consiguen aplicar pulsos electromagnéticos y permite emular la codificación en bits de los computadores tradicionales.
2001 - El algoritmo de Shor ejecutado
IBM y la Universidad de Stanford, consiguen ejecutar por primera vez el algoritmo de Shor en el primer computador cuántico de 7-Qbit desarrollado en Los Álamos. En el experimento se calcularon los factores primos de 15, dando el resultado correcto de 3 y 5 utilizando para ello 1018 moléculas, cada una de ellas con 7 átomos.
2005 - El primer Qbyte
El Instituto de “Quantum Optics and Quantum Information” en la universidad de Innsbruck (Austria) anunció que sus científicos habían creado el primer Qbyte, una serie de 8 Qbits utilizando trampas de iones.
2006 - Mejoras en el control del cuanto
Científicos en Waterloo y Massachusetts diseñan métodos para mejorar el control del cuanto y consiguen desarrollar un sistema de 12-Qbits. El control del cuanto se hace cada vez más complejo a medida que aumenta el número de Qbits empleados por los computadores.
2007 - D-Wave
La compañía canadiense D-Wave presenta públicamente su primer computador cuántico de 16 Qbit (Figura 4.2). Entre las aplicaciones que presenta para su sistema, se encuentra un sistema gestor de bases de datos y un algoritmo que soluciona Sudokus. Todo ello a través de una interficie gráfica similar a la utilizada en los computadores actuales, tratándose del primer acercamiento de la computación cuántica al mundo comercial y no tan científico.
2007 - Bus cuántico
En septiembre de este año, dos equipos de investigación estadounidenses, el National Institute of Standards (NIST) de Boulder y la Universidad de Yale en New Haven consiguieron unir componentes cuánticos a través de superconductores. De este modo aparece el primer bus cuántico, y este dispositivo además puede ser utilizado como memoria cuántica, reteniendo la información cuántica durante un corto espacio de tiempo antes de ser transferido al siguiente dispositivo.
FUENTE
WIKIS
ARTURO LUGO
Es un paradigma de computación distinto al de la computación clásica. Se basa en el uso de qubits en lugar de bits, y da lugar a nuevas puertas lógicas que hacen posibles nuevos algoritmos. Una misma tarea puede tener diferente complejidad en computación clásica y en computación cuántica, lo que ha dado lugar a una gran expectación, ya que algunos problemas intratables pasan a ser tratables. Mientras un computador clásico equivale a una máquina de Turing, un computador cuántico equivale a una máquina de Turing indeterminista.
La empresa canadiense D-Wave Systems había supuestamente presentado el 13 de febrero de 2007 en Silicon Valley, una primera computadora cuántica comercial de 16-qubits de propósito general; luego la misma compañía admitió que tal máquina llamada Orion no es realmente una Computadora Cuántica, sino una clase de máquina de propósito general que usa algo de mecánica cuántica para resolver problemas.
Origen de la computación cuántica
A medida que evoluciona la tecnología, aumenta la escala de integración y caben más transistores en un espacio, así se fabrican microchips cada vez más pequeños, y es que, cuanto más pequeño es, mayor velocidad de proceso alcanza el chip. Sin embargo, no podemos hacer los chips infinitamente pequeños. Hay un límite en el cual dejan de funcionar correctamente. Cuando se llega a la escala de nanómetros, los electrones se escapan de los canales por donde deben circular. A esto se le llama efecto túnel.Una partícula, si se encuentra con un obstáculo, no puede atravesarlo y rebota. Pero los electrones, que son partículas cuánticas y se comportan como ondas, existe la posibilidad de que una parte de ellos pueda atravesar las paredes si es que estas son demasiado finas, de esta manera la señal pasaria por canales donde no debería circular. Por ello, el chip deja de funcionar correctamente. En consecuencia, la computación digital tradicional, no tardaría en llegar a su límite, puesto que ya se han llegado a escalas de cientos de nanómetros. Surge entonces la necesidad de descubrir nuevas tecnologías y es ahí donde entra la computación cuántica.
La idea de computación cuántica surge en 1981 cuando Paul Benioff expuso su teoría para aprovechar las leyes cuánticas en el entorno de la computación. En vez de trabajar a nivel de voltajes eléctricos, se trabaja a nivel de cuanto. En la computación digital, un bit sólo puede tomar dos valores: 0 ó 1. En cambio, en la computación cuántica, intervienen las leyes de la mecánica cuántica, y la partícula puede estar en superposición coherente: puede ser 0, 1 y puede ser un 0 y un 1 a la vez (dos estados ortogonales de una partícula subatómica). Eso permite que se puedan realizar varias operaciones a la vez, según el número de qubits.
El número de qubits indica la cantidad de bits que pueden estar en superposición. Con los bits convencionales, si teníamos un registro de tres bits, había ocho valores posibles y el registro sólo podía tomar uno de esos valores. En cambio, si tenemos un vector de tres qubits, la partícula puede tomar ocho valores distintos a la vez gracias a la superposición cuántica. Así un vector de tres qubits permitiría un total de ocho operaciones paralelas. Como cabe esperar, el número de operaciones es exponencial con respecto al número de qubits. Para hacerse una idea del gran avance, un computador cuántico de 30 qubits equivaldría a un procesador convencional de 10 teraflops (billones de operaciones en punto flotante por segundo) cuando actualmente las computadoras trabajan en el orden de gigaflops (miles de millones de operaciones).
Problemas de la computación cuántica
Uno de los obstáculos principales para la computación cuántica es el problema de la decoherencia cuántica, que causa la pérdida del caracter unitario (y, más específicamente, la reversibilidad) de los pasos del algoritmo cuántico. Los tiempos de decoherencia para los sistemas candidatos, en particular el tiempo de relajación transversal (en la terminología usada en la tecnología de resonancia magnética nuclear e imaginería por resonancia magnética) está típicamente entre nanosegundos y segundos, a temperaturas bajas. Las tasas de error son típicamente proporcionales a la razón entre tiempo de operación frente a tiempo de decoherencia, de forma que cualquier operación debe ser completada en un tiempo mucho más corto que el tiempo de decoherencia. Si la tasa de error es lo bastante baja, es posible usar eficazmente la corrección de errores cuánticos, con lo cual sí sería posible tiempos de cálculo más largos que el tiempo de decoherencia y, en principio, arbitrariamente largos. Se cita con frecuencia una tasa de error límite de 10-4, por debajo de la cual se supone que sería posible la aplicación eficaz de la corrección de errores cuánticos.
Otro de los problemas principales es la escalabilidad, especialmente teniendo en cuenta el considerable incremento en qubits necesarios para cualquier cálculo que implica la corrección de errores. Para ninguno de los sistemas actualmente propuestos es trivial un diseño capaz de manejar un número lo bastante alto de qubits para resolver problemas computacionalmente interesantes hoy en día.
Hardware para computación cuántica
Aún no se ha resuelto el problema de qué hardware sería el ideal para la computación cuántica. Se ha definido una serie de condiciones que debe cumplir, conocida como la lista de Di Vinzenzo, y hay varios candidatos actualmente.
Condiciones a cumplir
* El sistema ha de poder inicializarse, esto es, llevarse a un estado de partida conocido y controlado.
* Ha de ser posible hacer manipulaciones a los qubits de forma controlada, con un conjunto de operaciones que forme un conjunto universal de puertas lógicas (para poder reproducir a cualquier otra puerta lógica posible).
* El sistema ha de mantener su coherencia cuántica a lo largo del experimento.
* Ha de poder leerse el estado final del sistema, tras el cálculo.
* El sistema ha de ser escalable: tiene que haber una forma definida de aumentar el número de qubits, para tratar con problemas de mayor coste computacional.
Candidatos
* Espines nucleares de moléculas en disolución, en un aparato de RMN
* Flujo eléctrico en SQUIDs
* Iones suspendidos en vacío
* Puntos cuánticos en superficies sólidas
* Imanes moleculares en micro-SQUIDs
* Computadora cuántica de Kane
Procesadores
En 2004, científicos del Instituto de Física aplicada de la Universidad de Bonn publicaron resultados sobre un registro cuántico experimental. Para ello utilizaron átomos neutros que almacenan información cuántica, por lo que son llamados qubits por analogía con los bits. Su objetivo actual es construir una puerta cuántica, con lo cual se tendrían los elementos básicos que constituyen los procesadores, que son el corazón de los computadores actuales. Cabe destacar que un chip de tecnología VLSI contiene actualmente más de 100.000 puertas, de manera que su uso práctico todavía se presenta en un horizonte lejano.
Transmisión de datos
Científicos de los laboratorios Max Planck y Niels Bohr publicaron, en noviembre de 2005, en la revista Nature, resultados sobre la transmisión de información cuántica, usando la luz como vehículo, a distancias de 100 km. Los resultados dan niveles de éxito en las transmisiones de 70%, lo que representa un nivel de calidad que permite utilizar protocolos de transmisión con autocorrección.
Actualmente se trabaja en el diseño de repetidores, que permitirían transmitir información a distancias mayores a las ya alcanzadas.
Software para computación
Algoritmos cuánticos
Los algoritmos cuánticos se basan en un margen de error conocido en las operaciones de base y trabajan reduciendo el margen de error a niveles exponencialmente pequeños, comparables al nivel de error de las máquinas actuales.
* Algoritmo de Shor
* Algoritmo de Grover
* Algoritmo de Deutsch-Jozsa
Modelos
* Computadora cuántica de Benioff
* Computadora cuántica de Feynman
* Computadora cuántica de Deutsch
Complejidad
La clase de complejidad BQP estudia el costo de los algoritmos cuánticos con bajo margen de error.
Problemas propuestos
Se ha sugerido el uso de la computación cuántica como alternativa superior a la computación clásica para varios problemas, entre ellos:
* Factorización de números enteros
* Logaritmo discreto
* Simulación de sistemas cuánticos
Cronologia
Años 80
A comienzos de la década de los 80, empezaron a surgir las primeras teorías que apuntaban a la posibilidad de realizar cálculos de naturaleza cuántica.
1981 - Paul Benioff
Las ideas esenciales de la computación cuántica surgieron de la mente de Paul Benioff que trabajaba en el Argone National Laboratory en Illinois (EE.UU.). Teorizó un ordenador tradicional (máquina de Turing) operando con algunos principios de la mecánica cuántica.
1981-1982 Richard Feynman
El Dr. Richard Feynman, físico del California Institute of Technology en California (EE.UU.) y ganador del premio Nobel en 1965 realizó una ponencia durante el “First Conference on the Physics of Computation” realizado en el Instituto Tecnológico de Massachusets (EE.UU.) Su charla, bajo el título de “Simulating Physics With Computers" proponía el uso de fenómenos cuánticos para realizar cálculos computacionales y exponía que dada su naturaleza algunos cálculos de gran complejidad se realizarían más rápidamente en un ordenador cuántico.
1985 - David Deutsch
Este físico israelí de la Universidad de Oxford, Inglaterra, describió el primer computador cuántico universal, es decir, capaz de simular cualquier otro computador cuántico (principio de Church-Turing ampliado). De este modo surgió la idea de que un computador cuántico podría ejecutar diferentes algoritmos cuánticos.
Años 90
En esta época la teoría empezó a plasmarse en la práctica: aparecieron los primeros algoritmos cuánticos, las primeras aplicaciones cuánticas y las primeras máquinas capaces de realizar cálculos cuánticos.
1993 - Dan Simon
Desde el departamento de investigación de Microsoft (Microsoft Research), surgió un problema teórico que demostraba la ventaja práctica que tendría un computador cuántico frente a uno tradicional. Comparó el modelo de probabilidad clásica con el modelo cuántico y sus ideas sirvieron como base para el desarrollo de algunos algoritmos futuros (como el de Shor).
1993 - Charles Benett
Este trabajador del centro de investigación de IBM en Nueva York descubrió el teletransporte cuántico y que abrió una nueva vía de investigación hacia el desarrollo de comunicaciones cuánticas.
1994-1995 Peter Shor
Este científico americano de AT&T Bell Laboratories definió el algoritmo que lleva su nombre y que permite calcular los factores primos de números a una velocidad mucho mayor que en cualquier computador tradicional. Además su algoritmo permitiría romper muchos de los sistemas de criptografía utilizados actualmente. Su algoritmo sirvió para demostrar a una gran parte de la comunidad científica que observaba incrédula las posibilidades de la computación cuántica, que se trataba de un campo de investigación con un gran potencial. Además, un año más tarde, propuso un sistema de corrección de errores en el cálculo cuántico.
1996 - Lov Grover
Inventó el algoritmo de búsqueda de datos que lleva su nombre. Aunque la aceleración conseguida no es tan drástica como en los cálculos factoriales o en simulaciones físicas, su rango de aplicaciones es mucho mayor. Al igual que el resto de algoritmos cuánticos, se trata de un algoritmo probabilístico con un alto índice de acierto.
1997 - Primeros experimentos
En 1997 se iniciaron los primeros experimentos prácticos y se abrieron las puertas para empezar a implementar todos aquellos cálculos y experimentos que habían sido descritos teóricamente hasta entonces. El primer experimento de comunicación segura usando criptografía cuántica se realiza con éxito a una distancia de 23 Km. Además se realiza el primer teletransporte cuántico de un fotón.
1998 - 1999 Primeros Qbit
Investigadores de Los Álamos y el Instituto Tecnológico de Massachusets consiguen propagar el primer Qbit a través de una solución de aminoácidos. Supuso el primer paso para analizar la información que transporta un Qbit. Durante ese mismo año, nació la primera máquina de 2-Qbit, que fue presentada en la Universidad de Berkeley, California (EE.UU.) Un año más tarde, en 1999, en los laboratorios de IBM-Almaden, se creó la primera máquina de 3-Qbit y además fue capaz de ejecutar por primera vez el algoritmo de búsqueda de Grover.
Año 2000 hasta ahora
2000 - Continúan los progresos
De nuevo IBM, dirigido por Isaac Chuang (Figura 4.1), creó un computador cuántico de 5-Qbit capaz de ejecutar un algoritmo de búsqueda de orden, que forma parte del Algoritmo de Shor. Este algoritmo se ejecutaba en un simple paso cuando en un computador tradicional requeriría de numerosas iteraciones. Ese mismo año, científicos de Los Álamos National Laboratory (EE.UU) anunciaron el desarrollo de un computador cuántico de 7-Qbit. Utilizando un resonador magnético nuclear se consiguen aplicar pulsos electromagnéticos y permite emular la codificación en bits de los computadores tradicionales.
2001 - El algoritmo de Shor ejecutado
IBM y la Universidad de Stanford, consiguen ejecutar por primera vez el algoritmo de Shor en el primer computador cuántico de 7-Qbit desarrollado en Los Álamos. En el experimento se calcularon los factores primos de 15, dando el resultado correcto de 3 y 5 utilizando para ello 1018 moléculas, cada una de ellas con 7 átomos.
2005 - El primer Qbyte
El Instituto de “Quantum Optics and Quantum Information” en la universidad de Innsbruck (Austria) anunció que sus científicos habían creado el primer Qbyte, una serie de 8 Qbits utilizando trampas de iones.
2006 - Mejoras en el control del cuanto
Científicos en Waterloo y Massachusetts diseñan métodos para mejorar el control del cuanto y consiguen desarrollar un sistema de 12-Qbits. El control del cuanto se hace cada vez más complejo a medida que aumenta el número de Qbits empleados por los computadores.
2007 - D-Wave
La compañía canadiense D-Wave presenta públicamente su primer computador cuántico de 16 Qbit (Figura 4.2). Entre las aplicaciones que presenta para su sistema, se encuentra un sistema gestor de bases de datos y un algoritmo que soluciona Sudokus. Todo ello a través de una interficie gráfica similar a la utilizada en los computadores actuales, tratándose del primer acercamiento de la computación cuántica al mundo comercial y no tan científico.
2007 - Bus cuántico
En septiembre de este año, dos equipos de investigación estadounidenses, el National Institute of Standards (NIST) de Boulder y la Universidad de Yale en New Haven consiguieron unir componentes cuánticos a través de superconductores. De este modo aparece el primer bus cuántico, y este dispositivo además puede ser utilizado como memoria cuántica, reteniendo la información cuántica durante un corto espacio de tiempo antes de ser transferido al siguiente dispositivo.
FUENTE
WIKIS
ARTURO LUGO
Suscribirse a:
Entradas (Atom)