EL OJO CLINICO DE LA TECNOLOGIA

EL OJO CLINICO DE LA TECNOLOGIA

lunes, 10 de noviembre de 2008

Computación en las NuBES

Se oye Hablar de este modo futuro de aplicación de Sistema Operativo en LAS NUBES, que ya no necesitaras tener a mano un sistema en si, por que la red te lo proveerá, hay mucho que trabajar aun , pero ya hay proyectos beta para tal objetivo.

Que es la computación en las nubes...seria algo asi como tener tu sitema , ejecutado desde un servidor en la red, donde , puedas configurarlo, y la vez almacenar todas tus informaciones en un servidor soportado en la red, desde el punto de vista economico, es todo una maravilla, pero desde el punto de vista seguro, quien sabe, que adquieras uno de estos juguetes virtuales, y el dia de mañana, la empresa que soportaba tus preciados archivos, desaparece, quiebra... A quien le lloraras??.. ni idea, capaz que este equivocado en algun punto , pero segun los grandes de LA REDMON, dicen que sera toda una novedad, todo sera operada en las nubes, suena interesante.. ojo que google, el gran competidor, se prepara con todo, son los mejores en busqueda, sacaron su navegador , contra viento y mareas, lanzan el ANDROID, s.o para moviles celulares, que se viene ??? sera que lanzarán su propio sistema operativo, que al decir verdad, no estaría mal, puesto que ultimamnte el gigante, chiquito gigante , Vista, frustro a la mayoria, no ha traido mas que dolores de cabezas a los Usuarios, ojo... prometen mucho para la version 7, que por el momento se llama windows 7, realmente es el numero de version, el vista es 6 y xp es 5, que se viene, ahora???, ojala que no le cambien de vuelta , como lo hicieron con vista ,cuyo nombre debia haber sido LORHORNG o algo a si, al final salio con un nombre que tiene distintos sabores, a donde iran a parar?

Segun criticos este Windows 7 debera ser un exito, si MS, quiere seguir simpatizando con sus usarios, puesto que dicen que , esta version , esta pensada con y para el Usuario, seria un especie ligera, que no rquiera mucho hardware, pensado para el usario comun, medio y avanzado..

No dejemos pasar una cosa, Windows fue , es y será el mimado, pero está en peligro, por que?
lo dejo , su padre.. volar por la colina, lo abandono para dedicarse a la Filantropia.. que bajon!!!!!, Ballmer y Ray ossie deberan tomar el timon, a Ray no se lo conoce mucho, a Ballmer, si en el ambito de los negocios, es un CEO , por Dios Pero no un informatico, como lo es el gran Bill Gates..

en fin veremos que ocurre

ARTURO LUGO

domingo, 29 de junio de 2008

Linux


Mucho es esuchado hablar de linux..
hasta que el el 2006 incursiones en el area.. por que tenia como materia en la facu en S.operativos, lo cual se tomó a UNIX, luego a linux...
en ese momento abarcamos en el modo consola con la version fedora 3.1, que corria en un emulador. WORKSTATION, vm, lo conocen seguro.. ok.. la experiencia fue fantastica
por que se trataba de administracion de usuario, derrepente no nos acostumbramos mucho al tema o simplemente no queremos soltar las ventanillas, para mi fue buena.. pasaron los años y linux sonaba mas fuerte, haa me olvidaba.. en ese entonces instale debian enmi maquina,, osea en un disquito de 10gb, que anba deambulando por la casa...


lo utilice, fue la primera experiencia de instalación, pero de ahi a desistalar fue un martirio..

cadia que pasa mas se acentuaba en mi cabeza el tema free.. onsultaba.. pero no le encontraba mucha afinidad al tema, hasta que aparece UBUNTU, osea que era yo el no sabia de la existencia de la DISTRO.. empece ha hacer un seguimiento desde Gubbsy Gibon(7.10), luego el Hardy Heron.. pero respetando los diez mandamientod del pinguino.. estoy en la busqueda del dominio.. me gusta investigar y saber mas sobre ese UBUNTU.. ya lo lograre..

hoy 290608
trate de instalar, pero la anciedad de hacerlo , me hizo una mala jugada, todo empezo el mes pasado cuando intente bajarlo por primera, segunda y trcera, siempre por bajada normal.... que cuando llegaba al 90% este condenado se me colgaba y no lo podia concluir. hasta onoci un gestor utorrent, osea sabia de su existencia pero mucha pelota no le di.. oke.. llego el momento begin: 280608 = 10 a.m end: download 290608 : 15:00 p.m endload..perfecto..
queizas la impaciencia me jugo mal y no lo pude instalar.. en la primera lo bootee y me salio un error.. lo cual pude subsanarlo....
luego otro y otro hasta que me impaciente y hoy un dia mas se fue al maso todo..
ok...
esto ha sido toda la experiencia .. o sea el inicio de mi realcion con UBUNTU.. ya les ire comentando mas sobre el tema...

aqui estan los 10 mandamiento de linux
1. No iniciarás como root. (no estoy aun)
2. Usarás el gestor de paquetes todo lo posible.(ya los conocere)
3. Serás parte de una comunidad. (ya lo soy)
4. Leerás la documentación y manuales.(lo estoy haciendo)
5. Usarás el sistema de soporte.(no los conozco)
6. Buscarás.(ya lo hago)
7. Explorarás.(exploro)
8. Usarás la línea de comandos.(tengo panico)
9. No intentarás recrear Windows.(lastimosamente lo hago, por que es mi trabajo)
10. No te darás por vencido.(lo sigo intentando)

hablamos linuxeros.....





ARTURO LUGO

sábado, 28 de junio de 2008

guia para un windolero -cuarta parte

IX: Mitos Sobre GNU/Linux

Estos son algunos rumores sobre GNU/Linux:

* GNU/Linux solo es para Expertos - FALSO
* GNU/Linux es gratis porque es una poqueria - FALSO
* GNU/Linux es un S.O basado en Windows - FALSO
* GNU/Linux fue inventado por Richard Stallman - FALSO
* GNU/Linux es muy dificil de instalar - FALSO
* GNU/Linux es mas dificil y complejo que Windows - FALSO
* No se dice Linux sino GNU/Linux - Cierto
* Al instalar GNU/Linux en tu PC, Windows sera imposible de instalar luego - FALSO
* GNU/Linux apoya a que pirateen programas o Musica con licencia- FALSO
* GNU/Linux es solo un S.O para servidores grandes y no para las P.C - FALSO
* Las empresas grandes utilizan GNU/Linux en sus Servidores por su seguridad - CIERTO / Tambien UNIX y BSD
* Windows es mas Potente que GNU/Linux - FALSO
* GNU/Linux puede ser instalado en un iPod, PS3, Xbox/360 o PSP - Cierto
* GNU/Linux contiene codigo fuente de Windows - FALSO
* No se nesecita fragmentar en GNU/Linux - CIERTO
* GNU/Linux es ProAmbiente - CIERTO


X: GNU/Linux y el Medio Ambiente

Aunque muchos no lo saben pero es una “Realidad”. Cuando utilizas GNU/Linux estas ayudando de alguna manera al medio ambiente. Esta informacion es gracias a “Why GNU/Linux is Better?”

¿Cómo puede ser GNU/Linux diferente de Windows en lo que se refiere al ambiente, puedes preguntarte? Después de todo, ambos son solo softwares con un muy pequeño impacto en la contaminación y el cambio climático. Bueno, usar GNU/Linux puede tener una influencia en el ambiente:

* Windows y Mac OS son vendidos en cajas. Esto significa que cantidades masivas de papel y plastico necesitan ser manufacturadas antes de que las cajas lleguen a las estanterias de tu tienda cercana (y sean traspasadas a tí después de que las compras). GNU/Linux es gratuitamente descargable de Internet; ninguna cantidad de papel o plastico esta involucrada.
* Las aplicaciones privativas para Windows o Mac OS son también, la mayoria de tiempo, vendidas en tiendas locales, en cajas, mientras que puedes descargar la gran mayoria de software para GNU/Linux del Internet, gratis (nuevamente ¡Una gran cantidad de papel y pastico ahorrado!).
* Conforme los requerimientos de hardware para Windows o Mac OS aumentan más y más, muchos computadores se vuelven obsoletos, y se necesita deshacerse de ellos… pero como GNU/Linux corre muy bien incluso en máquinas muy viejas, éstas pueden ser recicladas con varios propositos (almacenamiento, acceso a Internet, caja multimedia, etc.) en cambio de ser tiradas a la basura!
* Millones de CD’s son utilizados para contener una instalacion de Windows o Mac OS y son vendidos a los clientes en cajas. GNU/Linux también necesita ser quemado en un CD antes de la instalación (en la mayoria de los casos, por lo menos — la instalación desde la red o de un disco duro es también común). Sin embargo, muchas personas eligen quemarlo en un CD regrabable (”CD-RW”), que puede ser reusado con otros propósitos una vez que la instalacion es terminada (a diferencia de los sistemas operativos privativos, no necesitas mantener el CD guardado después de que has instalado el software, siempre puedes bajarlo de nuevo luego).
* Cuando desfragmentas en Windows tarda bastante tiempo. Es el mismo tiempo que te ahorras con GNU/Linux ya que en GNU/Linux no nesecitas desfragmentar, asi te ahorras dinero en consumo de luz. GNU/Linux no nesecita desfragmentar porque guarda cada cosa en el disco duro, uno tras otro archivo y no en todo el disco regado.

XI: Emulacion/Maquina Virtual

Cuando digo “Emulacion” me refiero a emular sistemas operativos dentro de GNU/Linux o Windows. Esto es muy util para los Windoleros que desean cambiarse pero no lo hacen porque quizas se sientan atado a algun Software privativo de Windows al cual no pueden dejar de utilizar por “X” razon…. Hay varios programas con los cuales puedes emular o correr estos programas de Windows en GNU/Linux. Acontinuacion una breve descipcion de cada software:

Wine:

Wine erroneamente se le conoce como un emulador de Sistema Operativo. Puede emular la API sin ningun problema. Aunque sus siglas “Wine” significan “Wine Is Not an Emulator”, se le considera un emulador por varias personas ya que a simple vista es lo que parece estar haciendo. Para explicarlo de la manera facil… Luego de instalar Wine en GNU/Linux, es posible utilizar o instalar algunos programas que solo son compatibles con Windows. La mayor compatibilidad la lleva con los juegos mayormente.

Wine segun Wikipedia:

Wine (acrónimo recursivo que en inglés significa Wine Is Not an Emulator “Wine no es un emulador”) es una reimplementación de la API de Win16 y Win32 para sistemas operativos basados en Unix bajo plataformas Intel. Permite la ejecución de programas para MS-DOS, Windows 3.11, Windows 95, Windows 98, Windows ME, Windows NT, Windows 2000, Windows XP y Windows Vista. El nombre Wine empezó como un acrónimo para Windows Emulator, pero a lo largo de sus versiones fue evolucionando y ahora corre nativamente los programas para Windows.

Cedega:

Cedega es un emulador de S.O libre (pero de pago) de Wine. El programa Cedega está específicamente diseñado para ejecutar juegos de ordenador escritos para Microsoft Windows bajo GNU/Linux. Como tal, su principal objetivo es implementar la API de DirectX.

Cedega segun Wikipedia:

Cedega (anteriormente conocido como WineX) es un fork libre (pero de pago) de Wine (de cuando la licencia de éste último no era LGPL sino licencia BSD) desarrollado por TransGaming Technologies. El programa Cedega está específicamente diseñado para ejecutar juegos de ordenador escritos para Microsoft Windows bajo GNU/Linux. Como tal, su principal objetivo es implementar la API de DirectX.

La comunidad ha conseguido que Wine mantenga contacto con desarrollos en Cedega; bastantes juegos y aplicaciones 3D funcionan tan bien o mejor que al ejecutarlas nativamente bajo Microsoft Windows

WineX fue renombrado a Cedega en la versión 4.0, el 22 de junio del 2004.

Virtual Box:

Virtual Box es un programa que puede ser instalado tanto en GNU/Linux como en Windows. Con este programa podemos instalar nuevos sistemas operativos adicionales al que ya tenemos por medio de este programa. Este programa soporta casi cualquier sistema operativo para instalarle. Osea, podras correr tu Windows e instalar GNU/Linux con Virtual Box y cuando desees ejecutar GNU/Linux, solo abres Virtual Box y seleccionas Bootear GNU/Linux. Desde entonces tendras a GNU/Linux corriendo y a la misma vez a Windows.

CrossOver Office:

CrossOver Office es un programa comercial que te permite ejecutar aplicaciones famosas de Windows en un sistema GNU/Linux o Mac sin necesidad de una instalación de Windows. Esta basado en Wine e incluye varios parches y herramientas mas facil para utilizar. Algunos de los programas soportados por CrossOver Office son:

* Microsoft Office 2003, XP, 2000 y 97
* Microsoft Outlook 2000
* Microsoft Access 2000
* Microsoft Visio 2000
* Microsoft Internet Explorer 6
* Macromedia Dreamweaver MX
* Macromedia Flash MX
* Adobe Photoshop
* Lotus Notes

XII: Notas del autor

Una guia que no he parado de escribir de 5:00 p.m a 1:20 a.m solo por poner mi granito de arena hacia la comunidad Linuxera. Mis mayores deseos es que la gente conozca algo nuevo y bueno al cual le pueden sacar provecho especialmente las personas que usan software crackeado o pirateado. Aunque esta no es mi primera Guia, tampoco sera la ultima en escribir. No me dare por vencido y repite conmigo…QUE VIVA GNU/LINUX CABRONES!!!!!

::: FIN :::
fuente:
“Una Guia Linuxera, Para un Windolero”

Por: Psyfurius
De: Puerto Rico
Web: http//portallinux.wordpress.com
ARTURO LUGO

guia para un windolero -tercera parte


V: La Revolucion del Escritorio

Una de las tantas caracteristicas de GNU/Linux es su escritorio. El escritorio en GNU/Linux puede ser personalizado a pleno gusto peronal. No solamente el escritorio es personalizable sino que el cursor, iconos y ventanas tambien pueden ser personalizables.Tambien el escritorio de GNU/Linux se le puede agregar efectos 3D gracias a un software.

Hay dos programas esenciales para poder crear Efectos 3D en un escritorio de GNU/Linux y poder cambiar el tema de las ventanas. Para cambiar el tema de ventanas podemos utilizar Emerald y para los efectos 3D, CompizFusion.

Compiz Fusion:

Este programa funciona para hacer efectos sorprendentes en tu escritorio nunca visto en Windows. Con tan solo 512 de memoria RAM podemos lograr efectos 3D. Podemos convertir el escritorio en un Cubo de 4 lados. Tambien dibujar fuego en la ventana y ajustarlo para que cada vez que cierres una ventana, aparesca un efecto diferente. Esto es algo muy lejano para Windows. Algunos de los efectos son parecidos al de Windows Vista pero en cambio a windows vista, nesecitas algunos 2GB en adelante o mas para poder verlos en vista sin ningun problema. Ver efecto del Cubo 3D.

Emerald:

Emerald es el programa utilizado para poder cambiar el tema de ventanas o instalar nuevos temas, incluso editarlos. Emerald funciona junto a Compiz Fusion.

Para correr estos dos programas se requiere almenos una tarjeta grafica instalada y 512 MB RAM en adelante.

Si no quieres o no puedes utilizar Emerald, tambien puedes instalar temas para “MetaCity” que son reconocidos en los escritorios de Gnome. Recuerdas la ventana de Windows donde escojes el tipo de ventana que quieres ver? Pues sorpresa! en GNU/Linux tienes la misma ventana pero con un fantastico boton que dice “Intalar” el cual te permite instalar temas para las ventanas sin tener que utilizar un software como Emerald. Solo si es Gnome con los temas para MetaCity.

Otra de las caracteristicas por defecto de GNU/Linux es que su escritorio tiene dos lados, aun asi en los escritorio de KDE trae cuatro lados. Osea puedes estar viendo una pelicula en un lado y cambiarte al otro escritorio y comenzar un proyecto de la escuela. Puedes incrementar el numero de escritorios en las opciones.

VI: GNU/Linux el S.O 100% Personalizable

Otra de las caracteristicas de GNU/Linux es que es 100% personalizable. Estas son algunas de las cosas que puedes hacer en GNU/Linux para personalizarlo:

Barra de tareas
Tema de Ventanas
Cursor
Pantalla del Login
Pantalla de Grub
Ventanas de Splash
Firefox
Wallpaper
SalvaPantallas
DockBar (barra tipo Mac OS)
ScreenLets (aplicaciones en el escritorio tipo Windows Vista)
Efectos 3D
Cambiar Skins de reproductores de Audio y video

VII: Conflictos de adaptacion en GNU/Linux

Muchos usuarios de Windows se integran a GNU/Linux y tienen uno que otro problema los cuales hacen que no se adapten comodamente a GNU/Linux pero tienen solucion.

* Uno de los problemas que encuentran es que no pueden escichar MP3 en GNU/Linux. Esto es debido a que el formato de audio comprimido MP3 es un formato restringido con licencia privativa. La solucion es simple. Con instalar un plugin o el reproductor de audio XMMS, todo se resuelve.
* Otro problema es que a la hora de ver un video de Youtube no te deje verlo porque nesecitas el Adobe Flash Player instalado. Esto se arregla instalando la ultima version de este programa desde su pagina web oficial.
* El usuario de GNU/Linux puede disfrutar de las peliculas DVD’s siempre y cuando el video no este en un formato privado/encriptado. De otro modo existen librerias que con tan solo instalarlas se resuelve este problema como la libreria “libdvdcss”. Otra solucion es descargar otro reproductor de video y verlo desde ahi.
* Otro conflicto que tienen los usuarios de Windows al integrarse a GNU/Linux es a la hora de extraer archivos .rar. Esto se soluciona instalando el programa UnRAR.
* El problema mayor que tienen los usuarios Windows a la hora de integrarse a GNU/Linux es la instalacion de Software el cual vamos a explicar en el siguiente capitulo..

VIII: Instalacion de Software

Un usuario de Windows esta acostumbrado a buscar en Google un software, entrar a alguna web con los resultados, descargar el software, instalarlo dando click solo en “Next”/”Siguiente” y luego ejecutarlo. Normalmente este es el ciclo del Windolero. Basicamente todos estos programas que se instalan son archivos “.exe”, osea ejecutables. Con tan solo clickear encima dos veces, se ejecutan.

Esto en GNU/Linux no es permitido por razones de seguridad. Recuerda que los troyanos y todos estos tipos de programas maliciosos son ejecutables o de formato “.exe”. En GNU/Linux tenemos otro paso diferente para buscar e instalar software. Hay tres formas.

Instalando desde Agregar y Quitar Programas:

En algunas distribuciones como Ubuntu, Mandriva y/o Fedora tenemos este programa que tambien existe en Windows pero es mas elaborado y completo que el de Windows. Desde Agregar y Quitar Programas podemos buscar, instalar o desintalar programas con algunos clicks y sin nesecidad de Google. Por ejemplo si queremos instalar Firefox abrimos “Agregar y Quitar Software”, buscamos “Firefox” en el buscador y luego lo seleccionamos y click en instalar. Asi de facil. Para desintalar hacemos lo mismo pero haciendo click en desintalar o quitar programa. Este programa es muy util y seguro ya que el software publicado en los repositorios de GNU/Linux son testeados.

Que son los repositorios?

Digamos que son diferentes servidores alrededor del mundo. Uno que otro mas cercano a tu Pais. Cada servidor tiene los mismos software que el otro, simplemente depende la velocidad. Entre mas serca este el repositorio a tu pais. Mas rapido seran las actualizaciones a la hora de la descarga y los software de agregar y quitar programas.

Instalando desde la Consola o Terminal:

Esta es la otra manera de instalar programas en GNU/Linux. Descargamos de la pagina oficial el software comprimido en “.tar.gz2″ y desde la consola lo descomprimes e instalas.

- Que es la consola o el terminal?

La consola o el terminal generalmente significan lo mismo. Es parecido al Command Prompt de Windows. Desde ese terminal escribes comandos, instalaciones, informacion del sistema, etc…

Instalando con .deb, .rpm y/o .yum

Pues estos son los tres tipos de archivos mas parecidos a los .exe. Generalmente solo se descargan y se ejecutan, luego hacemos click en Instalar y listo. Los paquetes los descargas depende la distribucion de GNU/Linux que utilices. Si utilizamos una distribucion basada en “Debian” utilizamos .deb. En cambio en OpenSUSE o Mandriva podremos instalar solo los .rpm.

ARTURO LUGO

guia para un windolero -segunda parte


- Como puedo saber si mi PC esta preparada para GNU/Linux?

Generalmente, todas las PC’s estan soportadas. Osea, pueden correr e instalarles GNU/Linux. Esto es debido a que existen distribuciones de GNU/Linux para PC’s viejas, intermedias y avanzadas. Todas con las mismas caracteristicas pero posibles de correr y ejecutarlas en PC’s viejas ya que el entorno de escritorio puede ser adaptado para ser mas ligero y mas liviano.

Si quieres informacion sobre construir una PC para GNU/Linux Click Aqui

- Que es un entorno de escritorio?

Un entorno de escritorio es el GUI de un S.O. El entorno de escritorio tambien es como visualizamos un S.O. Desde la barra de tareas, los menus y las carpetas, hasta las ventanas y temas del puntero. Una de las ventajas de GNU/Linux es de proveerte una amplia seleccion de entornos de escritorios y todos amigables. Cada entorno de escritorio de GNU/Linux lleva un nombre. Algunos son Gnome, KDE y/o XFCE.

Por ejemplo: Tienes una PC’s muy vieja y quieres correr Windows XP en ella. No vas a poder porque no esta preparada para correr un Entorno de Escritorio tan pesado. Pero imagina correr Windows XP con un entorno de Windows 98 en esa PC. Quizas tengas mas probabilidades de correr Windows XP en esa vieja PC. Es en este caso en el que GNU/Linux te puede ayudar bastante.

- Que entorno es mas ligero y cual es mas pesado?

Cuando decimos que es ligero nos referimos a que es menos visual, mas sencillo y rapido. Cuando decimos que es mas pesado significa que es mas visual, mas lindo, mas llamativo. El entorno de escritorio XFCE es mas ligero y rapido que Gnome. Mientras por otro lado tenemos el escritorio intermedio Gnome que corre con 256 MB RAM en adelante. Tambien tenemos el mas pesado pero mas llamativo llamado KDE elcual puede correr con solo 512 MB RAM en adelante.

- Que entorno de escritorio me conviene?

Como ya fue explicado. Todo es segun el total de memoria RAM que tengas instalada. Aunque si tienes mucha ram (1GB) tampoco significa que no puedas correr Gnome o XFCE. Puedes correr cualquier entorno de escritorio siempre teniendo en cuenta que tu PC lo pueda soportar.

- Es GNU/Linux compatible con las Laptops o Portatiles?

Si.

II: Dudas de Windoleros

Las dudas mas comunes referentes a la manipulacion de GNU/Linux…

- Es GNU/Linux compatible con mi Software de Windows?

Solo la minoria de los programas para Windows son compatibles en GNU/Linux. Por ejemplo Real Player y/o Skype, pero esto no es malo, al contrario. GNU/Linux te ofrece programas casi iguales o mejores que los de Windows para que tu experiencia sea mucho mejor a la de Windows.

- Los juegos de Windows son compatibles con GNU/Linux?

Solo la minoria como SimCity y/o Unreal Tournament son compatibles con GNU/Linux. Pero no te preocupes… existe uno que otro software como Wine para correr tus juegos o software de GNU/Linux.

- Que es Wine?

Wine es un programa el cual luego de haberlo instalado en GNU/Linux insertas algun CD de software o juego de Windows y podras instalarlo igual que en Windows y usarlo como tanto quieras. Solo hay que recordar que no todo el software es soportado por Wine pero tambien existe “Cedega”, otro programa que permite solo instalar y correr juegos de Windows. Es un programa mas dedicado pero cuesta dinero.

- Podre hacer en GNU/Linux lo mismo que suelo hacer en WIndows?

Si. Las distribuciones de GNU/Linux generalmente traen pre-instalado varios software para que luego de ser instalado, tengas la misma experiencia que en Windows y mucho mejor sin tener que instalar software adicional. Luego de haber instalado GNU/Linux tendremos:

* Mensajeria instantanea (MSN, AOL, Gmail, etc…)
* Programa para oficinas OpenOffice
* Lector de PDF
* Reproductor de Videos
* Reproductor de Audio
* Editor de Imagenes
* Navegador de internet (Firefox, Konqueror, IceWeasel, etc…)
* Grabador de Audio
* Quemador de CD’s/DVD’s
* Ripeador de CD’s/DVD’s
* etc…

Todo esto es esencial para poder utilizar GNU/Linux a su maximo. En cambio en Windows nesecitas descargar un lector PDF, La version mas reciente de MSN Messenger, La version mas reciente de Windows media player, descargar software para ripear y quemar cd’s, descargar firefox, etc… GNU/Linux ya viene preparado y no tienes que instalar software adicional.

- Puedo utilizar GNU/Linux sin Instalarlo?

Si. Luego de descargar una distribucion que sea “LiveCD“, la quemas a un CD o DVD y luego booteas desde el CD/DVD y prontamente podras utilizar GNU/Linux como si estuviera instalado. Podras hacer de todo como si fuera un S.O ya instalado en tu PC. Ya dentro del LiveCD podras instalarlo o reiniciar y seguir con Windows.

- Que es un LiveCD?

LiveCD o CD vivo es una Distribucion en un CD que podras utilizar sin instalar luego de bootear desde el CD. Es como utilizar Windows desde su CD sin tener que instalarlo. Podras hacer todo lo normal. Navegar por la red, hacer documentos de oficina, calculos, enviar mensajes instantaneos, etc…

- El software de GNU/Linux cuesta dinero?

No. Todo el software de GNU/Linux es libre de usar. Algunos no son de codigo abierto pero son programas completos para utilizar. Solo la minoria de los programas para Linux cuestan dinero.

- Puedo instalar GNU/Linux y Windows en un solo disco duro?

Si. Esto es posible creando una particion para Windows en tu disco duro y otra para GNU/Linux. A la hora de iniciar el PC, aparecera una pantalla llamada “Grub” la cual te pregunta que S.O quieres iniciar. Escojes GNU/Linux o Windows y todo esta listo.

- Puedo compartir o entrar a la particion de Windows por medio de GNU/Linux?

Si. Puedes estar trabajando en GNU/Linux y a la misma vez entrar a la particion de Windows y extraer o meter cualquier archivo para compartir entre si.

- Cualquier navegador de internet el compatible con GNU/Linux?

SI, incluyendo a FireFox el cual ya viene pre-instalado en las distribuciones de GNU/Linux.

- Las impresoras, WebCams, Camaras Digitales, PenDrives, GamePads, etc… son compatibles con GNU/Linux?

La gran mayoria de las Impresoras estan siendo soportadas. Solo aquellas que fueron fabricadas solo para Windows no lo son. Aunque un porcentaje de estas son posibles de correr gracias a los drivers creados por las comunidades de GNU/Linux. Las webcams son un poco dificiles de correr en GNU/Linux porque la gran mayoria son creadas para Windows. Las camaras digitales no son un problema, ya que al conectarlas Lnux detecta la memoria e ingresa a ella como si fuera un PenDrive. Los pendrive tampoco tienen problemas de compatibilidad y ciertos GamePads no funcionan. Una ventaja de esto es que si compras alguno de estos articulos para tu PC y trae un disco de instalacion, no hay porque instalarlo con el CD ya que GNU/Linux lo detecta y baja el Driver automaticamente (con derecho de administrador) e instala el driver con solo un click.

- Los dispositivos BlueTooth, funcionan en GNU/Linux?

Si, incluso algunas distribuciones traen un software bastante elaborado para estos dispositivos.

- Puedo editar o crear Musica, Video y Audios caseros en GNU/Linux?

Si. Hay un software parecido a Fruity Loops llamado LMMS y otro llamado Hydrogen. Para grabar audio, cada disrtibucion trae su grabador de sonido por defecto. Pero algunas distribuciones no trae un grabador de sonidos.

- Las conecciones Wi-Fi, presentan algun problema?

No. Generalmente el problema no es la connecion wi-fi. Sino la tarjeta wi-fi de alguna laptop quizas no esta soportada por GNU/Linux porque su driver es propietario o privado. Para esto utilizamos un programa llamado ndiswrapper con el cual podremos configurar y comenzar a utilizar nuestra Wi-Fi.

Tambien se puede tomar en cuenta las distribuciones de GNU/Linux que son especificamente para las conecciones Wi-Fi como WiFiSlax y WiFiWay. Estas dos distribuciones vienen preparadas por defecto con todo lo necesario para utilizar las redes Wi-Fi y ademas contiene varios Drivers integrados que otras distribuciones no tienen por defecto.

- Puedo jugar juegos Online?

Si. solo aquellos juegos que no requieran instalar un cliente en el PC. Pero si se requiere un cliente debe de ser compatible con GNU/Linux. Incluso, hay juegos especialmente para GNU/Linux como Nexuiz y/o WarSow los cuales pueden ser jugados de un solo jugador, conexion LAN y/o online.

- Los iPods son compatibles con GNU/Linux?

Si. Podremos utilizar una amplia variedad de programas para poder meterle canciones al iPod, quitarlas del iPod, o lo que sea…

- Las Tarjetas Graficas como ATI y Nvidia son soportadas?

Si. La gran mayoria de estas tarjetas son soportadas y sus drivers son descargados al momento de haberlos detectados con la aceptacion del administrador.

- Funciona GNU/Linux para crear un servidor?

Si. Incluso algunas distribuciones son especialmente para esto.

- Puedo crear un servidor con algunas P.C’s usando GNU/Linux y otras Windows?

Si.

- Tengo una tarjeta para ver T.V, es soportada por GNU/Linux?

Si, incluso hay software que te permite sintonizar T.V desde GNU/Linux.

- Adobe Flash Player, es compatible en GNU/Linux?

Si, generalmente este es el Plugin usado para ver los videos en YouTube, etc… Se utiliza el Plugin oficial de Adobe.

- La instalacion de Software en GNU/Linux, es igual a la de Windows?

No. Vease: “VIII: Instalacion de Software”

- Los archivos .RAR y .ZIP son soportados en GNU/Linux?

Si. Para archivos .rar utilizamos un programa llamado UnRAR y para archivos .zip no nesecitamos ningun programa aparte ya que esta soportado completamente en el programa integrado en la distribucion.

III: Seguridad

GNU/Linux provee mas seguridad, soporte y estabilidad comparado a Microsoft Windows. El codigo fuente de Windows, nucleo o Kernel no esta reforzado para ataques de viruses, troyanos, programas espias, etc… es por eso que cuando utilizas Windows nescitas un programa que te defienda contra cada mal como los Antivirus, anti-troyanos, Anti-Spyware, FireWall etc… Estos son los tipos de programas que hacen tu PC mas lenta al ejecutarse ya que nesecitan de memoria RAM para correr. Tambien cuestan dinero…

En cambio, GNU/Linux no nesecita estos tipos de programas. El kernel de GNU/Linux siempre ha sido reforzado contra estos males, aunque la mayoria de los viruses son programados para atacar a Windows y sus capetas. Es por eso que GNU/Linux es mas rapido, estable y seguro cuando lo comparamos con Windows.

Vamos a conocer algunos aspectos de la seguridad de GNU/Linux:

- Viruses:

Los viruses no son mas que programas que estan programados por personas para atacar un PC. Estos estan programados para penetrar a un PC y dirigirce a “X” archivo y destruirlo o tomar el control del PC. Una de las ventajas de GNU/Linux es que su kernel esta bastante reforzado para aguantar estos ataques. Por otra parte un usuario en GNU/Linux siempre esta logeado como “usuario” y no como “Administrador” predeterminadamente. Esto significa que si un virus por casualidad entra a tu GNU/Linux y estas logeado como usuario, solo podra hacer daño o cambios como un simple usuario y nada mas. Recalcando que es muy dificil que un Virus penetre en GNU/Linux ya que su Kernel esta reforzado y tiene integrado un Firewall inteligente.

- Codigo Abierto:

Al ser GNU/Linux un S.O de codigo abierto, esto significa que miles de personas estan a la vez leyendolo, arreglandolo y optimizandolo. Por ejemplo, si fueras programador y le hechas un ojo a un codigo fuente de una distribucion de GNU/Linux y encuentras un error, lo arreglas, luego reportas la falla y la solucion y dentro de un corto momento se publicara una actualizacion a todas las personas con la misma distribucion comentada.

- Soporte:

Cada Distribucion de GNU/Linux cuenta con soporte gratuito. Existen los foros donde podras explicar tus problemas y comentarios. Es una costumbre que cada distribucion tenga un foro en cada idioma. Tambien cuentan con una Web donde nuevas versiones y noticias son publicadas. Algunas distribuciones cuentan con soporte via Telefono o Chat. Tambien hacen llenar algunos cuestionarios sobre tu experiencia para mejorarla aun mas.

- Estabilidad:

Cuando hablamos de estabilidad, hablamos de la experiencia bajo GNU/Linux. Osea, utilizar tu distribucion, trabajar, guardar tus datos, apagar el pc, y no obtener ningun tipo de error en tu experiencia utilizandolo en un dia normal.

Windows cuenta con una inestabilidad enorme. Windows se congela, se cuelga, se reinicia solo aveces, quizas estas creando un documento importante y Windows no guarda los datos o hace se cuelga el documento, tratas de hacer algo y no te deja…. etc… El mayor problema de Windows es su BSOD… osea Blue Screen of Death o es castellano, La Pantalla Azul de la Muerte. Es un tipico error fatal de Windows el cual puede aparecer en cualquier momento. Si este error aparece, es capaz de no poder utilizar Windows de nuevo y haya que formatear el disco duro, perdiendo todos tus datos… esto en GNU/Linux es Inaseptable. GNU/Linux no comete este tipo de error. En cambio, GNU/Linux mejora cada dia mas.

- Actualizaciones

Las actualizaciones es lo mas importante a la hora de corregir errores o “bugs” en un sistema operativo. Cada distribucion de GNU/Linux contiene un software para reportar fallos Online que al rato de enviar tu reporte alguien experto hara una revicion sobre este fallo, y si estas en lo correcto pues el fallo sera soportado por un grupo de personas y en un minimo de dos dias tendras una actualizacion y el fallo desaparecera. En cambio a Windows, tambien lo puedes reportar pero estos tardan años en arreglarlo. Como mismo ha pasado con los ServicePacks. Y porque años?… La razon es porque al ser GNU/Linux un S.O de codigo abierto, miles de personas al rededor del mundo estan dandole soporte a GNU/LInux pero en cambio a Windows que es de codigo privativo solo sus pocos empleados leeran tu reporte. Si por alguna razon publicastes a Windows un error y no fue arreglado en tu version Windows XP la cual ya no tiene soporte, pues tendras que comprar Windows Vista y rogar porque este error no siga. Ademas tener en cuenta tambien que tu software sea compatible con Vista… esto en GNU/Linux es inaseptable.

Otra de las ventajas de GNU/Linux es que a la hora de actualizar, todos los software de GNU/Linux que neseciten una actualizacion, pues se actualizaran. En cambio a Windows, tienes que abrir cada programa y escojer la opcion “Actualizar”. GNU/Linux te ahorra mas tiempo y consumo de Luz.

- Desarrollo

El desarrollo de una distribucion de GNU/Linux es esencial para la seguridad. Una nueva version de GNU/Linux puede salir una vez al año. Cuando una nueva version de una distribucion es lanzada, no significa que la version anterior sera omitida. Sino que se le seguira dandole soporte. La idea de actualizar a una nueva distribucion es para implementar el rendimiento del hardware y brindar nuevos controladores. Ademas de nuevo software pre-instalado. Digamos que no es lo mismo tener una distribucion con algun software version 1.0 y tener una nueva version de esa distribucion con ese mismo software pero version 3.0. Enonces cuando instales la version vieja de esa distribucion tendras que actualizar ese software a la version 3.0 y en la nueva version de la distribucion “no” tendras que hacerlo ya que la trae pre-instalada. Esto se hace para siempre traer una distribucion con lo mas nuevo y mandtener al dia a toda la comunidad de GNU/Linux.

En cambio, Windows XP siempre trae la misma version de Software. Puedes instalar la version 2002 de Windows XP y la version Windows XP con el Service Pack mas actualizada y como quiera seguira pre-instalado MSN 4.7. Eso no es desarrollo. Desarrollo es avanzar a lo mas actual, desarrollar proyectos mas actualizados. GNU/Linux sigue una politica que Windows a omitido por sus licencias con su software pre-instalado.

IV: Software Libre

GNU/Linux utiliza Software Libre, quizas esto sea una nueva palabra para cualquier usuario de Windows ya que en Windows es muy poco el software libre existente…

- Que es Software Libre?

Software Libre en otras palabras es Software Gratis o libre de usar sin ninguna limitacion. Las dos denominaciones estan correctas. El Software Libre es un software o programa que puede ser utilizado al 100% y no tiene limitaciones. A comparacion de versiones DEMOS o Trials los cuales solo te permiten usarlos hasta cierto tiempo o te inpone limites en el Software.

Que sea un software libre no significa que no tenga una licencia ya que quizas el programa contenga varios codigos licenciados por algun programador. Tampoco significa que sea de codigo abierto o Open Source. Simplemente son pocas las personas que comparten sus codigos fuentes de sus programas. Quizas piensen que con ese software haran mucho dinero y no quieren que otros se les adelanten.

- GNU/Linux y el Software Libre

El software libre bajo GNU/Linux es una ventaja muy grande. Pues muchas personas se dedican a programar juegos, software de oficina, software para musica, etc… para GNU/Linux. Todos son gratis y de libre uso. Cuando instalamos una distribucion de GNU/Linux podremos utilizar su software por completo sin ninguna limitacion. Pero conoscamos un poco sobre sus Software Libre mas famosos:

Editor/creador de Imegenes:

Para la editar o crear imagenes a nivel profesional podemos contar con GIMP. Trae todas las herramientas esenciales y es parecido bastante al Photoshop. Gimp en comparacion es mas liviano y rapido. Tambien tiene el poder de utilizar las Brochas, filtros, etc…

Oficina/Escuela:

La comunidad de GNU/Linux cuenta con un Software llamado OpenOffice que al igual que Microsoft Office contiene todo lo esencial para crear archivos de textos como en Word, Presentaciones como en Power Point, Graficos y calculos como en Exel, entre otros. Lo mas importante es que el formato usado en OpenOffice es reconocido por Microsoft Office y viseversa.

Musica/Audio:

Para la musica podemos contar con Banshee o Amarok los cuales puedes escuchar musica y organizarla a la vez. Pero si quieres algo parecido al Winamp puedes utilizar XMMS. Tambien existen programas para la creacion de musica como igual hace Fuity Loops, esto lo logranos gracias a LMMS y Hydrogen.

Videos/Peliculas:

Podremos ver peliculas con Totem, Kaffeine, Mplayer, VLC, Oggle entre otros…

P2P:

Para utilizar algun programa P2P podemos contar con Frostwire. Un poderoso cliente de P2P con el mismo estilo de LimeWire pero mejor, mas rapido y ligero.

Torrent:

Para esas descargas de torrents podremos utilizar Transmission.

iPods:

Hay muchos programas que funcionan para trabajar con los iPods. Amarok y GTKPod son algunos de los cuales puedes utilizar en GNU/Linux.

… En fin hay una amplia coleccion de software libre para darte una experiencia mejor que en Windows, amplio para escojer y de libre uso….



ARTURO LUGO

GUIA PARA WINDOLEROS-parte primera


ALGO MUY INTERESANTE PARA PERSONAS QUE ESTAN MUY APEGADOS A WINDOWS, PERO ESTAN COQUETEANDO DE CERCA CON LINUX, QUIEREN SUMARSE A LA GRAN COMUNIDAD, PERO AUN TENIEN MIEDO.. POR QUE NO HAY UNA GUIA COMPLETA DE LAS CONDICIONES DEL TERRENO , AL QUE LLAMAN HOSTIL MUNDO DEL TUX

aqui se detalla una guia muy util
“Una Guia Linuxera, Para un Windolero

- Lo primero que se pregunta un usuario de Windows cuando le mencionan “GNU/Linux” es: Que es GNU/Linux?, Para que sirve?, Es gratis o solo es un Demo…?… Considera esto como una guia (…o como lo quieras llamar) para ir paso a paso conociendo sobre GNU/Linux.

Indice:

I: Dudas Generales

II: Dudas de Windoleros

III: Seguridad

IV: Software Libre

V: La Revolucion del Escritorio

VI: GNU/Linux el S.O 100% Personalizable

VII: Conflictos de adaptacion en GNU/Linux

VIII: Instalacion de Software

IX: Mitos Sobre GNU/Linux

X: GNU/Linux y el Medio Ambiente

XI: Emulacion y/o Maquinas Virtuales

XII: Notas del Autor



I: Dudas Generales

- Que es GNU/Linux?

GNU/Linux es un sistema operativo basado en Unix (también conocido como GNU/Linux erroneamente) que se distribuye bajo la Licencia Pública General de GNU (GNU GPL), es decir que GNU/Linux es “Libre”.

- Que es un Sistema Operativo?

Un Sistema Operativo (S.O) es un software para trabajar o utilizar un PC. Windows, Mac OS, GNU/Linux o Unix, son todos sistemas operativos.

- Que es Unix?

Unix es un sistema operativo del cual GNU/Linux se deriva.

- Quien invento GNU/Linux?

Linus Torvalds invento el Nucleo o Kernel basado en Unix del cual GNU/Linux es el derivado.

- Porque GNU/Linux es Gratis?

Cuando Linus Torvalds creo GNU/Linux dejo que todos conocieran su “Codigo Fuente” para que otros lo ayudaran y a la vez distribuirlo por todos lados. Gracias a esto unas personas o grupos han creado sistemas operativos basados en GNU/Linux como Debian, SlackWare y/o Ubuntu. Principalmente se les conoce como Distribuciones.

- Ganan algun dinero?

Si, algunas distribuciones tienen una tienda online donde venden camisas, gorras, jackets, etc… Otras distribuciones deciden dar un soporte especial a cambio de dinero. Tambien existen personas que re-distribullen CD’s de distribuciones y los venden. Otras distribuciones solo piden donaciones. Pero todo el dinero acumulado se utiliza para los beneficios de GNU/Linux y su desarrollo.

- Que es el Codigo Fuente?

El codigo fuente o el “Kernel” es la base o nucleo de un sistema operativo. Digamos que es la raiz de todo Sistema Operativo. Sin esta programacion, no podemos llamarle Sistema Operativo.

- Que es “Codigo Abierto” (OpenSource)?

Codigo abierto significa que es un Software o S.O que deja conocer su Codigo Fuente libremente.

- Que es una Distribucion de GNU/Linux?

Una distribucion de GNU/Linux es un S.O basado en GNU/Linux. Digamos que de UNix sale GNU/Linux y de GNU/Linux salen cientos de S.O.

- Todos estos S.O basados en GNU/Linux son gratis?

No. La mayoria es Gratis. Pero algunas distribuciones como “Linspire” cuestan dinero. Otras personas solo piden una donacion minima de 5$ dolares en adelante como “eLive”.

- Donde descargo las Distribuciones de GNU/Linux?

En su web oficial. Cada distribucion tiene una web oficial la cual le da soporte y mantenimiento a su distribucion distribuyendo nuevas versiones atraves del tiempo.

- Cual es la mejor distribucion de GNU/Linux?

GNU/Linux no tiene preferencias. Todas son buenas. Todo depende para que la quieras utilizar y el rendimiento de tu PC. Quizas una distribucion puede ser mas bonita que otra pero menos segura o mas dificil de utilizar. Cuando hablamos de cual es la mejor, no hablamos de su estilo o como se ve visualmente, sino el rendimiento, la seguridad, el soporte y la estabilidad que te provee. Los “Linuxeros” generalmente no hablan de una mejor distribucion, sino de alguna distribucion preferida por ellos.

- Que es un GNU/Linuxero?

Una persona que utiliza GNU/Linux.

- Cuales son las distribuciones mas famosas djavascript:void(0)e GNU/Linux?

* Ubuntu (…y derivados)
* Mandriva
* OpenSUSE
* Debian
* SlackWare
* Fedora

ARTURO LUGO

martes, 20 de mayo de 2008

Instalar Ubuntu 8.04 Hardy Heron desde Windows con Wubi


Con este manual vamos a ver lo sencillo que es instalar Ubuntu Hardy desde Windows mediante Wubi. El proceso de instalación y desinstalación incluye capturas detalladas de cada paso para que sea aún más simple de lo que ya lo es de por sí.

Introducción

Ya hemos visto que es realmente sencillo instalar Ubuntu, y que tenemos incluso alternativas menos gráficas pero más eficientes. Sin embargo en ocasiones nos cuesta “convencer” a un amigo o familiar a que lo pruebe. El simple hecho de tener que hacer el particionado del disco es algo que rechazan muchos de forma sistemática.

El objetivo de Wubi es precisamente ese, el ofrecer una cómoda alternativa a los usuarios de Windows de probar Ubuntu sin tener que hacer ningún tipo de particionado y sin riesgos para los datos de sus disco.

Obviamente el rendimiento no será igual, pero en absoluto es malo ni comparable por ejemplo con el que ofrece el probarlo en un LiveCD.

El proceso de instalación es muy sencillo, como si fuera una aplicación más. El método de instalación es igual de simple, una vez más como si fuera una aplicación más de Windows.

El manual está dividida en cuatro secciones y la segunda (la instalación propiamente dicha) en otras dos subsecciones que están claramente diferenciadas.

1.- ¿Qué necesitamos?

Obviamente necesitamos un ordenador con un sistema Windows instalado. También necesitaremos que un disco o partición tenga al menos 4GB de espacio libre, y si son 8GB, mejor que mejor pues es la cantidad recomendada.

El ordenador debe disponer de una unidad lectora de CD y también tenemos que hacernos un LiveCD de Ubuntu Hardy. Puedes descargarlo o pedir que te envíen uno a casa de forma totalmente gratuita.
2.- Instalando Ubuntu Hardy con Wubi

Como os comenté en la traducción, tendremos tres etapas durante el proceso de instalación. No os asustéis por ello ya que como veréis son realmente sencillas y no os podréis perder con ayuda de las capturas. Comencemos.
2.1.- Primera etapa: Instalación desde Windows

Estando en Windows, vamos a introducir el LiveCD de Ubuntu Hardy en la unidad lectora de CDs y el autorun del CD nos mostrará la siguiente ventana:

Podéis las distintas opciones que tenemos. La primera es para iniciar en modo LiveCD reiniciando la máquina, pero la que nos interesa es la segunda “Instalar dentro de Windows“, así pues hacemos click sobre dicho botón.

La ventana que tenemos encima es todo lo que tenemos que configurar. No es mucho, ¿verdad? En cualquier caso os explicaré para qué es cada cosa.

* Unidad para la instalación: Esto es lo que os comenté antes, el disco o partición donde vamos a instalar Ubuntu. No os preocupéis por lo que tengáis en ella, no borrará nada ni podrá en riesgo el sistema Windows. Sólo ha de tener espacio suficiente para albergar Ubuntu. ¿Cuánto espacio? Vamos a verlo.
* Tamaño de la instalación: Tal y como cité anteriormente, el espacio mínimo que necesitamos es de 4GB, pero es más que recomendable que le deis 8GB para que el sistema vaya más suelto y tengáis espacio suficiente para instalar más aplicaciones.
* Entorno de escritorio: De momento y con este CD sólo podemos elegir Ubuntu (GNOME). Puede que en un futuro o en versiones DVD podamos elegir más sabores como Kubuntu (KDE), Xubuntu (Xfce), etc.
* Idioma: No hace falta explicación.
* Usuario: Por defecto os pondrá el mismo usuario que tenéis en Windows, pero podéis cambiarlo. El usuario es el nombre con el que iniciaréis sesión en Ubuntu, al igual que hace Windows cuando hay más de un usuario en la máquina.
* Contraseña: Pondremos dos veces la contraseña que queremos para nuestro usuario.

Y eso es todo. No hay líos de particionado, ni de configuración de hardware, ni de nada. Como veis es sumamente simple.

Cuando hayas acabado, dadle al botón “Instalar“…

Y la cosa comenzará. En el fondo no está aún instalando el sistema. Lo que está haciendo es preparar unos “archivos temporales” de instalación para la segunda fase, que será la que sí haga la instalación como tal.

Y listo. Una vez finalice de construir esos archivos temporales os avisará de que ha terminado y nos preguntará si queremos reiniciar el sistema para continuar con el proceso, o bien si estáis haciendo algo en Windows, reiniciar más tarde.
2.2.- Segunda etapa: Instalación desde Ubuntu

Una vez reiniciemos, en lugar de iniciarse de forma automática Windows, nos mostrará un menú de selección para elegir si iniciar Windows o Ubuntu.

Elegimos la segunda opción para continuar con la instalación y nos mostrará otro menú de selección, en esta ocasión para elegir el “menu.lst“. Elegimos la primera opción que veis en la siguiente captura:

Ahora se nos mostrará el logo de Ubuntu con una franja naranja que rebota de izquierda a derecha, hasta que se vacíe y comience a llenarse de naranja de nuevo de izquierda a derecha para indicar el progreso de inicio. Es probable que tarde un par de minutos aproximadamente, pero tranquilos, es sólo para el proceso de instalación

Cuando finalice de llenarse la barra de color naranja nos mostrará el wallpaper de Hardy con una ventana que se llama “Comprobando la instalación“.

Este proceso en realidad comprende varios subprocesos: un particionado virtual, formateo de las particiones virtuales, copia de archivos del sistema, configurar apt (el gestor de paquetes), descargar e instalar paquetes extras de idiomas (si tenemos conexión a internet), configurar hora, detección y configuración de hardware, configuración de grub, eliminación de los archivos temporales de instalación… Una vez finalice, reiniciará la máquina de nuevo.

Enhorabuena, acabas de instalar Ubuntu. ¿Difícil?
3.- Inicio del sistema Ubuntu ya instalado

Ya tenemos disponible el acostumbrado grub, que es el menú de elección de sistema operativo que instala Ubuntu.

En él podemos elegir que inicie Ubuntu (primera opción), Ubuntu en modo de recuperación (segunda opción), una comprobación de la memoria RAM (tercera opción) o Windows (quinta opción).

Seleccionamos la primera y volveremos a ver la franja naranja de Ubuntu que vimos antes, eso sí, ahora iniciará el sistema más rápido, aunque es probable que esta primera vez sea más lenta que las consecutivas.

Cuando finalice nos preguntará por nuestro login (nombre de usuario), que configuramos en la fase de instalación de Windows.

Lo introducimos y le damos a “Enter“. Hacemos lo mismo con la siguiente pantalla, en esta ocasión con la contraseña asociada con la cuenta que configuramos.

Y listo, ya hemos entrado en Ubuntu Hardy. Más simple, imposible.

Para los que aún tengan dudas con lo que se ha hecho en la partición o disco seleccionado, vais a comprobar que no ha sido nada dañino. Lo único que ha hecho ha sido generar un par de archivos en la raíz de la partición (en nuestro ejemplo, en C) y una carpeta (ubuntu) que es la que contiene el sistema.

En esta captura lo podés ver mejor, así como el espacio asignado a dicha carpeta:

Podéis estar tranquilos pues como os dije en la introducción, esta instalación no es nada intrusiva ni tiene ningún tipo de riesgos para el sistema Windows.
4.- Desinstalación de Ubuntu

En caso de que a vuestro amigo o familiar no le haya gustado, o por contra, le haya gustado tanto que quiera instalarlo en condiciones con sus particiones específicas, podéis desinstalar fácilmente Ubuntu también desde Windows.

Para ello lo tratamos como si fuera una aplicación más, es decir, nos vamos a “Inicio > Panel de Control > Agregar o quitar programas > Cambiar o quitar programas“, seleccionamos de la lista “Ubuntu” y pulsamos sobre el botón “Cambiar o quitar“:

Podéis estar tranquilos pues como os dije en la introducción, esta instalación no es nada intrusiva ni tiene ningún tipo de riesgos para el sistema Windows.
4.- Desinstalación de Ubuntu

En caso de que a vuestro amigo o familiar no le haya gustado, o por contra, le haya gustado tanto que quiera instalarlo en condiciones con sus particiones específicas, podéis desinstalar fácilmente Ubuntu también desde Windows.

Para ello lo tratamos como si fuera una aplicación más, es decir, nos vamos a “Inicio > Panel de Control > Agregar o quitar programas > Cambiar o quitar programas“, seleccionamos de la lista “Ubuntu” y pulsamos sobre el botón “Cambiar o quitar“:

Desinstalará Ubuntu en muy pocos segundos y nos informará de ello, le damos a “Terminar“.

Tras esto habrá desaparecido todo posible rastro de Ubuntu. Tanto los dos archivos que vimos en C: como la carpeta, podéis comprobarlo. Además cuando reiniciéis, Windows se iniciará automáticamente como lo había hecho antes.
Conclusión

Personalmente no recomiendo esta instalación para un usuario que vaya a usar Ubuntu continuamente. El rendimiento no es que sea malo, todo lo contrario ya que va francamente bien.

Sin embargo, sí recomiendo este tipo de instalación a aquellos usuarios a los que está orientado Wubi, a usuarios de Windows que tienen algo de pavor a particionar o incertidumbre a probar un sistema nuevo y quiere tener garantías de que Windows no se le dañará de ninguna forma.

Como habéis visto el proceso es muy sencillo. Sólo nos pide un login y password, y una unidad que tenga al menos 4 GB de espacio libre. El resto es mirar la pantalla o irse a tomar un café.

Del mismo modo, la desinstalación es igual de simple, borrando todo rastro con pocos clicks.

Ahora ya no hay excusa para probarlo, ¿verdad?
También te puede interesar…

· Instalar Ubuntu 8.04 Hardy Heron
· Instalar Ubuntu 8.04 Hardy Heron (javascript:void(0)
Publicar entradaAlternate CD)
· Actualizar a Ubuntu 8.04 Hardy Heron
· Activar Compiz Fusion en Ubuntu Hardy

entra en http://tuxpepino.wordpress.com/2008/05/19/instalar-ubuntu-desde-windows-con-wubi/
para enterarte de mas cosas

ARTURO LUGO

Analogia sobre Ubuntu


Soy un asiduo de la tecnologia
Por lo tanto estoy aqui para hablar de ello,
Ok, el tema que voy ha abordar se trata del Sistema Libre, que esta en boca de todos los linuxeros, como yo, que aun no dejan a las ventanas, si no dejan las ventanas.. admito.. por que ?

Por temosr a perderse entre el frio hemisferio, que radica en el freedom, del temindo TUX...

Ubuntu es una version que viene enla version 7.10 y 8.04(nueva).. no estoy muy empapado aun con este sujeto operativo, pèro segun lei, esta mas que bueno, esta visualmente amigable, me recuerda a las vetanas, ALTO.. NO HABLEMOS DE VENTANAS.. ESTAMOS HABLANDO DEL PINGUINO....

oK.. HACE UN BUEN TIEMPO que le estoy investigando al pinguino..
empece con fedora(ne modo consola, y el modo grafico), lo cual me pareceron un poco rigidas.. cuando eso era un tema la cuestion de cotroladores para ciertos dispositivos...

Luego venia comprando revistas, libros sobre el sistema.. hasta ue en este momento estoy descargano la version 8.04. a mi pc.. para probar,, solo que es demasiado grande. son 699 mb..
paciencia.. que lo bueno se hace esperar.. les cuento que cuando vaya decubriendo mas cosas , voy ha ir escupiendo sus principales caracteristicas

es nuevo para mi esta version.. EN si linux es nuevo.. apesar de conocerlo de antes.. es lo que siempre quiece conocer.. al famoso , y estable S. OPERATIVO..

QUE MAS PUEDO DECIR.. ESTOY ENTRANDO EN UNA ERA TOTALMENTE DIFERENTE.. ES EL MAYOR PROYECTO QUE REALICE HASTA AHORA..

esten atentos que hay mas cosas....

ARTURO LUGO

domingo, 18 de mayo de 2008

La nanotecnología podría promover la economía del hidrógeno

(NC&T) Cuando se menciona la palabra "nanotecnología", la gente piensa en exóticas micromáquinas o en innovadores chips de ordenador. Pero las aplicaciones abarcan todos los campos, y, ahora un nuevo uso está siendo probado por un grupo de expertos de la Universidad Estatal de New Jersey (Rutgers).

En un estudio presentado en la Sociedad Americana de Química, los investigadores describen cómo elaboran una superficie de textura fina de metal iridio que se puede usar para extraer hidrógeno del amoníaco, y luego capturarlo y alimentar con él una célula de combustible. La superficie única del metal consta de millones de pirámides con facetas muy diminutas, de cinco nanómetros de sección, en las que las moléculas de amoníaco pueden anidar como piezas de un rompecabezas. Esto acomoda a las moléculas para que transcurra su descomposición de manera completa y eficaz.

"Las superficies nanoestructuradas que examinamos son catalizadores ejemplares", declara Ted Madey, profesor de ciencia de superficies en el departamento de física de la citada universidad. También tienen el potencial de catalizar reacciones químicas para las industrias química y farmacéutica.

Un obstáculo importante para establecer la "economía del hidrógeno" es la seguridad y bajo coste del almacenamiento y transporte del combustible de hidrógeno. El proceso recién descubierto podría contribuir a la solución definitiva de este problema. Manipular hidrógeno en su forma nativa, como gas ligero muy inflamable, plantea desafíos peligrosos a la ingeniería, y requeriría construir una nueva infraestructura de distribución de combustible a partir de cero.

Usando procesos establecidos para unir el hidrógeno con nitrógeno atmosférico en moléculas de amoníaco (que es simplemente un átomo de nitrógeno unido a tres átomos de hidrógeno), se puede manejar el líquido resultante tal como hoy se maneja la gasolina. Entonces, empleando nanocatalizadores basados en el que se desarrolla en Rutgers, se puede extraer hidrógeno puro bajo el capó del vehículo según requiera la célula de combustible, y el inocuo nitrógeno restante es liberado de nuevo a la atmósfera.

Al desarrollar catalizadores industriales, los científicos e ingenieros se han concentrado tradicionalmente en cómo de rápido podrían realizar una reacción química. En tales situaciones, sin embargo, los catalizadores a menudo controlan más de una reacción, produciendo sustancias no deseadas que tienen que ser separadas. También, los catalizadores tradicionales a veces pierden fuerza en el proceso de la reacción. Estos problemas podrían ser minimizados preparando a la medida superficies de metal nanoestructuradas para servir de soporte a catalizadores industriales, logrando así procesos de catálisis más robustos y selectivos.ARTURO LUGO

Tecnología GRID cerca del usuario

(NC&T/UAB) Desde su creación, el desarrollo y los avances de Internet han estado ligados a la progresiva implantación de nuevos servicios que han facilitado el acceso y la transmisión de información entre computadores remotos. El correo electrónico y la creación de una interfaz interactiva y fácil de utilizar, la World Wide Web, han sido algunos de los servicios clave que han contribuido a la popularización de Internet. La recientemente aparecida tecnología GRID, que conecta centenares de grandes ordenadores para que compartan no sólo información, sino también capacidad de cálculo y grandes espacios de almacenamiento, ha dado ahora un nuevo paso adelante: la disponibilidad de software y de herramientas necesarias para que la interfaz con el usuario sea interactiva. La UAB ha participado en este proyecto, encargándose de crear el software que coordina el acceso a los diferentes ordenadores de este nuevo sistema.

La principal novedad es su interactividad: el usuario trabaja a través de un "escritorio virtual", con comandos y ventanas gráficas que acceden de manera fácil y transparente a los recursos de toda la red GRID, como si se tratara de las carpetas del escritorio de su portátil. Las posibilidades de este sistema en muchas áreas son inmensas.

Una de las aplicaciones se dirige a aquellos ámbitos en los que se tienen que transformar grandes cantidades de información en conocimiento, mediante el uso de simulaciones y de técnicas de análisis y de minería de datos, con el fin de mejorar la toma de decisiones. Este sería el caso, por ejemplo, de un cirujano que tuviese que proponer a distancia diferentes configuraciones para una operación de bypass, en función de la información de un escáner realizado al paciente. El médico podría comparar diferentes simulaciones y visualizar en tiempo real el flujo sanguíneo que resultase de cada simulación. El nuevo sistema interactivo le permitiría hacer todo esto, con el fin de poder tomar la mejor decisión posible.

Otro tipo de situaciones que puede resolver el nuevo sistema son aquellas en las que es necesaria una considerable capacidad de cálculo y el acceso a grandes bases de datos distribuidas. Un hipotético caso de este tipo de aplicación sería la de un ingeniero de una central térmica que tuviese que decidir el mejor momento para operar con cada combustible, teniendo en cuenta las predicciones de dispersión de la contaminación, basadas en un modelo meteorológico adaptado al área geográfica de la central.

El equipo de investigadores de la Universitat Autònoma de Barcelona, dirigido por el profesor de la Escuela Técnica Superior de Ingeniería de la UAB Miquel Àngel Senar, ha creado el software necesario para coordinar y gestionar el uso interactivo del sistema GRID, que también permite que se puedan utilizar múltiples procesadores al mismo tiempo. Este servicio, desarrollado en la UAB, se encarga de llevar a cabo automáticamente todos los pasos necesarios para ejecutar las aplicaciones de los usuarios en alguno de los recursos del GRID, que se seleccionan de forma transparente por el propio servicio.

El sistema ha sido desarrollado en el marco del proyecto europeo CrossGRID, que ha contado con una financiación de 5 millones de euros, y en el que han participado 21 instituciones de toda Europa. Además del equipo de investigadores de la UAB, en el proyecto europeo han participado investigadores del CSIC y de la Universidad de Santiago, con un papel muy relevante. El equipo del CSIC ha sido el responsable de la primera aplicación: una red neuronal para la búsqueda de nuevas partículas elementales en física; mientras que el equipo de la Universidad de Santiago ha adaptado una aplicación para evaluar la contaminación del aire como la descrita en el ejemplo de la central térmica.

ARTURO LUGO

Puntos malignos de acceso inalámbrico a Internet

(NC&T) Así lo afirman expertos en Internet inalámbrica y cibercrimen de la Universidad de Cranfield, asociada de la Academia de Defensa del Reino Unido.

En esencia, los usuarios piensan que se han registrado en un punto de acceso inalámbrico cuando, de hecho, los han engañado para conectarse a la estación base no autorizada del atacante. Para anular la conexión a una estación legítima, las estaciones ficticias envían una señal más fuerte cerca del cliente inalámbrico, convirtiéndose en un "Gemelo Malvado".

Una vez que el usuario se conecta al "Gemelo Malvado", el ciberdelincuente puede interceptar los datos que se transmitan, como detalles bancarios o información personal. Los delincuentes no tienen que ser demasiado diestros para llevar a cabo semejante ataque. Debido a que las redes inalámbricas están basadas en señales de radio, éstas se pueden detectar fácilmente sintonizando la misma frecuencia.

Los usuarios son invitados a registrarse en el servidor del atacante, proporcionando así durante ese inicio de sesión, información confidencial como nombres de usuario y contraseñas, la cual puede usarse por otras personas no autorizadas. Este tipo de cibercrimen pasa generalmente inadvertido debido a que los usuarios ignoran lo que está ocurriendo hasta mucho después del incidente.

También pueden realizarse ataques para entorpecer el funcionamiento de la red, o de total denegación de servicio. El atacante puede hacer que la red de la víctima "ayude" en el ataque haciendo menos probable la detección de la disminución del rendimiento.

Dada la extensión y popularidad de las redes inalámbricas, de las que según la compañía IDC, se vaticina un incremento de 7.800 a casi 22.000 para el año 2008, los usuarios necesitan ser cautelosos al usar su laptops u otros dispositivos portátiles con Wi-Fi para realizar transacciones financieras o transmisiones de naturaleza confidencial o personal.

Además, los usuarios pueden protegerse asegurando que su dispositivo Wi-Fi tenga las medidas de seguridad activadas, pues en la inmensa mayoría de casos, las estaciones base vienen configuradas por el fabricante en el modo menos seguro posible.

La Universidad de Cranfield reconoce que ésta es una nueva área del cibercrimen donde se requiere más investigación.
ARTURO LUGO

El robot piramidal

(NC&T) Dichos enjambres se moverán fácilmente por terrenos rocosos, o podrán, por ejemplo, adoptar formas adecuadas para formar estructuras útiles, como antenas de comunicaciones y velas solares. La NASA podría usarlos en sus misiones espaciales a otros planetas.

El primer prototipo avanzado del proyecto ANTS es el mencionado TETWalker (caminante tetraédrico, llamado así por su forma, una pirámide con tres caras y una base). Motores eléctricos en las esquinas de la pirámide (nodos), unidos a las barras telescópicas que forman los lados de ésta, permiten su movimiento como en las patas de un trípode de cámara. La pirámide se desplaza cambiando la longitud de los lados, alterando el centro de gravedad de la pirámide y haciendo que se tumbe. El prototipo fue llevado a la Antártida en enero, donde fue probado en condiciones difíciles y semejantes a las existentes en Marte. A partir de estas pruebas los ingenieros han concluido que los motores deben ser desplazados al centro de las barras para una mayor fiabilidad.

En el futuro, estos robots serán mucho más pequeños, cuando sus motores sean reemplazados por sistemas micro o nanoelectromecánicos (MEMS y NEMS). Las barras serán sustituidas con nanotubos de carbono, permitiendo aumentar su número.


Estos TETwalkers en miniatura, desplegados en enjambres, podrán cambiar su forma para alcanzar una gran variedad de objetivos. Por ejemplo, podrán aplanarse para adoptar una forma aerodinámica durante el descenso por la atmósfera de Marte, moverse como una serpiente por la superficie, actuar como antena al encontrar algo interesante, etc.

Si el robot recibe algún tipo de daño en alguna de sus partes, los nodos y barras podrán reconectarse adecuadamente y desechar los segmentos inútiles. Mientras, los científicos intentan desarrollar sofisticados medios de control mediante inteligencia artificial, que permitan gobernar enjambres de un gran número de miembros.
ARTURO LUGO

El robot móvil más pequeño del mundo

El robot, obra de investigadores del Dartmouth College, es decenas de veces más pequeño en longitud, y miles de veces más pequeño en masa, que los anteriores microrrobots controlables sin cables fijos. Cuando decimos "controlable", esto significa que es como un automóvil, se le puede dirigir en cualquier dirección sobre una superficie plana. No se mueve mediante ruedas, sino arrastrándose como una oruga de silicio, ejecutando decenas de miles de pasos de 10 nanómetros cada segundo. Para girar, pone un "pie" de silicio hacia fuera y lo usa como eje para pivotar, como un motociclista patinando en una curva muy estrecha.

Las aplicaciones futuras para los sistemas microelectromecánicos, o MEMS, incluyen garantizar la seguridad de la información, servir como apoyo para la autentificación y autorización en las redes, inspeccionar y reparar un circuito integrado, la exploración en ambientes de alto riesgo como sería el caso del escenario de una explosión química peligrosa, o participar en tareas que involucren la biotecnología, como por ejemplo para manipular células o tejidos.

Los investigadores fueron dirigidos por Bruce Donald, profesor de Ciencias de la Computación en el Dartmouth College. Donald trabajó con científicos de su centro y del Instituto Tecnológico de Massachusetts (MIT).

La máquina mide 60 por 250 micrómetros (un micrómetro es una milésima de milímetro). Integra el sistema de energía, la locomoción, la comunicación, y un método de direccionamiento controlable, una combinación que nunca antes se había logrado en una máquina tan pequeña. Este descubrimiento va a liderar una nueva generación de microrrobots, aún más diminutos.


Las máquinas tan pequeñas tienden a pegarse a todo lo que tocan, de forma semejante a los granos de arena que se pegan a nuestros pies después de un día en la playa. Así que los ingenieros construyen estos microrrobots sin ruedas o uniones articuladas que deban deslizarse suavemente. En vez de eso, estos robots se mueven doblando sus cuerpos como las orugas. En su escala diminuta, esta máquina se mueve de forma sorprendentemente rápida.

El prototipo es dirigible y sin cables fijos, lo que significa que se le puede conducir libremente en una superficie, sin que deba permanecer sujeto a cables o carriles que limitarían su capacidad de movimiento, como sucedía en los microrrobots previamente desarrollados. El robot contiene dos microactuadores independientes, uno para el movimiento delantero y otro para girar. No está preprogramado para moverse, es teleoperado, y obtiene la energía que necesita de la rejilla de electrodos sobre la que camina. La carga recibida a través de los electrodos no sólo le suministra la energía, sino también las instrucciones para moverse hacia cualquier parte sobre los electrodos, sin tener que estar sujeto a ellos.


ARTURO LUGO

De SETI@home a BOINC

PROYECTO INTERESANTE
Más de 450.000 personas están actualmente participando en los variados proyectos a través de la Infraestructura Abierta de Berkeley para la Computación en Red (BOINC, por sus siglas en inglés), que proporciona la capacidad de gestionarlos en forma conjunta.

El alcance masivo y la popularidad que logró SETI@home, la iniciativa que desde 1999 involucró a millones de personas en el mundo en el análisis de datos de radio para hallar posibles señales de inteligencia extraterrestre, fueron claves en el éxito de ese proyecto que comprometió a gente de todo el orbe en un experimento científico y real.

Gestado por científicos de la Universidad de California en Berkeley y financiado originalmente por la Sociedad Planetaria, la organización no gubernamental más grande e influyente a nivel mundial en temas de exploración planetaria y búsqueda de vida extraterrestre, el proyecto logró armar la mayor supercomputadora virtual en la historia dedicada al rastreo de señales de radio provenientes de civilizaciones del espacio exterior.

Esta supercomputadora analizaría datos tomados por el proyecto SERENDIP (Búsqueda de Emisiones de Radio Procedentes de Poblaciones Inteligentes y Desarrolladas), un receptor montado en el radiotelescopio de Arecibo (Puerto Rico), el mayor sobre la faz del planeta.

Las PC, cuando están encendidas y sin usarse, consumen energía, y aquí entra en juego el original proyecto. La idea es que el usuario facilite su computadora cuando no la está utilizando, por ejemplo cuando se activan los conocidos protectores de pantalla.

La información que recibe el radiotelescopio de Arecibo es procesada y los datos enviados a la Universidad de Berkeley, donde son divididos y enviados a los participantes. Dado que el programa funciona al igual que un protector de pantalla y no interfiere con el normal funcionamiento de la PC, usuarios de todo el mundo se han convertido en voluntarios para aprovechar el tiempo ocioso de sus equipos. Luego de procesar cada unidad, los resultados retornan a Berkeley, donde las señales más interesantes y prometedoras son almacenadas para un posterior análisis y revisión.

Las tareas que requieren de gran análisis y procesamiento de datos mediante computadora, pueden ser divididas en partes que son llevadas a cabo por varias unidades en forma simultánea, recomponiendo luego el resultado con la integración parcial de cada una. La energía de las computadoras individuales esparcidas por el mundo es equivalente a cientos de miles de procesadores, lo que permite una capacidad de cálculo mayor que la que tendrían los científicos que trabajan en determinado proyecto de investigación, al igual que una efectiva reducción de costos.

Además de SETI@home con su nuevo potencial, BOINC auspiciado por la Fundación Nacional de la Ciencia de Estados Unidos, le permite donar tiempo y recursos de su computadora en los siguientes proyectos:

-"Climateprediction.net" es el mayor intento de ofrecer un pronóstico del clima en el futuro y generar respuestas al cambio climático que afecta al planeta. Mediante la reproducción y el refinamiento de los modelos climáticos, se logra reducir la incertidumbre en las proyecciones del clima. Es llevado a cabo por la Open University de Inglaterra.

-"Einstein@home", el programa de búsqueda de señales gravitatorias emitidas por estrellas de neutrones que rotan (conocidas como púlsares), que usa datos de detectores de ondas gravitatorias. Es auspiciado por la Sociedad Americana de Física y otras organizaciones internacionales.

-"LHC@home" mejora el diseño del acelerador de partículas LHC (Gran Colisionador de Hadrones) del CERN (Centro Europeo para la Investigación Nuclear), el mayor de su tipo y que comenzará a funcionar en el 2007. Los experimentos que llevará a cabo para investigar las partículas manejarán un volumen de información similar al de la actual red Europea de telecomunicaciones.

-Proyecto piloto de BOINC, "Predictor@home" es un esfuerzo mundial en la investigación de la estructura de las proteínas a partir de la secuencia de las mismas. El trabajo está enfocado en la prueba y evaluación de nuevos algoritmos para la predicción de métodos de la distribución de las proteínas. Tiene como objetivo final las cuestiones de biomedicina críticas de las enfermedades relacionadas con las proteínas.

-"Rosetta@home", otro proyecto relacionado con las proteínas, predice cómo las cadenas de aminoácidos que las componen se pliegan y toman forma, ayudando a los investigadores a desarrollar curas para las enfermedades humanas como la malaria, el HIV, el Alzheimer y algunos tipos de cáncer.

-"Cell Computing", lleva a cabo investigación biomédica, está en idioma japonés y requiere de un software de cliente no estándar.

-"World Community Grid", que tiene como objetivo convertirse en la mayor red mundial de computación para enfrentar proyectos que beneficien a la humanidad. La innovación tecnológica, combinada con la investigación científica y los voluntarios de todo el mundo, hacen posible la finalización de proyectos que no serían completados debido al alto costo de infraestructura de computadoras que requerirían. Por ejemplo, en el 2003, los científicos en menos de tres meses identificaron más de cuarenta tratamientos posibles en la lucha de la mortal enfermedad de la viruela, un trabajo que habría tardado más de un año en completarse. Actualmente se llevan a cabo dos proyectos: "Human Proteome Folding", para la identificación de proteínas producidas por los genes humanos, y "FightAIDS@Home", en la lucha contra el SIDA.

El software es gratuito, y se puede participar libremente en más de un proyecto y controlar el porcentaje de la energía que su computadora le asigna a cada uno. De esta forma, su equipo siempre estará ocupado aún cuando alguno de los proyectos se encuentre inactivo y contribuirá con atrayentes iniciativas que, sin duda, serán ventajosas para el hombre.

ARTURO LUGO

Uso de la nanotecnología en las comunicaciones

Las investigaciones previas de los científicos de la UCI demostraron que los transistores de nanotubo pueden operar a frecuencias extremadamente altas. "Pero las conexiones de cobre entre los transistores resultaban demasiado lentas, lo que provocaba un cuello de botella en las señales eléctricas", explica Peter Burke, profesor de ingeniería eléctrica y ciencias de la computación, y uno de los investigadores que desarrollaron la tecnología. Los experimentos posteriores del grupo han revelado que los nanotubos pueden además servir como medio para transportar las señales eléctricas de un transistor al otro, y de esta forma se elimina el cuello de botella.

Las señales eléctricas son encaminadas a una altísima velocidad a través de prácticamente todos los sistemas electrónicos alámbricos actuales, y además a través de todos los inalámbricos modernos.

La mayoría de las capas de un chip semiconductor actual son dedicadas al cableado de interconexión, lo que hace que el material empleado, y su velocidad, sean en extremo importantes. La industria del semiconductor recientemente ha desplazado el aluminio en favor del cobre debido a que este último transporta las señales eléctricas más rápido. A partir del trabajo de Burke, queda claro que el cambio en la industria desde el cobre hacia los nanotubos, proveerá una ventaja aún mayor en términos de velocidad. Naturalmente, antes de que dicho cambio pueda ocurrir, sería necesario establecer una forma económica de manufacturarlos con un ensamblaje preciso, que es en lo que Burke y sus colegas están ahora trabajando.

Trabajos anteriores del equipo han demostrado que los nanotubos pueden transportar señales eléctricas dentro de un chip, a distancias de varios milímetros, con mayor eficacia que el cobre, pero no habían medido cuán rápido podrían propagar la señal. Este trabajo es la primera demostración de tecnología de interconexión en aplicaciones de velocidad ultra-alta. Ahora que el equipo de Burke ha desarrollado la tecnología de interconexión del nanotubo y los transistores de alta velocidad de nanotubos, esperan poder integrarlos en un circuito, más rápido que cualquier tecnología de semiconductores existente hoy en día.
ARTURO LUGO

Cultivo más rápido y barato de nanotubos de carbono

(NC&T) En una investigación que podría conducir a ordenadores y dispositivos de comunicación más pequeños y potentes, Massood Tabib-Azar, profesor de ingeniería eléctrica e informática en la Case Western Reserve University, y el estudiante graduado de ingeniería Yan Xie, están cultivando puentes de nanotubos de carbono en su laboratorio, que se adhieren automáticamente a otros componentes sin la ayuda de la aplicación de una corriente eléctrica.

Los nanotubos de carbono, descubiertos hace sólo 14 años, son más fuertes que el acero y tan flexibles como el plástico, conducen la electricidad mejor que casi cualquier material jamás descubierto, y pueden obtenerse de sustancias ordinarias como el gas metano. En un tiempo relativamente corto, los nanotubos de carbono han surgido como un "material milagroso" que podría revolucionar diversas industrias, sobre todo la electrónica.

Para usar los nanotubos de carbono en la electrónica, donde pueden mejorar el rendimiento de los dispositivos y facilitar el encapsulado de más componentes por chip, los nanotubos deben conectarse a contactos eléctricos. Hasta ahora, para conectar nanotubos de carbono a los contactos eléctricos se han usado herramientas de alta precisión como los microscopios de fuerza atómica, lo que hace que los dispositivos resultantes sean muy caros. También se han usado fuerzas eléctricas para fomentar el crecimiento de nanotubos de carbono entre dos contactos. Ambas técnicas producen muy pocos dispositivos y no pueden usarse para producir un gran número de interruptores y componentes de forma rentable.

Tabib-Azar compara la fabricación de los chips de ordenador y de teléfonos móviles con la construcción de una mesa derribando un árbol y eliminando las porciones no deseadas hasta obtener una superficie llana con cuatro patas. Él y Xie descubrieron que se pueden fabricar los componentes de los circuitos integrados a gran escala mediante el cultivo de nanotubos autoensamblables. Sin embargo, en lugar de talar un árbol entero, se crean las "semillas" para cultivar lo que se necesite. En otras palabras, Tabib-Azar y Xie han encontrado las semillas para cultivar de manera simple los nanotubos de carbono que se necesitan sin desperdiciar el "árbol" entero.


La estrategia es cultivar una mesa usando una "semilla de mesa". Mediante el cultivo de los circuitos electrónicos, en lugar de echar abajo el "árbol" y eliminar las regiones no deseadas de las diferentes capas, el nuevo método tiene el potencial de producir chips muy complejos con propiedades informáticas superiores y al mismo tiempo derrochar menos, imitando el modo con que la naturaleza crea estructuras complejas.


ARTURO LUGO

Identificado el obstaculo en la computacion cuantica

Los nanocientíficos sueñan con desarrollar una computadora cuántica, un dispositivo del tamaño de un grano de arena que podría ser más rápido y potente que los PCs modernos. Ya han identificado a los diminutos átomos artificiales llamados "puntos cuánticos" como los materiales más probables para construir estas máquinas, pero se han visto desconcertados por la conducta impredecible de estos puntos a escala nanométrica.

Un equipo de físicos de la Universidad de Ohio cree haber encontrado el problema y ha realizado una propuesta técnica para construir mejores puntos cuánticos. Los investigadores señalan que los defectos formados durante su creación operan como una barrera a la experimentación científica, pero que el obstáculo podría solventarse.

Científicos experimentales en Alemania habían bombardeado puntos cuánticos con luz para crear el estado mecánico cuántico necesario para hacer funcionar una computadora cuántica, pero no pudieron controlar ese estado de forma consistente. Sergio Ulloa, profesor de física y astronomía de la Universidad de Ohio, su colega José Villas-Boas, y el profesor adjunto Alexander Govorov desarrollaron modelos teóricos para averiguar la causa del problema.

Éste se origina durante la creación de los puntos del tipo estudiado. Usando una cámara de epitaxia por haces moleculares (MBE), los científicos rocían una superficie con átomos a altas temperaturas, creando una capa atómica. A medida que se agregan más capas, los puntos cuánticos afloran en la superficie como gotitas de agua. Pero un residuo delgado dejado en la superficie que Ulloa llama la "capa húmeda" puede causar los problemas durante los experimentos. Cuando los científicos bombardearon los puntos cuánticos con un haz de luz en los estudios anteriores, la capa húmeda causó interferencia, en lugar de permitir a la luz entrar en el punto y activar el estado cuántico.

Un punto cuántico -en azul- es excitado por un rayo láser (Foto: Ohio University )
El estudio sugiere que los científicos podrían perfeccionar el proceso reenfocando el haz de luz o cambiando la duración de los pulsos lumínicos para anular los efectos de la capa húmeda. De hecho, ya se ha utilizado el descubrimiento teórico en el laboratorio para manipular un punto cuántico con éxito.

El nuevo hallazgo podría conducir finalmente a mejorar los puntos cuánticos, y a la vez ayudar a los científicos a comprender mejor los estados cuánticos. Es un paso más para encontrar un mejor bit cuántico, que debiera conducirnos a una computadora de este tipo.

Los científicos están creando puntos cuánticos de muchas maneras para usarlos en diferentes aplicaciones. El tipo autoensamblado podría utilizarse en la electrónica óptica y las computadoras cuánticas. Otros tipos, como los puntos cultivados en una solución, podrían emplearse para aplicaciones relativas a la energía solar.

El estudio también ayudará al equipo de la Universidad de Ohio a comprender mejor cómo controlar el espín de los electrones, una propiedad que podría ser el mecanismo subyacente de dispositivos electrónicos más rápidos y eficaces.


ARTURO LUGO

Computación cuántica

La computación cuántica

Es un paradigma de computación distinto al de la computación clásica. Se basa en el uso de qubits en lugar de bits, y da lugar a nuevas puertas lógicas que hacen posibles nuevos algoritmos. Una misma tarea puede tener diferente complejidad en computación clásica y en computación cuántica, lo que ha dado lugar a una gran expectación, ya que algunos problemas intratables pasan a ser tratables. Mientras un computador clásico equivale a una máquina de Turing, un computador cuántico equivale a una máquina de Turing indeterminista.

La empresa canadiense D-Wave Systems había supuestamente presentado el 13 de febrero de 2007 en Silicon Valley, una primera computadora cuántica comercial de 16-qubits de propósito general; luego la misma compañía admitió que tal máquina llamada Orion no es realmente una Computadora Cuántica, sino una clase de máquina de propósito general que usa algo de mecánica cuántica para resolver problemas.

Origen de la computación cuántica

A medida que evoluciona la tecnología, aumenta la escala de integración y caben más transistores en un espacio, así se fabrican microchips cada vez más pequeños, y es que, cuanto más pequeño es, mayor velocidad de proceso alcanza el chip. Sin embargo, no podemos hacer los chips infinitamente pequeños. Hay un límite en el cual dejan de funcionar correctamente. Cuando se llega a la escala de nanómetros, los electrones se escapan de los canales por donde deben circular. A esto se le llama efecto túnel.Una partícula, si se encuentra con un obstáculo, no puede atravesarlo y rebota. Pero los electrones, que son partículas cuánticas y se comportan como ondas, existe la posibilidad de que una parte de ellos pueda atravesar las paredes si es que estas son demasiado finas, de esta manera la señal pasaria por canales donde no debería circular. Por ello, el chip deja de funcionar correctamente. En consecuencia, la computación digital tradicional, no tardaría en llegar a su límite, puesto que ya se han llegado a escalas de cientos de nanómetros. Surge entonces la necesidad de descubrir nuevas tecnologías y es ahí donde entra la computación cuántica.

La idea de computación cuántica surge en 1981 cuando Paul Benioff expuso su teoría para aprovechar las leyes cuánticas en el entorno de la computación. En vez de trabajar a nivel de voltajes eléctricos, se trabaja a nivel de cuanto. En la computación digital, un bit sólo puede tomar dos valores: 0 ó 1. En cambio, en la computación cuántica, intervienen las leyes de la mecánica cuántica, y la partícula puede estar en superposición coherente: puede ser 0, 1 y puede ser un 0 y un 1 a la vez (dos estados ortogonales de una partícula subatómica). Eso permite que se puedan realizar varias operaciones a la vez, según el número de qubits.

El número de qubits indica la cantidad de bits que pueden estar en superposición. Con los bits convencionales, si teníamos un registro de tres bits, había ocho valores posibles y el registro sólo podía tomar uno de esos valores. En cambio, si tenemos un vector de tres qubits, la partícula puede tomar ocho valores distintos a la vez gracias a la superposición cuántica. Así un vector de tres qubits permitiría un total de ocho operaciones paralelas. Como cabe esperar, el número de operaciones es exponencial con respecto al número de qubits. Para hacerse una idea del gran avance, un computador cuántico de 30 qubits equivaldría a un procesador convencional de 10 teraflops (billones de operaciones en punto flotante por segundo) cuando actualmente las computadoras trabajan en el orden de gigaflops (miles de millones de operaciones).

Problemas de la computación cuántica
Uno de los obstáculos principales para la computación cuántica es el problema de la decoherencia cuántica, que causa la pérdida del caracter unitario (y, más específicamente, la reversibilidad) de los pasos del algoritmo cuántico. Los tiempos de decoherencia para los sistemas candidatos, en particular el tiempo de relajación transversal (en la terminología usada en la tecnología de resonancia magnética nuclear e imaginería por resonancia magnética) está típicamente entre nanosegundos y segundos, a temperaturas bajas. Las tasas de error son típicamente proporcionales a la razón entre tiempo de operación frente a tiempo de decoherencia, de forma que cualquier operación debe ser completada en un tiempo mucho más corto que el tiempo de decoherencia. Si la tasa de error es lo bastante baja, es posible usar eficazmente la corrección de errores cuánticos, con lo cual sí sería posible tiempos de cálculo más largos que el tiempo de decoherencia y, en principio, arbitrariamente largos. Se cita con frecuencia una tasa de error límite de 10-4, por debajo de la cual se supone que sería posible la aplicación eficaz de la corrección de errores cuánticos.

Otro de los problemas principales es la escalabilidad, especialmente teniendo en cuenta el considerable incremento en qubits necesarios para cualquier cálculo que implica la corrección de errores. Para ninguno de los sistemas actualmente propuestos es trivial un diseño capaz de manejar un número lo bastante alto de qubits para resolver problemas computacionalmente interesantes hoy en día.

Hardware para computación cuántica

Aún no se ha resuelto el problema de qué hardware sería el ideal para la computación cuántica. Se ha definido una serie de condiciones que debe cumplir, conocida como la lista de Di Vinzenzo, y hay varios candidatos actualmente.

Condiciones a cumplir

* El sistema ha de poder inicializarse, esto es, llevarse a un estado de partida conocido y controlado.
* Ha de ser posible hacer manipulaciones a los qubits de forma controlada, con un conjunto de operaciones que forme un conjunto universal de puertas lógicas (para poder reproducir a cualquier otra puerta lógica posible).
* El sistema ha de mantener su coherencia cuántica a lo largo del experimento.
* Ha de poder leerse el estado final del sistema, tras el cálculo.
* El sistema ha de ser escalable: tiene que haber una forma definida de aumentar el número de qubits, para tratar con problemas de mayor coste computacional.

Candidatos

* Espines nucleares de moléculas en disolución, en un aparato de RMN
* Flujo eléctrico en SQUIDs
* Iones suspendidos en vacío
* Puntos cuánticos en superficies sólidas
* Imanes moleculares en micro-SQUIDs
* Computadora cuántica de Kane

Procesadores

En 2004, científicos del Instituto de Física aplicada de la Universidad de Bonn publicaron resultados sobre un registro cuántico experimental. Para ello utilizaron átomos neutros que almacenan información cuántica, por lo que son llamados qubits por analogía con los bits. Su objetivo actual es construir una puerta cuántica, con lo cual se tendrían los elementos básicos que constituyen los procesadores, que son el corazón de los computadores actuales. Cabe destacar que un chip de tecnología VLSI contiene actualmente más de 100.000 puertas, de manera que su uso práctico todavía se presenta en un horizonte lejano.

Transmisión de datos

Científicos de los laboratorios Max Planck y Niels Bohr publicaron, en noviembre de 2005, en la revista Nature, resultados sobre la transmisión de información cuántica, usando la luz como vehículo, a distancias de 100 km. Los resultados dan niveles de éxito en las transmisiones de 70%, lo que representa un nivel de calidad que permite utilizar protocolos de transmisión con autocorrección.

Actualmente se trabaja en el diseño de repetidores, que permitirían transmitir información a distancias mayores a las ya alcanzadas.

Software para computación

Algoritmos cuánticos

Los algoritmos cuánticos se basan en un margen de error conocido en las operaciones de base y trabajan reduciendo el margen de error a niveles exponencialmente pequeños, comparables al nivel de error de las máquinas actuales.

* Algoritmo de Shor
* Algoritmo de Grover
* Algoritmo de Deutsch-Jozsa

Modelos

* Computadora cuántica de Benioff
* Computadora cuántica de Feynman
* Computadora cuántica de Deutsch

Complejidad

La clase de complejidad BQP estudia el costo de los algoritmos cuánticos con bajo margen de error.

Problemas propuestos

Se ha sugerido el uso de la computación cuántica como alternativa superior a la computación clásica para varios problemas, entre ellos:

* Factorización de números enteros
* Logaritmo discreto
* Simulación de sistemas cuánticos
Cronologia

Años 80

A comienzos de la década de los 80, empezaron a surgir las primeras teorías que apuntaban a la posibilidad de realizar cálculos de naturaleza cuántica.

1981 - Paul Benioff

Las ideas esenciales de la computación cuántica surgieron de la mente de Paul Benioff que trabajaba en el Argone National Laboratory en Illinois (EE.UU.). Teorizó un ordenador tradicional (máquina de Turing) operando con algunos principios de la mecánica cuántica.

1981-1982 Richard Feynman

El Dr. Richard Feynman, físico del California Institute of Technology en California (EE.UU.) y ganador del premio Nobel en 1965 realizó una ponencia durante el “First Conference on the Physics of Computation” realizado en el Instituto Tecnológico de Massachusets (EE.UU.) Su charla, bajo el título de “Simulating Physics With Computers" proponía el uso de fenómenos cuánticos para realizar cálculos computacionales y exponía que dada su naturaleza algunos cálculos de gran complejidad se realizarían más rápidamente en un ordenador cuántico.

1985 - David Deutsch

Este físico israelí de la Universidad de Oxford, Inglaterra, describió el primer computador cuántico universal, es decir, capaz de simular cualquier otro computador cuántico (principio de Church-Turing ampliado). De este modo surgió la idea de que un computador cuántico podría ejecutar diferentes algoritmos cuánticos.

Años 90

En esta época la teoría empezó a plasmarse en la práctica: aparecieron los primeros algoritmos cuánticos, las primeras aplicaciones cuánticas y las primeras máquinas capaces de realizar cálculos cuánticos.

1993 - Dan Simon

Desde el departamento de investigación de Microsoft (Microsoft Research), surgió un problema teórico que demostraba la ventaja práctica que tendría un computador cuántico frente a uno tradicional. Comparó el modelo de probabilidad clásica con el modelo cuántico y sus ideas sirvieron como base para el desarrollo de algunos algoritmos futuros (como el de Shor).

1993 - Charles Benett

Este trabajador del centro de investigación de IBM en Nueva York descubrió el teletransporte cuántico y que abrió una nueva vía de investigación hacia el desarrollo de comunicaciones cuánticas.

1994-1995 Peter Shor

Este científico americano de AT&T Bell Laboratories definió el algoritmo que lleva su nombre y que permite calcular los factores primos de números a una velocidad mucho mayor que en cualquier computador tradicional. Además su algoritmo permitiría romper muchos de los sistemas de criptografía utilizados actualmente. Su algoritmo sirvió para demostrar a una gran parte de la comunidad científica que observaba incrédula las posibilidades de la computación cuántica, que se trataba de un campo de investigación con un gran potencial. Además, un año más tarde, propuso un sistema de corrección de errores en el cálculo cuántico.

1996 - Lov Grover

Inventó el algoritmo de búsqueda de datos que lleva su nombre. Aunque la aceleración conseguida no es tan drástica como en los cálculos factoriales o en simulaciones físicas, su rango de aplicaciones es mucho mayor. Al igual que el resto de algoritmos cuánticos, se trata de un algoritmo probabilístico con un alto índice de acierto.

1997 - Primeros experimentos

En 1997 se iniciaron los primeros experimentos prácticos y se abrieron las puertas para empezar a implementar todos aquellos cálculos y experimentos que habían sido descritos teóricamente hasta entonces. El primer experimento de comunicación segura usando criptografía cuántica se realiza con éxito a una distancia de 23 Km. Además se realiza el primer teletransporte cuántico de un fotón.

1998 - 1999 Primeros Qbit

Investigadores de Los Álamos y el Instituto Tecnológico de Massachusets consiguen propagar el primer Qbit a través de una solución de aminoácidos. Supuso el primer paso para analizar la información que transporta un Qbit. Durante ese mismo año, nació la primera máquina de 2-Qbit, que fue presentada en la Universidad de Berkeley, California (EE.UU.) Un año más tarde, en 1999, en los laboratorios de IBM-Almaden, se creó la primera máquina de 3-Qbit y además fue capaz de ejecutar por primera vez el algoritmo de búsqueda de Grover.

Año 2000 hasta ahora

2000 - Continúan los progresos

De nuevo IBM, dirigido por Isaac Chuang (Figura 4.1), creó un computador cuántico de 5-Qbit capaz de ejecutar un algoritmo de búsqueda de orden, que forma parte del Algoritmo de Shor. Este algoritmo se ejecutaba en un simple paso cuando en un computador tradicional requeriría de numerosas iteraciones. Ese mismo año, científicos de Los Álamos National Laboratory (EE.UU) anunciaron el desarrollo de un computador cuántico de 7-Qbit. Utilizando un resonador magnético nuclear se consiguen aplicar pulsos electromagnéticos y permite emular la codificación en bits de los computadores tradicionales.

2001 - El algoritmo de Shor ejecutado

IBM y la Universidad de Stanford, consiguen ejecutar por primera vez el algoritmo de Shor en el primer computador cuántico de 7-Qbit desarrollado en Los Álamos. En el experimento se calcularon los factores primos de 15, dando el resultado correcto de 3 y 5 utilizando para ello 1018 moléculas, cada una de ellas con 7 átomos.

2005 - El primer Qbyte

El Instituto de “Quantum Optics and Quantum Information” en la universidad de Innsbruck (Austria) anunció que sus científicos habían creado el primer Qbyte, una serie de 8 Qbits utilizando trampas de iones.

2006 - Mejoras en el control del cuanto

Científicos en Waterloo y Massachusetts diseñan métodos para mejorar el control del cuanto y consiguen desarrollar un sistema de 12-Qbits. El control del cuanto se hace cada vez más complejo a medida que aumenta el número de Qbits empleados por los computadores.

2007 - D-Wave

La compañía canadiense D-Wave presenta públicamente su primer computador cuántico de 16 Qbit (Figura 4.2). Entre las aplicaciones que presenta para su sistema, se encuentra un sistema gestor de bases de datos y un algoritmo que soluciona Sudokus. Todo ello a través de una interficie gráfica similar a la utilizada en los computadores actuales, tratándose del primer acercamiento de la computación cuántica al mundo comercial y no tan científico.

2007 - Bus cuántico

En septiembre de este año, dos equipos de investigación estadounidenses, el National Institute of Standards (NIST) de Boulder y la Universidad de Yale en New Haven consiguieron unir componentes cuánticos a través de superconductores. De este modo aparece el primer bus cuántico, y este dispositivo además puede ser utilizado como memoria cuántica, reteniendo la información cuántica durante un corto espacio de tiempo antes de ser transferido al siguiente dispositivo.
FUENTE
WIKIS

ARTURO LUGO