EL OJO CLINICO DE LA TECNOLOGIA

EL OJO CLINICO DE LA TECNOLOGIA

miércoles, 7 de julio de 2010

Introduce tu texto: saldra una voz____leelo esta bueno-resumen

En la mayoría de las situaciones, el usuario promedio suele estar más interesado en el proceso inverso al que mencionamos en el título, o sea, el reconocimiento de voz y su conversión a texto. Sin embargo, hay una cantidad de usos muy grande para la conversión de texto a voz, o text to speech. En algunos casos hay que lidiar con sintetizadores muy robóticos y graciosos, pero lo cierto es que la mayoría de las herramientas han evolucionado mucho con el paso del tiempo. En esta ocasión les presentaremos cinco de los mejores sistemas de Text to Speech en línea, completamente gratuitos.
 

Recuerdo que con varios amigos utilizábamos un viejo sintetizador de voz que se ejecutaba bajo Windows 98. Por alguna razón no puedo recordar el nombre, pero nunca olvidaré que fue una fuente de diversión muy grande. Las cosas que le hacíamos decir a ese pobre sintetizador no pueden ser reproducidas aquí por una simple cuestión de ética y moral... pero ya deben estar imaginándose las locuras que salían los por parlantes de aquel ordenador. Ahora las cosas son un poco diferentes. Tanto Windows Vista como Windows 7 poseen un narrador de texto incorporado a sus funciones de accesibilidad. Sin embargo, este narrador está muy lejos de ser la maravillosa pieza tecnológica que muchos imaginaban. Las conversiones de texto a voz y viceversa siempre han sido un hueso duro de roer para la gente de Redmond. No hace falta recordar aquél épico episodio en el que la demostración de reconocimiento de voz bajo Windows Vista falló con resultados muy cómicos para el público presente... aunque siempre podemos colgar el vídeo una vez más:
 
Por suerte, las cosas han mejorado mucho. Existe una gran cantidad de utilidades que son capaces de detectar una porción de texto e introducirla a un sintetizador con resultados muy aceptables. Algunos de estos sintetizadores poseen versiones para ordenadores de escritorio que pueden ser comerciales o completamente gratuitas, pero el sostenido avance de las aplicaciones en línea ha llevado a la aparición de varios ejemplos en este campo. Podemos encontrar nombres muy curiosos, y trabajos pertenecientes a empresas de alto nivel. Después de un buen tiempo buscando y probando las capacidades de varios sintetizadores, hemos armado una lista de cinco sitios que convertirán, más allá de alguna que otra limitación en cuanto a idioma y cantidad de palabras, cualquier texto que ingresemos.
 

5) Read The Words

www.readthewords.comRead the Words es un servicio que ofrece dos demostraciones diferentes, en voces masculina y femenina, para aquellos usuarios que prefieran no inscribirse en el sitio. Por otro lado, las ventajas de obtener un nombre de usuario radican en el acceso a otros tipos de voces y la síntesis de otros idiomas. Aún así, las capacidades del sintetizador presente en Read the Words poseen algunos límites. Hemos notado que incluso algunas palabras en inglés fueron demasiado para el sintetizador, aunque estos casos no fueron muy frecuentes. Si necesitas una conversión rápida y no extremadamente precisa, Read the Words podrá cubrir tus necesidades, pero hay razones suficientes como para colocarlo en el fondo de esta lista.

4) YAKiToMe!

www.yakitome.com
YAKiToMe! es uno de los servicios Text to Speech más conocidos en la red. Soporta cuatro idiomas en total: Inglés, francés, alemán y español. Además de contar con varios tipos de voces diferentes, también ofrece la posibilidad de alterar la velocidad de lectura, afectando el resultado final del sintetizador. Como si eso fuera poco, el usuario podrá descargar la síntesis en formato mp3, para escucharla de forma local e incluso editarla en caso de ser necesario. A pesar de estos beneficios, YAKiToMe! se ubica cuarto en nuestra lista por dos razones: En primer lugar, el rendimiento del sintetizador es flojo en algunos puntos, por ejemplo ante palabras que llevan acento. Y en segundo lugar, los usuarios son colocados en una especie de lista de espera, algo muy similar a descargar un archivo de un servidor FTP muy poblado. Incluso por trabajos muy pequeños hemos debido esperar hasta seis o siete minutos, algo que no será del todo apreciado por los usuarios.

3) AT&T Natural Voices

www2.research.att.com/~ttsweb/tts/demo.php
Obviamente, conocemos mejor a la gente de AT&T por su posición en el mundo de las telecomunicaciones y por los dolores de cabeza que suele darle a los usuarios del iPhone en los Estados Unidos, pero también cuentan con un sintetizador en línea. Natural Voices ofrece soporte de Text to Speech para inglés, francés, alemán, español, e incluso italiano, con algunas variaciones intermedias al estilo del francés canadiense o el inglés británico. Natural Voices genera la síntesis en línea, pero el resultado es entregado a través de un archivo en formato WAV. Las capacidades de Natural Voices se ubican dentro de lo decente. Algunas palabras resultaron ser especialmente difíciles de sintetizar, y aún no hay soporte para español ibérico, un detalle que termina por colocarlo en el tercer puesto de esta lista.

2) Expressivo on-line

say.expressivo.com
Si deseas sintetizar una pequeña frase en inglés, honestamente no debes buscar más. La gente de Expressivo ofrece un robusto software de Text to Speech que varía su costo de acuerdo a la cantidad de voces deseadas por el usuario, pero al mismo tiempo entrega al público una sencilla demostración en línea, cuyos resultados son excelentes. Incluso ofrece un "modo Halloween" con una voz tétrica que posee un tono muy similar al famoso "¡Finish him!" del viejo Mortal Kombat. La versión masculina ha demostrado tener un rendimiento apenas superior a su contraparte femenina, y aunque no soporta al español entre sus idiomas, Expressivo on-line sería perfecto si no fuera por su ajustado límite de 200 caracteres.

1) ImTranslator Text to Speech

text-to-speech.imtranslator.net
Excelente. Un detalle no menos importante sobre ImTranslator es que algunas de sus capacidades han sido integradas al Google Toolbar como servicio de traducción, pero en esta ocasión hemos explorado a su sistema en línea, y nos ha dejado con la boca abierta. Cuenta con soporte para diez idiomas, entre los que por supuesto figura el español, y aunque no es posible descargar la síntesis en formato de audio, sus resultados son fuera de serie. Hemos utilizado palabras algo complicadas con ImTranslator, como "megalómano" o "eucalipto", y ha barrido el suelo con ellas. El único error perceptible está a la hora de escribir palabras con acento. Los caracteres especiales aparecen de forma errónea a la hora de ser sintetizados, por lo tanto una solución viable es escribir las palabras sin acentos. Esto es obviamente una falta, pero lo bueno del sintetizador es que pronuncia los acentos correctamente, aún si no están presentes. También es posible acoplar las funciones de ImTranslator a otros sitios web gracias al código embebido que se ofrece gratuitamente en su página. Podemos pensar en varias razones para colocar a ImTranslator al tope de esta lista, pero nos quedaremos con una: Su síntesis del español es casi perfecta.

Aquí la tienen, nuestra lista de sintetizadores Text to Speech. Obviamente, existen otros ejemplos en línea, y como siempre hacemos en estos casos, invitamos a nuestros lectores a participar con sus comentarios, recomendando otros servicios de síntesis de texto que utilicen personalmente.

Fuente: www.neoteo.com

Arturo Lugo

martes, 6 de julio de 2010

El uso de la tecnología en el fútbol


Antes de desarrolar la información, solo queria afirmar de que si estuviera la tecnología en el futbol, paraguay ganaba el partido frente a España; gol que se anulo a Nelson Haedo, y Paraguay posiblemente hubiera estado disputado  a estas alturas la final de la Copa del Mundo.. si señores de la FIFA es momento de tomar decisiones que beneficiaran al futbol y oxigenaran un poco, dando aire puro y sano al arbitraje que hoy en dia esta muy manoseado, o mejor dicho CORRUPTO.

 ********************************************************************************
Luego de dos errores arbitrales groseros en una misma jornada, la discusión de la tecnología en el fútbol volvió a abrirse. Tanto la Federación inglesa como la mexicana se vieron seriamente perjudicadas en la cita más importnate del fútbol mundial y ahora muchos exigen lo que la FIFA ha estado ignorando a lo largo de los años: más tecnología en los encuentros de fútbol. Hace pocos días, Blatter (presidente de la FIFA) admitió que se llevará a cabo una votación para utilizar tecnología para corroborar que el balón haya cruzado la línea del arco, pero no para determinar si un jugador estaba fuera de juego.

Errores arbitrales se dan a diario en el fútbol, pero como el organismo principal dice que se debe hacer de cierta manera, nadie intenta cambiar nada. Pero cuando los problemas llegan a la cita más grande del fútbol mundial, obliga a reconsiderar las reglas y luego de dos errores groseros en la misma jornada, la FIFA ha aceptado volver a discutir la utilización de más tecnología en el fútbol. Aún así, Blatter expresó que considerarían utilizar tecnología para confirmar si el balón cruzó la línea del arco, pero no para determinar si un jugador está en posición fuera de juego.

Aunque Joseph Blatter, presidente de la FIFA, pidió disculpas públicamente por los sucesos ocurridos en la segunda jornada de octavos de final de la Copa del Mundo, poco le importa a los fanáticos mexicanos e ingleses. Porque ellos saben que aunque no determinaron el resultado final, sí lo influyeron de manera directa. El 27 de junio hubo dos errores arbitrales groseros por los cuales la Copa del Mundo de Sudáfrica quedará marcada. En primer lugar, el disparo del mediocampista inglés Frank Lampard, que claramente entró y hubiera empatado el encuentro 2 – 2. El segundo, la posición

                                El balón claramente entró, pero el juez de línea no lo vio.
Lo más irónico de todo es que el fútbol es probablemente uno de los deportes más avanzados tecnológicamente, solo que no en lo que al juego respecta. El balón, la ropa deportiva y las cámaras utilizadas en esta Copa del Mundo son de lo último en tecnología y, sin embargo, todavía se confía en los humanos para determinar la mayoría de los suceso dentro del campo. Y esto, hasta hace unas décadas fue mantenido con orgullo por las autoridades del deporte, ya que como decía el predecesor de Blatter, Joao Havelange (de 1974 a 1998): “El error humano es la sal del fútbol”. Pero parece ser que tanto ingleses como mexicanos han tenido tanta sal en su fútbol que ya tienen la presión por las nubes.

Aunque sea, si se puede rescatar algo positivo de estos groseros errores, es que obligaron a discutir el tema nuevamente y abrieron la posibilidad de exigir un cambio. Finalmente Blatter no pudo hacer oídos sordos y admitió que se discutirá la posibilidad de utilizar más tecnología para determinar si el balón cruzó la línea del arco en la próxima reunión a llevarse a cabo en Gales. Sin embargo, la votación oficial no ocurrirá hasta marzo del año próximo. Y aunque admitieron parte de los problemas, los mexicanos no quedarán contentos ya que Blatter dijo que solo tomarán en cuenta la tecnología que no requiera detener un partido: “El fútbol es un deporte que nunca se detiene. Par situaciones como el encuentro de México, no se necesita tecnología. Vamos a implemente un nuevo modelo de entrenamiento para mejorar el nivel de los arbitros y comenzaremos un nuevo concepto sobre cómo controlar los encuentros."

Cuando parte el pase de Messi, Tevez esta en posición adelantada.

                                                         una jugada que no fue offside

Por supuesto que no decimos seguir la línea de fútbol americano y tenis donde hay que detener el juego por varios minutos para poder volver a ver una jugada. Tampoco decimos, como algunos creen, dejar sin trabajo a los jueces de línea y mecanizar todos los aspectos del juego. Pero si claramente, entre dos jueces de línea, un arbitro y un cuarto arbitro no es suficiente, no vendría mal tener un quinto ojo en el campo, aunque sea electrónico, que sea capaz de garantizar la justicia. Sobre todo porque en el Mundial, quien pierde se va a su casa y acaba con un proceso de 1.460 días. ¿Tú qué opinas, “el error humano es la sal del fútbol” o debe haber un cambio de mentalidad de inmediato?
Fuente: neoteo.com

ARTURO LUGO-apocusant

Internet 100 veces más veloz



Los inquietos ingenieros del MIT acaban de inventar un nuevo sistema de red que ayudaría a mejorar la velocidad de la red entre 100 y 1.000 veces. Han diseñado una manera de optimizar la logística interna de las redes de fibra óptica de tal modo que además de aumentar la velocidad brutalmente, disminuyen de manera drástica la energía que necesitan para funcionar.

Los cerebros del Instituto Tecnológico de Massachussets (MIT), a las órdenes de Vincent Chan, profesor de Ingeniería Eléctrica e Informática, han creado un nuevo modelo de red que supera los problemas de flujo que poseen los actuales sistemas de fibra óptica que forman el corazón del sistema que es la Red. Los routers que dirigen el tráfico en Internet suelen convertir las señales ópticas en eléctricas para procesarlas y, a continuación, vuelven a transformarlas en señales ópticas para poder transmitirlas, un proceso que consume mucho tiempo y energía. La transmisión óptica de datos es tan eficiente porque distintas longitudes de onda de la luz cargadas con diferentes informaciones pueden viajar sobre la misma fibra. Sin embargo, los problemas aparecen cuando las señales ópticas procedentes de distintas direcciones llegan a un router al mismo tiempo. Se necesita realizar una conversión en señales eléctricas para que el router guarde esos datos en la memoria hasta que pueda acceder a ellos.

  La arquitectura propuesta por Chan aumentará hasta 1000 veces la velocidad
Chan afirma que ha logrado eliminar esa ineficiente conversión gracias a un nuevo diseño de red que se basa en lo que han llamado la “conmutación de flujo”.  El sistema trabaja estableciendo una ruta de acceso a través de la red entre dos puntos de afluencia de datos masiva. Para ciertas longitudes de onda de la luz, los routers situados a lo largo de ese camino sólo podrían aceptar las señales que vienen de una única dirección y enviarlas en un solo sentido. Como no hay posibilidad de que las señales lleguen desde varias direcciones, nunca habría necesidad de almacenarlas en la memoria y, por tanto, no se necesita convertir la señal óptica en eléctrica.

En el diseño del MIT, la asignación de ancho de banda cambiaría constantemente. Si el tráfico entre dos puntos aumentase, se utilizarían nuevas longitudes de onda para manejarlo y, cuando disminuyese, se abandonarían. Para operar con estos movimientos Chan y sus colegas han desarrollado protocolos de gestión de red capaces de realizar estas reasignaciones en cuestión de segundos. De esta manera, no se desperdicia ancho de banda cuando no se esté utilizando, como sucede en la Red actualmente. Y para colmo, esto ahorraría una energía considerable, con lo que ello conlleva en reducción de costes económicos y evitación de daños al medio ambiente.

    En internet la velocidad es un parámetro del que nunca hay suficiente
Pero no se han quedado en la teoría. Chan y su equipo han montado una red experimental que recorre la costa Este y han verificado aumentos de velocidad entre 100 y 1000 veces. Las conclusiones del estudio van a ser presentadas en la Conferencia de optoelectrónica y Comunicaciones (0EC 2010), que se celebrará en Japón del 5 al 9 de julio. Algunos empresarios advierten del coste económico de tener que cambiar los router (se refiere a los sistemas generales, no los routers domésticos). Dicen que hay que invertir demasiado para conseguir unas prestaciones que la sociedad no demanda y que no compensa el esfuerzo económico para conseguir unas velocidades cuya tarifa tendrían que repercutir en los usuarios. A nosotros nos parece que la sociedad está ávida de velocidad y que con un esfuerzo suplementario, se podrían contener los costes y aplicarlos con mesura en las tarifas finales ¿Quién se resistiría a contratar una línea de 100 gigas
por un poco más de dinero?

ARTURO LUGO-apocusant

El cifrado del César




A pesar de ser uno de los métodos criptográficos más simples, el “cifrado de César” permitió a Julio César proteger sus mensajes importantes de las miradas no autorizadas. Consiste en substituir cada letra del mensaje por otra que se encuentre un número fijo de posiciones más adelante en el alfabeto, y aunque hoy puede ser “descifrado” hasta por un niño, hace 2000 años -en un mundo en el que pocas personas sabían leer y escribir- este mecanismo era considerado lo suficientemente seguro como para confiar en el la seguridad de un estado.

Es innegable que el mundo moderno tiene muchos más secretos para resguardar de las miradas indiscretas que el de hace 2000 años. Esta situación, en la que a menudo una empresa posee procesos o la “receta” para preparar compuestos que valen miles de millones de euros, ha llevado al desarrollo de mecanismos  automatizados que permiten a cualquiera -incluidos gobiernos, empresas y particulares- mantener a salvo sus documentos importantes, aún cuando el potencial enemigo también posea formidables herramientas para intentar violar las protecciones que se pongan en práctica. Cayo Julio César, el líder militar y político que gobernó la República Romana poco antes de la Era Cristiana, no tenía a su disposición nada más avanzado que un lápiz y papel (o pluma y papiro), pero aún así fue capaz de poner a punto un sistema de cifrado que, para el estado del desarrollo tecnológico de la época, fue completamente exitoso: el cifrado de César.

                             ROT13 es el cifrado del César con un desplazamiento de 13 lugares.

¿En qué consiste este sistema? Simplemente, se trata de crear un texto difícil de leer -el texto “cifrado”- realizando una serie de cambios sencillos en el texto original. El cifrado de César suele llamarse también “cifrado por desplazamiento” o “desplazamiento de César”, debido a que los cambios que se efectúan consisten únicamente en reemplazar cada letra del texto original por otra que se encuentra un número fijo de posiciones más adelante en el alfabeto. Aunque puede aplicarse con desplazamientos de cualquier valor, Julio César solía utilizar un desplazamiento de tres posiciones en casi todos sus mensajes. De esa forma, cada letra A del texto original era sustituida por una D -porque se encuentra 3 lugares a la derecha de la A, cada B se reemplazaba por una E, y así sucesivamente. Cuando la letra a reemplazar estaba lo suficientemente cerca del final del alfabeto como para que su reemplazo “cayera” fuera de éste (por ejemplo, la Y o la Z), se comenzaba nuevamente por el principio, como si el alfabeto fuese “circular”, continuando con la A, B, C, etc. luego de la X, Y, Z. Así quedaría constituido el alfabeto cifrado luego de aplicar el cifrado de César con un valor de 3:

                     Julio Cesar solía utilizar un desplazamiento de tres posiciones en casi todos sus mensajes.
Para codificar un mensaje bastaba con buscar cada letra del mensaje original en la tabla anterior y  escribir la letra correspondiente del alfabeto cifrado. A la hora de decodificar el texto, se utilizaba la misma tabla pero buscando cada letra del texto codificado en el alfabeto original. Sencillo, pero -para la época en que se utilizaba- lo suficientemente seguro como para que el estado confiase en el para mantener a salvo sus secretos.

                               Hoy día, un cifrado como este seria rápidamente descubierto.
Obviamente, su efectividad se basaba en la incapacidad de la mayoría de los contemporáneos de Cesar para leer o escribir. Hoy día, un cifrado como este sería rápidamente descubierto. En realidad, el cifrado de César puede ser atacado por el método de la “fuerza bruta”, simplemente tomando un trozo del texto y probar, uno a uno, todos los desplazamientos posibles que permita el alfabeto utilizado (unos 25 o 30, en general). Cuando se obtiene un texto que tiene sentido, se aplica ese desplazamiento al resto del documento y asunto resuelto. El segundo sistema, más refinado, consiste en analizar la frecuencia con las que aparece cada letra en un idioma determinado. Supongamos que el texto está en español y que necesitamos decodificarlo. Simplemente, buscamos alguna tabla que muestre la frecuencia con la que aparece cada letra -por ejemplo, más del 13% de las letras de un texto lo suficientemente largo en español es una “E”- y contar las veces que cada letra aparece en el texto codificado. Si algún carácter aparece un 13% o 14% de las veces, seguramente es una “E”. Desplazando el resto de las letras un mismo número de posiciones tendríamos el texto decodificado. Puede parecer complicado, pero es realmente simple.


                            Interior de una máquina "Enigma" alemana, utilizada para codificar textos.
En la actualidad no se emplea ningún sistema semejante, salvo en juegos o por los niños. Pero a pesar de su sencillez, el cifrado del César suele formar parte de otros sistemas más complejos (como el cifrado Vigenère) o se lo emplea en foros de Internet  para ocultar de miradas casuales el final de un chiste, la solución a un acertijo o algún texto ofensivo. En este contexto, el algoritmo más utilizado es el denominado ROT13, que no es otra cosa que el cifrado de César con un desplazamiento de 13 lugares. Alguna vez se ha dicho que ROT13 es “el equivalente moderno del sistemas empleados en las revistas que imprimían boca abajo las respuestas de los pasatiempos”. El método ideado por Cesar puede mejorarse de varias maneras. Una de las más habituales, popularizada alrededor del año 1500, consiste en desplazar un número diferente de posiciones cada letra, dando lugar al denominado “cifrado Vigenère”. El valor de cada desplazamiento se define usando una palabra clave repetitiva. Si la palabra clave fuera escogida al azar y tan larga como el mensaje el sistema resultante sería, en teoría, indescifrable. ¿Te animas a inventar tu propio sistema de cifrado?
fuente: neoteo.

ARTURO LUGO-apocusant

GPS Tracking: Rastreador de vehículos por GPS open source

Son cada vez más los proveedores y los dispositivos compatibles con el sistema de posicionamiento global, al que comúnmente conocemos como GPS. Mientras que los dispositivos siguen bajando de precio y sus actualizaciones se vuelven cada vez más frecuentes, es muy interesante observar proyectos de código abiertoOpenGTS es un sistema open source de rastreo GPS que puede ser accedido desde la Web, y que permite configurar múltiples vehículos, lo cual brinda una solución de nivel profesional más que interesante. que se presentan como alternativas ante los servicios GPS basados en tecnología propietaria de mapas proveniente de Google y/o Microsoft. 



Probablemente uno de los usos más comunes para el GPS Tracking es determinar la ubicación exacta de vehículos dedicados al transporte de carga. He tenido la posibilidad de observar de cerca cómo se realiza esta clase de control, y además de brindar información básica de ubicación, también permite seguir de cerca a vehículos con carga sensible, frente a posibles accidentes o un caso de actividad criminal (lo que se conoce en algunos países como un ataque de "piratas del asfalto"). En general, las empresas recurren a servicios privados con tecnología propietaria, que ofrecen acceso a portales propios y distribuyen tanto sus dispositivos como sus actualizaciones de mapas y notas adicionales. Sin embargo, el código abierto también tiene lugar en el mundo del GPS, no sólo con la generación de sus propios mapas, sino incluso con la distribución de sus propias actualizaciones para dispositivos compatibles.
OpenGTS permite rastrear toda una flota desde la Web
El objetivo de OpenGTS es ofrecer un sistema de GPS Tracking para empresas relativamente pequeñas con su propia flota de vehículos, pero eso no quiere decir que OpenGTS no puede ser ampliado para satisfacer demandas comerciales más elaboradas. El servicio de mapas es completamente personalizable, compatible con OpenStreetMap y Mapstraction, además de los clásicos Google Maps y Microsoft Virtual Earth. Lo mismo sucede con el sistema de generación de reportes. Al estar basado en XML, sus parámetros pueden ser configurados para mostrar datos históricos específicos, ya sean de un vehículo en particular o de toda la flota. OpenGTS es compatible con dispositivos provenientes de Sanav, iCare, SIPGEAR y OpenDMTP, pero su naturaleza de código abierto le permitiría trabajar con otro tipo de dispositivos. Por último, OpenGTS está desarrollado en Java, lo cual le otorga una flexibilidad de plataformas muy interesante.
Su implementación es algo compleja, pero se compensa con su flexibilidad
En la mayoría de los casos, aquellos usuarios con una necesidad directa de un sistema de rastreo por GPS prefieren un producto un poco más "enlatado" y funcional, pero lo cierto es que OpenGTS no tiene mucho para envidiarle a otros sistemas de GPS Tracking profesionales. Su política de open source le da un nivel de flexibilidad que sencillamente no está disponible en otros sistemas, sin mencionar el costo cero que posee. Su página oficial cuenta con mucha documentación, e incluso un tutorial en formato PDF para que cualquier interesado pueda ponerse en camino. Sólo será necesaria una buena dosis de paciencia para esto. El documento que describe el procedimiento de instalación cuenta con 44 páginas, lo que expone cierta complejidad a tener en cuenta, pero nada que impida el progreso de aquellos verdaderos interesados en un GPS open source.
ARTURO LUGO-apocusant

Los cables de red reemplazarían al HDMI


Tanto los cables como los conectores HDMI prácticamente se han convertido en el estándar por excelencia para transportar señales de alta definición y conectar dispositivos avanzados de vídeo como un reproductor Blu-ray o una consola de última generación. En estos días casi todo televisor nuevo cuenta con al menos una conexión HDMI, la cual si bien puede entregar una excelente calidad de señal, posee algunas limitaciones técnicas y de longitud que deben ser respetadas. La solución para estos problemas estaría disponible a través del desarrollo de un nuevo estándar basado casi íntegramente en los actuales cables de categoría 5e y 6 que usualmente utilizamos en las redes físicas.

 Si bien existe a disposición de los usuarios desde el año 2003, no se cae en un error al decir que el HDMI ha ganado popularidad recientemente, asistido por la tremenda explosión del vídeo de alta definición, las reducciones en los costos de los reproductores Blu-ray, el creciente mercado de las consolas y la amplia aceptación por parte de los fabricantes. Hoy es la excepción y no la regla encontrar un televisor sin alguna clase de conector HDMI. Aún si no se utiliza al máximo de sus capacidades, muchos fabricantes lo han incluido por una lógica cuestión de compatibilidad con otros dispositivos. Los beneficios del HDMI nos han hecho abandonar al clásico conector compuesto de vídeo RCA, y al sistema de conexión por cables componente (o RGB como prefieren algunos), siempre y cuando la interfaz HDMI se encuentre disponible físicamente. La calidad en los cables HDMI es variable, y aunque no hay un límite definido, no se recomienda ir más allá de quince metros en la longitud del cable. Además, la utilización de cables demasiado largos afecta el sistema de cifrado HDCP que poseen las películas originales en formato Blu-ray.

                                           El nuevo HDBaseT convertiría al HDMI en historia
En otras palabras, no todo son rosas en la utilización del HDMI como estándar de conexión para vídeo de alta definición. No sólo hay limitaciones en su diseño interno, sino que sufre de problemas elementales como un cable demasiado largo. Una alternativa sobre la que se está trabajando lleva el nombre de HDBaseT, una nueva tecnología que puede transportar audio y vídeo de alta definición, además de energía y señal de red, todo sobre un mismo cable. El truco es posible gracias a la utilización de cables Ethernet categoría 5e o 6. Hay nombres muy importantes detrás de este proyecto, entre los que encontramos a Samsung, Sony Pictures y LG, entre otros. Las ventajas del HDBaseT son evidentes desde el comienzo. Es posible acceder a costos mucho más bajos gracias a los cables de red y sus conectores, se puede alcanzar un máximo en el largo del cable de hasta cien metros, es posible transportar tensión sobre el mismo cable, algo que ni el HDMI ni el DisplayPort permiten, e incluso se pueden reutilizar instalaciones de red existentes.
                                   Una comparación entre el HDBaseT y los cables actuales

Se espera que los primeros diseños comerciales basados en esta tecnología estén disponibles a finales de este año, y se espera una utilización masiva hacia 2011. Claro que, también habrá que escuchar la opinión de algunas personas, como por ejemplo las cinematográficas con su siempre presente HDCP. La tecnología HDBaseT se presenta como mucho más flexible que el HDMI, por lo tanto, esto puede preocupar a algunas cinematográficas porque "en teoría" algo como esto podría hacer más sencilla la duplicación no autorizada de discos. De todas formas, esto es anticiparse. La teoría detrás del HDBaseT es excelente por donde se la mire. Lo que antes era un cable de red estándar ahora podría ser convertido en un cable HDBaseT, sin mayores dificultades, siempre y cuando el estándar llegue a nosotros.
ARTURO LUGO-apocusant

Un paso más en el camino del Silicio al Grafeno

Los científicos han hecho un gran avance en la creación de nanocircuitos de grafeno mediante un novedoso procedimiento que consiste en un único y sencillo paso basado en una técnica que se conoce como Nanolitografía Termoquímica (TCNL). Este proceso, que  permite la creación de nanocables, manipula las propiedades electrónicas del óxido de grafeno (en una reducción a escala nanométrica) logrando que el material sea capaz de conmutar sus propiedades pasando de ser un material aislante a comportarse como un material conductor y viceversa. El grafeno ha sido ampliamente considerado como el candidato más prometedor para sustituir al silicio como elemento fundamental en la futura construcción de transistores.

La técnica funciona con múltiples formas de grafeno y está lista para convertirse en un hallazgo importante para el desarrollo y la aplicación del grafeno dentro de la industria electrónica. Los científicos que trabajan con nanocircuitos están entusiasmados porque los electrones de grafeno encuentran menos resistencia cuando se desplazan por este material en comparación con los semiconductores de silicio. Esta enorme ventaja se suma a que por estos días las construcciones de silicio son tan pequeñas como las leyes de la física lo permiten, mientras que el grafeno puede alcanzar un espesor ultra delgado ya que puede estar construido mediante una lámina de carbono de un solo átomo de espesor.


Con el óxido de grafeno es posible crear láminas tan resistentes 
como el acero
         Con el óxido de grafeno es posible crear láminas tan resistentes como el acero
Si bien la utilización del grafeno en la nanoelectrónica podría ofrecer mayores velocidades de transmisión de datos con un menor consumo de energía respecto a los semiconductores de silicio, nadie sabía hasta ahora cómo producir nanoestructuras de grafeno sobre un método reproducible o escalable. "Hemos demostrado que aplicando calor controlado (130°C) en áreas concretas de un material aislante como es el óxido de grafeno (tanto los pequeños trozos como en algunas variedades de construcción epitaxial con tamaños ubicados dentro de los niveles atómicos) hemos construido nanocables con dimensiones hasta 12 nanómetros. Incluso podemos ajustar sus propiedades electrónicas hasta hacerlo cuatro veces más conductor. Además, otro detalle alentador es que durante todo el procedimiento no hemos visto ninguna señal de desgaste de las puntas o muestras de desgarro o ruptura en los conductores", dijo Elisa Riedo, profesora adjunta en la Escuela de Física en el Instituto de Tecnología de Georgia.
                           El grafeno, sus derivados y sus características
En estructuras consideradas dentro de una macroescala, la conductividad del óxido de grafeno se puede cambiar logrando una transformación desde un material aislante hacia un material conductor mediante el uso de hornos de gran tamaño. Ahora, el equipo de investigación utilizó TCNL para aumentar la temperatura del óxido de grafeno en sus trabajos a nanoescala, de modo tal que pueden “dibujar” nanocircuitos con grafeno a 130°C, temperatura en que el material se vuelve conductor. "Lo maravilloso y bello de todo esto es que hemos ideado una técnica sencilla, robusta y reproducible que nos permite demostrar el cambio de aislante a conductor en un nanocable. Estas propiedades son el sello de una tecnología productiva", dijo Paul Sheehan, director de la Surface Nanoscience and Sensor Technology Section at the Naval Research Laboratory in Washington, DC.

El equipo de investigación hizo ensayos con dos tipos de óxido de grafeno: uno construido con carburo de silicio y el otro con polvo de grafito."Creo que hay tres cosas acerca de este estudio que hacen que se destaque", dijo William P. King, profesor asociado del departamento de Mecánica y Ciencias de Ingeniería de la Universidad de Illinois en Urbana-Champaign. "En primer lugar, es que todo el proceso ocurre en un solo paso. Transformas óxido de grafeno aislante en un material electrónicamente funcional mediante la simple aplicación de un nano-calentador. En segundo lugar, pensamos que cualquier tipo de grafeno se comporta de esta forma y, en tercer lugar, la escritura, deposición o dibujo es una técnica extremadamente rápida. Estas nanoestructuras pueden ser sintetizadas en una tasa tan alta que el enfoque podría ser muy útil para los ingenieros que deseen estudiar cómo diseñar nanocircuitos en un futuro muy cercano".

                        Grafeno sobre el sustrato de una juntura P-N (P-N Junction)

"Este proyecto es un excelente ejemplo de las nuevas tecnologías de construcción epitaxial que el grafeno permite explorar en la industria electrónica", dijo Walt de Heer, Regente del Profesorado en la Georgia Tech's School of Physics y el ideólogo del “grafeno epitaxial” en la electrónica. Su estudio llevó a la creación hace dos años atrás del Materials Research Science and Engineering Centre. Además sostiene que “la simple conversión de óxido de grafeno a partir de grafeno estándar es un método importante y rápido para producir cables conductores. Este método puede ser utilizado no sólo para dispositivos electrónicos flexibles, sino que además, en algún momento del futuro, los cables de grafeno podrán adquirir una bio-compatibilidad aceptable y podrían ser utilizados para medir señales eléctricas de células biológicas individuales."


ARTURO LUGO-apocusant

Grafeno: El material de Dios

Las páginas de ciencia gotean cada vez con mayor profusión todo tipo de noticias relacionadas en el grafeno, un material sorprendente que parece ser capaz de sustituir a viejos conocidos de la tecnología y aumentar sus capacidades hasta límites increíbles. Esta sustancia casa idealmente con otra palabra de futuro: la nanotecnología. Gracias a ella, el grafeno se convertirá en un producto con múltiples aplicaciones que generará incontables beneficios para la sociedad. Aún se encuentra en fases iniciales de experimentación porque resulta complicado fabricarlo debido a su peculiar estructura pero las expectativas son elevadas y las esperanzas muchas. Vamos a conocer en profundidad la historia, características y posibilidades de este fascinante material.

El carbono forma parte indisoluble de nuestra propia existencia




HISTORIA

El carbono tiene la culpa de que exista la vida. Sólo por esto ya deberíamos asombrarnos por sus extraordinarias características. Pero esta es sólo una cara de las muchas que tiene este elemento fundamental de la tabla periódica. Dependiendo de cómo se distribuyan los átomos y formen diferentes estructuras, obtendremos resultados portentosos en cuanto a las peculiaridades que presenta el material. Si lo sometemos a enormes presiones y altas temperaturas, conseguimos diamantes. Si los átomos se unen en láminas planas, formando un panal de abejas hexagonal con un átomo en cada vértice y situamos muchos panales uno sobre otro, se tiene grafito (su uso más popular son las minas de los lápices).

Si se enrolla una porción de una de esas láminas en forma de esfera, como un balón de fútbol, se producen fullerenos, unas moléculas de tan gran interés que a sus descubridores se les concedió el Nobel de Química del año 1996. Finalmente, si se enrolla una lámina de esas en forma de cilindro, lo que obtenemos son los famosos nanotubos de carbono. El grafeno sería una de esas láminas extendida, con un espesor de sólo un átomo, siendo casi bidimensional, como una hoja de papel infinitamente delgada.


El jovencísimo Kostya quedará para la posteridad como el padre del grafeno



La juventud del descubrimiento de este nuevo material es impactante. Apenas hace 5 años que aparecieron los primeros estudios en la revista Science por parte de un grupo de Manchester y otro ruso, el del Dr. Kostya Novoselov, del Instituto para la Tecnología de la Microelectrónica en Chernogolovka, Rusia. En el año 2005, junto con otros investigadores holandeses e, independientemente, Philip Kim y sus colaboradores de Columbia University, exploraron algunas de las propiedades electrónicas del grafeno y lo más actual es un artículo, enviado a publicar a la revista Physical Review Letters, así como una excelente y recentísima revisión en la revista Nature Material, sobre la consecución práctica de fabricación de las membranas de grafeno de un átomo de espesor, con aplicaciones prácticas muy diversas.

El efecto Hall generador por el grafeno le hace ser un excelente semiconductor



- El grafeno, actuando como semiconductor estable y bidimensional permite que los electrones se muevan libremente por el camino que más convenga, no ceñidos a un camino recto como en los transistores convencionales basados en las capacidades semiconductoras del silicio, que es empleado para crear pequeñísimos tubos por donde fluye la corriente eléctrica. Además, al contrario que en otros sistemas bidimensionales que tengan pequeñas impurezas, en el grafeno los electrones no se pueden quedar aislados en zonas donde no puedan salir.

En resumen, el grafeno es un semiconductor que puede operar a escala nanométrica y a temperatura ambiente, con propiedades que ningún otro semiconductor ofrece y todo apunta a que se podrán crear nuevos miniaturizados dispositivos electrónicos insospechados con este material, pudiéndonos acercar rápidamente a la prometedora computación cuántica, por lo que, previsiblemente toda la humanidad se verá favorablemente afectada. Aunque la realidad de sus aplicaciones no se evidenciará hasta que aparezcan los primeros productos comerciales, su importancia es ya enorme en la física fundamental porque gracias al nuevo material los fenómenos relativísticos cuánticos, algunos de ellos no observables en la física de alta energía, pueden ahora reproducirse y probarse en experimentos de laboratorio relativamente sencillos.

Su peculiar estructura desafía las leyes de la física



USOS

• Blindaje


Para que podamos hacernos una idea de la dureza del grafeno, Jaffrey Kysar y James Hone, propusieron una curiosa analogía. Comparó las pruebas realizadas por su equipo con poner una cubierta de plástico sobre una taza de café y medir la fuerza que requeriría pinchar esa cubierta con un lapicero. Pues bien, según explicó Hone, si en lugar de plástico lo que se pusiera sobre la taza de café fuera una lámina de grafeno, después situáramos encima un lápiz, y en lo alto de éste colocáramos un automóvil que se sostuviera en equilibrio sobre él, la lámina de grafeno ni se inmutaría. Se puede decir, sin duda, que el grafeno es el material más duro del mundo. Si colocamos un coche encima de la punta, no sería capaz de atravesar una lámina de grafeno


• Informática

La industria de semiconductores –uno de los campos donde el material parece ser más prometedor–, que tiene la intención de construir ordenadores mucho más rápidos que los actuales mediante el desarrollo de microprocesadores con transistores de grafeno, no cabe de júbilo con los resultados de las investigaciones que se están haciendo con el grafeno.

Precisamente uno de los principales impedimentos en la construcción de microprocesadores es la presión –según explica Julia Greer, investigadora del Instituto Tecnológico de California (Caltech)–, y los materiales usados para fabricar los transistores no sólo deben tener excelentes propiedades eléctricas, “sino que también deben ser capaces de sobrevivir a la tensión a que se ven sometidos durante el proceso de fabricación y al calentamiento generado por repetidas operaciones. El proceso utilizado para estampar conexiones eléctricas metálicas en los microprocesadores, por ejemplo, ejerce una tensión que puede provocar el fallo de los chips.”

Greer concluye que “el calor es demasiado para que los materiales lo soporten”. Pero tras las pruebas realizadas sobre la resistencia del grafeno, parece quedar demostrado que éste es capaz de soportarlo. Los chips de grafeno se encuentran a la vuelta de la esquina


El español Tomás Palacios, profesor del MIT, ha conseguido fabricar transistores de grafeno 10 veces más rápidos que los de silicio. Los chips del revolucionario material, de un átomo de espesor, podrían alcanzar velocidades de 1.000 GHz. Esto demuestra lo cerca que está de desbancar al elemento clásico de la era de la información.

También se crearán discos duros del mismo tamaño de los de hoy día, pero capaces de almacenar 1.000 veces mas información. Científicos del Leibniz Institute for Solid State and Materials Research en Dresden, Alemania, acaban de inventar una novedosa técnica en donde es posible utilizar la estructura intrínseca del grafeno, para necesitar en el orden de 1.000 veces menos átomos para mantener una estructura lo suficientemente resistente como para aguantar los constantes cambios electromagnéticos requeridos para escribir y leer información. También le llegará el turno a los discos duros


• Electrónica

Una startup en Jessup, Maryland, espera poder lanzar al mercado este año uno de los primeros productos basado en el grafeno. Vorbeck Materials está fabricando tintas conductoras basadas en el grafeno y que pueden ser utilizadas para imprimir antenas RFID (identificación por radiofrecuencia, por sus siglas en inglés) y contactos eléctricos para pantallas flexibles. La compañía, que se aprovecha del bajo coste de las tintas de grafeno, posee un acuerdo con el gigante de productos químicos alemán BASF para lanzar al mercado este producto en breve. Será la prueba definitiva de que el grafeno es un material del presente. Se fabricarán contactos eléctricos para pantallas flexibles


• Aviónica

El Pentágono ha asignado tres millones de dólares a la Universidad de Princeton para que desarrolle diminutas hojas de grafeno que, añadidas al combustible empleado en los motores de los aviones supersónicos, consigan una optimización en su funcionamiento y una reducción en el consumo y la contaminación ambiental. Según los científicos, este desarrollo puede alumbrar el nacimiento de una nueva era en los motores de combustión de las aeronaves. Los aditivos de combustible fabricados con partículas minúsculas de grafeno podrían lograr que los aviones supersónicos vuelen aún más rápido y que sus motores lleguen a contar con mejores condiciones de eficiencia y protección de la sostenibilidad ambiental. Los aviones supersónicos optimizarán el combustible con aditivos de grafeno


• Investigación

¿Te suena de algo el acelerador de partículas del CERN? El complejo, que ocupa kilómetros cuadrados cerca de Ginebra (Suiza), sirve para explorar el mundo de lo infinitamente pequeño para buscar los elementos fundamentales de la materia. Los físicos están tratando de usar el grafeno para fabricar una especie de acelerador en miniatura. "En un fragmento de grafeno de un único centímetro cuadrado es posible realizar muchos de los experimentos que hasta ahora requerían laboratorios como el del CERN". Si se convierte en realidad, los científicos podrían buscar el Bosón de Higgs, una partícula elemental hipotética, que aún no ha sido observada, y conocida como la partícula Dios, en un laboratorio que cabe en la yema del dedo. El majestuoso LHC se podría reducir a un dispositivo del tamaño de una manzana


• Energía

Los investigadores ven una amplia variedad de aplicaciones para el papel de óxido de grafeno, incluyendo su uso en membranas con permeabilidad controlada, y para las baterías o ultracondensadores destinados a usos en el ámbito energético. Estos dispositivos de almacenamiento de energía podrían ayudar al almacenar brotes repentinos de energía, por tanto, supondría una ayuda para aprovechar el irregular suministro por parte de las fuentes “verdes”.Esto revolucionará el concepto de energía renovable y la elevará a unas cotas de eficiencia nunca vistas.

Como vemos, la promesa de una nueva era basada en el carbono (y no en el silicio) se acerca a marchas forzadas. En un plazo medio, nos podemos ver inundados de dispositivos, mecanismos y tecnologías basadas en el grafeno, con unos rendimientos varios órdenes de magnitud por encima de lo que estamos acostumbrados ahora.

Los dioses se visten de carbono y pronto nos regalarán un desfile por la pasarela de las maravillas tecnológicas.
 fuente:
www.neoteo.com
ARTURO LUGO-apocusant

Los memristores pronto a la venta


Por fin una tecnología futurista se va a materializar en el mercado real de la informática. Llevamos mucho tiempo asistiendo a todo tipo de noticias espectaculares sobre nuevas memorias, nuevos chips y hasta materiales casi divinos, pero a la hora de la verdad todos son proyectos a largo plazo que no consiguen ver el escaparte de las tiendas. Los memristores parece que llegan para quedarse y HP asegura que para el 2013 dispondremos de máquinas con este tipo de memorias.
Hewlett Packard se ha propuesto lanzar al mercado productos comerciales con memoria basada en memristores en un plazo de 3 años. Stan Williams, investigador senior de HP y director del laboratorio de sistemas cuánticos y de información de la empresa, afirmó que su grupo está probando el primer grupo de muestras de dispositivos de memoria de memristor fabricadas en unas instalaciones de semiconductores sin especificar. Las muestras de matrices de memristores se están construyendo en obleas de silicio estándar de 300 milímetros. La fase de experimentación ha acabado con buenos resultados en el laboratorio y la empresa ahora quiere rentabilizar sus investigaciones pasando a fábrica lo aprendido con esta tecnología tan interesante.
Los memristores han sido objeto de mucho interés porque son capaces de funcionar con una actividad análoga a lo que ocurre en una sinapsis dentro del cerebro humano. Su potencial es enorme puesto que su propiedad principal radica en que pueden cambiar entre cientos de estados aunque por ahora los científicos sólo han podido obligarles a comportarse como transistores digitales, esto es, entre dos estados concretos: cero y uno. Con todo y con eso, los menristores consiguen realizar lo mismo que sus homólogos tradicionales pero con una energía mucho menor y en un espacio más pequeño

Los memristores abren la puerta hacia tecnologías más exóticas
 
Los memristores superan a las memorias flash en un orden de magnitud en capacidad de reescritura. Ambos mantienen los datos aunque se retire la energía, pero los primeros resisten hasta 1 millón de ciclos de escritura antes de presentar errores, mientras que los segundos se tienen que conformar con 100.000. Y estamos hablando de los primeros estadios de investigación porque, seguramente, en cuanto HP lance al mercado estas memorias tan especiales, el resto de fabricantes se lanzarán a la carrera para optimizarlos al máximo.
De todos modos, hay que andar con cierta cautela porque el comportamiento de los óxidos metálicos no resulta tan conocido como el del silicio. Una mejor comprensión de las propiedades materiales fundamentales de los óxidos metálicos utilizados para fabricar los memristores será crucial para garantizar que los chips con miles de millones de estos dispositivos funcionan de manera fiable durante un período de 10 años.
HP espera que su tecnología de memoria de memristor se escale mejor que el flash y espera poder ofrecer un producto con una densidad de almacenamiento de alrededor de 20 gigabytes por centímetro cuadrado en 2013, el doble del almacenamiento que se espera que ofrezca flash en ese momento. Ya ardemos de ganas de probar estas nuevas memorias que prometen un salto cuantitativo importante para que la ley de Moore siga manteniéndose efectiva.

Observación: leon chua: http://es.wikipedia.org/wiki/Leon_Chua
Enlaces
Fuente: Technology Review

ARTURO LUGO-apocusant

Memristor: Otra alternativa para la MRAM


                                                Expresiones matemáticas del memristor
 
Parece ser que, por fin, tendremos ordenadores y gadgets que podamos utilizar inmediatamente después de encenderlos, sin necesidad de esperar 5 minutos a que se inicien. Los investigadores de HP Labs han puesto a punto los primeros prototipos funcionales de un nuevo e importante componente electrónico conocido como memristor, que puede hacer posible eso, y mucho más.En las teorías de circuitos siempre se han considerado tres elementos: la resistencia, la capacidad y la inductancia. De los tres existen componentes físicos (resistores, condensadores e inductores) que los ingenieros utilizan junto a los semiconductores para dar vida a todos esos cachivaches que nos cuestan un ojo de la cara. Pero, en realidad, desde hace unos treinta años se sabía que debía existir un elemento más. Su existencia había sido predicha por una serie de ecuaciones matemáticas desarrolladas en 1971, por un estudiante de ingeniería llamado Leon Chua, que estudiaba el comportamiento de los circuitos no lineales. Chua incluso calculó sus propiedades y modo de funcionamiento con todo detalle, pero nunca fue capaz de obtener un elemento físico que coincidiera con sus expresiones matemáticas.

                                   Su existencia había sido predicha por Leon Chua
Este nuevo componente se llamó memristor, o resistor con memoria. Treinta y siete años después, los ingenieros del HP Labs Dmitri Strukov, Gregory Snider, Duncan Stewart y Stanley Williams, finalmente lograron construir los primeros ejemplares de estos bichos electrónicos. Entre otras cosas, los memristores pueden proporcionarnos ordenadores de encendido instantáneo u ordenadores analógicos que procesen la información de una forma muy parecida a la que utiliza el cerebro humano.


                                        Chua calculó sus propiedades y modo de funcionamiento

Si tuviésemos que explicar qué es un memristor, podríamos hacer una analogía con los  resistores variables, con la diferencia de que tienen la capacidad de recordar su valor de resistencia previo. Esto permite, al menos en teoría, utilizarlos como dispositivo de almacenamiento. De ser así, podrían cambiar toda la electrónica de consumo, ordenadores incluidos. Es que su capacidad de “recordar” estados previos lo hacen potables para reemplazar a las memorias basadas en transistores, que emplean todos los dispositivos electrónicos actuales. Dispondríamos de ordenadores que, aun apagados, podrían volver a estar operativos al instante, ya que su estado anterior quedaría memorizado en sus circuitos.

No sabemos cuánto tiempo pasará hasta que estos componentes sean comprendidos en su totalidad, y miniaturizados en un grado que permita su utilización masiva en dispositivos electrónicos. Pero estamos seguros que ese día llegará, cambiando la forma en que utilizamos nuestros gadgets, junto con todo lo que nos rodea.

ARTURO LUGO-apocusant

Litografía óptica: Mejores chips de Computadoras



Nanolitografía

La nanolitografía o litografía a la escala del nanómetro, se refiere a la fabricación de microestructuras con un tamaño de escala que ronda los nanómetros. Esto implica la existencia de patrones litografiados en los que, al menos, una de sus dimensiones longitudinales es del tamaño de átomos individuales y aproximadamente del orden de 10 nm. La nanolitografía se usa durante la fabricación de circuitos integrados de semiconductores o sistemas nanoelectromecánicos, conocidos como Nanoelectromechanical Systems o NEMS.
Durante el año 2007, la nanolitografía será un área de investigación muy activa tanto a nivel académico como a nivel industrial

Litografía óptica

La litografía óptica, que ha sido la técnica predominante en el uso de patrones desde el comienzo de la era de los semiconductores, es capaz de producir patrones ligeramente por debajo de los 100 nm, usando longitudes de onda muy cortas (unos 193 nm de manera usual). Este tipo de litografía requiere el uso de inmersión líquida y una multitud de mejoras en la tecnología de fotomáscara (tecnología PSM) además de corrección óptica por proximidad (Optical Proximity Correction o OPC) para llegar a detalles del orden de 32 nm. Existe un sentimiento general, entre los expertos, en el que se afirma que bajar a unos niveles de 30 nm mediante la litografía óptica, no será comercialmente viable[cita requerida]. En este punto, esta técnica deberá ser reemplazada por una nueva generación de litografía (Next Generation Lithography o NGL).

Otras técnicas nanolitográficas

  • La más corriente de las técnicas nanolitográficas es la litografía de escritura directa por haces de electrones (Electrón Beam Direct Write lithography o EBDW). En esta técnica, el uso de un haz de electrones imprime un patrón, usualmente sobre una resina de polímero que se opone tal como PMMA.
  • Litografía del ultravioleta extremo (Extreme Ultraviolet lithography o EUV) es una variedad de litografía óptica que usa longitudes de onda muy corta, del orden de 13,5 nm. Es la que se denomina normalmente como técnica NGL
  • Litografía por partículas cargadas, tales como litografías por iones o proyecciones de electrones (PREVAIL, SCALPEL, LEEPL). Estas técnicas son capaces de producir patrones de muy alta resolución.
  • Litografía de nanoimpresión (Nanoimprint Lithography o NIL) y sus variantes, tales como la litografía de impresión por pasos como LISA y LADI. Estas técnicas son tecnologías de replicación de patrones muy prometedoras. Pueden combinares con la impresión por contacto
  • Litografía de escaneo por sonda (Scanning Probe Lithographies o SPL) parece ser una prometedora herramienta para la producción de patrones en la escala de los nanómetros.
  •  Por ejemplo, los átomos individuales se pueden manipular usando la punta de un microscopio de efecto túnel (Scanning Tunneling Microscope o STM). La nanolitografía de descenso de sonda es la primera tecnología comercial de tipo SPL disponible basada en el microscopio de fuerza atómica.
  • El desarrollo más evolucionado de la NGL continúa con la litografía de rayos X, que puede llegar a extenderse a resoluciones de 15 nm por el uso de una reducción de campo cercano.

Analisis:

Lean este resumen que tiene relacion a lo expuesto, es de años anteriores pero hace referencia al tema: esta interesante...!!!

Los ingenieros de la Universidad de California han puesto a punto un sistema para crear chips de ordenadores que podrían revitalizar la litografía óptica, una ciencia que domina la técnica moderna de fabricación de circuitos integrados. El secreto de esta técnica es un sistema de “impresión” que recuerda al brazo de los viejos tocadiscos.

No es ningún secreto que los chips utilizados en los ordenadores cada vez contienen una mayor cantidad de transistores en su interior. Sin embargo, su tamaño exterior se mantiene prácticamente constante. ¿Cómo es posible que un circuito integrado que contiene mil transistores tenga el mismo tamaño que uno que alberga 150 millones? Muy sencillo: haciendo los transistores mucho más pequeñitos.

A medida que se suceden las generaciones de circuitos integrados, los fabricantes “se pasan” a sistemas de fabricación que son capaces de “dibujar” transistores más y más diminutos. Las fábricas de microprocesadores más importantes pueden dibujar cositas de unos 35 nanómetros (mil millonésimas partes de un metro), pero continuamente están investigando cómo pueden hacer cosas aún más pequeñas. Como parte de esa búsqueda, los ingenieros de la Universidad de California han presentado un sistema basado en una lente de plasma que “vuela” sobre un disco de material semiconductor recubierto con una sustancia fotosensitiva.
 
El aspecto del dispositivo, tal como puede verse en las imágenes, se asemeja a una vieja bandeja giradiscos, pero tiene una precisión impresionante. Según sus inventores, el brazo es capaz de colocar la lente sobre cualquier punto del plato con un error máximo que ronda los 80 nanómetros, y eso con el disco girando a toda pastilla (unos 12 metros lineales por segundo). Cuando la tecnología esté lo suficientemente madura, podrá utilizarse para crear microprocesadores con una cantidad de transistores (y poder de cálculo) una 10 veces mayor a los actuales.
Si todo sale como se espera en la UCLA, los próximos microprocesadores de 16 o más núcleos quizás se construyan en la versión hi-tech de los viejos giradiscos. Los amantes de la moda vintage estarán encantados de utilizarlos.
Fuente:
Más sobre este tema en: www.berkeley.edu

ARTURO LUGO-apocusant

Procesador Probabilistico


 

El primer procesador probabilístico

Si bien la tecnología que conocemos es relativamente fiable y nos ha llevado muy lejos, eso no quiere decir que las cosas deban quedarse estancadas. Tal y como Hewlett-Packard lo demostró hace poco con el memristor, la Universidad Rice ha demostrado una nueva forma de procesador que se diferencia bastante de los chips tradicionales. Este tipo de procesamiento puede hacer que un chip sea hasta treinta veces más eficiente que los procesadores convencionales.

Estos beneficios se logran no cambiando la forma en que se hace un procesador, sino cambiando la forma en que su lógica trabaja. Actualmente, los procesadores utilizan el sistema de "Tiempo de dato lógico", más conocido como "Booleano". En resumen, todo procesador busca una respuesta exacta a través de sentencias como "verdadero" o "falso". El problema es que este tipo de lógica se vuelve redundante e innecesaria en una gran cantidad de situaciones, por lo que un procesador termina consumiendo más energía de la que necesitaba para realizar la tarea, además de demorar más tiempo del que debió haberle tomado.

Con la lógica probabilística, un procesador puede ahorrar tiempo y energía buscando la mejor respuesta probable. Esto hace que el chip demande una entrada de energía significativamente menor a la de un chip convencional. Según la universidad, este ahorro de energía haría que un chip probabilístico requiriera treinta veces menos energía que un chip de diseño actual. Al mismo tiempo, esto se traduce en un número más elevado de capacidad de proceso, lo cual permitiría que uno de estos chips fuera siete veces más rápido de los que vemos hoy en día. 

El nuevo procesador necesitaría treinta veces menos energía que los actuales
La Universidad Rice está desarrollando esta tecnología en conjunto con la Universidad Tecnológica Nanyang de Singapur. Si bien para algunos esta clase de chip no tendría la precisión que poseen los chips actuales, ya se están evaluando múltiples aplicaciones para ellos, que van desde teléfonos móviles y dispositivos portátiles hasta componentes más complejos como tarjetas de vídeo. Sin embargo, se estima que esta tecnología estaría lista para ser producida en masa dentro de aproximadamente cuatro años. Esperemos que así sea.

lunes, 5 de julio de 2010

Contra la perdida de información-medidas alternetivas






Pasate esta situación cuando se fue al maso la información que tenias en tu DD


Ante la pregunta ¿cuál es la parte más valiosa de tu computadora? La respuesta, que debería ser obvia, no siempre lo es: tu información.


Creemos que a nosotros no nos va a pasar, pero en un porcentaje más alto de lo que queremos aceptar, la pérdida de información siempre sucede, con resultados desagrada­bles. Ya sea la hoja de cálculo en la que hemos trabajado durante la semana, o las fotos que nunca podremos volver a tomar, los documen­tos que guardamos en nuestras PC necesitan estar resguardados, asegurados ante cualquier desastre informático, como el robo del equipo, las fallas del disco duro, o el borrado acciden­tal de archivos, entre otros.


Las opciones para tener un respaldo de datos son varias: copiar a una memoria USB los documentos más importantes, crear co­pias de toda nuestra información en DVDs, un disco duro externo, o en Internet. En todos los casos, es una buena idea mantener separados la computadora y el medio en el que se reali­zó el respaldo, pues si se sufre un accidente o hay un robo, las probabilidades de perder nuestros datos disminuyen.

Algunas opciones de software para Win­dows son gratuitas y simples como SyncToy, de Microsoft o Cobian Backup de Cobiansoft y también las hay sofisticadas como Acronis True Image, pero antes de elegir, es necesario identificar lo que se quiere respaldar y elegir una estrategia de actualización y recuperación de los datos en caso de pérdida.

La mejor estrategia es crear un respaldo com­pleto y después agregar solamente los archivos que han sido modificados. Esta manera de man­tener un respaldo se llama "incrementa!" y re­quiere de por lo menos el doble de la capacidad del disco duro que se quiere respaldar.

Y ya que estamos convencidos de respaldar la información de la PC, ¿por qué no incluir nuestra agenda de contactos del teléfono móvil? Además de asegurarnos de tener los números y datos básicos en caso de pérdida o robo del teléfono, también es una opción para transferir datos de un teléfono a otro al momento del cambio de equipo. Google Sync es una buena opción y está disponible para diferentes marcas de teléfonos.


 Fuente: pc magazine-junio-digital: ZINIO.COM
ARTURO LUGO



ARTURO LUGO