EL OJO CLINICO DE LA TECNOLOGIA

EL OJO CLINICO DE LA TECNOLOGIA

sábado, 31 de julio de 2010

YA ERA HORA-EL GIGANTE DE REDMOND presenta su TABLET



                Muchos Rumores entre detractores y seguidores adornan el ecosistema del Gigante de Cupertino, con la niña bonita IPAD; lo cual genera revuelo, por que  los seguidores afirman que es la computación del futuro en lo que respecta a su forma de interactuar entre maquina-hombre(percepción).en fin los detractores dicen : EL IPAD ES INIFICIENTE, un juguetito tecnologico GADGET más  del momento; todo estos dimes y diretes cada vez lo posicionan más alto en el mercado.

          Lo cierto y lo concreto es que desde el momento en que salio IPAD a un precio de aproximado de  1000 u$ YA ESTABAN En las tiendas alternativas de  300 o 400 u$.

          Pero a esta fiesta no podría faltar un invitado(REDMOND) que siempre trata de hacer sombra a sus competidores peleando un lugar en el podio de los vencedores,nada más y nada menos que con un caballito de batallas similar al ipad pero cargado con windows 7, como ya se esta posicionando el sistema y es bastante aceptada le  vendria como anillo al dedo establecer una dupla perfecta para hacer frente a la niña de cupertino(IPAD);pero esta batalla no será fácil para Microsoft POR QUE  hay cierta cultura detras de los APPLEREROS en comparación a los PCSEROS...ES MAS FIEL UN SEGUIDOR DE APPLE QUE UN SEGUIDOR  PC...y por que creen que no hace mucho hubo una campaña publicitaria YO SOY MAC..ya seben los detalles..

          La intensión es seducir al mundo con su gallito dotado de un INTEL ATOM y el sistema insignia. No sabemos quien saldra victorioso.
Arturo Lugo
Fuente: web








ARTURO LUGO-apocusant

Recorded Future: La inversión de Google y la CIA

La empresa del buscador y la alta inteligencia estadounidense se han asociado alrededor de una tecnología prometedora que rastrea la Red en busca de patrones de comportamiento para predecir eventos y tendencias. Ambos han invertido cuantiosas sumas de dinero en este software, dato que ofrece una idea de las posibilidades reales que posee este programa. Para unos se tratará de adivinar conductas de consumo para optimizar la colocación de publicidad, para otros supone una nueva forma de predecir atentados terroristas y adelantarse a sus movimientos. Ya veremos en qué acaba todo esto.
Que la gran Google destine 10 millones de dólares a financiar un proyecto, dice mucho de las posibilidades de éxito para este software. El que la CIA, a través su brazo financiero encargado de invertir en tecnología, In-Q-Tel, haya decidido financiar con otros 10 millones de dólares al programa Recorded Future, da aún más que pensar. La empresa beneficiaria de estos mimos económicos se dedica a monitorizar la Red en tiempo real con el propósito de predecir comportamientos futuros y tendencias de conducta. Trata de establecer vínculos sutiles entre personas y organizaciones a través de lo que escriben en miles de páginas, blogs y redes sociales con cuya información esperan poder adelantarse al futuro de los grupos humanos y actuar en consecuencia.





Recorded Future causó buena impresión a sus inversores de lujo porque acertaron una predicción donde anticiparon un ataque de Hezzbollah un mes antes de que el gobierno de Israel reaccionara ante la amenaza, entre otras. Su funcionamiento está basado en el análisis de enormes cantidades de información provenientes de la Red. El programa recopila lo que se escribe sobre personas, lugares, actividades y las relaciona en el tiempo y en el espacio, analizando incluso el “tono” del documento. Luego, unos potentes algoritmos de inteligencia artificial desentrañan los hilos invisibles que unen unos comportamientos y otros dando como resultado auténticos expedientes de personas en tiempo real. El programa atesora 100 millones de eventos almacenados en los servidores de Amazon y sobre los que realiza sus conclusiones, que se ofrecerán en la web principal.
Esto suena a verdadero Gran Hermano controlado por la CIA y por el gran Google. Del segundo tememos bastante menos que del primero, que con la excusa de monitorizar movimientos terroristas se verá legitimado a investigar y meter las narices en la vida de cualquiera que escriba en Internet. Suponemos que la agencia estadounidense tendrá mejores cosas que hacer que fastidiar ciudadanos anónimos pero ya sabemos lo que sucede cuando el exceso de poder deriva en un control férreo de la población. Por otro lado, muy tontos deben ser los terroristas para hablar abiertamente en los foros sobre bombas, ataques y demás palabras que hacen saltar las alarmas de cualquier buscador medianamente normal. El debate está servido.
ARTURO LUGO-apocusant

Buenas charlas = Neuronas sincronizadas


           La comunicación verbal es una actividad conjunta entre un locutor y un oyente en forma alternada y sincronizada, es decir, uno habla, el otro escucha y lo hacen de a uno a la vez. Sin embargo, la producción, la emisión del lenguaje hablado y sobre todo la “comprensión” de este mensaje transmitido han sido analizadas como procesos independientes dentro de los límites del cerebro individual. Los ensayos realizados por científicos de la Universidad de Princeton demostraron una conexión  neuronal (acople) muy satisfactoria entre los participantes de una charla cuando la conversación transitaba por escenarios, personas y situaciones agradables para ambas personas. Durante el estudio, las pausas en el diálogo y los silencios prolongados debilitaban de manera notable este enlace. Descubre estos y otros resultados asombrosos en este artículo.

          Un equipo de científicos de la Universidad de Princeton, encabezado por Greg Stephens, ha realizado análisis y estudios con personas que sólo tenían el sencillo trabajo de entablar un diálogo amigable y tan familiar como fuese posible. Para estos estudios, el equipo de investigadores utilizó métodos de resonancia magnética funcional (fMRI), instruyendo a los participantes del diálogo a completar una serie de cuestionarios detallando el nivel alcanzado de comprensión y agrado acerca de la historia que se improvisaba durante el diálogo. Las imágenes obtenidas de las exploraciones en áreas similares del cerebro de los participantes demostraron una sincronía en los niveles de actividad neuronal, con un pequeño retraso (en el caso del oyente) que se incrementaba durante los períodos en que la charla perdía fluidez, armonía y agrado. Es decir, el “acople” tendía a perderse durante los intervalos de silencio o ausencia de comunicación, como si ambas personas tuvieran la sensación de estar hablando idiomas diferentes.


Las imágenes obtenidas mediante el método fMRI han facilitado la comprensión de muchos fenómenos que ocurren en el cerebro

Sin embargo, en otros pasajes, cuando el diálogo se tornaba más atractivo y dinámico, los resultados obtenidos (en el oyente) evidenciaban un “adelantamiento” en los niveles de actividad neuronal. Este hecho puso en evidencia un fenómeno interpretado como una “predicción” de comprender, entender y saber hacia dónde se dirigía la conversación o el asunto de la misma. La actividad cerebral, como muchos saben, es monitoreada con instrumentación muy sensible a los mínimos cambios que puedan ser percibidos. Para estos experimentos, los interlocutores fueron entrenados previamente para que puedan lograr una comunicación exitosa acompañada de la menor cantidad de movimientos bruscos como les fuera posible. Además, micrófonos basados en nuevas tecnologías de fabricación permitieron una elevada cifra de cancelación de ruidos favoreciendo el éxito de estos estudios.


 La tecnología fMRI permite "ver" las areas del cerebro que se sincronizan durante una charla

Los experimentos abarcaron un espectro muy amplio de variables entre las que se incluyeron, además del diálogo entre dos personas, la participación de varios oyentes en una única conversación, la escucha de una historia contada en una grabación, hasta la inclusión de interlocutores de diferente sexo, tratando de encontrar un patrón común de respuesta a los estímulos inducidos. Estos hallazgos le agregan mérito y valor a los estudios realizados con anterioridad en animales de laboratorio que evidenciaban una actividad “espejo” de las neuronas, o células cerebrales, que se disparaba cuando las criaturas se miraban unas a otras, sugiriendo que estos mecanismos podrían ser el punto de partida para comprender la natural empatía que el cerebro humano puede alcanzar. El estudio agrega en uno de sus párrafos que "un entendimiento más cabal de estos procesos neuronales que facilitan la “conexión” de los interlocutores entre sí puede arrojar luz sobre los mecanismos por los cuales nuestros cerebros interactúan y se unen para formar sociedades".


ARTURO LUGO-apocusant

jueves, 29 de julio de 2010

Microsoft licencia tecnología ARM

 
Hemos oído hablar muchas veces sobre los procesadores ARM, especialmente en el universo de las tablets y los teléfonos móviles donde se necesita un buen equilibrio entre poder de procesamiento y consumo de energía. En lo que se refiere a Microsoft, sólo las versiones compactas de Windows han favorecido a esta arquitectura, mientras que las ediciones mayores se han mantenido bajo la esfera de influencia del x86. Sin embargo, en Redmond han decidido licenciar tecnología ARM, algo que les permite no sólo crear sus propios chips, sino tener acceso a la arquitectura misma. Esto ha abierto un amplio abanico de posibilidades, desde una tablet de Microsoft con procesador ARM hasta la conversión de Windows 7 para utilizarlo en este tipo de chips.
Actualmente, más del 90 por ciento de los procesadores presentes en teléfonos móviles están basados en arquitectura ARM. Por supuesto, su utilización va mucho más allá de las telecomunicaciones, y es posible encontrarlos en dispositivos como calculadoras, reproductores de música, e incluso discos duros. A través de las licencias, grandes empresas el universo informático han podido acceder a esta tecnología. Encontramos ejemplos como Marvell y Qualcomm, Samsung, LG, Broadcom, y gigantes como Apple (el A4 en el iPhone) y Nvidia (con su Tegra). Ahora, a esta legión se suma nada menos que Microsoft. Si bien los dispositivos de Microsoft no utilizan actualmente esta tecnología (salvo el desaparecido KIN), esto ha generado varias teorías sobre cómo podrían llegar a aplicar esta nueva licencia en Redmond.
Se pueden encontrar múltiples chips basados en la arquitectura ARM, incluyendo al A4 que Apple utilizó para el iPhone 4
El anuncio oficial fue corto y relativamente poco sustancioso, pero no es común que un gigante como Microsoft y alguien de casi absoluta presencia en el mercado móvil como ARM firmen esta clase de acuerdos. La primera teoría que ha comenzado a flotar en la red es que Microsoft decida hacer su propia tablet. La posibilidad de que Hewlett-Packard haga un dispositivo propio basado en el recientemente adquirido WebOS es muy grande, por lo que en Redmond optarían por darle forma ellos mismos. También se habló de una nueva edición de la Xbox utilizando chips ARM. Los problemas iniciales de diseño en la Xbox 360 y los clásicos inconvenientes generados por la acumulación de calor dentro de la consola estarían entre las razones para el cambio de plataforma.

Otra teoría indica un salto hacia ARM en la próxima generación de la box
 
Sin embargo, en este momento lo más importante para Microsoft sigue siendo Windows 7. Desarrollar una versión de su sistema insignia para chips ARM representaría un enorme paso a la hora de llevar los productos Microsoft hacia la arquitectura ARM. Incluso un teórico "Windows 7 ARM" podría volverse un sistema operativo opcional para otros dispositivos, expandiendo su influencia. Ya que Microsoft actualmente recurre a hardware de otros para fabricar sus dispositivos y periféricos, la posibilidad de que algo surja de Redmond con un chip ARM en su interior no parece muy firme, pero hay que tener en cuenta que Microsoft es la única empresa dedicada al software que ha obtenido esta clase de licencia de arquitectura. Las otras tres empresas, Qualcomm, Marvell e Infineon, se dedican al aspecto del hardware. Esto sin dudas defiende la postura de una tablet propia.
ARTURO LUGO-apocusant

Facebook Questions: Pregúntale a Facebook

Animarse a hacer una pregunta ya no es el factor limitante, sino que todo se reduce a quién puede ofrecer la mejor respuesta. La enorme cantidad de información disponible en Internet, sumada al conocimiento de sus miles de millones de usuarios, han convertido a la red de redes en una fuente inagotable de conocimiento, potenciada por la popularidad del sitios al estilo de Yahoo! Answers. Ahora, se trata de nada menos que Facebook, en donde podremos ver muy pronto a un nuevo servicio interno de preguntas y respuestas, provenientes directamente de los 500 millones de usuarios en la red social.

Mientras navegan, algunos usuarios prefieren buscar ellos mismos las respuestas a sus preguntas, pero una gran cantidad se inclina por dejar dicha pregunta en un lugar y esperar a las respuestas que le puedan dar otros, más allá del cotidiano absurdo que pueda aparecer publicado. Durante mis sesiones de navegación he dado una vuelta o dos por Yahoo! Answers, y muchas de las respuestas publicadas por los usuarios revelan un nivel de conocimiento bastante aceptable, o al menos, una fuente digna de confianza. Desde cualquier punto de vista, algo tan simple como un servicio de preguntas y respuestas aumenta la interacción de los usuarios con el lugar al que visita, y tal vez esa sea la idea detrás de esta nueva idea que irá apareciendo en Facebook durante los próximos días. Este nuevo servicio se ha estado incubando al menos durante los dos últimos meses, e incluso ha tenido una llamativa fase beta, con promesas para los beta testers de viajes a las oficinas principales de Facebook, con el objetivo de reunirse con el equipo de desarrollo.
El servicio irá apareciendo en los próximos días
Como es de esperarse, los usuarios podrán preguntar prácticamente cualquier cosa, pero debido a la naturaleza pública del servicio, cualquier cuestión que pueda afectar la privacidad de un usuario debería ser dejada de lado. Habrá una función para realizar encuestas, y otra función de "respuestas a fotografías", a través de la cual los usuarios podrán despejar dudas sobre una imagen específica, como por ejemplo la de un animal o un paisaje. El servicio de preguntas y respuestas de Facebook dependerá especialmente de las etiquetas que sean asignadas, algo que ayudará en gran medida a aquellos usuarios que buscan respuestas sobre temas específicos. También se podrá "seguir" a una o más preguntas para evaluar las respuestas publicadas por los usuarios.

Al contrario de lo que se pueda pensar, el objetivo de este servicio no parece tener fines publicitarios, sino que la idea es entregar a los usuarios una función dinámica y eficiente para resolver dudas. En estos días podemos mencionar a Wikipedia o Wolfram Alpha como dos grandes centros de resolución de dudas, pero algo muy natural es simplemente publicar un mensaje en Twitter y esperar a que nuestros contactos arrojen una respuesta o dos. ¿Será tal vez una forma por parte de Facebook de competir con el sistema de micro-mensajes de Twitter? Personalmente tengo mis dudas sobre eso. La eficiencia de Twitter a la hora de compartir información ha sido impresionante (más allá de sus 140 caracteres), mientras que este servicio de Facebook planea concentrarse en preguntas y respuestas. De todas formas, esto quedará despejado una vez que el servicio esté activo para todos los usuarios.
ARTURO LUGO-apocusant

Cómo instalar un disco duro

Personalmente debo decir que este ha sido el mes de los discos duros para mí. Unidades que vienen, unidades que van, instalaciones que debo realizar, dos discos duros arriba de mi escritorio exactamente en este mismo momento, y un largo etcétera que demandaría medio artículo descomprimir. Mañana debo reemplazar un disco defectuoso por otro de 320 gigabytes, después de que el habitante original del ordenador decidiera comenzar con toda una serie de berrinches extraños muy probablemente asociados a una falla de su tarjeta lógica. Es curioso cómo hoy un ordenador sin disco duro puede parecer abandonado en el medio del desierto, cuando hemos operado durante años sin estos dispositivos. Los discos flexibles gobernaban el universo, y sí, ocho diskettes de doble densidad para jugar al Monkey Island podían ser una pesadilla, pero también eran un placer al mismo tiempo. Ahora, nos burlamos de la barrera del terabyte, mientras que la elite de estado sólido puede saturar un bus SATA sin mayores complicaciones.
 
                    Podemos optimizarlos, monitorearlos, y administrar su uso, pero siempre habrá una ocasión para agregar o reemplazar un disco duro
 
El proceso de instalación de un disco duro se ha simplificado de forma considerable con el paso de los años, pero al estar conscientes de que no todo el hardware es igual, es necesario tomar algunos recaudos antes de proceder con la compra y la instalación de la nueva unidad. Esto se resume a conocer un poco el ordenador que va a recibir al disco duro, lo que podemos dividir en dos pasos elementales: Qué edad tiene el ordenador, y qué tipo de interfaces hay disponibles. La edad no solamente influye en detalles como las interfaces, sino que en algunos casos aislados, el disco duro puede llegar a ser demasiado grande como para que el BIOS lo detecte correctamente. Es verdad: Lo que estoy diciendo suena a antigüedad pura, pero puede pasar. Algunos BIOS sólo podían detectar unidades de hasta 137 GB de espacio. Este límite fue roto en el año 2002, y como problema ya es casi inexistente, pero no quiero que los tome por sorpresa si planean agregar 160 GB a un veterano Pentium III con un BIOS antiguo. En caso de lidiar con esta limitación, deberán visitar la página del fabricante y descargar alguna utilidad compatible con DDO, que efectivamente extiende la capacidad de detección de un BIOS (más sencillo), o en su defecto, buscar una versión superior del BIOS y actualizarlo (más elaborado, pero permanente). Ambas opciones son válidas.
En cuanto a interfaces, las opciones más comunes en el mercado son dos: SATA e IDE. La tecnología SATA prácticamente ha desplazado a la IDE, e incluso ya se han visto tarjetas madre sin puertos IDE. Sin embargo, todavía se pueden encontrar discos IDE en el mercado, con capacidades que pueden llegar hasta los 320 gigabytes. No olvides que, al igual que sucede con las unidades ópticas IDE, deberás especificar la posición de un disco duro IDE, o sea, si es maestro o esclavo dentro del canal. Dicha posición es determinada por los "jumpers" ubicados usualmente entre el conector de datos y el Molex de tensión. Cada fabricante tiene su propia forma de especificar esto, y los "mapas" con la configuración de los jumpers suelen estar impresos en una etiqueta pegada sobre la parte superior del disco duro. Si reemplazas a otro disco, lo ideal es que la posición del disco nuevo se mantenga igual, o sea, "maestro" por "maestro" o "esclavo" por "esclavo", para minimizar conflictos. Ahora, si agregas un disco duro adicional, su posición deberá ser diferente a la que posee el disco ya instalado en el sistema. Dos discos duros con la misma posición en un mismo canal IDE causarán un problema invariablemente.

Nota las instrucciones para los jumpers en este disco IDE, y su ubicación física

 La llegada de los puertos SATA simplificó mucho las cosas, ya que no es necesario lidiar con jumpers y posiciones. Es una unidad por puerto, desde el conector SATA del disco duro hasta el puerto SATA de la placa madre, sin escalas. Aún así, un detalle importante a tener en cuenta es si el nuevo disco duro posee un conector Molex tradicional, o utiliza el nuevo conector SATA para tensión. Hay discos que por cuestiones de compatibilidad poseen ambos tipos de conectores, pero en el caso de que un disco duro SATA utilice un conector de tensión nuevo y la fuente de alimentación del ordenador no cuente con esa entrada, será necesaria la intervención de un adaptador Molex-SATA, muy accesible y fácil de obtener.

          Los discos SATA no usan jumpers, y tienen un conector de tensión diferente al Molex

Hay muchas dudas sobre la "marca" del disco duro que se debe comprar, pero lo cierto es que solamente quedan cinco empresas en el planeta que fabrican discos duros para ordenadores: Western Digital, Seagate, Hitachi, Samsung y Toshiba. Los discos Toshiba suelen ser un poco más complicados de encontrar, por lo que en la mayoría de los casos, el mercado ofrece unidades de los otros cuatro fabricantes. ¿Con cuál debes quedarte? Eso es algo que deberás investigar tú mismo. Cada una de estas empresas ha tenido discos para el olvido y ejemplares gloriosos, pero no hay nada como la opinión de otros usuarios al respecto (están todos invitados a compartir sus experiencias a través de los comentarios). La tendencia general indica que tanto Seagate como Western Digital son apuestas seguras, pero repetimos, es una tendencia, no una afirmación.


Todas las empresas han tenido sus períodos oscuros, pero incluso Hitachi, después de lidiar con su "incidente DeskStar", hoy ofrece discos de muy buena calidad
En resumen, para la correcta instalación de un disco duro, necesitas:
  • El disco en sí (Capacidad e interfaz según la necesidad del usuario)
  • Un destornillador (Puede ser Phillips o Torx, según tornillo, carcasa o fabricante del ordenador)
  • Una bahía de 3.5 pulgadas (Ubicación y disponibilidad, según cada carcasa)
  • Cable de datos (Excluyente para discos SATA, puedes usar el conector secundario en un IDE)
  • Tornillos (Para asegurar la instalación, un disco suelto es una muy, muy mala idea)
  • Iluminación y espacio (Trabaja libre de estorbos, y con buena luz)
  • Tiempo (Innegociable, si no tienes esto, mejor posponer la operación)


Las siete cosas de las que deberás disponer para instalar con éxito un disco duro
  1. Desconecta todos los cables del ordenador (sí, todos), y abre su carcasa.
  2. Localiza una bahía de 3.5 pulgadas libre en donde puedas instalar la unidad.
  3. Coloca el disco duro en la bahía, ten cuidado de no golpearlo o de afectar la conexión de otros cables.
  4. Asegura su posición con los tornillos (cuatro tornillos, sin peros).
  5. Procede a conectar el cable de datos y el cable de tensión, según con el tipo de conector que posea el disco (Molex, SATA, o Molex convertido a SATA con un adaptador. Sólo es necesario uno, a pesar de que haya discos con ambos).
  6. Conecta el otro extremo del cable de datos a un puerto disponible en la placa madre.
  7. Asegúrate de que no haya obstrucciones en ninguno de los coolers, y de que ningún cable haya sido aflojado o se haya soltado durante la instalación del disco.
  8. No instales la carcasa aún: Sólo necesitas tensión, señal de vídeo y teclado para comprobar que el disco ha sido instalado correctamente. Conecta estos cables y enciende el ordenador.
  9. Las probabilidades de que el nuevo disco haya sido detectado automáticamente son muy altas, algo que podrás comprobar visualmente. De lo contrario, deberás ingresar al BIOS del ordenador o iniciar el sistema operativo para verificarlo (siempre y cuando el disco instalado sea secundario, si reemplaza a una única unidad, no tendrá sistema operativo). Si todo va bien, y el nuevo disco aparece en el sistema, sólo basta con apagarlo, reinstalar la carcasa y conectar el resto de los cables.
 
Un disco duro SATA ya instalado en su bahía. A pesar de contar con los dos conectores de tensión, sólo se utiliza uno de ellos.
 
Si el nuevo disco no es detectado, deberás verificar que todas las conexiones están en orden, tanto datos como tensión. Si se trata de un disco IDE, no olvides que su posición a través del jumper debe ser la correcta. También deberás considerar cambiar de puerto en la placa madre (algo común con los puertos SATA) y de conector de tensión (si no escuchas ningún indicio de actividad proveniente del disco). Lo fundamental es que el disco duro sea detectado al inicio del ordenador, o en el interior del BIOS. Si notas que no aparece en Windows como una unidad en "Mi PC", no te preocupes: El disco ha sido detectado, pero necesita ser formateado para que tenga una letra de unidad. Si con todos estos recaudos, el disco sigue sin ser detectado, tal vez exista una falla. Estos incidentes no son frecuentes en unidades nuevas, pero no podemos negar esa posibilidad.

Al aparecer en el BIOS, el ordenador reconoce la presencia del nuevo disco duro
Dicho esto, podemos llegar a la conclusión de que los detalles más importantes a la hora de instalar un disco duro han sido cubiertos. Las épocas de luchar con misteriosas controladoras, interminables hileras de jumpers y oscuros parámetros en placas de sonido (aunque parezca mentira), han quedado atrás. Las dos herramientas principales siguen siendo la paciencia y el cuidado. Infórmate sobre tu ordenador, compra el disco con la capacidad y la interfaz que necesites, y procede a su instalación. En estos días de vídeos de alta resolución e imágenes ISO que ocupan gigabytes enteros, nunca está de más un disco duro adicional. Pero también puede haber otra necesidad, esa de la cual nadie quiere hablar por miedo a invocarla. Personalmente la he vivido varias veces... ¿y adivinen qué? Otro disco duro está haciendo ruidos extraños aquí. Será mejor vigilarlo de cerca. ¡Buena suerte!
lo vi en: www.neoteo.com
ARTURO LUGO-apocusant

miércoles, 28 de julio de 2010

El naufragio del Titanic en 3D

 
 
En esta foto de Ralph White, se puede apreciar la proa del Titanic en reposo sobre el fondo del Atlántico Norte, a unos 400 kilómetros al sureste de Terranova, Canadá. Este lunes se supo que un equipo de científicos pondrá en marcha una expedición a los restos del Titanic el 18 de agosto de 2010, para evaluar la situación de deterioro del naufragio más famoso e impactante del mundo y crear un mapa tridimensional detallado que le permitirá al público "rescatar en forma virtual al Titanic". Esta expedición se anuncia como la misión científica más avanzada a los restos del Titanic, desde su descubrimiento hace 25 años.
 
Una expedición que durará unos 20 días partirá desde St. John's, Terranova, el 18 de agosto gracias a un acuerdo entre el RMS Titanic Inc., que tiene los derechos exclusivos de rescate sobre el lugar del naufragio, y la Institución Oceanográfica Woods Hole, radicada en Massachusetts. La expedición no recogerá ninguna clase de artefactos, pero va a investigar un campo de escombros que se encuentra esparcido en un radio de 2 a 3 millas, donde cientos de miles de objetos pertenecientes a la embarcación y la tripulación permanecen dispersos en el lugar.

Los organizadores dicen que los datos científicos y las imágenes que resulten de esta nueva expedición estarán accesibles al público de manera libre y gratuita. "Por primera vez, vamos a tratar al predio donde se encuentra el Titanic como un sitio arqueológico con dos cosas en mente", manifestaron este lunes David Gallo, líder de la expedición, y el científico Woods Hole, de la agencia de noticias The Associated Press. "Una es preservar el legado del buque mediante el aporte de nuevos y mejores detalles que incrementen aún más la importancia, la leyenda y la historia del propio Titanic. La segunda parte es para comprender realmente cómo fueron los últimos instantes de vida de la nave, el estado actual del buque y todos aquellos datos que puedan agregarse a la historia de esta embarcación."
 
                      Imágen histórica del buque, cuando nada presagiaba el fatídico final

El Titanic chocó contra un témpano de hielo y se hundió en su viaje inaugural en aguas internacionales el 15 de abril de 1912, dejando 1.522 muertos. Desde que el oceanógrafo Robert Ballard y un equipo internacional descubrieron el Titanic en 1985, la mayoría de las expediciones al lugar han sido para actividades tan diversas como fotografiar los restos del naufragio o reunir miles de objetos de valor (como la porcelana fina, zapatos y accesorios de barco). El director de la conocida película que lleva el nombre de la nave, James Cameron, también ha dirigido equipos al lugar del naufragio para registrar la proa y la popa, que se separaron durante el hundimiento y ahora se encuentran a un tercio de milla una de otra.

"Creemos que todavía hay una serie de misterios realmente emocionantes para ser descubiertos en el lugar del naufragio", dijo Chris Davino, presidente y director ejecutivo de la Premier Exhibitions y RMS Titanic. "En nuestra opinión, existen muchas partes sustanciales del lugar del naufragio que no han sido estudiadas lo suficiente", agregó. RMS Titanic está financiando esta expedición y Davino se negó a indicar el costo de la exploración, más allá de decir que costará algunos millones de euros.

                                 El óxido y el tiempo están destruyendo toda la estructura

Los arqueólogos, oceanógrafos y otros científicos que participarán de la expedición quieren obtener la mejor evaluación posible de los dos sectores principales de la nave que han sido sometidos a fuertes corrientes en las profundidades del océano, al agua salada y a una intensa presión. David Gallo dijo que mientras la tasa de deterioro del Titanic no se conoce, la expedición se acercará al lugar con un sentido de urgencia intentando obtener este dato crucial para evaluar la conservación de los restos en el fondo del mar. "Vemos algunos lugares donde parece que las cubiertas superiores se están volviendo delgadas al igual que las paredes y, por lo tanto, los techos podrían derrumbarse en cualquier momento", dijo. "Hemos escuchado todas estas teorías y anécdotas que dicen que el buque se está oxidando y que se está derrumbando sobre sí mismo. Sin embargo, nadie lo sabe realmente."

                         Los restos se encuentran diseminados en un radio muy importante

La expedición utilizará la mejor tecnología de imágenes y dispositivos de sonar que jamás se haya empleado antes en las expediciones a la zona del naufragio del Titanic. Las sondas intentarán husmear debajo de los escombros para tratar de realizar un minucioso inventario de los objetos esparcidos en la zona que hayan pertenecido a la nave. "En realidad estamos tratándolo como una escena de crimen", dijo David Gallo. "Queremos saber lo que hay en ese campo de escombros, incluso hasta cómo quedaron orientadas la popa y la proa en el lugar." La expedición contará con el apoyo de RV Jean Charcot, un buque de investigación de 250 pies, con una tripulación de 20 personas, tres sumergibles y las últimas tecnologías en sonar, acústica y filmación. "Nunca antes habíamos contado con semejantes medios científicos y tecnológicos para cubrir una expedición al Titanic", dijo PH Nargeolet, co-líder de la expedición, quien hasta la fecha ha realizado más de 30 inmersiones al lugar del naufragio.

                   La hélice, semienterrada, yace como un mudo testigo de la tragedia

Bill Lange, un científico de Woods Hole que será el encargado de las tareas fílmicas y además será uno de los primeros en visitar los restos del naufragio, dijo que un análisis clave será comparar las imágenes de la primera expedición hace 25 años con las nuevas imágenes, para medir los daños y la erosión acumulada en este tiempo. "Vamos a ver cosas que no hemos visto antes. Eso es uno de los acontecimientos más excitantes de la misión gracias a que la tecnología realmente ha evolucionado mucho en los últimos 25 años”, dijo. Por su parte, RMS Titanic sigue esperando el fallo de un juez en Norfolk, Virginia, por los 5.500 artefactos que tiene en su posesión. La compañía está buscando la propiedad limitada de estos objetos como compensación por sus esfuerzos de rescate. En su presentación judicial, la compañía puso el valor justo de mercado de la colección en 110,9 millones dólares, mientras que la justicia estadounidense ha denominado a los restos del naufragio como un "tesoro internacional".

ARTURO LUGO-apocusant

Facebook: ¿Borrado permanente de cuenta?

Hasta ahora Facebook solo te permite desactivar tu cuenta, que se vuelve a activar en el momento que ingresas nuevamente. En caso de que quieras borrarla de forma permanente, tienes que urgar por las distintas opciones hasta encontrarla. Pero unos nuevos reportes dan a entender que Facebook actualmente esta probando una opción para poder borrar de forma permanente una cuenta con solo unos clics. ¿Quieres desaparecer de Facebook?

Hace pocos días hablábamos sobre cómo facebook trataba la muerte de sus usuarios, ya que varias personas se habían encontrado con recomendaciones para hablar con conocidos que ya habían fallecido. Ahora, están considerando la idea de permitirle al usuario borrarse permanentemente de la red social. Hasta el momento solo existe una opción para desactivar la cuenta y se activa automáticamente una vez que el usuario vuelve a ingresar.

Es cierto que además de poder desactivarla, se puede borrar, pero no es nada fácil. Es más, aún hoy no es clara la manera de borrar una cuenta. En caso de que implementen este nuevo sistema, los usuarios podrán borrarse de manera permanente con un par de clics. En la misma pantalla, la opción se describe como “borrar permanentemente tu cuenta y toda la información que hayas compartido.” De igual manera, los polémicos términos de servicio de Facebook dicen claramente que pueden quedarse con cualquier información que ya fue ingresada al sistema.
Así se ve la opción para el pequeño porcentaje de prueba.
Así se ve la opción para el pequeño porcentaje de prueba.
Aún no esta decidido si Facebook implementará esta opción, porque todavía la están probando, pero sería un paso muy positivo, ya que muchas personas no utilizan más el sitio y no tienen el interés suficiente para buscar la elusiva opción para eliminarse del sistema. Sobre este cambio un representante de Facebook expresó: “Siempre estamos probando ideas nuevas, incluyendo la ubicación de varias opciones. Una de estas pruebas recientes incluyen variaciones a la opción de eliminar una cuenta solo para un pequeño porcentaje de personas.

Es por eso que si por el momento no lo ves en tu cuenta, se debe a que actualmente lo están probando con un porcentaje muy pequeño de usuarios. Tal vez tengas la suerte de formar parte de ese porcentaje, pero lo más probable es que no sea así. Aún no han dado una fecha para la implementación y ni siquiera han confirmado si se volverá un cambio oficial, sin embargo, acudimos al sentido común para que así sea.


En referencia al tema:

 Que pasa con los fantasmas de FACEBOOK???


Hace ya varios años que Facebook se ha convertido en la red social por excelencia para estar en contacto con amigos y familiares. Pero ahora esos mismos años están demostrando, en forma de fantasmas, que el sistema no es perfecto. Más de un usuario se ha encontrado con una recomendación para hablar con un amigo, familiar o conocido que había fallecido y la red social aún no posee un sistema que pueda lidiar con esta clase de problemas.
Ahora que Facebook no es más una novedad y tiene varios años de rodaje, podemos preguntarnos, ¿qué sucede con la cuenta de un usuario una vez que pasa a mejor vida? Al parecer, nada, según se enteró un usuario de la peor manera. Courtney Purvin quedó consternada luego de que la red social le sugiera enviarle un mensaje a un viejo amigo de la familia. El único problema, esa persona había muerto tres meses atrás.

Está claro que Facebook no tienen ningún problema para recordar los cumpleaños de sus casi 500 millones de usuario o, también, hacerte saber los gustos de cada amigo. Pero según parece, el sistema tiene un problema para asimilar aquellas personas que han fallecido. Esto puede terminar en momentos incómodos como el que Purvin sufrió hace unas semanas en carne propia. Desde la misma compañía llegan muestras de incertidumbre frente a este problema, ya que reconocen que es un tema al que aún no le han encontrado solución.
El Profesor de Comunicaciones de la Universidad Rutgers, James E. Katz explica: “Los primeros usuarios de Facebook eran jóvenes y la muerte era algo muy raro o trágico.” Ahora, con la gran popularidad que ha cosechado, tiene usuarios de todo tipo de edades, con más de 6.5 millones usuarios mayores de 65 años. Y según explica, esas personas tienen un alto nivel de mortalidad, así que el problema va a empeorar aún más con el tiempo.

De todos modos, cuando Facebook sí está al tanto de la muerte de un usuario, intenta conservar su memoria. En las primeras versiones de la red social, simplemente eliminaba su cuenta, pero ahora reconocen la importancia de encontrar una forma adecuada de preservar esas páginas en línea. Es por eso que se pueden convertir varias de las páginas en monumentos conmemorativos o páginas tributo. En estos caso se elimina la información personal y deja de aparecer en la búsqueda de usuarios, pero las imágenes siguen presentes.
Desde la compañía de Zuckerberg han dicho que todavía están trbajando en un sistema que sea capaz de detectar los usuarios fallecidos.
Desde la compañía de Zuckerberg han dicho que todavía están trbajando en un sistema que sea capaz de detectar los usuarios fallecidos.

De todos modos todavía existe el problema de cómo saber si una persona ha fallecido. Teniendo en cuenta la cantidad de usuarios en la base de datos, es algo que una máquina no puede hacer. Algunos creen que una opción para reportarlo puede ser la solución y actualmente se maneja de esa manera, pero no está bien publicitado en el sitio. Un miembro de la familia debe llenar una forma donde muestra prueba del fallecimiento y luego un miembro del equipo lo analiza. Claro que esto también ha llevado a varias bromas de mal gusto, donde usuarios vivos aparecieron como muertos. Y estas personas se han encontrado que también es dificil “volver a la vida”, ya que no hay un botón para reportar el error.
A medida que Facebook se vuelve una parte integral de nuestra vida social, esta clase de situaciones demuestra que todavía deben lidiar con varios problemas. Actualmente siguen trabajando en sistemas que puedan solucionar esto sin la necesidad de reportes por parte de usuario y evitando momentos incómodos cuando uno de los fantamas de Facebook acecha a un desprevenido usuario.
Enlaces
Fuente: Post-Gazette



ARTURO LUGO-apocusant

Ya está disponible el primer "Service Pack" para Windows 7


Algo que para Microsoft ya es costumbre es presentar cada cierto tiempo un paquete de actualizaciones de software relacionadas con la seguridad o aspectos de la optimización del rendimiento de sus sistemas operativos. Esta vez le tocó a Windows 7, cuyo “Service Pack 1″ ya se puede descargar, aunque se trata de una versión Beta.
La primera versión Beta del SP1 de Windows 7 intentará mejorar fallas de seguridad así como actualizar el soporte para nuevas tecnologías y algunos parches menores para eliminar bugs incómodos. Programas que pueden descargarse por separado desde Windows Update.
En este sentido, Microsoft explicó en el blog oficial de Windows que el primer service pack para este sistema no incluye ninguna novedad, sino solamente el recopilatorio de los parches de seguridad que hayan sido emitidos hasta la fecha de su publicación a través del servicio Windows Update.
Para realizar la descarga de esta Beta es necesario realizar un pequeño “truco” para poder llevar la operación a buen término.
Al realizar la descarga, se nos preguntará cuál es nuestra ocupación, y ahí tendremos que indicar que somos “IT Worker”. También podemos seleccionar “IT Manager” o incluso “Developer”.
Si elegimos cualquier otra opción, se nos impedirá descargar el SP1, dado que, según Microsoft, esta Beta “no es para usuarios domésticos”.
Cabe destacar que el tamaño del Service Pack sorprende un poco por su tamaño. La actualización ocupa 1.22 GB por lo que resulta casi obligatorio disponer de una conexión rápida para completar la descarga.
Para descargar la primera versión Beta del SP1 de Windows 7, ingresen a este enlace.
lo vi en : http://www.redusers.com/noticias/ya-esta-disponible-el-primer-service-pack-para-windows-7/
ARTURO LUGO-apocusant

Crean una memoria USB a prueba de balas

Por lo general, las unidades de almacenamiento de datos son débiles y poco robustas, y hasta el almacenamiento de estado sólido que se encuentra en algunos equipos es vulnerable ante caídas, el calor, el agua y el fuego.
Para llevar la información más importante dondequiera que vayamos y sin temor a que se dañe, LaCie lanzó una memoria USB llamada XtremKey, que según la firma ofrece protección contra cualquier circunstancia: “frío o calor extremos, caídas, y golpes”.
XtremKey está hecha de zamac, una aleación metálica compuesta por zinc, aluminio, magnesio y cobre que es tan fuerte que puede soportar la presión de un camión de 10 toneladas.
Además, está blindada en el interior y sellada con roscas de tornillo resistentes al desgaste y una junta tórica de goma, que permite sumergir la unidad en agua hasta los 100 metros de profundidad.
A su vez, XtremKey no sacrifica el rendimiento a cambio de la protección, ya que brinda velocidades de escritura de hasta 30 MB/s y velocidades de lectura a 40 MB/s.
La memoria indestrcutible de LaCie también resiste caídas desde cinco metros de altura y temperaturas extremas desde +200°C a -50°, y cuenta con capacidades de 8 GB hasta 64 GB.
XtremKey estará disponible en el mercado europeo a partir del mes de agosto y su precio arranca en los 50 dólares.

 lo vi en:http://www.redusers.com/noticias/crean-una-memoria-usb-a-prueba-de-balas/
ARTURO LUGO-apocusant

Twitter planea ir más allá de los 140 caracteres


La plataforma de microblogging está realizando pruebas para incorporar en breve nuevas características y funcionalidades multimedia, que permitirá que sus miembros compartan entre sí imágenes y videos.
La nueva opción se llama Tweet Media y ya está apareciendo en las configuraciones del perfil de algunos usuarios de la red social, aunque a modo de prueba y de forma temporal.
Tweet Media permitiría a los usuarios de Twitter la posibilidad de incoporar y publicar “tweets” o mensajes con contenido multimedia como videos o fotos, y compartirlos con la gente que siguen.
No obstante, esto también podría ajustarse para que los usuarios puedan hacer que sus seguidores no vean los archivos multimedia de los que disponen si así lo prefieren.
Por el momento se desconoce la forma en la que estos elementos serán finalmente integrados o mostrados a través de las diferentes cuentas o mensajes, aunque las nuevas funcionalidades sin duda cambiarán de forma radical la experiencia y las aplicaciones actuales que los usuarios de Twitter podrían dar a este servicio, ampliando así sus posibilidades y limitaciones actuales.
lo vi en: http://www.redusers.com/noticias/twitter
ARTURO LUGO-apocusant

Epic 1.0 Beta: Navegador indio basado en Firefox

 
Las maravillas del código abierto permiten que cualquier interesado obtenga el código de su programa favorito y cree versiones modificadas y/o optimizadas del mismo. Los navegadores web han recibido una especial atención por parte de desarrolladores entusiastas, dando forma a interesantes variantes. Epic es una de ellas, pero a simple vista es posible comprender que no se trata de una simple desviación de código. Proveniente de la India, Epic ofrece un entorno mucho más colorido, soporte para aplicaciones internas, y hasta un antivirus integrado.

Los diferentes navegadores web disponibles compiten en múltiples aspectos, pero uno sobre el que se han concentrado especialmente en estos últimos tiempos es el de la velocidad. Aunque hay cierta lógica detrás de los cuestionamientos que han hecho algunos usuarios sobre perseguir cada milisegundo de rendimiento bajo procesos JavaScript, lo cierto es que la "velocidad" como término posee un poder muy grande a la hora de promocionar un navegador web. Al mismo tiempo, otro punto en el que se han estado sacando chispas es el de la integración. La tendencia a ejecutar aplicaciones web y a soportar HTML5 como estándar es muy fuerte en la última serie de navegadores, e incluso tenemos a Google predicando que la línea entre sistema operativo y navegador web es cada vez más difusa. Por lo tanto, el pensar en un navegador web como una semi-plataforma no sería algo tan errado, y este detalle es algo que incluso aquellos desarrolladores que han modificado el código de los navegadores, comprenden cada vez mejor.
 
La competencia entre los navegadores actuales es muy dura, por lo que nos sorprende un poco ver a un nuevo integrante en la pista. Sin embargo, Epic tiene algunas características que reclaman un grado especial de atención. En primer lugar, se promociona a sí mismo como el primer navegador desarrollado en la India, un país al que conocemos por ser el origen de las más extraordinarias mentes en el mundo informático. Luego es posible notar rápidamente que se trata de un navegador basado en el código de Mozilla, aunque su aspecto es mucho más colorido del que estamos acostumbrados a ver en Firefox. Lo que en Firefox se conoce como Personas, en Epic son consideradas "Skins", y hay muchas de las cuales escoger. Pero más allá de su apariencia, lo más notable es la barra del lado izquierdo que contiene "aplicaciones" que pueden ser ejecutadas directamente. En realidad, la mayoría de estas aplicaciones, como el acceso a Facebook y Twitter, sólo abren una sección especial en la ventana de navegación y presentan las versiones móviles de dichos sitios. Pero hemos notado cosas como un procesador de texto compatible con formatos TXT y HTML, e inlcuso un antivirus con capacidad de detección, cuyo motor está basado en tecnología de ESET, la gente que hace el NOD32.
Epic cuenta con accesos directos a sitios móviles, un procesador de texto, y hasta un antivirus integrado
Entre las aplicaciones encontramos accesos a las redes sociales más importantes, a Gmail, e incluso a una búsqueda de vídeos asociada con YouTube. También posee mucho contenido local, e incluso un traductor. Los únicos detalles que hemos encontrado en Epic son estrictamente estéticos. Apenas intentamos cambiar la ubicación de algunas barras nos encontramos con varios errores visuales que afectan la navegación, y hasta hemos tenido problemas con deformaciones en los iconos. También nos hubiera gustado contar con un mayor control sobre la barra de aplicaciones, más allá de los simples comandos para ocultar algunas opciones. Sin embargo, no podemos olvidar que Epic se encuentra en fase beta, y su empresa desarrolladora, Hidden Reflex, recién está dando sus primeros pasos. Epic presenta una forma diferente de hacer las cosas que ya conocemos, y la primera impresión no ha sido mala. Como un importante extra, al estar basado en Mozilla, Epic es compatible con las extensiones de Firefox, lo que garantiza un alto nivel de personalización.
enlace: www.neoteo.com
ARTURO LUGO-apocusant

Intel quiere convertir tu PC en una máquina infernal


Los laboratorios de la compañía acaban de crear la primera conexión fotónica de silicio de punta a punta con láseres integrados, en otras palabras, encontraron la manera de reemplazar por rayos de luz a los circuitos de las computadoras (con video y todo).
 
Así queridos fierreros, Intel anunció un importante avance en la utilización de rayos de luz para sustituir el uso de electrones en el transporte de datos entre computadoras y alrededor de ellas. El gigante de los procesadores desarrolló un prototipo de investigación que representa la primera conexión de datos óptica del mundo basada en silicio con láseres integrados.
El enlace puede mover datos a través de largas distancias y es más rápido que la tecnología de cobre de hoy. Se pueden transmitir hasta 50 gigabytes de datos por segundo, lo equivalente a una película entera en HD.
Hoy, los componentes de las computadoras se conectan entre sí mediante cables de cobre o trazados en placas de circuitos. Debido a la interferencia electromagnética que se produce en consecuencia del uso de metales como el cobre para transmitir datos, estos trazados tienen una longitud máxima limitada. Esto condiciona a su vez el diseño de las computadoras y obliga a que los procesadores, la memoria y otros componentes se ubiquen a algunos centímetros uno del otro.
El logro de hoy en el terreno de la investigación, es otro paso adelante hacia la sustitución de estas conexiones por fibras ópticas extremadamente finas y ligeras, que pueden transferir muchos más datos a través de distancias mayores, cambiando radicalmente la forma en la que se diseñarán las computadoras del futuro y el datacenter del mañana.
Las futuras supercomputadoras, por ejemplo, podrán ver cómo los componentes se esparcen por un edificio o incluso un campus entero, comunicándose entre sí a alta velocidad, en lugar de estar limitados por cables de cobre pesados, de capacidad y alcance limitados.
Justin Rattner, CTO de Intel y director de Intel Labs, mostró el Silicon Photonics Link (Enlace Fotónico de Silicio) en la Integrated Photonics Research Conference, en Monterey, California. El enlace de 50 Gbps se asemeja a un “vehículo prototipo” que les permite a los investigadores de Intel poner a prueba nuevas ideas y continuar la búsqueda de la compañía por desarrollar tecnologías que transmitan datos mediante rayos de luz con un bajo costo y silicio fácil de fabricar, en lugar de cables de cobre.
Si bien existen algunas aplicaciones, como las telecomunicaciones, que ya utilizan láseres para transmitir información, las tecnologías actuales son demasiado caras y se utilizan al por mayor, lo que impide su aplicación a PCs. “Este logro, el primer enlace fotónico de silicio a 50 Gbps con láseres de silicio híbridos integrados del mundo, marca un logro significativo en nuestra visión a largo plazo de la fotónica de “siliciación” y trae un elevado ancho de banda, así como comunicaciones ópticas de bajo costo a los futuros PCs y servidores”, dijo el Sr. Rattner.



El prototipo de 50 Gbps Silicon Photonics Link es el resultado de una agenda de investigación que incluye un programa específico de varios años sobre fotónica de silicio, con numerosas “primicias mundiales”. Se compone de un transmisor de silicio y un chip receptor; cada uno de ellos integra todos los componentes básicos necesarios de los anteriores avances de Intel, incluyendo el primer Hybrid Silicon Laser (láser de silicio híbrido) desarrollado conjuntamente con la Universidad de California en Santa Bárbara en 2006, así como moduladores ópticos de alta velocidad y fotodetectores, anunciados en 2007.
El chip transmisor se compone de cuatro láseres de ese tipo. Cada uno de esos haces de luz viaja en un modulador óptico que codifica los datos hacia ellos a 12,5 Gbps. Luego los cuatro haces se combinan y salen a una única fibra óptica, a una tasa de datos total de 50 Gbps. En el otro extremo del enlace, el chip receptor separa los cuatro haces ópticos y los dirige a los fotodetectores, que convierten los datos de nuevo en señales eléctricas. Ambos chips se montan utilizando técnicas de bajo costo de fabricación, familiares para la industria del PC.
Los investigadores de Intel ya están trabajando para aumentar la tasa de datos, al escalar la velocidad del modulador al tiempo que aumentan el número de láseres por chip, abriendo un camino hacia futuros enlaces ópticos de Terabit/s. Esas tasas serían lo suficientemente rápidas como para transferir una copia de todo el contenido de un laptop típico en apenas un segundo.
Cuando salgan del asombro, queridos lectores ¿Qué pueden decirnos de este avance?
lo vi en:
http://www.redusers.com/noticias/intel
ARTURO LUGO-apocusant

Avión que aterriza como un pájaro (MIT)

¿Alguna vez viste cómo aterriza un pájaro? Mientras que un avión de pasajeros solamente es capaz de posarse en tierra de una pieza cuando dispone de una pista que sea cien veces más larga que él mismo,  las aves realizan esta maniobra en espacios sumamente reducidos, incluso tan delgados como un alambre. Los científicos del MIT han logrado controlar un pequeño modelo de avión a escala para que realice esa misma maniobra. Si pudiese aplicarse a aeronaves de tamaño real, revolucionarían la industria. ¿Lograrán los aviones aterrizar como los pájaros?

Uno de los problemas más grandes que enfrenta la industria de la aviación es la necesidad de grandes espacios -rectos, despejados y perfectamente nivelados- que se necesitan para que un avión pueda despegar y aterrizar sin que haya que juntar un montón de hierros retorcidos y embolsar algunos cientos de cadáveres. A pesar de que pueden construirse aeronaves capaces de aterrizar y despegar de forma vertical, como los VTOL (del inglés Vertical Take-Off and Landing, o “despegue y aterrizaje vertical”), lo cierto es que esta característica solo se ha puesto en practica pocas veces y siempre en aeronaves pequeñas, como los aviones de combate. Sin embargo, la naturaleza ha resuelto este problema de una forma mucho más elegante: cualquier pájaro es capaz de posarse suavemente en el piso sin necesidad de una “pista” ni nada parecido.
                                      ¿Lograrán los aviones aterrizar como los pájaros?
Por supuesto, los pájaros difieren bastante de los aviones. Aunque ambos son capaces de volar, lo cierto es que las aves lo hacen agitando sus alas, mientras que los aviones -la mayoría de ellos- las mantienen siempre en la misma y rígida posición. Pero al momento del aterrizaje, la mayoría de los pájaros se limitan a realizar un planeo muy bien controlado, con las alas quietas. Los aviones, si estuviesen lo suficientemente bien construidos y piloteados, deberían poder hacer algo parecido. Justamente, los investigadores del MIT han trabajado en este problema y puesto a punto un nuevo sistema de control capaz de hacer que un pequeño planeador a escala, como los que utilizan los aeromodelistas, pueda aterrizar sobre algo tan delgado como un alambre, tal como lo hace un periquito. Pero ¿Como es posible?

                      Los científicos del MIT han logrado aterrizar un modelo sobre un alambre.
Todos hemos visto como como aterriza un avión: comienza con una maniobra lenta de descenso, se alinea con la pista, sigue bajando hasta tocar tierra, y mientras se aplican los frenos recorre varios cientos de metros antes de detenerse. Seguramente los pájaros que merodean por los aeropuertos se deben morir de risa viendo una maniobra tan torpe, ya que ellos se limitan a frenar en el aire, y hacer los que generalmente se denomina “entrar en perdida” (“stall”, en inglés). Durante esta maniobra se incrementa súbitamente el ángulo con el que las alas penetran en el aire, provocando una disminución más o menos rápida de la fuerza normal que produce la corriente de aire incidente sobre el perfil aerodinámico. Se trata de una maniobra peligrosa, ya que si el piloto no recupera rápidamente la posición normal, el avión puede “dejar de volar” y caer hacia atrás. Alguna vez, realizando un despegue en un planeador remolcado mediante un torno fijo en tierra, se cortó el cable de acero que hace posible el despegue. Estando a unos 60 o 70 metros de altura y con un ángulo de unos 35 grados el planeador comenzó a caer, o como explicamos antes, “entró en pérdida”. Afortunadamente una maniobra rápida del experimentado piloto hizo que la nariz del planeador bajase rápidamente y logramos aterrizar de una pieza. Pero hay algo seguro: no es una maniobra que nadie en sus cabales quiera hacer con un avión de pasajeros. Sin embargo, los pájaros lo hacen todo el tiempo, así que debería poder hacerse de forma segura. Y eso es lo que lograron en el MIT.



Este equipo, integrado por el profesor asociado del MIT Russ Tedrake y el estudiante Cory Rick, descubrió la forma en que los pájaros aprovechan los vórtices de aire que se crean debajo de sus alas cuando su ángulo es muy pronunciado. El flujo de aire sobre las alas se vuelve turbulento, y se crean verdaderos torbellinos detrás de las alas. Los efectos de estos vórtices son difíciles de predecir, pero no es algo imposible de lograr con un ordenador moderno. Así fur que crearon un modelo informático que les permitió controlar el modelo de planeador lo suficientemente bien como para mantenerlo al limite de la pérdida, sin que llegue a caer.  El conjunto de reglas introducidas en el ordenador, sumado a los datos recogidos por los sensores, hicieron que el software fuese capaz de calcular con precisión el grado de desviación que los controles del avión debían compensar en cada momento. Luego de algunos meses de trabajo, lograron que el planeador fuese capaz de imitar la forma de aterrizar utilizada por los  periquitos, e incluso que se posase sobre un alambre. Por supuesto, esto no quiere decir que dentro de uno o dos años los aviones “de verdad” estén en condiciones de aterrizar sin usar una larga pista. Durante sus experimentos, el ordenador a cargo utilizaba como guía -entre muchos otros parámetros- imágenes tomadas por cámaras ubicadas en el exterior del avión, y la velocidad de respuesta de un modelo pequeño es mucho mayor que la de una aeronave real. Sin embargo, es posible que dentro de no mucho tiempo algunas de estas técnicas puedan incorporarse a los aviones espía no tripulados, y un poco más tarde, a los aviones ultralivianos o similares.
ARTURO LUGO-apocusant