EL OJO CLINICO DE LA TECNOLOGIA

EL OJO CLINICO DE LA TECNOLOGIA

sábado, 14 de agosto de 2010

Robo de Informacion EN LA WEB ; que es exactamente,..





Alguna vez habras visto, y no me diras, NO..por que lo viste.. el famosisismo mensaje TRUCHO que te dice.. ERES EL VISITANTES NUMERO 1000, pasa a retirar, si lo CREISTE, estas entre los 10 a12 años en edad mental,jajaja NA MENTIRA una broma, en fin es como para curiosear.. o la frase del famoso LOTO consulta en linea te ganaste tantos millones, MILLONES?...si millones... ese si ya debes ser un...(:( en fin y existe muchos sitios en internet que se encargan de hacer este tipo de anuncios, o alguien que te quiere conocer.. yse activa un contacto , y ni si quiera tenias activado el MESSENGER,  PERO TE PREGUNTASTE ... con que fin, claro decis , como yo y como todos, virus..!!! pero cual es la finalidad del (person) que creo esta maraña de cosas.. que onda como se dice.. , PARA ALGUNOS ES llovido sobre mojado, otros diran chocolate por la noticia.. pero aqui te decimos.. cuidado..SON RIPPERS(TRAMPOSOS) escuchaste hablar del tema en profundidad?, quise inmiscuirme un poquito más en el tema y busque todo esto del robo de infomación y te traje estas infos para que aumentes un poco mas tus conocimientos y de ahora en más .. tengas  precaución al INGRESAR O TOPARTE con estos anuncios... haaa y me olvidaba.. de las suplataciones de identidad (pshishing)... que te envian por correo electronico....!!! si no lo conoces.. o se trata de algun craker mal intesionado o alguno spam que se quiere colar , que colar ya se colo en tu bandeja.. haz un check...y mandalo a volar.. a correos no deseados!!!!... bue como marco introductorio es suficiente, sigue leyendo que tengo un abanico de infos que ENCONTRE para vos...!!!

El phishing es un tipo de engaño creado por hacker malintencionados, con el objetivo de obtener información importante como números de tarjetas de crédito, claves, datos de cuentas bancarias, etc. El objetivo más común, suele ser la obtención de dinero del usuario que cae en la trampa.

Por lo general, el engaño se basa en la ignorancia del usuario al ingresar a un sitio que presume legal o auténtico.


El phishing es un tipo de delito que se encuadra dentro de los engaños o estafas. Consiste en adquirir información sensible o confidencial utilizando lo que, en terminología de hackers, se llama Ingeniería Social.

Las maneras más comunes por las cuales el estafador o phisher intenta realizar su cometido es a través del correo electrónico y las llamadas telefónicas.
Cuando el "phisher" utiliza el método de correo electrónico, lo que hace es enviar un e-mail que supuestamente es de una entidad financiera (o similar), comunmente bancos, aunque el phishing puede utilizarse no solo para obtener información bancaria, sino cualquier otro tipo.
El phisher comienza realizando lo que se conoce como Fake o Fake-Mailer que consiste en enviar un correo electrónico falsificando su remitente, empleado programas como FakeMailer, GhostMail o programación. También el estafador podría reforzar la credibilidad de su fraude mediante llamadas telefónicas donde toma la identidad de algún empleado de la compañía con el fin de obtener más datos.

Un ejemplo de phishing teléfonico y por e-mail
Una persona supuestamente de una compañía de encuestas llama a nuestro teléfono, entre las preguntas que nos realiza es si trabajamos, en que empresa o de qué rubro, si utilizamos servicio de tarjeta de crédito para nuestras compras, nuestro nombre, el banco con el cual operamos. Podría ser una encuesta sobre qué tarjetas de crédito son mas utilizadas por ejemplo.
Con un poco de habilidad, el estafador puede "camuflar" estas preguntas mientras habla con nosotros, y obtener nuestro nombre y el banco con el cual operamos. Hasta aquí parecieran datos aislados.
Luego el phisher (el estafador) confecciona un "Fake Mail" donde utiliza como remitente una dirección del banco con el cual operamos, la cual obtiene de la página del propio banco. Cabe aclarar que la técnica de "Fake Mailer" permite crear remitentes con direcciones tanto existente como no, o una combinación, es decir, se toma un dominio existente, como ser nombredelbanco.com y se agrega un usuario inexistente, de esta manera el phisher arma una dirección del siguiente tipo: identidad_falsa@nombredelbanco.com.
Con esto ya el phisher construye un e-mail donde el remitente será, en apariencia, el banco.
Luego el estafador pasará a construir un sitio web que contendrá un logo y un diseño similar al del sitio web oficial del banco.
Con el remitente y las páginas web falsas, el phisher envía el e-mail, donde supuestamente es un empleado del banco que por motivos de seguridad, o validación de datos, nos invitará a que naveguemos hacia el link que él colocó en el e-mail y que obviamente nos llevará a la falsa página web.

Una vez que hacemos clic en el link que nos envía el estafador, se nos pedirá que coloquemos nuestra identificación dentro del banco, nuestra contraseña de operaciones en internet, en cajero automático, etc.
Ya con estos datos el phisher podrá comprar por Internet con nuestra tarjeta, realizar transferencias bancarias desde nuestra cuenta y, en el caso de los bancos que brindan el servicio de poder extraer dinero del cajero automático sin utilizar tarjeta, también podrá extraer nuestro dinero a través de este medio.
Aunque no lo parezca, cuesta darse cuenta que a uno le están realizando phishing, esto es principalmente porque por medio de la “Ingeniería Social” nos preguntan datos que aparentemente son inofensivos o sueltos, pero que luego el phisher sabrá relacionar para realizar su estafa.


Spamming y phishing


Muchas veces no es necesario que los phisers pregunten algún dato a través del teléfono, de hecho, ni siquiera podrían saber quiénes caerán en su trampa, pues juntan las técnicas de spamming con las de phishing.

Un phiser puede enviar un e-mail genérico de una entidad financiera a millones de personas (como un spam), esperando que haya cientos o miles de clientes de esa entidad dentro de las cuentas de e-mail afectadas. Con un par de personas que caigan en la trampa podrían obtener mucho dinero.


¿Cómo protegerse del phishing?
Usted puede contar con antivirus, antiespías y anti-phishing (incluidos actualmente en la mayoría de los grandes navegadores web como Internet Explorer, Opera y Firefox), pero la mejor manera de defenderse es: no brindando información por ningún medio, sea telefónico, personal o e-mail, y solo operar con esta información en las páginas oficiales de las entidades, revisar la dirección del navegador para detectar si se nos ha desviado hacia una dirección extraña, verificar el símbolo de zona segura al navegar por este tipo de páginas.

Si ingresa a si entidad financiera, nunca ingrese a través de un e-mail, sino escribiendo usted mismo la dirección URL correcta.















IMAGEN 1- lo adquiri de una revista que profundiza el tema
fuente: pc-magazine


IMAGEN 2-y termino del ejemplo de como operan en este negocio...

Tambien y a no olvidarse estan los que afectan a los CELULARES...

A medida que los teléfonos celulares son mejorados, siendo cada vez más complejos y potentes (convirtiéndose prácticamente en minicomputadoras), las amenazas a su seguridad comienzan a aumentar.

El avance de la tecnología nos puede resultar beneficiosos, pero también hacerle las cosas más fáciles a los piratas informáticos, cuya finalidad es la de vulnerar dispositivos para conseguir dinero.

El Smishing es una variante del Phishing pero con el uso de SMS. Son mensajes de texto cuya actividad criminal es la de obtener, mediante engaños a los usuarios de telefonía móvil, información privada o suscripciones falsas online y ofertas de trabajo en sitios web, para luego introducir spyware o programas con intenciones maliciosas sin el consentimiento del usuario.

El Vishing es otra variedad del Phishing pero con teléfono. Consiste en el envío de un correo electrónico en el cual los delincuentes consiguen detalles de datos bancarios mediante un número telefónico gratuito, en la cual una voz computarizada de aspecto profesional, les requiere a las víctimas la confirmación de su cuenta bancaria, solicitándoles el número de cuenta, tarjeta, PIN, etc.

Es recomendable ante estas amenazas sospechar de cualquier contacto, ya sea telefónico o vía correo electrónico, en el cual estén solicitando facilitar cualquier información financiera, claves o datos sensibles de usted.

Espero que les serva, no que les guste... me da igual  jajajaja..
LINDO FIN DE SEMANA..!!!
Lo vi en: 
http://www.alegsa.com.ar
revista digital-mes de julio 2010-zinio.com
ARTURO LUGO-apocusant

jueves, 12 de agosto de 2010

ARMA UNA PC PARA NIÑOS

ES UN ARTICULO RECOMENDADO para aquellas personas que quieran adentrase en el este mundo apasionante llamado, HARDWARE..
 ESPERO QUE LO DISFRUTEN,




Cada mes elegire temas de articulo digitale que a mi me parecen buenos..y que por a  o b cosas no se consiguen en la red(tiene costo de suscripcion) en fin .
fuente: pc magazine en español edicion julio 2010
ARTURO LUGO-apocusant

Refrigeracion de una pc

No es el hallazgo del año mencionar que alrededor de todo el planeta una enorme cantidad de personas consideran a su computadora como una parte muy importante de su vida. A medida que las computadoras se construyen más potentes y más rápidos necesitan más energía para operar. Una cantidad importante de esta energía absorbida desde la red domiciliaria, que no es aprovechada, se disipa en forma de calor y debemos tener los  medios para mantener siempre “frescos” a nuestros equipos. 

La refrigeración de una compu  y el consumo energético van de la mano. Es decir, con menos consumo energético los dispositivos trabajarán a menor temperatura. He aquí un sencillo análisis acerca de uno de los métodos de refrigeración más eficientes y utilizados por los constructores. Leelo


La velocidad de proceso de los circuitos integrados actuales (los que intervienen en el corazón de un ordenador (CPU)) favorecen la utilización de enormes cantidades de energía que, no sólo se utilizan para realizar los procesos necesarios para un funcionamiento correcto sino que además, una gran parte (de esa energía) se convierte en calor irradiado al exterior. Todos sabemos que el calor es uno de los grandes enemigos de la electrónica y su funcionamiento estable. Los componentes o dispositivos involucrados en todas las computadoras necesitan un método de refrigeración acorde a sus exigencias de trabajo.




Una refrigeración adecuada es garantía de un funcionamiento estable y duradero

Desde que existen los ordenadores se aplican infinitas formas de refrigeración a las unidades de proceso, transferencia y almacenamiento dinámico de datos, intentando reducir su temperatura de trabajo para favorecer un funcionamiento estable y correcto.  Algunos son baratos, otros son costosos, algunos son eficientes y otros tienen las mejores posibilidades de disipar grandes cantidades de calor. Por supuesto, nunca faltan los exagerados, ostentosos, grandiosos y con una relación costo / eficiencia pésima. Pero en este artículo no vamos a hablar de cuáles son los mejores y cuáles son los peores. Es más; si tú lo haces en los comentarios es porque no has leído el artículo o porque no has entendido el espíritu del mismo. Entre todos los métodos de refrigeración, encontramos dos que se basan en la utilización del aire para lograr el efecto deseado. Se los conoce como pasivos o activos y la diferencia entre ellos es que el primero no requiere el uso de energía para funcionar, mientras que el segundo la necesita para activar los ventiladores / sopladores o coolers que impulsarán el aire hacia los circuitos integrados generando el intercambio de calor que facilitará su refrigeración.


El cooler es una de las piezas del ordenador que nunca deben perder su funcionalidad óptima

¿Por qué debemos controlar la velocidad de los ventiladores?
El control de velocidad de un motor ventilador significa un costo “extra” para el producto final a la vez que también genera un consumo energético. Pequeño, pero consumo al fin. Por lo tanto, debe haber muy buenas razones para que los fabricantes de placas para ordenadores utilicen estas técnicas de control de velocidad de los ventiladores de refrigeración. De hecho, aquí vamos a ver algunas de las técnicas utilizadas para realizar esa tarea y los beneficios que ellas acarrean:

Disminuyendo las revoluciones del ventilador, disminuye el ruido.
Una masa de aire en movimiento dentro de un lugar cerrado, como es el gabinete de un ordenador, quiérase o no causará ruido. Cuanto mayor sea la velocidad de giro de las paletas del ventilador y el volumen del aire en movimiento, más importante será el ruido. La mayoría de las veces, el caudal de aire que es movilizado dentro de un gabinete con el fin de mantener baja la temperatura en su interior, es más de lo necesario. Ya sea porque hay muchos ventiladores, o porque el aire, externo e interno, está fresco. Además, la geometría de las aletas provocará ondas acústicas al golpear contra el aire para ponerlo en circulación. Por lo tanto, al reducir la velocidad de los ventiladores, tanto como sea posible, el ruido generado también se reducirá drásticamente.
Reducción del consumo de potencia del ventilador
Todos los circuitos electrónicos, para funcionar, consumen energía eléctrica. Los transistores o los circuitos integrados necesitan este vital elemento para operar y actuar según los deseos de cualquier diseñador. Un PIC, por ejemplo, consume sólo 180 uA. Un controlador de PWM sin demasiadas exigencias y realizado con un temporizador 555 puede absorber cerca de 30 miliamperes. Eso sumaría una potencia de 150 miliWatts. Un ventilador (cooler) típico de 300 miliamperes consume 3,6 Watts (3600 mW). La potencia 150 miliwatts mencionada antes es un consumo casi despreciable si lo comparamos respecto a la potencia nominal de un soplador convencional. Por lo tanto, si reducimos el nivel de consumo de un ventilador a valores cercanos a la mitad (o menos de ello) reduciríamos el consumo energético del equipo y esto para un ordenador portátil es muy importante.

Mayor vida útil y mayor fiabilidad del ventilador
Cualquier ventilador de bajo (o intermedio) coste tiene cojinetes de fricción en los extremos del eje donde se soporta la parte móvil, también llamada rotor. Los más caros y elaborados poseen rodamientos pero su utilización es muy rara en productos de consumo masivo. La fricción continua a la que se exponen los cojinetes de cobre de los extremos será lenta y constante provocando en ellos un desgaste progresivo. Esto, naturalmente, llevará (tarde o temprano) al final del ciclo de vida del ventilador. Al girar el rotor del ventilador en forma más lenta, la fricción y en consecuencia el calor generado por este rozamiento se reducen, por lo tanto la vida útil y la fiabilidad del ventilador se incrementa notablemente.

¿Cuántos tipos de ventiladores para ordenador hay en el mercado?

Existen 3 tipos de ventiladores muy definidos:

Los ventiladores de 2 cables de conexión
Este es el modelo más simple y popular que encontramos en la actualidad. Sólo tiene una posibilidad: girar en un único sentido (indicado en su cuerpo) y generar un flujo de aire “satisfactorio”. Los únicos cables existentes se utilizan para alimentar el motor sin escobillas de este ventilador (brushless).

Los ventiladores de 3 cables de conexión
Este tipo de ventilador es algo más elaborado que el modelo anterior y proporciona (devuelve) una información fundamental: informa sobre la cantidad de RPM que alcanza el motor. El cable extra que estos ventiladores poseen es (explicado en forma sencilla) la salida de un sensor de efecto Hall y por cada vuelta del rotor, este cable nos devolverá una cantidad de pulsos coincidentes y proporcionales a la cantidad de vueltas por minuto que alcance el rotor. Por lo tanto, el controlador del ventilador puede leer la velocidad y de este modo se puede saber si el ventilador está funcionando demasiado lento o si está estancado y detenido en forma directa. La señal del tercer cable siempre se refiere a una señal de tacómetro.


El tercer cable (generalmente amarillo) es la información de giro desde el sensor Hall
Los ventiladores de 4 cables de conexión
Este es el último, y por lo general, más caro de los ventiladores disponibles en cualquier tienda del mercado. Los primeros 3 cables tiene la misma funcionalidad que el ventilador de 3 cables mencionado en el párrafo anterior. El cuarto cable es de control de volocidad. Estos ventiladores son a menudo llamados "ventiladores PWM" porque incorporan un transistor MOSFET, y este cuarto cable de control está conectado a la puerta (Gate) del MOSFET. Estos ventiladores están diseñados para ser controlados con pulsos PWM y aunque a todos los ventiladores puedes controlarles su velocidad con circuitos PWM, los ventiladores de 4 cables traen incorporados todos los circuitos necesarios para un funcionamiento óptimo. No debes realizar circuitos externos. Alimentación, Control y Realimentación. Todo en uno y esa es una de sus ventajas, la otra es su estupenda calidad constructiva.

¿Cómo puedes controlar la velocidad de un ventilador para el ordenador?

Todos los ventiladores de un ordenador utilizan motores de corriente continua sin escobillas para operar (brushless). Estos motores se pueden controlar fácilmente de varias maneras:

Control fijo de velocidad
Esta es la forma más fácil de controlar un ventilador: Alimentando el ventilador con el voltaje reducido respecto al nominal de trabajo. Un motor sin escobillas, cuando se enciende con un voltaje reducido, girará más lento. Este circuito puede ser tan simple como colocar una resistencia en serie con el positivo de alimentación del ventilador, o puede ser más complicado, mediante el uso de un regulador de voltaje, como un 7806. Usando este método, el ventilador siempre tendrá una baja velocidad fija. La eficiencia del circuito tiene que ver sólo con la forma en que la tensión se reduce.

Alimentación compartida y/o selectiva
Una variación de la categoría anterior es el control de velocidad escalonada. En lugar de utilizar un reductor de tensión activo o una resistencia para provocar la caída de tensión, por ejemplo, hasta 6 voltios, si conectamos dos ventiladores en serie lograríamos el mismo resultado. Cada uno provocará una caída de tensión y de este modo obtendrás una menor velocidad y un funcionamiento muy silencioso. Un interruptor se puede utilizar para seleccionar diferentes puntos de velocidad para aquellos casos en que la potencia del ventilador principal deba ser incrementada. Es decir, realizando un puente en uno de los ventiladores aplicaremos la máxima potencia a otro (seleccionado en forma especial) para incrementar su rendimiento temporal.





















El control de cargas por modulación de ancho de pulsos es todo un clásico en los montajes de NeoTeo
Control de encendido / apagado

Para este tipo de control utilizaremos un termostato o cualquier circuito activado por un PIC o un NTC. Es decir, no lo hacemos con una llave manual y activada por nosotros sino que pasamos a utilizar una activación automática cuando las temperaturas superan un nivel crítico o pre-establecido por nosotros. En estos casos, también podemos controlar la velocidad del motor a través de una alimentación por PWM que será proporcional a la temperatura alcanzada en el punto que deseamos refrigerar. Si es necesario, la velocidad será máxima por algún tiempo para luego disminuir y en consecuencia reducir el consumo energético y el ruido generado.

Controladores lineales de velocidad
A pesar de ser circuitos poco eficientes a bajas velocidades, los ventiladores con controladores lineales de velocidad pueden adaptar su régimen de trabajo según las necesidades térmicas de los circuitos que deban controlar. Estos controladores son activados por el usuario mediante potenciómetros o controles de nivel que permiten variar la velocidad de manera lineal superando en prestaciones a los ventiladores de activación y velocidad fija.

Resumiendo
Existen infinitas maneras de refrigerar un sistema de cómputo. La más utilizada por los constructores de hardware ha sido y es en la actualidad el empleo de sopladores o coolers. Su relación costo/beneficio ha sido la llave para perdurar desde el inicio de los ordenadores hasta la actualidad.

ARTURO LUGO-apocusant

martes, 10 de agosto de 2010

Silencio actualizaciones que vienen a Mozilla Firefox




















Recientemente Mozilla lanzó la versión beta de la próxima Firefox 4 en unas semanas vimos el segundo comunicado de la construcción para el mismo. Ahora, con la próxima versión nueva que están planeando para agregar una nueva función para actualizaciones de Firefox. Al igual que Adobe o el navegador Chrome, Mozilla tiene la intención de traer a la función de silencio actualización en la cuarta versión del navegador, y esta característica será exclusivo para la versión Windows de Firefox solamente.
firefox Silent Updates Coming to Mozilla Firefox
Para Firefox 4 actualizaciones menores se producirá de forma automática. Los usuarios pueden cambiar la configuración en Opciones> Avanzado> Actualizar. Sólo vamos a estar utilizando el cuadro de diálogo actualización importante para los cambios como 4 a 4,5 o 5. Desafortunadamente los usuarios seguirán viendo la barra de progreso de actualización en la carga, pero esto es un problema de implementación en comparación con una interfaz de usuario de un (a ser posible la actualización podría aplicarse en el fondo). También podrá solicitar al usuario si no se han reiniciado en un tiempo muy largo y hay una vulnerabilidad de seguridad en particular, mal que necesitan ser parcheados, dice Alex Faaborg, un ingeniero de Mozilla.


Estoy trabajando en actualizaciones en silencio aunque no puede hacer que Firefox 4. En cuanto a la «forzada» de actualización (como la actualización de Chrome y otros muchos sistemas de actualización antes de Chrome) Chrome logra esto, en parte, al obligar a la instalación de Chrome en el perfil del usuario que tiene un conjunto de cuestiones relacionadas con él que no quiere tienen por lo que no está tomando ese camino, dijo Robert fuerte de la Fundación Mozilla.

La mayoría de las actualizaciones, incluyendo todas las actualizaciones de seguridad, se descargan e instalan automáticamente sin preguntar al usuario o que requieren una confirmación.
Mozilla considera que la mayoría de los usuarios prefieren una aplicación que no les molesta lo que ven como los pequeños detalles, donde un pequeño detalle es una actualización menor, y por lo tanto las razones para ir para estar actualizado en silencio.
Pero para aquellos que no quieren actualizaciones automáticas que pueden elegir según sus necesidades, lo cual es bueno porque hay gente los desea que esta nueva característica, y también los que piensan lo contrario.


ARTURO LUGO-apocusant

lunes, 9 de agosto de 2010

La seguridad de los navegadores web no es suficiente



Estudio sobre la seguridad de los navegadores, Firefox no es tan seguro como se piensa.




Un estudio de seguridad sobre los navegadores más populares (Chrome, Internet Explorer, Safari, Opera y Firefox) en Windows Vista y 7. Este estudio corría a cargo de Chema Alonso, un importante experto en seguridad, y MVP de Microsoft. Al contrario que anteriores estudios de Microsoft, como este o este otro, muy poco objetivos y bastante cuestionables, este no sólo está muy bien fundamentado sino también bien explicado. Aquí va un pequeño resumen de lo que podemos encontrar.

El primer aspecto que se compara es el uso que hacen los navegadores de las características de seguridad propias del SO. Estas son DEP, ASLR, Virtual Store, la arquitectura (monoproceso o multiproceso) y el MIC (Mandatory Integrity Control, similar a los privilegios de usuario en Linux). IE es el único que las integra todas, seguido por Chrome, que sólo carece de la Virtual Store. El p*eor parado es Firefox*, que sólo integra DEP y ASLR.
En cuanto a las características de seguridad propias, vemos que IE es el único con un filtro XSS integrado, aunque existe también el addon Noscript, cuya funcionalidad es la misma. Otra característica es la etiqueta X-FRAME-OPTIONS, soportada por todos menos por Firefox (*Actualización*: lo soporta gracias al addon NoScript) y que evita ataques de clickjacking. Para los que no sepan que es esto, es una técnica bastante curiosa, que consiste en la carga de un Iframe que contiene una página legal (Twitter o Google, por ejemplo) dentro de una página maliciosa. La página parece normal a primera vista, pero cuando se hace click en un punto, no se hace click en el elemento de la página real, sino en una capa invisible de Javascript que graba las pulsaciones del usuario.
Si nos vamos a la parte de SSL, todos los navegadores cuentan con el soporte correcto, incluido para certificados de validación extendida (aquellos expedidos por personas y con verificación de identidad del que lo pide). Sin embargo, cuando vemos el soporte de entidades que expiden certificados, nos encontramos con un pequeño problema. Sólo IE y Chrome reconocen a la FNMT, la entidad que expide los certificados SSL para organismos oficiales en España (por ejemplo, para la renta o el DNIe). Lo mismo pasa con CATCert, el análogo de la FNMT en Cataluña, que sólo lo reconocen Safari, IE y Chrome.













 Otro aspecto son los filtros para URL maliciosas. Todos los navegadores cuentan con un filtro anti-phising y anti-malware, que se deben actualizar constatemente. En el estudio se comparó el tiempo que cada navegador tardaba en añadir una URL a sus filtros, y se comprobó como, mientras que los demás navegadores oscilan entre las 6 y 9 horas y las 14 de Chrome, Opera se aleja unos cuantos pueblos con 82 horas.

Y por último, llegamos a las vulnerabilidades. El que menos ha sufrido ha sido Opera, con 0,79 vulnerabilidades al més, y el que más, Firefox, con 6,3 vulnerabilidades al mes. En cuanto a los parches, Firefox tiene la mayor tasa de corrección (100%), y Opera la menor, con el 45,5% de vulnerabilidades corregidas. En el siguiente gráfico podéis ver las vulnerabilidades según el nivel de criticidad, en el que destaca Firefox con 56 vulnerabilidades “Highly Critical”, que conllevan acceso al sistema y ejecución de código arbitrario.












Como conclusión, queda Internet Explorer como el navegador más seguro, y Firefox con un importante varapalo en cuanto a seguridad, que veo que, por lo menos personalmente, se había sobreestimado hasta ahora en ese aspecto.
Desde mi punto de vista, Chrome es el que mejor parado sale para los usuarios comunes, ya que las diferencias con Internet Explorer no son muy notables en cuanto a seguridad, es más simple que éste, y además su seguridad se puede aumentar con complementos. Además, Chrome tiene a favor, que, al igual que Firefox y Opera, es multiplataforma.
Si queréis ver el documento completo, está colgado en Scribd, en el enlace inferior. Si tenes alguna duda, podés preguntar aquí o al principal autor del documento, Chema Alonso.
Lo vi en :
http://www.scribd.com/doc/30290132/Estudio-comparativo-de-seguridad-en-navegadores

************************
Mas información: sobre el tema:

La seguridad de los navegadores web no es suficiente

Un grupo de investigadores de la Universidad de Stanford realizó un estudio según el cual la navegación “privada y segura” por Internet no es posible con las opciones que ofrecen los navegadores más populares como Internet Explorer, Firefox, Safari y Chrome.
Navegar por Internet de forma privada y segura no es una opción al alcance de ningún internauta en la actualidad, ni siquiera configurando los controles de seguridad del navegador para ello, es la conclusión de los expertos en seguridad que analizaron los principales browsers de la web.
Internet Explorer, Firefox, Safari y Chrome ofrecen una protección débil en sus opciones de navegación segura, de acuerdo al informe, y muchas veces ni siquiera consiguen evitar que el historial de los usuarios sea expuesto.
El estudio también reveló que los navegadores son inconsistentes en la manera en que ofrecen la navegación privada. Por ejemplo, Firefox y Chrome protegen contra ataques web, pero Safari tan sólo lo hace contra el acceso local.
No obstante, los analistas de la Universidad de stanford aseveraron que los cuatro navegadores incurren en “violaciones de la privacidad”, y acusaron a Firefox en concreto de exponer bastantes detalles de la navegación y el usuario incluso en el modo seguro.
Además, los investigadores señalaron que los sistemas de navegación segura son un “campo de minas”, y que se necesita una serie de cambios para crear un entorno verdaderamente seguro.
Una de las sugerencias del grupo de expertos de Stanford es que los sitios web exhiban un sello para demostrar que respetan el modo seguro de los browsers, mientras que otra recomienda que los navegadores chequeen las páginas web comparándola con una “lista negra” que irá engrosándose a medida que aparezcan los fallos de seguridad.
Los investigadores de la Universidad de Stanford discutirán sus hallazgos en el Simposio de Seguridad Usenix la próxima semana en Washington
lo vi en : http://www.redusers.com

ARTURO LUGO-apocusant

domingo, 8 de agosto de 2010

QUE ES UNA VIRTUALIZACIÓN??

 Virtualización















Una máquina virtual nos permite tener varios ordenadores virtuales ejecutándose sobre el mismo ordenador físico.
 algo mas claro:




 segunda parte de este video sobre  VIRTUALIZACIÓN





En informática, virtualización se refiere a la abstracción de los recursos de una computadora, llamada Hypervisor o VMM (Virtual Machine Monitor) que crea una capa de abstracción entre el hardware de la máquina física (host) y el sistema operativo de la máquina virtual (virtual machine, guest), siendo un medio para crear una versión virtual de un dispositivo o recurso, como un servidor, un dispositivo de almacenamiento, una red o incluso un sistema operativo, donde se divide el recurso en uno o más entornos de ejecución.
Esta capa de software (VMM) maneja, gestiona y arbitra los cuatro recursos principales de una computadora (CPU, Memoria, Red, Almacenamiento) y así podrá repartir dinámicamente dichos recursos entre todas las máquinas virtuales definidas en el computador central. De modo que nos permite tener varios ordenadores virtuales ejecutándose sobre el mismo ordenador físico.
Tal término es antiguo; se viene usando desde 1960, y ha sido aplicado a diferentes aspectos y ámbitos de la informática, desde sistemas computacionales completos, hasta capacidades o componentes individuales. Lo más importante en este tema de virtualización es la de ocultar detalles técnicos a través de la encapsulación.
La virtualización se encarga de crear una interfaz externa que esconde una implementación subyacente mediante la combinación de recursos en localizaciones físicas diferentes, o por medio de la simplificación del sistema de control. Un avanzado desarrollo de nuevas plataformas y tecnologías de virtualización han hecho que se vuelva a prestar atención a este importante concepto. De modo similar al uso de términos como “abstracción” y “orientación a objetos”, virtualización es usado en muchos contextos diferentes.
Este concepto que es realmente interesante y que se lleva desarrollando desde hace muchos años, parece que finalmente está encontrando sus caminos productivos y de desarrollo para profesionales.
La máquina virtual en general es un sistema operativo completo que corre como si estuviera instalado en una plataforma de hardware autónoma. Típicamente muchas máquinas virtuales son simuladas en un computador central. Para que el sistema operativo “guest” funcione, la simulación debe ser lo suficientemente grande (siempre dependiendo del tipo de virtualización).















Virtualización de plataforma

Esta involucra la simulación de máquinas virtuales. La virtualización de plataforma se lleva a cabo en una plataforma de hardware mediante un software "host" (en castellano “anfitrión”), que es un programa de control que simula un entorno computacional (máquina virtual) para su software "guest" (en castellano "invitado"). Este software “guest”, que generalmente es un sistema operativo completo, se ejecuta como si estuviera instalado en una plataforma de hardware autónoma. Típicamente muchas máquinas virtuales son simuladas en una máquina física dada. Para que el sistema operativo “guest” funcione, la simulación debe ser lo suficientemente grande como para soportar todas las interfaces externas de los sistemas guest, las cuales se pueden incluir (todo esto dependiendo del tipo de virtualización) los drivers de hardware.
Tipos de Virtualización de plataforma
A continuación se enunciarán algunos tipos de virtualización.

Virtualización completa

Esta es en donde la máquina virtual simula un hardware suficiente para permitir un sistema operativo “guest” sin modificar (uno diseñado para la misma CPU) para correr de forma aislada. Típicamente, muchas instancias pueden correr al mismo tiempo. Este enfoque fue el pionero en 1966 con CP-40 y CP[-67]/CMS, predecesores de la familia de máquinas virtuales de IBM.

Ejemplos




  • VMware Workstation










  • VMware Server










  • VirtualBox










  • Parallels Desktop









  • Virtual Iron










  • Adeos









  • Mac-on-Linux










  • Win4BSD










  • Win4Lin Pro










  • y z/VM










  • openvz










  • Oracle VM









  • XenServer










  • Microsoft Virtual PC 2007










  • Hyper-V







  • Virtualización parcial

    “Address Space Virtualization”. La máquina virtual simula múltiples instancias de gran parte (pero no de todo) del entorno subyacente del hardware, particularmente address spaces. Tal entorno acepta compartir recursos y alojar procesos, pero no permite instancias separadas de sistemas operativos “guest”. Aunque no es vista como dentro de la categoría de máquina virtual, históricamente éste fue un importante acercamiento, y lo usaron en sistemas como CTSS, el experimental IBM M44/44X, y podría mencionarse que en sistemas como OS/VS1, OS/VS2 y MVS.

    Virtualización por S.O

    Virtualizar significa instalar un sistema operativo dentro de otro al que se le llama guest (invitado), mediante el uso de una máquina virtual. Frecuentemente denominada virtualización compartida del Sistema Operativo o virtualización del SO, la virtualización del Sistema Operativo virtualiza servidores en la capa del sistema operativo (kernel). Este método de virtualización crea particiones aisladas o entornos virtuales (VEs) en un único servidor físico e instancia de SO para así maximizar los esfuerzos de administración del hardware, software y centro de datos. La Virtualización de Hypervisor tiene una capa base (generalmente un kernel, Linux que se muestra aquí como un hypervisor o SO estándar) que se carga directamente en el servidor base. Para asignar hardware y recursos a las máquinas virtuales (VMs), es recomendable que todo el hardware del servidor esté virtualizado. La siguiente capa superior muestra cada chip, placa, etc. que debe virtualizarse para que así pueda ser asignado a las VMs. Una vez en la VM, hay un copia completa de un sistema operativo y finalmente la aplicación o carga de trabajo.
    La Virtualización de SO mejora el rendimiento, gestión y eficiencia. En la base reside un sistema operativo huésped estándar, en el caso de Parallels Virtuozzo que incluye Windows y Linux. A continuación encontramos la capa de virtualización, con un sistema de archivos propietario y una capa de abstracción de servicio de kernel que garantiza el aislamiento y seguridad de los recursos entre distintos contenedores. La capa de virtualización hace que cada uno de los contenedores aparezca como servidor autónomo. Finalmente, el contenedor aloja la aplicación o carga de trabajo.

    Diferencias entre virtualizar un Sistema operativo e instalarlo

    Virtualizar el sistema operativo es una opción interesante si no queremos instalar dos sistemas operativos en el mismo ordenador, pero si por el contrario lo que hacemos es instalarlo, todos los sistemas operativos que tengamos instalados funcionaran de la misma manera que si estuvieran instalados en distintos ordenadores.
    El único y pequeño inconveniente es que necesitamos un gestor de arranque que al encender nuestro ordenador nos de la opción de elegir que sistema operativo queremos utilizar, lo que conlleva a que si por ejemplo estamos en Windows y queremos cambiar a Linux deberíamos reiniciar nuestro ordenador. La virtualización por el contrario permite cambiar de sistema operativo como si se tratase de cualquier otro programa, sin embargo, esta agilidad tiene la desventaja de que un sistema operativo virtualizado no es tan potente como uno que ya estuviera instalado.

    Retos de la Virtualización





  • Índices de utilización más altos — Antes de la virtualización, los índices de utilización del servidor y almacenamiento en los centros de datos de la empresa rondaban menos del 50% (de hecho, del 10% al 15% de los índices de utilización fueron los mas comunes). A través de la virtualización, las cargas de trabajo pueden ser encapsuladas y transferidas a los sistemas inactivos o sin uso — lo cual significa que los sistemas existentes pueden ser consolidados, así que las compras de capacidad adicional del servidor pueden ser retrasadas o evitadas.











  • Consolidación de Recursos — La virtualización permite la consolidación de múltiples recursos de TI. Más allá de la consolidación de almacenamiento, la virtualización proporciona una oportunidad para consolidar la arquitectura de sistemas, infraestructura de aplicación, datos y base de datos, interfaces, redes, escritorios, e incluso procesos de negocios, resultando en ahorros de costo y mayor eficiencia.









  • Uso/costo menor energía — La electricidad requerida para que funcionen los centros de datos de clase empresarial ya no está disponible en suministros ilimitados, y el costo está en una espiral ascendente. Por cada dólar gastado en un servidor hardware, un dólar adicional es gastado en energía (incluyendo el costo de los servidores en función y los enfriadores). Utilizando virtualización para consolidar hace posible cortar el consumo total de energía y ahorrar dinero de una manera significativa.










  • Ahorros de espacio — La extensión del servidor permanece como un serio problema en la mayoría de los centros de datos empresariales, pero la expansión del centro de datos no es siempre una opción, con los costos de construcción promediando miles de dólares por pie cuadrado. La virtualización puede aliviar la tensión mediante la consolidación de muchos sistemas virtuales en menos sistemas físicos.










  • Recuperación de desastre/continuidad del negocio — La virtualización puede incrementar la disponibilidad de los índices del nivel de servicio en general y proporcionar nuevas opciones de soluciones para la recuperación de desastre.










  • Costos de operación reducidos — La empresa promedio gasta $8 dólares en mantenimiento por cada $1 dólar invertido en nueva infraestructura. La virtualización puede cambiar el radio de servicio-a administración reducir la total carga de trabajo administrativo, y cortar el total de costos de operación.





  • Ventajas de la Virtualización

    • Rápida incorporación de nuevos recursos para los servidores virtualizados.
    • Reducción de los costes de espacio y consumo necesario de forma proporcional al índice de consolidación logrado (Estimación media 10:1).
    • Administración global centralizada y simplificada.
    • Nos permite gestionar nuestro CPD como un pool de recursos o agrupación de toda la capacidad de procesamiento, memoria, red y almacenamiento disponible en nuestra infraestructura
    • Mejora en los procesos de clonación y copia de sistemas: Mayor facilidad para la creación de entornos de test que permiten poner en marcha nuevas aplicaciones sin impactar a la producción, agilizando el proceso de las pruebas.
    • Aislamiento: un fallo general de sistema de una máquina virtual no afecta al resto de máquinas virtuales.
    • Mejora de TCO y ROI.
    • No sólo aporta el beneficio directo en la reducción del hardware necesario, sino también los costes asociados.
    • Reduce los tiempos de parada.
    • Migración en caliente de máquinas virtuales (sin pérdida de servicio) de un servidor físico a otro, eliminando la necesidad de paradas planificadas por mantenimiento de los servidores físicos.
    • Balanceo dinámico de máquinas virtuales entre los servidores físicos que componen el pool de recursos, garantizando que cada máquina virtual ejecute en el servidor físico más adecuado y proporcionando un consumo de recursos homogéneo y óptimo en toda la infraestructura.
    • Alto grado de satisfacción general.

    Programas útiles para virtualizar sistemas operativos

    Como todos conocemos existen dos tipos de programas: los que son de pago y los que no. Dentro de los programas de pago encontramos uno de los más famosos: el VMware, que es uno de los referentes en el mercado. A pesar de ser de pago también existe una versión más básica que es gratuita, VMware Player, que permite virtualizar a través de una máquina virtual ya configurada. También existen webs que nos permiten rellenar un formulario y descargarnos nuestra máquina virtual a nuestro gusto como EasyVMX! Parallels Virtuozzo Containers, es otro de los programas de pago más famosos, que permite la virtualización a nivel de sistema operativo o hardware Parallels Bare Metal. Típicamente suele emplearse para virtualizar Windows y, en menor medida, GNU/Linux. Dentro de los programas gratuitos tenemos el Virtual PC de Microsoft, que es un producto de Windows, compatible con versiones avanzadas de XP y Vista.
    Dentro de los programas de código libre están el Xen, OpenVZ y VirtualBox, que funcionan tanto en Mac OS, en Windows como en GNU/Linux y todos permiten virtualizar los tres sistemas operativos más famosos.

    Tipos de virtualización

    La virtualización se puede hacer desde un sistema operativo Windows, ya sea XP, Vista u otra versión que sea compatible con el programa que utilicemos, en el que virtualizamos otro sistema operativo como Linux o viceversa, que tengamos instalado Linux y queramos virtualizar una versión de Windows

    Virtualización por HW (Hardware)

    Virtualización asistida por Hardware son extensiones introducidas en la arquitectura de procesador x86 para facilitar las tareas de virtualización al software corriendo sobre el sistema. Si cuatro son los niveles de privilegio o "anillos" de ejecución en esta arquitectura, desde el cero o de mayor privilegio, que se destina a las operaciones del kernel de SO, al tres, con privilegios menores que es el utilizado por los procesos de usuario, en esta nueva arquitectura se introduce un anillo interior o ring -1 que será el que un hypervisor o Virtual Machine Monitor usará para aislar todas las capas superiores de software de las operaciones de virtualización.

    La virtualización de almacenamiento

    Se refiere al proceso de abstraer el almacenamiento lógico del almacenamiento físico, y es comúnmente usado en SANs ("Storage Area Network" Red de área de almacenamiento). Los recursos de almacenamiento físicos son agregados al "storage pool" (almacén de almacenamiento), del cual es creado el almacenamiento lógico.

    Particionamiento

    Es la división de un solo recurso (casi siempre grande), como en espacio de disco o ancho de banda de la red, en un número más pequeño y con recursos del mismo tipo que son más fáciles de utilizar. Esto es muchas veces llamado “zoning”, especialmente en almacenamiento de red.

    Máquina virtual

    La entenderemos básicamente como un sistema de virtualización, denominado "virtualización de servidores", que dependiendo de la función que esta deba de desempeñar en la organización, todas ellas dependen del hardware y dispositivos físicos, pero casi siempre trabajan como modelos totalmente independientes de este. Cada una de ellas con sus propias CPUs virtuales, tarjetas de red, discos etc. Lo cual podría especificarse como una compartición de recursos locales físicos entre varios dispositivos virtuales

    Virtualización relacionada con el Green IT

    En estudios realizados[1] se han basado sobre el ahorro de energía que genera la empresa para sus clientes, muestra que las soluciones de virtualización reducen los costos económicos y emisiones de CO2.
    Esto se puede llevar acabo fusionando varias máquinas en un solo servidor, con lo que disminuyendo el consumo energético y los costos; ahorrando 7.000 kilovatios hora o cuatro toneladas de emisiones de CO2 al año. Los PCs virtualizados pueden reducir el consumo de energía y los costos en un 35 por ciento. hoy en día, la mayor parte consumen entre un 70 y un 80% de su energía estimada. Otra medida es la desconexión de los servidores y desktops durante los períodos de inactividad, como por la noche o los fines de semana, con lo que se puede ahorrar aproximadamente un 25 por ciento en su consumo energético. Las empresas hoy en día son las más interesadas en el tema de la virtualización, ya que para ellas es muy importante reducir costos y energía principalmente.
    La virtualización es un término amplio que se refiere a la abstracción de los recursos de un computador.
    El objetivo de virtualización es la de implementar una interfaz ocultando muchas veces los detalles técnicos, a través de la encapsulación y la abstracción. Por tanto, la virtualización crea una interfaz externo que esconde una implementación subyacente, que puede ser mediante la fragmentación de un recurso, por ejemplo, un procesador de tiempo compartido o un espacio de direcciones de memoria virtual, o sino también mediante la combinación de varios recursos físicos diferentes para ser usados como si fueran uno solo.
    • Virtualización de plataformas: consiste en separar un sistema operativo de los recursos de la plataforma subyacente
    • Virtualización de recursos: consiste en la virtualización de recursos específicos del sistema, como la memoria virtual, el almacenamiento virtual comúnmente usado en redes de almacenamiento (Storage Area Networks, SAN), las interfaces de red virtuales o las redes virtuales.
    En 1996 se utilizo el primer computador que utilizó virtualización completa. Era capaz de ejecutar 14 entornos virtuales, cada uno con un tamaño de memoria virtual de 256 K.
    En la virtualización completa se simula un hardware suficiente para permitir un sistema operativo huésped sin modificar,para correr de forma aislada.
    En la para-virtualización no se simula necesariamente un hardware, sino que se ofrece un API especial que sólo puede usarse mediante la modificación del sistema operativo huésped.
    La virtualización a nivel de sistema operativo consiste en virtualizar un servidor físico a nivel del sistema operativo permitiendo múltiples servidores virtuales aislados y seguros en un solo servidor físico.
    Con la virtualización de aplicaciones, las aplicaciones virtuales se ejecutan en un pequeño entorno virtual que actúa como una capa entre la aplicación y el sistema operativo, eliminando los conflictos entre aplicaciones y entre aplicaciones y el sistema operativo. La virtualización permite no solo el ahorro del consumo de energía, sino que también la disminución en la emisión de carbono

    Infraestructura Virtual

    Una infraestructura virtual consiste en el mapping dinámico de recursos físicos en función de las necesidades de la empresa. Una máquina virtual representa los recursos físicos de un único ordenador, mientras que una infraestructura virtual representa los recursos físicos de la totalidad del entorno de TI, aglutinando ordenadores x86, así como su red y almacenamiento asociados, en un pool unificado de recursos de TI.
    Estructuralmente, una infraestructura virtual consta de los siguientes componentes:
    • Hipervisor de un solo nodo para hacer posible la virtualización de todos los ordenadores x86.
    • Un conjunto de servicios de infraestructura de sistemas distribuida basada en la virtualización, como gestión de recursos, para optimizar los recursos disponibles entre las máquinas virtuales.
    • Soluciones de automatización que proporcionen capacidades especiales para optimizar un proceso de TI concreto, como provisioning o recuperación ante desastres. Mediante la separación de la totalidad del entorno de software de su infraestructura de hardware subyacente, la virtualización hace posible la reunión de varios servidores, estructuras de almacenamiento y redes en pools compartidos de recursos que se pueden asignar de forma dinámica, segura y fiable a las aplicaciones según sea necesario. Este enfoque innovador permite a las organizaciones crear una infraestructura informática con altos niveles de utilización, disponibilidad, automatización y flexibilidad utilizando componentes básicos de servidores económicos y estándar del sector

    Ventajas de la Infraestructura Virtual

    Las soluciones de infraestructura virtual son ideales para entornos de producción en parte debido a que se ejecutan en servidores y escritorios estándar de la industria y son compatibles con una amplia gama de sistemas operativos y entornos de aplicación, así como de infraestructuras de red y almacenamiento. Se han diseñado las soluciones para que funcionen de manera independiente del hardware y del sistema operativo y poder brindar a los clientes amplias posibilidades de elección de plataforma. Como resultado, son soluciones que proporcionan un punto de integración clave para los proveedores de hardware y gestión de infraestructuras de cara a ofrecer un valor único y aplicable por igual en todos los entornos de aplicación y sistemas operativos.
    Las empresas que han adoptado estas soluciones de infraestructura virtual nos han comunicado unos clarísimos resultados positivos, entre ellos:
    • Índices de utilización del 60 al 80% para servidores x86 (frente al 5 a 15% en hardware no virtualizado)
    • Capacidad para el provisioning de nuevas aplicaciones en cuestión de minutos, en lugar de días o semanas
    • 85% de mejora en tiempo de recuperación de paradas imprevistas

    Referencias

    un poco mas:

    VMware cambiara el modelo de licenciamiento

    Ciertamente y, a medida que el tema del clould computing se convierte en un estándar mas en los entornos de TI, cada vez más es necesario la gestión global a nivel de máquina virtual (MV), en lugar de la gestión individual del hardware físico donde estas MVs residen.
    Siendo ahora las máquinas virtuales, la nueva unidad de gestión – o al menos eso el lo que se pretende -, las empresas de TI necesitan un nuevo modelo – flexible, con opciones, que se ajuste a las exigencias del nuevo modelo – con el que puedan desplegar y configurar estas licencias.
    Particularmente algunos productos de VMware vCenter pasaran de licenciarse por procesador o socket a licencias por máquina virtual. Asimismo, otros productos VMware vCenter continuarán siendo vendidos bajo el modelo de licenciamiento existente, es decir, por procesador o socket.
    A continuación te muestro los productos que cambiaran el modelo de licenciamiento:
    • vCenter AppSpeed
    • vCenter CapacityIQ
    • vCenter Chargeback
    • vCenter Site Recovery Manager
    Asimismo los productos siguientes no sufrirán ningún cambio en el modelo de licenciamiento:
    • VMware vSphere
    • vCenter Server
    • vCenter Server Hearbeat – a quien le importa!?
    • vCenter Lab Manager
    • vCenter Lifecycle Manager
    Ya hora aquí va la pregunta: Que pasa si previamente has adquirido licencias por procesador para AppSpeed vCenter, vCenter CapacityIQ, vCenter Chargeback o vCenter vCenter Site Recovery Manager?
    Pues bien, VMware te ofrecerá un plan de transición que te permitirá cambiar tus licencias actuales – por procesador – al nuevo modelo de licencias basado en máquina virtual por licencia.
    Por consiguiente, si poses licencias por procesador de los productos mencionados, a partir del 01 de septiembre del 2010 podrás hacer la conversión a licencias por máquina virtual.

    fuentes: www.wikipedia
                http://www.josemariagonzalez.es/category/vmware/virtualizacion-vmware

    ARTURO LUGO-apocusant