El prototipo de tablet de Nvidia tiene muy buena pinta
Posted using ShareThis
20 may 2010
13 may 2010
22 abr 2010
Tablet 2go PC Slate
Después de haber visto las maravillas y el éxito tan rotundo que ha tenido el iPad de Apple en estos ultimo días, la marca CTL ha decidido también pegarse un poco a este campo y ha mostrado algunos detalles de lo que sería su primer equipo tipo Tablet denominado CTL 2go.
El CTL 2go es alimentado por un procesador Intel Atom N450 de 1.66 GHz, y está basado en el sistema operativo Windows 7. Aunque la maquina CTL 2go no tiene un servicio disponible como AppStore para jactarse entre sí, este sí cuenta con unas especificaciones técnicas bastante decentes e interesantes.
Las principales características incluyen: memoria RAM de hasta 2 GB, cámara web de 2 MP, pantalla multi-táctil con resolución de 1024 x 600 pixeles, soporte para flash, 2 puertos USB, un puerto Ethernet, modulo inalámbrico Wi-Fi, altavoces y un puerto mini VGA.
Lo que diferencia a esta Tablet de las demás, es que ofrece la versión completa del sistema operativo Windows 7, lo que significa que el usuario puede obtener sin ningún problema la edición Home Premium o la versión Professional.
Después del salto podrás ver un video de este Slate, que como lees, no es más que un netbook sin teclado físico. Si te has quedado intrigado con lo que se ve en la foto superior, esa interfaz en el 2go es la Blue Dolphin de Intel, implementada también en los Classmate PCs. El CTL 2go estará disponible en junio con un precio de $499 dólares.
20 abr 2010
Intel fabrica procesadores experimentales de 48 núcleos
Durante años, la carrera entre los fabricantes de microprocesadores se centraba en quien era capaz de desarrollar mayor velocidad de reloj. La pelea estaba en los gigaherzios. Sin embargo, ese camino llegó a su fin con el fracaso de la arquitectura NetBurst, con la que se alcanzó el récord 3,8GHz en los Pentium 4 a costa de un consumo enorme y un excesivo calentamiento del chip. El éxito de los microprocesadores de AMD de la época, con una velocidad de reloj mucho menor, provocó un cambio de filosofía orientada a incrementar el número de núcleos.
Así, Intel pergeñó la arquitectura Core, que al contrario de lo que cabría pensar no era la que se utilizó con los procesadores Core, sino los Core 2, que tiene modelos de hasta seis núcleos, y actualmente dispone de productos de arquitectura Nehalem, su sucesora. AMD ha seguido un camino similar.
Sin embargo, los procesadores de varios núcleos no están exentos de problemas. Las aplicaciones suelen estar diseñadas para trabajar con un solo núcleo, y la presencia de varios de ellos suele terminar en que se usen uno o dos dependiendo de los programas con los que estamos trabajando y otros sigan ociosos. De ahí que Intel tenga interés en que el mundo académico avance en el camino de la programación concurrente y así aprovechar más la capacidad de los nuevos microprocesadores.
En este contexto se explica la producción de un número limitado de procesadores de 48 núcleos y su envío a distintos centros de investigación, según informa PC World. Cada uno de los núcleos opera a la velocidad de reloj de los microprocesadores Atom, enfocados a los netbooks. La arquitectura incluye mejoras para solucionar los cuellos de botella que actualmente se producen en la comunicación y el acceso a memoria de los núcleos en los chips que se comercializan ahora. Dispone de 24 pequeños encaminadores para acelerar el intercambio de datos entre los núcleos, además de incluir un buffer para pasar datos a varios núcleos a la vez.
Una de sus mejoras es la rapidez con la que puede gestionar el "apagado" de núcleos inactivos dependiendo de las necesidades de la aplicación que se esté ejecutando, con el consiguiente ahorro de energía y menor emisión de calor. Según Sean Koehl, portavoz tecnológico de Intel Labs, aunque los microprocesadores no se van a comercializar, algunas de las tecnologías que incorporan se introducirán en los próximos micros de la empresa.
Así, Intel pergeñó la arquitectura Core, que al contrario de lo que cabría pensar no era la que se utilizó con los procesadores Core, sino los Core 2, que tiene modelos de hasta seis núcleos, y actualmente dispone de productos de arquitectura Nehalem, su sucesora. AMD ha seguido un camino similar.
Sin embargo, los procesadores de varios núcleos no están exentos de problemas. Las aplicaciones suelen estar diseñadas para trabajar con un solo núcleo, y la presencia de varios de ellos suele terminar en que se usen uno o dos dependiendo de los programas con los que estamos trabajando y otros sigan ociosos. De ahí que Intel tenga interés en que el mundo académico avance en el camino de la programación concurrente y así aprovechar más la capacidad de los nuevos microprocesadores.
En este contexto se explica la producción de un número limitado de procesadores de 48 núcleos y su envío a distintos centros de investigación, según informa PC World. Cada uno de los núcleos opera a la velocidad de reloj de los microprocesadores Atom, enfocados a los netbooks. La arquitectura incluye mejoras para solucionar los cuellos de botella que actualmente se producen en la comunicación y el acceso a memoria de los núcleos en los chips que se comercializan ahora. Dispone de 24 pequeños encaminadores para acelerar el intercambio de datos entre los núcleos, además de incluir un buffer para pasar datos a varios núcleos a la vez.
Una de sus mejoras es la rapidez con la que puede gestionar el "apagado" de núcleos inactivos dependiendo de las necesidades de la aplicación que se esté ejecutando, con el consiguiente ahorro de energía y menor emisión de calor. Según Sean Koehl, portavoz tecnológico de Intel Labs, aunque los microprocesadores no se van a comercializar, algunas de las tecnologías que incorporan se introducirán en los próximos micros de la empresa.
7 abr 2010
Microsoft renombra Windows Phone Series 7
La compañía ha anunciado que, finalmente,su plataforma móvil, que se lanzará a finales de año, se llamará simplemente Windows Phone 7.
Microsoft ha dado una vuelta de tuerca a su próximo sistema operativo móvil y ha decidido modificar su denominación para hacerla más simplificada. Así, Windows Phone Series 7, que se presentó bajo esta denominación en febrero en el marco del Mobile World Congress, se pasa a llamar sencillamente Windows Phone 7.
La compañía de Redmond ha anunciado este fin de semana la exclusión de la palabra “series” a través de un tweet en la cuenta oficial en Twitter de la plataforma.
El nuevo nombre ha causado algunas críticas, ya que Microsoft había invertido ingentes esfuerzos en marketing al transformar su tradicional “Windows Mobile” en “Windows Phone Series”. Como motor del cambio se arguye la facilidad y practicidad que un nombre más corto tiene para ser utilizado por fabricantes, desarrolladores y consumidores.
No obstante, el futuro del sistema dependerá menos de su denominación y más de su buen hacer y su adopción entre los usuarios cuando comience a incorporarse en algunos terminales a finales de 2010.
Microsoft anunció también hace varias semanas que una vez se lance su nuevo producto el anterior SO, Windows Mobile 6.5, quien se espera que conviva con la moderna plataforma colmando un segmento más profesional, será renombrado comoWindows Phone Classic.
31 mar 2010
La respuesta de AMD a los INTEL i7 980X

En entradas posteriores se hará una presentación y se enlazará a algunas reviews del nuevo microprocesador de INTEL, el ya mencionado i7 980X (6 núcleos), que ya se encuentra a la venta.
La respuesta de AMD no se ha hecho esperar, y se ha programado para el 27 del mes de abril la salida de dos procesadores de seis núcleos también: Phenom II x6 1090T Black Edition y el Phenom II x6 1055T. Correspondería a la serie llamada generalmente Thuban.
Entre las bondades del Phenom II x6 1090T Black Edition encontramos:
* 6 núcleos a una velocidad de 3200 MHz cada uno.
* Una opción "Turbo" que sube la velocidad hasta los 3600 MHz (solo un núcleo).
* 6x512kb L2 Cache
* 6 MB de caché L3
* Multiplicador desbloqueado (está por confirmar, pero si hacemos caso a su nombre sí que lo estará).
* Soporte DDR2 y DDR3
* Construido en 45 nm.
* Y unos requerimientos energéticos de sólo 125 vatios.
* Su precio se estima sobre unos 290€.
Por debajo de este, se encuentra el Phenom II x6 1055T del que pasamos a enumerar sus características principales:
* 6 núcleos corriendo a 2800 MHz.
* El modo "turbo" lo hace subir hasta los 3300 MHz.
* 6x512kb L2 Cache.
* 6 MB de caché L3.
* Soporte DDR2 y DDR3.
* Construido en 45 nm.
* 125W TDP.
* Valor aproximado 200€.
Se rumorea, que AMD se ha guardado la numeración "Phenom II x6 1095T Black Edition" para una posible nueva salida, en el tercer trimestre del año, de un nuevo procesador y así seguir siendo competitivos a lo largo de todo el 2010.
Aquí el roadmap (hoja de ruta) de AMD en cuanto a procesadores:
30 mar 2010
Los rumores de un nuevo iPhone giran en torno a Apple
Según The Wall Street Journal , la compañía liderada por Steve Jobs estaría enfocada en la producción de una renovada versión de su teléfono celular; voceros de las empresas involucradas no realizaron comentarios al respecto
SAN FRANCISCO (REUTERS) - Apple parece estar trabajando en un nuevo modelo de iPhone para el principal operador de telefonía móvil de Estados Unidos, Verizon Wireless, según reportes del diario The Wall Street Journal .
De esta forma la compañía liderada por Steve Jobs, que actualmente tiene un acuerdo de exclusividad con AT&T para vender iPhones en Estados Unidos, estaría trabajando en un iPhone compatible con la red CDMA de Verizon, reportó el diario, citando personas con conocimiento del asunto
Una portavoz de Apple dijo que la empresa no comenta rumores y especulaciones. Por su parte, Verizon Wireless no quiso realizar comentarios al respecto.
Al ser consultado sobre el reporte, un portavoz de AT&T dijo: "Tenemos una gran relación con Apple y no comentamos sobre asuntos específicos de esa relación".
El contratista de manufacturas Pegatron comenzará a producir iPhones compatibles con CDMA en septiembre, dijo el reporte, que citó a una persona familiarizada con el asunto. Sin embargo, no se detalla de forma clara cuándo Apple comenzará a vender el modelo.
SAN FRANCISCO (REUTERS) - Apple parece estar trabajando en un nuevo modelo de iPhone para el principal operador de telefonía móvil de Estados Unidos, Verizon Wireless, según reportes del diario The Wall Street Journal .
De esta forma la compañía liderada por Steve Jobs, que actualmente tiene un acuerdo de exclusividad con AT&T para vender iPhones en Estados Unidos, estaría trabajando en un iPhone compatible con la red CDMA de Verizon, reportó el diario, citando personas con conocimiento del asunto
Una portavoz de Apple dijo que la empresa no comenta rumores y especulaciones. Por su parte, Verizon Wireless no quiso realizar comentarios al respecto.
Al ser consultado sobre el reporte, un portavoz de AT&T dijo: "Tenemos una gran relación con Apple y no comentamos sobre asuntos específicos de esa relación".
El contratista de manufacturas Pegatron comenzará a producir iPhones compatibles con CDMA en septiembre, dijo el reporte, que citó a una persona familiarizada con el asunto. Sin embargo, no se detalla de forma clara cuándo Apple comenzará a vender el modelo.
Fuente
25 mar 2010
"asistencia remota" windows messenger
En este artículo paso a paso se describe cómo utilizar Windows Messenger para obtener ayuda mediante la función Asistencia remota de Windows XP. Con Asistencia remota puede permitir que otro usuario establezca una conexión remota a su equipo, que puede utilizar para ver la pantalla de su equipo, participar en una charla en tiempo real y, con su permiso, controlar de forma remota su equipo.
Cómo obtener ayuda mediante Asistencia remota
Para poder utilizar Asistencia remota deben cumplirse los requisitos siguientes:
Tanto el equipo local como el equipo remoto deben utilizar Windows Messenger o un programa de correo electrónico compatible con la Interfaz de programación de aplicaciones de mensajería (MAPI), como Microsoft Outlook o Outlook Express.
Ambos equipos deben estar conectados a Internet mientras utilizan Asistencia remota.
NOTA: si su equipo está detrás de un servidor de seguridad, quizás tenga que volver a configurar el servidor de seguridad para permitir Asistencia remota. Póngase en contacto con el administrador de la red antes de utilizar Asistencia remota.
Para obtener ayuda de cómo utilizar Asistencia remota:
Conéctese a Internet y suscríbase a Windows Messenger.
Haga clic en Inicio y, a continuación, haga clic en Ayuda y soporte técnico.
En Pedir asistencia, haga clic en Invitar a un amigo para que se conecte a su equipo a través de Asistencia remota.
En Asistencia remota, haga clic en Invitar a alguien para que le ayude.
En Utilizar Windows Messenger, haga clic en el contacto al que desee invitar y, después, haga clic en Invitar a esta persona.
NOTA: el contacto al que desea invitar debe estar en conexión.
Recibirá el siguiente mensaje, donde Ayudante es el nombre del ayudante al que invitó:
Invitando a su Ayudante para que se conecte a su equipo. Espere su respuesta...
Invitación aceptada...
Una vez que el ayudante remoto acepte su invitación, haga clic en Sí cuando reciba el mensaje siguiente:
Ayudante ha aceptado la invitación de Asistencia remota y está listo para
conectarse a su equipo.
¿Desea permitir a esta persona ver su pantalla y charlar con usted?
Si el ayudante remoto desea controlar de manera remota el equipo, haga clic en Sí para aceptar la solicitud cuando reciba el mensaje siguiente, donde Ayudante es el nombre del ayudante remoto:
Ayudante desea compartir el control de su equipo para ayudarle a resolver el
problema.
¿Desea permitir que Ayudante comparta el control de su equipo?
Ahora el ayudante remoto puede controlar su equipo de manera remota. Esto incluye la posibilidad de apagar el equipo.
NOTA: no utilice el mouse (ratón) mientras el ayudante remoto controla el equipo.
Volver al principio
Funciones de Asistencia remota
Utilice las siguientes funciones del cuadro de diálogo Asistencia remota para participar en la sesión de asistencia remota:
El cuadro Estado de la conexión, que incluye la siguiente información:
El nombre del ayudante.
Si está conectado o desconectado.
Los privilegios del ayudante durante esta sesión. Por ejemplo, Sólo vista en pantalla.
El botón Detener control (ESC):
Presione la tecla ESC para que el equipo deje de estar controlado de manera remota. Cuando presione ESC recibirá el mensaje siguiente, donde Nombre de usuario es el nombre del usuario que ha iniciado sesión y Ayudante es el nombre del ayudante remoto:
Nombre de usuario o Ayudante ha detenido el control remoto
presionando la tecla ESC, o una secuencia o combinación de teclas
que incluyen la tecla ESC.
El botón Enviar un archivo:
Haga clic en este botón para iniciar las transferencias de archivos entre el equipo local y el equipo remoto.
El botón Iniciar charla:
Haga clic en este botón para iniciar la charla de voz con el ayudante remoto.
El botón Configuración:
Haga clic en este botón para ajustar la configuración de calidad según la velocidad de conexión que tenga.
El botón Desconectar:
Haga clic en este botón para terminar la sesión de Asistencia remota.
El botón Ayuda:
Haga clic en este botón para ver ayuda de Asistencia remota.
El cuadro Entrada de mensaje:
Utilice este cuadro para escribir mensajes al ayudante remoto en tiempo real. Haga clic en el botón Enviar o presione ENTRAR para enviar el mensaje.
La ventana Historial de Chat:
Esta ventana graba los mensajes de texto intercambiados entre usted y el ayudante remoto.
Volver al principio
Solución de problemas
La posibilidad de controlar el equipo de manera remota está deshabilitada de forma predeterminada:
Cuando el ayudante remoto intenta controlar de manera remota el equipo, aparece el mensaje siguiente:
No está permitido el control remoto en este equipo.
Para resolver este problema, configure el equipo para que se pueda controlar de manera remota.
NOTA: debe ser miembro del grupo local Administradores para poder realizar este procedimiento.
Haga clic en Inicio y, a continuación, en Panel de control.
En Elija una categoría, haga clic en Rendimiento y mantenimiento.
En o elija un icono del Panel de control, haga clic en Sistema.
Haga clic en la ficha Remoto y, a continuación, haga clic para seleccionar el botón Opciones avanzadas bajo Asistencia remota.
En Control remoto, haga clic para activar la casilla de verificación Permitir que este equipo esté controlado remotamente y, después, haga clic en Aceptar.
En el cuadro de diálogo Propiedades de Sistema, haga clic en Aceptar.
Control remoto está habilitado ahora. Tenga en cuenta que todavía debe permitir expresamente el control remoto de su equipo en cada sesión de Asistencia remota.
Parece que el equipo deja de responder:
Cuando utiliza Asistencia remota a través de una conexión telefónica, puede parecer que el equipo deja de responder (se bloquea) o puede responder muy despacio. Este comportamiento puede deberse a la baja velocidad de la conexión a Internet. Para conseguir los mejores resultados, utilice Asistencia remota a través de una conexión a Internet de alta velocidad.
Asistencia remota permite el acceso a datos confidenciales:
El ayudante remoto puede ver la información de su equipo y, con su permiso, puede tener acceso a ella. Por esta razón, invite únicamente a personas de confianza para que le ayuden de forma remota.
24 mar 2010
Dropbox para Android está a la vuelta de la esquina
Una de las razones por la que Dropbox se ha hecho tan popular como herramienta de sincronización es porque ha puesto un fuerte énfasis en el soporte para múltiples plataformas. No sólo se han quedado con Linux, Mac y Windows, sino que también ha incursionado en plataformas móviles, ya sea con una versión web especial, o a través de clientes.
Por eso mismo, muchos tenían la impresión de que los de Dropbox se estaban tardando mucho en lanzar una aplicación para Android, que después de todo es una plataforma mucho más abierta que el iPhone OS, por lo que cuesta menos trabajo publicar un cliente para esta.
Por suerte, la espera se acerca a su fin. Seña de eso es que hoy en el blog oficial de Dropbox se han publicado una serie de capturas que nos muestran como será la App de Dropbox para el SO móvil de Google. Al parecer contará con *casi las mismas funciones que el cliente para iPhone*, entiéndase, acceso completo a los ficheros almacenados en Dropbox, streaming de archivos de música y video, posibilidad de descargar ciertos ficheros para acceder a ellos en modo offline, etc.
De acuerdo al mismo post oficial, la aplicación verá la luz dentro de los próximos dos meses. De aquí hasta entonces tenemos que conformarnos con la siguiente galería de capturas en alta resolución.
Fuente
13 mar 2010
¿Por qué la gente elige Chrome?
Chrome es el nuevo niño mimado de la red; todos hablan de él y todos lo hacen muy bien. Hasta el día de hoy he oído muy pocas personas que se atrevan a romper con el discurso casi hegemónico sobre las bondades de este nuevo browser. ¿Y porque todos hablan de él? Por que en teoría es el nuevo mejor navegador del mundo.
Si hay un niño mimado es porque hay uno (o varios) niños poco agraciados. El otrora amado Firefox esta siendo (en el mundo de la bloggosfera obviamente) desplazado lentamente por este nuevo e innovador competidor. Dicen que consume muchísimos recursos, que cada vez es más inestable y que perdió la chispa de la innovación. Lo cierto es que antes de la salida de Chrome, Firefox era el favorito de todos, hecho que cambio drásticamente.
¿Por qué podemos pensar que muchos usuarios se pasaron al lado oscuro del open source? Son varias las respuestas que pueden surgir. Podemos creer que realmente un grupo de personas siente que su Firefox anda terriblemente mal y que antes de la salida de Chrome no tenia otra opción: Internet Explorer ni pensarlo y Opera sigue siendo muy sectista.
También podemos decir que muchos dieron el gran salto solo por el simple hecho de creer que Google hace todo absolutamente bien. Tienen un excelente buscador, el mejor servicio de correo, un gran sistema operativo móvil y, ¿porque no un genial y cool navegador?
Otro punto a tener en cuenta es la tremenda publicidad que tiene Chrome en todos los sitios de Google. Youtube es el sitio que genera el 20% del trafico de internet y teniendo un anuncio del navegador ahí, es seguro que va a conseguir descargas. Y no sólo en la Web, sino en muchas ciudades de Europa y los Estados Unidos Google a puesto publicidad en las calles.
Use sólo una vez Chrome y espero no volver a usarlo nunca más. Al abrir seis pestañas en mi Ubuntu con 512 MB de RAM, con un procesador AMD Athlon, se colgó de una manera terrible, cosa que no pasaba con Firefox 3.5. Admito que el tiempo de inicio fue más rápido, aunque eso no me parece tan importante. Y también admito que antes de que salga Firefox 3.5 tenia ganas de matar a los de Mozilla, me venia andando muy mal su browser. Pero desde la versión 3.5 en adelante cada día me anda mejor y el consumo de memoria RAM y CPU no es excesivo (por lo menos en mi caso)
No quiero armar una flamewar pero opino (recuerden que las opiniones son personales) que mucha de la fama que tiene Chrome se debe al simple hecho de que Google lo creó. Mi experiencia personal con Chrome fue desastrosa y no me imagino navegar sin Firefox y sus extensiones. Por lo general uso entre seis y diez addons y el rendimiento nunca empeoro.
¿Ustedes que opinan? ¿Es Chrome el nuevo niño mimado de la Web? ¿Realmente es tan bueno como dicen? ¿Tan malas experiencias tuvieron con Firefox que debieron migrar? ¿Migraron desde otro navegador hacia Chrome? Me gustaría leer las opiniones de todos los lectores (la miá sólo vale del lado de Firefox) que utilicen uno u otro navegador. ¡Recuerden que esto no es para atacar a nadie, así que los trolls pueden abstenerse!
Este artículo fue copiado de ¿Por qué la gente elige Chrome?
Visita el sitio origianl para más información
También puedes visitar 140GEEK
Si hay un niño mimado es porque hay uno (o varios) niños poco agraciados. El otrora amado Firefox esta siendo (en el mundo de la bloggosfera obviamente) desplazado lentamente por este nuevo e innovador competidor. Dicen que consume muchísimos recursos, que cada vez es más inestable y que perdió la chispa de la innovación. Lo cierto es que antes de la salida de Chrome, Firefox era el favorito de todos, hecho que cambio drásticamente.
¿Por qué podemos pensar que muchos usuarios se pasaron al lado oscuro del open source? Son varias las respuestas que pueden surgir. Podemos creer que realmente un grupo de personas siente que su Firefox anda terriblemente mal y que antes de la salida de Chrome no tenia otra opción: Internet Explorer ni pensarlo y Opera sigue siendo muy sectista.
También podemos decir que muchos dieron el gran salto solo por el simple hecho de creer que Google hace todo absolutamente bien. Tienen un excelente buscador, el mejor servicio de correo, un gran sistema operativo móvil y, ¿porque no un genial y cool navegador?
Otro punto a tener en cuenta es la tremenda publicidad que tiene Chrome en todos los sitios de Google. Youtube es el sitio que genera el 20% del trafico de internet y teniendo un anuncio del navegador ahí, es seguro que va a conseguir descargas. Y no sólo en la Web, sino en muchas ciudades de Europa y los Estados Unidos Google a puesto publicidad en las calles.
Use sólo una vez Chrome y espero no volver a usarlo nunca más. Al abrir seis pestañas en mi Ubuntu con 512 MB de RAM, con un procesador AMD Athlon, se colgó de una manera terrible, cosa que no pasaba con Firefox 3.5. Admito que el tiempo de inicio fue más rápido, aunque eso no me parece tan importante. Y también admito que antes de que salga Firefox 3.5 tenia ganas de matar a los de Mozilla, me venia andando muy mal su browser. Pero desde la versión 3.5 en adelante cada día me anda mejor y el consumo de memoria RAM y CPU no es excesivo (por lo menos en mi caso)
No quiero armar una flamewar pero opino (recuerden que las opiniones son personales) que mucha de la fama que tiene Chrome se debe al simple hecho de que Google lo creó. Mi experiencia personal con Chrome fue desastrosa y no me imagino navegar sin Firefox y sus extensiones. Por lo general uso entre seis y diez addons y el rendimiento nunca empeoro.
¿Ustedes que opinan? ¿Es Chrome el nuevo niño mimado de la Web? ¿Realmente es tan bueno como dicen? ¿Tan malas experiencias tuvieron con Firefox que debieron migrar? ¿Migraron desde otro navegador hacia Chrome? Me gustaría leer las opiniones de todos los lectores (la miá sólo vale del lado de Firefox) que utilicen uno u otro navegador. ¡Recuerden que esto no es para atacar a nadie, así que los trolls pueden abstenerse!
Este artículo fue copiado de ¿Por qué la gente elige Chrome?
Visita el sitio origianl para más información
También puedes visitar 140GEEK
11 mar 2010
Skype en televisores de Samsung, Panasonic y LG
Las pantallas LED de Samsung con alta definición se venden en corea, con estas pantallas ya se pueden realizar llamadas de video o voz, durante este año 2010 serán distribuidas por todo el mundo, Skype y Samsung firmaron el acuerdo integrando esta tecnología de llamadas.
Con estos televisores LED, que tienen un menor consumo y una magnifica calidad de imagen, los nuevos usuarios podrán accesar al Skype como en la Web, navegar, crear cuentas y hacer las llamadas de video o voz.
Samsung no es la única empresa con este servicio integrado, ya se han sumado Panasonic y LG, estos saldrán a la venta a mediados del año en curso. Los modelos tendrán un medida de entre 32 y 55 pulgadas su precio rondaria en unos 1,300 a 3,300 dólares aproximadamente.
Fuente: http://webentorno.blogspot.com/2010/03/skype-en-televisores-de-samsung.html
Con estos televisores LED, que tienen un menor consumo y una magnifica calidad de imagen, los nuevos usuarios podrán accesar al Skype como en la Web, navegar, crear cuentas y hacer las llamadas de video o voz.
Samsung no es la única empresa con este servicio integrado, ya se han sumado Panasonic y LG, estos saldrán a la venta a mediados del año en curso. Los modelos tendrán un medida de entre 32 y 55 pulgadas su precio rondaria en unos 1,300 a 3,300 dólares aproximadamente.
Fuente: http://webentorno.blogspot.com/2010/03/skype-en-televisores-de-samsung.html
23 feb 2010
El fenómeno de las netbooks
- Carlos A. Pérez
Hace algún tiempo, justamente en Buenos Aires durante la VII CIITI donde fuimos panelistas, estábamos escuchando al representante de Microsoft arrojar a la audiencia un dato inquietante: “no sé si la audiencia lo habrá notado, pero los microprocesadores están alcanzando un límite fisico de rendimiento, cuesta mucho sacarle más velocidad. Por eso la industria se ha dedicado mientras busca alguna salida, a vender computadoras obsoletas, produciendo un retroceso que nadie ve como tal: es el fenómeno de las netbooks”.
Analizando esta afirmación, podemos ver visos de verdad. En nuestro país han sido un gran éxito, podría mencionar que fácilmente el 50% de mis conocidos y colegas tienen una y la utilizan en forma regular. Sin embargo, existen razones de peso detrás de esta aparente maniobra, que justifican su éxito comercial, pero que desde el punto de vista del fabricante de microelectrónica no arrojan tan buenos resultados, ya que está probado que el usuario que comprar un netbook, compraría una notebook de no existir ésta. Intel ha perdido un 20% de ingresos en el sector de movilidad justamente por vender procesadores ATOM y no el equivalente Centrino, que deja a la empresa mejores ganancias.Esencialmente, en 2008 se vendieron alrededor de 12 millones de netbooks, y en 2009 alrededor de 22 milllones, contra la venta de 180 millones de notebooks regulares en 2009. Las razones de su éxito pueden ser las siguientes:
- Precio contenido. En la Argentina, la mayoría de las netbooks cuesta menos de 2000 pesos, y muchas de ellas tienen capacidad de red HSDPA con red celular de datos 3.5G, como el caso de la LG UX 110 ofrecida por Movistar.
- Suficiente espacio en disco para el usuario móvil de verdad: ninguna ofrece menos de 160 GB al momento de escribir estas líneas.
- Procesador con consumo irrisorio de energía: el Intel ATOM no consume más de 2 vatios, lo cual es sin lugar a dudas un avance sorprendente, la familia Centrino oscila en torno a los 30 vatios (Core 2 Duo).
- Potencia suficiente para el uso normal de un usuario móvil: correo, suite de oficina, navegación de páginas web y reproducción de multimedios
- Escaso peso y reducido tamaño: ninguna pesa más de 1200 gramos.
Otras desventajas relativas a la tecnología actual son la velocidad de memoria, presentan un bus de sólo 533 MHz, y un caché L2 de sólo 512 KB, aunque podríamos decir que la experiencia indica que no sólo es importante la velocidad y el tamaño del caché, sino el uso que el sistema haga de los datos en él contenido. De todos modos, no debemos perder de vista que el consumo de 2 vatios lo acerca peligrosamente al mejor sistema ARM actual, que consume alrededor de un vatio a plena potencia, con un clock de 1GHz. En N280 es una mejora del 270, esencialmente mejora la velocidad de bus frontal, llevandolo a 667 MHz contra 533 del N270.
También debemos destacar que el ATOM 270/80 es un diseño de 32 bits, esto es, no permite correr sistemas operativos de 64 bits, pero las razones son atendibles: estos sistemas están pensados para ser ultraportátiles, con lo cual privilegian el bajo consumo de batería. El adicionar un sistema de 64 bits implicaría llevar la memoria a 4 GB por lo menos, para que las ventajas sean perceptibles. Con 3 GB o menos de 3GB, el rendimiento respecto de un sistema de 32 bits es difícilmente mejor, ya que justamente la ventaja de 64 bits es disponer de mucha más memoria direccionable. Como la mayoría de las netbooks actuales tienen 1 ( a los sumo, 2GB) de RAM, aunque tuviésemos un chip de 64 bits dificilmente podríamos instalarle un SO de 64 y usar sus ventajas, porque al colocar 4GB el consumo va a subir un poco, y el coste del equipo en general también sería perceptiblemente más alto.
Por otro lado, las pantallas en casi el 90% de los equipos netbooks de 10 pulgadas son de resolución 1024 x 800, con honrosa excepción del sistema Sony Pocket VAIO, con una resolución de 1600x800. Este tipo de equipos no posee una tarjeta de video que permita la descodificación on-board de videos de alta definición, con lo cual el ver contenido HD en un equipo de estos es ciertamente un desafío, no decimos que es imposible, sino que hay que afinar el sistema para dejar toda la potencia posible de procesamiento a la tarea de descodificación. Sin embargo, los reportes coinciden en que es factible ver DVDs con buena calidad en forma consistente.
Un paso mas: Intel ATOM 330
En proximo paso sería el Intel ATOM 330, que es básicamente un diseño similar, pero con set de instrucciones de 64 bits, caché L2 de 1MB, y doble núcleo, totalizando 4 threads. Este es un procesador significativamente más poderoso que los anteriores, debido a que es un diseño multicore real.
Intel ATOM 330,
De todos modos, el HyperThreading es sencillo, para mantener el consumo bajo, y cualquier procesador Celeron actual, al mismo clock, tiene por lo menos el doble de rendimiento que los ATOM, claro que a costa del consumo. Esto es porque esencialmente la predicción de las instrucciones, que se realiza en las denominadas “pipelines” del procesador, están reducidas al máximo en este diseño.
Las “pipelines” son circuitos lógicos que permiten correr ejecución condicional de códigos, de tal manera de ir procesando en adelanto ciertos segmentos del programa binario, sobre todo cuando se predice la ejecución de un salto: el procesador ejecuta tanto el camino TRUE como el FALSE, y sólo al llegar a la ejecución del resultado de la bifurcación o salto condicional, sabe que resultados tomar: si es TRUE, carga los resultados del pipeline TRUE, y descarta los del FALSE. Si es a la inversa, se toman como verdaderos los contenidos en el pipeline FALSE, y se descartan los TRUE. Esto acelera significativamente la ejecución del código binario, a expensas de gastar millones de transistores en la implementación de los “pipelines”. en este diseño, se ha mantenido la predicción lo mínimo posible, para ahorrar energía. Por esta ultima razón, algunos analistas afirman que la tecnología de los ATOM se acerque más a los Pentium originales de hace varios años que a una revolución móvil.
Algunos reportes preliminares arrojan un resultado mediocre del N330, siendo entonces solo un 20% superior al N270. Por este motivo, el 330 no ha tenido mucha aceptación, y el mercado sigue desde hace un par de años, inundado de sistemas basados en la tecnología más probada y aceptada, los N270 y N280. Esto es seguramente por la solución de compromiso en montar el procesador más capaz sin actualizar el entorno del mismo. En otras pruebas, en equipos de escritorio, se ha podido ver claramente la ventaja de disponer de 4 hilos de ejecución a un costo muy reducido, dotando a la placa madre de mejores componentes, en el escritorio se han reportado excelentes resultados al reproducir Blu-Rays.
Un paso a la vez: ATOM N450
En N450 es una evolucion del N280, y esencialmente sería su versión de 64 bits, un solo nucleo con HyperThreading, y bus frontal de 667 MHz. De todos modos, existe una contradicción en su hoja de especificaciones, ya que muestra un límite de 2 GB en la memoria RAM. Con esto, dificilmente podamos ver mejoras ciertas en rendimiento, y la conveniencia solo vendría de la mano de correr nativamente software de 64 bits independientemente de sus mejoras en performance. Por otro lado, no se soporte virtualización por hardware, con lo cual si necesitamos virtualizar algo, debemos utilizar VirtualBox de Sun Microsystems, que no nos exige tener soporte de VM a nivel de hardware (a cambio de un rendimiento inferior).
El futuro de las netbooks
Algunos fabricantes (como ASUS) han lanzado al mercado netbooks con tamaño de pantalla de 12 pulgadas y procesadores ATOM de la familia Z5xx (Z520 por ejemplo). Este procesador tiene un clock de 1,33 GHz, ciertamente mas lento que el del N270, pero permite el soporte de virtualización por hardware de Intel. Por lo tanto, si vamos a correr WMWARE,VirtualPC o VirtualBOX sobre una netbook, la eleccion de cajón es el ATOM Z520. Esto las acerca al punto de confundirse con las notebooks de gama alta de algunos fabricantes como Sony o Dell, que ofrecen en 12 pulgadas procesadores de voltaje ultra-bajo (ULV) y permiten que el equipo cerrado tenga unos 18 mm. de grosor. Sin embargo, hablando de notebooks, el costo de estos equipos es prohibitivo, y es varias veces más que la netbook que mencionamos.
En otras palabras, mientras el consumo y el tamaño de las netbooks sea el actual, difícilmente podamos ver una mejora significativa en rendimiento por el momento, ya que cualquier artefacto que suba su rendimiento de forma apreciable consumirá más energía: caché L3, o más velocidad de memoria, o más velocidad de rotacion del disco, o una placa aceleradora de video.
Una idea que nos da vuelta en la cabeza es dotar a las netbooks de chips de video que cumplan con la característica Direct-Compute® de Microsoft, esto permitiría que el software (si está así preparado) pueda ejecutarse en la CPU normal del equipo, y al mismo tiempo en el chip de la tarjeta de video, distribuyendo el procesamiento entre todos los núcleos de procesamiento del equipo. Habría que ver cómo esto impacta en el rendimiento global, pero sobre todo, en el consumo de energía. Sin embargo, con Direct-Compute (DirectX-11) recién llegando a las máquinas de escritorio, es también difícil que lo veamos en un futuro cercano en las notebooks, y por ello ni qué hablar de las netbooks.
Fuente:http://logica10mobile.blogspot.com/2010/02/el-fenomeno-de-las-netbooks.html
12 feb 2010
SLOTS O RANURAS DE EXPANSION
Son conectores de plástico con contactos eléctricos que permiten introducir distintas tarjetas de expansión para ampliar y acelerar las funcionalidades del ordenador como: (tarjetas de vídeo, de sonido, de red,
Las tarjetas de expansión, por una parte liberan a la CPU de trabajo como por ejemplo, entrada y salida de datos y por otra permiten al usuario disponer, completar o mejorar algunas características principales del ordenador (por ejemplo, sonido, video, o incluir accesorios nuevos como sintonizadora de TV, módem, red local.
TIPOS DE SLOTS
XT: XT proviene de las siglas de "Extended Tecnology" ó tecnología avanzada. Este tipo de ranura se comercializo en 1980 con una capacidad de datos de 8 bits.
Los bits en las ranuras de expansión significan la capacidad de datos que es capaz de proveer, ya que por medio de una fórmula, es posible determinar la transferencia máxima de la ranura ó de una tarjeta de expansión.
Características generales de la ranura XT
- Se puede considerar el bus XT como una ranura de expansión de primera generación.
- Se comercializó para el microprocesador Intel® 8088.
- Su capacidad de datos que maneja es de 8 bits.
- Físicamente es muy similar a la ranura de expansión ISA.
- Tienen una velocidad de transferencia de 4.6 Megabytes/s (Mb/s).
- Cuentan con una velocidad interna de trabajo de 4.77 MHz, similar a la del microprocesador.
- Al aumentar la velocidad del microprocesador Intel® 8086, se descarta su uso, ya que se queda rezagado en cuanto a velocidad y genera cuellos de botella.
ISA: Son Negras y largas, con dos grupos de conectores separados por un espacio miden unos 14 cm (existe una versión más vieja de sólo 8,5 cm).
Son ranuras de 16 contactos-bits y eran las únicas que había en ordenadores 486. En la actualidad solamente se fabrican tarjetas de red para este tipo de ranuras ya que funcionan a una frecuencia de reloj máxima de 8Mhz y proporcionan un máximo de 16 Mb/s de transmisión de datos, suficiente para conectar un módem o una tarjeta de sonido, pero poco para tarjetas de vídeo con prestaciones a partir de 256 colores aunque admiten viejas tarjetas CGA a 16 colores.
Son ranuras de 16 contactos-bits y eran las únicas que había en ordenadores 486. En la actualidad solamente se fabrican tarjetas de red para este tipo de ranuras ya que funcionan a una frecuencia de reloj máxima de 8Mhz y proporcionan un máximo de 16 Mb/s de transmisión de datos, suficiente para conectar un módem o una tarjeta de sonido, pero poco para tarjetas de vídeo con prestaciones a partir de 256 colores aunque admiten viejas tarjetas CGA a 16 colores.
Vesa Local Bus: Se empezó a usar en los procesadores 486 y desapareció con los primeros Pentium. Se desarrolla a partir de la tecnología ISA, pudiendo ofrecer velocidades de transmisión de hasta 160 Mb/s a una frecuencia máxima de 40 Mhz estas son largas, unos 22 cm repartidos en tres partes, y su color suele ser negro, aunque a veces el conector del extremo es marrón o de otro color.
PCI (Miden 8,5 cm y son de color blanco): Las ranuras PCI tienen 32 contactos-bits con una frecuencia de trabajo de 33 Mhz hasta los 133 Mhz dependiendo de la placa base. Estas ranuras son de propósito general y son multidestino y multimaestras, son las que predominan en este momento.
Se está desarrollando el estándar PCI64, que permitirá 64 bits a 66 Mhz, que permitirán a los procesadores de 64 bits trabajar utilizando toda la capacidad y velocidad que tienen.
Se está desarrollando el estándar PCI64, que permitirá 64 bits a 66 Mhz, que permitirán a los procesadores de 64 bits trabajar utilizando toda la capacidad y velocidad que tienen.
AGP (Accelerated Graphics Port; x1, x2, x4 y x8) ( miden 8 cm son marrones y están separadas del borde de la placa base): Este tipo de conexión permite el acceso directo de la tarjeta a la memoria principal del ordenador y se dedica exclusivamente a conectar tarjetas de vídeo 3D, por lo que suele haber sólo una. Permiten una velocidad de transferencia de 264 Mb/s a 533MB/s sobre 32 bits, dependiendo de la placa base. Desde Windows95 y NT 4.0 están soportadas y son las que se utilizan desde hace ya un par de años para las tarjetas de video ( controladoras de video). En 2002 empezaron a estar disponibles las primeras placas base con AGP X8.
CNR ( marrones): Se están empezando a utilizar para comunicaciones avanzadas, además de las ranuras las placas base llevan puertos o conectores de buses para periféricos que están en el propio equipo como son las disquetera, los discos duros internos y lectores/regrabadoras de CD y DVD:
SCSI (Small Computer System Interface)Sistema de Interfaz para Pequeñas Computadoras
Es una interfaz estándar para la transferencia de datos entre distintos dispositivos del bus de la computadora.
Para montar un dispositivo SCSI en un ordenador es necesario que tanto el dispositivo como la placa madre dispongan de un controlador SCSI. Se utiliza habitualmente en los discos duros y los dispositivos de almacenamiento sobre cintas, pero también interconecta una amplia gama de dispositivos, incluyendo escáneres, unidades CD-ROM, grabadoras de CD, y unidades DVD. De hecho, el estándar SCSI entero promueve la independencia de dispositivos,(incluso existen impresoras que utilizan SCSI).
En el pasado, era muy popular entre todas las clases de ordenadores; actualmente sigue siendo popular en lugares de trabajo de alto rendimiento, servidores, y periféricos de gama alta.
Los ordenadores de sobremesa y los portátiles utilizan habitualmente las interfaces más lentas de IDE/SATA para los discos duros y USB (el USB emplea un conjunto de comandos SCSI para algunas operaciones) así como FireWire a causa de la diferencia de coste entre estos dispositivos.
Los ordenadores de sobremesa y los portátiles utilizan habitualmente las interfaces más lentas de IDE/SATA para los discos duros y USB (el USB emplea un conjunto de comandos SCSI para algunas operaciones) así como FireWire a causa de la diferencia de coste entre estos dispositivos.
Se está preparando un sistema SCSI en serie, denominado Serial Attached SCSI o SAS, que además es compatible con SATA, dado que utiliza el mismo conector, por lo tanto se podrán conectar unidades SATA en una controladora SAS.
BUS DE DATOS XT
El "bus" es una palabra que traducida literalmente significa transporte.
El bus es un conjunto de líneas eléctricas que el dispositivo integra para comunicarse con el resto de los componentes de la computadora. Hay varios tipos de bus, ya que cada dispositivo necesita enviar diferentes tipos de información, entre ellos están los siguientes:
- Bus de direcciones: se encarga de que determinar en que lugar exacto de memoria se escribirá el dato.
- Bus de control: maneja el momento y la forma de escribir el dato.
- Bus de datos: se encarga de enviar el dato.
El más utilizado para describir las características es el bus de datos, y el rendimiento del bus XT está en función de la velocidad del dispositivo y su capacidad de datos.
2 feb 2010
Intel i5-661 Review
Hace rato que no hacíamos un buen review de hardcore-hardware en Tecnogeek pero nos ha llegado un equipo que a muchos les va a interesar, un i5 661, el nuevo de Intel junto al motherboard de referencia con el que va a ser distribuído en nuestro mercado.
El combo testeado en esta ocasión es el motherboard DH55TC con el chipset H55 Express y el procesador i5 661 es una de esas maravillas modernas de la plataforma LGA1156 que no sólo posee un excelente procesador de dos núcleos si no que lo combina con un GPU integrado.
Adeantándose a su rival AMD, Intel ya lanzó un producto con GPU en el mismo packaging que el CPU y esto es practicamente lo que se viene para ahorrar costos, mejorar performance y agilizar la producción.
Es que el paso siguiente (el que directamente tomó AMD) es pasar a producir CPU y GPU en el mismo silicio y no en dos separados como tienen los procesadores Clarkdale de Intel.
Pero esto no ha sido un problema, veamos a continuación como performa este procesador y que tiene para ofrecerles
La plataforma
Un tema interesante con la plataforma de Intel es la intención de venderla como un paquete para ensambladores, directamente al mercado el combo procesador+motherboard en las cadenas de distribución.
Una de las genialidades de este paquete armado es la posibilidad de armar Media Centers fácilmente. Ya cuenta con salida HDMI desde el mother directo! con audio y video de alta definición desde la partida no es necesario gastar en costosos adicionales, todo viene en uno y ese uno es bastante potente por sí mísmo.
Diría que para estar completo le faltaría el WiFi integrado aunque así como está le viene muy bien a la mayoría.
El chipset H55 está encaminado al público inicial y la única diferencia con el H57 es la fatla de soporte de RAID para discos y 12 USB en vez de 14, es decir, nada que pueda importarle a nadie en el segmento buscado. También se pueden usar estos motherboards para procesadores Lynnfield actuales pero deberán conseguirse una placa de video.
El DH55TC cuenta con salidas de video VGA, DVI-D y HDMI, audio tradicional (nada de 5.1), port de red, 6 USB 2.0 en la parte posterior y PS2 para viejos teclados o mouses, aunque hoy en día todo es USB.
Cuenta con cuatro slots para memorias DDR3, dos PCI-X 8x y dos PCI-X 1x
El procesador
Los procesadores Clarkdale tienen varias particularidades, por un lado son parte de la extensión de oferta sobre la plataforma LGA1156 que se suman a los Lynnfield, por otra parte estan fabricados en un proceso de 32nm lo que abarata costos.
Pero no todo es barato, el hecho de poseer un GPU integrados los hace bastante más caros de lo que se espera, más teniendo en cuenta que el circuito del GPU está físicamente separado del CPU por lo que hay que imprimir los dos por separado. El costo y la complejidad aumenta con esta solución pero le dio a Intel la ventaja de poder lanzar el producto antes que su rival.
Cada core puede ejecutar dos threads y cuenta con 256Kb de memoria cache L2. Además cada uno puede variar su velocidad, tema que contamos más adelante.
En la imagen se ven perfectamente los dos núcleos separados, curiosamente el pequeño es el del CPU que sólo incluye los dos núcleos y la memoria L3 de 4Mb.
El GPU, más grande, además contiene el controlador de memoria, el Northbridge y el controlador de PCI Express. Para poder acceder a la memoria el CPU tiene que pasar por el GPU a travez de un enlace QPI de alta velocidad. Esto es un problema, donde los más viejos Lynnfield acceden a la memoria con su controlador integrado el i5-661 tiene que hacerlo pasando por otro intermediario y recién ahí al controlador. Esto le baja el rendimiento un 20% en acceso a memoria tanto latencia como ancho de banda.
Otra particularidad es que por más que el CPU está fabricado en el proceso de 32nm el GPU sigue siendo de 45nm, por eso la diferencia notable de tamaño aunque sean procesos similares desde lo técnico.
El GPU integrado es una evolución del GMA X4500 con 12 shader processors en vez de 10, más velocidad de reloj y acceso a toda la memoria que necesite, no alcanza para superar a un GPU de Ati o NVidia pero alcanza para reproducir video en HD.
Aceleración de nucleos
Otro detalle importante de los i5 e i7 es que incluyen Turbo Boost que vendría a ser como un overclocking controlado. Esta tecnología permite estirar un poco más la velocidad (ya importante de 3.33Ghz), esto lo hace conservando el calor generado en límites aceptables.
En el caso del i5-661 puede llegar a acelerar los dos núcleos hasta 3.46Ghz y si se está usando un sólo núcleo a 3.6Ghz, una mejora notable para aplicaciones que usan un sólo thread. En el caso del Cinebench van a poder notar esta diferencia con otros procesadores cuando se ejecuta un sólo thread.
El TDP del procesador es de 87W aunque la mayoría de los i5 estan diseñados para 73W, en ambos casos una potencia bastante baja comparados con los 120-130W de los rivales actuales, esto es, obviamente, por el método de fabricación de 32nm contra los 45nm del resto.
Gráficos integrados
¿que tan bueno es el video integrado? Intel no viene muy acelerado con el desarrollo del Larrabee así que por lo pronto lo que tenemos como GPU es una evolución de lo existente, pero no mucho más.
Comparado con los viejos G45 y los rivales 790GX hay varias conclusiones para sacar, los tests son a 1024x768:
Ya el poder jugar al Call Of Duty MW2 siempre me llama la atención en GPUs básicos, pero 20fps no está tan mal!
El World of Warcraft está por debajo de lo jugable aunque mejor que el GPU anterior, aquí se nota que el cambio en algunos casos sólo se refleja en su reloj acelerado y nada más.
En el HAWX me sorprendo con el doble de potencia del nuevo GPU, por lo visto en algunos juegos esto ya se torna completamente jugable.
A 1024x768 es obvio que no vamos a tener una experiencia bestial de juego pero podemos notar varias cosas, primero que la Ati HD3200 integrada de AMD es mucho más potente aun siendo un chipset más viejo, pero por otra parte se nota la diferencia con el viejo G45, la aceleración en el reloj y los 2 shaders nuevos mejoran la performance notablemente, en el caso del Hawx hasta un 50% arriba.
De todos modos aquí la diferencia a favor de Intel se dará en el consumo donde el GPU del i5 consumirá bastante menos que el 790GX donde, según tengo entendido, al diferencia es del 40%.
Performance
Probada la performance con una Ati HD5850 y los siguientes equipos:
Core i7-860
Core i5-661
Q9400
Phenom II X4 965
Aquí es donde se demuestra el poder del i5-661 en un sólo núcleo, con el Turbo Boost cualquier otra opción queda atrás por la gran velocidad utilizada
Y aquí es donde los múltiples núcleos le ganan al i5 que sólo tiene dos, usando el Cinebench para múltiples hilos queda todo claro.
Un escenario similar con el POVRay
Y en el Premiere CS4 también (aquí el valor medido son los segundos que tardó, las barras más pequeñas son mejores)
En compresión de video x264 se nos da una situación similar
En Far Cry 2 la cosa mejora muchísimo para el i5 que se acerca al margen de error contra el Phenom aun sin tener que utilizar su GPU integrado.
Lo mismo para el Left For Death, por lo visto es un excelente micro para gamers.
Consumo
Los i5 con GPU integrado consumen un poco más que los Lynnfield más viejos en Idle (Reposo) pero el i5-661 es realmente una genialidad cuando se lo está usando al máximo. Comparativamente con los procesadores de AMD no hay nada que hacer, los Intel i7, i5 e i3 son los que menos consumen en relación a consumo/performance y no hay mucho para discutir.
El i5-661 ronda los 110W al máximo y 78 en Reposo. Proximamente lo veremos, no tengo dudas de ello, en notebooks de alta gama, ya Apple está por lanzar sus equipos con el i5 como procesador. Es que justamente para ese tipo de equipos parece estar pensado.
Conclusión
El i5-661 es un excelente procesador y se nota el objetivo que intenta cubrir. Pero tiene un problema que todos ya conocemos y es el precio, u$s 200 en EEUU. Es el i3 el que puede competir contra AMD en precio-performance y lo único que carece es de Turbo Boost, algo que no afectaría demasiado su desempeño.
El problema con el i5 es que su precio no lo hace competitivo contra soluciones de cuatro núcleos donde se queda atrás en tareas que requieren mucho procesamiento y ya estan optimizadas para multithreading. En el caso de aplicaciones simples que usan un sólo núcleo es donde le i5-661 puede sacar provecho a su reloj tan elevado pero, hoy en día, cada vez son menos estas aplicaciones.
Pero hay un rango de PCs donde este CPU es invencible, en las HTPC, cualquier Media Center con este procesador y con el motherboard de referencia que nos prestó Intel, es un combo imbatible. Es que al poder reproducir Full HD sin requerir placas de video, baja temperatura, bajo consumo, alta performance, todo en un pack compacto, es simplemente genial para este uso.
Para desktop deja de ser necesario, para HTPC es perfecto ¿para notebook? es ahí donde, a mi parecer, se encuentra el mercado futuro del i5-661, cuando este procesador invada la nueva generación 2010 de notebooks y podamos ver en el uso práctico cuando la duración de batería en las notebooks de alta performance se extienda un nivel más al no necesitar una nVidia o ATI para poder reproducir video en HD en los equipos de alta gama.
Y hay un detalle más, este procesador está optimizado para encriptación AES-NI que es un requerimiento en muchas compañías, acelera el doble el proceso de encripción-desencripción con respecto a un i7 y es aquí donde el mercado de notebooks lo va a mirar con muy buenos ojos.
El precio en nuestro país todavía no lo tengo pero sí se por donde irá Intel en este sentido. Quieren promover el combo CPU+Motherboard para justamente contrarrestar esto del precio del micro pero mejorar la oferta con un equipo listo para usar. Veremos a que precio nos llega.
29 ene 2010
SISTEMAS OPERATIVOS
SISTEMAS OPERATIVOS:
Sistemas operativos mono usuarios
Descripción de sistemas operativos
Preparación para la instalación
Sistemas operativos multiusuario
GNU Linux.
Unix.
Microsoft Windows.
Free BSD.
Solaris.
Mac O.S.
Qué es un sistema operativo mono usuarios:
Los sistemas operativos mono usuarios son aquellos que soportan a un solo usuario a la vez, sin importar el número de procesadores que tenga la computadora o el número de procesos o tareas que el usuario pueda ejecutar en un mismo instante de tiempo, las computadoras personales típicamente se han clasificado en este renglón.
En otras palabras los sistemas mono usuarios son aquellos que nada más puede atender a un solo usuario, gracias a las limitaciones creadas por el hardware, los programas o el tipo de aplicación que se este ejecutando.
Qué es un sistema operativo multiusuario:
Los sistemas operativos multiusuario son capaces de dar servicio a más de un usuario a la vez, ya sea por medio de varias terminales conectadas a la computadora o por medio de sesiones remotas en una red de comunicaciones. No importa el número de procesadores en la máquina ni el número de procesos que cada usuario puede ejecutar simultáneamente.
En esta categoría se encuentran todos los sistemas que cumplen simultáneamente las necesidades de dos o más usuarios, que comparten mismos recursos. Este tipo de sistemas se emplean especialmente en redes.
Descripción de sistemas operativos:
Un Sistema Operativo es un programa que actúa como intermediario entre el usuario y el hardware de un computador y su propósito es proporcionar un entorno en el cual el usuario pueda ejecutar programas. El objetivo principal de un Sistema Operativo es, entonces, lograr que el Sistema de computación se use de manera cómoda, y el objetivo secundario es que el hardware del computador se emplee de manera eficiente.
Un Sistema Operativo es una parte importante de cualquier sistema de computación. Un sistema de computación puede dividirse en cuatro componentes: el hardware, el Sistema Operativo, los programas de aplicación y los usuarios. El hardware (Unidad Central de Procesamiento (UCP), memoria y dispositivos de entrada/salida (E/S)) proporciona los recursos de computación básicos.
Los programas de aplicación (compiladores, sistemas de bases de datos, juegos de vídeo y programas para negocios) definen la forma en que estos recursos se emplean para resolver los problemas de computación de los usuarios.
Característica de un Sistema Operativo.
En general, se puede decir que un Sistema Operativo tiene las siguientes características:
Conveniencia. Un Sistema Operativo hace más conveniente el uso de una computadora.
Eficiencia. Un Sistema Operativo permite que los recursos de la computadora se usen de la manera más eficiente posible.
Habilidad para evolucionar. Un Sistema Operativo deberá construirse de manera que permita el desarrollo, prueba o introducción efectiva de nuevas funciones del sistema sin interferir con el servicio.
Encargado de administrar el hardware. El Sistema Operativo se encarga de manejar de una mejor manera los recursos de la computadora en cuanto a hardware se refiere, esto es, asignar a cada proceso una pàrte del procesador para poder compartir los recursos.
Relacionar dispositivos (gestionar a través del kernel). El Sistema Operativo se debe encargar de comunicar a los dispositivos periféricos, cuando el usuario así lo requiera.
Organizar datos para acceso rápido y seguro.
Manejar las comunicaciones en red. El Sistema Operativo permite al usuario manejar con alta facilidad todo lo referente a la instalación y uso de las redes de computadoras.
Procesamiento por bytes de flujo a través del bus de datos.
Facilitar las entradas y salidas. Un Sistema Operativo debe hacerle fácil al usuario el acceso y manejo de los dispositivos de Entrada/Salida de la computadora.
Técnicas de recuperación de errores.
Evita que otros usuarios interfieran. El Sistema Operativo evita que los usuarios se bloqueen entre ellos, informándoles si esa aplicación esta siendo ocupada por otro usuario.
Generación de estadísticas.
Permite que se puedan compartir el hardware y los datos entre los usuarios.
El software de aplicación son programas que se utilizan para diseñar, tal como el procesador de palabras, lenguajes de programación, hojas de cálculo, etc.
El software de base sirve para interactuar el usuario con la máquina, son un conjunto de programas que facilitan el ambiente plataforma, y permite el diseño del mismo.
El Software de base está compuesto por :
Cargadores.
Compiladores.
Ensambladores.
Macros.
Qué es GNU/Linux
GNU/Linux es, a simple vista, un Sistema Operativo. Es una implementación de libre distribución UNIX para computadoras personales (PC), servidores, y estaciones de trabajo. Fue desarrollado para el i386 y ahora soporta los procesadores i486, Pentium, Pentium Pro y Pentium II, así como los clones AMD y Cyrix. También soporta máquinas basadas en SPARC, DEC Alpha, PowerPC/PowerMac, y Mac/Amiga Motorola 680x0.
Como sistema operativo, GNU/Linux es muy eficiente y tiene un excelente diseño. Es multitarea, multiusuario, multiplataforma y multiprocesador; en las plataformas Intel corre en modo protegido; protege la memoria para que un programa no pueda hacer caer al resto del sistema; carga sólo las partes de un programa que se usan; comparte la memoria entre programas aumentando la velocidad y disminuyendo el uso de memoria; usa un sistema de memoria virtual por páginas; utiliza toda la memoria libre para cache; permite usar bibliotecas enlazadas tanto estática como dinámicamente; se distribuye con código fuente; usa hasta 64 consolas virtuales; tiene un sistema de archivos avanzado pero puede usar los de los otros sistemas; y soporta redes tanto en TCP/IP como en otros protocolos.
Qué es Unix.
Es un sistema operativo de tiempo compartido, controla los recursos de una computadora y los asigna entre los usuarios. Permite a los usuarios correr sus programas. Controla los dispositivos de periféricos conectados a la máquina.
Posee las siguientes características:
- Es un sistema operativo multiusuario, con capacidad de simular multiprocesamiento y procesamiento no interactivo.
- Está escrito en un lenguaje de alto nivel : C.
- Dispone de un lenguaje de control programable llamado SHELL.
- Ofrece facilidades para la creación de programas y sistemas y el ambiente adecuado para las tareas de diseños de software.
- Emplea manejo dinámico de memoria por intercambio o paginación.
- Tiene capacidad de interconexión de procesos.
- Permite comunicación entre procesos.
- Emplea un sistema jerárquico de archivos, con facilidades de protección de archivos, cuentas y procesos.
- Tiene facilidad para redireccionamiento de Entradas/Salidas.
- Garantiza un alto grado de portabilidad.
El sistema se basa en un Núcleo llamado Kernel, que reside permanentemente en la memoria, y que atiende a todas las llamadas del sistema, administra el acceso a los archivos y el inicio o la suspensión de las tareas de los usuarios.
La comunicación con el sistema UNIX se da mediante un programa de control llamado SHELL. Este es un lenguaje de control, un intérprete, y un lenguaje de programación, cuyas características lo hacen sumamente flexible para las tareas de un centro de cómputo. Como lenguaje de programación abarca los siguientes aspectos:
- Ofrece las estructuras de control normales: secuenciación, iteración condicional, selección y otras.
- Paso de parámetros.
- Sustitución textual de variables y Cadenas.
- Comunicación bidireccional entre órdenes de shell.
El shell permite modificar en forma dinámica las características con que se ejecutan los programas en UNIX:
Las entradas y salidas pueden ser redireccionadas o redirigidas hacia archivos, procesos y dispositivos;
Es posible interconectar procesos entre sí.
Diferentes usuarios pueden "ver" versiones distintas del sistema operativo debido a la capacidad del shell para configurar diversos ambientes de ejecución. Por ejemplo, se puede hacer que un usuario entre directamente a su sección, ejecute un programa en particular y salga automáticamente del sistema al terminar de usarlo.
El núcleo del sistema operativo Unix (llamado Kernel) es un programa escrito casi en su totalidad en lenguaje C, con excepción de una parte del manejo de interrupciones, expresada en el lenguaje ensamblador del procesador en el que opera.
Las funciones del núcleo son permitir la existencia de un ambiente en el que sea posible atender a varios usuarios y múltiples tareas en forma concurrente, repartiendo al procesador entre todos ellos, e intentando mantener en grado óptimo la atención individual.
El Kernel opera como asignador de recursos para cualquier proceso que necesite hacer uso de las facilidades de cómputo. Es el componente central de Unix y tiene las siguientes funciones:
- Creación de procesos, asignación de tiempos de atención y sincronización.
- Asignación de la atención del procesador a los procesos que lo requieren.
Qué es Microsoft Windows.
Microsoft Windows es una familia de sistemas operativos desarrollados y comercializados por Microsoft. Existen versiones para hogares, empresas, servidores y dispositivos móviles, como computadores de bolsillo y teléfonos inteligentes. Hay variantes para procesadores de 16, 32 y 64 bits.
Incorpora diversas aplicaciones como Internet Explorer, el Reproductor de Windows Media, Windows Defender, Windows Media Center, WordPad entre otros y diversas aplicaciones que fueron retiradas en Windows 7, tales como: Windows Movie Maker, Windows Mail y la Galería fotográfica de Windows.
Desde hace muchos años es el sistema operativo más difundido y usado del mundo; de hecho la mayoría de los programas (tanto comerciales como gratuitos) se desarrolla originalmente para este sistema. En julio del 2009, Windows tenía aproximadamente el 86% de la cuota de mercado de los sistemas operativos.
Windows 7 es la versión más reciente para computadoras personales, Windows Server 2008 R2 para servidores y Windows Mobile 6.5 en dispositivos móviles.
Qué es FreeBSD
FreeBSD es un sistema operativo libre para computadoras basado en las CPU de arquitectura Intel, incluyendo procesadores 386, 486 (versiones SX y DX), y Pentium. También funciona en procesadores compatibles con Intel como AMD y Cyrix. Actualmente también es posible utilizarlo hasta en once arquitecturas distintas como Alpha, AMD64,IA-64, MIPS, PowerPC y UltraSPARC.
FreeBSD es un sistema operativo multiusuario, capaz de efectuar multitarea con apropiación y multiproceso en plataformas compatibles con múltiples procesadores; el funcionamiento de FreeBSD está inspirado, como ya se dijo, en la variante 4.4 BSD-Lite de UNIX. Aunque FreeBSD no puede ser propiamente llamado UNIX, al no haber adquirido la debida licencia de The Open Group, FreeBSD sí está hecho para ser compatible con la norma POSIX, al igual que varios otros sistemas "clones de UNIX".
El sistema FreeBSD incluye el núcleo, la estructura de ficheros del sistema, bibliotecas de la API de C, y algunas utilidades básicas. La versión 6.13 trajo importantes mejoras como mayor apoyo para dispositivos Bluetooth y controladores para tarjetas de sonido y red.
La versión 7.0, lanzada el 27 de febrero del año 2008, incluye compatibilidad con el sistema de archivos ZFS de Sun y a la arquitectura ARM, entre otras novedades.
Qué es Solaris
Solaris es un sistema operativo de tipo Unix desarrollado por Sun Microsystems desde 1992 como sucesor de SunOS. Es un sistema certificado oficialmente como versión de Unix. Funciona en arquitecturas SPARC y x86 para servidores y estaciones de trabajo.
Solaris tiene una reputación de ser muy adecuado para el multiprocesamiento simétrico (SMP), soportando un gran número de CPUs. También ha incluido soporte para aplicaciones de 64 bits SPARC desde Solaris 7. Históricamente Solaris ha estado firmemente integrado con la plataforma hardware de Sun, SPARC, con la cual fue diseñado y promocionado como un paquete combinado. Esto proporcionaba frecuentemente unos sistemas más fiables pero con un coste más elevado que el del hardware de PC. De todas formas, también ha soportado sistemas x86 desde la versión Solaris 2.1 y la última versión, Solaris 10, ha sido diseñada con AMD64 en mente, permitiendo a Sun capitalizar en la disponibilidad de CPUs de 64 bits commodities basadas en la arquitectura AMD64. Sun ha promocionado intensamente Solaris con sus estaciones de trabajo de nivel de entrada basadas en AMD64,un ha dejado de ofrecer estaciones de trabajo basadas en arquitectura SPARC, reemplazándolas por modelos basados en Intel Core 2.
Qué es Mac OS
Mac OS (del inglés Macintosh Operating System, en español Sistema Operativo de Macintosh) es el nombre del sistema operativo creado por Apple para su línea de computadoras Macintosh. Es conocido por haber sido el primer sistema dirigido al gran público en contar con una interfaz gráfica compuesta por la interacción del mouse con ventanas, Icono y menús.
Apple quitó importancia de forma deliberada a la existencia del sistema operativo en los primeros años de su línea Macintosh procurando que la máquina resultara más agradable al usuario, diferenciándolo de otros sistemas contemporáneos, como MS-DOS, que eran un desafío técnico. El equipo de desarrollo del Mac OS original incluía a Bill Atkinson, Jef Raskin y Andy Hertzfeld.
Esta fue la base del Mac OS clásico, desarrollado íntegramente por Apple, cuya primera versión vio la luz en 1984. Su desarrollo se extendería en un modelo progresivo hasta la versión 9 del sistema, lanzada en 1999. A partir de Mac OS X, el sistema es un derivado de Unix que mantiene en su interfaz gráfica muchos elementos de las versiones anteriores.
Hay una gran variedad de puntos de vista sobre cómo fue desarrollado el Mac OS original y dónde se originaron las ideas subyacentes. Mientras la conexión entre el proyecto Macintosh y el proyecto Alto de Xerox PARC ha sido establecido por documentos históricos, las contribuciones iniciales del Sketchpad de Ivan Sutherland y el On-Line System de Doug Engelbart también fueron significativas.
Sistemas operativos mono usuarios
Descripción de sistemas operativos
Preparación para la instalación
Sistemas operativos multiusuario
GNU Linux.
Unix.
Microsoft Windows.
Free BSD.
Solaris.
Mac O.S.
Qué es un sistema operativo mono usuarios:
Los sistemas operativos mono usuarios son aquellos que soportan a un solo usuario a la vez, sin importar el número de procesadores que tenga la computadora o el número de procesos o tareas que el usuario pueda ejecutar en un mismo instante de tiempo, las computadoras personales típicamente se han clasificado en este renglón.
En otras palabras los sistemas mono usuarios son aquellos que nada más puede atender a un solo usuario, gracias a las limitaciones creadas por el hardware, los programas o el tipo de aplicación que se este ejecutando.
Qué es un sistema operativo multiusuario:
Los sistemas operativos multiusuario son capaces de dar servicio a más de un usuario a la vez, ya sea por medio de varias terminales conectadas a la computadora o por medio de sesiones remotas en una red de comunicaciones. No importa el número de procesadores en la máquina ni el número de procesos que cada usuario puede ejecutar simultáneamente.
En esta categoría se encuentran todos los sistemas que cumplen simultáneamente las necesidades de dos o más usuarios, que comparten mismos recursos. Este tipo de sistemas se emplean especialmente en redes.
Descripción de sistemas operativos:
Un Sistema Operativo es un programa que actúa como intermediario entre el usuario y el hardware de un computador y su propósito es proporcionar un entorno en el cual el usuario pueda ejecutar programas. El objetivo principal de un Sistema Operativo es, entonces, lograr que el Sistema de computación se use de manera cómoda, y el objetivo secundario es que el hardware del computador se emplee de manera eficiente.
Un Sistema Operativo es una parte importante de cualquier sistema de computación. Un sistema de computación puede dividirse en cuatro componentes: el hardware, el Sistema Operativo, los programas de aplicación y los usuarios. El hardware (Unidad Central de Procesamiento (UCP), memoria y dispositivos de entrada/salida (E/S)) proporciona los recursos de computación básicos.
Los programas de aplicación (compiladores, sistemas de bases de datos, juegos de vídeo y programas para negocios) definen la forma en que estos recursos se emplean para resolver los problemas de computación de los usuarios.
Característica de un Sistema Operativo.
En general, se puede decir que un Sistema Operativo tiene las siguientes características:
Conveniencia. Un Sistema Operativo hace más conveniente el uso de una computadora.
Eficiencia. Un Sistema Operativo permite que los recursos de la computadora se usen de la manera más eficiente posible.
Habilidad para evolucionar. Un Sistema Operativo deberá construirse de manera que permita el desarrollo, prueba o introducción efectiva de nuevas funciones del sistema sin interferir con el servicio.
Encargado de administrar el hardware. El Sistema Operativo se encarga de manejar de una mejor manera los recursos de la computadora en cuanto a hardware se refiere, esto es, asignar a cada proceso una pàrte del procesador para poder compartir los recursos.
Relacionar dispositivos (gestionar a través del kernel). El Sistema Operativo se debe encargar de comunicar a los dispositivos periféricos, cuando el usuario así lo requiera.
Organizar datos para acceso rápido y seguro.
Manejar las comunicaciones en red. El Sistema Operativo permite al usuario manejar con alta facilidad todo lo referente a la instalación y uso de las redes de computadoras.
Procesamiento por bytes de flujo a través del bus de datos.
Facilitar las entradas y salidas. Un Sistema Operativo debe hacerle fácil al usuario el acceso y manejo de los dispositivos de Entrada/Salida de la computadora.
Técnicas de recuperación de errores.
Evita que otros usuarios interfieran. El Sistema Operativo evita que los usuarios se bloqueen entre ellos, informándoles si esa aplicación esta siendo ocupada por otro usuario.
Generación de estadísticas.
Permite que se puedan compartir el hardware y los datos entre los usuarios.
El software de aplicación son programas que se utilizan para diseñar, tal como el procesador de palabras, lenguajes de programación, hojas de cálculo, etc.
El software de base sirve para interactuar el usuario con la máquina, son un conjunto de programas que facilitan el ambiente plataforma, y permite el diseño del mismo.
El Software de base está compuesto por :
Cargadores.
Compiladores.
Ensambladores.
Macros.
Qué es GNU/Linux
GNU/Linux es, a simple vista, un Sistema Operativo. Es una implementación de libre distribución UNIX para computadoras personales (PC), servidores, y estaciones de trabajo. Fue desarrollado para el i386 y ahora soporta los procesadores i486, Pentium, Pentium Pro y Pentium II, así como los clones AMD y Cyrix. También soporta máquinas basadas en SPARC, DEC Alpha, PowerPC/PowerMac, y Mac/Amiga Motorola 680x0.
Como sistema operativo, GNU/Linux es muy eficiente y tiene un excelente diseño. Es multitarea, multiusuario, multiplataforma y multiprocesador; en las plataformas Intel corre en modo protegido; protege la memoria para que un programa no pueda hacer caer al resto del sistema; carga sólo las partes de un programa que se usan; comparte la memoria entre programas aumentando la velocidad y disminuyendo el uso de memoria; usa un sistema de memoria virtual por páginas; utiliza toda la memoria libre para cache; permite usar bibliotecas enlazadas tanto estática como dinámicamente; se distribuye con código fuente; usa hasta 64 consolas virtuales; tiene un sistema de archivos avanzado pero puede usar los de los otros sistemas; y soporta redes tanto en TCP/IP como en otros protocolos.
Qué es Unix.
Es un sistema operativo de tiempo compartido, controla los recursos de una computadora y los asigna entre los usuarios. Permite a los usuarios correr sus programas. Controla los dispositivos de periféricos conectados a la máquina.
Posee las siguientes características:
- Es un sistema operativo multiusuario, con capacidad de simular multiprocesamiento y procesamiento no interactivo.
- Está escrito en un lenguaje de alto nivel : C.
- Dispone de un lenguaje de control programable llamado SHELL.
- Ofrece facilidades para la creación de programas y sistemas y el ambiente adecuado para las tareas de diseños de software.
- Emplea manejo dinámico de memoria por intercambio o paginación.
- Tiene capacidad de interconexión de procesos.
- Permite comunicación entre procesos.
- Emplea un sistema jerárquico de archivos, con facilidades de protección de archivos, cuentas y procesos.
- Tiene facilidad para redireccionamiento de Entradas/Salidas.
- Garantiza un alto grado de portabilidad.
El sistema se basa en un Núcleo llamado Kernel, que reside permanentemente en la memoria, y que atiende a todas las llamadas del sistema, administra el acceso a los archivos y el inicio o la suspensión de las tareas de los usuarios.
La comunicación con el sistema UNIX se da mediante un programa de control llamado SHELL. Este es un lenguaje de control, un intérprete, y un lenguaje de programación, cuyas características lo hacen sumamente flexible para las tareas de un centro de cómputo. Como lenguaje de programación abarca los siguientes aspectos:
- Ofrece las estructuras de control normales: secuenciación, iteración condicional, selección y otras.
- Paso de parámetros.
- Sustitución textual de variables y Cadenas.
- Comunicación bidireccional entre órdenes de shell.
El shell permite modificar en forma dinámica las características con que se ejecutan los programas en UNIX:
Las entradas y salidas pueden ser redireccionadas o redirigidas hacia archivos, procesos y dispositivos;
Es posible interconectar procesos entre sí.
Diferentes usuarios pueden "ver" versiones distintas del sistema operativo debido a la capacidad del shell para configurar diversos ambientes de ejecución. Por ejemplo, se puede hacer que un usuario entre directamente a su sección, ejecute un programa en particular y salga automáticamente del sistema al terminar de usarlo.
El núcleo del sistema operativo Unix (llamado Kernel) es un programa escrito casi en su totalidad en lenguaje C, con excepción de una parte del manejo de interrupciones, expresada en el lenguaje ensamblador del procesador en el que opera.
Las funciones del núcleo son permitir la existencia de un ambiente en el que sea posible atender a varios usuarios y múltiples tareas en forma concurrente, repartiendo al procesador entre todos ellos, e intentando mantener en grado óptimo la atención individual.
El Kernel opera como asignador de recursos para cualquier proceso que necesite hacer uso de las facilidades de cómputo. Es el componente central de Unix y tiene las siguientes funciones:
- Creación de procesos, asignación de tiempos de atención y sincronización.
- Asignación de la atención del procesador a los procesos que lo requieren.
Qué es Microsoft Windows.
Microsoft Windows es una familia de sistemas operativos desarrollados y comercializados por Microsoft. Existen versiones para hogares, empresas, servidores y dispositivos móviles, como computadores de bolsillo y teléfonos inteligentes. Hay variantes para procesadores de 16, 32 y 64 bits.
Incorpora diversas aplicaciones como Internet Explorer, el Reproductor de Windows Media, Windows Defender, Windows Media Center, WordPad entre otros y diversas aplicaciones que fueron retiradas en Windows 7, tales como: Windows Movie Maker, Windows Mail y la Galería fotográfica de Windows.
Desde hace muchos años es el sistema operativo más difundido y usado del mundo; de hecho la mayoría de los programas (tanto comerciales como gratuitos) se desarrolla originalmente para este sistema. En julio del 2009, Windows tenía aproximadamente el 86% de la cuota de mercado de los sistemas operativos.
Windows 7 es la versión más reciente para computadoras personales, Windows Server 2008 R2 para servidores y Windows Mobile 6.5 en dispositivos móviles.
Qué es FreeBSD
FreeBSD es un sistema operativo libre para computadoras basado en las CPU de arquitectura Intel, incluyendo procesadores 386, 486 (versiones SX y DX), y Pentium. También funciona en procesadores compatibles con Intel como AMD y Cyrix. Actualmente también es posible utilizarlo hasta en once arquitecturas distintas como Alpha, AMD64,IA-64, MIPS, PowerPC y UltraSPARC.
FreeBSD es un sistema operativo multiusuario, capaz de efectuar multitarea con apropiación y multiproceso en plataformas compatibles con múltiples procesadores; el funcionamiento de FreeBSD está inspirado, como ya se dijo, en la variante 4.4 BSD-Lite de UNIX. Aunque FreeBSD no puede ser propiamente llamado UNIX, al no haber adquirido la debida licencia de The Open Group, FreeBSD sí está hecho para ser compatible con la norma POSIX, al igual que varios otros sistemas "clones de UNIX".
El sistema FreeBSD incluye el núcleo, la estructura de ficheros del sistema, bibliotecas de la API de C, y algunas utilidades básicas. La versión 6.13 trajo importantes mejoras como mayor apoyo para dispositivos Bluetooth y controladores para tarjetas de sonido y red.
La versión 7.0, lanzada el 27 de febrero del año 2008, incluye compatibilidad con el sistema de archivos ZFS de Sun y a la arquitectura ARM, entre otras novedades.
Qué es Solaris
Solaris es un sistema operativo de tipo Unix desarrollado por Sun Microsystems desde 1992 como sucesor de SunOS. Es un sistema certificado oficialmente como versión de Unix. Funciona en arquitecturas SPARC y x86 para servidores y estaciones de trabajo.
Solaris tiene una reputación de ser muy adecuado para el multiprocesamiento simétrico (SMP), soportando un gran número de CPUs. También ha incluido soporte para aplicaciones de 64 bits SPARC desde Solaris 7. Históricamente Solaris ha estado firmemente integrado con la plataforma hardware de Sun, SPARC, con la cual fue diseñado y promocionado como un paquete combinado. Esto proporcionaba frecuentemente unos sistemas más fiables pero con un coste más elevado que el del hardware de PC. De todas formas, también ha soportado sistemas x86 desde la versión Solaris 2.1 y la última versión, Solaris 10, ha sido diseñada con AMD64 en mente, permitiendo a Sun capitalizar en la disponibilidad de CPUs de 64 bits commodities basadas en la arquitectura AMD64. Sun ha promocionado intensamente Solaris con sus estaciones de trabajo de nivel de entrada basadas en AMD64,un ha dejado de ofrecer estaciones de trabajo basadas en arquitectura SPARC, reemplazándolas por modelos basados en Intel Core 2.
Qué es Mac OS
Mac OS (del inglés Macintosh Operating System, en español Sistema Operativo de Macintosh) es el nombre del sistema operativo creado por Apple para su línea de computadoras Macintosh. Es conocido por haber sido el primer sistema dirigido al gran público en contar con una interfaz gráfica compuesta por la interacción del mouse con ventanas, Icono y menús.
Apple quitó importancia de forma deliberada a la existencia del sistema operativo en los primeros años de su línea Macintosh procurando que la máquina resultara más agradable al usuario, diferenciándolo de otros sistemas contemporáneos, como MS-DOS, que eran un desafío técnico. El equipo de desarrollo del Mac OS original incluía a Bill Atkinson, Jef Raskin y Andy Hertzfeld.
Esta fue la base del Mac OS clásico, desarrollado íntegramente por Apple, cuya primera versión vio la luz en 1984. Su desarrollo se extendería en un modelo progresivo hasta la versión 9 del sistema, lanzada en 1999. A partir de Mac OS X, el sistema es un derivado de Unix que mantiene en su interfaz gráfica muchos elementos de las versiones anteriores.
Hay una gran variedad de puntos de vista sobre cómo fue desarrollado el Mac OS original y dónde se originaron las ideas subyacentes. Mientras la conexión entre el proyecto Macintosh y el proyecto Alto de Xerox PARC ha sido establecido por documentos históricos, las contribuciones iniciales del Sketchpad de Ivan Sutherland y el On-Line System de Doug Engelbart también fueron significativas.
8 ene 2010
Mejores CPUs para jugar en función del precio
Publican en Tom's Hardware una comparativa sobre qué procesador comprar para jugar en relación al dinero que teníamos pensado gastarnos. Esto es algo que ya habían hecho más veces pero centrándose en las gráficas, veamos qué nos depara con las CPUs.
Empezaremos desde los procesadores más baratos e iremos subiendo.
El primero, por 65 dólares es un Athlon II X2 245, que funciona a 2,9 GHz y según parece es lo mínimo que habría que comprar actualmente si el ordenador va destinado a juegos. Desde luego es una "inversión" muy asumible.
Subiendo hasta los 80 dólares podríamos optar a un Athlon II X3 425, el cual nos ofrece un núcleo más que se podría notar en ciertos juegos y por contra tiene 100MHz menos, que como indican se podrían conseguir a través de overclock. Por 15 dólares da la impresión de que lo recomiendan.
El siguiente escalón sería el Athlon II X3 435 que recupera esos 100MHz a costa de 10 dólares. Para ellos es interesante si el objetivo es realizar overclock elevado gracias a su mayor multiplicador. En el mismo grupo se encuentra el Intel E6500, el cual a pesar de ser un doble núcleo sube muy bien hasta los 4GHz, con lo cual con una placa Intel sería una buena opción.
En torno a los 100 dólares se encuentra el Athlon II X4 620, éste es recomendado para juegos que aprovechen 4 núcleos, pero teniendo en cuenta que en los demás rendirá menos que un X3 425 o X3 435 debido a su menor frecuencia (2,6 GHz). También nombran el Phenom II X2 550 BE, el cual aunque es doble núcleo viene por defecto a alta frecuencia (3,1GHz) y tiene el multiplicador desbloqueado.
A partir de los 120 dólares ya no recomiendan nada, mencionan el Phenom II X3 720 y otros como el Core 2 Duo E7500, pero parece que no salen a cuenta. Entrando en procesadores de más dinero eligen el Phenom II X4 955 por 175 dólares, que sería la opción más completa de AMD y obvian alternativas más caras como el Q9400 o el E8500.
Para finalizar estaría el top de Intel, el Core i5-750 por 200 dólares y el Core i7-920 por 280, los cuales serían los procesadores más potentes. Imagino que casi a modo de chiste aparece el Core i7-975 extreme por la friolera de 1.000 dólares. Esta es "una inversión" algo más importante
Empezaremos desde los procesadores más baratos e iremos subiendo.
El primero, por 65 dólares es un Athlon II X2 245, que funciona a 2,9 GHz y según parece es lo mínimo que habría que comprar actualmente si el ordenador va destinado a juegos. Desde luego es una "inversión" muy asumible.
Subiendo hasta los 80 dólares podríamos optar a un Athlon II X3 425, el cual nos ofrece un núcleo más que se podría notar en ciertos juegos y por contra tiene 100MHz menos, que como indican se podrían conseguir a través de overclock. Por 15 dólares da la impresión de que lo recomiendan.
El siguiente escalón sería el Athlon II X3 435 que recupera esos 100MHz a costa de 10 dólares. Para ellos es interesante si el objetivo es realizar overclock elevado gracias a su mayor multiplicador. En el mismo grupo se encuentra el Intel E6500, el cual a pesar de ser un doble núcleo sube muy bien hasta los 4GHz, con lo cual con una placa Intel sería una buena opción.
En torno a los 100 dólares se encuentra el Athlon II X4 620, éste es recomendado para juegos que aprovechen 4 núcleos, pero teniendo en cuenta que en los demás rendirá menos que un X3 425 o X3 435 debido a su menor frecuencia (2,6 GHz). También nombran el Phenom II X2 550 BE, el cual aunque es doble núcleo viene por defecto a alta frecuencia (3,1GHz) y tiene el multiplicador desbloqueado.
A partir de los 120 dólares ya no recomiendan nada, mencionan el Phenom II X3 720 y otros como el Core 2 Duo E7500, pero parece que no salen a cuenta. Entrando en procesadores de más dinero eligen el Phenom II X4 955 por 175 dólares, que sería la opción más completa de AMD y obvian alternativas más caras como el Q9400 o el E8500.
Para finalizar estaría el top de Intel, el Core i5-750 por 200 dólares y el Core i7-920 por 280, los cuales serían los procesadores más potentes. Imagino que casi a modo de chiste aparece el Core i7-975 extreme por la friolera de 1.000 dólares. Esta es "una inversión" algo más importante
7 ene 2010
Tendencias Tecnológicas
Por: Michael V. Copeland
Las tendencias tecnológicas pueden ser fáciles de ubicar: los audífonos del iPod se volvieron omnipresentes, la gente usa "googlear" como verbo, pero las inversiones tecnológicas son difíciles. Por cada Apple y Google existen muchas compañías tecnológicas que no han logrado convertir sus innovaciones en acciones de alto desempeño.
¿Cómo elegir a los ganadores?
La clave es encontrar a las compañías mejor posicionadas para ejecutar cambios masivos en la forma en la que los consumidores y los negocios hacen uso de la tecnología.
En la década de los 90, cuando las computadoras personales se convirtieron en ganancias para compañías gigantes como Intel y Microsoft, quienes astutamente posicionaron sus procesadores y software respectivamente, los componentes esenciales se vendían virtualmente en cada PC. Dell, quien encontró una forma más eficiente para construir y distribuir máquinas, vio cómo sus acciones se elevaron: una inversión de 1,000 dólares en el fabricante de PCs, Dell, en 1990, logró un valor de 890,000 dólares al final de 1999.
En 2000, las PCs dejaron de tener un crecimiento fuerte: las siguientes grandes tecnologías cambiaron junto con el Internet y la digitalización de la música, fotos y videos. Las acciones de Western Digital, las cuales crean discos duros para almacenar información, crecieron 887% durante la última década. Ninguna compañía explotó la dominio de Internet como lo hizo Google, cuyas acciones se han septuplicado desde su oferta inicial pública en 2004.
Varios nombres tecnológicos están comerciando cerca de su alza de 52 semanas, así que si están considerando invertir en ese sector, necesitarán ser cuidadosos sobre cuándo compran, incluso si son inversionistas a largo plazo.
Apostar a los cambios en la tecnología no es para los débiles: muchas de las compañías que están impulsando nuevas ideas son empresas cuyo desempeño de acciones puede ser volátil, o cuyos innovadores podrían ser imitados por gigantes tecnológicos más grandes y mejor establecidos.
Pero si están dispuestos a arriesgarse en una compañía que tal vez (o tal vez no) pueda convertirse en la siguiente Dell, Google o Apple, deben echar un mejor vistazo a las siguientes tendencias para los próximos diez años, y nueve compañías que podrían beneficiarse enormemente.
Software al alcance
Si preguntan a cualquier ejecutivo tecnológico corporativo, les dirá que la tendencia del futuro es el software por Internet (como servicios de correo como Gmail, de Google), en vez de aplicaciones que se instalan de forma local en computadoras y servidores propiedad de la compañía.
Los equipos tecnológicos y los jefes ejecutivos disfrutan del "software como servicio" porque no tienen que invertir en centros de información masivos, y pueden comprar o cancelar el servicio cuando sumen o despidan empleados.
Salesforce.com inició el modelo, pero otros, como IBM, Microsoft y Oracle, también buscan la forma de entregar el software por la red. También las compañías más pequeñas están aplicando el modelo de software como servicio para funciones corporativas específicas.
SuccessFactors, con base en San Mateo, California, ayuda a las compañías a asesorar objetivos de los empleados en línea. Desde que se volvió una empresa pública en noviembre de 2007, las acciones han estado en boca de todo debido a las pérdidas operativas y al impacto de la recesión. Recientemente, ha dado seguimiento a sus clientes, y sus acciones han aumentado 185% en lo que va del año.
SuccessFactors está buscando oportunidades mayores en un área llamada "software de ejecución de negocios", un nuevo conjunto de aplicaciones que une el software de desempeño de los empleados actual con las herramientas que les ayudan a lograr sus objetivos estratégicos.
La compañía cree que su oferta de software adicional aumentará su mercado atendible a 36,000 millones de dólares a nivel mundial, de los 16,000 millones de dólares con los que cuenta hoy en día. Si el servicio puede ayudar a las compañías a bajar los costos mientras los empleados se desempeñan, mejor, SuccessFactors podría superar las estimaciones del crecimiento de ganancias que la Bolsa les tiene preparadas.
El cuidado a la salud es otra zona de gran crecimiento en cuanto a la demanda de software. La tecnología de la información ha intentado con poco éxito desde hace décadas, entrar a las oficinas de los doctores y a los hospitales. Los proveedores siempre han visto a los costos como un punto disuasivo. El sistema de cuidado a la salud en Estados Unidos está por digitalizarse gracias a los 45,000 millones de dólares de financiamiento federal destinado a la tecnología de la información de la salud.
Una compañía que podría beneficiarse en AthenaHealth, la cual vende a los doctores software para automatizar los cargos y los pagos. Athena, empresa pública desde septiembre de 2007, ahora comercia a 44 veces sus ganancias, lo que la convierte en una acción bastante rica.
Pero Athena se enfoca sabiamente en las prácticas de los médicos, un mercado muy difícil de atender, pero uno muy completo. Hay cerca de 230,000 consultorios en Estados Unidos, y los gigantes como GE y McKeeson podrían no tener la inclinación o los recursos para tocar en todas esas puertas.
Otra compañía que tiende a beneficiarse de la tendencia de software como servicio es F5 Networks, con base en Seattle. F5 vende hardware y software que aceleran el reparto de aplicaciones con base en la Web. Entre sus clientes se encuentran ocho de los mejores nueve proveedores de software. A pesar de la recesión, F5 aumentó su participación en el mercado y obtuvo ingresos netos de 23% en el año fiscal 2009. Si la economía sigue así, F5 podrá contar con 317 millones de dólares en efectivo.
El auge de los teléfonos inteligentes
Existen varias razones para invertir en Apple, pero tal vez la acción más razonable es la del iPhone. Aunque la venta de los teléfonos convencionales está lenta, los teléfonos inteligentes que pueden tener acceso a Internet van a la alza.
Gracias a una expansión agresiva en los mercados internacionales, ahora Apple tiene 18% de la participación global en el mercado gracias a estos aparatos (después de Nokia y Research in Motion, el creador de BlackBerry), 14% arriba de su segundo trimestre en 2009. Y eso que Apple apenas va empezando.
Apple ha construido una plataforma de computación móvil que pretende hacer para los teléfonos lo que Windows de Microsoft hizo por las computadoras. Sí, sus acciones son costosas, pero las ganancias proyectan un crecimiento de 19.7% al año por los próximos cinco años. Recuerden que Apple, quien también crea computadoras personales y reproductores de música, ha encontrado la forma de superar las expectativas.
Intel, quien fue el gigante durante la era de las PCs gracias al microchip que aplicó en tantas computadoras como pudo, podría expandirse en los dispositivos móviles, pero otra compañía, Broadcom, ya tiene una posición fuerte en el mundo inalámbrico. Sus chips permiten a los teléfonos conectarse con redes inalámbricas locales (Wi-Fi y Bluetooth), reproducir videos y ofrecen navegación GPS. Los analistas esperan que Broadcon aumente sus ganancias en un 16% anual durante los próximos cinco años, cambiando el ritmo del crecimiento de ganancias en el mercado más amplio.
De hecho, los chips Broadcom han encontrado la manera de entrar a los iPhones más nuevos. Si creen que los teléfonos inteligentes representan el futuro de la tecnología de la información, Broadcom merece un vistazo más cercano.
Información por todos lados
Los consumidores y los negocios constantemente están generando cantidades enormes de información, desde videos hogareños hasta registros corporativos y de empleados. Las compañías podrán capturar, almacenar, manejar y hacer crecer el volumen de información durante la próxima década. Google, quien convierte las búsquedas de información en línea en plataformas para publicidad, es el mejor ejemplo de una compañía que toma ventaja de la tendencia.
Pero otras compañías podrían hacer dinero en la sobrecarga de información. Informatica ayuda a los clientes corporativos grandes a clasificar las tendencias de información que surgen de sus empleados, clientes y proveedores.
La compañía de software, con base en Redwood City, California, vende servicios de integración de información que organizan información entre varias aplicaciones corporativas. Podían sincronizar las ventas de información con base en la Web con un software de manejo de clientes interno para ayudar a descifrar qué clientes están asegurando los mayores descuentos.
Aún en medio de la recesión, Informatica ha estado en buena posición últimamente, con ingresos anuales de 474 millones de dólares, 6% más que el año anterior. Las ganancias del tercer trimestre crecieron 26% año tras año.
Todo ese crecimiento, junto con poca deuda y un crecimiento en ventas de cerca de 12% en 2010, no ha sido ignorado por los inversionistas (o compradores potenciales como Oracle, Cisco e IBM). Podrían esperar para comprar, pero cuando lo hagan, aférrense a sus acciones porque el problema que Informatica atiende sólo va a empeorar.
CommVault es otra forma de capitalizar la información. Al igual que Informatica, CommVault negocia con compañías para atender el problema de asegurar su información en sus negocios, sin importar cuáles sean las razones estratégicas o las regulaciones.
Las acciones son caras, pero los analistas esperan que sus ganancias crezcan 17% al año por los siguiente cinco años, mientras que S&P 500 proyecta un crecimiento de sólo 11% anual durante el mismo período. La compañía tiene todo a su favor, pero los analistas dicen que CommVault es una adquisición meta para las grandes compañías tecnológicas.
Electricidad inteligente
Si el futuro de nuestro ambiente va a depender cada vez más de las energías renovables del sol y del viento, y nuestros autos funcionarán con electricidad, ésta también crecerá.
Sin paneles más inteligentes, nada de esto funcionará porque no cuentan con las capacidades necesarias para monitorear su actividad. Uno de los principales problemas de utilidades es la incapacidad de predecir la demanda. Cuando esta aumenta, el sistema cae y todos quedan en completa oscuridad. Asimismo, los precios de la energía tienden a aumentar.
EnerNOC, con base en Boston, desarrolló un software que crea un punto medio entre las utilidades y los clientes que firman acuerdos para emplear energía no esencial durante períodos altos a cambio de un pago.
Con este sistema de "respuesta a la demanda", las utilidades pueden obtener el poder que necesitan para lograr el punto alto durante las emergencias, y los usuarios recibirían un pago por su ayuda. En noviembre, más de 2,500 establecimientos firmaron con EnerNOC, colocando 3,250 mega-watts de energía bajo su administración. La compañía logro ganancias de 27 millones de dólares durante el tercer trimestre, su primer período rentable desde su fundación en 2001, con ingresos para el trimestre de 103 millones de dólares.
El precio de sus acciones ha estado aumentado, triplicando su valor desde las bajas de noviembre. Aún así, la compañía comercia muy por debajo de los 50 dólares por acción que valía en diciembre de 2007, no mucho después de su oferta inicial pública. Los analistas creen que sus ganancias crecerán 33% por los siguientes cinco años, lo que sugiere que las acciones tienen de dónde crecer.
Los ataques cibernéticos de 2010: iPhone y sitios sociales
Los investigadores dicen que Google Wave, sitios de redes sociales y iPhones podrían ser el próximo gran objetivo de ataques por parte de delincuentes cibernéticos en 2010.
Google Wave permite a almacenar a los usuarios sus correos electrónicos, textos y otras comunicaciones en un solo servidor principal. Los expertos dicen que el servidor podría ser vulnerable a un ataque cibernético.
También están en las listas de ataques los sitios de redes sociales como Twitter y Facebook. Un ataque puede ser tan sencillo como un mensaje recibido de un supuesto amigo. Al seguir las instrucciones de dicho mensaje, fácilmente uno pudiera caer en el juego de estos delincuente sinformñaticos.
La mejor manera de protegerse es cuestionar todo lo que se vea en línea y buscar ayuda profesional.
Google Wave permite a almacenar a los usuarios sus correos electrónicos, textos y otras comunicaciones en un solo servidor principal. Los expertos dicen que el servidor podría ser vulnerable a un ataque cibernético.
También están en las listas de ataques los sitios de redes sociales como Twitter y Facebook. Un ataque puede ser tan sencillo como un mensaje recibido de un supuesto amigo. Al seguir las instrucciones de dicho mensaje, fácilmente uno pudiera caer en el juego de estos delincuente sinformñaticos.
La mejor manera de protegerse es cuestionar todo lo que se vea en línea y buscar ayuda profesional.
6 ene 2010
Intel busca reemplazar al BIOS
El BIOS, también conocido como "Sistema Básico de Entrada/Salida", cumple un rol crítico en la fase de inicio tanto del ordenador como del sistema operativo. Sus niveles de control pueden ser muy básicos, con parámetros como la fecha y la hora, o extremadamente sensibles, como la velocidad del procesador y los niveles de voltaje. Su utilidad es innegable, pero el BIOS ya tiene un cuarto de siglo de antigüedad, y ha sido extendido y modificado en exceso para adaptarse a nuevo hardware. Una solución más moderna es necesaria, y la Interfaz de Firmware Extensible, conocida como EFI, tal vez sea la respuesta. Intel ha propuesto desde hace un tiempo su propia versión del EFI, pero hasta ahora, la resistencia de los fabricantes es lo que ha mantenido alejada a esta tecnología de la mayoría de nuestros ordenadores.
En general, el usuario promedio no conoce bien al BIOS. Puede llegar a ver alguna que otra leyenda sobre el BIOS al inicio del ordenador, pero es muy poco probable que se vea en la necesidad de ingresar a él, a menos que desee realizar un ajuste de bajo nivel en la configuración del ordenador. Uno de esos ajustes puede ser el overclocking. Existen muchas utilidades (algunas disponibles a través de los mismos fabricantes de placas madre) que permiten realizar un overclocking dinámico desde el interior de Windows, pero la mayoría de los que practican esta actividad prefieren cambiar los valores directamente desde el BIOS. Recuerdo el BIOS de mi ya desaparecido 386 DX, en donde aprendí a realizar formatos de bajo nivel a discos rígidos de 40 MB para dejarlos a punto. Desde entonces, los BIOS han recorrido un largo camino, cambiando de forma considerable, pero al mismo tiempo conservando código que posee veinticinco años de edad.
El BIOS nos ha acompañado desde hace mucho tiempo. ¿Hora de cambiarlo?
Muchos consideran que es momento de reemplazar al BIOS. Su estado actual ha excedido ampliamente a su función original, con BIOS modificados por los fabricantes para adaptarlos a nuevos componentes de hardware que de otra forma no podrían funcionar. El mejor reemplazo que existe actualmente para el BIOS es el sistema EFI, o Interfaz de Firmware Extensible, un "hombre del medio" entre el sistema operativo y el firmware de una plataforma. El soporte EFI se vio por primera vez en plataformas Linux en el año 2000, mientras que Windows 2000 en sus versiones Itanium fue el primer sistema operativo de Microsoft en ser compatible con EFI. Por otro lado, los sistemas de Apple ya llevan un buen tiempo utilizando a la implementación de EFI desarrollada por Intel. Si alguna vez te has preguntado por qué las Mac encienden tan rápido, encontrarás gran parte de la respuesta en el EFI.
Sin embargo, el interés de los fabricantes de hardware por adoptar de forma masiva al EFI ha sido mínimo. Han aparecido algunos productos que ofrecen compatibilidad con EFI, pero en el mejor de los casos, dicha compatibilidad se encontraba en fase beta, y nunca alcanzó un estado en el que pueda ser considerada como un producto listo para el público. Además, el BIOS es un "viejo conocido", y como ha sabido cubrir todas las necesidades presentes hasta la fecha, el entusiasmo por adoptar al EFI es casi nulo. De acuerdo a muchos expertos, los beneficios del EFI son insignificantes, no reemplaza por completo al BIOS, y eleva la complejidad del sistema de forma significativa. Como si eso fuera poco, no hay nada que indique cierta retro-compatibilidad entre EFI y los BIOS actuales, de forma tal que el hardware disponible no podría recibir a EFI a través de un flash o una actualización de firmware. Intel, AMD, Apple y Microsoft son apenas cuatro de las grandes empresas que promocionan la adopción del sistema EFI a través de a "alianza UEFI", pero sin el apoyo completo de los fabricantes de hardware, dicha adopción no pasará más allá de comunicados y archivos PDF.
En general, el usuario promedio no conoce bien al BIOS. Puede llegar a ver alguna que otra leyenda sobre el BIOS al inicio del ordenador, pero es muy poco probable que se vea en la necesidad de ingresar a él, a menos que desee realizar un ajuste de bajo nivel en la configuración del ordenador. Uno de esos ajustes puede ser el overclocking. Existen muchas utilidades (algunas disponibles a través de los mismos fabricantes de placas madre) que permiten realizar un overclocking dinámico desde el interior de Windows, pero la mayoría de los que practican esta actividad prefieren cambiar los valores directamente desde el BIOS. Recuerdo el BIOS de mi ya desaparecido 386 DX, en donde aprendí a realizar formatos de bajo nivel a discos rígidos de 40 MB para dejarlos a punto. Desde entonces, los BIOS han recorrido un largo camino, cambiando de forma considerable, pero al mismo tiempo conservando código que posee veinticinco años de edad.
El BIOS nos ha acompañado desde hace mucho tiempo. ¿Hora de cambiarlo?
Muchos consideran que es momento de reemplazar al BIOS. Su estado actual ha excedido ampliamente a su función original, con BIOS modificados por los fabricantes para adaptarlos a nuevos componentes de hardware que de otra forma no podrían funcionar. El mejor reemplazo que existe actualmente para el BIOS es el sistema EFI, o Interfaz de Firmware Extensible, un "hombre del medio" entre el sistema operativo y el firmware de una plataforma. El soporte EFI se vio por primera vez en plataformas Linux en el año 2000, mientras que Windows 2000 en sus versiones Itanium fue el primer sistema operativo de Microsoft en ser compatible con EFI. Por otro lado, los sistemas de Apple ya llevan un buen tiempo utilizando a la implementación de EFI desarrollada por Intel. Si alguna vez te has preguntado por qué las Mac encienden tan rápido, encontrarás gran parte de la respuesta en el EFI.
Sin embargo, el interés de los fabricantes de hardware por adoptar de forma masiva al EFI ha sido mínimo. Han aparecido algunos productos que ofrecen compatibilidad con EFI, pero en el mejor de los casos, dicha compatibilidad se encontraba en fase beta, y nunca alcanzó un estado en el que pueda ser considerada como un producto listo para el público. Además, el BIOS es un "viejo conocido", y como ha sabido cubrir todas las necesidades presentes hasta la fecha, el entusiasmo por adoptar al EFI es casi nulo. De acuerdo a muchos expertos, los beneficios del EFI son insignificantes, no reemplaza por completo al BIOS, y eleva la complejidad del sistema de forma significativa. Como si eso fuera poco, no hay nada que indique cierta retro-compatibilidad entre EFI y los BIOS actuales, de forma tal que el hardware disponible no podría recibir a EFI a través de un flash o una actualización de firmware. Intel, AMD, Apple y Microsoft son apenas cuatro de las grandes empresas que promocionan la adopción del sistema EFI a través de a "alianza UEFI", pero sin el apoyo completo de los fabricantes de hardware, dicha adopción no pasará más allá de comunicados y archivos PDF.
Suscribirse a:
Entradas (Atom)









