Programas

* Antivirus y antispyware para la protección de Windows más confiable del mundo empresa de seguridad. Utilice Internet con confianza en su hogar o pequeña oficina.
* Fácil de descargar, instalar y utilizar * Protección contra virus, spyware, adware, troyanos y gusanos
* Seguridad en tiempo real mientras que usted practica surf y de chat en línea
* Comienzo de la página protección de la calidad-que no lento su sistema abajo
* Libre de apoyo y servicio las veinticuatro horas del día y en todo el mundo
* Compatible con Windows Vista y Windows XP
Características:
La protección integral
* Anti-virus: la protección contra virus, gusanos y troyanos
* Anti-Spyware: protección contra spyware, adware y el robo de identidad
* Anti-Rootkit: la protección contra amenazas ocultas (rootkits)
* Web Shield y LinkScanner: protección contra sitios Web maliciosos Fácil de usar, automatizados de protección Protección en tiempo real, actualizaciones automáticas, de bajo impacto para la exploración de antecedentes en línea amenazas, y al instante en cuarentena o eliminación de archivos infectados garantiza la máxima protección. Cada interacción entre su computadora y la Internet se controla, de modo que nada puede conseguir en su sistema sin su conocimiento. PROMEDIO escanea en tiempo real:
* Todos los archivos incluyendo documentos, imágenes y aplicaciones
* E-mails (todos los principales clientes de correo electrónico son compatibles)
* La mensajería instantánea y comunicaciones P2P
* Descargas de archivos y transacciones en línea como las compras y la banca
* Resultados de la búsqueda y cualquier otra vínculos de hacer clic en El uso de Internet con la paz de la mente La nueva web de escudo comprobaciones cada página web en el momento de hacer clic en el enlace para asegurarse de que no está afectada por un furtivo por la unidad de descarga o cualquier otra explota. Todos los enlaces a páginas de resultados de búsqueda en Google, Yahoo, MSN y se analizan y su actual nivel de amenaza se informa en tiempo real antes de hacer clic en el enlace y visita el sitio. La mejor protección de Windows - la confianza de millones de usuarios de AVG la premiada tecnología antivirus protege a millones de usuarios y está certificada por las principales organizaciones de pruebas antivirus (VB100%, ICSA, West Coast Labs Checkmark).
Requisitos del sistema - Windows Vista, Windows XP, Windows 2000, Windows NT, Windows Me, Windows 98. [Nota: PROMEDIO casa y oficina pequeña productos no tienen el apoyo a sistemas operativos de servidor (Windows NT Server, Windows 2000/2003 Server, etc.)] - Procesador a 1,2 GHz - 70 MB libres en disco duro - 256 MB de RAM
DESCARGAR:

CCleaner v.13.720 (Full+Portable):

Programa CCleaner se ha consolidado como una de la mejores herramientas en cuanto a limpieza de ordenadores se refiere. Debido a su gran eficacia en cuanto a limpieza de registros, desinstalación de programas, limpieza de cookies e historial de Internet, plugins y caché , se refiere. ¿Usted estará pensando ha para que necesito CCleaner, vasta con el agregar o quitar programas de Windows? Pues le informo que está equivocado el desinstalado de Windows desinstala a medias los programas un ejemplo de ello es por ejemplo Kasperky o Nero en cualquiera de sus versiones desinstale con Windows y verá que en su disco quedarán las carpetas con los plugins y archivos de inicio de los mencionados programas, además no limpiará los registros del programa ya obsoleto Ponga se en manos de programas especializados como lo es CCleanner ahora con su nueva y mejorada versión CCleaner Slim v. 2.11 final le garantizará una limpieza total a la hora de desinstalar un programa, eliminando los registros y plugins de forma definitiva. Adicional a este, e insertado en este duo pack el CCleaner Slim 2.11 final (Portable), pensando en aquellas personas que se dedican a reparar o limpiar Ordenadores, vasta con copiarlo en una memoria USB y listo o también aquellas personas que no les gusta instalar y prefieren programas portables. Además he insertado un Tutorial hecho por mí con Indicaciones y advertencias sobre la configuración y uso del programa.
DESCARGAR:

DirectX 10 para Windows XP, Incrementa la Compatibilidad de los VideoJuegos
DirectX 10 NCT 2 es el nuevo patch que incrementa la compatibilidad de los nuevos juegos y programas en windows xp consiguiendo el aumento de velocidad y calidad de imagen en los juegos. En principio el patch corrige errores existentes en algunos juegos que corren bajo la version directX 9.0c y versiones anteriores. Para conseguir los mejores resultados se necesita de una tarjeta de video con soporte de DirectX 10, con ello se lograria tener acceso a opciones avanzadas de las Librerias. Con esta version la cantidad de librerias(dlls) se incrementa al doble consiguiendo la jerarquia de un mismo DirectX 10 para Windows XP.




DESCARGAR:

Navegador: Morzilla Fiferox

Personalizado: Taringa

Este programa te alludara a bajar ya sea musica, juegos, videos, programas, juegos on-line con el mejor navegador mas rapido.


Descargar:

GNU/Linux

GNU/Linux es un sistema operativo similar a Unix que se distribuye bajo la Licencia Pública General de GNU (GNU GPL), es decir que es software libre. Su nombre proviene del núcleo Linux, desarrollado desde 1991 por Linus Torvalds, y el proyecto GNU, iniciado en 1983 por Richard Stallman. Es usado ampliamente en servidores y super-computadores,[1] y cuenta con el respaldo de corporaciones como Dell, Hewlett-Packard, IBM, Novell, Oracle, Red Hat y Sun Microsystems.
Puede ser instalado en gran variedad de hardware, incluyendo computadores de escritorio y portátiles (PCs x86 y x86-64 así como Macintosh y PowerPC), computadores de bolsillo, teléfonos celulares, dispositivos empotrados, videoconsolas (Xbox, PlayStation 3, PlayStation Portable, Dreamcast, GP2X) y otros (como enrutadores o reproductores de audio digital como el iPod).
Las variantes de estos sistemas se denominan "distribuciones" y su objetivo es ofrecer una edición que cumpla con las necesidades de determinado grupo de usuarios. Algunas son gratuitas y otras de pago, algunas insertan software no libre y otras contienen solo software libre. La marca registrada Linux (número de serie: 1916230.[2] ) pertenece a Linus Torvalds y se define como "un sistema operativo para computadoras que facilita su uso y operación". Existen numerosos grupos de usuarios de Linux en casi todos los países del mundo.
Imagen: Logo
Etimología:
Linux se refiere estrictamente al núcleo Linux, pero es comúnmente utilizado para describir al sistema operativo tipo Unix (que implementa el estándar POSIX), que utiliza primordialmente filosofía y metodologías libres y que está formado mediante la combinación del núcleo Linux con las bibliotecas y herramientas del proyecto GNU y de muchos otros proyectos/grupos de software (libre o no libre).
La expresión "Linux" es utilizada para referirse a las distribuciones GNU/Linux, colecciones de software que suelen contener grandes cantidades de paquetes además del núcleo. El software que suelen incluir consta de una enorme variedad de aplicaciones, como: entornos gráficos, suites ofimáticas, servidores web, servidores de correo, servidores FTP, etcétera. Coloquialmente se aplica el término "Linux" a éstas. Algunas personas opinan que es incorrecto denominarlas distribuciones Linux, y proponen llamarlas sistema GNU/Linux. Otras personas opinan que los programas incluidos proceden de fuentes tan variadas que proponen simplificarlo denominándolo simplemente a "Linux".
La pronunciación correcta (para cualquier idioma), según palabras de su autor,[3] es muy cercana a como se pronuncia en español: /lí.nux/ o /lnəks/ (Alfabeto Fonético Internacional).
Historia:
Linux nació gracias a la idea de Linus Torvalds de crear un sistema basado en Unix para máquinas i386. En más de una ocasión, Linus Torvalds ha afirmado que si hubiera sabido de la existencia de los sistemas BSD que ya cumplían lo que hacía Linux, no se habría molestado en modificar Minix. La historia de Linux está fuertemente vinculada a la del proyecto GNU. El proyecto GNU, iniciado en 1983, tiene como objetivo el desarrollo de un sistema Unix completo compuesto enteramente de software libre. Hacia 1991, cuando la primera versión del núcleo Linux fue liberada, el proyecto GNU había producido varios de los componentes del sistema operativo, incluyendo un intérprete de comandos, una biblioteca C y un compilador, pero aún no contaba con el núcleo que permitiera completar el sistema operativo.
Entonces, el núcleo creado por Linus Torvalds, quien se encontraba por entonces estudiando en la Universidad de Helsinki, llenó el "hueco" final que el sistema operativo GNU exigía. Subsecuentemente, miles de programadores voluntarios alrededor del mundo han participado en el proyecto, mejorándolo continuamente. Torvalds y otros desarrolladores de los primeros días de Linux adaptaron los componentes de GNU y de BSD, así como de otros muchos proyectos como Perl, Apache, Python, etc. para trabajar con el núcleo Linux, creando un sistema operativo completamente funcional, procedente de muchísimas fuentes diferentes, la mayoría libres.
Una de las ventajas de Linux es que es libre; esto no sólo quiere decir que sea gratis, sino que además es posible modificar el software según las necesidades, siempre y cuando se cumpla con la Licencia GNU GPL que utiliza este sistema operativo.
Apoyo
Desde finales del 2000 se ha incrementado el apoyo y respaldo de parte de fabricantes de hardware como IBM,[4] Sun Microsystems,[5] Hewlett-Packard,[6] y Novell.[7] Algunos de ellos (como Dell,[8] Hewlett-Packard,[9] [10] Lenovo[11] [12] [13] y Acer[14] ) lo incluyen pre-instalado en algunos modelos de computadoras portátiles y de escritorio para el usuario final. El respaldo de las compañías de software también está presente, ya que -entre otras aplicaciones- Nero, Java, Google Earth, Google Desktop, Adobe Reader, Adobe Flash, RealPlayer y Yahoo! Messenger están disponibles para Linux.

Windows

Windows es una familia de sistemas operativos desarrollados y comercializados por Microsoft. Existen versiones para hogares, empresas, servidores y dispositivos móviles, como computadores de bolsillo y teléfonos inteligentes. Hay variantes para procesadores de 16, 32 y 64 bits.
Incorpora diversas aplicaciones como Internet Explorer, el Reproductor de Windows Media, Windows Movie Maker, Windows Mail, Windows Messenger, Windows Defender, entre otros.
Desde hace muchos años es el sistema operativo más difundido y usado del mundo; de hecho la mayoría de los programas (tanto comerciales como gratuitos y libres) se desarrolla originalmente para este sistema. Todos los fabricantes del planeta dedicados a equipos basados en procesadores Intel o compatibles con éstos (excepto Apple Inc.) preinstalan Windows en su versión más reciente y todas sus variantes.
Windows Vista es la versión más reciente para computadoras personales, Windows Server 2008 para servidores y Windows Mobile 6.0 en los dispositivos móviles.
Imagen: Logo Windows

Historia

Windows 1.0
Artículo principal: Windows 1.0
En 1985 Microsoft publicó la primera versión de Windows, una interfaz gráfica de usuario (GUI) para su propio sistema operativo (MS-DOS) que había sido incluido en el IBM PC y ordenadores compatibles desde 1981.
La primera versión de Microsoft Windows Premium nunca fue demasiado potente ni tampoco se hizo popular. Estaba severamente limitada debido a los recursos legales de Apple, que no permitía imitaciones de sus interfaces de usuario. Por ejemplo, las ventanas sólo podían disponerse en mosaico sobre la pantalla; esto es, nunca podían solaparse u ocultarse unas a otras. Tampoco había "papelera de reciclaje" debido a que Apple creía que ellos tenían la patente de este paradigma o concepto. Ambas limitaciones fueron eliminadas cuando el recurso de Apple fue rechazado en los tribunales. Por otro lado, los programas incluidos en la primera versión eran aplicaciones "de juguete" con poco atractivo para los usuarios profesionales.

Windows 2.0
Apareció en 1987, y fue un poco más popular que la versión inicial. Gran parte de esta popularidad la obtuvo de la inclusión en forma de versión "run-time" de nuevas aplicaciones gráficas de Microsoft, Microsoft Excel y Microsoft Word para Windows. Éstas podían cargarse desde MS-DOS, ejecutando Windows a la vez que el programa, y cerrando Windows al salir de ellas. Windows 2 todavía usaba el modelo de memoria 8088 y por ello estaba limitado a 1 megabyte de memoria; sin embargo, mucha gente consiguió hacerlo funcionar bajo sistemas multitareas como DesqView.

Windows 3.0
La primera versión realmente popular de Windows fue la versión 3.0, publicada en 1990. Ésta se benefició de las mejoradas capacidades gráficas para PC de esta época, y también del microprocesador 80386, que permitía mejoras en las capacidades multitarea de las aplicaciones Windows. Esto permitiría ejecutar en modo multitarea viejas aplicaciones basadas en MS-DOS. Windows 3 convirtió al IBM PC en un serio competidor para el Apple Macintosh.

OS/2
Artículos principales: OS/2
OS/2 es un sistema operativo de IBM que intentó suceder a DOS como sistema operativo de los PCs. Se desarrolló inicialmente de manera conjunta entre Microsoft e IBM, hasta que la primera decidió seguir su camino con su Windows 3.0 e IBM se ocupó en solitario de OS/2.

OS/2.1
Durante la segunda mitad de los 80, Microsoft e IBM habían estado desarrollando conjuntamente OS/2 como sucesor del DOS, para sacar el máximo provecho a las capacidades del procesador Intel 80286. OS/2 utilizaba el direccionamiento hardware de memoria disponible en el Intel 80286 para poder utilizar hasta 16 MB de memoria. La mayoría de los programas de DOS estaban por el contrario limitados a 640 KB de memoria. OS/2 1.x también soportaba memoria virtual y multitarea.
Más adelante IBM añadió, en la versión 1.1 de OS/2, un sistema gráfico llamado Presentation Manager (PM). Aunque en muchos aspectos era superior a Windows, su API (Programa de Interfaz de Aplicaciones) era incompatible con la que usaban los programas de este último. (Entre otras cosas, Presentation Manager localizaba el eje de coordenadas X,Y en la parte inferior izquierda de la pantalla como las coordenadas cartesianas, mientras que Windows situaba el punto 0,0 en la esquina superior izquierda de la pantalla como otros sistemas informáticos basados en ventanas).
A principio de los 90, crecieron las tensiones en la relación entre IBM y Microsoft. Cooperaban entre sí en el desarrollo de sus sistemas operativos para PC y cada uno tenía acceso al código del otro. Microsoft quería desarrollar Windows aún más, mientras IBM deseaba que el futuro trabajo estuviera basado en OS/2. En un intento de resolver estas diferencias, IBM y Microsoft acordaron que IBM desarrollaría OS/2 2.0 para reemplazar a OS/2 1.3 y Windows 3.0, mientras Microsoft desarrollaría un nuevo sistema operativo, OS/2 3.0, para suceder más adelante al OS/2 2.0.
Este acuerdo pronto fue dejado de lado y la relación entre IBM y Microsoft terminó. IBM continuó desarrollando IBM OS/2 2.0 mientras que Microsoft cambió el nombre de su (todavía no publicado) OS/2 3.0 a Windows NT.
(Microsoft promocionó Windows NT con tanto éxito que la mayoría de la gente no se dio cuenta de que se trataba de un OS/2 remozado.) Ambos retuvieron los derechos para usar la tecnología de OS/2 y Windows desarrollada hasta la fecha de terminación del acuerdo.

OS/2 2.0
IBM publicó OS/2 versión 2.0 en 1992. Esta versión suponía un gran avance frente a OS/2 1.3. Incorporaba un nuevo sistema de ventanas orientado a objetos llamado Workplace Shell como sustituto del Presentation Manager, un nuevo sistema de ficheros, HPFS, para reemplazar al sistema de ficheros FAT de DOS usado también en Windows y aprovechaba todas las ventajas de las capacidades de 32 bit del procesador Intel 80386. También podía ejecutar programas DOS y Windows, ya que IBM había retenido los derechos para usar el código de DOS y Windows como resultado de la ruptura.

OS/2 3.0 y 4.0
IBM continuó vendiendo OS/2, produciendo versiones posteriores como OS/2 3.0 (también llamado Warp) y 4.0 (Merlin). Pero con la llegada de Windows 95, OS/2 comenzó a perder cuota de mercado. Aunque OS/2 seguía corriendo aplicaciones de Windows 3.0, carecía de soporte para las nuevas aplicaciones que requerían Windows 95. Al contrario que con Windows 3.0, IBM no tenía acceso al código fuente de Windows 95; y tampoco tenía el tiempo ni los recursos necesarios para emular el trabajo de los programadores de Microsoft con Windows 95; no obstante, OS/2 3.0 (Warp) apareció en el mercado antes que Windows 95 (que se retrasaba respecto a la fecha inicial de lanzamiento); como mejoras incorporaba una reducción en los requisitos de hardware (pasaba de pedir 8 Mb de memoria RAM de su antedecesor OS/2 2.1 a pedir sólo 4 Mb), y como gran añadido, incorporaba el llamado BonusPack, un conjunto de aplicaciones de oficina, comunicaciones, etc que ahorraban el tener que comprar software adicional como en el caso de Windows. Todo esto unido a una gran campaña publicitaria y a un muy reducido precio (el equivalente a unos 59.40 € frente a los 100 € de Windows) provocaron que mucha gente se animase a probarlo en lugar de esperar la llegada de Windows 95. Lamentablemente, el posterior abandono por parte de IBM hizo que fuese quedando relegado (aunque sigue siendo utilizado -cada vez menos- en sectores bancarios por su alta estabilidad).

Windows 3.1 y Windows 3.11
Artículos principales: Windows 3.1 y Windows 3.11
En respuesta a la aparición de OS/2 2.0 , Microsoft desarrolló Windows 3.1, que incluía diversas pequeñas mejoras a Windows 3.0 (como las fuentes escalables TrueType), pero que consistía principalmente en soporte multimedia. Más tarde Microsoft publicó el Windows 3.11 (denominado Windows para trabajo en grupo), que incluía controladores y protocolos mejorados para las comunicaciones en red y soporte para redes punto a punto.

Windows NT
Artículos principales: Windows NT y Windows NT 3.x
Mientras tanto Microsoft continuó desarrollando Windows NT. Para ello reclutaron a Dave Cutler, uno de los jefes analistas de VMS en Digital Equipment Corporation (hoy parte de Compaq, que en 2005 fue comprada por HP) para convertir NT en un sistema más competitivo.
Cutler había estado desarrollando un sucesor del VMS en DEC(Digital Equipment Corporation) llamado Mica, y cuando DEC abandonó el proyecto se llevó sus conocimientos y algunos ingenieros a Microsoft. DEC también creyó que se llevaba el código de Mica a Microsoft y entabló una demanda. Microsoft finalmente pagó 150 millones de dólares y acordó dar soporte al microprocesador Alpha de DEC en NT.
Siendo un sistema operativo completamente nuevo, Windows NT sufrió problemas de compatibilidad con el hardware y el software existentes. También necesitaba gran cantidad de recursos y éstos estaban solamente disponibles en equipos grandes y caros. Debido a esto muchos usuarios no pudieron pasarse a Windows NT. La interfaz gráfica de NT todavía estaba basada en la de Windows 3.1 que era inferior a la Workplace Shell de OS/2

Windows NT 3.1
Windows NT 3.1 (la estrategia de marketing de Microsoft era que Windows NT pareciera una continuación de Windows 3.1) apareció en su versión beta para desarrolladores en la Conferencia de Desarrolladores Profesionales de Julio de 1992 en San Francisco. Microsoft anunció en la conferencia su intención de desarrollar un sucesor para Windows NT y Chicago (que aún no había sido lanzada). Este sucesor habría de unificar ambos sistemas en uno sólo y su nombre clave era Cairo. (Visto en retrospectiva Cairo fue un proyecto más difícil de lo que Microsoft había previsto y como resultado NT y Chicago no sería unificados hasta la aparición de Windows XP). Las versiones antiguas de Windows NT se distribuían en disquettes y requerían unos elevados recursos de hardware (además de soportar relativamente poco hardware) por lo que no se difundieron demasiado hasta llegar a Windows NT 4.0 y sobre todo a Windows 2000. Por primera vez daba soporte para el sistema de ficheros NTFS.

Windows NT 3.5/3.51
Cabe destacar que la interfaz gráfica de Windows NT 3.5 y Windows 3.51 era la misma que la de sus predecesores, Windows NT 3.1 y Windows 3.1, con el Administrador de Programas. Por otra parte, Microsoft distribuyó un añadido llamado NewShell, cuyo nombre completo es "Shell Technology Preview Update", que no era otra cosa más que una versión Beta de la nueva interfaz gráfica de Windows 95 y NT 4.0, con el botón y menú inicio, pero para Windows NT 3.5x. Su función principal era que los usuarios de Windows evaluaran el nuevo interfaz gráfico, que iba a ser presentado en Windows 95 y NT 4.0, pero como "daño colateral" le daba a Windows NT 3.5x la nueva interfaz gráfica.

Windows NT 4.0
Windows NT 4.0 presentaba varios componentes tecnológicos de vanguardia y soporte para diferentes plataformas como MIPS, ALPHA, Intel, etc. Las diferentes versiones como Workstation, Server, Terminal server, Advancer server, permitían poder adaptarlo a varias necesidades. El uso de componentes como tarjetas de sonido, modems, etc, tenían que ser diseñados específicamente para este sistema operativo.

Windows 95
Artículo principal: Windows 95
Microsoft adoptó "Windows 95" como nombre de producto para Chicago cuando fue publicado en Agosto de 1995. Chicago iba encaminado a incorporar una nueva interfaz gráfica que compitiera con la de OS/2. Aunque compartía mucho código con Windows 3.x e incluso con MS-DOS, también se pretendía introducir arquitectura de 32 bits y dar soporte a multitarea preemptiva, como OS/2 o el mismo Windows NT. Sin embargo sólo una parte de Chicago comenzó a utilizar arquitectura de 32 bits, la mayor parte siguió usando una arquitectura de 16 bits, Microsoft argumentaba que una conversión completa retrasaría demasiado la publicación de Chicago y sería demasiado costosa.
Microsoft desarrolló una nueva API para remplazar la API de Windows de 16 bits. Esta API fue denominada Win32, desde entonces Microsoft denominó a la antigua API de 16 bits como Win16. Esta API fue desarrollada en tres versiones: una para Windows NT, otra para Chicago y otra llamada Win32s, que era un subconjunto de Win32 que podía ser utilizado en sistemas con Windows 3.1.; de este modo Microsoft intentó asegurar algún grado de compatibilidad entre Chicago y Windows NT, aunque los dos sistemas tenían arquitecturas radicalmente diferentes
Windows 95 tenía dos grandes ventajas para el consumidor medio. Primero, aunque su interfaz todavía corría sobre MS-DOS, tenía una instalación integrada que le hacía aparecer como un solo sistema operativo (ya no se necesitaba comprar MS-DOS e instalar Windows encima). Segundo, introducía un subsistema en modo protegido que estaba especialmente escrito a procesadores 80386 o superiores, lo cual impediría que las nuevas aplicaciones Win32 dañaran el área de memoria de otras aplicaciones Win32. En este respecto Windows 95 se acercaba más a Windows NT, pero a la vez, dado que compartía código de Windows 3.x, las aplicaciones podían seguir bloqueando completamente el sistema en caso de que invadiesen el área de aplicaciones de Win16.
Tenía también como novedad el incluir soporte para la tecnología Plug&Play. Windows 95 se convirtió en el primer gran éxito de los de Redmond a nivel mundial. La evolución de Internet y la potencia de los equipos, cada vez más capaces, dio lugar a un binomio en el que Intel y Microsoft dominaban el panorama mundial con solvencia. Los fabricantes comenzaban a volcarse en este sistema a la hora de sacar sus controladores de dispositivos y, aunque con algunos problemas por incompatibilidades inevitables, el éxito de la plataforma fue absoluto.
Más adelante fue lanzada una versión con compatibilidad para USB (1.0) que permitía ejecutarse en computadores (ordenadores) con pocas prestaciones en Hardware. Esta versión salió al mercado en octubre de 1998

Windows 98
Artículo principal: Windows 98
El 25 de junio de 1998 llegó Windows 98. Incluía nuevos controladores de hardware y el sistema de ficheros FAT32 (también soportado por Windows 95 OSR 2 y OSR 2.5) que soportaba particiones mayores a los 2 GB permitidos por Windows 95. Dio soporte también a las nuevas tecnologías como DVD, FireWire, USB o AGP. Era novedosa también la integración del explorador de Internet en todos los ámbitos del sistema.
Pero la principal diferencia de Windows 98 sobre Windows 95 era que su núcleo había sido modificado para permitir el uso de controladores de Windows NT en Windows 9x y viceversa. Esto se consiguió con la migración de parte del núcleo de Windows NT a Windows 98, aunque éste siguiera manteniendo su arquitectura MS-DOS/Windows GUI. Esto permitió la reducción de costes de producción, dado que Windows NT y Windows 98 ahora podían utilizar casi idénticos controladores.

Windows 98 Second Edition (SE)
Artículo principal: Windows 98 SE
A principios de 1998 se desarrolló este sistema operativo, saliendo al mercado a finales de 1998, cuando Microsoft sacó al mercado Windows 98 Second Edition, cuya característica más notable era la capacidad de compartir entre varios equipos una conexión a Internet a través de una sola línea telefónica. También eliminaba gran parte de los errores producidos por Internet Explorer en el sistema. Esta versión es la más estable de todas las de esta serie, y aún se sigue utilizando en muchos equipos, mejorando en sí dos cosas importantes:
1) El grave error de solicitud de licencia que simplemente se puede dejar pasar por alto en la instalación cuando se copian los archivos con extensión ".CAB" (sin comillas) a la unidad de disco duro de la computadora (CPU u ordenador) en la primera versión de este sistema operativo
2) Se corrigen las extensiones de archivo y aplicaciones para una optimización y mejor administración de memoria virtual, reduciendo así los famosos mensajes de error en pantalla azul.

Windows Millenium Edition (ME)
Artículo principal: Windows ME
En 2000 Microsoft introdujo Windows ME, que era una copia de Windows 98 con más aplicaciones añadidas. Windows ME fue un proyecto rápido de un año para rellenar el hueco entre Windows 98 y el nuevo Windows XP, y eso se notó mucho en la poca estabilidad de esta versión. En teoría, Windows 2000 iba a ser la unificación entre las dos familias de Windows, la empresarial y la de hogar, pero por retrasos se lanzó este pequeño avance. En esta versión se aceleraba el inicio del sistema y oficialmente ya no se podía distinguir entre el MS-DOS y el entorno gráfico (aunque aparecieron parches que permitían volver a separarlo como se hacía en versiones anteriores).
Esta versión no traía unidad de proceso de 16 bits y se centró únicamente en la compatibilidad con nuevo hardware de 32 bits. Como consecuencia, sólo funcionaba correctamente con los equipos nuevos que lo tenían instalado, ya que si se instalaba sobre un equipo antiguo (mediante una actualización de software) el hardware de 16 bits era más complejo de configurar, o bien no funcionaba en absoluto.
Cabe destacar que este sistema operativo fue muy poco popular por sus continuos errores y muchas desventajas de uso. Estos inconvenientes hicieron que, salvo en contadas ocasiones, sus usuarios retornaran rápidamente al uso de Windows 98, o bien que dieran el salto a Windows 2000.

Windows 2000
Artículo principal: Windows 2000
En este mismo año vio la luz Windows 2000, una nueva versión de Windows NT muy útil para los administradores de sistemas y con una gran cantidad de servicios de red y lo más importante: admitía dispositivos Plug&Play que venían siendo un problema con Windows NT.
La familia de Windows 2000 estaba formada por varias versiones del sistema: una para las estaciones de trabajo (Windows 2000 Professional) y varias para servidores (Windows 2000 Server, Advanced Server, Datacenter Server).
Windows 2000 incorporaba importantes innovaciones tecnológicas para entornos Microsoft, tanto en nuevos servicios como en la mejora de los existentes. Algunas de las características que posee son:
Almacenamiento:
Soporte para FAT16, FAT32 y NTFS.
Cifrado de ficheros (EFS).
Servicio de indexación.
Sistema de archivos distribuido (DFS).
Nuevo sistema de backup (ASR).
Sistema de tolerancia a fallos (RAID) con discos dinámicos (software).
Comunicaciones:
Servicios de acceso remoto (RAS, VPN, RADIUS y Enrutamiento).
Nueva versión de IIS con soporte para HTTP/1.1.
Active Directory.
Balanceo de carga (clustering)
Servicios de instalación desatendida por red (RIS).
Servicios nativos de Terminal Server.
Estos avances marcan un antes y un después en la historia de Microsoft.

Windows XP (eXPerience)
Artículo principal: Windows XP
La unión de Windows NT/2000 y la familia de Windows 9.x se alcanzó con Windows XP puesto en venta en 2001 en su versión Home y Professional. Windows XP usa el núcleo de Windows NT. Incorpora una nueva interfaz y hace alarde de mayores capacidades multimedia. Además dispone de otras novedades como la multitarea mejorada, soporte para redes inalámbricas y asistencia remota. Se puede agregar que inmediatamente después de haber lanzado el último Service Pack (SP2), Microsoft diseñó un sistema orientado a empresas y corporaciones, llamado Microsoft Windows XP Corporate Edition, algo similar al Windows XP Profesional, solo que diseñado especialmente para empresas. En el apartado multimedia, XP da un avance con la versión Media Center(2002-2005). Esta versión ofrece una interfaz de acceso fácil con todo lo relacionado con multimedia (TV, fotos, reproductor DVD, Internet...).

Windows Server 2003
Artículo principal: Windows Server 2003
Sucesor de la familia de servidores de Microsoft a Windows 2000 Server. Es la versión de Windows para servidores lanzada por Microsoft en el año 2003. Está basada en el núcleo de Windows XP, al que se le han añadido una serie de servicios, y se le han bloqueado algunas de sus características (para mejorar el rendimiento, o simplemente porque no serán usadas).

Windows Vista
Artículo principal: Windows Vista
Windows Vista apareció en el mercado el 30 de enero de 2007. Cabe destacar los continuos retrasos en las fechas de entrega del sistema operativo. Inicialmente se anunció su salida al mercado a inicios-mediados de 2006; posteriormente y debido a problemas durante el proceso de desarrollo, se retrasó su salida hasta finales de 2006. El último retraso trasladó la fecha hasta finales de enero de 2007. Estos continuos retrasos han llevado a Microsoft a tomar diversas medidas para minimizar los gastos extras derivados de los retrasos. Por ejemplo, en Argentina, se podrá comprar Windows Vista con un "ticket" que la persona adquiere al momento de comprar un nuevo PC que no tiene instalado todavía Windows Vista. Podrán canjear el "ticket" por una copia original de Windows Vista y así actualizar su sistema. También cabe destacar que Windows Vista trae una nueva interfaz gráfica llamada Aero, que es una evolución de la interfaz gráfica denominada Luna de Windows XP.

Windows Server 2008
Artículo principal: Windows Server 2008
Al igual que su sucesor, Windows Server 2003 se basaba en la última version del SO doméstica publicada. Éste se basa en Windows Vista en cuanto a su interfaz Aero, mucho más amigable y sencilla, y en Windows Server 2003 SP2.

Windows 7
Artículo principal: Windows 7
Se planea que sea la próxima versión de Microsoft Windows, la cual sucederá a Windows Vista. Según Microsoft, Windows 7 será creado bajo un nuevo kernel, para así hacerlo más seguro y rápido. Microsoft asegura que necesitará menos recursos que Windows Vista. Algunas fuentes indican que Windows 7 se terminará de desarrollar a finales de 2009.
A pesar de los rumores recientes de que Windows 7 saldría a la venta en 2009, las últimas declaraciones de Bill Gates vuelven a poner como fecha de salida de este nuevo sistema operativo para 2010, estando disponible en 2009 una versión para Betatesters, y no para el cliente final.

Versiones para Tablet PC
Windows XP Tablet PC Edition

Versiones para dispositivos móviles
Windows CE
Windows Mobile
Windows XP Embedded

Tarjeta de video

Una tarjeta gráfica, tarjeta de vídeo, tarjeta aceleradora de gráficos o adaptador de pantalla, es una tarjeta de expansión para una computadora, encargada de procesar los datos provenientes de la CPU y transformarlos en información comprensible y representable en un dispositivo de salida, como un monitor o televisor. Las tarjetas gráficas más comunes son las disponibles para las computadoras compatibles con la IBM PC, debido a la enorme popularidad de éstas, pero otras arquitecturas también hacen uso de este tipo de dispositivos.
En el contexto de las IBM PCs, se denota con el mismo término tanto a las habituales tarjetas dedicadas y separadas como a las GPU integradas en la placa base (aunque estas ofrecen prestaciones inferiores).
Algunas tarjetas gráficas han ofrecido funcionalidades añadidas como captura de vídeo, sintonización de TV, decodificación MPEG-2[1] y MPEG-4 o incluso conectores Firewire, de ratón, lápiz óptico o joystick.
Las tarjetas gráficas no son dominio exclusivo de los PCs; contaron o cuentan con ellas dispositivos como los Commodore Amiga (conectadas mediante los slots Zorro II y Zorro III), Apple II, Apple Macintosh, Spectravideo SVI-328, equipos MSX y, por supuesto, en las videoconsolas modernas, como la Wii, la Playstation 3 y la Xbox360.

La historia de las tarjetas gráficas da comienzo a finales de los años 1960, cuando se pasa de usar impresoras como elemento de visualización a utilizar monitores. Las encargadas de crear aquellas primeras imágenes fueron las tarjetas de vídeo.
La primera tarjeta gráfica, que se lanzó con los primeros IBM PC, fue desarrollada por IBM en 1981. La MDA (Monochrome Display Adapter) trabajaba en modo texto y era capaz de representar 25 líneas de 80 caracteres en pantalla. Contaba con una memoria de vídeo de 4KB, por lo que sólo podía trabajar con una página de memoria. Se usaba con monitores monocromo, de tonalidad normalmente verde.[3]
A partir de ahí se sucedieron diversas controladoras para gráficos, resumidas en la tabla adjunta.[4] [5] [6] [7]
VGA tuvo una aceptación masiva, lo que llevó a compañías como ATI, Cirrus Logic y S3 Graphics, a trabajar sobre dicha tarjeta para mejorar la resolución y el número de colores. Así nació el estándar SVGA (Super VGA). Con dicho estándar se alcanzaron los 2 MB de memoria de vídeo, así como resoluciones de 1024 x 768 puntos a 256 colores.
La evolución de las tarjetas gráficas dio un giro importante en 1995 con la aparición de las primeras tarjetas 2D/3D, fabricadas por Matrox, Creative, S3 y ATI, entre otros. Dichas tarjetas cumplían el estándar SVGA, pero incorporaban funciones 3D. En 1997, 3dfx lanzó el chip gráfico Voodoo, con una gran potencia de cálculo, así como nuevos efectos 3D (Mip Mapping, Z-Buffering, Antialiasing...). A partir de ese punto, se suceden una serie de lanzamientos de tarjetas gráficas como Voodoo2 de 3dfx, TNT y TNT2 de NVIDIA. La potencia alcanzada por dichas tarjetas fue tal que el puerto PCI donde se conectaban se quedó corto. Intel desarrolló el puerto AGP (Accelerated Graphics Port) que solucionaría los cuellos de botella que empezaban a aparecer entre el procesador y la tarjeta. Desde 1999 hasta 2002, NVIDIA dominó el mercado de las tarjetas gráficas (absorbiendo incluso a 3dfx)[8] con su gama GeForce. En ese período, las mejoras se orientaron hacia el campo de los algoritmos 3D y la velocidad de los procesadores gráficos. Sin embargo, las memorias también necesitaban mejorar su velocidad, por lo que se incorporaron las memorias DDR a las tarjetas gráficas. Las capacidades de memoria de vídeo en la época pasan de los 32 MB de GeForce, hasta los 64 y 128 MB de GeForce 4.
En 2006, NVIDIA y ATI se repartían el liderazgo del mercado con sus series de chips gráficos GeForce y Radeon, respectivamente.
Imagen: ATI X850XT
Imagen: nVIDIA GeForce 6600GT


GPU:
La GPU, —acrónimo de «Graphics Processing Unit», que significa «Unidad de Procesado de Gráficos»— es un procesador (como la CPU) dedicado al procesamiento de gráficos; su razón de ser es aligerar la carga de trabajo del procesador central y, por ello, está optimizada para el cálculo en coma flotante, predominante en las funciones 3D. La mayor parte de la información ofrecida en la especificación de una tarjeta gráfica se refiere a las características de la GPU, pues constituye la parte más importante de la tarjeta. Dos de las más importantes de dichas características son la frecuencia de reloj del núcleo, que en 2006 oscilaba entre 250 MHz en las tarjetas de gama baja y 750 MHz en las de gama alta, y el número de pipelines (vertex y fragment shaders), encargadas de traducir una imagen 3D compuesta por vértices y líneas en una imagen 2D compuesta por píxeles.

Memoria de vídeo:
Según la tarjeta gráfica esté integrada en la placa base (bajas prestaciones) o no, utilizará la memoria RAM propia del ordenador o dispondrá de una propia. Dicha memoria es la memoria de vídeo o VRAM. Su tamaño oscila entre 128 MB y 1 GB. La memoria empleada en 2006 estaba basada en tecnología DDR, destacando DDR2, GDDR3,GDDR4 y GDDR5. La frecuencia de reloj de la memoria se encontraba entre 400 MHz y 1,8 GHz.
Una parte importante de la memoria de un adaptador de vídeo es el Z-Buffer, encargado de gestionar las coordenadas de profundidad de las imágenes en los gráficos 3D.

RAMDAC:
El RAMDAC es un conversor de digital a analógico de memoria RAM. Se encarga de transformar las señales digitales producidas en el ordenador en una señal analógica que sea interpretable por el monitor. Según el número de bits que maneje a la vez y la velocidad con que lo haga, el conversor será capaz de dar soporte a diferentes velocidades de refresco del monitor (se recomienda trabajar a partir de 75 Hz, nunca con menos de 60).[10] Dada la creciente popularidad de los monitores digitales y que parte de su funcionalidad se ha trasladado a la placa base, el RAMDAC está quedando obsoleto.

Salidas:
Los sistemas de conexión más habituales entre la tarjeta gráfica y el dispositivo visualizador (como un monitor o un televisor) son:
SVGA: estándar analógico de los años 1990; diseñado para dispositivos CRT, sufre de ruido eléctrico y distorsión por la conversión de digital a analógico y el error de muestreo al evaluar los píxeles a enviar al monitor.
DVI: sustituto del anterior, fue diseñado para obtener la máxima calidad de visualización en las pantallas digitales como los LCD o proyectores. Evita la distorsión y el ruido al corresponder directamente un píxel a representar con uno del monitor en la resolución nativa del mismo.
S-Video: incluido para dar soporte a televisores, reproductores de DVD, vídeos, y videoconsolas.
Otras no tan extendidas en 2007 son:
Vídeo Compuesto: analógico de muy baja resolución mediante conector RCA.
Vídeo por componentes: utilizado también para proyectores; de calidad comparable a la de SVGA, dispone de tres clavijas (Y, Cb y Cr).
HDMI: tecnología de audio y vídeo digital cifrado sin compresión en un mismo cable.

Imagen: Salidas SVGA, S-Video y DVI de una tarjeta gráfica


Dispositivos refrigerantes:
Debido a las cargas de trabajo a las que son sometidas, las tarjetas gráficas alcanzan temperaturas muy altas. Si no es tenido en cuenta, el calor generado puede hacer fallar, bloquear o incluso averiar el dispositivo. Para evitarlo, se incorporan dispositivos refrigerantes que eliminen el calor excesivo de la tarjeta. Se distinguen dos tipos:
Disipador: dispositivo pasivo (sin partes móviles y, por tanto, silencioso); compuesto de material conductor del calor, extrae este de la tarjeta. Su eficiencia va en función de la estructura y la superficie total, por lo que son bastante voluminosos.
Ventilador: dispositivo activo (con partes móviles); aleja el calor emanado de la tarjeta al mover el aire cercano. Es menos eficiente que un disipador y produce ruido al tener partes móviles.
Aunque diferentes, ambos tipos de dispositivo son compatibles entre sí y suelen ser montados juntos en las tarjetas gráficas; un disipador sobre la GPU (el componente que más calor genera en la tarjeta) extrae el calor, y un ventilador sobre él aleja el aire caliente del conjunto.
Imagen: Conjunto de disipador y ventilador
Alimentación:
Hasta ahora la alimentación eléctrica de las tarjetas gráficas no había supuesto un gran problema, sin embargo, la tendencia actual de las nuevas tarjetas es consumir cada vez más energía. Aunque las fuentes de alimentación son cada día más potentes, el cuello de botella se encuentra en el puerto PCIe que sólo es capaz de aportar una potencia de 150 W. Por este motivo, las tarjetas gráficas con un consumo superior al que puede suministrar PCIe incluyen un conector (PCIe power connector)que permite una conexión directa entre la fuente de alimentación y la tarjeta, sin tener que pasar por la placa base, y, por tanto, por el puerto PCIe.
Aún así, se pronostica que no dentro de mucho tiempo las tarjetas gráficas podrían necesitar una fuente de alimentación propia, convirtiéndose dicho conjunto en dispositivos externos.

Placa Base

La placa base, placa madre, tarjeta madre o board (en inglés motherboard, mainboard) es la tarjeta de circuitos impresos de una computadora que sirve como medio de conexión entre el microprocesador, los circuitos electrónicos de soporte, las ranuras para conectar parte o toda la RAM del sistema, la ROM y las ranuras especiales (slots) que permiten la conexión de tarjetas adaptadoras adicionales. Estas tarjetas de expansión suelen realizar funciones de control de periféricos tales como tarjeta gráfica, tarjeta de sonido, módem, otros. Se diseña básicamente para realizar labores específicas vitales para el funcionamiento de la computadora, como por ejemplo las de:
Conexión física.
Administración, control y distribución de energía eléctrica.
Comunicación de datos.
Temporización.
Sincronismo.
Control y monitoreo.
Para que la placa base cumpla con su cometido, lleva instalado un software muy básico denominado BIOS.
Imagen: Asus a8n VMCSM02
Formato de Placa AT
El factor de forma AT es el empleado por el IBM AT INC y sus clones en formato sobremesa completo y torre completo. Su tamaño es de 12 pulgadas (305 mm) de ancho x 11-13 pulgadas de profundo. Su gran tamaño dificultaba la introducción de nuevas unidades de disco. Además su conector con la fuente de alimentación inducía fácilmente al error siendo numerosos los casos de gente que freía la placa al conectar indebidamente los dos juegos de cables (contar con un código de color para situar 4 cables negros en la zona central). El conector de teclado es el mismo DIN 5 del IBM PC original. Actualmente están todas descatalogadas, excepto un par, que se encuentran en el museo de la informática.

Formato de Placa Baby AT
IBM presenta en 1985 el formato Baby AT, que es funcionalmente equivalente a la AT, pero significativamente menor : 8,5 pulgadas de ancho y de 10 a 13 pulgadas de profundo, su menor tamaño favorece las cajas más pequeñas y facilita la ampliación, por lo que toda la industria se vuelca en él abandonando el formato AT. No obstante sigue heredando los problemas de diseño del AT, con la multitud de cables que dificultan la ventilación (algo que se va volviendo más crítico a medida que sube la potencia de los microprocesadores) y con el micro alejado de la entrada de alimentación. Todo esto será resuelto por el formato ATX. Pero dado el gran parque existente de equipos en caja Baby AT, durante un tiempo se venderán placas Super Socket 7 (que soportan tanto los Pentium MMX como los AMD K6-2 y otros micros, hasta los 500 Mhz, e incluyen slot AGP) en formato Baby AT pero con ambos conectores de fuente de alimentación (AT y ATX). Las cajas ATX, incluso hoy, soportan en sus ranuras el formato Baby AT. Siempre y cuando se contenga la tarjeta indicada.

Formato de Placa ATX
El formato ATX (siglas de Advanced Technology Extended') es presentado por Intel en 1995. con un tamaño de 12 pulgadas de ancho por 9,6 pulgadas de profundo, en este nuevo formato se resuelven todos los inconvenientes que perjudicaron a la ya mencionada placa. Los puertos más habituales (impresora Centronics, RS-232 en formato DE-9, la toma de joystick/midi DA-15 y de tarjeta de sonido, los puertos USB y RJ-45 (para red a 100) y en algunos casos incluso la salida de monitor VGA, se agrupan en el lado opuesto a los slots de ampliación. El puerto DIN 5 de teclado es sustituido por las tomas PS/2 de teclado y mouse (llamadas así por introducirlas IBM en su gama de computadoras PS/2 y rápidamente adoptada por todos los grandes fabricantes) y situados en el mismo bloque. Todo esto conlleva el que muchas tarjetas necesarias se integren en la placa madre, abaratando costos y mejorando la ventilación. Inmediatamente detrás se sitúa el zócalo o slot de procesador y las fijaciones del ventilador (que al estar más próxima a la fuente de alimentación y su ventilador, actúa más eficientemente), justo al lado de la nueva conexión de fuente de alimentación (que elimina el quemado accidental de la placa). Tras él vienen los slots de memoria RAM y justo detrás los conectores de las controladoras IDE, SCSI (principalmente en servidores y placas de gama alta) y de controladora de disquete, justo al lado de las bahías de disco de la caja (lo que reduce los cables)
La nueva fuente, además del interruptor físico de corriente como en la AT, tiene un modo de apagado similar al de los electrodomésticos de consumo, alimentando a la placa con una pequeña corriente que permite que responda a eventos (como una señal por la red o un mando a distancia) encendiéndose o, si se ha habilitado el modo de hibernado heredado de los portátiles, restablecer el trabajo en el punto donde se dejó.

Formato de Placa microATX
El formato microATX (también conocida como µATX) es un formato de placa base pequeño con un tamaño máximo de 9,6 x 9,6 pulgadas (244 mm x 244 mm) empleada principalmente en cajas tipo cubo y SFF. Debido a sus dimensiones sólo tiene sitio para 1 ó 2 slots PCI y/o AGP, por lo que suelen incorporar puertos FireWire y USB 2 en abundancia (para permitir conectar unidades externas y regrabadoras de DVD). Es la más moderna de todas y sus prestaciones son impresionantes. Al comienzo de la comercialización de la placa daba fallos (bugs) al conectar componentes a los puertos USB, aunque esto se solucionó de manera efectiva en posteriores modelos. escuela

Microprocesadores Via

Entre sus primeros productos se incluyeron los procesadores 486SLC y 486DLC, lanzados en 1992, que a pesar de sus nombres eran compatibles a nivel de pines con las arquitecturas 386SX y DX, respectivamente. Aunque incluían un caché L1 integrado en el chip, así como el conjunto de instrucciones 486, se situaban en cuanto a rendimiento entre un 386 y un 486. Estos procesadores eran generalmente usados como actualizaciones por aquellos usuarios que buscaban mejorar el rendimiento de sus viejos sistemas 386, y especialmente por los integradores, quienes cambiando el procesador convertían las viejas y difíciles de vender placas 386 en sistemas 486 de bajo precio. Estos procesadores fueron ampliamente criticados en los análisis especializados por no ofrecer el rendimiento que sugerían sus nombres y por la confusión que causaba el uso de nomenclaturas parecidas a la línea de procesadores SL de Intel y al SLC de IBM, ninguno de los cuales estaba relacionado con el SLC de Cyrix. Los procesadores fueron usados principalment en PC clónicos y laptops de bajo coste.
Más tarde Cyrix lanzaría los procesadores 486SRX2 y 486DRX2, que eran esencialmente versiones del SLC y el DLC al doble de frecuencia de reloj y fueron comercializados exclusivamente para clientes finales como actualizaciones 386 a 486.
Finalmente Cyrix fue capaz de lanzar un 486 que era compatible a nivel de pines con sus equivalentes de Intel. Aún así, este procesador llegó al mercado más tarde que los 486 de AMD y tenían un rendimiento ligeramente inferior que sus competidores AMD e Intel, lo que los relegó al mercado de actualizaciones y equiposs de gama baja. Mientras AMD logró vender algunos de sus 486 a grandes OEMs, notablemente Acer y Compaq, Cyrix no consiguió entrar en este mercado. Los procesadores Cyrix consiguieron algunos adeptos entre los pequeños integradores y usuarios, debido en parte a que sus procesadores 486 a 50, 66 y 80 Mhz corrían a 5 voltios, frente a los 3,3 voltios usados por AMD, pudiendo ser usados como actualizaciones para las primeras placas base 486.
En 1995, con su Pentium clónico todavía no terminado, Cyrix repitió su propia historia lanzando el Cx5x86, que podía conectarse en un socket 486, corría a 100, 120 o 133 MHz y daba un rendimiento similar al de un Pentium a 75 MHz. A diferencia del Am5x86 de AMD, que era poco más que una versión de su 486 con frecuencia de reloj cuádruple y un nombre nuevo, el 5x86 de Cyrix implementaba algunas características de la arquitectura Pentium.
Más tarde ese mismo año Cyrix lanzó su procesador más famoso, el 6x86, que fue la primera CPU de Cyrix en superar el rendimiento del procesador de Intel contra el que estaba destinado a competir. Inicialmente Cyrix intentó cobrar un extra por este mayor rendimiento, pero el coprocesador matemático del 6x86 no era tan rápido como el del Pentium de Intel. Debido a la creciente popularidad de los juegos de acción en primera persona 3D de la época, que hacían un uso intensivo de las operaciones de coma flotante, Cyrix se vio obligada a reducir sus precios. Mientras que el 6x86 ganó terreno rápidamente entre los entusiastas y las tiendas independientes, a diferencia de AMD sus procesadores seguían sin ser usados por los grandes integradores.
El posterior 6x86L fue una revisión del 6x86 original con un menor consumo de energía, y el 6x86MX añadió el juego de instrucciones MMX y un caché L2 de mayor tamaño. El MII, basado en el diseño del 6x86MX, fue poco más que un cambio de nombre destinado a ayudar al procesador a competir mejor contra el Pentium II.
En 1996 Cyrix lanzó el procesador MediaGX, que integraba todos los componentes individuales importantes de un PC, incluyendo sonido y vídeo, en un único chip. Inicialmente basado en la antigua tecnología del 5x86 y corriendo a 120 o 133 Mhz, su rendimiento fue ampliamente criticado pero su bajo precio le hizo triunfar. El MediaGX logró la primera gran victoria para Cyrix cuando Compaq lo usó en sus computadoras de gama más baja Presario 2100 y 2200. Esto logró más ventas del MediaGX a Packard Bell y también pareció dar más prestigio a Cyrix, pues le siguieron las ventas del 6x86 a Packard Bell y eMachines.
Versiones posteriores del MediaGX corrían a velocidades de hasta 333 Mhz y añadieron soporte MMX. Se añadió un segundo chip para mejorar las capacidades gráficas.

VIA Technologies (TSE: 2388) es un desarrollador taiwanés de circuitos integrados, chipsets de placas base, GPUs, CPUs x86 y memorias, y es parte del Formosa Plastics Group. Es el mayor fabricante independiente de chipsets para placas madre. Como fabricante Fabless de semiconductores, VIA realiza la investigación y desarrollo de sus chipsets en casa, y luego subcontrata la fabricación a terceros (como TSMC). El nombre de VIA es un acrónimo de "Very Innovative Architecture" (Arquitectura Muy Innovadora).
Logo:



La empresa fue fundada en 1987 en Silicon Valley (Fremont, California) por Wen Chi Chen (陳文琦), entre otros. Fue empleado de Intel antes de unirse a la Symphony Laboratories, y siendo director general (CEO) de Symphony decide transformarla en VIA. Chen transfiere los empleados de Symphony a Taiwan para iniciar la fabricación de chips. En 1992 se traslada también la sede central a Taipei, Taiwan.
En 1996 tiene un papel importante en el grupo del estándar PC Common Architecture, impulsando el cambio del bus ISA al bus PCI.
En 1999 adquirió la mayor parte de Cyrix (por aquel entonces una división de National Semiconductor) y Centaur Technology (inicialmente perteneciente a IDT) haciéndola entrar en el mercado de los microprocesadores x86. VIA es el creador de los procesadores VIA C3 (lanzado en 2001) y VIA C7 (lanzado en 2005) y de la plataforma EPIA. La plataforma Cyrix MediaGX permanece en poder de National Semiconductor. Estos procesadores se han comercializado sobre todo para el segmento de miniportátiles y UMPC como el prototipo VIA NanoBook y los miniportátiles basados en él como el Cloudbook.
En 2001 crea una joint venture con SonicBlue (Diamond Multimedia) para la empresa de GPUs S3 Graphics. Tras la quiebra de SonicBlue, S3 se convierte en una filial de VIA
En Octubre de 2001, VIA anuncia la creación de la VIA Platform Solutions Division (VPSD), que se encargaría del diseño de un nuevo rango de placas base y plataformas bajo sello VIA En 2004, la división cambia su nombre a VIA Embedded Platform Division (VEPD), como resultado de la focalización en el mercado de la plataforma EPIA y las CPUs de bajo consumo.
En 2002, VIA lanzó el Proyecto Canaan, fruto del cual se crearon en 2003 dos nuevas divisiones : VIA Optical Solution, Inc. (controladores ópticos de almacenamiento) y VIA Networking Technologies, Inc. (redes y comunicaciones). Además adquiere el equipo de diseño CDMA2000 a LSI Logic para formar la filial VIA Telecom Inc. (con sede en San Diego, California) y focalizada en el estandar CDMA2000.
En Febrero de 2005, VIA celebró la fabricación de su chipset VIA AMD número 100 Millones.

La empresa fue fundada en 1987 en Silicon Valley (Fremont, California) por Wen Chi Chen (陳文琦), entre otros. Fue empleado de Intel antes de unirse a la Symphony Laboratories, y siendo director general (CEO) de Symphony decide transformarla en VIA. Chen transfiere los empleados de Symphony a Taiwan para iniciar la fabricación de chips. En 1992 se traslada también la sede central a Taipei, Taiwan.
En 1996 tiene un papel importante en el grupo del estándar PC Common Architecture, impulsando el cambio del bus ISA al bus PCI.
En 1999 adquirió la mayor parte de Cyrix (por aquel entonces una división de National Semiconductor) y Centaur Technology (inicialmente perteneciente a IDT) haciéndola entrar en el mercado de los microprocesadores x86. VIA es el creador de los procesadores VIA C3 (lanzado en 2001) y VIA C7 (lanzado en 2005) y de la plataforma EPIA. La plataforma Cyrix MediaGX permanece en poder de National Semiconductor. Estos procesadores se han comercializado sobre todo para el segmento de miniportátiles y UMPC como el prototipo VIA NanoBook y los miniportátiles basados en él como el Cloudbook.
En 2001 crea una joint venture con SonicBlue (Diamond Multimedia) para la empresa de GPUs S3 Graphics. Tras la quiebra de SonicBlue, S3 se convierte en una filial de VIA
En Octubre de 2001, VIA anuncia la creación de la VIA Platform Solutions Division (VPSD), que se encargaría del diseño de un nuevo rango de placas base y plataformas bajo sello VIA En 2004, la división cambia su nombre a VIA Embedded Platform Division (VEPD), como resultado de la focalización en el mercado de la plataforma EPIA y las CPUs de bajo consumo.
En 2002, VIA lanzó el Proyecto Canaan, fruto del cual se crearon en 2003 dos nuevas divisiones : VIA Optical Solution, Inc. (controladores ópticos de almacenamiento) y VIA Networking Technologies, Inc. (redes y comunicaciones). Además adquiere el equipo de diseño CDMA2000 a LSI Logic para formar la filial VIA Telecom Inc. (con sede en San Diego, California) y focalizada en el estandar CDMA2000.
En Febrero de 2005, VIA celebró la fabricación de su chipset VIA AMD número 100 Millones.

Los chipsets de VIA son su producto principal y el más conocido (en competencia con ATI, AMD, Intel o NVIDIA), ocupando principalmente el mercado de bajo con una amplia variedad de soluciones. VIA no fabrica (excepto para la plataforma EPIA) placas madre por sí misma, prefiriendo dejar ese negocio en manos de sus principales clientes. Sin embargo, los productos de VIA incluyen controladores de audio, redes y conectividad, CPUs de baja potencia, e incluso chipsets para regrabadoras de CD/DVD. Fabricantes de placas madre, periféricos y PCs como ASUS compran los chips y soluciones de VIA para incluirlos en sus productos.
A finales de la década de 1990, VIA comenzó a diversificar su negocio, y realizó varias compras de empresas que acabaron cristalizando en divisones de CPUs, GPUs, y chips de sonido. Con los avances en la tecnología de los chips de silicio, VIA precisa de esas divisiones para aumentar el nivel de integración de sus producto y permanecer competitiva en el mercado de chipsets.

Como un proveedor establecido de componentes para PC, en particular para la plataforma Super Socket 7, la posición actual de VIA en el mercado deriva del éxito de sus chipsets para Pentium III. Intel cometió el error de suspender el desarrollo de chipsets SDRAM, declarando que en adelante sólo soportaría memoria RAMBUS. Siendo RAMBUS bastante más cara en su momento y ofreciendo pocas o ninguna ventaja en el rendimiento, los fabricantes se encontraron con que el único proveedor de chipsets SDRAM con un rendimiento similar a los de Intel y un precio menor era VIA.
Si bien históricamente los chipsets VIA han tenido problemas de compatibilidad y rendimiento, especialmente en la implementación de AGP, un programa interno para mejorar los estándares de producción comenzó a dar fruto. VIA ofreció chipsets de alto rendimiento, estables y maduros, lo que devino en un gran atractivo para el mercado, disparando las ganancias. Muchas empresas que antes mantuvieron políticas de comprar sólo productos Intel, por primera vez realizaron pedidos de alto volumen a VIA, y quedaron satisfechos con el resultado. Intel finalmente volvió al desarrollo de chipsets SDRAM, produciendo el chipset Intel 815, con soporte de memoria SDRAM a 133 MHz y un Front Side Bus a 133 MHz. Como NVIDIA aparece con el poderoso chipset nForce2 para Athlon, el mercado de VIA comenzó a declinar. Al mismo tiempo se benefició de la popularidad de la CPU AMD Athlon, para el que VIA vendió millones de chipsets.
En respuesta a un mercado más competitivo, VIA decidió comprar el comatoso negocio de S3 Graphics. Aunque el chipset Savage no era lo suficientemente rápido como para competir como una solución discreta, sus bajos costes de fabricación lo hicieron ideal para el mercado de soluciones integradas, como parte del northbridge de VIA. Con VIA, la marca S3 ha conseguido una cuota de mercado de gráficos para PC del 10%, tras de Intel, ATI, y NVIDIA. VIA también incluye el chip de sonido VIA Envy para integrar en placa base y tarjeta de sonido, con sonido de calidad de 24-bits.
Aunque los chipsets VIA diseñados para Pentium 4 han luchado para ganar cuota de mercado de cara a las amenazas legales de Intel, el chipset VIA K8T800 para el Athlon 64 ha sido popular.
VIA también ha seguido desarrollando sus procesadores VIA C3 y VIA C7, con el mercado de bajo consumo en mente, en el que VIA ha obtenido el éxito. En Enero de 2008, anunció el VIA Isaiah, con un tamaño de 11 x 11 mm, una CPU x86-64 con soporte de Virtualización que se espera aparezca en el primer trimestre de 2008 para el mercado del PC Ultra Móvil.
En agosto de 2008 en una entrevista en la web británica CustomPC,[1] Richard Brown, uno de los vicepresidentes de VIA declaró que la empresa se retiraría del negocio de chipsts para CPUs de terceros (Intel, AMD) para centrarse en sus propias CPUs y chipsets para placas bases destinadas a dichas CPUs.

Mini-ITX es un formato de placa base totalmente desarrollado por VIA Technologies. Aunque es un formato de origen propietario, sus especificaciones son abiertas. De hecho, otros fabricantes tienen productos en este formato.

Con anterioridad a la aparición de Mini-ITX, el formato de placa base más reducido que se había definido era Micro-ATX. No obstante, no se trataba de un producto fácil de obtener en el mercado, ya que los ordenadores de pequeño tamaño no gozaban aún de interés. Por ello, el formato ATX copaba las ventas como estándar de facto.
Posteriormente, algunos fabricantes como Shuttle comenzaron a fabricar equipos de reducidas dimensiones que se dieron en llamar barebones. Estos equipos disponían de una placa base reducida, pero cuyas especificaciones no eran públicas.
Con la popularización de los equipos de reducidas dimensiones, Mini-ITX proporcionó al mercado la posibilidad de crear configuraciones "a la carta" ya que sus especificaciones son abiertas y compatibles con los componentes diseñados para ATX.

Mini-ITX propone unas dimensiones muy reducidas de placa base, tan sólo 170 mm x 170 mm (6,7 in x 6,7 in): aproximadamente el tamaño de un CD. Se trata de unas dimensiones inferiores a su antecesor micro-ATX. A pesar de ello, no es el formato más reducido existente en el mercado ya que, posteriormente, VIA definió el formato nano-ITX y Pico-ITX
Todos los interfaces y especificaciones eléctricas de la placa son compatibles con ATX. Esto significa que se pueden conectar componentes diseñados para cualquier otro tipo de PC.
Como contrapartida, las placas Mini-ITX solamente disponen de una ranura de expansión PCI y una ranura para un módulo de memoria.
Las placas Mini-ITX son generalmente refrigeradas mediante dispositivos pasivos a causa de su arquitectura de bajo consumo y son ideales para su uso como HTPC donde el ruido generado por una computadora (y en particular, por los ventiladores de refrigeración) resultaría molesto a la hora de disfrutar una película.

Mini-ITX propone unas dimensiones muy reducidas de placa base, tan sólo 170 mm x 170 mm (6,7 in x 6,7 in): aproximadamente el tamaño de un CD. Se trata de unas dimensiones inferiores a su antecesor micro-ATX. A pesar de ello, no es el formato más reducido existente en el mercado ya que, posteriormente, VIA definió el formato nano-ITX y Pico-ITX
Todos los interfaces y especificaciones eléctricas de la placa son compatibles con ATX. Esto significa que se pueden conectar componentes diseñados para cualquier otro tipo de PC.
Como contrapartida, las placas Mini-ITX solamente disponen de una ranura de expansión PCI y una ranura para un módulo de memoria.
Las placas Mini-ITX son generalmente refrigeradas mediante dispositivos pasivos a causa de su arquitectura de bajo consumo y son ideales para su uso como HTPC donde el ruido generado por una computadora (y en particular, por los ventiladores de refrigeración) resultaría molesto a la hora de disfrutar una película.

El Nano-ITX es un factor de forma de tarjeta madre de computador propuesto primero por VIA Technologies de Taiwán en 2004, implementado en algún momento a finales de 2005. Las tarjetas Nano-ITX miden 12cm x 12 cm, y están completamente integradas, son tarjetas madre que consumen muy poca energía con muchas aplicaciones, pero dirigidas a dispositivos de entretenimiento digital como PVRs, Set-top boxes, media center y Pcs para coche, Pcs LCD y dispositivos ultraportatiles.
Hasta ahora hay dos líneas de productos de la tarjeta madre Nano-ITX, VIA EPIA N y VIA EPIA NL. Ambas tarjetas tienen actualmente 3 velocidades de procesador: 533MHz, 800MHz y 1GHz.

VIA NanoBook UMD es un prototipo de subportátil creado por VIA Technologies como diseño de referencia para que otras empresas ensamblen y comercialicen miniportátiles basados en este diseño.[1] Tiene el típico formato de concha, con una pantalla táctil de 7 pulgadas y una resolución de 800x480 pixels, un teclado completo en formato QWERTY. Pesa menos de 850 gramos (unas 1,87 libras) y una vida de la batería de unas 4,5 horas. Se basa en un chipset VIA VX700, con un chip gráfico integrado VIA UniChrome Pro II IGP y una CPU de ultra bajo voltaje VIA C7-M a 1,2 GHz. Incluye 1 GB de memoria RAM DDR2, como mínimo un disco duro de 30 GB, soporte de 802.11g WiFi, Bluetooth y Ethernet, además de un lector de tarjetas Flash 4-en-1, un puerto DVI y dos puertos USB 2.0.
En el comunicado de prensa la compañía afirma que "para proporcionar a los usuarios mayor flexibilidad cuando están en movimiento, la VIA NanoBook también cuenta con una ranura USB al lado de la pantalla que permitirá la integración de una amplia variedad de relojes mundiales, dispositivos GPS, VOIP, y módulos de acceso a redes inalámbricas de banda ancha."[2]

El VIA C3 es una familia de procesadores x86 para computadoras personales diseñados por Centaur Technology y vendidos por VIA Technologies.
Imagen: Micro


VIA C7 es una CPU x86 diseñada por Centaur Technology y vendida por VIA Technologies.
Logo:




Ofrece una serie de mejoras a los viejos núcleos de VIA C3, pero es casi idéntico al último VIA C3 (núcleo Nehemiah). La producción del C7 se inició oficialmente en mayo de 2005, aunque de acuerdo con informes de mercado, no se encontraba en su máximo el volumen de producción a esa fecha. En mayo de 2006 el acuerdo de licencias cruzadas que mantenía Intel con VIA expiró y no fue renovado, por esta razón el 31 de marzo de 2006 finalizaron forzosamente los envíos de procesadores C3, porque VIA había perdido los derechos a utilizar el socket 370 diseñado por Intel.
El C7 es utilizado en algunos miniportátiles tipo Netbook y UMPC como el OQO model 02 o el HP MiniNote 2133, así como en los basados en el prototipo VIA Nanobook como el Everex Cloudbook.

C7: para equipos de escritorio y computadoras portátiles (1.5-2.0 GHz) - encapsulado tipo FCPGA Pentium-M. FSB: 400, 533, 800 MHz.
C7-M: para móviles y embebidos (1.5-2.0 GHz) - NanoBGA2, 21mmx21mm, 400, 800 MHz FSB.
C7-M Ultra Low Voltage: para móviles y embebidos (1.0-1.6 GHz) - NanoBGA2, 21mmx21mm, 400, 800 MHz FSB.
C7-D: C7 similar a la original, pero compatible con RoHS y comercializados como "procesador libre de carbono". Algunas variantes de estos micros no soportan PowerSaver.

C7: para equipos de escritorio y computadoras portátiles (1.5-2.0 GHz) - encapsulado tipo FCPGA Pentium-M. FSB: 400, 533, 800 MHz.
C7-M: para móviles y embebidos (1.5-2.0 GHz) - NanoBGA2, 21mmx21mm, 400, 800 MHz FSB.
C7-M Ultra Low Voltage: para móviles y embebidos (1.0-1.6 GHz) - NanoBGA2, 21mmx21mm, 400, 800 MHz FSB.
C7-D: C7 similar a la original, pero compatible con RoHS y comercializados como "procesador libre de carbono". Algunas variantes de estos micros no soportan PowerSaver.

El Esther (C5J) es el próximo paso de la evolución de la línea Nehemías + (C5P), núcleo del VIA C3, incluyendo una migración a un proceso de fabricación de 90 nm de silicio sobre aislante (SOI) el desarrollado por IBM Microelectronics. Los procesadores se fabrican en fabricas de IBM en East Fishkill, Nueva York. El chip fue diseñado como siempre por Centaur Technology (filial de VIA) en Austin, Texas, por un personal permanente de apenas 85 ingenieros.
Las nuevas funciones de este núcleo son:
Promedio de consumo de energía de menos de 1 vatio.
2 GHz y una operación de bajo TDP de 20 vatios. En comparación, los procesadores Pentium-M de núcleo Dothan necesitan 21 (FSB 400) o 27 vatios (FSB 533) para llegar a 2,0 GHz.
Aumento de caché de nivel 2 de 64k a 128k, la asociatividad aumentó de las 16 vías en conjunto asociativo del C3 a 32 vías en conjunto asociativo del C7.
VIA ha declarado que el bus del C7 está físicamente basado en el Pentium-M de 479-pin, pero que utiliza el bus propietario VIA V4 para señalización eléctrica, en lugar de Intel AGTL + Bus Quad Pumbed, evitando una infracción de patentes.
Tecnología "Twin Turbo", que consta de doble PLL, una fija en un reloj de alta velocidad, y el otro a menor velocidad. Esto permite que la frecuencia de reloj del procesador se ajuste en un solo ciclo de procesador, mucho más rápido que la tecnología Intel SpeedStep comparable, proporcionando un mayor ahorro de energía.
Soporte para instrucciones extendidas SSE2 y SSE3.
NX bit en modo PAE para evitar que los errores de desbordamiento de búfer sean explotables por virus o atacantes.
Soporte de hardware para SHA-1 y SHA-256 hashing.
Hardware basado en el multiplicador de Montgomery soporta criptografía de clave pública con tamaño de clave de hasta 32K.

El C7 Esther es un paso evolutivo después del C3 Nehemiah, en la que VIA/Centaur ha continuado su enfoque tradicional de equilibrio entre rendimiento, potencia y presupuesto.
La piedra angular de los chips de serie C3 es una filosofía de diseño de que incluso un núcleo relativamente sencillo escalar in-orden puede ofrecer rendimiento razonable contra un núcleo complejo superescalar out-of-order si esta apoyado en un eficiente "front-end", es decir, prefetch, caché y mecanismos del predictor de saltos.
En el caso de C7, el equipo de diseño se ha centrado en seguir racionalizando el "front-end" de los chips, es decir, el tamaño de la caché, asociatividad y rendimiento, así como el sistema de prefetch. Al mismo tiempo, sin cambios significativos al núcleo de ejecución ( "back-end").
El éxito del C7 cierra más la brecha en el rendimiento con AMD / Intel, ya que la velocidad de reloj no está limitada térmicamente.

El VIA Nano (su nombre código antiguo fue VIA Isaiah) es un procesador de 64 Bits para computadoras personales (CPU), anunciado por VIA Technologies desde 2004
En 2007 VIA anunció oficialmente que su división de CPU, Centaur Technology, estaba trabajando en una nueva arquitectura para procesadores en los últimos cuatro años, lo que confirma los anteriores rumores. Esta nueva arquitectura ha sido diseñado desde cero, con fecha de lanzamiento planeada para principios de 2008.
El 24 de enero de 2008, el diseño se inauguró y presentó no sólo como un procesador, sino también como la arquitectura VIA Isaías de 64 bits.
El 28 de mayo de 2008, VIA anunció la disposición final de procesadores Isaiah tanto de voltaje estandard como variantes de baja tensión, mientras que también presenta el procesador de marca Nano
A diferencia de Intel y AMD, VIA utiliza dos nombres clave para el desarrollo de cada uno de sus núcleos de CPU. En este caso, el código «CN» se utilizó en los EE.UU. por Centaur Technology. Nombres Bíblicos se utilizan como códigos de los núcleos de VIA en Taiwán, Isaiah (Isaías) fue el nombre elegido para este procesador y la arquitectura.
Se espera que la VIA Isaías sea el doble de rápido en el rendimiento en enteros y cuatro veces más rápido en punto flotante respecto a la generación anterior (VIA Esther) a una velocidad de reloj equivalente. El consumo de energía también se espera que esté a la par con la generación anterior de CPUs VIA, con un TDP que va desde 5W a 25W.
Siendo un diseño completamente nuevo, la arquitectura Isaiah fue construida con soporte para características como el conjunto de instrucciones x86-64 y tecnología de virtualización que no se disponía en anteriores microprocesadores VIA, como la línea VIA C7

VIA Envy, VIA CoreFusion y EPIA