miércoles, 15 de abril de 2009

SLOTS DE EXPANSION



Un slot (también llamado slot de expansión o ranura de expansión) es un elemento de la placa base de un ordenador que permite conectar a ésta una tarjeta adaptadora adicional o de expansión, la cual suele realizar funciones de control de dispositivos periféricos adicionales, tales como monitores, impresoras o unidades de disco. En las tarjetas madre del tipo LPX los slots de expansión no se encuentran sobre la placa sino en un conector especial denominado riser card.


TIPOS DE SLOTS


XT
Es uno de los slots más antiguos trabaja con una velocidad muy inferior a los slots modernos (8 bits) y a una frecuencia de 4.77 [MHz]

AGP
Al puerto AGP se conecta la tarjeta de video y se usa únicamente para tarjetas aceleradoras 3D en ordenadores muy potentes y accesibles; está siendo reemplazado por el slot PCI Express que es más potente. AGP quiere decir Advanced Graphics Port (Puerto de gráficos avanzados). Hay cuatro tipos, AGP (si no se especifica nada más es 1x), AGP 2x, AGP 4x y AGP 8x.

ISA



El slot ISA fue reemplazado desde el año 2000 por el slot PCI. Los componentes diseñados para el slot ISA eran muy grandes y fueron de los primeros slots en usarse en los ordenadores personales. Hoy en día no se fabrican slots ISA. Los puertos ISA son ranuras de expansión actualmente en desuso, se incluyeron estos puertos hasta los primeros modelos del Pentium III. NOTA: El slot ISA ( Industry Standard Arquitecture) es un tipo de slot o ranura de expansión de 16 bits capaz de ofrecer hasta 16 MB/s a 8 MHz.

VESA (Video Electronics Standards Association)

En 1992 el comité VESA de la empresa NEC crea este slot para dar soporte a las nuevas placas de video. Es fácilmente identificable en la placa base debido a que consiste de un ISA con una extensión color marrón, trabaja a 32 bits y con una frecuencia que varia desde 33 [MHz] a 40 [MHz]. Tiene 22,3[cm] de largo (ISA+EXTENSION) 1,4[cm] de alto, 0,9[cm] de ancho (ISA) Y 0,8[cm] de ancho (EXTENSION).

PCI



Un Peripheral Component Interconnect (PCI, "Interconexión de Componentes Periféricos") consiste en un bus de ordenador estándar para conectar dispositivos periféricos directamente a su placa base. Estos dispositivos pueden ser circuitos integrados ajustados en ésta (los llamados "dispositivos planares" en la especificación PCI) o tarjetas de expansión que se ajustan en conectores. Es común en PC, donde ha desplazado al ISA como bus estándar, pero también se emplea en otro tipo de ordenadores.
PCI permite configuración dinámica de un dispositivo periférico. En el tiempo de arranque del sistema, las tarjetas PCI y el BIOS interactúan y negocian los recursos solicitados por la tarjeta PCI. Esto permite asignación de IRQs y direcciones del puerto por medio de un proceso dinámico diferente del bus ISA, donde las IRQs tienen que ser configuradas manualmente usando jumpers externos
VARIANTES CONVENCIONALES DE PCI
• Cardbus es un formato PCMCIA de 32 bits, 33 MHz PCI.
• Compact PCI, utiliza módulos de tamaño Eurocard conectado en una placa hija PCI.
• PCI 2.2 funciona a 66 MHz (requiere 3.3 voltios en las señales) (índice de transferencia máximo de 503 MiB/s (533MB/s)
• PCI 2.3 permite el uso de 3.3 voltios y señalizador universal, pero no soporta los 5 voltios en las tarjetas.
• PCI 3.0 es el estándar final oficial del bus, con el soporte de 5 voltios completamente removido.
• PCI-X cambia el protocolo levemente y aumenta la transferencia de datos a 133 MHz (índice de transferencia máximo de 1014 MiB/s).
• PCI-X 2.0 especifica un ratio de 266 MHz (índice de transferencia máximo de 2035 MiB/s) y también de 533 MHz, expande el espacio de configuración a 4096 bytes, añade una variante de bus de 16 bits y utiliza señales de 1.5 voltios.
• Mini PCI es un nuevo formato de PCI 2.2 para utilizarlo internamente en los portátiles.
• PC/104-Plus es un bus industrial que utiliza las señales PCI con diferentes conectores.
• Advanced Telecommunications Computing Architecture (ATCA o AdvancedTCA) es la siguiente generación de buses para la industria de las telecomunicaciones.


AMR



El audio/módem rise, también conocido como slot AMR2 o AMR3 es una ranura de expansión en la placa madre para dispositivos de audio (como tarjetas de sonido) o módems lanzada en 1998 y presente en placas de Intel Pentium III, Intel Pentium IV y AMD Athlon. Fue diseñada por Intel como una interfaz con los diversos chipsets para proporcionar funcionalidad analógica de Entrada/Salida permitiendo que esos componentes fueran reutilizados en placas posteriores sin tener que pasar por un nuevo proceso de certificación de la FCC (con los costes en tiempo y económicos que conlleva).
Cuenta con 2x23 pines divididos en dos bloques, uno de 11 (el más cercano al borde de la placa madre) y otro de 12, con lo que es físicamente imposible una inserción errónea, y suele aparecer en lugar de un slot PCI, aunque a diferencia de este no es plug and play y no admite tarjetas aceleradas por hardware (sólo por software)
Tecnológicamente ha sido superado por el Advanced Communications Riser (de VIA y AMD) y el Communications and Networking Riser de Intel.


CNR
Comunication and Network Riser, se trata de una ranura de expansión en la placa base para dispositivos de comunicaciones como módems, tarjetas de red o USB. Un poco más grande que la AMR, CNR fue introducida en febrero de 2000 por Intel en sus motherboards para procesadores Pentium y se trataba de un diseño propietario por lo que no se extendió más allá de las placas que incluían los chipsets de Intel, que más tarde fue implementada en motherboards como otros chipset.

PCI-Express



PCI-Express (anteriormente conocido por las siglas 3GIO, 3rd Generation I/O) es un nuevo desarrollo del bus PCI que usa los conceptos de programación y los estándares de comunicación existentes, pero se basa en un sistema de comunicación serie mucho más rápido. Este sistema es apoyado principalmente por Intel, que empezó a desarrollar el estándar con nombre de proyecto Arapahoe después de retirarse del sistema Infiniband, en la que se consigue aumentar el ancho de banda mediante el incremento de la frecuencia, llegando a ser 32 veces más rápido que el PCI 2.1. Su velocidad es mayor que PCI-Express, pero presenta el inconveniente de que al instalar más de un dispositivo la frecuencia base se reduce y pierde velocidad de transmisión.
Este bus está estructurado como enlaces punto a punto,full-duplex, trabajando en serie. En PCIE 1.1 (el más común en 2007) cada enlace transporta 250 MB/s en cada dirección. PCIE 2.0 dobla esta tasa y PCIE 3.0 la dobla de nuevo.
Cada slot de expansión lleva uno, dos, cuatro, ocho, dieciséis o treinta y dos enlaces de datos entre la placa base y las tarjetas conectadas. El número de enlaces se escribe con una x de prefijo (x1 para un enlace simple y x16 para una tarjeta con dieciséis enlaces. Treinta y dos enlaces de 250MB/s dan el máximo ancho de banda, 8 GB/s (250 MB/s x 32) en cada dirección para PCIE 1.1. En el uso más común (x16) proporcionan un ancho de banda de 4 GB/s (250 MB/s x 16) en cada dirección.



Está pensado para ser usado sólo como bus local, aunque existen extensores capaces de conectar múltiples placas base mediante cables de cobre o incluso fibra óptica. Debido a que se basa en el bus PCI, las tarjetas actuales pueden ser reconvertidas a PCI-Express cambiando solamente la capa física. La velocidad superior del PCI-Express permitirá reemplazar casi todos los demás buses, AGP y PCI incluidos. La idea de Intel es tener un solo controlador PCI-Express comunicándose con todos los dispositivos, en vez de con el actual sistema de puente norte y puente sur. Este conector es usado mayormente para conectar tarjetas gráficas.

EL BUS EISA



EISA (Arquitectura Extendida Estdndar de la Industria.), tipo de slot para tarjetas de ampliacion basado en el estandar ISA pero de 32 bits y capacidad de 32 MB/s de transferencia; actualmente en desuso debido a la implantacion del PCI pero en la industria se sigue usando en maquinas que requieren uso rudo y control por computadora.
Esta arquitectura de bus permite multiproceso, es decir, integrar en el sistema varios buses dentro del sistema, cada uno con su procesador. Si bien esta característica no es utilizada más que por sistemas operativos como UNIX o Windows NT.
En una máquina EISA, puede haber al mismo tiempo hasta 6 buses principales con diferentes procesadores centrales y con sus correspondientes tarjetas auxiliares.
El bus EISA proporciona ranuras de expansion de 32 bits para utilizarse en sistemas 386DX o superiores. La ranura EISA permite a los fabricantes diseñar tarjetas adaptadoras que tengan muchas de las capacidades de los adaptadores MCA, pero el bus maneja tambien tarjetas adaptadoras creadas para el antiguo estandar ISA. Cuando se utiliza con dispositivos de control de bus como los controladores de disco duro SCSI, el bus EISA proporciona una notable mejora en la rapidez de transferencia de datos. Comparado con la arquitectura de sistema ISA de 16 bits, el EISA permite una mayor expansion del sistema con menos conflictos de adaptadores.

TIPOS MEMORIAS RAM

MEMORIA RAM
Siglas de Random Access Memory, un tipo de memoria a la que se puede acceder de forma aleatoria; esto es, se puede acceder a cualquier byte de la memoria sin pasar por los bytes precedentes. RAM es el tipo más común de memoria en las computadoras y en otros dispositivos, tales como las impresoras.
Hay dos tipos básicos de RAM:
• DRAM (Dynamic RAM), RAM dinámica
• SRAM (Static RAM), RAM estática
Los dos tipos difieren en la tecnología que usan para almacenar los datos. La RAM dinámica necesita ser refrescada cientos de veces por segundo, mientras que la RAM estática no necesita ser refrescada tan frecuentemente, lo que la hace más rápida, pero también más cara que la RAM dinámica. Ambos tipos son volátiles, lo que significa que pueden perder su contenido cuando se desconecta la alimentación.
En contraste, ROM (Read Only Memory) se refiere a la memoria especial generalmente usada para almacenar programas que realizan tareas de arranque de la máquina y de diagnósticos. La mayoría de los computadores personales tienen una pequeña cantidad de ROM (algunos Kbytes). De hecho, ambos tipos de memoria (ROM y RAM) permiten acceso aleatorio. Sin embargo, para ser precisos, hay que referirse a la memoria RAM como memoria de lectura y escritura, y a la memoria ROM como memoria de solo lectura.
La mayoría de los computadores personales contienen una pequeña cantidad de ROM que almacena programas críticos tales como aquellos que permiten arrancar la máquina (BIOS CMOS). Además, las ROMs son usadas de forma generalizada en calculadoras y dispositivos periféricos tales como impresoras laser, cuyas 'fonts' estan almacenadas en ROMs.

TIPOS DE MEMORIA RAM

VRAM
Siglas de Vídeo RAM, una memoria de propósito especial usada por los adaptadores de vídeo. A diferencia de la convencional memoria RAM, la VRAM puede ser accedida por dos diferentes dispositivos de forma simultánea. Esto permite que un monitor pueda acceder a la VRAM para las actualizaciones de la pantalla al mismo tiempo que un procesador gráfico suministra nuevos datos. VRAM permite mejores rendimientos gráficos aunque es más cara que la una RAM normal.
SIMM
Siglas de Single In line Memory Module, un tipo de encapsulado consistente en una pequeña placa de circuito impreso que almacena chips de memoria, y que se inserta en un zócalo SIMM en la placa madre o en la placa de memoria. Los SIMMs son más fáciles de instalar que los antiguos chips de memoria individuales, y a diferencia de ellos son medidos en bytes en lugar de bits.
Un PC usa tanto memoria de nueve bits (ocho bits y un bit de paridad, en 9 chips de memoria RAM dinámica) como memoria de ocho bits sin paridad. En el primer caso los ocho primeros son para datos y el noveno es para el chequeo de paridad.

DIMM
Siglas de Dual In line Memory Module, un tipo de encapsulado, consistente en una pequeña placa de circuito impreso que almacena chips de memoria, que se inserta en un zócalo DIMM en la placa madre y usa generalmente un conector de 168 contactos.
DIP
Siglas de Dual In line Package, un tipo de encapsulado consistente en almacenar un chip de memoria en una caja rectangular con dos filas de pines de conexión en cada lado.

RAM Disk
Se refiere a la RAM que ha sido configurada para simular un disco duro. Se puede acceder a los ficheros de un RAM disk de la misma forma en la que se acceden a los de un disco duro. Sin embargo, los RAM disk son aproximadamente miles de veces más rápidos que los discos duros, y son particularmente útiles para aplicaciones que precisan de frecuentes accesos a disco. Dado que están constituidos por RAM normal. Los RAM disk pierden su contenido una vez que la computadora es apagada. Para usar los RAM Disk se precisa copiar los ficheros desde un disco duro real al inicio de la sesión y copiarlos de nuevo al disco duro antes de apagar la máquina. Observe que en el caso de fallo de alimentación eléctrica, se perderán los datos que huviera en el RAM disk.

Memoria Caché ó RAM Caché
Un caché es un sistema especial de almacenamiento de alta velocidad. Puede ser tanto un área reservada de la memoria principal como un dispositivo de almacenamiento de alta velocidad independiente. Hay dos tipos de caché frecuentemente usados en las computadoras personales: memoria caché y caché de disco. Una memoria caché, llamada también a veces almacenamiento caché ó RAM caché, es una parte de memoria RAM estática de alta velocidad (SRAM) más que la lenta y barata RAM dinámica (DRAM) usada como memoria principal. La memoria caché es efectiva dado que los programas acceden una y otra vez a los mismos datos o instrucciones. Guardando esta información en SRAM, la computadora evita acceder a la lenta DRAM.
Cuando un dato es encontrado en el caché, se dice que se ha producido un impacto (hit), siendo un caché juzgado por su tasa de impactos (hit rate). Los sistemas de memoria caché usan una tecnología conocida por caché inteligente en el cual el sistema puede reconocer cierto tipo de datos usados frecuentemente. Las estrategias para determinar qué información debe de ser puesta en el caché constituyen uno de los problemas más interesantes en la ciencia de las computadoras. Algunas memorias caché están construidas en la arquitectura de los microprocesadores. Por ejemplo, el procesador Pentium II tiene una caché L2 de 512 Kbytes.

SRAM
Siglas de Static Random Access Memory, es un tipo de memoria que es más rápida y fiable que la más común DRAM (Dynamic RAM). El término estática viene derivado del hecho que necesita ser refrescada menos veces que la RAM dinámica. Los chips de RAM estática tienen tiempos de acceso del orden de 10 a 30 nanosegundos, mientras que las RAM dinámicas están por encima de 30, y las memorias bipolares y ECL se encuentran por debajo de 10 nanosegundos.
Un bit de RAM estática se construye con un --- como circuito flip-flop que permite que la corriente fluya de un lado a otro basándose en cual de los dos transistores es activado.

DRAM
Siglas de Dynamic RAM, un tipo de memoria de gran capacidad pero que precisa ser constantemente refrescada (re-energizada) o perdería su contenido. Generalmente usa un transistor y un condensador para representar un bit Los condensadores debe de ser energizados cientos de veces por segundo para mantener las cargas. A diferencia de los chips firmware (ROMs, PROMs, etc.) las dos principales variaciones de RAM (dinámica y estática) pierden su contenido cuando se desconectan de la alimentación. Contrasta con la RAM estática. Algunas veces en los anuncios de memorias, la RAM dinámica se indica erróneamente como un tipo de encapsulado; por ejemplo "se venden DRAMs, SIMMs y SIPs", cuando deberia decirse "DIPs, SIMMs y SIPs" los tres tipos de encapsulado típicos para almacenar chips de RAM dinámica.

SDRAM
Siglas de Synchronous DRAM, DRAM síncrona, un tipo de memoria RAM dinámica que es casi un 20% más rápida que la RAM EDO. SDRAM entrelaza dos o más matrices de memoria interna de tal forma que mientras que se está accediendo a una matriz, la siguiente se está preparando para el acceso. También conocido como DDR DRAM o DDR SDRAM (Double Data Rate DRAM o SDRAM), permite leer y escribir datos a dos veces la velocidad bús.
FPM
Siglas de Fast Page Mode, memoria en modo paginado, el diseño más común de chips de RAM dinámica. El acceso a los bits de memoria se realiza por medio de coordenadas, fila y columna. Antes del modo paginado, era leído pulsando la fila y la columna de las líneas seleccionadas. Con el modo pagina, la fila se selecciona solo una vez para todas las columnas (bits) dentro de la fila, dando como resultado un rápido acceso.
EDO
Siglas de Extended Data Output, un tipo de chip de RAM dinámica que mejora el rendimiento del modo de memoria Fast Page alrededor de un 10%. Al ser un subconjunto de Fast Page, puede ser substituida por chips de modo Fast Page. Sin embargo, si el controlador de memoria no está diseñado para los más rápidos chips EDO, el rendimiento será el mismo que en el modo Fast Page. EDO elimina los estados de espera manteniendo activo el buffer de salida hasta que comienza el próximo ciclo.
BEDO (Burst EDO) es un tipo más rápido de EDO que mejora la velocidad usando un contador de dirección para las siguientes direcciones y un estado 'pipeline' que solapa las operaciones.

PB SRAM
Siglas de Pipeline Burst SRAM. Se llama 'pipeline' a una categoría de técnicas que proporcionan un proceso simultáneo, o en paralelo dentro de la computadora, y se refiere a las operaciones de solapamiento moviendo datos o instrucciones en una 'tuberia' conceptual con todas las fases del 'pipe' procesando simultáneamente. Por ejemplo, mientras una instrucción se está ejecutándo, la computadora está decodificando la siguiente instrucción. En procesadores vectoriales, pueden procesarse simultáneamente varios pasos de operaciones de coma flotante.

RIMM



Módulo de memoria Rambus
RIMM, acrónimo de Rambus Inline Memory Module, designa a los módulos de memoria RAM que utilizan una tecnología denominada RDRAM, desarrollada por Rambus Inc. a mediados de los años 1990 con el fin de introducir un módulo de memoria con niveles de rendimiento muy superiores a los módulos de memoria SDRAM de 100 Mhz y 133 Mhz disponibles en aquellos años.
Los módulos RIMM RDRAM cuentan con 184 pins y debido a sus altas frecuencias de trabajo requieren de difusores de calor consistentes en una placa metálica que recubre los chips del módulo. Se basan en un bus de datos de 16 bits y están disponibles en velocidades de 300MHz (PC-600), 356 Mhz (PC-700), 400 Mhz (PC-800) y 533 Mhz (PC-1066) que por su pobre bus de 16 bits tenía un rendimiento 4 veces menor que la DDR. La RIMM de 533MHz tiene un rendimiento similar al de un módulo DDR133, a pesar de que sus latencias son 10 veces peores que la DDR.
A pesar de tener la tecnología RDRAM niveles de rendimiento muy superiores a la tecnología SDRAM y las primeras generaciones de DDR RAM, debido al alto costo de esta tecnología no han tenido gran aceptación en el mercado de PC. Su momento álgido tuvo lugar durante el periodo de introducción del Pentium 4 para el cual se diseñaron las primeras placas base, pero Intel ante la necesidad de lanzar equipos más económicos decidió lanzar placas base con soporte para SDRAM y más adelante para DDR RAM desplazando esta última tecnología a los módulos RIMM del mercado.

PROCESADORES TIPO CISC Y RISC

PROCESADORES CISC Y RISC

Todos los CPUs x86 compatibles con la PC son procesadores CISC (Computadora de Conjunto de Instrucciones Complejas), pero en las Mac nuevas o en alguna que se hagan dibujos de ingeniería complejos, probablemente tengan un CPU RISC (Computadora de Conjunto de Instrucciones Reducido).
La diferencia práctica entre CISC y RISC es que los procesadores CISCx86 corren a DOS, Windows 3.1 y Windows 95 en el modo nativo; es decir, sin la traducción de software que disminuya el desempeño. Pero CISC y RISC también reflejan dos filosofías de computación rivales. El procesamiento de RISC requiere breves instrucciones de software de la misma longitud, que son fáciles de procesar rápidamente y en tandém por un CPU.
En contraste, un procesador de CISC tiene que procesar instrucciones más largas de longitud desigual. Es más difícil procesar múltiples instrucciones de CISC a la vez.
Los que proponen RISC mantienen que su método de procesamiento es más eficiente y más escalable, por lo que los arquitectos pueden añadir unidades de ejecución más fácilmente a un diseño existente y aumentar el rendimiento (las unidades de ejecución son los circuitos dentro del chip que hacen gran parte del trabajo). Similarmente, RISC facilita el multiprocesamiento verdadero, donde varios CPUs trabajan simétricamente mientras dividen, ejecutan y ensamblan una cadena de instrucción; los chips CISC pueden hacer lo mismo, pero no son tan efectivos. La simplicidad de las instrucciones de RISC también significa que requieren menos lógica para ejecutar, reduciendo el costo del chip. Pocos en el campo del CISC discuten estos hechos, prefiriendo apuntar a la realidad <>.
Todo el debate de CISC/RISC puede ser irrelevante pronto debido a que nuevas técnicas están convergiendo. El Pentium Pro, el Nx586 y el K5 son básicamente procesadores RISC en su núcleo. Toman las instrucciones de CISC y las traducen a instrucciones estilo RISC. Para la generación que sigue al Pentium Pro, Intel y Hewlett-Packard están colaborando en un CPU híbrido que pueda aceptar instrucciones RISC y CISC. Si ese chip crea un estándar, puede acelerar el cambio hacia el software optimizado para RISC. Un mundo de RISC significaría CPUs más poderosos, y más baratos. Cuando quiera mejorar, simplemente puede añadir otro CPU en lugar de desprenderse de su viejo CPU.

Procesadores: CISC y RISC
Los procesadores se agrupan hoy en dos familias, la más antigua y común de las cuales es la "CISC" o "Complex InstructionSet Computer": computador de set complejo de instrucciones. Esto corresponde a procesadores que son capaces de ejecutar gran número de instrucciones pre-definidas en lenguaje de máquina (del orden del centenar).
Desde hace unos años se fabrican y utilizan en algunas máquinas procesadores "RISC" o "Reduced Instruction Set Computer", es decir con un número reducido de instrucciones. Esto permite una ejecución más rápida de las instrucciones pero requiere compiladores (o sea traductores automáticos de programas) más complejos ya que las instrucciones que un "CISC" podría omitir pero no un "RISC", deben ser escritas como combinaciones de varias instrucciones admisibles del "RISC". Se obtiene una ganancia en velocidad por el hecho que el RISC domina instrucciones muy frecuentes mientras son operaciones menos frecuentes las que deben descomponerse.
Hace ya tiempo que se ha empezado a investigar sobre microprocesadores "híbridos", es decir, han llevado a cabo el que las nuevas CPU's no sean en su cien por cien CISC, sino por el contrario, que estas ya contengan algunos aspectos de tecnología RISC. Este propósito se ha realizado con el fin de obtener ventajas procedentes de ambas tecnologías (mantener la compatibilidad x86 de los CISC, y a la vez aumentar las prestaciones hasta aproximarse a un RISC), sin embargo, este objetivo todavía no se ha conseguido, de momento se han introducido algunos puntos del RISC, lo cual no significa que hayan alcanzado un nivel optimo.
Realmente, las diferencias son cada vez más borrosas entre las arquitecturas CISC y RISC. Las CPU's combinan elementos de ambas y no son fáciles de encasillar. Por ejemplo, el Pentium Pro traduce las largas instrucciones CISC de la arquitectura x86 a microoperaciones sencillas de longitud fija que se ejecutan en un núcleo de estilo RISC. El UltraSparc-II de Sun, acelera la decodificación MPEG con unas instrucciones especiales para gráficos; estas instrucciones obtienen unos resultados que en otros procesadores requerirían 48 instrucciones.
Por lo tanto a corto plazo, en el mercado coexistirán las CPU's RISC y los microprocesadores híbridos RISC - CISC, pero cada vez con diferencias mas difusas entre ambas tecnologías. De hecho, los futuros procesadores lucharan en cuatro frentes:
-Ejecutar más instrucciones por ciclo.
-Ejecutar las instrucciones en orden distinto del original para que las interdependencias
Entre operaciones sucesivas no afecten al rendimiento del procesador.
-Renombrar los registros para paliar la escasez de los mismos.
-Contribuir a acelerar el rendimiento global del sistema, además de la velocidad de la
CPU.
A continuación pasaremos a comentar brevemente algunas de las CPU's, recién salidas o próximas a salir:
3. Kriptón - 5 O K5 De AMD
Estado Actual: Muestras comerciales.
Velocidad Prevista: 120 Mhz
Rendimiento Estimado: Entre 109 y 115 SPECint92.
Proceso de Fabricación: CMOS de tres capas de metal.
Tamaño de la Tecnología de Proceso : 0'35 micras
Ventajas Tecnológicas:
Microarquitectura superescalar de cuatro vías
Núcleo de tipo RISC desacoplado
Ejecución especulativa con reordenación de instrucciones
Desventajas Tecnológicas:
Velocidades de reloj inferiores a las inicialmente previstas
Las extensas pruebas de compatibilidad han retrasado el lanzamiento

4. Pentium pro de Intel
Estado Actual: Inicios de producción.
Velocidad Prevista: 150 Mhz
Rendimiento Estimado: Entre 220 SPECint92; 215 SPECfp92
Proceso de Fabricación: BiCMOS.
Tamaño de la Tecnología de Proceso : 0'6 micras
Ventajas Tecnológicas:
Paquete multichip que integra una cache secundaria de 256 KB que se comunica con la CPU a la misma velocidad del procesador
Microarquitectura superescalar con reordenación de instrucciones
Superpipelines incluidos para permitir altas velocidades de reloj.
Desventajas Tecnológicas:
Alto precio de fabricación del paquete multichip
Microarquitectura optimizada para software de 32 bits, que tienen rendimiento pobre con código de 16 bits
Consumo de energía y disipación de calor totalmente inapropiadas para ordenadores portátiles

5. Mips
Estado Actual: Primeras pruebas de producción
Velocidad de reloj Prevista: 200 Mhz
Rendimiento Estimado: 300 SPECint92 y 600 SPECfp92
Proceso de Fabricación: CMOS
Tamaño de la Tecnología de Proceso: 0'35 micras
Ventajas Tecnológicas:
Este chip de 64 bits tiene cinco pipelines funcionales, por lo que puede llegar a ejecutar cinco instrucciones por ciclo de reloj. Con dos unidades de coma flotante de precisión doble, el R10000 esta optimizado para sostener un alto rendimiento de coma flotante.
Desventajas Tecnológicas:
Para optimizar el rendimiento, la memoria cache secundaria externa tiene que fabricarse con costosa tecnología
SRAM.

6. Sun microsystems
Estado Actual: Diseño
Velocidad de Reloj Prevista: de 250 a 300 Mhz
Rendimiento Estimado: De 350 a 420 SPECint92 y de 550 a 660 SPECfp92
Proceso de Fabricación: CMOS de cinco capas de metal.
Tamaño de la Tecnología de Proceso: 0'3 micras
Ventajas Tecnológicas:
El UltraSparc-II es una CPU de 64 bits superescalar de cuatro vías que no ha sido optimizada para tener unas altas cifras de rendimiento puro, sino para aplicaciones multimedia y de red.
Desventajas Tecnológicas:
La falta de asistencia por hardware para reordenar instrucciones crea una gran dependencia hacia la calidad de los compiladores y exige la recopilación del software anterior para disfrutar de todas las ventajas del chip
UltraSparc-II.

7. Hewlett - packard
Estado Actual: Muestras de producción
Velocidad de Reloj Prevista: de 200 Mhz
Rendimiento Estimado: Superior a 360 SPECint92 y 550 SPECfp92
Proceso de Fabricación: CMOS
Tamaño de la Tecnología de Proceso: 0'5 micras
Ventajas Tecnológicas:
HP es el único fabricante RISC que deja fuera del chip las memorias cache primarias de instrucciones y datos, por lo que pueden tener un tamaño de varios megabytes y tener un buen rendimiento con los datos de tamaño excesivo para la cache, que suelen ser problemáticos para otros núcleos RISC diseñados solo para la velocidad de proceso.

8. Fundamentos y origen del risc
Los titulares que definen la arquitectura RISC, podría resumirse, con la suficiente flexibilidad, en varios puntos:
- Reducción del número de instrucciones ( ensamblador ).
- Uso intensivo de registros, diminuyendo los accesos a memoria.
- Simplificación de la CPU en aras de una mayor velocidad de proceso.
- Empleo de memorias cache.
- Utilización de "compiladores optimizados", generadores de código objeto adaptado a los requerimientos de la CPU.
9. Corazón del risc
La CPU o procesador es el centro, el cerebro del ordenador. Será ella quien dicte las acciones a tomar tras leer la información contenida en memoria. Se alimenta de instrucciones en lenguaje ensamblador para, a partir de cada una de estas, generar una pleyade de ordenes ( microordenes ) que, semiocultas al programador, recorrerán las interioridades del propio procesador, activando registros, etc.,... de su complejo hardware, a la vez que escapan hacia el exterior de la CPU con la misión de gobernar el comportamiento de la memoria buses de E/S, etc. En resumen son estas microordenes las que constituyes el sistema nervioso del ordenador. El problema se plantea al implementar en la CPU un dispositivo que "dispare" una serie de respuestas ante el estimulo de los "LOAD", "STORE", "JUMP", "MOVE"...
Las CPU's cuentan con una pequeña memoria de control de naturaleza ROM en la que se graba el conjunto de microordenes que corresponden a cada instrucción. Cuando una de estas es introducida en el procesador, lo que se hace realmente es utilizarla para direccionar adecuadamente la memoria de control y obtener así las microordenes correspondientes. ¿Ventajas? Un cambio en las instrucciones solo exige regrabar esta ROM.
¿COMO SURGE EL RISC?
Los ordenadores etiquetados como CISC gozan de los privilegios y defectos del microcodigo. La CPU es considerablemente más rápida que la memoria principal. Esto significa que conviene manejar un amplio abanico de instrucciones complejas cuyo significado equivalga al de varias instrucciones simples, disminuyendo así los accesos a memoria. A esto se le añade la tendencia de aumentar el grado de complejidad de las instrucciones para acercarlas a los lenguajes de alto nivel.
Sin embargo, como resultado de ciertos estudios en los que se examino la frecuencia de utilización de las diferentes instrucciones, se observo que el 80 % del tiempo era consumido por solo el 20 % de las instrucciones, con prioridad de los almacenamientos (STORE), cargas (LOAD) y bifurcaciones (BRANCH).

miércoles, 1 de abril de 2009

RECTIFICADOR DE MEDIA ONDA
El rectificador de media onda es un circuito empleado para eliminar la parte negativa o positiva de una señal de corriente alterna de entrada (Vi) convirtiéndola en corriente directa de salida (Vo). Es el circuito más sencillo que puede construirse con un diodo.
ANÁLISIS DEL CIRCUITO (diodo ideal)
Los diodos ideales, permiten el paso de toda la corriente en una única dirección, la correspondiente a la polarización directa, y no conducen cuando se polarizan inversamente. Además su voltaje es cero.

POLARIZACIÓN DIRECTA (Vi > 0)
En este caso, el diodo permite el paso de la corriente sin restricción, provocando una caída de potencial que suele ser de 0,7 V. Este voltaje de 0,7 V se debe a que usualmente se utilizan diodos de silicio. En el caso del germanio, que es el segundo mas usado el voltaje es de 0,3 V.





Vo = Vi - VD → Vo = Vi - 0,7 V



y la intensidad de la corriente puede fácilmente calcularse mediante la ley de Ohm:







POLARIZACIÓN INVERSA (Vi <>



En este caso, el diodo no conduce, quedando el circuito abierto. La tensión de salida es nula, al igual que la intensidad de la corriente:
Vo = 0
I = 0





TENSIÓN RECTIFICADA
Como acabamos de ver, la curva de transferencia, que relaciona las tensiones de entrada y salida, tiene dos tramos: para tensiones de entrada negativas la tensión de salida es nula, mientras que para entradas positivas, la tensión se reduce en 0.6V. El resultado es que en la carga se ha eliminado la parte negativa de la señal de entrada.







RECTIFICADOR DE ONDA COMPLETA
Un Rectificador de onda completa es un circuito empleado para convertir una señal de corriente alterna de entrada (Vi) en corriente directa de salida (Vo) pulsante. A diferencia del rectificador de media onda, en este caso, la parte negativa de la señal se convierte en positiva o bien la parte positiva de la señal se convertirá en negativa, según se necesite una señal positiva o negativa de corriente continua. Existen dos alternativas, bien empleando dos diodos o empleando cuatro (puente de Graetz).




RECTIFICADOR CON DOS DIODOS.
En el circuito de la figura, ambos diodos pueden encontrarse simultáneamente en directa o en inversa, ya que las diferencias de potencial a las que están sometidos son de signo contrario; por tanto uno se encontrará polarizado inversamente y el otro directamente. La tensión de entrada (Vi) es, en este caso, la mitad de la tensión del secundario del transformador.



TENSIÓN DE ENTRADA POSITIVA.
El diodo 1 se encuentra en directa (conduce), mientras que el 2 se encuentra en inversa (no conduce). La tensión de salida es igual a la de entrada. El diodo 2 ha de soportar en inversa la tensión máxima del secundario.


TENSIÓN DE ENTRADA NEGATIVA.
El diodo 2 se encuentra en directa (conduce), mientras que el diodo 1 se encuentra en inversa (no conduce). La tensión de salida es igual a la de entrada pero de signo contrario. El diodo 1 ha de soportar en inversa la tensión máxima del secundario .



RESISTORES





RESISTOR
Se denomina resistor o resistencia al componente electrónico diseñado para introducir una resistencia eléctrica determinada entre dos puntos de un circuito. En otros casos, como en las planchas, calentadores, etc., las resistencias se emplean para producir calor aprovechando el efecto Joule. Entre los técnicos es frecuente utilizar el término resistor por ser más preciso que resistencia. La corriente máxima en un resistor viene condicionada por la máxima potencia que puede disipar su cuerpo. Esta potencia se puede identificar visualmente a partir del diámetro sin que sea necesaria otra indicación. Los valores más corrientes son 0,25 W, 0,5 W y 1 W.

CODIGO DE COLORES
Para caracterizar un resistor hacen falta tres valores: resistencia eléctrica, disipación máxima y precisión o tolerancia. Estos valores se indican normalmente en el encapsulado dependiendo del tipo de éste; para el tipo de encapsulado axial, el que se observa en las fotografías, dichos valores van rotulados con un código de franjas de colores. Estos valores se indican con un conjunto de rayas de colores sobre el cuerpo del elemento. Son tres, cuatro o cinco rayas; dejando la raya de tolerancia (normalmente plateada o dorada) a la derecha, se leen de izquierda a derecha. La última raya indica la tolerancia (precisión). De las restantes, la última es el multiplicador y las otras las cifras.
El valor de la resistencia eléctrica se obtiene leyendo las cifras como un número de una, dos o tres cifras; se multiplica por el multiplicador y se obtiene el resultado en Ohmios (Ω). El coeficiente de temperatura únicamente se aplica en resistencias de alta precisión (tolerancia menor del 1%).







martes, 31 de marzo de 2009

DIODOS


NOMBRE: diodo Zener,
INFORMACION: Es un diodo de silicio que se ha construido para que funcione en las zonas de rupturas. Llamados a veces diodos de avalancha o de ruptura, el diodo zener es la parte esencial de los reguladores de tensión casi constantes con independencia de que se presenten grandes variaciones de la tensión de red, de la resistencia de carga y temperatura.


NOMBRE: diodo láser
INFORMACION: Es un dispositivo semiconductor similar a los diodos LED pero que bajo las condiciones adecuadas emite luz láser. A veces se los denomina diodos láser de inyección, o por sus siglas inglesas LD o ILD.
Son muy eficientes.
Son muy fiables.
Tienen tiempos medios de vida muy largos.
Son económicos.
Permiten la modulación directa de la radiación emitida, pudiéndose modular a décimas de Gigahercio.
Su volumen y peso son pequeños.
El umbral de corriente que necesitan para funcionar es relativamente bajo.
Su consumo de energía es reducido (comparado con otras fuentes de luz)
El ancho de banda de su espectro de emisión es angosto (puede llegar a ser de sólo algunos KHz)



NOMBRE: Diodo emisor de luz
INFORMACION: Es un dispositivo semiconductor (diodo) que emite luz incoherente de espectro reducido cuando se polariza de forma directa la unión PN del mismo y circula por él una corriente eléctrica. Este fenómeno es una forma de electroluminiscencia. El color (longitud de onda), depende del material semiconductor empleado en la construcción del diodo y puede variar desde el ultravioleta, pasando por el visible, hasta el infrarrojo. Los diodos emisores de luz que emiten luz ultravioleta también reciben el nombre de UV LED (UltraV'iolet Light-Emitting Diode) y los que emiten luz infrarroja suelen recibir la denominación de IRED (Infra-Red Emitting Diode).



NOMBRE: Diodo de capacidad variable o Varactor (Varicap)
INFORMACION: Es un tipo de diodo que basa su funcionamiento en el fenómeno que hace que la anchura de la barrera de potencial en una unión PN varie en función de la tensión inversa aplicada entre sus extremos. Al aumentar dicha tensión, aumenta la anchura de esa barrera, disminuyendo así la capacidad del diodo. De este modo se obtiene un condensador variable controlado por tensión. Los valores de capacidad obtenidos van desde 1 a 500 pF. La tensión inversa mínima tiene que ser de 1 V. La aplicación de estos diodos se encuentra, sobre todo, en la sintonía de TV, modulación de frecuencia en transmisiones de FM y radio y en los osciladores controlados por voltaje (Oscilador controlado por tensión).

jueves, 26 de marzo de 2009

RESUMEN ACERCA DE SITSEMAS OPERATIVOS

BREVE HISTORIA ACERCA DE MICROSOFT
WINDOWS 1.0
En 1985 Microsoft publicó la primera versión de Windows, una interfaz gráfica de usuario (GUI) para su propio sistema operativo (MS-DOS) que había sido incluido en el IBM PC y ordenadores compatibles desde 1981. La primera versión de Microsoft Windows Premium nunca fue demasiado potente ni tampoco se hizo popular. Estaba severamente limitada debido a los recursos legales de Apple, que no permitía imitaciones de sus interfaces de usuario. Por ejemplo, las ventanas sólo podían disponerse en mosaico sobre la pantalla; esto es, nunca podían solaparse u ocultarse unas a otras. Tampoco había "papelera de reciclaje" debido a que Apple creía que ellos tenían la patente de este paradigma o concepto
WINDOWS 2.0
Apareció en 1987, y fue un poco más popular que la versión inicial. Gran parte de esta popularidad la obtuvo de la inclusión en forma de versión "run-time" de nuevas aplicaciones gráficas de Microsoft, Microsoft Excel y Microsoft Word para Windows. Éstas podían cargarse desde MS-DOS, ejecutando Windows a la vez que el programa, y cerrando Windows al salir de ellas. Windows 2 todavía usaba el modelo de memoria 8088 y por ello estaba limitado a 1 megabyte de memoria; sin embargo, mucha gente consiguió hacerlo funcionar bajo sistemas multitareas como DesqView.
WINDOWS 3.0
La primera versión realmente popular de Windows fue la versión 3.0, publicada en 1990. Ésta se benefició de las mejoradas capacidades gráficas para PC de esta época, y también del microprocesador 80386, que permitía mejoras en las capacidades multitarea de las aplicaciones Windows. Esto permitiría ejecutar en modo multitarea viejas aplicaciones basadas en MS-DOS. Windows 3 convirtió al IBM PC en un serio competidor para el Apple Macintosh.
OS/2
OS/2 es un sistema operativo de IBM que intentó suceder a DOS como sistema operativo de los PC. Se desarrolló inicialmente de manera conjunta entre Microsoft e IBM, hasta que la primera decidió seguir su camino con su Windows 3.0 e IBM se ocupó en solitario de OS/2.
OS/2.1
Más adelante IBM añadió, en la versión 1.1 de OS/2, un sistema gráfico llamado Presentation Manager (PM). Aunque en muchos aspectos era superior a Windows, su API (Programa de Interfaz de Aplicaciones) era incompatible con la que usaban los programas de este último. (Entre otras cosas, Presentation Manager localizaba el eje de coordenadas X, Y en la parte inferior izquierda de la pantalla como las coordenadas cartesianas, mientras que Windows situaba el punto 0,0 en la esquina superior izquierda de la pantalla como otros sistemas informáticos basados en ventanas).
A principio de los 90, crecieron las tensiones en la relación entre IBM y Microsoft. Cooperaban entre sí en el desarrollo de sus sistemas operativos para PC y cada uno tenía acceso al código del otro. Microsoft quería desarrollar Windows aún más, mientras IBM deseaba que el futuro trabajo estuviera basado en OS/2. En un intento de resolver estas diferencias, IBM y Microsoft acordaron que IBM desarrollaría OS/2 2.0 para reemplazar a OS/2 1.3 y Windows 3.0, mientras Microsoft desarrollaría un nuevo sistema operativo, OS/2 3.0, para suceder más adelante al OS/2 2.0.
Este acuerdo pronto fue dejado de lado y la relación entre IBM y Microsoft terminó. IBM continuó desarrollando IBM OS/2 2.0 mientras que Microsoft cambió el nombre de su (todavía no publicado) OS/2 3.0 a Windows NT. (Microsoft promocionó Windows NT con tanto éxito que la mayoría de la gente no se dio cuenta de que se trataba de un OS/2 remozado.) Ambos retuvieron los derechos para usar la tecnología de OS/2 y Windows desarrollada hasta la fecha de terminación del acuerdo.
OS/2 2.0
IBM publicó OS/2 versión 2.0 en 1992. Esta versión suponía un gran avance frente a OS/2 1.3. Incorporaba un nuevo sistema de ventanas orientado a objetos llamado Workplace Shell como sustituto del Presentation Manager, un nuevo sistema de ficheros, HPFS, para reemplazar al sistema de ficheros FAT de DOS usado también en Windows y aprovechaba todas las ventajas de las capacidades de 32 bit del procesador Intel 80386. También podía ejecutar programas DOS y Windows, ya que IBM había retenido los derechos para usar el código de DOS y Windows como resultado de la ruptura.
OS/2 3.0 y 4.0
IBM continuó vendiendo OS/2, produciendo versiones posteriores como OS/2 3.0 (también llamado Warp) y 4.0 (Merlin). Pero con la llegada de Windows 95, OS/2 comenzó a perder cuota de mercado. Aunque OS/2 seguía corriendo aplicaciones de Windows 3.0, carecía de soporte para las nuevas aplicaciones que requerían Windows 95. Al contrario que con Windows 3.0, IBM no tenía acceso al código fuente de Windows 95; y tampoco tenía el tiempo ni los recursos necesarios para emular el trabajo de los programadores de Microsoft con Windows 95; no obstante, OS/2 3.0 (Warp) apareció en el mercado antes que Windows 95 (que se retrasaba respecto a la fecha inicial de lanzamiento); como mejoras incorporaba una reducción en los requisitos de hardware (pasaba de pedir 8 Mb de memoria RAM de su antedecesor OS/2 2.1 a pedir sólo 4 Mb), y como gran añadido, incorporaba el llamado BonusPack, un conjunto de aplicaciones de oficina, comunicaciones, etc que ahorraban el tener que comprar software adicional como en el caso de Windows.
WINDOWS 3.1 Y WINDOWS 3.11
En respuesta a la aparición de OS/2 2.0 , Microsoft desarrolló Windows 3.1, que incluía diversas pequeñas mejoras a Windows 3.0 (como las fuentes escalables TrueType), pero que consistía principalmente en soporte multimedia. Más tarde Microsoft publicó el Windows 3.11 (denominado Windows para trabajo en grupo), que incluía controladores y protocolos mejorados para las comunicaciones en red y soporte para redes punto a punto.
WINDOWS NT

Mientras tanto Microsoft continuó desarrollando Windows NT. Para ello reclutaron a Dave Cutler, uno de los jefes analistas de VMS en Digital Equipment Corporation (hoy parte de Compaq, que en 2005 fue comprada por HP) para convertir NT en un sistema más competitivo. Cutler había estado desarrollando un sucesor del VMS en DEC (Digital Equipment Corporation) llamado Mica, y cuando DEC abandonó el proyecto se llevó sus conocimientos y algunos ingenieros a Microsoft. DEC también creyó que se llevaba el código de Mica a Microsoft y entabló una demanda. Microsoft finalmente pagó 150 millones de dólares y acordó dar soporte al microprocesador Alpha de DEC en NT. Siendo un sistema operativo completamente nuevo, Windows NT sufrió problemas de compatibilidad con el hardware y el software existentes. También necesitaba gran cantidad de recursos y éstos estaban solamente disponibles en equipos grandes y caros. Debido a esto muchos usuarios no pudieron pasarse a Windows NT. La interfaz gráfica de NT todavía estaba basada en la de Windows 3.1 que era inferior a la Workplace Shell de OS/2.

WINDOWS NT 3.1
Windows nt 3.1 (la estrategia de marketing de Microsoft era que Windows NT pareciera una continuación de Windows 3.1) apareció en su versión beta para desarrolladores en la conferencia de desarrolladores profesionales de julio de 1992 en san francisco. Microsoft anunció en la conferencia su intención de desarrollar un sucesor para Windows NT y Chicago (que aún no había sido lanzada). Este sucesor habría de unificar ambos sistemas en uno sólo y su nombre clave era cairo. (Visto en retrospectiva cairo fue un proyecto más difícil de lo que Microsoft había previsto y como resultado NT y Chicago no sería unificados hasta la aparición de XP). Las versiones antiguas de Windows nt se distribuían en disquetes y requerían unos elevados recursos de hardware (además de soportar relativamente poco hardware) por lo que no se difundieron demasiado hasta llegar a Windows NT 4.0 y sobre todo a Windows 2000. Por primera vez daba soporte para el sistema de ficheros ntfs.

WINDOWS NT 3.5/3.51
Cabe destacar que la interfaz gráfica de Windows NT 3.5 y Windows 3.51 era la misma que la de sus predecesores, Windows NT 3.1 y Windows 3.1, con el Administrador de Programas. Por otra parte, Microsoft distribuyó un añadido llamado NewShell, cuyo nombre completo es "Shell Technology Preview Update", que no era otra cosa más que una versión Beta de la nueva interfaz gráfica de Windows 95 y NT 4.0, con el botón y menú inicio, pero para Windows NT 3.5x. Su función principal era que los usuarios de Windows evaluaran el nuevo interfaz gráfico, que iba a ser presentado en Windows 95 y NT 4.0, pero como "daño colateral" le daba a Windows NT 3.5x la nueva interfaz gráfica.


WINDOWS NT 4.0
Windows NT 4.0 presentaba varios componentes tecnológicos de vanguardia y soporte para diferentes plataformas como MIPS, ALPHA, Intel, etc. Las diferentes versiones como Workstation, Server, Terminal Server, Advancer Server, permitían poder adaptarlo a varias necesidades. El uso de componentes como tarjetas de sonido, módems, etc, tenían que ser diseñados específicamente para este sistema operativo.

WINDOWS 95
Microsoft adoptó "Windows 95" como nombre de producto para Chicago cuando fue publicado en agosto de 1995. Chicago iba encaminado a incorporar una nueva interfaz gráfica que compitiera con la de OS/2. Aunque compartía mucho código con Windows 3.x e incluso con MS-DOS, también se pretendía introducir arquitectura de 32 bits y dar soporte a multitarea preemptiva, como OS/2 o el mismo Windows NT. Sin embargo sólo una parte de Chicago comenzó a utilizar arquitectura de 32 bits, la mayor parte siguió usando una arquitectura de 16 bits, Microsoft argumentaba que una conversión completa retrasaría demasiado la publicación de Chicago y sería demasiado costosa.
Microsoft desarrolló una nueva API para remplazar la API de Windows de 16 bits. Esta API fue denominada Win32, desde entonces Microsoft denominó a la antigua API de 16 bits como Win16. Esta API fue desarrollada en tres versiones: una para Windows NT, otra para Chicago y otra llamada Win32s, que era un subconjunto de Win32 que podía ser utilizado en sistemas con Windows 3.1.; de este modo Microsoft intentó asegurar algún grado de compatibilidad entre Chicago y Windows NT, aunque los dos sistemas tenían arquitecturas radicalmente diferentes
Windows 95 tenía dos grandes ventajas para el consumidor medio. Primero, aunque su interfaz todavía corría sobre MS-DOS, tenía una instalación integrada que le hacía aparecer como un solo sistema operativo (ya no se necesitaba comprar MS-DOS e instalar Windows encima). Segundo, introducía un subsistema en modo protegido que estaba especialmente escrito a procesadores 80386 o superiores, lo cual impediría que las nuevas aplicaciones Win32 dañaran el área de memoria de otras aplicaciones Win32. En este respecto Windows 95 se acercaba más a Windows NT, pero a la vez, dado que compartía código de Windows 3.x, las aplicaciones podían seguir bloqueando completamente el sistema en caso de que invadiesen el área de aplicaciones de Win16.

WINDOWS 98
El 25 de junio de 1998 llegó Windows 98. Incluía nuevos controladores de hardware y el sistema de ficheros FAT32 (también soportado por Windows 95 OSR 2 y OSR 2.5) que soportaba particiones mayores a los 2 GB permitidos por Windows 95. Dio soporte también a las nuevas tecnologías como DVD, FireWire, USB o AGP. Era novedosa también la integración del explorador de Internet en todos los ámbitos del sistema. Pero la principal diferencia de Windows 98 sobre Windows 95 era que su núcleo había sido modificado para permitir el uso de controladores de Windows NT en Windows 9x y viceversa. Esto se consiguió con la migración de parte del núcleo de Windows NT a Windows 98, aunque éste siguiera manteniendo su arquitectura MS-DOS/Windows GUI. Esto permitió la reducción de costes de producción, dado que Windows NT y Windows 98 ahora podían utilizar casi idénticos controladores.

Windows 98 Second Edition (SE)
A principios de 1998 se desarrolló este sistema operativo, saliendo al mercado a finales de 1998, cuando Microsoft sacó al mercado Windows 98 Second Edition, cuya característica más notable era la capacidad de compartir entre varios equipos una conexión a Internet a través de una sola línea telefónica. También eliminaba gran parte de los errores producidos por Internet Explorer en el sistema. Esta versión es la más estable de todas las de esta serie, y aún se sigue utilizando en muchos equipos, mejorando en sí dos cosas importantes:
1) El grave error de solicitud de licencia que simplemente se puede dejar pasar por alto en la instalación cuando se copian los archivos con extensión ".CAB" (sin comillas) a la unidad de disco duro de la computadora (CPU u ordenador) en la primera versión de este sistema operativo
2) Se corrigen las extensiones de archivo y aplicaciones para una optimización y mejor administración de memoria virtual, reduciendo así los famosos mensajes de error en pantalla azul.

WINDOWS MILLENIUM EDITION (ME)
En 2000 Microsoft introdujo Windows ME, que era una copia de Windows 98 con más aplicaciones añadidas. Windows ME fue un proyecto rápido de un año para rellenar el hueco entre Windows 98 y el nuevo Windows XP, y eso se notó mucho en la poca estabilidad de esta versión. En teoría, Windows 2000 iba a ser la unificación entre las dos familias de Windows, la empresarial y la de hogar, pero por retrasos se lanzó este pequeño avance. En esta versión se aceleraba el inicio del sistema y oficialmente ya no se podía distinguir entre el MS-DOS y el entorno gráfico (aunque aparecieron parches que permitían volver a separarlo como se hacía en versiones anteriores). Esta versión no traía unidad de proceso de 16 bits y se centró únicamente en la compatibilidad con nuevo hardware de 32 bits. Como consecuencia, sólo funcionaba correctamente con los equipos nuevos que lo tenían instalado, ya que si se instalaba sobre un equipo antiguo (mediante una actualización de software) el hardware de 16 bits era más complejo de configurar, o bien no funcionaba en absoluto.
Cabe destacar que este sistema operativo fue muy poco popular por sus continuos errores y muchas desventajas de uso. Estos inconvenientes hicieron que, salvo en contadas ocasiones, sus usuarios retornaran rápidamente al uso de Windows 98, o bien que dieran el salto a Windows 2000.

WINDOWS 2000
En este mismo año vio la luz Windows 2000, una nueva versión de Windows NT muy útil para los administradores de sistemas y con una gran cantidad de servicios de red y lo más importante: admitía dispositivos Plug&Play que venían siendo un problema con Windows NT. La familia de Windows 2000 estaba formada por varias versiones del sistema: una para las estaciones de trabajo (Windows 2000 Professional) y varias para servidores (Windows 2000 Server, Advanced Server, Datacenter Server). Windows 2000 incorporaba importantes innovaciones tecnológicas para entornos Microsoft, tanto en nuevos servicios como en la mejora de los existentes. Algunas de las características que posee son:
Almacenamiento:
Soporte para FAT16, FAT32 y NTFS.
Cifrado de ficheros (EFS).
Servicio de indexación.
Sistema de archivos distribuido (DFS).
Nuevo sistema de backup (ASR).
Sistema de tolerancia a fallos (RAID) con discos dinámicos (software).
Comunicaciones:
Servicios de acceso remoto (RAS, VPN, RADIUS y Enrutamiento).
Nueva versión de IIS con soporte para HTTP/1.1.
Active Directory.
Balanceo de carga (clustering)
Servicios de instalación desatendida por red (RIS).
Servicios nativos de Terminal Server.
Estos avances marcan un antes y un después en la historia de Microsoft.

WINDOWS XP (EXPERIENCE)
La unión de Windows NT/2000 y la familia de Windows 9.x se alcanzó con Windows XP puesto en venta en 2001 en su versión Home y Professional. Windows XP usa el núcleo de Windows NT. Incorpora una nueva interfaz y hace alarde de mayores capacidades multimedia. Además dispone de otras novedades como la multitarea mejorada, soporte para redes inalámbricas y asistencia remota. Se puede agregar que inmediatamente después de haber lanzado el último Service Pack (SP2), Microsoft diseñó un sistema orientado a empresas y corporaciones, llamado Microsoft Windows XP Corporate Edition, algo similar al Windows XP Profesional, solo que diseñado especialmente para empresas. En el apartado multimedia, XP da un avance con la versión Media Center(2002-2005). Esta versión ofrece una interfaz de acceso fácil con todo lo relacionado con multimedia (TV, fotos, reproductor DVD, Internet...).

WINDOWS SERVER 2003
Sucesor de la familia de servidores de Microsoft a Windows 2000 Server. Es la versión de Windows para servidores lanzada por Microsoft en el año 2003. Está basada en el núcleo de Windows XP, al que se le han añadido una serie de servicios, y se le han bloqueado algunas de sus características (para mejorar el rendimiento, o simplemente porque no serán usadas).

WINDOWS VISTA
Windows Vista apareció en el mercado el 30 de enero de 2007. Cabe destacar los continuos retrasos en las fechas de entrega del sistema operativo. Inicialmente se anunció su salida al mercado a inicios-mediados de 2006; posteriormente y debido a problemas durante el proceso de desarrollo, se retrasó su salida hasta finales de 2006. El último retraso trasladó la fecha hasta finales de enero de 2007. Estos continuos retrasos han llevado a Microsoft a tomar diversas medidas para minimizar los gastos extras derivados de los retrasos. Por ejemplo, en Argentina, se podrá comprar Windows Vista con un "ticket" que la persona adquiere al momento de comprar un nuevo PC que no tiene instalado todavía Windows Vista. Podrán canjear el "ticket" por una copia original de Windows Vista y así actualizar su sistema. También cabe destacar que Windows Vista trae una nueva interfaz gráfica llamada Aero, que es una evolución de la interfaz gráfica denominada Luna de Windows XP. Este sistema operativo, como el Windows ME, ha sido criticado por su falta de compatibilidad, entre otras cosas, haciendo que la mayoría de los usuarios regresen a su antecesor Windows XP o migrar a Mac OS X o Linux.

WINDOWS SERVER 2008
Al igual que su sucesor, Windows Server 2003 se basaba en la última version del SO doméstica publicada. Éste se basa en Windows Vista en cuanto a su interfaz Aero, mucho más amigable y sencilla, y en Windows Server 2003 SP2.

WINDOWS 7
Es la siguiente versión de Windows actualmente en Beta, la cual es sucesora a Windows Vista. Según Microsoft, "no se está creando un nuevo kernel para Windows 7, solo se está retocando y refinando el kernel de Windows Vista”[] además Microsoft asegura se que necesitarán los mismos recursos que Windows Vista[] . Algunas fuentes indican que Windows 7 se terminará de desarrollar a finales de 2009. A pesar de los rumores recientes de que Windows 7 saldría a la venta en 2009, las últimas declaraciones de Bill Gates vuelven a poner como fecha de salida de este nuevo sistema operativo para 2010, estando disponible en 2009 una versión para Betatesters, y no para el usuario final.
GNU/LINUX

GNU/Linux es el término empleado para referirse al sistema operativo Unix-like que utiliza como base las herramientas de sistema de GNU y el núcleo Linux. Su desarrollo es uno de los ejemplos más prominentes de software libre; todo el código fuente puede ser utilizado, modificado y redistribuido libremente por cualquiera bajo los términos de la GPL de GNU (Licencia Pública General de GNU[1] ) y otras licencias libres. Sin embargo, por economía del lenguaje se suele utilizar más el término Linux para referirse a este sistema operativo, a pesar de que Linux sólo es el núcleo del sistema. Para más información consulte la sección "Denominación GNU/Linux" o el artículo "Controversia por la denominación GNU/Linux".

Las variantes de estos sistemas se denominan distribuciones GNU/Linux (o distribuciones Linux) y su objetivo es ofrecer una edición que cumpla con las necesidades de determinado grupo de usuarios. Algunas distribuciones GNU/Linux son especialmente conocidas por su uso en servidores y supercomputadores.[2] No obstante, es posible instalar Linux en una amplia variedad de hardware como ordenadores de escritorio y portátiles.
En el caso de ordenadores de bolsillo, teléfonos móviles, dispositivos empotrados, videoconsolas y otros, puede darse el caso de que las partes de GNU se remplacen por alternativas más adecuadas en caso. Para saber más sobre las arquitecturas soportadas, lea el artículo "Portabilidad del núcleo Linux y arquitecturas soportadas".
En febrero de 2009, este sistema operativo alcanzó el 2.13%[3] del mercado en ordenadores de escritorio y portátiles en un estudio realizado por W3Counter. Sin embargo, en el mismo periodo de tiempo la cifra asciende al 4.0%[4] , según información recogida por W3Schools. En ambos casos se nota progresivo aumento del uso de GNU/Linux impulsado, en parte, por el incremento de Netbooks o ultraportátiles.


HISTORIA
En 1991 Linus Torvalds empezó a trabajar en un reemplazo no comercial para MINIX[8] que más adelante acabaría siendo Linux. La historia del kernel Linux está fuertemente vinculada a la del proyecto GNU. El proyecto GNU, iniciado en 1983 por Richard Stallman,[9] tiene como objetivo el desarrollo de un sistema operativo Unix completo compuesto enteramente de software libre. Cuando la primera versión del kernel Linux fue liberada en 1991, el proyecto GNU ya había producido varios de los componentes del sistema operativo, incluyendo un intérprete de comandos, una biblioteca C y un compilador, pero aún no contaba con el núcleo que permitiera completar el sistema operativo. Entonces, el núcleo (en inglés, kernel) creado por Linus Torvalds, quien se encontraba por entonces estudiando en la Universidad de Helsinki, llenó el "hueco" final que el sistema operativo de GNU necesitaba.



DISTRIBUCIONES MÁS CONOCIDAS Y UTILIZADAS


Nombre
Arquitectura de computador soportadas
Herramientas de actualización/adminstración
Gestor de paquetes
Formato de paquetes

Debian
alpha, amd64, arm, PA-RISC, i386, IA-64, m68k, MIPS, Mipsel, PowerPC, zSeries/s390, SPARC
aptitude, apt-get, synaptic, dpkg, adept[1] ; sources.list
APT
.deb

Ubuntu
amd64, i386, PowerPC
aptitude, apt-get, synaptic, dpkg; sources.list
APT
.deb

Linux Mint
amd64, i386, PowerPC
aptitude, apt-get, synaptic, dpkg; sources.list; MintSoftware
APT
.deb

Linux Rxart
amd64, i386, PowerPC
aptitude, apt-get, synaptic, dpkg; sources.list; rxartSoftware
APT
.deb

Knoppix
i486
aptitude, apt-get, synaptic, dpkg, adept; sources.list
APT
.deb

RHELFedora
i386, IA-64, PowerPC, x86-64, IBM:eServer, zSeries y S390 /i386, PowerPC, PowerPC-64, s390, s390x, x86-64
up2date[2] , Red Hat Network[3] , autoupdate[4] , apt-rpm[5] -[6]
RPM, YUM
.rpm

Gentoo
alpha, amd64, arm, PA-RISC, IA-64, m68k, MIPS, PowerPC (32 y 64), s390, SPARC, SuperH, x86
ebuild. emerge
Portage
fuentes/.tar.gz

Slackware
i486(x86), alpha, SPARC, s390
Gslapt, Slackpkg, Swaret
Slapt-get
.tgz

SuSEopenSUSE
i586, IA-64, PowerPC, s390, s390x, x86-64 /i586,PowerPC, x86-64
YaST
YaST
.rpm

PCLinuxOS
i586
apt-get, synaptic
APT
.rpm

Mandriva
i586, IA-64
urpmi, drakxtools
urpmi
.rpm

Arch Linux
i686, x86-64
ABS, AUR
Pacman
.tar.gz/fuentes

RED HAT
Red Hat es la compañía responsable de la creación y mantenimiento de una distribución del sistema operativo GNU/Linux que lleva el mismo nombre: Red Hat Enterprise Linux, y de otra más, Fedora. Así mismo, en el mundo del middleware patrocina jboss.org, y distribuye la versión profesional bajo la marca JBoss Enterprise. Red Hat es famosa en todo el mundo por los diferentes esfuerzos orientados a apoyar el movimiento del software libre. No sólo trabajan en el desarrollo de una de las distribuciones más populares de Linux, sino también en la comercialización de diferentes productos y servicios basados en software de código abierto. Asimismo, poseen una amplia infraestructura en la que se cuentan más de 2.000 empleados en 28 lugares del mundo. Programadores empleados de Red Hat han desarrollado múltiples paquetes de software libre, los cuales han beneficiado a toda la comunidad. Algunas de las contribuciones más notables han sido la creación de un sistema de empaquetación de software (RPM), y varias utilidades para la administración y configuración de equipos, como sndconfig o mouseconfig. Algunas de las distribuciones basadas en RedHat Linux más importantes son: Mandriva Linux, Yellow Dog Linux (sólo para PowerPC), y CentOS (compilada a partir de las fuentes de Red Hat).
Red Hat Software Inc. fue fundada en 1994 por Bob Young y Marc Ewing. En agosto de 1999, Red Hat salió a bolsa y sus acciones obtuvieron la octava ganancia de primer día más grande en toda la historia de Wall Street. Cuatro años más tarde, las acciones de Red Hat se valuaron en alrededor de una centésima parte del máximo valor que llegaran a alcanzar antes de la crisis de las puntocom. Aun así, sus comienzos exitosos en el mercado de valores sirvieron para que Red Hat fuera portada en periódicos y revistas no directamente relacionadas con temas informáticos. En cualquier caso, parece ser que Red Hat ha sabido superar los problemas de otras compañías del mundo de los negocios en torno al software libre y anunció números negros por primera vez en su historia en el último cuarto del año 2002. Otro de los hechos históricos más importantes de Red Hat fue la adquisición en noviembre de 1999 de Cygnus Solutions, una empresa fundada una década antes y que ya había demostrado cómo con una estrategia integral basada en software libre se puede ganar dinero.

MAC OS X
Mac OS X (pronunciado Mac O-Ese Diez)[3] es una línea de sistemas operativos computacionales desarrollada, comercializada y vendida por Apple Inc.. Se basa en Unix y usa una interfaz gráfica desarrollada por Apple llamada Aqua, que se inspira libremente en la interfaz de Mac OS Classic. El gestor de ventanas X11, característico en la familia de sistemas Unix, y Java se usan sólo para compatibilidad con software no nativo de Mac.
Los primeros sistemas (1945 - 1950) eran grandes máquinas operadas desde la consola maestra por los programadores. Durante la década siguiente (1950 - 1960) se llevaron a cabo avances en el hardware: lectoras de tarjetas, impresoras, cintas magnéticas, etc. Esto a su vez provocó un avance en el software: compiladores, ensambladores, cargadores, manejadores de dispositivos, etc. El problema principal de los primeros sistemas era la baja utilización de los mismos, la primera solución fue poner un operador profesional que manejaba el sistema, con lo que se eliminaron las hojas de reserva, se ahorró tiempo y se aumentó la velocidad.
Para ello, los trabajos se agrupaban de forma manual en lotes mediante lo que se conoce como procesamiento por lotes (batch) sin automatizar. Fichas en lenguaje de procesamiento por lotes, con programa y datos, para ejecución secuencial .Según fue avanzando la complejidad de los programas, fue necesario implementar soluciones que automatizaran la organización de tareas sin necesidad de un operador. Debido a ello se crearon los monitores residentes: programas que residían en memoria y que gestionaban la ejecución de una cola de trabajos. Un monitor residente estaba compuesto por un cargador, un Intérprete de comandos y un Controlador (drivers) para el manejo de entrada/salida.

VERSIONES
La letra X se corresponde con el número romano 10 y continua con la numeración de los sistemas operativos previos de Mac OS Classic, como Mac OS 8 y Mac OS 9. Pese a que oficialmente se lee como diez alguna gente lo lee como la letra X. Una de las razones para esta interpretación es que tradicionalmente los sistemas operativos basados en Unix se nombran con la X al final (ejemplos: AIX, IRIX, Linux, Minix, Ultrix, Xenix, HP-UX). Otra razón es la tendencia de Apple de referirse a sus versiones específicas como (por ejemplo) "Mac OS X versión 10.5". Las diferentes versiones de Mac OS X van apodadas con los nombres de grandes felinos en inglés. Antes de su lanzamiento, la versión 10.0 tenía como nombre de proyecto interno en Apple Cheetah (Guepardo), del mismo modo que la versión 10.1 fue apodada Puma. La versión 10.2 fue llamada Jaguar publicitariamente, y de esta versión en adelante se han seguido haciendo públicos estos nombres siendo Panther el de la versión 10.3, Tiger el de la 10.4 y Leopard el de la 10.5, Apple tiene también registrados los nombres de Lynx (Lince) y Cougar (Puma) para su futuro uso. Las versiones son:

MAC OS X V10.1 (PUMA)
Apple lanzó esta nueva versión que incrementaba el rendimiento del sistema a la vez que incorporaba algunas nuevas características tales como la reproducción de DVD. Dada la pésima reputación de la versión 10.0, Apple lanzó la 10.1 en forma de un CD de actualización gratuito para sus usuarios, además de los 129$ que costaba para los usuarios que seguían utilizando Mac OSMac OS 9. Esto ocasionó algunos quebraderos de cabeza a Apple cuando descubrió que los CD de actualización podían ser utilizados también para hacer instalaciones completas en sistemas con Mac OSMac OS 9 con tan sólo eliminar un determinado archivo.
Mac OS X v10.2 (Jaguar)
El 25 de agosto de 2002, Apple prosiguió con la andadura de su sistema operativo con el lanzamiento de Mac OS X v10.2 "Jaguar" (la primera versión que utilizó publicitariamente su felino seudónimo), y que contaba con un nuevo incremento en su rendimiento, un nuevo y depurado aspecto y más de 150 mejoras que incluyen:
Mayor soporte para redes de Microsoft Windows.
Quartz Extreme para que la composición de gráficos sea procesada directamente por la tarjeta de vídeo.
Un filtro adaptativo contra spam.
Apple Address Book para almacenar la información de contactos.
Sistema de red Rendezvous (una implementación de Apple de Zeroconf; renombrada a Bonjour por problemas legales en la versión 10.4).
iChat: Un programa de chateo con soporte de AOL Instant Messenger.
Un renovado Finder con búsquedas integradas en cada ventana.
Docenas de nuevas características del Apple Universal Access.
Sherlock 3: Servicios web.
CUPS (Common Unix Printing System): que permite el uso de drivers GIMP-print, hpijs y demás para impresoras no soportadas oficialmente.
En el Reino Unido no se utilizó oficialmente el nombre de Jaguar para referirse a Mac OS X v10.2 para evitar entrar en conflicto con el fabricante de automóviles Jaguar, aunque la caja y los CD siguieron conservando el logo con piel de Jaguar.

MAC OS X V10.3 (PANTHER)
Mac OS X v10.3 "Panther" se lanzó el 24 de octubre de 2003. Además de tener un rendimiento mucho mayor, incorporó la mayor actualización en el interfaz de usuario, y tantas o más mejoras que Jaguar el año anterior. Por otra parte, en esta versión dejaron de soportarse algunos modelos antiguos G3.
Las nuevas mejoras de Panther incluyen:
Finder actualizado, que incorpora una interfaz metálica y búsqueda rápida.
Exposé: una nueva forma de manipular ventanas.
Cambio rápido de usuarios: que permite tener sesiones con diferentes usuarios abiertas al mismo tiempo y pasar de una a otra rápidamente.
iChat AV que añade soporte para videoconferencia a iChat.
Renderización mejorada de PDF.
Soporte integrado de fax.
Interoperatibilidad con Microsoft Windows mucho mayor.
FileVault: Sistema de cifrado en tiempo real del directorio privado de cada usuario.
Incremento de velocidad en todo el sistema con un mayor soporte para los G5.

MAC OS X V10.4 (TIGER)
Mac OS X v10.4 "Tiger" se puso a la venta el 29 de abril de 2005. Contiene más de 200 nuevas mejoras, pero como sucedió con el lanzamiento de Panther, algunas máquinas antiguas han dejado de ser soportadas; en particular, cualquier equipo Apple que no cuente con conexión FireWire no está ya soportado en Tiger. Algunas de las nuevas características de Tiger son:
Spotlight: Un sistema de búsqueda basado en contenidos y metadatos.
Dashboard: Dashboard en un conjunto de miniaplicaciones, denominadas en el campo de la informática widgets, las cuales permiten realizar tareas comunes y ofrecen acceso instantáneo a la información.
iChat: Una nueva versión de este programa que soporta el códec de vídeo H.264 para la realización de vídeoconferencias de hasta 4 personas. Además, también permite realizar audioconferencias de hasta 10 personas.
QuickTime 7: La nueva versión incluye soporte para H.264 y una interfaz completamente rediseñada.
Safari: Esta nueva versión del navegador por defecto del sistema incorpora soporte para RSS, mayor velocidad y seguridad, etc.
Automator: Sistema que permite llevar a cabo de forma eficaz y sencilla toda clase de tareas manuales y repetitivas de forma automática y sin necesidad de conocimientos de programación.
Core Image y Core Video: Tecnologías avanzadas de procesamiento de imágenes en tiempo real.
Soporte de memoria de 64 bits para los nuevos G5, usando el sistema LP64.
Utilidades Unix actualizadas, como cp y rsync, que pueden preservar los metadatos en HFS Plus y resource fork.
Sistema extendido de permisos usando listas de control de acceso.
Como curiosidad cabe comentar que Apple dispone a partir de Tiger, de una versión "paralela" compilada para procesadores Intel, si bien, teóricamente, sólo podrá instalarse bajo ciertas restricciones de hardware y en procesadores con soporte SSE3.

Mac OS X v10.5 (Leopard)
Estos son algunos puntos principales que destaca Apple:
Time Machine: La posibilidad de poder volver en el tiempo a una versión especifica de los contenidos de una carpeta, del disco duro completo, de un sólo archivo, de un álbum de fotos en iPhoto, etc.
Mail 3: La tercera versión de este programa de correo electrónico de Apple ahora incluye Notas y To-Dos (listas de cosas por hacer), así como variadas plantillas para enviar email HTML.
Spaces: Despliega múltiples escritorios virtuales.
Dashboard: Trae una herramienta llamada Dashcode para crear Widgets fácilmente. Adicionalmente Safari tiene un botón "Webclip" que permitirá tomar cualquier fragmento de una página que se esté viendo y convertirla en un Widget.
Spotlight: Incluye búsquedas avanzadas, Quick Look (previsualizaciones en vivo), y la posibilidad de buscar en varios computadores Mac en red (si la opción de compartición de archivos está habilitada). Además, las ventanas de Finder y Spotlight se han unificado.
iCal: Incluye varias mejoras, especialmente en el ámbito de los calendarios grupales.
64-bit: Tiger fue el primer sistema operativo de Apple en empezar a sacarle provecho al poder de los procesadores de 64-bit. Leopard da el próximo salto entregando más partes optimizadas del sistema operativo, así como la capacidad de que otras capas del sistema (y no solo la capa UNIX) puedan hacer uso de masivas cantidades de memoria.
Core Animation: Así como Core Video, Core Image y Core Audio simplificaban que cualquier desarrollador le sacara el máximo provecho a funciones de vídeo, 2D y audio, respectivamente, ahora Core Animation hace lo mismo con animaciones — lo que significa que junto con Leopard llegará una generación de aplicaciones llenas de efectos 3D. Ahora los efectos 3D en la interfaz no son de uso exclusivo del sistema operativo o de quienes sepan usar OpenGL. Según Apple, estos nuevos efectos incluidos correrán sobre cualquier Mac vendido en los últimos 2 años.

MAC OS X V10.6 (SNOW LEOPARD)
Anunciada en una conferencia privada en la Worldwide Developers Conference 2008, esta nueva versión no incluye nuevas funciones, sino que está pensada principalmente para aumentar la estabilidad y seguridad de Leopard. Incluye soporte para el sistema de archivos ZFS, que permite utilizar hasta 16 TB de disco. También tendrá soporte para Microsoft Exchange Server 2007 en correo, iCal y libreta de direcciones. Mac OS X usa el protocolo Exchange Web Services para tener acceso a Exchange Server 2007. Esta versión también incluirá Grand Central, un conjunto de tecnologías para usar las ventaja de los procesadores multinúcleo y optimizar la ejecución de aplicaciones de Mac OS X.