lunes, 28 de septiembre de 2009

MEMORIAS

En informática, la memoria (también llamada almacenamiento) se refiere a los componentes de una computadora, dispositivos y medios de almacenamiento que retienen datos informáticos durante algún intervalo de tiempo. Las memorias de computadora proporcionan unas de las principales funciones de la computación moderna, la retención o almacenamiento de información. Es uno de los componentes fundamentales de todas las computadoras modernas que, acoplados a una Unidad Central de Procesamiento (CPU por su acrónimo en inglés, Central Processing Unit), implementa lo fundamental del modelo de computadora de Von Neumann, usado desde los años 1940.
En la actualidad, memoria suele referirse a una forma de almacenamiento de estado sólido conocido como Memoria RAM (memoria de acceso aleatorio, RAM por sus siglas en inglés Random Access Memory) y otras veces se refiere a otras formas de almacenamiento rápido pero temporal. De forma similar, se refiere a formas de almacenamiento masivo como Discos ópticos y tipos de almacenamiento magnético como discos duros y otros tipos de almacenamiento más lentos que las memorias RAM, pero de naturaleza más permanente. Estas distinciones contemporáneas son de ayuda porque son fundamentales para la arquitectura de computadores en general.
Además, se refleja una diferencia técnica importante y significativa entre memoria y dispositivos de almacenamiento masivo, que se ha ido diluyendo por el uso histórico de los términos "almacenamiento primario" (a veces "almacenamiento principal"), para memorias de acceso aleatorio, y "almacenamiento secundario" para dispositivos de almacenamiento masivo. Esto se explica en las siguientes secciones, en las que el término tradicional "almacenamiento" se usa como subtítulo por conveniencia.

Propósitos del almacenamiento
Los componentes fundamentales de las computadoras de propósito general son la unidad aritmético-lógica (ALU), la unidad de control, espacio de almacenamiento y los dispositivos de entrada/salida. Si se elimina el almacenamiento, el aparato sería una simple calculadora en lugar de un computadora. La habilidad para almacenar las instrucciones que forman un programa de computadora y la información que manipulan las instrucciones es lo que hace versátiles a las computadoras diseñadas según la arquitectura de programas almacenados
Una computadora digital representa toda la información usando el sistema binario. Texto, números, imágenes, sonido y casi cualquier otra forma de información puede ser transformada en una sucesión de bits, o dígitos binarios, cada uno de los cuales tiene un valor de 1 ó 0. La unidad de almacenamiento más común es el byte, igual a 8 bits. Una determinada información puede ser manipulada por cualquier computadora cuyo espacio de almacenamiento es suficientemente grande como para que quepa el dato correspondiente o la representación binaria de la información. Por ejemplo, una computadora con un espacio de almacenamiento de ocho millones de bits, o un megabyte, puede ser usado para editar una novela pequeña.
Se han inventado varias formas de almacenamiento basadas en diversos fenómenos naturales. No existen ningún medio de almacenamiento de uso práctico universal y todas las formas de almacenamiento tienen sus desventajas. Por tanto, un sistema informático contiene varios tipos de almacenamiento, cada uno con su propósito individual, como se muestra en el diagrama.


Almacenamiento primario
La memoria primaria está directamente conectada a la CPU de la computadora. Debe estar presente para que la CPU funcione correctamente. El almacenamiento primario consiste en tres tipos de almacenamiento:
• Los registros del procesador son internos de la CPU. Contienen información que las unidades aritmético-lógicas necesitan llevar a la instrucción en ejecución. Técnicamente, son los más rápidos de los almacenamientos de la computadora, siendo transistores de conmutación integrados en el chip de silicio del microprocesador (CPU) que funcionan como "flip-flop" electrónicos.
• La memoria caché es un tipo especial de memoria interna usada en muchas CPU para mejorar su eficiencia o rendimiento. Parte de la información de la memoria principal se duplica en la memoria caché. Comparada con los registros, la caché es ligeramente más lenta pero de mayor capacidad. Sin embargo, es más rápida, aunque de mucha menor capacidad que la memoria principal. También es de uso común la memoria caché multi-nivel - la "caché primaria" que es más pequeña, rápida y cercana al dispositivo de procesamiento; la "caché secundaria" que es más grande y lenta, pero más rápida y mucho más pequeña que la memoria principal.
• La memoria principal contiene los programas en ejecución y los datos con que operan. La Unidad Aritmético-Lógica puede transferir información muy rápidamente entre un registro del microprocesador y localizaciones del almacenamiento principal, también conocidas como "direcciones de memoria". En las computadoras modernas se usan memorias de acceso aleatorio basadas en electrónica del estado sólido, que está directamente conectada a la CPU a través de un "bus de memoria" y de un "bus de datos".
Almacenamiento secundario, terciario y fuera de línea
La memoria secundaria requiere que la computadora use sus canales de entrada/salida para acceder a la información y se utiliza para almacenamiento a largo plazo de información persistente. Sin embargo, la mayoría de los sistemas operativos usan los dispositivos de almacenamiento secundario como área de intercambio para incrementar artificialmente la cantidad aparente de memoria principal en la computadora. La memoria secundaria también se llama "de almacenamiento masivo".
Habitualmente, la memoria secundaria o de almacenamiento masivo tiene mayor capacidad que la memoria primaria, pero es mucho más lenta. En las computadoras modernas, los discos duros suelen usarse como dispositivos de almacenamiento masivo. El tiempo necesario para acceder a un byte de información dado almacenado en un disco duro es de unas milésimas de segundo (milisegundos). En cambio, el tiempo para acceder al mismo tipo de información en una memoria de acceso aleatorio (RAM) se mide en mil-millonésimas de segundo (nanosegundos).
Esto ilustra cuan significativa es la diferencia entre la velocidad de las memorias de estado sólido y la velocidad de los dispositivos rotantes de almacenamiento magnético u óptico: los discos duros son del orden de un millón de veces más lentos que la memoria (primaria). Los dispositivos rotantes de almacenamiento óptico (unidades de CD y DVD) son incluso más lentos que los discos duros, aunque es probable que su velocidad de acceso mejore con los avances tecnológicos.
Por lo tanto, el uso de la memoria virtual, que es cerca de un millón de veces más lenta que memoria “verdadera”, ralentiza apreciablemente el funcionamiento de cualquier computadora. Muchos sistemas operativos implementan la memoria virtual usando términos como memoria virtual o "fichero de caché". La principal ventaja histórica de la memoria virtual es el precio; la memoria virtual resultaba mucho más barata que la memoria real. Esa ventaja es menos relevante hoy en día. Aun así, muchos sistemas operativos siguen implementándola, a pesar de provocar un funcionamiento significativamente más lento.
La memoria terciaria es un sistema en el que un brazo robótico montará (conectará) o desmontará (desconectará) un medio de almacenamiento masivo fuera de línea (ver siguiente punto) según lo solicite el sistema operativo de la computadora. La memoria terciaria se usa en el área del almacenamiento industrial, la computación científica en grandes sistemas informáticos y en redes empresariales. Este tipo de memoria es algo que los usuarios de computadoras personales normales nunca ven de primera mano.
El almacenamiento fuera de línea es un sistema donde el medio de almacenamiento puede ser extraído fácilmente del dispositivo de almacenamiento. Estos medios de almacenamiento suelen usarse para transporte y archivo de datos. En computadoras modernas son de uso habitual para este propósito los disquetes, discos ópticos y las memorias flash, incluyendo las unidades USB. También hay discos duros USB que se pueden conectar en caliente. Los dispositivos de almacenamiento fuera de línea usados en el pasado son cintas magnéticas en muchos tamaños y formatos diferentes, y las baterías extraíbles de discos Winchester.

Almacenamiento de red
El almacenamiento de red es cualquier tipo de almacenamiento de computadora que incluye el hecho de acceder a la información a través de una red informática. Discutiblemente, el almacenamiento de red permite centralizar el control de información en una organización y reducir la duplicidad de la información. El almacenamiento en red incluye:
• El almacenamiento asociado a red es una memoria secundaria o terciaria que reside en una computadora a la que otra de éstas puede acceder a través de una red de área local, una red de área extensa, una red privada virtual o, en el caso de almacenamientos de archivos en línea, internet.
• Las redes de computadoras son computadoras que no contienen dispositivos de almacenamiento secundario. En su lugar, los documentos y otros datos son almacenados en un dispositivo de la red.
Características de las memorias
La división entre primario, secundario, terciario, fuera de línea se basa en la jerarquía de memoria o distancia desde la unidad central de proceso. Hay otras formas de caracterizar a los distintos tipos de memoria.

Volatilidad de la información
• La memoria no volátil retendrá la información almacenada incluso si no recibe corriente eléctrica constantemente. Se usa para almacenamientos a largo plazo y, por tanto, se usa en memorias secundarias, terciarias y fuera de línea.
• Memoria dinámica es una memoria volátil que además requiere que periódicamente se refresque la información almacenada, o leída y reescrita sin modificaciones.


Habilidad para acceder a información no contigua
• Acceso aleatorio significa que se puede acceder a cualquier localización de la memoria en cualquier momento en el mismo intervalo de tiempo, normalmente pequeño.
• Acceso secuencial significa que acceder a una unidad de información tomará un intervalo de tiempo variable, dependiendo de la unidad de información que fue leída anteriormente. El dispositivo puede necesitar buscar (posicionar correctamente el cabezal de lectura/escritura de un disco), o dar vueltas (esperando a que la posición adecuada aparezca debajo del cabezal de lectura/escritura en un medio que gira continuamente).
Habilidad para cambiar la información
• Las memorias de lectura/escritura o memorias cambiables permiten que la información se reescriba en cualquier momento. Una computadora sin algo de memoria de lectura/escritura como memoria principal sería inútil para muchas tareas. Las computadora modernas también usan habitualmente memorias de lectura/escritura como memoria secundaria.
• La memorias de sólo lectura retienen la información almacenada en el momento de fabricarse y la memoria de escritura única (WORM) permite que la información se escriba una sola vez en algún momento tras la fabricación. También están las memorias inmutables, que se utilizan en memorias terciarias y fuera de línea. Un ejemplo son los CD-ROMs.
• Las memorias de escritura lenta y lectura rápida son memorias de lectura/escritura que permite que la información se reescriba múltiples veces pero con una velocidad de escritura mucho menor que la de lectura. Un ejemplo son los CD-RW.
Direccionamiento de la información
• En la memoria de localización direccionable, cada unidad de información accesible individualmente en la memoria se selecciona con su dirección de memoria numérica. En las computadoras modernas, la memoria de localización direccionable se suele limitar a memorias primarias, que se leen internamente por programas de computadora ya que la localización direccionable es muy eficiente, pero difícil de usar para los humanos.
• En las memorias de sistema de archivos, la información se divide en Archivos informáticos de longitud variable y un fichero concreto se localiza en directorios y nombres de archivos "legible por humanos". El dispositivo subyacente sigue siendo de localización direccionable, pero el sistema operativo de la computadora proporciona la abstracción del sistema de archivos para que la operación sea más entendible. En las computadora modernas, las memorias secundarias, terciarias y fuera de línea usan sistemas de archivos.
• En las memorias de contenido direccionable (content-addressable memory), cada unidad de información legible individualmente se selecciona con una valor hash o un identificador corto sin relación con la dirección de memoria en la que se almacena la información. La memoria de contenido direccionable pueden construirse usando software o hardware; la opción hardware es la opción más rápida y cara.


Capacidad de memoria
________________________________________
Memorias de mayor capacidad son el resultado de la rápida evolución en tecnología de materiales semiconductores. Los primeros programas de ajedrez funcionaban en máquinas que utilizaban memorias de base magnética. A inicios de 1970 aparecen las memorias realizadas por semiconductores, como las utilizadas en la serie de computadoras IBM 370.
La velocidad de los computadores se incrementó, multiplicada por 100.000 aproximadamente y la capacidad de memoria creció en una proporción similar. Este hecho es particularmente importante para los programas que utilizan tablas de transposición: a medida que aumenta la velocidad de la computadora se necesitan memorias de capacidad proporcionalmente mayor para mantener la cantidad extra de posiciones que el programa está buscando.
Se espera que la capacidad de procesadores siga aumentando en los próximos años; no es un abuso pensar que la capacidad de memoria continuará creciendo de manera impresionante. Memorias de mayor capacidad podrán ser utilizadas por programas con tablas de Hash de mayor envergadura, las cuales mantendrán la información en forma permanente.
• Minicomputadoras: se caracterizan por tener una configuración básica regular que puede estar compuesta por un monitor, unidades de disquete, disco, impresora, etc. Su capacidad de memoria varía de 16 a 256 kbytes.
• Macrocomputadoras: son aquellas que dentro de su configuración básica contienen unidades que proveen de capacidad masiva de información, terminales (monitores), etc. Su capacidad de memoria varía desde 256 a 512 kbytes, también puede tener varios megabytes o hasta gigabytes según las necesidades de la empresa.
• Microcomputadores y computadoras personales: con el avance de la microelectrónica en la década de los 70 resultaba posible incluir todos los componente del procesador central de una computadora en un solo circuito integrado llamado microprocesador. Ésta fue la base de creación de unas computadoras a las que se les llamó microcomputadoras. El origen de las microcomputadoras tuvo lugar en los Estados Unidos a partir de la comercialización de los primeros microprocesadores (INTEL 8008, 8080). En la década de los 80 comenzó la verdadera explosión masiva, de los ordenadores personales (Personal Computer PC) de IBM. Esta máquina, basada en el microprocesador INTEL 8008, tenía características interesantes que hacían más amplio su campo de operaciones, sobre todo porque su nuevo sistema operativo estandarizado (MS-DOS, Microsoft Disk Operating Sistem) y una mejor resolución óptica, la hacían más atractiva y fácil de usar. El ordenador personal ha pasado por varias transformaciones y mejoras que se conocen como XT(Tecnología Extendida), AT(Tecnología Avanzada) y PS/2...

Tecnologías, dispositivos y medios
Memorias Magnéticas
Las memorias magnéticas usan diferentes patrones de magnetización sobre una superficie cubierta con una capa magnetizada para almacenar información. Las memorias magnéticas son no volátiles. Se llega a la información usando uno o más cabezales de lectura/escritura. Como el cabezal de lectura/escritura solo cubre una parte de la superficie, el almacenamiento magnético es de acceso secuencial y debe buscar, dar vueltas o las dos cosas. En computadoras modernas, la superficie magnética será de alguno de estos tipos:
• Disco magnético
• Disquete, usado para memoria fuera de línea
• Disco duro, usado para memoria secundario
• Cinta magnética, usada para memoria terciaria y fuera de línea.
En las primeras computadoras, el almacenamiento magnético se usaba también como memoria principal en forma de memoria de tambor, memoria de núcleo, memoria en hilera de núcleo, memoria película delgada, memoria de Twistor o memoria burbuja. Además, a diferencia de hoy, las cintas magnéticas se solían usar como memoria secundaria.

Memoria de semiconductor
La memoria de semiconductor usa circuitos integrados basados en semiconductores para almacenar información. Un chip de memoria de semiconductor puede contener millones de minúsculos transistores o condensadores. Existen memorias de semiconductor de ambos tipos: volátiles y no volátiles. En las computadoras modernas, la memoria principal consiste casi exclusivamente en memoria de semiconductor volátil y dinámica, también conocida como memoria dinámica de acceso aleatorio o más comunmente RAM, su acrónimo inglés. Con el cambio de siglo, ha habido un crecimiento constante en el uso de un nuevo tipo de memoria de semiconductor no volátil llamado memoria flash. Dicho crecimiento se ha dado, principalmente en el campo de las memorias fuera de línea en computadoras domésticas. Las memorias de semiconductor no volátiles se están usando también como memorias secundarias en varios dispositivos de electrónica avanzada y computadoras especializadas y no especializadas.

Memorias de disco óptico
Las memorias en disco óptico almacenan información usando agujeros minúsculos grabados con un láser en la superficie de un disco circular. La información se lee iluminando la superficie con un diodo láser y observando la reflexión. Los discos ópticos son no volátil y de acceso secuencial. Los siguientes formatos son de uso común:
• CD, CD-ROM, DVD: Memorias de simplemente solo lectura, usada para distribución masiva de información digital (música, vídeo, programas informáticos).
• CD-R, DVD-R, DVD+R: Memorias de escritura única usada como memoria terciaria y fuera de línea.
• CD-RW, DVD-RW, DVD+RW, DVD-RAM: Memoria de escritura lenta y lectura rápida usada como memoria terciaria y fuera de línea.
• Blu-ray: Formato de disco óptico pensado para almacenar vídeo de alta calidad y datos. Para su desarrollo se creó la BDA, en la que se encuentran, entre otros, Sony o Phillips.
• HD DVD
Se han propuesto los siguientes formatos:
• HVD
• Discos cambio de fase Dual

Memorias de discos magneto ópticos
Las Memorias de disco magneto óptico son un disco de memoria óptica donde la información se almacena en el estado magnético de una superficie ferromagnética. La información se lee ópticamente y se escribe combinando métodos magnéticos y ópticos. Las memorias de discos magneto ópticos son de tipo no volátil, de acceso secuencial, de escritura lenta y lectura rápida. Se usa como memoria terciaria y fuera de línea.
Otros métodos iniciales


Las tarjetas perforadas fueron utilizados por primera vez por Basile Bouchon para el control de telares textiles en Francia.1 En 1801 el sistema de Bouchon fue perfeccionado por Joseph Marie Jacquard, quien desarrolló un telar automático, conocido como telar de Jacquard.2 Herman Hollerith desarrolló la tecnología de procesamiento de datos de tarjetas perforadas para el censo de Estados Unidos de 1890 y posteriormente fundó la Tabulating Machine Company, una de las precursoras de IBM. IBM desarrolló la tecnología de la tarjeta perforada como una potente herramienta para el procesamiento de datos empresariales y produjo una línea extensiva de máquinas de registro que utilizaban papel perforado para el almacenamiento de datos y su procesado automático. En el año 1950, las tarjetas IBM y las unidades máquinas de registro IBM se habían vuelto indispensables en la industria y el gobierno estadounidense. Durante los años 1960, las tarjetas perforadas fueron gradualmente reemplazadas por las cintas magnéticas, aunque su uso fue muy común hasta medidados de los años 1970 con la aparición de los discos magnéticos. La información se grababa en las tarjetas perforando agujeros en el papel o la tarjeta. La lectura se realizaba por sensores eléctricos (más tarde ópticos) donde una localización particular podía estar agujereada o no.
Para almacenar información, los tubos Williams usaban un tubo de rayos catódicos y los tubos Selectrón usaban un gran tubo de vacío. Estos dispositivos de memoria primaria tuvieron una corta vida en el mercado ya que el tubo de Williams no era fiable y el tubo de Selectron era caro.
La memoria de línea de retardo usaba ondas sonoras en una sustancia como podía ser el Mercurio para guardar información. La memoria de línea de retardo era una memoria dinámica volátil, ciclo secuencial de lectura/escritura. Se usaba como memoria principal.

Otros métodos propuestos
La memoria de cambio de fase usa las fases de un material de cambio de fase para almacenar información. Dicha información se lee observando la resistencia eléctrica variable del material. La memoria de cambio de fase sería una memoria de lectura/escritura no volátil, de acceso aleatorio podría ser usada como memoria primaria, secundaria y fuera de línea. La memoria holográfica almacena ópticamente la información dentro de cristales o fotopolímeros. Las memorias holográficas pueden utilizar todo el volumen del medio de almacenamiento, a diferencia de las memorias de discos ópticos, que están limitadas a un pequeño número de superficies en capas. La memoria holográfica podría ser no volátil, de acceso secuencial y tanto de escritura única como de lectura/escritura. Puede ser usada tanto como memoria secundaria como fuera de línea.
La memoria molecular almacena la información en polímeros que pueden almacenar puntas de carga eléctrica. La memoria molecular puede ser especialmente interesante como memoria principal.
Recientemente se ha propuesto utilizar el spin de un electrón como memoria. Se ha demostrado que es posible desarrollar un circuito electrónico que lea el spin del electrón y lo convierta en una señal eléctrica.

domingo, 27 de septiembre de 2009

HISTORIA DE LAS COMPUTADORAS

La primera generación de computadoras (1941-1948)

Las Válvulas

Las computadoras construidas con válvulas de vacío son la primera generación de lo que en la actualidad se conoce como computadoras.

Las primeras computadoras de válvulas de vacío se distinguían por dos aspectos fundamentales:

? Su gran tamaño.
? El gran consumo de energía que disipaba un fuerte calor.

Ambos efectos eran debidos al gran tamaño de las válvulas con las que estaban construidos y a que éstas necesitaban consumir una gran cantidad de energía para alimentarse, generando una enorme cantidad de calor.

Las válvulas de vacío surgieron a principios del siglo XX, cuando en 1907 Lee De Forest inventó la primera válvula electrónica (triodo) al intentar perfeccionar los receptores telegráficos existentes en la época. La posibilidad de la válvula electrónica de asumir dos estados posibles fue la base fundamental sobre la que se implantó el código binario (0,1) y las modernas computadoras digitales.

En 1941 comenzó a realizarse el diseño y construcción de ENIAC bajo la dirección de J. Eckert y J.W. Mauchly, quienes pertenecían a la Escuela de Ingeniería Eléctrica de Moore en Pennsylvania; ENIAC fue la primera computadora de válvulas electrónicas construida, entró en funcionamiento en 1945 y fue dada de baja en 1955. En ese momento aún permanecía operativa.

Hasta hace poco tiempo ha existido una polémica entre Mauchly y J. Atanasoff debido a que el primero visitó a este cuando Atanasoff estaba trabajando en un prototipo de computadora en su laboratorio de la Universidad de Iowa. Atanasoff manifestó que Mauchly se basó en su computadora para construir posteriormente la ENIAC. En el verano de 1995 parece que, finalmente, se ha confirmado este hecho y el mérito del diseño de la primera computadora moderna corresponde a Atanasoff.

La arquitectura física de ENIAC se componía de 18.000 válvulas, un volumen de alrededor de 111 metros cúbicos (aproximadamente el tamaño de un autobús), unas 30 toneladas de peso y un consumo de 150.000 watios.

El tamaño de la máquina era una exigencia de la tecnología de construcción ya que las válvulas generaban mucho calor y debían separarse lo más posible para poder disipar convenientemente ese calor.

ENIAC no sería exactamente, en su diseño lógico, lo que se entiende ahora por computadora, puesto que no poseía la capacidad de almacenamiento de programas; en efecto, el programa debía ser previamente perforado en tarjetas y posteriormente cargado en la memoria, finalizando con la ejecución del programa y el proceso de los datos a utilizar.

El principal problema que presentaba ENIAC era que el proceso no estaba optimizado en absoluto, la computadora sólo podía efectuar estas tareas secuencialmente. Así, si estaba leyendo las tarjetas perforadas no podía procesar los datos ni escribir la salida por la impresora, con lo cual el tiempo de ejecución se incrementaba considerablemente.

Como el tiempo de reacción de las primeras válvulas era muy alto, comparado con la velocidad de los componentes actuales, puede pensarse que no existía una gran diferencia entre las primeras computadoras electrónicas y las mecánicas. Sin embargo, cuando la computadora estaba plenamente operativa, se mejoraba mucho la rapidez y eficacia con respecto a sus antecesoras.

El mantenimiento, no obstante, era muy arduo, ya que se debían controlar todas las válvulas para evitar que una parte de la computadora quedara inutilizada, las mejores prestaciones que se consiguieron fueron alrededor de dos o tres días sin que se fundiera ninguna válvula. El que se fundiera una válvula significaba que debía pararse la máquina, localizar la avería, resolverla y, posteriormente, realizar el arranque. El arranque implicaba un calentamiento previo de los filamentos de las válvulas, hay que recordar que las antiguas radios y televisiones que funcionaban con esa tecnología tardaban unos momentos en �calentarse� antes de ponerse en marcha.

La segunda generación de computadoras (1948-1962)

Los Transistores

Las computadoras de la segunda generación vieron como algo cambiaba en su interior. En efecto, a finales de la década de los años cuarenta, Schockley, Brattain y Barden inventaron, en los laboratorios Bell, el transistor cuyo nombre procede de la contracción de "transference resistor", es decir, resistencia de transferencia; rápidamente se vieron las grandes posibilidades que el nuevo descubrimiento tenía como sustituto óptimo de las válvulas.

El material con el que se fabricó el primer transistor fue el germanio, material con el que se siguieron fabricando los transistores hasta el año 1954 en que Texas Instruments fabricó el primer transistor de silicio.

En sí los primeros transistores no eran más que dos electrodos en forma de puntas de contacto sobre un trozo de material.

El cambio fundamental que originó la aparición del transistor fue que redujo en gran medida el tamaño de las computadoras, puesto que sobre placas relativamente pequeñas podían instalarse componentes fundamentales para la estructura de la computadora. Asimismo, se redujeron sus labores de mantenimiento debido a que aumentó la fiabilidad de sus componentes.

La velocidad de cálculo se multiplicó, reduciéndose el tiempo de conmutación (tiempo que tarda un componente en pasar de un estado a otro, es decir, en tomar uno de los dos valores del código binario) a velocidades próximas a los milisegundos.

El problema fundamental con el que se encontraron los informáticos en esta época fue que todavía no se había conseguido solucionar completamente el problema de optimización de la gestión de los recursos del sistema informático, las unidades de entrada y salida seguían siendo el cuello de botella de los procesos.

En esta etapa se consigue simultanear el proceso del programa con las operaciones de entrada y salida, pero solamente dentro del mismo programa. Al no poderse realizar más que una ejecución de un programa al mismo tiempo, esto detenía el proceso de otros programas. Todo ello originaba una infrautilización de los elementos más rápidos y, por tanto, más caros, de la máquina y una considerable pérdida de tiempo y dinero.

En este momento se comenzaron a utilizar los procesos por lotes. Estos procesos se denominan así porque en una computadora secundaria, que se encargaba de gestionar las operaciones de entrada y salida, se introducía el lote de trabajos que se iban a procesar en la computadora principal. La computadora secundaria transfería los procesos a la principal, mucho más rápida y potente, quién se encargaba de procesarlos volviendo ésta a enviar los resultados a la computadora secundaria para que ésta se encargara de las operaciones de salida.

La tercera generación de computadoras (1962-1971)

Los Circuitos Integrados

El paso de la segunda a la tercera generación de computadoras se produjo a principios de la década de los sesenta y se debió a la aparición de los circuitos integrados.

Si bien la primera patente comercial de un circuito integrado se concedió en 1959 al ingeniero de la empresa estadounidense Texas Instruments, Jack Kilby, hasta el año 1962 no se presentó comercialmente el primer circuito integrado; éste era de tecnología digital y su estructura era la de un transistor (en realidad estaba compuesto por dos transistores), pero en una superficie de 1 mm2.

Los circuitos integrados tienen un tamaño similar al de un transistor, pero el grado de miniaturización de sus componentes es muchísimo mayor, pudiéndose incluir la potencia de varios transistores en un solo circuito de menor tamaño que el de un transistor. Con los circuitos integrados no sólo se aumentó la miniaturización de los componentes, sino también su fiabilidad y velocidad de proceso, de modo que el tiempo de conmutación pasó a medirse en nanosegundos, esto es, milmillonésimas de segundo.

En esta tercera generación de computadoras se introdujo el concepto de multitarea.

La multitarea es una optimización de la utilización de los componentes del sistema informático. En la multitarea se gestionan de tal forma los recursos del sistema de la computadora que el sistema operativo maneja el entorno hardware de tal forma que, si bien es sólo un programa el que ocupa el procesador central en un momento dado, cuando ese programa principal necesita utilizar un subsistema más lento que el procesador central, el sistema operativo da paso a otro programa para que pueda utilizar los recursos del procesador central mientras el primer programa está utilizando el resto de los subsistemas.

La optimización del entorno hardware permite una multiplicación de la capacidad operativa del procesador.

Tipos de Integración de los Circuitos

A partir de mediados de los años sesenta van sucediéndose los diferentes niveles en la integración de circuitos. En 1964 aparecen los circuitos de Pequeña Escala de Integración (SSI, Small Scale Integration en inglés) que tienen entre 1 y 12 puertas lógicas.

En 1968 surgen los procesadores de Media Escala de Integración (MSI, Middle Scale Integratio en inglés) que se componen de entre 13 y 99 puertas lógicas.

En 1971 se llega a lo que se conoce realmente como microprocesador con la tecnología de Gran Escala de Integración (LSI, Large Scale Integration en inglés), donde ya se superan las 100 puertas lógicas instaladas en el circuito y se llega al umbral de las 1.000.

Finalmente, la cuarta escala de integración surge en 1980, es la tecnología VLSI, (Very Large Scale Integration o de Muy Gran Escala de Integración). Es la tecnología que se está utilizando en la construcción de componentes en estos momentos. Con esta tecnología se están superando en la actualidad las 1.000 puertas lógicas y se están llegando a instalar más de 10.000 puertas lógicas.

La tendencia actual de los fabricantes es seguir aumentando la escala de integración de los circuitos para conseguir mejorar los rendimientos de los sistemas informáticos (en la actualidad se están consiguiendo tiempos de conmutación del orden de un nanosegundo).

Otro factor favorable a la utilización de la tecnología VLSI en la construcción de los circuitos integrados es que estos circuitos, al tener menos componentes, son más fiables y, por lo tanto existe mucho menos riesgo de avería; además, debido a su costo, los componentes se diseñan a medida y deben pasar por unos controles de calidad mucho más estrictos.

Han surgido, sin embargo, problemas subyacentes a la integración de componentes, como puede ser la generación de un excesivo calor (lo que puede afectar muy negativamente a los del circuito) o la imposibilidad de traspasar barreras físicas (como componentes de tamaño tan sumamente pequeño que su manejo se hace muy difícil y hace cada vez más complicados los avances en estas tecnologías).

La cuestión del tamaño es acuciante. Como puede verse en esta breve reseña histórica, desde los años sesenta la industria electrónica se ha visto impulsada a reducir, cada vez más, los componentes de los microcircuitos semiconductores para fabricar memorias mayores y procesadores más rápidos y potentes. En este sentido, de proseguir la tendencia hacia la miniaturización, el tamaño de una puerta lógica será, antes de cuarenta años, el de una molécula. Esto llevaría a desarrollar una nueva especie, ya no generación, de computadoras: las de base orgánica.

A estos obstáculos técnicos hay que añadir el quizás más determinante, industrialmente hablando, obstáculo económico. Cada vez que se duplica la miniaturización, el coste de fabricación del microcircuito se multiplica por cinco. De este modo, se puede dar el caso de que la búsqueda de circuitos electrónicos cada vez menores se vea limitada más por consideraciones económicas que físicas.


NOMBRE FECHA NUMERO DE PUERTAS LOGICAS
SSI 1964 DESDE 1 HASTA 12 PUERTAS
MSI 1968 DESDE 13 HASTA 99 PUERTAS
LSI 1971 DESDE 100 HASTA 1000 PUERTAS
VLSI 1980 DESDE 1.000 HASTA MAS DE 10.000 PUERTAS

La cuarta generación de computadoras (1971 a 1981)

Microprocesador , Chips de memoria, Microminiaturización

Dos mejoras en la tecnología de las computadoras marcan el inicio de la cuarta generación: el reemplazo de las memorias con núcleos magnéticos, por las de chips de silicio y la colocación de Muchos más componentes en un Chip: producto de la microminiaturización de los circuitos electrónicos. El tamaño reducido del microprocesador y de chips hizo posible la creación de las computadoras personales (PC)

En 1971, intel Corporation, que era una pequeña compañía fabricante de semiconductores ubicada en Silicon Valley, presenta el primer microprocesador o Chip de 4 bits, que en un espacio de aproximadamente 4 x 5 mm contenía 2 250 transistores. Este primer microprocesador que se muestra en la figura 1.14, fue bautizado como el 4004.

Silicon Valley (Valle del Silicio) era una región agrícola al sur de la bahía de San Francisco, que por su gran producción de silicio, a partir de 1960 se convierte en una zona totalmente industrializada donde se asienta una gran cantidad de empresas fabricantes de semiconductores y microprocesadores. Actualmente es conocida en todo el mundo como la región más importante para las industrias relativas a la computación: creación de programas y fabricación de componentes.

Actualmente ha surgido una enorme cantidad de fabricantes de microcomputadoras o computadoras personales, que utilizando diferentes estructuras o arquitecturas se pelean literalmente por el mercado de la computación, el cual ha llegado a crecer tanto que es uno de los más grandes a nivel mundial; sobre todo, a partir de 1990, cuando se logran sorprendentes avances en Internet.

Esta generación de computadoras se caracterizó por grandes avances tecnológicos realizados en un tiempo muy corto. En 1977 aparecen las primeras microcomputadoras, entre las cuales, las más famosas fueron las fabricadas por Apple Computer, Radio Shack y Commodore Busíness Machines. IBM se integra al mercado de las microcomputadoras con su Personal Computer (figura 1.15), de donde les ha quedado como sinónimo el nombre de PC, y lo más importante; se incluye un sistema operativo estandarizado, el MS- DOS (MicroSoft Disk Operating System).

Las principales tecnologías que dominan este mercado son:

IBM y sus compatibles llamadas clones, fabricadas por infinidad de compañías con base en los procesadores 8088, 8086, 80286, 80386, 80486, 80586 o Pentium, Pentium II, Pentium III y Celeron de Intel y en segundo término Apple Computer, con sus Macintosh y las Power Macintosh, que tienen gran capacidad de generación de gráficos y sonidos gracias a sus poderosos procesadores Motorola serie 68000 y PowerPC, respectivamente. Este último microprocesador ha sido fabricado utilizando la tecnología RISC (Reduced Instruc tion Set Computing), por Apple Computer Inc., Motorola Inc. e IBM Corporation, conjuntamente.

Los sistemas operativos han alcanzado un notable desarrollo, sobre todo por la posibilidad de generar gráficos a gran des velocidades, lo cual permite utilizar las interfaces gráficas de usuario (Graphic User Interface, GUI), que son pantallas con ventanas, iconos (figuras) y menús desplegables que facilitan las tareas de comunicación entre el usuario y la computadora, tales como la selección de comandos del sistema operativo para realizar operaciones de copiado o formato con una simple pulsación de cualquier botón del ratón (mouse) sobre uno de los iconos o menús.


La quinta generación de computadoras (1982-1989)

La inteligenca artificial

Cada vez se hace más difícil la identificación de las generaciones de computadoras, porque los grandes avances y nuevos descubrimientos ya no nos sorprenden como sucedió a mediados del siglo XX. Hay quienes consideran que la cuarta y quinta generación han terminado, y las ubican entre los años 1971-1984 la cuarta, y entre 1984-1990 la quinta. Ellos consideran que la sexta generación está en desarrollo desde 1990 hasta la fecha.

Siguiendo la pista a los acontecimientos tecnológicos en materia de computación e informática, podemos puntualizar algunas fechas y características de lo que podría ser la quinta generación de computadoras.

Con base en los grandes acontecimientos tecnológicos en materia de microelectrónica y computación (software) como CADI CAM, CAE, CASE, inteligencia artificial, sistemas expertos, redes neuronales, teoría del caos, algoritmos genéticos, fibras ópticas, telecomunicaciones, etc., a de la década de los años ochenta se establecieron las bases de lo que se puede conocer como quinta generación de computadoras.

Hay que mencionar dos grandes avances tecnológicos, que sirvan como parámetro para el inicio de dicha generación: la creación en 1982 de la primera supercomputadora con capacidad de proceso paralelo, diseñada por Seymouy Cray, quien ya experimentaba desde 1968 con supercomputadoras, y que funda en 1976 la Cray Research Inc.; y el anuncio por parte del gobierno japonés del proyecto "quinta generación", que según se estableció en el acuerdo con seis de las más grandes empresas japonesas de computación, debería terminar en 1992.

El proceso paralelo es aquél que se lleva a cabo en computadoras que tienen la capacidad de trabajar simultáneamente con varios microprocesadores. Aunque en teoría el trabajo con varios microprocesadores debería ser mucho más rápido, es necesario llevar a cabo una programación especial que permita asignar diferentes tareas de un mismo proceso a los diversos microprocesadores que intervienen.

También se debe adecuar la memoria para que pueda atender los requerimientos de los procesadores al mismo tiempo. Para solucionar este problema se tuvieron que diseñar módulos de memoria compartida capaces de asignar áreas de caché para cada procesador.

Según este proyecto, al que se sumaron los países tecnológicamente más avanzados para no quedar atrás de Japón, la característica principal sería la aplicación de la inteligencia artificial (Al, Artificial Intelligence). Las computadoras de esta generación contienen una gran cantidad de microprocesadores trabajando en paralelo y pueden reconocer voz e imágenes. También tienen la capacidad de comunicarse con un lenguaje natural e irán adquiriendo la habilidad para tomar decisiones con base en procesos de aprendizaje fundamentados en sistemas expertos e inteligencia artificial.

La sexta generación de computadoras (1990 - )

indefinida todavía

Como supuestamente la sexta generación de computadoras está en marcha desde principios de los años noventas, debemos por lo menos, esbozar las características que deben tener las computadoras de esta generación. También se mencionan algunos de los avances tecnológicos de la última década del siglo XX y lo que se espera lograr en el siglo XXI. Las computadoras de esta generación cuentan con arquitecturas combinadas Paralelo / Vectorial, con cientos de microprocesadores vectoriales trabajando al mismo tiempo; se han creado computadoras capaces de realizar más de un millón de millones de operaciones aritméticas de punto flotante por segundo (teraflops); las redes de área mundial (Wide Area Network, WAN) seguirán creciendo desorbitadamente utilizando medios de comunicación a través de fibras ópticas y satélites, con anchos de banda impresionantes. Las tecnologías de esta generación ya han sido desarrolla das o están en ese proceso. Algunas de ellas son: inteligencia / artificial distribuida; teoría del caos, sistemas difusos, holografía, transistores ópticos, etcétera.

COMMODORE 64

HISTORIA DE LA COMMODORE 64

Icono de las home computer de los años ´80, la Commodore 64 fue el más vendido y llevó a toda una generación hacia sus primeros pasos en el mundo de la informática y los juegos.

La Commodore 64 fue el ordenador más vendido del mundo, y el que marcó toda una época. Más de 20 millones de unidades vendidas en todo el planeta hablan a las claras de un fenómeno que dio comienzo al furor por las home computers, generó una histórica rivalidad con Sinclair y acercó a muchos a su primer ordenador.

La historia de la Commodore 64 está ligada a la vida de Jack Tramiel, un polaco nacionalizado norteamericano que estuvo detenido en campos de concentración cuando era pequeño pero pudo sobrevivir y escapar gracias a que fue rescatado por un batallón del ejército de EEUU. Por esa razón, emigró a ese país y se enlistó como voluntario.

Estando allí se dio cuenta de que las máquinas de escribir fallaban bastante seguido y eran enviadas a reparación, tarea que tenía un importante costo. Al ver un gran negocio en puerta, Tramiel comenzó a realizar los arreglos de las máquinas, pero luego dejó el uniforme y se fue a vivir a Toronto, desde donde importaba máquinas fabricadas en Checoslovaquia, a las cuales les ponía el nombre de su compañía: Commodore International.

La idea del nombre se debe a que Tramiel quería algo relacionado con el ejército para ilustrar su pasado entre las armas y su agradecimiento al mismo por haberlo salvado cuando estaba prisionero de los nazis. El negocio de las máquinas creció y Tramiel comenzó a exportar mucho hacia EEUU y Europa.

Pero en el mejor momento del mercado las máquinas de escribir comenzaron a llegar desde Japón a muy bajo costo, y Commodore International casi quiebra debido a las bajas ventas. Endeudado, Tramiel pidió un crédito y luego de salvar a la compañía vio en el naciente mercado de las calculadoras electrónicas su gran oportunidad.

Así es como comenzó a dedicarse a ello y generó un boom en EEUU, donde todas las grandes empresas tenían sus productos y cuando se hablaba de una calculadora se decía “una Commodore”. Pero entonces Texas Instruments, fabricante de los chips con los que se fabricaban las Commodore, decidió lanzar su propia línea de calculadoras a costos mucho más bajos.

Otra vez Commodore estuvo a punto de quebrar, pero Tramiel pudo conseguir financiación, y además de salvar nuevamente a la empresa aprendió una importante lección: No te apoyes en otros fabricantes; si puedes fabrica tu mismo los componentes.

Y así lo hizo: Tramiel contrató a Chuck Peddle, un ex empleado de Motorola que estaba trabajando en un desarrollo para mejorar el chip 6800: el 6502. Con este chip Commodore fabricó su primer ordenador, el PET, que posteriormente devino en el Commodore VIC-20.

Hace pocos días, cuando vimos la historia de Linux, pudimos conocer que este fue el primer ordenador que el talentoso finlandés tuvo entre sus manos, y con el que aprendió a programar. Otra nota de color relacionada con esta época de la historia de la informática nos dice que justo antes de comenzar con la PET, Tramiel estaba tan ansioso por ingresar al mundo de las home computers que realizó una oferta para adquirir Apple. Steve Jobs pensó que era grandiosa y quiso vender, pero Wozniak le pidió que no lo hiciera porque el dinero era poco para lo que vendría. Muchos dicen que Jobs le hizo ganar millones a Wozniak, pero ya ves que también “Woz” salvó a Jobs y casi sin darse cuenta le salvo el negocio.

Bueno, volvamos a Commodore: con la salida de la VIC-20 se generó una mini revolución gracias a su ínfimo precio y a un pack de juegos que se vendían junto con ellas. Y el camino quedó allanado para que cuando tiempo después la Commodore 64 saliera al mercado, la sola mención de su nombre ya diera cuenta de un home computer de calidad.

Y si la VIC-20 había logrado armar alboroto, la C64 directamente fue el germen de la locura total: los fanáticos se agolpaban en las tiendas para comprarlas, surgieron infinidad de productos de hardware relacionados, muchas revistas dedicadas a juegos y programas para la Commodore, y hasta software comercial que ayudó a generar divisas para compañias tales como Microsoft, que con su hoja de cálculo Multiplan tuvo buenos ingresos. Electronic Arts también surgió en esa época de la mano de Trip Hawkins, un ex empleado de Apple que comenzó a desarrollar videojuegos y tuvo en Pinball Construction Set su primer gran éxito, de los muchos que tendría y sigue teniendo.

El esfuerzo comenzaba a rendir sus frutos para Tramier, un hombre acostumbrado a la dureza de la vida y a tener que aprender como sobrevivir desde muy chico, que pudo superar muchos obstáculos en su vida para poder llegar a triunfar.

Siempre es más fácil entender un fenómeno si se analiza el entorno y el momento en el que se produce. En primer lugar, el plan de Tramier fue excelente ya que los ordenadores comenzaron por venderse en tiendas especializadas que tenían acceso a precios especiales para la venta de accesorios, con los cuales ganaban casi tanto dinero como con la venta de la Commodore 64 misma. Además, siendo especialistas en hardware, podrían repararlas cuando surgiera algún problema, de modo que los clientes tenían la garantía de que su home computer podría ser reparada, y las tiendas tenían a la vez ganancias a futuro con la reparación.

Además de esto, cuando la Commodore 64 salió a la venta, los ordenadores PC salían 10 veces más caros, y utilizarlos era complicado. Sus capacidades gráficas y de sonido eran inexistentes, por lo que solo eran utilizados en grandes empresas, que eran las únicas que podían pagarlos.

La Commodore 64, por el contrario, no solo era económica sino que además gracias al SID 6581, el mejor chip generador de sonidos de la historia. Con 3 canales mono, su gran capacidad de procesamiento le convirtió en el trampolín que lanzó a esta home computer a la fama, posibilitando la llegada de juegos superiores a los de cualquier otra plataforma, algo a lo que también contribuyó la facilidad para programar “sprites” en la Commodore.

Livingstone Supongo, Spy vs. Spy (¿el primer juego multiplayer?, Green Beret, Ghost Goblins o Choplifter son solo algunos de los clásicos que llegaron luego. Las legiones de fanáticos comenzaron a surgir en todo el mundo, y las ventas se dispararon a niveles insospechados, los User Groups de Commodore 64 florecían por doquier.

Tal importancia tuvo (y tiene) este home computer en la historia que por eso ni dudamos en incluirlo en nuestro Top Ten. Y justamente por la gloria obtenida, aún hoy hay quienes siguen utilizando sus viejas Commodore 64, y hasta intentando jugar al Guitar Hero con ellas ¿Increíble verdad?

Si te preguntas que puede haber pasado luego, las respuestas son varias. En primer lugar, el consumo de ordenadores PC por parte de las empresas fue logrando que poco a poco su precio baje, y al aumentar sus prestaciones y tener una base tan grande de usuarios de una misma plataforma, se hizo más rentable desarrollar software y hardware para la plataforma PC en lugar de tener que trabajar para varias (Commodore, Sinclair, Atari, Amstrad). La evolución tecnológica siempre juega su parte y al bajar de precio las plataformas de 16 bits dejaron en el camino a los viejos home computer de 8 bits.

Para fines de 1984 Commodore se había vuelto demasiado grande y Tramiel ya no tenía todo el poder por lo que descontento con ello abandonó la compañía y se dedicó a otros negocios, entre ellos la adquisición de Atari.

Pero antes de irse, tuvo una pequeña revancha personal cuando gracias al éxito impresionante de “su” Commodore 64 pudo literalmente sacar del negocio a Texas Instruments, que con su excelente TI99-4A no logró las ventas que esperaba.

Ya sin Tramiel al mando, Commodore sacó al mercado la Amiga, un ordenador que con mejor manejo de marketing y una buena estrategia de precios pudo haber cambiado la historia, ya que se trató del primer ordenador con capacidades multimedia reales. También salió la Commodore 128, una gran mejora respecto a la 64 pero que no pudo torcer la historia de las home computers, que ya veían como los ordenadores PC les hacían cada vez más difícil la existencia.

Algunos años después, Commodore International quebró y desapareció del mapa, para retornar convertida en PC gracias a la licencia por uso del nombre.

Para quienes tuvimos la suerte de tener algunas de las home computer de los años 80, sabemos que jamás las olvidaremos, y la Commodore 64 sin dudas fue el puntal que abrió el camino para la explosión de los videojuegos en el hogar. Aunque las frías crónicas puedan decir que la Commodore murió, eso no ha sucedido. Sigue viviendo en el corazón de sus fanáticos, que nunca la olvidarán. La Commodore, al igual que el Mustang u otros íconos, jamás morirá.

lunes, 14 de septiembre de 2009

ORGANIZACION DE LA COMPUTADORA

Organización de la computadora.



Dispositivos de entrada / salida. Periféricos.
1.- Memoria Central ( Interna ) :
Dispositivo Tipo Descripción
Memoria central / función
Almacena información Instrucciones Comandos de un programa
Datos Son manejados por las instrucciones
Funcionamiento
• Para que un programa se pueda ejecutar ( RUN ) , debe ser situado en la memoria en una operación que se llama carga ( LOAD ) del programa; posteriormente cualquier dato a procesar por el programa se debe llevar a la memoria mediante unas instrucciones .
• La memoria central de una computadora es una zona de almacenamiento organizada en miles de millones de unidades de almacenamiento individual ( celdas de memoria ).
• La unidad elemental de memoria se llama byte y almacena un carácter de información. 1 bits guarda, almacena 1 digito, que puede ser:
1 0
un uno (1)
un cero (0) .
• Un carácter de un dato alfanumérico se almacenan en un byte. Ejemplo la palabra subproyecto .
S U B P R O Y E C T O
• Los datos numéricos pueden ocupar 2, 4 o 8 bytes consecutivos, según sea su tipo
valor declaración ejemplo
simple precisión ! Área! ; presión! ; precio!

doble precisión # Masatomica#; energia#

entero % Etapas% ; correas%
entero largo &
• Un byte, tiene asociado una dirección y su contenido; permiten su acceso para almacenarlo o recuperarlo
Arreglos unidimensionales : vectores
Ejemplo:
Vector columna: tiene 3 filas , 1 columna

vector fila : tiene 1 fila , 3 columnas
Arreglo bidimensional:
tiene 3 filas , 3 columnas
Dispositivo/ funciones Descripción
UCP
Los datos en la memoria central se pueden leer (recuperar ) , o escribir. 1. Dirige y controla el proceso de información.

2. Procesa y manipula la información almacenada en la memoria
3. Recupera la información de la
memoria: datos o instrucciones
4. almacena los resultados de los procesos en memoria
Unidad de Control 1.Coordina las actividades
2.Determina, ordena y sincroniza los
procesos que realiza la computadora.
Unidad Aritmético-lógica 1. Realiza las operaciones aritméticas y
Lógicas .
Arreglos bidimensionales. Ejemplo: una tabla, matriz. Tiene dos dimensiones:
Ejemplo de base de datos elemental en forma de tabla :
C1 C2 C3
C4 C5 C6
C7 C8 C9
Subproyecto código NoCred Cont Program
Introducción
a la Programación TA2101 1402 3 Unidad 1
Unidad 2
Unidad 3
Unidad 4
• Siempre que se almacena nueva información , reemplaza a la que existía inicialmente y es borrada.
• La dirección es única y permanente.
• El contenido puede cambiar mientras se ejecuta un programa
• La capacidad de almacenamiento de la memoria se mide en bites
1bite significado
1 kbites 1024 bites 103
1 Mbites 1024 x 1024 bites 106
1 GBites 1024 x 1024 x 1024 bites 109


2.- Memoria auxiliar ( externas ) :
Pueden estar constituidos por alguno o todos dispositivos tales como ;
• cintas magnetofónicas de los equipos de sonido.
• disco duro
• discos flexibles : floppy : 3 ½ pulg ; cap. (baja densidad) 720 kB
(alta densidad) 1.44 MB
5 ½ pug; cap (baja densidad) 360 kB
(baja densidad) 1.2 MB
• disco compacto : unidad de CD-ROM cap 720 Mb
• La memoria externa puede almacenar información en forma permanente , contrariamente a la memoria interna , en la cual la información es volátil y desaparece al desconectar la fuente de energía o de potencia del computador.
• La información se organiza en unidades independientes que se denominan archivos = files = fichero. Los
• ficheros pueden ser de programas, de texto, imágenes, ejecutables, ocultos, de solo lectura .
• Un archivo se designa por un nombre y una extensión y se indica como
• Los resultados de programas se pueden guardar como archivos.
Sima Operativo formato ejemplo
1 DOS Nombrear.ext Problem1.bas 8caracteres.3caracteres
2 Windows Nombrearchivo.extensión Problema1.doc Hasta 256 carac nov.ext
Mecanismo:

ARQUITECTURA DE COMPUTADORAS

Arquitectura de computadoras

El concepto de Arquitectura de computadoras se define como el funcionamiento, estructura y diseño de computadores.
Dentro de este término se engloban aspectos como formato de instrucción, modo de direccionamiento o conjunto de instrucciones.
Conceptos
CISC
RISC
VLIW
BIOS
Arquitecturas
x86-32 - IA32
x86-64 - IA64
680x0
Alpha
PowerPC
Sparc



















Arquitectura de computadoras







Una visión típica de una arquitectura de computadora como una serie de capas de abstracción: hardware, firmware, ensamblador, kernel, sistema operativo y aplicaciones.
La arquitectura de computadoras es el diseño conceptual y la estructura operacional fundamental de un sistema de computadora. Es decir, es un modelo y una descripción funcional de los requerimientos y las implementaciones de diseño para varias partes de una computadora, con especial interés en la forma en que la unidad central de proceso (CPU) trabaja internamente y accede a las direcciones de memoria.
También suele definirse como la forma de seleccionar e interconectar componentes de hardware para crear computadoras según los requerimientos de funcionalidad, rendimiento y costo
El ordenador recibe y envía la información a través de los periféricos por medio de los canales. La UCP es la encargada de procesar la información que le llega al ordenador. El intercambio de información se tiene que hacer con los periféricos y la UCP. Todas aquellas unidades de un sistema exceptuando la UCP se denomina periférico, por lo que el ordenador tiene dos partes bien diferenciadas, que son: la UCP (encargada de ejecutar programas y que esta compuesta por la memoria principal, la UAL y la UC) y los periféricos (que pueden ser de entrada, salida, entrada-salida y comunicación)

Introducción
La segmentacion de instrucciones es similar al uso de una cadena de montaje en una fábrica de manufacturación. En las cadenas de montaje, el producto pasa a través de varias etapas de producción antes de tener el producto terminado. Cada etapa o segmento de la cadena está especializada en un área específica de la línea de producción y lleva a cabo siempre la misma actividad. Esta tecnología es aplicada en el diseño de procesadores eficientes.
A estos procesadores se les conoce como pipeline processors. Estos están compuestos por una lista de segmentos lineales y secuenciales en donde cada segmento lleva a cabo una tarea o un grupo de tareas computacionales. Los datos que provienen del exterior se introducen en el sistema para ser procesados. La computadora realiza operaciones con los datos que tiene almacenados en memoria, produce nuevos datos o información para uso externo.
Las arquitecturas y los conjuntos de instrucciones se pueden clasificar considerando los siguientes aspectos:
• Almacenamiento de operandos en la CPU: dónde se ubican los operandos aparte de la memoria.
• Número de operandos explícitos por instrucción: cuántos operandos se expresan en forma explícita en una instrucción típica. Normalmente son 0, 1, 2 y 3.
• Posición del operando: ¿Puede cualquier operando estar en memoria?, o deben estar algunos o todos en los registros internos de la CPU. Cómo se especifica la dirección de memoria (modos de direccionamiento disponibles).
• Operaciones: Qué operaciones están disponibles en el conjunto de instrucciones.
• Tipo y tamaño de operandos y cómo se especifican.
Almacenamiento de operandos en la CPU
La diferencia básica está en el almacenamiento interno de la CPU.
Las principales alternativas son:
• Pila.
• Acumulador.
• Conjunto de registros.
Características:
En una arquitectura de acumulador un operando está implícitamente en el acumulador siempre leyendo e ingresando datos. (Ej: calculadora Standard -estándar-)
En la arquitectura de pila no es necesario nombrar a los operandos ya que estos se encuentran en el tope de la pila. (Ej: calculadora de pila HP)
La Arquitectura de registros tiene solo operandos explícitos (es aquel que se nombra) en registros o memoria.
Ventajas de las arquitecturas
• Pila : Modelo sencillo para evaluación de expresiones (notación polaca inversa). Instrucciones cortas pueden dar una buena densidad de código.
• Acumulador: Instrucciones cortas. Minimiza estados internos de la máquina (unidad de control sencilla).
• Registro: Modelo más general para el código de instrucciones parecidas. Automatiza generación de código y la reutilización de operandos. Reduce el tráfico a memoria. Una computadora actualmente tiene como estándar 32 registros. El acceso a los datos es más rápido.
Desventajas de las arquitecturas
• Pila: A una pila no se puede acceder aleatoriamente. Esta limitación hace difícil generar código eficiente. También dificulta una implementación eficente, ya que la pila llega a ser un cuello de botella es decir que existe dificultad para la transferencia de datos en su velocidad mk.
• Acumulador: Como el acumulador es solamente almacenamiento temporal, el tráfico de memoria es el más alto en esta aproximación.
• Registro: Todos los operadores deben ser nombrados, conduciendo a instrucciones más largas.