lunes, 20 de junio de 2011

Ingeniería de Sistemas

Unidad 1

Semana :1


Definición de Ingeniería de Sistemas

Ingeniería:

Arte de aplicar los conocimientos científicos a la invención, perfeccionamiento y utilización de la técnica industrial en todas sus determinaciones.

Sistema:

Conjunto de cosas o partes coordinadas según una ley, o que, ordenadamente relacionadas entre sí, contribuyen a determinado objeto o función (RAE)
Conjunto de medios combinados de tal forma que realicen una función como respuesta a una determinada necesidad (NS)

Cualquier proceso que convierte elementos de entrada en resultados.
Combinación de medios (personas, instalaciones, equipos, hardware, datos, software,...), integrados de tal forma que puedan desarrollar una determinada función en respuesta a una necesidad concreta.
Serie de elementos de hardware, de software y humanos que deben de colaborar entre sí de una forma eficiente para que todo funcione.

Definición de Ingeniería de Sistemas
Ingeniería de Sistemas:

1. El arte de aplicar conocimientos científicos a la invención/diseño, perfeccionamiento/mejora, utilización/desarrollo – producción de sistemas industriales (JS).
2. Proceso ordenado para hacer realidad un nuevo sistema y/o mejorar uno ya existente teniendo en cuenta el ciclo de vida total del sistema y manteniendo el adecuado equilibrio entre los factores operativos (especificaciones del sistema), económicos y logísticos (NS).

La Ingeniería de Sistemas es un enfoque interdisciplinar y de medios para conseguir la realización de sistemas con éxito. Su enfoque parte de la definición de las necesidades del cliente y los requisitos funcionales al inicio del proceso y documentación de requisitos, siguiendo con la síntesis de diseño y validación del sistema mientras se considera el problema en su conjunto:

Funcionalidad.
Desarrollo.
Prueba y Evaluación.
Fabricación.
Planificación y costos.
Mantenimiento y Apoyo.
Disponibilidad.

La IS integra todas las disciplinas y los diferentes grupos de trabajo formando un equipo en un proceso de desarrollo estructurado que va desde el concepto a la fabricación y a la explotación. La IS tiene en cuenta tanto las necesidades técnicas como comerciales o financieras de los clientes finales con el objetivo de obtener un producto de calidad que satisfaga las necesidades del usuario.

Características de la Ingeniería de Sistemas


-No es una ingeniería con las características de las ingenierías tradicionales.

-Los principios de la Ingeniería de Sistemas están más orientados a la forma de organizar trabajos que a las tecnologías y medios específicos para su realización.

-Obtener una Visión global del sistema: análisis de arriba - abajo (top – down).

-Tener en cuenta el Ciclo de vida del sistema: desde el diseño hasta su reciclaje o desecho.

-Esfuerzo inicial en la fase de definición de requisitos: es necesario disponer de unas especificaciones detalladas y acertadas del sistema para evitar seguir caminos durante el desarrollo del sistema que más tarde es muy costoso desandar.


-La ingeniería de sistema es aplicable a cualquier sistema.


-Ser cuidadosos en la manera de aplicarla teniendo en cuenta las características particulares de cada sistema, de cada equipo de trabajo, de cada entorno, etc.


La ciencia : (del latín doscientas 'conocimiento') es el conjunto de conocimientos sistemáticamente estructurados obtenidos mediante la observación de patrones regulares, de razonamientos y de experimentación en ámbitos específicos, de los cuales se generan preguntas, se construyen hipótesis, se deducen principios y se elaboran leyes generales y esquemas metódicamente organizados.

El arte (del lat. ars, artis, y este calco del gr. τέχνη) : es entendido generalmente como cualquier actividad o producto realizado por el ser humano con una finalidad estética o comunicativa, a través del cual se expresan ideas, emociones o, en general, una visión del mundo, mediante diversos recursos, como los plásticoslingüísticos, sonoros o mixtos. El arte es un componente de la cultura reflejando en su concepción los sustratos económicos y sociales, y la transmisión de ideas y valores, inherentes a cualquier cultura humana a lo largo del espacio y el tiempo. Se suele considerar que con la aparición del homo sapiens el arte tuvo en principio una función ritual, mágica o religiosa, pero esa función cambió con la evolución del ser humano, adquiriendo un componente estético y una función social, Pedagógica  , mercantil o simplemente ornamental 

Ciclo del procesamiento de la información.

Todo programa de cómputo deberá estar estructurado, siguiendo las 3 fases del ciclo del procesamiento de la información.

Para concluir con el tema del ciclo del procesamiento computarizado de la información, a continuación se mencionaran, las actividades a realizar en cada una de sus fases:

1. En la fase de entrada incluiremos todas las instrucciones necesarias, para alimentar al programa, con los datos requeridos para ejecutar el proceso.

2. En la fase de proceso realizaremos todas las operaciones lógicas, aritméticas y de movimientos de información necesarias, para generar los resultados deseados.

3. En la fase de salida del programa, se le dará a conocer al usuario todos los resultados generados
INTRODUCCIÓN A LAS COMPUTADORAS


Uno de los primeros dispositivos mecánicos para contar fue el ábaco, cuya historia se remonta a las antiguas civilizaciones como china, griega y romana. Este dispositivo es muy sencillo, consta de cuentas ensartadas en varillas que a su vez están montadas en un marco rectangular. Al desplazar las cuentas sobre varillas, sus posiciones representan valores almacenados, y es mediante dichas posiciones que este representa y almacena datos. A este dispositivo no se le puede llamar computadora por carecer del elemento fundamental llamado programa.

Otro de los inventos mecánicos fue la Pascalina inventada por Blaise Pascal (1623 - 1662) de Francia y la de Gottfried Wilhelm von Leibniz (1646 - 1716) de Alemania. Con estas máquinas, los datos se representaban mediante las posiciones de los engranajes, y los datos se introducían manualmente estableciendo dichas posiciones finales de las ruedas, de manera similar a como leemos los números en el cuentakilómetros de un automóvil.

En 1944 se construyó en la Universidad de Harvard, la Mark I, diseñada por un equipo encabezado por Howard H. Aiken. Esta máquina no está considerada como computadora electrónica debido a que no era de propósito general y su funcionamiento estaba basado en dispositivos electromecánicos llamados relevadores.

En 1947 se construyó en la Universidad de Pennsylvania la ENIAC (Electronic Numerical Integrator And Calculator) que fue la primera computadora electrónica, el equipo de diseño lo encabezaron los ingenieros John Mauchly y John Eckert. Esta máquina ocupaba todo un sótano de la Universidad, tenía más de 18 000 tubos de vacío, consumía 200 KW de energía eléctrica y requería todo un sistema de aire acondicionado, pero tenía la capacidad de realizar cinco mil operaciones aritméticas en un segundo.

La EDVAC (Electronic Discrete Variable Automatic Computer) fue diseñada por este nuevo equipo. Tenía aproximadamente cuatro mil bulbos y usaba un tipo de memoria basado en tubos llenos de mercurio por donde circulaban señales eléctricas sujetas a retardos.

La idea fundamental de von Neumann fue: permitir que en la memoria coexistan datos con instrucciones, para que entonces la computadora pueda ser programada en un lenguaje, y no por medio de alambres que eléctricamente interconectaban varias secciones de control, como en la ENIAC..












PRIMERA GENERACIÓN (1951 a 1958):

Las computadoras de la primera Generación emplearon bulbos para procesar información. Los operadores ingresaban los datos y programas en código especial por medio de tarjetas perforadas. El almacenamiento interno se lograba con un tambor que giraba rápidamente, sobre el cual un dispositivo de lectura/escritura colocaba marcas magnéticas. Esas computadoras de bulbos eran mucho más grandes y generaban más calor que los modelos contemporáneos.
Comenzó entonces a construir computadoras electrónicas y su primera entrada fue con la IBM 701 en 1953. Después de un lento pero excitante comienzo la IBM 701 se convirtió en un producto comercialmente viable. Sin embargo en 1954 fue introducido el modelo IBM 650, el cual es la razón por la que IBM disfruta hoy de una gran parte del mercado de las computadoras. La administración de la IBM asumió un gran riesgo y estimó una venta de 50 computadoras. Este número era mayor que la cantidad de computadoras instaladas en esa época en E.U. De hecho la IBM instaló 1000 computadoras. El resto es historia. Aunque caras y de uso limitado las computadoras fueron aceptadas rápidamente por las Compañías privadas y de Gobierno. A la mitad de los años 50 IBM y Remington Rand se consolidaban como líderes en la fabricación de computadoras. 


SEGUNDA GENERACIÓN (1959-1964):


El invento del transistor hizo posible una nueva Generación de computadoras, más rápidas, más pequeñas y con menores necesidades de ventilación. Sin embargo el costo seguía siendo una porción significativa del presupuesto de una Compañía. Las computadoras de la segunda generación también utilizaban redes de núcleos magnéticos en lugar de tambores giratorios para el almacenamiento primario. Estos núcleos contenían pequeños anillos de material magnético, enlazados entre sí, en los cuales podían almacenarse datos e instrucciones.
Algunas de las computadoras que se construyeron ya con transistores fueron la IBM 1401, las Honeywell 800 y su serie 5000, UNIVAC M460, las IBM 7090 y 7094, NCR 315, las RCA 501 y 601, Control Data Corporation con su conocido modelo CDC16O4, y muchas otras, que constituían un mercado de gran competencia, en rápido crecimiento. En esta generación se construyen las supercomputadoras Remington Rand UNIVAC LARC, e IBM Stretch (1961).




TERCERA GENERACIÓN (1964-1971):


Circuitos Integrados, Compatibilidad con Equipo Mayor, Multiprogramación, Minicomputadora.

 Las computadoras de la tercera generación emergieron con el desarrollo de los circuitos integrados (pastillas de silicio) en las cuales se colocan miles de componentes electrónicos, en una integración en miniatura. Las computadoras nuevamente se hicieron más pequeñas, más rápidas, desprendían menos calor y eran energéticamente más eficientes. 
La IBM 360 una de las primeras computadoras comerciales que usó circuitos integrados, podía realizar tanto análisis numéricos como administración ó procesamiento de archivos.

 IBM marca el inicio de esta generación, cuando el 7 de abril de 1964 presenta la impresionante IBM 360, con su tecnología SLT (Solid Logic Technology). Esta máquina causó tal impacto en el mundo de la computación que se fabricaron más de 30000, al grado que IBM llegó a conocerse como sinónimo de computación.
Se empiezan a utilizar los medios magnéticos de almacenamiento, como cintas magnéticas de 9 canales, enormes discos rígidos, etc. Algunos sistemas todavía usan las tarjetas perforadas para la entrada de datos, pero las lectoras de tarjetas ya alcanzan velocidades respetables.

CUARTA GENERACIÓN (1971 a 1981):

Dos mejoras en la tecnología de las computadoras marcan el inicio de la cuarta generación: el reemplazo de las memorias con núcleos magnéticos, por las de chips de silicio y la colocación de Muchos más componentes en un Chip: producto de la microminiaturización de los circuitos electrónicos. El tamaño reducido del microprocesador y de chips hizo posible la creación de las computadoras personales (PC).

Esta generación de computadoras se caracterizó por grandes avances tecnológicos realizados en un tiempo muy corto. En 1977 aparecen las primeras microcomputadoras, entre las cuales, las más famosas fueron las fabricadas por Apple Computer, Radio Shack y Commodore Busíness Machines. IBM se integra al mercado de las microcomputadoras con su Personal Computer (figura 1.15), de donde les ha quedado como sinónimo el nombre de PC, y lo más importante; se incluye un sistema operativo estandarizado, el MS- DOS (MicroSoft Disk Operating System).



Las principales tecnologías que dominan este mercado son:
IBM y sus compatibles llamadas clones, fabricadas por infinidad de compañías con base en los procesadores 8088, 8086, 80286, 80386, 80486, 80586 o Pentium, Pentium II, Pentium III y Celeron de Intel y en segundo término Apple Computer, con sus Macintosh y las Power Macintosh, que tienen gran capacidad de generación de gráficos y sonidos gracias a sus poderosos procesadores Motorola serie 68000 y PowerPC, respectivamente. 



 QUINTA GENERACIÓN Y LA INTELIGENCIA ARTIFICIAL (1982-1989):

Hay que mencionar dos grandes avances tecnológicos, que sirvan como parámetro para el inicio de dicha generación: la creación en 1982 de la primera supercomputadora con capacidad de proceso paralelo, diseñada por Seymouy Cray, quien ya experimentaba desde 1968 con supercomputadoras, y que funda en 1976 la Cray Research Inc.; y el anuncio por parte del gobierno japonés del proyecto "quinta generación", que según se estableció en el acuerdo con seis de las más grandes empresas japonesas de computación, debería terminar en 1992.


El proceso paralelo es aquél que se lleva a cabo en computadoras que tienen la capacidad de trabajar simultáneamente con varios microprocesadores. Aunque en teoría el trabajo con varios microprocesadores debería ser mucho más rápido, es necesario llevar a cabo una programación especial que permita asignar diferentes tareas de un mismo proceso a los diversos microprocesadores que intervienen.


El almacenamiento de información se realiza en dispositivos magneto ópticos con capacidades de decenas de Gigabytes; se establece el DVD (Digital Video Disk o Digital Versatile Disk) como estándar para el almacenamiento de video y sonido; la capacidad de almacenamiento de datos crece de manera exponencial posibilitando guardar más información en una de estas unidades, que toda la que había en la Biblioteca de Alejandría. Los componentes de los microprocesadores actuales utilizan tecnologías de alta y ultra integración, denominadas VLSI (Very Large Sca/e Integration) y ULSI (Ultra Lar- ge Scale Integration).

Sin embargo, independientemente de estos "milagros" de la tecnología moderna, no se distingue la brecha donde finaliza la quinta y comienza la sexta generación. Personalmente, no hemos visto la realización cabal de lo expuesto en el proyecto japonés debido al fracaso, quizás momentáneo, de la inteligencia artificial.

SEXTA GENERACIÓN 1990 HASTA LA FECHA:


Como supuestamente la sexta generación de computadoras está en marcha desde principios de los años noventas, debemos por lo menos, esbozar las características que deben tener las computadoras de esta generación. También se mencionan algunos de los avances tecnológicos de la última década del siglo XX y lo que se espera lograr en el siglo XXI. Las computadoras de esta generación cuentan con arquitecturas combinadas Paralelo / Vectorial, con cientos de microprocesadores vectoriales trabajando al mismo tiempo; se han creado computadoras capaces de realizar más de un millón de millones de operaciones aritméticas de punto flotante por segundo (teraflops); las redes de área mundial (Wide Area Network, WAN) seguirán creciendo desorbitadamente utilizando medios de comunicación a través de fibras ópticas y satélites, con anchos de banda impresionantes. Las tecnologías de esta generación ya han sido desarrolla das o están en ese proceso. Algunas de ellas son: inteligencia / artificial distribuida; teoría del caos, sistemas difusos, holografía, transistores ópticos, etcétera.


Partes de un sistema de Computo
El Gabinete
Fuente de Alimentación 
Mother Board
Disco Duro
Tarjetas RAM
Tarjeta de Sonido
Las Unidades CD-R...DVD
El Módem
El Sistema de Sonido
El Ratón o Mouse
El Teclado
El Monitor
La Impresora


Hardware de la Computadora



Codificación de Imágenes.
Las imágenes constituyen un tipo de información al que la sociedad entera atribuye gran importancia. De este modo, los procesos necesarios, tanto para almacenar imágenes como para lograr que sean recibidas a distancia, han dado lugar a una demanda específica: en particular, se ha querido aprovechar los sistemas de transmisión existentes y utilizarlos para transportar, a través de ellos, las imágenes.
Partiendo de imágenes de baja resolución, es posible codificarlas para su posterior transmisión, haciendo uso de ceros y unos, donde el 1 representa un cuadrado negro y el 0 representa un cuadrado blanco. Además la secuencia debe ser de izquierda a derecha de la primera fila de la imagen, y continuar así hasta su borde inferior. Por ejemplo, la siguiente imagen (una alcancía) de 16 por 16 píxeles se codifica de acuerdo al criterio expuesto, y se obtiene la secuencia de unos y ceros que está a su lado.
El fax es un sistema que convierte las imágenes para que puedan ser enviadas a través de la línea telefónica. Como el teléfono es un aparato capaz de transmitir sonidos, se utiliza un código que por cada punto blanco emite un sonido y por cada punto negro otro diferente.


Tipos de Imágenes de la Computadora
El uso de imágenes para transmitir información está presente en diversas actividades tales como ingeniería, arquitectura, diseño y publicidad. Las imágenes podrán ser blanco y negro o color. El color es un elemento de suma importancia en multimedia y los tres componentes básicos a través de los cuales lo percibimos son
 el brillo, que indica que tan oscuro o claro es algo;
 el matiz, que expresa cada una de las graduaciones de un color, por ejemplo el color rosa y el color ladrillo tienen un matiz rojo;
  la saturación, que es la suma de un matiz y su brillo puro.
Las imágenes digitales generadas en la computadora están divididas en dos grandes grupos: vectoriales y pixelares.

Vectoriales: la imagen está formada por líneas, polígonos, círculos u otras figuras que pueden expresarse matemáticamente en términos de ángulos, coordenadas y distancias. La principal ventaja de este tipo de imágenes es que al estar compuesta por vectores, es posible modificar su tamaño sin perder información, debido a que por medio de ecuaciones matemáticas se realizan los cálculos de forma automática. Programas como Adobe Ilustrador y Frenad trabajan con imágenes vectoriales.

Pixelares: También conocidas como mapa de bits, en este caso la imagen consiste en una matriz que describe cada uno de sus puntos individuales. Cuanto mayor sea la cantidad de píxeles en un espacio determinado, mejor será la calidad de la imagen y mayor la cantidad de bytes de la misma. La principal ventaja de este tipo de imágenes es que permite transformar el color, el brillo y otros atributos en cada uno de los píxeles.Aunque el dibujo sea vectorial, cada vez que este programa abra una imagen la descompondrá en mapa de bits.











Los formatos de imágenes más difundidos actualmente son:

bmp (BitMap – mapa de bits):
Este formato guarda imágenes según un mapa de bits, y su principal campo de aplicación está en Windows. Puede ser utilizado por la mayoría de los programas graficadotes. No es apto para imágenes de alta calidad, ya que el tamaño del archivo es muy grande en comparación con otros formatos gráficos.

tiff (Tegged Image File Format – formato de archivo de imagen etiquetada): 
Fue desarrollado por Aldus Corporation, y si bien es bastante usado porque se adapta muy bien a diferentes entornos de trabajo, tiene el inconveniente de que existen distintas variantes, por lo que una imagen almacenada con este formato en un programa, puede no ser recuperada por otro programa. Se utiliza en el campo profesional para imágenes de alta resolución.

gif (Graphics Interchange Format – formato de intercambio gráfico): 
Fue creado por Compuserve con un buen nivel de compresión, a fin de reducir los tiempos telefónicos al transferir archivos gráficos por medio del módem, por lo tanto son archivos de tamaños reducidos. Puede utilizarse en diferentes sistemas de computadoras, pero sólo permite mostrar 256 colores, por lo que no resulta adecuado para guardar imágenes de alta calidad. Es el formato gráfico más utilizado para mostrar imágenes por Internet con compresión sin pérdida de información, y además admite transparencias y animaciones.

png (Portable Network Graphics – gráficos de red portables): 
Utiliza sistema de compresión sin pérdidas, y fue desarrollado para evitar pagar derechos de autor en Internet por el uso de archivos gif. En general tardan mucho tiempo en ser abiertos y la propia existencia de la extensión gif hace que no estén muy difundidos.

jpeg / jpg (Joined Photographics Expert Group – grupo unido de expertos en fotografía):
Es un estándar popular para almacenar fotos e imágenes inmóviles, permitiendo mostrar hasta 16,7 millones de colores. Los archivos con este formato ocupan poco espacio, y la carga y cierre de las imágenes se realiza en forma rápida. Es utilizado para visualizar imágenes de alta calidad a través de Internet, con compresión, pero con pérdida de información.

Semana: 2
Tipos y Elementos del Procesador


Pentium-75 ; 5x86-100 (Cyrix y AMD)
  • AMD 5x86-133
  • Pentium-90
  • AMD K5 P100Pentium-100
  • Cyrix 686-100 (PR-120)
  • Pentium-120
  • Cyrix 686-120 (PR-133) ;
  •  AMD K5 P133
  • Pentium-133
  • Cyrix 686-133 (PR-150) ; 
  • AMD K5 P150
  • Pentium-150
  • Pentium-166
  • Cyrix 686-166 (PR-200)
  • Pentium-200
  • Cyrix 686MX (PR-200)
  • Pentium-166 MMX
  • Pentium-200 MMX
  • Cyrix 686MX (PR-233)
  • AMD K6-233
  • Pentium II-233
  • Cyrix 686MX (PR-266); 
  • AMD K6-266
  • Pentium II-266
  • Pentium II-300
  • Pentium II-333 (Deschutes)
  • Pentium II-350
  • Pentium II-400
  • Entre Otros....
Elementos del procesador:


Alu (unidad aritmético lógica): 

Su misión es realizar las operaciones con los datos que recibe, siguiendo las indicaciones dadas por la unidad de control. 


Registros:
Los Registros son un medio de ayuda a las operaciones realizadas por la unidad de control y la unidad aritmética y lógica. Permiten almacenar información, temporalmente, para facilitar la manipulación de los datos por parte de la CPU.


Entrada y salida de datos:
Es la parte de la unidad central de proceso que actúa como coordinadora de todas las tareas que ha de realizar la computadora. Asimismo, se encarga de manejar todas las órdenes que la computadora necesita para realizar la ejecución de las operaciones requeridas por los programas de aplicación.

Unidad central :
La Unidad Central de Proceso es el lugar donde se realizan las operaciones de cálculo y control de los componentes que forman la totalidad del conjunto del sistema informático.




Tipos de Memoria


RAM: (Random Access Memory) Es una zona de almacenamiento temporal, entre cuyas características están ser de lectura y escritura, pudiéndose acceder a la información aquí almacenada, con el objeto de modificarla. Se le considera reutilizable. Es volátil, reteniendo la información basándose en energía eléctrica. Al apagarse el computador, todo lo contenido se pierde.

 ROM: (Read Only Memory) Es permanente, ya que lo que permanece en la ROM no se pierde aunque el computador se apague.Su función principal es guardar información inicial que el computador necesita para colocarse en marcha una vez que se enciende. Solo sirve para leer. Se puede leer la información desde esta memoria y no recibir información.

CACHE: Tiene la información que el procesador ocupara a continuación.

Placa Base.

La placa base es el esqueleto de nuestro ordenador. En sus ranuras van fijados todos los demás componentes, y su calidad influirá sustancialmente en la velocidad del equipo, además de las posibilidades del equipo.



Tipos de placas base

En los ordenadores actuales existen seis tipos básicos de placas base, en función de la CPU: Socket 7, Socket 8, Super 7, Slot 1, Slot 2 y Socket 370. Las placas Socket 7 albergan los procesadores Pentium, K5 de AMD, 6x86 de Cyrix y Winchip C6 de IDT; ya no se venden, pues carecen de las interfaces más utilizadas en la actualidad, como el bus AGP y el puerto USB. Estos dos estándares se incorporan en las placas Super 7, también compatibles Pentium y K6. 
Las placas Socket 8, muy escasas, albergan los extinguidos procesadores Pentium Pro. Las placas Slot 1 son necesarias para suministrar soporte a los Pentium II/III y Celeron, y suelen disponer del formato ATX, que reorganiza la localización de las tarjetas, para que quepa mayor cantidad en el mismo espacio, y se reduzca el cruce de cables internos. Las placas ATX también necesitan una carcasa especial ATX. Una variante son las placas Slot 2, soporte de la versión Xeon del Pentium II, utilizada en servidores profesionales. Finalmente, las placas Socket 370 alojan una versión especial de Celeron, con las mismas prestaciones que el modelo Slot 1, pero más barato para el fabricante.



El Bus y ranuras de expansión.

El bus de la placa base son los canales por donde circulan los datos que van y vienen del microprocesador. Con la aparición de microprocesadores muy rápidos se desperdiciaba parte de su potencia debido a que el bus hacía de cuello de botella, atascando los datos y haciendo esperar al microprocesador a que estuvieran disponibles los datos. Tras el tradicional bus ISA de 8 MHz han surgido otras alternativas como el Vesa Local Bus y el PCI, que ampliaban el ancho de banda de 16 hasta 32 bits. El resultado es una mejora en el rendimiento al transferir el doble de información (de 16 a 32 bits) en una misma operación. 

Las placas más modernas soportan una velocidad del bus que varía entre los 50 y los 100 MHz, en función del procesador utilizado. Otros valores intermedios son 66, 75 o 112 MHz, por ejemplo. La placa también incorpora distintos multiplicadores: 2x, 3x, etc. Valores superiores a 5x comienzan a ser imprescindibles. Estos dos datos se utilizan para soportar todo tipo de procesadores. A mayor número de velocidades del bus y multiplicadores, la placa soportará mayor cantidad de procesadores. Para instalar un Pentium II a 400 MHz, por ejemplo, se configura el bus a 100 MHz y se activa el multiplicador 4x. 100x4=400 MHz. Un Pentium a 200 MHz se configura con un bus a 66 MHz y un multiplicador 3x. 66x3=198 MHz.


AGP

Este nuevo bus es capaz de paliar el cuello de botella que existe entre el microprocesador y la tarjeta gráfica.
Hemos de tener en cuenta que el actual bus PCI va a 33 MHz. (132 Mb/s máximo), una velocidad bastante inferior a la del microprocesador. AGP incorpora un nuevo sistema de transferencia de datos a más velocidad, gracias al uso  de la memoria principal del PC. Las placas base que lo soportan (sólo contienen 1 slot de este tipo) son las de Pentium II con chipset de Intel 440LX AGPset y 440BX. Ya están apareciendo las placas base Super 7, con el fin de hacer el estándar compatible con procesadores que van conectados con el zócalo Socket 7, tales como los Pentium, Pentium MMX y los procesadores de AMD y Cyrix.


PCI

La tecnología PCI fue desarrollada por Intel para su microprocesador Pentium, pero se extendió hasta las placas para 486 (sobre todo las de la última generación que soportaban 486DX4). El funcionamiento es similar al del bus VESA. La diferencia es que todos los slots de expansión se conectan al microprocesador indirectamente a través de una circuitería que controla las transferencias. Este diseño permite conectar (teóricamente) hasta 10 placas de expansión en PCI.



La Bios

Es una memoria especial que contiene las rutinas necesarias para que el ordenador funcione correctamente y gestione las operaciones de entrada y salida de datos, de ahí su nombre BIOS, Basic Input/Output System (Sistema básico de entrada/salida).


Los Zócalos y la Memoria RAM

La memoria es el almacén temporal de datos y código ejecutable que utiliza el ordenador. La memoria RAM es volátil, esto quiere decir que cuando se apaga el ordenador, toda la información almacenada se pierde. En las placas de Pentium II VX y TX, y en las Placas Pentium II, la RAM va en pequeñas placas llamadas DIMM, de 168 contactos, cuyas capacidades oscilan entre 16 y 128 Mb. cada una. 
Hasta hace poco eran las placas SIMM (Single In-line Memory Module) de 30 y 72 contactos, con capacidades entre 256 Kb y 32 Mb cada uno. Para insertar estas plaquitas hay en la placa base unos slots del mismo tamaño donde se insertan. Pueden insertarse de dos maneras: encajándolas directamente o insertándolas en sentido inclinado y después girándolas hacia arriba hasta que encajan completamente con los pivotes
.


La Memoria Caché

La memoria caché es una memoria especial de acceso muy rápido. Almacenar los datos y el código utilizados en las últimas operaciones del procesador. Habitualmente el ordenador realiza la misma operación repetidas veces seguidas. Si en lugar de, por ejemplo, leer del disco cada una de las veces que realiza la operación lee de la memoria se incrementa la velocidad de proceso un 1.000.000 veces, es la diferencia de nanosegundos a milisegundos que son los tiempos de acceso a memoria y a disco respectivamente.
 Las placas base generalmente tienen instalada la memoria caché en unos zócalos para poder ampliarla. La configuración más usual es la de 512 Kb en la actualidad, pero puede haber configuraciones de 1 Mb o 2 Mb en algunas placas (hoy día sólo en los procesadores tipo Pentium (Pentium MMX, K6-x), ya que el Pentium II/II y el K7 la llevan integrada dentro de él).
A la hora de la verdad, el rendimiento no es tan grande en los módulos Pipeline de las placas Pentium. Aunque por 3.000 ptas, no es mala idea incrementar la caché de 256 a 512 Kb en las placas Pentium más antiguas.
 El chipset


El juego de chips de una placa, o chipset, es posiblemente su componente integrado más importante, ya que controla el modo de operación de la placa e integra todas sus funciones, por lo que podemos decir que determina el rendimiento y características de la misma. Determina lo que puede hacer el ordenador, desde el soporte para varias CPU, hasta la velocidad del bus o el tipo de memoria que se puede utilizar. 
Es el encargado de comunicar entre sí a todos los componentes de la placa, y los periféricos. Una placa puede disponer de zócalos DIMM, pero si el chipset incluido no los soporta, no podrán utilizarse. Intel fabrica los modelos oficiales para sus procesadores, aunque otras marcas como VIA, SUS o ALI fabrican clónicos a un precio más reducido.


Periféricos

En informatica, se denomina periféricos a los aparatos o dispositivos auxiliares e independientes conectados a la unidad central de procesamiento de una computadora.

Se consideran periféricos tanto a las unidades o dispositivos a través de los cuales la computadora se comunica con el mundo exterior, como a los sistemas que almacenan o archivan la información, sirviendo de memoria auxiliar de la memoria principal
Se entenderá por periférico al conjunto de dispositivos que, sin pertenecer al núcleo fundamental de la computadora, formado por la CPU y la memoria central, permitan realizar operaciones de entrada/salida (E/S) complementarias al proceso de datos que realiza la CPU. Estas tres unidades básicas en un computador, CPU, memoria central y el subsistema de E/S, están comunicadas entre sí por tres buses o canales de comunicación:
el bus de direcciones, para seleccionar la dirección del dato o del periférico al que se quiere acceder,
el bus de control, básicamente para seleccionar la operación a realizar sobre el dato (principalmente lectura, escritura o modificación) y
el bus de datos, por donde circulan los datos.

Tipos de periféricos
Los periféricos pueden clasificarse en 5 categorías principales:
Periféricos de entrada: captan, y digitalizan los datos de ser necesario, introducidos por el usuario o por otro dispositivo y los envían al ordenador para ser procesados.
Periféricos de salida: son dispositivos que muestran o proyectan información hacia el exterior del ordenador. La mayoría son para informar, alertar, comunicar, proyectar o dar al usuario cierta información, de la misma forma se encargan de convertir los impulsos eléctricos en información legible para el usuario. Sin embargo, no todos de este tipo de periféricos es información para el usuario.
Periféricos de entrada/salida (E/S): sirven básicamente para la comunicación de la computadora con el medio externo.
Los periféricos de entrada/salida son los que utiliza el ordenador tanto para mandar como para recibir información. Su función es la de almacenar o guardar de forma permanente o virtual todo aquello que hagamos con el ordenador para que pueda ser utilizado por los usuarios u otros sistemas.
Son ejemplos de periférico de entrada/salida o de almacenamiento:
Disco duro
Grabadora y/o lector de CD
Grabadora y/o lector de DVD
Impresora
Memoria flash
Cintas magnéticas
Memoria portátil
Disquete
Pantalla táctil
Casco virtual
Grabadora y/o lector de CD
Grabadora y/o lector de DVD
Grabadora y/o lector de Blu-ray
Grabadora y/o lector de HD-DVD
Periféricos de almacenamiento: son los dispositivos que almacenan datos e informacion por bastante tiempo. La memoria de acceso aleatorio no puede ser considerada un periférico de almacenamiento, ya que su memoria es volátil y temporal.
Periféricos de comunicación: son los periféricos que se encargan de comunicarse con otras máquinas o computadoras, ya sea para trabajar en conjunto, o para enviar y recibir información.
Periféricos de entrada
Son los que permiten introducir datos externos a la computadora para su posterior tratamiento por parte de la CPU. Estos datos pueden provenir de distintas fuentes, siendo la principal un ser humano. Los periféricos de entrada más habituales son:

Periféricos de salida
Son los que reciben información que es procesada por la CPU y la reproducen para que sea perceptible por el usuario. Algunos ejemplos son:

Periféricos de almacenamiento
Se encargan de guardar los datos de los que hace uso la CPU para que ésta pueda hacer uso de ellos una vez que han sido eliminados de la memoria principal, ya que ésta se borra cada vez que se apaga la computadora. Pueden ser internos, como un disco duro, o extraíbles, como un CD. Los más comunes son:
Unidad de CD
Unidad de DVD
Unidad de Blu-ray Disc
Memoria portátil

Funcionamiento de la Memoria RAM


La memoria principal o RAM
Acrónimo de Random Access Memory, (Memoria de Acceso Aleatorio) es donde el ordenador guarda los datos que está utilizando en el momento presente. Se llama de acceso aleatorio porque el procesador accede a la información que está en la memoria en cualquier punto sin tener que acceder a la información anterior y posterior. Es la memoria que se actualiza constantemente mientras el ordenador está en uso y que pierde sus datos cuando el ordenador se apaga.
Es una memoria dinámica, lo que indica la necesidad de “recordar” los datos a la memoria cada pequeños periodos de tiempo, para impedir que esta pierda la información. Eso se llama Refresco. Cuando se pierde la alimentación, la memoria pierde todos los datos. “Random Access”, acceso aleatorio, indica que cada posición de memoria puede ser leída o escrita en cualquier orden. Lo contrario seria el acceso secuencial, en el cual los datos tienen que ser leídos o escritos en un orden predeterminado.

Tipos de memorias RAM



DRAM: acrónimo de “Dynamic Random Access Memory”, o simplemente RAM ya que es la original, y por tanto la más lenta.
Usada hasta la época del 386, su velocidad de refresco típica es de 80 ó 70 nanosegundos (ns), tiempo éste que tarda en vaciarse para poder dar entrada a la siguiente serie de datos. Por ello, la más rápida es la de 70 ns. Físicamente, aparece en forma de DIMMs o de SIMMs, siendo estos últimos de 30 contactos.

FPM (Fast Page Mode)
 A veces llamada DRAM, puesto que evoluciona directamente de ella, y se usa desde hace tanto que pocas veces se las diferencia. Algo más rápida, tanto por su estructura (el modo de Página Rápida) como por ser de 70 ó 60 ns. Es lo que se da en llamar la RAM normal o estándar. Usada hasta con los primeros Pentium, físicamente aparece como SIMMs de 30 ó 72 contactos (los de 72 en los Pentium y algunos 486).

EDO o EDO-RAM: Extended Data Output-RAM.
 Evoluciona de la FPM. Permite empezar a introducir nuevos datos mientras los anteriores están saliendo (haciendo su Output), lo  que la hace algo más rápida (un 5%, más o menos). Mientras que la memoria tipo FPM sólo podía acceder a un solo byte (una instrucción o valor) de información de cada vez, la memoria EDO permite mover un bloque completo de memoria a la caché interna del procesador para un acceso más rápido por parte de éste. La  estándar se encontraba con refrescos de 70, 60 ó 50 ns. Se instala sobre todo en SIMMs de 72 contactos, aunque existe en forma de DIMMs de 168.
La ventaja de la memoria EDO es que mantiene los datos en la salida hasta el siguiente acceso a memoria. Esto permite al procesador ocuparse de otras tareas sin tener que atender a la lenta memoria. Esto es, el procesador selecciona la posición de memoria, realiza otras tareas y cuando vuelva a consultar la DRAM los datos en la salida seguirán siendo válidos. Se presenta en módulos SIMM de 72 contactos (32 bits) y módulos DIMM de 168 contactos (64 bits).

SDRAM: Sincronic-RAM. Es un tipo síncrono de memoria, que, lógicamente, se sincroniza con el procesador, es decir, el procesador puede obtener información en cada ciclo de reloj, sin estados de espera, como en el caso de los tipos anteriores. Sólo se presenta en forma de DIMMs de 168 contactos; es la opción para ordenadores nuevos.

SDRAM funciona de manera totalmente diferente a FPM o EDO. DRAM, FPM y EDO transmiten los datos mediante señales de control, en la memoria SDRAM el acceso a los datos esta sincronizado con una señal de reloj externa.
La memoria EDO está pensada para funcionar a una velocidad máxima de BUS de 66 Mhz, llegando a alcanzar 75MHz y 83 MHz. Sin embargo, la memoria SDRAM puede aceptar velocidades de BUS de hasta 100 MHz, lo que dice mucho a favor de su estabilidad y ha llegado a alcanzar velocidades de 10 ns. Se presenta en módulos DIMM de 168 contactos (64 bits).

PC-100 DRAM: Este tipo de memoria, en principio con tecnología SDRAM, aunque también la habrá EDO. La especificación para esta memoria se basa sobre todo en el uso no sólo de chips de memoria de alta calidad, sino también en circuitos impresos de alta calidad de 6 o 8 capas, en vez de las habituales 4; en cuanto al circuito impreso este debe cumplir unas tolerancias mínimas de interferencia eléctrica; por último, los ciclos de memoria también deben cumplir unas especificaciones muy exigentes. De cara a evitar posibles confusiones, los módulos compatibles con este estándar deben estar identificados así: PC100-abc-def.

BEDO (burst Extended Data Output): Fue diseñada originalmente para soportar mayores velocidades de BUS. Al igual que la memoria SDRAM, esta memoria es capaz de transferir datos al procesador en cada ciclo de reloj, pero no de forma continuada, como la anterior, sino a ráfagas (bursts), reduciendo, aunque no suprimiendo totalmente, los tiempos de espera del procesador para escribir o leer datos de memoria.

 RDRAM: (Direct Rambus DRAM). Es un tipo de memoria de 64 bits que puede producir ráfagas de 2ns y puede alcanzar tasas de transferencia de 533 MHz, con picos de 1,6 GB/s. Pronto podrá verse en el mercado y es posible que tu próximo equipo tenga instalado este tipo de memoria. Es el componente ideal para las tarjetas gráficas AGP, evitando los cuellos de botella en la transferencia entre la tarjeta gráfica y la memoria de sistema durante el acceso directo a memoria (DIME) para el almacenamiento de texturas gráficas. Hoy en día la podemos encontrar en las consolas NINTENDO 64.

DDR SDRAM: (Double Data Rate SDRAM o SDRAM-II). 
Funciona a velocidades de 83, 100 y 125MHz, pudiendo doblar estas velocidades en la transferencia de datos a memoria. En un futuro, esta velocidad puede incluso llegar a triplicarse o cuadriplicarse, con lo que se adaptaría a los nuevos procesadores. Este tipo de memoria tiene la ventaja de ser una extensión de la memoria SDRAM, con lo que facilita su implementación por la mayoría de los fabricantes.

SLDRAM
Funcionará a velocidades de 400MHz, alcanzando en modo doble 800MHz, con transferencias de 800MB/s, llegando a alcanzar 1,6GHz, 3,2GHz en modo doble, y hasta 4GB/s de transferencia. Se cree que puede ser la memoria a utilizar en los grandes servidores por la alta transferencia de datos.

ESDRAM
Este tipo de memoria funciona a 133MHz y alcanza transferencias de hasta 1,6 GB/s, pudiendo llegar a alcanzar en modo doble, con una velocidad de 150MHz hasta 3,2 GB/s. La memoria FPM (Fast Page Mode) y la memoria EDO también se utilizan en tarjetas gráficas, pero existen además otros tipos de memoria DRAM, pero que SÓLO de utilizan en TARJETAS GRÁFICAS, y son los siguientes:

MDRAM (Multibank DRAM)
Es increíblemente rápida, con transferencias de hasta 1 GIGA/s, pero su coste también es muy elevado.

SGRAM (Synchronous Graphic RAM)
 Ofrece las sorprendentes capacidades de la memoria SDRAM para las tarjetas gráficas. Es el tipo de memoria más popular en las nuevas tarjetas gráficas aceleradoras 3D.
VRAM
Es como la memoria RAM normal, pero puede ser accedida al mismo tiempo por el monitor y por el procesador de la tarjeta gráfica, para suavizar la presentación gráfica en pantalla, es decir, se puede leer y escribir en ella al mismo tiempo.

WRAM (Window RAM)
Permite leer y escribir información de la memoria al mismo tiempo, como en la VRAM, pero está optimizada para la presentación de un gran número de colores y para altas resoluciones de pantalla. Es un poco más económica que la anterior. Para procesadores lentos, por ejemplo el 486, la memoria FPM era suficiente. Con procesadores más rápidos, como los Pentium de primera generación, se utilizaban memorias EDO. Con los últimos procesadores Pentium de segunda y tercera generación, la memoria SDRAM es la mejor solución. La memoria más exigente es la PC100 (SDRAM a 100 MHz), necesaria para montar un AMD K6-2 o un Pentium a 350 MHz o más. Va a 100 MHz en vez de los 66 MHZ usuales. 

Funcionamiento de la memoria de Almacenamiento Masivo.

Una de las partes más importantes del sistema de una computadora son los dispositivos que permiten guardar los resultados de los trabajos realizados. Los componentes físicos o materiales en los cuales se almacena la información se denominan medios  de almacenamiento.Los medios de almacenamiento han evolucionado en forma notable desde las primeras computadoras y este ritmo se ha acelerado con la introducción de las PC. Aun cuando la búsqueda incesante de mayor capacidad de almacenamiento ha mejorado el desarrollo de muchas tecnologías y dispositivos nuevos, el disco duro sigue siendo el almacén del mundo PC.

Son los dispositivos físicos magnéticos en que se almacena información en forma permanente, con el objeto de recuperara posteriormente. Cintas magnéticas: Sistema de almacenamiento antiguo. Su apariencia era parecida a las cintas de vídeo o a cintas de film. Disquetes: Son unidades magnéticas de 31/2 (pulgadas) y que en ellos se almacenan hasta 1.44 Mb (Megabyte) de información, pudiéndose decir que es igual a 1.474 Kb (Kilobyte). Son borrables y reutilizables, pudiéndose escribir varias veces sobre la información almacenada anteriormente. Disco duro: Disco metálico que se encuentra en el interior del computador donde se almacena mucha información (programas, datos numéricos, documentos, etc.). Se puede decir que es la bodega del computador. CD ROM: Son discos compactos que se graban por medio del láser. Son regrabables ya la mayoría de ellos. Aceptan gran cantidad de información.

Semana : 3
Funcionamientos de la Memoria Cache


Una memoria caché es una memoria en la que se almacenas una serie de datos para su rápido acceso. Existen muchas memorias caché (de disco, de sistema, incluso de datos, como es el caso de la caché de Google), pero en este tutorial nos vamos a centrar en la caché de los procesadores.Básicamente, la memoria caché de un procesador es un tipo de memoria volátil (del tipo RAM), pero de una gran velocidad. Hay tres tipos diferentes de memoria caché para procesadores:

Caché de 1er nivel (L1): Esta caché está integrada en el núcleo del procesador, trabajando a la misma velocidad que este. La cantidad de memoria caché L1 varía de un procesador a otro, estando normalmente entra los 64KB y los 256KB. Esta memoria suele a su vez estar dividida en dos partes dedicadas, una para instrucciones y otra para datos.

Caché de 2º nivel (L2): Integrada también en el procesador, aunque no directamente en el núcleo de este, tiene las mismas ventajas que la caché L1, aunque es algo más lenta que esta. La caché L2 suele ser mayor que la caché L1, pudiendo llegar a superar los 2MB. A diferencia de la caché L1, esta no está dividida, y su utilización está más encaminada a programas que al sistema.

Caché de 3er nivel (L3): Es un tipo de memoria caché más lenta que la L2, muy poco utilizada en la actualidad. En un principio esta caché estaba incorporada a la placa base, no al procesador, y su velocidad de acceso era bastante más lenta que una caché de nivel 2 o 1, ya que si bien sigue siendo una memoria de una gran rapidez (muy superior a la RAM, y mucho más en la época en la que se utilizaba), depende de la comunicación entre el procesador y la placa base. Para hacernos una idea más precisa de esto, imaginemos en un extremo el procesador y en el otro la memoria RAM. Pues bien, entre ambos se encuentra la memoria caché, más rápida cuanto más cerca se encuentre del núcleo del procesador (L1).


Funcionamientos  de los Registros del Procesador



Los Registros son un medio de ayuda a las operaciones realizadas por la unidad de control y la unidad aritmética y lógica. Permiten almacenar información, temporalmente, para facilitar la manipulación de los datos por parte de la CPU.

Realizando una similitud con el resto del sistema informático, los registros son a la CPU como la memoria principal es a la computadora.

Los registros se dividen en tres grupos principales:

• Registros de Propósito General.
• Registros de Segmento de Memoria.
• Registros de Instrucciones.

Seguidamente se presenta una relación completa de los tres grupos de registros que contiene un microprocesador típico como puede ser el Intel 80386:

Registros de Propósito General:

(AX)   Registro de Datos
(DX)   Registro de Datos
(CX)   Registro de Datos
(BX)   Registro de Datos
(BP)    Registro Puntero Base
(SI)    Registro Índice Fuente
(DI)    Registro Índice Destino
(SP)    Registro Puntero de la Pila

Registros de Segmento de Memoria:

(CS)    Registro Segmento de Código
(SS)    Registro Segmento de la Pila
(DS)   Registro Segmento de Datos
(ES)    Registro Segmento de Datos Extra
(DS)   Registro Segmento de Datos Extra
(ES)    Registro Segmento de Datos Extra

Registros de Instrucciones

(FL) Registro de «Flags» o también denominado registro de estado
(IP) Registro Puntero de Instrucción o también denominado registro Contador de Programa (PC)

De esta relación de registros los cuatro más importantes son:

• El Registro Puntero de Instrucciones.


El registro puntero de instrucciones o contador de programa indica el flujo de las instrucciones del proceso en realización, apuntando a la dirección de memoria en que se encuentra la instrucción a ejecutar.

Dado que las instrucciones de un programa se ejecutan de forma secuencial, el procesador incrementará en una unidad este registro cada vez que ejecute una instrucción, para que apunte a la siguiente.

La información que almacena este registro se puede modificar cuando una interrupción externa, o la propia ejecución del proceso en curso, provoquen una alteración en la secuencia de operaciones. Esta alteración transferirá el control del sistema informático a otro proceso diferente al que está en ejecución.

• El Registro Acumulador.

Es el Registro donde se almacenan los resultados obtenidos en las operaciones realizadas por la unidad aritmética y lógica.
Su importancia radica en las características de la información que almacena, ya que con su contenido se realizan todas las operaciones de cálculo que ha de ejecutar la unidad aritmética y lógica.

El registro de Estado.

El Registro de Estado o registro de «flags»  no es un solo registro propiamente dicho, ya que se compone de varios registros de menor tamaño; este tamaño puede ser incluso de un solo bit.

El registro de estado se utiliza para indicar cambios de estados y condiciones en los otros registros existentes en el sistema informático. Estos cambios en la situación de los demás registros se producen debido a las modificaciones del entorno a lo largo de la ejecución de los procesos realizados por el sistema informático.

El Registro Puntero de la Pila.


Este Registro almacena la dirección de la zona de la memoria donde está situada la parte superior de la pila.

La Pila es una zona de los registros de segmento de memoria que la unidad aritmética y lógica utiliza para almacenar temporalmente los datos que está manipulando. Cuando la cantidad de datos a manejar es demasiado grande u otras necesidades del proceso impiden que estos datos puedan almacenarse en los registros creados para ello se envían a la pila, donde se almacenan hasta que la unidad de control recupera la información para que la procese la unidad aritmética y lógica.

Funcionamiento de los Buses de Datos, Dirección y Control

El Bus es la vía a través de la que se van a transmitir y recibir todas las comunicaciones, tanto internas como externas, del sistema informático.

El bus es solamente un Dispositivo de Transferencia de Información entre los componentes conectados a él, no almacena información alguna en ningún momento.

Los datos, en forma de señal eléctrica, sólo permanecen en el bus el tiempo que necesitan en recorrer la distancia entre los dos componentes implicados en la transferencia.

En una unidad central de sistema típica el bus se subdivide en tres buses o grupos de líneas.
• Bus de Direcciones.
• Bus de Datos.
• Bus de Control.

Bus de Direcciones

Es un canal de comunicaciones constituido por líneas que apuntan a la dirección de memoria que ocupa o va a ocupar la información a tratar.
Una vez direccionada la posición, la información, almacenada en la memoria hasta ese momento, pasará a la CPU a través del bus de datos.

Para determinar la cantidad de memoria directamente accesible por la CPU, hay que tener en cuenta el número de líneas que integran el bus de direcciones, ya que cuanto mayor sea el número de líneas, mayor será la cantidad de direcciones y, por tanto, de memoria a manejar por el sistema informático.

Bus de Datos
El bus de datos es el medio por el que se transmite la instrucción o dato apuntado por el bus de direcciones.

Es usado para realizar el intercambio de instrucciones y  datos tanto internamente, entre los diferentes componentes del sistema informático, como externamente, entre el sistema informático y los diferentes subsistemas periféricos que se encuentran en el exterior.
Una de las características principales de una computadora es el número de bits que puede transferir el bus de datos (16, 32, 64, etc.). Cuanto mayor sea este número, mayor será la cantidad de información que se puede manejar al mismo tiempo.

Bus de Control
Es un número variable de líneas a través de las que se controlan las unidades complementarias.

El número de líneas de control dependerá directamente de la cantidad que pueda soportar el tipo de CPU utilizada y de su capacidad de direccionamiento de información.



Sistemas Numéricos
Digito: Es un signo que representa una cantidad contable. Dependiendo del sistema de numeración, serán los diferentes signos que se tenga para representar cualquier cantidad.

Numero: Es la representación de una cantidad contable por medio de uno o más dígitos.
Sistema de Numeración: Es un conjunto de dígitos que sirven para representar una cantidad contable.

Sistema Numérico Octal o Base 8

El sistema de numeración octal es también muy usado en la computación por tener una base que es potencia exacta de 2 o de la numeración binaria. Esta característica hace que la conversión a binario o viceversa sea bastante simple. El sistema octal usa 8 dígitos (0,1,2,3,4,5,6,7) y tienen el mismo valor que en el sistema de numeración decimal.



Sistema Numérico Decimal o Base 10


El sistema de numeración decimal es el más usado, tiene como base el número 10, o sea que posee 10 dígitos (o símbolos) diferentes (0, 1, 2, 3, 4, 5, 6, 7, 8, 9). El sistema de numeración decimal fue desarrollado por los hindúes, posteriormente lo introducen los árabes en Europa, donde recibe el nombre de sistema de numeración decimal o arábigo.





Sistema Hexadecimal

El sistema Hexadecimal (no confundir con sistema sexagesimal), a veces abreviado como Hex, es el sistema de numeración de base 16 —empleando por tanto 16 símbolos—. Su uso actual está muy vinculado a la informática y ciencias de la computación, pues los computadores suelen utilizar el byte u octeto como unidad básica de memoria; y, debido a que un byte representa 28 valores posibles
En principio, dado que el sistema usual de numeración es de base decimal y, por ello, sólo se dispone de diez dígitos, se adoptó la convención de usar las seis primeras letras del alfabeto latino para suplir los dígitos que nos faltan. El conjunto de símbolos sería, por tanto, el siguiente:
S = {0,1,2,3,4,5,6,7,8,9,A,B,C,D,E,F}

Se debe notar que A = 10, B = 11, C = 12, D = 13, E = 14 y F = 15. En ocasiones se emplean letras minúsculas en lugar de mayúsculas. Como en cualquier sistema de numeración posicional, el valor numérico de cada dígito es alterado dependiendo de su posición en la cadena de dígitos, quedando multiplicado por una cierta potencia de la base del sistema, que en este caso es 16. Por ejemplo: 3E0A16 = 3×163 + E×162 + 0×161 + A×160 = 3×4096 + 14×256 + 0×16 + 10×1 = 15882.
El sistema hexadecimal actual fue introducido en el ámbito de la computación por primera vez por IBM en 1963. Una representación anterior, con 0–9 y u–z, fue usada en 1956 por la computadora Bendix G-15.


Código Binario.
El código binario es el sistema de representación de textos, o procesadores de instrucciones de ordenador utilizando el sistema binario (sistema numérico de dos dígitos, o bit: el "0" y el "1"). En informática y telecomunicaciones, el código binario se utiliza con variados métodos de codificación de datos, tales como cadenas de caracteres, o cadenas de bits. Estos métodos pueden ser de ancho fijo o ancho variable.
En un código binario de ancho fijo, cada letra, dígito, u otros símbolos, están representados por una cadena de bits de la misma longitud, como un número binario que, por lo general, aparece en las tablas en notación octal, decimal o hexadecimal.
Según Anton Glaser, en su History of Binary and other Nondecimal Numeration, comenta que los primeros códigos binarios se utilizaron en el año 1932: C.E. Wynn-Williams ("Scale of Two"), posteriormente en 1938: Atanasoff-Berry Computer, y en 1939: Stibitz ("excess three") el código enComplex Computer.

Conversión entre Sistemas Numéricos.

CONVERSIÓN DE UN NUMERO DECIMAL A BINARIO


Para esta transformación es necesario tener en cuenta los pasos que mostraremos en el siguiente ejemplo: Transformemos el numero 42 a numero binario
1. Dividimos el número 42 entre 2
2. Dividimos el cociente obtenido por 2 y repetimos el mismo procedimiento hasta que el cociente sea 1.

3. El numero binario lo formamos tomando el primer dígito el ultimo cociente, seguidos por los residuos obtenidos en cada división, seleccionándolos de derecha a izquierda, como se muestra en el siguiente esquema.

CONVERSIÓN DE UN NUMERO DECIMAL FRACCIONARIO A UN NUMERO BINARIO

Para transformar un número decimal fraccionario a un numero binario debemos seguir los pasos que mostramos en el siguiente ejemplo: transformemos el numero 42,375.

1. la parte entera se transforma de igual forma que el ejemplo anterior.

2. La parte fraccionaria de la siguiente manera:

Multiplicamos por el numero 2 y tomamos la parte entera del producto que ira formando el numero binario correspondiente

Tomamos nuevamente la parte entera del producto, y la parte fraccionaria la multiplicamos sucesivamente por 2 hasta llegar a 0

Tomamos nuevamente la parte entera , y como la parte fraccionaria es 0, indica que se ha terminado el proceso.  El numero binario correspondiente a la parte decimal será la unión de todas las partes enteras, tomadas de las multiplicaciones sucesivas realizadas durante el transcurso del proceso , en donde el primer dígito binario corresponde a la primera parte entera , el segundo dígito a la segunda parte entera , y así sucesivamente hasta llegar al último .Luego tomamos el numero binario , correspondiente a la parte entera , y el numero binario , correspondiente a la parte fraccionaria y lo unimos en un solo numero binario correspondiente a el numero decimal.


CONVERSIÓN DE UN NUMERO BINARIO A UN NUMERO DECIMAL

Para convertir un número binario a decimal, realizamos los siguientes pasos:
1. Tomamos los valores de posición correspondiente a las columnas donde aparezcan únicamente unos

2. Sumamos los valores de posición para identificar el numero decimal equivalente

CONVERSIÓN DE UN NUMERO DECIMAL A OCTAL

Para convertir un numero en el sistema decimal al sistema de numeración Octal, debemos seguir los pasos que mostraremos en el siguiente ejemplo Convertir el numero decimal 323.625 a el sistema de numeración Octal

1. Se toma el numero entero y se divide entre 8 repetidamente hasta que el dividendo sea menor que el divisor, para colocar entonces el numero 0 y pasar el dividendo a formar el primer dígito del número equivalente en decimal
2. Se toma la parte fraccionaria del numero decimal y la multiplicamos por 8 sucesivamente hasta que el producto no tenga números fraccionarios

3. Pasamos la parte entera del producto a formar el dígito correspondiente

4. Al igual que los demás sistemas , el número equivalente en el sistema decimal , está formado por la unión del numero entero equivalente y el numero fraccionario equivalente.

CONVERSIÓN DE UN NUMERO OCTAL A BINARIO

La ventaja principal del sistema de numeración Octal es la facilidad con que pueden realizarse la conversión entre un numero binario y octal. A continuación mostraremos un ejercicio que ilustrará la teoría. Por medio de este tipo de conversiones, cualquier numero Octal se convierte a binario de manera individual. En este ejemplo, mostramos claramente el equivalente 100 111 010 en binario de cada numero octal de forma individual.

CONVERSIÓN DE UN NUMERO DECIMAL A UN NUMERO HEXADECIMAL

Convertir el numero 250.25 a Hexadecimal

1. Se toma la parte entera y se divide sucesivamente por el numero decimal 16 (base) hasta que el cociente sea 0
2. Los números enteros resultantes de los cocientes, pasarán a conformar el numero hexadecimal correspondiente, teniendo en cuenta que el sistema de numeración hexadecimal posee solo 16 símbolos, donde los números del 10 hasta el 15 tienen símbolos alfabéticos que ya hemos explicado
3. La parte fraccionaria del numero a convertir se multiplica por 16 (Base) sucesivamente hasta que el producto resultante no tenga parte fraccionaria

4. Al igual que en los sistemas anteriores, el número equivalente se forma, de la unión de los dos números equivalentes, tanto entero como fraccionario, separados por un punto que establece la diferencia entre ellos.

CONVERSIÓN DE UN NUMERO HEXADECIMAL A UN NUMERO DECIMAL

Como en los ejemplos anteriores este también nos ayudará a entender mejor este procedimiento: Convertir el numero hexadecimal 2B6 a su equivalente decimal.


1. Multiplicamos el valor de posición de cada columna por el dígito hexadecimal correspondiente.

2. El resultado del número decimal equivalente se obtiene, sumando todos los productos obtenidos en el paso anterior.



Codificación de caracteres ASCII y UNICODE


Qué es la codificación de caracteres?

Cuando hablamos de codificación de caracteres en informática nos referimos al método que permite convertir un caracter de un lenguaje natural (alfabeto o silabario) en un símbolo de otro sistema de representación, por ejemplo en un número, una secuencia de pulsos eléctricos en un sistema electrónico, octetos aplicando normas o reglas de codificación. Esto con la finalidad de facilitar el almacenamiento de texto en computadoras o para facilitar la transmisión de texto a través de la redes de telecomunicaciones, un ejemplo muy simple puede ser el del código morse.

Convencionalmente juego de caracteres y codificación de caracteres eran considerados sinónimos, por eso se puede defirnir a ambos cómo charset que es un completo sistema de codificación de caracteres en una secuencia de octetos.
Tipos principales de codificación
También son llamadas normas de codificación y definen la forma en la que se codifica un carácter dado en un símbolo en otro sistema de representación, aquí sólo voy a definir los más utilizados:

ASCII

De sus siglas en inglés American Standard Code for Information Interchange (Código Estadounidense Estándar para el Intercambio de Información), pronunciado generalmente [áski], es un código de caracteres basado en el alfabeto latino tal como se usa en inglés moderno y en otras lenguas occidentales. Fue creado en 1963 por el Comité Estadounidense de Estándares (ASA, conocido desde 1969 como el Instituto Estadounidense de Estándares Nacionales, o ANSI) como una refundición o evolución de los conjuntos de códigos utilizados entonces en telegrafía. Más tarde, en 1967, se incluyeron las minúsculas, y se redefinieron algunos códigos de control para formar el código conocido como US-ASCII.

El código ASCII utiliza 7 bits para representar los caracteres, aunque inicialmente empleaba un bit adicional (bit de paridad) que se usaba para detectar errores en la transmisión. A menudo se llama incorrectamente ASCII a otros códigos de caracteres de 8 bits, como el estándar ISO-8859-1 que es una extensión que utiliza 8 bits para proporcionar caracteres adicionales usados en idiomas distintos al inglés, como el español.

Casi todos los sistemas informáticos actuales utilizan el código ASCII o una extensión compatible para representar textos y para el control de dispositivos que manejan texto.
ASCII, como otros códigos de representación de caracteres, especifica una correspondencia entre cadenas de bits y símbolos escritos de la lengua, permitiendo de esta forma la comunicación entre dispositivos digitales así como su procesado y almacenamiento. El código de caracteres ASCII[1] — o una extensión compatible (ver más abajo) — se usa casi en todos los ordenadores, especialmente ordenadores personales y estaciones de trabajo. El nombre más apropiado para este código de caracteres es “US-ASCII”.

! ” # $ % & ‘ ( ) * + , – . / 0 1 2 3 4 5 6 7 8 9 : ; < = > ?
@ A B C D E F G H I J K L M N O P Q R S T U V W X Y Z [ \ ] ^ _
` a b c d e f g h i j k l m n o p q r s t u v w x y z { | } ~

ASCII es, en sentido estricto, un código de siete bits, lo que significa que usa cadenas de bits representables con siete dígitos binarios (que van de 0 a 127 en base decimal) para representar información de caracteres. En el momento en el que se introdujo el código ASCII muchos ordenadores trabajaban con grupos de ocho bits (bytes u octetos), como la unidad mínima de información; donde el octavo bit se usaba habitualmente como bit de paridad con funciones de control de errores en líneas de comunicación u otras funciones específicas del dispositivo. Las máquinas que no usaban la comprobación de paridad asignaban al octavo bit el valor cero en la mayoría de los casos, aunque otros sistemas como las computadoras Prime, que ejecutaban PRIMOS ponían el octavo bit del código ASCII a uno.

El código ASCII define una relación entre caracteres específicos y secuencias de bits; además de reservar unos cuantos códigos de control para el procesador de textos, y no define ningún mecanismo para describir la estructura o la apariencia del texto en un documento; estos asuntos están especificados por otros lenguajes como los lenguajes de etiquetas.

Unicode
Unicode es un estándar industrial cuyo objetivo es proporcionar el medio por el cual un texto en cualquier forma e idioma pueda ser codificado para el uso informático.

El establecimiento de Unicode ha involucrado un ambicioso proyecto para reemplazar los esquemas de codificación de caracteres existentes, muchos de los cuales están muy limitados en tamaño y son incompatibles con entornos multilingües. Unicode se ha vuelto el más extenso y completo esquema de codificación de caracteres, siendo el más dominante en la internacionalización y adaptación local del software informático. 

El estándar ha sido implementado en un número considerable de tecnologías recientes, que incluyen XML, Java y sistemas operativos modernos.
Unicode cubre la mayor parte de las escrituras usadas actualmente, incluyendo: Árabe, Armenio, Bengalí, Birmano, Braille, Sílabas aborígenes canadienses, Cheroqui, Copto, Cirílico, Devanāgarī, Esperanto, Ge’ez, Georgiano, Griego, Guyaratí, Gurmukhi, Hangul (Coreano), Han (Kanji, Hanja y Hanzi), Japonés (Kanji, Hiragana y Katakana), Hebreo, Jémer (Camboyano), Kannada (Canarés), Lao, Latino, Malayalam, Mongol, Oriya, Syriac, Tailandés (Thai), Tamil, Tibetano, Yi, Zhuyin (Bopomofo)

La lógica interna de la mayoría del software de 8 bits permite de forma típica solamente 8 bits para cada carácter, haciendo imposible utilizar más de 256 puntos en código sin procesamiento especial. El software de 16 bits solamente puede guardar poco más de 6 decenas de miles de caracteres. Unicode, por otro lado ha definido más de 90.000 caracteres codificados. Los diseñadores de los sistemas entonces han tenido que sugerir muchos métodos y mecanismos para implementar Unicode; el método implementado depende del espacio de almacenamiento disponible, la compatibilidad de los códigos fuentes y la inter-operatividad con otros sistemas.

Unicode define dos métodos de “mapeo” o de localización de caracteres:

§  La codificación UTF (Unicode Transformation Format) Formato de Transformación Unicode.
§  La codificación UCS (Universal Character Set) Juego de Caracteres Universal.
Las codificaciones incluyen:
§  UTF-7 — una codificación relativamente poco popular de 7 bits, a menudo considerada obsoleta.
§  UTF-8 — una codificacón de 8 bits de longitud variable
§  UCS-2 — una codificación de 16 bits de longitud fija que solamente permite el “mapeo” o la búsqueda en la Plana Básica Multilengüe.
§  UTF-16 — una codificación de 16 bits de longitud variable.
§  UCS-4 y UTF-32 — un par de codificaciones de 32 bits de longitud fija que son funcionalmente idénticas.
§  UTF-EBCDIC — una codificación poco difundida creada para sistemas basados en EBCDIC.

Los números en los nombres de los códigos indican la cantidad de bits de cada carácter (para las codificaciones UTF) o el número de bytes por carácter (para las UCS).
A continuación se describen en el mismo orden algunos detalles sobre cada tipo de codificacón:
UTF-8 utiliza de uno hasta 4 bytes por cada punto de código y, siendo relativamente compacto (para la escritura basada en caracteres latinos) y compatible con ASCII. Proporciona la codificación estándar para el intercambio de texto en Unicode. También es utilizado por las más recientes versiones de Linux como reemplazo a la herencia de códigos en el manejo de textos en general.

Las codificaciones UCS-2 y UTF-16 especifican la BOM o la Marca de Orden de Byte especifica el Unicode para usarlo al principio de los archivos de texto. Algunos desarrolladores de software lo han adoptado para otras codificaciones, incluyendo UTF-8, la cual no necesita una indicación de orden de byte. En este caso intenta marcar el archivo indicando que contiene texto Unicode. El punto código de la BOM, U+FEFF tiene la importante propiedad de la inambigüedad, sin importar la codificación Unicode utilizada. Las unidades FE y FF nunca aparecen en UTF-8; U+FFFE (el resultado del intercambio the U+FEFF) no es igual a un carácter válido, y U+FEFF transporta la longitud-cero o espacio sin roptura (un carácter sin apariencia y sin otro efecto más que prevenir la formación de ligaduras). El mismo carácter convertido a UTF-8 se convierte en la siguiente secuencia de bytes EF BB BF.

En los códigos UTF-32 y UCS-4, un código de 32 bits funciona como una representación directa y confiable de cualquier punto de código de un carácter (aunque la endianness, que varia dependiendo de la arquitectura del procesador de cada computadora, afecta como se manifiesta el valor del código en su secuencia de bits). Aunque en otros casos, cada código puede ser representado por un código de valores de números variables.

UTF-16, mientras tanto, la cual normalmente asigna 16 bits por cada punto de código (la misma que UCS-2) aunque a veces asigna 32, es utilizada por muchas APIs (Interfaz de Programación de Aplicaciones por sus siglas en inglés). Mayormente por razones históricas que datan desde los días en que Unicode estaba basado en UCS-2 o era una interfaz con otras APIs que usaban UTF-16 . UTF-16 es el formato estándar para la API de Windows (aunque el soporte para sustitutos no está habilitado por omisión), para la de Java y la de ambientes .NET bytecode.

UCS-4 y UTF-32 no son comúnmente utilizados, ya que no más de 21 de los 32 bits asignados a cada punto de código serán alguna ves utilizados, lo que si se está volviendo común es la implementación del código UCS-4 en la programación para el almacenamiento interno del texto codificado.

GB18030 es otra forma de codificación para el Unicode, pero proveniente de la Administración para la Estandarización de China.