HISTORIA TECLADO

Además de teletipos y
máquinas de escribir eléctricas como la IBM Selectric, los primeros teclados
solían ser un terminal de computadora que se comunicaba por puerto serial con
la computadora. Además de las normas de teletipo, se diseñó un estándar de
comunicación serie, según el tiempo de uso basado en el juego de caracteres
ANSI, que hoy sigue presente en las comunicaciones por módem y con impresora
(las primeras computadoras carecían de monitor, por lo que solían comunicarse,
o bien por luces en su panel de control, o bien enviando la respuesta a un
dispositivo de impresión). Se usaba para ellos las secuencias de escape, que se
generaban por combinaciones de teclas, siendo una de las más usadas la tecla
Ctrl.
La llegada de la computadora doméstica trae una inmensa
variedad de teclados, tecnologías y calidades (desde los muy reputados por
duraderos del Dragon 32 a la fragilidad de las membranas de los equipos
Sinclair), aunque la mayoría de equipos incorporan la placa madre bajo el teclado,
y es la CPU o un circuito auxiliar (como el chip de sonido General Instrument
AY-3-8910 en los MSX) el encargado de leerlo. Son casos contados los que
recurren o soportan comunicación serial (curiosamente es la tecnología
utilizada en el Sinclair Spectrum 128 para el keypad numérico). Solamente los
MSX establecerán una norma sobre el teclado, y los diferentes clones del TRS-80
seguirán el diseño del clonado.
TIPOS DE TECLADO
Según su forma física
Teclado ergonómico
TECLADO AJUSTABLE DE APPLE.
Diseñados para dar una mayor comodidad para el usuario,
ayudándole a tener una posición más relajada de los brazos.
TECLADO MULTIMEDIA
Añade teclas especiales que llaman a algunos programas en el
computador, a modo de acceso directo, como pueden ser el programa de correo
electrónico, la calculadora, el reproductor multimedia, etc.
TECLADO FLEXIBLE
Estos teclados son de plástico suave o silicona que se puede
doblar sobre sí mismo. Durante su uso, estos teclados pueden adaptarse a
superficies irregulares, y son más resistentes a los líquidos que los teclados
estándar. Estos también pueden ser conectados a dispositivos portátiles y
teléfonos inteligentes. Algunos modelos pueden ser completamente sumergidos en
agua, por lo que hospitales y laboratorios los usan, ya que pueden ser
desinfectados.
TECLADO EN PANTALLA
Teclado en pantalla disponible en un teléfono Android.
Hoy en día existen también los teclados en pantalla, también
llamados teclados virtuales, que son (como su mismo nombre indica) teclados
representados en la pantalla, que se utilizan con el ratón o con un dispositivo
especial (podría ser un joystick). Estos teclados se utilizan mayoritariamente
en los dispositivos móviles como teléfonos, tabletas y PDA. En el mercado hay
una gran variedad de teclados.
TECLADOS DE PROYECCIÓN
Existen teclados de proyección, de igual tamaño que un
teclado estándar pero que utilizan láser. Se pueden conectar por USB, Bluetooth
o Wi-Fi.
EVOLUCIÓN DEL TECLADO
1. El teclado y su evolución. Lambrese Damian Cadelago
Lucas 4º ‘A’
2. 1808ν Giuseppe Pellegrino Turri, logró crear una
máquina de escribir, en base a un servicio que le había encomendado el conde
Fontani.
3. 1867ν Se inventó la Primera máquina usable,
comercial, y primer uso de una teclado estándar. Christopher Sholes, Carlos
Glidden y Samuel W. Soule, inventaron el primer modelo usable, gracias a que
Christopher Sholes le diseño e implemento el famoso teclado con disposición de
teclas tipo QWERTY, no usando el DVORAK.
4. 1970ν se crearon las máquinas de escribir
electrónicas, que contaban con componentes de computador, pero estaban
dedicadas al procesamiento de texto.
5. 1990ν Se finalizó el uso de la máquinas de
escribir, con la llegada de las máquinas de escribir hibridas, parecidas a un
computador, dieron paso a uso del computador.
6. El teclado QWERTYν En 1868 Christopher Sholes
diseño el teclado organizado tipo QWERTYQWERTY Fue el primer diseño creado, y
sumado a ello, fue el primer diseño usado en una máquina de escribir usable.
7. 2002ν Se creó el diseño PLUM que disponía de teclas
organizadas según su uso y también era físicamente distinto. Su finalidad es
minimizar el impacto por esfuerzo repetitivo
8. 2006ν Se creó la distribución Colemak fue
desarrollada por Shai Coleman principalmente para el idioma inglés. Su
característica es que coloca las teclas más usada en donde se colocan los dedos
que presionan más fuertes
La historia del mouse

Desde la década de los 60 hasta la actualidad, el mouse o
ratón pasó de ser una caja pesada hecha de madera, a un accesorio liviano y
ergonómico.
El mouse se convirtió en un dispositivo indispensable para
cualquier tipo de usuario, pero muy pocos saben cómo fue inventado y cuál es su
historia completa.
Para conocer el surgimiento del mismo es necesario
retroceder un poco (bastante) en el tiempo, más precisamente a Canadá, a los
años 50.
Trackball del proyecto Datar
1952: Nace el primer trackball, creado por la Marina
Canadiense
Aproximadamente diez años antes de la creación del primer
mouse, el Comando Marítimo de las Fuerzas Canadienses contactó a varias
empresas que pudieran estar interesadas en participar de varios proyectos que
involucraban a las fuerzas armadas, universidades y compañías privadas.
Uno de esos proyectos pretendía crear una máquina que fuera
capaz de compartir datos de radares y sonoros en tiempo real, para que todos
los combatientes pudieran tener una visión unificada del campo de batalla. Este
proyecto fue conocido como DATAR.
Pero la parte más interesante es que el DATAR incluía un
dispositivo curioso para la época. Los operadores enviaban los datos de los
radares a través de un trackball, una especie de “mouse” en el que, para poder
mover el cursor, bastaba con girar una bola ubicada en el dispositivo.
Claro que este primer trackball no tenía la elegancia y el
peso de los modelos actuales. Para tener una idea, la Marina Canadiense usaba
Una bola del tamaño de una de boliche para la construcción
de ese dispositivo, y como se trataba de un proyecto militar y por lo tanto
secreto, éste trackball nunca fue registrado.
1963: El primer prototipo de mouse,
creado por Douglas Engelbart
De forma independiente, el investigador Douglas Engelbart,
del Instituto de Investigación Stanford, trabajó en un proyecto muy avanzado
para la época en la que vivía. A principio de la década de los 60, la mayoría
de las computadoras todavía eran operadas con tarjetas perforadas y otros
métodos que no permitían la interacción del usuario con la máquina.
Engelbart trabajaba en una máquina que tenía como objetivo
aumentar el intelecto humano. Muchas de las tecnologías que se utilizan en la
actualidad surgieron de ese proyecto, como la interfaz gráfica, los videos y el
chat.
Entre los dispositivos de entrada presentados por Engelbart
en 1968, durante la primera demostración pública de su proyecto, había una
pequeña caja de madera con un botón rojo en la parte superior y un cable que
salía de uno de los lados, simulando de alguna forma, la cola de un ratón. Fue
el primer mouse de la historia.
Mouse de Douglas Engelbart
1970: Fue comercializado el primer modelo de mouse de la
historia.
El “Indicador de posición X-Y para los sistemas con
pantalla”, funcionaba con dos engranajes que registraban las posiciones
horizontales y verticales del cursor.
Algunas semanas después de la presentación de Engelbart, la
empresa alemana Telefunken lanzó un modelo de mouse que tenía una pequeña
esfera de goma en el interior, responsable del registro de las coordenadas.
Aunque el dispositivo formara parte de los componentes de las computadoras de
la marca, ese fue considerado como el primer mouse comercializado de la
historia.
Mouse de Telefunken
1973 – 1981: Los mouses de Xerox
Los siguientes mouses que ganaron el mercado fueron
comercializados con las computadoras personales Xerox, como el Alto, de 1973,
la primer computadora para usar como desktop que poseía una interfaz gráfica
basada en el uso del “ratón”.
Otra máquina que fue famosa por incorporar como parte del
sistema un mouse, fue la Xerox Star, conocida oficialmente como Xerox 8010
Information System.
Esta también fue una de las primeras computadoras en
incorporar otras tecnologías, más comunes en las computadoras actuales, como
redes Ethernet, servidores de archivo y de impresión.
Mouse de la Xerox Alto
1983: El primer mouse de Apple
En 1983, Apple lanzó la famosa computadora Lisa, que incluía
un mouse. Una característica destacada de este modelo es que, en vez de usar
una bolita de goma, el mouse de Lisa usaba una esfera de metal. Este fue el
modelo que estableció el estándar de un único botón para todos los mouses de la
empresa, durante cerca de 20 años.
Mouse de la Apple Lisa
1999: Se estrena el mouse óptico
A pesar de las investigaciones realizadas en 1980 sobre esta
tecnología, fue en 1999 que surgió el primer modelo comercial de este tipo. El
IntelliMouse con IntelliEye, de Microsoft, funcionaba sobre casi cualquier tipo
de superficie y presentó mejoras significativas comparándolos con el mouse
mecánico.
La principal diferencia era el hecho de que la “bolita” del
mouse mecánico fue sustituida por un LED infrarrojo, con la ventaja de que este
modelo no acumulaba suciedad, evitando que el usuario tenga que abrir el
dispositivo para limpiarlo. La serie IntelliMouse fue la primera en incorporar
el scroll Wheel (la rueda de scroll entre los dos botones)
Tiempo después, estos modelos siguieron evolucionando y el
LED fue sustituido por un láser, invadiendo el mercado en 2004.
El Intellimouse de Microsoft
Otros modelos de mouse
La evolución de los mouses no termina ahí, actualmente los
mouses incorporaron giróscopos, lo que permite que no sea necesario utilizarlos
sobre una superficie física y plana. Estos tipos de modelos requieren sólo algunos
pequeños movimientos para que el cursor se mueva, reduciendo de esta manera el
cansancio físico causado por arrastrar el mouse durante todo el día.
Otra innovación son los llamados mouses 3D, desarrollados
especialmente para la la edición y navegación de imágenes en tres dimensiones,
aunque no se limitan solamente a ese tipo de uso.
También surgieron nuevos modelos, a los cuales se les puede
añadir efectos que generan sensaciones, como por ejemplo, hacer que el
dispositivo vibre al estar el cursor sobre algún elemento gráfico.
Es necesario mencionar un dispositivo como el Kinect, de
Xbox 360, el cual puede servir de guía para el desarrollo de los mouses del
futuro, en donde, no sea necesario tomar con la mano ningún elemento para mover
el cursor.

EL PRIMER INVENTOR DEL MOUSE fue Douglas Engelbart en el año 1961.
Ante la base ancha y el cable largo que se asemejaba a la
cola de un roedor, decidieron llamarlo MOUSE (ratón en inglés).
Fue un equipo de la Universidad de Stanford quienes desde un
principio, ante la base ancha y el cable largo que se asemejaba a la cola de un
roedor, decidieron llamarlo MOUSE (ratón en inglés).
EL
SEGUNDO MOUSE:
Este es el modelo
Apple desktop creada y actualizada por Engelbart.
Sus características son cuadradas y solo tienen un solo
cuadro en la parte superior.
Su funcionamiento es igual al actual lo que cambia es el
modelo.
EL TERCER MOUSE:
Pues parece que el mismo hombre siguió transformando este
dispositivo, Douglas Engelbart creó el dispositivo que cambió la historia de la
PC.
Es un dispositivo apuntador, generalmente fabricado en
plástico. Se utiliza con una de las manos del usuario y detecta su movimiento
relativo en dos dimensiones por la superficie plana en la que se apoya.
EL CUARTO MOUSE:
En las primeras pruebas del ratón probaron con una pelota
grande y pesada y aparatos con ejes centrales. Contaban con un panel bastante
ligero que se sostenía al lado de la pantalla y con un control movible para
manejar las cosas. Pero pronto comprobaron que en rapidez y precisión, aquello
que comenzaron a llamar ratón, se llevaba la palma. Así, el primer modelo
desarrollado por Engelbart y su compañero de faenas Bill English, fue
construido de forma artesanal con materiales tan simples como la madera o una
moneda, pero su funcionamiento es prácticamente idéntico al de los ratones
actuales.
es un elemento imprescindible en un equipo informático para
la mayoría de las personas, y pese a la aparición de otras tecnologías con una
función similar, como la pantalla táctil, la práctica ha demostrado que tendrá
todavía muchos años de vida útil. No obstante, en el futuro podría ser posible
mover el cursor o el puntero con los ojos o basarse en el reconocimiento de
voz.
EL QUINTO MOUSE:
Con la combinación de soporte económico de AFOSR y SRI , el
Dr. Engelbart tuvo la posibilidad de desarrollar su investigación a tiempo
completo este modelo.
El Dr. Engelbart consideraba que la complejidad de los
problemas enfrentados por el ser humano habían crecido más rápido que la habilidad
para resolverlos.
En su reporte, Engelbart proporcionó al lector de una
comprensión futurística de la era de la computación. Él tuvo la visión de
desarrollar un dispositivo auxiliar que cumpla con estos objetivos, el trabajar
con información en una pantalla a través de él.
EL SEXTO MOUSE:
El MOUSE, inventado por Douglas Engelbart en el Stanford
Research center en 1963, e impulsado por Xerox en 1970, es uno de los más
grandes inventos en la ergonomía de computadoras porque eso libra a los
usuarios de la gran proporción de uso de teclado.
controla el movimiento del cursor o apunta en una pantalla.
Un MOUSE es un objeto pequeño que se puede rodar a lo largo de una superficie
sólida y plana. Su nombre se deriva de su forma que se parece un poco a un
ratón siendo la cola el cable que se conecta con la computadora.
El MOUSE que ha quedado como estándar en la industria ha
sido el de dos botones principalmente, el izquierdo para ejecutar o seleccionar
opciones y el derecho que sirve como acceso directo a un menú dependiendo de la
aplicación en que se encuentre
HISTORIA DEL MONITOR

El antepasado de los monitores fueron unas pequeñas luces
que se encendían o se apagaban al realizar determinadas funciones o acciones
con la computadora.
La aparición de la tarjeta perforada permitía introducir
programas en el computador.
En los años 60 se utilizó un teletipo, que se conectaba
directamente al ordenador e imprimía todos los datos (salida de datos al igual
que los monitores).
En los años 70 se empezaron a utilizar los rayos catódicos,
los cuales seguían el estándar MDA y eran monitores monocromáticos creados por
IBM.
Realizaban subrayado, negrita, cursiva, normal e
invisibilidad para textos.
En ese mismo año aparecieron los Color Graphics Adaptas, lo cuales fueron
comercializados en 1981 al desarrollarse la primera tarjeta gráfica de IBM.
Tres años más tarde surgió el monitor EGA desarrollado por
IBM que permitía visualizar gráficos. Aportaba más colores (16) y una mayor
resolución.
En 1987 surgió el estándar VGA, versión mejorada del EGA.
SVGA ofrecía más colores y resoluciones. Con este último
estándar surgieron los monitores CRT presentes durante la pasada década en casi
todas las casas donde había un ordenador.
EVOLUCION
DEL MONITOR

Monitor MDA Los monitores MDA por sus siglas en inglés
“Monochrome Display Adapter” surgieron en el año 1981. Junto con la tarjeta CGA
de IBM. Los MDA conocidos popularmente por los monitores monocromáticos solo
ofrecían textos, no incorporaban modos gráficos.
Este tipo de monitores se caracterizaban por tener un único
color principalmente verde. El mismo creaba irritación en los ojos de sus
usuarios.
• Sin modo
gráfico.
• Resolución
720_350 píxeles.
• Soporte de
texto monocromático.
• No soporta
gráfico ni colores.
• La tarjeta
gráfica cuenta con una memoria de vídeo de 4 KB.
• Soporta
subrayado, negrita, cursiva, normal, invisibilidad para textos.
Monitor CGA:
Monitor CGA Los monitores CGA por sus siglas en inglés
“Color Graphics Adapter” o “Adaptador de Gráficos en Color” en español. Este
tipo de monitores fueron comercializados a partir del año 1981, cuando se
desarrolló la primera tarjeta gráfica conjuntamente con un estándar de IBM.
A pesar del lanzamiento de este nuevo monitor los
compradores de PC seguían optando por los monitores MDA, ambos fueron lanzados
al mercado en el mismo año existiendo competencia entre ellos. CGA fue el
primero en contener sistema gráfico a color.
• Resoluciones
160_200, 320×200, 640×200 píxeles.
• Soporte de
gráfico a color.
• Diseñado
principalmente para juegos de computadoras.
• La tarjeta
gráfica contenía 16 KB de memoria de vídeo.
Monitor EGA:
Monitor EGA Por sus siglas en inglés “Enhanced Graphics Adapter”,
es un estándar desarrollado IBM para la visualización de gráficos, creado en
1984. Este nuevo monitor incorporaba una mayor amplitud de colores y
resolución.
EGA incorporaba mejoras con respecto al anterior CGA. Años
después también sería sustituido por un monitor de mayores características.
• Resolución
de 640_350 píxeles.
• Soporte para
16 colores.
• La tarjeta
gráfica EGA estándar traían 64 KB de memoria de vídeo.
Monitor VGA:
Monitor VGA Los monitores VGA por sus siglas en inglés
“Video Graphics Array”, fue lanzado en 1987 por IBM. A partir del lanzamiento
de los monitores VGA, los monitores anteriores empezaban a quedar obsoletos. El
VGA incorporaba modo 256 con altas resoluciones.
Por el desarrollo alcanzado hasta la fecha, incluidas en las
tarjetas gráficas, los monitores anteriores no son compatibles a los VGA, estos
incorporan señales analógicas.
• Soporte de
720×400 píxeles en modo texto.
• Soporte de
640×480 píxeles en modo gráfico con 16 colores.
• Soporte de
320×200 píxeles en modo gráfico con 256 colores.
• Las tarjetas
gráficas VGA estándares incorporaban 256 KB de memoria de vídeo.
Monitor SVGA:
Monitor SVGASVGA denominado por sus siglas en inglés “Super
Video Graphics Array”, también conocidos por “Súper VGA”. Estos tipos de
monitores y estándares fueron desarrollados para eliminar incompatibilidades y
crear nuevas mejoras de su antecesor VGA.
VGA fue lanzado en 1989, diseñado para brindar mayores
resoluciones que el VGA. Este estándar cuenta con varias versiones, los cuales
soportan diferentes resoluciones.
• Resolución de 800×600, 1024_768 píxeles y superiores.
• Para este nuevo monitor se desarrollaron diferentes
modelos de tarjetas gráficas como: ATI, GeForce, NVIDIA, entre otros.
Monitores
CRT:
Monitor CRT Está basado en un Tubo de Rayos Catódicos, en
inglés “Cathode Ray Tube”. Es el más conocido, fue desarrollado en 1987 por
Karl Ferdinand Braun.
Utilizado principalmente en televisores, ordenadores, entre
otros. Para lograr la calidad que hoy cuentan, estos pasaron por diferentes
modificaciones y que en la actualidad también se realizan.
Ventajas:
Excelente
calidad de imagen (definición, contraste, luminosidad).
Económico.
Tecnología
robusta.
Resolución
de alta calidad.
Desventajas:
Presenta
parpadeo por el refrescado de imagen.
Consumo de
energía.
Generación
de calor.
Generación
de radiaciones eléctricas y magnéticas.
Alto peso y
tamaño.
Pantallas
LCD:
Pantallas LCDA este tipo de tecnología se le conoce por el
nombre de pantalla o display LCD, sus siglas en inglés significan “Liquid
Crystal Display” o “Pantalla de Cristal Líquido” en español. Este dispositivo
fue inventado por Jack Janning.
Estas pantallas son incluidas en los ordenadores portátiles,
cámaras fotográficas, entre otros. • Tamaño: es la distancia que existe
entre la esquina superior derecha y la esquina inferior izquierda de la
pantalla de cristal, por lo que no se considera la cubierta de plástico que la
contiene. La unidad de medida es la pulgada (“). Los más comunes son de
15.6", 17", 19", 20", 22" y 24 pulgadas.
• Tecnología:
se le conoce como estática, ya que la pantalla no se actualiza, sino que permanece
quieta hasta que la computadora envíe señal para un cambio de color, por esta
característica es que se cansa menos la vista al trabajar. Compite actualmente
contra las pantallas de plasma y los monitores CRT.
• Resolución: se refiere a la cantidad máxima de píxeles
que es capaz de desplegar en la pantalla. Un píxel es cada uno de los puntos de
color que la pantalla
Pantallas
Plasma:
Pantallas Plasma La pantalla de plasma fue desarrollada en
la Universidad de Illinois por Donald L. Bitzer y H. Gene Slottow.
Originalmente los paneles eran monocromáticos. En 1995 Larry
Weber logró crear la pantalla de plasma de color. Este tipo de pantalla entre
sus principales ventajas se encuentran una la mayor resolución y ángulo de
visibilidad • Tamaño: es la distancia que existe
entre la esquina superior derecha y la esquina inferior izquierda de la
pantalla de vidrio, por lo que no se considera la cubierta de plástico que la
contiene. La unidad de medida es la pulgada (“). Los más comunes son de
15.6", 17", 19", 20", 22" y 24 pulgadas.
• Tecnología: basada en celdas de plasma, la pantalla no se
actualiza, sino que permanece estática hasta que la computadora envíe señal de
cambios de color a cada celda, por esta característica es que se cansa menos la
vista al trabajar. Compite actualmente contra las pantallas LCD y los monitores
CRT.
• Resolución: se
refiere a la cantidad máxima de píxeles que es capaz de desplegar en la
pantalla. Un píxel es cada uno de los puntos de color de la pantalla.
HISTORIA DE LOS PARLANTES

Cuando Tomas Alva Edison estaba haciendo estudios sobre la
transmisión de información y un medio para mejorar el cable telegráfico, se
topó con que la voz podía viajar mediante un cable y ser escuchado en otro
lado, pues ese es el origen de las bocinas, de allí en adelante todo ha sido un
proceso de mejoras constantes.
La bocina es un instrumento musical de aire. Se inventó en
Francia en 1680 y servía tan solo para la caza. Después se introdujo en
Alemania y allí se perfeccionó y se aplicó a la música. Para esta se adoptó en
Francia en 1730 pero no la introdujeron en la orquesta de la ópera hasta en
1757.
En esta época daba muy pocos sonidos, pero en 1760 un alemán
llamado Hampl discurrió que era fácil hacerle producir otros, tapando con la
mano una parte del pabellón o campana del instrumento. Este descubrimiento
abrió la carrera a artistas hábiles que se entregaban al estudio de la trompa.
Otro alemán llamado Haltenhoft mejoró este instrumento añadiendo una bomba por
medio de la cual se afina exactamente, cuando por el calor del aliento se suben
las entonaciones.
EVOLUCION DE LOS PARLANTES
El parlante, también
conocido como bafle, altavoz, altoparlante o bocina, es un dispositivo
utilizado para la reproducción de sonido. Es un dispositivo capaz de convertir
energía eléctrica en energía acústica que se radia al aire. Desde su invención
ha ido evolucionando en busca de una mayor calidad y fidelidad del sonido que
reproduce ya que el gran desafío en la historia de los parlantes fue lograr una mayor fidelidad del sonido reproducido con el
sonido Real.
EL FONOGRAFO:

Fue creado en 1877 por un inventor llamado Thomas Edison
quien también lo llamo Fonógrafo Perfecto. El fonógrafo utiliza un sistema de grabación
mecánica analógica, en el cual las ondas sonorasson transformadas en
vibraciones mecánicas mediante un transductor acústico-mecánico. Estas vibraciones
mueven unestileteque labra un surcohelicoidal sobre un cilindro de fonógrafo.
Para reproducir el sonido se invierte el proceso
MICRÓFONO
HISTORIA DEL MICRÓFONO

Por más de 130 años el hombre ha evolucionado en materia de
procesamiento de señal, explorando elementos que simplificaran la comunicación
entre las personas que se encontraban a muchos kilómetros de distancia, es así
que, por medio de esta búsqueda, es inventado el teléfono. A pesar que la
intención de este invento era para las personas con discapacidad auditiva, al
final terminó siendo el proyecto que revolucionó el tema de las comunicaciones.
Con base a esto, nació el micrófono, un dispositivo capaz de captar una señal
sonora, amplificarla y transferirla de un lugar a otro. Inicialmente se
denominaba micrófono al instrumento que aumentaba los sonidos débiles, elemento
que se conformaba de dos varillas delgadas que transmitía vibraciones mecánicas
a ambos oídos. Desde que se inventó el micrófono eléctrico, el hombre ha
desarrollado un sin fin de productos con la expectativa de alcanzar la mejor
calidad de la fuente sonora. El objetivo siempre ha sido, y será, generar una réplica
exacta del sonido original.
No es fácil hallar a la persona que desarrolló el teléfono y
el micrófono puesto que muchas personas coincidieron en esta gran idea; no
obstante, se le atribuye la patente del teléfono y del primer micrófono líquido
al Sr. Graham Bell en 1876. Detrás de él, existieron muchas personas que
contribuyeron al desarrollo de éstos y después de ser presentado al mundo
varios investigadores se inquietaron en crear un micrófono que mejorara la
calidad de la señal.
A partir de esto, el micrófono fue evolucionando a tal punto
que no solo se aplica en la telefonía sino también para la radio, la
televisión, el cine, mediciones e incluso espionaje y hasta nuestros días es un
elemento indispensable en grabación, amplificación de señales y en eventos de
pequeña y gran magnitud.
Actualmente, podemos encontrar diversas compañías dedicadas
a la fabricación de micrófonos, cada una especializada en una o varias clases
de los mismos. Es tal el crecimiento, que se pueden encontrar micrófonos con
varios patrones polares, especializados en grabación, espectáculos, para la voz
o instrumentos. Existen una gran variedad de micrófonos, que finalmente al
momento de seleccionar alguno, depende de la aplicación y la calidad que
requiere el usuario final.
EVOLUCION DEL MICRÓFONO
El primer micrófono formaba parte del Fonógrafo, el
dispositivo más común para reproducir sonido grabado desde la década de 1870
hasta la década de 1880 y donde precisamente comenzó la historia del micrófono
.El advenimiento de la grabación eléctrica y de la radio del disco que
difundían en los años 1920 tempranos estimuló el desarrollo de los micrófonos
de carbón de una calidad mejor. El año 1920 llevó en la era comercial de la
difusión. Algunos de los aficionados y de los cantantes bien informados
comenzaron a jugar expedientes y a usar los micrófonos con sus programas. No y
las grabaciones de audio. Fue conocido como el primer “micrófono dinámico”.
HISTORIA Y EVOLUCIÓN.
La impresora por primera vez en la historia fue desarrollada
en 1938 por Chester Carlson, un estadounidense que inventó el proceso de
reproducción de imágenes y textos a través de las fotocopiadoras. En 1953 se
creó la primera impresora de alta velocidad. La misma fue utilizada en Univac,
primer ordenador comercial fabricado y comercializado en los Estados Unidos. De
hecho, las primeras impresoras tenían un sistema que proporcionaba la impresión
de los caracteres por medio del impacto, realidad que resultaba en impresiones
de baja calidad. Las impresoras evolucionaron paralelamente al avance de la propia
computación. De la misma forma que fueron surgiendo ordenadores destinados a
diferentes usos, también se crearon impresoras destinadas a fines específicos.
La historia de la impresora se puede remontar junto con la
creación de la primera computadora, la máquina analítica de Charles Babbage, a
pesar de que el inventor nunca logró construir su PC, sí terminó los planos en
los que se incluía el mecanismo de impresión. En 1950 llega la primera
impresora eléctrica para computadoras, sin embargo solo era capaz de imprimir
textos. Siete años más tarde se desarrolla la impresión por matriz de puntos,
pero contaba con las mismas limitaciones que su antecesor. En 1959 Xerox
fabrica la fotocopiadora y para 1973 aparece la primera fotocopiadora a color,
fabricada por Canon. En 1978 se crea la impresora de margarita, que únicamente
podía escribir letras y números, pero tenía la calidad de una máquina de
escribir.
Finalmente en 1980 aparece la impresora láser en blanco y
negro, 8 años más tarde le implementan la modalidad de color.
CÁMARA

HISTORIA DE LA CÁMARA FOTOGRÁFICA
La cámara fotográfica o cámara de fotos es un dispositivo
utilizado para capturar imágenes o fotografías. Es un mecanismo que se utiliza
para proyectar imágenes en el que una habitación entera desempeñaba las mismas
funciones que una cámara fotográfica actual por dentro, con la diferencia que
en aquella época no había posibilidad de guardar la imagen a menos que ésta se
trazara manualmente.
La cámara fotográfica se ha usado desde el renacimiento. Se
conocía como cuarto oscuro, y consistía en una cámara oscura con un orificio
muy pequeño en la parte frontal, enfrentando al sujeto que se encontraba fuera
de ella.
El instrumento que dio origen a lo que hoy conocemos como
cámara fotográfica, fue la cámara oscura. Inicialmente, éste instrumento, fue
utilizado por los astrónomos de su época siglo XIV.
La cámara oscura
tenía una forma de una caja cerrada con un agujero, por donde la luz se
introducía, proyectando una imagen en el interior. Este principio fue
aprovechado por algunos pintores, debido a que les facilitaba la elaboración de
diferentes trazos, incluso, imágenes completas.
Con el transcurso de
los siglos la cámara oscura evolucionó y se convirtió en una pequeña caja
manejable y al orificio se le instaló una lente óptica para conseguir una
imagen más clara y definida.
La primera cámara que fue lo suficientemente pequeña como
para considerarse portátil fue construida por Johann Zahn en 1685. Las primeras
cámaras fotográficas eran similares en esencia al modelo de Zahn, aunque
generalmente con una mejora en el enfoque.
Joseph Nicephone Niepce fue el primer fotógrafo en 1829 que utilizo la cámara hecha de madera
fabricada por Charles y Vincent Chevalier en parís
Se considera fecha
inicial de la fotografía el 3 de julio de 1839, día en el que el invento de la
sociedad que habían formado Daguerre y Nièpce en 1829 fue declarado por la
Cámara de Diputados de Francia un bien de dominio público. En 1839 el periódico
Vossiche Zeitung de Berlín empleó por primera vez la palabra
"fotografía", dibujo de luz, para hablar del invento.
De 1839 es también el
primer retrato fotográfico conocido, el de Karl Drapper, profesor de la
Universidad de Nueva York en la que se investigaba el invento. En 1872 el Daily
Graphic de Nueva York publicó la primera fotografía en un diario.
En el siglo XIX se diseñaron muchos tipos de cámaras
fotográficas. Como fueron las cámaras aptas para obtener fotografías
estereoscópicas; cuyos pares estereoscópicos finalmente se tenían que mirar con
un visor apropiado, para poder visualizar su efecto tridimensional o de
relieve.
También las cámaras
de estudio de la época en que se popularizaron los retratos en formato de
tarjeta de visita entre los años 1860 y 1880. Esas cámaras podían tener cuatro
o más objetivos, para obtener varios retratos en un mismo negativo de vidrio.
A comienzos de este
siglo XX a fotografía comercial creció con rapidez y las mejoras del blanco y
negro abrieron camino a todos aquellos que carecían del tiempo y la habilidad
para los tan complicados procedimientos del siglo anterior.
En 1907 se pusieron a
disposición del público en general los primeros materiales comerciales de
película en color, unas placas de cristal llamadas Autochromes Lumière en honor
a sus creadores, los franceses Auguste y Louis Lumière. En esta época las
fotografías en color se tomaban con cámaras de tres exposiciones.
En 1925 Leica crea la
primera cámara que tiene ayudas en el enfoque y el cálculo automático de la
velocidad de exposición y apertura del diafragma.
En 1935 Con la aparición de la película de color Kodachrome
en 1935 y la de Agfacolor en 1936, con las que se conseguían trasparencias o
diapositivas en color, se generalizó el uso de la película en color en 1941
Kodacolor, contribuyó a dar impulso a su popularización.
En 1975 Steve Sasson invento la primera cámara digital en
blanco y negro.
En1988 Fue crea la primera cámara fotográfica digital
verdadera que registraba imágenes en un archivo de computadora fue
probablemente el modelo DS-1P que grababa en una tarjeta de memoria interna de
16 MB y utilizaba una batería para mantener los datos en la memoria.
HISTORIA DE LOS USB

Las empresas pioneras que comenzaron a vender las unidades
de memoria USB, fueron Trek Technogy e IBM, para el año 2000. Bajo el nombre de
Thumbdrive para la empresa Trek y DiskOnKey para las primeras unidades vendidas
en Estados Unidos por IBM.
La empresa encargada de fabricar las primeras memorias USB
fue la empresa israelí M-Systems con las asombrosas capacidades para esa época
de 8, 16, 32 y 64 MB. Aunque actualmente esas capacidades de almacenamiento
parecen insignificantes, para su lanzamiento era algo extraordinario, ya que,
si recordamos que los USB llegaron a reemplazar a los disquetes.
Los primeros USB utilizaban baterías para poder utilizarse,
ya en la actualidad reciben la tensión de alimentación a través del propio
conector, de 5 voltios y un consumo de 2,5 vatios como máximo. Posteriormente
surgieron las memorias USB de la segunda generación con conectividad con la
norma USB 2.0 con una velocidad de hasta 30 Mbit/s, 20 veces más rápido que los
dispositivos USB.
Actualmente existen las memorias de tercera generación con
la norma USB 3.0, con tasas de transferencia de datos mejoradas enormemente en
comparación con las memorias 2.0. Además de que tienen compatibilidad también
con puertos USB 2.0. La interfaz USB 3.0 ahora permite velocidades de
transferencia de hasta 5Gbit/s.
En la actualidad existen pendrives que van de capacidades de
1GB hasta 1TB, lo que las vuelve increíblemente útiles para almacenar
información, convirtiéndose prácticamente en mini Discos Duros. Incluso hay
modelos de estos dispositivos que permiten encriptar data por hardware,
permitiendo resguardar toda nuestra data, sea sensible o no de ojos ajenos a
los nuestros.
Hoy en día, los precios de las memorias Flash han bajado
muchísimo a comparación de las primeras que salieron, y cada vez es más común
ver a personas con memorias USB por arriba de los 16GB de almacenamiento.
EVOLUCIÓN DE LA USB
Cuando la informática daba sus primeros pasos la forma más
común de transmitir información y archivos de un ordenador a otro era el
disquete, un pequeño disco magnético y flexible que se guardaba en una carcasa
de plástico muy final.
Pero la aparición de la Memoria Flash USB, también llamada
Llave USB o Pendrive (que es una marca) ha supuesto una revolución. Estos
aparatos aparecieron con una capacidad de tan sólo 16 MB, luego pasó entre
128MB, a 512 MB y hoy algunos ya superan el
1 Gigabyte, 2 Gigabyte, 4 Gigabyte, 8 Gigabyte de capacidad. En la actualidad podemos
encontrar dispositivos de dependiendo de la marca fabricante, hasta de 16
Gigabyte de capacidad.
Las Memorias Flash USB no necesitan pilas, y son
autoinstalables en los sistemas operativos más modernos. En los anteriores al
año 2000 pueden requerir drivers de instalación. Al conectar el dispositivo al
puerto USB del ordenador el sistema detecta automáticamente el dispositivo y lo
considera “Disco extraíble”. La forma de trabajar con esta unidad de disco es
exactamente igual que la que utilizamos con el “Disco duro”. Puedes crear
carpetas dentro de él, copiar y pegar archivos, guardar archivos en dicha
unidad (que estará identificada con una letra en función de la cantidad de discos
que detecta el ordenador), eliminarlos o realizar cualquier otra acción que
haríamos con nuestra “Disco duro”. Al conectar el dispositivo en otro
ordenador, éste detectará todas las carpetas y archivos que guardamos en él.
También hay diversos estilos de Memorias Flash, dependiendo
para el dispositivo.
TARJETA MADRE
HISTORIA DE LA TARJETA MADRE

En 1941 comenzó a funcionar el primer ordenador electrónico,
el Colossus.Desde aquel primer ordenador hasta nuestros días, son muchos los
aspectos que han cambiado en el mundo de la informática y computación, sin
embargo, desde la creación de la E.N.I.A.C. se sigue manteniendo la
arquitectura Von Neumann. Básicamente, esta arquitectura hace de la computadora
la máquina que todos conocemos, una entrada de información, un procesamiento de
la información con las instrucciones almacenadas en una memoria, y una salida
de la información procesada. Las primeras tarjetas madre, o computadoras en una
tarjeta, como se les llamaba en aquel entonces, integraban la funcionalidad
elemental para su propio funcionamiento, y generalmente eran ingenios de
laboratorio. La primera computadora en una tarjeta que llegó al mercado fue la
MITS Altair 8800 en 1974, que contaba con una tarjeta base para incorporar el
procesador, la RAM y su circuitería de soporte, en un transporte de datos
S-100. En 1975 la Mycron 1 llega al mercado, con algunas mejoras.
La historia de la tarjeta madre, como se conoce actualmente
inicia en 1947 cuando William Shockley, Walter Brattain y John Bardeen, científicos
de los laboratorios Bell, muestran su invento, el transistor amplificador de
punto-contacto, iniciando con esto el desarrollo de la miniaturización de
circuitos electrónicos; este es el invento que eventualmente dividiría la
historia de las computadoras de la primera y segunda generación.
Otro invento que contribuyó de manera decisiva a la reacción
de la tarjeta madre fue el de G. W. Dummer, un experto en radar del Radar Real
Británico, que en 1952 presentó una proposición sobre la utilización de un bloque
de material sólido que puede ser utilizado para conectar componentes
electrónicos sin cables de conexión.
Fue hasta 1961 cuando Fairchild Semiconductor anuncia el
primer circuito integrado comercialmente disponible, iniciando con esto la
competencia por la alta integración de componentes en espacios cada vez más
reducidos; la miniaturización, y con esto la búsqueda de la computadora en una
pastilla.
Con estos inventos se comienza a trabajar en la computadora
en una tarjeta.
TARJETAS MADRE EVOLUCION A MEDIDA DEL TIEMPO
EVOLUCION A MEDIDA DEL TIEMPO DE LAS TARJETAS MADRE
La historia de la tarjeta madre, como se conoce actualmente
inicia en 1947 cuando William Shockley, Walter Brattain y John Bardeen,
científicos de los laboratorios Bell, muestran su invento, el transistor
amplificador de punto-contacto, iniciando con esto el desarrollo de la
miniaturización de circuitos electrónicos; este es el invento que eventualmente
dividiría la historia de las computadoras de la primera y segunda generación.
Otro invento que contribuyó de manera decisiva a la creación
de la tarjeta madre fue el de G. W. Dummer, un experto en radar del Radar Real
Británico, que en 1952 presentó una proposición sobre la utilización de un
bloque de material sólido que puede ser utilizado para conectar componentes
electrónicos sin cables de conexión.
Fue hasta 1961 cuando Fairchild Semiconductor anuncia el
primer circuito integrado comercialmente disponible, iniciando con esto la
competencia por la alta integración de componentes en espacios cada vez más
reducidos; la miniaturización, y con esto la búsqueda de la computadora en una
pastilla.
Con estos inventos se comienza a trabajar en la computadora
en una tarjeta.
Evolución
Mycro 1
En 1975 se fabrica la primera microcomputadora "de tarjeta
única" en Oslo, Noruega en una empresa llamada Norsk Data Industri.
Contaba con un microprocesador Intel 8080 y utilizaba el sistema operativo
MYCROP, creado por la misma empresa.
Esta computadora fue sucedida por la Mycron 3, que ya
utilizaba CP/M; la Mycron 1000 que contaba con un microprocesador Zilog Z80 y
utilizaba MP/M; y finalmente en 1980 llega al mercado la Mycron 2000, que fue
la primera en albergar un microprocesador Intel 8086, y utilizaba inicialmente
el sistema operativo CP/M-86 y eventualmente el MP/M-86.
KIM-1
En 1976 MOS Technology presenta la computadora en una sola
tarjeta KIM-1. Cuenta con un microprocesador 6501/02* a 1 MHz; 1 kilobyte en
RAM, ROM, teclado hexagecimal, pantalla numérica con LEDs, 15 puertos
bidireccionales de entrada / salida y una interfaz para casete compacto (casete
de audio). Esta computadora fue vendida armada, aunque carecía de fuente de
poder.
La KIM-1 fue producida hasta 1981, convirtiéndose en el
primer producto de cómputo de Cómmodore.
XT
En 1981 IBM lanzó al mercado la primera computadora personal
comercialmente exitosa, la IBM 5150, desde entonces el paso de la evolución que
ha llevado este mundo de la Informática, ha sido vertiginoso, siempre buscando
mayor velocidad y capacidad, al mismo tiempo que se reducían los costes de
fabricación y por ende, los precios.
Con la aparición del primer PC, sale al mercado la primera
placa base estándar, la XT, que fuera substituida en poco tiempo, en 1984,
apareciendo la AT, que son las siglas en inglés para Tecnología Avanzada,
Advanced Technology. Cuyo estándar y configuración siguió vigente hasta
principios del presente siglo (XXI), comenzando su declinación en el 2000,
frente al exitoso estándar ATX. Las diferencias principales entre estos dos
estándares es la arquitectura, ya que el XT posee una arquitectura a 8 bits,
mientras que el AT llega a los 16.
Estas tarjetas usualmente están equipadas con 8 ranuras ISA
de 8 bits, 4 hileras de 9 zócalos para expandir la memoria pastilla por
pastilla y una hilera por vez, para un total máximo de 1 megabyte en RAM.
En cuanto a la memoria, esta consta de 4 hileras de 9
zócalos que daban cabida a 1 megabyte en total. Cada hilera recibe 9 pastillas
de 32 kilobytes, utilizando una de ellas para paridad y únicamente funcionaba
si toda la hilera estaba con sus circuitos correctamente insertados. Todavía no
se inventaban las tarjetas de ampliación de memoria.
De línea tenía cuando menos 3 ranuras ISA utilizadas, una
para el controlador de disco duro, otra para la controladora de disquete y otra
más para el controlador de video que habitualmente contaba también con un
conector centronics para la impresora. Algunos modelos incorporaban una cuarta
tarjeta para el puerto serial.
Estas tarjetas, en su versión básica, únicamente contaban con
microprocesador, el zócalo para el coprocesador matemático, que era un circuito
independiente; zócalos para la ampliación de memoria, un conector DIN 5 para el
teclado, las ranuras ISA de 8 bits, un conector de alimentación y la
circuitería y pastillería necesaria para el funcionamiento de la computadora y
carecía de funcionalidad útil por sí misma, sin tarjetas de expansión.
AT
El AT, basado en el estándar IBM PC-AT, fue estándar
absoluto durante años, desde los primeros microprocesadores Intel 80286 hasta
los primeros Pentium II y equivalentes incluidos.
Estas tarjetas madre, en sus primeras versiones son de
diseño y características elementales; carecen de accesorios integrados
limitándose únicamente a los circuitos, componentes y pastillas básicos para su
funcionamiento, al igual que las XT.
Usualmente cuentan únicamente con un conector del teclado
DIN de tipo ancho, así como algunas ranuras tipo ISA de 8 y / o 16 bits y en el
caso de los modelos más recientes, algunas EISA, VESA y PCI en las que se tenían
que insertar las tarjetas de expansión para controlar discos duros, puertos,
sonido, etc.
Durante este período casi todos los accesorios para
computadora venían acompañados de una tarjeta controladora que había que
instalar y configurar manualmente, ya que la tecnología de estas tarjetas madre
no aportaba funciones para conectar y funcionar (Plug & Play), lo que hacía
que la instalación, o al menos la configuración de estos dispositivos tuviera
que ser realizada por personal calificado que supiera lidiar con los limitados
recursos que ofrecía la placa base.
Estas carencias y limitaciones son las que motivaron que
eventualmente se crearan tecnologías de conectar y funcionar así como buses
externos de alta velocidad, como lo son el USB o el IEEE1394, para dar cabida a
la creciente disponibilidad de accesorios y demanda de recursos.
Las últimas generaciones de tarjetas madre tipo AT llegaron
al mercado integrando la circuitería de control para 4 discos duros, 2 platinas
de disquete, sonido de 8 y hasta 128 bits, 2 puertos seriales y 1 paralelo, al
menos 2 conectores USB, puerto de video AGP a 64 bits con memoria de video
compartida con la RAM del sistema configurable desde 4 hasta 64 megabytes, así
como módem a 56Kbps y red ethernet a 10/100 megabits; con lo cual la mayoría de
estos modelos ya no requerían de tarjetas de expansión para funcionar a toda su
capacidad saliendo de la caja, ya que inclusive algunas traían montado el
microprocesador y únicamente se equipaban con una ranura PCI y/o una ISA.
ATX y variantes
El formato ATX, promovido por INTEL e introducido al mercado
en 1996 comenzó su historia con una serie de debates sobre su utilidad debida
principalmente al requerimiento de nuevos diseños de fuente de poder y
gabinete.
El cumplimiento de los estándares ATX permite la colocación
de la UCP de forma que no moleste en el posicionamiento de las tarjetas de
expansión, por largas que estas sean y está colocada al lado de la fuente de
alimentación para recibir aire fresco del ventilador de esta. Se descubren
exteriormente porque tiene más conectores, los cuales están agrupados y los
conectores de teclado y ratón son tipo PS/2.
Para 1997, con la llegada al mercado del AGP y el USB, estas
tecnologías se incorporaron rápidamente en este estándar.
Debido las amplias características del ATX salieron al
mercado diversas alternativas basadas en el mismo estándar, como el micro ATX,
que es una versión reducida en tamaño, y el mini ITX, una versión todavía más
compacta y de características de expansión limitadas.
Otros formatos relativamente comunes basados en el estándar
ATX son el LPX y el NLX. El LPX es de tamaño similar a las Baby AT con la
particularidad de que las ranuras para las tarjetas se encuentran fuera de la
placa base, en un conector especial quedando paralelas a la placa base. El NLX
se sujeta a la carcasa mediante un mecanismo de fácil apertura, que permite un
cambio rápido de la placa. También sus ranuras de expansión están dispuestas en
una placa independiente conectada a la placa base.
Tarjeta madre Micro ATX para slot 1
Otra clasificación que se puede hacer de las placas base es
atendiendo al zócalo donde va colocado el procesador, pudiendo ser socket 4 o 5
para los primeros Pentium, también conocidos como Pentium Clásico, socket 7
para Pentium MMX, AMD K-6, Cyrix, el socket super7 igual que el anterior pero
con bus de 100 Mhz, el socket 8 para Pentium PRO, el slot Uno para la familia
del Pentium II y los primeros Pentium III, el slot 2 para el Xeon. Otra
característica que diferencia las placas base es la circuitería, también
conocida como Chipset, que es el conjunto de circuitos integrados o pastillas
que se encargan de enlazar y gestionar los distintos buses de datos que hay en
la placa base. La calidad de la circuitería condiciona la de la tarjeta madre y
normalmente le da el nombre.
El primer conjunto de pastillas que se introdujo con el
procesador Pentium y se denominaba tipo VX, al que le fueron sucediendo
distintos modelos según iban apareciendo nuevos procesadores Pentium. Los de
440 de Intel, en su placa 440 LX, fue la primera con una velocidad frontal de
66MHz, y el 440 BX con una velocidad de 100 Mhz. También existen 440 GX y 450
NX para procesador XEON.
MEMORIA RAM
HISTORIA DE LA MEMORIA RAM

A lo largo de la historia, la humanidad, siempre ha tenido
la necesidad de trabajar con datos. Por supuesto, el mundo de la programación
en la computación no podía ser menos. E igual que con todo, los comienzos
resultaron ser rudimentarios, cuando menos, teniendo que mover la información
bit a bit.
Mejorando esto, pasamos a formar palabras, los bytes,
automatizando el proceso. Derivado de estos comienzos, acabamos con el diseño
de la tabla ASCII, que asignaba 1 valor a cada una de las 256 posibles
combinaciones de una red de 16x16 bytes. Sin embargo, el proceso seguía siendo
demasiado lento, además de poco productivo, pues los programadores no veían los
resultados "en pantalla", si no que tenían que imprimir el estado del
programa.
Con el paso del tiempo, pasamos de depender de tarjetas
perforadas a memorias de acceso secuencial, que tenían que ser leídas de
principio a fin. Y en diferencia con estas cintas de memoria, surgió nuestra
RAM, o "Memoria de Acceso Aleatorio" (Random Access Memory).
Al principio se trataba de memorias extremadamente grandes en
tamaño físico, pero con una capacidad que a día de hoy nos parecería irrisoria.
Sin embargo, era suficiente para las necesidades de la época. Circula de hecho
en internet una frase famosa, atribuida a Bill Gates, en la que dice
"640Kb. son mucho más de lo que nunca se necesitara de memoria
disponible".
La historia en cambio, y sus sistemas operativos han ayudado
bastante a ello, ha demostrado que se equivocaba. A día de hoy, hemos pasado de
usar memoria de 1kb con un coste carísimo, a poder comprar por lo que cuesta
una cena en un restaurante, un millón de veces eso mismo, 1GB. El estándar ha
pasado a ser de 4GB, contando en los desarrollos más punteros con memorias DDR3
a 2400mhz, en los modelos G-Skill Pi.
MEMORIA ROM
HISTORIA DE LA MEMORIA ROM

Desarrollada por Toshiba. Los diseñadores rompieron
explícitamente con las prácticas del pasado, afirmando que enfocaba "ser
un reemplazo de los discos duros", más que tener el tradicional uso de la
ROM como una forma de almacenamiento primario no volátil. En 2007, NAND ha
avanzado bastante en su meta, ofreciendo un rendimiento comparable al de los
discos duros, una mejor tolerancia a los shocks físicos, una miniaturización
extrema (como por ejemplo memorias USB y tarjetas de memoria MicroSD), y un
consumo de potencia mucho más bajo.
Los ordenadores domésticos a comienzos de los años 1980
venían con todo su sistema operativo en ROM. No había otra alternativa
razonable ya que las unidades de disco eran generalmente opcionales. La
actualización a una nueva versión significa usar un soldador o un grupo de
interruptores DIP y reemplazar el viejo chip de ROM por uno nuevo. Actualmente
los sistemas operativos en general ya no van en ROM. Todavía los ordenadores
pueden dejar algunos de sus programas en memoria ROM, pero incluso en este
caso, es más frecuente que vaya en memoria flash. Los teléfonos móviles y los
asistentes personales digitales (PDA) suelen tener programas en memoria ROM (o
por lo menos en memoria flash).
El modelo más simple de la ROM en estado sólido es de la
misma antigüedad que la propia tecnología semiconductora. Las puertas lógicas
combinacionales pueden ser utizadas en conjunto para indexar una dirección de
memoria de a bits en valores de b bits de tamaño. Con la invención de los circuitos
integrados se desarrolló la máscara ROM. La máscara ROM consistía en una
cuadrícula de líneas formadas por una informática desarrollada por Toshiba o
windows. Los diseñadores rompieron explícitamente con las prácticas del pasado,
afirmando que enfocaba "ser un reemplazo de los discos duros", más
que tener el tradicional uso de la ROM como una forma de almacenamiento
primario no volátil. En 2007, NAND ha avanzado bastante en su meta, ofreciendo
un rendimiento comparable al de los discos duros, una mejor tolerancia a los
shocks físicos, una miniaturización extrema (como por ejemplo memorias USB y
tarjetas de memoria MicroSD), y un consumo de potencia mucho más bajo.
Los ordenadores de casa a comienzos de los años 1980 venían
con todo su sistema operativo en ROM. No había otra opción razonable ya que las
unidades de disco eran generalmente opcionales. La actualización a una nueva
versión significa tener que usar un soldador o un puño de interruptores DIP y
poner el chip de ROM antiguo por uno nuevo. Actualmente los sistemas operativos
en general ya no van en ROM. Hoy en día los ordenadores pueden dejar varios de
sus programas en memoria ROM, pero incluso en este caso, es más frecuente que
vaya en memoria flash. Los teléfonos móviles y los asistentes personales
digitales (PDA) suelen tener programas en memoria ROM (o por lo menos en
memoria flash). DRAM
La ROM no la podemos modificar (tampoco en la antigua
versión de máscara), solo resulta ser la indicada para almacenar datos que no
necesiten ser modificados durante la vida de este dispositivo. Con el fin de
que la ROM se ha utilizado en muchos ordenadores para guardar consulta, siendo
utilizadas para exámenes de funciones matemáticas y lógicas. Esto era
especialmente eficiente cuando la unidad central de procesamiento era muy lenta
y la ROM era menos costosa que hoy en día, en comparación con la RAM. De hecho,
una razón de que todavía se utilice la memoria ROM para almacenar datos es la
velocidad, ya que los discos siguen siendo más lentos. Y lo que es aún más
importante, no se puede leer un programa que es necesario para ejecutar un
disco desde el propio disco. Por lo tanto, la BIOS, o el sistema de arranque
oportuno del PC normalmente se encuentran en una memoria ROM.
Evolución
El modelo más simple de la ROM en estado sólido es de la
misma antigüedad que la propia tecnología semiconductora. Las puertas lógicas
combinacionales pueden ser utizadas en conjunto para indexar una dirección de
memoria de a bits en valores de b bits de tamaño. Con la invención de los
circuitos integrados se desarrolló la máscara ROM. La máscara ROM consistía en
una cuadrícula de líneas formadas por una informática desarrollada por Toshiba
o windows. Los diseñadores rompieron explícitamente con las prácticas del
pasado, afirmando que enfocaba "ser un reemplazo de los discos
duros", más que tener el tradicional uso de la ROM como una forma de
almacenamiento primario no volátil. En 2007, NAND ha avanzado bastante en su
meta, ofreciendo un rendimiento comparable al de los discos duros, una mejor
tolerancia a los shocks físicos, una miniaturización extrema (como por ejemplo
memorias USB y tarjetas de memoria MicroSD), y un consumo de potencia mucho más
bajo.
Los ordenadores de casa a comienzos de los años 1980 venían
con todo su sistema operativo en ROM. No había otra opción razonable ya que las
unidades de disco eran generalmente opcionales. La actualización a una nueva
versión significa tener que usar un soldador o un puño de interruptores DIP y
poner el chip de ROM antiguo por uno nuevo. Actualmente los sistemas operativos
en general ya no van en ROM. Hoy en día los ordenadores pueden dejar varios de
sus programas en memoria ROM, pero incluso en este caso, es más frecuente que
vaya en memoria flash. Los teléfonos móviles y los asistentes personales
digitales (PDA) suelen tener programas en memoria ROM (o por lo menos en
memoria flash). DRAM
La ROM no la podemos modificar (tampoco en la antigua
versión de máscara), solo resulta ser la indicada para almacenar datos que no
necesiten ser modificados durante la vida de este dispositivo. Con el fin de
que la ROM se ha utilizado en muchos ordenadores para guardar consulta, siendo
utilizadas para exámenes de funciones matemáticas y lógicas. Esto era
especialmente eficiente cuando la unidad central de procesamiento era muy lenta
y la ROM era menos costosa que hoy en día, en comparación con la RAM. De hecho,
una razón de que todavía se utilice la memoria ROM para almacenar datos es la
velocidad, ya que los discos siguen siendo más lentos. Y lo que es aún más
importante, no se puede leer un programa que es necesario para ejecutar un
disco desde el propio disco. Por lo tanto, la BIOS, o el sistema de arranque
oportuno del PC normalmente se encuentran en una memoria ROM.
Del procesador
El primer procesador comercial, el Intel 4004, fue
presentado el 15 de noviembre de 1971. Los diseñadores fueron Ted Hoff y
Federico Faggin de Intel, y Masatoshi Shima de Busicom (más tarde Solo).
Los microprocesadores modernos están integrados por millones
de transistores y otros componentes empaquetados en una cápsula cuyo tamaño
varía según las necesidades de las aplicaciones a las que van dirigidas, y que
van desde el tamaño de un grano de lenteja hasta el de casi una galleta. Las
partes lógicas que componen un microprocesador son, entre otras: unidad
aritmético-lógica, registros de almacenamiento, unidad de control, Unidad de
ejecución, memoria caché y buses de datos control y dirección.
Existen una serie de fabricantes de microprocesadores, como
IBM, Intel, Zilog, Motorola, Cyrix y AMD. A lo largo de la historia y desde su
desarrollo inicial, los microprocesadores han mejorado enormemente su
capacidad, desde los viejos Intel 8080, Zilog Z80 o Motorola 6809, hasta los
recientes Intel Core 2 Duo, Intel Core 2 Quad, Intel Xeon, Intel Itanium II,
Transmeta Efficeon o Celó.
Ahora los nuevos microprocesadores pueden tratar
instrucciones de hasta 256 bits, habiendo pasado por los de 128, 64, 32, 16, 8
y 4 bits. Desde la aparición de los primeros computadores en los años cuarenta
del siglo XX, Llevó décadas para que llegáramos a los modelos actuales de
procesadores. En realidad, demoramos algunos años para llegar también a la idea
que tenemos hoy de cómo funciona un procesador. Antiguamente, los programas no
eran compatibles con
todos los modelos de computadoras, ya que ellos eran
desarrollados específicamente para cada máquina.
Eso estaba relacionado al hecho de que cada computadora era
como una plataforma diferente. Muchas veces, existía incompatibilidad incluso
de modelos de un mismo fabricante. Por increíble que parezca, eso no llegaba a
ser una barrera preocupante, visto que la producción de programas todavía no
era alta y no existían muchos programas disponibles
Antecedentes
Entre estas evoluciones podemos destacar estos hitos:
•ENIAC
(Electronic Numeric Integrator And Calculator) Fue un computador con procesador
multicolor de programación cableada, esto es, la memoria contenía sólo los datos
y no los programas. ENIAC fue el primer computador, que funcionaba según una
técnica a la que posteriormente se dio el nombre de monociclo.
•EDVAC (Electronic
Discrete Variable Automatic Computer) fue la primera máquina de Von Neumann,
esto es, la primera máquina que contiene datos y programas en la misma memoria.
Fue el primer procesador multiciclo.
•El IBM 7030
(apodado Stretch) fue el primer computador con procesador segmentado. La
segmentación siempre ha sido fundamental en Arquitectura de Computadores desde
entonces.
•El IBM 360/91
supuso grandes avances en la arquitectura segmentada, introduciendo la
detección dinámica de riesgos de memoria, la anticipación generalizada y las
estaciones de reserva.
•El CDC 6600 fue
otro importante computador de microprocesador segmentado, al que se considera
el primer supercomputador.
•El último gran hito de la Arquitectura de Computadores fue
la segmentación superescalar, propuesta por John Cocke, que consiste en
ejecutar muchas instrucciones a la vez en el mismo microprocesador. Los
primeros procesadores superescalares fueron los IBM Power-
PROCESADOR
LA
EVOLUCIÓN DE LOS PROCESADORES DE COMPUTADORAS

La evolución de los procesadores de computadoras comenzó con
la comprensión de los principios de la electricidad. Aunque hubo ideas sobre
cómo podría ser implementada esta tecnología durante gran parte de la década de
1900, no fue hasta la década de 1960 y principios de la de 1970 que los
científicos fueron capaces de poner esas ideas en práctica.
Intel 4004
El Intel 4004 fue lanzado en 1971 y fue el primer procesador
de computadora independiente. Era un chip de 4 bits y tenía 2.300 transistores.
Tanto Central Air Data Computer como Texas Instruments TMS 1000 se crearon en esa
época, pero no se comercializaron como un procesador individual.
Intel 8088
Intel lanzó el chip 8088 en 1979. El 8088 fue un procesador
de 16 bits y contenía 29.000 transistores. Este chip fue elegido para la
primera computadora personal IBM.
Intel Pentium y
AMD
El Intel Pentium fue lanzado en 1993 como un procesador de 32
bits con 3,21 millones de transistores. Dos años más tarde la competencia de
Intel, AMD, lanzó su chip AM5x86, el cual tenía un rendimiento comparable a los
procesadores Pentium, pero era capaz de ser instalado en placas 486 más
antiguas.
Intel Pentium M
El Intel Pentium M fue lanzado en 2003 y se diseñó pensando
específicamente en dispositivos móviles. El procesador está integrado con la
red Intel PRO/Wireless 2100 y utiliza menos energía para permitir una mayor
duración de las baterías.
IBM POWER 7
El POWER 7 de IBM fue lanzado en 2009 y contiene 1.200
millones de transistores en un chip de gran tamaño que posee entre 4 y 8
núcleos.
TORRE

HISTORIA
DE LA TORRE
Los primeros modelos eran grandes, en ellos había que situar
la caja de los IBM Personal Computer/AT en soportes de ruedas para liberar el
espacio en las mesas de trabajo.
Las primeras versiones conocidas mostraban dos bahías de
5,25¨ en vertical incluyendo una bahía de 3,5 en horizontal. La aparición de un
formato de sobremesa compacto, dió lugar al surgimiento de los dos formatos más
extendidos por entonces, el formato gran torre AT (6 o más bahías de 5,25 y 2 o
más de 3,5) y el formato minitorre AT (dos de 5,25 y 2 de 3,5). estos mostraban
gran comodidad para situar los componentes dentro de la caja.
Estos primeros modelos están compuestos de acero, siendo tan
sólidos podian soportar hasta 200 libras de peso encima de ellos, sin
problemas.
Luego comienza a generalizarse en la gama baja los modelos de
chapa, mientras que los de marca seguirán con el acero incluso tras del paso a
ATX. El abaratamiento de costes hace también migrar la mayoría de fabricantes
de cajas a Asia. Los frontales en cambio pasan con rapidez al plástico por la
facilidad para cambiarlos y personalizarlos para los ensambladores. Es curioso
que mientras que tornillos, cables, ranuras de fijación, hasta los protectores
de la ranuras, se van estandarizando, no se alcanza un estándar en los
protectores de las bahías vacías u ocupadas por unidades internas, siendo la
única parte que no se pude intercambiar entre los diferentes fabricantes.
En el año 1995 aparece en el mercado la ATX que muestra un
cambio total en las cajas de pc. Pues las minitorres se hacen más profundas
debido a que la necesidad de sistemas de ventilación forzada, también ganan una
bahía de altura, que no pierden hasta que aparezca MicroATX.
Entretanto se introducen otros materiales como el metacrilato
o el aluminio, bien en cajas completas, normalmente por entusiastas del
modding, bien por marcas como Apple Inc.
Diseños
Los diseños de las torres a cambiado mucho en los ultimos
años, recordando que las primeras torres en el mercado eran de forma
paralelepípeda y color blanco o crema. Los nuevos diseñadores comienzan a
fabricar los frontales intercambiables en colores, el color negro comienza a
ser el imperante y la popularización del modding trae los laterales con ventana
y los componentes con LEDs y tubos de luz. Se comienza a cubrir la unidades de
disquete primero y luego las unidades ópticas con tapas que dejan un acabado
liso. Comienzan a pasarse los conectores al frontal o lateral de la torre o a
incluirlos en las bahías de 5,25 que no se usan, incluyendo controles
adicionales.
Las minitorres suelen ser las elecciones más abundantes como
base para los moddings. Por ejemplo, en el concurso realizado en el Euskal
Encounter se utilizaron sendas minitorres para dos de los diseños ganadores,
una cabeza de Reina Alien y al año siguiente un Predator.
EVOLUCION
DE LA TORRE
El tamaño de las carcasas viene dado por el factor de forma
de la placa base. Sin embargo, el factor de forma sólo especifica el tamaño
interno de la caja.
Barebone: torres de
pequeño tamaño cuya función principal es la de ocupar menor espacio y crea un
diseño más agradable. Los barebones tienen el problema de que la expansión se
dificulta, debido a que admite pocos dispositivos adicionales o ninguno. Otro
punto en contra es el calentamiento, debido a su reducido tamaño, aunque la
necesidad de refrigeración también depende mucho del tipo de componentes y de
sus exigencias energéticas. Este tipo de cajas tienen muchos puertos USB para
compensar la falta de dispositivos, como una disquetera, para poder conectar
dispositivos externos como un disco USB o una memoria. También son conocidos
como Cubo los que tienen un formato mas cubico.
Minitorre: dispone de
una o dos bahías de 5¼" y dos o tres bahías de 3½". Dependiendo de la
placa base se pueden colocar varias tarjetas de expansión. No suelen tener
problema con los puertos USB, y se venden bastantes modelos de este tipo de
torre porque es pequeña y a su vez puede expandirse. Su calentamiento es normal
y no tiene el problema de los barebones.
Sobremesa: se diferencian poco de las minitorres, su uso está
en aumento. Lo más común/recomendable es que este encima del escritorio ya que
de esta forma no recoge tanta suciedad, el monitor se suele situar a su lado.
Mediatorre o semitorre: aumenta su
tamaño para poder colocar más dispositivos. Normalmente son de cuatro bahías de
5¼" y cuatro de 3½" y un gran número de huecos para poder colocar
tarjetas y demás, aunque esto depende siempre de la placa base.
Torre: es el
formato más grande. Puede albergar una gran cantidad de dispositivos y es usado
cuando el tamaño de las tarjetas y su cantidad así lo exigen. Es el caso, por
ejemplo, de las conocidas torres duplicadoras, que albergan una gran cantidad
de unidades de grabación de CD/DVD/BD al mismo tiempo.
Servidor: suelen ser
torres más anchas y de una estética inexistente debido a que están destinadas a
lugares con poco tránsito de usuarios, como es un centro de procesamiento de
datos. Su diseño está basado en la eficiencia, donde los periféricos no es la
mayor prioridad sino el rendimiento y la ventilación. Suelen tener más de una
fuente de alimentación de extracción en caliente para que siga funcionando el
servidor en el caso de que se estropee una de las dos; normalmente están conectados
a un sistema de alimentación ininterrumpida (SAI o UPS) que protege a los
equipos de los picos de tensión y consigue que en caso de caída de la red
eléctrica, el servidor siga funcionando por un tiempo limitado.
Rack: son otro
tipo de servidores. Normalmente están dedicados y tienen una potencia superior
que cualquier otra computadora. Los servidores rack se atornillan a un mueble
que tiene una medida especial: la "U". Una "U" es el ancho
de una ranura del mueble. Este tipo de servidores suele colocarse en salas
climatizadas debido a las altas temperatura que puede alcanzar.
Portátil: son equipos
ya definidos. Poco se puede hacer para expandirlos y suelen calentarse mucho si
son muy exigidos. El tamaño suele depender del monitor que trae incorporado y
son cada vez más finos, como en el caso de las ultrabooks. Su utilidad se basa
en que todo el equipo está integrado en la torre: Teclado, monitor y panel
táctil, que lo hacen portátil.
Integrado a la pantalla: el nombre más comercial es
todo-en-uno (All in One). Se trata de una extensión de espacio en la estructura
de un monitor CRT ó de una pantalla LCD, en la cual se alojan los diversos
dispositivos funcionales del equipo de cómputo: placa base, disco duro, unidad
de disco óptica, fuente de alimentación, ventiladores internos, etcétera. Es un
diseño que ahorra mucho espacio, que hace uso de tecnología similar a la de
computadoras portátiles, por lo que el precio es más elevado y su expansión se
limita considerablemente.
IMPRESORA

Historia
de la impresora
La historia de la impresora se puede remontar junto con la
creación de la primera computadora, la máquina analítica de Charles Babbage, a
pesar de que el inventor nunca logró construir su PC, sí terminó los planos en
los que se incluía el mecanismo de impresión. En 1950 llega la primera
impresora eléctrica para computadoras, sin embargo solo era capaz de imprimir
textos. Siete años más tarde se desarrolla la impresión por matriz de puntos,
pero contaba con las mismas limitaciones que su antecesor. En 1959 Xerox
fabrica la fotocopiadora y para 1973 aparece la primera fotocopiadora a color,
fabricada por Canon. En 1978 se crea la impresora de margarita, que únicamente
podía escribir letras y números, pero tenía la calidad de una máquina de
escribir.
Finalmente en 1980 aparece la impresora láser en blanco y
negro, 8 años más tarde le implementan la modalidad de color.
Partes de una impresora

EVOLUCION
DE LA IMPRESORA
§ 1935-38 aparece lo que sería
el precursor de la fotocopiadora, lo inventó el sr Chester Carlson. El hecho es
que el tipo de fotocopiadora que utiliza es más parecido a una fotografía que a
una fotocopia actual, pero en fin en esa época tampoco es cuestión de
cuestionar la gran idea… Chester crea lo que sería una fotografía electrónica
gracias a los cambios que se generan en el Selenio al recibir una descarga de
luz. A este invento lo llamaría Xerigrafía, y al cabo de unos años después de
que en 1947 firmara un contrato para la empresa Haloid Comany se convertiría en
Xerox. La primera fotocopiadora tenía el curioso nombre de fotocopiadora Modelo
A.
Primeras impresoras
§ 1950 Primera impresora para
un ordenador con capacidad para escribir textos.
§ 1953 Aparece la primera
impresora para aquella época de gran velocidad la UNIVAC que estaba
fabricada por Remington-Rand. Esta impresora que ya tenía incorporada una
fuente de alimentación propia también tenía un sistema electrónico para
controlar el sistema y autocorregir su funcionamiento. La máquina ya tenía 4
rodillos y funcionaba alimentada con cinta con cinta, era capaz de escribir 600
líneas de texto en un minuto.
§ 1957, aparece la primera
impresora matricial tal como serían durante muchos años, con más o menos
puntos.
Llega
las fotocopiadoras
§ 1959 llega de la mano de
Xerox la primera máquina de fotocopiar tal como la entendemos hoy en día. Esta
fotocopiadora ya 100% automática se le llamo Xerox 914 y era capaz de hacer la
friolera de más de 7 copias en un minuto. Una cosa importante y muy relucida en
aquel entonces es que esta máquina era capaz de fotocopiar desde cualquier tipo
de papel.
§ 1968 utilizando el mismo
sistema que las impresoras matriciales aparecen las primeras mini impresoras, fue
fabricada por la empresa Shinshu Seiki, y llamó a su pequeña máquina EP-101 que
en poco tiempo se utilizarían en las calculadoras como máquina de tickets. Esta
empresa creadora de las EP se convertiría en poco tiempo en EPSON. Así que nos
años después Epson se apropió del hito de haber sido la primera empresa en
desarrollar impresoras matriciales de siete agujas.
Primera impresión láser
§ 1969 Gary Starkweather
genera la primera impresión láser, precursora de lo que serían unos 10 años
después la primera impresora láser.
§ 1970 IBM aparece en esta
carrera por la tecnología de la época creando el ordenadora IBM system 370 que
adjuntaba una impresora de alta velocidad en esos tiempos. La IBM 3211 diseñada
por Endicott.
§ 1973 Si bien Xerox gestiona
la llegada de la primera fotocopiadora, la primera fotocopiadora en color nos
llega de la mano de Canon en 1973.
§ 1977 de nuevo Xerox crea la
primera impresora láser que se comercializa, la impresora láser Xerográfica ,
xerox 9700. Esta xerox 9700 era muy parecida a la primera impresoras
EARS, realizada por ellos mismos entre el 69 y el 71 pero que nunca llegaron a
comercializarla. La invención del sistema de impresión laser vino de la mano
del ingeniero estadounidense Gary Starkweather, quien desarrolló su sistema
siguiendo los principios de Chester Carlson, quien en lugar de intentar
escribir palabra por palabra quería plasmar las imágenes.
La popular impresora Margarita
§ 1978 la popular impresora
Margarita, aparece en el mercado. El funcionamiento de esta es parecido al de
las máquinas de escribir antiguas, con troqueles y martillos. Es muy cotizada y
estimada por la alta calidad de sus impresiones. El gran problema; sólo puede
escribir números y letras.
§ 1979 IBM entra en la
carrera de las impresoras láser con la IBM3800 que imprimía con una calidad …
adecuada… 20 mil lineas por minuto.
§ 1984 Apple computer da un
salto muy grande en la calidad de impresión de las impresoras láser, en 1984
crea la laserWriter, comercializada para no solamente la imprenta profesional
sino también para despachos mucho más pequeños. En el mismo año Hewlett Packard lanza al mercado su
primera Láser Laserjet, que con 300 puntos por pulgada la comercializa en esos
años por la friolera de 3600 dólares.
§ 1985 aparece la primera
impresora láser color comercializada para las empresa, era la Ricoh color 5000.
La primera impresora con toner
ricoh del
mercado a color.
§ 1990 aparece de nuevo HP
con su impresora con tecnología RET, esta impresora fue un gran cambio en el
mercado por varias razones. La primera fue el precio que bajaba de la barrera
psicológica de los 1000 dolares. La segunda la gran mejora de calidad
conseguida a un sistema llamado PCL 5. Y la tercera razón que hoy en día nunca
se nos ocurriría que no pudo existir antes, es que se podían hacer ampliaciones
y reducciones con tan solo apretar un botón y poco más, podían cambiar
fácilmente el tamaño de las fuentes utilizadas, dejando así libertad de tamaño
al usuario final.
Conectadas por red
§ 1991 Hp pionera en las
carreras tecnológicas vuelve a sorprender lanzando al mercado una impresora que
se podía conectar por red, dejando así libres también las mesas de los más
afortunados, o no… Con ella nacieron las redes Ethernet y los servidores. Era
la llamada laserJet III.
§ 1993 apareció algo que
podríamos decir es una curiosidad, el apagado automático para el ahorro de
energía, esto es otra de las cosas que hace poco que tenemos y lo encontramos
impensable tenernos que acordar de apagar la impresora cuando no la utilizamos.
Pero hace poco más de 20 años si no apagabas la impresora, se quedaba
encendida.
Primera multifunción
§ 1998, sorprendentemente no es
hasta este año que no aparece la primera multifunción, capaz de imprimir,
fotocopiar y enviar faxes, digo sorprendentemente puesto que es lo más típico
de tener en nuestras casas, pasa lo mismo que con los microondas, que no entenderíamos
la vida sin ellos.
§ 1998, aparece al primera
fotocopiadora capaz de trabajar por red y a doble cara. Eran las HP
laserjet 4500 y laserjet 8500.
Y la carrera continua … las empresas se fusionarán,
desaparecerán, aparecerán y cambiarán de nombre. Aparecerán nuevas impresoras
3D, a las cuales ya les dimos una entrada a parte para su historia particular,
y aparecerán todas las impresoras que no nos podemos ni imaginar, de comida, de
espuma de cafés, de grandes formatos o de bolsillo, pero estamos seguros que en
unos años no nos imaginaremos sin ellas…
PROCESADOR

La historia del microprocesador
El microprocesador surgió de la evolución de distintas
tecnologías predecesoras, básicamente de la computación y de la tecnología de
semiconductores. El inicio de esta última data de mitad de la década de 1950;
estas tecnologías se fusionaron a principios de los años 1970, produciendo el
primer microprocesador. Dichas tecnologías iniciaron su desarrollo a partir de
la segunda guerra mundial; en este tiempo los científicos desarrollaron
computadoras específicas para aplicaciones militares. En la posguerra, a
mediados de la década de 1940, la computación digital emprendió un fuerte
crecimiento también para propósitos científicos y civiles. La tecnología
electrónica avanzó y los científicos hicieron grandes progresos en el diseño de
componentes de estado sólido (semiconductores). En 1948 en los laboratorios
Bell crearon el transistor.
En los años 1950, aparecieron las primeras computadoras
digitales de propósito general. Se fabricaron utilizando tubos al vacío o
bulbos como componentes electrónicos activos. Módulos de tubos al vacío
componían circuitos lógicos básicos, tales como compuertas y flip-flops.
Ensamblándolos en módulos se construyó la computadora electrónica (la lógica de
control, circuitos de memoria, etc.). Los tubos de vacío también formaron parte
de la construcción de máquinas para la comunicación con las computadoras.
Para la construcción de un circuito sumador simple se
requiere de algunas compuertas lógicas. La construcción de una computadora
digital precisa numerosos circuitos o dispositivos electrónicos. Un paso
trascendental en el diseño de la computadora fue hacer que el dato fuera
almacenado en memoria. Y la idea de almacenar programas en memoria para luego
ejecutarlo fue también de fundamental importancia (Arquitectura de von
Neumann).
La tecnología de los circuitos de estado sólido evolucionó en
la década de 1950. El empleo del silicio (Si), de bajo costo y con métodos de
producción masiva, hicieron del transistor el componente más usado para el
diseño de circuitos electrónicos. Por lo tanto el diseño de la computadora
digital se reemplazó del tubo al vacío por el transistor, a finales de la
década de 1950.
A principios de la década de 1960, el estado de arte en la
construcción de computadoras de estado sólido sufrió un notable avance;
surgieron las tecnologías en circuitos digitales como: RTL (Lógica Transistor
Resistor), DTL (Lógica Transistor Diodo), TTL (Lógica Transistor Transistor),
ECL (Lógica Complementada Emisor).
A mediados de los años 1960 se producen las familias de
circuitos de lógica digital, dispositivos integrados en escala SSI y MSI que
corresponden a baja y mediana escala de integración de componentes. A finales
de los años 1960 y principios de los 70 surgieron los sistemas a alta escala de
integración o LSI. La tecnología LSI fue haciendo posible incrementar la
cantidad de componentes en los circuitos integrados. Sin embargo, pocos
circuitos LSI fueron producidos, los dispositivos de memoria eran un buen
ejemplo.
Las primeras calculadoras electrónicas requerían entre 75 y
100 circuitos integrados. Después se dio un paso importante en la reducción de
la arquitectura de la computadora a un circuito integrado simple, resultando uno
que fue llamado microprocesador, unión de las palabras «Micro» del griego
μικρο-, «pequeño», y procesador. Sin embargo, es totalmente válido usar el
término genérico procesador, dado que con el paso de los años, la escala de
integración se ha visto reducida de micro métrica a nanométrica; y además, es,
sin duda, un procesador.
El primer microprocesador fue el Intel 4004,1 producido en
1971. Se desarrolló originalmente para una calculadora y resultó revolucionario
para su época. Contenía 2300 transistores, era un microprocesador de
arquitectura de 4 bits que podía realizar hasta 60 000 operaciones por segundo
trabajando a una frecuencia de reloj de alrededor de 700 kHz.
El primer microprocesador de 8 bits fue el Intel 8008,
desarrollado a mediados de 1972 para su uso en terminales informáticos. El
Intel 8008 integraba 3300 transistores y podía procesar a frecuencias máximas
de 800 kHz.
El primer microprocesador realmente diseñado para uso
general, desarrollado en 1974, fue el Intel 8080 de 8 bits, que contenía 4500
transistores y podía ejecutar 200 000 instrucciones por segundo trabajando a
alrededor de 2 MHz.
El primer microprocesador de 16 bits fue el 8086, seguido del
8088. El 8086 fue el inicio y el primer miembro de la popular arquitectura x86,
actualmente usada en la mayoría de los computadores. El chip 8086 fue
introducido al mercado en el verano de 1978, pero debido a que no había
aplicaciones en el mercado que funcionaran con 16 bits, Intel sacó al mercado
el 8088, que fue lanzado en 1979. Llegaron a operar a frecuencias mayores de 4
MHz.
El microprocesador elegido para equipar al IBM Personal
Computer/AT, que causó que fuera el más empleado en los PC-AT compatibles entre
mediados y finales de los años 1980 fue el Intel 80286 (también conocido
simplemente como 286); es un microprocesador de 16 bits, de la familia x86, que
fue lanzado al mercado en 1982. Contaba con 134 000 transistores. Las versiones
finales alcanzaron velocidades de hasta 25 MHz.
Uno de los primeros procesadores de arquitectura de 32 bits
fue el 80386 de Intel, fabricado a mediados y fines de la década de 1980; en
sus diferentes versiones llegó a trabajar a frecuencias del orden de los 40
MHz.
El microprocesador DEC Alpha se lanzó al mercado en 1992,
corriendo a 200 MHz en su primera versión, en tanto que el Intel Pentium surgió
en 1993 con una frecuencia de trabajo de 66 MHz. El procesador Alpha, de
tecnología RISC y arquitectura de 64 bits, marcó un hito, declarándose como el
más rápido del mundo, en su época. Llegó a 1 GHz de frecuencia hacia el año
2001. Irónicamente, a mediados del 2003, cuando se pensaba quitarlo de
circulación, el Alpha aún encabezaba la lista de los microprocesadores más
rápidos de Estados Unidos.2
Los microprocesadores modernos tienen una capacidad y
velocidad mucho mayores, trabajan en arquitecturas de 64 bits, integran más de
700 millones de transistores, como es en el caso de las serie Core i7, y pueden
operar a frecuencias normales algo superiores a los 3 GHz (3000 MHz).
Evolución
El pionero de los actuales microprocesadores: el 4004 de
Intel
Motorola 6800
Zilog Z80 A
Intel 80286, más conocido como 286
Intel 80486, conocido también como 486SX de 33 MHz
IBM PowerPC 601
AMD K6 original
Intel Pentium II; se puede observar su estilo de zócalo diferente
Intel Celeron "Coppermine 128" de 600 MHz
Intel Pentium III
Hasta los primeros años de la década de 1970 los diferentes
componentes electrónicos que formaban un procesador no podían ser un único
circuito integrado, era necesario utilizar dos o tres "chips" para
hacer una CPU (uno era el "ALU" - Arithmetical Logic Unit, el otro la
" control Unit", el otro el " Register Bank", etc.). En
1971 la compañía Intel consiguió por primera vez poner todos los transistores
que constituían un procesador sobre un único circuito integrado, el"4004
"', nacía el microprocesador.
Seguidamente se expone una lista ordenada cronológicamente de
los microprocesadores más populares que fueron surgiendo. En la URSS se
realizaron otros sistemas que dieron lugar a la serie microprocesador Elbrus.
1971: El Intel
4004
El 4004 fue el primer microprocesador del mundo, creado en un
simple chip y desarrollado por Intel. Era un CPU de 4 bits y también fue el
primero disponible comercialmente. Este desarrollo impulsó la calculadora de
Busicom e inició el camino para dotar de «inteligencia» a objetos inanimados y
asimismo, a la computadora personal.
1972: El Intel
8008
Codificado inicialmente como 1201, fue pedido a Intel por
Computer Terminal Corporation para usarlo en su terminal programable Datapoint
2200, pero debido a que Intel terminó el proyecto tarde y a que no cumplía con la
expectativa de Computer Terminal Corporation, finalmente no fue usado en el
Datapoint. Posteriormente Computer Terminal Corporation e Intel acordaron que
el i8008 pudiera ser vendido a otros clientes.
1974: El SC/MP
El SC/MP desarrollado por National Semiconductor, fue uno de
los primeros microprocesadores, y estuvo disponible desde principio de 1974. El
nombre SC/MP (popularmente conocido como «Scamp») es el acrónimo de Simple
Cost-effective Micro Processor (Microprocesador simple y rentable). Presenta un
bus de direcciones de 16 bits y un bus de datos de 8 bits. Una característica,
avanzada para su tiempo, es la capacidad de liberar los buses a fin de que puedan
ser compartidos por varios procesadores. Este microprocesador fue muy
utilizado, por su bajo costo, y provisto en kits, para propósitos educativos,
de investigación y para el desarrollo de controladores industriales diversos.
1974: El Intel
8080
EL 8080 se convirtió en la CPU de la primera computadora
personal, la Altair 8800 de MITS, según se alega, nombrada así por un destino
de la Nave Espacial «Starship» del programa de televisión Viaje a las
Estrellas, y el IMSAI 8080, formando la base para las máquinas que ejecutaban
el sistema operativo CP/M-80. Los fanáticos de las computadoras podían comprar
un equipo Altair por un precio (en aquel momento) de 395 USD. En un periodo de
pocos meses, se vendieron decenas de miles de estos PC.
1975: Motorola
6800
Se fabrica, por parte de Motorola, el Motorola MC6800, más
conocido como 6800. Fue lanzado al mercado poco después del Intel 8080. Su
nombre proviene de que contenía aproximadamente 6800 transistores. Varios de
los primeras microcomputadoras de los años 1970 usaron el 6800 como procesador.
Entre ellas se encuentran la SWTPC 6800, que fue la primera en usarlo, y la muy
conocida Altair 680. Este microprocesador se utilizó profusamente como parte de
un kit para el desarrollo de sistemas controladores en la industria. Partiendo
del 6800 se crearon varios procesadores derivados, siendo uno de los más
potentes el Motorola 6809
1976: El Z80
La compañía Zilog Inc. crea el Zilog Z80. Es un
microprocesador de 8 bits construido en tecnología NMOS, y fue basado en el Intel
8080. Básicamente es una ampliación de éste, con lo que admite todas sus
instrucciones. Un año después sale al mercado el primer computador que hace uso
del Z80, el Tandy TRS-80 Model 1 provisto de un Z80 a 1,77 MHz y 4 KB de RAM.
Es uno de los procesadores de más éxito del mercado, del cual se han producido
numerosas versiones clónicas, y sigue siendo usado de forma extensiva en la
actualidad en multitud de sistemas embebidos. La compañía Zilog fue fundada
1974 por Federico Faggin, quien fue diseñador jefe del microprocesador Intel
4004 y posteriormente del Intel 8080.
1978: Los Intel
8086 y 8088
Una venta realizada por Intel a la nueva división de
computadoras personales de IBM, hizo que las PC de IBM dieran un gran golpe
comercial con el nuevo producto con el 8088, el llamado IBM PC. El éxito del
8088 propulsó a Intel a la lista de las 500 mejores compañías, en la
prestigiosa revista Fortune, y la misma nombró la empresa como uno de Los
triunfos comerciales de los sesenta.
1982: El Intel
80286
El 80286, popularmente conocido como 286, fue el primer
procesador de Intel que podría ejecutar todo el software escrito para su
predecesor. Esta compatibilidad del software sigue siendo un sello de la
familia de microprocesadores de Intel. Luego de seis años de su introducción,
había un estimado de 15 millones de PC basadas en el 286, instaladas alrededor
del mundo.
1985: El Intel
80386
Este procesador Intel, popularmente llamado 386, se integró
con 275 000 transistores, más de 100 veces tantos como en el original 4004. El
386 añadió una arquitectura de 32 bits, con capacidad para multitarea y una
unidad de traslación de páginas, lo que hizo mucho más sencillo implementar
sistemas operativos que usaran memoria virtual.
1985: El VAX 78032
El microprocesador VAX 78032 (también conocido como DC333),
es de único chip y de 32 bits, y fue desarrollado y fabricado por Digital
Equipment Corporation (DEC); instalado en los equipos MicroVAX II, en conjunto
con su chip coprocesador de coma flotante separado, el 78132, tenían una
potencia cercana al 90 % de la que podía entregar el minicomputador VAX 11/780
que fuera presentado en 1977. Este microprocesador contenía 125 000
transistores, fue fabricado con la tecnología ZMOS de DEC. Los sistemas VAX y
los basados en este procesador fueron los preferidos por la comunidad
científica y de ingeniería durante la década de 1980.
1989: El Intel
80486
La generación 486 realmente significó contar con una
computadora personal de prestaciones avanzadas, entre ellas, un conjunto de instrucciones
optimizado, una unidad de coma flotante o FPU, una unidad de interfaz de bus
mejorada y una memoria caché unificada, todo ello integrado en el propio chip
del microprocesador. Estas mejoras hicieron que los i486 fueran el doble de
rápidos que el par i386-i387 operando a la misma frecuencia de reloj. El
procesador Intel 486 fue el primero en ofrecer un coprocesador matemático o FPU
integrado; con él que se aceleraron notablemente las operaciones de cálculo.
Usando una unidad FPU las operaciones matemáticas más complejas son realizadas
por el coprocesador de manera prácticamente independiente a la función del
procesador principal.
1991: El AMD AMx86
Procesadores fabricados por AMD 100 % compatible con los
códigos de Intel de ese momento. Llamados «clones» de Intel, llegaron incluso a
superar la frecuencia de reloj de los procesadores de Intel y a precios
significativamente menores. Aquí se incluyen las series Am286, Am386, Am486 y
Am586.
1993: PowerPC 601
Es un procesador de tecnología RISC de 32 bits, en 50 y 66
MHz. En su diseño utilizaron la interfaz de bus del Motorola 88110. En 1991,
IBM busca una alianza con Apple y Motorola para impulsar la creación de este
microprocesador, surge la alianza AIM (Apple, IBM y Motorola) cuyo objetivo fue
quitar el dominio que Microsoft e Intel tenían en sistemas basados en los 80386
y 80486. PowerPC (abreviada PPC o MPC) es el nombre original de la familia de
procesadores de arquitectura de tipo RISC, que fue desarrollada por la alianza
AIM. Los procesadores de esta familia son utilizados principalmente en
computadores Macintosh de Apple Computer y su alto rendimiento se debe
fuertemente a su arquitectura tipo RISC.
1993: El Intel
Pentium
El microprocesador de Pentium poseía una arquitectura capaz
de ejecutar dos operaciones a la vez, gracias a sus dos tuberías de datos de 32
bits cada uno, uno equivalente al 486DX(u) y el otro equivalente a 486SX(u).
Además, estaba dotado de un bus de datos de 64 bits, y permitía un acceso a
memoria de 64 bits (aunque el procesador seguía manteniendo compatibilidad de
32 bits para las operaciones internas, y los registros también eran de 32
bits). Las versiones que incluían instrucciones MMX no sólo brindaban al
usuario un más eficiente manejo de aplicaciones multimedia, sino que también se
ofrecían en velocidades de hasta 233 MHz. Se incluyó una versión de 200 MHz y
la más básica trabajaba a alrededor de 166 MHz de frecuencia de reloj. El
nombre Pentium, se mencionó en las historietas y en charlas de la televisión a
diario, en realidad se volvió una palabra muy popular poco después de su
introducción.
1994: EL PowerPC
620
En este año IBM y Motorola desarrollan el primer prototipo
del procesador PowerPC de 64 bit,3 la implementación más avanzada de la
arquitectura PowerPC, que estuvo disponible al año próximo. El 620 fue diseñado
para su utilización en servidores, y especialmente optimizado para usarlo en
configuraciones de cuatro y hasta ocho procesadores en servidores de
aplicaciones de base de datos y vídeo. Este procesador incorpora siete millones
de transistores y corre a 133 MHz. Es ofrecido como un puente de migración para
aquellos usuarios que quieren utilizar aplicaciones de 64 bits, sin tener que
renunciar a ejecutar aplicaciones de 32 bits.
1995: EL Intel
Pentium Pro
Lanzado al mercado en otoño de 1995, el procesador Pentium
Pro (profesional) se diseñó con una arquitectura de 32 bits. Se usó en
servidores y los programas y aplicaciones para estaciones de trabajo (de redes)
impulsaron rápidamente su integración en las computadoras. El rendimiento del
código de 32 bits era excelente, pero el Pentium Pro a menudo era más lento que
un Pentium cuando ejecutaba código o sistemas operativos de 16 bits. El
procesador Pentium Pro estaba compuesto por alrededor de 5'5 millones de
transistores.
1996: El AMD K5
Habiendo abandonado los clones, AMD fabricada con tecnologías
análogas a Intel. AMD sacó al mercado su primer procesador propio, el K5, rival
del Pentium. La arquitectura RISC86 del AMD K5 era más semejante a la arquitectura
del Intel Pentium Pro que a la del Pentium. El K5 es internamente un procesador
RISC con una Unidad x86- decodificadora, transforma todos los comandos x86 (de
la aplicación en curso) en comandos RISC. Este principio se usa hasta hoy en
todas las CPU x86. En la mayoría de los aspectos era superior el K5 al Pentium,
incluso de inferior precio, sin embargo AMD tenía poca experiencia en el
desarrollo de microprocesadores y los diferentes hitos de producción marcados
se fueron superando con poco éxito, se retrasó 1 año de su salida al mercado, a
razón de ello sus frecuencias de trabajo eran inferiores a las de la
competencia, y por tanto, los fabricantes de PC dieron por sentado que era
inferior.
1996: Los AMD K6 y
AMD K6-2
Con el K6, AMD no sólo consiguió hacerle seriamente la
competencia a los Pentium MMX de Intel, sino que además amargó lo que de otra
forma hubiese sido un plácido dominio del mercado, ofreciendo un procesador
casi a la altura del Pentium II pero por un precio muy inferior. En cálculos en
coma flotante, el K6 también quedó por debajo del Pentium II, pero por encima
del Pentium MMX y del Pro. El K6 contó con una gama que va desde los 166 hasta
los más de 500 MHz y con el juego de instrucciones MMX, que ya se han
convertido en estándares.
Más adelante se lanzó una mejora de los K6, los K6-2 de 250
nanómetros, para seguir compitiendo con los Pentium II, siendo este último
superior en tareas de coma flotante, pero inferior en tareas de uso general. Se
introduce un juego de instrucciones SIMD denominado 3DNow!
1997: El Intel
Pentium II
Un procesador de 7'5 millones de transistores, se busca entre
los cambios fundamentales con respecto a su predecesor, mejorar el rendimiento
en la ejecución de código de 16 bits, añadir el conjunto de instrucciones MMX y
eliminar la memoria caché de segundo nivel del núcleo del procesador,
colocándola en una tarjeta de circuito impreso junto a éste. Gracias al nuevo
diseño de este procesador, los usuarios de PC pueden capturar, revisar y
compartir fotografías digitales con amigos y familia vía Internet; revisar y
agregar texto, música y otros; con una línea telefónica; el enviar vídeo a
través de las líneas normales del teléfono mediante Internet se convierte en
algo cotidiano.
1998: El Intel
Pentium II Xeon
Los procesadores Pentium II Xeon se diseñan para cumplir con
los requisitos de rendimiento en computadoras de medio-rango, servidores más
potentes y estaciones de trabajo (workstations). Consistente con la estrategia
de Intel para diseñar productos de procesadores con el objetivo de llenar
segmentos de los mercados específicos, el procesador Pentium II Xeon ofrece
innovaciones técnicas diseñadas para las estaciones de trabajo y servidores que
utilizan aplicaciones comerciales exigentes, como servicios de Internet,
almacenamiento de datos corporativos, creaciones digitales y otros. Pueden
configurarse sistemas basados en este procesador para integrar de cuatro u ocho
procesadores trabajando en paralelo, también más allá de esa cantidad.
1999: El Intel
Celeron
Continuando la estrategia, Intel, en el desarrollo de
procesadores para el segmento de mercados específicos, el procesador Celeron es
el nombre que lleva la línea de de bajo costo de Intel. El objetivo fue poder,
mediante ésta segunda marca, penetrar en los mercados impedidos a los Pentium,
de mayor rendimiento y precio. Se diseña para añadir valor al segmento del
mercado de los PC. Proporcionó a los consumidores una gran actuación a un bajo
coste, y entregó un rendimiento destacado para usos como juegos y el software
educativo.
1999: El AMD Athlon K7 (Classic y Thunderbird)
Procesador totalmente compatible con la arquitectura x86.
Internamente el Athlon es un rediseño de su antecesor, pero se le mejoró
substancialmente el sistema de coma flotante (ahora con tres unidades de coma
flotante que pueden trabajar simultáneamente) y se le incrementó la memoria
caché de primer nivel (L1) a 128 KB (64 Kb para datos y 64 Kb para
instrucciones). Además incluye 512 Kb de caché de segundo nivel (L2). El
resultado fue el procesador x86 más potente del
momento.
El procesador Athlon con núcleo Thunderbird apareció como la
evolución del Athlon Classic. Al igual que su predecesor, también se basa en la
arquitectura x86 y usa el bus EV6. El proceso de fabricación usado para todos
estos microprocesadores es de 180 nanómetros. El Athlon Thunderbird consolidó a
AMD como la segunda mayor compañía de fabricación de microprocesadores, ya que
gracias a su excelente rendimiento (superando siempre al Pentium III y a los
primeros Pentium IV de Intel a la misma frecuencia de reloj) y bajo precio, la
hicieron muy popular tanto entre los entendidos como en los iniciados en la
informática.
1999: El Intel Pentium III
El procesador Pentium III ofrece 70 nuevas instrucciones
Internet Streaming, las extensiones de SIMD que refuerzan dramáticamente el
rendimiento con imágenes avanzadas, 3D, añadiendo una mejor calidad de audio,
video y rendimiento en aplicaciones de reconocimiento de voz. Fue diseñado para
reforzar el área del rendimiento en el Internet, le permite a los usuarios
hacer cosas, tales como, navegar a través de páginas pesadas (con muchos
gráficos), tiendas virtuales y transmitir archivos video de alta calidad. El
procesador se integra con 9,5 millones de transistores, y se introdujo usando
en él tecnología 250 nanómetros.
1999: El Intel Pentium III Xeon
El procesador Pentium III Xeon amplía las fortalezas de
Intel en cuanto a las estaciones de trabajo (workstation) y segmentos de
mercado de servidores, y añade una actuación mejorada en las aplicaciones del
comercio electrónico e informática comercial avanzada. Los procesadores
incorporan mejoras que refuerzan el procesamiento multimedia, particularmente
las aplicaciones de vídeo. La tecnología del procesador III Xeon acelera la
transmisión de información a través del bus del sistema al procesador,
mejorando el rendimiento significativamente. Se diseña pensando principalmente
en los sistemas con configuraciones de multiprocesador.
2000: EL Intel Pentium 4
Este es un microprocesador de séptima generación basado en
la arquitectura x86 y fabricado por Intel. Es el primero con un diseño
completamente nuevo desde el Pentium Pro. Se estrenó la arquitectura NetBurst,
la cual no daba mejoras considerables respecto a la anterior P6. Intel sacrificó
el rendimiento de cada ciclo para obtener a cambio mayor cantidad de ciclos por
segundo y una mejora en las instrucciones SSE.
2001: El AMD Athlon XP
Cuando Intel sacó el Pentium 4 a 1,7 GHz en abril de 2001 se
vio que el Athlon Thunderbird no estaba a su nivel. Además no era práctico para
el overclocking, entonces para seguir estando a la cabeza en cuanto a
rendimiento de los procesadores x86, AMD tuvo que diseñar un nuevo núcleo, y
sacó el Athlon XP. Este compatibilizaba las instrucciones SSE y las 3DNow!
Entre las mejoras respecto al Thunderbird se puede mencionar la pre
recuperación de datos por hardware, conocida en inglés como prefetch, y el
aumento de las entradas TLB, de 24 a 32.
2004: El Intel Pentium 4 (Prescott)
A principios de febrero de 2004, Intel introdujo una nueva
versión de Pentium 4 denominada 'Prescott'. Primero se utilizó en su
manufactura un proceso de fabricación de 90 nm y luego se cambió a 65 nm. Su
diferencia con los anteriores es que éstos poseen 1 MiB o 2 MiB de caché L2 y 16
Kb de caché L1 (el doble que los Northwood), prevención de ejecución,
SpeedStep, C1E State, un HyperThreading mejorado, instrucciones SSE3, manejo de
instrucciones AMD64, de 64 bits creadas por AMD, pero denominadas EM64T por
Intel, sin embargo por graves problemas de temperatura y consumo, resultaron un
fracaso frente a los Athlon 64.
2004: El AMD Athlon 64
El AMD Athlon 64 es un microprocesador x86 de octava
generación que implementa el conjunto de instrucciones AMD64, que fueron
introducidas con el procesador Opteron. El Athlon 64 presenta un controlador de
memoria en el propio circuito integrado del microprocesador y otras mejoras de
arquitectura que le dan un mejor rendimiento que los anteriores Athlon y que el
Athlon XP funcionando a la misma velocidad, incluso ejecutando código heredado
de 32 bits. El Athlon 64 también presenta una tecnología de reducción de la
velocidad del procesador llamada Cool'n'Quiet,: cuando el usuario está
ejecutando aplicaciones que requieren poco uso del procesador, baja la
velocidad del mismo y su tensión se reduce.
2006: El Intel Core Duo
Intel lanzó esta gama de procesadores de doble núcleo y CPUs
2x2 MCM (módulo Multi-Chip) de cuatro núcleos con el conjunto de instrucciones
x86-64, basado en la nueva arquitectura Core de Intel. La microarquitectura
Core regresó a velocidades de CPU bajas y mejoró el uso del procesador de ambos
ciclos de velocidad y energía comparados con anteriores NetBurst de los CPU
Pentium 4/D2. La microarquitectura Core provee etapas de decodificación,
unidades de ejecución, caché y buses más eficientes, reduciendo el consumo de
energía de CPU Core 2, mientras se incrementa la capacidad de procesamiento.
Los CPU de Intel han variado muy bruscamente en consumo de energía de acuerdo a
velocidad de procesador, arquitectura y procesos de semiconductor, mostrado en
las tablas de disipación de energía del CPU. Esta gama de procesadores fueron
fabricados de 65 a 45 nanómetros.
2007: El AMD Phenom
Phenom fue el nombre dado por Advanced Micro Devices (AMD) a
la primera generación de procesadores de tres y cuatro núcleos basados en la
microarquitectura K10. Como característica común todos los Phenom tienen
tecnología de 65 nm lograda a través de tecnología de fabricación Silicon on
insulator (SOI). No obstante, Intel, ya se encontraba fabricando mediante la
más avanzada tecnología de proceso de 45 nm en 2008. Los procesadores Phenom
están diseñados para facilitar el uso inteligente de energía y recursos del
sistema, listos para la virtualización, generando un óptimo rendimiento por
vatio. Todas las CPU Phenom poseen características tales como controlador de
memoria DDR2 integrado, tecnología HyperTransport y unidades de coma flotante
de 128 bits, para incrementar la velocidad y el rendimiento de los cálculos de
coma flotante. La arquitectura Direct Connect asegura que los cuatro núcleos
tengan un óptimo acceso al controlador integrado de memoria, logrando un ancho
de banda de 16 Gb/s para intercomunicación de los núcleos del microprocesador y
la tecnología HyperTransport, de manera que las escalas de rendimiento mejoren
con el número de núcleos. Tiene caché L3 compartida para un acceso más rápido a
los datos (y así no depende tanto del tiempo de latencia de la RAM), además de
compatibilidad de infraestructura de los zócalos AM2, AM2+ y AM3 para permitir
un camino de actualización sin sobresaltos. A pesar de todo, no llegaron a
igualar el rendimiento de la serie Core 2 Duo.
2008: El Intel Core i7 Nehalem
Intel Core i7 es una familia de procesadores de cuatro
núcleos de la arquitectura Intel x86-64. Los Core i7 son los primeros
procesadores que usan la microarquitectura Nehalem de Intel y es el sucesor de
la familia Intel Core 2. FSB es reemplazado por la interfaz QuickPath en i7 e
i5 (zócalo 1366), y sustituido a su vez en i7, i5 e i3 (zócalo 1156) por el DMI
eliminado el northBrige e implementando puertos PCI Express directamente.
Memoria de tres canales (ancho de datos de 192 bits): cada canal puede soportar
una o dos memorias DIMM DDR3. Las placa base compatibles con Core i7 tienen
cuatro (3+1) o seis ranuras DIMM en lugar de dos o cuatro, y las DIMM deben ser
instaladas en grupos de tres, no dos. El Hyperthreading fue reimplementado
creando núcleos lógicos. Está fabricado a arquitecturas de 45 nm y 32 nm y
posee 731 millones de transistores su versión más potente. Se volvió a usar
frecuencias altas, aunque a contrapartida los consumos se dispararon.
2008: Los AMD Phenom II y Athlon II
Phenom II es el nombre dado por AMD a una familia de
microprocesadores o CPUs multinúcleo (multicore) fabricados en 45 nm, la cual
sucede al Phenom original y dieron soporte a DDR3. Una de las ventajas del paso
de los 65 nm a los 45 nm, es que permitió aumentar la cantidad de caché L3. De
hecho, ésta se incrementó de una manera generosa, pasando de los 2 MiB del
Phenom original a 6 MiB.
Entre ellos, el Amd Phenom II X2 BE 555 de doble núcleo
surge como el procesador binúcleo del mercado. También se lanzan tres Athlon II
con sólo Caché L2, pero con buena relación precio/rendimiento. El Amd Athlon II
X4 630 corre a 2,8 GHz. El Amd Athlon II X4 635continúa la misma línea.
AMD también lanza un triple núcleo, llamado Athlon II X3
440, así como un doble núcleo Athlon II X2 255. También sale el Phenom X4 995,
de cuatro núcleos, que corre a más de 3,2 GHz. También AMD lanza la familia
Thurban con seis núcleos físicos dentro del encapsulado
2011: El Intel Core Sandy Bridge
Llegan para remplazar los chips Nehalem, con Intel Core i3,
Intel Core i5 e Intel Core i7 serie 2000 y Pentium G.
Intel lanzó sus procesadores que se conocen con el nombre en
clave Sandy Bridge. Estos procesadores Intel Core que no tienen sustanciales
cambios en arquitectura respecto a nehalem, pero si los necesarios para
hacerlos más eficientes y rápidos que los modelos anteriores. Es la segunda
generación de los Intel Core con nuevas instrucciones de 256 bits, duplicando
el rendimiento, mejorando el rendimiento en 3D y todo lo que se relacione con
operación en multimedia. Llegaron la primera semana de enero del 2011. Incluye
nuevo conjunto de instrucciones denominado AVX y una GPU integrada de hasta 12
unidades de ejecución
2011: El AMD Fusion
AMD Fusion es el nombre clave para los microprocesadores
Turion, producto de la fusión entre AMD y ATI, se combinan el proceso de la geometría
3D y otras funciones de GPUs actuales. La GPU está integrada en el propio
microprocesador. Los primeros modelos salieron entre los últimos meses de 2010
y primeros de 2011 denominados Ontaro y Zacate (bajo consumo), Llano, Brazos y
Bulldozer (gamas media y alta) salieron entre mediados y finales del 2011.
2012: El Intel Core Ivy Bridge
Ivy Bridge es el nombre en clave de los procesadores
conocidos como Intel Core de tercera generación. Son por tanto sucesores de los
micros que aparecieron a principios de 2011, cuyo nombre en clave es Sandy
Bridge. Pasamos de los 32 nanómetros de ancho de transistor en Sandy Bridge a
los 22 de Ivy Bridge. Esto le permite meter el doble de ellos en la misma área.
Un mayor número de transistores significa que puedes poner más bloques
funcionales dentro del chip. Es decir, este será capaz de hacer un mayor número
de tareas al mismo tiempo.
2013: El Intel Core Haswell
Haswell es el nombre clave de los procesadores de cuarta
generación de Intel Core. Son la corrección de errores de la tercera generación
e implementan nuevas tecnologías gráficas para el gamming y el diseño gráfico,
funcionando con un menor consumo y teniendo un mejor rendimiento a un buen
precio. Continúa como su predecesor en 22 nanómetros pero funciona con un nuevo
socket con clave 1150. Tienen un costo elevado a comparación con los APU's y FX
de AMD pero tienen un mayor rendimiento.
2017: El Intel Core i7-7920HQ
Este procesador está en la línea de la séptima generación,
incorporando una potencia y una capacidad de respuesta nunca antes vistas.
Especialmente fabricado para usuarios exigentes que quieren aumentar su
productividad, sin dejar de lado a aquellos que pretenden pensar también en el
entretenimiento y juegos sensacionales, con alta transferencia de datos y mucho
más, ya está disponible en el mercado.
2017: AMD Ryzen
Es una marca de procesadores desarrollados por AMD lanzada
en febrero de 2017, usa la microarquitectura Zen en proceso de fabricación de
14 nm y cuentan con 4800 millones de transistores, ofrecen un gran rendimiento
multi-hilo pero uno menor usando un solo hilo que los de su competencia Intel.
Estos requieren del zócalo AM4 y todas las tarjetas madre para este tipo de
procesadores incorporan multiplicadores desbloqueados para overclocking, además
que todos los productos soportan overclocking automático, aunque esto
procesadores no cuentan con GPU integrada, por lo que dependen de una solución
dedicada. Los procesadores Ryzen devolvieron a AMD a la gama alta de CPUs de
escritorio, capaces de competir en rendimiento contra los procesadores Core i7
de Intel con precios menores y competitivos; desde su lanzamiento la cuota de
mercado de AMD ha aumentado.
DISCO DURO

HISTORIA
Antiguo disco duro de IBM (modelo 62PC, «Piccolo»), de 64,5
MB, fabricado en 1979.
Al principio los discos duros eran extraíbles, sin embargo,
hoy en día típicamente vienen todos sellados (a excepción de un hueco de
ventilación para filtrar e igualar la presión del aire).
El primer disco duro, aparecido en 1956, fue el Ramac I,
presentado con la computadora IBM 350: pesaba una tonelada y su capacidad era
de 5 MB. Más grande que un frigorífico actual, este disco duro trabajaba
todavía con válvulas de vacío y requería una consola separada para su manejo.
Su gran mérito consistía en que el tiempo requerido para el
acceso era relativamente constante entre algunas posiciones de memoria. Este
tipo de acceso se conoce como acceso aleatorio. En cambio, en las cintas
magnéticas era necesario enrollar y desenrollar los carretes hasta encontrar el
dato buscado, teniendo tiempos de acceso muy dispares para cada posición. Este
tipo de acceso se conoce como acceso secuencial.
La tecnología inicial aplicada a los discos duros era
relativamente simple. Consistía en recubrir con material magnético un disco de
metal que era formateado en pistas concéntricas, que luego eran divididas en
sectores. El cabezal magnético codificaba información al magnetizar diminutas
secciones del disco duro, empleando un código binario de «ceros» y «unos». Los
bits o dígitos binarios así grabados pueden permanecer intactos durante años.
Originalmente, cada bit tenía una disposición horizontal en la superficie
magnética del disco, pero luego se descubrió cómo registrar la información de
una manera más compacta.
El mérito del francés Albert Fert y al alemán Peter Grünberg
(ambos premio Nobel de Física por sus contribuciones en el campo del
almacenamiento magnético) fue el descubrimiento del fenómeno conocido como
magnetorresistencia gigante, que permitió construir cabezales de lectura y
grabación más sensibles, y compactar más los bits en la superficie del disco
duro. De estos descubrimientos, realizados en forma independiente por estos
investigadores, se desprendió un crecimiento espectacular en la capacidad de
almacenamiento en los discos duros, que se elevó un 60 % anual en la década de
1990.
En 1992, los discos duros de 3,5 pulgadas alojaban 250 MB,
mientras que 10 años después habían superado 40 GB (40 960 MB). A la fecha
(2017), ya se dispone de en el uso cotidiano con discos duros de más de 5 TB,
esto es, 5120 GB (5 242 880 MB).
En 2001 fue lanzado el iPod, que empleaba un disco duro que
ofrecía una capacidad alta para la época. Junto a la simplicidad, calidad y
elegancia del dispositivo, este fue un factor clave para su éxito.
En 2005 los primeros teléfonos móviles que incluían discos
duros fueron presentados por Samsung y Nokia, aunque no tuvieron mucho éxito ya
que las memorias flash los acabaron desplazando, debido al aumento de
capacidad, mayor resistencia y menor consumo de energía.
UNIDAD
CD

HISTORIA DEL CD
El disco compacto fue creado en 1979 por el holandés Kees
Schouhamer Immink, de Philips, y el japonés Toshitada Doi, de Sony.
Al año siguiente, Sony y Philips, que habían desarrollado el
sistema de audio digital: Compact Disc (CD), comenzaron a distribuir discos
compactos, pero las ventas no tuvieron éxito por la depresión económica de
aquella época. Entonces decidieron abarcar el mercado de la música clásica, de
mayor calidad.
El sistema óptico fue desarrollado por Philips mientras que
la lectura y codificación digital corrió a cargo de Sony. En junio de 1980, fue
presentado a la industria, y se adhirieron al nuevo producto 40 compañías de
todo el mundo mediante la obtención de las licencias correspondientes para la
producción de reproductores y discos.
En 1981, el director de orquesta Herbert Von Karajan,
convencido del valor de los discos compactos, los promovió durante el Festival
de Salzburgo, y desde ese momento empezó su éxito.
Los primeros títulos grabados en discos compactos en Europa
fueron la “Sinfonía Alpina”, de Richard Strauss, los valses de Frédéric Chopin
interpretados por el pianista chileno Claudio Arrau, y el álbum “The Visitors”,
de ABBA.
El 1 de octubre 1982 Sony lanza su primer lector de Compact
Disc (modelo CDP-101). Lo bautizaron con el nombre de CDP-101y se puso a la
venta a un precio de 168 mil Yenes, mil 22 euros al cambio actual.
En los primeros prototipos con los que trabajó la
multinacional nipona, el CD se insertaba en posición vertical, pero al final
decidieron que sería más fácil de utilizar si permitían que los futuros
compradores introdujeran los Compact Disc horizontalmente.
El primer CD de música que CBS/Sony lanzó para este
reproductor fue el disco “52nd Street”, de Billy Joel. Sus ventas, como era de
esperar, fueron escasas dada la carente penetración de esta tecnología.
Hubo que esperar entonces tres años más para que Dire
Straits, con su ya mítico “Brothers in Arms”, se convirtiera en el primer grupo
capaz de vender un millón de copias de su álbum en formato CD.
La producción de discos compactos se centralizó por varios
años en los Estados Unidos y Alemania, donde eran distribuidos a todo el mundo.
Ya entrada la década de los 90 se instalaron fábricas en
diversos países. En 1992 Sonopress produjo en México el primer CD con el título
“De Mil Colores”, de Daniela Romo.
En 1984 salieron al mundo de la informática, permitiendo
almacenar hasta 650 MB. El diámetro de la perforación central de los discos
compactos fue determinado en 15 mm, inspirándose en el diámetro de la moneda de
10 centavos del florín de Holanda.
En cambio, el diámetro de los discos compactos es de 12 cm,
lo que corresponde a la anchura de los bolsillos superiores de las camisas para
hombres, porque según la filosofía de Sony, todo debía caber allí.
Evolución
El disco compacto (conocido popularmente como CD por las
siglas en inglés de Compact Disc) es un disco óptico utilizado para almacenar
datos en formato digital, consistentes en cualquier tipo de información (audio,
imágenes, vídeo, documentos y otros datos).Los CD estándar tienen un diámetro
de 12 centímetros, un espesor de 1,2 milímetros y pueden almacenar hasta 80
minutos de audio o 700 MB de datos. Los Mini-CD tienen 8 cm y son usados para
la distribución de sencillos y de controladores guardando hasta 24 minutos de
audio o 214 MB de datos. Esta tecnología fue inicialmente utilizada para el CD
audio, y más tarde fue expandida y adaptada para el almacenamiento de datos
(CD-ROM), de video (VCD y SVCD), la grabación doméstica (CD-R y CD-RW) y el
almacenamiento de datos mixtos (CD-i, Photo CD y CD EXTRA).El disco compacto
goza de popularidad en el mundo actual. En el año 2007 se habían vendido 200
mil millones de CD en el mundo desde su creación. Aun así, los discos compactos
se complementan con otros tipos de distribución digital y almacenamiento, como
las memorias USB, las tarjetas SD, los discos duros y las unidades de estado
sólido. Desde su pico en el año 2000, las ventas de CD han disminuido alrededor
de un 50%.[cita requerida]
DVD

HISTORIA Y EVOLUCIÓN
A principios de los años 90s las empresas Phillips y Sony
estaban en proceso de desarrollo de el (MMCD) Multimedia Compact Disc, a su vez
otro conglomerado de empresas (Toshiba, Time-Warner, Matsushita Electric,
Hitachi, Mitsubishi Electric, Pioneer, Thomson y JVC ) desarrollaba
simultáneamente otro formato conocido como (SD) Super Density disc.
Gracias a la inicicativa de Lou Gerstner, por entonces
presidente de la IBM ; quien para evitar una costosa guerra entre compañías y
formatos, como había pasado hacia años con el VHS y BETA en la década de los
80s, hizo la labor de conciliación entre los dos conglomerados empresariales.
Phillips y Sony aceptaron entonces abandonar su formato MMCD, y acordaron
adoptar el Super Density disc con algunas modificaciones.
El resultado de esta unión de tecnologías y desarrollos fue
el DVD de especificación 1.5 lanzado en el año de 1996. En mayo de 1997, el
consorcio DVD (DVD Consortium) fue reemplazado por el foro DVD (DVD Forum), que
estaba abierto a todas las demás empresas desarrolladoras.
El DVD (Disco Versátil Digital, del inglés Digital Versatile
Disc ), es actualmente el formato estándar para el almacenamiento y
distribución de video y audio. Posee idénticas dimensiones físicas que su
antecesor el CD ( compact disc o disco compacto). Posteriormente se creó el
DVD+R y DVD+RW para evitar pagar la licencia al DVD Forum, estos no forman
parte del estándar DVD y no muestra el logotipo.
Los DVD pueden clasificarse según su
contenido en:
DVD-Video: Películas (vídeo y audio).
DVD-Audio: Audio de alta definición.
DVD-Data: Datos cualesquiera.
Según su capacidad de regrabado:
DVD-ROM: Sólo lectura, manufacturado con prensa.
DVD R: Grabable una sola vez.
DVD RW: Regrabable.
DVD R DL: Grabable una sola vez de doble capacidad.
DVD RW DL: Regrabable de doble capa.
La velocidad de transferencia de datos de una unidad DVD
está dada en múltiplos de 1.350 kB/s, lo que significa que una unidad lectora
de 16x, permite una transferencia de datos de 16 x 1.350 = 21.600 kB/s (21,09
MB/s).
Como las velocidades de las unidades de CD se dan en
múltiplos de 150 kB/s, cada múltiplo de velocidad en DVD equivale a nueve
múltiplos de velocidad en CD. En términos de rotación física (revoluciones por
minuto), un múltiplo de velocidad en DVD equivale a tres múltiplos de velocidad
en CD, así que la cantidad de datos leída durante una rotación es tres veces
mayor para el DVD que para el CD, y la unidad de DVD 8x tiene la misma
velocidad rotacional que la unidad de CD 24x.
Posteriormente se han realizado nuevos desarrollados, para
encontrar un nuevo formato que remplace al conocido DVD, los que se disputaron
la supremacía fueron el “HD DVD” y el “Blue Ray” (nacido por fuera del seno del
DVD forum ). El 19 de febrero del año pasado, Toshiba, en rueda de prensa,
anunció el final de la fabricación y distribución del HD DVD, dando al
“Blu-Ray” la victoria de la "Guerra de los Formatos", que seguramente
en muy poco tiempo volveremos a ver con otros protagonistas.
BLURRAY

HISTORIA Y EVOLUCIÓN DEL BLU RAY
Association, organismo que desarrolla la tecnología Blu-ray,
ha anunciado un nuevo estándar que mejora de forma importante la capacidad de
almacenamiento de estos discos ópticos. El nuevo estándar, de nombre BDXL
(Blu-Ray eXtra Large), dobla la capacidad de escritura de los actuales 50 Gb a
los nuevos 128 GB gracias a la incorporación de hasta cuatro capas grabables.
El problema reside en que no es compatible con el formato anterior, por lo que
se necesitaría nuevo dispositivo para reproducir/grabar.
BDXL ofrece una capacidad de escritura de 128GB (discos de
una única grabación) y 100GB de sobre escritura (discos regrabables).El nuevo
estándar de Blu-ray pretende cubrir las necesidades de aquellos que necesiten
soluciones de archivado de alta capacidad.
EN EL 2002
La mejor razón por la cual el Blu Ray debería reemplazar al DVD
es que al tener una mayor capacidad de almacenamiento de datos permitirá
reproducir películas y contenidos para televisión de alta definición con mucha
mayor calidad y duración. Además el espacio de almacenamiento de datos extra permitirá
agregar muchas más opciones multimedia, contenidos extras y potenciar la
interactividad con el usuario.
EN EL 2000
Los primeros discos de Blu Ray al almacenar la información
mas cerca de la superficie eran vulnerables a rayones y al desgaste por lo cual
tenían problemas en la reproducción y debían usar coberturas protectoras. Esto
se vio solucionado con la introducción de nuevas tecnologías de polímeros para
efectuar los recubrimientos siendo TDK la pionera nombrando a su tecnología
Durabis. Sony también desarrollo sus recubrimientos anti rayon y anti estatica.
Verbatim a su vez también tiene su propia tecnología de cobertura llamada
Scrachtguard.
.ORIGEN INDUSTRIAL
El BLU RAY es una especificación de CD con mayor capacidad. El desarrollo de
esta tecnología se remonta a investigaciones conjuntas de Sony y Pioneer, presentándose
un primer prototipo en el año 2000, en el año 2002 se fundo una asociación entre
varias empresas para desarrollar la tecnología conocida como Blu-Ray Disc
Association. Paralelamente y con Toshiba a la cabeza se comenzó a desarrollar
la tecnología Hd-Dvd. Se realizaron varios intentos de unificar los formatos
para evitar una guerra de formatos, pero no se pudieron resolver las
diferencias inherentes al software a utilizar, mientras que Blu Ray opto por
Java, Hd-dvd opto por un sistema basado en software Microsoft. En 2005 TDK
logro desarrollar un disco Blu Ray con un recubrimiento de polímero mejorado lo
cual permitió que en 2006 se lanzaran al mercado los primeros reproductores de
Blu Ray al mismo tiempo que se comenzaron a lanzar películas al mercado.
ORIGEN DEL NOMBRE
El nombre blu-ray proviene del color azul (blue) de su rayo
láser; fue eliminada la "e" de blue porque en algunos países no
pueden registrarse comercialmente palabras comunes.
LECTORES DE
MEMORIA
Lector de
tarjetas de memoria moderno típico, compatible con muchos formatos comunes.
Un lector de tarjetas de memoria es
un dispositivo
de almacenamiento de datos para acceder (leer) los datos en una tarjeta de memoria, como por
ejemplo: CompactFlash (CF), Secure Digital (SD) o MultiMediaCard (MMC). Es un periférico de entrada.
La
mayoría de los lectores de tarjetas también ofrecen capacidad de escritura, y
junto con la tarjeta, esto puede funcionar como un memoria USB o pendrive.
Un
lector de tarjetas múltiple se utiliza para la comunicación con más de un tipo
de de tarjeta de memoria flash. Los multi-lectores de tarjetas no se han
incorporado en la capacidad de memoria, pero son capaces de aceptar varios
tipos y estilos de las tarjetas de memoria.
El
número de tarjetas de memoria compatibles varía de lector a lector y puede
incluir más de veinte tipos diferentes. La cantidad de tarjetas de memoria
diferentes que un multi-lector de tarjetas puede aceptar se expresa como
"x-en-1", siendo "x" una figura de mérito que indica la
cantidad de tipos de tarjetas de memoria aceptadas (por ejemplo:
"5-en-1").
Hay
tres categorías de lectores de tarjetas, según el tipo y la cantidad de las
ranuras para tarjetas:
1. Lector de tarjetas único (por ejemplo
1x SD-solamente),
2. Lector de tarjetas multi (por
ejemplo, 9-en-1) y
3. Lector de tarjetas en serie (por
ejemplo 4x SD solamente).
Algunos
tipos de tarjetas de memoria con sus propias funciones de USB no necesitan el
lector de tarjetas, como la tarjeta de memoria Intelligent
Stick,
que se puede conectar directamente a un puerto USB. La clase de
dispositivo USB que utiliza
es 0x08.
El
moderno UDMA-7, las tarjetas CompactFlash y UHS-I Secure Digital ofrecen
velocidades de datos de más de 89 MBytes/seg y hasta 145 MBytes/seg,1 que requieren lectores de tarjetas de
memoria capaces de velocidades de transferencia de datos USB 3.0.
TARJETAS DE VIDEO

HISTORIA
En la actualidad es imposible pensar en un computador sin
tarjeta de video, por lo tanto para conocer el origen de la tarjeta de video
debemos remontarnos a principios de los 60’, en esa época los ordenadores se
comunicaban visualmente mediante la emisión de mensajes, a través de primitivas
impresoras de línea.
A fines de esta década las impresoras comenzaron a ser
sustituidas por monitores, con esto se dio una imagen electrónica al espacio de
trabajo del usuario; a su vez este componente es el que más ha evolucionado a
lo largo del tiempo.
IBM y el origen de la Tarjeta de Video
tarjetas de video origen MDA colórela primera tarjeta
gráfica fue desarrollada por IBM en 1981, conocida como MDA (Monochrome Display
Adapter), trabajaba en modo texto y era capaz de representar 25 líneas de 80
caracteres en pantalla; contaba con una memoria RAM de video de 4 Kb, por lo
que sólo podía trabajar con una página de memoria. Se usaba con monitores
monocromáticos, de tonalidad normalmente verde y de ahí parte su denominación.
Durante años esta tarjeta fue tomada como el estándar en tarjetas de video
monocromo.
Tarjetas de video origen CGA
En 1981 llegaron también los primeros colores y gráficos con
la CGA (Color Graphics Adapter), ésta trabajaba tanto en modo texto como
gráfico. En modo texto representaba lo mismo que la MDA, pero el texto era
menos legible debido a que los caracteres se basaban en una matriz de puntos
más pequeña. En modo gráfico podía representar cuatro colores con una
resolución de 320×200 puntos. La CGA contaba con cuatro veces más memoria que
la MDA (16 Kb) y podía conectarse a monitores RGB que eran capaces de emitir
color.
En 1982 se desarrolló la HGC (Hércules Graphics Card) por
Van Suwannukul, fundador de Hercule Computer Technology. Sus posibilidades con
respecto de las anteriores eran abrumadoras puesto que además del modo texto,
podía gestionar dos páginas gráficas con una resolución de 720×348 puntos en
pantalla. Con ello combina la estupenda legibilidad en modo texto de la MDA con
las capacidades gráficas de la CGA, ampliando incluso la resolución; sin
embargo la tarjeta HGC no era capaz de mostrar color por pantalla por lo que no
llegó a estandarizarse como la CGA. La tarjeta Hércules tenía una memoria de
643 Kb y no era totalmente compatible con las tarjetas de IBM.
En 1985 IBM presentó la EGA (Enhaced Graphics Adapter), ésta
era compatible con MDA y CGA; con una resolución de 640×350 puntos, se podían
representar 16 colores diferentes de una paleta de 64; también se aumentó la
RAM de video hasta 256 Kb para tener espacio al representar varias páginas
gráficas como hacía la HGC.
Tarjetas de Video y el salto
cualitativo
En 1990 IBM desarrolló la VGA (Video Graphics Array) que
tuvo una aceptación masiva en el mercado, esto obligó a compañías como ATI, Cirrus Logic y S3
Graphics, a trabajar sobre dicha tarjeta para mejorar la resolución y el número
de colores. Así nació el estándar SVGA (Super Video Graphics Array), con dicho
estándar se alcanzaron los 2 MB de memoria de vídeo, así como resoluciones de
1024 x 768 puntos a 256 colores de una paleta de 262. Supusieron un nuevo paso
en la consecución de gráficos de alta calidad, son ambas compatibles con las
tarjetas anteriormente mencionadas y por lo tanto el software desarrollado pudo
ser utilizado sin problemas.
Tarjetas de Video 3D
La evolución de las tarjetas gráficas dio un giro importante
en 1995 con la aparición de las primeras tarjetas 2D/3D, fabricadas por Matrox,
Creative, S3 y ATI, entre otros. Dichas tarjetas cumplían el estándar SVGA,
pero incorporaban funciones 3D. En 1997, 3dfx lanzó el chip gráfico Voodoo, con
una gran potencia de cálculo, así como nuevos efectos 3D (Mip Mapping,
Z-Buffering, Antialiasing).A partir de ese punto, se suceden una serie de
lanzamientos de tarjetas gráficas como Voodoo2 de 3dfx, TNT y TNT2 de NVIDIA.
La potencia alcanzada por dichas tarjetas fue tal que el
puerto PCI donde se conectaban se quedó corto. En 1997 Intel desarrolló el
puerto AGP (Accelerated Graphics Port) que solucionaría los cuellos de botella
que empezaban a aparecer entre el procesador y la tarjeta. El puerto AGP fue
suplantado luego por el PCI Express creado en 2003 por INTEL, IBM, DELL y HP;
PCI Express es actualmente el estándar adoptado por la industria.
Dominio de NVIDIA
Desde 1999, NVIDIA ha dominado el mercado de las tarjetas
gráficas (absorbiendo incluso a 3dfx) con su gama GeForce. En 1999, NVIDIA
inventa la GPU (Unidad de proceso gráfico), un procesador dedicado a tareas
gráficas que viene integrado en la tarjeta de video, este acontecimiento
revolucionará la industria de los gráficos. La primera tarjeta con GPU fue la
GeForce 256 que era capaz de procesar más de 10 millones de polígonos por
segundo, las GPUs actuales pueden procesar más de 2000 millones de polígonos
por segundo.
En los años siguientes, las mejoras se enfocaron en el campo
de los algoritmos 3D y la velocidad de los procesadores gráficos. Sin embargo,
las memorias también necesitaban mejorar su velocidad, por lo que se
incorporaron las memorias DDR a las tarjetas gráficas. Las capacidades de
memoria de vídeo en la época pasan de los 32 Mb de GeForce, hasta los 64 y 128
Mb de GeForce 4.
Hasta el 2006, NVIDIA y ATI se repartieron el liderazgo del
mercado con sus series de chips gráficos GeForce y Radeon, respectivamente. En
este año ATI es comprada por la empresa AMD por U$D 5400 millones lo que la
convierte en la principal competidora de NVIDIA e INTEL.
Presente y futuro de las tarjetas gráficas
No hay duda tanto NVIDIA como AMD son las empresas que más
ha aportado al avance y la innovación en materia de dispositivos y procesadores
gráficos, y son actualmente los líderes del mercado en esta área. Sus productos
se encuentran en una variedad de dispositivos, desde las clásicas PC, pasando
por dispositivos móviles y servidores hasta consolas de video juegos como la
Play Station 4, entre otros.
Tan grande es su dominio en esta industria que revisar la historia
reciente de las tarjetas de video es también recorrer los avances que NVIDIA y
AMD han logrado en la industria. Por lo tanto, vale la pena mencionar algunos
hitos importantes:
2001, NVIDIA produce la primer GPU programable, la GeForce
3.
2004, NVIDIA lanza la tecnología SLI que permite combinar la
potencia de varias GPU en la mismas PC.
2006, NVIDIA presenta CUDA, una arquitectura revolucionaria
de cálculo en la GPU que permite a los científicos aprovechar la capacidad de
procesamiento en las GPU para resolver problemas computacionales complejos.
2008, se construye TSUBAME, uno de los 500 super
computadores más rápidos del mundo y el primero basado en la GPU Tesla de
NVIDIA.
2009, AMD introduce ATI Radeon HD 5970, la tarjeta gráfica
más rápida en el mundo hasta la fecha, diseñada para sustentar los juegos de PC
más demandantes.
2012, NVIDIA presenta la primera GPU virtualizada y la
tecnología GRID traslada por primera vez en la historia el procesamiento
gráfico desde las tarjetas a la nube.
2014, AMD presentó la AMD Radeon R9 295X2, la tarjeta de
video más rápida y más potente del mundo, alimentada por dos GPU AMD Radeon
Serie R9 en una única tarjeta.
Y que podemos esperar en el futuro? desde el origen de la
tarjeta de video hasta el presente hemos visto un avance tecnológico
exponencial, por lo que podemos suponer que en poco tiempo veamos importantes
logros respecto a las tecnologías de Realidad Virtual, Realidad Aumentada,
hologramas y procesamiento gráfico en la nube, entre otros.
Las tarjetas de video han sido y son, uno de los principales
componentes en los PC, además han contribuido sustancialmente en la
popularización de las computadoras entre los usuarios finales, a la vez han
logrado propulsar mercados tan importantes como la producción de películas
animadas y la creación de juegos electrónicos entre otros.
TARJETA DE SONIDO

HISTORIA
Antes de que se inventaran las tarjetas de sonido las
computadoras solo emitían un sonido llamado beep este funcionaba como aviso de
algún error por el usuario o el arranque del aparato.
Después de esta surgió la tarjeta SoundBlaster que era
compatible con la anterior este incorporaba ya la posibilidad de grabar y
reproducir audio en 8 bits
Todo, probablemente, comenzó con la aparición en el mercado
de una tarjeta ya casi olvidada, con nombre en latín “AdLib”. Esta tarjeta
disponía de síntesis FM que servía para la
síntesis por modulación de frecuencias, una tecnología inventada por el
MIT en los años 60. Con esa capacidad, sólo se podía reproducir música desde
secuenciadores MIDI, o reproducir la música y los efectos con los que contaban
los juegos.
Después de esta apareció la tarjeta llamada SoundBlaster la
cual además de ser compatible con la anterior y de contener las características
iguales a ese ya contaba con la posibilidad de poder grabar sonidos en 8 bits;
el cual permitía emitir sonidos mucho más reales en los efectos que presentaba
un juego.
En 1989 surgió la tarjeta denominada Turtle Beach Multisound
este producto no estubo orientado al mercado domestico ya que contenia un chip
DSP Motorola y su precio era mucho más
alto que los anteriores por lo cual solo fue dirigida al mercado de audio
profesional. Una característica de esta es que ya no contenía la síntesis FM
sino en ves de esta una sintesis PCM ahora llamada wavetable; tambien permitia
la grabacion de audio de 16 bits.
La famosa Gravis Ultrasound (GUS) para mejorar su uso este
contenia una memoria RAM de 256 Kb el cual permitia guardar grabaciones de
instrumentos reales; este a pesar de reproducir sonidos de hasta 16 bits solo
podria grabarlos en 8 bits por lo cual no fue usado en los campos de la
grabacion auditiva.
Con la Sound Blaster 16 que ya contenia las características
anteriores la empresa que la fabricaba sacon una version ASP de la Sound
Blaster que contenia un chip de proceso digital digital este permitia mejoras al añadir efectos de
reverberacion y 3D y contenia compresion
de ficheros.
Sound Blaster 32 disponia de sonido wavetable en 1Mb de ROM,
además de la sintesis FM efectos de reverberacion y polifonía de hasta 32 voces
compatible con MIDI, tambien admitia grabacion y reproducción simultanea de
audio a disco duro.
Despues surgio la Sound Blaster AWE 32 Pnp que añade a la Sb
(soundblaster) sonido 3D y 512 Kb de RAM para lo que incluye un software y
secuenciador MIDI.
MIDI (Interfaz
Digital de Instrumentos Musicales).- Protocolo de comunicación serial estándar
que permite a los computadores, sintetizadores, secuenciadores y otros dispositivos musicales electrónicos
comunicarse y compartir información para la generación de sonidos.
Surgió a finales de la década de los 70 trajo consigo el
problema de la incompatibilidad de los sistemas que usaba cada compañía
fabricante. De este modo se hacía necesario crear un lenguaje común por encima
de los parámetros
Que cada marca iba generando a lo largo del desarrollo de
los instrumentos electrónicos puesto a profesionales del sector.
La primera especificación MIDI se publicó en agosto de 1983.
Cabe aclarar que MIDI no transmite señales de audio, sino
datos de eventos y mensajes controladores que se pueden interpretar de manera
arbitraria, de acuerdo con la programación del dispositivo que los recibe. Es
decir, MIDI es una especie de “partitura” que contiene las instrucciones en valores numéricos (0-127) sobre cuándo
generar cada nota de sonido y las
características que debe tener; el aparato al que se envíe dicha partitura la
transformará en música completamente audible.
Estos se clasifican en tres grandes categorías:
Controladores: generan los
mensajes MIDI (activación o desactivación de una nota, variaciones de tono,
etc.). El controlador más familiar a los músicos tiene forma de teclado de
piano, al ser este instrumento el más utilizado a la hora de componer e
interpretar las obras orquestales; sin embargo, hoy día se han construido todo
tipo de instrumentos con capacidad de transmisión vía interfaz MIDI: órganos de
tubos, guitarras, parches de percusion, clarinetes electrónicos, incluso gaitas
MIDI.
Unidades generadoras de sonido: también
conocidas como módulos de sonido, reciben los mensajes MIDI y los transforman
en señales sonoras (recordemos que MIDI no transmite audio, sino paquetes de
órdenes en formato numérico).
Secuenciadores: no son más
que aparatos destinados a grabar, reproducir o editar mensajes MIDI. Pueden
desarrollarse bien en formato de hardware bien como software de computadora, o bien incorporados en un
sintetizador.
Ventajas:
Poco tamaño independiente de la calidad (entre 200 y 1000
veces menor que digitalizado).
Consume pocos recursos de RAM y CPU.
Desventajas:
Calidad de reproducción depende de la tarjeta.
No reproducen con facilidad voz humana.
Menos soportados que los formatos digitales.
TARJETA WIFI
HISTORIA Y EVOLUCIÓN DE LAS REDES WIFI:

De la primera transición inalámbrica
a la marca WiFI
En 1888 el físico alemán
Rudolf Hertz realizó la primera transmisión sin cables con ondas
electromagnéticas mediante un oscilador que usó como emisor y un resonador que
hacía de receptor. Seis años después, las ondas de radio ya eran un medio de
comunicación, poco después una industria clave en el mundo del marketing y las
comunicaciones que sigue viva a día de hoy.
En 1899 Marconi estableció
las primeras comunicaciones inalámbricas a través del canal de la Mancha. En 1907,
se transmitieron los primeros mensajes completos que cruzaron el Atlántico. En
1971 la Universidad de Hawaii, creó el primer sistema de conmutación de
paquetes mediante una red de comunicación por radio, (ALOHA). Fue la primera
red local inalámbrica (WLAN), y estaba formada por 7 ordenadores situados en
distintas islas que se podían comunicar con un ordenador central.
Convivimos con tecnologías
inalámbricas de comunicaciones desde principios de los 90, aunque los inicios
fueron muy desordenados, ya que cada fabricante desarrollaba sus propios
modelos, incompatibles con los demás. Podríamos encontrar un símil muy claro
entre el mundo de las aplicaciones móviles nativas, que todavía a día de hoy no
trabajan bajo un estándar universal, teniendo que adaptar cada App a distintos
lenguajes y sistemas operativos.
A finales de los 90 empresas
como, Nokia o Symbol Technologies crearon la WECA (Wireless Ethernet
Compatibility), que en 2003 pasó a llamarse Wi-Fi Alliance, cuyo objetivo era
el fomento de la tecnología WiFi y la creación de unos estándares para que los
equipos fueran compatibles entre sí.
La marca "WiFi" y
su más que conocido logotipo del Ying Yang fueron inventados por la agencia
Interbrand a petición de la WECA.
Funcionamiento y evolución
Cuando conectamos nuestro Smartphone
a una red WiFi para poder navegar por Internet nos estamos conectando a un
router físicamente conectado a internet mediante un cable, este router
transforma la información digital binaria (unos y ceros) en ondas de radio que
son transmitidas a lo largo de un área y que son captadas por decodificadores
que tienen nuestro Smartphone, dichos decodificadores vuelven a transformar las
ondas de radio en información la digital inicial la cual es interpretada por el
microprocesador y el software alojado en nuestro smartphone.
Una de las principales
ventajas del WiFi es la posibilidad de conectar múltiples dispositivos
electrónicos a internet con un solo Router, así por ejemplo podemos estar
leyendo esta web mientras nuestro ordenador de sobremesa está descargando la
última actualización del sistema operativo y nuestra smart tv está emitiendo
una película en streaming, en este ejemplo 3 dispositivos electrónicos están
conectados a Internet a través de un único router.
Principalmente la tecnología
WiFi se aplica como medio para conectar a Internet diversos dispositivos
electrónicos como smartphones, tablets u ordenadores, permitiendo compartir una
sola conexión con múltiples dispositivos, millones de hogares, cafeterías,
hoteles, aeropuertos y universidades de todo el mundo han estado utilizando
esta tecnología como medio de acceso a la Red.
Situación actual
Ahora que ya conoces los que
es el WiFi, ¿sabías que hasta el año 2015 se han vendido más de 2,5 billones de
dispositivos que incorporan el WiFi como medio de comunicación inalámbrica? Sin
lugar a dudas esta tecnología está muy presente en nuestra vida diaria.
Finalmente, hay que señalar
que las redes de Internet inalámbricas siguen en constante desarrollo para
mayores velocidades de transmisión, para obtener tecnologías que mejoren la
conectividad, la fiabilidad, la seguridad y que resuelvan problemas de ruidos e
interferencias.
Por ejemplo, el sector
hospitalario ha encontrado en la tecnología WiFi el medio idóneo para eliminar
gran parte del papel así como mejorar la rapidez, asistencia y calidad de
atención a los pacientes. En los hospitales el personal sanitario accede a la
información relativa sobre el paciente gracias a tablets, ordenadores o
smartphones conectados inalámbricamente, por otro lado diversos dispositivos y
equipos médicos que ayudan al diagnóstico y monitorización están conectados a
la red WiFi aportando información online sobre el estado del paciente.
Otra de las aplicaciones es
la conexión inalámbrica directa entre clientes y marcas... conocida como WiFi
Marketing esta tecnología permite compartir y transferir información y de un
dispositivo (router) a otro (smartphone del cliente) directamente ganando
terreno a otras tecnologías inalámbricas como el bluetooth, los códigos QR o
Beacons.
El usuario NO tiene que
descargar ninguna App (La App aparece en su smartphone al conectarse a la red
WiFi)
El usuario NO tiene que
teclear ninguna URL
El usuario se conecta con una
experiencia conocida y universal: Conectarse a una WiFi
Funciona en cualquier tipo de
tienda. Solo es necesaria una conexión Wi-Fi para crear los canales de marca
La capa digital que crea es
100% monitorizable
Los contenidos se
modifican/optimizan fácilmente
Gracias al WiFi Marketing
podemos crear experiencias personalizadas de marca adaptadas a los objetivos de
conversión de cada cliente de forma simple, rápida y monitorizable.
TARJETA RED

La tarjeta de red, también
conocida como placa de red, adaptador de red, adaptador LAN, Interfaz de red
física,1 o sus términos en inglés Network Interface Card o Network interface
controller (NIC), cuya traducción literal del inglés es «tarjeta de interfaz de
red» (TIR), es un componente de hardware que conecta una computadora a una red
informática y que posibilita compartir recursos (como archivos, discos duros
enteros, impresoras e internet) entre dos o más computadoras, es decir, en una
red de computadoras
Tipos de tarjetas de red
Una NIC ISA-16 de 4/16 Mbit/s
para redes Madge Token Ring.
Tarjeta de red con conectores:
BNC (para cable coaxial); y RJ-45 (para cable de par trenzado).
Intel 82574L Gigabit Ethernet
NIC, una tarjeta PCI Express ×1, que proporciona dos colas de recepción de
hardware.5
Tarjeta de expansión PCI para
red inalámbrica Wi-Fi.
Existen diversos tipos de
tarjetas, placas o adaptadores de red, en función del tipo de cableado o
arquitectura de red:
Token Ring
ARCNET
Ethernet
Wi-Fi
Token Ring
Las tarjetas para red Token
Ring están prácticamente en desuso, debido a la baja velocidad y elevado costo
respecto de Ethernet. Tenían conector DB-9. También se utilizó el conector
RJ-45 para las NIC y las MAU (Multiple Access Unit, unidad de múltiple acceso),
que era el núcleo de una red Token Ring.
Arcanet/Arcnet
Artículo principal: ARCNET
Las tarjetas para red ARCNET
utilizaban principalmente conector BNC y/o puertos RJ-45.
Ethernet
Artículo principal: Baternet
Las tarjetas de red para
Ethernet utilizan conectores:
RJ-45 (Registered jack): 10/100/1000,
BNC (Bayonet Neill-Concelman): 10,
AUI (Attachment Unit Interface): 10,
MII (Media Independent Interface): 100,
GMII (Gigabit Media
Independent Interface): 1000
.
El caso más habitual es el de
la tarjeta con el conector RJ-45, aunque durante la transición del uso
mayoritario de cable coaxial (10 Mbit/s) al cable de par trenzado (100 Mbit/s)
abundaron las tarjetas con conectores BNC y RJ-45, e incluso BNC / AUI / RJ-45
(en muchas de ellas se pueden ver serigrafiados los conectores no usados).
Con la entrada de las redes
Gigabit y el que en las casas sea frecuente la presencias de varias
computadoras comienzan a verse tarjetas y placas base (con NIC integradas) con
2 y hasta 4 puertos RJ-45, que antes estaba reservado a los servidores.
Pueden variar en función de
la velocidad de transmisión, normalmente 10 Mbit/s ó 10/100 Mbit/s. también se
utilizan las de 100 Mbit/s, conocida como Gigabit Ethernet y en algunos casos
10 Gigabit Ethernet, utilizando también cable de par trenzado, de categorías:
6, 6e y Cat 7, que funcionan a frecuencias más altas.
Las velocidades especificadas
por los fabricantes son teóricas, por ejemplo las de 100 Mbit/s realmente
pueden llegar como máximo a 78,4 Mbit/s.[cita requerida]
Wi-FI

También son NIC las tarjetas
inalámbricas (wireless), que vienen en diferentes variedades dependiendo de la
norma a la cual se ajusten, usualmente son 802.11b, 802.11g y 802.11n. Las más
populares son la 802.11b que transmite a 11 Mbit/s (1,375 MB/s) con una
distancia teórica de 100 metros y la 802.11g que transmite a 54 Mbit/s (6,75
MB/s).
La velocidad real de
transferencia que llega a alcanzar una tarjeta Wi-Fi con protocolo 11.b es de
unos 4 Mbit/s (0,5 MB/s) y las de protocolo 11.g llegan como máximo a unos 20
Mbit/s[cita requerida]. El protocolo 11.n se viene utilizando con capacidad de
transmitir 600 Mbit/s. La capa física soporta una velocidad de 300 Mbit/s, con
el uso de dos flujos espaciales dentro de un canal de 40 MHz. Dependiendo del
entorno, esto puede traducirse en un rendimiento percibido por el usuario de
100 Mbit/s.
TARJETA DE
EVOLUCIÓN DEL FAX

El sistema de envío y
recepción de fax también ha ido adaptándose a la evolución y desarrollo de las
nuevas tecnologías de la comunicación. Internet, que ha supuesto una revolución
en diferentes ámbitos, desde configurarse como una fuente de intercambio de
conocimiento, ideas e información, hasta convertirse en un importante canal de
venta, también ha hecho evolucionar el sistema de fax, sin lograr sustituirlo
por otros medios de comunicación.
El fax virtual o fax por
Internet se basa en el mismo sistema de transmisión de datos que el fax
tradicional, mediante una línea telefónica, pero sustituyendo los aparatos
tradicionales de fax por plataformas Web o de correo electrónico, lo que supone
una menor distorsión en el envío y recepción, y la digitalización de todos los
documentos.
Este tipo de soluciones de
fax virtual tienen enormes ventajas con respecto a los sistemas tradicionales;
Primero porque son ecológicas al reducir considerablemente el consumo de papel
o tinta y la necesidad de una máquina específica, segundo porque son eficientes
al permitir la gestión de archivos electrónicos, tercero porque son móviles al
poder gestionar el servicio de fax desde cualquier lugar donde tengas acceso a
tu correo electrónico incluido tu teléfono móvil y por cuarto porque son
económicas ya que reducen los costes del servicio de fax en un 90% al incluir
todo en un pequeño coste mensual, la cuota del número y el servicio de fax.
Actualmente existe la opción
de utilizar el Fax virtual. Este servicio te permite enviar y recibir fax a
través de internet sin necesidad de utilizar la "máquina de fax" fax
HISTORIA DEL FAX La
tecnología de las máquinas Fax fue inventada hace mucho tiempo ,aunque no se
hizo popular entre los usuarios hasta 1980.El primer Fax fue inventado por un
mecánico e inventor Escocés llamado Alexander Bain. En 1843, recibió una
patente Británica por “mejoras produciendo y regulando señales eléctricas,
impresiones eléctricas y señales telegráficas”, o dicho de otra manera, un Fax .Algunos
años antes, Samuel Morse había inventado con éxito el primer telégrafo, y se
puede decir que el Fax evolucionó de dicha tecnología. El telégrafo enviaba
código Morse (puntos y rayas) sobre cables que era decodificado en un mensaje
de texto en una localización remota. Después de Alexander Bain, muchos
inventores han trabajado en este tipo de dispositivos mejorándolos
significativamente. La secuencia de esta evolución la podemos ver a
continuación:
•
En 1850, un inventor Ingles
llamado Blakewell recibe una patente, la cual llamó “copiadora de telégrafo”.
•
En 1860, una máquina Fax
llamada Pantelégrafo envía el primer fax entre París y Lyón. Su inventor fue
Giovanni Caselli.
•
En 1985, Un relojero de
Minnesota llamado Ernest Hummel, inventó un aparato que le haría la competencia
al dispositivoanteriormente mencionado; el telediografo.
•
En 1902, El doctor Arthur
Korn inventa un Fax práctico y mejorado, él sistema fotoeléctrico.
•
En 1914, Edouard Belin
establece el concepto de fax remoto para fotos y noticias.
•
En 1924, un tipo de Fax
llamado máquina de telefotografía se utiliza para enviar fotos de una
convención política para un periódico localizado a una larga distancia. Fue
desarrollado por AT&T.
•
En 1926, se inventa lo que se
conoce como Radiofoto que podía enviar faxes tecnología de difusión por radio.
•
En 1947, se crea una máquina
Fax que obtiene mucho éxito gracias a Alexander Muirhead.
•
El 4 de Marzo de 1955, se
transmite el primer fax por radio que cruza el continente.


No hay comentarios.:
Publicar un comentario