viernes, 1 de octubre de 2010

MARK I - SIGFRIDO AGUILAR

El Harvard Mark I o Mark I fue el primer ordenador electromecánico construido en la Universidad Harvard por Howard H. Aiken en 1944, con la subvención de IBM. Tenía 760.000 ruedas y 800 kilómetros de cable y se basaba en la máquina analítica de Charles Babbage.

El computador Mark I empleaba señales electromagnéticas para mover las partes mecánicas. Esta máquina era lenta (tomaba de 3 a 5 segundos por cálculo) e inflexible (la secuencia de cálculos no se podía cambiar); pero ejecutaba operaciones matemáticas básicas y cálculos complejos de ecuaciones sobre el movimiento parabólico de proyectiles.
Funcionaba con relés, se programaba con interruptores y leía los datos de cintas de papel perforado.

La Mark I era una máquina digna de admirar, pues sus longitudes eran grandiosas, medía unos 15,5 metros de largo, unos 2,40 metros de alto y unos 60 centímetros de ancho, pesaba aproximadamente unas cinco toneladas. Pero lo más impresionante fueron unas cubiertas de cristal que dejaban que se admirara toda la maquinaria de su interior.

La Mark I recibía sus secuencias de instrucciones (programas) y sus datos a través de lectoras de cinta perforada de papel y los números se transferían de un registro a otro por medio de señales eléctricas. Tal vez por eso no deba sorprendernos que a pesar de medir sólo 15 metros de largo, el cableado interno de la Mark I tenía una longitud de más de 800 kilómetros, con más de tres millones de conexiones. Los resultados producidos se imprimían usando máquinas de escribir eléctricas o perforadoras de tarjetas, en la más pura tradición de IBM.

Aunque tenía componentes electromecánicos era una máquina automática eléctrica. Era capaz de realizar 5 operaciones aritméticas (suma, resta, multiplicación, división y referencia a resultados anteriores). Su interior estaba compuesto por 750.000 piezas de diferentes variedades (ruedas rotatorias para los registros, relevadores…).

Estaba compuesta de más de 1.400 interruptores rotatorios de diez posiciones en el frente de la máquina para visualizar los valores de los registros constantes que se le introducían. Pero además de los registros constantes la máquina contenía 72 registros mecánicos. Cada unos de los registros mecánicos era capaz de almacenar 23 dígitos, los dígitos que se usaban para el signo era un 0 para signo positivo y un 9 para el signo negativo.

La posición de la coma decimal estaba fija durante la solución de un problema, pero podía ajustarse previamente de manera que estuviera entre dos dígitos cualquiera. La máquina contaba también con mecanismos que permitían efectuar cálculos de doble precisión (46 decimales), mediante la unión de dos registros, en una forma análoga a la Máquina Analítica de Babbage.
La Mark I se programaba recibiendo sus secuencias de instrucciones a través de una cinta de papel en la cual iban perforadas las instrucciones y números que se transferían de un registro a otro por medio de señales eléctricas.

Cuando la máquina estaba en funcionamiento el ruido que producía era similar al que haría un habitación llena de personas mecanografiando de forma sincronizada. El tiempo mínimo de transferencia de un número de un registro a otro y en realizar cada una de sus operaciones básicas(resta, suma, multiplicación y división) era de 0,3 segundos. Aunque la división y la multiplicación eran más lentas.

La capacidad de modificación de la secuencia de instrucciones en base a los resultados producidos durante el proceso de cálculo era pequeño. La máquina podía escoger de varios algoritmos para la ejecución de cierto cálculo. Sin embargo, para cambiar de una secuencia de instrucciones a otra era costoso, ya que la máquina se tenía que detener y que los operarios cambiaran la cinta de control. Por tanto, se considera que la Mark I no tiene realmente saltos incondicionales. Aunque, posteriormente se le agregó lo que fue llamado Mecanismo Subsidiario de Secuencia (era capaz de definir hasta 10 subrutinas, cada una de las cuales podía tener un máximo de 22 instrucciones), que estaba compuesto de tres tablones de conexiones que se acompañaban de tres lectoras de cinta de papel. Y se pudo afirmar que la Mark I, podía transferir el control entre cualquiera de las lectoras, dependiendo del contenido de los registros.

HOWARD H. AIKEN - PAULA TOLEDO

Howard H. Aiken 
Estudió en la Universidad de Wisconsin-Madison, y posteriormente obtuvo su doctorado en física . Ideó un dispositivo electromecánico de computación que podía hacer gran parte de ese trabajo por él. Este ordenador fue originalmente llamado Automatic Sequence Controlled Calculator (ASCC) y posteriormente renombrado Harvard Mark I.

Con la ayuda de Grace Hopper y financiación de IBM, la máquina fue completada en 1944 con un coste de 250.000$.

Aiken fue inspirado por la Máquina Diferencial de Charles Babbage.

Inmediatamente finalizada la marina de los EE.UU requisó tanto a la máquina como a su inventor para usarlos durante la Segunda Guerra Mundial, Aiken alcanzó el grado de Comandandte, y la MARK I se usó para el cálculo de las tablas navales de Artillería.

En 1964 que él recibió Harry H. Concesión conmemorativa de Goode.

En 1970, Aiken recibió la Medalla Edison del IEEE por 'Una meritoria carrera de contribuciones pioneras al desarrollo y la aplicación de ordenadores digitales de gran escala e importantes contribuciones a la educación en el campo de los ordenadores digitales.
El Harvard Mark I o Mark I fue el primer ordenador electromecánico construido en la Universidad Harvard  con la subvención de IBM. Tenía 760.000 ruedas y 800 kilómetros de cable medía 15 metros de largo por 2.4 de altura.

Además de la MARK I, Aiken construyó más computadoras :
- MARK II ( 1947 )
- MARK III Y MARK IV (1952)

HERMAN HOLLERITH - PAULA TOLEDO

HERMAN HOLLERITH
Buffalo, Nueva York, 29 de febrero de 1860 — 17 de noviembre de 1929
Fue un estadístico que inventó la máquina tabuladora. Es considerado como el primer informático, es decir, el primero que logra el tratamiento automático de la información (Informática = Información + automática).
En 1882, entró a trabajar en el MIT (Massachussets Institute of Technology), donde enseñó ingeniería mecánica durante un año.

Hasta el 1884 sigue en el MIT, pero luego pasó a trabajar en la oficina de patentes de EEUU, donde aprovecha para registrar hasta 30 patentes relacionadas con sus inventos.
En aquella época, los censos se realizaban de forma manual.

Hollerith observó que la mayor parte de las preguntas contenidas en los censos se podían contestar con un SÍ o un NO. Entonces ideó una tarjeta perforada, una cartulina en la que, según estuviera perforada o no en determinadas posiciones, se contestaba este tipo de preguntas. La tarjeta tenía 80 columnas.

Hollerith patentó su máquina en 1889. Un año después incluyó la operación de sumar con el fin de utilizarla en la contabilidad
- En 1896, Hollerith fundó la empresa Tabulating Machine Company
- En 1911 se fusionó con Dayton Scale Company, International Time Recording Company y Bundy Manufacturing Company, para crear CTR.
- El 14 de febrero de 1924, CTR cambió su nombre por el de International Business Machines Corporation (IBM

Hollerith murió en 1929 a los 69 años, a causa de una infeccion en los riñones.

IBM - PABLO RIZO

International Business Machines o IBM (conocida coloquialmente como el Gigante Azul) es una empresa multinacional que fabrica y comercializa herramientas, programas y servicios relacionados con la informática. Además es una firme patrocinadora del software libre.

Históricamente, el uniforme de trabajo de los empleados de IBM era un traje azul con camisa blanca y corbata oscura, de donde viene el sobrenombre de la empresa, el Gigante Azul. En los años 1990 IBM suavizó las normas referentes a vestuario y actualmente no difiere del de otras grandes empresas tecnológicas.

IBM se creó el 15 de junio de 1911 en EEUU, como resultado de la fusión gestionada de Tabulating Machine Company, Computing Scale Corporation e International Time Recording Company. La empresa formada de la fusión fue llamada Computing Tabulating Recording Corporation (CTR), pero cambió su nombre a International Business Machines Corporation (IBM).

Durante la Segunda Guerra Mundial, IBM comenzó a investigar en el campo de la informática. En 1944 terminó de construir el computador “Automatic Sequence Controlled Calculator” -Calculadora Controlada por Secuencia Automática-, también conocido como Mark I. El Mark I fue la primera máquina capaz de ejecutar cálculos complejos automáticamente, y estaba basada en interruptores electromecánicos.

Fue tal el éxito de IBM de mediados de los años 1960 que provocó que la empresa fuera investigada por monopolio. De hecho, tuvo un juicio, que comenzó en 1969, en el que fue acusada de intentar monopolizar el mercado de los dispositivos electrónicos de propósito general, concretamente el mercado de computadores empresariales. El juicio continuó hasta 1983 y tuvo gran impacto en las prácticas de la empresa.

En 1971 creó el disco flexible y poco después empezó a comercializar predecesores de los actuales lectores de códigos de barras y cajeros automáticos.

En 1981, IBM creó el IBM PC, que es el computador personal de más éxito de todos los tiempos. Este éxito no era esperado por IBM, que creó el IBM PC de forma rápida y comprando componentes de gama baja a otros fabricantes, cosa que no había hecho hasta el momento, para que el IBM PC no absorbiera parte del mercado de computadores más potentes de IBM. Además, el sistema operativo del IBM PC tampoco fue creado por IBM, sino que fue contratado con Microsoft.

IBM se decidió por un ordenador de arquitectura abierta, de manera que las piezas que formaban la máquina provenían de diversas empresas. Intel fue la elegida para el procesador ya que era la empresa pionera en su campo. Pero la elección que marcaría el sino de esta historia sería la compra del sistema operativo.

Pidieron a Bill Gates, entonces un joven desconocido, que les desarrollara un sistema que superara al que entonces estaba en boga, el CP/M. Como si adivinara el futuro Gates no quería vender su MS-DOS.

La ingenuidad, la prisa, la prepotencia y la ignorancia fueron causa del mayor error en las negociaciones de IBM. Ceder ante Bill Gates y aceptar que tan solo les vendiera la licencia de uso del sistema operativo.

En la actualidad, la cultura empresarial de IBM está siendo influenciada por el movimiento de código abierto. IBM está invirtiendo miles de millones de dólares en servicios y software basados en Linux, lo que incluye alrededor de 300 empleados de IBM que trabajan en el núcleo Linux

LEIBNIZ - JUAN HERREROS

Gottfried Wilhelm Leibniz
Fue diplomático, filósofo, matemático, científico y erudito universal. Newton y Leibniz descubrieron el cálculo infinitesimal en el periodo comprendido entre 1666 y 1680. Parece demostrado que ambos descubrieron esta poderosa técnica con independencia uno del otro. Sin embargo, el método de Newton no se publico hasta 1711, mientras que Leibniz publicó sus ideas en 1684.

La línea metodológica, la terminología y la forma del Cálculo que Leibniz desarrolló fueron superiores y hoy son preferidas a las de Newton.
Considerado como el último erudito que consiguió unos conocimientos universales para su época. Fue un niño prodigio cuyos talentos universales persistieron durante toda su vida. Sin duda, su intento de abarcarlo todo Le hizo no haber sido un verdadero personaje de primera fila en algo en particular. Estudió Teología, Derecho, Filosofía y Matemática, entrando posteriormente en la carrera diplomática.
El cálculo infinitesimal se utiliza para resolver problemas donde el algebra por si sola no puede; esto es porque el calculo incluye algebra, trigonometría y geometría analítica;

Los últimos años de su vida, estuvieron ocupados por la disputa con Newton sobre quien había descubierto primero el Cálculo. El debate sobre la 'paternidad' del cálculo infinitesimal fue muy duro y duró varios años.

Los matemáticos de la época se dividieron en dos grupos, los británicos apoyaban a Newton y los del continente a Leibniz. Al frente de los defensores de Leibniz estaba Johann Bernoulli. Las investigaciones dieron como resultado que ambos descubrieron independientemente el cálculo infinitesimal, pero Newton lo hizo primero. Esta disputa tuvo efectos muy negativos para los matemáticos británicos que prefirieron ignorar el método de Leibniz que era muy superior.

EL TRANSISTOR - DAVID BOLO

EL TRANSISTOR
El transistor es un dispositivo controlado por corriente y del que se obtiene corriente amplificada, también es un  dispositivo electrónico  semiconductor que cumple funciones de amplificador, oscilador, conmutador o rectificador. El término "transistor" es la contracción en inglés de transfer resistor ("resistencia de transferencia"). Actualmente se los encuentra prácticamente en todos los aparatos domésticos de uso diario: radios, televisores, grabadoras, reproductores de audio y video, hornos de microondas, lavadoras, automóviles, equipos de refrigeración, alarmas, relojes de cuarzo, computadoras, calculadoras, impresoras, lámparas fluorescentes, equipos de rayos X, tomógrafos, ecógrafos, reproductores mp3, teléfonos móviles, etc.

Historia
El transistor bipolar fue inventado en los Laboratorios Bell de EE. UU. en diciembre de 1947 por John Bardeen, Walter Houser Brattain y William Bradford Shockley, quienes fueron galardonados con el Premio Nobel de Física en 1956.  El transistor bipolar fue el sustituto de la válvula termoiónica de tres electrodos, o triodo.

El transistor de efecto de campo fue descubierto antes que el transistor bipolar (1930), pero  no se encontró una aplicación útil ni se disponía de la tecnología necesaria para fabricarlos masivamente; al principio se usaron transistores bipolares y luego los denominados transistores de efecto de campo (FET), en estos,  la corriente entre el surtidor o fuente (source) y el drenaje (drain) se controla mediante el campo eléctrico establecido en el canal.

Por último, apareció el MOSFET (transistor FET de tipo Metal-Óxido-Semiconductor). Los MOSFET permitieron un diseño extremadamente compacto, necesario para los circuitos altamente integrados (CI).

Hoy la mayoría de los circuitos se construyen con tecnología CMOS. La tecnología CMOS (Complementary MOS ó MOS Complementario) es un diseño con dos diferentes MOSFET (MOSFET de canal n y p), que se complementan mutuamente y consumen muy poca corriente en un funcionamiento sin carga. El transistor consta de un sustrato y tres partes dopadas artificialmente que forman dos uniones bipolares:
El emisor que emite portadores, el colector que los recibe o recolecta y la tercera, que está intercalada entre las dos primeras, modula el paso de dichos portadores (base).

TIPOS DE TRANSISTORES:
Transistor de Contacto Puntual.- Llamado también transistor de punta de contacto, fue el primer transistor capaz de obtener ganancia, inventado en 1947 por J. Bardeen y W. Brattain. Consta de una base de germanio, semiconductor para entonces mejor conocido sobre la que se apoyan, muy juntas, dos puntas metálicas que constituyen el emisor y el colector. La corriente de base es capaz de modular la resistencia que se "ve" en el colector, de ahí el nombre de "transfer resistor". Se basa en efectos de superficie, poco conocidos en su día. Es difícil de fabricar (las puntas se ajustaban a mano), frágil (un golpe podía desplazar las puntas) y ruidoso.

Transistor de Unión Bipolar
O BJT por sus siglas en inglés, se fabrica básicamente sobre un monocristal de Germanio, Silicio o Arseniuro de galio, que tienen cualidades de semiconductores.
El mecanismo que representa el comportamiento semiconductor dependerá de las contaminaciones, de la geometría asociada y del tipo de tecnología de contaminación (difusión gaseosa, epitaxial, etc.) y del comportamiento cuántico de la unión.

Transistor de Unión Unipolar
También llamado de efecto de campo de unión (JFET), fue el primer transistor de efecto de campo en la práctica. Lo forma una barra de material semiconductor de silicio de tipo N o P.

Transistor de Efecto de Campo
El transistor de efecto de campo, o FET por sus siglas en inglés, que controla la corriente en función de una tensión; tienen alta impedancia de entrada.
• Transistor de efecto de campo de unión, JFET, construido mediante una unión PN.
• Transistor de efecto de campo de compuerta aislada, IGFET, en el que la compuerta se aísla del canal mediante un dieléctrico.
• Transistor de efecto de campo MOS, MOSFET, donde MOS significa Metal-Óxido-Semiconductor, en este caso la compuerta es metálica y está separada del canal semiconductor por una capa de óxido.

Fototransistor 
 Los fototransistores son sensibles a la radiación electromagnética en frecuencias cercanas a la de la luz visible; debido a esto su flujo de corriente puede ser regulado por medio de la luz incidente. Un fototransistor es, en esencia, lo mismo que un transistor normal, sólo que puede trabajar de 2 maneras diferentes:
- Como un transistor normal con la corriente de base (IB) (modo común)
- Como fototransistor, cuando la luz que incide en este elemento hace las veces de corriente de base. (IP) (Modo de iluminación).

CHARLES BAGGAGE - DANI SIERRA

Charles Babbage
Charles Babbage nació en gran Bretaña el 26 de diciembre de 1791, fue un matemático británico y científico de la computación. Diseñó e implementó una máquina a vapor, de diferencias mecánicas para calcular tablas de números. Por sus inventos se le considera “El padre de la computación”

Diseño de computadoras
Babbage intentó encontrar un método por el cual pudieran hacer cálculos automáticamente por una máquina, eliminando los errores que sufrían las personas. Esta idea la tuvo en 1812

Máquina diferencial
Presentó un modelo llamado Máquina diferencial  en 1822 en la Real Sociedad Astronómica, La sociedad aprobó su idea y le concedieron 1.500 libras. Babbage comenzó la construcción, pero nunca fue terminada debido a dos cosas, Las vibraciones de la máquina eran un problema constante. La otra fue que Babbage no paraba de cambiar el diseño de la máquina. En 1833 se habían gastado 17.000 libras sin resultado.

Máquina analítica
Entre 1833 y 1842, Babbage lo intentó de nuevo; Esta vez, intentó construir una máquina que fuese programable para hacer cualquier tipo de cálculo. La máquina usaba tarjetas perforadas para calcular funciones analíticas. Tenía dispositivos de entrada, un procesador aritmético, una unidad de control, un mecanismo de salida y una memoria. Se considera que fue la primera computadora del mundo. Un diseño inicial fue terminado en 1835. Sin embargo, debido a problemas similares a los de la Máquina diferencial, la Máquina analítica nunca fue terminada. En 1842 Ada Lovelace se interesó por la Máquina y escribió varios programas para ella. Los historiadores concuerdan que fue la primera programadora de computadoras del mundo.

Criptografía
Babbage también logró resultados en criptografía. Rompió el cifrado de Vigenere al que se le conocía como el “código indescifrable”. El descubrimiento de Babbage fue usado en campañas militares inglesas y era considerado un secreto militar

Otras realizaciones
De 1829 a 1839 fue profesor de matemáticas. Escribió artículos en distintas revistas científicas. Durante los últimos años de su vida residió en Londres. Dedicándose a la construcción de máquinas capaces de la ejecución de operaciones aritméticas.

VON NEUMANN - ANGIE PAULETTE

Von Neumann
        
John von Neumann zu Margaritta (se pronuncia «fon noiman»). Nació el  28 de diciembre de 1903  en Austria-Hungría, en Budapest  y  murió 8 de febrero de1957). El mayor de tres hermanos; jovial, inteligente, optimista, vividor y mujeriego. Demostró una aptitud para los idiomas, memorización y matemática                                              
Un niño prodigio que estudió matemáticas y química en su ciudad natal. Recibió su doctorado en matemáticas de la Universidad de Budapest a los 23 años. Fue profesor en Berlín y Hamburgo en los años 20, El más joven de su historia.
Fue una de las cuatro personas seleccionadas para la primera facultad del Institute for Advanced Study (Instituto para Estudios Avanzados (junto con dos de los otros son Albert Einstein y Kurt Gödel))
Trabajó en el Proyecto Manhattan (Nombre en clave de un proyecto científico llevado a cabo durante la Segunda Guerra Mundial por los Estados Unidos con ayuda parcial del Reino Unido y Canadá. El objetivo final del proyecto era el desarrollo de la primera bomba atómica antes que Alemania la construyera.) Resolvió pasos fundamentales de la física nuclear involucrada en reacciones termonucleares y la bomba de hidrógeno. 

Es considerado unos de los primeros el padre de la teoría de juegos (La teoría de juegos es un área de la matemática aplicada que utiliza modelos para estudiar y llevar a cabo procesos de decisión. Sus investigadores estudian las estrategias óptimas así como el comportamiento previsto y observado de individuos en juegos.) Y publicó el clásico libro Theory of games and economic behavior ('Teoría de juegos y comportamiento económico').
   
Fue pionero de la computadora digital moderna y de la aplicación de la teoría de operadores a la mecánica cuántica. El concepto de programa almacenado permitió la lectura de un programa dentro de la memoria de la computadora, y después la ejecución de las instrucciones del mismo sin tener que volverlas a escribir. La primera computadora en usar el citado concepto fue la llamada EDVAC (Electronic Discrete-Variable Automatic Computer, es decir 'computadora automática electrónica de variable discreta'), desarrollada por Von Neumann. Los programas almacenados dieron a las computadoras flexibilidad y confiabilidad, haciéndolas más rápidas y menos sujetas a errores que los programas mecánicos.
Von Neumann le dio su nombre a la Arquitectura de von Neumann, utilizada en casi todos los computadores, por su publicación del concepto.  

Otra de sus inquietudes fue la capacidad de las máquinas de autorreplicarse, lo que le llevó al concepto de lo que ahora llamamos máquinas de Von Neumann o autómatas celulares.
¿Qué son maquinas autómatas celulares?
Un conjunto ordenado de objetos caracterizado por los siguientes componentes:
- Una rejilla o cuadriculado, Cada celda de la cuadrícula se conoce como célula.
- Cada célula puede tomar un valor.
- Cada célula, además, se caracteriza por su vecindad, un conjunto finito de células en las cercanías de la misma.
- De acuerdo con esto, se aplica a todas las células de la cuadrícula una función de transición.
En 1938, von Neumann fue galardonado con el Premio Memorial Bôcher por su trabajo en el análisis. Von Neumann escribió 150 artículos que fueron publicados mientras vivía, 60 de matemáticas puras, 20 de física, y 60 de matemáticas aplicadas. Su último trabajo, publicado en forma de libro como "El ordenador y el Cerebro", da una indicación de la dirección de sus intereses en el momento de su muerte.

COMPUTADORA ENIAC - ANGEL LOPEZ

ENIAC
ENIAC es un acrónimo de Electronic Numerical Integrator And Computer(Computador e Integrador Numérico Electrónico), utilizada por el Laboratorio de Investigación Balística del Ejército de los Estados Unidos.
se ha considerado a menudo la primera computadora electrónica de propósito general, aunque este título pertenece en realidad a la computadora alemana Z3. Además está relacionada con el Colossus, que se usó para descifrar código alemán durante la Segunda Guerra Mundial y destruido tras su uso para evitar dejar pruebas, siendo recientemente restaurada para un museo británico. Era totalmente digital, es decir, que ejecutaba sus procesos y operaciones mediante instrucciones en lenguaje máquina, a diferencia de otras máquinas computadoras contemporáneas de procesos analógicos. Presentada en público el 15 de febrero de 1946.
La computadora podía calcular trayectorias de proyectiles, lo cual fue el objetivo primario al construirla. En 1,5 segundos era posible calcular la potencia 5000 de un número de hasta 5 cifras.
La ENIAC podía resolver 5.000 sumas y 300 multiplicaciones en 1 segundo. Pero entre las anécdotas estaba la poco promisoria cifra de un tiempo de rotura de 1 hora.
Si bien fueron los ingenieros de ENIAC, Mauchly y Eckert, los que pasaron a la historia, hubo seis mujeres que se ocuparon de programar la ENIAC, cuya historia ha sido silenciada a lo largo de los años y recuperada en las últimas décadas. Clasificadas entonces como "sub-profesionales", posiblemente por una cuestión de género o para reducir los costos laborales, este equipo de programadoras destacaba por ser hábiles matemáticas y lógicas y trabajaron inventando la programación a medida que la realizaban

La ENIAC fue construida en la Universidad de Pennsylvania por John Presper Eckert y John William Mauchly.
dd
La ENIAC ocupaba una superficie de 167 m² y operaba con un total de 17.468 válvulas electrónicas o tubos de vacío. tenía 17.468 tubos de vacío, 7.200 diodos de cristal, 1.500 relés, 70.000 resistencias, 10.000 Físicamente, la ENIAC condensadores y 5 millones de soldaduras. Pesaba 27 tn, medía 2,4 m x 0,9 m x 30 m; utilizaba 1.500 conmutadores electromagnéticos y relés; requería la operación manual de unos 6.000 interruptores, y su programa o software, cuando requería modificaciones, tardaba semanas de instalación manual

CIRCUITO INTEGRADO - OMAR ARNAU

CIRCUITO INTEGRADO (CI)
Un circuito integrado (CI), es una pastilla pequeña de material semiconductor, de algunos milímetros cuadrados de área, sobre la que se fabrican circuitos electrónicos generalmente mediante fotolitografía y que está protegida dentro de un encapsulado de plástico o cerámica. El encapsulado posee conductores metálicos apropiados para hacer conexión entre la pastilla y un circuito impreso.

Introducción
En abril de 1949, el ingeniero alemán Werner Jacobi (Siemens AG) completa la primera solicitud de patente para circuitos integrados (CI) con dispositivos amplificadores de semiconductores. Jacobi realizó una típica aplicación industrial para su patente, la cual no fue registrada.

Más tarde, la integración de circuitos fue conceptualizada por el científico de radares Geoffrey W.A. Dummer (1909-2002), que estaba trabajando para la Royal Radar Establishment del Ministerio de Defensa Británico, a finales de la década de los 1940s y principios de los 1950s.
El primer CI fue desarrollado en 1958 por el ingeniero Jack Kilby (1923-2005) pocos meses después de haber sido contratado por la firma Texas Instruments. Se trataba de un dispositivo de germanio que integraba seis transistores en una misma base semiconductora para formar un oscilador de rotación de fase.

En el año 2000 Kilby fue galardonado con el Premio Nobel de Física por la contribución de su invento al desarrollo de la tecnología de la información.
Los circuitos integrados se encuentran en todos los aparatos electrónicos modernos, como automóviles, televisores, reproductores de CD, reproductores de MP3, teléfonos móviles, computadoras, etc.
El desarrollo de los circuitos integrados fue posible gracias a descubrimientos experimentales que demostraron que los semiconductores pueden realizar algunas de las funciones de las válvulas de vacío.

La integración de grandes cantidades de diminutos transistores en pequeños chips fue un enorme avance sobre el ensamblaje manual de los tubos de vacío (válvulas) y fabricación de circuitos utilizando componentes discretos.

La capacidad de producción masiva de circuitos integrados, su confiabilidad y la facilidad de agregarles complejidad, impuso la estandarización de los circuitos integrados en lugar de diseños utilizando transistores discretos que pronto dejaron obsoletas a las válvulas o tubos de vacío.

Existen dos ventajas importantes que tienen los circuitos integrados sobre los circuitos convencionales construidos con componentes discretos: su bajo costo y su alto rendimiento. El bajo costo es debido a que los CI son fabricados siendo impresos como una sola pieza por fotolitografía a partir de una oblea de silicio, permitiendo la producción en cadena de grandes cantidades con una tasa de defectos muy baja. El alto rendimiento se debe a que, debido a la miniaturización de todos sus componentes, el consumo de energía es considerablemente menor, a iguales condiciones de funcionamiento.Avances en los circuitos integradosLos avances que hicieron posible el circuito integrado han sido, fundamentalmente, los desarrollos en la fabricación de dispositivos semiconductores a mediados del siglo XX y los descubrimientos experimentales que mostraron que estos dispositivos podían reemplazar las funciones de las válvulas o tubos de vacío, que se volvieron rápidamente obsoletos al no poder competir con el pequeño tamaño, el consumo de energía moderado, los tiempos de conmutación mínimos, la confiabilidad, la capacidad de producción en masa y la versatilidad de los CI.Entre los circuitos integrados más avanzados se encuentran los microprocesadores, que controlan todo desde computadoras hasta teléfonos móviles y hornos microondas. Los chips de memorias digitales son otra familia de circuitos integrados que son de importancia crucial para la moderna sociedad de la información. Mientras que el costo de diseñar y desarrollar un circuito integrado complejo es bastante alto, cuando se reparte entre millones de unidades de producción el costo individual de los CIs por lo general se reduce al mínimo. La eficiencia de los CI es alta debido a que el pequeño tamaño de los chips permite cortas conexiones que posibilitan la utilización de lógica de bajo consumo en altas velocidades de conmutación.Con el transcurso de los años, los CI están constantemente migrando a tamaños más pequeños con mejores características, permitiendo que mayor cantidad de circuitos sean empaquetados en cada chip. Al mismo tiempo que el tamaño se comprime, prácticamente todo se mejora. Aunque estas ganancias son aparentemente para el usuario final, existe una feroz competencia entre los fabricantes para utilizar geometrías cada vez más delgadas. Popularidad de los CI Solo ha trascurrido medio siglo desde que se inició su desarrollo y los circuitos integrados se han vuelto casi omnipresentes. Computadoras, teléfonos móviles y otras aplicaciones digitales son ahora partes inextricables de las sociedades modernas. La informática, las comunicaciones, la manufactura y los sistemas de transporte, incluyendo Internet, todos dependen de la existencia de los circuitos integrados. De hecho, muchos estudiosos piensan que la revolución digital causada por los circuitos integrados es uno de los sucesos más significativos de la historia de la humanidad.Disipación de potencia-Evacuación del calor Los circuitos eléctricos disipan potencia.
Cuando el número de componentes integrados en un volumen dado crece, las exigencias en cuanto a disipación de esta potencia, también crecen, calentando el sustrato y degradando el comportamiento del dispositivo. Además, en muchos casos es un sistema de realimentación positiva, de modo que cuanto mayor sea la temperatura, más corriente conducen, fenómeno que se suele llamar "embalamiento térmico" y, que si no se evita, llega a destruir el dispositivo. Los amplificadores de audio y los reguladores de tensión son proclives a este fenómeno, por lo que suelen incorporar protecciones térmicas.

Los circuitos de potencia, evidentemente, son los que más energía deben disipar. Para ello su cápsula contiene partes metálicas, en contacto con la parte inferior del chip, que sirven de conducto térmico para transferir el calor del chip al disipador o al ambiente. La reducción de resistividad térmica de este conducto, así como de las nuevas cápsulas de compuestos de silicona, permiten mayores disipaciones con cápsulas más pequeñas.

Límites en los componentes
Los componentes disponibles para integrar tienen ciertas limitaciones, que difieren de las de sus contrapartidas discretas.
Resistencias. Son indeseables por necesitar una gran cantidad de superficie. Por ello sólo se usan valores reducidos y en tecnologías MOS se eliminan casi totalmente.
Condensadores. Sólo son posibles valores muy reducidos y a costa de mucha superficie. Como ejemplo, en el amplificador operacional μA741, el condensador de estabilización viene a ocupar un cuarto del chip.
Bobinas. Se usan comúnmente en circuitos de radiofrecuencia, siendo híbridos muchas veces. En general no se integran.

Densidad de integración Durante el proceso de fabricación de los circuitos integrados se van acumulando los defectos, de modo que cierto número de componentes del circuito final no funcionan correctamente. Cuando el chip integra un número mayor de componentes, estos componentes defectuosos disminuyen la proporción de chips funcionales. Es por ello que en circuitos de memorias, por ejemplo, donde existen millones de transistores, se fabrican más de los necesarios, de manera que se puede variar la interconexión final para obtener la organización especificada.