- Las válvulas termoiónicas: un paso en la historia de la tecnología.
- Semiconductores: la clave para el control de la electricidad.
- Transistores: la revolución ha comenzado.
- Amplificador operacional: el circuito más versátil.
- Puertas lógicas: la era de la computación.
- Lenguajes de programación: hablando máquina.
Las válvulas termoiónicas: un paso en la historia de la tecnología.(next)
Las válvulas electrónicas de vacío, también conocidas como tubos termoiónicos de vacío o diodos de vacío, han sido un componente fundamental en la evolución de la tecnología electrónica durante las primeras décadas del siglo XX. Inventadas por John Ambrose Fleming en 1904 utilizando corrientes termoiónicas (Efecto Edison), estas válvulas revolucionaron el mundo de la comunicación y la música al permitir la amplificación y detección de señales eléctricas con mayor eficiencia.
Las válvulas funcionan al controlar el flujo de electricidad a través de un medio vacío (o un gas inerte a baja presión), esto se logra cuando al calentar un cátodo se establece una nube de electrones que al estar excitados saltan con facilidad el espacio que les separa del ánodo cuando se aplica un voltaje entre ellos. La corriente es de una única dirección y el flujo de electrones puede ser muy elevado, una rejilla o compuerta debidamente polarizada interpuesta en el camino de estos electrones puede producir el aumento o disminución de esta corriente y esa es la clave de las válvulas, un voltaje o señal relativamente pequeña puede gobernar corrientes análogas mucho mayores resultando por el canal una corriente proporcional al voltaje aplicado que es el fundamento de la amplificación de señales.

Una válvula termoiónica EL34 apreciada en aplicaciones de audio.
Las válvulas permitieron la construcción de los primeros circuitos lógicos y los primeros ordenadores como ENIAC un ordenador de 27 toneladas que ocupaba una habitación de 167 metros cuadrados y funcionaba con 17.500 válvulas de vacío, que podían subir la temperatura de la habitación hasta cincuenta grados.
Aunque estas válvulas electrónicas presentan ciertas ventajas en comparación con los transistores, como su alta sensibilidad y la generación de menos ruido en la señal, también tienen desventajas que las hacen menos prácticas para aplicaciones modernas. Entre estas desventajas se encuentran el consumo de energía ineficiente, el mayor tamaño y peso comparados con los transistores y una vida útil menor debido al calentamiento además de la necesidad de preservar el vacío para funcionar. A pesar de ello siguen siendo un ejemplo impresionante del progreso tecnológico y la innovación que caracterizan a la industria electrónica. Su impacto en el desarrollo de la radio, la televisión, la música y las telecomunicaciones es innegable y su legado continúa viviendo en los dispositivos y tecnologías que hoy en día nos rodean.
Si bien en general las válvulas han sido reemplazadas por los transistores, estas gozan de buena fama entre músicos especialmente entre guitarristas, ¿esto a qué es debido?, algunos tipos de válvulas tienen muy poca distorsión pero cuando se saturan distorsionan la onda de un modo que genera armónicos cálidos y agradables que enriquecen el sonido del instrumento aportando un matiz creativo muy apreciado por los músicos, en ocasiones no se necesita nada más que jugar con los niveles de ecualización y distorsión para lograr un sonido colorido y poderoso característico de las guitarras vintage. La sencillez de los circuitos de válvulas respecto al número de componentes y su espléndido rendimiento en términos de sonido son el secreto de su supervivencia.
A. Fernández
Semiconductores: la clave para el control de la electricidad.(prev)(next)
Los semiconductores, son materiales que se encuentran entre los conductores y los aislantes en cuanto a su capacidad para transmitir electricidad. Su historia es interesante y sus usos actuales son impresionantes.
La historia de los semiconductores comenzó con la investigación sobre el efecto del campo eléctrico en sólidos, llevada a cabo por William Thomson (más tarde Lord Kelvin) en 1854. Sin embargo, no fue hasta principios del siglo XX que se descubrió que algunos materiales, como el silicio y el germanio, podían transmitir electricidad de manera más eficiente en determinadas condiciones.
Además del silicio y el germanio, hay varios otros materiales que también pueden actuar como semiconductores. Estos materiales también tienen propiedades eléctricas intermedias entre los conductores y los aislantes, lo que los hace útiles en una variedad de aplicaciones electrónicas. (Arseniuro de galio, óxido de cinc, teluro de cadmio..)
El silicio y el germanio son especialmente interesantes por sus propiedades, su abundancia, velocidad de dispersión de los electrones en la red y compatibilidad con otros materiales favoreciendo el dopado.

El silicio es el cuarto elemento más abundante en la corteza terrestre.
El proceso de dopado, también conocido como dopaje, es un método utilizado para modificar las propiedades eléctricas y ópticas de los semiconductores. Este proceso implica la adición de impurezas en pequeñas cantidades a un material semiconductor, lo que resulta en una mejora significativa en sus características.
El dopaje se realiza introduciendo átomos de un elemento donador o aceptor de electrones en el cristal de silicio o germanio. Estos átomos son más pequeños que los átomos del material semiconductor y por lo tanto, pueden ser incorporados fácilmente al cristal.
Existen dos tipos principales de dopaje: dopaje tipo N (donador) y dopaje tipo P (aceptor).
- Dopaje tipo-N (donador): En este proceso, se añaden átomos de un elemento donador, como fósforo o arsénico, al cristal de silicio. Estos átomos tienen más electrones que los átomos de silicio y pueden donar electrones a la red eléctrica del material semiconductor. Esto hace que el material sea un buen conductor de electricidad, ya que tiene una mayor cantidad de electrones libres para moverse a través de él.
- Dopaje tipo-P (aceptor): En este proceso, se añaden átomos de un elemento aceptor, como boro o aluminio, al cristal de silicio. Estos átomos tienen menos electrones que los átomos de silicio y, por lo tanto, pueden aceptar electrones de la red eléctrica del material semiconductor. Esto hace que el material también sea un buen conductor de electricidad, ya que tiene una mayor cantidad de huecos para moverse a través de él.
El dopaje es fundamental en la fabricación de dispositivos electrónicos, como transistores y diodos, ya que permite controlar el flujo de electricidad a través del material semiconductor. Además, este proceso también se utiliza para crear circuitos integrados, donde miles o millones de transistores están fabricados en una sola placa de silicio. El dopaje se realiza en laboratorios en condiciones extremadamente controladas por procesos como la difusión térmica o iónica entre otros. Esta tecnología iba a cambiar el curso de la humanidad para siempre.
A. Fernández
Transistores: la revolución ha comenzado.(prev)(next)
Para hablar de los transistores es apropiado hablar de los diodos primero, estos elementos construidos a partir de un único cristal semiconductor dopado en tipo P y en tipo N presentan un comportamiento particular debido que sólo permiten conducir la electricidad en una única dirección. Un transistor conduce la corriente en una única dirección pero además esta corriente puede ser regulada a partir de una pequeña señal introducida en la base o en la puerta. Si la corriente principal se gobierna con otra corriente más pequeña estamos hablando de un transistor bipolar o BJT (Bipolar Joint Transistor), si la corriente se gobierna por voltaje estaríamos hablando de transistores de efecto de campo FET (Field Effect Transistor) y MOSFET(Metal Oxide Semiconductor FET), siendo estos últimos los más habituales en la industria por su mayor velocidad de conmutación y menores pérdidas de polarización.
En 1906, un físico alemán llamado Julius Edgar Lilienfeld solicitó una patente para un dispositivo que utilizaba semiconductores para controlar la corriente eléctrica. Se trataba del transistor de efecto de campo. Sin embargo, su invención no tuvo mucho impacto en ese momento. Julius no llegó a fabricar ningún transistor pero asentó sus bases teóricas. La técnica y la sociedad en general no estaba preparada para asimilar tales avances en electrónica.
La verdadera revolución de los semiconductores comenzó en 1947 cuando John Bardeen, Walter Brattain y William Shockley, trabajando para Bell Laboratories, con equipos más sofisticados construyeron el primer transistor bipolar, además de definir y perfeccionar las ecuaciones y modelos matemáticos que describen su funcionamiento. Este pequeño dispositivo revolucionó la tecnología al permitir que se controlara y amplificara la electricidad de manera más eficiente que nunca antes.

Transistores con diferentes tipos de encapsulado.
Los transistores funcionan de dos formas principalmente, en conmutación cuando se comportan como un interruptor, simplemente dejan o no pasar la electricidad o en modo amplificación cuando reciben una señal como entrada y en su salida aparece una señal análoga generalmente mayor que la de entrada.
Los transistores de efecto de campo según su configuración pueden funcionar además como resistencias y condensadores lo que permite crear circuitos complejos que solamente tienen como componentes transistores, simplificando la construcción de microchips y permitiendo mayor miniaturización de los integrados.
Gracias a estos componentes se pueden fabricar puertas lógicas, sensores, amplificadores y en general un sinfín de otros componentes y circuitos que se forman con transistores y que permiten el desarrollo de la informática, las comunicaciones y casi todos los avances que aporta la electrónica moderna.
A. Fernández
Amplificador operacional: el circuito más versátil.(prev)(next)
Si hay algún circuito que merezca especial atención es sin duda el amplificador operacional, normalmente se suele tratar a este como un componente único con un comportamiento bien definido sin embargo el amplificador operacional es realmente un circuito formado por múltiples componentes.
En sus inicios hacia 1947 se basaban en válvulas termoiónicas con una determinada configuración, desde 1964 y actualmente se construyen de transistores normalmente en un chip monolítico, estos amplificadores permitían realizar cálculos aritméticos a partir de voltajes de referencia entregando como resultado un voltaje equivalente a la suma, resta, multiplicación, división, derivación etc, de los voltajes iniciales. Las primeras calculadoras y procesadores fueron posibles. El nombre de este componente se toma de esta característica que tiene de resolver operaciones. Lo interesante es que los cálculos se procesan de manera analógica gracias a la configuración externa del amplificador y no dependen de su configuración interna, debido a esta particularidad los amplificadores operacionales pueden funcionar de múltiples maneras, son pues, elementos programables dependientes de su configuración externa.

Un amplificador operacional 741 y una posible configuración. Vo = Vi * (1 + R2/R1)
Pero si pensabas que este componente no es más que una calculadora que realiza operaciones aritméticas de manera analógica te equivocas, su versatilidad va mucho más allá de lo que cabría esperar.
Con amplificadores operacionales y algunos componentes extra pueden construirse circuitos como generadores de onda cuadrada, senoidal, triangular o diente de sierra, temporizadores, comparadores, filtros activos paso bajo, alto y banda, reguladores de voltaje y de corriente, rectificadores de precisión, amplificadores de instrumentación y de audio, conversores analógico digitales, codificadores de teclados, controladores de motores, incluso pueden construirse puertas lógicas y muchos otros tipos de circuitos, pueden trabajar con corriente continua o alterna en frecuencias desde 0 hasta MHz. ¿Hay algún componente con más posibilidades?
Sin duda el amplificador operacional ha tenido y tendrá un papel importante en el desarrollo de la electrónica y la tecnología en general y forma parte de los circuitos de innumerables máquinas.
A. Fernández
Puertas lógicas: la era de la computación.(prev)(next)
Las puertas lógicas son un componente fundamental en la electrónica digital y la computación, están estrechamente relacionadas con el álgebra de Boole, una rama de la matemática que estudia la manipulación y el procesamiento de información utilizando operaciones lógicas. El álgebra de Boole fue desarrollada por George Boole en 1854 y se basa en las ideas de lógica proposicional, que estudia cómo combinar proposiciones (o declaraciones) utilizando conectivos lógicos.
En el álgebra de Boole todas las operaciones se realizan con valores de verdadero o falso, representados por 0 y 1.Estas operaciones pueden implementarse con interruptores eléctricos sin embargo no son puertas lógicas. El concepto de una puerta lógica fue introducido por el científico Alan Turing en 1936, quien propuso un modelo abstracto para representar y procesar información utilizando símbolos y reglas simples. A lo largo de los años, este concepto se ha desarrollado y refinado para crear las puertas lógicas que conocemos hoy en día.
Estas pueden construirse utilizando diferentes tipos de componentes electrónicos. En los primeros sistemas digitales, las puertas lógicas se construyeron con relés mecánicos o válvulas de vacío. Con el tiempo, la tecnología ha avanzado y ahora las puertas lógicas se fabrican utilizando semiconductores de silicio o germanio principalmente con circuitos de transistores y diodos implementados en chips monolíticos acorde a diferentes tecnologías como CMOS o TTL.
Las puertas lógicas ideales tienen impedancia de entrada infinita (no consumen), impedancia de salida casi cero (pueden alimentar cargas) y tiempos de propagación instantáneos pero según su tecnología de construcción, la velocidad de respuesta, voltajes y corrientes de trabajo pueden variar, aunque el comportamiento teórico es el mismo y en general su funcionamiento se aproxima al ideal dentro de los rangos que especifican los fabricantes.

Un chip de silicio y la distribución de puertas en su interior.
Existen varios tipos de puertas lógicas, cada uno con su propósito específico. Algunos de los más comunes incluyen:
- Puerta AND: Permite que la salida sea verdadera solo cuando ambas entradas son verdaderas.
- Puerta OR: Permite que la salida sea verdadera si al menos una de las entradas es verdadera.
- Puerta NOT (INVERTER): Invierte el valor de la entrada, lo que significa que si la entrada es verdadera, la salida será falsa, y viceversa.
- Puerta XOR. Esta puerta se considera no lineal , la salida es verdadera si las entradas son verdaderas e impares.
Y sus negaciones: - Puerta NAND: negación de AND.
- Puerta NOR: negación de OR.
- Puerta XNOR negación de XOR.
- Puerta Buffer o Seguidor, es una puerta que transmite lo mismo que recibe, inversamente a NOT, se utiliza principalmente para aumentar la impedancia de entrada y disminuir la de salida se puede obviar para implementaciones lógicas pero es útil cuando se realizan implementaciones físicas dónde las puertas no son ideales.
Debido que con puertas NAND y NOR se pueden implementar todas las funciones lógicas se denominan estas puertas universales. Son muy habituales los circuitos integrados lógicos construídos únicamente con puertas de uno de estos tipos.
Las puertas lógicas son el componente básico de todos los demás componentes digitales, como multiplexores, biestables, sumadores, comparadores, codificadores, microprocesadores, memorias, etc y sin ellas, no habría sido posible desarrollar la computación digital, que ha revolucionado la forma en que trabajamos, estudiamos y nos comunicamos. Se utilizan en la construcción de circuitos integrados para automatización y el control industrial, donde son responsables de procesar y manipular información para controlar máquinas y sistemas complejos. Además se encuentran en muchos dispositivos electrónicos domésticos, como relojes digitales, calentadores y televisores inteligentes. Esto ha permitido a los consumidores acceder a tecnología avanzada y mejorar la calidad de vida.
A. Fernández
Lenguajes de programación: hablando máquina.(prev)
Cuando se configura un amplificador operacional u otro circuito con componentes externos, se condiciona su comportamiento ofreciendo una salida determinada en función a una entrada. Esa programación que es un circuito puede representarse con lenguaje matemático como ecuación. Sin embargo para que el circuito realice una operación distinta este debe ser reconfigurado de nuevo como otro circuito para otra ecuación u operación, no resulta práctico rearmar los circuitos para hacer diferentes tareas, surgió la necesidad de comunicar a las máquinas cuáles debían ser sus configuraciones en base a unos parámetros de entrada para ofrecer diferentes tipos de salida y el diseño de las máquinas se volvió más generalista y capaz de adaptarse a nuevas configuraciones, las primeras máquinas programables se estaban gestando.
Probablemente algunas de estas primeras máquinas fueron cajas de música, relojes y sistemas mecánicos, calculadoras, o telares de tarjetas perforadas, un tipo de telar electro mecánico utilizado durante la década de 1950 y principios de 1960. Resultan de interés porque funcionaban almacenando información en tarjetas perforadas, que eran hojas de cartón con agujeros en ciertas posiciones para representar datos binarios (0 o 1) a partir de los cuales se automatizaba el proceso de hilado y tejido.

Diferentes sintáxis de programación .
Los datos binarios se llevan muy bien con las máquinas porque representan estados de encendido y apagado, algo que es fácil de procesar y que además es susceptible de ser usado con lógica booleana lo que incrementa su potencial. Siendo las máquinas de turing, modelo teórico impulsor de los ordenadores modernos, los mayores demandantes de lenguajes de programación.
El primer ordenador Eniac se programaba en binario a partir de tablas de verdad pero podía procesar cálculos complejos gracias a su unidad aritmetico lógica, sus conversores analógico digitales, su unidad de procesador y su memoria. El ordenador se establecía como máquina universal programable capaz de resolver problemas generales.
La evolución de los lenguajes de programación va ligada a la de los ordenadores, estos son una verdadera proeza de la humanidad repletos de innovaciones y grandes inventos de muchas personas detrás, no han parado de evolucionar desde que se inventaron porque potencian las capacidades en muchos ámbitos. Éstas máquinas más potentes demandaban lenguajes más complejos que permitiesen explotar sus capacidades. Los lenguajes de alto nivel fueron necesarios para facilitar la interacción entre humano y máquina, son en realidad una abstracción de los símbolos lógico matemáticos que interpreta un procesador pero que se acercan al lenguaje humano y pueden ser leídos y comprendidos. Algunos de los primeros lenguajes como ensamblador, se utilizan para comunicarse con la CPU (Unidad Central de Procesamiento) en términos básicos y directos. Es un paso intermedio entre el código máquina, que es una secuencia de números binarios que la CPU entiende y los lenguajes de alto nivel, como C o Python, que son más fáciles de leer y escribir para los humanos.
Cuando se escribe un programa en ensamblador, cada instrucción representa una acción específica que la CPU puede realizar, como mover datos entre la memoria y los registros internos de la CPU, realizar operaciones aritméticas o lógicas, o saltar a diferentes partes del programa.
El uso del lenguaje ensamblador ha disminuido con el tiempo debido al desarrollo de compiladores e intérpretes más sofisticados que pueden convertir código escrito en un lenguaje de alto nivel a código máquina para una variedad de CPUs. Sin embargo, el ensamblador sigue siendo útil en algunas situaciones, como cuando se necesita un control preciso sobre la estructura y el rendimiento del programa o cuando se está trabajando con hardware básico que no tiene soporte para lenguajes de alto nivel.
Si bien hay muchos lenguajes de programación y dominar uno u otro requiere práctica hay cosas que tienen en común, la necesidad de procesar variables, llamar a funciones o utilizar librerías es algo que es común a los lenguajes más utilizados y normalmente cuando se sabe programar en un lenguaje es sencillo aprender otro nuevo, pues aunque las formas difieren el sentido de ejecución y los métodos son similares puesto que el objetivo de los lenguajes es hablar con las computadoras y estas tienen una estructura de hardware concreta que los lenguajes deben respetar para funcionar.
¿Cuál es entonces el mejor lenguaje?
Es esta una pregunta que no tiene respuesta, pues para las diferentes aplicaciones o necesidades del hardware se recomiendan diferentes lenguajes cada uno con sus particularidades. Por mencionar algunos lenguajes de interés quizá Fortran, creado en 1957 para computación científica y matemática; COBOL, diseñado en 1959 para computación comercial y todavía ampliamente utilizado; Lisp, uno de los primeros lenguajes generales y antiguos en uso hoy, conocido por su sintaxis única y funcionalidad; ALGOL 60, el primer lenguaje general neutral entre diferentes máquinas y sistemas operativos; PL/I, diseñado para ser multiparadigma y aplicable a una amplia gama de aplicaciones; C, C++ y C#, lenguajes populares y eficientes en términos de rendimiento y portabilidad; Pascal, creado por Niklaus Wirth como un lenguaje académico orientado a la enseñanza; Java, diseñado para ser portátil y orientado a objetos; Python, conocido por su sintaxis fácil de entender y legibilidad del código; y Rust, un lenguaje reciente enfocado en seguridad y rendimiento. Cada uno de estos lenguajes tiene características únicas y se elige según las necesidades específicas del proyecto y del equipo de desarrollo.
A. Fernández