COMO FUNCIONA:
ARTÍCULO EN CONSTRUCCIÓN . . .
- ..
 



ARTÍCULO ACTUALIZADO 2010

José Luis Giordano
Abril 22, 2007 (Última revisión: Noviembre 22, 2010)



INTRODUCCIÓN

Casi todos los circuitos electrónicos están basados en la existencia de varios tipos de "condensadores eléctricos" o "capacitores". Sin su invención no se hubiesen podido desarrollar una infinidad de circuitos sintonizados tal como los conocemos, como por ejemplo los sistemas de radio, televisión, teléfonos, equipos de audio, y detectores de metales.

En este artículo se describen los capacitores desde el punto de vista de las aplicaciones. Pero también por otro lado, se enfatizan aspectos conceptuales, en relación a la inducción electrostática, el efecto del dieléctrico, conservación de la carga eléctrica y la energía potencial en los procesos de carga y descarga. Específicamente, se trata el problema de la energía perdida entre dos condensadores. Finalmente se comenta algo sobre la invención del capacitor y sobre el trabajo de Franklin.



1-QUÉ ES

Un capacitor o condensador eléctrico es un componente:
1) eléctrico (trabaja con corrientes y voltajes),
2) pasivo (no proporciona ganancia ni excitación),
3) que acumula carga eléctrica, y
4) que puede ser simétrico (compuesto por un dieléctrico entre 2 electrodos iguales), o polarizado (con un electrolito entre dos electrodos diferentes: "+" y "-").

Nota sobre el nombre "capacitor": Por analogía de la electricidad con los fluídos, al acumular carga se hablaba de "condensar carga eléctrica". Entonces, al elemento acumulador se lo llamó "condensador" (desde que Volta lo llamó así en 1782). Pero en este artículo se prefiere usar "capacitor" o "condensador eléctrico", tal como sucedió en la lengua inglesa, donde "capacitor" reemplazó a "condenser" (reservando solo "condensador" para los dispositivos que condensan vapor o gas). Análogamente, en este contexto se usa "capacitancia" o "capacidad eléctrica" (en vez de decir solamente "capacidad", que se reserva para volumen).


Fig. 1: Muestra de capacitores fijos, de los que se usan en circuitos impresos.


Algunas de las características que distinguen a un capacitor son:
1) Tener capacitancia fija o variable
2) Ser electrolítico o no. Tener o no tener polaridad (ser simétrico)
3) El material del dieléctrico
4) Capacidad eléctrica nominal C (generalmente en pF, nF, μF o en mF)
5) Tolerancia de la capacitancia (en %)
6) Voltaje máximo de operación ΔVmax (en V ó kV)
7) Temperatura máxima o Rango de temperatura de operación (en °C)
8) Tipo de encapsulado y terminales para montaje (axial o no, superficial o no)

Su capacitancia (capacidad de acumular carga eléctrica) C, que en el S. I. de Unidades se mide en "F", "farad" o "faradio", es la relación entre la carga acumulada Q (que se mide en "C", "coulomb" o "coulombio") y la diferencia de potencial o voltaje ΔV entre sus 2 terminales (en "V", "volt" o "voltio") que existe cuando está cargado:

C = QV ("farad ≡ coulomb/volt")

Como el farad y el coulomb representan cantidades muy grandes de capacitancia y de carga eléctrica respectivamente, es más común encontrar F y C con los prefijos p ("pico", 10-12), n ("nano", 10-9), μ ("micro", 10-6) y m ("mili", 10-3).

El valor C de la capacitancia es una constante del capacitor (un número real positivo) que depende de parámetros geométricos (forma y tamaño del capacitor) y físicos (del material del dieléctrico).

Cuando un capacitor de capacidad eléctrica C tiene una diferencia de potencial ΔV, el capacitor está cargado con una carga Q = C ΔV. La carga máxima que puede acumular está determinada por otro parámetro importante del capacitor: el voltaje máximo ΔVmax que es inferior y cercano al "voltaje de ruptura" (VBR, Breakdown Voltage) que pueda tener sin destruirse. Este voltaje también depende de parámetros geométricos del capacitor y físicos del material dieléctrico.

Un criterio de diseño arbitrario pero típico es usar hasta aproximadamente un voltaje que sea el máximo nominal dividido por raiz de 2. Por ej. un capacitor cuyo voltaje máximo nominal sea 25 V, con este criterio debería estar sometido a voltajes que no superen el 71% de 25 V (es decir, hasta unos 18 V). Este criterio se basa en la relación entre el valor eficaz (rms) y el valor de la amplitud en una onda senoidal.

El parámetro del material directamente relacionado con el VBR, es el campo eléctrico de ruptura dieléctrica, denominado "resistencia dieléctrica" o "ruptura dieléctrica" (EBR, Dielectric Strength) que se mide en kV/mm (ó 106 V/m).
Para el aire seco en condiciones normales (de temperatura y presión), la ruptura se produce a 3 kV/mm aproximadamente (Esto debe ser bien conocido por las personas que se dispongan a trabajar con alta tensión).

La tolerancia porcentual sobre la capacitancia nominal (que se indica generalmente con letras), determina el rango de valores entre los que está (con cierta probabilidad) la capacitancia (verdadera) de un capacitor comercial. La tolerancia está asociada a la calidad en su fabricación. La codificación de tolerancia más común es:
"M" ±20%
"K" ±10%
"J" ±5%
"G" ±2%
"F" ±1%
"D" ±0.5%
"C" ±0.25%
"B" ±0.1%
"A" ±0.05%
"Z" ±0.025%
Por ejemplo si un capacitor con una capacitancia nominal de "1000 μF" tiene una tolerancia "M" (20%), su capacidad eléctrica debería estar entre 800 y 1200 μF.



2-PARA QUÉ SIRVE

Un capacitor es un elemento muy simple, pero según cómo y dónde se utilice, sirve para diferentes e importantes funciones, como por ejemplo:

2.1 Acumuladores de energía:
Un capacitor cargado, puede proporcionar carga eléctrica para realizar un cierto trabajo. Por lo tanto, todo capacitor cargado tiene una energía potencial eléctrica U acumulada (que se mide en "J", "joule" o "julio"). Puede demostrarse que, para un sistema de dos conductores como el de un capacitor, es

U = (1/2) Q ΔV ("joule ≡ coulomb volt")

Usando C = QV, también se tiene

U = (1/2) Q2/ C = (1/2) CV)2

Como ejemplo de aplicación de los capacitores usados como acumuladores de energía se tienen los magnetizadores y desmagnetizadores de imanes de parlantes, sistemas de campo magnético pulsado, fuentes de plasma pulsado, circuitos de disparo del flash de cámaras fotográficas y algunos chisperos (encendedores de gas) electrónicos. En general, para esta aplicación los capacitores deben ser aptos para alto voltaje (entre 0.2 y 1 kV típicamente) y capaces de producir la descargas rápidamente (entre unos 0.001 y 1 ms).

2.2 Filtros de rizado:
Esta función se encuentra en las fuentes de alimentación (de corriente y/o de voltaje), donde los capacitores se utilizan para eliminar ("filtrar") el rizado o riple remanente de la conversión de corriente alterna (AC) en continua (DC) realizada por el circuito rectificador.

Hasta aproximadamente los años 1980’s, los diseñadores electrónicos calculaban el transformador óptimo para una dada aplicación, mediante el uso de las "Curvas de Schade" ( Schade O H 1943 Analysis of Rectifier Operation Proc. IRE 31(7) 341-361 ). En el cálculo del transformador, también estimaban la capacitancia y el voltaje máximo del capacitor. En la actualidad, se utilizan transformadores y capacitores de valores típicos, mientras que el filtrado final se realiza con un circuito integrado regulador de voltaje de 3 terminales, que puede ser fijo como el "7805", ó ajustable como el "LM317".

2.3 Filtros de audiofrecuencia (AF):
Cuando se trabaja con señales de corriente alterna (AC), es muy útil utilizar el método de fasores donde un condensador se puede considerar como una impedancia compleja pura que, para una capacitancia C y frecuencia angular ω, se puede escribir en el Campo Complejo de las formas siguientes:

ZC = (0, XC) = 0 + j XC = ZC e jφC = (ωC)-1 e -jπ/2

siendo j la unidad imaginaria (j2 = -1) y donde el ángulo de fase φC = -π/2 es el argumento de la impedancia compleja de una capacitancia pura, que representa un adelanto de 90° de la corriente respecto del voltaje sobre el capacitor.

Es muy importante dejar claro (algo que está mal explicado en muchos libros de Física) que: la reactancia capacitiva XC es un número real, pero no es positivo, sino negativo:

XC = -(ωC)-1

Lo que sí es positivo, es el módulo de la impedancia compleja de la capacitancia pura:

ZC = (ωC)-1

Cuando señales compuestas por diferentes frecuencias se aplican a un capacitor, la magnitud de su impedancia es mayor para las ondas de relativa baja frecuencia (es decir, pone más dificultad al paso de los sonidos graves, y deja pasar más fácilmente a los sonidos más agudos).

Este hecho tiene una importante aplicación en los circuitos preamplificadores y amplificadores de audio. En particular, los divisores de frecuencia pasivos (compuestos por capacitores, bobinas y resistores) que se encuentran dentro de algunas cajas acústicas ("baffles"), tienen configuraciones simples denominadas "filtros pasa altos" que dejan pasar las frecuencias medias y altas (a través de capacitores en serie) hacia los parlantes de sonidos medios y agudos ("tweeters"). También forman "filtros pasa bajos" que cortocircuitan a tierra los agudos (a través de un capacitor en paralelo) para que no lleguen a los parlantes de sonidos más graves ("woofers").

Estos divisores de frecuencia también se utilizan con "luces psicodélicas" en teatros, discotecas y pubs, para enviar los bajos hacia lámparas de cierto color, y los sonidos medios y los altos a otras lámparas de diferente color.

2.4 Sintonizadores y Filtros de radiofrecuencia (RF):
Elementos "reactivos" como capacitores y bobinas producen desfases entre corriente y voltaje cuando son variables (a diferencia de las resistencias, que no desfasan). Los capacitores hacen que la corriente se adelante al voltaje (ángulo de fase negativo) y las bobinas atrasan la corriente (ángulo de fase positivo). Esta propiedad se usa en los "filtros pasabanda" y en los "filtros de rechazo de banda" (o filtros "notch"), en los que los componentes determinan una o varias frecuencias particulares denominadas frecuencias de resonancia, para las cuales el efecto del capacitor sobre la corriente se compensa total o parcialmente con el efecto de la bobina, haciendo que la señal que posea esa frecuencia (y las cercanas) pueda pasar con menor impedancia en el filtro pasabanda, o por el contrario, que esa señal se pierda con mayor facilidad en el filtro notch.

Entonces, en los aparatos de radio, de televisión (TV), teléfonos, detectores de metales y otros sistemas de alta frecuencia, se utilizan capacitores y bobinas en la implementación de filtros pasabanda para dejar pasar solo un estrecho rango de frecuencias (filtros sintonizados de RF), para elegir o seleccionar emisoras (sintonizadores de RF), o bien para eliminarlas (filtros notch). Capacitores fijos y variables puestos en paralelo (en "tandem") forman parte de los circuitos "tanque" de sintonización de emisoras, conectados generalmente en paralelo con bobinas o con transformadores de RF.

Para ajuste fino de frecuencias en la calibración de equipos de comunicaciones se requieren capacitores de capacitancia variable y relativamente pequeña (menor que 1 nF) en los que las variaciones de capacitancia puedan ser mucho menores aún (1-100 pF). Para esto existen capacitores variables denominados trimmers de hasta 50 pF que son 2 láminas metálicas, separadas por una lámina aislante (de mica, mylar o teflon) muy delgada, con un tornillo de ajuste para regular la distancia de separación de las láminas (y por lo tanto, poder ajustar la capacitancia con cierta resolución). Para capacitancias relativamente mayores, existen padders que son similares a los trimmers, pero de mayor tamaño y con capacitancias en el rango 50-250 pF.


Fig. 2: Elemento de sintonía de un receptor superheterodino AM de bolsillo.

En la Figura se muestra un elemento capacitivo de sintonía de una radio superheterodina de amplitud modulada (AM) "de bolsillo" (casi del tamaño de un paquete de cigarrillos). El encapsulado plástico de este elemento sintonizador (de unos 2 x 2 x 1 cm3 aprox.) contiene 2 capacitores variables en tandem, formados por láminas metálicas que giran introduciéndose alternadamente unas en otras (el eje central está en la cara que no se ve en la Figura, donde se atornilla el "dial", que es una rueda numerada con las frecuencias de las emisoras). Se observan las ranuras de los tornillos de ajuste de 2 trimmers.

2.5 Filtros de frecuencia de línea:
Los filtros notch también se utilizan para eliminar múltiplos de la frecuencia de la red eléctrica (50 ó 60 Hz) que puedan interferir en algún circuito cercano. Por ejemplo, si la red es de 50 Hz, según el equipo puede haber filtros notch implementados con capacitores, resistencias y bobinas para eliminar "ruido" de 50, 100, 150 y 200 Hz.

2.6 Protectores de componentes electrónicos, bobinas y contactos de relays:
En "circuitos inductivos" (donde predomine el efecto de las bobinas de atrasar la corriente respecto del voltaje) los capacitores funcionan como supresores ("snubbers") de transitorios. Conectados en paralelo sirven para absorber la energía de la sobretensión inducida, ya que hacen que el transitorio de corriente evolucione más lentamente (y por lo tanto que el voltaje inducido sea menor), evitando que un contacto eléctrico se funda, se carbonice o perfore, o protegiendo componentes pasivos (como bobinas, transformadores y motores), o evitando quemar componentes activos (como transistores, tiristores y triacs).

Esto se puede ver matemáticamente con un poco de cálculo diferencial. En una bobina, el flujo magnético Φ creado por la corriente I(t) que circula en sus espiras en cada instante t, se puede considerar función de t o de I. Utilizando la Ley de Inducción Electromagnética de Faraday-Lenz, donde el voltaje inducido ε(t) en una bobina en el instante t es -menos- la rapidez de la variación del flujo magnético Φ(t) en el circuito que esté entre esos terminales (con el lapso Δt tendiendo a cero: Δt → 0 s):

ε(t) = - ΔΦ(t)/Δt

y utilizando la definición de la autoinductancia L (en "H", "henry" o "henrios") donde el cambio ΔI en la corriente tiende a cero:

L ≡ ΔΦ(I)/ΔI

se tiene que (usando la regla de derivación de una composición de funciones o "regla de la cadena", para Δt → 0 s)

ε(t) = - ΔΦt = - (ΔΦI) (ΔIt) = - LIt)

Para una dada bobina, L es una constante (que depende de la geometría de la bobina y del material magnético en su interior). Esto significa que la interrupción o conexión muy rápida o repentina de la corriente (es decir ΔIt muy grande) de un circuito inductivo (generalmente con bobinas o motores donde L es muy grande), produce un transitorio de voltaje ε(t) inducido de gran amplitud, que generalmente supera los 3kV/mm (ruptura dieléctrica del aire), y por lo tanto produce chispas. Esto sucede en los contactos de interruptores y en algunos componentes de estado sólido trabajando en conmutación, que pueden dañarse por esta sobretensión que dura una fracción de milisegundo.

2.7 Multiplicadores de Voltaje:
Conectando diodos rectificadores y capacitores, se pueden implementar configuraciones que a partir de un voltaje alterno (AC) carguen los capacitores en los semiciclos AC, llegando a alcanzar alto voltaje entre dos puntos dados del circuito. Estos circuitos se utilizan en fuentes de alto voltaje (como por ej. las fuentes de televisores y de ozonizadores de aire en hospitales y de agua en piscinas).


Fig. 3: Diagramas esquemáticos de un duplicador de voltaje y de un multiplicador de voltaje extendible, a partir de una fuente de voltaje AC Vi(t) de amplitud VM, capacitores y diodos rectificadores. En el segundo circuito, cada capacitor queda cargado con VM y, donde se unen el diodo y el capacitor n-ésimos, se tiene el voltaje de salida Vo(n) = nVM.


2.8 Acumuladores (digitales y analógicos) de información:
junto con la gran familia de "FET´s" (Field Effect Transistors, transistores de efecto de campo), los capacitores se utilizan en referencias de voltaje, dentro de "chips" de memorias y en circuitos lógicos.

2.9 Constantes de tiempo y acoplamientos:
Los capacitores sirven para producir constantes de tiempo (del tipo τ = RC o equivalentes) en temporizadores, alarmas, sirenas, atenuadores de luz ("dimmers") y convertidores portátiles de voltaje.

Los capacitores también sirven para acoplar circuitos lógicos, etapas de amplificadores y sondas con instrumentos (como osciloscopios).

2.10 Integradores y derivadores RC:
Las constantes de tiempo RC también se utilizan para hacer que un capacitor en paralelo (como en una configuración pasa bajos) se comporte como un integrador de los voltajes con frecuencias superiores a la frecuencia de corte f-3dB del filtro.

Por el contrario, un capacitor en serie (como en una configuración pasa altos) se comporta como un derivador de los voltajes con frecuencias inferiores a la frecuencia de corte f-3dB del filtro.


Fig. 4: Filtro pasa-bajos funcionando como integrador y filtro pasa-altos funcionando como derivador. Diagrama esquemático de cada circuito, Diagrama de Bode de la ganancia G en decibel (dB) de cada filtro, y deducción de su funcionamiento como integrador y como derivador respectivamente.


Por ejemplo, cuando se obtiene el ciclo de histéresis magnética en la pantalla de un osciloscopio, se mide la intensidad B(t) del campo magnético alterno (de frecuencia f) producido por un bobinado AC en el material. Esto se puede implementar con un integrador (formado simplemente por una resistencia y un capacitor tales que la frecuencia f sea mucho mayor que frecuencia de corte f-3dB del filtro RC pasabajos). Como el voltaje ε(t) inducido en los extremos del bobinado es proporcional a la derivada del flujo magnético Φ, este voltaje se aplica al integrador, y de este modo la señal de salida resulta proporcional a Φ(t) y por lo tanto, también proporcional a B(t).

2.11 Selectores o conmutadores táctiles:
En selectores de pisos en ascensores, teclado en cajeros, y en dispositivos como las ruedas táctiles de los iPod´s, los capacitores sirven como interruptores electrostáticos, en lugar de los clásicos "botones" electromecánicos que actúan por presión mediante piezas móviles.

2.12 Desfasadores de línea (Corrección del "factor de potencia"):
En un circuito AC (de corriente alterna de 50 ó de 60 Hz) hay que distinguir entre dos potencias:
Potencia media que se calcula como la media de la potencia instantánea P(t) en un período, y que representa la potencia realmente utilizada por la maquinaria, que suele especificarse en watt (W); y
Potencia aparente que es el producto de los valores eficaces (RMS, root mean square) de la corriente y el voltaje:

PapIrmsVrms

Esta es la potencia relacionada con la energía elécrica que se cobra, usualmente especificada en "volt-ampere" (VA). La diferencia entre esta potencia y la media siempre se puede expresar mediante:

Pav = Pap cos φ

donde el ángulo de fase φ es el argumento de la impedancia compleja total del circuito:

Z = Z e jφ = Z (cosφ + j sinφ)

Cuando los circuitos son puramente resistivos (ángulo de fase φ = 0), ambos tipos de potencia coinciden. Pero las industrias suelen tener maquinarias con motores e iluminación con tubos fluorescentes (que usan bobinas). Esto hace que la instalación eléctrica industrial sea equivalente a un circuito fuertemente inductivo (φ grande), lo que ocasiona una gran diferencia entre la Pap de la energía que se les cobra y la Pav que se utiliza. Por eso, en algún sitio de estos establecimientos industriales, se encuentran conectados y refrigerados "bancos de capacitores" que mejoran el factor de potencia "cos φ" (disminuyen el "coseno fi").

La capacidad que se puede agregar a la instalación (para disminuir la fase φ) no es arbitraria. El factor de potencia está limitado legalmente, ya que el exceso de capacitores en la red podría ocasionar transitorios de corrientes muy altos durante la puesta en marcha de la industria, haciendo "saltar" la red eléctrica de una parte de la ciudad durante la sobrecarga.

2.13 Sensores y Transductores:
Como transductores entre ondas acústicas y eléctricas, elementos capacitivos se usan como emisores y como receptores de ecógrafos en medicina y de sonares en biología marina.
En audio se usan en los antiguos fonocaptores ("cápsulas de cristal y cerámicas"), en micrófonos cerámicos y en altavoces de agudos ("tweeters").
También se usan con piezoeléctricos en micro-manipuladores de microscopios y en cubas de limpieza por ultrasonido.

Como sensores se utilizan en varios tipos de medidores, como por ejemplo de presión, tensión y aceleración. También se usan en sistemas microelectromecánicos (MEMs, MicroElectroMechanical Systems) con dispositivos cuyo tamaño es del orden de 0.01 mm.



3-DE QUÉ ESTÁ HECHO

Un capacitor está construido con dos electrodos, placas o "armaduras" metálicas muy próximas, separadas por un aislante denominado "dieléctrico", que puede ser el aire, un líquido, aceite, pasta, papel con parafina o cera, o un sólido rígido.

Los capacitores "electrolíticos" tienen polaridad, es decir, un terminal (indicado como "-") debe estar siempre a igual o menor potencial que el otro terminal (correspondiente a "+"). En estos capacitores, el dieléctrico es generalmente un electrolito líquido viscoso o una pasta salina. Se usan para tener mayor capacitancia.

Los dieléctricos sólidos rígidos pueden ser de materiales cerámicos como por ejemplo mica, vidrio, compuestos de tantalio, porcelana, o bien de polímeros como poliester (mylar), poliestireno, policarbonato, polipropileno o teflon.

Para lograr mayores capacitancias, debe aumentar la inducción electrostática, ya sea cambiando la geometría (por aumento de superficie y/o proximidad de las superficies de las placas) o las propiedades dieléctricas (usar un dieléctrico que se polarice más). Para esto se hacen condensadores tubulares o enrollados de diferentes formas, con más de una lámina en cada electrodo. También se usan los electrolíticos, y otros sin polaridad pero con dieléctricos cerámicos ferroeléctricos de altísima constante dieléctrica.

Existen los "super-capacitores", desarrollados en las últimas dos décadas, utilizando materiales porosos y nanoestructurados con los que se consiguen capacitancias miles de veces superiores. Pero este artículo no se refiere a aspectos específicos de este nuevo tipo, sino a conceptos generales a todos los capacitores.

El tamaño del capacitor depende principalmente de 3 parámetros: de la capacidad C, de la energía máxima Umax que se desee almacenar y del voltaje máximo (ΔV)max. Y éstos, a su vez, dependen de 2 parámetros del material dieléctrico: de la constante dieléctrica ke y de la ruptura dieléctrica EBR (Fabricando capacitores con materiales dieléctricos de altos valores de ke y de EBR se reduce el tamaño). En particular, en computación y sistemas digitales portátiles o miniaturizados (memorias, pendrives, MP3, etc.) se usan cerámicas avanzadas ferroeléctricas de altísimas constantes dieléctricas.

La siguiente Figura muestra 2 capacitores electrolíticos de 25 V. El capacitor grande de color naranja suele pedirse en las casas de electrónica como "capacitor electrolítico de 5000x25" y el pequeño celeste como "capacitor electrolítico de 47x25". En este último se observa el signo "-" que señala al electrodo que debe estar a menor potencial. Aunque pueden tener diferente tipo de dieléctrico, la diferencia de tamaño en este ejemplo se debe principalmente a que el grande tiene una capacitancia aproximadamente 100 veces superior.


Fig. 5: Dos capacitores electrolíticos típicos, ambos para un voltaje máximo de 25 V: el grande (color naranja) de 5000 μF y el pequeño (celeste) de 47 μF.


La Figura siguiente muestra dos capacitores de similar capacitancia, pero el naranja ("5000x25") es de 25 V y el celeste ("4700x50") de 50 V. Si tuvieran el mismo dieléctrico el celeste debería ser visiblemente mayor que el capacitor naranja de 25 V. Este ejemplo muestra que seguramente el electrolito del capacitor de menor tamaño tiene mayor ruptura dieléctrica y tal vez también mayor constante dieléctrica. En este último además del signo "-" también se observa que el rango de temperatura de trabajo es de -40 a 85 °C.

Fig. 6: Dos capacitores electrolíticos de similar capacidad (5000 y 4700 μF), donde el de mayor tamaño (color naranja) es el de menor voltaje máximo (25 V contra 50 V del de menor tamaño).


A continuación se muestran 3 capacitores electrolíticos de 1000 μF. Los azules son "1000x63", tienen indicada la temperatura máxima de operación (85 °C) y un código "M" para indicar un 20% de tolerancia en el valor de la capacidad. El naranja es un "1000x16", que tiene indicado el electrodo "+" (en vez de lo más común, que es indicar el "-"). Este capacitor tiene explícitamente indicada una tolerancia del 20% (pero no se observa en la fotografía).
Este ejemplo donde la capacidad y el tamaño de condensadores de 16 y 63 V son similares, muestra que el dieléctrico de los azules seguramente tiene una mucho mayor ruptura dieléctrica.

Fig. 7: Tres capacitores electrolíticos de 1000 μF (20%), uno (naranja) de 16 V y dos (azules) de 63 V.


En la Figura siguiente se muestran dos capacitores no-electrolíticos y no polarizados. El de color naranja indica explícitamente la capacidad nominal y el voltaje máximo: ".047 μF 600V". Si no hay ninguna letra más, hay que asumir que la tolerancia en la capacidad es del 20% (M), es decir, C puede estar entre 0.038 y 0.056 μF aproximadamente.

Fig. 8: Dos capacitores no polarizados, no electrolíticos. Uno (color naranja) de 0.047 μF (con un 20% de tolerancia) x 600 V, y el otro (verde) es de 0.033 μF (10%) x 1000 V.

En el otro capacitor (encapsulado verde) se indica "2A333K". La "K" significa que la tolerancia en la capacidad es 10%, el "2A" es un número de fabricación, y la capacidad está indicada en el "333" en picofarad, donde el último dígito es la cantidad de ceros, es decir

Cnominal = 33000 pF ≡ 33 nF ≡ 0.033 μF

La forma usada en este último ejemplo ("333" para indicar "33000 pF"), es el modo más común de indicar la capacidad nominal de los capacitores de menos de 1 μF. Parece extraño pero trabajando con capacitores, uno se da cuenta que no tiene ambigüedad y se acostumbra rápidamente.

La omisión del voltaje máximo indica que es 1 kV (En los capacitores electrolíticos, los voltajes de ruptura son mucho menores y por lo tanto siempre aparece claramente advertido el máximo voltaje que puede soportar).



4-CÓMO FUNCIONA

4.1 Porqué se carga un capacitor:
Los conductores y la proximidad entre ellos tienen ciertas características particulares, que hacen posible la carga (o la descarga) de un condensador. El proceso tiene que ver con la inducción electrostática entre conductores, y puede resumirse como sigue.

(a) Los conductores (en general metales puros o aleaciones) son materiales con electrones libres, lo que significa que bajo la presencia de un campo eléctrico E, estas cargas negativas pueden trasladarse con cierta facilidad, y pueden hacerlo macroscópicamente en todo el material constituyendo una corriente eléctrica i. Durante esta conducción, el material conductor sigue siendo eléctricamente neutro (o sea, en todo instante, las cargas entran y salen en igual cantidad, en cualquier elemento de volumen conductor).

(b) Una fuente de voltaje V0 es una fuerza electromotriz que produce un campo E dentro de un material, asociado a un "gradiente de voltaje" (una variación de voltaje por unidad de longitud). En un conductor, este campo produce una densidad de corriente eléctrica J de las cargas libres. Macroscópicamente, la variación de voltaje ΔV resulta proporcional a la intensidad de la corriente eléctrica i. (ΔV = Ri; Ohm, 1827).

(c) Los átomos de los conductores (que proveen los electrones libres para la conducción) son iones positivos "ligados" a la red cristalina del material (a través de enlaces atómicos), que no participan directamente en el transporte de carga pero sí en la disipación de la energía de las cargas en movimiento. La temperatura T del material está asociada a la agitación térmica de estos iones, y a la frecuencia de choque de electrones libres contra los iones de la red. La transferencia de energía en estos choques determina la proporcionalidad entre la disipación de calor y el cuadrado de la intensidad i de corriente eléctrica (P = Ri2; Joule, 1840).

Para fijar ideas, consideremos un capacitor formado por dos placas paralelas de superficie A en cada cara, y separadas una pequeña distancia d. El capacitor se encuentra inicialmente descargado.
El proceso de carga comienza cuando se conecta a una fuente de voltaje V0 a través de un resistor de resistencia eléctrica R (Esta resistencia resume todas las resistencias en serie del lazo, y en general se encuentra distribuida a lo largo de todos los alambres de conexión). Llamaremos placa negativa ("-") y placa positiva ("+") del capacitor a las conectadas respectivamente a los terminales "-" y "+" de la fuente.

(1) Cuando el capacitor descargado se conecta a la fuente de voltaje V0 a través de R, en el instante inicial no hay caída de voltaje sobre el condensador (pues está descargado: ΔV = 0 V), y entonces todo el voltaje de la fuente está sobre R. Esto origina la corriente máxima ImaxV0/R en ese instante inicial.

(2) Debido al voltaje de la fuente, dentro del conductor hay un vector campo eléctrico E que se dirige desde la placa "-" hacia la placa "+", a lo largo de todo el lazo y a través del dieléctrico.


Fig. 9: Proceso de carga de un condensador. El campo eléctrico (líneas color verde) generado por la fuente está a lo largo de todo el lazo y a través del dieléctrico. Las cargas negativas (azul) son llevadas desde la placa positiva a la negativa.


Para los electrones libres de las placas, este campo es atractivo (hacia la fuente) en "+" y repulsivo (desde la fuente) en "-". Entonces, el E producido por la fuente "bombea" cargas de un extremo al otro, quitándolas de la placa "+" y llevándolas a la placa "-".

A medida que las placas se van cargando, comienza a aparecer un campo eléctrico entre las cargas positivas (iones) en la placa "+" y las cargas negativas (electrones libres) en la placa "-". El metal de la placa "+" se va cargando positivamente por la falta de electrones libres, y el metal de la placa "–" se va cargando negativamente por el exceso de electrones libres acumulados.

Los electrones libres en la placa "–" no pueden "saltar" hacia los iones positivos de la placa "+" porque entre las placas se encuentra el material aislante. Este dieléctrico es el que soporta la presión y provee la reacción a la fuerza de atracción eléctrica (coulombiana), manteniendo la distancia d entre placas.

Debido a la resistencia R de los conductores entre la fuente y las placas, para cargarlo moviendo las cargas negativas desde una placa hasta la otra, la fuente realiza un trabajo sobre las cargas, gastando energía (generalmente electroquímica convertida en eléctrica) que se disipa en R a un ritmo dado por la Ley de Joule (i2R).

(3) El proceso continúa hasta alcanzar el equilibrio electrostático con una dada cantidad Q > 0 C de carga depositada en la placa "+", y -Q en la placa "-".

Esta redistribución de cargas fue inducida por campo eléctrico. El proceso de inducción eléctrica se detuvo cuando el campo creado por esta distribución de cargas compensa al campo debido a la fuente externa (es decir, cuando el voltaje de la fuente es exactamente el voltaje en el capacitor). Entonces cesa la corriente de cargas (i = 0 A), y sobre el resistor ya no hay diferencia de potencial. Ha terminado el proceso de carga del capacitor, y los conductores involucrados se encuentran en condiciones electrostáticas. Esto tiene las siguientes consecuencias:

(a) Como el conductor tiene cargas libres pero no hay corriente, necesariamente en su interior debe ser:

E(interior) = 0 V/m (Interior de un conductor en condiciones electrostáticas)

(b) Por lo anterior, cualquier zona del conductor con exceso o defecto de cargas (o sea, en un conductor cargado y/o bajo inducción eléctrostática), este exceso debe estar en las superficies exteriores y/o interiores del conductor (Esto se demuestra formalmente con el Teorema de Gauβ, derivado de una de las 4 Ecuaciones de Maxwell, Leyes Fundamentales del Electromagnetismo).

(c) Además, si hay cargas en las superficies, también hay campo eléctrico. Si este campo tuviese una componente tangencial a la superficie, las cargas libres se moverían. Pero como no hay corriente, este campo necesariamente debe ser perpendicular (normal) a la superficie:

E(superficie) = Enormal (Superficie de un conductor en condiciones electrostáticas)

(d) Debido a que el campo eléctrico es nulo en el interior y perpendicular en la superficie de los conductores en equilibrio electrostático, los conductores resultan "equipotenciales", es decir, en ausencia de corriente, están a un mismo potencial eléctrico (igual voltaje) en todos los puntos.

En el caso del capacitor, las cargas quedan en las superficies de las caras internas, enfrentadas unas a otras con el dieléctrico entre medio, generando el campo eléctrico entre placas.


4.2 Conservación de la carga eléctrica (en la carga y en la descarga de un capacitor):
En la Naturaleza se observa que hay ciertas regularidades que parecen cumplir todos los procesos físicos observados. Se las denomina Leyes de Conservación. Por ejemplo, se observa que la Naturaleza sigue un Principio de conservación de la Carga Eléctrica por el cual la carga neta o total no puede cambiar (ni crearse ni destruirse). En particular, durante la carga y descarga de los capacitores también se debe cumplir.

Supongamos que tenemos un capacitor cargado con carga Q y que juntamos los terminales (o sea, que lo "cortocircuitamos"). Vemos una chispa y posteriormente el capacitor queda descargado. ¿Qué sucedió con la conservación de la carga eléctrica?
Las placas metálicas del capacitor inicialmente son neutras, es decir, no hay ni exceso ni defecto de electrones libres. Por lo tanto, en cada armadura se tiene 0 coulomb, y entonces, la carga eléctrica del conjunto de placas, es también 0 C (i.e., el capacitor está descargado).
Pero cuando se dice que el capacitor fue cargado y que tiene carga Q, significa que una placa tiene tiene un exceso de carga Q y a la otra le falta exactamente esa carga, o sea que la otra placa tiene una carga -Q. Por lo tanto, la carga neta y total en las dos armaduras del capacitor cargado, o cargándose, o descargándose nunca dejó de ser cero coulomb.

Es decir, la energía potencial eléctrica U acumulada en un capacitor cargado no se debe a la carga neta total (la que sigue siendo 0 C), sino que la energía corresponde a la separación de cargas, electrones que se fueron de una armadura y que están en la otra, produciendo un campo eléctrico en una cierta región del espacio. La energía potencial electrostática está en esa distribución de cargas separadas en las placas (o equivalentemente, en la existencia del campo eléctrico entre placas).


4.3 Capacitancia de un capacitor "ideal" de placas paralelas:
Consideremos un capacitor formado por dos placas paralelas de superficie A en cada cara, y separadas por una pequeña distancia d, tal que cada lado sea mucho mayor que la separación (es decir, A1/2 >> d). En este caso, para simplificar el análisis se desprecian los efectos de borde, y por lo tanto el campo eléctrico se asumirá uniforme en el interior, entre las placas. A este capacitor se le denomina "ideal" de placas planas paralelas.

Consideremos al capacitor ideal cargado, conectado a una fuente de voltaje V0. Es decir, la diferencia de potencial ΔV en los terminales del capacitor es:

ΔV = V0 = constante

La relación entre el voltaje en las placas y la intensidad E0 del vector campo eléctrico E0 (uniforme) entre las placas del capacitor es:

ΔV = E0 d

Usando el Teorema de Gauss con una superficie que encierre una placa, se deduce que la carga en cada armadura se relaciona con la intensidad del campo eléctrico en el interior del capacitor según

Q0 = ε0 E0 A

donde la constante eléctrica universal es:

ε0 ≡ 8.854 187 817... x 10-12 F m-1

Si esta relación la dividimos por la anterior, resulta la capacidad del capacitor ideal de placas planas paralelas

C0 = Q0V = ε0 A/d = constante


Fig. 10: Deducción de la capacidad de un capacitor ideal de placas planas paralelas.

Es importante observar que esta relación es una constante que no depende del voltaje de la fuente.


4.4 Efecto del dieléctrico:
Al agregar un dieléctrico, siempre hay aumento de la capacidad. Para verlo cualitativamente, hay que considerar que el material del dieléctrico se polariza generando un campo eléctrico que se opone al campo eléctrico exterior.
Por lo tanto, si se mantiene al condensador aislado (carga Q0 constante), al agregar el dieléctrico, el campo en el interior del condensador, y el voltaje en los terminales, disminuyen (o sea, la capacidad aumenta: C0 < C).
También por otro lado, hay que ver que si se mantiene constante el voltaje V0 aplicado sobre el capacitor, el campo en el interior no cambia (haya o no dieléctrico). Por lo tanto, para que el campo en el interior sea el mismo cuando existe el dieléctrico, debe haber una cantidad mayor de carga Q en las placas, que compense la tendencia del material a disminuir el campo (esa diferencia de cargas fue suministrada por la fuente que mantiene el voltaje constante sobre el capacitor). Entonces de este modo también se ve que la capacitancia del capacitor es mayor cuando tiene dieléctrico (C0 < C).

Cuantitativamente, la relación más general del capacitor ideal con dieléctrico se obtiene usando el vector desplazamiento eléctrico D en el Teorema de Gauss generalizado, para un dieléctrico lineal e isótropo donde D = εE0. En este caso

Q = ε E0 A = ke ε0 E0 A = ke Q0

Por otro lado, como sigue siendo ΔV = V0 = constante, se tiene

ΔV = E0 d

Entonces, dividiendo estas últimas expresiones se tiene la capacidad eléctrica del capacitor ideal de placas planas paralelas con dieléctrico de constante dieléctrica keε/ε0 (ke > 1):

C = QV = ε A/d = ke C0


Fig. 11: Deducción de la capacidad de un capacitor ideal de placas planas paralelas, con dieléctrico.


Por lo tanto si se comparan 2 capacitores ideales de placas paralelas, idénticos, inicialmente ambos con aire ("sin dieléctrico") y posteriormente a uno de ellos se le coloca un dieléctrico, se tiene que:

a) La capacidad eléctrica aumenta en el que tiene dieléctrico exactamente en un factor dado por la constante dieléctrica:

C = C0 ke

donde C0 es la capacitancia en el capacitor ideal sin dieléctrico.


b) Si se cargan con el mismo voltaje V0, la intensidad E0 del campo eléctrico E0 en el interior del dieléctrico también resulta igual en ambos, pero la carga aumenta en el que tiene dieléctrico exactamente en un factor dado por la constante dieléctrica:

Q = Q0 ke

donde Q0 es la carga en el capacitor ideal sin dieléctrico.

c) Si se cargan con la misma carga electrostática Q0 y se mantienen aislados, al colocarle el diéctrico a uno de ellos, la intensidad E del campo eléctrico E en el interior del dieléctrico, decrece exactamente en un factor dado por la constante dieléctrica:

E = E0/ke

donde E0 es la intensidad del campo en el capacitor ideal sin dieléctrico. Por lo tanto, lo mismo sucede con el voltaje:

V = V0/ke

En general, para un capacitor que no sea ideal y/o que no sea de placas planas paralelas, el efecto del dieléctrico se puede resumir como sigue:

(1) El dieléctrico siempre aumenta la capacidad eléctrica en un factor relacionado con ke;
(2) Para un mismo voltaje, el dieléctrico aumenta la carga en el mismo factor; y
(3) Para una misma cantidad de carga acumulada, el dieléctrico disminuye la intensidad de campo eléctrico en el interior del dieléctrico (y disminuye el voltaje sobre el capacitor) en un factor relacionado con 1/ke.

Nota: cuando el dieléctrico es aire seco a presión y temperatura normales, prácticamente es εε0, es decir, ke ≈ 1, pero con una ruptura dieléctrica EBR ≈3 kV/mm.

Finalmente, en cuanto al efecto del dieléctrico se puede agregar que éste determina la energía máxima que puede acumular un capacitor. Por ejemplo, para un condensador ideal de placas planas paralelas en el cual C = εA/d y ΔV = Ed, la máxima energía potencial U = (1/2)CV 2 que puede acumular está determinada por la constante dieléctrica ke, por la ruptura o rigidez dieléctrica EBR y por el volumen Ad de este dieléctrico:

Umax = (1/2) C Vmax2 = (1/2) (εA/d) (EBRd)2 = (ε0/2) ke Ad EBR2


4.5 Capacitores conectados en paralelo entre sí:
La capacidad de acumular carga se debe al fenómeno de inducción electrostática entre conductores. Por lo tanto, aumentar el área de proximidad entre conductores, aumenta la capacidad de inducción, y consecuentemene aumenta la capacidad eléctrica. Esto se vio explícitamente en la expresión C = ε A/d de la capacitancia de un capacitor ideal de placas paralelas.

Esta expresión también permite entender lo que sucede si se colocan capacitores de capacidades C1, C2, C3, ... conectados en paralelo, es decir, donde el voltaje sobre cada capacitor es igual al voltaje del conjunto, en todo instante de tiempo:

Vparalelo = V1 = V2 = V3 = ...

Es como aumentar la superficie, y por lo tanto, la carga total acumulada es la suma de las cargas individuales:

CparaleloVparaleloQparalelo = Q1 + Q2 + Q3 + ...

Entonces, la capacitancia equivalente del conjunto en paralelo resulta:

Cparalelo = C1 + C2 + C3 + ...



Fig. 12: capacitancia equivalente de capacitores en paralelo y de capacitores en serie.


4.6 Capacitores conectados en serie entre sí:
Debido a que la capacidad de acumular carga se debe al fenómeno de inducción electrostática entre conductores, al aumentar la distancia d de separación de las placas entre conductores, disminuye la capacidad de inducción, y entonces tiene que disminuir la capacidad eléctrica. En particular, la misma expresión C = ε A/d también muestra lo que sucede si se colocan capacitores de capacidades C1, C2, C3, ... conectados en serie, es decir, donde los voltajes se suman:

Qserie/CserieVserie = V1 + V2 + V3 + ...

Hay que observar que al estar conectados en serie, la corriente es igual en cada capacitor, y entonces, la variación de carga también debe ser la misma. Por lo tanto, todos los capacitores en serie se cargan (o descargan) en la misma cantidad en todo instante de tiempo. Por lo tanto, la carga final también será igual en cada capacitor:

Qserie = Q1 = Q2 = Q3 = ...

Entonces, reemplazando se obtiene la expresión de la capacitancia equivalente en serie:

1/Cserie = 1/C1 + 1/C2 + 1/C3 + ...

o bien:

Cserie = [C1-1 + C2-1 + C3-1 + ...]-1


4.7 Cómo se carga un capacitor (Circuito RC-serie en régimen transiente):
Al colocar una fuente de corriente continua (DC) de voltaje VDC a través de una resistancia R, para cargar un capacitor en el instante t0 = 0 s, semicualitativamente se puede ver lo siguiente:

Desde t0, en todo instante t el voltaje de la fuente se repartirá entre la resistencia y el capacitor (Ley de voltajes de Kirchhoff):

VDC = VR(t) + VC(t) = Ri(t) + Q(t)/C

siendo la corriente i(t) igual a la variación de carga en el capacitor, que matemáticamente se puede expresar:

i(t) ≡ ΔQ(t)/Δtt → 0s)

Por lo tanto la ecuación del lazo de circuito RC-serie durante la carga del capacitor se puede escribir:

VDCC = RC ΔQ(t)/Δt + Q(t)

y durante la descarga:

0 = RC ΔQ(t)/Δt + Q(t)

Es importante enfatizar que la forma de estas últimas dos expresiones predice (antes de resolverlas) que en la carga y también en la descarga del capacitor, el tiempo está "escalado" por la constante de tiempo τRC. Esto significa que un dado lapso t se podrá decir si es un tiempo largo o corto para estos procesos, solo en relación al valor del tiempo característico τ.

Inicialmente, en el primer instante (t0 = 0 s), el voltaje inicial en el capacitor es VC(0s) = 0 V, correspondiendo al capacitor inicialmente descargado, es decir con carga inicial Q(0s) = 0 C. Por lo tanto, la corriente inicial está determinada por el voltaje de la fuente y por la resistencia:

i(0s) = VDC/RImax

Posteriormente (t > 0 s), el capacitor comienza a cargarse. Durante esta carga el voltaje sobre R disminuye, y por lo tanto disminuye del mismo modo la corriente. Esto finaliza cuando se alcanza el estado estacionario (t → ∞), con el capacitor cargado al voltaje de la fuente:

i(∞) = 0 A

VC(∞) = VDC

Q(∞) = C VC(∞) = C VDC

y análogamente en la descarga, donde se anulan todas las magnitudes. En cursos de Electromagnetismo se muestra resolviendo la ecuación que en la carga del capacitor el tiempo está escalado por la constante de tiempo τRC (como se anticipó), que el decrecimiento de esta corriente es exponencial, y que el estado estacionario en la práctica se puede considerar alcanzado con tiempos superiores a unas 5 constantes de tiempo, cuando queda menos del 1% de la corriente inicial (y cuando falta menos del 1% para alcanzar el voltaje de la fuente). La misma variación exponencial se obtiene al estudiar la descarga del capacitor.


Fig. 13: Carga de un capacitor en un circuito RC-serie. Representación gráfica del voltaje del capacitor y de la corriente de carga en función del tiempo.


4.8 Conservación de la energía en la carga y en la descarga de un capacitor:
Es importante enfatizar que en la práctica, cuando comienza a cargarse un capacitor, la corriente sufre un cambio extremadamente abrupto, pasando de 0 A al valor máximo i(0s) = VDC/R. Del mismo modo, cuando se inicia la descarga, la corriente también sufre un cambio instantáneo desde 0 A al valor máximo i(0s) = VC(0s)/R.

Este cambio abrupto en la corriente genera armónicos de muy alta frecuencia para los cuales, las dimensiones típicas del circuito hacen que éste se comporte como una antena, irradiando parte de la energía en ondas electromagnéticas.

Se podría pensar que esta fracción de energía irradiada es mínima, despreciable, y que no hace falta tenerla en cuenta. Sin embargo, cuando se hace un análisis detallado, se ve claramente que esta pérdida no se puede despreciar. No considerarla conduce a resultados incorrectos.

Existe un famoso problema de carga y descarga de capacitores, que parece violar la Conservación de la Energía, justamente por no tomar en cuenta la radiación. El problema es hermoso por la riqueza de conceptos y la sencillez con la que muestra la falta de algo importante.

Supongamos que tenemos 2 capacitores, que para simplificar suponemos idénticos, de capacidad C, tales que inicialmente solo uno tiene carga eléctrica Q0 mientras que el otro se encuentra totalmente descargado (también para simplificar la exposición del problema, sin alterar los resultados ni las conclusiones). Por lo tanto, la energía potencial eléctrica acumulada en todo el sistema (formado por los 2 capacitores) es la energía que posee el único que está cargado:

U0 = (1/2) Q02/C

¿Qué sucede con la energía después que ambos capacitores se conectan en paralelo?

Para responder esto, se podría preguntar primero si los conductores tienen alguna resistencia eléctrica R o bien, si son conductores "perfectos".

Supongamos primeramente que no hay resistencia (R = 0 Ω), es decir, la conexión es ideal, con conductores perfectos. El exceso de cargas fluye de un capacitor al otro hasta que ambos quedan en equilibrio al mismo voltaje, y cargados cada uno con Q0/2 (ya que el sistema está "aislado", y por lo tanto, la carga en los capacitores se conserva). Entonces, sumando la energía acumulada en cada uno, se observa que ahora la energía total del sistema es:

U = U0/2


Fig. 14: Problema de la energía perdida en los dos capacitores. Se muestra que la energía final es la mitad de la incial, y que esa diferencia sería la disipada por la resistencia R de los cables, en caso de ser resistivos.


Pero ... ¿dónde fue a parar la otra mitad de la energía inicial? !!!

Hay que enfatizar que para obtener este resultado solo se ha utilizado la conservación de la carga eléctrica (haya o no resistencia en los conductores).

La energía U0/2 perdida sugiere que a nuestras ecuaciones las falta algo (y tal vez ese algo también les falte cuando consideramos resistencia en las conexiones).

La pista que doy en el Curso de Electromagnetismo es: "¡ Haga el experimento al lado de una radio encendida !". De ese modo uno observa experimentalmente que haya o no resistencia, siempre hay pérdida de energía por radiación.

Es sorprendente que muchos libros de Electromagnetismo que tratan con corriente alterna, no aclaren muy bien que se trata de una teoría desarrollada para circuitos donde las corrientes varían lentamente. En efecto, la expresión de la Ley de voltajes de Kirchhoff:

VDC = VR(t) + VC(t) = Ri(t) + Q(t)/C

describe correctamente la evolución del sistema para cualquier instante t, excepto para el inicial, donde la energía en el circuito no se conserva.

Considerando un resistor R entre ambos capacitores, las ecuaciones muestran que exactamente la mitad de la energía inicial se disipa en forma de calor en la resistencia. Sin embargo, en la radio seguimos escuchando el típico "chick" cuando accionamos el interruptor iniciando la carga o iniciando la descarga. Esto nos indica que no toda la energía U0/2 perdida se disipó como calor.

Otra cosa importante para discutir es cómo se comporta el sistema cuando se van equilibrando las cargas: ¿como capacitores en serie o en paralelo? La respuesta parece obvia cuando R = 0 Ω, pues parecen estar conectados en paralelo. ¡Pero no! Piénsenlo cuidadosamente ... La forma de estar conectados no es lo único importante para decir si se comportan en serie o en paralelo ... (En el Curso de Electromagnetismo mostramos que la corriente que equilibra al sistema evoluciona con una constante de tiempo RC/2 que corresponde a una conexión en serie, y no con 2RC, que sería la constante de tiempo con 2 capacitancias C iguales en paralelo).



5-MISCELÁNEAS

La invención del capacitor en los comienzos de la Edad de la Electricidad

Tratando de aislar la electricidad, el jurista, sacerdote luterano y físico alemán Ewald Georg (o Jürgen) von Kleist (1700-1748) descubrió en 1745 que un recipiente con agua y un conductor central acumulaba carga eléctrica. von Kleist estudió leyes en la Universidad de Leipzig (Alemania) y en la más antigua universidad holandesa, la Universidad de Leiden ("Leyden", fundada en 1575). Es posible que von Kleist se haya interesado por estudiar la electricidad en Leiden bajo la influencia del filósofo y matemático holandés Willem Jacob's Gravesande.

¿Por qué el descubrimiento de von Kleist fue importante? Como en otros campos de investigación científica, para avanzar en el estudio de la Electricidad, a mediados del Siglo XVIII hacía falta poder realizar 3 cosas fundamentales con las cargas eléctricas:
1) generarlas de forma continua y controlada,
2) acumularlas en forma eficaz y segura, y
3) cuantificarlas (i.e., medir el tipo y la cantidad).
El primer electroscopio (para medir cantidad de carga electrostática) fue inventado cerca del año 1600 por el médico y científico inglés William Gilbert (1544-1603). El primer generador electrostático (con una esfera giratoria de azufre) fue inventado aproximadamente en 1663 por el político, inventor y científico alemán Otto von Guericke (1602-1686) (quien también realizó importantes estudios sobre la física del vacío y el famoso experimento de los Hemisferios de Magdeburg tirados por caballos). Faltaba el invento necesario para la segunda: almacenar carga eléctrica. Por eso fue tan importante el descubrimiento de von Kleist.

Nota: Los experimentos con corriente se harían mucho más tarde. Tendrían que esperar a que el físico italiano Alessandro Giuseppe Antonio Anastasio Volta (1745-1827) inventara la primera pila eléctrica en 1800.

Al año siguiente (1746), el científico holandés Pieter van Musschenbroek (1692-1761), quien había sido estudiante de Gravesande, reinventó el acumulador de von Kleist en Leiden. Este instrumento, denominado Leyden Jar ("botella de Leiden") desde entonces, fue el precursor del capacitor.

Entre 1747 y 1756 el magistrado y físico polaco Daniel Gralath (1708-1767) publicó en Alemania "Historia de la Electricidad" en 3 tomos. Gralath mejoró el diseño de la botella de Leiden y demostró sus efectos en cadenas de personas. Inventó el concepto de "acumuladores en serie", usando varias botellas de Leiden.

Entonces en Europa, donde se estaban desarrollando la Electricidad y el Magnetismo, ya se habían inventado los primeros elementos necesarios para el estudio de la Electrostática: El generador electrostático, la botella de Leiden y el electroscopio. Pero curiosamente, el pararayos (primera invención y aplicación práctica de la Electricidad y el Magnetismo, después de la brújula), y las siguientes 3 importantes observaciones para la comprensión del funcionamiento del capacitor y de la Electrostática en general:
1) que la carga eléctrica no se acumula en el agua de la botella de Leiden,
2) que las descargas se producen más violentamente en las puntas agudas, y
3) que en cada proceso la carga eléctrica se conserva,
no fueron realizadas en Europa sino en Philadelphia (U.S.A.).

El estadounidense Benjamin Franklin (1706-1790), además de ser un gran estadista, fue un inventor y científico notable. Entre otras cosas, trabajó en el enfriamiento por evaporación y en la conducción del calor. Franklin observó que las tormentas no siempre siguen la dirección del viento que se mide en tierra (algo nuevo para la Meteorología de la época). Junto con el matemático y físico suizo Leonhard Euler (1707-1783), Franklin fue uno de los pocos científicos importantes que defendió desde el principio la Teoría Ondulatoria de la Luz, que el científico holandés Christiaan Huygens (1629-1695) postuló en 1678 en "Treatise on light", y que en general, la comunidad científica no tomó en cuenta hasta que el científico y egiptólogo británico Thomas Young (1773-1829) publicó sus experimentos ("Experiments and Calculations Relative to Physical Optics") en 1803.

Franklin se hizo traer desde Europa todo lo inventado hasta entonces para realizar experiencias con la Electricidad. Aunque estuvo equivocado acerca de su naturaleza cuando postuló que eran el mismo fluído pero con diferente presión, observó correctamente que las cargas no estaban en el dieléctrico de la botella, sino en las paredes del recipiente mismo. A él se debe la denominación de "batería" para las botellas de Leiden en serie, y de "positivas" y "negativas" para las cargas de cada tipo, hasta entonces solo llamadas "vítreas" y "resinosas". También descubrió el "efecto punta" (inventando el pararayos), postuló la conservación de la carga (una de las grandes leyes de conservación de la Naturaleza), y que los rayos entre nubes y tierra son eléctricos, es decir, están compuestos por cargas eléctricas.

En 1750 Franklin publicó cómo se podía demostrar experimentalmente la "electricidad atmosférica", recogiendo cargas de las nubes durante alguna tormenta (a través de un "volantín", "barrilete" o "cometa"). Franklin sabía del peligro por la descarga de un rayo y también propuso una verificación alternativa donde usaba el concepto de descarga a tierra.

El francés Thomas-François Dalibard tradujo y publicó la propuesta, y él mismo realizó el experimento el 10 de Mayo de 1752 en Francia. Obtuvo chispas con varias botellas cargadas con una nube, usando una barra de 12 m de hierro conectada a tierra, demostrando que su amigo estadounidense tenía razón.

Quince años más tarde, el teólogo, político, educador y científico inglés Joseph Priestley (1733-1804) describió el experimento de Franklin, cuando publicó en 1767 "History and Present Status of Electricity". Sin embargo hay desacuerdos sobre si Franklin realmente realizó el famoso experimento. Si lo hizo, tal vez fue el 15 de Junio de 1752 en Philadelphia, pero no haciendo pasar la descarga a través suyo, sino estando aislado (En el actualmente popular programa de la televisión llamado Mythbusters -"Cazadores de Mitos"- se concluyó que seguramente Franklin se habría electrocutado de haber realizado el experimento en la forma originalmente propuesta).



EQUIVALENCIAS

0 K ≡ -273.15 °C ( "Cero absoluto", 0 kelvin y su equivalencia en grados celsius )

e = 1.602 176 487(40) x 10-19 C ( "Carga elemental" )

ε0 ≡ 8.854 187 817... x 10-12 F/m ( Valor exacto de la "Constante eléctrica universal" )

1 F/m ≡ 1 C2 m-2 N-1

1 F ≡ 1 C / 1 V ( farad ≡ coulomb / volt)

1 N ≡ 1 kg x 1 m / s2 ( newton ≡ kilogramo metro / segundo2 )

1 J ≡ 1 Nm ≡ 1 C x 1 V ( joule ≡ newton metro ≡ coulomb volt)

1 eV ≡ e x 1 V = 1.602 176 487(40) x 10-19 J ( 1 electronvolt es equivalente a la energía potencial eléctrica que adquiere una carga elemental e en una diferencia de potencial de 1 volt)

1 W ≡ 1 J / 1 s ( watt ≡ joule / segundo )

1 Hz ≡ 1 s-1 ( hertz ≡ ciclo / segundo )


REFERENCIAS

(1) National Institute of Standards and Technology (NIST) 2008 CODATA Internationally recommended values of the Fundamental Physical Constants; Latest (2006) values of the constants (U.S.A.)
http://physics.nist.gov/cuu/Constants/index.html

(2) Halliday D, Resnick R and Krane K S 1992 Physics, Extended Version, 4th Edition (New York: John Wiley & Sons)

(3) Horowitz P and Hill W 1990 The Art of Electronics, 2nd Edition (Cambridge: Cambridge)

(4) Schade O H 1943 "Analysis of Rectifier Operation" Proc. IRE, 31(7) 341-361
Schade Curves - Radiotron Designers Handbook, Fourth Edition 1952 pp1171-1182



CÓMO HACER REFERENCIA A ESTE ARTÍCULO

Giordano J L 2010 Cómo funcionan las cosas: El condensador eléctrico (Santiago: http://www.profísica.cl) http://www.profisica.cl/comofuncionan/como.php?id=36 (Consulta: Abril 23, 2010)

("2010" es el año de la última revisión en la fecha de consulta)



OTROS ARTÍCULOS DE J. L. GIORDANO


FINE capacitor condensador José Luis Giordano
Septiembre 2, 2010 (Última revisión: Septiembre 2, 2010)



LA RADIO, Parte IV: "RADIO GALENA" (Circuito Resonante; Detector de AM)


1-QUÉ ES

La "Radio Galena" es un receptor de ondas de radio construido con el mínimo número posible de componentes. No tiene ni amplificadores, ni fuente alguna de alimentación. Pero lo que ningún sistema receptor de ondas de radio puede dejar de tener, además de la antena, es el sintonizador y el demodulador o detector. La Radio Galena tiene la forma más básica de ambos.

Por lo tanto, antes de dar más detalles, conviene aclarar algo sobre los filtros sintonizados y el detector en una radio amplitud modulada (AM).

(a) En primer lugar, para mejorar la recepción de las ondas de radio, se utilizan diferentes tipos de filtros, "pagando el precio" de perder parte de la señal (atenuación). Por lo tanto, los filtros suelen estar acompañados de amplificadores, que permiten recuperar (e incluso aumentar) la magnitud de la señal atenuada en el filtrado. Los filtros "activos" se denominan así porque para amplificar tienen componentes activos, como las "válvulas" termoiónicas que tenían los aparatos en los años 1960s, o como los componentes de estado sólido denominados transistores.

En los aparatos modernos, las señales se amplifican y filtran en todas las etapas: en la entrada de antena y etapas posteriores de radiofrecuencia (RF), y también en las etapas de audiofrecuencia (AF). En RF se utilizan filtros "sintonizados" (pasivos y activos) que "dejan pasar" la señal de una emisora, filtrando las demás. Esto se realiza mediante la implementación de circuitos resonantes. Pero la Radio Galena se desarrolló cuando no existía aún la Electrónica, y su único filtro fue el mismo circuito resonante pasivo que utiliza para sintonizar la emisora. Las primeras radios no tuvieron ni filtros activos ni amplificadores. Tampoco podían tener varios filtros pasivos, debido a la atenuación de la señal. Consecuentemente la señal de los receptores de las primeras décadas de La Radio, tenían una componente de ruido importante.

Esto fue cambiando a medida que se desarrollaba la Electrónica. Aparecieron en el mercado nuevas radios con amplificadores, haciendo que los aparatos anteriores quedaran obsoletos inmediatamente. Sin embargo, la magia y el misterio de La Radio fue tan cautivante, que algunos románticos encontraron atractivo y desafiante seguir desarrollando circuitos básicos para lograr escuchar mensajes usando casi únicamente alambres !! Así fue que la Radio Galena sobrevivió ! (pero no como un receptor de uso masivo, sino como curiosidad o hobby).

(b) En segundo lugar, el detector de una radio AM es el elemento demodulador, es decir, el dispositivo que permite obtener la señal AF "escondida" en la modulación de las ondas de radio (El proceso se llama demodulación). El detector toma la señal de voltaje RF modulada, y la convierte en la parte positiva de su envolvente, es decir, en una señal de voltaje de AF, correspondiente a la modulación de la onda de radio AM. La demodulación de la onda de radio AM se lleva a cabo con un "rectificador", que es un componente que permite la circulación de la corriente eléctrica en un solo sentido.

Una Radio Galena es un tipo particular de radio cuyo nombre se debe a que originalmente el demodulador fue un rectificador construido usando un mineral conocido como piedra galena (que es sulfuro de plomo, PbS, principal mineral del plomo). Con el tiempo (en la segunda mitad del Siglo XX), esta piedra se reemplazó por un componente electrónico comercial, fabricado en serie, confiable y prácticamente sin desgaste, pequeño, económico y fácil de adquirir: un diodo semiconductor, componente de estado sólido hecho con materiales semiconductores cristalinos. Por lo tanto, a la Radio Galena también se la denomina "Radio de Cristal". En la actualidad, cuando alguien habla de armar una Radio Galena, probablemente se refiere a una Radio de Cristal.

La Radio Galena puede diseñarse para captar ondas de radio AM en cualquiera de las bandas de Radiodifusión: Onda Larga (LW, 30-300 kHz), Onda media (MW, 0.3-3 MHz) y Onda Corta (SW, 3-30 MHz). Incluso puede desarrollarse para trabajar con frecuencia modulada (FM). La versión original utilizaba una piedra galena y funcionaba solo con SW, o con LW y SW. Pero como ha disminuído la utilización de SW, como también prácticamente ha desaparecido la radiodifusión en LW, y como es más fácil demodular AM que FM, en la actualidad se usa con MW.

La Radio Galena es la radio más cruda que uno pueda imaginar. Tan básica es, que no solo no tiene amplificadores, sino que ni siquiera posee fuente de alimentación: ni celdas solares, ni pilas, ni enchufe !! Toda la energía del sonido que se escucha es provista por la misma onda electromagnética que llega a la antena. Concluyendo, se puede decir que:

la "Radio Galena" o "Radio de Cristal" es un ingenioso sistema receptor de radio AM, anacrónico, sin alimentación eléctrica y con el mínimo número de componentes: antena, filtro resonante pasivo, diodo detector y auriculares.



2-PARA QUÉ SIRVE

En las primeras décadas del Siglo XX, la Radio Galena y la Radio de Cristal sirvieron para escuchar transmisiones de radio AM de emisoras locales (en LW) y distantes (en SW). La Figura siguiente muestra el equipo Cosmos Crystal Set, fabricado por la Metropolitan Vickers Electrical Co. Ltd. en Londres, de relativas alta calidad y versatilidad, que permitía el cambio de antenas y de cristales.


Fig. 1: Foto de un equipo comercial de Radio de Cristal (London Science Museum; Marzo 2010).



Fig. 2: Foto de la hoja de características del equipo de la Figura anterior.


Al no tener amplificadores de RF, la Radio de Cristal tiene bajísima sensibilidad. Como tampoco posee filtros activos de RF, tiene muy baja selectividad, lo cual ahora es un problema mayor, debido a la cantidad de emisoras con frecuencias cercanas que existen en la actualidad. Tampoco tiene amplificadores de AF, por lo que tiene baja intensidad de salida de audio (y entonces es necesario escucharla usando auriculares). Es decir, en la Radio Galena (o de Cristal) todo es mejorable !! Sin embargo, precisamente por ser tan elemental, es enormemente atractiva, ya que sirve para mostrar la esencia misma de La Radio, descubriendo con poquísimos componentes, los mensajes "mágicamente escondidos" en ondas electromagnéticas.

Por lo tanto, en la actualidad, la Radio Galena tiene valor histórico, conceptual y didáctico. Aunque fue superada por la tecnología hace casi un siglo, sin duda es uno de los sorprendentes inventos de nuestra Civilización (de principios del Siglo XX), que causó gran curiosidad en muchas generaciones de niños inquietos, encantados por la magia de La Radio, aún varias décadas después, cuando ya existían las radios con bastante tecnología electrónica.



3-DE QUÉ ESTÁ HECHO

Uno de los diseños posibles tiene los siguientes seis elementos (ver Figura):

(a) Antena: compuesta por un alambre largo vertical, y otro conectado "a tierra" (ground).

(b) Transformador de RF: formado por 2 bobinas, una "primaria" y otra "secundaria", conectadas en serie y enrolladas sobre una barra de ferrita (núcleo ferrimagnético), que las mantiene acopladas magnéticamente. Los terminales de la bobina primaria se conectan uno a la antena y el otro a tierra.


Fig. 3: Diagrama esquemático de una Radio AM de Cristal.


(c) Condensador de sintonía: preferiblemente variable. Se pueden utilizar condensadores fijos, variables (trimmers, padders, un doble condensador variable de sintonía), o una combinación de ellos. Este condensador, junto con la bobina secundaria, forma un circuito resonante LC, sintonizado en la frecuencia que se desea escuchar (cuyo funcionamiento se explica más abajo).

En lugar del transformador de RF, en algunos diseños se utiliza una sola bobina, entre la antena y tierra, directamente conectada en paralelo al condensador de sintonía.
Pero es conveniente usar dos bobinas (en vez de una sola) por dos razones: (i) para multiplicar la señal de entrada (usando un número mayor de espiras en la bobina secundaria), y (ii) para adaptar más fácil y eficientemente la impedancia, entre el circuito de antena y el sintonizador (maximizando la transferencia de energía de la antena al sintonizador).

(d) Como elemento "detector" o demodulador, la Radio de Cristal (o Radio Galena "moderna") usa un rectificador eléctrico semiconductor (de estado sólido) denominado o "diodo de señal" o "diodo Schottky" (cuyo símbolo se muestra en la Figura), que deja circular la corriente eléctrica en un solo sentido (indicado por la "flechita" del símbolo).

Inicialmente, la Radio Galena utilizó como rectificador el contacto puntual "metal-semiconductor", mediante un metal (como el oro) o grafito, en contacto con una galena, mineral natural con estructura cristalina cúbica y con características de semiconductor. Fue la primera forma del diodo semiconductor, llamado entonces "rectificador de contacto", y que además de galena, también se fabricó con un óxido de cobre o con selenio.

Aproximadamente entre 1906 y los años 1940s, se utilizó el "diodo bigote de gato" (cat's whisker), con un alambrecito (el "bigote") de 0.255 mm de diámetro (AWG 30), de bronce fosforado (cobre con 3.5-10% de estaño y 1% de fósforo), en contacto con algún mineral cristalino semiconductor. La Radio Galena pasó a llamarse Radio de Cristal. En la actualidad se sigue utilizando como rectificador un diodo Schottky hecho generalmente con germanio cristalino (como por ejemplo el diodo 1N60).

(e) El circuito tiene (o puede tener) otro condensador. En este caso es para la salida de audio, y se carga con el voltaje del rectificador.

(f) Finalmente la Radio Galena tiene un par de auriculares de bobina móvil, con "impedancia media" (50-500 Ω), y conectado en paralelo al condensador anterior.

Algunos diseños no poseen el segundo condensador en forma visible, ya que puede estar dentro de los auriculares o bien, no ser necesario (dependiendo de la capacidad intrínseca del diodo, del auricular y de las conexiones).

Como en muchos montajes experimentales, hacer funcionar una Radio de Cristal es un pequeño desafío. El circuito es tan básico que el funcionamiento de cada parte resulta fuertemente relacionado con los parámetros de las demás.
Por ejemplo, dentro de los parámetros de funcionamiento del detector, no solo están los del diodo y del condensador, sino también la impedancia de los auriculares. Uno de los problemas de diseño es que los auriculares adecuados no son fáciles de conseguir, porque deben mayor impedancia que los típicos.
Por eso, a pesar de ser un circuito simple, para diseñarlo y hacerlo funcionar se requiere algo de experiencia y de conocimientos.



4-CÓMO FUNCIONA

La Radio Galena tiene las 4 etapas de funciones básicas que todos los receptores de AM deben realizar: (A) Captación, (B) Sintonización, (C) Demodulación y (D) Conversión de la AF para su audición. Veamos una por una.

(A) Captación o recepción de las ondas de radio de las radioemisoras en la antena.

Las ondas electromagnéticas de radio AM que llegan a la antena, producen ondas eléctricas (de voltaje) AM en la bobina primaria. En ésta se genera una corriente que, a su vez genera un campo magnético (por la Ley de Ampère) en el interior, donde está el núcleo. El material magnético en el interior "guía" al campo magnético (por su permeabilidad al camp) hacia la bobina secundaria, y en ella se inducen (por la Ley de Faraday-Lenz) ondas AM de voltaje en la bobina secundaria.

Como se explica en la "Parte III de La Radio: Antenas", en esta etapa inicial es muy importante la conexión a tierra. Este detalle permitió al inventor italiano Marchese Guglielmo Marconi (1874-1937) lograr alcances que otros no habían conseguido, a pesar de usar casi los mismos elementos.

(B) Sintonización o selección de la emisora que se desea escuchar.

En esta segunda etapa, la superposición de todos los voltajes de las radioemisoras es filtrada, quedando el voltaje correspondiente a una sola emisora (i.e., las demás emisoras fueron eliminadas o filtradas). Esto se explica en detalle más abajo (en 4.a).

(C) Demodulación o detección de la señal de voltaje RF modulada mediante un elemento rectificador, que permite convertir la señal de voltaje de RF modulada, en la parte positiva de su envolvente. Esto también se explica más abajo (en 4.b).

(D) Finalmente, para convertir la señal de AF de una señal eléctrica a otra acústica (audible), se utiliza un par de auriculares, es decir un transductor de salida de AF. La conversión se realiza en la forma explicada en (Cómo funciona) "El Parlante de Bobina Móvil".



4.a - El Circuito Resonante LC como Sintonizador y Filtro Pasabanda

Uno de los conjuntos de componentes pasivos más simple pero esencial (sin el cual no sería posible la existencia ni de transmisores ni de receptores tal como los conocemos), es el circuito "tanque" resonante LC (ver Figura siguiente). Se trata de un condensador de capacidad C conectado en paralelo con una bobina de autoinductancia L y resistencia RL (Esta bobina suele ser el primario o el secundario de un transformador de RF, donde cambiando la posición del núcleo de ferrita, cambia la L y el acoplamiento mutuo M entre bobinas primaria y secundaria).

Supongamos que se busca sintonizar una emisora cuya onda portadora de RF tiene una frecuencia f (o frecuencia angular ω ≡ 2πf). En los cursos de Electromagnetismo se muestra muy fácilmente (utilizando fasores) que existe una frecuencia angular particular ωR denominada "de resonancia", la cual depende de los valores de esos 3 parámetros: L, C y RL (y no solo de L y C, como dice en muchos libros).

Para ver esto, primero se considera que el conjunto es una impedancia en paralelo Zp(ω) que forma parte de un filtro pasivo, y que está conectada en paralelo con la salida del mismo. Luego se analiza para qué valor de ω el módulo Zp(ω) es máximo.



Fig. 4: Esquemas del desarrollo de un filtro pasabanda LC.

En la práctica, el análisis cuantitativo es un poco más complicado que el mostrado en la Figura, ya que el modelo de la bobina en alta frecuencia debe considerar las capacidades distribuidas entre espiras (Cuando las frecuencias involucradas son superiores a unos ≈10kHz, empiezan a aparecer "componentes invisibles". Trabajar con RF también requiere conocimientos y algo de experiencia).
Pero cualitativamente, se puede ver que, de todas las señales con frecuencias angulares ω que son aplicadas a este conjunto, solo las que tienen esa frecuencia o son cercanas a esa frecuencia angular ωR (de "resonancia"), tienen mayor dificultad en pasar hacia "la tierra" a través del paralelo, pues

ωωRZp(ω) < Zp(ωR)

o sea, para cualquier otra ω diferente, la impedancia hacia tierra es menor. Las señales de frecuencias bajas (ω << ωR) "se cortocircuitan a tierra" a través de la bobina, mientras que las frecuencias altas (ωR << ω) se van a tierra a través del condensador.
Esto significa que el filtro LC en paralelo es casi un "cortocircuito" para todas las RF, excepto para las frecuencias en una banda alrededor de la frecuencia resonancia. Por lo tanto, como esta configuración "deja pasar" solo esa banda de frecuencias ω cercanas a ωR, y se le denomina "filtro pasabanda", o "filtro sintonizado" en la frecuencia fR. Si además tiene amplificador, se le denomina "filtro activo sintonizado".

Las radios tienen varios filtros activos sintonizados, pero en la Radio Galena hay solo un filtro pasivo LC.

Nota: La fórmula ωo = (LC)-1/2 de la frecuencia angular de resonancia del circuito resonante LC "ideal" (donde no se toma en cuenta la resistencia RL del alambre de la bobina), se denomina a veces "Fórmula de Thomson", ya que fue obtenida en 1853 por el físico-matemático e ingeniero inglés (de origen escocés) William Thomson (1824-1907) conocido como "Lord Kelvin".
En 1888 el concepto de "circuito resonante" sería fundamental para el emisor y el receptor en los primeros experimentos de radiofrecuencia realizados genialmente por Hertz. Luego lo usarían todos los pioneros de La Radio, y finalmente los actuales transmisores, radios, y una infinidad de "sistemas sintonizados", como por ejemplo los detectores de metales para buscar oro en las playas, los circuitos de alarmas "anti-robo" para ciertos productos en las tiendas y las tarjetas de identificación por RF ("RFID") usadas en algunos sitios para ingresar al Metro, piscinas, estacionamientos, etc.



4.b - El Rectificador como Demodulador de Radio AM

En muchos sitios y libros se explica que un rectificador deja pasar solamente la parte positiva de la envolvente (AF) de la onda RF de AM. Esto es cierto, pero hay que explicar mejor dos cosas en relación al rectificador: (i) porqué rectifica y (ii) cómo demodula.

(i) En el artículo (Cómo funciona) El Diodo Semiconductor (Diodo de unión n-p y diodo Schottky) se explica cómo un rectificador eléctrico deja circular corriente eléctrica en un solo sentido. El dispositivo está formado por dos electrodos: ánodo (A) y cátodo (K), y entre ellos hay una barrera de potencial que determina el sentido de circulación de corriente. En aplicaciones de RF debe usarse un diodo donde esta barrera sea muy pequeña, para que pueda conmutar rápidamente del estado conductor al estado de bloqueo. Por eso para demodular AM, el diodo semiconductor que se utiliza es un "diodo de señal" o diodo Schottky, que en el K tiene un metal (en vez de un semiconductor), y en el A el semiconductor tipo-p suele ser Ge dopado (en vez de Si). Inicialmente este semiconductor fue una piedra galena, un semiconductor natural con gap pequeño (0.4 eV).
El diodo con piedra galena fue importante como detector en los comienzos de la comunicación con RF. Fue un dispositivo completamente anacrónico, ya que se empezó a utilizar en los comienzos del Siglo XX, cuando aún no se desarrollaban siquiera las válvulas termoiónicas ni la Física de Estado Sólido.

(ii) Veamos ahora cómo la rectificación se puede usar para demodular una onda de AM, y a quién se le ocurrió.

Un rectificador "extrae la AF de la AM" simplemente porque el diodo trabaja como un "detector de máximos" (Peak Detector). Las frecuencias de las ondas de RF y también la frecuencia intermedia en los receptores superheterodinos, son frecuencias muy altas (superiores a 400 kHz) en relación a las envolventes de AF (que son inferiores a 25 kHz), o sea que al rectificador llega una señal de RF muy rápida en relación a la variación (AF) de su amplitud, y entonces los valores máximos Vpeak de la onda AM de voltaje están muy próximos en el tiempo.

El condensador de capacidad fija C ubicado después del rectificador, se carga al voltaje máximo Vpeak y se descarga hacia tierra lentamente a través de la resistencia R del alambre del bobinado del auricular.
Pero la variación de RF que tiene la onda AM es mucho más rápida que la descarga. Por lo tanto, el voltaje en la salida del detector, está formado prácticamente solo por los máximos positivos (la mitad positiva de la envolvente de la AM). Esta descarga tiene una constante de tiempo τ = RC lo suficientemente grande como para que la señal que sigue al diodo sea la envolvente de los máximos de la onda AM.
Un diodo con barrera de potencial muy baja (Schottky) es muy rápido, pero el circuito que se coloca para "leer" su señal, no lo es (y justamente no debe serlo, si se desea demodular). La corriente i que "mueve" los auriculares (cuya impedancia tiene una magnitud ∼R) es prácticamente Vpeak/R, cuyas variaciones son las variaciones de Vpeak, es decir, iguales a la señal AF. Por lo tanto, en los auriculares se escucha la señal de AF que modula la onda de radio sintonizada.

En cuanto a esta idea de demodular con un rectificador, podemos decir que el efecto "rectificador de puntas de contacto" (conducción eléctrica unilateral) en cristales fue descubierto en 1874 por el físico e inventor alemán Karl Ferdinand Braun (1850- 1918). Braun compartió con Marconi el Premio Nobel de Física 1909, pero el que tuvo la idea de detectar ondas de radio con un cristal semiconductor fue el físico, biólogo, botánico, arqueólogo, inventor y escritor de ciencia ficción bengalí Jagadish Chandra Bose (1858-1937), durante el estudio y realización de sus experimentos con microondas en 1894. La patente de un detector de radio con piedra galena fue presentada por Bose en 1901.



5-MISCELÁNEAS

Las Comunicaciones Inalámbricas: De las señales de humo hasta la Electrónica

El desarrollo del Electromagnetismo puede clasificarse (aproximadamente) en los siguientes períodos:

(1) Del -2500 al 1600 (4100 años): Etapa Preliminar de la Electricidad y el Magnetismo

(2) Del 1600 al 1730 (130 años): Primeros Ensayos en Electricidad y Magnetismo

(3) Del 1730 al 1820 (90 años): Desarrollo de la Electrostática

(4) Del 1820 al 1905 (85 años): Desarrollo teórico y práctico del Electromagnetismo

(5) Del 1900 al 1930 (30 años): Desarrollo de La Física, La Superconductividad, La Electrónica y Las Comunicaciones Inalámbricas

En 30 años unas 10 personas desarrollan las mayores teorías científicas, comienzan las comunicaciones inalámbricas y nace la Electrónica y la Superconductividad

(6) Del 1930 al 1965 (35 años): Desarrollo de La Física de Estado Sólido, Energía Nuclear, Superconductores, Medicina Nuclear y Comunicaciones Espaciales

Bomba atómica, Energía Nuclear
Comunicaciones Satelitales
Radiodifusión
Viajes Espaciales
Electrónica de estado Sólido y Superconductores tecnológicos
Superconductividad y Medicina Nuclear

En unos 35 años la Humanidad se convierte en una Civilización tecnológicamente avanzada, con la capacidad de autodestruirse.

(7) Del 1965 al 2000 (35 años): Desarrollo de La Física de Estado Sólido, Energía Nuclear, Superconductores, Medicina Nuclear y Comunicaciones Espaciales



En este Apéndice se relata cronológicamente cómo fueron apareciendo algunos inventos y conocimientos fundamentales para el desarrollo de La Radio (según las fuentes consultadas por el autor, sin pretender defender los derechos que reclamaron uno u otro inventor). El objetivo es enfatizar que el comienzo de las Comunicaciones con ondas de radio en La Tierra y en el Espacio, no ha sido "un invento más", sino uno de los más grandes avances científico y tecnológico de nuestra breve Civilización.

Esta parte de la historia puede separarse en 4 períodos hasta llegar al presente Siglo XXI:
(a) Los últimos 100 años del desarrollo del Electromagnetismo Clásico, desde el Galvanismo en 1800 a la postulación de la Ionosfera en 1902, con más avances relevantes en descubrimientos y conocimiento que con invenciones y aparatos.
(b) En los siguientes 30 años (1900-1930) comenzaron a verse los productos del desarrollo teórico de los 100 años anteriores, se desarrolló la Electrónica, la Radiodifusión, el Receptor Superheterodino, la Superconductividad y la Física Cuántica-Relativista, una revolución intelectual que cambiaría nuestra concepción del Universo.
(c) Desarrollo de La Radio a válvulas (1930-1948) Por lo tanto, después hubo una tercera etapa donde como antes, los conocimientos nuevos condujeron al desarrollo posterior de nuevas aplicaciones, llegando a la invención del transistor en 1948.
(d) A partir de ese momento, comienza un vertiginoso desarrollo de Electrónica y de la Física del Estado Sólido, paralelamente con inventos vez más complejos, basados en conocimientos científicos cada vez más profundos. En la actualidad por ejemplo, es relativamente fácil explicar a un niño cómo funciona el teléfono inventado en 1854, pero es extremadamente difícil explicar a un adulto cómo funcionan los teléfonos que casi todos llevamos en nuestros bolsillos.

Este artículo está centrado en la segunda y la tercera etapa, pero comienza resumiendo la primera.


(1) Dos continentes son unidos con cables eléctricos submarinos cuando nace una nueva teoría

Prácticamente la Humanidad pasó de las señales de humo al telégrafo eléctrico con alambres, a mediados del siglo IXX, en la "Era de la Electricidad". No existía la Electrónica. Se estaban inventando los primeros dispositivos eléctricos, conociendo los fenómenos electromagnéticos, y desarrollando la matemática necesaria para describirlos.

No se pudieron hacer experimentos con corrientes eléctricas continuas hasta el invento de la pila. El físico italiano Alessandro Giuseppe Antonio Anastasio Volta (1745-1827) comenzó a estudiar en 1791 el "galvanismo", observado por su amigo médico Luigi Galvani, y finalmente inventó la celda voltaica en el año 1800.
Los primeros telégrafos fueron telégrafos electroquímicos, desarrollados en 1804 y 1809, con un cable para cada letra, y donde había que observar las burbujas que emanaban para interpretar la letra enviada.
En 1827 el físico alemán Georg Simon Ohm (1789-1854) publica un tratado donde describe la "Ley de Ohm" de los conductores.
El físico-químico danés Hans Christian ÿrsted (1777-1851) inicia la "Revolución del Electromagnetismo" cuando da a conocer en 1820 que una corriente eléctrica ejerce una acción a distancia sobre una brújula.
El autodidacta y genial físico-químico inglés Michael Faraday (1791-1867) descubría uno de los fenómenos más bello, extraño e importante que existe en la Naturaleza: la Ley de Inducción Electromagnética (1831). Más tarde descubre las dos Leyes de la Electrólisis (en 1834, cuando no se sabía siquiera de la existencia de iones), y la Rotación del ángulo de polarización de la Luz mediante un campo magnético (en 1845).

At that time, the only available means of communications were the Wired Telegraph invented by Samuel Morse (1837), the Wired Telephone by Graham Bell (1876) and radiotelegraphy by Marconi (1895). Schilling desarrolló un telégrafo electromagnético en 1832 (construído por Gauss y Weber en 1833). El telégrafo eléctrico fue inventado en 1837 por el estadounidense Samuel Finley Breese Morse (1791-1872) en USA (Dos años después se inventó en Europa). En 1838 un asistente de Morse inventa el "Código Morse", para transmitir mensajes con puntos y rayas mediante el telégrafo eléctrico.

En los años 1840s, el físico inglés James Prescott Joule descubre que el calor disipado por un conductor es proporcional al cuadrado de la corriente que lo atraviesa.

En esos años nació la idea de unir Inglaterra y Estados Unidos con un cable bajo el Océano. Los primeros cables submarinos se usaron en UK en 1851, con Irlanda en 1852 y con Holanda en 1853. Después de intentos fallidos desde 1858, el primer cable submarino transatlántico funcionó desde 1866.

En el medio de semejantes avances tecnológicos, apareció el primer trabajo teórico con relevancia solo comparable con el de Newton. En 1865, el físico-matemático escocés James Clerk Maxwell (1831-1879) completa los Fundamentos del Electromagnetismo en "A Dynamical Theory of the Electromagnetic Field". La Teoría Electromagnética elaborada y presentada matemáticamente por Maxwell cambiaría todo a nuestro alrededor. Pero el cambio no sería trivial, como la aparición de nuevas máquinas y una mayor automatización, sino que fue algo muy profundo. Condensó en solo 4 ecuaciones vectoriales todos los descubrimientos de Electricidad y de Magnetismo existentes, documentados cuidadosamente por Charles-Augustin de Coulomb (1736-1806), Johann Carl Friedrich Gaufl (1777-1855), André-Marie AmpËre (1775-1836), Jean-Baptiste Biot (1774-1862), Félix Savart (1791-1841), Heinrich Friedrich Emil Lenz (1804-1865), ÿrsted y Faraday. Supo encontrar lo que aún estaba mal en los trabajos anteriores, y deducir entre otras cosas, que la luz es una onda electromagnética que puede propagarse (transportando energía) sin necesidad de un medio material, y que la Luz, la Electricidad y el Magnetismo son manifestaciones del mismo fenómeno.


(2) La Teoría Electromagnética despierta el interés de inventores y científicos

La síntesis realizada en el tratado de Maxwell fue genial. En 1905, Einstein en la Teoría Especial de la Relatividad reconocería la importancia de la Teoría de Maxwell, dándole a los campos electromagnéticos un sentido más amplio. Pero nuestra sociedad comenzó a valorar más del estudio del Electromagnetismo cuando conoció aplicaciones que resultaban imposibles con las máquinas de vapor (las que representaron la Revolución Industrial). Un ejemplo es el teléfono ("voz a distancia"), inventado aparentemente por el italiano Antonio Santi Giuseppe Meucci, quien construyó un prototipo en New York durante 1854. El teléfono fue patentado en 1876 por el ingeniero e inventor de origen escocés Alexander Graham Bell (1847-1922), y se implementó primero en New York y en San Francisco (USA).
El gran inventor estadounidense Thomas Alva Edison (1847-1931), frecuentemente considerado genio (y un gran ladrón de inventos), en 1877 mejoró el micrófono del teléfono y patentó el fonógrafo de cilindro rotatorio, con papel metalizado.

Es interesante observar que Edison es muy famoso por varios inventos importantes, como la ampolleta incandescente, pero sin embargo es desconocido por algo que tal vez sea su descubrimiento más relevante: el "efecto Edison". Aunque otros lo habían observado antes, fue muy difundido gracias a él, por lo cual se lo llamó así desde 1883. Esto dio origen en 1904 al primer componente electrónico activo.
En efecto, entre 1873 y 1883 varios investigadores en Inglaterra y en Alemania habían observado lo que ahora se conoce como "emisión termoiónica", una corriente de electrones entre un cátodo caliente y un electrodo positivo (según algunas referencias, Daniel Lordan y Frederick Guthrie en 1873, y Johann Wilhelm Hittorf en 1869-1883). Edison estudiaba el comportamiento de un filamento en presencia de un tercer electrodo, cuando redescubrió y patentó ese fenómeno en 1883. A pesar que él no entendió la física del fenómeno, se dió cuenta que podría amplificar la señal de un telégrafo eléctrico.

El físico e inventor alemán Karl Ferdinand Braun (1850-1918), contribuyó significativamente al desarrollo de la radio y la televisión. En 1874 descubrió que un contacto puntual sobre un semiconductor rectifica la corriente alterna, inventando el diodo semiconductor más de 20 años más tarde, cerca del 1898. El físico e inventor alemán Karl Ferdinand Braun (1850-1918) descubrió en 1874 el "point rectifier effect" ("rectificador de puntas de contacto") por el cual una corriente alterna puede ser rectificada, por una unión de contacto puntual (unión inestable metal-semiconductor). Ahora se sabe que la unión metal-semiconductor constituye una barrera de potencial Schottky, que es el principio de rectificación del diodo semiconductor. Basándose en el trabajo de Braun, el pionero estadounidense de la radio, Greenleaf Whittier Pickard (1877-1956), desarroló el diodo "bigote de gato" usando un cristal de silicio, y lo patentó en 1906. At that time, the only available means of communications were the Wired Telegraph invented by Samuel Morse (1837), the Wired Telephone by Graham Bell (1876) and radiotelegraphy by Marconi (1895).

Por otro lado, Svante August Arrhenius (1859-1927), un joven estudiante de Química sueco, se doctoró en 1884 con la mínima calificación, por sugerir en su tesis que la corriente eléctrica dentro de las soluciones, estaba formada por ÁTOMOS CARGADOS (ahora conocidos como "iones"). La idea era muy revolucionaria ya que aún no se conocían partículas cargadas en el interior del átomo. Pero casi le costó la tesis ...

También en 1884 llega a USA el ingeniero electromecánico e inventor Nikola Tesla (1856-1943), contratado por Edison. Al año ya tiene problemas con su jefe por su salario, y finalmente en 1886 forma su propia compañía.
A finales de los 1880s se produjo la "Batalla (o Guerra) de las Corrientes", entre Edison que estaba a favor de la Corriente Continua, y su principal rival, el ingeniero y empresario estadounidense George Westinghouse, Jr. (1846-1914). Finalmente, Westinghouse logró imponer la Corriente Alterna, junto con Tesla, quién comenzaba a desarrollar sus inventos con motor de inducción y campos magnéticos rotantes. "Coherer" (1884-1890): Se inventa el "detector", antes que La Radio
En estos años empezaron a aparecer patentes, anuncios y noticias de experimentos relacionados con la comunicación mediante ondas de radio, pero que realmente no tenían que ver con la Teoría Electromagnética o no aportaron algo esencial (William Henry Ward, 1872; Mahlon Loomis, 1872; Edison, 1875; David E. Hughes, 1878; Nathan Stubblefield, 1885-92). Al parecer, el primero que realmente fue importante para el desarrollo de La Radio fue el invento en 1884 de un primitivo resonador llamado "coherer", realizado por el físico e inventor italiano Temistocle Calzecchi Onesti (1853-1922). El "coherer" fue un tubo o cápsula aislante llena de partículas de hierro entre dos electrodos, que más tarde fue esencial en el primer detector práctico de ondas de radio. Este tubo respondía a las ondas de radio, haciéndose conductor.
Entre 1884 y 1890, el físico e inventor francés Édouard EugËne Désiré Branly (1844-1940) inventó una versión mejorada del "coherer". Éste se convertiría en el detector usado en los primeros aparatos receptores entre 1900 y 1910. At that time, the only available means of communications were the Wired Telegraph invented by Samuel Morse (1837), the Wired Telephone by Graham Bell (1876) and radiotelegraphy by Marconi (1895).

Comienza la Comunicación mediante ondas electromagnéticas en La Tierra

En un ambiente de inventos asombrosos y de una ciencia nueva, en 1888 nace la idea de la comunicación mediante ondas electromagnéticas, es decir de la telegrafía sin alambres ("wireless telegraphy").
El físico alemán Heinrich Rudolf Hertz (1857-1894) realizó y dió a conocer en 1888 una serie de famosos experimentos para generar y para detectar las ondas predichas por Maxwell 24 años antes. Su trabajo fue formidable y genial. Hertz emitía ondas generando chispas y usaba electrodos entre los cuales se generaban chispas cuando detectaba las ondas. Por primera vez alguien se proponía emitir y detectar ondas a través del espacio. Hertz estudió la teoría, y demostró una a una las propiedades ondulatorias de las ondas electromagnéticas, como la propagación, la reflexión y la refracción. Logró demostrar experimentalmente que la energía se transmitía a través del espacio, y comprobó que las ondas generadas tenían longitudes más largas que las ondas de luz visible. Hertz llevó la Teoría Electromagnética al laboratorio.

Parece ser que el mismo Hertz no consideró que fuese posible la aplicación práctica de la "telegrafía sin alambres", pero muchos investigadores comenzaron a pensar que las "ondas hertzianas" podrían servir para enviar mensajes de un lugar a otro, pues tales ondas podrían contornear los obstáculos gracias a su longitud de onda.

En esa misma época, el inventor canadiense Reginald Aubrey Fessenden (1866-1932) realizaba experimentos pioneros en el área de la comunicación mediante ondas electromagnéticas, es decir de la telegrafía sin alambres.
En 1886 intentó trabajar en USA con el famoso inventor (Edison) diciendo "Do not know anything about electricity, but can learn pretty quick" ("No sé nada de Electricidad pero puedo aprender muy rápido"), a lo que Edison contestó "Have enough men now who do not know about electricity" ("Ya tengo suficientes hombres que no saben nada de Electricidad"). Finalmente, el mismo año fue contratado, y muy rápidamente promovido. Lamentablemente, por problemas financieros, Edison despidió a Fessenden en 1890 junto con la mayoría de los empleados del laboratorio.
Después de trabajar en fábricas y como profesor en 1892 en una universidad en Indiana, en 1893 Fessenden fue contratado por George Westinghouse para el primer puesto que se abría en el Departamento de Ingeniería Eléctrica de la -entonces- Universidad de Pennsylvania.

En 1893 Nikola Tesla hizo la primera demostración pública de comunicación por ondas hertzianas.
En 1894 (año en que murió Hertz), el físico y escritor británico Oliver Joseph Lodge (1851-1940) daba detalles en la revista "The Electrician" de sus experimentos realizados públicamente, con aparatos de telegrafía sin alambres.

La publicación de los experimentos de Lodge captó la atención del físico, biólogo, botánico, arqueólogo, inventor y escritor de ciencia ficción bengalí Jagadish Chandra Bose (1858-1937), quien hizo investigaciones pioneras en radio y óptica de microondas, utilizadas actualmente por telescopios. Es considerado uno de los padres de La Radio, y el padre de la ciencia ficción bengalí. Sentó los fundamentos de la ciencia experimental en India, donde fue el primero en tener una patente estadounidense (en 1904).
El primer aspecto destacable de su trabajo en microondas es que se dio cuenta de la desventaja de usar ondas largas en el estudio de las propiedades ondulatorias de las ondas hertzianas. En 1894 realizó una demostración pública en Calcuta donde hizo sonar una campanilla y encendió pólvora a una cierta distancia, utilizando ondas milimétricas. Por primera vez se veía en forma dramática lo que se podía hacer con estos "rayos invisibles que atravezaban paredes.

Desde 1865 hasta 1894, se tenían las ideas suficientes para implementar la telegrafía sin alambres, pero aún nadie lograba un sistema práctico. Ese fue el mérito del inventor italiano Marchese Guglielmo Marconi (1874-1937).
Los experimentos de Lodge también llegaron a manos de Augusto Righi, un físico italiano de la Universidad de Bologna, que había realizado investigaciones sobre los trabajos de Hertz. Righi le enseña en su laboratorio a Marconi, su joven vecino de 19 años, quien se interesa en el tema y comienza a experimentar en un pequeño cuarto en su casa (en Villa Griffone, Pontecchio, Italia), después de 30 años de la Teoría de Maxwell.
Finalmente, Marconi inventa un sistema práctico de telegrafía con los siguientes componentes:
(1) Generador de chispas para emitir ondas de radio.
(2) Interruptor para enviar pulsos cortos y largos del código Morse.
(3) Detector tipo "coherer" de Branly, modificado para aumentar su sensibilidad.
(4) Alambre con una superficie a cierta altura sobre el suelo.
(5) Registrador telegráfico, activado por el "coherer", para registrar los puntos y rayas Morse, sobre un rollo de papel.

Configuraciones similares habían sido utilizadas pero sin lograr superar unos pocos cientos de metros. A Marconi le pasó lo mismo, pero en el verano de 1895 MEJORÓ LA ANTENA: usó alambres más largos, verticales y con un extremo en el suelo. Así transmitió a más de 1.5 km (0.93 mi). La "conexión a tierra" fue la clave !!

Marconi se dió cuenta que su sistema tenía relevancia comercial y militar, hablaba inglés con fluidez, y como Italia no estaba preparada para ese desarrollo tecnológico, se trasladó a Londres en 1896, con 21 años de edad.
En 1897 transmitió a más de 6 km (3.7 mi) a través de la llanura de Salisbury y a través del Canal de Bristol, superando los 16 km (9.9 mi). Presentó sus resultados al público general en sus conferencias "Telegraphy without Wires" (Toynbee Hall, London, Dic. 11, 1896), y "Signaling through Space without Wires" (Royal Institution, London, Junio 4, 1897).
Marconi realizó públicamente varias demostraciones en Europa, entre ellas en La Spezia (Italia) en 1897, Rathlin Island (Ireland) en 1898, y a través del Canal de la Mancha en 1899. La primera estación de radio del Mundo la estableció Marconi en 1897 en la Isla de Wight (England).

Aparentemente los experimentos de telegrafía sin alambres de J.C. Bose fueron anteriores a los de Marconi en Salisbury, pero de menor alcance. J.C. Bose inventó varios componentes para microondas. Sus papers del 1897 describen sus trabajos con ondas milimétricas. Usó guías de onda, antenas cónicas, lentes dieléctricas, polarizadores, y semiconductores a frecuencias de hasta 60 GHz. Después de sus trabajos, prácticamente no hubo trabajos con ondas milimétricas en unos 50 años.
Neville Francis Mott, cuando obtuvo el Premio Nobel 1977 de Física por sus contribuciones a la Electrónica de Estado Sólido, destacó que J.C. Bose estaba al menos 60 años adelantado a su época, y que incluso ya había anticipado la existencia de semiconductores tipo-n y tipo-p.

En otro ámbito, en 1897 el físico británico Joseph John "J.J." Thomson (1856-1940) descubrió el electrón. La teoría de Arrhenius adquirió un sentido sorprendente, y finalmente obtuvo el Premio Nobel 1903 de Química por su antes mal calificada tesis, y Thomson el Nobel 1906 de Física por el descubrimiento del electrón y sus trabajos de la conducción eléctrica en gases (un tema importantísimo, y sin embargo completamente olvidado en la enseñanza de la Física de hoy, en 2009).

Oliver Lodge participó en el desarrollo de la telegrafía sin alambres. Lodge, usó el término "coherer" en sus charlas y patentó en 1898 en USA, la idea de sintonizar ("tuning").
Por otro lado, en 1898 el ingeniero electrotécnico danés Valdemar Poulsen (1869-1942) inventó la grabación magnetofónica del sonido. La señal de audio de un micrófono era grabada mediante un electroimán, sobre un alambre de hierro atado entre dos paredes. Luego, la señal de audio grabada, era reproducida volviendo a pasar el electroimán con un audífono, sobre el mismo alambre. Este invento no fue apreciado hasta que se desarrolló la Electrónica y comenzó la computación. Su invento iba a dominar todo un siglo el registro de la información (audio, video y computación), hasta el Siglo XXI, donde hay además medios ópticos y ferroeléctricos.

También cerca de 1898 Braun (que en 1874 había descubierto la rectificación de la corriente en un contacto puntual sobre un semiconductor), inventa el diodo "bigote de gato", y lo patenta en 1899. Este fué el primer dispositivo electrónico semiconductor, pero aún no existía la Electrónica. Fué J.C. Bose el que más tarde usó por primera vez una unión semiconductora para detectar ondas de radio.

En 1899, Marconi hace su primera demostración de telegrafía sin alambres en Estados Unidos.
En 1900 Fessenden deja la Universidad y entra a trabajar en la United States Weather Bureau, con el objetivo de reemplazar las líneas telegráficas por un sistema de radio en las estaciones meteorológicas.
Aparentemente fue Fessenden y en ese año quien inventó el principio "heterodyne": combinar dos señales de alta frecuencia para producir una tercera, pero audible. El 23 de Diciembre del 1900 hizo la primera transmisión de audio con ondas de RF, a través de una milla. Pero durante mucho tiempo aún, no habría Electrónica lo suficientemente desarrollada como para que esta genial idea se pudiera llevar a la práctica. Esto lo hizo en 1918 Armstrong.

En 1901 Marconi anuncia haber logrado la comunicación sin alambres a través del Atlántico (3500 km ó 2200 mi), usando una antena receptora de 152.4 m (500 ft) sostenida por un "cometa" o "barrilete".

Muchos pensaban que la comunicación estaba limitada a alcanzar el horizonte. Cuando Marconi anunció haber alcanzado mucho más, los científicos quedaron atónitos... cómo podían las ondas hertzianas, superar la curvatura terrestre?
Dado que muchos dudaron de esos resultados, Marconi hizo otras demostraciones de similar distancia en 1902, pero registrando todo con más cuidado. En estos nuevos experimentos hubo otro descubrimiento: las ondas de radio llegaban mucho más lejos durante la noche que en el día (prácticamente el triple!).
La explicación fue propuesta el mismo año, casi simultáneamente por el ingeniero eléctrico estadounidense Arthur Edwin Kennelly (1861-1939) y el físico británico Oliver Heaviside (1850-1925): las ondas de radio se reflejan en una capa "conductora" de la atmósfera, una capa con iones ! (hay que recordar que Thomson había descubierto el electrón hacía sólo 5 años, y que 18 años antes Arrhenius casi pierde su tesis por sugerir la existencia de iones).
Esta brillante predicción hecha en 1902 fue confirmada experimentalmente en 1924 por el físico británico Edward Victor Appleton (1892-1965), quién usó un transmisor de la British Broadcasting Corporation (BBC) para hacer el experimento decisivo (En 1947 Appleton recibió el Premio Nobel de Física por su contribución al conocimiento de la ionosfera, que condujo al desarrollo del radar).
Marconi comenzó a construir estaciones de mayor potencia para transmitir noticias desde el continente hacia los barcos en alta mar durante la noche. Esto comenzó en 1904 y con regularidad desde 1907. At that time, the only available means of communications were the Wired Telegraph invented by Samuel Morse (1837), the Wired Telephone by Graham Bell (1876) and radiotelegraphy by Marconi (1895). Es bastante desconocido que hayan existido trabajos pioneros de Radio en Sudamérica. El religioso e inventor brasileño Roberto Landell de Moura (1861-1928), quien había estudiado Física y Química, trabajó solo e independientemente en la comunicación mediante ondas de radio en Brazil, hasta que demostró públicamente una transmisión de voz humana el 3 de Junio de 1900. Tuvo varias patentes importantes en USA y hasta comenzó trabajos pioneros en la "televisión" (transmisión y recepción de imágenes). Su gran talento y trabajo no ha sido justamente reconocido ni recordado.


(3) Nace la Electrónica

El físico inglés Owen Willans Richardson (1879-1959) publica en 1901 sus investigaciones sobre la emisión termoiónica por los cuales recibe el Premio Nobel de Física en 1928. Richardson descubrió que la densidad de corriente emitida por el cátodo caliente era proporcional al cuadrado de la temperatura del cátodo y a un término de activación térmica (de Arrhenius). Ahora el Efecto Edison podía ser estudiado cuantitativamente, y desarrollarse nuevos dispositivos.

En 1901 el físico e ingeniero eléctrico inglés John Ambrose Fleming (1849-1945) diseñó un transmisor para Marconi. Cuando trabajaba en la "Wireless Telegraphy" Company descubrió que el Efecto Edison podía ser utilizado en al detección de ondas de radio. En 1904 inventó, desarrolló y patentó el "kenotron", un elemento gaseoso de dos electrodos.
Este hito es considerado el nacimiento de la Electrónica, en 1904, con el desarrollo delprimer componente electrónico: el "diodo termoiónico", perteneciente a una familia de componentes conocidos como "tubos" o "válvulas" electrónicas. En estos dispositivos, el cátodo se calienta con un filamento, para producir emisión termoiónica, de electrones que "viajan" en el espacio gaseoso hacia la "placa" (el electrodo positivo conectado a unos 200-500 V respecto del cátodo).

Desde entonces y durante medio siglo, comenzaron a desarrollarse aparatos electrónicos con válvulas, más y más complejos, hasta las primeras computadoras. A mediados del Siglo XX, en el apogeo de la Electrónica con válvulas, se inventó el transistor. Durante la segunda mitad del Siglo, se desarrolla la Física de Estado Sólido con semiconductores, y las válvulas comenzaron a desaparecer. Finalmente, en el siglo XXI, los dispositivos con cátodo caliente son cada vez más raros, y ya no se venden más válvulas electrónicas en las casas comunes de reparaciones electrónicas. Todavía se ven algunos aparatos de TV con tubos de rayos catódicos, pero van en aumento las pantallas "planas" (matriz activa, plasma y LCD).

El físico de origen alemán Albert Einstein (1879-1955) presenta en su annus mirabilis, 1905, 4 trabajos revolucionarios: en el primero ("On a Heuristic Viewpoint Concerning the Production and Transformation of Light") explica el efecto fotoeléctrico, tratando a la luz como corpúsculos llamados fotones.
En el segundo ("On the Motion-Required by the Molecular Kinetic Theory of Heat-of Small Particles Suspended in a Stationary Liquid") explica el movimiento browniano y demuestra indirectamente la existencia de átomos y moléculas.
En el tercero ("On the Electrodynamics of Moving Bodies"), conocido como "Teoría de la Relatividad Especial", da una interpretación del espacio físico que cambió nuestra concepción del Universo. La teoría está basada en hipótesis tan brillantes como simples. Entre otras cosas, dejó completamente claro que las ondas hertzianas realmente se propagaban sin necesidad de ningún medio material.
Y en el cuarto ("Does the Inertia of a Body Depend Upon Its Energy Content?"), mostró la equivalencia entre masa y energía.
Cada trabajo podría haber merecido un premio Nobel, pero Eistein obtuvo el Premio Nobel de Física en 1921 "por su contribución a la Física Teórica, y especialmente por su descubrimiento de la ley del Efecto Fotoeléctrico".

Lo que es interesante de destacar en este artículo, es que Einstein cambió totalmente el sentido que clásicamente se le daba a los campos electromagnéticos. Sin embargo, esto no afecta las invenciones que condujeron al desarrollo de La Radio. Más aún, con fines prácticos, se considera mejor estudiar Electromagnetismo en la forma tradicional, sin considerar transformaciones relativistas. Sin embargo, cuando no solo se desea hacer un aparato eléctrico, sino que se busca realmente comprender la Naturaleza, es necesario usar Relatividad.

Pero otras personas seguían más dedicadas a la nueva tecnología en las comunicaciones que enfrentaba la Humanidad. En particular, Fessenden buscaba transmitir voz y música, y no solo Morse. Después de una serie de inventos, Fessenden desarrolló el principio de la detección "heterodina", que combinaba dos señales de frecuencias similares, para producir una tercera señal (en este caso audible) correspondiente a la diferencia de frecuencias de las señales de entrada. Fue una de las invenciones universales pero que no podía implementarse aún en un circuito práctico, debido a que el desarrollo de la Electrónica recién se iniciaba, y no existían osciladores estables. En 1906 Fessenden hizo las primeras transmisiones experimentales en AM.

También en 1906, el inventor estadounidense Lee De Forest (1873-1961) inventó una versión aún no lineal del triodo termoiónico, llamado "Audion". Se dice que en realidad le robó el crédito a ingeniero eléctrico e inventor estadounidense Edwin Howard Armstrong (1890-1954).

Presentó en 1907 y obtuvo en 1908 la patente de un dispositivo que era una variante de la válvula de Fleming, la primera, inventada en 1904. De Forest le agregó un tercer electrodo, la "grilla" con el que la válvula podía utilizarse como amplificador.
En 1919 se lo llamó "triodo", y fue vital en el desarrollo de la comunicación transcontinental, la radio, el radar y la Electrónica en general. El triodo es una invención universal. No por el dispositivo en sí mismo, sino por su función en un circuito. En particular, inspiró el invento en 1948 del transistor.

La invención del triodo y poco más de 10 años de Electrónica permitieron el desarrollo de nuevas ideas para mejorar los primitivos sistemas de comunicaciones. La idea más relevante la tuvo Armstrong cuando reinventó en 1918 el heterodino de Fessenden, para mejorar los "receptores de RF sintonizados" (TRF receivers). Armstrong usó como frecuencia intermedia valores superiores a las del sonido. Tal vez por eso lo patentó como "Superheterodino". La clave del invento es que en vez de tener que sintonizar los amplificadores (como sucede en los TRFs), es mucho más estable sintonizar el oscilador. De este modo, el detector, amplificador de RF y el demodulador del receptor, todos ellos, trabajan a una frecuencia fija (la IF).













El físico e inventor alemán Karl Ferdinand Braun (1850-1918), contribuyó significativamente al desallorro de la radio y la televisión. En 1874 descubrió que un contacto puntual sobre un semiconductor rectifica la corriente alterna, inventando el diodo rectificador de cristal o "bigote de gato" ("Cat's whisker diode") cerca del 1898. En 1897 construyó el primer tubo de rayos catódicos "CRT" y el osciloscopio. Solo ahora, un siglo después, los CRT están siendo reemplazados por tecnologías de pantallas planas (LCD, LED y Plasma). Al CRT aún se le denomina "tubo de Braun" en países de lengua alemana y en Japón. Marconi usó patentes de Braun (entre otros), como la patente de sintonización que fue usada en muchas de sus patentes. Más tarde Marconi admitió al mismo Braun que había "tomado prestadas" porciones de su trabajo. En 1909 Braun y Marconi compartieron el Premio Nobel de Física "en reconocimiento por sus contribuciones al desarrollo de la telegrafía sin alambres". ingeniero electrotécnico estadounidense Edwin Howard Armstrong receptor superheterodino 1927 FM El problema que tiene la radiodifusión en AM es que los ruidos electromagnéticos de diferentes fuentes que tengan la frecuencia de la emisora, serán difíciles de filtrar. Por eso EHA inventó otra forma alternativa de modular y transmitir: en frecuencia (FM). La onda portadora en vez de tener una amplitud modulada, tiene una amplitud fija, mientras que su frecuencia es modulada con la señal de sonido. En la radiodifusión mediante ondas moduladas en amplitud (AM) la señal de audio de baja frecuencia (voz, música, sonido en general) modula la amplitud de una onda portadora de alta frecuencia, característica de la emisora de radio. Maxwell inspiró los trabajos de Nikolai Tesla y de Franz Hertz, que condujeron a Morse y a Marconi al desarrollo del telégrafo y de la radio. Seis décadas más adelante, se emitían transmisiones de radio mediante ondas electromagnéticas entre puntos distantes, que también alcanzaban el espacio exterior. De la Tierra saldrían naves espaciales hacia otros planetas, enviando información del Cosmos al que pertenecemos. La Tierra se rodearía de un enjambre de satélites de comunicaciones, laboratorios, instrumentos y telescopios espaciales y hasta una Estación Espacial Internacional. La comunicación mediante ondas de radio cambió TODO !



CÓMO HACER REFERENCIA A ESTE ARTÕCULO

Giordano J L 2009 Cómo funcionan las cosas: La Radio Galena (Santiago: http://www.profísica.cl) http://www.profisica.cl/comofuncionan/como.php?id=43 (Consulta: Mes Día, Año)



OTROS ARTÕCULOS DE J. L. GIORDANO







 
<
>