“Uma nação que não consegue controlar suas fontes de energia não pode controlar o seu futuro”. Barack Obama
A
eletricidade permaneceria pouco mais do que uma “curiosidade intelectual” por
milênios até 1600, quando o cientista inglês William Gilbert (1544-1603) escreveu
De Magnete, no qual fez um estudo cuidadoso da eletricidade e do
magnetismo, distinguindo o efeito magnetita da eletricidade estática produzida
pela fricção do âmbar. Ele utilizou a palavra neolatina electricus para
se referir à propriedade de atrair pequenos objetos após serem friccionados.
Essa associação deu origem às palavras inglesas “elétrico” e “eletricidade”,
que fizeram sua primeira publicação impressa na Pseudodoxia Epidemica de
Thomas Browne de 1646. Isaac Newton (1643-1727) fez as primeiras investigações
sobre eletricidade, com uma ideia sua escrita em seu livro Opticks, or, A
Treatise of the Reflexions, Refractions, Inflexions and Colours of Light representa
socialmente um livro do filósofo natural inglês Isaac Newton que foi publicado
em inglês em 1704, foi sem dúvida o início da teoria de campo da força
elétrica. Trabalhos posteriores foram conduzidos no século XVII e início do
século XVIII por Otto von Guericke, Robert Boyle, Stephen Gray e Charles Du
Fay. Mais tarde Benjamin Franklin (1706-1790) conduziu extensas pesquisas em
eletricidade, vendendo seus bens para financiar seu trabalho. Em junho
de 1752, ele teria prendido uma chave de metal na ponta de uma linha de pipa
úmida e empinado a pipa em um céu ameaçado por tempestade.
Energia elétrica representa uma forma específica de energia que se origina da energia potencial elétrica, baseada na geração de diferenças de potencial elétrico, permitindo estabelecer corrente elétrica entre dois pontos e os fenômenos físicos envolvidos. Pode ser obtida também a partir da energia cinética. Mediante a transformação adequada é possível obter que tal energia mostre-se em outras formas finais de uso direto, em forma de luz, movimento ou calor, segundo os elementos da conservação da energia. É uma das formas de energia que a humanidade mais utiliza na atualidade, graças a sua facilidade de transporte, baixo índice de perda energética durante conversões. A energia elétrica é obtida principalmente através de termoelétricas, usinas hidrelétricas, usinas eólicas e usinas termonucleares. A geração de energia elétrica se leva a cabo mediante diferentes tecnologias. As principais aproveitam um movimento rotatório para gerar corrente alternada em um alternador. O movimento rotatório pode provir de uma fonte de energia mecânica direta, como a corrente de uma queda d`água ou o vento, ou de um ciclo termodinâmico. Em um ciclo termodinâmico se esquenta um fluido e se consegue com que realize um circuito no qual move um motor ou uma turbina. O calor deste processo se obtém mediante a queima de combustíveis fósseis, as reações nucleares ou outros processos, como o calor proveniente do interior da Terra ou o calor do Sol.
Uma sucessão de faíscas
saltando da chave para o dorso de sua mão mostrou que o relâmpago era de fato
elétrico por natureza. Ele também explicou o comportamento aparentemente
paradoxal da Garrafa de Leiden como um dispositivo para armazenar grandes quantidades
de carga elétrica em termos de eletricidade consistindo em cargas positivas e
negativas. Em 1775, Hugh Williamson relatou uma série de experimentos à Royal
Society sobre os choques aplicados pela enguia elétrica; naquele mesmo ano,
o cirurgião e anatomista John Hunter descreveu a estrutura dos órgãos elétricos
do peixe. Em 1791, Luigi Galvani publicou bioeletromagnetismo,
demonstrando que a eletricidade era o meio pelo qual os neurônios passavam
sinais para os músculos. A bateria de Alessandro Volta, ou pilha voltaica, de
1800, de camadas alternadas de zinco e cobre, forneceu aos cientistas uma fonte
mais confiável de energia elétrica que as máquinas eletrostáticas usadas. O reconhecimento do eletromagnetismo, a unidade dos
fenômenos elétricos e magnéticos, deve-se a Hans Christian Ørsted e André-Marie
Ampère em 1819-1820. Michael Faraday inventou o motor elétrico em 1821, e Georg
Ohm analisou matematicamente o circuito elétrico em 1827. A eletricidade e o
magnetismo (e a luz) foram ligados por James Clerk Maxwell, em
particular em seu artigo On Physical Lines of Force em 1861 e 1862: o início do século XIX testemunhou um rápido progresso na ciência elétrica, o
final do século XIX testemunharia o maior progresso na engenharia elétrica.
Por meio invenções de
pessoas como Alexander Graham Bell, Ottó Bláthy, Thomas Edison, Galileu
Ferraris, Oliver Heaviside, Ányos Jedlik, Lorde Kelvin, Charles Algernon
Parsons, Werner von Siemens, Joseph Swan, Reginald Fessenden, Nikola Tesla (1856-1943)
e George Westinghouse, a eletricidade deixou de ser uma “curiosidade científica”
e se tornou um meio de trabalho ou ferramenta essencial para a vida
moderna. Em 1887, Heinrich Hertz descobriu que eletrodos iluminados com luz
ultravioleta criam faíscas elétricas com mais facilidade. Em 1905, Albert
Einstein (1879-1955) publicou um artigo que explicava os dados experimentais do
efeito fotoelétrico como sendo o resultado da energia luminosa transportada em
pacotes quantizados discretos, energizando elétrons. Essa descoberta levou à
revolução quântica. Einstein recebeu o Prêmio Nobel de Física em 1921 por “sua
descoberta da lei do efeito fotoelétrico”. O efeito também é empregado
em fotocélulas, como as encontradas em painéis solares. O primeiro dispositivo
de estado sólido foi o “detector de bigodes de gato”, usado pela primeira vez
na década de 1900 em receptores de rádio. Um fio em forma de bigode é
colocado levemente em contato com um cristal sólido (como um cristal de
germânio) para detectar um sinal de rádio pelo efeito de junção de contato. Em
um componente de estado sólido, a corrente elétrica é confinada a elementos
sólidos e compostos projetados para comutá-la e amplificá-la. O fluxo de
corrente pode ser entendido de duas formas: como elétrons carregados negativamente
e como deficiências de elétrons carregadas positivamente, chamadas de buracos.
Essas cargas e lacunas
são entendidas em termos de física quântica. O material de construção é, na
maioria das vezes, um semicondutor cristalino. A eletrônica de estado sólido
ganhou destaque com o surgimento da tecnologia de transistores. O
primeiro transistor funcional, um transistor de contato pontual à base de
germânio, foi inventado por John Bardeen e Walter Houser Brattain nos
Laboratórios Bell em 1947, seguido pelo transistor de junção bipolar em 1948. A
rede de distribuição de energia elétrica é um segmento do sistema elétrico,
composto basicamente através da divisão de energia elétrica pelas redes
elétricas primárias (redes de distribuição de média tensão), e redes
secundárias (redes de distribuição de baixa tensão), cuja construção,
manutenção e operação é responsabilidade das companhias distribuidoras de
eletricidade. Idade Antiga ou Antiguidade ou Mundo Antigo, na periodização das
épocas históricas da humanidade, é o período que se estende desde a invenção da
escrita até à queda do Império Romano. O estudo dos fenômenos elétricos
remonta à Antiguidade, com a compreensão teórica da ciência progredindo até os
séculos XVII e XVIII. O desenvolvimento da teoria do eletromagnetismo no século
XIX marcou um progresso significativo, levando à aplicação industrial e
residencial da eletricidade por engenheiros eletricistas no final do século.
Essa rápida expansão da
tecnologia elétrica na época foi a força motriz por trás da Segunda Revolução
Industrial, com a versatilidade da eletricidade impulsionando transformações na
indústria e na sociedade. A eletricidade é parte integrante do desenvolvimento
científico e em torno de aplicações significativas nas sociedades que abrangem
transporte, climatização, iluminação, telecomunicações e computação,
tornando-se a base da sociedade industrial. Eletricidade é o conjunto de
fenômenos físicos associados à presença e ao movimento de matéria com carga
elétrica. A eletricidade está relacionada ao magnetismo, sendo parte do
fenômeno tecnológico do eletromagnetismo, conforme descrito pelas equações de
Maxwell. Fenômenos comuns estão relacionados à eletricidade, incluindo relâmpagos,
eletricidade estática, aquecimento elétrico, descargas elétricas e muitos
outros. A presença de uma carga elétrica positiva ou negativa produz um campo
elétrico. O movimento de cargas elétricas é uma corrente elétrica e produz um
campo magnético. Na maioria das aplicações, a lei de Coulomb, uma importante
lei da Física que estabelece que a força eletrostática entre duas cargas
elétricas é proporcional ao módulo das cargas elétricas e inversamente
proporcional ao quadrado da distância que as separa, determinando a força que
atua sobre uma carga elétrica. Foi formulada e publicada pela primeira vez em
1783 pelo físico francês Charles Augustin de Coulomb (1736-1806) e foi
essencial para o desenvolvimento do estudo da eletricidade. O potencial
elétrico é o trabalho tecnológico realizado para mover uma carga elétrica de um
ponto a outro dentro da formação de um campo elétrico, normalmente medido em
volts.
A eletricidade
desempenha um papel central em tecnologias modernas, atuando na energia
elétrica, onde a corrente elétrica é usada para energizar equipamentos, e na
eletrônica, lidando com circuitos elétricos envolvendo componentes ativos, como
válvulas termiônicas, transistores, diodos e circuitos integrados, e
tecnologias de interconexão passiva associadas. A descoberta de Hans
Christian Ørsted em 1821 de que existia um campo magnético ao redor de um fio
condutor de corrente elétrica indicava que havia uma relação direta entre
eletricidade e magnetismo. Além disso, a interação parecia diferente das forças
gravitacionais e eletrostáticas, as duas forças da natureza então conhecidas. A
força sobre a agulha da bússola não a direcionava para perto ou para longe do
fio condutor de corrente, mas agia perpendicularmente a ele: As palavras de
Ørsted foram que “o conflito elétrico age de maneira rotacional”. A força
também dependia da direção da corrente, pois se o fluxo fosse invertido, a
força também se invertia. Ørsted não compreendeu completamente sua descoberta,
mas observou que o efeito era recíproco: uma corrente elétrica exerce uma força
sobre um ímã, e um campo magnético exerce uma força sobre uma corrente
elétrica. O fenômeno foi posteriormente investigado por André-Marie Ampère
(1775-1836), que descobriu que dois fios paralelos percorridos por
corrente elétrica exerciam uma força um sobre o outro: dois fios conduzindo
correntes na mesma direção são atraídos um pelo outro, enquanto fios com
correntes em direções opostas são repelidos. Essa interação é mediada pelo
campo magnético que produz e constitui a base para a definição internacional do
ampere.
O motor elétrico
explora um efeito importante do eletromagnetismo: uma corrente elétrica que
atravessa um campo magnético sofre uma força perpendicular tanto ao campo
quanto à corrente. Essa relação entre campos magnéticos e correntes elétricas é
extremamente importante, pois levou à invenção do motor elétrico por Michael
Faraday em 1821. O motor homopolar de Faraday consistia em um ímã permanente
imerso em um recipiente com mercúrio. Uma corrente elétrica era aplicada a um
fio suspenso por um pivô acima do ímã e mergulhado no mercúrio. O ímã exercia
uma força tangencial sobre o fio, fazendo-o girar em torno do ímã enquanto a
corrente elétrica fosse mantida. As experiências realizadas de Faraday em 1831
revelaram que um fio condutor se movendo perpendicularmente a um campo
magnético desenvolvia uma diferença de potencial entre suas extremidades. Uma
análise mais aprofundada desse processo, conhecido como indução
eletromagnética, permitiu-lhe enunciar o princípio, hoje conhecido como Lei de
indução de Faraday, que afirma que a diferença de potencial induzida em um
circuito fechado é proporcional à taxa de variação do fluxo magnético através
do circuito. A exploração dessa descoberta permitiu-lhe inventar o primeiro
gerador elétrico em 1831, no qual ele convertia a energia mecânica de um disco
de cobre em rotação em energia elétrica. O disco de Faraday era ineficiente e
não tinha utilidade como gerador prático, mas demonstrou a possibilidade de
gerar energia elétrica usando magnetismo, uma possibilidade que seria
aproveitada por aqueles que deram continuidade ao seu trabalho.
Um circuito elétrico é
uma interconexão de componentes elétricos de tal forma que a carga elétrica
flua ao longo de um caminho fechado (um circuito), geralmente para realizar
alguma tarefa útil. Os componentes de um circuito elétrico podem assumir
diversas formas de distribuição social, incluindo elementos técnicos como
resistores, capacitores, interruptores, transformadores e componentes
eletrônicos. Os circuitos eletrônicos contêm componentes ativos, geralmente
semicondutores e tipicamente exibem comportamento não linear exigindo análises
complexas. Os componentes elétricos mais simples são aqueles denominados
passivos e lineares: embora possam armazenar energia temporariamente, não
contêm fontes de energia e exibem respostas lineares aos estímulos. O resistor
é talvez o mais simples dos elementos de circuitos passivos: isto é, como o
próprio nome sugere, ele resiste à passagem da corrente elétrica, dissipando comunicativamente
sua energia na forma de calor. A resistência é uma consequência do
movimento de cargas através de um condutor: em metais, por exemplo, a
resistência se deve principalmente às colisões reais entre elétrons e íons. A
lei de Ohm é uma lei fundamental da teoria de circuitos, que afirma que
a corrente que passa por uma resistência é diretamente proporcional à diferença
de potencial aplicada propriamente a ela. A resistência da maioria dos
materiais é relativamente constante em uma faixa de temperaturas e correntes;
materiais nessas condições são conhecidos como “ôhmicos”. O ohm, a
unidade de resistência, recebeu esse nome em homenagem a Georg Simon Ohm (1789-1954)
e é simbolizado pela letra grega Ω. 1 Ω é a resistência que produzirá
uma diferença de potencial de um volt em resposta a uma corrente de um ampere.
O conceito de condutividade
elétrica é usado para especificar o caráter elétrico de um determinado material. A condutividade é
simplesmente o recíproco da resistividade, ou seja, inversamente proporcionais
e é indicativa da facilidade com a qual um material determinado é capaz de
conduzir uma corrente elétrica. Materiais sólidos exibem tecnologicamente uma espantosa
faixa de condutividades. De fato, uma maneira de classificar materiais sólidos
é de acordo com a facilidade com a qual conduzem uma corrente elétrica; dentro
deste esquematismo de classificação existem três grupamentos: condutores,
semicondutores e isolantes. No outro extremo estão os materiais com muito
baixas condutividades, estes são os isolantes elétricos. Materiais com
condutividades intermediárias, são denominados semicondutores. No Sistema
Internacional de Unidades, é medida em Siemens por metro. Constitui engano
achar que o ouro é o melhor condutor elétrico. Na temperatura ambiente, no
planeta Terra, o material melhor condutor elétrico ainda é a prata.
Relativamente, a prata tem condutividade elétrica de 108%; o cobre 100%; o ouro
70%; o alumínio 60% e o titânio apenas 1%.
A base de comparação é o cobre.
O ouro, em qualquer
comparação, do ponto de vista técnico e social, seja ela no mesmo volume ou na
mesma massa no tempo e no espaço sempre perde em condutividade elétrica ou
condutividade térmica para o cobre. Entretanto, para conexões elétricas, em que
a corrente elétrica deve passar de uma superfície para outra, o ouro leva muita
vantagem sobre os demais materiais, pois sua oxidação ao ar livre é
extremamente baixa, resultando numa elevada durabilidade na manutenção do bom
contato elétrico. Entre os citados, o alumínio seria o pior material para as
conexões elétricas, devido à facilidade de oxidação e à baixa condutividade
elétrica da superfície oxidada. Assim, um cabo condutor de cobre com os plugues
de contatos dourados leva vantagens sobre outros metais. Uma conexão entre
superfícies de cobre, soldada com prata constitui a melhor combinação para a
condução da eletricidade ou do calor entre condutores distintos. Num condutor
sólido existe uma nuvem muito densa de elétrons de condução, que não estão
ligados a nenhum átomo em particular. Por exemplo, os átomos de cobre no seu
estado neutro têm 29 elétrons à volta do núcleo; 28 deles estão ligados ao
átomo, enquanto que o último elétron encontra-se numa órbita mais distante do
núcleo e “sai”, por assim dizer, com
maior facilidade para a nuvem de elétrons de condução.
A medição da qualidade
do ouro em quilates surgiu historicamente na era medieval. A moeda utilizada, o
marco, pesava exatamente 24 quilates. Pelo fato de o ouro puro ser considerado
muito amolecido para a utilização, misturavam-se outros materiais. As pedras
preciosas deveriam pesar o mesmo que uma semente de árvore coral, que
correspondia a um quilate. Assim, para medir o valor desta moeda, media-se a
quantidade de quilates de ouro que ela possuía, e não o peso dela em si. Os
quilates servem como uma forma de medição da pureza do ouro ou outras joias.
Basicamente, é o peso total do material dividido por 24. Nestas 24 partes, são
consideradas as parcelas que formam outro material. Assim, é possível avaliar a
relação entre a quantidade de ouro e a quantidade de outros elementos. Um
elemento puro, isto é, sem a presença de outros metais, corresponde a 24
quilates. Por outro lado, se houver 10 partes de outro material, a joia
corresponderia a 14 quilates, por exemplo. Desta maneira, ocorre a utilidade de
uso da proporcionalidade: quanto maior a quantidade de partes de ouro puro no
material, por exemplo, mais valioso é considerado. Este processo também vale
para diamantes e outras pedras preciosas. Um pequeno deslocamento da nuvem de
elétrons de condução faz acumular um excesso de cargas negativas num extremo e
cargas positivas no extremo oposto. As cargas positivas são átomos com um
elétron a menos em relação ao número de protões.
Quando se liga um fio
condutor aos elétrodos de uma pilha, a nuvem eletrônica é atraída pelo elétrodo
positivo e repelida pelo elétrodo negativo; estabelece-se no condutor um fluxo relacional
contínuo de elétrons desde o eletrodo negativo para o positivo. Os
semicondutores são materiais semelhantes aos isoladores, sem cargas de
condução, mas que podem adquirir cargas de condução passando a ser condutores,
através de diversos mecanismos: aumento da temperatura, incidência de luz,
presença de cargas elétricas externas ou existência de impurezas dentro do
próprio material. Atualmente os semicondutores são construídos a partir de
silício ou germânio. Os átomos de silício e de germânio têm 4 elétrons de
valência. Num cristal de silício ou germânio, os átomos estão colocados numa
rede uniforme, como a que aparece na figura abaixo: os 4 elétrons de valência
ligam cada átomo aos átomos na sua vizinhança. Os átomos de arsênio têm 5
elétrons de valência. Se forem introduzidos alguns átomos de arsênio num
cristal de silício, cada um deles estará ligado aos átomos de silício na rede
por meio de 4 dos seus elétrons de valência; o quinto elétron de valência
ficará livre contribuindo para uma nuvem de elétrons de condução.
Obtém-se um semicondutor tipo N, capaz de conduzir cargas de um lado para
outro, através do mesmo mecanismo que nos condutores ou de nuvem de elétron de
condução. O cobre quando permanece em contato com o ar atmosférico, perde
lentamente elétrons e cria uma superfície de cor verde escura que é a famosa
oxidação; mas essa camada também é reconhecida como azinhavre.
O zinabre ou azinhavre
representa o resultado da oxidação do cobre ou ligas metálicas com esse
elemento químico, como latão e bronze. Ao serem expostas à umidade, os
componentes com essa matéria criam lentamente uma espécie de “ferrugem” com a
ideia de coloração verde. Zinabre nada mais é do que a oxidação do cobre ou de
ligas metálicas que possuem cobre, por exemplo o latão. O cobre a as ligas
metálicas que contêm cobre, como o latão ou o bronze, quando expostas ao ar
úmido contendo gás carbônico, lentamente se oxidam, ficando cobertas por uma
pátina, um composto químico que se forma na superfície de um metal de cor azul
esverdeada. A reação química que forma o zinabre ocorre quando o ácido
sulfúrico do eletrólito, presente no interior das baterias, é derramado sobre
polos e conectores. Isso ocorre por três razões: por excesso de eletrólito, por
porosidade do metal ou existência de espaços vazios entre a bucha e o polo de
uso da bateria. Depois que o zinabre se forma ele interrompe a passagem da
corrente elétrica, comprometendo, neste caso, o desempenho da bateria,
promovendo falhas no carregamento, aquecimento dos cabos, falhas no
funcionamento de sistemas eletrônicos e problemas na partida. O capacitor é uma
evolução da garrafa de Leiden e é um dispositivo capaz de armazenar
carga, e, per se energia elétrica no campo resultante.
A garrafa de Leiden,
ou ainda, na sua forma portuguesa, de Leida, é uma “espécie primitiva de
capacitor, dispositivo capaz de armazenar energia elétrica”. Foi inventada
acidentalmente em 1746 por Pieter van Musschenbroek (1692-1761), professor da
Universidade de Leiden, Países Baixos, quem estudou suas propriedades e a
popularizou. Em 1739, ele retornou a Leiden, onde sucedeu Jacobus Wittichius (1677–1739)
como professor. Durante seus estudos na Universidade de Leiden, Van
Musschenbroek se interessou por
eletrostática. Naquela época, a energia elétrica transitória podia ser gerada
por máquinas de fricção, mas, todavia, não havia como armazená-la.
Musschenbroek e seu aluno Andreas Cunaeus descobriram que a energia poderia ser
armazenada, em um trabalho que também envolveu Jean-Nicolas-Sébastien Allamand
como colaborador. O aparelho era uma jarra de vidro cheia de água na qual uma
haste de latão havia sido colocada; e a energia armazenada só poderia ser
liberada completando um circuito externo entre a haste de latão e outro
condutor, originalmente uma mão, colocada em contato com a parte externa da
garrafa. Van Musschenbroek comunicou esta descoberta a René Réaumur em janeiro
de 1746, e foi o abade Jean Antoine Nollet, o tradutor da carta de
Musschenbroek do latim, quem chamou a invenção de Garrafa de Leiden. Logo
depois, descobriu-se que um cientista alemão, Ewald Georg von Kleist, havia
construído independentemente um dispositivo semelhante no final de 1745, pouco
antes de Musschenbroek. Ele fez uma contribuição significativa para o campo da
tribologia.
Jean-Antoine Nollet era
filho de humildes agricultores da região de Compiègne. Aluno brilhante do
colégio de Beauvais, foi para Paris para custear seus estudos teológicos e
tornou-se tutor de Taitbout, um funcionário da prefeitura. Foi lá que,
desenvolvendo interesse pela esmaltação de lâmpadas, conseguiu montar uma
pequena oficina. Sua destreza manual chamou a atenção do Conde de Clermont,
que, apaixonado por ciência, o admitiu em 1728 em sua Sociedade de Artes,
um grupo bastante incomum que buscava unir literatura, ciência e artes
mecânicas. Lá, conheceu, entre outros, um jovem prodígio da matemática chamado
Alexis Claude Clairaut, bem como La Condamine, os grandes relojoeiros Julien Le
Roy e Jean-Philippe Rameau, e finalmente Fontenelle. Ele estava entre os
convidados dos salões literários de Sceaux e das festas Grandes Nuits de Sceaux,
oferecidas pela Duquesa de Maine, no círculo dos Cavaleiros da Abelha, no
Château de Sceaux. De 1730 a 1732, ele esteve associado à pesquisa do
Superintendente du Fay, especialista em eletricidade e um dos dois maiores
eletricistas do início do século XVIII, juntamente com o inglês Stephen Gray. Foi
quando Dufay convidou Nollet para acompanhá-lo à Inglaterra, o que permitiu a
Nollet, como ele próprio afirmou, adquirir um conhecimento mais preciso e
seguro dos métodos, processos e instrumentos da ciência experimental. Em
Londres, ele conheceu John Theophilus Desaguliers, filho de um pastor que
emigrara de La Rochelle e se tornara demonstrador de Newton na Royal Society,
dirigindo os famosos experimentos sobre luz e cor. Foi um encontro
surpreendente, segundo Jean Torlais, pois os dois homens dialeticamente eram
tão diferentes quanto possível. Um era alto, o outro largo e corpulento. Um era
abade, o outro pastor. Um inteiramente devotado ao trono e ao altar. O outro
tinha razões consideráveis para ressentir-se deles. Um era cartesiano, o
outro newtoniano.
Eles não tinham nada em comum, exceto suas origens difíceis e a paixão que compartilhavam pela física experimental. Nollet desmontou máquinas e pôs sua curiosidade em prática. Imediatamente percebeu as melhorias a serem feitas e as desvantagens a serem evitadas. Desaguliers já possuía vasta experiência nesse campo de estudo totalmente novo. Nollet se beneficiou disso e ganhou reconhecimento em Londres, sendo o ápice de sua trajetória a eleição para a Royal Society. Entretanto, em 1733, foi-lhe confiada a direção do laboratório de Réaumur. Eram necessárias mãos habilidosas para executar os projetos de Réaumur, realizar as experiências, muitas vezes complexas, que ele concebia e construir os instrumentos necessários; Nollet cumpriu essa missão durante muitos anos, melhorando, nomeadamente, o termômetro. Foi ele quem concebeu a ideia de calibrar os tubos e escolheu o gelo em fusão como ponto de referência. Dois anos depois, Nollet partiu para a Holanda, onde conheceu Pieter van Musschenbroek, Willem Jacobs Gravesande e Jean Allamand. Os relacionamentos que estabeleceu com eles, mantidos por meio de correspondência regular, teriam um enorme impacto social no futuro da ciência experimental na França. O abade Nollet inaugurou um curso de física experimental em Paris em 1735, que obteve enorme sucesso e atraiu homens e mulheres de idades e origens. Deve-se dizer que, como escreveu Bernard Maitte, com razão que um público relativamente grande para a época recebeu “uma boa educação de um clero inteligente”.
Era necessário romper
com a rotina, fazer algo novo na pedagogia. Nollet publicou uma obra intitulada:
Programa ou Ideia Geral de um Curso de Física Experimental com um Catálogo
Abrangente de Instrumentos Utilizados em Experimentos. Ele havia refletido
bastante sobre esse projeto antes de empreendê-lo. Para ele, a física
experimental não era “uma vã coleção de raciocínios infundados ou sistemas
quiméricos”. As conjecturas eram relegadas a um papel secundário. Mas ele havia
lido muito e viajado bastante. Percebeu que um grande número de instrumentos
era necessário. Sabia também que os trabalhadores não estavam
acostumados a construí-los, justamente porque seu uso nas escolas era limitado.
Adquiri-los no exterior? Mas que fortuna seria suficiente? Obtê-los às custas
do Estado? Mas o abade teria a autoridade necessária para arriscar tal pedido?
O caminho mais simples e seguro era confiar em si mesmo. Mais uma vez
valendo-se de sua destreza natural, cultivada desde a infância, ele pegou “a
lima e o cinzel, treinou e instruiu trabalhadores e despertou a curiosidade de
vários nobres que colocaram suas criações em seus gabinetes”. Ele cobrou uma
espécie de contribuição voluntária. Ele chegou ao ponto de construir dois ou
três instrumentos do mesmo tipo, para que sobrasse um. Assim, com muito
trabalho e sem poupar esforços, o abade superou essas dificuldades iniciais e
pôde declarar com orgulho que em Paris havia agora um laboratório onde
tudo o que era necessário para experimentos de física estava sendo construído.
Mas será que ele teria a aprovação do público? Pois ele não queria transformar
esses experimentos em um mero espetáculo de entretenimento, como seus
antecessores haviam feito.
A física experimental,
em virtude de sua maior certeza, é mais interessante; mas não deve estar
sujeita a nenhuma filosofia. Nollet declara claramente sua posição: ele não
quer ser escravo da autoridade, fingir ser newtoniano em Paris e cartesiano em
Londres. Não, ele ensina uma física baseada unicamente em fatos suficientemente
observados e solidamente estabelecidos. Ele rejeita sistematicamente questões
metafísicas. Seu método consiste em selecionar, de cada assunto, o que há de
novo, o que é mais passível de demonstração por meio da experimentação,
apresentando então o estado atual da questão e relacionando-a a tudo o que
possa ser conectado a ela nas artes e nas máquinas. Assim, os princípios
abstratos da ciência são melhor assimilados porque são intercalados com
experimentos. Nollet, cuja destreza manual é prodigiosa, tem o hábito de
trabalhar enquanto fala, e até mesmo de usar a exposição de fatos mais do que
palavras, esforçando-se para usar álgebra e geometria o mínimo possível. A Real
Academia de Ciências propôs ao rei a nomeação do Abade Nollet, então com 39
anos, como mecânico assistente no lugar de Buffon, que se tornara botânico
assistente. Ele foi nomeado para o cargo em 27 de abril de 1739. Em seguida,
foi convocado à corte de Turim para proferir uma palestra sobre física
experimental. Em 1741, a Academia de Bordéus, dirigida por Montesquieu
(1689-1755), decidiu adquirir um laboratório de física completo e pediu ao
Abade Nollet que supervisionasse primeiro a construção dos instrumentos e, em
seguida, numa série de palestras públicas, explicasse o seu funcionamento e,
através de demonstrações práticas, tornasse os princípios da física acessíveis
a amadores de todas as formações.
Bordéus estava na
vanguarda do progresso, e este curso de física experimental parece ter sido um
dos primeiros do gênero realizado nas províncias. Ipso facto, em 21 de
junho de 1742 Nollet é nomeado mecânico associado da Real Academia de Ciências.
As oito primeiras Lições de Física Experimental apareceram em 1743 em
dois volumes publicados por Durand e os quatro volumes seguintes tiveram sete
reimpressões. Elas constituem o desenvolvimento do programa. É neste livro que
ele parece ser o primeiro a associar trovão e eletricidade. De fato,
após a morte de Dufay, Nollet era o homem mais qualificado na França para
assumir a responsabilidade pela pesquisa sobre eletricidade; foi sob o impulso
do Abade Nollet, representando físicos franceses, alemães e ingleses, que o
ensino de física experimental assumiu um caráter verdadeiramente internacional,
com a Europa competindo com a América do Norte e a escola de Paris com a da
Filadélfia. Tendo tomado nota das observações de Maimbray em 1747, a primeira
experiência em eletrocultura, Nollet, que estudava a capilaridade,
decidiu estudar o “efeito da eletricidade na vegetação”. Nollet, que, além
disso, havia descoberto a osmose em 1748, entrou em conflito primeiro
com Thomas-François Dalibard e depois com Benjamin Franklin sobre a teoria
da eletricidade e, especialmente, a paternidade da descoberta da origem
elétrica dos raios. A palestra inaugural ocorre em 15 de maio de 1753. A inauguração da cátedra de física
experimental no Collège de Navarre marcou o triunfo dessa ciência.
No anfiteatro
construído especialmente para o novo curso, com capacidade para mais de
600 pessoas, Nollet definiu solenemente o objetivo da física, que era
compreender os fenômenos da natureza e mostrar suas causas; destacou a disciplina
que isso exigia, de aceitar apenas o óbvio; afirmou a necessidade de ser multilíngue,
pois a física havia se tornado internacional, mas propôs, demonstrou e comentou
em francês: dali em diante, os exercícios de física experimental seriam feitos
nesse idioma, e não mais em latim. Nollet não apenas transformou a física
experimental em “um prazer para amadores e um passatempo elegante”, mas o gosto
pela experimentação também se espalhou das academias para a universidade, e as
províncias não queriam mais ficar para trás da capital. Por volta de 1743,
jesuítas, padres oratorianos, padres da doutrina cristã e padres de São Lázaro
estabeleceram cursos de física em suas escolas. Nollet observa em seu prefácio
que a Universidade de Reims possuía uma coleção significativa de instrumentos;
que Montbéliard oferecia um curso complementar de física; Marselha tinha uma
sala de máquinas e um local para defesa de teses de física; e Bordéus tinha uma
escola de física.
Pont-à-Mousson, em 1759, Caen, em 1762, e
Draguignan, em 1765, teriam cada uma a cátedra de física experimental em
seus colégios. Cadernos de curso com diagramas de demonstrações experimentais
seriam vendidos na Sorbonne. Nollet, nomeado 10 de dezembro de 1757 como
mecânico pensionista, substituindo Réaumur na Academia de Ciências, que ele
presidirá em breve, a partir de 1758, ele assume o título e a função de mestre
de física dos Filhos da França, o que tem o efeito de estabelecer
definitivamente a física experimental na corte da França. A matemática também
passou a fazer parte do currículo das escolas de artilharia e da Escola Real de
Engenharia de Mézières, onde Nollet, um professor de prestígio, depois de ter
Lavoisier como aluno, teve Gaspard Monge como seu assistente de física e, mais
tarde, como seu sucessor. Assim, o século XVIII viu o nascimento de uma nova
figura, o ancestral do engenheiro moderno, um técnico que sabia aplicar a
matemática aos problemas de sua área e possuía uma formação científica que logo
estaria a serviço do Estado. A Revolução Francesa capitalizaria posteriormente
essa tendência, criando escolas onde a educação científica visava atender às
necessidades de uma estrutura econômica em processo de pré-industrialização: o
Conservatório Nacional de Artes e Ofícios, a Escola Central de Obras Públicas precursora
da École Polytechnique, o Collège de France antigo Colégio Real e o Museu
Nacional de História Natural antigo Jardim do Rei. O Abade Nollet publicou em
1770 L`Art des Expérience, ilustrado por Bradel, três volumes que
constituem sua última obra, na qual ele descreve com precisão e detalhes
meticulosos como fazer instrumentos.
Ele populariza o trabalho com madeira, metais e vidro, descrevendo as ferramentas necessárias, como usá-las e fornecendo métodos para preparar cores, vernizes e ornamentos. Com seu método admirável, que não deixa nada vago e não omite nenhuma operação que possa confundir o amador, ele é considerado um precursor da educação técnica no século XVIII, o século dos artesãos qualificados. Ele morreu em 24 de abril de 1770. Aos 70 anos, foi sucedido no Collège de Navarre por Mathurin Jacques Brisson, sobrinho da cunhada de Réaumur, para quem seria o demonstrador. Um excelente professor, Brisson também herdou os instrumentos de Nollet, que vendeu a Boulogne em 1792; o gabinete foi confiscado durante a Revolução e transportado em 1799 para o Conservatoire National des Arts et Métiers, onde ainda se encontra, ao lado do de Jacques Charles, outra parte da coleção de instrumentos de demonstração do Abade Nollet encontra-se nas coleções do Museu Stewart, em Montreal, Canadá. Jacques Charles foi, depois de Nollet, o mais prestigiado divulgador científico do final do século XVIII, com o cálculo intervindo com muito mais frequência nas experiências do que em meados do século: a famosa mesa de bilhar de mármore do “cidadão Charles” foi citada como modelo, um raro conjunto de peças notáveis que permitia ao seu proprietário propor problemas de mecânica e balística, os quais resolviam em conjunto.
Ele consiste em duas placas condutoras separadas por uma fina camada isolante dielétrica; na prática, finas folhas de metal são enroladas juntas, aumentando a área da superfície por unidade de volume e, portanto, a capacitância. A unidade de capacitância é o farad, nomeada em homenagem a Michael Faraday (1791-1867) e representada pelo símbolo F: um farad é a capacitância que desenvolve uma diferença de potencial de um volt quando armazena uma carga de um coulomb. Um capacitor conectado a uma fonte de tensão inicialmente gera uma corrente à medida que acumula carga; essa corrente, no entanto, diminui com o tempo à medida que o capacitor se carrega, eventualmente caindo a zero. Portanto, um capacitor não permite uma corrente em estado estacionário, mas sim a bloqueia. O indutor é um condutor, geralmente uma bobina de fio, que armazena energia em um campo magnético em resposta à corrente que o atravessa. Quando a corrente varia, o campo magnético também varia, induzindo uma tensão entre as extremidades do condutor. A tensão induzida é proporcional à taxa de variação da corrente no tempo. A constante de proporcionalidade é denominada indutância. A unidade de indutância henry em homenagem a Joseph Henry, contemporâneo de Faraday.
Um henry é a indutância que induzirá uma diferença de potencial de um volt se a corrente que o atravessa variar a uma taxa de um ampere por segundo. O comportamento do indutor é, em alguns aspectos, o inverso do comportamento do capacitor: ele permite a passagem livre de uma corrente constante, mas se opõe a uma corrente que varia rapidamente. A potência elétrica é a taxa na qual a energia elétrica é transferida por um circuito elétrico. A unidade de potência no Sistema Internacional de Unidades (SI) é o watt, que equivale a um joule por segundo. A potência elétrica, assim como a potência mecânica, é a taxa de realização de trabalho, medida em watts e representada pela letra P. O termo “potência em watts” é usado coloquialmente para se referir à potência elétrica em watts. A potência elétrica em watts produzida por uma corrente elétrica I, que consiste em uma carga de Q coulombs a cada t segundos, passando por uma diferença de potencial elétrico. Tensão elétrica (denotada por ∆V), também reconhecida como diferença de potencial (DDP), é a diferença de potencial elétrico entre dois pontos ou a diferença em energia potencial elétrica por unidade de carga elétrica entre dois pontos. Sua unidade de medida é o volt – homenagem ao físico italiano Alessandro Volta. A diferença de potencial é igual ao trabalho que deve ser feito, por unidade de carga contra um campo elétrico para se movimentar uma carga qualquer. Uma diferença de potencial pode representar tanto uma fonte de energia (força eletromotriz), quanto pode representar energia “perdida” ou armazenada (queda de tensão). Um voltímetro pode ser utilizado para se medir a DDP entre dois pontos em um sistema, sendo que um ponto referencial comum é a terra.
A tensão elétrica
pode ser causada por campos elétricos estáticos, por uma corrente elétrica sob
a ação de um campo magnético, por campo magnético variante ou uma combinação de
todos os três. O Volt é a unidade para potencial elétrico, tensão
elétrica, e força eletromotriz. O Volt é nomeado em honra do físico italiano
Alessandro Volta (1745–1827), que inventou a pilha voltaica, possivelmente a
primeira bateria química. Uma tensão comum para pilhas de lanterna é 1,5 volts.
Para baterias automotivas, uma tensão comum é 12 volts. A tensão elétrica
suprida por empresas de energia é de 110 a 120 na América do Norte, e de 220 a
240 na maior parte da Europa. Na maior parte do Brasil, é suprida uma tensão de
cerca de 220 volts, porém muitas famílias utilizam apenas uma fase de cerca de
127 volts. Por analogia, a tensão elétrica seria a “força” responsável pela
movimentação de elétrons. O potencial elétrico mede a força que uma carga
elétrica experimenta no seio de um campo elétrico, expressa pela lei de
Coulomb. Portanto a tensão é a tendência que uma carga tem de ir de um ponto
para o outro. Normalmente, toma-se um ponto que se considera de tensão=zero e
mede-se a tensão do resto dos pontos relativamente a este. A energia elétrica é
geralmente fornecida a empresas e residências pela indústria de energia
elétrica. A eletricidade é normalmente vendida por quilowatt-hora (3.6 MJ), que
é o produto da potência em quilowatts multiplicada pelo tempo de funcionamento
em horas. As concessionárias de energia elétrica medem o consumo de energia usando
medidores de energia elétrica, que registram o total de energia elétrica
fornecida a um cliente. Ao contrário dos combustíveis fósseis, a eletricidade é
uma forma de energia de baixa entropia e pode ser convertida em movimento ou em
muitas outras formas de energia com alta eficiência.
A eletrônica lida com circuitos elétricos que envolvem componentes elétricos ativos, como válvulas termiônicas, transistores, diodos, sensores e circuitos integrados, e tecnologias de interconexão passivas associadas. O comportamento não linear dos componentes ativos e sua capacidade de controlar o fluxo de elétrons possibilitam a comutação digital, e a eletrônica é amplamente utilizada no processamento de informações, telecomunicações e processamento de sinais. Tecnologias de interconexão, como placas de circuito impresso, tecnologia de encapsulamento eletrônico e outras formas variadas de infraestrutura de comunicação, complementam a funcionalidade do circuito e transformam os componentes em um sistema funcional completo. Atualmente, a maioria dos dispositivos eletrônicos utiliza componentes semicondutores para controlar o fluxo de elétrons. Os princípios subjacentes que explicam o funcionamento dos semicondutores são estudados na física do estado sólido, enquanto o projeto e a construção de circuitos eletrônicos para resolver problemas práticos fazem parte da engenharia eletrônica. Os dispositivos eletrônicos utilizam o transistor, talvez uma das invenções mais importantes do século XX, e um componente fundamental de todos os circuitos modernos. Um circuito integrado moderno pode conter bilhões de transistores miniaturizados em uma área de apenas alguns centímetros quadrados. O trabalho de Michael Faraday e André-Marie Ampère demonstrou que um campo magnético variável no tempo cria um campo elétrico, e um campo elétrico variável no tempo cria um campo magnético. Assim, quando qualquer um dos campos varia no tempo, um campo do outro tipo é sempre induzido. Essas variações constituem uma onda eletromagnética. As ondas eletromagnéticas foram analisadas teoricamente por James Clerk Maxwell em 1864. Maxwell desenvolveu um conjunto de equações que podiam descrever de forma inequívoca a inter-relação entre campo elétrico, campo magnético, carga elétrica e corrente elétrica. Ele pôde, além disso, provar que, no vácuo, tal onda viajaria à velocidade da luz, e que, portanto, a própria luz era uma forma de radiação eletromagnética.
As equações de Maxwell, que unificam luz, campos e carga, são um dos grandes marcos da física teórica. O trabalho de muitos pesquisadores possibilitou o uso da eletrônica para converter sinais em correntes oscilantes de alta frequência e, por meio de condutores com formato adequado, a eletricidade permite a transmissão e recepção desses sinais por meio de ondas de rádio a longas distâncias. Sol é a estrela central do Sistema Solar. Todos os outros corpos do Sistema Solar, como planetas, planetas anões, asteroides, cometas e poeira, bem como todos os satélites associados a estes corpos, giram ao seu redor. Responsável por 99,86% da massa do Sistema Solar, o Sol possui uma massa 332 900 vezes maior do que a da Terra, e um volume 1 300 000 vezes maior do que o do planeta. A distância da Terra ao Sol é de cerca de 150 milhões de km ou 1 unidade astronômica (UA). Esta distância varia ao longo do ano, de um mínimo de 147,1 milhões de km (0,9833 UA), no perélio (ou periélio), a um máximo de 152,1 milhões de km (1,017 UA), no afélio que ocorre em torno do dia 4 de julho. A luz solar demora aproximadamente 8 minutos e 18 segundos para chegar à Terra. Energia do Sol na forma de luz solar é armazenada em glicose por organismos vivos através da fotossíntese, processo do qual, direta ou indiretamente, dependem todos os seres vivos que habitam o planeta. A energia solar também é responsável pelos fenômenos meteorológicos e o clima na Terra. Como o Sol é uma esfera de plasma, e não é sólido, gira mais rápido em torno de si mesmo no seu equador do que em seus polos. Porém, devido à constante mudança do ponto de observação da Terra, na medida em que esta orbita em torno do Sol, a rotação aparente do Sol é de 28 dias. O efeito centrífugo da rotação é 18 milhões de vezes mais fraco que a gravidade na superfície do Sol no equador solar. Os efeitos causados no Sol pelas forças de maré dos planetas são ainda mais insignificantes. O Sol é uma estrela da população I, rico em elementos pesados. O sol pode ter se formado por ondas resultantes da explosão de uma ou mais supernovas.
Evidências incluem a abundância de metais pesados (tais como ouro e urânio) no Sistema Solar levando em conta a presença minoritária destes elementos nas estrelas de população II. A maior parte dos metais foram provavelmente produzidos por reações nucleares que ocorreram em uma supernova antiga, ou via transmutação nuclear via captura de nêutrons durante uma estrela de grande massa de segunda geração. O Sol não possui uma superfície definida como planetas rochosos possuem, e, nas partes exteriores, a densidade dos gases cai aproximadamente exponencialmente à medida que se vai afastando do centro. Mesmo assim, seu interior é bem definido. O raio do Sol é medido do centro solar até o limite da fotosfera. Esta última é simplesmente uma camada acima do qual gases são frios ou emissores pouco densos demais para radiar luz em quantidades significativas, sendo, portanto, a superfície mais facilmente identificável a olho nu. O interior solar possui três regiões diferentes: o núcleo, onde se produzem as reações nucleares que transformam a massa em energia através da fusão nuclear, a zona radiativa e a zona de convecção. O interior do Sol não é diretamente observável, já que a radiação é completamente absorvida e reemitida pelo plasma do interior solar, e o Sol em si mesmo é opaco à radiação eletromagnética.
Porém, da mesma maneira que a sismologia utiliza ondas geradas por terremotos para revelar o interior da Terra, a heliosismologia utiliza ondas de pressão (infravermelho) atravessando o interior do Sol para medir e visualizar o interior da estrutura solar. Modelos de computador hic et nunc também são utilizados como instrumentos teóricos para investigar camadas mais profundas do Sol. No primeiro caso, o interior da Terra atinge temperaturas de aproximadamente 6 000 °C. O calor interno do planeta foi gerado inicialmente durante sua formação, e calor adicional é constantemente gerado pelo decaimento de elementos radioativos como urânio, tório e potássio. O fluxo de calor do interior para a superfície é pequeno se comparado à energia recebida pelo Sol: a razão é de 1/30000. Também chamado de Nife, Centrosfera ou Barisfera e, em planetas como a Terra, dada sua constituição, pode ainda receber o nome de Metalosfera. A massa específica média da Terra é de 5,54 toneladas por metro cúbico, fazendo dela o planeta mais denso no Sistema Solar. Uma vez que a massa específica do material superficial da Terra é apenas cerca de 3 toneladas por metro cúbico, deve-se concluir que materiais mais densos existem nas camadas internas da Terra devem ter uma densidade de cerca de 8 toneladas por metro cúbico. Em seus primeiros momentos de existência, a cerca de 4,5 bilhões de anos, a Terra era formada por materiais líquidos ou pastosos, e devido à ação da gravidade os objetos muito densos foram sendo empurrados para o interior do planeta: o processo é conhecido como diferenciação planetária, enquanto que materiais menos densos foram trazidos para a superfície.
Como resultado, o
núcleo é composto em grande parte por ferro (80%), e de alguma quantidade de
níquel e silício. Outros elementos, como o chumbo e o urânio, são muitos raros
para serem considerados, ou tendem a se ligar a elementos mais leves,
permanecendo então na crosta. O núcleo é dividido em duas partes: o núcleo
sólido, interno e com raio de cerca de 1.250 km, e o núcleo líquido, que
envolve o primeiro. O núcleo sólido é composto, segundo se acredita,
primariamente por ferro e um pouco de níquel. Alguns argumentam que o núcleo
interno pode estar na forma de um único cristal de ferro. O núcleo líquido deve
ser composto de ferro líquido e níquel líquido, considerando quem a combinação
é chamada NiFe, o nome dado ao núcleo do planeta Terra. Também é chamada de
núcleo interno sólido. Partindo da parte mais externa da Terra, encontramos a
crosta continental, o manto superior, o manto inferior, o núcleo externo
líquido e, finalmente, a NiFe. com traços de outros elementos. Estima-se que realmente
seja líquido, pois não tem capacidade de transmitir as ondas sísmicas. A
convecção desse núcleo líquido, associada a agitação causada pelo movimento de
rotação da Terra, seria responsável por fazer aparecer o campo magnético
terrestre, através de um processo conhecido como teoria do dínamo. O
núcleo sólido tem temperaturas muito elevadas para manter um campo,
mas provavelmente estabiliza o campo magnético gerado pelo núcleo líquido. Evidências
recentes sugerem que o núcleo interno da Terra pode girar mais rápido do
que o restante do planeta, a cerca de 2 graus por ano.
No segundo caso, a
geração de energia elétrica é uma atividade humana básica já que está
diretamente relacionada com os requerimentos primários da humanidade. Todas as
formas de utilização das fontes de energia, tanto as convencionais como as
denominadas alternativas ou não convencionais, agridem em maior ou menor medida
o ambiente. Uma torre de transmissão é uma estrutura metálica em forma de torre
que sustenta uma série de cabos através dos quais é transportada a energia
elétrica. Existem quatro grandes categorias para torres de transmissão:
suspensão, terminal, tensão e transposição. Algumas torres de transmissão
combinam estas funções básicas. Torres de transmissão e suas linhas elétricas
são muitas vezes consideradas uma forma de poluição visual. Métodos para
reduzir o efeito visual incluem fiação subterrânea. A forma mais usual de se
medir o desempenho de uma linha de transmissão é a frequência e a duração de
suas interrupções; sendo o fator de condicionamento do isolamento de linhas de
até 345kv, a incidência de descargas atmosféricas no Brasil, porém este limite
se estende até 500kv, devido a elevada resistividade do solo. É comum buscar
minimizar os efeitos das descargas atmosféricas com cabos para-raios, que ficam
conectados aos aterramentos das torres constituídos de cabos contrapeso. Tem
sido utilizado além dos cabos para-raios, também dispositivos para-raios, numa
tentativa de melhorar a performance.
Bibliografia Geral Consultada.
Nenhum comentário:
Postar um comentário