Total de visualizações de página

quarta-feira, 18 de maio de 2011

dragom balll

Dragon Ball foi um dos animes de maior sucesso em todo o mundo. No Brasil, não foi diferente. Seguindo o rastro deixado pelos Cavaleiros do Zodíaco, Goku e companhia foram exibidos ao longo de vários anos, em diversas emissoras diferentes. A aventura acontece ao longo de mais de 400 episódios, divididos em três fases bastante distintas.
Enquanto a primeira fase intitulada apenas como Dragon Ball era recheada de humor seguindo as aventuras de Goku quando criança, a fase seguinte, Dragon Ball Z (DBZ) deu o tom dos episódios seguintes, trazendo mais ação e aventura. Dragon Ball GT (DBGT), a última fase, retoma um pouco a comédia deixada de lado durante a saga anterior, embora a história continuasse focada nos combates.

Kame-Hame-Ha!!!!

São tantas histórias e personagens que seria difícil falar sobre tudo em poucas linhas, por isso mesmo deixaremos que este jogo fale por si. DragonBall Sagas é uma game de luta que utiliza a famosa plataforma Mugen, colocando os principais personagens das três grandes sagas num torneio capaz de mudar a geografia do planeta. São tantos personagens que você ficará indeciso na hora de escolher seu favorito. Na dúvida, escolha todos e parta para o combate. O game, foi criado por fãs, por isso mesmo é totalmente gratuito, então apenas clique no botão de download logo abaixo e aguarde pacientimente, pois DragonBall Sagas possui incríveis 250 MB.
Além da quantidade absurda de lutadores, DragonBall Sagas conta ainda com músicas tiradas diretamente do desenho. Outro ponto que deixará os fãs da série extasiados são motes (frases) ditas por eles antes de cada combate, retirados diretamente da dublagem brasileira, será possível ouvir Vegeta xingando os adversários, Piccolo esnobando o oponente e Goku fazendo macacadas (percebeu o trocadilho?).
o video podre

dragonball af capitulo(1)



quarta-feira, 11 de maio de 2011

Aceleração média
Quando um movimento apresenta variação da sua velocidade, ao longo do tempo, o movimento é um movimento variado - apresenta aceleração.
Os movimentos acelerados apresentam um aumento da velocidade e os retardados uma diminuição da velocidade.
A aceleração é uma grandeza que indica como a velocidade de um corpo varia ao longo do tempo.
A aceleração média, , é igual a:

em que é a variação da velocidade no intervalo de tempo Dt.
A aceleração é uma grandeza vectorial, que tem a mesma direcção do vector velocidade, . No caso de um movimento acelerado os vectores aceleração, , e velocidade, , têm o mesmo sentido. Num movimento retardado (aceleração negativa) o sentidos dos vectores aceleração e velocidade são contrários.
A unidade S.I. da aceleração é o m.s-2.
Aceleração instantâneaA aceleração instantânea é o valor da aceleração de um corpo num determinado instante.
Movimento rectilíneo uniformemente acelerado (m.r.u.a.)É um movimento em linha recta, com um valor de aceleração constante positivo (Gráfico 1). O valor da velocidade do corpo aumenta ao longo do tempo (Gráfico 2). A aceleração , tem a mesma direcção e o mesmo sentido da velocidade, .

Gráfico 1

Gráfico 2

Movimento rectilíneo uniformemente retardado (m.r.u.r.)
É um movimento em linha recta, com um valor de aceleração constante negativo (Gráfico 3). A velocidade diminui ao longo do tempo (Gráfico 4). A aceleração, , tem a mesma direcção e sentido inverso ao da velocidade, .

Gráfico 3

Gráfico 4
A Regra do Octeto estabelece que os átomos dos elementos ligam-se uns aos outros na tentativa de completar a sua camada de valência (última camada da eletrosfera). A denominação “regra do octeto” surgiu em razão da quantidade estabelecida de elétrons para a estabilidade de um elemento, ou seja, o átomo fica estável quando apresentar em sua camada de valência 8 elétrons.
Para atingir tal estabilidade sugerida pela Regra do Octeto, cada elemento precisa ganhar ou perder (compartilhar) elétrons nas ligações químicas, dessa forma eles adquirem oito elétrons na camada de valência. Exemplo:

Repare que os átomos de Oxigênio se ligam para atingirem a estabilidade sugerida pela Regra do Octeto. As diferentes cores de eletrosfera mostradas na figura nos ajudam a interpretar o seguinte:

1. Átomos de Oxigênio possuem seis elétrons na camada de valência (anel externo na figura).
2. Para se tornarem estáveis precisam contar com 8 elétrons, o que fazem então? Compartilham dois elétrons (indicado na junção dos dois anéis), formando uma molécula de gás Oxigênio (O2).

A justificativa para essa regra é que as moléculas ou íons tendem a ser mais estáveis quando a camada de elétrons externa de cada um dos seus átomos está preenchida com oito elétrons (configuração de um gás nobre). É por isso que os elementos tendem sempre a formar ligações na busca de tal estabilidade.

Existem exceções para a Regra do Octeto, alguns compostos não precisam ter oito elétrons na camada de valência para atingir a estabilidade, vejamos quais:

Berílio (Be)
Átomo capaz de formar compostos com duas ligações simples, sendo assim, estabiliza-se com apenas quatro elétrons na camada de valência.

Boro (B)
Forma substâncias moleculares com três ligações simples, ficando estável com seis elétrons na última camada.

Alumínio (Al)
É uma exceção à Regra do Octeto pelos mesmos motivos que o Boro, atinge a estabilidade com seis elétrons na camada de valência.

quaks,cordas. supercordas

Até o início da década de 1950, a descoberta de novas partículas elementares decorreu do estudo da colisão de raios cósmicos com a atmosfera e observadas em câmaras de névoas (p.e.: pósitron) ou emulsões nucleares (p.e.: múons e píons) (vide verbetes nesta série). Contudo, com a construção do acelerador cósmotron de 3 GeV e a instalação da câmara de bolhas, ambos no Brookhaven National Laboratory (BNL), entre 1952 e 1953, foi possível, na década de 1950 e no começo da década de 1960, produzir novas partículas assim como estudar suas interações. Desse modo, surgiu a necessidade de denominá-las e classificá-las. Assim, as partículas mais pesadas que os núcleons (prótons e nêutrons), receberam o nome de hyperons e as de massa intermediária entre os núcleons e os píons, foram chamadas de káons. Em 1958, o físico russo Lev Borisovich Okun (n.1929) denominou de hádrons as partículas que eram sensíveis à interação forte. Tais partículas foram divididas em dois grupos: bárions (núcleons e hyperons), que possuem spin fracionário (1/2) e mésons (píons e káons), de spin inteiro (0). É oportuno registrar que as partículas que eram produzidas por interação forte e decaiam por interação fraca, foram inicialmente denominadas de partículas estranhas (p.e.: káons); as que apresentavam uma vida média extremamente pequena ( ) foram denominadas de ressonâncias (“mesônicas” e “bariônicas”). Por seu lado, as partículas sensíveis à interação fraca foram denominadas de léptons (elétron, pósitron, múons e seus respectivos neutrinos). Registre-se que os nomes: bárion (que significa pesado, em grego) e lépton (que significa fino, em grego) foram cunhados pelo físico holandês norte-americano Abraham Pais (1918-2000). [Abraham Pais, A Tale of Two Continents: A Physicist´s Life in a Turbulent World (Princeton University Press, 1997)].    
                   A grande diversidade das partículas elementares, principalmente as hadrônicas, conhecidas até o início da década de 1960, levou os físicos a tentar estudar a interação forte entre elas. Por não existir uma Teoria Quântica de Campos, como a Eletrodinâmica Quântica (QED) (vide verbete nesta série), para estudar essa interação, a sua dinâmica foi estudada via a matriz de espalhamentomatriz S, que havia sido introduzida pelo físico alemão Werner Karl Heisenberg (1901-1976; PNF, 1932), em 1943. Vejamos como isso aconteceu. Em 1959 (Nuovo Cimento 14, p. 951), o físico italiano Túlio Eugene Regge (n.1931) observou que as partículas hadrônicas com maior momento angular total J (soma do momento angular orbital L e do spin S) eram mais pesadas, deduzindo, então, uma relação entre J e a massa (m) da partícula. De acordo com Regge, cada partícula deveria ter “estados” [caracterizados por um mesmo número bariônico (B), uma mesma hipercarga (Y) e um mesmo spin isotópico (I)], porém com massas aumentando à medida que S subia de duas unidades. Assim, ao traçar um diagrama , verificou que as partículas hadrônicas até então conhecidas ocupavam pontos nesse diagrama correspondentes a valores inteiros ou semi-inteiros de J. Esses pontos foram posteriormente denominados de pólos de Regge e as curvas que ligam os “estados” de uma mesma partícula foram denominadas de trajetórias de Regge. Embora algumas “trajetórias” de partículas conhecidas fossem traçadas, outras previstas não foram encontradas. Por sua vez, em 1961 (Physical Review Letters 7, p. 394), os físicos norte-americanos Geoffrey Foucar Chew (n.1924) e S. C. Frautschi mostraram que todos os pólos da matriz S, correspondente à interação forte entre partículas elementares, são pólos de Regge. Devido a inexistência de algumas “trajetórias de Regge”, conforme salientamos acima, em 1962 (Physical Review Letters 8, p. 41), Chew e Frautschi apresentaram um novo modelo para explicar os hádrons, conhecido como modelo “bootstrap” segundo o qual cada hádron é constituído de uma combinação de todos os outros e a comunicação entre eles é feita por interação forte. Dentro desse esquema “democrático” de classificação dos hádrons, nenhum deles é fundamental, sendo a diferença de massa entre eles determinada pela dinâmica da interação. As demais partículas que não se enquadravam nesse modelo, como as partículas sensíveis às interações fraca e eletromagnética (léptons e fótons) foram jocosamente denominadas de “aristocráticas”. Registre-se que a matriz S de Chew e Frautschi deveria satisfazer uma série de “axiomas”, dentre eles a unitariedade (essa propriedade ocorre quando a matriz Hermitiana é igual a sua inversa). [Michio Kaku, Introduction to Superstrings and M-Theory (Springer-Verlag, 1999)].
                   As dificuldades com o tipo de classificação das partículas hadrônicas, via matriz S, ensejaram que se tentasse uma outra via. Desta vez, a escolhida foi a Teoria de Grupos. Em um de nossos verbetes desta série, vimos que o físico norte-americano Murray Gell-Mann (n.1929; PNF, 1969) teve um grande sucesso com o seu modelo de octetos (1961), baseado no grupo SU(3). Ainda usando esse mesmo grupo, ele desenvolveu, em 1964 (Physics Letters 8, p. 214), o modelo de quarks, segundo o qual os hádrons eram constituídos de novas partículas, os quarks, da seguinte maneira: bárions constituídos de três quarks e os mésons de pares de quark-antiquark [para essa constituição, ver, por exemplo: José Maria Filardo Bassalo e Mauro Sérgio Dorsa Cattani, Teoria de Grupo e Algumas Aplicações em Física (EDUFPA, 2005)]. Ainda em 1964 (CERN Preprint 8182/Th 401; 8419/Th 412) e, independentemente, o físico russo-norte-americano George Zweig (n.1937) desenvolveu um modelo análogo a esse de Gell-Mann, mas, no entanto, deu o nome de aces a essas novas partículas. Note-se que tais partículas se apresentam em três “sabores” (“flavours”): up (u), down (d) e strange (s) e seus respectivos antiquarks: ; elas são fermiônicas, pois têm spin ½; e apresentam cargas fracionárias dadas,  respectivamente, por:  + 2 e/3, - 1e/3, - 1 e/3; - 2 e/3, + 1 e/3, - 1 e/3, onde e representa a carga do elétron. Registre-se que Gell-Mann deu o nome de quark para homenagear o escritor irlandês James Joyce (1882-1941), uma vez que em uma das estrofes do livro Finnegan´s Wake, escrito por Joyce em 1939, lê-se: Three quarks for Master Mark. É importante registrar que, nesse modelo, por exemplo, o próton é formado por dois quarks u e um d (p = uud) e o nêutron por dois quarks d e um u (n = udd). [Para maiores detalhes sobre as partículas elementares ver, por exemplo: Maria Cristina Batoni Abdalla, O Discreto Charme das Partículas Elementares (Editora UNESP, 2006)].       
                   Voltemos à matriz S. Ainda usando essa matriz, o físico italiano Gabrielle Veneziano, em 1968 (Nuovo Cimento A57, p. 190) e, independentemente, o físico japonês M. Suzuki (trabalho não publicado) descobriram que a função Beta de Euler satisfazia todos os “axiomas” da matriz S para a interação hadrônica, exceto a unitariedade. Eles estavam estudando a amplitude de espalhamento da interação de quatro partículas quando, acidentalmente, consultando um livro de matemática, observaram que essa amplitude poderia ser representada por aquela função. Observaram, também, que esse modelo matemático continha intrinsecamente as trajetórias de Regge. É oportuno registrar que, para contornar o problema da unitariedade não satisfeita pela função Beta de Euler, os físicos, os japoneses Keiji Kikkawa e B. Sakita, e o argentino Miguel Angel Virasoro (n.1940), em 1969 (Physical Review 184, p. 1701), propuseram que essa função fosse tratada como um termo da série de Born-Oppenheimer. A análise dessa descoberta de Veneziano-Suzuki levou ao conceito de corda (“string”), conforme veremos a seguir.
                   A idéia de corda é uma tentativa de generalizar o conceito de partícula puntiforme, como eram consideradas (e ainda são) todas as partículas elementares até então conhecidas, em virtude do problema da “singularidade” (infinito) que decorre de sua dimensão zero (ponto). Em qualquer instante, a configuração de uma corda é uma curva que pode ser aberta ou fechada e, quando a mesma se move através do espaço-tempo, ela varre uma superfície conhecida como folha-mundo (“world-sheet”). No entanto, sendo classicamente a ação relativista para uma partícula livre proporcional ao comprimento invariante Lorentziano de sua linha-mundo (“world-line”), em 1970, em trabalhos independentes, o físico japonês Yoichiro Nambu (n.1921) (Lectures at Copenhagen Summer Symposium), Holger B. Nielsen (15th International Conference Physics, Kiev) e Leonard Susskind (Nuovo Cimento A69, p. 457) e, em 1971 (Progress in Theoretical Physics 46, p. 1560), o físico japonês T. Goto propuseram que a ação relativista para uma corda deveria ser proporcional à área da “folha-mundo”. Assim, com a obtenção dessa ação, conhecida desde então como ação Nambu-Goto, iniciou-se o estudo da Teoria da Corda de Nambu-Goto. Antes de prosseguirmos com o desenvolvimento do estudo da Primeira Teoria de Cordas, vejamos como surgiu o nome “corda”.
                   Nos trabalhos independentes de Nambu, Nielsen e Susskind, eles demonstraram que se a força forte entre hádrons se devesse a um fio extremamente diminuto e fino, quase como um elástico e que as conectassem, então os processos quânticos observados por Veneziano poderiam ser descritos pela função Beta de Euler. É oportuno registrar que a primeira Revista Científica para a qual Susskind enviou seu trabalho, rejeitou o mesmo, sob o argumento de que a idéia proposta no artigo não apresentava nenhum interesse para os leitores. Quando Susskind recebeu essa informação, sua atitude foi por ele descrita assim: Fiquei perplexo. Caí da Cadeira. Fiquei deprimido. Fui para casa e tomei um porre, segundo nos conta o físico norte-americano Brian Greene (n.1963) no livro intitulado O Tecido do Cosmo: O Espaço, o tempo e a Textura da Realidade (Companhia das Letras, 2005).   
                   Ainda em 1971 (Physical Review Letters B34, p. 500), Claude Lovelace demonstrou que a Teoria de Cordas é descrita em um espaço de 26 dimensões (sendo uma temporal), que decorre da famosa equação: [1- (D – 2)/24] = 0. Embora essa Teoria conseguisse explicar os bósons, no entanto, apresentava uma dificuldade, qual seja, ela previa a existência de um hádron de massa nula e de spin 2, que não era encontrada na Natureza. Além do mais, explicava também a existência de táquions, partículas que têm velocidade maior do que a velocidade da luz no vácuo (c) e massa de repouso imaginária, e que, igualmente como o bóson de spin 2, não eram (e ainda não são) encontradas na Natureza. Observe-se que aquelas partículas foram previstas teoricamente em 1962 (American Journal of Physics 30, p. 718), por O. M. Bilaniuk, V. K. Deshpande e o físico indu-norte-americano Ennackel Chandy George Sudarshan (n.1931) e, tal previsão, foi ratificada pelo físico norte-americano Gerald Feinberg (1933-1992), em 1967 (Physical Review 159, p. 1089). [Gerald Feinberg, What is the World Made of? Atoms, Leptons, Quarks and other Tantalizing Particles (Anchor Books, 1978)].
                   Uma Segunda Teoria de Cordas, desta vez com 10 dimensões espaciais, foi formulada em 1971, em trabalhos distintos do físico francês Pierre Ramond (n.1943) (Physical Review D3, p. 2415), e dos físicos, o francês André Neveu (n.1946) e o norte-americano John Henry Schwarz (n.1941) (Nuclear Physics B31, p. 86). No trabalho de Ramond há a construção de uma Teoria de Cordas análoga à Equação de Dirac e, portanto, poderia explicar os férmions. Ainda nesse trabalho, Ramond generalizou a Álgebra de Virasoro [formulada por este físico em 1970 (Physical Review D1, p. 2933)], álgebra essa que se tornou uma das mais potentes ferramentas na construção da Teoria de Cordas. Por sua vez, no trabalho de Neveu e Schwarz, há o desenvolvimento de uma Teoria de Cordas para explicar os bósons contendo um campo fermiônico . Ainda nesse trabalho eles reencontraram a Super-Álgebra de Virasoro, obtida por Ramond. É oportuno notar que, em 1976, em trabalhos independentes dos físicos, o norte-americano Stanley Deser (n. 1931) e o italiano Bruno Zumino (Physics Letters B65, p. 369) e L. Brink, P. Di Vecchia e Paul Howe (Physics Letters B65, p. 471) apresentaram a seguinte ação S para uma corda:

,

onde ( ) é o tensor métrico da “folha-mundo” e seu respectivo módulo ,  (a = 1, 2, ) e T é a tensão na corda caracterizada pelo campo . Ainda em 1976 (Nuclear Physics B108, p. 409), os físicos, o francês Eugène Cremmer (n.1942) e o norte-americano Joël Scherk (1946-1980), estudaram a questão da compactificação das seis coordenadas espaciais extras da Segunda Teoria de Cordas.
                   Paralelamente ao estudo da Teoria de Cordas ocorrida na década de 1970 e visto acima, foi desenvolvida uma Teoria de Campos para os hádrons. Com efeito, em analogia com a QED, segundo a qual a interação eletromagnética entre cargas elétricas decorre da troca de fótons ( ) entre as mesmas (vide verbete nesta série), em 1973, foram realizados trabalhos independentes dos físicos norte-americanos David Jonathan Gross (n.1941; PNF, 2004) e  Frank Anthony Wilczek (n.1951; PNF, 2004) (Physical Review Letters 30, p. 1343), e Hugh David Politzer (n.1949; PNF, 2004) (Physical Review Letters 30, p. 1346), trabalhos esses nos quais formularam a Cromodinâmica Quântica (“Quantum Chromodynamics” – QCD), segundo a qual a interação forte entre os quarks seria conseqüência da troca entre si das partículas glúons (g) que são bosônicas (spin 1), não-massivas e em número de oito (8). Tais partículas seriam responsáveis pela cor do quark e, este novo número quântico, representaria na QCD o mesmo papel que a carga elétrica representa na QED. 
                   É oportuno registrar que a adoção da cor surgiu da seguinte dificuldade. Segundo o modelo de quarks, do qual falamos acima, três hádrons eram formados de três quarks iguais, a saber: . Porém, como os quarks são férmions, essas três partículas violariam o Princípio da Exclusão de Pauli (PEP), formulado em 1925. Assim, para contornar essa dificuldade o físico norte-americano Oscar Wallace Greenberg (n.1932), em 1964 (Physical Review Letters 13, p. 598), propôs que cada quark era caracterizado por uma das três cores primárias do espectro luminoso: vermelho, azul e verde. Por sua vez, os antiquarks seriam caracterizados pelas cores complementares desse mesmo espectro: cyan, amarelo e magenta. Desse modo, teríamos, por exemplo: . Essa proposta de Greenberg foi confirmada pelo físico koreano Moo-Young Han (n.1934) e por Nambu, em 1965 (Physical Review B139, p. 1006). Ainda segundo essa proposta, para que os quarks (férmions) se mantenham sempre juntos sem violar o PEP, deverão trocar glúons entre si a fim de mudarem de cor. Por exemplo, um quark vermelho para se transformar em azul, emite um glúon vermelho-amarelo, pois o amarelo é o antiazul. É oportuno registrar que enquanto na interação forte há troca de cor entre os quarks, na interação fraca há troca de sabor entre eles. Assim, por exemplo, no decaimento beta (vide verbete nesta série): , pois: .[Martinus Veltman, Facts and Mysteries in Elementary Particles (World Scientific, 2003)].
                   Com o desenvolvimento da QCD ocorrido em 1973, conforme vimos acima, a Teoria de Cordas foi um pouco esquecida até ser usada para estudar a unificação entre as interações físicas, em virtude da seguinte descoberta. Em 1974, Scherk e Schwarz (Nuclear Physics B81, p. 118; Physics Letters B52, p. 347) e, independentemente, o físico japonês Tamiaki Yoneya (Progress in Theoretical Physics 51, p. 1907), descobriram uma ligação entre a Teoria de Cordas e a gravitação e, com isso, sugeriram que cordas sem massa poderiam ser interpretadas como grávitons [partículas mediadoras da interação gravitacional, e até o momento (2007) ainda não descobertas] e fótons (partículas mediadoras da interação eletromagnética) e, portanto, uma Teoria de Cordas Sem Massa poderia unificar as interações físicas. Em 1975 (Review of Modern Physics 47, p. 1213), Scherk mostrou que férmions e bósons emergem igualmente de uma Teoria de Cordas, isto é, para cada férmion existe um companheiro bóson e vice-versa. Ora, como essa transformação é característica da supersimetria (SUSY), desenvolvida em 1971 (vide verbete nesta série), esta passou a ser incorporada na Teoria de Cordas. Usando essa incorporação, em 1978 (Physics Letters B76, p. 409), Cremmer, o físico francês Bernard Julia (n.1952) e Scherk construíram uma Teoria da Supergravidade, com onze (11) dimensões (sendo uma temporal), com as sete dimensões espaciais extras compactificadas segundo a Teoria de Kaluza-Klein (vide verbete nesta série).
                   Na década de 1980, novos trabalhos sobre a Teoria de Cordas foram realizados. Logo em 1981 (Physics Letters B103, p. 207; 211), o físico russo Aleksandr Morkowitsch Polyakov (n.1945) apresentou a forma funcional da ação da Teoria de Cordas. Em 1982 (Nuclear Physics B195, p. 481), o físico e matemático norte-americano Edward Witten (n.1951) também tratou da questão da compactificação das seis (6) coordenadas espaciais extras da Segunda Teoria de Cordas usando a Teoria de Kaluza-Klein. Por sua vez, o físico inglês Michael Boris Green (n.1946) e Schwarz, em 1982 (Nuclear Physics B198, pgs. 252; 441) e em 1984 (Physics Letters B136, p. 367), encontraram uma ação para a Teoria de Cordas onde a supersimetria é manifestada. Com isso, estava formalizada a Teoria de Supercordas. É importante destacar que, com essa teoria, a interação entre as supercordas decorre da troca de seus pedaços, e requer a existência de 496 partículas mediadoras, contra as 12 conhecidas ( ) características do Modelo Padrão, constituído da Eletrodinâmica Quântica (QED), da Teoria da Unificação Eletrofraca (TSW) e da Cromodinâmica Quântica (QCD). Ainda em 1984 (Physics Letters B149, p. 117), Green e Schwarz descobriram que modelos de supercordas baseados em grupos de ‘gauge’ do tipo SO (32), livres de anomalias (infinitos) e que, portanto, a gravitação poderia ser quantizada. Logo depois, em 1985, em trabalhos independentes realizados por Gross, Jeffrey A. Harvey, E. Martinec e R. Rohm (Physical Review Letters 54, p. 502) e por Philip Candelas, Gary Horowitz, Andrew Strominger e Witten (Nuclear Physics B258, p. 46), nos quais foram encontrados resultados análogos aos de Green e Schwarz usando, no entanto, o grupo (“heterótico”) de simetria . Registre-se que a metade dos componentes dessa simetria descreve cada coisa em nosso Universo, a outra metade é uma duplicata, o que conduz a idéia da existência de dois Universos com atuações mútuas por intermédio da gravidade. Note-se que, em seu trabalho, Candelas, Horowitz, Strominger e Witten mostraram que as dimensões espaciais extras não podem ser recurvadas de qualquer maneira, e sim, em uma classe específica de formas geométricas, a variedade Calabi-Yan. Esse nome foi dado para homenagear os matemáticos, o norte-americano Eugênio Calabi (n.1923) e o chinês Shing-Tung Yau (n.1949) que, respectivamente, em 1957 (Algebraic Geometry and Topology: A Symposium in Honor of S. Lefschetz, Princeton) e 1977 (Proceedings of the National Academy of Sciences U.S.A. 74, p. 1798) trabalharam com esse tipo de “espaço” geométrico. Registre-se que Calabi conjecturou a sua existência e Yau a demonstrou.      
                   Uma grande dificuldade da Teoria de Cordas desenvolvida nas décadas de 1970 e 1980, analisadas até aqui, era a de que não existia uma única versão dela e sim, cinco versões: Tipo I, Tipo IIA, Tipo IIB, Heterótica-O [SO(32)] e Heterótica E8 [ ]. Embora cada uma dessas cinco (5) versões requeira seis (6) dimensões espaciais adicionais, existiam diferenças significativas entre elas. Por exemplo, a do Tipo I envolve cordas abertas e fechadas, com a mesma quiralidade (simetria de paridade); a do Tipo IIA, envolve cordas fechadas com quiralidades opostas, e as do Tipo IIB, envolve cordas fechadas com a mesma quiralidade (Kaku, op. cit.). A dificuldade apontada acima começou a ser superada, na primavera de 1995, por ocasião da Strings´95 Conference ("Conferência Anual de Cordas"), quando Witten apresentou uma Segunda Teoria de Supercordas, logo desenvolvida por ele próprio [Nuclear Physics B433, p. 85 (1995)] e com outros físicos [Petr Horava e Witten, Nuclear Physics B460; B465, pgs. 506; 94 (1996); J. Polchinski e Witten, Nuclear Physics B460, p. 525 (1996)], além de outros físicos [Paul K. Townsend, Physics Letters B350, p. 184 (1995); C. M. Hull e Townsend, Nuclear Physics B438, p. 109 (1995)], conhecida como a Teoria M, e que procura unificar as cinco (5) versões referidas, em um espaço de onze (11) dimensões (sendo uma temporal). As sete (7) dimensões espaciais são recurvadas no “espaço” de Calabi-Yau e a elas são atribuídas outras propriedades, como massa e carga elétrica. Além do mais, as supercordas apresentam uma característica importante que é a constante de acoplamento. É ainda oportuno registrar que, na Teoria de Supercordas, as partículas elementares são conseqüência de sua vibração.
                   É oportuno notar que, com a conjectura da existência de cordas cósmicas (objetos muito finos, extremamente bem esticados e muitíssimo rico em massa, infinitamente longas ou formando laços fechados) apresentada pelo físico indiano Thomas Walter Bannerman Kibble (n.1932), em 1976 (Journal of Physics A9, p. 1387) e reiterada pelo astrofísico russo Alexander Vilenkin, em 1985 (Physics Reports 121, p. 263), foi considerada a hipótese de que tais cordas serviriam de sementes de cristalização para as Galáxias. Por outro lado, em 1992 (Astroparticle Physics 1, p. 129), X. Chi, C. Dahanayake, J. Wdowczyk e A. W. Wolfendale aventaram a hipótese de que os raios cósmicos altamente energéticos poderiam ser prótons resultante do colapso daquelas cordas.  
                   Na conclusão deste verbete, queremos chamar a atenção para o fato de que, conforme dissemos acima, a Teoria de Cordas não é única, pois existe um número enorme de versões, no entanto, podem ser unificadas por intermédio da chamada Teoria M. Além disso, não existem apenas cordas, mas também p-branas, que surgem quando há variação da constante de acoplamento da corda, e que são consideradas superfícies no espaço-tempo plano. Dessa forma a corda é 1-brana, uma membrana (a superfície geométrica conhecida) é uma 2-brana, o espaço é uma 3-brana e assim sucessivamente até p dimensões.
                   Por fim, queremos também registrar que a Teoria de Supercordas está ligada a um dos grandes problemas da Física atual, qual seja, a gravidade quântica (unificação das Teorias Quântica e da Relatividade Geral). Vejamos de que maneira. Esta quantização da gravidade tem sido tentada por três caminhos, segundo nos conta o físico norte-americano Lee Smolin (n.1955) em seu livro intitulado Três Caminhos para a Gravidade Quântica (Rocco, 2002). O primeiro caminho é o da Teoria Quântica e o segundo, o da Teoria da Relatividade Geral. O primeiro gerou a Teoria das Supercordas, enquanto o segundo produziu a chamada Teoria da Gravidade Quântica com Laços, cujos primeiros trabalhos foram realizados pelo próprio Smolin. Por fim, a terceira via, considera que aquelas duas teorias são incompletas e defeituosas, e busca princípios fundamentais completos e sem anomalias. Aliás, é oportuno notar que foi Witten quem afirmou o seguinte: A Teoria das Cordas é uma parte da Física do Século 21 que caiu por acaso no Século 20. [Brian Greene, O Universo Elegante: Supercordas, Dimensões Ocultas e a Busca da Teoria Definitiva (Companhia das Letras, 2001).]
                   Para maiores detalhes sobre o que foi discutido neste verbete, ver os seguintes textos: Abdalla, op. cit.; Feinberg, op. cit.; Greene (2001, 2005), op. cit.; Kaku, op. cit.; Pais, op. cit.; Smolin, op. cit.; Veltman, op. cit.; Michael Boris Green, John Henry Schwarz and Edward Witten, Superstrings Theory: Volumes 1 and 2 (Cambridge University Press, 1987); Paul Charles William Davies and Julien Russel Brown (Editors), Superstrings: A Theory of Everything? (Cambridge University Press, 1989); John D. Barrow, Teorias de Tudo: A Busca da Explicação Final (Jorge Zahar, 1994); Steven Weinberg, Sonhos de uma Teoria Final: A Busca das Leis Fundamentais da Natureza (Rocco, 1996); e Stephen William Hawking, O Universo numa Casca de Noz (Mandarim, 2001). 
GUT – Teoria da
Grande Unificação


                        GUT - Teoria da Grande Unificação (Grand Unified Theory), ou a Teoria do Tudo (TOE – Theory Of  Everything):


                        É uma teoria que busca aprofundar o entendimento da origem do universo, de maneira a analisar sua origem sobre a perspectiva clássica, relativística e quântica.
                        Essa teoria sobre todas as coisas busca juntar de alguma forma as quatro forças de que temos conhecimento, a saber: a força gravitacional (que ganha força em enormes estruturas), a força eletromagnética (responsável pela formação dos átomos e de moléculas), a força nuclear forte (responsável pela ligação dos quarks no interior dos hadrons, e também pela coesão dos prótons e nêutrons), e por último a força nuclear fraca (aquela que corresponde a emissão de radioatividade por um elemento químico instável, onde o núcleo decai, emitindo partículas). As quatro são descritas por teorias concebidas separadamente.
                        A pergunta que ronda a mente de todos os diretamente envolvidos com a física é, seria possível uma teoria tal que com ela fossemos capazes de descrever quaisquer dessas forças de uma maneira simultânea e unívoca. Quais seriam os frutos dessa teoria? Com ela conseguiríamos descrever com mais exatidão nosso universo, ou ainda, será que seríamos capazes de ir mais longe na busca da nossa origem?


A GUT E O MODELO PADRÃO


                        O modelo padrão diz respeito ao modelo das partículas elementares. Ainda é difícil agregar a gravidade a ele, pois desconhecemos, na prática, existência de uma partícula elementar responsável pela gravidade. Foi fundamentado por mais de 1000 pesquisadores, todo o universo é formado por 4 forças e 12 partículas.
                        Para estudar pequenas distâncias, temos que abandonar a mecânica clássica e partir para a quântica, que muito bem descreve os movimentos e interações sendo que os mesmos acontecem com uma velocidade muito pequena (não-relativística), o problema se dá quando é feita uma análise quântica de um sistema com partículas com velocidades relativísticas, os resultados são longe do esperado.
                         Para estudar as propriedades dessas partículas que formam a matéria se utiliza o método de colisão, ou melhor, espalhamento para ser mais específico. Existe uma quantidade denominada amplitude de espalhamento, que de forma geral é bastante complexa (insolúvel em algumas circunstâncias), entretanto uma vez conhecida a equação que descreve esta quantidade com ela somos capazes de descrever toda a colisão. A teoria da perturbação não consegue obter resultados finitos para a amplitude. Mas existe uma técnica denominada renormalização, que dá resultados finitos no emprego da teoria da perturbação na equação da amplitude de espalhamento. Essa técnica é empregada também quando se usa o Modelo Padrão, porém o resultado da equação diverge quando aplicada à gravitação. Existe uma incompatibilidade entre a quântica e a relatividade geral. A gravidade seria quantizável em distancias muitíssimo pequenas da ordem de dez na menos trinta e três centímetros, por isso costuma-se simplificar dizendo que ela não é quantizada. Isso traz uma incompletude para a teoria, fato que de forma prática observamos no estudo dos buracos negros, onde há uma necessidade de fazer com que a gravidade seja de alguma forma quantizada, ou seja, necessita da elaboração de uma teoria quântica da gravitação.
                        Qual é o problema com os buracos negros? Se imaginássemos uma partícula interagindo com o buraco negro e assumindo os efeitos quânticos, chegaríamos a conclusão de que o buraco negro emitiria energia em forma de radiação eletromagnética (“Radiação de Hawking”), tal como se fosse um corpo aquecido, transformando sua massa inteira em radiação, resultando somente em energia (térmica), aparece aqui o “paradoxo da informação”*.

Bóson de Higgs

Outras questões muito pertinentes, na verdade devem ser, qual a partícula que seria responsável por dar massa às partículas? E por que a massa atribuída a cada partícula elementar é distinta? Deveríamos assumir uma suposta 13ª partícula tal que ela “produziria” massa nas partículas. Essa partícula (ou suposta partícula) recebe o nome de Bóson de Higgs. Os cientistas hoje estão procurando descobrir a sua existência, que seria uma peça faltando no quebra-cabeças do universo. A descoberta do Bóson de Higgs seria a redenção do Modelo Padrão, enquanto a descoberta da sua inexistência derrubaria por terra o Modelo, que de fato é altamente dependente da existência dessas partículas, caso contrário, o universo não teria massa, matéria. Devido a ter tanta importância e talvez também por ser tão misteriosa, essa partícula é conhecida também como a “partícula de Deus”. Como a pouco foi mencionado, ainda essa partícula não foi detectada.
Por meio de experimentos em aceleradores de partículas estipulasse um valor limitado a não ser menor que 114.4GeV. Espera-se que com a conclusão do grande acelerador de partículas entre a Suíça e a França, possamos, de fato, observar ou não a existência do bóson de Higgs, de forma a ter resultados efetivos sobre tal. Observacionalmente também se constatou indiretamente que o bóson teria uma massa com um limite superior de 175GeV, dados de março de 2006. Especula-se que ao contrario da gravidade, onde o campo se amplifica com maior presença de massa, o bóson de Higgs seria como um campo, chamado “campo de Higgs” que é uniforme, essa uniformidade poderia ser (já que tem semelhanças) a energia escura. Ou seja o Bóson toma uma importância ainda maior que já tinha.
Abaixo pode ser vista uma concepção artística dos rastros deixados pelos prótons ao colidir no LHC para a possível observação do Bóson de Higgs.

Fig.1: Rastros de prótons no LHC

Um pouco sobre os Quarks
Quark, em física de partículas, é um dos dois elementos básicos que constituem a matéria (o outro é o lépton) e é a única das partículas que interage através de todas as quatro forças fundamentais. O quark é um férmion fundamental com carga hadrônica ou cor. Não se observaram ainda quarks em estado livre. Segundo o Modelo Padrão, os quarks ocorrem em seis tipos na natureza: "top", "bottom", "charm", "strange", "up" e "down". Os dois últimos formam os prótons e nêutrons, enquanto os quatro primeiros são formados em hádrons instáveis em aceleradores de partículas.
Os quarks têm uma unidade de carga hadrônica, que aparece em três tipos distintos (cores). O campo hadrônico é também chamado de força nuclear forte. A teoria que estuda a dinâmica de quarks e das cargas hadrônicas (mediadas pelos glúons) é chamada Cromodinâmica Quântica. Segundo a Cromodinâmica Quântica, os quarks podem formar estados ligados aos pares e às trincas. Os pares de quarks são chamados mésons e as trincas hádrons. O próton é uma trinca de quarks, formado por dois quarks "up" e um quark "down". O nêutron é outro estado ligado de três quarks, dois deles "down" e um "up".
Tabela 1: As doze partículas fundamentais
Partículas Elementares
Primeira Geração
Segunda Geração
Terceira Geração
Elétron
Muon
Tau
Neutrino
Neutrino do Muon
Neutrino do Tau
Quark para cima
Quark Charmoso
Quark Superior
Quark para baixo
Quark Estranho
Quark Inferior


Tabela 2: As doze anti-partículas
Anti-Partículas
Primeira Geração
Segunda Geração
Terceira Geração
Pósitron
Muon Positivo
Tauon Positivo
Elétron-antineutrino
Muon-antineutrino
Tauon-neutrino
Anti-quark para cima
Anti-quark Charmoso
Anti-quark Superior
Anti-quark para baixo
Anti-quark Estranho
Anti-quark Inferior



Fig. 2: Partículas fundamentais com sua respectiva massa.

Teoria das Cordas


O problema da incapacidade teórica de incluir a gravidade na teoria de tudo, mais alguns outros empecilhos levaram à construção de teorias alternativas capazes de aumentar o escopo do modelo padrão.
Uma delas foi a teoria das cordas. Ela foi idealizada da seguinte maneira. Uma corda relativística extensa de forma que a mesma possuía modos de vibração quantizados correspondidos pelas partículas elementares. Há dois tipos de cordas, fechadas e abertas. Na teoria das cordas fechadas, há uma partícula com todas as propriedades do gráviton** , ligando a teoria à gravitação. Quando fizermos com que a corda tenha uma dimensão muito pequena, pontual, teremos como correspondente a teoria da relatividade geral. Entretanto ela assume a existência de partículas com velocidade acima a da luz, violando princípios conhecidos, ou aceitos hoje em dia. Então para que isso não ocorra é necessário incluir uma teoria supersimétrica, que eliminará a existência dessa partícula.
Essa nova teoria ganha o nome de Teoria das Supercordas.

Teoria das Supercordas

A teoria das Supercordas é similar a teoria das cordas, entretanto ela assume uma supersimetria. Para resolver o problema dos infinitos na equação de espalhamento a teoria admite um tratamento perturbativo. De forma que qualquer amplitude de espalhamento de cordas pode ser expandida em série e truncada nos primeiros termos. As divergências nessa teoria se dão em regiões finitas de maneira a produzir um resultado finito para a equação, sem utilizar a renormalização. É a primeira teoria de gravitação quântica bem comportada. A teoria das supercordas só tem sentido em 10 dimensões, de maneira que as 4 que conhecemos estas sim surgiram nos primeiros instantes do universo e a partir daí se desenvolveram formando nosso universo, enquanto as outras 6 se “dobraram” (se enrolaram em si mesmas), permanecendo com um comprimento da ordem do comprimento de Panck. Existem 5 tipos de teorias de supercordas.: elas são conhecidas como: tipo I que descreve uma supercorda aberta; tipo IIa e IIb que descrevem supercordas fechadas; supercordas heteróticas SO(32) e  que correspondem a uma combinação de cordas abertas e cordas fechadas, onde SO(32) e  é a forma matemática para indicar a  simetria.
Existe ainda a Teoria M, que inclui não só cordas, como também membranas, e ela requer um universo de 11 dimensões. As membranas podem ter várias dimensões. Quando uma p-brana (membrana de dimensão p) vibra, cria modos de vibração correspondentes a certas partículas, sem poderem ser obtidos tais modos por cordas apenas.
Ainda mais longe existe a Teoria F, que inclui 10, 11 ou 12 dimensões.


Bibliografia


Wikipedia (www.wikipedia.com)
Ciência Hoje, volume 23 – Maio de 1998
Scientific American – Novembro de 2003
http://tena4.vub.ac.be/beyondstringtheory/index2.html- última atualização: Junho de 2006
String Theory and Quantum Gravity -Worlds Scientific- 1993


Tópicos Extras


Paradoxo da Informação: resulta do somatório de efeitos previsíveis em algumas teorias envolvendo as leis de um universo imaginário com as leis da relatividade geral e a mecânica quântica igualmente deduzidas. A informação originada dos buracos negros é efeito que tem sido um assunto controverso entre os cientistas, visto que a informação a qual os sentidos humanos são adaptados, dependem da energia eletromagnética, ou seja, da luz e como, os buracos negros atraem tanto a matéria como a energia da luz, não há como confirma-los ou saber da existência deles tanto no macro como no microcosmo. (Wikipedia)

Grávitons: É uma partícula elementar responsável pela força gravitacional. Essa força se dá sempre de maneira atrativa. Na verdade estas partículas são postulados, uma vez que a postulação de outras partículas em outros tipos de forças teve um resultado muito bem sucedido aos olhos da física quântica. Não tem comprovação experimental. Sua comprovação é ainda mais difícil devido à incrível fraqueza da força gravitacional. Isso está associado também à não descoberta de ondas gravitacionais, as mesmas poderiam nos levar à origem do universo, ou pelo menos, até uma data mais avançada que a radiaçao de fundo.


                        Bom, após essa pesquisa, creio que todos nós acabamos ficando com mais dúvidas do que certezas, mas perguntas do que respostas. Enfim, a física inteira se sente assim em respeito a esse problema. Dezenas de teorias tentam unificar as forças do universo e de uma vez por todas, de maneira unívoca, representar o universo tal como ele é. Entretanto nessa busca a ciência percebeu que certas leis, certas teorias, funcionam apenas para determinadas escalas da realidade, dando lugar a outras teorias para uma escala diferente. Encontra-se ai a dificuldade de encontrar uma teoria de tudo. Uma teoria de tudo deveria descrever de forma clara e distinta o universo não importando em qual escala o vemos. Entretanto, ainda continuaremos com um grande problema, ainda que tivessemos obtido essa teoria, explicaríamos de que maneira as coisas acontecem, mas o que continuaríamos sem resposta dá-se na seguinte pergunta: Por que as coisas acontecem DESSA forma? Um universo aparentemente insolúvel.
                        Essa é a maior empreitada da humanidade, sem nenhuma dúvida. Conseguir colher os frutos desse árduo trabalho seria algo como estar tirando o véu que cobre os mistérios do universo. Mas como nós sabemos a luz do conhecimento é forte, é tão forte a ponto de cegar qualquer um que ousar tirar esse véu de forma muito rápida, então, como calmamente a água bate nas rochas no litoral, lentamente moldando-as, lentamente o homem retirará este véu, sendo cada vez mais iluminado pela luz do conhecimento, assim esperamos, esse é o

domingo, 8 de maio de 2011

Os aceleradores de partículas são equipamentos que fornecem energia a feixes de partículas subatômicas eletricamente carregadas. Todos os aceleradores de partículas possibilitam a concentração de alta energia em pequeno volume e em posições arbitradas e controladas de forma precisa. Exemplos comuns de aceleradores de partículas existem nas televisões e geradores de raios-X, na produção de isótopos radioativos, na radioterapia do câncer, na radiografia de alta potência para uso industrial e na polimerização de plásticos.

Partículas estudadas

Além das partículas mais básicas, elétrons, prótons e nêutrons, outras também podem ser aceleradas. Por exemplo: existe a possibilidade de se acelerar partículas compostas; ou seja, partículas alfa, que são constituídas por dois prótons e dois nêutrons.

Tipos de aceleradores

Acelerador de partículas fabricado pela Philips-Eindhoven em 1937 para a pesquisa e desenvolvimento de Bombas A
O acelerador de partículas é um instrumento essencialmente construído utilizando uma fonte de partículas carregadas expostas a campos elétricos que as aceleram. Após a aceleração passam em seguida por um campo magnético que as desvia de suas trajetórias focalizando-as e controlando as direções(defletindo-as).
Todos os tipos de aceleradores independentemente de seu grau de avanço tecnológico obedecem aos mesmos princípios básicos. Devido à disposição geométrica dos campos eletromagnéticos responsáveis pela aceleração das partículas, basicamente são classificados em dois tipos: cíclicos e lineares.
Para que possam ocorrer às condições mais próximas do ideal, existe a necessidade de geração de vácuo de excelente qualidade na região de trânsito, evitando assim a dispersão destas pelas moléculas de gases que porventura estejam em sua trajetória.

Tubos de Raios Catódicos, TRC (mais conhecidos como CRT)

Um exemplo simples de acelerador de partículas, com todas as características citadas acima, são os tubos de raios catódicos de aparelhos de televisão. Estes dispositivos dispõem, numa de suas extremidades, um cátodo onde os elétrons ganham energia pelo aquecimento, escapando de seus átomos e ficando “livres”.
Cada elétron possui uma negativação individual. Ao se destacar do cátodo aquecido pelo filamento (Efeito Édison) estas partículas ficam expostas a um campo elétrico estabelecido pela aplicação de diferença de potencial entre aquele cátodo e o outro extremo, ou ânodo nas proximidades do ecrã (tela, no português brasileiro).
Uma vez emitidos, os elétrons são acelerados em direção a um foco entre um elétrodo chamado grade de controle e a um ânodo chamado de primeiro ânodo. A diferença de potencial aplicada à grade de controle determina a corrente eletrônica ou fluxo eletrônico, mais fluxo, mais brilho, menos fluxo, menos brilho, ou seja, controla o bombardeio de elétrons no ecrã.
A diferença de potencial do primeiro ânodo num tubo hipotético gira em torno de 250 V proporcionando assim uma primeira aceleração em sua direção, porém, não há a captura das partículas, pois estão sendo atraídas em direção a um potencial maior. A alta tensão está presente no segundo ânodo, esta gira em torno de + 12.000 V, que atrai os elétrons ainda mais, porém, estes passam em alta velocidade e ainda não são capturados devido a geometria tubular do elétrodo.
Acelerados, os elétrons que passaram pelo primeiro e segundo ânodos são agora manipulados eletronicamente num terceiro ânodo, o de ajuste de foco, isto é, aquele que “afina” ou "alarga" o diâmetro do feixe tal qual uma lente eletrônica cuja tensão gira em torno de + 300 V.
Observe-se que os ânodos são positivos, portanto, em cada atração os elétrons ganham mais energia e são mais acelerados. Para facilitar a passagem da corrente eletrônica e dificultar a captura dos elétrons, os ânodos são cilíndricos.
Após passar pelos três primeiros ânodos, os elétrons ainda são acelerados em direção a um quarto ânodo cuja diferença de potencial é em torno de + 12.000 V também acelerando-os ainda mais.
Após passarem pelos ânodos, os elétrons são então desviados de suas trajetórias por bobinas de deflexão horizontal e vertical(bobinas que geram campo magnético) cuja função é executar a “varredura” para atingir ao ecrã, e ao fazê-lo, ocorre a luminescência(o brilho ou luminescência, que tem cor pré definida conforme o ponto da tela, ocorre devido a mudança de estado energético dos átomos de fósforo depositados sob o ecrã).

Aceleradores lineares

Os aceleradores lineares fazem a partícula seguir uma trajetória reta onde a energia final obtida é proporcional à soma das diferenças de potencial geradas a partir dos mecanismos de aceleração dispostos ao longo da trajetória.
The w:CAST (axion observatory) experiment at w:CERN
Estes aceleradores são desenvolvidos de duas formas ou sistemas.
Este equipamento é provido de uma câmara de aceleração composta de um tubo de vácuo cilíndrico, tipo cavidade ressonante, ou guia de ondas que dirige o campo acelerador. Existe também um amplificador de potência de vários megawatts que excita as câmaras aceleradoras sucessivas e seqüenciais que forçam o deslocamento de uma frente de onda progressiva no guia de ondas, esta uma vez sincronizada pelos dispositivos aceleradores se desloca cada vez com maior velocidade até chegar ao fim do tubo. O que assegura a sincronização é a velocidade de fase da onda progressiva que acaba por se igualar à velocidade dos elétrons.
De todos os sistemas de aceleração de partículas, este é o mais antigo, porém só foi possível seu desenvolvimento integral a partir de meados da Segunda Guerra Mundial, esta espera ocorreu porque a teoria avançou mais rápido que a prática, e a tecnologia necessitou se desenvolver para a produção do equipamento. Não existia naquela época a técnica de conformação de ondas pelo uso da radiofreqüência em guias de onda. Tão logo ocorreu o desenvolvimento de dispositivos para tal durante a guerra foi possível a produção de reações nucleares.
Os prótons possuem massa em torno de duas mil vezes a dos elétrons, gerando uma barreira para sua excitação através de uma guia por ondas progressivas que tenham velocidade de fase igual à sua velocidade de avanço. Os prótons cuja energia é de quatro megavolts têm cerca de dez por cento da velocidade da luz, esta velocidade causa efeitos relativísticos. Estes impossibilitam o uso da técnica de guia de ondas da mesma forma que se usa para elétrons. Logo os aceleradores de ondas estacionárias são usados somente como injetores de prótons para aceleradores cíclicos de grande energia que possuem dispositivos para detectar e corrigir as distorções ocasionadas pelos efeitos relativísticos.
No Brasil, o desenvolvimento de aceleradores lineares se deve ao conhecimento e capacidade do Prof. Argus Moreira e sua equipe que projetou e construiu quatro máquinas no Centro Brasileiro de Pesquisas Fisicas, no Rio de Janeiro. Ainda em funcionamento, alguns desses aceleradores ajudam na formação de fisicos, engenheiros e técnicos e o desenvolvimento de novas técnicas cientificas.

Aceleradores cíclicos

Interior do túnel do LHC, no CERN.
Além dos aceleradores lineares existem os aceleradores cíclicos. Estes são construídos para promover a trajetória curvada das partículas pela ação dos campos magnéticos em espiral ou circular.
Este tipo de acelerador força a partícula a passar diversas vezes pelos sistemas de aceleração. A energia final das partículas depende da amplitude da diferença de potencial aplicada e do número de voltas que estas dão no dispositivo. Os tipos de aceleradores cíclicos mais utilizados são o cíclotron e o síncrotron.

Cíclotron

O cíclotron possui dois eletrodos com a forma de um D, estes são ocos e semicirculares. Sua montagem é numa câmara de vácuo entre os pólos de um eletromagneto. Os prótons, dêuterons (núcleo de um átomo de deutério, constituído por um próton e um nêutron) ou outros íons de maior massa começam a se locomover no interior dos eletrodos em forma de D. Neste momento é injetada uma diferença de potencial alternada de alta freqüência e potência nos eletrodos cuja freqüência é próxima à da circulação iônica, produzindo assim saltos de aumento de velocidade cada vez que estes passam de um eletrodo para o outro subseqüente. O que ocorre com as partículas neste momento, é uma trajetória em forma hipóide ou de semicírculos cujos raios são crescentes havendo então uma perda do foco do feixe. É necessário então um sistema de "focalização" para forçar os íons numa trajetória pré determinada, evitando assim a perda iônica por espiralamento. Causando uma re-polarização forçada através da variação radial negativa do campo magnético, haverá sobre a partícula uma pequena componente perpendicular ao plano do movimento de aceleração. Este efeito manterá a trajetória da partícula estável não permitindo a perda desta para fora do acelerador. Essa componente de correção é primordial, pois a trajetória total da partícula muitas vezes chega a centenas de metros e, conforme o caso, milhares.
A correção de trajetória pela focalização do feixe iônico somado ao efeito relativístico causa um aumento de massa nas partículas, pois é sabido que ao se aumentar sua energia acaba havendo o surgimento de uma diferença entre a freqüência de oscilação do potencial acelerador e a freqüência de circulação da partícula num segmento da sua trajetória. Este efeito gera um erro inflacionário, que aumenta a cada volta, limitando assim a energia máxima da partícula.

Sincrocíclotron

Para resolver este problema do erro exponencial, ou inflacionário, é necessário variar a freqüência aplicada aos eletrodos em forma de D, assim pode-se alterar a focalização iônica através da variação dos campos magnéticos sobre as partículas. Para tal, foi desenvolvido um equipamento chamado sincrocíclotron cuja construção foi possível porque existem órbitas estáveis onde a freqüência de revolução é igual à freqüência da diferença de potencial aplicada aos eletrodos.
Neste sistema, quando é diminuída a freqüência de oscilação, as partículas têm uma afinidade à sua órbita tendendo então em permanecer nesta, pois absorvem energia dos campos elétricos dos eletrodos. Ao se manter a estabilidade de sincronismo, as partículas acabam ganhando energia e tendem a se movimentar em órbitas cujos raios são crescentes até a órbita máxima permitida pelo projeto do eletromagneto. O sincrocíclotron praticamente não tem limites no número de revoluções necessárias para a obtenção de uma dada energia.

Síncrotrons

Detector ATLAS sendo montado em CERN
O desenvolvimento dos síncrotrons foi necessário para melhorar as soluções de aceleração de partículas cujas trajetórias são de raios fixos. Estes, da mesma forma que os cíclotrons, aceleram as partículas eletricamente e as confinam em campos magnéticos. A diferença é que o síncrotron utiliza o princípio da estabilidade de fase, mantendo desta forma o sincronismo entre campo elétrico aplicado e a freqüência de revolução da partícula.
O funcionamento se dá através de um campo magnético que causa a deflexão da partícula para uma órbita circular, e cuja intensidade do campo é modulada de forma cíclica, mantendo assim órbitas cujo raio é bastante estável e constante, apesar do ganho de energia e massa conseqüentemente. Uma vez que se usa o campo magnético para manter a órbita ao invés de acelerá-la, as linhas de campo magnético só são necessárias na região anular que é definida pela órbita. O campo é gerado por um eletromagneto anular.
Os síncrotrons de prótons são os aceleradores de partículas que atingem a maior energia chegando a 800 GeV, enquanto o síncrotron de elétrons alcança no máximo 12 GeV. A velocidade do próton só chega próxima da velocidade da luz no vácuo com uma energia acima de 1 GeV. O próton acelerado não perde energia por radiação, ou se perde é muito pouco. Os elétrons adquirem uma velocidade muito alta a energias relativamente baixas, e quando defletidos por campos magnéticos irradiam energia eletromagnética próxima do comprimento de onda dos raios X. Essa energia irradiada precisa ser reposta pelo sistema acelerador.

Câmaras de vácuo anulares

Existem outros equipamentos que são usados para acelerar partículas. Praticamente consistem num par de câmaras de vácuo em forma anular. O sistema é utilizado para armazenar feixes de partículas altamente energéticas e provocar colisões frontais entre eles. As altas energias obtidas a partir destas colisões permitem o estudo das interações entre as partículas fundamentais da matéria e da energia.