terça-feira, 30 de novembro de 2010

CONSPIRAÇÃO: Illuminati

As teorias conspiratórias envolvendo os Illuminati são teorias da conspiração que afirmam que a "sociedade filosófica" alemã dos Illuminati da Baviera, historicamente dissolvida em 1785, têm persistido na clandestinidade e prosseguem com um plano secreto para dominar o mundo. Essas teorias, cuja primeira referência remonta as obras de John Robison e Augustin Barruel, são confundidas com as teorias conspiratórias maçônicas que alegam que os Illuminati realizaram seus planos de infiltração nos diferentes governos, particularmente naqueles a partir de revoluções, e outras sociedades secretas, incluindo a Maçonaria.

Se os estudos históricos estimam que os Illuminati não sobreviveram para além do final do século XVIII, a denominação "Illuminati" é usada como um termo genérico no folclore das teorias da conspiração para sintetizar as teorias que identificam como conspiradores diversos grupos (maçons, judeus, sionistas, comunistas, várias sociedades secretas, organizações internacionais) e para designar, o sistema resultante, o núcleo dos "senhores do mundo".

História

A Ordem dos Illuminati era uma sociedade secreta Era do Iluminismo fundada em 1 de maio de 1776, em Ingolstadt (Baviera), por Adam Weishaupt, que foi o primeiro professor leigo de Direito Canónico na Universidade de Ingolstadt. O movimento consistiu de livres-pensadores, secularistas, liberais, republicanos e pró-feministas, recrutados nas lojas maçônicas da Alemanha, que visavam promover o perfeccionismo, através de escolas de mistério. Em 1785, a ordem foi infiltrada, quebrada e reprimida pelos agentes do governo de Carlos Teodoro, Eleitor da Baviera, em sua campanha para neutralizar a ameaça das sociedades secretas que nunca se tornam focos de conspirações para derrubar a monarquia da Baviera e da sua religião do Estado, o Catolicismo.

No final do século XVIII, os teóricos da conspiração reacionários, como o físico escocês John Robison e o sacerdote jesuíta francês Augustin Barruel, começaram a especular que os Illuminati sobreviveram à repressão e tornaram-se os cérebros por trás da Revolução Francesa e do Reino do Terror. Os Illuminati foram acusados de serem déspotas-esclarecidos que estavam tentando secretamente orquestrar uma revolução mundial, a fim de globalizar os ideais mais radicais do Iluminismo - o anti-clericalismo, a anti-monarquia e o anti-patriarcalismo. Durante o século XIX, o medo de uma conspiração dos Illuminati era uma preocupação real das classes dominantes europeias, e suas reações opressivas para este medo infundado provocou em 1848, as revoluções que muito procuravam impedir.

Durante o período entre-guerras do século XX, os propagandistas fascistas, como a historiadora revisionista britânica Nesta Webster e a socialite americana Edith Starr Miller, não só popularizaram o mito de uma conspiração dos Illuminati, mas alegaram que era uma sociedade secreta subversiva que servia as elites judaicas que supostamente apoiavam tanto o capitalismo financeiro e quanto o comunismo soviético para dividir e governar o mundo. O evangelista americano Gerald Burton Winrod e outros teóricos da conspiração dentro do movimento fundamentalista cristão nos Estados Unidos, que surgiram na década de 1910 como uma reação contra os princípios do Iluminismo, modernismo e liberalismo, tornaram-se o principal canal de divulgação de teorias da conspiração Illuminati. Os populistas de direita em seguida começaram a especular que algumas fraternidades colegiadas, os clubes de cavalheiros e as Usina de ideias da classe alta americana são organizações de fachada dos Illuminati, que acusam de conspirar para criar uma Nova Ordem Mundial através de um governo mundial.

Os céticos argumentam que as evidências sugerem que os Illuminati da Baviera não são nada mais do que uma nota curiosa histórica já que não há provas de que os Illuminati sobreviveram a sua supressão em 1785.

Supostos objetivos

Segundo as teorias, Weishaupt teria criado esta sociedade com o propósito de derrotar os governos e reinos do mundo e erradicar todas as religiões e crenças para governar as nações sob uma Nova Ordem Mundial, com base em um sistema internacionalista, criar uma moeda única e uma religião universal, onde de acordo com suas crenças, cada pessoa poderia atingir a perfeição.

No entanto, os propositos finais desta sociedade, eram conhecidos apenas por Weishaupt e seus seguidores mais próximos. Alguns autores, como Nesta Webster, e descrevem os seis objetivos de longo prazo dos Illuminati:

* Abolição da monarquia e todos os governos organizados sob o antigo regime.
* Abolição da propriedade privada dos meios de produção para os indivíduos e sociedades, com a consequente abolição das classes sociais.
* Abolição dos direitos de herança em qualquer caso.
* Destruição do conceito de patriotismo e nacionalismo e sua substituição por um governo mundial e de controle internacional.
* Abolição do conceito da família tradicional e clássica.
* Proibição de qualquer religião (especialmente a destruição da Igreja Católica Romana), estabelecendo um ateísmo oficial.

Outras atribuições ao nome Illuminati

Além dos "Illuminati Bavaros", muitas sociedades secretas de genero "ocultas" ou ligados a tradições esotéricas são por vezes associadas com o termo "Illuminati" porque são inspiradas por princípios semelhantes, tanto para a referência à descendência comum na identificação da "Luz", sinônimo de conhecimento (gnose) e a expansão da visão e do quadro perceptivo (ou clarividência).

Entre a Idade Média e a Idade Moderna vários grupos se auto-definem como "iluminados": os Irmãos do Livre Espírito, os Rosacruzes, os Alumbrados, os Illuminés, os Martinistas, o Palladium...

Uma vez que a partir do século XIX, especialmente no campo das teorias da conspiração, o termo "Illuminati" será geralmente associado com os seguidores de sociedades secretas de inspiração oculta e / ou globalista, independentemente do fato de eles serem realmente relacionados com a Ordem Illuminati: os Skull & Bones, Grupo Mesa Redonda, a Sociedade Fabiana, o Royal Institute of International Affairs, o Council on Foreign Relations, o Bohemian Club, o Clube de Bilderberg, a Comissão Trilateral, o Clube de Roma, a Fundação Carnegie, a Fundação Rockefeller, etc.

Principais teorias

Desde o final do século XVIII até meados do século XX, muitos teóricos de conspiração reacionários especulam que os Illuminati sobreviveram a sua supressão, por causa de sua suposta infiltração na Maçonaria, e se tornaram o cérebro por trás de grandes eventos históricos como a Revolução Americana, a Revolução Francesa, a Revolução Russa, as Guerras Mundiais e até os ataques de 11 de setembro de 2001; levando a cabo um plano secreto para subverter as monarquias da Europa e a religião Cristã visando a formação de uma Nova Ordem Mundial secular baseada na razão científica.

CONTINUE LENDO CLICANDO AQUI.

Fonte: Wikipedia

Vírus que infestam hardware são possíveis

Até 1998, a questão de vírus em hardware era muito clara para especialistas. A maioria acreditava que não era possível que uma praga digital danificasse o computador fisicamente de qualquer forma. Naquele ano, porém, surgiu o vírus Chernobyl, também conhecido como CIH e Spacefiller. Usando uma falha no design de placas-mãe, ele conseguia apagar o chip da BIOS. Com isso, o computador não podia mais ser ligado.

Não era um ataque físico direto. A BIOS é uma parte lógica da placa-mãe, mas consertar o chip poderia ser algo bem complicado, envolvendo, sim, um tratamento físico com a troca do chip da BIOS danificado para que ele pudesse ser reprogramado. O episódio deixou especialistas em dúvida. Houve quem dissesse que, como a BIOS é um componente lógico, não havia um dano ao hardware. Peter Szor e Eugene Kaspersky, dois respeitados especialistas, no entanto, escreveram em 2000 que o CIH foi “o primeiro vírus a danificar o hardware do sistema”.

Desde então, as placas-mãe não permitem mais que um ataque como o CIH ocorra, possuindo proteções contra programas que tentem alterar a memória da BIOS.

O debate sobre a possibilidade de vírus em hardware ou de danos permanentes a componentes físicos seguiu quieto até que, em 2006, John Heasman mostrou como infectar placas PCI de rede e vídeo. Heasman apostou que tais ataques, embora possíveis, não seriam comuns. Isso porque, segundo ele, usuários são descuidados e criminosos não precisam depender de ataques complexos para criar vírus com alto poder de camuflagem e destruição.

Usando a técnica de Heasman, um vírus consegue permanecer no computador mesmo depois da formatação ou da troca completa de um disco rígido. Qualquer novo dispositivo de armazenamento instalado pode ser imediatamente infectado.

Ano passado foi a vez da barreira das placas-mães serem quebradas. Pesquisadores de segurança argentinos demonstraram um vírus capaz de se alojar na BIOS, a mesma que deveria estar protegida depois dos ataques do CIH. Nesse ano, a existência de ataques reais desse tipo foi confirmada pela primeira vez em placas-mães da Dell que infectavam o computador se o sistema fosse Windows.

Na semana passada, mais um pesquisador demonstrou como colocar vírus em componentes de hardware. Guillaume Delugré mostrou que a capacidade de processamento e memória das placas de rede Broadcom NetExtreme são suficientes para alojar um rootkit, um código malicioso invisível capaz de grampear o tráfego da rede e controlar o sistema infectado remotamente.

Delugré, porém, atenta para um detalhe: a maioria das placas de rede usada em computadores domésticos não tem capacidade de realizar as mesmas tarefas. É aí que entra as dificuldades dos vírus em hardware.

Por que não veremos um ataque massivo ao hardware
Segurança é uma área difícil de prever, então pode ser que, em breve, sim, surja algum vírus que ataque o hardware ou algo semelhante, como foi o vírus CIH em 1998. Mas existem alguns fatores que precisam ser considerados antes, e que apontam para uma realidade em que ataques por meio de componentes de hardware permaneçam raros.

Um vírus programado para atacar um hardware precisa ser específico para o hardware que ele quer atacar. Isso significa que é difícil atacar todos os computadores da rede, que usam configurações muito diferentes. O ataque de Delugré, por exemplo, depende do uso de uma placa de rede específica que é mais usada em ambientes corporativos.

O conceito mais importante nesse caso é o de firmware. Firmware é o nome que se dá para um código que cuida dos aspectos mais fundamentais do hardware. Ele gerencia, por exemplo, a forma como um gravador de DVD irá realizar sua função, e um erro no firmware pode tornar o gravador incompatível com certas mídias. Em placas, firmwares são atualizados para funções diversas, desde a operação de ventoinhas ao suporte para novos processadores em placas-mãe (a BIOS da placa-mãe é um firmware). Até um controle remoto de TV precisa de um firmware para funcionar.

O vírus de hardware, portanto, normalmente opera no firmware. Como o firmware normalmente é específico para cada componente, também o vírus precisa ser. Se não for, ele não conseguirá modificar o firmware ou, se modificar, pode acabar danificando o computador – e um computador danificado não pode ser usado para acessar o banco e permitir o roubo da senha.

Pragas como o Stuxnet, que possuem objetivos específicos em sistemas específicos, podem se aproveitar de mecanismos no hardware para se alojar nos computadores alvo. O Stuxnet, aliás, não infectava hardware, mas infectava arquivos de projeto de uma linguagem usada pelos controladores industriais; ou seja, foi ainda mais específico em sua ação.

Mas é muito difícil que um vírus comece a tentar infectar todo tipo de firmware. Se o fizer, provavelmente estará cheio de erros, a não ser que desenvolvedores realmente habilidosos dediquem muito tempo para a tarefa. Nos casos de laboratório demonstrados até hoje, especialistas trabalharam com o hardware que quiseram e não precisaram se preocupar com a viabilidade do código em grande escala.

Quanto a danos no hardware, essa é uma questão ainda mais improvável, já que os vírus de hoje não buscam mais danificar o sistema. Eles precisam do computador funcionando para realizar suas tarefas maliciosas. Já no caso de ataques específicos a certas organizações ou estruturas, a viabilidade dessa tarefa já não parece tão impossível. De fato, o próprio Stuxnet tinha como objetivo interferir na operação de controles industriais para causar falhas.

Confira os programas gratuitos que rodam a partir de pendrives

Quanto mais usamos computadores, mais criamos preferências em uso de determinados programas. Muitas vezes, por razões relacionadas à qualidade dos aplicativos, comodidade ou por simples preferência, optamos em usar softwares quase que por fidelidade.

Mas nem sempre é possível contar com os programas preferidos quando usamos computadores de terceiros, seja computadores de Lan houses, bibliotecas ou mesmo equipamentos de amigos. Afinal, ninguém quer ficar instalando programas toda vez que for usar um computador que não seja o seu. Para quem não quer abrir mão do conforto em usar os aplicativos preferidos, a solução é apostar nos programas chamados de portáteis (portable). Já existe uma infinidade de aplicativos que podem ser executados a partir de um pendrive, cartão de memória, iPod, MP3 Player ou de um disco externo.

Nesta coluna, irei mostrar uma coletânea de aplicativos totalmente gratuitos que podem ser executados a partir de um dispositivo de armazenamento móvel. Através deles o seu pendrive se tornará um verdadeiro “canivete suíço” digital.

Confira uma relação dos principais programas disponíveis para a o sistema operacional Windows na versão portable.

Navegadores:
- Firefox, um dos melhores navegadores de internet disponíveis no mercado.
- Opera, navegador rápido e seguro que vem ganhando popularidade entre os usuários.
- Google Chrome, navegador desenvolvido pelo Google.


Antivírus:
- Avast, consagrado antivírus em sua versão portátil.

Editores de imagens:
- Gimp, um dos programas de edição de imagens mais populares.
- Inkscape, editor de imagens vetoriais.
- Blender, ferramenta para criação de imagens em 3D.
- PhotoScape, editor de imagens que oferece recursos para criação de Gifs animadas, captura de tela personalizada, renomeia arquivos de imagem em lote e muito mais.

Mensageiros Instantâneos:
- Windows Live Messenger, um dos mais usados mensageiros instantâneos.
- Pidgin, mensageiro instantâneo multiprotocolos. Suporta Google Talk, Yahoo! Messenger, MSN, ICQ.
- AMSN, clone do Windows Live Messenger.
- Skype, excelente programa para comunicação por voz.


Recuperação de arquivos:
- Recuva, programa que auxilia a recuperar arquivos deletados, mostrado na coluna de 23/11/2010.

Utilitários:
- CCleaner, remova facilmente arquivos temporários no Windows. Com ele você elimina histórico de sua navegação na internet.
- Mozilla Thunderbird, cliente de e-mail que suporta corretor com as novas regras de gramática.
- MV RegClean, ferramenta que permite reorganização do registro do Windows.
- Visual Similarity Duplicate Images Finder, programa que localiza imagens duplicadas no computador.

Games:
- Frets On Fire, game semelhante ao Guitar Hero
- AssaltCube, game em primeira pessoa semelhante ao Counter-Strike.

Áudio:
- Songbird, player de áudio repleto de recursos.
- Audacity, editor de áudio que oferece recursos profissionais.
- LyricToy , com ele é possível visualizar as letras das músicas que estiverem sendo reproduzidas no iTunes.

Vídeo:
- VLC Player, um dos players com maior suporte a codecs, também pode ser usado com servidor de streaming.
- Mplayer, outro excelente player que oferece amplo suporte a arquivos de vídeo.

Office:
- OpenOffice.org, suíte de escritório com recursos semelhantes aos do Microsoft Office.

Existem muitos outros programas na versão portátil. Inclusive é possível instalar sistemas operacionais Linux e o Microsoft Windows XP em versões modificadas dentro de um dispositivo de armazenamento móvel. Você pode conferir uma lista ainda maior de programas e fazer o download em http://www.pendriveapps.com. Se preferir, existe uma coletânea dos principais aplicativos portáteis num único aplicativo desenvolvido pela PortableApps.com, que pode ser baixado no site do Baixatudo.

Fonte: IDG Now!

Palmilha inteligente regula temperatura do pé

Uma "palmilha inteligente" capaz de regular a temperatura dos pés já está em fase de conclusão na Escola Politécnica (Poli) da USP.

"Em apenas um mês podemos construir um protótipo de laboratório", garante o professor Francisco Javier Ramirez Fernandez,

Ramirez-Fernandez e seu colega João Francisco Justo Filho são os idealizadores do Sistema de Conforto Térmico Plantar.

Segundo eles, a patente já foi depositada na Agência USP de Inovação e o próximo passo será o desenvolvimento do protótipo de laboratório.

Células de Peltier

O Sistema de Conforto Térmico Plantar funciona por intermédio de pequenos dispositivos eletrônicos, conhecidos como células Peltier, instalados na palmilha.

As células Peltier usadas no invento são pequenas placas quadradas, menores do que uma caixa de fósforos. Elas são feitas de um material termoelétrico, gerando uma diferença de temperatura por meio da aplicação de uma tensão elétrica.

Cerca de três dessas placas são suficientes para compor a palmilha inteligente. "Equipada com os dispositivos, a palmilha não terá mais do que 5 milímetros (mm) de espessura", garante o pesquisador.

Além disso, ele ressalta que a palmilha poderá se construída de material impermeável. Isso permitiria que ela fosse molhada, o que não alteraria seu funcionamento.

Funcionamento da palmilha inteligente

A partir do contato do calçado com o solo, o sistema mede a temperatura exterior e controla automaticamente o fluxo de calor do pé para fora, ou vice-versa.

O sistema que controla o funcionamento das células tem a capacidade de inverter a direção do fluxo de calor, por meio da mudança do sentido do fluxo da corrente de ativação das células Peltier.

"Se a temperatura do solo estiver fria, a inversão proporcionará a sensação de calor na região da planta do pé. E se a temperatura estiver quente no solo, ocorrerá o contrário", explica Ramirez-Fernandez.

Os pesquisadores já trabalham no projeto há cerca de um ano e o objetivo do sistema é regular de forma automática a temperatura de uma superfície em contato com o pé, proporcionando conforto térmico tanto em dias frios como quentes.

A palmilha será apropriada para climas extremos, como calor ou frio excessivo, podendo ser utilizada em qualquer sapato do tipo médio.

"Imaginemos alguém que tenha de sair de um ambiente interno aquecido e posteriormente caminhar na neve, por exemplo. Em vez de usar uma bota pesada, basta introduzir o sistema num sapato comum e caminhar. A 'palmilha inteligente' regulará a temperatura de forma a permitir não só a caminhada, como também evitar lesões provocadas pelo eventual esfriamento que acabam ocorrendo neste tipo de situação extrema", descreve.

Idosos e bebês

Apesar de ser voltada mais diretamente para situações mais extremas de clima, há possibilidade de outros usos.

"Mesmo aqui no Brasil, pessoas mais idosas sofrem muito com o nosso inverno, que nem chega a ser tão rigoroso como em países do hemisfério Norte", avalia o pesquisador. "Acreditamos que a inovação será importante para estas pessoas, afinal, a expectativa de vida do brasileiro está ficando cada vez maior."

O pesquisador lembra que bebês também estão mais sujeitos a sofrer com temperaturas extremas nos pés. Segundo ele, é perfeitamente possível que a tecnologia seja adaptada para os pequenos.

Ramirez-Fernandez informa que o projeto aguarda agora por indústrias que se interessem pela tecnologia e pela comercialização do produto. A partir daí, ele estima que em menos de um ano uma empresa poderia ter esse produto final pronto para ser utilizado. Nos laboratórios da Poli, o professor acredita que o protótipo deverá custar a partir de R$ 100,00 para ser elaborado na versão mais simples.

Resolvido o mistério das estrelas pulsantes

Ao descobrir a primeira estrela dupla, onde uma estrela variável pulsante, conhecida como cefeida, e outra estrela passam em frente uma da outra, uma equipe internacional de astrônomos desvendou um mistério de décadas.

Até agora, os astrônomos dispunham de duas previsões teóricas incompatíveis para a massa das cefeidas.

O alinhamento raro das órbitas das duas estrelas no sistema estelar duplo permitiu fazer uma medição da massa da cefeida com uma precisão sem precedentes.

O novo resultado mostra que a predição feita pela teoria da pulsação estelar está correta, enquanto a predição feita a partir da teoria de evolução estelar não está de acordo com as novas observações.

"Medimos a massa de uma estrela cefeida com uma precisão muito maior do que qualquer estimativa anterior. Este novo resultado permite-nos dizer imediatamente qual das duas teorias em competição utilizadas para prever a massas das cefeidas está correta," diz Grzegorz Pietrzynski, coordenador da equipe.

Cefeida e binário de eclipse

Infelizmente, e apesar da sua importância, as cefeidas ainda não são completamente compreendidas. As predições das massas que derivam da teoria das estrelas pulsantes são de 20 a 30% menores do que as predições feitas utilizando a teoria de evolução estelar. Esta discrepância é conhecida desde os anos 1960.

Para resolver este mistério, os astrônomos precisavam encontrar uma estrela dupla que contivesse uma cefeida e cuja órbita estivesse diretamente voltada para a Terra. Nestes casos, conhecidos como binários de eclipse, o brilho das duas estrelas diminui quando uma das componentes passa em frente da outra, e também quando passa por trás da outra estrela.

Os astrônomos conseguem determinar as massas das estrelas nesses pares com elevada precisão. Infelizmente, nem as estrelas cefeidas nem os binários de eclipse são fenômenos comuns, por isso a hipótese de encontrar tal par de objetos parecia muito pequena. Na realidade, não se conhece nenhum na Via Láctea.

Wolfgang Gieren, outro membro da equipe, continua: "Recentemente, encontramos efetivamente o sistema de estrela dupla pelo qual ansiávamos entre as estrelas da Grande Nuvem de Magalhães. Este sistema contém uma estrela variável cefeida que pulsa a cada 3,8 dias. A outra estrela é ligeiramente maior e mais fria, e as duas estrelas orbitam em torno uma da outra em 310 dias. A verdadeira natureza de binário deste objeto foi imediatamente confirmada assim que o observamos com o espectrógrafo HARPS, em La Silla."

Cefeidas

As estrelas variáveis clássicas cefeidas, normalmente conhecidas apenas por cefeidas, são estrelas instáveis muito maiores e muito mais brilhantes do que o Sol.

Elas expandem-se e contraem-se de forma regular, levando entre cerca de alguns dias até alguns meses para completar o ciclo.

O tempo que levam para tornar-se mais luminosas e depois menos luminosas é maior para as estrelas que são mais luminosas e mais curto para as que são menos luminosas.

Esta relação tão extraordinariamente precisa torna o estudo das cefeidas um dos métodos mais eficazes na medição de distâncias a galáxias próximas e a partir daí no mapeamento da escala de todo o Universo.

A relação período-luminosidade das cefeidas, descoberta por Henrietta Leavitt em 1908, foi usada por Edwin Hubble nas primeiras estimativas das distâncias ao que nós hoje sabemos serem galáxias - até então acreditava-se que o Universo era um único "conjunto" de estrelas e outros corpos celestes - veja mais em Como foi calculada a idade do Universo?.

As primeiras cefeidas variáveis foram descobertas no século XVIII e as mais brilhantes podem ser vistas facilmente a olho nu a variar de noite para noite.

O seu nome vem da estrela Delta Cefeida na constelação de Cefeu, que foi vista variar pela primeira vez por John Goodricke, na Inglaterra, em 1784. Curiosamente, Godricke foi também o primeiro a explicar as variações de brilho de outro tipo de estrela variável, os binários de eclipse.

Neste último caso, temos duas estrelas em órbita uma da outra passando em frente uma da outra durante parte das suas órbitas, o que faz com que o brilho total do par diminua.

O objeto raro agora estudado é ao mesmo tempo uma cefeida e um binário de eclipse. As cefeidas clássicas são estrelas de grande massa, diferentes de estrelas pulsantes similares de menor massa que não partilham a mesma história de evolução.

Massa das cefeidas

Os observadores mediram cuidadosamente as variações de brilho deste objeto raro, conhecido como OGLE-LMC-CEP0227, à medida que as duas estrelas orbitavam e passavam em frente uma da outra. Eles utilizaram o HARPS e outros espectrógrafos para medir os movimentos das estrelas em direção à Terra e quando se afastavam - tanto o movimento orbital das duas estrelas como o movimento de ida e volta da superfície da cefeida à medida que ela se expande e se contrai.

A partir deste conjunto de dados muito completo e detalhado os astrônomos determinaram o movimento orbital, os tamanhos e as massas das duas estrelas com enorme precisão - muito superior ao que tinha sido medido anteriormente para uma cefeida.

A massa da cefeida é agora conhecida com uma margem de erro de menos de 1% e está completamente de acordo com as predições feitas pela teoria das pulsações estelares. Em contraste, a maior massa prevista pela teoria de evolução estelar está errada de modo bastante significativo.

A estimativa muito melhor da massa é apenas um resultado deste trabalho, e a equipe espera encontrar outros exemplos destes pares de estrelas bastante úteis de modo a explorar melhor este método.

A equipe acredita também que, a partir destes sistemas binários, irá eventualmente conseguir determinar a distância da Grande Nuvem de Magalhães com uma margem de erro abaixo de 1%, o que significaria uma melhoria considerável da escala de distância cósmica.

Bomba cardíaca vai salvar vida de crianças com defeitos congênitos

Quando um bebê nasce com circulação univentricular, uma doença cardíaca congênita, o único caminho é a cirurgia - na verdade, no mínimo três cirurgias.

Ainda assim, a circulação univentricular é a principal causa de morte por defeitos de nascimento no primeiro ano de vida de uma criança.

Esses resultados negativos agora podem começar a ser revertidos, graças à criação de uma nova bomba cardíaca miniaturizada, que ajudará a manter as crianças vivas durante a cirurgia.

A "bomba impulsora viscosa", criada pela equipe do Dr. Steven Frankel, da Universidade Purdue, nos Estados Unidos, também poderá ser usada temporariamente em adultos que desenvolvam o problema.

Ventrículos

O coração humano tem duas bombas, ou ventrículos: uma impulsiona o sangue oxigenado pelo corpo, enquanto a outra, menos potente, leva o sangue desoxigenado para os pulmões.

Bebês nascidos com o defeito têm apenas um ventrículo funcional, mas o cirurgião francês François Fontan descobriu, mais de três décadas atrás, que as crianças poderiam sobreviver com um único ventrículo reestruturando a configuração dos vasos sanguíneos chamados de veia cava inferior e veia cava superior.

Os bebês devem passar por uma série de três cirurgias de coração aberto, ao longo de meses ou anos, porque elas não poderiam sobreviver ao choque de três cirurgias muito próximas.

Ainda assim, pelo menos 30 por cento dos bebês não sobrevive às cirurgias - o chamado procedimento de Fontan.

Bomba cardíaca

Mas os médicos descobriram que o uso de uma bomba cardíaca poderia permitir fazer todo o procedimento de Fontan em uma única cirurgia.

"Uma grande vantagem desta bomba é que ela é inserida através da pele, com um catéter, sem cirurgia de coração aberto," disse Frankel.

Os pesquisadores planejam implantar a nova bomba, que está em fase de protótipo, em um cruzamento de quatro vias, onde as veias cavas inferior e superior se encontram com as artérias pulmonares direita e esquerda.

Uma vez inserida com um cateter, a bomba poderá ser drasticamente expandida, assumindo um formato que se assemelha a dois cones unidos pela base. O dispositivo gira a cerca de 10.000 rotações por minuto, conectado por um fino cabo até um pequeno motor fora do corpo.

Humanos são capazes de prever o futuro, diz pesquisa

Em uma pesquisa que está provocando um debate realmente irado entre os cientistas, um grupo de pesquisadores chegou à conclusão de que eventos que ainda não aconteceram podem influenciar nosso comportamento.

Em outras palavras, é como se prevêssemos o futuro.

A precognição - o conhecimento do futuro ou a capacidade de prever eventos futuros - tem sido apregoada por parapsicólogos há décadas.

Mas agora a demonstração vem de um experimento feito por cientistas acadêmicos, não vinculados a qualquer seita, e está descrito em um artigo que foi aceito para publicação em um periódico científico reconhecido.

Sem erros

Mais do que ser aceito para publicação, os psicólogos mais céticos sobre o assunto, afirmaram ter lido o artigo e não encontrado qualquer falha.

"Minha opinião pessoal é que isto é ridículo e não pode ser verdade. Verificar a metodologia e o planejamento do experimento é a primeira linha de ataque. Mas, francamente, eu não consegui achar nenhum problema. Tudo parece estar na mais perfeita ordem," disse Joachim Krueger, da Universidade Brown, em entrevista à revista britânica New Scientist.

O artigo, que foi aceito pelo Journal of Personality and Social Psychology, é o resultado de um trabalho de oito anos feito por Daryl Bem, da Universidade Cornell, nos Estados Unidos, que afirma que só submeteu o trabalho para publicação depois de ter verificado cuidadosamente que não se tratava de uma casualidade estatística.

Ele descreve uma série de experimentos envolvendo mais de 1000 estudantes voluntários.

Experimentos de previsão do futuro

Na maioria dos testes, Bem usou fenômenos psicológicos bem estudados e simplesmente inverteu a sequência, para que o evento geralmente interpretado como causa ocorresse depois do comportamento testado, em vez de antes, como seria natural.

Em um experimento, os alunos viam uma lista de palavras, devendo lembrar-se de algumas delas. A seguir, era feito o teste de memória. Mais tarde, os mesmos estudantes digitaram palavras que foram selecionadas aleatoriamente a partir da mesma lista.

Estranhamente, os estudantes se lembraram melhor das palavras que eles ainda iriam digitar mais tarde.

Em outro estudo, Bem adaptou estudos sobre o priming, o efeito que uma palavra subliminarmente apresentada tem sobre a reação de uma pessoa a uma imagem. Por exemplo, se alguém vê rapidamente a palavra "feio", ela vai demorar mais tempo para decidir se a foto de um gatinho, ou algo semelhante, mostrada na sequência, é agradável ou não.

Ao fazer o experimento de trás para a frente, Bem descobriu que o efeito do priming parece funcionar tanto para a frente no tempo como para trás.

Futuro e passado

Segundo o cético Krueger - cético, em um sentido mais moderno, parece ser um termo aplicado a cientistas que não aceitam comprovações obtidas pela própria ciência - afirma que o uso de fenômenos psicológicos muito estudados foi "uma jogada de gênio", ao contrário dos parapsicólogos, que usam metodologias difíceis de serem aferidas.

O artigo de Bem tem sido mais destrinchado do que o próprio fenômeno que ele estudou. "Este artigo passou por uma série de revisões de alguns dos nossos comentadores mais confiáveis," disse Charles Judd, da Universidade do Colorado, do conselho editorial da revista Journal of Personality and Social Psychology.

Vários pesquisadores e comentadores não demoraram para lançar críticas ao pesquisador e à própria revista, por ter aceito o artigo. Mas todas as críticas se baseiam no "ceticismo" e, até agora, ninguém conseguiu demonstrar qualquer falha na pesquisa.

segunda-feira, 29 de novembro de 2010

É Notícia: Kennedy Alencar entrevista Agnelo Queiroz

Agnelo Queiroz, governador eleito do Distrito Federal, defende a criação de um novo imposto para financiar a saúde. "Sou a favor de uma contribuição que aumente e vincule os recursos para a área da saúde", diz o petista. Agnelo tem simpatia pela ideia de taxar as indústrias de bebidas e fumo para financiar o novo tributo. Indagado sobre a possibilidade de realizar uma gestão ética em aliança com ex-integrantes dos governos de Joaquim Roriz (PSC) e de José Roberto Arruda.







Fonte: RedeTV!

Superfóton: criada uma nova forma de luz

Físicos da Universidade de Bonn, na Alemanha, criaram uma forma totalmente nova de luz, algo que, até recentemente, era apontado pelos cientistas como sendo algo impossível de realizar.

Embora as implicações da realização ainda não tenham sido totalmente exploradas, a técnica poderá ser utilizada para criar fontes de luz parecidas com o laser que operam na faixa dos raios X - um laser de raios X.

Condensado de Bose-Einstein de fótons

Quem acompanha as pesquisas na fronteira da física, sobretudo na computação quântica, já está acostumado com termos como condensado de Bose-Einstein e átomos artificiais.

Para criar os átomos artificiais, os físicos aglomeram e resfriam átomos de rubídio até próximo do zero absoluto. Ao serem concentrados em número suficiente em um espaço suficientemente pequeno, o aglomerado de átomos passa a se comportar como se fosse um átomo único - uma superpartícula, ou um átomo artificial.

O que os cientistas fizeram agora foi um condensado de Bose-Einstein formado por fótons.

A maioria dos físicos afirmava que fazer um condensado de Bose-Einstein de fótons era impossível porque, ao serem resfriados, os fótons simplesmente desaparecem. Até então, parecia ser impossível concentrar e resfriar a luz ao mesmo tempo.

Mas os cientistas alemães derrubaram mais essa impossibilidade usando dois espelhos para aglomerar os fótons e uma camada de moléculas que "engolem" e "cospem" os fótons para resfriá-los.

Laser de raios X

Este superfóton, ou condensado de Bose-Einstein fotônico, é uma forma completamente nova de luz, que tem características que lembram o laser.

Se parecer com o laser já não fosse o bastante, a nova forma de luz tem uma vantagem decisiva sobre ele: "Atualmente nós não somos capazes de fabricar lasers que gerem luz com comprimento de onda muito pequeno, na faixa do ultravioleta ou dos raios X, por exemplo. Com o condensado de Bose-Einstein fotônico isto poderá ser possível," explica o Dr. Jan Klars, um dos autores do experimento.

Isto é particularmente interessante para os fabricantes de chips, que usam laser para gravar os circuitos lógicos nas pastilhas de semicondutores. A miniaturização desses circuitos esbarra justamente no comprimento de onda da luz do laser - comprimentos de onda maiores são menos adequados para um trabalho mais preciso do que os comprimentos de onda menores.

Em princípio, os lasers de raios X permitirão desenhar componentes menores e mais precisos na mesma pastilha de silício, uma vez que os raios X têm um comprimento de onda muito menor do que a dos lasers hoje utilizados.

Há poucas semanas, usando a aniquilação de matéria e antimatéria, cientistas deram os primeiros passos rumos à criação de um laser de raios gama, outro tipo de laser futurístico.

Esfriar a luz?

Concentrar os fótons em um pequeno espaço pode parecer fácil de entender. Mas esfriá-los já não parece tão intuitivo.

Imagine uma lâmpada incandescente. Conforme seu filamento vai se aquecendo, ele começa a brilhar: primeiro fica vermelho, depois amarelo e, finalmente, azul.

Desta forma, cada cor de luz pode ser associada a uma "temperatura de formação", aquela temperatura que causa sua emissão - assim, a luz azul é mais quente do que a luz vermelha.

Mas cada elemento brilha de forma diferente. O ferro, por exemplo, vai emitir luz de forma diferente do tungstênio de que é feito o filamento da lâmpada incandescente.

É por isto que os físicos calibram a temperatura da cor com base em um objeto teórico, chamado de corpo negro. Se um corpo negro for aquecido a uma temperatura de 5.500 graus centígrados, ele terá praticamente a mesma cor da luz do Sol ao meio-dia - a temperatura dos seus fótons sobe.

À medida que o corpo negro é resfriado, em um determinado ponto ele pára de irradiar luz na faixa visível, passando a emitir fótons infravermelhos, que são invisíveis ao olho humano.

Ao mesmo tempo, a intensidade de sua radiação cai - a temperatura dos seus fótons diminui - e o número de fótons se torna cada vez menor, conforme a temperatura cai. É isto que torna tão difícil obter a quantidade necessária de fótons frios necessários para fazer o condensado de Bose-Einstein.

Superfóton

Os cientistas alemães resolveram o desafio usando dois espelhos quase perfeitos, altamente reflexivos, onde um feixe de luz foi posto para ficar refletindo de um lado para o outro.

Entre os dois espelhos eles colocaram uma solução contendo moléculas de pigmentos, com as quais os fótons colidiam periodicamente.

Nessas colisões, as moléculas "engoliam" os fótons e depois os "cuspiam" de volta.

"Durante este processo, os fótons assumem a temperatura do fluido. Eles resfriam um ao outro a partir da temperatura ambiente, e fazem isto sem se perderem no processo," explica o professor Martin Weitz, outro membro da equipe.

Os físicos aumentaram a quantidade de fótons entre os dois espelhos usando um laser para excitar a solução com os pigmentos. Isto permitiu que eles concentrassem as partículas de luz resfriadas tão fortemente que elas se condensaram em um superfóton.

Universo era líquido logo depois do Big Bang

Logo depois do Big Bang, nos primeiros instantes de sua existência, o Universo primordial não era apenas muito quente e denso, mas também tinha a consistência de um líquido.

Este é o primeiro resultado dos mini Big Bangs criados pelo LHC.

Os mini Big Bangs, reproduções em escala reduzida daquilo que deve ter acontecido quando nosso Universo foi criado, foram gerados quando íons de chumbo começaram a colidir depois de acelerados nos 27 km do anel do Grande Colisor de Hádrons.

Os experimentos com átomos de chumbo começaram no último dia 7 de Novembro.

A análise das primeiras colisões foi divulgada em dois artigos científicos divulgados preliminarmente, ainda não avaliados para publicação em periódicos revisados - embora os artigos sejam assinados por quase mil cientistas.

Plasma de quarks-glúons

O experimento ALICE, um dos quatro grandes detectores do LHC, desenvolvido especialmente para estudar os mini Big Bangs, detectou cerca de 18.000 partículas depois de cada colisão entre os íons de chumbo.

Os cálculos indicam que os choques estão gerando temperaturas de até 10 milhões de graus.

A essas temperaturas, os cientistas calculam que a matéria normal derreta-se em uma espécie de "sopa" primordial, conhecida como plasma de quarks-glúons.

Os primeiros resultados das colisões de chumbo já descartaram uma série de modelos da física teórica, inclusive aqueles que previam que o plasma de quarks-glúons criado nesses níveis de energia deveria se comportar como um gás.

Embora pesquisas anteriores, feitas no acelerador RHIC, nos Estados Unidos, em energias mais baixas, indicassem que as bolas de fogo produzidas em colisões de núcleos atômicos se comportassem como um líquido, muitos físicos ainda esperavam que o plasma de quarks-glúons se comportasse como um gás nas energias muito mais elevadas do LHC.

Mas não foi isso o que aconteceu. "Estes primeiros resultados parecem sugerir que o Universo teria-se comportado como um líquido super-quente imediatamente após o Big Bang," diz o Dr. David Evans, coordenador do experimento ALICE.

Viscosidade do plasma

Outros pesquisadores, contudo, sugerem maior cautela. Peter Jacobs, outro membro da equipe, afirma que é muito cedo para traduzir as medições em uma afirmação taxativa sobre a viscosidade do plasma de quarks-glúons formado nas colisões do LHC.

"Nossa medição do fluxo elíptico é final, mas serão necessárias muitas discussões com os teóricos antes que saibamos o que esses resultados significam em termos de viscosidade," diz Jacobs.

A equipe também descobriu que, nessas colisões frontais de núcleos atômicos, produz-se mais partículas sub-atômicas do que alguns modelos teóricos previam.

A bola de fogo resultante da colisão dura apenas um período muito curto de tempo, mas quando a "sopa" esfria, os pesquisadores são capazes de ver milhares de partículas saindo.

É o caminho dessas partículas que é visto nas imagens. Analisando esses "detritos", os cientistas tiram conclusões sobre o comportamento da própria sopa.

Detectores do LHC

Embora a referência seja sempre feita ao LHC, que é o acelerador como um todo, suas peças principais são os sensores que detectam os resultados dos impactos das partículas que colidem.

São quatro aparelhos: ALICE (A Large Ion Collider Experiment), LHCb (LHC Beauty), ATLAS (A Toroidal LHC Apparatus) e CMS (Compact Muon Solenoid).

Veja mais a respeito do funcionamento do LHC na reportagem Em busca da "Partícula de Deus".

Cassini detecta oxigênio em lua de Saturno

A sonda espacial Cassini detectou uma atmosfera muito tênue, conhecida como exosfera, na lua Reia, de Saturno.

A atmosfera contém oxigênio e dióxido de carbono.

A lua Reia tem 1.528 km de diâmetro. A imagem foi captada a uma distância de aproximadamente 30.000 km.

Oxigênio em outros mundos

Esta é a primeira vez que uma sonda espacial registra diretamente uma atmosfera contendo moléculas de oxigênio em um mundo além da Terra.

Medições de oxigênio em outros corpos celestes, feitas anteriormente, haviam sido baseadas em imagens de telescópios, como o Hubble.

A descoberta ainda não é capaz de colocar Reia como um alvo mais interessante do que outras luas de Saturno, como Encélado, onde já foram detectados ingredientes da vida, ou Titã, onde cientistas acreditam que pode haver alguma espécie de vida.

Isto porque a "atmosfera de oxigênio" é muito tênue - as medições indicam uma concentração de oxigênio 5 trilhões de vezes menor do que o oxigênio presente na atmosfera da Terra.

Além disso, o oxigênio gerado na Lua parece ser constantemente perdido para o espaço.

Oxigênio extraterrestre

O oxigênio em Reia parece surgir quando o campo magnético de Saturno gira sobre a lua.

Partículas energéticas presas no campo magnético do planeta salpicam a superfície da lua, que é coberta por gelo de água, causando reações químicas que decompõem a superfície e liberam oxigênio.

A fonte de dióxido de carbono ainda é uma incógnita.

"Os novos resultados sugerem que a química ativa e complexa envolvendo o oxigênio pode ser bastante comum em todo o Sistema Solar e até mesmo no universo," disse Ben Teolis, da equipe da sonda Cassini. "Essa química pode ser um pré-requisito para a vida. Todas as evidências coletadas pela Cassini indicam que Reia é muito fria e desprovida da água em estado líquido necessária para a vida como a conhecemos."

Outros cientistas, contudo, já especulam sobre formas exóticas de vida no espaço, diferentes da vida que conhecemos.

Manual traz receitas para portador de disfagia

O Hospital de Reabilitação de Anomalias Craniofaciais (HRAC/Centrinho) da USP, em Bauru, lançou um manual com receitas destinadas a pacientes portadores de disfagia.

A nutricionista Suely Prieto de Barros, uma das autoras do manual, explica que a disfagia "é uma alteração no processo da deglutição ou uma potencial desabilidade em deglutir, com prejuízos na segurança, eficiência e na qualidade de ingerir alimentos".

"Pacientes que têm esse distúrbio podem estar sujeitos à desidratação e à desnutrição pela alimentação inadequada", explica Suely. O manual, que é o primeiro a ser lançado no País com este perfil, objetiva oferecer uma alimentação palatável, balanceada e adequada às necessidades nutricionais e à consistência indicada.

Causas da disfagia

A nutricionista explica que a disfagia pode ser causada por prematuridade; anomalias no trato aerodigestivo; defeitos congênitos da cavidade oral, laringe, traqueia e esôfago; defeitos anatômicos adquiridos; desordens no desenvolvimento neuromotor, dentre outros.

"A doença também pode ser resultado de tipos de cânceres na região oral e do pescoço", diz.

Esses pacientes necessitam de alimentação com consistências diferenciadas que devem ser recomendadas por profissionais das áreas médica e fonoaudiológica. "Por isso, o manual será destinado aos profissionais e instituições especializados nos cuidados com essas pessoas", define.

80 receitas

As consistências das receitas são baseadas na proposta da ADA 2002, Associação Americana de Disfagia. "A maioria dos portadores de disfagia não pode ingerir alimentos como feijão ou arroz, por exemplo. Em alguns casos, até mesmo líquidos podem ser prejudiciais," alerta Suely.

A entidade norte-americana possui uma tabela padronizada em centipoises (cP), medida baseada na viscosidade dos líquidos. O manual baseia-se nas três medidas da ADA: Néctar, que possui de 51 a 350 centipoises (cP); Mel, de 350 a 1.750 cP; e Pudim, acima de 1.750 cP.

"Ao todo, são quase 80 receitas distribuídas nas três classificações e todas preparadas com quatro diferentes espessantes industriais, todos encontrados facilmente no Brasil", ressalta Suely.

Valor nutricional

Segundo a nutricionista as receitas são simples, de fácil preparo e com valor nutricional equilibrado. "Além disso, o manual contém dicas interessantes", lembra Suely.

Ela explica ainda que, após a indicação da consistência, geralmente feita por médicos e fonoaudiólogos, qualquer pessoa que cuide de um portador de disfagia poderá preparar as receitas sem maiores problemas.

Entre os diversos pratos, constam receitas de iogurtes, leites vitaminados, sucos e sobremesas, além de sopas e até mesmo sorvetes, todos adaptados para portadores de disfagia.

"Acreditamos que o manual possa ser uma excelente ferramenta aos profissionais que cuidam destes pacientes", acredita Suely.

As pessoas interessadas em adquirir o livro devem entrar em contato com o setor de Eventos do Centrinho, pelo telefone (14) 3235-8437 ou email eventos@centrinho.usp.br.

Proteína ligada ao Alzheimer pode viajar para o cérebro

Cientistas alemães descobriram que tecidos de fora do cérebro, contendo a proteína beta-amilóide, podem viajar pelo corpo e "infectar" o cérebro.

Os depósitos de proteínas patológicas - com dobramentos anormais - têm sido fortemente ligados à gênese da doença neurodegenerativa denominada doença de Alzheimer.

A doença de Alzheimer é a forma mais comum de demência, que começa em idade avançada e cujos sintomas pioram gradualmente. Ela é incurável e os cientistas ainda estão largamente no escuro sobre o que causa o distúrbio.

Na maioria das vezes, a doença de Alzheimer é diagnosticada em pessoas com mais de 65 anos de idade, embora mais raramente possa haver um início precoce.

Há mais de 27 milhões de portadores de doença de Alzheimer no mundo e estima-se que ela irá afetar uma em cada 85 pessoas no mundo até 2050.

Proteína Abeta

Neste último estudo, publicado na revista Science, cientistas da Universidade de Tübingen e do Centro Alemão para Doenças Neurodegenerativas injetaram tecido cerebral contendo amilóide, retirado de ratos mais velhos, no abdome de ratos mais jovens.

Vários meses após as injeções, os animais mais jovens apresentaram evidências da proteína amilóide no cérebro.

A doença de Alzheimer, e uma desordem vascular cerebral chamada Angiopatia Beta-amilóide Cerebral, são caracterizadas pelo acúmulo de um fragmento de proteína conhecido como Abeta.

Na doença de Alzheimer, a Abeta com problema de dobramento é depositada principalmente nas chamadas placas amilóides, enquanto na Angiopatia Beta-amilóide Cerebral a proteína Abeta gruda nas paredes dos vasos sanguíneos, interferindo com a sua função e, em alguns casos, fazendo com que se rompam, causando hemorragia intra-cerebral.

Suspeitas

"A constatação de que existem mecanismos que permitem o transporte de agregados Abeta da periferia para o cérebro levanta a questão de se a agregação e a propagação de proteínas, que também podem estar envolvidas em outras doenças cerebrais degenerativas, podem ser induzidas por agentes originários da periferia," comentou o professor Mathias Jucker, coordenador da pesquisa.

Ele e seus colegas também sugerem que a proteína amilóide pode ter qualidades do príon. Os príons são feitos principalmente de proteína e podem ser transmitidos para desencadear doenças do cérebro, como a doença de Creutzfeldt-Jakob, o chamado mal da vaca louca.

No entanto, eles disseram que "apesar desta observação notável e das aparentes semelhanças entre o mecanismo da doença de Alzheimer e das doenças de príon, não há evidências de que a doença de Alzheimer ou a Angiopatia Amilóide Cerebral sejam transmitidas entre mamíferos ou seres humanos da mesma forma que as doenças de príon."

Por outro lado, os cientistas acrescentam que os resultados fornecem novas pistas sobre os mecanismos patogênicos subjacentes à doença de Alzheimer, acrescentando que uma investigação mais aprofundada provavelmente levará a novas estratégias de prevenção e tratamento.

Mapas tridimensionais mostram conexões do cérebro

Uma equipe de pesquisadores da Universidade de Tecnologia de Eindhoven, na Holanda, desenvolveu um programa de computador que os médicos poderão usar para estudar as conexões do cérebro de seus pacientes.

O programa usa técnicas especiais para converter imagens de ressonância magnética (MRI) em imagens tridimensionais que mostram detalhadamente as conexões nervosas.

Isto torna possível visualizar um quadro completo das conexões nervosas e dos seus contatos sem ter que operar o paciente.

Em vez de um mapa teórico, os médicos poderão contar com dados reais de cada paciente.

Mapa do cérebro

Saber exatamente onde estão localizados os feixes de nervos principais do cérebro é de imensa importância para os neurocirurgiões.

É isto que permite, por exemplo, o uso de técnicas como a "estimulação cerebral profunda", que suprime as tremuras que acometem os pacientes com doença de Parkinson ou o estudo de novos tratamentos para epilepsia.

A técnica também poderá render muitos novos insights sobre doenças neurológicas e psiquiátricas. E é importante que os cirurgiões cerebrais saibam antecipadamente onde os feixes nervosos críticos estão para evitar danificá-los.

"Com esta nova ferramenta, você pode determinar exatamente onde colocar os eletrodos de estimulação no cérebro. Nosso mapa de orientação foi melhorado: como agora vemos as estradas no mapa, nós sabemos melhor onde enfiar a agulha," diz o Dr. Bart Haar Romenij.

Validação

A precisão do novo mapa cerebral é um grande passo à frente.

Contudo, ainda estamos longe de ver todas as conexões do cérebro: há muitos componentes minúsculos que só podem ser observados sob o microscópio. "Mas você não pode, naturalmente, dissecar um paciente vivo em fatias dentro de um microscópio", brinca o professor.

Embora pareça funcionar muito bem, será necessário validar o programa para que ele possa ser distribuído. "Nós precisamos provar que as imagens batem com a realidade," diz o pesquisador.

E isso só pode ser feito confrontando as imagens com os dados reais, em experimentos envolvendo pacientes.

sábado, 27 de novembro de 2010

Cientistas criam luz super torcida

Torcer um feixe de luz em forma de parafuso é um feito recente, mas já realizado ao longo dos últimos anos.

Agora, pela primeira vez, cientistas da Universidade de Glasgow, no Reino Unido, conseguiram obter o chamado estado "super trançado", ou "super torcido" da luz.

Luz super torcida

A luz super torcida não existe na natureza e, até agora, só havia sido teorizada pelos cientistas, mas nunca ninguém havia conseguido produzi-la.

Muito mais "apertada" do que a luz torcida, a luz super torcida abre o caminho para experiências muito mais precisas, capazes de alcançar dimensões inalcançáveis com os aparelhos atuais.

Primeiro, os cientistas usaram um filtro polarizador para torcer a luz até deixá-la em forma de parafuso. A seguir, eles direcionaram a luz já torcida sobre uma superfície de ouro com um formato especialmente projetado para refletir a luz de determinada forma.

A luz assim refletida alcançou o estágio de "super torcida".

Vestígios de proteínas

A luz super torcida pode ser usada para encontrar vestígios de proteínas em amostras de material biológico incrivelmente pequenas, muito menores do que as amostras necessárias pelos sistemas de análise atuais - na fixa dos picogramas.

Os cientistas testaram esta possibilidade e verificaram que sua luz super trançada é particularmente sensível às estruturas de proteínas que causam doenças degenerativas, como Alzheimer e Parkinson.

A luz torcida, ou luz polarizada, já é usada em algumas técnicas médicas para analisar biomoléculas. Por isto os cientistas perseguiam com tanto afinco a possibilidade de torcê-la ainda mais, já que eles imaginavam que a luz super torcida deveria permitir uma análise ainda mais precisa das amostras.

O uso mais promissor da luz super trançada está na espectroscopia, uma técnica de análise que estuda os materiais de acordo com a forma como eles absorvem e reemitem a luz.

Luz nunca vista

"Nós agora estamos vendo se esta mesma técnica pode ser adaptada para detectar uma gama maior de proteínas, que são indicativas de outras doenças. O fato de esse método exigir muito menos material para análise do que as técnicas atuais, e utilizar uma forma de luz nunca vista é um grande passo adiante," diz o Dr. Malcolm Kadodwala, coordenador da pesquisa.

Utilizada desde a detecção de objetos celestes extremamente distantes até o biossensoriamento, a espectroscopia, agora incrementada pela luz super torcida, também deverá se tornar útil na detecção de determinados tipos de vírus que têm estruturas semelhantes.

Veja mais sobre a luz torcida na reportagem: Luz torcida: cientistas torcem e retorcem a luz.

Vem aí o LHC das moléculas

Não foi por acaso que o LHC e todos os outros aceleradores e colisores de partículas fizeram sua fama: eles se tornaram a principal ferramenta da física ao permitir o estudo detalhado das partículas eletricamente carregadas.

Então, o que poderia significar para a própria física, para a química e para a biologia um acelerador capaz de manipular "partículas" não carregadas, como átomos neutros e moléculas?

"Isto irá nos permitir fazer estudos de colisão de uma forma radicalmente nova," responde Cynthia Heiner, que vem trabalhando em seu próprio LHC das moléculas há anos.

Na verdade, um colisor de moléculas permitirá o estudo detalhado das reações químicas, mostrando seus estágios em frações infinitamente pequenas de tempo, revelando aos cientistas o que determina o estabelecimento das ligações químicas e o que faz com que elas se quebrem.

Síncrotron molecular

Agora, Heiner e seus colegas do Instituto Fritz Haber, da Alemanha, finalmente conseguiram construir o primeiro protótipo funcional de um "síncrotron molecular", o equivalente de um síncrotron capaz de lidar com moléculas polares.

O equipamento consiste em uma armadilha na qual as moléculas, em vez de alcançarem uma energia potencial mínima em um ponto específico do espaço, assumem uma energia potencial mínima dentro de um círculo.

Enquanto acelerar partículas carregadas é fácil devido à sua interação com campos eletromagnéticos, os pesquisadores tiveram que usar campos elétricos não-homogêneos, que interagem com as moléculas polares.

No experimento foram utilizadas moléculas de amônia que, mesmo sendo neutras, têm uma distribuição irregular dos elétrons.

Acelerador de moléculas

Em vez de construir uma pista com quilômetros de extensão, os cientistas aprisionaram um pacote denso de moléculas, com 3 milímetros de largura, dentro de um dispositivo circular de meio metro de diâmetro.

Ao longo do anel do síncrotron molecular, 40 segmentos de múltiplos pólos geram campos variáveis que guiam as moléculas. O protótipo consegue manter as moléculas estáveis por centenas de voltas, o equivalente a fazê-las circular por um anel de mais de 1,5 km de extensão.

O acelerador de moléculas é formado por duas metades conectadas, mas mantendo um intervalo de 2 mm entre as duas metades. Cada vez que o aglomerado de moléculas passa por essa lacuna, os campos magnéticos são alternados para focalizá-las na direção longitudinal, o que anula sua tendência a se dispersar.

Os cientistas acreditam que essa disposição facilitará a injeção de novos pacotes de moléculas, que entrarão no anel sem afetar as moléculas já armazenadas.

Isto é essencial para o próximo passo da pesquisa, que será a tentativa de fazer as moléculas colidirem, o que permitirá não apenas o estudo das próprias moléculas, mas também das reações químicas entre elas.

Telas flexíveis de papel prometem leitores eletrônicos descartáveis

Uma nova tecnologia de geração de imagens para telas e monitores poderá permitir que os papéis eletrônicos e os leitores eletrônicos - os chamados e-Readers - tornem-se tão baratos que poderão até mesmo ser descartáveis.

Embora o setor de alta tecnologia ainda não esteja muito avançado quando o assunto é a reciclagem, equipamentos mais baratos têm um grande apelo e podem viabilizar novas aplicações.

Telas de papel e água

O grupo do Dr. Andrew Steckl, da Universidade de Cincinnati, nos Estados Unidos, começou a brilhar no mundo das telas e monitores em 2004, quando lançaram os primeiros pixels baseados em elementos de terras raras.

Agora, Steckl e seu colega Duk Young Kim descobriram que é possível usar papel comum como substrato flexível para um tipo de tela baseada em um princípio chamado eletroumectação.

A eletroumectação consiste na aplicação de um campo elétrico em minúsculas gotas de água coloridas, dispensando o uso de filtros e tornando a tecnologia potencialmente muito mais barata.

As telas de aparelhos como o iPad utilizam tecnologias muito mais complicadas e mais caras, cujos circuitos são montados em placas rígidas de vidro. Leitores como o Kindle, por sua vez, embora já utilizem eletrônica orgânica, que pode potencialmente chegar a ser flexível, ainda estão limitados aos tons de cinza.

Papel eletrônico

"Um dos principais objetivos do papel eletrônico é replicar a aparência e a sensação do papel impresso real," defendem os pesquisadores em um artigo que mereceu a capa da atual edição de uma das revistas científicas mais importantes da área.

Com tal purismo, os cientistas nem foram atrás de imitações, e resolveram usar o próprio papel como substrato.

"Com o papel certo, com o processo certo e com a técnica de fabricação adequada, você pode obter resultados que são tão bons quanto os que você obtém com o vidro, e nossos resultados são bons o suficientes para um leitor eletrônico capaz de mostrar vídeos," diz o Dr. Steckl.

Segundo ele, uma tela baseada no seu papel eletrônico poderá ser totalmente enrolável, vai lembrar o papel em aparência e ao toque, e poderá ser usada para leitura, para navegação na internet ou para ver filmes, mesmo em condições externas, com o dia claro.

"Nós esperamos ter algo que realmente se parecerá com papel, mas se comportará como um monitor de computador em termos de sua capacidade de armazenar e mostrar informações. Nós poderemos ter algo que será muito barato, muito rápido, full-color e que, no final do dia ou da semana, você poderá jogar no lixo," prevê o pesquisador.

Leitores eletrônicos descartáveis

E por que alguém iria querer jogar seu Kindle ou seu iPad no lixo depois de apenas uma semana de uso, se ele pode ser usado para múltiplas leituras?

O Dr. Steckl defende seu ponto de vista: "Em geral, este é um método elegante para reduzir a complexidade do aparelho e o seu custo, resultando em equipamentos descartáveis."

Elegante ou não, reciclar o novo papel eletrônico do Dr. Steckl será realmente muito mais simples do que reciclar as telas atuais.

Só que reciclar papel comum é mais simples do que reciclar o novo papel eletrônico - mas provavelmente este não será assim tão barato a ponto de viabilizar jornais e revistas de papel eletrônico e a preocupação provavelmente se mostrará injustificada.

Steckl e Kim foi a mesma dupla que inventou o LiquiFET, o primeiro transístor de estado líquido, um marco no desenvolvimento dos biochips.

Novo material evita congelamento repelindo gotas de água

Engenheiros da Universidade de Harvard, nos Estados Unidos, criaram um novo material nanoestruturado que repele as gotas de água antes que elas tenham oportunidade de congelar.

A descoberta poderá se tornar a solução para livrar definitivamente do congelamento as asas dos aviões, os vidros dos carros, os cabos de transmissão elétrica e até mesmo os trilhos de trens nos países de clima muito frio.

Repelente de água

Segundo os pesquisadores, integrar a tecnologia anticongelamento diretamente no material original é muito mais eficiente do que a aplicação de produtos químicos, como sprays ou sais, ou pelo simples aquecimento.

"Nós queríamos adotar um enfoque totalmente diferente e projetar materiais que evitassem naturalmente a formação de gelo repelindo as gotas de água," disse Joanna Aizenberg, coordenadora da pesquisa.

Eles começaram o trabalho com ciência básica, descobrindo que a formação de gelo não é um evento estático. Somente depois de estudar em detalhes todo o processo dinâmico do congelamento das gotículas de água - observando imagens em super câmera lenta do processo - é que eles projetaram um material nanoestruturado para lidar com o problema.

Quando uma gota de água atinge uma superfície, ela se espalha. Em uma superfície comum, ela estará imediatamente sujeita ao congelamento.

A equipe então projetou uma superfície dotada de nanoestruturas que fazem o processo se inverter. Ao atingir a superfície, a água imediatamente se retrai, formando novamente uma gota e é repelida, antes de ter a chance de se congelar.

O processo todo funciona como se a gota de água fosse uma bola, que quica sobre a superfície.

Ambientalmente correto

"Nós fabricamos superfícies com diversas geometrias e padronizações, como cerdas, lâminas e padrões interligados, como favos de mel e tijolos, para testar e entender os parâmetros críticos para otimização," conta Lidiya Mishchenko, que fez todos os experimentos.

Lidiya descobriu que as estruturas formadas por padrões interconectados podem suportar as colisões muito fortes das gotas de água que ocorrem durante as chuvas que atingem a lataria dos carros ou as asas dos aviões.

O material nanoestruturado evitou a formação de gelo em temperaturas entre -25 e -30 graus Celsius. Abaixo disso o problema não é muito grande porque a água fica com uma superfície de contato muito pequena com qualquer material, e o gelo que se forma é mais fácil de remover.

Os cientistas agora estão começando a fabricar peças grandes de seu material nanoestruturado para que ele possa ser testado em condições reais.

Uma superfície metálica à prova de congelamento será muito mais ambientalmente correta do que as técnicas atuais, quando as superfícies das asas dos aviões ou das fiações elétricas têm que ser lavadas com sais e outros produtos químicos, que acabam indo parar nos cursos d'água.

Super-helicópteros decolam rumo aos 500 km/h

Nos seriados de TV Águia de Fogo e Trovão Azul os helicópteros eram as verdadeiras estrelas e sempre brilharam mais do que os atores.

Como convém aos filmes de aventura, esses super-helicópteros eram, por assim dizer, dotados de superpoderes, muito além do que qualquer helicóptero real pudesse sonhar.

Mas talvez não por muito tempo. Como convém ao mundo real, os projetistas sempre perseguem a ficção, que não por acaso é uma fonte inesgotável de inspiração.

Uma empresa norte-americana e uma europeia começaram a testar os protótipos dos seus helicópteros superpoderosos, máquinas capazes de atingir até 500 km/h e que prometem dobrar a velocidade das máquinas atuais nos próximos cinco anos.

E por que tanta pressa? É que os helicópteros são imbatíveis em suas capacidades de manobra e de chegar a qualquer lugar. Mas, quando se trata de chegar rapidamente ao local de um acidente ou de levar um ferido já resgatado para um hospital, os helicópteros são sonolentamente lentos.

Subsônico e supersônico

O limite de velocidade dos helicópteros deve-se a uma combinação dos limites aerodinâmicos com a necessidade de um consumo razoável de combustível, o que limita os modelos atuais a velocidades de até 300 km/h.

Ou seja, envenenar um helicóptero não é uma mera questão de adicionar HPs ao motor e aumentar o tanque de combustível. As pás do rotor superior, que dão sustentação e impulso à frente, têm limites de rotação bem definidos.

Se o rotor gira a uma velocidade logo abaixo da velocidade do som - o rotor, não o helicóptero - quando a pá começa um giro na traseira do helicóptero em direção à frente, sua velocidade é equivalente à soma da velocidade do rotor e da velocidade do helicóptero, o que faz com que ela atinja uma velocidade supersônica.

Enquanto isso, a pá que está no movimento oposto, saindo da frente do helicóptero e indo na direção da traseira, permanece em velocidade subsônica.

O problema é que as forças aerodinâmicas são diferentes em velocidades subsônicas e supersônicas. Se os dois regimes forem atingidos simultaneamente, gera-se uma instabilidade e uma perigosa perda de sustentação.

Helicópteros do futuro

Ou seja, para empurrar um helicóptero mais rapidamente é necessário fornecer empuxo por outros meios.

Nos anos 1970, a Sikorsky e a NASA construíram um protótipo, chamado XH59A, que tinha duas turbinas, que eram acionadas quando o helicóptero atingia uma determinada velocidade.

Embora o protótipo tenha alcançado velocidades de até 400 km/h, a transição do rotor para a turbina se mostrou problemática demais.

O XH59A vibrava muito, consumia combustível demais e ainda precisava de dois pilotos para fazê-lo voar.

Agora, passados 40 anos, os computadores e controles de vibração mais modernos estão reavivando a ideia.

A Sikorsky começou a fazer os primeiros testes de voo com o seu modelo X2. Do outro lado do Atlântico, a Eurocopter está avaliando o seu X3 - uma jogada de marketing em torno dos nomes maior do que parece: o nome do modelo europeu não é "xis três", é "xis ao cubo".

Os controles eletrônicos permitem que um único piloto dê conta do recado. E, em vez das beberronas turbinas, o impulso adicional é dado por hélices.

Sikorsky X2

O maior desafio foi se livrar do rotor de cauda, necessário para ajudar o helicóptero a virar e evitar que ele gire em círculos. Mas o eixo traseiro se tornou necessário para virar o propulsor traseiro e dar dirigibilidade à aeronave.

A Sikorsky resolveu o problema adicionando dois conjuntos de pás ao rotor superior, girando em sentidos opostos - o equilíbrio do torque entre as duas pás impede que o helicóptero gire sobre o próprio eixo.

Para virar em baixas velocidades, até 110 km/h, o X2 usa a tradicional inclinação das pás. Acima disso, ele usa um leme, o que tecnicamente o coloca perto de um avião, embora a sustentação ainda seja gerada pelo rotor.

Eurocopter X3

O X3 da Eurocopter se parece ainda mais com um avião, já que tem asas, onde são fixados dois propulsores. Em altas velocidades, essas asas contribuem com até 40% da sustentação, o que alivia o trabalho do rotor.

Como o X2, ele não tem rotor de cauda. A estabilidade e a capacidade de virar são obtidas com um ajuste preciso da aceleração dos dois motores. Tudo é feito eletronicamente, de forma que o único piloto faz seu trabalho exatamente como em um helicóptero normal.

O X3 mal começar a sair do ninho: ele bateu as asas por meros 35 minutos até agora. Isto é normal no desenvolvimento desses protótipos, quando as várias etapas do teste são realizadas em pequenos incrementos - a cada passo, pára tudo, os dados são cuidadosamente avaliados, e só então é dado o passo seguinte.

O X2 já está voando para valer, rumo à meta de alcançar 500 km/h. Em Setembro ele quebrou "não oficialmente" o recorde de velocidade para helicópteros, alcançando 463 km/h. O recorde que ainda vale, obtido em 1986, é de exatos 400 km/h.

O que ainda não está claro é se estas novas aeronaves, com asas e vários motores, continuarão sendo enquadradas na categoria dos helicópteros.

Minúsculas lâmpadas implantáveis farão você brilhar

Em uma inovação que supera os conceitos de roupas inteligentes e "computadores de vestir", um grupo internacional de cientistas está desenvolvendo circuitos eletrônicos não para serem usados como roupas, mas para serem implantados sob a pele.

A equipe do Professor John Rogers, da Universidade de Illinois, nos Estados Unidos, tem uma extensa lista de proezas na área da eletrônica flexível.

Ele apresentou os primeiros LEDs flexíveis em 2009, aproveitando a tecnologia desenvolvida em seu próprio laboratório para a fabricação de circuitos integrados maleáveis, capazes de suportar deformações extremas.

Agora ele se juntou a uma equipe de colegas da Coreia, da China e de Cingapura para aplicar sua tecnologia de circuitos flexíveis no desenvolvimento de implantes médicos.

Tatuagens que acendem

O resultado é uma folha de minúsculos LEDs que pode ser implantada sob a pele. Embora a imagem imediata que salte do experimento seja a de tatuagens que se acendem, as folhas poderão servir a uma grande gama de aplicações biomédicas.

Os minúsculos LEDs implantáveis têm o formato de um quadrado com 100 micrômetros de lado e apenas 2,5 micrômetros de espessura.

Eles são fabricados sobre um substrato de vidro e depois transferidos para uma folha de um plástico conhecido como PDMS (poli[dimetilsiloxano]), que é biocompatível e disponível comercialmente a um custo muito baixo.

O plástico recobre inteiramente os LEDs, evitando seu contato direto com o organismo, algo que é importante tanto para evitar a eventual contaminação do corpo por elementos usados na fabricação dos LEDs, quanto para evitar que os fluidos corporais deteriorem as pequenas lâmpadas.

Implante de LEDs

Como possibilidade de aplicação médica, o professor Rogers cita o uso de seus implantes luminosos em suturas cirúrgicas ou como curativos capazes de monitorar a cicatrização.

Mas eles não precisam ser necessariamente implantados. Da mesma forma que é possível fabricar LEDs, é possível construir sensores ópticos.

Com isto, é possível imaginar luvas inteiramente formadas por sensores eletrônicos, capazes de realizar espectroscopia ou outro tipo de análise, fornecendo informações imediatas para um clínico durante o exame ou para um cirurgião durante a operação.

O mais interessante do experimento é que os LEDs usados são componentes inorgânicos tradicionais, e não LEDs orgânicos, feitos de polímeros. O pesquisador aponta como principal razão para isso a maior durabilidade dos LEDs tradicionais e a maior facilidade de sua fabricação, que já está largamente sedimentada na indústria.

Por enquanto as "tatuagens ativas" foram testadas apenas em animais e ainda não há previsão de testes em humanos.

Óxidos desconhecidos viram super heróis da eletrônica

O que você prefere: titanato de európio ou escandato de disprósio?

Se tiver que escolher, é melhor ficar com os dois.

Esses dois óxidos de nome esdrúxulo aparentemente não têm ninguém a quem culpar pelo fato de serem ilustres desconhecidos a não ser a sua própria natural sem-graceza.

Mas parece que, a exemplo dos contos de fadas, no reino dos novos materiais, sapos também costumam se transformar em príncipes.

Ferroelétrico e ferromagnético

Um grupo de cientistas descobriu que um pequeno trato pode transformar esses dois "sapos" em verdadeiros super heróis, prontos para superar qualquer rival no campo da eletrônica.

Darrell Schlom e seus colegas descobriram que filmes finos de titanato de európio (EuTiO3) se tornam ferroelétricos e ferromagnéticos quando esticados sobre uma superfície de escandato de disprósio (DyScO3).

Os superpoderes da dupla superam as propriedades dos materiais simultaneamente ferroelétricos e ferromagnéticos já conhecidos por um fator de 1.000.

A ferroeletricidade (uma polarização elétrica) e o ferromagnetismo (um campo magnético permanente) simultâneos é algo muito raro na natureza e muito cobiçado pelos visionários da eletrônica.

Um material com essa combinação mágica pode se tornar a base para a fabricação de memórias magnéticas altamente sensíveis, sensores magnéticos e dispositivos de micro-ondas totalmente ajustáveis.

Esses Batman e Robin dos óxidos também não podem dizer que não fizeram sucesso até hoje devido ao seu nome: o primeiro material simultaneamente ferroelétrico e ferromagnético foi descoberto em 1966, e atende pela gloriosa alcunha de boraceto de níquel.

Desde os dias de glória do boraceto, contudo, os cientistas conseguiram descobrir poucos super heróis com os mesmos poderes.

Dupla dinâmica

Para fabricar sua dupla dinâmica, os cientistas esticaram uma camada ultrafina de titanato de európio e a colocaram sobre o escandato de disprósio.

O titanato se estica naturalmente para se acomodar sobre o escandato em razão de sua tendência de se alinhar com o arranjo dos átomos do material de baixo.

Esta nova abordagem gera materiais muito finos, o que poderá transformá-los nas estrelas de uma nova geração de dispositivos de armazenamento eletrônico que consumirão muito pouco e que não perderão os dados quando a energia for desligada.

Mas os dispositivos atuais, com sua mania de transformar energia em calor, poderão dormir tranquilos por um bom tempo. Os testes foram feitos em temperaturas extremamente baixas, ao redor de 4 Kelvin.

Agora os cientistas estão analisando as implicações teóricas dos resultados dos seus experimentos, em busca de novos candidatos ou novos arranjos que possam funcionar em temperaturas mais amenas.

Em 2009, a equipe do Dr. Schlom demonstrou que o silício pode se tornar ferroelétrico.

sexta-feira, 26 de novembro de 2010

Astrônomos encontram estrela de metano

Uma equipe internacional chefiada por astrônomos chilenos descobriu um sistema estelar único e exótico, de um tipo totalmente desconhecido até agora.

O sistema é formado por uma estrela muito fria, rica em metano, chamada anã T, e uma estrela "morta", uma anã branca, uma em órbita ao redor da outra.

O sistema é uma "Pedra de Roseta" para as estrelas anãs T, dando aos cientistas uma forma de descobrir a massa e a idade dessa velhíssima estrela de metano.

O sistema é o primeiro desse tipo a ser encontrado.

Estrela de metano

O metano é uma molécula frágil, rapidamente destruída em temperaturas mais altas. Assim, ele só é visto em estrelas muitas frias e em planetas gigantes, como Júpiter.

As anãs de metano estão na fronteira entre as estrelas e os planetas, com temperaturas tipicamente inferiores a 1000 graus Celsius - a superfície do Sol atinge 5.500 graus Celsius.

Nem planetas gigantes e nem estrelas anãs-T são grandes o suficiente para iniciar a fusão do hidrogênio que alimenta o Sol e outras estrelas, o que significa que elas simplesmente esfriam e desaparecem ao longo do tempo - ou, seria melhor dizer, desaparecem em um tempo muito longo.

O novo binário estelar representa uma oportunidade única para que os cientistas testem nosso conhecimento da física das atmosferas estelares ultrafrias, porque a anã branca pode ser usada para calcular a idade dos dois objetos.

Anãs brancas

As anãs brancas representam o estado final das estrelas semelhantes ao Sol.

Quando essas estrelas esgotam o combustível de hidrogênio disponível em seu núcleo, eles expelem a maior parte de suas camadas exteriores para o espaço, formando uma nebulosa planetária e deixando para trás um núcleo pequeno, denso e quente, mas em processo de resfriamento - uma anã branca.

Para o nosso Sol, esse processo começará daqui a cerca de 5 bilhões de anos.

Com as grandes melhorias dos telescópios nos anos recentes, os astrônomos estão tendo oportunidade de descobrir corpos celestes e situações nunca vistas antes. É por isto que eles têm descoberto tantas Pedras de Roseta celestiais.

Vêm aí os computadores caóticos

Com todas as maravilhas que seu computador lhe permite, no fundo, no fundo, ele é feito de minúsculas chaves, chamadas transistores, arranjadas na forma de pequenos circuitos, chamados portas lógicas.

Uma porta lógica é um circuito que recebe duas entradas e fornece um resultado de saída.

Para que seu computador funcione da maneira que você espera, essas portas lógicas devem dar resultados muito precisos. Uma porta AND, por exemplo, só deve dar resultado 1 quando ela receber duas entradas 1. Já uma porta OR dará sempre resultado 1, a menos que haja duas entradas 0.

Se parece confuso, saiba que, juntando meia dúzia de "maquininhas" capazes de tomar decisões desse tipo, você nem precisa de transistores, e pode construir um computador de qualquer coisa - de varetas e cordas ou de copos e canos com água, por exemplo.

Mas suas "maquininhas", ou suas portas lógicas, deverão sempre dar respostas simples, precisas e unidirecionais - ou 0 ou 1, dependendo dos dois valores que entram. Depois é só montar tudo em uma estrutura hierárquica bem definida e você terá um computador.

Portas caóticas

Mas agora um grupo de cientistas de várias universidades norte-americanas está propondo uma mudança radical nesse enfoque.

Em vez do determinismo e da precisão das portas lógicas tradicionais, eles acreditam que é possível construir computadores melhores usando "portas caóticas", ou portas que tomam suas decisões com base nos fenômenos descritos pela teoria do caos.

De forma bem simplificada, eles usaram padrões caóticos para codificar e manipular as entradas de forma a produzir a saída desejada.

Eles selecionaram os padrões desejados a partir da infinita variedade oferecida por um sistema caótico. Um subconjunto desses padrões foi então utilizado para mapear as entradas do sistema (as condições iniciais) nos resultados desejados.

O mais interessante é que esse processo permite construir dispositivos de computação com a capacidade de se reconfigurar em uma série de portas lógicas diferentes.

Eles batizaram essas portas capazes de se metamorfosear de Chaogates. E, como sempre acontece nas universidades norte-americanas, e deveria também acontecer nas brasileiras, eles fundaram uma empresa, a ChaoLogix, para tentar vender sua ideia.

Computador metamórfico

"Imagine um computador capaz de mudar seu próprio comportamento interno para criar um bilhão de chips customizados a cada segundo, baseado no que o usuário está fazendo naquele segundo - um computador que possa reconfigurar a si mesmo para se tornar o computador mais rápido no momento para a sua aplicação," vislumbra William Ditto, da Universidade do Arizona, um dos autores da nova técnica.

Segundo Ditto, a ChaoLogix já está montando os primeiros protótipos de computador caótico e já é possível verificar que a abordagem poderá ser útil para equipamentos eletrônicos comuns, para computadores voltados para jogos e para sistemas de informática mais seguros.

Segundo o pesquisador, os processadores caóticos não apenas poderão ser fabricados com a mesma tecnologia dos atuais, como eles poderão ser incluídos em circuitos mistos, que mesclem processadores lógicos convencionais e processadores caóticos.

"As portas caóticas são os blocos básicos de novos sistemas computacionais baseados no caos, que vão explorar as gigantescas capacidades de formação de padrões dos sistemas caóticos em benefício da computação," diz ele.

Mapa logístico

Ao contrário do que se possa imaginar, sistemas caóticos não são nem aleatórios e nem imprevisíveis: eles apresentam padrões irregulares extremamente sensíveis às condições iniciais.

Um sistema caótico gera uma saída em resposta a uma dada entrada, de forma muito parecida com um circuito booleano tradicional - mas a saída é muito sensível aos valores de entrada e às condições iniciais da rede.

Ditto e seus colegas descobriram que a adição de mecanismos de controle bastante simples permite definir o padrão de saída de forma muito segura - isto significa que uma mesma porta caótica pode executar várias funções lógicas.

A chave para a geração de múltiplas saídas a partir do mesmo conjunto de entradas é baseada em um conceito chamado "mapa logístico", que descreve uma função matemática não-linear que mapeia as entradas para uma saída específica.

Os cientistas desenvolveram uma função de mapeamento logístico que utiliza as propriedades não-lineares de um transístor CMOS comum de tal forma que é possível criar uma célula caótica muito eficiente.

Computadores híbridos

Circuitos de interfaces simples permitem que a célula caótica seja interconectada com outros circuitos caóticos ou com portas lógicas booleanas tradicionais, abrindo o caminho para a tecnologia e para a viabilização de computadores híbridos.

Uma das vantagens das portas caóticas é que elas possuem uma "assinatura de potência" que é independente do estado lógico de entrada.

Esta é uma característica importante para aplicações seguras, permitindo o uso de técnicas de análise diferencial para determinar as chaves de criptografia - por exemplo, pelo monitoramento da corrente elétrica consumida pelo circuito.

Rumo a um quilograma que não muda com o tempo

Nos primeiros passos daquilo que poderá ser um avanço histórico na ciência, especialistas de todo o mundo estão se empenhando em um esforço para a criação de um novo Sistema Internacional de Unidades (SI).

O SI é o sistema métrico, a base de todas as medidas usadas na indústria, no comércio, na ciência e em inúmeros aspectos da vida cotidiana.

O "Novo SI", que deverá ser baseado em sete constantes da natureza, permitirá aos cientistas expressarem os resultados de suas pesquisas em novos patamares de consistência e precisão.

Quilograma padrão

A mudança mais significativa do SI deverá ser no quilograma, a única das sete unidades básicas do sistema que ainda é definida em termos de um artefato material.

O quilograma padrão é um cilindro de uma liga de platina e irídio, fundido 130 anos atrás, e que fica guardado em um ambiente controlado no Bureau Internacional de Pesos e Medidas, na França.

O "quilograma físico" cria muitos problemas a longo prazo porque sua massa muda ligeiramente ao longo do tempo - em tempos de medições em escala dos femto (10-15) e atto (10-18), esse "ligeiramente" ganha proporções muito significativas.

A revisão, ainda em estágio de proposta, "coloca o SI em uma fundação sólida. Vamos nos livrar do último artefato," diz Ambler Thompson, um dos participantes do esforço internacional.

Em 1983, o mundo livrou-se do "metro material", que deixou de ser representado por uma barra metálica e passou a equivaler à distância que a luz percorre em 1/299.792.458 segundos.

Quilograma para medir luz?

Se você acha que o quilograma e seus múltiplos e frações são importantes apenas quando você sobe na balança, é melhor fazer uma revisão também em seus conceitos: por exemplo, tente comparar a luz emitida por dois LEDs e você não conseguirá se livrar do velho cilindro de platina e irídio.

Isto porque, no SI atual, não é apenas a unidade de massa que depende do quilograma. As definições para o Ampere (corrente elétrica), mol (quantidade de substância) e candela (intensidade luminosa), todos dependem dele.

Por exemplo, um mol é definido como o número de átomos de carbono 12 cuja massa total é de 12 gramas. Tente destrinchar as diversas definições de outras unidades e, bem no fundo, você encontrará os rastros bem plantados da unidade de massa.

A nova proposta define o quilograma em termos da constante de Planck h, uma constante importante na física quântica, que é expressa em unidades contendo o quilograma.

O valor atualmente aceito da constante de Planck é 6,626068 × 10-34 m2 kg/s.

Constantes físicas

O novo SI deverá se basear nos valores fixos de sete constantes, que definirão as sete unidades básicas, das quais todas as outras dependerão.

Por exemplo, o Ampere será definido em termos da carga elétrica de um próton, o kelvin em termos da constante de Boltzmann e o mol em termos da constante de Avogadro.

As sete unidades básicas são o segundo (tempo), o metro (comprimento), o quilograma (massa), o Ampere (corrente elétrica), o kelvin (temperatura termodinâmica), o mol (quantidade de substância) e a candela (intensidade luminosa).

E o que falta para que o Novo Sistema Internacional de Unidades seja ratificado? Por uma dessas ironias do destino, faltam... melhores medições.

Faltam medições que estabeleçam valores mais precisos das diversas constantes, sobretudo das constantes de Planck, Avogadro e Boltzmann.