sexta-feira, 29 de janeiro de 2010

Brasil e China vão revisar projeto dos satélites CBERS

Uma equipe da Academia Chinesa de Tecnologia Espacial (CAST, na sigla em inglês) está no Instituto Nacional de Pesquisas Espaciais (INPE), em São José dos Campos (SP), para a chamada Revisão Crítica do Projeto (CDR) dos satélites CBERS-3 e 4. As atividades serão realizadas nos dias 2 e 3 de fevereiro em conjunto pelos especialistas brasileiros e chineses.

Domínio da tecnologia

O INPE é o responsável no Brasil pelo Programa CBERS (sigla para China-Brazil Earth Resources Satellite: Satélite Sino-Brasileiro de Recursos Terrestres), parceria iniciada com a China em 1988 e que garantiu a ambos os países o domínio da tecnologia do sensoriamento remoto para observação da Terra.

Segunda geração de satélites desenvolvidos pela parceria sino-brasileira, os CBERS-3 e 4 representam uma evolução dos satélites CBERS-1, 2 e 2B, este último lançado em setembro de 2007.

Revisão do satélite

O Programa CBERS possui quatro principais segmentos, denominados Segmento Espacial - Satélite, Segmento de Controle, Segmento de Aplicações e Segmento do Veículo Lançador. A revisão crítica que será feita na próxima semana tratará do primeiro, que consiste no satélite propriamente dito e suas interfaces com os outros Segmentos.

O objetivo da CDR é verificar se o projeto cumpre com os requisitos estabelecidos para o satélite e seus subsistemas, com as devidas margens de segurança, para atestar que a alternativa escolhida pelos engenheiros é a mais adequada. É também objetivo da CDR verificar as interfaces do satélite com os demais segmentos.

Modelos de satélite

Para chegar a esta etapa do projeto foram projetados, construídos e testados quatro modelos de satélites: Modelo Radioelétrico (RM); Modelo Estrutural (SM), Modelo Térmico (TM) e Modelo Elétrico (EM).

O modelo radioelétrico do satélite possui as características radioelétricas (antenas, formas, superfícies). É construído e testado em campo de antenas para verificar diagramas de radiação e interferências.

O modelo estrutural possui as características mecânicas do satélite, e tem como objetivo verificar se o satélite vai resistir aos esforços mecânicos impostos ao longo de sua vida útil, principalmente os esforços do lançamento. Esse modelo é submetido a testes estáticos e dinâmicos (vibração e acústico).

O modelo térmico é construído com as características térmicas do modelo de voo e é submetido a teste de balanço térmico (TBT) em câmara termovácuo. O objetivo deste teste é verificar se todos os equipamentos e subsistemas suportarão as diferenças de temperatura durante a operação em órbita.

O modelo elétrico é construído com equipamentos reais que são montados em uma estrutura representativa do satélite (modelos de engenharia) e tem como objetivo realizar a verificação dos requisitos funcionais de desempenho e a compatibilidade eletromagnética do satélite como um todo.

Japão desenvolve robôs para ajudar idosos



Uma convenção sobre tecnologia e seus benefícios para a terceira idade, realizada esta semana em Tóquio, apresentou robôs que estão sendo desenvolvidos no Japão especialmente para ajudar os idosos.

Cerca de 2 mil participantes conheceram Taizo, um robô que ensina ginástica suave para idosos, e Paro, uma foca eletrônica equipada com inteligência artificial.

"Este animal robô tem efeito calmante", disse o empresário aposentado Toshio Tanimura, de 80 anos, que passou dez minutos alisando um exemplar.

Exoesqueleto

Também fez sucesso um exoesqueleto que reforça a ação dos músculos e pode ser usada por idosos e deficientes físicos - veja Pernas robóticas dão mobilidade e aliviam cansaço de trabalhadores e idosos e Honda apresenta mini-exoesqueleto que auxilia a andar.

No Japão, uma em cada cinco pessoas tem 65 anos ou mais e, de acordo com estimativas do governo, essa porcentagem deve aumentar para uma em cada quatro em 2015.

Fonte: BBC

Não estamos prontos para enfrentar um Impacto Profundo, concluem cientistas

Um novo relatório, preparado pelos cientistas do Conselho Nacional de Pesquisas dos Estados Unidos, levantou as ações necessárias e as opções disponíveis para identificar e enfrentar a ameaça de corpos celestes que ameacem colidir com a Terra.

As conclusões não são muito tranquilizadoras, mas apontam caminhos a serem seguidos para mudar a situação atual.

Meta imprecisa

O relatório estabelece novas ações possíveis que a NASA poderá utilizar para detectar asteroides e cometas em risco de colisão com a Terra.

Segundo o relatório, os 4 milhões dólares que os Estados Unidos gastam anualmente para detectar os chamados NEOs (Near-Earth Objects: objetos próximos à Terra) são insuficientes para que a agência espacial cumpra as recomendações feitas pelo Congresso norte-americano.

Em 2005, o Congresso daquele país estabeleceu para a NASA a meta de descobrir 90% dos NEOs com 140 metros de diâmetro ou mais até 2020. Obviamente a meta é imprecisa, já que é impossível descobrir 90% de um total desconhecido. Neste caso, são usadas as estimativas feitas pelos cientistas para o número provável desses objetos que existem no Sistema Solar.

Outra resolução do Congresso foi que o Conselho Nacional de Pesquisas determinasse a melhor maneira de alcançar essa meta. O relatório agora divulgado é a resposta a essa determinação.

Como encontrar asteroides em rota de colisão

Segundo o relatório, há duas abordagens que permitiriam à NASA alcançar seu objetivo de 2020 - e a abordagem escolhida dependerá das prioridades estabelecidas pelos políticos.

Se terminar o rastreamento dos objetos que ameaçam a Terra o mais próximo possível de 2020 for considerado o mais importante, então a melhor abordagem consistirá na utilização de um telescópio espacial para fazer observações em conjunto com telescópios terrestres adequados.

Se gastar a menor quantidade possível de recursos para cumprir os objetivos for considerado o mais importante, então será preferível usar apenas um telescópio terrestre adequado à tarefa - mas o prazo e a precisão poderão ficar comprometidos.

Monitorar objetos menores

O relatório também recomenda que a NASA monitore objetos menores - entre 30 e 50 metros de diâmetro - uma vez que pesquisas recentes sugerem que impactos de objetos dessas dimensões podem ser altamente destrutivos.

No entanto, o relatório salienta que a procura por objetos menores não deve interferir com o cumprimento do objetivo inicial. E, sobretudo, que, além desse esforço inicial, é necessário o estabelecimento de um esforço internacional para o monitoramento constante dos céus, a fim de detectar todos os NEOs perigosos.

E, segundo os especialistas, é necessário um esforço de pesquisas para estudar melhor os muitos aspectos ainda desconhecidos ligados tanto à detecção dos NEOs quanto às formas de enfrentar um eventual impacto.

O Observatório de Arecibo, em Porto Rico e o Goldstone Deep Space Communications Complex são vistos como essenciais nesse esforço. Embora estas instalações não sejam capazes de descobrir NEOs, eles desempenham um papel importante na determinação precisa das órbitas e da caracterização das propriedades de NEOs assim que eles são descobertos.

O tamanho do perigo

Os NEOs são asteroides e cometas que orbitam o Sol e que se aproximam ou cruzam a órbita da Terra. Um asteroide ou cometa que, calcula-se, tinha 10 km de diâmetro atingiu a península de Yucatán 65 milhões de anos atrás, causando uma devastação global, provavelmente eliminando um grande número de espécies animais e vegetais.

As pesquisas indicam que objetos tão grandes atingem a Terra apenas uma vez a cada 100 milhões de anos, em média.

Os estudos indicam que objetos menores do que os 140 metros de diâmetro que a NASA foi encarregada de identificar causariam prejuízos regionais. Esses impactos acontecem, em média, a cada 30.000 anos.

Até agora, a NASA tem sido muito bem-sucedida na detecção e rastreamento de objetos a partir de 1 km de diâmetro.

Embora os impactos gigantes sejam raros, um único impacto desses seria capaz de infligir danos extremos, levantando o clássico problema de como enfrentar uma possibilidade que é, ao mesmo tempo, tão rara e tão ameaçadora.

Técnicas de defesa contra os impactos

O relatório também analisa os métodos para se defender contra o impacto dos NEOS. Esses métodos são novos e ainda pouco estudados e avaliados, e nenhuma abordagem sozinha idealizada até hoje seria eficaz contra todos os tipos de objetos que podem colidir com a Terra.

Mas, desde que o alerta seja dado com uma antecedência suficiente, um conjunto com quatro tipos de mitigação seria adequado para enfrentar a ameaça de praticamente todos os NEOs, à exceção apenas daqueles realmente grandes.

Defesa civil

A chamada "defesa civil" é uma medida eficaz e economicamente viável para salvar vidas no caso de impactos de NEOs menores, sendo também uma parte necessária do esforço de mitigação para eventos maiores.

A defesa civil inclui a evacuação as áreas ameaçadas, a acomodação da população em abrigos e a criação de uma infraestrutura de emergência.

Raio-trator gravitacional

As técnicas conhecidas como raio-trator gravitacional usariam uma nave espacial para exercer uma força sobre o objeto, forçando-o a mudar gradualmente sua órbita para evitar a colisão com a Terra.

Esta técnica, contudo, seria prática apenas para NEOs pequenos (até 100 metros de diâmetro) ou, eventualmente, de médias dimensões (algumas centenas de metros).

Além disso, sua utilização exigiria que o impacto fosse previsto com décadas de antecedência. E, no entender dos especialistas, o raio-trator de gravidade, que poderia puxar ou empurrar o objeto lentamente, ainda está muito longe de ser viável dado o nível atual das tecnologias espaciais.

Métodos cinéticos

Os métodos cinéticos - colidir um veículo espacial contra o NEO para alterar sua órbita - poderiam ser uma boa defesa contra os objetos de tamanho médio (entre algumas centenas de metros e 1 quilômetro de diâmetro), mas também exigiria décadas de antecipação nas previsões do impacto.

Explosões nucleares

As explosões nucleares representam, segundo as conclusões do relatório, a única forma prática disponível atualmente para lidar com objetos grandes (com diâmetros maiores do que 1 km) ou como um sistema de backup para os NEOs menores se os outros métodos falharem.

Desconhecimento geral

A má notícia é que, apesar de todos estes métodos serem conceitualmente válidos, nenhuns deles está pronto para ser implementado a curto prazo, afirma o relatório.

A defesa civil e os projéteis para o impacto cinético são provavelmente os métodos mais próximos da prontidão, mas mesmo eles precisam ser mais estudados antes que se deposite muita confiança em sua eficácia.

Dado o nível atual de quase desconhecimento sobre muitos aspectos da ameaça representada pelos NEOs e das formas de lidar com eles, o relatório recomenda a criação de um programa científico revisado pelos pares - a norma padrão de realização de pesquisas reconhecidas como científicas - para estudar a questão a fundo.

Pirâmide da Nano Informação propõe monitoramento sobre produtos com nanotecnologia

Os consumidores querem saber o que estão comprando, os comerciantes precisam saber o que estão vendendo e os transformadores e recicladores precisam saber o que estão recebendo para reprocessar.

Isso se aplica a todos os materiais comuns, mas se aplica especialmente aos produtos que contêm nanomateriais artificiais.

Hoje, contudo, praticamente todas as informações relativas à nanotecnologia utilizada na fabricação dos produtos é perdida em algum lugar ao longo da cadeia de valor, criando uma preocupação sobre o destino final dos nanomateriais.

Pirâmide da nanotecnologia

Para tentar enfrentar o problema, que deverá se ampliar ano a ano, dada a crescente adoção da nanotecnologia na fabricação de produtos de consumo, a organização Innovation Society propôs um modelo para uma Pirâmide da Nano Informação.

O objetivo da proposta é debater os desafios e as responsabilidades para a preservação das informações sobre os nanomateriais utilizados em cada produto ao longo da cadeia de valor. O modelo pode contribuir para resolver e analisar as áreas críticas na cadeia de valor.

Desafios

Segundo a proposta, há grandes desafios a serem vencidos pela indústria, pelas autoridades, pelas agências de fiscalização e até pelas companhias de seguro.

Entre esses desafios para o futuro destacam-se:

* encontrar instrumentos adequados e confiáveis para transferir dados e informações específicos da nanotecnologia ao longo da cadeia de valor e para satisfazer as necessidades dos consumidores;
* garantir que o fluxo de nanoinformações (a montante e a jusante) não seja interrompido;
* dividir os custos e as responsabilidades dessa cadeia de nanoinformações entre as partes responsáveis.

Reciclagem de produtos com nanotecnologia

A Pirâmide combina diferentes ferramentas de transferência de informações entre os diferentes níveis da cadeia de valor para garantir que os dados nanoespecíficos (e, se necessário, os aspectos de segurança envolvidos) sejam transferidos de forma adequada, da indústria até a reciclagem.

Há uma preocupação crescente com os riscos advindos do uso das nanopartículas. Algumas pesquisas iniciais apontam riscos tanto para o meio ambiente quanto para a saúde humana, embora as amostragens ainda sejam insuficientes para conclusões definitivas.

A Pirâmide da Nano Informação é o primeiro esforço que leva em consideração os aspectos econômicos, sobretudo a preparação para a reciclagem dos produtos com nanotecnologia.

Brasileiros desenvolvem detector de buracos a laser

Aviões e satélites deixaram mais fácil um antigo trabalho da humanidade, a cartografia. Ao mesmo tempo, essas tecnologias também encareceram a atividade.

Por conta disso, cientistas norte-americanos desenvolveram na década de 1980 um meio de traçar mapas a partir de veículos terrestres.

A inovação levou o professor João Fernando Custódio da Silva, do Departamento de Cartografia da Universidade Estadual Paulista (Unesp), campus de Presidente Prudente, até a Universidade do Estado de Ohio, nos Estados Unidos, já na década de 1990.

De volta ao Brasil, Custódio ajudou a criar, em 1997, o Laboratório de Mapeamento Móvel (Lammov), a fim de desenvolver uma tecnologia nacional do tipo.

Sistema de mapeamento móvel

O sistema de mapeamento móvel consiste, basicamente, em equipamentos de localização e de captação de imagens acoplados a um automóvel.

Duas câmeras fotográficas digitais são utilizadas como filmadoras e afixadas em cima do veículo, apontadas para a frente. Entre elas, um GPS registra as coordenadas geográficas.

Um terceiro equipamento, o sistema de navegação inercial (INS), estabelece o referencial da posição das câmeras em relação a um ponto fixo.

São necessárias duas câmeras para que possibilitar os cálculos de triangulação, que posicionam e dimensionam os objetos filmados. No veículo ainda vão dispositivos de conexão dos aparelhos e um computador portátil para rodar os softwares que coordenam a operação.

"Parte do nosso trabalho foi desenvolver as interfaces entre esses aparelhos", contou Custódio, que também criou com a sua equipe os softwares de interpretação e de processamento dos dados.

Empresa emergente

Atualmente, o desenvolvimento do trabalho está sendo feito dentro da empresa Cartovias, criada por um ex-aluno de Custódio, o engenheiro cartógrafo Rodrigo Bezerra de Araújo Gallis. A Cartovias é uma das empresas residentes da Incubadora Tecnológica de Presidente Prudente (Intepp), mantida pela Unesp com outras instituições parceiras.

A Cartovias nasceu do envolvimento de Gallis com o mapeamento móvel. O engenheiro começou a pesquisar essa tecnologia em 1999, durante sua iniciação científica. Os estudos continuaram na pós-graduação e, após o doutorado, ele decidiu aprimorar o projeto.

O projeto agora espera a chegada de duas câmeras fotográficas digitais profissionais, que estão em processo de importação. Elas serão utilizadas como filmadoras acopladas no teto de um automóvel. "Usaremos resolução de cerca de 12 megapixels. Acima disso, as imagens saem com trepidação", explicou Gallis.

Técnicas complementares

A aquisição de equipamentos, de acordo com o professor Custódio, é mais fácil em outros países devido à participação mais ativa das empresas de eletrônicos. "Nos Estados Unidos, por exemplo, a fabricante da máquina fotográfica leva o seu novo produto para a universidade testar. Aqui isso não ocorre", lamenta.

Instaladas no carro, as câmeras do projeto Sistema de Mapeamento Móvel (Simmov) coletarão dados cartográficos que depois serão transformados em mapas no laboratório. "A diferença básica entre o levantamento aéreo e o terrestre é a perspectiva das imagens", disse Gallis, destacando que ambos permitem precisão de centímetros.

Custódio explica que os processos são complementares. "Em imagens aéreas não dá para saber o que está embaixo da copa de uma árvore, assim como não dá para ver o interior de um quarteirão somente com o mapeamento móvel", disse.

Detector de buracos a laser

O professor da Unesp trabalha agora em mais um equipamento para integrar o sistema. Trata-se de um projetor de laser.

No projetor, dois fachos perpendiculares são apontados para o solo e executam a leitura das imperfeições da superfície. O intuito é fazer um levantamento detalhado de buracos, trincas e demais irregularidades com grande precisão a fim de auxiliar o trabalho de serviços municipais ou o de administradores de estradas.

O novo equipamento ainda será montado e testado no veículo protótipo da Cartovias. No futuro, o pesquisador pretende substituir os dois fachos fixos por lasers de varredura, que ainda não foram empregados devido ao alto preço.

Navegação inercial

Apesar de existir outros equipamentos de mapeamento móvel no Brasil, poucos utilizam o sistema de navegação inercial, encontrado somente em mapeamento aéreo. A presença do INS no solo garante resultados mais rápidos, segundo os pesquisadores, uma vez que ele traz dados mais completos, economizando várias etapas do processamento de dados.

"O mapeamento móvel permite uma captação de dados bem rápida (5% do tempo de todo o processo). Além disso, funciona em qualquer via que permita o acesso de automóveis abrindo múltiplas perspectivas de aplicação", disse Gallis.

Por ser mais econômico que os mapeamentos aéreos e por satélite, o mapeamento móvel poderá ser largamente empregados por prefeituras, empresas de telefonia, eletricidade, água e esgoto e qualquer instituição que atue com geoprocessamento.

Ocorrência de micose sistêmica está relacionada com mudanças climáticas

Paracoccidioidomicose (PCM) - este é nome científico da micose sistêmica, isto é, que ataca órgãos internos do corpo, que mais ocorre na América Latina.

Mas, ainda que a PCM seja conhecida há mais de um século - o primeiro caso foi descrito em 1908 pelo médico Adolfo Lutz (1855-1940) -, até hoje pouco se conhece sobre a ecologia do fungo que causa a doença.

Micose e clima

Agora, utilizando dados epidemiológicos e climáticos, um grupo interdisciplinar de pesquisadores brasileiros aplicou métodos estatísticos para criar um modelo capaz de avaliar a influência do clima na variabilidade da doença.

O trabalho se baseou em casos ocorridos entre 1969 e 1999 na região de Botucatu (SP), que é uma área considerada hiperendêmica. A PCM, também conhecida como blastomicose sul-americana, ou doença de Lutz-Splendore-Almeida, é endêmica na América do Sul.

A pesquisa, cujos resultados foram publicados na revista International Journal of Epidemiology, da Universidade de Oxford, concluiu que a presença do fungo cresce, a longo prazo, quando há um aumento da armazenagem de água no solo.

E, a curto prazo, há maior liberação de esporos quando aumenta a umidade absoluta do ar. A PCM afeta especialmente trabalhadores agrícolas e indivíduos que lidam diretamente com a terra contaminada com os esporos do fungo.

Fungo causador da micose

De acordo com a primeira autora do artigo, Ligia Barrozo, professora da Universidade de São Paulo (USP), o agente da PCM, o Paracoccidioides brasiliensis, raramente tem sido identificado na natureza e não havia estudos correlacionando a incidência da doença com variáveis climáticas.

"Existem evidências de que as pessoas adquirem a doença por inalação dos esporos do fungo provenientes do solo. Mas há grande dificuldade para se isolar o fungo do solo e, por isso, não conhecemos muito bem a ecologia desse agente, ou seja, não sabemos quais são os ambientes mais favoráveis para seu desenvolvimento e por que algumas regiões têm incidência maior, por exemplo", disse Ligia à Agência FAPESP.

Segundo ela, a doença, em sua forma crônica, pode demorar várias décadas para se manifestar, o que dificulta os estudos, já que um indivíduo infectado pode ter adquirido a micose em outra época, em locais muito diferentes. Por isso o estudo foi focado na forma aguda, que se manifesta no máximo em 11 meses.

Dados epidemiológicos

"Utilizamos dados epidemiológicos de uma região endêmica importante, que é a de Botucatu, e analisamos 91 casos ocorridos em 40 anos. A partir das datas das ocorrências, procuramos correlações com diversas variáveis que estavam disponíveis no período estudado: precipitação, temperatura do ar, armazenamento de água no solo e umidade absoluta e relativa do ar", afirmou.

Com isso, os cientistas chegaram a um modelo que explica, em 49% dos casos, a variação de incidência, tendo em conta a umidade absoluta do ar e o armazenamento de água no solo nos dois anos anteriores às infecções.

"Há uma série de outros fatores, além do clima, que explicam a ocorrência da doença. Portanto, a correlação da ocorrência da doença com os fatores climáticos em 49% dos casos foi algo estatisticamente bastante significativo", explicou Ligia.

Mudanças ambientais

A partir do modelo, a equipe procurou explicar qual seria o significado biológico, para o fungo, da correlação entre a incidência e as condições climáticas. "Vimos que o aumento da umidade absoluta do ar no ano da infecção é importante para a liberação de esporos do fungo. Mas, quando há um aumento da precipitação dois anos antes da infecção, a umidade no solo cresce e o fungo se desenvolve ainda mais", disse.

Segundo Ligia, a principal contribuição do desenvolvimento do modelo consistiu em verificar que mudanças ambientais rotineiras podem alterar a incidência de doenças como a PCM.

"Há estudos mostrando, por exemplo, que as mudanças climáticas têm impacto sobre a dengue e a malária. Nosso trabalho indica que alterações climáticas também podem modificar a incidência de doenças menos conhecidas, que não são transmitidas por vetores específicos, como as micoses endêmicas", disse.

Do macro ao micro

O artigo mereceu um comentário na mesma edição do International Journal of Epidemiology, feito por Dennis Baumgardner, da Universidade de Wisconsin, nos Estados Unidos.

Segundo o cientista norte-americano, o trabalho brasileiro "fornece evidências de que os fenômenos climáticos e as atividades humanas no nível 'macro' agem de forma integrada com fatores ecológicos em nível 'micro', afetando o crescimento, a disseminação e a infecção humana por fungos sistêmicos".

Baumgardner afirma ainda que estudos como esse, "se não obtiverem sucesso definitivo, no futuro, em termos de previsão e mitigação da doença, podem servir para orientar a seleção de amostras ambientais e contribuir para resolver os mistérios que cercam os nichos ecológicos desses importantes fungos".

"Tela da morte" aparece em TVs LCD da Philips após atualização

Após fazer uma atualização de firmware para televisores LCD da marca Philips, consumidores que compararam modelos de 32 ou 42 polegadas relatam que não conseguiram voltar a ligar seus aparelhos.

Disponível para oito modelos diferentes de TVs, a atualização era recomendada no site da empresa e no manual de instruções do aparelho, informa o leitor Bruno B., que adquiriu o modelo 42PFL5604 em outubro de 2009. "Após a atualização a TV literalmente 'morre' e não liga mais", descreve o leitor por e-mail.

Bruno também informa fazer parte de listas de reclamações de consumidores que tiveram problemas similares e relataram dificuldades em sites como ReclameAqui e Denuncio.com.br

Em virtude do problema, a Philips retirou a atualização de seu site nesta quinta-feira (28/1), enquanto aguarda testes mais avançados, informa o gerente técnico de produtos da Philips, Marcelo Natali, em entrevista à PC World. "Recebemos notificações de que, após o download, a TV não ligou mais. Fizemos os testes com diversas TVs da linha e não verificamos problemas, mas enviamos para o nosso centro de desenvolvimento, em Cingapura, para a realização de outros testes", afirma.

Natali explica que a atualização de software é recomendada pela fabricante somente se o televisor apresentar problemas. Um exemplo, segundo ele, pode ser dificuldade de adaptação da imagem em alta definição e no formato 4:3, que apresenta barras laterais na cor preta.

Leia matéria completa na PC World.

Fonte: IDG Now!

quinta-feira, 28 de janeiro de 2010

Computadores ganham sistema imunológico e vacina contra bugs

Um grupo de pesquisadores suíços desenvolveu um novo programa que faz com que as redes de computadores atuem em conjunto de modo a evitar bugs em programas.

Bugs são os erros internos dos programas, que os fazem funcionar incorretamente ou mesmo travar o computador.

Imunidade dos computadores

Denominada Dimmunix, a ferramenta atua como se fosse uma vacina, aumentando a imunidade dos computadores e evitando futuras falhas.

Criado por pesquisadores da Escola Politécnica Federal de Lausanne, o sistema atua automaticamente, dispensando o monitoramento por parte de operadores de redes.

A abordagem se baseia no conceito de falha de imunidade. Na primeira vez que um bug ocorre em um software ou sistema operacional, o Dimmunix salva uma assinatura digital da falha e, em seguida, observa como o computador reage ao problema.

Quando o bug está para ocorrer novamente, a ferramenta o identifica em seus registros e automaticamente altera sua execução, de modo que o programa continue a funcionar normalmente.

Computação em nuvem

Com o Dimmunix, segundo seus criadores, os programas de navegação na internet (web browsers), por exemplo, "aprendem" a evitar o congelamento verificado na primeira vez que ocorreu um bug associado a um plug-in (programa associado e que aumenta as capacidades do navegador).

A nova ferramenta também emprega tecnologia de computação em nuvem (cloud computing) para imunizar redes inteiras. Quando uma falha ocorre em uma determinada estação de trabalho, o Dimmunix produz "vacinas" que se espalham por toda uma rede, protegendo suas estações de futuros problemas semelhantes.

Sistema imunológico para computadores

"O Dimmunix pode ser comparado ao sistema imunológico humano. Uma vez que o corpo é infectado, seu sistema imunológico desenvolve anticorpos. Posteriormente, ao deparar com o mesmo patógeno, o corpo o reconhece e sabe como combater eficientemente o problema", explicou George Candea, diretor do Laboratório de Sistemas Confiáveis, onde a ferramenta foi criada.

O Dimmunix está disponível para download gratuito para programadores e interessados. Sua eficácia, segundo seus autores, foi demonstrada em programas escritos em linguagens Java e C/C++ e em sistemas em JBoss, MySQL, ActiveMQ, Apache, HTTPd, JDBC, Java JDK e Limewire.

Mais informações podem ser obtidas no endereço http://dimmunix.epfl.ch

Processadores 3D são promissores, mas ainda quentes demais

Até pouco tempo atrás, os processadores dos computadores eram únicos, consistindo no que hoje se poderia chamar de um único núcleo. A pressão pela otimização contínua do desempenho forçava o aumento contínuo de transistores no interior de cada um desses processadores.

Cada transistor adicional representa caminhos adicionais por onde a eletricidade passa. Como esses caminhos - fios, na verdade - sempre apresentam alguma resistência à passagem da eletricidade, juntamente com o aumento no ritmo de funcionamento dos processadores - o famoso clock - o resultado foi que, além de funcionarem como processadores, esses chips se transformaram em um excelente sistema de aquecimento central no interior dos computadores.

Os processadores com múltiplos núcleos (multicore) surgiram para resolver esse problema, colocando vários núcleos em um mesmo chip e dividindo as tarefas entre eles.

Mas, de fato, os múltiplos núcleos não resolveram o problema - eles apenas o adiaram.

Processadores 3D

Empilhar os núcleos, construindo um processador tridimensional, é um enfoque muito mais promissor.

Chips 3D não são uma ideia nova: alguns modelos foram postos à venda e outros foram anunciados. Mas ainda são chips relativamente simples - a tecnologia 3D ainda não conseguiu vencer todos os desafios para a construção de um processador de computador de última geração.

O conceito é o mesmo dos multicores, com a diferença de que os núcleos são empilhados verticalmente, em vez de colocados lado a lado, como nos processadores atuais.

A vantagem é que toda a superfície do núcleo pode ser conectada à próxima camada, através de entre 100 e 10.0000 conexões por milímetro quadrado. Mais curtas e mais numerosas, essas minúsculas interconexões prometem uma transferência de dados 10 vezes mais rápida, reduzindo o consumo de energia pelo processador e, por decorrência, sua dissipação de calor.

Dissipação tridimensional

Contudo, embora os microprocessadores 3D prometam utilizar menos energia e gerar menos calor, eles ainda vão aquecer.

É aqui que as principais vantagens transformam-se no maior empecilho. Mesmo menor, o calor dos diversos núcleos deve ser capturado e dissipado.

O problema é que os núcleos estarão uns sobre os outros. Uma nova forma de dissipação, totalmente diferente dos dissipadores e coolers atuais precisa ser desenvolvida.

A IBM já está utilizando água para refrigerar seus chips 3D e tentar resolver o problema.

O Dr. John R. Thome, da Escola Politécnica Federal de Lausanne, na Suíça, que chefia uma equipe que reúne cientistas de vários países da Europa, e da própria IBM, está agora se preparando para os primeiros testes de um sistema de refrigeração revolucionário e promissor.

Radiador embutido

Canais com um diâmetro de 50 micrômetros são embutidos entre cada camada do chip 3D, vale dizer, entre cada um dos seus núcleos. Esses microcanais contêm um líquido de arrefecimento que sai do circuito na forma de vapor, é levado de volta ao estado líquido por um condenador e, finalmente, bombeado de volta para o processador.

Os carros utilizam esse mecanismo há mais de um século e já existem diversos sistemas de refrigeração de processadores disponíveis comercialmente que funcionam no mesmo princípio. Mas as similaridades encerram-se no próprio princípio de funcionamento.

Nos processadores 3D, o sistema de arrefecimento deve ser construído com as mesmas técnicas utilizadas para a fabricação dos próprios chips, na mesma fábrica e ao mesmo tempo. E sem interferir com o funcionamento do próprio chip e com as inúmeras interligações entre as diversas camadas por entre as quais os microcanais devem serpentear.

Sistema de refrigeração integrado

No próximo ano, o primeiro protótipo de um sistema de refrigeração que promete atender a todos esses requisitos será, pela primeira vez, implementado e testado em condições reais de operação - mas ainda sem um processador.

Como se pode deduzir, ainda vai levar alguns anos até que se possa comprar um computador equipado com um processador 3D.

Segundo o Dr. Thome, os primeiros microprocessadores 3D deverão ser instalados em supercomputadores por volta de 2015, enquanto a versão com um sistema de refrigeração integrado, como o que eles estão começando a testar, somente deverá ir ao mercado por volta de 2020.

Tecnologia espacial chega à linha de montagem de automóveis

Um novo carro avança na linha de montagem, pronto para receber o painel de instrumentos.

Em vez dos operários conduzirem uma operação de encaixe, a velocidade e a posição do painel são controladas com a mesma tecnologia que permite que o módulo de carga europeu ATV conecte-se automaticamente à Estação Espacial Internacional.

Isto não é ficção e nem projeto. É o que já está acontecendo na nova fábrica de automóveis da Volkswagen, recém-inaugurada em Palmela, Portugal.

De um veículo espacial para um veículo terrestre

As linhas de montagem da indústria automobilística percorreram um longo caminho desde o seu aparecimento em 1914, pelas mãos de Henry Ford, na sua fábrica de Michigan, nos Estados Unidos. Agora já possível recorrer à tecnologia espacial para controlar a linha de produção.

Em mais um exemplo da conversão de tecnologias desenvolvidas para o espaço em tecnologias para uso industrial, a Agência Espacial Europeia (ESA) criou as condições para permitir o uso da tecnologia de acoplagem de veículos espaciais para colocar com precisão o painel de instrumentos em um carro.

A tecnologia poderá ser utilizada também para a colocação de outros sistemas no carro.

Desenvolvido pela empresa emergente MDUSpace, no Centro de Incubação de Negócios da ESA, na Holanda, o sistema baseia-se nos conceitos de reconhecimento e rastreamento de objetos, os mesmos usados na acoplagem do Veículo de Transferência Automatizado (ATV) à Estação Espacial Internacional.

O equipamento foi instalado na unidade de Palmela, no final de 2009, e agora está começando a ser avaliado na prática.

Sincronização na linha de montagem

"As linhas de montagem da indústria automobilística usam uma esteira rolante que transporta os carros para serem montados, a uma velocidade controlada, mas não constante. O carro vai sendo montado por trabalhadores ou máquinas robotizadas, nas várias estações de montagem ao longo da esteira", explica Miguel Brito, do departamento de desenvolvimento de negócios da MDUSpace.

Quando se trata de encaixar um módulo do carro - por exemplo, o painel de instrumentos - a montagem é feita por um manipulador, um posicionador de peças robótico, mas controlado manualmente.

À medida que os carros vão se deslocando na esteira, o manipulador desloca-se também, exatamente à mesma velocidade. Se for mais depressa ou mais devagar do que o carro pode riscá-lo ou provocar outro tipo de dano.

O método tradicional de resolver este problema envolve a colocação do manipulador no carro, durante a montagem, com o inconveniente de forçar a estrutura do veículo. Outra alternativa é sincronizar as velocidades das duas estruturas, o que em geral exige sistemas de controle caros e complicados.

Posições relativas

O novo sistema baseado na tecnologia de atracação espacial oferece uma solução inovadora para sincronizar o movimento do manipulador e do carro. Uma câmera digital e um software de reconhecimento de objetos garantem que o manipulador e o carro sigam exatamente à mesma velocidade, mantendo suas posições relativas.

Tudo funciona exatamente como quando o ATV se aproxima da ISS. Para sua aproximação final e acoplagem, o ATV usa uma câmara para detectar pulsos de luz refletidos por pontos específicos da Estação. Analisando os padrões refletidos, o software de controle determina com precisão a distância e o ângulo até o porto de acoplagem.

No processo de montagem de automóveis, o operador escolhe os pontos de referência no carro como um alvo do sistema de reconhecimento de objetos. A partir daí é calculada a distância do manipulador até o carro, retendo automaticamente as posições relativas.

Colisão de partículas pode de fato criar buracos negros, dizem físicos

Você certamente ouviu falar da controvérsia: físicos previram que o LHC (Large Hadron Collider - Grande Colisor de Hádrons), o gigantesco colisor de partículas construído na fronteira entre a França e a Suíça, poderia criar buracos negros microscópicos.

Mas há físicos e físicos. Alguns deles - na verdade, a imensa maioria deles - afirmam que isto seria uma descoberta fantástica - mas muito improvável de acontecer.

Os outros físicos, ou os poucos físicos restantes, que não compartilham do entusiasmo dos seus colegas, temem que esses buracos negros possam devorar a Terra. Entraram na Justiça e até fizeram uma petição às Nações Unidas para parar o LHC, mas não conseguiram convencer ninguém.

Isto porque os argumentos contra esses catastrofistas são sólidos.

Segundo a maioria dos cientistas, a destruição da Terra pelos buracos negros do LHC seria impossível porque, se esses diminutos buracos negros surgirem de fato, eles decairão rapidamente em partículas ordinárias, não durando mais do que um nano-nano-nanossegundo.

Nada científico até então

O que é curioso, porém, é que ninguém até hoje jamais havia demonstrado cientificamente que uma colisão de partículas pode criar um buraco negro, por mais improvável que isto seja.

Observe que, neste ponto, a comunidade dos físicos e os físicos dissidentes concordam: os dois grupos consideram válida a suposição de que os buracos negros microscópicos podem ser criados. A diferença está em que uns acham que isto seria entusiasmante e os outros acham que seria perigoso.

Mas ninguém provara isso até agora, e tudo não passava de uma suposição.

Isso agora mudou.

Colisão de partículas pode gerar um buraco negro

Matthew Choptuik, da Universidade da Columbia Britânica, no Canadá, e Frans Pretorius, da Universidade de Princeton, nos Estados Unidos, usaram uma simulação feita em computador para mostrar conclusivamente, pela primeira vez, que uma colisão de partículas realmente pode gerar um buraco negro.

Utilizando centenas de computadores, Choptuik e Pretorius calcularam as interações gravitacionais entre as partículas que colidem (eles utilizaram sólitons) e descobriram que um buraco negro irá se formar se duas partículas colidirem com uma energia total de cerca de um terço da energia de Planck.

Esta comprovação não muda em nada a discussão sobre o eventual fim do mundo causado por buracos negros que engoliriam a Terra. Ninguém passa a ter mais razão ou menos razão porque os dois grupos já partiam do pressuposto de que havia a possibilidade de geração dos buracos negros.

Mas a descoberta tem implicações importantes para os trabalhos do LHC e abre inclusive a possibilidade de que sejam descobertas novas dimensões do Universo.

Como se forma um buraco negro

O elemento essencial para o nascimento de um buraco negro é a compressão de uma quantidade suficiente de massa ou de energia em um volume suficientemente pequeno, como acontece quando uma estrela muito grande colapsa sobre si mesma.

Segundo a Teoria da Relatividade Geral de Einstein, a massa e a energia deformam o espaço e o tempo - considerados por ele como sendo uma entidade única, o espaçotempo - para criar o efeito que percebemos como sendo a força da gravidade.

Se uma massa ou energia grandes o suficiente forem comprimidas em um espaço pequeno o suficiente, essa deformação do espaçotempo se torna descomunal, gerando uma gravidade tão forte que nem mesmo a luz consegue escapar dela.

O objeto compactado torna-se assim um buraco negro.

E os buracos negros do LHC?

O que a simulação computadorizada de Choptuik e Pretorius demonstrou é que duas partículas podem criar um minúsculo buraco negro exatamente desta mesma forma, desde que elas colidam com uma energia acima de um limite fundamental chamado energia de Planck.

Isto significa que o LHC vai produzir buracos negros?

Não necessariamente.

Isto porque, segundo os físicos, a energia de Planck é um quintilhão de vezes maior do que a energia máxima que o LHC conseguirá atingir.

Mas há possibilidades.

Alguns teóricos preveem a existência de dimensões extras no Universo. Mesmo sendo minúsculas, essas dimensões extras, se existirem, podem efetivamente baixar a energia de Planck por um fator gigantesco, tornando a criação dos buracos negros microscópicos uma possibilidade alcançável pelas colisões que acontecerão dentro do LHC.

Dimensões extras do Universo

Ou seja, se, em vez de ser tridimensional como nossos sentidos nos dizem, o espaço realmente tiver mais dimensões, o LHC poderá de fato produzir buracos negros.

Segundo as hipóteses que defendem a existência dessas dimensões extras, elas também são microscópicas e devem estar curvadas em loops pequenos demais para serem detectados, exceto por uma colisão de partículas de alta energia.

Isso, contudo, não dá qualquer reforço aos argumentos dos catastrofistas: se existirem as dimensões extras, e se a energia do LHC for suficiente para atiçar seus efeitos, e se esses efeitos baixarem a energia de Planck, e se os buracos negros microscópicos forem formados, ainda assim, afirmam os físicos, eles deverão decair em alguns nano-nano-nanossegundos.

Ou seja, talvez o mundo possa mesmo acabar, não de fato, mas como uma metáfora - em vez de algum tipo de apocalipse, poderemos ver o fim do mundo como o concebemos até hoje, e ver nascer uma nova concepção de mundo, repleta de novas dimensões, de novos horizontes e de novas possibilidades de descobertas. Seria mesmo entusiasmante.

Objetiva com lentes deformáveis dá versatilidade a aviões robôs

Os pequenos aviões não-tripulados, verdadeiros robôs voadores, começam a descobrir que têm vocações mais pacíficas do que os seus patrocinadores militares os fizeram crer.

A vigilância ambiental, o monitoramento de grandes áreas agrícolas, a geração de imagens de áreas assoladas por catástrofes naturais e as pesquisas climáticas são apenas alguns exemplos dos serviços que esses robôs voadores já começam a prestar aos seus criadores.

Aberração cromática

Embora eles possam levar sensores de todos os tipos, a maioria das missões exige a geração de imagens das áreas monitoradas, observadas ou pesquisadas.

O desafio é que cada tipo de observação exige um tipo de imagem diferente.

Esteja o avião robô filmando o verde de uma floresta, a superfície espelhada de uma represa ou medindo o calor irradiado por uma cidade, suas câmeras devem funcionar livres de qualquer aberração cromática em uma ampla gama espectral - do ultravioleta, passando pela região visível do espectro, até o infravermelho próximo e médio.

A aberração cromática é uma espécie de defeito óptico, no qual a dispersão da luz provocada pelas diversas lentes de uma objetiva, cada uma com seu próprio índice de refração, cria interferências nas imagens.

A exigência de uma maior qualidade na captação de imagens tem limitado a ação desses aviões porque os sistemas de lentes convencionais, formados por várias lentes individuais, não são muito versáteis: quando é necessário captar mais de uma faixa do espectro, a qualidade das imagens cai muito.

Espelhos deformáveis

Até agora a solução tem sido usar conjuntos de lentes diferentes, o que impede, por exemplo, a observação das variadas regiões de uma área metropolitana ou das áreas de vegetação e rios de uma floresta em uma mesma missão. Cada observação exige a aterrissagem do avião e a troca da câmera.

A solução, felizmente, já está a caminho, em desenvolvimento por engenheiros do Instituto Fraunhofer, na Alemanha. O novo sistema utiliza espelhos deformáveis para fazer tudo o que se espera dessas câmeras multi-uso: captar imagens livres de aberração cromática em vários intervalos espectrais, utilizando uma única objetiva.

A objetiva é composta por quatro espelhos, cuidadosamente posicionados para evitar obscurecimento, produzindo uma imagem de maior contraste. Dois espelhos deformáveis cuidam da faixa tripla de captação do zoom - três comprimentos de onda diferentes - sem perda de qualidade de imagem. Esta configuração elimina a necessidade de complicados guias mecânicas dentro da objetiva.

Simulações ópticas

As simulações ópticas mostraram que os espelhos deformáveis deverão ter pelo menos 12 milímetros de diâmetro, a fim de produzir uma objetiva com uma abertura suficiente.

Os pesquisadores já demonstraram o desempenho óptico da nova objetiva: eles construíram três configurações idênticas, com três distâncias focais diferentes, nas quais os espelhos deformáveis foram substituídos por espelhos rígidos convencionais.

O próximo passo é aprimorar a técnica de fabricação dos espelhos deformáveis. Espelhos desse tipo já foram fabricados, mas ainda não foi possível alcançar o tamanho e o grau de variabilidade necessários para compor o zoom multiespectral.

Monitoramento da linha de produção

A pesquisa segue rápido por ter atraído a atenção de vários setores da indústria, que pretendem empregar o sistema em usos nos quais os cientistas sequer haviam imaginado. A indústria automobilística, por exemplo, está interessada em usar a nova objetiva em seus sistemas de monitoramento automático da linha de produção.

Os aviões robôs, por seu lado, ganharão em flexibilidade e em autonomia, já que o sistema é mais leve e consome menos bateria do que os convencionais. Isto deverá fazer com que também os pequenos robôs voadores encontrem ainda mais usos na vida civil.

Grafeno produzido industrialmente vira padrão de referência da eletrônica

Há poucos dias, a indústria apresentou o primeiro protótipo de um chip de grafeno, o promissor material que promete não apenas substituir o silício, como levar a miniaturização a novas fronteiras, além de abrir fronteiras totalmente novas em outras áreas de aplicação.

O grafeno é uma folha de carbono, a mais fina que pode existir, com apenas um átomo de de espessura, na qual os átomos formam uma estrutura parecida com uma tela de galinheiro. Entre suas propriedades inusitadas está o fato de ser o material mais forte que existe.

Como fabricar grafeno

Então, o que os cientistas estão esperando para usar esse material e criar chips e novos materiais com desempenho muito superior aos atuais?

O problema é que não é fácil fabricar folhas com um átomo de espessura. Os experimentos feitos até agora - à exceção do método desenvolvido pela Fujitsu para criar o primeiro chip com o novo material - utilizam folhas de grafeno fabricadas artesanalmente, geralmente colocando colando uma fita adesiva sobre uma folha de grafite e removendo-a cuidadosamente.

E, enquanto não for fácil obter o grafeno, as pesquisas não avançarão no ritmo que se espera.

Agora, cientistas do Laboratório Nacional de Física, do Reino Unido, desenvolveram uma técnica que permite a criação de folhas homogêneas de grafeno de dimensões macroscópicas, com qualidades muito próximas do ideal.

A técnica possibilitará, pela primeira vez, colocar de fato as folhas de grafeno nas mãos dos pesquisadores e engenheiros - com o detalhe de que eles conseguirão vê-las a olho nu.

Grafeno em escala industrial

As amostras de grafeno foram produzidas por crescimento epitaxial, um processo usado para o crescimento de cristais, em que uma camada de cristal cresce sobre outra. A base utilizada foi o carbeto de silício, em cima da qual foram criadas as folhas com um átomo de carbono de espessura.

Segundo os pesquisadores, eles já conseguem fabricar amostras de grafeno com 50 milímetros quadrados, o que já é suficiente para a fabricação de um grande número de dispositivos eletrônicos - os núcleos dos processadores mais modernos não são muito maiores do que isso.

Contar com uma amostra de dimensões significativas demonstra que o grafeno pode ser fabricado de forma prática, escalável e em ritmo industrial, algo que não foi conseguido até hoje com os bem mais famosos nanotubos de carbono - que nada mais são do que folhas de grafeno enroladas.

Rumo às aplicações práticas do grafeno

O feito também está permitindo que os cientistas meçam e entendam melhor as propriedades do promissor material.

Este foi o segundo passo dado pelos pesquisadores britânicos: a amostra de grandes dimensões permitiu que eles medissem as propriedades elétricas do grafeno com uma precisão sem precedentes, abrindo o caminho para o estabelecimento de normas práticas e precisas para essa nova geração da nanoeletrônica.

Para que produtos delicados como os transistores usados nos computadores funcionem adequadamente e sejam comercialmente viáveis, os fabricantes devem ser capazes de fazer tais medições com incrível precisão, usando um padrão internacional como referência.

A norma internacional de resistência elétrica é fornecida pelo Efeito Hall Quântico, um fenômeno pelo qual as propriedades elétricas em materiais bidimensionais podem ser determinadas com base apenas em constantes fundamentais da natureza.

Avanços práticos

Até hoje esse efeito só havia sido demonstrado com precisão suficiente em um pequeno número de semicondutores. Além disso, tais medições exigem temperaturas próximas do zero absoluto, combinadas com campos magnéticos muito fortes. O resultado, pouco prático, é que apenas alguns poucos laboratórios especializados em todo o mundo podem atingir essas condições.

Há muito se fala que o grafeno poderia fornecer um padrão ainda melhor, mas as amostras disponíveis eram insuficientes para provar isso. Ao produzir amostras de tamanho e qualidade suficientes, e demonstrar com precisão sua resistência Hall, a equipe comprovou que o grafeno tem de fato o potencial de substituir os semicondutores convencionais em uma escala maciça.

Além disso, o grafeno apresenta o Efeito Hall Quântico em temperaturas muito mais elevadas do que seus colegas semicondutores. Isto significa que o padrão de resistência do grafeno poderá ser muito mais amplamente usado, já que o número de laboratórios ao redor do mundo que conseguem atingir essas condições mais amenas é muito maior.

Embora tudo possa parecer demasiadamente teórico, o significado desse avanço é muito prático, comprovando que, além de suas vantagens já conhecidas de velocidade e durabilidade, o grafeno agora conta com condições plenas para ser produzido industrialmente, com a consequente redução dos custos dessa promissora tecnologia eletrônica.

"É verdadeiramente sensacional que uma grande área de grafeno epitaxial tenha demonstrado não apenas continuidade estrutural, mas também o grau de perfeição exigido para as medições elétricas precisas, similares às dos semicondutores convencionais, que têm uma história de desenvolvimento muito mais longa," comemora o Professor Alexander Tzalenchuk, do Laboratório Nacional de Física do Reino Unido.

E agora?

A equipe de pesquisadores está comemorando os resultados, mas não pretende dar o trabalho por encerrado. Eles planejam demonstrar medições ainda mais precisas, assim como elevar ainda mais a temperatura na qual essas medições podem ser feitas.

Mas a bola agora está também com a indústria. "O desafio para a indústria nos próximos anos será ampliar a escala de fabricação do grafeno de forma prática para atender as demandas por novas tecnologias. Nós demos um passo gigantesco e, assim que esses processos produtivos estiverem disponíveis, nós esperamos que o grafeno ofereça ao mundo uma alternativa mais rápida e mais barata do que os semicondutores convencionais," concluem eles.

O que é Efeito Hall Quântico?

O Efeito Hall Quântico surge onde uma corrente elétrica flui através de um material bidimensional em um campo magnético perpendicular e a tensão elétrica no material é medida perpendicularmente aos dois - tanto ao fluxo da corrente quanto ao campo magnético.

Dentro de determinados intervalos periódicos no campo, a taxa dessa tensão transversal à corrente, conhecida como resistência Hall, é determinada somente por uma combinação conhecida de constantes fundamentais - a constante de Planck (h) e a carga do elétron (e).

Devido a essa universalidade, o Efeito Hall Quântico fornece a base para o padrão de resistência, em princípio independente de cada amostra particular de material e das condições da medição.

Até agora, o Efeito Hall Quântico somente havia sido demonstrado com precisão suficiente em um pequeno número de semicondutores, como o silício e o grupo de heteroestruturas III-V da tabela periódica.

Devido às suas propriedades únicas, o grafeno vinha sendo apontado como candidato para fornecer um padrão ainda melhor, mas as amostras de grafeno até então produzidas eram pequenas demais e de qualidade inadequada para permitir a execução das medições.

A pesquisa foi resultado de um esforço conjunto que reuniu cientistas do Laboratório Nacional de Física e Universidade de Lancaster (Reino Unido), universidades de Chalmers e Linkoping (Suécia) e da Escola Politécnica de Milão (Itália).

Ambulâncias do Samu terão aparelho de eletrocardiograma e celular

Até o fim de 2010, todas as ambulâncias do Serviço de Atendimento Móvel de Urgência (Samu) receberão um aparelho digital de eletrocardiograma e um software de telecomunicação que vai permitir o envio de informações cardíacas dos pacientes nos primeiros minutos do atendimento a uma equipe no hospital.

O ministro da Saúde, José Gomes Temporão, explicou que as informações serão passadas via celular ainda da casa do paciente. A equipe do hospital vai analisar se o caso é de infarto e indicar o tratamento necessário. Esse procedimento, segundo Temporão, demora cerca de cinco minutos.

"Nos casos de infarto agudo do miocárdio, 50% dos óbitos ocorrem nas duas primeiras horas. Com essa estratégia, poderemos reduzir em 20% esse número", disse.

Eletrocardiograma digital

O Ministério da Saúde espera que 1,3 mil municípios em todo o país contem com ambulâncias já equipadas com o aparelho digital de eletrocardiograma até o final deste ano.

Ao todo, 450 ambulâncias de suporte avançado, que dispõem de médicos, receberão kits com esse aparelho, além de um celular, como parte do Sistema Tele-Eletrocardiografia Digital, lançado hoje (28).

A iniciativa resulta de parceria entre o Ministério da Saúde e o Hospital do Coração.

Eletrocardiograma pelo celular

Atualmente, 86 ambulâncias já contam com esse sistema em 37 municípios de nove estados e no Distrito Federal.

Por meio dele, as informações de um eletrocardiograma de um paciente atendido em uma dessas ambulâncias podem ser enviadas por celular para uma central de atendimento, onde há cardiologistas.

Esses médicos farão o laudo, a ser será enviado para o celular disponível na ambulância, junto com o procedimento a ser feito, nos casos em que o paciente receber o diagnóstico de algum problema no coração.

Dúvida do diagnóstico

De acordo com o ministro da Saúde, José Gomes Temporão, essa tecnologia permite mais agilidade e precisão no atendimento. "Antes dessa tecnologia, havia médicos que dominavam mais ou menos um diagnóstico feito por meio de um eletrocardiograma. Isso poderia significar que o paciente ia para um hospital com dúvida do diagnóstico".

O coordenador-geral do Samu no Distrito Federal, Rodrigo Casadei, disse que o sistema vai ajudar não só nos casos de doenças do coração, mas também em outros diagnósticos. "Ele pode nos auxiliar numa série de outras patologias que não são fatais, por exemplo, um paciente que está tendo uma descompensação diabética [excesso de açúcar no sangue] a causa pode ser cardíaca e isso pode ser diagnosticado por esse equipamento."

O treinamento da equipe que vai usar os aparelhos será feito pelo Hospital do Coração de São Paulo. A unidade está investindo cerca de R$ 6 milhões nessa primeira etapa. A parceria faz parte da política dos hospitais de excelência de receberem renúncia fiscal de filantropia ao investirem em educação e treinamento de hospitais, informou o ministro.

terça-feira, 26 de janeiro de 2010

Bactérias modificadas ganham relógios genéticos e dão show de luzes



Cientistas norte-americanos criaram um "show de luzes" produzida por bactérias, que foram geneticamente modificadas para emitir brilho em sincronia.

No experimento, a equipe de estudiosos da Universidade da Califórnia em San Diego criou "relógios genéticos" sincronizados nas bactérias, programando-as para ligar e desligar uma proteína que brilha.

As ondas sincronizadas, ou oscilações, são importantes para os cientistas, pois elas controlam funções importantes no corpo humano, como o ciclo de sono, os processos de aprendizado e a liberação regular de substâncias no corpo, incluindo insulina.

Controladas, essas ondas de atividade poderiam ser usadas, no futuro, para criar sensores biológicos ou para programar células para liberarem doses periódicas de remédios.

Sensor biológico

A mesma equipe de cientistas, liderada pelo pesquisador Jeff Hasty, conseguiu há um ano produzir células que "piscavam" e podiam ser ajustadas para alterar a periodicidade com que suas luzes acendiam e apagavam.

Mas, nesta última experiência, os cientistas conseguiram que as bactérias sincronizassem suas atividades enquanto a colônia crescia.

"Se você quer um sensor, e quiser usar a periodicidade das células ao ligar e desligar para sinalizar algo a respeito do ambiente, você precisa de um sinal sincronizado", afirmou Hasty.

Células sincronizadas

Para conseguir este sinal, o cientista e sua equipe incorporaram dois genes nas bactérias.

Um dos genes produziu o que ele descreveu como "um sistema de resposta negativa". Este foi o componente crucial que estimulou as oscilações nas células, ligando e desligando a proteína que brilha.

O outro gene produziu um elemento químico que se moveu entre as bactérias, permitindo que elas conversassem e comunicassem umas às outras a taxa de oscilação.

O professor Martin Fussenegger, cientista da Universidade EHT de Ciência e Tecnologia de Zurique, na Suíça, afirmou que esta foi a "primeira vez que dispositivos de tempo em células diferentes foram sincronizados".

"É um feito incrível. Mas o verdadeiro avanço (será quando) pudermos fazer isso com células de mamíferos, e esta pesquisa estabeleceu a base para isto", acrescentou o cientista, que não participou do estudo.

Transístor orgânico imita sinapses e abre caminho para neurocomputadores

Cientistas franceses criaram um transístor orgânico que é capaz de simular as principais funcionalidades de uma sinapse, abrindo caminho para a criação de neurocomputadores, uma nova geração de computadores futuristas que poderão funcionar de forma similar ao cérebro humano.

Neurotransístor

O transístor é o componente básico de toda a eletrônica, e dos computadores em particular, enquanto uma sinapse é uma conexão entre os neurônios, as células fundamentais do cérebro.

O novo transístor orgânico capaz de imitar uma sinapse foi construído com uma molécula chamada pentaceno e com nanopartículas de ouro.

O pentaceno é uma molécula orgânica que possui 22 átomos de carbono e 14 átomos de hidrogênio, uma espécie de cristal submicrocópico. O pentaceno foi a primeira molécula individual a ser fotografada pelos cientistas.

O "neurotransístor" foi batizado de NOMFET - Nanoparticle Organic Memory Field-Effect Transistor, uma expressão virtualmente intraduzível que junta transístor de efeito de campo, um tipo clássico de transístor eletrônico, com as indicações de que ele funciona como uma memória, é orgânico (feito à base de carbono) e utiliza nanopartículas.

Computador neuronal

Apesar das inúmeras comparações, e de termos como "cérebro eletrônico" terem uso corrente, um computador funciona de forma muito diferente do cérebro humano. As incríveis capacidades deste último fazem com que os cientistas procurem imitá-lo há muito tempo, até agora com resultados limitados.

A maior parte dos esforços nesse sentido tem procurado usar células vivas e interfaceá-las com circuitos eletrônicos - veja, por exemplo, Neurônios são usados para construir circuito de neurocomputador e Robô é controlado por cérebro biológico artificial.

A pesquisa agora divulgada trabalha no sentido oposto, criando componentes inertes que procuram imitar o princípio de funcionamento do organismo biológico - outra abordagem nesse mesmo sentido pode ser vista na reportagem Neurônio artificial pode criar estrutura capaz de emular cérebro humano

Sinapses

Uma sinapse é a junção entre dois neurônios, permitindo a transmissão de mensagens elétricas de um neurônio para outro e a adaptação da mensagem em função da natureza do sinal de entrada, um fenômeno conhecido como plasticidade.

Por exemplo, se a sinapse recebe pulsos com intervalos muito curtos, ela irá transmitir uma ação potencial mais intensa. Inversamente, se os pulsos são mais espaçados, o potencial de ação será mais fraco.

Foi esta plasticidade que os pesquisadores conseguiram reproduzir com o seu neurotransístor NOMFET.

Transistores

Um transístor, o bloco básico de qualquer circuito eletrônico, é usado principalmente como um interruptor simples, permitindo que um sinal seja transmitido ou interrompido - ele pode funcionar também como um amplificador.

Os transistores são feitos principalmente de silício e outros materiais semicondutores. Mais recentemente, os pesquisadores começaram a fabricar transistores à base de carbono, os chamados transistores orgânicos.

A inovação do NOMFET reside em uma combinação inédita de um transístor orgânico com nanopartículas de ouro.

Plasticidade cerebral

As nanopartículas de ouro encapsuladas com pentaceno, fixadas no canal de passagem de corrente elétrica do transistor e revestidas com pentaceno, têm um efeito de memória que permite que elas imitem a maneira como uma sinapse funciona durante a transmissão dos potenciais de ação entre dois neurônios.

Em outras palavras, eles replicam o fenômeno da plasticidade.

E, o que é ainda mais significativo, esta propriedade de plasticidade significa que esse neurotransístor eletrônico será capaz de evoluir em função do sistema no qual ele for utilizado.

Nos testes, um transístor orgânico com nanopartícula apresentou um rendimento similar ao dos sete transistores CMOS comuns que são necessários para imitar a plasticidade que ele possui individualmente.

Cérebro artificial

Os pesquisadores franceses afirmam que seus NOMFETs já foram otimizados para funcionar em suas dimensões nanométricas, o que permitirá sua integração em larga escala para a construção de circuitos integrados que utilizem um grande número deles - eventualmente o primeiro circuito eletrônico que, quando construído, irá merecer a qualificação de "cérebro eletrônico" ou "cérebro artificial".

Segundo eles, os computadores inspirados em neurônios, que poderão ser construídos usando a nova tecnologia, serão capazes de desempenhar funções comparáveis às do cérebro humano.

Ao contrário dos computadores tradicionais, baseados em transistores de silício, os neurocomputadores inspirados no cérebro, seja no cérebro humano, seja no cérebro mais simples de animais, serão potencialmente capazes de resolver problemas muito mais complexos, superando os supercomputadores atuais.

Bactérias despontam na produção de biocombustíveis

Duas pesquisas independentes, que acabam de ser divulgadas nos Estados Unidos, mostram que as bactérias geneticamente modificadas logo poderão ser mais importantes do que as plantas usadas para a produção de biocombustíveis.

Biocombustível perfeito

Pesquisadores da Universidade da Califórnia modificaram geneticamente uma cianobactéria para fazê-la consumir dióxido de carbono e produzir o combustível líquido isobutanol, que tem grande potencial como alternativa à gasolina.

Para completar esse quadro, que até parece bom demais para ser verdade, a reação química para produção do combustível é alimentada diretamente por energia solar, através da fotossíntese.

O processo tem duas vantagens para a meta global de longo prazo de se alcançar uma economia sustentável, que utilize energia mais limpa e menos danosa ao meio ambiente.

Em primeiro lugar, ele recicla o dióxido de carbono, reduzindo as emissões de gases de efeito estufa resultantes da queima dos combustíveis fósseis.

Em segundo lugar, ele usa energia solar para converter o dióxido de carbono em um combustível líquido que pode ser usado na infraestrutura de energia já existente, inclusive na maioria dos automóveis.

Desconstrução da biomassa

As atuais alternativas à gasolina, o que inclui os biocombustíveis derivados de plantas ou de algas, exigem várias etapas intermediárias antes de gerar os combustíveis utilizáveis.

"Esta nova abordagem evita a necessidade de desconstrução da biomassa, quer no caso da biomassa celulósica, quer na biomassa de algas, algo que representa uma grande barreira econômica para a produção de biocombustíveis hoje", disse o líder da equipa James C. Liao. "Portanto, [nossa biotecnologia] é potencialmente muito mais eficiente e menos dispendiosa do que as abordagens atuais."

Transformando CO2 em combustível

Usando a cianobactéria Synechoccus elongatus, os pesquisadores primeiro aumentaram geneticamente a quantidade da enzima RuBisCo, uma fixadora de dióxido de carbono. A seguir, eles juntaram genes de outros microrganismos para gerar uma cepa de bactérias que usa dióxido de carbono e luz solar para produzir o gás isobutiraldeído.

O baixo ponto de ebulição e a alta pressão de vapor do gás permitem que ele seja facilmente recolhido do sistema.

As bactérias geneticamente modificadas podem produzir isobutanol diretamente, mas os pesquisadores afirmam que atualmente é mais fácil usar um processo de catálise já existente e relativamente barato para converter o gás isobutiraldeído para isobutanol, assim como para vários outros produtos úteis à base de petróleo.

Segundo os pesquisadores, uma futura usina produtora de biocombustível baseada em suas bactérias geneticamente modificadas poderia ser instalada próxima a usinas que emitem dióxido de carbono - as termelétricas, por exemplo. Isto permitiria que o gás de efeito estufa fosse capturado e reciclado diretamente em combustível líquido. Para que isso se torne uma realidade prática, os pesquisadores precisam aumentar a produtividade das bactérias e diminuir o custo do biorreator.

Bactérias autodestrutivas A equipe da Universidade do Estado do Arizona também usou a genética e as cianobactérias fotossintéticas, mas em uma abordagem diferente.

O grupo do professor Roy Curtiss usou os genes de um bacteriófago - um microrganismo que ataca bactérias - para programar as cianobactérias para se autodestruírem, permitindo a recuperação das gorduras ricas em energia - e dos seus subprodutos, os biocombustíveis.

Segundo Curtiss, as cianobactérias são fáceis de manipular geneticamente e têm um rendimento potencialmente maior do que qualquer planta atualmente utilizada como fonte para os biocombustíveis capazes de substituir a gasolina ou o diesel.

Mas, para realizar esse potencial, é necessário colher as gorduras dos micróbios, o que atualmente exige uma série de reações químicas muito caras.

Otimização

Para fazer as cianobactérias liberarem mais facilmente sua preciosa carga de gorduras, Curtiss e seu colega Xinyao Liu, inseriram nelas os genes dos bacteriófagos, que são controlados pela simples adição de quantidades-traço de níquel no seu meio de cultura.

Os genes dos invasores dissolvem as membranas protetoras das cianobactérias, fazendo-as explodir como um balão, liberando as gorduras.

A solução também não é definitiva, mas os pesquisadores já contam com um financiamento de US$5,2 milhões nos próximos dois anos para otimizar a reação e aumentar seu rendimento.

Pesquisa da Unicamp impulsiona campo da computação quântica

Velocidade de processamento maior do que o mais avançado computador atual - exponencialmente maior. Esta é uma das vantagens que se espera de uma arquitetura computacional baseada nos conceitos da física quântica.

Por enquanto, a chamada computação quântica permanece largamente fundada nas teorias.

Mas pesquisas feitas em diversos países têm avançado o conhecimento na área de forma constante, como é o caso de um trabalho feito na Universidade Estadual de Campinas (Unicamp) que acaba de dar um passo importante para a construção do computador quântico em um futuro próximo.

Informática quântica

A pesquisa, desenvolvida pelo Professor Walter Carnielli e por seu orientando de doutorado, o colombiano Juan Carlos Agudelo, dá pistas para o avanço da informática quântica ao utilizar a lógica paraconsistente como fundamento para a elaboração de algoritmos voltados a esse modelo.

A computação quântica é fundamentada em conceitos criados pela física quântica, como o da superposição (quando uma partícula está em condições contraditórias simultaneamente) e do entrelaçamento (quando a alteração em uma partícula provoca o mesmo efeito em outra que se encontra distante).

Segundo Carnielli, assim como a física clássica não apresenta resposta para situações de contradição em sistemas físicos, tampouco a lógica booleana, na qual os computadores atuais se baseiam, consegue responder a configurações em que as cláusulas sejam contraditórias.

Controle racional da contradição

A solução encontrada pelos pesquisadores foi utilizar a chamada "lógica paraconsistente", capaz de obter resultados racionais mesmo nos casos em que duas ou mais condições não possam ocorrer (na lógica clássica) ao mesmo tempo.

Por exemplo, um comando que indique virar à esquerda e à direita simultaneamente. "Ou, mais dramaticamente, a transmissão de informações contraditórias de velocidade ao computador de bordo, como no caso da queda do voo 447 da Air France. A falta de controle racional da contradição tem como consequência, num caso desses, o desligamento do piloto automático, obrigando o comandante a pilotar sem nenhum instrumento, o que é extremamente difícil", disse Carnielli.

Em sua tese de doutorado, intitulada Computação Paraconsistente: Uma Abordagem Lógica à Computação Quântica, Agudelo criou um modelo teórico que pode inspirar a criação de softwares para os computadores quânticos. "Ao elaborar circuitos paraconsistentes, simulamos uma proposta de circuitos quânticos", disse Agudelo.

Máquina de Turing quântica

O pesquisador idealizou um computador que funciona com a lógica paraconsistente.

Utilizando o esquema idealizado pelo matemático britânico Alan Turing (1912-1954), o cientista da computação esboçou uma máquina na qual corre uma fita dividida em células. A cabeça de leitura lê apenas uma célula por vez, a qual contém um sinal gráfico e um comando que corresponde a correr para a direita ou para a esquerda.

Na versão quântica, essa concepção moderna da máquina de Turing admite não um, mas um conjunto de posições que seriam inconcebíveis para a lógica clássica, como, por exemplo, um comando que faça a fita correr para a esquerda e para a direita simultaneamente. "Na lógica paraconsistente esses estados são superpostos, como se fossem empilhados", explicou Agudelo.

Criptografia quântica

Segundo Carnielli, a originalidade do trabalho está na associação da lógica paraconsistente à computação quântica. Mesmo traçando modelos iniciais básicos, eles poderão abrir caminhos para uma produção de programas para computadores quânticos.

A mera expectativa da computação quântica já tem aquecido o mercado de software, ressalta o professor da Unicamp. Universidades já começam a esboçar programas quânticos e empresas já anunciam sistemas de criptografia nesse novo paradigma.

"Os sistemas de criptografia atuais se baseiam em um código formado por um número grande que, para ser quebrado, deve ser decomposto em números primos", explicou. Quanto maior forem esses fatores primos, mais difícil será a descoberta do código.

No entanto, com o advento do modelo de processamento quântico essa criptografia tradicional será atacada com muita facilidade, estima Carnielli. "O esquema criptográfico conhecido como RSA, largamente utilizado no comércio digital, em bancos e compras com cartões de crédito pela internet, baseia-se no fato de que é computacionalmente muito difícil conseguir fatorar um número grande no produto de dois números primos", disse.

"O tempo estimado, por exemplo, para se conseguir fatorar um número de 2048 bits (chave de uma criptografia RSA) ultrapassaria a idade da Terra. Um algoritmo quântico, no entanto, realizaria essa tarefa em menos de 6 horas. Dessa forma, com os computadores quânticos as chaves RSA perderiam completamente sua eficácia.

Esse problema motivou a criação da criptografia quântica. Nessa tendência, crescem os investimentos feitos em pesquisas de criptografia quântica a fim de fazer frente aos futuros computadores e apresentar um sistema de codificação praticamente inexpugnável", disse.

Processador e mouse quânticos

Para o professor da Unicamp, as máquinas quânticas devem começar pequenas. "Antes do computador quântico, devem surgir estruturas mais simples, como o chip e o mouse quântico", indicou.

Para tanto, é fundamental uma engenharia de software que contemple o novo paradigma. Por conta disso, o trabalho feito na Unicamp tem chamado a atenção da comunidade internacional.

Carnielli ressalta que a computação quântica é uma nova fronteira a ser explorada do ponto de vista científico, industrial e comercial. "Aspectos essenciais a serem explorados são as correlações não-clássicas e a grande variedade de graus de liberdade em alto grau de desempenho computacional. A questão é estratégica a ponto de não poder ser negligenciada em nenhum aspecto da computação, ainda mais quando se têm presentes as limitações impostas pela chamada Lei de Moore", disse.

Projeto ambicioso

Um projeto ambicioso envolvendo um time de especialistas e parceiros estratégicos, liderado por Waldyr Alves Rodrigues Jr. (Steriwave Quantum Computing UK-Brazil e Unicamp), Dario Sassi Thober (Centro de Pesquisas Avançadas Wernher von Braun, de Campinas) e Carnielli pretende atacar a questão sob vários aspectos, incluindo matemática, física, lógica, engenharia de processos e e-comércio, focando em especial as áreas de lógica quântica e criptografia quântica e suas aplicações comerciais e industriais.

"O projeto, que envolve alto custo e considerável complexidade, encontra-se em fase de negociação para financiamento por parte de empresas estrangeiras, prevendo um prazo de implantação inicial de dois anos e a criação de empresas incubadas", explicou Carnielli.

Brasil recebe autorização para produzir medicamentos radioativos

A Agência Internacional de Energia Atômica (AIEA ) aprovou a participação do Brasil no Projeto de Pesquisa Coordenado (CRP) para desenvolvimento de técnicas para produção de molibdênio-99 utilizando urânio-235 de baixo enriquecimento por fissão neutrônica.

O projeto é coordenado pelo Ipen, por meio da Diretoria de Radiofarmácia (Dirf) com previsão de conclusão no final de 2010 e faz parte da estrutura do projeto para construção do Reator Multipropósito Brasileiro (RMB).

Vários grupos de pesquisadores do instituto participam diretamente do projeto incluindo, as Diretorias de Radiofarmácia, de Projetos Especiais (DPE) e os Centros do Combustível Nuclear (CCN), de Química e Meio Ambiente (CQMA), de Ciência e Tecnologia dos Materiais (CCTM) e de Células a Combustível (CCCH).

Radioisótopos médicos

O molibdênio-99 é a matéria-prima para a produção de geradores de tecnécio-99m, radiofármaco utilizado em cerca de 80% dos exames para diagnóstico médico. Desde maio de 2009 há uma grave crise internacional no fornecimento do radioisótopo produzido somente em reatores nucleares, prejudicando os pacientes.

No projeto da AIEA, a tecnologia a ser desenvolvida é a de dissolução ácida, que utiliza alvos de urânio metálico e gera menor volume de rejeitos sólidos e líquidos. O Chile é o primeiro país participante do CRP que irá utilizar essa tecnologia em larga escala.

Urânio de baixo enriquecimento

O urânio-235 de baixo enriquecimento (abaixo de 20%) é fissionado e gera vários isótopos, entre eles o molibdênio-99 e o iodo-131, também utilizado em medicina nuclear.

Argentina, Canadá, África do Sul e demais países produtores de molibdênio-99 utilizam a técnica da dissolução básica, dissolvendo o urânio irradiado com uma base.

O Ipen também retoma essa linha de desenvolvimento já pesquisada no passado, utilizando miniplacas elaboradas pelo CCN. As miniplacas contendo o urânio-235, foram produzidas no CCN e passarão, ainda não irradiadas, por experimentos de dissolução e simulações do restante do processo de separação e purificação do molibdênio-99.

Terapia fotodinâmica usa luz para matar bactérias nos dentes

A terapia fotodinâmica, normalmente usada para o tratamento de alguns tipos de câncer superficiais, também pode ser usada para combater fungos e bactérias, tornando-se assim mais uma aliada no tratamento dentário.

Na Faculdade de Odontologia de Bauru (FOB) da USP, um estudo inédito pretende usar a terapia fotodinâmica para controlar a desmineralização dentária por meio do combate a microrganismos como o Streptococcus mutans, responsável pela cárie.

O autor do trabalho é o odontopediatra Thiago Cruvinel da Silva, pesquisador da FOB que atualmente realiza seus estudos na Academisch Centrum Tandheelkunde Amsterdam (ACTA), na Holanda.

O que é terapia fotodinâmica?

A terapia fotodinâmica - também chamada de PDT (sigla em inglês para Photodynamic Therapy) - consiste em usar uma substância química - chamada fotossensibilizador - capaz de deixar a bactéria sensível à luz.

O fotossensibilizador interage com o microrganismo. Quando a luz é dirigida a ele, o microrganismo morre.

Cruvinel utiliza como fonte de luz um LED (sigla em inglês para Light Emitting Diode, ou Diodo Emissor de Luz) que produz a cor vermelha.

Biotable

O equipamento usado para emitir a luz do LED foi especialmente desenvolvido para esta pesquisa pelo professor Vanderlei Bagnato, do Instituto de Física de São Carlos (IFSC) da USP. "O professor Bagnato já patenteou esse equipamento, que recebeu o nome de Biotable, e outros pesquisadores já o estão utilizando em outros centros no Brasil", informa Cruvinel.

A cor vermelha do LED foi usada, segundo o pesquisador, porque cada agente fotossensibilizador responde melhor a um determinado comprimento de onda de luz. "Estou trabalhando com um fotossensibilizador produzido na Rússia, chamado Photogem, derivado de hematoporfirina, e ele responde bem à luz vermelha", explica Cruvinel.

"A vantagem de usar fotossensibilizadores derivados de hematoporfirina é que eles foram os primeiros a serem aprovados por órgãos como o Food and Drug Administration (FDA), dos Estados Unidos, para serem utilizados em terapia fotodinâmica", completa.

Luz que mata bactérias

O odontopediatra conta que os primeiros testes demonstraram que esse equipamento foi eficaz no controle de Streptococcus mutans e Enterococcus faecalis, bactérias previamente crescidas sobre superfícies de dentes bovinos.

Sobre o modo como a bactéria morre, Curvinel explica que "Depois que a luz é aplicada, o fotossensibilizador estimula a produção de radicais livres no local. Eles são responsáveis por gerar estresse na bactéria, até a sua morte".

Modelo de Rob

O próximo passo da pesquisa é transferir os estudos para um modelo chamado Modelo de Rob, desenvolvido por Rob Exterkate, pesquisador da Academisch Centrum Tandheelkunde Amsterdam.

O Modelo de Rob é composto por uma placa de aço onde são inseridos 24 espécimes (dentes bovinos) em peças fixadas à placa. Com isso é possível ter em laboratório condições similares às encontradas na boca humana.

"Pretendemos estudar a terapia fotodinâmica também em microcosmos bacterianos, que simula todas as bactérias que estão presentes na saliva das pessoas", conta. Isso poderá ser feito inserindo o Modelo de Rob dentro da Biotable.

Terapia fotodinâmica em odontologia

O pesquisador lembra que apesar de a terapia fotodinâmica já estar sendo usada para tratar alguns tipos de câncer em hospitais do Brasil, ainda é preciso realizar inúmeros testes para usá-la em tratamentos odontológicos.

"Essa terapia ainda está sendo testada basicamente em laboratório. Existem muito poucos estudos clínicos, até mesmo para definirmos como os agentes [luz e agentes fotossensibilizantes] trabalham e qual a segurança deles", ressalta.

De acordo com o odontopediatra, existem outras questões envolvidas no trabalho como, por exemplo, saber se a terapia fotodinâmica pode causar algum dano à polpa dentária ("nervo do dente") ou quais os parâmetros mais adequados para controlar as bactérias.

"Existem alguns periodontistas que já estão utilizando PDT no consultório. Porém, não existem estudos suficientes principalmente sobre a eficácia e segurança da técnica", conta.

Sem riscos para os pacientes

Cruvinel acredita que em 4 ou 5 anos estarão disponíveis os primeiros resultados bem confiáveis de como utilizar essa técnica sem grandes riscos e obtendo os melhores resultados. "Dessa forma, acredito que a PDT poderá ser rapidamente difundida e de uso comum nos consultórios", pondera.

Crianças com "ossos de vidro" já podem ser tratadas

Cientistas da Grã-Bretanha anunciaram a descoberta de que um medicamento usado para tratar a osteoporose pode ajudar a diminuir o número de fraturas em crianças que sofrem da chamada síndrome dos ossos de vidro.

Mais de 50 crianças participaram de um teste realizado no Hospital Infantil de Sheffield, no norte da Inglaterra, que estabeleceu que uma dose semanal de apenas 2 miligramas de risedronato pode reduzir o risco de fraturas.

Fratura no útero

Um dos voluntários nos testes foi o adolescente Luke Hall, da cidade de Leeds. Ele sofreu sua primeira fratura ainda no útero da mãe. Até chegar à adolescência, foram mais de 40 lesões.

"Quando fui para meu primeiro ultrassom, aos três meses de gravidez, os médicos já notaram um problema - ele tinha quebrado a perna", contou à BBC Dorothy Hall, mãe do menino.

"Ao começar a engatinhar, ele sofreu várias fraturas, principalmente nas pernas. Mas também quebrou outros membros e dedos dos pés e das mãos - ao menos uma vez a cada dois meses", contou à BBC Dorothy Hall, mãe do menino.

Ossos mais fortes

Com o medicamento proposto pelos médicos do hospital, Luke tem se mostrado mais animado e mais cheio de energia, segundo a mãe.

Os ossos do garoto também estão mais fortes, mas o risco de fraturas ainda existe.

"Ele entende suas limitações", disse a mãe. "Há coisas que ele não pode fazer. Por exemplo, ele jogava futebol até os 13 anos, mas entendeu que teve de parar porque o risco de fraturas aumenta quando as crianças crescem mais."

Osteogenesis imperfecta

Os cientistas acreditam que a descoberta cria uma alternativa mais barata e mais acessível aos remédios já existentes para o tratamento de casos menos graves.

"Queríamos ver se é possível reduzir o número de internações por causa da doença, e todas as crianças que participaram dos testes apresentaram menos fraturas", disse à BBC o médico Nick Bishop, especialista na síndrome dos ossos de vidro do hospital.

"Levamos sete anos para descobrir os benefícios deste medicamento, e essa descoberta é um passo enorme."

A síndrome de ossos de vidro, ou osteogenesis imperfecta, é uma doença genética hereditária que acompanha um indivíduo desde o nascimento.

Portadores da doença apresentam colágeno de má qualidade ou em quantidade insuficiente para oferecer apoio à estrutura óssea.

domingo, 24 de janeiro de 2010

A flecha quântica do tempo: Por que o tempo não anda para trás

As leis matemáticas da física funcionam tão bem para os eventos do passado quanto para os eventos do futuro. No entanto, nunca no mundo real a porção de café em uma xícara se desmisturou do leite.

Agora, uma nova teoria pretende oferecer uma nova explicação para este aparente conflito entre a simetria do tempo das leis físicas e a chamada "seta do tempo", sempre apontando para o futuro, que nós vemos nos eventos cotidianos.

Quando vistos em termos quânticos, os eventos que aumentam a entropia do Universo deixam registros de si mesmos em seu ambiente. Os pesquisadores propõem que eventos que dessem marcha a ré no tempo, indo para o passado, reduziriam a entropia, não podendo deixar qualquer vestígio de terem ocorrido, o que equivale a não terem de fato ocorrido.

Termodinamicamente falando, sempre que dois corpos de temperaturas desiguais são postos juntos, a energia flui entre eles até igualar as duas temperaturas. Associado com essa difusão de calor está um aumento na quantidade conhecida por entropia. Tanto quanto saibamos, o calor nunca flui espontaneamente no sentido inverso, e a entropia do Universo está sempre aumentando.

Reverter a flecha do tempo seria equivalente a diminuir a entropia, por exemplo, se um objeto a uma temperatura uniforme espontaneamente se aquecesse em um ponto e se resfriasse em outros.

O demônio de Maxwell

Em um experimento mental do século 19, um poderoso diabinho chamado demônio de Maxwell foi capaz de realizar uma separação assim para um gás ao conhecer a posição e a velocidade de cada molécula do gás no interior de uma caixa com uma partição.

Usando um obturador em um buraco na partição, o demônio retém as moléculas de alta energia em um lado e permite que as moléculas de baixa energia se juntem do outro lado.

Acontece que o demônio teria de gastar energia e aumentar a sua própria entropia, de modo que a entropia total do Universo continuaria subindo.

Do fluxo de calor para o fluxo de informação

No mundo quântico, o demônio redutor de entropia teria uma tarefa diferente porque, na versão da mecânica quântica da entropia, não é o calor que flui quando a entropia muda, é a informação.

Lorenzo Maccone, da Universidade de Pavia, na Itália, agora descreveu uma outra experiência mental para ilustrar as consequências da redução da entropia quântica.

Uma pesquisadora, Alice, mede o estado do spin de um átomo enviado por seu amigo Bob, que está, em tudo o mais, totalmente isolado do laboratório de Alice. O átomo está em um estado combinado (superposição) de spin para cima e spin para baixo simultaneamente, até que Alice o meça, quando então ele se mostrará para cima ou para baixo.

Do ponto de vista de Alice, seu laboratório ganha um único bit de informação do exterior, que é então copiado e gravado em sua memória e no disco rígido do seu computador. Esta informação que flui do átomo para o laboratório aumenta a entropia, do ponto de vista de Alice.

Maccone argumenta que, como Bob não vê o resultado, do seu ponto de vista o estado do spin do átomo nunca se resolve em para cima ou para baixo. Em vez disso, ele torna-se quantum-mecanicamente correlacionado, ou entrelaçado, com o estado quântico do laboratório. Ele não vê nenhum fluxo de informação e nenhuma mudança na entropia.

Apagando o passado

Bob desempenha o papel do demônio de Maxwell. Ele tem o controle total do estado quântico do seu laboratório. Para reduzir a entropia do laboratório, do ponto de vista de Alice, Bob inverte o fluxo daquele bit de informação removendo qualquer registro do spin do átomo do disco rígido de Alice e do seu cérebro.

Ele faz isso por meio de uma complicada transformação que desentrelaça o estado quântico do laboratório do estado quântico do átomo. Maccone escreve em seu artigo que tal reversão não viola as leis da física quântica.

Na verdade, da perspectiva de Bob, a informação quântica do átomo mais o laboratório de Alice é a mesma quer os dois estejam entrelaçados ou não - não há mudança na entropia como quando se olha de fora.

Irreversibilidade do tempo

Essa reversão poderia acontecer na vida real, afirma Maccone, mas porque o Universo - como Alice - não manteria nenhuma lembrança deles, eles não teriam nenhum efeito sobre como nós percebemos o mundo.

O artigo passa a mostrar matematicamente como este raciocínio se aplica de forma geral, com o Universo tomando o lugar de Alice.

Jos Uffink, da Universidade de Utrecht, na Holanda, aceita alguns aspectos do trabalho mas não está totalmente convencido. "O observador pode muito bem reter uma memória parcial do evento," depois do processo de redução da entropia, diz ele. Mesmo assim, ele chama a abordagem do artigo de "completamente nova" e as suas conclusões de "surpreendentes".

Uffink afirma que continua a haver um vigoroso debate sobre a relação entre a informação como uma quantidade física objetiva e a "irreversibilidade" aparente de tantos eventos no mundo ao nosso redor.