segunda-feira, 28 de fevereiro de 2011

Site brasileiro vai ao espaço em satélite da NASA

Quando o satélite espacial Glória (Glory) subir ao espaço nesta semana, ele estará levando consigo uma pastilha de silício onde está gravado o nome do Site Inovação Tecnológica - www.inovacaotecnologica.com.br.

A iniciativa é parte do programa de divulgação científica da NASA, cujo principal objetivo é engajar estudantes e o público em geral nas missões espaciais, fomentando o interesse pelos aspectos científicos das missões e despertando o interesse pela ciência em geral.

É a primeira vez que um site brasileiro participa do programa.

A inscrição brasileira foi submetida assim que o satélite Glória foi incluído no programa de divulgação científica, em Setembro de 2008, tendo sido aceita em 04 de Dezembro de 2009.

O Site Inovação Tecnológica é o maior site de divulgação científica em língua portuguesa, no ar há quase 12 anos e reconhecido por meio de links de centenas de instituições de ensino do Brasil e do exterior, incluindo todas as principais universidades brasileiras.

O material divulgado pelo Site Inovação Tecnológica já foi tema de oito vestibulares e está presente em 54 livros didáticos editados para uso nas escolas brasileiras neste ano de 2011 - foram mais de duas centenas de livros didáticos desde que o site entrou no ar.

Satélite Glória

A principal missão do satélite Glória é estudar o sistema climático da Terra, desvendado o papel representado pelos aerossóis presentes na atmosfera e mensurando a influência da radiação solar sobre o clima.

O satélite possui dois instrumentos científicos principais.

O primeiro é um detector de aerossóis, chamado APS (Aerosol Polarimetry Sensor), que irá detectar informações sobre essas micropartículas, incluindo formato, composição e capacidade de reflexão da luz.

O segundo instrumento é um medidor da luz solar, chamado TIM (Total Irradiance Monitor), que irá monitorar as variações na atividade solar detectando a quantidade de energia que chega à camada superior da atmosfera da Terra.

O satélite Glória vai se juntar a uma frota de satélites de monitoramento ambiental, chamada A-Train, formada por sete satélites, cada um dos quais voltado a um aspecto específico da climatologia.

A duração prevista da missão científica do satélite Glória é de 30 anos.

Memory scraping burla criptografia e já é uma das principais ameaças de 2011

O que vem a ser “pervasive memory scrapping” e por que essa tecnologia é considerada pelo Instituto SANS como sendo um dos ataques a sistemas mais perigosos de 2011?

Vamos simplificar.

“Essa técnica é aplicada por hackers para garantir acesso privilegiado (de administrador de sistemas) e obter informações de identificação pessoal e outra miríade de dados confidenciais”, explica Ed Skoudis, consultor sênior da empresa InGuardians e instrutor em eventos da SANS. De acordo com Skoudis, a todo momento surgem evidências sobre o emprego de tais ataques.

“Os dados são criptografados onde ficam armazenados”, explica Skoudis. Junto de Johannes Ulrich, pesquisador-chefe do instituto SANS, Skoudis apresentou o relatório em que afirma o número de ataques à sistemas criptografados estar aumentando.

“Apesar de criptografadas, assim que as informações são processadas elas ficam vulneráveis”, alerta o executivo.

A criptografia é, sem dúvida, uma boa ideia para armazenar dados confidenciais. Em certas ocasiões, pode até ser requerida por políticas e regulamentações. O que os hackers fazem no momento, é explorar as brechas na trama da criptografia para furtar informações valiosas.

“Eles (os hackers) se aproveitam do momento em que os dados são decodificados, invadem a memória e capturam as informações pessoais”, diz Skoudis. “Interessante nesse caso”, continua o executivo, “é que os hackers fazem questão de deixar o sistema intacto e não decodificam os dados no ambiente da solução”.

Raspas e restos

A técnica não é exatamente nova. Há dois anos, o relatório de vazamento de dados da Verizon identificou uma técnica a qual batizou de RAM scraping (literalmente, "raspagem da memória RAM"), usada para comprometer redes de setores financeiros e de saúde. Segundo a Verizon, o RAM scraping consiste “em uma tecnologia relativamente nova, desenvolvida para capturar dados de memória volátil em sistemas".

Entre as ferramentas usadas pelos hackers para viabilizar o furto de dados estão um módulo de software denominado Metasploit Meterpreter, que roda dentro do framework para open source Metasploit.

De acordo com Skoudis, o pesquisador Colin Ames foi o pioneiro na demonstração de como tal técnica é viável.

Para dar conta da proteção dos sistemas contra tais ataques, é sugerido o uso de soluções de prevenção contra perda de dados (data loss prevention, ou DLP). Essas soluções (algumas delas gratuitas) podem auxiliar na detecção de vazamento de dados confidenciais. Ainda assim, não bastam para parar totalmente os ataques do tipo memory scraping , pois “os bandidos atuam dentro de uma ambiente criptografado, onde são invisíveis”, completa Skoudis.

IPv6, iPhones & iPads

Foram identificados outros tipos de ataques. Alguns deles se aproveitarão da migração entre as versões do protocolo IP da atual versão 4 para a 6. Possivelmente, os hackers irão se infiltrar em redes IPv6 que funcionam sem as TIs de algumas empresas saberem disso.

É plausível, ainda, que os firewalls para as redes IPv6 não estejam preparados para barrar acessos estranhos.

“iPads e iPhones são exemplos de dispositivos que já funcionam à base de IPv6”, diz Ulrich, que chama atenção para o fato de haver uma carência por ferramentas para monitoramento. Segundo Ulrich, o “IPv6 pode funcionar igual a uma rede escondida, imperceptível aos olhos dos provedores de acesso”. Ele adverte que quem não precisar usar a versão 6 do protocolo IP deve desligar tal função diretamente nos roteadores.

Fonte: IDG Now!

Redes Wi-Fi de hotéis e aeroportos são prato cheio para cibercriminosos

As conexões Wi-fi que muitos hotéis e aeroportos oferecem aos clientes, de comodidade podem virar uma ameaça. O motivo é que, em geral, as informações que transitam por tais redes não são criptografadas, de modo que, se criminosos virtuais as interceptarem, os usuários podem ser seriamente prejudicados.

Segundo Dmitry Bestuzhev, diretor da equipe de analistas da Kasperky Lab – empresa de segurança digital – a falta de proteção facilita a tarefa de hackers mal intencionados. Com um simples ataque de man-in-the-middle – termo que designa golpes em que o criminoso fica no meio de uma conexão entre dois computadores – eles conseguem roubar qualquer dado enviado por essas redes, como logins e senhas ou números de cartões de crédito.

O especialista sugere duas soluções para o problema. A primeira consiste em usar apenas conexões VPN (Virtual Private Network). No entanto, grande parte dos administradores de hotspots bloqueia tal função, para impedir que a rede seja usada para fins maliciosos.

A segunda opção é mais trabalhosa, mas livre de obstáculos. O internauta deverá digitar https:// antes do endereço do portal que quiser visitar – dessa forma, ativará a conexão segura SSL. A seguir, terá que esperar a página ser carregada e clicar no cadeado que aparecerá no canto direito ou esquerdo da barra de endereços. Assim, o certificado de segurança do site será exibido; se alguma informação estiver errada ou for incoerente, o melhor é que o usuário interrompa sua navegação e, principalmente, não digite nenhuma senha enquanto estiver conectado.

Vale lembrar que a alternativa mais segura é acessar a Internet via rede Ethernet, disponível em alguns lounges de aeroportos. Em último caso, se o internauta precisar usar o Wi-fi, mas não tiver garantias quanto à segurança, recomenda-se que não faça pagamentos ou entre em internet banking, já que esses são os dados mais visados pelo cibercriminosos.

Fonte: IDG Now!

Robôs fazem ciência: Desvendando as proteínas

O Brasil tem todas as condições para contribuir com os avanços tecnológicos no campo da automação.

Esses avanços estão revolucionando as pesquisas para a descoberta de novos fármacos a partir da síntese de novas moléculas, de acordo com Otávio Thiemann, do Instituto de Física de São Carlos (IFSC) da Universidade de São Paulo (USP).

Thiemann participou nesta quinta-feira, em São Paulo, do Simpósio sobre Biologia Sintética e Robótica, que teve o objetivo de divulgar a nova área multidisciplinar que envolve a automação e a sintetização de biocompostos.

O evento, organizado pela FAPESP e pelo Consulado Britânico em São Paulo, integra a Parceria Brasil-Reino Unido em Ciência e Inovação.

Cristalografia de proteínas

Durante o evento, o pesquisador fez uma avaliação dos avanços e perspectivas das aplicações da robótica à cristalografia de proteínas - uma técnica que permite "enxergar" as moléculas de proteína em nível atômico.

As estruturas das moléculas, entretanto, não podem ser propriamente vistas, porque sua escala é menor do que o comprimento de onda da luz visível.

Por conta disso, os cientistas utilizam raios X de alta energia, produzidos por linhas de luz síncrotron, que permitem distinguir distâncias atômicas da ordem de poucos ângstrons.

* Processo genético chave é visto em resolução atômica

Thiemann utiliza a técnica para elucidar a estrutura molecular e a função de proteínas-alvo na fisiologia de parasitas como as Leishmanias e os Trypanosomas, avaliando o potencial dessas moléculas para o desenvolvimento de novas drogas.

"Várias etapas do processo de cristalografia de proteínas já foram automatizados, mas ainda há gargalos em algumas delas. As tecnologias de automação, no entanto, estão avançando muito rapidamente e deverão tornar o ciclo inteiro muito mais ágil", disse Thiemann.

Conforme avança a robotização de determinadas fases do processo, segundo o pesquisador, a ciência avança na direção de cristalizar um grande número de proteínas simultaneamente, em vez de estudar a estrutura de cada uma delas separadamente. "Isso vai encurtar enormemente o caminho para a descoberta e melhoria de drogas", explicou.

Ciência robotizada

De acordo com o cientista, o processo para se chegar a cristalizar as moléculas - desvendando sua estrutura, sua dinâmica e sua atividade - não é trivial. Suas diversas etapas, porém, podem ser diferenciadas em dois universos diferentes: o da produção da proteína e o da cristalização propriamente dita.

"Na produção da proteína, embora a automação ainda não esteja tão bem estabelecida, já há vários robôs que podem ajudar em várias etapas do processo. Mas é ao fim da parte da cristalização que temos alguns gargalos fundamentais, cuja superação deverá revolucionar todo o processo", afirmou.

A automação da montagem da proteína no difratômetro - o equipamento utilizado para a análise da estrutura da molécula - é crucial para mudar a escala do processo, segundo o cientista.

"Temos que montar a gota de cristalização, selecionar o cristal, difratar os dados e resolver a estrutura. Uma vez que temos o cristal, o principal gargalo que temos consiste em colocá-lo dentro do difratômetro", explicou.

* Você já viu um vírus?

Uma vez que isso é feito, o robô se encarrega do resto, alinhando o cristal corretamente diante do feixe de raio X. "No meu entender, esse é o ponto que ainda está suscetível a enormes avanços de inovação. Se o robô puder 'pescar' o cristal para introduzi-lo no difratômetro, todo o processo ganhará outra escala", disse Thiemann.

Uma das alternativas utilizadas atualmente consiste em diminuir as chances para que o cristal cresça livremente dentro da gota de cristalização, imobilizando-o dentro de um capilar.

"Mas são ainda iniciativas que estão em estágio inicial. Quando o cristal cresce, geralmente a intervenção humana se faz necessária. É preciso ter discernimento para saber se o cristal é bom ou não, se inclui outros precipitados, ou se possui outras características em seu entorno que precisam ser retiradas", destacou.

Cristalização automatizada

Como essa parte do processo ainda exige a intervenção humana, o processo sofre interrupções contínuas. A automação aumentaria a velocidade, dispensaria diversos cuidados específicos e permitiria um trabalho de 24 horas por dia.

"Se quisermos, por exemplo, cocristalizar uma enzima com 500 ou mil compostos possíveis, para avaliar as características da molécula e, a partir daí, melhorar sua ação, teremos que criar condições de cristalização para todas essas cocristalizações", apontou Thiemann.

"Nesse processo, é preciso encontrar um composto, voltar atrás, cocristalizar o composto, aprender, voltar atrás mais uma vez, sintetizar o novo composto e assim por diante. Esse ciclo poderá se tornar muito mais ágil com a automação", disse.

Com mais agilidade, seria possível cristalizar as moléculas simultaneamente em larga escala. "Cristalizar a proteína é diferente de cocristalizar a proteína com um inibidor dentro dela. As condições podem ser bastante diferentes dependendo do composto e o número de combinações possíveis é enorme. Geralmente, conseguimos cocristalizar uma proteína com um ou dois inibidores - o que já dá muito trabalho aos alunos. Com o robô, poderíamos fazer isso em massa", disse.

Robótica e inteligência artificial

Para o professor da USP, a tecnologia da robótica está avançando em um ritmo muito forte, assim como a informática, que permite a análise e a distinção de padrões de imagem.

"Além disso, a inteligência artificial faz com que os programas aprendam com o que acabaram de fazer, realimentando o software para que ele consiga executar a próxima rodada com maior taxa de acerto", disse.

Segundo ele, há perspectivas de desenvolvimento desse tipo de tecnologia em vários centros no Brasil.

"Há alguns cursos de graduação - como mecatrônica e robótica - formando pessoal nessa área. Mas se trata de um segmento essencialmente multidisciplinar. Não precisamos só de alguém que saiba montar um robô, mas alguém que saiba fazê-lo com essa finalidade específica. Precisamos de pessoal com várias formações diferentes e certamente é possível desenvolver isso no Brasil", afirmou.

* Você sabe o que é Física Biológica?

Máquinas do tempo do futuro podem ser detectadas hoje

As viagens no tempo não são descartadas pela relatividade geral, embora possam criar problemas para as leis do senso comum.

Agora, uma equipe de físicos está propondo um novo modo de verificar a possibilidade ou a impossibilidade de estados quânticos que viajam para a frente e para trás no tempo.

O novo critério automaticamente desautoriza versões quânticas do "paradoxo do avô", segundo o qual uma pessoa viaja de volta no tempo e mata seu antecessor, garantindo assim a sua própria morte.

A equipe também realizou um experimento que ilustra o mecanismo de anulamento desse paradoxo.

Loops temporais

A relatividade geral, a teoria de Einstein do espaço e do tempo, permite a existência de loops temporais, as chamadas curvas temporais fechadas (CTCs na sigla em inglês: closed timelike curve) - rotas que avançam no tempo e, em seguida, voltam novamente para reconectar-se e formar circuitos fechados, também conhecidas como linhas lorentzianas do tempo.

Embora ainda não esteja claro se as CTCs podem ser criadas, os físicos têm explorado suas possíveis consequências, incluindo a sua influência na mecânica quântica.

Um evento quântico comum pode envolver duas partículas que se movem para frente no tempo, alterando-se mutuamente ao interagir em algum momento e, então, seguem caminhos separados rumo ao futuro.

No entanto, se uma das partículas, seguindo seu próprio futuro, entrar em uma CTC, ela pode voltar e reassumir sua posição como uma das partículas anteriores à interação - influenciando assim a sua própria transformação.

Estados quânticos

Em 1991, o físico David Deutsch, da Universidade de Oxford, propôs uma condição de consistência para evitar paradoxos nas viagens no tempo: uma partícula que volta no tempo desta forma, ao reaparecer no passado imediato à interação, deverá estar no mesmo estado quântico que estava quando partiu da interação para o futuro.

Para ver como essa condição funciona, imagine uma partícula quântica tendo estados chamados 0 e 1. Ela viaja em uma CTC e, em seu retorno, interage com uma partícula "externa" de tal forma que o 0 se torna 1 e o 1 se torna 0.

Tal partícula apresenta o paradoxo quântico do avô: quando ela volta pelo circuito, ela altera seu antigo "self" para o estado oposto.

No entanto, Deutsch mostrou que é possível alcançar a consistência se a partícula estiver em uma superposição- um estado que tem simultaneamente os dois valores, 0 e 1.

A interação altera o 0 em 1, mas o estado geral mantém-se inalterado. Para que isso funcione, a partícula externa também deve estar em uma superposição.

Universos paralelos

O paradoxo é evitado, mas o problema reaparece se a partícula externa for medida.

Nesse momento ela não poderá continuar em seu estado de superposição, devendo tornar-se definitivamente 0 ou 1 - o que significa que a partícula na CTC também não poderá permanecer em uma superposição.

Para preservar a coerência, Deutsch argumentou que a partícula CTC deve existir em dois universos paralelos - um "universo 0" e um "universo 1" - e continuamente alternar entre esses dois universos, de modo que nenhuma contradição ocorra em qualquer um deles.

Lorenzo Maccone e seus colegas do Instituto de Tecnologia de Massachusetts, nos EUA, e da Universidade de Pavia, na Itália, propõem uma condição mais rigorosa que evita essas dificuldades.

Impossibilidade de alterar o passado

Eles exigem que qualquer medição da partícula que está indo para o futuro produza o mesmo resultado gerado em sua medição quando ela retornar do passado.

Assim, não se permite qualquer estado que possa alterar o passado quando ela voltar no tempo, impedindo o surgimento do paradoxo do avô.

Talvez de forma surpreendentemente, Maccone afirma que "nós ainda podemos ter CTCs mesmo com essa condição forte."

De antemão, somente podem existir estados que evitem os paradoxos após a interação - por isso a equipe chama sua condição de "pós-seleção."

Simulação da viagem no tempo

Para demonstrar essas ideias, a equipe realizou um experimento com fótons, mostrando que a condição de consistência de fato escolhe estados específicos e destrói todos os demais.

Por falta de uma CTC real para realizar a pós-seleção, a equipe criou fótons em um estado quântico específico para a entrada, um estado onde a polarização não era conhecida e nem medida, mas tinha uma correlação com outra propriedade, associada com a trajetória do fóton.

Conforme o fóton atravessava o experimento, ele passou por mudanças que imitam a alternância de 0 para 1 que ocorre no imaginado arranjo da viagem no tempo.

A equipe descobriu que somente os fótons que não geram os paradoxos passaram incólumes pelo experimento.

Embora o resultado esteja de acordo com o esperado, ninguém havia simulado a viagem no tempo desta forma antes.

Detecção de futuras máquinas do tempo

Uma consequência estranha da pós-seleção é que, como a presença de um CTC anula completamente os estados paradoxais, ela pode impedir alguns estados que hoje parecem inócuos, mas que podem ter consequências inaceitáveis no futuro.

"Em princípio, pode-se detectar a existência futura de máquinas do tempo procurando-se por desvios atuais nas previsões da mecânica quântica," afirma Todd Brun, da Universidade da Califórnia do Sul, em Los Angeles.

Embora, segundo ele, seja difícil saber de antemão o que exatamente se deve medir em busca de tais desvios.

* Viagem no tempo derrota a Mecânica Quântica


Novo equipamento muda a forma de medir pressão sanguínea

Cientistas desenvolveram uma nova forma, mais precisa, para medir a pressão sanguínea, o que dará aos médicos informações melhor fundamentadas para embasar suas decisões sobre o tratamento.

O equipamento, inventado por cientistas da Grã-Bretanha e de Cingapura, permite uma leitura mais precisa do que o método atualmente utilizado.

O equipamento será particularmente útil para as pessoas mais jovens, nas quais a pressão medida no braço às vezes pode ser bastante exagerada quando comparada com a pressão sistólica central.

Pressão sistólica central

Este é o primeiro aparelho economicamente viável e tecnicamente seguro capaz de medir a pressão arterial bem junto ao coração - a chamada pressão aórtica sistólica central ou CASP (Central Aortic Systolic Pressure).

A pressão arterial hoje é medida no braço porque isso é mais conveniente.

Contudo, a leitura que se obtém nem sempre reflete com precisão como a pressão está nas grandes artérias próximas ao coração.

A nova tecnologia usa um sensor no pulso para registrar a onda de pulso e, em seguida, usando modelos matemáticos dessa onda, um microprocessador calcula a pressão próxima ao coração - com uma precisão muito elevada, equivalente a fazer a medição direta de forma invasiva.

Pressão na aorta

Medir a pressão arterial na aorta, que está mais perto do coração e do cérebro, é importante porque é lá que a pressão arterial elevada pode causar mais danos.

Além disso, a pressão na aorta pode ser muito diferente da pressão que é tradicionalmente medida no braço.

"Não tenho qualquer dúvida sobre a magnitude da mudança que esta técnica trará. Foi um avanço científico fabuloso chegar a este ponto e ele vai mudar a forma como a pressão arterial tem sido monitorada por mais de um século," disse o Dr. Bryan Williams, que coordenou o desenvolvimento do aparelho.

"A beleza de tudo isso é que é difícil argumentar contra a tese de que a pressão próxima ao coração e ao cérebro é mais relevante para o risco de acidente vascular cerebral e doença cardíaca do que a pressão em seu braço," conclui o médico.

Mosquito da malária cria resposta imune contra causador da doença

O transmissor de uma doença pode ajudar a controlá-la? Uma pesquisa desenvolvida por cientistas norte-americanos, indianos e brasileiros sugere que sim.

A doença em questão é a malária, causada pelo parasita Plasmodium e transmitida ao homem pelo mosquito Anopheles.

Os pesquisadores descobriram que o mosquito desenvolve rapidamente uma resposta imunológica ao parasita, destruindo-o.

O trabalho, que contou com a participação de dois cientistas da Fiocruz de Pernambuco, foi publicado na revista Science. A pesquisa foi realizada no Instituto Nacional de Saúde dos Estados Unidos (NIH, na sigla em inglês).

Hemolinfa

De acordo com os pesquisadores, as bactérias estão diretamente envolvidas na resposta imune do Anopheles contra o parasita, mas ainda não é possível explicar como se dá essa relação.

Nos experimentos, os pesquisadores coletaram a hemolinfa (o equivalente ao sangue nos insetos) de mosquitos contaminados pelo Plasmodium. Essa hemolinfa foi, então, transferida para mosquitos sadios, que, posteriormente, foram infectados pelo parasita.

Os resultados mostraram que a hemolinfa transferida potencializou a resposta imunológica dos insetos: todos os mosquitos sadios, após a infecção pelo Plasmodium, eliminaram por completo o parasita.

"Embora o Anopheles responda naturalmente ao Plasmodium, em alguns casos o parasita consegue completar seu ciclo de vida no organismo do mosquito", explica o pesquisador Fábio Brayner, da Fiocruz Pernambuco.

Infecção dos mosquitos

A técnica de transferência de hemolinfa foi originalmente criada pelo pesquisador Luiz Alves, também da Fiocruz Pernambuco, e aprimorada pelo grupo.

Com o uso de um microcapilar de vidro, eles retiraram a hemolinfa já diluída com anticoagulante, por meio de uma incisão no abdômen do mosquito. A transfusão foi feita com o auxílio de um microinjetor.

Para avaliar o efeito da transferência de hemolinfa dos mosquitos contaminados para os sadios, os pesquisadores verificaram o número de parasitas (no estágio de oocistos) no intestino médio dos insetos. Entre o sétimo e o 14º dia após a infecção dos mosquitos sadios estimulados com a hemolinfa, os oocistos haviam sido eliminados.

Observações

Em outros experimentos, os pesquisadores compararam dois grupos de mosquitos. O primeiro (grupo desafiado) já tinha desenvolvido previamente uma infecção pelo Plasmodium, com formação de oocistos, enquanto o segundo (grupo controle) nunca havia apresentado tal infecção.

O grupo desafiado foi, então, infectado pela segunda vez e o grupo controle, pela primeira. A comparação das células de defesa dos dois grupos de mosquitos revelou algumas diferenças.

A quantidade de células do tipo granulócito foi significativamente maior no grupo desafiado, que, por sua vez, apresentou menor número de prohemócitos (células de defesa imaturas). Alterações morfológicas e funcionais nas células também foram identificadas.

Os granulócitos do grupo desafiado apresentaram um tamanho maior e tinham mais grânulos em seu interior, indicando ativação celular para efetivar a defesa contra o parasita.

Memória imunológica

Esses resultados sugerem que os mosquitos do grupo desafiado já contavam com uma espécie de "memória imunológica" para combater o Plasmodium.

Os achados da equipe, coordenada pela cientista Carolina Barillas-Mury, do NIH, põem abaixo a crença de que os invertebrados - animais que não têm esqueleto interno, como os insetos - são incapazes de apresentar resposta imune quando infectados logo na segunda vez.

"Encontramos uma evidência clara de que eles têm uma memória imune inata que responde mais rápido do que a dos homens. Nos humanos essa memória é adaptativa, isto é, só à medida que é estimulada com algumas infecções, ela responde mais rapidamente", explica Luiz Alves.

O papel das bactérias

Os grupos controle e desafiado foram testados, ainda, em duas situações diferentes: na presença e na ausência das bactérias existentes na flora interna do inseto. Para ambos os grupos, nas situações estudadas, os testes não detectaram mudança na quantidade de granulócitos e prohemócitos. De acordo com os pesquisadores, as bactérias estão diretamente envolvidas na resposta imune do Anopheles contra o parasita, mas ainda não é possível explicar como se dá essa relação.

A meta dos cientistas é descobrir uma maneira de interromper o ciclo de transmissão da malária, e os resultados da pesquisa apontam nessa direção. Entretanto, ainda há muito para se conhecer sobre o mosquito transmissor da doença.

Além disso, ainda são necessários muitos estudos moleculares para identificar os principais elementos envolvidos na destruição do Plasmodium pelo Anopheles.

Há poucos dias, uma equipe australiana divulgou um estudo mostrando que uma bactéria pode ajudar a controlar o mosquito da dengue.

sexta-feira, 25 de fevereiro de 2011

Batata quente quântica troca menor unidade possível de energia

Seu nome técnico é oscilador harmônico acoplado.

Mas você pode pensar nesse experimento como uma batata quente sendo descartada por dois competidores, que só podem jogá-la um na mão do outro.

Ao arremessar a batata quente, cada competidor - na verdade, cada oscilador - está enviando para o outro exatamente um quanta de energia, a menor unidade possível de energia.

Como a troca de energia equivale à troca de informações, esses osciladores acoplados poderão ser usados para transferir, por exemplo, dados codificados em um fóton, entre dois íons.

Essa capacidade de troca de energia, ou de informações, em nível quântico, é mais uma ferramenta para a oficina dos cientistas que estão trabalhando na construção dos computadores quânticos.

Eles também acreditam que a informação quântica poderá ser transferida para um oscilador mecânico - uma máquina quântica - que poderia servir de interface entre o processador quântico e o mundo macro.

A criação da primeira máquina quântica foi considerada o maior avanço científico do ano passado pela revista Science, ao demonstrar que a mecânica quântica aplica-se ao movimento de objetos macroscópicos.

Batata quente quântica

Os osciladores harmônicos acoplados foram construídos por cientistas do Instituto Nacional de Padronização e Tecnologia dos Estados Unidos.

Eles colocaram dois íons de berílio próximos um ao outro e os induziram a ficar trocando as menores unidades de energia que se pode medir.

Para entender seu funcionamento é preciso rever a analogia da batata quente.

Perceba que estamos falando de uma "batata quântica". Então, como tudo no mundo quântico é um tanto estranho, você pode dispensar a batata e os jogadores é que passam a pular um para a posição do outro, sem se chocar, trocando o calor.

O movimento dos íons, embora aconteça em condições regidas pela mecânica quântica, pode ser comparado ao comportamento de dispositivos osciladores do mundo macro, como o pêndulo de um relógio ou um diapasão.

"Primeiro um íon se mexe um pouco, enquanto o outro fica parado. Então o movimento passa para o outro íon, mediante a troca da menor quantidade de energia que se pode medir," explica Kenton Brown, um dos construtores da batata quente quântica. "Nós também ajustar o acoplamento, afetando o quão rápido eles trocam a energia e em que medida. Podemos ligar e desligar a interação."

A troca de energia de vários quanta foi detectada a cada 155 microssegundos. A troca de um quanta foi menos comum, e ocorreu a cada 218 microssegundos.

Teoricamente, os íons podem trocar energia indefinidamente, até que o processo seja interrompido pelo aquecimento - a propósito, o dispositivo funciona a -269º C.

Transformador quântico

Este experimento é semelhante ao realizado pelo mesmo grupo em 2009, quando eles demonstraram o entrelaçamento quântico, um fenômeno que associa as propriedades de de partículas separadas:

* Processador quântico programável roda pela primeira vez

Contudo, eles afirmam que o experimento agora apresentado acopla os osciladores mais diretamente e, portanto, pode simplificar o processamento quântico de informações.

O acoplamento direto de íons postos em locais separados pode simplificar as operações lógicas e ajudar a corrigir erros de processamento.

Além disso, o experimento sugere que as interações podem ser usadas para conectar diferentes tipos de sistemas quânticos, como um íon e uma partícula de luz, um fóton, para transferir informações em uma rede quântica. Por exemplo, um íon aprisionado poderia atuar como um "transformador quântico" entre um qubit supercondutor e um qubit feito de fótons.

Computador minúsculo funciona como sensor de pressão ocular

Pesquisadores da Universidade de Michigan, nos Estados Unidos, acabam de criar o primeiro "milicomputador" do mundo - um dispositivo de processamento com dimensões na faixa dos milímetros.

Isso pode parecer estranho quando todos já se acostumaram com o termo microcomputador - em uma escala de dimensões, micro é mil vezes menor do mili.

Ocorre que, quando o termo foi cunhado, um microcomputador era minúsculo em relação aos mainframes.

E os microcomputadores tinham como unidade central de processamento um microprocessador, cujos transistores tinham dimensões na faixa dos micrômetros - logo, com um pouco de boa vontade, é possível concluir que o termo fazia sentido na época.

Mas o que os engenheiros construíram agora foi um dispositivo de processamento inteiro que mede alguns poucos milímetros. Ou, pelo menos é assim que ele foi anunciado com grande alarde.

Sensor autônomo inteligente

Embora esteja sendo chamado de computador, o equipamento é na verdade um protótipo de monitor de pressão dos olhos para pacientes com glaucoma. Quando totalmente desenvolvido, ele deverá ser implantado no olho do paciente.

Sua primeira versão foi apresentada há exatamente um ano, de forma bem mais discreta, e não como um computador, mas como um microssensor implantável para uso médico:

* Microssensor perpétuo captura sua própria energia

E ele continua sendo isto: um microssensor capaz de fazer leituras periódicas e transmitir os resultados para um computador por meio de uma conexão de rádio. Uma categoria mais adequada para o equipamento seria sensor autônomo inteligente, uma vez que computador refere-se a máquinas sem objetivos definidos.

O que, por si só, torna-o um desenvolvimento importante, rumo não apenas a dispositivos implantáveis para monitoramento da saúde, como também para viabilização das tão esperadas redes de sensores sem fios, que poderão monitorar de tudo, do funcionamento de máquinas ao processo de troca de carbono nas florestas.

Hibernação extrema

O microssensor inteligente agora apresentado é voltado sobretudo para aplicações médicas, embora ele ainda não tenha sido testado in vivo.

Em um invólucro de pouco mais de 1 milímetro cúbico, o sistema inclui um microprocessador de potência ultrabaixa, um sensor de pressão, memória, uma bateria de filme fino, uma célula solar e um transmissor de rádio com uma antena, capaz de transmitir os dados coletados para um leitor externo localizado a uma distância de alguns milímetros.

O processador no monitor de pressão intra-ocular é a terceira geração do chip Phoenix, desenvolvido pela equipe de Michigan, que usa um sistema de hibernação extrema para consumir pouca energia.

O processador acorda apenas a cada 15 minutos para fazer as medições, consumindo uma média de 5,3 nanowatts. Sua memória pode armazenar até uma semana de informações

Para manter a bateria carregada, suas células solares devem ficar expostas a pelo menos 10 horas de luz interna ou 1,5 hora de luz solar direta - uma solução aparentemente inadequada para um dispositivo implantável no corpo humano, embora muito útil para sensores ambientais.

Poeira inteligente e Nanitos

Mas é necessário fazer justiça ao trabalho de outros pesquisadores.

Como, por exemplo, o projeto "Poeira Inteligente" (SmartDust) que apresentou o realmente primeiro "milicomputador" no ano de 2003:

* Sensor wireless de 5 mm2

Poeira Inteligente refere-se a sensores minúsculos, que poderiam ser espalhados pelo ambiente para coletar dados, transmitindo-os para uma central para processamento. Coincidentemente ou não, o grupo da Universidade de Berkeley, criadora desse projeto, comparou seu sensor inteligente com a ponta de uma caneta.

A mesma ideia de computadores minúsculos está presente no conceito dos nanitos, microrrobôs milimétricos capazes de agir coletivamente, imitando o comportamento de enxames de insetos, como formigas, cupins e abelhas:

* Vêm aí os nanitos, microrrobôs milimétricos capazes de agir coletivamente

Discussões à parte, o fato é que os sistemas inteligentes na escala milimétrica, ou menor, poderão viabilizar a chamada computação ubíqua - em todos os lugares - que muitos especialistas afirmam ser o futuro da informática.

Físicos criam garrafa para guardar antimatéria

A antimatéria ficou, durante muito tempo, restrita ao mundo da teoria e da ficção científica.

No campo da ciência, os teóricos continuam desbravando novos caminhos, e já propõem que matéria e antimatéria podem ser criadas do "nada".

Nos últimos anos, contudo, o desenvolvimento de tecnologias experimentais está permitindo manipular diretamente essa "contraparte negativa" da matéria em laboratório.

O ano passado, por exemplo, marcou a descoberta da partícula de antimatéria mais estranha já vista, a demonstração de que pode ser possível construir um laser de raios gama pela aniquilação de matéria e antimatéria e, finalmente, a antimatéria foi capturada pela primeira vez.

Tal sequência de feitos fez com que as pesquisas sobre antimatéria fossem eleitas as mais importantes de 2010.

Produção e armazenamento de antimatéria

Embora os físicos já produzam antimatéria em laboratório de forma rotineira, usando radioisótopos e aceleradores de partículas, resfriar essas antipartículas e armazená-las por qualquer período de tempo é outra história.

Tão logo a antimatéria entra em contato com a matéria ordinária ela é aniquilada, desaparecendo - juntamente com a matéria com a qual ela se chocou - em um clarão de radiação gama.

Agora, Clifford Surko e seus colegas da Universidade da Califórnia, nos Estados Unidos, relataram seus últimos avanços na construção de uma "garrafa de antimatéria", o maior recipiente de antimatéria já construído.

Durante a reunião da Sociedade Americana para o Avanço da Ciência, Surko apresentou as novas técnicas capazes de criar estados especiais de antimatéria na forma de grandes nuvens de antipartículas, comprimir essas nuvens e gerar disparos de feixes de antimatéria - ideais para usos em experimentos de laboratório.

Garrafas de antimatéria

Nos últimos anos, os cientistas desenvolveram novas técnicas para armazenar bilhões de pósitrons - o equivalente de antimatéria do elétron - por várias horas e resfriá-los a baixas temperaturas, a fim de retardar seus movimentos para que eles possam ser estudados - criando moléculas de antimatéria, por exemplo.

Surko relatou que agora já é possível retardar os pósitrons gerados por fontes radioativas, levando-os a condições de baixa energia.

Isto permite que eles sejam guardados por dias em "garrafas de antimatéria" especialmente projetadas, cujas paredes são formadas não por matéria, mas por campos magnéticos e elétricos.

Eles também desenvolveram técnicas para resfriar a antimatéria a temperaturas tão baixas quanto as do hélio líquido e para comprimi-la em altas densidades.

Feixes de antimatéria

"Pode-se, em seguida, empurrar a antimatéria para fora da garrafa em um fluxo fino, um feixe, de forma parecida com apertar um tubo de pasta de dente," disse Surko, acrescentando que há uma grande variedade de usos para esses feixes de pósitrons.

Atualmente, os pósitrons, ou anti-elétrons, são usados em exames de tomografia conhecidos como PET (Positron Emission Tomography: tomografia por emissão de pósitrons).

Na técnica da garrafa de antimatéria, os feixes de pósitrons serão usados de forma diferente.

"Estes raios oferecem novas formas de estudar como as antipartículas interagem ou reagem com a matéria comum," disse Surko. "Eles são muito úteis, por exemplo, na compreensão das propriedades superficiais dos materiais."

Depósito de antimatéria

Surko e seus colegas estão agora construindo o maior depósito de antimatéria do mundo, que irá armazenar pósitron de baixa energia - a armadilha será capaz de armazenar mais de um trilhão de partículas de antimatéria.

"Estamos trabalhando agora para acumular trilhões de pósitrons ou mais, em armadilhas formadas por múltiplas células, uma matriz de garrafas magnéticas semelhantes a um hotel com muitos quartos, com cada quarto contendo dezenas de bilhões de antipartículas," disse ele.

"Um entusiasmante objetivo de longo prazo do nosso trabalho é a criação de armadilhas portáteis de antimatéria," acrescentou Surko. "Isso aumentaria consideravelmente a capacidade de usar e explorar as antipartículas no nosso mundo de matéria, em situações onde é inconveniente usar os radioisótopos ou as fontes de pósitrons baseadas em aceleradores."

Metamaterial tritura recorde de índice refração

Quando você olha para uma colher dentro de um copo com água, a colher parece quebrada.

Isto acontece por causa do índice refração da água, uma medida de quanto a luz se curva quando passa de um meio para o outro.

Na verdade, o índice de refração mede o ângulo em que a luz se curva quando passa do vácuo para o material em questão.

Os materiais comuns, como a água ou o vidro, têm índices de refração entre 1 e 3 nas frequências da luz visível - o recorde vai para o silício, que se aproxima de 4.

Agora, cientistas coreanos desenvolveram um material cujo índice de refração bateu em incríveis 38,6.

Metamaterial

É um material artificial, um assim chamado metamaterial, que opera na frequência dos terahertz - os raios T.

Os metamateriais ganharam notoriedade com as pesquisas sobre invisibilidade, graças à sua capacidade de dobrar a luz ao contrário, na direção oposta ao que fazem os materiais naturais.

Este novo metamaterial, por sua vez, possui um índice de refração positivo, o que o torna especialmente adequado para pesquisas com a promissora radiação terahertz, que promete substituir os raios X, sem os malefícios destes.

Outra possibilidade de aplicação prática é na chamada óptica transformacional, que estuda o controle das ondas de luz.

Átomos em formato de I

Bumki Min e seus colegas do instituto KAIST sintetizaram o metamaterial construindo "átomos" com estruturas de ouro e alumínio - como esses materiais artificiais são compostos de unidades básicas menores do que o comprimento de onda da radiação com que devem operar, os cientistas chamam essas unidades fundamentais de átomos.

Os átomos artificiais, em formato de I, têm cerca de 60 micrômetros de altura e se repetem sobre uma matriz de polímero a cada 60 micrômetros.

O material bateu o recorde do índice de refração - alcançando um pico de 38,6 - a uma frequência de 0,3 THz.

Segundo os cientistas, o feito é promissor porque pode ser possível alcançar níveis ainda mais elevados, ou alcançar níveis significativos em outros comprimentos de onda, uma vez que os átomos podem ser montados em camadas ou serem montados em outros espaçamentos.

Coração de mamíferos pode se regenerar

Cientistas descobriram que os corações de camundongos recém-nascidos podem se regenerar, em um processo nunca visto entre mamíferos.

A pesquisa foi publicada nesta sexta-feira pela revista Science.

Os pesquisadores do Centro Médico Southwestern, da Universidade do Texas, autores da pesquisa, removeram o que é conhecido como o ápice ventricular esquerdo do coração (cerca de 15% do músculo cardíaco) dos camundongos, apenas um dia depois de eles terem nascido.

Foi observado que o coração se recompôs completamente após 21 dias. Dois meses depois, o órgão parecia estar funcionando normalmente.

Muitos peixes e anfíbios são conhecidos por sua capacidade de reconstruir o tecido de seus corações, mas, segundo o estudo divulgado nesta sexta, isso nunca tinha sido observado em mamíferos.

Para especialistas britânicos, o entendimento desse processo nos camundongos pode ajudar em tratamentos cardíacos para humanos.

Autorregeneração

No entanto, quando o mesmo experimento foi realizado em roedores com uma semana de vida, o coração foi incapaz de se refazer sozinho, indicando que é curto o período em que os animais preservam a habilidade de autorregeneração.

Acredita-se que as células cardíacas continuem a se replicar e se recompor durante um breve intervalo após o nascimento do camundongo.

"Nossos resultados mostram que as células do novo músculo cardíaco, que recuperam a área amputada do coração, vêm da proliferação e migração de células cardíacas pré-existentes", disse um dos autores do estudo, o professor Eric Olson. "Não temos evidência de que tenham vindo de uma população de células-tronco."

Segundo Olson, há motivos para acreditar que o coração humano tenha a mesma capacidade.

"Tudo o que sabemos sobre o desenvolvimento e as funções iniciais do coração do camundongo são comparáveis ao coração humano. Portanto, estamos confiantes que esse processo pode se repetir em humanos, ainda que isso ainda precise ser mostrado."

Capacidade regenerativa

Os cientistas americanos agora buscam formas de ativar esta capacidade regenerativa em corações de camundongos adultos, com a ambição de fazer o mesmo em humanos e corrigir danos causados durante ataques cardíacos.

"Identificamos um micro-RNA (pequeno pedaço de material genético) que regula esse processo e vamos tentar usá-lo como forma de incrementar a capacidade de regeneração cardíaca. Também estamos buscando novas drogas que possam reavivar esse mecanismo na vida adulta", afirma Olson.

O pesquisador diz, no entanto, que novas pesquisas esbarram em desafios, como evitar que a alteração das células cardíacas humanas provoque arritmias, por exemplo. Além disso, o funcionamento do coração humano é mais complexo do que o de outros animais.

Fonte: BBC

Vírus artificial pode estimular imunidade definitiva

Vacinas feitas com vírus vivos, como as da varíola ou da febre amarela, oferecem uma proteção imunológica que dura décadas.

O grande sonho dos cientistas, contudo, sempre foi o de induzir uma resposta imunológica que dure toda a vida da pessoa.

Eles têm tateado no escuro há muito tempo em busca desse "santo remédio".

Agora eles parecem ter encontrado um ponto de referência nessa escuridão, com a ajuda da nanotecnologia.

Vírus artificial

Cientistas do Centro de Vacinas Emory, nos Estados Unidos, criaram minúsculas nanopartículas que se assemelham aos vírus, tanto no tamanho como na composição imunológica, e que induziram a "imunidade vitalícia" em camundongos.

Os resultados em macacos foram igualmente promissores.

Esses vírus artificiais reproduziram com sucesso os efeitos imuno-estimulantes de uma das vacinas de maior sucesso já desenvolvidas - a vacina contra a febre amarela.

As nanopartículas, feitas de polímeros biodegradáveis, têm componentes que ativam dois elementos diferentes do sistema imunológico, e podem ser usadas com materiais extraídos de vários tipos de bactérias ou vírus.

"Estes resultados desvendam um antigo enigma em vacinologia: como fazer com que as vacinas induzam uma imunidade duradoura," explicou Bali Pulendran, coordenador do estudo, que foi publicado na revista Nature.

Receptores TLR

As nanopartículas podem se tornar uma ferramenta importante para substituir o material viral - esse material nem sempre está ao alcance da mão quando se trata de pandemias ou no surgimento de novas infecções - e para ajudar no desenvolvimento de vacinas para doenças ainda não contempladas com soluções efetivas de prevenção, como HIV, malária, tuberculose e dengue.

Os pesquisadores se inspiraram na vacina contra a febre amarela, desenvolvida nos anos 1930 e que oferece proteção por décadas.

Esta vacina estimula receptores do sistema imunológico conhecidos como TLR (Tool-Like Receptors), moléculas produzidas pelas células que, ao detectar "produtos" dos vírus, bactérias e parasitas, ativam uma resposta do sistema imunológico.

O grupo do Dr. Pulendran descobriu que o sistema imunológico detecta a vacina contra a febre amarela por meio de múltiplos TLRs.

"Os TLRs são como um sexto sentido dos nossos corpos, porque eles têm uma capacidade requintada para detectar vírus e bactérias e transmitir esta informação para estimular a resposta imunológica," explicou o pesquisador.

"Descobrimos que, para obter a melhor resposta imunológica, é preciso acertar mais de um tipo de receptor tipo Toll. Nosso objetivo foi criar uma partícula sintética que realiza essa tarefa," completou.

Anticorpos

As nanopartículas são feitas de um plástico especial e biocompatível, chamado PLGA, atualmente utilizado para enxertos e suturas biodegradáveis. Todos os componentes da fórmula das nanopartículas já são aprovados para uso humano.

Nos testes em camundongos, as nanopartículas estimularam a produção de anticorpos para proteínas do vírus da gripe e da bactéria do antrax.

Mais importante, as células do sistema imunológico persistiram nos gânglios linfáticos por, pelo menos, 18 meses, praticamente o tempo de vida da cobaia.

Nos testes com macacos, as nanopartículas acrescidas das proteínas virais induziram respostas fortes cinco vezes maiores do que a resposta induzida por uma dose da mesma proteína viral isolada, sem as nanopartículas.

Ainda não há previsão para o início dos testes desses vírus artificiais em humanos.

Nanopartículas híbridas combatem microorganismos e fungos

Cientistas da USP desenvolveram uma nova família de nanopartículas com propriedades antimicrobianas e antifúngicas.

Nanopartículas são aglomerados de matéria com dimensões na faixa dos nanômetros - 1 nanômetro é igual a 1 bilionésimo de metro. Elas são tão pequenas que só podem ser visualizadas em microscópios eletrônicos.

A equipe da professora Ana Maria Carmona Ribeiro, do Instituto de Química da USP, desenvolveu nanopartículas híbridas, formadas pela combinação de lipídios (gorduras) e polímeros (plásticos).

"Com esse sistema sistema biomimético é possível interagir com células e tecidos, além de bactérias e microorganismos patogênicos", aponta a professora. "A interação com moléculas de cargas opostas abre a possibilidade de que as partículas possam carregar drogas até as células, uma função importante para o desenvolvimento de fármacos."

Antimicrobiano

As nanoestruturas híbridas combinam lipídios e polímeros sintéticos catiônicos, que possuem cargas semelhantes, unidos por um polímero com carga oposta.

"Os lipídios, apesar de serem produzidos sinteticamente, são bastante acessíveis", diz Ana Maria. "Eles apresentam um grupamento de amônio quaternário, que possui comprovado efeito bactericida."

Em solução aquosa, os lipídios apresentam a propriedade de se estruturar em bicamadas, de forma análoga às membranas celulares.

Testes preliminares apontaram que os polímeros sintéticos catiônicos, que também possuíam um agrupamento de amônio quaternário, também apresentam atividade antimicrobiana, o que levou à combinação com o lipídio.

"Como os dois compostos são catiônicos, ou seja, possuem cargas positivas, utilizou-se um polímero aniônico, que serve para unir os dois materiais", ressalta Ana Maria. "Ambos mantêm suas propriedades antimicrobianas na combinação."

Fungicida

As pesquisas também mostraram uma propriedade antifúngica associada às partículas híbridas. "O efeito fungicida completo só acontece com a adição do polímero catiônico ao lipídio", explica a professora. "Essa atividade é importante porque fungos são organismos difíceis de se combater em terapia".

* Óleo de lavanda combate infecções causadas por fungos

As partículas passaram por testes com hemácias (células sanguíneas) para verificar sua toxicidade em células de mamíferos.

"Não houve hemólise, ou seja, rompimento das hemácias", conta Ana Maria, "o que é um possível indício da compatibilidade das partículas com organismos vivos mais complexos". Em prosseguimento aos estudos, serão realizados testes de toxicidade in vivo, em animais e humanos.

Antifungo para madeira

Além da utilização em fármacos, a professora menciona outras possíveis aplicações das partículas híbridas, como na produção de tintas.

"A tinta látex é um particulado que sujeito a chuva e a umidade pode propiciar o desenvolvimento de populações de fungos", relata. "Partículas híbridas poderiam ser incorporadas à composição da tinta, criando um revestimento com efeito fungicida permanente."

A ação das partículas também poderia ser aproveitada na indústria madeireira. "Há uma grande preocupação com a possibilidade da madeira desenvolver fungos", diz Ana Maria. "Como forma de proteção, a madeira poderia ser impregnada com as partículas fungicidas". As pesquisas são realizadas no Laboratório de Biocolóides do Departamento de Bioquímica do IQ.

quinta-feira, 24 de fevereiro de 2011

Matemáticos criam Tabela Periódica dos átomos geométricos

Matemáticos estão criando sua própria Tabela Periódica, uma coleção de formatos geométricos fundamentais, que não podem ser reduzidos a nada mais simples.

Os átomos geométricos são "formatos suaves", sem bordas ou cantos, lembrando mais esferas deformadas, podendo ser descritos em termos do seu "fluxo" - se um formato tem um padrão único de fluxo, então ele é um átomo; se não ele é uma molécula e pode ser decomposto em formatos mais simples.

Esses formatos simples, ou átomos geométricos, são conhecidos pelos matemáticos como variedades de Fano, em referência a Gino Fano, que descobriu nove formatos atômicos bidimensionais nos anos 1930. Na década de 1980 foram descobertos 102 formatos em três dimensões.

Mas ninguém antes havia organizado esses formatos fundamentais em grupos e nem avançado rumo a múltiplas dimensões. Um novo programa de computador criado pelos pesquisadores certamente facilitará esse trabalho daqui para frente.

Tabela Periódica de formatos

Esses átomos geométricos, à primeira vista, deverão produzir um número muito maior de "elementos matemáticos" do que a Tabela Periódica tradicional tem de elementos químicos.

Isso porque o objetivo dos cientistas é ambicioso: isolar todos os "possíveis formatos do universo" em três, quatro e cinco dimensões, interligando os formatos da mesma forma que os elementos químicos são reunidos em famílias.

"A Tabela Periódica é uma das ferramentas mais importantes na química. Ela lista os átomos com os quais tudo o mais é feito, e explica suas propriedades químicas," explica o professor Alessio Corti, que está trabalhando juntamente com matemáticos da Austrália, Japão e Rússia.

"Nosso trabalho pretende fazer o mesmo - criar um diretório que liste todos os blocos geométricos fundamentais e isole as propriedades de cada um usando equações relativamente simples," prossegue ele.

Eles ainda não sabem exatamente quantos átomos geométricos existem, embora calculem que provavelmente haverá uma quantidade deles grande demais para colocar em uma tabela ou mesmo em uma parede inteira.

Estima-se que haja algo em torno de 500 milhões de formatos que podem ser definidos algebricamente em quatro dimensões, que exigiriam alguns milhares de blocos fundamentais para serem construídos.

Novas dimensões da matemática

As equações são essenciais, uma vez que a maioria dos átomos geométricos não poderão ser "visualizados" no sentido comum, porque envolvem outras dimensões.

O universo descrito pela Teoria da Relatividade de Einsten, por exemplo, possui quatro dimensões - as três dimensões espaciais mais o tempo. A Teoria das Cordas, em sua versão conhecida como Teoria-M, propõe um universo com onze dimensões.

A Teoria das Cordas, aliás, desempenhou um papel fundamental neste trabalho, tendo permitido que os cientistas criassem o programa de computador capaz de decompor os formatos em átomos.

Como não podem ser visualizados diretamente, os cientistas fazem suas ilustrações fatiando os átomos geométricos - o processo inverso que os cientistas usam para montar as imagens do cérebro usando fatias capturadas pelos exames de tomografia.

Robótica e Teoria das Cordas

As implicações da pesquisa deverão ter impacto em inúmeras áreas.

Na robótica, por exemplo, é usada uma equação de cinco dimensões para instruir um robô a visualizar um objeto e então estender seu braço para pegá-lo.

No cálculo dos movimentos, quanto mais graus de liberdade o robô tiver - a quantidade de juntas em um braço robótico, por exemplo - maiores serão as dimensões necessárias para programar seu movimento.

Os físicos, por sua vez, precisam dessas equações para analisar os formatos das dimensões acima de quinta ordem para estudar como as partículas subatômicas interagem nesses multiversos.

* Existirão vidas em outros universos?

Teoria química das formas

"Em nosso projeto, nós estamos procurando os blocos básicos das formas. Você pode pensar nesses blocos fundamentais como átomos, e pensar nos formatos compostos como moléculas," complementa o Dr. Tom Coates, membro da equipe.

"O próximo desafio é entender como as propriedades dos objetos maiores dependem dos átomos de que eles são formados. Em outras palavras, nós queremos construir uma teoria da química para as formas," conclui ele.

Discos protoplanetários são fotografados pela primeira vez

Astrônomos obtiveram pela primeira vez imagens detalhadas de discos protoplanetários de duas estrelas.

Acredita-se que os planetas se formem a partir de discos de gás e poeira que circundam estrelas jovens. Assim, observar esses locais é como fazer uma viagem ao passado da Terra e de seus irmãos.

Esta é a primeira vez que discos protoplanetários de tamanho comparável ao nosso próprio Sistema Solar foram detectados tão claramente, revelando características como anéis e espaços vazios que estão associados com a formação de planetas gigantes.

Os dois discos protoplanetários agora detectados diretamente estão ao redor da jovem estrela LkCa 15, que fica a cerca de 450 anos-luz da Terra, na constelação de Touro, e da estrela AB Aur, na constelação de Auriga, a uma distância de 470 anos-luz da Terra. Esta última é ainda mais jovem, com idade de apenas um milhão de anos.

Formação dos planetas

A teoria atual sustenta que uma estrela recém-nascida deixa ao seu redor um disco de matéria, uma espécie de gigantesco anel.

Por processos ainda não bem compreendidos, aglomerados dessa matéria vão se juntando, até que sua própria gravidade torna-se suficientemente forte para comprimi-los em corpos densos, que chamamos planetas.

As observações são parte de um levantamento sistemático em busca de planetas e discos ao redor de estrelas jovens, usando uma câmera estado-da-arte, de alto contraste, concebida especificamente para este fim e instalada no telescópio Subaru, no Havaí.

O instrumento HiCIAO conseguiu o feito inédito usando duas técnicas: uma compensação da distorção gerada pela atmosfera da Terra e o bloqueio físico da própria luz da estrela cujos arredores se quer observar.

Biomineração substitui mineiros por bactérias

Bactérias brevemente poderão ser usadas em larga escala para converter resíduos metálicos em catalisadores de alto valor.

Esses catalisadores, à base do caríssimo metal paládio, são necessários em vários processos, incluindo a limpeza de poluentes tóxicos e a geração de energia limpa.

Reciclagem do paládio

Pesquisadores da Universidade de Birmingham, no Reino Unido, desvendaram os mecanismos que permitem que uma bactéria comum do solo (Desulfovibrio desulfuricans) recupere o paládio de resíduos industriais.

O paládio é um dos metais do grupo da platina, metais de alto valor com uma grande variedade de aplicações, devido às suas propriedades químicas excepcionais.

Os metais do grupo da platina são rotineiramente usados em muitos sistemas catalíticos e são os elementos ativos dos conversores autocatalíticos que reduzem as emissões de gases com efeito estufa.

"Estes metais são um recurso finito, o que se reflete no seu alto valor de mercado. Nos últimos 10 anos, a demanda ultrapassou consistentemente a oferta," conta o Dr. Kevin Deplanche que liderou o estudo.

Isso tem incentivado pesquisas sobre formas alternativas de recuperação do paládio de fontes secundárias - a reciclagem e o reaproveitamento - em substituição à mineração do material bruto.

Bactéria garimpeira

Trabalhos anteriores da equipe haviam mostrado que a Desulfovibrio desulfuricans é capaz de reduzir o paládio presente nos resíduos industriais em nanopartículas metálicas com atividade biocatalíticas.

Agora foram identificadas as moléculas precisas envolvidas no processo de redução.

As enzimas hidrogenase localizadas na membrana superficial da bactéria são as responsáveis pela redução do paládio, o que leva ao acúmulo das nanopartículas catalíticas.

As células bacterianas revestidas com nanopartículas de paládio são conhecidas como "BioPd" - uma referência a bio-paládio.

Bio-paládio

O grupo acredita que o BioPd tem grande potencial para ser usado para gerar energia limpa.

"As pesquisas do nosso grupo demonstraram que o BioPd é um excelente catalisador para o tratamento de poluentes persistentes, tais como o cromo, que é usado na célula a combustível de troca de prótons para produzir eletricidade limpa a partir do hidrogênio," disse o Dr. Deplanche.

"Nosso objetivo final é desenvolver uma tecnologia de uma única etapa que permita a conversão de resíduos metálicos em catalisadores de alto valor para a química verde e a geração de energia limpa,", disse ele.

* Tecnologia atual permite criação de "biocivilização"

Planeta X pode ter sido detectado por sonda da NASA

O observatório espacial WISE, da NASA, pode ter encontrado um quase mitológico Planeta X, um filho rebelde do Sol que prefere viver bem longe de casa.

Embora tenha sido lançado com a expectativa de encontrar uma Estrela X, parece que o Planeta X parece ser um achado mais provável da sonda.

O observatório WISE já terminou sua coleta de dados e atualmente está em hibernação no espaço, à espera de um possível uso futuro, enquanto os cientistas trabalham sobre os dados.

Uma divulgação preliminar das primeiras 14 semanas de dados está prevista para Abril de 2011, e a versão final da pesquisa completa está prevista para março de 2012.

Contudo, nesta semana, a NASA divulgou uma sugestiva coleção de perguntas e respostas sobre a teoria do Planeta X.

A reportagem se refere a um artigo de John Matese e Daniel Whitmire, onde os cientistas defendem que os dados coletados pelo WISE podem ter registrado o Planeta X, que eles chamam de Tique (Tyche), a irmã boazinha da deusa Nêmesis.

Telescópio WISE

WISE é um telescópio que enxerga o universo em infravermelho. Seu nome é uma sigla para Wide-field Infrared Survey Explorer - pesquisa exploratória em infravermelho com visão de campo largo, em tradução livre.

Lançado em dezembro de 2009, ele escaneou uma vez e meia o céu inteiro em quatro comprimentos de onda do infravermelho, capturando mais de 2,7 milhões de objetos no espaço, de galáxias distantes até asteroides e cometas relativamente próximos à Terra.

Como continuava em boa saúde ao final dessa que era sua missão primária, o WISE completou uma missão estendida, na qual foi feita uma varredura completa do cinturão de asteroides, e duas varreduras completas do universo mais distante, em duas faixas de infravermelho.

Até agora, contam entre as descobertas da missão vários corpos celestes anteriormente desconhecidos, incluindo uma estrela uma anã marrom ultrafria, 20 cometas, 134 objetos próximos da Terra (NEOs), mais de 33.000 asteroides no cinturão principal entre Marte e Júpiter e até um belíssimo pássaro celeste.

* Galáxias e cometas marcam estreia do telescópio Wise

Planeta X

Alguns astrônomos afirmam que pode existir um enorme planeta, maior do que Júpiter, orbitando o Sol, mas com uma órbita tão distante que o colocaria dentro de uma estrutura chamada Nuvem de Oort.

A Nuvem de Oort é ela própria uma estrutura hipotética, uma espécie de depósito que os astrônomos acreditam ser a fonte de todos os cometas que atravessam o Sistema Solar.

Veja abaixo os esclarecimentos divulgados pela NASA, na forma de um FAQ do Planeta X.

Quando os dados do WISE poderão confirmar ou descartar a existência do hipotético planeta Tique?

É muito cedo para saber se os dados do WISE confirmam ou descartam um objeto grande na Nuvem de Oort. Serão necessárias análises ao longo dos próximos dois anos para determinar se realmente o WISE detectou esse mundo ou não.

As primeiras 14 semanas de dados, que serão divulgadas em Abril de 2011, provavelmente não serão suficientes. O levantamento completo, com divulgação prevista para Março de 2012, deverá proporcionar mais informações.

Depois que os dados do WISE forem totalmente processados, liberados e analisados, a hipótese da existência de Tique, feita por Matese e Whitmire, poderá então ser testada.

É certeza que o WISE teria observado tal planeta, se ele existir?

É provável, mas não uma conclusão definitiva, que o WISE poderia confirmar ou não se Tique existe.

Como o WISE examinou o céu inteiro uma vez, e depois cobriu o céu inteiro novamente em duas de suas bandas infravermelhas seis meses depois, ele poderia ver uma mudança na posição aparente de um grande planeta na nuvem de Oort, nesse período de seis meses.

As duas bandas utilizadas na segunda varredura do céu foram escolhidas para identificar estrelas frias muito pequenas - as anãs marrons - que são muito parecidas com planetas maiores do que Júpiter, como se supõe que Tique seria.

Se Tique existe de fato, por que teria levado tanto tempo para encontrarmos um outro planeta do nosso Sistema Solar?

Tique seria muito frio e com um brilho tênue demais para que um telescópio de luz visível pudesse captá-lo.

Telescópios sensíveis na faixa do infravermelho podem captar o brilho de um objeto assim, se estiver olhando na direção certa.

O WISE é um telescópio sensível de infravermelho que olha em todas as direções.

Por que o planeta hipotético é chamado de Tique, e por que escolher um nome grego quando os nomes de todos os outros planetas derivam da mitologia romana?

Na década de 1980 foi sugerida a existência de um companheiro diferente do Sol.

Propôs-se que esse objeto, batizado com o nome da deusa grega Nêmesis, explicaria as extinções em massa periódicas na Terra.

Nêmesis teria uma órbita altamente elíptica, perturbando os cometas na Nuvem de Oort aproximadamente a cada 26 milhões de anos, enviando uma chuva de cometas em direção ao interior do Sistema Solar.

Alguns desses cometas teriam se chocado com a Terra, causando resultados catastróficos para a vida.

Análises científicas mais recentes já não dão apoio à ideia de que as extinções na Terra acontecem em intervalos regulares. Assim, a hipótese de Nêmesis não é mais necessária.

No entanto, é possível que o Sol tenha um companheiro distante, nunca visto, em uma órbita mais circular, com um período de alguns milhões de anos - que não causaria efeitos devastadores para a vida na Terra.

Para distinguir esse objeto da malévola Nêmesis, os astrônomos escolheram o nome de sua benevolente irmã na mitologia grega, Tique.

* Existirá de fato um Planeta X?
* Telescópio Wise vai procurar Estrela X, asteroides ameaçadores e muito mais
* Existirão vidas em outros universos?

Microscópio com lente líquida enxerga dentro da pele

Os microscópios mais modernos conseguem produzir imagens de células, moléculas e até átomos - desde que essas células, moléculas e átomos estejam devidamente destrinchados e isolados.

Mas não faz muito sentido destruir a pele de alguém para ver se essa pele está doente - não faz sentido, mas é assim que se faz hoje.

A solução para esse dilema foi desenvolvida pela Dra. Jannick Rolland e seus colegas da Universidade de Rochester, nos Estados Unidos.

Zoom sob a pele

A equipe substituiu a lente tradicional de cristal, usada nos microscópios ópticos, por uma lente líquida, que pode ter seu foco ajustado continuamente.

Usando luz infravermelha e ajustando continuamente o foco da lente, torna-se possível fazer milhares de imagens em sequência, cada uma a uma profundidade ligeiramente maior, até gerar um filme que literalmente faz um zoom mergulhando nas estrutura internas do tecido vivo.

A profundidade atingida - 1 milímetro - é suficiente para detectar e examinar lesões na pele para detectar se elas são benignas ou cancerosas.

Em vez de fazer uma incisão, retirar o tecido, e enviá-lo para uma biópsia no laboratório, a ponta de uma pequena sonda é colocada em contato com o tecido e, em poucos segundos, surge na tela do computador uma imagem 3D precisa e de alta resolução.

Coerência óptica

O equipamento consegue isso usando uma configuração única de lente líquida - um processo conhecido como microscopia de coerência óptica.

Em uma lente líquida, uma gota de água toma o lugar da lente tradicional de vidro. Um campo elétrico variável em torno da gota de água faz com que ela mude sua forma - alterando, portanto, o foco da lente.

Isso permite tirar milhares de fotos focadas em diferentes profundidades abaixo da superfície da pele. Combinando estas imagens, cria-se uma visualização com foco perfeito de todo o tecido, incluindo estruturas importantes da pele.

Como o dispositivo utiliza a luz infravermelha próxima, em vez de ultra-sons, as imagens têm uma resolução precisa com escala de micrômetros, 1.000 vezes melhor do que a resolução em escala milimétrica disponível hoje.

O processo já foi testado em humanos e, agora, será utilizado em pesquisas clínicas juntamente com as técnicas tradicionais para verificar sua capacidade de distinguir entre os diferentes tipos de lesões.

Cientistas criam ilusão de corpo com 3 braços

Poucos dias depois de haver dito em uma conferência nos Estados Unidos, que é possível deixar o próprio corpo e até assumir outro. o Dr. Henrik Ehrsson anunciou o mais recente feito de sua equipe.

Ehrsson e seus colegas da universidade médica Instituto Karolinska, na Suécia, mostraram que é possível fazer com que uma pessoa experimente a sensação de possuir três braços.

Como sentimos nossos próprios corpos é uma questão clássica na psicologia e na neurociência.

Por muito tempo se acreditou que a nossa imagem corporal fosse limitada à estrutura do nosso próprio corpo - em outras palavras, que não poderíamos nunca ter a sensação de ter mais do que uma cabeça, dois braços e duas pernas.

O experimento mostrou que nosso self é bem mais adaptável do que isso.

Ilusão de 3 braços

O experimento que cria a ilusão de possuir três braços foi feito com um voluntário sentado a uma mesa e tendo um braço protético realista colocado ao lado do seu braço direito.

O voluntário vê então seus dois braços reais e o braço extra protético, feito de borracha, como se todos se estendessem a partir do seu corpo.

Para produzir a sensação de que o braço de borracha é da própria pessoa os cientistas tocam o braço direito do voluntário e o braço de borracha em pontos específicos, usando duas escovas pequenas - é importante que os dois toques sejam sincronizados o mais perfeitamente possível.

"O que acontece é que gera-se um conflito no cérebro sobre qual das duas mãos direitas pertence ao corpo do participante," explica Arvid Guterstam, um dos cientistas responsáveis pelo estudo.

"O que se poderia esperar é que apenas uma das mãos fosse sentida como a sua própria, provavelmente a do braço real. Mas o que nós descobrimos, surpreendentemente, é que o cérebro resolve este conflito aceitando as duas mãos direitas como sendo partes da imagem corporal, e o voluntário tem a sensação de possuir um terceiro braço," explicou Guterstam.

O experimento foi repetido em 154 voluntários saudáveis.

Autodefesa

Para provar que o braço protético estava sendo verdadeiramente sentido como um terceiro braço os cientistas "ameaçaram" ou a prótese de mão ou a mão real com uma faca de cozinha.

Ao mesmo tempo, eles mediram o grau de transpiração da palma da mão esquerda do voluntário, que funciona como uma resposta fisiológica não consciente ao perigo.

Os resultados demonstraram que os pacientes têm a mesma resposta ao estresse tanto quando a prótese foi ameaçada, quanto quando a ameaça era sobre a mão real.

E isso acontece apenas durante os períodos em que os voluntários estavam passando pela ilusão do terceiro braço - por exemplo, não houve reação de estresse quando a prótese de braço direito foi substituída por uma prótese de braço esquerdo ou por um pé protético, o que quebra a ilusão do terceiro braço.

Próteses aditivas

Os resultados do estudo deverão beneficiar os pacientes através de novas pesquisa na área das próteses.

"Poderá ser possível no futuro oferecer a um paciente que sofreu derrame, que ficou paralisado em um lado do corpo, um braço protético que poderá ser usado e sentido como sendo o seu próprio, enquanto o braço paralisado permanece dentro da imagem corporal do paciente," disse o Dr. Henrik Ehrsson, que coordenou o estudo.

Proteínas presentes no câncer de mama podem levar a novos tratamentos

Novas perspectivas para se conhecer a evolução do câncer de mama e novos caminhos que poderão melhorar a eficiência da quimioterapia e, assim, a resposta ao tratamento.

Estes são os resultados de uma pesquisa realizada na Faculdade de Medicina de Ribeirão Preto (FMRP), da USP.

Os estudos investigaram a expressão, ou seja, a presença de duas proteínas, a HIF-1-alfa (fator induzível por hipóxia-1-alfa) e a VEGF-C (fator de crescimento endotelial vascular), em mulheres com câncer de mama localmente avançado.

Segundo os pesquisadores Luiz Gustavo Brito e Viviane Schiavon, ao analisarem a presença do HIF-1-alfa e do VEGF-C nessas mulheres, verificou-se que o primeiro teve prevalência de 66% e o segundo de 63%.

Enquanto o HIF-1-alfa esteve mais intenso, ou seja, apareceu mais em mulheres com axila comprometida pelo câncer, o VEGF esteve mais presente naquelas que fizeram quimioterapia e cuja resposta foi boa.

"Isso quer dizer que, quanto mais agressivo era o câncer, mas presente o HIF-1-alfa estava, enquanto o VEGF está relacionado à resposta ao tratamento nessas mulheres", explica Brito.

Caminhos para o tratamento

Para os pesquisadores, futuramente o HIF-1-alfa poderá ser usado como indicador que dirá qual vai ser o prognóstico da mulher com câncer de mama, ou seja, como será a sua evolução.

Já o VEGF-C terá um papel importante nas mulheres que farão quimioterapia.

"A quimioterapia funcionou melhor nas pacientes cujo tumor expressou o VEGF, o que sugere que o tumor, ao aumentar a produção de vasos por esta proteína, aumenta a chegada da droga até o leito, matando essas células", diz Viviane.

Os pesquisadores trabalharam somente com mulheres com câncer localmente avançado e metastático.

"Ao contrário dos países desenvolvidos, onde as mulheres descobrem o câncer precocemente, no Brasil, por exemplo, devido ao retardo no diagnóstico, os tratamentos são feitos em estágios mais avançados da doença, às vezes sem cura. Todas as mulheres pesquisadas já haviam se submetido à quimioterapia e à cirurgia," explica a pesquisadora.

Tratamento individualizado

A HIF-1-alfa é uma proteína descoberta recentemente e ainda pouco conhecida da ciência.

Brito diz que pesquisas já têm mostrado que futuramente ela será utilizada para saber qual o perfil do câncer de mama da paciente, se é agressivo o não. "Aí é que entra nossa contribuição. Cada vez mais o tratamento do câncer de mama é individualizado, baseado no comportamento tumoral específico daquela paciente".

Já Viviane, responsável pela investigação do VEGF-C, adianta que essa proteína já é estudada há mais de 50 anos.

"Mas estudos com grupo de mulheres com câncer de mama localmente avançado são poucos e menos ainda aqueles que mostram o seu comportamento, mas ela só deverá ser utilizada como marcador futuramente para predizer uma boa resposta à quimioterapia, assim como pelo uso de drogas que bloqueiem sua ação", resume.

Câncer de Mama no Brasil

Segundo dados do Instituto Nacional do Câncer (INCA) para 2010 eram esperados 49.240 novos casos de câncer de mama, ou seja, um risco estimado de 49 casos a cada 100 mil mulheres.

Ainda, de acordo com o INCA, na Região Sudeste, o câncer de mama é o mais incidente entre as mulheres, com um risco estimado de 65 casos novos por 100 mil.

Sem considerar os tumores de pele não melanoma, este tipo de câncer também é o mais frequente nas mulheres das regiões Sul (64/100.000), Centro-Oeste (38/100.000) e Nordeste (30/100.000). Na Região Norte é o segundo tumor mais incidente (17/100.000).

Entretanto os pesquisadores alertam que a chance de cura para o câncer de mama pode chegar a mais de 95% se descoberta em estágios iniciais.

O Instituto Nacional do Câncer recomenda que as mulheres a partir dos 50 anos de idade façam mamografia uma vez a cada dois anos.

* INCA divulga direitos e deveres das mulheres sobre o câncer de mama

Embora seja reconhecido que a sobrevida com câncer de mama depende do diagnóstico precoce, especialistas questionam exageros na recomendação da mamografia:

* Cientistas defendem mudanças nas orientações sobre mamografia para prevenção do câncer de mama

quarta-feira, 23 de fevereiro de 2011

Radiômetro: sensor encontra focos escondidos de fogo

Pesquisadores alemães desenvolveram um sensor capaz de detectar fogo onde só parece haver fumaça.

Incêndios que produzem uma grande quantidade de fumaça são particularmente difíceis de combater porque é difícil detectar e alvejar diretamente a origem do fogo.

O novo sensor radiométrico pode localizar o coração das chamas, mesmo quando a visibilidade é limitada ou impossível, como sob uma camada de terra.

Fogo escondido pela fumaça

As câmeras de infravermelho são o principal recurso dos bombeiros atualmente, uma vez que o fogo brilha mais intensamente na faixa do infravermelho.

Embora sejam úteis sobretudo para o combate de incêndios a partir do ar, as câmeras de infravermelho não funcionam em condições de muita poeira e fumaça, como em incêndios florestais.

Os engenheiros do Instituto Fraunhofer encontraram uma maneira de contornar este problema criando um radiômetro que rastreia o fogo mesmo quando a visibilidade é limitada.

O sensor funciona na faixa de micro-ondas, entre 8 e 40 GHz. Nessas frequências relativamente baixas a radiação sofre menos interferência das partículas poeira do que nas frequências muito mais altas do infravermelho.

"As partículas de poeira e fumaça são praticamente transparentes na faixa de micro-ondas, mas a radiação [térmica emitida pelo fogo] ainda é forte o suficiente para que se possa detectar a origem de um incêndio.

"De uma altura de 100 metros, fomos capazes de localizar fontes de incêndios medindo cinco por cinco metros em condições de baixa visibilidade," explica a Dra. Nora von Wahl, engenheira-chefe do projeto.

Radiômetro

O radiômetro é formado pelos sensores propriamente ditos, por uma antena e pelo software para processar e mostrar as imagens do fogo.

A resolução do sistema todo é determinada sobretudo pela abertura angular da antena - a precisão depende do tamanho da antena, da frequência e da distância do solo.

Utilizando uma antena de 20 centímetros na borda externa, operando com uma frequência de 22 GHz a uma altura de 30 metros, o radiômetro pode resolver detalhes sobre o terreno com uma precisão de 2,6 metros.

"O radiômetro não nos dá tantos detalhes como uma câmera de infravermelho," diz a pesquisadora, "mas se aumentarmos o tamanho da antena podemos obter uma maior resolução."

Fogo escondido

O sensor radiométrico permite localizar focos de incêndio mesmo atrás de uma cortina de folhagens ou no subsolo.

"Depois de um incêndio florestal, é frequente que novos incêndios comecem a partir do subsolo. Para encontrar esses focos os bombeiros têm de entrar e vasculhar à mão. Nosso radiômetro pode detectar incêndios até abaixo da camada superficial de terra," diz von Wahl.

O radiômetro mede 10,5 por 15 por 7 centímetros. Mas os engenheiros afirmam que este é somente um protótipo, que logo se tornará ainda menor.

Bioimpressão: Impressora 3D imprime tecidos biológicos

Cientistas apresentaram no encontro da Associação Americana para o Avanço da Ciência uma impressora 3D que pode vir a imprimir tecidos biológicos.

O pesquisador Hod Lipson, da universidade americana Cornell, afirma que o que ele e outros estudam é em vez de imprimir em plástico, imprimir com materiais biológicos, formando tecidos tridimensionais.

Atualmente, a equipe trabalha na impressão de orelhas para serem usadas na medicina reconstrutiva.

A impressora não é muito diferente de uma de jato de tinta ou um plotter de impressão.

Memória do corpo

A ideia é que no futuro cada paciente tenha detalhes minuciosos do seu corpo armazenados no computador dos médicos.

Se no futuro, ele vier a necessitar de uma nova cartilagem, um menisco, uma orelha ou até um osso, bastaria recuperar aquelas informações.

Depois células do próprio paciente seriam coletadas e postas em cultura para serem usadas como "tinta" para imprimir novas partes do corpo.

Para Hod Lipson, a tecnologia pode fazer parte do dia-a-dia dentro de 20 anos.

Descobertas revolucionam conhecimento do cérebro

Nosso cérebro não é mais aquele.

Pelo menos não é mais aquele que pensávamos que fosse.

Uma sequência de descobertas científicas, divulgadas ao longo das últimas semanas, está mudando a forma como o cérebro humano é visto e compreendido.

E, por decorrência, como devemos lidar com ele.

Você acha que o cérebro é dividido em áreas especializadas para processar cada um dos sentidos físicos? Você acredita que a dopamina seja o neurotransmissor do bem-estar? Você aprendeu que os neurônios comunicam-se em um sentido único? Então é melhor se atualizar.

Neurônios e axônios

Tudo começou quando Costas Anastassiou e seus colegas do Caltech (EUA) descobriram que os neurônios podem se comunicar diretamente à distância, usando campos elétricos e dispensando as sinapses.

Contudo, mesmo nas sinapses, a coisa é mais complicada do que se acreditava.

Os neurônios são complicados, é certo, mas seu conceito básico é o de que as sinapses transmitem sinais elétricos para os dendritos e o corpo celular (entrada), e os axônios passam os sinais adiante (saída).

Pelo menos isto é o que está nos livros-texto. Mas é melhor parar as máquinas e começar a reescrever os livros-texto.

Em um achado surpreendente, Nelson Spruston e seus colegas da Universidade Northwestern (EUA) descobriram agora que os axônios podem operar no sentido inverso: eles também podem enviar sinais para o corpo celular.

Ou seja, os axônios também conversam entre si.

E não apenas isso: antes de enviar os sinais na contra-mão, os axônios podem realizar suas próprias computações neurais, sem qualquer envolvimento do corpo celular ou dos dendritos.

Isto contraria frontalmente o modelo da comunicação neuronal adotado hoje, onde o axônio de um neurônio está em contato com o dendrito ou com o corpo celular de outro neurônio, e não com o axônio desse outro neurônio.

Ao contrário dos cálculos realizados nos dendritos, os cálculos que ocorrem nos axônios são milhares de vezes mais lentos - provavelmente um mecanismo para que os neurônios calculem coisas mais urgentes nos dendritos e usem os axônios para as coisas mais lentas.

O impacto da descoberta é direto e contundente: os cientistas precisam saber em detalhes como um neurônio normal funciona para descobrir o que está dando errado quando surgem doenças como epilepsia, autismo, Alzheimer ou esquizofrenia.

Áreas do cérebro

Amir Amedi e seus colegas da Universidade de Jerusalém estavam mais interessados em uma parte específica do cérebro, a parte responsável pela visão.

E suas descobertas questionam a atual paradigma das neurociências, que estabelece que o cérebro é dividido em zonas, cada uma responsável pelo processamento de sinais específicos.

Os cientistas descobriram que a parte do cérebro que se acredita ser responsável pela leitura visual - a parte do seu cérebro que está sendo acionada enquanto você lê este texto - nem mesmo precisa da visão.

Ao monitorar o cérebro de pessoas cegas enquanto elas liam textos em Braille, os cientistas verificaram que as imagens de ressonância revelam atividade exatamente na mesma parte do cérebro que é acionada quando leitores não-deficientes leem usando os olhos.

Mais uma alteração à vista para os livros-texto, uma vez que hoje é largamente aceita a noção de que o cérebro é dividido em regiões, cada uma especializada no processamento de informações vindas através de um determinado sentido - visão, tato, paladar etc.

"O cérebro não é uma máquina sensorial, embora muitas vezes ele se pareça com uma; ele é uma máquina de tarefas," propõe o Dr. Amedi, ainda sem se desvencilhar mecanicismo.

Segundo a proposta do pesquisador, cada área cérebro faria uma tarefa determinada, sem vinculação a um sentido específico. Assim, a área da leitura visual seria ativada esteja você lendo um livro com os olhos, um texto em Braille com os dedos ou mesmo relembrando o parágrafo de um texto que você está tentando decorar.

O Dr. Amedi aproveitou para dar uma espetada nas visões mais estreitas da evolução. Ao contrário de outras tarefas que o cérebro executa, a leitura é uma invenção recente, com pouco mais de 5.000 anos de idade. O Braille tem sido usado há menos de 200 anos.

"Isso não é tempo suficiente para que a evolução tenha moldado um módulo do cérebro dedicado à leitura," disse ele.

Centro de recompensas e dopamina

O trabalho de um grupo de cientistas da Universidade da Geórgia (EUA) e da Universidade Normal da China Oriental se concentrou em outra área do cérebro, o chamado centro de recompensas.

O centro de recompensas, juntamente com o neurotransmissor dopamina, tem sido usado pela neurociência e pela psiquiatria para explicar inúmeras condições em que o indivíduo se guia pela busca do prazer - entre eles vícios, dependência química e inúmeros comportamentos.

Mas parece que o centro de recompensas vai precisar de um outro nome.

Joe Tsien e seus colegas demonstraram que essa área do cérebro responde também às experiências ruins.

Esteja você comendo chocolate ou caindo de um prédio - ou mesmo pensando em uma dessas coisas - a dopamina será produzida do mesmo jeito.

Os cientistas estudaram os neurônios de dopamina na área tegmental ventral do cérebro de camundongos, amplamente pesquisada por seu papel na chamada motivação relacionada à recompensa - mais conhecida como dependência química.

Eles descobriram que essencialmente todas as células apresentaram alguma resposta tanto a experiências boas como a experiências ruins - na verdade, um evento que induz o medo disparou 25% dos neurônios, produzindo uma enxurrada de dopamina.

"Nós acreditávamos que a dopamina estivesse sempre envolvida na recompensa e no processamento de sensações de bem-estar," disse Tsien. "O que descobrimos é que os neurônios de dopamina também são estimulados e respondem a eventos negativos."

Cérebro que se constrói

Descobertas como estas podem impulsionar a compreensão do cérebro porque, munidos de descrições mais fiéis da realidade, os cientistas podem iniciar experimentos com resultados mais promissores.

O exemplo clássico é o da descoberta da plasticidade do cérebro. Por muito tempo se acreditou que o cérebro possuía um número fixo de neurônios, que só faziam morrer ao longo da vida, sem reposição.

A descoberta de que o cérebro é altamente adaptável levou a descobertas como a de que as mudanças no cérebro podem ser induzidas voluntariamente, dando sustentação a novas pesquisas na área de psicoterapia e meditação, entre outras, abrindo caminho para terapias não-medicamentosas de alta eficácia.

* Cérebro é mais do que uma máquina e se "liberta do corpo", diz cientista

Mas há muito a se fazer. Apesar de continuar avançando no entendimento da "troca de dados" entre os neurônios, os cientistas ainda sabem pouco sobre a linguagem que o cérebro usa nesses dados - é como se conseguíssemos detectar os 0s e 1s dos computadores mas não soubéssemos como transformá-los em letras e números.

* Cientistas têm nova teoria sobre linguagem do cérebro