quarta-feira, 31 de agosto de 2011

Microchip implantável usa sensor para monitorar tumores

Uma cirurgia é normalmente uma das primeiras opções no tratamento do câncer.

No entanto, alguns tumores, como os tumores cerebrais, podem ser difíceis de operar, com um alto risco de danificar o tecido nervoso sadio ao redor.

Outros tumores cancerosos, como o carcinoma da próstata, crescem a um ritmo muito lento e afetam principalmente os pacientes mais velhos.

Nestes casos, uma cirurgia muitas vezes reduz a qualidade de vida dos pacientes sem prolongar significativamente sua expectativa de vida.

A solução pode estar em uma técnica para monitorar o crescimento dos tumores, deixando a cirurgia como último recurso, quando ela for estritamente necessária e puder fornecer os maiores benefícios.

Chip para monitorar tumores

Para isso, a equipe do Dr. Bernhard Wolf, da Universidade de Munique, na Alemanha, criou um chip que contém um sensor que pode ser implantado próximo a um tumor, detectando sua alterações.

O chip-sensor mede a concentração de oxigênio dissolvido no tecido e transmite esta informação a um receptor fora do organismo.

O receptor então envia os dados para o médico do paciente, que pode monitorar o desenvolvimento do tumor, dosando as quimioterapias e analisando o momento correto de fazer a cirurgia.

Sensor biocompatível

O principal desafio para os pesquisadores foi desenvolver um sensor que funcione de forma inteiramente autônoma por longos períodos de tempo, não podendo ser "contaminado" pelas proteínas ou restos celulares do organismo.

Ele também precisa ser "invisível" para o corpo, para que não seja identificado como um objeto estranho, atacado e encapsulado por uma "cicatriz", o que o tornaria inoperante.

"Nós encapsulamos o chip sensor, o circuito eletrônico de análise, o transmissor e as baterias em uma caixa de plástico biocompatível," explica Sven Becker, gerente do projeto. "Além disso, nós projetamos o chip para auto-calibrar o sensor para uma determinada concentração de oxigênio dissolvido nos intervalos de medição."

Micro-seringa

O chip-sensor já passou por testes de laboratório com células e culturas de tecidos. O próximo passo serão os testes in vivo.

Enquanto verificam seu funcionamento, os pesquisadores vão trabalhar em sua miniaturização, para que a cirurgia para seu implante seja minimamente invasiva.

Além disso, os médicos querem adicionar outros sensores, para medir a acidez e a temperatura.

A equipe também está trabalhando no desenvolvimento de uma micro-seringa, a ser implantada junto com o chip-sensor. A micro-seringa será capaz de liberar agentes quimioterápicos nas imediações do tumor, se necessário.

Antibiótico é reinventado para matar bactérias resistentes

Uma equipe de cientistas do Instituto Scripps (EUA) conseguiu reformular um antibiótico comum para torná-lo capaz de matar a classe mais mortal de bactérias resistentes aos antibióticos.

O composto poderá, quando aprovado, ser usado clinicamente para o tratamento de pacientes com infecções bacterianas altamente resistentes.

"[Estes resultados] têm um significado clínico verdadeiro e traçam um caminho a ser seguido para o desenvolvimento de antibióticos de última geração para o tratamento das mais graves infecções bacterianas resistentes," disse o Dr. Dale L. Boger, coordenador do novo estudo.

O novo composto sintetizado é um análogo do bem-conhecido antibiótico vancomicina.

O novo análogo foi preparado "do zero", em uma síntese completa, uma realização muito importante do ponto de vista da chamada química sintética.

Vancomicina

A vancomicina é um antibiótico de último recurso, que é usado apenas depois que o tratamento com outros antibióticos falhou.

Clinicamente, ela é usada para tratar pacientes que são infectados com o virulento Staphylococcus aureus, resistente à meticilina (MRSA), ou indivíduos em diálise, ou ainda aqueles que são alérgicos a antibióticos beta-lactâmicos (penicilina e cefalosporinas).

A vancomicina normalmente trabalha grudando e sequestrando um composto formador de células na parede bacteriana, um peptidoglicano - uma molécula contendo carboidrato e carbono.

Apenas as bactérias Gram-positivas possuem uma parede celular, que é uma membrana na superfície externa da célula.

Um único átomo muda tudo

O antibiótico se liga tão fortemente ao peptidoglicano que as bactérias não podem mais usar o mecanismo para formar sua parede celular e, assim, morrem.

Infelizmente, as bactérias encontraram uma maneira de alterar o peptidoglicano, de tal forma que o antibiótico já não consegue mais se agarrar a ele.

As bactérias fazem isso expressando uma forma mutante do peptidoglicano no qual são alteradas as propriedades de um átomo-chave utilizado no processo de reconhecimento usado pelo antibiótico.

Isto significa simplesmente que, onde havia algo atrativo, agora há algo repulsivo. Quimicamente, as bactérias substituem uma amida (carbonila, RC=O ligada a uma amina) por um éster (carbonila, RC=O ligada a um oxigênio).

Esta mudança de um átomo muda o jogo inteiro, e torna a vancomicina ineficaz.

Até agora, pelo menos.

Os antibióticos contra-atacam

Como ímãs, as interações moleculares podem ser atrativas (de cargas opostas) ou repulsivas (com cargas idênticas).

O que os químicos fizeram foi tornar atrativa essa interação-chave que havia sido tornada repulsiva pela bactéria.

Agora, o novo análogo da vancomicina pode agarrar o peptidoglicano mutante e, novamente, impedir que as bactérias construam sua parede celular, matando as bactérias resistentes.

E o que é mais o notável é que esse processo de reengenharia do antibiótico mantém sua capacidade de se ligar ao peptidoglicano original, sem mutação.

Vírus ignorado está causando cirrose hepática e câncer do fígado

O vírus da hepatite G foi identificado em 1995.

Depois de uma pesquisa pequena sobre o vírus, a Food and Drug Administration (FDA), órgão de saúde dos Estados Unidos, declarou o vírus como não-nocivo.

Mas cientistas da Arábia Saudita agora estão divulgando indícios de que esta pode ter sido uma decisão muito errada.

Eles sustentam que a transmissão do vírus através do sangue doado que não foi examinado para detectar sua presença, bem como a infecção por outras vias, levou a um aumento da cirrose hepática e do câncer de fígado.

Suas conclusões foram publicadas International Journal of Immunological Studies.

Vírus da hepatite G

O vírus da hepatite G (HGV) foi rebatizado como vírus GB C - ou GBV-C, do inglês Hepatitis G Virus C.

Ele é um vírus da família Flaviviridae, mas ainda não foi associado a um gênero.

Curiosamente, alguns indícios sugerem que a co-infecção com o vírus da AIDS, o HIV, de alguma forma reforça o sistema imunológico destes pacientes.

No entanto, são os efeitos danosos do vírus sobre o fígado de pacientes saudáveis que se tornou motivo de preocupação para Mughis Uddin Ahmed, do Hospital Rei Abdulaziz (NGHA) em Al-Ahsa, Arábia Saudita.

Doação de sangue com vírus

O médico ressalta que, desde que a FDA declarou que o vírus não causa problemas de saúde aos seres humanos, em 1997, o sangue doado não tem sido rastreado para este vírus.

O Dr. Ahmed fez uma revisão da literatura científica dos últimos 16 anos, que mostra que o vírus tem alta prevalência em todo o mundo.

Além disso, há uma correlação da infecção com este vírus com a hepatite e com a cirrose do fígado, e indícios de uma associação com o carcinoma hepatocelular.

Ahmed também identificou uma ligação do HGV com distúrbios hematológicos e doenças hematológicas.

Decisão correta

Por esta razão, o pesquisador sugere que o vírus deve ser pesquisado para determinar se ele é um patógeno humano verdadeiro e uma substância viral cancerígena.

Ele também aconselha que a triagem de sangue doado para detecção deste vírus seja restabelecida com urgência, em vez de permitir que os profissionais de saúde continuem a transferir o vírus sem saber para os receptores de sangue.

Segundo o médico saudita, isso está colocando os receptores de sangue sob o mesmo risco de morbidade e mortalidade observados com o vírus da hepatite C sendo transferidos entre o doador e o receptor.

E isto só vai acabar quando o rastreamento do sangue doado for restabelecido.

Tratamento revolucionário para cáries não dói e regenera o dente

Cientistas descobriram uma forma indolor de combater a cárie dentária, que reverte os danos e ainda regenera os dentes, deixando-os como novos.

Repetindo, sem dor.

O aparente milagre foi conseguido pela equipe da Dra. Jennifer Kirkham, da Universidade de Leeds, no Reino Unido, e consiste em uma nova técnica de preenchimento do dente.

Fugindo do dentista

A cárie dentária começa quando o ácido produzido pelas bactérias na placa dissolve o mineral nos dentes, causando furos microscópicos ou "poros". O processo progride conforme esses microporos aumentam em número e tamanho.

Eventualmente, o dente danificado precisa ser perfurado e preenchido, para evitar dor de dente, ou, em casos mais graves, precisa ser extraído.

Só de pensar no tratamento, muitas pessoas se afastam dos seus dentistas, estejam ou não precisando. Isso retarda o início do tratamento e, quando a dor é mais forte, o estrago já é grande.

É um ciclo vicioso, mas que pode ser quebrado, segundo os pesquisadores, que desenvolveram uma maneira nova e revolucionária para tratar os primeiros sinais da cárie dentária.

Regeneração do dente sem dor

A solução está em um fluido à base de peptídeos que é literalmente pintado sobre a superfície do dente - não, não é necessário usar o motorzinho.

A tecnologia com peptídeos baseou-se no conhecimento de como o dente se forma, o que permite estimular a regeneração do defeito que começa a surgir.

"Isto pode soar bom demais para ser verdade, mas estamos essencialmente ajudando os dentes danificados pelo ácido a regenerar-se. É um processo de reparação totalmente natural e não-cirúrgico, e também totalmente livre de dor," garante a Dra. Kirkham.

Fluido mágico

O "fluido mágico" contém um peptídeo conhecido como P 11-4 que, sob certas condições, se aglomera na forma de fibras.

Na prática, isso significa que, quando aplicado sobre o dente, o fluido penetra os microporos causados pelo ataque ácido e, em seguida, forma um gel espontaneamente.

Este gel funciona como um suporte que atrai o cálcio e regenera os minerais do dente a partir de dentro, proporcionando um reparo natural e sem dor.

Brasileiros identificam mutação genética que causa doença rara

Inchaços na pele, principalmente no rosto, órgãos genitais, tórax, mãos e pés, podem indicar uma doença rara, pouco conhecida e muito confundida com reações alérgicas a alimentos e medicamentos.

Trata-se do angioedema hereditário.

A moléstia autossômica dominante, causada por uma mutação genética, foi tema de uma pesquisa coordenada pela professora Luisa Karla de Paula Arruda, da Faculdade de Medicina de Ribeirão Preto da Universidade de São Paulo (FMRP-USP)

O estudo avaliou 275 pessoas em cinco gerações de uma família de Carmo do Rio Claro (MG).

"O objetivo foi determinar o tipo de mutação genética no inibidor da proteína C1 que causa a doença. Nele, observamos a ausência de um nucleotídeo do DNA. É uma mutação que não havia sido identificada em outras famílias", disse Luisa.

Edemas

Existem mais de 200 mutações genéticas responsáveis pelo angioedema com descrição na literatura científica.

"Na família estudada foi detectada a deleção heterozigota de uma citosina no exon 3 [segmento codificador] do gene serping1, que codifica a proteína C1. É como se uma única peça fosse capaz de alterar toda a estrutura do gene e, consequentemente, a proteína que ele codifica", disse.

O inibidor de C1 impede diversas vias metabólicas no organismo, uma das quais é responsável pela produção da bradicinina, substância que atua na dilatação dos vasos aumentando a permeabilidade.

Na ausência da bradicinina, o líquido transborda para os tecidos e causa o edema.

Angioedema hereditário

A doença se manifesta por meio de inchaços, caracterizados pela ausência de vergões, dor e coceira. Os inchaços são muitas vezes desencadeados por situações de estresse e chegam a durar entre 48 e 72 horas.

"Nesse período, o paciente deve ser tratado de forma rigorosa. Caso contrário, ele pode morrer de asfixia, por conta do edema das vias aéreas", ressaltou Luisa.

"O mais complicado é o tratamento das crises. Recentemente, foi lançado no Brasil um medicamento que atua na inibição do receptor da bradicinina. É importante compreender a doença, pois ela tem um tratamento muito específico", disse.

Entre os primeiros sintomas - que surgem em torno dos 10 anos de idade - e o diagnóstico pode levar cerca de uma década. "Grande parte dos médicos desconhece a doença devido à sua raridade. Quando há vários casos na família, pode ser mais fácil identificá-la", afirmou Luisa.

Exame genético

Para identificar o angioedema, a pesquisadora conta que são feitas análises laboratoriais nas quais são determinadas a quantidade e a atividade enzimática do inibidor de C1Link, além da dosagem de C4 - proteína cujo nível reduz quando há a mutação.

"O diagnóstico final, e mais preciso, seria identificar uma mutação no gene, como fizemos nessa família. Porém, isso não é rotina", disse.

"A doença não tem cura, mas podemos ajudar no que chamamos de aconselhamento genético. Em um recém-nascido - de uma família portadora do angioedema - é possível realizar os exames já nos primeiros meses para dizer se a criança tem ou não a mutação", destacou.

segunda-feira, 29 de agosto de 2011

Relógio atômico mais preciso do mundo marca novo recorde

Uma nova aferição apontou que o relógio atômico do Laboratório de Física Nacional da Grã-Bretanha é o mais preciso do mundo.

Segundo a pesquisa, feita por pesquisadores norte-americanos e britânicos, o relógio CsF2 tem uma precisão de 2,3 × 10-16 - ele atrasa ou adianta um segundo a cada 138 milhões de anos.

O recorde anterior era de um relógio atômico feito com um único átomo de mercúrio, que corre o risco de errar um segundo a cada 70 milhões de anos.

Relógio de fonte de césio

O CsF2 é um relógio de fonte de césio que usa o movimento em forma de fonte dos átomos de césio para determinar a duração de um segundo.

Os átomos são reunidos em maços de cerca de 100 milhões e direcionados através de uma cavidade onde são expostos a ondas eletromagnéticas.

Estas ondas estimulam o átomo para que ele oscile de forma regular. O Sistema Internacional de Unidades (SI) considera que 9.192.631.770 ciclos de radiação equivalem a um segundo.

Tempo internacional

O novo relógio mais preciso do mundo pertence é um dentre um grupo de relógios de fonte de césio que foram construídas pelos laboratórios de tempo na Europa, nos Estados Unidos e no Japão, para servir como "padrão primário de frequência" para a medição de tempo.

Estas medições nacionais são reunidas para a geração de uma média para a produção do Tempo Atômico Internacional e do Tempo Universal Coordenado, que são usados como escalas de tempo em todo o mundo para tais processos críticos como as comunicações globais, navegação por satélite e tempo oficial para as transações financeiros e mercados de ações.

O método utilizado para melhorar o relógio do Reino Unido também poderá servir para avaliar os relógios de fonte de césio de outros países, melhorando substancialmente a medição mundial do tempo.

Robô é projetado para resgate em minas subterrâneas

O Gemini-Scout é um robô-batedor, destinado a entrar em minas subterrâneas depois de um acidente, avaliar a situação e passar informações para as equipes de resgate.

Segundo os engenheiros dos Laboratórios Sandia, dos Estados Unidos, o histórico recente desses acidentes revela que o desconhecimento das condições do local e os riscos potenciais para os bombeiros têm retardado os esforços de resgate a ponto de perder vidas - dos mineiros acidentados - que poderiam ter sido salvas.

Para isso eles projetaram o Gemini-Scout para dar às equipes de resgate a ferramenta mais importante nesses casos: informações sobre as condições do local.

"Nós projetamos este robô para que ele vá à frente da equipe, avaliando a situação e os possíveis riscos e permitindo que as operações sejam conduzidas mais rapidamente," explica Jon Salton, líder do projeto.

À prova d'água e semi-anfíbio

O robô é equipado com sensores de gás, uma câmera termal para localizar sobreviventes, e uma câmera comum, para fornecer imagens do local em tempo real.

Todo o esforço foi colocado na capacidade de andar por lugares estreitos e cheios de obstáculos: o robô é capaz de escalar rochas, subir em ladeiras escorregadias ou de terreno solto e virar em espaços exíguos.

Mas a característica que mais chama a atenção é que o Gemini-Scout é um robô totalmente à prova d'água e semi-anfíbio, capaz de navegar por até meio metro de água - inundações são uma situação sempre presente nos acidentes em minas subterrâneas.

Medindo cerca de 1 metro de comprimento e 60 centímetros de altura, o robô pode ser usado para levar medicamentos, alimentos e cilindros de oxigênio para os mineiros caso as equipes humanas não possam se aproximar rapidamente. Ele é equipado com rádios, podendo ser usado para passar instruções para os mineiros.

Controle de XBox

Como é comum a presença de gases explosivos em minas subterrâneas, toda a parte eletroeletrônica do robô é blindada, de forma a não gerar qualquer fagulha ou aquecimento que possa causar transformar a tentativa de ajudar em um desastre maior.

"Para projetar um robô para fornecer o nível de assistência desejada tivemos que levar em conta as pressões e os gases existentes nesses ambientes," disse Clint Hobart, membro da equipe. "Assim, tivemos que garantir o uso de materiais cuja resistência daria conta do recado, e tivemos que manter tudo leve o suficiente para que o robô possa navegar com facilidade."

Para facilitar a navegação, permitindo que o robô seja operado por equipes sem treinamento intensivo, o Gemini-Scout é dirigido com o controle de um console Xbox 360, com comandos que lembram muito os jogos.

O robô já está sendo validado pela Administração de Saúde e Segurança na Mineração dos Estados Unidos, e deverá ser licenciado para fabricação para uma empresa privada.

Prêmio do Google para pouso na Lua continua sem ganhador

Em setembro, completam-se quatro anos do lançamento do desafio Google Lunar X Prize, uma competição que oferece prêmios num total de US$ 30 milhões para equipes privadas capazes de realizar uma missão lunar - robótica, não tripulada - sem financiamento público.

Modelado no X Prize original, que prometia US$ 10 milhões para o primeiro grupo não-governamental a levar um homem ao espaço e trazê-lo de volta em segurança - que foi vencido em 2004 pela nave SpaceShipOne - o objetivo do Google Lunar é estimular o avanço tecnológico e a solução criativa de problemas técnicos por meio da competição.

Uma é brasileira: SpaceMETA, de Petrópolis (RJ), que planeja enviar uma pequena frota de robôs esféricos à superfície lunar.

Existem, atualmente, 28 equipes inscritas na disputa, de 33 que iniciaram o desafio. Cinco se retiraram.

A inscrição de equipes foi encerrada em 31 de dezembro de 2010.

Prêmios lunares

A tarefa de conquistar a Lua sem a ajuda de nenhum governo está se mostrando mais complexa do que os criadores da competição esperavam.

Primeira tentativa para vencer o Google Lunar X PRIZE será feita em 3 meses

O desafio original previa que o primeiro prêmio, de US$ 20 milhões para o grupo que conseguisse pousar um robô na Lua, fazê-lo percorrer 500 metros e enviar fotos e dados para Terra, cairia para US$ 15 milhões em 2012, e deixaria de ser oferecido em 2014.

Novas regras, no entanto, determinam que o prêmio cairá a US$ 15 milhões a partir do momento em que um governo envie uma missão bem-sucedida para explorar a superfície da Lua, o que os organizadores acreditam que deve acontecer em 2013.

Um segundo prêmio, de US$ 5 milhões, será pago ao segundo grupo que completar os objetivos da missão.

Um adicional de US$ 4 milhões está disponível para premiar desempenhos excepcionais, como um robô capaz de operar durante a noite lunar, ou percorrer mais de 5 km.

O US$ 1 milhão restante será pago à equipe que mais promover a diversidade de gênero, etnia e nacionalidade em seu esforço de exploração lunar.

Planos para a Lua

Entre as equipes envolvidas no prêmio há desde jovens companhias criadas por empresários que esperam usar a tecnologia desenvolvida para extrair recursos minerais da Lua a Linkuniversidades e instituições mais interessadas no desafio em si e em seu potencial educativo.

Nenhuma grande empresa do setor aeroespacial se inscreveu na competição, mas algumas são parceiras das equipes, que incluem iniciativas norte-americanas, europeias e de grupos dispersos por várias partes do globo, cujos membros se comunicam via internet.

Vírus voltam a utilizar técnica de 1986 para infectar PCs

A técnica pode ser ainda mais velha e ter até 30 anos. O vírus Elk Cloner, programado para infectar computadores Apple II em 1982 ou 1981, usava o mesmo procedimento. Mas há muitas diferenças entre as pragas daquela época e as de hoje.

Na década de 80 e até quase o final da década de 90, infectar o MBR (Registro Mestre de Inicialização, na sigla em inglês) permitia que a praga iniciasse sua execução junto com o computador, além de poder infectar disquetes e, com isso, se disseminar de um computador para outro. Hoje, as pragas se disseminam pela internet e o único MBR infectado é dos discos rígidos – que em geral ficam dentro do computador e não podem disseminar a praga adiante.

“A vantagem de utiliza esta técnica está relacionada ao fato de que a praga se tornará ativa e carregada na memória antes do sistema operacional, podendo ter total controle sobre ele sem que um programa antivírus o detecte”, explica Fabio Assolini, da Kaspersky Lab.

Contaminando o MBR, algumas pragas avançadas como o TDL (também chamado de TDSS e Alureon) conseguem burlar as proteções do Windows em 64 bits que impedem a execução de código em modo “kernel”. Na prática, isso significa que o vírus tem um controle maior sobre o sistema, dificultando sua remoção.

Pragas não são feitas no Brasil, mas brasileiros estão em risco

Segundo o analista de vírus da Kaspersky Lab, Fabio Assolini, vírus desse tipo ainda não foram criados no Brasil, mas brasileiros podem ser infectados com pragas criadas fora do país. “Temos observado que muitos computadores no Brasil tem sido atacados pelo TDSS 4. No primeiro semestre de 2011 registramos mais de três mil tentativas de infecção da praga em diferentes computadores no Brasil”, conta o especialista.

Para eliminar o TDSS/Alureon/TDL, a Kaspersky oferece uma ferramenta gratuita chamada TDSSKiller.

Para se prevenir, o melhor é manter o sistema operacional, navegadores e plug-ins em suas versões mais recentes. Essas pragas costumam ser disseminadas por sites que exploram vulnerabilidades nesses softwares.

O que é o MBR

O “Master Boot Record” ou “Registro Mestre de Inicialização”, em uma tradução livre, é um setor especial no início de mídias como CDs, discos rígidos e disquetes. Ele contém um código que dá as primeiras instruções para o computador iniciar. Em sistemas modernos, o MBR também armazena informações sobre as partições de um disco.

O vírus se aloja no MBR para ser a primeira coisa que o computador irá executar quando for ligado, o que significa que ele tem a vantagem de “sair na frente” de todas as proteções. Depois de assumir o controle do PC, o vírus executa o MBR original para dar início ao sistema operacional.

Bootkits

As pragas de hoje são chamadas de “bootkits” – uma mistura dos termos “boot” (que significa “inicialização”, a letra b do “MBR”) e o termo “rootkit”, usado para descrever pragas digitais que buscam se esconder do usuário, dos programas de segurança e até do próprio sistema operacional.

Pesquisadores da empresa de segurança eEye apresentaram um conceito de bootkit com o “BootRoot” na conferência Black Hat em 2005. O BootRoot foi especialmente criado para burlar proteções do Windows.

Segundo a empresa de segurança F-Secure, o Brain – o já mencionado primeiro vírus para PC – teria sido também o primeiro rootkit e bootkit, porque monitorava acessos do disco e camuflava sua presença – embora de uma forma muito diferente das pragas atuais.

Isso significa que, depois de 25 anos, a maior diferença nos vírus está na motivação financeira de seus criadores. As técnicas mais avançadas voltam a ser apenas uma atualização do que um dia foi usado por vírus sem nenhum objetivo destrutivo ou financeiro -- como é o caso do Brain, que era uma praga muito interessante: o nome de seus autores está no código do vírus.

Pesquisador encontra e-mail malicioso que pode ter exposto Defesa dos EUA

“Repassando este arquivo para sua avaliação. Favor abrir e ver seu conteúdo.”

Como estratégia para levar um infeliz recrutador da EMC a abrir uma armadilha em forma de planilha do Excel, pode não ser um primor de sofisticação. Mas pesquisadores da empresa de segurança F-Secure acreditam que isso foi suficiente para invadir uma das mais respeitáveis empresas de segurança digital do planeta – e o primeiro passo de um ataque complexo que, em última instância, pôs em risco a segurança de grandes empresas de Defesa dos Estados Unidos, como Lokheed Martin, L-3 e Northrop Grumman.

O e-mail foi enviado em 3 de março e carregado em um serviço gratuito VirusTotal, usado para vasculhar mensagens suspeitas, em 19 de março, dois dias depois que a RSA veio a público com a notícia de que tinha sofrido uma invasão, no que foi uma das piores brechas de segurança já registradas.

Pesquisadores da F-Secure, a empresa que descobriu a mensagem na segunda-feira (22/8), acreditam que provavelmente foi ela que levou à invasão da RSA. Se isso for verdade, a descoberta trará à tona, mais uma vez, os perigos de um golpe conhecido como engenharia social, que desta vez teria levado ao comprometimento de uma grande empresa de segurança.

O analista antimalware Timo Hirvonen, da F-Secure, descobriu a mensagem de e-mail enterrada entre milhões de submissões armazenadas neste banco de dados alimentado de arquivos maliciosos ou potencialmente maliciosos. O VirusTotal permite que usuários de computador carreguem um arquivo suspeito – digamos, uma planilha Excel com suspeita de infecção – e dispare a varredura de mais de 40 dos melhores antivírus do mundo. Em troca da análise, os fabricantes de antivírus examinam os arquivos, o que faz do serviço um bom modo de aprender sobre software malicioso.

Busca

Hirvonen tem vasculhado o banco de dados do VirusTotal em busca de pistas do ataque à RSA desde que a empresa reconheceu ter sido invadida. Os hackers enviaram dois e-mails de phishing a grupos pequenos de empregados da empresa dentro de um prazo de dois dias, mas ninguém de fora da RSA e de sua empresa-mãe EMC sabia do conteúdo completo dessas mensagens. Não está claro sequer se eles chegaram a ser incluídos no banco de dados do VirusTotal.

A RSA divulgou alguns detalhes sobre o ataque, mas a descoberta de Hirvonen fornece uma primeira perspectiva sobre o que levou um empregado da EMC a abrir este perigoso anexo.

“O e-mail foi bom o suficiente para enganar um dos funcionários, fazendo com que ele o recuperasse da pasta Lixeira e abrisse o anexo Excel”, escreveu o chefe de novas tecnologias da RSA Uri Rivner, em um post publicado em 1º de abril que confirmava o que a RSA tinha dito publicamente sobre o e-mail. “Foi uma planilha intitulada ‘2011 Recruitment plan.xls’”.

Hirvonen não sabia se conseguiria encontrar este e-mail no VirusTotal. Mas ele pensou que poderia haver uma chance de alguém na RSA ter carregado o arquivo para ver o que havia nele. Uma busca pela planilha 2011 Recruitment Plan não trouxe resultados.

Mas neste mês Hirvonen terminou a construção de uma ferramenta de análise de dados que permitia encontrar sua agulha no palheiro do VirusTotal. Sua técnica: vasculhar os dados em busca de objetos Flash – software escrito para rodar no Flash Player da Adobe – parecidos com os que podem ter sido usados no ataque à RSA. A empresa tinha dito que os hackers utilizaram software que tiraram proveito de um bug no Adobe Flash e ofereceu alguns detalhes técnicos sobre o ataque.

“Foi difícil encontrá-lo”, disse Hirvonen. “Nós realmente tivemos de trabalhar duro para descobrir.”

Disfarce

Com esta nova ferramenta, Hirvonen rapidamente descobriu um arquivo .msg do Microsoft Outlook. Quando ele o abriu, sabia que tinha encontrado algo. Dentro dele, havia uma mensagem que tinha sido disfarçada para parecer ter sido enviada pelo site de recrutamento Beyond.com.

“Repassando este arquivo para sua avaliação. Favor abrir e ver seu conteúdo”, dizia a mensagem. O assunto: “2011 Recruitment plan”. O anexo: uma planilha Excel intitulada “2011 Recruitment plan.xls”.

Examinando mais de perto, Hirvonen descobriu que o arquivo parecia combinar com a descrição da RSA de todas as formas possíveis. O arquivo Excel continha o mesmo código de ataque em Flash; ele usava a mesmo software de controle remoto, chamado Poison Ivy, e tentava se conectar ao mesmo endereço de Internet divulgado pela RSA.

O e-mail foi enviado a funcionários da EMC, aparentemente para o departamento de recursos humanos, e indicava ter sido enviado por webmaster@beyond.com, um endereço genérico de um site que, no passado, chegou a divulgar vagas da EMC. Mas este era um endereço de disfarce, disse Hirvonen. Na verdade, o e-mail não tinha sido enviado pelos servidores da Beyond.com.

A F-Secure acredita que este foi um dos dois e-mails maliciosos que tinham a RSA como alvo.

Persistência

À época, a RSA classificou o incidente como um “ciberataque extremamente sofisticado”. Mas, se este for mesmo o e-mail usado na invasão, ele serve de exemplo a um princípio básico desses ataques de ciberespionagem – os hackers usarão qualquer coisa que funcione, até mesmo truques simples. Se eles falharem, tentarão de novo e de novo, até conseguirem.

A chave, segundo os especialistas em segurança, é atrair os invadores com iscas e impedir que zanzem pela rede interna depois que a tenham invadido.

Contatado na terça-feira (23/8), o grupo RSA Security da EMC relutou em dizer qualquer coisa sobre a mensagem. A RSA não confirmou se havia diferenças entre o e-mail de Hirvonen e o que comprometeu a segurança da empresa. Ela também não confirmaria se foi esta a mensagem que permitiu a invasão. “Nós podemos confirmar se este foi o e-mail que receberam? Não”, disse a porta-voz da RSA, Helen Stefan.

Se foi este o ataque que escancarou a segurança da RSA, não foi tão sofisticado assim, disse Alex Stamos, sócio da iSec Partners, consultoria de segurança associada ao NCC Group. “Para a RSA, este é um caso embaraçoso”, disse. “Ele ensina que, em qualquer empresa de porte razoável, mesmo uma empresa de segurança, haverá alguém que fará algo realmente estúpido.”

Fonte: IDG Now!

Médicos criam nova abordagem alimentar para diminuir o colesterol

A principal recomendação dietética para pessoas com altos níveis de colesterol é a adoção de uma alimentação com baixos níveis de gordura saturada.

Mas uma nova pesquisa mostra que é mais eficaz adotar uma alimentação com ingredientes capazes de reduzir os níveis de colesterol.

Essa alimentação inclui proteína de soja, castanhas e esteróis vegetais.

Em um estudo realizado na Universidade de Toronto, no Canadá, os médicos verificaram que o uso de alimentos redutores do colesterol baixou o nível do LDL muito mais do que a primeira opção, centrada apenas nas gorduras.

Dietas para baixar o colesterol

Têm sido feitos vários esforços para melhorar a capacidade da terapia dietética para reduzir o colesterol sérico.

Isso tem sido feito através da inclusão de alimentos específicos ou componentes alimentares com conhecida capacidade para baixar o colesterol, isoladamente ou em combinação (carteira de dieta).

Mas até agora não havia sido feito um estudo a longo prazo de tais dietas, em comparação com os conselhos dietéticos convencionais.

Neste estudo, os participantes receberam aconselhamento dietético e foram acompanhados por 6 meses.

Tirar o ruim ou aumentar o bom?

O grupo de controle foi instruído segundo a dieta terapêutica convencional, com gorduras pouco saturadas.

A dieta controle enfatizou fibras e grãos integrais, mas sem usar componentes da nova dieta proposta, que enfatiza a incorporação na alimentação de esteróis vegetais, proteína de soja, fibras viscosas e castanhas.

Os pesquisadores verificaram que as alterações no LDL-C foram de -3%, ou 8 mg/dL, para os participantes na dieta-controle tradicional.

Na nova abordagem, incluindo os alimentos com capacidade para baixar o colesterol, as variações percentuais atingiram -13,8%, ou -26 mg/dL.

Mosquitos da malária estão desaparecendo misteriosamente

A incidência da malária em vários países africanos ao sul do Saara está caindo rapidamente.

Uma equipe de pesquisadores da Tanzânia e da Dinamarca descobriu que o mosquito que carrega o parasita da malária praticamente desapareceu das vilas sem qualquer combate organizado.

E os pesquisadores ainda não sabem o porquê.

Há várias hipóteses, mas sem dados adequados eles não podem afirmar se a malária está sendo erradicada ou se a doença está apenas "descansando" antes de voltar com um vigor renovado.

Sem crédito dos mosquiteiros

"Muitos de nossos colegas pesquisadores da malária acreditam que a queda em países como a Tanzânia, Eritréia, Ruanda, Quênia e Zâmbia mostram que todos os programas de controle estão funcionando, particularmente o uso de mosquiteiros," afirma Dan Meyrowitsch, da Universidade de Copenhagen.

Mas ele continua:

"Isso simplesmente não é a história toda. Há mais de dez anos, temos recolhido e contado o número de mosquitos nas aldeias da Tanzânia. O número em nossas armadilhas caiu de 5.300 em 2004 para apenas 14 em 2009 - e isto foi em aldeias sem redes de mosquito."

Variação na intensidade das chuvas

Dan Meyrowitsch explica que a queda de 99% da população de mosquitos da malária durante o final da década de 1990 parece estar ligada a uma queda na intensidade das chuvas. Isto pode ser devido às mudanças climáticas globais, segundo ele.

"De 2003 a 2009, o volume de precipitação foi mais estável, mas a chuva era mais caótica e caiu fora da estação chuvosa. E isso pode ter perturbado o ciclo natural de desenvolvimento do mosquito", diz ele.

"É claro que é ótimo que o número de mortes relacionadas à malária entre crianças tenha caído drasticamente nos últimos cinco ou seis anos, mas precisamos saber por quê," alerta.

Como os pesquisadores podem descartar a ação dos mosquiteiros, a questão é se os mosquitos sucumbiram à doença, ou comunidades estão utilizando pesticidas, ou se a queda é devido aos novos padrões caóticos de chuva.

O retorno

"A menos que encontremos a resposta, não seremos capazes de prever quando os mosquitos da malária retornarão, e isso pode rapidamente se tornar crítico," explica Dan Meyrowitsch.

Isso porque muitas crianças e adultos não têm sido expostos à malária nos últimos cinco ou seis anos, e assim perderam ou deixaram de desenvolver imunidade ao parasita.

Se, e quando os mosquitos voltarem de repente, isso pode significar epidemias dramáticas de malária, a menos que a população e as autoridades de saúde se preparem antecipadamente para isso.

sexta-feira, 26 de agosto de 2011

Sapatos usam nova técnica para gerar energia para aparelhos portáteis

Há poucos dias, pesquisadores apresentaram um sapato-gerador, capaz de produzir energia usando músculos artificiais.

O Dr. Tom Krupenkin e seu colega J. Ashley Taylor, da Universidade de Wisconsin-Madison, nos Estados Unidos, também estão de olho nos sapatos, mas adotaram uma técnica diferente.

Krupenkin e Taylor trabalham há bastante tempo com a manipulação de gotas de líquido em nanoescala, o que os levou a desenvolver um material anti-congelante e outro capaz de repelir virtualmente qualquer líquido.

Em outra linha, pesquisadores vêm trabalhando há bastante tempo com um fenômeno chamado eletroumectação, a capacidade de controlar eletricamente como os líquidos interagem com superfícies sólidas, o que tem rendido bons frutos na área de papel eletrônico e telas flexíveis.

O que os dois pesquisadores fizeram foi inverter esse processo, criando a "eletroumectação reversa".

Eletroumectação reversa

Em vez de usar a eletricidade para a manipulação das gotas, como na eletroumectação, os dois cientistas estão usando as gotas para gerar eletricidade.

A energia mecânica é convertida em energia elétrica usando um dispositivo microfluídico - fluidos circulando no interior de microcanais.

As microgotas no interior do dispositivo interagem com um substrato feito com múltiplas camadas nanométricas de um material dielétrico, gerando uma carga eletrostática.

"Em sua essência, o processo de eletroumectação reversa é conceitualmente simples. A gota e os eletrodos são conectados a um circuito elétrico externo que fornece uma tensão de polarização constante entre a gota e o eletrodo.

"O acionamento mecânico externo é usado para mover a gota de forma a forçar uma diminuição da sua sobreposição com o eletrodo revestido com o filme dielétrico. Isto resulta na diminuição da carga total que pode ser mantida na interface líquido-sólido da gota.

"A carga elétrica excessiva, então, flui de volta através do circuito elétrico que conecta a gota e o eletrodo, gerando uma corrente elétrica que pode ser utilizada para alimentar uma carga externa," explicam os pesquisadores em seu artigo.

Colheita de alta densidade

A grande vantagem dessa abordagem é a alta densidade energética alcançada, de até 10,3 W m-2.

Isso se traduz em cerca de 20 watts de potência gerados pelo dispositivo instalado nos sapatos de um homem adulto, durante uma caminhada em ritmo normal.

Esta é a primeira solução no campo da chamada colheita de energia que oferece potência nessa faixa.

Embora já existam diversos sensores e equipamentos menores sendo alimentados por micro e nano-geradores, há uma demanda crescente por um dispositivo capaz de alimentar aparelhos maiores, incluindo o recarregamento de baterias de tablets e netbooks.

Krupenkin e Taylor estão entusiasmados com os resultados obtidos, já tendo fundado sua própria empresa, a InStep NanoPower, para tentar comercializar a tecnologia.

O maior desafio agora é encontrar uma forma prática de ligar os sapatos aos aparelhos a serem alimentados ou recarregados.

Astrônomos flagram buraco negro engolindo estrela

Em Março deste ano, o telescópio Swift da NASA, flagrou um fenômeno cósmico disparando um feixe de raios X incrivelmente forte em direção à Terra, vindo da Constelação do Dragão.

Essa fonte intensa e incomum, formada por feixes de alta energia, chamou a atenção dos astrônomos.

Eles então usaram outros telescópios e observatórios, incluindo um instrumento a bordo da Estação Espacial Internacional, para analisar o evento inédito, em busca de uma explicação para sua ocorrência.

Depois de analisar com cuidado o fenômeno, agora conhecido como Swift J1644+57, os cientistas descobriram se tratar de algo verdadeiramente extraordinário: um buraco negro "dormente" acordando ao começar a consumir uma estrela.

O processo ainda está em andamento, e os astrônomos estimam que a "refeição" do buraco negro só terminará em meados do ano que vem.

Buraco negro engolindo estrela

A maioria das galáxias, incluindo a nossa Via Láctea, possui um buraco negro gigantesco em seu centro, pesando milhões de vezes a massa do Sol. Segundo os estudos, o buraco negro que está engolindo a estrela pode ser duas vezes maior do que o "nosso".

Conforme uma estrela cai em direção ao buraco negro, forças de maré gigantescas destroem-na completamente. Os destroços formam um disco ao redor do buraco negro, que continuam a cair como em um redemoinho.

As altíssimas temperaturas, o magnetismo e o movimento super rápido da parte mais interna do redemoinho geram "funis" em direções opostas, através dos quais algumas partículas escapam do evento.

Essa fuga cria jatos de matéria saindo ao longo do eixo de rotação do buraco negro, em sentidos opostos e viajando a até 90% da velocidade da luz.

Para sorte dos astrônomos, no caso do J1644+57, um desses jatos está apontado em direção à Terra, o que permitiu que observássemos o fenômeno.

Jatos de raios X

Estudos teóricos de estrelas destruídos por efeitos de maré sugerem que o fenômeno apareceria na forma de erupções em energias ópticas e ultravioletas.

Mas o brilho e a energia do jato de um buraco negro é muito maior quando visto de frente.

O fenômeno, chamado radiância relativística, explica porque o Swift J1644+57 foi visto em raios X e parece tão surpreendentemente luminoso.

"As emissões de rádio ocorrem quando os jatos mergulham no ambiente interestelar. Por outro lado, os raios X surgem muito mais próximos do buraco negro, como se saísse da base dos jatos," explica Ashley Zauderer, do Centro Harvard-Smithsoniano para Astrofísica, nos Estados Unidos.

Além dos metamateriais: invisibilidade 3D no espaço livre

Os mantos da invisibilidade saltaram rapidamente da ficção para a realidade - ou, para a "quase-realidade", uma vez que a maioria deles ainda não é prática o suficiente para esconder algo fora dos laboratórios.

Mas os progressos dessas pesquisas estão rendendo frutos em outras áreas da óptica, incluindo a microscopia e as telecomunicações e até nas células solares, graças à criação de "buracos negros ópticos".

Tudo isto tem sido possível graças aos metamateriais, estruturas construídas pelo homem, capazes de manipular a luz de formas totalmente "anômalas" - fazê-la assumir um índice negativo de refração, por exemplo.

Como o campo é promissor e tem atraído interesse de muitos grupos de pesquisas ao redor do mundo, era inevitável que começassem a surgir novidades, digamos, menos ortodoxas.

Invisibilidade no espaço livre


Andrea Alu e seus colegas da Universidade do Texas, nos Estados Unidos, construíram um manto de invisibilidade que não apenas é 3D, como outros pesquisadores já fizeram, mas também funciona no espaço livre.

As camuflagens 3D feitas até agora não são exatamente mantos, mas tapetes de invisibilidade, o que significa que um objeto tridimensional posto sobre eles fica invisível para um observador que estiver olhando de cima.

Para tornar invisível um objeto livre no espaço, a equipe deixou de lado os metamateriais e desenvolveu um dispositivo plasmônico - baseado nos plásmons de superfície.

Nesse novo conceito, a luz refletida pelo objeto a ser camuflado é cancelada por um escudo exterior, criando uma espécie de concha de invisibilidade.

Invisibilidade plasmônica

Materiais plasmônicos têm propriedades especiais em determinadas frequências, fazendo com que a radiação eletromagnética gere oscilações nos elétrons de sua superfície - são essas ondas superficiais de elétrons que se chamam plásmons.

A concha de invisibilidade usa esses plásmons para gerar uma polarização da luz oposta à polarização dos raios refletidos pelo objeto a ser camuflado, fazendo com que uma cancele a outra - é como se o objeto dentro dessa concha fosse transparente.

No atual estágio, o escudo da invisibilidade 3D espacial tem duas deficiências: ele só consegue esconder objetos isolantes - ele não funciona com metais - e só funciona com luz polarizada - você irá precisar usar óculos polarizadores para "não ver" o objeto escondido.

Contudo, os pesquisadores afirmam que já têm o conceito teórico para construir um escudo que funcione para luz não polarizada, dispensando os incômodos óculos também para o seu manto de invisibilidade 3D.

Do nano ao super, cheio de energia

Imagine uma tecnologia de armazenamento de energia que permita desde a integração das baterias no próprio chip que irão alimentar, até seu uso em larga escala, formando usinas inteiras.

Esta é a promessa feita por Robert Hauge e seus colegas da Universidade Rice, nos Estados Unidos.

Capacitores e supercapacitores

Os pesquisadores criaram um sistema de armazenamento de energia de estado sólido e recarregável, usando supercapacitores feitos à base de nanotubos de carbono.

Os capacitores comuns,que liberam rápidas rajadas de energia, podem ser descarregados e recarregados centenas de milhares de vezes.

Já os capacitores elétricos de dupla camada (EDLCs), mais conhecidos como supercapacitores, são componentes híbridos que mantêm centenas de vezes mais energia do que um capacitor padrão, como uma bateria, mantendo a capacidade de carga e descarga rápidas.

Mas os supercapacitores até agora dependiam de eletrólitos líquidos ou de tipo gel, que deixam de funcionar em condições muito quentes ou muito frias.

Eletrólito sólido

A equipe do Dr. Hauge desenvolveu um material à base de óxidos que substitui inteiramente o eletrólito líquido.

E eles fizeram isto em nanoescala: a chave para uma elevada capacitância é a área disponível para os elétrons - e poucas estruturas conhecidas disponibilizam tanta área superficial em um espaço tão pequeno quanto os nanotubos de carbono.

Usando uma técnica desenvolvida pela própria equipe para fabricar nanotubos de grandes dimensões, os pesquisadores fizeram os nanotubos de carbono se aglomerarem em grupos com cerca de 15 a 20 nanômetros, com até 50 micrômetros de altura - uma relação altura/largura superior a 500.

Esse carpete de nanotubos é posto sobre um eletrodo de cobre com camadas em escala atômica de ouro e titânio, para ajudar a grudar tudo e manter a estabilidade elétrica.

O conjunto foi coberto com revestimentos muito finos de óxido de alumínio (o dielétrico) e óxido de zinco dopado com alumínio (o contra-eletrodo) por meio de um processo chamado deposição de camada atômica.

Um eletrodo superior de prata completa o circuito.

Carro-bateria


Hauge afirma que esse supercapacitor, nascido em nanoescala, é estável e escalável. Em tese, é possível construir usinas inteiras com eles, acumulando a energia gerada pelos ventos ou pelo Sol e liberando-a quando necessário.

Ele vislumbra um carro elétrico no qual a bateria estaria distribuída por todo o veículo, incluindo chassi, portas, teto, piso etc.

Nova tecnologia de baterias armazenará energia na lataria dos carros

"Todas as soluções de estado sólido para armazenamento de energia poderão ser intimamente integradas nos aparelhos, incluindo telas flexíveis, bio-implantes, muitos tipos de sensores e todos os aparelhos eletrônicos que possam se beneficiar de taxas rápidas de carga e descarga," diz Hauge.

Recentemente, um outro grupo de pesquisadores sugeriu o uso de nanocapacitores eletrostáticos, com o mesmo potencial.

Rápido demais

Antes que qualquer dessas possibilidades ganhe uso prático, contudo, os cientistas terão que lidar com a "mania" dos capacitores de liberarem suas elevadas doses de energia de uma vez só - ao contrário das baterias, que têm menor densidade de energia, mas liberam de forma mais comedida.

Embora isso seja uma característica altamente desejável para sistemas como o KERS, ela não é adequada como única fonte de energia para um veículo elétrico porque o veículo teria altíssima potência, mas ficaria sem carga rápido demais.

Baterias ultra-rápidas poderão ser recarregadas em segundos

Magnetismo controlado com eletricidade a temperatura ambiente

Cientistas descobriram o primeiro material multiferroico que apresenta essa propriedade única a temperatura ambiente.

A descoberta abre as portas para a aplicação prática desses materiais em uma nova geração de equipamentos de armazenamento de dados rápidos e baratos.

Na verdade, a capacidade de mesclar eletricidade e magnetismo em um único material tem o potencial para revolucionar toda a informática.

Um material multiferroico prático, por exemplo, é tudo o que falta para viabilizar os processadores magnéticos, capazes de atingir os limites físicos da eficiência.

Ferroeletricidade com ferromagnetismo

A equipe franco-germânica partiu de um cristal ferroelétrico bastante conhecido, o titanato de bário (BaTiO3).

Mas um material multiferroico precisa, além da capacidade de ser carregado eletricamente (ferroelétrico), ser capaz de se tornar magnético (ferromagnético).

Isto permite que sua magnetização seja diretamente controlada pela eletricidade, sem a necessidade de um campo magnético externo, criando a possibilidade, por exemplo, de que memórias permanentes dentro de um chip sejam controladas pelos mesmos circuitos elétricos responsáveis pela computação.

O problema é que a ferroeletricidade e o ferromagnetismo são virtualmente excludentes, no sentido de exigirem condições quase sempre conflitantes, o que torna os materiais multiferroicos verdadeiras anomalias da natureza.

"Eles são raros e o problema é que a maioria deles só é multiferroico a temperaturas muito baixas, ao redor de -270º C," explica Sergio Valencia, do Centro Helmholtz de Berlim. Isso os torna caros e inservíveis para uso em qualquer aparelho prático.

Titanato de bário multiferroico

A temperatura ambiente, o titanato de bário é um material ferroelétrico, mas não ferromagnético.

Por isso, Valencia e seus colegas induziram nele o magnetismo, usando átomos de ferro e cobalto, que são ferromagnéticos.

Os pesquisadores depositaram um filme de 10 átomos de espessura, contendo ferro e cobalto, sobre um filme de 4 átomos de espessura de BaTiO3.

"Essas espessuras minúsculas são de fato necessárias para a implementação desses materiais nos circuitos eletrônicos miniaturizados de hoje," diz Valencia.

O comportamento multiferroico foi então observado usando radiação síncrotron para investigar os momentos magnéticos dos átomos de titânio e oxigênio no titanato de bário.

Usando a técnica de deposição a vapor, usada para aplicar os filmes dos dois materiais, os pesquisadores agora poderão começar a projetar componentes de armazenamento de dados e chaves lógicas que serão controladas com correntes elétricas, em vez de campos magnéticos.

Magnetricidade é observada pela primeira vez

Cientistas usam DNA para projetar proteína artificial viva

Cientistas da Universidade de Yale (EUA) conseguiram fazer uma re-engenharia das estruturas produtoras de proteína de uma bactéria.

Segundo o grupo, a demonstração "promete revolucionar o estudo e tratamento de uma variedade de doenças".

Por outro lado, conhecidos como biologia sintética, ou mesmo "vida artificial", esses experimentos levantam vários questionamentos éticos dentro da própria comunidade científica, por não estarem ainda delineados os limites dessas pesquisas.

"Essencialmente, nós expandimos o código genético da E. coli, o que nos permitiu sintetizar formas especiais de proteínas que podem imitar estados naturais ou doenças," explicou Jesse Rinehart, um dos autores do artigo que descreveu a pesquisa na revista Science.

Há poucos dias, um outro grupo anunciou a criação de um animal com informação artificial no código genético.

Biologia sintética

Desde que a estrutura do DNA foi desvendada, na década de 1950, os cientistas têm trabalhado para entender a natureza do código genético.

Décadas de pesquisas e avanços recentes no campo da biologia sintética têm dado aos pesquisadores as ferramentas necessárias para modificar o código genético natural dentro de organismos vivos, e até mesmo reescrever a "receita universal da vida".

"O que nós fizemos foi pegar a biologia sintética e transformá-la para nos dar uma biologia real que foi sintetizada," explicou Rinehart.

A equipe criou uma nova forma de influenciar o comportamento das proteínas - que são as responsáveis por realizar quase todas as funções da vida.

Síntese artificial de proteína

Em vez de criar algo novo na natureza, os cientistas essencialmente induziram a fosforilação, um processo fundamental que ocorre em todas as formas de vida e que pode mudar drasticamente a função de uma proteína.

As regras para a fosforilação de proteínas não são diretamente codificadas no DNA, o que ocorre, ao contrário, após a proteína ser feita.

Os pesquisadores fundamentalmente reescreveram essas regras, expandindo o código genético da E. coli para incluir fosfoserina e, pela primeira vez, dirigiram a fosforilação da proteína através do DNA.

Esta nova tecnologia permitirá a produção de proteínas humanas com seus sítios de fosforilação que ocorrem naturalmente, um estado crucial para a compreensão dos processos subjacentes às doenças.

Brincando com as proteínas

Até agora, os cientistas não tinham a capacidade de estudar as proteínas em seu estado fosforilado, ou ativo. Isto tem dificultado a pesquisa em doenças como o câncer, que é marcado por níveis altos e danosos de ativação de proteínas.

"O que estamos fazendo é brincando com os interruptores biológicos - ligando e desligando proteínas - o que nos dará uma forma completamente nova para estudar doenças e, esperamos, orientar a descoberta de novas drogas," disse Rinehart.

Os pesquisadores agora estão tentando criar proteínas em estados que se sabe estarem associados ao câncer, diabetes tipo 2 e hipertensão. E eles antecipam que sua técnica pode ser usada para qualquer tipo de proteína.

Mosquito infectado com bactéria não transmite dengue

A equipe do professor Scott O'Neill, da Universidade de Monash, na Austrália, acaba de realizar um experimento inédito e controverso.

Os cientistas descobriram que a bactéria Wolbachia pipientis - que, ao que se sabe, ataca apenas insetos - consegue reduzir a capacidade do mosquito Aedes aegypti de transmitir a dengue.

Ou seja, em vez de trabalhar em uma vacina para proteger os humanos da dengue, a equipe australiana tornou o próprio pernilongo "imune" à dengue - os cientistas falam em "redução da suscetibilidade do mosquito à dengue".

Desta forma, o Aedes aegypti pára de transmitir a dengue para os humanos.

Desconhecimentos

Como a cepa wMel da bactéria Wolbachia impede o vírus de se replicar no mosquito é algo "ainda não totalmente compreendido", segundo o Dr. O'Neill.

Ele especula que há indícios sugerindo que a bactéria "compete por recursos sub-celulares limitados exigidos pela replicação do vírus".

É este nível de desconhecimento que levanta suspeitas de alguns cientistas, que afirmam ser muito difícil avaliar os efeitos amplos da inserção de um novo organismo em um ambiente no qual ele não existe naturalmente.

Mas os resultados iniciais, exclusivamente sobre a capacidade dos mosquitos transmitirem a dengue, parecem muito promissores.

Bactéria contra a dengue

"A pesquisa publicada hoje descreve a implantação bem-sucedida de uma cepa de Wolbachia particularmente promissora dentro do mosquito da dengue em laboratório, sua subsequente capacidade para reduzir o potencial de transmissão do mosquito da dengue, e também a introdução bem-sucedida dessa mesma cepa de Wolbachia em populações de mosquitos selvagens na Austrália," disse O'Neill, referindo aos dois artigos relatando a pesquisa, publicados pela revista Nature.

No experimento, os cientistas liberaram 300 mil mosquitos adultos, infectados com a bactéria em laboratório, em duas áreas suburbanas da região de Cairns, na Austrália, ao longo de um período de dez semanas.

Cerca de três meses depois, a maior parte da população de Aedes aegypti da região - capturados pelos cientistas - já estava infectada com a bactéria, tendo-se tornado, portanto, incapaz de transmitir a dengue.

"O teste de campo envolveu a liberação dos pernilongos com Wolbachia a cada semana, durante 10 semanas. Cinco semanas após a soltura final foi determinado que 100 por cento dos mosquitos em um local carregavam a Wolbachia e 90 por cento na outra. Foi um grande dia," comemorou o professor O'Neill.

Longevidade do mosquito

O pesquisador afirma que pretende agora fazer os mesmos testes na Tailândia, no Vietnã e no Brasil.

O grupo tem como colaborador no Brasil o Dr. Luciano Moreira, do Centro de Pesquisas René Rachou, da Fiocruz, em Belo Horizonte.

Moreira participou dos estudos iniciais que levaram a este novo teste, quando os cientistas descobriram que uma outra cepa da Wolbachia reduzia o tempo de vida do Aedes aegypti.

Bactéria pode ajudar a controlar mosquito da dengue

Agora, contudo, o grupo australiano afirma que a redução no tempo de vida diminui a chance de transmissão da bactéria entre os pernilongos, o que os levou a escolher uma cepa que não apresenta redução da longevidade.

Alterações genéticas sobre o mosquito

Devido à ineficiência do combate à dengue com inseticidas e com a conscientização da população, vários grupos ao redor do mundo, inclusive no Brasil, trabalham com alternativas de ação genética sobre o mosquito Aedes aegypti.

Um grupo da USP está desenvolvendo uma técnica para a produção de mosquitos geneticamente modificados que, ao serem liberados na natureza, podem contribuir para o controle dos pernilongos domésticos:

Pernilongo geneticamente modificado pode virar inseticida não-tóxico

Um grupo internacional, liderado por um brasileiro, desenvolveu uma técnica genética diferente, que atua na reprodução do mosquito Aedes aegypti:

Inseticida genético impede reprodução do mosquito da dengue

A abordagem de uma outra equipe, dos Estados Unidos e do Reino Unido, foi fazer modificações genéticas para que as fêmeas do mosquito não desenvolvam asas:

Mosquito transgênico sem asas ajuda a combater a dengue

quarta-feira, 24 de agosto de 2011

Fusão nuclear: sonho da energia das estrelas continua brilhando

Em busca de uma alternativa para a matriz energética mundial, muitos cientistas acreditam que só a energia das estrelas pode representar um passo decisivo para a humanidade.

Às voltas com a sujeira e os riscos causados pela fissão nuclear, ainda debatendo se os biocombustíveis valem a pena ou não, o mundo se vê às voltas com uma matriz essencialmente baseada no petróleo e seus parentes próximos, o carvão e o gás natural.

Para achar uma saída desse beco, as duas únicas tecnologias com potencial disruptivo são a fotossíntese artificial e a fusão nuclear.

Os experimentos com folhas artificiais estão apenas começando. Mas o homem sonha em domar a fusão nuclear desde que Hans Bethe explicou de onde as estrelas tiravam tanta energia.

Tentativas de produzir a fusão nuclear

A primeira tentativa de produzir a fusão nuclear na Terra não é de boa lembrança: em 1º de Novembro de 1952, os Estados Unidos usaram uma bomba similar à usada em Hiroshima apenas para dar a ignição na primeira bomba de hidrogênio. Funcionou, mas a coisa se mostrou tão perigosamente descontrolada que o projeto foi deixado de lado.

O recorde mundial de fusão nuclear hoje pertence ao reator tokamak do JET (Joint European Torus), no Reino Unido. Com 15 metros de diâmetro e 12 metros de altura, ele consumiu 20 MW para produzir 16 MW - mas a fusão nuclear se sustentou por menos de 10 segundos.

Hoje, todos os esforços para bater esse recorde e gerar energia são pacíficos - ao menos os que se conhece. E os projetos de fusão nuclear não são mais exclusividade dos governos e suas universidades: já há empresas privadas trabalhando na área.

ITER

O maior desses esforços é o ITER, sigla em inglês de Reator Internacional Termonuclear Experimental, que começou a ser erguido em Cadarache, na França.

Com um investimento planejado de US$21 bilhões, o projeto pretende consumir 50 50 megawatts (MW) de energia para dar partida em uma produção de 500 MW. Em 2027, se tudo der certo.

O problema é que ninguém sabe se vai dar certo. Muitos físicos dizem que não vai funcionar. Outros afirmam que o ITER funcionará como um excelente laboratório de física, mas nunca será uma usina de geração de energia eficiente.

É hora de descobrir como o Universo faz as coisas explodirem

O ITER usará um reator do tipo tokamak, que usa um gigantesco campo magnético para confinar um plasma que deverá atingir uma temperatura de 45 milhões de graus Celsius para dar partida na fusão de deutério-trício.

Se funcionar, um quilograma (kg) de combustível de fusão vai gerar tanta energia quanto 10 milhões de kg de carvão.

Outro experimento já atingiu 25 milhões de graus Celsius, ainda abaixo do ponto de partida da fusão. Mas os projetistas do ITER confiam em seu 18 gigantescos ímãs supercondutores, cada um pesando 360 toneladas, para confinar uma quantidade de plasma suficiente para chegar lá.

Ignitor

O Ignitor é um projeto conjunto entre a Itália e a Rússia, bem menos ambicioso que o ITER.

O Ignitor será na verdade uma versão ampliada do Alcator C-Mod, desenvolvido pela equipe do professor Bruno Coppi, do MIT.

O reator, que está sendo erguido nas proximidades de Moscou, terá aproximadamente o dobro do tamanho do Alcator, com uma câmara principal em forma de anel com 1,3 metro de diâmetro - a câmara do ITER terá 6,2 metros de diâmetro.

O Alcator não nasceu para gerar energia, mas como um laboratório para estudar as estrelas.

Ao longo dos anos, os cientistas foram aprimorando seus detalhes técnicos, a ponto de atingirem um estágio no qual eles acreditam ser viável usar a tecnologia para produzir temperaturas suficientes para iniciar a fusão nuclear.

Como estão trabalhando em uma área desconhecida, os cientistas parecem mais interessados em trocar experiências do que em competir. Evgeny Velikhov, responsável pelo lado russo do projeto, também é membro do conselho do ITER.

Mas o Dr. Coppi não se cansa de dizer, entrevista após entrevista, que, mesmo que o Ignitor nunca gere mais energia do que consumir, ainda assim a astrofísica terá muito a ganhar com o experimento.

Sterellator

O tokamak não é o único caminho para tentar domar a fusão nuclear.

O projeto Wendelstein 7-X, do Instituto Max Planck, da Alemanha, está construindo um reator de fusão do tipo stellarator - ele será o maior do mundo desse tipo.

Um tokamak é alimentado por uma corrente de plasma. Essa corrente fornece uma parte do campo magnético responsável por isolar o próprio plasma das paredes do reator. O grande problema é evitar as "disrupções", as instabilidades do plasma circulante pelo torus.

Um reator do tipo stellarator não tem corrente, eliminando de pronto o problema das instabilidades do plasma. Esse tipo de reator tem um desenho esquisito, mas também tem seus próprios problemas, como uma tendência a perder energia.

Cada stellarator foge à sua própria maneira do tipo "clássico", fazendo modificações e otimizações que tentam coibir os defeitos o obter um funcionamento contínuo.

O Wendelstein 7-X terá 50 bobinas supercondutoras, medindo 3,5 metros de altura cada uma, para gerar o campo magnético primário. Para completar o sistema de contenção do plasma será usada uma camada adicional com 20 bobinas planares, colocadas sobre as primeiras, que terão o papel adicional de permitir o controle da intensidade do campo magnético.

O conjunto todo é contido dentro de uma estrutura de 16 metros de diâmetro. Uma usina de refrigeração fornecerá 5.000 Watts de hélio líquido para manter a supercondução dos fios que formam as bobinas.

O Wendelstein 7-X será um reator de pesquisa, sem intenção de produzir energia. Na verdade, a intenção é demonstrar a viabilidade da construção de uma usina de fusão nuclear usando um reator do tipo stellarator. Se tudo ocorrer segundo o cronograma, o reator deverá entrar em funcionamento em 2014.

Fusão nuclear com laser

O projeto europeu Hiper (sigla em inglês de Pesquisa de Energia Laser de Alta Potência) pretende atingir as altas temperaturas necessárias para iniciar a fusão nuclear usando um equipamento de raio laser do tamanho de um estádio de futebol.

Um laser de alta potência vai comprimir átomos de hidrogênio para conseguir uma densidade 30 vezes maior do que a do chumbo.

Um segundo laser vai aumentar a temperatura do hidrogênio comprimido acima dos 100 mihões de graus Celsius - ao menos é o que os cálculos indicam.

Nessas condições, os núcleos do hidrogênio deverão se fundir para formar hélio.

Iniciado em 2008, o Hiper é financiado pela Comissão Europeia e envolve 26 instituições de dez países.

Motor de fusão

Os cientistas da empresa privada Helion Energy são bem mais comedidos do que seus parceiros institucionais.

Seu reator de fusão nuclear é um equipamento cilíndrico de 16 metros de comprimento e pouco mais de um metro de diâmetro.

Chamado de "motor de fusão", o reator não usará supermagnetos supercondutores mantidos em temperaturas criogênicas: ele usará um processo conhecido como configuração de campo reverso.

Em vez de confinar o plasma em uma estrutura toroidal, como no tokamak, o motor de fusão vai acelerar duas pequenas bolas de plasma uma em direção à outra.

Manter o plasma isolado em um aparato linear é muito mais simples do que o formato toroidal, exigindo um campo magnético menos intenso e mais fácil de controlar. É por isso que o reator é tão menor do que seus concorrentes.

Se os cálculos estiverem corretos, a colisão deverá gerar calor suficiente para fundir os núcleos dos átomos, aquecê-los e iniciar a fusão de forma sustentada.

Como a fusão ocorre em um ponto determinado no espaço é mais fácil também recolher os nêutrons gerados. Os nêutrons são essenciais para gerar o combustível da fusão.

E, se eles escaparem, podem tornar radioativas as peças metálicas do equipamento com as quais entrarem em contato - isso acontecerá no ITER, que deverá trocar as partes internas do seu reator periodicamente.

O protótipo do motor de fusão atingiu uma temperatura de 25 milhões de graus Celsius, bem abaixo do necessário. Mas os cientistas calculam que a temperatura necessária será alcançada com um equipamento apenas três vezes maior.

A NASA e o Departamento de Defesa dos Estados Unidos já investiram US$5 milhões na empresa, que agora está procurando parceiros privados para levantar mais US$20 milhões, necessários para construir a versão final do seu motor de fusão.

Fusão geral

A empresa canadense General Fusion está usando uma outra abordagem para tentar obter a fusão nuclear sustentada.

A técnica chama-se fusão de plasma magnetizado e consiste em iniciar a fusão em um plasma comprimido de forma intensa e rápida no interior de uma esfera giratória de metal líquido.

O reator funciona em ciclos sequenciais, com cada compressão do plasma magnetizado produzindo um "disparo" de energia gerada pela fusão.

São quatro ciclos: criação do plasma de deutério e trício, aprisionamento do plasma em um campo magnético, compressão do plasma magnetizado, gerando a fusão e, finalmente, captura do calor gerado pela fusão para uso em uma usina termoelétrica.

Os resultados ainda são modestos: segundo a empresa, o aparato produziu uma temperatura de 5 milhões de graus Celsius durante 1 microssegundo.

Mas a General Fusion tem mais dinheiro para construir versões maiores do seu reator: os US$30 milhões foram levantados entre investidores privados, entre os quais Jeff Bezos, da Amazon.

Fusão secreta

Há uma outra empresa privada na área, chamada Tri Alpha Energy, que não gosta de aparecer e nem divulga seus projetos, mas que aparentemente está usando um conceito criado pelos físicos Norman Rostoker e Hendrik Monkhorst.

A ideia é misturar hidrogênio e boro-11 em um plasma de alta temperatura para gerar a fusão.

O processo de confinamento usa a mesma configuração de campo reverso, mas aparentemente mantendo toda a energia de entrada dentro do reator - os elétrons do combustível seriam confinados eletrostaticamente e os íons seriam aprisionados magneticamente.

Os pesquisadores acreditam que, com o calor e a densidade adequadas, esses íons vão se fundir para liberar energia.

Recentemente circularam boatos de que a empresa teria levantado US$90 milhões, tendo entre seus investidores Paul Allen, cofundador da Microsoft. Mas as empresas de capital de risco apontadas nos boatos não listam a empresa em sua carteira de investimentos.

Em um artigo científico publicado em 2010, seus cientistas afirmam ter alcançado uma temperatura de 5 milhões de graus Celsius durante 2 milissegundos.

Já houve vários boatos sobre a iminência de um teste "no ano que vem", que ainda não aconteceu. Os mais otimistas opinam que uma versão comercial do reator Rostoker/Monkhorst - capaz de produzir mais energia do que consome - não sairá antes de 2020.

Fusão nuclear a frio

Há também propostas mais controversas para a fusão nuclear, embora não voltadas especificamente para a produção de energia.

A principal delas é a chamada fusão nuclear a frio, ou fusão de baixa energia, que mostra os indícios da fusão por meio dos nêutrons gerados no processo - pouquíssimos nêutrons, em comparação com os experimentos que pensam em gerar energia.

A ideia surgiu em 1989, quando Martin Fleishmann e Stanley Pons afirmaram ter verificado a fusão nuclear em uma célula eletrolítica. Mas nenhum outro grupo conseguiu reproduzir o experimento.

A esperança renasceu em 2009, quando Pamela Mosier-Boss e sua equipe modificaram ligeiramente a célula eletrolítica de Fleishmann e Pons e tiveram resultados animadores, ainda que frágeis demais para qualquer uso prático.

Mas a fusão nuclear a frio só voltou a ser levada a sério em 2010, quando a Sociedade Americana de Química promoveu um evento de dois dias exclusivamente para discutir o assunto. Deste o fiasco inicial, quem se atrevia a pesquisar a área preferia trabalhar em silêncio.

Foram mais 50 apresentações de experimentos que apresentaram resultados significativos, suficientes para colocar o assunto em pauta novamente. Mas ninguém sonha em usar a fusão a frio para geração de energia.

Fusão por cavitação

Pelo menos três grupos se envolveram em uma pretensa fusão nuclear em um equipamento de mesa, desde que Rusi Taleyarkhan e seus colegas do Laboratório Nacional Oak Ridge afirmaram ter conseguido iniciar a fusão pelo colapso de microbolhas.

Seth Putterman, da Universidade da Califórnia, fez uma demonstração semelhante em 2005, mas usando o aquecimento de um cristal em um ambiente de deutério. A produção de nêutrons, contudo, foi muito pequena, e os cientistas nunca chegaram a afirmar que a técnica seria útil para a geração de energia.

No mesmo ano, uma equipe da Universidade Purdue afirmou ter confirmado o experimento de Taleyarkhan, baseado na cavitação de microbolhas.

Contudo, depois da contestação de outros cientistas, a Universidade fez uma sindicância e concluiu que Yiban Xu e Adam Butt haviam falseado os resultados.

NASA anuncia missões de demonstração tecnológica

A NASA selecionou três propostas para o seu programa "Missões de Demonstração Tecnológica".

Os projetos são voltados para a comunicação espacial, propulsão sem combustível, usando velas solares, e um relógio atômico para melhorar a navegação espacial.

Os três projetos agora vão para a etapa de construção e preparação para o lançamento ao espaço.

"Ao investir em tecnologias disruptivas, de alto retorno, que a indústria não tem à mão hoje, a NASA amadurece as tecnologias necessárias para as suas missões futuras, ao mesmo tempo que avalia as capacidades e reduz o custo das atividades espaciais comerciais e governamentais," disse a agência em comunicado.

Comunicação espacial a laser

O projeto LCRD (Laser Communications Relay Demonstration) consistirá em uma demonstração confiável, segura e barata de uma tecnologia de comunicação óptica que possa ser inserida em outras missões, tanto nas proximidades da Terra quanto no espaço profundo.

As comunicações ópticas - também conhecidas como comunicação a laser, ou lasercom - pretendem aumentar a largura de banda disponível para as futuras missões comunicarem-se com a Terra.

Um equipamento desses fornecerá taxas de transferência de dados significativamente superiores aos sistemas de rádio usados hoje, usando um equipamento com praticamente a mesma massa, volume e potência.

Por exemplo, a sonda MRO (Mars Reconnaissance Orbiter) leva 90 minutos para transmitir uma única foto de Marte em alta resolução. Com um sistema a laser, com capacidade de 100 Mbps ou mais, essa mesma foto chegaria à Terra em cerca de 5 minutos.

A comunicação espacial a laser também permitirá o estabelecimento de uma "presença virtual" no espaço, em outro planeta ou em um outro corpo do Sistema Solar.

Nave a vela solar

A empresa L'Garde Inc. ficará responsável por construir uma sonda espacial sem combustível, movida unicamente por uma vela solar.

Até agora, os experimentos com velas solares concentraram-se quase unicamente no próprio sistema de propulsão, sem uma carga científica útil. O experimento mais avançado nessa área é o veleiro espacial Ikaros, da Agência Espacial Japonesa (JAXA).

O veleiro espacial terá uma vela solar de 38 metros quadrados.

A NASA planeja usar a tecnologia para tirar de órbita satélites artificiais que chegaram ao fim da vida útil e lixo espacial.

Satélite gari pode limpar lixo espacial

Outro projeto é usar as velas solares para manter a altitude de estações espaciais. Hoje, a Estação Espacial Internacional depende de combustível para ajustar sua altitude periodicamente - e esse combustível deve ser levado para lá por foguetes.

Uma vela solar também permitiria o lançamento de satélites "geopolares", que poderiam observar os pólos da Terra - ou de planetas próximos - continuamente, com grandes vantagens sobre os satélites geoestacionários atuais.

Uma sonda espacial situada nos pontos de Lagrange poderia usar suas velas solares para ajustar continuamente sua posição em relação à Terra e ao Sol, melhorando o tempo de alerta das tempestades solares em até 45 minutos.

Finalmente, as velas solares tornarão mais baratas e mais simples as missões a planetas mais distantes e até mais longe.

Embora até poucos anos atrás houvesse grande ceticismo na comunidade científica sobre se as velas solares sequer funcionariam, agora que elas já foram demonstradas na prática há pesquisadores defendendo que elas seriam úteis até mesmo além da fronteira do Sistema Solar.

Relógio atômico espacial

O Instituto de Tecnologia da Califórnia (Caltech) ficará incumbido de construir um relógio atômico miniaturizado, que fornecerá a precisão e a estabilidade necessárias para uma navegação espacial mais precisa.

Futuros satélites de GPS com seus próprios relógios atômicos terão uma precisão elevada em mais de 100 vezes.

O DASC (Deep Space Atomic Clock) usará a tecnologia de íons de mercúrio.

Um relógio atômico no espaço aumentará a resolução dos dados de navegação por um fator de dois ou três, permitindo um rastreamento muito mais preciso das naves pelas estações em terra.

Além da navegação, a melhoria na quantidade e na qualidade dos dados melhorará em até 10 vezes a coleta de dados gravitacionais e as observações científicas de ocultação, usadas para descobrir e estudar planetas extra-solares (ou exoplanetas).

A disponibilidade de um relógio atômico a bordo significará que as sondas e naves espaciais não precisarão ficar repassando suas posições a cada instrução enviada da Terra - ou seja, o controle de navegação poderá ser feito com uma única via de comunicação.

Voltando ao exemplo da sonda MRO, hoje o link de comunicação com a Terra é compartilhada entre navegação e dados científicos. Com um relógio atômico, uma sonda similar teria o canal de downlink exclusivamente para a ciência.

Segundo a NASA, só a redução do tempo de uso das antenas terrestres representaria uma economia de US$11 milhões para a missão.

Trojan letal ameaça usuários de Android

Pesquisadores tornaram público o que talvez seja o mais perigoso malware para Android já descoberto: um Trojan que explora o hack GingerBreak, aplicável ao Android 2.3 e que se tornou conhecido a partir de abril.

De acordo com uma equipe da Universidade Estadual da Carolina do Norte (EUA), que analisou o malware com apoio da empresa chinesa de segurança móvel NetQin, o 'GingerMaster' carrega várias das características da crescente família de Trojans Android que atualmente circulam em sites de terceiros na China, mas com algumas inovações tão interessantes quanto perigosas.

Embutido em um app aparentemente legítimo feito para mostrar fotos de mulheres, o GingerMaster captura o máximo de dados pessoais do usuário - incluindo o número do celular e seu IMEI - e os envia para um servidor remoto. Em seguida, o servidor começará a baixar discretamente o malware, que explora o hack GingerBreak e que, uma vez instalado, tomará completamente o controle do smartphone.

Como é do tipo root, este hack será capaz de burlar o sistema do Android que controla as permissões de apps - e é isso que revela o poder destrutivo deste ataque. Diante de um acesso tão profundo ao sistema, os programas de segurança do Android serão incapazes de barrar a invasão e, para se livrar da praga, muitos usuários terão de apagar completamente o conteúdo do aparelho e voltar às configurações de fábrica.

As versões vulneráveis do Android são a 2.3.3 (Gingerbread) e, segundo comentários, a 2.2 (Froyo), na qual o Trojan também pode ser acesso root. A Google corrigiu a vulnerabilidade assim que a descobriu, em abril, mas é improvável que todos os usuários tenham recebido o update. As operadoras mostram-se relutantes em entregar correções a menos que sejam absolutamente necessárias, dada a quantidade de serviços de suporte técnico envolvido.

O modo mais fácil de evitar este malware, por enquanto, é simplesmente nunca usar sites de terceiros para baixar apps e confiar no Android Market da Google.

Fonte: IDG Now!

Encontradas estrelas mais frias do Universo

Usando dados do Telescópio WISE (Wide-field Infrared Survey Explorer), astrônomos da NASA descobriram as estrelas mais frias já encontradas.

Elas têm temperaturas semelhantes às do corpo humano, ou até menores.

Esta concepção artística mostra como deve se parecer uma "anã Y". As anãs Y estréiam a classe de corpos estelares mais frios que se conhece.

Como os astrônomos ainda não detectaram anãs Y nos comprimentos de onda visível, que vemos com nossos olhos, a escolha de uma cor roxa para ilustrá-las foi feita por razões artísticas.

Os astrônomos caçam esses corpos celestes escuros há mais de uma década, sem sucesso. É quase impossível enxergá-las usando telescópios de luz visível porque, sendo tão frias, praticamente não brilham.

O telescópio Wise encontrou-as usando sua visão de infravermelho, sensível ao calor.

O telescópio descobriu seis anãs Y, variando em temperaturas atmosféricas de 175 graus Celsius até 25 graus Celsius.

Anãs marrons

As anãs Y pertencem a uma família maior de objetos chamados anãs marrons.

Anãs marrons começam suas vidas como estrelas, mas não chegam a acumular massa suficiente para fundir átomos de forma constante em seus núcleos e brilhar com a luz das estrelas. Em vez disso, elas vão se apagando e esfriando com o tempo, emitindo a maior parte de sua luz em comprimentos de onda infravermelha.

Classificação de estrelas

O esquema de classificação estelar descreve estrelas de todas as temperaturas, começando com as mais quentes, as estrelas "O", e agora terminando com as frias anãs Y.

A escala inteira inclui as classes: O, B, A, F, G, K, M, L, T, Y. O nosso Sol amarelo pertence à classe G de estrelas. Estrelas M, para comparação, são mais frias do que o nosso Sol e mais avermelhadas.

Enquanto as classes O até K são consideradas estrelas, os objetos M e L são uma mistura de estrelas e anãs marrons, e os objetos T e Y são anãs marrons puras.

O termo "anãs marrons" foi escolhido porque, quando foram descobertas, os astrônomos também não sabiam que cores esses objetos realmente teriam nos comprimentos de onda visíveis, e marrom não é uma verdadeira cor da luz (não existem "fótons marrons").

Os astrônomos agora sabem que as anãs T parecem avermelhadas, ou magenta, aos nossos olhos. Mas eles não estão certos de que cor são as anãs Y, uma vez que esses objetos não foram detectados em comprimentos de onda visíveis.

Anãs marrons

Esta concepção artística ilustra como as anãs marrons de diferentes tipos apareceriam para um viajante interestelar hipotético que passasse nas proximidades de cada uma.

À esquerda está uma anã L, no meio uma anã T e, à direita, uma anã Y.

Os objetos são progressivamente mais frios em termos de temperaturas atmosféricas conforme você se move da esquerda para a direita.

De forma surpreendente, nesta visualização a nave espacial do nosso intrépido viajante estaria à mesma distância de cada objeto.

Isto ilustra uma propriedade incomum das anãs marrons - todas elas têm as mesmas dimensões, aproximadamente o tamanho do planeta Júpiter, independentemente da sua massa.

Esta disparidade de massa pode ser de quinze vezes ou mais, quando se compara uma anã L com uma anã Y, apesar do fato de os dois objetos terem o mesmo raio.

Elas também têm temperaturas atmosféricas muito diferentes.

Uma anã L típica tem uma temperatura de 1.400 graus Celsius. Uma anã T típica tem uma temperatura de 900 graus Celsius.

A anã Y agora descoberta tem uma temperatura que alcança os 25 graus Celsius.

Especialista alerta para "ameaça dos algoritmos"

Um especialista em algoritmos alertou para as consequências da influência cada vez maior dos sistemas de códigos operacionais em diversos aspectos da vida das pessoas.

Em uma palestra durante a conferência TED no mês de julho, na Escócia, o americano Kevin Slavin disse que "a matemática que os computadores usam para decidir as coisas" está se infiltrando em diferentes áreas as nossas vidas.

Slavin disse que os "serviços inteligentes" oferecidos por lojas de internet - que calculam livros e filmes nos quais o cliente pode estar interessado -, por sites como o Facebook e pelos mecanismos de busca como o Google comprovam que operações computacionais complexas e invisíveis controlam cada vez mais a relação das pessoas com o mundo eletrônico.

Como exemplos, ele citou um "robô-faxineiro" que mapeia a melhor maneira de realizar os afazeres domésticos e os algoritmos que estão gradualmente controlando os negócios em Wall Street e o mercado financeiro.

"Estamos escrevendo coisas que não podemos mais ler", alertou o especialista. "Nós criamos algo ilegível e perdemos a noção do que realmente está acontecendo no mundo que criamos", disse ele.

Livro milionário

De acordo com Slavin, o caso recente de erro nos algoritmos usados pela livraria online Amazon é um dos principais exemplos do caos que pode ser instalado quando um código se torna inteligente o suficiente para operar sem a intervenção humana.

No início do ano, o algoritmo que regula os preços da loja de livros pareceu entrar em guerra consigo mesmo.

Os valores dos produtos começaram a aumentar em competição uns com os outros e um dos livros, The Making of a Fly (A construção de uma mosca, em tradução livre) - um livro sobre a biologia molecular de uma mosca - chegou a custar US$ 23,6 milhões (R$ 37,7 milhões).

Slavin afirma que, na medida que os códigos matemáticos se tornam mais sofisticados, eles se infiltram até mesmo em nossas preferências e decidem que produtos culturais estarão disponíveis para nós.

Decidindo as vidas virtuais

A empresa britânica Epagogix está levando este conceito a sua conclusão lógica e usando algoritmos para prever o que faz com que um filme seja um sucesso de bilheteria.

O sistema usa uma série de medidas - o roteiro, a trama, os atores, as locações - e os cruza com as bilheterias de outros filmes similares para prever quanto dinheiro o novo produto irá ganhar.

De acordo com o diretor-executivo da empresa, Nick Meaney, o código "ajudou estúdios a tomarem decisões sobre fazer ou não fazer um filme".

No caso de um dos projetos - para o qual foi estipulado um custo de produção de 180 milhões de libras (R$ 473 bilhões) - o algoritmo estimou que o filme ganharia somente cerca de 30 milhões de libras nas bilheterias, o que significava que não valia a pena fazê-lo.

No entanto, Meaney diz que o papel dos algoritmos na indústria cinematográfica não é tão grande.

"Filmes são feitos por diversas razões e dizer que nós ditamos que filmes são feitos nos dá mais influência do que temos", disse.

Negócios automáticos

De acordo com Kevin Slavin, até 70% das transações de Wall Street hoje são conduzidas por algoritmos, no que é chamado de "caixa-preta" ou "algo-negócio".

Isso significa que, além de negociantes especializados, banqueiros e corretores agora empregam também milhares de matemáticos e físicos.

Mas Slavin diz que, mesmo com o auxílio de técnicos e especialistas, um algoritmo fora de controle foi o responsável pela chamada "quebra-relâmpago" do dia 6 de maio de 2010, em que uma queda de cinco minutos nas bolsas de valores causou um caos momentâneo.

Um negociador que agiu de má-fé foi considerado o culpado pela queda de 10% no índice Dow Jones mas, na realidade, a culpa era do programa de computador que ele estava usando.

O algoritmo vendeu 75 mil ações com um valor de 2,6 bilhões de libras em somente 20 minutos, fazendo com que outros sistemas de negociação rápida fizessem o mesmo.

A partir deste episódio, os reguladores foram forçados a introduzir mecanismos que interrompem as negociações se as máquinas começarem a se comportar de modo incorreto.

Para Slavin, na medida que os algoritmos expandem sua influência para além das máquinas, é chegada a hora de saber exatamente o que eles sabem e se ainda há tempo de domá-los.

Fonte: BBC