quarta-feira, 30 de setembro de 2009

Ranking Turma do Boliche

Como nosso editor oficial estranhamente não está mais postando de uns tempos pra cá me pediram para escrever enquanto ele se recupera (dizem que o problema foi um certo "atropelo", espero que esteja tudo bem).

Vou tentar seguir o modelo padrão do editor oficial, vamos lá.

Sensacional a noite de 29/09/09, as duplas que disputavam as apostas no 3x3 estavam reunidas juntamente com os quartos jogadores que completavam os trios, totalizando assim 7 jogadores para tirar um 3x3 decisivo (rs).

Agora vamos ao que interessa.

Os trios eram: Sansão, Denis e Totti, contra o trio: Maeta, Guilherme e Alessandro, para Alessandro e Guilherme mais que o boliche estava em jogo também a aposta do churrasco, que miticamente viraram de 2x0 para 3x2. Ah sim tinha o Sapetão que ficou na torcida, cornetando (apostou R$50,00 na dupla Alessandro e Guilherme) e gozando com o pau dos outros.

O Jogo

Primeira partida, Sansão, Denis e Totti ganham com facilidade e ficam todos empolgadinhos, Alessandro volta ao seu normal e afunda o time, neste momento Sapetão soa frio, não passava nem vento.

Segunda partida, Alessandro novamente joga mal pra caralho, mas o restante do time joga muito bem, além disso contam com a colaboração de Denis que amarela no final, Sapetão respirando mais aliviado começa a entoar uma cantiga, algo como, O CAMPEÃO VOLTOOO.

Terceira e decisiva partida, Sansão tenta disfarçar mas não consegue esconder a tremedeira, depois das primeiras jogadas de Denis e Totti esboça um sorriso marato no canto da boca, pra ajudar Alessandro ainda da um Fair Play Ultimate, mas tudo não passou de uma doce ilusão e o trio Alessandro, Guilherme e Maeta atropelou no final, Sapetão nessa altura do campeonato ja estava batendo uma de emoção por ganhar a aposta, Totti pobre coitado saiu desolado.

Entrega do sal e surgimento do mestre churrasqueiro

Ao final da partida Alessandro puxa um saco de sal grosso e pede para que um funcionário do boliche entregue ele para os pagadores. Ao ver a cara das pobre almas surge a idéia do mestre churrasqueiro, é o seguinte. Aquele que perder mais churrascos ao final do ciclo das duplas ganhará de presente o kit churrasco, para assim poder servir melhor os ganhadores.

LIVROS: Programming the iPhone User Experience Edition

Nome do Lançamento: Programming the iPhone User Experience Edition September 2009
Tamanho: 2MB
Links: Homepage
Download: Multi-Host

LIVROS: Mac OS X 10.6 Snow Leopard Pocket Guide Edition

Nome do Lançamento: Mac OS X 10.6 Snow Leopard Pocket Guide Edition September 2009
Tamanho: 2MB
Links: Homepage
Download: Multi-Host

Formigas digitais usam inteligência conjunta para defender computadores

Na interminável batalha para proteger as redes de computadores de invasores, os especialistas em segurança estão lançando uma nova defesa inspirada em uma das mais resistentes criaturas da natureza - as formigas.

Ao contrário dos sistemas de segurança tradicionais, que são estáticos, essas "formigas digitais" espalham-se pelas redes de computadores em busca de ameaças, como os "vermes de computador", ou worms - programas autorreplicantes projetados para roubar informações ou facilitar o uso não autorizado dos computadores.

Formigas digitais

Quando uma formiga digital detecta uma ameaça, não demora muito para que um exército de formigas convirja para aquele local, chamando a atenção dos operadores humanos, que poderão investigar o ataque no momento de sua ocorrência.

O conceito, chamado "inteligência de rebanho," promete transformar a área da segurança digital graças à sua capacidade de se adaptar prontamente às ameaças, elas próprias em constante mutação.

"Na natureza, nós sabemos que as formigas defendem-se contra as ameaças de forma muito eficiente," explica o professor Errin Fulp, da Universidade Wake Forest, nos Estados Unidos. "Elas podem ativar suas defesas rapidamente e depois voltar tranquilamente ao seu comportamento rotineiro depois que o intruso foi eliminado. Nós estamos tentando alcançar esse mesmo comportamento em uma rede de computadores."

O peso da segurança

Os sistemas de segurança atuais são projetados para defender os computadores de todas as ameaças conhecidas desde o início da história da informática, mas os caras maus que escrevem programas maliciosos - também conhecidos como malware - introduzem ligeiras variações o tempo todo, a fim de fugir dos sistemas de defesa.

À medida que novas variações são descobertas e as atualizações de segurança são disponibilizadas, os programas adquirem maior capacidade, mas também passam a demandar mais recursos do sistema, os antivírus levam mais tempo para rodar e as máquinas ficam mais lentas - um problema familiar para a maioria dos usuários de computador.

Inteligência de rebanho

A ideia de imitar o comportamento das formigas foi do pesquisador Glenn Fink. Sabendo da familiaridade do seu colega Fulp com o desenvolvimento de sistemas de varredura de segurança mais rápidos por meio do emprego de processamento paralelo, Fink juntou-se a ele para testar o conceito de formigas digitais em uma rede de 64 computadores.

A "inteligência de rebanho" usado no novo sistema divide o processo de busca pelas ameaças à segurança por suas características. A seguir, a tarefa de escaneamento de cada tipo de ameaça é distribuído pelos vários computadores da rede.

"Nossa ideia é lançar 3.000 tipos diferentes de formigas digitais, cada um procurando por evidências de um tipo de ameaça," diz Fulp. "Conforme elas se movimentem pela rede, as formigas digitais deixarão trilhas digitais inspiradas nas trilhas de cheiro que as formigas de verdade usam para guiar suas companheiras. Cada vez que uma formiga digital identificar alguma evidência de ameaça, ela está programada para deixar uma pista mais forte. Trilhas com pistas mais fortes atrairão mais formigas, criando um exército que assinala uma possível infecção do computador."

Programa sentinela

Durante o teste, os pesquisadores introduziram vermes digitais em sua rede experimental e as formigas digitais foram capazes de localizá-los. Os resultados foram tão positivos que o projeto, nascido de uma cooperação em uma pesquisa feita durante as férias, foi estendido e agora já incorpora dois estudantes de doutoramento, que farão suas teses enquanto aprimoram o novo sistema de segurança, preparando-o para disponibilização.

Fulp afirma que a nova abordagem de segurança digital será mais adequada para grandes redes que contêm muitas máquinas idênticas, como as existentes em órgãos do governo, grandes empresas e universidades.

Os usuários de computadores não precisarão se preocupar que um enxame de formigas digitais possa se decidir a estabelecer residência em suas máquinas. As formigas digitais não podem sobreviver sem um programa sentinela, instalado em cada máquina. Cada programa sentinela se reporta aos "sargentos" da rede, que são monitorados pelos operadores humanos - são eles, os operadores humanos, que supervisionam a colônia e, em última instância, mantêm o controle.

Impressão 3-D já pode produzir peças de vidro

A prototipagem rápida e a impressão 3-D conquistaram seu lugar nos departamentos de projetos e até em fábricas que necessitam de produzir peças em pequenos lotes. Já existem até impressoras 3-D open source para quem quer ter sua própria fábrica em casa.

Esses equipamentos tradicionalmente produzem as peças a partir de resinas poliméricas. Apenas recentemente tornou-se possível construir protótipos por impressão de cerâmica.

Impressoras tridimensionais

Agora, uma equipe de engenheiros e artistas da Universidade de Washington, nos Estados Unidos, desenvolveu uma técnica para a criação de objetos de vidro por meio de impressão. A técnica permite que o vidro seja utilizado em uma impressora 3-D normal.

"Agora tornou-se claro para nós que, se pudermos transformar qualquer material em um pó com partículas de cerca de 20 micrômetros, então poderemos imprimir usando praticamente qualquer coisa," explica Mark Ganter, ele próprio membro da equipe que já havia lançado a impressão 3-D com cerâmica.

As impressoras tridimensionais são usadas como um forma barata e rápida para construir protótipos de peças. Em um sistema típico de impressão 3-D, uma fina camada de pó é aspergida sobre a plataforma de impressão. A seguir, uma impressora parecida com as impressoras jato de tinta deposita gotículas de um ligante somente onde necessário. O ligante reage com o pó, fazendo com que as partículas se liguem e curem, formando o objeto 3-D.

Impressão 3-D com vidro

O desafio com o vidro é que as partículas de vidro não absorvem líquidos. Se for usado um ligante tradicional, a peça resultante terá a consistência de uma gelatina.

A solução precisou de alterações radicais: um novo ligante, alteração na proporção entre o pó e o ligante e, após a impressão, levar as peças ao forno para queimar, como se fosse uma peça de cerâmica.

Os pesquisadores não patentearam a solução e vão disponibilizar a receita do ligante e todos os detalhes adicionais para que qualquer pessoa ou empresa possa utilizar a nova técnica em sua própria impressora 3-D.

Unicamp cria bioquerosene para aviação a partir de óleos vegetais

Uma equipe da Faculdade de Engenharia Química (FEQ) da Unicamp desenvolveu a tecnologia de um novo processo de produção de bioquerosene a partir de óleos vegetais.

O produto poderá substituir com diversas vantagens o querosene usado como combustível de aviões.

Além de ser mais barata, essa alternativa energética é menos poluente, pois não é emissora de enxofre, de compostos nitrogenados, de hidrocarbonetos ou de materiais particulados.

Bioquerosene de aviação

A patente do processo já foi depositada. O próximo passo é o estudo da produção em escala industrial. Os pesquisadores pretendem repassar a tecnologia para empresas interessadas em produzir o bioquerosene de aviação.

O processo para a obtenção do bioquerosene é feito em duas etapas. Na primeira, depois de extraído da planta e refinado para a retirada de impurezas, o óleo vegetal é colocado em um reator, juntamente com o catalisador e uma quantidade predeterminada de etanol.

A quantidade de etanol utilizada no processo foi otimizada através de extensivos estudos e é um ponto importante do processo. "O papel do catalisador é acelerar a reação química e fazer com que ela ocorra em uma temperatura mais baixa", explica Rubens Maciel Filho, um dos responsáveis pela pesquisa.

Dentro do reator ocorrem as reações de transesterificação e ou esterificação, levando à formação do éster - o bioquerosene.

A segunda etapa é a mais importante, quando é feita a separação de todos os produtos da reação, ou seja, o isolamento do éster, do catalisador, da água e da glicerina. Reside aí a grande inovação do processo de produção do bioquerosene desenvolvido pela equipe de Maciel Filho.

O isolamento é feito em uma unidade de separação intensificada, em condições de temperatura e pressão que possibilitam a obtenção do bioquerosene de forma economicamente viável e que atende aos requisitos para o querosene de aviação estabelecidos pela Agência Nacional do Petróleo (ANP).

Uso do etanol

O etanol foi o álcool escolhido pela equipe para o processo por ter baixa massa molar e ser um reagente não-agressivo e renovável. Ele reage com o ácido graxo, dando origem ao bioquerosene. Além disso, o processo gera como subprodutos a glicerina, água e o que sobra do etanol não consumido nas reações. Após a separação desses compostos indesejados, o óleo fica mais fino e com menor viscosidade.

A produção de um biocombustível a partir de óleos vegetais é bem conhecida. A inovação do novo processo é a qualidade específica e o uso do bioquereosene em aplicações aeronáuticas, dentro de padrões mais exigentes da indústria.

Outra novidade deste processo é o balanço preciso das diversas variáveis envolvidas nas reações químicas e também a purificação as quais resultam no bioquerosene com as propriedades desejadas. "Para se obter alta conversão de óleo vegetal em bioquerosene e maximizar a produção no menor tempo possível é preciso saber as quantidades exatas a serem usadas de cada componente da reação e definir as condições apropriadas de operação", explica Maciel Filho. "É preciso dosar com precisão a proporção de óleo vegetal, álcool e catalisador, além da temperatura mais adequada", acrescenta.

Certificação preliminar

Não existem, no Brasil, instituições que possam atestar se o produto obtido atende às especificações do querosene de aviação. "Contudo, os resultados das análises feitas na Unicamp e no IPT foram comparados com a Tabela de especificação do querosene de aviação da ANP", explicam os pesquisadores. "Ficou demonstrado que o bioquerosene possui características semelhantes às do querosene de aviação."

Embora haja uma série de pesquisas e diversos biocombustíveis sendo testados em várias partes do mundo, inclusive no Brasil, a equipe não identificou processo/produto similar ao desenvolvido. Apesar de ser comentada a existência de experimentos e realizações de testes fazendo uso de bioquerosene, não foi identificada patente na literatura técnica que fizesse uso do mesmo processo, comenta Maciel Filho. "Também não foi encontrado no mercado produto identificado como bioquerosene".

Aviões movidos a biocombustível

O professor da FEQ ressalta que pode não haver um produto exatamente igual, mas já existem companhias aéreas com aviões voando experimentalmente movidos a biocombustíveis. É o caso da americana Continental Airlines, que anunciou recentemente a realização do primeiro voo de demonstração, com o uso de biocombustível.

Assim, as pesquisas realizadas pelo grupo da Unicamp podem contribuir com o desenvolvimento de processos de produção viáveis para a obtenção de biocombustíveis para a aviação por propulsão a jato, um segmento importante nos transportes, estando no âmbito do empenho mundial na redução da emissão de poluentes, avaliam os pesquisadores.

Os biocombustíveis, como o bioquerosene, têm ainda outra vantagem em relação aos combustíveis tradicionais: eles são provenientes de fontes renováveis. "Além disso, sendo produzido a partir de fontes renováveis e obtidas no País, o bioquerosene poderá contribuir para a independência tecnológica nacional, além de agregar valor à matéria-prima", dizem os pesquisadores.

Derrame cerebral emite sinal de perigo antes de ocorrer

Um em cada oito casos de acidente vascular cerebral (AVC), também conhecido como derrame, é precedido "por um pequeno alerta", ou melhor, um ataque isquêmico transitório, segundo estudo publicado na revista Neurology, da Academia Norte-Americana de Neurologia.

Outra pesquisa, divulgada nesta semana, indica que um exame simples dos olhos, feitos no consultório, pode detectar com segurança a ocorrência dos derrames cerebrais e também destes ataques isquêmicos precursores - veja a reportagem Exame dos olhos supera a ressonância magnética no diagnóstico de derrame cerebral.

"Os resultados ressaltam a necessidade de termos melhores instrumentos de avaliação de riscos para prevenir AVCs antes que eles ocorram", disse Daniel Hackam, da Universidade de Ontário Ocidental, no Canadá, um dos autores do estudo. "Até 80% dos AVCs após ataques isquêmicos transitórios podem ser prevenidos quando os fatores dos riscos são bem avaliados."

Ataque isquêmico transitório

Os pesquisadores identificaram todos os pacientes que passaram por hospitais de Ontário com diagnóstico de AVC durante quatro anos. Do total de 16,4 mil pacientes, 2.032 (ou 12,4%) tiveram um ataque isquêmico transitório antes do AVC. Durante um ataque transitório, sintomas de derrame duram menos de 24 horas.

Aqueles que não tiveram um sinal de aviso tiveram maior probabilidade de apresentar um AVC mais sério do que os demais. Também tiveram maior probabilidade de morrer (15,2% contra 12,7%) e de ter parada cardíaca inesperada (4,8% contra 3,1%) enquanto permaneceram no hospital.

Diferenças de idade

Já os pacientes que tiveram um ataque isquêmico transitório eram tipicamente mais velhos do que os que não tiveram sinais anteriores ao AVC. Também apresentaram mais casos de diabetes, pressão alta e problemas cardiovasculares.

"É possível que os vasos sanguíneos daqueles que apresentem o alerta estivessem condicionados à falta do fluxo de sangue, o que os protegeu do impacto completo do acidente vascular principal. Qualquer pessoa que tiver um sinal, ainda que pequeno, deve procurar um hospital imediatamente", disse Hackam.

Transmissão do HIV de mãe para filho é alta por falta de teste rápido

A transmissão do HIV da mãe para o filho durante a gestação - chamada de transmissão vertical - e que pode ocorrer durante o trabalho de parto e por meio da amamentação, é responsável pela quase totalidade de casos de AIDS em crianças no Brasil.

Para evitar esse tipo de transmissão, o Ministério da Saúde (MS) recomenda a realização do teste de HIV pelas mães em consultas pré-natais ou no momento do parto.

No entanto, apesar de a aceitação do teste ser alta, a baixa oferta nos postos de saúde é um dos principais fatores associados à sua não realização.

Esta é conclusão de uma pesquisa feita pela médica Valdiléa Veloso, diretora do Instituto de Pesquisa Clínica Evandro Chagas (Ipec/Fiocruz).

HIV da mãe para o filho

O estudo avaliou como se dá, no Brasil, a testagem para HIV na gravidez e no parto, além de ter analisado a viabilidade da utilização do teste rápido e dos fatores associados à infecção em mães que desconheciam sua situação sorológica quando admitidas na maternidade.

"A identificação das gestantes infectadas pelo HIV é uma etapa fundamental na estratégia de prevenção da transmissão dessa infecção para os filhos dessas mulheres", afirma a pesquisadora. "Essa transmissão pode ser reduzida para menos de 1% com a administração de antirretrovirais durante a gravidez, no momento do parto ou no recém-nascido em suas primeiras horas de vida, combinada com a substituição do aleitamento materno pelo uso da fórmula infantil".

Segundo Valdiléa, o ideal é que o teste seja realizado o mais cedo possível na gravidez, se possível, antes do terceiro trimestre de gestação, quando ocorre a maior parte das transmissões. Por isso, uma boa estratégia seria a ampliação de sua realização nas primeiras consultas pré-natais.

Resistência a transformar o exame em rotina

A pesquisadora aponta que ocorrem anualmente no país cerca de 12,5 mil partos de mulheres infectadas por HIV, mas que, em média, apenas 51,7% são cobertos com a administração da zidovudina (AZT) injetável, como recomenda o MS.

O estudo de Valdiléa consultou 2.234 grávidas em 12 cidades localizadas nas regiões Centro-Oeste, Sudeste e Sul.

Diversos foram os fatores encontrados que estão funcionando como obstáculos a esse processo de testagem para HIV, dentre eles a falta de ofertas do teste pelos médicos no exame pré-natal e a dificuldade da rede laboratorial em realizar o exame e retornar seu resultado para o médico em tempo hábil, seja por problema de recursos humanos ou pela falta de kits de diagnóstico.

"A maior parte das mulheres, inclusive as de renda mais baixa, fazem pré-natal, mesmo que não façam um número grande de consultas", comenta Valdiléa. "No entanto, observa-se uma resistência dos profissionais a transformar o exame em um procedimento de rotina, já que a incorporação do serviço demanda treinamento, além de ser uma tarefa a mais. Mas não é razoável que isso demore tanto tempo para acontecer".

Disponibilização dos testes rápidos

Segundo Valdiléa, a ampliação da disponibilização de testes rápidos de HIV, como o produzido pelo Instituto de Tecnologia em Imunobiológicos (Biomanguinhos/Fiocruz), para o uso pré-natal ou no momento do parto pode contribuir para diminuir o risco de transmissão.

"O teste é simples de fazer, pode ser realizado por qualquer pessoa da equipe médica, inclusive por enfermeiras, e elimina uma etapa complicada, mais cara e demorada que é o envio para laboratórios", explica a pesquisadora. "No Brasil, há um sistema de saúde de acesso universal, ampla disponibilidade de antirretrovirais e um teste rápido de HIV nacional, ou seja, já temos todos os recursos. Precisamos reduzir rapidamente o atraso em relação aos países mais desenvolvidos".

Além disso, a pesquisadora destaca a possibilidade de que a população com menor número de cuidados pré-natal e, por consequência, com menor acesso ao teste de HIV, seja justamente a que concentra uma proporção maior de mulheres infectadas pelo vírus. "Há toda uma necessidade de fazer um aconselhamento, caso o resultado seja positivo, e isso pode complicar bastante se a mulher ainda faz seu tratamento pré-natal em um lugar e dá a luz em outro diferente, o que é bastante comum em classes mais baixas", esclarece Valdiléa.

De acordo com ela, todos esses fatores combinados resultariam em uma proporção significativa de mulheres infectadas pelo HIV chegando ao parto sem conhecimento da sua situação sorológica e, portanto, sem oportunidade de receber as intervenções para a redução da transmissão vertical e os cuidados necessários à conservação da sua própria saúde.

Mais consultas no pré-natal

Uma outra questão destacada pela pesquisadora é o fato de que a realização do teste de HIV no momento do parto pode ter consequências problemáticas para a amamentação das crianças. "Muitas vezes, o resultado demora a chegar, o que impede o início do aleitamento", diz Valdiléa. "O efeito disso é muito negativo, pois um percentual bem pequeno das mulheres em relação ao todo vai estar infectado, acarretando em problemas para a amamentação de bebês que não são positivos e precisam ser alimentados pelo leite materno nas primeiras horas de vida". A pesquisadora explica ainda que a transmissão por meio do aleitamento está associada a um risco adicional de cerca de 14% de o bebê adquirir HIV.

O estudo de Valdiléa ainda verificou como se dá a identificação de mulheres infectadas pelo HIV por ocasião do parto em maternidades no Rio de Janeiro e em Porto Alegre. Ao todo, foram avaliadas 5.193 grávidas e os resultados diferiram nas duas capitais. No Rio, a maior parte das mulheres foi testada no pós-parto (66%), enquanto em Porto Alegre a quase totalidade (92,5%) foi testada no trabalho de parto. A prevalência de infecção pelo HIV foi maior em Porto Alegre (6,5%) do que no Rio (1,3%).

"Conhecer a importância do teste de HIV para a prevenção da transmissão vertical e ter frequentado um maior número de consultas pré-natal se mostraram associados a maior chance de receber a oferta do teste", elucida a pesquisadora. "Além disso, ficou claro que é preciso sensibilizar e mobilizar os profissionais de saúde para que os serviços possam contribuir para diminuir as iniquidades determinadas pelas desigualdades sociais no acesso a estes procedimentos".

terça-feira, 29 de setembro de 2009

LIVROS: Linux in a Nutshell 6th Edition

Nome do Lançamento: Linux in a Nutshell 6th Edition Sep 2009
Tamanho: 4MB
Links: Homepage
Download: Multi-Host

LIVROS: Learning Python 4th Edition

Nome do Lançamento: Learning Python 4th Edition Oct 2009
Tamanho: 5MB
Links: Homepage
Download: Multi-Host

LIVROS: Head First PHP and MySQL

Nome do Lançamento: Head First PHP and MySQL Dec 2008
Tamanho: 18MB
Links: Homepage
Download: Multi-Host

Processador "excitônico" comunica-se diretamente por luz

Há cerca de um ano, pesquisadores norte-americanos demonstraram a possibilidade de criação de circuitos eletrônicos nos quais os elétrons são substituídos por excitons - pares de elétrons (com carga negativa) e lacunas (com carga positiva) que emitem fótons espontaneamente quando o elétron e a lacuna se recombinam.

Em substituição aos atuais processadores eletrônicos, eles então demonstraram a possibilidade concreta de se construir um processador "excitônico".

Essa geração espontânea de fótons significa que um circuito integrado que funcione com base em excitons dispensará todo o aparato de conversão optoeletrônica que é necessário hoje para permitir que os computadores conversem entre si por meio das redes de fibras ópticas.

Naquela primeira experiência, o circuito integrado de excitons funcionava apenas a uma temperatura muito baixa, apenas 1,5 Kelvin acima do zero absoluto. Isto não apenas é mais frio do que a média da temperatura encontrada no espaço profundo, como também só pode ser alcançada em equipamentos caríssimos existentes apenas nos laboratórios de pesquisa mais avançados.

Barato como gasolina

Agora, a mesma equipe "esquentou" seu circuito integrado, fazendo-o funcionar a -148º C. Embora ainda seja bastante fria, esta temperatura pode ser obtida com nitrogênio líquido, uma substância disponível comercialmente e cujo preço por litro não é muito maior do que o preço de um litro de gasolina.

Mas os pesquisadores ainda não chegaram no limite das possibilidades do novo circuito e os avanços continuarão. "Nosso objetivo é criar dispositivos eficientes baseados em excitons que sejam operacionais a temperatura ambiente e que possam substituir os equipamentos eletrônicos em situações nas quais a velocidade de interconexão é importante", disse Leonid Butov, da Universidade de San Diego, coordenador da pesquisa.

"Ainda estamos nos estágios iniciais do desenvolvimento. Só recentemente nossa equipe comprovou o princípio de funcionamento de um transistor baseado em excitons e a pesquisa está avançando", alertou Butov.

O que são excitons?

Os excitons são pares constituídos por elétrons, que têm carga negativa, e lacunas, ou ausência de elétrons, que têm carga positiva. Esses pares podem ser formados pela injeção de fótons em materiais semicondutores, como o arseneto de gálio. Quando o elétron e a lacuna se combinam, o exciton decai e libera sua energia de volta na forma de fótons.

Hoje, para comunicarem-se em rede, os computadores recebem as informações dos outros computadores por meio de cabos de fibra óptica. Os dados codificados nos fótons que transitam nas fibras devem primeiro ser convertidos para correntes elétricas, ou seja, devem ser "traduzidos" de fótons para elétrons, para então serem inseridos no circuito do computador.

A seguir, toda a computação é feita no processador na forma de elétrons. Para que o resultado possa ser passado adiante ou devolvido ao computador original, o processo deve ser repetido ao reverso, ou seja, os elétrons devem ser novamente transformados em fótons, por meio de interfaces optoeletrônicas, para que possam ser novamente transmitidos pelas redes de fibras ópticas.

Todo esse processo é extremamente caro em termos de velocidade da rede como um todo. Se essa transformação de elétrons em fótons puder ser dispensada, como acontecerá com um circuito eletrônico que funcione com base em excitons, a interconexão entre os computadores deixará de ser um gargalo, elevando enormemente a velocidade de processamento nos supercomputadores, nos grids e nuvens de computação e nas redes de banda larga em geral.

Biossensor detecta bactérias instantaneamente

Pesquisadores espanhóis desenvolveram um biossensor que detecta instantaneamente a bactéria causadora da febre tifoide, mesmo que o microrganismo esteja em baixíssimas concentrações, dificilmente detectáveis com as técnicas atuais.

Os métodos atuais para detecção da bactéria Salmonella typhi exigem uma análise bioquímica em laboratório que leva de um a dois dias.

"A nossa técnica significa que pequenas quantidades do microrganismo podem ser detectadas de forma prática e simples em tempo real, como se estivéssemos medindo o pH da água, por exemplo," conta o pesquisador Xavier Rius, da Universidade de Rovira i Virgili.

DNA sintético

O biossensor é formado por nanotubos de carbono e fragmentos sintéticos de DNA, chamados aptâmeros, que ativam um sinal elétrico quando se ligam à bactéria. A leitura direta do sinal elétrico indica a presença do microrganismo.

Os aptâmeros são pequenos fragmentos sintéticos de DNA ou RNA projetados artificialmente para se ligar especificamente a uma molécula, célula ou microrganismo. No caso do biossensor agora desenvolvido pelos pesquisadores espanhóis, o alvo do biossensor é a bactéria causadora da febre tifoide.

Se a bactéria não está presente na amostra, os aptâmeros permanecem ligados às paredes dos nanotubos de carbono. Entretanto, quando detectam a bactéria, eles ligam-se a ela, disparando um sinal eletroquímico através dos nanotubos de carbono. O sinal elétrico é detectado por meio de um potenciômetro simples conectado ao biossensor.

Biossensor ultrassensível

O novo biossensor torna possível identificar uma única célula de Salmonella em uma amostra de cinco mililitros, podendo efetuar medições quantitativas de até 1.000 bactérias por mililitro.

"A presença da bactéria dispara uma alteração na interação entre os aptâmeros e os nanotubos, o que ocorre em poucos segundos, forçando um aumento na tensão do eletrodo," diz Rius.

O estudo é parte de uma pesquisa que está utilizando os últimos avanços da ciência e da tecnologia para simplificar a detecção de todos os tipos de patógenos que assolam a humanidade.

BNDES lança fundo de investimento em biotecnologia e nanotecnologia

O BNDES aprovou a criação de um fundo de investimentos em empresas emergentes voltado para investimentos em ativos dos setores de biotecnologia e nanotecnologia.

O novo fundo será criado no âmbito do Programa de Fundos de Investimento do BNDES, lançado em julho de 2008. A participação do Banco, via BNDESPAR, será de, no máximo, 25% do patrimônio comprometido do fundo.

As propostas dos gestores interessados nesse fundo deverão ser elaboradas segundo o roteiro de informações para seleção e enquadramento divulgado no site do BNDES e serão avaliadas conforme os critérios eliminatórios e classificatórios, detalhados no Programa de Fundos de Investimento do Banco, também descrito no site. As propostas deverão ser encaminhadas impreterivelmente até o dia 19 de outubro.

Biotecnologia e nanotecnologia

Segundo o banco, a escolha dos setores de biotecnologia e nanotecnologia para compor o novo fundo de capital de risco faz parte de uma estratégia para promover e acelerar as atividades de inovação em toda a matriz industrial brasileira.

Haverá mais duas chamadas para a composição de novos fundos, ainda em processo de seleção. O primeiro tem como foco os ativos florestais e o segundo o setor de petróleo e gás.

Atualmente, o BNDES participa de 31 fundos de investimento, com um patrimônio comprometido de aproximadamente R$ 8 bilhões e efeito alavancador de cerca de 4 vezes os recursos investidos pelo BNDES. Desde o início de sua atividade via fundos, o apoio do BNDES propiciou investimentos indiretos em mais de 150 empresas de diversos tamanhos e setores da economia brasileira.

Testes clínicos de nova droga contra doença de Chagas começam em 2010

A Iniciativa Medicamentos para Doenças Negligenciadas (DNDi, na sigla em inglês) anunciou nesta terça-feira (29) em Tóquio que vai iniciar em 2010 testes clínicos em humanos com um “novo e promissor” medicamento contra a doença de Chagas. Segundo a entidade, o lançamento é o lance mais significativo na luta contra a doença em quatro décadas.

Há quase 40 anos foram descobertos os dois únicos medicamentos disponíveis contra Chagas. O problema é que eles não são administrados na fase crônica da doença, nem são muito eficazes. Entretanto, mais de 90% dos pacientes só descobrem que sofrem de Chagas já nessa fase crônica. O objetivo do novo tratamento é justamente atuar com mais eficácia na fase crônica da doença, em especial entre pacientes adultos.

Transmitida pela picada do barbeiro, a doença de Chagas é uma doença infecciosa fatal. No Brasil há 3 milhões de pessoas com a enfermidade. Na América Latina e Caribe a doença é endêmica em 21 países. São cerca de 8 milhões de pessoas infectadas, com cerca de 14 mil mortes por ano.

A doença de Chagas mata mais pessoas na região do que qualquer outra doença parasitária, incluindo malária. Sem diagnóstico e tratamento adequados, 1 em cada 3 pacientes desenvolve a forma fatal da doença com o crescimento do coração. Com frequência, os pacientes precisam de marcapassos, desfibriladores e, em alguns casos, de transplante de coração. Mas muitos morrem subitamente – sem saber que estavam infectados.

A DNDi é uma parceria de pesquisa e desenvolvimento de medicamentos sem fins lucrativos fundada em 2003. Sete organizações de diferentes partes do mundo se uniram nessa parceria: Fundação Oswaldo Cruz do Brasil, Conselho de Pesquisa Médica da Índia, Instituto de Pesquisa Médica do Quênia, Ministério da Saúde da Malásia, Instituto Pasteur da França, Médicos sem Fronteiras (MSF) e Programa Especial para Pesquisa e Treinamento em Doenças Tropicais (TDR) do Programa das Nações Unidas para o Desenvolvimento (Pnud).

Globalização

Segundo a Organização Mundial da Saúde (OMS), o número de casos diagnosticados vem crescendo nos últimos anos por causa da migração populacional e da inclusão de novas áreas de transmissão até então não endêmicas como Austrália, Estados Unidos, Canadá, Japão e Europa.

A “globalização” da doença está relacionada a outros tipos de transmissão como a transfusão de sangue, a transmissão congênita e o transplante de órgão.

O novo remédio é o E1224, uma “pró-droga” do ravuconazol – quando entra no organismo, o E1224 se transforma no antifúngico, que tem demonstrado in vitro e in vivo ter uma atividade potente contra o parasita responsável pela doença. Ele foi desenvolvido pela Eisai, uma empresa farmacêutica japonesa.

Assim que estiver pronto, o novo medicamento será comercializado a preço de custo aos setores públicos e ONGs que trabalham com a doença de Chagas, afirma em nota a DNDi.

Fonte: G1

Acompanhe rasante da Messenger sobre Mercúrio em 'painel de controle' da Nasa

Nesta terça-feira, a sonda Messenger, da Nasa, faz seu terceiro e último sobrevoo de Mercúrio – a 161 mil km por hora. O horário previsto do rasante, de 228 quilômetros, é 18h55 (hora de Brasília).

A Nasa montou um site (veja reprodução abaixo) com todos os detalhes sobre o rasante. Clique aqui para acompanhar on-line, em tempo real, a aproximação da Messenger.

O objetivo do sobrevoo será registrar imagens do planeta mais próximo do Sol. A manobra também é necessária para entrar na órbita do planeta, em março de 2011, quando a missão vai completar 6 anos e 7 meses. A jornada de 7,9 bilhões de quilômetros rumo a Mercúrio envolve 15 voltas ao redor do Sol. Para proteger seus instrumentos, a sonda é equipada com um escudo “guarda-sol”, com 2,5 por 2 metros, de material cerâmico resistente ao calor.

Fonte: G1

segunda-feira, 28 de setembro de 2009

LIVROS: Head First Data Analysis

Nome do Lançamento: Head First Data Analysis Aug 2009
Tamanho: 15MB
Links: Homepage
Download: Multi-Host

LIVROS: Building Social Web Applications Edition

Nome do Lançamento: Building Social Web Applications Edition October 2009
Tamanho: 7MB
Links: Homepage
Download: Multi-Host

LIVROS: CSS The Missing Manual 2nd Edition

Nome do Lançamento: CSS The Missing Manual 2nd Edition Sep 2009
Tamanho: 13MB
Links: Homepage
Download: Multi-Host

Células solares têm avanço na indústria e no laboratório

O instituto de pesquisas IMEC, da Bélgica, apresentou de uma só vez dois avanços importantes, um dos quais inédito, na fabricação das células solares fotovoltaicas feitas de semicondutores.

As células solares semicondutoras representam o tipo mais tradicional de célula solar e, apesar dos crescentes avanços nas células solares orgânicas, continuam com larga vantagem em termos de eficiência na conversão da luz solar em eletricidade.

Como elas continuam muito caras, todos os avanços são importantes para a viabilização da energia solar fotovoltaica - que transforma a luz solar diretamente em eletricidade, - que vem cedendo espaço para a energia solar termovoltaica - que utiliza o calor do Sol para gerar vapor que movimenta uma turbina tradicional.

Eficiência pronta para uso

O primeiro avanço é uma célula solar de alta eficiência, com uma taxa de conversão de 18,4%, e fabricada em uma área muito grande, de 125 centímetros quadrados, já em um processo de produção industrial.

A célula solar possui um emissor raso, resultando em um melhor aproveitamento da luz solar na faixa azul do espectro, o que ajudou a elevar sua eficiência. Para os contatos frontais foi utilizada uma nova metalização à base de cobre, aplicada sobre aberturas no revestimento antirreflexivo. O cobre está sendo utilizado em substituição à prata, que é muito mais cara, resultando em uma célula solar mais barata.

Segundo os pesquisadores, a nova geometria do emissor aponta para a possibilidade da construção de células solares com uma espessura de apenas 40 micrômetros e eficiência superando os 20%.

Empilhamento inédito

O segundo avanço é um empilhamento mecânico de duas células solares, criando uma célula multijunção - cada junção semicondutora é projetada para capturar um comprimento de onda diferente. A primeira célula é feita de arseneto de gálio (GaAs) e a segunda de germânio (Ge).

Como, no primeiro avanço relatado acima, os pesquisadores já vislumbram a possibilidade de fabricar cada uma de suas células individuais com uma eficiência ultrapassando os 20%, duas células complementares empilhadas poderão resultar em rendimentos acima dos 40%.

Célula solar transparente

Mas como dá para empilhar duas células solares se o maior desafio dos engenheiros ao longo dos anos tem sido fabricar células nas quais nada fique no caminho da luz, permitindo que a maior quantidade possível de fótons atinja as junções semicondutoras que produzem a eletricidade?

A solução tem um conceito simples, embora sua realização somente agora tenha sido alcançada: a célula solar que vai na parte de cima, feita de GaAs, é superfina e transparente para a luz infravermelha. E a célula inferior, de Ge, captura esse comprimento de onda para gerar eletricidade.

A eficiência da célula superior de GaAs é de 23,4%, muito próxima às células estado da arte feitas com esse material, mas que não possuem a vantagem da transparência e nem a baixa espessura. A eficiência da célula de germânio é de 3,5%, o que é superior ao aproveitamento da luz infravermelha em outras células solares do mesmo material.

Ao contrário das células solares multijunção tradicionais, que são construídas em um mesmo bloco - diz-se que elas são "monoliticamente empilhadas" - a solução agora desenvolvida é mais flexível, já que as duas células são fabricadas independentemente e simplesmente empilhadas, cada uma mantendo os seus contatos elétricos. Isso mantém as portas abertas para a adição de uma terceira célula solar, de índio-gálio-fósforo, criando uma célula solar multijunção montada mecanicamente.

Aplicações de ponta

No estágio atual, a eficiência total da célula multijunção empilhada já atinge 26,9%, o que é bastante superior aos 18,4% do primeiro avanço, relatado acima. Ocorre que os dois não são diretamente comparáveis porque o primeiro avanço se refere a uma célula solar já em nível de produção industrial, enquanto as células empilhadas mecanicamente são ainda uma demonstração em escala de laboratório. Mas, mesmo aqui, os pesquisadores estão entusiasmados, afirmando que deverão ter uma célula empilhada de tripla junção já em 2010.

Os cálculos teóricos indicam que esta nova célula empilhada deverá ter uma eficiência de 1 a 2% acima das atuais células monolíticas (chegando a 40% de eficiência total com iluminação concentrada).

O empilhamento de células solares combina diferentes materiais semicondutores para capturar e converter uma parte maior do espectro eletromagnético do que é possível com um único material. Contudo, construí-las, sendo em uma única célula monolítica, ou no processo de empilhamento mecânico agora desenvolvido, é ainda uma tarefa complicada e cara, o que deverá manter essas células solares de alta eficiência voltadas para aplicações de ponta, principalmente na área espacial.

Suas memórias ficam guardadas mesmo que você não se lembre delas

Você vê uma pessoa na rua que lhe parece familiar, mas não consegue lembrar seu nome e nem de onde a conhece. Uma nova pesquisa feita da Universidade de Irvine (EUA) sugere que sua memória sobre essa pessoa está lá, em alguma parte do seu cérebro - você apenas não consegue acessá-la.

Usando técnicas avançadas para fazer imagens do cérebro, os cientistas descobriram que a atividade cerebral de uma pessoa quando ela se lembra de um evento passado é muito semelhante à atividade que ocorre quando ela passa por uma experiência pela primeira vez. Isto é verdade mesmo quando a pessoa não consegue se lembrar de detalhes de uma experiência passada.

Lembrar e esquecer quando necessário

Observando as imagens, os cientistas verificaram que os padrões de toda a cena anterior reaparecem no cérebro, mesmo que a pessoa não esteja consciente dos detalhes. Ou seja, a pessoa afirma não se lembrar, mas o "cérebro está se lembrando."

"Se os detalhes continuam lá, então poderá ser possível descobrir uma forma de acessá-los," diz Jeff Johnson, um dos autores do estudo que foi publicado no exemplar de Setembro do jornal médico Neuron.

"Entendendo como isso funciona em adultos jovens e saudáveis nós poderemos potencialmente ter ideias para lidar com situações onde nossas memórias falham de forma mais séria, como quando envelhecemos," diz ele. "Isto poderá ajudar também a lidar com memória vívidas de eventos traumáticos que nós gostaríamos de esquecer."

O experimento

Na pesquisa, estudantes foram colocados em um equipamento de ressonância magnética funcional (fMRI). Os pesquisadores mostravam-lhes palavras escritas e lhes pediam para fazer diversas tarefas: imaginar como um artista iria desenhar o objeto representado pela palavra, pensar sobre como o objeto é usado ou "pronunciar mentalmente" a palavra de trás para frente.

O equipamento de fMRI capturava imagens da atividade em seus cérebros durante cada uma das atividades.

Cerca de 20 minutos mais tarde, os estudantes viam as palavras uma segunda vez, devendo lembrar-se de quaisquer detalhes ligados a elas. Novamente foram feitas imagens da atividade de seus cérebros.

Memórias não conscientes

Utilizando um método matemático chamado análise de padrões, os cientistas associaram as diversas tarefas com padrões distintos de atividade cerebral. Quando um estudante tinha uma forte lembrança de uma palavra a partir de uma tarefa específica, o padrão era muito semelhante àquele gerado durante a própria tarefa.

Quando ele não se lembrava ou se lembrava apenas vagamente, o padrão não era tão proeminente, mas ainda assim podia ser reconhecido como pertencendo àquela tarefa em particular.

"O analisador de padrões pode identificar as tarefas com precisão com base nos padrões gerados, esteja a pessoa lembrando ou não de detalhes específicos," diz Johnson. "Isto nos diz se o cérebro sabe alguma coisa sobre o que aconteceu, mesmo se a pessoa não está consciente da informação."

Saiba como funcionam os vírus que roubam senhas de banco

A maioria dos bankers pode ser considerada um “cavalo de troia”, ou seja, eles não se espalham sozinhos. Quem dissemina a praga é o próprio criador do vírus e, uma vez instalado no sistema da vítima, o código malicioso tentará apenas roubar as credenciais de acesso e não irá se espalhar para outros sistemas. Existem exceções: alguns desses vírus conseguem se espalhar por Orkut e MSN, por exemplo.

Leia o restante da reportagem clincado AQUI.

Fonte: G1

Google Maps começa a mostrar trânsito em tempo real para RJ, SP e BH

O serviço de mapas Google Maps conta, desde a última sexta-feira (25/9), com informações sobre o trânsito atualizadas em tempo real para as cidades de São Paulo, Rio de Janeiro e Belo Horizonte.

Para acessar a nova ferramenta, usuários que estejam em mapas das três cidades brasileiras precisam apertar o botão "Trânsito" - uma legenda no canto superior direito indica como as cores que aparecem no mapa devem ser entendidas.

Em testes realizados pelo IDG Now!, o Google Maps mostrou a fluidez do trânsito nas regiões metropolitanas de São Paulo (o que inclui Osasco, Diadema, ABC e Guarulhos) e Rio de Janeiro (Niterói, Nova Iguaçu e São João do Meriti), enquanto as indicações para Belo Horizonte ficaram restritas a bairros da região central da cidade.

A indicação é mais uma novidade na versão nacional do popular serviço de mapas do Google, adaptado ao mercado brasileiro em outubro de 2007.

O Google Maps nacional já mostra pontos de interesse, traça rotas usando transporte público (função levada ao Rio de Janeiro também na semana passada), aponta estações de metrô e, a partir da última semana, indica a fluidez do trânsito em cidades selecionadas.

Em 2010, o serviço contará também com imagens aproximadas das ruas e avenidas por meio do Google Street View, projeto realizado em parceria com a Fiat que já vem colhendo imagens de São Paulo, Rio de Janeiro e Belo Horizonte desde julho.

Fonte: IDG Now!

domingo, 27 de setembro de 2009

sexta-feira, 25 de setembro de 2009

Oração para os ATENDENTES

Nossa Senhora do Telemarketing
protegei-nos dos clientes chatos
e de todas as contestações

Ajude-nos a compreende-los
em toda sua solicitação
principalmente quando se referirem à:
"CADRÁSTO, DESBROCAR CATÃO ou abrir RECRAMAÇÃO"

Livrai-nos dos clientes idosos, gagos, surdos, loucos e burros
mas principalmente
da prepotência e arrogância de alguns

Santa Maria do Call Center
Rogai por nós, Consultores
Quando o sistema cair
nos dê o suporte necessário
Livrai-nos das grandes filas
dos erros de atendimento

Não nos deixeis desamparados
em qualquer monitoria ou Feedback
nem deixe
que nossos superiores descubram
quando fizermos alguma transferência
indevida pra ura
ou quando derrubarmos a ligação.
E nunca quando matamos a fome na P.A.

Amém!

Episódio de hoje: Luses acesas

Essa não aconteceu comigo, foi uma historia que me contaram.

Atendente: Qual a solicitação do Sr?

Cliente: A Luz em frente da minha casa não deixa eu dormir.

Atendente: Como assim?

Cliente: A Luz fica bem em frente da janela do meu quarto e deixa tudo claro não consigo dormir.

Atendente: E o que o Sr quer que a empresa faça?

Cliente: Eu quero que vcs desliguem essa luz.

Atendente: Isso não sera possivel Sr.

Cliente: Então faz assim eu vou quebrar ela com uma pedrada e vc da um jeito de não virem aki trocar ta.

OBS:So me contaram até essa parte mas acho que fico bem claro o nivel de inteligencia desse cliente né

Grid de computação brasileiro começa a funcionar hoje

Entra em operação hoje a maior rede de computadores de alto desempenho na América Latina, interligando sete campi universitários. A capacidade teórica de processamento é de 33,3 trilhões de cálculos por segundo.

O Programa de Integração da Capacidade Computacional da Universidade Estadual Paulista (Unesp), mais conhecido como GridUnesp, será inaugurado e começará a funcionar nesta sexta-feira (25/9).

Maior rede de alto desempenho da América Latina

Trata-se de um conjunto de clusters (aglomerados de computadores interconectados) formado por estruturas paralelas em outros seis diferentes campi, nas cidades de Araraquara, Bauru, Botucatu, Ilha Solteira, Rio Claro e São José do Rio Preto, além do núcleo principal instalado na capital paulista.

Ao todo, serão 2.944 unidades de processamento com 33,3 teraflops (trilhões de cálculos por segundo) de capacidade teórica de processamento . "É a maior estrutura computacional de alto desempenho e processamento distribuído na América Latina", disse Sérgio Ferraz Novaes, coordenador geral do GridUnesp e professor do Instituto de Física Teórica da Unesp, à Agência FAPESP.

"A implantação do GridUnesp é o passo decisivo para posicionar a universidade no patamar do compartilhamento de dados científicos em alto nível de desempenho computacional. É o resultado do reconhecimento da consolidação e da elevada capacidade de diversos grupos de pesquisa", disse Herman Jacobus Cornelis Voorwald, reitor da Unesp.

Computação em grid

Na computação em grid (grade, em português) o poder de processamento de muitos clusters é reunido para se obter um desempenho muito superior ao que seria possível caso os aglomerados fossem mantidos isolados.

Os computadores do GridUnesp utilizam processadores Intel Xeon de quatro núcleos e foram adquiridos da Sun Microsystems do Brasil. A estrutura permitirá a grupos de pesquisa acesso a elevados níveis de capacidade de processamento e armazenamento de dados nos mais diversos campos.

De DNA a LHC

Entre as áreas e aplicações que poderão se beneficiar estão o sequenciamento genético, previsão do tempo, modelagem molecular e celular, reconstrução de imagens médicas, desenvolvimento de novos materiais, segurança de redes de dados, química quântica e física de altas energias.

Nessa última área, o grupo liderado por Novaes, coordenador do GridUnesp, já desenvolve trabalhos em parceria com centros e projetos internacionais de pesquisa como o LHC (Large Hadron Collider, na Suíça). Um dos estudos se deu por conta do Projeto Temático "Física experimental de anéis de colisão: SP-Race e HEP Grid-Brasil", desenvolvido com apoio da FAPESP e cujos resultados deram origem ao Projeto Grid Educacional, lançado em 2008.

"Como todo o projeto do GridUnesp foi centrado na pesquisa científica, 14 projetos em andamento deverão se beneficiar de imediato da estrutura. Outra chamada de propostas para a contratação de novos projetos deve ser lançada ainda este ano", disse Novaes, que também coordena o Centro Regional de Análise de São Paulo (Sprace), instalado em 2003 com apoio da FAPESP.

Grade do conhecimento

Foram investidos no projeto do GridUnesp R$ 8 milhões, dos quais R$ 4,4 milhões da Financiadora de Estudos e Projetos (Finep) e R$ 3,6 milhões da Unesp. A conexão do GridUnesp entre os clusters no interior de São Paulo ocorre por meio da rede KyaTera, desenvolvida no Programa Tecnologia da Informação no Desenvolvimento da Internet Avançada (Tidia) da FAPESP.

"A rede KyaTera teve um papel extremamente importante nesse projeto no que diz respeito ao fornecimento da estrutura de fibras apagadas, que posteriormente foi ampliada pelos pesquisadores da Unesp", explicou Novaes.

A rede KyaTera se equipara ao que existe de mais avançado no mundo em desempenho de redes com tecnologia de transmissão óptica. Sua ampliação foi realizada com a aquisição de equipamentos desenvolvidos pela Padtec, empresa que atua no desenvolvimento de alta tecnologia na área de redes ópticas.

Anel metropolitano de dados

Na capital, a rede foi redimensionada de forma a incluir o novo campus da Unesp na Barra Funda, no anel metropolitano que liga diversas universidades e institutos de pesquisa. No interior, foram criados novos enlaces de fibra, prolongando a malha óptica até Ilha Solteira.

As unidades da Unesp em Bauru, Botucatu, Ilha Solteira, São José do Rio Preto e Rio Claro estão sendo conectadas a Araraquara com velocidade de 1 gigabit por segundo, sendo o tráfego agregado transmitido até o data center do Núcleo de Computação Científica da Unesp e ao enlace internacional a 10 gigabits por segundo.

Outro benefício proporcionado pelo projeto GridUnesp é a instalação de um novo gateway (portão de entrada) no campus da Barra Funda que permitirá o tráfego de internet por meio da rede MetroSampa.

Novaes destaca que o Brasil tem hoje uma demanda crescente de pesquisas que exigem a evolução do conceito de grade, uma vez que os problemas científicos necessitam cada vez mais da produção de maior quantidade de dados, que devem ser filtrados e armazenados em um espaço de tempo menor.

Submarino-robô usa propulsão inspirada em peixe-elétrico

Os engenheiros da Universidade de Bath, na Inglaterra, parecem decididos a construir um zoológico robótico.

Não satisfeitos com seus robôs saltitantes inspirados em esquilos, gafanhotos e até pulgas, eles agora lançaram mais um robô inspirado em peixes, o Gymnobot.

Meio peixe, meio submarino

Existem várias abordagens para a criação de peixes robotizados, incluindo os robôs verdadeiramente biomiméticos, que se parecem e se movimentam como peixes, até os submarinos robotizados, que pedem emprestada alguma característica dos peixes para otimizar seu funcionamento.

A equipe do professor William Megill adotou esta última abordagem. Inspirando-se no peixe-elétrico da Amazônia, os pesquisadores construíram um submarino e substituíram sua hélice por uma barbatana inferior que se movimenta como a barbatana do peixe.

Um sistema de virabrequins, semelhantes ao de um motor de automóvel, faz com que a barbatana ondule de forma precisa, movendo o submarino. O conjunto de virabrequins é movimentado por um motor elétrico. O corpo do submarino é feito de uma estrutura rígida. Apenas a barbatana se movimenta.

Navegando em águas rasas

O objetivo da pesquisa é criar um robô que seja capaz de filmar e coletar dados da vida marinha nas proximidades da costa, onde a profundidade é muito pequena para os submersíveis tradicionais, movidos por hélices, e cheia de obstáculos, exigindo manobras precisas.

"O peixe-elétrico tem uma barbatana central que se movimenta ao longo do seu corpo e cria uma onda na água que permite que ele nade para frente ou para trás com facilidade," diz o Dr. Megill.

"O Gymnobot imita essa barbatana e cria uma onda na água que o movimenta. Esta forma de propulsão é potencialmente muito mais eficiente do que um propulsor convencional e é mais fácil de controlar em águas rasas próximas à costa," diz ele.

Impacto de meteoritos revela água congelada em Marte

Meteoritos que atingiram recentemente a superfície de Marte revelaram depósitos de água congelada logo abaixo da superfície do planeta. Os depósitos foram fotografados pela sonda MRO (Mars Reconnaissance Orbiter), da NASA.

A água foi encontrada a meio caminho entre o polo norte e o equador marcianos. "Nós sabíamos que havia gelo de subsuperfície nas altas latitudes de Marte, mas nós descobrimos que ele se estende até muito mais próximo do equador do que se poderia imaginar tendo em vista o atual clima de Marte," disse Shane Byrne, cientista da equipe responsável pela operação da câmera de alta resolução HiRISE, a bordo da MRO.

Gelo puro

Outra surpresa para os cientistas foi descobrir que a água é muito pura. Até agora se acreditava que o gelo abaixo da superfície ficaria misturado com o solo, em uma proporção meio-a-meio de pó e gelo. Mas o nível de evaporação mostrou que o gelo que estava acumulado e que foi descoberto pelo impacto do meteorito era 99% puro.

O gelo foi detectado em oito crateras diferentes, com profundidades variando de 45 centímetros a 2,5 metros.

Origens do gelo em Marte

Há várias teorias que tentam explicar como uma camada de gelo tão puro pode ter-se formado tão próximo à superfície de Marte.

Uma delas defende que o gelo se formou exatamente como ele se forma sob a superfície da Terra, onde finas camadas de água líquida embebida no meio de grãos de solo migram para formar "lentes" de gelo. Em países sujeitos a temperaturas abaixo de zero, o fenômeno causa grandes danos às construções, ocasionando trincas e rachaduras em casas, edifícios e até no asfalto.

Sonda espacial indiana encontra água na Lua

Usando dados de um instrumento da NASA a bordo de uma sonda espacial indiana, cientistas descobriram moléculas de água nas regiões polares da Lua.

As observações foram feitas pelo instrumento Moon Mineralogy Mapper, ou M3, a bordo da sonda espacial indiana Chandrayaan-1, que deixou de funcionar há algumas semanas. As sondas Cassini e Epoxi, da NASA, confirmaram o achado.

Os dados revelaram as moléculas de água ocorrem em quantidades que são maiores do que o previsto, mas ainda relativamente pequenas. Também foram encontradas hidroxilas no solo lunar, moléculas constituídas de um átomo de oxigênio e um átomo de hidrogênio.

"Encontrar água congelada na Lua tem sido uma espécie de Santo Graal para os cientistas há muito tempo", disse Jim Green, diretor da Divisão de Ciência Planetária da NASA. "Esta descoberta surpreendente foi possível graças à criatividade, à perseverança e à cooperação internacional entre a NASA e a Organização de Pesquisas Espaciais da Índia.

Absorção do infravermelho

O espectrômetro M3 mediu a luz refletindo-se a partir da superfície da Lua no comprimento de onda infravermelho, dividindo a espectro em porções pequenas o suficiente para fornecer um novo nível de detalhamento na composição da superfície do satélite.

Quando a equipe analisou os dados do instrumento, eles descobriram que os comprimentos de onda da luz que estavam sendo absorvidos eram consistentes com os padrões de absorção de moléculas de água e de hidroxila.

Apenas moléculas

"Quando dizemos 'água na Lua' nós não estamos falando de lagos, mares ou mesmo poças d'água", explicou Carle Pieters, principal cientista do M3. "Água na Lua significa moléculas de água e de hidroxila que interagem com as moléculas de rocha e poeira especificamente nos milímetros superiores da superfície da Lua."

A equipe do M3 encontrou moléculas de água e hidroxilas em diversas áreas da região ensolarada da superfície da Lua, mas a assinatura da água apareceu mais forte nas latitudes mais elevadas da Lua.

Já se suspeitou da existência de moléculas de água e hidroxila anteriormente, a partir de dados coletados durante um sobrevoo da sonda Cassini sobre a Lua, em 1999, mas os resultados nunca foram publicados.

Moléculas na superfície

"Os dados do instrumento da VIMS da Cassini e do M3 são muito parecidos", disse Roger Clark, um cientista do Serviço Geológico dos Estados Unidos e membro das duas equipes. "Nós vemos tanto água quanto hidroxila. Embora a abundância não seja conhecida com exatidão, pode existir até 1.000 moléculas de água por milhão no solo lunar. Para colocar isso em perspectiva, se você recolher uma tonelada da camada superior da superfície da Lua, você pode obter até 900 gramas de água."

Com se estima que essas moléculas de água estejam apenas no milímetro superior da superfície lunar, para recolher uma tonelada de solo lunar seria necessário coletar o milímetro superior de uma área de 1.000 metros quadrados. Ainda não é possível estimar a tecnologia que seria necessária para separar essas moléculas do solo para se obter água líquida.

A descoberta de moléculas de água e de hidroxila na Lua levanta novas questões sobre a origem da "água da Lua" e seus efeitos sobre a mineralogia lunar. As respostas a estas questões serão estudados e debatidos durante os próximos anos.

Memória mecânica superdensa renasce graças a um "baroplástico"

Em 2002, a IBM apresentou uma tecnologia mecânica de memórias digitais que lembrava muito os antigos cartões perfurados do início da era da informática, onde os furos representavam os bits. Com a diferença que a nanotecnologia levou tudo para a escala dos nanômetros.

A tecnologia, batizada de Milípede (centopeia), usa uma ponta microscópica para fazer furos em um filme de polímero. Um local, perfurado ou não, representa um bit. A mesma ponta pode tapar o furo, apagando a informação e alterando um bit de 0 para 1 ou vice-versa.

O resultado era a maior densidade de gravação já vista, com a possibilidade de gravação de 1 trilhão de bits por polegada quadrada. O grande inconveniente era que a tecnologia era mesmo quente: ela só funcionava em temperaturas entre 300 e 400º C.

Baroplásticos

Agora, um grupo de engenheiros da Universidade de Pohang, na Coreia do Sul, resolveu o problema da temperatura e montou um protótipo da tecnologia Milípede que funciona a temperatura ambiente.

A equipe do professor Jin Kon Kim trocou a temperatura pela pressão. Em vez de um polímero que se derrete, ele utilizou um "baroplástico" - um polímero duro que amolece quando colocado sob pressão.

Os primeiros baroplásticos foram descobertos há cerca de 10 anos, mas somente amoleciam sob pressões muito altas, acima de 300 bar. A equipe do professor Kim criou um novo baroplástico que faz a transição a uma pressão de apenas 60 bar: "O mais baixo nível entre todos os copolímeros de bloco relatados na literatura," disse ele.

Os pesquisadores demonstraram que a ponta de um microscópio de força atômica (AFM) pode escavar os minúsculos furos usados para armazenar os dados no sistema centopeia simplesmente aplicando uma pequena pressão sobre o material. Uma pressão mais leve pode ser utilizada para ler os furos sem alterá-los.

Armazenamento mecânico de dados

Um sistema de armazenamento mecânico de dados tem muitas vantagens sobre os sistemas magnéticos, as principais delas sendo a confiabilidade e a durabilidade das mídias, além da enorme densidade. Uma vez gravado, o material poderá manter os dados de forma quase indefinida, enquanto os meios atuais de armazenamento perdem os dados em poucos anos.

Os pesquisadores coreanos terão agora de lidar com o desgaste da ponta utilizada para fazer a gravação e a leitura. A ponta de um microscópio de força atômica é tão fina que seu desgaste é extremamente acentuado.

Uma das abordagens possíveis será a utilização de pontas mais grossas ou mais duras, uma vez que o sistema de gravação não exigirá a mesma precisão de uma ponta de um microscópio, projetada para testar diversos materiais com extrema precisão. Uma ponta cujo único trabalho será fazer furos em um plástico macio poderá ser muito mais rústica e durável.

Mas o avanço alcançado agora já é suficiente para trazer novas expectativas para um campo que é tão promissor que não foi abandonado mesmo depois de anos sem progressos significativos e apesar dos contínuos melhoramentos nas tecnologias tradicionais.

Entrelaçamento quântico triplo é demonstrado com luzes coloridas

Um grupo de cientistas brasileiros conseguiu gerar um entrelaçamento quântico de três feixes de luz de cores diferentes. O feito deverá ajudar a compreender as características desse fenômeno que é considerado pelos cientistas como a base para futuras tecnologias como computação quântica, criptografia quântica e teletransporte.

Fenômeno intrínseco da mecânica quântica, o entrelaçamento permite que duas ou mais partículas compartilhem suas propriedades mesmo sem a existência de qualquer ligação física entre elas e independentemente da distância que as separa - veja Átomos assombrados de Einstein abrem caminho para computação quântica.

A possibilidade de alternar o entrelaçamento quântico entre as diferentes frequências de luz poderá ser útil para a criação de protocolos avançados de troca de informações.

Entrelaçamento triplo

De acordo com o autor principal do estudo, Paulo Nussenzveig, do Instituto de Física da USP, a possibilidade de gerar o entrelaçamento de três feixes de luz diferentes havia sido prevista pela mesma equipe há três anos, mas ainda não havia sido demonstrada experimentalmente. Dos três feixes, apenas um estava na porção visível do espectro e dois no infravermelho.

"Em 2005, medimos pela primeira vez o entrelaçamento em dois feixes, comprovando uma previsão teórica feita por outros grupos em 1988. A partir daí, percebemos que a informação presente no sistema era mais complexa do que imaginávamos e, em 2006, escrevemos um artigo teórico prevendo o entrelaçamento de três feixes, que conseguimos demonstrar agora", disse Nussenzveig à Agência FAPESP.

O cientista explica que, para realizar o estudo, o grupo utilizou um experimento conhecido como oscilador paramétrico óptico (OPO), que consiste em um cristal especial disposto entre dois espelhos, sobre o qual é bombeada uma fonte de luz.

"O que esse cristal tem de especial é sua resposta à luz, que é não-linear. Com isso, podemos introduzir no sistema uma luz verde e ter como resultado uma luz infravermelha, por exemplo", explicou. Segundo ele, os OPO com onda contínua, empregados no estudo, são utilizados desde a década de 1980.

Dissolução do elo quântico

Enfrentando diversas dificuldades e surpresas, ao lidar com fenômenos até então desconhecidos, os cientistas conseguiram "domar" o sistema para observar o entrelaçamento de três feixes com comprimentos de onda diferentes. Durante o experimento, descobriram ainda um efeito importante: a chamada morte súbita do entrelaçamento também ocorria no caso estudado.

Segundo Nussenzveig, um estudo coordenado por Luiz Davidovich, da Universidade Federal do Rio de Janeiro (UFRJ), publicado na Science em 2007, mostrou que o entrelaçamento quântico podia desaparecer repentinamente, "dissolvendo" o elo quântico entre as partículas - o que poderia comprometer a aplicação do fenômeno no futuro desenvolvimento de computadores quânticos.

O efeito, batizado como morte súbita do entrelaçamento, já havia sido previsto anteriormente por físicos teóricos e foi observado pela primeira vez pelo grupo da UFRJ em sistemas discretos - isto é, sistemas que têm um conjunto finito de resultados possíveis.

"Para sistemas macroscópicos de variáveis contínuas existem relativamente poucos trabalhos e previsões teóricas. E não existia absolutamente nenhum trabalho experimental. Observamos pela primeira vez algo que não havia sido previsto: a morte súbita em variáveis contínuas. Isso significa que trata-se de um efeito global coletivo", disse.

Além da física clássica

De acordo com outro autor do estudo, Marcelo Martinelli, também professor do Instituto de Física da USP, o entrelaçamento quântico é a propriedade que distingue as situações quânticas das situações nas quais os eventos obedecem às leis da física clássica.

"Essa propriedade é verificada por meio de correlações que são diferentes das que ocorrem no mundo da física clássica. Quando jogamos uma moeda no chão, na física clássica, se temos a coroa voltada para cima, temos a cara voltada para baixo. No mundo quântico, esse resultado tem diferentes graus de liberdade e ângulos de correlação", explicou.

Teletransporte quântico

Segundo Martinelli, o entrelaçamento já havia sido muitas vezes verificado em sistemas discretos, ou entre dois ou mais sistemas no domínio de variáveis contínuas. Mas, quando havia três ou mais subsistemas, o entrelaçamento gerado era sempre de feixes de luz da mesma cor.

"Isso é interessante, porque abre caminho para que possamos, a partir de um sistema que interage com uma certa frequência do espectro eletromagnético, transferir suas propriedades quânticas para outro sistema - seria o chamado teletransporte quântico", disse o cientista.

De acordo com Martinelli, seria possível fazer isso utilizando feixes de entrelaçamento como veículo para transformar a informação. "Mas, se só pudermos lidar com variáveis da mesma cor, a informação quântica do primeiro só passaria para um segundo e um terceiro sistema se todos eles atuarem na mesma frequência. O nosso modelo permitiria fazer a transferência de informação quântica entre diferentes faixas do espectro eletromagnético", explicou.

Ao observar pela primeira vez a morte súbita de entrelaçamento em um sistema de variáveis contínuas, o grupo conseguiu novas informações sobre a natureza do fenômeno.

Morte súbita do entrelaçamento

Martinelli explica que todo sistema que interage com a natureza apresenta perdas, gradualmente. Uma chaleira em contato com o ambiente esfria continuamente até atingir o equilíbrio térmico com a temperatura externa. Mas esse processo se dá de forma exponencial e só estaria completo em um período de tempo infinito. Na prática, a chaleira sempre estará um pouco mais quente que o ambiente.

"No entanto, no caso do entrelaçamento, a sua interação com o ambiente nem sempre segue esse decaimento exponencial. Eventualmente ele desaparece em um tempo finito - o que caracteriza a chamada morte súbita. Vimos que isso também ocorre para variáveis contínuas e, ajustando os parâmetros de operação do nosso OPO, conseguimos controlar essa morte súbita", disse.

Segundo ele, essa descoberta é importante para que um dia se faça transporte de informação quântica. "Se enviarmos essa informação por fibra óptica, por exemplo, não podemos perder o entrelaçamento no sistema mediante perdas na propagação. Se a informação quântica passar a ter um papel central na tecnologia da informação, a compreensão da dinâmica da morte súbita e do entrelaçamento serão ainda mais fundamentais", disse.

Limites da Terra podem estar sendo ultrapassados

Identificar e quantificar os limites da Terra que não podem ser transgredidos ajudaria a evitar que as atividades humanas continuassem causando mudanças ambientais inaceitáveis. A afirmação, de um grupo internacional de cientistas, está em artigo destacado na edição desta quinta-feira (24/9) da revista Nature.

Segundo eles, a humanidade deve permanecer dentro dessas fronteiras para os processos essenciais do sistema terrestre se quiser evitar alterações ambientais de dimensões catastróficas. Esses limites representariam os espaços seguros para a ação e para a vida humana.

Limites planetários

O conceito de limites (ou fronteiras) planetários representa um novo modelo para medir as agressões ao planeta e define espaços seguros para a existência humana. Seguros para o sistema terrestre e, por consequência, para o próprio homem.

Os pesquisadores sugerem nove processos sistêmicos principais para esses limites: mudanças climáticas; acidificação dos oceanos; interferência nos ciclos globais de nitrogênio e de fósforo; uso de água potável; alterações no uso do solo; carga de aerossóis atmosféricos; poluição química; e a taxa de perda da biodiversidade, tanto terrestre como marinha.

Para três desses limites da ação humana - ciclo do nitrogênio, perda da biodiversidade e mudanças climáticas -, os autores do artigo argumentam que a fronteira aceitável já pode ter sido ultrapassada. Afirmam também que a humanidade está rapidamente se aproximando dos limites no uso de água, na conversão de florestas e de outros ecossistemas naturais para uso agropecuário, na acidificação oceânica e no ciclo de fósforo.

Limites do estudo

Um editorial da revista Nature, que acompanha a reportagem, é muito menos catastrófico e coloca vários limites à análise oferecida pelo grupo de cientistas, coordenados por Johan Rockström, da Universidade de Estocolmo, na Suécia.

O estudo dá números para esses limites "de forma provocativa", segundo o editorial.

"O exercício requer muitas qualificações. Em sua maior parte, os valores exatos escolhidos como limites por Rockström e seus colegas são arbitrários. Assim são também, em alguns casos, os indicadores de mudança. Há ainda pouca evidência científica para sugerir que a estabilização das concentrações de dióxido de carbono a longo prazo em 350 partes por milhão seja o alvo certo para evitar uma interferência perigosa no sistema climático. [...] Também não existe um consenso sobre a necessidade de limitar as extinções de espécies em dez vezes a taxa de referência, como está sendo aconselhado."

"Além disso, as fronteiras propostas nem sempre se aplicam globalmente, mesmo para os processos que regulam o planeta inteiro. Circunstâncias locais podem, em última instância, determinar quanto tempo a escassez de água ou a perda de biodiversidade atingirão limites críticos," afirma a revista.

Chamando a ciência apresentada no artigo como "preliminar," o editorial prossegue afirmando que a imposição de limites ditos "aceitáveis" esbarra muito mais nas questões éticas do que nas puramente ambientais. Por exemplo, se a interferência humana no ciclo de nitrogênio pode ter efeitos danosos de longo prazo, essa manipulação foi, e continua sendo, a grande responsável pela alimentação de grandes partes da humanidade.

Toda a discussão da proposta de estabelecimento de limites pode ser acompanhado no site da Nature (em inglês), no endereço http://tinyurl.com/planetboundaries

Cientistas resolvem problema além da capacidade dos computadores

Um grupo internacional de matemáticos conseguiu resolveu um problema que exige a manipulação de números tão grandes que a memória RAM dos maiores supercomputadores atuais não é suficiente para conter nem mesmo um só deles.

Este é o primeiro cálculo desse tipo a ser resolvido envolvendo mais de um trilhão de triângulos. O avanço somente foi possível graças a uma nova técnica de multiplicação desses números descomunais. Se um deles fosse escrito à mão, o espaço ocupado seria equivalente a ir até a Lua e voltar.

Além da capacidade dos computadores

Mas então, que mágica é esta que permite o cálculo com números que são grandes demais para serem escritos e que não cabem na memória dos computadores?

A solução foi encontrada nos discos rígidos, que podem ser adicionados a um computador até atingirem capacidades muito superiores à da memória RAM, a memória de cálculo dos computadores.

Enquanto os computadores normalmente contam com poucos gigabytes de RAM, os discos rígidos já são encontrados na faixa dos terabytes cada um. Os números foram armazenados nos discos rígidos e os cálculos foram feitos parcialmente, com cada parte do número sendo lido somente quando necessário.

Programa livre

"A parte difícil foi desenvolver uma biblioteca de código de computador para fazer esse tipo de cálculo. Uma vez pronta, não levou muito tempo para escrever o programa especializado para essa computação em particular," conta o matemático Bill Hart, um dos membros da equipe.

O programa utilizado para o cálculo foi disponibilizado gratuitamente e qualquer um com interesse suficiente em matemática - e com um computador com discos rígidos suficientes - poderá igualar o recorde dos pesquisadores e até mesmo estabelecer novos recordes.

Números congruentes

O problema diz respeito à área dos triângulos retângulo. O problema surpreendentemente difícil é determinar quais números inteiros podem representar a área de um triângulo retângulo cujos lados sejam números inteiros ou frações. A área de um triângulo assim é chamado de um "número congruente."

Por exemplo, o triângulo retângulo 3-4-5 que os estudantes veem em geometria tem uma área de 1/2 x 3 x 4 = 6; assim, 6 é um número congruente. O menor número congruente é 5, que é a área do retângulo cujos lados medem 3/2, 20/3 e 41/6.

A lista dos números congruentes começa com 5, 6, 7, 13, 14, 15, 20, 21, etc. Isso cria uma sequência bem ordenada com a adição de 8, onde cada número na linhagem 5, 13, 21, 29, 37, ..., é um número congruente.

O problema é que existem sequências mais misteriosas, como 11, 19, 27, 35, ..., forçando a que cada número seja checado individualmente.

O cálculo agora realizado descobriu 3.148.379.694 novos números congruentes até um trilhão. Os matemáticos preveem que existam cerca de 800 bilhões de números congruentes até um quatrilhão, o que poderá ser checado quando a tecnologia produzir discos rígidos grandes o suficiente.

Problema milenar

O problema resolvido foi proposto pelo matemático persa al-Karaji, que viveu entre os anos de 953 e 1029. "Problemas antigos como esse podem parecer obscuros, mas eles geram um enorme interesse e produzem pesquisas úteis conforme as pessoas desenvolvem novas formas de atacá-los," diz Brian Conrey, do Instituto Norte-Americano de Matemática.

Se você duvida da importância do problema, basta ver quem já se envolveu com ele. Fibonacci mostrou que 5 e 7 eram congruentes, mas não conseguiu provar que 1 não era. Isto só foi resolvido por Fermat, famoso pelo "último teorema de Fermat," em 1659.

A coisa ficou quase estacionada até 1915, quando foram determinados os números congruentes até 100. Em 1952, Kurt Heegner criou técnicas avançadas de matemática que demonstraram que os números primos na sequência 5, 13, 21, 29, ..., são congruentes. Até 1980, havia casos até 1000 que ainda não haviam sido resolvidos. Agora os pesquisadores chegaram a 1 trilhão.

Cuidado x 2

Os matemáticos são conhecidos pelos seus gostos pela precisão e pelas eternas distinções entre argumentos, provas e demonstrações. Já os programas de computador são conhecidos tanto pelos problemas que resolvem quanto pelos seus bugs.

É por isto que resultados como estes são vistos como ceticismo no mundo da matemática - a complexidade dos cálculos deixa muito espaço para erros tanto do software quanto do próprio hardware.

Para se defender desses argumentos, os pesquisadores fizeram os cálculos duas vezes, em computadores diferentes, usando algoritmos diferentes, codificados por dois grupos independentes de pesquisadores.

Exame dos olhos supera ressonância magnética no diagnóstico de derrame cerebral

Pesquisadores da Universidade Johns Hopkins (EUA) descobriram que um exame dos movimentos dos olhos dos pacientes, feito na cama e com duração de um minuto, produz melhores resultados do que os caros e demorados exames de ressonância magnética para a detecção de derrames cerebrais e outros problemas vasculares.

Os exames de ressonância magnética, conhecidos como MRI, são recomendados para pacientes com riscos cardiovasculares e neurológicos elevados e que chegam ao hospital reclamando de vertigens, náuseas e sensação de tontura.

"A ideia de que um exame na cama possa superar um moderno exame de neuroimagem como o MRI é algo que a maioria dos médicos diria ser impossível, mas nós mostramos que isto é possível," diz o Dr. David E. Newman-Toker.

Causas das vertigens

As vertigens são um problema médico bastante comum, responsáveis por milhões de visitas aos prontos-socorros todos os anos. Enquanto a grande maioria dos casos são causados por problemas benignos relacionados ao ouvido interno, cerca de 4% dos casos são sinais de derrames cerebrais ou de ataques isquêmicos transientes, uma condição que frequentemente é um aviso prévio de que um derrame ocorrerá nos próximos dias ou semanas.

Como mais da metade dos pacientes com vertigens que estão sofrendo um derrame não apresentam nenhum dos outros sintomas - fraqueza em um dos lados do corpo, falta de sensações ou problemas na fala - os médicos das emergências não conseguem detectar cerca de um terço dos casos, perdendo a chance de um tratamento mais rápido e eficaz.

"Nós sabemos que o tempo é tudo, de forma que, se pacientes que estão tendo um derrame forem enviados para casa erroneamente, as consequências podem ser realmente sérias, incluindo a morte ou a invalidez permanente," diz o Dr. Jorge C. Kattah, que também participou do estudo.

Exame do movimento dos olhos

O estudo sobre o exame do movimento dos olhos foi sugerido por pesquisas anteriores que demonstraram que os pacientes que estão tendo um derrame cerebral apresentam alterações no movimento dos olhos que se correlacionam com os danos causados pelo derrame em diferentes áreas do cérebro.

Esses movimentos são diferentes das alterações causadas por doenças benignas, como a labirintite. Alguns pacientes, por exemplo, não conseguem ajustar imediatamente a posição dos olhos se sua cabeça for movida rapidamente para o lado, ou apresentam movimentos desconexos quando tentam focar um objeto ou olhar para o lado.

No estudo, os médicos submeteram cada paciente a três testes de movimentos com os olhos, procurando por sinais de incapacidade de manter os olhos estáveis quando a cabeça dos pacientes era girada rapidamente para os lados, movimentos aleatórios enquanto os pacientes tentavam acompanhar o movimento do dedo do médico e verificando a posição dos olhos para detectar se um deles ficava em posição elevada em relação ao outro.

A seguir, cada paciente foi submetido a um exame inicial de ressonância magnética, o exame de maior qualidade disponível atualmente para a confirmação de derrame em pacientes que reclamam de vertigens. Os pacientes cujos testes dos olhos sugeriam um derrame que não foi detectado na primeira ressonância magnética foram submetidos a um segundo exame de neuroimagem.

Simples, eficaz e gratuito

No final, 69 pacientes foram diagnosticados com derrame e 25 com problemas no ouvido interno. O restante apresentava outros problemas neurológicos. Utilizando apenas o exame dos movimentos dos olhos, os pesquisadores diagnosticaram corretamente todos os casos de derrame e 24 dos 25 casos de labirintite.

Por outro lado, o primeiro exame de ressonância magnética deu falso-negativo em 8 dos 69 pacientes com derrame, um erro que foi sanado no segundo exame de ressonância.

Os médicos afirmam que sua pesquisa foi conduzida com um número muito pequeno de pacientes, e que os resultados precisam ser confirmados em testes de mais larga escala. Contudo, eles estão entusiasmados com os resultados, incluindo a eliminação nos erros dos diagnósticos e o baixo custo para o sistema de saúde: "Os exames de movimento dos olhos são basicamente gratuitos, enquanto uma ressonância magnética pode custar US$1.000,00 ou mais," diz Newman-Toker.

Vírus chinês resiste à restauração do sistema para roubar senhas de jogos

Em palestra na conferência de segurança Virus Bulletin 2009, em Genebra, na Suíça, o pesquisador antivírus da Microsoft Chun Feng explicou as técnicas de um cavalo de troia conhecido como Dogrobot. Segundo o especialista, a praga é capaz de utilizar vários meios para se esconder do usuário e também sobreviver à restauração do sistema – recurso que permite ao usuário “voltar” o sistema a um ponto anterior à infecção.

O vírus é um problema principalmente na China. Estima-se que cibercafés e lan houses chineses já teriam tido prejuízos de US$1,2 bilhão devido à ação da praga, que tenta roubar as credenciais de acesso a jogos on-line.

Os criminosos usam os dados para extorquir as vítimas ou roubar os itens, vendendo-os a outros jogadores ou sites especializados na compra e venda de itens e dinheiro virtual. Pragas especializadas em roubo de credenciais de games são muito comuns na China.

Além de sobreviver à restauração do sistema, o Dogrobot tenta inutilizar softwares de segurança usando diversas técnicas diferentes. Para se espalhar, o vírus usa uma combinação de meios, como falhas de segurança “dia zero”, cópias automáticas para dispositivos USB e o ataque conhecido como “ARP spoofing”, que funciona apenas dentro de redes locais, mas permite a infecção de outros PCs.

Vulnerabilidade crítica do Windows Vista recebe correção provisória

A Microsoft liberou esta semana uma correção temporária para o problema no compartilhamento de arquivos que permite a invasão ou infecção remota do PC. Para se proteger é necessário usar o botão “Fix It” no site de suporte da Microsoft – um recurso já conhecido para a aplicação de remendos provisórios disponibilizados pela Microsoft.

Foi criado na semana passada um código capaz de tirar proveito da vulnerabilidade – um “exploit”, no jargão de segurança de computadores. Ele permite que criminosos criem um vírus capaz de infectar o PC sem a interação ou confirmação do usuário.

O exploit foi criado pela empresa de segurança Immunity, desenvolvedora da plataforma para testes de segurança Canvas. A distribuição da ferramenta é limitada, mas especialistas envolvidos com o Metasploit, um software de função semelhante e livremente disponível, estariam perto de conseguir explorar a falha com sucesso. Se isso ocorrer, o código deverá ser colocado na web publicamente.

A Microsoft confirmou que o exploit da Immunity funciona de forma “confiável” para atacar o Windows Vista e o Windows Server 2008. Isso significa que, em tese, é possível criar uma praga digital que se espalhe entre PCs com Windows Vista e Server 2008 automaticamente, sem interação do usuário.

Se isso vier a acontecer, a situação será semelhante à do Conficker, Sasser, Blaster e outros “worms” de grande propagação. A disseminação do vírus será reduzida apenas pela incapacidade de atacar o Windows XP, que não possui o protocolo SMBv2, onde se localiza a vulnerabilidade.

Computadores que estiverem usando firewalls ou atrás de roteadores do tipo NAT (como alguns modems ADSL) não estão em risco. Quem está conectado diretamente na internet e sem proteção, no entanto, pode ser infectado facilmente, caso uma praga digital venha a ser criada.