quarta-feira, 29 de dezembro de 2010

Microsoft admite falha crítica que afeta todas as versões do Internet Explorer

A Microsoft confirmou na última quarta-feira (22/12) que todas as versões do Internet Explorer contêm uma falha crítica que pode comprometer a maquina do usuário caso ele acesse uma página infectada. Embora a empresa tenha se comprometido a corrigir o problema, a empresa não pretende liberar uma atualização de emergência.

“A vulnerabilidade não atende aos critérios que nos forçaria a lançar um update fora do cronograma (out-of-band release)”, disse a porta-voz do setor de segurança da companhia, Carlene Chmaj, a partir do blog oficial. “Ainda assim, estamos monitorando de perto a situação e, se algo mudar, nossa postura será outra”.

“Atualmente, o impacto da vulnerabilidade é limitado e não temos conhecimento de nenhum cliente que tenha sido infectado ou de algum ataque que a esteja explorando”.

A falha, no motor HTML, foi descoberta há algumas semanas pela consultoria francesa Vupen. Na última terça-feira (23/12) os pesquisadores divulgaram um vídeo, demonstrando como ela poderia ser usada por crackers de modo semelhante ao que a companhia de segurança digital McAfee já havia alertado. O código malicioso desabilitaria dois recursos de proteção – o ASLR e o DEP – e iniciaria o ataque.

Até que uma correção seja providenciada, a Microsoft pede aos que usam o IE para habilitar a ferramenta EMET – usualmente utilizada por usuários avançados - melhorando as defesas do browser. A empresa publicou, junto ao seu aviso de segurança, as instruções para completar a tarefa.

É a segunda vez que a gigante recomenda a ferramenta – cujo download está disponível em seu site. Em setembro, ela a sugeriu como modo de bloquear os ataques que exploravam vulnerabilidade o Adobe Reader.

Os usuários que utilizam IE7 ou IE8 no Windows Vista ou 7 estão menos propensos a terem suas máquinas infectadas. Segundo a Microsoft, estes navegadores incluem um recurso chamado de “Modo Protegido” que alertam os internautas antes que eles instalem, rodem ou modifiquem certas operações do sistema.

Os outros browsers mais populares – Firefox, Chrome, Safari e Opera – não possuem a falha identificada no Internet Explorer.

Fonte: IDG Now!

Biocombustíveis de celulose vencem mais um obstáculo

Um grupo internacional de cientistas anunciou ter conseguido obter geneticamente uma nova linhagem de levedura que se mostrou capaz de produzir etanol a partir do uso de mais tipos de açúcares de plantas.

Para produzir comercialmente combustíveis como o etanol, que no Brasil é derivado da cana-de-açúcar, microrganismos devem ser capazes de fermentar sacarídeos encontrados em vegetais, como glicose, xilose ou celobiose.

O problema é que a maioria dos micróbios não consegue converter todos esses açúcares em combustível que possa ser produzido em escala.

Engenharia genética

No novo estudo, a equipe de Yong-Su Jin, da Universidade de Illinois em Urbana-Champaign, expandiu a capacidade natural da levedura Saccharomyces cerevisiae de fermentar glicose ao modificar geneticamente o fungo - que também é usado na produção de pão e cerveja - para que se tornasse capaz de transportar proteínas de outro tipo de levedura, a Pichia stipitis.

Embora as duas leveduras sejam da mesma família, apenas a Pichia stipitis é capaz de fermentar a xilose, açúcar derivado de madeiras e associado à celulose.

Produtividade do etanol

A linhagem de levedura resultante se mostrou capaz de fermentar os três açúcares - glicose, xilose e celobiose - e, segundo a pesquisa, com a produção de muito mais etanol do que as linhagens naturais.

A levedura modificada também superou um problema de linhagens obtidas em pesquisas anteriores, que fermentavam açúcares pobremente mesmo na presença de glicose abundante.

Segundo os autores da nova pesquisa, os resultados deverão ajudar no desenvolvimento de biocombustíveis avançados feitos a partir de matéria orgânica.

ESA lança mapa-múndi mais preciso já feito

A Agência Espacial Europeia anunciou o lançamento de uma nova versão do seu mapa-múndi, o GlobCover, ou "mapa global de cobertura terrestre".

Segundo a agência, o novo GlobCover, que atualiza a versão original, lançada em 2005, tem a melhor resolução já obtida até hoje para um mapa dessa natureza.

O mapa-múndi foi produzido com dados coletados pelo Espectrômetro de Média Resolução do satélite Envisat durante 12 meses seguidos, de 1 de Janeiro a 31 de Dezembro de 2009. Esse espectrômetro tem uma resolução de 300 metros.

O programa utilizado para transformar os dados do espectrômetro na imagem de um mapa-múndi foi desenvolvido pelas empresas Medias France e Brockmann Consult.

Download gratuito

Esses mapas são úteis no estudo dos efeitos das mudanças climáticas, da conservação da biodiversidade e da gestão dos recursos naturais.

As legendas do mapa adotam o Sistema de Classificação de Cobertura Territorial da Organização das Nações Unidas para Agricultura e Alimentação (FAO, na sigla em inglês).

A versão anterior do mapa, o GlobCover 2005, foi baixada por cerca de 8.000 usuários.

As informações para baixar o novo GlobCover estão disponíveis, em inglês, no endereço http://ionia1.esrin.esa.int.

Holografia é produzida com elétrons

O princípio da holografia foi descoberto em 1947 pelo cientista húngaro Dennis Gábor, quando ele tentava melhorar a resolução dos microscópios eletrônicos - microscópios cujo funcionamento depende dos elétrons.

A primeira realização experimental do conceito de holografia só foi feita em meados dos anos 1960 - mas a demonstração não usava elétrons, e sim uma nova fonte de luz que acabava de ser descoberta: o raio laser.

Agora, físicos do Instituto Max Born, em Berlim, voltaram às origens e estão demonstrando que os elétrons podem de fato ser usados para gerar imagens holográficas.

Não por coincidência, um elemento essencial na nova abordagem é que os elétrons que produzem a imagem do objeto são gerados a partir do próprio objeto - usando um laser de alta potência.

Luz coerente

A holografia prática utiliza luz coerente, isto é, uma fonte de luz onde todas as ondas de luz emitidas marcham de forma coordenada.

Esta onda de luz é dividida em duas partes, uma onda de referência e uma onda objeto. A onda de referência incide diretamente sobre um detector bidimensional, por exemplo, uma chapa fotográfica. A onda objeto interage com o objeto, é refletida, e a seguir também é detectada.

A superposição das duas ondas no detector cria padrões de interferência - é nesses padrões de interferência que a forma do objeto é codificada.

O que Gábor não conseguiu fazer foi construir uma fonte coerente de elétrons. Mas isso é algo comum atualmente nos laboratórios que realizam experimentos com campos de laser de alta intensidade.

Com pulsos intensos e ultra-curtos de laser, pode-se facilmente extrair elétrons coerentes a partir de átomos e moléculas.

Esses elétrons são a base para o novo experimento de holografia à base de elétrons, que foi realizado usando átomos de xenônio (Xe).

Experiência holográfica

"Em nosso experimento, o forte campo de laser arranca elétrons dos átomos de Xe, primeiro os acelera e depois os fazer retornar. É como se alguém pegasse uma catapulta e disparasse um elétron no íon que foi deixado para trás. O laser cria a fonte de elétrons perfeita para uma experiência holográfica," explica Marc Vrakking, um dos autores do estudo.

Alguns dos elétrons se recombinam com o íon, produzindo luz na faixa do ultravioleta extremo (XUV), produzindo pulsos com duração na faixa dos attossegundos.

A maioria dos elétrons passa pelo íon, formando a onda de referência do experimento holográfico.

Alguns dos elétrons, por sua vez, refletem-se no íon, formando a onda objeto.

Usando um detector bidimensional, os cientistas puderam observar os padrões de interferência holográfica gerados pela interação da onda objeto com o potencial de Coulomb do íon.

Informação nos hologramas

O processo de ionização produz elétrons em um intervalo de tempo finito, de apenas alguns femtossegundos.

Segundo os cálculos teóricos da equipe, a dependência do tempo do processo de ionização é codificado no holograma, assim como eventuais alterações do íon entre o momento em que a ionização ocorre e o momento que a onda objeto interage com o íon.

Vrakking explica que é justamente isto que torna o experimento tão promissor para uso futuro:

"No momento, nós demonstramos que os hologramas podem ser produzidos em experimentos com lasers intensos. No futuro, nós teremos que aprender como extrair toda a informação que está contida nos hologramas. Isso poderá criar novos métodos para estudar a dinâmica dos elétrons em uma escala de tempo de attossegundos, bem como novos métodos de estudo das mudanças estruturais, dependentes do tempo, em moléculas," prevê o pesquisador.

Reator imita plantas para produzir combustível solar

Um grupo de pesquisadores norte-americanos e suíços desenvolveu um reator capaz de produzir combustível líquido que é uma boa aproximação do conceito de fotossíntese artificial.

O reator produz combustível usando a luz do Sol, dióxido de carbono e água, mais um composto chamado óxido cérico. E o combustível são hidrocarbonos, similares ao petróleo e aos bio-óleos.

A distância da fotossíntese real é gigantesca, mas a ideia de imitar a forma de conseguir energia desenvolvida ao longo de milhões de anos pela natureza parece ser um caminho mais concreto do que as "formas alternativas" já desenvolvidas pelo homem - tanto que os cientistas já falam na criação de folhas artificiais.

Produzir combustível líquido a partir da luz do Sol significa que a energia estará disponível a qualquer momento, e não apenas enquanto o Sol está brilhando. E ela pode ser facilmente transportada para ser utilizada em outro lugar.

Hidrocarbonos artificiais

O princípio de funcionamento do reator lembra com a forma como as plantas geram sua própria energia, aproveitando a energia do Sol para converter dióxido de carbono em polímeros à base de açúcar e compostos aromáticos.

Esses compostos de origem biológica podem ser transformados em combustível arrancando-se o oxigênio de suas formulações. É o que os cientistas acreditam que aconteça na geração natural dos combustíveis fósseis.

Isto também pode ser feito de forma artificial, por meio de processos de dissolução, fermentação e hidrogenação, gerando os bio-óleos.

Mas gerar os combustíveis líquidos a partir da luz do Sol ainda não pôde ser realizado com eficiência, e uma rota para os "biocombustíveis solares" continua sendo um caminho a ser desbravado.

Reator solar

Agora, William Chueh e seus colegas demonstraram um projeto de reator que se mostrou altamente promissor.

A luz do Sol concentrada aquece o óxido cérico - um óxido do metal de terras raras cério - a uma temperatura suficiente para arrancar alguns átomos de oxigênio de sua rede cristalina - o cério tem uma propensão natural a liberar oxigênio quando é aquecido e absorvê-lo quando voltar a resfriar.

Quando atinge uma temperatura adequada, água ou dióxido de carbono são bombeados para dentro do reator.

Sentindo a falta de seu oxigênio, arrancado pelo calor, o material prontamente arranca átomos da água ou do dióxido de carbono, de forma a repor seu oxigênio perdido.

O hidrogênio produzido pode ser usado para abastecer células a combustível, enquanto a combinação de hidrogênio e monóxido de carbono, mediante o uso de catalisadores adicionais, pode ser usada para criar uma espécie de gasolina sintética.

Quando o óxido de cério se resfria pela interação com a água ou com o gás, estes são drenados e o processo começa novamente.

Para otimizar a luz do Sol captada, a abertura por onde a luz entra é dotada de uma lente de quartzo e seguida por um sistema que a reflete múltiplas vezes, otimizando o aquecimento do óxido cérico.

Segundo os pesquisadores, os cilindros de óxido de cério que ficam dentro da cavidade suportam centenas de ciclos de aquecimento e resfriamento. E o cério é o elemento mais abundante na família das terras raras, o que significa que ele não é tão caro.

Conversão da energia solar

Embora o conceito seja promissor, o protótipo ainda é ineficiente, aproveitando apenas entre 0,7% e 0,8% da energia solar que entra no reator - as células solares de silício convertem até 20%, podendo chegar ao dobro disto com o uso de concentradores ópticos.

Por outro lado, as maiores perdas se dão durante a manipulação da luz solar e por falta de um isolamento mais eficiente, e não pelo princípio de funcionamento baseado no aproveitamento das propriedades do óxido de cério, que é o grande avanço científico da pesquisa.

Segundo os pesquisadores, seus cálculos indicam que é possível alcançar uma eficiência de até 19% com a solução desses "problemas de engenharia".

É hora de uma nova teoria sobre a Doença de Alzheimer

Os esforços científicos que tentam compreender a doença de Alzheimer já avançaram o máximo que podiam com base nas teorias atuais. E, como avançaram pouco, está na hora de trocar de teorias.

A opinião é do Dr. Karl Herrup, presidente do Departamento de Biologia Celular e Neurociências da renomada Universidade de Rutgers, nos Estados Unidos.

Herrup acredita que placas e emaranhados associados com a proteína beta amiloide são unicamente sintomas, e não as causas da doença.

Mas como os cientistas continuam acreditando nessa hipótese, as pesquisas têm ficado travadas e não têm dado resultados positivos.

Hipótese da cascata amiloide

A doença de Alzheimer é uma doença incurável, degenerativa e eventualmente fatal, que ataca a função cognitiva. Ela afeta mais de 26 milhões de pessoas em todo o mundo e é a forma mais comum de demência entre pessoas com mais de 65 anos.

Nas últimas três décadas, a maioria das pesquisas de Alzheimer tem sido governado pela "hipótese da cascata amiloide".

A hipótese - que sustenta que o peptídeo beta-amiloide é a chave para o surgimento e a progressão da doença - teve apelo significativo entre os cientistas porque esse peptídeo é o principal ingrediente das placas relacionadas à doença, que são comuns nos cérebros das pessoas afetadas.

Na verdade, essa correlação persistente levou os pesquisadores a gastar muitos anos e milhões de dólares à procura de como evitar a formação das placas, como forma de tratar, curar ou prevenir a doença de Alzheimer.

Nos últimos anos, entretanto, dezenas de ensaios clínicos em humanos com base nesta teoria falharam.

Nova teoria sobre Alzheimer

O Dr. Herrup sugere uma perspectiva alternativa, que ele formalizou em um artigo publicado hoje no Journal of Neuroscience.

Destacando que a idade é o fator de risco mais importante na doença, ele sugere uma nova hipótese na qual a idade é o ponto de partida.

A idade diminui a agilidade do cérebro e diminui suas respostas às mudanças. Por si sós, no entanto, as mudanças relacionadas à idade causam apenas um lento declínio "natural" na função cognitiva, afirma Herrup.

Ele postula que, embora essas mudanças possam aumentar o risco do Alzheimer, elas não causam a doença.

Herrup acredita que há três passos básicos que são necessários para que um indivíduo progrida dessa situação natural para o espectro completo dos sintomas clínicos de Alzheimer:

1. uma lesão inicial, provavelmente de origem vascular;
2. uma resposta inflamatória, que é crônica e única para a doença de Alzheimer;
3. e uma alteração celular de estado, uma porta celular biológica sem volta, que altera permanentemente a fisiologia dos neurônios e vários outros tipos de células no cérebro.

"A lesão inicial pode desencadear uma resposta protetora nas células cerebrais," afirma ele. "Mas o problema real é que, no idoso, a resposta não sabe quando parar. Ela continua mesmo após a própria lesão desaparecer. No final, o dano real é feito pela persistência da resposta, e não pela lesão em si."

Estímulo ao debate

Herrup espera que sua nova teoria estimule o debate e abra caminho para novos avanços experimentais e de diagnóstico. "Esta nova hipótese, por exemplo, enfatiza o valor das abordagens anti-inflamatórias para a prevenção da doença de Alzheimer," afirma.

Ele admite que os componentes individuais do modelo não são inteiramente novos, mas assinala que, ao reorganizar sua ordem e mudar suas prioridades, sua visão tem enormes implicações para as modernas pesquisas sobre Alzheimer.

"Minha hipótese implica que a agregação de beta-amilóide não é uma parte central da biologia da doença de Alzheimer," diz Herrup. "Ela prevê que se pode ter placas sem ter a doença de Alzheimer e que é possível ter a doença de Alzheimer sem ter as placas.

"Os pesquisadores devem ser cautelosos ao seguir estas previsões, mas desde que nós já fomos tão longe quanto podíamos com a nossa hipótese atual, talvez tenhamos chegado a um ponto onde cautela demais não é uma boa recomendação. É hora de re-imaginar a doença de Alzheimer para que possamos pensar criativamente sobre seu tratamento."

Puberdade precoce nas meninas começa a ser desvendada

Um grupo coordenado pela neurocientista brasileira Carol Elias deu um passo importante para desvendar os mecanismos bioquímicos de um fenômeno que vem alarmando os médicos: a antecipação da puberdade feminina.

Depois de quase uma década da investigação, que começou no Brasil e terminou nos Estados Unidos, Carol e sua equipe identificaram a região cerebral em que o hormônio leptina age despertando o amadurecimento sexual.

É o núcleo pré-mamilar ventral.

Hormônio da maturidade sexual

"Há um mecanismo bioquímico delicado que informa ao cérebro que o organismo está pronto para reproduzir", disse Carol, ex-professora na Universidade de São Paulo (USP) e atualmente pesquisadora na Universidade do Texas.

E quem dá esse recado ao cérebro é a leptina, hormônio secretado pelas células de gordura, mais conhecido por despertar a sensação de saciedade e reduzir a fome.

Anos atrás surgiram as primeiras pistas de que esse hormônio iniciava uma cadeia de reações químicas que levam ao desenvolvimento dos órgãos sexuais e à fertilidade.

Camundongos e seres humanos que não produzem leptina não entram na puberdade, período em que começam transformações fisiológicas que preparam o corpo para procriar.

De 1997 a 1999, período em que passou na Universidade Harvard, Carol colaborou com a identificação das regiões cerebrais que produzem receptores de leptina, proteína à qual o hormônio de mesmo nome se liga estimulando o funcionamento das células cerebrais (neurônios).

Hormônios sexuais

Entre as regiões do hipotálamo que expressam receptores de leptina, uma chamou a atenção: o núcleo pré-mamilar ventral.

Esse grupo de células, como já havia sido demonstrado por outro brasileiro, Newton Canteras, pesquisador da USP, se conecta a regiões cerebrais produtoras do hormônio liberador de gonadotrofinas, responsável por estimular a secreção de outros hormônios sexuais.

Mas a comprovação de que era esse núcleo que mediava a ação da leptina no início da puberdade levou mais tempo.

Convidada pelo neurocientista Joel Elmquist a integrar sua equipe no Texas, Carol e os pesquisadores José Donato Júnior, Roberta Cravo e Renata Frazão desenvolveram em laboratório um camundongo geneticamente modificado para, em certas condições, produzir o receptor de leptina apenas no núcleo pré-mamilar ventral.

A estratégia deu certo, relatam os pesquisadores em artigo publicado na revista Journal of Clinical Investigation.

Puberdade feminina

As fêmeas de camundongo inférteis entraram na puberdade e se tornaram capazes de procriar quando se estimulou a produção do receptor de leptina exclusivamente no núcleo pré-mamilar ventral.

"As células desse núcleo passaram a reconhecer a presença da leptina, induzindo o amadurecimento sexual", explicou Carol.

A provável explicação é que os neurônios do núcleo pré-mamilar ventral estimulam a atividade de células produtoras do hormônio liberador de gonadotrofinas que, por sua vez, induz a produção de outros hormônios sexuais.

Puberdade e obesidade

Essa cadeia de reações bioquímicas, que, por razão ainda desconhecida despertou a puberdade apenas nas fêmeas, ajuda a compreender porque uma proporção cada vez maior de meninas norte-americanas com 7 e 8 anos de idade estão entrando na puberdade, como mostrou estudo publicado em setembro na Pediatrics.

"É possível que as taxas mais elevadas de leptina em crianças obesas estejam estimulando regiões cerebrais que normalmente só seriam ativadas mais tarde", disse Carol.

"Agora que identificamos o grupo de células responsáveis por mediar a ação da leptina no início da puberdade teremos condições de desvendar os mecanismos celulares, genéticos e bioquímicos envolvidos nesta função", disse.

domingo, 26 de dezembro de 2010

REVISTAS: Fitness Magazine January 2011

Nome do Lançamento: Fitness Magazine January 2011
Tamanho: 41MB
Links: Homepage
Download: HotFile

REVISTAS: Better Homes and Gardens January 2011

Nome do Lançamento: Better Homes and Gardens January 2011
Tamanho: 40MB
Links: Homepage
Download: HotFile

REVISTAS: Skin Deep Tattoo January 2011

Nome do Lançamento: Skin Deep Tattoo January 2011
Tamanho: 28MB
Links: Homepage
Download: HotFile

REVISTAS: Motor Trend January 2011

Nome do Lançamento: Motor Trend January 2011
Tamanho: 34MB
Links: Homepage
Download: FileServe

REVISTAS: Digital Arts January 2011

Nome do Lançamento: Digital Arts January 2011
Tamanho: 24MB
Links: Homepage
Download: FileServe

REVISTAS: Develop Magazine 2011

Nome do Lançamento: Develop Magazine 2011
Tamanho: 10MB
Links: Homepage
Download: HotFile

REVISTAS: Technology Review 2011

Nome do Lançamento: Technology Review 2011
Tamanho: 20MB
Links: Homepage
Download: HotFile

sexta-feira, 24 de dezembro de 2010

FELIZ NATAL

Quero neste Natal
Desejar não somente que tenha muitas felicidades neste dia
Mas sim que Milagres te dominam,
E te faça perceber que Natal
Não está somente na virada do dia 24 de Dezembro para o dia 25,
Mas está em todos os dias do ano.

Nesta virada está apenas a concretização de todos os desejos
Feitos durante todo o ano que se passou.

A noite de Natal é fantástica
A cidade fica toda iluminada,
As pessoas sorridentes,
E em instante tudo fica em paz...
O Milagre do Natal
Está no nascimento de nosso salvador
Jesus Cristo,
Ele com toda certeza não deseja um único instante de paz,
Mas deseja que todos tenham um milagre dentro de si.
O céu se ilumina,
Em homenagem a este dia tão sagrado entre todas as famílias.
Os pedidos são de prosperidade, paz e amor...
Mas se Natal é todos os dias do ano,
Por que então deixar para desejar felicidades
Somente em um único dia destes 365???
O Milagre de Natal está no sorriso que no dia-a-dia
Encontramos nas pessoas andando nas ruas,
Nas crianças brincando,

Enfim

O Milagre Natalino está no desejo de cada um de ser feliz.
Pois Milagres existem sim,
Principalmente com tamanha benção de Deus,
Muitas Glórias, Conquistas e Emoções podem ser desejadas
Pois o Natal do dia 25 está chegando,
Faça seus desejos e acredite em todos eles,
Pois estão prestes a se concretizar nesta noite especial...

FELIZ NATAL!!!
E MUITA PROSPERIDADE NESTE DIA
E EM TODOS OS DIAS DO ANO
QUE ESTÁ PRESTES A NASCER!!!

Cinco dicas para evitar que suas contas na Internet sejam invadidas

Os alemães tem até uma palavra para isso: Schadenfreude, sentir prazer pela má sorte alheia. E eu tenho de admitir que senti certo deleite quando a Gawker, uma das maiores e mais convencidas redes de sites do mundo, sofreu um ataque hacker. Ao mesmo tempo, no entanto, me preocupei com as mais de 1,2 milhão de pessoas que tiveram suas senhas roubadas e compartilhadas na Internet.

Pelo menos, podemos ver esse tipo de incidente do mesmo modo que o presidente Obama costuma enxergá-los, como um “momento de aprendizado”. Aliás, por falar nele, duas das contas reveladas foram associadas com o domínio da Casa Branca, o whitehouse.gov.

De toda forma, eis algumas lições que podemos tirar do oportuno ataque à Gawker:

Não utilize a mesma senha para diversos sites
Se a pior coisa que acontecesse aos usuários da Gawker fosse se deparar com comentários feitos por outras pessoas a partir de suas contas, ninguém se importaria muito. O problema é que os invasores começaram a testar as senhas obtidas em diversos serviços, como redes sociais, e-mail ou internet banking.

Mais grave ainda é descobrir o quão simples a maioria dos códigos são. O que nos leva à segunda lição.

Use senhas complexas
Com os dados em mãos, foi fácil descobrir qual o código mais usado pelos membros da Gawker: “123456”, brilhantemente formulado por 2516 internautas. Em seguida vem o “password”, e mais 2188 usuários. Nunca é tarde para lembrar que as melhores senhas contêm letras, maiúsculas e minúsculas, números e sinais gráficos.

Cheque sua conta bancária regularmente
Se alguma senha sua for descoberta e se você a usa também em sua conta de internet banking, o balanço ao final do mês não será nada agradável. Por mais que a maioria dos bancos e companhias de cartão de crédito notifique o cliente em caso de movimentação financeira inusitada, isso não é uma regra.

Não se esqueça também que alguns delinquentes em vez de sacar uma grande quantia, vão roubando de pouco em pouco, a fim de não serem descobertos. De 100 em 100 reais, o estrago também pode ser grande.

Gerenciadores de senha
Pessoalmente, gosto do Roboform, que funciona nos browser mais populares. Outra alternativa é o LastPass. Ao utilizar esse programas, no entanto, uma senha mestra se faz necessária; esta deverá ser muito forte, pois, uma vez descoberta, dará acesso a todas as outras.

A maioria dos navegadores também dispões de um gerenciador de códigos, mas, em geral, os recursos são bem limitados em comparação aos dois programas citados.

Cuidado com os computadores públicos
Ao usar o PC de um café ou de um hotel, jamais esqueça de dar logoff no serviço utilizado. É interessante fechar o navegador também, ou pelo nenos as abas abertas durante a navegação.

Fonte: IDG Now!

Saiba quais são as fraudes mais comuns na internet no fim de ano

À medida que a Internet cresce, a popularidade das compras on-line também aumenta nos sites de e-commerce.

As estimativas mais recentes na América Latina indicam que devem ser gastos cerca de US$ 22 milhões em 2010 com o comércio eletrônico – valor que especialistas esperam que seja elevado até 58% em 2011 e, que está chamando atenção de criminosos cibernéticos em todo o mundo.

Pensando na segurança do internauta, a equipe global de analistas e pesquisadores da Kaspersky Lab preparou uma lista com as principais ameaças e fraudes utilizadas no fim de ano, além de dicas para o usuário efetuar as compras.

Ameaças mais comuns

Engenharia Social
Essa técnica usa, normalmente, o senso de urgência para atrair a atenção do internauta, oferecendo, por exemplo, uma grande oferta por tempo limitado. Essas promoções falsas podem levar a contaminações geradas por websites e e-mails inescrupulosos; links infectados; e até mesmo mensagens maliciosas do Twitter.

Phishing
E-mails supostamente de organizações legítimas solicitando doações a pessoas carentes durante as festividades ou indicando produtos para as compras de final de ano. Na verdade, os links dos e-mails levam a websites maliciosos e coletam as informações pessoais e de cartões de crédito do remetente.

Cupons de Natal
Os criminosos estão usando websites e e-mails maliciosos com cupons promocionais falsos para roubar o dinheiro dos usuários que buscam economizar nas compras de fim de ano.

Resultados de busca infectados
Também conhecido como Blackhat SEO. Os fraudadores manipulam as ferramentas de busca para que os links maliciosos sejam os primeiros na lista de resultados. Eles levam a vítima a páginas que infectam o computador para roubar seu dinheiro e/ou sua identidade.

Fraudes em redes sociais
Mensagens postadas automaticamente no perfil do usuário por amigos que tiveram as contas comprometidas ou recados particulares que pareçam suspeitos levam, frequentemente, a sites maliciosos ou a softwares projetados para roubar dinheiro. Com o uso difundido das redes como Facebook e Twitter, esse tipo de ameaça está se tornando cada vez mais comum. O Koobface é um tipo particular de ameaça com foco nas redes sociais, com mais de 1.000 versões diferentes desse malware detectados.

Os alvos favoritos dos criminosos cibernéticos

Como sempre, o alvo é o dinheiro do internauta. Segundo a pesquisa mais recente da Kaspersky Lab, os criminosos cibernéticos tentam enganar as pessoas ao utilizarem nomes confiáveis de lojas virtuais, companhias aéreas, bancos, sistemas de cartões de crédito ou serviços de entrega conhecidos para distribuir softwares maliciosos, tais como Trojan-Banker.Win32, Trojan-Spy.Win32 ou Trojan-PSW.Win32, produzidos na América Latina. Esses malwares são capazes de roubar todos os tipos de informações sigilosas e não apenas os dados financeiros da vítima.

Outra fraude comum envolve as ofertas de iPhones e outros smartphones de forma gratuita e de recarga para celular, que são publicadas como sendo de operadoras de telefonia móvel oficiais. Essa é outra tendência típica da América Latina. Ao contrário do resto do mundo, os criminosos cibernéticos latino-americanos preferem táticas de engenharia social ao invés de explorar vulnerabilidades de softwares. Isso inclui ataques direcionados, via MSN ou e-mail, por exemplo, vindo de amigos que tiveram as contas controladas pelos cybercriminosos. Esses ataques levam a websites maliciosos, que fazem o download de trojans bancários para roubar as informações financeiras das vítimas.

Dicas de segurança

Antes de efetuar as compras:

1. Saiba o que e de quem você está comprando. Dê preferência a websites conhecidos, de boa reputação, confiáveis e, que tenham números de atendimento ao cliente e endereço físico. Sempre fique atento ao comprar em novos locais.

2. Mantenha o seu computador e solução antivírus atualizados e seguros. As ameaças explicadas acima ocorrem normalmente sem serem detectadas e acontecem em seu navegador. Portanto, atuam facilmente se não houver a proteção correta. Certifique-se também de usar sempre a última versão dos programas, incluindo navegador e sistema de operacional.

3. Esteja atento ao receber cupons eletrônicos que você não tenha solicitado. Isso pode ser uma tática dos criminosos cibernéticos para roubar seu dinheiro, sua identidade ou ambos.

4. Sempre siga a regra de ouro da compra on-line: quando algo parece muito bom para ser verdade, desconfie. Evite ofertas e promoções irreais.

Ao fazer suas compras:

1. Sempre digite o nome do website que você quer visitar na barra de endereço do navegador.

2. Sempre vá diretamente ao endereço real do website das organizações de caridade para as quais deseja fazer uma doação. Nunca clique em links fornecidos em e-mails ou em resultados de ferramentas de busca.

3. Certifique-se de que sua transação está criptografada e que a sua privacidade está protegida. Muitos sites usam o protocolo SSL (Secure Sockets Layer) para proteger as informações. Verifique a URL do seu navegador para garantir que ele começa por "https://" e tenha o ícone de um cadeado fechado do lado direito da barra de endereço ou na parte inferior da janela. De acordo com as tendências mais recentes de malware, isso não é garantia, mas é um indicador útil sobre a segurança do site.

4. Utilize um cartão de crédito exclusivo para compras on-line.

5. Utilize senhas difíceis e não utilize as mesmas palavras-chaves para todos os websites. Evite utilizar termos e frases comuns.

6. Para evitar o roubo de informações pessoais em compras tradicionais, mantenha sempre o cartão de crédito próximo a você e utilize caixas eletrônicos conhecidos e de confiança.

Depois de fazer suas compras:

1. Verifique seus extratos de banco e de cartões de crédito para conferir se há erros e transações suspeitas.

2. Utilize um serviço de monitoramento de crédito para alertá-lo sobre possíveis problemas.

Fonte: G1

Construído transístor spintrônico semicondutor

Efetivamente conectando dois fenômenos distintos no campo da spintrônica, cientistas criaram um novo componente semicondutor que lhes permite usar o efeito Spin Hall dentro de um transístor de spin.

O experimento representa um verdadeiro marco, o ponto culminante de mais de 20 anos de pesquisas na área - os transistores spintrônicos foram propostos em 1989 por Supriyo Datta e Biswajit Das.

Este é o primeiro transístor de efeito de campo (FET) spintrônico completo e realístico, capaz de operar em altas temperaturas, e que ainda incorpora uma porta lógica AND.

Transistores spintrônicos

Desde a invenção do transístor, há mais de 60 anos, este componente básico de toda a eletrônica e dos computadores funciona exatamente da mesma maneira: pela manipulação de correntes elétricas e detecção de cargas dentro de materiais semicondutores.

A tecnologia tem permitido encolher continuamente os transistores eletrônicos, mas isso só faz aproximá-los cada vez de seus limites físicos.

Os especialistas acreditam que está mais do que na hora de mudar para um novo princípio de funcionamento, em que os transistores não dependerão mais do fluxo contínuo de uma enxurrada de elétrons, como acontece na eletrônica atual.

Entram em cena os transistores spintrônicos, em que cada um lida apenas com a propriedade quântica do spin de um único elétron - veja mais na reportagem Cientistas preveem novo estado da matéria em semicondutores.

Spin em estado sólido

Os efeitos Spin Hall ocorrem quando uma corrente elétrica faz com que um grupo de elétrons com spins opostos mova-se lateralmente através da corrente.

Contudo, embora o efeito Spin Hall venha sendo intensamente estudado nos últimos anos, gerá-lo no interior de um componente de estado sólido vinha se mostrando um desafio difícil de ser superado.

Foi o que fizeram Jörg Wunderlich e seus colegas de uma equipe que reúne cientistas checos, norte-americanos e ingleses.

Até agora, toda a pesquisa em torno dos efeitos Spin Hall vinha se mantendo separada dos chamados transistores de spin, deixando o campo da spintrônica como uma área dividida - veja também Spintrônica totalmente elétrica é demonstrada pela primeira vez.

Agora, em um artigo publicado na revista Science, os pesquisadores descreveram o seu componente não-magnético que injeta opticamente uma corrente de spin dentro de um transístor.

"Nós combinamos as duas rotas construindo um transístor de efeito Hall inteiramente semicondutor. O dispositivo utiliza o transporte difuso e funciona sem corrente elétrica na parte ativa do transístor. Nós demonstramos o spin e uma lógica em um canal semicondutor com duas portas," afirmam eles.

Transístor de spin

Para observar a manipulação elétrica e a detecção dos spins, a equipe construiu um fotodiodo planar - normalmente se usam fontes de luz polarizadas circularmente - colocado ao lado do canal do transístor.

Ao iluminar o diodo, eles injetaram elétrons foto-excitados no canal do transistor - normalmente se injetam elétrons polarizados pelo spin. A aplicação de tensão sobre os eletrodos da porta de entrada permite controlar os spins por meio dos efeitos Spin Hall.

São também esses efeitos os responsáveis pelo surgimento de tensões elétricas transversais no dispositivo, que representam o sinal de saída, dependentes da orientação local dos spins dos elétrons no canal do transístor.

Amplificador de spin

O componente representa um novo tipo de transístor de spin, que poderá ser usado para explorar o efeito Spin Hall e outros fenômenos em uma nova geração de dispositivos mais rápidos e com consumo de energia infinitamente menor do que os atuais.

"Nosso estudo mostra a utilidade do efeito spin Hall em um dispositivo microeletrônico, demonstra o transístor de spin com detecção elétrica diretamente ao longo do canal semicondutor, e fornece uma ferramenta experimental para explorar o efeito spin Hall e os fenômenos de precessão do spin em uma camada semicondutora eletricamente ajustável," concluem eles.

O transístor spintrônico também representa a realização de um polarímetro controlável de estado sólido, capaz de converter a polarização da luz em sinais elétricos.

O próximo passo rumo ao uso prático dos transistores spintrônicos é a construção de um amplificador de spin - os transistores eletrônicos são capazes de amplificar as correntes elétricas.

Termina construção de observatório nas profundezas da Antártica

Depois de 10 anos de planejamento, testes de equipamentos e construção, está terminado o Observatório de Neutrinos IceCube.

Localizado nas profundezas do Pólo Sul, o observatório foi construído para estudar partículas subatômicas chamadas neutrinos, especialmente os neutrinos de alta energia que atravessam a Terra, fornecendo informações sobre eventos cósmicos distantes como supernovas e buracos negros.

Observatório do gelo

Mas a diferença do IceCube em relação aos telescópios espaciais e outros observatórios voltados para o estudo das partículas cósmicas é radical.

Em vez de uma gigantesca lente, ou de alguma espécie de antena dirigida para os céus, o observatório IceCube é formado por longas cordas, cada uma contendo 60 sensores ópticos, mergulhados em furos que atingem até 2,5 km de profundidade no gelo eterno da Antártica.

Foram perfurados 86 buracos, que agora contêm 5.160 sensores ópticos, cobrindo um quilômetro cúbico nas proximidades da Estação Amundsen-Scott, no Pólo Sul.

Nas profundezas geladas, escuras e silenciosas do gelo antártico, os sensores do IceCube foram projetados para captar os minúsculos flashes produzidos quando os neutrinos chocam-se com os núcleos atômicos das moléculas de água do gelo.

As cordas com os sensores foram colocadas em profundidades entre 1.450 e 2.450 metros - nessas profundidades, o gelo é absolutamente escuro, já que não recebe nenhuma luz, mas é opticamente ultratransparente.

Origem dos neutrinos

Os cientistas acreditam que alguns neutrinos vêm do Sol, enquanto outros vêm de raios cósmicos que interagem com a atmosfera da Terra ou de fontes astronômicas, como a explosão de estrelas na Via Láctea e em galáxias distantes.

Trilhões de neutrinos atravessam o corpo humano a cada segundo, mas eles raramente interagem com a matéria normal - os cientistas calculam que um neutrino pode atravessar um cubo de um ano-luz de lado feito de chumbo sem se chocar com nenhum átomo.

É por isso que o tamanho do observatório é tão importante: é necessário aumentar muito a possibilidade de colisões para que apenas algumas delas sejam detectadas pelos sensores.

Além das 86 cordas, cada uma com seus 60 sensores mergulhados no gelo, há quatro sensores na superfície para cada uma das cordas.

Furadeira de água quente

A construção do IceCube exigiu a idealização de uma furadeira especial, à base de água quente, que é capaz de penetrar mais de dois quilômetros de profundidade no gelo em apenas dois dias, fazendo um buraco perfeito e absolutamente limpo.

O equipamento, que consome 4,8 megawatts, foi projetado e construído por engenheiros da Universidade de Wisconsin-Madison, nos Estados Unidos, que lidera o projeto.

Astrofísica dos neutrinos

Na década de 1950, Frederick Reines, ganhador do Nobel de Fisica, e outros físicos de partículas, perceberam que os neutrinos poderiam ser usados como mensageiros astronômicos.

Ao contrário da luz, os neutrinos atravessam a maior parte da matéria, o que os torna uma sonda única para os processos mais violentos do Universo, incluindo as estrelas de nêutrons e os buracos negros.

Os neutrinos que o IceCube é capaz de detectar têm energias muito superiores aos produzidos pelos aceleradores artificiais.

Ao contrário de outros grandes projetos científicos, o IceCube começou a produzir resultados científicos antes de estar pronto - veja Telescópio do gelo detecta padrão inexplicável de raios cósmicos.

Para conhecer outra iniciativa igualmente exótica para tentar capturar neutrinos e tentar iniciar para valer o campo da astrofísica dos neutrinos, veja a reportagem Físicos vão procurar matéria escura dentro de mina subterrânea.

Biocurativo usa própolis como cicatrizante e antimicrobiano

Um dos desafios dos profissionais envolvidos com a recuperação de pacientes com queimaduras é abreviar o tempo de internação para evitar complicações infecciosas.

O uso de biocurativos, produzidos a partir de celulose bacteriana - que possibilita a regeneração mais rápida da pele -, é uma das alternativas promissoras.

Pesquisadores do Instituto de Química da Universidade Estadual Paulista (Unesp), em Araraquara, em parceria com a empresa Apis Flora, de Ribeirão Preto, desenvolveram um biocurativo cicatrizante e antimicrobiano à base de celulose bacteriana e extrato de própolis.

Própolis

O produto foi testado em laboratório com ótimos resultados. "O objetivo do biocurativo, feito em forma de película, é atenuar o tempo de tratamento e a dor de pacientes que sofreram queimaduras de primeiro e de segundo graus ou que possuam feridas crônicas", disse Hernane Barud, coordenador da pesquisa.

Os resultados obtidos até agora mostram alto grau de eficiência do produto, principalmente na prevenção do crescimento microbiano e na liberação sustentada de própolis.

De acordo com Barud, a novidade do produto é o aprimoramento da celulose bacteriana com a incorporação de extrato de própolis, insumo farmacêutico que já fora avaliado quanto à eficácia pré-clínica e clínica em queimados por Andresa Berretta, pesquisadora responsável da Apis Flora.

"A própolis é um material resinoso e balsâmico obtido pelas abelhas que, associada à membrana, produz uma ação cicatrizante e antimicrobiana. Além de regenerar a pele, o biocurativo consegue matar as bactérias que surgem junto com os ferimentos", explicou o pesquisador, que concluiu recentemente seu doutorado no Instituto de Química da Unesp de Araraquara sobre Materiais Multifuncionais Baseados em Celulose Bacteriana.

Natureza padronizada

A Apis Flora tem patente para o extrato padronizado de própolis e, atualmente, o grupo prepara nova solicitação para o biocurativo com própolis. "Não é qualquer extrato de própolis que apresenta os resultados, mas o que a empresa desenvolveu, avaliou e depositou o pedido de patente", ressaltou Barud.

Segundo Andresa, quando se trabalha com derivados naturais a reprodutibilidade de lote a lote é indispensável para se obter medicamentos. "Nosso grupo já avaliou essas características e tem condições de obter industrialmente lotes reprodutíveis a fim de se registrar um medicamento nos órgãos reguladores", disse.

A membrana de celulose é produzida pela bactéria Acetobacter xylinum, encontrada principalmente nas frutas em decomposição."A vantagem da celulose bacteriana, principalmente a produzida pela A. xylinum, é a elevada resistência mecânica conferida pela rede tridimensional formada por nanofibras de celulose", explicou.

Com o novo biocurativo o paciente em tratamento poderá desempenhar atividades corriqueiras como tomar banho ou ficar exposto ao sol. "Como o produto é impermeável, ele funciona como uma barreira bacteriológica, sem impedir que o ferimento respire", disse.

Monitoramento da cicatrização

Barud acrescenta ainda que, pela transparência e por aderir com facilidade ao leito da ferida, a película possibilitará o acompanhamento constante da cicatrização. Um dos problemas no tratamento de queimados é que o curativo convencional pode provocar lesões todas as vezes que é removido.

"O novo biocurativo poderá ser colocado diretamente na ferida sem necessidade de troca. Além disso, conseguimos desenvolvê-lo com liberação sustentada, ou seja, ele libera própolis lentamente", disse.

A próxima etapa da pesquisa será o teste em animais. Depois de superada essa fase, o biocurativo será testado em humanos. "A meta é produzir o produto em larga escala. A previsão é que dentro de dois a três anos ele seja comercializado", disse Barud.

Participam também da pesquisa os professores Younés Messaddeq e Sidney José Lima Ribeiro, do Instituto de Química da Unesp de Araraquara, além de Andresa Aparecida Berretta, coordenadora de pesquisa na empresa Apis Flora.

Brasileiros desenvolvem novo gel para tratar câncer de pele

Uma nova formulação química adaptada à terapia fotodinâmica foi criada para tratar, de forma menos agressiva, o melanoma maligno - tipo de câncer de pele com pior prognóstico, devido à sua elevada probabilidade de causar metástases.

A formulação está sendo desenvolvida pelos pesquisadores Paula Aboud Barbugli e Antonio Claudio Tedesco, da Faculdade de Ciências Farmacêuticas (FCFRP) da USP, e visa combater a doença sem causar grandes efeitos colaterais e prejuízos estéticos.

Atualmente, existem poucos tratamentos efetivos para o tratamento do melanoma.

Os pacientes com este tipo de câncer normalmente são submetidos à tratamentos cirúrgicos associados à radioterapia e quimioterapia.

Com a evolução da doença e o surgimento de metástases a probabilidade de cura e remissão da doença são muito remotas.

Terapia fotodinâmica

As pesquisas de Paula revelam resultados positivos na eliminação das células de melanoma maligno após o tratamento de Terapia Fotodinâmica (FTD).

O estudo trabalhou na criação de uma formulação com o fármaco Ftalocianina de Cloroalumínio capaz de induzir a morte de células malignas em mais de 90% após a irradiação com laser em comprimento de onda específico.

"A terapia fotodinâmica é uma modalidade terapêutica seletiva e não invasiva, que age diretamente sobre a pele do paciente. O fármaco é administrado e após algumas horas ocorre a irradiação com luz laser somente no local do tumor. Esta técnica já vem demonstrando excelentes resultados clínicos no tratamento de tumores de pele do tipo não melanoma, agora, comprovamos que a terapia também é capaz de surtir efeito em células de melanoma em fase avançada de progressão da doença", afirma a pesquisadora.

Segundo Paula, a ftalocianina foi "encapsulada em lipossomas", o que permite sua administração em condições fisiológicas. Ou seja, apto para a aplicação em pacientes tanto por via endovenosa (injetada em veias) como por uso tópico (colocando os lipossomas em um gel para aplicá-lo sobre a pele).

Gel e laser

Testes in vitro, realizados na primeira fase da pesquisa, com diferentes modelos celulares - do tipo célula padrão e do tipo tridimensionais, desenvolvidos a partir de uma matriz de colágeno e fibroblastos - com diferentes fases de progressão do melanoma, demonstraram resultados positivos em relação ao tratamento.

"O próximo passo, é buscar parcerias para realizar estudos pré-clínicos e clínicos que viabilizem a implementação da técnica", relata a pesquisadora, que ressalta, "estudos in vivo em animais possuem boas perspectivas de resposta ao tratamento do melanoma humano, com possibilidades de futuras aplicações clínicas."

Caso o método obtenha respostas positivas em estudos in vivo, o fármaco poderá ser aplicado em gel sobre a pele e irradiado por um laser. "Será uma terapia localizada que não causará nenhum efeito colateral, como a radioterapia e a quimioterapia, e nenhum prejuízo estético oriundo de cirurgias", avisa Paula.

quinta-feira, 23 de dezembro de 2010

Cientistas detectam transição de fase da luz

Quando um feixe de laser é intenso o suficiente, ele pode interagir com o ar ao seu redor de formas que geram efeitos surpreendentes.

De acordo com simulações de computador, publicadas em um artigo na Physical Review Letters, o feixe pode se comportar como um gás de partículas quânticas (férmions) ou como uma gota de líquido - e alternar entre os dois conforme sua intensidade aumenta.

A observação dessa "transição de fase da luz" em laboratório poderá ajudar os pesquisadores a confirmar seu entendimento do comportamento dos lasers de alta intensidade no ar, que eles esperam poder usar para melhorar a transmissão de sinais através de longas distâncias.

Luz autofocalizada

Uma fibra óptica confina a luz em seu interior em parte porque seu índice de refração interno - o fator pela qual ela retarda a luz em comparação com o vácuo - é maior do que o índice de refração do material do revestimento externo da fibra.

Um feixe de luz muito intenso propagando-se através de um material pode fazer algo semelhante: ele pode alinhar e distorcer as moléculas vizinhas, tornando o índice de refração maior no centro do feixe do que em suas bordas, o que impede que a luz se espalhe enquanto viaja.

A possibilidade de enviar esse tipo de pulso de laser "autofocalizado" a grandes distâncias pode ser muito importante para aplicações de sensoriamento remoto, como no LIDAR (Light Detection And Ranging), que usa a luz do laser da mesma forma que o radar usa as ondas de rádio.

Sólitons

Mas investigar os detalhes das interações entre a luz intensa e os gases atmosféricos tem-se mostrado um desafio experimental.

Em 2009 uma equipe da Universidade de Bourgogne, na França, conseguiu medir os índices de refração no nitrogênio, no oxigênio e no ar, para um laser infravermelho de alta intensidade.

Eles descobriram que, conforme a intensidade do laser aumenta, o índice de refração primeiro se eleva, mas depois diminui rapidamente acima de uma intensidade de algumas dezenas de terawatts por centímetro quadrado.

"Nós nos inspirados nesses resultados", conta Daniele Tommasini, da Universidade de Vigo, na Espanha. Em sua pesquisa anterior, Tommasini e seus colegas mostraram teoricamente que esse tipo de dependência da intensidade levaria a algo mais do que simplesmente uma luz autofocalizada, que mantém a luz confinada em uma distância limitada.

Um pulso de luz pode manter uma forma fixa em todas as direções, como ocorre com os chamados sólitons.

Agora, as novas medições deram à equipe a chance de usar parâmetros experimentais reais em seu modelo.

Luz gasosa e luz líquida

Os cientistas ficaram surpresos ao descobrir que, dependendo da intensidade da luz, os sólitons assumem formatos absolutamente diferentes: um pulso de alta intensidade gera um sóliton com intensidade uniformemente distribuída em toda a sua seção transversal, enquanto um pulso de menor intensidade gera um sóliton com alta intensidade no centro do pulso e um gradual declínio em direção às bordas.

A equipe descreve esses estados como tendo uma "pressão" efetiva para fora - uma tendência a se espalhar por causa dos efeitos ópticos padrão - que é exatamente cancelada por sua interação com o gás.

Para os pulsos de alta intensidade, a pressão e a intensidade da luz são matematicamente análogas à pressão e densidade de uma gota de líquido.

A luz é espremida em uma distribuição uniforme com uma fronteira nítida, de forma semelhante à maneira como a tensão superficial de uma gota líquida mantém uma borda bem definida.

Por outro lado, para os pulsos de menor intensidade, a analogia matemática é com um gás de férmions sem carga. Essas partículas, ao contrário dos fótons, repelem-se mutuamente por causa do princípio da exclusão de Pauli.

A equipe já havia explorado a "luz líquida" em um trabalho anterior, mas a idéia da luz fermiônica é nova.

Transição de fase da luz

Intrigados com a possibilidade de forçar uma transição de fase entre essas duas formas estáveis de luz, eles simularam a focalização de uma grade de "filamentos Fermi de luz" em um único feixe.

Eles descobriram que os filamentos colapsam em um único sóliton "do tipo líquido", de forma muito parecida com gotas coalescendo.

Yuri Kivshar, da Universidade Nacional Australiana, achou a previsão do comportamento de dois tipos de luz "realmente surpreendente", embora ele saliente que observar a transição da luz fermiônica para a luz líquida pode ser algo difícil de fazer no laboratório.

Ainda assim, Bruno Lavorel, membro da equipe experimental, "concorda fortemente" com Tommasini e seus colegas que a transição prevista pode servir como um teste experimental da compreensão atual do comportamento da luz de alta intensidade no ar.

Exoesqueleto robótico melhora controle de equipamentos pelo cérebro

Diversos tipos de interfaces cérebro-máquina estão sendo desenvolvidos para ajudar pessoas paralisadas a comandarem equipamentos e a se comunicarem usando apenas seus pensamentos.

Agora, um grupo de pesquisadores da Universidade de Chicago, nos Estados Unidos, descobriu que é possível melhorar muito o rendimento das interfaces neurais já disponíveis sem qualquer modificação na própria interface, alterando somente o dispositivo robótico a ser controlado.

Feedback sensorial

O ganho de rendimento foi obtido dotando o braço robótico de "feedback sensorial", por meio do qual o dispositivo retorna ao usuário um estímulo que lhe permite "sentir" o objeto tocado.

Os dispositivos que traduzem a atividade do cérebro para controlar o movimento de um cursor de computador ou de um braço robótico já foram testados com sucesso em seres humanos.

Mas, nesses primeiros sistemas, a visão é a única ferramenta que o usuário pode usar para controlar o movimento.

No experimento agora realizado, os pesquisadores adicionaram um braço robótico - mais propriamente, um exoesqueleto - que também se move em resposta aos comandos cerebrais emitidos por meio da interface neural.

Como, para mexer o cursor e atingir o alvo na tela, o usuário na verdade pensa em mover o braço, o movimento real do braço paralisado, induzido pelo exoesqueleto, dá ao cérebro uma informação sinestésica sobre o movimento e a posição do braço no espaço.

Exoesqueleto robótico

Testada em macacos, a mesma interface cérebro-máquina deu resultados significativamente superiores com o braço robótico "dotado de sentido", em comparação com um braço robótico comum.

"Muitos pacientes portadores de deficiência motora podem ter um feedback sensorial parcial," afirma Nicholas Hatsopoulos, coautor do estudo. "Isso nos fez pensar que talvez pudéssemos utilizar esta forma natural de feedback com os 'robôs de vestir' para fornecer esse tipo de feedback."

Os macacos controlavam um cursor na tela do computador sem movimentar ativamente os braços, usando apenas a interface cerebral, que traduz a atividade no córtex motor primário do cérebro em movimentos do cursor.

Ao usar um exoesqueleto robótico que movimentava o braço do macaco em conjunto com o cursor, o controle do macaco sobre o cursor melhorou, atingindo os alvos mais rapidamente e seguindo caminhos mais retos.

"Nós observamos uma melhoria de 40 por cento no controle do cursor quando o exoesqueleto robótico movia os braços dos macacos," disse Hatsopoulos. "Isso pode ser muito significativo para as atividades diárias a serem realizadas por um paciente paralítico que receba um sistema deste tipo."

Recuperando o movimento

O ganho de desempenho foi obtido sem qualquer alteração na própria interface neural, que é de longe a parte do equipamento mais sensível e que tem imposto as maiores dificuldades de desenvolvimento.

"Eu acredito que todos os componentes estão aqui, não há nada nos retendo conceitualmente," disse Hatsopoulos. "Acho que usar estes robôs de vestir e controlá-las com o cérebro é, na minha opinião, a abordagem mais promissora para ajudar as pessoas paralisadas a recuperar a capacidade de se mover."

Recentemente um grupo de pesquisadores brasileiros desenvolveu um protocolo para interpretar pensamentos, em um feito que terá grande impacto para o futuro das interfaces cérebro-máquina.

Matéria e antimatéria podem ser criadas do nada

Sob as condições adequadas - que incluem um feixe de laser de ultra-alta intensidade e um acelerador de partículas de dois quilômetros de extensão - pode ser possível criar algo do nada.

É o que garante Igor Sokolov e seus colegas da Universidade de Michigan, nos Estados Unidos.

O grupo desenvolveu novas equações que descrevem como um feixe de elétrons de alta energia, combinado com um intenso pulso de laser, pode rasgar o vácuo, liberando seus componentes fundamentais de matéria e antimatéria, e desencadear uma cascata de eventos que gera pares adicionais detectáveis de partículas e antipartículas.

Criar matéria do nada

Não é a primeira vez que cientistas afirmam que um super laser pode criar matéria do nada. De um nada que não é exatamente ausência de tudo, mas uma sopa fervilhante de ondas e campos de todos os tipos, onde partículas virtuais surgem e desaparecem o tempo todo.

Em 2008, um artigo publicado na revista Science descreveu como a matéria se origina de flutuações do vácuo quântico.

"Agora nós pudemos calcular como, a partir de um único elétron, podem ser produzidas várias centenas de partículas. Acreditamos que isso acontece na natureza, perto de pulsares e estrelas de nêutrons," afirma Igor Sokolov, um dos autores do estudo.

Foi um grupo de brasileiros que demonstrou recentemente que uma estrela de nêutrons pode acordar o vácuo quântico.

O que é o nada?

Na base de todos estes trabalhos está a idéia de que o vácuo quântico não é exatamente o nada.

"É melhor dizer, acompanhando o físico teórico Paul Dirac, que um vácuo, ou um nada, é a combinação de matéria e antimatéria - partículas e antipartículas. Sua densidade é tremenda, mas não podemos perceber nada delas porque seus efeitos observáveis anulam-se completamente," disse Sokolov.

Em condições normais, matéria e antimatéria destroem-se mutuamente assim que entram em contato uma com a outra, emitindo raios gama, que já se imaginou aproveitar para construir um laser de raios gama.

"Mas sob um forte campo eletromagnético, este aniquilamento, que tipicamente funciona como um ralo de escoamento, pode ser a fonte de novas partículas," explica John Nees, coautor do estudo. "No curso da aniquilação, surgem fótons gama, que podem produzir elétrons e pósitrons adicionais."

Um fóton gama é uma partícula de luz de alta energia. Um pósitron é um anti-elétron, uma partícula gêmea do elétron, com as mesmas propriedades, mas com carga positiva.

Reação em cadeia

Os que os cientistas calculam é que os fótons de raios gama produzirão uma reação em cadeia que poderá gerar partículas de matéria e antimatéria detectáveis.

Em um experimento, preveem eles, um campo de laser forte o suficiente irá gerar mais partículas do que as injetadas por meio de um acelerador de partículas.

No momento, não existe nenhum laboratório que tenha todas as condições necessárias - um super laser e um acelerador de partículas - para testar a teoria.

Mas, para Sokolov, o tema já é fascinante o suficiente do ponto de vista filosófico.

"A questão básica do que é o vácuo, o que não é o nada, vai além da ciência," afirma ele. "Ela está profundamente incorporada não apenas nos fundamentos da física teórica, mas também da nossa percepção filosófica de tudo - da realidade, da vida, e até mesmo da questão religiosa sobre se o mundo poderia ter vindo do nada."

Recentemente, físicos do LHC conseguiram capturar antimatéria pela primeira vez - veja também CERN dá mais um passo no estudo da antimatéria.

Tapete da invisibilidade esconde objetos visíveis a olho nu

Os fãs de Harry Potter adorariam ter seu próprio manto da invisibilidade. Já os fãs de Aladim talvez preferissem um tapete voador.

Já o Dr. Baile Zhang e seus colegas do MIT de Cingapura misturaram tudo e criaram uma espécie de tapete da invisibilidade - na verdade eles o chamam de "carpete da invisibilidade".

Invisibilidade ao natural

Mas há algo de mais significativo neste feito, que marca mais um capítulo na impressionante história do desenvolvimento da invisibilidade óptica, que a maioria dos físicos dizia ser impossível até poucos anos atrás.

Sempre que se fala em invisibilidade, um outro termo necessariamente aparece associado: metamaterial. Os metamateriais são materiais artificiais, geralmente estruturas em formatos complexos, capazes de lidar com a luz de forma não usual.

Como são sintéticos e complicados, nem sempre é fácil fabricar os metamateriais, e sua própria estrutura impõe restrições à funcionalidade dos mantos de invisibilidade criados com eles.

Mas o Dr. Zhang decidiu usar um material natural, um cristal chamado calcita, muito usado em óptica. E, por usar um material natural, o manto de invisibilidade de calcita é muito mais fácil de fabricar e muito mais barato.

De certa forma, a calcita faz alguns "malabarismos" com a luz, algo que tem sido creditado apenas aos metamateriais: por exemplo, suas propriedades ópticas dependem da direção em que a luz passa através dela.

Tapete da invisibilidade

Usando técnicas tradicionais de construção de lentes, os pesquisadores usaram dois cristais de calcita para criar um tapete de invisibilidade capaz de esconder uma barra de aço de 38 milímetros de comprimento e 2 milímetros de altura.

Isto representa outro avanço na área, uma vez que, até agora, os dispositivos de camuflagem escondiam apenas peças muito pequenas, com dimensões na faixa do comprimento de onda da luz visível - veja Manto da invisibilidade agora é 3D e aproxima-se do olho humano.

Mas o dispositivo ainda tem suas limitações. Por exemplo, ele só funciona sobre um plano, ou seja, o objeto somente ficará invisível quando se tentar olhar para ele a partir de um ponto específico.

O maior entrave rumo a uma aplicação prática, contudo, é que o efeito só é obtido com luz polarizada. Mas, como a água tende a polarizar a luz, é razoável imaginar que o tapete da invisibilidade permita esconder objetos dentro d'água.

Um "USB" para os diagnósticos médicos?

Dispositivos microfluídicos, como os biochips e os microarrays usam canais microscópicos, escavados em plástico ou vidro, para realizar análises biológicas ou químicas com uma precisão e uma velocidade que não são possíveis com os equipamentos tradicionais.

Eles podem ser usados para realizar exames médicos, testar novos medicamentos, fazer análises de alimentos, monitoramento ambiental e até servirem como biofábricas.

Já existem biochips capazes de detectar o HIV em segundos, sequenciar DNA, detectar tipo e gravidade do câncer e simular o metabolismo de medicamentos no corpo humano, apenas para citar alguns exemplos.

Interface

Para isso, contudo, eles precisam ser conectados a computadores, que possam receber as medições, analisá-las, compará-las com padrões e mostrar os resultados na tela, enviá-los para uma impressora ou disponibilizar as informações pela internet.

Mesmo os telefones celulares já têm capacidade suficiente para processar as medições feitas pelos biochips, podendo ainda transmitir os dados para um laboratório central, abrindo a possibilidade de atendimento emergencial em áreas remotas.

Em conjunto com um biochip adequado, as câmeras dos celulares têm resolução suficiente para funcionarem como microscópios - veja Celular vira microscópio capaz de detectar doenças.

Porém, por mais interdisciplinar que seja a equipe de pesquisas, a necessidade de desenvolver uma interface específica para cada dispositivo criado é um grande entrave para que os bons resultados nos laboratórios se transformem em soluções comerciais disponíveis para a população.

"USB" dos biochips

Agora, engenheiros da Universidade da Califórnia, nos Estados Unidos, desenvolveram uma interface que promete facilitar o desenvolvimento desses dispositivos médicos ultracompactos.

Eles acreditam que a interface tem potencial para se tornar uma espécie de USB da microfluídica. "Nós sabemos que há uma enorme necessidade de uma interface para conectar a microfluídica com os equipamentos eletrônicos," disse Tingrui Pan, que criou a conexão juntamente com seu colega Arnold Chen.

Os conectores, batizados pelos cientistas de Fit-to-Flow/i>, podem ser integrados e serem controlados pelo padrão PCI de conexão, usado em computadores, enquanto uma microbomba incorporada no dispositivo permite que ele seja acionado via computador ou smartphone sempre que for necessário.

Com este esquema padrão de conexão, biochips projetados para executar testes diferentes, como analisar amostras de ar, água ou de sangue, poderão ser plugados no mesmo dispositivo de manipulação de fluidos em escala macro.

E controlados por equipamento eletrônico padrão, seja um computador, um telefone celular, um PDA ou qualquer equipamento futuro que incorpore o sistema de comunicação.

Só uma revolução garantirá os futuros avanços da computação

Depois de décadas de crescimento vertiginoso, o aumento no desempenho dos computadores está prestes a sofrer um travamento.

A única forma de evitar essa parada brusca em um ritmo de avanços tido pela maioria das pessoas como algo certo está em um conjunto de mudanças revolucionárias no desenvolvimento dos programas e no projeto dos processadores.

Esta dura advertência está nas conclusões de um novo relatório elaborado pelo Conselho Nacional de Pesquisas dos EUA, intitulado O Futuro do Desempenho da Computação: Fim do Jogo ou Próximo Nível?

A notícia não poderia ser pior em uma época de crise e incerteza econômica, uma vez que a predição afeta uma indústria com um faturamento na casa do trilhão de dólares, e que já se tornou um elemento dinâmico do crescimento econômico mundial.

Inventar novos transistores

Os microprocessadores aumentaram de velocidade por um fator de 10.000 durante os anos 1980 e 1990. Mas dois obstáculos podem fazer com que o poder de processamento bata de frente com um muro na próxima década.

Conforme os transistores se tornaram cada vez menores e mais densamente empacotados dentro dos chips, a velocidade dos processadores se estabilizou. Eles atingiram a casa dos 3 gigahertz em 2005, e ficaram aí desde então. Isto ocorre porque chips com clocks maiores geram calor demais.

Esse patamar na velocidade de clock ameaça acabar com a tendência que chamamos de Lei de Moore - a duplicação do número de transistores em um chip a cada dois anos.

Para tentar sair desse planalto sem graça, e voltar a escalar novos picos de processamento, os fabricantes começaram a fabricar processadores com vários núcleos.

Mas o relatório adverte que processadores multicore não são o bastante para salvar a Lei de Moore: a eficiência energética dos transistores atuais não pode ser melhorada muito mais, e o desempenho "irá se tornar limitado pelo consumo de energia dentro de uma década".

E, para isso, só há uma saída, segundo o documento: inventar uma nova arquitetura para os transistores, ou seja, usar transistores melhores, que ainda não foram inventados.

Programas paralelos

E os processadores multicore também revelam que o outro calcanhar desse Aquiles computacional também é deficiente: os programas de computador ainda são feitos segundo o paradigma anterior, em que as tarefas eram executadas sequencialmente.

Para que supercomputadores e minicomputadores com processadores de múltiplos núcleos funcionem bem, é necessário projetar os softwares para que eles sejam capazes de executar as tarefas de forma paralela.

Isso parece soar mais promissor, já que a programação paralela, ao contrário de uma nova arquitetura de transistores, já foi inventada.

"A computação paralela oferece um caminho claro rumo ao futuro" para sustentar o crescimento na velocidade dos computadores, afirmou Samuel Fuller, que coordenou a elaboração do relatório.

Alguns processamentos científicos já trabalham bem em paralelo, como os simuladores, seja na previsão do clima ou de grandes explosões de supernovas.

Até mesmo o Google já desenvolveu um conjunto de ferramentas de programação paralela, chamada MapReduce, para processar as grandes massas de dados coletadas pelo seu rastreador, que indexa a internet.

Mas o relatório adverte que a conversão da grande maioria dos softwares, escritos para serem executados sequencialmente, em aplicações paralelas, "será extremamente difícil".

Isso exigirá novos processos de engenharia de software e novas ferramentas. E os programadores terão de passar por uma reciclagem completa para serem capazes de usá-los.

Aplicativo do Google mostra corpo humano em 3D

O Google, maior site de buscas do mundo, desenvolveu um novo aplicativo que permite explorar o corpo humano em detalhe, o Google Body Browser.

A ferramenta ainda está em fase de testes e funciona somente em navegadores que possuem webGL, uma tecnologia que permite visualização 3D em páginas da internet sem a necessidade de nenhum aplicativo adicional, como as novas versões do Mozilla Firefox e do Google Chrome.

O Google Body Browser funciona de maneira parecida com o Google Earth, e permite navegar pelos diversos sistemas do corpo humano, ampliar e identificar órgãos, músculos, ossos e tecidos.

O produto foi criado inicialmente para explorar as possibilidades da nova tecnologia, e ainda não se sabe quando será lançado.

O webGL deverá ser um recurso padrão em navegadores a partir de 2011.

Fonte: BBC

quarta-feira, 22 de dezembro de 2010

CONSPIRAÇÃO: MULTINACIONAIS

As multinacionais foram apresentadas ao Brasil como agentes do progresso e da
eficiência. O discurso convenceu parte da sociedade, que apoiou as privatizações. Mas o
que dizer dos escândalos que se sucedem nos EUA com empresas como a WorldCom,
que nos fazem lembrar o velho gangsterismo.

A atual estratégia econômica brasileira tem tido como seu vetor central a atração de
capital estrangeiro, quer financeiro, quer especulativo, quer de investimento direto.

Essa política de atração de capitais se implementou através de um programa de
privatizações generoso para com o capital estrangeiro; pela equalização da empresa
estrangeira à empresa brasileira; pela eliminação de reservas de mercado; pela
liberalização da remessa de lucros, juros, royalties para o exterior; pela eliminação de
requisitos de atuação, tais como índices de nacionalização, associação ao capital
brasileiro, metas de exportação; pela redução de tarifas de importação para
componentes; pela aprovação de legislação favorável aos detentores de patentes; pela
adoção, até 1999, de um câmbio quase-fixo.

As premissas que se encontravam por trás dessas decisões estratégicas eram de que o
investimento direto estrangeiro “modernizaria” a economia brasileira; ampliaria a
capacidade instalada; geraria novos e numerosos empregos; ampliaria a competição no
mercado interno; transferiria e geraria tecnologia; contribuiria para o controle da inflação;
transformaria o Brasil em uma plataforma exportadora e, ademais, de que haveria
abundância duradoura de capital no mundo.

O ingresso da poupança externa permitiria elevar a taxa de investimento da economia
sem ter o governo de executar políticas internas de aumento de poupança privada e
pública, por vezes de difícil execução, e que podem encontrar sérios obstáculos políticos.

Por outro lado, a política de atração de capitais estrangeiros julgou necessária a
desregulamentação da economia na área interna e externa, que corresponderia, na
prática, a uma “abdicação” do Estado de sua competência para executar políticas de
desenvolvimento. Assim, o destino do desenvolvimento econômico brasileiro e a remoção
de estrangulamentos internos à integração da economia e de obstáculos externos à
expansão das exportações passaram a depender das megaempresas multinacionais e do
“livre” jogo das forças de mercado. O destino da sociedade brasileira passou a depender
da disponibilidade mundial de capital e das decisões estratégicas globais dessas
megaempresas, cuja preocupação com o progresso da sociedade brasileira ou de qualquer
outra sociedade periférica é uma preocupação marginal no contexto de suas estratégias
globais, como hoje bem demonstra a catástrofe argentina.

Essa estratégia teve resultados inesperados para seus formuladores e executores. Os
investimentos estrangeiros dirigiram-se principalmente à aquisição de empresas estatais e
de empresas privadas, com pequeno efeito sobre o aumento da capacidade instalada. A
“modernização” da produção não se traduziu em maior capacidade competitiva dos
produtos brasileiros em nível internacional, pois as exportações brasileiras de produtos de
maior valor agregado não cresceram, assim como não cresceram as nossas exportações
de produtos dos chamados setores dinâmicos da economia mundial.

Não houve aumento significativo de geração de tecnologia no Brasil e, pelo contrário, vários centros de pesquisa, tanto de empresas estatais privatizadas como de empresas privadas desnacionalizadas, vieram a ser desativados pelos novos proprietários. A parcela mais significativa do capital estrangeiro foi investida em empresas de serviços, tais como telefonia, bancos e supermercados, que foram privatizadas ou desnacionalizadas e que se tornaram por vezes grandes importadoras, sem gerar exportações. O ingresso das megaempresas aumentou a oligopolização dos mercados e, portanto, a possibilidade de praticar preços abusivos. A contribuição das empresas estrangeiras para o controle da inflação não se verificou como esperava o governo, e até pelo contrário, devido ao aumento significativo de tarifas de empresas privatizadas na área de serviços como telefonia, energia elétrica, rodovias etc.

A contribuição do capital estrangeiro para a construção da infra-estrutura brasileira tem
sido insuficiente. De um lado, a crise de energia (cujos graves efeitos ainda não se
manifestaram plenamente e cujas causas ainda não foram inteiramente superadas)
dispensa comentários. Mas a ela se juntam hoje as dificuldades das empresas de telefonia
e das ferrovias que solicitam apoio financeiro estatal de toda ordem. O “seguro apagão” é
um caso clamoroso, em que os consumidores brasileiros pagam antecipadamente para que
não ocorra um “apagão”, arcando com as conseqüências do “desgoverno” energético.

A crise atual do modelo econômico brasileiro resulta de que suas premissas não se
verificaram, em especial duas. A primeira, que os investimentos diretos estrangeiros
eventualmente gerariam exportações e um volume de divisas capaz de compensar uma
parte substancial das despesas com os itens de transações correntes. Caso esta
premissa não se verificasse, a segunda e implícita premissa era de que haveria uma
massa de capital disponível no mercado mundial sempre interessada em refinanciar o
Brasil, desde que os fundamentos fiscais internos fossem sólidos. Em resumo, acreditavam
e continuam acreditando os autores dessa estratégia que desde que exista um superávit
primário capaz de fazer face a boa parte do serviço da dívida do Estado, quase tudo se
resolve.

Assim, a política econômica poderia se limitar a gerar superávits primários custasse o que
custasse, criando novos tributos e cortando despesas. Necessidades adicionais de
financiamento seriam atendidas colocando títulos públicos ainda que a taxas
astronômicas de juros. Mas, este superávit primário se verifica em reais e não em dólares,
e é útil para servir a dívida em reais, enquanto que o serviço dos capitais externos, as
amortizações e as importações devem ser pagos em dólares.

A política para alcançar um superávit primário substancial levou à estagnação da
economia, ao desemprego, à violência, à marginalização, à precariedade da
infra-estrutura física (estradas, saneamento, energia etc) e social (escolas, hospitais
etc). Portanto, tornaram a economia menos atraente para os investimentos diretos e até
mesmo para os capitais especulativos. A incerteza quanto à capacidade de saldar
compromissos na área externa, devido à demanda crescente por dólares e insuficiente
oferta, leva a flutuações cambiais significativas, mas sempre com viés de alta e,
portanto, à incerteza para os investidores estrangeiros quanto à conversão da sua
remuneração em reais para fim de remessa.

A incerteza na área interna quanto à capacidade do governo de honrar os compromissos
com a dívida interna leva à necessidade de oferecer juros elevados e prazos curtos para
poder “rolar” a dívida, isto é, colocar novos títulos. As taxas elevadas desestimulam os
investimentos produtivos e provocam a estagnação da economia. Esta é a armadilha
fiscal/cambial/social em que o governo colocou a sociedade brasileira para criar os
“sólidos fundamentos” da economia, hoje simplesmente ignorados pelas agências de risco
e os megabancos.

Agora, surge um novo aspecto de interesse para a questão do investimento direto. O
capital estrangeiro direto, em especial as megaempresas multinacionais, foram
apresentados à sociedade brasileira como agentes da modernidade, do progresso, da
competição, da eficiência e, ademais, last but not least, como diriam os anglófilos, de
seriedade e honestidade empresarial. Seus executores seriam uma espécie de semideuses
modernos diante de seus congêneres tupiniquins. Essa competência profissional, essa
dedicação à empresa, essa honestidade de comportamento é que explicariam também a
eficiência daquelas megaempresas e sua superioridade quando comparadas às empresas
nativas.

Os escândalos se sucedem nos Estados Unidos: Enron, World Com, Xerox, Adelphia,
Kmart, Lucent, Tyco, Vivendi etc. etc. etc. Sua característica central é o gangsterismo
sofisticado dos executivos que manipularam a contabilidade, inflaram lucros, promoveram
a alta dos preços das ações, receberam ações, venderam essas ações e enriqueceram
enquanto suas supostas “eficientíssimas” empresas, um “exemplo” para as empresas e
empresários brasileiros, iam à falência, assim como se evaporavam as poupanças dos
pequenos investidores e os empregos dos trabalhadores, eternas vítimas.

Essas operações contaram com a conivência de gigantescas empresas de auditoria que,
aliás, prestavam consultoria àquelas mesmas empresas e a seus executivos e de enormes
corretoras de valores, como a famosa Merryl Lynch. É de se esperar que a contabilidade
das filiais dessas empresas estrangeiras no Brasil não utilize as mesmas práticas de
maquilagem contábil, com o auxílio daquelas mesmas firmas de auditoria que queimaram
documentos para dificultar investigações e que a Comissão de Valores Mobiliários (CVM)
seja mais eficiente do que a SEC (Security and Exchange Commission) diante das mágicas
de contabilidade e de auditoria das filiais dessas empresas no Brasil ...

Esses escândalos parecem cada vez mais revelar uma corrupção sistêmica de que
participam executivos que se movem das megaempresas para a Administração, da
Administração para o FMI /Bird e que levou a um recorde de 368 concordatas em 2001 e
2002 que atingem centenas de bilhões de dólares. E acadêmicos e funcionários de
agências internacionais, cuja competência o Prêmio Nobel Stiglitz considera reduzida,
volta e meia ousam propor a administração direta, por esse tipo de especialistas
estrangeiros “honestos e eficientes”, da economia de países periféricos.

Todavia, foram esses mesmos peritos, acadêmicos, executivos que levaram às crises ao
“propor” e insistir em políticas desastrosas nos países da periferia. Hoje, acham que os
economistas e dirigentes locais não teriam a elevada competência e a honestidade
necessária para conduzir a política econômica de seus países...

A ONG Transparência Internacional poderia bem se ocupar de reavaliar os seus índices e
classificação de países para que reflitam a megacorrupção que ocorre nos Estados
Unidos, com efeitos muito mais severos para a economia mundial, e por conseqüência
para as economias periféricas, ao invés de enfatizar a ocorrência de corrupção nos países
periféricos, cujos dirigentes, aliás, aceitam propinas muitas vezes dessas mesmas
megaempresas envolvidas hoje em escândalos de megacorrupção.

Projetores a laser ficam mais próximos do uso doméstico

Se você quiser uma projeção verdadeiramente realística, muito além das imagens geradas nas melhores salas de cinema digital, é melhor apelar para um projetor a laser.

Esses equipamentos já demonstraram seu valor nos simuladores de voo profissionais e em grandes projeções - um simulador de uma montanha-russa demonstrado na Alemanha, que usa imagens projetadas a laser, chegou a fazer algumas pessoas passarem mal, como se estivessem no brinquedo de verdade.

"Com a projeção a laser, noventa por cento do espaço de cor do olho humano pode ser coberto. Assim, a qualidade da imagem é fascinante. As telas planas de hoje gerenciam apenas cerca de cinquenta por cento," explica Katrin Paschke, do Instituto Ferdinand Braun, na Alemanha.

Grão de arroz

No entanto, tudo tem seu preço, e a principal desvantagem dos projetores a laser é que eles são grandes - em um simulador de voo, por exemplo, o sistema de projeção a laser é do tamanho de uma geladeira.

É principalmente por isso que você ainda não encontra TVs a laser para comprar.

Mas a equipe da professora Katrin deu um passo importante nessa direção: eles desenvolveram uma fonte de laser brilhante e compacta o suficiente para viabilizar o uso da tecnologia em equipamentos muito menores e mais baratos.

A nova fonte de laser tem o tamanho de uma caixa de fósforos. A luz é gerada por lasers semicondutores do tamanho de grãos de arroz.

Como a projeção exige altas potências, o maior desafio foi evitar que o material do laser se fundisse, o que foi conseguido construindo o chip emissor de luz em uma forma trapezoidal que vai aumentando de dimensão em direção à abertura. Ainda assim foi necessário usar diamantes industriais para dissipar o excesso de calor.

Hologramas

Os pesquisadores estão otimistas com as possibilidades de uso de suas fontes laser miniaturizadas.

Além de equiparem projetores domésticos, Paschke já olha mais para o futuro: "Um dia, os hologramas vão simplesmente saltar no meio das nossas casas," diz ela.

O equipamento está sendo negociado com a empresa LDT GmbH, que pretende incorporar a tecnologia em produtos comerciais.

Menor bateria recarregável do mundo revela seus segredos

Cientistas do Laboratório Nacional Sandia, nos Estados Unidos, criaram a menor bateria recarregável do mundo - seu anodo é um único nanofio com sete milésimos da espessura de um fio cabelo humano.

Ao construir essa nanobateria, a equipe do professor Jianyu Huang esperava descobrir formas de otimizar as baterias de lítio que equipam os notebooks e celulares, mas que ainda não conseguiram viabilizar os carros elétricos.

E o esforço parece ter valido a pena.

Menor bateria do mundo

"Este experimento nos permitiu estudar o carregamento e o descarregamento de uma bateria em tempo real e com resolução em escala atômica, ampliando assim a nossa compreensão dos mecanismos fundamentais de funcionamento das baterias," afirmou o pesquisador.

A bateria minúscula criada por Huang e seus colegas possui um anodo que é um único nanofio de óxido de estanho, medindo 100 nanômetros de diâmetro e 10 micrômetros de comprimento. O catodo é um bloco de óxido de lítio-cobalto com três milímetros de comprimento. O eletrólito é um líquido iônico.

O dispositivo oferece a capacidade de observar diretamente alterações na estrutura atômica durante o carregamento e o descarregamento dessa bateria minimalista.

Baterias de nanofios

Os materiais baseados em nanofios têm melhor potencial para melhorar a eficiência das baterias de íons de lítio do que os eletrodos de materiais sólidos.

Testes feitos por várias equipes ao redor do mundo têm demonstrado que os nanofios podem gerar ganhos significativos na potência e na densidade de energia das baterias.

Mas o mais comum tem sido juntar os nanomateriais para criar os eletrodos, e não usá-los individualmente. Segundo Huang, isso é como ficar olhando para uma floresta para tentar entender o comportamento de cada árvore.

Bateria que estica

Ao analisar sua bateria de nanofio único, os pesquisadores se depararam com uma descoberta que os surpreendeu: o nanofio de óxido de estanho quase dobra de comprimento durante o carregamento. Seu diâmetro também aumenta, mas não tanto.

Os projetos das baterias atuais se baseiam na concepção, agora demonstrada falsa, de que as estruturas internas das baterias "incham" ao longo do seu diâmetro, e não longitudinalmente.

Esta pode ser a razão dos curtos-circuitos que diminuem a vida útil das baterias.

A descoberta só foi possível pela observação dos íons de lítio conforme eles viajam ao longo do nanofio.

A expansão de volume, a plasticidade e a pulverização dos eletrodos são os principais defeitos mecânicos que afetam o desempenho e a vida útil das baterias de íons de lítio de alta capacidade.

"Portanto, nossas observações da cinética estrutural e da amorfização [a mudança na estrutura cristalina normal do material] tem implicações importantes para o projeto de baterias de alta capacidade e na mitigação das falhas das baterias," afirmou Huang.