quinta-feira, 30 de setembro de 2010

"Skins" arquitetônicas: prédios terão pele para se adaptar ao clima

Engenheiros, arquitetos e biólogos da Universidade da Pensilvânia, nos Estados Unidos, juntaram-se para criar um novo material que tornará as casas e os edifícios capazes de reagirem às mudanças no clima.

Os pesquisadores querem usar a flexibilidade e a sensibilidade das células humanas como modelo para a criação de "peles" para edifícios e casas, que poderão adaptar-se às mudanças no ambiente para aumentar a eficiência energética das construções.

Skins arquitetônicas

Com base nas respostas dinâmicas que as células humanas geram, os cientistas esperam projetar e construir interfaces entre sistemas vivos e sistemas artificiais que implementem algumas das principais características e funções dos sistemas biológicos.

Os principais alvos da pesquisa são a sensibilidade e o autocontrole dos tecidos biológicos, que serão transpostos para materiais que possam ser fabricados em escala suficiente para recobrir edifícios inteiros.

A Academia Nacional de Ciências dos Estados Unidos gostou tanto do projeto que destinou nada menos do que US$2 milhões para a construção dos primeiros protótipos.

Materiais biomiméticos

As células vivas alteram suas matrizes extracelulares e, portanto, afetam seu ambiente circundante, com um gasto mínimo de energia, graças a uma combinação de forças físicas e as operações químicas.

A esperança dos pesquisadores é usar esses mecanismos celulares como inspiração para a criação de materiais biomiméticos passivos, sensores e sistemas de imageamento que serão integrados no edifício na forma de peles sensíveis que acionem sistemas de controle da iluminação e do aquecimento.

O grupo está usando algoritmos computacionais para medir e visualizar em tempo real como as células interagem e modificam a geometria dos seus substratos. Esses programas estão sendo utilizados para projetar materiais flexíveis com padrões 1-D, 2-D e 3-D.

Eventualmente esses substratos poderão receber dispositivos nano e microeletromecânicos que implementem novas funções e propriedades e que façam a interface com os sistemas de controle ambiental do edifício.

"Nossa expectativa é que os edifícios possam no futuro responder aos fatores ambientais, como calor, umidade e luz, e responder a eles de forma eficiente," diz Shu Yang, coordenador do projeto.

Criada escada rolante capaz de fazer curvas

Engenheiros da Universidade da Cidade de Londres, na Inglaterra, apresentaram a primeira escada rolante capaz de fazer curvas.

Projetada para funcionar em circuito fechado, a escada rolante flexível pode assumir praticamente qualquer formato, incluindo curvas complexas, limitadas apenas pelo seu comprimento total.

O sistema foi batizado de "Levytator", uma auto-homenagem de seu criador, Jack Levy, que afirma que esta é maior inovação nas escadas rolantes desde sua invenção, em 1897.

Ao contrário dos modelos tradicionais, onde degraus redundantes movem-se por baixo daqueles em uso, o Levytator utiliza um ciclo contínuo de módulos curvos.

Graças ao seu sistema de encaixes, os módulos curvos pode seguir qualquer caminho, para cima, para baixo, em curva, sempre com os passageiros a bordo.

Escada cultural

Além de poder ser montado em qualquer configuração ou formato, o sistema também têm vantagens práticas, segundo seu criador: "Como todos os degraus podem ser acessados de cima, a manutenção pode ser realizada com muito mais facilidade," diz Levy.

"Isso também significa que não é necessário fazer escavações para instalar o Levytator. Isto pode ser particularmente útil na área cultural, onde o sistema poderia ser colocado no topo da escadaria de uma casa [tombada pelo patrimônio histórico], proporcionando um melhor acesso para os visitantes idosos e deficientes, sem destruir a estrutura do edifício," divulga ele.

Dimensões evaporam-se na gravidade quântica

Em escalas minúsculas, o espaço 3D com o qual estamos acostumados pode simplesmente deixar de existir, dando lugar a linhas simples, uma espécie de Flatland, o mundo plano vislumbrado na novela de Edwin Abbott, escrita em 1884.

Isso pelo menos é o que acredita Steven Carlip, da Universidade da Califórnia, em Davis, nos Estados Unidos.

Gravidade quântica

Trabalhando em teorias da gravidade quântica, que pretendem unificar a mecânica quântica com a Relatividade Geral, os cientistas perceberam recentemente algo curioso demais para ser uma mera coincidência.

Dentre as várias teorias diferentes que tentam explicar a gravidade quântica, todas preveem o mesmo estranho comportamento em pequenas escalas: campos e partículas começam a se comportar como se o espaço fosse unidimensional.

A observação pode ajudar a unificar a relatividade com a mecânica quântica. "Há algumas estranhas coincidências aqui que podem estar apontando para algo importante," disse Carlip à revista New Scientist.

Ele observou que as teorias produzem resultados semelhantes e trazem uma explicação de como as dimensões podem sumir. "A esperança é que nós possamos usar isso para descobrir o que realmente é a gravidade quântica," diz ele.

Desaparecimento das dimensões

O desaparecimento das dimensões veio à tona pela primeira vez em 2005, em simulações de computador realizadas por Renate Loll, da Universidade de Utrecht, na Holanda. Loll estuda uma teoria da gravidade quântica conhecida como triangulação dinâmica causal.

Ao analisar um parâmetro chamado dimensão espectral, que descreve como as partículas ou os campos afastam-se gradualmente de um determinado ponto - um processo semelhante ao da difusão - Loll descobriu que esse processo acontece rápido demais em escalas de 10-35 metros, o equivalente ao "comprimento de Planck", a distância em que os efeitos da gravidade quântica se tornam significativos.

Isto pode ser explicado se as partículas estiverem efetivamente se movendo em apenas uma dimensão espacial - quanto menos dimensões estiverem disponíveis, menos direções haverão nas quais uma partícula pode se mover e menor será o tempo que ela vai levar para sair de sua posição original.

O que Carlip percebeu é que o mesmo acontece em várias outras teorias que tentam explicar a gravitação quântica e mesmo em uma teoria inovadora, lançada em 2009 por Petr Horava, da Universidade da Califórnia, em Berkeley, que altera radicalmente as regras da Relatividade Geral.

E se abordagens tão diversas "esbarram" em algo em comum, esse algo pode de fato ser importante, ou mesmo essencial - uma propriedade da gravidade quântica, por exemplo.

Espuma quântica

Mas como as dimensões podem simplesmente desaparecer?

Carlip sugere que isso pode ser explicado pelo conceito de "espuma quântica", proposto por John Wheeler na década de 1950.

Wheeler sugeriu que as flutuações quânticas alteram a geometria do espaço-tempo, tornando-o instável e heterogêneo em escalas muito pequenas. "Mas isso é uma imagem qualitativa. Ninguém tem qualquer noção de com o que isso realmente se parece," comentou Loll.

Carlip sugere que esta espuma quântica pode se comportar de forma semelhante ao espaço-tempo nas proximidades de uma singularidade, o objeto no centro de um buraco negro. Segundo a Relatividade Geral, a gravidade é tão forte perto de uma singularidade que o espaço-tempo se distorce.

Nestas condições, a luz é tão fortemente curvada que pode levar um tempo infinito para que ela viaje entre dois pontos próximos, o que significa que áreas vizinhas do espaço-tempo tornam-se efetivamente desligados umas das outras, podendo se expandir e contrair de forma independente.

Carlip sugere que essa mesma desconexão pode ocorrer entre as diferentes regiões do espaço quando se olha para as minúsculas escalas da gravidade quântica. Como o espaço poderá se contrair ou expandir mais rapidamente em um ponto do que em outro, as dimensões do espaço podem ficar desconectadas nas escalas de comprimento da gravitação quântica.

Dimensões adicionais

Como resultado, a distâncias e escalas temporais suficientemente curtas, o movimento de uma partícula é dominado por uma única dimensão, ainda que esta dimensão preferencial continue mudando de forma aleatória.

Ou seja, se você esperar o suficiente, ou olhar para escalas de distância maiores, o espaço torna-se efetivamente tridimensional.

É claro que o campo fica aberto para especulações sobre dimensões adicionais em distâncias suficientemente grandes.

Por enquanto, contudo, são só conjecturas, e ainda não há indícios experimentais de que uma espuma quântica de fato exista.

Mas o fato de que um mesmo efeito surja de teorias tão distintas pode ser um sinal de que é melhor nos acostumarmos com a ideia, ainda que não saibamos explicá-la - por enquanto.

Magnetoeletricidade: surge uma nova forma de controlar o magnetismo

Uma equipe de cientistas da Universidade Rutgers, nos Estados Unidos, descobriu um material cujas propriedades magnéticas podem ser inteiramente controladas por um campo elétrico externo.

Se este efeito magnetoelétrico puder ser estendido para temperaturas mais próximas à temperatura ambiente, ele poderá ser permitir a manipulação de bits magnéticos minúsculos, viabilizando o armazenamento de dados de ultra-alta densidade.

A substituição dos componentes magnéticos por componentes elétricos pode potencialmente abrir caminho para o armazenamento de dados com uma densidade muito superior à dos discos atuais, que estão na casa dos terabytes.

Ao contrário dos dispositivos atuais, que funcionam com base na magnetorresistência gigante, que exigem campos magnéticos para manipular a resistência elétrica, os dispositivos magnetoelétricos poderiam ser controlados com cabeças de leitura e escrita menores e mais simples.

Magnetoeletricidade

Os pesquisadores descobriram o efeito ao estudar as propriedades magnéticas de um mineral chamado manganita, que é composto de magnésio, oxigênio, európio e ítrio.

A temperaturas criogênicas - entre 7 e 20 graus acima do zero absoluto - e sob campos magnéticos muito fortes, uma ligeira mudança no campo elétrico aplicado ao material provoca uma enorme mudança em suas propriedades magnéticas.

O efeito magnetoelétrico tem o potencial para levar a avanços tecnológicos comparáveis ao surgimento dos atuais discos rígidos, que se tornaram possíveis com a descoberta da magnetorresistência gigante, que valeu o Prêmio Nobel de Física de 2007 aos fundadores da spintrônica.

A descoberta do efeito magnetoelétrico é um avanço animador rumo à já teorizada magnetoeletricidade colossal. Contudo, para que suas promessas se tornem realidade, os cientistas precisarão antes demonstrar seu funcionamento sob temperaturas muito mais altas.

Identificado novo fármaco para tratamento da obesidade

Uma pesquisa do Instituto de Ciências Biomédicas (ICB) da USP concluiu que o GC-24, um fármaco chamado de agonista seletivo, pode ser útil como medicamento para tratar obesidade sem acarretar problemas cardíacos, como taquicardia.

O fármaco, com uma composição semelhante à do hormônio tireoidiano (T3), atua no organismo ao se vincular com o receptor Beta deste hormônio e assim contribui para perda de peso.

O hormônio T3 precisa de dois receptores para exercer suas funções: o Alfa e o Beta.

"Eles funcionam como uma fechadura para a chave, que seria o hormônio", elucida a bióloga Beatriz de Souza Amorim, autora do estudo. Entretanto, ao se ligar aos dois tipos de receptores, efeitos indesejados podem ocorrer, como o enfraquecimento da musculatura.

Sem efeitos colaterais

O GC-24, diferentemente do hormônio, ao se vincular apenas ao receptor Beta, torna possível diferenciar os efeitos benéficos dos maléficos e assim isolar uns dos outros.

"Isso permite, no futuro, a criação de medicamentos que só terão os efeitos positivos e não os negativos, como diminuir a gordura sem diminuir musculatura", pondera Beatriz.

O estudo também constatou que o fármaco, quando mediado apenas pelo receptor Beta, possui efeitos importantes para pessoas com excesso de peso pois age na elevação da taxa metabólica.

"O aumento da taxa significa mais gasto de energia e se eu gasto mais, eu queimo mais gordura e, então, perco peso", explica Beatriz. Além disso, foi observado que, por meio do GC-24 não houve efeitos indesejáveis sobre o coração, osso ou músculo-esquelético.

Resistência à insulina

Outro resultado relevante constatado pela pesquisa se refere aos níveis de glicose no sangue. Foi observado que o GC-24 pode ser útil no tratamento de pessoas com resistência à insulina.

"Obesos geralmente têm níveis aumentados de glicose. O GC-24 não causa esse aumento", destaca Beatriz, que ressalta: "O agonista pode ser útil como medicamento, mas a pesquisa analisou apenas alguns parâmetros. Para comprovar a total eficácia mais pesquisas devem acontecer e outros parâmetros, como o efeito sobre os rins, devem ser estudados."

A pesquisa, intitulada Papel do TR Beta na termogênese induzida pela dieta, faz parte de um projeto de pesquisa maior, chamado "Laboratório de Metabolismo Energético", do Departamento de Ciências Biológicas da Universidade Presbiteriana Mackenzie. O trabalho foi orientado pela professora Cecilia Helena de Azevedo Gouveia Ferreira, do Departamento de Anatomia do ICB.

Bebês amamentados somente com leite materno até os 6 meses têm melhor imunidade

Bebês alimentados exclusivamente com leite materno até os seis meses de idade ganham proteção extra contra infecções, dizem cientistas gregos.

O efeito observado independe de fatores como acesso à saúde e programas de vacinação, eles explicam.

Segundo os especialistas da Universidade de Creta, o segredo estaria na composição do leite materno.

As conclusões do estudo, que envolveu pouco mais de 900 bebês vacinados, foram publicadas na revista científica Archives of Diseases in Childhood.

A equipe ressalta, no entanto, que o benefício só ocorre quando o bebê é alimentado com leite da mãe apenas. Ou seja, acrescentar fórmulas ao leite materno não produz o mesmo efeito.

Especialistas em todo o mundo já recomendam que bebês sejam alimentados somente com leite materno pelo menos durante os seis primeiros meses de vida.

Sapinho

Os pesquisadores gregos monitoraram a saúde de 926 bebês durante 12 meses, registrando quaisquer infecções ocorridas em seu primeiro ano de vida.

Entre as infecções registradas estavam doenças respiratórias, do ouvido e candidíase oral (sapinho).

Os recém-nascidos receberam todas as vacinas de rotina e tinham acesso a tratamentos de saúde de alto nível.

Quase dois terços das mães amamentaram seus filhos durante o primeiro mês, mas o número caiu para menos de um quinto (menos de 20%) seis meses depois.

Apenas 91 bebês foram alimentados exclusivamente com o leite da mãe durante os seis primeiros meses.

Os pesquisadores constataram que esse grupo apresentou menos infecções comuns durante seu primeiro ano de vida do que os bebês que foram parcialmente amamentados ou não amamentados.

Anticorpos da mãe

E as infecções que os bebês contraíram foram menos severas, mesmo levando-se em conta outros fatores que podem influenciar os riscos de infecção, como número de irmãos e exposição à fumaça de cigarro.

O pesquisador Emmanouil Galanakis e sua equipe disseram que a composição do leite materno explica os resultados do estudo.

O leite materno contém anticorpos recebidos da mãe, assim como outros fatores imunológicos e nutricionais que ajudam o bebê a se defender de infecções.

"As mães deveriam ser avisadas pelos profissionais de saúde de que, em adição a outros benefícios, a amamentação exclusiva ajuda a prevenir infecções em bebês e diminui a frequência e severidade das infecções", os especialistas dizem.

Fonte: BBC

Técnica com laser poderá substituir exames de saúde

Um exame com raios laser, que poderia ser realizado com aparelhos portáteis, poderá no futuro vir a substituir outros tipos de exames, oferecendo aos médicos uma alternativa mais eficaz para o diagnóstico de doenças, dizem cientistas.

Segundo os pesquisadores, a técnica, chamada de espectroscopia Raman, pode ser útil na identificação de sinais iniciais de câncer de mama, cáries e osteoporose, entre outros males.

A espectroscopia mede a intensidade e comprimento das ondas de luz dispersadas por moléculas.

A técnica já é usada nas indústrias química e farmacêutica, e agora pesquisadores britânicos e americanos estão investigando formas de usar o método no diagnóstico de doenças.

Os estudiosos acreditam que o sistema, mais rápido, preciso e barato do que os convencionais, pode estar disponível para esse uso dentro de cinco anos.

Exame a laser

Um dos cientistas envolvidos nas pesquisas é Michael Morris, professor de química da Universidade de Michigan, nos Estados Unidos. Nos últimos anos, ele tem-se dedicado a usar a técnica no estudo de ossos humanos.

"Você poderia substituir vários procedimentos disponíveis hoje", disse Morris. "A grande vantagem é que (esta técnica) não é invasiva, é muito rápida e mais precisa", ele disse à BBC.

Morris explicou que, quando uma pessoa está doente, ou prestes a ficar doente, a mistura química nos tecidos é diferente da que existe em tecidos saudáveis.

"O Raman dá a você as 'impressões digitais' da molécula", explica. "Quando há uma doença, a composição química pode ser ligeiramente anormal ou muito anormal, dependendo da doença."

Segundo o especialista, o método permitiria diagnósticos em questão de minutos.

Colesterol, ossos e mamografia

Os pesquisadores acreditam que o aparelho poderia realizar o diagnóstico de doenças ósseas e também detectar sinais de cáries em estágio inicial.

Segundo Morris, exames de sangue também poderiam se tornar desnecessários em alguns casos.

Ele explicou, por exemplo, que para determinar os índices de colesterol de um paciente, seria necessário apenas apontar o laser do aparelho para a região do braço de onde normalmente se coleta o sangue.

A espectroscopia Raman poderia também ser usada como alternativa para a mamografia, exame usado para detectar sinais de câncer de mama.

Ela poderia revelar tumores benignos ou malignos, dependendo das alterações na estrutura das proteínas e nas quantidades relativas de proteínas, gorduras e ácidos nucleicos no tecido.

terça-feira, 28 de setembro de 2010

CONSPIRAÇÃO: AIDS

O vírus da AIDS age sobre os glóbulos brancos, essenciais para a proteção contra as doenças comuns. O rápido desenvolvimento do HIV, que segundo a opinião da maioria é a doença causadora da AIDS, tem levado alguns especialistas a afirmarem que o vírus foi criado pelo homem com a finalidade de reduzir a população do Terceiro Mundo.

AIDS (Síndrome da Imunodeficiência Adquirida) é um dos assassinos mais poderosos. Depois do contágio a doença ataca o sistema imunológico humano e, a partir desse momento, as vítimas estão vulneráveis a qualquer doença. Nessas condições de extrema fraqueza, até um resfriado comum pode ser fatal. O resultado costuma ser o de uma debilitação progressiva e longa agonia.

Os dados fornecidos pelas Nações Unidas indicam que o foco da doença está concentrado quase que exclusivamente na África negra e no sudeste Asiático, e é exatamente no conjunto dessas regiões geográficas onde ocorrem 90% dos casos conhecidos. A AIDS ataca principalmente países do Terceiro Mundo.

A AIDS apareceu pela primeira vez na África em meados dos anos 70, quando um macaco verde mordeu um homem. Desde esse modesto início, o vírus propagou-se entre as espécies animais e estendeu-se por todo o mundo através da transmissão sexual e transfusões de sangue infectado.

TRAMA MORTAL

A concentração do vírus nos países mais pobres deu lugar a certas acusações. Os defensores da teoria de uma conspiração afirmam que os países ricos e industrializados desenvolveram secretamente a AIDS e a utilizaram como arma biológica, com a finalidade de dizimar o que o Dr. William Campbell Douglas, físico americano e ex-cirurgião da Navy Flight, chamou de "excedente de comilões" do Terceiro Mundo.

Os pesquisadores apóiam essa acusação em vários documentos do governo, sendo o mais importante deles, o National Security Study Memorandum (NSSM) 200, redigido em abril de 1974 pelo então conselheiro de segurança nacional dos EUA, Henry Kissinger. Esse documento tornou-se público com uma extraordinária discrição em 1990, no cumprimento da lei da liberdade de informação. Seu conteúdo é assustador e revela o cinismo do governo quando declara: "A despovoação deveria ser o objetivo prioritário da política exterior dos EUA em relação ao Terceiro Mundo". Essa frase era a coluna vertebral do NSSM 200.

POLÍTICA EXTERIOR

O memorando afirmava que "a redução da taxa de crescimento da população nesses países é vital para a segurança nacional dos EUA". Por quê? Muito simples: porque no futuro, a economia dos EUA precisará de grandes quantidades de minério de outros países principalmente dos menos desenvolvidos". A conclusão era muito clara: dizimar a população do Terceiro Mundo era o "interesse prioritário dos EUA".

A arrogância e o cinismo que aparecia no documento de Kissinger não era nada de novo. Por muito tempo, os cidadãos do Terceiro Mundo foram considerados como degenerados inúteis e preguiçosos. Alguns anos antes, em 1932, Cornelius Rhoades, posteriormente chefe de patologia do Rockefeller Institute, realizou experiências sobre o câncer que consistiam em infectar vários cidadãos porto-riquenhos com essa doença.

Trinta homens morreram por causa dessas, pesquisas. Rhoades tentou justificar os testes dizendo que: "Os porto-riquenhos são a raça humana mais suja, preguiçosa, degenerada e corrompida que vive na Terra, qualquer médico se sentiria encantado de poder abusar e torturar indivíduos tão desventurados". Ainda que pareça mentira, Rhoades não foi julgado por essas declarações e durante a Segunda Guerra Mundial recebeu a direção de vários projetos de guerra química. Ele ainda obteve um posto na Comissão de Energia Atômica e ganhou a medalha da Legião ao Mérito.

O trabalho e as posteriores promoções de Rhoades demonstram até onde vai o que os consideram "viável" em relação as experiências com seres humanos. Esse abuso sistemático dos direitos humanos aconteceu durante todo o século XX, quase sempre na forma de programas secretos, como o MK-ULTRA. A existência desses programas levou alguns especialistas a pensarem que a criação da AIDS como arma biológica poderia ter sido perfeitamente um objetivo respaldado pelo governo.

Existem pesquisadores que acreditam que o vírus da AIDS não possa ter se desenvolvido naturalmente. Dizem que só poderia ter sido criado em um laboratório biológico especializado. Alguns asseguram que a AIDS foi desenvolvida no Centro para o Controle de Doenças em Atlanta nos EUA.

As horríveis implicações do NSSM 200 se fizeram muito mais evidentes quando o memorando foi analisado junto com um documento redigido pelo Senate Appropriations Committe. Em 1970, o Departamento de Defesa pediu insistentemente ao dito comitê, o financiamento para um programa de pesquisa e desenvolvimento de uma arma biológica que atacasse o sistema imunológico humano. A solicitação era dissimulada por um suposto desenvolvimento de "agentes biológicos sintéticos". Ao testemunhar diante do comitê do Senado, o Dr. Donald MacArthur, especialista em guerra química do exército dos Estados Unidos, declarou: "Nos próximos cinco ou dez anos, talvez seja possível criar um microorganismo contagiante, diferente em alguns aspectos importantes de qualquer organismo conhecido causador de doenças".

UM DEMÔNIO SOB MEDIDA

O Dr. MacArthur terminou dizendo que um programa de pesquisa com essa finalidade "poderia ser finalizado em cinco anos, aproximadamente, e com um custo de dez milhões de dólares". A grana solicitada foi concedida. Poderia ter sido o vírus da AIDS o resultado desse projeto?

Hoje em dia, médicos de prestígio assim o asseguram e existem pessoas que afirmam possuírem suficientes evidências para prová-lo. Quem mais se sobressai entre todos eles é Jakob Segal, de origem russa, professor de biologia na Universidade de Humboldt, na antiga Alemanha Oriental. Segal acredita que a AIDS foi sintetizada no laboratório de Fort Detrick, em Maryland, a sede do programa de guerra química e biológica dos Estados Unidos.

Ao lado de sua esposa, Segal publicou suas descobertas em 1986, em um folheto informativo intitulado A AIDS: um demónio made in USA. Nele Segal se dispunha a demonstrar que o vírus da imunodeficiência humana (HIV) -o responsável, na opinião de muitos especialistas, do desenvolvimento da AIDS - é quase idêntico a outros dois vírus: o visna, uma doença mortal que ataca o gado ovino, mas que não contamina o homem e o VLCHT-1 (vírus da leucemia celular humana T), que mesmo não sendo letal é muito contagioso para o homem.

Segal afirma que o laboratório de segurança máxima de Fort Detrick foi o responsável pelo cruzamento do visna com o VLCHT-1, visando uma arma biológica artificial altamente contagiosa e mortal para o ser humano e que o fruto do dito cruzamento foi o HIV, criado entre o final de 1977 e a primavera de 1978.

Henry Kissinger, ex-conselheiro de segurança dos EUA, publicou em 1974 um memorando no qual expressava sua preocupação com a superpopulação do Terceiro Mundo. Os pesquisadores afirmam que esse documento teria provocado o desenvolvimento as AIDS como uma arma de destruição massificada.

Jakob Segal não concorda que a AIDS tenha sido o resultado da interação entre o homem e um primata na África, e insiste na hipótese de que o coquetel de Fort Detrick foi testado em presidiários que haviam se oferecido como voluntários para reduzirem a sua pena. Dado que os primeiros sintomas não aparecem até seis meses depois do contágio, considerou-se que os testes tinham fracassado e os réus foram postos em liberdade. Alguns deles eram homossexuais e mudaram-se para Nova Iorque e, sem saber, contagiaram outros membros da comunidade homossexual nova-iorquina. A partir daquele momento, tudo era apenas uma questão de tempo. O primeiro caso de AIDS apareceu em 1979, e rapidamente a doença começou a disseminar-se.

TROCA ENTRE ESPÉCIES

Dr. Robert Strecker talvez seja o defensor mais categórico da teoria da fabricação humana da AIDS. Assim como Segal, ele acredita que o vírus foi sintetizado em uma pesquisa sobre organismos contagiosos e rejeita a teoria do pulo entre espécies, segundo a qual a doença passou dos primatas para o homem. O doutor argumenta que a geração espontânea do vírus contradiz todas as teorias conhecidas sobre a evolução dos organismos vivos ao longo do tempo.

"Se o vírus da AIDS é analisado -disse Strecker- descobre-se algo muito interessante. Seus genes não estão nos primatas nem no ser humano, quer dizer que, por mais que se tente combinar e recombinar o material genético dos primatas, dos chimpanzés e do homem, é impossível criar o vírus da AIDS."

O abuso de drogas intravenosas pode disseminar a AIDS já que o vírus fica no sangue. Uma pessoa contaminada que compartilhe sua seringa com outra, pode transmitir-lhe a doença e esta por sua vez, infectar novas vítimas.

Strecker acredita que AIDS foi desenvolvida depois de trinta anos de pesquisa para determinar as possibilidades de obtenção de um vírus capaz de agir seletivamente, contagiando apenas o sistema imunológico humano. Strecker não sabe com exatidão porque foi desenvolvida uma pesquisa desse tipo. Poderia fazer parte de um programa de guerra biológica realizado, segundo Strecker, a pedido da CIA, porém ele admite que isso é apenas uma especulação. Contudo, Strecker é categórico ao afirmar que a sua análise do vírus demonstra que ele não se desenvolveu naturalmente.

NEGAÇÃO MILITAR

Ninguém se assusta com o fato das armas biológicas serem uma prioridade das estratégias militares do futuro. O tenente-coronel Robert P. Kadlek, em seu artigo Twenty-First Century Germ Warface, indica que "o uso de armas biológicas sob a aparência de uma doença natural confere ao agressor o potencial necessário para desmentir razoavelmente qualquer acusação". E continua dizendo: "A guerra biológica inclui o uso de bactérias, vírus e toxinas que provocam doenças ou a morte nos seres humanos, animais e plantas".

Qualquer que seja a opinião sobre a AIDS como arma biológica, o futuro se apresenta sombrio. Dada a facilidade com que se pode desmentir um hipotético USO desse tipo de arma, uma guerra biológica poderia começar sem que a sociedade percebesse, tendo como único sinal revelador o número crescente de sepulturas.

ANÁLISE O HIV E DADOS SOBRE A AIDS

- O HIV e o vírus da AIDS são encontrados, em concentrações diferentes, no sêmen, saliva, sangue, fluido vaginal, leite materno e lágrimas das vítimas infectadas.
- O HIV não é transmitido pelo contato esporádico com uma pessoa contaminada, só pode ser transmitido através da troca direta e indireta dos fluidos orgânicos infectados. Os dependentes de drogas injetáveis que compartilham seringas contaminadas com o vírus, pertencem a uma categoria de máximo risco.
- O Centro para o Controle de Doenças, nos EUA, não detectou nenhum caso de contagio de HIV através de beijos ou transmitidos por insetos.
- A informação é a melhor forma de prevenção. É conveniente que se faça sexo com preservativos e que não se compartilhe instrumentos de aplicação intravenosa.

"Esse vírus foi inventado em laboratório, cientistas foram enviados à África e naquele país esses novos agentes foram testados". - Dr Robert Strecker, médico.

PROVAS ESTERILIZAÇÃO

O Norplant, um anticoncepcional experimental que se implanta cirurgicamente sob a pele, foi usado em grande escala em países do Terceiro Mundo. A droga provocou graves reações colaterais, inclusive cegueira em muitas mulheres jovens. Foi sugerido que o financiamento desses programas procede de empresas interessadas na despovoação desses países, que ameaçam a segurança dos Estados Unidos. Um funcionário de saúde chegou a afirmar que "para eles acaba sendo mais econômico usar mulheres do Terceiro Mundo do que animais nos laboratórios de um país ocidental".

A ESTRADA DA AIDS

A estrada de Kinshsa, que atravessa a África, também é conhecida como a estrada da AIDS. Depois de salto do vírus dos primatas ao homem, acredita-se que as prostitutas contagiaram os caminhoneiros que passavam por essa rota. Finalmente, a doença chegou às grandes cidades, de onde se espalhou por todo o planeta através das redes internacionais de comunicações.

Segundo outra teoria, Anton Dega, tripulante de linhas aéreas canadense contaminado com o vírus HIV, teria propagado a AIDS no início dos anos oitenta depois de visitar muitas capitais em todo o mundo.

É Notícia: Kennedy Alencar entrevista Michel Temer e Hamilton Assis

Michel Temer (candidato à vice de Dilma Rousseff) e Hamilton Assis (candidato à vice de Plínio de Arruda Sampaio) participam deste É Notícia. Michel Temer fala sobre favoritismo da candidata Dilma Rousseff nas eleições e diz acreditar na vitória já no primeiro turno, além de comentar a agressividade na campanha política. Já Hamilton Assis fala sobre sua vida política, critica o escândalo da Receita Federal e fala sobre as propostas de Plínio para o Brasil.









Fonte: RedeTV!

DRM da Microsoft traz risco de segurança ao usuário

Controle ActiveX usado para gerenciar a visualização de arquivos também pode ser utilizado para infectar computadores.

Há algum tempo, a Microsoft é uma das grandes defensoras do gerenciamento de direitos digitais – DRM (Digital Rights Management) – e aplicou esse padrão ao sistema operacional Windows, construindo inúmeras restrições para controlar a quantidade de cópias e administrar sua utilização.

A biblioteca "msnetobj.dll", controle ActiveX, não é uma exceção: de acordo com o blog Boing Boing, sua finalidade é impedir o proprietário de um computador de salvar ou visualizar determinados arquivos exceto sob limitadas circunstâncias, como também evitar que este desabilite a biblioteca.

No entanto, além de controlar a manipulação dos arquivos, ela também pode trazer vulnerabilidades à segurança do usuário, que pode ser vítima de três tipos diferentes de ataques: negação de serviço, DoS (em inglês, Denial of Service), buffer overflow e integer overflow, segundo o blog.

"Ao conduzir uma vítima a um site mal-intencionado, um hacker poderá explorar tais falhas para executar códigos maliciosos no computador do internauta", explicou o site Exploit Database, que também abordou a questão.

Para se proteger, a melhor recomendação é verificar se o seu software de segurança está atualizado e se certificar de que os arquivos do computador estão sendo analisados com frequência pelo programa.

A Microsoft ainda não se pronunciou sobre as falhas relatadas.

Fonte: IDG Now!

Irã admite infecção de PCs em reator nuclear pelo worm Stuxnet

Praga que infecta sistemas de controle industrial atacou pelo menos 30 mil computadores no país; gerente diz que sistema crítico não foi afetado.

Alguns computadores da planta do reator nuclear Bushehr, do Irã, foram infectados pelo worm Stuxnet, mas nenhum dos sistemas críticos de controle da instalação foi afetado, informaram porta-vozes do governo iraniano neste domingo (26/9).

No sábado, o Irã admitiu que o Stuxnet infectou pelo menos 30 mil computadores no país. O worm, que alguns pesquisadores classificam como o malware mais sofisticado já produzido, tem como alvo PCs com Windows que gerenciam sistemas de controle industrial de grande escala em empresas de manufatura e de serviços públicos.

Esses sistemas de controle, conhecidos pela sigla SCADA (controle supervisor e aquisição de dados, em português), gerenciam e monitoram máquinas em instalações de energia, fábricas, dutos e instalações militares.

“Os estudos mostram que alguns PCs dos trabalhadores da instalação nuclear de Bushehr estão infectados com o vírus”, afirmou no domingo o gerente de projetos da usina, Mahmoud Jafari, à agência estatal de notícias IRNA.

Jafari negou que o worm tenha causado danos significativos aos sistemas SCADA, ou que o Stuxnet tenha causado atraso na finalização do reator.

A planta de Bushehr deverá ser ativada nos próximos meses. Em agosto, seus funcionários começaram a alimentá-la com combustível nuclear.

Principal alvo
O Stuxnet tem atraído atenção tanto por seus alvos como por sua engenhosidade técnica. Logo depois que uma empresa de antivírus da Bielorrússia ter divulgado a descoberta do worm, a empresa americana de segurança Symantec ressaltou que o Irã foi duramente atacado, tendo sido o alvo de aproximadamente 60% de todas as infecções.

Desde então, especialistas têm coletado evidências de que o Stuxnet tem atacado sistemas de controle industrial desde pelo menos janeiro de 2010, ao passo que outros têm especulado que o worm foi desenvolvido por uma equipe de programadores paga por algum governo para sabotar o reator Bushehr.

O reator, localizado no Sudeste do Irã, próximo ao Golfo Pérsico, tem sido um dos pontos de tensão entre o Irã e o Ocidente, incluindo os Estados Unidos, que acredita que o combustível consumido pelo reator pode ser reprocessado em algum lugar no país para a produção de plutônio, para uso em ogivas nucleares.

Liam O Murchu, gerente de operações da equipe de resposta de segurança da Symantec, e um dos pesquisadores que têm analisado o Stuxnet desde que ele se tornou público, disse não haver provas suficientes para concluir que o worm tinha como alvo o reator de Bushehr.

“Também vi relatórios (oficiais do Irã) de que o reator Bushehr não usa software Siemens”, dise O Murchu, referindo-se ao programa de controle da gigante alemã de eletrônicos que é o alvo primário do Stuxnet. “Se ele não usa software Siemens, as máquinas Windows podem ter sido infectadas, mas não o software SCADA”.

Por outro lado, O Murchu disse que, em plantas que usam software Siemens SCADA, a probabilidade de que o Stuxnet se prolifere de um computador Windows infectado aos sistemas de controle industrial da fábrica é “muito alta”.

“O Stuxnet pode se espalhar usando vários vetores”, disse O Murchu. “É bem possível que ele seja capaz de se espalhar pela rede e infectar o software da Siemens.”

Fonte: IDG Now!

Depois do LinkedIn, Zeus ataca também telefones móveis

Depois de invadir certificados digitais em PCs, provocar um rombo de quase um milhão de dólares em um banco da Inglaterra e usar o LinkedIn como isca para um golpe de phishing, o Zeus agora ataca os telefones móveis. A descoberta foi feita pela empresa de segurança digital Fortinet.

Segundo a companhia, uma variante do Zeus foi desenvolvida para interceptar confirmações de mensagens de texto que os bancos enviam aos usuários de serviços de Internet banking. Essa obstrução permite aos crackers burlarem as autenticações bancárias e aprovar transações sem que a vítima saiba o que está acontecendo.

Neste ataque, o malware mostra uma janela no navegador do telefone, pedindo ao usuário que indique o número e o modelo do aparelho. A partir daí, o criminoso usa esses dados para enviar um SMS à vítima, sendo que a mensagem traz embutida uma versão do código malicioso escrita para aquela plataforma.

Uma vez dentro do telefone, o Zeus monitora todas as mensagens de texto que o aparelho recebe e implanta uma brecha para que os crackers possam controlar o terminal.

A Fortinet recomenda que usuários não respondam mensagens SMS cujo remetente é de origem desconhecida.

Fonte: IDG Now!

Produção conjunta de etanol e biodiesel pode reduzir emissões

A produção conjunta de etanol e biodiesel, proposta por pesquisadores da USP, tem potencial para reduzir as emissões de gás carbônico (CO2) e melhorar o balanço energético, produzindo mais combustível a partir de uma quantidade menor de insumos.

O modelo sugerido combina a produção de álcool de cana e biocombustível de óleo de dendê na região do Cerrado brasileiro.

"O processo produtivo do etanol utiliza insumos que estão associados às emissões de CO2, como o óleo diesel, derivado do petróleo, que movimenta tratores e caminhões", diz o professor Sérgio Almeida Pacca, que orientou a pesquisa. "O trabalho buscou uma alternativa para substituir o diesel que pudesse minimizar as emissões."

Biodiesel de óleo de dendê

O combustível escolhido foi o biodiesel produzido a partir do óleo de dendê. "Ele apresenta uma produtividade maior por hectare do que outras espécies vegetais empregadas na fabricação do combustível, como a soja, o girassol e a colza (canola)", ressalta o professor.

Ao mesmo tempo, a Empresa Brasileira de Pesquisa Agropecuária (Embrapa) desenvolve uma variedade de dendê que se adapta às condições climáticas do Cerrado, onde as experiências com o cultivo de cana adaptada já são bem-sucedidas.

O processo integrado de produção foi comparado ao sistema tradicional, a partir da avaliação do ciclo de vida de ambos os métodos, para se buscar sinergias entre o álcool e o biodiesel.

"A produção de etanol a partir da cana gera o bagaço, um resíduo que pode ser usado na geração de energia para o próprio processo produtivo, ou na obtenção de eletricidade", conta Pacca. "Da mesma forma, a extração de óleo de dendê gera resíduos, como fibras e cascas de castanha, igualmente utilizáveis na geração de eletricidade."

Aproveitamento da vinhaça

Outra integração proposta na pesquisa está no aproveitamento da vinhaça, um subproduto da produção do etanol, na irrigação de cultivos.

"No cerrado, devido ao clima, o dendê precisa ser irrigado artificialmente", observa o professor. "A vinhaça de cana-de-açúcar contém água e micronutrientes, como o potássio, e o efluente da produção do biodiesel de dendê pode ser adicionado a ela."

O sistema de produção conjunto permite minimizar a necessidade de alguns insumos, em especial combustíveis fósseis, e ao mesmo tempo promover a reciclagem de subprodutos. "O cálculo do balanço de emissões revelou uma produção menor de CO2", ressalta Pacca.

A estimativa do balanço energético mostra que o investimento em insumos é menor, sem prejudicar o aumento da produção de energia.

Modelo teórico

"O modelo ainda é teórico, mas foi elaborado a partir de dados extraídos de sistemas produtivos reais", aponta o professor.

Durante o trabalho, realizado pela pesquisadora Simone Pereira de Souza, foram visitadas usinas de álcool e biodiesel para o levantamento de coeficientes de produção, além de plantios de cana e dendê, a fim de verificar suas necessidades e a utilização de insumos.

A escolha do Cerrado para a implantação da produção integrada se deve à presença de algumas características das florestas tropicais, de onde o dendê é nativo.

Viagra diminui efeitos tóxicos da quimioterapia

A combinação da doxorrubicina, uma poderosa droga anticâncer, com o citrato de sildenafil (comercializado como Viagra®), aumenta a eficácia do primeiro medicamento no combate contra tumores de próstata.

E ainda oferece um efeito adicional mais do que benéfico: a dupla de medicamentos protege o paciente contra eventuais danos ao coração.

A conclusão é de uma pesquisa feita na Virginia Commonwealth University (VCU), nos Estados Unidos.

Quimioterapia tóxica

A doxorrubicina é usada há mais de 40 anos em quimioterapia para tratar diversos tipos de câncer.

Mas, apesar da eficácia clínica da droga, seu uso está associado com danos ao coração, que muitas vezes são manifestados mesmo anos após o fim do tratamento, apontam os autores do estudo.

Por conta disso, diversos grupos de pesquisa têm buscado uma solução para proteger o sistema cardiovascular contra a toxicidade associada à doxorrubicina.

Em artigo que será publicado esta semana no site e em breve na edição on-line da revista Proceedings of the National Academy of Sciences, o grupo de Rakesh Kukreja descreve o sildenafil como alternativa potencial para o problema.

Oxigênio reativo

Os cientistas realizaram uma ampla variedade de experimentos in vitro e in vivo (com camundongos) e verificaram que a combinação das duas drogas aumentou significativamente a geração de oxigênio reativo que dispara a apoptose (morte célular) em células de tumores de próstata.

Também observaram que a mistura não atingiu células epiteliais normais e saudáveis no órgão.

"Acreditamos que o sildenafil pode ser um candidato excelente para protocolos de tratamento de câncer, com o potencial de aumentar a eficácia antitumoral ao mesmo tempo em que protege o coração contra danos de curto e de longo prazo promovidos pela doxorrubicina", disse Kukreja.

Após o sucesso com experimentos com animais, o grupo pretende iniciar em breve testes clínicos da combinação, para verificar a eficácia em humanos com câncer.

segunda-feira, 27 de setembro de 2010

Relatividade de Einstein é testada em escala humana

A diferença na passagem do tempo para objetos que se deslocam em velocidades diferentes é um dos aspectos mais discutidos e menos compreendidos da Teoria da Relatividade de Einstein.

Dadas as "dimensões sobre-humanas" envolvidas, envolvendo foguetes e gêmeos que viajam em naves espaciais, é difícil explicar o fenômeno e seus efeitos, e gerações de alunos de física têm saído da escola sem serem capazes de explicá-los de forma correta.

E isso apesar desses efeitos fazerem parte do nosso dia-a-dia. Por exemplo, a mudança na velocidade do tempo entre a superfície do planeta e o espaço exige correções constantes para os satélites artificiais da constelação GPS.

Relatividade do tempo

Agora, cientistas do laboratório NIST, nos Estados Unidos, conseguiram pela primeira vez medir o fenômeno em uma escala bem humana, de meros 33 centímetros, eventualmente abrindo caminho para que os estudantes finalmente possam compreendê-lo com mais facilidade.

Com isto, será possível, por exemplo, provar que alguém envelhece mais rapidamente se estiver alguns degraus mais alto na escada - ainda que o efeito seja pequeno demais para ser percebido diretamente por um ser humano.

Mesmo mudar-se para o alto de uma montanha não produziria efeito suficiente para aumentar a expectativa de vida de alguém de maneira significativa - na escala usada pelos cientistas, de 33 centímetros, o efeito da mudança na passagem do tempo acrescentaria cerca de 25 bilionésimos de segundo a alguém que vivesse 80 anos.

O experimento também permitiu que os pesquisadores checassem outro aspecto da relatividade - que o tempo passa mais lentamente quando você se move mais a uma velocidade maior.

Trazido às dimensões humanas, o aparato dispensou as naves espaciais e permitiu a verificação do efeito usando um carro rodando a uma velocidade de 32 quilômetros por hora.

Relógios lógicos quânticos

Os cientistas observaram o fenômeno da dilatação do tempo previsto pela Teoria da Relatividade usando dois dos mais precisos relógios atômicos já construídos.

Os dois relógios são quase idênticos e dão seus "tiques" acompanhando as vibrações de um único íon de alumínio - um átomo de alumínio eletricamente carregado. O íon vibra entre dois estados de energia mais de um quatrilhão de vezes por segundo.

Com essa precisão, um dos relógios serve com base, mantendo a marcação do tempo com possibilidade de atrasar um segundo em cerca de 3,7 bilhões de anos. Ele é conectado ao outro por meio de um cabo de fibra óptica. Este segundo relógio é então movimentado para fazer os experimentos.

Esses relógios são também chamados de "relógios lógicos quânticos" porque usam técnicas de tomada de decisão lógica empregadas pelos experimentos de computação quântica. Eles são precisos e estáveis o suficiente para revelar diferenças na medição do tempo que não podiam ser monitoradas até agora.

Os relógios lógicos quânticos funcionam disparando a luz de um laser sobre o íon de alumínio em frequências ópticas, que são maiores do que as frequências de micro-ondas usadas atualmente nos relógios atômicos que estabelecem o padrão de tempo, baseados em átomos de césio.

Teoria da Relatividade em escala humana

Os experimentos focaram dois cenários previstos pela Teoria da Relatividade de Einstein.

No primeiro, quando dois relógios estão sujeitos a forças gravitacionais diferentes, por estarem em diferentes elevações acima da superfície da Terra, o relógio que estiver mais alto experimenta uma força gravitacional menor e, por isto, seus tiques ocorrem a uma velocidade ligeiramente maior - o que equivale a uma passagem mais rápida do tempo em relação ao relógio em posição inferior.

No segundo cenário, quando um observador está se movendo, o tique de um relógio estacionário parecerá durar mais do ponto de vista daquele observador, o que fará com que ele marque o tempo mais lentamente. Ou o oposto, o tique do relógio do observador baterá a uma velocidade ligeiramente menor, fazendo com que o tempo para ele passe mais lentamente em relação ao relógio fixo.

Os cientistas chamam isso de "paradoxo dos gêmeos", porque um gêmeo que viaje em uma nave espacial, ao voltar para casa, estará mais novo do que seu irmão. O fator crucial nesse fenômeno é a aceleração (o aumento e a redução na velocidade) que o gêmeo-astronauta experimenta em sua viagem.

Os cientistas observaram estes fenômenos fazendo alterações específicas em um dos dois relógios atômicos de alumínio e medindo as diferenças resultantes em relação ao outro relógio usado como parâmetro.

No primeiro experimento, os cientistas colocaram um dos relógios cerca de trinta centímetros mais alto do que o outro. As medições mostraram exatamente os resultados previstos pela teoria.

Como um relógio atômico é grande e sensível demais para ser colocado no porta-malas de um carro, para fazer o segundo experimento os cientistas fizeram o íon de alumínio - que fica praticamente parado no interior do relógio atômico - se movimentasse para frente para trás, resultando em velocidades equivalentes a um movimento de alguns metros por segundo. De novo, o resultado foi exatamente o previsto pela relatividade.

Relógios atômicos de alumínio

Essas comparações entre relógios superprecisos eventualmente poderão ser úteis em geodésia, a ciência que mede a Terra e seu campo gravitacional, com aplicações em hidrologia e geofísica e, eventualmente, em testes das teorias fundamentais da física usando observatórios espaciais.

Os relógios atômicos de alumínio conseguem detectar os pequenos efeitos da relatividade devido à sua extrema precisão e a um elevado fator "Q", uma quantidade que reflete de forma confiável como o íon absorve e retém a energia óptica ao passar de um nível de energia para outro.

"Nós observamos o maior fator Q já visto em física atômica", disse James Chin-Wen Chou, que coordenou os experimentos. "Você pode pensar nisso como o tempo que um diapasão vibra antes de perder a energia armazenada em sua estrutura ressonante. Nós colocamos o íon oscilando em sincronia com a frequência do laser por cerca de 400 trilhões de ciclos."

Os cientistas esperam que, no futuro, os relógios atômicos ópticos permitam a criação de padrões de medição do tempo 100 vezes mais precisos do que os atuais - veja também Batido recorde mundial do menor tempo já medido.

Folhas artificiais usam clorofila para gerar eletricidade

Pesquisadores demonstraram que tentar imitar mais de perto a natureza pode ser um caminho promissor para a fabricação de células solares mais eficientes.

O que eles chamam de "folhas artificiais" representa um novo tipo de células solares "molhadas", feitas com um gel rico em água, com potencial de serem mais baratas e ambientalmente mais amigáveis do que as células solares à base de silício.

Agora que demonstraram que o conceito funciona, o que a equipe coordenada por pesquisadores da Universidade do Estado da Carolina do Norte, nos Estados Unidos, quer fazer é otimizar suas células solares molhadas, para que elas gerem energia em quantidades práticas.

Folha artificial

A folha artificial é composta por um material flexível feito com um gel à base de água e infundido com moléculas sensíveis à luz.

Para que os elétrons gerados são capturados, produzindo-se uma corrente elétrica, a folha artificial é acoplada a eletrodos de alto rendimento, revestidos por nanotubos de carbono ou grafite.

Para se aproximar ainda mais da natureza, em um dos experimentos os cientistas utilizaram clorofila como molécula fotossensível.

As moléculas sensíveis à luz assumem um estado "excitado" quando são atingidas pelos raios do Sol, produzindo eletricidade, de forma semelhante às moléculas das plantas que usam essa excitação para sintetizar os açúcares que lhes servem de alimento.

Biomimetismo

O Dr. Orlin Velev, coordenador do trabalho, afirma que o objetivo da pesquisa é "aprender a imitar os materiais que a natureza usa para aproveitar a energia solar."

Embora se possa usar moléculas sensíveis à luz sintéticas, Velev afirma que os materiais derivados da natureza, como a clorofila, podem ser mais facilmente integrados nessas folhas artificiais graças à sua matriz de gel aquoso.

"O próximo passo é imitar os mecanismos de autorregeneração encontrados nas plantas," diz Velev. "O outro desafio é ajustar o gel à base de água e as moléculas sensíveis à luz para melhorar a eficiência das células solares."

No início deste ano, um grupo de pesquisadores chineses usou um conceito semelhante para criar folhas semi-artificiais que imitam a fotossíntese para produz hidrogênio.

Informações quânticas trafegam em rede de fibras ópticas

Cientistas do Instituto de Tecnologia da Geórgia, nos Estados Unidos, fizeram avanços em três elementos-chave necessários para os sistemas de informação quântica.

Entre as descobertas destaca-se uma técnica para converter fótons que transportam dados quânticos para comprimentos de onda que podem ser transmitidos por longas distâncias pelas redes de fibras ópticas.

Rede de informação quântica

Os avanços criam ferramentas importantes para a esperada construção de um protótipo de rede de informação quântica, que codifica os dados de forma segura por meio do entrelaçamento de átomos e fótons.

O objetivo de uma rede quântica é distribuir qubits entrelaçados - dois bits de dados relacionados que são ou "0" ou "1" - por longas distâncias. Os qubits viajavam como fótons pelas redes de fibras ópticas já existentes, que fazem parte do sistema de telecomunicações em nível mundial.

Devido às perdas na intensidade do sinal que ocorre ao longo das fibras ópticas, será necessário instalar repetidores (hubs) em intervalos regulares na rede para reforçar os sinais.

Para lidar com os qubits, esses repetidores vão precisar de uma memória quântica para receber o sinal fotônico, armazená-lo brevemente, e depois produzir um outro sinal de maior intensidade que vai transportar os dados para o nó seguinte, e assim por diante, até o seu destino final.

Conversão entre comprimentos de onda

Usando nuvens ultra-frias de átomos de rubídio, os pesquisadores desenvolveram um sistema eficiente para a conversão de fótons que carregam informações quânticas em comprimentos de onda infravermelhos para comprimentos de onda apropriado para a transmissão pelos sistemas de telecomunicações convencionais.

Os pesquisadores demonstraram que o sistema mantém as informações durante a conversão para os comprimentos de ondas das telecomunicações e de volta para os comprimentos de onda infravermelhos originais.

O segundo avanço foi no aumento da vida da informação quântica, que foi mantida por até 0,1 segundo. Isto é 30 vezes mais do que já havia sido conseguido antes e se aproxima da meta das memórias quânticas, que é de 1 segundo - o suficiente, acreditam os pesquisadores, para que a informação possa ser transmitida de forma confiável para o próximo nó da rede.

Por último, os pesquisadores desenvolveram a técnica necessária para converter de volta os fótons dos comprimentos de onda das telecomunicações para os comprimentos de onda infravermelhos, com baixo ruído e sem perder as informações codificadas quanticamente pelo entrelaçamento dos fótons.

A técnica de conversão óptica resolve um problema de longa data para a criação de redes quânticas: enquanto o comprimento de onda mais adequado para o armazenamento quântico é de 795 nanômetros, as fibras ópticas transmitem com menor absorção em 1300 nanômetros, ou 1,3 micrômetro.

Memória quântica

A conversão entre diferentes comprimentos de onda ocorre no interior de um sofisticado sistema que utiliza uma nuvem de átomos de rubídio densa o suficiente para maximizar a probabilidade de interação com os fótons que chegam.

Dois feixes separados de laser excitam os átomos de rubídio, que são mantidos em uma armadilha magneto-óptica cilíndrica de cerca de seis milímetros de comprimento.

O aparato gera um processo de mistura de quatro ondas que altera o comprimento de onda dos fótons que entram.

Assim que os fótons são convertidos em comprimentos de onda de telecomunicações, eles viajam através de uma fibra óptica e retornam para a armadilha magneto-óptica.

Eles são então convertidos de volta para comprimentos de onda infravermelhos para verificar se o emaranhamento quântico foi mantido.

A memória quântica é criada quando a luz de um laser é direcionada para a nuvem de átomos de rubídio. A energia excita os átomos, e os fótons produzidos pelos átomos no processo de excitação carregam informações sobre a própria excitação. São esses fótons, que carregam a informação quântica, que são introduzidos no sistema de conversão de comprimentos de onda.

"Este é o primeiro sistema em que uma memória quântica de longa duração foi integrada com a capacidade de transmitir em comprimentos de onda de telecomunicações", disse Brian Kennedy, um dos autores da pesquisa. "Nós temos agora os aspectos cruciais necessários para fazer um repetidor quântico".

O que falta para o Brasil se tornar um país desenvolvido?

O Brasil foi uma das primeiras grandes economias a superar a crise global, deve crescer mais de 7% neste ano, vem reduzindo a pobreza e melhorando em vários indicadores sociais.

Mas o país chegará algum dia a se tornar uma nação considerada desenvolvida? E o que falta para isso acontecer?

"O Brasil precisa melhorar a qualidade da educação pública", diz o editor para as Américas da revista britânica The Economist, Michael Reid.

"É necessário que o Brasil amplie a sua classe média", afirma o economista Jim O'Neill.

"O Brasil precisa aumentar a taxa de poupança interna para acima de 30% do PIB", sugere o comentarista econômico do jornal britânico Financial Times.

A poucos dias das eleições presidenciais, esses e outros especialistas estrangeiros, ouvidos pela BBC Brasil, listaram os desafios que o país ainda enfrenta para chegar à condição de nação desenvolvida.

Economistas, acadêmicos, representantes de organizações internacionais, think- tanks e organizações não-governamentais afirmam que o Brasil ainda tem muito a fazer em áreas que incluem redução da desigualdade, a melhoria da educação, reformas nas instituições públicas, combate à corrupção, combate à violência e até mesmo respeito ao meio ambiente e aos direitos humanos.

"O Brasil está vivendo um momento excepcional, fruto de décadas de trabalho árduo. Porém nenhum desenvolvimento acontece sem obstáculos, e os desafios permanecem", diz o economista senegalês Makhtar Diop, diretor do Banco Mundial para o Brasil.

Pobreza e desigualdade

A economia brasileira se consolidou como a 8ª maior do mundo neste ano, mas o país ainda é apenas o 72º do mundo em renda per capita, atrás de países como Argentina (50º), México (53º), Turquia (57º), Venezuela (66º) e Irã (68º), segundo dados do Banco Mundial.

Nos últimos oito anos, segundo dados do IBGE (Instituto Brasileiro de Geografia e Estatística), o crescimento econômico ajudou a tirar mais de 20 milhões de pessoas da pobreza. Mas dados do Banco Mundial mostram que o Brasil ainda tinha, em 2007, 12,7% de sua população vivendo abaixo da linha de pobreza, com menos de US$ 2 por dia. Há 30 anos, esse porcentual era de 31,1%.

Para efeito de comparação, a China, que em 1981 tinha 97,8% de sua população vivendo abaixo da linha de pobreza, chegou a 2005 com 36,3%. Segundo os critérios do Banco Mundial, o percentual de pobres nos principais países desenvolvidos é próximo de zero.

O Brasil também continua sendo um dos mais desiguais do mundo - de acordo com o coeficiente de Gini, calculado pelo Programa das Nações Unidas para o Desenvolvimento (PNUD), o Brasil tem a 11ª maior desigualdade entre ricos e pobres no mundo.

"A desigualdade é o maior problema do Brasil. A desigualdade enfraquece o crescimento econômico e gera altos níveis de criminalidade e insegurança", observa o americano Barry Ames, diretor do departamento de ciência política da Universidade de Pittsburgh e especialista em Brasil do Centro de Estudos Latino-Americanos da instituição.

O coeficiente de Gini tem uma variação entre 0 (mais igual) e 1 (mais desigual). O coeficiente do Brasil é 0,550, melhor apenas do que Honduras, África do Sul, Bolívia, Colômbia, Angola, Haiti, Afeganistão, Botsuana, Guiné Equatorial e Namíbia.

Os países menos desiguais do mundo, segundo o PNUD, são Dinamarca e Japão, com coeficientes 0,247 e 0,249, respectivamente. Os Estados Unidos, país mais desigual entre os países desenvolvidos, está apenas em 89º no ranking global, com coeficiente 0,408.

País de classe média

O crescimento econômico e a redução da pobreza tiveram como efeito um fenômeno que para muitos analistas mostra o Brasil no caminho de ser um país predominantemente de classe média, característica da grande maioria dos países desenvolvidos.

Segundo um estudo publicado neste mês pela Fundação Getúlio Vargas (FGV), a classe C passou no ano passado a representar mais da metade da população brasileira (50,5%), com a incorporação de 29 milhões de pessoas entre 2003 e 2009, e ultrapassou as classes A e B em pode de compra.

"Se há uma única diferença entre uma economia tipicamente desenvolvida e uma em desenvolvimento, é talvez o tamanho de suas classes médias", diz o britânico Jim O'Neill, que como economista-chefe do banco Goldman Sachs cunhou o acrônimo BRIC para identificar os quatro gigantes emergentes Brasil, Rússia, Índia e China.

Mas os sinais positivos da economia brasileira são seguidos por problemas persistentes identificados mais comumente como "problemas de terceiro mundo", como é o caso da corrupção.

Em um ranking anual sobre percepção de corrupção divulgado pela ONG Transparência Internacional no fim do ano passado, o Brasil obteve uma avaliação levemente pior do que no ano anterior, apesar de ter subido cinco posições no ranking de 182 países, ocupando a 75ª posição.

O Brasil aparece à frente da China (79ª posição) e apenas algumas posições atrás da Itália (63ª), país que faz parte do G7, o grupo que reúne os sete países mais industrializados do mundo. Os Estados Unidos aparecem na 19ª posição, e a Nova Zelândia lidera o ranking.

Para a diretora-executiva da Transparência Internacional, Huguette Labelle, se quiser chegar ao nível de nação desenvolvida o Brasil precisa avançar nessa área. "O desafio do Brasil agora é fortalecer suas instituições, fazê-las ainda mais transparentes e melhorar suas prestações de contas ao público em todos os níveis de governo", afirma Labelle.

Educação e saúde

Indicadores sociais em áreas como educação e saúde também mostram o longo caminho que o país ainda precisa percorrer para atingir o status de país desenvolvido.

A taxa de analfabetismo no país, que em 1960 chegava a 40%, caiu a 9,7% no ano passado, segundo dados do IBGE, enquanto o acesso à educação básica foi praticamente universalizado no país, com uma elevação do acesso à escola de 86,6% em 1992 para 97,9% em 2008, entre as crianças de 7 a 14 anos.

Além disso, no período entre 1998 e 2008, o número de alunos matriculados no ensino superior no país mais que dobrou, passando de 2,1 milhões para 5,1 milhões, segundo o Ministério da Educação.

Mas se os números absolutos mostram uma evolução, a qualidade do ensino ainda deixa a desejar. Um estudo elaborado pela OCDE (Organização para a Cooperação e Desenvolvimento Econômico) em 2007 mostrou os alunos brasileiros entre os piores em conhecimentos de matemática, capacidade de leitura e ciências entre 57 países analisados.

"A melhoria da qualidade da educação pública é sem dúvida um dos pontos necessários para que o Brasil possa ser elevado à categoria de país desenvolvido", observa o jornalista Michael Reid, editor para as Américas da revista britânica The Economist.

Para o brasilianista Gonzálo Gómez Dacal, diretor do Centro de Estudos Brasileiros da Universidade de Salamanca, na Espanha, somente com a melhoria da qualidade da educação pública em todos os níveis que o Brasil será capaz de aproveitar "os recursos intelectuais de toda a população, especialmente da capacidade de criação das pessoas inteligentes que formam parte das camadas mais desfavorecidas da população".

Qualidade de vida

Na área da saúde, mais uma vez, a universalização conseguida pelo Sistema Único de Saúde convive com questionamentos sobre a qualidade do atendimento e dos programas de prevenção.

A expectativa de vida do brasileiro subiu de 66 anos, em 1991, para 72,4 em 2010, segundo dados da ONU, deixando o país no 92º lugar do ranking mundial sobre esse indicador.

O país também conseguiu reduzir a mortalidade infantil em mais de 60% nos últimos anos, de 52,04 mortes por mil nascimentos em 1990 para 19,88 a cada mil em 2010.

Ainda assim, o Brasil ainda é o 90º do ranking nesse indicador, muito aquém de países como Grécia (6,7 mortes por mil nascimentos), Estados Unidos (6,3) ou Portugal (5) e mais longe ainda dos países com menos mortes - Islândia (2,9), Cingapura (3) ou Japão (3,2).

Segundo dados do Fundo das Nações Unidas para a Infância (Unicef), pouco menos de um décimo da população brasileira ainda não tem acesso a água potável tratada, mas na área rural, essa proporção aumenta para 4 em cada 10 moradores. O acesso a esgoto chega a apenas 77% da população, e apenas 37% na área rural.

A condição brasileira é melhor do que a de outro gigante emergente, a China, que tem 88% da população com acesso a água tratada e 65% com acesso a esgoto, mas ainda está muito aquém de países desenvolvidos como Estados Unidos, (99% com acesso a água e 100% com acesso a esgoto) ou Portugal (99% e 99%).

Avanços e desafios

As estatísticas mostram que o Brasil vem avançando nos últimos anos, em algumas áreas a passos largos e em outras a passos curtos, mas que o caminho para chegar a ser um país desenvolvido ainda é longo.

"As condições de base estão dadas para que o país se torne uma potência", afirma o representante no Brasil do BID (Banco Interamericano de Desenvolvimento), José Luis Lupo, para quem a concretização desse potencial depende de ações do governo por reformas.

"O Brasil enfrenta desafios importantes para se transformar de um país 'de renda média' para uma economia inovadora e movida pelo conhecimento", afirma a consultora suíço-americana Suzanne Rosselet-McCauley, vice-diretora do Centro Mundial de Competitividade da escola suíça de administração IMD, uma das cinco principais da Europa.

"Ainda está para ser visto se o país pode evitar a 'armadilha do rendimento médio' ao manter seus ganhos de estabilidade macroeconômica e política e se beneficiar de níveis mais altos de crescimento", avalia.

Nanotubos de carbono são duas vezes mais fortes do que se pensava

Os nanotubos de carbono andaram meio sumidos, um pouco eclipsados pelo sucesso inesperado do grafeno, seu parente muito próximo.

Na verdade, centenas de grupos de pesquisas ao redor do mundo continuam trabalhando com os nanotubos, que já podem ser considerados "maduros" em várias áreas de pesquisa, principalmente na eletrônica.

Mas uma nova medição promete dar um novo ímpeto ao uso dos nanotubos de carbono como material estrutural, que já foram apontados até mesmo como os candidatos mais promissores para a construção dos elevadores espaciais.

Resistência dos nanotubos

Stephen Cronin e seus colegas descobriram que os nanotubos de carbono são muito mais fortes do que se pensava até agora - pelo menos 117 vezes mais resistentes do que o aço e 30 vezes mais fortes do que o Kevlar®, o material atualmente usado para a construção de coletas à prova de balas.

Estes resultados são mais do que o dobro verificado nas medições anteriores.

Para resolver as incertezas sobre a resistência real dos nanotubos, os cientistas aplicaram fortíssimas tensões sobre nanotubos de carbono individuais de diferentes comprimentos e diâmetros.

Eles descobriram que os nanotubos podem ser esticados em até 14 por cento do seu comprimento normal sem se quebrar - isto também é mais do que o dobro do resultado verificado nas medições anteriores.

Cabos de elevadores espaciais

A descoberta estabelece "um novo limite inferior para a resistência à tração dos nanotubos de carbono," dizem os pesquisadores em seu artigo, ressaltando que é possível que medições mais precisas e nanotubos de melhor qualidade possam mostrar resultados ainda melhores.

Mesmo antes desses resultados, os nanotubos de carbono já eram reconhecidos pela sua força excepcional, alta condutividade elétrica e várias outras propriedades.

Isso os tem colocado como candidatos para uma grande variedade de aplicações futurísticas, até mesmo como o material para a construção dos cabos de "elevadores espaciais", que aposentariam os foguetes, colocando cargas em órbita da mesma forma que alguém hoje sobe do térreo para o último andar de um edifício.

Bomba cardíaca ganha propulsão a ar

Um grupo de médicos e engenheiros da Universidade de Viena, na Áustria desenvolveu uma microbomba capaz de manter o coração humano funcionando em condições críticas.

Para ser inserida pela ponta de um cateter, e não representar nenhum problema adicional ao coração já fragilizado, os pesquisadores concluíram que o tamanho ideal da bomba não poderia ultrapassar 5 milímetros de diâmetro e 4,5 milímetros de comprimento.

Contudo, antes de miniaturizar o equipamento, eles precisavam comprovar sua eficiência. Para isso, construíram uma versão 2:1, com o dobro do tamanho do dispositivo final. O funcionamento foi comprovado pela equipe do cirurgião cardíaco Werner Mohl.

A microbomba chega até o coração levada na ponta de um cateter, sendo instalada entre as válvulas do coração, ajudando a bombear o sangue.

Bomba cardíaca a ar

A bomba é operada pneumaticamente, uma vez que um dos principais objetivos dos pesquisadores era evitar a geração de calor verificada nas bombas cardíacas acionadas por motores elétricos.

"O calor que é produzido [pela bomba] é transferido para o sangue. O professor Mohl nos procurou com um pedido para que construíssemos uma bomba com propulsão pneumática que não precisasse ser refrigerada," explica Margit Gföhler, que desenvolveu a bomba juntamente com seu colega Helmut Mad.

A bomba cardíaca foi projetada como um equipamento auxiliar para ser implantado temporariamente após uma cirurgia crítica ou após um ataque cardíaco, devendo permanecer no paciente por um período de cinco a dez dias, até que melhore o estado clínico do paciente ou que ele possa receber um equipamento tradicional.

"A bomba é alimentada com ar comprimido através de um tubo. Naturalmente, o sangue que é transportado é hermeticamente separado do ar comprimido. Sua capacidade de bombeamento é de cinco litros por minuto," conta Mad.

Bomba de cerâmica

Com tais dimensões, os pesquisadores não puderam contar com nenhuma peça disponível no mercado. Eles tiveram que projetar e construir individualmente cada componente da microbomba.

Eles já construíram um segundo protótipo, feito inteiramente de cerâmica, que deverá ser testado nos próximos meses.

Os pesquisadores ainda não sabem estimar o preço que o equipamento poderia atingir se fosse produzido em escala industrial, o que deverá ser aferido em uma etapa posterior.

Brasileiros descobrem pista para estudar a gravitação quântica

A medição direta dos efeitos da gravitação quântica é praticamente impossível. O motivo é que eles têm origem em locais inacessíveis ao homem, como em buracos negros. Além disso, seus efeitos são extremamente sutis.

Mas um grupo de físicos brasileiros desenvolveu um meio de estudar indiretamente um desses fenômenos, a flutuação da velocidade da luz.

Líquidos heterogêneos

A solução consiste em usar experimentos de propagação de ondas acústicas em fluidos com aleatoriedade, como em coloides, líquidos heterogêneos que contêm partículas ou moléculas de diferentes tamanhos em suspensão - o leite é um exemplo.

O trabalho foi realizado por Gastão Krein, do Instituto de Física Teórica (IFT) da Universidade Estadual Paulista (Unesp), Nami Svaiter, do Centro Brasileiro de Pesquisas Físicas (CBPF), e Gabriel Menezes, pós-doutorando da Unesp.

"Em uma conversa que tivemos com Svaiter, surgiu a ideia de que a propagação do som em fluidos coloides poderia apresentar efeitos similares aos da luz em ambientes nos quais a gravitação quântica seria relevante", disse Krein.

O encontro entre os físicos foi importante para a concepção da pesquisa, uma vez que Krein tem larga experiência em estudos com equações com flutuações aleatórias e Svaiter é especialista em gravitação quântica, tendo desenvolvido estudos de seus efeitos com Lawrence Ford, da Universidade Tufts, nos Estados Unidos.

Flutuações clássicas e quânticas

Flutuações em um fluido podem ser clássicas ou quânticas. O artigo demonstra que é possível usar microvibrações em coloides como uma plataforma para estudar a gravitação quântica. Segundo o estudo, os dois fenômenos são descritos por equações matemáticas similares.

Se trabalhos com coloides são comuns e conhecidos, o mesmo não se pode dizer do segundo fenômeno. Na gravidade quântica a velocidade da luz não é uma constante, como ensina a física clássica, mas flutua de um ponto a outro devido aos efeitos quânticos. Estima-se que esse tipo de gravidade esteja presente em buracos negros e tenha vigorado durante o Big Bang.

Outros experimentos já foram propostos para estudar a gravidade quântica, mas o trabalho dos brasileiros é o primeiro a contemplar o estudo das flutuações da velocidade da luz através das flutuações da velocidade de propagação de ondas acústicas em fluidos.

Segundo Krein, o mérito da pesquisa foi ter apontado um meio de simular em laboratório um fenômeno de observação não possível atualmente. "O comportamento das ondas sonoras ao se propagar em um meio aleatório, como os coloides, permite trazer para o laboratório efeitos análogos aos da gravitação quântica", disse.

Radiação Hawking

Krein e colegas pretendem usar os modelos com fluidos para estudar o equivalente a um buraco negro e como vibrações acústicas quânticas são criadas e destruídas próximo a essas formações no espaço.

Os físicos buscam compreender melhor o fenômeno conhecido como "radiação Hawking", prevista em 1973 pelo físico inglês Stephen Hawking. Segundo Hawking, os buracos negros encolhem com a perda de energia por meio dessa radiação.

Krein, Svaiter e Menezes procuram também grupos experimentais de pesquisa que investiguem fluidos e se interessem em fazer experimentos nessa área.

"Com um fluido, podemos controlar parâmetros do experimento, como a densidade e a concentração das partículas em suspensão, e, com isso, aprender como muda a propagação do som de maneira controlável no laboratório. Isso permitirá construir correlações dos resultados com o que ocorre na gravitação quântica", disse Krein.

sábado, 25 de setembro de 2010

Turma do Boliche 21/09/2010

Caros leitores, após um longo e tenebroso inverno FINALMENTE apareceu um tópico do BOLICHE, ALEUIA.

Os jogos estão em geral bem competitivos, mesmo com o já famoso e lendário "Cavalo Paraguaio", ou para os íntimos "O Amarelo", PASMANDO.

O último jogo irei resumi-lo com uma imagem que retrata muito bem o desempenho do meu time, ja que dizem que uma imagem vale mais que mil palavras, CLIQUE AQUI e chorem.

Agora as equipes tem 4 integrantes (CADA) se degladiando em todas as apostas possíveis e imagináveis e também as inimagináveis.

Falando em aposta, ACHO que a situação Brasileira é a seguinte:

- Churrasco: 2x1 Pro time do Guilherme
- Barba, Cabelo e Bigode (BCB): 3x1 Também pro time do Guilherme (rs)
- Gasolina: 2x1 Pro Guilherme contra o Sansão

Bom, Sansão ficou de me enviar (fudeu?) a planilia do Excel com os dados para a formatação da tabela do boliche, e para fechar com chave de ouro, abaixo os videos do Guilherme pagando a aposta da gasolina.

Vídeo 1
http://www.youtube.com/watch?v=ITOUy-1YF1A
Vídeo 2
http://www.youtube.com/watch?v=xWZsQ06oPfY

Hackers começam a explorar falha crítica no ASP.Net

Em uma atualização de um alerta publicado na última segunda-feira (20/9), a empresa afirmou que estava analisando “ataques limitados e ativos neste momento”. A Symantec, que tem uma enorme rede global de sensores e sistemas honey-trap (armadilhas para detectar ataques) para capturar exploits, disse que não tinha visto nenhum ataque, no entanto.

A vulnerabilidade existe em todas as versões do ASP.Net, plataforma da empresa para aplicativos da Web, usada para criação de milhões de sites e aplicativos. O bug permite que crackers acessem aplicativos Web com direitos completos de administrador; dessa forma, eles podem descriptografar os cookies de sessão ou outros dados criptografados em um servidor remoto, além de acessar arquivos de um site ou aplicativo da Web.

A empresa reiterou o compromisso de corrigir a vulnerabilidade, mas, como na semana passada quando reconheceu o bug, não definiu uma data de entrega para a correção.

"Nós vamos lançar um patch no Windows Update, então todas as máquinas vão buscá-lo", disse Scott Guthrie, o executivo da Microsoft, que comanda a equipe de desenvolvimento ASP.Net.

As próximas atualizações de segurança regulares estão programadas para o dia 12 de outubro, Ocasionalmente, patches de emergência - chamados de atualizações "out-of-band" - para resolver os problemas como o do ASP.Net, quase sempre aparecem após os ataques.

Até que a empresa lance uma correção, Guthrie continua recomendar que sites e desenvolvedores de aplicativos para tapem o buraco com uma solução temporária que envolve a edição do arquivo "web.config".

O SharePoint Server 2007 e o SharePoint 2010 também estão vulneráveis a ataques ASP.Net, disse a Microsoft. A equipe do SharePoint publicou diferentes instruções web.config com edições de alto nível no software de colaboração.

A Microsoft não estava subestimando a ameaça de sites e aplicações. "O exploit pode ser usado contra todos os tipos de aplicações ASP.NET", disse Guthrie em um FAQ que ele postou segunda-feira.

"Todos os sites que usam o ASP.NET são afetados por esta vulnerabilidade", ecoou Kevin Brown, um engenheiro da Microsoft Security Response Center (MSRC).

Fonte: IDG Now!

Supervírus de computador ataca usina nuclear iraniana

Um tipo de vírus de computador, dos mais sofisticados já detectados, pode ter como alvo infraestrutura iraniana de "alto valor", segundo especialistas ouvidos pela BBC.

A complexidade do malware Stuxnet, programa que permite o acesso remoto ao computador infectado, sugere que ele deve ter sido criado por algum governo nacional, de acordo com alguns analistas.

Acredita-se que o vírus seja o primeiro especialmente criado para atacar infraestruturas reais, como usinas hidroelétricas e fábricas.

Uma pesquisa da Symantec, empresa norte-americana de segurança informática, sugere que quase 60% de todas as infecções mundiais ocorrem no Irã.

"O fato de que vemos mais infecções no Irã do que em qualquer outro lugar do mundo nos faz pensar que o país era alvo", diz Liam O'Murchu, da Symantec.

O Stuxnet foi detectado por uma empresa de segurança de Belarus em junho, embora esteja circulando desde 2009 e vem sendo intensivamente estudado desde então.

Stuxnet

O Stuxnet, ao contrário da maioria dos vírus virtuais, não está conectado com a internet. Ele infecta máquinas Windows por meio de portas USB e pen drives usados para transportar arquivos.

Uma vez que infecta uma máquina da intranet, a rede interna, da empresa, o vírus busca uma configuração específica de um software para controle industrial feito pela Siemens.

O Stuxnet passa então a dar à máquina novas instruções "desligando motores, mexendo no monitoramento de temperaturas, desligando refrigeradores, por exemplo", diz O'Murchu.

"Nunca vimos este tipo de ataque antes", diz ele.

Se não encontra a configuração específica, o vírus permanece inofensivo.

Arma estatal

O Stuxnet impressiona pela complexidade do código usado e por usar muitas técnicas diferentes.

"Ele apresenta muitas tecnologias que não conhecemos", disse O'Murchu, que cita as formas de se manter escondido em pen drives e os métodos de infecção.

"É um projeto enorme, muito bem planejado e financiado", diz ele.

Sua análise é similar a de outros especialistas.

"Com as provas que temos, é evidente e provável que o Stuxnet seja uma arma de sabotagem direcionada, que contou com informações de membros da indústria", disse o especialista em Tecnologia da Informação industrial Ralph Langner em artigo publicado na internet.

"Não se trata de um hacker trabalhando no porão da casa dos pais. Ele tem uma quantidade incrível de códigos apenas para infectar outras máquinas", diz ele.

"Para mim, os recursos necessários para realizar um ataque destes apontam para um governo", diz ele.

Usina nuclear

Langner sugeriu que o Stuxnet pode ter atacado a usina nuclear de Bushehr.

O especialista afirma que uma foto supostamente tirada na usina sugere que esta usa sistemas da Siemens, embora "não configurados ou licenciados corretamente".

Outros especialistas especularam que o vírus pode estar atacando a usina de enriquecimento de urânio de Natanz. Mas O'Murchu e outros dizem que não há evidências de quais seriam os alvos específicos.

Um porta-voz da Siemens disse que empresa não comentaria "especulações sobre o alvo do vírus", afirmando que a usina iraniana foi construída por uma empresa russa, sem qualquer envolvimento de sua companhia.

"A Siemens deixou o país há quase 30 anos", disse ele.

O'Murchu apresentará um estudo sobre o vírus em uma conferência em Vancouver, Canadá, em 29 de setembro.

Canos de íons feitos com nanotubos dessalinizam água do mar

Cientistas do MIT observaram, pela primeira vez, íons individuais fluindo no interior de nanotubos de carbono com dimensões grandes o suficiente para servirem para aplicações práticas.

Esses nanocanais poderão ser usados para construir sistemas completamente novos de dessalinização de água, eventualmente revolucionando o uso da água do mar em locais com problemas de abastecimento.

Os canais iônicos também poderão ser usados como sensores ultrassensíveis, capazes de detectar átomos individuais ou para estudar reações químicas em nível molecular.

Íons de sódio e cloro

Os nanotubos de carbono são canos minúsculos, cuja parede é formada por uma única camada de átomos de carbono. Eles são como que folhas enroladas de grafeno.

Tidos como extremamente promissores, os nanotubos têm sido usados para a criação de baterias, transistores, sensores, células solares e uma variedade de materiais mais resistentes do que qualquer outro conhecido.

No novo experimento, a equipe do Dr. Michael Strano verificou que íons de cloro e sódio, que se formam quando o sal é dissolvido em água, fluem rapidamente através dos nanotubos de carbono.

Mais do que isso, sob determinadas condições, eles atravessam o nanocanal em fila indiana, um após o outro, o que pode trazer um novo nível de precisão para as reações químicas, tanto em sua observação quanto em sua realização.

Do nano ao macro

O experimento permite a passagem das moléculas ao longo de grandes distâncias - de até meio milímetro. "De uma perspectiva molecular, essa é uma distância excepcionalmente longa," disse o Dr. Shekhar Garde, que não participou da pesquisa, ao comentar o artigo publicado na revista Science.

"Essa ponte entre o mundo nano e o mundo macro pode abrir novas oportunidades para explorar os fenômenos em nanoescala para aplicações do dia-a-dia, da purificação da água a redes nanofluídicas, sensores e células a combustível," disse Garde.

Atualmente, o nanocanal mais estudado é feito com nanoporos de silício, construído perfurando-se uma película de silício, normalmente usando um feixe de elétrons.

O inconveniente é que o nanocanal de silício só tem a extensão da espessura da película, sendo útil apenas para detectar moléculas maiores, como DNA ou polímeros. Qualquer coisa menor passa rápido demais, sem tempo suficiente para ser detectado. Em comparação, o nanotubo de carbono é 20.000 vezes mais extenso.

Membrana para dessalinização de água

Os nanotubos foram crescidos de forma a atravessar uma placa de um centímetro quadrado, que é usada para conectar dois reservatórios de água. Cada reservatório tem um eletrodo, um positivo e outro negativo.

Como a eletricidade só pode fluir se os prótons - íons positivos de hidrogênio - puderem viajar de um eletrodo até o outro, os pesquisadores podem determinar facilmente se os íons estão viajando através dos nanotubos.

Os íons de sódio são muito maiores dos que os prótons, por isso eles levam mais tempo para atravessar o nanocanal. Ao atravessar, eles bloqueiam a passagem dos prótons, levando a uma breve interrupção na corrente elétrica, conhecida como efeito de Coulter.

Os pesquisadores acreditam que seus canais de nanotubos só permitem a passagem de íons positivos porque as extremidades dos nanotubos contêm cargas negativas, que atraem os íons positivos.

Agora eles planejam construir nanocanais que atraiam íons negativos adicionando cargas negativas aos nanotubos.

Assim que eles tiverem os dois tipos de canais poderão fabricar uma membrana capaz de fazer a dessalinização da água. As técnicas de dessalinização atuais - destilação e osmose reversa - são caras e consomem muita energia.

Os pesquisadores esperam que sua membrana de nanotubos de carbono, permitindo que os íons de sódio e cloro - que são carregados negativamente - fluam da água do mar tornem-se um método muito barato de dessalinizar a água.

A mesma equipe recentemente descobriu uma nova forma de produzir eletricidade explorando ondas de energia que são criadas ao longo dos nanotubos de carbono.

Casca de camarão vira filtro para metais pesados

A quitosana - uma fibra retirada do exoesqueleto de crustáceos - pode ser uma nova aliada da ciência na despoluição dos rios e efluentes despejados pela indústria.

O material mostrou-se capaz de extrair metais pesados da água, como o cobre, o zinco, o chumbo, o cobalto e o cádmio. Os experimentos foram obtidos por meio da técnica de adsorção.

A conclusão é de um estudo realizado no Instituto de Química (IQ) da Unicamp, pela pesquisadora Elaine Cristina Nogueira Lopes de Lima, juntamente com o professor Claudio Airoldi.

Recentemente, uma pesquisa realizada na USP mostrou que essas mesmas cascas de crustáceos podem gerar materiais hospitalares.

O novo material poderá contribuir para eliminar um dos maiores gargalos enfrentados pelas fábricas hoje, que é o da destinação do lixo industrial, já que os metais pesados, em altas concentrações, são danosos ao meio ambiente e à saúde, não se degradando nem mesmo pela ação do tempo.

Técnica de adsorção

A técnica de adsorção, explica Claudio Airoldi, é relativamente simples e barateia o processo como um todo, por isso ela foi a escolhida neste trabalho.

Nos testes, realizados no Laboratório de Termoquímica de Materiais (Latemat), foi selecionado um metal para simulação das mesmas condições que possivelmente ocorrem em um efluente, retirando-o completamente da água para não contaminar o meio ambiente. "A experiência foi bem-sucedida e de grande aplicabilidade, pois levou à determinação não somente qualitativa, mas também quantitativa dos efeitos que acontecem perante o metal."

O foco dessa investigação, segundo Elaine, consistiu em utilizar um recurso que modificasse algumas propriedades químicas da quitosana a fim de submetê-lo a uma série de reações, com vistas a aumentar a adsorção dos metais e, com isso, favorecer a despoluição de rios.

A ideia era melhorar a qualidade da água, principalmente nos tratamentos que devem ser feitos nas indústrias antes desses efluentes (produtos líquidos ou gasosos) serem lançados ao meio ambiente.

Com essa descoberta, a pesquisadora já planeja testar outras reações em misturas com quitosana, desta vez em fármacos, com a finalidade de que os tratamentos sejam muito mais adequados. Elaine Lima e Claudio Airoldi acreditam que outras novas pesquisas que vierem nesta linha serão promissoras.

Os chamados metais pesados podem ocasionar câncer, tanto em decorrência da exposição a eles quanto do seu efeito cumulativo no organismo humano, além de sua atuarem no sistema nervoso central, em particular no caso do chumbo.

Quitosana

A pesquisadora conta que adotou a quitosana por ser um material muito abundante na natureza. "A proposta era aprimorar propriedades como a sua capacidade de adsorver e de complexar metais e, deste modo, adotá-la no futuro para tratamento de efluentes reais de indústrias de modo geral", afirma Elaine. "Portanto, estes materiais poderão ser empregados com êxito na remoção de cátions metálicos desses efluentes, atuando como agentes na diminuição dos efeitos tóxicos causados por metais pesados e também na renovação do ecossistema."

Na pesquisa, após a modificação química da quitosana com cloretos orgânicos e posterior imobilização de aminas (base orgânica nitrogenada, derivada do amoníaco, que entra na composição dos aminoácidos), Elaine percebeu uma estreita, mas clara, relação com o favorecimento da adsorção de metais, comparada à quitosana pura, não-modificada.

"Vimos que a modificação neste caso garantiu uma maior adsorção e que a calorimetria auxiliou a perceber a energética, ou seja, como ocorre a interação entre a quitosana modificada e os metais estudados, um dado valioso na literatura e que seguramente terá condições de dar sustentação a novos trabalhos", relata Claudio Airoldi.

Segundo o orientador do trabalho, a modificação química deve ser ressaltada nesse processo, isso porque parte de um material que é transformado para se tornar cada vez mais com potencial de uso. "Isso é fundamental porque, nos dias de hoje, o que se busca são primeiramente materiais não-tóxicos, isto é, biocompatíveis. No caso da quitosana, ela é até comestível, não representando problema algum ao organismo."

Ele relata que esses materiais garantem grande aplicabilidade, dentro da qual o que se procura no momento é obter a quitosana para interagir com fármacos que sejam aplicados com propriedade ao ser humano, para que haja uma liberação paulatina de seus princípios durante um dado tratamento médico. Os pesquisadores, diz, têm-se debruçado em estudar novas fronteiras para o uso da quitosana, cujo alvo é a liberação controlada.

Calorimetria

Um dos instrumentos utilizados na pesquisa de Elaine Lima, e que é muito restrito no meio acadêmico brasileiro, foi o calorímetro. A calorimetria estuda as trocas de energia entre corpos ou sistemas quando essas trocas se dão na forma de calor.

Através da calorimetria, é possível fazer a determinação quantitativa dos efeitos que acontecem por exemplo na matéria, a quitosana, com uma outra espécie, no caso o metal. Com sua ajuda é possível orientar de que maneira este material pode melhor extrair determinados metais em relação a outros.

No Laboratório de Termoquímica de Materiais, Claudio Airoldi atua mais com materiais que têm como característica serem adsorventes, ou seja, que podem retirar espécies indesejadas do meio estudado. Porém, com o passar do tempo, o seu interesse foi se direcionando para os biomateriais, que derivam de plantas, sendo os mais destacados a celulose e a quitosana.

Com a celulose é mais difícil de se trabalhar do ponto de vista químico, esclarece o professor. Logo, o direcionamento maior foi para a quitosana, visto que ela é extraída de vários pequenos animais e pode trazer o mesmo direcionamento na pesquisa. Em termos de reatividade, ela é bem mais ativa do que a celulose, o que facilita a sua modificação química e, consequentemente, dá-lhe uma utilidade mais aprimorada.

Biopolímero

A quitosana é um biopolímero.

Ela é obtida a partir da quitina, um outro biopolímero, hoje o segundo material mais abundante da natureza, após a celulose, e que tem como principais fontes naturais as carapaças de crustáceos como caranguejo, camarão e lagosta, sendo também encontrada em insetos, moluscos e na parede celular de fungos.

Devido à sua abundância na costa marinha brasileira, existe uma grande quantidade de crustáceos que são rejeitos. A reutilização desses rejeitos, para retirada da quitina e posterior emprego como quitosana, tem chamado a atenção da comunidade científica há muito tempo.

A quitosana é aplicada em diversas áreas, principalmente nas áreas farmacêutica e alimentícia. Em si, ela já possui propriedades que garantem um bom material, um bom adsorvente, que foi, no presente caso, a retirada de metais, corantes, poluentes orgânicos e inorgânicos em geral.

"O que de fato queríamos era utilizar este material para usufruir de suas propriedades, amplamente difundidas na literatura, para então modificá-lo, aumentando essa capacidade e, com isso, também obter dados calorimétricos que são ainda inéditos, a priori com este material modificado e com os metais utilizados", constata Claudio Airoldi, que orienta nesta linha atualmente dois alunos de mestrado, dez de doutorado, dois de pós-doutorado e um de iniciação científica.