sábado, 31 de julho de 2010

LHC redescobre partículas subatômicas fundamentais

O maior acelerador de partículas do mundo, o LHC (Grande Colisor de Hádrons) efetuou as primeiras medições fundamentais das partículas subatômicas.

Além de confirmarem o Modelo Padrão da física, os resultados representam uma espécie de "aquecimento" rumo às verdadeiras descobertas que se espera deste que é o maior experimento científico da história.

Redescoberta do Modelo Padrão

Os primeiros resultados do LHC foram apresentados durante a Conferência Internacional sobre Física de Altas Energias (ICHEP), a maior reunião mundial sobre física de partículas, que atraiu mais de 1000 participantes para a sede do CERN.

Os porta-vozes dos quatro principais experimentos do LHC - ALICE, ATLAS, CMS e LHCb - estão apresentando as medições dos três primeiros meses de funcionamento do LHC com uma energia de 3,5 TeV por feixe, que é três vezes e meia maior do que já havia sido obtido antes em um acelerador de partículas.

Com estas primeiras medições, os experimentos estão redescobrindo as partículas que estão no cerne do Modelo Padrão - o pacote que contém a explicação atual das partículas da matéria e das forças que atuam entre elas.

Este é um passo essencial antes de passar a fazer descobertas verdadeiras, segundo os cientistas. Por exemplo, entre os bilhões de colisões já gravadas, algumas contêm "candidatos" para o quark top.

"A redescoberta dos nossos 'velhos amigos' no mundo das partículas mostra que os experimentos do LHC estão bem preparados para adentrar em novos territórios," disse o diretor-geral do CERN, Rolf Heuer. "Parece que o modelo padrão está funcionando conforme o esperado. Agora cabe à natureza nos mostrar o que há de novo."

Descobertas reais

Dois experimentos adicionais também já se beneficiaram dos primeiros meses de funcionamento do LHC em 3,5 TeV por feixe.

O LHCf está estudando a produção de partículas neutras em colisões próton-próton para ajudar na compreensão das interações dos raios cósmicos na atmosfera da Terra. A equipe responsável pelo LHCf já coletou todos os dados que precisava nesse nível de energia dos feixes.

O TOTEM, que vai realizar estudos em profundidade do próton, está começando a fazer suas primeiras coletas de dados.

O LHC deverá funcionar continuamente por 18-24 meses, com o objetivo de fornecer dados suficientes para que os experimentos possam fazer avanços significativos em uma ampla gama de processos físicos.

Com a quantidade de dados nesse período, conhecida como um femtobarn inverso, os experimentos terão possibilidades reais de fazerem descobertas significativas.

Ciência e tecnologia para o desenvolvimento humano

Políticas antiquadas de inovação estão minando oportunidades sem precedentes para o desenvolvimento, para a criação de novas formas de cuidar do meio ambiente e para combater a pobreza global.

Esta é a tônica de um manifesto lançado pelo STEPS Centre, uma organização de pesquisas britânica que alerta para a necessidade de uma mudança urgente e radical na agenda global de inovações tecnológicas a fim de garantir o sucesso futuro das iniciativas que visam o desenvolvimento mundial.

O hiato entre uma pretensa era de progresso tecnológico e os efeitos reais sobre a população pode ser constatado, segundo o relatório, confrontando-se o rápido progresso científico atual com o aprofundamento da pobreza, com a crise vivida pelo meio ambiente e com a estagnação de qualquer progresso rumo aos Objetivos do Milênio, instituídos pela ONU.

Manifesto pela Inovação

O relatório Inovação, Sustentabilidade, Desenvolvimento: Um Novo Manifesto defende que as mudanças necessárias não são apenas no campo da transformação das descobertas científicas em inovações tecnológicas - ou novas formas de fazer as coisas - mas no campo das ideias, das instituições e das práticas envolvidas com a transformação do nível de conhecimento em benefício humano.

A cúpula do G8, realizada recentemente no Canadá, mostrou que as tentativas dos líderes mundiais de encaminhar uma recuperação econômica global sinalizam que seus compromissos para ajudar os mais pobres podem ficar em segundo plano.

Entretanto, a inovação pode representar um elemento vital não apenas para o crescimento econômico, mas também para a redução da pobreza e para a sustentabilidade ambiental.

O Manifesto oferece uma série de recomendações práticas para a criação de políticas mais eficazes, mais transparentes e mais responsáveis, capazes de dar mais oportunidades, mais recursos e mais dignidade aos mais necessitados.

Imperativo moral e político

"Enfrentar os desafios globais de redução da pobreza, justiça social e sustentabilidade ambiental é o grande imperativo moral e político da nossa época," afirma o professor Andy Stirling.

"Nossa visão é a de um mundo onde a ciência e a tecnologia trabalham mais diretamente para a justiça social, o combate à pobreza e o meio ambiente. Queremos que os benefícios da inovação sejam amplamente compartilhados, e não apropriados por interesses poderosos e estreitos. Isto significa reorganizar a inovação de forma a envolver diversas pessoas e grupos, indo além das elites técnicas para aproveitar a energia e a inventividade de usuários, trabalhadores, consumidores, cidadãos, ativistas, agricultores e empresas de pequeno porte," disse o pesquisador.

Para transformar esta visão em realidade, o Manifesto faz recomendações em cinco áreas de ação: definição de uma agenda; financiamento; capacitação; organização e monitoramento, e avaliação e prestação de contas.

Inovação nas ações

As recomendações para o atingimento dos objetivos propostos, incluem:

* Estabelecer "Fóruns Estratégicos de Inovação" em nível nacional, que permitam que as diversas partes interessadas - incluindo grupos de cidadãos e movimentos sociais que representam os interesses marginalizados - controlem os investimentos em ciência, tecnologia e inovação. Esses fóruns devem reportar-se diretamente ao parlamento ou organização representativa similar.
* Estabelecer uma "Comissão de Inovação Global", sob controle das Nações Unidas, para facilitar o debate político aberto e transparente sobre os grandes investimentos em tecnologia, sobretudo aqueles com implicações globais ou transnacionais, sobre a transferência de tecnologia norte-sul e sobre a ajuda aos mais pobres fundamentada na ciência, na tecnologia e na inovação.
* Exigir que os organismos públicos e privados que investem em ciência, tecnologia e inovação aumentem a transparência no relato de esforços voltados para a redução da pobreza, a justiça social e a sustentabilidade ambiental.
* Aumentar o investimento em capacitação científica, que treine "profissionais-ponte", capazes de conectar a atividade de pesquisa e desenvolvimento com as empresas, empreendedores sociais e usuários.
* Melhorar os incentivos para o investimento do setor privado nas inovações voltadas para a redução da pobreza, a justiça social e a sustentabilidade ambiental, tais como acordos de aquisição antecipada de produtos, prêmios de tecnologia e incentivos fiscais.

Ciência e inovação contra a pobreza

O gasto global em pesquisa e desenvolvimento supera um trilhão de dólares, com o principal item individual sendo representado pelas pesquisas militares.

No entanto, a cada dia mais de um bilhão de pessoas passa fome, 4.000 crianças morrem de doenças transmitidas pela água poluída e mil mulheres morrem durante a gravidez e o parto.

A ciência, a tecnologia e a inovação podem fazer o seu papel - elas são fundamentais no combate à pobreza e à catástrofe ambiental.

Para isso, contudo, é necessário uma mudança urgente, saindo da busca do lucro privado e das pesquisas para fins militares rumo a novas formas de inovação, mais distribuídas e voltadas para uma maior justiça social, afirma o Manifesto.

O documento pode ser lido na íntegra, em inglês, no endereço http://anewmanifesto.org.

Fonte: Julia Day

Robô ganha estômago e intestino parar gerar sua própria energia

Comece a estudar robótica e cedo você descobrirá que a área se divide em duas áreas aparentemente opostas, uma altamente entusiasmante, e outra que é quase só frustração.

No lado agradável estão a mecatrônica, a inteligência artificial, sensores extremamente precisos, aprendizado de máquina, computação cognitiva e um sem-número de outros assuntos apaixonantes.

No lado desagradável estão, felizmente sozinhas, as baterias. Não que baterias por si só não sejam desafiadoras, mas elas são sempre um empecilho à criação de robôs autônomos. Qualquer desenvolvimento no "lado agradável" vai esbarrar sempre em limitações no "lado desagradável".

Intestino robótico

Em busca da liberdade para seus robôs, a equipe do Dr. Chris Melhuish, da Universidade de Bristol, na Inglaterra, resolveu adotar uma solução, por assim dizer, biomimética: criar um estômago artificial, capaz de digerir biomassa e gerar a energia necessária para alimentar os circuitos eletroeletrônicos do robô.

A mesma equipe já havia construído um robô capaz de gerar sua própria energia a partir de moscas mortas, mas eles decidiram que seria mais eficiente usar bactérias - além da eficiência, eles poderiam também evitar problemas com as associações dos defensores das moscas.

Contudo, gerar eletricidade a partir de biomassa não é nenhuma novidade e, de fato, cria um problema semelhante ao das baterias: da mesma forma que baterias precisam ser recarregadas, biocélulas microbianas geram rejeitos, que precisam ser descartados periodicamente.

A saída foi então construir também um intestino artificial, por onde o "diarreia-bot" possa excretar o seu cocô robótico.

Ração para robôs

Embora ainda não seja capaz de sair pela floresta e passar meses caçando sua própria comida e coletando dados ambientais, o Ecobot, agora na sua versão III, mostra tecnologias promissoras rumo a uma realidade semelhante a essa.

Testado em um ambiente de laboratório, o Ecobot funcionou ininterruptamente por sete dias, digerindo sua comida, gerando sua energia e fazendo seu trabalho ao longo de um pequeno trilho e, mais importante, lançando fora o material que não era mais necessário em seu estômago bioeletroquímico.

O programa do robô faz com que ele se aproxime periodicamente de um depósito de comida, onde obtém uma porção de ração para robôs adequada para alimentar as 48 células a combustível microbianas que fazem as vezes de estômago, ou de gerador de energia.

Biocélulas bacterianas

O processo consiste basicamente em reações de oxidação-redução, que ocorrem no anodo das biocélulas. Conforme as bactérias digerem o alimento, elas quebram átomos de hidrogênio.

Os elétrons do hidrogênio migram para o eletrodo, gerando uma corrente, enquanto os íons de hidrogênio passam através de uma membrana de troca de prótons, chegando à câmara que funciona como catodo da célula. Essa câmara fica cheia de água, permitindo que o oxigênio da água combine-se com os prótons para produzir mais água.

Como a água produzida não é suficiente para contrabalançar a evaporação, o Ecobot, além de comer, precisa também beber água regularmente.

A disposição das biocélulas permite que qualquer material não digerido se acumule em um furo central, de onde ele é recirculado para permitir a máxima extração de energia. Em termos energéticos, contudo, o sistema é ineficiente, capturando apenas 1% da energia contida no alimento.

O intestino do robô imita os movimentos peristálticos do intestino humano com a ajuda de uma pequena bomba, que aplica ondas em um tubo plástico por onde o material indesejado é descartado.

Veleiro espacial usa cristais líquidos para navegar

A JAXA (Agência de Exploração Aeroespacial Japonesa) anunciou ter efetuado com sucesso uma manobra de mudança de altitude de seu veleiro espacial solar Ikaros.

Em vez dos microfoguetes utilizados pelas sondas e satélites artificiais ou pelos ônibus espaciais, o Ikaros usou um sistema de direção baseado em cristais líquidos, que não usa qualquer combustível ou propelente e não dispara nada para o espaço.

O sistema de direção e controle de altitude do Ikaros consiste em uma película que usa uma camada microscópica de moléculas de cristal líquido para alterar a reflexão de sua vela solar.

O sistema é o mesmo presente nas telas planas tipo LCD (Liquid Crystal Display), onde as moléculas de cristal líquido são rearranjadas coordenadamente para deixar passar a luz dos pixels que formam as imagens na tela.

Vela solar

A sonda solar experimental é impulsionada pela reflexão da luz solar, ou seja, pela energia fornecida pelo choque dos fótons vindos do Sol contra o finíssimo material da vela espacial, que é uma espécie de espelho refletor.

A mudança na refletividade do material, feita pela camada de cristal líquido, altera a pressão que a luz do sol exerce sobre a vela espacial, alterando a altitude da sonda.

Dois tipos de tecnologias tiveram que ser desenvolvidos para viabilizar o controle da vela solar.

O primeiro é a tecnologia para gerar um pequeno torque para o controle de altitude de forma constante, sem causar oscilações na enorme vela flexível.

O outro é a tecnologia para controlar a direção do grande momento angular gerado pela membrana sem usar propelentes. O Ikaros possui microfoguetes comuns em seu corpo principal, mas eles não são usados durante a avaliação do controle da vela espacial.

Segundo a JAXA, as manobras realizadas pelo Ikaros demonstraram que o mecanismo de cristal líquido é capaz de atender aos dois requisitos, permitindo um controle preciso da nave.

O maior benefício da tecnologia das velas espaciais será permitir a construção de naves que viajem por mais tempo e mais longe do que as naves movidas por propelentes.

Interface gestual sem contato usa tecnologia 3D

Cientistas do Instituto Fraunhofer, na Alemanha, apresentaram um novo sistema de interface acionado por gestos, no melhor estilo Minority Report.

O novo sistema de reconhecimento digital detecta a posição da mão e dos dedos em tempo real e os traduz em comandos.

As duas grandes vantagens são que a nova interface por gestos não exige o uso de luvas especiais e ainda é capaz de permitir a interação simultânea de múltiplos usuários.

Interface 3-D

Ao contrário das já tradicionais telas de toque, que equipam a maioria dos equipamentos eletrônicos portáteis, e mesmo das recém-chegadas mesas multitoque, ambas restritas a uma superfície bidimensional, a nova interface gestual dá total liberdade para comandar softwares e apresentações.

O ambiente de interação multitoque não exige contato físico e é inteiramente baseado em gestos, detectando múltiplos dedos e múltiplas mãos ao mesmo tempo, permitindo que o usuário interaja com os objetos em uma tela sem precisar replicar no ar a bidimensionalidade da tela - ou seja, o sistema é inteiramente 3-D.

Os usuários movem as mãos e os dedos no ar e o sistema automaticamente reconhece e interpreta os gestos, traduzindo-os em comandos para o programa que estiver rodando.

Tempo de voo

As mãos e os dedos dos usuários são filmados por uma câmera 3-D.

Essa câmera usa o princípio do "tempo de voo", uma técnica na qual cada pixel é rastreado, determinando o tempo que a luz leva para viajar entre o objeto monitorado e o sensor da câmera. Essa informação permite o cálculo da distância entre a câmera e o objeto monitorado.

"Desenvolvemos um algoritmo especial de análise de imagens que filtra as posições das mãos e dos dedos. Isto é obtido em tempo real usando uma filtragem inteligente dos dados de entrada. Os dados brutos podem ser vistos como uma espécie de paisagem 3-D de uma região montanhosa, com os picos representando as mãos e os dedos," explica Georg Hackenberg, idealizador da nova interface.

Para total precisão, o programa usa ainda os chamados critérios de plausibilidade, que levam em conta as dimensões típicas de uma mão e o comprimento dos dedos.

Interface divertida

O protótipo mostrou-se eficiente e fácil de usar, e foi considerado "divertido" pelos participantes dos testes.

Mas o equipamento ainda não está pronto para chegar ao mercado. Alguns elementos confundem o sistema, como os reflexos causados por relógios de pulso e pulseiras.

Ele também foi testado, até agora, apenas em ambiente de laboratório, com iluminação controlada e sem muitos elementos presentes na cena.

Recentemente pesquisadores apresentaram uma interface acionada por gestos voltada para aplicações médicas.

Cabos pára-raios tornam energia elétrica mais barata

As linhas de transmissão, utilizadas para transportar grandes quantidades de energia elétrica em longas distâncias, utilizam cabos pára-raios para protegê-las de descargas atmosféricas (raios), evitando com isso seu desligamento.

Mas esses cabos podem cumprir outra função, atendendo a demanda de eletricidade de pequenas comunidades situadas nas proximidades desses chamados "linhões".

Esta é a conclusão do trabalho de pesquisa do engenheiro eletricista José Ezequiel Ramos, no Instituto de Eletrotécnica e Energia (IEE) da USP, que mostrou que os cabos de proteção também podem ser utilizados para transportar energia elétrica, por meio da tecnologia de Cabos Pára-Raios Energizados (PRE).

Média tensão

Em seu estudo, José Ezequiel mostrou que a Tecnologia PRE tem um desempenho econômico e operacional melhor, se comparado às tecnologias convencionais, para abastecer as pequenas comunidades próximas às linhas de transmissão.

A tecnologia PRE, desenvolvida na Itália, é baseada na utilização dos cabos pára-raios em linhas de transmissão de alta e extra alta tensão, sendo esses cabos isolados e energizados para viabilizar a transmissão de energia elétrica em média tensão.

"Nesses níveis de tensão é possível o atendimento às pequenas comunidades por intermédio de subestações, onde a tensão elétrica é reduzida para o nível de consumo doméstico ou de pequenas indústrias", explica José Ezequiel.

O engenheiro participou da implantação da tecnologia em Rondônia, acompanhando posteriormente sua operação e manutenção.

Confiabilidade da rede

A pesquisa investigou, entre outras questões, como as descargas atmosféricas (raios) afetam a linha PRE e linhas de transmissão como um todo, o desempenho operacional resultante de mais de 180 meses de operação do PRE em Rondônia e sua viabilidade econômica em relação aos demais sistemas.

"Estudamos também se as descargas atmosféricas são as principais causadoras das interrupções no Sistema PRE, e não as falhas em equipamentos ou outras limitações operacionais", completa o engenheiro.

Foram utilizados como fonte de dados os registros operacionais do PRE em duas cidades de Rondônia: Jaru, entre 1996 a 2000, e Itapuã, entre 1997 e 2007. Os 180 meses de experiência operacional com as duas instalações PRE permitiram comparar o número de interrupções verificadas no período com o número de interrupções estimadas na teoria.

Também foram feitas também medições de resistividade do solo e resistência de terra, e utilização de dados disponíveis da região relacionados à quantidade de chuvas, temperatura, umidade relativa, pressão atmosférica, e registros de descargas atmosféricas.

Menos custos e mais benefícios

Uma das primeiras conclusões do trabalho foi a constatação de que o Sistema PRE não diminui o desempenho da linha de transmissão. Ao contrário, o desempenho da linha é melhorado.

Os resultados mostraram também que o Sistema PRE é bastante sensível às descargas atmosféricas, de forma que, mesmo para baixas correntes de descarga, acontece a saída de operação do sistema. "Apesar disso, devido à característica sazonal das descargas atmosféricas, o desempenho operacional anual do PRE é igual ou melhor que os sistemas utilizados nas pequenas localidades da região," explica.

No aspecto econômico, José Ezequiel destaca que, somadas as duas cidades, a Tecnologia PRE evitou a queima de mais de 80 milhões de litros de óleo diesel para produção de energia, resultando em uma economia superior a R$ 180 milhões. "Comparando esse valor com o custo do investimento para implantar o PRE, eles foram pagos mais de 60 vezes. E comparando somente os cabos pára-raios isolados e energizados, seu custo é quase dez vezes menor que os cabos convencionais", completa.

Alternativa tecnológica

O estudo favorece futuros projetos de implantação ou expansão da Tecnologia PRE. Dessa forma, empresas públicas e privadas têm uma alternativa a mais em relação às convencionais com finalidades semelhantes: atender pequenas comunidades isoladas, próximas aos corredores das grandes linhas de transmissão.

José Ezequiel espera que essa alternativa tecnológica possa ser utilizada nas políticas públicas de universalização da energia elétrica.

"O grande desafio enfrentado pelas novas tecnologias é a falta de conhecimento sobre as mesmas, o que pode levar à sua rejeição. Portanto, a pesquisa tem o mérito de contribuir com a oferta de maior conhecimento, permitindo sua inclusão no rol das demais alternativas analisadas para atendimento a pequenas comunidades", finaliza.

Nervos são consertados com cola de veneno de cobra e células-tronco

Corrigir lesões do sistema nervoso ainda é um desafio para a medicina.

Compreender o rearranjo dos circuitos neurais provocado por essas lesões pode ser um passo fundamental para otimizar a sobrevivência e a capacidade regenerativa dos neurônios motores e restabelecer os movimentos dos pacientes.

A partir de investigações sobre esses mecanismos de rearranjo dos circuitos nervosos, um grupo de cientistas da Universidade Estadual de Campinas (Unicamp) está desenvolvendo um modelo inovador que associa terapia celular ao reimplante das raízes nervosas.

Veneno de cobra e células-tronco

Para restabelecer a conexão entre o sistema nervoso periférico e o central, os pesquisadores utilizam células-tronco mononucleares de medula óssea e uma "cola" desenvolvida a partir do veneno de serpentes.

"Após lesão no sistema nervoso - periférico ou central -, ocorre um rearranjo considerável dos circuitos neurais e das sinapses. Entender esse rearranjo é importante para determinar a sobrevivência neural e a capacidade regenerativa posterior", disse Alexandre Leite Rodrigues de Oliveira, coordenador do projeto.

Para estudar os mecanismos de regeneração, os cientistas utilizam técnicas que unem microscopia eletrônica de transmissão, imuno-histoquímica, hibridação in situ e cultura de células gliais e neurônios medulares.

"Procuramos associar a terapia celular ao reimplante das raízes nervosas. Para isso, temos usado células-tronco mesenquimais e mononucleares no local da lesão ou nas raízes reimplantadas. A ideia não é repor neurônios, mas estimular troficamente essas células e evitar a perda neural, de modo a conseguir otimizar o processo regenerativo", disse.

Cola de veneno de jararaca

O projeto mais recente do grupo envolve o uso de um selante de fibrina - uma proteína envolvida com a coagulação sanguínea -, produzido a partir de uma fração do veneno de jararaca pelo Centro de Estudos de Venenos e Animais Peçonhentos da Universidade Estadual Paulista (Unesp) em Botucatu.

"Os axônios dos neurônios motores saem da medula espinhal e entram na raiz nervosa, dirigindo-se aos nervos. O nosso modelo emprega essa 'cola' biorreabsorvível para reimplantar as raízes nervosas na superfície da medula, onde o sistema nervoso periférico se conecta ao sistema nervoso central. Associamos essa adesão às células-tronco, que produzem fatores neurotróficos - isto é, moléculas proteicas capazes de induzir o crescimento e a migração de expansões das células neurais", explicou Oliveira.

Quando as raízes motoras são arrancadas, cerca de 80% dos neurônios motores morrem duas semanas após a lesão. Mas os motoneurônios que sobrevivem têm potencial regenerativo após o reimplante de raízes nervosas.

"Porém, na maioria das vezes, o reimplante das raízes não é suficiente para se obter um retorno da função motora, porque a lesão causa uma perda neuronal grande demais. Por isso, é preciso desenvolver estratégias para diminuir a morte neuronal após a lesão. Achamos que o uso do selante de fibrina pode auxiliar nesse processo", indicou.

Segundo Oliveira, quando há uma lesão periférica - comum em acidentes de trabalho, por exemplo -, com transecção ou esmagamento de nervos, ocorre uma resposta retrógrada, isto é, uma reorganização sináptica visível na medula espinhal, onde se encontram os neurônios.

"O interessante é que, quando a lesão é periférica, o neurônico sinaliza de alguma forma para a glia - o conjunto de células do sistema nervoso central que nutrem os neurônios -, que se torna reativa. Essa reatividade está envolvida no rearranjo sináptico por meio de mecanismos ainda pouco conhecidos. Nosso objetivo é compreender e otimizar esse processo de rearranjo sináptico para, futuramente, criar estratégias capazes de melhorar a qualidade da regeneração neuronal", afirmou.

Esclerose múltipla

No laboratório da Unicamp, os cientistas induzem em ratos e camundongos doenças como a encefalomielite autoimune experimental - que é um modelo para estudar a esclerose múltipla. Após a indução de uma forma aguda da doença, os animais apresentam todos os sinais clínicos, tornando-se tetraplégicos de 15 a 17 dias após a indução.

"Por outro lado, eles se recuperam da tetraplegia muito rapidamente, entre 72 e 96 horas. O rearranjo sináptico induzido pela inflamação é tão grande que paralisa completamente a funcionalidade tanto sensitiva como motora, mas de forma transitória", disse Oliveira.

No entanto, a esclerose múltipla destrói a bainha de mielina, uma substância que isola as terminações dos nervos e garante o funcionamento dos axônios. Segundo Oliveira, porém, essa bainha se recupera em surtos temporários: em alguns momentos há desmielinização; em outros, o sistema imune fica mais ativo e a bainha de mielina se recompõe.

"O paradoxal é que, mesmo que a remielinização não tenha se completado, o animal volta a andar normalmente. Nossa hipótese é que, com a mielinização, ocorre um rearranjo sináptico que mimetiza uma lesão, como uma transecção. Transitoriamente, os neurônios param de funcionar. Quando a inflamação cede, as sinapses retornam muito rapidamente. Em algumas horas a função é retomada e os sinais clínicos vão desaparecendo", disse.

Lesão da medula

Além do modelo da esclerose múltipla, os cientistas trabalham também com um modelo de lesão periférica dos nervos e na superfície da medula espinhal.

"Quanto mais perto da medula ocorre a lesão, mais grave a lesão em termos de morte neuronal. Todas são graves, mas aquela que ocorre perto da medula causa perda neuronal e aí não há perspectiva de recuperação. Mesmo com as vias íntegras, o neurônio que conecta o sistema central com o músculo morre e nunca mais haverá recuperação", explicou o professor da Unicamp.

"Tanto no animal como no homem, ocorre uma perda grande de neurônios, mas a pequena porcentagem que resta - em torno de 5% - consegue se regenerar. No homem, entretanto, há uma demora de mais de dois anos para que se recupere alguma mobilidade. No rato, a mobilidade é recuperada em três ou quatro meses", disse.

"Uma vez que isso foi descoberto, começou-se a tentar reimplantar as raízes, desenvolvendo estratégias cirúrgicas e tratamentos com drogas que evitem a morte neuronal nesse período em que há desconexão. Essa parece ser a saída mais promissora para evitar a perda neuronal e otimizar a regeneração", afirmou.

quinta-feira, 29 de julho de 2010

Luz faz curva em U

Segundo a Teoria da Relatividade, a gravidade de um corpo celeste maciço curva o espaço ao seu redor.

Os cientistas estão tentando fazer o mesmo no chamado "espaço óptico", que não é nenhuma localidade em especial, mas tão somente o espaço no qual a luz viaja.

Se o espaço óptico se curva, então a luz que viaja por ele faz o mesmo caminho. Sob outro ponto de vista, o que se está tentando fazer é forçar a luz a fazer curvas.

Já longe da ficção, esses experimentos estão na base de todos os feitos da invisibilidade, que têm-se multiplicado em laboratórios ao redor do mundo.

Mas o potencial da chamada óptica transformacional, que estuda o controle das ondas de luz, vai muito além: poderosos microscópios capazes de mostrar moléculas de DNA com luz visível, ou supercomputadores que usam a luz em vez dos sinais eletrônicos para processar a informação são outras possibilidades.

Materiais artificiais

A ferramenta básica para controlar e manipular as ondas de luz são os metamateriais, materiais artificiais, geralmente mesclando metais e isolantes - ou dielétricos - para formar estruturas que interagem com a luz de forma não-natural.

Apesar dos sucessos alcançados no curto tempo de vida desse novo campo da ciência, os pesquisadores vinham encontrando dificuldades em ajustar as propriedades físicas dos metamateriais em nanoescala, sobretudo por causa dos metais, em escalas menores do que o comprimento de onda da luz que se quer manipular.

Agora, uma equipe de pesquisadores do Laboratório Nacional Lawrence Berkeley e da Universidade da Califórnia, ambos os Estados Unidos, descobriu que esse empecilho pode ser removido com a combinação da óptica transformacional com um outro campo da ciência igualmente novo e promissor, conhecido como plasmônica.

Óptica transformacional plasmônica

Um plasmon é uma onda eletrônica que viaja pelo mar de elétrons na superfície de um metal. Assim como a energia das ondas de luz é transportada em unidades quantizadas de partículas chamadas fótons, a energia plasmônica é transportada em quase-partículas chamadas plasmons de superfície.

Os plasmons interagem fortemente com os fótons na interface metal/isolante de um metamaterial, formando uma outra quase-partícula, chamada polariton de plasmon de superfície (SPP: surface plasmon polariton).

A manipulação desses polaritons está no coração das surpreendentes propriedades ópticas dos metamateriais.

Liderados pelo Dr. Xiang Zhang, os pesquisadores modelaram uma "óptica transformacional plasmônica", uma forma de manipular o material dielétrico, ou isolante, adjacente a um metal, mas sem alterar o próprio metal.

A técnica permite que os polaritons viajem através de superfícies irregulares e curvas em uma ampla faixa de comprimentos de onda, sem sofrer perdas significativas por espalhamento.

Luz que faz curva em U

Usando a nova abordagem, Zhang e sua equipe desenvolveram um guia de ondas plasmônico com uma curva de 180 graus que força a luz a fazer um retorno perfeito, sem qualquer alteração nas suas propriedades ou na sua energia.

Eles também projetaram uma versão plasmônica da lente de Luneburg, um tipo de lente esférica capaz de receber e refletir ondas ópticas de múltiplas direções ao mesmo tempo.

"Como as propriedades dos metais nos nossos metamateriais permanecem completamente inalteradas, nossa metodologia de óptica transformacional plasmônica fornece uma maneira prática para guiar a luz em escalas muito pequenas", diz Zhang.

O Dr. Xiang Zhang é um dos pioneiros no campo da manipulação da luz e da invisibilidade, embora ele afirme que os metamateriais trarão benefícios mais práticos do que elusivos mantos da invisibilidade. Seus feitos mais recentes incluem um nanolaser de estado sólido e um novo material para exames de ultrassom.

Para conhecer uma outra pesquisa que força a luz a fazer curvas, veja a reportagem Metamaterial dirige a luz por caminhos complexos.

Cientistas criam fios vivos, feitos com células-tronco

Cientistas da Universidade Northwestern, nos Estados Unidos, criaram longos fios formados pela junção sequencial de células-tronco vivas e ativas.

Segundo os pesquisadores, estes fios celulares vivos podem se tornar uma ferramenta importante para tratamentos médicos, como ajudar a reparar o tecido do coração e da medula espinhal, e para o desenvolvimento de músculos artificiais.

As células utilizadas como base de sustentação são peptídeos, que se solidificam quanto entram em contato com água salgada, formando um gel que lembra um macarrão instantâneo, atingindo dimensões macroscópicas, visíveis a olho nu.

Quanto integradas com as células-tronco, as nanofibras podem ser injetadas no corpo com uma seringa. Depositadas em uma área onde o tecido foi danificado, as nanofibras ativam processos biológicos que levam à recuperação do tecido.

Nanofibras

Para construir os filamentos, a equipe de Stupp usou uma solução de peptídeos anfifílicos, conhecidos por sua tendência em se auto-organizarem em feixes de nanofibras, que foi aquecida para gerar um cristal líquido.

A solução foi então forçada através de uma pipeta em água salgada contendo cloreto de sódio (NaCl) ou cloreto de cálcio (CaCl2).

Os filamentos, que não são tóxicos, podem ser enrolados, dobrados ou amarrados, e podem ser fabricados em diversos diâmetros, apenas variando o diâmetro da pipeta.

A seguir, os filamentos foram "preenchidos", ou integrados com células-tronco, que passaram a se desenvolver no interior da estrutura filamentosa, seguindo a orientação do fio.

Fios de vida

Em uma demonstração surpreendente do que a nanotecnologia pode fazer em termos de medicina regenerativa, camundongos de laboratório paralisados por lesões na medula espinhal recuperaram a habilidade de usar suas patas traseiras seis semanas depois de receberem o nanomaterial.

Os nanofios também foram utilizados para cultivar músculos cardíacos in vitro, mostrando-se eletricamente ativos 10 dias depois do implante dos fios celulares.

"Injetando as moléculas que nós projetamos para se auto-organizarem em nanoestruturas no tecido espinhal, conseguimos recuperar rapidamente os neurônios danificados," disse Stupp.

"Os nanofios são a chave não apenas para prevenir a formação de tecido cicatricial prejudicial, que inibe a cura da medula espinhal, mas também para estimular o corpo na regeneração de células perdidas ou danificadas," explica o cientista.

Antenas inteligentes prometem nova geração de TVs digitais

Antenas inteligentes, bem como o uso de uma técnica chamada equalização adaptativa, poderão ser utilizadas para as transmissões de telefonia celular e TV digital, trazendo uma melhor qualidade de recepção e uma maior taxa de transferência de dados mais elevada.

Esta é a conclusão da pesquisa realizada pelo engenheiro eletricista Marcelo Augusto Costa Fernandes, da Unicamp.

Gargalos sem fios

Segundo o pesquisador, os atuais sistemas de comunicação sem fio já estão operando próximas de sua capacidade máxima, e sua expansão vai passar necessariamente pelo uso intensivo de arranjos de antenas inteligentes.

O estudo resultará em melhorias de uso imediato para a recepção dos sinais dos sistemas de comunicação CDMA (Acesso Múltiplo por Divisão de Código) - utilizado na terceira geração de celulares de banda larga - e OFDM (Orthogonal Frequency-Division Multiplexing) - usado na TV digital e em outros sistemas de comunicações.

"A situação atual é apenas a ponta do iceberg, pois até as previsões menos otimistas apontam para um crescimento significativo das comunicações sem fio nos próximos anos. São poucas as pessoas hoje que estão usando transmissão de dados via celular e, seguramente, esse mercado vai explodir," prevê Marcelo.

O mesmo raciocínio, segundo ele, vale para a expansão da TV digital. A situação ganhou tanta importância que o governo federal voltou a bancar projetos nessa área, visando melhorar a recepção dos sinais em ambientes internos e em receptores móveis de alta velocidade.

Cuidado na compra das TVs digitais

O estudo tem um resultado prático imediato para o consumidor, principalmente das novas TVs digitais, que ainda não contam com todos os melhoramentos técnicos possíveis.

O pesquisador afirma que muitas pessoas ainda comprarão modelos desatualizados, que, por saírem na frente, não puderam ser totalmente otimizados. "O próprio consumidor deixará de adquirir esses modelos e, naturalmente, outros com qualidade superior surgirão", avaliou.

A velocidade com que as novidades entram e saem do mercado é tão grande que os consumidores não conseguem acompanhar essa evolução. Por exemplo, a quantidade de informação necessária para se realizar uma boa compra de um aparelho de televisão hoje é "absurda", na opinião do engenheiro eletricista.

"Os novos televisores de LCD e LED possuem várias etiquetas afixadas em sua estrutura, com diversas siglas que muita gente nem sabe o que significa," disse Marcelo. E isso não acontece apenas no Brasil. Trata-se de um fenômeno mundial, em que nem os lojistas possuem todas as informações necessárias para orientar os compradores. É preciso oferecer treinamento especializado até aos vendedores, na avaliação do engenheiro.

Muitos modelos de televisão digital que incorporam um conversor interno já são anunciados o tempo todo. .

Com relação aos conversores existentes no mercado atualmente, Marcelo explica que é não é muito fácil saber quais são os de boa qualidade, pois a má cobertura do sinal digital pode mascarar a qualidade do receptor.

Antenas inteligentes

Segundo o pesquisador, seu estudo mostra que os arranjos com antenas inteligentes poderão melhorar a condição de recepção da TV digital onde o sinal de vídeo digital é fraco demais.

"O que vai ocorrer é a entrada de novas versões de aparelhos de TV no mercado, com a incorporação de antenas inteligentes. Os fabricantes com certeza deverão produzir novos aparelhos com essas antenas adaptativas", sinalizou.

Por outro lado, as propostas de novas estruturas de recepção propostas pela pesquisa não implicam em alterações nos transmissores, o que é um fator positivo. Se as emissoras tivessem que trocar ou adaptar os transmissores, o problema seria enorme, porque é onde se encontra o maior investimento já realizado.

O receptor - o aparelho de TV ou celular - é a parte mais barata do processo e o preço tende a cair. "Há cerca de um ano, não havia televisores com conversor integrado e as pessoas eram obrigadas a adquirir o set-top-box. Hoje já se compra a TV com o receptor integrado. Nos próximos anos, novos aparelhos com essas características já estarão no mercado. Essa evolução não cessará," afirmou Marcelo.

No que diz respeito à telefonia dos celulares de terceira geração, quando se menciona a banda larga de transmissão, fala-se em cerca de 1 megabit/segundo de velocidade. Certamente, nos próximos anos, as pessoas estarão exigindo bandas bem superiores, talvez de até 100 megabits/segundo.

O vídeo que se assiste hoje no celular é de baixa definição, no entanto, em breve as pessoas assistirão TV de alta definição no celular e vão querer baixar vídeos com alta velocidade. "É possível que essas melhorias obtidas apenas com antenas inteligentes nem sejam suficientes para essas novas tendências", comparou.

Velocidade das inovações

Marcelo observa que o momento atual é bastante interessante, se pensarmos que a janela de tempo entre desenvolvimento de pesquisa e produto final diminuiu sensivelmente. Em um prazo de um ano já é possível obter um protótipo de laboratório e, depois de seis meses, ele pode ser colocado em escala de produção. "Entre um e dois anos é possível se obter um equipamento em escala industrial", assegurou.

Marcelo esclarece que esses ganhos de produtividade resultaram do avanço da tecnologia de software embarcado e de hardware desenvolvido com prototipação rápida, diminuindo significativamente o tempo entre o projeto de pesquisa e o produto final.

Esse cenário está permitindo aos laboratórios de universidades, como o ComLab da Unicamp, a se especializarem nessa área para desenvolver protótipos eletrônicos avançados para as empresas, coisa inimaginável há alguns anos.

"É uma mudança de paradigma que está valorizando o trabalho realizado no meio acadêmico, pois alia resultados teóricos e aplicados em sistemas eletrônicos inteligentes", ressaltou o pesquisador.

Propriedades da matéria quântica são testadas em queda livre

Poucos experimentos científicos são tão delicados quanto um condensado de Bose-Einstein, quando milhões de átomos individuais, resfriados até próximo ao zero absoluto, perdem sua individualidade e passam a se comportar como um único super-átomo, ou um átomo artificial.

Por isto, parece estranho o que um grupo internacional de cientistas decidiu fazer na Alemanha: atirar um condensado de Bose-Einstein de uma torre de 146 metros de altura, simulando uma situação de ausência de gravidade.

Reunindo fundamentos das duas maiores revoluções da física no século 20, a Teoria da Relatividade Geral e a Mecânica Quântica, a experiência foi coordenada por Tim van Zoest, do Instituto de Óptica Quântica da Universidade Leibniz, na Alemanha.

Apesar da aparente simplicidade, o experimento pode representar um passo fundamental no estudo das propriedades gravitacionais da matéria quântica, abrindo caminho para observações de altíssima precisão - especialmente se os experimentos puderem ser reproduzidos no espaço com o uso de interferômetros atômicos.

Revoluções científicas induzidas por equipamentos

"Certas revoluções científicas nascem de grandes mudanças de paradigmas, como a própria Teoria da Relatividade Geral. Outras nascem de mudanças em equipamentos e técnicas, como a invenção do laser. O experimento realizado pela equipe de Zoest se enquadra nessa última categoria, ao desenvolver meios que permitirão, no futuro, fazer testes muito precisos sobre a relatividade geral."

A afirmação é de Paulo Nussenzveig e João Carlos Alves Barata, pesquisadores do Instituto de Física da USP (Universidade de São Paulo), que foram convidados pela revista Science para comentar o experimento, considerado importante por suas implicações para o futuro da física.

Nussenzveig, que atua nas áreas de óptica quântica, física atômica e informação quântica, havia publicado em setembro de 2009, também na revista Science, artigo sobre uma descoberta relacionada ao emaranhamento quântico.

Segundo Barata, que atua na área de física matemática, o interesse pelo artigo não está nos resultados do experimento em si, que são limitados. Mas as técnicas e instrumentos utilizados abrem perspectivas interessantes que poderão resultar em importantes conquistas no futuro.

No comentário, os cientistas brasileiros explicam que os conceitos de revoluções científicas induzidas por equipamentos foram extraídos do livro Imagined Worlds, do físico norte-americano Freeman Dyson.

Cápsula quântica

O experimento consistiu em colocar o condensado de Bose-Einstein no interior de uma cápsula, que foi lançada de 146 metros de altura por dentro de uma torre onde foi feito vácuo.

Os quatro segundos de queda, segundo Barata, são considerados um tempo relativamente longo para esse tipo de experimento.

"Dentro da cápsula havia uma amostra do condensado de Bose-Einstein e diversos sensores capazes de analisar uma série de efeitos sobre esse material durante a queda livre. Assim, os cientistas foram capazes de avaliar como a matéria se comporta em situações nas quais não há campo gravitacional agindo," explicou.

O condensado de Bose-Einstein, cuja existência foi prevista por Albert Einstein em 1925, a partir do trabalho de Satyendra Nath Bose, é uma fase da matéria formada por átomos em temperaturas próximas do zero absoluto, que permite a observação de efeitos quânticos em escala macroscópica.

"O mais interessante desse experimento não foram as medições feitas sobre o condensado, que se referiam, por exemplo, à expansão do material durante a queda, o que traz pouca informação. O principal é o fato de os autores terem conseguido reduzir um aparato tão complexo a uma escala que cabe em uma cápsula de dimensões reduzidas," destacou Barata.

Laser atômico

A cápsula utilizada no experimento media 60 centímetros de diâmetro por 215 centímetros de comprimento.

Normalmente, a criação do condensado de Bose-Einstein requer um laboratório com lasers sofisticados, equipamentos ópticos delicados e cuidadosamente alinhados, câmeras de vácuo e controles eletrônicos muito sensíveis. Ainda assim, o condensado está sempre sujeito à decoerência, quando ele perde suas propriedades unificadas.

"Embora o experimento não envolva nenhum conceito novo, a redução para a instalação na cápsula é animadora, abrindo perspectivas para que experimentos semelhantes possam ser feitos no espaço. Até hoje o condensado de Bose-Einstein não havia sido reduzido dessa maneira", disse Barata.

O condensado de Bose-Einstein pode ser utilizado para produzir uma espécie de laser atômico que poderá substituir, no futuro, os lasers convencionais, proporcionando experimentos de precisão ainda maior.

"O experimento feito na Alemanha mostra que temos boas perspectivas para, utilizando esses aparatos, empregar a interferometria de átomos e, com ela, fazer experimentos de altíssima precisão", disse o professor.

Princípio de equivalência

No vácuo, uma pena cairá exatamente na mesma velocidade que uma bola de chumbo - isto tem sido apresentado aos estudantes como um fato irrefutável há décadas. Mas, de fato, isto é apenas um postulado, que ainda precisa ser testado.

Segundo o chamado princípio da equivalência, a massa com que os corpos se atraem corresponde à massa inercial, que por sua vez resiste a uma força de aceleração. Isto significaria que, no vácuo, todos os corpos atingirão o solo à mesma velocidade.

Mas os físicos querem aprimorar os equipamentos de medição da gravidade até que eles atinjam uma precisão que permita verificar se essa hipótese pode de fato ser considerada uma lei da física.

O que falta para conseguir esses experimentos altamente precisos, segundo Barata, é adaptar os instrumentos de interferometria atômica à escala utilizada no experimento feito na Alemanha.

"Mas não vejo aí nenhum obstáculo tecnológico intransponível. A parte mais difícil eles já fizeram: produzir o condensado de Bose-Einstein nessa escala", afirmou.

Segundo Barata, caso se consiga realizar esse tipo de experimentos no espaço, as perspectivas são promissoras. "O princípio de equivalência, por exemplo, poderá ser testado da seguinte maneira: fazendo-se a comparação, com interferômetros atômicos, entre o condensado de Bose-Einstein no espaço e em queda livre na terra", disse.

Efeitos da Relatividade Geral

O princípio de equivalência é considerado um dos fundamentos da Relatividade Geral: quando um objeto em um campo gravitacional é submetido à queda livre, é impossível distinguir o mesmo objeto em referência inercial, pois ele age como se estivesse no espaço, desprovido de peso.

Na órbita da Terra, com amostras atômicas ultrafrias, tais experimentos poderão ser feitos para medir com alta precisão os efeitos de "arrasto de referenciais", também previsto por Einstein. Nos experimentos espaciais poderão ser feitas também comparações entre os efeitos gravitacionais sobre átomos bosônicos e fermiônicos.

"Poderemos testar efeitos da Relatividade Geral que são bem conhecidos, mas que não foram observados adequadamente. O efeito de Lense-Thirring, por exemplo, foi previsto teoricamente e só na década de 1980 foram feitas medidas bastante limitadas sobre ele. Com esses condensados no espaço, poderão ser feitas medidas de altíssima precisão", explicou Barata.

Plantas medicinais marinhas têm potencial inexplorado

As algas marinhas são usadas para branquear papel, na composição do envoltório de cápsulas de medicamentos, na fabricação de tintas e de cosméticos e como aditivos na indústria alimentícia - além de servirem diretamente como alimentos.

São ainda fontes de inúmeras substâncias bioativas com aplicações na medicina.

Por essas razões, as algas marinhas mereceriam receber mais atenção no Brasil tanto de cientistas como de investidores.

Essa é a opinião de especialistas em macroalgas marinhas que apresentaram o panorama da pesquisa científica nacional sobre esses vegetais durante a 62ª Reunião Anual da Sociedade Brasileira para o Progresso da Ciência (SBPC), em Natal.

Plantas medicinais marinhas

"As drogas vegetais terrestres são bem conhecidas e em qualquer bairro encontramos uma farmácia verde, com remédios feitos de plantas. Por outro lado, o nosso conhecimento em relação às propriedades medicinais dos vegetais marinhos é incipiente. Como comparação, o Japão movimenta US$ 1 bilhão por ano com o comércio de algas marinhas e seus subprodutos", disse Yocie Yoneshigue Valentim, da Universidade Federal do Rio de Janeiro (UFRJ).

Pioneiro no uso de algas marinhas na alimentação, o Japão é o maior produtor e consumidor mundial da planta, que possui espécies mais ricas em vitaminas C e B do que frutas como a laranja, por exemplo.

"Isso explica por que os japoneses não costumam ter muitos casos de gota, uma doença relacionada à nutrição, por exemplo", afirmou Yocie. A pesquisadora também salientou o papel importante que as macroalgas desempenham para a biotecnologia por sua capacidade de encapsular células animais e vegetais.

"Com mais de 8 mil quilômetros de extensão litorânea, o Brasil guarda no mar um rico patrimônio", disse Yocie, ressaltando que há muito o que descobrir a respeito das propriedades farmacológicas das macroalgas marinhas.

Farmácia marinha

O segundo maior produtor mundial de algas marinhas é o Chile, o que permite traçar uma perspectiva de produção brasileira de algas em escala comercial.

Para tal produção, é importante a fertilização em laboratório, de modo que se preserve o meio ambiente. Essa preocupação foi colocada por outra participante da mesa-redonda, Nair Sumie Yokoya, do Instituto de Botânica de São Paulo, que apresentou parte de seu trabalho de pesquisa.

Segundo Nair, no litoral brasileiro foram catalogadas 779 espécies de algas que habitam desde a região dos mangues até grandes profundidades. Para preservar esses ambientes ela defende a reprodução in vitro e o cultivo das algas comerciais de modo a evitar o extrativismo predatório, que poderia levar até a escassez de algumas espécies.

Já existem no país, segundo Nair, alguns cultivos experimentais cuja reprodução é feita por meio do método de biopropagação. Isso evita a retirada de mudas do ambiente natural.

Segundo Nair, o Brasil tem grande potencial biotecnológico em sua flora marinha, que pode fornecer substâncias com propriedades antitumorais, antibióticas, anti-inflamatórias e antitrombóticas. Há também espécies que apresentam grande resistência aos raios ultravioleta, podendo ser utilizadas na prevenção ao câncer de pele.

Essas substâncias são fruto de várias interações a que essas plantas são submetidas no ambiente marinho. "Para desenvolver estratégias de defesa nesse ambiente complexo, as algas produzem um grande número de compostos químicos", explicou.

"Mesmo com todo potencial, o Brasil utiliza pouco essas riquezas marinhas. Trata-se do terceiro recurso aquático mais usado no mundo, movimentando de US$ 5 bilhões a US$ 6 bilhões por ano, mas aqui o uso é incipiente", disse Nair.

Alga anticoagulante

Hugo Rocha, professor da Universidade Federal do Rio Grande do Norte, foi o terceiro participante da mesa-redonda e descreveu sua pesquisa sobre polissacarídeos sulfatados. Trata-se de moléculas encontradas somente nas algas e nos animais, mas as plantas aquáticas os produzem em quantidade e variedade muito maior, o que implica importante potencial farmacológico.

Rocha estudou as fucanas A e B, que são famílias de polissacarídeos sulfatados extraídos principalmente de algas marrons e que demonstraram ser um poderoso anticoagulante. "O principal anticoagulante comercializado hoje, a heparina, foi descoberto na década de 1930 e, desde então, não surgiu nada para substituí-lo", disse.

Um dos grandes problemas causados pelos anticoagulantes está justamente na potência de seu efeito, impedindo a coagulação do sangue até mesmo em casos extremos, o que resulta em hemorragias.

Diferente da heparina, a fucana mostrou um risco bem menor de hemorragia, mostrando-se um substituto promissor do anticoagulante atual. "Além disso, a heparina é derivada de suínos e bovinos e a sua substituição pela alga representaria uma vantagem produtiva", afirmou.

Deficiência de vitamina D é associada com declínio cognitivo

Idosos com baixos níveis de vitamina D são mais propensos a ter dificuldades de raciocínio, aprendizagem e memória.

Os cientistas citam estudos - realizados na Europa e nos Estados Unidos - que estimam a deficiência de vitamina D em idosos que variam de 40 por cento até 100 por cento! No Brasil, essa insuficiência de vitamina D foi detectada também em jovens.

Importância da vitamina D

A falta de vitamina D tem sido associada a fraturas, várias doenças crônicas e morte.

A vitamina D pode ajudar a prevenir a degeneração do tecido cerebral por ter um papel importante na formação dos neurônios, mantendo os níveis de cálcio no organismo, ou eliminando a beta-amilóide, a substância que forma placas e emaranhados no cérebro associados com o Mal de Alzheimer.

Outros estudos relacionam a falta de vitamina D com hipertensão em mulheres, gripe e problemas de coração.

Testes cognitivos

J. David Llewellyn e seus colegas da Universidade de Exeter, na Inglaterra, analisaram os níveis de vitamina D no sangue de 858 adultos com 65 anos de idade ou mais, quando o estudo começou em 1998.

Em duas etapas posteriores, três anos depois, e seis anos depois do início do estudo, foram realizados três testes cognitivos, um avaliando a cognição global, um enfocando a atenção e outro que deu maior ênfase na função executiva - a capacidade de planejar, organizar e priorizar.

Deficiência cognitiva e executiva

Os participantes que tinham deficiência grave em vitamina D (níveis sanguíneos de 25-hidroxivitamina D menor que 25 nanomoles por litro) apresentaram 60% mais chances de apresentarem um declínio cognitivo substancial no período de seis anos, e 31% mais probabilidade de apresentar declínios no teste que mede a função executiva do que aqueles com níveis de vitamina D normal.

Nenhuma associação significativa foi observada entre os níveis de vitamina D e o segundo teste, que mediu a atenção.

"A associação permaneceu significativa depois de ajustes para eliminar uma vasta gama de potenciais fatores de confusão, e depois que as análises foram restritas aos idosos que não tinham sinais de demência no início do estudo," escrevem os cientistas em seu artigo, publicado no Archives of Internal Medicine.

Hemorragia da picada da jararaca tem mecanismo desvendado

A Organização Mundial da Saúde incluiu recentemente o ofidismo (acidentes provocados por serpentes venenosas) como uma doença tropical negligenciada. No Brasil, as picadas de jararaca (Bothrops jararaca) respondem por cerca de 90% do total de acidentes com humanos envolvendo serpentes.

O veneno da jararaca pode provocar lesões no local da picada, tais como hemorragia e necrose que podem levar, em casos mais graves, a amputações dos membros afetados.

Uma das toxinas responsáveis pela ação hemorrágica do veneno da jararaca, a jararagina, foi isolada em 1992 e é bastante estudada por pesquisadores no Brasil e de outros países.

A jararagina faz parte da família de um grupo de proteínas (metaloproteínas), uma das principais responsáveis pelos efeitos locais da picada, como hemorragia, edema e inflamação.

Hemorragia

Agora, uma pesquisa conduzida no Instituto Butantan demonstrou pela primeira vez como a toxina se liga aos vasos sanguíneos. O estudo, publicado na revista PLoS Neglected Tropical Diseases, descreve os mecanismos de ação da toxina e traz novas perspectivas para o desenvolvimento de medicamentos.

De acordo com Cristiani Baldo, pós-doutoranda no Laboratório de Imunopatologia do Butantan e autora principal do artigo, o trabalho representa um importante avanço. "Conhecíamos a patologia e já se sabia que a proteína era hemorrágica, mas os mecanismos através dos quais ela induzia a hemorragia ainda não estavam completamente esclarecidos", disse.

Segundo Cristiani, o principal desafio era justamente entender o mecanismo. "A dificuldade estava em localizar a proteína no tecido afetado e saber como se comporta", disse.

Utilizando a técnica de microscopia confocal, a pesquisadora usou a pele de camundongos como modelo experimental. "Marcamos a toxina com uma substância fluorescente, que foi injetada na pele para determinar o caminho percorrido pela toxina", explicou.

Ao injetar na pele dos animais, observou-se que a toxina se concentrou nos pequenos vasos capilares. "Com 15 minutos, foi possível ver a hemorragia bastante evidente. Em períodos maiores, provavelmente haveria necrose", explicou.

De acordo com o estudo publicado, a jararagina se fixa nas proximidades dos vasos, comprometendo sua integridade e induzindo o sangramento local, que se constitui em um dos principais sintomas do envenenamento.

"Vimos que ela se localiza nas proximidades dos vasos sanguíneos, e esse acumulo é responsável pelo efeito hemorrágico tão evidente", disse Cristiani.

Uma das novidades do trabalho foi a utilização de uma metodologia inovadora para o experimento, que permitiu visualizar a toxina no local. "Passei dois anos tentando padronizar a metodologia, dos quais seis meses na Universidade da Califórnia, nos Estados Unidos", disse.

Coagulação sanguínea

De acordo com o estudo publicado, a jararagina se fixa às proximidades dos vasos, ligando-se a componentes de matriz extracelular (responsáveis pela estrutura do vaso), comprometendo sua integridade e induzindo o sangramento local, que se constitui um dos principais sintomas do envenenamento.

"Vimos que ela se localiza nas proximidades dos vasos sanguíneos, e esse acúmulo é responsável por esse efeito hemorrágico tão evidente", disse Cristiani.

De acordo com a pesquisadora, o veneno da jararaca também induz alterações sistêmicas como coagulação sanguínea, alterações cardiovasculares e renais. Cristiane destaca que o soro antiofídico atualmente existente, produzido em cavalos, é muito eficaz na neutralização desses efeitos.

"O grande problema são as lesões no local da picada caracterizadas principalmente por edema, inflamação e hemorragia, que não são neutralizadas pelo soro antiofídico. Diante disso, cerca de 10% das vítimas ficam com alguma sequela grave, tais como perda da função ou até mesmo amputação do local afetado", disse.

"O soro antiofídico consegue neutralizar muito bem alguns efeitos do veneno, como alterações na coagulação do sangue, mas não consegue reverter os efeitos locais porque eles se estabelecem muito rapidamente", explicou.

Segundo a pesquisadora, ao descobrir como a toxina age e induz a hemorragia, fica mais fácil propor algum tipo de aliado no tratamento das vítimas de envenenamento. "Outros grupos poderão utilizar algum inibidor dessa proteína como um tratamento aliado à soroterapia, mas esse não é o objetivo do nosso laboratório", disse.

Veneno do bem

Por outro lado, estudos anteriores comprovaram que o veneno da jararaca é eficaz contra o câncer, sendo capaz de inibir a metástase do melanoma, a forma mais agressiva de câncer de pele.

Concentrada em uma outra proteína do veneno da jararaca, a desintegrina, uma pesquisadora do Rio de Janeiro descobriu que o veneno de algumas cobras tem uma substância ativa contra o câncer, ajudando a inibir a metástase.

Compostos do veneno da jararaca também se mostraram eficazes no tratamento de pré-eclâmpsia.

terça-feira, 27 de julho de 2010

É Notícia: Kennedy Alencar entrevista Jorio Dauster

O diplomata Jorio Dauster foi o primeiro negociador da dívida externa brasileira, durante o governo do ex-presidente Fernando Collor de Mello, traduziu clássicos da literatura e presidiu a Vale, logo após a privatização da empresa.







Fonte: Rede TV!

Cadeira de rodas elétrica ficará mais barata com peças nacionais

Engenheiros do Laboratório de Sistemas Integráveis (LSI) da Escola Politécnica (Poli) da USP estão desenvolvendo módulos de controle (placas eletrônicas) e instrumentos para cadeiras de rodas motorizadas com tecnologia nacional.

O custo de produção das peças nacionalizadas chega a ser dez vezes menor do que as importadas.

Cadeiras de rodas eletrônicas

Cadeiras de rodas mais avançadas chegam a custar US$ 15 mil, mais taxas de importação dos Estados Unidos e da Europa. Elas são capazes de controlar computadores e aparelhos de controle remoto, erguer a pessoa verticalmente e descer rampas com conforto. Os módulos de controle são responsáveis por boa parte do preço, chegando a custar US$ 5 mil.

As fábricas brasileiras produzem cadeiras de rodas simples e importam as placas eletrônicas que as controlam. A direção das cadeiras é feita por meio de joysticks, que são adequados apenas para pessoas com pelo menos uma mão livre.

Quem perde o movimento das mãos precisa importar instrumentos para dirigir as cadeiras por intermédio de sopros ou usando os dedos, queixo ou punho. O preço do controle de sopro chega aos 1.400,00 euros, segundo os orçamentos encontrados pelo LSI.

Cadeira de rodas elétrica nacional

O módulo que os pesquisadores da USP estão desenvolvendo deverá ter as mesmas funções que os mais caros do exterior. Porém, o custo de produção deverá ser cerca de R$ 300,00 e as configurações serão mais fáceis de entender. Os engenheiros também estão desenvolvendo controles de sopro, (custo esperado de fabricação: R$ 220,00), botões para apertar com os dedos (R$ 20,00) e punhos (R$ 75,00) e touchpad (R$ 65,00 ).

O LSI já produziu e está aperfeiçoando o módulo, touchpad e botões para os punhos e dedos. Falta tornar o módulo capaz de interagir com aparelhos eletrônicos e fazer ajustes de segurança. Também é preciso terminar o desenvolvimento do software que controla a cadeira e do que a configura.

O objetivo dos pesquisadores é concluir os produtos em dezembro e disponibilizar para empresas nacionais a receita de como fabricá-los e os softwares para programá-los.

A maior dificuldade do desenvolvimento tem sido escolher componentes baratos e fáceis de encontrar em lojas no País, explica Marcelo Archanjo, líder da equipe que trabalha no projeto. Para atender essas exigências, o módulo de controle deverá ser um pouco maior do que seria se fosse produzido com os chips vendidos no exterior. Mas deverá ter a mesma qualidade.

Módulo nacional

A pesquisa é fruto de um convênio do LSI com a Secretaria de Estado dos Direitos da Pessoa com Deficiência (SEDPcD). O investimento da secretaria foi de R$ 700 mil.

"A Secretaria está investindo no desenvolvimento de um conjunto de produtos, abrindo caminho para que a indústria invista somente nas etapas de produção" diz Archanjo.

"O ganho não é simplesmente menor custo", diz Marco Pelegrini, Secretário Adjunto da SEDPcD. "O fato de ter um módulo nacional vai facilitar a adaptar a cadeira a cada paciente".

Normalmente, precisam de cadeiras de rodas motorizadas pessoas com distrofia muscular, tetraplegia, paraplegia, síndromes degenerativas dos músculos, paralisia cerebral e amputações.

Mapa-múndi verde mostra altura das florestas da Terra

Um mapa-múndi que detalha as alturas das florestas foi produzido por um grupo de cientistas a partir de imagens obtidas por satélites da Nasa, a agência espacial norte-americana.

Segundo a agência, embora existam outros mapas locais ou regionais da altura das copas de florestas, esse é o primeiro a cobrir todo o globo a partir de um método único e uniforme.

Carbono nas florestas

Os dados foram coletados pelos satélites ICESat, Terra e Aqua e o resultado poderá ajudar a produzir inventários de quanto carbono é armazenado pelas florestas mundiais e com que rapidez ocorre a circulação de carbono por ecossistemas e de volta para a atmosfera.

O trabalho, de Michael Lefsky, da Universidade do Estado do Colorado, Estados Unidos, e colegas, será descrito em agosto em artigo a ser publicado pelo periódico Geophysical Research Letters.

O mapa mostra que as florestas mais altas do mundo são encontradas principalmente no noroeste da América do Norte e em partes do Sudeste Asiático, enquanto florestas mais baixas estão concentradas no norte do Canadá, no noroeste da América do Sul, na África central e na Eurásia.

O levantamento levou em consideração a altura média em florestas com mais de 5 quilômetros quadrados e não a altura máxima de uma ou um grupo de árvores.

Altura das florestas

Para produzir o mapa os cientistas se basearam em mais de 250 milhões de pulsos de laser emitidos pelos três satélites em um período de sete anos.

Os pulsos, de uma tecnologia conhecida como Lidar, penetram por entre a copa e são capazes de medir a dimensão vertical das árvores - veja Radar de luz vai mapear atmosfera em 3D.

"Esse mapa é apenas o primeiro esboço e certamente será refinado no futuro", disse Lefsky. Florestas temperadas de coníferas, de sequoias e outras árvores contêm as copas mais elevadas, chegando facilmente a mais de 40 metros do solo. Florestas boreais, com pinheiros, por exemplo, tipicamente não passam dos 20 metros.

Áreas de mata nativa em florestas tropicais têm cerca de 25 metros, aproximadamente a mesma altura atingida por pontos de vegetação temperada em partes dos Estados Unidos e Europa.

Carbono emitido pelo homem

O mapa-múndi das florestas não tem interesse apenas para checar a altura das árvores em cada região.

As implicações do trabalho se estendem aos esforços para estimar as quantidades de carbono ligadas às florestas do planeta e ajudar a fechar uma conta que tem intrigado os cientistas.

O homem e suas atividades liberam cerca de 7 bilhões de toneladas de carbono anualmente, a maior parte na forma de CO2. Desse total, sabe-se que cerca de 3 bilhões vão para a atmosfera e 2 bilhões acabam nos oceanos.

Os outros 2 bilhões? Não se sabe. Alguns cientistas suspeitam que são as florestas que capturam e armazenam boa parte dessa quantidade em biomassa por meio da fotossíntese.

Tetraplégicos escrevem e dirigem cadeiras de rodas com fungadas

Uma nova técnica desenvolvida por cientistas israelenses conseguiu fazer com que pessoas paralisadas por deficiências graves conseguissem escrever textos ou controlar uma cadeira de rodas elétrica por meio de fungadas.

A técnica permite que pacientes tetraplégicos ou vítimas de derrames que mantêm a consciência intacta, mas perdem totalmente a mobilidade, usem um dispositivo no nariz para captar a intensidade da fungada e identificar comandos.

Cadeira de rodas e escrita

Segundo o estudo dos pesquisadores do Instituto Weizmann, uma mulher de 63 anos, que ficou tetraplégica em consequência de esclerose múltipla, conseguiu escrever um texto pela primeira vez em dez anos e hoje já consegue usar o dispositivo para surfar na internet e mandar e-mails.

Outra mulher, de 51 anos, vítima de um derrame havia sete meses, era incapaz de se comunicar com o piscar dos olhos, por não ter o controle total das pálpebras, mas conseguiu usar o dispositivo para escrever textos e iniciar a comunicação com familiares.

Em outro teste, um homem de 30 anos, tetraplégico havia seis anos, após um acidente de carro, conseguiu usar o dispositivo para dirigir uma cadeira de rodas elétrica em uma distância de 30 metros, com várias curvas de 90 graus. Seu desempenho, após três tentativas, foi semelhante ao conseguido por pessoas sem deficiências.

Mais rápido do um piscar de olhos

O dispositivo detecta pequenas mudanças na pressão produzida pela pessoa ao abrir ou fechar o palato mole, a parte de trás do céu da boca que controla a passagem de ar pelo nariz, e os transforma em sinais elétricos.

Esses sinais podem ser usados tanto para escolher letras do alfabeto para escrever textos quanto para controlar dispositivos de maneira semelhante à de um joystick ou de um mouse.

Os pacientes que participaram dos testes conseguiram escrever textos a uma velocidade que variou entre 20 segundos e um minuto por letra, mais rapidamente do que a conseguida por meio da comunicação com o piscar dos olhos, por exemplo.

Capacidade de fungar

Os cientistas partiram da hipótese de que as vítimas paralisadas por acidentes, doenças ou derrames mantêm intacta a capacidade de fungar e de controlar a intensidade da fungada.

Após os testes, os cientistas concluíram que a técnica "provê um meio de controle que é rápido, preciso, robusto e altamente conservado após lesões graves".

O estudo foi publicado na última edição da revista especializada Proceedings of the National Academy of Sciences (PNAS).

Fonte: BBC

Novo mecanismo evolucionário pode ajudar a combater doenças humanas

Por que adaptar seus genes se há uma alternativa muito mais rápida: emprestar as adaptações necessárias para sua sobrevivência de outro indivíduo?

Há mais de um século entende-se que um princípio básico da evolução é que animais e plantas podem se adaptar geneticamente de modo que tais mudanças ajudem em sua sobrevivência e reprodução.

Agora, uma pesquisa destaca um mecanismo evolucionário até então desconhecido.

Gene emprestado

Estudos anteriores sempre indicaram que características que aumentam a capacidade de um animal de sobreviver e reproduzir eram conferidas por genes favoráveis, passados de uma geração a outra.

Em artigo publicado na última edição da revista Science, John Jaenike e seus colegas da Universidade de Rochester, nos Estados Unidos, descrevem um exemplo surpreendente de bactéria que infecta um animal, dando a este uma vantagem reprodutiva.

E o invasor é passado para as crias, espalhando o benefício e garantindo a permanência da espécie.

Simbiose genética

A relação simbiótica entre hospedeiro e bactéria dá ao primeiro uma defesa especial contra algum risco em seu ambiente, que é transmitida pela população por meio de seleção natural, de forma similar à que ocorre com um gene favorável.

Segundo os autores do trabalho, o fenômeno foi identificado agora, mas não deve ser exclusivo aos organismos em questão e pode estar ocorrendo há muito tempo.

A descoberta foi feita em uma espécie de mosca, a Drosophila neotestacea, que é tornada estéril por nematelmintos, vermes parasíticos abundantes que atingem animais e plantas. Os nematelmintos invadem fêmeas jovens dessas moscas, evitando que elas possam reproduzir.

Mas quando uma fêmea de Drosophila neotestacea é infectada também por um gênero de bactéria conhecido como Spiroplasma, o crescimento dos vermes é afetado, impedindo-os de esterilizar a mosca.

Vantagem evolucionária

Os pesquisadores também descobriram que, como resultado do impacto benéfico da ação da bactéria, essa está se espalhando pela América do Norte, aumentando rapidamente de frequência nas moscas à medida que passa de uma geração a outra.

Por meio da análise de exemplares da Drosophila neotestacea preservados na década de 1980, Jaenike e colegas calcularam que a bactéria estaria então presente em cerca de 10% das moscas. Em 2008, a frequência havia aumentado para 80%.

"Essas moscas estavam realmente sendo esmagadas pelos nematelmintos na década de 1980 e é impressionante ver como elas estão se dando bem melhor atualmente. A proliferação da Spiroplasma nos faz pensar na rapidez das ações evolucionárias que estão ocorrendo abaixo da superfície de tudo o que enxergamos lá fora", disse Jaenike.

"Esses simbiontes transmissíveis são uma forma de um hospedeiro adquirir uma nova defesa muito rapidamente. Em vez de modificar seus próprios genes - que não são muito diversos, para começo de conversa -, o melhor pode ser simplesmente incorporar um novo organismo", disse Nancy Moran, da Universidade Yale, em comentário sobre o estudo.

Vantagem para o homem

Os pesquisadores também apontam que, além de colocar em cena um importante mecanismo evolucionário, a descoberta poderá ajudar no desenvolvimento de métodos que usem bactérias como defesa contra doenças em humanos.

Nematelmintos transmitem diversas doenças graves, como elefantíase, e podem causar problemas como cegueira. Agora que se conhece uma evidência de defesa natural contra esses vermes, abre-se um caminho para usar esse fenômeno como estratégia contra tais invasores.

Creatina ajuda a controlar glicemia em diabéticos tipo 2

A suplementação alimentar de creatina, um composto derivado de aminoácidos, aliada a exercícios físicos regulares, melhora o controle glicêmico de pessoas com diabetes do tipo 2.

Pesquisas do Laboratório de Nutrição e Metabolismo da USP revelam que a creatina ajuda a controlar a taxa de açúcar no sangue, que se apresenta elevada em diabéticos.

A segurança do composto também foi comprovada, pois não foram observadas alterações ou sobrecarga das funções renal e hepática nos diabéticos participantes do estudo.

Diabetes tipo 2

A diabetes do tipo 2 é caracterizada pela incapacidade das células absorverem glicose da corrente sanguínea, o que é explicado pela resistência do organismo à ação da insulina.

As principais indicações médicas para o controle da doença são a prática de atividades físicas e o uso de hipoglicemiantes orais.

"Ambos ajudam a jogar o açúcar para dentro da célula e a creatina pode ter um papel nessa função também", declara Bruno Gualano, professor do Departamento de Biodinâmica do Movimento Humano e autor da pesquisa.

Creatina mais exercícios

Os estudos constataram que a suplementação de creatina, juntamente com os exercícios físicos, é mais eficiente no tratamento da doença do que os exercícios praticados isoladamente e tão eficiente quanto à metformina - medicamento mais empregado no tratamento de diabetes do tipo 2.

Além disso, Gualano ressalta que a eficácia da creatina foi observada em conjunto às atividades, ou seja, apenas a suplementação de creatina, sem treinamento físico, poderia não resultar em benefícios.

As melhoras observadas se explicam pois a creatina atuou no deslocamento, chamado de translocação, da proteína GLUT-4. "Ela fica dentro das células. Sua função é se deslocar do interior até a superfície, 'pegar' o açúcar que está fora, no sangue, e transferi-lo para dentro da célula", explica Gualano.

Em diabéticos tipo 2 essa função não é realizada em níveis adequados. "A creatina atuou nesse aspecto, elevando a translocação de GLUT-4 a níveis similares aos observados em pessoas sem a doença", completa.

Liberação da creatina

Até o fim de abril, suplementos alimentares de creatina tinham sua comercialização proibida pela Agência Nacional de Vigilância Sanitária (Anvisa), pois se alegava que os efeitos nocivos à saúde não eram conhecidos.

Porém, inúmeras pesquisas científicas já comprovaram que o composto - produzido naturalmente pelo organismo - não é prejudicial à saúde se ingerido com moderação.

As pesquisas da EEFE constataram, mais uma vez, a segurança da creatina. Não houve nenhum tipo de prejuízo à saúde dos pacientes que ingeriram o composto, em doses de cinco gramas por dia, ao longo de três meses. Uma possível sobrecarga das funções renal e hepática também não foi observada - veja também Suplementação com creatina não prejudica funcionamento dos rins.

"Um terço dos pacientes tinham doença renal crônica e mesmo assim não foram constatados problemas ou alterações. O mesmo vale em relação ao fígado", aponta Gualano, que acrescenta: "A creatina tem um potencial terapêutico excepcional e pode ser essencial no tratamento de muitas doenças caracterizadas por perdas de força, massa muscular, cognição, massa óssea e sensibilidade à insulina."

Hepatite E é descoberta pela primeira vez no Brasil

A hepatite é uma doença inflamatória que atinge o fígado e compromete o desempenho de suas funções podendo evoluir, conforme a gravidade do caso, para cirrose ou câncer.

A hepatite pode possuir etiologia (causa da doença) viral, tóxica ou autoimune. A doença pode se apresentar de forma aguda (autolimitada e raramente fulminante) ou evoluir para cronicidade.

As hepatites mais comuns são de origem viral e causadas pelos vírus A, B, C, Delta e E. As hepatites B, C e D podem ser transmitidas principalmente por via sexual, vertical (mãe-filho) e parenteral.

No caso das hepatites A e E, a principal via de contágio é fecal-oral, por meio da ingestão de água e alimentos contaminados. Neste conjunto, a hepatite E vem merecendo especial atenção dos pesquisadores.

Hepatite E

Para investigar a presença da hepatite E no Brasil, 64 amostras sorológicas de pacientes com hepatite aguda sem etiologia definida (ou seja, com agente causador desconhecido) foram selecionadas pelo Grupo de Atendimento para Hepatites Virais do Laboratório de Hepatites Virais do Instituto Oswaldo Cruz (IOC/Fiocruz).

Este material, coletado entre 2004 e 2008, foi submetido a testes sorológicos e moleculares no Laboratório de Desenvolvimento Tecnológico em Virologia do IOC.

As análises possibilitaram o diagnóstico laboratorial do vírus E (HEV, na sigla em inglês) em um dos pacientes acometidos pela forma aguda da hepatite.

Anticorpos específicos da classe IgG (anti-HEV) para este vírus já haviam sido encontrados em diferentes grupos populacionais no Brasil, indicando um contato anterior destas pessoas com o HEV, mas, até então, nenhum caso de hepatite E aguda havia sido registrado.

A pesquisa está descrita no artigo First report of a human autochtonous hepatitis E virus infection, publicado no periódico científico Journal of Clinical Virology.

Vírus da hepatite E no Brasil

"Os estudos sobre a hepatite E no Brasil ainda são muito recentes se compararmos com os de doenças causadas por outros vírus", afirma Débora Regina Lopes dos Santos, uma das autoras do artigo.

"O que se observa ao longo da história é que as regiões consideradas não endêmicas, como o Brasil, apresentam evidências sorológicas quando são realizados estudos de prevalência, indicando que uma possível razão desta alta prevalência para a hepatite E seja a manutenção do vírus em reservatório animal", declara Débora.

Segundo ela, há pesquisas no mundo que detectaram a existência do HEV em animais, principalmente em suínos, mas ela destaca que a transmissão zoonótica por meio de contato direto com animais ou consumo de carne infectada ainda está sob investigação. "Um estudo realizado no Japão comparou a sequência nucleotídica do vírus encontrado em um paciente infectado com o HEV detectado em amostras de fígado de porco consumido pelo paciente. Observou-se que as sequências eram similares", relata.

Os pesquisadores afirmam que a provável transmissão do vírus para humanos por via zoonótica pode contribuir para a presença dos anticorpos anti-HEV na população brasileira. No entanto, segundo o estudo, ainda é necessária a caracterização molecular dos vírus encontrados em casos autóctones no Brasil para investigar esta possibilidade.

Vírus suíno

No trabalho publicado no Journal of Clinical Virology, a amostra do paciente demonstrou estar relacionada a outra amostra de suíno, caracterizada em outro estudo realizado pelo grupo em colaboração com a Universidade Federal do Mato Grosso e com o pesquisador do Laboratório de Neurovirulência de Biomanguinhos (LANEU - BioManguinhos / Fiocruz), Renato Sérgio Marchevsky.

De acordo com Marcelo Alves Pinto, chefe do Laboratório de Desenvolvimento Tecnológico em Virologia do IOC e coordenador da pesquisa, um dos objetivos do estudo é chamar a atenção das instituições de saúde pública para a possibilidade de haver mais casos não diagnosticados laboratorialmente e, portanto não notificados, permanecendo fora das estatísticas do Ministério da Saúde.

"Se pensarmos em termos de saúde pública, a gravidade desta doença pode não ser evidente, mas o papel de uma instituição de pesquisa comprometida com o binômio saúde/sociedade é dar um retorno ao público sobre os estudos realizados, assim como, fornecer informação e possíveis estratégias para dinamização do diagnóstico no futuro", destaca Débora.

Ela lembra que casos agudos e fulminantes já foram descritos em países como a Argentina. Um surto de outro genótipo do HEV, não associado à transmissão zoonótica, foi descrito no México e em Cuba além de países asiáticos. "Apesar de nenhum surto ter sido registrado no Brasil até o momento, é importante que as autoridades de saúde tenham conhecimento", declara. Cozinhar bem a carne antes do consumo e manter boas condições de saneamento básico e higiene são ações importantes para prevenir a doença. Segundo os pesquisadores, o estudo servirá como ponto de partida para pesquisas mais amplas.

Informações sobre a hepatite E

A hepatite E é causada pelo vírus E (um RNA-vírus) e sua transmissão é fecal-oral, ocorrendo por meio do consumo de água ou alimentos contaminados.

A Organização Mundial da Saúde (OMS) também informa, em sua página na internet (em inglês), que existe a possibilidade de transmissão zoonótica do vírus, considerando que este vírus circula em granjas de suínos. De acordo com a OMS, o primeiro caso comprovado de epidemia de hepatite E foi relatado na década de 1980.

Segundo o Ministério da Saúde (MS), apesar de as condições sanitárias serem deficientes em muitas regiões, não foi descrita nenhuma epidemia causada pelo vírus E no Brasil. Já na África, Ásia, México, e, recentemente, em Cuba, surtos foram registrados. Ainda de acordo com o MS, a hepatite E causa quadros graves principalmente em gestantes.

O pesquisador do IOC, Marcelo Alves Pinto, informa que geralmente a doença apresenta um quadro clínico semelhante ao da hepatite A. "De uma maneira geral, ela difere da hepatite B e da C por apresentar-se nas formas sub-clínica e aguda. Apesar de deixar o indivíduo incapacitado durante muito tempo, é uma doença autolimitada", completa.

domingo, 25 de julho de 2010

Descoberto novo círculo em Stonehenge



Arqueólogos descobriram um segundo círculo próximo ao célebre monumento milenar Stonehenge, na Grã-Bretanha.

O achado vem sendo considerado o mais importante dos últimos 50 anos na região.

Em vez de usar pedras, os limites do círculo, escavado na terra, teriam sido demarcados com postes de madeira, já que foram encontradas dezenas de buracos com cerca de um metro de profundidade.

Geofísica

A descoberta faz parte de um projeto milionário de arqueologia na região de Wiltshire, usando técnicas inéditas de geofísica.

O coordenador do projeto, o professor Vince Gaffney, da universidade de Birmingham, classificou o achado de "excepcional".

O "monumento" circular data do período Neolítico e da Idade do Bronze. Ele fica distante 900 metros das enormes pedras de Stonehenge.

Fonte: BBC

Computadores poderão substituir cientistas na geração de hipóteses

Há décadas os computadores têm ajudado os cientistas a armazenar, processar e analisar dados.

De modo crescente, porém, uma explosão de novos conhecimentos e de novos dados tem mudado o panorama científico. Do outro lado, a tecnologia está ampliando continuamente o poder dos computadores.

Nesse novo contexto, as máquinas poderão passar de simples analisadores de dados para a formulação de hipóteses, entrando em uma área até então exclusiva aos humanos.

"Os cientistas hoje não podem mais ter a ilusão de rastrear manualmente todos os artigos científicos publicados que são relevantes para o seu trabalho," afirmam James Evans e Andrey Rzhetsky, da Universidade de Chicago, nos Estados Unidos. "Essa explosão de conhecimento está mudando o quadro tradicional da ciência.

Assim, se já são úteis para armazenar, manipular e analisar dados, o progresso tecnológico já está deixando os computadores prontos para darem o próximo passo.

Cientistas de silício

Segundo os pesquisadores, brevemente os computadores serão capazes de gerar hipóteses sem dependerem da ajuda dos cientistas humanos, ou dependendo muito pouco deles.

O fato, argumentam, é que os computadores estão se tornando cada vez menos dependentes dos seus criadores.

"Usando técnicas de inteligência artificial, os programas de computador estão cada vez mais capazes de integrar o conhecimento publicado com os dados experimentais, de localizar padrões e relações lógicas e de permitir o surgimento de novas hipóteses com muito pouca intervenção humana," escrevem eles em seu artigo.

Esse passo poderia ser dado, profetizam os pesquisadores, dentro de 10 anos, quando "ferramentas poderosas" entrarão em cena para gerar hipóteses automaticamente e conduzir experimentos maiores e mais complexos.

O impacto alcançaria inúmeras áreas da ciência, mas seria mais sensível em áreas como física, química, biomedicina e ciências sociais.

Mineração científica

Muitos pesquisadores defendem que o grande volume de dados gerados por experimentos científicos como a genética, a biologia do câncer ou as colisões de partículas, está deixando obsoleto o mecanismo de geração de hipóteses e seus testes experimentais.

Em vez disso, algoritmos de mineração de dados seriam mais adequados, capturando padrões nos meio dos terabytes de dados.

Evans e Rzhetsky combatem essa visão, afirmando que ela equivale a entrar em uma floresta sem um guia. Sem qualquer informação sobre o ambiente e seus perigos, o mais provável é que os dados sejam classificados incorretamente, causando "medo de um intimidadora mas inofensiva cobra, e ignorando o minúsculo sapo letal."

"No passado, as abordagens computacionais foram mais bem-sucedidas em sistemas pequenos e bem definidos do que nos maiores, menos estudados, ou mais complexos. A explosão de dados dos experimentos de alto rendimento, contudo, cada vez mais faz os pesquisadores se depararem com sistemas muito complexos," afirmam.

"Encarar esses dados com perguntas igualmente numerosas e complexas será crítico porque, como disse Mark Twain, 'você não pode depender dos seus olhos quando sua imaginação está fora de foco'", concluem eles.