domingo, 4 de abril de 2010

Olho biônico com retina artificial está pronto para ser implantado

Pesquisadores australianos apresentaram o protótipo de um olho biônico que está pronto para ser implantado no primeiro paciente humano.

A prótese ocular foi projetada para dar melhor qualidade de vida a pacientes com perda visual decorrente da retinite pigmentosa e da degeneração macular.

Olho biônico

O olho biônico, que até agora se encontrava em testes, consiste de uma câmera super miniaturizada e de um microchip implantado na retina do paciente.

A câmera, montada na estrutura de um par de óculos, capta a entrada visual, transformando-a em sinais elétricos que são enviados para o microchip.

O microchip, por sua vez, estimula diretamente os neurônios da retina que continuam saudáveis, apesar da enfermidade.

O implante permite que os pacientes ganhem uma visão em baixa resolução, devido ao pequeno número de células sadias da retina, e limitada pela quantidade de eletrodos da retina artificial.

Implante de retina

"Nós vislumbramos que este implante de retina dará aos pacientes uma maior mobilidade e independência, e que as futuras versões do implante acabarão por permitir que os usuários reconheçam rostos e leiam letras grandes," diz o professor Anthony Burkitt, membro da equipe responsável pela fabricação do olho biônico.

O objetivo dos pesquisadores é passar de algumas manchas de claridade pouco definidas para uma visão biônica verdadeira dentro de cinco anos.

Até lá, eles planejam contar com uma retina artificial implantada na parte posterior do olho, recebendo os sinais captados pelas câmeras por meio de conexões sem fios.

O olho biônico está sendo fabricado por uma empresa emergente criada pelos próprios pesquisadores, a Bionic Vision Australia, reunindo médicos, oftalmologistas, neurocientistas, engenheiros biomédicos e engenheiros eletricistas das universidades de Melbourne, Nova Gales do Sul e do Centro de Pesquisas dos Olhos, todos na Austrália.

Laser faz água vencer a gravidade e subir pelas paredes

Pesquisadores da Universidade de Rochester, nos Estados Unidos, descobriram uma maneira de fazer um fluxo de líquido subir verticalmente por uma parede de silício, vencendo a força da gravidade, sem usar bombas ou outros dispositivos mecânicos.

O segredo dessa quase mágica está em um raio laser pulsado, um tipo de laser que gera pulsos muito curtos, mas muito potentes, de luz, ao contrário dos lasers tradicionais, que geram luz continuamente.

O laser é utilizado para criar nanoestruturas na superfície de uma pastilha de silício. Dispostas em linha e cuidadosamente projetadas, essas estruturas criam verdadeiras estradas que exercem uma força de atração incrivelmente alta sobre gotas de água.

Água que sobe pelas paredes

Embora pareça que as gotas de água estejam subindo pela placa de silício como se estivessem sendo sugadas por um canudo, não há qualquer pressão mecânica externa empurrando-as ou sugando-as.

O fenômeno ocorre porque as nanoestruturas na superfície do silício tornam o material tão hidrofílico (ou hidrófilo) que sua atração supera a forte atração que as moléculas de água sentem umas pelas outras.

Assim, em vez de simplesmente se juntarem e ficarem quietas, as moléculas de água sobem umas por cima das outras tentando atingir o silício nanoestruturado, puxadas pela sua irresistível atração.

O resultado é que a água sobe chip de silício acima a uma velocidade de 3,5 centímetros por segundo.

Isto pode lembrar um pouco as ideias por trás dos artefatos que buscam obter "energia do nada" - mas, ainda que a água suba, ganhando energia potencial, as ligações químicas que mantêm a água presa ao silício exigem uma energia menor do que a energia que mantém as moléculas de água unidas umas às outras.

Resfriamento de processadores

A primeira aplicação da "água que sobe pelas paredes", como vislumbrado pelos cientistas, é no resfriamento dos processadores de computador.

Quase todos os computadores são resfriados com ventiladores. O ar ao redor dos componentes do chip absorve o calor e um ventilador sopra esse ar quente para longe do processador.

Mas líquidos podem absorver muito mais calor do que o ar, o que tem levado à criação de vários sistemas de resfriamento a água para processadores.

E as incisões a laser são tão precisas - virtualmente não-destrutivas - que a superfície de silício parece continuar totalmente lisa, mantendo-se inalterada ao toque, o que abre caminho para seu uso nos chips.

O Dr. Guo afirma que, embora ele ainda não tenha incorporado seu silício nanoestruturado em um protótipo para testar sua capacidade de exaustão, ele acredita que uma pastilha de silício que possa bombear seu próprio líquido refrigerante, dispensando sistemas de bombeamento, poderá contribuir significativamente para viabilizar processadores mais potentes e mais velozes.

Mágicas de superfície

A técnica de manipulação de superfícies usando lasers pulsados tem sido usada pela equipe do Dr. Guo há vários anos.

Entre os seus feitos mais recentes estão metais capazes de detectar doenças e uma técnica para fabricar melhores lâmpadas incandescentes.

A técnica de manipulação de superfícies com laser pulsado também já gerou metais coloridos sem precisar de tinta e até amostras de ouro literalmente negro.

Caixa acústica inteligente com 12 alto-falantes faz projeção de som

Imagine poder escutar o som de um instrumento musical, executado através de uma projeção sonora, com a mesma qualidade obtida se o músico estivesse tocando ao seu lado, no mesmo ambiente.

Essa realidade já existe e foi desenvolvida pelo pesquisador Alexander Mattioli Pasqual, da Faculdade de Engenharia Mecânica da Unicamp.

Trata-se de um sistema de áudio para projeção tridimensional do som, um dispositivo esférico que difere dos alto-falantes convencionais porque possui uma distribuição espacial de energia sonora feita por doze pequenos alto-falantes, controlados de forma independente.

Assinatura espacial

A aplicação mais imediata dessa nova tecnologia pode ser percebida quando se escuta um músico ao vivo e depois a sua gravação. Pasqual explicou que é possível perceber a diferença dos sons porque a distribuição de energia no espaço do instrumento musical é diferente da distribuição do alto-falante.

"Chamamos essa distribuição de energia de assinatura espacial. Com o novo dispositivo, conseguimos aproximar as assinaturas espaciais do instrumento e do alto-falante", assegurou o pesquisador.

Sob a orientação do professor José Roberto de França Arruda, Pasqual contou que a pesquisa foi desenvolvida em parceria com o Laboratório de Mecânica e Acústica do Centre National de La Recherche Scientifique (CNRS) de Marselha (França), referência mundial em acústica.

De acordo com o pesquisador, esse tipo de equipamento não existe no mercado e que, portanto, seu trabalho foi estudar as potencialidades do equipamento, quais os tipos de distribuição espacial que se consegue ou não reproduzir, as restrições em termos de bandas de frequência, projetos de equalizadores, técnicas de otimização e, também, as suas limitações.

Conexão de alto-falantes

Para o pesquisador, do ponto de vista da engenharia, houve um avanço significativo nos estudos de acoplamento de alto-falantes. O normal em um sistema de som é ter vários alto-falantes operando em diferentes faixas de frequência e, portanto, o funcionamento de um não interfere no outro.

No caso do novo dispositivo, doze alto-falantes trabalham na mesma faixa de frequência e existe um acoplamento entre eles, ou seja, o som de um interfere no outro.

Foi necessário o desenvolvimento de modelos físicos e matemáticos para conseguir prever esse comportamento e poder projetar um dispositivo de forma mais eficiente. O protótipo agora apresentado avança significativamente em relação à primeira caixa acústica onidirecional, criada na USP há quase três anos.

"Desenvolvemos modelos eletromecânicos e eletroacústicos e avançamos bastante mostrando o que somos capazes de reproduzir em termos de distribuição espacial com arranjos esféricos. Propomos uma nova base vetorial para representar essa distribuição de energia sonora no espaço, gerada por uma fonte esférica. Isso impacta na nossa técnica de controle, que acaba sendo mais simples e eficiente do que tem sido desenvolvido em outros laboratórios," afirmou Pasqual.

Impressão 3D

Em termos técnicos, trata-se de uma aproximação modal, chamada de modos de radiação acústica, desenvolvida especialmente para esse tipo de dispositivo esférico. "Após a realização de todos os cálculos para determinar esses modos de radiação acústica, com esse tipo de arranjo esférico de alto-falantes, usamos isso como base para representar a diretividade do som. E essa nova aproximação modal talvez seja a maior contribuição científica desse trabalho", revelou o pesquisador.

Utilizando uma técnica chamada de prototipagem virtual, a esfera de nylon foi fabricada a partir dos desenhos fornecidos pelos pesquisadores por uma equipe do Centro de Tecnologia da Informação Renato Archer (CTI) - órgão do Ministério da Ciência e Tecnologia, localizado em Campinas (SP).

Através de uma impressora 3D, as camadas de nylon vão sendo depositadas umas sobre as outras de acordo com a configuração do desenho. "A peça veio pronta, inclusive com toda a furação, sem que fosse necessário utilizar qualquer processo de usinagem", contou Pasqual.

Caixa de som esférica

O pesquisador afirmou que a decisão pelo formato esférico se deu por conta da simetria. O objetivo era reproduzir a diretividade sonora, que é o que descreve a característica espacial do som. A diretividade é a distribuição espacial de energia de uma fonte sonora.

"Queríamos reproduzir a diretividade no espaço tridimensional completo e a esfera é o formato mais simétrico que existe. A disposição dos alto-falantes, nesse caso, segue um dodecaedro que é um dos cinco sólidos de Platão. Queríamos ser capazes de fazer girar essa diretividade no espaço. Imagine, por exemplo, que eu coloquei mais energia numa direção do que na outra e quero girar essa direção em tempo real. Eu posso fazer isso com a esfera devido à simetria", explicou Pasqual.

Comparativamente a esse novo dispositivo, o pesquisador disse que os sistemas de som existentes no mercado atualmente, apesar de serem espaciais também, apresentam limitações.

Cinema em casa

A tecnologia do "cinema em casa", que dispõe os alto-falantes em torno do ouvinte - técnica de projeção de fora para dentro - não permite posicionar uma fonte virtual em qualquer local do espaço e restringe a mobilidade do ouvinte a uma pequena área.

O objetivo dessa técnica leva o ouvinte a localizar onde está uma fonte sonora, criando sensações nele. Pasqual revela ainda que já existem técnicas mais modernas que tentam suplantar essas dificuldades, no entanto ainda não estão disponíveis comercialmente.

A técnica de projeção sonora realizada pelo novo dispositivo - de dentro para fora - possui a vantagem de não se preocupar com a acústica do ambiente onde ele está inserido. Sendo assim, há um aproveitamento maior da nova técnica, porque é uma aproximação diferente.

No entanto, ainda não há uma previsão para que esse novo dispositivo se torne comercial. "Ainda há muito trabalho pela frente. Essa é uma fonte de doze canais que precisa de um sistema dedicado para controlar os alto-falantes e isso não é tão simples quanto parece", garantiu Pasqual.

Música eletroacústica

Existem, de acordo com o pesquisador, outras aplicações interessantes desse dispositivo. Uma delas é para a música eletroacústica. Como o dispositivo permite controlar a distribuição de energia no espaço, ele pode ser utilizado também como instrumento musical.

O compositor pode utilizar, por exemplo, a rotação dos padrões de diretividade em tempo real. "Assim, ele pode utilizar isso como uma expressão a mais em sua composição, capaz de criar efeitos nos ouvintes e isso no palco é muito interessante", acrescentou.

Outra aplicação seria evitar microfonia em performances. Para isso, basta que o dispositivo também tenha um sensor de posição do microfone e, de acordo com o deslocamento no palco, criar um zero de pressão no microfone para que não haja microfonia.

"O dispositivo emite som para todas as direções, menos para onde está localizado o microfone no espaço", disse Pasqual. A princípio, o dispositivo serve apenas para reproduzir uma fonte pontual, no entanto, é possível pensar na utilização para um quarteto de cordas, por exemplo, onde cada instrumento teria uma fonte para reproduzir seu som.

Pesquisas em áudio

O contato com a equipe do Laboratório de Mecânica e Acústica do CNRS de Marselha foi fundamental para o sucesso do trabalho, contou Pasqual. Como essa área de áudio não possui uma tradição, principalmente na área de engenharia mecânica, o pesquisador afirmou que foi muito importante procurar essa parceria com os pesquisadores franceses, que já possuem uma experiência muito grande no assunto.

"Tive um coorientador francês, professor Philippe Herzog, que é um especialista em alto-falantes, e todo o aparato experimental de que precisávamos para validar os modelos teóricos para esse transdutor foi disponibilizado pelo CNRS", disse.

Durante onze meses, Pasqual realizou desenvolvimentos teóricos e computacionais no CNRS e, numa segunda etapa, estagiou no laboratório francês por três meses para fazer a parte experimental.

"Os resultados foram satisfatórios e essa cooperação internacional foi muito importante para o meu aprendizado, não só científico quanto pessoal, porque pude conhecer vários laboratórios que desenvolvem fontes como essa," concluiu.

Cientistas descobrem menor supercondutor do mundo

Cientistas descobriram o menor supercondutor do mundo, formado por apenas quatro pares de moléculas e medindo menos de um nanômetro de largura.

A descoberta abre caminho para a fabricação de componentes eletrônicos moleculares e outros dispositivos em nanoescala.

Fusão

Os pesquisadores sempre acreditaram ser virtualmente impossível construir interconexões em nanoescala usando fios metálicos porque a resistência aumenta conforme diminuem as dimensões dos fios.

Isso faz com que os nanofios metálicos se tornem tão quentes que eles acabam fundindo, destruindo o circuito. Este tem sido um dos grandes obstáculos para a fabricação de nanomáquinas, e outros dispositivos em nanoescala.

Nanofios supercondutores

Agora, os pesquisadores da Universidade de Ohio, nos Estados Unidos, obtiveram a primeira evidência da viabilidade da fabricação de nanofios supercondutores, abrindo o caminho para a fabricação de componentes eletrônicos e elétricos em nanoescala.

Os materiais supercondutores têm uma resistência elétrica igual a zero, podendo transportar correntes elétricas elevadas sem dissipação de energia e sem geração de calor.

A supercondutividade foi descoberta em 1911 mas, até agora, era considerada um fenômeno macroscópico.

Esta pesquisa demonstra, no entanto, que a supercondutividade existe em escala molecular, o que abre uma nova rota para estudar este fenômeno, que ainda não é bem compreendido pelos cientistas.

Os supercondutores atualmente são utilizados em aplicações que vão desde supercomputadores até equipamentos de imageamento médico. Eles são essenciais, por exemplo, ao funcionamento do LHC.

Agora, abre-se a possibilidade de sua utilização também na nanotecnologia.

Menor supercondutor do mundo

A equipe do Dr. Saw-Wai Hla descobriu a supercondutividade ao estudar moléculas sintéticas de um tipo de sal orgânico - λ-(BETS)2GaCl4 - colocadas sobre uma superfície de prata.

Utilizando espectroscopia de tunelamento, os cientistas observaram a supercondutividade em cadeias moleculares de vários comprimentos.

Nas cadeias abaixo de 50 nanômetros de comprimento, a supercondutividade diminui conforme as cadeias tornam-se mais curtas. Mas os pesquisadores foram capazes de observar o fenômeno em cadeias formadas por apenas quatro pares de moléculas, com meros 3,5 nanômetros de comprimento.

Para observar a supercondutividade nesta escala, os cientistas precisaram resfriar as moléculas a uma temperatura de 10 Kelvin.

Supercondutores de alta temperatura

Segundo o Dr. Hla, o objetivo agora é estudar a supercondutividade em outros tipos de moléculas que poderão ser capazes de formar nanofios supercondutores a temperaturas mais altas.

"Nós agora já abrimos uma nova forma de compreender este fenômeno, o que poderá levar a novos materiais que poderão ser ajustados para trabalhar em temperaturas mais altas", disse ele.

O experimento também foi importante por demonstrar a viabilidade de sintetizar os sais orgânicos supercondutores sobre um substrato, neste caso a prata. "Isto também é vital quando se quer fabricar circuitos eletrônicos em nanoescala utilizando moléculas orgânicas," concluiu Hla.

Pesquisas do LHC são monitoradas online em laboratório no Brasil

Às 13h06 desta terça-feira (30/3), horário local, o acelerador de partículas LHC (Large Hadron Collider, ou "Grande Colisor de Hádrons"), localizado na fronteira da Suíça com a França, inaugurou seu programa de pesquisa ao provocar um choque de duas nuvens de prótons com energia total de 7 teraelétron-volts (TeV).

Veja mais detalhes sobre todas as descobertas que se espera do LHC na reportagem Primeiro "bang" marca início da fase científica do LHC.

Ao mesmo tempo, 8h06 pelo horário de Brasília, no bairro da Barra Funda na capital paulista, uma equipe de físicos do Centro Regional de Análise de São Paulo (Sprace) do Instituto de Física Teórica da Universidade Estadual Paulista (IFT-Unesp) pôde acompanhar a colisão em uma sala ligada por uma rede de alta velocidade ao Centro Europeu de Pesquisas Nucleares (Cern) que administra o LHC.

Acompanhamento do LHC em tempo real

A Unesp aproveitou a ocasião para inaugurar o seu centro de controle do experimento CMS (sigla em inglês para "Solenoide de Múon Compacto"), que conta com 35 unidades semelhantes espalhadas pelo mundo e nas quais é possível acompanhar em tempo real as atividades realizadas no LHC e participar do seu monitoramento.

O CMS Center @ São Paulo, nome oficial do centro, utiliza uma conexão internacional de 10 Gbs. "É a rede mais rápida do Brasil", disse o professor Sérgio Ferraz Novaes, coordenador do Sprace. Os equipamentos do CMS Center @ São Paulo foram adquiridos com apoio da Rede Nacional de Física de Altas Energias (Renafae), do Ministério da Ciência e Tecnologia.

Além do transporte de dados dos experimentos, a velocidade da rede permite o funcionamento de sistemas de telefonia e videoconferência de alta qualidade, proporcionando uma interação instantânea com o centro de controle do Cern.

Calibração

Por conta disso, os usuários do centro paulista poderão atuar na calibração dos subdetectores, monitorar a qualidade dos dados gerados e ainda analisar essas informações.

"Podemos acompanhar as informações ao vivo por meio de monitores e, caso detectemos alguma irregularidade, temos condições de chamar um especialista do LHC pelo sistema de videoconferência", explicou o físico Franciole Marinho, pós-doutorando do Sprace que participa do projeto.

Detectores do LHC

O CMS é um dos quatro experimentos de pesquisa do LHC e cada um deles conta com equipes e equipamentos exclusivos para suas finalidades.

Além do CMS, os experimentos Atlas e LHCb também registraram as colisões efetuadas na terça-feira. De modo similar ao CMS, o Atlas é um experimento multipropósito que fornecer dados para trabalhos em diversas áreas da física.

Já o LHCb é focado no chamado quark B, partícula que poderá fornecer pistas sobre a relação entre matéria e antimatéria presentes no Universo. O quarto experimento, Alice, é voltado a análises com íons pesados e deve começar a operar em 2011, com o disparo de partículas de ouro ou chumbo.

Física de altas energias

O Brasil já participa intensamente no processamento dos dados coletados no Cern. Segundo Novaes, é importante para o país aumentar sua participação no desenvolvimento de software e hardware necessários às pesquisas no acelerador. "O LHC é um instrumento único que abrirá várias portas para o desenvolvimento científico e tecnológico brasileiro", afirmou.

Mas a formação e a pesquisa brasileiras em física de altas energias já estão ganhando com os experimentos. Os dados observados do campus da Barra Funda alimentarão trabalhos de mestrado, doutorado e pós-doutorado de estudantes da Unesp.

Por meio da rede de alta velocidade KyaTera, do Programa Tecnologia da Informação no Desenvolvimento da Internet Avançada (Tidia) da FAPESP, que cobre o Estado de São Paulo, esses dados poderão ser partilhados com outras unidades de pesquisa.

Do que é feita a matéria

A comunidade científica espera que os experimentos realizados no LHC forneçam respostas para algumas das principais questões atuais da física. "O que se convencionou chamar de 'física de partículas' tem um aspecto muito mais amplo do que o nome sugere. Ela se propõe a responder do que é feita a matéria, como ela interage e quais são as forças da natureza", explicou Novaes.

Entre as expectativas em relação ao LHC estão pistas a respeito da chamada matéria escura que surgiu como explicação para o comportamento de corpos no Universo.

"Apenas a massa da matéria visível não seria suficiente para explicar o comportamento das galáxias. A matéria escura seria o montante faltante nessa equação. Mas, no momento, trata-se apenas de uma hipótese", disse Sérgio Lietti, pesquisador do CMS Center @ São Paulo.

De modo análogo, a chamada energia escura é uma hipótese elaborada para explicar a expansão do Universo. Ainda sem comprovação empírica, essa é outra teoria que o trabalho no LHC também poderá ajudar a comprovar ou a negar.

Matéria e antimatéria

A assimetria entre matéria e antimatéria percebida no Universo é outro enigma que os físicos esperam poder elucidar com ajuda das colisões no anel europeu.

"Em laboratório, conseguimos perceber que cada partícula é acompanhada de sua antipartícula, isso nos leva a perguntar por que observamos muito mais matéria do que antimatéria no Universo, ou seja, há uma aparente assimetria entre as duas", disse Marinho.

A maior das expectativas, no entanto, repousa sobre a comprovação ou não do chamado bóson de Higgs, cuja existência hipotética foi levantada pelo físico britânico Peter Ware Higgs de modo a tentar explicar a origem da massa das partículas elementares. "O LHC foi especialmente desenhado para estudar o bóson de Higgs", disse Novaes.

No entanto, o professor da Unesp estima que essas grandes perguntas não serão respondidas tão cedo. O LHC está em fase de testes, o que exige inicialmente a execução de experimentos cujos resultados já são conhecidos.

"É uma espécie de calibração. Caso os resultados sejam discrepantes em relação aos que já conhecemos pode ser sinal de algum defeito no equipamento", disse Novaes.

Índice de luminosidade

Mesmo após o acelerador comprovar a sua confiabilidade, os grandes resultados ainda deverão levar algum tempo. Segundo o professor da Unesp, será preciso agrupar um enorme volume de dados para poder comprovar uma teoria.

Isso dependerá do número de colisões que o LHC poderá proporcionar, chamado "índice de luminosidade". Quanto mais eventos forem registrados, mais dados serão coletados para compor os resultados finais que serão gerados por estatísticas.

Além das questões que intrigam a física contemporânea, o LHC ainda poderá gerar descobertas imprevisíveis. "A história da ciência está repleta de episódios em que o acaso gerou descobertas impensáveis até então. Nada impede que isso possa se repetir aqui", disse Novaes.

Computadores não devem jogar dados

Ao discordar da então nascente Mecânica Quântica, Einstein afirmou que aceitar suas bizarras leis seria o mesmo que afirmar que Deus estaria jogando dados no Universo.

O brasileiro Luis Ceze, cientista da computação atualmente lecionando na Universidade de Washington, nos Estados Unidos, restringe um pouco mais suas preocupações: segundo ele, computadores não devem jogar dados.

Computadores indecisos

Para Ceze, se você inserir o mesmo comando no computador, ele deve sempre dar a mesma resposta.

E isso talvez possa soar estranho para a maioria dos usuários de computador, e mais ainda para os verdadeiramente apaixonados por tecnologia - mas a verdade é que isto está longe de ser verdade.

Segundo Ceze, os computadores mais modernos costumam se comportar de forma largamente imprevisível.

"Com os sistemas mais antigos, com apenas um processador, os computadores se comportam exatamente da mesma forma contanto que você dê a eles os mesmos comandos. Mas os computadores atuais, de múltiplos processadores, são não-determinísticos. Mesmo se você der a eles o mesmo conjunto de comandos, você poderá obter um resultado diferente," afirma o pesquisador.

Bugs nos computadores multi-core

Nos velhos tempos, cada computador tinha um processador. Mas todos viram que isso não era tão bom quanto poderia ser. Ou, pelo menos, não tão rápido.

O resultado é que hoje as máquinas vendidas no comércio têm vários processadores - estar atualizado exige adquirir um computador dual-core, ou mesmo quad-core. E isso falando apenas dos computadores domésticos. Os supercomputadores têm milhares de processadores rodando paralelamente.

De certa forma as coisas melhoraram, porque os computadores de múltiplos processadores rodam os programas mais rapidamente, custam menos e gastam menos energia.

Por outro lado, vários processadores são responsáveis por erros difíceis de rastrear, que frequentemente fazem os navegadores e outros programas travarem de repente.

"Com os sistemas multi-core, a tendência é ter mais bugs, porque é mais difícil de escrever código para eles," afirma Ceze. "E lidar com estes bugs simultâneos é muito mais difícil."

Caos nos computadores

Para Ceze, o que acontece é o mesmo clássico problema do caos, frequentemente exemplificado pelo bater das asas de uma borboleta que inicia um processo que vai acabar em um furacão do outro lado do globo.

O compartilhamento de memória dos computadores modernos exige que as tarefas sejam continuamente transferidas de um lugar para outro. A velocidade na qual essas informações viajam pode ser afetada por pequenos detalhes, como a distância entre as peças do computador, ou mesmo a temperatura dos fios.

Com isto, a informação pode chegar ao destino em uma ordem diferente, o que causa erros inesperados e difíceis de prever, mesmo no caso de instruções que rodaram bem centenas de vezes antes.

Computadores que não jogam dados

Incomodado com essa incerteza, Ceze e seus colegas afirmam ter desenvolvido uma técnica para tirar os dados das mãos dos computadores, fazendo com que os sistemas multi-core mais modernos também se comportem de forma previsível.

A técnica consiste em subdividir os conjuntos de comandos dados ao processador e enviá-los sempre para locais específicos, eliminando a variabilidade existente hoje, que acaba por tirar os dados de ordem.

Os conjuntos de comandos são calculados simultaneamente, de forma que o programa bem-comportado continua rodando mais rápido do que aconteceria em um computador com um único processador.

Um programa baseado na nova técnica foi apresentado durante a International Conference on Architectural Support for Programming Languages and Operating Systems, que aconteceu em Pittsburgh, na semana passada.

A vantagem de repetir os erros

Um dos grandes méritos do programa que Ceze e seus colegas desenvolveram é que ele permite reproduzir os erros, facilitando o processo de debugar o programa - seguir o funcionamento do programa passo a passo de forma a localizar a fonte do erro.

"Nós desenvolvemos uma técnica básica que poderá ser usada em uma grande variedade de sistemas, de telefones celulares até data-centers", afirma Ceze. "Em última instância, eu quero tornar realmente fácil para as pessoas projetarem sistemas de alto desempenho, com baixo consumo de energia e seguros."

Os resultados do programa são tão promissores que Ceze e seus colegas fundaram uma empresa, a PetraVM, para comercializar sua criação.

Algas marinhas superam todos os tratamentos para emagrecer

Algas marinhas podem se tornar uma importante alternativa contra a epidemia de obesidade.

A conclusão é de uma pesquisa feita no Reino Unido e apresentada na reunião da American Chemical Society, em San Francisco, na semana passada.

O estudo verificou que as algas têm potencial de reduzir a quantidade de gordura pelo organismo em cerca de 75%.

Pães com fibras

Os pesquisadores, da Universidade de Newcastle, adicionaram fibras obtidas das algas em pães, de modo a desenvolver alimentos que ajudem a perder peso ao serem consumidos.

Com o uso de um sistema digestivo artificial, os cientistas testaram a eficácia de mais de 60 tipos de fibras naturais ao medir a quantidade de gordura que era digerida e absorvida em cada caso.

As algas apresentaram o melhor resultado.

O que são alginatos

O grupo liderado por Iain Brownlee e Jeff Pearson observou que o alginato, a fibra natural encontrada nas algas, diminui a absorção de gordura pelo organismo de modo muito mais eficiente do que a maioria dos tratamentos atuais contra obesidade.

Alginatos são comumente usados como espessante ou estabilizante em alguns tipos de alimentos. Segundo os pesquisadores, quando adicionados à massa de pães em testes cegos, os produtos resultantes foram considerados melhores do que o pão branco comum com relação à textura e gosto.

"Os alginatos têm um grande potencial para o uso no controle de peso e, quando adicionados aos alimentos, oferecem a vantagem adicional de ampliar a quantidade de fibra", apontou.

"Obesidade é um problema que não para de crescer e muitas pessoas acham difícil seguir uma dieta ou um programa de exercícios físicos com o objetivo de perder peso", disse Brownlee.

Fibra natural de alga

A próxima etapa da pesquisa será verificar, por meio de experimentos com voluntários, se os resultados observados no laboratório podem ser reproduzidos em circunstâncias normais.

"Verificamos que o alginato reduz significativamente a digestão de gorduras. Isso sugere que se pudermos adicionar essa fibra natural a produtos ingeridos diariamente - como pão, biscoitos ou iogurte - até três quartos da gordura contida nessa refeição podem simplesmente passar pelo corpo sem serem absorvidos", disse Brownlee.

A pesquisa é parte de um projeto de três anos financiado pelo Biotechnology and Biological Sciences Research Council, do Reino Unido.