quarta-feira, 30 de dezembro de 2009

Descoberta uma fonte da juventude. Para as células, por enquanto

A redução da ingestão calórica, especialmente na forma de glicose, aumenta a vida útil das células humanas.

Esta é a conclusão de uma pesquisa inédita que acaba de ser publicada no periódico médico FASEB Journal.

Células que vivem mais

Segundo os pesquisadores da Universidade do Alabama, nos Estados Unidos, pegar uma segunda sobremesa pode ser uma má estratégia para quem se interessa em ter uma vida longa e livre do câncer.

Isto porque, conforme eles agora mostraram com precisão, as dietas com poucas calorias - especificamente na forma de glicose - ajudam as células humanas a viver mais.

Vida e morte celular

No estudo, os cientistas usaram células normais e células pré-cancerosas de pulmão humano. Estas últimas estavam em estágios iniciais da formação do câncer.

Os dois conjuntos de células foram cultivados em laboratório e separadas em grupos que receberam doses normais ou reduzidas de glicose (açúcar).

Conforme as células cresceram durante algumas semanas, os pesquisadores monitoraram a sua capacidade de se dividir e o número de células que sobreviviam durante este período.

Eles descobriram que, quando receberam doses menores de glicoses, as células normais viveram mais tempo, e muitas das células pré-cancerosas morreram.

Efeitos epigenéticos

A atividade genética também foi medida nas mesmas condições. A redução da glicose fez com que as células normais tivessem uma maior atividade do gene que determina o nível de telomerase, uma enzima que aumenta a vida útil das células, e uma menor atividade de um gene (p16) que retarda o seu crescimento.

Efeitos epigenéticos (efeitos não devidos a mutações genéticas) foram a principal causa na alteração da atividade desses genes conforme eles reagiam aos menores níveis de glicose.

Fonte da juventude farmacêutica

"A ciência ocidental está à beira de desenvolver uma fonte farmacêutica da juventude", disse Gerald Weissmann, comentando a pesquisa. "Este estudo confirma que estamos na trilha certa para convencer as células humanas a deixar-nos a viver por mais tempo e, talvez, livres do câncer."

"Nossa esperança é que a descoberta de que menos calorias estendem a vida útil das células humanas normais levará a novas descobertas sobre as causas para estes efeitos em diferentes tipos de células e facilite o desenvolvimento de novas abordagens para prolongar a vida dos seres humanos", disse Trygve Tollefsbol, um dos autores do estudo.

"Nós também podemos esperar que estes estudos levem a melhorias na prevenção do câncer, assim como de muitas outras doenças relacionadas com a idade, por meio do controle da absorção de calorias pelos vários tipos de células específicas," conclui ele.

Empresas usam racionalidade e inteligência do consumidor para enganar

Uma pessoa é abordada na rua por um vendedor que oferece a assinatura de uma revista por três meses grátis.

Animada, preenche o formulário e, no quarto mês, nota um desconto na fatura do cartão de crédito. Liga para reclamar e argumenta que pensou que só receberia durante três meses.

O representante da revista responde: "Em nenhum momento demos essa informação. É você que deveria cancelar a assinatura para não ser descontado".

A lógica do engodo

A situação ilustra um tipo de truque que utiliza a nossa própria maneira de pensar, e até o nosso conhecimento, para nos enganar.

Estabelecer um modelo lógico para essa relação é um dos trabalhos desenvolvidos pelo professor Walter Carnielli, do Departamento de Filosofia da Universidade Estadual de Campinas (Unicamp).

O estudo do professor é uma continuação do trabalho sobre lógica e argumentação que gerou o livro Pensamento crítico: o poder da lógica e da argumentação, lançado este ano por Carnielli em parceria com Richard Epstein, diretor do Advanced Reasoning Forum, no Novo México, Estados Unidos.

Vítima da própria inteligência

O exemplo da assinatura de revistas é usado pelo professor para ilustrar o problema. "Quero mostrar como alguém se torna vítima da própria inteligência ao ser enganado dessa forma", contou.

Segundo ele, o enganador acaba se munindo de argumentos lógicos ao não contar toda a verdade e o enganado é guiado por suas próprias inferências que não são incorretas, mas beneficiam quem pratica o engodo.

Carnielli explica que isso ocorre porque nas discussões e nos argumentos em geral se é chamado a utilizar o chamado Princípio da Discussão Racional ou Princípio da Caridade. "Para melhor levar adiante uma discussão ou um argumento temos de supor sempre o melhor dos outros, e acabamos concedendo ao nosso oponente a chamada racionalidade máxima."

Armadilha para os racionais

O processo não termina por aí. Depois de supor que o interlocutor tem pontos positivos e quer fazer o melhor, esse pensamento é ampliado por meio de um processo lógico chamado de consistência maximal.

Como exemplo, de volta à cena inicial. "Após acreditar no vendedor, nós tomamos a empresa que está oferecendo a revista como conceituada e de grande porte, portanto incapaz de querer nos prejudicar", disse o professor da Unicamp.

O lado irônico da pesquisa é que esse tipo de golpe costuma atingir as pessoas mais racionais e mais bem preparadas intelectualmente. "Cair no truque não é burrice, mas uma resposta racional a uma manobra maliciosa", ressaltou.

Por terem um entendimento restrito da proposta, segundo aponta, indivíduos com menor escolaridade assumiriam menos suposições e, por consequência, menos riscos nesse caso.

Pior do que mentira

Falácias desse gênero são utilizadas frequentemente para fazer consumidores adquirirem produtos que não querem, pagar por itens adicionais que não foram solicitados e arcar com ônus que não foram explicitados em uma contratação.

Por isso, Carnielli acha que esse tipo de truque deveria ser previsto na legislação. "Isso é pior do que mentira. O mentiroso deve se preocupar com a verdade para tentar escondê-la, enquanto os embrulhões criam uma 'situação pirata' que se afasta da lógica, mas nos forçam a usá-la a seu favor", destacou.

NIC.br oferece curso online sobre IPv6

O Núcleo de Informação e Coordenação do Ponto BR (NIC.br) passou a oferecer em seu portal na web um curso online sobre o IPv6, protocolo que amplia as possibilidades de endereçamento da internet.

No curso, que é apresentado pelo NIC.br como de caráter introdutório e é hospedado em site especial voltado ao IPv6, estudantes, professores e profissionais da área têm acesso a informações básicas sobre o protocolo, as fases de implementação, detalhes do cabeçalho dos pacotes e do endereçamento.

O conteúdo abrange ainda as melhorias em segurança trazidas pelo IPv6, além de detalhes sobre a coexistência com o endereçamento IPv4 atualmente utilizado, que é de 32 bits - o IPv6 usa 128 bits.

O curso pode ser acessado diretamente pelo endereço curso.ipv6.br.

Fonte: IDG Now!

Imprensa Oficial libera acervo de coleção Aplauso para download na web

A Imprensa Oficial de São Paulo liberou para download na internet o acervo de sua coleção Aplauso, composta por livros sobre atores, dramaturgos e cineastas e roteiros de filmes brasileiros. Dos cerca de 200 títulos da série, 170 já podem ser baixados sem custo algum ou lidos diretamente da web pelos internautas.

No catálogo liberado para download estão, por exemplo, biografia de atores como Stênio Garcia, Walmor Chagas, Beatriz Segall e Eva Wilma. No caso de roteiros, podem ser baixados os textos dos filmes O Céu de Suely, dirigido por Karim Aïnouz, e O Ano em que meus pais saíram de férias, de Cao Hamburger, entre outros.

O acesso ao conteúdo pode ser feito pelo site da coleção Aplauso.

A Imprensa Oficial afirma que pretende ampliar a quantidade de títulos para download na web em 2010. A venda de livros da série Aplauso continua nas livrarias físicas e virtuais. O preço dos exemplares oscila entre 10 reais e 15 reais no mercado.

Fonte: IDG Now!

Cadastro para novo registro de identidade civil deve começar em janeiro

O ano de 2010 deve começar com mudanças nos documentos dos brasileiros. O Instituto Nacional de Identificação (INI), órgão ligado à Polícia Federal, espera que nos próximos dias seja publicado o decreto para implementação do novo Registro de Identidade Civil (RIC).

O documento vai reunir os números de todos os documentos de registro dos cidadãos, como CPF, Carteira de Trabalho, Carteira Nacional de Habilitação e Título de Eleitor – além do Registro Geral. Com a publicação do decreto, a expectativa é de que o cadastro para a emissão das novas carteiras de identidade comece em janeiro.

Ao solicitar o RIC, o cidadão passará pelos procedimentos habituais para obter a carteira de identidade, com coleta de digitais, fornecimento de dados pessoais e assinatura. A diferença, segundo a Polícia Federal, é que o processo será totalmente informatizado, garantindo um cadastro nacional biométrico.

O novo cartão terá um sistema complexo de tecnologia que inclui microchip e dados gravados a laser no documento. O objetivo é evitar falsificações e permitir maior agilidade na transmissão de dados sobre uma pessoa em todo o território nacional. Os órgãos regionais deverão receber estações de coleta e transferir os dados para o órgão central em Brasília, que por sua vez emitirá a nova identidade.

Espera-se que a partir do terceiro ano de implementação do projeto 80 mil pessoas possam ser cadastradas por dia, alcançando a meta de 20 milhões de cidadãos por ano. Em nove anos, cerca de 150 milhões de brasileiros devem ter o novo RIC.

Fonte: IDG Now!

HDMI 1.4 terá suporte à transmissão de vídeo em 3D

O consórcio que controla as especificações para o padrão de vídeo HDMI (High Definition Multimedia Interface), Hdmi.org, irá adicionar suporte para vídeos em 3D. Com essa implementação, o padrão chega à versão 1.4 e, além de filmes, o protocolo também se estende para rodar jogos em 3D.

O consórcio se reunirá no final de janeiro de 2010 para adicionar o recurso 3D à nova versão da conexão HDMI. Uma vez decidido o formato, os fabricantes de TVs e set-top-boxes serão obrigados a oferecer uma conexão HDMI com suporte a 3D em seus produtos.

>> Para saber mais, leia reportagem na PC World.

Fonte: IDG Now!

Crackers mostram que grampear celular GSM é mais fácil do que se pensa

Os celulares que utilizam o modelo de comunicação GSM, usados pela maioria das pessoas no mundo, podem ser grampeados com apenas alguns milhares dólares de hardware e algumas ferramentas gratuitas e com código aberto, segundo pesquisadores de segurança de computadores.

Em uma apresentação realizada nesta semana na Chaos Communication Conference em Berlim, na Alemanha, o pesquisador Karsten Nohl disse ter compilado 2 terabytes de dados que podem ser usados como um tipo de agenda telefônica reversa para identificar a chave de codificação utilizada para preservar o sigilo de conversas ou mensagens de texto em uma linha GSM.

A falha está no algoritmo de codificação usado pela maioria das operadoras. É uma cifra de 64 bits chamada A5/1 e é simplesmente muito fraca, segundo Nohl. Usando as informações dele e empregando antenas, softwares especializados e 30 mil dólares em hardware de computadores para quebrar a cifra, uma pessoa pode violar a codificação em tempo real e ouvir as ligações, segundo Nohl.

Há cerca de 3,5 bilhões de celulares GSM no mundo, o que representa cerca de 80% do mercado móvel, segundo dados da GSM Alliance, associação da indústria que representa fabricantes e operadoras.

Um porta-voz da associação GSM disse que o grupo irá avaliar as descobertas do pesquisador nos próximos dias e alertou que em muitos países o grampo de linhas de celular é ilegal.

A associação afirmou ainda ter desenvolvido um padrão de próxima geração, chamado A5/3, que é considerado muito mais seguro. Esse padrão é utilizado em redes 3G para dar segurança ao tráfego da internet.

Fonte: IDG Now!

terça-feira, 29 de dezembro de 2009

Como preparar a TI de sua empresa para enfrentar desafios de 2010

A última semana do ano, de forma geral, representa um momento mais calmo para as empresas. Por conta disso, também significa uma excelente oportunidade para resolver pequenas questões que acabam esquecidas por conta da correria do dia-a-dia, mas que serão fundamentais para começar um novo ano da forma mais adequada.

Identificamos ações que devem ser tomadas pelas equipes de tecnologia da informação das empresas que pode potencializar as operações no próximo ano. São elas:


Faça limpeza de disco
Hora de verificar, comprimir, desfragmentar e arquivar gigabytes. Devemos expandir a limpeza de disco para ver todas as áreas funcionais para tirar o pó do velho e preparar-se para o ano novo. Mas a limpeza de disco afetas equipes de TI com um golpe duplo de saber o que deixar de lado e perceber que o que foi adiado se torna mais doloroso a cada dia. Vamos incluir o termo “limpeza de disco” nos processos de backup. Sabe a restauração do servidor de testes que você está adiando? Pegue um dia do mês para fazer.


>> Conheça as outras oito ações estratégicas no site da Computerworld.


Fonte: PC World

Com virtualização, universidade melhora desempenho e reduz custos

A Universidade Regional de Joinville (Univille), instituição de 13 mil alunos com dois campi e uma unidade em Santa Catarina, lançou mão da virtualização de servidores para resolver um de seus grandes problemas relacionados à tecnologia: a sobrecarga nos servidores.

A instituição cresceu muito por meio de aquisições, o que aumentou bastante a demanda dos seus sistemas de gestão. A carga de trabalho começou a ocupar 70% dos servidores em média - percentual muito alto para um sistema que precisa estar sempre disponível. Para piorar, não havia redundância para a infraestrutura.



O gargalo nos servidores provocava queda de desempenho, afetando diretamente o atendimento ao aluno. Além disso, o backup era quase todo manual, com uma estrutura que não estava à altura do porte da universidade. “O custo para fazer a atualização da infraestrutura seria muito alto. Após estudos, identificamos que a melhor maneira de mudar seria renovar os servidores com a implantação de virtualização”, afirma o analista de sistemas sênior da Univille, Rodrigo Ramos Deronel.


>> Conheça detalhes do projeto na Computerworld.


Fonte: PC World

Microcélulas solares podem ser o invento da década

Cientistas do Laboratório Sandia, dos Estados Unidos, criaram um novo tipo de célula solar que, mais do que nenhuma outra, merece de fato ser chamada de "célula."

Lembrando as minúsculas partículas cintilantes usadas em decoração - conhecidas como glitter - as minúsculas células solares utilizam 100 vezes menos silício para produzir a mesma quantidade de energia elétrica.

Microcélulas solares

As minúsculas células solares poderão ser incorporadas nas superfícies irregulares de prédios e veículos e até mesmo de roupas, transformando as pessoas em recarregadores solares ambulantes, que ficarão independentes das tomadas para recarregar seus aparelhos portáteis.

As "partículas solares" são fabricadas de silício cristalino, o mesmo material usado na fabricação das células solares tradicionais. Mas suas dimensões e seu formato abrem a possibilidade de novos usos impensáveis para os rígidos painéis solares. Elas têm ainda potencial para serem mais baratas e apresentarem uma eficiência maior do que os atuais coletores fotovoltaicos.

Painéis solares inteligentes

As células solares tipo glitter são fabricadas usando o princípio dos dispositivos microeletromecânicos (MEMS). Isto permitirá que os "painéis" ou outras superfícies sobre as quais elas forem fabricadas recebam também circuitos eletrônicos adicionais, integrando funções que hoje são desempenhadas por circuitos externos.

"Módulos fotovoltaicos feitos a partir dessas microcélulas solares, para uso nos telhados das casas e dos prédios, poderão ter controles inteligentes, inversores e até mesmo sistemas de armazenamento de energia em nível de chip. Um módulo assim integrado poderia simplificar o design e até permitir a integração dos painéis com a rede de energia," diz o engenheiro Vipin Gupta, um dos criadores das microcélulas solares.

100 vezes menos silício

Parte do potencial de redução dos custos da energia solar decorre do fato de que as microcélulas solares necessitam de relativamente pouco material - o caro silício cristalino - para criar células de grande eficiência e de funcionamento robusto.

Medindo entre 14 e 20 micrômetros de espessura (um cabelo humano tem aproximadamente 70 micrômetros de espessura), elas são 10 vezes mais finas do que as células solares convencionais, mas operam nos mesmos níveis de eficiência.

"Com isto, elas usam 100 vezes menos silício para gerar a mesma quantidade de eletricidade," disse Murat Okandan, outro membro da equipe. "Como elas são muito menores e têm menos deformações mecânicas para um dado ambiente do que as células convencionais, as microcélulas solares podem também ser mais confiáveis no longo prazo."

Vantagens das microcélulas

As características e as minúsculas dimensões das microcélulas solares têm vantagens tanto no momento da fabricação quanto na hora da operação.

Elas podem ser fabricadas a partir de pastilhas de silício de qualquer dimensão. Como são fabricadas para serem independentes umas das outras - só sendo montadas em painéis numa etapa posterior - se uma célula der defeito, apenas ela estará perdida - hoje, uma pastilha de silício inteira pode se perder por um único defeito.

No momento da operação, um painel solar tradicional pode deixar de gerar energia mesmo quando apenas uma parte dele fica sombreado. Na mesma situação, as novas células solares que se mantiverem ao Sol continuarão gerando energia.

Os primeiros testes indicam uma eficiência das microcélulas solares de 14,9%. Os módulos solares comerciais variam entre 13 e 20 por cento de eficiência.

Custo das células solares

Cada microcélula solar é fabricada sobre a pastilha de silício, cortada em formatos hexagonais e pronto. Cada uma delas já contém seus contatos elétricos pré-fabricados, graças às técnicas utilizadas na fabricação dos MEMS.

Um robô industrial comum pode colocar até 130.000 peças de glitter por hora nos pontos de contato elétrico pré-estabelecidos no substrato que servirá de suporte para as células solares.

O número de microcélulas solares por módulo é determinado pelo nível de concentração óptica utilizada (concentradores são conjuntos de lentes usados para focar a luz do Sol e aumentar a eficiência das células solares individuais) e pelo tamanho do substrato - um número que variará entre 10.000 e 50.000 microcélulas solares por metro quadrado.

O custo dessa operação é de aproximadamente um décimo de centavo de dólar por peça. Os pesquisadores afirmam já estar trabalhando em uma técnica alternativa de automontagem, com potencial para reduzir os custos ainda mais.

Robô antropomimético terá esqueleto de plástico

Por mais que um robô possa se parecer com um ser humano, basta se aproximar dele para ouvir as diferenças: robôs são feitos com motores e engrenagens e, como toda máquina, fazem um bocado de barulho quando se movimentam.

Os engenheiros já estão trabalhando para fabricar robôs domésticos mais silenciosos, mas as alternativas tecnológicas ainda não estão prontamente disponíveis.

Prevendo a necessidade de uma interação mais amena entre androides e humanos no futuro, um grupo de roboticistas de vários países europeus se reuniu para encontrar uma solução definitiva para esse problema - eles querem substituir os motores, engrenagens, polias e cabos dos robôs atuais por algo mais parecido com um esqueleto humano.

Robô antropomimético

O objetivo do projeto Ecce Robot - nome inspirado na famosa obra Ecce Homo, do filósofo Nietzsche - é construir um robô antropomimético.

Em vez de apenas copiar a forma externa, os pesquisadores da Alemanha, Suíça, Sérvia e França querem copiar as estruturas internas de movimentação de um ser humano, incluindo ossos, juntas, músculos e tendões.

O fato de usarem mecanismos de movimentação tão diferentes dos humanos impõe aos atuais robôs humanoides muito mais limitações do que apenas a inconveniência do ruído do acionamento de seus motores e engrenagens.

As próprias características funcionais dos robôs refletem seus limites internos, que restringem não apenas sua capacidade de movimentação e suas interações sociais, como também o tipo de conhecimento que eles podem adquirir e seu "envolvimento cognitivo" com o ambiente - é muito difícil, por exemplo, que um robô possa aprender a andar como uma criança.

Ossos de plástico

O EcceRobô terá ossos de plástico com o mesmo formato dos ossos humanos. Fios sintéticos farão as vezes dos tendões, enquanto músculos artificiais e cordões elásticos farão as vezes dos músculos antagonistas.

Por mais óbvia que a solução possa parecer, construir robôs que imitem o movimento do ser humano é muito mais complicado do que construir androides com movimento no melhor estilo C3PO.

Mas os pesquisadores acreditam que o resultado final valerá a pena. Segundo eles, o próprio processo de solucionar os problemas encontrados durante o projeto ampliará enormemente os conhecimentos disponíveis para os roboticistas.

Simulador de robô humanoide

Para controlar o esqueleto robótico, o EcceRobô precisará muito mais do que um "cérebro artificial" do tipo tradicional, no qual cada movimento é armazenado na forma de uma instrução de computador.

O robô antropomimético terá três unidades de controle distintas, embora trabalhando de forma integrada: uma unidade de controle de movimento voluntário, uma unidade de controle de movimentos involuntários (responsável pelos reflexos) e um sistema comportamental.

Para minimizar os custos de desenvolvimento e permitir a construção de protótipos com maior nível de funcionalidade, os pesquisadores construíram um simulador do EcceRobô, no qual todas as possibilidades técnicas podem ser testadas antes de virarem peças reais.

Programa ajuda a prevenir cheias em rios urbanos

Enchentes e deslizamentos, que acontecem principalmente em épocas de chuvas, podem ser minimizados se os administradores públicos tiverem em mãos ferramentas que os auxiliem a prever cenários futuros e a tomarem decisões mais precisas.

Uma metodologia assim agora está disponível, graças ao trabalho do engenheiro Sidnei Ono, da Escola Politécnica da USP.

O Sistema de Suporte a Decisão para Gestão de Água Urbana - URBSSD é um software que permite elaborar estratégias preventivas em bacias urbanas, incorporando uma metodologia que permite ações preventivas em regiões de risco.

"A metodologia pode ser um importante suporte à tomada de decisões em tudo que se refere à água urbana superficial", define Ono.

Monitoramento hidrográfico

O estudo foi feito na bacia hidrográfica do Rio Cabuçu, na Zona Norte de São Paulo. O rio Cabuçu é afluente do Tietê pela sua margem direita, tendo suas nascentes junto à Serra da Cantareira. A área de drenagem é da ordem de 42 quilômetros quadrados.

A bacia hidrográfica do Rio Cabuçu de Baixo é um exemplo típico do que tem ocorrido em muitas cidades brasileiras. É uma bacia em acelerado processo de urbanização, mas que ainda dispõe de condições de controle, se adequadamente administrada pelos seus gestores.

E foi lá que, a partir de 2002, Ono iniciou seus estudos para a elaboração do URBSSD. "Trata-se de uma metodologia que pode ser aplicada em outras regiões. Para tanto, basta que o software seja devidamente ajustado com os dados do local a ser monitorado", esclarece o engenheiro.

Projeto multidisciplinar

Para iniciar o desenvolvimento do projeto, o engenheiro e uma equipe multidisciplinar, envolvendo hidrometristas, geólogos e arquitetos, realizaram uma espécie de "retrato" do local, mapeando uma série de características da região, como as áreas ocupadas, topografia, medições de eventos de chuva, medições do rio, etc.

Os dados foram então inseridos no software que permitiu gerar simulações de inundação. Os resultados das simulações hidrológicas e hidrodinâmicas podem ser visualizados e exportados para serem usados em outros softwares SIG.

"A medida pode proporcionar ao decisor uma solução rápida para variadas tormentas em bacias urbanas. Além de se constituir num instrumento de gestão, o projeto tem o potencial de minimizar os efeitos deletérios induzidos pelo crescimento humano", destaca Ono.

Ele enfatiza que o projeto é uma metodologia, uma ferramenta eficiente para o controle de cheias urbanas.

Cenários de enchentes

Outra vantagem do URBSSD é o desenvolvimento de um sistema que integra modelos, podendo gerar cenários para a avaliação e suporte a decisões. "Normalmente os profissionais utilizam um software de cada vez, com o uso de um modelo hidrológico que estuda vazões, um outro modelo para o cálculo de ondas de cheias, outro software para o processamento de imagens e assim por diante", descreve Ono.

Como recomendação para os modelos de cheias urbanas, o URBSSD deve ser adaptado para as diferentes bacias urbanas, mesmo sendo atualmente um software customizado. O projeto também tem o potencial de ser utilizado como uma ferramenta de análise de qualidade da água e de sedimentos para outras bacias urbanas, mas principalmente uma ferramenta importante na previsão de inundações se for aliado a um sistema de previsão de chuvas.

Monitor de LCD vê o que o usuário faz, dispensando teclado e mouse

Um monitor de LCD comum pode ser modificado para "ver" o mundo à sua frente, em 3D.

Isto significa que um usuário poderá controlar os objetos que estão sendo mostrados na tela simplesmente mexendo seus braços no ar, sem tocar a tela, como nos monitores sensíveis ao toque.

"Este é um nível de interação que ninguém jamais foi capaz de fazer antes", diz Ramesh Raskar, do laboratório Media Lab, do MIT, um dos engenheiros que criou o protótipo do monitor que enxerga.

A tela - batizada de BiDi, uma abreviatura para bidirecional - permite que os usuários manipulem ou interajam com objetos na tela em três dimensões. Além disso, a tela pode funcionar como um scanner 3D: "Se você girar um objeto na frente da tela, o software vai capturar uma imagem 3D," disse Raskar à revista New Scientist.

Outras tecnologias que buscam imitar a ficção de filmes como Minority Report usam câmeras para monitorar os gestos do usuário - veja Lançada interface acionada por gestos.

Técnicas para que um monitor enxergue

Recentemente, pesquisadores da Universidade de Cambridge desenvolveram um sistema de sensores que pode ser incorporado em óculos e monitores de LCD, transformando-os em sensores ópticos - veja O futuro será das telas 3-D de cristal líquido.

Empresas fabricantes de LCD também estão apostando em suas próprias versões desse conceito, incorporando receptores de luz entre as camadas que compõem a tela.

Mas, por enquanto, a "visão" oferecida por esses esquemas é bastante ruim, como as imagens captadas por uma câmera sem lentes. Colocar minúsculas lentes diretamente na frente de cada sensor óptico poderia ser uma solução, mas a camada de lentes prejudicaria a imagem do monitor.

Os pesquisadores do MIT demonstraram que o mesmo resultado pode ser obtido com o próprio mecanismo nativo das telas de cristal líquido.

Sensores dentro do monitor

O brilho de cada pixel de um LCD é controlado por uma camada de cristais líquidos, que se movimentam para controlar fisicamente a quantidade de luz, vinda do backlight da tela, que chega aos olhos do usuário.

No monitor BiDi, a equipe utilizou esta função para controlar também a luz que passa na outra direção, vinda do ambiente externo e atingindo uma camada de sensores colada atrás da tela - nesta posição, a camada de sensores não prejudica a imagem normal da tela.

Quando a tela está no modo "olhando", a maioria dos seus pixels são desligados pelos cristais líquidos. Mas uma grade de centenas de pixels, regularmente espalhados sobre a superfície de toda a tela, usa os cristais líquidos para criar pequenos buracos, que funcionam como a lente da câmara escura, focalizando uma imagem da cena sobre uma película fina e translúcida, localizada alguns centímetros atrás do LCD.

Essas imagens são capturadas por uma câmera dentro BiDi, permitindo que o dispositivo saiba o que está acontecendo à sua frente.

Imagens estereoscópicas

É claro que os pixels da tela LCD devem continuar fazendo o seu trabalho normal de apresentação das imagens para o usuário. Para isso, eles alternam entre as duas tarefas várias vezes por segundo, rápido demais para que o usuário perceba a interrupção na imagem.

Como são usados vários pixels de observação ao redor da tela, torna-se possível reconstruir imagens estereoscópicas, usando uma pequena quantidade de informação de cada uma das imagens captadas.

Vários pares de imagens estereoscópicas permitem a geração de imagens altamente focalizadas de cada objeto defronte à tela, o que possibilita o cálculo da distância de cada um desses objetos.

Conhecendo a distância de cada um, torna-se possível usar esses objetos - as mãos, por exemplo - para executar tarefas na própria tela, interpretando os gestos como comandos.

Filmes do protótipo da tela BiDi em ação podem ser vistos no endereço web.media.mit.edu/~mhirsch/bidi/

Hidrofólio usa técnicas de aviões para explorar energia das ondas

Há vários conceitos interessantes e promissores sendo avaliados para tentar efetivar esse potencial, incluindo boias submarinas, hidroelétricas marinhas e até "cobras" de borracha.

No entanto, até mesmo os testes em escala piloto de novos dispositivos são caros. E, além da geração de energia propriamente dita, os engenheiros devem se preocupar com problemas como tempestades e com a necessidade de manter os equipamentos bem ancorados no leito oceânico.

Achatando as ondas

Agora, uma equipe de engenheiros aeroespaciais está aplicando os mesmos princípios que mantêm os aviões no ar para criar um novo sistema de geração de energia elétrica a partir das ondas que é durável, extremamente eficiente e que pode ser colocado em qualquer parte do oceano, independentemente da profundidade.

Embora o projeto ainda esteja na fase inicial, simulações por computador e testes em escala reduzida sugerem que o novo sistema terá uma eficiência maior do que as turbinas de vento.

O sistema foi projetado para efetivamente anular as ondas que se aproximam, capturando inteiramente sua energia ao ponto de "achatá-las", nivelando novamente a superfície do mar.

Isto fornece um benefício adicional do projeto, que poderá funcionar como uma espécie de dispositivo "antitempestade", operando como um quebra-ondas.

Retroalimentação de fluxo

"Nosso grupo está trabalhando em pesquisas básicas sobre o controle de realimentação de fluxos há anos", diz o pesquisador Stefan Siegel, referindo-se aos esforços para utilizar sensores e peças ajustáveis para controlar como os fluidos - neste caso o ar - fluem em torno de aerofólios, como as asas de um avião.

"Em um avião, quando você controla esse fluxo, você controla melhor o voo - por exemplo, permitindo-lhe aterrissar um avião em uma pista menor," explica ele.

Ao comparar seu trabalho com outras tentativas de exploração da energia das ondas, Siegel e seus colegas perceberam que poderiam operar um dispositivo de geração de energia a partir das ondas utilizando os mesmos conceitos de controle de retroalimentação que estavam desenvolvendo para os aviões.

Arrasto e sustentação

Eles então projetaram um mecanismo que utiliza a sustentação, em vez do arrasto, para mover as pás do gerador.

"Todo avião voa graças à sustentação, e não ao arrasto", diz Siegel. "Compare um velho moinho com um moderno. Os novos usam o fenômeno da sustentação e foi isto o que tornou viável a energia eólica. A dinâmica de fluidos resolveu a questão para os moinhos de vento, e pode fazer o mesmo para a energia das ondas."

Os moinhos usados para a geração de energia a partir dos ventos têm controles ativos que viram as lâminas para compensar os ventos de tempestade, eliminando o arrasto quando há risco de danos sobre o próprio moinho.

Hidrofólio

Os pesquisadores usaram a mesma abordagem usada nos aviões para criar um "hidrofólio" - o equivalente a um aerofólio, mas projetado para funcionar na água.

O hidrofólio foi incorporado em um propulsor cicloidal - também conhecido como hélice Voith-Schneider - um projeto nascido na década de 1930 e que atualmente impulsiona rebocadores, balsas e outras embarcações que precisam de grande capacidade de manobra.

Os pesquisadores mudaram a orientação da hélice de horizontal para vertical, permitindo a interação direta com o movimento cíclico - para cima e para baixo - das ondas.

Os pesquisadores também desenvolveram sistemas de controle individual para cada pá da hélice, permitindo manipulações sofisticadas que maximizam (ou minimizam, no caso de tempestades) a interação com a energia das ondas.

Em última instância, o objetivo é manter constantes a direção do fluxo e a direção das lâminas, cancelando a onda que se aproxima e utilizando geradores elétricos comuns, de acionamento direto ou por engrenagens, para converter a energia das ondas em energia elétrica.

Um propulsor que esteja exatamente fora de fase com as ondas vai cancelar totalmente essa onda e maximizar a produção de energia.

Dispositivos flutuantes

O cancelamento das ondas também irá permitir a construção de dispositivos flutuantes, sem a necessidade de ancoragem, o que é importante para locais de mar profundo, que detêm grande potencial energético e que estão atualmente além das possibilidades dos dispositivos existentes ou projetados para a exploração da energia das ondas.

Os pesquisadores preveem que um novo gerador viável em escala real deverá ter cerca de 40 metros de diâmetro - os testes feitos até agora em escala de laboratório empregam um modelo de 1 metro. Testes com um modelo de 5 metros deverão ser feitos em 2010.

sábado, 26 de dezembro de 2009

Amplie suas fotos sem perder a qualidade

As câmeras digitais de hoje em dia trazem tantos pixels de resolução que dificilmente é possível enviar fotos por e-mail em seu tamanho original. E é importante que a imagem tenha seu tamanho reduzido de forma a facilitar o compartilhamento.

Isso é simples de fazer se a foto tiver um tamanho grande, mas se for pequena é impossível de deixá-la maior. Mesmo quando seu programa editor de imagem possuir uma ferramenta para aumentar o tamanho da mesma.


Esses programas só são bons para diminuir o tamanho de uma foto, não o contrário. Porém você pode deixar a imagem maior para impressão.


Leia também:
> Dicas essenciais para editar fotos
> Crie fotos com ótimo contraste com a técnica HDR em sua câmera digital
> Fotografia: três regras básicas para a composição de boas imagens
> Guia para não errar na escolha de sua próxima câmera digital
> Há relação entre megapixels e megabytes em fotografia digital?
> Como melhorar as imagens capturadas pela câmera do celular


Para uma boa impressão você precisa que sua foto tenha 300 pixels por polegada (cerca de 2,5 centímetros), então para imprimir uma imagem de 20 por 25 centímetros com boa qualidade, você precisará de uma foto com 2400 por 3000 pixels de resolução.


Existem programas dedicados a esse tipo de função e inclusive alguns plug-ins para Photoshop que realizam essa tarefa. Uma alternativa gratuita é o SmillaEnlarger, um programa de código aberto para Windows.


O programa é fácil de usar, já que não necessita de configuração. Basta arrastar a foto para a janela do programa e especificar o tamanho desejado. Se estiver satisfeito com o resultado, dê um nome para a imagem e salve.


Fonte: PC World

Nasce o primeiro transístor molecular

Cientistas conseguiram fabricar experimentalmente o primeiro transístor feito com uma única molécula, levando a miniaturização da eletrônica ao seu limite e começando a tornar realidade as promessas de uma eletrônica molecular.
Exatamente ontem, dia 23 de Dezembro, o transístor original completou

Outros cientistas já haviam feito propostas teóricas para a criação de um transístor de benzeno e, há cerca de dois meses, uma equipe demonstrou o funcionamento do primeiro diodo molecular, uma junção semicondutora essencial para a construção dos transistores.

Transístor molecular

Agora, os pesquisadores da Universidade de Yale, nos Estados Unidos, e do Instituto de Ciência e Tecnologia da Coreia do Sul, apresentaram o primeiro transistor molecular que funciona na prática, ainda que em escala de laboratório.

Eles demonstraram que, conforme haviam sugerido cientistas da Universidade do Arizona, uma molécula de benzeno ligada a contatos de ouro comporta-se como um transistor de silício.

Os pesquisadores conseguiram manipular os diferentes estados de energia da molécula variando a tensão aplicada através dos eletrodos de ouro. Ao manipular os estados de energia, eles foram capazes de controlar a intensidade da corrente elétrica que passa através da molécula. Exatamente o mesmo comportamento de um transístor eletrônico de silício.

"É mais ou menos como rolar uma bola colina acima, onde a bola representa a corrente elétrica e a altura da colina representa os diferentes estados de energia da molécula," tenta explicar o Dr. Mark Reed. "Fomos capazes de ajustar a altura da colina, permitindo que a corrente passasse por ela quando ela era mais baixa, e interrompendo a corrente quando ela se elevava."

Ferramentas moleculares

A parte mais desafiadora da construção do transístor molecular foi justamente conectar os eletrodos metálicos à molécula, uma técnica que o Dr. Reed e sua equipe vêm aprimorando há quase 20 anos.

O feito somente foi alcançado graças ao desenvolvimento de novas técnicas e equipamentos que permitem a medição das correntes super tênues e a "visualização" do que está ocorrendo em nível molecular.

O desafio pode ser visualizado na imagem, que contrasta as dimensões dos contatos elétricos, construídos com a tecnologia atual de litografia, e a molécula individual que funciona como transístor.

Uma década de trabalho

Há um grande interesse em utilizar moléculas em circuitos de computador porque os transistores tradicionais, feitos de silício, não são viáveis em escalas tão pequenas.

Contudo, embora represente um marco importante para a criação da eletrônica molecular, este transístor é ainda um dispositivo em escala de laboratório. Mesmo sua reprodução por outros grupos de pesquisadores será difícil. A fabricação em escala industrial terá que esperar ainda muitos anos de novos aprimoramentos e de novos equipamentos.

"Ainda não estamos prestes a criar a próxima geração de circuitos integrados," afirma Reed. "Mas, depois de muitos anos de trabalho nos preparando para isto, terminamos um trabalho de uma década de duração, conseguindo demonstrar que as moléculas de fato podem funcionar como transistores."

Lente de metamaterial focaliza um hemisfério inteiro

Engenheiros da Universidade de Duke, nos Estados Unidos, criaram uma nova geração de lentes até agora só prevista nas teorias.

Diferente de todas as lentes que se conhece até hoje, a nova lente, de altíssima resolução e grande campo de visão, abre caminho para aplicações totalmente novas, assim como para a melhoria dos sistemas ópticos e eletromagnéticos atuais.

Lentes não-transparentes

As novas lentes em nada se parecem com as atuais. Em vez dos vidros ou plásticos transparentes, geralmente esféricos e altamente polidos, as novas lentes lembram mais uma veneziana em miniatura.

Ainda assim, sua capacidade de focalizar a direção dos raios eletromagnéticos que passam através delas, supera largamente as melhores lentes convencionais atuais - por enquanto, elas somente funcionam para raios na frequência das micro-ondas, mas não existe impeditivo para que elas possam ser fabricadas para outras frequências.

O avanço foi possível graças aos metamateriais, materiais sintéticos que não são formados por uma única substância, mas por uma estrutura construída pelo homem que pode ser projetada e desenvolvida para apresentar propriedades que não são encontradas em materiais naturais, encontrados na natureza.

Lente de fibra de vidro

O protótipo da nova lente, que mede cerca de 10 centímetros quadrados, foi fabricado com mais de 1.000 peças individuais, feitas com a mesma fibra de vidro usada nas placas de circuito impresso e revestida com cobre.

É o arranjo preciso dessas peças, dispostas em linhas paralelas, que direciona as ondas eletromagnéticas.

"Há centenas de anos os fabricantes têm feito as superfícies das lentes com um material uniforme, de forma a esculpir os raios que passam através da superfície," explica Nathan Kundtz, um dos autores da descoberta. "Embora estas lentes sejam capazes de concentrar os raios de forma extremamente eficiente, elas têm limitações com relação ao que acontece com os raios quando eles passam através do volume da lente."

"Em vez de usar as superfícies das lentes para controlar os raios, nós partimos para alterar o material entre as superfícies," disse Kundtz. "Se você puder controlar o volume da lente, você ganha muito mais liberdade e controle para projetar uma lente para atender necessidades específicas."

Lentes GRIN

Conhecendo as limitações das lentes atuais, os cientistas há tempos vêm investigando um novo tipo de lente, chamado GRIN (gradient index) - basicamente esferas transparentes.

As lentes GRIN têm vantagens, mas são difíceis de fabricar e seu ponto focal é esférico - a maioria dos sistemas atuais trabalha com planos focais de duas dimensões, e uma imagem esférica nem sempre se transforma em uma imagem clara numa superfície plana.

Grande campo de visão

A nova lente de metamateriais, agora criada, tem um ponto focal plano, como as lentes convencionais, o que a torna compatível com os dispositivos atuais.

Mas ela tem um campo de visão de praticamente 180º. Isso significa que a nova lente permite a visualização perfeita de praticamente um hemisfério inteiro - compare isto com o estreito ponto nítido que você enxerga no centro da sua lupa.

"Nós criamos essencialmente uma lente GRIN com esteróides," explica David Smith, o outro autor do experimento. "Esta é a primeira de uma nova classe de lentes que oferece possibilidades incríveis e abre um mundo totalmente novo de aplicações para os metamateriais."

Como na maioria dos experimentos de primeira geração com os metamateriais, as novas lentes foram projetadas para trabalhar com micro-ondas - os primeiros experimentos de invisibilidade também foram feitos com micro-ondas. Mas não existe impedimento teórico para que elas possam vir a ser fabricadas para operar em outras frequências.

Rumo à prática

Os pesquisadores afirmam que uma única lente de metamaterial poderá substituir sistemas ópticos tradicionais que exigem grandes conjuntos de lentes, além de fornecer imagens mais nítidas.

As novas lentes também poderão ser utilizadas em sistemas de grande potência, como nos radares, para a obtenção de feixes mais direcionados - isto não é possível com as lentes tradicionais porque elas teriam que ser grandes demais para serem práticas.

O próximo passo da pesquisa será aprimorar o experimento para criar lentes tridimensionais, além de fazer fabricar lentes que funcionem para outros comprimentos de onda, como infravermelho e luz visível.

Novo motor diesel é tão limpo que é difícil medir suas emissões

Pesquisadores da Universidade Técnica de Munique, na Alemanha, apresentaram o protótipo de um novo motor diesel que, em comparação com os atuais, pode ser considerado praticamente isento de emissões.

É o primeiro motor diesel a atender às severas especificações de nível 6 da União Europeia, que somente entrarão em 2014 e, ainda assim, apenas para os veículos novos.

O objetivo dos pesquisadores é atender às novas normas sem nem mesmo precisar utilizar um conversor catalítico - o conhecido catalisador usado em todos os automóveis.

Norma europeia para motores diesel

A norma Euro 6, que deverá entrar em vigor em 2014, é um padrão difícil de alcançar sob qualquer critério. A diretiva estabelece níveis de emissão que são até mesmo difíceis de quantificar.

Um motor diesel, por exemplo, poderá emitir meros 5 miligramas de partículas de fuligem e 80 miligramas de óxidos de nitrogênio por quilômetro. Isto é um quinto dos particulados e um quarto dos óxidos Nox permitidos pela norma Euro 4, que era válida até meados de 2009. Atualmente está em vigor a norma Euro 5 - o novo motor emite menos da metade dos óxidos NOx permitidos por ela.

Fumaça e óxidos de nitrogênio

A redução das emissões dos motores diesel é complicada pelo fato de que os óxidos NOx e a fuligem, ou material particulado, não podem ser reduzidos de forma independente um do outro.

Os óxidos de nitrogênio são formados quando o diesel queima na presença do ar contido na câmara de combustão. O ar é composto por 21 por cento de oxigênio e 78 por cento de nitrogênio. O diesel reage com o oxigênio, produzindo dióxido de carbono e água. Isso acontece em uma reação muito rápida, resultando em temperaturas na câmara de combustão tão altas que o oxigênio também começa a reagir com o nitrogênio do ar, formando óxidos de nitrogênio.

Para combater este efeito, os motores diesel modernos recirculam parte dos gases de escape, levando-os de volta à câmara de combustão depois de resfriá-los, juntamente com uma porção de ar fresco. Nessa mistura, o dióxido de carbono e a água dos gases de escape moderam o processo de combustão, mantendo a temperatura em níveis mais amenos. Como resultado, formam-se menos óxidos de nitrogênio, embora ao custo de produzir mais particulados - mais fumaça - uma vez que a proporção de oxigênio na mistura ar-exaustão é menor.

Motor diesel de alta pressão

Os engenheiros alemães projetaram seu novo motor de tal forma que a mistura ar-gases de escapamento seja injetada na câmara de combustão sob alta pressão. A turbina do motor comprime a mistura até 10 vezes a pressão atmosférica - mais do que o dobro da pressão que os motores atuais conseguem suportar. Assim comprimida, a mistura ar-gases de escapamento contém oxigênio suficiente para queimar o diesel completamente.

Eles juntaram esta inovação com uma outra melhoria, esta no bico que injeta o diesel na câmara de combustão. O novo bico pulveriza o combustível em gotículas microscópicas, permitindo que ele queime mais completamente.

Nas gotas maiores, produzidas pelos bicos injetores convencionais, apenas a camada externa de moléculas de combustível é queimada - é como se cada gota fosse uma cebola, onde somente a primeira camada é "descascada," ou seja, queima de fato. A fuligem dessa queima envelopa o restante da gota, impedindo que ela entre em contato com o oxigênio. O resultado é uma maior formação de fumaça e uma queima mais pobre do combustível.

Futuro dos motores diesel

Os engenheiros afirmam que não estão satisfeitos com o atendimento da norma Euro 6 e que não há motivos para parar os desenvolvimentos. Eles querem descobrir exatamente como a fumaça se forma nos milésimos de segundo quando as gotículas de diesel queimam.

Mas colocar um sensor no interior da câmara de combustão atrapalharia o próprio processo de combustão. Para resolver o problema, eles desenvolveram um novo sensor que é inserido no interior da câmara para coletar uma amostra e novamente retirado de lá - tudo em um milésimo de segundo.

Com esta nova sonda, até 13 amostras podem ser coletadas durante uma única explosão no interior de um cilindro - uma situação ideal para estudar o nascimento das partículas de fuligem que fazem tanto mal ao ar das cidades e à saúde das pessoas.

Os pesquisadores já estão trabalhando em cima dos novos dados, o que significa que motores diesel cada vez mais limpos são uma questão de tempo.

Sobras de sisal viram reforço de fibrocimento

As sobras da bucha de sisal, que geralmente são jogadas fora nos processos de fabricação de cordas, podem fornecer uma importante matéria-prima para a indústria de materiais de construção.

A descoberta é da equipe do professor Holmer Savastano Júnior, da Faculdade de Zootecnia e Engenharia de Alimentos da Universidade de São Paulo (USP), em Pirassununga.

Os pesquisadores desenvolveram uma técnica para a obtenção de fibras a partir da sobra rejeitada do sisal que pode gerar renda e aprimorar a cadeia produtiva da planta, que envolve hoje, no país, mais de 700 mil pessoas em atividades diretas e indiretas.

Método organossolve

Chamado de polpação organossolve, o processo consiste em dissolver a massa do sisal por meio da aplicação de pressão, alta temperatura e de etanol, que funciona como reagente.

O objetivo da polpação organossolve é quebrar a lignina que mantém as fibras unidas - a lignina é uma macromolécula associada à celulose na parede celular que dá rigidez e proteção às plantas.

Os processos convencionais para obtenção de fibras ou celulose utilizam o método kraft, que, além de envolver um processo químico mais agressivo, é viável somente em larga escala. "Uma grande vantagem do organossolve é ser adaptável a plantas de pequeno porte, o que o torna adequado a pequenos produtores", contou Savastano.

Outro ponto que acentua a função social da nova técnica é o fato de ela aproveitar um rejeito da indústria do sisal. Desse modo, a fibra para reforçar cimento não será retirada da indústria da cordoaria, ramo que mais utiliza o sisal como matéria-prima.

Fibrocimento com sisal

O fibrocimento poderá ser mais um braço da cadeia produtiva do sisal, planta que tem o Brasil como maior produtor mundial. O material obtido da planta do semiárido, segundo a pesquisa, pode entrar na fabricação de telhas, divisórias, suportes de ar-condicionado, caixas d'água e demais estruturas que atualmente utilizam outros tipos de fibras.

Um dos desafios da equipe de Savastano é reduzir a degradação que o sisal sofre em um produto de construção a base de cimento. Como toda fibra natural, ela sofre os efeitos da alcalinidade do cimento, decompondo-se com o passar do tempo.

Por causa disso, as peças de fibrocimento desenvolvidas até o momento contêm um porcentual de fibras sintéticas, como PVA (polivinil álcool) e PP (polipropileno). "Queremos agora aumentar o teor da fibra natural e reduzir o de materiais sintéticos", disse.

Fibras de bambu

Além do sisal, o grupo da USP começou a pesquisar também a fibra de bambu como componente de fibrocimento.

A engenheira agrícola Viviane da Costa Correa, orientanda de Savastano, desenvolve em seu mestrado o processo organossolve aplicado ao bambu. "Estamos estabelecendo a temperatura e o tempo ideais para a obtenção da fibra de bambu", disse Viviane.

Os ajustes sobre a polpação do bambu estão sendo feitos com o apoio do grupo do professor Antonio Aprigio Curvelo, do Instituto de Química de São Carlos da USP.

Além de fornecer fibras para reforço de cimento, o bambu também poderá servir de matéria-prima para celulose e papel. "O bambu é uma gramínea gigante que está presente em vastas extensões do Brasil, por isso esses processos poderão gerar um grande impacto no desenvolvimento econômico do país", destacou Savastano.

Energia geotérmica sofre revezes

A empresa AltaRock Energy comunicou ao Departamento de Energia dos EUA que paralisou os trabalhos do projeto de aproveitamento de energia geotérmica que mantinha na localidade de Geysers, 160 quilômetros ao norte de São Francisco, na Califórnia.

O projeto Geysers era o primeiro teste importante do governo Obama de aproveitamento de energia geotérmica como alternativa viável aos combustíveis fósseis e havia recebido uma verba de US$ 6 milhões (aproximadamente R$ 10,2 milhões) do Departamento de Energia daquele país.

A AltaRock é uma empresa emergente com sede em Seattle; além da verba federal que recebeu, levantou para o projeto outros US$ 30 milhões (cerca de R$ 51 milhões) em capital de risco.

Terremotos artificiais

O anúncio se seguiu ao fechamento, pelo governo da Suíça, de um projeto similar em Basileia, por ter provocado dois terremotos, um em 2006 e outro em 2007. A técnica reconhecidamente produz tremores de terra, quase sempre pequenos.

O tipo de tecnologia utilizada em ambos os projetos requer a quebra da rocha, muito quente em virtude da profundidade em que se encontra, para que se introduza água nas fraturas; a água circula em meio às rochas e se transforma em vapor, que é então utilizado para gerar energia.

Expectativas frustradas

Segundo o jornal New York Times, o revés pode mudar a direção do programa geotérmico do governo Obama, que criou expectativas de que o fundo rochoso da Terra pudesse ser aproveitado logo como fonte limpa e praticamente infinita de energia.

Segundo o jornal, os entusiastas da energia geotérmica garantiam que em pouco tempo seria possível perfurar quilômetros de rocha dura rapidamente e de modo economicamente viável, bastando para isso fazer pequenos aperfeiçoamentos nos métodos de perfuração usados hoje em dia.

O Departamento de Energia, que investiu este ano US$ 440 milhões (aproximadamente R$ 750 milhões) em energia geotérmica, informou que ainda confia nas perspectivas de longo prazo da tecnologia do projeto Geysers.

Energia geotérmica no mundo

Segundo o Relatório do Estado Global das Energias Renováveis de 2009 a capacidade instalada de geração de energia termal atingiu 10 GW em 2008.

O relatório é produzido pela Rede de Políticas de Energia Renovável para o Século 21 (Renewable Energy Policy Network for the 21st Century), a REN21, uma rede mundial, com sede na França.

Os Estados Unidos ocupam a liderança na área da energia geotermal, com 120 projetos em andamento no início de 2009, para gerar no mínimo 5 GW.

O documento destaca também Austrália, El Salvador, Guatemala, Indonésia Islândia, México, Nicarágua, Papua Nova Guiné, Quênia e Turquia como países em que o uso desse tipo de energia está em expansão.

Por outro lado, o aproveitamento da energia geotermal bombeada do subsolo atingiu 30 GWte, estima a REN21. Ainda segundo estimativa da organização, outros usos diretos de calor geotérmico, como o aquecimento de ambientes e estufas e utilizações na agricultura e na indústria, chegaram a 15 GWte. Pelo menos 76 países fazem algum tipo de uso de energia geotermal, diz o relatório.

Como se aproveita a energia geotermal

Para geração de energia geotermal, perfura-se o solo em busca de áreas quentes do subsolo. É esse calor que é aproveitado na geração de energia.

Sua viabilidade, no entanto, enfrenta agora as preocupações com a segurança nos Estados Unidos. Uma planta geotermal na Alemanha teria, segundo cientistas, gerado um terremoto na cidade de Landau in del Pfalz, próxima à fronteira com França e Luxemburgo.

A planta continua em operação enquanto uma comissão analisa sua segurança. De acordo com o New York Times, outros dois projetos similares trouxeram preocupações também similares: um na Califórnia, que está em exame pelo Ministério da Energia dos EUA; outro, na Suíça, fechado por ter causado terremotos em 2006 e 2007, que aguarda a decisão de um grupo de cientistas para ser ou não reaberto.

Mapa revela cadeia de montanhas escondida na Antártida

Cientistas que mapearam as mais enigmáticas cadeias de montanhas da Terra anunciaram algumas de suas descobertas em uma conferência realizada esta semana nos Estados Unidos.

A equipe internacional de pesquisadores passou dois meses entre 2008 e 2009 estudando as montanhas Gamburtsevs, uma cordilheira com picos que ultrapassam os 2.500 metros de altitude escondida sob a neve na Antártida.

Longa e rugosa

Os especialistas revelaram, por exemplo, que o contorno das montanhas é mais rugoso do que se acreditava, e que elas estão agrupadas de forma linear, ao contrário do que se pensava.

A formação linear é importante porque indica a possível origem das montanhas, cuja existência intriga cientistas desde que a cordilheira foi descoberta por pesquisadores soviéticos há 50 anos.

Um dos integrantes da equipe, o cientista Michael Studinger, do Lamont-Doherty Earth Observatory (LDEO) da Universidade de Colúmbia, em Nova Iorque, disse que a estrutura linear torna as Gamburtsevs comparáveis aos Alpes ou aos Montes Apalaches.

"São cadeias de montanhas que se formaram pela colisão de placas tectônicas", disse Studinger à BBC.

O especialista fez suas declarações durante o encontro de outono da União Geofísica Americana, em São Francisco, na Califórnia.

Ele enfatizou que a análise das informações coletadas ainda é bastante incipiente e que uma avaliação final deverá ser publicada mais adiante.

Segredos sob o gelo

Quando foram detectadas em 1957 pelos soviéticos, as montanhas surpreenderam a comunidade científica internacional porque, até aquele período, acreditava-se que a superfície rochosa no centro do continente antártico era relativamente plana.

A cordilheira tem despertado o fascínio de cientistas desde então, porque acredita-se que, há 30 milhões de anos, ela tenha sido um ponto que originou as gigantescas camadas de neve que hoje cobrem a Antártida.

Ou seja, se as montanhas não estivessem ali, no meio do continente antártico, o lençol de gelo que existe no local talvez não tivesse se formado da maneira como ocorreu.

Clima de outro mundo

Estudar as Gamburtsevs, no entanto, é extremamente difícil. As temperaturas no local podem cair abaixo de - 80ºC.

Para este estudo, duas aeronaves Twin-Otter sobrevoaram os picos escondidos sob a neve, percorrendo um total de 120 mil km.

Elas coletaram informações sobre a espessura do gelo, obtiveram imagens feitas por radar da base rochosa submersa e das diferentes camadas de gelo que a encobrem e ainda fizeram um mapa da superfície gelada com um equipamento a laser.

"Chegamos a um ponto no processamento das informações que nos permite iniciar o trabalho científico com os dados", disse Studinger.

Evolução climática do planeta

A camada de gelo que cobre as montanhas varia entre algumas centenas de metros, nos pontos menos espessos, até cerca de 4.800 metros.

A análise dos dados revela também um perfil rugoso com altos picos e vales profundos, escavados por rios e gelo em um passado longínquo.

Estudar o que aconteceu nesses vales pode trazer pistas sobre quão rapidamente as Gamburtsevs foram encobertas pelo gelo - e sobre a evolução climática do planeta.

Os dados indicam ainda que existem bolsões de água na base do gelo.

"Estamos entusiasmados com a ideia de usar essas informações para ver como os vales escavados pelos rios e depois cobertos pelo gelo estão agora conduzindo a água sob o lençol de gelo", disse Robin Bell, outro integrante do LDEO.

Outro pesquisador, Fausto Ferraccioli, do centro de pesquisas British Antarctic Survey, disse que é possível que os cientistas encontrem um ponto onde o gelo possa ser perfurado para que se obtenham informações sobre o clima da Antártida há milhões de anos.

"Pode existir gelo mais antigo do que 1,2 milhões de anos - entre 1,2 e 1,5 milhões", disse Ferraccioli à BBC News.

quinta-feira, 24 de dezembro de 2009

Feliz Natal

Oração de Natal

Senhor, nesta Noite Santa, depositamos diante de Tua
manjedoura todos os sonhos, todas as lágrimas e esperanças contidos em nossos corações. Pedimos por aqueles que choram sem ter quem lhes enxugue uma lágrima.

Por aqueles que gemem sem ter quem escute seu clamor.

Suplicamos por aqueles que Te buscam sem saber ao certo onde Te encontrar.

Para tantos que gritam paz, quando nada mais podem gritar.

Abençoa, Jesus-Menino, cada pessoa do planeta Terra, colocando em seu coração um pouco da luz eterna que vieste acender na noite escura de nossa fé.

Fica conosco, Senhor! Assim seja!

Satélite com participação brasileira tem missão prorrogada

A Agência Espacial Francesa (CNES) anunciou a extensão da missão científica do satélite artificial Corot, que já ganhou seu lugar na história graças às descobertas de planetas extrassolares - também chamados de exoplanetas.

A extensão de mais três anos de pesquisas foi anunciada durante a comemoração dos três primeiros anos em órbita do satélite franco-europeu-brasileiro Corot (COnvection, ROtation and planetary Transits).

O projeto do satélite Corot foi resultado de uma parceria internacional com participação de laboratórios franceses e de mais seis países europeus e do Brasil.

Exoplanetas e estelemotos

Como explica o professor do Instituto de Astronomia, Geofísica e Ciências Atmosféricas (IAG) da USP, Eduardo Janot, presidente do comitê Corot-Brasil, o satélite tem duas funções principais.

A primeira função é buscar exoplanetas, ou seja, planetas que não fazem partem do Sistema Solar. A busca é principalmente por planetas pequenos rochosos, parecidos com a Terra, locais onde as superfícies sólidas ou líquidas poderiam oferecer condições para o surgimento de vida.

"É importante ressaltar que planetas maiores, como Júpiter e Saturno, no caso do Sistema Solar, têm sua camada mais externa composta por gases", explica o professor.

A segunda função do Corot é o estudo de oscilações estelares através das variações de emissão de luz das estrelas, os estelemotos, algo como terremotos que ocorrem nas estrelas. Esses fenômenos permitem analisar a propagação dessas vibrações até o interior das estrelas, o que ajudam a entender o comportamento destes corpos celestes e até mesmo fazer algumas analogias com o comportamento do Sol.

Participação brasileira

Além da Agência Espacial Francesa, participam do projeto laboratórios científicos da Alemanha, Áustria, Bélgica, Espanha, Holanda e Itália, na Europa. No Brasil, os principais centros de pesquisas astronômicas nacionais participam do projeto.

Foram enviados cinco pesquisadores brasileiros que auxiliaram no desenvolvimento de um software de tratamento dos dados enviados pelo satélite. Outra participação brasileira é com o Centro Espacial de Lançamentos de Alcântara, no Maranhão, que abriga umas das três bases terrestres para as quais o satélite envia os dados coletados. "Com a entrada da Base de Alcântara no projeto, houve um aumento de 80 para 120 mil estrelas observadas", aponta Janot.

Descobertas

Lançado em dezembro de 2006, a missão do satélite deveria durar três anos, mas os resultados foram tão positivos que os coordenadores do projeto dos diversos países participantes decidiram dar continuidade aos trabalhos do Corot.

Dentre as principais descobertas do satélite nos últimos três anos estão uma dezena de exoplanetas, além centenas de outros astros que necessitam de observações do solo para que possam ser enquadrados como exoplanetas. O principal destaque nesta área vai para o Corot 7-b, o primeiro planeta rochoso descoberto fora do Sistema Solar com massa e densidade próximas a da Terra.

Terremotos estelares

Dentro da sismologia estelar - aquela que analisa, entre outros fenômenos, os estelemotos, - o satélite descobriu novos tipos de variações de luz, muitas delas até então desconhecidas pela Astronomia. "A descoberta dessas novas variações abre espaço para novas perspectivas no conhecimento estelar e na física das estrelas", acredita o professor Janot.

Com a continuação do Projeto Corot, algumas pesquisas devem ser aprofundadas. Uma delas é o enfoque nos estudos destes pequenos planetas rochosos, planetas os quais podem abrigar alguma forma de vida. Outro enfoque da pesquisa com exoplanetas será a busca pelas chamadas "Super Terras quentes", planetas com uma massa um pouco maior do que a Terra e mais próximos de suas estrelas.

Dentro do estudo das variações de luz das estrelas, o Corot deve focar-se na análise de estrelas parecidas com o Sol e no entendimento da física por trás das variações luminosas descobertas pelo Satélite.

Auroras boreais colidem, produzindo explosões de luzes

Uma rede de câmeras implantada em torno do Ártico, dando suporte à missão Themis da NASA, fez uma descoberta surpreendente sobre as auroras boreais.

Ocasionalmente, gigantescas "cortinas" de auroras boreais colidem, produzindo explosões espetaculares de luzes.

Os primeiros filmes do fenômeno foram apresentados nesta semana na reunião de outono da União Geofísica Americana. Embora as primeiras imagens científicas estejam em preto e branco, é possível antever o espetáculo dos filmes coloridos que estão por vir.

De queixo caído

"Nossos queixos caíram quando vimos os filmes pela primeira vez," conta o cientista espacial Larry Lyons, da Universidade da Califórnia, líder da equipe que fez a descoberta. "Estas explosões estão nos dizendo algo muito fundamental sobre a natureza das auroras."

As colisões ocorrem em uma escala tão vasta que os observadores na superfície da Terra, com um campo de visão muito limitado, nunca tinham notado sua existência. Foi necessário uma rede de câmeras super sensíveis espalhadas por milhares de quilômetros para obter a imagem toda.

Por cima e por baixo

A NASA e a Agência Espacial Canadense criaram essa rede de super câmeras para dar suporte à Themis (Time History of Events and Macroscale Interactions during Substorms) - foi ela a responsável pela descoberta da origem das Auroras Boreais.

A missão Themis consiste de cinco sondas espaciais lançadas em 2006 para resolver um antigo mistério: Porque é que as auroras ocasionalmente irrompem em uma explosão de luz chamada subtempestade?

Vinte câmeras capazes de captar o céu inteiro (ASIS - all-sky imagers) foram instaladas em todo o Ártico, no Alasca e no Canadá, para fotografar as auroras de baixo, enquanto as sondas medem de cima as partículas eletricamente carregadas e os campos eletromagnéticos.

Juntas, as câmeras e as naves espaciais podem captar a ação de ambos os lados, sendo capazes de reunir causa e efeito - pelo menos era isso o que os pesquisadores esperavam.

E parece que funcionou.

Quebra-cabeças continental

A descoberta veio no início deste ano, quando o pesquisador Toshi Nishimura completou a tarefa hercúlea de montar filmes com a largura de um continente a partir das imagens individuais de cada ASI.

"Pode ser bem complicado", diz Nishimura. "Cada câmera tem seu próprio clima local e condições de iluminação, e as auroras ocorrem a diferentes distâncias de cada câmera. Eu tive que levar em conta esses fatores para seis ou mais câmeras simultaneamente para conseguir fazer um filme coerente."

Ele logo mostrou o primeiro filme para Lyons, que revelava duas auroras colidindo.

"Não se parecia com nada que eu já tivesse visto antes," lembra Lyons. "Nos dias seguintes, pesquisamos ainda mais eventos. Nosso entusiasmo foi crescendo conforme nos convencemos de que as colisões eram reais e aconteciam sempre."

Cauda de plasma da Terra

As explosões de luz, eles acreditam, são um sinal de algo dramático acontecendo no espaço ao redor da Terra - mais especificamente, na "cauda de plasma" da Terra.

Com milhões de quilômetros de extensão e apontando na direção contrária ao Sol, a cauda de plasma terrestre é formada por partículas carregadas eletricamente capturadas principalmente do vento solar. Às vezes chamada de "a folha de plasma", a cauda é mantida coesa pelo campo magnético da Terra.

O mesmo campo magnético que mantém coesa a cauda também a conecta às regiões polares da Terra. Devido a esta ligação, observar a dança das auroras boreais pode revelar muito sobre o que está acontecendo na cauda de plasma da Terra.

Examinando muitas colisões, Lyons e Nishimura identificaram uma sequência comum de eventos. Ela começa com dois elementos: (1) uma larga cortina de auroras movendo-se lentamente e (2) um pequeno nó de auroras deslocando-se rapidamente, inicialmente afastadas entre si.

A cortina lenta está brilhando tranquilamente sobre o Ártico quando o nó rápido chega vindo do Norte.

As duas auroras colidem e segue-se uma erupção de luzes.

Agora está aberta a temporada de explicações e teorias explicando como o fenômeno ocorre.

Mundo virtual abriga criaturas autônomas com cognição e memória

Pesquisadores da Unicamp criaram um mundo virtual no qual as criaturas são autônomas, sem nenhum controle humano, devendo aprender como conviver com as demais.

O mundo virtual está sendo utilizado em pesquisas de neurociências, sobretudo sobre as chamadas memórias episódicas, aquelas que contêm nossa história de vida.

Mas as aplicações vão muito além, podendo servir para qualquer sistema computadorizado que precise ser capaz de lidar com uma quantidade muito grande de informações, da administração de empresas ao controle de trânsito.

Criaturas virtuais

Inicialmente, uma criatura é inserida no ambiente virtual e começa a explorar o novo mundo desconhecido.

Uma vez lá dentro, as criaturas são autônomas, ou seja, nenhum humano a controla. Elas devem agir de acordo com o que conseguiram aprender ao longo da convivência com outras criaturas virtuais semelhantes a ela.

Cada criatura deve executar tarefas predeterminadas, como coletar alimentos, encontrar e recolher objetos coloridos e competir com outras criaturas que também terão que fazer esses trabalhos e tentarão enganá-la, escondendo a comida e os objetos que possam-lhe interessar.

Para que seja bem-sucedida, a criatura virtual conta com recursos que tentam simular os sistemas cognitivos de animais e de seres humanos. Como em muitas situações comuns na vida real, será preciso recolher informações a respeito de um ambiente desconhecido (fazer uma codificação), guardá-las de um modo eficiente (armazenamento) e depois acessá-las quando forem necessárias (recuperação).

Memória episódica

Esse mundo eletrônico, embora possa lembrar os jogos e outros entretenimentos, foi projetado para estudar e aplicar um tipo de memória que ainda é pouco explorada pela ciência, a memória episódica.

"É a memória de nossa história pessoal que se baseia naquilo que fizemos e nas coisas que testemunhamos", explicou o coordenador da pesquisa, Ricardo Ribeiro Gudwin, professor da Faculdade de Engenharia Elétrica e Ciência da Computação da Unicamp.

Para desenvolver essa memória, o grupo de pesquisadores elaborou regras que devem ser seguidas para todas as criaturas do ambiente virtual: evitar paredes e outros obstáculos, coletar alimentos, que podem ser ou não perecíveis, recolher determinados objetos do cenário e tentar prever o que os demais atores do jogo farão e tentar atrapalhá-los. "Essa última função está ligada à teoria da mente, que envolve tentar saber o que o outro pensa", afirma Gudwin.

A experiência também procura reproduzir algumas complexidades e técnicas usadas por humanos para relembrar episódios. De acordo com o pesquisador da Unicamp, não há espaço para absorver todas as informações com as quais se tem contato, por isso, na hora de registrar algo, é preciso utilizar filtros que eliminem dados menos importantes e lançar mão de estratégias para economizar memória, como manter em um arquivo único memórias muito parecidas.

As criaturas também tentam reproduzir habilidades mais difíceis, como conseguir estabelecer conexões entre causas e efeitos que estão bastante separados no tempo. São as chamadas "consequências tardias", ou a associação de uma reação ocorrida no presente à ação que a causou, mas que se passou há dias, meses ou anos.

Aplicações reais do mundo virtual

Fazer o sistema aprender e desenvolver a própria memória em vez de carregar dados prontos pode abrir portas para novas aplicações em computação nas quais o volume de dados ainda é uma barreira.

"Quando o ambiente é muito extenso, não há como colocar todos os dados nem fazer uma programação de trajetória, por isso é importante que o sistema descubra sozinho essas informações", disse Gudwin.

Isso se aplica, por exemplo, a sistemas de monitoramento de tráfego. Em vez de dar entrada com os dados de toda uma malha viária, um sistema dotado de memória episódica poderia identificar pontos de gargalo e tomar decisões prioritárias a fim de manter o fluxo de veículos.

De acordo com Gudwin, a administração de empresas também ficaria mais eficiente com sistemas descobrindo sozinhos problemas que seriam difíceis de serem detectados em uma grande companhia. E os fãs de jogos eletrônicos poderiam contar com oponentes virtuais "inteligentes", capazes de aprender sobre as fraquezas do rival e evoluir como se fossem de carne e osso.

Spintrônica: chips que usam propriedades quânticas estão a caminho

Pesquisadores holandeses conseguiram transferir informações magnéticas diretamente para um semicondutor e, pela primeira vez, eles fizeram isto a temperatura ambiente.

Esta comunicação representa a unificação entre as funções de armazenamento - uma função tipicamente magnética nos computadores atuais - e de cálculo - uma função desempenhada pelos semicondutores.

Vários outros pesquisadores já haviam demonstrado a possibilidade dessa união entre magnético e semicondutor, mas os experimentos vinham sendo feitos em temperaturas muito baixas ou em materiais mais exóticos - veja, por exemplo Átomos artificiais unem eletricidade e magnetismo em memória revolucionária e Semicondutores magnéticos permitirão chips que calculam e armazenam dados.

Novo paradigma da computação

A demonstração da troca direta de informações entre materiais magnéticos e semicondutores, especificamente para o silício, é um passo histórico no desenvolvimento de um novo paradigma para a eletrônica e para a computação.

O feito representa uma espécie de elo perdido que vem unir as duas áreas fundamentais da computação e poderá abrir caminho para uma nova forma de eletrônica, a chamada spintrônica.

Entre algumas das vantagens da spintrônica, além da miniaturização, estão o reduzidíssimo consumo de energia e a capacidade de reter as informações na ausência de alimentação, uma vez que o material semicondutor estará magnetizado.

Chips quânticos

Ao contrário da eletrônica atual, que explora a carga do elétron e seu movimento, a spintrônica utiliza uma propriedade quântica do elétron chamada spin, uma espécie de "rotação" que faz com que um spin assuma duas posições.

Os termos "para cima" ou "para baixo" são convenções usadas para representar a "posição" do spin, o que significa que ele pode ser usado para armazenar um bit de informação, assumindo um valor que pode ser 0 ou 1. Fazer um spin passar de 0 para 1 e vice-versa requer pouquíssima energia, muito menos do que o fluxo de elétrons usado nos computadores atuais.

O grande desafio é transferir o dado - o 0 ou o 1 do spin - para o semicondutor, o material com que são feitos os processadores, para que esse dado possa ser usado nos cálculos computacionais.

Comunicação entre materiais magnéticos e semicondutores

No experimento agora feito na Universidade de Twente, Ron Jansen e seus colegas fabricaram um sanduíche formado por uma película finíssima - menos de 1 nanômetro de espessura - de óxido de alumínio colocada entre um material magnético e um material semicondutor.

A espessura das películas de cada um dos materiais, que contêm algumas poucas camadas de átomos, é crucial para o funcionamento do dispositivo.

O material magnético tem a propriedade do magnetismo porque a maioria dos seus elétrons têm os spins apontando na mesma direção. Ao aplicar uma tensão ao longo da interface de óxido de alumínio, os pesquisadores demonstraram que é possível transferir esses elétrons com spins conhecidos para o semicondutor.

O dispositivo permitiu confirmar que os elétrons mantêm sua polarização por um tempo suficiente para fluírem vários nanômetros ao longo do semicondutor, o que é mais do que o suficiente para seu uso em circuitos spintrônicos.

O efeito prático é a criação de uma magnetização no semicondutor, com uma orientação e uma magnitude totalmente controláveis por meio da tensão aplicada.

O próximo passo da pesquisa será fabricar os primeiros componentes spintrônicos, capazes de utilizar e manipular as informações disponíveis nos spins transferidos para o semicondutor.

Porcelana que iria para o lixo vira argamassa para construção civil

O Brasil produz 30 mil toneladas anuais de isoladores elétricos de porcelana de alta e baixa tensão para distribuição de energia - equipamento utilizado como isolante de eletricidade em postes de iluminação, usinas hidrelétricas e, até mesmo em residências.

Deste montante, 75% são destinados às substituições das peças que perdem a sua função isolante. Isto significa que 22.500 toneladas de isolantes velhos são descartadas todos os anos.

Reciclagem do metal e da porcelana

Não há problemas com o corpo metálico do isolador, que é reaproveitado e reciclado. Mas a parte de porcelana é descartada de forma absolutamente inadequada - em terrenos baldios e beiras de estrada, por exemplo.

Essa situação levou o engenheiro Marco Antonio Campos a realizar ensaios que permitiram adicionar o resíduo da porcelana que seria descartado na natureza em misturas que resultaram em novos tipos de concreto e argamassa.

Os experimentos deram certo. Campos obteve um material vantajoso do ponto de vista de resistência e economia. O trabalho foi feito na Faculdade de Engenharia Civil, Arquitetura e Urbanismo da Unicamp, orientado pela professora Ana Elisabete P. G. A. Jacintho.

Areia e brita recicladas

O processo de transformação é relativamente simples do ponto de vista metodológico. A moagem do resíduo da porcelana foi feita de forma a gerar tanto a areia grossa - ou agregado miúdo na linguagem técnica - e brita 1 ou agregado graúdo.

Tanto a areia quanto a brita permitiram resultados com granulometria similar à utilizada tradicionalmente na construção civil. Por sinal, a areia feita de resíduo de porcelana foi o material que obteve melhor desempenho nos ensaios em laboratório.

Já os testes de substituição foram etapas complexas, pois demandaram muitos dias de experimentos para estabelecer comparativos. O engenheiro testou a areia e a brita com substituições nas classes de 25%, 50%, 75% e 100% e fez os ensaios após três, sete e 28 dias. "Estas comparações entre os dias e porcentagens de material eram necessárias para conhecer o desempenho do material em várias formulações diferentes", esclarece Campos.

Testes de resistência e compressão

O ensaio de resistência mecânica de compressão simples compreende a medição da capacidade que o material tem de suportar a pressão.

Já o teste de absorção da água visa medir o quanto de água o concreto ou argamassa absorve, pois quanto menor a capacidade de água, menor o consumo de cimento na mistura.

"Os resultados foram similares às misturas feitas com materiais tradicionais e, em alguns casos, foram até superiores. A única questão foi o endurecimento do concreto ocorrer de forma mais rápida. Mas, isso foi perfeitamente contornado com o acréscimo de aditivos", explica.

Menos cimento no concreto

Uma das vantagens econômicas também tem a ver com os testes de absorção da água. Os resultados apontaram que o material não absorve a água, o que significa a diminuição do consumo de cimento para produção do concreto. Ou seja, possibilita uma economia substancial de material para a composição.

Segundo Campos, as análises demonstraram que a proposta é perfeitamente viável. Ele lembra que a porcelana branca - matéria-prima dos isoladores - são altamente resistentes devido às temperaturas elevadas a que é submetida - em geral, até dois mil graus.

USP desenvolve pasta de dente que evita fluorose

O creme dental com baixa concentração de flúor e um pH mais ácido, além de ajudar na prevenção de cáries, evita a ocorrência de fluorose em crianças.

Esse dentifrício foi desenvolvido na Faculdade de Odontologia de Bauru (FOB) da USP por uma equipe coordenada pela professora Marília Afonso Rabelo Buzalaf.

O que é fluorose

A fluorose é a ocorrência de manchas nos dentes causadas pela ingestão excessiva de flúor quando os dentes estão sendo formados (de 1 a 7 anos, para os dentes permanentes).

"Esta ingestão pode acontecer a partir de várias fontes, entre elas a pasta de dente ingerida durante a escovação", explica a professora Marília. "Quando a quantidade de flúor ingerida é muito grande, podem ocorrer fissuras nos dentes e eles adquirem uma pigmentação amarronzada, mas o mais comum são manchas esbranquiçadas e opacas."

A fluorose só acontece com crianças, enquanto os dentes estão em formação.

O flúor, porém, é conhecidamente um grande aliado no combate às cáries, tanto que várias cidades brasileiras contam com o sistema de fluoretação da água e a maior parte dos dentifrícios presentes no mercado contém flúor. No caso dos dentifrícios, quanto maior a quantidade de flúor, maior será a proteção contra cáries. "Entretanto aumentará, também, o risco de ocorrência de fluorose pela ingestão inadvertida", destaca a professora.

Pasta com baixo flúor

De acordo com Marília, uma das possibilidades de reduzir esse risco seria diminuir a quantidade de pasta usada pelas crianças durante a escovação. Mas essa estratégia seria de difícil aplicação, pois seria necessário a supervisão de um adulto em todas as escovações, o que nem sempre é possível.

Os pesquisadores da FOB tiveram, então, a ideia de desenvolver um dentifrício com um teor reduzido de flúor. Nos convencionais, esse teor é de 1.000 a 1.500 miligramas de flúor por quilo (mg/kg) de pasta.

A proposta desenvolvida na FOB tinha 500 mg/kg de flúor. "Mas em termos de saúde pública, seria muito arriscado apresentar um produto com esse teor de flúor, pois ainda não se sabe se sua eficácia anticáries seria a mesma de um dentifrício convencional [com 1.000 mg/kg de flúor]", destaca a professora.

Acidez contra as cáries

Marília conta que, além de alterar a quantidade de flúor do dentifrício, os pesquisadores reduziram o pH da formulação. Nas pastas convencionais o pH é neutro (7); na fórmula desenvolvida pelos cientistas, o pH era ácido (4,5). Com isso, os cientistas conseguiram desenvolver um produto eficaz na prevenção das cáries, apesar de a quantidade de flúor do produto ter sido reduzida.

Os testes foram realizados pelo pesquisador Fabiano Vilhena, doutor em Biologia Oral pela FOB, com colaboração de Alberto Carlos Botazzo Delbem, professor associado de Odontopediatria da Universidade Estadual Paulista (Unesp), campus de Araçatuba. Eles testaram o dentifrício em 1.400 crianças com idades entre 4 a 5 anos, da rede pública municipal de ensino da cidade de São José dos Campos, no interior de São Paulo.

Durante 20 meses, essas crianças usaram a formulação desenvolvida na FOB de duas a três vezes ao dia, sendo uma delas na escola. A quantidade de dentifrício usada na escova foi de 0,15 gramas de pasta, cerca de uma gota do produto. "A formulação desse dentifrício é mais líquida", esclarece a professora. "Com as pastas convencionais é utilizado cerca de 0,5 gramas de dentifrício, quando o produto é colocado na transversal da escova", completa. Os testes mostraram que o produto desenvolvido da FOB foi tão eficaz quanto as pastas de dente convencionais, com o dobro de flúor e pH neutro.

Dentifrício de baixo flúor e pH ácido

A professora Marília informa que a fórmula já foi patenteada pela Agência USP de Inovação. "A Universidade busca, atualmente, parceiros interessados em colocar o produto no mercado", informa.

Em 2008, o dentifrício com baixa concentração de flúor e pH mais ácido desenvolvido na FOB foi o ganhador da Olimpíada USP de Inovação, uma competição voltada para pesquisadores da Universidade. No último mês de novembro, o produto foi classificado como um dos finalistas do Prêmio Saúde, oferecido pela Editora Abril por meio da Revista Saúde, e cuja premiação aconteceu no dia 24, no Memorial da América Latina, em São Paulo. Foram cerca de 400 trabalhos inscritos, em sete áreas diferentes. A FOB concorreu na categoria "Saúde da Criança", que teve 86 projetos participantes. A pesquisa ficou entre os três primeiros colocados, sendo o único trabalho da Odontologia entre os 21 finalistas nas sete categorias.

Agora os pesquisadores pretendem testar o produto em uma outra região brasileira, que não tenha projeto de fluoretação da água, como acontece em São José dos Campos. De acordo com Marília Buzalaf, os testes serão feitos no Estado da Paraíba, em uma cidade ainda a ser definida. Este projeto terá a participação do professor Fábio Correa Sampaio, da Universidade Federal da Paraíba.