segunda-feira, 31 de agosto de 2009

LCD: como destravar pixels problemáticos que afetam seu monitor

Monitores LCD contêm milhões pixels, cada um composto por três subpixels: vermelho, azul e verde. Quando os três estão ligados, o pixel se mostra branco. Outros tipos de combinações resultam nas demais cores. Entretanto, um pixel pode apresentar três tipos de problemas.

Se o monitor estiver ligado e você vir um ponto preto (que não deveria estar ali),é provável que todos os subpixels que o compõem esteja desligados permanentemente, num caso típico de pixel morto (dead pixel).


Na situação contrária, em que todos os subpixels ficam permanentemente ligados, o usuário irá notar um ponto branco na tela. Esta situação é denominada hot pixel. Uma situação intermediária, denominada stuck pixel, é aquela em que o pixel problemático exibe uma cor azulada (mas pode ser também vermelho ou verde, dependendo do subpixel que está ligado).


Alguns monitores já vêm com alguns pixels problemáticos de fábrica (em maior ou menor quantidade) e você pode pedir a substituição do equipamento na loja onde o comprou ou junto ao fabricante. Outros, contudo, aparecem durante o uso do equipamento, Quando em número menor, às vezes o usuário nem percebe sua presença. Mas com o passar do tempo, eles começam a incomodar. Felizmente, há maneiras de contornar esse problema.


Leia também:
>> O que fazer quando o computador se recusa a ligar?
>> 40 hábitos, produtos e serviços de TI que já morreram (ou quase)
>> Notebook: configuração do PC portátil lembra a do desktop
>> Cinco coisas que você deve fazer antes de usar um PC novinho


Primeiro, assegure-se que o LCD esteja bem limpo e livre de poeira (se puder contar com um jato de ar comprimido, melhor). Verifique no manual do fabricante que tipo de limpeza deve ser feita e siga-a.


Depois, assegure-se que o PC esteja exibindo imagens no display em resolução nativa – isso irá ajudá-lo na identificação dos pixels mais facilmente. Para isso, clique em Iniciar, Configurações, Painel de Controle, Vídeo e selecione a aba Configurações e selecione o ajuste ideal (o manual do monitor irá mostrar a configuração correta do seu equipamento).


Faça o download e instale o UDPixel para identificar e corrigir problemas. Este programa exige que você também tenha o .Net Framework instalado.


undead_pixel_tela.jpg


No UDPixel, aumente a opção Run Cycle para 4 segundos e clique em no botão Run cycle. Você verá o monitor alternar ciclicamente entre o vermelho, verde, azul, branco e amarelo.


Caso exista algum pixel travado, ele será visível em todos os ciclos de cores, com exceção naquele correspondente à cor que estiver travada. Clique no botão Stop para interromper o ciclo de testes. Para múltiplos pixels, incremente o intervalo de Flash (Flash interval) em um (1) para cada pixel encontrado.


Ou então, clique no botão Start. Um pequeno quadrado com 5 pixels de lado será exibido. Posicione-o sobre o pixel problemático e espera entre 15 e 20 minutos. Depois clique em Reset para desligar.


Feito isso, repita o processo do ciclo de cores para verificar se o pixel foi corrigido.


Se o problema persistir, verifique a garantia do seu monitor LCD. Em muitos casos é possível solicitar sua substituição.


Caso isso não seja possível, você pode tentar um processo mecânico, que costuma funcionar. Uma vez identificado o pixel em questão, desligue o monitor e, com a ponta de um objeto pontiagudo (como a caneta stylus de um PDA ou semelhante) envolvida em um pano macio, aplique uma leve pressão sobre o ponto por cerca de 5 a 10 segundos. Ligue o monitor novamente e verifique o pixel uma vez mais.


Se ainda houver pixles com problemas, repita a etapa anterior mais algumas vezes.


Na eventualidade desse procedimento não surtir efeito, dê leves batidas com a tampa arredondada de uma caneta (também envolvida em um pano macio e com o monitor desligado) no local onde o pixel problemático encontra-se. Repita isso algumas vezes antes de ligar o monitor novamente.


Com sorte, seus pixels problemáticos serão resolvidos com algumas das ações descritas acima.

Fonte: PC World

Nanolaser de estado sólido abre caminho para chips ópticos

O menor laser semicondutor do mundo, capaz de gerar luz visível em um espaço menor do que o tamanho de uma única molécula de proteína, acaba de ser construído por um grupo de pesquisadores dos Estados Unidos e da China.

Além de comprimir luz em um espaço até então considerado inviável, os cientistas encontraram uma nova maneira de fazer com que a energia luminosa não se dissipe à medida que é emitida, obtendo, dessa forma, a ação do laser.

Aplicações dos nanolasers

Há menos de duas semanas, outro grupo de cientistas relatou a criação do spaser, um novo tipo de laser capaz focalizar a luz em dimensões muito menores do que o que se considerava possível. Os cientistas fizeram o mesmo agora, com a vantagem de utilizar um aparato inteiramente de estado sólido.

O nanolaser de estado sólido possibilitará o desenvolvimento das mais variadas inovações, como técnicas de microscopia e manipulação que possam perscrutar e caracterizar moléculas de DNA, tecnologias de telecomunicações ópticas muito mais rápidas do que as atuais e o desenvolvimento da computação óptica, na qual a luz substitui os circuitos eletrônicos atuais - veja também Nanolaser permitirá integração de circuitos ópticos em chips.

Plásmons de superfície

"Esse trabalho derruba as noções tradicionais de limites do laser e representa um grande avanço no desenvolvimento de novas aplicações nas áreas biomédica, de comunicações e de computação", disse Xiang Zhang, da Universidade da Califórnia em Berkeley, nos Estados Unidos.

A noção tradicional é de que uma onda eletromagnética - entre as quais a luz - não pode ser focada em uma dimensão abaixo da metade de seu comprimento de onda. Mas grupos de pesquisa em diversos países têm conseguido formas de comprimir a luz até a escala de dezenas de nanômetros (bilionésima parte do metro) ao "grudá-la" em elétrons que oscilam coletivamente na superfície de metais, criando os chamados plásmons de superfície.

Diversos grupos têm tentado construir lasers de plásmons de superfície que possam sustentar e aproveitar essas ínfimas excitações ópticas. Mas a resistência inerente dos metais faz com que essas formas se dissipem quase imediatamente após terem sido geradas.

Luz aprisionada

Zhang e colegas partiram para uma nova abordagem de modo a evitar a perda de energia luminosa. O grupo empregou um nanofio de sulfeto de cádmio (mil vezes mais fino do que um fio de cabelo humano) e uma superfície de prata, os dois separados por um espaço de isolamento de apenas 5 nanômetros (o tamanho de uma molécula de proteína).

Nessa estrutura, o espaço de isolamento foi capaz de armazenar luz em uma área 20 vezes menor do que seu comprimento de onda. Como a energia luminosa foi armazenada nesse espaço não luminoso, a perda foi diminuída significativamente.

Laser de estado sólido

Controlando a perda de luz que inviabilizara experimentos anteriores, os cientistas puderam finalmente partir para sua amplificação, obtendo o laser.

"Em escalas tão pequenas não há muito espaço para atuar. Em nossa estrutura, o nanofio atua tanto como um mecanismo de confinamento como um amplificador. Ou seja, ele trabalha em dobro", disse Rupert Oulton, do laboratório de Zhang e autor do estudo.

Ao aprisionar a luz no minúsculo espaço entre o nanofio semicondutor e a superfície metálica, os cientistas puderam mantê-la sob controle o tempo suficiente para que suas oscilações se estabilizassem em um estado coerente que é a característica chave de um laser.

Em conjunto com um elétron

"Um ponto particularmente entusiasmante a respeito dos lasers de plásmons que demonstramos nesse trabalho é que eles estão em estado sólido e são totalmente compatíveis com a produção de semicondutores. Ou seja, podem ser aplicados em escala industrial", disse Volker Sorger, outro membro do grupo.

Os autores do estudo pretendem diminuir a luz até o tamanho do comprimento de onda de um elétron, ou cerca de 1 nanômetro, de modo que os dois, luz e elétrons, possam atuar em conjunto de modo equivalente.

Ilhas solares prometem energia solar a preços competitivos

Enquanto as células solares orgânicas não se tornam mais duráveis e mais eficientes e as células solares de silício não se tornam mais baratas, a técnica mais atrativa para o aproveitamento da energia solar parece ser a exploração termossolar.

As usinas termossolares usam o calor do Sol para aquecer água, que se transforma em vapor e movimentar as turbinas que geram a eletricidade por meio de dínamos comuns. Esta é a tecnologia das maiores usinas solares em operação, assim como deverá ser em uma megausina solar que está sendo projetada para o deserto do Saara.

Ilhas solares

A empresa suíça Solar Islands acredita ter encontrado uma forma de otimizar ainda mais o rendimento das usinas termossolares: construindo ilhas solares rotativas, que giram para acompanhar o movimento do Sol e aproveitar ao máximo seu potencial energético.

Cada ilha solar terá um diâmetro de 5 quilômetros, uma altura de 20 metros e será construída com uma espécie de "membrana" plástica flexível, resistente ao calor e demais intempéries. Em cima da membrana serão instalados os coletores e concentradores de luz, assim como os encanamentos no interior dos quais a água será aquecida.

Um sistema de bombas elétricas forçará uma pressão constante de 0,1 bar acima da pressão atmosférica no interior da ilha solar, fazendo com que a membrana plástica se infle, levantando todo o aparato de coleta do calor solar. O espaço interno dessa ilha inflável vira um gigantesco tanque de armazenamento de vapor, para onde os encanamentos se dirigem.

Ilha rotativa

Ao contrário da hidroelétrica marinha, que explora a energia das ondas e conduz a pressão captada através de encanamentos até uma usina localizada em terra, a usina solar tem o gerador em seu interior, uma turbina de ciclo Rankine Orgânico (ORC).

Para ajustar a posição da ilha solar em relação ao Sol, motores elétricos hidrodinâmicos serão instalados a cada 10 metros ao redor de sua circunferência. Segundo a empresa, a rotação permite um ganho de 15% de eficiência na coleta de energia.

Ilha de energia no deserto

O primeiro protótipo da ilha solar curiosamente não está sendo construído no mar, mas em terra firme. Mais especificamente, nas areias do deserto dos Emirados Árabes. Segundo seus idealizadores, isto comprova a grande versatilidade do conceito, que tanto pode ser uma ilha na costa, em alto mar, como uma estrutura em terra firme, sempre funcionando com o mesmo princípio.

O protótipo no deserto, que será capaz de gerar 3.000 kWh por dia, possui um canal de água ao longo de toda a circunferência, permitindo que a estrutura gire como se estivesse no mar.

Os painéis de coleta do calor solar ocupam 95% da área superficial da ilha e o armazenamento do vapor em seu interior permite que a usina gere energia praticamente de forma constante - depois do pôr-do-sol, a usina pode continuar funcionando utilizando o vapor armazenado durante o dia.

Outra vantagem do projeto é a possibilidade de incorporar plantas de dessalinização na ilha solar, coletando a água do mar e utilizando a evaporação passiva.

Programas simplificam linguagem de textos na Internet

Pesquisadores da USP de São Carlos estão criando ferramentas capazes de reduzir a complexidade linguística dos textos, substituindo palavras raras (menos frequentes) por palavras mais usuais e dividindo e reorganizando orações longas e complexas.

O objetivo dos programas PorSimples e Facilita é simplificar a leitura de textos em português disponíveis na internet e, com isso, facilitar a compreensão das informações para crianças e adultos em processo de alfabetização ou pessoas com algum tipo de deficiência de leitura.

Já o editor Simplifica é voltado para produtores de conteúdo (escritores, professores, webmasters, jornalistas, por exemplo) que desejam criar textos simplificados adequados ao mesmo público.

Internet inacessível

"Ainda há muito conteúdo textual inacessível a um grande público no Brasil. Dados do IBGE de 2007 apontam 10% de analfabetos e 21,7% de analfabetos funcionais. Há, ainda, pessoas com problemas de leitura devido a derrame cerebral, dislexia, Alzheimer, dentre outros. Mesmo deficientes auditivos, que leem em Libras, quando querem aprender o português precisam de um texto adaptado", explica a coordenadora do PorSimples, Sandra Maria Aluísio.

Os programas estão sendo elaborados com conceitos e ferramentas de uma área conhecida como processamento de linguagem natural (PLN), permitindo melhorar as características dos textos, como a inteligibilidade e a compreensibilidade para cada público-alvo do projeto.

São vários os recursos de linguagem que tornam um texto complexo demais para quem não tem um nível médio de escolaridade: sentenças longas, com vários níveis de subordinação, cláusulas embutidas (relativas), sentenças na voz passiva, uso da ordem não canônica para os componentes de uma sentença, além do uso de palavras de baixa frequência, aumentam a complexidade de um texto.

Simplificação forte e simplificação natural

Uma das técnicas, chamada "simplificação forte", usa um conjunto de regras para tornar uma oração o mais simples possível. Esse tipo de simplificação é destinado a analfabetos funcionais do nível rudimentar, que são capazes de encontrar somente informações explícitas em textos curtos.

Já a "simplificação natural" produz frases mais adequadas para analfabetos funcionais do nível básico, aqueles que leem textos um pouco mais longos e já são capazes de fazer deduções simples para obter informações contidas no texto.

Adaptação de textos

Além da simplificação linguística, existem outros mecanismos de adaptação textual: a simplificação via sumarização e a elaboração. "Textos de revistas e artigos científicos podem ser simplificados pela diminuição de seu tamanho, em uma tarefa bem conhecida de PLN - a sumarização textual. Textos literários também são simplificados pelo uso de resumos, como os resumos de obras clássicas para o vestibular", exemplificou.

Já a elaboração adiciona informação a um texto, visando esclarecer, elaborar e explicar uma informação implícita e tornar explícitas as conexões entre as idéias. O objetivo é tornar um texto mais coerente e limitar a ambiguidade dentro dele.

"Na prática, muitas adaptações envolvem a combinação de simplificação e elaboração. Por exemplo, um professor pode simplificar sentenças difíceis em um texto, enquanto, ao mesmo tempo, adiciona informação contextual para tornar um conceito mais claro. Pode ainda usar redundância para compensar o uso de termos não familiares aos alunos de uma série", disse Sandra.

Retroalimentação

As ferramentas que estão sendo desenvolvidas poderão ser usadas por professores que trabalham com textos da web para ensino da leitura e por editoras para a verificação de adequação de um texto a determinada faixa etária ou nível de escolaridade.

Além de fornecer um parâmetro mais sofisticado para avaliação da inteligibilidade de textos, o PorSimples fornece retroalimentação para os autores, apontando trechos que devem ser simplificados, e como fazê-lo.

"No momento, essas simplificações estão ligadas apenas a estruturas sintáticas, mas já há trabalhos de doutorados em andamento para fazer simplificações no nível léxico, considerando-se a semântica, e no nível textual para melhorar a coesão do texto", contou Sandra.

Da Governança Digital às bulas de remédio

A professora da USP também alerta para a necessidade de adequação de textos em páginas de órgãos públicos, com a crescente ênfase em governança digital, verificando-se a faixa de escolaridade requerida para a compreensão do material disponível.

Da mesma forma, aponta ser fundamental que provedores de conteúdo para educação a distância evitem ambiguidades e problemas de leitura, uma vez que a acessibilidade à linguagem empregada não é percebida diretamente. O mesmo deve ser considerado por aqueles que produzem manuais de instruções, bulas de remédios, contratos jurídicos, entre outros.

"Os prejuízos causados pelo uso indevido de equipamentos ou pela ingestão de medicamentos podem ser imensos se as instruções não forem interpretadas corretamente. Assim como um usuário comum (não especialista em leis) deveria ter o direito de ter acesso a documentos escritos em linguagem acessível", disse.

Segundo Sandra, hoje não há ferramentas para avaliar a adequação das instruções para o público e isso pode ser fornecido pela tecnologia desenvolvida pelo PorSimples. Como são ferramentas web, para serem usadas é necessário apenas um navegador e um computador conectado à internet.

Como estão em fase de desenvolvimento, as ferramentas ainda não foram disponibilizadas para uso público, o que deverá acontecer na próxima etapa da pesquisa. Um protótipo pode ser visto no endereço http://nilc.icmc.usp.br/~matheus/simplifica/.

Médicos belgas inventam berço que evita regurgitação em bebês

O departamento de pediatria do Hospital Universitário de Bruxelas, na Bélgica, desenvolveu um berço capaz de evitar a regurgitação, um problema estomacal que afeta um entre cada cinco bebês e pode causar irritação no esôfago.

A técnica, descrita na última edição da revista especializada Archives of Disease in Childhood consiste em fazer com que a criança durma de barriga para cima e inclinada em um ângulo de 40 ou 50 graus.

"A regurgitação acontece quando o estômago do bebê está cheio, então um pouco dos líquidos estomacais sobem ao esôfago. A inclinação proporcionada pelo berço antirregurgitação é ideal para evitar que isso aconteça, sem maior desconforto para o recém-nascido", explica o doutor Yvan Vandenplas, um dos idealizadores do berço.

Refluxo em bebês

Os benefícios foram observados em um estudo realizado com 25 bebês com idades entre três semanas e três meses que não respondiam aos tratamentos convencionais com medicamentos ou alimentação especial.

Depois de uma semana utilizando o novo berço, 75% deles reduziu o índice de refluxo - porcentagem de tempo em que se observa ácido no esôfago da criança, calculado pela medição do pH nesse órgão - para 10,1% em média em relação aos 18,6% iniciais.

"Levando em conta o período de desespero entre os pais quando seus bebês não param de chorar, o berço oferece uma solução muito mais rápida que os tratamentos convencionais: as melhoras começam a ser observadas já no primeiro dia de uso", diz Vandenplas.

Berço contra refluxo

O médico diz, entretanto, que o estudo ainda está em fase "preliminar" e o berço ainda precisa ser avaliado em um grupo maior de bebês.

Para evitar que o bebê escorregue na cama, o colchão é mais espesso na parte inferior, formando um degrau de apoio para os pés.

A criança é posicionada dentro de uma espécie de cadeirinha de tecido acoplada à capa que reveste o colchão e envolvida por um saco de dormir, o que impede qualquer movimento.

Apesar da posição pouco convencional que o berço exige, os pais das crianças observadas pelo estudo avaliaram com nota oito, de uma escala de dez, o nível de conforto proporcionado pelo berço, afirma Serge Vleeschouwer, representante da companhia belga Multicare, responsável pela fabricação.

Na Bélgica o invento pode ser alugado em algumas farmácias por diárias de 1,75 euros por dia (cerca de R$ 4,60).

Novo tratamento para câncer de mama evita queda de cabelo

Pesquisadores da Mayo Clinic, nos Estados Unidos, divulgaram que uma combinação tripla de medicamentos é uma opção promissora para o tratamento de câncer de mama HER2+ com metástase, com a vantagem adicional de não causar perda de cabelo.

A combinação de dois medicamentos usados em quimioterapia (capecitabina e vinorebina) com trastuzumabe é uma nova opção pelo menos tão benéfica aos pacientes quanto as disponíveis, porém com um benefício adicional: não causa perda de cabelos nas pacientes.

Estes foram algumas das conclusões de estudo desenvolvido pela Mayo Clinic de Jacksonville, reportadas durante o 45o Encontro Anual da Sociedade Americana de Oncologia Clínica (ASCO - American Society of Clinical Oncology), realizado, em Orlando, Flórida.

"Esse é um regime terapêutico muito bem tolerado pela paciente. A combinação é um bom exemplo de um excelente equilíbrio: boa atividade e baixa toxidez", diz a pesquisadora sênior do estudo, a médica Edith Perez, diretora do Centro de Câncer de Mama da Clínica Mayo de Jacksonville.

Combinação de medicamentos

O estudo clínico é o primeiro nos Estados Unidos a pesquisar essa combinação específica de tratamentos do câncer de mama HER2 positivo metastático. Das 45 pacientes participantes do estudo, 67% responderam ao tratamento, conseguindo uma redução do tamanho de seus tumores em pelo menos 30%. A resposta histórica a regimes com medicamentos convencionais (um medicamento de quimioterapia com Herceptin), que são usados atualmente no tratamento de câncer de mama HER2 positivo metastático, é de cerca de 50%, observa Winston Tan, médico oncologista da Mayo.

Para Winston Tan, "o regime triplo parece ser uma escolha bastante razoável, que oferece a vantagem adicional de não provocar a queda de cabelos nas mulheres que o adotarem". A combinação de medicamentos, usada mais comumente por pacientes com câncer de mama HER2 positivo já disseminado - paclitaxel ou docetaxel com trastuzumabe - sempre causa perda de cabelo, explica.

Ainda não autorizado

Todos os agentes já foram aprovados para uso pela FDA (órgão que controla a comercialização de alimentos e medicamentos nos EUA), embora a vinorelbina ainda não tenha sido aprovada para esse regime específico de tratamento nos Estados Unidos.

A quimioterapia com capecitabina não é combinada normalmente com o trastuzumabe, porque alguns estudos sugerem que não oferece benefícios sinérgicos ou suplementares. No entanto, segundo o oncologista, novas pesquisas têm demonstrado que a combinação é, de fato, promissora.

Resultados da pesquisa

Entre as pacientes estudadas, 28 (58%) tiveram uma resposta parcial: uma redução no tamanho do tumor metastático em 30%, de acordo com tomografias computadorizadas. Quatro pacientes tiveram uma resposta completa: nenhuma outra evidência de tumores metastáticos apareceu nos exames de diagnóstico, segundo os pesquisadores.

As taxas de sobrevida melhoraram, em comparação histórica a tratamentos convencionais, diz Winston Tan. "Normalmente, a sobrevida no caso de câncer de mama metastático é de dois anos", ele afirma. "Nesse estudo, o período de sobrevida foi de 27 meses", conta. Ele observa que esses estudos ainda vão ser confirmados na Fase III do estudo.

"A toxidez foi tolerável, não mais do que o visto em regime com dois medicamentos. A maioria das pacientes (61%) registrou uma contagem de glóbulos sanguíneos baixa, mas apenas 10% das pacientes tiveram problemas de fadiga ou de outros efeitos colaterais comuns".

Tratamento não-curativo

O pesquisador enfatizou que esse regime não é um tratamento curativo, mas proporciona às pacientes melhor qualidade de vida, em comparação com outros regimes comumente usados. "É muito difícil tratar o câncer de mama que já se espalhou, mas acreditamos que fazer a combinação de tratamentos é importante, para que os tumores que estão crescendo rapidamente encolham", declara.

De acordo com o oncologista da Mayo, 80% das pacientes que apresentaram benefícios foram tratadas com outros medicamentos de quimioterapia - na maioria, antraciclinas e paclitaxel - e pelo menos metade das pacientes também usou o trastuzumabe em condições adjuvantes ou metastáticas. "As pacientes ainda obtiveram uma resposta a essa combinação de duas quimioterapias mais o agente biológico. E isso é encorajador", ele afirma.

Evento do Sesc SP aborda redes de informação e conectividade

Inteligência conectiva e a ‘era das tags’ será o tema da palestra do professor canadense Derrick de Kerckhove na próxima terça-feira (01/9), às 14h, no Sesc Consolação, em São Paulo.

O acadêmico dirigiu por mais de 20 anos o Programa McLuhan em Cultura e Tecnologia da Universidade de Toronto.

O evento, chamado "Ciclo Era Digital", terá ainda um debate com a participação Kerckhove e de outros especialistas da área: Vinicius Pereira, da ESPM do Rio de Janeiro; Fernão Ciampa, do ÉMídia Embolex; Eliezer Muniz, do Canal Motoboy; com mediação de Leandro Yanaze, do Centro de Pesquisa ATOPOS (ECA-USP).

O Sesc Consolação fica na Rua Doutor Vila Nova, 245 - Vila Buarque - São Paulo. Os ingressos custam 5 reais (inteira), 2,50 reais (estudante) e 1 real (matriculados no Sesc) e podem ser adquiridos em qualquer unidade. Os endereços podem ser consultados no site do Sesc.

Fonte: IDG Now!

sábado, 29 de agosto de 2009

Nanofio bioeletrônico conecta mundos biológico e eletrônico

Pesquisadores do Laboratório Nacional Lawrence Livermore, nos Estados Unidos, mesclaram nanofios metálicos com moléculas de lipídios, criando um novo tipo de dispositivo para estabelecer uma conexão entre equipamentos eletrônicos e organismos biológicos.

O feito mereceu a capa da última edição da revista Proceedings the National Academy of Sciences.

Aplicações exóticas

Embora a primeira utilidade que venha à mente para tais eletrodos sejam os implantes neurais, permitindo que as pessoas controlem equipamentos com instruções emitidas diretamente pelo cérebro, eles abrem novos caminhos para aplicações bem mais amplas e até exóticas, incluindo novos tipos de transdutores e formas avançadas de troca de informações no interior dos computadores.

Enquanto os equipamentos eletrônicos usam campos e correntes elétricas para processar e transmitir informações, os sistemas biológicos usam um arsenal de membranas, receptores, canais e bombas para controlar a conversão de um tipo de sinal em outro - com uma eficiência que não pode ser comparado nem aos mais modernos equipamentos construídos pelo homem.

"Circuitos eletrônicos que usarem esses complexos componentes biológicos poderão se tornar muito mais eficientes," afirma Aleksandr Noy, coordenador do projeto.

Transístor de nanofios

A base do novo mecanismo é um transístor, o elemento básico de toda a eletrônica. A grande inovação é que a mesclagem entre biológico e eletrônico vai muito além de um simples revestimento biológico sobre os fios.

O transístor é feito com nanofios, cujas espessuras são comparáveis às das moléculas biológicas. Esses nanofios são tão pequenos que os cientistas estão testando seu uso para conectar até mesmo moléculas individuais.

Integração eletrônico-biológico

Graças às mais modernas técnicas de nanofabricação, os cientistas conseguiram integrar os átomos superficiais dos nanofios do transístor com as moléculas biológicas de uma membrana de lipídios, uma estrutura encontrada em todas as células.

As membranas de lipídios são estáveis e são capazes de se autoconsertar quando sofrem algum dano. Além disso, elas formam uma barreira virtualmente impenetrável para íons e outras pequenas moléculas, mas são abertas às trocas protônicas.

Incorporando uma membrana de duas camadas sobre os nanofios do transístor, os cientistas formaram um revestimento superficial que forma uma barreira com o meio em que ele for inserido.

Controle eletrônico da membrana biológica

Os cientistas podem selecionar a membrana mais adequada à aplicação que tiverem em mente. A principal característica da membrana lipídica é a dimensão dos seus poros, que estabelece o que pode e o que não pode chegar até o transístor, permitindo a leitura precisa dos sinais que o dispositivo deve captar.

Desta forma, é possível usar o transístor para ler informações sobre o transporte de moléculas de forma semelhante ao que os organismos vivos fazem, com a diferença de que, em vez do sinal ser lido por outro componente biológico, ele será lido eletronicamente pelo transístor.

A equipe também testou o controle no sentido inverso: alterando a tensão aplicada à porta do transístor, eles podem abrir e fechar os poros da membrana eletronicamente.

"Isto para não mencionar que essas membranas lipídicas podem abrigar um número praticamente ilimitado de máquinas protéicas que desempenham um grande número de funções críticas nas células, como reconhecimento, transporte e conversão de um tipo de energia em outro," acrescentou Nipun Misra, o principal autor do trabalho.

Criado lubrificante industrial 100% biodegradável

Pesquisadores da Universidade Huelva, na Espanha, desenvolveram uma graxa lubrificante para veículos e equipamentos industriais que não utiliza qualquer composto químico contaminante usado nos lubrificantes tradicionais.

O novo lubrificante industrial é feito à base de óleo de rícino e derivados de celulose, pertencendo a uma nova classe de materiais conhecida como "óleogel", que tira suas propriedades lubrificantes dos materiais celulósicos.

Graxa industrial verde

A "graxa verde" é "uma alternativa às graxas lubrificantes tradicionais, que geram uma poluição difícil de controlar quando elas são descartadas no meio ambiente," diz o pesquisador José María Franco, acrescentando que a graxa é 100% biodegradável.

Os lubrificantes utilizados nos equipamentos industriais são feitos de óleos sintéticos e derivados do petróleo, que não são biodegradáveis. Em sua formulação, entram ainda espessantes feitos com partículas metálicas ou com derivativos da poliuréia, uma família de polímeros sintéticos.

Poluição dos óleos e graxas industriais

Milhões de toneladas de óleos industriais e hidráulicos acabam chegando ao meio ambiente todos os anos, poluindo áreas agricultáveis, rios e chegando até o mar. Segundo os pesquisadores, os óleos minerais podem contaminar o lençol freático por até 100 anos, além de inibir o crescimento de árvores e serem tóxicos para a vida aquática.

Os óleos têm sido substituídos paulatinamente por óleos vegetais, mas até agora nenhuma solução havia sido encontrada para os espessantes metálicos, que são altamente poluidores, mas que dão às graxas industriais o seu alto rendimento.

A nova graxa verde é uma resposta a esse problema, embora os pesquisadores afirmem que ainda será necessário uma nova etapa de pesquisas a fim de aperfeiçoar seu desempenho lubrificante e antidesgaste.

De volta ao laboratório

O novo lubrificante "tem um nível de estabilidade mecânica similar ao das graxas tradicionais, e é altamente resistente a altas temperaturas, com propriedades reológicas (viscosidade) que não se alteram de forma acentuada. Contudo, nós observamos que o material é expelido [dos equipamentos] quando submetido simultaneamente a grandes forças inerciais e altas temperaturas," explica Franco.

Para que uma graxa seja utilizada em rolamentos, por exemplo, é importante que ela não vaze facilmente, o que reduziria a lubrificação e poderia levar a uma quebra do rolamento. O mesmo vale para os equipamentos hidráulicos, onde pressão e temperatura elevam-se continuamente.

Os pesquisadores vão continuar a pesquisar este aspecto a fim de encontrar um equilíbrio entre os ingredientes biodegradáveis e o desempenho da nova graxa.

Nanorrobô industrial manipula nanotubos de carbono

Os nanotubos de carbono, assim como uma série de outras nanoestruturas e nanofios, são interessantes e promissores para várias aplicações científicas e tecnológicas.

Mas o desenvolvimento de tecnologias envolvendo objetos nessas dimensões tem um grande problema: como manipular estruturas tão pequenas que não podem ser vistas nem mesmo com o melhor dos microscópios ópticos?

Nanorrobô industrial

Este é o desafio que está sendo enfrentado pelo projeto NanoHand (nanomão), uma equipe que reúne cientistas de 12 centros de pesquisas europeus e cujo objetivo é construir aquele que provavelmente será o primeiro nanorrobô industrial.

Os primeiros protótipos estão mais para uma nanogarra robótica do que para uma nanomão, o que é mais do que suficiente para pegar, manipular e posicionar nanotubos de carbono ou nanofios com enorme precisão.

O nanorrobô inteiro mede dois milímetros, o que inclui todo o seu aparato de fixação no interior de um microscópio eletrônico de varredura, essencial para que o operador possa acompanhar o que a garra robótica está fazendo. "O conjunto inteiro é integrado no interior da câmara de vácuo do microscópio," explica o Dr. Volkmar Eichhorn, coordenador do projeto.

Movimento eletrotermal

A garra do nanorrobô tem uma abertura de até 2 micrômetros, sendo capaz de segurar com precisão objetos com dimensões na escala das dezenas de nanômetros.

Nessa escala, não é possível, e nem necessário, usar motores ou molas para acionar a garra mecânica: ela funciona por um princípio eletrotermal, em que uma pequena corrente elétrica causa a contração e a expansão da garra, fazendo-a fechar e abrir como se fosse uma pinça.

Forças intermoleculares

Mas isto não é tudo. Em nanoescala, as forças intermoleculares entre os objetos são mais fortes do que a gravidade. Desta forma, não basta abrir a garra para que o nanotubo solte-se e vá para a posição desejada. Na verdade, ele ficará grudado na garra do robô e não se soltará até que uma força maior do que a que o segura faça-o desgrudar-se.

Os pesquisadores encontraram duas possíveis soluções para o problema, nenhuma das quais ligada à estrutura do próprio nanorrobô. A primeira delas consiste em colar o nanotubo na sua posição final usando um feixe de elétrons - depois de ter sua extremidade colada, a garra pode se abrir e deixar o nanotubo na posição.

A segunda solução é mais exigente quanto ao local de deposição mas mais simples de operar. O local onde o nanotubo de carbono será deixado deve ser construído com princípios geométricos que garantam que ele exerça uma força molecular maior do que a força que mantém o nanotubo preso à garra do robô.

Nanofábricas

"No mundo todo, nós fomos o primeiro grupo que realmente conseguiu fazer experimentos automatizados de pegar e soltar objetos em nanoescala," diz Eichhorn.

Além do robô propriamente dito, os pesquisadores tiveram que desenvolver um programa de computador capaz de controlar todo o aparato, criando uma estação de trabalho para o controle e operação do nanorrobô.

O próximo passo da pesquisa é integrar o nanorrobô em uma nanofábrica que seja capaz de fazer todo o trabalho, desde a seleção do nanotubo até a sua deposição nos experimentos, como em chips, por exemplo. Para saber mais, veja a reportagem Nano-linhas de produção começam a dar formas a nanofábricas.

Impressão sem tinta cria cores naturais instantaneamente

Os cientistas sempre ficaram curiosos com as impressionantes cores vistas na natureza, principalmente os padrões iridescentes e ultrabrilhantes encontrados nas penas dos pássaros, nas asas das borboletas e nas carapaças de vários insetos.

O avanço da microscopia finalmente permitiu que eles compreendessem como essas cores são geradas. E o avanço da nanotecnologia está permitindo que eles reproduzam as técnicas que a natureza levou milhões de anos para aprimorar.

Cores sem pigmentos

Juntando as duas coisas, a equipe do professor Sunghoon Kwon, da Universidade Nacional de Seul, na Coreia do Sul, afirma ter descoberto uma forma de revolucionar a impressão tradicional, abolindo as tintas, fazendo uma impressão em cores totais que fica pronta em um instante e que é capaz de reproduzir as cores encontradas na natureza.

As cores exibidas por insetos e pássaros não são baseadas em pigmentos, mas em texturas microscópicas na superfície de suas asas, penas e carapaças. É a interação dessas superfícies com a luz que produz as suas cores.

O que o Dr. Kwon e seus colegas fizeram foi desenvolver um método capaz de criar as texturas microscópicas que interagirão com a luz para gerar as cores.

Impressão sem tintas

A sua "tinta" é um composto formado por três ingredientes: nanopartículas magnéticas, uma resina e um solvente.

As nanopartículas, que medem entre 100 e 200 nanômetros, dispersam-se na resina, dando ao material uma aparência acinzentada. Mas basta aplicar um campo magnético para que as nanopartículas ajustem-se imediatamente às linhas do campo magnético, alinhando-se e formando estruturas bem definidas.

As cadeias de nanopartículas, que ficam espaçadas com grande regularidade, interferem com a luz que incide sobre elas, gerando uma cor. Para mudar a cor, basta alterar o campo magnético.

"Se você quiser controlar o ângulo do campo magnético [para criar curvas no desenho, por exemplo] você pode combinar múltiplos eletroímãs," disse o pesquisador à revista New Scientist.

Fixando as cores

Assim que a cor desejada é produzida, as nanopartículas podem ser fixadas expondo a mistura à luz ultravioleta, que cura a resina. O sistema utiliza uma espécie de litografia para fazer com que a luz ultravioleta incida apenas sobre as áreas da imagem que já assumiram a cor desejada.

A seguir, basta ir alterando os campos magnéticos e aplicando a luz ultravioleta seletivamente, até criar uma imagem totalmente colorida. E sem usar nenhum pigmento.

"Nós primeiro configuramos o ímã para criar o vermelho e então incidimos a luz ultravioleta por 0,1 segundo, configuramos para produzir o azul, luz por 0,1 segundo novamente, então verde e assim por diante. Você consegue imprimir em página A4 totalmente colorida em um segundo," disse o pesquisador.

Agora eles pretendem aprimorar a técnica para que as cores sejam reversíveis, permitindo a criação de gadgets que mudam de cor conforme a vontade do dono.

Novos dados exigirão alterações nos modelos climáticos do IPCC

Um grupo internacional de cientistas compilou o mais completo conjunto de dados sedimentares ao redor do globo, ampliando o conhecimento sobre as temperaturas da superfície do mar durante o período conhecido como Último Máximo Glacial.

O estudo traçou um quadro bastante diferente do que era considerado válido até hoje, o que exigirá alterações nos modelos usados pelo IPCC (Intergovernmental Panel on Climate Change) para prever as alterações no clima.

Último Máximo Glacial

O Último Máximo Glacial cobre o período entre 19.000 e 23.000 anos atrás. "O objetivo do projeto MARGO (Multiproxy Approach for the Reconstruction of the Glacial Ocean Surface) é reconstruir o clima do passado para que nós possamos entender melhor o clima atual e prever o clima do futuro," explica a pesquisadora Claire Waelbroeck.

"Nós reanalisamos todos os dados disponíveis de forma homogênea," diz ela, salientando o aprimoramento das técnicas de pesquisa agora utilizadas, além do maior volume de dados.

Mar não tão gelado

Depois de cinco anos de trabalho, os pesquisadores chegaram a duas conclusões principais. A primeira é que a cobertura de gelo do Mar do Norte e do norte do Oceano Atlântico durante o Último Máximo Glacial não estava presente ao longo de todo o ano, como se considerava até agora. O gelo derretia-se parcialmente no verão.

A segunda conclusão do estudo mostra um forte gradiente de temperatura no sentido leste para oeste, em todos os leitos oceânicos, algo que os atuais modelos climáticos não reproduzem.

Previsões mais confiáveis

De um ponto de vista estatístico, o projeto MARGO é mais robusto do que as pesquisas anteriores, como CLIMAP, que foi feito nos anos 1970 e que é utilizado até hoje. O projeto MARGO tem uma área de cobertura maior, combinando dados de 696 pontos ao redor do mundo.

Além disso, o novo estudo combina os resultados de seis indicadores climáticos diferentes, baseados em composições de microfósseis (foraminífera, diatomácea, radiolaria e dinoflagelados) e medições geoquímicas.

Utilizando esse conjunto inédito de dados, os pesquisadores conseguiram identificar várias fragilidades nos modelos utilizados pelo IPCC. "Fornecendo os meios para testar esses modelos, o projeto MARGO deverá permitir previsões mais seguras das mudanças climáticas e suas consequências," diz Claire.

Recentemente, em um estudo publicado na revista Nature Geoscience, um grupo de pesquisadores foi mais duro nas críticas e chegou a afirmar que as principais conclusões dos modelos climáticos podem estar erradas.

Cientistas fotografam estrutura de molécula pela primeira vez

Cientistas conseguiram obter, pela primeira vez, imagens detalhadas das estruturas químicas de uma molécula, em um estudo que pode auxiliar no desenvolvimento de produtos eletrônicos e até mesmo de remédios em escala molecular.

A pesquisa foi conduzida por cientistas da empresa de computadores IBM em Zurique, na Suíça, e publicada na edição desta sexta-feira (28) da revista científica "Science".

O novo método permite que eles observem a "anatomia" da molécula, ou seja, as ligações químicas em seu interior.

Há cerca de dois meses, os mesmo pesquisadores utilizaram uma técnica similar para medir a carga de um único átomo.

Nas duas pesquisas foi utilizado um aparelho chamado de microscópio de força atômica, conhecido pela sigla inglesa AFM.

"Para fazer uma comparação não muito exata, se um médico usa um aparelho de raios X para visualizar os ossos e os órgãos dentro do corpo humano, estamos usando o microscópio de energia atômica para visualizar as estruturas atômicas que são as 'espinhas dorsais' das moléculas individualmente", diz Gerhard Meyer, um dos autores do estudo.

Tecnologia

O aparelho usado na pesquisa funciona como um minúsculo diapasão. Durante o experimento, um dos ''dentes'' do diapasão passa a uma distância mínima da amostra de molécula estudada, enquanto o outro "dente" passa um pouco mais longe.

Quando o "diapasão" vibra, o "dente" que está mais próximo da amostra vai sofrer uma minúscula alteração em sua frequência, simplesmente porque está se aproximando da molécula.

Comparando a frequência dos dois dentes, os cientistas conseguem mapear a estrutura da molécula.

Para realizar esse tipo de medição, é necessária uma precisão extrema. Para evitar que moléculas de gás desgarradas interfiram, assim como outros fatores, o experimento precisa ser realizado no vácuo e sob temperaturas extremamente frias.

O problema encontrado em pesquisas similares anteriores, no entanto, é que a ponta do dente do AFM não é fina o suficiente em escala atômica, e acabava interagindo com a amostra e comprometendo a obtenção da imagem.

Para resolver a questão, os pesquisadores colocaram uma pequena molécula formada por átomos de carbono e oxigênio na ponta do microscópio, tornando-a o mais fina possível.

A amostra usada para ser "fotografada" foi de uma molécula orgânica chamada pentaceno, formada por 22 átomos de carbono, 14 de hidrogênio e que mede 1,4 nanômetros de comprimento.

As informações sobre as interações entre os átomos são então interpretadas pelo microscópio, que desenvolve a imagem da anatomia da molécula.

Ponta do iceberg

O líder da pesquisa, Leo Gross, afirmou à BBC que os cientistas pretendem agora combinar o método para mensurar as cargas individuais dos átomos desenvolvido por eles com a nova técnica, o que pode permitir que descrevam moléculas em um grau de detalhamento sem precedentes.

Essas pesquisas devem ajudar particularmente no campo da "eletrônica molecular", auxiliando, no futuro, na criação de estruturas formadas por moléculas individuais que possam funcionar como interruptores e transistores.

Embora a técnica possa traçar as ligações que conectam os átomos, ela não é capaz de distinguir átomos de diferentes tipos.

A equipe de pesquisadores pretende agora testar a nova técnica com uma similar chamada de STM (Scanning Tunneling Microscope) para determinar se a combinação dos dois métodos pode descobrir a natureza de cada átomo nas imagens do ATM.

Isso poderia ajudar ramos inteiros da química, em particular a química sintética, usada para a produção de remédios.

Fonte: G1

Oficina gratuita fala sobre o uso seguro da internet nas empresas

A BRconnection, empresa voltada a soluções para a internet, promove em setembro a oficina gratuita “Uso Produtivo e Seguro da Internet”, em São Paulo.

O curso mostrará soluções para os administradores de redes de internet implementarem políticas de segurança nas empresas. Os participantes aprenderão a assegurar a integridade dos dados enquanto otimizam o uso da web no ambiente corporativo.

A oficina é dividida em três módulos, nos quais serão apresentadas três soluções da BRconnection que ajudam os administradores a colocarem em prática o que aprenderam.

As inscrições estão abertas e podem ser feitas pelo e-mail workshop@brc.com.br ou no site da BRconnection. O curso ocorre nos dias 3, 10, 17 e 24 de setembro e as vagas são limitadas.

Fonte: IDG Now!

sexta-feira, 28 de agosto de 2009

Unesp lança revista de divulgação científica

A revista Unesp Ciência é o mais novo veículo de divulgação científica no Brasil. A revista foi lançada nesta semana pela Universidade Estadual Paulista (Unesp) em cerimônia no campus Barra Funda, na capital paulista.

Com periodicidade mensal e tiragem de 25 mil exemplares, a publicação será distribuída nos campi da Unesp e em diversas instituições de ensino e de pesquisa. A revista também poderá ser lida gratuitamente no site da universidade.

Divulgação científica de referência

"O foco é fazer uma divulgação científica de referência, com equilíbrio entre as áreas. E um jornalismo crítico, não mostrando a ciência como algo acabado", disse Maurício Tuffani, assessor de comunicação e imprensa da Unesp e diretor editorial da revista.

Voorwald conta que quando assumiu a reitoria, em 2008, já havia pensado em criar um veículo de divulgação científica que expressasse, em linguagem clara e acessível, os principais estudos desenvolvidos pelos pesquisadores da Unesp.

"Percebemos a necessidade para a Unesp de um instrumento de divulgação com esse perfil, mas com limites que não sejam os muros da universidade. A revista será um grande instrumento de divulgação da ciência e da instituição, ajudando os próprios professores a dimensionar a importância e competência da universidade e o seu papel social", disse.

Divulgação científica no Brasil

Carlos Vogt, secretário de Ensino Superior do Estado de São Paulo, salientou a trajetória ascendente da divulgação científica no país, em particular em São Paulo. "Isso se deve, em grande parte, ao amadurecimento das próprias instituições ligadas à pesquisa, que passaram a colocar a divulgação como prioridade", disse.

O secretário destacou como modelo bem-sucedido a FAPESP, que conta com dois veículos de divulgação científica: a Agência FAPESP, que envia boletins diários a mais de 80 mil assinantes, e a revista mensal Pesquisa FAPESP.

Ciência e arte

No primeiro número, a revista destaca os 400 anos da ciência moderna. A reportagem Quatro séculos da ciência relembra Galileu Galilei (1564-1642), que rompeu o paradigma defendido por Nicolau Copérnico (1473-1543), segundo o qual o Sol estaria no centro do Sistema Solar (heliocentrismo).

Essa mudança de perspectiva é considerada o marco da modernidade científica. A reportagem elenca ainda alguns dos principais formuladores da ciência moderna, como Francis Bacon, René Descartes e Albert Einstein.

Badulaques de cientista e insetos criminalistas

A revista traz um perfil da arqueóloga e antropóloga Ruth Künzli, da Unesp de Presidente Prudente (SP), e aborda temas curiosos para o público menos especializado como na reportagem Estação de trabalho, que mostra quais são os tipos de objetos que um pesquisador reúne em sua sala. A reportagem Insetos criminalistas explica como o estudo de moscas e larvas pode dizer quando e como uma pessoa morreu.

Outros destaques são a seção de lançamentos de livros e a seção Click, de flagrantes da "beleza da ciência". Na primeira edição, são imagens de nanoesculturas produzidas a partir de dióxido de estanho. Pesquisadores do Instituto de Química da Unesp de Araraquara, em parceria com colegas da Universidade Federal de São Carlos, trabalham com partículas na escala de bilionésimos de metro e têm confeccionado uma espécie de "nanoarte", com as imagens geradas nos experimentos.

A revista Unesp Ciência pode ser lida em formato pdf no site www.unesp.br/aci/revista.

Mundo quântico "comunica-se" com o mundo macro pela primeira vez

Cientistas austríacos estabeleceram uma interação entre luz e um ressonador micromecânico que é forte o bastante para transferir efeitos quânticos para o mundo macroscópico.

Este é um passo importante para novos experimentos ligados à computação quântica e para a verificação de até que ponto as leis da mecânica quântica aplicam-se ao mundo dos objetos em escala humana.

Fronteira entre quântico e macro

A física quântica é cheia de paradoxos e comportamentos bizarros, como gatos em caixas que estão vivos e mortos ao mesmo tempo e partículas que interagem instantaneamente mesmo quando uma delas foi para o outro lado da galáxia - veja, por exemplo, Reencarnação quântica: físicos "des-medem" partícula e ela retorna à vida.

E será que essas leis da física quântica podem de alguma forma serem aplicadas aos objetos em escala humana, ou pelo menos a objetos que possam ser vistos a olho nu? Esta é uma questão que os próprios físicos têm se perguntado desde o início da formulação da teoria.

Onde o mundo quântico encontra-se com o mundo ordinário

Finalmente, depois de mais de meio século, as tecnologias de micro e nanofabricação estão permitindo que os cientistas façam experimentos de "acoplamento" entre o mundo quântico e mundo mais trivial com o qual estamos acostumados.

As pesquisas começaram com pequenos objetos que oscilam mecanicamente, chamados ressonadores, que se comportam como se fossem pêndulos. Como existem ressonadores com tamanhos que vão desde vários centímetros até algumas poucas centenas de nanômetros, eles são os maiores objetos em que se pode testar a teoria quântica.

O objetivo da pesquisa era transferir as propriedades de um sistema quântico elementar - um átomo, um elétron ou um fóton - para o objeto mecânico macroscópico. Para isso, são necessárias duas condições: primeiro, o ressonador mecânico deve ser resfriado até próximo do zero absoluto; segundo, a força entre o ressonador mecânico e o átomo, elétron ou fóton deve ser forte o suficiente para superar o decaimento natural das propriedades quânticas, tecnicamente chamado decoerência.

Acoplamento entre objeto mecânico e objeto quântico

Agora, pela primeira vez, o grupo da Academia Austríaca de Ciências conseguiu atender àquela segunda exigência. Eles criaram o mais forte acoplamento entre um objeto mecânico e o objeto quântico, fótons nesse caso.

Segundo artigo publicado na revista Nature, o ressonador usado mede 50 micrômetros de largura e 150 micrômetros de comprimento - pequeno como um grão de poeira, mas visível a olho nu. Como se pode ver na imagem, um pequeno espelho, com 50 micrômetros de diâmetro, é conectado ao ressonador de tal forma que, quando os fótons atingem o espelho, eles exercem uma força sobre o pêndulo mecânico, fazendo-o oscilar.

Acoplamento forte

Para gerar o acoplamento forte necessário, os pesquisadores utilizaram um princípio bem conhecido na óptica quântica: um ressonador óptico. Como a reflexão de um único fóton pelo espelho não gera a força suficiente para acionar o ressonador mecânico, os fótons são injetados entre dois espelhos paralelos, onde ficam refletindo entre um e outro até adquirirem energia suficiente para escapar através de um dos espelhos, que não é um refletor perfeito.

Com o número suficiente de fótons, capazes de superar a tendência natural à decoerência, a troca de energia entre a luz e o oscilador mecânico acontece mais rapidamente do que o tempo que os fótons precisam para sair da armadilha óptica formada pelos dois espelhos - com isso, o movimento da luz e do ressonador mecânico entram em sintonia, ficando acoplados.

No limiar de estabelecer uma fronteira

Este é o primeiro experimento a demonstrar a interação entre um pêndulo em escala macro e um sistema quântico. Até hoje isto só havia sido feito entre sistemas quânticos muito pequenos, principalmente nos experimentos de computação quântica.

As esquisitices do mundo quântico parecem também vazar para o mundo macro, porque a oscilação não é nem puramente mecânica e nem puramente óptica - é um híbrido entre as duas, uma oscilação optomecânica.

"O próximo passo é combinar o acoplamento forte com o resfriamento do sistema mecânico," diz o professor Simon Gröblacher, que conduziu os experimentos. "Com este experimento nós estamos no limiar de sermos capazes de testar até que ponto as leis da física quântica são válidas no mundo macro."

Unicamp mensura concentrações de flavonoides em alimentos

A couve refogada apresentou as maiores concentrações de flavonóis na pesquisa realizada nos laboratórios da Faculdade de Engenharia de Alimentos (FEA) com quatro tipos de hortaliças. Foram estudadas couve, brócolis, vagem e chicória.

Os flavonóis pertencem a uma classe dos flavonoides - compostos produzidos pelas plantas possuem efeitos benéficos à saúde, entre os quais a prevenção de doenças degenerativas, cardiovasculares e alguns tipos de câncer.

Estes compostos apresentam atividade antioxidante e atuam sequestrando radicais livres e quelando metais que favorecem a formação desses radicais.

Níveis de flavonoides nos alimentos

No entanto, as informações sobre os teores de flavonoides em alimentos ainda são limitados e, por isso, a engenheira de alimentos Aline Yashima Bombonati analisou as hortaliças e mais três frutas da Amazônia - buriti, tucumã e pupunha - com o objetivo de incrementar o banco de dados sobre o assunto.

A novidade do trabalho de Aline foi, justamente, a análise de amostras de hortaliças cozidas servidas em três restaurantes de Campinas. "A ideia foi conhecer o teor de flavonóis em alimentos que são consumidos diariamente por um grande número de pessoas e que passam por um processamento com altas temperaturas", argumenta.

Para a pesquisa, ela utilizou três lotes de cada hortaliça e a couve refogada foi a que mais se destacou no estudo, por apresentar uma média de 454 a 670 microgramas por grama de um flavonol denominado quercetina e 169 a 207 microgramas por grama de outro importante flavonol, o kaempferol.

Brócolis comuns melhores que brócolis ninja

Um resultado que surpreendeu a engenheira foi o relativo aos brócolis comuns crus por conterem teores elevados de flavonóis, comparados ao da variedade ninja, usualmente servido em restaurantes. O comum apresentou 193 microgramas por grama de quercetina e 158 de kaempferol, enquanto que no ninja foram encontrados 32 microgramas por grama de quercetina e 23 de kaempferol.

Segundo Aline Bombonati, de uma maneira geral, houve grande variação nas quantidades de flavonóis em lotes da mesma hortaliça de um mesmo restaurante e entre os diferentes restaurantes, o que poderia indicar uma variação natural da planta ou efeito do processo de preparo do alimento.

"Na indústria, hortaliças como o brócolis passam pelo processamento de corte, branqueamento e congelamento que gera perdas de propriedades e, portanto, mais estudos devem ser feitos para uma melhor avaliação das perdas", declara.

Flavonoides em frutas da Amazônia

Quanto às frutas da Amazônia, Aline investigou o buriti, tucumã e pupunha, e polpa congelada de pitanga proveniente do Nordeste. Apenas no buriti foram encontrados flavonóis ainda que em pequenas concentrações.

A polpa congelada de pitanga apresentou teores menores de flavonóis que os de polpas provenientes do estado de São Paulo, analisadas anteriormente no mesmo laboratório.

A ideia que se tinha era que essas frutas, por serem fontes de carotenoides, outro composto extremamente benéfico à saúde, também pudessem apresentar quantidades significativas de flavonóis. "O que se percebeu é que a planta produz predominantemente ou uma ou outra substância. O buriti, por exemplo, é considerado a maior fonte de betacaroteno, mas pobre em flavonóis. Estes compostos são sintetizados a partir de um mesmo precursor e o que se verificou é que dificilmente a planta produz os dois compostos em altas quantidades", afirma.

Planeta Tio Fabio Vídeos

79,5% dos usuários usam Adobe Flash vulnerável

Um relatório da empresa de segurança Trusteer afirma que cerca de 79,5% dos internautas não utilizam a versão mais recente, e portanto mais segura, do programa Adobe Flash. O número é ainda maior no caso do Adobe Acrobat Reader: 83,5%. Os dados foram coletados pelo Rapport, um plug-in de segurança da Trusteer que visa proteger operações online e tem cerca de 2,5 milhões de usuários.

A pesquisa foi realizada duas semanas após a disponibilização de uma atualização crítica para os softwares, que corrigia um erro já em uso por criminosos. Segundo o relatório da empresa 98,8% dos usuários possui o Flash instalado no sistema, o que torna o plug-in o alvo mais interessante dos criminosos, já que quase todos os internautas são possíveis alvos. “Por comparação, um ataque à vulnerabilidades do Internet Explorer afeta apenas 65% dos usuários de internet”, afirma o relatório.

Para a Trusteer, o problema está no mecanismo de atualização automática do Adobe Flash. A empresa considera ele inadequado para um programa que é usado em 99% dos computadores ligados à internet. O relatório contrasta os números da Adobe com os do Google Chrome (que não pede confirmação ao usuário para se atualizar) e do Mozilla Firefox, que em duas semanas conseguem atualizar o programa em 90% e 80% dos usuários, respectivamente.

A coluna Segurança para o PC já mostrou que a opção de atualização automática do Flash está escondida e apenas verifica por atualizações uma vez a cada 30 dias por padrão. “Essa é a maior brecha na internet hoje”, diz o relatório da Trusteer, que pode ser baixado aqui.

Onda de ataques de vírus na web afeta 80 mil páginas

A empresa de segurança ScanSafe publicou um alerta em seu blog a respeito de uma nova onde de ataques na web. Publicado na semana passada, o alerta informa que 55 mil páginas já teriam sido alteradas pelos criminosos. Até o fechamento desta coluna, cerca de 80 mil sites – muitos deles legítimos – já estavam carregando o código malicioso, que usa vulnerabilidades em vários navegadores e plug-ins para instalar pragas que roubam informações.

Para chegar nesse número, a ScanSafe usou uma pesquisa do Google pelo endereço do site malicioso que está sendo inserido nos sites para infectá-los. Como o Google leva um tempo para atualizar seu índice, sites infectados demoram a ser contados, enquanto sites limpos não saem imediatamente da lista.
A coluna verificou que o Google retorna cerca de 500 resultados quando a busca é filtrada para incluir somente sites brasileiros. Alguns dos sites verificados já estavam limpos. Mas não se trata de pichação dos sites, e sim do uso deles para disseminar os vírus, o que demora mais para ser notado do que a desfiguração das páginas.

Caso um usuário com o navegador ou plug-ins desatualizados visite uma página com o código, um “coquetel” de pragas digitais será instalado no PC, segundo a ScanSafe. O conjunto inclui “backdoors”, que dão o controle do sistema ao invasor, ladrões de senha e downloaders, responsáveis por baixar outros vírus para o computador.

Para evitar ataques desse tipo, o recomendado é manter o navegador, plug-ins e sistema operacional atualizados, usando recursos de atualização automática. Você pode verificar o PC pela presença de softwares vulneráveis com o Secunia Personal Software Inspector.

Fundo tem US$ 10 bilhões para investir em inovações brasileiras

Os fundos de private equity e venture capital possuem cerca de 10 bilhões de dólares para investir no Brasil. Segundo o vice-presidente da Associação Brasileira de Private Equity e Venture Capital (ABVCAP), Sidney Chameh, o montante está reservado para empresas brasileiras de qualquer setor, desde que apresentem bons fundamentos e projetos consistentes de inovação.

Essas modalidades de investimento buscam empresas inovadoras que possuem boa perspectiva de crescimento. No ano passado, quando a agência de classificação de risco Standard & Poor’s concedeu grau de investimento ao Brasil, indicando que o País é um “bom pagador”, a expectativa sobre o aumento desse tipo de investimento aumentou bastante, euforia que logo foi contida por causa da crise financeira mundial.

De acordo com Chameh, em junho do ano passado, os fundos estavam com 27 bilhões de dólares para investir no País. A quebradeira de bancos e a recessão global, que se intensificou a partir de setembro, acabaram freando as iniciativas. Atualmente, não existe expectativa de maior fuga de capital, nem de novos compromissos. De qualquer forma, os 10 bilhões de dólares são suficientes para atender a demanda de projetos. “Não vão faltar recursos”, afirma o vice-presidente.

Tradicionalmente inovadores, os departamentos de tecnologia são alguns dos que mais podem se beneficiar desse dinheiro. O objetivo da ABVCAP é criar condições para que inovadores tenham um canal onde possam conhecer investidores, que, por sua vez, aumentam a segurança do investimento com o aval da empresa.

Fonte: IDG Now!

Apenas 27% dos usuários de redes sociais estão seguros, diz estudo

Apenas 27% dos usuários de redes sociais, como o Facebook e o Twitter, estão protegidos contra ameaças online, disse a AVG, empresa que desenvolve antivírus e soluções de segurança para o mundo digital.

De acordo com o estudo “Bringing Social Security to the Online Community” (Trazendo Segurança Social à Comunidade Online, em tradução livre), conduzido em conjunto com a consultoria CMO Council, 64% dos usuários de redes sociais admitiram que dificilmente trocam suas senhas, enquanto apenas 43% mudam as configurações de segurança.

“À medida que as redes sociais crescem globalmente, as ameaças e vulnerabilidades começam a crescer proporcionalmente!, disse Donovan Neal-May, diretor executivo da CMO Council. De acordo com a AVG, 21% dos usuários de redes sociais aceitam adicionar contatos de pessoas que eles não reconhecem, enquanto 26% trocam arquivos dentro das redes. Outros 64% afirmaram que clicam em links enviados por outros integrantes de redes sociais.

Como resultado dessas práticas, 20% dos usuários de redes sociais foram vítimas de roubo de identidade, enquanto 55% foram alvos de golpes online e 47% foram enganados e instalaram programas maliciosos em seus computadores.

“Mesmo sabendo dos riscos, os usuários continuam falhando ao tomar cuidados básicos para se protegerem. Isso representa um desafio interessante paras empresas de segurança que estão trabalhando para criar um comunidade virtual segura”, disse Siobhan MacDermott, diretor de políticas públicas, comunicação e relações com investidores da AVG Technologies.

Fonte: IDG Now!

quinta-feira, 27 de agosto de 2009

Brasil ganha novo Parque Eólico

Foi inaugurado nesta semana o Parque Eólico Praias de Parajuru, no Ceará, a primeira de um total de três usinas eólicas que serão construídas naquele estado.

Instalada em uma área de 325 hectares, localizada a pouco mais de 100 quilômetros de Fortaleza, a nova usina tem 19 aerogeradores, capazes de gerar 28,8 MW.

O empreendimento é resultado de uma parceria da CEMIG (Companhia Energética de Minas Gerais) e da empresa Impsa, que fabrica os aerogeradores, cada um com uma capacidade de 1,5 MW. Quando totalmente instalado, o projeto deverá gerar 99,6 MW.

Argentinos, mineiros e cearenses

Além da usina agora inaugurada, o projeto prevê a construção de dois outros parques eólicos - Praia do Morgado, com uma capacidade também de 28,8 MW, e Volta do Rio, com 28 aerogeradores que produzirão, em conjunto, 42 MW de eletricidade. Os dois ficarão localizados no município de Acaraú, a 240 km de Fortaleza.

Líder latino-americana em energias renováveis, a Impsa considera o Brasil um mercado chave. A empresa argentina está trabalhando na implantação de outros 10 parques eólicos no País, na região de Santa Catarina. "Pretendemos desenvolver uma matriz energética mais equilibrada e limpa no País", diz o representante da Impsa no Brasil, Luis Pescarmona.

A CEMIG, que detém 49% de participação acionária nas usinas, investirá quase metade dos R$550 milhões que serão gastos nos três empreendimentos. A empresa de energia mineira foi pioneira na geração de energia eólica, com a inauguração da Usina Morro do Camelinho, em 1994.

Com o início das operações do parque eólico Praias de Parajuru, o Ceará passa a ser o estado brasileiro com maior capacidade instalada em geração de energia elétrica por meio dos ventos, com 150,6 MW.

Vantagens e empecilhos

Limpa e renovável, a energia eólica é uma das mais promissoras fontes de eletricidade para o futuro, juntamente com a energia solar. Apesar disso, ambas têm sofrido com pesadas críticas patrocinadas pelo lobby das fontes tradicionais de energia.

Apesar de estudos mostrarem que a energia eólica, solar e das ondas e marés superam a energia nuclear e as termelétricas, o maior argumento daqueles que se opõem a uma nova matriz energética é o custo financeiro de instalação das usinas. De fato, queimar carvão, petróleo ou gás natural continua sendo a alternativa mais barata, desde que a questão do meio ambiente seja totalmente deixada de lado.

O Brasil já é considerado pela ONU como o líder global em energias limpas, graças ao etanol. No tocante à energia eólica, contudo, o país continua desperdiçando seu potencial. Veja também a reportagem O que é necessário para que o Brasil brilhe na energia solar?

Lançado o primeiro mercado eletrônico de recursos computacionais

Pesquisadores europeus criaram uma plataforma para comercialização de recursos de processamento e armazenamento que permite a compra e a venda de recursos computacionais padronizados, uma espécie de commodity da era da informação.

Além de criar uma bolsa mercantil de recursos computacionais, a nova plataforma poderá transformar a computação em um serviço público, como acontece hoje com a eletricidade e a telefonia.

Grids computacionais

A base para a criação do novo mercado é um conceito de computação distribuída conhecida como Grid, interligações entre computadores que juntam os poderes de processamento, de memória e de armazenamento de todos os computadores conectados. Para o usuário, contudo, tudo funciona como se ele estivesse usando um único computador.

O conceito de grid foi criado pelo famoso SETI@HOME, que usa computadores de voluntários para procurar por vida extraterrestre - veja Andróides e alienígenas vão se juntar à pesquisa pangaláctica.

Os ETs ainda não foram localizados, mas o conceito evoluiu tanto que os grids serão a base de processamento dos dados do LHC - veja Ligue seu computador ao maior experimento científico da história. Já existe até mesmo um navegador para os grids.

Aluguel de recursos computacionais

Várias empresas, como Amazon e HP, já alugam sua capacidade computacional ociosa. Mas a proposta do projeto GridEcon - uma junção dos termos grid e economia - é permitir que qualquer pessoa possa ofertar a capacidade de processamento e armazenamento de seu computador, seja ele ocioso ou não.

Isto permitirá, por exemplo, a inclusão de novos participantes no mercado que queiram otimizar a utilização de suas centrais de dados (data-centers).

E os ofertantes também poderão se tornar demandantes. Por exemplo, uma empresa que aluga seus computadores em momentos ociosos poderá contratar recursos para aliviar seus momentos de pico.

Segundo os pesquisadores, o conceito acabou de ser disponibilizado e as primeiras empresas já estão entrando em contato para estudar como o recurso lhes poderá ser útil.

Mercado eletrônico de recursos computacionais

A plataforma GridEcon é um mercado eletrônico, com uma interface que mostra propostas de oferta e de compra imediata de recursos computacionais, assim como mercados futuros, onde a capacidade é ofertada ou demandada numa data futura determinada.

O mercado eletrônico de recursos computacionais é uma plataforma aberta (open-source), com todo o código disponível no site. Desta forma, se uma empresa tiver uma necessidade específica de comercialização, ela poderá incluir um plugin para atender às suas exigências.

Mais informações podem ser obtidas no site do projeto (www.gridecon.eu), onde se pode também baixar gratuitamente um livro eletrônico de 150 páginas que explica todo o conceito e as funcionalidades já disponíveis no GridEcon.

Turbulência quântica começa a ser desvendada

Um estudo realizado por cientistas da Universidade de São Paulo (USP) e da Universidade de Florença (Itália) demonstrou que o fenômeno da turbulência ocorre também no condensado de Bose-Einstein - uma fase da matéria formada por átomos em temperaturas próximas do zero absoluto.

O trabalho faz parte de uma linha de pesquisas que procura criar ferramentas que permitam a observação de efeitos quânticos em escala macroscópica. A comunicação direta entre o mundo quântico e o mundo ordinário, alcançado pela primeira nos últimos dias, está também sendo noticiado hoje - veja Mundo quântico "comunica-se" com o mundo macro pela primeira vez.

De acordo com os autores, a descoberta abre uma nova janela para a investigação dos fenômenos de turbulência - um dos principais desafios da física contemporânea - e para o estudo de superfluidos.

Elegância e eficiência

O estudo foi publicado no periódico Physical Review Letters, um dos principais na área. Em editorial, a revista destacou a relevância do trabalho, afirmando que os autores "apresentaram uma elegante e eficiente técnica" para produzir turbulências em um sistema de átomos em temperaturas ultrafrias.

Segundo o autor principal do estudo, Vanderlei Salvador Bagnato, do Instituto de Física de São Carlos (IFSC), da USP, até agora os fenômenos de turbulência eram estudados em modelos de hélio líquido a baixíssimas temperaturas. No entanto, nesses modelos, a formação de vórtices não pode ser observada a olho nu.

"A vantagem é que no condensado de Bose-Einstein podemos observar esses fenômenos diretamente. Sabendo que a turbulência quântica está associada a qualquer superfluido quântico - e não apenas ao hélio líquido - temos novos caminhos de investigação à disposição", disse à Agência FAPESP.

O grupo, liderado por Bagnato, está ligado ao Centro de Óptica e Fotônica (Cepof) da USP de São Carlos.

Turbulências e vórtices

Turbulências são fenômenos que ocorrem em fluidos - líquidos e gases -, geralmente submetidos a movimentos completamente desordenados, conhecidos como vórtices. "Quando um fluido apresenta muitos vórtices em movimento completamente desordenado, caracteriza-se a turbulência. Trata-se de um fenômeno muito difícil de ser estudado e, atualmente, é uma das principais fronteiras do conhecimento na física", explicou Bagnato.

A Sociedade Norte-Americana de Física (APS, na sigla em inglês) encara o entendimento desses fenômenos como um dos grandes desafios da física moderna. Segundo Bagnato, a turbulência vem sendo estudada há vários anos, especialmente com o uso de um fluido especial: o hélio líquido.

"É um dos chamados superfluidos, nos quais a mecânica quântica predomina. Nesse sistema, os vórtices estão muito bem comportados, ao contrário do que ocorre com um líquido comum. Esses superfluidos, que escoam sem esforço, são fundamentais para o estudo dos fenômenos de turbulência", explicou o também coordenador do Instituto Nacional de Óptica e Fotônica.

Até agora, no entanto, o hélio líquido era o único sistema quântico à disposição para análise dos fenômenos de turbulência. "Aprendeu-se muito, mas ainda há um longo caminho pela frente, porque não é possível observar a olho nu a turbulência no hélio líquido, como observamos a turbulência em uma xícara de café, por exemplo", disse.

O condensado de Bose-Einstein

Em 1995, surgiu um novo superfluido: o condensado de Bose-Einstein. A existência desse estado da matéria foi prevista por Albert Einstein em 1925, a partir do trabalho de Satyendra Nath Bose, como consequência teórica da mecânica quântica. Mas apenas 70 anos depois, na Universidade do Colorado (Estados Unidos), Eric Cornell e Carl Wieman produziram pela primeira vez o condensado - recebendo, por conta disso, o Prêmio Nobel da Física, em 2001.

"Esse condensado se transforma em um superfluido quando é submetido a uma temperatura próxima do zero absoluto. A questão era saber se nesse sistema também há possibilidade de existência do fenômeno da turbulência", explicou Bagnato.

"A questão da turbulência nos superfluidos líquidos é uma área de pesquisa muito ativa. Sabíamos que seria importante identificar outros superfluidos que permitissem fazer esse estudo, porque essa nova opção criaria situações alternativas de investigação", disse.

No limite do frio

De acordo com o cientista, no caso do hélio líquido é preciso diminuir a temperatura do fluido ainda mais do que na produção do condensado de Bose-Einstein: a 80 nanokelvin - ou seja, 80 bilionésimos acima do zero absoluto.

"É muito mais fácil produzir o Bose-Einstein, que é menos denso e apresenta vórtices maiores, sendo também um fluido quântico. Agora verificamos que a turbulência ocorre também no condensado, onde podemos observar esses fenômenos a olho nu. Poderemos estudar coisas que seriam de realização impossível com o hélio líquido", afirmou.

Os experimentos são feitos em armadilhas de átomos com resfriamento a laser, dentro da chamada condensação de Bose-Einstein. O condensado não existe naturalmente no Universo e, por isso, é preciso produzi-lo em laboratório.

"Atualmente estamos programando um experimento com o objetivo de observar, em grau mais detalhado, fatos relevantes, como, por exemplo, quanto tempo a turbulência demora para desaparecer do fluido quântico e quais são suas consequências", disse Bagnato.

Avião solar terá autonomia de voo de cinco anos

Uma empresa norte-americana está desenvolvendo uma aeronave movida a energia solar que poderá se manter no ar por cinco anos continuamente.

A asa em forma de Z, com 150 metros de envergadura, será reajustável durante o voo, para que possa absorver o máximo possível de energia do sol.

O avião solar, batizado de Odysseus (Ulisses, herói da Guerra de Troia), deverá acumular a energia do sol durante o dia e usá-la para continuar seu voo durante a noite. Na ocasião, a asa tomará uma forma plana, diminuindo sua resistência ao ar e, portanto, consumindo menos energia.

Monitoramento ambiental

O avião solar não tripulado está sendo projetado para voar a altitudes de 18 mil a 27 mil metros, e deverá ser utilizada para missões de reconhecimento, comunicações e monitoramento ambiental no âmbito de pesquisas sobre mudanças climáticas.

A empresa Aurora Flight Sciences está desenvolvendo a aeronave dentro do programa "Vulture", que tem apoio da BAE Systems, C.S. Draper Laboratories e Sierra Nevada Corporation.

As empresas divulgaram apenas o desenho da aeronave solar, sem maiores detalhes técnicos. O protótipo deverá ficar pronto em cinco anos.

Fonte: BBC

Muletas inteligentes monitoram seu uso correto

Engenheiros da Universidade de Southampton, na Inglaterra, desenvolveram uma muleta que incorpora uma avançada tecnologia de sensores para monitorar se o equipamento está sendo usado corretamente.

A muleta foi equipada com três acelerômetros, que detectam o movimento, e sensores de força, que medem o peso que está sendo aplicado pelo braço do paciente, além da posição da mão sobre o apoio.

Os dados são transmitidos por um equipamento sem fios para um computador remoto, onde um programa mostra visualmente a posição que o paciente está adotando, em comparação com a posição ideal.

Como usar corretamente as muletas

"Um número cada vez maior de pessoas depende de fisioterapia," diz o professor Neil White, que criou a muleta inteligente em conjunto com seu colega Geoff Merrett e com a fisioterapeuta Georgina Hallett.

"Mas os relatos dos fisioterapeutas indicam que as pessoas nem sempre usam as muletas da maneira correta. Até agora, não havia uma forma de monitorar isso, ainda que o uso incorreto continuado da muleta poderá piorar a lesão do paciente," diz ele.

A nova muleta foi desenvolvida usando sensores similares aos usados no videogame Nintendo Wii e utiliza apenas componentes que podem ser comprados no comércio, barateando o seu custo.

Muletas inteligentes para uso doméstico

"Estas muletas inteligentes tornarão muito mais fácil para o paciente aprender a usá-las corretamente e dosar o peso que eles podem colocar sobre sua perna machucada," diz a Dra. Georgina. "Isto irá ajudá-los a sair do hospital mais rapidamente e também reduzirá o risco de danos futuro em uma perna já fraturada ao se recuperar colocando muito ou pouco peso sobre a perna em recuperação."

No momento, as muletas inteligentes são adequadas para o monitoramento e o treinamento de pacientes em ambientes hospitalares. Mas os pesquisadores têm planos para desenvolver um par de muletas que os pacientes possam usar em casa, recebendo o nível adequado de informações sobre o seu uso.

Atividades físicas alteram sensação de fome diretamente no cérebro

A atividade física é capaz de restaurar a sensibilidade dos neurônios envolvidos no controle da saciedade, o que pode contribuir para a redução da ingestão alimentar e, consequentemente, do peso corporal.

Essa é uma das conclusões de um estudo coordenador por Eduardo Rochete Ropelle, pesquisador da Faculdade de Ciências Médicas da Universidade de Campinas (Unicamp) e do Instituto de Obesidade e Diabetes.

Benefício duplo

O trabalho aponta evidências de que mamíferos obesos apresentam falhas na transmissão de sinais em neurônios que controlam a saciedade. Essas falhas podem ser determinantes para a prevalência da obesidade. Até então se achava que o exercício físico aumentaria o gasto energético e que, apenas por isso, provocaria a diminuição do peso.

"O papel do exercício pode ir além da simples queima de calorias. Pode causar uma melhora no sistema nervoso, controlando a saciedade e diminuindo o apetite. Em outras palavras, é possível que a atividade física controle o outro lado da balança", disse Ropelle.

"O estudo sobre a atividade física está dentro da discussão da minha pesquisa - que trata do controle da ingestão alimentar -, mas no caminho inverso porque no doutorado abordo a anorexia promovida por pacientes com câncer", explicou, ao destacar a contribuição do seu orientador José Barreto Campello Carvalheira, também da Faculdade de Ciências Médicas da Unicamp.

Ação de hormônios

A base do trabalho envolve dados sobre a ação de certos hormônios, como a insulina e a leptina, sobre o cérebro. O sistema nervoso central é considerado a "caixa preta" do controle energético.

O hipotálamo (que entre outras funções controla a temperatura corporal) é a principal estrutura do cérebro responsável pelo controle da ingestão alimentar. Segundo Ropelle, várias evidências indicam que dietas ricas em ácidos graxos saturados causam problemas na transmissão de alguns hormônios, como insulina e leptina, no sistema nervoso central.

"Esses hormônios controlam a saciedade e, à medida que a pessoa ingere gordura em excesso, essa sinalização é perdida. Assim, alguns fenômenos intracelulares acontecem impedindo a ação hormonal", explicou.

Até agora se estimava que o gasto energético provocado pela atividade física seria a principal arma para combater e tratar a obesidade. "O que propomos é que, além de promover o gasto energético, o exercício físico também é capaz de modular esses hormônios no sistema nervoso central", disse. A atividade física seria capaz de reverter esse fenômeno, possibilitando que o paciente volte a ter a transmissão do sinal para a saciedade.

Comer mais aumenta a fome

Nos testes feitos com animais obesos, submetidos a uma dieta rica em gordura, os hormônios perderam a capacidade de regular o apetite, ou seja, a obesidade envolveria um círculo vicioso comportamental: quanto mais se come, mais se quer comer.

A atividade fez com que a sinalização do apetite no cérebro dos animais voltasse a níveis normais. Esse efeito durou de 12 a 16 horas. "Observamos que animais obesos submetidos à atividade física voltam a comer na mesma proporção que o animal magro. À medida que ele faz o exercício, parece que ele volta a entender a hora de parar, voltando a comer nos níveis considerados normais", destacou.

Testes em humanos

A pesquisa é inteiramente experimental e não foi testada em humanos. Algumas evidências, de acordo com o autor, mostram que em seres humanos o exercício físico é capaz de alterar o comportamento alimentar, mas a avaliação é mais complexa.

"É muito difícil acompanhar e colocar um valor numérico no caso de testes em humanos, porque, ao colocar alguém para fazer atividade física e dizer a ele que vai controlar a ingestão alimentar, tira-se a condição natural. No animal, fica mais fácil e é um bom modelo metabólico de obesidade induzida por dieta", disse.

Interleucina

A explicação para a redução da ingestão alimentar e do peso corporal nos roedores submetidos à atividade física pode ser atribuída à interleucina-6, uma molécula produzida no hipotálamo em resposta ao exercício.

De acordo com o estudo, o animal que faz exercício tem o nível de interleucina-6 aumentado no tecido hipotalâmico, sendo ela responsável por melhorar a sensibilidade de insulina e leptina.

"Sabe-se que o prejuízo causado pela dieta na sinalização desses hormônios é mediado por um processo inflamatório. E a interleucina-6 é capaz de aumentar a expressão de uma outra proteína, a interleucina-10, sendo que, essa sim, tem uma atividade antiinflamatória", disse Ropelle.

Segundo o pesquisador, a atividade física pode ser benéfica para o "apetite dos obesos". Haveria uma espécie de equilíbrio dinâmico para evitar tanto o acúmulo excessivo de energia quanto o gasto excessivo.

Técnica evita defeitos de DNA da mãe com transferência do núcleo do óvulo

Cientistas anunciaram nesta quarta-feira (26) um procedimento experimental que previne que o feto herde de sua mãe enfermidades originadas em falhas no DNA das mitocôndrias, as “baterias” das células. A prova do sucesso foi o nascimento de quatro macacos-resos (Macaca mulatta), saudáveis. Dois deles, batizados Mito e Tracker, aparecem na foto.

A tecnologia consiste em transferir material genético do núcleo de um óvulo para outro (cujo núcleo foi previamente removido) deixando para trás o DNA mitocondrial da célula de origem – e com ele todas as mutações que desembocam em doenças como diabetes tipo 2. O “óvulo oco”, evidentemente, tem mitocôndrias saudáveis.

(Ao menos 1 em cada 200 nascimentos apresentam uma mutação mitocondrial potencialmente patogênica.)

Os óvulos foram então fertilizados com esperma (pais não passam mitocôndrias adiante) e implantados em macacas que produziram 4 crias. Detalhe: as crias ficaram com DNA distintos, o do núcleo e o da mitocôndria, um de cada mamãe.

Por isso mesmo, e como não poderia deixar de ser, o procedimento suscita debates éticos. Além de importantes pendências de segurança que precisa superar (os DNA’s do núcleo e o mitocondrial, sendo de origens distintas, podem não ser compatíveis), a técnica altera o DNA herdado pelas futuras gerações, o que certamente dá pano para manga de infindáveis polêmicas.

O autor do estudo, Shoukhrat Mitalipov, do Oregon National Primate Research Center, nos EUA, avalia que o procedimento poderá ser testado em humanos, se tudo correr bem, em dois anos. No anúncio do experimento, o site da revista especializada “Nature” qualifica o feito como “um aprimoramento crucial das técnicas de transferência de DNA existentes”.

Fonte: G1