sábado, 29 de maio de 2010

Você sabe se proteger em redes Wi-Fi?

Após a Google noticiar publicamente que recolheu, por "acidente", informações de redes Wi-Fi, quem se acha expert em tecnologia pode estar tentado a zombar dos "ingênuos" que usam redes sem fio desprotegidas. Na verdade, provavelmente, é até justo dizer que as vítimas deveriam ter mais conhecimento sobre o uso de uma rede wireless, no entanto não fique muito convencido disso. Afinal de contas, talvez você não seja tão experiente como pensa.

Você já usou um acesso público Wi-Fi, talvez, para disparar um e-mail rápido ou alguma outra tarefa relacionada ao trabalho. Mas você se preocupou em tomar todas as precauções de segurança? Muito provavelmente, a resposta é "não", mesmo que você saiba os riscos.

No entanto, mesmo que você esteja trabalhando de um cofee-shop com rede Wi-Fi protegida , ainda assim você ainda não está seguro. Por que? Porque outros internautas também estão usando a mesma rede e senha que você, se quiserem, eles podem acompanhar todo o seu tráfego na web.

Dicas rápidas

Para impedir terceiros de acessar o seu e-mail, use um serviço que tenha HTTPS (uma conexão criptografada). Isto é importante porque quase todos os sistemas de Webmail, com excepção do Gmail e, provavelmente, o seu email do trabalho, usem HTTPS somente para logins, uma prática que prejudica a segurança.

Se sua empresa fornece uma rede virtual privada (VPN), certifique-se de que ela está em uso enquanto você acessa uma rede Wi-Fi pública.

Ainda assim, mesmo com essas precauções, você nunca está 100% seguro.

Uma recente pesquisa universitária mostrou que espiões, em breve, serão capazes de usar um programa de malware chamado "bugbot" para "sequestrar o seu celular" e ouvir as suas conversas com o uso de um notebook ou um telefone celular nas proximidades. No entanto o uso de malwares em celulares ainda é relativamente raro, mas está crescendo rapidamente.

Continuação do caso "Google Street View"

A continuação da saga do Google Street View e toda a discussão que foi gerada sobre ele, aparentemente, não terminará tão cedo. Funcionários do governo tanto da Europa como dos Estados Unidos estão pressionando a Google para obter mais detalhes sobre como a companhia conseguiu reunir dados pessoais de redes Wi-Fi, que não estavam protegidos por senha.

A Google, no dia 17 de maio, em uma postagem em seu blog, chamou o caso de acidente. Apesar de admitir a falha, uma corte distrital em Portland, Oregon, requisitou, na segunda-feira (24/5), duas cópias dos dados coletados nos Estados Unidos.

Pelo menos outras quatro ações judiciais na Califórnia, Massachusetts, Oregon e Washington foram apresentadas acusando a companhia de violação de privacidade, relatou a Reuters.

Fonte: IDG Now!

E-mail que oferece teste do Office 2010 traz vírus

A empresa de segurança Bit Defender notificou aos internautas que fiquem atentos a e-mail intitulado "See Office 2010 Beta in action”, em português como “Veja o Office 2010 em ação”, capaz de infectar o usuário com códigos maliciosos.

O e-mail contém um arquivo em anexo, em formato zip, com o que seria uma possível chave de licenciamento de ativação do pacote de aplicativos de escritório da Microsoft. Ao realizar o download, o arquivo, executável, traz um malware chamado Trojan.Downloader.Delf.RUJ, que pode afetar o sistema operacional da máquina.

Um vez no PC, o arquivo abre um canal de entrada para adwares e spywares, gerando anúncios no formato pop-up. O próximo passo da infecção é se conectar ao endereço de IP, realizando download de diferentes arquivos, entre eles, dados pessoais dos usuários, como logins e senhas, incluindo aí informações bancárias e de cartões de crédito.
Ainda não existe uma estimativa de quantos computadores podem ter sido infectados pelo vírus. Por enquanto , a versão do Office 2010 está disponível para testes somente para empresas. Até o fechamento desta reportagem, a Microsoft ainda não havia se pronunciado sobre o assunto.

Fonte: IDG Now!

Pele de tubarão vira tinta para revestir aviões e geradores eólicos

Um grupo de cientistas alemães anunciou recentemente estar tentando copiar o truque de uma samambaia para manter-se seca para criar um revestimento biônico para navios, ajudando-os a economizar até 1% de todo o combustível fóssil consumido no planeta.

Mas seus colegas do Instituto Fraunhofer, também na Alemanha, acreditam que os tubarões são uma aposta com melhores possibilidades de ganhos a curto prazo.

Escamas de tubarões

De olho não apenas nos navios, mas principalmente nos aviões e nas turbinas eólicas, os pesquisadores criaram um novo sistema de pintura que imita a pele dos tubarões, diminuindo a resistência ao arrasto - do ar ou da água - e, por decorrência, fazendo-os gastar menos combustível ou gerar mais eletricidade.

A inspiração para a criação da nova tinta veio das escamas dos tubarões. Essas escamas, que evoluíram ao longo de milhões de anos para permitir que o animal nade muito rápido, diminuem a resistência contra o fluxo de um fluido.

No caso dos tubarões, o fluido é obviamente a água. Mas a solução também funciona para o ar, permitindo que a tinta anti-arrasto possa ser aplicada aos aviões e pás dos geradores eólicos.

Nanopartículas

O maior desafio enfrentado pela equipe da Dra. Yvonne Wilke foi aprimorar o sistema de revestimento para que ele pudesse resistir às altas velocidades, à intensa radiação ultravioleta e às flutuações de temperatura - de -55 a +70 graus Celsius - a que os aviões estão sujeitos rotineiramente.

A principal parte da receita da nova tinta são nanopartículas especialmente desenvolvidas pela Dra. Wilke e seus colegas Volkmar Stenzel e Manfred Peschka.

As nanopartículas dão à tinta as suas características de resistência à radiação ultravioleta, às variações de temperatura e à carga a que está submetida toda a superfície do avião ou do navio.

Pintura com estêncil

"Nossa solução consiste não em aplicar a tinta diretamente, mas através de um estêncil," afirma Peschka. Segundo o pesquisador, é isto que dá ao revestimento sua estrutura parecida com a pele de tubarão.

O segredo da técnica está em aplicar a tinta líquida de forma totalmente uniforme, em uma fina camada sobre o estêncil e, ao mesmo tempo garantir que o estêncil possa ser novamente retirado.

A dificuldade reside em que é necessário a aplicação de radiação ultravioleta para que o revestimento seque e endureça. Mas os pesquisadores afirmam ter vencido esta etapa.

Eles também testaram o revestimento em navios, obtendo um ganho de 5% na redução do atrito. Mas as algas e cracas que grudam no casco dos navios representam um desafio à parte e os cientistas ainda estão trabalhando em busca da melhor solução para esse problema.

Rotores eólicos

Segundo os cálculos dos cientistas, se todos os aviões em uso hoje recebessem a nova tinta, isto resultaria em uma economia anual de 4,48 milhões de toneladas de combustível.

Além da economia de combustível, existem aplicações ainda mais interessantes - por exemplo, nas fazendas de energia eólica.

A resistência do ar tem um efeito negativo sobre as pás do rotor. A nova pintura poderá melhorar o grau de eficiência dos geradores eólicos e, portanto, aumentar sua capacidade de geração de energia.

Transistor de sete átomos avança rumo ao computador quântico

Cientistas australianos deram um verdadeiro mergulho na corrida pelo encolhimento dos transistores, os blocos básicos com que são feitos os computadores.

Eles construíram um transístor com as menores dimensões já alcançadas para esse tipo de construção, alcançando meros 4 nanômetros de comprimento.

A maior parte da indústria trabalha hoje na faixa dos 45 nanômetros, com alguns poucos chips sendo feitos na faixa dos 32 nanômetros. A grande meta atual é alcançar os 25 nanômetros.

Nanotransístor de silício

Embora já tenham sido demonstrados transistores verdadeiramente moleculares, transistores ópticos baseados em moléculas e até mesmo um transístor atômico, o nanotransístor agora criado foi feito de silício, o mesmo material hoje utilizado pela indústria de semicondutores.

O componente foi construído alinhando os átomos de fósforo, um por um, sobre um cristal único de silício.

O nanotransístor tem apenas 7 átomos de comprimento. Para comparação, um transístor de "último tipo", construído com a tecnologia de 25 nanômetros, tem cerca de 42 átomos de comprimento.

Isto coloca o nanotransístor na categoria dos pontos quânticos, elementos de grande interesse principalmente na área da computação quântica.

O componente pode ser usado para regular e controlar o fluxo de corrente elétrica exatamente como um transístor tradicional de silício, representando um passo importante rumo à miniaturização em escala atômica, quando os componentes serão feitos átomo por átomo, ou "de baixo para cima".

Só em laboratório

Mas exatamente o que representa sua grande vantagem - uma miniaturização com potencial para criar processadores super rápidos - é também sua fraqueza - pelo menos por enquanto e tendo-se em vista a aplicação na fabricação dos processadores normais.

É que o nanotransístor foi construído movendo os átomos de fósforo um por um, utilizando um microscópio de tunelamento - uma abordagem que não pode ser levada para o ambiente industrial por ser lenta demais.

Computador definitivo

Por outro lado, tendo-se em vista sua aplicação na computação quântica, o nanotransístor representa um passo importante para a fabricação desses computadores futuristas em estado sólido, usando o silício em vez dos átomos artificiais super frios.

"A significância desse resultado é que nós não estamos simplesmente movendo átomos para lá e para cá e olhando-os pelo microscópio," diz a Dra. Michelle Simmons, coordenadora da pesquisa. "Nós estamos manipulando átomos individuais e colocando-os com precisão atômica, construindo um componente eletrônico funcional."

"Esta é uma conquista tecnológica imensa, e é um passo crítico para demonstrar que é possível construir o 'computador definitivo' - um computador quântico de silício," diz Simmons.

Máquina de algodão-doce high-tech leva nanofibras para a indústria

Com um conceito que pode ser classificado em algum lugar entre uma máquina de algodão-doce e uma centrífuga de alta rotação, engenheiros da Universidade de Harvard, nos Estados Unidos, criaram uma nova tecnologia capaz de fabricar nanofibras com alta produtividade.

Nanofibras

As nanofibras - fibras com dimensões de alguns nanômetros - têm o potencial para servir de matéria-prima para a produção de materiais muito mais fortes e resistentes, bem como de tecidos biológicos.

Mas tecê-las em dimensões úteis era um desafio até hoje sem solução.

Exatamente como uma máquina de algodão-doce "reconstrói" os grãos de açúcar, fazendo-os formar fibras, o novo equipamento rotativo retorce e une as fibras individuais de polímeros, cada uma medindo cerca de 100 nanômetros de diâmetro.

Nanotecnologia na indústria

Segundo Mohammad Badrossamay, coordenador da pesquisa, o equipamento poderá marcar um verdadeiro boom na utilização da nanotecnologia na indústria, com aplicações potenciais que vão da construção de órgãos artificiais e o desenvolvimento de tecidos para implantes, até a fabricação de filtros de ar mais eficazes e até de roupas mais leves e mais resistentes.

"Nossa técnica será muito útil na indústria, já que máquinas simples poderão facilmente permitir a fabricação de nanofibras em qualquer laboratório. De fato, com esta técnica nós alcançamos o objetivo final de fabricar nanotêxteis," diz Kevin Parker, coautor da pesquisa.

Eletrofiação

Hoje o método mais usado para a fabricação de nanofibras é a eletrofiação, que consiste em dirigir uma alta tensão elétrica sobre gotas de polímero líquido para arrancar filamentos em nanoescala.

Apesar de eficaz, a eletrofiação não permite controle sobre o processo de fabricação, além de sua produtividade ser baixa demais para aplicações industriais.

Fabricação de nanofibras

Ao girar no interior da nova centrífuga, o polímero se estica de forma muito parecida com o açúcar derretido que começa a secar e se transformar em finíssimos fios, parecidos com seda.

Como na máquina de algodão-doce, as nanofibras são extrudados através de um bocal por uma combinação de pressões hidrostática e centrífuga. O resultado são fibras padronizadas em nanoescala, mas que atingem até 10 centímetros de diâmetro.

Mais importante, a técnica possibilita um alto grau de flexibilidade na produção, já que o diâmetro das fibras pode ser facilmente manipulado e as estruturas resultantes podem ser integradas em uma estrutura tridimensional, ou em qualquer outro formato, simplesmente variando a forma como a fibras são coletadas.

Mistérios geológicos de Marte ganham nova explicação

Um mistério de quase 40 anos em Marte pode agora estar sendo resolvido. Cientistas conseguiram reconstruir a formação de duas características inusitadas no polo norte do planeta: uma série de espirais e um abismo maior do que o Grand Canyon.

Gelo empoeirado

Em dois artigos publicados na edição desta quinta-feira da revista Nature, John Holt e seus colegas da Universidade do Texas descrevem como usaram dados obtidos pela sonda Mars Reconnaissance Orbiter, da Nasa, a agência espacial norte-americana, para desvendar a composição da camada de gelo no norte marciano.

Na Terra, os mantos são formados principalmente pelo fluxo de gelo, mas em Marte, segundo a nova pesquisa, outras forças têm moldado as calotas. A calota ao norte é uma pilha de gelo e camadas de poeira com até 3 quilômetros de profundidade, que cobre uma área maior do que a do Estado de Minas Gerais.

Ao analisar em computador os dados de radar colhidos pela sonda, os pesquisadores puderam, como se estivessem retirando as camadas de uma cebola, verificar como a cobertura de gelo evoluiu com o tempo.

Grand Canyon de Marte

Uma das partes mais notáveis no polo norte marciano é a Chasma Boreale, uma depressão tão extensa como o Grand Canyon norte-americano, mas mais profundo.

Desde que foi descoberta, em 1972, cientistas estimavam que a depressão teria sido formada a partir do derretimento do fundo do manto de gelo pelo calor vulcânico. Mas o novo estudo indica que tanto a Chasma Boreale como as espirais foram criadas principalmente pela ação de fortes ventos, durante milhões de anos.

Camadas complexas

A nova pesquisa aponta também que a calota de gelo no norte marciano não é composta por muitas camadas relativamente planas, mas que conta com características mais complexas, entre as quais camadas com espessura e orientação diferentes ou camadas que simplesmente desaparecem em alguns pontos.

"Não se sabia da existência de uma estrutura de camadas tão complexa, que registram a história de acúmulo de gelo, erosão e ação do vento. A partir de agora, poderemos recuperar uma história detalhada do clima em Marte", disse Holt.

Redescoberta

Em 1982, Alan Howard, da Universidade da Virgínia, propôs em um artigo que as misteriosas espirais teriam sido formadas pela ação do vento, mas o trabalho foi ignorado pela comunidade científica, que bancava a hipótese da origem vulcânica. O novo estudo mostra que Howard estava certo.

Segundo Holt e colegas, a formação em espiral deriva dos ventos existentes na região, formados por ar denso e relativamente frio que circula a partir dos polos e por sobre as calotas.

A ação do vento é afetada pela força de Coriolis, perpendicular ao sentido do movimento do planeta. Na Terra, isso leva à formação de furacões, que giram em direções opostas nos hemisférios. Em Marte, essa força influencia nos ventos e nas depressões criadas, que assumem a forma de espirais.

Conferência aponta desafios para a ciência brasileira

Pesquisadores reunidos na 4ª Conferência Nacional de Ciência, Tecnologia e Inovação (CNCTI), em Brasília, apresentaram, nesta quinta-feira (27/5), um diagnóstico dos principais desafios para a ciência no país.

Produção acadêmica

Apoio à ciência fundamental, retomada das altas taxas de formação de doutores, aumento do impacto internacional e investimentos focados nos centros de excelência estão entre os tópicos destacados pelos participantes da plenária "A ciência básica e produção do conhecimento: um desafio para o Brasil". A conferência se encerra nesta sexta-feira (28/5).

De acordo com Carlos Henrique de Brito Cruz, diretor científico da FAPESP, um dos conferencistas, o Brasil tem ficado ano após ano, desde o início da década de 1990, entre os quatro países com maior crescimento em número de artigos científicos publicados. Em termos qualitativos, também houve progressos importantes, com artigos de pesquisadores brasileiros tendo cada vez mais destaque em importantes revistas internacionais.

"A ciência nacional tem experimentado uma ascensão vigorosa em quantidade e qualidade. Um dos nossos desafios, nesse contexto, é a questão do impacto dessa ciência produzida no Brasil. A evolução do número de citações é crescente, mas ainda está abaixo da média mundial", destacou.

Doutores brasileiros

Outro desafio, segundo Brito Cruz, é retomar o aumento na taxa de crescimento da formação de doutores. Até 2003, o número de doutores formados crescia cerca de 18% anualmente. Desde então, passou a crescer a aproximadamente 5% ao ano.

"Os números mostram que existe alguma restrição importante operando no sistema brasileiro, 'puxando o freio de mão' da formação de doutores. É preciso multiplicar por três o número de pesquisadores para o Brasil atingir patamares semelhantes ao da Espanha, por exemplo", afirmou.

Sabedoria para a humanidade

Brito Cruz destacou também o desafio de apoiar a ciência fundamental. Segundo ele, o mundo vive um momento excessivamente utilitarista e há uma pressão para que as pesquisas sirvam para fazer as empresas mais competitivas, curar doentes ou gerar riquezas. No entanto, é preciso valorizar a ciência que tem a função de tornar a humanidade mais sábia.

"Não se pode privilegiar uma vertente. É preciso ter as duas coisas. A FAPESP tem uma excelente experiência nesse sentido, oferecendo formas de apoio voltadas para projetos ousados que necessitam de cinco anos ou mais para serem realizados. A ciência básica, por não ser utilitarista, eventualmente pode precisar de prazos mais longos, especialmente em certas áreas", explicou.

Brito Cruz defendeu que a pesquisa básica receba apoio institucional. "Se o Brasil quer ter uma ciência competitiva, as instituições precisam dar ao pesquisador apoio semelhante ao oferecido pelos concorrentes. O cientista deve se preocupar em fazer ciência, não em fazer prestação de contas, ou buscar visitantes no aeroporto", disse, sob aplausos do auditório lotado.

Recursos pulverizados

Sergio Danilo Junho Pena, professor da Universidade Federal de Minas Gerais (UFMG), destacou que o Brasil chegou ao 13º lugar em número de publicações - tendo ultrapassado recentemente a Holanda e a Rússia -, mas está apenas em 24º no ranking de citações. Segundo ele, vários fatores explicam o descompasso entre a força da ciência nacional e sua influência no cenário internacional.

"Um desses fatores é que a nossa pesquisa está baseada na pós-graduação. O aluno precisa partir de um projeto, com um fim já em mente e com um prazo imposto para terminar. A pesquisa resultante é muito conservadora, desprovida de inovação", disse.

Além disso, segundo Pena, outro desafio a ser enfrentado é a pulverização de recursos. "Há uma tentativa de tentar forçar o investimento pulverizado para privilegiar estados com menos recursos. Mas o correto seria investir onde já há excelência, para evoluir mais ainda no conjunto", defendeu.

Demanda criacionista

Outro desafio a ser enfrentado seria repensar o tipo de demanda feito pelas agências de fomento, que exigem projetos com começo, meio e fim perceptíveis para os avaliadores.

"Chamo isso de demanda criacionista, porque parte do pressuposto de que a ciência tem um 'design inteligente'. A metodologia da ciência não é um desenho, ela ocorre naturalmente, por seleção natural de ideias. Precisamos ser evolucionistas nesse sentido", disse.

Pena citou o cientista Linus Pauling, que dava a receita para a concepção de boas ideias: ter muitas ideias e jogar fora as ruins.

"Para identificar as ideias ruins, é preciso ter experimentação e, para isso, é preciso ter recursos. Na pesquisa de risco, é preciso apostar de vez em quando em ideias inovadoras e não apenas naquilo que já se mostra bom a priori. A solução adequada seria voltar o foco, pelo menos em alguns casos, para a trajetória do pesquisador e não exclusivamente para o projeto", disse.

Presença internacional da ciência brasileira

Jacob Palis, presidente da Academia Brasileira de Ciências (ABC), chamou a atenção para a contribuição das fundações de amparo à pesquisa (FAPs) para a ascensão da ciência brasileira. "As FAPs atuam em conjunto e apresentam várias propostas de políticas públicas envolvendo órgãos da esfera federal", disse.

Para Palis, o maior desafio será multiplicar por três, até 2020, o contingente de pessoal envolvido com ciência, de técnicos de laboratório a doutores. "Temos que acelerar esse processo sem perder qualidade. Isso exigirá um esforço muito grande da comunidade científica e empresarial. Será preciso aumentar os investimentos em ciência para atingir, em dez anos, um patamar de cerca de 2% do PIB", afirmou.

Segundo Palis, a presença internacional da ciência brasileira aumenta continuamente e o país passou a atuar em instâncias como o G8+5 de Academias de Ciência, o Fórum Internacional de Ciência e Tecnologia para a Sociedade (STS Forum), a Academia de Ciências para o Mundo em Desenvolvimento (TWAS), o International Council for Sciences (ICSJU), a Rede Interamericana de Academias de Ciências (Ianas), o Interacademy Panel e o Interacademy Council.

"Possivelmente, em 2013 também estaremos no Fórum Mundial de Ciências. A cooperação internacional é vital para o nosso avanço científico", disse.

Redesenho institucional e conceitual

Segundo Jailson Bittencourt de Andrade, do Instituto de Química da Universidade Federal da Bahia, no fim do século 20 as fronteiras entre as várias disciplinas foram apagadas, especialmente nos casos da química, biologia, física e matemática. Os principais desafios científicos, segundo ele, estão nessas fronteiras e não mais nos núcleos duros das disciplinas.

"O grande desafio é fazer um redesenho institucional e conceitual do sistema de pesquisa. Do lado conceitual, o foco não deve ser mais as disciplinas. Do lado institucional, é preciso repensar os departamentos que formam as universidades e, hoje, estão em sua maior parte obsoletos, formando barreiras à interdisciplinaridade", disse.

Segundo Andrade, a agenda do século 21 envolve a sustentabilidade e a inovação, em um contexto no qual os sistemas de energia, água, meio ambiente e alimentos estão integrados.

"Essa agenda implica uma visão sistêmica e conectada entre ciência básica e tecnológica. Nessa agenda, é preciso educar para inovar e inovar para educar", defendeu.

quinta-feira, 27 de maio de 2010

Inovação tecnológica é a única rota para desenvolvimento sustentável

Se o Brasil quiser construir um novo projeto de desenvolvimento sustentável para a Amazônia, para a indústria, para a agricultura e para os próprios padrões culturais da sociedade, em todos os casos, a inovação deverá ser o eixo central da transformação.

A análise foi feita pelos participantes da plenária de abertura da 4ª Conferência Nacional de Ciência, Tecnologia e Inovação (CNCTI), que começou nesta quarta-feira (26/5), em Brasília.

Com o tema "Política de Estado para Ciência, Tecnologia e Inovação com vistas ao desenvolvimento sustentável", o evento reúne milhares de participantes até a sexta-feira (28/5).

A plenária de abertura discutiu o eixo central da reunião: como o avanço do conhecimento e da inovação pode se tornar o vetor fundamental do desenvolvimento econômico com preservação dos ativos ambientais e melhoria na qualidade de vida.

Desenvolvimento sustentável da Amazônia

De acordo com Bertha Becker, professora emérita da Universidade Federal do Rio de Janeiro (UFRJ), a Amazônia - área estratégica para o país e modelo por excelência para o estudo dos conflitos entre preservação ambiental e crescimento econômico - tem hoje duas propostas de projetos de desenvolvimento sustentável.

"Um desses projetos, que está associado às mudanças climáticas, tem predominado. Sua prioridade é evitar a emissão de gases de efeito estufa e implementar o mercado de carbono. Esse projeto defende a preservação da floresta em pé, financiando a renúncia ao desmatamento. É uma ideia que parece sedutora, mas questiono fortemente esse projeto, pois ele mantém a floresta improdutiva. É basicamente um projeto de compensação para países desenvolvidos que poderão continuar sendo os maiores emissores", disse.

O outro projeto, segundo a pesquisadora, entende o desenvolvimento sustentável como um novo padrão de desenvolvimento baseado na ciência, na tecnologia e na inovação.

"O desafio, nesse caso, é utilizar os recursos naturais sem destruí-los, gerando emprego e renda para os milhões de habitantes da região. Para isso, vamos ter que mudar o padrão de desenvolvimento da Amazônia. Só conseguiremos isso com políticas públicas e imensos investimentos em ciência e inovação", destacou.

Papel dos cientistas

Segundo Bertha, na atualidade o papel dos cientistas se tornou mais complexo: além de pesquisar, descobrir, inovar e implementar técnicas avançadas, o cientista contemporâneo precisa esclarecer a sociedade sobre as rápidas transformações no mundo.

"Caberá à sociedade acarear esses dois projetos e essa acareação deverá levar em conta o extraordinário valor da Amazônia. Os cientistas precisam deixar isso claro", disse.

Base educacional da sociedade

De acordo com o coordenador da plenária de abertura, Luiz Gonzaga de Mello Belluzzo, professor titular da Universidade Estadual de Campinas (Unicamp), a ciência e a inovação têm uma missão ainda maior que o estabelecimento de uma economia sustentável. Será preciso contribuir com a construção de um novo modelo de sociedade.

"Nos últimos anos, o sistema financeiro se tornou uma finalidade em si e desvirtuou os investimentos em tecnologia. Tivemos uma concentração do risco e, mesmo tendo avaliações prévias de que haveria um colapso financeiro, não fomos capazes de impedi-lo. Não estamos diante de uma mera crise financeira: uma análise mais profunda revela uma crise do padrão de convivência da sociedade contemporânea", afirmou.

Segundo o também professor das Faculdades de Campinas, a crise estrutural do modelo construído nos últimos 60 anos e radicalizado na década de 1980 gerou ao mesmo tempo uma escalada do consumo e da desigualdade.

"O Brasil é quase uma exceção, já que conseguiu fazer o mínimo para reduzir a desigualdade. Mas estou assustado com a degradação cultural da sociedade. Basta olhar os fóruns na internet para ter noção do grau de isolamento e agressividade das pessoas que se manifestam anonimamente. Isso não está dissociado do meio ambiente - esse comportamento faz parte de um padrão civilizatório que precisa ser mudado", afirmou.

Para pensar em inovação e desenvolvimento, segundo Belluzzo, será preciso cuidar do aperfeiçoamento cultural dos brasileiros e da inclusão social e cultural dos jovens da periferia.

"Estamos, aqui falando de inovação, mas é preciso destacar que a inovação precisa começar pela base cultural e educacional", disse, sob aplausos da grande plateia presente.

Recursos naturais

Segundo Pedro Luiz Barreiros Passos, presidente do Instituto de Educação e Inovação (Iedi), a economia do Brasil vive um bom momento, mas ainda está baseada em exportação de recursos naturais, em vez de produtos manufaturados com alto valor agregado.

"Enfrentamos a crise financeira com muita inteligência, mas, além do rico patrimônio natural, social e cultural, precisamos criar elementos para a exploração das vantagens comparativas do país, seja energia renovável, a forte produção agrícola ou uma nova cadeia como a do pré-sal", disse.

De acordo com Passos, além dos recursos naturais o Brasil tem vantagens de curto prazo, como a janela demográfica, que permitirá ao país ter uma população economicamente ativa relevante, formando em pouco tempo imensa força de trabalho e um novo mercado interno.

"Temos a oportunidade de fazer uma transição para uma economia de baixo carbono, com aumento da eficiência energética e do transporte. Para isso, os padrões do uso de transportes terão que mudar, de forma associada aos investimentos nas tecnologias de bioenergia, novos materiais e processos produtivos. Mas temos que ser ambiciosos e buscar a liderança mundial em bioenergia, química verde, alimentos sustentáveis e outras áreas que são nossa vocação", disse.

Revolução verde

José Geraldo Eugênio de França, da Empresa Brasileira de Pesquisa Agropecuária, destacou que o Brasil passou por uma revolução verde e, hoje, a agricultura representa quase um terço da economia do país, empregando 40% da população.

O país, segundo ele, tem um dos mais baixos preços de alimentos do mundo. Mas a ambição deve ser levada mais longe, pois há potencial para se tornar o primeiro produtor mundial de alimentos.

"Já estamos na terceira colocação, tendo ultrapassado o Canadá recentemente. A grande questão é chegar a esse objetivo adotando o princípio do respeito ao meio ambiente e à sustentabilidade. Estamos convencidos de que podemos fazer isso", afirmou.

Segundo França, os pesquisadores são responsáveis pelo redesenho de uma nova agricultura menos dependente dos insumos, com maior produtividade baseada na biotecnologia e na nanotecnologia.

"Hoje, temos 8 milhões de hectares de cana-de-açúcar que não empregam inseticidas e 22,5 milhões de hectares de soja com uso de bactérias no lugar do nitrogênio mineral. Assim como a China escolheu ser a fábrica do mundo, podemos nos tornar o grande produtor de alimentos, matérias-primas e biocombustíveis. Mas não há como fazer isso sem muita ciência e sustentabilidade", disse.

Medição de partículas brownianas revela erro de Einstein

Em 1905, Albert Einstein não publicou apenas a sua Teoria da Relatividade Restrita.

Em um artigo que já bastaria para tê-lo colocado na história da física, ele estudou o chamado movimento Browniano, afirmando ser impossível observar a velocidade instantânea de partículas muito pequenas porque elas se agitam e vibram o tempo todo.

Mas uma equipe de cientistas da Universidade do Texas, nos Estados Unidos, afirma ter provado que Einstein estava errado nessa afirmação - não em sua teoria, mas em sua afirmação de que o experimento não poderia ser realizado.

Aparentemente, Einstein era melhor físico do que profeta.

Medição do movimento Browniano

"Esta é a primeira observação da velocidade instantânea de uma partícula Browniana," afirma Mark Raizen, coordenador da equipe. "Era uma previsão de Einstein que se manteve sem verificação por 100 anos. Ele propôs um teste para observar a velocidade em 1907, mas afirmou que o experimento não poderia ser realizado."

Certamente isso era verdade em 1907. Vale lembrar que as suas teorias já eram inovadoras e bem fundamentadas o bastante para fazer com que os físicos aceitassem definitivamente a existência de átomos e moléculas, algo extremamente controverso na época.

Se propor que essas partículas poderiam ser observadas diretamente no futuro já poderia ser considerado algo próximo a uma alucinação - os céticos da época eram muito tenazes em suas oposições - Einstein teria sido definitivamente internado em um sanatório se tivesse dito que partículas de vidro um dia poderiam ser presas e suspensas no ar por pinças ópticas.

Mas foi justamente isso o que os pesquisadores fizeram agora.

Levitação de partículas

Usando dois feixes de laser para segurar as partículas no ar, os cientistas usaram uma placa - um transdutor - para gerar vibrações ultrassônicas e sacudi-las de forma aleatória e em alta velocidade, simulando a vibração das moléculas.

O ar é um meio menos denso do que um líquido, o que torna as colisões entre as partículas menos frequentes e, portanto, suas variações de direção demoram mais para ocorrer.

Isso permitiu que as variações impostas pelo movimento da partícula na luz do laser pudessem ser medidas com precisão a cada 5 microssegundos.

Teorema da Equipartição

As medições foram suficientes para demonstrar que o chamado Teorema da Equipartição permanece válido para a previsão do movimento browniano de uma partícula. Este teorema é um dos fundamentos básicos da chamada mecânica estatística.

Em seu trabalho de 1907, Einstein previu que a energia cinética de uma partícula é proporcional à temperatura do seu meio - o Teorema da Equipartição - e não de sua massa ou tamanho.

Foi a verificação experimental dessa ideia que ele afirmou ser "impossível", porque o número imenso de colisões que as partículas brownianas sofrem faz com que sua direção e velocidade mudem rápido demais.

Novos problemas e novas soluções

Os cientistas afirmam que o experimento abre o caminho para que as partículas em movimento possam ser levadas até próximo ao seu estado quântico, que poderá ser observado diretamente.

"Nós agora observamos a velocidade instantânea de uma partícula Browniana," diz Raizen. "Em certo sentido, estamos fechando uma porta sobre esse problema na física. Mas nós estamos de fato abrindo uma outra porta muito mais larga para futuros testes do Teorema da Equipartição em nível quântico."

O cientista acredita que, no nível quântico, o Teorema da Equipartição falhará, levando a novos problemas e à busca de outras soluções para a mecânica quântica das partículas muito pequenas, mas compostas de muitos átomos.

"Microlente" dispensa a lente para amplificar sinais

Pesquisadores do Instituto Politécnico Rensselaer, nos Estados Unidos, desenvolveram um novo tipo de microlente - sem lente...

O dispositivo, construído em escala nanoscópica, concentra os feixes de luz em minúsculos furos, com potencial para criar uma nova geração de dispositivos de visão noturna e de câmeras de satélite com uma resolução inalcançável com a tecnologia atual.

Sensores de infravermelho

Usando as propriedades únicas de nanopartículas de ouro para "espremer" a luz e forçá-la através de minúsculos furos na superfície de uma placa de silício, os pesquisadores afirmam ser possível melhorar a sensibilidade dos sensores de infravermelho atuais em até 20 vezes.

Esta é a primeira demonstração em mais de uma década de uma melhoria no sinal de um detector infravermelho que não eleva também o ruído gerado.

"As imagens em infravermelho estão entre as grandes prioridades atuais, já que satélites com uma tecnologia mais avançada de imageamento em infravermelho podem ser úteis desde a prevenção do desmatamento até a segurança e o monitoramento climático," afirma Shawn-Yu Lin, coordenador da equipe.

"Nós demonstramos que se pode usar nanopartículas de ouro para focalizar a luz que entra no detector infravermelho, que por sua vez aumenta a absorção de fótons e também aumenta a capacidade dos pontos quânticos usados para converter esses fótons em elétrons. Este tipo de comportamento nunca havia sido visto antes," disse ele.

Sinal/ruído

A capacidade de detecção de um sensor infravermelho é determinada pela intensidade do sinal que ele recebe, dividido pelo ruído gerado durante essa detecção.

O atual estado-da-arte em fotodetectores de infravermelho usa uma liga de mercúrio-cádmio-telúrio (MCT), que apresenta uma forte recepção de sinal mas enfrenta vários problemas, incluindo longos períodos de exposição para gerar a imagem.

A equipe de Lin desenvolveu uma tecnologia chamada fotodetectores de infravermelho de pontos quânticos (QDIP - Quantum Dot Infrared Photodetectors), que supera largamente os MCT.

Sensor de pontos quânticos

Os QDIPs são estruturas alongadas, dotadas de minúsculos furos em sua superfície, e recobertas com uma película de ouro de apenas 50 nanômetros de espessura.

Cada furo tem 1,6 micrômetro de diâmetro e 1 micrômetro de profundidade. Em seu interior são colocados os pontos quânticos, cristais com propriedades ópticas e semicondutoras únicas, capazes de converter os fótons em elétrons.

A interação da luz com os plasmons de superfície foca a luz diretamente nos buracos em nanoescala, concentrando os fótons que incidem sobre os pontos quânticos.

Essa concentração aumenta a interação entre a luz, que fica aprisionada no furo, e os pontos quânticos, aumentando a capacidade destes em converter os fótons em elétrons.

Microlente sem lente

O efeito é semelhante ao que seria obtido cobrindo cada minúsculo buraco no QDIP com uma lente - com a vantagem de que, sem precisar usar a lente, o sensor fica mais leve, mais fácil e mais barato de fabricar, e não é preciso lidar com o problema de ajustar e calibrar milhões de lentes microscópicas.

O maior volume de elétrons gerados representa a intensidade de sinal captado pelo sensor. O resultado do funcionamento das microlentes é a geração de uma corrente elétrica até 400% mais forte do que a energia que incide sobre o QDIP.

Cabo supercondutor bate recorde mundial de intensidade de corrente

Pesquisadores da Universidade Autônoma de Barcelona, na Espanha, construíram um cabo supercondutor que bateu o recorde mundial de intensidade de corrente elétrica, atingindo 3.200 amperes a 24.000 volts.

Os resultados dos testes indicaram que o novo cabo supercondutor tem uma capacidade de 100 MVA (milhões de volt-ampere), cinco vezes mais do que um cabo de cobre convencional com as mesmas dimensões.

Além do cabo, medindo 30 metros, feito de material supercondutor de alta temperatura, os pesquisadores construíram todos os terminais para conectá-lo à rede comum de distribuição.

Cabo supercondutor

Segundo os pesquisadores, se for usado nas linhas de transmissão, o cabo elétrico supercondutor poderia reduzir as perdas de energia entre 50% e 70%, desde que utilizado em pontos-chave da rede de distribuição.

Por ser capaz de transportar uma quantidade de eletricidade muito superior em relação aos cabos convencionais, a tecnologia supercondutora torna-se uma alternativa viável para se obter a eficiência desejada dos sistemas de distribuição elétrica.

As perdas de energia ao longo dos linhões de transmissão, que levam a energia das usinas até os pontos de consumo, representam um desperdício maior de energia do que todas as demais ineficiências somadas.

A economia obtida com o uso de cabos supercondutores já computa o gasto energético com o próprio cabo, que precisa ser resfriado para manter a supercondução. Embora sejam chamados de materiais supercondutores de alta temperatura, essa temperatura é ainda muito menor do que a temperatura ambiente.

Demanda mundial de energia

A demanda mundial de energia deverá dobrar até a segunda metade deste século.

Desta forma, ganhos de eficiência na construção de motores, geradores, transformadores, além do uso de cabos supercondutores, ajudariam a satisfazer essa demanda de energia sem exigir que se dobre o número de usinas existentes hoje.

Segundo os pesquisadores, a tecnologia de transmissão baseada em materiais supercondutores também aumenta a segurança e a confiabilidade da rede, uma vez que os transformadores de material supercondutor não são inflamáveis.

Cientistas criam retina a partir células-tronco embrionárias

Cientistas da Universidade da Califórnia, nos Estados Unidos, criaram o estágio inicial da primeira retina humana feita em laboratório.

Contendo oito camadas de células, a retina foi construída a partir de células-tronco embrionárias humanas. Esta é a primeira estrutura tridimensional feita com células-tronco.

O avanço marca o primeiro passo rumo ao desenvolvimento de retinas totalmente prontas para o transplante - algo que ainda não foi alcançado neste estágio da pesquisa.

Diferenciação das células-tronco

O trabalho traz novas esperanças para pacientes com distúrbios oculares, como a retinose pigmentar e a degeneração macular, doenças que afetam milhões de pessoas, e que sofrem com a falta de doadores.

"Nós construímos uma estrutura complexa constituída de vários tipos de células", disse o coordenador do estudo, Hans Keirstead. "Este é um grande avanço em nossa busca para tratar doenças da retina."

Em estudos anteriores sobre lesões da medula espinhal, o grupo de Keirstead desenvolveu um método pelo qual as células-tronco embrionárias humanas podem ser direcionadas para formar tipos específicos de células, um processo chamado diferenciação.

O prosseguimento desses trabalhos já está permitindo o início dos primeiros testes clínicos utilizando uma terapia à base de células-tronco para tratar lesões agudas da medula.

Gradientes de solução

Neste novo estudo, os cientistas utilizaram a técnica de diferenciação para criar vários tipos de células necessárias para formar a retina.

O maior desafio, conta Keirstead, foi na engenharia. Para imitar a fase inicial de desenvolvimento da retina, os pesquisadores precisaram construir gradientes microscópicos para as soluções nas quais as células-tronco foram mergulhadas para iniciar rotas de diferenciação específicas.

"A criação deste tecido complexo é um marco no campo das células-tronco," disse Keirstead. "O Dr. Gabriel Nistor, membro do nosso grupo, resolveu um problema científico realmente interessante com uma solução de engenharia, mostrando que os gradientes de solução permitem criar tecidos complexos com células-tronco."

Retinas artificiais para transplantes

A retina é a camada interna posterior do olho, que registra as imagens que uma pessoa vê e as envia através do nervo óptico até o cérebro.

"O que é mais entusiasmador com a nossa descoberta é que a criação de retinas transplantáveis de células-tronco poderia ajudar milhões de pessoas, e estamos nesse caminho," disse Keirstead.

Os pesquisadores estão testando essas retinas primordiais artificiais em modelos animais para saber o quanto elas melhoram a visão.

Se os resultados forem positivos, o próximo passo será fazer ensaios clínicos em humanos.

Gene faz luz azul ter cheiro de banana

Cientistas da Universidade de Bochum, na Alemanha, modificaram geneticamente uma drosófila (mosca-da-fruta) para torná-la capaz de "sentir o cheiro" da luz azul.

Modificando neurônios olfativos das larvas de drosófila, os cientistas conseguiram fazer com que o animal, ao ver a luz azul, tenha a mesma sensação causada pelo cheiro de banana.

Redes neurais

Normalmente as drosófilas evitam a luz. Mas a ativação de um único receptor sensorial, entre 28 neurônios olfativos, alterou essa percepção, fazendo com que a luz azul tenha o mesmo efeito de uma "cheirosa" banana, incluindo os odores exalados pela fruta em decomposição, que são atrativos para o animal.

Os cientistas esperam que o estudo, que foi publicado no último exemplar da revista científica Frontiers in Neuroscience Behavior, possa ajudar a compreender as redes neurais.

Neurônios do olfato

Todos os neurônios olfativos da minúscula larva são capazes de produzir a proteína que é ativada pela luz. Os cientistas podem selecionar livremente quais das 28 células trocarão o cheiro da banana pela luz azul.

O professor Klemens Störtkuhl, coordenador da pesquisa, explica que é possível também inverter o efeito, colocando a luz azul no lugar de cheiros repulsivos para a mosca, fazendo-a evitar a luz.

Os pesquisadores puderam medir o efeito eletrofisiologicamente. Minúsculos eletrodos podem detectar os sinais emitidos pelos neurônios.

A transmissão do sinal nervoso pode ser seguida até o cérebro das larvas de drosófila, permitindo desta forma a observação não-invasiva do funcionamento das redes neurais em tempo real.

Funcionamento do cérebro

Estes primeiros experimentos foram feitos apenas com larvas. Agora os pesquisadores planejam repetir as experiências com moscas adultas, equipando-as com proteínas fotoativadas para gerar disparos em neurônios cerebrais individuais.

Os cientistas pretendem usar os experimentos para tentar compreender o funcionamento das redes de neurônios e o modo de funcionamento do cérebro.

Microsoft admite não divulgar todos os bugs que encontra

A Microsoft não avisa sobre todas as vulnerabilidades de segurança que ela corrige em seus pacotes de software. Como consequência, as comparações entre empresas com base no número de bugs podem ter distorções.

"Nós não documentamos toda falha encontrada", disse o diretor do Centro de Resposta a Segurança da Microsoft (MSRC, na sigla em inglês), Mike Reavey, durante encontro com a imprensa na sede da companhia em Redmond (EUA).

A Microsoft disse atribuir um único identificador de Vulnerabilidades e Exposições Comuns (CVE) para vulnerabilidades ou falhas que compartilhem os mesmos níveis de gravidade, vetores de ataque e estratégias de contorno. Se diversas falhas tiverem as mesmas propriedades, elas não serão relatadas separadamente, disse Reavey.

A falta de transparência nas correções veio à tona no começo do mês graças à uma empresa chamada Core Security Technologies. Depois de estudar as correções MS10-024 e MS10-028, ela notou três correções que não tinham sido divulgadas. O boletim de segurança MS10-028 era uma resposta a uma falha que poderia expor um usuário do Microsoft Visio a um ataque via sobrecarga de memória (buffer overflow), que permitiria a um hacker obter o controle do sistema.

Leia o restante clicando AQUI.

Fonte: IDG Now!

quarta-feira, 26 de maio de 2010

Sol vai mergulhar em nuvem interestelar super quente

No final de 2009, a sonda espacial IBEX, da NASA, descobriu que a fronteira do Sistema Solar possui uma faixa brilhante e misteriosa.

Agora um grupo de cientistas da Polônia e dos Estados Unidos sugere que a "Faixa", resultado da emissão de átomos energéticos neutros, é um sinal de que o Sistema Solar está prestes a entrar em uma nuvem de gás interestelar com temperaturas que podem atingir a casa dos milhões de graus de temperatura.

Nuvens interestelares

Segundo os pesquisadores, a Faixa mostrada no mapeamento da sonda IBEX pode ser explicada por um efeito geométrico gerado conforme o Sol se aproxima da fronteira entre a Nuvem Local de gás interestelar e uma outra nuvem de gás muito quente, a chamada Bolha Local.

Se esta hipótese estiver correta, a IBEX estaria captando a matéria de uma nuvem interestelar muito quente, na qual o Sol poderá entrar daqui a cerca de 100 anos.

Desde a descoberta da "Faixa", apontada pela NASA como um dos achados mais importantes na exploração espacial feita em 2009, pelo menos seis hipóteses foram propostas para explicar o fenômeno, todas elas propondo uma relação da Faixa com os processos em curso na heliosfera ou nas suas vizinhanças.

Mas a equipe do professor Stan Grzedzielski, da Academia Polonesa de Ciências, propõe uma origem bem mais distante.

"Nós vemos a Faixa porque o Sol está se aproximando de uma fronteira entre a nossa Nuvem Local de gás interestelar e uma outra nuvem de gás muito quente e turbulenta," diz Grzedzielski.

Átomos neutros energéticos

Os átomos neutros energéticos (ENA: Energetic Neutral Atoms), registrados pelos sensores da IBEX, originam-se de íons (prótons) sendo acelerados da Bolha Local, que é extremamente quente, quando eles trocam carga com os átomos relativamente frios "evaporando-se" da Nuvem Interestelar Local.

Os recém-criados ENAs não têm carga elétrica e, portanto, podem viajar livremente em linha reta a partir do seu local de nascimento, sem sofrer alterações induzidas pelos campos magnéticos presentes.

Segundo os pesquisadores, alguns deles podem atingir a órbita da Terra, quando então foram detectados pela sonda IBEX.

Bolha quente e turbulenta

A Bolha Local é provavelmente um remanescente de uma série de explosões de supernovas que ocorreram alguns milhões de anos atrás e, portanto, não só é muito quente (pelo menos alguns milhões de graus), mas também turbulenta.

Com isto, os prótons na Bolha Local, que estão próximos à fronteira com a Nuvem Local, arrancam elétrons dos átomos neutros e zarpam em todas as direções, alguns deles chegando à IBEX.

"Se nossa hipótese estiver correta, então nós estamos capturando átomos que se originaram de uma nuvem interestelar que é diferente da nossa," maravilha-se o Dr. Maciej Bzowski, chefe da equipe polonesa da IBEX.

Efeito geométrico

Mas se esses átomos neutros estão sendo criados ao longo de toda a fronteira entre a Nuvem Local e a Bolha Local, por que enxergamos uma Faixa?

"É um efeito puramente geométrico, que observamos porque o Sol está atualmente no lugar exato, a cerca de mil unidades astronômicas da fronteira entre as nuvens," propõe Grzedzielski.

"Se a fronteira entre as nuvens for plana, ou melhor, ligeiramente inclinada em direção ao Sol, então ela aparece mais fina em direção ao centro da Faixa e mais grossa nas laterais, exatamente onde vemos a borda da Faixa. Se estivéssemos mais longe da fronteira, não veríamos nenhuma faixa, porque todos os ENAs seriam reionizados e se dispersariam no gás da Nuvem Local," explica o cientista.

Mergulho interestelar

Isto significaria que o Sistema Solar poderá entrar na nuvem de milhões de graus - a Bolha Local - já no próximo século.

Mas, segundo os pesquisadores, não há razões para preocupações.

"Não há nada de incomum, o Sol frequentemente atravessa várias nuvens de gás interestelar durante sua viagem galáctica," afirma Grzedzielski.

Essas nuvens têm densidade muito baixa, muito menor do que o melhor vácuo obtido nos laboratórios da Terra.

Uma vez lá dentro, a heliosfera se adaptará, podendo encolher um pouco. O nível de radiação cósmica entrando na magnetosfera também poderá subir um pouco, mas nada mais.

"Talvez as gerações futuras tenham também que aprender formas melhores de proteger seus equipamentos contra uma radiação espacial mais forte," conclui Grzedzielski.

USP cria braço robótico para tetraplégicos

Pesquisadores brasileiros desenvolveram um sistema híbrido para membros superiores (braço, antebraço e mãos) que auxilia as atividades motoras de pessoas tetraplégicas.

O equipamento permite que o paciente alcance objetos distantes do corpo por comandos de voz. O trabalho foi feito na Escola de Engenharia de São Carlos, da USP.

Exoesqueleto

Renato Varoto, responsável pela pesquisa, explica que o diferencial deste sistema foi a combinação de técnicas utilizadas.

"A técnica mecânica, que inclui a órtese e que possibilita movimentos de flexão e extensão do cotovelo; e uma técnica não convencional, que é a estimulação elétrica neuromuscular, que possibilita os movimentos da mão," diz Varoto.

O protótipo é constituído de uma órtese dinâmica para cotovelo, que funciona como um exoesqueleto, eletrodos de superfície que vão nas mãos e uma luva que contém sensores para indicar ao paciente a força aplicada.

Comando de voz

Todas as partes mecânicas e eletrônicas do equipamento são comandadas por voz.

"Com o comando de voz, cinco palavras são gravadas de acordo com o gosto do paciente: uma para estender o braço, uma para a flexão do cotovelo, uma para parar o movimento, uma para pegar o objeto e uma para soltar o objeto. Se for preciso, é possível controlar o nível de estimulação para o movimento da mão e a velocidade da órtese do cotovelo, cada uma com duas palavras", descreve Varoto.

Segundo o pesquisador, o sistema é indicado para tetraplégicos que possuem movimentos somente do pescoço e do ombro. Desse modo, o comando de voz é essencial para que os tetraplégicos realizem os movimentos voluntariamente.

Braço robótico para tetraplégicos

O braço robótico criado por Varoto foi testado em 15 pacientes do Hospital das Clínicas da Universidade Estadual de Campinas (Unicamp), em março e abril deste ano.

O pesquisador ressalta que "o que chama a atenção é o auxílio que o sistema pode trazer aos tetraplégicos".

Nos testes clínicos, os pacientes conseguiram exercer de forma autônoma atividades como beber água e se alimentar. "São atividades simples para nós, mas para os pacientes, que perderam quase todos os movimentos do corpo, traz uma grande satisfação a esperança de poder fazê-las", diz Varoto.

Fisioterapia com robô

O pesquisador pretende continuar as aplicações com os pacientes. O próximo passo será aplicar uma terapia assistida por robô. Nessa terapia, o paciente faz uma série de movimentos repetitivos com o sistema, com a diferença de que, em vez de ser um fisioterapeuta que o auxilia nas atividades, é um robô que exerce essa função.

O objetivo da terapia é tentar fazer o tetraplégico ganhar movimentos naturais com um método artificial.

Varoto explica como isso pode acontecer pelo conceito de neuroplasticidade: "Quando um paciente apresenta paralisia e começa a fazer movimentos repetitivos com a ajuda de aparelhos, ele pode reaprender, ainda que não totalmente, alguns movimentos. O que pode acontecer em termos biológicos é que há um rearranjo dos neurônios no sistema nervoso central."

O pesquisador ressalva que ainda há alguns aspectos do sistema que precisam ser aperfeiçoados: "O sistema pode ser mais leve e pode melhorar esteticamente. Quanto mais atender as expectativas do paciente melhor".

Interface por gestos usa luva colorida e webcam

Uma luva colorida e uma webcam. Este é todo o hardware necessário para operar um novo sistema de computação baseada em gestos, criada por um estudante do MIT, nos Estados Unidos.

2D versus 3D

Outros protótipos de interfaces gestuais já utilizaram fitas coloridas ou reflexivas coladas na ponta dos dedos ou mesmo em luvas.

"Mas isto é informação 2D. Você está usando apenas as pontas dos dedos e nem mesmo sabe que fita corresponde a qual dedo," critica Robert Wang, criador da nova interface, bem mais espalhafatosa.

A luva colorida permite a geração de um modelo 3D da mão na tela do computador, praticamente em tempo real, com uma defasagem mínima. "Este [equipamento] de fato captura a configuração 3D da sua mão e dos seus dedos. Nós sabemos como os seus dedos estão se movimentando," diz Wang.

Luvas coloridas

Foram testados diversos designs de luva, com pontos coloridos e "remendos" de diversos formatos. A versão atual, que apresentou os melhores resultados até agora, possui 20 formatos irregulares, usando 10 cores diferentes.

O número de cores é restrito porque o sistema deve ser capaz de reconhecer cada uma delas com confiabilidade, em diversas condições de iluminação e com diferentes objetos no background da cena.

Diversão e uso sério

A vocação da nova tecnologia de interface por gestos são os videogames. Mundos virtuais, por exemplo, permitem que o usuário pegue e manipule objetos usando apenas gestos com as mãos.

Mas Wang afirma que engenheiros e projetistas também poderão usar o sistema para manipular de forma mais intuitiva modelos 3D de produtos comerciais, equipamentos mecânicos ou grandes obras de construção civil - veja a demonstração no vídeo abaixo.



Diminuição da resolução

O software de reconhecimento das imagens foi baseado em uma outra pesquisa do MIT, quando Antonio Torralba e seus colegas desenvolveram um algoritmo que reconhece imagens diminuindo sua resolução.

Depois que a webcam captura a imagem, o software retira o background, deixando a luva superposta a um fundo branco. Então o programa reduz drasticamente a resolução da imagem resultante, até atingir 40 por 40 pixels.

Finalmente, ele compara a imagem capturada com uma base de dados contendo centenas de modelos digitais de 40 x 40 pixels, até encontrar aquela que corresponda à posição atual.

Esse mecanismo, que elimina a necessidade de cálculos, retorna uma resposta em uma fração de segundo, praticamente eliminando os retardos no uso da luva.

Proteínas poderão inibir infecções gastrointestinais

Cientistas descobrem novas perspectivas para o desenvolvimento de estratégias biotecnológicas envolvendo as galectinas 4 e 8 aplicáveis ao tratamento e aos diagnósticos de gastroenterites e de outras doenças infecciosas.

Galectinas são lectinas, proteínas que têm capacidade de reconhecer carboidratos de modo específico.

O estudo foi desenvolvido por pesquisadores da USP e da Universidade de Emory, de Atlanta (Georgia), nos Estados Unidos.

Bactérias disfarçadas

De acordo com a pesquisa, as galectinas 4 e 8 participam efetivamente na defesa contra bactérias que se "disfarçam" de hemácias. Isso ocorre por que elas expressam, em suas superfícies, antígenos dos grupos sanguíneos ABO(H).

O estudo possibilita questionamentos sobre o efeito de dietas ricas em açúcar do leite e seus correspondentes químicos sobre as doenças gastrointestinais.

O trabalho foi conduzido pelos pesquisadores norte-americanos Sean Stowell e Connie Arthur, liderados pelo professor Richard Cummings, em parceria com o professor Marcelo Dias Baruffi, da Faculdade de Ciências Farmacêuticas de Ribeirão Preto (FCFRP) da USP, e sua orientada Lilian Cataldi Rodrigues.

Tipos sanguíneos

De acordo com o professor Baruffi, os tipos sanguíneos do sistema ABO(H) são definidos por diferenças nas moléculas de açúcar ligadas a proteínas nas células vermelhas do sangue. As moléculas que caracterizam o sistema ABO(H) podem funcionar como antígenos.

"Assim, pessoas do grupo A fazem anticorpos para o antígeno do grupo B, mas não para o seu próprio grupo, o A, e vice-versa. Já pessoas do grupo O, por não apresentarem os antígenos A ou B em suas células vermelhas, são capazes de produzir anticorpos anti-A e anti-B. Ao contrário, pessoas do grupo AB não produzem anticorpos anti-A ou anti-B", relata.

Já é conhecido da comunidade científica e da sociedade em geral que se os tipos de sangue incompatíveis são misturados entre pessoas, os anticorpos do doador podem causar a destruição das células vermelhas, aglutinação dessas células, coagulação intravascular disseminada e morte do receptor.

"Mas o sistema imunológico de uma pessoa geralmente não produz anticorpos para as moléculas de açúcar - antígenos do sistema ABO(H) - expressas em seus próprios glóbulos vermelhos".

Defesa sem anticorpos

Uma cepa de bactérias da E. coli, conhecida cientificamente como O86, expressa o antígeno do tipo B em sua superfície como as células vermelhas dos seres humanos do tipo B. "Portanto, pessoas com sangue tipo B são incapazes de produzir anticorpos anti-B contra E. coli O86. Entretanto, essa bactéria não causa diarreia grave em humanos".

Baruffi diz que neste contexto, foi formulada a principal pergunta deste trabalho: "Como a bactéria E. coli O86 não é uma causadora importante de gastroenterites em pessoas do grupo sanguíneo B já que a pessoa do grupo B não possui anticorpos anti-B para matar esta bactéria"?

Açúcar do leite

A resposta foi a seguinte: as galectinas 4 e 8 são capazes de reconhecer o antígeno B na superfície dessas bactérias e matá-las de uma forma rápida, independente do sistema complemento. Mas elas dependem da interação com o açúcar dessas moléculas.

A lactose, açúcar do leite, por exemplo, e seus correspondentes químicos, foram capazes de inibir drasticamente a atividade de indução de morte da bactéria E. coli O86 em sistemas in vitro e in vivo. Isso abre novas perspectivas de estudos sobre a hoje tão comum questão da tolerância da lactose no organismo.

Matador seletivo

Outra curiosidade apontada pelo professor Baruffi é o fato de as galectinas conseguirem identificar o antígeno B tanto em bactéria como em células vermelhas do sangue humano, mas apenas as bactérias morrem em função da interação antígeno B/Galectina.

Os resultados da pesquisa foram publicados na revista Nature Medicine. E a importância da participação dos brasileiros na pesquisa foi enfatizada por um dos autores do estudo, o professor Richard Cummings, em seu artigo Galectinas da resposta imune inata matam bactérias que expressam antígeno do grupo B, publicado no site daquela Universidade.

O guia paranoico de privacidade para os serviços da Google

O Google é praticamente o melhor amigo de cada um. Mas você já percebeu o quanto o Google sabe sobre você?

Você sabia que a Google pode ter gravado e armazenado cada termo de busca digitado em sua caixa de pesquisa? Pode ser que algumas dessas buscas sejam sérias ameaças à sua reputação. E que dizer do Gmail? Já enviou algum e-mail sigiloso? Quantas informações empresariais estão armazenadas no Google Docs?

A menos que tenha passado a última década totalmente offline, você deve ter construído um belo perfil de si mesmo nos servidores da Google. Dependendo de quais das dúzias de serviços da Google você usa, dados sobre seus hábitos, interesses, atividades, agendas, objetivos profissionais, portfólio de ações e registros médicos podem estar descansando em algum lugar desses servidores – junto com registros das rotas de viagem que você mapeou, os sites que visitou e muito mais.

O lado bom é que a Google torna anônimos os registros de seus servidores. Depois de nove meses, ela arranca os últimos três dígitos dos endereços de IP associados com suas buscas. Depois de 18 meses, os cookies associados também são apagados, o que torna muito difícil ligá-lo às buscas feitas há mais de um ano e meio.

Mesmo assim, há uma grande e bela janela de tempo que escancara sua vida para curiosos. E se algum ou todos os dados se tornarem públicos? Um cibercriminoso poderia, em teoria, ter acesso a sua informação na Google ao invadir diretamente os servidores, ou mesmo sua conta individual.

Veja o restante da reportagem clicando AQUI.

Fonte: IDG Now!

Novo ranking global de banda larga põe Brasil na 68.ª posição

Um novo ranking global de velocidade de banda larga, divulgado na terça-feira (25/5), põe o Brasil em 68.º lugar, com velocidade média de download de 3,4 Mbps, atrás de países como Casaquistão (62.º) e Gana (44.º).

Elaborado pela Ookla, empresa responsável pelo teste online Speedtest, o Net Index classifica os países de acordo com os testes de velocidade feitos por usuários domésticos de banda larga.

O ranking do Net Index é liderado pela Coreia do Sul, onde os internautas têm velocidade média de download de 34,19 Mbps. Em seguida vêm Letônia (24,30 Mbps), Moldávia (21,55 Mbps), Japão (20,35 Mbps) e Suécia (19,81 Mbps).

A metodologia da empresa exclui conexões que indiquem ser de uso corporativo, e deixa de fora países cuja amostra de testes ficou abaixo de 75 mil IPs únicos.

Além disso, 90% dos testes foram feitos com base em conexões cabeadas, que é exatamente o alvo do Net Index, explica a Ookla. Sessões de internet móvel são filtradas com base no nome do provedor de acesso.

PNBL
Em 5/5, o governo brasileiro divulgou as diretrizes do Plano Nacional de Banda Larga (PNBL), voltado a estender o alcance da tecnologia para mais cidades do País. Para efeito do plano, banda larga é qualquer conexão igual ou superior a 512 Kbps. O decreto 7.175, que institui o PNBL, foi publicado no Diário Oficial em 13/5.

Fonte: IDG Now!

Nova tela de OLED da Sony é flexível

A fabricante de eletrônicos Sony desenvolveu uma tela colorida flexível que é forte o suficiente para ser enrolada em um lápis, enquanto exibe imagens em vídeo.

A tela só será apresentada com mais detalhes na quinta-feira (27/5), na conferência Society for Information Display, em Seattle, Califórnia, nos Estados Unidos, mas a companhia já divulgou um vídeo mostrando a novidade em ação.

Leia mais na PC World.

Fonte: IDG Now!

terça-feira, 25 de maio de 2010

É Notícia: Kennedy Alencar entrevista Gabriel Chalita

O vereador foi o político mais votado nas eleições de 2008. Agora, na disputa eleitoral de 2010, Chalita cogita se candidatar a uma vaga no Senado, ainda não definida.







Fonte: Rede TV!

Cérebro eletrônico emula um bilhão de neurônios

Pesquisadores da Universidade de Manchester, na Inglaterra, estão se preparando para começar a maior simulação já realizada de um verdadeiro "cérebro eletrônico."

A equipe do professor Steve Furber pretende simular um cérebro com 1 bilhão de neurônios, utilizando 50.000 microprocessadores simples e baratos.

Diferenças entre cérebros e computadores

Apesar das constantes comparações, cérebros e computadores funcionam segundo princípios muito diferentes. Além da comparação possível, de que os dois são "sistemas de processamento de informações", cérebros e computadores têm muito mais diferenças do que similaridades.

Do ponto de vista de seus circuitos básicos, o cérebro é lento e impreciso, mas também é flexível e capaz de corrigir falhas nas rotas de processamento. Já os computadores são rápidos e precisos, mas também são inflexíveis e incapazes de fazer algo para o qual não foram projetados.

"Os conjuntos de funções em que cada um deles é melhor não têm interseções. Eles parecem ser simplesmente tipos diferentes de sistemas," afirmam Furber e seu colega Steve Temple.

"Ainda assim, ao longo da curta história da computação, cientistas e engenheiros têm feito tentativas de fertilização cruzada, inserindo conceitos da neurobiologia na computação a fim de construir máquinas que possam operar de maneira mais parecida com o cérebro," afirmam eles.

Uma das maiores razões para isso é a capacidade de processamento em paralelo do cérebro. Outra é que o nosso "sistema de processamento de informação" biológico parece ser virtualmente à prova de falhas.

Simulação do cérebro

Para tentar imitar o cérebro, os cientistas vão começar tentando imitar os neurônios.

A IBM possui um projeto de emulação de neurônios baseado em software, que já permitiu a simulação do cérebro de um gato.

Mas os cientistas ingleses planejam implementar o seu cérebro eletrônico biologicamente inspirado por hardware.

Para isso, eles estão usando microprocessadores ARM (Advanced RISC Machine), uma arquitetura lançada nos anos 1980, mas que perdeu a corrida da computação para o padrão x86 da Intel.

Apesar do fracasso inicial, contudo, o chip ARM seguiu sua própria carreira, e hoje equipa a maioria dos telefones celulares e outros equipamentos móveis, que exigem um desempenho apenas razoável de processamento, mas que precisam gastar pouca energia.

Cérebro eletrônico

Os 50.000 chips já estão encomendados e serão usados para construir o cérebro eletrônico batizado de Spinnaker - Spiking Neural Network Architecture, algo como arquitetura de rede neural por picos de tensão, em referência às sinapses, os "disparos" elétricos que fazem a comunicação entre os neurônios.

Embora tanto os circuitos eletrônicos no interior de um chip e os neurônios no cérebro comuniquem-se por meio de sinais elétricos, os fios de um chip só sabem conduzir a eletricidade, enquanto as conexões cerebrais servem a outras funções.

Cada sinapse, por exemplo, tem sua própria importância, ou peso, que varia conforme a rede neural aprende por meio do balanceamento dos diferentes sinais recebidos.

Para atribuir pesos, de forma dinâmica, a cada "sinapse" no interior do chip, os pesquisadores vão utilizar variações na tensão dos sinais que transitarão entre eles - daí a expressão "picos de tensão" no nome da arquitetura dos "neurônios eletrônicos".

Neurônios eletrônicos

Cada processador utilizado tem cerca de 100 Kbytes de memória interna, para lidar com suas próprias sinalizações.

Os pesos dinâmicos da rede neural serão controlados por uma outra memória, externa aos chips, com 128 Mbytes.

São 20 núcleos ARM por chip, cada um capaz de modelar 1.000 neurônios. Com 20.000 neurônios por chip, as 50.000 unidades encomendadas a um fabricante de Taiwan serão capazes de simular 1 bilhão de neurônios.

Cérebro eletrônico de robô

O processamento equivalente ao que ocorre no neurônio biológico será feito dentro de cada núcleo, enquanto as sinapses, ou a conectividade dos axônios, serão representadas pelas mensagens trocadas entre os processadores, interligados em uma complexa estrutura toroidal.

Cada chip terá seis conexões bidirecionais, o que permitirá a criação de várias topologias de rede sem alteração do hardware.

O primeiro objetivo dos pesquisadores é fazer seu cérebro eletrônico aprender a controlar um braço robótico. No futuro, eles planejam fazê-lo aprender outras tarefas, objetivando o controle de um robô humanoide completo.

Átomos artificiais começam a iluminar a computação quântica

Um efeito quântico denominado ressonância de fluorescência, que resulta da interação da luz com a matéria, é promissor tanto para as pesquisas de computação óptica quando para a computação quântica.

A ressonância de fluorescência ocorre quando um feixe de luz com uma energia que corresponde à energia de ressonância de um átomo é absorvido pelo átomo e, em seguida, reemitida em direções aleatórias.

Isto permite "acoplar" dois fótons, ou partículas de luz, em um fenômeno chamado entrelaçamento quântico, uma das rotas mais promissoras para a fabricação dos sonhados computadores quânticos.

Antes disso, porém, os cientistas precisam conseguir replicar a ressonância de fluorescência em laboratório. Até hoje, os esforços que utilizavam átomos artificiais feitos de circuitos supercondutores vinham sendo infrutíferos.

Átomos artificiais

Agora, a ressonância de fluorescência foi finalmente obtida com um único átomo artificial. O feito foi alcançado por uma equipe de cientistas japoneses, ingleses e russos.

O grande desafio é que esse efeito quântico nos átomos é muito pequeno para ser útil em aplicações práticas porque a interação dos fótons e dos átomos é muito fraca, devido ao seu pequeno tamanho, de acordo com Jaw-Shen Tsai, do Laboratório Riken, no Japão, que liderou a equipe de pesquisa.

Para contornar esse problema, os cientistas criaram átomos artificiais sobre chips de computador, onde a interação entre a luz e o átomo artificial pode ser otimizada.

"Com um dispositivo de estado sólido como o nosso, feito de circuitos supercondutores, o acoplamento pode ser muito mais forte," disse Tsai.

Guia de ondas

Tentativas anteriores de pesquisadores para observar a fluorescência ressonante em átomos artificiais resultaram em baixa eficiência, cerca de 12%, devido à fraca reemissão da luz absorvida por esses átomos.

Para melhorar o processo de reemissão, os pesquisadores utilizaram um guia de ondas unidimensional acoplado ao átomo artificial. Isto resultou em uma reemissão eficiente de luz pelo átomo artificial porque, no guia de ondas unidimensional, a luz é canalizada em apenas duas direções.

Tsai e seus colegas demonstraram que cerca de 94% da luz que entra na frequência de ressonância do circuito supercondutor foi absorvida e reemitida.

Computação com luz

Com esta forte interação entre a luz incidente e o átomo artificial, uma série de aplicações potenciais são agora possíveis.

"Há toda uma série de experiências que se pode fazer, por exemplo, rumo à computação quântica baseada em fótons," diz Tsai.

A absorção de um fóton por um átomo artificial, por exemplo, poderia ser usada para controlar a propagação de um segundo fóton ao longo do guia de ondas, devido à natureza não-linear da interação da luz com o átomo artificial.

Nobel alerta para risco de patente para célula sintética

Um conceituado cientista britânico, tido com um dos pioneiros do mapeamento do genoma humano, alertou que se for concedida a patente da primeira forma de vida criada artificialmente, ela poderá dar ao seu criador o monopólio sobre um amplo campo da engenharia genética.

Segundo o professor britânico John Sulston, ganhador do Nobel de Medicina em 2002 por suas pesquisas genéticas, a medida inibiria importantes pesquisas científicas.

Ele se refere aos resultados da pesquisa sobre "vida artificial" liderada nos Estados Unidos pelo cientista Craig Venter e apresentada na semana passada - na verdade é o genoma da bactéria que é artificial.

Público versus privado

No passado, Sulston e Venter chegaram a se confrontar em uma disputa por propriedade intelectual quando os dois competiam para mapear a sequencia do genoma humano, em 2000.

Na época, Craig Venter liderava os esforços do setor privado de patentear o genoma, com planos de cobrar pelo acesso à informação. John Sulston, da Universidade de Manchester, fazia parte de uma iniciativa do governo britânico e de instituições sem fins lucrativos para tornar o genoma acessível a todos os cientistas.

"O confronto 10 anos atrás foi sobre a distribuição de dados", disse Sulston.

"Dissemos que este era o genoma humano e deveria ser de domínio público. E estou extremamente feliz por termos conseguido garantir isso."

Patente do genoma artificial

Os antigos rivais agora travam uma nova disputa por causa da tentativa de Venter de pedir a patente do organismo criado artificialmente, batizado de Synthia. Os avanços foram publicados na semana passada na revista científica Science.

A equipe de Venter conseguiu introduziu um genoma sintético em uma célula. O genoma é o conjunto de genes de um organismo vivo. Os genes, feitos de DNA (ácido desoxirribonucleico), são a unidade básica da hereditariedade, sendo responsáveis por definir as características básicas de cada ser vivo.

Criação do genoma sintético

No experimento, os cientistas pegaram células de uma espécie de bactéria que já existe (Mycoplasma micoides), tiraram do interior delas o material genético que tinham e as usaram como recipiente para um outro genoma, sequenciado artificialmente. Mas apenas o genoma, o DNA dentro da célula, é inteiramente sintético.

Os pesquisadores construíram quimicamente os blocos de DNA e os inseriram nas células, que acomodou os blocos em um cromossomo (sequencia de DNA, que contém vários genes) completo.

Essas células, segundo os pesquisadores, são as primeiras formas de vida controladas totalmente por um genoma sintético.

Controle da engenharia genética

Para Sulston, a concessão da patente seria "extremamente prejudicial".

"Li algumas dessas patentes e as alegações são muito amplas", afirmou Sulston à BBC.

"Espero muito que essas patentes não sejam aceitas porque elas colocariam a engenharia genética sob o controle do Instituto J. Craig Venter (JCVI, na sigla em inglês). Ele teria o monopólio de uma série de técnicas."

Um porta-voz do JCVI, cuja sede é em baseado nos Estados de Marylande na Califórnia, disse, no entanto, que "várias companhias estão trabalhando no espaço da biologia e dos genomas sintéticos, além de muitos laboratórios acadêmicos" e que "muitos, senão todos eles, provavelmente entraram com algum pedido de proteção de patente sobre vários aspectos de seu trabalho".

"Então, parece improvável que apenas um grupo, centro acadêmico ou empresa, fique com o 'monopólio' de qualquer coisa", disse ele.

Quem é dono da Ciência?

"Como a equipe do JCVI e o próprio Venter disseram, o diálogo aberto e a discussão de todas as questões ligadas a biologia e genética sintéticas, incluindo a propriedade intelectual, são muito necessários para este campo, então essas questões e discussões são muito importantes."

Sulston expressou sua preocupação na Royal Society, em Londres, quando discutia um relatório chamado "Quem é dono da Ciência?". O relatório foi produzido pelo Instituto da Ciência, Ética e Inovação da Universidade de Manchester, chefiado pelo professor.

O documento detalha o aumento do uso de patentes pelos pesquisadores.

"O problema piorou muito desde que levantei essa questão 10 anos atrás", disse ele.

Uso excessivo de patentes

Ele acredita que o uso excessivo de patentes está inibindo pesquisas que poderiam, de outra forma, beneficiar a sociedade, com melhorias no sistema de saúde para os mais pobres, por exemplo.

"(Está na moda pensar) que é importante ter forte propriedade intelectual e que isso é essencial para promover a inovação. Mas não há provas de que isso promova a inovação. Há uma falta de vontade de considerar qualquer problema."

Mas ele também acredita que esses argumentos começam a ser aceitos.

Em novembro passado, uma empresa americana, a Myriad Genetics, perdeu parte de seus direitos de patentes sobre dois genes do câncer de mama depois de um processo legal aberto por grupos de defesa dos direitos civis.

Cientistas criam músculo artificial quase natural

Pesquisadores da Universidade de British Columbia, no Canadá, transformaram proteínas artificiais em um novo biomaterial sólido que imita muito a elasticidade dos músculos humanos.

A técnica, detalhada na última edição da revista Nature, abre novos caminhos para a fabricação de biomateriais sintéticos com aplicações medicinais, na chamada engenharia de tecidos, e em ciências dos materiais.

"Há evidentes implicações de longo prazo para os engenheiros de tecidos," afirma Hongbin Li, químico e coautor da pesquisa. "Mas em um nível fundamental, verificamos que as propriedades mecânicas das proteínas individuais que compõem este biomaterial podem ser traduzidas em propriedades mecânicas úteis em escala macro."

Titina

Li e seu colega John Gosline sintetizaram proteínas artificiais para imitar a estrutura molecular da titina.

A titina - também conhecida como conectina - é uma proteína gigante que desempenha um papel vital na elasticidade passiva dos músculos.

A versão sintética, que se assemelha a um colar de pérolas, é aproximadamente 100 vezes menor do que a titina. O material resultante, semelhante à borracha, apresenta alta resiliência sob baixa tensão e alta resistência sob alta tensão - características que compõem as propriedades elásticas dos músculos.

Propriedade dos músculos

"A marca registrada dessas proteínas parecidas com a titina é que elas se desdobram sob a ação de uma força de alongamento, para dissipar a energia e evitar danos aos tecidos por excesso de alongamento," aplica Gosline. "Nós fomos capazes de replicar uma das características mais exclusivas apresentadas pelos tecidos musculares, mas não todas elas."

As propriedades mecânicas desses biomateriais podem ser ajustadas, permitindo o desenvolvimento de biomateriais que apresentam uma grande variedade de propriedades úteis - inclusive simulando diferentes tipos de músculos.

O material também é totalmente hidratado e biodegradável.

Exercício aeróbico aumenta alvéolos pulmonares em quase 40%

Uma pesquisa da Faculdade de Medicina Veterinária e Zootecnia (FMVZ) da USP revela dados inéditos sobre os efeitos benéficos que os exercícios físicos trazem ao organismo.

Cobaias submetidas a um treinamento de 30 minutos por dia (2 vezes por dia) em esteira ergométrica, cinco vezes por semana, durante 10 semanas, apresentaram um aumento de 39% no número de alvéolos pulmonares.

Pressão

Os resultados também indicaram que os cinco animais treinados tiveram 49% de aumento na pressão parcial de oxigênio (O2), redução de 22% na pressão parcial de gás carbônico (CO2) e aumento de 3% na saturação de O2.

Em termos práticos, o aumento do número de alvéolos estava associado a um aumento dos níveis gerais de oxigenação e diminuição dos níveis de CO2 no sangue.

O grupo controle foi composto por outros cinco cobaias que, durante as 10 semanas do experimento, tiveram uma vida sedentária, mas não ficaram enclausuradas.

Efeitos do exercício físico no organismo

"Na literatura médica, existem diversos trabalhos sobre os efeitos do exercício físico no organismo. O ineditismo desta pesquisa reside no fato de que é o primeiro a mostrar em 3D, com precisão e acurácia, como o pulmão se adapta à prática regular de exercícios físicos aeróbicos e de baixa intensidade", comenta o estereologista Antonio Augusto Coppi, responsável pela pesquisa.

O professor destaca que, seguindo os critérios estabelecidos pelo American College of Sports Medicine em 2006, apenas animais com aptidão para correr em esteira foram sistematicamente selecionados para o estudo. No aspecto nutricional, todos os ratos receberam uma dieta padronizada, para que pudessem ter o mesmo desempenho físico.

Os pesquisadores utilizaram um protocolo de treinamento para exercício aeróbico de baixa intensidade. Durante cinco dias os animais foram submetidos a um período de adaptação ao exercício físico. Posteriormente, foram realizados testes de esforço máximo antes do início do treinamento, assim como na quinta e décima semana de treinamento. O teste consistiu em colocar os ratos na esteira a uma velocidade inicial de 0,3 quilômetros por hora (km/h) e, a cada 3 minutos, a velocidade era aumentada até os animais não conseguirem correr voluntariamente.

Alvéolos pulmonares

Segundo Coppi, os alvéolos pulmonares são partículas diferentes de células individuais, pois estão multiconectadas entre si de modo segmentar, semelhantes a um cacho de uva, onde cada uva representa um alvéolo.

"Quantificá-los não é uma tarefa fácil, pois são elementos que apresentam uma estrutura muito complexa em 3 dimensões - comprimento, largura e profundidade - e além disso, estão conectados entre si topologicamente", afirma o professor.

Estereologia

E foi aí que entrou a Estereologia Topológica, mais especificamente a estereologia que usa o princípio matemático da Topologia e número de Euler, uma das linhas de investigação científica do LSSCA.

Com esta "ciência" é possível realizar a análise de imagem e contagem de redes admiráveis de partículas conectadas em 3D ou 4D.

"No organismo, este arranjo arquitetural entre partículas acontece com capilares sanguíneos e linfáticos, sinapses, alvéolos pulmonares, bronquíolos, fibras nervosas, entre outros", conta o professor.

Outro fator inovador do estudo foi a associação dos dados estruturais (análise estereológica dos alvéolos) com os resultados fisiológicos: hemodinâmicos e hemogasométricos.

Game 'Rock band 3' terá teclado entre instrumentos disponíveis

O game "Rock band 3", prometido para o final do ano, terá um novo instrumento. Além de guitarra, baixo, bateria e do microfone, os jogadores poderão escolher o teclado para executar as músicas disponíveis.

Um teaser do game que aparece no final da demonstração de "Rock band: Green Day" – que será lançado em junho –, mostra um ícone representando o teclado, conforme observou o blog especializado em videogames "Kotaku". Outro detalhe é que a ilustração mostra três microfones, o que indicaria a presença de mais um vocal, como já ocorre em "The Beatles: Rock band".

“Rock band” é um jogo musical que, ao lado de “Guitar hero”, permite aos jogadores montar uma banda e tocar músicas de artistas famosos, utilizando controles que imitam instrumentos musicais de verdade como guitarra e bateria.

Fonte: G1