sábado, 31 de janeiro de 2009

Apostilas: Manutenção Avançada de TV

Nome do Lançamento: Manutenção Avancada de TV
Tamanho: 27MB
Links: Homepage
Download: Multi-Servidor

Crise econômica mundial? Seus problemas acabaram!

Nosso Universo pode ser um gigantesco holograma

Há sete anos, os cientistas do experimento GEO600, instalado na Alemanha, vêm procurando por ondas gravitacionais. Eles ainda não encontraram nenhuma, mas podem ter feito, por acaso, uma das maiores descobertas da física nos últimos 50 anos.

As ondas gravitacionais, previstas por Einstein, são oscilações no tecido do espaço-tempo causadas por objetos astronômicos superdensos, como estrelas de nêutrons ou buracos negros (veja Jóia de precisão vai ajudar a detectar ondas gravitacionais).

Convulsões quânticas

Nessa busca, os cientistas do GEO600 depararam-se com um efeito inexplicável: uma espécie de ruído captado continuamente pelo seu gigantesco detector, que mergulha a cerca de 600 metros de profundidade terra adentro.

Agora, Craig Hogan e seus colegas acreditam ter encontrado a explicação para esse ruído. "Parece que o GEO600 está sendo atingido pelas convulsões quânticas microscópicas do espaço-tempo," diz ele.

Segundo os pesquisadores, eles podem ter se deparado com os limites fundamentais do espaço-tempo - o ponto onde o espaço-tempo deixa de se comportar como o suave contínuo descrito por Einstein, e se transforma em "grânulos", da mesma forma que uma foto em um jornal se dissolve em pontos de tinta à medida que se faz um zoom sobre ela.

Holograma cósmico

"Se o resultado do GEO600 é o que nós suspeitamos que seja, então nós estamos todos vivendo em um gigantesco holograma cósmico," diz Hogan.

A ideia de que vivemos em um holograma pode parecer absurda inicialmente, mas ela é uma extensão natural das atuais teorias sobre os buracos negros e dos nossos melhores entendimentos sobre a estrutura do cosmos.

Ou seja, ela está de acordo com as teorias da física aceitas por virtualmente toda a comunidade científica. Na verdade, essa ideia de um universo holográfico foi sugerida ainda nos anos 1990, por Leonard Susskind e Gerard't Hooft.

Evaporação dos buracos negros

Nos anos 1970, Stephen Hawking demonstrou que os buracos negros não eram realmente negros, podendo emitir uma radiação que, ao longo de eras, poderia fazê-los evaporar inteiramente e desaparecer.

O problema é que a radiação de Hawking não carregaria nenhuma informação sobre o buraco negro e, quando ele finalmente evaporasse por inteiro, toda a informação sobre a estrela que colapsou para formá-lo estaria irremediavelmente perdida.

Isso contraria o princípio largamente aceito de que a informação nunca pode ser destruída.

Jacob Bekenstein logo propôs uma solução para esse paradoxo da informação dos buracos negros. Segundo ele, a entropia do buraco negro - que pode ser entendida como o conteúdo de informações do buraco negro - é proporcional à área superficial do seu horizonte de eventos, uma espécie de fronteira imaginária, além da qual nada escapa à gravidade do buraco negro.

Universo holográfico

Trabalhos teóricos posteriores demonstraram que ondas quânticas microscópicas poderiam codificar as informações do interior do buraco negro na superfície bidimensional de seu horizonte de eventos.

Estava então aberto o caminho para a ideia de um universo holográfico, uma vez que toda a informação tridimensional da estrela precursora do buraco negro poderia estar registrada em uma espécie de holograma 2D.

Para propor um universo holográfico, Leonard Susskind e Gerard't Hooft estenderam esse princípio para todo o Universo.

Desta forma, toda a informação contida no Universo, inclusive os raciocínios que você está desenvolvendo ao ler esta matéria, estariam codificadas bidimensionalmente na esfera imaginária que circunda nosso Universo.

Exatamente como o holograma encontrado no seu cartão de crédito, podendo mostrar a informação tridimensional completa - seus raciocínios, inclusive - a partir de um desenho 2D.

Interpretações

Para que a teoria seja verdadeira, a esfera imaginária que representa a fronteira final do nosso Universo deve conter uma espécie de "pixels cósmicos," pequenos quadrados, cada um dos quais contendo um bit de informação.

São esses pixels cósmicos que Hogan acredita que o experimento GEO600 está registrando. É importante perceber que o cientista não afirma que o ruído seja uma "evidência" de que vivamos em um Universo holográfico. O ruído pode ser só ruído mesmo, de uma fonte interna do experimento ainda não localizada.

O que Hogan afirma com todas as letras é: a proposta de um Universo holográfico está de acordo com todas as atuais teorias da física e o ruído captado pelo GEO600 faz sentido como uma explicação dos bits de informação bidimensional gravados na esfera imaginária que nos envolve.

Ao final, olhar para os dados com outra perspectiva pode ser uma mera questão de mudar o holograma de posição e passar a ver outra imagem.

Programa gratuito ajuda a planejar trânsito das cidades

Em parceria com pesquisadores de Universidade de São Paulo (USP), a docente Renata Cardoso Magagnin, da Faculdade de Arquitetura, Artes e Comunicação (Faac) da Universidade Estadual Paulista (Unesp), em Bauru, desenvolveu um sistema on-line para subsidiar planos diretores de transportes e mobilidade em cidades de médio porte.

Participação dos cidadãos

Batizado de Planuts (Sistema de Suporte à Decisão Espacial para o Planejamento Urbano e de Transporte Integrado e Sustentável), o recurso online permite a participação do cidadão nos trabalhos de monitoramento e diagnóstico de um plano diretor, contribuindo para que o trânsito das cidades médias não se torne tão problemático como o das grandes metrópoles.

A professora partiu do princípio de que a mobilidade urbana resulta da interação dos deslocamentos de pessoas e bens, indo muito além do movimento de veículos ou do conjunto de serviços implantados para esses deslocamentos.

Para isso, a ordem de avaliação do sistema Planuts é composta por três fases e quatro módulos. A primeira avalia os módulos 1 e 2, a segunda o módulo 3 e a terceira o módulo 4.

Gestão de transportes

O módulo 1 define o grau de importância dos temas relacionados ao meio ambiente e transportes, gestão dos transportes, infraestrutura, planejamento, e aspectos socioeconômicos. O segundo módulo avalia outros dois temas importantes escolhidos pelos gestores públicos.

O terceiro módulo avaliará os problemas e soluções associados aos indicadores, definindo as prioridades da cidade, apresentando problemas e soluções, definindo ações e traçando um diagnóstico mais elaborado. O módulo 4, por sua vez, é aquele em que os avaliadores terão sugestões para o desenvolvimento do plano diretor.

Além dos quatro módulos apresentados, existe ainda um módulo administrativo que disponibiliza relatórios destinados aos administradores do sistema.

Problemas da mobilidade urbana

O Planuts permitirá, entre outras coisas, identificar e avaliar problemas associados à mobilidade urbana, explorar informações espaciais da cidade, contribuir em processos de tomada de decisão e definir indicadores para utilizar no processo de avaliação e monitoramento, de modo a reduzir os congestionamentos nas cidades, diminuir o número de acidentes de trânsito e fazer com que a população utilize mais o transporte coletivo.

A participação da população ocorre individualmente no site do sistema, que foi desenvolvido com recursos de multimídia como textos, imagens e vídeos didáticos, permitindo a realização, de forma bastante dinâmica, de todo o processo de avaliação das categorias, temas e indicadores.

Os gestores municipais interessados em utilizar o dispositivo devem solicitar à docente um DVD com o programa e um material explicativo para implantação do sistema no município.

Brasileiros descobrem nanotubos metálicos quadrados

A nanotecnologia é uma área de pesquisa extremamente ativa, com milhares de artigos publicados nos últimos anos. Mesmo assim, a natureza ainda guarda muitos segredos sobre as nanoestruturas.

Nanotubos quadrados

Um desses segredos, contudo, acaba de ser revelado em artigo publicado na revista Nature Nanotechnology. Nele, uma equipe formada por pesquisadores do Instituto de Física da Universidade Estadual de Campinas (Unicamp) e do Laboratório Nacional de Luz Síncrotron (LNLS/MCT) descreve a descoberta de uma inesperada família de nanotubos metálicos ocos e quadrados.

O estudo, coordenado pelo professores Daniel Ugarte e Douglas Galvão, da Unicamp, identificou como se deformam, e finalmente quebram, arames nanométricos de prata. No processo, foi observada a formação espontânea de estruturas com uma base quadrada composta por apenas quatro átomos, a menor possível.

Nanossanfona

"Esse arranjo atômico oco ou tubular é completamente inesperado e se forma quando os nanofios são submetidos a uma alta taxa de estiramento", explica Ugarte, que também é pesquisador associado do LNLS.

Assim, os átomos mudam sua distribuição ou estrutura para uma configuração que pode ser descrito como uma nanossanfona, capaz de se esticar muito sem quebrar. Nenhum trabalho anterior tinha considerado como possível a existência dessa forma de estrutura, nem mesmo do ponto de vista teórico especulativo.

Detalhes atômicos

O artigo descreve com detalhes atômicos todos os processos de elongação gerados por tensão mecânica, utilizando experimentos de microscopia eletrônica de transmissão com resolução atômica e simulações de dinâmica molecular.

"Tais simulações computacionais sugerem que a estabilidade dessas estruturas pode ser o resultado de uma combinação de um tamanho mínimo necessário associado a um regime de alta tensão mecânica", afirma Galvão.

Nanopeças metálicas

Os resultados obtidos fornecem informações essenciais para compreender o atrito e a adesão, assim como para avaliar a possível utilização de nanopeças metálicas como reforço estrutural ou condutor elétrico em nanodispositivos eletrônicos. "Essa inesperada descoberta abre novas possibilidades para o estudo de nanoestruturas metálicas e sugere que talvez outras estruturas "exóticas" possam existir", completa Ugarte.

Além de Ugarte e Galvão, participaram também da pesquisa Maureen Lagos, doutorando e bolsista da Fundação de Apoio à Pesquisa do Estado de São Paulo (Fapesp), Fernando Sato (Fapesp), Jefferson Bettini (LNLS) e Varlei Rodrigues (Unicamp).

Futuro promissor

A nanotecnologia é uma das promessas para melhorar a qualidade de vida do ser humano no século 21. A expectativa é que ela possa gerar produtos e processos mais eficientes e econômicos, com menor gasto de energia e menos agressivos ao meio ambiente. Mas, para que o "nano" chegue às prateleiras, é necessário ultrapassar a barreira da pesquisa e, só então, entrar na fase de fabricação e possível comercialização.

A pesquisa em nanossistemas concentra um gigantesco esforço científico para entender e explorar sistemas muito pequenos. A industrialização de nanocircuitos, ou nanodispositivos, requer a avaliação precisa de aspectos como a confiabilidade e tempo de vida dos produtos. Contudo, o conhecimento sobre propriedades mecânicas dos nanossistemas (atrito, resistência, deformação, fadiga e quebras), ou sobre como manipulá-los, é quase inexistente.

Praticamente todos os dados de que se dispõem hoje são obtidos por meio de simulações computacionais sem validação prática ou experimental. Como conseqüência, poucos avanços concretos tem sido possível. Nesse contexto, o estudo conduzido no LNLS/Unicamp destaca-se por trazer contribuições validadas experimentalmente sobre propriedades até então pouco conhecidas dos nanotubos metálicos.

Fonte: LNLS

Indústria poderá produzir alimentos sem gordura trans

Para aumentar a durabilidade dos produtos alimentícios, as indústrias frequentemente adicionam hidrogênio aos óleos naturais, um processo chamado hidrogenação.

Mas a hidrogenação tem efeitos colaterais danosos: ela produz também gorduras trans, que têm efeitos adversos sobre a saúde, como a elevação dos níveis de colesterol e o aumento do risco de doenças coronarianas.

As gorduras trans também são encontradas em margarinas, bolachas, biscoitos e salgadinhos. Autoridades de saúde de todo o mundo recomendam que as pessoas evitem ou reduzam seu consumo das gorduras trans.

Catalisador com nanotecnologia

A boa notícia é que químicos da Universidade Riverside (Estados Unidos) descobriram um catalisador - uma substância que acelera uma reação química - que permite que os óleos hidrogenados sejam fabricados com uma geração quase zero de gorduras trans.

O novo catalisador também é feito de platina, como os catalisadores atualmente utilizados pela indústria. Mas a equipe do Dr. Francisco Zaera utilizou a nanotecnologia para alterar o formato das partículas de platina, tornando-as mais seletivas em relação às moléculas com que elas interagem.

A seletividade catalítica refere-se à capacidade de um catalisador em selecionar uma rota específica entre várias reações químicas possíveis. Neste caso, a seletividade refere-se à capacidade do catalisador em gerar gorduras hidrogenadas sem produzir gorduras trans.

O novo produto deverá ajudar a indústria alimentícia a manter os prazos de validade de seus produtos sem incluir neles elementos danosos à saúde dos consumidores. Os resultados da pesquisa foram publicados na revista Nature Materials.

Veja que cuidados tomar antes de assinar o seguro do carro

Escolher o melhor seguro para o carro não é uma tarefa tão simples. Falta de informação, más indicações e desatenção ou “esperteza” ao preencher o questionário das seguradoras podem render uma boa dor de cabeça. O primeiro passo para não assinar o contrato de uma verdadeira roubada é procurar mais de um corretor ou bancos que prestam este tipo de serviço e pesquisar bem os produtos oferecidos no concorrido mercado de seguros.

O corretor Ragime Torii, da CRJ Corretora de Seguros, aconselha aquele que queira fazer um novo seguro, ou até mesmo o primeiro, pedir indicação a amigos de confiança que já tenham um contrato. “Há muito ‘picareta’ neste ramo, é preciso tomar cuidado e ter boas referências”, afirma.

Com as referências, o interessado deve pesquisar os diversos planos das seguradoras com mais de um corretor de seguros ou bancos, de preferência, comparar pelo menos quatro planos diferentes. “O consumidor deve procurar o corretor para escolher o seguro que mais se adeque ao seu perfil”, diz a Superintendente da área de Automóveis da SulAmérica Seguros, Simone Sartor.

Em caso de dúvidas o corretor é importante, em especial, para o esclarecimento do questionário das seguradoras, usado para traçar o perfil dos clientes e calcular o valor da apólice. “É preciso ser claro e exato nas respostas. A veracidade garante a cobertura. É um contrato”, observa Simone em relação a possíveis "mentirinhas" usadas para diminuir o preço do contrato.

E a clareza na resposta está ligada à interpretação correta da pergunta. O corretor Ragime Torii fala de um caso em que o proprietário do veículo não mentiu, porém se equivocou com a pergunta. “A pessoa morava em uma casa estilo americana, sem muro, com um portão na frente, gramado e uma corrente delimitando o terreno. Ele achou que o espaço para o carro podia ser considerado uma garagem, mas não era. Quando roubaram o carro, o seguro não pagou, porque no questionário o proprietário dizia que tinha garagem e a empresa constatou que não tinha”, conta Torii.

Franquia e assistência
Seja feito por meio de um corretor ou por um banco, a superintendente da SulAmérica Seguros também destaca a importância do valor da franquia e da assistência prestada pela empresa. Segundo ela, é preciso esclarecer detalhes como a frequência da utilização do veículo, o que engloba o serviço de assistência 24 horas, se há equipamentos no veículo que também precisam ser segurados etc. “A agilidade na regulação do sinistro e o atendimento 24 horas são pontos importantes”, ressalta.

“A quilometragem que o guincho pode percorrer para pegar o carro é algo muito importante. Se ele não cobre a área de distância onde o seu carro quebrou, imagina, você terá de arrumar o carro em um lugar estranho, em uma oficina estranha, onde todo mundo sabe que você não é daquele lugar. Se o serviço não for bem feito, você terá de brigar com a oficina à distância”, exemplifica Torii.

Terceiros e catástrofes naturais
Falhas mecânicas, colisões isoladas, roubo e furto são riscos que boa parte das apólices cobrem, já quando há envolvimento de terceiros, não. Por esse motivo, Simone Sartor alerta para a importância da inclusão deste item. “Isso é se proteger de uma perda financeira que você não sabe quanto é de antemão”, diz. Ou seja, em um acidente não dá para escolher bater em um carro mais barato que o seu.

Outro ponto a ser checado na hora de assinar o contrato é a cobertura em caso de catástrofes naturais, seja para a indenização integral quanto para reparação. “O cliente deve estar atento a isso e conversar com o corretor para saber quais seguradoras oferecem este tipo de serviço”, comenta a superintendente da área de Automóveis da SulAmérica Seguros.

No caso específico de alagamentos, desde 2004, a Superintendência de Seguros Privados (Susep), órgão que fiscaliza as operações de seguro, determinou que todos os planos básicos – com cobertura contra colisão, incêndio e roubo – se responsabilizem também por submersão total ou parcial do veículo em água doce, inclusive se ele estiver guardado no subsolo.

Quando não vale a pena fazer o seguro?
Os valores do seguro variam de acordo com a idade dos usuários do veículo, o sexo, a freqüência da utilização e o nível de segurança do local onde o segurado mora ou trabalha. Outro fator que influencia é o modelo do veículo. Assim, Simone Sartor, recomenda comparar o valor da indenização com o valor do seguro. “Se o valor da indenização estiver próximo ao valor do seguro o proprietário mesmo paga o risco. Isso pode acontecer com carros muito antigos, porque os valores de indenização e das peças podem ser muito altos, inviabiliza a contratação”, explica.

“O seguro é a referência de um risco para qual o segurado passa para a seguradora. O importante é ver até que ponto a pessoa pode absorver o risco daquela perda sozinha ou transferir o risco para a seguradora”, acrescenta.

Na prática, Ragime Torii, aponta dois modelos que não valem a pena colocar no seguro: o Volkswagen Gol antigo e o Fiat Mille. Devido à visibilidade desses modelos para roubos e furtos, o valor da apólice sobe. Segundo ele, o seguro do modelo antigo do Gol chega a ser 50% mais caro de que modelos do mesmo preço em casos de que o segurado é um homem de 50 anos – perfil em que a cobrança do seguro costuma ser menor.

Embora o custo seja alto, se o carro não tem seguro nem está protegido de acidentes que envolvam terceiros, o prejuízo no carro será somado aos danos causados ao outro ou aos outros veículos envolvidos em um acidente.

Fonte: G1

Projeto da Faculdade de Medicina da Unesp propõe uso do Second Life em aula

Um projeto-piloto desenvolvido pela área técnica da Faculdade de Medicina da Universidade Estadual Paulista (Unesp), em Botucatu, propõe o uso do ambiente virtual Second Life nas aulas do curso.

A proposta é inserir vídeos e fazer simulações de procedimentos e técnicas e realizar palestras, em tempo real, voltadas para a área da saúde.

“É possível fazer desse site mais uma ferramenta de ensino”, afirma o analista de sistemas Leandro de Santi. Ele integra o Serviço Técnico em Informática (STI) da universidade, que desenvolveu a idéia com o Núcleo de Educação à Distância e Tecnologia de Informação em Saúde (Nead.TIS).

“Podemos simular a reanimação de um paciente ou o uso de um aparelho de radiografia, por exemplo. Após as aulas em sala, o aluno do curso pode acessar o site do Second Life e conseguir visualizar o procedimento”, diz Santi, que fez o projeto em parceira com o ex-aprimorando do Nead.TIS, Lucas Frederico Arantes.

A proposta foi apresentada pela primeira vez em na feira 3° Univerão, realizada no campus da Unesp em São Vicente, de 22 a 24 de janeiro.

“Ainda está muito recente e, por enquanto, está disponível só no nosso servidor interno. Nenhum curso adotou o recurso, mas esperamos que, com a divulgação, haja interesse.” A dupla pretende também disponibilizar essas informações na internet para que outras unidades da Unesp possam usar a ferramenta.

A previsão é que o sistema esteja na rede em definitivo somente no segundo semestre deste ano.

Fonte: G1

sexta-feira, 30 de janeiro de 2009

Saci Paraguaio Devolve Idoso Desaparecido!

Crer ou não crer, eis a questão. Após seis dias desaparecido, o aposentado Toribio Silvero, 75, foi encontrado por um amigo em meio a uma zona de mata situada a sete quilômetros de seu rancho em Eugenio Garay. Em entrevista ao Diário Crónica (18/01), Silvero confirmou que teve um encontro com seres mágicos (possivelmente, sacis) e se divertiu à beça no matagal. Não acredita? Clique aqui.

Energias renováveis são tema de encontro mundial no Brasil

Cientistas convidados pelo Painel Intergovernamental de Mudanças Climáticas (IPCC) estão reunidos no Instituto Nacional de Pesquisas Espaciais (INPE), em São José dos Campos (SP). A reunião vai até esta sexta-feira.

O objetivo do encontro internacional é a elaboração de um relatório especial sobre energias renováveis, que será redigido por 150 autores de 48 países, sete deles brasileiros.

Fontes Renováveis de Energia

O escopo do relatório foi delineado há um ano em uma reunião ocorrida na Alemanha, coordenada pelo Grupo de Trabalho III do IPCC, que se dedica a avaliar opções para limitar as emissões dos gases de efeito estufa. A proposta foi avaliada e aprovada pelos países membros do IPCC.

O relatório "Fontes Renováveis de Energia e Mitigação da Mudança do Clima" tem conclusão prevista para o segundo semestre de 2010. Com capítulos sobre biocombustíveis e segurança alimentar, desenvolvimento urbano, eficiência energética e outros temas científicos, reunirá informações relevantes aos agentes políticos, setores privados e da sociedade civil de todo o mundo no combate ao aquecimento global.

Importância do Brasil na mudança do clima

"Sediarmos aqui uma reunião do IPCC reflete a importância que o mundo confere ao Brasil na área de mudança do clima", comenta a assessora de Cooperação Internacional do INPE, Thelma Krug, que também faz parte do Conselho do IPCC. "A questão do etanol e o conhecimento significativo dos cientistas brasileiros sobre mudanças do clima colocam o Brasil em posição de destaque nesta discussão sobre energias renováveis".

Criado em 1988 pela Organização Mundial de Meteorologia e pelo Programa das Nações Unidas para o Desenvolvimento, o IPCC já contou com a participação de mais de dois mil especialistas como autores de várias publicações no tema de mudanças climáticas. Tem como objetivo avaliar a informação científica sobre os efeitos das mudanças no clima, destacar seus impactos ambientais e socioeconômicos e traçar estratégias de mitigação.

Criada a menor chave liga-desliga do mundo

Um pesquisador holandês criou a menor chave mecânica possível de ser fabricada, além de um novo tipo de chave eletrônica de um tipo que nunca havia sido demonstrado.

O feito é resultado da tese de doutoramento do físico Marius Trouwborst, na Universidade de Gronigen. "O objetivo final da nanotecnologia é usar moléculas para construir aparelhos eletrônicos. Esse objetivo está agora um pouco mais próximo," comentou o pesquisador.

Contato com um único átomo

Para fabricar suas chaves, Trouwborst desenvolveu uma técnica para organizar átomos de ouro de tal forma que torna-se possível construir com eles uma pequena chave liga-desliga, de operação totalmente mecânica, parecida com a de um interruptor comum de luz.

O contato da chave, que permite a passagem da corrente, é formado por um único átomo de ouro. O desenvolvimento exigiu uma pesquisa que trouxe um novo entendimento sobre como os elétrons viajam ao longo de átomos e moléculas individuais.

A chave foi fabricada colocando um nanofio de ouro sobre uma fita de plástico flexível. Dobrando-se a fita, o nanofio de ouro lentamente se estica. Um pouco antes de se partir, ele atinge um diâmetro de apenas um átomo de ouro.

Um movimento subsequente, extremamente preciso, afasta as duas pontas a uma pequena distância uma da outra. Embora o fio tenha se partido, e agora haja realmente dois pedaços de fio muito próximos entre si, a fratura não é definitiva. Assim que os dois se aproximam, a ligação entre os átomos é refeita e a corrente pode voltar a percorrer o circuito.

Pirâmide de ouro

Ao testar sua nanochave, fazendo-a funcionar várias vezes, o pesquisador percebeu que, a cada vez, os átomos se organizavam de uma maneira diferente nas extremidades de cada um dos pedações de fio. Até que, num determinado momento, eles assumiram o formato de uma pirâmide com um único átomo no vértice.

Estava pronta a chave definitiva, provavelmente a menor chave mecânica possível de ser construída.

"Movendo as duas extremidades para trás e para frente numa distância de 0,1 nanômetro, a chave pode ser ligada e desligada," explica Trouwborst.

Armadilha para moléculas

Além de funcionar como uma chave liga-desliga, o aparato também pode ser utilizado para aprisionar uma molécula entre as duas extremidades, o que é extremamente útil para se estudar as características eletrônicas de qualquer molécula - quando uma corrente é aplicada nos nanofios de ouro, toda a corrente é dirigida para a molécula que está sendo estudada.

Trouwborst usou moléculas de hidrogênio para estudar esse novo tipo de "armadilha eletrônica". Quando a tensão no circuito é elevado, a molécula de hidrogênio começa a vibrar, fazendo a resistência alterar-se prontamente, e finalmente salta fora da armadilha.

Isso leva à outra aplicação da nanochave, na forma de uma chave, não mecânica, mas eletrônica. "Você pode simplesmente ligar ou desligar o sistema fazendo a molécula vibrar ou parar de vibrar. Um tipo de chave assim nunca havia sido demonstrado antes," diz Trouwborst.

Cabos de alumínio com nanotubos reduzem perdas de eletricidade

Estima-se que hoje a perda de energia durante a transmissão nos cabos elétricos de alta tensão seja de cerca de 5,5 kW por quilômetro de linha. Isso sem considerar as perdas nas estações.

Uma pesquisa feita no Centro de Engenharia de Nanoprodutos da Fundação Educacional Inaciana Padre Sabóia de Medeiros (FEI) testou um cabo de alumínio com nanotubos de carbono que aumenta a condutividade elétrica em 170 vezes e reduz as perdas de energia em até 65% em relação aos cabos de alumínio tradicionais.

Alma de alumínio

O fio é composto de uma alma de alumínio com camada superficial de nanotubos de carbono. De acordo com o professor do Departamento de Engenharia de Materiais da FEI, Ricardo Hauch Ribeiro de Castro, orientador da pesquisa, o trabalho se destaca pela técnica de aplicação, de baixo custo e elevado rendimento, que confere à nova tecnologia a possibilidade de implantação industrial.

"Com um custo razoável de aplicação, esse novo conceito de fio poderia ser utilizado em linhas de transmissão, reduzindo as perdas significativamente. Redução de perdas representa queda no custo total de energia", disse Castro à Agência FAPESP.

Prêmio de Inovação Tecnológica

O projeto foi desenvolvido por Eric Costa Diniz, aluno de engenharia elétrica da FEI, e contou com a colaboração dos professores Marcello Bellodi e Alessandro La Neve, ambos do Departamento de Engenharia Elétrica.

A pesquisa conquistou o 1º lugar no Prêmio Werner von Siemens de Inovação Tecnológica em 2008, na categoria Estudante - Novas Ideias, categoria Energia. O projeto foi escolhido entre 253 trabalhos inscritos por estudantes de graduação e pós-graduação do Brasil. Como prêmio, Diniz recebeu R$ 10 mil.

Cabo de energia com nanotecnologia

De acordo com Castro, as perdas naturais na condução de energia ocorrem porque a superfície sofre ligeira oxidação, formando uma camada passiva, o que prejudica a condutividade. "Recobrindo a superfície do alumínio com nanotubos de carbono, esperava-se uma redução de perda, pois a condutividade elétrica dos nanotubos de carbono é elevada e tem um mecanismo diferente de condução eletrônica", explicou.

Segundo ele, esse novo fio abre perspectivas para a melhora da qualidade de transmissão de energia. "Além de reduzir as perdas, as propriedades mecânicas do cabo não são alteradas significativamente, já que a diferença entre o cabo tradicional de alumínio e o testado neste projeto é apenas uma camada superficial. Isso indica uma possibilidade concreta de substituição dos cabos atuais sem mudanças significativas na infraestrutura básica", disse.

Cabos de aço versus cabos de alumínio

A maior parte das linhas de transmissão do sistema brasileiro utiliza, segundo o professor, cabos de aço do tipo 636. "Os cabos de alumínio são utilizados com menor frequência. Mas eles vêm ganhando mercado nos últimos anos e há projeções de uma mudança total do sistema de linhas de transmissão para as próximas décadas", afirmou.

"Com a nova proposta de cabo de alumínio com nanotubos de carbono, os ganhos na redução de perda são muito mais expressivos. Isso poderia intensificar a migração dos cabos de aço para essa nova geração de cabos de transmissão nanotecnológicos, reduzindo as perdas de energia e economizando muito dinheiro", apontou.

O custo da nanotecnologia

O próximo passo da pesquisa será estender a experiência para cabos de condução maiores - o trabalho foi feito com um protótipo de 10 centímetros de extensão. A maior limitação, segundo Castro, é o custo relativamente alto, uma vez que os nanotubos de carbono utilizados são importados da China ou dos Estados Unidos. "Infelizmente, não há uma produção muito expressiva de nanotubos de carbono no Brasil, o que aumenta o custo do produto final."

Apesar dessa limitação, o professor da FEI afirma que a técnica de deposição dos nanotubos desenvolvida no projeto é economicamente viável. "Utilizando-se via líquida, foi possível montar um sistema eficaz e capaz de ser introduzido em uma fábrica de trefilação de cabos com investimentos relativamente modestos", disse.

"O ponto a favor é que, como é aplicada apenas uma única camada de nanotubos de carbono no corpo de alumínio, a quantidade utilizada é muito pequena. Estimamos o aumento do custo de fabricação de um fio de alumínio com nanotubos em R$ 3 por metro, em relação ao cabo convencional. Apesar de parecer muito, se considerarmos o ganho operacional nas reduções de perdas durante a transmissão, o novo cabo poderia ter vantagens econômicas significativas", destacou Castro.

Segundo ele, a pesquisa prosseguirá no melhoramento do protótipo. "O próximo passo é o alinhamento dos nanotubos de carbono em uma única direção para explorar ao máximo sua condutibilidade elétrica", disse.

Sensor de imagem flexível pode revolucionar a fotografia

Engenheiros criaram um novo material sensível à luz, totalmente flexível, que poderá revolucionar a fotografia e outras tecnologias de imageamento, eliminando a necessidade das enormes lentes telescópicas dos equipamentos profissionais e acabando com as imagens borradas e fora de foco dos equipamentos mais simples.

Distorção nas imagens

Quando uma câmera grava uma imagem, a luz passa através de uma lente e chega até um sensor fotossensível - o chamado CCD, nas câmeras digitais. Embora essa tecnologia venha produzindo resultados satisfatórios, há problemas físicos que devem ser contornados: a lente desvia a luz, curvando o plano focal.

Em uma câmera digital, por exemplo, o ponto onde o plano focal atinge o sensor está em foco, mas a imagem se torna cada vez mais distorcida, à medida que se afasta desse ponto focal preciso.

O problema aparece principalmente em fotos tiradas com telefones celulares, onde o sistema óptico é inferior ao das câmeras fotográficas profissionais, que corrigem o problema utilizando várias lentes para refratar a luz e aplanar o plano focal.

Sensor de luz curvo e flexível

Zhenqiang Ma e seus colegas da Universidade de Wisconsin, nos Estados Unidos, inspiraram-se no olho humano para criar um sensor curvo que elimina automaticamente a distorção, sem a necessidade dos caros, grandes e pesados conjuntos de lentes.

O "sensor" de luz do nosso olho, a retina, é curvo, eliminando a distorção. "Se você conseguir um plano de imagem curvo, você necessita de apenas uma lente," explica Ma. "É por isto que esta inovação é extremamente importante," diz ele. Tão importante que a descoberta virou capa da edição de Janeiro da revista científica Applied Physics Letters.

Nanomembrana de germânio

Em vez do silício duro e quebradiço dos sensores tradicionais, os pesquisadores utilizaram membranas extremamente finas de germânio, um semicondutor já frequentemente utilizado na construção de sensores de imagem com as tecnologias tradicionais, e que não é bem mais flexível do que o silício.

Essas nanomembranas podem ser aplicadas a qualquer substrato de polímero, tal como um pedaço fino e flexível de plástico. Por enquanto os sensores somente podem ser curvados em uma direção, mas o professor Ma afirma que já está trabalhando em uma nova versão que permitirá a construção de um sensor de imagem totalmente hemisférico.

Sensores inspirados no olho humano

Para conhecer outras pesquisas que trabalham no desenvolvimento de sensores que imitam o olho humano, veja Sensor flexível cria câmera digital que imita retina e Retina eletrônica imita a biologia para uma visão mais clara.

Micromotor viabiliza robôs que navegam pelas veias e artérias

Micromotores pequenos o suficiente para navegar no interior das artérias e veias do corpo humano podem se transformar nas mais modernas ferramentas para o tratamento de problemas cardiovasculares, incluindo embolias, infartos e derrames.

Os minúsculos motores estão sendo desenvolvidos por pesquisadores da Universidade Monash, na Austrália. Cada micromotor mede 250 micrômetros (um quarto de milímetro) e seu funcionamento baseia-se na energia piezoelétrica.

Cirurgias com robôs

As cirurgias não-invasivas, ou minimamente invasivas, estão entre as preferidas pelos médicos e pacientes devido aos menores riscos, menor tempo de internação e maior conforto para o paciente.

Contudo, nem mesmo nesses casos os riscos estão totalmente afastados, principalmente pela largura geralmente excessiva dos catéteres e sondas. Em alguns casos, essas cirurgias não são prescritas justamente porque o local a ser operado, como é o caso de certas artérias, não comporta os equipamentos disponíveis.

Microrrobôs com controle remoto

Esse problema poderá ser grandemente minimizado com microrrobôs miniaturizados, controlados remotamente por meio de conexões sem fios.

Apesar de grandes progressos em novos sistemas de propulsão, os pesquisadores australianos acreditam que os motores ainda representam uma alternativa mais viável e mais fácil de ser adotada em larga escala.(veja Bactérias são utilizadas como motores para microrrobôs e Cientistas descobrem como fazer um robô nadar no interior do corpo humano).

Tecnologia dos motores

O problema é que parece que a tecnologia dos motores não tem andado no mesmo ritmo que aquela empregada nos demais componentes utilizados na fabricação de robôs.

"Se você pegar um catálogo de produtos eletrônicos, irá encontrar todo tipo de sensor, LED, chips e memória etc., que representam a última palavra em tecnologia e miniaturização. Entretanto, dê uma olhada nos motores e você encontrará poucas mudanças em relação aos motores disponíveis nos anos 1950," diz o Dr. James Friend, coordenador da pesquisa.

Motores piezoelétricos miniaturizados

Foi pensando nesse hiato tecnológico que ele e sua equipe desenvolveram os novos motores piezoelétricos miniaturizados. Ao contrário dos motores elétricos rotativos convencionais, os motores piezoelétricos podem ser miniaturizados ao extremo, adaptando-se a uma série de novas aplicações.

"Oportunidades para micromotores estão por toda parte, em campos tão diversos quanto a biomedicina, a eletrônica, a aeronáutica e a indústria automotiva. As respostas para essas necessidades têm sido diversas, com projetos que utilizam forças de acionamento eletromagnéticas, eletrostáticas, termais e até osmóticas," comenta o Dr. Friend.

"Os designs piezoelétricos, contudo, têm características de escalabilidade e, em geral, são projetos mais simples, que oferecem uma excelente plataforma para o desenvolvimento de micromotores," conclui ele.

Os pesquisadores agora estão trabalhando no aprimoramento do sistema de controle à distância dos micromotores, para que eles possam ser testados em aplicações reais.

Cientista brasileira cria moléculas anti-inflamatórias e antimicrobianas

Moléculas com dupla atividade sintetizadas em pesquisa da Faculdade de Ciências Farmacêuticas (FCF) da USP poderão dar origem a fármacos que possuem ao mesmo tempo ação anti-inflamatória e anti-bacteriana.

O estudo da farmacêutica Tatiane Ferreira utiliza processos básicos de síntese, que poderão ser reproduzidos facilmente em escala industrial, sem aumentar os custos de produção.

Piridina

A cientista utilizou a piridina, uma substância comercial heterocíclica presente em diversos fármacos.

"Nas moléculas heterocíclicas, os átomos de carbono que formam anéis aromáticos se combinam com outros elementos", explica a professora Cristina Northfleet,da FCF, que orienta a pesquisa.

Dupla ação

Para obter os compostos com dupla atividade, a piridina é combinada a outros grupamentos com possível ação antibacteriana para gerar novas estruturas moleculares.

"Os processos inflamatórios possuem várias causas, como lesões físicas, traumas e ação de bactérias", conta a professora. "Ao se fazer a síntese de uma molécula anti-inflamatória com estruturas de atividade antibacteriana, é possível obter um fármaco que também age numa das causas da inflamação, reduzindo custos de produção e os riscos de efeitos colaterais decorrentes do uso de dois medicamentos distintos simultaneamente".

Reações químicas

A síntese das moléculas envolve duas reações básicas. "A piridina com dois grupamentos ácidos, passa por uma desidratação com anidrido acético, formando o anidrido quinolítico", explica Ferreira. "O anidrido é combinado com aminas contendo diferentes grupos químicos em sua estrutura, para gerar derivados com estruturas diferentes". Os resultados prévios da pesquisa apontam que a combinação com aminas do grupamento nitro (NO2) geram moléculas com maior potencial para a dupla atividade.

Mal-estar causado pela inflamação

Ao mesmo tempo, também é testada a síntese da piridina com aminas dos tipos metil, bromo, cloro, flúor e CF3. Depois da síntese e da identificação da estrutura das moléculas, serão realizados testes para confirmar a dupla atividade. "O efeito anti-inflamatório será verificado a partir do efeito inibitório de COX2, a enzima que gera o mal-estar associado a inflamação", aponta Northfleet. "Para que a molécula seja considerada eficiente, é preciso que ela iniba a ação desta enzima.".

A padronização desse teste será feita no Instituto Butantan, para que os exames sejam continuados na FCF. "O efeito anti-bacteriano vai ser testado em cepas-padrão existentes nos laboratórios da Faculdade", completa a professora. "Os resultados finais das duas análises deverão ser conhecidos até dezembro".Paralelamente, serão realizados testes de citotoxicidade e mutagenicidade com as moléculas sintetizadas, por meio de um convênio com a Universidade de Parma (Itália).

Toxicidade

"É necessário saber se a molécula pode provocar toxicidade celular a curto ou médio prazo, e qual o potencial mutagênico decorrente da emissão de radicais-livres", afirma Cristina Northfleet. "Atualmente, a preocupação com possíveis efeitos colaterais dos fármacos faz com que eles sejam verificados durante o desenvolvimento das moléculas, bem antes dos testes em animais e seres humanos".

Tatiane Ferreira ressalta que o desenvolvimento das moléculas é feito a partir de processos básicos de síntese, que podem ser facilmente adaptáveis em grande escala. "A determinação dos solventes utilizados, da temperatura e do tempo da reação levam em conta os padrões da produção industrial", explica a farmecêutica. "Também é analisada a geração de resíduos, de modo que a maior parte dos subprodutos possa ser reaproveitada".

Planta do cerrado tem ação anti-inflamatória que combate asma

Pesquisa realizada na Faculdade de Ciências Farmacêuticas de Ribeirão Preto (FCFRP) da USP demonstrou que o extrato bruto etanólico e o princípio ativo isolado da casca do caule de Lafoensia pacari, popularmente conhecida como dedaleira - planta típica do cerrado brasileiro, é popularmente conhecida - têm ação anti-inflamatória na asma.

O trabalho, publicado na revista científica European Journal of Pharmacology (v. 580, p. 262-270), tem sua origem na tese de doutorado do pesquisador Alexandre de Paula Rogério.

Estes estudos, conduzidos sob orientação da imunologista Lúcia Helena Faccioli, da FCFRP, foram realizados em colaboração com vários pesquisadores, como o professor Momtchilo Russo, do Departamento de Imunologia do Instituto de Ciências Biomédicas (ICB) da USP.

Extrato de dedaleira

Os pesquisadores prepararam um extrato bruto etanólico que se mostrou eficaz no tratamento e prevenção de alguns sintomas da asma, em ensaios de modelos experimentais, abrindo uma perspectiva para o uso da dedaleira no tratamento de processos alérgicos.

Segundo a professora Faccioli, a escolha da planta foi motivada pelo conhecimento do seu uso popular através dos trabalhos da pesquisadora Deijanira Alves de Albuquerque, da Universidade Federal de Mato Grosso (UFMT), que forneceu a matéria-prima para os experimentos.

Princípio ativo

Um modelo experimental de asma foi reproduzido em laboratório para poder estudar os mecanismos envolvidos e testar a ação do extrato bruto e do princípio ativo da planta, como quando ocorre a hiperreatividade brônquica, por exemplo. "O extrato bruto etanólico da casca do caule foi fracionado até identificar um dos componentes com atividade anti-inflamatória", explica Faccioli.

Assim que foi identificado o ácido elágico como princípio ativo, começaram as experiências no modelo de asma. Ao término dos trabalhos, a equipe comprovou que o ácido elágico era o componente da casca do caule da dedaleira responsável pela redução do acúmulo de células inflamatórias, como eosinófilos e neutrófilos, normalmente presentes nos pulmões de pacientes com quadro asmático.

Além disso, os pesquisadores observaram redução da produção de citocinas que direcionam os processos inflamatórios nas alergias, na asma e em algumas parasitoses.

Tratamento parcial

No entanto, nem todos os atributos importantes da asma foram controlados com o tratamento. O extrato bruto foi incapaz de inibir significativamente a síntese de substâncias (leucotrienos), que causam broncoconstricção, secreção de muco e aumento da permeabilidade vascular, também característicos da asma.

"Apesar de inibir mediadores inflamatórios (citocinas), (o extrato) não consegue inibir o bronco-espasmo, uma característica da asma", pondera a imunologista.

Contudo, os pesquisadores observaram uma tendência do tratamento com ácido elágico em diminuir a síntese de leucotrienos, concluindo que esses tratamentos reduzem alguns dos mais significativos fenótipos relacionados com a asma, o que confirma o uso popular da dedaleira como agente anti-inflamatório.

Cultivo de plantas medicinais

Devido a esse efeito, presume-se que a dedaleira pode ser cultivada para a extração da casca do caule para uso medicinal. Em algumas regiões de Mato Grosso e no leste do Paraguai, a população já possui o hábito de usar o extrato aquoso da casca dessa planta como tônico para tratar inflamações, úlceras gástricas, auxiliar na cicatrização de feridas e combater a febre. No Paraguai, a planta é chamada de "morosyvo" e é utilizada, em geral, para o tratamento de câncer.

Outra possibilidade é que o ácido elágico pode atuar também como aliado no tratamento e prevenção de tais doenças. "Além de ser um dos metabólicos secundários da dedaleira, esse ácido é um composto fenólico encontrado principalmente em frutas vermelho-alaranjadas, como morango, framboesa e amora", explica Faccioli. "São substâncias que potencializam o efeito dos remédios, podendo ser usadas como suplementos", informa. "Com base em ensaios in vitro e in vivo, há indicativos de que o extrato etanólico da Lafoensia pacari não é tóxico."

Pesquisadores criam sistema que esfria chips com moléculas termoelétricas

Para evitar o superaquecimento de computadores, gamers e fanáticos por performance têm usado líquidos como nitrogênio para esfriar suas CPUs que passaram por um processo de overclocking.

Uma solução mais ‘elegante’, contudo, está a caminho. Pesquisadores da Intel, RTI International e da Universidade do Arizona desenvolveram um micro refrigerador que pode ser incluso em chips para ‘puxar’ o calor dos spots com precisão cirúrgica.

Isto permite que estes sistemas na escala nano sejam menores e usem menos eletricidade do que arranjos feitos com ventilação, nitrogênio líquido e afins, segundo o pesquisador da RTI, Rama Venkatasubramanian.

Este pequeno refrigerador é um filme super fino feito de moléculas termoelétricas, usadas para converter o calor em eletricidade. Os pesquisadores conseguiram reduzir o calor em uma CPU em 15º C. A visão otimista, contudo, é que usando mais materiais no chip de silício, seja possível resfriá-lo em até 40º C.

A eficiência energética do micro refrigerador é outra vantagem de seu uso - quando ativo, ele usa entre 2 e 3 watts. Venkatasubramanian prevê que, em 3 ou 4 anos, os fabricantes de chip não poderão continuar a melhorar a performance da CPU sem soluções alternativas como esta.

Fonte: IDG Now!

quinta-feira, 29 de janeiro de 2009

Ranking Turma do Boliche

Caros leitores do Blog do Abel, excepcionalmente resolvi escrever (no lugar do velhote Sansão) a nossa já tradicional e querida "coluna" do boliche da semana.

Pela primeira vez na história da turma um PROFISSONAL jogou conosco! Isso mesmo, Guilherme e Sapetão, que já estavam roubando o trono do Denis de pagador oficial, estavam com tanto medo nas bases que tiveram que contratar um profissonal para ganhar o jogo, e o pior, ainda vieram com uma história muito da mal contada dizendo que era primo deles, que ele não jogava a muito tempo e bla-bla-bla.

Vejam aqui o vídeo do "primo" e tirem suas conclusões!


Agora falando sério, os caras vieram mordidos demais, definitivamente foi um grande erro ficar mandando todos aqueles SMS pro celular dos caras todos esses dias, e fazer aquelas faixas de PAGADOR pros caras acho que contribuiu também.

Os caras (Guilherme, Gustavo e Pedro) ja vieram com força na primeira partida, se não fosse o BANANA afundar (EM TODAS AS RODADAS) o TIME (Sansão e Denis) dava pra equilibrar o jogo.

Na segunda rodada os caras fingiram que tavam jogando mal só pra tirar o doce da boca da criança, muito MALVADOS DO MAL esses caras!

A terceira rodada foi muito disputada, aliás uma das rodadas mais disputadas do boliche, até que o BANANA amarelou apartir da 8ª bola e afundou NOVAMENTE o time.

Nessa altura do campeonato Gustavo, Sapetão já estava batendo uma e extasiado começou a mandar das suas: Chuupaaa seus merdas, bando de perdedores, nóis é foda, tomem dessa.

Então veio o tudo ou nada, e também o massacre, logo de cara Pedro manda seis (06) strikes na sequência (não sei o nome disso em inglês), e só restou ao então time invicto pagar a continha no caixa, é claro que o povo do caixa ficou surpreso, só perguntavam: "Mas cadê o Sapetão e o Guilherme (Mister Caixa), eles não vão pagar não?"

É, DESSA vez não!!!!!!!!!! hehehe ;)

Computador cognitivo será inspirado no cérebro de um camundongo

Se um pequeno mamífero, como um camundongo, recebe um choque elétrico depois de entrar em determinado buraco, ele aprende a não entrar mais nesse buraco, e não o fará mais mesmo depois que a corrente elétrica tenha sido desligada.

Já um computador, que encontre um determinado erro ao executar uma rotina específica de um programa, continuará tentando executá-la infinitas vezes, tão logo receba a instrução para fazê-lo. E continuará travando em todas as tentativas.

Computador cognitivo

A diferença crucial é: o animal aprende com a prática e o computador não.

Pensando em superar essa deficiência, um grupo multidisciplinar de várias universidades dos Estados Unidos, que reúne de nanotecnologistas a cientistas da computação, está tentando desenvolver o primeiro computador capaz de aprender, um "computador cognitivo."

Falar é fácil

Embora futurólogos de todos os matizes estejam ganhando a vida dando conferências e vendendo livros que dão até data para quando os computadores superarão o cérebro humano, os cientistas que trabalham efetivamente no desenvolvimento de computadores mais inteligentes do que os atuai sabem que a tarefa é extremamente difícil.

"Nós estaremos muito felizes se conseguirmos replicar o cérebro de um camundongo. Um cérebro de camundongo é impressionante. E, a partir daí, não deverá ser difícil passar para o cérebro de um rato, depois de um gato e, quem sabe, de um macaco," afirma o Dr. Giulio Tononi, da Universidade Wisconsin-Madison, nos Estados Unidos.

Replicando o essencial

E o Dr. Tononi coloca todas as ressalvas no termo "replicação." Segundo ele, a idéia do projeto é inspirar-se no funcionamento do cérebro de um pequeno mamífero, mas simplesmente não é possível e nem mesmo desejável ou necessário reproduzir a estrutura inteira do cérebro do camundongo até o nível das sinapses individuais.

"Uma grande parcela do trabalho será determinar quais tipos de neurônios são cruciais e quais nós podemos descartar," explica ele. Os pesquisadores planejam concentrar-se nos mecanismos neurológicos de premiação do cérebro, estruturas que liberam neurotransmissores que sinalizam estados de bem-estar e de dor ou sofrimento.

Esses mecanismos são essenciais porque eles podem levar ao aprendizado, fazendo com que o animal repita ações que lhe renderam satisfação e evite ações que lhe causaram dor.

Computador capaz de aprender

Os cientistas planejam criar uma nova arquitetura de hardware e programas para rodar nesses novos chips que se baseiam nos neuromoduladores do cérebro. Por exemplo, alguns neurônios liberam um neurotransmissor durante momentos de estresse repentino, que servem para fazer com que o animal assuma posturas de lutar ou de fugir.

"Cada neurônio no cérebro sabe que alguma coisa se alterou," explica Tononi. "Ele diz ao cérebro, 'Eu fui acionado e se você quiser fazer alguma coisa, então faça agora'."

Um computador cognitivo que consiga replicar esse mecanismo poderá simplesmente aprender a não executar funções que levem ao travamento ou evitar loops infinitos.

Arquitetura plástica

O Dr. Tononi, que é psiquiatra, vai coordenar o grupo, que reúne pesquisadores da Universidade de Colúmbia e da IBM, responsável pela programação do software do computador cognitivo.

Pesquisadores das universidades de Cornell, Stanford e Merced serão responsáveis pela construção do hardware, que utilizará os mais recentes avanços da nanotecnologia para construir uma arquitetura totalmente nova, uma "arquitetura plástica," dizem eles, que se adapte a novas situações e se altere com o aprendizado.

Protótipos de satélites brasileiros são testados na China

Os protótipos dos satélites artificiais CBERS-3 e 4 começaram a ser testados na China. Os testes deverão durar até Abril deste ano. Os dois satélites têm lançamentos previstos para 2010 e 2013, respectivamente.

Os equipamentos foram transportados pelo Instituto Nacional de Pesquisas Espaciais (INPE) em novembro de 2008 para a montagem do modelo elétrico dos satélites, que atualmente passam por uma bateria de testes.

Programa CBERS

Segunda geração de satélites desenvolvidos em parceria pelo Brasil e China, os CBERS-3 e 4 representam uma evolução dos satélites CBERS-1, 2 e 2B, este último lançado em setembro de 2007.

O INPE é responsável no Brasil pelo Programa CBERS (sigla para China-Brazil Earth Resources Satellite; em português, Satélite Sino-Brasileiro de Recursos Terrestres), parceria iniciada com a China há 20 anos e que garantiu a ambos os países o domínio da tecnologia do sensoriamento remoto.

Testando os satélites

As atividades iniciaram em dezembro, após inspeção para certificar que não houve nenhum dano na viagem de transporte, com testes elétricos e verificação de todos os equipamentos, em suas embalagens e nos registradores de choque e umidade. Apenas depois desta inspeção geral os equipamentos foram montados na estrutura do satélite para a realização dos testes elétricos.

"Dada a complexidade do satélite, seus testes elétricos são realizados por 'Estados', chamados de A, B, C e D. O satélite é progressivamente integrado para ser configurado em cada um de seus Estados. Por exemplo, no Estado A o satélite está com o Módulo de Carga útil (PM) separado do Módulo de Serviço (SM) e não tem alimentação por baterias", explica José Iram Barbosa, chefe do Serviço de Garantia do Produto do INPE.

Os testes A1, na primeira quinzena de dezembro, verificaram a interface de potência entre todos os equipamentos. Os resultados destes testes indicaram que o satélite poderia seguir para os testes A2, que tiveram início no começo de janeiro e deverão ser concluídos ainda este mês. De março a abril serão realizados os testes dos Estados B, C e D.

No Brasil, foram concluídos em dezembro os testes vibratórios e acústicos do modelo mecânico, que agora está sendo preparado para o início dos ensaios térmicos.

O desenvolvimento do satélite brasileiro

De forma mais ampla, o desenvolvimento do CBERS é dividido em fases. A primeira (fase A) contempla a concepção geral do satélite, um estudo de viabilidade técnica e a definição de uma estratégia de desenvolvimento, incluindo cronograma e estimativa de custos.

A fase B é a fase de projeto preliminar na qual se definem as concepções dos subsistemas do satélite e as especificações em nível de sistema (satélite) e subsistema. Esta fase é concluída com a PDR (Revisão de Projeto Preliminar) do sistema.

Em seguida, inicia-se a fase C, fase de projeto detalhado. Nesta fase, é feito o projeto detalhado de todos os subsistemas, levando-se em conta, além dos requisitos funcionais e de desempenho, todos os requisitos específicos do ambiente espacial.

Na fase C, são construídos os modelos de engenharia (ME) dos subsistemas e equipamentos. Estes são equipamentos construídos utilizando-se componentes eletrônicos funcionalmente equivalentes aos que serão utilizados nos modelos de qualificação e de vôo, mas sem qualificação espacial.

Modelos de engenharia

O objetivo dos MEs dos subsistemas é realizar a verificação funcional, de desempenho e de compatibilidade eletromagnética. Após a verificação em nível de subsistemas, são feitos a integração e os testes do modelo elétrico do satélite, que têm por objetivo verificar os requisitos funcionais, o desempenho e a compatibilidade eletromagnética do satélite como um todo.

Em paralelo à construção e testes do modelo elétrico, outros modelos de desenvolvimento do satélite são construídos, para verificar outros tipos de requisitos.

Um modelo estrutural com todas as características mecânicas do satélite e dos subsistemas é construído e testado. O objetivo desse modelo é verificar se o satélite vai resistir aos esforços mecânicos impostos ao longo de sua vida, principalmente os esforços do lançamento. Esse modelo é submetido a testes estáticos e dinâmicos (vibração e acústico).

Um modelo térmico é construído com as características térmicas do modelo de vôo e é submetido a teste de balanço térmico (TBT) em câmara termo-vácuo. O objetivo deste teste é verificar se todos os equipamentos e subsistemas suportarão as diferenças de temperatura durante a operação em órbita.

Um modelo radioelétrico do satélite com as características radioelétricas (antenas, formas, superfícies) é construído e testado em campo de antenas para verificar diagramas de radiação e interferências em RF.

Na fase C também são construídos modelos de qualificação dos subsistemas, cujos projetos são novos. Esses modelos de qualificação são fabricados com o mesmo nível de qualidade dos modelos de vôo, utilizam componentes eletrônicos qualificados para uso no espaço e são submetidos a ensaios ambientais de qualificação, em níveis de vibração e faixas de temperatura superiores aos previstos para o modelo de vôo.

No final da fase C é realizada a CDR (Revisão Crítica do Projeto), onde se verifica se o projeto dos subsistemas e do satélite está finalizado e atendendo às especificações, e se os preparativos para a fabricação dos modelos de vôo estão concluídos e sua fabricação pode ser iniciada.

Na fase D são construídos os modelos de vôo dos subsistemas, depois realizadas a integração e os testes do satélite e, finalmente o lançamento em órbita.

O desenvolvimento dos satélites CBERS-3 e 4 encontra-se atualmente na fase C.

Fonte: INPE

Formigas já representam ameaça à saúde nas cidades

As formigas, animais cujo comportamento é frequentemente associado aos modelos de organização social humana, adaptam-se facilmente aos ambientes urbanos. Essa característica, no entanto, vem despertando a atenção de pesquisadores por representar um risco à saúde: um novo estudo, publicado na Revista da Sociedade Brasileira de Medicina Tropical, demonstra que as formigas podem ser veiculadoras de micro-organismos em ambiente hospitalar.

O estudo teve o objetivo de isolar e identificar os micro-organismos associados às formigas em ambiente hospitalar e os resultados apontaram que as formigas coletadas apresentaram alta capacidade de veiculação de grupos desses micro-organismos.

Perigo representado pelas formigas

De acordo com a professora do Instituto Básico de Biociências da Universidade de Taubaté Mariko Ueno - coautora do artigo ao lado de Rogério dos Santos Pereira, do Departamento de Biologia -, uma das grandes dificuldades para o controle da densidade populacional de formigas em ambientes urbanos é o fato de que elas não são normalmente reconhecidas como agentes veiculadores de doenças em potencial.

"As formigas transitam, de maneira geral, por lugares limpos, o que faz com que não se pense no fato do real perigo que elas representam" disse Mariko à Agência FAPESP.

A pesquisa aponta que a estrutura arquitetônica, a proximidade de residências, as interferências climáticas e as oscilações térmicas são alguns dos fatores que influenciam a presença de formigas nos hospitais.

A pesquisa

Os pesquisadores coletaram 125 formigas, todas da mesma espécie, em diferentes unidades de um Hospital Universitário. Cada formiga foi coletada com um swab - instrumento usado para a coleta de material microbiológico em laboratórios de análises clínicas -, embebida em solução fisiológica e transferida para um tubo com um meio de cultura de micro-organismos composto de caldo BHI (Infusão de cérebro e coração, na sigla em inglês). Ali, os animais ficaram incubados a 35 graus Celsius por 24 horas.

Quase 100% de infestação

Os resultados apontam que 98,40% das amostras coletadas apresentaram crescimento. Foram isolados 208 micro-organismos, como bacilos Gram positivos, bacilos Gram negativos, cocos Gram positivos, leveduras e fungos filamentosos.

Segundo a pesquisadora, os testes comprovam o que estudos feitos anteriormente descreviam. "A porcentagem de 98,40% é um fator contundente na possibilidade de veiculação mecânica e ou biológica de micro-organismos", afirma.

Ela alerta que a descoberta, associada às características biológicas, torna as formigas "potenciais veiculadores de micro-organismos e sua infestação em ambiente hospitalar constitui um risco à saúde pública".

Infecções hospitalares

Atualmente, segundo o estudo, as enterobactérias e a bactéria Staphylococcus coagulase negativa são os maiores responsáveis por infecções hospitalares.

"É grande a variedade de espécies encontradas. E esse fato pode ser explicado devido à grande versatilidade na exploração e capacidade de disseminação desses organismos, que se caracterizam por apresentar ampla distribuição geográfica", acrescenta Mariko.

Nas últimas décadas, segundo a pesquisadora, as infecções por fungos oportunistas têm emergido como as grandes responsáveis pelo aumento dos casos de morbidade e mortalidade de pacientes imunodeprimidos, tendo como principal causa a Aspergillus spp.

Formigas e fungos

De acordo com a professora, é possível associar as formigas aos fungos devido ao ambiente explorado por esses insetos, "onde coincidem as condições físico-químicas propícias para a proliferação desses micro-organismos".

"Essas condições de associação são muitas vezes criadas pelas formigas de forma a conseguir benefícios, oferecendo situação propícia para a proliferação de fungos de modo geral, devido à semelhança da biologia desses micro-organismos", diz.

O conhecimento e a constatação dessas associações, afirma, podem ser considerados um grande problema para a sociedade tendo em vista a grande capacidade de adaptação das formigas ao ambiente urbano, pois elas potencializam a capacidade de dispersão dos fungos.

Transmissão biológica e mecânica

"Tanto de forma mecânica, transportando partículas de ambientes contaminados para locais ou objetos não contaminados, como de forma biológica, atuando como um reservatório de fungos patogênicos ao homem", explica Mariko.

Segundo o estudo, levantamentos realizados em 12 hospitais do Estado de São Paulo revelam infestação por formigas, apresentando maior índice nos berçários e nas unidades de terapia intensiva (UTI). Os resultados apontaram que 16,5% das formigas coletadas apresentavam bactérias patogênicas.

De acordo com a professora, as formigas possuem capacidade de se deslocar rapidamente e normalmente percorrem extensas áreas. "Além de constituir vetores de micro-organismos em ambientes intra-hospitalares, elas agem também como importantes vias de dispersão de resistência a drogas nesses ambientes."

Ferramenta verifica autenticidade de dados digitais, mesmo no futuro

A tecnologia digital fácil de usar tornará mais difícil distorcer a história no futuro.

Na próxima terça-feira, um grupo de pesquisadores da Universidade de Washington divulgará o componente inicial de um sistema público para oferecer autenticação a um arquivo de entrevistas em vídeo com os promotores e outros membros do Tribunal Criminal Internacional do genocídio de Ruanda. O grupo também liberará a primeira parte dos arquivos do arquivo ruandês.

Esse sistema pretende estar disponível para uso futuro em preservação digital e autenticação de prestações de contas em primeira mão de crimes de guerra, atrocidades e genocídios.

Tais ferramentas são de vital importância, pois se tornou possível alterar texto, vídeo e áudio digitais de maneiras virtualmente invisíveis a olhos e ouvidos humanos.

Os pesquisadores dizem que a história estava repleta de incidentes de registros escritos envolvendo tratar, deletar e negar. Agora, dizem eles, a autenticidade de documentos digitais como vídeos, transcrições de explicações pessoais e registros de tribunais podem ser incontestavelmente provados pela primeira vez.

"A analogia mais próxima são as histórias revisionistas do Holocausto, onde há afirmações sobre pessoas que não foram colocadas em campos, e sim em fornos", disse Batya Friedman, professora de ciência da computação da Escola de Informação na Universidade de Washington.

Projetar sistemas digitais que podem preservar a informação por muitas gerações é um dos mais incômodos desafios da engenharia. A solução dos pesquisadores é criar uma impressão digital disponível publicamente, conhecida como marca hash criptografada, que tornará possível a qualquer um determinar quais documentos são autênticos e não foram alterados. O conceito de uma marca hash digital foi iniciado na IBM por Hans Peter Luhn, no início dos anos 50. Os pesquisadores da Universidade de Washington são os primeiros a tentar simplificar o aplicativo para usuários não-técnicos e tentar oferecer um sistema completo que preservaria a informação através de gerações.

Tanto pelo rápido passo da inovação, quanto pela tendência dos computadores de se tornarem obsoletos em meses ou anos, a probabilidade de que arquivos digitais sejam legíveis por longos períodos de tempo é muito menos certa até mesmo do que a sobrevivência dos documentos de papel. Os processadores de computador são rapidamente substituídos por modelos incompatíveis, programas de software são desenvolvidos com novos formatos de dados, e mídias de armazenamento digital, sejam fitas digitais, discos magnéticos ou chips de memória de estado sólido, são todas efêmeras demais.

Muitos tecnólogos já estão lutando com a natureza transitória dos arquivos digitais.

Danny Hillis, cientista de computadores, ajudou a fundar o projeto Long Now, em 1996, advertindo sobre a possibilidade de uma "era negra digital". O grupo agora está projetando um relógio que irá "fazer tique-taque" anualmente e é desenhado para ter um ciclo de vida de 10.000 anos. A intenção é que ele seja um contraponto ao ethos "mais rápido/mais barato" do cada vez mais computadorizado mundo atual.

Hillis argumentou que, antes do crescimento da informação digital, as pessoas valorizavam os documentos de papel e gostavam deles. Desde então, se presta cada vez menos atenção à preservação de informações. Hoje a informação é rotineiramente armazenada em mídias que podem durar apenas alguns anos.

Com essa finalidade, outro cientista da computação, Brewster Kahle, fundou em 1996 o Arquivo de Internet, num esforço para preservar um registro completo da World Wide Web e outros documentos digitais. Similarmente, bibliotecários da Universidade de Stanford criaram, em 2000, o LOCKSS, ou Lots of Copies Keep Stuff Safe (Montes de Cópias Mantêm as Coisas Seguras, tradução livre), para preservar jornais na era digital, espalhando cópias digitais de documentos por uma comunidade internacional de bibliotecas via internet.

Entretanto, Friedman distingue seu projeto daqueles que focaram na simples preservação de materiais digitalizados. Ao invés disso, ela disse estar tentando desenhar sistemas digitais completos, que desempenhariam um papel em fortalecer instituições sociais ao longo do tempo ao criar um registro histórico digital que oferecesse continuidade através de ciclos de vida múltiplos.

"Construir um relógio é simbólico", disse ela. "O que é realmente diferente é que estamos tentando solucionar problemas socialmente significativos do mundo real."

Já que problemas como genocídios, HIV e AIDS, fome, desmatamento e aquecimento global não serão resolvidos num único período de vida humano, ela argumenta que os sistemas de informação projetados para assegurar a continuidade por muitas gerações são uma necessidade.

Para fundamentar a pesquisa do grupo numa situação do mundo real, os pesquisadores começaram construindo um arquivo de entrevistas em vídeo com os juízes, promotores e outros membros do Tribunal Criminal Internacional para Ruanda. O objetivo era criar um sistema que asseguraria a segurança das informações por mais de um século.

No último outono, Friedman viajou com um grupo de peritos legais e cineastas a Arusha, na Tanzânia, onde está baseado o tribunal, e a Kigali, na Ruanda, para gravar entrevistas em vídeo.

Após capturar cinco gigabytes de vídeo em 49 entrevistas, o grupo começou a trabalhar num sistema que permitisse aos espectadores provar, por eles mesmos, que os vídeos não foram alterados, mesmo sem dispor de equipamentos poderosos de computação ou uma conexão de alta velocidade à internet.

Apesar do fato de haver aplicativos comerciais que possibilitam provar a hora em que um documento foi criado e verificar possíveis alterações, os pesquisadores queriam desenvolver um sistema disponibilizado de forma gratuita e que tivesse alguma chance de sobreviver a repetidas trocas de tecnologia.

No coração do sistema há um algoritmo usado para computar um número de 128 dígitos conhecido como um hash criptografado da informação digital num certo documento. Mesmo a menor mudança no documento original resultará num novo valor de hash.

Nos últimos anos, pesquisadores começaram a encontrar falhas nos algoritmos de hash atuais – então, em novembro último, o Instituto Nacional de Padrões e Tecnologia iniciou uma competição para criar tecnologias mais fortes de hash. Pesquisadores da Universidade de Washington agora usam um algoritmo moderno chamado SHA-2, mas projetaram o sistema de forma que ele possa ser facilmente substituído por um algoritmo mais avançado.

Seu sistema será distribuído como parte de um CD conhecido como "live CD", permitindo que ele compute ou verifique o hash apenas inserindo o disco num computador. O disco também incluirá componentes de software que tornarão possível visualizar documentos e vídeos que poderão não ser acessíveis a softwares futuros.

O problema é complexo, diz Michael Lesk, professor do departamento de biblioteca e ciência da informação da Universidade Rutgers, porque você precisa ser capaz de provar não só que a informação não mudou em seu formato original, mas também que, se o formato for alterado, o hash digital original ainda seja válido.

A Fundação Long Now está desenvolvendo uma ferramenta de software para converter facilmente documentos entre formatos digitais, diz Stewart Brand, co-fundador do projeto.

"A ideia é conseguirmos transformar qualquer coisa em qualquer outra coisa", diz ele.

Fonte: G1

Economista cria calculadora que prevê chance de divórcio

A economista americana Betsey Stevenson desenvolveu uma 'calculadora do casamento' que poderia prever as chances de divórcio.

A ferramenta, disponível na internet , funciona com uma comparação de estatísticas dos divórcios realizados nos Estados Unidos com os dados fornecidos pelos usuários.

O "cálculo" resulta da análise de informações como idade, tempo de casamento, número de filhos e grau de escolaridade do usuário.

Essas informações são então comparadas com estatísticas do Censo americano sobre os divórcios realizados no país. Dessa forma, o usuário da calculadora recebe uma estimativa do percentual de pessoas com perfis similares que se divorciaram no passado e faz projeções sobre as chances de divórcio dentro de cinco anos.

"Com a calculadora do casamento, você pode descobrir como muitas pessoas com perfil parecido se divorciaram", explica Stevenson.

"Em resumo, o passado está sendo usado para determinar o futuro com essa calculadora", disse G.Cotter Cunninghma, diretor do site que hospeda a ferramenta.

Riscos

Segundo Stevenson, pesquisadora da Universidade da Pensilvânia e especialista em casamentos e divórcis, o risco de divórcio é menor para pessoas que possuem pelo menos grau superior de escolaridade e se casam mais velhas.

Ela afirma que, entre as pessoas que se casaram nos últimos anos, a taxa de divórcio é menor entre aquelas que se casaram depois dos 30 anos. Ela explica ainda que, quanto mais cedo se casa, maiores são as chances de divórcio.

"Apesar de ser difícil identificar o que está causando essa relação, a partir dessas informações eu aconselharia meus amigos a casarem quando estiverem mais velhos", disse a economista.

Fonte: G1

Google lança plataforma aberta que identifica filtros na internet

O Google, o Open Technology Institute, o PlanetLab Consortium e pesquisadores lançaram, na quarta-feira (28/01), o Measurement Lab (M-Lab), uma plataforma aberta que permite a identificação de bloqueios promovidos pelos provedores.

Também é possível, com o M-Lab, medir a velocidade da conexão e rodar outros diagnósticos. Para o envio de dados do PC dos usuários, o Google fornecerá 36 servidores em 12 locais dos Estados Unidos e Europa. Todos os dados serão compartilhados com pesquisadores.

Para começar, a plataforma oferece três ferramentas, que rodam em servidores próximos à sede do Google, e ajudam os usuários a dignosticarem problemas básicos, incluindo descobrir se um BitTorrent está sendo bloqueado ou tendo a velocidade reduzida pelos provedores.

As informações serão usadas pelos pesquisadores para montar um banco de dados para estudo. O Google afirma que por enquanto o M-Lab terá suporte a um número limitado de usuários.

Fonte: IDG Now!

Governo oferece software que avalia qualidade de sites para deficientes

O Portal do Software Público Brasileiro oferece a partir desta semana o software Avaliador e Simulador para a Acessibilidade de Sítios (ASES). A carta que divulga a solução à sociedade foi assinada pelo secretário de Logística e Tecnologia da Informação (SLTI) do Ministério do Planejamento e o diretor de Governo Eletrônico, João Batista Ferri de Oliveira.

O ASES permite avaliar, simular e corrigir a acessibilidade de páginas, sítios e portais, com funcionalidades para a avaliação e desenvolvimento de portais acessíveis a pessoas deficientes.

Para internautas cegos, por exemplo, a ferramenta oferece recursos como a utilização de descritores de imagens. Voltada para desenvolvedores de portais e sites públicos, a ferramenta alerta quando um portal não está acessível e oferece os procedimentos necessários para a sua correção.

O desenvolvimento desse software é resultado de uma parceria entre a SLTI e a OSCIP Acessibilidade Brasil. Para os usuários brasileiros, o programa é distribuído gratuitamente sob a licença LGPL - GNU Lesser General Public License.

Fonte: IDG Now!

quarta-feira, 28 de janeiro de 2009

Sistema hidráulico substitui câmbio e transmissão de automóveis

Saem câmbio, eixos cardã e outros sistemas de transmissão. Em seu lugar, entram sistemas hidráulicos, que levam a força do motor até as rodas por meio de fluidos sob pressão.

Sistema de transmissão hidráulico

O sistema, batizado de SHH (Series Hydraulic Hybrid), promete uma economia de combustível inalcançável com os sistemas de transmissão dos carros atuais, aliada aos consequentes ganhos ambientais com o menor consumo de petróleo.

O sistema SHH utiliza bombas hidráulicas e tanques de armazenamento hidráulicos para capturar e armazenar energia, de forma similar ao que as baterias fazem em um carro elétrico.

Transmissão inteligente

A empresa Eaton, fabricante do sistema, anunciou que cinco veículos de testes com o novo sistema de transmissão hidráulica serão colocados para rodar no final de 2009 e início de 2010. A empresa de distribuição de encomendas UPS já se candidatou para testar dois deles.

Como a maioria dos sistemas incorporados aos veículos mais modernos, o novo sistema de transmissão é do tipo "inteligente," repleto de eletrônica embarcada e de programas de computador especializados em seu funcionamento. A modelagem do sistema e o desenvolvimento das rotinas de controle do SHH está sendo feito em parceria com a IBM.

Três formas para economizar combustível

A transmissão híbrida hidráulica aumenta a economia de combustível de três formas: um sistema regenerativo captura a energia despendida pelos freios e a acumula nos tanques de pressão para uso posterior; o motor opera de forma mais eficiente, com menor necessidade de variação de rotação; e, além disso, o motor pode ser desligado automaticamente quando o veículo está parado ou quando ele está desacelerando;

Os testes iniciais demonstram um aumento de 50% na eficiência do combustível nos veículos equipados com o sistema de transmissão hidráulica, além de uma redução de um terço na emissão de CO2.

IBM cria equipamento de ressonância magnética de altíssima resolução

Pesquisadores da IBM e da Universidade de Stanford (Estados Unidos), desenvolveram um novo equipamento de ressonância magnética (MRI - Magnetic Resonance Imaging) com uma resolução volumétrica 100 milhões de vezes mais alta do que os aparelhos atuais.

O novo equipamento, além de exames clínicos muito mais detalhados, permitirá pesquisas científicas muito mais avançadas na área de biologia molecular, nanotecnologia, neurologia e em uma série de outras áreas. A pesquisa foi publicada na revista Proceedings of the National Academy of Sciences.

Medicina personalizada

O equipamento é uma espécie de microscópio, ainda em estágio de desenvolvimento, mas que poderá permitir que os cientistas compreendam um pouco melhor a estrutura e as interações das proteínas, abrindo caminho para a chamada medicina personalizada, em que os medicamentos poderão ser desenvolvidos para cada pessoa individualmente.

"Esta tecnologia poderá revolucionar a forma como olhamos para os vírus, bactérias, proteínas e outros elementos biológicos," disse Mark Dean, da IBM.

O novo equipamento de ressonância magnética de alta resolução consegue capturar detalhes de estruturas que medem apenas quatro nanômetros de comprimento - um nanômetro equivale a um milionésimo de milímetro. Os vírus mais comuns medem entre 10 e 20 nanômetros.

Detectando campos magnéticos

A melhoria da ressonância magnética foi possível graças a uma técnica chamada MRFM (Magnetic Resonance Force Microscopy: microscópio de força por ressonância magnética), que é capaz de detectar campos magnéticos extremamente pequenos.

Além da altíssima resolução, a nova técnica de imageamento é quimicamente específica, podendo detectar substâncias abaixo da superfície dos materiais. E, ao contrário dos microscópios eletrônicos tradicionais, ela não destrói amostras biológicas.

Identificados fatores de risco para depressão na gravidez e pós-parto

Uma pesquisa feita na Escola de Enfermagem de Ribeirão Preto (EERP) da USP identificou os fatores de risco para a ocorrência de depressão durante a gravidez e o pós-parto.

Na gestação, os fatores de risco são: estar grávida pela primeira ou segunda vez e não desejar a gestação.

Já na depressão pós-parto, os fatores são: não ter religião, ter um companheiro desempregado, ter tido depressão na gestação, não receber suporte do Sistema Único de Saúde (SUS), não receber ajuda para cuidar do recém-nascido e não receber ajuda do companheiro.

Período crítico para a mulher

"A gestação e o pós-parto são os períodos da vida da mulher em que ela mais sofre de depressão", explica Valéria Feitosa, autora da pesquisa e enfermeira especialista em psiquiatria. "A rotina da mulher muda, muitas vezes ela não tem condições financeiras ou apoio da família. E ainda há as dificuldades com os hormônios".

Das 47 mulheres pesquisadas, 43% tiveram depressão durante a gestação e 30% durante o pós-parto. O levantamento foi feito com mulheres de baixa renda de uma maternidade em Uberaba (MG), e, segundo a pesquisadora, os dados refletem a realidade do País. O professor da Jorge Luis Pedrão, da EERP, orientou o estudo.

O estudo

Para chegar a estas conclusões, a pesquisadora comparou as informações dadas pelas mães com os dados médicos. Durante a gestação e pós-parto, as mulheres responderam dois questionários sobre sua situação socioeconômica e de saúde, e sobre a saúde do bebê.

A pesquisadora entrevistou as mulheres para saber se elas recebiam ajuda nas tarefas diárias e tinham apoio emocional e perguntou se eram bem tratadas pelo SUS. Por fim, Valéria pediu para as mulheres preencherem dois questionários que avaliavam se elas tinham ou não depressão, e a intensidade da doença.

Efeito da depressão sobre os filhos

A pesquisa aponta que as gestantes sem depressão apresentaram menos problemas na gestação e seus filhos nasceram com melhores pesos e estaturas. Elas também alimentavam seus filhos de forma mais apropriada à idade.

Segundo a enfermeira, as gestantes com depressão mais leve ficaram mais ansiosas, o que as levou a visitar mais vezes o médico.

Por outro lado, as mulheres com depressão na gestação fizeram mais cesáreas e partos com maior duração. Elas e seus filhos tiveram mais doenças.

Depressão durante a gravidez

Todas as gestantes que não desejaram a gravidez tiveram sintomas de depressão durante a gestação, mas não depois do parto. A depressão durante a gestação também foi mais frequente do que no pós-parto. "Talvez isso aconteceu porque ainda não existe uma lista de perguntas específicas para depressão durante a gestação. Mas já existe uma para a depressão pós-parto."

Depressão e o SUS

O estudo também revelou que não receber apoio do SUS e do companheiro são fatores de risco para depressão. As mulheres depressivas faziam todas as consultas sozinhas. Por outro lado, as mulheres que diziam receber apoio do sistema de saúde adoeciam menos de depressão. A pesquisadora afirma que é fácil identificar paciente em situação de risco, pois os hospitais costumam pedir as informações necessárias. Porém, os profissionais de saúde não as usam para prevenir ou tratar a depressão.

"Para minha surpresa, muitas pacientes me ligavam para chorar. Elas procuravam o sistema de saúde e as pessoas achavam que era bobeira ou mentira", ressalta. Para mudar esse quadro, Valéria sugere que os médicos utilizem as escalas de medir depressão, façam grupos de acolhimento para as pacientes doentes e encaminhem as gestantes para profissionais especializados em saúde mental. "O assunto daria uma outra dissertação. Mas, para começar, essas soluções já estariam de bom tamanho".

Site de buscas britânico promete encontrar 'qualquer filme' na web

O Conselho Cinematográfico do Reino Unido lançou um site de busca que ajudará internautas a localizarem filmes -- desde os mais populares aos mais obscuros.

O Find Any Film (“encontre qualquer filme”) contém registros de mais de 30 mil produções distribuídas por 20 gêneros e por mais de 60 idiomas.

O site informa o usuário como pode assistir ao filme que procura: cinema, televisão, DVD, on-line ou via download de serviços legalizados. Um dos objetivos da página é ajudar a reduzir os downloads ilegais.

Fonte: G1

Botnets são responsáveis por 31,4% das fraudes em anúncios online

No quarto trimestre de 2008, a fraude por clique cresceu para 17,1% do total de cliques em anúncios online, mais do que os 16% registrados no mesmo período de 2007, afirma estudo da Click Forensics.

A média de fraudes em anúncios pay-per-click foi de 28,2% do total de cliques em redes como o Google AdSense e a Yahoo Publisher Network. O número mostra crescimento em comparação com o terceiro trimestre, que somou 27,1% de fraudes.

O tráfego de bonets foi responsável por 31,4% de todas as fraudes em anúncios no quarto trimestre do ano passado, mais do que os 27,6% registrados no trimestre anterior e do que os 22% na comparação ano a ano.

A maior porcentagem de cliques cuja origem é de países fora dos Estados Unidos vem do Canadá, com 7,4% do total, Alemanha, com 3% e China - 2,3%.

Segundo o Centro de Estudos, Resposta e Tratamento de Incidentes de Segurança no Brasil, o total de tentativas de fraude na web brasileira cresceu 209% em 2008.

Fonte: IDG Now!

Oi elimina multa pelo cancelamento de contratos pós-pagos

A Oi extinguiu cláusulas de fidelização de seus contratos pós-pagos de novos e atuais clientes. Atualmente, a operadora tem cerca de 2 milhões de usuários pós-pagos de seus serviços.

Com o anúncio, a empresa acaba com as multas contratuais que os clientes têm de pagar caso decidam cancelar o vínculo com a operadora, ou mudar de plano, antes do vencimento do contrato.

"Acreditamos que este movimento tem tudo a ver com a portabilidade. Esperamos uma grande quantidade de clientes que neste momento podem escolher uma outra operadora e vão querer, no mínimo, experimentar", afirma João Silveira, diretor de mercado da Oi. "Agora vimos a grande possibilidade de conquistar o cliente que estava preso ao número", completa.

O executivo preferiu não informar a expectativa de clientes que a Oi espera conseguir com o fim da multa de fidelização, mas acredita que nos primeiros 60 dias a operadora sinta um aumento em seu percentual de churn (perda de assinantes).

"No primeiro momento sempre há um certo represamento de clientes insatisfeitos. Por isso esperamos pela entrada da portabilidade entrando nos grandes DDDs, para casar os dois movimentos", diz, referindo-se à etapa final do cronograma de implantação da portabilidade numérica, que chega a São Paulo em março e ao Rio de Janeiro em fevereiro.

Segundo Silveira, a extinção da multa contratual não provocará impacto nas receitas da operadora, pois, "a receita de multa não é significativa". O executivo ressaltou que, com a ação, a Oi fortalece seu plano de focar em serviços, deixando cada vez mais de lado a preocupação em comercializar aparelhos. No entanto, o diretor da operadora negou que a empresa planeje deixar de vender telefones celulares em suas lojas.

Ele explicou que a estratégia da operadora em relação à prática de subsídio é oferecer bônus por meio do cartão de crédito ou da conta de telefone do cliente - com valores entre 100 reais e 1.300 reais -, e não utilizando descontos ou gratuidade no valor dos aparelhos, como é a prática do mercado.

A operadora manterá a política, mesmo com o fim da multa de fidelização. "Como damos o subsídio em dinheiro, a gente dá o subsídio parceladamente. Ele acaba sendo proporcional ao tempo que o cliente fica conosco", argumenta Silveira.

A medida vale para clientes pós-pagos da Oi em todo o País, menos na região da Brasil Telecom, recém-adquirida pela operadora. Segundo Silveira, a tendência é que os usuários da BrT também sejam beneficiados pelo anúncio, mas o executivo preferiu não estabelecer um prazo para isso.

A empresa investiu "alguns milhões de reais" na ação, que começou a ser implantada há dois anos, de acordo com o diretor de mercado da Oi, e exigiu mudanças na lógica de serviço dos canais de vendas da empresa e na cultura das centrais de relacionamento com o consumidor.

Fonte: IDG Now!

Faap abre inscrições para pós-graduação em design e tecnologia

A Faap está selecionando currículos para o curso de pós-graduação “Design e Tecnologia Digital: Uma abordagem Estratégica”.

Dividido em três módulos, o curso aborda temas como Design na Sociedade Contemporânea, Tecnologias Assistivas e Meta Design, Design e Arquitetura da Efemeridade e Plano de Negócios em Design e Tecnologia.

O curso tem por objetivo estudar as interfaces físicas e digitais em projetos tecnológicos, possibilitando aos participantes elaborar produtos com design de alto desempenho. As novas modalidades de design em setores como telecomunicações, transporte, habitação inteligente e telemedicina serão discutidas com profissionais de cada setor.

“O curso discute essa convergência entre o material e o digital, transformando problemas em demandas qualificadas e conceituando o produto como um meio de se relacionar com o mundo”, explica o professor Julio Freitas, coordenador do curso.

As aulas começarão em março e devem ser realizadas às terças e quintas-feiras, das 19h30 às 22h45. O curso tem carga horária total de 360 horas.

As inscrições estão abertas e tem preço promocional de 756 reais até o dia 31/01, após essa data passam ao valor normal de 945 reais. O investimento no curso são 17 parcelas de 945 reais, ou caso a matrícula seja feita até 31/01, há 10% de desconto. As inscrições devem ser efetuadas na Faap (Rua Alagoas, 903 – Higienópolis – São Paulo – SP).

Mais informações podem ser obtidas pelo telefone (11) 3662-7449 / 7451 ou pelo e-mail pos.atendimento@faap.br.

Fonte: IDG Now!