segunda-feira, 30 de novembro de 2009

Imprima em menos tempo e ainda economize tinta e papel

Impressões detalhadas e de qualidade levam mais tempo para serem produzidas, por mais rápido que a impressora possa ser e, na maior parte das vezes, o usuário não precisa disso tudo, ainda mais quando o material a ser impresso é composto fundamentalmente por texto.

Assim, reduzir a qualidade no momento de imprimir seus documentos irá proporcionar economia de tempo, já que o material será impresso mais rapidamente, e também de dinheiro - com certeza será necessário usar menos tinta ou toner. Pode parecer bobagem, mas quem imprime um volume grande de documentos vai notar que os consumíveis irão durar mais tempo com uma ação assim tão simples.


Qualquer aplicativo que se use no PC que tenha um botão de impressão possibilita mudar as configurações. Escolha Imprimir e depois Propriedades. Dependendo do modelo da impressora, as configurações podem variar. Mas no geral, as opções são semelhantes.


Leia também:
>> Cinco dicas para melhorar a impressão de fotos
>> Fonte econômica ajuda reduzir consumo de tinta
>> Transforme suas fotos em pôsteres gigantes
>> Será que ainda há tinta no cartucho?
>> Nove opções em software livre para sua empresa economizar em TI


No nosso caso, encontramos os ajustes necessários na guia principal de impressão e na guia saída de papel. Para reduzir a qualidade de impressão, escolhemos o modo Rascunho - no caso de o aplicativo estar em inglês, utiliza a opção draft.


drive-rascunho1.jpg


Mais páginas por folha de papel
Se o documento a ser impresso for para uso interno, numa reunião com colegas, por exemplo, não é necessário imprimir página a página. Economiza-se tempo e muito papel se você optar por imprimir duas páginas em uma única folha.


Selecione Imprimir e, em seguida Propriedades. O próximo passo pode variar de acordo com sua impressora. Em nosso teste, clicamos na guia Layout, Marca d'água e escolhemos a opção 2 páginas por folha.


Escolha uma interface rápida
Se você tem uma impressora com tecnologia jato de tinta, provavelmente utiliza a interface USB, que é bem rápida. Mas se você utiliza impressoras de maior porte, que estão em rede, tente escolher a conexão mais rápida possível. Recomendamos conectar a impressora diretamente ao roteador por meio de um cabo, em vez de depender de um sinal Wi-Fi.


A conexão física é mais confiável e sempre mais rápida. Se não for possível, tente deixar a impressora o mais próximo possível do roteador. Assim, um sinal mais forte é garantido e não há perda de pacotes, o que torna a comunicação mais lenta.


No caso da conexão física, verifique se a sua impressora aceita o padrão Gigabit Ethernet. Se aceitar, faça a conexão dela na porta do roteador referente ao padrão Gigabit. A velocidade será maior, principalmente em gráficos mais elaborados.


Imprimir da web
Ao imprimir conteúdo da internet, anúncios e imagens tornam o processo mais demorado (e mais tinta e papel serão necessários). É possível evitar isso diretamente pelo navegador.


No Internet Explorer, escolha Ferramentas e, em seguida, Opções da Internet. Clique na guia Avançadas e vá até a seção Multimídia. Desmarque a caixa Mostrar Imagens. No Firefox, selecione Ferramentas, Opções e clique na aba Conteúdo. Desmarque a caixa Carregar imagens automaticamente.


firefox.jpg


Adicione memória à impressora
Impressoras com tecnologias e principalmente recursos mais avançados permitem a adição de memória extra. Isso é importante em ambientes onde o volume de impressão é alto. Assim como um PC, fazer um upgrade na memória da impressora também aumenta a a velocidade do processo de impressão.


O motivo é que mais dados são enviados para a memória, liberando a fila de impressão mais rapidamente. Verifique no manual da impressora ou no site do fabricante, qual a capacidade máxima e quantos pentes de memória o periférico aceita.


Veja quanta memória ele também já possui. Escolha o botão Iniciar, depois Painel de controle e escolha Impressoras. Na janela que abrir com as impressoras disponíveis, clique com o botão direito do mouse no modelo desejado e selecione Propriedades.


Fonte: PC World

USP inaugura centro de aproveitamento de lixo eletrônico

Em dezembro, o Centro de Computação Eletrônica (CCE) da USP irá inaugurar o Centro de Descarte e Reúso de Resíduos de Informática (Cedir), organizado para receber e enviar para reciclagem o lixo eletrônico produzido pela USP.

Desde 2007, o CCE possui um Programa de Sustentabilidade que visa o reaproveitamento de materiais de informática como computadores, teclados, monitores, cabos, entre outros. Em junho de 2008, o Programa recolheu mais de 5 toneladas de lixo eletrônico oriundo apenas do CCE.

"Verificamos então que o lixo eletrônico valia muito pouco. Alguma coisa devia estar errada", explica a professora Tereza Cristina Melo de Brito Carvalho, diretora do CCE.

Aproveitamento financeiro do lixo eletrônico

No início de 2009 iniciou-se uma pesquisa extensa sobre o assunto onde se constatou que as empresas de reciclagens trabalham com materiais especializados, plásticos, metais, placas, entre outros.

Portanto cada empresa tem processos industriais estabelecidos para tratar apenas alguns poucos tipos de material e acabam descartando o resto. Um exemplo seria o teclado de um computador que se vendido a uma empresa de reciclagem de plástico, todo o restante, como placas e fios, seria descartado.

O Cedir surge nesse contexto visando um melhor aproveitamento financeiro e tecnológico do lixo eletrônico.

Triagem do lixo

A professora Tereza explica que a entrega do lixo eletrônico pelas unidades da USP será feita num processo de agendamento. No caso das unidades do interior, os campi de Piracicaba, Ribeirão Preto e São Carlos já estão aptos a receber a sucata eletrônica por intermédio dos seus Centros de Informática.

Assim que o Cedir, no caso de São Paulo, ou os Centros de Informática, recebem o material entregue pelas unidades, a primeira verificação feita é se eles operam ou não. No caso positivo, verifica-se a funcionalidade do equipamento, ou seja, se o resíduo eletrônico não está obsoleto. "Se o computador não tem utilidade nenhuma, mesmo que ele esteja operando, é considerado lixo eletrônico."

Os computadores que operarem e forem funcionais serão emprestados por um período de dois anos para projetos sociais, tempo em que o material provavelmente completará seu ciclo de vida útil.

Destruição das informações digitais

Tudo aquilo que já não puder ser aproveitado no momento da entrega ao Cedir passará por um minucioso processo de classificação. Os equipamentos serão pesados, desmontados e os componentes serão separados de acordo com o tipo de material.

Após a separação tudo será descaracterizado, ou seja, CDs e discos rígidos, por exemplo, serão destruídos para que as informações não sejam aproveitadas. Feito isso, o lixo eletrônico será compactado e acondicionado e enviado para as empresas de reciclagem que transformarão esses resíduos em matéria-prima para a indústria.

Ações futuras e pioneirismo

Num primeiro momento o Cedir atenderá as doações de lixo eletrônico apenas da USP, mas no futuro, comenta a professora Tereza, o projeto deve estender-se a toda a sociedade.

Tereza ainda destaca que este é o primeiro projeto dessa natureza numa entidade pública no Brasil e que sua contribuição social compreende o suporte a projetos sociais e à conscientização sobre a importância do destino final correto aos eletroeletrônicos. "É um projeto que atende um vínculo social, mas também possui um viés fomentador de novas indústrias".

Foto de pulsos de laser dá prêmio a pesquisador brasileiro

O físico brasileiro Ricardo Elgul Samad, do IPEN (Instituto de Pesquisas Energéticas e Nucleares), foi o vencedor do 4º concurso de imagens fotográficas realizado anualmente pela revista Optics & Photonics News, da Sociedade Óptica da América.

A foto de Ricardo Samad registra o momento em que pulsos ultracurtos de laser de alta intensidade - cerca de mil pulsos por segundo - interagem com um pedaço de papel.

Queimando o ar

Para fazer a foto, o pesquisador movia rapidamente o papel, gerando um efeito espetacular de cores.

"Coloquei a máquina fotográfica no tripé, deixei a íris aberta registrando as imagens durante 1 segundo. Peguei um cartão de visitas, segurei na frente da lente e passei o cartão da esquerda para a direita. Quando o laser fica focalizado, ele 'queima o ar', criando um plasma [gás ionizado constituído de elétrons livres, íons e átomos neutros], que gera feixes de várias cores que se propagam", contou o pesquisador.

De relance

Na revista Optics & Photonics News, os jurados salientam a beleza da imagem. "O padrão produzido movendo a folha do papel é muito bonito", disse o canadense François Busque, especialista em óptica.

"Ao olhar de relance, a foto exige do observador que estude seus detalhes", acrescentou Brian Monacelli, do Centro de Pesquisa e Educação em Óptica e Lasers da Universidade da Flórida, nos Estados Unidos.

Para a quarta edição do concurso, a revista recebeu 81 inscrições, duas vezes mais do que nos anos anteriores. O segundo lugar ficou com Jeffrey W. Nicholson, da companhia OFS Laboratories, e o terceiro com Mike Kudenov, da Universidade do Arizona, ambos nos Estados Unidos.

Laser de alta potência

Segundo o pesquisador, o laboratório do qual faz parte desenvolve pesquisas básicas e de aplicações em várias frentes. Uma parte do trabalho é desenvolver um laser de alta potência, baseado em cristais de Cr:LiSAF que apresenta ampla emissão espectral e longo tempo de vida. "Desenvolver esse laser foi o objetivo do meu doutorado", disse Samad.

O Laboratório de Lasers Compactos de Altíssima Potência do Ipen é o primeiro no hemisfério Sul capaz de obter pulsos lasers com potências de pico próximas de 1 terawatt, abrindo espaço para pesquisas com aplicações práticas nas áreas da saúde, meio ambiente, nanotecnologia, entre outras.

Divulgada radiografia do setor de tecnologia da informação no Brasil

Uma publicação inédita divulgada pelo Ministério da Ciência e Tecnologia (MCT), aponta para o crescimento do setor de software e serviços de Tecnologia da Informação (TI) no Brasil.

O estudo mostra que o número de empresas da área no país cresceu 4,9% ao ano no período de 2003 a 2006. Em 2007, foram contabilizadas 67 mil empresas e a estimativa é alcançar a marca de 70 mil em 2010.

O levantamento adota uma metodologia inovadora e compatível com indicadores internacionalmente aceitos, o que simplifica o cruzamento de dados com institutos de pesquisa e organismos oficiais, tanto do Brasil como do exterior. O estudo faz ainda importantes projeções de cenários para os próximos anos.

Radiografia do setor de software no Brasil

Os dados estão no primeiro volume do estudo Software e Serviços de TI: A Indústria Brasileira em Perspectiva, divulgado pela Softex.

A publicação traz 15 capítulos com números e análises que traçam uma radiografia do setor.

O ministro Sérgio Rezende ressaltou a importância do trabalho para alavancar o setor dizendo que "é importante ter dados para refletir sobre eles e direcionar políticas públicas e instrumentos. Esse é um setor onde mais se produz conhecimento e que finalmente passa a ter consistência".

Empregados disfarçados

A maior parte das empresas que compõem a Indústria Brasileira de Software e Serviços de TI (IBSS) está na região Sudeste e é de pequeno porte. Em 2005, 83,9% do total tinham até quatro pessoas ocupadas. Dois anos depois, a participação desse conjunto continuou elevada, 84,3%.

Um dos motivos alegados pelos pesquisadores para esse comportamento é a utilização de pessoa jurídica como alternativa à contratação. Apesar desta constatação, o número de empresas com 20 ou mais pessoas ocupadas cresce a taxas elevadas, acima de 15% ao ano.

Na avaliação do secretário Augusto Gadelha, da Sepin, esse cenário é positivo. "Se por acaso esse trabalho de informática for contratado pelas grandes empresas e órgãos, há a possibilidade de um crescimento enorme dessa indústria no País. Essa é a tendência mundial. Os Estados Unidos contratam empresas indianas para serviços de tecnologia da informação".

Outro dado destacado no estudo é o aumento do contingente de pessoas ocupadas, com crescimento de 12,6% ao ano. Em 2007, a indústria contava com 410 mil trabalhadores. O Observatório Softex estima um total de atuação de 600 mil profissionais na área em 2010.

Carência profissional

O setor de TI sofre com carência de pessoal especializado, segundo o levantamento. O nível de educação formal dos profissionais é elevado. Entre as empresas filiadas ao Sistema Softex e a entidades parceiras, quase 75% deles, incluindo assalariados, terceirizados ou sócios têm nível superior (57,1%) ou pós-graduação (16,7%).

O alto grau de exigência de pessoas capacitadas para trabalhar na área pode explicar a dificuldade em encontrar profissionais qualificados. Do total das empresas entrevistadas, 86% estão com vagas em aberto para na área de desenvolvimento de programas. A maioria também classificou a formação do profissional de TI disponível no mercado como "ruim" ou "razoável".

A carência de trabalhadores é uma das principais preocupações na avaliação do presidente da Softex, Waldemar Borges. "Os dados vieram no sentido do que se imaginava. A questão da capacitação de recursos humanos é central e preocupante dentro do setor. Agora vamos poder acompanhar isso com metodologia e dados precisos", concluiu.

"Gene brasileiro" do glaucoma é rastreado por cientistas da Unicamp

O glaucoma é uma degeneração da cabeça do nervo óptico que leva a uma perda de campo visual permanente e irreversível no indivíduo. É a segunda causa de cegueira no mundo, respondendo por 12% dos casos, ficando atrás apenas da catarata (48%).

A pressão intraocular e a história familiar positiva são importantes fatores de risco para o desenvolvimento do glaucoma primário de ângulo aberto, que é a forma mais comum da doença e que se manifesta principalmente após os 40 anos com certas peculiaridades.

Seu início tardio em muitos casos e suas alterações em diferentes tecidos oculares, como o trabeculado (região responsável em parte pela determinação da pressão intraocular) e a cabeça do nervo óptico, indicam a presença de mais de um gene no desenvolvimento do glaucoma.

O aumento da pressão intraocular é o mais destacado fator de risco para o glaucoma do adulto.

Porém, existem outras situações em que, antagonicamente, é possível que um paciente com glaucoma não tenha pressão intraocular elevada e ainda, mesmo sendo portador do problema, que não tenha glaucoma.

A característica fundamental que define esta moléstia, no entanto, é de fato a presença de lesão típica da cabeça do nervo óptico, observada durante o exame oftalmológico.

Em busca dos genes do glaucoma

No genoma humano existem, até o momento, 14 regiões associadas ao glaucoma do adulto. Apenas em três dessas regiões, os genes já foram identificados: o gene miocilina, que é o de maior efeito para o desenvolvimento do glaucoma, o optineurina e o WDR-36, o que leva a crer que ainda é possível encontrar genes novos mesmo na população brasileira.

Várias equipes de cientistas permanecem procurando genes relacionados à doença. Este é o caso do Grupo de Genética em Oftalmologia (CBMEG) da Unicamp, coordenado pela geneticista Mônica Barbosa de Melo e pelo oftalmologista José Paulo Cabral de Vasconcellos.

O grupo da Unicamp tem concentrado forças para caracterizar melhor o papel do gene miocilina em relação ao glaucoma, que é o mais expressivo gene conhecido relacionado a esta doença. Alterações neste gene estão geralmente associadas a um tipo de glaucoma familiar, de instalação mais precoce e de maior gravidade, cuja pressão intraocular é bem mais elevada que a normal.

Gene brasileiro do glaucoma

Os principais estudos com o gene miocilina foram iniciados no Brasil por José Paulo, analisando pacientes com glaucoma primário de ângulo aberto do tipo juvenil, que é uma forma de glaucoma do adulto que surge mais precocemente e também mais agressiva.

Em sua pesquisa, o oftalmologista identificou uma nova e frequente mutação neste gene que, até hoje, ainda não foi descrita em outra população, somente na brasileira.

A mutação consiste na troca de uma cisteína (um dos aminoácidos que fazem parte do código genético) por uma arginina na posição 433 da proteína miocilina, o que equivale a dizer que esta alteração localiza-se em uma região bastante conservada e estruturalmente muito importante para o bom funcionamento desta proteína.

Por isso o grupo da Unicamp acompanha rotineiramente famílias com alterações neste gene. "Quando as encontramos, procuramos estudar o seu papel em relação à doença e à evolução clínica do paciente, indagando a quantidade de cirurgias a que o paciente foi submetido e a quantidade de medicações em uso para controle da doença. Com isto tentamos estabelecer uma relação entre a gravidade da doença (fenótipo) e a presença ou não da mutação (genótipo)".

Descoberta de novos genes

Também há uma tentativa de identificar novos genes modificadores que agiriam de forma a colaborar para o aparecimento da doença ou torná-la mais ou menos grave.

Por que indivíduos que têm a mesma alteração se comportam de formas diferentes? José Paulo esclarece que neste processo pode haver uma interação com genes modificadores, como no caso do CYP1B1, que é o gene associado ao glaucoma congênito, além da contribuição de fatores ambientais.

Ao concluir sua tese e constatar o estado daquela pesquisa no mundo, o pesquisador propôs uma investigação para identificar novos genes ou novas regiões do genoma associadas ao glaucoma primário de ângulo aberto - glaucoma do adulto - em famílias brasileiras. Esta iniciativa gerou um projeto que foi aceito pelo Programa Jovens Pesquisadores em Centros Emergentes da Fundação de Amparo à Pesquisa do Estado de São Paulo (Fapesp).

Acompanhamento de famílias com glaucoma

Ao longo do novo projeto, várias famílias portadoras de glaucoma foram analisadas e apresentaram a troca de cisteína por arginina no aminoácido 433 da miocilina. Nesse particular, as famílias têm sido acompanhadas quanto à presença desta mutação em relação à manifestação do glaucoma, a sua evolução e ao seu prognóstico, abrindo novas perspectivas para que elas possam ser seguidas mais de perto pelo oftalmologista, uma vez que sabe-se que indivíduos com esta alteração acima dos 40 anos apresentam a doença de 80% a 100% dos casos.

Um dos pontos do estudo, contudo, permanece uma incógnita, já que até agora são pelo menos 11 regiões do genoma com grande probabilidade de conter genes relacionados ao glaucoma adulto. Por outro lado, também foram selecionadas famílias sem alteração em nenhuma destas regiões. A pergunta de Mônica é: "será que conseguiremos identificar algum gene novo nestas famílias com glaucoma na população brasileira?"

Em uma outra fase da pesquisa, que é uma abordagem de ponta, utilizam-se chips de DNA para avaliar variações de números de cópias ou copy number variations (CNV). Isso porque atualmente se discute a participação destas alterações, que variam de quilobases a megabases em tamanho e que poderiam ter participação na causa de diversas doenças. Estes resultados estão sendo analisados e algumas regiões podem estar relacionadas ao desenvolvimento do glaucoma.

Prevenção e aconselhamento

Uma das contribuições da genética para o glaucoma é compreender melhor os mecanismos por meio dos quais esta doença se desenvolve. Com isso, propõem-se melhores tratamentos e métodos diagnósticos, pontua José Paulo.

Outra contribuição, enfatiza Mônica, consiste na possibilidade de se realizar um futuro aconselhamento genético, pois quanto mais se entende a genética do glaucoma, mais se chega a indivíduos com maior ou menor risco. Além disso, a genética permite indicar um acompanhamento personalizado, iniciativa que tem sido estimulada pelo grupo da Unicamp.

Genética e oftalmologia

Segundo Mônica, na pesquisa de genética em oftalmologia, há seis pessoas atualmente envolvidas, quatro atuando mais na identificação de genes e outras duas em pesquisas sobre as alterações do gene miocilina.

O grupo, ligado ao Laboratório de Genética Molecular Humana do CBMEG, também investiga aspectos genéticos da catarata congênita, da degeneração macular relacionada à idade, da retinopatia falciforme e do glaucoma congênito.

Em relação ao glaucoma congênito, estuda-se o principal gene identificado até o momento, o CYP1B1, em famílias e também em casos esporádicos. Esta pesquisa foi publicada na revista Investigative Ophthalmology and Visual Science (IOVS), desenvolvida em conjunto com a Universidade de Connecticut, EUA.

Recentemente, uma tese defendida sob orientação de Mônica e de José Paulo teve seus resultados divulgados no Journal of Glaucoma, demonstrando que na população brasileira existe uma variação de 30% a 50% de mutações neste gene relacionadas ao glaucoma congênito, ou seja, de crianças que já nascem com a doença.

Riscos do glaucoma

O glaucoma, quando não diagnosticado e, portanto não tratado, pode levar a um risco maior de cegueira. Sendo assim, indivíduos com histórico familiar ou mesmo alterações nos genes associados ao glaucoma devem ter uma atenção médica mais dirigida aos seus aspectos preventivos.

Pacientes que têm uma mutação no gene miocilina e não desenvolvem a doença, por exemplo, devem ter um acompanhamento mais frequente para que, estando diante de qualquer indício da doença, possam começar rapidamente o tratamento.

Realizar consultas desse modo - com mensuração da pressão intraocular e exames de fundo de olho - e não protelar o início do tratamento ao menor indício de aumento da pressão intraocular, ou mesmo mediante algum sinal precoce de alteração do nervo óptico, são medidas fundamentais para minimizar e mesmo evitar as perdas visuais causadas pelo glaucoma, de acordo com José Paulo.

Tratamento do glaucoma

O início da terapêutica em geral é clínico, conta ele, começando pela indicação de um colírio que reduz a pressão intraocular; a indicação cirúrgica fica restrita aos pacientes que não responderam ao tratamento clínico, com redução para níveis seguros da pressão intraocular.

A cirurgia do glaucoma consiste na redução da pressão para valores que impeçam a progressão da doença, protegendo a cabeça do nervo óptico e impedindo perda adicional do campo visual. Quando se trata de um indivíduo com história familiar de glaucoma, recomenda-se que haja uma ampla investigação e acompanhamento, não somente do paciente, mas igualmente da sua família.

Ao estudar famílias que têm alteração no gene miocilina, José Paulo recorda que atendeu uma adolescente que chegou à consulta médica apresentando 20mmHg de pressão intraocular, sendo que o pai já era cego dos dois olhos e o avô também. "Não houve dúvida para instituirmos o tratamento, começando a tratá-la, apesar de não ter sinal de alteração glaucomatosa da cabeça do nervo óptico. A pressão intraocular normal varia entre 10mmHg e 20mmHg, portanto a adolescente estava no limite superior da pressão intraocular e tinha histórico familiar da mutação.

Rastreamento de mutações

Em 1997, o pesquisador Stone e colaboradores identificaram o gene miocilina, associado ao glaucoma primário de ângulo aberto (GPAA), por meio de estudos de ligação em famílias portadoras desta enfermidade.

Os autores concluíram que mutações no gene miocilina seriam a causa mais frequente de cegueira com base molecular conhecida. Diversos estudos subsequentes, avaliando mutações neste gene em populações portadoras de GPAA esporádico, das mais diversas origens étnicas, obtiveram frequências de mutações variando de 2% a 5%.

Entretanto, observou-se que esta frequência elevava-se para aproximadamente 30% em indivíduos com história familiar de glaucoma e desenvolvimento da moléstia antes dos 40 anos de idade, caracterizando o GPAA do tipo juvenil (GPAA-J).

O rastreamento de mutações neste gene foi realizado na população brasileira de pacientes com GPAA-J e GPAA, obtendo-se uma frequência de mutações de 35,71% e 3,85% respectivamente.

Além disso, identificou-se uma mutação específica da população brasileira, a troca do aminoácido cisteína por arginina na posição 433 da proteína, presente em 28% dos pacientes com GPAA-J. A presença desta mutação entre os indivíduos com GPAA-J levou ao desenvolvimento de um glaucoma com níveis pressóricos significativamente mais elevados e necessidade mais frequente de procedimentos cirúrgicos para o controle da doença. Portanto, o tipo de mutação no gene miocilina contribuiria para a gravidade do glaucoma.

E-mail erótico rouba senhas no jogo on-line 'World of warcraft'

Um e-mail com suposto conteúdo erótico está roubando senhas de jogadores no game “World of warcraft”. O alerta é da empresa de segurança britânica Sophos, que afirma que um programa malicioso contido na mensagem consegue enviar dados completos das contas para os criminosos.

O e-mail traz imagens e vídeos de uma garota em poses sexuais em anexo, mas, quando abertos, ativam o software que comete o crime. A mensagem tem como título “Você gostaria de encontrar uma namorada como eu?” e mostra uma bela jovem seminua, tentando induzir o internauta a ver o seu conteúdo.

O programa malicioso tem como foco o jogo on-line “World of warcfart”, mas também consegue roubar informações de outros títulos. O objetivo dos criminosos ao adquirir as senhas é entrar nas contas dos gamers e roubar seus itens de jogo como armas, armaduras e itens para vender no mundo real. Jogadores mais dedicados, com um nível alto dentro do game, possuem artefatos raros que rendem muito dinheiro quando vendidos.

A Sophos recomenda que os gamers utilizem programas antivírus para se proteger dos ataques e que não abram os arquivos em anexo nestas mensagens.

Fonte: G1

Conheça os 12 golpes natalinos mais perigosos da web e como não cair neles

Chega o Natal e, com ele, aumenta o interesse dos internautas em versões eletrônicas de cartões de boas festas, procura por presentes de amigo secreto (ou oculto, como também é conhecido) em sites de comércio eletrônico, viagens, e muito mais. Na rabeira de tudo isso, os criminosos virtuais jogam suas iscas na esperança de fisgar os mais descuidados e o resultado é um aumento no número de ameaças que circulam nesta época do ano.

A companhia de segurança McAfee divulgou, nesta segunda-feira (30/11), uma lista que enumera os golpes virtuais mais perigosos que costumam acontecer nesse período. Confira a relação com os 12 golpes mais comuns e cinco dicas de como se proteger:

1: Phishing Beneficentes
Durante as festas natalinas, crackers se aproveitam da generosidade das pessoas, enviando e-mails que parecem vir de organizações beneficentes legítimas. Na verdade, são sites falsos criados para roubar dinheiro, informações de cartão de crédito e identidades dos doadores.

>> Leia matéria reportagem completa na PC World

Fonte: IDG Now!

sexta-feira, 27 de novembro de 2009

Música para o Twitter coloca até 5 minutos de som em 140 caracteres

A princípio você pode pensar que há algum mal contato gerando ruído nas caixas de som do seu computador. Mas é só esperar um pouco e as coisas parecem começar a fazer algum sentido musical. E algumas das músicas são de fato interessantes.

Estas são as primeiras sensações ao se ouvir o primeiro álbum de músicas criado exclusivamente para o Twitter, um novo tipo de composição minimalista que usa os caracteres do teclado para dizer ao computador quais sons devem ser produzidos.

Criatividade e tecnologia

Se as composições serão catalogadas como New Age, como música eletrônica, ou simplesmente exigirão uma nova categoria, é coisa que somente os aficionados poderão dizer.

Mas, se os 140 caracteres permitidos pelo Twitter são suficientes apenas para elaborar uma sentença minimamente articulada, colocar uma música inteira neles demonstra bem o potencial existente quando criatividade e tecnologia se juntam.

E Dan Stowell, um compositor e cientista da computação na Universidade Queen Mary, na Inglaterra, demonstrou que é possível inserir até cinco minutos de música nos 140 caracteres do Twitter.

SuperCollider

Stowell criou uma linguagem de programação, chamada SuperCollider, que cria sons no computador a partir de instruções simples, escritas com os caracteres normais do teclado.

Daí para o Twitter foi um passo, e os amigos do compositor-programador logo começaram a devolver mensagens contendo suas próprias instruções em SuperCollider - o que vale dizer, suas próprias composições musicais "textualizadas."

"Alguns dos tweets tinham músicas tão boas que eu não podia simplesmente deixar que se perdessem. Então eu selecionei as melhores e as disponibilizei em um álbum, chamado sc140, que todos podem baixar gratuitamente," conta Stowell.

Veja como se pareceria uma partitura do Hino à Alegria se Beethoven usasse o Twitter:

{b="GGHJJHGECCEG".ascii.stutter;f=Duty.kr(0.15,0,Dseq([b,71!3,69!5,b,69!3,67!5,0].flat.midicps))*[1,2];LFCub.ar(f)/9}.play

Música pelo Twitter

Embora a criação musical seja uma ocupação tradicionalmente solitária, a composição de músicas para o Twitter poderá permitir a criação de redes de colaboração também nesse campo, trazendo os músicos para a interação das redes sociais.

Ou, pelo menos, trazer-lhes inspiração e permitir que divulguem rapidamente seus trabalhos.

"Os músicos frequentemente curtem o desafio de trabalhar com fatores limitantes, [o que permitirá] novas formas de fazer música e de se comunicar artisticamente," diz o pesquisador.

O primeiro álbum para o Twitter, chamado sc140, pode ser ouvido online ou baixado gratuitamente no endereço http://supercollider.sf.net/sc140

Motor que dispara nanopartículas dará maior velocidade às espaçonaves

Um motor espacial com pouco mais de um centímetro de diâmetro e cujo funcionamento se baseia em nanopartículas milhares de vezes menores do que o diâmetro de um fio de cabelo humano, pode ser a solução que faltava para viabilizar os nanossatélites.

Os nanossatélites são satélites artificiais minúsculos, alguns do tamanho de uma caixa de sapatos, capazes de realizar missões científicas de pequeno porte. Eles podem ser construídos em pouco tempo e a um custo muito mais baixo do que as grandes sondas espaciais. Um único pequeno foguete pode lançar vários nanossatélites simultaneamente.

Nanomotor elétrico

O novo propulsor é um motor elétrico, semelhante aos motores iônicos. Mas, em vez de disparar íons para dar impulso à espaçonave, o novo motor dispara nanopartículas.

"As partículas usadas nesta tecnologia têm inicialmente entre 10 e 50 nanômetros de diâmetro, e nós as aglomeramos até atingirem entre 1 e 10 micrômetros porque nessas dimensões nós podemos enxergá-las e usá-las nestas pesquisas de propulsão avançada," explica o Dr. Alec Gallimore, da Universidade de Michigan, nos Estados Unidos, que está desenvolvendo o motor, batizado de NanoFET.

O motor gera o empuxo necessário para mover o nanossatélite quando campos elétricos carregam as nanopartículas, expulsando-as pelo sistema de escape.

Naves mais velozes

Os primeiros resultados mostram que o nanomotor permitirá que os nanossatélites tenham maior empuxo, podendo viajar a velocidades mais altas e utilizando menos propelentes do que os motores atuais.

O ganho de velocidade chega à marca dos milhares de quilômetros por hora, o que está levando os pesquisadores a acreditarem que o motor elétrico com nanopartículas poderá ser útil também em espaçonaves maiores.

Desafios a vencer

Os pesquisadores já sintetizaram nanopartículas com excelente rendimento, mas o trabalho prossegue no aprimoramento desse material. O maior desafio, contudo, está na fabricação das nanopartículas de forma que elas acomodem-se nos exíguos espaços do nanomotor.

"É um desafio fazer com que todos os materiais se acomodem em um satélite que não é muito maior do que uma bola de beisebol," diz o Dr. Gallimore. Por enquanto, as partículas funcionam bem para impulsionar o motor, mas passá-las do "tanque" para a câmara de onde elas são disparadas para o exterior ainda é um problema.

"Nós esperamos resolver isto nos próximos três ou quatro anos," prevê o pesquisador.

Segredos

Enquanto isso, os pesquisadores vão testar o novo conceito de propulsão elétrica com nanopartículas em câmaras de vácuo e em microaviões, em condições que reproduzam as condições de gravidade limitada.

Segundo Gallimore, estes testes previstos estão levando em conta a possibilidade de uso do motor em aplicações não-espaciais. Contudo, ele recusou-se a dar maiores informações sobre essas possibilidades.

Chip biodegradável criará implantes temporários no corpo humano

Pesquisadores criaram transistores totalmente biodegradáveis e os utilizaram para construir circuitos eletrônicos que poderão ser utilizados como implantes temporários para o corpo humano.

Esta é a primeira vez que pesquisadores conseguem fabricar componentes eletrônicos de materiais semicondutores totalmente biodegradáveis.

Implantes temporários

Em vários tipos de condições médicas, principalmente para o acompanhamento pós-cirúrgico, sensores que funcionem em tempo integral seriam de grande utilidade para monitorar a recuperação do paciente, permitindo que ele volte mais cedo para casa portando um verdadeiro "enfermeiro eletrônico" implantado no seu corpo.

Em caso de alguma anormalidade, o circuito eletrônico pode emitir avisos por meio de um computador ou de um telefone celular. E, conforme o paciente se recupera, o circuito se dilui no interior do seu corpo, de forma muito parecida com o que acontece com os fios utilizados nas suturas da cirurgia.

Outra aplicação dos circuitos eletrônicos biodegradáveis será na construção de temporizadores eletrônicos implantados no corpo do paciente, que liberem medicamentos nas doses precisas e nos horários determinados, evitando que a pessoa se esqueça ou não faça o tratamento conforme a orientação médica.

Embora estas ainda sejam apenas possibilidades futuras, agora trata-se de possibilidades factíveis, graças ao trabalho da equipe da Dra. Zhenan Bao, da Universidade de Stanford, nos Estados Unidos.

Circuitos eletrônicos biodegradáveis

Mesmo sendo totalmente funcionais quando mergulhados em água, depois de cerca de dois meses tudo o que resta dos circuitos eletrônicos biodegradáveis são os contatos elétricos metálicos medindo alguns nanômetros de comprimento.

Como os nanocontatos de circuitos eletrônicos são feitos de ouro - um metal inerte - eles não deverão ter qualquer impacto sobre a saúde.

Os circuitos eletrônicos começam a se dissolver quando entram em contato com um ambiente similar ao existente no interior do corpo humano: uma solução salina com um pH levemente básico. Para que eles se mantenham funcionais pelo tempo necessário, poderão ser encapsulados por camadas poliméricas que se degradem no tempo adequado.

Os transistores biodegradáveis são semicondutores orgânicos que lembram a composição da melanina, o pigmento da pele, além de contatos de ouro e prata - ambos metais aprovados para uso no interior do corpo humano.

Alta tensão

O próximo passo da pesquisa será diminuir a tensão necessária para o funcionamento dos transistores biodegradáveis. No protótipo de demonstração, a tensão é alta demais e ainda não é seguro colocar o circuito em contato nem mesmo com animais de laboratório.

Curiosamente, já que a pesquisa representa um grande avanço nos semicondutores orgânicos, o elo fraco do circuito é a camada isolante, ou dielétrica.

Os pesquisadores estão usando o álcool polivinílico, pela sua biodegradabilidade. Mas, para fornecer um bom isolamento, a camada ainda precisa ser muito grossa - cerca de 800 nanômetros de espessura - o que significa que a tensão deve ser alta o suficiente para que os elétrons possam atravessar a barreira.

Baterias líquidas podem viabilizar energias renováveis

A simples menção à palavra bateria traz à mente os telefones celulares, os tocadores de MP3, as câmeras digitais e toda uma parafernália de equipamentos eletrônicos portáteis.

É a portabilidade que exige que a energia seja acondicionada no interior de um pequeno dispositivo, que possa ser recarregado quando sua energia tiver se esgotado.

Qual seria, afinal, o sentido de desenvolver baterias gigantescas, fixas, que não pudessem ser levadas para lá e para cá? Neste caso não seria mais simples ligar o equipamento à tomada?

Baterias estacionárias

Não se estivermos falando de capturar a energia de fontes renováveis e usá-la para alimentar a própria rede elétrica, substituindo sistemas de geração não sustentáveis e poluidores e tirando proveito das energias alternativas - eólica, solar, das ondas e das marés.

O grande problema é que essas fontes realmente renováveis e sustentáveis de energia são extremamente variáveis: o Sol não brilha à noite, os ventos não sopram sempre e as ondas e as marés variam imensamente. E a rede elétrica que abastece empresas e residências não pode conviver com tamanha variabilidade.

A solução é armazenar a energia quando ela está sendo gerada e injetar na rede de distribuição um fluxo contínuo - nos momentos de sol e vento, por exemplo, uma parte da energia vai para as baterias e outra vai diretamente para a rede. À noite, ou quando o vento cessar, as baterias enviam sua energia acumulada para a rede, mantendo constante o nível de suprimento.

Baterias líquidas

Agora, o Dr. Donald Sadoway, do MIT, nos Estados Unidos, parece ter encontrado uma forma de construir essas baterias gigantescas, que não precisam ter as limitações das baterias convencionais.

"O que eu fiz foi ignorar completamente a tecnologia convencional usada nas pilhas e baterias portáteis," diz ele. O conjunto de exigências totalmente diferentes para as baterias estacionárias "abriu um conjunto totalmente novo de possibilidades."

Há alguns anos, Sadoway fez parte de uma equipe que criou uma forma de substituir elementos caros das baterias recarregáveis por materiais mais baratos - veja Baterias de lítio com alumínio.

Nesta pesquisa, sem precisar se ater à tecnologia convencional, o pesquisador achou melhor fabricar baterias líquidas. Como os componentes principais da bateria podem atingir altas temperaturas, eles podem se fundir e ficar constantemente na fase líquida.

"Componentes sólidos nas baterias são como quebra-molas. Quando você quer uma corrente realmente alta, você não vai querer sólidos," diz ele.

Como funcionam as baterias líquidas

O princípio básico consiste em colocar três camadas de líquido no interior de um recipiente - duas ligas metálicas diferentes e uma camada de sal. Os materiais foram escolhidos de tal forma que apresentam densidades diferentes, o que os mantém separados naturalmente em três camadas distintas, com o sal no meio, separando as duas camadas de ligas metálicas fundidas.

A energia é armazenada nos metais líquidos, que tendem a reagir um com o outro. Mas eles somente podem fazer isso transferindo íons - átomos eletricamente carregados de um dos metais da liga - através do eletrólito. Isso resulta em um fluxo de corrente elétrica.

Quando a bateria está sendo carregada, alguns íons atravessam a camada de sal e são coletados em um dos terminais. Quando a energia da bateria está sendo utilizada esses íons migram de volta através do sal e se depositam no terminal oposto.

Bateria fundida

A bateria opera a 700 graus Celsius, a temperatura para manter fundidas todas as três camadas.

No protótipo que está sendo testado em laboratório, isto exige um fornecimento externo de calor. Mas Sadoway afirma que, nas baterias estacionárias em escala real, a corrente elétrica que estiver entrando ou saindo da bateria será suficiente para manter a temperatura sem o gasto extra de energia para alimentar a fonte externa de calor.

A ideia é promissora, mas ainda há um longo caminho até que o conceito possa se transformar em uma solução que possa viabilizar as fontes alternativas de energia.

Os testes em laboratório mostraram-se encorajadores, mas muitos outros testes serão necessários "para demonstrar que a ideia é escalável para as dimensões industriais, com custos competitivos," diz Sadoway.

Um dos desafios é construir os contatos elétricos entre a rede de distribuição e uma bateria que funciona a 700 ºC.

Inventor amador cria luva espacial para a NASA

Quando se fala em tecnologia espacial e em projetos envolvendo a NASA geralmente se imagina grandes equipes de engenheiros e cientistas super especializados, trabalhando com orçamentos na casa dos muitos milhões de dólares.

A coisa parece ganhar ainda maiores dimensões quando se fala de um projeto chamado Desafios do Século - afinal, quanto gastaria a NASA para vencer um "desafio do século"?

Homer

O gasto real da NASA foi pequeno, mas o que é mais significativo é que os astronautas do futuro poderão usar luvas projetadas por uma única pessoa. Mais especificamente, por Peter Homer, um típico norte-americano com gosto por fabricar coisas na garagem e com experiência em costurar velas de barcos.

Homer, que estava desempregado, atendeu ao chamado da NASA para o Desafio das Luvas para Astronautas (2009 Astronaut Glove Challenge) e fabricou luvas que superam as atualmente utilizadas pelos astronautas durante as caminhadas espaciais e que atendem a todas as exigências extremas para operação no espaço.

Superação

É a segunda vez que Homer ganha o prêmio. Em 2007, ele já havia embolsado US$200.000,00 ao superar concorrentes de peso e fabricar a melhor luva espacial que a NASA já havia visto, embora ainda sem todas as especificações necessárias para uma luva espacial real.

Os desafios vão ficando cada vez mais difíceis, para que o projeto seja sempre aprimorado. Agora, em 2009, Homer superou seu próprio projeto, e o de todos os seus concorrentes, e produziu uma luva espacial com maior flexibilidade e capaz de suportar maiores pressões.

Como prêmio, ele embolsou outros US$250.000,00. Ted Southern, outro norte-americano, levou US$100.000,00 pelo segundo melhor projeto.

Melhores luvas espaciais

"É notável que dois projetistas trabalhando por conta própria possam criar luvas que atendam as estritas exigências dos voos espaciais - uma tarefa que normalmente exige uma grande equipe de especialistas," afirmou Kate Mitchell, engenheira da NASA que avaliou os projetos das luvas espaciais.

Para passar pela qualificação e participarem da competição, as luvas precisavam atender a todas as exigências da NASA, já incorporadas nas luvas usadas pelos astronautas, mas deviam também superá-las em flexibilidade.

No desafio de 2007, as luvas precisavam ter apenas a camada de manutenção da pressão interna. Agora, elas deviam contar ainda com as camadas de proteção térmica e de proteção externa contra o choque de micrometeoros.

Cerâmica com níquel otimizará de memórias a motores de carros

Engenheiros da Universidade da Carolina do Norte, nos Estados Unidos, sintetizaram um novo material com potencial para aumentar a densidade de armazenamento das memórias de computador e para aumentar a temperatura de funcionamento dos motores de carros, permitindo que eles consumam menos combustível.

E o que chama mais a atenção nessas que são apenas duas dentre várias possibilidades promissoras é que não se trata de nenhum material exótico, criado em condições extremas só atingíveis em laboratório.

Dopagem seletiva

A equipe do Dr. Jay Narayan utilizou o processo de dopagem seletiva, no qual uma impureza é adicionada a um material base, alterando suas propriedades. A dopagem seletiva é utilizada diariamente em todas as fábricas de semicondutores ao redor do mundo.

Trabalhando em nanoescala, os pesquisadores adicionaram níquel a óxido de magnésio, uma cerâmica. O material dopado resultante adquire aglomerados de átomos de níquel não maiores do que 10 nanômetros quadrados, uma redução de 90% em comparação com os melhores resultados obtidos até agora.

Esse avanço tem potencial para aumentar a capacidade de armazenamento de dados das memórias a curto prazo, com a criação de módulos de memória capazes de armazenar o equivalente a 20 DVDs de alta definição ou 250 milhões de páginas de texto.

"Em vez de fabricar um chip que armazene 20 gigabytes, você pode ter um que trabalhe com 1 terabyte, 50 vezes mais dados," diz Narayan.

Motores mais quentes

As memórias de computador não são as únicas a se beneficiar do novo avanço.

Ao introduzir propriedades metálicas nas cerâmicas, Narayan afirma que os engenheiros poderão desenvolver uma nova geração de motores cerâmicos capazes de suportar o dobro da temperatura dos motores de carros atuais, o que pode representar melhorias significativas na economia de combustível.

Como a condutividade termal do material foi otimizada, a cerâmica dopada com níquel também poderá ter aplicações na captação de energia solar e seu aproveitamento na forma de calor, a chamada energia termossolar. E, devido à melhor condutividade termal, os chips de memória produzidos com o novo material deverão aquecer menos.

Microendoscópio localiza sinais de tumores antes que eles apareçam

Os endoscópios tradicionais permitem que os médicos deem uma espiada no interior do corpo dos pacientes.

Hoje os médicos inserem endoscópios com câmeras nas pontas para procurar por anormalidades visíveis, como tumores, no trato gastrointestinal e nos órgãos internos.

Agora, pesquisadores estão desenvolvendo um microendoscópio que permitirá uma inspeção completa do organismo, gerando imagens 3-D em tempo real, ampliando o uso desse equipamento médico para a detecção de condições nas quais ele não é útil hoje.

Enxergando abaixo da superfície

A equipe do Dr. Huikai Xie, da Universidade da Flórida, nos Estados Unidos, está substituindo as câmeras com scanners capazes de "enxergar" abaixo da superfície dos tecidos, revelando grupos de células ou padrões de crescimento anormais antes que o câncer adquira tamanho suficiente para se tornar visível.

"Hoje os endoscópios apenas tiram fotos do tecido superficial. Assim, se você enxergar alguma anormalidade na superfície, ótimo. Mas, na maior parte das vezes, particularmente com o câncer, os estágios iniciais da doença não são tão óbvios. A tecnologia que estamos desenvolvendo é basicamente para ver sob a superfície, sob a camada epitelial," explica o pesquisador.

Os experimentos iniciais com os microendoscópios são promissores. Por enquanto eles foram avaliados apenas em animais e ainda dependerão de testes em humanos para poderem chegar às clínicas e hospitais.

Scanner infravermelho

Os microendoscópios, do tamanho de uma caneta, possuem um scanner infravermelho no lugar da câmera. O coração do aparelho é um sistema microeletromecânico, ou MEMS, um espelho motorizado microscópico que se movimenta para um lado e para o outro para refletir um feixe de luz infravermelha altamente focalizada.

Embora a luz infravermelha focalizada atinja apenas um ponto no tecido, o movimento do espelho permite que o aparelho faça um rastreamento de uma grande parte do tecido em alta resolução - a resolução, de 10 micrômetros, é 10 vezes maior do que os melhores endoscópios no mercado, que utilizam tecnologia de ultrassom.

Imagem tridimensional do corpo

Os dados lidos pelo aparelho são passados para um computador, que reconstrói uma imagem tridimensional do tecido. Um microendoscópio é capaz de fazer uma varredura de 360 graus, gerando uma imagem de todo o tecido ao seu redor.

De posse da imagem 3-D, os técnicos de laboratório ou os médicos podem procurar por anormalidades no tecido.

Os pesquisadores acreditam que os microendoscópios, quando aprovados para uso humano, poderão eliminar grande parte das biópsias invasivas, que têm alto risco, podem causar hemorragias e custam caro.

Ferramenta para cirurgias

Como os microendoscópios geram imagens em tempo real, os pesquisadores acreditam também que eles poderão tornar-se uma ferramenta útil em cirurgias, revelando as áreas onde o corte ou a remoção de tecidos é segura.

"Nós estamos tentando acoplar essa sonda de imagens com ferramentas de corte, de forma que, quando os cirurgiões estiverem cortando, eles saberão exatamente o que têm pela frente," disse Xie.

Plasmônica: em busca da computação à velocidade da luz

Um grupo de pesquisadores europeus demonstrou alguns dos primeiros dispositivos plasmônicos que podem se tornar viáveis comercialmente, marcando o início de uma nova era na computação e nas comunicações de alta velocidade, quando os sinais eletrônicos e ópticos poderão ser manipulados simultaneamente.

Circuitos eletrônicos utilizam sinais transmitidos por elétrons, enquanto os circuitos ópticos transmitem os sinais por meio de fótons. Já os dispositivos plasmônicos utilizam a oscilação conjunta dos elétrons para transmitir sinais eletrônicos e ópticos ao longo dos mesmos condutores metálicos, por meio de ondas de quase-partículas chamadas polaritons.

Plásmons são pacotes de energia que flutuam sobre a superfície de um metal e que dão nome a esse campo emergente de pesquisas. Quando os plásmons de superfície passam por uma interface entre um material condutor e outro não-condutor, formam-se as quase-partículas chamadas polaritons.

Desta forma, a plasmônica - um campo emergente da tecnologia em nanoescala frequentemente chamada de "luz por meio de fios" - junta as vantagens das fibras ópticas, incluindo a alta velocidade na transferência de informações, com os benefícios dos componentes eletrônicos, particularmente suas minúsculas dimensões.

Processadores ópticos

É com base na plasmônica que os cientistas esperam construir, num futuro agora mais próximo, processadores de computador totalmente ópticos, capazes de operar em altíssimas velocidades, além de linhas de transmissão de dados de banda ultra larga e uma multiplicidade de novos sensores, capazes de levar a automação a um novo patamar.

"Nesses últimos cinco anos tornou-se possível construir um processador de computador totalmente óptico, mas com todos os componentes inteiramente ópticos ele teria que ocupar uma área de 0,5 metro por 0,5 metro e consumiria muita energia. Com a plasmônica, nós poderemos construir os circuitos com a miniaturização suficiente para que esse processador caiba em um PC comum e mantenha a velocidade óptica," explica o Dr. Anatoly Zayats, da Queen's University, em Belfaste, na Irlanda do Norte.

Os dispositivos plasmônicos, contudo, vinham sendo limitados pelas curtas distâncias ao longo das quais os plásmons de superfície conseguem transmitir dados.

Guias de onda de polaritons

Agora a equipe do Dr. Zayats resolveu este problema.

A transmissão de dados por meio da plasmônica funciona com base nas oscilações na densidade dos elétrons na fronteira entre dois materiais: um plasma dielétrico (não-condutor), ou um polímero, e uma superfície metálica.

Excitando os elétrons com luz é possível propagar ondas de plásmons de alta frequência ao longo da superfície de um fio metálico ou de um guia de ondas, transmitindo desta forma os dados. Entretanto, em muitos casos o sinal dissipa depois de percorrer alguns poucos micrômetros ao longo do fio - uma distância muito curta para permitir, por exemplo, a conexão de dois chips no interior de um computador.

O Dr. Zayats e seus colegas adotaram em enfoque alternativo, desenvolvendo o que eles chamaram de guias de onda de polaritons carregados por dielétrico. Modelando uma camada de polímeros dielétricos (polimetilmetacrilato) sobre um filme de ouro depositado em um substrato de vidro, eles construíram guias de onda de apenas 500 nanômetros de comprimento, aumentando a propagação do sinal.

Usando seus nano-guias de onda, os pesquisadores puderam fabricar todos os elementos necessários para construir os multiplexadores add-drop (ADM: add-drop multiplexers), uma parte crucial das redes ópticas que combinam e separam vários feixes de dados em um único sinal e vice-versa.

Enquanto um ressonador em anel óptico - um dos elementos do ADM - disponível atualmente tem um raio de 300 micrômetros, o ressonador plasmônico mede apenas cinco micrômetros.

Comunicação inter-chips à velocidade da luz

Os dispositivos plasmônicos foram criados utilizando a tecnologia de fotolitografia disponível comercialmente, garantindo que eles possam ser fabricados em escala industrial.

"Outros grupos de pesquisadores já alcançaram níveis de propagação iguais ou até melhores em dispositivos ainda menores, mas os processos que eles usaram são extremamente complexos e dificilmente poderiam ser replicados em escala industrial," diz Zayats. "Nossa tecnologia pode não ser a menor, mas é a mais próxima do mercado."

De fato, o fabricante de semicondutores francês Silios interessou-se pelo projeto e já está desenvolvendo um plano de comercialização da tecnologia, que envolverá tanto a fabricação direta dos componentes plasmônicos quanto o seu licenciamento para outros grandes players do mercado.

"Eu acredito que nós começaremos a ver esta tecnologia no mercado nos próximos cinco ou dez anos," prevê Zayats. "Um avanço chave será o uso da plasmônica para efetuar a comunicação inter-chips, tornando possível transmitir dados entre um ou mais chips na velocidade da luz, eliminando o velho gargalo dos barramentos e permitindo a fabricação de computadores muito mais rápidos."

ACSP e camara-e.net criam Selo Internet Segura para validar lojas virtuais

Como parte do Movimento Internet Segura (MIS), a Associação Comercial de São Paulo (ACSP) e a camara-e.net anunciaram a criação de um selo voltado a validar a segurança dos sites de comércio online.

A iniciativa, batizada de Selo Internet Segura, passa a vigorar a partir de fevereiro de 2010. E o diretor-executivo da camara-e.net, Gerson Rolim, afirma que os 18 maiores varejistas online do Brasil já aderiram ao movimento, patrocinado pelo Google, Certisign, Verisign, Gemalto e Serasa.

Para obter o selo, as empresas interessadas vão preencher um formulário no site da ACSP e pagar uma mensalidade de 49,90 reais. Este valor será utilizado para o pagamento dos profissionais que realizarão as auditorias trimestrais nos sites.

Quanto aos itens analisados pelos auditores para conceder o Selo Internet Segura, Rolim explica que serão avaliados cinco critérios: logística, meio de pagamento, atendimento ao cliente, risco de fraude e certificado digital de servidor SSL ICP-Brasil.

Ainda de acordo com o superintendente da camara-e.net o selo permitirá que os usuários do site tenham acesso dinâmico à base do SCPC (Serviço Central de Proteção ao Crédito e Informações), da ACSP. O objetivo, segundo ele, é garantir a idoneidade do site.

De acordo com dados da ACSP, apenas na cidade de São Paulo existem cerca de 15 mil lojas virtuais e que são potenciais usuárias do novo selo.

Fonte: IDG Now!

Projeto social ensina noções de comunicação e técnicas digitais em SP

Um projeto comunitário, voltado à formação básica em comunicação e técnicas digitais, foi anunciado nesta quinta-feira (26/11) pela empresa de serviços de TV e comunicação via cabo Net.

Chamado de Net Comunidade, o programa oferecerá oficinas de jornalismo, fotografia, mídias digitais e produção audiovisual, por meio de oficinas de PCs com acesso à internet e equipamentos de áudio e vídeo, além de uma sala de cinema.

O projeto é conduzido em parceria com a Prefeitura de São Paulo, o Instituto Asas e a ONG Cidade Escola Aprendiz, e está instalado na Incubadora de Projetos Sociais, no bairro do Cambuci.

Fonte: IDG Now!

quinta-feira, 26 de novembro de 2009

Hoje é o último dia da semana de cinema nacional com ingressos a R$ 6

De sexta-feira a quinta-feira, dia 26, os ingressos para 15 filmes brasileiros lançados em 2009, como Se Eu Fosse Você 2, Divã, Salve Geral, Besouro, A Mulher Invisível, Hotel Atlântico e Alô Alô Terezinha custarão apenas R$ 6 (meia-entrada a R$ 3).

É a Semana do Filme Nacional é uma iniciativa da Agência Nacional de Cinema e da Federação Nacional das Empresas Exibidoras e se estende a 20 municípios brasileiros, entre eles, São Paulo, Rio de Janeiro, São José dos Campos, Campinas e Guarulhos. Mas são poucas as salas que participam. Os endereços podem ser conferidos no site www.ancine.gov.br.

Fonte: G1

Novo mapa sugere que Marte teve oceano que cobria 30% do planeta

Uma pesquisa realizada nos Estados Unidos traz novos indícios de que o planeta Marte já teve um oceano.

Usando um novo programa de computador, cientistas da Universidade de Northern Illinois e do Instituto Lunar e Planetário de Houston conseguiram produzir um mapa mais detalhado das redes de vales de Marte e perceberam que elas são 2,3 vezes mais extensas do que se imaginava.

Oceano em Marte

Além disso, o estudo mostrou que as regiões mais densas em vales formam um cinturão em torno do planeta entre seu equador e uma faixa mais ao sul, o que é consistente com a teoria de que havia um oceano cobrindo uma grande porção do hemisfério norte de Marte.

"Todas as provas reunidas ao analisarmos essa rede de vales apontam para um clima particular no início da existência de Marte", disse Wei Luo, da Universidade de Northern Illinois. "Esse clima incluía chuvas e um oceano cobrindo cerca de 30% da superfície do planeta."

Passado quente e úmido

As redes de vales de Marte se assemelham aos sistemas de rios da Terra, sugerindo que o chamado "planeta vermelho" já foi mais quente e mais úmido do que é hoje.

Mas, desde que essas redes foram descobertas por uma sonda espacial, em 1971, cientistas têm debatido se elas teriam sido criadas por erosão provocada por água na superfície - o que sugere um clima chuvoso - ou por erosão causada por águas subterrâneas - o que indicaria um clima mais frio e seco.

O novo mapeamento permitiu também aos pesquisadores verificar que há semelhanças entre a densidade das redes de vales da Terra com a de algumas regiões de Marte, o que seria um indício de erosão provocada por chuvas.

Topografia marciana

A superfície de Marte é caracterizada por planícies localizadas principalmente no hemisfério norte e por montanhas concentradas mais no sul.

Segundo os cientistas, esta topografia mostra que a água se acumularia no norte.

"Um planeta com apenas um grande oceano teria um clima do tipo continental árido na maioria de suas superfícies de terra", disse Luo.

Fonte: BBC

Nanoestruturas são manipuladas usando feixes de luz

Um cientista brasileiro, atualmente na Universidade de Cornell, nos Estados Unidos, utilizou um feixe de luz com apenas 1 miliwatt de potência para mover objetos de silício, abrindo caminho para que nanomecanismos possam ser movimentados a partir de fontes externas de energia.

A pesquisa, conduzida por Gustavo Wiederhecker, poderá ter aplicações no desenvolvimento de sistemas microeletromecânicos (MEMS), nanomáquinas com partes móveis, e sistemas microoptomecânicos (MOMS), que combinam partes móveis com circuitos fotônicos.

Força da luz

Pode-se imaginar a luz como uma torrente de partículas que exercem uma força sobre qualquer objeto em que incida. A luz do Sol não arremessa você para longe porque essa força é muito pequena. Mas, em nanoescala, ela passa a ser significativa.

"O desafio é que é necessário grandes forças ópticas para alterar a geometria das estruturas fotônicas," explica a professora Michal Lipson, orientadora de Gustavo.

Como aumentar a potência da luz não é a solução nesses dispositivos minúsculos e sensíveis, os pesquisadores trabalharam na redução da força necessária para mover suas estruturas.

"Força de atração" da luz

O grupo de pesquisadores criou dois anéis ressonantes que foram colocados um sobre o outro a uma curta distância (veja a foto). Esses anéis são guias de onda cuja circunferência é um múltiplo do comprimento da luz usada para controlá-los.

Um feixe de luz é formado por campos elétricos e magnéticos. Esses campos podem exercer uma atração sobre objetos próximos, de forma parecida com a com a eletricidade estática atraindo grãos de poeira. Este fenômeno, largamente utilizado nas chamadas pinças ópticas, puxa qualquer coisa que esteja na borda do foco de luz em direção ao seu centro.

Quando a luz passa por um guia de ondas cuja seção transversal é menor do que o seu comprimento de onda, uma parte da luz "transborda", levando com ela essa força atrativa. Assim, guias de onda paralelos tendem a se aproximar, como duas gotas de chuva escorrendo sobre a vidraça se tocam e se juntam pela ação da tensão superficial.

Rodas de bicicleta nanotecnológicas

O aparato construído para tirar proveito de todos esses fenômenos lembra duas rodas de bicicleta, uma colocada sobre a outra, compartilhando o mesmo eixo.

Quando a luz na frequência de ressonância dos anéis - neste caso luz infravermelha com comprimento de onda de 1.533,5 nanômetros - atinge o dispositivo, a força entre os anéis é suficiente para deformá-los em até 12 nanômetros.

Essa variação dos anéis é suficiente para alterar outras ressonâncias e ligar e desligar feixes secundários de luz que passam pelos anéis.

Quando a luz que atinge os dois anéis está em fase - os picos e vales das ondas coincidem - as duas "rodas de bicicleta" são puxadas um de encontro à outra. Quando a luz está fora de fase eles se repelem.

Sobretudo este último efeito pode ser muito útil nas nanomáquinas, uma vez que peças nanométricas de silício tendem a grudar umas nas outras, inviabilizando o funcionamento dos MEMS.

No campo dos circuitos fotônicos, uma possível aplicação será na criação de filtros ajustáveis, capazes de permitir a passagem de luz com comprimento de onda específico.

Prototipagem rápida chega às peças metálicas

A prototipagem rápida não conquistou seu lugar na indústria, nos escritórios de projetos e até no meio artístico por acaso: a possibilidade de fabricar peças complexas a partir de um desenho em computador acelera o desenvolvimento de novos produtos e permite que peças únicas ou em pequenos lotes sejam fabricadas rapidamente e a um custo muito baixo.

E todo esse sucesso se deu apesar de uma aparente deficiência: as peças só podiam ser fabricadas com plásticos. Só mais recentemente a prototipagem rápida - também conhecida como impressão 3-D - chegou às peças de vidro e de cerâmica.

Prototipagem rápida com metais

Agora essa limitação praticamente deixa de existir: engenheiros do Centro de Pesquisas Langley, da NASA, desenvolveram um sistema de prototipagem rápida que permite a fabricação de peças de metal e de ligas metálicas a partir de um desenho CAD no computador.

A possibilidade de fabricar peças metálicas sem o desenvolvimento de moldes abre novas possibilidades de aplicações - além da redução de custos nas aplicações já existentes - na indústria aeronáutica e espacial e na fabricação de implantes médicos customizados para cada paciente.

Aplicações espaciais

A necessidade de peças de reposição é um dos maiores desafios das viagens espaciais interplanetárias de longa duração, assim como para o estabelecimento de bases na Lua - qualquer equipamento quebrado dependeria do envio de peças sobressalentes da Terra.

Numa viagem a Marte, por exemplo, isso seria impraticável. Uma impressora 3-D capaz de "imprimir" peças de metal representa o fim desse problema.

Fusão por feixe de elétrons

A técnica de impressão 3-D de peças metálicas ocorre no interior de uma câmara de vácuo, onde um feixe de elétrons é focalizado sobre um suprimento contínuo de metal em pó, fundindo-o e fazendo sua deposição camada a camada sobre a peça em construção.

O processo foi batizado de EBF3 - Electron Beam Free Form Fabrication - fabricação de peças em formato livre por feixe de elétrons.

O equipamento tem dois bicos de injeção de metal que funcionam simultaneamente, o que significa que ele é capaz de misturar dois metais diferentes em uma liga única ou incorporar um material no interior de outro.

Esta última possibilidade permitirá, por exemplo, a incorporação de fibras ópticas de vidro no interior de peças metálicas e a colocação de sensores em áreas impossíveis de serem trabalhadas hoje.

A única exigência do processo é que os metais sejam compatíveis com o uso do feixe de elétrons, tornando o alumínio, o titânio e outros metais semelhantes, as matérias-primas ideais para a fabricação das peças por impressão 3-D.

Oficina e mineração espacial

Devido à grande possibilidade de uso para fins aeroespaciais, os engenheiros colocaram sua máquina de prototipagem a bordo de um avião para simular seu funcionamento em microgravidade.

O próximo passo é criar uma versão miniaturizada do equipamento para que ele possa ser levado para a Estação Espacial Internacional.

Os astronautas das futuras bases lunares poderão utilizar versões aprimoradas dessa impressora para fabricar peças de reposição conforme elas sejam necessárias, em vez de depender de seu envio da Terra. A matéria-prima poderá vir tanto da reciclagem de peças usadas ou partes descartadas de foguetes, como da mineração direta dos metais no solo lunar.

Impressão 3-D com metais

O uso terrestre e mais imediato da impressão 3-D com metais é ainda mais promissor. Hoje, uma peça para a indústria aeronáutica pode começar com um bloco de titânio de 3.000 quilogramas, torneado e desbastado até chegar a um objeto de 150 quilogramas. Os outros 2.850 quilogramas precisão ser reciclados, sem contar a enormidade de fluido de corte e energia desperdiçados no processo.

"Com a EBF3 você pode fabricar a mesma peça usando apenas 175 quilogramas de titânio e desbastar apenas 25 quilogramas para ter a peça em sua conformação final," diz a engenheira Karen Taminger, coordenadora do grupo de pesquisadores. "E a prototipagem metálica utiliza muito menos eletricidade para criar a mesma peça."

Segundo ela, a fabricação das peças camada por camada abre a possibilidade de contar com cavidades internas e complexidades que não são possíveis com a usinagem de um bloco sólido de metal, o que deverá permitir a fabricação de peças que levarão a um aumento na eficiência das turbinas de aviões, entre vários outros equipamentos de ponta.

Cientistas confirmam propriedade analgésica da hortelã brasileira

Uma xícara de chá de um tipo de hortelã tem propriedades analgésicas equivalentes às de alguns remédios vendidos comercialmente, concluiu um estudo feito na Grã-Bretanha por uma pesquisadora brasileira.

Há séculos, a erva Hyptis crenata, conhecida como hortelã-brava e salva-de-marajó, vem sendo utilizada na medicina popular no Brasil para tratar desde dores de cabeça e estômago até febre e gripe.

Liderada pela brasileira Graciela Rocha, a equipe da Universidade de Newcastle, no nordeste da Inglaterra, fez estudos com ratos e provou que a prática popular tem base científica.

O estudo foi publicado na revista científica Acta Horticulturae.

Graciela Rocha está apresentando seu trabalho no Simpósio Internacional sobre Plantas Medicinais e Nutracêuticas, em Nova Déli, na Índia.

Sabedoria da medicina popular

De forma a reproduzir os efeitos do tratamento da maneira mais precisa possível, a equipe fez uma pesquisa no Brasil para descobrir como a erva é preparada tradicionalmente e que quantidades devem ser ingeridas.

O método mais comum de uso é ferver a folha seca em água durante 30 minutos e deixar que o líquido esfrie entes de bebê-lo.

Os pesquisadores descobriram que quando a erva é ingerida em doses similares às indicadas na medicina popular, ela é tão efetiva em aliviar a dor como uma droga sintética, do tipo aspirina, chamada indometacina.

50 mil plantas medicinais

A equipe pretende agora iniciar testes clínicos para descobrir quão efetiva a erva é no alívio da dor em humanos.

"Desde que os homens começaram a andar na Terra, temos procurado plantas para curar nossas aflições", disse Graciela Rocha. "Na verdade, calcula-se que mais de 50 mil plantas sejam usadas no mundo com fins medicinais".

"Além disso, mais de a metade de todos os remédios vendidos com receita são baseados em uma molécula que ocorre naturalmente em alguma planta".

"O que fizemos foi pegar uma planta que é amplamente usada para tratar a dor com segurança e provar cientificamente que ela funciona tão bem como algumas drogas sintéticas", disse Rocha.

"O próximo passo é descobrir como e por que a planta funciona".

Sabor de remédio

Graciela disse que se lembra de ter tomado o chá como cura para todas as doenças da sua infância.

Ela disse: "O sabor não é o que a maioria das pessoas reconheceria como hortelã. Na verdade, ela tem um gosto mais parecido com o da sálvia, que é uma outra erva da família das mentas. Não é muito gostoso, mas remédios não têm de ser gostosos, não é?"

Em busca da molécula

A presidente da Chronic Pain Policy Coalition, entidade britânica que trabalha para combater a dor crônica, disse que a pesquisa é interessante.

"São necessários mais estudos para identificar a molécula envolvida, mas este é um estudo interessante sobre um possível novo analgésico para o futuro", disse Beverly Collett.

"Os efeitos de substâncias semelhantes à aspirina são conhecidos desde que os gregos, na Antiguidade, relataram o uso da casca do salgueiro para cortar a febre".

Dicas para você melhorar o desempenho de um PC com Windows

Elimine processos desnecessários e resquícios de programas já desinstalados, e gerencie o que é carregado no boot do PC.

Qualquer versão do Windows que se use, seja ela o XP, Vista ou o novíssimo Windows 7, saiba que sempre se pode fazer algo em benefício da melhora do desempenho e da eficiência do sistema.

Veja matéria completa na PC World.

Fonte: IDG Now!

Hackers atualizam ferramenta de invasão e preocupam especialistas

Hackers que trabalham no projeto de código aberto Metasploit atualizaram um software criado para ataque-relâmpago ao Internet Explorer, tornando-o mais confiável, embora mais propenso a ser usado por criminosos.

Os especialistas em segurança têm se preocupado com a falha desde que ela foi divulgada na lista de e-mails Bugtraq, na sexta-feira (20/11). Mas o código original dado como exemplo na lista não era confiável, e não foi usado em ataques no mundo real.

"A versão do Metasploit que foi liberada ontem à noite será mais confiável para certos ataques que o software anterior", disse Ben Greenbaum, gerente sênior de pesquisa da Symantec, em uma entrevista na quarta-feira (25/11).

Na manhã de quarta, a Symantec ainda não tinha detectado o uso da ferramenta em ataques na internet, mas especialistas dizem que este tipo de código é para uma técnica de hacking muito popular chamada drive-by attack.

Código infiltrado
Os internautas tornam-se vítimas quando visitam sites web que contêm código malicioso. É quando suas máquinas são então infectadas por meio da vulnerabilidade do navegador.

Os criminosos também infiltram esse tipo de código em sites web invadidos, com a intenção de disseminar seus ataques.

Na segunda-feira (23/11), a Microsoft publicou um aviso de segurança sobre a falha, oferecendo alguns contornos para o problema. Ele afeta as versões 6 e 7 do IE.

O navagador IE8 não é afetado pelo bug, que tem a ver com o modo que o IE recupera certos objetos Cascading Style Sheet (CSS), usados para criar um layout padronizado em páginas web.

Usuários do IE mais cautelosos podem atualizar seus navagedores ou desabilitar o JavaScript, se quiserem evitar ataques.

Fonte: IDG Now!

AACD e Indra lançam software que leva internet a deficientes físicos

William Saijo Nakashima Konishi tem 16 anos e é tetraplégico. Mesmo assim, ele acessa redes sociais como o Orkut e Twitter. O jovem paciente da Associação de Assistência à Criança Deficiente (AACD) conquistou a inclusão digital graças aos aplicativos Headmouse e Teclado Virtual, lançados oficialmente no Brasil nesta quarta-feira (25/11).

As soluções, criadas pela empresa de tecnologia Indra, tem como público-alvo deficientes físicos que, por terem sua mobilidade reduzida, não conseguem se conectar à internet ou usar o PC. A empresa de tecnologia lança os programas no Brasil em parceria com a AACD. Ambos os softwares são gratuitos.

Um dos programas é o Headmouse, que permite o controle do cursor do mouse por movimentos de cabeça. Com expressões faciais, é possível 'clicar' em links e arquivos. O software faz a identificação da face por meio de uma webcam.

Já o Teclado Virtual funciona com dispositivos que controlam o cursor na tela - joystick, touchpad e o próprio Headmouse. O teclado tem algoritmos com previsão de palavras em cinco idiomas: espanhol, catalão, inglês, francês e italiano. A função que prevê, sugere e aprende novas palavras será oferecida também em português em cerca de 60 dias.

Ao usar os softwares para publicar um post no Twitter, William mostra que é preciso treino para dominar a tecnologia. "Pratiquei por uma semana e ainda é um pouco difícil, mas com uma boa iluminação e um fundo neutro, funciona muito bem", conta, referindo-se à identificação de seus comandos pela câmera.

A Indra estabeleceu no Brasil um acordo de colaboração com a AACD para implementar uma sala no seu Centro de Reabilitação em São Paulo. No local, há PCs equipados para atender aos pacientes da clínica. A parceria, iniciada nesta quarta-feira (25/11), se estenderá para todas as unidades - nove ao todo - de reabilitação da AACD no Brasil.

"Antes eu não conversava. Usar o computador me dá independência", diz William, que deixa recados para os amigos com sua conta no Orkut. E quanto tempo ele passa no PC? "Depois que faço a fisioterapia de manhã, almoço e me conecto", diz.

Os interessados podem fazer o download dos aplicativos online.

Fonte: IDG Now!

Site ensina a planejar finanças pessoais

Quando os três sócios Marcelo Kimura, Paulo Sain e Décio Kimura resolveram se juntar e colocar em prática suas experiências com tecnologia e mercado financeiro, o site Minhas Economias passou de uma simples ideia para um ponto de encontro virtual de usuários com dificuldade em lidar com dinheiro.

Idealizado com o propósito de retribuir à sociedade, principalmente a carente (o cadastro no site é realizado de forma gratuita), o projeto nasceu das constantes solicitações de amigos e familiares sobre finanças pessoais.

“Escolhemos a internet por ter um alcance maior e permitir fácil acesso as informações. Além disso, nosso modelo de trabalho é simples. Não é necessário instalar ferramentas ou softwares, basta lançar gastos e orçamentos no site”, explica um dos fundadores do Minhas Economias, Paulo Sain.

Aliando tecnologia à educação financeira, o site também hospeda um blog, cujo conteúdo é determinado principalmente pelas dúvidas dos usuários.

Além do site, os sócios mantêm em Curitiba um projeto social destinado as famílias de baixa renda que querem planejar corretamente as finanças. "Nossos alunos têm aula de educação financeira e aprendem a utilizar o site, além de desenvolver dinâmica de grupos e pesquisas na internet sobre compras, valores e taxas”, explica Sain.

Fonte: IDG Now!

Órgão administrador de registros internet no Brasil alerta contra boletos falsos

O Núcleo de Informação e Coordenação da Internet no Brasil (NIC.br ) enviou esta semana e-mails avisando sobre boletos falsos, feitos com a intenção de desviar os pagamentos dos detentores de domínios para contas de pessoas e de outras empresas.

Os boletos costumam ser emitidos pelo provedor do contratante ou pelo próprio Registro brasileiro, e as taxas correspondem ao registro ou à renovação de domínios com o sufixo ".br", adicionada ou não do custo de hospedagem.

No passado, outras ocorrências de boletos falsos já foram detectadas. Alguns deles tentavam se passar como renovação de domínio para vender serviços de hospedagem.

Leia abaixo a íntegra do e-mail enviado pelo NIC.br:

Prezado(a) Usuário(a),

Em razão de continuadas tentativas de iludir a boa-fé dos usuários do
Registro brasileiro, vimos alertar para que prestem atenção aos
boletos recebidos que não sejam provenientes de seu provedor habitual
de serviços DNS ou do próprio Registro brasileiro, sediado no NIC.br.

Ressaltamos que nosso boleto bancário para pagamento de registro e/ou
manutenção de domínio tem o valor baseado em períodos anuais. [1]

Os boletos emitidos pelo NIC .br possuem os seguintes dados:

Cedente: NIC.br - CNPJ: 05.506.560/0001-36
Banco: Santander Banespa no. 033-7
Agência: 0105
Conta: 1303201-4

O NIC .br está totalmente empenhado para que estas atividades sejam
interrompidas. Todas as medidas legais possíveis de serem utilizadas
até o momento estão sendo adotadas contra a(s) entidade(s) que vem
efetuando estes abusos.

Caso necessitem de mais informações, a nossa equipe de atendimento
está a sua disposição. [2]

Agradecemos a atenção,

Registro.br

Fonte: IDG Now!

terça-feira, 24 de novembro de 2009

Biópsia óptica ganha precisão na detecção do câncer de mama

A maioria das biópsias - três em cada quatro realizadas - que se seguem a resultados relatados como suspeitos pelos exames de mamograma revela anormalidades benignas, e não câncer.

Mas, brevemente, as mulheres poderão não mais precisar passar pelo estresse do período que separa os dois exames, sem contar com as possíveis complicações das biópsias invasivas e com os seus custos.

Biópsia óptica

Biomédicos da Universidade da Flórida, nos Estados Unidos, estão fazendo progressos em um novo exame, chamado "biópsia óptica", que será capaz de determinar se os nódulos encontrados são cancerosos ou não, sem nem uma espetadela sobre a pele.

"Neste estágio, ainda é cedo para que a tomografia óptica seja usada como uma ferramenta de rastreamento," explica Huabei Jiang, que está aprimorando a técnica há mais de 10 anos. "Mas pode-se dizer que ela já pode se tornar uma ferramenta de diagnóstico, operando em conjunto com a mamografia por raios X."

Tomografia óptica

O novo exame, chamado tecnicamente de tomografia óptica difusa por contraste de fase, junta o poder da computação com a luz dos raios laser.

O equipamento possui um receptáculo, onde a paciente coloca a mama, repleto de sensores e terminações de fibras ópticas. A luz do laser vem pelas fibras ópticas e se espalha ao entrar no interior da mama.

A maior parte da luz do laser é absorvida pelo tecido. O mais importante, porém, é a parte da luz que chega até os detectores. Esses sensores passam suas leituras para o computador, onde um programa especial cria uma imagem tridimensional do interior da mama.

A imagem diferencia entre condições benignas e sinais de câncer que são totalmente invisíveis para os mamogramas tradicionais baseados em raios X - por exemplo, uma alta concentração de vasos sanguíneos ao redor de um tumor.

Arco-íris

Mas a imagem é apenas um dos indicadores fornecidos pela mamografia óptica. Na versão mais recente do aparelho, que acaba de entrar na fase de testes, as fibras ópticas espalham luz com 10 comprimentos de onda diferentes, ou seja, luz de 10 cores diferentes.

As diferentes cores espalham-se pelo tecido do interior da mama de forma previsível, comportando-se de forma diferente quando atingem as moléculas de água, a hemoglobina oxigenada ou as moléculas de gordura.

Da mesma forma que a luz coletada de planetas diferentes revela os elementos químicos que compõem sua atmosfera, a luz coletada das colisões com os diversos tecidos indicam evidências químicas do câncer.

O termo contraste de fase no nome da técnica equivale ao índice de refração, que fornece informações sobre a densidade e o tamanho das células, ambos fatores importantes na determinação do câncer nas biópsias.

A nova versão do equipamento já foi avaliada por mais de 200 pacientes, com um nível de precisão de 91%. "Ainda não é o suficiente para nós, mas nós estamos muito confiantes," disse Jiang.

Descoberta brasileira garantirá vacinas mais baratas e em maior quantidade

Um rejeito da fabricação da vacina da coqueluche promete aumentar a produção de vacinas no Brasil e ainda baratear consideravelmente os custos.

A descoberta, que pode colocar o país entre os grandes produtores mundiais de vacina, em termos de volume, é resultado de trabalhos coordenados pelo professor Isaías Raw no Instituto Butantan, em São Paulo.

Melhor vacina do mundo

Ao trabalhar com a vacina da coqueluche, os pesquisadores retiraram o componente que apresentava maior toxicidade, o lipopolissacarídeo (LPS).

O objetivo era amenizar efeitos colaterais das vacinas. A pesquisa gerou uma vacina do tipo pertussis low, versão atenuada do medicamento contra a coqueluche, mas deixou um montante considerável de rejeitos: quilos de LPS aos quais se precisava dar um destino.

Ao se debruçar sobre o LPS, o grupo de Raw o transformou em monofosforil lipídio (MPLA), uma molécula que mostrou ser, em testes em camundongos e em humanos, um poderoso adjuvante (intensificador da ação) de vacinas, uma vez que aumentou consideravelmente a resposta imunológica do organismo. Em outras palavras, o MPLA permitiu à vacina obter o mesmo efeito imunológico mesmo quando injetada em quantidades bem menores.

"Obtivemos uma vacina de coqueluche melhor do que qualquer outra que existe no mundo e ainda geramos um subproduto valioso a custo zero", disse Raw. O avanço também permitiu o incremento da produção brasileira da vacina de coqueluche de 40 milhões para 260 milhões de doses anuais.

Vacina contra o H1N1

Outro detalhe importante é que o adjuvante obtido na fabricação da pertussis low pode atuar em outras vacinas, como na da gripe comum, chamada sazonal, da dengue (que está sendo desenvolvida com o apoio da FAPESP) e na vacina da influenza A (H1N1), que deverá ser a primeira a ser testada em humanos com o adjuvante.

A equipe do Butantan espera a autorização do Conselho Nacional de Ética em Pesquisa para começar os testes. "Vamos testar duas concentrações diferentes, uma com 7,5 microgramas e outra com 3,75 microgramas. Se a primeira funcionar, será possível fabricar 18 milhões de doses. Se a dose menor for efetiva, teremos condições de fazer cerca de 34 milhões de doses", disse. A dose convencional atual tem 15 microgramas.

Redução no preço das vacinas

Esse aumento de produtividade foi previsto por Raw há alguns anos, quando propôs em uma reunião em Genebra, na Suíça, que se produzissem vacinas com adjuvante para baratear os custos.

"Expliquei que, no caso da vacina da gripe comum, poderíamos usar um quarto da dose e reduzir os custos na mesma proporção. Claro que a resposta das indústrias foi 'não', pois ninguém queria reduzir preços", disse.

A opinião dos fabricantes mudou com o advento da gripe aviária em 2003. Diante de uma pandemia de alto índice de mortalidade (cerca de 50% dos doentes) as indústrias se viram encurraladas.

"Eles perceberam que as fábricas do mundo inteiro não teriam capacidade de produzir vacinas em quantidade suficiente no caso de uma epidemia mundial", contou Raw, salientando que nem os países ricos estariam livres, pois uma fábrica de vacinas leva anos para ser concluída.

Combinada ao adjuvante, a vacina da gripe aviária precisaria de uma dose de apenas 3,75 microgramas no lugar das 60 microgramas da dose tradicional. Quando o interesse pelos adjuvantes foi despertado, o Butantan já estava na vanguarda das pesquisas. Por meio de uma planta piloto no instituto, o Brasil conseguia produzir 20 mil doses da vacina da gripe aviária e com capacidade de montar uma linha de produção ainda maior.

Saúde dos cidadãos

A influenza A (H1N1) trouxe de volta a discussão sobre os adjuvantes e a capacidade mundial de enfrentar pandemias. Com dificuldades em atender seus próprios cidadãos durante a epidemia, os Estados Unidos e os países europeus que produzem vacinas podem limitar as exportações de suas vacinas.

Muitos norte-americanos foram para as filas de vacinação e não conseguiram ser atendidos pela simples falta do produto. "Imagine essa situação no caso de uma epidemia de grandes proporções. Poderia haver perturbações de ordem civil", disse Raw.

Lucro descabido

Basta lembrar que durante a epidemia da gripe aviária, há seis anos, as empresas comercializavam cada dose da vacina a US$ 100 a unidade, sendo que o custo de produção não passava de US$ 1. O mesmo ocorreu com a H1N1, cuja unidade era vendida na Europa a 14 euros, sendo o custo de produção bem-parecido com o da gripe aviária.

Raw destaca que as fábricas de vacina se concentram no hemisfério Norte - Estados Unidos, Canadá e Europa -, sendo uma questão estratégica a manutenção de plantas como a do Butantan para manter a autossuficiência e o suprimento de vacinas no país, principalmente em casos de epidemias. "É uma questão de segurança nacional", afirma.

Pesquisa brasileira em vacinas

Contudo, o Brasil está em uma situação privilegiada entre os países em desenvolvimento. A excelência da pesquisa brasileira em vacinas é reconhecida mundialmente. O trabalho da equipe de Raw com o MPLA ganhou destaque na revista científica norte-americana Vaccine em setembro.

O Butantan foi a primeira instituição mundial a receber investimentos da Organização Mundial da Saúde com o objetivo de se preparar para produzir vacinas em casos de pandemias. E o instituto está com uma fábrica pronta só esperando o fim do processo de validação para começar a produzir.

Após suprir o mercado nacional, o Butantan terá capacidade de exportar vacinas a preços extremamente competitivos, graças ao baixo custo de obtenção do LPS, a matéria-prima do adjuvante.

"Sabemos fazer vacinas e adjuvantes sem depender de reagentes nem de conhecimentos importados. Temos a matéria-prima, a fábrica e a tecnologia", disse Raw.