terça-feira, 30 de setembro de 2008

Brecha em codificação de HTML permite roubo de dados em serviços

Um problema na codificação de sites, conhecida tecnicamente como "cross-site request forgery", permite que hackers ataquem portais para acessar dados pessoais de usuários que estejam autenticados online.

O portal do jornal New York Times ainda está vulnerável. O YouTube, o portal de blogs MetaFilter e o banco ING Direct corrigiram a falha de codificação.

Em um ensaio acadêmico, os professores William Zeller e Edward Felten disseram que as falhas de CSRF foram ignoradas pelos desenvolvedores por falta de conhecimento sobre a seriedade do problema.

Diversos sites legítimos armazenam informações pessoais do internauta em um cookie ou em um arquivo de dados quando a pessoa se loga no portal.

Estas informações são requisitadas novamente para checagem, como durante o processo de uma compra online, por exemplo.

Durante o ataque de CSRF, um hacker envia esse pedido de checagem para o portal legítimo que - sem saber identificar que se trata de uma fraude - envia os dados pessoais do usuário.

"A causa principal que gerou o CSRF e outras vulnerabilidades está na complexidade dos protocolos de web e da evolução gradual da web como local de apresentação de dados para uma plataforma de serviços interativos," defende o ensaio.

No portal do The New York Times, o hacker pode conseguir o endereço de e-mail de quem está logado no portal. Esse endereço pode se tornar destinatário de spam.

No dia 24 de setembro, a falha não foi corrigida, apesar dos pesquisadores terem notificado o jornal em setembro de 2007.

O problema no portal do ING foi mais sério. Zeller e Felten escreveram que a falha CSRF permite que uma outra conta corrente seja criada em nome da vítima. Além disso, um hacker poderia transferir o dinheiro para a sua própria conta. Os especialistas afirmam que o ING corrigiu o problema depois de notificado.

No site do MetaFile, a falha permite acesso à senha do usuário. Já no YouTube, um ataque permite adicionar vídeos na lista de favoritos do usuário e mandar mensagens para outros usuários. Nos dois portais, as falhas foram corrigidas segundo os pesquisadores.

Aparentemente, as falhas de CSRF são fáceis de serem achadas e corrigidas. Os autores do estudo indicam os detalhes técnicos para isso no ensaio. Eles também criaram um plug-in adicional para o Firefox para que os usuários se defendam de alguns tipos de ataques CSRF.

Fonte: IDG Now!

Microsoft oferece HotFix que atualiza PC para horário de verão

O horário de verão entrará em vigor no Brasil a partir do dia 19 de outubro (domingo), à 0h, e vai até o dia 15 de fevereiro de 2009. Neste período, o horário nas regiões Sul, Sudeste e Centro-Oeste deverão ser adiantados em uma hora. E a Microsoft avisa que está colocando à disposição dos usuários um HotFix para alterar o relógio do Windows automaticamente.

Usuários do Windows Vista, Windows XP SP3 e Windows Server 2008 (U1) podem acessar o site www.microsoft.com/brasil/horariodeverao para saber como instalar o HotFix. No site, encontram-se também orientações para o Microsoft Exchange e para outras versões do Windows.

A partir do próximo ano, por determinação do Ministério de Minas e Energia, o Horário de verão terá data fixa para começar e terminar, o que permitirá a atualização automática do sistema operacional, segundo nota da Microsoft.

A empresa também oferece a Central de Atendimento - pelo telefone 0800-888-4081 - para que os usuários possam sanar eventuais dúvidas.

Fonte: Terra

Falta de manchas no Sol pode ajudar a resfriar Terra

Na segunda feira, dia 22, começou a primavera, e coincidentemente surgiu uma pequena mancha solar. Tão pequena que já no dia 24 ela tinha desaparecido, durando dois dias ou menos. Manchas solares vêm e vão e possuem um ciclo de 11 anos, alternando períodos de alta intensidade, caracterizado por um grande número delas, e períodos de baixa atividade solar, quando poucas manchas aparecem no Sol. Estamos justamente em um período de mínimo solar, com poucas manchas visíveis.

E qual a novidade nisso?

Bem, o evento em si é bem trivial, manchas vêm e vão, como eu já disse, mas essa foi especial em dois sentidos. O primeiro: ela apareceu depois de um longo período de baixíssima atividade solar, e suas características indicam que se trata uma mancha do ciclo 24. Esse ciclo iniciou-se em janeiro, marcando a saída do mínimo solar. Em outras palavras, de janeiro em diante o número de manchas só deve aumentar, até atingir o máximo entre outubro de 2011 e agosto de 2012. Ao menos em tese. A baixa atividade solar tinha posto em dúvida o momento em que o ciclo 23 tinha acabado, muita gente acreditava que ele ainda estivesse em curso, pois o número de manchas não aumentou como esperado. E isso levanta a segunda questão.

A atividade solar tem perdido força ao longo dos anos. Desde que a intensidade do vento solar começou a ser monitorada, há uns 50 anos, ela nunca esteve tão baixa. O vento solar é responsável por criar uma bolha chamada de helioesfera, que envolve e protege o Sistema Solar dos raios cósmicos de alta energia provenientes do resto do Universo. Com o vento solar menos intenso, a bolha se encolhe e fica mais fina, facilitando a passagem dos raios cósmicos. Em princípio, estamos a salvo na Terra, pois nosso campo magnético e nossa atmosfera nos protegem, mas satélites, astronautas e qualquer equipamento fora dessa proteção estará sujeito a esse bombardeio. Na prática, a vida útil de sondas espaciais será encurtada.

Além disto, existe um estudo controverso que liga a quantidade de raios cósmicos à quantidade de nuvens na Terra. Essa hipótese diz que o bombardeio de raios cósmicos na nossa atmosfera favorece a criação de nuvens. Se a helioesfera se enfraquecer, é justamente isso que vai acontecer, aumento de raios cósmicos e aumento de nuvens.

Aumentar a capa de nuvens significa bloquear a quantidade de raios solares que penetram a atmosfera. O topo das nuvens acaba refletindo a luz do Sol de volta ao espaço e, como conseqüência, a Terra esfriaria. É claro que isso não explica a atual onda de frio em plena primavera.

A hipótese é um tanto controversa, mas entre 1645 e 1715, aproximadamente, o número de manchas solares registrado foi muito pequeno, e o período ficou conhecido como “Mínimo de Mauner”. Nesse mesmo período a Europa sofreu com temperaturas muito baixas, com rios que normalmente são fluidos o ano inteiro ficando congelados durante um ano inteiro! Esse período é conhecido em geologia ou meteorologia como “Pequena Idade do Gelo”. Apesar dos registros do número de manchas da época não serem tão bons quanto atualmente, parece que o número atual de manchas é menor que o verificado no Mínimo de Mauner.

No final das contas, pode ser que o Sol nos dê uma força para impedir que as temperaturas se elevem com o aquecimento global.

Fonte: Cássio Leandro Dal Ri Barbosa/G1

Aprenda a criar uma boa apresentação no PowerPoint

Não é de hoje que o uso de apresentações eletrônicas é realidade nos ambientes corporativos e também nas instituições de ensino, dando aos expositores a possibilidade de dinamizar e incrementar suas palestras. Para tratar desse tema, vamos considerar dois tipos de abordagens: os aspectos técnicos, que consistem na montagem da apresentação, e também a preparação e apresentação do material.

COMO MONTAR
Vou explicar aqui como montar uma apresentação no PowerPoint, a ferramenta mais comum nesse tipo de tarefas. A versão adotada nos exemplos será a 2007, a mais atual.

Ao criar um novo documento no PowerPoint, há uma série de temas pré-configurados, com composições de cores de texto e fundo com uma boa relação de contraste, evitando problemas visuais na apresentação. Para encontrar essas opções, clique no item Temas instalados, dentro da aba de Modelos, na tela de apresentação. Veja abaixo.

img01_novaaprest_300908.jpg

img02_novoslides_300908.jpg

Outro ponto interessante é o uso das formatações que ajudam a organizar diferentes conteúdos, como pode ser visto na ilustração ao lado. O formato mais comum, e também o mais recomendado, é o segundo da esquerda para a direita na primeira fileira: título e conteúdo.

Número de página
Clique no menu Inserir e em Cabeçalho e rodapé, para em seguida marcar as opções: número do slide e não mostrar no slide de título. Outro ponto importante neste menu de configuração é a exibição de data e hora no slide, para quando for necessário ter essas informações na apresentação.

Recursos multimídia
img03_multimidia_300908.gif
Repare que no interior da área de edição de conteúdo existem seis ícones, que são atalhos rápidos para inserção de conteúdo multimídia, como tabela, gráfico, smartart, imagens, clip-arts e vídeos. Quando você clicar nesses itens, o PowerPoint irá carregar um editor próprio para cada contexto.

No caso de tabela, por exemplo, será preciso informar o número de linhas e colunas. Assim, o programa irá exibir a tabela pronta para receber textos em suas células. O assistente de gráfico é ainda mais interessante, pois é integrado com o Microsoft Excel, permitindo que os dados fiquem em uma planilha. O que aparece na apresentação é apenas o gráfico.

Anotações
Ao fazer uma apresentação, é importante montar um roteiro, definindo o que será dito enquanto cada slide é apresentado. É possível fazer esse controle com o próprio PowerPoint, usando o sistema de anotações. Com ele é possível editar textos relacionados a cada slide: essas anotações não aparecem na apresentação final, mas podem ser impressas e usadas para orientação e estudo.

Para realizar as anotações, clique no menu Exibição e em Anotações. Você encontrará uma tela com o documento dividido em duas partes, o slide e logo abaixo uma caixa de texto onde serão digitados os textos relacionados.

img04_print_300908.jpg

Na hora da impressão, como mostra a ilustração ao lado, selecione a opção anotações no item Imprimir da janela de impressão (aberta com Control+P).

Salvando o arquivo
O ideal é levar o arquivo para a apresentação no formato PPS, que não permite a edição e exibe diretamente a apresentação quando aberto. Para isso, use o menu de contexto do Office (o botão de círculo) e vá à opção Salvar como, selecionando apresentação de slides do PowerPoint. Outra dica importante é salvar o arquivo na versão 97-2003, pois o PC que for usado na apresentação pode não ter a versão mais atual do programa.

ANTES DA APRESENTAÇÃO
Monte um roteiro do que será apresentado, levando em consideração o tempo máximo disponível, evitando estourar o tempo ou ser rápido demais. Inclusive, um ensaio prévio é importante para fazer uma estimativa do tempo gasto.

A apresentação não é um relatório. Procure ser objetivo ao apresentar o conteúdo de cada slide, já que eles devem apenas servir de orientação para o que está sendo dito. Não use planilhas/tabelas muito extensas. Gráficos são muito mais atrativos e aumentam a atenção da platéia. Textos longos devem ser evitados.

Som, efeitos de animação, elementos pulando na tela, textos que só aparecem após um clique no mouse? Esqueça isso tudo. A apresentação deve ser simples e objetiva para que você possa se concentrar no público.

Não abuse na escolha das letras. Se estiver na dúvida sobre qual estilo escolher, dê preferência para fontes clássicas como Arial, Verdana, Times New Roman ou Courier New. O tamanho da fonte também é importante - não use nada abaixo de 22 pontos.

Não use modelos de apresentação muito rebuscados, com muitos elementos visuais e imagens de fundo muito colorido. Fundo branco com letras pretas ou em uma cor escura são suficientes para uma boa leitura. Evite textos em cores quentes (vermelho, amarelo, etc) em fundos de cores frias (azul claro, verde claros). A atenção ao contraste é fundamental.

Caso a apresentação seja baseada em um documento ou um trabalho, monte-a seguindo rigorosamente a mesma seqüência de informações, pois quem estiver assistindo poderá comparar os dados de uma forma simples, sem perder tempo.

Use os slides como referência de tempo, criando, por exemplo, um slide para cada bloco de 5 minutos. Durante a definição das partes da apresentação, localize a parte mais importante e dedique a ela maior atenção e tempo.

Treine e treine bastante antes da apresentação. Em alguns casos vale filmar a apresentação e assisti-la para corrigir falas e posturas. Revise todos os textos que farão parte da apresentação. Erros de português, tanto gramaticais quanto ortográficos, são imperdoáveis.

Segundo o empresário e investidor Guy Kawazaki, uma apresentação deve seguir a regra do 10/20/30 que consiste em: Nunca ter mais de 10 slides, não durar mais que 20 minutos e só ter letras maiores que 30 pts. Em seu site existe uma explicação detalhada de sua teoria. O texto está em inglês.

Também é importante sempre levar cópias da apresentação em diversos tipos de mídia (pendrive, CD/DVD). Caso não vá usar seu próprio computador, procure salvar o arquivo em diferentes versões para evitar a desagradável surpresa de não ter uma versão compatível com sua apresentação.

DURANTE A APRESENTAÇÃO
As informações exibidas nos slides - uma ilustração, complemento ou representação gráfica- devem ser tratadas como ferramentas de suporte. Ou seja, servem para destacar aquilo que está sendo dito no momento. Afinal, o foco de uma palestra é o apresentador, e os slides devem servir apenas como ferramenta de apoio.

Em uma apresentação em que serão expostos valores percentuais, por exemplo, o slide pode ser apenas um gráfico, e a explicação do apresentador ilustra os números expostos. O público irá enxergar no gráfico aquilo que ouve, possibilitando uma maior fixação e compreensão daquele ponto específico.

Fonte: G1

Antenas holográficas vão melhorar aerodinâmica de aviões

Utilizando uma técnica de construção inspirada na forma como são fabricados os hologramas, engenheiros estão desenvolvendo um novo tipo de antena que irá deixar a fuselagem dos aviões mais limpa e aerodinâmica.

"Nós podemos potencialmente construir antenas que acompanham perfeitamente a superfície da aeronave, mas apresentando um desempenho igual ou melhor do que estas construídas com as técnicas atuais e que se sobressaem da fuselagem," diz o engenheiro Daniel Sievenpiper, dos Laboratórios HRL, onde está sendo feita a pesquisa.

Antenas de superfícies holográficas

O Dr. Sievenpiper e seus colegas estão construindo as antenas de superfícies holográficas utilizando materiais metálicos depositados sobre uma superfície. As estruturas têm desempenho similar ao de um objeto coberto com uma superfície de impedância.

As novas antenas superficiais trarão ganhos não apenas para a aerodinâmica, mas também para a segurança e para as comunicações. Por exemplo, se a cauda de um avião interfere com os sinais vindos de determinada direção, essa cauda poderá ser recoberta com as novas superfícies de impedância, tornando-se ela própria uma antena adicional.

As antenas holográficas são construídas na forma de células individuais. Os pesquisadores agora estão fazendo diversas simulações computadorizadas para avaliar a melhor forma de sua implementação prática, permitindo que as células sejam adequadamente posicionadas sobre a superfície de objetos de desenho complexo.

Fonte: Inovação Tecnológica

Andróides e alienígenas vão se juntar à pesquisa pangaláctica

Pesquisa "pangaláctica" é uma ironia bem-humorada que os cientistas utilizam para se referir ao projeto SETI, que busca vida extraterrestre analisando sinais captados por grandes radiotelescópios.

Nenhum alienígena foi detectado até agora, mas o projeto SETI já deu um resultado mais significativo do que a maioria dos outros grandes projetos científicos - que são mais convencionais e suscitam menos ironias, mas que nem sempre geram efeitos de tamanho alcance.

Cessão voluntária de computadores

Hoje, mais de 50 projetos científicos de grande porte só estão sendo executados graças ao desenvolvimento de uma plataforma de computação distribuída capaz de segmentar grandes cálculos computacionais e distribui-los para serem feitos em milhões de computadores pessoais, cedidos voluntariamente por seus proprietários. Os programas científicos somente rodam nos momentos em que o computador está ocioso.

Essa plataforma foi desenvolvida para o SETI@Home, que permite que os dados coletados pelos radiotelescópios do Projeto Seti sejam processados nos momentos de ociosidade dos computadores dos voluntários, em busca de padrões que podem indicar transmissões feitas por seres inteligentes.

Ciência em casa

Entre esses grandes projetos estão o folding@home, que está tentando desvendar o mistério dos dobramentos das proteínas, o Einstein@home, que analisa as ondas gravitacionais, e o LHC@Home, que vai processar os dados do maior acelerador de partículas do mundo e que poderá ajudar a compreender como surgiu nosso universo.

Todos esses projetos utilizam a plataforma Boinc (Berkeley Open Interface for Network Computing), que nasceu a partir do SETI@Home. Em janeiro desde ano, os computadores cedidos voluntariamente para participação nesses projetos somavam uma capacidade de processamento de 1 petaflop.

Agora, os pesquisadores querem dar dois passos importantes para avançar na exploração do potencial desse gigantesco supercomputador "pangaláctico."

Andróide e Java

Como já existem muitos mais telefones celulares do que computadores no mundo, os cientistas querem adaptar a plataforma Boinc para rodar nesses aparelhos portáteis, utilizando principalmente o sistema operacional Android, desenvolvido pelo Google.

O potencial de ganhos em capacidade de processamento é gigantesco, principalmente porque os telefones celulares de hoje já possuem uma capacidade superior à dos computadores pessoais quando o sistema Boinc foi lançado, em 2003. Para isso, os pesquisadores estão traduzindo todo o código-fonte do Boinc, da linguagem C em que foi programado originalmente, para a linguagem Java.

Computação distribuída e em nuvem

O segundo esforço que está sendo iniciado agora consiste na convergência da computação voluntária, como inaugurada pelo SETI@Home, com a computação distribuída (grid computing), criando uma verdadeira nuvem de computação (cloud computing).

Para isso, os desenvolvedores estão construindo uma ponte entre o Boinc e os sistemas de computação distribuída, permitindo que os dados fluam nos dois sentidos. O projeto foi batizado de Enabling Grids for E-sciencE (EGEE).

Quando finalizado, o novo programa deverá permitir a unificação dos computadores rodando aplicativos baseados no Boinc e os grandes supercomputadores e clusters instalados nos institutos e universidades onde cada pesquisa é conduzida.

Outro enfoque que está sendo estudado baseia-se na virtualização. Utilizando máquinas virtuais criadas por programas como o VMware, os pesquisadores esperam ampliar o aproveitamento do poder computacional de computadores pessoais e notebooks dos milhões de voluntários que se oferecem para colaborar nas pesquisas científicas.

Fonte: Inovação Tecnológica

Evento no Japão coloca robôs para andar de bicicleta e monociclo

Fabricantes de robôs mostraram nesta terça-feira (30), no Japão, o que suas máquinas sabem fazer. Durante apresentação na feira de eletrônicos domésticos Ceatec 2008, em Chiba, a empresa Murata Manufacturing fez uma apresentação com a monociclista robótica Seiko-chan, que se equilibrou ao lado do ciclista Seisaku-kun – a companhia classifica os dois como “primos”.

A monociclista mede 50 centímetros, pesa 5 quilos e mantém o equilíbrio graças a dois sensores acoplados a seu corpo.

Seiko-chan se equilibra ao lado de seu ‘primo’, o ciclista Seisaku-kun. (Foto: AP)

Monociclista mede 50 centímetros e pesa 5 quilos. (Foto: AP)

Mulher interage com o robô BR23C, que a seguiu durante apresentação nesta terça. Máquina identifica objetos e consegue evitar colisões. (Foto: AP)

Fonte: G1

Toshiba revela bateria de notebooks que carrega 90% em 10 minutos

A Toshiba mostrou, nesta terça-feira (30/09), na feira de tecnologia Ceatec, no Japão, um protótipo da bateria SciB (Super Charge Ion Batteries) para notebooks, que carrega 90% de sua capacidade em 10 minutos.

A tecnologia SCiB , além de permitir o veloz carregamento da bateria, durará mais e sobreviverá por mais ciclos que as atuais baterias - entre 5 e 6 mil ciclos, em comparação com 500 ciclos de uma bateria de lítio-íon.

As baterias SCiB são mais seguras - não explodem em caso de impactos, como é possível acontecer com os modelos de lítio-íon. Isto acontece devido ao uso de um material com um nível mais alto de estabilidade térmica e, além disso, a tecnologia SCiB inclui proteção contra problemas de circuito e aquecimento excessivo.

As baterias surgiram no mercado em 2007, tendo as primeiras versões voltadas a aplicações industriais. O modelo ainda não está próximo de ser incluso em notebooks, segundo a Toshiba, que não revelou quando as baterias SCiB chegam ao mercado.

Fonte: IDG Now!

Sonda espacial Phoenix fotografa neve caindo em Marte

A sonda espacial Phoenix fotografou neve caindo das nuvens de Marte. A neve foi detectada a uma altitude de 4 quilômetros acima do local onde está pousado o laboratório espacial.

Mas a superfície do planeta vermelho não se tornou branca nem por um instante: os dados coletados sugerem que a neve se vaporiza antes de atingir o solo.

A animação abaixo foi feita com uma série de fotos tiradas pela Phoenix, mostrando as evidências da neve caindo.

“Nada parecido com esta imagem havia sido visto antes em Marte,” afirmou Jim Whiteway, coordenador dos experimentos meteorológicos da Phoenix, em um comunicado da NASA. “Nós iremos procurar por sinais de que a neve possa atingir o solo.”

Os experimentos da Phoenix também suportam evidências da existência de carbonato de cálcio no solo do planeta. A maioria dos carbonatos e argilas na Terra se formam na presença de água em estado líquido, mais um indício da existência passada de água na superfície de Marte.

Fonte: Inovação Tecnológica

segunda-feira, 29 de setembro de 2008

Bovespa encerra pregão com maior baixa em quase dez anos

A Bolsa de Valores de São Paulo (Bovespa) encerrou a segunda-feira (29) com baixa de 9,36%, aos 46.028 pontos - uma queda de cerca de 40% em relação ao pico histórico dos negócios, atingido em maio deste ano.

A baixa registrada no dia mais turbulento dos mercados este ano foi a maior desde 14 de janeiro de 1999, quando a Bovespa fechou em baixa de 9,97%, na véspera da adoção do câmbio livre no país.

Interrupção

A segunda-feira foi marcada pela interrupção dos negócios pouco depois das 15h, após o Ibovespa despencar mais de 10% - ativando o chamado 'circuit breaker', sistema que paralisa as negociações para evitar variações bruscas. Depois da retomada das operações, a queda manteve-se alta, perdendo parte da força nos minutos finais do pregão.

O mercado repercutiu a notícia de que o Congresso norte-americano rejeitou o plano de US$ 700 bilhões em resgate a bancos nos Estados Unidos nesta segunda-feira (29).

O agravamento da crise também atingiu a cotação do dólar no mercado brasileiro. O valor da moeda norte-americana disparou e fechou em alta de 5,99%, cotado a R$ 1,964, na maior valorização percentual diária desde 2002.

Uma forte baixa também atingiu as bolsas em Wall Street, "coração financeiro" de Nova York. O índice Dow Jones caiu 760 pontos, ou 6,71%, na pior queda diária da história. Durante o fim de semana, democratas e republicanos chegaram a um novo formato para o plano que prevê US$ 700 bilhões para o saneamento do balanço dos bancos.


Entenda o que é o 'circuit breaker'

O circuit braker é um mecanismo de controle da variação dos índices. Quando as cotações superam limites estabelecidos de alta ou de baixa, as negociações são interrompidas, para evitar movimentos muito bruscos.

Na Bolsa de Valores de São Paulo (Bovespa), o circuit breaker é disparado quando a baixa do Índice Bovespa (Ibovespa) atinge os 10%. Os negócios são então paralisados por trinta minutos e retomados em seguida.

Depois da retomada do pregão, se a queda persistir, os negócios são novamente interrompidos quando a baixa chega a 15%. Desta vez, a paralisação é de uma hora.

Nesta segunda, o mecanismo foi disparado quando o Ibovespa chegou aos –10%, após a rejeição, pela Câmara dos Estados Unidos, do pacote de ajuda aos mercados financeiros apresentado pelo presidente George Bush na semana passada.

Fonte: G1

REVISTAS: VEJA nº 2080

Nome do Lançamento: Revista Veja, 01 de Outubro de 2008
Tamanho: 36MB
Links: Homepage
Download: Multi-Servidor

Polícia italiana usa videogame no lugar de bafômetro

A polícia italiana está usando um videogame para verificar se motoristas estão drogados e alcoolizados.

O aparelho está sendo testado em algumas cidades italianas e chega para substituir o velho bafômetro usado em blitzes normais no país.

O videogame DeeDee, desenvolvido por cientistas italianos, é composto de um joystick e de uma tela de computador.

As imagens criadas por um programa especial simulam situações de trânsito. A alavanca única reúne os controles de aceleração e frenagem de um carro virtual pilotado pelo motorista.

O DeeDee é o resultado de 15 anos de pesquisa neurológica e cibernética da equipe do engenheiro Alberto Rovetta, professor do laboratório de robótica do departamento de engenharia mecânica do Politécnico de Milão.

O método é bem mais prático e barato do que os bafômetros - além de ser menos agressivo psicologicamente - e poderá, após ser comercializado, ser disponibilizado em bares, restaurantes e para uso privado.

85% de acerto

A operação completa para identificar um motorista alcoolizado ou drogado dura cerca de um minuto. Um carro vermelho, uma rua cinza, um muro e um sinal de trânsito aparecem na tela.

O motorista, em pé no acostamento da estrada ou na calçada, deve seguir as instruções do semáforo virtual, movimentar o carro e pará-lo antes de bater na parede. Parece fácil, mas para quem bebeu além da conta ou se drogou a manobra elementar se torna quase uma missão impossível.

"O aparelho é capaz de medir a reação nervosa da pessoa. O nível desta reação recomenda ou não um exame clínico para constatar as causas. O índice de acerto é em torno de 85% se comparado com o método tradicional, mas queremos chegar aos 90%. Mais do que isso, eu acho que é difícil, pois é impossível adivinhar a natureza humana", diz o professor Alberto Rovetta à BBC Brasil.

O tempo de reação, a velocidade dos dedos, a destreza dos movimentos e o tremor das pontas dos dedos são analisados por quatro nano-sensores localizados dentro do joystick.

Eles foram criados para decifrar o mecanismo de resposta do cérebro ao impulso do videogame e levam 5 milésimos de segundo para capturar os dados. O programa do computador recebe as informações neurológicas, faz os cálculos e apresenta o diagnóstico.

O resultado do teste de direção aparece na hora. O sinal verde indica a ausência de álcool ou drogas no organismo. A cor amarela revela a ingestão de drogas e de álcool. Já a luz vermelha acusa uma quantidade de álcool no sangue superior ao máximo previsto pela lei.

O professor Alberto Rovetta conta que em alguns testes foram detectados distúrbios psíquicos profundos.

"Era um motorista que não tinha bebido e nem estava drogado, mas tinha problemas mentais. Ele sofria de esquizofrenia", contou o pesquisador.

O projeto nasceu em 1993, sob a batuta do prêmio Nobel de Medicina, John Carew Eccles (1903-1997), especialista no estudo da fisiologia dos neurônios. Em 2000, a pesquisa ganhou financiamento da União Européia. O primeiro protótipo nasceria seis anos depois, mas o programa de computador, capaz de produzir informações mais precisas, ficou pronto apenas agora.

O Politécnico de Milão tem um acordo com polícia italiana para implantar o projeto. O videogame tem surpreendido os motoristas que deixam as discotecas de cidades como Milão, Turim, Aosta e Novara. As cidades Alessandria. Cagliari, Arezzo, Foggia e Verona estão na fila.

Nesta fase inicial de testes, ele está sendo certificado e comparado ao método tradicional.

Álcool no trânsito

Os acidentes de trânsito causados por motoristas bêbados causam grande preocupação na Itália.

Em uma amostragem com 126 mil motoristas nos primeiros seis meses deste ano, 12.756 testaram positivo para álcool.

No mesmo período, foram registrados 764 mortes, dos quais 296 tinham menos de 30 anos de idade. No ano passado, 40 mil carteiras de motorista foram suspensas.

A partir da semana passada todos os bares e restaurantes que vendem bebidas alcoólicas deverão exibir na porta uma tabela que explica a relação entre um copo de vinho ou de cerveja e a taxa de álcool no sangue.

A planilha leva em consideração as variáveis como o peso da pessoa, o sexo e a quantidade de comida ingerida.

Pela lei italiana, uma pessoa pode dirigir com até 0,50 gramas de etanol por litro de sangue. Este limite é superado por um homem de setenta quilos que toma uma cerveja sem ter se alimentado antes.

Fonte: BBC Brasil

Moléculas são fotografadas durante reação química

Moléculas são fotografadas durante reação química

Refletor microscópico

Combinando várias técnicas de microscopia, cientistas agora conseguem visualizar uma molécula de cada vez. Essa nova técnica combinada irá permitir a compreensão detalhada das chamadas reações de transferência de elétrons, as mais utilizadas nas pesquisas de biocombustíveis.

É como se os pesquisadores tivessem construído um refletor microscópico que, em vez de iluminar uma cena inteira, ilumine apenas uma molécula de cada vez. As moléculas são fluorescentes e brilham conforme vão recebendo e perdendo elétrons.

Microscópio de fluorescência

Quando estudam reações químicas, os pesquisadores geralmente acompanham o conjunto das moléculas na reação e medem a energia média que elas perdem, mais ou menos como se eles estivessem olhando um conjunto de trabalhadores e medindo sua produtividade média. Mas é muito mais útil conhecer a produtividade de cada trabalhador individual.

Na ilustração, um microscópio de fluorescência, visto na parte inferior, captura a imagem de uma única molécula quando ela fluoresce ao perder um elétron - o -e no alto da imagem. A técnica permite que cada molécula seja fotografada individualmente quando ela brilha ao ser carregada ou quando perde um elétron.

Reações de transferência de elétrons

Reações de transferência de elétrons são essenciais para os processos que capturam a energia do Sol por meio da fotossíntese e para permitir que as células gerem a energia necessária para sustentar a vida.

Pesquisadores do mundo todo estão tentando fazer a engenharia reversa da fotossíntese, ou criar processos similares, para gerar hidrogênio e outros biocombustíveis.

Essas reações de transferência de elétrons se baseiam na troca de elétrons entre as moléculas: quando um elétron salta de uma molécula para outra, a molécula libera uma energia química que pode ser aplicada na execução de uma tarefa prática, como produzir açúcar nas plantas.

Fonte: Inovação Tecnológica

NASA quer desvendar "camada secreta" do Sol

Em Abril do próximo ano, astrônomos da NASA terão pela primeira vez a oportunidade de observar por breves instantes - 8 minutos no total - uma camada secreta do Sol.

Região de transição do Sol

Os cientistas chamam essa camada secreta de "a região de transição." Neste ponto da atmosfera do Sol, a cerca de 500 quilômetros acima de sua superfície, os campos magnéticos superam a pressão da matéria e passam a controlar os gases que emanam da estrela.

É nesta região de transição que as labaredas solares explodem, onde os jatos de massa coronal começam sua jornada rumo à Terra e onde o vento solar é misteriosamente acelerado a milhões de km/h.

É, em resumo, o local de nascimento do clima espacial. E os pesquisadores acreditam que é hora de desvendar seus segredos.

Telescópio experimental

"No início do próximo ano, nós iremos lançar um telescópio experimental que pode medir os campos magnéticos na região de transição," explica Jonathan Cirtain, do Centro de Vôos Espaciais Marshall (MFSC, na sigla em inglês). Pesquisas anteriores mediram esses campos acima e abaixo da região de transição - mas nunca dentro dela. "Nós esperamos ser os primeiros," diz ele.

O nome do telescópio experimental é SUMI, uma abreviatura de Solar Ultraviolet Magnetograph Investigation. Ele foi desenvolvido por astrônomos e engenheiros do MSFC e seu lançamento está marcado para Abril de 2009, da localidade de White Sands, estado do Novo México.

Efeito Zeeman

O telescópio SUMI funciona com base do efeito Zeeman. O físico holandês Pieter Zeeman descobriu esse efeito no século XIX. Quando um tubo de vidro cheio de gás incandescente é mergulhado em um campo magnético, as linhas espectrais emitidas pelo gás são separadas em duas cores ligeiramente diferentes - quanto mais forte for o campo eletromagnético, maior será a separação. A mesma coisa acontece no Sol.

Medindo o hiato entre as cores, os astrônomos estimam a intensidade do campo magnético de um ponto no Sol. Além disso, medindo a polarização da linha de separação, os astrônomos podem descobrir a direção do campo magnético. Intensidade + direção = a qualquer coisa que você queira saber sobre um campo magnético!

8 minutos de pesquisas

Esse truque tem sido aplicado a milhares de pontos sobre a superfície solar, mas nunca à região de transição, situada a uma pequena distância da superfície.

E por que não?

"Simplesmente má sorte, realmente," diz Cirtain. "Os gases na região de transição não produzem linhas espectrais muito fortes que nós possamos ver em comprimentos de onda visíveis." Entretanto, eles produzem linhas no comprimento de onda ultravioleta, invisível da superfície da Terra.

O telescópio SUMI será lançado no nariz de um foguete Black Brant para um vôo suborbital que o levará a uma altitude de 300 km. "Nós estaremos acima de mais de 99,99% da atmosfera terrestre," diz Cirtain.

Depois de 68 segundos de vôo, as portas do compartimento de carga do foguete se abrirão, dando ao SUMI uma visão clara como cristal dos raios ultravioletas do Sol. "A partir desse momento, nós teremos apenas 8 minutos para trabalhar com ele. Nós iremos mirar uma região ativa e começar a coletar dados.".

Fonte: Tony Phillips e Dauna Coulter

Fios de sedas viram biossensores e otimizam células solares

Explorado há milhares de anos para a fabricação de tecidos, os fios de seda agora estão abrindo caminho para novas tecnologias ópticas, com aplicações que vão da detecção de bactérias até a fabricação de um novo tipo de célula solar.

Descoberta por acaso

A descoberta de um uso tão promissor para um material tão antigo surgiu praticamente por acaso, quando Fiorenzo Omenetto, um especialista em raios laser de femtosegundos encontrou-se com David Kaplan, um cientista muito conhecido por suas experiências com robôs biomiméticos (veja Robôs químicos assumirão qualquer forma e serão biodegradáveis).

Kaplan perguntou a Omenetto se ele achava que um laser pulsado seria capaz de fazer cortes precisos em minúsculos pedaços de material feito com fios de seda. Kaplan está estudando esse material para utilizá-lo em córneas artificiais.

Quando os dois foram para o laboratório tentar encontrar uma resposta para a questão, Omenetto logo percebeu que o material à base de seda, trabalhado com precisão com o laser pulsado, teria aplicações claras no campo da óptica.

Aplicações ópticas da seda

As oportunidades se abriram porque o material à base de seda mostrou-se capaz de sustentar padrões de furos com dimensões entre 400 e 700 nanômetros - justamente a faixa de comprimentos de onda da luz visível. Logo, o material é um meio ideal para a manipulação da luz.

Agora Kaplan e Omenetto estão levantando todas as possibilidades de uso da óptica à base de seda - possibilidades que vão da detecção de bactérias danosas à saúde até a fabricação de aparatos para aumentar a eficiência das células solares.

Natural e verde

Como a seda é totalmente natural e processada com água em temperatura ambiente, os produtos em potencial poderão ser "verdes" e limpos em relação ao meio ambiente, podendo ser implantados no corpo humano e até serem comidos.

O novo material óptico à base de seda é produzido aquecendo-se o fio de seda para purificar a proteína de que ele é formado, e derramando o material liquefeito em um molde. "Nós esperamos que ele se cristalize e seque, o retiramos do molde e então utilizamos," diz Omenetto.

Cor estrutural

E qual o interesse de um material cheio de furos para a óptica? Para entender isso, basta se lembrar da iridescência das asas de uma borboleta, por exemplo. Elas não possuem pigmentos químicos de diversas cores - em vez disso, elas têm uma floresta de nano-árvores, que capturam a luz branca, filtram e selecionam uma determinada cor, que é refletida. É o que os cientistas chamam de cor estrutural.

Se você pingar um líquido sobre a asa da borboleta, ele irá se misturar com as nano-árvores e alterar a forma como as nanoestruturas refletem a luz - ou seja, fará mudar a cor da asa da borboleta.

Biossensores e células solares

O mesmo mecanismo poderá ser utilizado para a detecção de agentes patogênicos, como bactérias. Ao aderirem a um biossensor feito com o material à base de seda, as bactérias farão o material mudar de cor. E como o material é feito de seda, um sensor assim poderá ser colocado dentro da embalagem de alimentos, porque não fará mal nenhum se ele chegar a ser comido junto com o produto.

As células solares poderão ser beneficiadas pela manipulação dos diversos comprimentos de onda, que poderão ser dirigidos para os diversos materiais fotoelétricos.

Nas chamadas células solares multijunção, vários tipos de semicondutores são conjugados de forma a capturar vários comprimentos de onda da luz solar. Filtros nanométricos poderão dirigir essa luz, de forma a aumentar a eficiência de coleta de cada um desses materiais.

Fonte: Inovação Tecnológica

Browsers estão vulneráveis a ataques 'clickjacking', alerta pesquisador

Pesquisadores de segurança alertaram, na sexta-feira (26/09), para uma nova classe de vulnerabilidades apelidada de "clickjacking", que coloca usuários da maioria dos browsers sob risco de ataque.

Clickjacking é uma espécie de "seqüestro" do clique do usuário que, percebendo ou não, clica em um link - que pode estar invisível - inserido em um site por meio de uma falha considerada 'zero day', presente no Internet Explorer, Firefox, Safari, Opera, Google Chrome e outros. O bug afeta também o Flash, da Adobe.

Os pesquisadores que apresentaram suas descobertas mantiveram suas informações confidenciais - de propósito - pelo menos até que um fabricante comece a trabalhar na correção.

Embora o ataque esteja associado a navegadores, o problema é mais profundo, segundo Robert Hansen, fundador e CEO da SecTheory LLC e um dos dois pesquisadores que discutiram o bug durante a AppSec 2008, realizada na quarta-feira (24/09).

Há boatos, inclusive, de que a falha esteja associada ao Flash, o "onipresente" player multimídia da Adobe que a maioria dos usuários executa como plug-in em seus navegadores. Não é preciso comprometer um site legítimo para conduzir este ataque.

Hansen considera o clickjacking similar aos pedidos falsos de sites, um tipo conhecido de vulnerabilidade que surge por um ataque de cross-site request forgery (CRSF), quando comandos não-autorizados são transmitidos por um usuário que o site confia. O clickjacking, contudo, é diferente o bastante para que os anti-CRSF dos navegadores, sites e aplicativos online se tornem inúteis.

"Quase todos são afetados pela ameaça", disse Hansen. "O problema é que muitas pessoas que levam muito tempo para se defender contra os pedidos falsos dos sites, e não vêem o ataque acontecendo. Ele tem um alcance muito mais amplo, fazendo usuários clicar em um botão de forma que não conseguiriam pelo JavaScript".

O parceiro de Hansen na pesquisa, Jeremiah Grossman, chefe de tecnologia do WhiteHat Security Inc., explicou como crackers podem explorar as vulnerabilidades do clickjacking.

"Pense em qualquer botão de qualquer site, interno ou externo", disse Grossman. "Ligações em transferências bancárias, botões do Digg, banners publicitários, etc. A lista é interminável e estes exemplos são relativamente inofensivos. Em seguida, considere que um ataque pode pairar invisivelmente sob estes botões abaixo do mouse. Quando o usuário clica em algo que está vendo, na verdade, está clicando em algo que o cracker quer que ele clique".

Hansen acrescenta que "se você tiver um roteador sem fio em casa autenticado antes de visitar um site legítimo, o cracker poderia colocar uma etiqueta sob seu mouse que forje um único botão, podendo deletar todas as regras do seu firewall. Isso facilita o ataque".

Há duas possíveis soluções para o problema de clickjacking, mas apenas uma faz sentido. "As únicas pessoas que poderiam corrigir esse problema são os desenvolvedores de browsers", disse Hansen.

Ele e Grossman entraram em contato com a Microsoft, Mozilla e Apple, fabricantes do IE, Firefox e Safari, respectivamente. Juntas, essas companhias somam mais de 98% de participação no mercado de navegadores, segundo a Net Applications.

Fonte: IDG Now!

Gartner: riscos de segurança aumentam com sofisticação dos smartphones

Quanto mais popular aparelhos móveis se tornam em companhias, suas conveniências são equilibradas pelos potenciais problemas de segurança, segundo o vice-presidente do Gartnet, John Girard.

As novas tendências na indústria wireless estão facilitando ataques móveis, diz Girard.

Há alguns anos, não havia muita padronização entre aparelhos móveis. Diferentes sistemas operacionais, implementações de Java e até configurações dificultavam a criação de malwares que atingiam muitos gadgets.

Este cenário vem mudando com o controle de qualidade melhorado em plataformas móveis como Windows Mobile, da Microsoft e o sistema Symbian, afirma ele. Esta padronização facilita o trabalho de crackers em atingir muitos aparelhos.

"Quanto mais parecido com um PC seu telefone fica, mais ele pode ser infectado por um malware", afirma Girard.

Muitos dos ataques tradicionais em desktops, como phishings, aumentarão na plataforma móvel, segundo Girard. Usuário também serão mais tolerantes a falhas em seus aparelhos, algo que poderá fazer com que infecções sejam ignoradas.

Este é o problema quando empresas começam a instalar aplicações corporativas em telefones e a carregar dados potencialmente valiosos para crackers, analisa.

O Gartner prevê que o roubo de dados e tentativas de phishing móveis se tornará mais popular durante o próximo ano, diz.

Antes de comprar aparelhos móveis, as empresas precisam se certificar que eles obedecem uma especificação de segurança mínima. A segurança pode ser formulada levando em consideração com que tipo de dados o aparelho vai lidar.

Entre algumas das políticas de segurança que poderiam ser adotadas pelas empresas, Girard cita encriptação de dados, controles de identidade e sistemas de prevenção a invasões.

Fonte: IDG Now!

MIT cria robô submarino que consegue parar debaixo d’água

O laboratório Sea Grant College Program's Autonomous Underwater Vehicles Laboratory, do Massachusetts Institute of Technology (MIT), criou um robô submarino que consegue pairar sobre o mesmo lugar.

Batizada de Odyssey IV, a máquina supera a limitação de outros robôs, que só conseguem operar enquanto se mantém em movimento constante. As séries anteriores do Odyssey também tinham este limite.

O Odyssey IV consegue submergir até 6 mil metros e parar em qualquer lugar, uma vez debaixo d’água.

Segundo o MIT, o robô facilitará em muito as pesquisas submarinas, já que é possível parar e realizar uma tarefa em determinado local de interesse, ao invés de ter que tirar uma foto, manobrar o robô de volta e tirar mais uma foto, ainda sem obter detalhes da área.

Outra vantagem do Odyssey IV é poder carregar objetos - podendo, assim, trazer ‘amostras’ de materiais submersos. Além disso, graças às potentes barbatanas laterais, o robô se locomove dois metros por segundo.

A idéia do MIT é incluir ainda um braço mecânico para que o robô consiga manipular áreas e objetos submarinos.

Fonte: IDG Now!

Google registra patente para mudança automática de operadora em celulares

O Google traçou um plano para permitir que usuários troquem de operadora diversas vezes ao dia sem as taxas referentes em uma patente oficializada em março de 2007 mas publicada pelo Departamento de Marcas e Patentes dos Estados Unidos apenas nesta semana.

O sistema exigiria que usuários finais tivessem aparelhos que usam diferentes tipos de redes, incluindo Wi-Fi e várias tecnologias incompatíveis de telefonia celular assim como redes de múltiplas operadoras.

Em um cenário descrito pela aplicação, um usuário com o aparelho pode encontrar a opção mais barata para conetividade em todas as situações. Em casa, o aparelho se conectaria a uma rede Wi-Fi. Enquanto, fora de casa, o usuário poderia escolher sua rede celular por meio de leilões instantâneos. O aparelho mudaria automaticamente para a rede com os melhores preços sem interromper a chamada ou a conexão de dados.

No aparelho, um programa entraria em contato com cada rede disponível individualmente ou poderia se comunicar com um servidor central que lida com asnegociações com cada provedor.

O usuário poderia definir parâmetros não apenas baseados em preços. "Além de preço, a seleção de dos provedores de telecomunicações podem ser escolhidos baseados na banda máxima oferecida, melhor cobertura ou combinações de opções", diz o patente.

Porções da proposta do Google já estão disponíveis em provedores no mercado, mas o gigante de busca tem dificuldade de implementar uma visão mais ampla da tecnologia pela dificuldade imposta pelas operadoras para entrar no programa.

A T-Mobile atualmente oferece um telefone que automaticamente alterna entre a rede pública e o Wi-Fi doméstico quando o usuário está em casa.

O Google, porém, alega que este tipo de oferta tem limitações. "Geralmente, no entanto, tal sistema é limitado aos serviços oferecidos e pela maneira que a operadora o faz", diz o documento.

Caso o Google tente implementar o sistema, as operadoras não deverão demonstrar muito interesse em se juntar. Empresas do setor tipicamente tentam prender o consumidor em suas redes para receber um faturamento regular a partir de seus aparelhos. O plano do Google tornaria mais fácil a transferência de chamadas e os ganhos de outras operadoras que ofereçam os melhores preços.

Fonte: IDG Now!

Cavalo-de-tróia interfere em formulários de sites legítimos de bancos

Um novo cavalo-de-tróia é capaz de incluir questões em meio a formulários em sites legítimos de bancos online e levar os clientes a oferecerem informações sensíveis.

Apelidado de Limbo, o malware se integra em um navegador por meio de uma injeção HTML, segundo o responsável por novas tecnologias na RSA Consumer Solutions, Uri Rivner.

Uma vez que está integrado ao próprio navegador, o cavalo-de-tróia consegue atuar enquanto o usuário está no site real do banco, e inclusive tem o poder de mudar seu layout.

“Nada mostra que há algo errado, com uma exceção: você recebe pedidos para fornecer informações que nunca haviam te pedido antes”, diz Rivner.

O Limbo chega aos PCs dos usuários por muitos meios, incluindo pop-ups que pedem que você baixe um add-on, além de técnicas invisíveis para os usuários.

O cavalo-de-tróia está disponível no mercado ilegal de malwares, por cerca de 350 dólares - há um ano, ele custava 1 mil dólares e, há cinco anos, 5 mil dólares. “A tendência é que ele se torne acessível”, pondera Rivner.

Graças a falha em browsers, pesquisadores afirmaram na semana passada que todos os browsers estão vulneráveis a ataques de 'clickjacking', que sequestram o clique dos usuários.

Fonte: IDG Now!

domingo, 28 de setembro de 2008

Guia de Carreiras: Gastronomia

Se você pensa que vai fugir dos livros e dos estudos na graduação de gastronomia, pode esquecer. O curso exige criatividade, inovação e muitas horas de vastas pesquisas pelo sabor inesquecível ou por uma apresentação de mestre.

“Para ter um diferencial, o chef precisa saber a história da gastronomia. Até para poder reinterpretar os pratos”, afirma a coordenadora da faculdade no Centro Universitário Senac de São Paulo, Ingrid Schmidt-Hebbel. “Criatividade também é muito importante.”

“Alta gastronomia é ter um bom material, qualidade da mão-de-obra, cuidados com a parte higiênica. É possível fazer de uma mandioca uma coisa fantástica. Um cachorro-quente pode virar alta gastronomia. O interessante é olhar os alimentos de forma diferente”, diz a vice-presidente da Associação Brasileira da Alta Gastronomia (Abaga), Sônia Regina Jendiroba.

Mas tudo isso é o lado romântico da profissão, porque é preciso muito amor à cozinha e resistência para ficar boa parte do tempo do trabalho de pé, sob o calor dos fogões que contrasta com o frio dos frigoríficos.

“Quem quer cursar deve saber que a gastronomia é uma profissão puxada. Não é uma das profissões mais tranqüilas. Exister um estresse constante, porque o cliente está esperando o prato que pediu. Fora que o ambiente da cozinha também é barulhento”, avisa Ingrid.

Outro aspecto da carreira é que o chef pode dar adeus aos finais de semana de descanso: “Na época em que todos estão descansando, o chef vai estar no trabalho. Não existe Natal nem Ano Novo; essas são as épocas em que o profissional vai trabalhar mais”, diz a professora.


O curso

Os cursos de gastronomia, em geral, são tecnológicos, ou seja, têm uma duração mais curta com foco principal no conhecimento técnico. No país, existem 73 opções de cursos, de acordo com dados do Ministério da Educação (MEC). Destes, apenas cinco são bacharelados, com tempo de duração mais longo e maior aprofundamento.

Durante o ensino superior, quem se interessa por gastronomia vai aprender a escolher um alimento, a higienizá-lo, a prepará-lo de diversas maneiras, a criar apresentações chamativas e apetitosas. Além da ênfase na cozinha, o estudante também sai preparado para lidar com questões que fazem parte do dia-a-dia de um restaurante, como sua gestão, a seleção de pessoal, a criação de cardápios de comidas e de vinhos.

Bom relacionamento

Mas conhecer a matéria-prima e saber transformá-la em um prazer gastronômico é só parte do trabalho. O verdadeiro chef precisa ser um grande relações públicas também. Imagine só se no meio da execução de um pedido dois cozinheiros começam a brigar. É claro que quem vai fica insatisfeito é o cliente. Por isso, o chef responsável tem de saber escolher bem uma equipe e lidar com os problemas que, certamente, vão surgir.

“O chef, para chegar a esse status, tem de entender de relações humanas. Precisa saber de finanças, pois tem de trabalhar com custos e conhecer bem o perfil do cliente que quer aitingir”, afirma Sônia. “Ele tem de saber como vai formatar o cardápio, seja em um bufê, seja numa casa de eventos, num restaurante por quilo ou em um de primeiríssima linha. É um profissional que tem de ter múltiplas habilidades”.

Como o profissional ganha tantas aptidões, ele vem conquistando espaço em locais de trabalho diferentes da cozinha de restaurantes. Já são muitos os que abrem consultorias para eventos ou vão para empresas alimentícias fornecedoras.

Fonte: G1

GUIA DE CARREIRAS: Engenharia de Alimentos

Você vai ao supermercado e compra um congelado. Chega em casa e: surpresa! O alimento não está lá essas coisas. Pode ter havido descongelamento na hora de transportar a carga, problemas de armazenagem ou outras inúmeras hipóteses de falhas. O fato é que, em cada etapa, desde a produção até o consumo, há engenheiros de alimentos envolvidos. E são eles, junto de profissionais da química, biologia, nutrição, que podem melhorar a qualidade do produto industrializado que chega à sua mesa.

“Os produtos brasileiros têm muito a serem aperfeiçoados. Muitos ainda têm aquele gosto de produto congelado ou problemas na textura, que ocorrem por causa do tipo de congelamento”, diz Adilma Regina Pippa Scamparini, que coordena a câmara da modalidade de engenharia química do Conselho Regional de Engenharia, Arquitetura e Agronomia (Crea) de São Paulo.

A pesquisadora, sempre que visita outras cidades, até mesmo no exterior, procura conhecer os mercados, já que considera que “a alimentação é o retrato de um povo”. “Também compro todos os lançamentos de produtos para conhecer”, diz.

“Essa é uma profissão extremamente valorizada. É muito bacana o que se pode fazer. O profissional pode trabalhar em diversas áreas e a carreira é muito dinâmica”, afirma o presidente da Associação Brasileira dos Engenheiros de Alimentos (Abea), Rogério Andrada.

Perfil profissional

Como os campos de trabalho são variados, estudantes com diferentes características pessoais conseguem se encaixar no mercado da profissão. “Quem é introvertido, vai se dar bem em controle de qualidade; mas não em vendas, por exemplo. Quem trabalha com desenvolvimento, é porque tem maiores conhecimentos sobre o produto. Em vendas, é preciso ter bom relacionamento. Quem faz projeto das indústrias, precisa ser bom de engenharia”, afirma Andrada.

Para trabalhar, o pré-requisito é ser filiado ao Crea. De acordo com o conselho, o piso salarial recomendado é o de seis salários mínimos, que equivalem atualmente a R$ 2.280.

Áreas promissoras

De acordo com Adilma, uma das áreas aquecidas é a de marketing, que compreende, por exemplo, a avaliação das impressões dos consumidores sobre os produtos. “Também há muito espaço para desenvolvimento de novos produtos. O que é importado da Europa precisa ser adaptado para a realidade brasileira”, afirma.

Apostas para o futuro são a pesquisa de novos produtos a partir da biotecnologia. O nome parece estranho, mas a atividade está se tornando bem conhecida: xampus com aroma de chocolate são um exemplo.

Outra área que despontou com a globalização foi a de logística. “As panificadoras pequenas, estão desaparecendo. É o supermercado que passou a concentrar a indústria de pães”, exemplifica Adilma. Segundo ela, outros tipos de profissionais necessários são os que trabalham com a higiene da linha de produção, com o cuidado dos resíduos e com a procura de novas embalagens menos agressivas ao meio ambiente.

No país, os mercados têm suas diferenças regionais. No Nordeste, por exemplo, a produção de carnes tem destaque; no Sul, frango e cereais, por exemplo. Mas, de acordo com a conselheira, o que as empresas procuram é apenas uma coisa: técnicos bem formados.

Engenharia de alimentos tem espaço garantido

Sempre vai haver espaço de atuação para um engenheiro de alimentos. E isso se deve a uma razão bem simples: a humanidade precisa comer. As necessidades da população sofrem alterações e, na mudança dos produtos, há um engenheiro de alimentos trabalhando para produzir em larga escala

Segundo o coordenador do curso de engenharia de alimentos da Universidade Estadual de Campinas (Unicamp), Marcelo Alexandre Prado, nos últimos 20 anos, o número de faculdades subiu de sete para mais de 50.

“No passado, só o pai trabalhava nas famílias, e a mãe e a avó tinham tempo de preparar a comida. Hoje, não existe mais isso. É preciso buscar alimentos de fácil preparo e aí entra a engenharia de alimentos. A vida mais agitada acabou impulsionando o mercado”, diz o professor.

Para poder formular os produtos e criar novos processos produtivos, o curso de engenharia de alimentos tem dois anos com disciplinas básicas de matemática, física, química e biologia. Só depois é que começam as matérias chamadas de profissionalizantes, como química de alimentos ou análise sensorial, que é o estudo das características do produto e as reações que provocam no consumidor.

“É preciso ter facilidade para química e biologia, porque o profissional vai trabalhar com toda a parte de transformação dos alimentos”, afirma Prado. Devido à complexidade, a graduação, em geral, não pode ser concluída em menos do que cinco anos. Além disso, é necessário fazer estágios para conseguir o diploma.


Na hora de escolher a faculdade, o estudante deve observar se a instituição tem bons laboratórios e um currículo prático, além do corpo docente qualificado. Na Universidade Federal de Viçosa (UFV), que conseguiu uma das melhores notas no Exame Nacional de Desempenho (Enade) de 2005, há uma indústria de beneficiamento do leite da região.

“A universidade até tem uma marca: os laticínios Viçosa. E essa usina-piloto, serve de laboratório para aulas práticas”, afirma o coordenador do curso da UFV, Paulo Henrique Alves da Silva.

Nutrição ou engenharia de alimentos?

De acordo com os especialistas, quem tem afinidade com a alimentação pode ficar em dúvida entre optar por nutrição ou engenharia de alimentos na hora do vestibular. Mas as carreiras são bem diferentes. O engenheiro até pode cursar algumas disciplinas de nutrição na faculdade, porém sua formação leva em conta tecnologias, máquinas, logística. Já a nutrição está mais preocupada com as reações do alimento com o organismo.

O curso de engenharia química tem alguma afinidade com o de alimentos. Só que, na primeira engenharia, o estudante recebe mais conceitos técnicos sobre áreas de materiais como petróleo ou tecidos. E na área de alimentos há um enfoque para os processos biológicos.

Fonte: G1

GUIA DE CARREIRAS: Engenharia Florestal

Um profissional responsável pela conservação, preservação e proteção das áreas florestais do país. É desta maneira que o professor Fábio Poggiani, diretor do curso de engenharia florestal da Escola Superior de Agricultura Luiz de Queiroz da Universidade de São Paulo (Esalq/USP), define a função do engenheiro florestal.

"É o engenheiro florestal que vai atuar diretamente na produção de madeira e outros bens das florestas para gerar produtos para a sociedade de uma maneira geral. Ele vai trabalhar para suprir a demanda de madeira no mercado, por exemplo, sem afetar as florestas, pois ele também vai atuar na sua preservação e recuperação", explicou Poggiani.

Segundo o professor Elias Taylor Severo, coordenador do curso de engenharia florestal da Universidade Estadual Paulista (Unesp), as áreas de atuação são muito extensas, mas podem ser divididas da seguinte maneira:

Área de produção

Produção de mudas, O engenheiro trabalha da forma mais antiga (que é o plantio com sementes) até com técnicas de clonagem para melhorar as plantas. Quando as mudas estão prontas, elas vão para o campo.

Manejo, a partir daí começa uma nova fase da engenharia, que é o manejo florestal. É fazer com que aquela muda cresça e se desenvolva com as características que o engenheiro planejou.

Avaliação da área, depois da floresta feita, um engenheiro avalia a área para saber quanto aquela madeira vai render. É o chamado inventário florestal.

Corte, colheita e transporte, depois que a árvore atinge a maturidade em florestas produtivas e não-nativas, entra em ação o pessoal do corte/colheita e transporte. Os equipamentos são automatizados e a madeira é encaminhada para a indústria.

Área de conservação

Além da produção de madeira, o engenheiro florestal também trabalha com recuperação de áreas degradadas e conservação ambiental. É esse profissional que recupera a mata à beira de um rio, florestas originais, cria parques e manter o meio ambiente em equilíbrio. O processo de trabalho é o mesmo (mudas, manejo), mas o objetivo é outro.

"O engenheiro florestal é o profissional capacitado para identificar qual a melhor espécie de árvore que deve ser plantada em determinado local", afirmou Severo.

Segundo Poggiani, o Brasil precisa reflorestar suas áreas continuamente. "Já chegamos a importar celulose porque o país não tinha capacidade de produzir o próprio papel. Temos que replantar continuamente porque se dependêssemos das árvores nativas, não teríamos um palito em pé", afirmou o professor.

Engenharia florestal x engenharia ambiental

As pessoas tendem a confundir as profissões de engenheiro ambiental e florestal. As duas carreiras, no entanto, são completamente diferentes.

"O engenheiro ambiental atua principalmente na área de saneamento, água, esgoto, resíduos. Ele trabalha com atividades que afetam diretamente o meio ambiente. O engenheiro florestal tem atuação direta no cuidado, manutenção, preservação e recuperação das florestas. São coisas totalmente diferentes", disse Poggiani.

Exatas x biológicas

O curso de engenharia florestal mescla matérias de exatas com disciplinas de biológicas, embora seja mais voltado para a biologia. "O aluno tem que saber matemática, física, estatística, porque ele vai usar essas técnicas para os cálculos que terá de desenvolver", disse o professor Severo, da Unesp.

Poggiani reforça a afirmação: "É engenharia porque o profissional atua em projetos para produção de mudas, plantio, manejo, etc. E também é da área biológica porque tem todo um trabalho voltado para a biologia, botânica, fisiologia das plantas, recuperação de florestas, etc".

Disciplinas

Algumas das disciplinas básicas do curso de engenharia florestal são: ecologia geral, desenho técnico, matemática, biologia celular, morfologia, zoologia, química geral, informática, sociologia, estatística, física, genética, química analítica.

Já as profissionalizantes incluem topografia, fotointerpretação, propriedades da madeira, materiais de construção e sistemas, inventário florestal, manejo de áreas silvestres, parasitologia florestal, planejamento ambiental, política e legislação florestal, industrialização de produtos florestais e utilização da madeira.

Fonte: G1

GUIA DE CARREIRAS: Engenharia Elétrica

Imaginar o mundo sem energia elétrica hoje em dia é uma tarefa árdua. Atividades simples, como pegar a água na geladeira, ler um livro à noite antes de dormir ou aquecer um copo de leite no microondas seriam impossíveis sem a figura do engenheiro eletricista. A carreira, com inúmeras áreas de atuação.

“A particularidade da engenharia elétrica, diante das outras engenharias, é o estudo do eletromagnestismo”, explica o coordenador do curso na Universidade Federal de Minas Gerais (UFMG), Alessandro Fernandes Moreira.

Por isso, se você já não tem afinidade com matemática e física, é arriscado prestar vestibular para esse curso. “Elétrica é das engenharias a que mais trabalha o lado do cálculo”, alerta o professor. Fora isso, o curso lida bastante com elementos de computação.

A formação densa em exatas é aplicada, no mercado profissional, em todas as áreas que envolvem energia. Desde a geração e transporte, até o uso nas casas, nas indústrias, nas telecomunicações, em equipamentos médicos, redes de computadores. O metrô, por exemplo, emprega muitos engenheiros eletricistas – esse profissional praticamente se espalha por todas as áreas de trabalho.

E sim, o nome do profissional que vem escrito no diploma é engenheiro eletricista – não engenheiro elétrico, como o senso comum pode sugerir. Para obter o título, o estudante deve passar cinco anos, no mínimo, na faculdade, cursando disciplinas como algorítmos e estrutura de dados, física experimental, geometria analítica e álgebra linear, ondulatória, eletrônica, análise de circuitos elétricos, entre outras.

De acordo com dados do Ministério da Educação (MEC) de 2006, existem 132 cursos oferecidos no país. Muitas faculdades oferecem algumas ênfases ou especialidades, como telecomunicações, sistemas e energia elétrica, sistemas eletrônicos ou computação.

Teoria ou prática?

“O curso tem essencialmente aulas teóricas, que são 70% da grade, e 30% de prática”, afirma o professor Paul Jean Etienne Jeszensky, coordenador do curso de telecomunicações da Escola Politécnica da Universidade de São Paulo (USP) e vice-presidente da comissão de graduação da escola.

De acordo com Moreira, da UFMG, as universidades possuem laboratórios de circuitos elétricos e eletrônicos, de controle de processos, de conversão de energia. “Avaliar a estrutura da universidade é necessário na hora de escolher onde de estudar”, diz. “E a qualidade do corpo docente é muito importante. Há 20 anos era difícil ter um grupo de professores qualificado, com mestrado e doutorado. Hoje isso é fundamental”, afirma.

Um dos aspectos práticos do curso é a obrigatoriedade de estágio e de um trabalho de conclusão de curso. Muitas universidades inclusive diminuem a carga horária nos últimos semestres, para que o aluno possa se iniciar no mercado de trabalho.

Fonte: G1

GUIA DE CARREIRAS: Engenharia Aeronáutica

Projetar uma aeronave, construí-la e cuidar de sua manutenção periódica são as três principais funções de um engenheiro aeronáutico. Com escassez de profissionais no mercado de trabalho – porque apenas duas universidades públicas brasileiras oferecem o curso – a carreira de engenharia aeronáutica está em expansão e os profissionais são cada vez mais disputados. Há outros cursos oferecidos por instituições particulares, mas, de acordo com os professores ouvidos pela reportagem, essas outras graduações são menos valorizadas.

Segundo o professor de aerodinâmcia do Instituto Tecnológico de Aeronáutica (ITA), Roberto da Mota Girardi, o engenheiro aeronáutico é um profisisonal multidisciplinar que precisa conhecer um pouco de cada parte que irá compor uma aeronave: eletrônica, mecânica e hidráulica. Veja o infográfico que explica as áreas de atuação, a formação necessária e o mercado de trabalho.

“A construção de um avião engloba todas as áreas da engenharia. É claro que o engenheiro aeronáutico não precisa saber os detalhes de tudo, mas ele tem que ter uma noção geral para poder pensar como será a aeronave que ele quer construir e distribuir as demais tarefas para os outros especialistas”, disse o professor.

Girardi explicou que o profissional desta área da engenharia é o responsável pela integração de todas as partes de uma aeronave e cabe a ele zelar pelo perfeito funcionamento do produto final. “Tudo funciona como um imenso quebra-cabeça e o engenheiro precisa trabalhar de forma que o conjunto fique harmonioso”, disse.

Fernando Catalano, professor e coordenador do curso de engenharia aeronáutica da Universidade de São Paulo (USP) em São Carlos ressaltou que todos os laudos de manutenção de “qualquer coisa que voe” precisam necessariamente ser assinados pelo engenheiro aeronáutico. “A responsabilidade da manutenção é exclusiva dos engenheiros aeronáuticos. É uma função de risco porque é ele quem dará a autorização para o avião voar”, disse Catalano.

Como um médico

Para o professor da USP, a responsabilidade do engenheiro aeronáutico na área de manutenção é tão grande que pode ser comparada com a responsabilidade de um médico. “O profissional não tem hora e nem dia para trabalhar. Se der uma pane em um avião, esteja ele [o avião] onde estiver, o engenheiro terá de ser acionado. É uma atividade de risco e que não tem hora para acontecer. O engenheiro indiretamente está lidando com vidas de pessoas”, disse.

Em casos de queda de avião, por exemplo, cabe aos engenheiros aeronáuticos investigar os motivos do acidente. “Não é apenas pegar as caixas-pretas e analisar o que ficou gravado. O engenheiro é o responsável pela aeronave e ele precisa saber o que realmente aconteceu. Os destroços do avião, por exemplo, precisam ser analisados detalhadamente”, afirmou Catalano.

Os testes

Segundo os professores, depois que o engenheiro termina de projetar uma aeronave, ele constrói uma maquete idêntica para que todos os equipamentos sejam rigorosamente testados. A maquete é colocada dentro de um túnel de vento (que funciona como um simulador) e vai medir todas as forças em escala.

Em seguida, a aeronave em tamanho real é testada na pista e depois no ar. “Só depois de tudo testado e conferido é que você vai dar o aval para uma aeronave voar”, disse Girardi. Para o professor, a escolha da carreira deve ser muito bem pensada. “É um trabalho muito difícil, mas não necessariamente estressante. Mas se um carro der defeito, por exemplo, você estaciona e chama um mecânico. Com uma aeronave é diferente. Se houver alguma falha, ela cai.”


Fonte: G1

Debate entre candidatos de São Paulo hoje na Rede Record

A Record promove hoje domingo (28), às 20h30, o debate eleitoral entre os candidatos à Prefeitura de São Paulo.

Com transmissão ao vivo pela rede, via Record News e Rádio Record, o encontro - realizado no Teatro Record - será mediado pelo apresentador Celso Freitas, informou o jornal O Estado de S. Paulo.

Com duas horas de duração e 350 convidados, nos dois primeiros blocos as jornalistas Adriana Araújo e Christina Lemos farão perguntas aos candidatos. Nos dois blocos seguintes, os candidatos farão perguntas uns aos outros, e no último e quinto bloco, haverá espaço para as considerações finais.

Fonte: Agência Estado

Bandinha do Jornal CBN

Sexta-feira, 26/09/2008
Download do comentário

sábado, 27 de setembro de 2008

Conheça 8 soluções para defeitos e inconvenientes do Windows Vista

Os desenvolvedores da Microsoft tiveram boas idéias quando projetaram o Vista, mas implementações mal feitas transformaram esses grandes conceitos em recursos ruins.

Para ser justo, o Vista herdou a maioria dessas boas intenções de versões anteriores do Windows – mas ou falhou em aperfeiçoá-los ou sequer tentou.

A seguir, listamos oito formas de resolver alguns dos problemas mais irritantes do Vista. Comecemos com uma, absolutamente exclusiva da versão mais recente do sistema operacional da Microsoft, e que é quase que universalmente odiada.

Controle de Conta do Usuário
As pessoas fazem certas coisas no Windows - como instalar aplicativos destrutivos e editar o Registro do sistema operacional – que com certeza merecem o aviso “Você tem certeza de que quer realizar essa ação?”. Tais situações podem até exigir que você seja um administrador antes de poder continuar.

Mas o Controle de Conta do Usuário (CCU, ou UAC, pela sigla em inglês) do Vista, não consegue dar resposta suficiente aos usuários; freqüentemente, ele não oferece maneiras de saber o porquê de algum ato ser considerado perigoso.

E, pior, os desenvolvedores do Vista obrigam que as pessoas cliquem numa caixa de diálogo do CCU até para ajustar o relógio e fazer um backup.

Eis três formas imperfeitas de acabar com as perturbações do CCU. O inconveniente comum a todas elas é que sempre que você dá boot no PC, o Vista avisa que o CCU está desligado. Você pode ignorar os avisos, da mesma forma que ignorava o CCU propriamente dito.

ccu_350

Você pode desligar por completo o CCU no painel de controle

Apenas desligue: Essa solução simples funciona bem numa conta de administrador, mas faz com que contas padrão fiquem quase inutilizáveis. Selecione Iniciar, Painel de Controle, Contas de usuários e clique em Ativar ou Desativar o Controle de Conta de Usuário. Na próxima tela, desmarque Utilizar o Controle de Conta do Usuário para ajudar a proteger o computador. Clique OK e reinicie.

tweak_uac_350

TweakUAC: permite desativar a inconveniência na sua
própria conta e deixá-la intocada para as outras

Use o TweakUAC: Esse programa gratuito consegue desligar o CCU em contas de administrador e ao mesmo tempo deixá-lo ativado em todas as outras. Basta rodar o programa, selecionar Switch UAC to the quiet mode (Mudar CCU para o modo silencioso) e clicar OK.

Ajuste os detalhes de seu CCU: Isto só funciona nas versões Business ou Ultimate do Vista. Selecione Iniciar, digite secpol.msc e tecle Enter. Navegue no painel à esquerda até a pasta Configurações de segurança\Diretivas locais\Opções de segurança. No painel à direita, role a tela para baixo até ver nove opções de como o CCU deve se comportar. Se você não está certo do que essas configurações podem mudar, veja o guia do Walker News.

ccu2_350

Se você não se importa em fazer as coisas na mão, pode
ajustar as configurações usando o Security Policies

Firewall de mão única
Os firewalls inclusos no Windows sempre sofreram do mesmo problema: apesar de bloquearem material suspeito que entra, não fazem nada com aquilo que seu PC envia.

Uma vez que um PC infectado pode enviar spam em massa e encaminhar o número de seu cartão de crédito para alguém sem as melhores intenções, essa é uma melhoria importante.

O Vista tentou arrumar tal problema ao acrescentar um firewall capaz de monitorar e bloquear tráfico de saída. Mas - acredite - o recurso fica desligado por padrão. E os desenvolvedores do SO esqueceram de colocar esses controles em um local visível: a caixa de diálogo das configurações de firewall do Windows. Duas soluções:

Ligue a proteção de saída: Clique em Iniciar, digite firewall e selecione Firewall do Windows com segurança avançada. Clique em Propriedades do Firewall do Windows. As primeiros três abas das quatro que aparecem na caixa de diálogo contém um menu drop-down Conexões de saída. Em todas as três selecione Bloquear.

Obtenha um firewall melhor: mesmo com a proteção de mão dupla ativada, o firewall do Windows é um vigia frágil. Por outro lado, o gratuito Comodo Firewall Pro se saiu muito bem em testes independentes, mesmo se comparado a produtos comerciais de renome, como o Norton Internet Security.

comodo_400

Você sempre poderá substituir o firewall incluso no Windows
por um freebie de qualidade, como o Comodo


Desinstalador de programas e recursos
Instalar um programa do Windows geralmente significa permitir que a rotina de instalação do software finque suas garras profundamente no sistema operacional. E remover esses programas em geral implica rodar um desinstalador que elimina a funcionalidade do aplicativo, mas deixa pra trás as garras fincadas.

revo_400

Quando você remove um programa usando a ferramenta do
Windows, você deixa um caminhão de bugigangas no PC

O Vista renomeou o velho applet Adicionar e Remover Programas do Painel de controle como Programas e recursos, mas os desenvolvedores não mudaram nada nele. Tudo o que ele faz é abrir o desinstalador do aplicativo que se quer apagar.

Como melhor alternativa, baixe o Revo Uninstaller, gratuito. Assim como a função Programas e Recursos do Vista, o Revo oferece uma interface conveniente para abrir os desinstaladores próprios de cada programa. Mas, após isso, o Revo limpa a bagunça que ficou pra trás.

Lista de itens recentes
Outra execução desastrosa de uma boa idéia remonta ao Windows 95 – e ainda não foi consertada. Claro, é muito bom ter uma lista dos arquivos que você usou automaticamente atualizada e convenientemente localizada.

Mas os desenvolvedores do Windows não conseguiram perceber que existem alguns tipos de arquivo aos quais você retorna, e outros que não. É muito provável que se abra novamente um .doc, mas talvez não um .jpeg.

Talvez um fotógrafo tenha essa situação invertida. Mas simples parâmetros pré-definidos de usuários podem resolver ambos os problemas.

itens_recentes_350

ActualDoc: separe seus itens recentes por categorias

Já que a Microsoft não nos deu essa opção, use o ActualDoc, da Flexigensoft. Essa ferramenta poderosa fornece listas separadas para documentos, fotos e outros tipos de arquivos. O programa pode ainda proteger as listas com senha para preservar sua privacidade.

A versão Pro, que custa 20 euros, oferece categorias definidas por usuários e outras ferramentas.

Captura de telas
O Vista teve uma melhoria significativa em relação ao XP no que diz respeito a captura de telas. A ferramenta Snipping Tool pode capturar uma janela única, um retângulo ou um formato de livre escolha.

Mas mesmo assim não pode mostrar o que o ponteiro do mouse está fazendo, além de ficar devendo um cronômetro de disparo. Sem ele, fica muito difícil pegar uma imagem de um menu drop-down.

snapshot_400

WinSnap: melhora os recursos de Print Screen do Vista, por 25 dólares

Por 25 dólares, o WinSnap permite capturar o ponteiro do mouse, e você pode estabelecer um atraso (em milésimos, se você quiser ser preciso). Um recurso particularmente legal: ele pode capturar as múltiplas janelas de um aplicativo ao mesmo tempo em que ignora todo o resto que estiver na tela (apesar de que nem sempre isso funciona direito).

O programa tem ainda ferramentas para ajustar a cor e visual da tela capturada. E é portátil, ou seja, você não precisa instalá-lo.

Fonte: PcWorld

Conheça as vantagens e desvantagens de diferentes métodos anticoncepcionais

Apesar das diversas opções de contracepção existentes, a maioria das meninas que engravida durante a adolescência enfrenta o problema não por falha de algum método, mas simplesmente por não usar nenhuma proteção. O mercado brasileiro oferece diversas opções, tanto em termos de eficiência quanto de preço e facilidade de uso.

O principal método anticoncepcional é a camisinha, que só deve ser abandonada por casais saudáveis e estáveis que estejam, de fato, procurando uma gravidez. Para todos os outros, e especialmente entre os jovens, ela é essencial – mesmo se outro método já está sendo utilizado. O preservativo (masculino é feminino) é a única forma de ter relações protegidas de doenças sexualmente transmissíveis.

“O preservativo tem dupla função”, explica o médico Roger Abdelmassih, especialista em reprodução humana. “A primeira é o controle da natalidade, da possibilidade de gestação. E também a preservação desse casal de infecções, de contágios”.

A camisinha tem a vantagem também de ser barata, em comparação com os demais métodos, e fácil de achar. Também, ao contrário de todos os demais, ela não requer prescrição médica.

Conheça outras opções, suas vantagens e desvantagens, abaixo.



Fonte: G1

Evento gratuito apresentará idéias inovadoras para a web 2.0

Paralelamente ao Digital Age 2.0, o evento gratuito Show de Cases apresentará, no dia 1º de outubro, cases de sucesso da web 2.0, com a participação de empresas como F.Biz, Digital Pages, UOL, I-Cherry, Inspirit e Web Traffic.

Os participantes aprenderão sobre práticas de Search Engine Optimization (SEO) e criação de sites, além de outros temas relacionados a ‘inovações 2.0’.

Para participar do encontro, é preciso se pré-qualificar, enviando nome e cargo pelo e-mail rsvp@nowdigital.com.br. O Show de Cases possui 100 vagas abertas a participantes.

Fonte: IDG Now!

Museu do Futebol terá atrações tecnológicas

A paixão nacional do brasileiro vai ganhar um museu em São Paulo. O Museu do Futebol, localizado no Estádio do Pacaembu será inaugurado na segunda-feira (29/09) às 19h.

Com orçamento de 32,5 milhões de reais, o museu é uma iniciativa do Governo do Estado e da Prefeitura de São Paulo, com realização da Fundação Roberto Marinho. O conteúdo apresenta a história do futebol em formato multimídia, com mais de seis horas de imagens sendo reproduzidas aleatoriamente ao longo de todo o percurso e diversas atrações eletrônicas e interativas.

Confira algumas das atrações:

Ídolos flutuantes

Um ambiente com nove telas de vidro que projetam sucessivas fusões, em câmera lenta, dão a impressão de que os jogadores estão flutuando. Para criar esse efeito, o engenheiro Peter Lindquist importou da Suécia o software Watchout, fabricado pela empresa Dataton. Já as telas holográficas transparentes são de origem espanhola.

Jogo de Corpo

A sala Jogo de Corpo reúne atividades interativas, como um filme 3D do qual o jogador Ronaldinho Gaúcho é o protagonista. A sala tem também o chute a gol, no qual o visitante simula um pênalti. Entre a parede e a tela de projeção das imagens, que fica atrás da trave, há vários sensores acionados assim que a bola atinge a tela. O software determina a posição e a velocidade do chute. Depois, o visitante pode obter a imagem virtual de seu pênalti no site do Museu.

Dança do Futebol

A sala Dança do Futebol tem bolas gigantes dentro das quais o visitante ouve crônicas audiovisuais sobre o esporte. O espaço também reúne imagens de jogos brasileiros de todas as épocas, editados com recursos gráficos e uso de câmera lenta, e roteirizados de forma a reforçar a compreensão e a emoção dos expectadores.

Copas do Mundo

Mais de 80 minutos de imagens de todas as Copas do Mundo são apresentados em grandes estuturas com telas que, juntas, têm formato de taças. As telas também apresentam ilustrações, recortes de jornais e documentos.

Sala dos Heróis

Na Sala dos Heróis há grandes painéis fotográficos, compostos de eixos móveis que, ao girarem, formam três conjuntos diferentes de imagens. São fotografias ampliadas de personalidades que ajudaram a construir a identidade brasileira, no futebol ou não. A sala também possui um grande painel eletrônico no qual, de forma interativa, o visitante pode acessar as biografias e imagens das personalidades homenageadas.

O Museu do Futebol teve seus 6.900 metros quadrados concebidos com base em três elementos: arquitetura, conteúdo e museografia, no mesmo molde do Museu da Língua Portuguesa, também na capital paulista.

O designer Jair de Souza, que assina a direção de arte multimídia, observa que o Museu do Futebol não é um museu “cabeça”, pois tem muito futebol, gol, emoção, beleza, alegria e surpresa nas soluções espaciais, gráficas e visuais.

Fonte: IDG Now!