terça-feira, 10 de novembro de 2009

Biomas aquáticos

Características dos lagos, rios e mares.
Lagos, rios e mares constituem os biomas aquáticos. Esses biomas podem ser de água doce ou salgada. Além disso, as águas paradas, como dos lagos e lagoas, são conhecidas como águas lênticas. Já as correntes, como no caso dos rios, são denominadas águas lóticas. Vamos conhecer melhor esses biomas aquáticos.
Ambientes lênticosOs lagos são mais profundos e têm maior área que as lagoas. Vários fatores podem levar à formação dessas águas paradas. Uma lagoa pode se formar quando um canal se enche de água, ou em áreas de antigos cursos d'água, ou ainda, um canal de água pode sair à superfície em uma região de terreno que possua uma depressão. Uma geleira também pode derreter-se e criar uma depressão. Finalmente, o homem pode criar uma região com água parada.Normalmente os lagos e lagoas apresentam três regiões distintas:
uma região junto à margem, onde há grande incidência de luz e chegada de nutrientes da orla. Boa para alimentação e reprodução (zona litoral);
a região correspondente à parte central do lago, a "água aberta" onde chega a luz (zona limnética);
a zona profunda, que se localiza abaixo da zona limnética, onde a luz não chega.As drenagens das áreas circundantes da lagoa trazem matérias orgânicas e nutrientes dissolvidos, permitindo o desenvolvimento de vários grupos de indivíduos produtores como pequenas algas suspensas (fitoplâncton), plantas, algumas algas aderidas às plantas e, no fundo, algas conhecidas como bênticas.Os lagos e lagoas ainda são ocupados por vários tipos de consumidores como anfíbios adultos e suas larvas, crustáceos, larvas de peixes e insetos, pequenas criaturas herbívoras. Também são encontradas bactérias que não utilizam o oxigênio para realizar seu metabolismo (bactérias anaeróbicas), já que na zona profunda a luz é pouco disponível.Pássaros, cágados e grandes predadores vão e vêm dos lagos e lagoas. O nível da água cai e se eleva naturalmente dentro de alguns limites ajudando a manter a diversidade do ecossistema aquático e prevenindo da concentração excessiva de nutrientes.
Ambientes lóticosOs cursos d'água (rios e correntezas), desde a nascente até a foz, apresentam-se de formas muito diferentes. Na região inicial as águas são mais velozes e os leitos pouco profundos. No curso final as águas são mais lentas e os leitos menos profundos.Na parte inicial há grande concentração de algas responsáveis pela fotossíntese e que absorvem os nutrientes provenientes de resíduos como pedaços de madeira, folhas, restos de seres vivos, etc. vindos da terra. As algas são consumidas por microorganismos. Muitos insetos de água doce passam a maior parte de suas vidas como larvas, na água. Alguns peixes que vivem nos rios reproduzem-se no mar (salmonete e enguias). Outros peixes saem do mar para reproduzir-se nos rios (salmão). Existem muitos tipos de cursos de água:
cursos de pântanos, de águas negras, que drenam terras úmidas que recebem principalmente águas de chuva e que em geral têm águas brandas;
cursos montanhosos, com águas turbulentas as quais conseguem formar sedimentos finos. Quando as águas alcançam as terras baixas, sua velocidade diminui e os sedimentos se depositam, inundando regiões e possibilitando o crescimento de plantas de terras úmidas;
rios que drenam áreas de solo argiloso, que tendem a ser turvos e que contribuem com a fertilidade do solo local;
rios de mananciais, os quais recebem grandes quantidades de águas limpas que se infiltram na terra, podendo constituir cursos subterrâneos. Essas águas são claras e permitem a passagem de luz facilitando a realização da fotossíntese;
rios de maré, que correm para o mar e sofrem os efeitos das marés nas regiões mais baixas. Fluem lentamente quando a maré é alta e rapidamente quando a maré é baixa.
Ambientes marinhosPodem ser divididos em:
plataforma continental (recifes de coral e campos de águas marinhas);
costões rochosos;
zona oceânica.
Plataforma continentalA plataforma continental não é tão profunda quanto a zona oceânica. Desde a praia, o declive formado na plataforma continental é de até 200 m. Aqui aparecem muitos tipos de animais que vivem sobre e no fundo arenoso. Nessas regiões, milhares de plantas aquáticas microscópicas, o fitoplâncton, flutuam na água e realizam o processo fotossintético com grande intensidade.Aí aparecem significativas correntes que são, em parte, originadas pelos rios. Uma considerável quantidade de alimento está disponível nas plataformas continentais, permitindo que nela existam peixes, caranguejos, lagostas, mariscos e muitos outros seres vivos. É nessa região que, ao longo da costa (onde as temperaturas ficam acima de 20o C, as ondas e correntes são fortes), se desenvolvem os recifes de corais. Os recifes são formados por uma grande diversidade de plantas e animais que "constroem" uma formação calcária com seus esqueletos. Nos recifes, a fotossíntese é intensa. Há muita diversidade, ou seja, muitos tipos de indivíduos, porém pequenas populações de cada espécie.Vários mariscos, esponjas e algas podem ser encontrados aí. Muitos animais utilizam o coral como fonte de alimento, como o peixe papagaio. Outros pequenos peixes, os pepinos do mar, grandes carnívoros como as moréias, barracudas e pequenos tubarões vivem em suas margens.Também ao longo das costas, agora rochosas, onde as águas são frias e o as ondas são favoráveis, aparecem os campos de algas marinhas, onde a produção fotossintética também é grande. Nessas regiões aparecem muitos animais como peixes, lontras marinhas, moluscos (madrepérolas) e ouriços do mar.
Costões rochososOs costões rochosos localizam-se na zona entre-marés, onde o mar bate em superfícies duras, como rochas. Indivíduos que sobrevivem algum tempo fora da água e algum tempo dentro da água se fixam de alguma forma nessas formações. Esses seres vivos conseguem se utilizar de nutrientes arrastados pela maré. Alguns peixes predadores aparecem, quando a maré está alta.
Mar abertoConhecemos como zona oceânica, ou mar aberto, as massas de água salgadas que rodeiam os continentes a partir da região onde o fundo do mar cai drasticamente. Nas águas profundas, a quantidade de nutrientes varia de um local para o outro, sendo que a luz alcança no máximo 100m de profundidade. A salinidade é relativamente uniforme.As correntes marítimas dirigidas pelos ventos que incidem na água são muito fortes. Em profundidades maiores existe uma contracorrente com águas do fundo, fazendo um intercâmbio de nutrientes nas diferentes regiões oceânicas.A vida na área oceânica é dispersa e diversa. O fitoplâncton e os milhares de minúsculos animais que também flutuam na água (zooplâncton) formam o plâncton, que se move junto com as correntes que falamos anteriormente. Muitos animais maiores, incluindo peixes e mamíferos (como cetáceos), também se movem desde a superfície até o fundo em seu ciclo diário.

Água

Importância e propriedades da água.
A Terra é o único planeta do Sistema Solar onde existe água na forma líquida. Praticamente todas as formas de vida conhecidas dependem da água, o que explica o fato de se encontrarem organismos vivos apenas na Terra.A maior parte da água no planeta está nos oceanos e mares. Só 3% estão nos rios, lagos, nas geleiras e nos glaciares. A água doce encontra-se também debaixo da superfície do solo - é o que se chama lençol freático.Conforme o lugar, formam-se verdadeiros rios subterrâneos. O ser humano faz perfurações profundas em alguns locais para captar água - são os poços artesianos.
Ciclo hidrológico, ou ciclo da águaA água também faz parte do corpo dos seres vivos. Percebemos sua existência em nosso corpo quando transpiramos, urinamos ou choramos, embora nesses casos, ela esteja misturada com outros produtos do nosso metabolismo.A água está sempre se renovando. Existe um ciclo hidrológico, ou ciclo da água. Isso quer dizer que não existe "água nova". A água que se bebe, já foi nuvem (vapor), por exemplo. Essa renovação se repete desde o início da vida na Terra. Assim, a água que abastece os seres vivos hoje, é a mesma que os dinossauros bebiam! Por isso é tão importante evitar a poluição e o desperdício. Caso contrário, a água se esgotará e com ela toda a vida.
Três estados da águaA água pode ser encontrada na natureza em três estados físicos: sólido (gelo), líquido, e gasoso (vapor de água - a nuvem é água em vapor).A água do ambiente (incluindo a que se encontra nos seres vivos) evapora por ação do calor. Quando nossa transpiração seca, por exemplo, a água evapora e passa do estado líquido (gotas de suor) para o gasoso.No vapor de água existem gotinhas minúsculas, tão leves que são carregadas pelo ar. Então, formam-se as nuvens, da água que evapora dos oceanos, mares, lagos e rios. A mudança de temperatura causa um fenômeno chamado condensação (que é quando as inúmeras gotinhas se unem).A água passa do estado gasoso para o líquido, na forma de chuva. Essa, por sua vez, cai de volta no ambiente. A terra absorve essa água que é aproveitada, parte pelas raízes das plantas e parte vai para os lençóis freáticos. Esse ciclo nunca pára.
Propriedades da águaVeja as características fazem da água um recurso único e fundamental na natureza.
Capacidade térmica: quando se aquece um copo de papel com água dentro, pode-se notar que o papel não queima e a temperatura da água aumenta. Isso acontece porque a água é capaz de absorver o calor do papel. Essa propriedade é conhecida como capacidade térmica.Os vegetais, que têm água em sua composição, conseguem absorver a radiação solar (para realizar a fotossíntese) sem se queimarem. A transpiração, tanto nos vegetais quanto nos animais, tem o mesmo efeito: auxilia o resfriamento do corpo, pois a água, quando evapora, absorve uma grande quantidade de calor do meio onde está.Outro exemplo é a água do mar ou mesmo da piscina: quando há uma variação grande de temperatura externa, a temperatura da água quase não se altera. Essa capacidade térmica da água se deve à propriedade do calor específico.
Calor específico: é a quantidade de calor necessária para alterar em 1°C a temperatura. A água possui um elevado calor específico, ou seja, é necessário fornecer ou retirar uma grande quantidade de calor para alterar a sua temperatura.
Solvente universal: a água é capaz de quebrar substâncias como açúcar ou sal, por exemplo, em partes tão pequenas que não conseguimos mais enxergá-las. Essa capacidade de dissolver as substâncias faz a água ser considerada um solvente universal.
Transporte: a água tem a propriedade de transportar líquidos e partículas de substâncias. Essa capacidade de transportar substâncias é vital nos seres vivos, pois o sangue, feito aproximadamente de 60% de água, transporta para diferentes partes do corpo gases (como oxigênio, gás carbônico), hormônios, nutrientes e produtos da excreção.
Tensão superficial: Por causa das características físicas e químicas da água forma-se uma tensão superficial. É uma força capaz de manter a água unida, ou coesa, como se uma capa a cobrisse. Objetos leves, como folhas e alguns insetos, não conseguem romper essa camada. Por essa razão, não afundam, e às vezes nem se molham.Existe até uma espécie de lagarto que corre por cima da água. É que, pelo formato de suas patas, formam-se bolhas na parte inferior, e a tensão superficial não deixa que ele afunde. O detergente, porém, é capaz de romper esta película que se forma na superfície da água, "quebrando" a tensão superficial.

Atmosfera

A composição do ar e os problemas decorrentes da poluição.
O ar atmosférico é formado por uma mistura de vários compostos químicos, principalmente por nitrogênio (fórmula química do gás nitrogênio: N2) e oxigênio (O2). Em menores quantidades é também formado por gás carbônico (CO2), gás metano (CH4), óxido nitroso (N20) e vapor d'água. Por fim, fazem parte dessa mistura, em pequenas quantidades (aproximadamente 1% do total), os gases nobres (hélio, criptônio, xenônio, argônio e neônio), além de micróbios e impurezas.A água e o gás carbônico, presentes no ar, absorvem parte dos raios infravermelhos emitidos pelo sol e são responsáveis pela retenção da energia térmica na atmosfera, juntamente com o gás metano e o óxido nitroso, deixando o planeta aquecido e possibilitando a existência de vida na Terra.
AtmosferaA camada de ar que envolve a Terra é conhecida como atmosfera (atmos = ar; esfera = esfera terrestre). A atmosfera pode ser dividida em cinco camadas: a troposfera, a estratosfera, a mesosfera, a ionosfera e a exosfera.1) A troposfera é a camada mais próxima da crosta terrestre, na qual estão imersos os seres vivos de hábito terrestre. Esta camada tem aproximadamente oitenta por cento do peso atmosférico, ou seja, é onde o ar está mais concentrado. Esse nome, troposfera, significa "esfera turbulenta", pois é ao longo dos seus aproximadamente 12 km de espessura onde ocorrem quase todos os fenômenos meteorológicos.2) Na estratosfera aparece uma grande concentração de ozônio, um composto formado por átomos de oxigênio (fórmula química do ozônio: O3), a conhecida camada de ozônio, que funciona como um filtro para os raios solares. Ela absorve a radiação solar ultravioleta, deixando passar apenas parte deles e protegendo a vida da Terra. A estratosfera tem uma espessura média de aproximadamente 38Km.3) Ao chegarmos na mesosfera passamos por 99% do peso do ar, ou seja, quase todo o ar já ficou para trás. Essa camada tem aproximadamente 50Km de espessura.4) A ionosfera recebe esse nome por possuir uma grande quantidade de íons, átomos eletricamente carregados. Essa camada tem uma espessura de aproximadamente 470Km. O ar da ionosfera é extremamente rarefeito e ainda assim oferece suficiente resistência aos meteoros, que bombardeiam diariamente a Terra, fragmentando-os.5) A exosfera é a camada mais externa da atmosfera. Chega a confundir-se com o espaço cósmico. O ar existente nessa camada é tão rarefeito que os grupamentos atômicos chegam a atravessar distâncias enormes sem se chocarem.
Atividade HumanaCom a Revolução Industrial, que se iniciou no século 18, passamos a utilizar com maior freqüência os combustíveis fósseis, especialmente os derivados do petróleo. Isso aumentou em excesso a emissão de gases poluentes na atmosfera, sem que, a princípio, houvesse preocupação com as conseqüências que poderiam ser provocadas. Na verdade, a própria noção de poluição ainda era desconhecida e só a partir do século 20 os cientistas começaram a se aperceber dos problemas que estavam sendo criados.Por exemplo, por volta de 1970, os cientistas passaram a estudar os efeitos que as emissões de clorofluorcarbonos (CFC, um gás muito usado em geladeiras e em aerossóis) estariam causando à atmosfera do planeta. Descobriu-se que o CFC destruía o ozônio da estratosfera. Em 1982, foi constatada a existência de uma região já muito pobre em ozônio (um "buraco"), quando comparada com outras áreas. Essa região localiza-se no Pólo Sul, sobre a Antártida.Assim, a Terra passou a receber diretamente uma carga excessiva de radiação ultravioleta. Para piorar, outros gases industriais, em especial o gás carbônico (CO2, se acumulavam na atmosfera, impedindo a dispersão do calor emitido pelo Sol e provocando um aumento da temperatura do planeta, denominado "efeito estufa".
Mudanças climáticasDurante esse período, que compreende as quatro últimas décadas, várias mudanças climáticas começaram a ser percebidas e atribuídas ao aquecimento global. Então, passou a existir uma preocupação muito grande de que ocorressem mudanças ainda mais drásticas, caso os seres humanos continuassem a emitir gases industriais em larga escala.Embora alguns cientistas não acreditem no risco do planeta se superaquecer, durante a Conferência Mundial sobre o Meio Ambiente e o Desenvolvimento, que aconteceu no Rio de Janeiro, em 1992, os representantes dos países participantes escreveram a Convenção Quadro das Nações Unidas sobre Mudanças do Clima.Nela, reconhecia-se que as mudanças climáticas eram um problema real, planetário, e que as atividades humanas têm papel fundamental nessas alterações. Sendo assim, é preciso que todos os países se esforcem para diminuir o problema, reduzindo a emissão dos gases que promovem o aquecimento do planeta (efeito estufa).
Protocolo de KyotoPara transformar a Convenção Quadro das Nações Unidas sobre Mudanças do Clima em propostas objetivas, em 1997, foi criado o Protocolo de Kyoto, que tem por objetivo lutar contra alterações climáticas, através de uma ação internacional de redução de determinados gases que provocam o efeito estufa - dióxido de carbono (CO2); metano (CH4); protóxido de azoto(N2O); hidrofluorcarbonos (HFC); hidrocarbonetos perflorados (PFC); hexafluoreto de enxofre (SF6).O protocolo de Kyoto só entrou em vigor em 16 de fevereiro de 2005, quando os países que assinaram, iniciaram o desenvolvimento de projetos para diminuir a taxa de emissão de gases do efeito estufa até 2012. Contudo, nem todos os países aderiram a ele. Os Estados Unidos, um dos principais responsáveis pela emissão de gases se recusa a aderir, devido a questões econômicas.Infelizmente, a questão parece estar se agravando. O ano de 2005, desde o início, tem sido marcado por grandes catástrofes em diversos pontos do planeta: tsunamis, terremotos, furacões, secas e enchentes...

Átomos

Eles são as letras do alfabeto que escreve a natureza.
Entre os séculos 12 a.C e 6 a.C, na Grécia Antiga, os seres humanos procuravam explicar o mundo ao seu redor e as coisas que nele havia recorrendo à mitologia, criando deuses e heróis fantásticos que, em tempos imemoriais, tinham criado tudo o que existia.A partir do século 5 a.C., porém, as explicações mitológicas já não pareciam satisfatórias. Os pensadores ou filósofos desejavam novas explicações para o mundo, que se baseassem em causas naturais.Um desses filósofos, Empédocles (490-430 a.C.), afirmava que tudo o que existia na Terra era composto por quatro elementos ou "raízes eternas": a água, o ar, a terra e o fogo, que se misturavam em diferentes concentrações. Essas misturas se sujeitavam à ação do amor e do ódio, que organizavam e desorganizavam os quatro elementos básicos. Assim, segundo ele, formavam-se todos os componentes do universo.Desse modo, tudo o que se encontrava no estado sólido era classificado como terra, fosse pedra, madeira, metal ou mesmo gelo. Já todos os gases - fumaça, nuvens, neblina - eram considerados como ar. Os líquidos, como o sangue ou o vinho, por exemplo, eram enquadrados na categoria de água. Quanto ao fogo, sua definição era mais difícil de ser feita, embora fossem percebidas suas características, como a luminosidade, o calor e o movimento.De acordo com essa concepção antiga, bastava um elemento mudar de estado físico que já passava a ser considerado outro. Evidentemente, essas idéias estavam longe de chegar a uma explicação clara do que ocorre na realidade. E muitos séculos se passariam até chegarmos ao conhecimento científico de que dispomos hoje. Para isso, foram necessárias muitas descobertas e reflexões.
Os gases e o flogísticoNo século 17 de nossa Era, o belga Van Helmont (1580-1644) descobriu que a fumaça produzida na combustão de sólidos e fluidos era diferente do ar e do vapor d'água. Para essa fumaça ele deu o nome de "gás". Esse cientista, um dos pioneiros da química, também demonstrou a existência de vários tipos de gases.Para tentar explicar o fogo, em 1723, o físico alemão Georg Ernest Stahl (1660-1734) publicou um livro conhecido como "Os Fundamentos da Química", no qual lançava suas idéias sobre o "princípio do fogo", que chamava de "flogístico". Tratava-se, segundo Stahl, de um elemento imponderável e inapreensível, contido em todos os corpos combustíveis, ou seja, que queimam ou pegam fogo.Sua crença era a seguinte: quando entram em combustão, os corpos perdem o flogístico. Por não possuí-lo mais, após a queima, eles perdem a propriedade de combustão. Essas idéias vigoraram desde o final do século 17 até o começo do 18. Foi quando o francês Antoine Lavoisier (1743-1794) conseguiu explicar o que não era explicável pela teoria do flogístico:a) o fato de a queima de um corpo cessar no interior de um recipiente fechado;b) a diminuição de massa que ocorre na queima do papel, porque quase todos os produtos dessa combustão são gases que se dispersam na atmosfera;c) o aumento do peso dos metais após a combustão, pois eles "absorvem" oxigênio e com isso ganham massa.
Os estados físicos da matériaEssa nova compreensão, aprimorada, do processo de combustão permitiu identificar o que chamamos hoje de os três estados físicos da matéria: sólido, líquido e gasoso. Com esse novo conhecimento, foi possível entender que o gelo não era terra - como pensava Empédocles, lembra? - mas água no estado sólido. Assim também, a fumaça que saía da água durante a fervura era a mesma água, só que no estado gasoso.Aos poucos, os pesquisadores foram percebendo que era possível extrair alguns materiais de outros, embora houvesse também materiais dos quais não se podia extrair mais nada. Por exemplo, pode-se extrair carvão da madeira ou até da carne, mas é impossível extrair carne ou madeira do carvão, do qual não se extrai mais nada.Através de vários experimentos com a água, Lavoisier percebeu que ela se dividia em dois elementos, o oxigênio e o hidrogênio. Com esse e muitos outros experimentos, ele conseguiu listar 33 dos elementos químicos que conhecemos hoje.Elementos químicos são conjuntos de átomos de mesma característica. Quando se agrupam, os átomos desses elementos formam as substâncias químicas. O exemplo é a própria água, que é uma substância formada por dois átomos do elemento hidrogênio e um do oxigênio (H2O).
Letras do alfabetoDepois de Lavoisier, novos elementos químicos foram sendo descobertos. No século 19, já eram conhecidos cerca de 60. Atualmente, são conhecidos 116 elementos químicos, sendo 90 naturais e os restantes produzidos em laboratório pelo ser humano. Mas o que explica a existência dessa variedade tão grande de substâncias ou materiais no mundo? A resposta, na verdade, é bem simples.Vamos fazer uma comparação... Quantas palavras podemos escrever com as 27 letras do alfabeto? Podemos escrever um número enorme de palavras, com as letras que representam os sons do nosso idioma; outras tantas, com as que representam sons utilizados nos outros idiomas; ou até mesmo combiná-las aleatoriamente, de modo que não tenham sentido nenhum. Mas o que nos interessa é a idéia de agrupar. Cada grupamento de letra tem um sentido e uma função diferentes, quando os grupos forem diferentes.Na natureza ocorre exatamente a mesma coisa. Só que as letras da natureza são os átomos. Com os 116 tipos diferentes de átomos existentes, que se agrupam de diferentes maneiras, são formados os diferentes materiais ou substâncias que conhecemos: vidro, plástico, cera, algodão, madeira, açúcar, cobre...
Fenômenos físicos e fenômenos químicosVoltemos então ao velho problema da Antigüidade: o fogo. Quando queimamos um pedaço de madeira - como dissemos - parte de sua massa é transformada em vapor d'água e em gases diversos, além de fuligem e carvão.Para ocorrer a combustão, é necessária a existência de um combustível (o material a ser queimado - a lenha), um comburente (o material que garante a existência do fogo - o oxigênio) e uma energia que dê início ao processo (a energia inicial - riscar um fósforo, por exemplo).Quando a combustão acontece, essas substâncias sofrem um desarranjo e um novo arranjo de seus átomos, transformando-se quimicamente. E sempre que ocorre um desarranjo e um novo arranjo dos grupamentos atômicos, ocorre também uma transformação dos tipos de energia.Assim, na combustão, a energia química se transforma em calor e luz (ou energia térmica e luminosa).Pois bem, quando ocorre uma transformação ou modificação em um grupamento atômico, esse fenômeno é conhecido como fenômeno químico. Quando a transformação é apenas energética, chamamos isso de fenômeno físico, como na mudança de estado físico da água.Levando tudo isso em consideração, é possível compreender a famosa frase de Antoine Lavoisier, que ficou conhecida como Lei da conservação da massa:"Na natureza nada se cria, nada se perde: tudo se transforma".

Perigos da floresta

"Quanto mais a floresta é desmatada, mais ela afeta o clima. Quanto mais o clima é afetado, mais põe em risco a floresta"
Miriam Leitão escreve para a coluna "Panorama Econômico", do jornal "O Globo":

Quanto a floresta aguenta? Qual é o limite de desmatamento que a Amazônia suporta? Essas perguntas têm sido feitas pelo climatologista Carlos Nobre, do Instituto Nacional de Pesquisas Espaciais, que, junto com seus alunos, tem escrito estudos publicados em revistas científicas do exterior. O último estudo conclui que 40% é o limite. Acima disso a floresta entra em colapso

Quem sobrevoa a Amazônia com olhos leigos, como os meus, tem a impressão de que ela será eterna, que aquele mundo imenso de cobertura verde é indestrutível.

A verdade científica é que ela é mais frágil do que parece. Quem olha o percentual da floresta que já está desmatada - em corte raso - acaba pensando que é pouco. Hoje, estão desmatados 18% da Amazônia e outros 10% a 12% estão em estado de degradação ou fragmentação. Essa é a parte da floresta que começou a ser desmatada, mas não foi completamente limpa em corte raso. Parece pouco, mas na verdade estamos perigosamente perto do que os cientistas definem como tipping point, o ponto a partir do qual tudo se precipita, tudo se acelera, e a floresta começa a morrer.

O tamanho do verde e o percentual da destruição só enganam os leigos, não os cálculos de climatologistas e especialistas. Eles sabem de um fenômeno assustador: que a partir de um determinado ponto, a floresta começa a se savanizar, perde a capacidade de regeneração, fica mais vulnerável ao fogo e às secas, muda de natureza. Deixará de ser a Amazônia como a conhecemos.

- Pelos nossos estudos, o desmatamento não pode chegar a 40%, do contrário, o clima muda permanentemente. E quando mudar o clima, a floresta não volta. Ela perde a capacidade de se regenerar, perde sua resiliência. Na floresta tropical úmida, o solo precisa de água o ano inteiro, o que não acontece numa vegetação savanizada, onde chove apenas uma parte do ano, seguido por longo período de seca - disse Carlos Nobre.

Esse tema tem sido objeto de estudo dele e de seus alunos desde 2003. Alguns desses estudos estão em várias publicações científicas de primeira linha no mundo inteiro. O último estudo, "Tipping Points for the Amazon Forest", escrito por Nobre e Laura De Simmone Borma, também do Inpe, chega a este número de que perto de 40% a floresta está em perigo.

- Temos feito avaliação também de quanto de aumento de temperatura a floresta aguenta antes de se desestabilizar. E concluímos que é três graus centígrados. Com um aumento além desse nível, a floresta também se savaniza. São esses os dois tipping points, como dizemos, os dois pontos de quebra, a partir do qual a floresta não aguenta - explica Nobre.

Quanto mais a floresta é desmatada, mais ela afeta o clima. Quanto mais o clima é afetado, mais põe em risco a floresta. No estudo recente, eles incluíram o efeito do fogo na análise, mostrando que isso aumenta o risco.

A explicação é que na Amazônia o fogo não prospera além de um certo ponto, ao contrário do cerrado, em que o fogo é parte da dinâmica do bioma. Quanto mais seca e mais quente a Amazônia for ficando - como efeito do desmatamento -, mais o fogo tem capacidade de penetração e destruição, alimentando o círculo vicioso que pode levar à destruição completa da floresta.

- É uma ameaça: mais quente e mais seca, ela acelera o processo que poderá levar à savanização - afirma Nobre.

Com todos esses riscos é preferível nem testar o nível de 40%. O mais sensato é conter já o desmatamento.

O corte raso é diferente de área degradada, explica o pesquisador. Na área degradada, há perda de biodiversidade, mas a floresta, dependendo do estágio da destruição, pode ainda se regenerar. Mas somando-se o que há de corte raso e degradação, o estrago já seria de 30%, perigosamente perto do ponto de não retorno.

O cientista recomenda que o país não teste a floresta além desse ponto.

A Amazônia se espalha por nove países, mas - alerta o estudo - 80% do desmatamento ocorrem no Brasil. O desmatamento da Amazônia corresponde a 47,8% da perda mundial de florestas tropicais, numa taxa que é quatro vezes o segundo lugar, que é da Indonésia.

E a destruição no nosso caso está concentrada em áreas muito bem definidas, que formam o arco do desmatamento. Deter o avanço da destruição não apenas é responsabilidade brasileira, como está no horizonte das nossas possibilidades.

Quem vê a Amazônia assim tão gigante e isolada pode pensar que ela não está no centro de um problema que aflige o mundo inteiro. No texto, os cientistas afirmam que "o equilíbrio do clima e vegetação na Amazônia tem sido identificado como um dos tipping points do sistema climático global".

Isso tem que estar na mente dos tomadores de decisão no Brasil antes de pensar pequeno na preparação da posição brasileira para Copenhague, ou na tentativa de ceder à pressão dos ruralistas. Eles querem mais liberdade para desmatar, chances de plantar árvores exóticas em áreas destinadas a reserva legal, querem a possibilidade de compensar desmatamento ilegal com uso de fragmentos em outras áreas.

Tudo pode parecer razoável para quem quer manter um status quo que nos levou a perder 18% da floresta e colocou sob ameaça imediata outros 10%. Um pouco mais de desmatamento pode nos levar a um terreno desconhecido. Portanto, a pergunta relevante deve ser feita aos cientistas: quanto mais a Amazônia aguenta de desmatamento? Eles dirão que está tão perto o tipping point que o mais sensato a fazer é não desafiar mais a sorte.

Madeira do Pará tem origem 89% ilegal

Pesquisa inédita do Imazon empregou imagens de satélite para mapear pela primeira vez extração madeireira no estado. Sistema estadual trazia uma estimativa de só 10% de irregularidade; exploração de madeira paraense é 45% do total da Amazônia
Reinaldo José Lopes escreve para a "Folha de SP":

Quase 90% da área que sofre exploração madeireira no Pará está sendo explorada sem autorização legal, revela um estudo do Imazon (Instituto do Homem e Meio Ambiente da Amazônia) obtido pela Folha. É a primeira vez que se faz uma estimativa direta da retirada de madeira ilegal na Amazônia.

Até hoje ninguém sabia direito qual é a quantidade de madeira clandestina na região. O número mais citado, impreciso, fala em 50%. Mapear a extração ilegal é importante, porque em muitas áreas da Amazônia a atividade madeireira criminosa é o passo inicial da derrubada total da floresta.

Os dados usados pelo Imazon agora, vindos de imagens de satélite de 2007 e 2008, indicam que até a atividade madeireira legalizada tem irregularidades -como o registro de toras supostamente oriundas de áreas já desmatadas por completo- em 37% dos casos. A ONG ainda pretende cruzar o mapeamento com os dados de volume total de madeira em cada região do estado para estimar o volume clandestino.

"Fica claro que o estado não tem controle fiscal suficiente da extração", diz o engenheiro florestal André Monteiro, co-autor do estudo. "Ele não consegue fazer o monitoramento e acaba trabalhando só com base em denúncias. Também há indício de gente registrando dados de forma errada, fazendo a coisa de modo mal intencionado. Achamos que esta é uma ferramenta importante para auxiliar o monitoramento."

Rombos

As imagens de satélite ajudam os pesquisadores a fazer uma estimativa de quão fragmentado está o dossel, ou seja, a fatia mais alta da mata, única parte visível dela a partir do espaço no caso de florestas fechadas como a amazônica.

A proporção de buracos no dossel da mata indica se a derrubada está ocorrendo de acordo com um plano de manejo florestal aprovado pela Sema (Secretaria de Estado de Meio Ambiente do Pará). Tais planos de manejo garantem, em tese, que a madeira seja extraída em ritmo moderado, escolhendo exemplares maduros de árvore e minimizando o dano a plantas que não vão ser usadas comercialmente. Não se pode falar em exploração sustentável sem plano de manejo.

Contas que não fecham

A primeira conclusão dos pesquisadores, que acessaram os dados da Sema sobre a extração de madeira devidamente atrelada a esses planos, é que 89% da área em que a derrubada foi detectada via satélite não corresponde aos locais em que a atividade madeireira foi aprovada pelo estado. São quase 375 mil hectares, dos quais 73% equivalem a áreas privadas, devolutas ou sob disputa.

Mesmo nos casos em que a Sema registrou a exploração legalizada, porém, a pesquisa detectou discrepâncias entre o que estava nos planos de manejo e o que aparecia no satélite.

No período 2007-2008, havia 259 planos operacionais no estado, dos quais 131 puderam ser avaliados via satélite (nem sempre isso é possível, por causa de fatores como a forte cobertura de nuvens). Das Autefs (Autorizações de Exploração Florestal) emitidas então, 63% casaram com as imagens, enquanto as demais apresentaram uma ou mais "inconsistências", como define o trabalho.

Entre as práticas mais suspeitas está a emissão de Autefs para áreas já total ou parcialmente desmatadas. O conceito por trás da tática é simples, diz Monteiro: "esquentar" a exploração predatória nessas áreas.

"A questão é que, no plano de manejo, você tem um limite de 30 metros cúbicos de madeira por hectare. Se um trecho já desmatado é incluído no total, a relação entre volume de madeira e área diminui, o que permite a extração de mais madeira", afirma o pesquisador.

Assim, numa fazenda que seja grande mas só tenha um hectare de floresta em pé, se o proprietário declara ter dois hectares, pode tirar o dobro de madeira que lhe é permitido sem deixar pistas em documentos. Só com imagens de satélite é possível flagrar o golpe.

O Imazon pretende realizar o levantamento todos os anos daqui para a frente, incluindo também Mato Grosso.

Sema diz que não fez pressão por mudança

A coordenadora jurídica da Sema, Estela Neves de Souza, afirmou à Folha que não houve pressão do governo do Pará para que o Imazon modificasse seu relatório sobre o desmatamento ilegal no estado.

Para Souza, os pesquisadores foram apenas prudentes ao alterar o texto do estudo. "É um tema muito complicado, que nós tentamos esclarecer da melhor maneira possível. A alteração na verdade mostra até cautela por parte do Imazon, e aumenta a credibilidade do estudo deles", afirma.

Souza afirma que os dados de exploração madeireira de 2007 presentes no Sisflora, o sistema que acompanha o volume de madeira extraído no estado, tinham vindo originalmente do sistema de autorizações em papel do Ibama, que ainda vigorava.

Ela preferiu não se pronunciar sobre os demais resultados. "A Sema ainda está aguardando a apresentação da versão final", disse. A Folha procurou o secretário de Meio Ambiente do Pará, Aníbal Picanço, mas ele não estava disponível para falar.

Trabalho original foi alterado após governo criticar dados

A versão da pesquisa do Imazon obtida pela Folha não é a original. A pesquisa foi revisada ao longo das últimas semanas, após conversas entre os pesquisadores da ONG e o governo paraense.

Depois do debate com representantes da Sema, não houve alterações nas principais conclusões do relatório sobre as áreas desmatadas sem autorização, mas um parágrafo sobre as estimativas do próprio governo do Pará acerca do problema foi removido.

O trecho retirado dizia que, de acordo com o Sisflora, sistema estadual que mede a produção de madeira em metros cúbicos, "Noventa por cento dessa produção originou-se de fonte legal (manejo florestal) e 10% de fonte desconhecida (exploração não autorizada)". O número inverte as proporções aproximadas nas conclusões do Imazon (89% de extração ilegal e 11% autorizada).

Durante a conversa com a Sema, os técnicos do governo paraense argumentaram que a discrepância se devia à falta de integração informatizada entre dois de seus próprios sistemas de controle florestal. O Sisflora, que registra o fluxo de madeira propriamente dito, não era ligado ao Simlam, que emite licenças de plano de manejo.

Além disso, durante parte do período analisado, o sistema utilizado para acompanhar a movimentação de madeira ainda era o do Ibama, feito em papel e passado manualmente para o formato eletrônico, o que facilitava irregularidades, disseram os membros da Sema. "Com base nessa argumentação deles, nós decidimos alterar aquela passagem do relatório", afirma Monteiro.

Com a integração entre Sisflora e Simlam já operacional, a expectativa é que problemas metodológicos diminuam, avalia o engenheiro florestal.

Lobo extinto achado por Darwin é primo do guará, diz pesquisa

Análise genética revelou que o animal brasileiro é parente vivo mais próximo
Reinaldo José Lopes escreve para a "Folha de SP":

O bicho de pelagem dourada habitava as frias ilhas Malvinas (ou Falklands, como preferem os britânicos), na costa argentina, mas seu parente mais próximo ainda vivo é o lobo-guará, morador cada vez mais raro do cerrado brasileiro. A conclusão vem de uma análise de DNA e reduz um pouco o mistério em torno do lobo-das-malvinas, animal que intrigou Charles Darwin e foi extinto pela caça indiscriminada em 1876.

A pesquisa, coordenada por Graham Slater, da Universidade da Califórnia em Los Angeles, está na revista científica "Current Biology". Slater e companhia conseguiram obter DNA de cinco exemplares de museu do Dusicyon australis, como o bicho é conhecido oficialmente pelos cientistas.

Com isso, foi possível comparar alguns genes do lobo-das-malvinas com os de canídeos modernos, em especial os nativos da América do Sul, como o lobo-guará e o cachorro-do-mato-vinagre. Ficou claro o parentesco mais próximo com o guará, mas o detalhe é que as linhagens dos dois bichos sofreram uma separação antiga, há mais de 6 milhões de anos.

De norte a sul

Isso é o mais surpreendente, porque a data indica que a evolução das duas espécies já estava ocorrendo separadamente quando canídeos como eles nem sonhavam em chegar à América do Sul. Nessa época, as terras sul-americanas eram uma ilha, separada da América do Norte. O continente atual só se formou há 3 milhões de anos.

Os ancestrais do lobo-guará e do lobo-das-malvinas acabaram sumindo totalmente da América do Norte, hoje dominada pelos coiotes e pelo lobo "verdadeiro", ambos do gênero Canis. "Não sabemos o porquê disso", disse Slater à Folha.

"Os Canis chegam [da Ásia] e os outros simplesmente desaparecem. Talvez a socialidade seja importante, porque a maioria dos canídeos sul-americanos de hoje é solitária, enquanto os lobos e coiotes vivem em grupos, e os carnívoros sociais conseguem desalojar os solitários e capturar um espectro mais amplo de presas."

Darwin foi o primeiro especialista a descrever formalmente o lobo-das-malvinas e ficou com a pulga atrás da orelha ao notar que o bicho era o único mamífero nativo das ilhas, as quais, afinal, ficam a quase 500 km do continente. Ninguém sabe como os lobos foram parar lá. Pode ser que tenham sido arrastados em cima de troncos de árvore ou pedaços de gelo mar adentro.

"Nas Malvinas eles tinham carne à vontade, comendo focas, pinguins e aves marinhas", diz Slater. É possível que outras espécies mais próximas do lobo-das-malvinas tenham sido extintas por seres humanos no continente, especula ele.

O mesmo destino aguardava a espécie insular. Pastores que colonizaram as Malvinas a consideravam uma ameaça para suas ovelhas e cobiçavam sua pele, o que acabou levando ao extermínio do animal.

Animal pode ter mais primos extintos

O próximo passo do grupo de Slater envolve fósseis do Dusicyon avus, espécie que sumiu há uns 8.000 anos. Ele pode ser um parente ainda mais próximo do lobo-das-malvinas. "Como é um animal recente, deve ser relativamente fácil obter DNA para comparação", diz Slater.

Conversa entre bactérias

Um grupo de cientistas da Universidade da Califórnia em Diego, nos Estados Unidos, desenvolveu ferramentas que permitem ver como bactérias "conversam" umas com as outras e como enfrentam e vencem a batalha contra outros microrganismos
O objetivo da pesquisa é entender como populações diferentes de células se comunicam, o que poderá auxiliar no desenvolvimento de novas terapias para as mais variadas doenças. As bactérias, para se comunicar, secretam moléculas que enviam sinais a outros microrganismos para, por exemplo, obter mais nutrientes. Outras moléculas são secretadas para "desligar" mecanismos de defesa do hospedeiro.

Em artigo publicado no domingo, dia 8, na revista Nature Chemical Biology, Pieter Dorrestein e colegas relatam a abordagem que desenvolveram para descrever, em laboratório, as trocas metabólicas que configuram os relacionamentos entre bactérias.

O grupo usou uma tecnologia chamada de Maldi-Tof (sigla em inglês para Matrix Assisted Laser Desorption Ionization-Time of Flight), que usa espectrometria de massa para estudar colônias de bactérias cultivadas em laboratório.

Interações microbiais, tais como a sinalização, são geralmente consideradas por cientistas em termos da atividade química individual e predominante. Contudo, qualquer espécie bacteriana é capaz de produzir muitos compostos bioativos que podem alterar organismos vizinhos.

A abordagem desenvolvida pelo grupo permitiu observar que as "conversas químicas" entre bactérias envolvem muitos sinais que funcionam simultaneamente.

"Os cientistas tendem a estudar nessa troca metabólica entre bactérias uma molécula de cada vez. Mas, na realidade, tais trocas feitas por microrganismos são muito mais complexas, envolvendo dez, 20 ou até 50 moléculas de uma só vez. Agora, podemos capturar essa complexidade", disse Dorrestein.

Os pesquisadores estão mapeando centenas de interações bacterianas com a nova tecnologia e esperam produzir um "dicionário bacteriano", que possa ajudar a traduzir os sinais dos microrganismos.

"A capacidade de traduzir a produção metabólica de microrganimos é cada vez mais importante, tendo em vista sua elevada proliferação. Queremos entender como as bactérias interagem com as células e essa nova ferramenta poderá ajudar nesse objetivo", disse Dorrestein.

Vacina para esquistossomose

Projeto "Genoma funcional do Schistosoma mansoni aplicado ao desenvolvimento de vacinas" termina no início de 2010
Fábio Reynol escreve para a "Agência Fapesp":

Após quase cinco anos de trabalho, encerra-se no início de 2010 o Projeto Temático "Genoma funcional do Schistosoma mansoni aplicado ao desenvolvimento de vacinas", apoiado pela Fundação de Amparo à Pesquisa do Estado de São Paulo (Fapesp).

O projeto buscou avançar o conhecimento para o desenvolvimento futuro de uma vacina para a esquistossomose, doença parasitária que atinge 200 milhões de indivíduos em regiões tropicais do mundo, sendo endêmica em 74 países, inclusive no Brasil.

O projeto, coordenado por Luciana Cezar de Cerqueira Leite, do Instituto Butantan, utilizou como base o sequenciamento feito no projeto Genoma Schistosoma mansoni, também financiado pela Fapesp, no âmbito da rede Onsa (Organização para Sequenciamento e Análise de Nucleotídeos, na sigla em inglês), uma rede virtual de laboratórios genômicos do Estado de São Paulo.

A base de dados continha 163 mil sequências de seis estágios do transcriptoma do parasita, obtidos por meio da metodologia Orestes (Open Reading frame Expressed Sequence Tags), resultando em 31 mil segmentos gênicos montados.

No transcriptoma do Schistosoma, cerca de 55% das sequências obtidas codificam para proteínas de funções desconhecidas. Elas não encontram similares nos bancos de dados públicos, o que pode significar que assumem funções específicas nesse parasita que ainda precisam ser descobertas.

Os pesquisadores utilizaram o método da vacinologia reversa, que parte de uma análise bioinformática de todo o genoma, realizando uma varredura em uma grande quantidade de genes/proteínas para identificar quais têm potencial de interação com o sistema imunológico do organismo, isto é, potencial de induzir uma resposta imune protetora. No método clássico, cada proteína é testada individualmente até se encontrar uma com atividade protetora.

A aplicação da vacinologia reversa para Schistosoma mansoni é mais complexa porque as ferramentas de bioinformática ainda não estão tão bem desenvolvidas como no estudo de bactérias. "Trata-se de um organismo muito complexo. É diferente mapear genes de bactérias, por exemplo, que têm sequências contínuas", disse Luciana à Agência Fapesp.

Por isso, mesmo tendo se iniciado em 2001, o sequenciamento do genoma do verme responsável pela esquistossomose só foi concluído no início de 2009 e ainda traz algumas lacunas.

A equipe do Butantan selecionou 30 genes/proteínas por ferramentas de bioinformática para investigar o potencial protetor. Estes antígenos foram testados utilizando a técnica de vacina de DNA. Diferente das vacinas convencionais compostas por proteínas ou bactérias mortas ou atenuadas, as vacinas de DNA introduzem os plasmídeos dentro da própria célula do indivíduo, onde são produzidas as proteínas. Serão elas que induzirão a resposta imune.

Os ensaios de eficiência exigem uma certa paciência. "Um ensaio de desafio leva uma média de quatro meses. A cercária leva cerca de uma hora para penetrar na pele dos camundongos. Depois, é necessário esperar 45 dias para elas atingirem a fase adulta", contou Luciana.

Os animais são então analisados para se comparar o número de parasitas encontrados nos animais imunizados com o dos não imunizados. Essa diferença indica o grau de eficiência da vacina. "Considera-se uma proteção razoável uma redução entre 40% e 50%", disse.

Dos 30 genes analisados, seis inicialmente se mostraram com maior potencial protetor e foi possível aprofundar os estudos e confirmar a proteção para três desses. Porém, devido à grande complexidade do organismo, o grupo estima que serão necessários combinar vários antígenos para compor uma vacina que seja eficaz contra a doença. Portanto, os estudos continuam.

Para complicar, vacinas que se mostrem eficientes em animais não o serão, necessariamente, em organismos maiores, como o humano, o que dá uma mostra da dificuldade e do tempo necessários para o desenvolvimento da pesquisa.

Segundo Luciana, ainda levará tempo para formar um coquetel de antígenos eficaz contra a esquistossomose. Por isso, sua equipe já prepara um novo projeto de pesquisa a fim de dar continuidade aos avanços obtidos até agora.

"É preciso lembrar que o parasita passou muitos e muitos anos aprendendo a driblar o nosso sistema imunológico, por isso, nós também teremos que ter paciência para conseguir entendê-lo e aprender a nos defender dele", destacou.

O futuro incerto da água

Especialista brasileiro discute desafios que país enfrentará para garantir acesso ao recurso no futuroO médico Ulisses Confalonieri, pesquisador da Fiocruz e colaborador do IPCC, fala sobre os desafios do acesso à água no Fórum Internacional de Saúde e Meio Ambiente.Quando se pensa em promover a saúde humana e o equilíbrio ambiental, um elemento é essencial: a água. Estima-se que o simples acesso a esse recurso nos países em desenvolvimento poderia diminuir em pelo menos 25% os casos de diarréia e outras doenças transmitidas por esse meio. Os desafios na busca de um modelo sustentável para a gestão da água foram o tema de uma mesa-redonda no segundo dia do Fórum Internacional de Ecossaúde, realizado em Mérida, no México.Um dos participantes do debate foi o brasileiro Ulisses Confalonieri, pesquisador da Fundação Oswaldo Cruz (Fiocruz) e professor da Universidade Federal Fluminense (UFF). Médico de formação, ele coordenou recentemente na equipe do Painel Intergovernamental de Mudanças Climáticas (IPCC) o grupo de trabalho que discutiu os impactos da mudança climática na saúde humana.Ao final do debate, Confalonieri – que faz parte da comissão organizadora do fórum – conversou com a CH On-line sobre os desafios que o Brasil tem pela frente para garantir acesso à água à sua população nas próximas décadas.Se considerarmos a perspectiva multidisciplinar proposta neste fórum, que enxerga saúde e meio ambiente de forma integrada, qual é o papel da qualidade da água para garantir a saúde humana e do meio ambiente?A água é absolutamente essencial para tudo, sem ela ninguém consegue viver. A questão com a qual mais lidei no IPCC foram as projeções de mudança na disponibilidade de água devido ao aquecimento global. Veja o caso do Nordeste brasileiro. Há ali aquela chuva sazonal, durante dois meses por ano, e toda a comunidade da agricultura de subsistência depende dela. O ano em que a chuva não vem é problemático – é o ano da seca. Mas o agricultor sabe que, no ano seguinte, a chuva deve aparecer. Mas os modelos feitos pelo CPTEC [Centro de Previsão de Tempo e Estudos Climáticos] projetam que a região vai se tornar progressivamente mais árida: este ano não tem, no ano que vem também não vai ter, e aí como é que se faz? Há 23 milhões de pessoas vivendo no semi-árido nordestino, uma das regiões semi-áridas mais populosas do mundo. Se se confirmarem as previsões dos modelos teóricos, haverá um problema de falta de água – a região semi-árida vai virar árida, e não será mais possível viver ali.De pouco adianta então a grande disponibilidade de água doce no Brasil?Esta é uma garantia regional apenas. Tem água na Amazônia, mas no Nordeste tem pouco. E o que vamos fazer? Transpor o Amazonas para o Nordeste? E a projeção de redução da floresta pode afetar muito o ciclo da água na Amazônia, bem como o degelo dos Andes, de onde vem muito do que corre no rio Amazonas. E se não tiver mais gelo para derreter, como é que fica? A situação é preocupante para o mundo inteiro. A nossa água existe agora: a Amazônia tem a maior bacia hidrográfica do mundo, o rio mais longo, mas daqui a 50 anos, não sei como vai estar.O senhor citou em sua fala uma projeção do IPCC que aponta que, em 2080, 3 bilhões de pessoas não terão acesso satisfatório à água. Essa perspectiva é reversível?A projeção do IPCC é uma algo que informa ou deveria informar políticas públicas nacionais e internacionais. Nos próximos anos os modelos vão se aperfeiçoar. Eles têm sempre um grau de incerteza. Mas, à medida que melhores técnicas forem desenvolvidas e mais dados forem acumulados, teremos projeções mais seguras. De qualquer maneira, funciona como um alerta.Quais devem ser as prioridades das políticas públicas para garantir o acesso à água para toda a população brasileira?Se considerarmos a questão do clima, fica complicado, porque se trata de um processo global, e não temos controle sobre isso. Isso teria que ser tratado em âmbito internacional. Quanto ao setor de saúde, acho que ele tem que acompanhar a evolução dessas discussões multissetoriais e participar mais dessas projeções. Isso é o que estamos tentando fazer – desenvolver modelos integrados e multissetoriais, que apontem o que vai acontecer daqui a dez anos com o clima e como aquilo afeta o ambiente natural, o ciclo da água, a agricultura, o transporte, a energia e a saúde. Isso só faz sentido se for trabalhado de maneira integrada. A saúde, dentro desse espectro de questões sócio-ambientais e sanitárias, é o último elo da cadeia: uma coisa causa outra, que provoca uma outra, que afeta a saúde. Por isso dependemos dos produtos de outras disciplinas. Um modelo climático era essencial, e até o ano passado não tínhamos isso. E eles ainda precisam melhorar. O cenário climático está projetado para 2070. Dificilmente quem está envolvido com política pública vai pensar em 2070, que está muito distante no tempo – ele quer saber de 2010, 2015, 2020. É importante fazer esses modelos, mas é preciso fazer projeções para décadas mais próximas, para termos uma idéia de como a política ficou urgente em relação a essa questão.

quarta-feira, 4 de novembro de 2009

Álcool e desnutrição

Experiência em animais mostra que bebida afeta estado alimentar de adolescentes

(foto: Chris Panteli).Os pais têm um motivo a mais para se preocupar com o consumo excessivo de álcool por seus filhos adolescentes. Experimentos em ratos feitos por pesquisadores do Departamento de Nutrição da Universidade Federal de Pernambuco (UFPE) indicam que o consumo da substância nessa fase da vida leva à redução da ingestão de alimentos e repercute negativamente no desenvolvimento nutricional. Para estudar a relação entre nutrição e álcool na adolescência, os pesquisadores administraram doses de etanol em ratos adolescentes machos (de aproximadamente 50 dias) junto a uma dieta contendo feijão carioquinha, arroz polido, frango de granja, farinha de mandioca e óleo de soja. Segundo a nutricionista Cybelle Rolim, responsável pela pesquisa, que resultou em sua tese de mestrado, sob orientação da professora Francisca Martins Brion, um dos diferenciais do experimento foi a utilização de uma dieta com alimentos específicos da região Nordeste, para que os resultados gerados pudessem beneficiar seus habitantes. Durante nove semanas, foram avaliados elementos como consumo alimentar, peso corporal, ingestão hídrica e etílica, gordura da carcaça e aspectos bioquímicos (glicose, albumina, taxas lipídicas e colesterol, entre outros). Ao todo foram empregados 36 ratos machos da linhagem Wistar, divididos em três grupos: o grupo-controle, que dispunha de água; o grupo para o qual foi oferecida uma solução de água com 10% de álcool e o grupo que recebeu solução hidroalcoólica a 20% (ambas preparadas a partir de aguardente de cana-de-açúcar). “As quantidades foram definidas na tentativa de se aproximar do teor alcoólico de bebidas como caipirosca e caipirinha, bastante consumidas pelos jovens da região”, explica Rolim. Embora não tenham sido realizados testes com humanos, Rolim afirma que os resultados obtidos nos experimentos com ratos podem ser aplicados a eles. O uso de roedores permitiu a obtenção de dados mais completos, como os decorrentes da análise dos órgãos internos dos animais. Nutrição afetada Por meio de medições semanais e diárias, observou-se que os ratos submetidos à solução hidroalcoólica de 20% consumiram menor quantidade de ração, enquanto os animais que só dispunham de água alimentaram-se normalmente. “Nos primeiros, o consumo de comida diminuiu, assim como o peso corporal, o percentual de gordura e a quantidade de albumina no corpo, uma das proteínas indicadoras de desnutrição", diz Rolim. "A ingestão de álcool repercute de forma negativa no estado alimentar de adolescentes, justamente nessa fase em que as necessidades nutricionais são elevadas”, completa a nutricionista. Nos ratos que ingeriram solução hidroalcoólica a 10%, não foram observados efeitos significativos. No entanto, a nutricionista acredita que, com maior tempo de exposição, a solução poderia causar danos aos animais. A pesquisadora explica que, por se tratar de uma substância tóxica, o álcool lesa os órgãos do trato gastrointestinal (principalmente fígado e estômago), o que acaba afetando a nutrição. Segundo ela, o etanol também afeta a metabolização dos nutrientes. Rolim quer estudar agora outras bebidas alcoólicas e diferentes grupos etários e sexuais. Em seu doutorado, ela pretende testar soluções hidroalcoólicas equivalentes à cerveja e ao vinho, bebidas com teor alcoólico menor do que o estudado na primeira fase da pesquisa (aproximadamente 6%), observando seus efeitos em crianças, gestantes e idosos. “Um importante passo é a realização de testes com ratos do sexo feminino, uma vez que, atualmente, o consumo de bebidas alcoólicas entre homens e mulheres já não é tão discrepante.”

terça-feira, 3 de novembro de 2009

O poder da imaginação

Você acredita que o simples fato de alguém mentalizar que está andando de bicicleta pode ajudá-lo a melhorar seu desempenho? Pois é isso que sugerem experimentos realizados no Laboratório de Neurociências e Comportamento do Instituto de Biociências (IB) da Universidade de São Paulo (USP). Coordenado pelo biólogo André Frazão Helene e orientado pelo professor Gilberto Xavier, o estudo mostrou que um treinamento imaginativo pode de fato aprimorar uma habilidade.
O pensador, escultura do francês Auguste Rodin (1840-1917)Helene explica que as áreas cerebrais ativadas durante o exercício de imaginação de uma tarefa e sua execução efetiva são muito próximas. "O tempo de imaginação de um ato motor é igual ao tempo de sua execução real", afirma. "Ocorre, por exemplo, uma elevação proporcional da taxa de batimentos cardíacos, de ventilação e de consumo de oxigênio quando pessoas se imaginam andando a 5, 8 ou 12 km/h." A equipe avaliou a possibilidade de se adquirir novas memórias[1] por meio do treinamento restrito à imaginação. Um primeiro experimento, de natureza cognitiva, envolveu um grupo de voluntários que tinha que ler palavras invertidas e escrevê-las corretamente com o dedo no ar. Outro grupo lia palavras grafadas de forma correta e as imaginava escritas ao contrário. Após três dias de treino de 100 palavras por dia para cada um, foi verificado que o desempenho dos grupos era equivalente. "Ambos tiveram a aquisição efetiva da habilidade", afirma Helene. Um segundo experimento avaliou o aprendizado motor pela imaginação. Os 24 participantes, todos destros, foram divididos em três grupos. O primeiro era de treino real: eles se sentavam de frente para um monitor em que apareciam em seqüência números de um a quatro. A cada número correspondia um dos dedos da mão direita; a tarefa consistia em tocar com o polegar os dedos equivalentes ao número mostrado na tela. O segundo era de treino imaginativo: a diferença é que ao invés de realmente tocarem o polegar, os participantes deviam somente imaginar a ação e apertar um único botão numa mesa para indicar que a atividade fora imaginada. O último grupo era o de controle, sem treinamento prévio da tarefa.
Após 40 minutos de treino o grupo com ’prática imaginativa’ realizou cada movimento em 0,75 segundo, desempenho próximo ao do grupo de ’treino real’, 0,70 s. Já o grupo de controle, sem treinamento, executou a tarefa em 1,05 s. O treino imaginativo reproduziu também outras características do ’treino real’. "Cada dedo tem um tempo diferente para tocar o polegar," aponta Helene. "O dedo mínimo é o mais rápido, enquanto o indicador é o mais lento, no treino imaginativo e no prático." Segundo ele, o treino imaginativo poderia ser usado por pacientes em recuperação para auxiliar a reabilitação de certas habilidades, como andar. "Caminhar envolve cálculos mentais precisos e inconscientes que ativam sub-rotinas como se inclinar, equilibrar-se e frear", explica. O treino imaginativo pode ajudar a aperfeiçoá-las antes que o paciente seja capaz de executá-las. Mas o biólogo adverte que o treino é mais eficiente para atividades que dependem de esforço mental. "O desafio não é aumentar a força, mas aperfeiçoar a precisão dos cálculos mentais da ação em questão."

Um hormônio sexual e sensorial

Um estudo feito em aves e conduzido por um brasileiro na Universidade de Rochester, em Nova Iorque (Estados Unidos), abre as portas para o desenvolvimento de novas terapias para mulheres que sofrem de deficiência auditiva associada à carência hormonal. A equipe descobriu que o estrogênio, o principal hormônio feminino, é essencial para o processamento das informações sonoras no cérebro e a formação da memória auditiva. O estrogênio é conhecido por afetar processos como a diferenciação sexual e o humor. Já se sabe também, desde a década de 1980, que o desempenho auditivo está relacionado aos níveis desse hormônio no sangue. Mulheres que se submeteram à retirada dos ovários ou que sofrem de síndrome de Turner, por exemplo, apresentam deficiência de estrogênio e perda da audição. Mas os cientistas achavam que o hormônio agia nas células do ouvido. O novo estudo, publicado na semana passada no Journal of Neuroscience, mostra pela primeira vez que um hormônio sexual pode afetar a função auditiva no cérebro.
Tentilhão macho (com a bochecha laranja) olha para uma fêmea, ambos pousados sobre a estrutura molecular do estradiol (um tipo de estrogênio) com o sonograma (gráfico que mostra a relação entre frequência e tempo dos sons) do canto dos pássaros ao fundo (arte: Raphael Pinaud). Os pesquisadores, liderados pelo neurocientista brasileiro Raphael Pinaud, analisaram o processamento de estímulos sonoros no cérebro de tentilhões, pássaros que cantam uma única canção que é aprendida após o nascimento, o que faz com que sejam bastante usados em estudos sobre a biologia da comunicação vocal. Esses animais utilizam o reconhecimento do canto para definir seu comportamento em diversas situações, como distinguir parceiros da mesma espécie de competidores. A equipe inseriu eletrodos para monitorar a atividade dos neurônios em uma parte do cérebro dos tentilhões análoga à área cerebral humana responsável pelo processamento auditivo. Essa região é necessária para a formação da memória auditiva dos tentilhões e seus neurônios são seletivos para cantos da espécie. Além disso, pesquisas anteriores mostraram que algumas dessas células nervosas produzem estrogênio. Após injetarem pequenas quantidades de estrogênio dentro dessa região cerebral e apresentarem o canto de outros tentilhões aos pássaros, os pesquisadores verificaram o aumento quase instantâneo da sensibilidade dos neurônios para captar e interpretar a informação auditiva. Segundo Pinaud, esse efeito ocorre porque o hormônio diminui a ação de neurotransmissores inibitórios nos neurônios. Efeito instantâneo “O mais surpreendente é que o efeito do estrogênio acontece em uma escala de milissegundos, o que contraria a visão de que os hormônios levam dias, meses e até anos para agir sobre o organismo, como acontece, por exemplo, na diferenciação sexual”, diz Pinaud à CH On-line. “O estrogênio está funcionando como neurotransmissor, e não como hormônio sexual.”
Quando foram injetadas nos tentilhões drogas que bloqueiam a ação do estrogênio ou que impedem a produção do hormônio dentro dos neurônios, o processamento dos estímulos sonoros foi quase completamente paralisado. “Apesar de ouvirem, podemos dizer que os pássaros estavam virtualmente surdos, porque só é possível escutar quando o cérebro processa a informação auditiva”, avalia o neurocientista. À medida que o efeito das drogas desaparecia, os neurônios recuperavam a função. Os pesquisadores também verificaram que o estrogênio tem um segundo papel. Além de modular o alcance dos neurônios no processamento da informação sonora, o hormônio ativa genes necessários para a formação da memória auditiva nos tentilhões, mesmo quando os pássaros não recebem qualquer estímulo sonoro. Segundo Pinaud, o estrogênio pode ainda estar envolvido no controle de outros tipos de processamento sensorial. “Descobrimos que o sistema visual de ratos e macacos também tem células que produzem estrogênio”, conta o neurocientista. O grupo agora busca entender as vias moleculares específicas que levam o estrogênio a agir sobre o processamento da informação sonora no cérebro, o que poderá no futuro dar origem a terapias hormonais para tratar deficiências auditivas. “É preciso criar meios de entregar o hormônio localmente em certas regiões cerebrais, pois o aumento de suas taxas em outras áreas do sistema auditivo pode gerar problemas como a diminuição da sobrevida dos neurônios no ouvido”, alerta o pesquisador.

Voluntários “saem de seu corpo” em laboratório

A ciência deu um passo importante para explicar um intrigante fenômeno da mente humana: o caso de indivíduos que afirmam ter tido a sensação de “sair de seu próprio corpo" e enxergá-lo de fora. Com a ajuda da tecnologia de realidade virtual, cientistas conseguiram reproduzir esse fenômeno em laboratório. Os resultados ajudam a entender como construímos a consciência de nosso corpo e podem ter aplicações futuras na medicina, na indústria do entretenimento e em outras áreas. Relatos de indivíduos que afirmam ter “saído de seu corpo” não são novos na ciência. Esse tipo de experiência parece estar associado a um funcionamento anormal do cérebro: o fenômeno pode ocorrer em decorrência de acidentes vasculares cerebrais, de crises de epilepsia ou do consumo excessivo de drogas. No entanto, a neurociência não tinha até aqui uma explicação convincente para o fenômeno. Isso pode mudar com a publicação de dois artigos na edição desta semana da revista Science .
Em um deles, o neurocientista sueco Henrik Ehrsson, em trabalho feito no University College London, na Inglaterra, apresenta um método para induzir experimentalmente esse fenômeno em indivíduos saudáveis. Um participante fica sentado em uma cadeira, munido de óculos de visão tridimensional usados comumente em aparelhos de realidade virtual. Cada uma das lentes reproduz as imagens transmitidas por duas câmeras situadas atrás desse indivíduo, filmando suas costas.
O intuito do aparato era investigar se os voluntários poderiam perceber o corpo que estavam enxergando como o seu próprio. Para isso, o neurocientista estimulou, com um bastão de plástico, o peito do participante, ao mesmo tempo em que simulava tocar, fora do campo de visão das câmeras, a região em que deveria estar o peito do corpo virtual que os voluntários estavam enxergando . O resultado confirmou a hipótese do pesquisador: em questionários respondidos após dois minutos de estímulo, os participantes relataram que haviam percebido o corpo que estavam vendo pelos óculos como o seu próprio, como se tivessem se enxergando de fora. A sensação não foi percebida quando o toque no peito real e no peito ilusório dos participantes não era feito de forma simultânea. Ameaça com martelo Para reforçar sua conclusão, Ehrsson fez um segundo experimento: após o estímulo com o bastão, ele ameaçou ferir com um martelo o corpo virtual dos voluntários e mediu o nível de transpiração da sua pele, como um indicador da resposta emocional à ameaça. Os resultados mostram que a resposta foi mais intensa nos casos em que o estímulo ao peito real e ao peito ilusório havia sido feito de forma simultânea, ou seja, os voluntários reagiram como se fossem ter seu próprio corpo atingido pelo martelo. Em outro artigo na mesma edição da Science , a equipe de Olaf Blanke, da Escola Politécnica Federal, em Lausanne (Suíça), apresentou um método similar, também baseado nas tecnologias de realidade virtual, para induzir em indivíduos saudáveis a sensação de "sair do corpo". No experimento, após estimular simultaneamente o corpo real e o corpo virtual dos participantes, os pesquisadores deslocavam-nos e pediam que retornassem à posição original. Os voluntários caminhavam na direção do local em que haviam visto seus corpos virtuais. As conclusões dos dois estudos são parecidas: os cientistas acreditam que um conflito entre os circuitos cerebrais envolvidos no processamento das informações sensoriais da visão e do tato pode estar por trás do fenômeno. "Disfunções cerebrais que interferem na interpretação dos sinais sensoriais podem ser responsáveis por alguns casos clínicos desse fenômeno", afirma Erhsson. "No entanto, ainda não se sabe se todos os casos de indivíduos que afirmam ‘sair de seu corpo’ se explicam por esse motivo." Os resultados são importantes para entender como os estímulos sensoriais afetam a construção da consciência que os indivíduos têm de si mesmos e de seu corpo. Além disso, eles abrem as portas para aplicações tecnológicas interessantes. "Imagine as implicações caso consigamos projetar as pessoas em um personagem virtual", especula Ehrsson. "Um cirurgião poderia conduzir uma operação à distância, controlando seu eu virtual a partir de uma localidade remota. E a experiência dos jogos eletrônicos poderia atingir um patamar totalmente novo."

Som altera percepção visua

Estímulos auditivos podem afetar significativamente a percepção visual. É o que mostra um trabalho desenvolvido por cientistas do Instituto de Tecnologia da Califórnia (Caltech). Eles descobriram que a audição altera a atividade de áreas no cérebro humano envolvidas com o processamento de estímulos visuais. "Nosso estudo indica que o mais importante para o homem e os demais animais não é um sentido em particular, mas as interações entre os diversos sentidos", disse à CH on-line o professor de computação Shinsuke Shimojo, um dos responsáveis pela pesquisa. O trabalho foi publicado em dezembro na revista NeuroReport. Inicialmente, os cientistas verificaram experimentalmente que, quando exposto a um flash de luz acompanhado por dois ruídos, um observador acreditava ter visto dois flashes ao invés de apenas um. O segundo flash percebido por ele é uma ilusão causada pelo som, ou seja, não é resultado de nenhum estímulo visual. Os pesquisadores descobriram ainda que, quando o som altera a percepção visual, também a atividade de certas regiões no cérebro é afetada. Essa mudança na percepção visual induzida pelo som poderia em princípio ser provocada por alterações em duas áreas distintas do cérebro: a responsável pela combinação dos estímulos de vários sentidos ou a exclusivamente envolvida no processamento da informação visual. Nas condições em que o estudo foi desenvolvido, os cientistas concluíram que a região cerebral associada especificamente à visão era a afetada pelos estímulos auditivos. Além disso, as atividades medidas nas áreas visuais do cérebro quando realmente havia um segundo estímulo visual e quando havia apenas a ilusão provocada pelo som foram muito semelhantes. Desse modo, os pesquisadores concluíram que, nas áreas visuais do cérebro, estímulos auditivos e visuais são capazes de induzir efeitos semelhantes. Os resultados dessa pesquisa sugerem que as informações captadas por cada sentido não são processadas isoladamente, o que pode ter implicações diretas e indiretas. "Entre as implicações diretas, podemos destacar alterações nos métodos laboratoriais de análise e interpretação de dados, assim como mudanças nos livros que tratam da percepção", explica Shimojo. "Indiretamente, podemos citar aplicações no tratamento e educação de crianças deficientes, no desenvolvimento de jogos e na avaliação de diferenças e talentos individuais."

O doce sabor da vingança

Pela primeira vez, o sentimento de prazer diante do sofrimento de um desafeto foi verificado no cérebro de voluntários humanos em um estudo científico. A reação foi observada pela equipe da psicóloga Tania Singer, da University College London, na Inglaterra, em um jogo comumente usado para testar modelos de cooperação em estudos de economia e neurociência. O experimento mostrou ainda que ações egoístas de uns podem ativar no cérebro de outros áreas ligadas ao desejo de vingança.
A equipe reuniu 32 voluntários e quatro atores disfarçados para jogar uma versão do ‘Dilema do prisioneiro’ (ver “Um clássico da teoria dos jogos”). Na variante proposta por Singer, os indivíduos receberam fichas que representavam dinheiro. Elas podiam ficar guardadas com o jogador ou ser investidas para a obtenção de um possível retorno maior. Para isso, o indivíduo precisava confiar no próximo jogador, que podia devolver uma quantia generosa de fichas ou ficar com todo o lucro. A decisão entre ficar ou não com as fichas cabia aos atores disfarçados. Enquanto uns foram escalados para jogar em cooperação com os adversários, outros jogaram de modo egoísta, guardando as fichas para si.
Na segunda parte do estudo, grupos de três participantes do jogo – um voluntário, um ator altruísta e outro egoísta – foram postos em uma roda, de modo que todos pudessem se ver. Todos receberam choques elétricos na mão. Enquanto o voluntário assistia à punição dos atores, a equipe de psicólogos e neurocientistas monitorava suas reações cerebrais, por meio de ressonâncias magnéticas.
Os pesquisadores perceberam que, em voluntários de ambos os sexos, áreas do cérebro ligadas à dor (região fronto-insular e córtex cingulado anterior) foram ativadas quando jogadores altruístas foram punidos. Já quando os egoístas foram castigados, essas respostas diminuíram, principalmente entre os homens. Ao mesmo tempo, áreas do cérebro ligadas à recompensa e ao desejo de vingança se expressaram com mais intensidade.
Aparentemente, a neurociência acaba de verificar a pertinência do dito popular segundo o qual “pimenta no dos outros é refresco”. Mas os autores do estudo são mais comedidos: “Concluímos que, ao menos no homem, as respostas empáticas são influenciadas pela avaliação do comportamento social das pessoas”, relatam os pesquisadores no artigo publicado na revista Nature desta semana.

Lembrança apagada

Um estudo feito por neurocientistas brasileiros e argentinos confirmou que a dopamina tem papel central no armazenamento durável das memórias de longo prazo. Ratos que tiveram injetada no cérebro uma substância capaz de inibir a ação desse neurotransmissor tiveram apagada a memória de um evento traumático ao qual tinham sido submetidos. O resultado ajuda a entender a formação e durabilidade das memórias de longo prazo e abre as portas para que, um dia, os impactos de lembranças ruins possam ser atenuados. O estudo, publicado esta semana na revista Science, foi realizado por uma equipe do Centro de Memória do Instituto do Cérebro da Pontifícia Universidade Católica do Rio Grande do Sul (PUCRS) liderada por Martín Cammarota.
ao pisar em barras de bronze eletrificadas no fundo de uma caixa de vidro. Em seguida, os roedores que haviam sofrido o choque forte receberam injeções no cérebro de antagonistas do receptor para dopamina, ou seja, capazes de inibir a ação desse neurotransmissor. Os animais que haviam sofrido o choque fraco receberam doses de agonistas desse neuroreceptor, capazes de estimular sua ação. As drogas foram injetadas imediatamente após o choque, nove ou 12 horas depois. Nos dias seguintes, os pesquisadores testaram se a memória traumática persistia com um teste simples: os ratos eram colocados novamente na caixa de vidro. Os animais que ainda se lembravam do choque relutavam em pisar no fundo do recipiente. Os neurocientistas suspeitavam que a dopamina e seus receptores tinham ação direta sobre a durabilidade das memórias de longo prazo. Eles esperavam que incentivar a ação desse neurotransmissor deveria aumentar a persistência dessas memórias nos ratos, e que inibi-la poderia levar a um efeito contrário. Não deu outra. Persistência da memória Os animais que receberam antagonistas dopaminérgicos imediatamente ou nove horas após o trauma não tiveram qualquer alteração no período de retenção da memória. Já aqueles que receberam a droga 12 horas depois do treinamento já não se lembravam mais do choque uma semana após o teste. Nos ratos de controle, que não haviam recebido qualquer injeção, a lembrança do choque forte persistiria por duas semanas. Já os animais que receberam injeções de agonistas dopaminérgicos 12 horas após o choque retiveram a lembrança por até 14 dias. Novamente, a durabilidade da memória foi alterada: os animais de controle esqueceram o choque fraco em dois dias ou menos. Para Martín Cammarota, os resultados demonstram a importância da dopamina para o armazenamento da memória de longo prazo. “Isso pode ter implicações profundas na produção de fármacos e no tratamento de comportamentos compulsivos e relacionados com o vício”, avalia. Mas o neurocientista refuta a perspectiva de que um dia se crie um método para apagar lembranças específicas, como se vê no filme Brilho eterno de uma mente sem lembrança. “Se apagar significa deixar um buraco no lugar da memória, isso não vai ser possível”, pondera. “Creio que poderemos diminuir o impacto da memória conjugando tratamento farmacológico e psiquiátrico. Isso não está longe.” Seja como for, Cammarota frisa que os resultados publicados por sua equipe esta semana permitem apenas aumentar o conhecimento dos cientistas sobre os processos de consolidação e persistência da memória, sem maiores implicações práticas por enquanto. Testes com humanos iguais aos realizados com os ratos não estão nos planos da equipe da PUCRS, que inclui ainda os neurocientistas Janine Rossato, Lia Bevilaqua, Iván Izquierdo e Jorge Medina. Cammarota afirma, entretanto, que o grupo pretende estudar o efeito de fármacos de fundo dopaminérgico – como antidepressivos e antipsicóticos – sobre a persistência da memória.

Hormônio explica atração por comida

A visão de um suculento bolo de chocolate o deixa com água na boca, enquanto a imagem de uma viçosa couve-flor pouco desperta seu apetite? Um hormônio chamado leptina pode estar por trás desse comportamento, segundo descobriram cientistas da Universidade de Cambridge, no Reino Unido. Eles mostraram que a atração pela comida é regulada por uma região específica do cérebro que é ativada de forma diferenciada em indivíduos que não produzem letpina devido a uma doença congênita. "Nosso estudo mostrou que a atração pela comida é guiada pela biologia. Comer demais pode estar ligado a certos hormônios e mecanismos químicos no cérebro", explica à CH On-line a neurocientista Sadaf Farooqi, autora principal do trabalho. "Para obtermos formas mais eficazes de prevenir e tratar a obesidade, precisamos entender por que algumas pessoas comem excessivamente e demos um primeiro passo nesse sentido." A leptina é uma velha conhecida dos estudiosos da alimentação. Já se sabia que esse hormônio produzido por células adiposas é responsável por regular o apetite, desencadeando a sensação de saciedade quando a necessidade de energia do organismo foi satisfeita. Os cientistas britânicos descobriram que ela está envolvida também nos mecanismos que nos levam a desejar os alimentos. Os pesquisadores estudaram dois pacientes que sofrem de uma doença rara – a deficiência congênita de leptina, que faz com que eles não produzam esse hormônio e, por isso, comam descontroladamente e tenham sérios problemas de obesidade. Essa doença pode ser tratada com a administração de leptina recombinada, que ajuda a estabelecer um padrão normal de alimentação.
No estudo, foram mostrados aos pacientes fotos de diferentes alimentos e outros objetos (como árvores ou carros) antes e depois do tratamento com leptina. Entre os alimentos mostrados, havia desde iguarias apetitosas, como bolo de chocolate ou morangos, até itens menos unânimes, como brócolis ou couve-flor. Com a ajuda de um aparelho de ressonância magnética funcional, os autores monitoraram as regiões do cérebro ativadas em resposta à visão das imagens. Alimento apetitoso, ativação intensa Os resultados do teste, publicados esta semana na revista Science , mostram que as imagens de comida ativavam áreas do cérebro conhecidas como regiões estriatais, entre as quais se destaca o núcleo acumbente. Nos pacientes, a ativação era intensa tanto após várias horas de jejum quanto logo depois das refeições. Além disso, ela se mostrou mais forte em resposta aos alimentos mais apetitosos. Uma vez que os pacientes receberam o tratamento com leptina, a ativação das regiões identificadas passou a ser detectada apenas antes das refeições, após um período mais longo de jejum – assim como acontece em indivíduos saudáveis, monitorados como grupo de controle do estudo. O estudo traz pistas importantes para entender como interagem o sistema que regula a fome e a saciedade e os mecanismos cerebrais que controlam nossa atração pelos alimentos. "Se identificarmos no cérebro as moléculas que controlam esse comportamento, elas podem ser bons alvos para o desenvolvimento de drogas contra a obesidade", acredita Sadaf Farooqi. Mas a neurocientista reconhece que a aplicação terapêutica da descoberta de sua equipe ainda é uma perspectiva distante. "Num plano mais imediato, queremos entender como diferentes alimentos ativam certas partes do cérebro e como defeitos em alguns genes podem afetar esses mecanismos", conta ela

Cientistas desvendam a perda do medo

Pesquisadores da Universidade de Nova York desvendaram o funcionamento do cérebro humano quando nos vemos livre do medo de algo. Mais do que um mero esquecimento desse temor, o que ocorre é uma aquisição de conhecimento: o cérebro aprende o não-medo.
)O estudo revelou pela primeira vez detalhes das regiões cerebrais mais ativas nesse processo. Duas áreas estão envolvidas: uma pequena estrutura chamada amígdala, que constitui a chave para aprender o medo e seu ’esquecimento’, e uma região conectada a ela, o córtex pré-frontal, provavelmente essencial para memorizar a perda do medo. Os pesquisadores submeteram voluntários a um experimento bem simples: eles observavam em um monitor quadrados amarelos e azuis em diferentes seqüências. Em algumas aparições da figura azul, os participantes recebiam um choque aplicado por um eletrodo. "Os voluntários aprenderam que essa cor significava um choque em potencial, enquanto o amarelo indicava que a descarga não ocorreria", explica o neurocientista brasileiro Mauricio Delgado, pesquisador da Universidade de Nova York. Radicado nos Estados Unidos há 17 anos, Delgado é um dos quatro autores do estudo, publicado em 16 de setembro na revista Neuron. Antes do teste, foi permitido aos voluntários estabelecer o nível da descarga que iriam receber para que fosse desconfortável e não doloroso. Delgado explica que o medo dos quadrados azuis, associado à concretização da experiência temida -- o choque recebido em algumas aparições daquela figura -- ativava no cérebro dos participantes a área da amígdala. No mesmo dia em que o medo havia sido adquirido, os voluntários foram submetidos a uma nova sessão de testes -- desta vez, para avaliar como reagiam à extinção do medo. O mesmo exame foi aplicado, mas quando o quadrado azul aparecia, não havia descarga elétrica. Uma nova sessão de testes sem qualquer choque foi realizada no dia seguinte. O cérebro dos voluntários foi monitorado durante as sessões por um aparelho de ressonância magnética. O aumento de atividade na amígdala já era esperado pelos pesquisadores, devido ao resultado de estudos anteriores. O que surpreendeu a equipe foi o padrão de ativação dessa região nos casos em que a ausência do choque era associada ao quadrado. "A amígdala codificou informações sobre o evento e alterou a resposta quando o novo dado se encontrou disponível e, assim, considerou o seu esquecimento como uma aquisição de conhecimento", afirmam os pesquisadores no artigo. Segundo os cientistas, a atividade no córtex pré-frontal sugere que ele está associado à assimilação da extinção do medo. "Entender como o medo é adquirido é um passo importante para desenvolver tratamentos para fobias relacionadas a desordens como ansiedade e estresse pós-traumático", ressalta Delgado. "No entanto, compreender como os temores são reduzidos pode ser ainda mais precioso." Os pesquisadores destacam que os resultados podem servir de base para aprimorar um modelo do mecanismo de apreensão do medo e seu esquecimento, que permitirá avaliar se esse processo funciona da mesma forma em diferentes espécies.

A “viagem” de LSD em escala molecular

O LSD e outras drogas alucinógenas podem provocar no usuário a visão de cores e formas e distorções na percepção do tempo e dos sentidos. No entanto, o mecanismo preciso de seu efeito no cérebro era pouco conhecido até aqui. Esse panorama começou a mudar esta semana, com a publicação de um estudo norte-americano na revista Neuron . O grupo de Stuart Sealfon, da Escola de Medicina Monte Sinai, em Nova York, identificou mecanismos moleculares do efeito de drogas alucinógenas como o LSD, a mescalina e a psilocibina, encontrada em cogumelos. O estudo pode trazer pistas para o entendimento de substâncias usadas para tratar distúrbios psíquicos. Já era sabido que as drogas alucinógenas desencadeiam a ativação de receptores neuronais conhecidos com 2AR, que são acionados pela serotonina, um composto sintetizado normalmente no cérebro e envolvido na transmissão de informação entre os neurônios. No entanto, os mecanismos dessa ativação em escala molecular não eram bem conhecidos. Para entender o processo em detalhes, a equipe de Sealfon realizou experimentos com camundongos que receberam diferentes substâncias sabidamente capazes de ativar os receptores 2AR. Entre elas, estavam LSD, mescalina e psilocibina, mas também compostos que não têm qualquer efeito alucinógeno. Os pesquisadores observaram o efeito das substâncias tanto sobre o comportamento dos roedores quanto em escala molecular. Para isso, eles monitoraram a atividade de genes envolvidos na síntese dos receptores 2AR. “Constatamos que as substâncias alucinógenas e as não alucinógenas provocam uma resposta distinta nesses receptores”, afirmou Sealfon à CH On-line . A equipe identificou mecanismos específicos de sinalização celular desencadeados apenas pelas drogas alucinógenas. Próximos passos Há muito ainda a ser feito, no entanto, até que a ação dos alucinógenos seja plenamente entendida. “Não sabemos, por exemplo, como os receptores 2AR são ativados do ponto de vista estrutural”, afirma Sealfon. “Precisamos entender como a interação dessas estruturas com outros receptores e mecanismos de sinalização leva às mudanças de comportamento provocadas pela droga”, acrescenta. “A química cerebral por trás do comportamento humano é muito complexa.” De qualquer forma, os cientistas acreditam que os resultados podem esclarecer como agem substâncias que, embora usadas na medicina psiquiátrica, não têm seu funcionamento bem entendido. “O mecanismo que identificamos pode ser relevante para explicar o funcionamento de drogas usadas para tratar a depressão ou a psicose, por exemplo”, afirma Sealfon.

Muito além da feijoada

Sempre associados a sujeira e falta de higiene, os porcos podem ser agora a mais nova fonte de energia alternativa, limpa e renovável. É que um grupo de cientistas do Centro de Pesquisas em Energias Alternativas e Renováveis (CPEAR), da Universidade do Sul de Santa Catarina (Unisul), acaba de desenvolver um novo processo que permite obter energia elétrica a partir de dejetos suínos sem liberação de gases poluentes. Além de oferecer uma opção a mais de acesso à energia, a técnica ajudará a reduzir a poluição de solos e mananciais, um problema cada vez mais grave no Sul do Brasil, onde a suinocultura é uma das principais atividades em pequenas e médias propriedades rurais.
O engenheiro João Luiz Alkaim, coordenador do CPEAR, conta que a geração de energia a partir de agentes poluentes já é realizada há muito tempo, por meio da combustão do gás metano liberado pelo lixo orgânico em decomposição. “A novidade é que agora não há queima”, explica. “O sistema extrai gás hidrogênio do dejeto suíno e, a partir desse hidrogênio, é possível construir uma célula combustível, espécie de bateria altamente eficiente.” O Biogás-H, como é chamado o sistema, funciona em três etapas. Primeiro, os dejetos são lançados em um biodigestor anaeróbico, que decompõe a matéria orgânica digerível por bactérias e a transforma em biogás. O efluente que sobra desse processo pode ser usado para fins agrícolas, como adubo. A segunda etapa é a de limpeza do biogás. Dali sai o gás metano puro, que vai para um reformador, misturado a vapor d’água. O reformador é o equipamento que extrai o gás hidrogênio, que poderá, finalmente, ser injetado em uma célula combustível. A célula combustível é capaz de gerar eletricidade a partir de uma reação química, usando como reagentes apenas hidrogênio e oxigênio. “Por ser muito eficiente e não emitir substâncias poluentes, será a fonte de energia do futuro”, prevê Alkaim. Como subproduto, a célula gera água pura, que, misturada a sais minerais, se torna potável. Suinocultura Estaria aí a solução para um sério problema enfrentado em Santa Catarina. O estado detém o maior rebanho de porcos do país, com aproximadamente 4,5 milhões de cabeças (17% da população nacional de suínos). Esse número parece ainda maior se correlacionado à pequena extensão territorial do estado, que ocupa apenas 1,12% do território brasileiro. Mas os órgãos ambientais consideram a suinocultura uma atividade potencialmente causadora de degradação do meio ambiente, por causa dos dejetos produzidos pelos animais. O crescimento acelerado da atividade trouxe consigo a produção de grande quantidade de matéria fecal, que, por falta de tratamento adequado, se transformou na maior fonte poluidora dos mananciais de água nas áreas onde é praticada. Foi daí que surgiu a idéia de utilizar o dejeto suíno na produção de energia. “Além de reduzir a poluição, é possível, com o rebanho que temos, abastecer pequenas cidades com energia proveniente de células combustíveis”, diz o engenheiro. Alkaim conta que a energia gerada pelos dejetos produzidos por um rebanho de mil suínos foi estipulada em 2,5 kW (quilowatts) por hora, em média – o suficiente para atender à demanda de uma escola ou três casas. Ele conta ainda que o mesmo processo pode ser realizado com dejetos de outros animais. O projeto, que conta com a parceria da Eletrosul e da iniciativa privada, deve colocar o primeiro protótipo em funcionamento ainda neste semestre. “Em breve, será possível a produção em larga escala”, diz.

Uma observação de peso para a tabela periódica

O hássio, elemento químico artificial de símbolo Hs e número atômico 108, não está presente na crosta terrestre, não tem cor definida e, por ser extremamente instável, é quase impossível de ser estudado. Na época da sua descoberta, em 1984, esse metal pesado foi obtido em laboratório com uma meia-vida de apenas 1,5 milissegundo -- período demasiadamente curto para que fosse usado em qualquer experimento. Recentemente, um grupo de pesquisadores coordenados pelo químico Christoph Düllmann, da Universidade de Berna (Suíça), desenvolveu uma técnica capaz de obter átomos de hássio mais facilmente observáveis. O feito foi descrito em 22 de agosto na revista Nature.
cientistas obtiveram artificialmente sete átomos desse metal com uma meia-vida de dez segundos. Com isso, o hássio se torna o elemento mais pesado cujas propriedades químicas foram estudadas. O grupo responsável pela proeza foi o mesmo que descobriu o elemento há dezoito anos, no centro de pesquisa de íons pesados GSI, situado no estado de Hesse, na Alemanha (vem daí o nome hássio). Na época em que foi descoberto, o hássio foi obtido a partir da fusão de átomos de ferro e chumbo, de número atômico 26 e 82. No entanto, os pesquisadores precisaram esperar doze anos até que obtivessem uma forma mais estável desse elemento. Em 1996, enquanto tentava sintetizar o unúmbio (um outro elemento superpesado, de número atômico 112), o grupo do GSI descobriu um isótopo de hássio, com meia-vida de nove segundos. Ao reagir com o oxigênio, o isótopo formou o gás HsO4, e comportou-se como os outros membros da mesma coluna da tabela periódica (como ósmio e rutênio). Para produzir um isótopo mais estável ainda, os pesquisadores fundiram átomos de magnésio e cúrio (de número atômico 12 e 96). Por causa de suas propriedades intrínsecas, nem todos os elementos pesados se comportam da maneira apresentada pelo hássio. Nos elementos químicos que possuem núcleos muito grandes, os elétrons em órbita muito próxima do núcleo se movem tão rapidamente que o comportamento dos átomos fica à beira do caos. Nesses casos, somente a teoria da relatividade pode explicar seu comportamento, o que dificulta o estudo desses superelementos. "Elementos mais pesados que o urânio têm que ser criados artificialmente, geralmente a partir do ’bombardeio’ de um alvo estacionário por um feixe de íons", explica Kendall Powell, que comentou o experimento na Nature. "Poucas colisões resultam na criação do elemento desejado, e por isso o processo é muito lento. E os elementos pesados tendem a não ser estáveis -- muitos deles decaem em elementos mais leves em segundos." Por isso, poucos novos elementos foram acrescidos à tabela periódica desde os anos 1940 -- o mais pesado já incorporado é o unúmbio.

Origem do sal nos Vales Secos da Antártida

Uma explicação para as concentrações de sal misteriosamente altas nos solos expostos nos Vales Secos da Antártida foi proposta por uma equipe de químicos da Universidade da Califórnia em San Diego, Estados Unidos, liderada por Huiming Bao. Segundo eles, o fenômeno se deve a emissões biológicas de enxofre nos oceanos que circundam o continente. O depósito atmosférico de sulfatos provenientes de algas marinhas emissoras de enxofre seria o principal responsável pela alta concentração de sal. A descoberta foi feita a partir da análise química de amostras de solo recolhidas na região e publicada na edição de 28 de setembro da revista Nature.
Durante décadas, os pesquisadores apontaram diversas possíveis explicações para as altas concentrações de sal nos Vales Secos da Antártida: um antigo mar que um dia teria coberto a região; os fortes ventos antárticos que teriam carregado para o continente o sal do mar; sulfatos biologicamente produzidos; erosão química e física de rochas ou atividade hidrotermal. Os pesquisadores constataram uma anomalia em um isótopo de oxigênio nos sulfatos que eles recolheram dos solos da região localizada próxima à estação antártica norte-americana McMurdo. A descoberta levou-os a concluir que esses sulfatos vieram de gases sulfúricos que haviam sofrido reações químicas na atmosfera e foram transportados para os Vales Secos. Como a Antártida fica a milhares de quilômetros das fontes de gases sulfúricos produzidos pelo homem devido à queima de combustíveis fósseis, os cientistas deduziram que esses sulfatos vieram majoritariamente das algas produtoras de enxofre abundantes no oceano em torno do continente.
A equipe de Huiming Bao constatou que, nas áreas dos Vales Secos próximas à costa, os sulfatos biologicamente produzidos respondiam por uma menor fração da quantidade total de sal. No entanto, à medida que se avança em direção ao continente, essa proporção aumenta substancialmente. Os pesquisadores descobriram também que regiões mais profundas dos Vales Secos apresentavam concentrações bastante maiores que a superfície de sulfatos biologicamente produzidos. As condições dos Vales Secos da Antártida são semelhantes às encontradas em Marte. Por isso, as observações podem ter implicações na busca de indícios de vida presente ou passada no planeta vermelho, assim como no entendimento das interações químicas entre sua atmosfera e superfície. A pesquisa ajuda a compreender alguns dos fenômenos que ocorrem em ambientes extremos como o de Marte.

Plástico amigo do meio ambiente

O lixo urbano é um problema para as grandes cidades, agravado pelo aumento do uso de embalagens descartáveis. Para tentar reduzir o descarte inadequado e incentivar a reciclagem de garrafas de plástico do tipo PET (politereftalato de etila) usadas, que levam até 500 anos para se decompor na natureza, a Universidade da Região de Joinville (Univille), em Santa Catarina, e a Pontifícia Universidade Católica do Rio Grande do Sul (PUC-RS) desenvolveram, a partir desse material, um plástico que se degrada no solo em 45 dias. Para desenvolver o novo plástico, os pesquisadores adotaram o método da reciclagem química, em que as garrafas são lavadas, esterilizadas, cortadas e colocadas em um reator. Nesse aparelho, a garrafa PET original se une a um polímero biodegradável. Esse composto, ao contrário dos obtidos a partir do petróleo, como o PET, tem decomposição mais rápida. “Polímeros como o PET são formados por anéis aromáticos difíceis de serem quebrados durante a decomposição. Já os polímeros biodegradáveis são compostos por cadeias abertas, ou seja, não têm esses anéis, o que facilita o processo”, explica a coordenadora da pesquisa na Univille, a química Ana Paula Pezzin. “Assim, nasce um copolímero de fácil degradação, que em apenas 45 dias alcança estado bastante acelerado de decomposição.” A equipe avaliou as propriedades e a capacidade de degradação de diversas composições do material. Vários percentuais de quatro polímeros biodegradáveis diferentes foram adicionados ao PET pós-consumo. O tempo máximo de decomposição foi de sete meses – muito pouco se comparado às centenas de anos do PET tradicional. Realizada inicialmente pela química Sandra Einloft, da PUC-RS, a pesquisa conta com o apoio da Universidade Pierre e Marie Curie, da França. Segundo Pezzin, o desenvolvimento desses copolímeros é um marco no Brasil, já que o país é um dos campeões em reciclagem de garrafas PET. Dados da Associação Brasileira da Indústria do PET (Abipet) mostram que, em 2005, quase metade das embalagens usadas no Brasil passava por processos de reciclagem. No entanto, o material reciclado não pode voltar a ser usado para embalar alimentos ou bebidas. “Isso jamais seria aprovado”, diz Pezzin. “As pessoas não aceitariam colocar na boca algo que já esteve no lixo.” O material biodegradável pode ser empregado na confecção de embalagens para produtos de beleza, interruptores e materiais de decoração ou qualquer outro produto que seja rapidamente descartado. Os custos para produzir o polímero biodegradável ainda são maiores que os do PET tradicional, mas a pesquisadora alerta para a importância do produto. “Precisamos de alternativas aos materiais derivados de petróleo, já que um dia esse recurso vai se esgotar”, argumenta Pezzin. “Além disso, apesar das excelentes propriedades do PET, sua presença em aterros sanitários atrapalha a decomposição de outros materiais, pois dificulta a circulação de líquidos e gases que agem sobre o lixo orgânico.” Algumas empresas atentas a esses fatos já demonstram interesse em desenvolver novos materiais a partir dessa tecnologia e as negociações seguem em sigilo.

Tão duro quanto o diamante

Um material tão duro e resistente quanto o diamante e cuja produção não exige altas pressões. O diboreto de rênio (ReB 2 ), desenvolvido por pesquisadores da Universidade da Califórnia (Estados Unidos), pode ser sintetizado em grandes quantidades sob pressão ambiente. Apresentado em artigo da Science desta semana, o ReB 2 é uma alternativa mais simples e econômica para as indústrias, que usam materiais superduros como abrasivos e instrumentos de corte. O diamante , apesar de ser o elemento mais duro e resistente encontrado na natureza, tem limitações funcionais, como a incapacidade de cortar aço. Diversos compostos já foram desenvolvidos para esse fim, mas, até a criação do diboreto de rênio, era preciso altas pressões e, em alguns casos, elevadas temperaturas durante a produção, o que aumentava o custo do processo.