sexta-feira, 30 de outubro de 2009

Brasileira descobre sensores na face de réptil

Foi por acaso que Daphne Soares, pesquisadora brasileira radicada nos EUA, fez uma descoberta que ajuda a entender a evolução dos crocodilos. Soares estava na caçamba de uma picape no estado da Louisiana, sentada em cima de um aligátor, quando reparou pontos pretos na face do animal. A pesquisadora -- doutoranda pela Universidade de Maryland -- investigou os pontos e descobriu que eram sensores de pressão -- que ela batizou de DPRs (sigla em inglês para "receptores de pressão em cúpula"). A principal função dos DPRs é permitir aos répteis detectar pequenos distúrbios na superfície da água, o que facilita a caça noturna. Em um experimento, Soares cobriu a área dos sensores em aligátores; quando atingidos por gotas de água, eles não reagiram. A pesquisadora, que publicou seus resultados em 16 de maio na revista Nature, examinou fósseis de crocodilos e descobriu que nervos ativam os DPRs por meio de marcas deixadas no osso, chamadas foraminas. Com a análise de fósseis a pesquisadora descobriu que os DPRs já existiam em crocodilianos de vida semi-aquática do Período Jurássico (há cerca de 200 milhões de anos). "Formas extintas completamente terrestres ou aquáticas não tinham foramina como as outras."
"Esse estudo foi basicamente feito pela curiosidade cientifica, sem muita relação com o que eu estava trabalhando anteriormente", conta Soares. "Agora vou continuar nessa linha de pesquisa." O próximo passo é identificar outras funções para os DPRs: Soares acredita que eles também sirvam para a comunicação entre os répteis.

Lua obtida da Terra

Trinta e três anos após o homem pousar na Lua, foi registrada a mais nítida imagem da superfície lunar obtida da Terra na faixa infravermelha do espectro. A foto retrata uma área localizada na beira interna de uma cratera de 56 km de diâmetro, a Taruntius, cujas paredes, já gastas pela erosão, podem ser vistas no canto superior direito da imagem. A foto foi captada por uma lente especial instalada no telescópio Yepun de 8,2 metros de diâmetro do Very Large Telescope, que pertence ao European Southern Observatory. O telescópio fica no monte Paranal, no deserto do Atacama, Chile.
A imagem abrange uma área de cerca de 60 x 45 km², na face da Lua sempre voltada para a Terra. É possível ver na parte superior da foto uma enorme cratera de 10 km de diâmetro -- a Cameron. Além dela, há várias outras pequenas crateras e algumas montanhas. A fissura que corta a foto do centro até a margem direita é uma depressão de 50 km de extensão, uma formação que recebe o nome de rima.
A imagem tem a mesma nitidez que a visão de um astronauta a 400 km da superfície da Lua. Na hora da foto, o Sol encontrava-se a uma altura de cerca de 7 graus acima do horizonte oeste lunar, à esquerda. Por isso, as montanhas apresentam sombras enormes, que medem cerca de 8 vezes sua altura.

De raposas e ouriços

Entre 1977 e 1978, em plena Era Thatcher, morei em Londres, fazendo meu pós-doutoramento em genética bioquímica. Foi uma experiência inesquecível. Londres era menos afluente do que agora, mas culturalmente estava em ebulição. O teatro era maravilhoso, diferente de agora, quando as melhores salas de exibição ficam cronicamente ocupadas pelos triviais e longevos musicais de Andrew Lloyd Weber et al. Naquele ano assisti a várias peças com Alec Guinness, John Gielgud, Deborah Kerr, Ingrid Bergman, Joan Plowright e outros grandes ídolos do palco. O balé, a ópera e os concertos (havia várias opções todas as noites) eram fantásticos. Esse período abriu meus horizontes e mudou minha vida. Recomendo a todos aqueles que seguem carreira acadêmica que façam de seu pós-doutorado em outra cidade ou país uma experiência de vida completa, com forte componente cultural, mais do que simplesmente um período de trabalho laboratorial e de amadurecimento científico. Diálogos com filósofos
Pasme o leitor, até a televisão era boa na Londres da década de 1970! Particularmente importante e prazerosa para mim foi uma série de programas na BBC organizada por Bryan Magee na qual entrevistou 15 grandes filósofos. Essa série, na forma do livro Talking Philosophy: Dialogues with Fifteen Leading Philosophers, ainda está disponível na Amazon [“Falando de filosofia: diálogos com 15 grandes filósofos”]. Entre os entrevistados estavam Iris Murdoch, A. J. Ayer, Noam Chomsky, W. V. O. Quine, Herbert Marcuse, Ronald Dworkin, Hilary Putnam, Bernard Williams e John Searle, ou seja, a elite da filosofia em meados do século 20. O episódio que me impressionou mais profundamente foi o primeiro, intitulado, “O que é a filosofia?” com Isaiah Berlin (1909-1997), da Universidade de Oxford. Esse pensador era considerado o mais importante intelectual inglês da época. Isaiah Berlin nasceu em 6 de junho de 1909. Em outras palavras, ele faria 100 anos neste mês. Na sua edição de 31 de maio último, o caderno Mais! da Folha de S. Paulo fez uma bela homenagem a ele, com quatro páginas de artigos, entrevistas e citações. Devo confessar que havia décadas que eu não pensava em Berlin e essa publicação da Folha reavivou meu interesse por ele e sua obra. Algumas citações de Berlin lembradas no Mais! são joias preciosas. Vejam a força e a sabedoria desta:
“Poucas coisas têm sido mais prejudiciais que a crença por parte de indivíduos ou grupos (ou tribos ou Estados ou nações ou igrejas) em que ele, ela ou eles detêm a posse isolada da verdade. Especialmente em relação a como viver, o que ser e fazer – e de que aqueles que divergem deles não apenas estão equivocados, como são maus ou loucos e precisam ser freados ou suprimidos. É uma arrogância terrível e perigosa acreditar que você, e você apenas, tem razão; que possui um olho mágico que enxerga a verdade e que outras pessoas não podem estar certas se discordam disso.”
Daí o leitor já percebe que Isaiah Berlin era um pensador liberal e pluralista, do jeitinho que eu gosto. O pluralismo de Isaiah Berlin Nessa edição da Folha há um delicioso artigo do colunista João Pereira Coutinho (disponível aqui para assinantes do jornal), chamando a atenção para o livro Raposas e ouriços, do filósofo. Publicado em 1953, esse ensaio sobre a visão histórica do escritor russo Liev Tolstoi (1828-1910) tem uma introdução que se tornou uma brilhante elegia ao pluralismo. Abaixo, vai a minha tradução livre:
“Há uma sentença entre os fragmentos dos poemas do grego Arquíloco [século 7 a.C.] que diz: ‘A raposa sabe muitas coisas, mas o ouriço sabe apenas uma coisa importante’. Acadêmicos têm discutido qual é a interpretação correta dessas palavras sombrias, que podem significar nada além de que a raposa, em toda sua matreirice, é derrotada pela defesa única do ouriço. Entretanto, tomadas figurativamente, as palavras podem ser estendidas com o sentido que caracteriza uma das mais profundas diferenças que dividem escritores e pensadores e talvez mesmo seres humanos em geral. Pois existe um grande abismo entre aqueles que, por um lado, relacionam tudo a uma única visão central [...], um princípio organizador universal em termos do qual tudo que eles são e dizem encontra significado – e, do outro lado, aqueles que perseguem vários objetivos, frequentemente não relacionados e mesmo contraditórios [...]. Estes últimos levam vidas, agem e contemplam ideias que são centrífugas ao invés de centrípetas; seu pensamento é diverso ou difuso, movendo-se em muitos níveis, aproveitando-se da essência de uma vasta variedade de experiências e objetos [...]. O primeiro tipo de intelectual e personalidade artística pertence aos ouriços, o segundo às raposas...”
João Pereira Coutinho explica que Berlin não se limitou a vislumbrar essa diversidade, a cartografar a tensão entre o múltiplo e o uno. Ele foi mais longe ainda e mostrou que não são apenas os homens que desejam valores diferentes; os próprios valores podem ser distintos e às vezes incompatíveis – eles podem até ser incomensuráveis. Segundo Coutinho, a filosofia contemporânea ainda hoje discute as implicações do pluralismo de Berlin. Uma interpretação pessoal Em meu livro Humanidades sem raças?, publicado em novembro de 2008 pela Publifolha, e em algumas colunas anteriores ( O DNA do racismo , Epístola dezembrina ), propus um novo paradigma de estrutura da diversidade humana – o modelo genômico/individual. Esse paradigma, o único que creio ser biologicamente coerente, vê a espécie humana dividida não em raças ou populações, mas em seis bilhões de indivíduos, com graus diferentes de parentesco em suas várias linhagens genealógicas. De acordo com essa visão, que poderíamos chamar de “todos diferentes, todos parentes”, a noção de raças se esvanece como fumaça. Também já mencionei anteriormente a notável obra Identity and Violence (“Identidade e violência”) do economista indiano Amartya Sen (Nobel de 1998), na qual ele chama atenção para o fato de todos nós sermos, simultaneamente, membros de diferentes coletividades, cada uma das quais nos conferem uma identidade particular. Segundo ele, é a imposição ao indivíduo, pela sociedade, de uma identidade única, açambarcante e definitória, que está na gênese dos conflitos raciais, religiosos e étnicos.
O modelo genômico/individual é o único que não impõe qualquer limite à autodefinição plural de identidades pessoais, pois celebra a singularidade de cada indivíduo e valoriza a sua liberdade de assumir as identidades que escolher, sem a imposição de um rótulo originado de um grupo racial, étnico ou religioso. Deixo claro que esse modelo genômico/ individual não quer sugerir que as pessoas devam ser individualistas e não tomar parte de coletividades. Pelo contrário, o pertencimento à família, a grupos sociais e a nações é de extrema importância para o ser humano. Mas é exatamente a consciência de sua singularidade e de sua completa liberdade de se engajar em quantas coletividades desejar, sem qualquer obrigatoriedade externa imposta por vínculos de cor, de sexo, ou de nacionalidade, que permite a cada pessoa ter relacionamentos positivos e construtivos com outras que, como ela, são singulares em seus genomas e em suas histórias de vida. Esses relacionamentos devem ser estritamente voluntários e dinâmicos e não podem assumir características estruturais, definitórias do indivíduo. Dessa maneira, a participação em coletividades nunca deve cercear a adoção de múltiplas identidades e nunca deve servir de motivação ou justificativa para divisão, conflito e ódio.

Um Nobel tardio

O Prêmio Nobel de Física deste ano tem duas características notáveis. A primeira é que ele foi atribuído a cientistas que inventaram duas tecnologias revolucionárias e perfeitamente complementares. A metade do prêmio foi concedida ao chinês Charles Kuen Kao, pela invenção da fibra ótica. A outra metade foi dada ao canadense Willard Sterling Boyle e seu colega norte-americano George Elwood Smith, pela criação do dispositivo de carga acoplada (CCD, na sigla em inglês), utilizado como sensor de imagem.
Kao publicou seu primeiro trabalho sobre fibra ótica em 1966, nos anais da Institution of Electrical Engineering. Quatro anos depois, Boyle e Smith apresentaram o CCD no Bell Systems Technical Journal. Esse longo intervalo de tempo entre a divulgação da invenção e a premiação (43 anos para Kao e 39 para Boyle e Smith) é a segunda característica notável do Prêmio Nobel de Física deste ano. Entre os mais de 100 prêmios concedidos até hoje, apenas cinco apresentam intervalo superior a 40 anos entre a descoberta e a premiação. As duas invenções desempenham papéis importantes na atual sociedade da informação, mas o leque de aplicações tecnológicas do CCD é bem mais amplo. De sofisticados instrumentos científicos às mais simples máquinas fotográficas digitais, passando por inúmeros tipos de sensores, o CCD é uma presença constante em nosso cotidiano. Por essa razão, vamos dedicar esta coluna à sua descrição. Antes de enveredarmos pelos detalhes conceituais, vamos apresentar uma visão panorâmica. O CCD é um dispositivo que transforma impulsos luminosos em dígitos. Esse processo gera uma imagem digital. No início do processo, quando o feixe luminoso interage com a superfície do CCD, ocorre a liberação de elétrons por meio do efeito fotoelétrico. A quantidade de elétrons liberados é proporcional à intensidade do feixe. Para a captura de uma imagem colorida, é necessária a utilização de filtros para luz verde, vermelha e azul sobre a superfície do CCD. Um sofisticado sistema eletrônico transforma a carga elétrica liberada pelo efeito fotoelétrico em sinal digital. Agora vejamos como a invenção de Boyle e Smith tornou isso possível. Uma ideia simples e elegante Em 1969, os pesquisadores trabalhavam na divisão de semicondutores dos Laboratórios Bell, quando tiveram os investimentos em suas pesquisas ameaçados de redução, caso não descobrissem alguma inovação tecnológica para competir com as memórias de bolhas magnéticas, então em desenvolvimento em outra divisão da empresa. No dia 17 de outubro de 1969, depois de uma reunião que não durou mais de uma hora, eles esquematizaram a estrutura básica do CCD. A ideia era estonteantemente simples e elegante, mas os autores enfrentaram o ceticismo de alguns dos seus colegas. Algumas semanas depois, resolveram testar o modelo. Precisaram de apenas uma semana para fabricar o dispositivo e realizar os ensaios experimentais.
O elemento básico do CCD é uma espécie de sanduíche. A primeira fatia é um semicondutor (por exemplo, silício dopado com boro), a segunda é um óxido de silício e a última fatia é uma placa metálica. É possível criar, na camada semicondutora, uma espécie de cova. Tecnicamente, o sanduíche funciona como um capacitor (componente que armazena energia em um campo elétrico), sendo a cova conhecida como poço de potencial. É nesse poço de potencial que os elétrons liberados pelo efeito fotoelétrico são acumulados. Esse tipo de capacitor é conhecido como capacitor metal-óxido-semicondutor, ou simplesmente capacitor MOS. Ele tem dimensões micrométricas (o micrômetro é a bilionésima parte do metro) e é fabricado por meio de processos litográficos. O CCD é constituído de vários desses capacitores colocados lado a lado e separados por uma distância de aproximadamente 3 micrômetros. A funcionalidade inicialmente imaginada para o dispositivo consistia em transferir carga de um sanduíche para o vizinho. Dessa forma, a carga acumulada no elemento de uma ponta poderia ser transferida até o elemento da outra ponta, onde um sistema eletrônico poderia armazenar e manipular a informação. Para o funcionamento do CCD, são necessários três capacitores (tripleto) para registrar um bit. Assim que o funcionamento básico do dispositivo foi demonstrado, George Smith e dois colegas de laboratório construíram o primeiro protótipo de 8 bits para transferência de registros. Portanto, o protótipo foi construído com 24 capacitores, distribuídos lado a lado ao longo de aproximadamente 1.300 micrômetros. O dispositivo foi conectado a um sistema eletrônico para geração e controle de sinais analógicos e digitais. Em cada tripleto, o sinal é processado em 6 microssegundos, de modo que um sinal de 8 bit é registrado a cada 48 microssegundos. Se nesse intervalo aparecer alguma carga elétrica, o sistema registra bit “1”, caso contrário registra bit “0”. É assim que um sinal analógico é transformado em um sinal digital. Na descrição desse protótipo, publicada na edição de 1º de agosto de 1970 da Applied Physics Letters, os autores apresentaram a primeira imagem obtida com o CCD. Imediatamente, o dispositivo passou a ser empregado como sensor de imagem e tornou-se presente em muitas das nossas ações cotidianas. Para que o CCD seja usado como sensor de imagem, é necessária a colocação de material fotossensível (fotodiodo) na superfície do dispositivo. Nessa configuração, cada tripleto forma um pixel, sobre o qual se coloca um filtro de cor, confeccionado com diferentes tipos de materiais. Como o olho humano é mais sensível ao verde, 50% da superfície do CCD é coberta com filtros para essa cor. O restante da superfície é dividido entre filtros vermelhos e azuis. Na saída, o sistema eletrônico recompõe a imagem colorida. Aplicações comerciais O primeiro CCD disponível no mercado foi construído pela empresa norte-americana Fairchild Imaging em 1973 e continha 10.000 pixels (área de 100x100 pixels), ou seja, 0,01 megapixel. Em 1975, Steve J. Sasson, engenheiro da Kodak, utilizou esse CCD para construir a primeira máquina digital, ainda em preto e branco. Esse protótipo evoluiu rapidamente para versões comerciais mais potentes. No lugar do insignificante 0,01 megapixel, a Kodak desenvolveu, no final dos anos 1980, o seu famoso sensor de 1,3 megapixel, que foi utilizado em câmeras digitais de diversos fabricantes, incluindo a Nikon. Atualmente, máquinas ultracompactas são fabricadas com mais de 10 megapixels.
A parte mais visível dessa revolução tecnológica é naturalmente aquilo que aparece nas lojas: máquinas fotográficas, filmadoras, celulares, sensores automotivos, entre outros produtos. No entanto, tem sido extraordinário o papel desempenhado pelo CCD em diversos ramos da pesquisa científica. Um exemplo magnífico é a fotografia do aglomerado de galáxias Abell 2218, obtida com uma câmera instalada no telescópio espacial Hubble. Captada no ano de 2000, a foto mostra um impressionante exemplo de lentes gravitacionais. Não há, virtualmente, área científica que não tenha se beneficiado dessa tecnologia. Dispositivos CCD têm aumentado de modo inimaginável há algumas décadas a capacidade funcional dos microscópios. Observações in situ de células e tecidos têm permitido aos médicos detectarem pequenos desvios da normalidade, sobretudo na endoscopia. Mais extraordinárias ainda são as aplicações que usam microcâmeras instaladas em cápsulas, cujas imagens são enviadas por comunicação sem fio. Tecnologia ameaçada? À primeira vista, o Prêmio Nobel foi concedido no momento em que a tecnologia CCD começa a ser ameaçada pelos sensores de imagem baseados na tecnologia metal-óxido-semicondutor complementar (CMOS, na sigla em inglês). De fato, os dois tipos de sensores surgiram na mesma época, mas algumas vantagens tecnológicas do CCD (baixo ruído, pixels menores, alta sensibilidade, entre outras) fizeram com que a indústria deixasse de lado o desenvolvimento de sensores CMOS. No entanto, as vantagens do CMOS em relação ao seu concorrente, sobretudo o baixo consumo, o alto nível de integração, o baixo custo e o acesso aleatório, vêm, desde a década passada, motivando laboratórios acadêmicos e industriais a investirem na fabricação desses dispositivos. Entre os pioneiros dessa nova era podemos destacar a equipe liderada por Eric Fossum, do Jet Propulsion Laboratory (JPL), da Nasa (a agência espacial norte-americana), que fabricou, no início dos anos 1990, uma câmera eletrônica em um único chip. Em 1995, o pessoal do JPL fundou a empresa Photobit para implementar e comercializar a tecnologia. Atualmente, a Photobit produz mais de 50 modelos de sensores CMOS e já transferiu a tecnologia para os Laboratórios Bell e para a Kodak, entre outras empresas. Contrariando Eric Fossum, que entende ser o CMOS um competidor do CCD, James Janesick, da Sarnoff Corporation, e Gloria Putnam, da Kodak, entendem que as duas tecnologias deverão ser cada vez mais associadas para a fabricação de sensores híbridos, Já em 1999, colegas de Eric Fossum no JPL propunham a fabricação de sensores híbridos. Em 2004, a Panasonic patenteou um sensor híbrido, hoje comercializado com o nome de Live MOS e usado em máquinas da Leica, da Olympus e da própria Panasonic. Finalmente, a pioneira Fairchild Imaging também entrou no jogo e, desde 2007, vem produzindo seus sensores híbridos. Se as tendências observadas nos laboratórios acadêmicos e industriais se confirmarem, é provável que Janesick e Putnam estejam com a razão. As duas tecnologias têm tudo para um casamento perfeito. O CCD é imbatível na qualidade da imagem, ao passo que o CMOS é o ícone do processamento eletrônico de sinais analógicos e digitais. Mas a dúvida permanece: no final, teremos competição ou colaboração entre CCD e CMOS?

quinta-feira, 29 de outubro de 2009

Moléculas antimicrobianas em ovos de aranha

Doenças como sapinho e candidíase, causadas pelo fungo Candida albicans, poderão, no futuro, ter tratamento mais eficaz, graças a um novo tipo de antibiótico descoberto em ovos da aranha-armadeira (Phoneutria nigriventer). Os méritos cabem ao estudante paulista Ivan Lavander Ferreira, de 18 anos. A descoberta lhe valeu um prêmio na maior feira escolar de ciências do mundo, realizada em maio passado nos Estados Unidos. Tudo começou em casa, onde Ferreira criava opiliões (parentes inofensivos das aranhas). "Notei que, por alguma razão, os ovos desses aracnídeos não apodreciam quando deixados ao ar livre." O estudante supôs então que deveria haver alguma substância que os protegia de fungos e bactérias. Inquieto, o garoto do terceiro ano do ensino médio bateu à porta do Instituto Butantan (SP), onde conheceu o biólogo Pedro Ismael da Silva Junior. O veterano sugeriu ao novato que deixasse os opiliões de lado e prosseguisse a pesquisa com aranhas-armadeiras. “Foi o que fiz.” Durante quase um ano, Ferreira frequentou o Laboratório de Toxinologia Aplicada do Instituto Butantan, para estudar os ovos da aranha, que também não se degradam ao ar livre. "Conseguimos isolar quatro moléculas: duas lisozimas [que agem contra fungos e bactérias] e dois peptídeos [substâncias de baixo peso molecular que podem atuar mais rapidamente que os antibióticos atuais]", contou o jovem pesquisador. Estudando essas moléculas, ele descobriu um novo modo de ação contra a Candida albicans e também contra a bactéria Microccocus luteus, não patogênica. Por um processo natural, os micróbios com que convivemos estão cada vez mais resistentes aos antibióticos convencionais. "Por isso é importante estudarmos essas novas moléculas; um dia elas poderão se tornar antibióticos mais eficientes no tratamento de doenças infecciosas", explica o estudante. O próximo passo de Ferreira é tentar sintetizar em laboratório as substâncias que identificou nos ovos da aranha (mas antes, claro, pretende estudar para entrar na faculdade de biologia). Para ele, não é apenas o mérito científico de seu estudo que o deixa otimista. "É importante lembrar que vivenciei uma situação rara no Brasil. Foi uma das poucas vezes que um instituto de pesquisa abriu suas portas para um estudante do ensino médio", diz. "Isso é muito comum em outros países, e espero que aconteça mais vezes por aqui também."

Overdose de informação

Nunca houve uma época com tantas mudanças e transformações como a que vivemos atualmente. Todos os dias, notícias e informações sobre mudanças no clima, na economia, na política ou no futebol chegam até nós pela televisão, pelo rádio ou pela internet. Na grande maioria das vezes, temos dificuldade de lidar com tanta informação. Uma simples busca no Google por qualquer termo abre as portas para milhões de páginas. Uma pesquisa pela palavra “ciência”, por exemplo, nos devolve a indicação de 105 milhões de sítios na internet. Nesse mar de informação, é difícil encontrar e compreender o que procuramos sem discernimento e conhecimentos prévios. “Navegar é preciso, mas é necessário conhecer os oceanos”.
De maneira semelhante, a compreensão pela física de sistemas complexos com muitas informações requer a utilização de abordagens diferentes das usadas para descrever situações mais simples. A física da complexidade nos apresenta descobertas surpreendentes. A ciência em geral, e não apenas a física, foi influenciada fortemente pelas ideias de Isaac Newton (1642-1727). Ao formular as leis da mecânica clássica, Newton construiu um modelo determinista para o universo. Em particular, a lei da gravitação universal e as leis de movimento têm a capacidade de descrever a queda de uma maçã ou o movimento da Lua e dos planetas nos céu – em qualquer momento. As leis de Newton nos possibilitam saber com grande precisão os movimentos planetários hoje, no passado e em um futuro distante. Isso só é possível porque o movimento planetário é um problema simples de ser resolvido, pois envolve um número restrito de atores (nesse caso, o Sol e os planetas do sistema solar). Em situações mais complexas, porém, a descrição dos movimentos a partir desse modelo não é simples e tampouco eficiente. Um sistema com muitas partículas interagindo não consegue ser descrito adequadamente pelas leis de Newton e nem pela mecânica quântica, utilizando a sua equação fundamental, proposta pelo físico austríaco Edwin Schrödinger (1887-1961). Imaginemos um gás como o nitrogênio ou o oxigênio, ambos presentes no ar que respiramos. Em uma sala com 9 m 2 de área e 2,5 m de altura, temos um volume de 22,5 m 3 . Na pressão atmosférica e na temperatura ambiente, há nesse volume uma quantidade da ordem de 10 26 moléculas (1 seguido de 26 zeros!), movendo-se com uma velocidade média 1700 km/h (uma vez e meia a velocidade do som). Se quiséssemos descrever o comportamento de um gás a partir do comportamento individual de cada molécula, teríamos que escrever 10 26 equações de movimento e resolvê-las simultaneamente. Nos dias atuais não temos computadores poderosos o suficiente para resolver tal problema. Ainda que fosse esse o caso, as soluções de todas essas equações não fariam qualquer sentido. Mecânica estatística A alternativa para conseguir descrever sistemas como esses começou a ser proposta no final do século 19 e no começo do século 20 e ficou conhecida como física estatística, ou mecânica estatística. Os primeiros a proporem abordagens estatísticas para descrever sistemas com muitas partículas foram o alemão Ludwing Boltzmann (1844-1906) e o americano Josiah Williard Gibbs (1839-1903). A ideia básica é utilizar os conceitos estatísticos para descrever esses sistemas muito complexos a partir de valores médios das grandezas físicas de interesse. Com essa abordagem, Boltzmann e Gibbs conseguiram relacionar valores microscópicos (como a densidade média de energia das partículas) a grandezas físicas macroscópicas e mensuráveis. Eles mostraram a relação entre entropia e densidade média de energia de um sistema com muitas partículas. O conceito de entropia é um dos mais fascinantes que encontramos na física, principalmente porque ele mostra que todos os sistemas tendem a atingir, com o passar do tempo, o maior grau de desordem. Por exemplo, quando abrimos um frasco de perfume em uma sala e esperamos um pouco, o cheiro será sentido em todo o ambiente. Nesse caso, as moléculas que compõem o perfume evaporam e se difundem por todo ambiente.
Contudo, esse é um processo que chamamos de irreversível, pois essas moléculas não voltam espontaneamente para o frasco de perfume. Antes, elas estavam mais “organizadas” dentro do frasco. Depois, elas passaram a ocupar todo o volume da sala. Nesse sentido, houve um aumento da desordem e, como consequência, um aumento da entropia. Longe do equilíbrio Quando os sistemas físicos não estão em equilíbrio, ou seja, estão evoluindo com o tempo, eles não conseguem ser descritos de forma adequada, nem mesmo pelas leis da mecânica clássica e quântica. Foi necessário incorporar descrições estatísticas para explicar esses sistemas que estão longe do equilíbrio. O físico-químico russo Ilya Prigogine (1917-2003) deu uma grande contribuição para explicar esses sistemas mais complexos, também chamados de estruturas dissipativas, ao criar uma nova abordagem para a mecânica clássica e quântica. Essas contribuições lhe valeram o Nobel de Química em 1977. Os processos físicos irreversíveis e fora do equilíbrio são observados em muitas situações na natureza. A vida é um exemplo disso. Os seres vivos nascem e se desenvolvem a custas do consumo de energia (através da alimentação) e do aumento da entropia (a partir da troca de calor entre o corpo e o ambiente externo). Basta lembrar que nossos corpos estão tipicamente na temperatura de 36º, C enquanto o ambiente normalmente está a 25º C. Essa diferença de temperatura é fundamental: se ela não existisse, não haveria como o nosso organismo funcionar. A complexidade de informações faz parte da natureza, tanto em nosso cotidiano como na descrição dos fenômenos físicos. Aprender a lidar com elas a partir de diferentes abordagens permite uma extensão da nossa compreensão. A grande quantidade de informação que recebemos pela imprensa ou pela internet precisa sempre ser filtrada e trabalhada com discernimento. No caso dos fenômenos físicos, precisamos utilizar abordagens diferentes quando temos que lidar com sistemas complexos. Em ambos os casos, ainda não encontramos a resposta final.

A neurociência do amor

Quem já se apaixonou, bem sabe: o mundo não interessa mais nada, as coisas em volta não têm importância, os outros são insossos, tudo gira em torno da pessoa amada. É quase uma mania, um vício, uma obsessão. O alvo de nosso amor chega quase à perfeição – o resto fica cinza e indistinto. “O amor tem razões que até a razão desconhece”, disse o filósofo francês Blaise Pascal (1623-1662), numa expressão que se tornou lugar-comum, de tão repetida.
A paixão é uma emoção complexa dos seres humanos que tem instigado a curiosidade e a manifestação dos filósofos e escritores desde sempre. Ela pode incluir outros sentimentos, como a ansiedade ou o desejo erótico, embora estes possam existir sem amor. E geralmente exclui ou minimiza outras emoções, como o medo e a raiva, e obscurece muitos aspectos da atividade cognitiva racional. Os apaixonados ficam quase inteiramente dedicados a esse sentimento. Quem assistiu ao filme ou leu O amor nos tempos do cólera, de Gabriel García Márquez, pôde avaliar um magnífico exemplo do grau de obsessão que pode assumir um sentimento de amor. Florentino Ariza se apaixona por Fermina Daza na juventude, mas a vida corre em outras direções e eles se separam. Seu amor, entretanto, persiste até a velhice, quando se reencontram. Uma obsessão de 50 anos... O que poderiam dizer os neurocientistas desse tão forte sentimento humano? De que modo poderiam estudá-lo? O mapa cerebral do amor apaixonado As técnicas de neuroimagem funcional permitiram mapear as regiões cerebrais ativadas e desativadas durante a paixão, e até compará-las com outros tipos de amor, como o amor materno. Ambos podem ser revelados em alguém pela simples exposição de uma fotografia da pessoa amada ou do filho querido: o coração bate mais rápido, um sorriso se abre no rosto e... as áreas cerebrais envolvidas nesse reconhecimento visual passam a apresentar maior irrigação sangüínea, metabolismo mais intenso e maior atividade dos neurônios. Foi esse tipo de experimento que realizou o eminente neurocientista Semir Zeki, do University College London, e seu colaborador Andreas Bartels.
Os experimentos mostraram as áreas cerebrais ativadas exclusivamente pela visão de fotos da pessoa amada, outras por imagens de um filho, e aquelas ativadas em ambas as condições. As áreas da paixão são as mesmas que contêm grandes quantidades do neurotransmissor dopamina e dos hormônios ocitocina e vasopressina, bem como das proteínas que os reconhecem. Faz sentido: a dopamina é liberada nessas regiões cerebrais em situações de grande prazer, e os hormônios são secretados fortemente durante o orgasmo. A semelhança parcial entre as duas formas de amor também faz sentido. Ambas têm em comum uma vantagem biológica e evolutiva essencial: favorecem a sobrevivência da espécie, pelo acasalamento e pelo cuidado com a cria. A natureza desenvolveu engenhosas estratégias de aproximação entre machos e fêmeas, e de manutenção de um forte vínculo entre eles, assim como deles com os filhos. A loucura do amor O filósofo alemão Friedrich Nietzsche (1844-1900) disse uma vez, com muita propriedade: “Há uma certa loucura no amor, mas também uma certa razão na loucura”. O trabalho de Zeki de certa forma materializa essa forma literária com que Nietzsche descreveu a cegueira do amor. As imagens do cérebro dos voluntários da pesquisa mostraram não apenas a ativação de certas áreas cerebrais, mas também a desativação de outras. E essas outras se localizam exatamente no lobo frontal do cérebro, bem conhecido pelo seu envolvimento com o raciocínio lógico e matemático, e com os comportamentos executivos – muito do que chamamos “razão”. A loucura do amor provém do obscurecimento da razão. Novamente, os evolucionistas encontram aí um novo exemplo de adaptação biológica: um mecanismo de aproximar casais reprodutores e fortalecer seu vínculo recíproco. Sabemos por experiência própria que tudo é possível em se tratando de paixão. “O amor é cego”, diz um outro lugar-comum. O obscurecimento da razão teria a vantagem biológica de aproximar os casais mais improváveis. Se estou apaixonado, não há quem me convença de que ela não é a mais bela das mulheres...

As ondas do cérebro comandam o corpo

Um dos grandes desenvolvimentos possíveis das neurotecnologias é a criação de interfaces entre o cérebro e a mente. Na teoria, isso quer dizer que, se conseguirmos registrar em um computador alguma representação da atividade neuronal relacionada a uma função específica, teoricamente seria possível utilizar essa representação para realizar a mesma função sob comando do computador. Essa possibilidade abre alternativas terapêuticas enormes para o tratamento de pacientes com deficiências neurológicas, principalmente aqueles que não podem se comunicar ou se locomover.
Recentemente, os cinemas apresentaram o filme O escafandro e a borboleta, inspirado no livro homônimo do jornalista francês Jean-Dominique Bauby, que já mencionei nesta coluna. O jornalista sofreu um acidente vascular encefálico (um “derrame”, como é popularmente conhecido) que desconectou as regiões mais baixas do seu cérebro daquelas regiões superiores que realizam o controle dos movimentos. Ele ficou, então, completamente paralisado de uma hora para a outra, portador do que os médicos chamam de síndrome de encarceramento: incapaz de mover um músculo, comunicação interpessoal zero, embora se mantivesse absolutamente lúcido. Com muita tenacidade e sofrimento, comunicava-se por meio de piscadelas de um dos olhos – o único movimento que havia subsistido – com uma enfermeira a quem “ditou”, letra a letra, o seu livro, depois transformado em filme. Bauby e os pacientes tetraplégicos em geral seriam candidatos a utilizar as neuropróteses baseadas em interfaces cérebro-mente, se elas estivessem já ao alcance de uso. Assim, utilizariam seu próprio pensamento, intacto, para comunicar-se e para mover-se. As interfaces cérebro-mente O problema é que o registro da atividade neuronal nem sempre é simples. Uma primeira possibilidade – a mais invasiva – consiste em abrir o crânio do paciente por meio de uma neurocirurgia e implantar chips com microeletrodos em regiões estratégicas do cérebro para captar a atividade neuronal de centenas ou milhares de células nervosas, durante o desempenho de alguma função. Tal estratégia tem sido explorada em macacos com crescente sucesso, e mostra-se capaz de comandar braços robóticos que realizam movimentos até bastante sofisticados, como os atos de pegar um pedaço de alimento e levá-lo à boca. Os pesquisadores, nesse caso, compilam a atividade de centenas de neurônios envolvidos com os comandos para contrair com a combinação certa, a força adequada e a direção correta, as engrenagens do braço robótico como se fossem os músculos do braço real (paralisado ou ausente). Essa alternativa é complicada e arriscada para uso em humanos, porque seria preciso realizar uma neurocirurgia para o implante dos microeletrodos. Nem sempre isso é possível, e haveria muitas complicações que poderiam advir da tentativa. Outra possibilidade seria utilizar as ondas do eletroencefalograma (EEG), que pode ser captado através do crânio, sem expor fisicamente o cérebro. O EEG é uma medida da atividade neuronal do cérebro, descoberto nos anos 1930 por um médico alemão chamado Hans Berger (1873-1941), que não sabia do que se tratava exatamente, na época. A técnica apresenta ondas de ritmos diversos, alguns mais rápidos, outros mais lentos, que podem ser relacionadas a determinadas funções ou estados cerebrais. As ondas do EEG durante o sono com sonhos, por exemplo, são diferentes daquelas produzidas durante o sono sem sonhos: isso significa que o EEG acusa quando estamos sonhando. Da mesma forma, a técnica acusa quando realizamos um movimento, pois o traçado suave e relativamente lento se transforma em um ritmo agitado relacionado às contrações musculares. Se o registro for feito bem no topo do crânio, captaremos especificamente a atividade da região do córtex cerebral que move o pé de uma pessoa.
Esse indivíduo poderia ser um paciente tetraplégico, solicitado a imaginar os movimentos de seus pés paralisados. Nesse caso, a atividade cerebral captada pelo EEG (bastaria para isso uma touca com eletrodos de registro) refletiria os comandos cerebrais necessários para mover os pés. Levada a um computador para digitalização, quem sabe fosse possível conduzir a cadeira de rodas do paciente sem a necessidade de uma terceira pessoa, utilizando apenas o pensamento do paciente. Ambiente de realidade virtual Essa alternativa foi utilizada por um grupo de pesquisadores austríacos e alemães chefiados por Gert Pfurtscheller e Gernot Müller-Putz, do Laboratório de Interfaces Cérebro-Mente da Universidade Tecnológica de Graz, na Áustria. Essa equipe estudou o desempenho de um rapaz tetraplégico de 38 anos, portador de uma lesão medular completa na altura do pescoço e incapaz de mover-se sem uma cadeira de rodas. Após um período de treinamento intensivo, o rapaz aprendia imaginar movimentos de seus pés dentro de um ambiente virtual (uma rua fictícia) em que havia lojas, bares à beira das duas calçadas e pessoas (avatares, como se usa no jargão da realidade virtual). Ele aprendia a imaginar-se andando até o final da rua. Ao se aproximar de um dos avatares, devia parar de pensar nos movimentos dos pés para comunicar-se com eles, que lhe dirigiam a palavra dizendo “Oi” ou “Meu nome é Maggie”. E continuar o caminho imaginário até o fim da rua virtual. O treinamento possibilitava que ele imaginasse seus movimentos a partir de seus pés, e essa ação mental imaginativa ativava justamente a região do cérebro no topo do crânio, onde se encontram os neurônios que comandam os pés. Essa ativação mental específica aparecia no traçado do EEG, devidamente filtrado e processado de modo apropriado. Na situação virtual, portanto, bastava pensar no movimento dos pés e o computador movia o cenário como se o rapaz estivesse se deslocando na cadeira de rodas. Uma esfera de comunicação invisível em torno de cada avatar, representada na figura, devia fazê-lo parar de pensar no movimento, o que interrompia automaticamente o deslocamento da cadeira de rodas.
Os resultados são preliminares porque envolveram somente uma situação virtual muito simples e apenas um paciente. No entanto, foram interessantes porque mostraram a possibilidade de utilizar como interface entre o cérebro e a mente um simples registro eletroencefalográfico que pode ser obtido por meio de uma touca com múltiplos eletrodos. Os pesquisadores austríacos se preparam para aumentar a complexidade da situação virtual, mudando a direção do movimento imaginário do paciente, criando obstáculos inesperados (uma bola arremessada por crianças, por exemplo) e utilizando não apenas uma rua, mas várias vias de uma cidade virtual. Além disso, o objetivo será transferir a situação virtual para um ambiente real e experimentar o sistema em vários pacientes. Também será preciso levar em conta algumas das observações do paciente. Por exemplo, ele se queixou de que, para parar a cadeira de rodas, era preciso deixar de imaginar o movimento dos pés, algo difícil de evitar se um simples pensamento divagante surgisse na mente a qualquer momento.

Afinal, quantas células tem o cérebro humano?

O criacionismo, do qual tanto se fala hoje em dia, atribui a Deus a criação de todas as coisas, dos seres humanos em especial. Trata-se de uma tese baseada na fé, digna de respeito como qualquer crença, mas que se choca com a abordagem científica da natureza, especialmente com a teoria da evolução estabelecida tão firmemente por Charles Darwin (1809-1882), o naturalista inglês que percorreu o mundo – inclusive o Brasil.
Parafraseando o Marquês de Laplace (1749-1827), eminente físico francês: Deus não é uma hipótese necessária para a teoria da evolução. Conta-se que uma frase semelhante a essa foi dita por ele em resposta a Napoleão Bonaparte que, lendo seus trabalhos, indagou-lhe: – “Não vi a presença do Criador em suas obras, marquês”. Ao que Laplace respondeu: – “A hipótese divina, senhor, de fato explica tudo; no entanto, não permite prever nada. Como cientista, minha função é produzir trabalhos que permitam previsões.” A precisa definição sobre a natureza da ciência que Laplace utilizou se aplica como uma luva aos resultados a que chegamos recentemente, Suzana Herculano-Houzel e eu, por meio da tese de mestrado do aluno Frederico Azevedo, no Instituto de Ciências Biomédicas da Universidade Federal do Rio de Janeiro (UFRJ). Nossa intenção inicial era testar a exatidão do número de neurônios estimado para o cérebro humano em todos os livros de neurociência: cem bilhões. Esse número foi sempre considerado tão verdadeiro, que eu mesmo me senti seguro em dar esse título a um livro que publiquei há oito anos e a esta coluna da Ciência Hoje On-line. No entanto, ao rever a literatura especializada, concluímos que não havia, na verdade, qualquer evidência científica sólida para esse número. E mais: os livros declaravam sempre que, para cada neurônio do cérebro, existiriam 10 células gliais, os elementos coadjuvantes dos neurônios nas funções cerebrais. E, também neste caso, nenhuma evidência científica. Novo método de contagem A motivação em encontrar evidências para esse número nos levou a inventar um método de contagem absoluta de células do cérebro de qualquer animal, com alto grau de confiabilidade. Testamos o método em ratos, depois o aplicamos a diferentes espécies de roedores. Suzana fez o mesmo para diferentes espécies de primatas, e aí a coisa começou a ficar interessante do ponto de vista da teoria da evolução. É que, quando se correlaciona o tamanho do cérebro com o seu número de neurônios e de células não-neuronais, encontra-se uma regra matemática precisa, chamada “regra de escala”, característica de cada grande grupo de animais. Na ordem dos roedores, por exemplo, o número de neurônios cresce proporcionalmente ao tamanho do cérebro, e a função matemática que descreve essa correlação é uma função potência.
Na ordem dos primatas, diferentemente, o número de neurônios também cresce proporcionalmente ao tamanho do cérebro, mas a função matemática é uma função linear. Isso significa que, se existisse um roedor com 100 bilhões de neurônios, este teria um cérebro de 45 quilos e um corpo de 110 toneladas! Foi mais vantajoso, então, durante a evolução, tirar vantagem de uma ordem de animais – os primatas – cuja regra de escala é linear, porque neste caso o aumento do número de células não exige aumento tão absurdo do tamanho do cérebro e do corpo. Uma característica das regras de escala é que elas permitem prever o número de neurônios ou de células não-neuronais de qualquer roedor, ou de qualquer primata, mesmo sem contar diretamente essas células. É a beleza do raciocínio científico tão bem enfatizado por Laplace. E o cérebro humano? Muito bem. E o cérebro humano? Nossa primeira abordagem foi aplicar a ele a regra de escala dos primatas. Quantos neurônios, de acordo com a função linear determinada, deveria ter um primata com um cérebro de 1,5 quilo, o peso aproximado do cérebro humano? Bingo! O resultado estimado ficou perto dos cem bilhões. Neste caso, porém, não poderíamos parar na estimativa, porque os evolucionistas acreditavam que o cérebro humano é especial: um cérebro enorme, muito maior do que o de qualquer outro primata, para um corpo relativamente pequeno, pelo menos em comparação com os orangotangos e gorilas. O cérebro humano devia ser um ponto fora da curva, um objeto especial na natureza!
Nosso aluno Fred obteve cérebros masculinos fornecidos pelo Banco de Cérebros da Faculdade de Medicina da Universidade de São Paulo (USP), pertencentes a homens de 50-70 anos de idade, falecidos de causas não-neurológicas e sem comprometimento mental de qualquer tipo. Fred levou um ano para padronizar a técnica para o material humano e, no ano seguinte, conseguiu determinar o número médio de neurônios: 86 bilhões, abaixo do “número mágico” aceito até o momento. E mais: não era verdade que o número de células não-neuronais seria 10 vezes maior do que o de neurônios. Encontramos, em vez disso, uma proporção de 1 para 1. Outro mito desfeito. O mais importante de tudo é que os números obtidos experimentalmente puderam ser colocados na função matemática de escala dos primatas e casaram perfeitamente! A conclusão é que os seres humanos têm um número de neurônios previsível para o tamanho de cérebro que possuem. Não temos, assim, nada de excepcional: somos beneficiários da evolução das espécies, que selecionou uma ordem de animais cujo número de neurônios pode crescer de modo mais compacto que os demais, sem exagerar no tamanho do cérebro. E ainda temos a sorte de sermos, dentre os primatas, a espécie com o maior cérebro.

O cérebro fabrica maconha

No início dos anos 1970, uma grande surpresa agitou os farmacologistas, aqueles que estudam o efeito das substâncias químicas sobre os órgãos e sobre as células. É que o neurocientista Solomon Snyder, da Escola de Medicina da Universidade Johns Hopkins, nos Estados Unidos, descobriu que havia no cérebro proteínas capazes de reconhecer a morfina. Eram os receptores opioides, chamados assim em referência ao ópio, que contém grande quantidade de morfina. Parecia muito estranho que o cérebro tivesse receptores para uma substância analgésica obtida de um vegetal – a papoula (Papaver somniferum)... E ainda mais uma substância fortemente viciante, presente no tradicional narcótico cujo uso remonta a eras e civilizações antigas. No entanto, pouco tempo depois, o mesmo Snyder descobriu as morfinas endógenas, que ficaram conhecidas como endorfinas. Ficamos sabendo então que o nosso cérebro fabrica um tipo de morfina participante dos mecanismos naturais de regulação da dor. A maconha feita no cérebro
Foi em 1990 que o grupo do farmacologista Tom Bonner, do Instituto Nacional de Saúde Mental, nos Estados Unidos, clonou pela primeira vez um receptor canabinoide do cérebro. A esse feito seguiu-se a descoberta dos endocanabinoides, compostos gordurosos produzidos por neurônios e capazes de serem reconhecidos pelos mesmos receptores da maconha, posicionados na membrana de outros neurônios. O que faria essa maconha endógena no cérebro? Os anos seguintes mostraram que os endocanabinoides são neurotransmissores não convencionais, pois não são armazenados em vesículas, mas produzidos “sob encomenda”. Ou seja: quando os neurônios do sistema nervoso central são ativados, sintetizam “maconha endógena” para modular as suas próprias sinapses. Constatou-se que a ação dos endocanabinoides nas sinapses é retrógrada, ou seja, ocorre de trás para frente: sintetizadas no neurônio ativado por uma sinapse, essas substâncias vão atingir o neurônio antecedente da cadeia, sendo reconhecidas pelos receptores nele posicionados, que então freiam a transmissão sináptica que acabou de se iniciar. Uma espécie de marcha a ré da transmissão sináptica. Esse mecanismo é atuante nas regiões cerebrais que regulam o apetite e o humor, além das regiões ligadas à dor e à memória.
Os nossos canabinoides Com a evolução do conhecimento sobre os endocanabinoides, mais surpresas aguardavam os farmacologistas. A mais recente delas veio de um estudo publicado há poucas semanas, realizado por pesquisadores do Instituto de Ciências Biomédicas da Universidade de São Paulo, da empresa Proteimax, também de São Paulo, e das escolas de medicina Mount Sinai e Albert Einstein, em Nova York, nos Estados Unidos. O grupo descobriu que os neurônios produzem peptídeos (pequenas proteínas) derivados da hemoglobina que ativam os receptores canabinoides do sistema nervoso – de modo semelhante à maconha. O trabalho envolveu o levantamento proteômico dos derivados da hemoglobina e de sua presença no cérebro, o que levou à identificação de peptídeos com nove aminoácidos e ação canabinoide. Essas substâncias, chamadas hemopressinas, foram encontradas em regiões do cérebro ligadas à regulação do apetite (o hipotálamo) e em outras que atuam na geração de sensações prazerosas (o núcleo acumbente), bem como nos terminais nervosos periféricos envolvidos na dor. Os pesquisadores então realizaram diversos experimentos para testar a ação das hemopressinas nos receptores canabinoides conhecidos, o que permitiu a identificação da via de ação desses peptídeos. Hemoglobina e maconha: relação improvável
. A nova surpresa que o estudo trouxe, além da identificação de novos canabinoides, foi a sua origem a partir da hemoglobina. O que estaria fazendo no cérebro a molécula mais conhecida do sangue, encarregada de fixar o oxigênio da respiração nas células vermelhas? Na verdade, já se conhecia a presença de hemoglobina, em pequenas quantidades, em outros tecidos, como o endométrio do útero feminino, o cristalino do olho, os glomérulos dos rins e também os neurônios e células gliais do cérebro. Outro fato que chama a atenção é que dados preliminares anunciados pelos autores do estudo indicam a produção de hemopressina em maiores quantidades quando o cérebro é submetido a condições de isquemia, como nos acidentes vasculares cerebrais. Nesse caso, teria essa “maconha endógena” alguma ação protetora contra os acidentes isquêmicos cerebrais? A natureza, como se vê, percorre os mesmos caminhos para atender diferentes necessidades. As diversas células do organismo são aparelhadas para sintetizar substâncias semelhantes em órgãos e tecidos diferentes. Mas, em cada um, as mesmas substâncias são utilizadas para funções distintas. Soluções plenas de “racionalidade econômica”, diriam os economistas. Aproveitamento máximo das mesmas soluções em diferentes problemas.

Neurônios e materialismo dialético

Minha geração, que hoje é sexagenária, viveu um período rico de embate de ideias na década de 1960, época em que pontificavam os princípios do materialismo dialético. Lembro bem desse embate, especialmente dos aspectos que se referiam à ciência. Nesse campo, o suprassumo de nossas leituras filosóficas era A Dialética da Natureza, do filósofo alemão Friedrich Engels (1820-1895). Nesse livro, Engels expôs os seus três princípios fundamentais da natureza: a lei da unidade e do conflito de contrários, a lei da passagem do quantitativo ao qualitativo e a lei da negação da negação. Sobre a primeira lei, Engels entendia que na natureza as coisas geralmente são determinadas pela ação mútua de dois polos opostos, e que a existência desses polos lhes conferia uma unidade. Assim, cada objeto ou fenômeno natural seria o resultado unificado da interação de forças contrárias. O problema era compreender isso aos 18 anos. Confesso que repetia, admirado, a concepção de Engels, escondendo minha dificuldade em aceitar de que modo um fenômeno podia ser ao mesmo tempo unificado e dividido. Os físicos tinham vários exemplos à mão, como o átomo, composto por prótons e elétrons, e os dois polos dos ímãs. Mas, na incipiente neurociência da época, os exemplos eram escassos. Fiquei surpreso, agora, ao achar tardiamente um exemplo prático da primeira lei da dialética, quando me deparei com uma descoberta importante que acaba de ser publicada por um grupo de pesquisadores franceses. Eles mostraram como o cérebro é capaz de controlar continuamente a sensibilidade dos neurônios, regulando-a para os altos e baixos do fluxo de informações do dia a dia. O neurônio e seus dois contrários Neurônios são células excitáveis, o que, na prática, significa que produzem sinais elétricos que codificam informações provenientes de outros neurônios ou diretamente do ambiente. A excitabilidade do neurônio é possibilitada por uma membrana que o envolve, capaz de separar os íons de dentro daqueles que ficam fora da célula, criando uma diferença de potencial elétrico sobre a qual ocorrerão os sinais do código neural. O cérebro precisa manter os neurônios “à flor da pele” enquanto estamos acordados, deixando-os prontos para disparar seus sinais de informação a qualquer momento e quaisquer que sejam as condições ambientais. Imagine a dificuldade. Você tem que ser capaz de entender o que um conferencista está dizendo, esteja o público em silêncio ou conversando. Tem que ser capaz de inserir a chave exatamente no buraco da fechadura no claro ou no escuro, e deve acertar o passo na direção certa, sozinho ou no meio de uma multidão.
Para isso, cada neurônio tem a sua excitabilidade regulada continuamente – entre o silêncio e a insensibilidade do sono e o alerta e a extrema vivacidade da vigília. O caso é que a excitabilidade de cada neurônio é regulada pela interação de dois contrários: excitação e inibição. E essas funções contrárias são providas por tipos opostos de sinapses (os pontos de contato e troca de informações entre neurônios): excitatórias e inibitórias. A coisa funciona assim: nos circuitos cerebrais, cada neurônio recebe milhares de sinapses de outros neurônios. Algumas são excitatórias e outras, inibitórias. Enquanto as primeiras mantêm o neurônio “à flor da pele”, as segundas o tornam menos sensível, bloqueando a informação incidente. Quando é necessário aumentar a sensibilidade do neurônio, predomina a atividade excitatória, e o contrário ocorre quando é necessário “adormecer” o neurônio um pouco. Tudo isso no meio do bombardeio constante de informações (excitatórias) provenientes do meio ambiente que muda a cada momento: sons, movimentos do corpo, luzes, imagens e assim por diante. Neuroplasticidade homeostática A questão fundamental da biologia do neurônio, então, é saber como se dá a regulação dinâmica da sua excitabilidade, isto é, de que modo os circuitos conseguem manter a excitabilidade neuronal, aumentá-la ou diminuí-la conforme as circunstâncias. Em outras palavras: precisamos saber como o cérebro controla a sua própria excitabilidade, neurônio a neurônio, momento a momento. Essa questão foi abordada por um grupo francês liderado por Philippe Fossier, do Instituto de Neurobiologia Alfred Fessard, em Gif-sur-Yvette (França). Os pesquisadores definiram a capacidade de regulação do nível de excitabilidade dos neurônios como neuroplasticidade homeostática, aproveitando dois conceitos importantes (e contrários!): plasticidade – a capacidade de mudança do cérebro em resposta à dinâmica do ambiente – e homeostase – a capacidade de estabilização funcional frente a essa mesma dinâmica ambiental. A hipótese que propuseram é que os neurônios mantêm relativamente constante a sua sensibilidade ao ambiente – apesar das turbulências deste – por meio de um mecanismo de regulação do equilíbrio entre duas forças contrárias: a excitação e a inibição. Os pesquisadores trabalharam com experimentos relativamente simples. Cultivaram fatias de córtex cerebral de ratos, mantidas vivas e funcionais em laboratório, e nelas combinaram a estimulação elétrica simultânea de um grupo de neurônios com o registro dos sinais elétricos produzidos em neurônios isolados do mesmo circuito. Nessas condições, verificaram que o balanço entre excitação e inibição em cada neurônio cortical era constante: 20% de excitação, 80% de inibição. Ou seja: ao estimularem os neurônios com alta ou baixa frequências, o balanço permanecia o mesmo. Esse tipo de experimento tem a vantagem de tornar possível a adição de drogas ao frasco de cultura, e assim alterar controladamente a resposta do neurônio perante substâncias ativadoras ou bloqueadoras de cada etapa dos processos bioquímicos da excitação e da inibição. E o modo de ação dessas substâncias revela os mecanismos bioquímicos do processo. Um gás no controle da contradição dialética do córtex
Os experimentos realizados pela equipe francesa encontraram o responsável pela neuroplasticidade homeostática: o gás óxido nítrico. Essa estranha substância (um gás no cérebro?) é sintetizada por proteínas existentes dentro do neurônio e em outras células e imediatamente se difunde através das membranas para ativar moléculas dentro de todas as células que encontre no caminho, sejam neurônios, células de vasos sanguíneos ou quaisquer outras. O óxido nítrico é produzido por neurônios especiais distribuídos em mosaico em todo o córtex cerebral e demais regiões do cérebro. Esses neurônios possuem a enzima que sintetiza óxido nítrico e, segundo a equipe de Philippe Fossier, são os mantenedores do balanço excitação/inibição que garante a estabilidade da excitabilidade dos circuitos neuronais. Parafraseando Carlos Drummond de Andrade: não é uma boa rima, mas é uma boa solução. Desse modo, nosso cérebro está dialeticamente preparado para manter-se capaz de responder às informações provenientes do ambiente, ou as produzidas pelas suas próprias maquinações interiores, independentemente das oscilações de ruído, luminosidade ou movimento corporal. Engels não podia supor que a sua primeira lei da dialética encontraria exemplos na neurociência. E muito menos os neurocientistas como eu poderiam supor que suas evidências poderiam ser associadas ao marxismo! Essa constatação não daria para consertar o mundo, mas é uma associação inusitada...

Os mortos vivos

“Não tenho família. Uso crack há quinze anos. Há quinze anos estou morto...” Essa frase, dita ao repórter Caco Barcellos por um homem de trinta e poucos anos, ex-trabalhador e que atualmente vaga sem rumo pelo centro de São Paulo juntamente com dezenas de outros viciados, resume em poucas palavras o impacto dessa droga sobre milhares de brasileiros. A presença insidiosa do crack em poucos anos se espalhou por quase todos os cantos do país e destruiu ou vem arruinando um grande número de vidas. Como chegamos a essa triste situação?
Duzentos milhões de pessoas – ou 5% da população mundial entre 15 e 64 anos – são usuários de drogas ilícitas, segundo um relatório de 2006 do Escritório das Nações Unidas Contra Drogas e Crimes. Destes, cerca de 13 milhões são viciados em cocaína, um alcaloide retirado das folhas de coca (Erythroxylon coca), um arbusto andino utilizado há mais de um milênio por habitantes da região para aumentar a resistência ao frio, à fome e ao cansaço. A cocaína foi primeiramente isolada das folhas de coca em 1855 pelo químico alemão Friedrich Gaedcke (1828-1890). Nos anos que se seguiram à sua extração, a substância passou a ser utilizada para o tratamento de diversas patologias e para uso recreacional. Talvez a aplicação mais celebrada desse alcaloide tenha sido criada pelo farmacêutico e veterano da Guerra Civil norte-americana John Pemberton (1831-1888): em 1885, ele patenteou um tônico cerebral cuja fórmula foi posteriormente alterada e deu origem à famosa Coca-Cola. Nos últimos anos do século 19, tornaram-se frequentes relatos que associavam o uso da cocaína com dependência, comportamento psicótico, convulsões e mortes. Por isso, bebidas que contivessem cocaína em sua formulação foram banidas da Europa e dos Estados Unidos por volta de 1915. O consumo ilícito de cocaína não se mostrou relevante até o final da década de 1960, quando seu uso se tornou mais frequente, associado muitas vezes com a contracultura, movimento social que questionava os valores e comportamentos instituídos. Contudo, o custo elevado da cocaína, em comparação com alucinógenos como a maconha, restringiu a sua disseminação. Além disso, como a cocaína se decompõe em seu ponto de fusão (196°C), ela não pode ser fumada e deve ser consumida por inalação ou injetada por via intravenosa. Surge o crack A segunda metade dos anos 1980 marca uma reviravolta nessa história. A partir dessa época, o consumo de cocaína se elevou graças ao surgimento do crack (também conhecido como rock ou pedra), um derivado sintético criado a partir de alterações das características químicas do cloridrato de cocaína, a forma normalmente consumida dessa droga.
O crack possui um custo mais barato em relação a outras drogas. Uma pedra – dose suficiente para causar dependência em muitos consumidores – pode ser comprada em alguns lugares por apenas um real, embora o preço seja dezenas de vezes mais alto em pontos de venda para a classe média e alta. Além disso, o crack atrai muitos de seus usuários por causar efeitos bastante rápidos, obtidos alguns instantes após a inalação da droga através de cachimbos, muitas vezes improvisados. Os efeitos da “viagem” do crack começam a se manifestar apenas 15 segundos após a primeira tragada, tempo necessário para que a droga alcance os pulmões e, dali, o cérebro. Contudo, esses efeitos são efêmeros e duram apenas cerca de 15 minutos. Para efeito de comparação, a cocaína consumida na forma endovenosa produz as primeiras reações em 3 a 5 minutos e seus efeitos se estendem por um período de 30 a 45 minutos. Nesse ponto surge mais uma das armadilhas do crack: à medida que ele é consumido, a duração de seus efeitos torna-se ainda mais passageira. Dessa forma, é comum que os usuários voltem a utilizar a droga alguns minutos depois, podendo consumir em um só dia 15 ou mais pedras, ampliando assim os efeitos nocivos dessa droga. Além disso, os usuários rapidamente consomem seus recursos para obter o crack e podem se entregar à criminalidade para obter o dinheiro para conseguir mais drogas. Ação no sistema nervoso Como a cocaína, o crack é um poderoso estimulante do sistema nervoso central que causa uma elevação nos níveis de dopamina, um neurotransmissor associado com uma região cerebral conhecida como centro de recompensa. Normalmente a dopamina é liberada por neurônios em resposta a sensações prazerosas (como o cheiro da comida de nossas mães!) e reciclada quase imediatamente. O crack e a cocaína impedem a reciclagem de dopamina que, assim, tem seus efeitos amplificados, o que causa uma sensação de grande prazer, euforia e poder. Além disso, o crack também provoca um estado de excitação, hiperatividade, insônia, perda de sensação do cansaço e falta de apetite. Concomitantemente, após o uso intenso e repetitivo, o usuário de crack experimenta cansaço, intensa depressão e perda de peso.
O uso repetitivo de crack e cocaína pode afetar de forma prolongada o centro de recompensa e outras regiões cerebrais. A tolerância aos efeitos dessas drogas também pode se desenvolver, o que contribui para o consumo de doses cada vez maiores dessas substâncias. Além disso, o consumo dessas drogas contrai vasos sanguíneos, causa dores musculares, dilata as pupilas e aumenta a temperatura corporal, o ritmo cardíaco e a pressão sanguínea, podendo causar ataques cardíacos e derrames. Cefaleia, complicações gastrointestinais, irritabilidade, reações violentas e efeitos psicológicos como paranoia e psicose também são observados. Milhões de reais Do ponto de vista do traficante, o crack é, obviamente, um grande negócio, pois um quilo de cocaína – que custa em torno de 5 a 20 mil reais, segundo diferentes estimativas – pode ser convertido em dez mil porções de crack, que rendem cerca de 500 mil reais. Assim, o tráfico movimenta diariamente centenas de milhões de reais nas cidades brasileiras dos mais diversos tamanhos. Obviamente, muita gente ganha dinheiro com o comércio do crack e verdadeiros milionários surgiram desde que essa droga apareceu no Brasil nos anos 1990. Todos ganham muito dinheiro: do traficante de pasta básica de coca a todos os envolvidos na rede de produção, distribuição e comercialização do produto final – as pedras de crack. No lado oposto, vemos milhões de jovens e adultos com suas vidas destruídas, expostos à violência vagando – como o ex-trabalhador citado no início – como mortos vivos expostos à violência, à prostituição e à degradação. No meio desses dois grupos estão – pelo menos por enquanto – familiares desesperados, profissionais de saúde pública muitas vezes atordoados e, infelizmente, governantes ainda desinteressados... Até quando?

O céu é o limite?

O atletismo vem sendo sacudido há cerca de um ano. O responsável por essa revolução é um sorridente rapaz de apenas 23 anos chamado Usain Bolt. Os feitos desse atleta jamaicano têm levado os estudiosos do esporte a se questionar sobre quais seriam os limites naturais para a capacidade fisiológica humana e até quando veremos quebras de recordes nas diversas modalidades do atletismo. Em duas ocasiões, Bolt venceu os 100 e os 200 metros rasos e participou da equipe vencedora do revezamento dos 4x100 metros rasos: nas Olimpíadas de Pequim (China), em agosto de 2008, e, mais recentemente, no Mundial de Atletismo em Berlim (Alemanha), no mês passado. Nas duas competições, Bolt superou com enorme facilidade o recorde mundial nos 100 metros rasos. Em Berlim, o atleta obteve mais um feito: ele se tornou o detentor da quebra do recorde dos 100 metros rasos com a maior diferença da história, incríveis 0s11 (11 centésimos de segundo) abaixo da marca anterior! Além disso, em Pequim, o atleta jamaicano também suplantou com um sorriso nos lábios o recorde dos 200 metros, que já durava 12 anos. Os resultados obtidos pelo fenômeno Bolt chamam ainda mais a atenção quando levamos em conta que quebras de recorde mundial no atletismo masculino são fenômenos raros. As marcas costumam se manter por longos períodos – em média, por cerca de 8 anos e 11 meses. Os recordes femininos no atletismo duram mais, 14 anos e 9 meses, em média. Em outras modalidades, como a natação, a quebra de recordes é bem mais comum e ocorre, em média, com intervalos de poucos meses. Por que será que isso ocorre no atletismo? Estaríamos perto de alcançar os limites fisiológicos humanos? Ou teríamos tido gerações de atletas menos qualificados e, portanto, incapazes de suplantar as marcas anteriores? Previsões
Pesquisas conduzidas por Mark Denny, professor da Universidade Stanford, nos Estados Unidos, e publicadas no final de novembro de 2008 no Journal of Experimental Biology analisaram a evolução histórica e os limites para o desempenho atlético humano em comparação com o desempenho de cães e cavalos utilizados em corridas. A partir da análise dos dados obtidos, foi também previsto quando essas marcas humanas seriam alcançadas. Os resultados indicam que provavelmente já foi alcançado o limite para o desempenho atlético de cães e cavalos de corrida. Apesar da melhoria recente das técnicas de criação e de seleção genética, houve poucas alterações na velocidade desses animais nas últimas décadas. O mesmo já não vale para a velocidade humana: ao analisarmos os resultados registrados desde os primeiros Jogos Olímpicos da era moderna, realizados em 1896 na Grécia, pode-se concluir que ainda não atingimos o limite em nenhuma das modalidades atléticas. Contudo, segundo essa investigação, os limites humanos não estão distantes. Nos 100 metros rasos, por exemplo, Denny estima que o limite humano máximo esteja próximo de 9s48, 10 centésimos de segundo abaixo dos 9s58 cravados por Bolt em Berlim. Entre as mulheres, o recorde atual dos 100 metros rasos (10s49) se mantém há 20 anos e pertence à norte-americana Florence Griffith-Joyner. Denny supõe que o limite máximo para essa prova seja de aproximadamente 10s19. Já a maratona feminina deve de ser a primeira prova a ter o seu limite máximo alcançado. O recorde atual dessa modalidade (2h15min25), batido em 2003 pela inglesa Paula Radcliffe, poderá ser reduzido em mais 3 minutos apenas, alcançando algo em torno de 2h12min41s. O efeito Bolt No entanto, as previsões de Denny podem não estar totalmente corretas, e parte das falhas em seus cálculos ficou clara depois dos resultados obtidos por Bolt. As previsões dos limites atléticos humanos dependem da análise da tendência das marcas previamente obtidas. É aí que está o problema!
Para entendermos como são feitos esses estudos, analisemos um trabalho similar realizado pelo estatístico Tatsuo Tabata, pesquisador do Instituto de Avaliação de Dados e Análises, no Japão. Ele elaborou um modelo que considerou todos os recordes na prova dos 100 metros rasos. Segundo os dados desse modelo, o recorde de Bolt em Pequim deveria ser esperado somente em 2030. A marca obtida por Bolt em Berlim, por sua vez, era aguardada para um pouco antes de 2040! Devido às façanhas de Bolt, foi preciso reajustar as equações para calcular a velocidade humana máxima. Até 2005, as análises conduzidas pela equipe de Tabata sobre a evolução dos recordes na prova de 100 metros rasos permitiam um bom ajuste com uma função exponencial que empregava uma constante e considerava um valor limite para essas marcas. Os dados registrados até 2005 geravam limites máximos de 9s66 para os recordes dos 100 metros rasos. Quando, após a vitória de Bolt em Pequim, foram levados em conta os resultados alcançados até 2008, as previsões feitas posteriormente chegaram a um patamar máximo de 9s43. Um ano depois, com o novo recorde do jamaicano em Berlim, as expectativas diminuíram para um limite de 9s09. Você pode até estar pensando que esse tipo de investigação não leva a nada e que se trata de um simples exercício vazio de futurologia. Porém, o uso da análise de séries históricas para a realização de previsões tem um profundo significado e se aplica às mais diversas áreas da ciência. A previsão do surgimento de uma nova epidemia de gripe, a análise do grau de destruição das florestas tropicais ou dos efeitos dos gases estufa são apenas alguns exemplos de aplicações possíveis desse método. De qualquer forma, após o fenômeno Bolt, podemos chegar a algumas conclusões. Em primeiro lugar, vemos que os modelos empíricos para descrever os limites do desempenho humano no atletismo são ainda muito pobres. Além disso, notamos que é muito difícil prever algo que dependa da biologia humana, cheia de minúcias e, muitas vezes, sujeita ao imponderável. Devemos sempre ter em mente que esses valores foram calculados por matemáticos e que, obviamente, não levam em conta a fisiologia humana. Eles trabalham simplesmente com dados e pressupõem que os ganhos de velocidade humana foram desacelerando gradualmente até que alcancem um limite máximo.

José, um brasileiro

José nasceu em 1931 em Muriaé, no interior de Minas Gerais. De família de comerciantes, desde cedo passou a ajudar o seu pai em sua loja e, com apenas 18 anos, resolveu seguir a tradição familiar e abriu sua primeira lojinha. Três anos depois, José ampliou seus negócios e passou a investir no ramo de cereais e massas. Com o falecimento de seu irmão mais velho em 1959, José assumiu os negócios da família e, após alguns anos, construiu uma das mais modernas fábricas de fiação e tecidos do país. José tornou-se então uma figura importante e passou a ser conhecido como José Alencar, rico empresário mineiro. Contudo, José Alencar não se restringiu à vida empresarial: também se interessou pela política, tornou-se senador e, posteriormente, vice-presidente da República. Porém, provavelmente José será lembrado no futuro não por todos os êxitos obtidos ao longo da sua vida, mas por uma luta heroica iniciada há 12 anos e que, infelizmente, será difícil vencer. Em 1997, Alencar descobriu que tinha câncer no rim direito e no estômago, após exames de rotina. Posteriormente, foram descobertos novos tumores na próstata, no abdômen e no intestino. Ele enfrentou com coragem e otimismo incontáveis sessões de quimioterapia e 15 longas cirurgias para extirpar tumores que teimam em retornar. Ocorrência incomum
são um grupo de tumores que ocorrem em tecidos de origem mesenquimal, como o conjuntivo – ossos, cartilagem e gordura –, ou nos músculos e vasos sanguíneos. Os sarcomas acometem indivíduos de qualquer idade, porém a sua ocorrência é incomum, representando apenas cerca de 1% dos casos de câncer diagnosticados. A forma mais comum de sarcoma é conhecida como tumor estromal gastrointestinal e atinge cerca de 15 mil indivíduos por ano nos Estados Unidos, um número pequeno se comparado, por exemplo, com os mais de 200 mil novos casos de câncer de mama diagnosticados anualmente naquele país. Alencar possui um lipossarcoma, um câncer de adipócitos que tipicamente apresenta nódulos formados por tumores satélites que se estendem como resultado de metástases surgidas a partir do sítio original ou primário. Esses nódulos são responsáveis pela maioria das lesões nesses pacientes. O lipossarcoma é mais comum em indivíduos acima de 40 anos e causa perda de peso, dores e interferências funcionais sobre outros órgãos como rins e intestino. Anualmente são diagnosticados no planeta 2,5 casos desse tipo de tumor em cada milhão de habitantes. Alimentando novos tumores Um dos processos-chave para o desenvolvimento dos tumores secundários é a formação de novos vasos sanguíneos locais para a nutrição desses tumores. Desde que a importância dessa relação foi descoberta pelo médico norte-americano Judah Folkman (1933-2008), mecanismos que possam inibir esse processo têm sido estudados.
Um estudo com dois tipos de lipossarcomas realizado recentemente pela equipe de Folkman, da Universidade Harvard (EUA), com participação da pesquisadora brasileira Flavia Cassiola, e publicado no fim de dezembro de 2008 na revista científica Blood mostrou que as plaquetas sanguíneas estão envolvidas ativamente nesse processo. Esses elementos sanguíneos transportam e liberam seletivamente os fatores que regulam a angiogênese, como o fator de crescimento vascular endotelial (VEGF, na sigla em inglês). A equipe de Folkman também observou que há um maior acúmulo de reguladores nas plaquetas de animais com tumores malignos. Esses pesquisadores esperam que, no futuro, a avaliação dos níveis de fatores angiogênicos em plaquetas possa se tornar um meio prático para se diagnosticar, prever e mesmo tratar os lipossarcomas e outros tumores. Atualmente, o tratamento tradicional desses tumores consiste normalmente na extirpação cirúrgica dos nódulos e tecido adjacente associada com sessões de quimioterapia. Contudo, esses procedimentos são pouco efetivos e mais da metade dos portadores de sarcomas morrem devido aos problemas decorrentes dessas patologias. Tratamento experimental Devido à pouca eficiência dos métodos terapêuticos tradicionais para combater o lipossarcoma, Alencar submeteu-se recentemente a um tratamento experimental no Centro Oncológico MD Anderson, um núcleo de excelência em pesquisas oncológicas localizado em Houston, nos Estados Unidos. Alencar foi voluntário para estudos clínicos com um fármaco conhecido provisoriamente como R7112, que atua sobre o processo de multiplicação celular e em neoplasias. O R7112 regula seletivamente a interação entre Mdm2 e p53, duas proteínas associadas com a desregulação da proliferação, da diferenciação e da morte celular programada (apoptose) que ocorre nas neoplasias. O gene p53 foi identificado em 1979 por Lionel Crawford, David Lane, Arnold Levine e Lloyd Old, que, na época, trabalhavam na Universidade de Princeton e no Instituto de Câncer de Nova Jersey, ambos nos Estados Unidos. A função de p53 foi demonstrada posteriormente por meio da reintrodução de uma versão funcional de p53 em células mutadas para esse gene. Esse processo causou a inibição de mitoses e da apoptose dessas células e, por outro lado, estimulou a diferenciação de algumas células tumorais, que, assim, perderam a sua capacidade proliferativa. Pesquisas posteriores indicaram que as mutações no gene supressor tumoral p53 são encontradas em aproximadamente 50% de todos os tumores humanos. Elas ocorrem, por exemplo, em cerca de 40% dos tumores de mama, 50% dos tumores de pulmão e 70% dos tumores colorretais.
Estrutura das proteínas Mdm2 (à esquerda) e p53 (à direita), que estão associadas com a desregulação da proliferação, da diferenciação e da morte celular programada que ocorre nas neoplasias (imagens: Uhrinova, S. et al/ J. Mol. Biol. e Cho et al/ Science). Gene vilão A proteína Mdm2 (Minuto Duplo Murino 2), por sua vez, é um proto-oncogene que interage e reprime a atividade de p53. O Mdm2 controla a expressão de p53 e estimula a proliferação celular e o desenvolvimento tumoral. Portanto, o desenvolvimento de drogas capazes de bloquear a ação de Mdm2 pode representar um importante passo para se combater vários tipos de câncer. Os minutos duplos citados acima são pequenos fragmentos de DNA circular que não estão presentes nos cromossomos (DNA extracromossomal) e que são observados em grande número de tumores humanos, incluindo os de mamas, pulmões, ovários, cólon e neuroblastomas. Os minutos duplos possuem oncogenes e genes envolvidos na resistência a drogas e são considerados uma manifestação da ampliação gênica que ocorre durante a progressão tumoral. Acredita-se que esses genes proporcionem alguma vantagem para a proliferação e sobrevivência das células que os possuem. A expressão de Mdm2 – e seu similar humano Hdm2 – leva à transformação celular e à formação de tumores. Vários tumores humanos, como sarcomas e câncer de mama, possuem níveis elevados desse oncogene. Por exemplo, os tipos de lipossarcoma humano mais frequentemente encontrados apresentam uma amplificação cromossômica característica em 12q14-15 envolvendo o gene Mdm2. Outras alterações gênicas estruturais (aneuploidias), como translocações, deleções e fusões, também são observadas nos lipossarcomas. O R7112 é um antagonista seletivo que bloqueia a interação do complexo p53-Mdm2. Assim, essa droga preserva os níveis elevados de p53, elimina por apoptose as células tumorais e inibe a proliferação e desenvolvimento de tumores. Contudo, essa droga promissora ainda não se mostrou efetiva em todas as situações, como ocorreu infelizmente no caso de Alencar. O vice-presidente voltou a ser internado no Brasil em setembro por causa de resultados anormais em seus exames de sangue. O exemplo de José Alencar, ainda que não possa redundar em benefícios próprios, será importante futuramente para todos, pois sua luta diária e sua perseverança frente às adversidades enfrentadas é um modelo a ser seguido por todos nós, brasileiros.

Inimigos do pulmão

Embora seja uma doença muito antiga, a tuberculose ainda assusta a população mundial. Mais de 125 anos depois da descoberta de seu agente causador – o Mycobacterium tuberculosis, descrito em 1882 – e do desenvolvimento de medicamentos altamente eficazes contra a doença, ela continua sendo um flagelo para a humanidade. A ocorrência e o combate da tuberculose e de outras importantes doenças pulmonares são tema do Estúdio CH desta semana. Em entrevista a Franklin Rumjanek, e diretor da divisão de pesquisa do Hospital Universitário da UFRJ, falou sobre o recrudescimento da tuberculose no mundo. Ele ressaltou que atualmente cerca de 9 milhões de pessoas são acometidas pela doença a cada ano e, dessas, 2 milhões morrem. Segundo Silva, esse quadro deve-se ao fato de a tuberculose ser uma doença relacionada à pobreza e à exclusão social. Apenas 22 países concentram mais de 80% dos casos de tuberculose no mundo. E todos são países em desenvolvimento ou subdesenvolvidos, que têm um nível socioeconômico menor do que o do restante do mundo. Além disso, as pessoas acometidas pela doença nesses países são as mais pobres da população. O pesquisador lembrou que o Brasil está entre os países com incidência de tuberculose e ocupa hoje o 16º lugar no ranking das nações com maior número de casos. Ele falou sobre o controle da tuberculose no Brasil e as iniciativas em todo o mundo para aperfeiçoar a vacina contra a doença, além do tratamento adotado atualmente e da resistência do bacilo aos antibióticos usados para combatê-lo. Silva tratou ainda de outras doenças pulmonares, como a asma, e alertou para os prejuízos causados pelo tabagismo aos pulmões. Ele ressaltou a necessidade de políticas fortes de restrição ao hábito de fumar, como vem sendo feito nos últimos anos pelo governo. Para ouvir a entrevista na íntegra, siga as instruções do quadro abaixo.

Robôs também disputam Copa do Mundo de futebol

Construir até o ano 2050 máquinas capazes de vencer humanos em uma partida de futebol: esse é um dos objetivos da RoboCup, projeto de pesquisa internacional que desde 1997 promove campeonatos mundiais de futebol para robôs. A RoboCup 2002 será realizada no Japão e na Coréia do Sul de 19 a 25 de junho e reunirá 193 equipes de 35 países. Porém, não é só na RoboCup que robótica e futebol se misturam. Desde 1998, a Fira (Federação Internacional de Robôs Jogadores de Futebol) também organiza Copas do Mundo para máquinas. A Fira Cup 2002 aconteceu na Coréia entre 23 e 29 de maio e contou com a participação de 200 equipes de 25 países.
Tanto a RoboCup como a Fira Cup[1] não pretendem somente promover competições entre robôs: os jogos fazem parte de um congresso científico onde são discutidas novas tecnologias em robótica e inteligência artificial (a RoboCup oferece ainda atividades para que as crianças aprendam como funciona um robô). A grande novidade de ambos os torneios em 2002 é a exibição de máquinas mais parecidas com humanos do que de costume, com estruturas similares a membros. Os robôs humanóides, no entanto, ainda não disputarão partidas das competições oficiais. O Brasil se inscreveu na Fira Cup 2002, mas sua equipe não conseguiu embarcar para a Coréia. "Nossos robôs já estavam prontos", conta Ewaldo Mehl, professor da Universidade Federal do Paraná (UFPR) e coordenador do grupo brasileiro que, por falta de patrocínio, não participou do torneio. A equipe de Mehl desenvolveu um novo software que torna os robôs capazes de processar dados mais rapidamente. "Como não fomos à copa, perdemos uma grande oportunidade de testar o software e publicar um artigo", lamenta.
Fira Cup está dividida em diversas categorias. No MiroSot, modalidade em que o Brasil pretendia participar, os times são formados por cinco robôs semelhantes a pequenos cubos com 7,5 centímetros de aresta que deslizam sobre rodas. As partidas estão divididas em dois tempos de 15 minutos, o campo tem as dimensões de uma mesa de sinuca e a bola utilizada é a de golfe. Cada time de máquinas é supervisionado por três estudantes, que montam os sistemas eletrônicos antes do início do jogo: depois que a partida começa, os robôs devem jogar sem intervenção humana. Uma câmera externa fornece dados sobre a posição das máquinas e os robôs, por meio de programas de inteligência artificial, executam a melhor jogada possível em cada momento. "Os alunos podem solicitar três vezes a interrupção do jogo para fazer ajustes técnicos e os robôs podem ser substituídos por máquinas reservas", explica Mehl. Se tudo correr bem, equipes brasileiras estarão presentes na próxima Fira Cup, que acontecerá em setembro de 2003 na Áustria. "Ficamos chateados por não ir à Coréia, mas continuamos trabalhando duro para desenvolver máquinas cada vez mais eficientes", afirma Mehl.

Santos-Dumont aterrissa na telona

Na esteira das comemorações pelos cem anos do primeiro vôo do 14-Bis, a vida de Alberto Santos-Dumont, inventor dessa e de outras máquinas voadoras, chega aos cinemas. Está em cartaz em algumas capitais brasileiras o documentário O homem pode voar, do matemático e jornalista Nelson Hoineff, com roteiro do físico Henrique Lins de Barros. O filme reúne imagens de arquivo inéditas, que mostram o processo de invenção do brasileiro, além das clássicas cenas do 14-Bis no ar. O documentário aborda muito mais que a vida do inventor de dirigíveis e aviões. É o retrato de um homem que desafiou a lei da gravidade em uma época que voar representava a superação do impossível. O homem pode voar está em cartaz há uma semana no Rio de Janeiro, em São Paulo e em Curitiba, e estreou nos cinemas de Belo Horizonte nesta sexta-feira. Na semana que vem, na quinta-feira, 7 de setembro, chega a vez de Brasília. O acervo de imagens é vasto: o filme possui cerca de 18 minutos de vídeos inéditos, mais de mil fotografias e vários documentos. Algumas cenas foram gravadas recentemente em Paris, França. Muitas pessoas foram entrevistadas, mas a obra tem apenas cinco depoimentos. “Como tínhamos muitas imagens boas, optamos por não nos basear tanto em depoimentos. Também filmamos mais de três horas em Paris e não utilizamos nem cinco minutos”, explica Hoineff. “O homem pode voar é bastante rigoroso do ponto de vista científico, na medida em que não utilizamos nenhum elemento de ficção. Mesmo assim, ele ficou bastante popular. Nas sessões em que estive presente, percebi que o filme gera uma grande empatia no público.” Um inventor exuberante
O filme não explora a vida pessoal do inventor, mas descreve em detalhes o contexto da época e mostra como Santos-Dumont influenciou a realidade desse período histórico. “Optamos por privilegiar o trabalho dele. Essa é a característica de um roteiro feito por um físico, pois olhamos a realidade da forma mais objetiva possível”, justifica Henrique Lins de Barros. Ele já escreveu dois livros sobre o inventor e argumenta que não há muitos documentos – como cartas, jornais, vídeos e fotos – que abordam o lado pessoal do pai da aviação. “Ele era um inventor exuberante, mas também uma pessoa muito discreta no cotidiano. Não existe uma fonte segura sobre isso.” A narrativa do filme não é linear: vai e volta no tempo diversas vezes, sem que isso confunda o espectador. “O pensamento de Dumont era descontínuo. Ele era um visionário, em 1902 já dizia que os veículos de vôo seriam extremamente importantes no futuro. Queríamos ressaltar essa característica”, diz Lins de Barros. “Fizemos a experiência de colocar as cenas em ordem cronológica, mas o clímax do filme – o vôo do 14-Bis – aconteceria no vigésimo minuto.” A polêmica sobre quem inventou o avião não é muito explorada, mas o filme traz imagens das comemorações de 100 anos do vôo do avião dos irmãos norte-americanos Orville e Wilbur Wright em 2003. Foi construída uma réplica do Flyer I especialmente para o evento, mas os organizadores não conseguiram fazê-la voar, o que aumentou ainda mais as dúvidas em torno da questão. “Não exploramos esse assunto porque para nós não há polêmica”, afirma Lins de Barros. “Santos-Dumont construiu e apresentou para o público o primeiro avião que decolava sozinho. Enquanto o Flyer I não funcionou nos Estados Unidos, o 14-Bis está voando normalmente”, alfineta. Ele ressalta que os brasileiros precisam ter consciência da importância de Alberto Santos-Dumont e se orgulhar disso. “Esse personagem não é famoso apenas no Brasil, mas em todo o mundo. Acredito que o filme deixou isso bem claro.”

A releitura de um mito

Quem inventou o avião? Se você é brasileiro, provavelmente responderá “Alberto Santos-Dumont”. Já os norte-americanos não hesitarão em dizer que foram os irmãos Wright. Franceses, alemães, russos e romenos também atribuem essa invenção a cidadãos de seus países. Pouca gente se dá conta, mas a aviação só se tornou possível após esforços de inúmeros engenheiros, inventores e, por que não, sonhadores. Com muitos deles trabalhando simultaneamente em seus projetos, fica difícil saber qual foi o pioneiro. É essa polêmica histórica que Conexão Wright – Santos-Dumont: a verdadeira história da invenção do avião pretende passar a limpo. O segundo livro do jornalista Salvador Nogueira defende, contrariando muitos brasileiros, que os irmãos Wilbur e Orville Wright conseguiram voar três anos antes de Alberto Santos-Dumont. Mas também mostra que não se deve dar todo o crédito somente a eles (nem a ninguém isoladamente). Os defensores dos irmãos Wright atribuem aos quatro vôos feitos com o Flyer em 17 de dezembro de 1903 o pioneirismo da aviação. Os partidários de Santos-Dumont, no entanto, alegam que o avião norte-americano não levantou vôo por meios próprios e decolou de um terreno inclinado, além de não ter sido presenciado por uma comissão técnica. Para eles, o primeiro vôo completo da história foi o do 14 Bis , realizado em 12 de novembro de 1906 e homologado pela Federação Aeronáutica Internacional. Salvador Nogueira defende o pioneirismo dos Wright, mas não tira o mérito do “pai da aviação” brasileiro e tampouco defende que ele tenha se apropriado da invenção dos irmãos norte-americanos. Ele enfatiza que as tecnologias utilizadas por ambos eram muito diferentes e que a do brasileiro se comprovou a mais eficaz ao longo do tempo, tanto que seus princípios são utilizados até hoje. O autor vai ainda mais longe: embora sustente que os Wright foram os primeiros a voar com um artefato mais pesado que o ar, acredita que eles atrasaram o desenvolvimento de novas tecnologias nos Estados Unidos por um bom tempo, devido a disputas de patentes. Enquanto isso, Santos-Dumont deixou seus projetos à disposição de qualquer um que quisesse utilizá-los. Filho de muitos pais O ponto principal do livro, no entanto, é mostrar a complexidade do processo de criação do avião. Nogueira mostra que a aviação não teve um pai, mas vários, desde o italiano Leonardo da Vinci – o primeiro a projetar um aeroplano – até os contemporâneos de Santos-Dumont e dos irmãos Wright. Por essa razão, apresenta alguns inventores – como o norte-americano Samuel Langley, o alemão Otto Lilienthal e os franceses Gabriel Voisin, Louis Blériot e Henri Farman – como importantes personagens da história da aviação. Além deles, Nogueira destaca também o papel de outros grandes incentivadores da aviação, como os franceses Henri Deutsch de la Meurthe e Ernest Archdeacon, que instituíram prêmios e estimularam vários inventores a se dedicarem à construção de aeroplanos. Em Conexão Wright – Santos-Dumont , Salvador Nogueira organiza a história de todos esses personagens e as apresenta em uma narrativa romanceada, que mistura realidade e ficção. O autor recorre a diálogos inventados, mas que expressam o modo de pensar dos personagens, misturados com cartas e matérias de jornais. No entanto, o livro não se distancia dos fatos, colhidos após anos de pesquisas em arquivos e entrevistas com especialistas. O livro é escrito em linguagem simples, que permite a compreensão dos termos técnicos de aviação. A leitura também é facilitada pela organização dos capítulos, feita por anos, que não deixa o leitor se perder entre tantas histórias paralelas e, ao mesmo tempo, intercruzadas. Com uma narrativa bem estruturada, que prende a atenção do início ao fim, Conexão Wright – Santos-Dumont é um convite para uma viagem no tempo, que leva o leitor a reconstituir os passos que levaram a uma das maiores invenções do século 20.

Bagaço da cana também produz álcool

Uma pesquisa inovadora promete consolidar a posição estratégica do Brasil como um grande produtor mundial de biocombustíveis. Pesquisadores da Petrobras e da Universidade Federal do Rio de Janeiro (UFRJ) desenvolveram uma tecnologia para a obtenção de etanol a partir do bagaço da cana-de-açúcar, o que poderá aumentar em 40% a produção nacional desse biocombustível e incrementar a participação das fontes renováveis na matriz energética do país. A iniciativa surgiu da necessidade da Petrobras de investir em alternativas que aumentassem a produção de álcool sem expandir a área de cana plantada, o que evitaria a competição com a agricultura voltada para a produção de alimentos e não estimularia o desmatamento. A partir de um levantamento feito pela empresa nas principais universidades do país, teve início em 2004 um projeto baseado em resultados promissores de uma pesquisa conduzida pelo professor Ney Pereira Junior, da Escola de Química da UFRJ. A tecnologia utiliza matérias-primas que contêm lignocelulose, presente em qualquer fibra vegetal, para obter bioetanol – nome técnico do álcool produzido a partir de resíduos vegetais. O etanol convencional é produzido a partir da fermentação do caldo de cana, e não da biomassa propriamente dita. Com o álcool de lignocelulose, inaugura-se a segunda geração de biocombustíveis, extraídos da matéria descartada nos processos usuais de produção do etanol. A coordenadora do projeto, Lídia Santa Anna, da Petrobras, explica que a lignocelulose é composta principalmente por celulose, hemicelulose e lignina. A celulose e a hemicelulose são polímeros constituídos de açúcares e a lignina é um composto que protege essas substâncias de microrganismos e dá resistência à fibra. “O objetivo do nosso processo é desorganizar essa estrutura”, diz. A pesquisadora destaca que a tecnologia desenvolvida pela Petrobras pode ser ajustada para outros rejeitos vegetais que tenham potencial para produção de bioetanol, como os resíduos da palha ou o capim. “Resíduos de torta de mamona, pinhão-manso e soja também estão sendo cogitados para produzir bioetanol por meio de tecnologia semelhante”, conta. Segundo Santa Anna, a escolha da cana-de-açúcar para iniciar o projeto não foi ao acaso. “A partir de uma tonelada de bagaço de cana, é possível hoje gerar 220 litros de etanol e, em poucos anos, pretendemos chegar à marca de 270 litros”, estima. Do bagaço ao combustível
Para se fabricar etanol a partir da lignocelulose, o bagaço da cana é prensado dentro de um reator e submetido a uma solução ácida que quebra a estrutura da fibra. No processo, a hemicelulose é decomposta em açúcares que ficam em um resíduo líquido. Este passa por uma etapa de fermentação, em que microrganismos usam os açúcares para produzir o bioetanol. Paralelamente, a lignina presente no resíduo sólido do pré-tratamento do bagaço é retirada e o material, rico em celulose, recebe enzimas que quebram o composto em açúcares, que também seguem para fermentação. “Para esse estudo, usamos duas espécies de leveduras naturais: Pichia stipitis e Sacharomyces cerevisiae”, conta a pesquisadora. A etapa final é a destilação, ou seja, a recuperação e purificação do etanol que conhecemos. “Tudo é aproveitado”, destaca ela. A grande vantagem do processo é a reciclagem de resíduos que seriam descartados para a geração de energia. “O bagaço da cana é o resíduo agroindustrial mais expressivo no país”, ressalta Santa Anna. Após os resultados positivos em laboratório, a nova tecnologia passa por testes em escala piloto em uma unidade experimental instalada no Centro de Pesquisas e Desenvolvimento da Petrobras (Cenpes), no Rio de Janeiro. “O equipamento foi projetado de forma que o processo todo seja integrado, desde o pré-tratamento do bagaço até a fermentação e destilação do álcool”, afirma a pesquisadora. E completa: “A Petrobras prevê que em 2010 seja inaugurada uma planta demonstrativa para produzir álcool a partir de lignocelulose, no Rio de Janeiro, de olho no potencial imenso do Brasil para exportar esse produto.”

O impasse dos OGMs

O critério para determinar o risco potencial de um organismo geneticamente modificado (OGM) atualmente aceito por instituições como a Organização Mundial de Saúde baseia-se no princípio da equivalência substancial, que consiste em verificar se os alimentos transgênicos apresentam os mesmos nutrientes que os convencionais. No entanto, esse conceito ainda não está regulamentado no Brasil.
O princípio da equivalência substancial não leva em conta a localização dos genes 'estrangeiros' no genoma hospedeiro. "Isso é importante na medida em que a expressão dos genes parece depender não só de sua composição química, mas também do lugar que ocupa no genoma", observa Hugh Lacey, professor do Swarthmore College (EUA). Ele lembra que poucos estudos empíricos foram realizados sobre os riscos a longo prazo dos OGMs e que seus resultados geralmente não estão disponíveis para análises independentes.
Segundo a médica Fátima Oliveira, coordenadora da Rede de Informação sobre Bioética e autora de Transgênicos: o direito de saber e a liberdade de escolher, o conceito de equivalência substancial não possui sustentação científica. "Os cientistas Erik Millstone, Eric Brunner e Sue Mayer, em artigo na revista Nature de outubro de 1999, desmistificam e classificam esse conceito como pseudocientífico." No entanto, um estudo realizado entre 1985 e 2000 pela União Européia afirma que, entre os OGMs, "não foi encontrado qualquer risco à saúde humana ou ao meio ambiente, além dos já percebidos nas plantas convencionais".
Em 1989 nos EUA consumidores de um complemento alimentar que continha triptofano produzido por bactérias transgênicas adquiriram a síndrome de eosinofilia-mialgia, o que causou a morte de 37 pessoas e a invalidez de outras 1500. Testes realizados antes da liberação para consumo do produto haviam atestado sua equivalência substancial ao convencional. Porém, os engenheiros genéticos não contavam que, com a alteração genética, as bactérias passariam a produzir um novo aminoácido extremamente tóxico.
Os defensores de OGMs destacam vantagens como o enriquecimento nutricional dos alimentos, resistência a secas, geadas e pragas, o que minimizaria o uso de herbicidas e pesticidas. Um estudo publicado por Charles Benbrook, do Centro de Política Ambiental e Científica do Noroeste (Idaho/EUA), no entanto, atesta que a soja transgênica tem produtividade entre 2 a 8% menor do que a verificada em variedades convencionais. E segundo o Departamento de Agricultura dos EUA, a soja transgênica exige em média 11% mais agrotóxicos que a convencional.
A uniformidade genética também é apontada como uma desvantagem dos OGMs: a ausência de variabilidade genética tornaria as plantações mais vulneráveis a pragas. Outro risco é a dispersão de genes de espécies cultivadas para espécies silvestres, sobretudo em plantas que se reproduzem por polinização, como o milho. Na ausência de estudos aprofundados, que observem a longo prazo os efeitos dos OGMs sobre o homem e o meio ambiente, prevalece o impasse sobre sua produção e consumo.

Direitos humanos e biotecnologia

O passo seguinte ao seqüenciamento do genoma humano, concluído em 2000, é identificar entre os 3 bilhões de pares de bases genéticas aqueles segmentos que contêm instruções para a síntese de proteínas. O mapeamento do genoma já apresenta benefícios, como a possibilidade de diagnosticar doenças, além das promessas da terapia gênica, que interviria diretamente no DNA, e a perspectiva de desenvolvimento de drogas em função do perfil genético do paciente.
Atualmente, cerca de 7 mil doenças estão associadas a genes, o que permite adaptar o estilo de vida de um indivíduo de modo a administrar seu patrimônio genético da melhor forma. "Mas não fazemos o diagnóstico precoce em crianças assintomáticas", esclarece a geneticista Mayana Zatz, do Centro de Diagnóstico e Aconselhamento Genético da Universidade de São Paulo (USP). "Não consideramos ético detectar se uma criança desenvolverá uma doença de início tardio para a qual não existe cura. O argumento é que, quando adulta, ela poderá escolher se deseja ou não ser testada."
Apesar dos avanços nos procedimentos de diagnóstico e na medicina criminal, a geneticista alerta para o risco de discriminação por empregadores, companhias de seguros e planos de saúde com base em dados genéticos. "É necessário que as informações genéticas de cada indivíduo sejam mantidas confidenciais, apesar de ainda não se saber como", observa. "O genoma humano abre perspectivas para o progresso científico e da saúde da humanidade, mas deve-se assegurar a dignidade, a liberdade e os direitos humanos." A geneticista observa que deve haver respeito à singularidade, uma vez que o genoma contém potenciais expressos diferentemente, de acordo com o ambiente natural e social de cada indivíduo.
Outro problema é que a engenharia genética aplicada aos dados obtidos pelo seqüenciamento do genoma humano abre em teoria as portas para o risco da eugenia -- a seleção de embriões com base em características genéticas, como a cor da pele. "Hoje já existem casais sem problemas genéticos que vão às clínicas de fertilização para escolher o sexo do bebê", alerta Zatz.
A geneticista não acredita, no entanto, que a possibilidade de escolher o perfil genético de embriões afetaria a diversidade da espécie humana. "As pessoas têm gostos tão variados que haveria escolhas por todas as características." Ela observa, porém, que em determinadas populações poderia haver uma desproporção em relação ao sexo dos bebês nascidos, por exemplo, como ocorre na China (que desde 1995 adotou uma lei que prevê a esterilização ou contracepção obrigatória para casais que apresentem defeitos genéticos graves).
Zatz é contrária ao patenteamento de genes, como institui o quarto artigo da Declaração Universal sobre o Genoma Humano e os Direitos Humanos, elaborada pela Unesco em 1997. A geneticista acredita, no entanto, que o patenteamento é possível caso se desenvolva um medicamento ou um exame a partir das informações do genoma.