Maioria dos brasileiros acredita na efetividade desses medicamentos; grupos de idosos e com menor renda apresentam percepção mais negativa

Daniel Patini

Entreteses04 p054 genericos

Um estudo realizado pelo Grupo Interdepartamental de Economia da Saúde (Grides), órgão complementar do Campus São Paulo - Unifesp, em parceria com a empresa Foco Opinião e Mercado, avaliou a percepção da população brasileira em relação aos medicamentos genéricos. Realizado entre abril e maio de 2013, o trabalho contou com a participação de cinco mil pessoas, residentes em 16 capitais brasileiras, das cinco regiões do Brasil, e foi publicado na revista BMC Public Health, especializada em epidemiologia e saúde pública.

De acordo com a pesquisa, 58,8% dos entrevistados consideraram a efetividade dos genéricos equivalente à do respectivo medicamento de referência. Apesar da percepção positiva encontrada pelo grupo, quase um terço da população estudada (30,4%) disse acreditar que os genéricos são medicamentos menos efetivos. 

Além disso, 59,2% afirmaram que prefeririam ingerir o medicamento de referência caso os preços fossem semelhantes, enquanto 41% relataram que os genéricos são mais apropriados para doenças menos graves. “Esses resultados sugerem a subutilização do medicamento substituto ou o aumento da desconfiança em relação a seu uso, no caso de uma doença mais grave”, explica Elene Paltrinieri Nardi, estudante do curso de mestrado na área de Informática em Saúde da EPM e uma das autoras da pesquisa.

Percepção negativa

Ao contrário do que era esperado, cerca de um terço (32,4%) da população com renda de até dois salários mínimos mensais expressou desconfiança em relação aos genéricos, considerando-os medicamentos menos efetivos. Ao mesmo tempo, 24,3% da população que recebia mais de dez salários mínimos manifestou a mesma opinião. Por outro lado, a percepção do grupo de pessoas com idade mais avançada foi predominantemente negativa em relação aos genéricos, quando comparada à de grupos mais jovens. 

“A visão negativa em relação aos genéricos, observada em pessoas de menor renda e mais idosas, levanta preocupação, pois esses grupos da população têm maior necessidade de medicamentos que tenham custos reduzidos, devido à restrição orçamentária ou à concomitância de doenças crônicas e, consequentemente, à utilização de maior número de medicamentos”, analisa a pesquisadora.

Histórico e perspectivas

Os medicamentos genéricos foram estabelecidos no Brasil pela Lei nº 9.787, de fevereiro de 1999, para fortalecer o acesso da população a medicamentos de melhor qualidade, mais seguros e com preços mais acessíveis – eles devem ser registrados na Agência Nacional de Vigilância Sanitária (Anvisa) com preços 35% inferiores aos dos medicamentos de referência.

Transcorridos 16 anos da publicação da lei, a aceitação e utilização desses produtos ainda geram dúvidas na população. “Este trabalho pode contribuir para a formulação de políticas públicas de saúde que favoreçam o acesso da população a medicamentos seguros e de qualidade, além de auxiliar na formulação de estratégias que visem à otimização dos gastos em saúde com medicamentos”, complementa o diretor do Grides, professor Marcos Bosi Ferraz.

Diferenças entre os medicamentos

No Brasil, há três tipos de medicamento: os de referência, os genéricos e os similares. O medicamento de referência é o produto inovador cuja efetividade e segurança são garantidas por estudos clínicos. Ele apresenta marca comercial e, muitas vezes, é protegido por patente. 

Os genéricos e os similares são cópias e somente podem ser comercializados após a expiração da patente do medicamento inovador. “Ambos devem apresentar o mesmo princípio ativo, concentração, forma farmacêutica, via de administração e indicação terapêutica que o respectivo medicamento de referência”, diz Elene. 

Uma das diferenças entre esses medicamentos cópia pode ser observada nas embalagens. Os genéricos devem apresentar o nome do princípio ativo, identificações como a letra G e o número da lei que, no Brasil, definiu sua natureza. Já os similares são medicamentos de marca e, portanto, são vendidos com um nome comercial. 

Em relação à efetividade, até 2014 apenas os medicamentos genéricos apresentavam estudos de bioequivalência e eram intercambiáveis com os respectivos medicamentos de referência. No início de 2015, com a Resolução da Diretoria Colegiada (RDC) nº 58, de 10 de outubro de 2014, da Anvisa, os similares tornaram-se intercambiáveis com os outros dois tipos de medicamento, em razão da obrigatoriedade de testes de bioequivalência para sua comercialização.

Raio X da pesquisa 

Para o estudo em questão, foram entrevistadas cinco mil pessoas com idade entre 15 e 99 anos, residentes em 16 capitais brasileiras, com a seguinte distribuição entre as regiões brasileiras: 415 (Norte), 1.390 (Nordeste), 2.105 (Sudeste), 720 (Sul) e 370 (Centro-Oeste). A amostra foi constituída por cotas representativas da população brasileira, de acordo com os dados do Censo 2010 do Instituto Brasileiro de Geografia e Estatística (IBGE), e proporcionais à densidade populacional das capitais em cada região do país.

O questionário abordou a percepção da população ante os medicamentos genéricos, no que tange à sua efetividade, efeitos colaterais, utilização, intervalo de tempo para surtir efeito, preferência individual e preferência dos médicos. 

Dos entrevistados, 51,3% eram mulheres e 48,7%, homens; 48,6% situavam-se na faixa etária de 15 a 34 anos; e 52,3% tinham renda de até dois salários mínimos. Além disso, a maior utilização de medicamentos genéricos nos últimos três meses anteriores à aplicação da pesquisa foi observada na população feminina (49,2%) e na população acima de 65 anos de idade (61,1%).

Artigo relacionado:
NARDI, Elene P.; FERRAZ, Marcos B.; PINHEIRO, Geraldo R.C.; KOWALSKI, Sérgio C.; SATO, Emilia I. Perceptions of the population regarding generic drugs in Brazil: a nationwide survey. BMC Public Health, Londres, v. 15, n. 117, fev. 2015. Disponível em: <dx.doi.org/10.1186/s12889-015-1475-1>. Acesso em: 17 abr. 2015.

entreteses 04 2015  Sumário da edição 04

Publicado em Edição 04

Software desenvolvido por pesquisadores da Unifesp automatiza a identificação de expressões de dor em recém-nascidos

Valquíria Carnaúba

Entreteses04 p075 choro bebe

A Associação Internacional para o Estudo da Dor define essa sensação como “uma experiência sensorial e emocional desagradável, associada a uma lesão tecidual real ou potencial, que pode ser descrita nos termos dessa lesão”; assim, “a dor é sempre subjetiva” (1979). A dor e suas implicações motivam constantes avanços na Neonatologia, pois afligem recém-nascidos e prematuros, que chegam ao mundo sem saber expressá-la, muito menos fisiologicamente maduros para lidarem com ela. Daí a relevância de projetos como o conduzido por Ruth Guinsburg, professora titular do Departamento de Pediatria da Escola Paulista de Medicina (EPM/Unifesp) – Campus São Paulo, com apoio da Fundação de Amparo à Pesquisa do Estado de São Paulo (Fapesp): um software concebido para detectar, em tempo real, expressões faciais de dor em bebês.

Os estudos iniciais para a criação desse software foram realizados há mais de dez anos pela fisioterapeuta especialista em Fisioterapia Respiratória Pediatrica e mestre em Engenharia Biomédica, Tatiany Marcondes Heiderich. Entretanto, o projeto foi colocado em prática somente em 2009 - com a aprovação do Comitê de Ética em Pesquisa da Unifesp -, durante o curso de doutorado em Ciências Aplicadas à Pediatria na EPM. “Meu interesse pelo assunto foi despertado quando percebi que nessa faixa etária todas as análises eram visuais e apontadas manualmente. Foi o contato com a Engenharia Biomédica que me inspirou a buscar ferramentas para automatizar esse processo”, afirma a pesquisadora.

A metodologia que Tatiany utilizou abrange a detecção de dor por meio da escala Neonatal Facial Coding System (NFCS), um guia que determina pontos dos rostos dos recém-nascidos que indicam a presença de dor. Capaz de aferir a sensação utilizando-se de um conjunto de parâmetros, como fronte proeminente com aproximação das sobrancelhas, olhos espremidos, fenda nasolabial aprofundada e lábios esticados de forma horizontal ou vertical, a escala é uma das mais bem conceituadas na literatura da área por ter uma especificidade muito alta e uma reprodutividade interessante.

Biometria

A validação do software – que busca assegurar o fornecimento de resultados confiáveis – foi realizada a partir da captação de imagens de 30 recém-nascidos na unidade de Neonatologia do Hospital São Paulo/Hospital Universitário da Unifesp, entre junho e agosto de 2013. Os bebês, cujo tempo de vida variava entre 24 e 168 horas, não apresentavam malformações congênitas e não necessitavam de suporte ventilatório ou sonda gástrica.

Antes do início das gravações, os bebês foram fotografados em momentos de relaxamento para que as imagens fossem usadas como parâmetro em relação à mudança de expressões. As imagens posteriores foram realizadas simultaneamente por três câmeras, durante 24 horas por dia, permitindo o mapeamento de mais de 60 pontos da face; tais pontos levaram à padronização utilizada pelo sistema de identificação biométrica, uma característica do programa.

Todos os relatórios gerados pelo software foram avaliados por seis profissionais especializados em Neonatologia, que compararam as fotos dos bebês antes, durante e depois de passarem por procedimentos médicos dolorosos e determinaram a presença ou não de dor em cada uma delas. Com base nessas constatações, o programa mostrou-se eficaz na identificação dos sinais de dor de todos os bebês flagrados em algum momento de sofrimento. No entanto, quando o mesmo documento foi repassado a médicos e enfermeiros da área, apenas 77% deles conseguiram detectar as expressões de dor.

De acordo com a pesquisadora, o desenvolvimento posterior do software tornará viável a geração de um relatório baseado na escala NFCS, que indicará quantas vezes o paciente apresenta face de dor no período de tempo em que é filmado. Isto poderá abrir caminhos para o controle da analgesia sistêmica em recém-nascidos (além de seus efeitos colaterais), a eliminação de lacunas existentes nos métodos de avaliação da dor por escalas, a supressão do sofrimento nas unidades de tratamento intensivo (UTIs) e, claro, a queda da mortalidade infantil.

Projeto em fase inicial

Entreteses04 p076 ruth guinsburg

Para Ruth Guinsburg, o software poderá auxiliar profissionais de saúde a detectar o sofrimento de bebês internados em UTIs

Apesar da inovação ser muito bem-vinda, o projeto encontra-se em sua fase nascente. O sistema de captação de imagens – que é composto de um computador central e de três câmeras à beira do leito – depende ainda da posição do neonato para garantir sua eficácia. “O que fizemos até o momento foi a validação do software para situações de um bebê a termo [bebê nascido após o período normal de gestação] com dor aguda, permitindo-se que a programação traduzisse a face da criança”, explica Ruth. “Porém, o programa ainda precisa de uma série de melhorias para só então ser colocado em prática”.

Os próximos passos para a aplicação definitiva do software incluem a observação de seu desempenho dentro de uma unidade de terapia intensiva e o refinamento de suas funções, como enumera Tatiany. “É preciso reestruturá-lo e implementar métodos de análise da orelha, língua e área (delimitada) superior da face, que ajudarão a detectar novos movimentos – como o tremor de queixo –, além de aperfeiçoar o método de captura das imagens.”

Quanto a outras aplicações, Ruth é otimista: “Existe a possibilidade de, no futuro, profissionais da área adequarem a aplicação do programa em crianças acometidas por deficiências graves que não conseguem expressar a dor.”

Expressões de dor no recém-nascido, segundo a escala NFCS

Entreteses04 p076 expressao

O sistema desenvolvido é baseado na escala Neonatal Facial Coding System (NFCS), utilizada no reconhecimento de movimentos faciais de dor, convertida em linguagem de computador com o suporte do Departamento de Informática em Saúde (DIS) da Escola Paulista de Medicina (EPM)

Entreteses04 p076 expressoes

Artigo relacionado:
HEIDERICH, Tatiany Marcondes; LESLIE, Ana Teresa Figueiredo Stochero; GUINSBURG, Ruth. Neonatal procedural pain can be assessed by computer software that has good sensitivity and specificity to detect facial movements. Acta Paediatrica, [s.l.], v. 104, n. 2, p. e63-e69, fev. 2015. Disponível em: <onlinelibrary.wiley.com/doi/10.1111/apa.12861/pdf>. Acesso em: 8 abr. 2015.

Publicado em Edição 04
Terça, 02 Junho 2015 14:59

Mudança de parâmetros

Pesquisa questiona eficácia de índice utilizado para avaliação da qualidade da água e mapeia pontos sensíveis ao desenvolvimento massivo de microrganismos tóxicos

Ana Cristina Cocolo

grafismo agua
Entreteses04 p025 represa guarapiranga

Além do impacto com a ocupação de suas margens, a represa Guarapiranga também sofre com os produtos químicos lançados na água para o controle de algas e de cianobactérias

Uma das atuais ferramentas de avaliação da qualidade de água oficialmente adotada no Estado de São Paulo, o Índice de Qualidade da Água (IQA) não é tão eficiente quanto parece e precisa ser revisto. 

A conclusão é de um estudo realizado por pesquisadores do Instituto de Ciências Ambientais, Químicas e Farmacêuticas da Universidade Federal de São Paulo (ICAQF/Unifesp) do Campus Diadema na represa Guarapiranga, segundo maior sistema de abastecimento de água potável da região metropolitana de São Paulo e responsável por atender cerca de 20% dessa população. 

Décio Semensatto, professor adjunto do Departamento de Ciências Biológicas do instituto, e Tatiane Asami, bióloga que apresentou a pesquisa como seu trabalho de conclusão de curso (TCC) na universidade, debruçaram-se nos dados históricos da Companhia de Tecnologia de Saneamento Ambiental (Cetesb) – ligada à Secretaria do Meio Ambiente do Governo do Estado de São Paulo – sobre a qualidade da água da represa entre os anos de 1978 e 2010 em nove parâmetros: coliformes fecais, pH, demanda bioquímica de oxigênio, nitrogênio total, temperatura, turbidez, resíduos sólidos totais, fósforo total e oxigênio dissolvido. 

Além de analisar a degradação histórica da água da represa Guarapiranga nesse período, paralelamente, eles também verificaram a eficácia de duas ferramentas utilizadas para monitorar as tendências de qualidade: o IQA (que possui cinco classes: excelente, boa, regular, ruim e péssima) e Análise de Componentes Principais (PCA), em inglês Principal Component Analysis, que trabalha com diversas variáveis ambientais integradas. A PCA é um procedimento estatístico de análises multivariadas.

No ponto da represa com melhor índice de IQA, considerada excelente, 97% de oxigênio dissolvido medido e 94% das concentrações totais de fósforo ultrapassaram o limite legal. A mesma situação foi encontrada com relação a coliformes fecais e concentrações de oxigênio dissolvido em pontos classificados como bons pelo mesmo índice.

De acordo com Semensatto, até a década de 1970 a represa Guarapiranga era um reservatório com pouca entrada de esgoto e IQA bom. “Na década de 1980, mais precisamente entre 1986 e 1987, já percebe-se um primeiro declínio, mas ainda assim, predominantemente, a água permaneceu boa, com alguns episódios de classificação regular”, afirma. “Em 1995 houve uma grande piora nesse índice, justificado pela descarga direta de esgoto não tratado e pelo grande número de assentamentos irregulares no local. Já se passaram 20 anos e o reservatório ainda não conseguiu recuperar o nível de qualidade, mantendo-se razoável, mas com maior tendência de piora. O que variava entre regular e boa, hoje varia de regular para ruim”.

PCA e esgoto puro

O estudo separou as análises de um ponto específico da represa em períodos distintos por três décadas: 1978 a 1987, 1988 a 1997 e 1998 a 2010. 

Entreteses04 p026 trabalho em campo

Trabalho em campo: professor Décio Semensatto (de colete) com os alunos, à época, Adriana Rodrigues e Philipe Leal

Para se ter uma ideia do declínio da qualidade da água, em um dos parâmetros avaliados no PCA, os casos de não conformidade da concentração de coliformes fecais avançaram de 46% em 1978-1987 para 87,5% em 1988-1997 e para 96% em 1998-2010.

“Apesar das variáveis levadas em conta no IQA, ele frequentemente manteve-se relativamente estável na classificação da qualidade da água ao longo do tempo, principalmente em parâmetros importantes que indicam uma significativa degradação do reservatório, como os coliformes fecais, nitrogênio total e concentração de fósforo”, explica o pesquisador. “Dessa forma, a avaliação com a PCA representou uma alternativa mais eficaz para a gestão da qualidade da água”.

A coleta também mostrou que fatores distintos, como a ocupação das margens e as diferentes fontes de poluição ambiental, influenciaram nesse índice em diferentes regiões do reservatório. Essencialmente, segundo Semensatto, o que está sendo jogado dentro da represa Guarapiranga é esgoto doméstico. “No entanto, encontramos metais pesados devido ao sulfato de cobre, um sal metálico jogado na água pela companhia de saneamento para controlar a proliferação de algas e de cianobactérias”.

Entreteses04 p026 guarapiranga

Até a década de 1970, a represa Guarapiranga era um reservatório com pouca entrada de esgoto e IQA considerado bom

Bactérias prejudiciais à saúde, as cianobactérias podem provocar desde alergia até comprometimento do fígado e do sistema nervoso central devido à sua toxicidade. 

O pesquisador explica que apesar desses materiais decantarem e acumularem-se no sedimento do reservatório, as chuvas de verão causam turbulência nas águas e fazem com que essas substâncias suspendam e atinjam a coluna da água que vai para tratamento e posterior consumo humano. “O tratamento é feito de forma correta e elimina os poluentes já conhecidos, como coliformes fecais, entre outros”, afirma. O problema, de acordo com ele, são os poluidores emergentes, como os fármacos, hormônios e nanopoluentes, que são empregados em uma infinidade de produtos utilizados diariamente. “Ainda não temos definida uma concentração máxima aceitável de vários desses poluentes”. 

Mapeamento das cianobactérias

O despejo irregular de esgoto doméstico e industrial, causados principalmente pela ocupação irregular das margens de mananciais, propicia a eutrofização das águas. Nesse fenômeno, o excesso de compostos químicos, ricos em fósforo e nitrogênio, prejudica o índice de qualidade das águas superficiais e estimula o crescimento de algas e microrganismos muitas vezes prejudiciais à saúde, como as cianobactérias. 

Semensatto coordenou outra pesquisa, ao lado do biólogo Danilo Boscolo, na época professor do Campus Diadema, que teve por finalidade propor um mapa-piloto de sensibilidade ambiental às florações massivas de cianobactérias na represa Guarapiranga, mais especificamente as do gênero Microcystis, frequentemente encontradas nos reservatórios brasileiros e com toxicidade significativa. 

Entreteses04 p027 mapa sensibilidade ambiental

Mapa de sensibilidade ambiental às florações massivas de cianobactérias no Reservatório Guarapiranga

O trabalho – que também foi apresentado como TCC para obtenção do título de bacharel em Ciências Ambientais pela aluna Adriana Rodrigues e em Ciências Biológicas por Philipe Riskalla Leal – integrou levantamentos físicos e biológicos da represa e socioeconômicos do entorno. A área estudada envolveu todo o perímetro do reservatório, que abrange os municípios de São Paulo, Itapecerica da Serra, Embu-Guaçu, Embu, Cotia, São Lourenço da Serra e Juquitiba, com uma superfície aquática de mais de 3.600 hectares. 

A combinação dos parâmetros avaliados resultou em 72 valores de Índice de Sensibilidade Ambiental (ISA), que foram organizados em ordem decrescente e divididos em seis classes de sensibilidade ambiental, usando-se o ISA e adotando-se as nomenclaturas CS1 até CS6. Quanto maior a classificação numérica, maior a sensibilidade do local com relação à ocorrência de florações massivas de cianobactérias. 

As informações levantadas em campo, juntamente com as bibliográficas, foram compiladas e integradas a um banco de dados que auxiliou a elaboração do mapa e sua finalização em escala 1:10.000, permitindo uma rápida identificação dos elementos que compõem a paisagem e os parâmetros para avaliar os níveis de sensibilidade ambiental associados (veja a reprodução do mapa na página anterior). 

De acordo com o levantamento, a classe de sensibilidade ambiental mais frequente no entorno da Guarapiranga é o CS4, seguido pelo CS5 e CS6, presentes em 16% e 24% dos segmentos, respectivamente. 

O pesquisador explica que em várias regiões do reservatório é comum verificar o uso direto da água pelos habitantes, aumentando o risco de contaminação pelas toxinas por meio do contato dérmico ou de sua ingestão. “O modelo de mapa desenvolvido pode ser estendido a outros mananciais e colaborar para uma melhor gestão da qualidade hídrica e da manutenção da segurança ambiental e da saúde pública”. 

Parcerias em busca da história 

Os pesquisadores do Instituto de Botânica do governo do Estado de São Paulo, Denise de Campos Bicudo e Carlos Eduardo de Mattos Bicudo, estão coordenando um estudo mais complexo sobre os reservatórios que abastecem a região metropolitana de São Paulo, no qual envolve várias universidades, entre elas a Unifesp. 

Um dos segmentos dessa pesquisa está sob a responsabilidade de Semensatto. Nele o professor está analisando o comportamento das tecamebas presentes na represa Guarapiranga, especificamente, desde antes de o local se transformar em reservatório. 

Entreteses04 p028 tecamebas

Diversas espécies de tecamebas: além de servirem como alimento a outros organismos, elas também servem como bioindicadoras da ação do homem no meio aquático

Microrganismos unicelulares, as tecamebas são consumidoras de bactérias, fungos e algas, além de substâncias e detritos orgânicos. Elas participam do ciclo biogeoquímico representado pela movimentação natural de elementos químicos no ecossistema entre seres vivos, ou seja, a matéria orgânica que resulta da morte de um organismo é degradada por agentes decompositores e seus elementos químicos retornam ao ambiente para serem reaproveitados por outro organismo vivo. 

Entreteses04 p028 coleta sedimento represa

Pesquisadores coletando o sedimento da represa para verificar as mudanças em diversos indicadores ambientais

As tecamebas também servem de alimento a outros protozoários e pequenos peixes e como indicativo de interferências da ação do homem no meio aquático. Recebem esse nome por abrigarem-se em “conchas” (tecas) construídas a partir de material secretado pela própria célula ou por partículas, geralmente grãos de quartzo, disponíveis no meio ambiente. 

Como várias pesquisas com as algas do reservatório apontam que a poluição mudou o comportamento das mesmas, Semensatto acredita que o mesmo possa ocorrer com as tecamebas. “Dados preliminares analisados de colunas de sedimentos retirados da represa, a uma profundidade de 1,5 metros, dizem que sim”, explica ele.

Essa coluna de sedimento – chamada de testemunho e analisada centímetro a centímetro – é capaz de contar a história de décadas de contaminação e de alteração do ecossistema lá existente.

O pesquisador esclarece que todos os ecossistemas têm capacidade de absorver impactos (até um certo limite) e reorganizar-se até atingir um novo nível de estabilidade. No entanto, o estudo de alterações ambientais deve ocorrer em uma perspectiva de teia de interações, já que os organismos vivos se relacionam em série. “Quando interferimos em uma espécie, essa alteração se propaga como uma onda pela rede inteira de conexões”.

Artigos relacionados:

SEMENSATTO, Décio; ASAMI, T. . Water quality history of the Guarapiranga Reservoir (São Paulo, Brazil): analysis of management tools. In: 2nd IWA Specialized Conference ‘Ecotechnologies for Sewage Treatment Plants’ - EcoSTP 2014, 2014, Verona, Itália. Proceedings: EcoSTP 2014. Verona, Itália, 2014. v.1. p. 808-812.

RODRIGUES, A. ; LEAL, P. R. ; BOSCOLO, D. ; SEMENSATTO, Décio . Mapa de sensibilidade ambiental às florações massivas de cianobactérias no Reservatório Guarapiranga, São Paulo. In: X Encontro Nacional de Águas Urbanas, 2014, São Paulo. Anais do X Encontro Nacional de Águas Urbanas. Porto Alegre (RS): Associação Brasileira de Recursos Hídricos, 2014. p. 1-4

SAAD, A.R. ; MARTINEZ, S. S. ; GOULART, M. E. ; SEMENSATTO, Décio; VARGAS, R. R. ; ANDRADE, M. R. M. . Efeitos do Uso do Solo e Implantação da Estação de Tratamento de Esgoto sobre a Qualidade das Águas do Rio Baquirivu-Guaçu, Região Metropolitana de São Paulo. Revista Brasileira de Recursos Hídricos, v. 20, p. 147-156, 2015.

SOUSA, R. S. ; SEMENSATTO, Décio . Qualidade da Água do Rio Piracicaba: estudo de caso do efeito da Estação de Tratamento de Esgoto
Piracicamirim, município de Piracicaba (SP). Revista Brasileira de Recursos Hídricos, v. 20, n. 3, no prelo, 2015.

grafismo agua
Publicado em Edição 04

Membro titular da Academia Brasileira de Ciências e pró-reitor de Planejamento da Unifesp, Esper Abrão Cavalheiro defende a criação de um centro de estudos avançados na instituição

Da Redação
Com a colaboração de Flávia Kassinoff

Entreteses04 p011 Esper Abrao Cavalheiro

Neurocientista, professor titular do Departamento de Neurologia e Neurocirurgia da Escola Paulista de Medicina (EPM/Unifesp) – Campus São Paulo e atual pró-reitor de Planejamento da instituição, Esper Abrão Cavalheiro já presidiu o Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) e foi secretário do Ministério da Ciência, Tecnologia e Inovação. Cavalheiro critica o “excesso de formalismo” que os programas de pós-graduação impõem aos pesquisadores brasileiros, como decorrência das demandas por resultados imediatos oriundas das agências de fomento. O resultado, afirma, é a transformação do jovem pesquisador em “soldadinho de chumbo”, com o engessamento da criatividade. E propõe ideias inovadoras para que a Unifesp avance no debate sobre os rumos da ciência e na produção de pesquisa. Entre elas, está o projeto de criação de um centro de estudos avançados.

Entreteses - Quando e como surgiu a proposta de criação de um centro de estudos avançados na Unifesp?

Esper Cavalheiro - A ideia de um centro de estudos avançados não é nova na Unifesp. Nas instituições de ensino superior com mais tradição acadêmica, a presença de espaços abertos às discussões de temas de fronteira, ainda em processo de maturação ou experimentação, tem sido fundamental na abertura das universidades para o novo, o não previsto, e para os novos desafios enfrentados pela sociedade.

Um espaço onde a discussão de questões atuais, próprias ao país e à sociedade, possa ser feita sem a rigidez do espaço acadêmico, entre pessoas da própria instituição ou com a participação de convidados, com o objetivo de esclarecer, trazer uma luz sobre temas que são palpitantes no mundo de hoje.

Na Unifesp, a ideia passou a ser discutida entre os titulares que participam do Consu. A partir daí, no processo de diálogo com os demais integrantes da Reitoria, começamos a dar forma a uma proposta que permita à Unifesp criar um espaço intelectual por excelência, com relevância para o debate científico mais atual.

E. Como irá funcionar esse centro? As discussões serão feitas de forma interdisciplinar?

E.C. Eu prefiro não colocar a palavra “disciplinaridade” no projeto, pois ao mencioná-la tenho a impressão de que estará sempre presente. O centro ou instituto não deverá ser interdisciplinar nem transdisciplinar, mas promover a convergência do conhecimento. O conhecimento deverá convergir na busca de soluções originais para “velhos” problemas humanos. Deverá refletir a busca de um caminho que facilite a compreensão dessas questões, cuja solução dificilmente seria encontrada pelo ângulo exclusivo de uma ou duas disciplinas. Assim, e dentro desse contexto, nós não esperamos que haja um corpo formal para o centro ou instituto. Precisaremos, sim, de pessoas que façam a parte administrativa, mas espera-se que toda a instituição possa participar da organização do trabalho propriamente dito, inclusive com sugestões de tema. Aceitam-se também propostas de convidados. Não há limitações. Esse ambiente é o que nós consideramos ideal. Queremos ter um espaço onde a transgressão intelectual seja possível.

Entreteses04 p012 Conselho Deliberativo CNPq

Posse do Prof. Esper na presidência do CNPq (gestão 2001-2003). Da esquerda para a direita, Evando Mirra (presidente que deixou o cargo) e o então ministro de C&T, Ronaldo Sardenberg

Entreteses04 p012 Posse do Prof Esper na presidencia do CNPq

Prof. Esper presidindo sessão do Conselho Deliberativo do CNPq

E. Quais são as perspectivas para a ciência nesta década? Quais são os maiores desafios?

E.C. É voz corrente que o Brasil deu um salto de qualidade na ciência aqui produzida e que a Unifesp acompanhou esse crescimento, fazendo parte dele. Toda vez que você abre o jornal ou lê um artigo especializado vê que o Brasil continua galgando postos no grupo de países produtores de ciência. Nós podemos ser considerados proficientes em ciência, mas precisamos atingir a excelência. Somos proficientes, ou seja, sabemos fazer, mas ainda estamos distantes daqueles que ditam a “ordem do dia” e que apresentam processos disruptivos – para usar palavras do mundo da inovação.

E. E o que falta?

E.C. Acredito que falta ousadia. Nosso país é muito formal na execução da ciência. A pós-graduação, que nos ajudou a formar tanta gente competente, apresenta limites à nossa ousadia. Pelas próprias regras, pela necessidade de financiamento, pela necessidade de regular e normatizar o trabalho acadêmico, ela impõe um limite de atuação que nos impede de mostrar ousadia. E a ousadia é o que faz o belo da ciência. Normalmente ela se manifesta em uma faixa etária precoce, mas nós engessamos muito os jovens. As regras são rígidas, os próprios programas de pós-graduação inibem o sistema. O jovem que hoje entra na pesquisa parece mais um “soldadinho de chumbo” que vai executar uma tarefa e repetir a fórmula de seu orientador.

A ousadia nos obriga a dar mais tempo, a esperar erros com maior frequência, mas o sistema atual não trabalha bem com os erros e desacertos. Ele está tão fechado que impede novas experiências. Você hoje se desespera caso seu aluno, durante o mestrado e o doutorado, não consiga resultados publicáveis. Nós não apostamos no desconhecido. Eu ouso dizer que grande parte da ciência nacional, atualmente, busca o que já conhece, só atualiza o método. Devemos procurar outro caminho para que o inédito possa surgir, tem que haver espaços reflexivos e não só laboratórios de pesquisa. Mas vejo que temos muito receio em trilhar essa estrada. Temos muitos compromissos com quem nos financia e com o dinheiro que nos é dado. Mas refletir, buscar alternativas, tentar o inédito não é fazer mau uso do dinheiro público, muito longe disso. As tecnologias de informação e comunicação surgiram em “cabeças” e ambientes muito distantes dos tradicionais. E isso é raro no Brasil.

E. Em quais áreas o Brasil é inovador na pesquisa?

E.C. Uma das áreas em que o Brasil tem contribuído mais significativamente é a biotecnologia – tanto que existe hoje o Instituto Nacional de Ciência e Tecnologia do Bioetanol, o qual é um ambiente muito propício para o desenvolvimento da pesquisa. A utilização dessa fonte de energia, no caso dos automóveis, constituiu um ineditismo nacional. A agricultura tropical foi considerada a mais avançada do mundo. Somos líderes em levar essa informação a outros países tropicais que não têm agricultura tão desenvolvida e rica quanto a nossa. O trabalho que a Embrapa fez neste país foi fantástico. Mas devemos lembrar, também, das mais antigas instituições de Agricultura e Agronomia como a Escola Superior de Agricultura Luiz de Queiroz (USP) e o Instituto Agronômico de Campinas. Foram ambientes únicos, que deram espaço de formatação para a Embrapa que temos hoje, espalhada pelo Brasil todo e que detém esse grande potencial da agricultura tropical.

Também não há dúvida de que a pesquisa de prospecção de petróleo em águas profundas efetuada pela Petrobras é a mais avançada do mundo. A Petrobras deu conta de formar grupos de pesquisadores, junto com a Coppe - Instituto Alberto Luiz Coimbra de Pós-Graduação e Pesquisa de Engenharia, pertencente à Universidade Federal do Rio de Janeiro (UFRJ), que provavelmente foi uma das razões pelas quais chegamos ao pré-sal.

Outro exemplo foi o desenvolvimento do Instituto Tecnológico de Aeronáutica (ITA), com a Embraer, que hoje é uma empresa privada, mas que possibilitou um espaço muito grande de pesquisa.

Podemos falar também da área de informática: temos alguns polos muito desenvolvidos no Brasil. Um deles está em Recife, oriundo de um grupo da Universidade Federal de Pernambuco (UFPE), que abriu espaço para o trabalho de muitos jovens e para o surgimento de produtos inovadores. Outro polo importante de informática é aquele de Santa Catarina, com origem na Universidade Federal de Santa Catarina (UFSC).

Os estudos e pesquisas realizados pelo grupo do professor José Galizia Tundisi, no setor de recursos hídricos, são muito importantes e reconhecidos em todo o mundo. Tivéssemos escutado suas recomendações, provavelmente não estaríamos vivendo a atual crise de água, com ou sem os problemas meteorológicos. Outras áreas de destaque são aquelas dedicadas ao estudo das doenças tropicais, com institutos e grupos de pesquisa reconhecidos em todo o Brasil, incluindo o Instituto de Medicina Tropical da Amazônia, hoje transformado na Fundação de Medicina Tropical Doutor Heitor Vieira Dourado. O Instituto Butantan, então liderado pelo professor Isaias Raw, e sua capacitação para a produção de vacinas são uma experiência à parte. Aqui, a determinação e qualidades intelectuais de uma pessoa, aliadas à capacidade de luta, sem o receio de enfrentar as formalidades burocráticas do país – para o desagrado de muitos –, tornaram o país autossuficiente nessa área. Hoje, existe também o cenário dos  institutos nacionais de ciência e tecnologia (INCTs), iniciativa do governo que surgiu há sete ou oito anos, com o objetivo de criar redes nacionais de pesquisa. Esse conjunto de INCTs agrega os mais produtivos do país, que têm sido chamados de “joias da coroa nacional em ciência e tecnologia”.

Entreteses04 p014 Esper Abrao Cavalheiro

E. Em termos mundiais, quais seriam os maiores desafios para a ciência?

E.C. Em minha opinião, o primeiro trata da reemergência das doenças tropicais. Acredito que a emergência ou reemergência de patologias que dizimam muitas pessoas em curto espaço de tempo merece atenção redobrada. O segundo trata do envelhecimento populacional. As pesquisas, hoje, dedicam-se predominantemente à compreensão das alterações patológicas que surgem nessa faixa etária, mas não sabemos ainda o que fazer para que elas não surjam. Isto é, o que fazer ao longo da vida, o que mudar, para ter uma velhice saudável? É um grande desafio.

Outro grande problema é o da mobilidade urbana. Nós estamos com dificuldade para compreender a nova dinâmica da população humana. Está previsto que as populações da Ásia e da África devam, ainda, crescer muito. Dois países da Ásia – a China e a Índia – já comportam um número de pessoas assustador, e parte delas começa a circular mais facilmente pelo mundo. No Brasil estamos sentindo dificuldade em lidar com a imigração proveniente de países mais pobres, como o Haiti. Essas pessoas vêm para cá em busca de uma vida melhor, quando muitos brasileiros não têm uma boa condição de vida; ao mesmo tempo, não podemos virar as costas para esses imigrantes. Vamos ter que dar conta dessa mobilidade e inseri-los no meio social com dignidade. Outro exemplo é como a instabilidade nos países árabes está expulsando imigrantes para a Europa. Como dar dignidade a essas vidas? Como a humanidade pretende resolver essa questão? Em quais aspectos a ciência pode e deve envolver-se? 

Outra questão que vem acoplada ao tema da mobilidade, mas que tem causas diversas, trata da violência, que não é apenas um problema nacional. No Brasil ela é mais escancarada, desavergonhada e doentia, mas não é um problema exclusivo nosso. Nós precisamos buscar solução na emergente “ciência dos conflitos”. Não é possível que no mundo atual tenhamos tão poucos bons estudos a respeito. Ao observar o surgimento do chamado Estado Islâmico, devemos perguntar: “O que deixou de ser feito? Onde erramos? Como, no século 21, podemos aceitar tanta maldade e barbárie?” As desgraças tribais na África não nos afligem mais, nós as aceitamos com a mesma passividade com que vemos a corrupção, os desmandos políticos e os pedintes nos faróis de trânsito deste país.

Quando eu trabalhava no Ministério da Ciência e Tecnologia, o então ministro Ronaldo Sardenberg (1999 – 2003) criou uma conferência internacional, bastante interessante, na qual invocava a ciência para a paz. É muito difícil que consigamos encontrar o mínimo de paz insistindo nos mesmos modelos socioeconômicos que encontramos hoje. Seria um desafio interessante convocar os cientistas das mais diversas latitudes para pensarem a paz como objetivo de seus trabalhos, independente das áreas em que atuam. Os seres humanos sempre são capazes de soluções criativas, e sua imaginação não para. A busca pela compreensão do universo é uma dessas áreas fascinantes, em que não paramos de nos surpreender com as novas descobertas. Essa busca do desconhecido, esse limite esfumaçado entre ciência e ficção povoa a imaginação da juventude. É nessa capacidade imaginativa que devemos investir.

E. É possível traçar um paralelo entre a ciência, a Filosofia e a arte, no sentido de todas expressarem a inquietação humana?

E.C. A Filosofia é um grande exemplo dessa inquietação, e no retorno aos primeiros filósofos para entender o presente descobrimos que as grandes questões são as mesmas. É óbvio que, na atualidade, temos mais conhecimento sobre a natureza e o mundo em que vivemos, mas a inquietude humana manifestada nas obras de Aristóteles, Platão e outros não é muito diferente daquela que sentimos. Mas, hoje, temos tanta coisa para fazer que não temos tempo para inquietudes “básicas” – como indagar: “Para que eu estou aqui?” E o mais triste é quando você  nem sabe que pode fazer essa pergunta. Aceita-se a vida como um dado adquirido. Nascemos e pronto. 

A arte é outra expressão da humanidade que questiona, que indaga, que se antecipa ou retrata aquilo que acontece. As múltiplas formas da expressão artística, das tradicionais às atuais, têm um imenso poder de fascinação justamente por nos inquietar. Às vezes, diante de alguma expressão artística, pergunto-me como o autor conseguiu expressar tão bem algo que eu queria dizer, mas que apenas sentia. Nesse sentido, as manifestações artísticas em suas mais variadas formas são, para mim, libertadoras da mente humana.

Como se vê, a ciência é um grande espaço onde se manifesta a inquietação humana, mas não é o único onde isso acontece. Necessitamos que esses espaços se encontrem, convirjam, olhem as questões humanas ao mesmo tempo e com a mesma curiosidade. E, ao lado dessas manifestações humanas, não podemos deixar de falar das religiões, que trazem outro olhar sobre a discussão. A religião é um espaço de representação humana importante que atrai por oferecer outra forma de resolução às nossas inquietações.

E. Já que o senhor citou a religião, é possível – para um cientista e pesquisador – conciliar a ciência e a crença religiosa?

E.C. Totalmente.

E. A ciência não ocupa o lugar da religião?

E.C. De modo nenhum. A religião está baseada na fé; a ciência, na busca da verdade. E querer transformar uma coisa na outra é tão pouco útil quanto fazer ciência conhecendo o resultado de antemão. A ciência não fornece certezas, suas verdades são transitórias. Com a fé não há espaço para esse tipo de discussão.

Assim, dizer que uma cede lugar à outra, não é possível. Da mesma forma que é bobagem fazer da ciência, religião. De forma nenhuma. Para mim são expressões humanas que, por meio de caminhos distintos, tentam explicar-nos o mundo, a vida, a razão das coisas. Qual o melhor caminho? Não há comparação possível, já que usamos métodos e procedimentos diversos.

Publicado em Edição 04
Terça, 02 Junho 2015 14:52

Gotas que valem ouro

grafismo agua
Entreteses04 p041 joao amorim

João Alberto Alves Amorim

A água ainda é vista mais como um bem econômico do que como direito fundamental e substância vital, necessária a todos os seres vivos, afirma João Alberto Alves Amorim, professor adjunto do curso de Relações Internacionais da Escola Paulista de Política, Economia e Negócios (EPPEN/ Unifesp) - Campus Osasco - e doutor em Direito Internacional pela Faculdade de Direito da Universidade de São Paulo (USP). Essa perspectiva penaliza o meio ambiente pelo desperdício e a população, sobretudo os mais pobres, pelo agravamento da escassez, a potencial contaminação e a extinção de mananciais como os sistemas Cantareira e Alto Tietê, que abastecem a região metropolitana de São Paulo.

Especialista em Direito Internacional do Meio Ambiente e em Direitos Humanos, Amorim é autor dos livros Direito das Águas: Regime Jurídico da Água Doce no Direito Internacional e no Direito Brasileiro e A ONU e o Meio ambiente – Mudanças Climáticas, Direitos Humanos e Segurança Internacional no Século XXI, ambos pela editora Atlas. Provocado por Entreteses, Amorim responde a algumas questões sobre a crise hídrica. “É inadmissível que, por exemplo, a Companhia de Saneamento do Estado de São Paulo (Sabesp), uma empresa majoritariamente pública (51% do controle acionário ainda pertence ao governo) tome suas decisões, que afetarão a vida de milhões de pessoas a portas fechadas, sem transparência, à mercê deste ou daquele interesse privado ou político”, afirma o pesquisador.

Entreteses04 p042 acumulo lixo

Acúmulo de lixo no rio Pinheiros, em São Paulo

Entreteses - Qual o perfil da crise hídrica, no planeta e no Brasil?

João Amorim - A escassez de água e as crises de abastecimento eram características de regiões ou países com pouca oferta de água. Hoje, muitas regiões do planeta, inclusive as ricas em disponibilidade hídrica, enfrentam graves situações de escassez. As reservas de água do planeta não são equitativamente distribuídas. Em determinados espaços ocorre ausência de água; em outros, a maior parte, ocorre a escassez socioeconômica, decorrente de má gestão pública, poluição e priorização de captação para fins econômicos, entre outros fatores. O Brasil se enquadra no segundo grupo, assim como a Índia, os Estados Unidos da América e a China. O Brasil, à exceção do semiárido nordestino, possui reservas generosas de água doce e índices de pluviosidade elevados, especialmente nas regiões Norte e Centro-Oeste. No Sudeste, a má gestão, a ausência de políticas de urbanização e planejamento urbano sérias, o descaso com o meio ambiente, em especial com a conservação de florestas, matas ciliares e nascentes, a ausência de captação e tratamento de efluentes (esgoto), o altíssimo índice de perdas das redes de distribuição, a falta de investimentos mínimos em infraestrutura e na constante educação da população e dos setores produtivos, a conivência criminosa das autoridades públicas com a apropriação privada de fontes de água por determinadas empresas e setores da sociedade, dentre outros vários fatores socioeconômicos, têm contribuído por décadas para a situação de escassez que vivemos hoje.

E. As políticas públicas inadequadas são, então, a grande vilã?

J.A. Claro. Mas também contribui para a crise a agricultura em larga escala (agronegócio), com utilização de vastas quantidades de água para irrigação e o uso de toneladas de produtos químicos que vão parar nos alimentos e, também, nos mananciais. Uma parte minoritária do setor agrícola incorpora práticas de sustentabilidade ambiental. O setor agropecuário é responsável, globalmente, por cerca de 70% do consumo de água (no Brasil, 72%). Junto a ele vêm as atividades industriais, que respondem por cerca de 20%. Até a metade deste século, o agronegócio será responsável pela perda de um território equivalente ao do Brasil, em biodiversidade e em fertilidade de solo. Muitos acreditam que a agricultura em larga escala apresenta essa demanda de consumo em função da necessidade de produzir alimento para os 7 bilhões de habitantes do planeta e que a pressão populacional, em si, seria uma das duas únicas causas da insustentabilidade do consumo de água (juntamente com a falta de chuva e a distribuição irregular de reservas). Isso não é verdade. O agronegócio não produz para matar a fome, mas para o mercado mundial de comida. As duas coisas não são equivalentes. O mercado é focado na manutenção dos preços globais dos alimentos, para a satisfação das expectativas de lucro das corporações que o controlam, e por isso condena à fome, à desnutrição ou à subnutrição mais da metade da população mundial.

E. Você mencionou a participação da indústria...

J.A. O setor industrial, como o agronegócio, produz bens somente para quem pode adquiri-los. Mesmo assim, esses dois setores são responsáveis pela maior parte do consumo de água do planeta, tanto pela extração quanto pela poluição. O consumo individual responde pelos 10% restantes. As autoridades governamentais, companhias de saneamento, empresas e parte da grande mídia insistem em apontar o consumo individual como o responsável pela escassez. Claro que os padrões individuais de consumo devem mudar. Mas é, no mínimo, injusto e ilógico que se imponha a mudança de comportamentos de consumo de água primeiramente, ou exclusivamente, ao indivíduo. Mesmo durante a crise de 2014, a Sabesp manteve contratos de autorização para um consumo elevado a diversas empresas, tais como shopping centers, edifícios empresariais de alto padrão, templos religiosos, clubes recreativos, etc. Os setores que mais consomem são poupados das medidas restritivas ou punitivas adotadas.

E. A Parceria Público-Privada (PPP) é uma alternativa para enfrentar a crise?

J.A. Ideias como a PPP não são inventadas aqui, mas gestadas por think tanks do sistema econômico-financeiro internacional, tais como a Organização para a Cooperação e Desenvolvimento Econômico (OCDE) ou, no caso específico da água, o Conselho Mundial da Água. São, depois, impostas aos países, principalmente os mais carentes, geralmente mediante forte coação econômica, por diversas entidades como as corporações internacionais de comércio de água e as instituições financeiras do sistema Bretton-Woods (FMI e Banco Mundial). Elas ecoam e reforçam os mantras segundo os quais “somente uma gestão privada pode ser eficiente”, “o estado não tem competência para gerir a água e o saneamento”, etc. Mas, muitos dos países que sediam as corporações - e que impõem aos “emergentes” a privatização - mantêm sob controle estatal a maior parte dos seus setores de água e de saneamento.

E. Existem exemplos disso?

J.A. Em 2011, 96% dos eleitores que participaram de um referendo popular na Itália votaram pela ab-rogação do Decreto Ronchi, que privatizava a água. Um dos argumentos utilizados foram os resultados de um estudo da Universidade de Greenwich, que constatou que, a partir da privatização da água na Inglaterra, no final dos anos 1970, que serviu como modelo para a Itália, as tarifas subiram, os investimentos caíram e a qualidade da água piorou. Países como Alemanha, Portugal, Espanha e França mantiveram estatizados seus setores de água e de saneamento ou tiveram de reverter as privatizações realizadas. A Grã-Bretanha apresenta uma situação bem peculiar. Na Escócia e na Irlanda do Norte o setor de água é integralmente público. Na Inglaterra é controlado por dez companhias privadas. Em 2014, uma pesquisa concluiu que não existem provas de que a gestão privada seja mais eficiente que a pública. Na Noruega, em Alberta (Canadá) e na Califórnia (EUA), estudos semelhantes chegaram à mesma conclusão. Só que na Inglaterra, a conta de água subiu, em média, de £120 ao ano, em 1989, para £204 em 2006 (quase 40% acima da inflação média no período), e os aumentos continuam a ocorrer. Na Califórnia, que passa pela pior escassez hídrica de sua história, a postura governamental foi oposta à adotada por aqui. Mesmo sendo ano eleitoral, o governador tomou, em janeiro de 2014, uma série de medidas impopulares, que qualquer marqueteiro eleitoral consideraria um suicídio político. Decretou estado de emergência, pediu a todos os setores a redução de 20% do consumo, determinou a interrupção de obras públicas com alto consumo de água e deu prioridade a obras para aumentar a oferta de água. Pouco antes da eleição, divulgou outro pacote, que limitou a utilização de grandes consumidores, como clubes, hotéis e campos de golfe. O consumo caiu. A escassez ainda preocupa, mas começa a apresentar sinais de controle e, ao final, o governador foi reeleito. Por aqui, a escolha foi, desde o início, a negação e o engodo, resultando na queda vertiginosa dos níveis dos reservatórios.

E. Como explicar a disparidade do consumo de água per capita entre países ricos e pobres?

J.A. Duas explicações vêm do modelo econômico baseado na cultura do excesso e do desperdício - que gera, entre outras coisas, a falta de empatia com o próximo - e da adoção de um modelo produtivo predatório. Essa situação é característica de países como Estados Unidos, Espanha, França, Inglaterra, China e Japão, por exemplo. Esses países, especialmente os Estados Unidos, têm uma pegada ecológica (environmental footprint) e um impacto na biocapacidade do planeta muito elevados. Calculada em hectares globais (gha, sigla em inglês), a Pegada Ecológica mede o impacto das ações humanas na biosfera, principalmente o impacto do consumo de bens e serviços sobre a natureza (o quanto de terra é gasto para se produzir o que um ser humano consome em um ano). A biocapacidade, basicamente, mede “a quantidade total de terra e água, biologicamente produtivas, disponíveis para prover bens e serviços do ecossistema à demanda humana por consumo, sendo equivalente à capacidade regenerativa da natureza”. Com aproximadamente 5% da população mundial, os Estados Unidos consomem 20% de toda a energia produzida e geram 40% de todo o lixo. Se todos os habitantes da Terra consumissem como um estadunidense médio, seriam necessários outros dois planetas para suprir a demanda. É óbvio que os padrões têm que mudar. Não se pode admitir projetos arquitetônicos insustentáveis, como os de Dubai ou de Las Vegas, só porque seus gestores podem pagar por eles. É inadmissível que uma criança israelense tenha piscina em sua casa e água disponível às custas da sede de uma criança palestina ou que uma criança brasileira tenha de beber água não tratada porque o Estado permite que a água seja considerada mercadoria.

Entreteses04 p043 represa seca

11/02/2014- Vargem (SP), Brasil- Represa do rio Jaguari que abastece o sistema Cantareira

E. Segundo o Ministério das Cidades, em média, 38,8% da água tratada no Brasil é desperdiçada antes de chegar à torneira...

J.A. É preciso combater de modo impiedoso o desperdício. Adotar tecnologias eficientes de detecção de vazamentos, investir na manutenção periódica de toda a rede e punir os gestores que coadunam com esses níveis absurdos de desperdício. A média nacional é de 38,8%, mas há estados em que os índices beiram os 70%. Buscar a redução drástica das perdas implica em aumentar os investimentos. E isso, por sua vez, implica na diminuição das taxas de remuneração de lucro dos investidores. Resta saber se os gestores públicos estão prontos para colocar o direito humano à água à frente do lucro e ter coragem de fazer o que é correto e justo.

E. A crise no Brasil poderia ter sido evitada? Onde erramos?

J.A. Erramos ao priorizar o lucro e não o ser humano. Se os alertas das entidades de preservação ambiental, de defesa da água, da Agência Nacional de Águas (ANA), das universidades e mesmo dos demais órgãos governamentais tivessem sido ouvidos, não estaríamos passando por essa situação. Há mais de dez anos as autoridades estaduais e a Sabesp sabem que o problema ocorreria, que era necessário minimizar a dependência da região metropolitana de São Paulo ao Sistema Cantareira, que o padrão de chuvas estava mudando, que a capacidade dos reservatórios estava diminuindo constantemente e, principalmente, que se deveria investir mais em novos mananciais e na recuperação de matas e de bacias, bem como na redução de perdas. Mas a opção foi pelo lucro, por não adotar medidas necessárias, por não investir em educação. A região metropolitana de São Paulo já esgotou sua própria capacidade de prover água à sua população há muitas décadas. Além disso, a urbanização predatória e desordenada, a destruição das matas e florestas, a impermeabilização do solo pelo asfalto e pelo concreto, a não captação e tratamento de efluentes (esgoto), a quantidade de resíduos sólidos produzida e o descaso do poder público reforçam a conclusão de que houve uma negligência criminosa.

E. Uma das alternativas oferecidas para resolver a crise é o método de dessalinização da água do mar. Isso seria viável?

J.A. É preciso tomar cuidado para não se pegar o primeiro remédio que se vê na prateleira. O desenho de uma solução duradoura requer levar em conta algo que o poder público, de modo geral, não costuma fazer no Brasil: analisar as características próprias de cada bacia hidrográfica e de seu entorno socioeconômico. Como os interesses econômicos tendem a não considerar as questões socioambientais, e tanto a mentalidade política do país quanto o próprio regime jurídico vigente os priorizam, as medidas comumente adotadas são insustentáveis ou ineficientes a longo prazo. Em geral, a água dessalinizada e a obtida da purificação de esgotos tendem a ter um custo final mais caro. Isso, na perspectiva dos investidores, é ótimo, mas na socioambiental não. Adotar esse tipo de solução em um país com a oferta hídrica e pluvial do Brasil seria o atestado definitivo de nossa incompetência. A prioridade do consumo humano e da saúde pública devem ser a premissa maior.

E. Como a questão do direito humano à água é tratada em outros países?

J.A. Todos os países fronteiriços ao Brasil, que dividem com ele as principais bacias hidrográficas do mundo, por exemplo, reconhecem em algum nível jurídico a prioridade do consumo humano e o direito humano à água e ao saneamento. Dois, inclusive, em nível constitucional (Uruguai e Bolívia). O Brasil não adota esse reconhecimento em nenhum nível normativo. A Lei de Recursos Hídricos somente menciona a prioridade do consumo humano em situação de escassez. Se ela não for decretada, medidas de priorização do consumo humano não podem ser legalmente adotadas. O Chile, que possui 100% da gestão de suas águas privatizada, começa a discutir a reestatização. A Lei de Águas do Peru estabeleceu um mecanismo muito interessante, o Tribunal da Água, uma instância colegiada, administrativa e arbitral que busca solucionar conflitos.

E. Os conflitos por falta de água potável irão aumentar?

J.A. Segundo dados da Comissão Pastoral da Terra (CPT), divulgados no começo de 2014, de 2002 a 2013 o número de conflitos por água registrado no campo brasileiro cresceu 1.163%. Em 2013, 93 conflitos envolveram mais de 26.000 famílias e ocorreram em todas as regiões do país, sendo 18 no Sudeste.

Entreteses04 p044 agua nao potavel

Moradores da cidade de Cratéus, no Ceará, fazem fila para retirada de água em posto de abastecimento no bairro São Vicente ao custo de R$ 0,50 por galão de 20 litros

grafismo agua
Publicado em Edição 04

Linha de pesquisa do Campus Guarulhos da Unifesp realiza análises teóricas sobre a origem e permanência da dependência econômica dos países subdesenvolvidos

Da Redação
Com a colaboração de Bianca Benfatti e Flávia Kassinoff

Entreteses04 p087 subimperialismo

Entre as décadas de 1960 e 1970, a economia brasileira - de caráter periférico - apresentou alto nível de desenvolvimento e adquiriu caráter subimperialista no contexto da América do Sul, alçando o Brasil à posição de líder dessa região

Como se deu a inserção da economia brasileira no cenário mundial nos anos 1960 e mais particularmente durante o período da ditadura militar (1964 - 1984)? Como explicar o “milagre econômico” (1968 - 1973), arquitetado pelo economista Antonio Delfim Netto, quando a taxa de crescimento do PIB saltou de 10% para 14% ao ano (com a inflação quase dobrando, de 20% para 35%, e o aumento da concentração de renda e da pobreza)? As respostas não são simples nem dizem respeito a um passado já superado, já que o Brasil ainda convive com as mazelas de natureza política, econômica e social provenientes do modelo implantado pela ditadura. 

O primeiro grande problema é a escolha de um modelo teórico-interpretativo que seja capaz de dar conta do objeto em pauta, levando em consideração as especificidades históricas e a totalidade da análise. No Brasil, duas grandes narrativas, ambas de matriz marxista, exerceram e ainda exercem influência decisiva na produção acadêmica sobre o tema: as teorias do imperialismo e da dependência. Gabriela Murua, aluna do curso de pós-graduação em Ciências Sociais da Escola de Filosofia, Letras e Ciências Humanas (EFLCH) da Unifesp - Campus Guarulhos, resolveu enfrentar aspectos centrais da questão em sua dissertação de mestrado, sob a orientação do professor Javier Amadeo. O trabalho faz parte da linha de pesquisa Pensamento Político e Social, Estado e Ação Coletiva, que – entre seus principais objetivos – se propõe a estudar o pensamento social político no Brasil e na América Latina.

“Analisei como esses estudiosos da teoria marxista da dependência, sobretudo Ruy Mauro Marini, apropriaram-se e ressignificaram as categorias desenvolvidas por teóricos do imperialismo para entender as transformações no modo de acumulação e reprodução capitalista (que dariam forma à fase imperialista do capitalismo) e, ao mesmo tempo, compreendê-las a partir de seu impacto nas economias periféricas, dando ênfase ao modo como a dependência apresentava-se no Brasil, no decorrer das décadas de 1960 e 1970”, diz Gabriela.

A teoria do imperialismo foi formulada no final do século XIX pelo economista britânico John Hobson, hoje considerado um liberal de esquerda, que inscreveu o tema no debate sobre os rumos da economia e da política mundial, ao lançar o livro Imperialismo: um estudo, em 1902. Esse conceito seria depois desenvolvido, sob diversas perspectivas, por autores marxistas – entre os quais, Vladimir Ilitch Lênin, Rudolf Hilferding e Nikolai Bukhárin, cujas contribuições foram analisadas pela pesquisadora.

Para esses autores, o conceito de imperialismo referia-se às transformações ocorridas entre o final do século XIX e o começo do século XX, que alteravam qualitativamente o modo como se acumulava o capital, configurando uma nova fase do capitalismo (para Lênin seria, de fato, o seu estágio mais avançado). Entre as principais transformações estavam a constituição e expansão de monopólios, resultante dos processos de concentração e centralização, a expansão do sistema de crédito e o aparecimento das sociedades anônimas e da bolsa de valores. 

Essa nova fase do capitalismo teria como característica principal o predomínio do capital financeiro, que resultou da fusão entre o capital industrial, comercial e bancário, propiciando a constituição de uma oligarquia financeira (síntese das classes dominantes industriais e bancárias), mais poderosa que as classes dominantes anteriores. 

Nessa etapa do capitalismo, na qual os monopólios tornam-se essenciais na produção e reprodução do capital, a concorrência atinge níveis elevados, acirrando o conflito entre os capitalistas e entre as grandes potências da época, fato que mais tarde seria central para a compreensão das duas grandes guerras mundiais. 

A teoria da dependência, por sua vez, surgiu nos anos 1960 com o objetivo de entender as especificidades da acumulação do capital nas formações econômicas e sociais periféricas. Entre os principais intelectuais que a formularam destacam-se Ruy Mauro Marini, André Gunder Frank, Theotonio dos Santos e Vania Bambirra, que buscavam compreender os motivos que impossibilitavam o processo autônomo de industrialização nos países latino-americanos, bem como as causas da profunda crise estrutural pela qual passavam esses países no período mencionado.

Em parte, a teoria da dependência representou uma resposta às proposições desenvolvimentistas oferecidas pelo Conselho Econômico e Social das Nações Unidas para a América Latina e o Caribe (Cepal) aos países latino-americanos. Os “cepalinos” acreditavam que o subdesenvolvimento fosse uma fase anterior ao desenvolvimento, a qual poderia ser superada por meio de forte intervenção do Estado, mediante a aplicação de políticas que removessem os obstáculos internos e promovessem um desenvolvimento regional autônomo.

Contrariamente a essa visão, os teóricos da dependência argumentavam que, desde sua origem, os mercados latino-americanos buscaram atender às necessidades da expansão industrial europeia. Portanto, o subdesenvolvimento não poderia ser compreendido como um estágio anterior ao desenvolvimento, mas sim como uma estrutura que foi condicionada pelas relações internacionais, estabelecidas de modo dependente. Esses autores denunciaram a subordinação dos países “periféricos” aos países centrais, destacando que as revoluções científico-tecnológica, financeira e de comunicação serviram para tornar mais complexa e ampliar essa subordinação. 

Não há uma relação de oposição entre as teorias do imperialismo e da dependência, mas sim diferenças de perspectiva que se complementam. A teoria do imperialismo analisa os processos mundiais a partir dos países centrais: a ação dos monopólios ancorada no poder bélico dos Estados, que partilham entre si o mundo e a apropriação das riquezas naturais, sob a égide do capital financeiro. A teoria da dependência assume uma perspectiva centrada nos países periféricos: as consequências implicadas no processo de subordinação e as possíveis estratégias para sua superação, sem descartar, no caso de alguns autores, a opção revolucionária.

Entreteses04 p088 gabriela murua

Gabriela Murua, autora da dissertação

Gabriela concentrou sobretudo a terceira parte de seu trabalho nos estudos do cientista social Ruy Mauro Marini, dando ênfase ao conceito de “subimperialismo”. Para esse autor, não houve contradição entre o expressivo crescimento da economia brasileira nos “anos de chumbo” e o aumento da dependência brasileira. O fenômeno pode ser compreendido pela formação do subimperialismo, categoria desenvolvida por Marini para explicar a possibilidade de “subcentros” econômicos e políticos da acumulação mundial alcançarem a fase imperialista do capitalismo, ainda que de maneira dependente. 

De acordo com Marini, os subcentros passaram a ocupar uma posição intermediária entre centro e periferia, como resultado da própria lógica de funcionamento das economias dependentes. Apenas a superexploração do trabalho permitiria aos subcentros um acúmulo de capital necessário e suficiente para transferir valor aos países centrais e ainda manter um mercado de consumo nacional organizado por um subsistema regional de poder eficaz. 

A autora já visualiza a continuidade de sua pesquisa. No curso de doutorado pretende analisar os 12 anos do governo petista e responder a questões como estas: O país caminha para a superação do subdesenvolvimento, tal qual anunciado por muitos representantes do governo? A categoria do subimperialismo pode ajudar a entender o momento atual? De que modo o capital financeiro aparece no cenário econômico brasileiro? Outro aspecto que deverá problematizar será o grau de nacionalização de empresas ditas brasileiras. “De certa forma buscarei entender, a partir dessas teorias, de que modo a internacionalização de empresas demonstra uma relação de maior dependência do Brasil. A maioria delas não pode ser considerada nacional: constituem sociedades anônimas vinculadas ao mercado financeiro”, conclui.

Artigo relacionado:
MURUA, Gabriela F. Feliciano. Imperialismo e dependência: elementos dialéticos do subimperialismo. 2014. 145 f. Dissertação (Mestrado em Ciências Sociais) – Escola de Filosofia, Letras e Ciências Humanas, Universidade Federal de São Paulo, São Paulo.

Publicado em Edição 04

Energia liberada por moléculas de dodecanitrofulereno poderia vir a ser empregada para destruir micro-organismos nocivos à saúde humana, inclusive o vírus da Aids

Da Redação
Com a colaboração de Patricia Zylberman

Entreteses04 p101 buckybomba

À esquerda, buckyminsterfulereno ou C60 (puro), chamado também de buckybola
Acima, buckybomba com seus grupos energéticos NO2. Os átomos de carbono, nitrogênio e oxigênio estão respectivamente representados nas cores verde, azul e vermelha. Ela forma o menor explosivo já criado

Diferentemente do que afirma o senso comum, as bombas não existem somente para finalidades bélicas. Algumas poderiam funcionar de modo a atender a necessidades médicas, como é o caso dos dodecanitrofulerenos [C60(NO2)12], também designados como buckybombas.

Idealizadas pelos professores Eudes Fileti e Vitaly Chaban, do Instituto de Ciência e Tecnologia (ICT/Unifesp) - Campus São José dos Campos, em conjunto com o professor Oleg Prezhdo, da Universidade de Southern California, as buckybombas são derivadas do buckyminsterfulereno (ou simplesmente C60), composto cujo nome homenageia o arquiteto Richard Buckyminster Fuller e é usualmente denominado buckybola.

“Nesse derivado que propusemos, a superfície do C60 é modificada pela adsorção de grupos energéticos (nitratos ou NO2). [Adsorção é o processo em que um fluído adere à superfície de uma substância e é retido por ela.] Um material similar, convencional, já bastante comercializado e usado em diversas aplicações industriais, é o combustível nitrometano”, afirma Fileti. A pesquisa – que, no Brasil, é financiada pela Fapesp, CNPq e Capes e, no exterior, pelo Departamento de Energia dos Estados Unidos – teve início após o período em que esses professores focaram seus trabalhos nas nanoestruturas de carbono. Segundo o pesquisador, tais estruturas constituem um dos pilares da nanotecnologia, já estando presentes em diversos produtos comerciais como cosméticos, revestimentos e materiais esportivos.

Entreteses04 p102 pesquisadores

Da esquerda para a direita, os professores Eudes Fileti (Unifesp), Oleg Prezhdo (University of Southern California) e Vitaly Chaban (Unifesp)

“A ideia de transformar uma dessas nanoestruturas, o buckyminsterfulereno, em um material altamente energético surgiu de forma natural, ao analisarmos as diversas possibilidades de modificação da estrutura desse material”, esclarece Fileti. Algumas modificações levam o C60 à solubilidade, outras à biocompatibilidade. Mas o resultado mais positivo foi a obtenção de um material altamente energético, que pode explodir quando estimulado além de uma temperatura crítica – no caso, cerca de 1.000 K (700°C). Este seria, então, o exemplo do primeiro explosivo em nanoescala. Tal proposta – desenvolvida por simulação em computador – foi muito bem aceita pela comunidade científica e foi divulgada em diversas publicações internacionais, como as revistas New Scientist e Physics Today.

A produção dos nanoexplosivos passa por um processo químico denominado nitração, que consiste na adsorção de grupos de nitratos sobre a superfície do fulereno. Pressupõe-se que – de modo semelhante à dinamite, inventada por Alfred Nobel – as buckybombas realizem sua explosão pela propagação de reações químicas exotérmicas, ou seja, mediante um processo no qual há maior liberação de energia, em forma de calor, para o meio externo do que absorção. “Essas reações são favorecidas, exatamente, pela presença do grupo funcional nitrato”, explica o professor.

Para comprovar a explosão do dodecanitrofulereno [C60(NO2)12], os pesquisadores precisaram simular a temperatura de 1.000K (700°C) por 70 a 250 picossegundos. Um picossegundo, abreviado por ps, equivale a 10-12 do segundo. A partir de então, os grupos presentes de NO2 passam a rearranjar-se com os átomos de C60. Logo após, os compostos de C60 perdem elétrons e suas estruturas são modificadas; então, a molécula desintegra-se em vários pedaços de carbono diatômico (C2). Ao fim, resta uma mistura de gases, que incluem CO2, NO2, N2 e C2.

Quando o processo é finalizado, uma grande quantidade de calor é liberada; no primeiro picossegundo a temperatura vai de 1.000K a 2.500K. Nesse ponto, a molécula torna-se instável; nos 50 picossegundos seguintes, a temperatura chega a 4.000K, quando a pressão pode alcançar um valor equivalente a 10 mil vezes a pressão atmosférica. Com esse experimento, os cientistas comprovaram que o calor e a energia são fornecidos pela alta intensidade das energias covalentes, provenientes das ligações dos átomos de carbono no grupo C60. Quanto mais NO2 for adicionado à reação, maior a quantidade de energia fornecida durante as explosões.

Atualmente, as buckybombas ainda estão em fase de experimentação e as reações que elas poderiam desencadear estão sendo realizadas pelos pesquisadores somente em computador. Isso é possível porque os programas de simulação fornecem ferramentas virtuais que permitem observar uma grande variedade de processos de detonação do explosivo sem qualquer perigo e a um custo muito menor.

Por ser um explosivo em nanoescala, as buckybombas seriam de grande utilidade se aplicadas para destruir os vírus, bactérias e outros micro-organismos nefastos, bem como as células cancerígenas – neste caso, substituiriam tratamentos químicos prejudiciais à saúde. É necessário ressaltar, entretanto, que nenhum experimento com seres vivos foi realizado nesse campo até o presente. “Os mecanismos químicos subjacentes poderiam oferecer um controle de alta precisão sobre a liberação de energia. Seria possível, por exemplo, gerar uma temperatura local extremamente elevada e exterminar um vírus como o da Aids”, pondera Fileti.

Richard Buckyminster Fuller (1895 – 1983)

Entreteses04 p102 Richard Buckyminster Fuller

O buckyminsterfulereno foi assim batizado em homenagem ao arquiteto estadunidense Richard Buckyminster Fuller, criador de formas geométricas que têm permitido criar modelos utilizados em áreas científicas, os quais incluem a estrutura dos vírus, os quase-cristais e o próprio C60.

Fuller nasceu em 12 de julho de 1895, na cidade de Milton (Massachusetts, EUA). Ao longo da carreira, teve uma importante atuação na área de sua especialidade, na Filosofia e, principalmente, nas ciências. Em suas obras buscava antecipar – e solucionar por meio da tecnologia – os problemas que a humanidade poderia vir a enfrentar. Publicou 28 livros e foi considerado doutor honoris causa por diversas instituições ligadas às Ciências da Natureza, Engenharia, Artes e Ciências Humanas.

Nos anos 1950, projetou a importante cúpula geodésica, uma estrutura esférica formada por triângulos, que apresenta, segundo estudiosos, uma extraordinária resistência e leveza em relação a seu tamanho. Essa cúpula, que constitui uma obra-prima da arquitetura, pode ter qualquer dimensão desde que o tamanho de suas barras seja calculado corretamente.
Fuller faleceu em 1.° de julho de 1983.

Entreteses04 p103 cupula geodesica

A cúpula geodésica idealizada por Richard Buckyminster Fuller é uma estrutura esférica formada por triângulos. É notável a similaridade dela com a mólecula buckybola, que recebeu a denominação de buckyminsterfulereno em homenagem ao arquiteto mencionado

Artigos relacionados:

CHABAN, Vitaly V.; FILETI, Eudes Eterno; PREZHDO, Oleg V. Buckybomb: reactive molecular dynamics simulation. The Journal of Physical Chemistry Letters, Washington, DC, v. 6, n. 5, p. 913-917, 2015. Disponível em: <dx.doi.org/10.1021/acs.jpclett.5b00120>. Acesso em: 23 mar. 2015.

FILETI, Eudes Eterno; CHABAN, Vitaly V.; PREZHDO, Oleg V.  Exploding nitromethane in silico, in real time. The Journal of Physical Chemistry Letters, Washington, DC, v. 5, n. 19, p. 3415-3420, 2014. Disponível em: <dx.doi.org/10.1021/jz501848e>. Acesso em: 23 mar. 2015.

FILETI, Eudes Eterno; CHABAN, Vitaly V.  Imidazolium ionic liquid helps to disperse fullerenes in water. The Journal of Physical Chemistry Letters, Washington, DC, v. 5, n. 11,  p. 1795-1800, 2014. Disponível em: <dx.doi.org/10.1021/jz500609x>. Acesso em: 23 mar. 2015.

Publicado em Edição 04

Marcadores genéticos e anticorpos no sangue de doadores da cidade de São Paulo foram encontrados em 2,7% da população estudada

Da Redação
Com a colaboração de Rosa Donnangelo

Entreteses04 p056 doenca celiaca

Boa parte da população brasileira demonstra predisposição genética ao desenvolvimento da doença celíaca (DC), que se caracteriza pela intolerância permanente ao glúten – principal componente proteico do trigo, centeio e cevada. Essa foi a conclusão do estudo denominado Prevalência da Predisposição Genética para Doença Celíaca nos Doadores de Sangue em São Paulo - Brasil, realizado pela biomédica Janaína Guilhem Muniz Yoshida e apresentado em 2014 para obtenção do título de mestre em Ciências pela Universidade Federal de São Paulo (Unifesp). 

Janaína constatou que 49% das amostras de sangue coletadas de 404 doadores residentes em São Paulo apresentaram o marcador genético que indica predisposição para a intolerância ao glúten, enquanto 2,7% - além de apresentarem predisposição genética – também possuíam o anticorpo antitransglutaminase tissular humana (anti-tTG), que é o primeiro indicativo para o diagnóstico. 

A pesquisa – orientada pelo médico e, na época, professor da Escola Paulista de Medicina (EPM/Unifesp) Ulysses Fagundes Neto – é inovadora por ser um dos poucos trabalhos que têm como objetivo traçar o panorama da predisposição genética à DC no país. 

A DC tornou-se mais conhecida nos últimos anos, mas – ainda assim – seus sintomas são pouco percebidos pelos pacientes, que somente procuram atendimento médico em casos mais extremos. Os mais comuns estão associados ao trato digestivo (diarreia crônica e outros distúrbios) ou podem ser descritos pela anemia crônica, apatia, perda de peso, fracasso no crescimento (no caso de crianças), osteoporose e convulsões. Além disso, existem as formas silentes da doença, que acontecem, por exemplo, quando o paciente tem um irmão ou parente próximo já diagnosticado com DC, mas não apresenta os sinais comuns. “Nós sabemos que cerca de 10% dos parentes de primeiro grau de um celíaco são também celíacos”, assegura Fagundes Neto.

Entreteses04 p058 janaina yoshida

Janaína Yoshida

Embora antigamente fosse difundida a ideia de que a doença estava associada à infância, hoje se sabe que ela pode manifestar-se e ser diagnosticada em qualquer idade. No caso de preexistência da suscetibilidade genética, a afecção pode não se revelar por determinado tempo ou nunca vir a instalar-se. “O indivíduo ingere alimentos com glúten, mas nunca teve sintomas; entretanto, por algum fator que pode estar relacionado à imunidade, a doença é deflagrada”, explica o orientador responsável.

Quase metade das amostras de sangue analisadas por Janaína apresentaram os marcadores genéticos HLA DQ2 e DQ8 positivos – no caso, isso indica que tais doadores têm predisposição genética para DC, embora não determine obrigatoriamente seu surgimento. “Os marcadores genéticos possuem alto valor preditivo negativo, o que significa que a chance de aparecimento da doença para um indivíduo que não seja portador de HLA DQ2 e/ou DQ8 é quase nula”, explica a autora. “Os doadores são pessoas saudáveis – temos isso como pressuposto. E nós poderíamos traçar o perfil do genótipo nessa população saudável.” 

De acordo com a pesquisadora, em São Paulo utiliza-se o teste dos marcadores pelo sistema Luminex, que é uma tecnologia mais cara e de difícil acesso para a população atendida pelo Sistema Único de Saúde (SUS). “Resolvemos experimentar um kit novo, da Itália, chamado DQ-CD Typing Plus, que é de fácil manuseio e vem pronto para a extração e amplificação do DNA, com aumento exponencial das moléculas de DNA por reação em cadeia da polimerase. Em seguida, analisamos as bandas referentes ao DQ2 e ao DQ8 (marcadores genéticos).”

Entreteses04 p058 paredes intestino delgado

À esquerda: Parede do intestino delgado normal
À direita: Parede do intestino delgado com doença celíaca: o glúten agride e danifica as vilosidades (dobras) do intestino e prejudica a absorção dos alimentos

Janaína afirma que o novo dispositivo tem ainda um custo alto para o SUS, embora sua adoção seja fundamental para evitar exames como a biopsia do intestino delgado, frequentemente utilizada para estabelecer o diagnóstico final para a DC. “Segundo a nova conduta da Sociedade Europeia de Gastroenterologia Pediátrica, Hepatologia e Nutrição (ESPGHAN), todos os doadores que possuíssem HLA DQ2 e/ou DQ8 positivos, tivessem o anticorpo antitransglutaminase (anti-tTG) maior que dez vezes o valor de referência e apresentassem sintomas da doença não precisariam realizar a biopsia do intestino delgado, que atualmente é o padrão ouro para o diagnóstico no Brasil. Mas essa ainda não é a realidade a ser considerada em nosso país”, comenta Janaína. Diante dos resultados obtidos no estudo, a pesquisadora e seu orientador decidiram enviar cartas aos doadores que apresentavam marcadores genéticos positivos, com a finalidade de convidá-los para a realização da biopsia do intestino delgado.

No passado, acreditava-se que a doença celíaca era uma reação à toxicidade do trigo ou até mesmo um tipo de alergia. Hoje se sabe que sua origem é genética, e a visão sobre ela mudou totalmente. “A prevalência da DC é de 1 para 100 na Europa. Se antes era considerada rara, hoje é bastante frequente, principalmente no mundo ocidental, onde o trigo faz parte da dieta de forma disseminada”, analisa Fagundes Neto. De fato, a Itália é um dos países referência nos estudos sobre a doença devido à alimentação baseada em massas – 1% dos italianos são celíacos.

Como não há remédios que possam combater essa afecção, o recurso terapêutico mais eficaz é a dieta sem a presença de glúten, adotada de forma permanente. A resistência do paciente aos alimentos com essa característica é, entretanto, o grande obstáculo para a continuidade do tratamento. Além disso, os produtos sem glúten – cuja demanda pode ser suprida pela indústria alimentícia – são mais caros e o regime prescrito é mais oneroso que o convencional. “O indivíduo que cumpre a dieta tem uma vida absolutamente normal”, finaliza Janaína.

Números sobre a doença celíaca

• Afeta em torno de 2 milhões de pessoas no Brasil, embora a maioria delas não tenha o diagnóstico de sua situação.

• Os estudos amostrais realizados em São Paulo, Ribeirão Preto e Brasília permitem estimar a incidência da doença em 1:214, 1:273 e 1:681, respectivamente. Essa constatação coloca o Brasil ao nível da população europeia – a mais afetada.

• A doença celíaca pode aparecer em qualquer fase da vida; atualmente, estima-se que um entre 400 brasileiros seja celíaco.

• De cada oito pessoas que possuem a doença, apenas uma tem o diagnóstico.

• A doença celíaca é cosmopolita e afeta pessoas de todas as classes sociais. No Brasil é diagnosticada entre os afrodescendentes e os povos indígenas, uma vez que a miscigenação vem rompendo a barreira étnico-racial.

Fonte: Federação Nacional das Associações de Celíacos do Brasil (FENACELBRA)

Artigo relacionado:
YOSHIDA, Janaína G. Muniz. Prevalência de predisposição genética para doença celíaca nos doadores de sangue em São Paulo-Brasil. 2014. 80 f. Dissertação (Mestrado em Pediatria e Ciências Aplicadas à Pediatria) - Escola Paulista de Medicina, Universidade Federal de São Paulo, São Paulo.

Publicado em Edição 04
Terça, 02 Junho 2015 14:36

Enxaqueca pode comprometer audição

Falta de foco, diminuição de memória, menor velocidade de processamento de informação e atenção auditiva prejudicada são queixas recorrentes dos portadores da doença; a boa notícia é que a atividade física diminui as crises

Mariane Santos

Entreteses04 p051 enxaqueca

Pessoas que sofrem de enxaqueca podem ter a audição e outras capacidades comprometidas. Uma pesquisa realizada pelo Setor de Investigação e Tratamento das Cefaleias (SITC) e pelo Ambulatório de Neuroaudiologia, ambos ligados ao Departamento de Neurologia e Neurocirurgia da Escola Paulista de Medicina (EPM/Unifesp) – Campus São Paulo, observou maior prevalência de alteração no processamento auditivo em pacientes com enxaqueca.

A predominância da enxaqueca na população brasileira é de 15,2%, sendo mais frequente em mulheres e em indivíduos com ensino superior. Com o estudo, foi possível verificar o impacto da doença em pacientes que não se submeteram a nenhum tipo de tratamento. As evidências levantadas mostram que eles podem apresentar déficit cognitivo, sendo a memória, a velocidade de processamento da informação e atenção auditivas afetadas. 

Entreteses04 p053 cabine testes

Cabine de testes para verificar o processamento auditivo central

A neurologista e chefe do setor mencionado, Thais Rodrigues Villa, que coorientou a pesquisa, explica que a motivação para o estudo surgiu a partir da observação da falta de atenção e entendimento das informações pelos pacientes durante as consultas. “A pessoa ouve normalmente, mas está menos atenta àquilo que escuta. As informações são processadas mais lentamente pelo cérebro”.

Larissa Mendonça Agessi, fonoaudióloga e autora da pesquisa que foi tema de seu mestrado em Distúrbios da Comunicação Humana, selecionou 41 pacientes voluntários, entre 18 e 40 anos, de ambos os sexos, e dividiu-os em três grupos distintos. O primeiro era composto por 11 indivíduos com enxaqueca acompanhada de aura – neste caso, evidenciam-se sintomas visuais e sensitivos como flashes luminosos, pontinhos brilhantes, embaçamento visual, formigamento, dormência, dificuldade em falar, tontura e vertigem, entre outros indícios que podem aparecer antes, durante e após a crise –, cuja duração usualmente variava entre um minuto e uma hora. O segundo, com 15 participantes, caracterizava-se pela ocorrência de enxaqueca sem aura. O terceiro, classificado como grupo controle, era composto por 15 indivíduos, que não relataram a ocorrência de cefaleia no último ano ou nunca a tiveram. Foram também consideradas a idade e escolaridade de cada indivíduo. Nos quadros descritos de enxaqueca, a duração das crises era, em média, de 5 a 6 dias no mês. 

Foram excluídos os voluntários com histórico médico e/ou exame neurológico que apontavam distúrbios neurológicos, psiquiátricos e sistêmicos; que sofreram traumatismo craniano, perda auditiva e cirurgias otológicas (no ouvido); que utilizavam medicações ototóxicas (remédios que prejudicam a audição) e medicações que afetavam o sistema nervoso central (incluindo a profilaxia da enxaqueca); que se expuseram ao ruído ocupacional; que possuíam histórico de abuso de drogas ou dependência relacionado, inclusive, ao consumo de álcool e tabagismo. 

Dificuldade de compreensão

Das 26 pessoas com enxaqueca, 21 apresentaram problemas com o processamento auditivo. Destas, a maioria mostrou alteração na habilidade de ordenação temporal. “Concluímos, após os testes, que pessoas com enxaqueca ouvem, mas apresentam maior dificuldade para compreender o que foi ouvido do que aquelas que não têm dor de cabeça”, explica Larissa.

Entreteses04 p052 teste capacidade

Todos foram avaliados pela pesquisadora, que selecionou testes – com duração de 50 minutos – para verificar o processamento auditivo central. No caso dos pacientes que tinham enxaqueca, era condição necessária que não tivessem apresentado quadro de crise, ao menos nos últimos três dias. Foram aplicados os seguintes testes: Gap in Noise (GIN), para avaliar a capacidade auditiva de resolução temporal (capacidade do sistema auditivo de detectar a ocorrência de dois sons consecutivos, separados por um intervalo de silêncio de 2 a 20 milissegundos, evitando-se que fossem percebidos como um único som); Duration Pattern Test (DPT), para verificar a capacidade auditiva de ordenação temporal (capacidade de nomear e ordenar três sons diferentes quanto à duração, ou seja, afirmar se determinado som é curto ou longo); Dichotic Digit Test (DDT), que consiste na identificação de quatro números diferentes, enunciados nesta sequência: um junto ao ouvido direito, dois ao mesmo tempo (junto a cada ouvido) e outro junto ao ouvido esquerdo. Este teste avaliou a habilidade figura-fundo, aplicada aos sons verbais (habilidade de escolher determinado som na presença de outros sons competitivos).

Segundo Larissa, pacientes com enxaqueca tiveram desempenho inferior ao identificar a presença de dois sons, separados por um intervalo de silêncio de 6 milissegundos, e na discriminação de sons de curta e longa duração, especialmente nas habilidades de resolução e ordenação temporais, quando comparados com o grupo controle sadio. Esses resultados podem refletir-se sobre a memória e atenção auditivas. O estudo constatou que a enxaqueca pode estar relacionada a um processamento auditivo central prejudicado. “A avaliação dos adultos com enxaqueca mostrou que estes tinham muita dificuldade para compreender as instruções dos testes, levando mais tempo para realizá-los”, explica a fonoaudióloga.

Exercícios reduzem a intensidade e a frequência das crises

Outra pesquisa, também realizada pelo Setor de Investigação e Tratamento das Cefaleias (SITC), concluiu que exercícios aeróbicos são eficazes no tratamento preventivo da enxaqueca crônica (neste caso, a duração das dores de cabeça é de 15 dias ou mais por mês), resultando na redução da intensidade e frequência das crises. Esse tipo de enxaqueca afeta de 2% a 3% da população geral, alcançando a prevalência de 5% na população brasileira. 

O estudo, de autoria da fisioterapeuta Michelle Dias Santos Santiago que serviu de base à sua dissertação de mestrado, analisou 60 pacientes de ambos os sexos, com idade entre 18 e 50 anos, no período de junho de 2010 a julho de 2012, em dois modelos de tratamento. O conjunto inicial foi dividido em dois grupos de 30 pessoas, um dos quais deveria praticar exercícios aeróbicos (caminhada de 40 minutos ao ar livre, três vezes por semana), aliados à medicação preventiva; o outro deveria utilizar somente a medicação. As orientações deveriam ser seguidas pelo período de três meses. 

Antes de iniciar o tratamento, foi necessário verificar se os participantes se enquadravam nos seguintes critérios: diagnóstico de enxaqueca crônica, exames cardiológico e neurológico normais e não ter praticado exercícios regulares nos últimos três meses. Após esse processo, eles foram avaliados quanto aos seguintes parâmetros: frequência, intensidade e duração das dores de cabeça, dias de uso da medicação analgésica, índice de massa corporal (IMC), pontuação nas escalas que mensuram a depressão e ansiedade (Beck Depression Inventory - BDI e Beck Anxiety Inventory - BAI). 

Entreteses04 p053 larissa mendonca

Larissa Mendonça Agessi, fonoaudióloga e autora da pesquisa

Os pacientes que realizaram exercícios receberam como instrumentos de acompanhamento o “diário da dor de cabeça”, o folheto explicativo sobre os exercícios de aquecimento, a planilha para registro do tempo de prática do exercício, a folha com a escala para classificação da percepção subjetiva do esforço (Borg Scale) e a tabela para medição da frequência cardíaca no início e final da caminhada. Já os que se submeteram ao estudo com medicação receberam somente o “diário da dor de cabeça”. A evolução das terapias aplicadas aos dois grupos foi avaliada semanalmente pela equipe responsável, por meio de contatos telefônicos.

Para Thais Rodrigues Villa, que também orientou essa pesquisa, os resultados foram surpreendentes. Cinquenta pessoas chegaram à etapa final do experimento e houve redução na frequência da enxaqueca. “O estudo demonstrou que o grupo de pacientes que utilizou a combinação de terapia de drogas preventivas e exercícios aeróbicos apresentou melhora significativa em todos os parâmetros da cefaleia e redução do índice de massa corpórea, resultando em perda de peso. O período médio de dor no mês passou de 23 para 5 dias. Já os que receberam somente o medicamento reduziram o tempo em torno de 50%, de 25 para 13 dias de dor. A diminuição dos sintomas de depressão e ansiedade também foi mais evidente no grupo que praticou exercícios”, esclarece Thais. 

“O exercício aeróbico de intensidade moderada, praticado regularmente, pode promover o relaxamento muscular, a melhora do condicionamento cardiovascular e a redução da frequência, intensidade e duração das crises de dor de cabeça. Mesmo com os exercícios efetuados em casa, os pacientes tiveram resultados positivos”, conclui Michelle.

Artigos relacionados:

SANTIAGO, Michelle Dias Santos; CARVALHO, Deusvenir de Souza; GABBAI, Alberto Alain; PINTO, Mariana Machado Pereira; MOUTRAN, Andrea R. Correa; VILLA, Thais Rodrigues. Amitriptyline and aerobic exercise or amitriptyline alone in the treatment of chronic migraine: a randomized comparative study. Arquivos de Neuro-Psiquiatria, São Paulo, v. 72, n. 11, nov. 2014. Disponível em: <dx.doi.org/10.1590/0004-282X20140148>. Acesso em: 8 abr. 2015.

AGESSI, Larissa M.; VILLA, Thais Rodrigues; DIAS, Karin Z.; CARVALHO, Deusvenir de Souza; PEREIRA, Liliane D. Central auditory processing and migraine: a controlled study. The Journal of Headache and Pain, Heidelberg, Alemanha, v. 15, n. 72, 2014. Disponível em: <dx.doi.org/10.1186/1129-2377-15-72>. Acesso em: 9 abr. 2015.

Publicado em Edição 04

Ana Cristina Cocolo, com colaboração de Lu Sudré

grafismo agua
Entreteses04 p022 acude secando

Situação atual do açude Carnaubal, que abastecia a cidade de Crateús, no Ceará

Setenta e um por cento da superfície terrestre é coberta por água. Destes, cerca de 97% estão nos oceanos. Os menos de 3% de água doce disponível estão distribuídos, em sua maioria, na forma de geleiras e calotas polares (68,9%) e somente 29,7% estão em aquíferos (incluindo rios e lagos). A maior concentração de água doce é subterrânea. Os ínfimos 1,4% restantes estão nas nuvens e vapores d’água.

Desde a década de 1970, se discute, em nível internacional multilateral, a questão do esgotamento e da exploração insustentável das reservas de água do planeta. A partir dos anos 1990, o problema se agrava, com a crescente privatização e mercantilização dos recursos hídricos. Estudos apontam que 29 países já apresentam problemas com a falta de água, entre eles estão os do Oriente Médio e da África, além de China e Índia. Segundo a Organização das Nações Unidas (ONU), em 2013, cerca de 770 milhões de pessoas em quase todos os continentes do mundo não tiveram acesso à água potável. Previsões da instituição são claras: se as políticas públicas não mudarem, dois terços da humanidade sofrerão alguma restrição do recurso em 2025 e 50 países enfrentarão crise no abastecimento até 2050.

A água, juntamente com a exploração mineral, o desmatamento e a disputa por terras, já é motivo de conflito em vários países. Um mapa sobre conflitos ambientais no mundo, divulgado, em março de 2014, pela organização não governamental Environmental Justice Organisations, Liabilities and Trade (EJOLT), juntamente com a Universidade Autônoma de Barcelona, mostra que, empatado com a Nigéria, o Brasil ocupa a terceira posição no ranking que mede regiões que sofrem com conflitos e atividades que colocam em risco os recursos naturais do planeta, ficando atrás apenas da Índia e da Colômbia (http://ejatlas.org/). 

O Brasil, apesar ser privilegiado – já que possui cerca de 12% da água doce superficial do planeta –, não passa imune à crise hídrica. Apesar de abundante - a Amazônia é a maior bacia fluvial do mundo e detém 70% da água doce do país -, nosso potencial hídrico é mal distribuído. Apenas 30% desse recurso atende aos 93% da população e, nas capitais com maior concentração populacional, sua oferta não atende à demanda. 

A Agência Nacional de Águas (ANA) diagnosticou, em seu último Atlas Brasil – Abastecimento Urbano de Água, de 2013, que 55% dos municípios brasileiros (70% do consumo total de água no país) poderiam ter problemas de abastecimento de água até 2015. Esse percentual representa 71% da população urbana (125 milhões de pessoas). Mas, quando há abundância, a preocupação com o desperdício parece se esvair. Segundo o Ministério das Cidades, em média, 39% da água tratada no Brasil é desperdiçada antes mesmo de chegar à torneira dos consumidores.

O significativo processo de crescimento econômico e melhoria nos indicadores sociais não foram acompanhados por medidas de melhoramento da qualidade dos serviços de saneamento básico. O desenvolvimento deveria ter como objetivo ampliar a oferta, enfrentar os períodos de estiagem, evitar o desperdício e manter a qualidade da água. 

Nesta edição, reunimos algumas das pesquisas desenvolvidas na Universidade Federal de São Paulo (Unifesp) – em parceria com outras universidades e institutos – que abrangem desde a análise da qualidade da água e a presença de microrganismos até a busca de soluções para descontaminação do recurso e a possibilidade de seu reuso.

grafismo agua
Publicado em Edição 04