quarta-feira, 19 de abril de 2017

Marcelo Gleiser e os limites da ciência

Um dos mais importantes divulgadores científicos em atividade no mundo é brasileiro. Refiro-me ao físico e professor de Filosofia Natural da Dartmouth College Marcelo Gleiser. Muitos o conhecem devido a duas séries de popularização científica que ele apresentou no programa Fantástico, da Rede Globo: Poeira das estrelas, lançada em 2006, e Mundos invisíveis, lançada em 2008.  Mas para além de apresentador, Gleiser é também autor de inúmeros livros, vários premiados: A dança do Universo (1997), O fim da Terra e do Céu (2001), O livro do cientista (2003), Poeira das estrelas (2006), Harmonia do mundo (2006, seu primeiro e até agora único romance), Cartas a um jovem cientista (2007), Mundos invisíveis (2008), Criação imperfeita (2010), Ilha do conhecimento (2014) e, mais recentemente A simples beleza do inesperado (2016) - além desses, Gleiser ainda publicou três coletâneas de artigos escritos ao longo de vários anos para o jornal Folha de São Paulo: Retalhos Cósmicos (1999), Micro Macro 1 (2005) e Micro Macro 2 (2007). De todos estes eu destacaria quatro livros como sendo as "obras de peso" do autor: A dança do Universo (sua primeira e mais fascinante obra, que condensa muitos dos temas que serão desenvolvidos nas obras posteriores), O fim da terra e do céu, Criação Imperfeita e Ilha do conhecimento. As demais obras, ainda que tenham seus encantos, não possuem a mesma densidade encontrada nestas quatro obras, que merecem ser lidas com muita atenção (como eu fiz ao longo dos últimos meses). Estas quatro obras, embora tratem de temas variados dentro do universo da física, possuem uma preocupação em comum, preocupação esta que será extensamente elaborada no magnífico livro A ilha do conhecimento. Trata-se da necessária discussão sobre os limites do conhecimento humano e, mais especificamente, sobre os limites da ciência. 

Esta questão pode ser resumida da seguinte forma: a ciência pode conhecer tudo ou tem algo que escapa daquilo que pode ser conhecido? Já em seu primeiro grande livro, A dança do universo, que trata dos diversos entendimentos sobre a origem e funcionamento do universo ao longo da história, Marcelo Gleiser, tenta responder esta questão de variadas maneiras. Selecionei alguns trechos deste livro relacionados a esta problemática:

"Quando tentamos entender  o universo como um todo, somos limitados pela nossa perspectiva interna, como um peixe inteligente que tenta descrever o oceano como um todo".

"Existem limites para a ciência como para a religião. Cientistas não devem abusar da ciência, aplicando-a a situações claramente especulativas e, apesar disso, sentirem-se justificados em declarar que podem resolver questões de natureza teológica. Teólogos não devem tentar interpretar textos sagrados cientificamente, porque estes não foram escritos com este objetivo. Para mim, o que é realmente fascinante é que tanto a ciência quanto a religião expressam nossa reverência e fascínio pela natureza".

"Toda teoria tem suas limitações. Em outras palavras: as teorias operam sempre dentro de um determinado domínio de validade. E é justamente através das 'brechas conceituais', deixadas abertas por teorias antigas, que novas teorias emergem. Esta é, muito resumidamente, a forma como a ciência se autoperpetua".

"Sem dúvida a ciência nos oferece muitas respostas sobre os sutis mecanismos dinâmicos da natureza, mas não devemos nos esquecer de suas limitações. A questão de por que existe algo ao invés de nada deve sempre inspirar nossa humildade".

"É comum dizer que a ciência é um processo. Eu acrescentaria que a ciência é um processo sem fim, uma 'procura' num território sem fronteiras. Vejo com grande suspeita pronunciamentos afirmando que a ciência está morta, que todas as descobertas realmente relevantes já foram feitas. Como é possível ser assim tão cego para a história ou para nossa vasta ignorância?".

"Teorias científicas jamais serão a verdade final: elas irão sempre evoluir e mudar, tornando-se progressivamente mais corretas e eficientes, sem chegar nunca a um estado final de perfeição. Novos fenômenos estranhos, inesperados e imprevisíveis irão sempre desafiar nossa imaginação. Assim como nossos antepassados estaremos sempre tentando compreender o novo. E a cada passo desta busca sem fim, compreenderemos um pouco mais sobre nós mesmos e sobre o mundo à nossa volta".

Destes trechos é possível depreender uma visão extremamente realista (e humilde) da atividade científica. Para Marcelo Gleiser a ignorância é a regra quanto se trata do conhecimento humano: nós mais desconhecemos do que conhecemos. Mas ainda assim nós podemos tentar ampliar o nosso conhecimento e, logicamente, diminuir a nossa ignorância. A ciência, nesse sentido, é um caminho possível para se obter conhecimento sobre a realidade - mas não o único caminho. Para além da narrativa científica da realidade, existiriam outras narrativas como a religiosa, a artística, a política, etc. Marcelo Gleiser, ao contrário de muitos cientistas e divulgadores científicos, não concebe a "ciência" como sinônimo de "verdade" pois o conhecimento científico seria apenas uma forma, dentre muitas, de entender o mundo à nossa volta - e até mesmo nosso mundo interior. E mesmo a dita "verdade científica" não seria sinônimo de "verdade absoluta" pois aquilo que é entendido hoje como verdade pode não continuar sendo amanhã, da mesma forma como muitas coisas que foram consideradas verdadeiras pelos cientistas do passado já não o são mais (isto para não falar que muitas das nossas verdades científicas não fazem o menor sentido para pessoas de outras culturas). Isto ocorre porque o conhecimento científico é, por sua própria natureza, limitado. Não podemos saber tudo porque para investigar e analisar a realidade dependemos dos instrumentos que criamos (microscópios, telescópios, scans, testes, etc) e todos os instrumentos possuem limitações. O melhor microscópio disponível atualmente só nos permite enxergar a realidade até um determinado nível. Além deste nível não podemos enxergá-la e muito menos compreendê-la. Na medida em que melhoramos nossos equipamentos, ampliamos nossa capacidade de visão e consequentemente de análise, mas ainda haverá uma grande parcela da realidade que nos escapará. Sempre. E isto sem levar em conta o fato de que quanto mais vemos e sabemos, mais respostas podemos obter mas também mais perguntas nos fazemos. Como bem afirma Gleiser em outro livro, "o conhecimento começa com a ignorância e gera um novo conhecimento que gera mais ignorância".

Esta é, em suma, a teoria do conhecimento disseminada pelo físico Marcelo Gleiser em toda sua obra e em especial no livro A ilha do conhecimento. Neste livro, o autor se utiliza de uma interessante metáfora para ilustrar seu ponto de vista. Segundo ele, todos vivemos, inclusive os cientistas, em uma ilha do conhecimento cercada pelo oceano do desconhecido; à medida que ampliamos o nosso conhecimento e, consequentemente, aumentamos o tamanho da nossa ilha, ampliamos também a extensão de nossa praia, ou seja, aumentamos os pontos de contato com o desconhecido. Através de nossos instrumentos, ampliamos os nossos conhecimentos mas  também ampliamos a nossa ignorância. Como afirma Gleiser neste livro, "se nosso acesso à Natureza é limitado pelos nossos instrumentos e, mais sutilmente, pelos nossos métodos de investigação, concluimos que o nosso conhecimento do mundo natural é necessariamente limitado". Em outro momento aponta: "O que chamamos de 'real' depende do quão profundamente podemos investigar a realidade. Mesmo se algo como uma 'realidade última' exitir, podemos conhecer apenas alguns de seus aspectos". E complementa: "O que chamamos 'realidade' está sempre mudando. A versão da realidade que chamamos verdadeira em um determinado momento histórico não continuará a sê-lo em outra". Esta visão da ciência, como um conhecimento limitado e situado no espaço e no tempo, embora seja de certa forma banal para estudiosos das ciências humanas, é muitas vezes questionada por pesquisadores das chamadas "ciências duras", como a física e a química, que muitas vezes vêem a ciência como a única forma de se obter um conhecimento verdadeiro sobre a realidade. É, pois, bastante interessante, que um físico dissemine uma visão da atividade científica bastante próxima daquela disseminada por historiadores e sociólogos da ciência.

Frequentemente Marcelo Gleiser é acusado de derrotista e pessimista a devido ao seu entendimento de que a ciência será sempre um empreendimento limitado, nunca atingindo o conhecimento completo da realidade. Mas ele não vê as coisas desta forma. Como afirma no livro A ilha do conhecimento, "ver a ciência como ela de fato é, não como algo idealizado, acaba por torná-la mais bela, mais real, alinhando-a ao resto dos frutos da criatividade humana - pluralista, surpreendente e imperfeita". Em outro momento deste livro, ele aponta: "uma ciência saudável combina humildade com esperança: humildade para a aceitar a extensão da nossa ignorância; e esperança de que novas descobertas irão expandir a Ilha do conhecimento". No seu mais recente livro, A simples beleza do inesperado - no qual o autor intercala relatos e reflexões sobre pescaria com considerações sobre sobre ciência, religião e acontecimentos sobrenaturais - Gleiser afirma de uma forma ainda mais clara: "Explorar os limites da ciência não é o mesmo que considerá-la fraca, expondo-a a críticas de grupos anticiência, como por exemplo os evangélicos que interpretam a Bíblia literalmente. Pelo contrário, esses argumentos liberam a ciência de uma responsabilidade que não deveria ter, de ser a resposta para tudo, de saber tudo, como se fosse mais do que uma criação humana, assumindo proporções de caráter divido". A ciência, para Gleiser, é humana, demasiado humana e exatamente por isso é limitada e falha. Criada à nossa imagem e semelhança, a ciência é imperfeita como nós. Mas para ele esta não é uma visão triste da ciência ou da natureza humana. Triste seria se atingíssemos todo o conhecimento possível. Como ele afirma neste livro: "imagine a tristeza se, um dia, completássemos o conhecimento. Sem novas perguntas a fazer, nossa criatividade murcharia, nosso espírito se apagaria como uma vela. Para mim, essa possibilidade é muito mais trágica do que abraçar a dúvida como parceira essencial de uma mente curiosa". Na mesma direção ele afirma, em outro momento do livro: "A missão da ciência não é encontrar respostas finais ou conclusivas, e sim construir uma narrativa do mundo natural que é revisada continuamente de acordo com o acúmulo de dados e informações, tornando-se cada vez mais eficiente".

Gosto muito desta visão da ciência e da natureza humana disseminada pelo Marcelo Gleiser. Gosto de pensar que as limitações que a ciência tem e que todos temos individualmente e coletivamente, não são obstáculos intransponíveis, mas desafios a serem enfrentados. Certamente existem coisas que nunca - ou muito dificilmente - poderemos compreender cientificamente, como por exemplo se deus existe ou se existe vida após a morte. Mas existem muitas outras questões que podem (e devem) ser estudadas e analisadas pela ciência, ainda que com significativas limitações. De toda forma, penso que toda esta reflexão a respeito dos limites da ciência e do conhecimento humano, pode contribuir para o desenvolvimento de uma postura mais humilde perante a vida e o mundo. Uma postura de admiração e espanto diante dos mistérios da Natureza que leve a um desejo e uma ação de conhecer mais. A ignorância e a dúvida não devem nos paralisar mas sim nos inspirar a continuar estudando e analisando o mundo e a humanidade. De fato nunca atingiremos um conhecimento completo de tudo mas a graça, na vida e na ciência, está justamente no caminho e não na chegada. E é justamente por isso que exploramos o universo, o mundo e a nós mesmos. Como bem aponta Marcelo Gleiser em seu último livro, "nós nos arriscamos como indivíduos e nos arriscamos coletivamente tentando expandir nossas fronteiras para além do conhecido. Exploramos o mundo e continuamos explorando o espaço. Somos uma espécie de gosta da segurança das fronteiras, desde que não sejam fixas". Enfim, queremos sempre mais e  nunca nos contentamos com o que temos e com o que sabemos. Somos seres da falta e justamente por isso seguimos caminhando.

Observação: já que apontei para os limites da ciência, também valeria a pena apontar para os limites do conhecimento do próprio Marcelo Gleiser. Neste artigo o autor, também um físico, apresenta uma série de equívocos científicos e distorções histórias apresentadas por Gleiser no livro A dança do Universo. Se nem a ciência é perfeita por que Marcelo Gleiser seria?

terça-feira, 18 de abril de 2017

Diferenciando cérebro de mente

No dia 30 de Maio de 2013, o site The Atlantic publicou um ótimo texto, denominado Distinguishing Brain From Mind, escrito pela psiquiatra Sally Satel, co-autora do magnífico livro Brainwashed: The Seductive Appeal of Mindless Neuroscience [Lavagem cerebral: o apelo sedutor da neurociência insensata]. Segue a tradução que fiz deste interessante artigo. 

Passando pelo recente anúncio da Iniciativa BRAIN pelo Presidente Obama até as imagens coloridas do cérebro expostas nas capas de revistas, a neurociência capturou a imaginação pública como nunca antes. 

Compreender o cérebro é, certamente, essencial para o desenvolvimento de tratamentos para doenças devastadoras como esquizofrenia e Parkinson. De forma mais abstrata, mas não menos fascinante, o funcionamento do cérebro está intimamente ligado ao nosso sentido de si, à nossa identidade, às nossas memórias e aspirações. Mas a excitação em investigar o cérebro gerou uma nova fixação que meu colega Scott Lilienfeld e eu chamamos de neurocentrismo - a visão de que o comportamento humano pode ser melhor explicado olhando somente ou principalmente para o cérebro.

Algumas vezes, o nível de explicação neural é apropriado. Quando os cientistas desenvolvem testes diagnósticos ou medicamentos para, digamos, a doença de Alzheimer, eles investigam as marcas desta condição: as placas amilóides que interrompem a comunicação entre os neurônios e os emaranhados neurofibrilares que os degradam.

Outras vezes, porém, uma explicação neural pode nos desnortear. No meu próprio campo da psiquiatria do dependência química, o neurocentrismo é ascendente - e não para melhor. Graças à forte promoção do Instituto Nacional de Abuso de Drogas [no original: National Institute on Drug Abuse], que faz parte dos Institutos Nacionais de Saúde, a dependência química foi rotulada como uma "doença cerebral".

A lógica para esta designação, como explicado pelo ex-diretor Alan I. Leshner, é que "a dependência química está relacionada a mudanças na estrutura e na função do cérebro". De fato, é verdade que o uso contínuo de drogas como a heroína, a cocaína e o álcool alteram os circuitos neurais que medeiam a experiência do prazer, assim como a motivação, a memória, a inibição e o planejamento - modificações que muitas vezes podemos ver nos exames cerebrais.

A questão crítica, porém, é saber se essa alteração neural prova que o comportamento do dependente é involuntário e que ele é incapaz de se auto-controlar - o que não ocorre.

Veja, por exemplo, o caso do ator Robert Downey, Jr., cujo nome já foi sinônimo "celebridade viciada". Ele disse: "É como se eu tivesse uma arma carregada em minha boca e meu dedo no gatilho, e eu gosto do sabor de metal". Downey passou por vários episódios de reabilitação e de recaída, mas finalmente decidiu, enquanto agonizava com sua "doença cerebral", mudar o rumo de sua vida.

O modelo neurocêntrico deixa a pessoa dependente (Downey, neste caso) nas sombras. No entanto, para tratar os dependentes e orientar as políticas, é importante entender como os dependentes pensam. É a mente dos dependentes que contêm as histórias de como a dependência acontece, porque eles continuam a usar a droga, e, se eles decidem parar, como eles se controlam. Tais respostas não podem ser obtidas a partir de um exame de seus cérebros, não importa quão sofisticada seja a investigação.

É natural que os avanços no conhecimento sobre o cérebro nos façam pensar de forma mais mecanicista sobre nós mesmos. Mas em um local, em particular - o tribunal - este viés pode ser uma receita de confusão. A defesa baseada no cérebro [no original: brain-based defense] ("Olhe para este escaneamento, Meritíssimo. O cérebro do meu cliente fez com que ele fizesse isso") tem sido uma estratégia comum usada pelas defensorias. O problema com tais afirmações é que, com raras exceções, os neurocientistas ainda não conseguem traduzir funções cerebrais anômalas para os requisitos legais de responsabilidade criminal - intenção, capacidade racional e autocontrole.

O que sabemos sobre muitos criminosos é que eles não se controlam. Isso é muito diferente de serem incapazes de se controlar. Até hoje, a ciência do cérebro não nos permite distinguir entre essas alternativas. Além do mais, mesmo cérebros de aparência anormal possuem donos que não são lá muito normais.

Olhando para o futuro, alguns neurocientistas preveem uma dramática transformação no direito penal. David Eagleman da Iniciativa de Neurociência e Direito da Faculdade de Medicina de Baylor, espera que "possamos descobrir um dia que muitos tipos de mau comportamento têm uma explicação biológica básica [e] eventualmente pensar sobre a má tomada de decisões da mesma maneira que pensamos sobre a diabetes ou doença pulmonar ". Mas essa é a conclusão correta a tirar da neurociência? Se todos os comportamentos problemáticos estão eventualmente ligados a correlatos da atividade cerebral, que podemos detectar e visualizar, será que podemos desculpá-los em função da teoria do não-me-culpe-culpe-meu-cérebro? Ninguém jamais será julgado responsável?

O modo de pensar de Eagleman é representativo daquilo que o professor de direito Stephen Morse chama de "erro psico-legal", nossa poderosa tentação de equiparar causa e desculpa. Morse observa que a lei desculpa o comportamento criminoso somente quando um fator causal produz um prejuízo tão severo que priva o réu de sua racionalidade. Os maus genes, os maus pais, ou mesmo as más estrelas não são uma desculpa.

Finalmente, quais são as implicações da ciência do cérebro para a moralidade? Embora geralmente pensemos em nós mesmos como agentes livres que fazem escolhas, vários estudiosos proeminentes afirmam que estamos equivocados. "Nosso crescente conhecimento sobre o cérebro faz com que as noções de volição, culpabilidade e, em última instância, a própria premissa do sistema de justiça criminal, sejam profundamente suspeitas", afirma o biólogo Robert Sapolsky.

Com certeza, todos concordam que as pessoas só podem ser responsabilizadas se tiverem liberdade de escolha. Mas, há um longo debate sobre o tipo de liberdade que é necessário. Alguns afirmam que podemos ser responsabilizados desde que possamos nos envolver em deliberação consciente, seguir regras e, em geral, nos controlar.

Outros, como Sapolsky, discordam, insistindo que nossas deliberações e decisões não nos tornam livres porque são ditados por circunstâncias neuronais. Dizem que quando chegarmos a entender o funcionamento mecânico dos nossos cérebros, seremos obrigados a adotar um modelo de justiça estritamente utilitarista, no qual os criminosos são "punidos" apenas como uma maneira de mudar seu comportamento, não porque eles realmente possuem culpa.

Embora esteja coberta de trajes neurocientíficos, essa questão de livre-arbítrio continua sendo um dos grandes impasses conceituais de todos os tempos, e está muito além da capacidade da ciência do cérebro de resolver. A não ser que os investigadores possam mostrar algo realmente espetacular: que as pessoas não são seres conscientes cujas ações fluem de suas razões e que respondem à razão. É verdade que não exercemos tanto controle consciente sobre nossas ações como pensamos que fazemos. Todo estudioso da mente, começando mais notavelmente com William James e Sigmund Freud, sabe disso. Mas isso não significa que somos impotentes.

Tem sido dito que o estudo do cérebro é a fronteira científica final. Será que vamos perder a mente de vista justo na era da neurociência? Enquanto os scans são deslumbrantes e a tecnologia uma maravilha sem precedentes, podemos sempre manter nossos rumos, lembrando que o cérebro e a mente são duas estruturas diferentes.

O domínio neurobiológico é o dos cérebros e das causas físicas, os mecanismos por trás de nossos pensamentos e emoções. O domínio psicológico, o domínio da mente, é o das pessoas - seus desejos, intenções, ideais e ansiedades. Ambos são essenciais para uma compreensão completa de por que agimos como agimos.

segunda-feira, 6 de março de 2017

Inteligência: uma história

No dia 21 de fevereiro, o site AEON publicou um texto magnífico, denominado Intelligence: a history, escrito pelo filósofo Steven Cave, que também é diretor do Centro Leverhulme para o Futuro da Inteligência, da Universidade de Cambridge. Segue a tradução que fiz deste interessante artigo. 

Enquanto eu crescia na Inglaterra na segunda metade do século 20, o conceito de inteligência emergiu com força total. Ele foi cobiçado, debatido e - o mais importante de tudo - medido. Quando eu tinha 11 anos, dezenas de milhares de nós em todo o país foram conduzidos a salas de aula repletas de mesas para que respondêssemos a um teste de QI conhecido como 11-Plus. Os resultados daquelas poucas e curtas horas determinariam quem iria para a escola de gramática para ser preparado para a universidade e para as profissões; quem seria encaminhado à escola técnica e daí para o trabalho qualificado; e quem iria para a escola secundária para ser introduzido a conhecimentos básicos e em seguida conduzido para uma vida de trabalhos manuais de baixo status.

A ideia de que a inteligência poderia ser quantificada, como a pressão sanguínea ou o tamanho do sapato, tinha apenas um século de idade quando eu fiz o teste que decidiria meu lugar no mundo. Mas a noção de que a inteligência poderia determinar a posição de vida de alguém é muito mais antiga. Ela funciona como uma espécie de fio que transpassa todo o pensamento ocidental, deste a filosofia de Platão até as políticas da primeira-ministra britânica Theresa May. Dizer que alguém é ou não é inteligente nunca foi apenas um comentário sobre suas faculdades mentais. É também sempre um julgamento sobre o que as pessoas estão autorizadas a fazer. A inteligência, em outras palavras, é política.

Algumas vezes, essa forma de classificação é sensata: queremos médicos, engenheiros e governantes que não sejam estúpidos. Mas isto tem um lado obscuro. Além de determinar o que uma pessoa pode fazer, sua inteligência - ou suposta falta dela - tem sido usada para decidir o que os outros podem fazer com ela. Ao longo da história ocidental, aqueles considerados menos inteligentes foram, como consequência desse julgamento, colonizados, escravizados, esterilizados e assassinados (e até mesmo comidos, se incluirmos os animais não-humanos).

É uma história antiga, na verdade muito antiga. Mas o problema teve uma interessante reviravolta no século XXI com a ascensão da Inteligência Artificial (AI). Nos últimos anos, o progresso que está sendo feito na pesquisa de AI aumentou significativamente, e muitos especialistas acreditam que esses avanços em breve levarão a outros mais. Os analistas, por sua vez, estão aterrorizados e animados, polvilhando o Twitter com referências ao filme Exterminador do futuro. Para entender por que nos preocupamos e o que tememos, devemos entender a inteligência como um conceito político - e, em particular, a sua longa história como uma justificativa para a dominação.

O termo "inteligência" nunca foi muito popular entre os filósofos de língua inglesa. Nem possui uma tradução direta para o alemão ou para o grego antigo, duas das outras grandes línguas da tradição filosófica ocidental. Mas isso não significa que os filósofos não estavam interessados nesta questão. Na verdade, eles estavam obcecados por ela, ou mais precisamente por uma parte dela: a razão ou a racionalidade. O termo "inteligência" conseguiu eclipsar seu parente mais distante no discurso popular e político apenas com o surgimento da disciplina relativamente nova da psicologia, que reivindicava inteligência para si mesma. Embora hoje muitos estudiosos defendam uma compreensão muito mais ampla da inteligência, a razão permanece sendo uma parte essencial dela. Então, quando eu falo sobre o papel que a inteligência teve historicamente, eu preciso incluir este antepassado.

A história da inteligência começa com Platão. Em todos os seus escritos, ele atribui um valor muito elevado ao pensamento, declarando (pela boca de Sócrates) que a vida não examinada não vale a pena ser vivida. Platão emergiu de um mundo mergulhado no mito e no misticismo para reivindicar algo novo: que a verdade sobre a realidade poderia ser estabelecida através da razão, ou como poderíamos dizer hoje, através da aplicação da inteligência. Isso o levou a concluir, na República, que o governante ideal é "o rei filósofo", na medida em que somente um filósofo poderia realizar este trabalho adequadamente. E assim ele lançou a ideia de que o mais inteligente deveria governar o resto - uma meritocracia intelectual.

Essa ideia era revolucionária para a época. Atenas já havia experimentado a democracia, o governo do povo - mas, para ser considerado parte do povo, você precisava ser um cidadão do sexo masculino, não necessariamente inteligente. Em outros lugares, as classes governantes eram constituídas por elites herdadas (aristocracia), ou por aqueles que acreditavam ter recebido instrução divina (teocracia), ou simplesmente pelos mais fortes (tirania).

A nova ideia de Platão caiu nos ouvidos ansiosos dos intelectuais, incluindo nos de seu aluno Aristóteles. Aristóteles sempre foi o tipo mais prático e taxonômico de pensador. Ele tomou a noção do primado da razão e usou-a para estabelecer o que acreditava ser uma hierarquia social natural. Em seu livro A política, ele explica: "Que alguns devam governar e outros serem governados é uma coisa não só necessária, mas conveniente; desde a hora do nascimento, alguns são marcados para a sujeição, outros para a liderança". O que marca o governante é a posse de um "elemento racional". Os homens educados têm muito disto e, portanto, devem governar naturalmente sobre as mulheres - e também sobre aqueles homens "cujo trabalho é usar seu corpo" e que, portanto, "são escravos por natureza". Mais abaixo ainda na escada estão os animais não-humanos, que são tão estúpidos ao ponto de "ficarem melhores quando são governados pelo homem".

Assim, no alvorecer da filosofia ocidental, nós temos a inteligência identificada com o homem europeu, educado, masculino. Este se torna um argumento para seu direito de dominar as mulheres, as classes mais baixas, os povos não-civilizados e os animais não-humanos. Enquanto Platão argumentava pela supremacia da razão e a colocava dentro de uma utopia bastante desagradável, apenas uma geração depois, Aristóteles apresenta a regra do homem pensante como óbvia e natural.

Não é necessário dizer que, mais de 2000 anos mais tarde, o trem de pensamento que esses homens puseram em movimento ainda não foi descarrilado. O filósofo australiano e conservacionista Val Plumwood argumentou que os gigantes da filosofia grega criaram uma série de dualismos que continuam a formar o nosso pensamento. Categorias opostas, como inteligente/ estúpido, racional/ emocional e mente/ corpo estão ligadas, implícita ou explicitamente, a outros, como macho/ fêmea, civilizado/ primitivo e humano/ animal. Esses dualismos não são neutros em termos de valores, mas enquadram-se em um dualismo mais amplo, como Aristóteles deixa claro: o do dominante/ subordinado ou do mestre/ escravo. Juntos, eles fazem as relações de dominação, como o patriarcado ou a escravidão, parecerem fazer parte da ordem natural das coisas.

O início da filosofia ocidental, em sua aparência moderna, é frequentemente atribuída ao mais famoso dualista, René Descartes. Ao contrário de Aristóteles, ele nem sequer admitiu um continuum de diminuição da inteligência entre o homem e os outros animais. A cognição, segundo Descartes, é exclusiva da humanidade. Ele estava reproduzindo mais de um milênio de teologia cristã, que fazia da inteligência uma propriedade da alma, uma centelha do divino reservada apenas para aqueles que tinham a sorte de serem feitos à imagem e semelhança de Deus. Descartes tornou a natureza literalmente sem mente [no original: mindless] e desprovida de valor intrínseco - o que legitimava a opressão livre de culpa de outras espécies.

A ideia de que a inteligência define a humanidade persistiu no Iluminismo. Foi entusiasticamente abraçada por Immanuel Kant, provavelmente o mais influente filósofo moral desde os antigos. Para Kant, apenas as criaturas de raciocínio tinham uma posição moral. Os seres racionais deveriam ser chamados de "pessoas" e eram "fins em si mesmos". Os seres que não eram racionais, por outro lado, tinham "apenas um valor relativo como meio e, portanto, são chamados de coisas". Poderíamos fazer com eles o que quiséssemos.

De acordo com Kant, o ser racional - hoje diríamos "o ser inteligente" - tem valor infinito ou dignidade, enquanto o irracional ou ininteligente não tem nenhum. Seus argumentos são mais sofisticados, mas essencialmente ele chega à mesma conclusão que Aristóteles: há mestres naturais e escravos naturais, e a inteligência é o que os distingue.

Esta linha de pensamento foi estendida para se tornar uma parte essencial da lógica do colonialismo. O argumento era esse: os povos não-brancos eram menos inteligentes; eles eram, portanto, desqualificados para governar a si mesmos e suas terras. Era perfeitamente legítimo - até mesmo um dever, "o fardo do homem branco" - destruir suas culturas e tomar seu território. Além disso, como a inteligência definia a humanidade, por serem menos inteligentes, esses povos eram menos humanos. Por conseguinte, não dispunham de efetivo caráter moral - e por isso era perfeitamente correto matá-los ou escravizá-los.

A mesma lógica foi aplicada às mulheres, que eram consideradas demasiadamente volúveis e sentimentais para apreciar os privilégios concedidos ao "homem racional". Na Inglaterra do século XIX, as mulheres estavam menos protegidas pela lei do que os animais domésticos, como demonstrou a historiadora Joanna Bourke, da Birkbeck University of London. Talvez não seja surpreendente constatar, então, que por muitas décadas o advento dos testes de inteligência formais tendeu a exacerbar ao invés de remediar a opressão contra as mulheres.

Sir Francis Galton é geralmente considerado criador da psicometria, a "ciência" que busca medir da mente. Ele foi inspirado pela obra Origem das espécies (1859) escrita por seu primo Charles Darwin. Esta obra levou Galton a acreditar que a habilidade intelectual era hereditária e poderia ser melhorada através da reprodução seletiva. Ele decidiu encontrar uma maneira de identificar cientificamente os membros mais capazes da sociedade e encorajá-los a se reproduzir - em grande quantidade e uns com os outros. Os menos intelectualmente capazes deveriam ser desencorajados a se reproduzir, ou de fato impedidos, em benefício da espécie. Assim, a eugenia e o teste de inteligência nasceram juntos. Nas décadas seguintes, um grande número de mulheres em toda a Europa e na América foi esterilizada à força após obter pontuações baixas em tais testes - 20 mil somente na Califórnia.

As escalas de inteligência foram usadas para justificar alguns dos mais terríveis atos de barbárie da história. Mas a regra da razão sempre teve seus críticos. De David Hume a Friedrich Nietzsche, passando por Sigmund Freud até o pós-modernismo, existem muitas tradições filosóficas que desafiam a noção de que somos tão inteligentes como gostaríamos de acreditar e de que a inteligência é a virtude mais elevada.

A meritocracia da inteligência sempre foi apenas uma explicação para o valor social - ainda que uma explicação altamente influente. A entrada em determinadas escolas e profissões, como o Serviço Civil do Reino Unido, baseia-se em testes de inteligência, mas outras esferas da sociedade enfatizam qualidades diferentes, tais como a criatividade ou o espírito empreendedor. E embora possamos esperar que nossos funcionários públicos sejam inteligentes, nem sempre optamos por eleger os políticos mais inteligentes. (Ainda assim, é revelador que mesmo um político populista como Donald Trump sentiu a necessidade de afirmar, sobre sua administração, que "temos de longe o maior QI jamais reunido num gabinete)

Em vez de desafiar a hierarquia da inteligência como tal, muitos críticos se concentraram em atacar os sistemas que permitem que as elites brancas e masculinas cheguem ao topo. O exame 11-Plus, a que eu fui submetido, é um interessante e profundamente equivocado exemplo de tal sistema. Ele foi projetado para identificar indivíduos jovens e brilhantes de todas as classes e credos. Mas, na realidade, aqueles que são aprovados no exame procedem desproporcionalmente das classes médias brancas em melhor situação financeira, cujos membros se encontram, assim, legitimados em suas posições e vantagens.

Então, quando refletimos sobre como o conceito de inteligência tem sido usado para justificar privilégios e dominações ao longo de mais de 2000 anos de história, há alguma surpresa que a perspectiva iminente de robôs super-inteligentes nos encha de medo?

De 2001: Uma Odisséia no Espaço até os filmes da série Exterminador do Futuro, os escritores têm fantasiado sobre máquinas se rebelando contra nós. Agora podemos ver o porque. Se estamos acostumados a acreditar que os melhores lugares da sociedade devem ser ocupados pelos mais inteligentes, então, naturalmente, devemos esperar ser subjugados por robôs megainteligentes e colocados no fim da fila [no original: bottom of the heap, expressão de difícil tradução]. Se tivermos absorvido a ideia de que os mais inteligentes podem colonizar os menos inteligentes, então é natural que tenhamos medo de sermos escravizados por nossas criações super-inteligentes. Se justificamos nossas próprias posições de poder e prosperidade em virtude de nosso intelecto, é compreensível que vejamos a IA como uma ameaça existencial.

Essa narrativa de privilégio pode explicar porque, como observou a estudiosa e tecnóloga Kate Crawford, de Nova York, o medo da AI parece predominante entre os homens brancos ocidentais. Outros grupos têm sofrido uma longa história de dominação por autoproclamados superiores, e ainda estão lutando contra os verdadeiros opressores. Homens brancos, por outro lado, estão acostumados a estar no topo da hierarquia. Eles têm mais a perder se novas entidades aparecem para superá-los justamente nas áreas que foram usadas para justificar a superioridade masculina.

Eu não quero sugerir com isto que toda nossa ansiedade relacionada à Inteligência Artificial seja infundada. Existem riscos reais associados com o uso de AI avançado (assim como imensos benefícios potenciais). Mas ser oprimido pelos robôs da maneira como, digamos, os povos indígenas da Austrália foram oprimidos por colonos europeus não é o número um na lista.

Seria melhor nos preocuparmos com o que os seres humanos podem fazer com a IA, ao invés do que ela poderia fazer por si mesma. Nós humanos somos muito mais propensos a utilizar sistemas inteligentes uns contra os outros, ou a nos tornarmos excessivamente dependentes deles. Como na fábula do aprendiz de feiticeiro, se as AIs nos causam danos, é mais provável que seja porque lhes damos objetivos bem intencionados mas confusos ​​- e não porque eles desejam nos conquistar. A estupidez natural, mais do que a inteligência artificial, continua sendo o maior risco.

É interessante especular sobre como veríamos a ascensão da AI se tivéssemos uma visão diferente da inteligência. Platão acreditava que os filósofos precisariam ser convencidos a se tornarem reis, pois prefeririam naturalmente a contemplação ao domínio sobre os homens. Outras tradições, especialmente as orientais, veem a pessoa inteligente como alguém que despreza as armadilhas do poder como mera vaidade e que se afasta das trivialidades e atribuições dos afazeres cotidianos.

Imagine se tais visões forem difundidas: se todos pensarmos que as pessoas mais inteligentes não são aquelas que reivindicam o direito de governar, mas aquelas que foram meditar em lugares remotos para se libertar dos desejos mundanos; ou se o mais inteligente de todos for aquele que retornar para disseminar a paz e o esclarecimento. Ainda teríamos medo de robôs mais inteligentes que nós?

quinta-feira, 2 de março de 2017

Como os cientistas do cérebro se esqueceram que os cérebros têm donos

No dia 27 de Fevereiro, a revista The Atlantic publicou um interessante artigo escrito pelo jornalista científico Ed Yong denominado How brain scientists forgot that brains have owners, que eu traduzi e disponibilizo aos leitores deste blog.

Este é um bom momento para se interessar pelo cérebro. Neurocientistas podem agora ligar e desligar neurônios com apenas um flash de luz, permitindo-lhes manipular o comportamento dos animais com excepcional precisão. Eles podem tornar os cérebros transparentes e semeá-los com moléculas brilhantes para desvendar sua estrutura. Eles podem registrar a atividade de um grande número de neurônios ao mesmo tempo. E essas são apenas as ferramentas que existem atualmente. Em 2013, Barack Obama lançou a iniciativa Brain Research through Advancing Innovative Neurotechnologies (BRAIN) [Pesquisas sobre o Cérebro por meio do Avanço de Neurotecnologias Inovadoras] - um plano de 115 milhões de dólares para desenvolver tecnologias ainda melhores para entender a enigmática bolha cinzenta situada dentro do nosso crânio.

John Krakauer, neurocientista do Hospital Johns Hopkins, foi convidado para reuniões da iniciativa BRAIN, e descreveu isto como se "a Malévola fosse convidada para o aniversário da Bela Adormecida". Isso porque ele e outros quatro amigos com pensamento semelhante se tornaram cada vez mais desencantados com a obsessão de seus colegas por seus brinquedos. E em um novo artigo que é parte tratado filosófico e parte um tiro de advertência [no original: a shot across the bow] eles argumentam que este fetiche tecnológico está deixando o campo neurocientífico desnorteado. "As pessoas pensam que tecnologia + megadados [Big Data] + aprendizado da máquina = ciência", afirma Krakauer, "Mas isso não é verdade".

Ele e seus rabugentos colegas argumentam que os cérebros são especiais por causa do comportamento que eles criam - que incluiem desde o ataque de um predador até o choro de um bebê.  Mas o estudo de tais comportamentos tem sido preterido ou estudado "quase como uma reflexão posterior". Em vez disso, os neurocientistas têm se concentrado em usar suas novas ferramentas para estudar neurônios individuais ou redes de neurônios. De acordo com Krakauer, a suposição não dita é que se reunirmos dados suficientes sobre as partes, o funcionamento do todo se tornará claro. Se entendermos completamente as moléculas que dançam através de uma sinapse, ou os pulsos elétricos que se aproximam ao longo de um neurônio, ou a rede de conexões formada por inúmeros neurônios, nós poderemos finalmente desvendar os mistérios da aprendizagem, da memória, da emoção e de tudo o mais. "A falácia é que mais do mesmo tipo de pesquisa irá transformar,  em um futuro infinitamente adiado, nosso conhecimento sobre porque a mãe chora ou porque eu me sinto deste jeito", diz Krakauer. E, como ele e seus colegas argumentam, isto não irá acontecer. 

Isso porque o comportamento é uma propriedade emergente - ele resulta de grandes grupos de neurônios trabalhando em conjunto, não sendo perceptível a partir do estudo de apenas um. Você pode estabelecer paralelos disto com um bando de pássaros. Biológos há muito se perguntam como eles conseguem se mover pelos céus em perfeita coordenação, como se fossem uma única entidade. Nos anos 80, cientistas da computação mostraram que isso pode acontecer se cada ave obedece determinadas regras simples, que dita a distância e o alinhamento em relação aos seus pares. Destas simples regras individuais, emerge a complexidade coletiva.

Mas você nunca teria sido capaz de prever a última a partir da primeira. Não importa o quão profundamente você tenha entendido a física das penas, você nunca poderia ter previsto a "revoada dos estorninhos" [no original: murmuration of starlings] sem primeiro vê-la acontecer. Assim acontece com o cérebro. Como o neurocientista britânico David Marr escreveu em 1982, "tentar entender a percepção entendendo neurônios é como tentar entender o voo de um pássaro estudando somente suas penas. Isto simplesmente não pode ser feito". 

Um importante estudo, publicado no ano passado, ilustrou lindamente este ponto de vista, usando jogos de vídeogame retrô. Eric Jonas e Konrad Kording examinaram, ao estilo dos neurocientistas, o microchip MOS 6502, que executava clássicos como Donkey Kong e Space Invaders. Usando abordagens comuns à ciência do cérebro, eles se perguntaram se poderiam redescobrir o que já sabiam sobre o chip - como seus transistores e portas lógicas processam informações e como executam jogos simples. E eles falharam completamente.

"O que nós extraímos foi incrivelmente superficial", Jonas me disse no ano passado. E "no mundo real, isso seria um conjunto de dados de milhões de dólares". Se o tipo de neurociência que passou a dominar o campo não pudesse explicar o funcionamento de um microchip simples e datado, como poderia esperar explicar o cérebro - supostamente o objeto mais complexo do universo?

A crítica não é pertinente neste caso, diz Rafael Yuste da Universidade de Columbia, que trabalha no desenvolvimento de novas ferramentas para o estudo do cérebro. Nós ainda não entendemos como o cérebro funciona, diz ele, "porque ainda ignoramos o meio termo entre neurônios e comportamento, que é a função dos grupos de neurônios - dos circuitos neurais". E isso é por causa das "algemas metodológicas [no original: methodological shackles] que tem impedido os pesquisadores de examinar a atividade do sistema nervoso como um todo. Isto é provavelmente tão inútil quanto assistir TV, examinando um único pixel de cada vez. Ao desenvolver melhores ferramentas que permitam ver os circuitos neurais inteiros em ação, programas como a Iniciativa BRAIN estão trabalhando contra o reducionismo e poderão nos levar mais perto de capturar as propriedades emergentes do cérebro.

Krakauer diz, no entanto, que este ponto de vista apenas substitui "neurônio" por "circuito neural" e comete o mesmo erro conceitual. "Será interessante ver as propriedades emergentes no nível do circuito, mas é uma falácia pensar que você se aproximará do organismo como um todo e que a compreensão virá automaticamente", ele diz.

Ele e seus colegas não estão descartando as tecnologias. Eles não são neuro-luditas [segundo o Dicionário Informal, "o ludismo foi um movimento contrário à mecanização do trabalho proporcionada pelo advento da Revolução Industrial. Adaptado aos dias de hoje, o termo ludita (do inglês luddite) identifica toda pessoa que se opõe à industrialização intensa ou a novas tecnologias"]. "Essas novas ferramentas são incríveis; eu as estou usando neste momento em meu laboratório", diz Asif Ghazanfar da Universidade de Princeton, que estuda a comunicação entre sagüis [no original: marmoset monkeys]. "Mas eu investi sete anos tentando entender primeiramente seu comportamento vocal. Agora eu tenho algumas ideias específicas sobre quais circuitos neurais podem estar envolvidos e eu vou projetar experimentos cuidadosos para testar estas ideias. Muitas vezes parece que as pessoas fazem o inverso: elas olham para a tecnologia e dizem: "Que perguntas posso fazer com isso?" e então se obtém esses resultados que você pode interpretar de maneiras vagas".

Este ponto é crucial. Ao contrário de outros que levantaram acusações de reducionismo contra a neurociência, Ghazanfar e seus colegas não são dualistas - eles não estão dizendo que existe uma mente separada do cérebro e que resiste à explicação. Eles estão dizendo que as explicações existem. A questão é que estamos procurando por elas de uma forma errada. Pior, estamos chegando a explicações erradas.

Considere os neurônios-espelho. Estas células, primeiramente descobertas em macacos, disparam da mesma forma quando um animal executa uma ação e quando vê outro indivíduo fazendo o mesmo. Para alguns cientistas, esses padrões de disparos compartilhados implicam em um certo entendimento: uma vez que o macaco sabe suas intenções, quando movimenta seu próprio corpo, baseado no disparo dos neurônios-espelho, ele deve ser capaz de inferir intenções semelhantes sobre quem ele assiste. E assim, esses neurônios foram compreendidos como a base da empatia, da linguagem , do autismo, do jazz e até mesmo da civilização humana - não por que acaso eles foram chamados de "o conceito mais bem-sucedido da neurociência".

Eis o problema: nos experimentos com macacos, os cientistas quase nunca verificam o comportamento dos animais para confirmar que eles realmente entenderam o que viram em seus pares. Como Krakauer e seus colegas escreveram, "Uma interpretação está sendo confundida com um resultado; isto é, que os neurônios-espelho entenderam o outro indivíduo". Como outros escreveram, existe pouca evidencia sólida para isto - ou mesmo para a existência de neurônios-espelho em humanos. Este é o tipo de armadilha lógica que você cai quando ignora o comportamento.

Em contrapartida, Krakauer aponta para seu próprio trabalho sobre a doença de Parkinson. Pessoas com esta doença tendem a se movimentar lentamente - um sintoma que tem sido relacionado à falta de dopamina. Aumente os níveis desta substância química e você pode acelerar os movimentos de uma pessoa. Isto pode levar a novos tratamentos, o que não é uma vitória insignificante. No entanto, isto não diz ao neurocientista porque ou como a perda de dopamina levou a determinado comportamento. 

Krakauer descobriu uma pista em 2007 ao pedir a pacientes com Parkinson que alcançassem objetos com velocidades variadas. Estes experimentos revelaram que eles são tão capazes de se mover rapidamente quanto pessoas saudáveis; eles estão simplesmente inconscientemente relutantes em fazê-lo. Isto sugeriu que os neurônios produtores de dopamina que conectam duas partes do cérebro - a substância negra e o estriado - determinam nossa motivação para o movimento. Diminua os níveis de dopamina e nós optamos por movimentos menos energéticos para uma determinada tarefa. Daí a lentidão. Experimentos posteriores com camundongos, nos quais técnicas modernas foram utilizadas para aumentar ou diminuir os níveis de dopamina, confirmaram essa ideia.

Existem muitos outros exemplos em que o comportamento ocorreu desta forma. Ao estudarem como as corujas escutam suas presas, os neurocientistas descobriram como seus cérebros - e posteriormente, os de mamíferos - localizam o som. Ao estudar como os sagüis chamam uns aos outros, Ghazanfar aprendeu mais sobre as regras que governam o turn-taking [expressão que pode ser traduzida por "tomada de vez" ou "tomada de palavra"] na conversação humana. Fundamentalmente, esses casos começaram estudando comportamentos que os animais fazem naturalmente, não aqueles que eles tinham sido treinados para realizar. Da mesma forma, morcegos, lesmas de mar e peixes elétricos nos ensinam muito sobre como os cérebros funcionam, porque cada um tem suas próprias habilidades especializadas. "Se você escolher uma espécie que faz um ou dois comportamentos super-bem, você pode identificar os circuitos subjacentes mais claramente", diz Ghazanfar. "Em vez disso, os ratos são tratados como se fossem mamíferos genéricos com versões menores dos cérebros humanos - e isso é um inaceitável".

"Estou entusiasmada por ver este artigo enfatizar a importância do estudo cuidadoso  do comportamento", diz Anne Churchland, que pesquisa a tomada de decisões no Cold Spring Harbor Laboratory. "Eu tenho visto na neurociência que o comportamento é muitas vezes tratado como uma reflexão posterior, sendo estudado com insuficiente compreensão da estratégia do animal". Mas ela acrescenta que tais estudos são árduos. É difícil conseguir que os animais se comportem naturalmente em um laboratório, porque talvez seja necessário recriar aspectos do seu mundo que não são óbvios para nós. 

Ghazanfar concorda. "Se o seu objetivo é entender o cérebro, você tem que entender o comportamento, e isso não é trivial. Eu acho que muitos neurocientistas pensam que é", diz ele. "Talvez uma maneira de avançar seja desenvolver ferramentas que ajudem a resolver a complexidade do comportamento", sugere Ed Boyden do MIT, que foi pioneiro em uma técnica inovadora chamada optogenética. "A investigação comportamental tem uma sólida tradição na neurociência e eu espero que ela cresça ainda mais forte". 

No momento, o problema é que está ficando cada vez mais difícil publicar esses estudos em periódicos de neurociência. Estudos comportamentais são rejeitados por "não terem 'neuro' o suficiente", diz Ghazanfar, e "é como se todo artigo precisasse ser um competição metodológica [no original: methodological decathlon] para ser considerado importante".

Marina Picciotto, da Universidade de Yale, que é editora-chefe do Journal of Neuroscience, diz que tudo se resume a como os estudos são enquadrados. Se eles estão apenas descrevendo um comportamento, eles provavelmente são mais apropriados para um jornal que, digamos, se foque na psicologia. Mas se os experimentos comportamentais explicitamente conduzem a hipóteses acerca dos circuitos cerebrais, ou algo desse tipo, eles são mais relevantes para o campo da neurociência. Mas "a linha que separa o comportamento 'puro' da neurociência é fluida", Picciotto  admite, e se coloca ao mesmo tempo como apreciadora do novo artigo e aberta a discussões sobre os assuntos que ele levanta.

Para Krakauer,  a atual forma de pensamento [na neurociência] degrada o trabalho comportamental, julgando-o valioso "contanto que nos diga onde colar os eletrodos". Mas este é importante em si mesmo. "Meu medo é que as pessoas digam: Sim, é claro, devemos continuar a fazer tudo o que temos feito, mas também realizar melhores estudos comportamentais. Eu estou tentando dizer: Você tem que estudar o comportamento primeiro. Você não pode pilotar o avião enquanto o constrói".  

É verdade que um estudo comprovou ser o TDAH um transtorno cerebral?

Nas últimas semanas, diversos sites e jornais (ver, por exemplo, aqui, aqui e aqui) noticiaram que um estudo publicado na prestigiosa revista The Lancet Psychiatry teria provado que o Transtorno do Déficit de Atenção e Hiperatividade (TDAH) seria, de fato, um transtorno cerebral e não "simplesmente" um transtorno do comportamento. Este estudo, realizado com um grande número de voluntários (mais de 3 mil pessoas de diversos países), teria mostrado que o cérebro de pessoas com TDAH seria "levemente menor" do que o de pessoas sem o transtorno, o que apontaria para a existência de "diferenças estruturais" que seriam responsáveis pelas diferenças comportamentais demonstradas pelos portadores do transtorno. A "diretora do estudo" Martine Hoogman, do Centro Médico da Universidade Radboud, na Holanda, disse, segundo o jornal O Globo, que "os resultados de nosso estudo confirmam que as pessoas com TDAH têm diferenças na estrutura cerebral, o que sugere que o TDAH é um transtorno no cérebro" - na verdade, como é possível ver nessa reportagem, Hoogman afirmou que o TDAH é um transtorno DO cérebro (disorder of the brain) e não que é um transtorno NO cérebro (esta distinção aparentemente insignificante, ignorada pelo jornal O Globo, faz toda a diferença na interpretação dos resultados). A pesquisadora disse ainda que espera que sua pesquisa "ajude a reduzir o estigma de que o TDAH é 'apenas um rótulo' para crianças com dificuldades ou que é provocado por uma educação pobre". A ideia por trás desta fala é que um transtorno só pode ser real se for cerebral; se for "somente" um transtorno "mental" ou "comportamental" ele não passaria de um "rótulo". Um transtorno só é verdadeiro se envolver e afetar o cérebro. O pesquisador Eric Racine - como já apontei anteriormente - chama de "neurorealismo" justamente esta crença de que encontrar alterações cerebrais provaria a existência ou a realidade de determinados sentimentos ou transtornos.

Mas como este estudo foi conduzido? Ainda de acordo com a imprensa, os pesquisadores teriam medido, através de aparelhos de ressonância magnética, o volume geral assim como o volume de sete regiões específicas do cérebro de todos os voluntários. E eles teriam encontrado volumes "ligeiramente menores" em determinadas áreas subcorticais  (isto é, abaixo do córtex), como a amígdala e o hipocampo, assim como no volume geral do cérebro de portadores de TDAH em comparação com os não portadores. Mas analisemos diretamente o artigo original - cujo resumo pode ser acessado através deste link (já o artigo completo teoricamente está disponível apenas mediante pagamento, mas eu o encontrei gratuitamente aqui). Pois bem, o artigo - denominado, em uma tradução amadora minha, Diferenças no volume cerebral subcortical em participantes com transtorno do déficit de atenção e hiperatividade em crianças e adultos: uma mega-análise transversal - foi assinado por 82 autores de nove países (sendo dois brasileiros: Paulo Mattos e Fernanda Tovar-Moll) e pretendeu expor os resultados de uma pesquisa cujo objetivo foi "investigar se existem diferenças estruturais em crianças e adultos com TDAH em comparação com aqueles sem esse diagnóstico". Esta pesquisa internacional, desenvolvida no âmbito do grupo de trabalho ENIGMA TDAH (no original ENIGMA ADHD), avaliou através de equipamentos de Ressonância Magnética (MRi) o volume intracranial total, assim como os volumes de sete áreas dos cérebros dos voluntários: núcleo accumbens, amigdala, núcleo caudado, hipocampo, putâmen, globo pálido e tálamo. A amostra, bastante significativa, consistiu de 3242 pessoas com idades entre 4 e 63 anos (média de 14), sendo 1713 diagnosticadas com TDAH (grupo experimental) e 1529 sem o diagnóstico (grupo controle).

Pois bem, o que os pesquisadores encontraram? De acordo com o artigo, o grupo experimental apresentou em média um volume intracraniano menor, assim como volumes menores em cinco das sete áreas analisadas: núcleo accumbens, amigdala, núcleo caudado, hipocampo e putâmen - já no globo pálido e no tálamo não foram encontradas diferenças significativas entre o grupo experimental e o grupo controle. Cabe apontar que estudos anteriores já haviam constatado uma redução dos volumes do núcleo caudado e do putâmen, mas este é o primeiro estudo a apontar também para pequenas reduções do núcleo accumbens, da amigdala e do hipocampo (áreas relacionadas, respectivamente, ao controle dos impulsos, à regulação das emoções e à memória, dentre outras funções). Uma análise específica da fase de vida dos voluntários indicou que as crianças com TDAH (menores de 15 anos), quando comparadas com aquelas sem o transtorno, possuiam menores volumes no núcleo accumbens, na amígdala, no núcleo caudado, no hipocampo, no putâmen e também no volume intracraniano - o que poderia apontar, segundo os autores, para um atraso na maturação cerebral devido ao TDAH. Já o volume do globo pálido e do tálamo não diferiu entre crianças com e sem o diagnóstico de TDAH. Entre os adolescentes (15 a 20 anos) foi encontrada uma redução apenas no hipocampo. Finalmente, dentre os  adultos com e sem o diagnóstico de TDAH (maiores de 21 anos) não foi observada qualquer diferença significativa no volume das áreas específicas assim como no volume intracraniano total - tal efeito foi observado, repito, apenas nas crianças e, em pequena medida, nos adolescentes. Outro achado interessante foi que ao compararem os volumes daqueles que usam medicação psicoestimulante (como a Ritalina) com aqueles que não usam - e também com aqueles que nunca usaram - os pesquisadores não encontraram diferenças, o que sugere que as diferenças observadas entre as pessoas com TDAH e aquelas sem TDAH estão relacionadas ao transtorno em si, e não a um possível efeito do tratamento. Isto significa também que os remédios, ainda que possam contribuir para a redução de certos sintomas comportamentais, não teriam o poder de alterar a estrutura cerebral de seus usuários.

Na discussão dos resultados, os autores apontam para "inúmeras mensagens importantes" de seus achados para os profissionais que atuam na clínica, sendo a primeira e mais importante delas a confirmação de que os pacientes com TDAH "possuem cérebros alterados" o que significaria, em última instância, que "o TDAH é um transtorno do cérebro". Vejam bem que os autores se utilizam originalmente da expressão disorder of the brain, que literalmente significa "desordem do cérebro" mas que convencionalmente traduzimos por "transtorno do cérebro". Mas o que significa dizer que o TDAH é um transtorno do cérebro? E o que há (ou haveria) de novidade nesta afirmação? Sob uma certa perspectiva é um tanto óbvio dizer que o TDAH, a depressão ou a esquizofrenia são transtornos do cérebro. Tendo em vista que a mente depende da existência e do funcionamento do cérebro (mais do que, por exemplo, do fígado ou do pâncreas) e que todos os comportamentos e pensamentos humanos, inclusive aqueles associados a certos transtornos, afetam a estrutura e/ou o funcionamento cerebrais, isto significaria então que todos os transtornos mentais são, efetivamente, transtornos cerebrais. Isto significaria também que não há nada de novo ou surpreendente na afirmação de que o TDAH é um transtorno do cérebro. Muitos pesquisadores, inclusive, defendem o fim da separação entre a psiquiatria, dedicada aos transtornos "mentais", e a neurologia, voltada para as doenças "cerebrais" ou "neurológicas". Se tanto os transtornos mentais quanto as chamadas doenças neurológicas implicam em alterações estruturais e/ou funcionais no cérebro, então não faria sentido distinguir as duas áreas. Daí a proposição feita por alguns pesquisadores de fundir psiquiatria e neurologia em uma nova área, denominada por alguns de neuropsiquiatria e por outros de neurociência clínica. 

Mas será realmente correto colocar o TDAH, o TOC e a depressão, por exemplo - que atualmente são considerados "transtornos mentais" - no mesmo pacote que doenças como o Alzheimer e o Parkinson? Não existiriam diferenças entre tais condições? Se sim, quais seriam as diferenças? Embora não hajam respostas conclusivas, muitas reflexões e estudos tem sido feitos sobre tais questões. Em primeiro lugar, cabe ressaltar que o Código Internacional de Doenças em vigor (o CID-10) separa claramente os "transtornos mentais e comportamentais" (capítulo 5), foco da psiquiatria, das "Doenças do sistema nervoso" (capítulo 6), foco da neurologia. Esta separação evidencia por sua vez outra importante distinção entre "doenças" e "transtornos". A diferença é que enquanto as doenças estariam associadas a certas alterações estruturais no corpo (e no cérebro) humano, os transtornos estariam relacionados a alterações no funcionamento, mas não na estrutura, do corpo, assim como à mudanças no comportamento e na relação do sujeito com o mundo. Esta diferença remete, de certa forma, às reflexões feitas na década de 1970 pelo (anti)psiquiatra Thomas Szasz, autor da clássica obra O mito da doença mental, segundo o qual as chamadas "doenças mentais" seriam mitos porque não possuiriam bases biológicas concretas - ao contrário de doenças "verdadeiras" como a diabetes e a tuberculose, por exemplo. Muito embora sua perspectiva não tenha prevalecido no campo psiquiátrico, suas reflexões contribuíram para o fortalecimento da distinção entre "transtornos mentais" e "doenças cerebrais". 

Em um importante estudo publicado em 2015 no periódico The British Journal of Psychiatry, Nicolas Crossley e colegas realizaram uma meta-análise de pesquisas de neuroimagem para investigar se existiriam diferenças cerebrais entre os "transtornos neurológicos" e os "transtornos psiquiátricos". Para tanto, eles analisaram estudos de neuroimagem relativos a 24 transtornos (14 neurológicos e 10 psiquiátricos, segundo a categorização do CID-10), sendo 7 por transtorno, totalizando 168 estudos. E o que eles encontraram, de uma forma geral, foi que os transtornos neurológicos estão relacionados, em média, com um número maior de regiões do cérebro do que os transtornos psiquiátricos. Além disso, os pesquisadores observaram que cada categoria de transtorno mobiliza diferentes áreas e circuitos cerebrais, o que confirma, segundo eles, a existência das duas categorias de transtornos. Como eles apontam no último parágrafo do artigo, os resultados deste estudo sugerem que "os transtornos neurológicos e os transtornos psiquiátricos constituem duas categorias distintas de transtorno, segundo a perspectiva da neuroimagem". Esta conclusão vai frontalmente contra a perspectiva que eu apresentei acima, que visa fundir psiquiatria e neurologia. De acordo com este estudo, embora tanto os transtornos neurológicos quanto os transtornos psiquiátricos afetem o cérebro, eles o fazem de maneiras diferentes, o que significa dizer que são (ou seriam) transtornos distintos. 

Mas voltemos ao estudo sobre o TDAH, que motivou este post. É possível dizer que ele comprova (ou, pelo menos confirma) ser o TDAH um transtorno cerebral? Em certa medida sim, pois o estudo aponta para algumas diferenças estruturais - e não somente funcionais - entre pessoas (especialmente crianças e adolescentes) diagnosticadas com TDAH e aquelas sem o diagnóstico. Por outro lado, o TDAH não afeta somente o cérebro, mas, efetivamente, a pessoa como um todo. A hiperatividade e a desatenção características do transtorno se manifestam não somente no cérebro mas também na mente (ou seja, na forma, como o sujeito percebe o mundo e a si mesmo) e no comportamento. Neste sentido, se o TDAH pode ser encarado como um transtorno cerebral ele também pode ser visto como um transtorno mental ou comportamental - tudo depende do seu foco específico da análise (se cerebral, mental ou comportamental). De toda forma, seria possível dizer que este estudo coloca um ponto final em toda a controvérsia relativa ao diagnóstico de TDAH (que eu já retratei em outros posts, por exemplo aqui, aqui e aqui)? De forma alguma! Isto porque um grande problema permanece: o diagnóstico. O que os pesquisadores encontraram foi que, em média, as pessoas diagnosticadas com TDAH possuem determinadas áreas do cérebro, assim como o cérebro como um todo, levemente reduzidos quando comparadas com pessoas sem o diagnóstico. Mas o diagnóstico foi feito previamente à realização dos exames de neuroimagem - e foi feito através de exames clínicos realizados por psiquiatras, que levaram em conta não a estrutura cerebral, mas os comportamentos, pensamentos e sentimentos das pessoas como um todo. E esta forma de exame dificilmente será substituída a curto prazo por um exame cerebral, como desejam muitos psiquiatras. Isto porque o que os pesquisadores encontraram foi uma redução média de determinadas regiões do cérebro - que não ocorreram necessariamente em todas as pessoas, mas na média de toda a população pesquisada. Isto significa que tentar diagnosticar as pessoas apenas observando e medindo seus cérebros ainda não é possível - e dificilmente o será no futuro, em função de uma significativa e persistente variação entre as pessoas (tanto cerebral quanto mental e comportamental).

Finalmente, o estudo não diz nada sobre as causas do TDAH - ou, de forma mais ampla, sobre as causas dos comportamentos hiperativos e desatentos. Ele apenas aponta para certas alterações cerebrais (ou correlatos neurais) e nada mais. Como bem afirmou Marcel Wortel, colaborador da pesquisa, "só encontramos as diferenças, não as causas destas diferenças ou os efeitos de um tratamento". Isto significa que embora seja correto dizer que o TDAH - assim como qualquer outro transtorno ou comportamento humano - possui uma base cerebral/biológica, não é correto dizer que o TDAH é um um transtorno biológico. Isto porque, para sê-lo, é necessário que se prove que sua causa é biológica - e isto não está de forma alguma provado. A origem dos comportamentos hiperativos e desatentos - que sob determinada ótica, podem ser vistos como sendo sintomas de um transtorno psiquiátrico - não está clara. Psiquiatras biológicos tendem a afirmar que a causa é genética e que a pessoa já nasce com TDAH. Outros pesquisadores apontam para possíveis causas ou influências psicológicas, familiares e mesmo sociais. Eu tendo a apostar numa explicação multicausal. Não consigo crer que apenas a biologia ou apenas a psicologia ou apenas a sociologia possam, sozinhas, dar conta de entender e explicar os comportamentos e problemas ou "transtornos" humanos. No caso específico do TDAH, penso - como já disse anteriormente - que se trata de um diagnóstico que se tornou real a partir do momento em que foi inventado. Não nego sua existência da mesma forma como não nego a existência do computador no qual escrevo este texto, que também é uma invenção. Da mesma forma, não questiono a existência de comportamentos hiperativos e desatentos. De fato, existem pessoas mais hiperativas e desatentas que outras. O que eu questiono, de fato, é a tentativa de colocar somente na conta da biologia - e mais especificamente, das neurociências -, a explicação para tais comportamentos. Ainda que o cérebro e o sistema nervoso como um todo tenham um papel neste grande teatro da vida, existem outros atores em cena, como a mente, o comportamento e a sociedade. Entender o TDAH ou qualquer outro transtorno ou comportamento humano como meramente cerebrais é se esquecer que o ser humano é mais do que apenas uma de suas partes.

Observação 1: uma questão que acabei esquecendo de comentar sobre o artigo é a enorme lista de conflito de interesses presente no final da publicação. Uma boa parte dos autores do artigo ou tem ou teve relação direta com a indústria farmacêutica. Só a título de exemplo, dêem uma olhada na declaração de interesse de um famoso pesquisador brasileiro, autor de inúmeros livros e artigos sobre o TDAH: "PM foi palestrante e atuou como consultor para a Janssen-Cilag, Novartis e Shire nos últimos 5 anos; também recebeu destas companhias subvenções para viagens para participar de encontros científicos. Seu programa ambulatorial de TDAH (Grupo de Estudos do Déficit de Atenção/Instituto de Psiquiatria), liderado por PM, também recebeu $uporte para pesquisa da Novartis e da Shire". Não por acaso, tais companhias produzem os remédios utilizados no tratamento do TDAH. Curioso isso, não?

Observação 2: algumas pessoas, especialmente aquelas diagnosticadas com TDAH e seus parentes, se enfurecem quando eu digo que o TDAH é uma invenção. Vejam bem, quando eu digo isto, eu quero dizer que o diagnóstico é uma invenção, não que os comportamentos desatentos e hiperativos são invenções das pessoas. De fato, o diagnóstico de TDAH passou a existir a partir de certo momento; anteriormente, existiam outros nomes para se referir aos comportamentos exageradamente hiperativos e desatentos (encefalite  letárgica,  dano  cerebral  mínimo,  disfunção  cerebral  mínima, hipercinesia, etc); mais anteriormente ainda, não existia qualquer diagnóstico psiquiátrico relativo a tais comportamentos. Em certo momento - e eu diria especificamente, a partir do DSM-III, publicado em 1980 - a expressão Transtorno do Déficit de Atenção (com ou sem hiperatividade) passou a existir, o que significa que a partir deste momento histórico determinados comportamentos passaram a ser enxergados sob a ótica da patologia. É claro que previamente à existência do diagnóstico existiam pessoas com comportamentos desatentos e hiperativos, no entanto tais compotamentos não eram vistos como sendo sintomas de um transtorno mental. Em suma, quando eu me refiro à invenção do TDAH eu me refiro à invenção de uma categoria diagnóstica, não à invenção de determinados comportamentos. Algumas pessoas de fato sofrem devido à desatenção e à hiperatividade e em nenhum momento eu pretendi negar esta realidade. Que isto fique claro.