Sobre as “hipóteses irrealistas” na economia

Quem estuda economia, certamente, já ouviu falar da suposta ausência de cientificidade que há dentro desse campo. Ouviu que os modelos são altamente simplificadores e que as hipóteses das quais partem são irrealistas e/ou claramente falsas. Nesse texto, baseando-nos no paper Sugden (2000), visamos responder a algumas dessas críticas.

Para adentrarmos nas críticas, devemos fazer uma breve revisão do problema da demarcação na filosofia da ciência. Obviamente, por restrição de espaço, teremos que ser superficiais. Para uma análise um pouco mais profunda, recomenda-se Godfrey-Smith (2003) e, como complemento, Pigliucci e Boudry (2013).

Breve introdução à filosofia da ciência – O problema da demarcação

O problema da demarcação das fronteiras entre ciência e não-ciência, embora introduzido formalmente na obra de Popper (2004 [1934]), permeia a tradição ocidental há milênios. Diz Laudan (1983): “Já na época de Parmênides, os filósofos ocidentais achavam importante distinguir o conhecimento (episteme) da mera opinião (doxa), a realidade da aparência, a verdade do erro. Na época de Aristóteles, essas preocupações epistêmicas passaram a ser focadas na questão da natureza do conhecimento científico.”

Aristóteles fez uma dupla demarcação de ciência: sob um primeiro enfoque, a ciência se diferenciava das outras formas de conhecimento por gerar proposições infalíveis e incorrigíveis. Num segundo sentido, a ciência tem como premissa a busca pelas causas primeiras dos fenômenos a partir de princípios. E assim foi vista a ciência por toda a Idade Média e Renascença.

Em torno do século XVII, houve uma mudança. O primeiro critério de demarcação aristotélica continuava aceito, mas, sobretudo, em razão da revolução científica, o segundo foi abandonado. A ciência passou a ser como uma técnica de experimentação post hoc derivada de hipóteses. Os resultados, no entanto, depois que comparados à predição inicial dos modelos, produziam um suposto conhecimento apodítico.

No século XIX, novamente, a demarcação parecia mudar com a introdução do pensamento falibilista na epistemologia. Dentro da ciência, desde então, foi introduzida a ideia de que o conhecimento é falível. Com maior proximidade do que se supõe correto, mas passível a erros. A esse respeito, Pigliucci (2013) é valioso. Diz Laudan (1983): “Pensadores tão diversos como Comte, Bain, Jevons, Helmholtz e Mach (para citar apenas alguns) começaram a insistir que o que realmente diferencia a ciência de todo o resto é sua metodologia. Havia, eles sustentavam, algo chamado “método científico“; mesmo que esse método não fosse infalível (a aceitação do falibilismo exigia essa concessão), era pelo menos uma técnica melhor para testar afirmações empíricas do que qualquer outra.”

Agora, o problema da demarcação é o de explicar o que seria esse tal método científico e estabelecer as suas credenciais epistêmicas. Mas os pensadores do século XIX não conseguiram entregar essas respostas. Alguns enfatizavam que o diferencial da ciência está no uso do método indutivo; outros sustentavam que era o foco em objetos observáveis. Para tornar a questão ainda mais complicada, os filósofos da ciência da época atribuíam ao método científico uma definição absolutamente deslocada do que os cientistas realmente estavam fazendo.

Com a virada do século XIX para o XX, surge uma nova tradição de demarcação que formaliza o problema. Essa nova tradição tem seu começo em 1900. Nesse período que sucedeu o fracasso dos filósofos do século XIX em sua procura por uma lista exaustiva dos princípios metodológicos que diferenciavam o conhecimento científico, os pensadores que constituíram o grupo chamado “Círculo de Viena” renovaram o debate ao buscar um componente sintático e/ou lógico para a solução do problema.

Os positivistas lógicos do grupo defendiam a demarcação da ciência pela via da teoria de significado. A tese era a de que o significado de uma frase consiste em seu método de verificação, sendo essa verificação por meio de observação. Uma verificação que se aplicava em princípio e não na prática.

O problema da teoria positivista lógica residia tanto em sua inobservância a sentenças científicas que dizem respeito a leis da natureza quanto na indevida atenção a pseudociências – entre as quais, a suposta teoria “terraplanista”. O critério de demarcação científica foi duramente criticado por Karl Popper, que introduziu um novo em seu lugar.

O falsificacionismo, como ficou conhecido o critério, aparece não apenas em seu trabalho “A lógica da pesquisa científica” (2004 [1934]), como foi estendido ao livro “Conjecturas e Refutações” (1963). Segundo Godfrey-Smith (2003): “O falsificacionismo afirma que uma hipótese é científica se e somente se ela tiver o potencial de ser refutada por alguma observação possível. Para ser científica, uma hipótese tem que assumir um risco, tem que “arriscar o pescoço para fora”. Se uma teoria não corre nenhum risco, porque é compatível com todas as observações possíveis, então não é científica.”

O problema do falsificacionismo, segundo Laudan (1983), é que “além do fato de que deixa ambíguo o status científico de praticamente todas as afirmações existenciais singulares, por mais bem apoiadas (por exemplo, a afirmação de que existem átomos, de que existe um planeta mais próximo do Sol do que a Terra, de que existe um elo perdido), tem a consequência desfavorável de considerar “científica” toda alegação excêntrica que faz afirmações comprovadamente falsas.”

Outro problema da posição popperiana é a tese de Duhem-Quine, segundo a qual toda teoria científica é subdeterminada pelas evidências. É impossível, de acordo com Quine (1951), avaliar uma proposição científica isolada. As proposições são, em sua visão, inexoravelmente carregadas de hipóteses auxiliares. Logo, uma eventual refutação de certa hipótese feita por certo experimento pode tanto refutar essa hipótese quanto outras que a auxiliam. É um processo que pode acontecer ad infinitum.

Outro golpe ao sistema popperiano e positivista é desferido pelo filósofo e físico Thomas Kuhn em seu livro “A estrutura das revoluções científicas” (1962), no qual, baseado na história da ciência, mostra que a visão de experimentos cruciais é falha. Segundo Kuhn, a ciência nunca abandona suas teorias quando é apresentada a evidências que as refutam. O fio condutor da ciência opera por meio de paradigmas que, segundo Godfrey Smith (2003), “é toda uma maneira de fazer ciência, em algum campo particular. É um pacote de afirmações sobre o mundo, métodos de coleta e análise de dados e hábitos de pensamento e ação científica.”

A ciência caminha sob esses paradigmas até que as anomalias, entendidas aqui como as instâncias que refutam a teoria, se aglomeram a tal ponto que ocorre uma crise na, até então, prática normal da ciência para uma revolução na qual o paradigma é alterado. Nesse esquema, não existe uma clara linha demarcada entre a ciência e a “não ciência” ou entre a ciência e a pseudociência – apenas temos a capacidade de resolver problemas como um guia norteador para a diferenciação. Mas mesmo assim, segundo Kuhn, as teorias científicas podem ser julgadas pelos seguintes critérios (Ladyman 2013):

1. Precisão: adequação empírica com experimentação e observação;
2. Consistência com outras teorias, tanto interna quanto externamente;
3. Escopo: amplas implicações para fenômenos além daqueles a que a teoria era inicialmente projetada para explicar;
4. Simplicidade: a explicação mais simples deve ser preferida;
5. Fecundidade: novos fenômenos ou novas relações entre fenômenos devem resultar da teoria.

Em meio ao golpe kuhniano, o falsificacionismo é, mais uma vez, revigorado numa versão mais sofisticada feita por Imre Lakatos, em “The Methodology of Scientific Research Programmes” (1987). Lakatos unifica a visão kuhniana com a demarcação popperiana, defendendo que a ciência opera com programas de pesquisa, isto é, um conjunto de teorias interconectadas constituído de um núcleo duro infalseável. Paralelamente, temos um cinto protetor de hipóteses auxiliares, constituído de uma heurística negativa e positiva. Sendo que a negativa proíbe que, dada uma anomalia, seja feita alguma alteração, enquanto a positiva orienta as modificações, dadas as anomalias.

Para Lakatos, a demarcação da ciência é feita através de novas e arriscadas predições. O falsificacionismo é estendido para todo o programa de pesquisa, que, diferentemente da visão kuhniana, não são monolíticos, mas são vários e simultâneos, e competem entre si. É a progressividade desses que demarca a ciência, segundo Lakatos. Uma variante do critério de progressividade é feita por Paul Thagard (1978), na qual diz que:

“Uma teoria ou disciplina que pretende ser científica é pseudocientífica se e somente se:

1) Tem sido menos progressiva do que as teorias alternativas por um longo período de tempo e enfrenta muitos problemas não resolvidos; mas
2) A comunidade de praticantes faz poucas tentativas de desenvolver a teoria em direção à solução dos problemas, não se preocupa com as tentativas de avaliar a teoria em relação aos outros e é seletiva ao considerar confirmações e desconfirmações.

Progressividade é uma questão de sucesso da teoria em somar ao seu conjunto de fatos explicados e problemas resolvidos”.

Dentro do mundo pós-kuhniano uma figura particularmente notável foi Paul Feyerabend, que defende no seu livro “Against Method” (1975) o anarquismo epistemológico, que diz, basicamente, que na ciência tudo vale. Feyerabend, a partir de uma minuciosa análise histórica, aponta que os grandes cientistas quebraram todas as regras metodológicas e restrições que os filósofos teriam lhes impostos. Portanto, ficamos com o resultado de que não há uma demarcação clara, pois não há propriamente um conjunto de regras metodológicas a serem obedecidas. A demarcação da ciência não seria mais importante que uma mera questão sociológica.

Ao ver o estado do debate da demarcação até o final dos anos 70, o filósofo Larry Laudan, em 1983, no seu seminal artigo “The Demise of the Demarcation Problem”, anuncia a morte do problema. Segundo Laudan, toda proposta de demarcação tem de ser enfrentada com três questões metafilosóficas: “(1) Que condições de adequação um critério de demarcação proposto deve satisfazer? (2) O critério em consideração oferece condições necessárias ou suficientes, ou ambas, para o status científico? (3) Que ações ou julgamentos estão implícitos na alegação de que uma certa crença ou atividade é ‘científica’ ou ‘não científica’?

Para Laudan a resposta é simples: a demarcação deve seguir as intuições que temos do que é ciência e o que é pseudociência. Em paralelo, devemos procurar as condições necessárias e suficientes para determinar a demarcação com precisão. Laudan avalia que a demarcação, muitas vezes, tem servido a interesses ideológicos. Com isso em mente, o filósofo mostra no paper como as propostas verificacionistas e falsificacionistas têm falhado em dar uma definição que satisfaça as questões impostas. Condições meramente necessárias ou meramente suficientes são limitadas e/ou insuficientes para a resolução do problema.

Ao se deparar com o estado do problema, a situação parecia claramente insolúvel. Por isso, Laudan anuncia que todas as tentativas até então fracassaram e continuariam a fracassar pela complexidade do problema. Logo, a demarcação seria meramente um pseudoproblema filosófico. Diz Laudan: “A evidente heterogeneidade epistêmica das atividades e crenças normalmente tidas como científicas deveria nos alertar para a provável futilidade de buscar uma versão epistêmica de um critério de demarcação.

Seguindo Laudan, dado o estado do problema da demarcação, Deirdre McCloskey (1985, 1994) defende que não existem standards metodológicos não-triviais nas ciências econômicas, sendo os únicos critérios relevantes para a prática da disciplina aqueles aceitos pelos praticantes. Os economistas não seguiram a metodologia prescrita pelos positivistas lógicos ou por Popper, nem mesmo a versão mais sofisticada de Lakatos. Dado isso, os economistas deveriam investigar sua própria retórica (McCloskey, 1983).

Porém, segundo Pigliucci (2013), o anúncio da morte do problema da demarcação foi prematuro. De fato o problema é complexo, mas de forma alguma isso o torna intratável. O problema em Laudan reside no fato de que a busca pelas condições necessárias e suficientes é uma direção errada, pois existem termos que simplesmente não dá para definir com essas condições. A esses termos dá-se o nome de cluster. Para entender esses termos, usamos o conceito wittgensteiniano de semelhança de família (Wittgenstein, 1953) em que se aprende um termo por meio de exemplos. Segue a imagem ilustrativa.

As mais extremas à direita e para cima são as áreas consagradas científicas ou hard sciences. Quanto mais à esquerda e para baixo, mais soft é a ciência, tendo no extremo da esquerda os casos de pseudociência. Então perceba que o problema da demarcação não é nada trivial, é um problema sério.

Para demarcar ciência e pseudociência é preciso entender que essas categorias possuem graus distintos, mas ainda é possível defini-los, e para isso precisamos ir num degrau mais alto de generalidade epistêmica. Segundo Hansson (2013): “ciência (no sentido amplo) é a prática que nos fornece as declarações mais confiáveis ​​(ou seja, epistemicamente mais garantidas) que podem ser feitas, no momento, sobre o assunto coberto pela comunidade de disciplinas do conhecimento (ou seja, sobre a natureza, nós mesmos como seres humanos, nossas sociedades, nossas construções físicas e nossas construções de pensamento)”. Ou seja, como dito, a demarcação propriamente vem em graus e está sujeita a mudanças históricas. Para ter noção do que faz a ciência “ciência” é preciso uma visão mais panorâmica.

Hansson também define pseudociência baseado em três critérios:

Uma declaração é pseudocientífica se e somente se satisfizer os três critérios a seguir:

1. Diz respeito a uma questão dentro dos domínios da ciência em sentido amplo (o critério do domínio científico);
2. Sofre de uma falta de confiabilidade tão grave que não pode ser confiável (o critério de não confiabilidade);
3. É parte de uma doutrina cujos principais proponentes tentam criar a impressão de que representa o conhecimento mais confiável sobre seu assunto (o critério da doutrina desviante).”

Tendo em vista o problema da demarcação e tudo que se progrediu até aqui, como a ciência econômica responde a essas questões? Ciência econômica pode ser uma ciência, uma vez que gera proposições confiáveis.

Desde a sua revolução formalista (Blaug, 2003), a economia tem desenvolvido e expandido enormemente seu entendimento teórico, e desde a revolução da credibilidade (Angrist e Pischke, 2010) o conhecimento empírico expandiu enormemente com uso de sofisticadas técnicas econométricas, que nos permitem descobrir relações causais entre variáveis. A economia tem se tornado cada vez mais empírica e cada vez mais uma ciência mais madura, mas antes de mais nada é uma ciência.

Metodologia e modelos. Ou: sobre hipóteses irrealistas

Tendo visto o problema da demarcação e o porquê do termo “ciência” no nome da disciplina ciências econômicas, é preciso entender seu modus operandi. A economia trabalha através de modelos. Embutidos neles há uma formalidade matemática, cujo propósito, num nível mais básico, segundo Simon e Blume (1994), “fornece o fundamento para proposições empíricas sobre variáveis econômicas”. Porém, mais do que isso: “um modelo matemático força o economista a definir os termos precisamente. O economista deve enunciar claramente as suposições subjacentes antes de iniciar uma longa cadeia de raciocínio. A natureza exata da abstração com a qual o economista está trabalhando fica clara, logo de saída, não só na mente dele mas na mente de cada pessoa que está lendo o trabalho. Consequentemente, o debate sobre a relevância do modelo para o mundo real é bastante enfocado. Pode até ser possível traduzir o modelo teórico em fórmulas e estatística, de modo que sua validade possa ser testada com dados do mundo real”.

O modelo torna mais claro o que está sendo proposto na teoria. Assim, ele não só organiza as ideias e fatos como permite a exploração de novas ideias e insights a partir de derivações do modelo. Os modelos ajudam a entender os limites da aplicabilidade de um conjunto de ideias. Sendo assim, modelos constituem ferramenta indispensável que caracterizam o mainstream da profissão econômica.

As controvérsias metodológicas surgem não do uso da modelagem, mas geralmente dos pressupostos subjacentes. Todavia, é necessário entender que todo modelo é uma simplificação da realidade, como diz George Box (1979): “todos os modelos estão errados, mas alguns são úteis“. De cara, com a complexidade do mundo, é parte da praxe científica empregar métodos que modificam ou distorcem a realidade, dessa forma gerando hipóteses irrealistas, para assim tornar o problema tratável cognitivamente.

Como diz Mäki (1992): “A controvérsia metodológica mais crônica em curso na economia está preocupada com a questão de saber se esta ou aquela teoria, modelos ou “suposições” são justificadamente “realistas” ou “irrealistas” – se e para qual propósito é legítimo supor que as empresas maximizam os lucros e os consumidores maximizam a utilidade, que os retornos são decrescentes e que a curva de demanda do mercado enfrentada pelas empresas é horizontal, que as expectativas dos agentes são racionais e as preferências são dadas, ou que os bens são homogêneos e perfeitamente divisíveis, para dar alguns exemplos paradigmáticos”.

O célebre artigo Friedman (1953) argumenta que não importa o realismo das hipóteses. Nunca podemos testar uma teoria pelo seu realismo. O que de fato importa é o poder preditivo da teoria; se ela é capaz de gerar resultados acurados. Diz Friedman: “Descobrir-se-á que hipóteses verdadeiramente importantes e significativas têm “suposições” que são representações descritivas extremamente imprecisas da realidade e, em geral, quanto mais significativa a teoria, mais irrealistas são as suposições (neste sentido). A razão é simples. Uma hipótese é importante se “explica” pouco a pouco, isto é, se abstrai os elementos comuns e cruciais da massa de circunstâncias complexas e detalhadas que cercam os fenômenos a serem explicados e permite previsões válidas com base apenas neles. Para ser importante, portanto, uma hipótese deve ser descritivamente falsa em seus pressupostos.

O problema da explicação friedmaniana, ou do que veio a ser conhecido como a F-Twist (ou, a virada F, em tradução livre), é sua falta de clareza com o conceito de hipóteses. Para entender o erro de Friedman é preciso conhecer o arcabouço teórico de Musgrave (1981). O que Friedman tem em mente quando trata de hipóteses é o que Musgrave chama de hipóteses negligenciáveis. Em resumo, são aquelas que são irrelevantes para explicar o fenômeno. Por exemplo, a presença de governo no modelo clássico ricardiano é negligenciável, portanto, para termos de modelagem, podemos modelar como se não houvesse governo. Ou seja, o verdadeiro teste da teoria são suas consequências. Até aí, tudo bem para Friedman. O problema é que é um erro considerar que tais hipóteses têm que ser descritivamente falsas, uma vez que elas não assumem que os fatores são ausentes (como o governo no modelo ricardiano) mas que são negligenciáveis.

Mas hipóteses negligenciáveis não são os únicos tipos de hipóteses. Existem as hipóteses de domínio, que ocorrem quando, por exemplo, uma teoria só funciona na ausência de fator especificado. Portanto, se valorizamos a predição, temos que esperar que as hipóteses de domínio precisamente não sejam falsas! Também existem as hipóteses heurísticas, que fazem referência àquelas que, após assumir determinado fator como negligenciável, testam os resultados da sua negligência.

É normal que haja hipóteses irrealistas e simplificadoras para alguns modelos. No entanto, assim como eles podem servir de um artifício heurístico para serem relaxados posteriormente, podem servir de ponto de partida. Mesmo assim, hipóteses irrealistas, isto é, modelos com uma hipótese falsa, podem ter ainda algum valor. Mas para isso é necessário entender como funciona a modelagem na economia.

Para alguns teóricos os modelos são vistos como um jogo que pouco diz sobre o mundo real. Por isso, deixa de ser relevante se as hipóteses são irrealistas, uma vez que o seu propósito deixa de ser a teorização empírica e se torna o de exploração conceitual. Segundo Hausman (1992), a maioria dos modelos na economia seria desse tipo, que seria valioso por permitir encontrar formulações mais simples de teorias existentes, derivar teoremas para achar inconsistências.

Se pegarmos como exemplo o modelo de carros usados de Akerlof (1970) do seu seminal paper “Market for Lemons” e o modelo da cidade de tabuleiro de damas de Schelling (1978), que são claros exemplos de modelos abstratos, irrealistas e que não levam a nenhuma predição testável, e tentarmos considerar como uma exploração conceitual, ficaremos confusos com o fato de dedicarem tanto de seus artigos a assuntos pertinentes ao mundo real. Isso pode ser visto como um empirismo casual, isto é, exemplos que são sugestivos, mas não podem ser considerados qualquer tipo de teste de hipótese. Somos oferecidos explicações potenciais de fenômenos do mundo real, portanto somos encorajados a levar essas explicações a sério.

Podemos então ser instrumentalistas, isto é, fazer o salto friedmaniano e assumir que as hipóteses têm a função de representar as predições da teoria. Nessa posição, perguntar sobre o realismo das hipóteses constituiria um erro, pois deixa de entender a real função das hipóteses. Mas se esse é o caso, como explicar os já citados modelos do Akerlof e Schelling, que não apresentam nenhuma hipótese testável sobre o mundo? Os autores parecem estar falando de causas e efeitos reais. Mesmo sobre uma modelagem irrealista, estão falando de tendências que julgam ser reais.

Mas além da predição, modelos dão ênfase à explicação dos fenômenos no mundo. É essa a ideia que norteia Varian e Gibbard (1978). Os autores vão dividir os modelos em ideais, que são preocupados com uma descrição de um cenário ideal, e descritivos, que são preocupados com a tentativa de descrever a realidade econômica. Dentro dos modelos descritivos temos as aproximações, que buscam descrever a realidade de uma maneira aproximada.

Para Sugden (2000), a modelagem, segundo essa leitura, é “a conjunção de dois elementos: um sistema formal não interpretado dentro de deduções lógicas pode ser de uma “história” que dá algum tipo de interpretação desse sistema formal”. A sugestão aqui é que o propósito do modelo é comunicar uma ideia, cuja simplicidade é uma virtude. Mas isso é um problema, segue Sugden, pois “o que deve ser comunicado não é apenas uma ideia: é uma afirmação sobre como as coisas realmente são, junto com razões para aceitar essa afirmação como verdadeira. A simplicidade na comunicação tem um ponto apenas se houver algo a ser comunicado”.

Os modelos de Akerlof e Schelling estão preocupados em descrever tendências no mundo real. Segundo esse entendimento, para explicar uma tendência, é preciso isolar um conjunto de fatores para explicar certos fenômenos. Segundo Mäki (1992), é exatamente assim que operam os modelos em economia, e é assim que chegamos a generalizações. Ou seja, economia seria uma ciência dedutiva inexata.

Mäki argumenta que as hipóteses teóricas de um modelo devem ser lidas como afirmações sobre o que é verdade no mundo real. Para o autor, a economia usa o método do isolamento, no qual um conjunto de elementos é teoricamente isolado da influência de outros elementos. Diz Sugden: “por conta disso [do processo de isolamento], uma teoria representa apenas alguns dos fatores que atuam no mundo real; a influência potencial de outros fatores é “selada” (p. 321). Esse isolamento torna uma teoria irreal; mas a teoria ainda pode pretender descrever um aspecto da realidade”. Modelos seriam, nessa leitura, experimentos de pensamento, e para o experimento funcionar ele tem que replicar certos aspectos do mundo.

Segundo Sugden: “Nessa interpretação, então, um modelo explica a realidade em virtude da verdade das suposições que faz sobre os fatores causais que isolou. Os próprios isolamentos podem ser irrealistas; em um sentido literal, as suposições que representam esses isolamentos podem ser (e normalmente são) falsas. Mas as suposições que representam o funcionamento dos fatores causais isolados precisam ser verdadeiras”. Desde que as condições elencadas sejam verdadeiras, as hipóteses irrealistas estariam então legitimadas.

A dificuldade para uma interpretação do tipo Mäki é que os modelos de Akerlof e Schelling incluem muitas suposições que não são generalizações bem fundamentadas e nem correspondem a cláusulas ceteris paribus ou de não interferência na hipótese empírica de que o modelador está avançando. Para interpretar esse modelos como pertencentes a uma ciência dedutiva inexata, teríamos que admitir que Akerlof e Schelling estariam propondo hipóteses empíricas contrafactuais sobre o que seria observado caso as hipóteses fossem verdadeiras. No entanto, isso acaba removendo todo o conteúdo empírico das implicações do modelo, esvaziando o objetivo de que ele seja interpretado como uma ciência dedutiva inexata.

Então, afinal, o que seriam os modelos? Segundo Sugden, modelos, na verdade, são mundos contrafactuais críveis. O modelo não é uma abstração do mundo real, mas um mundo paralelo no qual o mundo do modelo descreve um estado de natureza crível de como as coisas poderiam ter sido. Aqui, a credibilidade do modelo seria tal qual o realismo em um livro: em ambos os casos são usadas caricaturas e isolamentos, mas o principal é o convencimento de que a situação descrita se assemelha a algo próximo do real. Segundo Sugden (2009): “Credibilidade não é a mesma coisa que verdade; está mais perto da verossimilhança ou semelhança da verdade. Percebemos o mundo do modelo como confiável por sermos capazes de pensá-lo como um mundo que poderia ser real – não no sentido de atribuir probabilidade subjetiva positiva ao evento de que é real, mas no sentido de que é compatível com o que nós sabemos, ou pensamos que sabemos, sobre as leis gerais que regem os eventos no mundo real”.

É assim que operam os modelos de Akerlof e Schelling, que nos convidam a fazer uma inferência indutiva do mundo do modelo ao mundo real. Para ser uma inferência bem sucedida, elementos do modelo devem ser críveis. Então ainda podemos ter hipóteses claramente falsas e, ainda assim, descrever e prever algo no mundo real.

Tendo visto isso tudo, é preciso recapitular a máxima de Box: “todos os modelos estão errados, mas alguns são úteis“. O papel das hipóteses irrealistas, muitas vezes, é o de simplificar e tornar o problema tratável. É um processo de idealização, abstraindo o ruído não importante para chegar ao real. Esse processo tem de ser feito de forma crível para que possamos fazer previsões, podendo sempre uma hipótese ser relaxada para chegarmos num nível cada vez maior de complexidade. É isso que precisa ser lembrado toda vez que alguém reclamar da falta de realismo nas hipóteses dos modelos de economia.

Leia também:
Formas corretas e erradas de criticar um estudo
Por que a análise empírica é importante na ciência econômica?
Qual a importância dos modelos na ciência? – Uma reflexão de Paul Krugman
Considerações sobre a formalização na economia

Referências

Sugden, Robert. “Credible worlds: the status of theoretical models in economics.” Journal of economic methodology 7.1 (2000): 1-31.

Smith, Peter Godfrey. “Theory and reality: an introduction to the philosophy of science.” (2003).

Pigliucci, Massimo, and Maarten Boudry, eds. Philosophy of pseudoscience: Reconsidering the demarcation problem. University of Chicago Press, 2013.

Popper, Karl R. A lógica da pesquisa científica. Editora Cultrix, 2004 [1934].

Laudan, Larry. “The demise of the demarcation problem.” Physics, philosophy and psychoanalysis. Springer, Dordrecht, 1983. 111-127.

Pigliucci, Massimo. “The demarcation problem. A (belated) response to Laudan.” Philosophy of pseudoscience: Reconsidering the demarcation problem 9 (2013).

Carnap, Rudolf. Der logische aufbau der welt. Vol. 514. Felix Meiner Verlag, 1998 [1928].

Ayer, Alfred Jules. Language, truth and logic. Vol. 1. Courier Corporation, 2012 [1936].

Popper, Karl. Conjectures and refutations: The growth of scientific knowledge. Routledge, 2014 [1963]

Quine, Willard Van Orman. Two dogmas of empiricism. Princeton University Press, 2011 [1951].

Kuhn, Thomas S. The structure of scientific revolutions. University of Chicago press, 2012 [1962].

Ladyman, James. “Toward a Demarcation of Science from Pseudoscience.” Philosophy of pseudoscience. University of Chicago Press, 2013. 45-60

Lakatos, Imre. “The methodology of scientific research programmes.” Philosophical papers 1 (1987): 3-44.

Thagard, Paul R. “Why astrology is a pseudoscience.” PSA: Proceedings of the Biennial Meeting of the Philosophy of Science Association. Vol. 1978. No. 1. Philosophy of Science Association, 1978.

Feyerabend, Paul. “Against Method.” (1975).

McCloskey, Donald. “Economical writing.” Economic Inquiry 23.2 (1985): 187-222.

McCloskey, Donald N., and Deirdre N. McCloskey. Knowledge and persuasion in economics. Cambridge University Press, 1994.

McCloskey, Donald N. “The rhetoric of economics.” Journal of economic literature 21.2 (1983): 481-517.

Wittgenstein, L. “Philosophical investigations. (Translated by GE Anscombe) Oxford: Blackwell.” (1953).

Hansson, Sven Ove. “Defining pseudoscience and science.” Philosophy of pseudoscience: Reconsidering the demarcation problem (2013): 61-77.

Blaug, Mark. “The formalist revolution of the 1950s.” Journal of the History of Economic Thought 25.2 (2003): 145-156.

Angrist, Joshua D., and Jörn-Steffen Pischke. “The credibility revolution in empirical economics: How better research design is taking the con out of econometrics.” Journal of economic perspectives 24.2 (2010): 3-30.

Simon, Carl P., e Lawrence Blume. Mathematics for economists. Vol. 7. New York: Norton, 1994.

Box, George EP. “All models are wrong, but some are useful.” Robustness in Statistics 202.1979 (1979): 549.

Mäki, Uskali. “On the method of isolation in economics.” Poznan Studies in the Philosophy of the Sciences and the Humanities 26.4 (1992): 317-351.

Friedman, Milton. “The methodology of positive economics.” (1953).

Musgrave, Alan. “‘Unreal Assumptions’ in Economic Theory: The F-Twist Untwisted”. Kyklos 34.3 (1981): 377-387.

Hausman, Daniel M., and Herbert a Simon. The inexact and separate science of economics. Cambridge University Press, 1992.

Akerlof, George A. “The Market for “Lemons”: Quality Uncertainty and the Market Mechanism.” The Quarterly Journal of Economics 84.3 (1970): 488-500.

Schelling, Thomas C. Micromotives and macrobehavior. No. 301.113 S3. 1978.

Gibbard, Allan, and Hal R. Varian. “Economic models.” The Journal of Philosophy 75.11 (1978): 664-677.

Sugden, Robert. “Credible worlds, capacities and mechanisms.” Erkenntnis 70.1 (2009): 3-27.

BonJour, Laurence. In defense of pure reason: A rationalist account of a priori justification. Cambridge University Press, 1998.

Deixe um comentário

Seu endereço de e-mail não ficará público