Capítulo4 Incerteza, risco e utilidade esperada
Frequentemente nossas decisões estão envoltas em incertezas. Considere o problema de decisão do eleitorado. É preciso avaliar as alternativas disponíveis, esperando um certo resultado, que é incerto. Políticos não cumprem promessas, circunstâncias mudam, pessoas morrem e seus vices assumem etc.
Similarmente, imagine uma gestora pública municipal que foi apresentada a uma nova pesquisa, que sugere que é melhor que crianças entrem na escola uma hora mais tarde. Porém, isso mudará a organização dos cuidadores das crianças, professores e toda a dinâmica escolar, além do que o estudo foi feito em poucas escolas, não necessariamente se generalizando para todo o município. decidindo se adotar uma nova política pública ou continua com a anterior. Será que vale a pena esta nova política pública? Como é uma política nova, há incerteza sobre os benefícios que podem advir dela, bem como dificuldades não antecipadas inteiramente. Portanto, nosso modelo de tomada de decisão precisa incorporar incerteza de algum modo.
Em nosso paradigma da escolha racional, precisamos formalizar a incerteza para além de uma linguagem vaga. Termos como “é possível”, “pode ou não acontecer”, “talvez”… são imprecisos. Vamos então introduzir um modo pelo qual jogadoras podem comparar ações cujos resultados são incertos de uma maneira estruturada e formalizável. Nesta abordagem, utilizaremos o conceito de probabilidades, de forma a definir payoffs sobre resultados aleatórios.
4.1 Risco
Imagine que você é a gestora pública. Vamos formalizar o problema que ela enfrenta da forma mais simples possível, de modo a introduzir as ideias mais importantes de como modelar incerteza. Vamos chamar suas duas possíveis ações, inovar, \(i\) e manter o status quo, \(s\), de forma que o conjunto de ações é \(A = \{i,s\}\). Vamos supor também que só há dois resultados possíveis: um benefício de \(10\) (digamos, a nota na avaliação municipal é dez pontos maior) ou de \(0\), de modo que \(X = \{0,10\}\).
Entretanto, diferentemente de um mundo sem incerteza, não há correspondência unívoca entre ações e resultados. Para formalizar a ideia de incerteza aqui, precisamos atribuir probabilidades aos resultados em função de cada ação escolhida. Nesse exemplo fictício, as probabilidades são arbitrárias. Voltaremos a como determinar probabilidades mais à frente.
Suponha que se ela escolher adotar a nova política há uma chance disso resultar em aumento de 10 pontos na avaliação escolar de 3 para 1, enquanto se não adotar a política e manter as coisas como estão, a chance é de 50%-50%. Dizendo de outro modo, a ação \(i\) gera benefício \(10\) com probabilidade \(1/4\) e benefício \(0\) com probabilidade \(3/4\), enquanto a ação \(s\) gera benefício \(10\) com probabilidade \(1/2\) e benefício \(0\) com a mesma probabilidade.
A introdução de probabilidades traz incerteza para nossos jogos. Por isso é importante entender como nossa teoria de comportamento racional pode se modificar na presença de incerteza.
4.2 Incerteza
A ideia da incerteza foi inicialmente abordada com a ideia de calcular o valor esperado de ações e escolher aquela ação que rende o maior valor esperado. Considere o seguinte jogo. Após responder várias perguntas corretas, uma pessoa em um programa de TV tem a seguinte escolha para fazer: a) será jogada uma moeda. Se cair coroa, ganha 100 mil reais. Se der cara, não ganha nada. b) Escolher entre três envelopes, cada um contém prêmios no valor de 90 mil reais, 30 mil reais e 15 mil reais. Qual estratégia ele deve escollher?
Uma forma de responder a essa pergunta é calcular o valor esperado de cada ação, que pode ser feito da seguinte forma: a) \(VE(A) = 100000*.5 + 0*.5 = 50.000,00\) b) \(VE(B) = 90000*(1/3) + 30000*(1/3) + 15000*(1/3) = 30000 + 10000 + 5000 = 45000\)
Se utilizamos como critério de decisão escolher a alternativa com maior valor esperado, a participante deveria escolher A, pois em média paga mais que do que a opção B.
De maneira geral, se tenho uma ação disponível \(s_i\), com resultados possíveis \(v_1, v_2, ... v_k\) cada um deles com probabilidade \(p_1, p_2, ..., p_k\), de tal modo que \(\sum_j=1^k(p_j) = 1\) e \(p_j \ge 0, \forall j = \{1,2,...,k\}\), então o valor esperado de \(s_i\) é dado por: \[ VE(s_i) = v_1p_1 + v_2p_2 + ... + v_kp_k \] Uma justificativa para a ideia de maximizar o valor esperado é a seguinte. A pessoa se defronta com várias decisões em sua vida que possuem riscos. Pode comprar um carro com algum opcional de segurança que reduz seu risco de vida em acidentes, se vai atravessar fora da faixa e pedestre, se anda de moto, se sai na chuva em dia de raios etc. Cada decisão dela tem um risco e se escolher sempre maximizando a utilidade esperada, na média de longo prazo terá um retorno maior.
Um problema da abordagem de maximizar o valor esperado é ilustrado pelo Paradoxo de São Petersburgo. Considere o seguinte jogo. Uma moeda é jogada, se o resultado é coroa, o jogador é pago 1 real e o jogo acaba. Se der cara, o jogo continua e uma moeda é novamente lançada. Se der coroa, recebe dois reais e o jogo acaba. Se der cara, o jogo continua e uma moeda é novamente lançada. Se der coroa, o jogador ganha 4 reais e o jogo acaba. Se der cara, o jogo continua, e assim indefinidamente, sempre dobrando o valor pago até o momento em que der cara.
Suponha que a casa tem fundos ilimitados. Qual o valor esperado desse jogo? Ou, colocando de outro modo, quanto um jogador racional (no sentido de maximizar valor esperado) deveria pagar para ter o privilégio de jogar esse jogo? O jogo basicamente tem a seguinte configuração. A casa paga 1 real com probabiliade 50%, 2 reais com probabilidade 25%, 4 reais com prob. 1/8 e assim por diante: \(VE(jogo) = 1*(1/2) + 2*(1/4) + 4*(1/8) + ...\)
Veja que essa soma infinita é equivalente a:
\(VE(jogo) = 1/2 + 2*/4 + 4/8 + ... = 1/2 + 1/2 + 1/2 + ...\)
O que dá uma soma infinita.
Usando nossa lógica de escolher ações cujo valor esperado é maior, entre a alternativa de pagar toda a fortuna de uma pessoa para jogar o jogo e não jogar e preservar a forturna, pagar a fortuna dá um valor esperado maior, pois infinito menos uma quantia finita é ainda infinito.
Obviamente, não faz sentido escolher jogar esse jogo pagando toda a sua fortuna, pois na prática em algum momento a pessoa irá perder antes de recuperar o valor de sua forturna.
Naturalmente, a questão seguinte a se perguntar é: podemos encontrar algum outro princípio para fundamentar a decisão sob incerteza?
Daniel Bernoulli, matemático, percebeu que o valor monetário é diferente a depender de quanto dinheiro você tem. O valor de mil reais para uma pessoa pobre é diferente do valor de mil reais para uma pessoa rica. Obviamente podemos supor que mais dinheiro é preferido a menos, porém não de maneira linear. Bernoulli sugeriu uma “lei da utilidade decrescente”, como ficou conhecida depois, segundo a qual cada real adicional gera um pouco menos de utilidade. Mais ainda, ele propôs que a relação entre dinheiro e utilidade deveria ser logarítmica, o que implica que mudanças percentuais no dinheiro implicam mudanças iguais na utilidade.
Duas críticas forma feitas à proposta de Bernoulli. Em primeiro lugar, a arbitrariedade do uso de logarítmo. Em segundo lugar, como medir utilidades? Nós já vimos que podemos trabalhar com utilidades ordinais. Mas utilidade cardinal é bem mais complicado.
Tivemos de esperar até o trabalho de von Neumann e Morgenstern (VNM), com o livro Game Theory and Economic Behavior (1944) para haver uma reabilitação das ideias propostas por Bernoulli. A ideia chave de VNM é que é possível estimar a intensidade de preferências em uma escala intervalar (em que os pontos máximos e mínimos são arbitŕarios, como na escala de Celcius e Farenheit) a partir da elicitação de preferências sobre loterias. Com representações numéricas de utilidade, podemos calcular a utilidade esperada (à maneira do valor esperado), exceto que a utilidade marginal pode ser decrescente e, portanto, evitar o paradoxo de São Petersburgo.
Para tanto, é preciso introduzir o conceito de loterias, o que faremos a seguir.
4.3 Preferências sobre loterias
Já que estamos falando de loterias em nossa definição, é importante fazer um “detour” para explicar o conceito de loterias e preferências sobre loterias
Uma loteria existe quando eu tenho payoffs que têm um componente aleatório. A mega-sena paga alguns milhões de reais com uma dada probabilidade, e zero reais com outra probabilidade. Por isso que temos uma loteria nesse caso. Vamos definir formalmente uma loteria em nosso contexto.
Definição 4.1. Uma loteria simples sobre resultados \(X = \{x_1, x_2, ..., x_n\}\) é definida como a distribuição de probabilidade \(p = (p(x_1), p(x_2), ..., p(x_n))\), em que \(p(x_k) \ge 0\) é a probabilidade de que \(x_k\) ocorra e \(\Sigma_{k=1}^n x_k = 1\).
Aplicando a definição para a mega-sena, e considerando um caso simplificado em que há apenas dois resultados, ganhar \(x\) milhões de reais e não ganhar nada (excluímos quina, quadra e divisões do prêmio para mais de um ganhador), uma loteria são as probabilidade de cada resultado.
4.4 Utilidade esperada
Suponha que uma loteria tem quatro possíveis prêmios (resultados): \(x_1, x_2, x_3, x_4\). Suponha que os prêmios foram ordenados em ordem ascendente de preferência, isto é, \(x_4 \succ x_3 \succ x_2 \succ x_1\). Agora, atribua valores de utilidade arbitrários para o prêmio mais desejado e o menos desejado. Digamos: \(u(x_4) = 1\) e \(u(x_1) = 0\).
Veja que atribuir um máximo e mínimo arbitrário é algo que fazemos quando criamos as escalas de graus Celcius e Farenheit. Na primeira, escolhemos o máximo (\(100 ^{\circ}C\)) e mínimo (\(0 ^{\circ}C\)) como os pontos de ebulição e congelamento da água, em condições normais de atmosfera e pressão. Na segunda, definimos (\(212 ^{\circ}F\)) como o ponto de ebulição da água e (\(32 ^{\circ}F\)) como o ponto de congelamento da água. Claro que sabemos que podemos ter valores abaixo do mínimo e acima do máximo, mas para uma amostra de dados dentro desse intervalo, estamos fazendo essencialmente a mesma coisa.
Voltando ao nosso exemplo. Como nas escalas Celcius e Farenheit, podemos atribuir quaisquer outros números como máximo e mínimo para a utilidade. Contudo, é conveniente matematicamente (já veremos o porquê) usar zero e um. Usando esses dois valores de utilidade como ancoragem, o ponto do teorema de VNM é que existe uma forma garantida de atribuir utilidades numéricas para as preferências de cada um dos prêmios, de forma que podemos trabalhar com o caĺculo de utilidade esperada. O procedimento é o seguinte. Considere qualquer outro prêmio (por exemplo, \(x_2\)). Pergutamos então a cada jogador qual a probabilidade \(p_2\) que tornaria ela indiferente entre ganhar \(x_2\) com certeza e \(x_4\) com probabilidade \(p_2\) e \(x_1\) com probabilidade \(1 - p_2\). Veja que quanto mais valioso for \(x_2\), maior deve ser \(p_2\), a chance de ganhar \(x_4\) o prêmio mais valorizado, para que a pessoa aceite trocar algo certo por aldo duvidoso. Assim, \(p_2\) mede a desejabilidade do prêmio \(x_2\). A gente repete esse experimento com \(x_3\) e assim teremos uma medida da desejabilidade de todos os prêmios.
E VNM definem a utilidade de cada prêmio como a aposta (loteria) que cada jogador considera igualmente desejável ao prêmio. No caso em tela: \(u(x_i) = p_i*1 + (1-p_i)*0 = p_i\)
Mais formalmente, temos:
Definição 4.2. Seja \(u(x)\) a função de utilidade (ou payoff) sobre resultados \(X = \{x_1, x_2, ..., x_n\}\), e seja \(p = \{p_1, p_2, ..., p_n\}\) uma loteria sobre \(X\) tal que \(p_k = p(x = x_k)\). Definimos então a utilidade esperada da loteria \(p\) como: \[ \mathbb{E}[u(x)|p] = \sum_{k=1}^n p_ku(x_k) = p_1u(x_1) + p_2u(x_2) +... + p_nu(x_n) \]
Ao escolher os valores máximos e mínimos da utilidade de maneira conveniente, as probabilidades passam a medir a desejabilidade diretamente de cada prêmio. Temos portanto números para as utilidades que não são apenas ordinais, mas cardinais.
Eu sei que nós gastamos tempo repetindo e enfatizando que a teoria da utilidade tratava apenas de representar preferências ordinais e, portanto, os números eram completamente arbitrários. Agora não. Somente os pontos máximos e mínimos são arbitrários, mas todos os demais são derivados por esse experimento mental.
Isso significa que agora os números refletem a intensidade da preferência, e não apenas mais a ordem. Isso pode alterar as decisões doa agentes, ainda que a ordem de preferências seja mantida.
Na verdade, para ser mais preciso, o que VNM mostram é que se alguns axiomas forem satisfeitos, então agentes racionais se comportatão como se tivessem respondido a essas perguntas desse experimento. Mas não precisam de fato fazer esse experimento para se comportarem desse jeito. Mais ainda, em situações de incerteza, agentes racionais escolherão o que maximizar sua utilidade esperada.
A Teoria da Utilidade Esperada, portanto, ajuda a explicar porque pessoas contratam seguros ou apostam em loterias como a mega-sena. Embora o valor esperado seja negativo em ambas as escolhas, as pessoas possuem utilidades distintas de cada opção (jogar ou não jogar, contratar ou não-contratar seguro).
4.5 Risco versos Incerteza
Até aqui não temos feito diferenciação entre incerteza e risco. Contudo, nas ciências sociais, muita discussão foi feita ao longo do século XX sobre a diferença entre esses dois conceitos. O economia John Manard Keynes, por exemplo, defendia que risco eram aquelas situações nas quais podemos calcular uma probabilidade objetiva, enquanto incerteza seriam situações em que não poderíamos atribuir uma probabilidade. Exemplo de risco seria uma probabilidade de chover, que pode impactar os rendimentos de um evento (um show a ceu aberto) ou negócio (um bar na praia), enquanto incerteza envolveria coisas como uma decisão de investir em um novo negócio, ou a possibilidade de uma pandemia mundial.
A diferença entre os dois conceitos parece ter sido introduzida pela primeira vez pelo economista Frank Knight, que escreveu em 1921:
Uncertainty must be taken in a sense radically distinct from the familiar notion of risk, from which it has never been properly separated…. The essential fact is that ‘risk’ means in some cases a quantity susceptible of measurement, while at other times it is something distinctly not of this character; and there are far-reaching and crucial differences in the bearings of the phenomena depending on which of the two is really present and operating…. It will appear that a measurable uncertainty, or ‘risk’ proper, as we shall use the term, is so far different from an unmeasurable one that it is not in effect an uncertainty at all”.
Em resumo, incerteza é quando eventos futuros ou resultados de ações não poderiam ter uma probabilidade associada, enquanto risco seriam situações opostas, ou seja, quando é possível atribuir uma probabilidade.
Do ponto de vista da abordagem Bayesiana, que implicitamente é utilizada em nosso curso, tal diferença não faz sentido. Toda situação de incerteza pode ser modelada como uma probabilidade, ainda que subjetiva, isto é, baseada apenas em um mero chute.
4.6 Aversão a risco
Tipicamente as pessoas são avessas ao risco. No contexto da utilidade esperada, isso quer dizer que as pessoas preferem um payoff certo a uma aposta justa. Em outras palavras, se eu oferecer uma escolha entre ficar como está ou uma aposta em que você ganha mil reais se der cara, paga mil reais se der coroa, as pessoas tendem a preferir a primeira opção, ainda que o valor esperado seja igual. Se você for indiferente entre as duas opções, dizemos que você é neutro ao risco. E se prefere a aposta, você é amante do risco.
Tipicamente em modelos na ciência política, assume-se neutralidade ao risco ou aversão ao risco. Aversão ao risco é visto como a suposição mais aceitável e neutralidade ao risco é suposta apenas quando é mais fácil a matemática e a conclusão não muda se supusermos aversão ao risco.
4.7 Teoria e Prática
Muitos testes foram feitos para verificar se o comportameto das pessoas em situações experimentais condizem com o previsto pela TUE. Em particular, Tversky and Kanheman realizaram uma série de experimentos. Vamos apresentar uma versão de um deles aqui.
“Suponha que o Brasil está se preparando para um surto de uma doença que surgiu em outro país e a expectativa é que a doença matará 600 pessoas se nada for feito. Dois programas alternativos para combater as doenças foram pensados. Assuma que as exatas consequências científicas dos programas são como seguem:
- Programa A: 200 pessoas serão salvas. Programa B: Há uma probabilidade de \(1/3\) que 600 pessoas serão salvas, e uma probabilidade de \(2/3\) que nenhuma pessoa será salva.
A utilidade esperada em função do número de pessoas salvas do programa A é: \(u(200)\), enquanto a de B é \(\frac{1}{3}u(600))\).
72% escolheram A e 28% B
- Programa C: 400 pessoas morrerão. Programa D: Há uma probabilidade de \(1/3\) que ninguém morrerá, e uma probabilidade de \(2/3\) que 600 pessoas morrerão.
Nesse caso, a utilidade esperada de C é \(u(200)\) e a de D é \(\frac{1}{3}u(600))\).
Já nesse cenário, 78% preferem D e 22% preferem C.
Vejam que as utilidades esperadas são as mesmas, o que muda é apenas o framing das questões, em torno de pessoas salvas ou mortas.
4.8 Exercícios
Exercise 4.1 Considere o seguinte jogo em um cassino. Você joga um dado de seis faces. Se sair \(1\), você recebe \(25\) reais. Se sair \(2\) você paga \(5\) reais ao cassino. Se o dado for \(3\), nada acontece. Se sair um \(4\) ou \(5\), você paga \(10\) ao cassino. Se sair um \(6\), você paga \(15\) Calcule o valor esperado do jogo. Você jogaria o jogo? Explique.
Exercise 4.2 Considere o seguinte jogo. Em uma baralho comum de 52 cartas, com quatro naipes (copas, ouro, espada e paus), você escolhe uma carta ao acaso e ganha 10 reais se for de copas. Se tirar um Valete, Dama ou Rei que não seja de copas, você ganha 8. Qualquer outra carta, perde 4. Calcule o valor esperado do jogo.
Exercise 4.3 Suponha que a chance de seu carro ser roubado é de uma em mil. Seu carro vale R\(\$\) \(50.000,00\). Uma companhia de seguro decide te cobrar um prêmio de 100 reais para segurar seu carro contra roubo (e apenas contra roubo). Você faz o seguro, ou não? Explique. Você consegue imaginar uma probabilidade de roubo do seu carro que faria você mudar de ideia quanto ao seguro? Se sim, qual seria essa probabilidade?
Exercise 4.4 Suponha que um indivíduo enfrenta uma loteria L que oferece uma chance de \(50\%\) de ganhar 100 reais e \(50\%\) de ganhar 0. Se a função de utilidade do indivíduo para dinheiro é \(u(x)= x\), qual é a utilidade esperada de participar na loteria L? E qual o valor esperado da loteria? Nesse caso, o valor esperado e a utilidade esperado são iguais? Como você interpreta isso?
Exercise 4.5 Uma jogadora, Alice, tem a escolha entre um emprego seguro que paga uma renda certa de $50.000 por ano ou um empreendimento que pode render $100.000 anual com probabilidade de \(50\%\) ou $10.000 com probabilidade de \(50\%\).
Calcule o valor esperado de ambas as opções.
calcule a utiidade esperandas de ambas as opções se a função de utilidade for \(u(x) = x\), \(u(x) = \sqrt{x}\) e \(u(x) = log(x)\), em que \(x\) é a renda da jogadora.
Qual opção Alice deve escolher, com base na utilidade esperada para cada função de utilidade.
Exercise 4.6 Dois países, A e B, estão em uma disputa sobre a poss de um território que pode levar à guerra. O país A estima que tem \(60\%\) de chance de ganhar a guerra, que resultaria em controle total do território e uma utilidade de 200, já perder a guerra geraria uma utilidade de -100. Para o país B, a chance de ganhar a guerra é \(40\%\), com os mesmos valores de utilidade para ganhar ou perder a guerra.
Calcule a utilidade esperada de uma guerra para ambos os países.
Divida a utilidade da vitória e derrota por 100. Verifique que a utilidade esperada é igual à utilidade esperada de antes, dividida por 100.
Suponha que a função de utilidade do território em disputa em uma solução diplomática é \(u(x) = 300x\), em que \(x\) é o percentual (entre 0 e 1) de controle por um país do território em disputa. Se houver guerra, a função de utilidade do controle do território passa a ser \(u(x) = 300x - 100\). Lemebrando que, se um país vence a guerra, o controle é \(100\%\) para o vencedor e \(0\%\) para o perdedor. Suponha que se uma solução diplomática for acordada, ela é implementada com certeza. Se B oferecer metade do território em disputa para A, ambos os países prefeririam essa solução à guerra?
Qual o tamanho mínimo do território que B deveria oferecer a A para que este fosse indiferente entre fazer ou não a guerra?