septiembre 12, 2010

La Mente del Mercado - Capitulo V - La Extinción del Homo Economicus



Según la teoría de la elección racional, base del homo economicus, se computan solamente los resultados finales y se elige el que tenga mayor utilidad. Esto no sucede, pero la teoría de la elección racional y su base matemática la teoría de juegos, aciertan las suficientes veces como para representar información útil acerca de lo que pasa en el mundo. Equilibrio, en teoría de juegos es cuando ninguno de los participantes va a ganar más si cambia de estrategia, o cuando ambos ganan o cuando uno gana y el otro no pierde. El problema con el equilibrio es que asume competencia perfecta entre individuos absolutamente racionales con toda la información pertinente, y eso sencillamente no sucede.


Sobre la oferta y demanda se tienen resultados experimentales interesantes, a monos capuchinos se les dio fichas para cambiar por comida, trozos de manzana o jugo de uva, por ejemplo. Una ficha representaba una porción. Después de unos días se estableció la preferencia de los monos y se les dio fichas adicionales, esta vez el precio de su comida favorita se había duplicado. Los monos tenían un gran interés en el resultado de esta transacción ya que la comida intercambiada era parte de su consumo diario, es decir, tenían hambre. Como la teoría económica predice, los monos compraron más de la comida relativamente barata. Esto sugiere que los mecanismos mentales que usamos para regir nuestra conducta económica estaban presentes ya en un antepasado en común, antecesor tanto del linaje de los monos capuchino como del linaje de los humanos, la separación de estos se data en diez millones de años.


Una de las grandes diferencias con otros primates, y otros mamíferos en general, es nuestra capacidad de retrasar la recompensa. Somos los únicos animales que pueden retrasar la recompensa por años, por supuesto no es lo mismo tener algo ahora, que tenerlo después. La utilidad disminuye con el tiempo y de manera proporcional a este, es decir; en un experimento se le preguntó a un grupo de personas si preferiría tener 20$ o esperar una semana para tener 22$ la mayoría de la gente decidió tomar los 20$. A otro grupo de gente se le preguntó si preferiría tener 20$ en siete semanas o 22$ en ocho semanas, esta vez la mayor parte de la gente preferiría esperar la semana extra. Si es el mismo periodo de tiempo, por la misma cantidad de dinero, cuál es la diferencia? La incertidumbre, no sabemos lo que puede pasar en el futuro y se puede presumir que nuestro pasado evolutivo era todavía más incierto. De hecho las estructuras cerebrales más nuevas son las encargadas de controlar la impulsividad y de retrasar la recompensa, se ve en pacientes con daño en el cortex prefrontal que tienen dificultades para controlarse.



Síntesis de The Mind of the Market - Capítulo V - The Extintion of Homo Economicus. Por Michael Shermer


Capítulo 4

img: The Perth Mint

agosto 06, 2010

La Mente del Mercado - Capitulo IV - Pensando en Nuestro Dinero


La Economía Conductual es relativamente nueva, Kahneman y Tversky usaron preceptos de psicología para estudiar microeconomía, al ver las teorías usadas por los economistas, como cualquier psicólogo, no entendieron por qué usaban un modelo tan irreal y no aceptaban las críticas de la psicología, los economistas respondían, con alguna razón, que los psicólogos no entendían las teorías que estaban criticando. Sin embargo, el trabajo de Kahneman y Tversky, junto con las formulaciones matemáticas de Camerer eran ineludibles.

Tversky propuso que los humanos son animales que buscan patrones, y los encuentran, ya sea que estén ahí o no. Propusieron, junto con Kahneman que se usan heurísticas de juicio, como atajos mentales, para simplificar el proceso de pensamiento. Estas heurísticas aunque por lo general funcionan bien, dan lugar a falacias sistemáticas como; falacia de representatividad, anclaje, sesgo de retrospectiva, endowment effect y sesgo de confirmación, donde se ignoran o reinterpretan los datos que van en contra de nuestras creencias.

Tendemos a creer que las muestras pequeñas son representativas (falacia de números pequeños) y se estima un evento como más probable si se recuerda con facilidad (si es accesible) por ejemplo, se pide a un grupo de sujetos que imagine que gana el candidato A y a otro grupo que imagine que gana el candidato B, luego se pregunta a ambos grupos cuales son las probabilidades de que cada uno de los candidatos gane, estos son candidatos reales antes de una elección por lo que se espera que los estimados sean más o menos los mismos, pero se vió un claro sesgo hacia el candidato que habían imaginado.

La ley de los grandes números dice que con una muestra lo suficientemente grande, eventos muy poco probables van a ocurrir con seguridad. Teniendo en cuenta la cantidad de transacciones que hay todos los días es seguro que algo muy extraño le va a pasar a alguien en algún lado.

El dinero no se evalúa únicamente por su utilidad final, por ejemplo, a la gente le desagrada tener que pagar extra para comprar algo con tarjeta de crédito, pero le gusta que haya un descuento por pagar al contado, aunque el precio sea el mismo. Tenemos aversión al riesgo, si se le propone a alguien entrar a un juego donde seguro pierde 5$ y tiene 25% de probabilidades de ganar 10 es poco probable que acepte, pero si se le propone comprar una lotería con 25% de probabilidades de ganar 10$ que cuesta 5 es probable que sí acepte, en el primer caso los 5$ están vistos como una pérdida en el segundo no.

El famoso experimento de las cartas de Wason demuestra que tan malos somos para el razonamiento simbólico. Se presentan cuatro cartas:


Cuáles es necesario dar vuelta para probar que “si una carta tiene una vocal de un lado, del otro hay un número par”
Que tal si sos un barman, empezando tu turno y la edad para tomar alcohol es de 21 años. Hay cuatro personas en la barra, una toma cerveza, la otra gaseosa, otra tiene 25 y la última 15.Cómo sabes cuando se rompe la regla?


Tendemos a buscar confirmación de las afirmaciones en lugar de intentar falsarlas, especialmente cuando se trata de conceptos abstractos, sin embargo mejoramos notablemente si las premisas presentadas tienen un contexto práctico y se nos pide detectar “tramposos”.

(Las cartas que deben darse vuelta son la E y el 7)

Síntesis de The Mind of the Market - Capítulo IV- Minding our Money. Por Michael Shermer


Capítulo 3

agosto 05, 2010

"Somos polvo de estrellas"

Y lo realmente hermoso de la metáfora de Carl Sagan que titula esta entrada, es que esconde un significado más profundo y científicamente correcto. ¿Por qué digo esto? Me explico:

Poco después del Big Bang, toda la materia del Universo estaba exclusivamente en forma de Hidrógeno (aprox. 75%) y Helio (aprox. 25%), no existía ningún otro elemento químico. Y no podía existir, por cierto. El Universo estaba muy caliente e inestable como para permitir la formación de núcleos atómicos más complejos, recién mucho tiempo después sería posible generar más elementos químicos.

Mientras el Universo se enfriaba, las partículas de hidrógeno y helio fueron concentrándose en muchos puntos del espacio por acción de la gravedad, formando pequeñas "nubes" que fueron aumentando en masa gradualmente conforme atraían mayor cantidad de átomos. Este crecimiento trajo también un aumento en las fuerzas gravitacionales y compactó la "nube" haciéndola cada vez más pequeña.

Tuvieron que pasar aproximadamente 700.000 años después del Big Bang para que sea posible formar átomos más pesados, con un proceso llamado fusión nuclear. La fusión nuclear consiste en la unión de dos núcleos atómicos para formar otro más pesado y con mayor número de protones; la cantidad de protones indica el elemento químico asociado a un núcleo, así un núcleo con 42 protones es el núcleo de un átomo de molibdeno, uno con 79 es de oro, etc. La fusión nuclear es sumamente difícil de conseguir; los núcleos se repelen fuertemente debido a la fuerza eléctrica entre ellos (ambos núcleos tienen carga eléctrica neta positiva) y para conseguir la fusión, hay que vencer la fuerza eléctrica de repulsión y hacer que los núcleos estén suficientemente cercanos para que otra fuerza fundamental de la naturaleza, la fuerza nuclear fuerte (mucho más fuerte que la eléctrica, pero de muy corto alcance) se encargue de unirlos.

Como la "nube" de hidrógeno y helio se hacía más compacta, en poco tiempo se alcanzaron las condiciones necesarias para mantener juntos los núcleos atómicos durante el intervalo necesario para lograr la fusión. Con el inicio de la primera fusión nuclear del Universo se creo la primera estrella.

En el interior de la nueva estrella había tantos núcleos atómicos juntos en un espacio tan pequeño que la fusión se producía de manera constante y estable, emitiendo energía en forma de radiación y neutrones libres (que portan energía cinética).

Al principio, la fusión producía solo helio a partir del hidrógeno y sus isótopos, ya que la fusión de elementos más ligeros era más fácil de realizar. Cuando todo el hidrógeno se consumió para producir helio, las reacciones de fusión cambiaron repentinamente, ya que la fusión de helio produce solo una cuarta parte de la energía liberada por la fusión de hidrógeno. Este cambio en energía liberada por cada reacción de fusión hizo que la estrella aumente enormemente su diámetro.

En este punto conviene comentar dos puntos:
  • En el interior de una estrella se tienen dos "tendencias" opuestas: la presión interna (causada por la degeneración electrónica y por la compresión de los gases) que tiende a expandir el radio de la estrella; y la fuerza gravitacional que tiende a reducir el radio. Durante los procesos estables de fusión, se logra un equilibrio entre ambas tendencias, por lo que el radio de la estrella no cambia.
  • La vida de una estrella está definida por su masa, si una estrella tiene una masa superior a 2.25 masas solares, los procesos que ocurran en el interior de la estrella serán muy diferentes a las de las estrellas más ligeras.

La historia de las estrellas ligeras acaba después de quemar todo el helio, cuando ya no es posible ninguna fusión nuclear. Entre los restos de la estrella apagada se encuentran grandes cantidades de carbono y oxígeno, estos restos son expulsados al espacio como efecto de las reacciones violentas que suceden en los últimos instantes de vida de la estrella.

Las estrellas masivas y supermasivas, por otro lado, tienen una historia mucho mas turbulenta, interesante y... corta. En ellas, la presión de degeneración electrónica es insuficiente para prevenir un colapso gravitacional, por lo que cada vez se funden elementos más pesados como resultado del confinamiento nuclear. Esto significa que la presión gravitacional es suficiente para producir elementos químicos muy pesados, siendo el más pesado de ellos el hierro. Antes de alcanzar la producción de hierro, la estrella produce azufre, helio, silicio, neón, aluminio, sodio, oxígeno y trazas de otros elementos. Las reacciones de elementos pesados liberan cada vez menos energía, y la estabilidad de la estrella se ve muy comprometida.

Distribución de elementos químicos en una estrella supermasiva

La fusión nuclear en las estrellas masivas se detiene en el hierro, porque a partir de ahí, las reacciones de fusión consumen energía en lugar de liberarla. Cuando una estrella supermasiva alcanza este punto, no hay nada que pueda evitar el colapso gravitacional. Este colapso puede convertir a las estrellas en algo totalmente nuevo, y el resultado final del colapso depende una vez más de la masa.

Las estrellas masivas, justo antes de colapsar y convertirse en estrellas de neutrones, "convierten" su energía potencial gravitatoria en energía cinética y neutrinos súper energéticos, que entregan la energía necesaria para producir elementos más pesados que el hierro. Los restos son eyectados al espacio a altísimas velocidades, formando lo que se conoce como supernova, en cuyo centro se encuentra la recién formada estrella de neutrones.

La estrellas con aun más masa (las llamadas supermasivas) pasan por el mismo proceso (incluida la supernova), pero la transición es mucho más violenta y produce un resultado final que "rompe" el espacio-tiempo mismo: agujeros negros.

Así vemos que la vida (y, especialmente, la muerte) de las estrellas proveyó al Universo los "ladrillos" necesarios para producir la gran variedad de químicos que existen en la actualidad. El oxígeno que respiramos, el hierro en nuestra sangre, el calcio en nuestros huesos, el carbono en todas nuestras células y cada uno de los átomos de nuestro ADN; todos ellos, sin excepción, fueron construidos en el interior de alguna estrella.

Dejanos tu comentario y discutamos este tema.

julio 28, 2010

La Mente del Mercado - Capitulo III - Capitalismo Bottom-up

Las grandes obras se escriben a favor o en contra de algo; Adam Smith escribió “La riqueza de las naciones” contra le mercantilismo; que a grandes rasgos plantea la economía como un sistema de suma 0. Dice que tenemos que proteger al pueblo de infiltraciones extranjeras en la economía, pero, que parte del pueblo? Por ejemplo, se puede hacer vino en escocia y en Francia, el clima francés es mucho más apto para cultivar uvas, pero se puede hacer vino en escocia a un precio bastante mayor. Entonces, para proteger a los productores se cobran altos impuestos al vino francés, para que la competencia sea “justa” cabe preguntar, justa para quién? Ciertamente no son los compradores los que ganan al subir el precio de un producto de igual o mejor calidad solamente porque los terrenos escoceses no son aptos para el cultivo de uvas. Los defensores del mercantilismo quieren estar protegidos de la competencia, pero el consumidor está indefenso ante las medidas que se tomen. Bastiat en su “Petición de los fabricantes de Velas” deja este mismo punto muy en claro. “Nosotros sufrimos la intolerable competencia de un rival extranjero colocado, por lo que parece, en unas condiciones tan superiores a las nuestras en la producción de la luz que inunda nuestro mercado nacional a un precio fabulosamente reducido; porque, inmediatamente después de que él sale, nuestras ventas cesan, todos los consumidores se vuelven a él y una rama de la industria francesa, cuyas ramificaciones son innumerables, es colocada de golpe en el estancamiento más completo. Este rival, que no es otro que el sol (...)
Demandamos que Ustedes tengan el agrado de hacer una ley que ordene el cierre de todas las ventanas, tragaluces, pantallas, contraventanas, postigos, cortinas, cuarterones, claraboyas, persianas, en una palabra, de todas las aberturas, huecos, hendiduras y fisuras por las que la luz del sol tiene la costumbre de penetrar en las casa, en perjuicio de las bellas industrias con las que nos jactamos de haber dotado al país, pues sería ingratitud abandonarnos hoy en una lucha así de desigual.”
Sin embargo, alguna intervención es necesaria para que el mercado sea justo, el estado de derecho, una vez que las reglas estén puestas y se asegure su cumplimiento, el mercado podrá regularse sólo.


Síntesis de The Mind of the Market – Chapter 3 – Bottom-up Capitalism. Por Michael Shermer.

Capitulo 2

julio 27, 2010

Un nuevo modelo de conducta económica: Racionalidad Acotada (II)

Resumen de: Daniel Kahneman, 2003. "Maps of Bounded Rationality: Psychology for Behavioral Economics," American Economic Review, American Economic Association, vol. 93(5), pages 1449-1475, December.


Un modelo de heurística de juicio

Las personas basan sus juicios y decisiones en una serie limitada de heurísticas que reducen operaciones complejas a juicios más simples, por lo general funcionan bien, pero pueden llevar a errores sistemáticos. Algunas de estas heurísticas son anclaje, disponibilidad y representatividad. Con estas heurísticas se explican varios sesgos de juicios bajo incertidumbre, como la predicción no regresiva, ignorar la tasa base, sobre confianza y la sobre valoración de la frecuencia de eventos fáciles de recordar.

Para verificar los efectos Kahneman y Tversky (1973) hicieron tres grupos, el de tasa base estimó las frecuencias de graduados en nueve categorías de especialización. A los otros dos grupos se le mostró estas frecuencias y la siguiente descripción de un alumno.

Tom W. es de gran inteligencia, pero falto de verdadera creatividad. Él necesita orden y claridad, y sistemas en los que cada detalle tiene un lugar definido. Su escritura es un tanto aburrida y mecánica, ocasionalmente enriquecida por flashes de imaginación como de ciencia ficción. Tiene una gran necesidad de competencia y poca simpatía por otras personas, no disfruta de interactuar con otros. Auque está muy centrado en sí mismo tiene un gran sentido de moral.

Los que participaban del grupo de similitud dijeron hasta que punto Tom W. se parecía a un típico estudiante de cada especialización. La descripción de Tom W. se hizo para que parezca un estudiante típico de las carreras con menos alumnos y la manipulación funcionó, se lo calificó como estudiante típico de esas carreras.

Al grupo de probabilidad se le preguntó cual era la probabilidad de que Tom W. sea un egresado de cada una de las nueve especializaciones, los participantes eran estudiantes de psicología en grandes universidades, a ellos se les dijo que esa descripción fue hecha por un psicólogo cuando Tom W. era un estudiante de bachillerato basado en tests de personalidad de dudosa calidad, con el fin de desacreditar la información. La lógica es evidente, si la información es de dudosa calidad debería ser desacreditada, sin embargo los dos grupos dieron prácticamente las mismas respuestas.

En otro experimento en la misma línea se presentó la siguiente descripción:

Linda tiene 31 años, soltera, abierta y muy brillante. Estudió filosofía. Cuando era estudiante estaba muy interesada en temas como la discriminación y la justicia social, también participo en protestas contra las armas nucleares

A los participantes se les pidió decir a cual de ocho profesiones pertenecía, los dos ítems críticos fueron el #6 “Linda es cajera” y el #8 “Linda es cajera y militante en el movimiento feminista” como se esperaba, la mayoría (85%) eligió el ítem 8 esto no tiene sentido ya que el conjunto de cajeras contiene al conjunto de cajeras feministas. Las respuestas indicaron que Linda se asemejaba más a la imagen de una cajera feminista que a una cajera típica. Este tipo de razonamiento se conoce como falacia de conjunción.

La noción de heurísticas es de suma importancia en la conversación entre psicología y economía porque influyen en el concepto mismo de racionalidad.

En su articulo “riesgo como emoción” Loewestein et al. (2001) documentaron que las creencias sobre el riesgo son a menudo expresiones de emoción que no se rigen por la lógica de preferencias económicas. Para entender las preferencias, debemos entonces entender la psicología de la emoción.

Heurísticas de Prototipo

Las heurísticas de prototipo comparten un mecanismo psicológico y un patrón de sesgos consistente.

Cuando se ve o piensa sobre un set lo suficientemente homogéneo como para tener un prototipo, la información acerca de el prototipo es accesible automáticamente.

El prototipo de un set tiene las propiedades promedio de las características resaltantes de sus miembros.

Los atributos de extencionalidad están gobernados por la adición condicionada, es decir, cada elemento del set le agrega un valor dependiendo de los otros elementos que el set ya tenía.

Las heurísticas de prototipo están asociadas principalmente con dos tipos de sesgos:

Violación de la función monótona (utilidad marginal decreciente) Añadir elementos al set puede bajar el promedio y bajar el valor total.

List (2002) reportó un experimento confirmando la violación de la función monótona, coleccionistas de cartas deportivas valoraron significativamente más un paquete de diez cartas deportivas etiquetadas como “en excelentes condiciones” que otro paquete, con las mismas diez cartas, y tres más que estaban etiquetadas como “en pobres condiciones” recién cuando los dos grupos se presentaron juntos se valoró más alto al grupo con más cartas.

Desatención a la Extencionalidad: Un incremento en la extensión de una categoría incrementará el valor de sus atributos extensivos, sin modificar los atributos del prototipo.

En un artículo de Kahneman et al. (1993) se expuso a los participantes a dos experiencias, en ambas tenían que meter la mano en agua fría, en la versión “corta” sumergía su mano en agua a 14º centígrados por 60 segundos, la versión “larga” era la “corta” más 30 segundos adicionales donde el agua se calentaba gradualmente hasta 15º centígrados. Cuando se les preguntó cuál experiencia preferían repetir, la mayoría eligió la versión larga, esto se explica porque los episodios se almacenan en memoria de acuerdo a un momento típico, que es determinado por el momento pico (con más dolor) y los momentos finales.

Las limitaciones del pensamiento intuitivo

Los juicios y las decisiones suelen hacerse sin mayor esfuerzo y con éxito razonable. La prevalencia de los sesgos sugiere que la gente no piensa mucho antes de tomar decisiones. La investigación muestra que la toma de decisiones se ve entorpecida por la presión del tiempo, por ejemplo. Se pueden proponer tres principios,

- La toma de decisiones regida por reglas existe

- Pero se restringe a situaciones inusuales

- La activación de estas reglas depende de factores de atención y accesibilidad

En síntesis la característica central de los agentes no es que razonen pobremente sino que a menudo actúan intuitivamente, a menos que la violación a una regla lógica sea evidente es poco probable que la regla llegue a la mente a tiempo para invalidar a la intuición. El razonamiento y la intuición son formas alternativas de resolver problemas, la intuición se asemeja a la percepción, la gente a menudo responde a preguntas dificiles reemplazándolas por preguntas más faciles, el procesamiento de información es, por lo general superficial y las categorías son representadas por prototipos.

Un nuevo modelo de conducta económica: Racionalidad Acotada

Resumen de: Daniel Kahneman, 2003. "Maps of Bounded Rationality: Psychology for Behavioral Economics," American Economic Review, American Economic Association, vol. 93(5), pages 1449-1475, December.

Herbert Simon propuso que las personas deberían de ser vistas como poseedoras de racionalidad acotada donde las decisiones no se toman simplemente para maximizar la utilidad sino también por satisfacción.

Kahneman (2003) propone dos modelos cognitivos. Más o menos correspondientes con las nociones populares de razonamiento e intuición. El razonamiento es lo que hacemos cuando multiplicamos 25 * 34, intuición es lo que sucede cuando dudamos antes de comer una torta de chocolate que tiene forma de cucaracha. El razonamiento se hace deliberadamente y con esfuerzo, mientras la intuición viene espontáneamente, sin búsqueda conciente. A estos sistemas de pensamiento se les da los nombres, más neutrales, sistema 1 equivalente a la intuición y sistema 2 equivalente al razonamiento. El sistema 1 es rápido, paralelo, automático, sin esfuerzo, asociativo, de aprendizaje lento y emocional. El sistema 2 es lento, serial, controlado, con esfuerzo, gobernado por reglas, flexible y neutral.

Una característica fundamental de los pensamientos intuitivos es que vienen espontáneamente a la mente, lo que técnicamente se llama accesibilidad. Los atributos que rutinaria y automáticamente, sin intención o esfuerzo son producidos por el sistema 1 se llaman evaluaciones naturales, son especialmente importantes al momento de juzgar si un estímulo es bueno o malo, para ello hay evidencia conductual y neuropsicológica, un experimento de Bargh (1997) muestra que tan rápido se juzga. A los participantes se le mostraron palabras y se les instruyó que muevan una palanca que oscurecía la pantalla tan pronto la vean. El estímulo eran palabras cargadas emotivamente como amor o vómito, la mitad tenía que estirar la palabra hacia sí mismos y la otra mitad empujarla. La respuesta se iniciaba en una fracción de segundo, mucho antes de que el significado sea registrado concientemente, sin embargo, los participantes eran más rápidos para estirar la palanca hacia sí mismos si la palabra era positiva y empujarla cuando eran palabras desagradables.

En cuanto a la accesibilidad, es un continuo, no una dicotomía, es decir algunas operaciones que requieren esfuerzo, requieren más esfuerzo que otras. La accesibilidad aumenta con la adquisición de habilidad.

Las impresiones que son accesibles en una situación específica están en gran parte determinadas por las propiedades del objeto en sí, por ejemplo si se ve una gran D roja, junto a una pequeña ñ verde, la palabra rojo vendrá a la cabeza más rápido. Por supuesto la notabilidad puede ser vencida por la atención conciente. Una característica de los sistemas preceptúales es que dependen del contexto, por ejemplo, meter la mano en agua fría puede ser placentero si antes se metió la mano en agua incluso más fría.

Bernoulli en 1738 propuso que los hombres razonables tomarán las decisiones que maximicen su ganancia, idea que se mantuvo por mucho tiempo, Kahneman y Tversky construyeron varios experimentos para demostrar que esta afirmación no es verdadera, considérese el siguiente ejemplo:

Problema 1

Aceptarías el siguiente juego?

50% de probabilidades de ganar 150$

50% de probabilidades de perder 100$

La mayoría de la gente lo rechazaría, de hecho la mayoría de la gente recién aceptaría si las posibles ganancias son por lo menos el doble que las posibles pérdidas.

Problema 2

Cual aceptarías?

Perder 100$ con seguridad

o

50% de probabilidades de ganar 50$

50% de probabilidades de perder 200$

En este caso, la conducta de búsqueda de riesgo es más atractiva que una pérdida segura. Se hipotetizó que el cambio de conducta de aversión al riesgo a la de búsqueda de riesgo está ligado a que las actitudes hacia la ganancia y la pérdida son referenciales y no absolutas. La utilidad no puede ser separada de la emoción.

El endowment effect (efecto de la dotación, endow es dotar, dar las cualidades o habilidades) es cuando el valor de un bien para un individuo es mayor cuando el bien es visto como algo que puede perder que cuando se ve como posible ganancia, lo que hace que el valor de venta sea mucho mas alto que el valor de compra.

El efecto de encuadre

La suposición de que las preferencias no se ven afectadas por la forma en que están presentadas las opciones se llama extencionalidad. La extencionalidad se rompe en los efectos de encuadre, por ejemplo en los siguientes problemas:

Se presentaron dos versiones de las mismas preguntas, en la primera decía,

Imagínese que el país se está preparando para una extraña enfermedad asiática que se espera mate 600 personas. Dos programas alternativos se propusieron, las consecuencias exactas de cada uno, estimadas por los científicos, son:

Si se adopta el programa A, 200 personas van a salvarse

Si se adopta el programa B, hay un tercio de probabilidades que 600 personas se salven y 2 tercios de probabilidades de que nadie se salve

En esta versión la mayoría de los participantes eligieron el programa A, indicando aversión al riesgo.

En la segunda versión decía:

Imagínese que el país se está preparando para una extraña enfermedad asiática que se espera mate 600 personas. Dos programas alternativos se propusieron, las consecuencias exactas de cada uno, estimadas por los científicos, son:

Si se adopta el programa A, 400 personas van a morir

Si se adopta el programa B, hay un tercio de probabilidades que nadie muera y 2 tercios de probabilidades de que 600 personas mueran.

En esta versión, la mayoría elige el programa B, la opción de búsqueda de riesgo. Las asociaciones de las versiones son diferentes, es más atractiva la idea de salvar 200 personas que la de dejar morir 400, aunque no represente ninguna diferencia real.

Otro efecto de encuadre es de la opción por defecto, la forma en que está planteada la pregunta afecta la respuesta, ejemplo de esto es la cantidad de donadores de órganos en Europa, en Johnoson and Goldstein (2003) se comparó el porcentaje de la población que pertenecía al programa de donación de órganos en siete países europeos, donde se vieron dos tendencias, cuatro países tenían como la opción por defecto pertenecer al programa, en ellos el porcentaje de personas que entraban era del 97.4%, en los otros tres la opción por defecto era no pertenecer al programa, en éstos el porcentaje era del 18% La diferencia se atribuyó a la aceptación pasiva de la forma en que estaba planteado el formulario.

La imposibilidad de la extensionalidad pone en duda el realismo de los modelos de elección racional, uno de sus grandes errores es que asume que los individuos toman decisiones teniendo en cuenta toda la información relevante así como las expectativas acerca de las consecuencias.

La Mente del Mercado – Capítulo II – Nuestra Economía Popular





El ser humano evolucionó en lo que Shermer llama tierra media, equipado para ver cosas desde milímetros hasta kilómetros, entender el tiempo más o menos en el periodo de expectativa de vida, entender longitudes cuánticas o años-luz, los eones desde el big bang hasta nuestros días nos es más difícil. Por eso no nos es sencillo entender la evolución o el mundo de los negocios, desarrollamos nuestro entendimiento sobre lo que es justo en pequeñas tribus, no en mercados globalizados. Entre las más grandes y peores entendidas metáforas de la historia de la ciencia están, la evolución por selección natural y la mano invisible de Smith. La naturaleza no está seleccionando nada, no es que con el paso del tiempo nos volvimos más humanos como si la humanidad estuviese en el último escalón de la evolución. Los organismos tienen mutaciones aleatorias, algunas hacen que se adapten mejor al ambiente, la mayoría no hace absolutamente nada y con el paso del tiempo se hace evidente cuales mutaciones favorecieron la mayor cantidad de descendencia.

Con la mano invisible de Smith sucede algo similar, no es que de hecho haya una mano que no podemos ver y guía como funciona el mercado, sino que la economía es un sistema emergente, auto-organizado, bottom-up, donde las decisiones individuales de miles de millones de personas genera un sistema predecible con la mínima intervención externa.

En nuestro pasado evolutivo, cuando vivíamos en tribus pequeñas, nadie tenía mucho más que cualquier otra persona y por lo general cuando uno ganaba alguien, otra persona tenía que perder, eso en economía y teoría de juegos se conoce como sistema de suma 0. Es por esto que vemos las inequidades como injustas, los reyes y demagogos tenían mucho, mucho más que el resto de la gente, pero no por motivos precisamente justos. Smith, en su ensayo largo “Teoría del sentimiento moral” dice: “El hombre por más egoísta que pueda suponerse, tiene evidentemente algunos principios en su naturaleza, que le hacen interesarse por la fortuna de los demás, y hacen que su felicidad sea necesaria para él, aunque de ella se deriva nada salvo el placer de verla. De este tipo es la piedad o compasión, la emoción que sentimos nosotros por la miseria de los demás, ya sea cuando es vista, o se la piensa de manera muy vívida. A menudo se deriva tristeza de la tristeza de los demás, es una cuestión demasiado obvia para requerir cualquier instancia para probarlo, porque este sentimiento, como todas las demás pasiones originales de la naturaleza humana, no está ninguna manera confinada a los virtuosos, aunque quizá la sientan con mayor sensibilidad. El mayor rufián, que rompa todas las reglas de la sociedad, no carecerá del todo de ella.”

Síntesis de The Mind of the Market – Chapter 2 – Our folk economics. Por Michael Shermer.

Capitulo 1

La Mente del Mercado - Capitulo I - El Gran Salto




En este libro, Shermer da explicaciones sobre la conducta económica uniendo varios puntos de vista, economía conductual, neuroeconomía, psicología evolucionista y teoría económica de complejidad.

Evolucionamos en un ambiente muy diferente al que nos rodea ahora, en el 90% de nuestra historia los ingresos anuales no superaban al equivalente de 100 al año, las pequeñas tribus tenían alrededor de 300 ítems en total. Hoy en día los ingresos per cápita son de 40000 y hay alrededor de 10 mil millones de ítems disponibles. Lo que se ve como comportamiento irracional ahora, puede haber sido perfectamente razonable hace mucho tiempo.

Una gran malinterpretación del libro de Dawkins “El Gen Egoísta” es pensar que los genes, de hecho, quieren pasar a la siguiente generación, los genes no son egoístas, son genes, no pueden querer nada. Los genes hacen personas que van por la vida con comportamientos que contribuyen a que pasen sus genes a la siguiente generación, los organismos que no tenían esos comportamientos, a los que no les gustaba la comida o el sexo, no dejaron mucha descendencia. Los organismos pueden, y usan, estrategias egoístas en su comportamiento, pero no todo el tiempo, también tiene comportamientos solidarios y cooperativos. Por ejemplo, cuando alguien te da algo, sentís que tenés que darle algo también, nos importa el status, queremos que todos sepan que somos personas morales y confiables.

Los sistemas adaptativos complejos son sistemas emergentes auto-organizados, son ejemplos; la conciencia, el lenguaje y la economía. En economía, los productos pasan por una selección para ver cuales van a “sobrevivir” desde la aprobación de su diseño hasta que de hecho un producto se compra, o no, se lo está seleccionando, por ese lado es auto-organizado. También tiene alguna intervención externa, el estado de derecho es necesario para que el mercado funcione bien, sin embargo eso no significa que todo deba estar regulado. Si la economía está planeada, decía Von Mises, los precios no van a reflejar una relación entre oferta y demanda así es probable que el mercado caiga.

Síntesis de The Mind of the Market de Michael Shermer.
Foto de mehmeturgut

julio 16, 2010

Teoría del Big Bang: Así empezó todo

El Big Bang (gran explosión) es una teoría científica que explica el desarrollo temprano del Universo. Esta teoría indica que el Universo empezó con una singularidad en el espacio-tiempo en el que toda la materia y la energía del universo estaban concentradas en un solo punto, lo que hacía que la densidad de materia sea infinita.

Esta teoría surgió cuando los astrónomos se dieron cuenta de que todas las galaxias del universo se alejaban de nuestra galaxia (Vesto Slipher, 1912), se calculó la relación entre la distancia de una galaxia a la nuestra y la velocidad de su alejamiento (Edwin Hubble, 1929) y concluyendo que en un pasado remoto todas las galaxias estaban mucho más próximas entre sí (Lemaître, 1931). Al aplicar las ecuaciones de la relatividad general de Einstein a este modelo, los resultados definieron un modelo de Universo en expansión, que revolucionó y volvió obsoleto el modelo anterior de Universo estático. Estas fueron fuertes evidencias para la teoría, que en sus inicios recibió una dura resistencia de los cosmólogos no familiarizados con la idea.

Con el paso del tiempo, la teoría recibió más evidencia a favor, lo que hizo que gradualmente fuera aceptada por la totalidad de los científicos. Una evidencia fundamental fue el descubrimiento de la radiación de fondo de microondas en 1964 (fenómeno que ya había sido predecido por Gamow en 1948), que consiste en un tipo de radiación electromagnética que inunda al universo desde su inicio y es resultado de las condiciones extremas que se tuvieron al principio del universo, donde la radiación era tan fuerte que impedía el desarrollo de materia estable; recién después de reducirse la densidad de materia (al expandirse el universo) el universo se "enfrió" y permitió la formación de materia estable.

Un factor que, hasta hace poco tiempo, ignoraban los cosmólogos era el de la velocidad de expansión del universo. La velocidad podía ser constante, acelerada o desacelerada; dependiendo de la cantidad de materia que contiene el Universo. Si el universo contiene más materia que la necesaria para el equilibrio (Universo Supercrítico), la fuerza gravitacional haría que la expansión sea cada vez más lenta y en algún momento en el futuro lejano, la expansión se frenaría y comenzaría producirse lo que se denomina el Big Crunch, que sería un proceso opuesto al Big Bang, donde toda la materia se reuniría de nuevo para formar un nuevo Big Bang. Por otro lado, si el universo contiene menos materia (Universo Subcrítico), la expansión sería cada vez más rápida y las galaxias estarían cada vez más separadas; si ese es el caso, el universo nunca llegará a un fin propiamente dicho pero la vida sería imposible después de alcanzar la "muerte térmica de Universo" cuando ningún proceso en absoluto es realizable.

Como decía, hasta hace poco la velocidad de expansión era desconocida. Uno de los descubrimientos fundamentales de la última década es el de la expansión acelerada; se ha demostrado que el Universo se expande cada vez más rápidamente, sin embargo esto está causado por la existencia de una clase completamente nueva de materia y energía, la materia y energía oscura; cuyas propiedades están siendo estudiadas aún.