DIY y el peligro de los indicadores

16 noviembre, 2012 by in category Técnicas cuantitativas tagged as , , with 0 and 0
Home > Noticias > DIY y el peligro de los indicadores

Últimamente han aparecido gran cantidad de herramientas que permiten que el consumidor de estudios de mercado (habitualmente, los departamentos de marketing) puedan elaborar, por si mismos, sus propias investigaciones. Google Surveys, Survey Monkey, Survey Gizmo, herramientas de monitorización online… son solo algunos de los ejemplos de estas herramientas del llamado Do It Yourself que, en castellano, sería un “Házlo tú mismo”.

Sin embargo, la utilización de estas herramientas por parte de personas no familiarizadas directamente con la investigación de mercados puede llevar, a menudo, a conclusiones equivocadas sobre las cuales se fundamenten también erróneas decisiones. Se podría decir que, viniendo de una persona que vive de la investigación, esta afirmación  es totalmente interesada… Y quizás sea así. Obviamente, las herramientas DIY son un competidor para el que se gana la vida con la investigación de mercados. Pero no hay que esconder que, realmente, un proyecto mal diseñado, o un análisis sesgado de los datos, puede llevar a la toma de peligrosas decisiones empresariales.

Como dice Edward Appleton en uno de sus posts, hay que tener cuidado con las DIY:

Las herramientas sólo son buenas cuando se utilizan de la manera adecuada: la herramienta en si no es el problema. Los peligros del DIY surgen cuando estas herramientas se aplican sin conocimientos sobre investigación de mercados. Si un usuario de DIY no sabe cómo debe funcionar una escala Likert… ¿cómo puede conocer sus deficiencias? La tecnología es, desde un punto de vista ético, neutra; los dilemas morales aparecen cuando esta tecnología se pone en las manos del ser humano. Lo mismo sucede con el software DIY.

La investigación social requiere cierta dosis de expertise para que los resultados que se obtengan no sean inputs erróneos, que desencadenen una nefasta toma de decisiones. No basta tan sólo con el uso del sentido común para conseguir unos datos y, un análisis de éstos, que sean útiles para el cliente. El sentido común es algo que también se aprende.

Appleton nos pone el ejemplo de una ocasión en la que contestó una encuesta de satisfacción del cliente en la que aparecía una escala likert de 5 puntos. Entre éstos no había ningún punto medio (un “indiferente”), y 3 de las categorías mencionadas revestían carácter positivo. Esto provoca un sesgo en el análisis, ya que el encuestado, al no poder marcar una categoría intermedia, se siente forzado a escoger entre dos opciones diametralmente opuestas. Muy probablemente se obtengan unos resultados más positivos en este ejemplo que en una pregunta bien balanceada.

Y es que, las encuestas de satisfacción no son algo que se deba hacer simplemente para que el cliente crea que se tiene en cuenta su opinión. Las encuestas de satisfacción no son una cuestión baladí. Incluso, a menudo, los resultados de éstas llevan al extremo la toma de decisiones.

Resulta muy interesante el ejemplo de las encuestas de satisfacción en los hospitales estadounidenses. Según Adam DiPaula, el gobierno federal destina 1.000 millones de $ al año para sufragar el programa Medicare, destinado a cubrir las necesidades sanitarias de los más desfavorecidos (aunque no se trate de una política demasiado inclusiva: sólo los mayores de 65 años, las personas con algún tipo de minusvalía y los que tienen disfunciones renales pueden acogerse a este programa).

En la asignación de recursos que se destina al Medicare, el gobierno federal establece un baremo que indica la cantidad de dólares que debe recibir cada hospital participante en el programa. Este baremo tiene en cuenta dos dimensiones de la atención médica:

  • la actuación del hospital en función de doce métricas de procedimiento (cuenta el 70% de este baremo)
  • encuestas de satisfacción al cliente, fundamentadas en 27 ítems distintos (30% del baremo)

En función de la puntuación obtenida según este baremo, el gobierno federal asigna más o menos recursos a cada uno de los hospitales. Esta lógica de funcionamiento puede llevar a efectos perversos… los hospitales, compitiendo entre ellos, intentan mejorar los indicadores de satisfacción del cliente que se tienen en cuenta en la encuesta, aunque éstos no sean buenos medidores de la realidad.

Es decir, por poner un ejemplo, un hospital que se vea saturado de pacientes intentará reducir el tiempo medio de hospitalización… quizá mejoren la satisfacción del cliente (tendrá TV gratuita, buenas comidas, buena atención personalizada…), pero la atención médica se puede ver desfavorecida. Tener un paciente contento (o, mejor dicho, que puntúe alto al hospital en la encuesta de satisfacción) no implica necesariamente que éste haya recibido una buena atención médica. Esperemos que ninguno de estos pacientes haya sido dado de alta sin el riñón que le habían prometido trasplantar.

Y es que, a menudo, se toman los indicadores como si fueran la realidad misma. En algunos casos resulta de más interés cambiar el indicador que cambiar la propia realidad. Podría dar numerosísimos ejemplos de esto: la manera como los gobiernos construyen los indicadores del IPC para que éste parezca más bajo de lo que realmente es; el afán de todas las escuelas del mundo para mejorar sus puntuaciones en la encuesta PISA (aunque ésta sólo refleje la dimensión más instrumental del conocimiento); la lógica de convergencia política y social de los países integrantes de la UE, basada en la persecución de objetivos numéricos… En resumen, a mi entender, los indicadores se tienen que tomar como instrumentos para medir la realidad, y no como la realidad en si. Del análisis de los indicadores se tendrían que derivar lógicas más cualitativas que intenten explicar por qué un indicador toma un valor determinado.

Fotografía:  El_Enigma 

Add comment

© 2019 Empirica Influentials & Research