miércoles, 27 de abril de 2011

¿Como investigar el lanzamiento de un producto?

Ante la situación de mercado de disponer de una idea/concepto de producto sobre la que deseamos conocer su viabilidad para su desarrollo y posterior «posible lanzamiento al mercado», los estudios de mercado a realizar vienen condicionados, en principio, a tomar dos alternativas en base al grado de novedad/exclusividad del concepto o producto.
También en el caso de productos novedosos puede ser aconsejable un test de producto o uso encaminado a averiguar si es necesario modificar características del producto (sabor, durabilidad, comodidad de manejo), o si estas características pueden anular en la práctica lo que era una buena idea sobre el papel.
El test de concepto y/o el estudio de consumidor actual deben permitirnos definir, al menos en
líneas generales, a qué segmentos deseamos dirigir el producto y en qué canales podría tener más aceptación por el consumidor.

  • Consumidores de esos segmentos: estudio del mercado potencial que deberá cuantificar cuál es la demanda esperada, con qué sensibilidad al precio debemos contar, en qué canales estarían más dispuestos a comprar nuestro producto (y en cuáles no lo comprarían), etc.
  • Representantes de los posibles canales: estudio al canal, en el que se plantea la posibilidad de comercialización y se pregunta por condiciones, costes, posibilidades, etc.
Si estos estudios arrojan unos parámetros de rentabilidad estimada suficiente, entonces se procedería a diseñar elementos de comunicación (marca, packaging...), que deberán ser convenientemente testados antes del lanzamiento, para asegurar que son acordes con el concepto y con las expectativas del consumidor potencial.

martes, 26 de abril de 2011

Técnicas de recogida de Información

La investigación de mercados, como hemos dicho anteriormente, se ha basado tradicionalmente en soportes cuantitativos independientemente del medio utilizado (personal, telefónico, postal, panel, Internet, etc.). La encuesta estadística estructurada es su máximo exponente y su objetivo es reflejar a través de una muestra estadísticamente representativa la realidad social o económica que sustenta a un mercado concreto.
A efectos metodológicos, las técnicas cuantitativas se basan en agrupar y medir a los individuos muestrales en categorías, en función de variables preestablecidas, tales como pautas de consumo, rasgos sociodemográficos, ejes lógicos de segmentación, etc.
Por tanto, los resultados obtenidos a partir de técnicas cuantitativas se validan exclusivamente con criterios estadísticos, por lo que no son adecuadas para reconstruir las relaciones sociales que subyacen a la medición concreta. En el mejor de los casos, se limitan a describirla. Es decir, no descubren procesos, simplemente los cuantifican.
Pongamos un sencillo ejemplo. Supongamos que se realiza un análisis del mercado turístico en España y una de sus conclusiones descriptivas es que los individuos de núcleos poblacionales de más de 10.000 habitantes escogen con mucha mayor frecuencia la temporada baja como época vacacional de desplazamiento de su vivienda habitual. Con este dato de referencia, a una determinada agencia de viajes podría ocurrírsele una estrategia promocional de este tipo de turismo en municipios pequeños, creyendo haber descubierto un nicho de mercado. Pues bien, supongamos ahora que en los núcleos pequeños la distribución por sectores de actividad incorpora una proporción muy superior de trabajadores en el sector agrícola que en los núcleos grandes, y que la única época en la que pueden desentenderse de sus labores en el campo sea en verano. Si esto es cierto, la agencia que diseñó la campaña promocional fracasaría. Podemos observar que, si bien la investigación es estadísticamente perfecta (puesto que cuantificó adecuadamente las variables), conceptualmente no tiene ningún valor, ya que la relación entre tamaño de hábitat y hábitos de consumo turístico es sólo una relación numérica pero prácticamente diferente.
Ya en los años 70, pero sobre todo en la década de los 80, se empezaron a desarrollar en la investigación social, y específicamente en la de mercados, otro tipo de técnicas complementarias que en ningún caso compiten, o así debería ser, con las cuantitativas, puesto que implican perspectivas diferentes. Se trataría de diversas maneras de observar la misma realidad. La investigación cualitativa extrae las variables motivacionales que configuran los ejes valorativos y de actuación. Por su parte, el análisis cuantitativo mide tales ejes, así como las categorías surgidas y las relaciones entre ellas. En sentido figurado, la investigación cuantitativa mide la parte visible de la luna y la cualitativa explica por qué una parte es visible y la otra no. Explicación y descripción son dos caras del mismo fenómeno. La visibilidad de la luna no implica necesariamente la imposibilidad del estudio de su cara oculta. 
Antes de adentrarnos en las técnicas cualitativas, he considerado interesante incluir una técnica muy utilizada en los últimos años y que adquirirá un importante protagonismo en el marketing del siglo XXI.

También denominado mistery shopper o comprador misterioso es una técnica que consiste en la falsa compra o contratación de un servicio, llevado a cabo por un equipo cualificado de personas especializadas en dicha técnica, con el fin de detectar y valorar una serie de variables concretas definidas anteriormente, en el punto de venta o establecimiento, al solicitar, como un cliente más, una serie de productos o servicios. Dicho modelo permite detectar y evaluar los índices de calidad del servicio (trato, eficacia, profesionalidad...), seguimiento de las directrices emanadas de los manuales operativos, posibles optimizaciones de tareas, influencia del vendedor en la prescripción de marcas, necesidades de formación del personal, etc.
Está cada vez más claro que la demanda es uno de los principales termómetros del negocio. Si hay compradores, hay ventas y, por tanto, hay ingresos para la empresa. Por ello, las compañías deben tener muy en cuenta la calidad de la atención que prestan a sus clientes. ¿Y cuál es la mejor manera de evaluar el grado de satisfacción de una demanda ante la oferta de un producto, un servicio o incluso ante el tratamiento dado por un vendedor en el momento de una compra?: estando en la piel del cliente, y esto se consigue a través de la estrategia del cliente misteriosoo mistery shopping, una herramienta sencilla y muy eficiente a la hora de detectar los posibles fallos en la actividad que uno se propone.
Lo más ventajoso es que no es necesario ser un experto, ni tampoco invertir mucho dinero para poner esta táctica en marcha. ¿Quién no es capaz de reconocer una sonrisa de bienvenida al entrar en una tienda, o una dosis de cordialidad en la despedida? ¿Y quién no se da cuenta cuando un vendedor intenta contestar a las cuestiones que plantea con simpatía, seguridad y agilidad? O bien detectar que el seguimiento no se está realizando como debería ser.
Aunque ocurra por teléfono, en el momento de hablar con la apoderada de un banco, o cuando pedimos información a una agencia de viajes, es posible detectar posibles fallos en la comunicación y en la atención al público, lo que muchas veces puede pasar desapercibido por la rutina diaria, generando posibles perjuicios a medio y largo plazo. Además, la misma evaluación que se hace a su propio negocio también puede ser puesta en marcha en la tienda de al lado, es decir: el mistery shopping es también una gran herramienta para conocer a la competencia y saber sobre sus debilidades, fortalezas, ventajas, etc.
Pero, esas son sólo algunas de las observaciones que se puede hacer con una simple visita a un local de venta al público o con una rápida llamada para, a partir de ahí, trazar estrategias que permitan mejorar los resultados. Sin embargo, lo que se percibe en la práctica es que difícilmente los grandes directivos salen a la calle para conocer a fondo el funcionamiento de la empresa que dirigen. El director general de una compañía aérea, por ejemplo, siempre que viaja por su empresa lo hace como el director general y no como un pasajero más de la clase económica. Así que la idea que se formará del servicio ofrecido no reflejará la realidad vivida por la mayoría de los usuarios. El ideal sería que estas personas viviesen un día como cliente misterioso.
Y esta afirmación es válida en todos los sectores donde existe gran rivalidad competitiva. Hay muchas empresas que venden casi lo mismo, a un precio muy similar. La atención al cliente, junto con la estrategia de marketing y el saber hacer del vendedor son seguramente los grandes elementos diferenciadores que permiten a cualquier empresa ofrecer una ventaja competitiva en un mercado tan homogéneo y atomizado. Pero parece que conceptos básicos como éstos son olvidados, y lo que se percibe en la práctica es justo al revés. Nuestra experiencia nos indica que la estrategia del cliente misterioso ha de realizarse de forma regular y a nivel profesional.
Lo que está claro es que ningún negocio se mantiene dinámico sin su gran protagonista: el cliente, pues para él se crea, se produce y se vende. Por tanto, hay que estar muy atento para que los reyes del negocio no prefieran a la competencia y se conviertan en clientes fieles y prescriptores de nuestra empresa. Seguramente así el mistery shopping ayudará al empresario y directivo a conocer mejor las áreas de mejora que tiene nuestra compañía para conseguir dar respuestas satisfactorias a las necesidades del mercado.

El proceso básico de la encuesta estadística se basa en la relación secuencial pregunta-respuesta. En las encuestas precodificadas, es el investigador el que decide la respuesta, dado que limita sus posibilidades. El entrevistado sólo puede hacer zapping entre las diferentes «cadenas» de respuesta. Como suele ocurrir al encender el televisor, el encuestado decide entre la menos mala de las cadenas o apaga la televisión (lo que traducido a la encuesta equivale a «no sabe/no contesta»). Por ejemplo, es relativamente habitual que al preguntar por las razones de compra de un determinado producto, ninguna de las alternativas propuestas se adecue perfectamente a la realidad del entrevistado, o que varias de ellas encajen, pero sólo parcialmente.
Surgen así las técnicas cualitativas, como una vía de investigación complementaria. Si el objetivo de la investigación cuantitativa es clasificar, agrupar en categorías y medir (en definitiva, describir la realidad), la finalidad de las técnicas cualitativas es analizar el estrato social, o sea, encontrar los «porqués» de esa realidad, o al menos marcarnos las tendencias.
Las técnicas cualitativas más difundidas son los grupos de discusión, denominadas en determinadas ocasiones focus group, y las entrevistas en profundidad. En ambos casos, la recogida de información se traduce en la obtención y posterior análisis del diálogo libre y espontáneo entre un reducido grupo de personas (grupo de discusión) o entre el entrevistador y el entrevistado (entrevista en profundidad).
Obviamente, el límite de estas técnicas es que no existen unidades de medida muestral, de ahí que sean complementarias de las cuantitativas. Su relevancia cada vez mayor en la investigación de mercados radica en que mediante el análisis del discurso de los microgrupos podemos ser capaces de captar los ejes motivacionales que subyacen a las opiniones cotidianas y al comportamiento diario.

A grandes rasgos, una investigación debe incluir una fase cualitativa inicial cuando:
  • No se conocen las variables reales que estructuran el mercado, ni los procesos sociales que lo definen y reproducen.
  • Se utilizan como pretest antes del diseño definitivo del cuestionario. No sólo ayudan a formular correctamente las preguntas, sino que contribuyen a precodificar y cerrar las posibles respuestas en categorías semánticas claras y excluyentes entre sí.
  • Ayudan a controlar y a ponderar los efectos de variables que afectan al resultado de la investigación pero que no son el objetivo de ésta. Por ejemplo, es habitual que el encuestado
    tienda a situarse en torno a los valores centrales del intervalo entre las distintas posibilidades de respuesta, puesto que socialmente es lo que se espera de él (efecto de deseabilidad social). Esto es especialmente cierto en ámbitos moralizados socialmente: sexo, alcohol, etc. pero también en mercados donde determinados productos afectan al estatus del entrevistado.
  • Se utilizan igualmente para desarrollar determinados tipos de test actitudinales o motivacionales.
  • En el análisis de conductas no racionales desde una perspectiva económica (coste/beneficio), las técnicas cualitativas se adecuan mejor para explicar la irrupción de impulsos y las contradicciones grupales.
  • La entrevista en profundidad es especialmente apta para el análisis de casos individuales típicos o extremos, puesto que es aquí donde se encuentran las dimensiones motivacionales en su estado puro. Por ejemplo, pueden ser de gran ayuda para analizar los procesos mentales de consumidores compulsivos.
  • Por su parte, el grupo de discusión tiene una ventaja adicional. En el desarrollo del propio grupo, suelen representarse los distintos roles sociales: líder de opinión, creativo, escéptico, reforzadores, etc. La relación entre la dinámica surgida y la evolución del discurso en su contexto es lo que debe reflejar el microcosmos a partir del cual se extraerán las dimensiones fundamentales.
Conviene puntualizar que estas técnicas poco tienen que ver con ciertas dinámicas de grupo que se realizan a nivel interno de empresas, tales como las «tormentas de ideas», cuya finalidad es exclusivamente la de producir ideas, con lo que no requieren un análisis específico, más allá del resumen o de la extracción casi literal de tales ideas.

La realización de los grupos de discusión se caracteriza por cierta flexibilidad. A continuación mencionaremos brevemente algunos requisitos básicos de funcionamiento.
El moderador, figura indispensable para la realización, introducirá el tema de manera concisa y clara, pero evitando opinar. Es relativamente frecuente incluir un guión manejado exclusivamente por el moderador denominado técnicamente «guía de tópicos», en el que estarán incluidas todas aquellas variables sobre las que el grupo tendrá que debatir con entera libertad.
El grupo debe estar formado por un número de personas que puede oscilar entre 6 y 10 individuos.
Los integrantes no deben conocerse previamente, al objeto de evitar alianzas surgidas de ámbitos ajenos a la propia discusión.
Si es posible, tampoco deben conocer con antelación el objetivo de la investigación, puesto que podrían formarse opiniones o valoraciones preconcebidas. Una descripción aséptica y genérica de tal objetivo debe ser suficiente.
Las condiciones de la sala serán agradables. Los integrantes del grupo se sentarán alrededor de una mesa sin que existan relaciones de prevalencia entre ellos, ni siquiera del moderador. Una mesa redonda se adecua perfectamente a este fin.
La duración de la reunión también es flexible. Como criterio orientativo, suelen girar alrededor de una hora y media. La información suele ser grabada en cinta o televisión y es transcrita posteriormente de manera literal. La grabación, que en un primer momento puede coartar a los individuos, es fundamental puesto que la realización en un «acta» o resumen no tendría ninguna utilidad a efectos analíticos. En el momento de introducir el tema a discutir, el moderador explicará los criterios que hacen necesaria la presencia del casete o televisor.

lunes, 25 de abril de 2011

¿Cómo Investigar?

Estudios preliminares
Los estudios preliminares tienen como objeto sentar las bases del futuro trabajo.

En principio, realizamos un análisis de la situación, manejando toda la información disponible para obtener una panorámica completa de la organización acerca de:
  • La empresa y el sector. Su evolución, productos con los que opera, su importancia en el sector, problemas que ha tenido en otros tiempos, soluciones que se aportaron, etc.
  • El mercado y los clientes. Análisis sobre la distribución geográfica del mercado, variaciones estacionales de la venta, tipología de la clientela, etc.
  • Organización comercial. Canales de distribución que se siguen, rendimiento de la red de ventas, márgenes con los que se opera, descuentos ofrecidos, bonificaciones, etc.
  • Posicionamiento en la red, motivado por la gran importancia que la red aporta a las compañías; habrá que realizar un informe comparativo de su situación con respecto a la competencia, tanto en el mercado nacional como en el internacional, aunque no estuviese implantada.
  • Etcétera.
Para realizar un completo y exhaustivo análisis de la situación hemos de obtener un «histórico» con los datos mencionados anteriormente; esto significa que deberemos contar con información de los tres o cinco años anteriores, dependiendo del grado de rigor y profundidad que deseemos implementar al estudio. 

Investigación preliminar
Este trabajo se realiza desde la propia oficina, sin tener necesidad de salir a la calle; no siempre tiene que ser exhaustivo, ya que el conocimiento de la empresa y los estudios anteriores que se han realizado o se vengan realizando periódicamente son suficientes para permitirse pasar a posteriores fases.
No obstante, en caso de duda o no utilidad, debe realizarse de nuevo a partir de bases correctas y actuales.
Conviene que los responsables de la realización de los cuestionarios e informes mantengan conversaciones y entrevistas a diferentes niveles, no sólo para descubrir nuevas hipótesis, sino para confirmar los puntos estudiados anteriormente. Con esta segunda subfase quedan fijadas claramente las directrices que habrán de presidir la ejecución del trabajo.

Puede parecer que el reconocimiento de los problemas de marketing es bastante sencillo; la experiencia nos demuestra que es una de las tareas más difíciles con que se encuentran los directivos, ya que hay que saber aceptar que no siempre se puede captar toda la información y que el director técnico del instituto de investigación difícilmente dispone de la bolita de cristal mágica, como a veces se le pide. Sólo conociendo previamente cuáles son los problemas, puede empezarse a pensar en la forma de estudiarlos y, como consecuencia, en solucionarlos. El reconocimiento, formulación y concreción de los problemas es ni más ni menos la misión de los estudios preliminares realizados. Una vez efectuados dichos análisis, se está en condiciones de decidir el alcance del estudio y definir los objetivos o metas del trabajo que se va a realizar.


Fuentes de datos
La labor previa a toda investigación debe ser siempre el análisis y recopilación de toda la información que se pueda obtener en relación con los problemas que se pretenden investigar, aunque en el
mercado existe una serie de informes monográficos, datos estadísticos, estudios de organismos públicos y asociaciones, etc. que están a disposición del analista, que constituyen una fuente muy valiosa y que en la mayoría de los casos no se suelen utilizar, a pesar de la inmediatez con que se consiguen, amén de la información que puede obtenerse en la red, que día a día aumenta exponencialmente.
Una vez elegidas las posibles fuentes de datos, hemos de valorarlas, teniendo en cuenta los siguientes aspectos:
  • Grado de fiabilidad.
  • Origen de la fuente.
  • Grado de obsolescencia.
  • Validez contrastada.
Las fuentes de datos las podemos dividir en internas y externas. Internas son aquellas cuya información obtenida emana de la propia empresa. Éste es el caso más favorable para los equipos investigadores, ya que la actualización permanente de los datos que posee la propia empresa es una valiosa fuente de información. Externas son aquellas que provienen de diferentes organismos ajenos a la empresa, publicaciones, Internet, etc.
A continuación indicaremos, a título de ejemplo, una serie de publicaciones y estudios cuyo contenido informativo es necesario tener en toda empresa española.
  • Anuarios de entidades de crédito.
  • Anuario de El País.
  • Informes sectoriales ICEX.
  • Información de las Cámaras de Comercio.
  • Informaciones puntuales de las diferentes comunidades autónomas.
  • Asociaciones profesionales.
  • Diferentes medios de comunicación social, off y on line.
  • Buscadores y portales de Internet, Google, Yahoo, MSN, etc.
  • Etcétera.
Diseño de la muestra
Si hemos decidido realizar la investigación de mercados utilizando una encuesta, debemos definir la muestra. Es evidente que para cualquier empresa que se proponga conocer cuántos son los hogares de una pequeña localidad que poseen Internet y televisión digital, el procedimiento que se seguirá será sencillo: consistirá en preguntar a los 400 ó 500 hogares de esa pequeña localidad. Pero lo que toda compañía desea, por lo general, no es disponer de esos datos locales, sino los relativos a toda España o a una amplia zona geográfica, y este dato sería imposible de averiguar si para ello hubiera que preguntar a todas y cada una de las familias. De ahí la necesidad de definir la muestra.
Sin embargo, estas informaciones pueden obtenerse con relativa facilidad. ¿Cómo? Se tendrá en cuenta no a todos los hogares, sino a una muestra relativamente pequeña de los mismos; lo que se hace, pues, es sustituir el universo que se quiere estudiar por una muestra que lo represente. La cuestión que ahora puede plantearse es la obtención del grado de fiabilidad de la encuesta. Si la muestra está bien elegida y es suficientemente amplia, ésta será representativa. Además, es necesario atender al método mediante el cual se elige físicamente la muestra:
  • Muestreo aleatorio o probabilístico.
  • Muestreo no aleatorio u opinático puro.
Muestreos aleatorios
Como su nombre indica están basados en el azar. Exigen para su utilización la existencia de una relación numérica de los elementos que componen la población. Se caracterizan porque todos los elementos tienen siempre la misma probabilidad de resultar elegidos. Supongamos que se trata de un conjunto de 1.000 elementos y que la muestra va a ser de 100 elementos. Entonces cada uno tiene el 10 por 100 de probabilidad de ser elegido para formar parte de la misma. Se comenzará por enumerar la relación de elementos y una vez hecho esto se elegirán al azar 100 números que nos determinarán la muestra. ¿Cómo elegirlos? En principio, pensar en cualquier procedimiento es bueno; pero en la práctica para que las muestras sean representativas se utilizan las denominadas «tablas de números aleatorios».
Este tipo de muestras presenta ciertos tipos de inconvenientes. Por eso, cuando el número de elementos que constituye la población es elevado, este proceso lleva consigo un esfuerzo considerable. El mecanismo operativo se puede simplificar procediendo a una elección «sistemática», que consiste en lo siguiente: si conocemos el llamado coeficiente de elevación, que se consigue dividiendo el número total de elementos de la población que se quiere estudiar por el correspondiente al de la muestra, el resultado que nos dé será el límite superior para seleccionar al azar un número entre este cociente y la unidad, quedando fijado entonces como el primer seleccionado. A continuación, a este número se le suma el coeficiente de elevación y el número obtenido es el segundo elemento, y así sucesivamente.
Explicación gráfica:
Coeficiente de elevación Ce =

A continuación se elige al azar un número entre la unidad y el Ce.
1, .............................................. X .............................................., Ce
1.erseleccionado = X
2.° seleccionado = X + Ce
3.erseleccionado = 2.° + Ce
4.° seleccionado = 3.° + Ce
5.° seleccionado = 4.° + Ce

Muestreos no aleatorios
El muestreo no aleatorio, llamado «opinático puro», consiste en la elección de una muestra según el juicio del equipo investigador. Naturalmente, la calidad del muestreo no puede valorarse ni a priori ni objetivamente, pues depende de los criterios utilizados para escoger a los componentes de la muestra. A veces, razones de economía y rapidez lo hacen aconsejable. En ocasiones se completa el muestreo con el denominado «sistema de cuotas», que consiste en realizar cierto número de encuestas entre cada uno de los distintos grupos en que se divide el universo. Así, se puede exigir que haya «X» entrevistas a familias que tengan dos hijos, «Y» entrevistas a familias cuyos padres vivan con ellos, etc. Esas especificaciones se determinan teniendo en cuenta las características conocidas del universo.
Dentro de este apartado, tenemos el muestreo denominado «semialeatorio», consistente en la obtención al azar de ciertos grupos del colectivo para dejar, a criterio del entrevistador, la elección del elemento que se va a elegir.
Un muestreo, bastante utilizado en las entrevistas y que según algunos autores puede resultar prácticamente aleatorio, es el denominado «muestreo por rutas», en el que partiendo de unos puntos determinados (calle, número...), los agentes van siguiendo su itinerario y efectúan las entrevistas de acuerdo con un ritmo (por ejemplo, cada 10 edificios) y unas normas (para la elección de viviendas). Una variante de muestreo no aleatorio, que suele utilizarse frecuentemente en determinados casos, son los focus groups o «grupos de discusión», cuya importancia en determinados estudios va en aumento.

Tamaño de la muestra
La muestra es el número de elementos, elegidos o no al azar, que hay que tomar de un universo para que los resultados puedan extrapolarse al mismo, y con la condición de que sean representativos de la población. El tamaño de la muestra depende de tres aspectos:
  • Del error permitido.
  • Del nivel de confianza con el que se desea el error.
  • Del carácter finito o infinito de la población.
Las fórmulas generales que permiten determinar el tamaño de la muestra son las siguientes:
  • Para poblaciones infinitas (más de 100.000 habitantes):

  • Para poblaciones finitas (menos de 100.000 habitantes):

n =
Z2 x P x Q x N
E2 (N - 1) + Z2 x P x Q


Leyenda:
n = Número de elementos de la muestra.
N = Número de elementos del universo.
P/Q = Probabilidades con las que se presenta el fenómeno.
Z2 = Valor crítico correspondiente al nivel de confianza elegido; siempre se opera con valor sigma 2, luego Z = 2.
E = Margen de error permitido (a determinar por el director del estudio).
Cuando el valor de P y de Q no se conozca, o cuando la encuesta se realice sobre diferentes aspectos en los que estos valores pueden ser diferentes, es conveniente tomar el caso más favorable, es decir, aquel que necesite el máximo tamaño de la muestra, lo cual ocurre para P = Q = 50, luego, P = 50 y Q = 50. En mi larga trayectoria profesional siempre he visto los valores P x Q como 50 x 50.
Para facilitar el cálculo del tamaño de la muestra suelen utilizarse las tablas, incorporadas en los anexos I y II al final del capítulo, cuyo uso viene dado por el fácil método del eje de coordenadas.

Elaboración del cuestionario/guía de tópicos

Conocidas las fuentes donde van a buscarse los datos, se elabora el cuestionario teniendo en cuenta las características de la fuente elegida. Es ésta una cuestión de suma importancia, pues una adecuada realización del cuestionario puede eliminar, o al menos reducir, muchas de las causas que ocasionan fallos en una encuesta.
El cuestionario no sólo debe permitir una correcta plasmación de la información buscada, sino que también tiene que ser diseñado de tal forma que facilite al máximo las posibilidades de un tratamiento cuantitativo de los datos recogidos, ya que en los estudios cualitativos se denominan guías de tópicos. Es decir, hay dos aspectos que se deben tener en cuenta:
  • Por un lado, el cuestionario es el punto de encuentro, en la relación de comunicación, entre el entrevistador y el entrevistado. De ahí la importancia de que el cuestionario posibilite una corriente de comunicación, fácil y exacta, que no dé lugar a errores de interpretación y permita cubrir todos los objetivos.
  • Por otra parte, el cuestionario es un formulario, es decir, un impreso en el que se registran datos e información, por lo que en su elaboración se definen ya los códigos de tabulación y el formato, de manera que la labor del procesado de datos resulte simple. Asimismo, la experiencia aconseja que se aproveche la realización de los «pretest» o encuestas piloto para probar el cuestionario diseñado, incluso después de los estudios necesarios.
Un buen cuestionario debe tener las siguientes propiedades:
  • Claridad del lenguaje. Hay que procurar términos que sean suficientemente claros, lo que evitará errores de interpretación.
  • Respuestas fáciles. Para evitar incorrecciones como consecuencia de la fatiga, hay que elaborar preguntas cuyas respuestas no supongan gran esfuerzo mental.
  • Evitar, en lo posible, preguntas molestas. Si a pesar de ello es preciso realizarlas, conviene introducir al entrevistado en el espíritu de la encuesta.
  • No influenciar la respuesta. Hay que dejar entera libertad a la hora de elegir la respuesta, sin influir de ninguna forma al entrevistado.
Dentro del cuestionario, se pueden realizar diferentes tipos de preguntas:
  • Abiertas y cerradas. Abiertas son aquellas en que el entrevistado puede dar libremente su respuesta. Por el contrario, en las cerradas el entrevistado debe elegir una o varias.
  • Preguntas para ordenar. En ellas se pide al entrevistado que según su criterio coloque por orden los términos que se le indican.
  • Preguntas en batería. Constituyen un conjunto de cuestiones o interrogantes que, en realidad, forman una sola pregunta, con el objetivo de obtener una respuesta concreta.
  • Preguntas proyectivas. Se pide la opinión al entrevistado sobre una persona, marca o situación que se le muestre.
  • Preguntas de control. Sirven para proporcionar una idea de la verdad y sinceridad de la encuesta realizada, es conveniente incluir una o dos en todo cuestionario. En el caso de detectar en las preguntas de control falsedad de criterio, se ha de proceder a la eliminación de todo ese cuestionario.
En el anexo III se recoge un modelo real de la encuesta que sirve para evaluar el nivel de satifacción de una empresa y sus productos.

Trabajos de campo
Los trabajos de campo están dentro de la fase en la que se realizan las entrevistas. Como comentamos anteriormente, es muy frecuente hacer, antes de los trabajos de campo propiamente dichos, una encuesta piloto que sirve para probar tanto el material de trabajo (cuestionarios, direcciones, instrucciones...) como la organización general y el grado de aptitud y de entrenamiento de los agentes entrevistadores. Para ello es necesario disponer de un personal eficiente y preparado: entrevistadores, jefes de grupo y supervisores o inspectores.
Estos miembros del equipo investigador deben ser entrenados para cada investigación, pues su influencia en los estudios es enorme, hasta el punto de que por muy planteada y dirigida que esté una encuesta, si no se dispone del personal competente para efectuar los trabajos de campo, los resultados pueden desvirtuarse. Es ésta una opinión avalada por la experiencia y muy generalizada entre los autores que hemos consultado.
La selección y reclutamiento de este personal, que frecuentemente carece de auténtica profesionalidad, debe ser cuidada al máximo. ¿Qué requisitos y personalidad deben exigirse? ¿Cómo tiene que ser un entrevistador?
Hay muchas características que dependerán del tipo de estudios que se vayan a realizar. Así ocurre con las relativas a la edad, preparación técnica y cultural, etc.; sin embargo, existen algunas peculiaridades de las que difícilmente podrá prescindirse:
  • Tipología metódica y ordenada. Deben saber captar detalles sobre la veracidad y seriedad del entrevistado, así como otros factores externos.
  • Sinceridad. Su trabajo es siempre algo libre, y la sinceridad y responsabilidad son importantes a la hora de puntuar a los posibles candidatos.
  • Activo. Debe cumplir su cometido valiéndose por sí mismo. No se trata de que estén ocupando cierto número de horas, sino de que sean capaces de alcanzar sus objetivos.
  • Presencia positiva. Su aspecto ha de ser agradable.
  • Capacidad de adaptación. Su trabajo se realiza en medios diferentes.
Los entrevistadores son dirigidos por jefes de grupo que, a veces, son entrevistadores veteranos. Se recomienda un jefe de grupo para cada cinco agentes encuestadores, aproximadamente, y su misión consiste en acompañar a los encuestadores en algunas entrevistas para verificar la calidad de su trabajo y corregirlos en caso necesario, así como efectuar aquellas visitas más difíciles y delicadas y, finalmente, proceder a una primera revisión de los formularios.

Trabajos finales

Recepción y depuración de cuestionarios
Una vez que los cuestionarios llegan al departamento técnico, se supervisan uno a uno en la fase denominada «depuración», que tiene como misión asegurarse del comportamiento y la conducta que mantuvo el entrevistador, así como la del entrevistado y comprobar que ambas han sido correctas, y por tanto no han dado lugar a fallos que ocasionarían errores en las estimaciones. La conducta de los entrevistadores puede resultar incorrecta por alguna de las siguientes causas (variables contaminadoras):
  • Por la no realización de algunas de las entrevistas, cumplimentando los cuestionarios falsamente.
  • Las entrevistas se realizan, pero sólo se hacen las preguntas claves, de tal manera que una vez conocida la postura general del entrevistado, las restantes cuestiones son cumplimentadas por el entrevistador.
  • Las entrevistas se han hecho pero no a la persona adecuada.
Para disminuir la posibilidad de que sucedan estas cosas, el supervisor o jefe de equipo debe repetir algunas de las entrevistas y comprobar que todo se hizo correctamente, así como aclarar cualquier detalle que esté incompleto o induzca a error. Si se comprueba la falsedad total o parcial de un cuestionario, se han de revisar todos los efectuados por el mismo agente. Una vez depurados los cuestionarios, el supervisor estampará su visto bueno en todos para someterlos a la tabulación.

Codificación y tabulación
El proceso de tabulación consiste esencialmente en el tratamiento informático de los datos contenidos en los cuestionarios. Sin embargo, también se incluyen en este proceso todas aquellas operaciones encaminadas a la obtención de resultados numéricos relativos a los temas de estudio que se tratan en los cuestionarios.
La tabulación puede ser tratada de forma manual o informática. Aunque la primera está totalmente en desuso, se efectúa a nivel particular o cuando el cuestionario es reducido y se realiza mediante el punteo o simple recuento de los datos. Se debe tabular informáticamente, ya que la información que se recoge en las encuestas es muy amplia y exige, para su eficaz utilización, la realización de múltiples clasificaciones combinadas entre variables.
En todo caso, el proceso de tabulación requiere una previa codificación de las respuestas obtenidas en los cuestionarios, es decir, la traducción de los cuestionarios a una clave numérica. El momento más adecuado para elaborar este plan de procesamiento de datos es al elaborar el cuestionario, ya que de esta forma se evita la posibilidad de que surjan cuestiones que no puedan ser correctamente tratadas por falta de preguntas adecuadas o de difícil tabulación.

Informe final
L. Brown dice sobre este tema:
«Los investigadores pueden dedicar un tiempo considerable y mucho dinero de la firma para llevar a cabo una tarea, estar entusiasmados porque los resultados apuntan claramente hacia conclusiones importantes. Dedicar mucho esfuerzo para producir un informe realmente valioso. Los resultados se envían al principal directivo de la empresa y el analista espera los comentarios. Luego se le llama y se le pregunta: ¿Quién leyó el borrador de este trabajo?, he encontrado tres errores de ortografía en el informe. Cuando uno ha tenido experiencias similares a ésta, comienza a apreciar la importancia que el ejecutivo da a la presentación de los resultados.»
La triste reacción del directivo es lo que hay que evitar a la hora de presentar un informe final o cualquier otro tipo de estudios, ya que en la mayoría de los casos la efectividad de un informe se juzga por la habilidad con la que se haya escrito y presentado el mismo, olvidándose del planteamiento y la ejecución adecuados.
Algunas veces las presentaciones son demasiado largas, otras, muy cortas; a veces se abusa de gráficos, por ello e independientemente de a quién vaya dirigido el informe se han incluido las principales características que deben servirnos para presentarlo:
  • La portada debe dar a conocer el tema sobre el que versa el informe, para y por quién ha sido preparado, así como la fecha en la que se ha terminado (mes y año solamente).
  • En la introducción se explicarán los motivos por los que se ha llevado a cabo la tarea, el objetivo previsto en el estudio, así como el equipo que ha colaborado.
  • El cuerpo del informe comenzará con una exposición de los problemas que se van a investigar y las hipótesis sobre las cuales se apoyará la investigación. A continuación, se describirán los métodos empleados, fuentes de información, forma de establecer la muestra, tipo de cuestionarios y el número y clase de investigadores que participen.
  • Los resultados se presentarán en tablas y gráficos que expliquen las relaciones existentes entre las diversas variables analizadas.
  • A continuación se indicarán el resumen final y las conclusiones, para añadir con posterioridad las recomendaciones, indicándose las acciones y normas que se deberán seguir a la vista de los resultados obtenidos.
  • Por último, se proporcionarán el apéndice y la bibliografía.
  • La presentación puede ser indistintamente en Power Pointo Word.
  • Es aconsejable entregarlo en soporte papel y en USB.

sábado, 16 de abril de 2011

Algo de internet para la investigación de mercados

Internet es una herramienta muy útil para la investigación de mercados desde el momento en que facilita una relación inmediata con los posibles informantes (encuestados, panelistas, etc.), independientemente de la ubicación geográfica del investigador y del informante.
Bien empleada, esta herramienta puede aportar una reducción de costes y de plazos de ejecución en los estudios de mercado. Las empresas se enfrentan a una nueva revolución en la forma en la que vienen llevando a cabo su actividad, tanto en lo referente a nuevos productos y servicios ofrecidos como en la novedosa manera de plantearse las relaciones comerciales y profesionales con los clientes.
El sector de investigación de mercados en EE UU ha sido sensible a estos cambios significativamente antes que en Europa, llevando claramente el liderazgo mundial en materia de investigación on line. Sólo hay que saber que a nivel global en 2008 facturó un 20 por 100 del total de la industria.
La integración de todos los procesos de la investigación tradicional (diseño de cuestionario, recogida de datos, tratamiento estadístico y presentación de resultados) en un nuevo medio interactivo va a renovar la manera de actuar con el cliente y el servicio que se le preste. Además el móvil conectado a Internet apunta como un medio de investigación con grandes posibilidades.
Aunque en España es una actividad poco madura, consideramos como referencia tres utilizaciones básicas de Internet en investigación:
  • Panel de informadores. Un grupo amplio de informantes (consumidores, especialistas, televidentes, etc.), previamente seleccionados y reclutados para el estudio, nos proporciona la información que deseamos, bien por correo electrónico bien a través de una página web. Una de las principales preocupaciones del sector respecto a los paneles on line hace referencia a los profesional respondents (panelistas dispuestos a contestar muchas encuestas al mes –hasta 10 encuestas al mes en algunos casos–, y con ello ganarse un sobresueldo).
  • Cuestionario «colgado» en la red. Situamos un cuestionario en una página web y provocamos la respuesta voluntaria incentivándola con algún tipo de compensación. La ubicación del cuestionario y los links que se contraten para provocar su visita son fundamentales para seleccionar el tipo de informante deseado y obtener un número alto de respuestas.
  • Envío de cuestionario por e-mail. Si se dispone de un fichero de direcciones electrónicas de personas o empresas que deseamos que respondan a nuestro estudio, el correo electrónico puede sustituir a la encuesta postal clásica. Es importante que los informantes a los que se envíen los cuestionarios hayan sido preavisados o hayan aceptado previamente la participación en la encuesta. (El envío masivo y «ciego» de cuestionarios por e-mail puede ser considerado una práctica de spam).
Las principales ventajas de la investigación a través de Internet son:
  • La falta de intermediario entre el cuestionario y el entrevistado hace que los sondeos sean más objetivos. En principio, es un método más barato.
  • La interactividad del cliente con el instituto será mayor, ya que se evita el condicionante del entrevistador, imprimiendo incluso mayor rapidez en el tratamiento de las respuestas y su posterior tabulación.
  • Precio. Los costes, en general, son más reducidos.
  • Rapidez en la recogida y análisis de datos.
  • Internacional. Las encuentas on line facilitan una ejecución de proyectos internacionales.
Los principales inconvenientes de la investigación a través de Internet son:
  • La dificultad de acceso a determinados tipos de informantes entre los cuales aún no está extendido su uso.
  • La dificultad en controlar la selección de informantes (por ejemplo, evitar que la misma persona conteste varias veces a la encuesta, asegurar que la persona que ha respondido es la adecuada, etc.).
Hay –por último– un tipo de estudios que consideramos más «investigaciones sobre Internet» que investigaciones basadas en Internet. Nos referimos a los estudios de audiencia de páginas web, a los estudios sobre perfiles y comportamientos del internauta (tiempos medios de visita, tipos de información requerida, etc.).

miércoles, 13 de abril de 2011

Que entendemos por investigación geográfica

Sigue siendo una herramienta de investigación novedosa, y cada vez más extendida en la actualidad, utilizada con éxito en el marketing comercial y político. A través de un sistema de información geográfica (SIG) podemos saber dónde situar unas nuevas oficinas bancarias, tiendas en régimen de franquicia o captación de votos hacia un determinado partido, según la renta que tienen los habitantes, la cilindrada de sus coches, su edad, el voto realizado en las últimas elecciones y cualquier otro dato disponible en las estadísticas.
Entonces, ¿cómo podríamos definir el SIG? Es una base de datos que contempla informáticamente una componente geográfica de información. Al utilizarla trabajamos con mapas que tienen unas bases de datos asociadas a los mismos. Cada dato se sitúa reflejado como un punto dentro del mapa que aparece en la pantalla del ordenador; los ejes de las calles y las carreteras son líneas que determinan una zona que nos da toda la información que se encuentra dentro de ella, a partir de ahí podemos marcar las diferentes estrategias de marketing. Algunos autores lo denominan también como geomarketing.
Con los estudios cualitativos podemos conseguir un buen retrato de las tendencias del mercado, pero con los SIG los datos disponibles nos pueden facilitar su ubicación; esto permite ofrecer una clara ventaja competitiva, ya que su forma de tratar los datos la convierte en una herramienta que no es fácilmente imitable.
Con este sistema de información, el control y el análisis de la información que ya tienen mejora ostensiblemente la gestión de la empresa; ahora bien, no hay que olvidar que vivimos un cambio radical en las orientaciones del marketing y cada vez más se precisan herramientas más flexibles, fáciles de comprender y trabajar; aquí es donde los SIG están adquiriendo un importante protagonismo por las múltiples utilidades que se pueden obtener.
El principal objetivo que se tiene entonces es conocer cuáles son las necesidades específicas de información del cliente, determinar su urgencia, su importancia, establecer una jerarquía y, conforme a ella, actuar.
Una constante en este libro será ver varias veces que nos hemos alejado del marketing de masas y acudimos cada vez más a la segmentación del mercado o micromarketing, muchas empresas están intentando dar respuestas a estos interrogantes pero pocas de forma profesional y seriamente.
Las principales compañías coinciden incluso en denominar esta técnica tipología mosaic refiriéndose a los mercados potenciales de las empresas que han valorado las zonas, calculando áreas de influencia, estableciendo áreas por su potencial, jerarquizando provincias, etc., de manera acorde a diferentes criterios y dentro de más de 40 tipos diferentes de clientes.
  • Mayor precisión y eficacia en las estrategias de marketing.
  • Disminución de riesgo en la toma de decisiones que conlleve la ubicación física como elemento referencial.
  • Evaluación física del mercado actual.
  • Evaluación física del mercado potencial.
  • Colocación de un producto en un segmento elegido.
  • Optimización de vendedores, puntos de venta y rutas de venta y gestión CRM.
  • Nuevos mercados a través de la gestión del tráfico.
  • ¿Qué hay en...? Localización de los elementos que estudiamos: pueden ser puntos de venta, clientes, almacenes, centros de asistencia, etc.
  • ¿Dónde se encuentra...? Buscamos un lugar o un elemento que reúna una serie de condiciones. Por ejemplo, dónde se encuentran mis clientes que son menores de 25 años.
  • ¿Qué ha cambiado desde...? Es un análisis de tendencias, vemos las diferencias que se dan en una zona a lo largo del tiempo.
  • ¿Qué patrones de distribución espacial existen...? Se podría estudiar si consumen más los clientes que viven a menos de 100 metros de un centro comercial.
  • ¿Qué sucede si...? Buscar modelos y estudiar si son válidos cuando ocurre un hecho determinado.
  • ¿Qué ruta debo coger? Tanto en ciudad como en carretera, hoy ya estamos habituados a conducir con navegador.
  • Etcétera.

 

Hace unos años el motivo de la compra se basaba en la funcionalidad del producto, ya que venía a cubrir una necesidad. Actualmente la componente emocional de la compra es decisiva. Esto nos lleva a situaciones en las que un producto que cubre iguales necesidades se diferencia para dirigirse a distintos grupos de clientes. En este tipo de política un marketing masivo no es eficaz. Por otro lado, la gran cantidad de medios de comunicación que existen hoy en día hace que los expertos en marketing tengan su trabajo más difícil.
Como consecuencia de todo esto las bases de datos se han convertido en compañeras imprescindibles de los analistas de mercado.
Definir un mercado objetivo para un producto implica identificar consumidores con necesidades similares, pero será necesario tener en cuenta cuántos grupos homogéneos componen ese mercado, y qué microzonas ocupan. Con un SIG localizo a mis clientes, puedo diferenciar dónde están mis centros de venta y qué zonas ocupan los habitantes con el mismo perfil de mis clientes. Con esta información la ubicación de un nuevo
Las bases de datos de las empresas están compuestas de datos internos y externos, presentes y futuros, planificados y reales. El 80 por 100 de estos datos tienen una componente geográfica. La utilización de un SIG termina con las consultas a grandes listados y los mapas con chinchetas. El acceso a la información se realiza de una forma más clara y rápida.
Realicemos un repaso de los datos que tenemos dentro de las empresas y qué tipo de análisis se podría realizar con ellos. En primer lugar los clientes: dónde están, quiénes son, o localización de un segmento específico de población, por ejemplo. El protagonismo del término CRM (Customer Relationship Management) o gestión de las relaciones con el cliente, nos vienen a confirmar que los SIG son imprescindibles para la tarea comercial.
También son susceptibles de estudio los puntos de venta: dónde están, análisis para detectar los huecos de mercado, eliminación de los puntos menos rentables, apertura de nuevos centros, o estudio del acceso a los puntos de venta.
Al estudiar la red de ventas podemos zonificar el mercado, controlar y analizar las visitas, controlar los gastos, estudiar históricamente las zonas, realizar nuevas asignaciones de zonas, etc.
De los datos de volumen de ventas se puede realizar un análisis de ventas por zonas, un análisis de ventas por puntos de venta, por vendedor, planificar y controlar campañas de promoción, etc.
En la red de asistencia localizaremos inmediatamente los medios propios, los clientes o las rutas óptimas de asistencia.
Para la distribución utilizaremos el SIG en control y planificación de rutas, control de gasto o en la localización del producto en el mercado.
Al analizar el posible uso de los SIG en la empresa podemos ver que se están asentando en sectores en los que hasta ahora se han utilizado otros métodos de trabajo:
  • Sector bancario. Localización de red de sucursales en función de las características de la población. Estudio de modelos de mercado potenciales. Estudio de riesgos en la gestión de seguros. Seguimiento de inversiones y de los resultados del mercado bancario en su dimensión territorial.
  • Sector de estudios de mercado. Segmentaciones de mercado, distribución territorial de la población y de sus características socioeconómicas.
  • Sector sanitario. Seguimiento de estudios epidemiológicos. Planificación de la red de asistencia sanitaria en relación con la población que habita una zona. Análisis de la distribución geográfica de los perfiles sanitarios de la población.
  • Sector logístico. Gestión de flota. Planificación y optimización de rutas. Determinación de centros de distribución. Posicionamiento de puntos de venta y análisis de itinerarios de recogida y suministros. Control de los envíos.
  • Sector de las telecomunicaciones. Planificación de las redes de telefonía móvil, análisis de cobertura del medio, etc.
  • Sector de la comunicación. Información sectorial para su transmisión gráfica hacia los sectores deseados de la opinión pública. Análisis de los efectos de las campañas de publicidad y promoción. Teletrabajo, educación a distancia, tiempo libre, información sobre ocio, etc.
  • Sector de franquicias. Localización de nuevos puntos de venta, captación de clientes potenciales, etc.
  • Sector medioambiental. Para realizar inventarios de suelos o controlar el tipo del uso del mismo.

martes, 12 de abril de 2011

Satisfacción del Cliente

Una de las utilidades que se le da a la investigación de mercados en la empresa actual es conocer el nivel de satisfacción de sus clientes, el focus costumer se ha convertido en el gran protagonista de todas las compañías que deseen permanecer con éxito en el mercado, por ello es preciso acudir a técnicas cuantitativas o cualitativas para medirla y analizarla.
Se puede realizar este trabajo de campo en el momento y lugar que se está efectuando la compra, por teléfono, vía postal u on line. Conocer a los clientes que nos han dejado de comprar o han presentado algún tipo de reclamación nos puede aportar conocimiento sobre las variables del servicio que están fallando, para poder actuar y así corregir las posibles áreas de mejora.
Por ello, aconsejamos realizar un mix de los estudios tradicionales de satisfacción con la información comercial que tiene la empresa y los realizados ad hoc de compra misteriosa para saber exactamente si estamos orientados hacia el mercado, ya que considerar al cliente como centro de negocio sólo se alcanza si la satisfacción es plena.
Pero no sólo debemos conformarnos con saber el grado de satisfacción, el marketing estratégico da un paso más y quiere ampliar la información del cliente para traducirla en conocimiento. Por ello, también han de conocerse, entre otras variables, las siguientes:
  • Las causas de deserción o fugas del cliente.
  • Opinión de los clientes de alto valor en determinadas áreas.
  • Conocer si el cliente percibe todo el esfuerzo que se hace por él.
  • Si se cubren las expectativas que el cliente había puesto en nuestras empresa/servicio.
  • Conocimiento de la cobertura que el cliente esperaba de nosotros (zona geográfica, gama de productos, servicios globales, etc.).
  • Nivel comparativo que tiene de nosotros frente a la competencia.
  • Nivel de vinculación y posible abandono que tiene el cliente con nuestro producto o servicio.
  • Nivel de fidelización y por tanto de posible prescripción de la empresa.
  • Etcétera.
Una vez que dentro de la cultura corporativa de la compañía se valore positivamente el conocer el nivel de satisfacción del cliente, es preciso protocolarizarlo con un plan director en el que al menos se contemple:
  • Que el servicio al cliente no es un hecho aislado sino un proceso continuo, evolutivo y comparativo.
  • Que las decisiones de la empresa han de tomarse teniendo en cuenta la situación del mercado y los posibles impactos en el cliente.
  • Que se elaborarán cuantos planes de acciones específicos sean precisos para mantener un determinado nivel.
  • Que todos los resultados serán presentados y actualizados por el comité de dirección.
Todo ello hará que se tenga el nivel de competitividad que nos exige la dinámica actual del mercado. Para cerrar el tema hemos considerado oportuno incluir un breve modelo tradicional de encuesta.

domingo, 10 de abril de 2011

¿Como interpretar la información?

Un observatorio consiste en la recopilación, análisis e interpretación de información relevante para el conocimiento de un mercado. Las características comunes a la mayoría de los observatorios de mercado son las siguientes:
  • El observatorio se centra en una categoría de producto/servicio o en un sector de actividad determinados. Por ejemplo, el sector seguros, la categoría de productos «bebidas refrescantes», el mercado turístico, etc.
  • Pretende obtener información de todos los factores que intervienen en el mercado: producción, importación-exportación, distribución, logística, legislación, consumidores, prescriptores, etc. El observatorio va más allá del diagnóstico de la situación de una determinada marca.
  • Como consecuencia del punto anterior, los observatorios suelen combinar información
    obtenida de distintas fuentes: organismos oficiales, estudios de mercado, asociaciones sectoriales, etc.
  • En el observatorio, la recogida de información tiene un carácter periódico: a diferencia de un estudio de mercado ad hoc (que pretende resolver un problema de información en un momento dado), el observatorio hace especial énfasis en la evolución de los datos.
  • Debido a la importancia del carácter evolutivo de los resultados proporcionados por el observatorio, éste debe responder a un diseño sistemático de recogida de información, que garantice la comparabilidad de los indicadores obtenidos en distintas olas.
El primer paso en el diseño de un observatorio es la determinación de los contenidos de información que va a aportar, y que normalmente se reflejarán en los resultados en forma de indicadores. Algunos ejemplos de indicadores básicos para un observatorio en una categoría de productos de gran consumo serían:
– Valor total del mercado y volumen en unidades.
– Número de empresas y número de marcas presentes en el mercado. Cuotas de mercado de cada una de ellas.
– Variedades/subsegmentos en la categoría de producto: cuotas de cada una de ellas.
– Precios.
– Otros elementos que afecten a la evolución del mercado (legislación, entorno internacional, etc.).
– Tipos de canal.
– Distribución numérica (número de puntos de venta) y ponderada (peso sobre el volumen de mercado).
– Pautas de abastecimiento (frecuencia, logística, exclusividad, etc.).
– Actitudes y percepciones de los puntos de venta hacia las marcas (satisfacción, imagen, fidelidad, etc.).
– Perfil: características sociodemográficas. Segmentos/tipologías de consumidor.
– Actitudes y percepciones hacia la categoría de producto: motivaciones y frenos al consumo.
– Comportamientos de compra y consumo: frecuencia, volumen y gasto por acto de compra, momentos de compra y momentos de consumo.
– Relación con las marcas: indicadores funnel: conocimiento --> consideración de compra --> prueba --> consumo --> fidelidad/exclusividad.
– Actitudes y percepciones hacia las marcas (imagen de marca).
Key drivers: peso de distintos elementos en la elección de marca: características del producto, imagen de marca, precio, etc.
Una vez determinados los contenidos del observatorio, se procede a la definición de las fuentes de información, comenzando por revisar qué fuentes de las existentes en la actualidad pueden aportar datos al observatorio cumpliendo los requisitos de consistencia, representatividad y vigencia (actualización).
Entre estas fuentes solemos contar con organismos oficiales (Instituto Nacional de Estadística, ministerios, etc.), anuarios estadísticos, y anuarios o memorias anuales de asociaciones profesionales/sectoriales.
Normalmente estas fuentes sólo cubren una parte de los indicadores planificados para el observatorio, por lo que suele ser necesario recurrir a proveedores especializados de información, como son los paneles de consumidores y los paneles de distribución.
Por último, para aquellos indicadores no cubiertos por ninguna de las fuentes anteriores, se diseñarán estudios tipo tracking: encuestas periódicas a muestras representativas de consumidores y/o puntos de venta.
Ola piloto: normalmente, la primera edición del observatorio sirve para ajustar y validar tanto las fuentes de información como los indicadores resultantes: qué tratamiento estadístico se va a dar a la información, cuál es la consistencia de datos entre distintas fuentes, cómo se van a presentar o editar los resultados.
Pero el verdadero valor del observatorio se obtiene a partir de la segunda ola, a través de un seguimiento periódico, cuando se pueden analizar los resultados desde un punto de vista evolutivo. La periodicidad en la actualización de indicadores vendrá normalmente determinada por dos factores:
Respecto a un estudio sectorial estándar, el observatorio tiene como objetivo dar una visión más amplia y –sobre todo– con carácter evolutivo de la situación del mercado en cuestión. En este sentido, además del conocimiento del mercado en cada momento, aporta una serie de utilidades dignas de mención:
  • La posibilidad de detectar tendencias permite a los usuarios del observatorio situarse en una posición de ventaja a la hora de diseñar estrategias de cara a escenarios futuros.
  • Correctamente interpretados, los indicadores del observatorio funcionan como un sistema de alerta temprana ante cambios perjudiciales en el entorno de competencia (aparición de nuevos actores, cambios en la estrategia de los competidores, etc.), reduciendo los tiempos de reacción.
  • Con una serie histórica suficiente, el observatorio permite crear un banco de experiencia sobre distintos eventos ocurridos en el pasado: por ejemplo, guerras de precios, enfriamiento de la economía, etc. En estos casos, el usuario del observatorio contará con un conocimiento –basado en experiencias anteriores– sobre cuáles pueden ser las reacciones más probables del mercado y actuar en consecuencia.
A partir de ahora no existe justificación para decir que el mercado evoluciona tan rápidamente que nos ha cogido con el pie cambiado. Nuestro futuro es lo suficientemente importante para empezar a poner en práctica una de las herramientas que nos va a asegurar las ventas de forma permanente.

viernes, 8 de abril de 2011

Lanzamiento de un producto

Ante la situación de mercado de disponer de una idea/concepto de producto sobre la que deseamos conocer su viabilidad para su desarrollo y posterior «posible lanzamiento al mercado», los estudios de mercado a realizar vienen condicionados, en principio, a tomar dos alternativas en base al grado de novedad/exclusividad del concepto o producto.
  • Si ya existen categorías de producto similares, es necesario realizar un estudio al consumidor actual, describiendo desde sus características (sexo, edad, poder adquisitivo...) hasta las pautas con las que consume los productos existentes (frecuencia, marquismo, lugar de compra...).
  • Si es totalmente novedoso, el primer paso es un test de concepto, para averiguar hasta qué punto puede ser aceptado por el consumidor, qué valores le ve, qué posibles frenos al consumo y con qué categorías de producto sería «asociable» por el consumidor. (En su caso, puede aconsejarse realizar a continuación un estudio sobre el consumidor actual de esas categorías «asociables»).
También en el caso de productos novedosos puede ser aconsejable un test de producto o uso encaminado a averiguar si es necesario modificar características del producto (sabor, durabilidad, comodidad de manejo), o si estas características pueden anular en la práctica lo que era una buena idea sobre el papel.
El test de concepto y/o el estudio de consumidor actual deben permitirnos definir, al menos en
líneas generales, a qué segmentos deseamos dirigir el producto y en qué canales podría tener más aceptación por el consumidor.
  • Consumidores de esos segmentos: estudio del mercado potencial que deberá cuantificar cuál es la demanda esperada, con qué sensibilidad al precio debemos contar, en qué canales estarían más dispuestos a comprar nuestro producto (y en cuáles no lo comprarían), etc.
  • Representantes de los posibles canales: estudio al canal, en el que se plantea la posibilidad de comercialización y se pregunta por condiciones, costes, posibilidades, etc.
Si estos estudios arrojan unos parámetros de rentabilidad estimada suficiente, entonces se procedería a diseñar elementos de comunicación (marca, packaging...), que deberán ser convenientemente testados antes del lanzamiento, para asegurar que son acordes con el concepto y con las expectativas del consumidor potencial.

jueves, 7 de abril de 2011

¿Cómo recoger la información?

La investigación de mercados, como hemos dicho anteriormente, se ha basado tradicionalmente en soportes cuantitativos independientemente del medio utilizado (personal, telefónico, postal, panel, Internet, etc.). La encuesta estadística estructurada es su máximo exponente y su objetivo es reflejar a través de una muestra estadísticamente representativa la realidad social o económica que sustenta a un mercado concreto.
A efectos metodológicos, las técnicas cuantitativas se basan en agrupar y medir a los individuos muestrales en categorías, en función de variables preestablecidas, tales como pautas de consumo, rasgos sociodemográficos, ejes lógicos de segmentación, etc.
Por tanto, los resultados obtenidos a partir de técnicas cuantitativas se validan exclusivamente con criterios estadísticos, por lo que no son adecuadas para reconstruir las relaciones sociales que subyacen a la medición concreta. En el mejor de los casos, se limitan a describirla. Es decir, no descubren procesos, simplemente los cuantifican.
Pongamos un sencillo ejemplo. Supongamos que se realiza un análisis del mercado turístico en España y una de sus conclusiones descriptivas es que los individuos de núcleos poblacionales de más de 10.000 habitantes escogen con mucha mayor frecuencia la temporada baja como época vacacional de desplazamiento de su vivienda habitual. Con este dato de referencia, a una determinada agencia de viajes podría ocurrírsele una estrategia promocional de este tipo de turismo en municipios pequeños, creyendo haber descubierto un nicho de mercado. Pues bien, supongamos ahora que en los núcleos pequeños la distribución por sectores de actividad incorpora una proporción muy superior de trabajadores en el sector agrícola que en los núcleos grandes, y que la única época en la que pueden desentenderse de sus labores en el campo sea en verano. Si esto es cierto, la agencia que diseñó la campaña promocional fracasaría. Podemos observar que, si bien la investigación es estadísticamente perfecta (puesto que cuantificó adecuadamente las variables), conceptualmente no tiene ningún valor, ya que la relación entre tamaño de hábitat y hábitos de consumo turístico es sólo una relación numérica pero prácticamente diferente.
Ya en los años 70, pero sobre todo en la década de los 80, se empezaron a desarrollar en la investigación social, y específicamente en la de mercados, otro tipo de técnicas complementarias que en ningún caso compiten, o así debería ser, con las cuantitativas, puesto que implican perspectivas diferentes. Se trataría de diversas maneras de observar la misma realidad. La investigación cualitativa extrae las variables motivacionales que configuran los ejes valorativos y de actuación. Por su parte, el análisis cuantitativo mide tales ejes, así como las categorías surgidas y las relaciones entre ellas. En sentido figurado, la investigación cuantitativa mide la parte visible de la luna y la cualitativa explica por qué una parte es visible y la otra no. Explicación y descripción son dos caras del mismo fenómeno. La visibilidad de la luna no implica necesariamente la imposibilidad del estudio de su cara oculta.

 

Antes de adentrarnos en las técnicas cualitativas, he considerado interesante incluir una técnica muy utilizada en los últimos años y que adquirirá un importante protagonismo en el marketing del siglo XXI.
También denominado mistery shopper o comprador misterioso es una técnica que consiste en la falsa compra o contratación de un servicio, llevado a cabo por un equipo cualificado de personas especializadas en dicha técnica, con el fin de detectar y valorar una serie de variables concretas definidas anteriormente, en el punto de venta o establecimiento, al solicitar, como un cliente más, una serie de productos o servicios. Dicho modelo permite detectar y evaluar los índices de calidad del servicio (trato, eficacia, profesionalidad...), seguimiento de las directrices emanadas de los manuales operativos, posibles optimizaciones de tareas, influencia del vendedor en la prescripción de marcas, necesidades de formación del personal, etc.
Está cada vez más claro que la demanda es uno de los principales termómetros del negocio. Si hay compradores, hay ventas y, por tanto, hay ingresos para la empresa. Por ello, las compañías deben tener muy en cuenta la calidad de la atención que prestan a sus clientes. ¿Y cuál es la mejor manera de evaluar el grado de satisfacción de una demanda ante la oferta de un producto, un servicio o incluso ante el tratamiento dado por un vendedor en el momento de una compra?: estando en la piel del cliente, y esto se consigue a través de la estrategia del cliente misteriosoo mistery shopping, una herramienta sencilla y muy eficiente a la hora de detectar los posibles fallos en la actividad que uno se propone.
Lo más ventajoso es que no es necesario ser un experto, ni tampoco invertir mucho dinero para poner esta táctica en marcha. ¿Quién no es capaz de reconocer una sonrisa de bienvenida al entrar en una tienda, o una dosis de cordialidad en la despedida? ¿Y quién no se da cuenta cuando un vendedor intenta contestar a las cuestiones que plantea con simpatía, seguridad y agilidad? O bien detectar que el seguimiento no se está realizando como debería ser.
Aunque ocurra por teléfono, en el momento de hablar con la apoderada de un banco, o cuando pedimos información a una agencia de viajes, es posible detectar posibles fallos en la comunicación y en la atención al público, lo que muchas veces puede pasar desapercibido por la rutina diaria, generando posibles perjuicios a medio y largo plazo. Además, la misma evaluación que se hace a su propio negocio también puede ser puesta en marcha en la tienda de al lado, es decir: el mistery shopping es también una gran herramienta para conocer a la competencia y saber sobre sus debilidades, fortalezas, ventajas, etc.
Pero, esas son sólo algunas de las observaciones que se puede hacer con una simple visita a un local de venta al público o con una rápida llamada para, a partir de ahí, trazar estrategias que permitan mejorar los resultados. Sin embargo, lo que se percibe en la práctica es que difícilmente los grandes directivos salen a la calle para conocer a fondo el funcionamiento de la empresa que dirigen. El director general de una compañía aérea, por ejemplo, siempre que viaja por su empresa lo hace como el director general y no como un pasajero más de la clase económica. Así que la idea que se formará del servicio ofrecido no reflejará la realidad vivida por la mayoría de los usuarios. El ideal sería que estas personas viviesen un día como cliente misterioso.
Y esta afirmación es válida en todos los sectores donde existe gran rivalidad competitiva. Hay muchas empresas que venden casi lo mismo, a un precio muy similar. La atención al cliente, junto con la estrategia de marketing y el saber hacer del vendedor son seguramente los grandes elementos diferenciadores que permiten a cualquier empresa ofrecer una ventaja competitiva en un mercado tan homogéneo y atomizado. Pero parece que conceptos básicos como éstos son olvidados, y lo que se percibe en la práctica es justo al revés. Nuestra experiencia nos indica que la estrategia del cliente misterioso ha de realizarse de forma regular y a nivel profesional.
Lo que está claro es que ningún negocio se mantiene dinámico sin su gran protagonista: el cliente, pues para él se crea, se produce y se vende. Por tanto, hay que estar muy atento para que los reyes del negocio no prefieran a la competencia y se conviertan en clientes fieles y prescriptores de nuestra empresa. Seguramente así el mistery shopping ayudará al empresario y directivo a conocer mejor las áreas de mejora que tiene nuestra compañía para conseguir dar respuestas satisfactorias a las necesidades del mercado.
El proceso básico de la encuesta estadística se basa en la relación secuencial pregunta-respuesta. En las encuestas precodificadas, es el investigador el que decide la respuesta, dado que limita sus posibilidades. El entrevistado sólo puede hacer zapping entre las diferentes «cadenas» de respuesta. Como suele ocurrir al encender el televisor, el encuestado decide entre la menos mala de las cadenas o apaga la televisión (lo que traducido a la encuesta equivale a «no sabe/no contesta»). Por ejemplo, es relativamente habitual que al preguntar por las razones de compra de un determinado producto, ninguna de las alternativas propuestas se adecue perfectamente a la realidad del entrevistado, o que varias de ellas encajen, pero sólo parcialmente.
Surgen así las técnicas cualitativas, como una vía de investigación complementaria. Si el objetivo de la investigación cuantitativa es clasificar, agrupar en categorías y medir (en definitiva, describir la realidad), la finalidad de las técnicas cualitativas es analizar el estrato social, o sea, encontrar los «porqués» de esa realidad, o al menos marcarnos las tendencias.
Las técnicas cualitativas más difundidas son los grupos de discusión, denominadas en determinadas ocasiones focus group, y las entrevistas en profundidad. En ambos casos, la recogida de información se traduce en la obtención y posterior análisis del diálogo libre y espontáneo entre un reducido grupo de personas (grupo de discusión) o entre el entrevistador y el entrevistado (entrevista en profundidad).
Obviamente, el límite de estas técnicas es que no existen unidades de medida muestral, de ahí que sean complementarias de las cuantitativas. Su relevancia cada vez mayor en la investigación de mercados radica en que mediante el análisis del discurso de los microgrupos podemos ser capaces de captar los ejes motivacionales que subyacen a las opiniones cotidianas y al comportamiento diario.
A grandes rasgos, una investigación debe incluir una fase cualitativa inicial cuando:
  • No se conocen las variables reales que estructuran el mercado, ni los procesos sociales que lo definen y reproducen.
  • Se utilizan como pretest antes del diseño definitivo del cuestionario. No sólo ayudan a formular correctamente las preguntas, sino que contribuyen a precodificar y cerrar las posibles respuestas en categorías semánticas claras y excluyentes entre sí.
  • Ayudan a controlar y a ponderar los efectos de variables que afectan al resultado de la investigación pero que no son el objetivo de ésta. Por ejemplo, es habitual que el encuestado
    tienda a situarse en torno a los valores centrales del intervalo entre las distintas posibilidades de respuesta, puesto que socialmente es lo que se espera de él (efecto de deseabilidad social). Esto es especialmente cierto en ámbitos moralizados socialmente: sexo, alcohol, etc. pero también en mercados donde determinados productos afectan al estatus del entrevistado.
  • Se utilizan igualmente para desarrollar determinados tipos de test actitudinales o motivacionales.
  • En el análisis de conductas no racionales desde una perspectiva económica (coste/beneficio), las técnicas cualitativas se adecuan mejor para explicar la irrupción de impulsos y las contradicciones grupales.
  • La entrevista en profundidad es especialmente apta para el análisis de casos individuales típicos o extremos, puesto que es aquí donde se encuentran las dimensiones motivacionales en su estado puro. Por ejemplo, pueden ser de gran ayuda para analizar los procesos mentales de consumidores compulsivos.
  • Por su parte, el grupo de discusión tiene una ventaja adicional. En el desarrollo del propio grupo, suelen representarse los distintos roles sociales: líder de opinión, creativo, escéptico, reforzadores, etc. La relación entre la dinámica surgida y la evolución del discurso en su contexto es lo que debe reflejar el microcosmos a partir del cual se extraerán las dimensiones fundamentales.
Conviene puntualizar que estas técnicas poco tienen que ver con ciertas dinámicas de grupo que se realizan a nivel interno de empresas, tales como las «tormentas de ideas», cuya finalidad es exclusivamente la de producir ideas, con lo que no requieren un análisis específico, más allá del resumen o de la extracción casi literal de tales ideas.
La realización de los grupos de discusión se caracteriza por cierta flexibilidad. A continuación mencionaremos brevemente algunos requisitos básicos de funcionamiento.
El moderador, figura indispensable para la realización, introducirá el tema de manera concisa y clara, pero evitando opinar. Es relativamente frecuente incluir un guión manejado exclusivamente por el moderador denominado técnicamente «guía de tópicos», en el que estarán incluidas todas aquellas variables sobre las que el grupo tendrá que debatir con entera libertad.
El grupo debe estar formado por un número de personas que puede oscilar entre 6 y 10 individuos.
Los integrantes no deben conocerse previamente, al objeto de evitar alianzas surgidas de ámbitos ajenos a la propia discusión.
Las condiciones de la sala serán agradables. Los integrantes del grupo se sentarán alrededor de una mesa sin que existan relaciones de prevalencia entre ellos, ni siquiera del moderador. Una mesa redonda se adecua perfectamente a este fin.
La duración de la reunión también es flexible. Como criterio orientativo, suelen girar alrededor de una hora y media. La información suele ser grabada en cinta o televisión y es transcrita posteriormente de manera literal. La grabación, que en un primer momento puede coartar a los individuos, es fundamental puesto que la realización en un «acta» o resumen no tendría ninguna utilidad a efectos analíticos. En el momento de introducir el tema a discutir, el moderador explicará los criterios que hacen necesaria la presencia del casete o televisor.

martes, 5 de abril de 2011

Más sobre la investigación de mercado


GRÁFICO 1. ESQUEMA BÁSICO PARA EL DESARROLLO DE UN ESTUDIO DE MERCADO

Los estudios preliminares tienen como objeto sentar las bases del futuro trabajo.
En principio, realizamos un análisis de la situación, manejando toda la información disponible para obtener una panorámica completa de la organización acerca de:
  • La empresa y el sector. Su evolución, productos con los que opera, su importancia en el sector, problemas que ha tenido en otros tiempos, soluciones que se aportaron, etc.
  • El mercado y los clientes. Análisis sobre la distribución geográfica del mercado, variaciones estacionales de la venta, tipología de la clientela, etc.
  • Organización comercial. Canales de distribución que se siguen, rendimiento de la red de ventas, márgenes con los que se opera, descuentos ofrecidos, bonificaciones, etc.
  • Posicionamiento en la red, motivado por la gran importancia que la red aporta a las compañías; habrá que realizar un informe comparativo de su situación con respecto a la competencia, tanto en el mercado nacional como en el internacional, aunque no estuviese implantada.
  • Etcétera.
Para realizar un completo y exhaustivo análisis de la situación hemos de obtener un «histórico» con los datos mencionados anteriormente; esto significa que deberemos contar con información de los tres o cinco años anteriores, dependiendo del grado de rigor y profundidad que deseemos implementar al estudio.
Este trabajo se realiza desde la propia oficina, sin tener necesidad de salir a la calle; no siempre tiene que ser exhaustivo, ya que el conocimiento de la empresa y los estudios anteriores que se han realizado o se vengan realizando periódicamente son suficientes para permitirse pasar a posteriores fases.
No obstante, en caso de duda o no utilidad, debe realizarse de nuevo a partir de bases correctas y actuales.
Conviene que los responsables de la realización de los cuestionarios e informes mantengan conversaciones y entrevistas a diferentes niveles, no sólo para descubrir nuevas hipótesis, sino para confirmar los puntos estudiados anteriormente. Con esta segunda subfase quedan fijadas claramente las directrices que habrán de presidir la ejecución del trabajo.
Puede parecer que el reconocimiento de los problemas de marketing es bastante sencillo; la experiencia nos demuestra que es una de las tareas más difíciles con que se encuentran los directivos, ya que hay que saber aceptar que no siempre se puede captar toda la información y que el director técnico del instituto de investigación difícilmente dispone de la bolita de cristal mágica, como a veces se le pide. Sólo conociendo previamente cuáles son los problemas, puede empezarse a pensar en la forma de estudiarlos y, como consecuencia, en solucionarlos. El reconocimiento, formulación y concreción de los problemas es ni más ni menos la misión de los estudios preliminares realizados. Una vez efectuados dichos análisis, se está en condiciones de decidir el alcance del estudio y definir los objetivos o metas del trabajo que se va a realizar.
La labor previa a toda investigación debe ser siempre el análisis y recopilación de toda la información que se pueda obtener en relación con los problemas que se pretenden investigar, aunque en el mercado existe una serie de informes monográficos, datos estadísticos, estudios de organismos públicos y asociaciones, etc. que están a disposición del analista, que constituyen una fuente muy valiosa y que en la mayoría de los casos no se suelen utilizar, a pesar de la inmediatez con que se consiguen, amén de la información que puede obtenerse en la red, que día a día aumenta exponencialmente.
Una vez elegidas las posibles fuentes de datos, hemos de valorarlas, teniendo en cuenta los siguientes aspectos:
  • Grado de fiabilidad.
  • Origen de la fuente.
  • Grado de obsolescencia.
  • Validez contrastada.
Las fuentes de datos las podemos dividir en internas y externas. Internas son aquellas cuya información obtenida emana de la propia empresa. Éste es el caso más favorable para los equipos investigadores, ya que la actualización permanente de los datos que posee la propia empresa es una valiosa fuente de información. Externas son aquellas que provienen de diferentes organismos ajenos a la empresa, publicaciones, Internet, etc.
A continuación indicaremos, a título de ejemplo, una serie de publicaciones y estudios cuyo contenido informativo es necesario tener en toda empresa española.
  • Anuario de El País.
  • Informes sectoriales ICEX.
  • Información de las Cámaras de Comercio.
  • Informaciones puntuales de las diferentes comunidades autónomas.
  • Asociaciones profesionales.
  • Diferentes medios de comunicación social, off y on line.
  • Buscadores y portales de Internet, Google, Yahoo, MSN, etc.
  • Etcétera.
Si hemos decidido realizar la investigación de mercados utilizando una encuesta, debemos definir la muestra. Es evidente que para cualquier empresa que se proponga conocer cuántos son los hogares de una pequeña localidad que poseen Internet y televisión digital, el procedimiento que se seguirá será sencillo: consistirá en preguntar a los 400 ó 500 hogares de esa pequeña localidad. Pero lo que toda compañía desea, por lo general, no es disponer de esos datos locales, sino los relativos a toda España o a una amplia zona geográfica, y este dato sería imposible de averiguar si para ello hubiera que preguntar a todas y cada una de las familias. De ahí la necesidad de definir la muestra.
Sin embargo, estas informaciones pueden obtenerse con relativa facilidad. ¿Cómo? Se tendrá en cuenta no a todos los hogares, sino a una muestra relativamente pequeña de los mismos; lo que se hace, pues, es sustituir el universo que se quiere estudiar por una muestra que lo represente. La cuestión que ahora puede plantearse es la obtención del grado de fiabilidad de la encuesta. Si la muestra está bien elegida y es suficientemente amplia, ésta será representativa. Además, es necesario atender al método mediante el cual se elige físicamente la muestra:
  • Muestreo aleatorio o probabilístico.
  • Muestreo no aleatorio u opinático puro.
Como su nombre indica están basados en el azar. Exigen para su utilización la existencia de una relación numérica de los elementos que componen la población. Se caracterizan porque todos los elementos tienen siempre la misma probabilidad de resultar elegidos. Supongamos que se trata de un conjunto de 1.000 elementos y que la muestra va a ser de 100 elementos. Entonces cada uno tiene el 10 por 100 de probabilidad de ser elegido para formar parte de la misma. Se comenzará por enumerar la relación de elementos y una vez hecho esto se elegirán al azar 100 números que nos determinarán la muestra. ¿Cómo elegirlos? En principio, pensar en cualquier procedimiento es bueno; pero en la práctica para que las muestras sean representativas se utilizan las denominadas «tablas de números aleatorios».
Este tipo de muestras presenta ciertos tipos de inconvenientes. Por eso, cuando el número de elementos que constituye la población es elevado, este proceso lleva consigo un esfuerzo considerable. El mecanismo operativo se puede simplificar procediendo a una elección «sistemática», que consiste en lo siguiente: si conocemos el llamado coeficiente de elevación, que se consigue dividiendo el número total de elementos de la población que se quiere estudiar por el correspondiente al de la muestra, el resultado que nos dé será el límite superior para seleccionar al azar un número entre este cociente y la unidad, quedando fijado entonces como el primer seleccionado. A continuación, a este número se le suma el coeficiente de elevación y el número obtenido es el segundo elemento, y así sucesivamente.
Explicación gráfica:
Coeficiente de elevación Ce =
N
n


A continuación se elige al azar un número entre la unidad y el Ce.
1, .............................................. X .............................................., Ce
1.erseleccionado = X
2.° seleccionado = X + Ce
3.erseleccionado = 2.° + Ce
4.° seleccionado = 3.° + Ce
5.° seleccionado = 4.° + Ce
El muestreo no aleatorio, llamado «opinático puro», consiste en la elección de una muestra según el juicio del equipo investigador. Naturalmente, la calidad del muestreo no puede valorarse ni a priori ni objetivamente, pues depende de los criterios utilizados para escoger a los componentes de la muestra. A veces, razones de economía y rapidez lo hacen aconsejable. En ocasiones se completa el muestreo con el denominado «sistema de cuotas», que consiste en realizar cierto número de encuestas entre cada uno de los distintos grupos en que se divide el universo. Así, se puede exigir que haya «X» entrevistas a familias que tengan dos hijos, «Y» entrevistas a familias cuyos padres vivan con ellos, etc. Esas especificaciones se determinan teniendo en cuenta las características conocidas del universo.
Dentro de este apartado, tenemos el muestreo denominado «semialeatorio», consistente en la obtención al azar de ciertos grupos del colectivo para dejar, a criterio del entrevistador, la elección del elemento que se va a elegir.
Un muestreo, bastante utilizado en las entrevistas y que según algunos autores puede resultar prácticamente aleatorio, es el denominado «muestreo por rutas», en el que partiendo de unos puntos determinados (calle, número...), los agentes van siguiendo su itinerario y efectúan las entrevistas de acuerdo con un ritmo (por ejemplo, cada 10 edificios) y unas normas (para la elección de viviendas). Una variante de muestreo no aleatorio, que suele utilizarse frecuentemente en determinados casos, son los focus groups o «grupos de discusión», cuya importancia en determinados estudios va en aumento.
La muestra es el número de elementos, elegidos o no al azar, que hay que tomar de un universo para que los resultados puedan extrapolarse al mismo, y con la condición de que sean representativos de la población. El tamaño de la muestra depende de tres aspectos:
  • Del error permitido.
  • Del nivel de confianza con el que se desea el error.
  • Del carácter finito o infinito de la población.
Las fórmulas generales que permiten determinar el tamaño de la muestra son las siguientes:
  • Para poblaciones infinitas (más de 100.000 habitantes):
n =
Z2 x P x Q
E2


  • Para poblaciones finitas (menos de 100.000 habitantes):

n =
Z2 x P x Q x N
E2 (N - 1) + Z2 x P x Q



Leyenda:
n = Número de elementos de la muestra.
N = Número de elementos del universo.
P/Q = Probabilidades con las que se presenta el fenómeno.
Z2 = Valor crítico correspondiente al nivel de confianza elegido; siempre se opera con valor sigma 2, luego Z = 2.
E = Margen de error permitido (a determinar por el director del estudio).
Cuando el valor de P y de Q no se conozca, o cuando la encuesta se realice sobre diferentes aspectos en los que estos valores pueden ser diferentes, es conveniente tomar el caso más favorable, es decir, aquel que necesite el máximo tamaño de la muestra, lo cual ocurre para P = Q = 50, luego, P = 50 y Q = 50. En mi larga trayectoria profesional siempre he visto los valores P x Q como 50 x 50.
Para facilitar el cálculo del tamaño de la muestra suelen utilizarse las tablas, incorporadas en los anexos I y II al final del capítulo, cuyo uso viene dado por el fácil método del eje de coordenadas.

EJEMPLO 1
Población infinita. España tiene 44.000.000 de habitantes. En una investigación de mercados que se está realizando en España, se desea conocer entre otras cosas el número de personas que estarían dispuestas a trasladarse a vivir a otro país de la Comunidad Económica Europea. ¿Cuál será el tamaño de la muestra a estudiar para un nivel de confianza de la encuesta del 95,5 por 100 y un margen de posible error del ± 4 por 100?

n =
22 x P x Q
=
4 x 50 x 50
= 625 personas
42
16


EJEMPLO 2
Población infinita. Un pueblo de 10.000 habitantes, para el mismo estudio
n =
22 x 50 x 50 x 10.000
=
588 personas
42 (10.000 - 1) + 2 2 x 50 x 50 x 50

En ambos casos si hubiésemos ido a las tablas de los anexos I y II hubiésemos obtenido el mismo resultado.
Conocidas las fuentes donde van a buscarse los datos, se elabora el cuestionario teniendo en cuenta las características de la fuente elegida. Es ésta una cuestión de suma importancia, pues una adecuada realización del cuestionario puede eliminar, o al menos reducir, muchas de las causas que ocasionan fallos en una encuesta.
El cuestionario no sólo debe permitir una correcta plasmación de la información buscada, sino que también tiene que ser diseñado de tal forma que facilite al máximo las posibilidades de un tratamiento cuantitativo de los datos recogidos, ya que en los estudios cualitativos se denominan guías de tópicos. Es decir, hay dos aspectos que se deben tener en cuenta:
  • Por un lado, el cuestionario es el punto de encuentro, en la relación de comunicación, entre el entrevistador y el entrevistado. De ahí la importancia de que el cuestionario posibilite una corriente de comunicación, fácil y exacta, que no dé lugar a errores de interpretación y permita cubrir todos los objetivos.
  • Por otra parte, el cuestionario es un formulario, es decir, un impreso en el que se registran datos e información, por lo que en su elaboración se definen ya los códigos de tabulación y el formato, de manera que la labor del procesado de datos resulte simple. Asimismo, la experiencia aconseja que se aproveche la realización de los «pretest» o encuestas piloto para probar el cuestionario diseñado, incluso después de los estudios necesarios.
  • Claridad del lenguaje. Hay que procurar términos que sean suficientemente claros, lo que evitará errores de interpretación.
  • Respuestas fáciles. Para evitar incorrecciones como consecuencia de la fatiga, hay que elaborar preguntas cuyas respuestas no supongan gran esfuerzo mental.
  • Evitar, en lo posible, preguntas molestas. Si a pesar de ello es preciso realizarlas, conviene introducir al entrevistado en el espíritu de la encuesta.
  • No influenciar la respuesta. Hay que dejar entera libertad a la hora de elegir la respuesta, sin influir de ninguna forma al entrevistado.
Dentro del cuestionario, se pueden realizar diferentes tipos de preguntas:
  • Abiertas y cerradas. Abiertas son aquellas en que el entrevistado puede dar libremente su respuesta. Por el contrario, en las cerradas el entrevistado debe elegir una o varias.
  • Preguntas para ordenar. En ellas se pide al entrevistado que según su criterio coloque por orden los términos que se le indican.
  • Preguntas en batería. Constituyen un conjunto de cuestiones o interrogantes que, en realidad, forman una sola pregunta, con el objetivo de obtener una respuesta concreta.
  • Preguntas proyectivas. Se pide la opinión al entrevistado sobre una persona, marca o situación que se le muestre.
  • Preguntas de control. Sirven para proporcionar una idea de la verdad y sinceridad de la encuesta realizada, es conveniente incluir una o dos en todo cuestionario. En el caso de detectar en las preguntas de control falsedad de criterio, se ha de proceder a la eliminación de todo ese cuestionario.
En el anexo III se recoge un modelo real de la encuesta que sirve para evaluar el nivel de satifacción de una empresa y sus productos.
Los trabajos de campo están dentro de la fase en la que se realizan las entrevistas. Como comentamos anteriormente, es muy frecuente hacer, antes de los trabajos de campo propiamente dichos, una encuesta piloto que sirve para probar tanto el material de trabajo (cuestionarios, direcciones, instrucciones...) como la organización general y el grado de aptitud y de entrenamiento de los agentes entrevistadores. Para ello es necesario disponer de un personal eficiente y preparado: entrevistadores, jefes de grupo y supervisores o inspectores.
Estos miembros del equipo investigador deben ser entrenados para cada investigación, pues su influencia en los estudios es enorme, hasta el punto de que por muy planteada y dirigida que esté una encuesta, si no se dispone del personal competente para efectuar los trabajos de campo, los resultados pueden desvirtuarse. Es ésta una opinión avalada por la experiencia y muy generalizada entre los autores que hemos consultado.
La selección y reclutamiento de este personal, que frecuentemente carece de auténtica profesionalidad, debe ser cuidada al máximo. ¿Qué requisitos y personalidad deben exigirse? ¿Cómo tiene que ser un entrevistador?
Hay muchas características que dependerán del tipo de estudios que se vayan a realizar. Así ocurre con las relativas a la edad, preparación técnica y cultural, etc.; sin embargo, existen algunas peculiaridades de las que difícilmente podrá prescindirse:
  • Tipología metódica y ordenada. Deben saber captar detalles sobre la veracidad y seriedad del entrevistado, así como otros factores externos.
  • Sinceridad. Su trabajo es siempre algo libre, y la sinceridad y responsabilidad son importantes a la hora de puntuar a los posibles candidatos.
  • Activo. Debe cumplir su cometido valiéndose por sí mismo. No se trata de que estén ocupando cierto número de horas, sino de que sean capaces de alcanzar sus objetivos.
  • Presencia positiva. Su aspecto ha de ser agradable.
  • Capacidad de adaptación. Su trabajo se realiza en medios diferentes.
Los entrevistadores son dirigidos por jefes de grupo que, a veces, son entrevistadores veteranos. Se recomienda un jefe de grupo para cada cinco agentes encuestadores, aproximadamente, y su misión consiste en acompañar a los encuestadores en algunas entrevistas para verificar la calidad de su trabajo y corregirlos en caso necesario, así como efectuar aquellas visitas más difíciles y delicadas y, finalmente, proceder a una primera revisión de los formularios.
a vez que los cuestionarios llegan al departamento técnico, se supervisan uno a uno en la fase denominada «d
ración», que tiene como misión asegurarse del comportamiento y la conducta que mantuvo el entrevistador, así como la del entrevistado y comprobar que ambas han sido correctas, y por tanto no han dado lugar a fallos que ocasionarían errores en las estimaciones. La conducta de los entrevistadores puede resultar incorrecta por alguna de las siguientes causas (variables contaminadoras):
  • Por la no realización de algunas de las entrevistas, cumplimentando los cuestionarios falsamente.
  • Las entrevistas se realizan, pero sólo se hacen las preguntas claves, de tal manera que una vez conocida la postura general del entrevistado, las restantes cuestiones son cumplimentadas por el entrevistador.
  • Las entrevistas se han hecho pero no a la persona adecuada.
Para disminuir la posibilidad de que sucedan estas cosas, el supervisor o jefe de equipo debe repetir algunas de las entrevistas y comprobar que todo se hizo correctamente, así como aclarar cualquier detalle que esté incompleto o induzca a error. Si se comprueba la falsedad total o parcial de un cuestionario, se han de revisar todos los efectuados por el mismo agente. Una vez depurados los cuestionarios, el supervisor estampará su visto bueno en todos para someterlos a la tabulación.
El proceso de tabulación consiste esencialmente en el tratamiento informático de los datos contenidos en los cuestionarios. Sin embargo, también se incluyen en este proceso todas aquellas operaciones encaminadas a la obtención de resultados numéricos relativos a los temas de estudio que se tratan en los cuestionarios.
La tabulación puede ser tratada de forma manual o informática. Aunque la primera está totalmente en desuso, se efectúa a nivel particular o cuando el cuestionario es reducido y se realiza mediante el punteo o simple recuento de los datos. Se debe tabular informáticamente, ya que la información que se recoge en las encuestas es muy amplia y exige, para su eficaz utilización, la realización de múltiples clasificaciones combinadas entre variables.
En todo caso, el proceso de tabulación requiere una previa codificación de las respuestas obtenidas en los cuestionarios, es decir, la traducción de los cuestionarios a una clave numérica. El momento más adecuado para elaborar este plan de procesamiento de datos es al elaborar el cuestionario, ya que de esta forma se evita la posibilidad de que surjan cuestiones que no puedan ser correctamente tratadas por falta de preguntas adecuadas o de difícil tabulación.
Brown dice sobre este tema:
«Los investigadores pueden dedicar un tiempo considerable y mucho dinero de la firma para llevar a cabo una tarea, estar entusiasmados porque los resultados apuntan claramente hacia conclusiones importantes. Dedicar mucho esfuerzo para producir un informe realmente valioso. Los resultados se envían al principal directivo de la empresa y el analista espera los comentarios. Luego se le llama y se le pregunta: ¿Quién leyó el borrador de este trabajo?, he encontrado tres errores de ortografía en el informe. Cuando uno ha tenido experiencias similares a ésta, comienza a apreciar la importancia que el ejecutivo da a la presentación de los resultados.»
La triste reacción del directivo es lo que hay que evitar a la hora de presentar un informe final o cualquier otro tipo de estudios, ya que en la mayoría de los casos la efectividad de un informe se juzga por la habilidad con la que se haya escrito y presentado el mismo, olvidándose del planteamiento y la ejecución adecuados.
Algunas veces las presentaciones son demasiado largas, otras, muy cortas; a veces se abusa de gráficos, por ello e independientemente de a quién vaya dirigido el informe se han incluido las principales características que deben servirnos para presentarlo:
  • La portada debe dar a conocer el tema sobre el que versa el informe, para y por quién ha sido preparado, así como la fecha en la que se ha terminado (mes y año solamente).
  • En la introducción se explicarán los motivos por los que se ha llevado a cabo la tarea, el objetivo previsto en el estudio, así como el equipo que ha colaborado.
  • El cuerpo del informe comenzará con una exposición de los problemas que se van a investigar y las hipótesis sobre las cuales se apoyará la investigación. A continuación, se describirán los métodos empleados, fuentes de información, forma de establecer la muestra, tipo de cuestionarios y el número y clase de investigadores que participen.
  • Los resultados se presentarán en tablas y gráficos que expliquen las relaciones existentes entre las diversas variables analizadas.
  • A continuación se indicarán el resumen final y las conclusiones, para añadir con posterioridad las recomendaciones, indicándose las acciones y normas que se deberán seguir a la vista de los resultados obtenidos.
  • Por último, se proporcionarán el apéndice y la bibliografía.
  • La presentación puede ser indistintamente en Power Pointo Word.
  • Es aconsejable entregarlo en soporte papel y en USB.