COCIDOS COMO RANITAS; sin información, no hay escapatoria (Parte I)

COCIDOS COMO RANITAS; sin información, no hay escapatoria (parte II)

 

 

En nombre del progreso,
de la ciencia, y del aprovechamiento,
se efectúan continuos ataques
a las libertades individuales, a la dignidad,
a la integridad de la naturaleza,
a la belleza y a la felicidad de vivir.
Lenta, pero inexorablemente,
con la constante complicidad
de las víctimas, inconscientes,
o quizás incapaces de defenderse”.

(Olivier Clerc)

 

****

 

“Imagínate una cacerola llena de agua fría en la cual nada tranquilamente una pequeña ranita.

Un pequeño fuego se enciende bajo la cacerola, y el agua se calienta lentamente.

El agua despacio… despacio… se va poniendo tibia, y la ranita encuentra esto más bien agradable, y continúa nadando.

La temperatura del agua sigue subiendo…

Ahora el agua está caliente, más de lo que la ranita pueda gozar, se siente un poco cansada pero no obstante eso, no se asusta.

Ahora el agua está verdaderamente caliente y la ranita comienza a encontrar esto desagradable, pero está muy debilitada; entonces soporta y no hace nada.

La temperatura continúa subiendo, hasta cuando la ranita termina simplemente… cocinándose y muriendo.

Si la misma ranita hubiera estado metida directamente en el agua a 50 grados, con un golpe de sus patas inmediatamente habría saltado fuera de la cacerola.

Esto demuestra que, cuando un cambio viene de un modo suficientemente lento escapa a la conciencia, y no provoca en la mayor parte de los casos ninguna reacción, ninguna oposición, ninguna revuelta…

Si miramos lo que sucede en nuestra sociedad desde hace algunas décadas, podemos ver que estamos sufriendo una lenta deriva a la cual nos estamos habituando.

Una cantidad de cosas que nos habrían hecho horrorizar 20, 30 o 40 años atrás han sido poco a poco banalizadas, y hoy a penas preocupan, o dejan directa y completamente indiferente a la mayor parte de las personas.

En nombre del progreso, de la ciencia, y del aprovechamiento, se efectúan continuos ataques a las libertades individuales, a la dignidad, a la integridad de la naturaleza, a la belleza y a la felicidad de vivir. Lentamente, pero inexorablemente, con la constante complicidad de las víctimas, inconscientes, o quizás incapaces de defenderse.

Las negras previsiones para nuestro futuro en vez de suscitar reacciones y medidas preventivas, no hacen más que preparar psicológicamente a la gente para aceptar las condiciones de vida decadentes, y también dramáticas.

El martilleo continuo de informaciones por parte de los medios satura los cerebros, que no están ya en condiciones de distinguir las cosas.

Cuando hablé de esto por primera vez, era pensando en el mañana…

¡¡¡ Ahora es para HOY !!!

¡Conciencia o cocción, debemos elegir!

Entonces, si no estás como la ranita, ya medio cocinad@, da un saludable golpe con tus patas ¡antes que sea demasiado tarde!”.

Olivier Clerc “La rana que no sabía que estaba hervida” (resumen)

 

 

COCIDOS COMO RANITAS; sin información, no hay escapatoria

Por Chus

 

 

La Fábula de la Rana Hervida es publicada en 1990 por el Ingeniero especialista en Organización y Sistemas, Peter Senge, en su más conocida obra, “La quinta disciplina: el arte y la práctica de la organización abierta al aprendizaje” para enfatizar la importancia del Pensamiento Sistemático ( https://en.wikipedia.org/wiki/The_Fifth_Discipline ) .

Si se echa una rana a una olla con agua hirviendo, ésta salta inmediatamente hacia afuera y consigue escapar de la olla sin haberse quemado ni una pestaña. En cambio, si inicialmente en la olla ponemos agua a temperatura ambiente y echamos una rana, ésta se queda tan fresca dentro de la olla. Pero cuando, a continuación, comenzamos a calentar el agua poco a poco, la rana no reacciona bruscamente sino que se va acomodando a la nueva temperatura del agua hasta perder el sentido y, finalmente, morir literalmente hervida.

 

 

Sal de tu perspectiva, puede ser que te estés acomodando peligrosamente en el agua”.

 

****

Hoy es el MAÑANA que AYER tanto te preocupaba

Un sistema se define como una entidad con límites y con partes interrelacionadas e interdependientes (subsistemas) cuya suma es mayor a la suma de sus partes. El cambio de una parte del sistema afecta a las demás y, con esto, al sistema completo, generando patrones predecibles de comportamiento. El crecimiento positivo y la adaptación de un sistema dependen de qué tan bien se ajuste éste a su entorno. Además, a menudo los sistemas existen para cumplir un propósito común (una función) que también contribuye al mantenimiento del sistema y a evitar sus fallos.

Ludwig von Bertalanffy, biólogo y filósofo austriaco, publicó en 1968 “Teoría general de los sistemas. Fundamentos, desarrollo, aplicaciones”, dando carta de naturaleza a la Teoría General de Sistemas, que es el estudio interdisciplinario de los sistemas en general. Su propósito es estudiar los principios aplicables a los sistemas en cualquier nivel en todos los campos de la investigación.

La teoría general de sistemas afirma que las propiedades de los sistemas no pueden describirse significativamente en términos de sus elementos separados. La comprensión de los sistemas sólo ocurre cuando se estudian globalmente, involucrando todas las interdependencias de sus partes. Las tres premisas básicas son las siguientes: 1.- los sistemas existen dentro de sistemas. 2.- los sistemas son abiertos. 3.- las funciones de un sistema dependen de su estructura.

El objetivo de la teoría de sistemas es el descubrimiento sistemático de las dinámicas, restricciones y condiciones de un sistema, así como de principios (propósitos, medidas, métodos, herramientas, etc.) que puedan ser discernidos y aplicados a los sistemas en cualquier nivel de anidación y en cualquier campo, con el objetivo de lograr una equifinalidad optimizada.

La teoría general de sistemas trata sobre conceptos y principios de amplia aplicación, al contrario de aquellos que se aplican en un dominio particular del conocimiento. Distingue los sistemas dinámicos o activos de los estáticos o pasivos. Los primeros son estructuras o componentes de actividad que interactúan en comportamientos o procesos, mientras que los segundos son estructuras o componentes que están siendo procesados.

El conocimiento del “Sistema Mundo”, formado por la suma de los diferentes Subsistemas en que se organiza, se obtiene del análisis de los datos proporcionados por la experiencia (conocimiento empírico).

En 1896, el economista, filósofo e ingeniero italiano, Vilfredo Pareto, enunciaba, por primera vez, la regla del 80-20distribución A-B-Cley de los pocos vitales o principio de escasez del factor, más conocido como el Principio de Pareto.

Pareto enunció el principio basándose en el conocimiento empírico, basado en la experiencia. Estudió que la gente en su sociedad se dividía naturalmente entre los «pocos de mucho» y los «muchos de poco»; se establecían así dos grupos de proporciones 80-20 tales que el grupo minoritario, formado por un 20 % de población, ostentaba el 80 % de algo y el grupo mayoritario, formado por un 80 % de población, el 20 % de ese mismo algo.

En concreto, Pareto estudió la propiedad de la tierra en Italia y lo que descubrió fue que el 20 % de los propietarios poseían el 80 % de las tierras, mientras que el restante 20 % de los terrenos pertenecía al 80 % de la población restante. Estas cifras son arbitrarias; no son exactas y pueden variar. Su aplicación reside en la descripción de un fenómeno y, como tal, es aproximada y adaptable a cada caso particular.

El Principio de Pareto se ha aplicado con éxito a los ámbitos de la política y la Economía. Se describió cómo una población en la que aproximadamente el 20 % ostentaba el 80 % del poder político y la abundancia económica, mientras que el otro 80 % de población (lo que Pareto denominó “las masas”), estaba empobrecido y tenía poca influencia política. Así sucede, en líneas generales, con el reparto de los bienes naturales y la riqueza mundial.

Sin embargo, en los últimos años, el conocimiento del “Sistema Mundo” ha tenido una expansión extraordinaria;  verdaderamente insólita. La capacidad de computación y análisis de datos constituye un hito comparable al de la máquina de vapor, que dio inicio a la “Revolución Industrial”, a finales del Siglo XVIII.

Big data, macrodatos, datos masivos, inteligencia de datos o datos a gran escala, es un término que hace referencia, tanto a una cantidad de datos tal que supera la capacidad del software convencional para ser capturados, administrados y procesados en un tiempo razonable (el volumen de los datos masivos crece constantemente; un iPhone hoy en día tiene más capacidad de cómputo que la NASA cuando el hombre llegó a la luna), como a los procedimientos usados para encontrar patrones repetitivos dentro de esos datos.

♦♦♦♦♦♦♦

 

Big Data

 

 

El concepto de Big Data nace en los años noventa, y fue publicado por el informático teórico estadounidense John Mashey en un artículo titulado “Big Data and the Next Wave of Infrastress” (Big Data y la próxima ola de infrastress), popularizando el término que hoy nos ocupa. Para Mashey, el concepto hacía referencia al estrés que iban a  sufrir las infraestructuras físicas y humanas de la informática debido al imparable tsunami de datos que ya se oteaban en el horizonte, inmanejable con los instrumentos de gestión al uso.

Actualmente, el concepto es definido como la gestión y análisis de enormes volúmenes de datos que no pueden ser tratados de manera convencional, ya que superan los límites y capacidades de las herramientas de software habitualmente utilizadas para la captura, gestión y procesamiento de los datos.  Este concepto engloba infraestructura, tecnologías y servicios que han sido creados para dar solución al procesamiento de grandes conjuntos de datos estructurados, no estructurados o semi-estructurados que pueden provenir de sensores, micrófonos, cámaras, escáneres médicos o imágenes, entre otros.

Con la definición obtenida de varias fuentes puedo decir que el Big Data es un proceso en el cual se recolecta grandes cantidades de datos e información con el propósito de analizarla y encontrar algunos patrones recurrentes, e inclusive información que no es visible y comprendida por personas ordinarias.

Tomando en cuenta todo lo anterior el Big Data tiene mucho potencial a la hora de la toma de decisiones ya que se pueden predecir tendencias en el trabajo o mercado existente creando nuevas oportunidades de trabajo. Sin embargo al manipular tanta información como perfiles, necesidades y el sentir de los clientes es un gran nicho para la violación de la privacidad de estos.

Actualmente cuando pasamos por una era netamente tecnológica todos queremos estar conectado a internet mediante nuestros dispositivos móviles, con la esperanza de obtener una mejor calidad de vida y/ comodidad. Sin embargo, de esto surgen dos problemáticas que se acentúan, el primero es la poca o nula seguridad en la transmisión de nuestra información privada (datos personales, datos biométricos, etc.) por medios inalámbricos y en segundo lugar es el “Anonimato” de nuestros datos personales cuando navegamos o los incluimos en algún sitio como redes sociales.

Desde mi punto de vista la seguridad  en la transmisión de nuestros datos personales debe de ser un punto esencial cuando entregamos dichos datos a un sitio que consideramos de “confianza” ya que actualmente existen dispositivos (wearables) que capturan datos biométricos únicos y que pueden identificar a cada persona, como presión sanguínea, huella digital, composición del iris, e inclusive podrían capturar un ritmo único al caminar; y para contener nuestros datos deberían de existir protocolos que no sean fáciles de atravesar.

En cuanto al anonimato en la red, considero que es imposible ser anónimo aun si se usan programas como proxis y VPNs para camuflar la IP, ya que cada PC tiene una huella digital única que puede identificar al individuo detrás de esta. Esta huella digital de nuestros PC o cualquier dispositivo conectado a internet es utilizada para la navegación entre las páginas y sitios web, por lo cual siempre queda rastro de lo que se hace.

https://codigosimportantes.blogspot.com.es/2015/09/ensayo-big-data.html

 

♦♦♦♦♦♦♦

 

Las Redes Sociales son la fuente principal de Big Data

 

 

¿De dónde provienen todos estos datos? Los fabricamos directa e indirectamente segundo tras segundo. La cantidad de datos generados por persona y unidad de tiempo es gigantesca. Catalogamos la procedencia de los datos según las siguientes categorías:

  • Generados por las personas: el hecho de enviar correos electrónicos o mensajes por WhatsApp, publicar un estado en Facebook, tuitear contenidos o responder a una encuesta por la calle son cosas que hacemos a diario y que crean nuevos datos y metadatos que pueden ser analizados. Se estima que cada minuto al día se envían más de 200 millones de correos electrónicos, se comparten más de 700 000 piezas de contenido en Facebook, se realizan dos millones de búsquedas en Google o se editan 48 horas de vídeo en YouTube. Por otro lado, las trazas de utilización en un sistema ERP, incluir registros en una base de datos o introducir información en una hoja de cálculo son otras formas de generar estos datos.

  • Transacciones de datos: la facturación, las llamadas o las transacciones entre cuentas generan información que tratada puede ser datos relevantes. Un ejemplo más claro lo encontraremos en las transacciones bancarias: lo que el usuario conoce como un ingreso de X euros, la computación lo interpretará como una acción llevada a cabo en una fecha y momento determinado, en un lugar concreto, entre unos usuarios registrados, y más metadatos.

  • Marketing electrónico y web: se generan una gran cantidad de datos cuando se navega por internet. Con la web 2.0 se ha roto el paradigma webmaster-contenido-lector y los mismos usuarios se convierten en creadores de contenido gracias a su interacción con el sitio. Existen muchas herramientas de seguimiento utilizadas en su mayoría con fines de mercadotecnia y análisis de negocio. Los movimientos de ratón quedan grabados en mapas de calor y queda registro de cuánto pasamos en cada página y cuándo las visitamos.

  • Máquina a máquina (machine to machine, M2M): son las tecnologías que comparten datos con dispositivos: medidores, sensores de temperatura, de luz, de altura, de presión, de sonido… que transforman las magnitudes físicas o químicas y las convierten en datos. Existen desde hace décadas, pero la llegada de las comunicaciones inalámbricas (Wi-Fi, Bluetooth, RFID…) ha revolucionado el mundo de los sensores. Algunos ejemplos son los GPS en la automoción o los sensores de signos vitales en la medicina.

  • Biométrica: son el conjunto de datos que provienen de la seguridad, defensa y servicios de inteligencia.​ Son cantidades de datos generados por lectores biométricos como escáneres de retina, escáneres de huellas digitales, o lectores de cadenas de ADN. El propósito de estos datos es proporcionar mecanismos de seguridad y suelen estar custodiados por los ministerios de defensa y departamentos de inteligencia. Un ejemplo de aplicación es el cruce de ADN entre una muestra de un crimen y una muestra en nuestra base de datos.

 

♦♦♦♦♦♦♦

 

El Big Data es una nueva forma de pensar el mundo

 

 

En un mundo de escasez de información nos hemos acostumbrado a pensar mediante hipótesis: lanzábamos una idea posible, la confirmábamos con unos pocos datos recogidos al efecto y, gracias a este proceso, determinábamos la causalidad, el porqué de los fenómenos. Con el Big data la causalidad pierde terreno a favor de la correlación. La correlación se basa en cuantificar la relación estadística entre dos valores de datos. No sabemos por qué pero nos damos cuenta de que cuando sucede una cosa muy probablemente sucede otra.

En mi opinión, esta nueva manera general de explicar y ver el mundo pone en crisis los fundamentos de toda la cultura occidental desde los griegos a la ilustración. Los clásicos siempre nos dijeron que debíamos comprender, conocer los motivos que provocaban la existencia de un fenómeno. Frente a este enfoque tradicional la nueva mentalidad que nos proponen Mayer y Cukier pasa por aceptar el desorden y la imprecisión del mundo para ser capaces de hacer más predicciones. Mientras que la causalidad nos ayudaba a entender lo que sucedió en el pasado, la correlación nos lleva a poder, en gran medida, predecir el futuro. El cambio cuantitativo que nos trae el aluvión de datos nuevos se vuelve cualitativo y radical.

¿Quiénes han sido los primeros en comprender estas nuevos enfoques y ponerlos en marcha? Por supuesto han sido las empresas, que han abrazo “la religión de los datos” con el objetivo de extraer rendimiento económico a toda esta información. La orientación a los datos es la nueva forma de centrarse en el cliente, nos dicen los “ninjas del análisis” como Avinash Kaushik, cuyo excelente “Analítica 2.0” ya analizamos en el blog. Pasemos a comentar cómo se comportan las corporaciones en este nuevo entorno.

Big data y petróleo empresarial.

Los datos, escuchamos sin cesar, son el petróleo del siglo XXI, un nuevo factor de producción que se une a la tierra, el trabajo y el capital. Si el capitalismo del siglo XX desplazó el valor del producto a la marca, hoy el nuevo intangible reinante que da beneficios se encuentra en las bases de datos. Pensemos que solo el 5% de los datos que están recopilados están estructurados y son usados con una utilidad concreta. ¡Un 95% de “wild data” espera que sus poseedores extraigan una rentabilidad de ellos o les busquen un sentido no económico!

La carrera mundial por recabar datos masivos ha comenzado. Empresas de EEUU como Facebook pescan millones de datos de la vieja e inerme Europa cada día y de muchas otras zonas de mundo. Gigantes como China se resisten algo más. El verdadero salto cualitativo se juega en el terreno de las ideas: el que sea capaz de innovar dando sentido y monetizando este banco enorme de hechos ganará la partida. Cada usuario de Facebook, no dicen el libro, puede valorarse en unos 100 euros. Cada tuit, a la hora de ser analizado, incluye 33 parámetros diferentes que permiten extraerle rendimiento. En último término, como nos decía Jeremy Rifkin, es la vida, la experiencia y el tiempo humano el que se convierte en una “commodity”. Solo se trata de un paso más, de ir un poco más lejos en la “mercantilización del mundo”.

A modo de conclusión: humanicemos el Big data

Al final del escrito Mayer y Cukier realizan un recorrido por los riesgos que nos pueden traer los datos masivos. Considero que los autores son bastante optimistas y, en contra de lo esperado por mí, se centran en los aspectos positivos del Big data, y ven su advenimiento como algo positivo. Sin embargo los peligros son evidentes y no dejan de señalarlos. En primer lugar, si basamos demasiado la toma de decisiones en los datos no haremos sino desvalorizar e invalidar el juicio humano.

Los datos no hablan por sí solos, las máquinas, en última instancia, no toman decisiones. No debemos dejar que los datos masivos avancen por delante de nuestra capacidad de darle forma a la tecnología para dotarla de sentido. Los datos masivos son comprendidos y usados dentro del marco de una teoría y una práctica humana.

El riesgo para la privacidad, más que evidente, de la generalización de estos nuevos modelos de negocio, será difícil del gestionar. Los autores apuestan porque los gestores de los datos, las grandes corporaciones, sean más transparentes y asuman más responsabilidades. En un mundo donde los usos de los datos eran fundamentalmente primarios, el usuario/cliente tenía más control sobre los mismos. Hoy en día, una vez cedemos información sobre nosotros, es casi imposible por el ciudadano seguir y controlar los usos que se van a hacer con ella. No obstante, y esto es ya una opinión personal, creo que la educación digital de la ciudadanía debe avanzar en paralelo. Los internautas deben ser conscientes de que el “todo gratis” de internet casi nunca existe y han de comprender que los servicios a coste 0 que se les ofrecen están siendo pagados en realidad gracias a la mercantilización de su privacidad. Así podrán elegir más libremente.

Se trata, en definitiva y para concluir, de usar estas nuevas posibilidades que nos ofrece el Big data con gran dosis de humildad y humanidad. Los datos masivos han llegado para quedarse y es un reto para la comunidad global gestionarlos de forma que ofrezcan sus beneficios a la ciudadanía sin que lleguen a representar un peligro para nuestra intimidad y seguridad”.

Antonio Adsuar – http://librosensayo.com/sobre-antonio-adsuar/

http://librosensayo.com/big-data-la-revolucion-de-los-datos-masivos-de-viktor-mayer-schonberger-y-kenneth-cukier/

 

♦♦♦♦♦♦♦

 

Todo sucede despacio. Lentamente

 

 

La rana que no sabía que estaba hervida” plantea un problema extrapolable a cualquier ámbito: en qué medida los cambios a veces no influyen en nuestro subconsciente. O lo que es lo mismo: si los cambios se realizan de forma lenta y paulatina pueden llegar a pasar inadvertidos hasta el punto que si no actuamos con antelación nos obligan a un viaje sin retorno”.

Una de las pocas controversias habidas sobre la metáfora de “la rana hervida” fue acerca de si era cierto o no su mensaje; es decir, si era verdad que la rana se quedaba quieta mientras el agua se iba calentando poco a poco en la cacerola. Porque a una metáfora se le debe exigir que lo que cuente sea real. Durante un tiempo hubo opiniones para todos los gustos: para unos era una farsa, para otros no ofrecía ninguna duda. Se sabía de experimentos científicos contradictorios. Después de algunas controversias, en 1988 se resolvió que: Si la velocidad de calentamiento de la temperatura del agua es menor de 0,02 º/minuto la rana se queda quieta y se muere al final de la cocción. Mientras que a mayor velocidad la rana salta y escapa.

https://eltrasterodepalacio.wordpress.com/2012/04/12/el-lenguaje-simbolico-la-metafora-de-la-rana-hervida/

 

Volvemos a la “Fábula de la Rana Hervida”. La rana soy yo; eres tú. La ANSIEDAD equivale a la temperatura. Esa “temperatura”, nos lleva a tomar decisiones que, en lugar de afrontar las situaciones o resolver los problemas, se dirigen a disminuir nuestro nivel de ansiedad actual. Nos adaptamos a algo que aparenta ser beneficioso.

Cuando un cambio –o una serie de ellos- tiene lugar lentamente, escapa de nuestra conciencia y nos deja sin capacidad de respuesta o reacción, pese a que se trata de situaciones peligrosas, incómodas e insostenibles. Así, una vez que tomamos conciencia de ellas, no tenemos los recursos necesarios para poder afrontarlas. Las consecuencias desagradables aparecen, sin que podamos evitarlas.

En nombre del progreso, de la ciencia, y del aprovechamiento, se efectúan continuos ataques a las libertades individuales, a la dignidad, a la integridad de la naturaleza, a la belleza y a la felicidad de vivir. Lenta, pero inexorablemente, con la constante complicidad de las víctimas, inconscientes, o quizás incapaces de defenderse” (Olivier Clerc).

En realidad, todo descansa sobre la desposesión de nuestros Datos Personales; sobre la Vulneración generalizada del Derecho Humano a la Intimidad. Con esos datos robados, se adquiere el conocimiento sistemático de las dinámicas, restricciones y condiciones del Sistema Global, así como de principios (propósitos, medidas, métodos, herramientas, etc) que pueden ser aplicados al diseño del Sistema Global, manipulando sus Subsistemas.

El cambio de una parte del sistema afecta a las demás y, con esto, al sistema completo, generando patrones predecibles de comportamiento.

En efecto, ya no es la experiencia humana -el Conocimiento Empírico- la fuente de la información sobre el “Sistema Mundo”, sino algo que apenas podemos definir; la “correlación”.

 

♦♦♦♦♦♦♦

 

 CORRELACIÓN

 

Ilustración: Yanir Seroussi

 

Con la muerte en los talones: Epidemia de Big Data y mortandad de análisis

Por Miguel Borrás

 

Según el Big Data, si el Gobierno de EEUU quiere reducir los suicidios, debe reducir la inversión en ciencia. ¿Extraño? En la siguiente gráfica se muestra que ambas variables están correlacionadas al 99,8%.

 

Por supuesto, el sentido común nos dice que algo no encaja. En el post The september issue explicábamos que elaborar nosotros mismos el análisis de tendencias nos puede aportar una gran ventaja competitiva. Pero hacerlo desde los puros datos, sin análisis causal, es peligroso. En un mundo con ingentes datos disponibles, el Big Data nos permite descubrir “posibles” correlaciones, incluso de forma automática. Lo cual no quiere decir que haya una relación de causalidad. Como dice Nassim Taleb en su Cisne Negro, el ser humano está programado para identificar patrones e inferir causalidad, pues de ello ha dependido su supervivencia a largo de la evolución. Pero ello nos genera inconvenientes como la superstición, y también grandes errores de decisión cuando aplicamos el Big Data en la empresa.

 

Chris Anderson, jefe de la revista Wired, afirma que el desarrollo de los datos masivos o Big Data hace superflua la teoría. Pero frente a las grandes esperanzas del Big Data debemos ser cautos. El 80% de los data lakes acabarán siendo ineficientes, pues no incluirán gestión efectiva de metadatos, y el 70% de los deployments en Hadoop no alcanzarán los objetivos de rentabilidad esperados (según Gartner).

El profesor de Oxford, Viktor Mayer-Schöngerger, y el editor de datos de The Economist, Kennet Cukier (en su libro Big data, la revolución de los datos masivos), nos explican que el empleo masivo del Big Data nos aleja de la tradicional búsqueda de la causalidad.

Pero establecer la causalidad es fundamental para desarrollar buena Inteligencia Estratégica y Prospectiva. Necesitamos establecer relaciones de causalidad entre agentes de cambio –change drivers- de nuestro mercado, o del sector en otros mercados (sugiero aquí la lectura de los posts El tiempo en sus manos y The September issue). Pueden ser agentes de cambio en el horizonte temporal estratégico, o en el horizonte prospectivo. Así, las modas en los sabores en Italia y EEUU influenciarán el lanzamiento de nuevos snacks, postres y yogures, y esa es información estratégica. La regulación en favor del autoconsumo energético en otros países de la UE acabará presionando al gobierno de España, y esa es información para la prospectiva.

Las relaciones de causalidad no las establecen las matemáticas del Big Data, sino el buen trabajo de los analistas. La función del analista es fundamental para generar conocimiento; y sobre ese conocimiento construir las mejores decisiones empresariales. El exclusivo soporte de la estadística, sin el análisis experto que procese señales clave, es lo que hace fallar a “Nate” Silver (ex-gurú de las prediciones en el deporte) o a Goldman Sachs.

El personal de nuestra empresa es quien puede establecer las relaciones de causalidad entre los change drivers de nuestro mercado, con el apoyo de consultores externos si así lo decidimos. Por supuesto, los sistemas automáticos pueden identificar correlaciones, pero en el caso de que las encuentren no debemos fiarnos de ellas. Una correlación puede significar casualidad, no causalidad. Hay que entender nuestro negocio bien para filtrar esas correlaciones.

Debemos partir de esa comprensión experta de nuestro negocio para identificar las causalidades, y con ellas buscar la información que necesitamos para tomar decisiones. El conocimiento de nuestro equipo en la empresa es valiosísimo para recorrer aguas arriba el rio de la causalidad, e identificar qué debemos saber con anticipación. Recordemos el caso de los artículos de bebé.

Si muchos clientes de nuestro hotel vienen por un concierto o nos preguntan por un evento cultural una vez alojados, vigilemos el calendario de eventos. Por un lado para informarles y que vuelvan a la ciudad y a nuestro hotel (Táctica). Por otro, para vigilar si la oferta cultural de la ciudad sube o baja con el tiempo (Estrategia).

Byung-Chul Han, filósofo de la Universidad de las Artes de Berlín, nos dice que “La ciencia positiva, guiada por los datos, no produce ningún conocimiento o verdad“. Esta es una sentencia provocadora –eso pretende- pero no está de más recordar que tomar decisiones empresariales en base a correlaciones no causales es como jugar a la ruleta rusa: Puede que aciertes –con lo que sigues comercialmente vivo-, pero puede que no –con lo que pierdes todo. No vale la pena el riesgo. El impacto de fallar en la estrategia de la empresa es demasiado grande como para jugarlo a suertes. 

Por lo tanto, causalidad y no casualidad. Confianza en nuestro equipo de analistas en la empresa, y no sólo en el Big Data.

****

(Con la muerte en los talones es una película de Alfred Hitchcock rodada en 1959. En ella el protagonista se ve inmerso en un conflicto por una correlación errónea a partir de una casualidad).

https://www.antara.ws/es/blog-novedades-inteligencia-competitiva-innovacion/655-con-la-muerte-en-los-talones-epidemia-de-big-data-y-mortandad-de-analisis

 

 

Be the first to comment

Deja tu opinión

Tu dirección de correo no será publicada.


*