machine-learning-robots-human-dilbert

Stor versus tyk

“By outsourcing our thinking to Big Data, our ability to make sense of the world by careful observation begins to wither, just as you miss the feel and texture of a new city by navigating it only with the help of a GPS”. (Christian Madsbjerg og Mikkel B. Rasmussen i Wall Street Journal, 21. marts 2014)

 

Et lille tankeeksperiment. Du er leder af en mellemstor organisation, lad os sige med 700 ansatte og spredt ud geografisk på fire forskellige lokationer i Danmark. Du skal have iværksat en større forandringsproces, der inkluderer en ny organisering, som skal sikre ét af hovedformålene: højere kundetilfredshed via kortere tid til markedet for jeres produkter.

Som virksomhed er I ret langt fremme rent teknologisk, hvilket blandt andet betyder, at I har store mængder af data om produktionstider, kundetilbagemeldinger via sociale medier, og hvad man ellers kan tænke sig. Naturligvis også intern data ifm. APV-målinger, ledermålinger, effektivitetsmålinger og den slags. Samlet set måske 200.000 valide datapunkter/observationer, som naturligvis skal analyseres for at finde brugbare mønstre og dermed skabe indsigt.

På gangene hører du tilfældigvis også om en anden tilgang, som de vist går og roder lidt med hos HR. Eller i hvert fald i et hjørne af HR. De taler om thick data. Andre kalder det human informed data. Deres data består af interne hverdagsfortællinger, kundefortællinger, små input de har samlet op via jeres facebook-side. Men de har kun data fra ca 50-60 personer.

Hvilken ét af data-sættene vælger du som grundlag i jeres beslutningsproces? Rent intuitivt tænker vi sikkert, at hvis jeg får indsigt via 200.000 datapunkter, så er det alt andet lige et stærkere grundlag, end hvis jeg får det fra 50-60 stk. Det sætter mig i stand til at træffe langt stærkere ledelsesmæssige beslutninger. Så jeg vælger den med de 200.000. Jeg vælger at gå big data-vejen.

Én af grundene til, at big data er blevet så populært, i hvert fald at tale om, er naturligvis den helt simple, at det nu er muligt at samle enorme mængder data og bede maskiner sortere det ud fra diverse parametre. Men en anden grund er muligvis også, at vi rent instinktivt tænker, at hvis vi kan samle flere datapunkter, så skaber vi et endnu stærkere overblik over meget komplekse situationer eller problemstillinger. Vi har med andre ord muligheden for at håndtere kompleksiteten. Big data giver os mulighed for at reducere den, få styr på den, og derfor også at træffe stærke kvalificerede beslutninger om, hvad der skal gøres fremadrettet.

Der er imidlertid to grundlæggende udfordringer ved i så høj grad at forlade sig på big data som måde at håndtere kompleksitet på:

  • Lige meget, hvor megen data du har, så vil det nu engang være data om, hvad der har virket, eller hvad der er sket. Det vil ikke være data om, hvad der kan virke i fremtiden, eller hvad der vil ske i fremtiden. Det vil være data, der kan afsløre, hvad, hvem, hvornår, hvor.
  • Og netop hvad, hvem … er et andet problem. For big data fortæller dig kun noget om, hvad der er sket, men ikke noget om, hvorfor det er sket. Den menneskelige indsigt via levede erfaringer, fortalte historier, vigtige refleksioner, alt det findes ikke i de data. Big data er tal – men desværre lever vi for ofte i den illusion, at de tal så betyder, at vi også ved noget om hvorfor – mens sandheden er, at det hvorfor er noget, vi selv konkluderer, og beslutningskvaliteten bliver derfor ofte derefter.

Men hvis vi ser på denne big data-mania, så er den største fare måske i virkeligheden, at vi med den skubber verden på afstand af os, og overlader mere eller mindre tolkningen af verden til algoritmer og maskiner. Igen, hvis bare verden var forudsigelig og lineær, så ville det jo være ganske fint. Hvis bare vi kunne fremskrive virkeligheden, ud fra hvor den er lige nu, så tommeltotten op. Men verden udvikler sig nu engang ikke lineært. Og vi mennesker agerer nu engang ikke så pokkers rationelt.

Pointen er, som Tricia Wang skriver om i et fremragende indlæg:

For Big Data to be analyzable, it must use normalizing, standardizing, defining, clustering, all processes that strips the the data set of context, meaning, and stories. Thick Data can rescue Big Data from the context-loss that comes with the processes of making it usable.

 

Nu skal det ikke forstås sådan, at big data er værdløst. Det er det bestemt ikke. I ikke mindst statiske virkeligheder er de jo ganske fremragende, og i mere dynamiske virkeligheder (sociale systemer) kan de naturligvis også hjælpe os til spotte mønstre. De mønstre er bare sjældent så værdifulde, som vi gør dem til, uden at have suppleret dem med thick data (et udtryk, der umiddelbart kan tilskrives Tricia Wang). Groft sagt kan man sige, at big data hjælper dig med at måle variabler, du allerede kender, mens thick data hjælper dig med at opdage ny viden eller skabe ny indsigt. Thick data er data, hvor du har konteksten med, den sociale virkelighed, den menneskelige logik – alle de parametre, der er essentielle til ikke at reducere, men til at lære at navigere i kompleksitet.

Rigtigt mange forandringstiltag, rigtigt meget produktudvikling, rigtigt meget måling slår ganske enkelt fejl, fordi man udelukkende har forladt sig på big data eller ikke-informeret data, som vi kalder det. Tiltagene ser smukke ud i deres struktur, fordi de på overfladen følger den vej, big data har optegnet for os. Vi tænker, at vi så at sige har fundet vejen gennem den komplekse labyrint. Men vi glemmer måske, at den vej kun er overflade. Nedenunder, ved siden af, ovenover, på kryds og tværs af den, findes virkeligheden. Dér findes den kontekst, som vejen skal fungere i og på. Og den er ikke nødvendigvis til at standardisere; måske peger den i alle mulige retninger. Den er ikke sådan bare lige at samle i klynger ud fra predefinerede parametre; måske opstår mulige parametre først, når du begynder at dykke ned i den data.

Hele humlen er, at hvis jeg ikke ved, hvorfor eksempelvis medarbejdere gør som de gør, har den adfærd de har, så ved jeg basalt set heller ikke, hvordan jeg skal skabe en forandring i den organisatoriske adfærd. Vi skal derfor ikke være så pokkers overraskede over, at vi ofte støder på modstand ifm. forandringer. Det er bare den naturlige menneskelige reaktion på ikke at føle sig forstået og derfor taget alvorligt. Det er en reaktion på, at vi ikke har taget kompleksiteten i virkeligheden alvorligt, men i stedet har prøvet at forsimple den i forsøget på at kunne skabe forudsigelige udfald i den. Men sandheden er, at vi i det forsøg har ødelagt virkeligheden, rykket den i stykker og gjort den til noget, den ikke er.

Reelle forandringsprocesser foregår ude i den satans komplekse virkelighed, ikke i opstillede laboratorier. Vi må forstå, at mennesker nu engang er altafgørende i forsøget på at skabe dybere indsigt i, ja, mennesker og vores adfærd. Og her er thick data bare langt bedre – om end ofte suppleret med big data.

 

Fodnote:

I Incento anvender vi den webbaserede metode SenseMaker® eller den processuelle (‘håndholdte’) metode Participartory Narrative Inquiry til at skabe thick data, der sikrer helt andre typer af og ofte ganske unik indsigt, inspiration og forståelse af adfærd, end hvad selv en million datapunkter kan klare.

Share this:

Jacob er direktør for konsulentydelser i Incento A/S og har en fortid som leder i kommunikationsbranchen. Hans nysgerrighed (og derfor også hans arbejde med kunder i både det offentlige og det private) centrerer sig omkring det at skærpe evnen til at agere i og udnytte mulighederne i kompleksitetens domæne.

Leave a comment