Det du ikke lærte i skolen – Del 1 – Kognitive Bias

RESUS - Det du ikke lærte i skolen

Løs snak på en teoretisk baggrund om "human factors" og ikke-tekniske færdigheder indenfor det akutmedicinske speciale og lægevirket generelt

RESUS-low-transparent

"Det du ikke lærte i skolen" er en del af den nye struktur på RESUS-platformen, som kommer til at udgøres af 4 tilbagevendende indlægstyper med udgivelse hver 2. måned:

  1. "Men hvad betyder det?": Kritisk gennemgang af nye og akutmedicinsk relevante studier ud fra RESUS-tjeklisterne
  2. "Sådan gør de altså i Amerika": Teoretisk gennemgang af et afgrænset emne ud fra kapitler i Tintinalli's og Rosen's Emergency Medicine
  3. "Det kan jeg da også godt, det der...": Gennemgang af akutmedicinske procedurer ud fra en struktureret og patientsikker tilgang
  4. "Det du ikke lærte i skolen": Samtaler om human factors og ikke-tekniske færdigheder indenfor det akutmedicinske speciale

"Det du ikke lærte i skolen" bygger i høj grad på det store arbejde som akutmedicinsk wunderkid Peter Tagmose Thomsen har lagt i udarbejdelsen af blogs omkring vigtige ikke-tekniske færdigheder indenfor akutmedicinen her på akutmedicineren.dk og vil i starten tage udgangspunkt i de enkelte blogs der allerede foreligger. Der er endnu indenfor den danske akutmedicin ikke mange der har arbejdet med emnet i samme grad som Peter og det er derfor et sandt scoop for RESUS-platformen at han er gået med til at medvirke som medvært i seriens tilbagevendende afsnit.

Ikke-tekniske færdigheder og meta-kognition omkring eget virke som læge generelt er indenfor de sidste år kommet mere i rampelyset, men er stadig områder der først og fremmest har brug for at blive bedre belyst, men som vi måske i virkeligheden har endnu mere brug for bliver bragt fra de særligt interesserede professorers støvede kontorer ud på gulvet i klinikken, hvor en bevidsthed omkring emnerne ikke kun kan betyde et større overskud, men potentielt også føre til bedre patientbehandling og øget patientsikkerhed.

Første emne i serien er kognitive bias, en del af emnet "Decision Making", som fylder så utroligt meget i vores daglige virke som akutmedicinere.

Podcast optaget den 18/2-22 - Skriftligt resume skrevet af Emil Ejersbo Iversen, februar 2022

Citér denne podcast som:
Iversen, E, Tagmose, P. RESUS - Det du ikke lærte i skolen - Del 1 - Kognitive Bias. RESUS, Region Sjællands UddannelsesSystem, Februar 2022. www.akutmedicineren.dk/resus/. Tilgået [dato]

Kognitive bias - hvad er det?

Bias ifb. med evidensbaseret medicin - den systematiske skævvridning af data - ses generelt som negativt og skal forsøges undgået. Kognitive bias kan nærmere beskrives som et præmis for den måde vores hjerner træffer beslutninger på - omend de kan føre til forudsigelige fejl.

Kognitive bias sker overalt - også udenfor vores professionelle roller - men akutafdelingens travlhed og til tider kaotiske arbejdsgang kan potentielt være en katalysator for disse forudsigelige fejlslutninger. Patrick Croskerry, en af de førende eksperter indenfor området, har derfor til tider kaldt akutafdelingen for et "laboratory of error".

Eksempler på kognitive bias:

  • Forankringsbias/diagnostisk momentum:
    • Starten på ethvert patientforløb - både ved ankomsten til akutafdelingen, men også ved hver overlevering - er højrisikosituationer for fejl og særligt forankringsbias, som beskriver en tendens til at fokusere særligt på én bid af den tilgængelige information og bygge sin tese på denne del uden at se den større sammenhæng. Eksempelvis tendensen til blindt at fokusere på diagnosen AKS hos patienter med brystsmerter.
    • Samtidig kan forankringsbias være en nødvendighed for at sortere i en nogen gange overvældende og forvirrende mængde information og komme igang med en diagnostisk process ved at afgøre hvilke bidder af informationen er vigtigst.
    • Diagnostisk momentum er videregivelsen af dette forankringsbias ved f.eks overlevering af patientforløbet, såsom når en patient meldes med en helt specifik diagnose fremfor et symptombillede - f.eks. intrakraniel blødning fremfor ændret bevidsthedsniveau, som kan prime behandleren til blindt at bestille en CT-scanning og evt. overse feber og petekkier.
  • Confirmation bias/premature closure
    • Dette bias beskriver tendensen til kun at tage information som bekræfter din hypotese i betragtning ved f.eks. kun at stille spørgsmål der afklarer AKS hos patienten med brystsmerter og dermed snævre signalet fra den tilgængelige information ind til reelt ”kun” at kunne bekræfte din hypotese.
    • Premature closure kan ses som en del af confirmation bias hvor man for hurtigt stopper efter f.eks. én ”bekræftet” diagnose – såsom ikke at undersøge yderligere efter en positiv U-stix for leukocytter hos en ældre med konfusion, der viser sig at have en SDH.
  • Tilgængelighedsbias/recency bias:
    • Tilgængelighedsbias kan beskrive både det faktum at vi kun er i stand til at diagnosticere diagnoser vi har tilgængelige på vores liste over differentialdiagnoser – utilstrækkelig viden om en tilstand vil altså automatisk føre til tilgængelighedsbias.
    • Dette bias kan dog også repræsenteres ved en tendens til i højere grad at undersøge for diagnoser som er særligt præsente, f.eks. forvente at finde aortadissektioner hos alle patienter med brystsmerter efter for nylig at have misset – eller fanget – en ung patient med aortadissektion.
  • Base rate neglect:
    • Prævalensen af en sygdom i en population vil direkte indflyde på sensitivitet og specificitet af en diagnostisk test. Er vi ikke opmærksomme på evt. forskelle i sygdomsprævalenser i forskellige populationer – såsom patienter i almen praksis versus patienter, der allerede er visiteret af en læge til akutafdelingen – kan vi også fejlagtigt vurdere præ-test sandsynligheden for en særlig tilstand og dermed skævvride hele vores diagnostiske process. Særligt ved skift af miljø fra det svenske system, med fri og uvisiteret adgang til akutmodtagelserne, med det danske kan det her bias komme i spil.
  • Affektive bias:
    • De affektive bias omhandler den effekt vores emotionelle respons på specifikke patienter eller særlige patientgrupper har på vores diagnostiske tilgang. Det er vigtigt at understrege at vi alle har affektive bias af en eller anden grad og type, såsom misbrugere, ”frequent flyers” eller måske ligefrem visse etniske grupper.
    • Affektive bias kan øge risikoen for at begå fejl på baggrund af andre bias, såsom forankring på at en alkoholiker der ofte kommer i akutafdelingen igen blot er fuld og derfor kun undersøges for dette og ikke andre årsager til sin bevidsthedsændring.
    • Affektive bias er ofte ubevidste og behøver ikke være forbundet direkte med negative følelser overfor enkelte patienter. Affektive bias kommer f.eks. også i spil når vi skal behandle vores nære eller pårørende.
    • Du kan få en ide om hvilke affektive bias du evt. selv underbevidst går rundt med på denne side.

System 1 og system 2 tankegang

Daniel Kahneman grundlagde tankegangen om ”Dual Process Theory”, som bygger på teorien om at vores beslutningstagning i høj grad bygger på forsøg på at genkende mønstre og basere vores beslutninger på disse sammenholdt med tidligere lignende situationer vi har stået i.

Det ubevidste, ukritiske, men hurtige og effektive system 1 står for mønstergenkendelsen og kan hos den erfarne ekspert være et stærkt værktøj til ikke blot hurtigere at genkende tilstande og syndromer, men også i nogle tilfælde ubevidst at fange op på små hints om at der ikke er tale om en normal situation. Hos den uerfarne novice er system 1 dog ofte årsag til mange af de fejl som begås på baggrund af kognitive bias, som system 1 er særligt sårbar overfor at begå, til dels fordi systemet bygger på disse bias for hurtigt at kunne sætte ting i kasser. Er der dog ikke nok kasser vil denne inddeling ofte være for grov til at kunne håndtere komplekse situationer og fejl vil hyppigere blive begået.

System 2 er et tungere, ineffektivt system, som bruger store ressourcer på bevidst at overveje de enkelte elementer af en situation uden brug af de førnævnte kasser. Systemet er derfor mindre udsat for fejlslutninger på baggrund af kognitive bias, men er så energi- og tidskrævende at det kun kan bruges i kortere tid af gangen.

System 1 og system 2 tankegangen kan eksemplificeres ved bilkørsel, som i høj grad, hos den erfarne bilist, foregår ved hjælp af system 1 og automatiserede vurderinger af f.eks. afstand til og hastighed af omkringkørende biler og fodgængere og som hurtigt kan udløse reaktioner i form af opbremsning eller baneskift for at undgå ulykker. Skulle bilkørsel baseres udelukkende på system 2 ville vores hjerner simpelthen være for optagede af en enkelt opgave, såsom at forsøge korrekt at udregne den egentlige afstand til den forankørende, at vi aldrig ville nå at reagere på forestående ulykker.

I realiteten veksler vi formentligt konstant imellem system 1 og system 2, formentligt på en måde hvor system 2 løbende ”overvåger” system 1 med henblik på at fange evt. fejlslutninger og skifte over i en mere bevidst overvejende process. En række situationer gør dog denne ”overvågende” funktion af system 2 udtrættet og mindre i stand til at opdage fejl før de begås. Bl.a. kan nævnes:

  • Mange afbrydelser
  • Udmattelse/manglende søvn
  • Sult/tørst
  • Emotionelle situationer
  • Stressede situationer

Kort sagt, altså alle de forhold vi på daglig basis udsætter os selv for i akutafdelingen. På den måde bliver arbejdsmiljøet i akutafdelingen i virkeligheden et spørgsmål om patientsikkerhed.

Har du fået mere blod på tanden ift. kognitive bias har du her muligheden for sammen med Peter Tagmose Thomsen at dykke helt dybt ned i kaninhullet og udforske den bagvedliggende teori og de mulige implikationer for vores kliniske hverdag.

Kognitive debiasing strategier

Der er flere ting vi kan gøre for at beskytte os selv mod at begå fejl på baggrund af disse kognitive bias. Først og fremmest er en ydmyg holdning til vores egen evne til at træffe korrekte beslutninger hele tiden og ligegyldigt under hvilke forhold formentligt vigtig. Der er dog også udviklet forskellige ”forcing strategier”, som har til formål at tvinge os over i en system 2 tankegang i særlige risikosituationer. Eksempler omfatter:

  • Spørg dig selv ”Hvad nu hvis det ikke var det jeg tror det er”
    • Tving dig selv til, ligemeget hvor sikker du er på din diagnose, at overveje hvad det kunne være hvis det alligevel ikke var det
  • Overvej sandsynligheden for at din endelige diagnose rent faktisk er den rigtige.
    • Sandsynligheden for at en patient har lige præcis den diagnose du tænker er aldrig 100%. Ved at tvinge os selv til at sætte – evt. bare approksimerede – sandsynligheder på diagnosen bliver det tydeligt at patienten også kan fejle andre ting. 60% sandsynlighed for en appendicit er højt sat – men efterlader alligevel 40% sandsynlighed for en anden diagnose.
    • Særligt livsfarlige og/eller tidskritiske diagnoser kan være nødvendige at overveje selv ved lave sandsynligheder.
    • Her kommer præ-test-sandsynlighed og likelihood ratios i spil ifb. med den diagnostiske process og kendskab til disse kan altså i høj grad beskytte imod fejlslutninger.
  • En mere forsimplet, men god begynderstrategi er altid som minimum at stille 3 tentative diagnoser.
    • Selvom sandsynligheden for de tre ikke vil være den samme vil det tvinge dig til i det mindste at overveje to andre diagnoser.

Checklister har – såfremt de er gode og anvendes i de rigtige situationer på den rigtige patient og i den rigtige situation – også muligheden for at sænke risikoen for fejl på baggrund af kognitive bias. Samtidig vil en forkert anvendt eller forkert udviklet checkliste med høj sandsynlighed føre til fejl. Måske særligt som påmindelser om mulige særligt farlige eller vigtige diagnoser for symptombilleder har checklister sin plads.

Derudover understreger bl.a. Gary Klein vigtigheden af at opbygge ekspertise gennem "deliberate practice" såsom simulationer, struktureret feedback og eksponering for cases for bedre at være i stand til at tøjle system 1  og anvende dets indbårne effektivitet på en sikker måde.