6.5 Oppgaver
6.5.1 Oppgaver om logistisk regresjon
Kommentar: Oppgave 1 a) og oppgave 2) er svært like i hva du skal gjøre, bare at den siste er mer realistisk.
Oppgave 1
Du har estimert en logistisk regresjonsmodell med to forklaringsvariabler \(x_1\) og \(x_2\). Koeffisientene i modellen er estimert til \(\hat{\beta}_0 = 0.4\), \(\hat{\beta}_1 = -0.1\) og \(\hat{\beta}_2 = 0.3\). Du observerer så et nytt individ med forklaringsvariablene \(x_1 = 1\) og \(x_2 = 2\).
- Prediker sannsynlighet for at \(Y=1\) for dette individet.
Løsning
\[z = \beta_0 + \beta_1x_1 + \beta_2x_2 = 0.4 -0.1\times1 + 0.3\times2 = 0.9\] Den predikerte sannsynligheten er gitt ved følgende sammenheng:
\[P(Y=1|Z=z) = \frac{e^z}{1+e^z} = \frac{e^{0.9}}{1 + e^{0.9}} \approx 0.71.\]- Klassifiser det nye individet.
Løsning
Siden vi estimerer \(P(Y=1)\) til å være \(0.71\) som er større enn \(0.5\) klassifiserer vi dette individet til \(\hat{y}=1\). Avhengig av kontekst, kan det være relevant å bruke enn høyere eller lavere terskel enn \(0.5\), men dette er altså standardverdien.Oppgave 2 (Individuell Eksamen V2020 1 i))
Denne eksamensoppgaven handlet om luftforurensning der myndighetene bruker en målestasjon for å advare innbyggerne dersom konsentrasjonen av nitrogendioksid (NO\(_2\)) overstiger 100 \(\mu\textrm{g}/\textrm{m}^3\). I en av deloppgavene tilpasses det en logistisk regresjonsmodell der responsvariabelen er en dummyvariabelen danger_warning, som indikerer om gjenomsnittskonsentrasjonen av NO\(_2\) den aktuelle dagen oversteg 100 \(\mu\textrm{g}/\textrm{m}^3\). Dersom det skjer må myndighetene utstede et såkalt gult farevarsel. Den estimerte modellen er gitt i kolonne (2) i tabellen under.
….. I morgen er det lørdag 16. mai, og i den aktuelle byen er det meldt en gjennomsnittlig temperatur på 19 \(^\circ\)C og en gjennomsnittlig relativ luftfuktighet på 47%.
- Bruk den logistiske regresjonsmodellen til å predikere sannsynligheten for at gjennomsnittlig NO\(\mathbf{_2}\)-konsentrasjon overstiger 100 \(\mu\textrm{g}/\textrm{m}^3\). Gi en kort vurdering om myndighetene bør utstede gult farevarsel. (Husk at luftfuktigheten er gitt på skala 0–100, og ikke 0–1).

Løsning
Den predikerte log-oddsen får vi ved å sette inn for variablene (lørdag, temperatur, fuktighet, vinterdummyen er null):
\[z = 5.052 + -2.292 - 0.086*19 - 0.044*47 = -0.942.\] Den predikerte sannsynligheten er gitt ved følgende sammenheng:
\[P(Y=1|Z=z) = \frac{e^z}{1+e^z} = \frac{e^{-0.942}}{1 + e^{-0.942}} \approx 0.28.\]
Den predikerte sannsynligheten er klart under 50%, som passer godt med den tidlighere analysen vår. Det er snakk om en forholdsvis varm lørdag i sommerhalvåret, og vi vil nok ikke utstede farevarsel.
Det kan også være gode argumenter for at vi ikke nødvendigvis bruker 50% som terskel for farevarsel. Kanskje er det mer alvorlig å ikke utstede et farevarsel som burde vært sendt ut fordi det kan være farlig for folk, enn å utstede et unødvendig farevarsel. Føre var osv., og det kan tilsi at vi f.eks. bruker 40% eller 30% sannsynlighet som grense. Det kommer litt an på situasjonen, som vi ikke har full oversikt over her.
6.5.2 Oppgaver om KNN
Oppgave 1 (Individuell hjemmeeksamen H2020, oppgave 3)
Vi har følgende datasett med seks observasjoner bestående av en binær responsvariabel \(y\) og to forklaringsvariabler \(x_1\) og \(x_2\):
| y | x1 | x2 |
|---|---|---|
| 0 | 3 | 4 |
| 0 | 4 | 5 |
| 1 | 5 | 3 |
| 0 | 3 | 6 |
| 1 | 4 | 3 |
| 1 | 6 | 2 |
Du observerer så forklaringsvariablene \((x_1, x_2) = (3, 3)\) for et nytt individ.
- Regn ut hva klassifiseringen av \(y\) blir for det nye individet ved å bruke k-nearest neighbor (KNN), med \(k=3\).
Løsning
Vi begynner med å regne ut den euklidske avstanden mellom \((3,3)\) og alle punktene \((x_1, x_2)\) i datasettet vårt. F.eks er avstanden mellom \((3,3)\) og \((3,4)\)
\[\begin{equation*} d((3,3), (3,4)) = \sqrt{(3 - 3)^2 + (3 - 4)^2} = 1 \end{equation*}\]
Vi kan så legge disse avstandene inn i en egen kolonne i tabellen:
| y | x1 | x2 | avstand |
|---|---|---|---|
| 0 | 3 | 4 | 1.000 |
| 0 | 4 | 5 | 2.236 |
| 1 | 5 | 3 | 2.000 |
| 0 | 3 | 6 | 3.000 |
| 1 | 4 | 3 | 1.000 |
| 1 | 6 | 2 | 3.162 |
Vi ser da at observasjon \(1\),\(3\) og \(5\) med avstander på h.h.v. \(1\), \(2\) og \(1\) er de tre nærmeste naboene, og blant dem er det 2 mot 1 i flertall for å klassifisere \(y\) som en 1’er. Altså er \(\hat{y}=1\).
Det går selvsagt an å løse oppgaven visuelt også.
- Hvordan fungerer KNN når \(k = n\), hvor \(n\) er antall observajoner i datasettet? Hva vil skje dersom \(k = 6\) for dette datasettet?
Løsning
Siden vi bare har seks observasjoner vil alle verdier av \(k\geq 6\) fullstendig ignorere informasjonen som ligger i forklaringsvariablene. Klassifiseringen vil da bare være basert på om det totalt sett er mest 1’ere eller 0’ere. I dette spesifikke datasettet har vi totalt tre 1’ere og tre 0’ere, så enhver majortetsavstemning med \(k\geq 6\) blir uavgjort. Altså vil det her ikke være mulig å oppnå flertall for verken 0’er eller 1’er for store verdier av \(k\).
6.5.3 Oppgaver om paneldata
Oppgave 1
For et paneldata bestående av en responsvariabel \(Y\) og en forklaringsvariabel \(X\) har du estimert modellen
\[y_{it} = \beta_1 x_{it} + v_t + \alpha_i + \epsilon_{it} \] der du har betraktet \(\alpha_i\) som faste effekter og \(v_t\) som kategoriske variabler. Estimatet av \(\beta_1\) er \(\hat{\beta}_1 = 1.5\).
- For individ \(4\) i datasettet har du estimert \(\alpha_4\) til å være \(0.2\). Videre er årseffekten for 2012, \(v_{2012}\), estimert til å være \(-0.5\). Prediker responsvariabelen til dette individet for 2012 dersom \(x_{4,2012} = 2\).
Løsning
\[\hat{y}_{4,2012}=\hat{\beta}_1 x_{4,2012} + \hat{v}_{2012} + \hat{\alpha}_4 = 1.5\times2 -0.5 + 0.2 = 2.7\]- Du tilpasser også en tilsvarende modell med tilfeldige effekter. En Hausman test gir en p-verdi på \(0.23\). Hvilken modell skal du da bruke?
Løsning
Forenklet sett har denne testen som nullhypotese at modellen med tilfeldige effekter er gyldig. Her er p-verdien veldig stor og vi har lite bevis for at denne nullhypotesen er feil. Vi kan altså bruke modellen med tilfeldige effekter.
Dersom vi hadde fått forkastning ville det vært lurt å bruke modellen med faste effekter.
Oppgave 2
Prøv deg på Oppgave 2 i den individuelle hjemmeeksamen H2020 som du finner i kapittel 9.1. Det er spesielt oppgave e) og f) som er relatert til paneldata, men vi bemerker at oppgave f) var “nøtten” i det oppgavesettet.
Oppgave 3
Vi fortsetter å bruke datasettet panel_liten, som du kan laste ned lenger opp på denne siden.
Kjør en regresjon med lønn (
lnwg) som utfallsvariabel og arbeidstimer (lnhr) som forklaringsvariabel, der du antar tilfeldige effekter. Tolk koeffisienten på arbeidstimer.Er det noen grunn til å være bekymret for om koeffisienten fra modellen over fanger opp noe annet eller mer enn effekten av å jobbe flere arbeidstimer på lønn?
Vi skal nå legge til faste effekter. Vi skal ta i bruk pakken
fixestog kommandoenfe_model, som egner seg godt for å estimere faste effekter. Tolk koeffisienten i modellen med faste effekter, og sammenlikn med modellen uten. Hva kan være årsaker til at estimatet endrer seg?Vi legger nå også til tidsfaste effekter. Tolk koeffisienten, sammenlikn med de to foregående modellene. Hva kan forklare at koeffisienten har endret seg?
Løsning
- Setter opp modellen (bruker pakken
fixestogfeolsfordi vi skal bruke disse i senere deloppgaver):
library(readr) # Lese inn csv-filer
library(fixest) # Faste effekter (effektiv, og håndterer så mange faste effekter vi vil)
df <- read_csv("panel_liten.csv")## re
## Dependent Var.: lnwg
##
## Constant -12.76*** (2.817)
## lnhr 2.041*** (0.3698)
## _______________ _________________
## S.E. type IID
## Observations 30
## R2 0.52114
## Adj. R2 0.50403
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Modellen uten faste effekter gir en koeffisient på lnhr lik 2.04, som er statistisk signifikant på 0,1 %-nivå. Fordi både lønn og arbeidstimer er log-transformerte, tolker vi dette som en elastisitet: En økning i arbeidstimer på 1 % er assosiert med en økning i timelønn på omtrent 2 %.
Vi bør være forsiktige med å tolke dette som at flere arbeidstimer fører til høyere lønn. Fra modulen om OLS-betingelser husker vi at eksogenitet krever at det ikke er noen systematisk sammenheng mellom forklaringsvariabelen og restleddet. Her kan vi tenke oss at personer som jobber mange timer er systematisk annerledes enn de som jobber få timer – de kan ha høyere utdanning, mer erfaring, eller jobbe i andre typer stillinger. Slike egenskaper påvirker trolig også lønna, og ligger i restleddet. Da er eksogenitetsbetingelsen sannsynligvis brutt, og koeffisienten plukker opp mer enn bare sammenhengen mellom arbeidstimer og lønn.
Kjører først modellen med faste effekter (fortsetter her videre fra deloppgave a)):
# legger først til individ-FE
fe_id <- feols(
lnwg ~ lnhr | id , # her er id individfaste effekter
data = df
)
# skriv ut tabell
etable(re, fe_id)## re fe_id
## Dependent Var.: lnwg lnwg
##
## Constant -12.76*** (2.817)
## lnhr 2.041*** (0.3698) 0.3629 (0.2621)
## Fixed-Effects: ----------------- ---------------
## id No Yes
## _______________ _________________ _______________
## S.E. type IID IID
## Observations 30 30
## R2 0.52114 0.89714
## Within R2 -- 0.06868
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Når vi inkluderer individfaste effekter faller koeffisienten dramatisk, fra 2,04 til 0,36, og den er ikke lenger statistisk signifikant. Dette er fordi modellen nå utelukkende bruker variasjon innad i hvert individ over tid: Tjener person \(i\) mer i år hvor hun jobber flere timer enn i år hvor hun jobber færre? Alle tidskonstante egenskaper ved personen – som evner, utdanningsnivå og personlighet – holdes konstant gjennom de individfaste effektene. At koeffisienten faller så mye tyder på at den sterke, positive sammenhengen i den første modellen i stor grad var drevet av forskjeller mellom individer: Personer som jobber mye har høy lønn, men dette kan skyldes at de har egenskaper som gir både mange arbeidstimer og høy lønn.
- Fortsetter videre på koden, og legger til tidsfaste effekter:
# legger også til års-FE
fe_id_t <- feols(
lnwg ~ lnhr | id + year, # her er id og year individ- og årsfaste effekter
data = df
)
etable(re, fe_id, fe_id_t)## re fe_id fe_id_t
## Dependent Var.: lnwg lnwg lnwg
##
## Constant -12.76*** (2.817)
## lnhr 2.041*** (0.3698) 0.3629 (0.2621) 0.1822 (0.3174)
## Fixed-Effects: ----------------- --------------- ---------------
## id No Yes Yes
## year No No Yes
## _______________ _________________ _______________ _______________
## S.E. type IID IID IID
## Observations 30 30 30
## R2 0.52114 0.89714 0.93136
## Within R2 -- 0.06868 0.01901
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Når vi i tillegg legger til tidsfaste effekter faller koeffisienten ytterligere, til 0,18, og er fortsatt ikke statistisk signifikant. Tidsfaste effekter kontrollerer for alt som er felles for alle individer i et gitt år, for eksempel generell lønnsvekst eller makroøkonomiske svingninger. At koeffisienten faller litt videre tyder på at noe av den gjenværende sammenhengen var drevet av felles tidstrender: I gode år jobber folk mer og tjener mer, uten at det nødvendigvis er arbeidstimene som driver lønna. Etter å ha kontrollert for både individ- og tidseffekter er den estimerte sammenhengen mellom arbeidstimer og timelønn liten og ikke statistisk signifikant.
6.5.4 Oppgaver om kausal identifikasjon
Oppgave 1
En kommune vurderer å innføre gratis skolemåltider for å bedre elevenes skoleprestasjoner.
Formuler et presist kausalt spørsmål. Hva vil du manipulere, hva vil du måle, og hva sammenlignes med hva?
Beskriv det ideelle eksperimentet for å besvare dette spørsmålet. Hvorfor ville randomisering vært viktig?
Kommunen har ikke mulighet til å randomisere, men innfører tiltaket på tre skoler som melder sin interesse. Forklar hvorfor denne “frivillige” tildelingen gjør det vanskelig å trekke kausale slutninger. Hvilket begrep beskriver dette problemet?
Løsning
Et presist kausalt spørsmål kan være: “Hva er effekten av å tilby gratis skolemåltider på elevenes karaktersnitt ved utgangen av skoleåret?” Vi manipulerer tilgangen til gratis skolemåltider (behandlingen), vi måler skoleprestasjoner (f.eks. gjennomsnittskarakter), og vi sammenligner elever som får gratis måltider med elever som ikke får det.
Det ideelle eksperimentet ville vært å tilfeldig dele elever (eller skoler) i to grupper: én gruppe som får gratis skolemåltider, og én gruppe som ikke får det. Randomiseringen sikrer at de to gruppene i gjennomsnitt er like på alle andre egenskaper – familiebakgrunn, motivasjon, skolekvalitet, osv. Da vet vi at enhver forskjell i skoleprestasjoner må skyldes skolemåltidene, og ikke andre faktorer.
Når skolene selv melder sin interesse, får vi et seleksjonsproblem (seleksjonsskjevhet). Skoler som melder seg er sannsynligvis systematisk forskjellige fra skoler som ikke gjør det – kanskje har de mer engasjerte rektorer, mer ressurssterke foreldre, eller allerede et fokus på elevvelferd. Disse egenskapene kan i seg selv påvirke skoleprestasjoner. Da kan vi ikke vite om en eventuell forbedring skyldes skolemåltidene eller de underliggende forskjellene mellom skolene.
Oppgave 2
En dagligvarekjede ønsker å finne ut om lokal markedsføring øker omsetningen. De har data fra 200 butikker, og estimerer følgende modell: \[\log(\text{Omsetning}_i) = \beta_0 + \beta_1 \log(\text{Reklamekroner}_i) + \varepsilon_i\] der \(\text{Omsetning}_i\) er månedlig omsetning i kroner for butikk \(i\), og \(\text{Reklamekroner}_i\) er beløpet butikken brukte på lokal reklame (flyers, Facebook-annonser o.l.) den måneden.
Forklar med egne ord hva eksogenitetsbetingelsen \(\mathbb{E}[\varepsilon_i \vert x_i]=0\) krever i denne sammenhengen. Hva må vi anta om restleddet?
Nevn minst to variabler som kan tenkes å ligge i restleddet \(\varepsilon_i\), og som sannsynligvis er korrelert med hvor mye butikken bruker på reklame. Tegn gjerne et DAG-diagram.
Hvis du kunne observert én av disse variablene – for eksempel butikkens beliggenhet (sentrum vs. utkant) – hvordan ville du inkludert den i modellen? Forklar hvordan dette “stenger ned” en kanal for endogenitet.
Noen av variablene du nevnte i b) er kanskje ikke observerbare. Hva kunne vi gjort dersom vi hadde hatt data fra de samme butikkene over flere måneder?
Løsning
Eksogenitetsbetingelsen krever at restleddet \(\varepsilon_i\) – alt annet som påvirker omsetningen utover reklame – ikke er systematisk relatert til hvor mye butikken bruker på reklame. Hvis vi visste at en butikk brukte 50 000 kroner på reklame denne måneden, skal dette ikke fortelle oss noe om de andre faktorene som påvirker omsetningen. Intuitivt: butikker som bruker mye på reklame skal ikke være systematisk annerledes (på relevante måter) enn butikker som bruker lite.
To aktuelle variabler:
- Beliggenhet/kundetrafikk: Butikker i sentrum har typisk høyere omsetning og større markedsføringsbudsjetter (kanskje fordi hovedkontoret allokerer mer til butikker med høy kundetrafikk). Beliggenhet påvirker altså både reklamebruk og omsetning, og skaper en spuriøs sammenheng.
- Butikkstørrelse (areal): Større butikker har bredere vareutvalg og høyere omsetning, og vil trolig også ha større reklamebudsjetter. Igjen påvirker størrelse begge variablene i modellen.
Begge variablene er felles årsaker som påvirker både forklaringsvariabelen og utfallsvariabelen. I et DAG-diagram ville vi tegnet piler fra beliggenhet (eller størrelse) til både reklamekroner og omsetning.
Vi kan inkludere beliggenhet som kontrollvariabel: \[\log(\text{Omsetning}_i) = \beta_0 + \beta_1 \log(\text{Reklamekroner}_i) + \beta_2 \text{Sentrum}_i + \varepsilon_i\] Når vi kontrollerer for beliggenhet, sammenligner vi i praksis butikker med lik beliggenhet. Dermed “stenger vi ned” kanalen der beliggenhet påvirker både reklamebudsjett og omsetning. \(\beta_1\) fanger da bare opp sammenhengen mellom reklame og omsetning innenfor samme type beliggenhet.
Dersom vi har data fra de samme butikkene over flere måneder, har vi paneldata. Da kan vi inkludere butikkfaste effekter, som kontrollerer for alle tidskonstante egenskaper ved butikken – inkludert beliggenhet, størrelse, og andre ting vi kanskje ikke observerer direkte. Vi identifiserer da sammenhengen mellom reklame og omsetning utelukkende fra variasjon innad i hver butikk over tid: Selger butikk \(i\) mer i måneder der den bruker mer på reklame enn i måneder der den bruker mindre?
Oppgave 3
Et forsikringsselskap ønsker å undersøke om kunder som har kjøpt en utvidet helseforsikring har lavere helseutgifter enn kunder med standardforsikring. De finner at kunder med utvidet forsikring faktisk har høyere helseutgifter.
Forklar hvorfor dette ikke nødvendigvis betyr at utvidet forsikring fører til høyere utgifter. Bruk begrepet seleksjonsskjevhet i svaret ditt.
I sykehuseksempelet observerer vi at innlagte pasienter har dårligere helse enn resten av befolkningen, og konkluderer ikke med at sykehusopphold forårsaker dårlig helse. Hva er den felles mekanismen i disse to eksemplene?
Hvordan kunne du designet en studie som unngår seleksjonsskjevheten?
Løsning
Det er ikke tilfeldig hvem som kjøper utvidet forsikring. Personer som velger utvidet helseforsikring gjør det sannsynligvis fordi de forventer å ha høye helseutgifter – kanskje de har kroniske sykdommer, driver med risikosport, eller har familiær disposisjon for sykdom. Disse personene ville hatt høyere helseutgifter uansett hvilken forsikring de hadde. Seleksjonen inn i utvidet forsikring er altså drevet av egenskaper som også påvirker utfallet (helseutgifter), noe som gjør at en naiv sammenligning overestimerer “effekten” av forsikringen.
Den felles mekanismen er seleksjonsskjevhet: I begge tilfellene er det ikke tilfeldig hvem som mottar “behandlingen”. Sykehuspasienter er innlagt fordi de allerede er syke, og forsikringskunder velger utvidet dekning fordi de forventer høye utgifter. I begge tilfellene driver egenskaper som eksisterte før behandlingen både seleksjonen inn i behandlingsgruppen og utfallet vi måler. En naiv sammenligning av gruppene fanger derfor opp disse forhåndsforskjellene, ikke behandlingseffekten.
En randomisert, kontrollert studie: Trekk tilfeldig hvem som får tilbud om utvidet forsikring (f.eks. til redusert pris), slik at valget ikke drives av forventede helseutgifter. Alternativt kunne man utnytte en situasjon der noen kunder tilfeldig fikk tilbudt utvidet forsikring, for eksempel gjennom en kampanje rettet mot et tilfeldig utvalg av kundene.
Oppgave 4
La oss si at Bergen kommune har innført et piggdekkgebyr på 50 kroner per døgn for å redusere svevestøv. Nabokommunen Øygarden innførte ikke et slikt gebyr. En forsker ønsker å bruke difference-in-differences for å estimere effekten av piggdekkgebyret på luftkvalitet (målt som gjennomsnittlig konsentrasjon av svevestøv, PM\(_{10}\), i \(\mu \text{ g}/m^3\)).
Sett opp DiD-designet: Hvem er behandlingsgruppen og kontrollgruppen? Hva er “før”- og “etter”-periodene? Skriv opp regresjonsmodellen forskeren bør estimere.
Hvilken antakelse må holde for at forskeren skal kunne tolke \(\beta_3\) som den kausale effekten av piggdekkgebyret? Diskuter om du synes denne antakelsen er rimelig her. Tenk på hva som driver luftkvalitet i de to kommunene.
Kan du tenke deg en måte behandlingen i Bergen kan ha påvirket luftkvaliteten i Øygarden? Hva betyr det for DiD-estimatet dersom det er slike spillovers mellom behandlings- og kontrollgruppen? (Hint: Tenk på hva bilister som kjører mellom kommunene gjør.)
Forskeren finner at \(\hat{\beta}_3 = -4,2\) med en \(p\)-verdi på 0,03. Tolk dette resultatet. Hva betyr det, og er du overbevist om at det er en kausal effekt?
Løsning
Behandlingsgruppen er Bergen (innfører piggdekkgebyr). Kontrollgruppen er Øygarden (innfører ikke gebyr). “Før”-perioden er tiden før gebyret ble innført (f.eks. forrige vinter), og “etter”-perioden er tiden etter innføringen (f.eks. første vinter med gebyr). Regresjonsmodellen: \[\text{PM}_{10,it} = \beta_0 + \beta_1 \text{Bergen}_i + \beta_2 \text{Etter}_t + \beta_3 (\text{Bergen}_i \times \text{Etter}_t) + \varepsilon_{it}\] der \(\beta_3\) er DiD-estimatet – den estimerte effekten av piggdekkgebyret på svevestøvnivået.
Antakelsen om parallelle trender må holde: Luftkvaliteten i Bergen og Øygarden ville fulgt samme utvikling i fravær av piggdekkgebyret. Det er grunner til å være skeptisk. Bergen er en stor by med langt høyere trafikktetthet, tunneler, og mer kompleks topografi (fjord og fjell som “fanger” forurenset luft) enn Øygarden. Faktorer som påvirker luftkvaliteten – f.eks. byggeaktivitet, endringer i trafikkmønstre, eller værforhold – kan slå ulikt ut i de to kommunene. Dersom noe annet enn piggdekkgebyret endret seg i Bergen mellom periodene (f.eks. et stort veiprosjekt ble ferdigstilt), vil dette forstyrre estimatet. På den annen side er Øygarden en nabokommune med lignende klima, og piggdekkgebyret ble innført på et bestemt tidspunkt som trolig var uavhengig av kortsiktige endringer i luftkvalitet. Hvis trendene i PM\(_{10}\) var like i de to kommunene i årene før innføringen, styrker det troverdigheten.
Mange bilister pendler mellom Bergen og Øygarden. Dersom piggdekkgebyret gjør at pendlere bytter til piggfrie dekk, vil disse bilene også forurense mindre når de kjører i Øygarden. Da forbedres luftkvaliteten i kontrollgruppen som en følge av behandlingen i Bergen. Kontrollgruppen viser da ikke lenger det “rene” kontrafaktiske utfallet – altså hva som ville skjedd uten piggdekkgebyret – fordi den selv er påvirket av tiltaket. Konsekvensen er at DiD-estimatet vil undervurdere den sanne effekten av gebyret: Luftkvaliteten forbedres i begge kommuner, og forskjellen mellom dem blir mindre enn den faktiske effekten.
Estimatet \(\hat{\beta}_3 = -4,2\) betyr at svevestøvkonsentrasjonen i Bergen falt med 4,2 \(\mu\)g/m\(^3\) mer enn i Øygarden etter innføringen av piggdekkgebyret, og denne forskjellen er statistisk signifikant på 5 %-nivå (\(p = 0,03\)). Om vi er overbevist om at dette er en kausal effekt, avhenger av om antakelsene diskutert i b) og c) holder. Spesielt bør vi vurdere om noe annet enn piggdekkgebyret endret seg i Bergen rundt samme tidspunkt, og om parallelle trender er en rimelig antakelse gitt de strukturelle forskjellene mellom kommunene. Estimatet er et plausibelt utgangspunkt, men vi bør være forsiktige med å konkludere med kausalitet uten å ha undersøkt trendene før innføringen og vurdert om spillovers mellom kommunene kan ha påvirket kontrollgruppen.
Oppgave 5
Les følgende oppsummering av en (fiktiv) studie:
En forskergruppe undersøkte effekten av å innføre fleksibel arbeidstid på ansattes produktivitet. Studien brukte et naturlig eksperiment: I 2021 innførte bedrifter i næring A fleksibel arbeidstid som følge av nye bransjenormer, mens bedrifter i næring B beholdt faste arbeidstider. Forskerne sammenlignet produktivitetsendringen i de to gruppene fra 2020 til 2022, og fant at bedrifter med fleksibel arbeidstid hadde 8 % høyere produktivitetsvekst (\(p < 0,05\)).
Hvilken identifikasjonsstrategi bruker forskerne? Skriv opp regresjonsmodellen de sannsynligvis har estimert.
Hvilke antakelser må holde for at vi skal tolke dette som en kausal effekt? Vurder om antakelsene er rimelige i denne konteksten.
Forskerne hevder at de har funnet at fleksibel arbeidstid øker produktiviteten. Er du enig i denne konklusjonen? Identifiser minst én trussel mot denne tolkningen.
Foreslå ett konkret grep forskerne kunne tatt for å styrke troverdigheten til studien.
Løsning
Forskerne bruker en difference-in-differences-strategi. Regresjonsmodellen de sannsynligvis har estimert er: \[\log(\text{Produktivitet}_{it}) = \beta_0 + \beta_1 \text{NæringA}_i + \beta_2 \text{Etter2021}_t + \beta_3 (\text{NæringA}_i \times \text{Etter2021}_t) + \varepsilon_{it}\] der \(\beta_3\) er DiD-estimatet som måler den relative produktivitetsveksten i næring A sammenlignet med næring B.
To sentrale antakelser:
Parallelle trender: Produktiviteten i næring A og B ville fulgt samme utvikling i fravær av fleksibel arbeidstid. Dette er problematisk fordi ulike næringer typisk påvirkes av helt ulike markedskrefter, teknologiske endringer og konjunktursykluser. At to forskjellige næringer ville hatt parallell produktivitetsutvikling er en sterk antakelse.
Ingen spillovers mellom gruppene: Innføring av fleksibel arbeidstid i næring A skal ikke påvirke produktiviteten i næring B. Dette kan brytes f.eks. dersom de konkurrerer om de samme arbeidstakerne, slik at næring B mister ansatte til næring A.
Det er flere trusler mot den kausale tolkningen. Forskerne sier at fleksibel arbeidstid ble innført “som følge av nye bransjenormer”. Men disse normene kan ha inneholdt langt mer enn bare fleksibel arbeidstid – kanskje også nye digitale verktøy, nye ledelsesmetoder, eller omstrukturering. Da er det ikke fleksibel arbeidstid i seg selv som driver produktivitetsveksten, men hele pakken av endringer som fulgte med de nye bransjenormene. I tillegg kan det tenkes at næring A var i en vekstfase og næring B i en nedgangsfase uavhengig av arbeidstidsordningen. Da vil DiD-estimatet fange opp denne forskjellen og feilaktig tilskrive den fleksibel arbeidstid.
Forskerne kunne styrket troverdigheten ved å vise at produktivitetstrenden var parallell i de to næringene før 2021 (en pre-trend-analyse). Dersom produktivitetsveksten var lik i for eksempel 2018, 2019 og 2020, er det mer overbevisende at avviket etter 2021 skyldes innføringen av fleksibel arbeidstid, og ikke underliggende trendforskjeller. Et annet grep kunne vært å bruke flere kontrollgrupper (næring C, D, osv.) for å sjekke om resultatet er robust.