Matematik

Skadeforsikring

15. oktober 2019 af kgsklo - Niveau: Universitet/Videregående
Hej alle

Nogen der kan hjælpe mig med at forklare, hvorfor de gule lighedstegn i den vedhæftede fil gælder?

Tusinde tak på forhånd

Brugbart svar (0)

Svar #1
15. oktober 2019 af AMelev

For uafhængige stokastiske variable X og Y gælder at E(X·Y) = E(X)·E(Y) og V(X + Y) = V(X) + V(Y).
Kan det måske hjælpe dig?


Svar #2
15. oktober 2019 af kgsklo

Nej, det hjælper ikke rigtigt

Brugbart svar (0)

Svar #3
15. oktober 2019 af LeonhardEuler

Det benyttes tower property.

Svar #4
15. oktober 2019 af kgsklo

Du kan vel ikke hjælpe mig med de gule lighedstegn? Forstår det stadig ikke, nu hvor du påpeger, at tower property er benyttet.

Brugbart svar (0)

Svar #5
15. oktober 2019 af LeonhardEuler

Jo.

E[S_m]=E[\sum^M_{m=1}\sum^N_m_{i=1}X_{mi}]=E[E[\sum^M_{m=1}\sum^N_m_{i=1}X_{mi}\mid M]]

=E[E[M\sum^N_m_{i=1}X_{mi}\mid M]]=E[M\cdot E[\sum^N_m_{i=1}X_{mi}\mid M]]=E[M\cdot E[\sum^N_m_{i=1}X_{mi}]]

=E[M]\cdot E[\sum^N_m_{i=1}X_{mi}]=E[M]\cdot E[ E[\sum^N_m_{i=1}X_{mi}\mid N_m]]

=E[M]\cdot E[ N_mE[_{i=1}X_{mi}\mid N_m]]=E[M]E[ N_m]E[X_{11}]=E[M]E[X_{11}]

Der benyttes tower property og uafhængighed.


Brugbart svar (0)

Svar #6
15. oktober 2019 af LeonhardEuler

For det andet så er første lighed en sætning. Du kan let bevise den ved at opskrive og rodde rundt med udtrykkene. For andet lighed benyttes bl.a.

var(S_m\mid M)= var(\sum^{N_1 }X_{1i}+...+\sum^{N_M} X_{1i}\mid M)=Mvar(\sum^{N_1 }X_{1i}\mid M)

=M var(\sum^{N_1 }X_{1i})

og heraf regne sidste udtryk ud. Prøv selv med de sidste. Kom gerne med dit eget forsøg.

#EDIT: Der sneg sig et forkert M^2 ind. Der skal naturligvis være M.

Svar #7
17. oktober 2019 af kgsklo

#5 Jeg synes det er svært at forholde sig til dine udregninger, eftersom du har ændret "bogstaverne" i sum nummer 2. Den skal starte fra i=1 og gå op til N_{M}, men du har ændret det til mi=1op til N? 

#6 Jeg kan ikke rigtig finde den sætning i vores bog, så jeg ville sætte stor pris på, at du prøvede at forklare det ud fra de beregninger som fremgår på billedet, eftersom det er en sætning, vi har haft meget i løbet af kurset :) 


Brugbart svar (0)

Svar #8
17. oktober 2019 af LeonhardEuler

Hov, det har du ret i. Det er nu ment som i og ikke mi.

Hvad er dine forudsætninger? Hvilke fag har du haft om, og har du defineret og vist regneregler for betinget for forventninger? 


Svar #9
17. oktober 2019 af kgsklo

1)
Kan du prøve at forklare hvorfor du betinger med M og senere med N_{m}? Og i lighedstegn nummer 5 fjerner du den betingede... hvorfor må du det? Og hvordan fås E[X_{11}] tilsidst?

2) (svar på dit spørgsmål om “Hvad er dine forudsætninger?...)
Jeg har haft “forsikring og jura” og er nu igang med kurset “skade 1”. Er på 3. år af uddannelsen :-)

Brugbart svar (0)

Svar #10
17. oktober 2019 af LeonhardEuler

Jeg antager, at du ikke har haft om betingede forventninger. Mine argumenter bliver derfor mere intuitive end stringente:

Første ligning:

E[S_m]\overset{(1)}=E\left [ \sum^M_{m=1}\sum^{N_m}_{i=1}X_{mi}\right ]\overset{(2)}= E\left [E\left [ \sum^M_{m=1}\sum^{N_m}_{i=1}X_{mi}\mid M\right ]\right ]\overset{(3)}=E\left [E\left [\sum^{N_1}_{i=1}X_{1i}+...+\sum^{N_M}_{i=1}X_{Mi}\mid M\right ]\right ]

I andet lighed benytter du law of total expectation eller tower property. Det er en kendt sætning, som man kan vise ud fra definitionen af betingede forventninger. Den intuitive forklaring herefter er, at når vi betinger med M, så er M inde i forventningen kendt. Det er et tal.  Ved tredje og fjerde lighed benytter vi linearitet af forventning. Ved femte benytte endelig at (ΣNmXmi)m er iid 

\overset{(4)}=E\left [E\left [\sum^{N_1}_{i=1}X_{1i}\mid M\right ]+...+E\left [\sum^{N_M}_{i=1}X_{Mi}\mid M\right ]\right ]\overset{(5)}=E\left [M \cdot E\left [\sum^{N_1}_{i=1}X_{1i}\mid M\right ]\right ]

Fordi (ΣN1X1i) er uafhængig af M, så har vi sjette lighed. Bemærk at E[ΣN1X1i] er et tal, så vi kan hive den ud af forventningen:

\overset{(6)}=E\left [M \cdot E\left [\sum^{N_1}_{i=1}X_{1i}\right ]\right ]\overset{(7)}=E\left [M \right ]\cdot E\left [\sum^{N_1}_{i=1}X_{1i}\right ]

Resten er egentlig bare det samme argument. Brug tower property og brug igen iid argument. 


Brugbart svar (0)

Svar #11
17. oktober 2019 af LeonhardEuler

her i lidt hurtige skridt

=E\left [M \right ]\cdot E\left [\sum^{N_1}_{i=1}X_{1i}\right ]=E\left [M \right ]\cdot E\left [E\left [\sum^{N_1}_{i=1}X_{1i}\mid N_1\right ]\right ]=E\left [M \right ]\cdot E\left [N_1\cdot E\left [X_{11}\mid N_1\right ]\right ]

og sidst

=E\left [M \right ]\cdot E\left [N_1\cdot E\left [X_{11}\right ]\right ]=E\left [M \right ]\cdot E\left [N_1\right ]\cdot E\left [X_{11}\right ]


Svar #12
17. oktober 2019 af kgsklo

Jeg er helt med nu :-)
Tusinde tak for den grundige forklaring, det er virkelig pænt af dig! :)

Brugbart svar (0)

Svar #13
17. oktober 2019 af LeonhardEuler

Anden ligning:

Bemærk først at fordi M er kendt, så er det summen af M iid stokastiske variabler

\textup{Var}(S_m\mid M)= \textup{Var}(\sum^{N_1}_{i=0}X_{1i}+...+\sum^{N_M}_{i=0} X_{1i}\mid M)

vi kan derfor benytte linearitet i varians for uafhængige stokastiske variabler.

=\textup{Var}(\sum^{N_1}_{i=0}X_{1i}\mid M)+...+\textup{Var}(\sum^{N_M}_{i=0} X_{1i}\mid M)

benyt ydermere at de er uafhængige af M og de er ens fordelte (så variansen er ens).

=\textup{Var}(\sum^{N_1}_{i=0}X_{1i})+...+\textup{Var}(\sum^{N_M}_{i=0} X_{1i})=M\cdot \textup{Var}(\sum^{N_1}_{i=0}X_{1i})

Bemærk at de sidste tre lighederne her er ikke matematisk gyldige. Der skal lidt mere til for at bevise det stringent. For den sidste varians så kan du finde det i din bog til EN1EX112, så du får at første led til

\tiny \kappa E\left [ \textup{var}\left ( S_m\mid M \right ) \right ]=E\left [ M\cdot \textup{Var}(\sum^{N_1}_{i=0}X_{1i})\right ]=E\left [ M\right ]\cdot \textup{Var}(\sum^{N_1}_{i=0}X_{1i})=E\left [ M\right ]\cdot EN_1\cdot EX_{11}^2

Hvor vi bruger at variansen er konstant og kan hives ud af forventningen.


Brugbart svar (0)

Svar #14
17. oktober 2019 af LeonhardEuler

For sidste led: Først benytter vi at vi allerede ved første lighed regnede på den betingede forventning af Sm. Resultatet fik vi ved ligning (5). Så vi har her

\textup{Var}\left ( E\left ( S_M\mid M \right ) \right )=\textup{Var}\left [ M\cdot E\left ( \sum ^{N_1}_{i=0}X_{1i} \right ) \right ]

Bemærk at forventningen er et tal, så vi kan hive den ud af variansen men husk at løfte den til anden

=\textup{Var}\left [ M\right ]\cdot E\left ( \sum ^{N_1}_{i=0}X_{1i} \right ) ^2=\textup{Var}\left [ M\right ]\cdot \left ( E(N_1)\cdot E[X_{11}] \right )^2

hvor vi i sidste lighed bruger igen resultate fra opgave 1. Det er faktisk mit svar i #11.


Svar #15
17. oktober 2019 af kgsklo

Jeg forstår også dine udregninger for variansen, men resultatet stemmer ikke helt overens med det resultat, som ses i mit vedhæftede billede?

Brugbart svar (0)

Svar #16
17. oktober 2019 af LeonhardEuler

Jeg synes, da at jeg kommer frem til det samme?


Svar #17
17. oktober 2019 af kgsklo

Hehe, jeg havde overset #14, hvilket også skabte lidt forvirring for mit vedkommende, men jeg forstår opgaven nu.
Jeg takker endnu engang for din hjælp. Den er yderst værdsat :-D

Brugbart svar (0)

Svar #18
17. oktober 2019 af LeonhardEuler

Velbekommen.


Svar #19
18. oktober 2019 af kgsklo

Det er ikke lektierelateret, men ren nysgerrighed...
Er du stadig studerende, nyuddannet eller er det er stykke tid siden du blev færdig? :)

Brugbart svar (0)

Svar #20
18. oktober 2019 af LeonhardEuler

Jeg er skam stadig studerende. Helt præcist er jeg fire år inde i studiet.

Forrige 1 2 Næste

Der er 31 svar til dette spørgsmål. Der vises 20 svar per side. Spørgsmålet kan besvares på den sidste side. Klik her for at gå til den sidste side.