Didžiausios tikimybės įvertis (VLE) yra bendras tikimybės pasiskirstymo parametrų įvertinimo modelis, kuris priklauso nuo imties stebėjimų.
Kitaip tariant, EMV maksimaliai padidina tankio funkcijų parametrų, kurie priklauso nuo tikimybių pasiskirstymo ir imties stebėjimų, tikimybę.
Kalbėdami apie didžiausios tikimybės įvertinimą, turime kalbėti apie funkcija didžiausia tikimybė. Matematiškai pateikiamas pavyzdys x = (x1,…, Xn) ir parametrai, θ = (θ1,…, Θn) tada,
Nepanikuoju! Šis simbolis reiškia tą patį, kaip ir sumų sumavimas. Šiuo atveju visų tankio funkcijų dauginimasis priklauso nuo imties stebėjimų (xi) ir parametrai θ.
Kuo didesnė L (θ | x) reikšmė, tai yra didžiausios tikimybės funkcijos reikšmė, tuo didesnė tikimybė, kad bus remiami imties parametrai.
EMV logaritminė funkcija
Norėdami rasti maksimalios tikimybės įvertinimus, turime diferencijuoti (išvesti) tankio funkcijų sandaugas, ir tai nėra pats patogiausias būdas tai padaryti.
Kai susiduriame su sudėtingomis funkcijomis, galime atlikti monotonišką virsmą. Kitaip tariant, tai būtų tarsi noras piešti Europą realiu mastu. Turėtume jį sumažinti, kad jis tilptų ant popieriaus lapo.
Šiuo atveju mes atliekame monotoninę transformaciją naudodami natūralius logaritmus, nes jie yra monotoniški ir didėjančios funkcijos. Matematiškai,
Logaritmų savybės leidžia mums išreikšti aukščiau pateiktą dauginimą kaip natūralių logaritmų, taikomų tankio funkcijoms, sumą.
Taigi monotoninė transformacija logaritmais yra tiesiog „skalės pakeitimas“ į mažesnius skaičius.
Apskaičiuota parametrų vertė, maksimaliai padidinanti maksimalios tikimybės funkcijos parametrų tikimybę logaritmais, yra lygi numatytai parametrų vertei, kuri maksimaliai padidina pradinės didžiausios tikimybės funkcijos parametrų tikimybę.
Taigi, mes visada ketiname spręsti monotonišką didžiausios tikimybės funkcijos modifikavimą, atsižvelgiant į jos paprastesnį skaičiavimą.
Smalsumas
Kad ir kaip sudėtinga ir keista atrodo EMV, mes ją nuolat taikome patys to nesuvokdami.
Kada?
Visuose tiesinės regresijos parametrų įvertinimuose pagal klasikines prielaidas. Plačiau žinomas kaip įprasti mažiausi kvadratai (OLS).
Kitaip tariant, taikydami OLS, mes netiesiogiai taikome EMV, nes abu yra nuoseklūs.
Program
Kaip ir kiti metodai, EMV remiasi iteracija. Tai yra tam tikros operacijos kartojimas tiek kartų, kiek reikia, norint rasti didžiausią ar mažiausią funkcijos vertę. Šiam procesui gali būti taikomi apribojimai dėl galutinių parametrų verčių. Pavyzdžiui, kad rezultatas yra didesnis arba lygus nuliui arba kad dviejų parametrų suma turi būti mažesnė nei vienas.
Simetrinis GARCH modelis ir įvairūs jo plėtiniai taiko EMV, kad surastų numatomą parametrų vertę, kuri maksimaliai padidina tankio funkcijų parametrų tikimybę.