Redakcja: Czego w dziedzinie mikroekonometrii dokonali James Heckman i Daniel McFadden?

Prof. Marek Gruszczyński: Laureatów Nagrody Nobla w dziedzinie ekonomii z roku 2000 uważa się za prominentnych przedstawicieli mikroekonometrii i twórców prac, które wytyczyły główne ścieżki tej dziedziny. James Heckman otrzymał nagrodę za rozwój teorii metod analizy samoselekcji próby. Daniel McFadden został zaś uhonorowany za rozwój teorii metod analizy wyboru dyskretnego, czyli dokonywanego z kilku możliwości.

Mikroekonometria to część ekonomii zajmująca się metodyką opartą na analizie tzw. mikrodanych. Wybierając się dziś do państwa redakcji zastanawiałem się, jaki wybrać rodzaj transportu. Do wyboru miałem: samochód, metro, tramwaj oraz taksówkę. Wybrałem metro, a więc dokonałem wyboru spośród wielu dostępnych możliwości, co nazywa się właśnie wyborem dyskretnym. Jeżeli dysponujemy dużą ilością takich obserwacji, jak mój wybór oraz cechami osób, które tego wyboru dokonują, a także cechami samych wyborów, wówczas możemy mówić o zbiorze mikrodanych. W dziedzinie, w której się specjalizuję, mikroekonometrii finansowej, takich wyborów dokonują firmy. Firma może np. wybrać sposób finansowania swojej kluczowych inwestycji: dokonać emisji akcji, emisji obligacji lub zaciągnąć kredyt bankowy. Jeśli istnieje mnóstwo firm, które spośród podobnych możliwości wybierają jedną, to zbiór tych wyborów jest właśnie zbiorem mikrodanych.

Metody mikroekonometrii koncentrują się przede wszystkim na analizie zmiennych o charakterze jakościowym, a zatem wybór to pewna zmienna jakościowa, którą trudno zmierzyć. Te zmienne jakościowe, a także zmienne o charakterze tzw. ograniczonym to główne pole metod badawczych w mikroekonometrii. W tej dziedzinie na ogół modelowane jest prawdopodobieństwo, że jakiś wybór zostanie dokonany i jakaś jednostka znajdzie się w określonym stanie, np. wspomniana firma podejmie decyzję, że emituje obligacje. Modele oparte są zatem na dość rygorystycznej metodyce ze statystyki matematycznej i ekonometrii.

Odbiór tej nagrody okazał się ogólnie bardzo pozytywny, ponieważ wreszcie uhonorowano wykorzystanie modeli opartych na mikrodanych, które było wtedy już czymś dość powszechnym. Do tamtego momentu honorowano bowiem ekonometryków i ogółem ekonomistów zajmujących się modelowaniem na makrodanych. Mikrodane mają zazwyczaj charakter danych przekrojowych, co znaczy, że ogląda się jakąś grupę decyzji w jednej jednostce czasu, jednego dnia albo jednego miesiąca, czy też danych panelowych, co znaczy to samo tylko w kolejnych jednostkach czasu. Jeden z ekonomistów napisał w 2000 r., że „Nobel” dla Heckmana i McFaddena to wyróżnienie mikroekonometrii, która stanowi dla ekonomii coś w rodzaju „rocket science”, czyli techniki rakietowej. Jest w tym coś na rzeczy, ponieważ kolejne 20 lat pokazało, że metody, których autorami i użytkownikami byli ci laureaci bardzo się rozwinęły nie tylko w ekonomii, ale i w innych naukach społecznych, a także poza nimi. Działo się tak przede wszystkim dlatego, że zwiększyła się dostępność olbrzymich zbiorów mikrodanych, nazywanych teraz popularnie „big data”, a także dostępność rozmaitych technik obliczeniowych, które ułatwiają analizę. Te analizy poszły w różnych kierunkach, nie tylko mikroekonometrii, ale i w dużej mierze technik opartych na sztucznej inteligencji oraz innych technik informatycznych. Warto powiedzieć, że według rozmaitych rankingów zawód zaawansowanego analityka danych jest dziś najbardziej poszukiwany na świecie i tego typu ludzi wciąż brakuje.

W swoim wykładzie noblowskim w 2000 r. James Heckman wskazał, że mikroekometria to odpowiedź na pewną niedoskonałość swoistego „zaklętego kręgu” metodyki, tzw. Komisji Cawlesa, która dominowała w latach 50.-70. i opierała swoje modele właśnie na zagregowanych szeregach czasowych oraz skomplikowanych modelach wielorównaniowych o równaniach współzależnych. Odpowiedź na pytania dotyczące decyzji pojedynczych jednostek była bardzo trudna przy użyciu tych modeli i dopiero mikroekonometria zaproponowała na nie odpowiedzi za pomocą własnych podejść. Tutaj oczywiście trochę skracam, ale sama agregacja danych, które mają postać tysięcy mikroobserwacji do jakiejś jednej liczby, w oczywisty sposób zmniejsza zawartość informacyjną tych danych i bardzo zubaża późniejsze wyniki. Mikroekonometria dostrzegła, że najważniejszy w modelach ekonometrycznych jest w zasadzie ów tajemniczy składnik losowy, w którym na ogół upycha się niedoskonałość modeli, a który jest bardzo ważny jeżeli posiadamy dane indywidualne. Ten składnik losowy reprezentuje niejednorodność naszej próby statystycznej, różnorodność otaczającego nas świata oraz różnorodność decyzji, jakie podejmujemy.

Na marginesie dodam, że odbiór tej nagrody w Polsce był z początku dość trudny. W roku 2000 mikroekonometria nie była jeszcze jakoś specjalnie rozpoznawana jako część ekonometrii. Dość powiedzieć, że jeden z prominentnych naukowców powiedział dla „Rzeczpospolitej”, że „Nobla dostali klasycy, ale wyników ich badań do niczego się już dzisiaj nie stosuje”. Oczywiście mylił się w tym bardzo zasadniczo.

Oglądaj całość