اقتصاد سنجی

اهداف اقتصادسنجی را به طور کلی می‌توان دادن محتوای تجربی به روابط اقتصادی برای آزمودن نظریه‌های اقتصادی، پیش بینی، تصمیم گیری، و ارزیابی پیشینی یک سیاستگذاری یا تصمیم دانست.[۵]

به کمک تکنیک‌های اقتصادسنجی می‌توان ضرایب مجهول مدل ساخته‌شده را برآورد کرد و سپس (در صورت برقرار بودن تعدادی فرض) به استنتاج آماری دربارهٔ آنها پرداخت. مثلاً اگر تئوری اقتصادی بیان می‌کند که رابطه متغیر وابسته و متغیر توضیح دهنده رابطه‌ای معکوس است، انتظار داریم که ضریب این متغیر از لحاظ آماری معنادار (متفاوت از صفر) و منفی باشد. همچنین بعد از برآورد ضرایب می‌توانیم با قرار دادن مقادیر دلخواه متغیرهای توضیح‌دهنده در رابطه، مقدار متغیر وابسته متناظر با آنها را پیش‌بینی کنیم.[۲]

اقتصادسنجی در ارزیابی سیاستگذاری‌ها نیز مفید است. مثلاً اگر سیاستگذار تابع تقاضای یک کالا را با داده‌های قبلی برآورد کرده‌باشد و حال بخواهد قیمت آن کالا را به صورت دستوری طوری تعیین کند که تعداد مشخصی از مردم از آن کالا استفاده کنند، کافی است این مقدار را در تابع تقاضا قرار داده و قیمت متناظر با آن را محاسبه کند. در اقتصادسنجی حتی در چنین مثال ساده‌ای ظرافت‌هایی وجود دارد که باید به آنها توجه شود. مثلاً برای تخمین تابع تقاضا، مشاهده‌ها در جدول داده‌ها می‌بایست زوج قیمت و مقدار تقاضا در شرایط تعادل پایدار باشند. در غیر این صورت مدل ِ پیچیده‌تر یا روش اقتصادسنجی ِ دیگری برای تخمین‌های معتبر و آزمون آنها لازم است.[۲][۴]
روش‌شناسی اقتصادسنجی

روش‌شناسی (متدولوژی) مدل‌سازی اقتصادسنجی همواره محل بحث بوده است. اولویتها و رابطه بین تئوری اقتصادی، داده ها، مدل نظری و مدل اقتصادسنجی موضوع این مباحث بوده است. یک روش‌شناسی که عموماً مورد استفاده قرار می‌گیرد در نمودار زیر نمایش داده شده است:
Methodology chart.PNG

فرض کنید قصد مدل کردن یک پدیده را داریم. ابتدا نظریه‌ای در توضیح عوامل موثر بر آن می‌یابیم. منظور از مدل نظری، فرموله کردن ریاضی یک نظریه است. قدم بعدی تبدیل مدل نظری به مدل اقتصادسنجی است. برای این کار، ابتدا سری داده‌های معینی که فرض می‌شود مقادیر متغیرهای موجود در مدل را نمایندگی می‌کنند، انتخاب می‌شوند. سپس فرض می‌شود که متغیرهای نظری بر متغیرهایی که داده‌های انتخاب شده را ایجاد کرده‌اند منطبق هستند. در نتیجه متغیرهای داده‌های انتخاب شده را در مدل ریاضی جایگزین متغیرهای نظری می‌کنیم. در گام آخر تبدیل مدل نظری به مدل اقتصادسنجی، یک جمله خطای تصادفی به معادله اضافه می‌کنیم.

سپس ضرایب مدل آماری را با توجه به فروضی که روی جمله خطا کرده‌ایم برآورد می‌کنیم. اگر هر یک از فروض نقض شدند فروض جمله خطا را تغییر می‌دهیم. سپس قیود پیشینی (a priori) که توسط تئوری اعمال شده‌اند (مثل علامت و مقدار ضرایب) را آزمون می‌کنیم. وقتی متقاعد شدیم که نظریه درست است، می‌توانیم از معادلهٔ برآوردشده برای پیش بینی یا ارزیابی سیاستگذاری استفاده کنیم.

انتقاداتی به این روش‌شناسی وارد است. از جمله اینکه نقطه شروع مدلسازی اقتصادسنجی را یک تئوری می‌داند. در واقع چنین فرض می‌شود که تنها «اطلاعات مشروع» موجود در داده‌های انتخاب‌شده آنهایی هستند که تئوری ذکر می‌کند. در نتیجه اگر داده‌ها در لباسی که بدون در نظر گرفتن طبیعتشان برایشان انتخاب شده جا نشوند، مدلساز در مرحلهٔ تصریح مدل آماری با سختی‌های فراوان روبرو می‌شود. ساده‌لوحانه است که پیشنهاد کنیم داده‌های مشاهده شده هر چه باشند، مدل آماریشان نباید فرقی کند. به دلیل مشکلاتی از این دست، روش‌شناسی‌های دیگری نیز در اقتصادسنجی وجود دارند که طبیعت داده‌های مشاهده‌شده را مرکز توجه قرار می‌دهند و در آنها مدل آماری مستقیماً مبتنی بر متغیرهای تصادفی که داده‌ها را ایجاد کرده‌اند تعریف می‌شود و نه جملهٔ خطا.[۱]
انواع داده‌ها

داده‌ها و مشاهدات متغیرهای موجود در یک مدل معمولاً در سه نوع مختلف می‌تواند وجود داشته باشد: داده‌های سری زمانی، داده‌های مقطع زمانی و داده‌های تلفیقی

داده‌های سری زمانی، مقادیر یک متغیر را در نقاط متوالی در زمان، اندازه گیری می‌کند. این توالی می‌تواند سالانه، فصلی، ماهانه، هفتگی یا حتی به صورت پیوسته باشد. داده‌های سری زمانی به طور کلی موضوع کار «اقتصادسنجی کلان» است که روشهای اقتصادسنجی را در سطح کلان بررسی می‌کند. در اقتصاد کلان عموماً از سری زمانی‌های سالانه یا فصلی استفاده می‌شود چرا که جمع‌آوری اطلاعاتی مانند حسابهای ملی در فواصل کوتاه‌تر با دشواری‌های زیادی همراه است. اما در اقتصادسنجی مالی که داده‌ها در هر زمان به آسانی قابل گزارش هستند، استفاده از سری‌های زمانی ساعتی یا حتی دقیقه ای نیز امری غیرمعمول نیست. معمولاً از اندیس t برای داده‌های سری زمانی استفاده می‌کنند.

داده‌های مقطع زمانی، مقادیر یک متغیر را در زمان معین و روی واحدهای متعدد اندازه گیری می‌کند. این واحدها می‌توانند افراد، خانوارها، واحدهای تولیدی، صنایع، نواحی مختلف و حتی کشورهای مختلف باشند. مثلاً می‌توان داده‌های درآمد و مصرف خانوارهای مختلف را در سال معینی جمع‌آوری کرد. معمولاً از اندیس i برای داده‌های مقطعی استفاده می‌کنند.

داده‌های تلفیقی در واقع بیان کننده داده‌های مقطعی در طی زمان هستند. بنابراین حجم مشاهدات در داده‌های تلفیقی نسبتاً زیاد است. در سالهای اخیر، کاربرد داده‌های تلفیقی در اقتصادسنجی افزایش بسیاری یافته‌است. معمولاً داده‌های تلفیقی و داده‌های مقطعی در اقتصادسنجی خرد به کار می‌روند که موضوع آن بررسی روشهای اقتصادسنجی در اقتصاد خرد است.[۲]
تحلیل رگرسیون

رگرسیون در لغت به معنای «بازگشت به مراحل قبلی در یک مسیر تحول و توسعه» است. تحلیل رگرسیون در واقع بدنه اصلی مطالعات اقتصادسنجی را تشکیل می‌دهد و به طور کلی درباره مدلهای رگرسیون و نحوه برآورد آنها بحث می‌کند.

برای آشنایی با مفهوم رگرسیون، فرض کنید یک متغیر مثل Y را در طول زمان یا در بین واحدهای مختلف مشاهده کرده و داده‌های مربوط به آن را به دست آورده‌ایم. می‌خواهیم چگونگی تغییرات آن را تفسیر کنیم. برای این منظور باید متغیر یا متغیرهایی را در نظر بگیریم که بتوانند این تغییرات را توضیح دهند. فرض کنید:

Y_t = f(x_{1,t} , ... , x_{k,t})\,

این مدل، یک مدل ریاضی است چرا که فقط رابطه ریاضی بین متغیر وابسته (Y) و متغیرهای مستقل (x_iها) را منعکس کرده است. اگر تابع f نسبت به متغیرهای x_1 تا x_k خطی باشد یعنی به فرم:

Y_t = \beta_0 + \beta_1 x_{1,t} + ... + \beta_k x_{k,t}\,

این مدل، یک مدل ریاضی خطی نامیده می‌شود. اینکه چه متغیرهایی باید به عنوان متغیرهای توضیح دهنده استفاده شوند می‌تواند به تئوری‌های اقتصادی یا برداشت شخصی مدل ساز بستگی داشته‌باشد. شکل تابع نیز تابع نظر مدلساز است و او می‌تواند شکلهای تابعی متفاوتی را امتحان کند که بیشترین سازگاری را با داده‌های موجود داشته باشد. اما باید توجه داشت که حتی اگر متغیرهای توضیح دهنده به درستی انتخاب شده باشند و فرم تابعی نیز درست تصریح شده باشد، باز هم مدل ساخته‌شده یک رابطه همواره درست نخواهدبود. دلایل این امر را می‌توان چنین برشمرد:

    علاوه بر متغیرهای توضیح دهنده وارد شده در مدل، عوامل دیگری نیز وجود دارند بیان کمی آنها معمولاً بسیار دشوار است و در نتیجه وارد کردن آنها در مدل مقدور نیست. به عنوان مثال اگر قصد مدل کردن مصرف یک کشور را داشته باشیم، چگونگی انتظارات مصرف کننده نسبت به تغییر در پارامترهای مختلف اقتصادی و درجه عدم اطمینان نسبت به تغییر در پارامترهای مختلف اقتصادی قابل مشاهده نیستند.
    ثانیاً اقتصاد با رفتار انسانها سر و کار دارد و می‌دانیم که در رفتار انسان همواره عناصر تصادفی غیرقابل پیش بینی وجود دارد که اساساً نمی توان آنها را در مدلهای ریاضی گنجاند.
    همچنین دلایل دیگری مانند خطا در اندازه گیری متغیرهای وابسته و مستقل می‌توان ذکر کرد.

پس باید پذیرفت که مدلهای ریاضی برای توضیح پدیده‌های اقتصادی دقیق نیستند و خطا دارند. به این خطا اصطلاحاً «جمله اخلال» می‌گویند زیرا تعادل ریاضی مدل را مختل می‌کند. به همین دلیل یک جمله خطا (یا ترم تصادفی) به مدل اضافه می‌کنیم که جانشینی برای اثر همه عوامل نادیده گرفته شده در مدل است. بنابراین تفاوت کلی مدلهای ریاضی و مدلهای رگرسیون در جمله اخلال است. هر گاه به مدلهای ریاضی یک جمله اخلال – که یقیناً تصادفی است – اضافه کنیم به یک مدل رگرسیون تبدیل خواهد شد.

Y_t = \beta_0 + \beta_1 x_{1,t} + ... + \beta_k x_{k,t} + \varepsilon_t\,

به متغیر Y که در سمت چپ معادله قرار دارد، متغیر وابسته و به x_iها متغیرهای توضیح دهنده یا رگرسورها گفته می‌شود. اصطلاحات متغیر برونزا و متغیر درونزا نیز به ترتیب برای x_iها و Y به کار می‌رود زیرا فرض بر این است که مقادیر x_iها خارج از مدل مفروض تعیین شده و در نتیجه برونزا هستند در حالی که مقادیر Y در داخل مدل و بر اساس قانونمندی تعیین می‌شود و به همین دلیل درونزا خواهدبود.[۲]
فروض کلاسیک

با بررسی مدلهای رگرسیون به سهولت مشاهده می‌شود که هر گونه پیشرفت در تحلیلهای رگرسیونی متوقف به شناخت بیشتر از جمله اخلال مدل است. در واقع در یک مدل رگرسیون، جمله اخلال با اینکه نقش مهمی ایفا می‌کند اما بنا به تعریف ناشناخته است. هر گاه کوشش کنیم اجزایی از جمله اخلال را بشناسیم و آنها را اندازه گیری کنیم این اجزای شناخته شده در قسمت معین مدل قرار می‌گیرد و مجموعه عوامل مجهولی که باقی می‌مانند جمله اخلال را تشکیل می‌دهند. بنابراین جمله اخلال هیچگاه قابل مشاهده و اندازه گیری نیست. در نتیجه تنها راه خروج از این تنگنای نظری این است که یک سری فرضهای منطقی در مورد جمله اخلال (\varepsilon_t\,) مطرح کنیم تا بر آن اساس بتوان به تحلیلهای رگرسیونی ادامه داد. این فرضها با یک فرض در مورد متغیرهای برونزا با عنوان فرضهای کلاسیک مدلهای رگرسیون مطرح می‌شود.

مهمترین نکته در مورد \varepsilon_t\, تصادفی بودن آن است. با توجه به تعریفی که از \varepsilon_t\, ارائه شد، بدیهی است که این فرض قابل قبول است و خلاف آنرا نمی توان تصور نمود. \varepsilon_t\, یک متغیر تصادفی است و مثل همه متغیرهای تصادفی دارای یک تابع توزیع احتمال و در نتیجه میانگین و واریانس (و بقیه گشتاورها) است. سوال مهمی که می‌توان مطرح کرد این است که خصوصیات آماری و شکل تابع توزیع احتمال متغیر تصادفی \varepsilon_t\, چیست؟ پاسخ به این سوال فروض کلاسیک نامیده می‌شود. فروض کلاسیک عبارتند از:

اولین فرض این است که میانگین یا امید ریاضی جمله اخلال صفر است.

E(\varepsilon_t)=0 \quad t=1, ..., T\,

این فرض در واقع به این معنی است که به ازای هر مقدار معین از متغیرهای توضیح دهنده، میانگین تمام مقادیر ممکن \varepsilon_t\, برابر صفر است. ظهور مقادیر مختلف \varepsilon_t\, به اعتبار فرض آزمایشهای فرضی تکراری به ازای مقادیر معین و ثابت متغیرهای توضیح دهنده است. مفهوم کلی این فرض این است که مدل خطای سیستماتیک ندارد.

دومین فرض ثابت بودن واریانس جمله اخلال به ازای مقادیر مختلف متغیرهای مستقل است.

var(\varepsilon_t)=E(\varepsilon_t^2)=\sigma^2 \quad t=1, ..., T\,

هرگاه واریانس جمله اخلال ثابت باشد، می‌گوییم مدل واریانس همسان و در غیر این صورت واریانس ناهمسان است.

سومین فرض این است که \varepsilon_i\, و \varepsilon_j\, به ازای تمامی مقادیر i \ne j\, از یکدیگر مستقلند. یعنی کوواریانس آنها صفر است.

cov(\varepsilon_i,\varepsilon_j)=E(\varepsilon_i \varepsilon_j)=0 \quad i,j=1, ..., T \quad i \ne j \,

به عبارت دیگر هر گاه دو مقدار متفاوت برای متغیرهای مستقل را در نظر بگیریم، فرض بر این است که جمله‌های اخلال متناظر با آنها از یکدیگر مستقلند. در چنین حالتی می‌گوییم که جمله‌های اخلال خود همبستگی ندارند.

چهارمین فرض این است که تابع توزیع جمله اخلال را نرمال بدانیم. بنابراین با توجه به فرضهای اول و دوم و سوم می‌توان گفت که \varepsilon_t\, دارای توزیع مستقل نرمال با میانگین صفر و واریانس ثابت \sigma^2\, است.

\varepsilon_t \sim NID(0, \sigma^2) \,

پنجمین و آخرین فرض از فرضهای کلاسیک این است که متغیرهای توضیح دهنده غیرتصادفی هستند. این فرض بیشتر برای سهولت در استنتاج قضایا و نیز رسیدن به نتایج جالبتر در تخمین پارامترهاست. بدیهی است که می‌توان این فرض را نقض کرد و متغیرتوضیح دهنده را به صورت یک متغیر تصادفی در نظر گرفت. به هر حال فرض غیرتصادفی بودن متغیرهای توضیح دهنده بدین معناست که x_{i,t} \,ها از متغیر تصادفی \varepsilon_t\, مستقل هستند.[۲]
برآورد ضرایب

یکی از مباحث اصلی تحلیلهای رگرسیونی، تخمین پارامترهای مدل است.اگر تابع رگرسیون جامعه را با

Y_t = \beta_0 + \beta_1 x_{1,t} + ... + \beta_k x_{k,t} + \varepsilon_t \quad (*) \,

و برآوردهای \beta_i\,ها و y_t \, را به ترتیب با \hat \beta_i \ \, و \hat y_t \ \, نشان دهیم، مدل رگرسیون نمونه عبارت خواهد بود از:

Y_t = \hat \beta_0 \ + \hat \beta_1 \ x_{1,t} + ... + \hat \beta_k \ x_{k,t} + e_t \quad (**) \,

یا:

\hat Y_t\ = \hat \beta_0 \ + \hat \beta_1 \ x_{1,t} + ... + \hat \beta_k \ x_{k,t}\,

اختلاف بین مشاهده (Y_t \,) و تخمین (\hat Y_t \ \,) را اصطلاحاً پسماند گفته و با e_t \, نشان می‌دهیم.

\hat \beta_i \ \,ها قابل تخمین هستند و در نتیجه می‌توان مدل رگرسیون نمونه را برآورد کرد اما پارامترهای واقعی جامعه هیچگاه قابل مشاهده و اندازه گیری نیستند زیرا \varepsilon_t\, اساساً قابل مشاهده نیست. برای برآورد مدلهای رگرسیون، بسته به نوع مدل روشهای متفاوتی وجود دارد.[۲]
روش حداقل مربعات معمولی
داده‌ها (نقاط آبی) و بهترين خطي كه با معيار OLS می‌توان از ميان آنها گذراند (خط قرمز)

برای مدلهای رگرسیون خطی، روش حداقل مربعات معمولی ساده‌ترین و مرسوم‌ترین روش است. طرح اولیه این روش را که معمولاً با OLS نشان داده می‌شود کارل فریدریش گوس ریاضی دان معروف آلمانی در قرن هجدهم مطرح کرده است. زیربنای فکری روش حداقل مربعات معمولی این است که ضرایب مدل مقادیری اختیار کنند که مدل رگرسیون نمونه بیشترین نزدیکی را به مشاهدات Y_1, ..., Y_T \, داشته باشد. به عبارت دیگر کمترین انحراف را از مشاهدات فوق نشان دهد.

اگر مدل رگرسیون خطی (*) \, را با خط (**) \, تخمین بزنیم، این خط باید کمترین فاصله را با مشاهدات ما داشته باشد. معیار روش حداقل مربعات معمولی این است که ضرایب را باید چنان تخمین زد که مجموع مربعات پسماندها یعنی \sum_{t=1}^T e_t^2 \, به حداقل برسد.[۲]

روش OLS برای برآورد ضرایب نیاز به هیچ شرطی روی جمله اخلال ندارد اما برای آنکه ضرایب برآورد شده نااریب (بدون تورش) باشند و استنتاج آماری (مثلاً تستهای معناداری) روی آنها امکان پذیر باشد، برقرار بودن فروض کلاسیک الزامی است.[۶]
نقض فروض کلاسیک

اگر آزمونهای آماری بعد از انجام OLS، بر نقض یکی از فروض کلاسیک صحه بگذارند، دیگر مجاز به استفاده از روش OLS برای برآورد مقادیر آن مدل نیستیم. در این صورت یا باید مدل را تغییر دهیم یا روش برآورد را. به طور سنتی در داده‌های مقطعی انتظار واربانس ناهمسانی و در داده‌های زمانی انتظار خودهمبستگی را داریم.[۶]
روش حداقل مربعات تعمیم یافته

در صورت مشاهده خودهمبستگی یا واریانس ناهمسانی، می‌توان از روش حداقل مربعات تعمیم یافته (GLS) برای برآورد ضرایب استفاده کرد. البته استفاده از این روش نیازمند حدسهایی درباره ماتریس واریانس-کوواریانس جملات اخلال است که استفاده از ماتریس واریانس-کوواریانس پسماندهای مدل OLS برآورد شده به عنوان نقطه شروع و استفاده از روشهای تکرارشونده (Iterative) می‌تواند در این زمینه راهگشا باشد.[۶]
متغیر ابزاری

در صورتی که حدس بزنیم به دلایلی (مثل وجود متغیر حذف شده) بین جمله اخلال و یکی از متغیرهای توضیح دهنده همبستگی وجود دارد، باید به جای آن متغیر توضیح دهنده از یک متغیر ابزاری استفاده کنیم یعنی متغیری که با آن متغیر توضیح دهنده همبستگی بالایی دارد اما نسبت به جمله اخلال مستقل است. به عنوان مثال فرض کنید Y به درستی توسط متغیرهای S و Z با تابعی مثل تابع زیر توضیح داده می‌شود و بین S و Z همبستگی وجود دارد.

Y_t = a + b Z_t + c S_t + \varepsilon_t \,

اما ما مدلی که ما می‌سازیم به صورت:

Y_t = a + b Z_t + \nu_t \,

است. واضح است که جملات اخلال مدل پایینی (\nu_t \,) دربردارنده S نیز هستند و چون S با Z همبستگی دارد پس \nu\, هم با Z همبستگی خواهد داشت و این باعث خواهد شد که برآورد ضریب b با روش OLS اریب و ناسازگار باشد. پس باید به جای Z از یک متغیر ابزاری مثل W استفاده کنیم که با Z همبستگی بالایی دارد اما با جمله اخلال (\nu\,) هیچ همبستگی ندارد. به عنوان یک راه حل در صورتی که داده‌های S را در اختیار داشته باشیم، می‌توان Z را بر S رگرس کرد و از \hat Z\ \, (مقادیر برازش شده Z) به عنوان ابزار استفاده کرد.[۶]

متغیر ابزاری ایده‌آل یک آزمایش طبیعی است که تخصیص‌های تصادفی ایجاد می‌کند. به عنوان مثال اگر بخواهیم تاثیر حضور در جنگ را بر درآمد آینده فرد محاسبه کنیم، با رگرس کردن درآمد بر متغیر مجازی حضور یا عدم حضور در جنگ نتیجه نا اریبی حاصل نخواهد شد چرا که ممکن است عوامل نادیده ای بر انتخاب فرد برای حضور در جنگ تاثیر داشته باشند که بر درآمد او هم موثر باشند. مثلاً ممکن است افراد با تحصیلات کمتر حضور در جنگ را انتخاب کنند. اما اگر افرادی که باید در جنگ حاضر شوند توسط یک قرعه کشی مشخص شوند (مانند آنچه در آمریکا زمان جنگ ویتنام اتفاق افتاد) یک آزمایش طبیعی اتفاق افتاده که حضور یا عدم حضور در جنگ را به صورت تصادفی معین می‌کند. در این حالت دیگر بین حضور در جنگ و توانایی‌ها و مشخصات نادیده گرفته شدهٔ فرد همبستگی وجود ندارد و انجام رگرسیون درآمد روی متغیر مجازی حضور در جنگ نتایج نااریب ایجاد خواهدکرد.[۷]
روش حداکثرسازی درستنمایی

روش حداکثرسازی درستنمایی (MLE) نیز برای برآورد ضرایب اکثر مدلهای رگرسیون قابل استفاده است ولی قبل از استفاده از آن، باید یک توزیع احتمال برای جملات اخلال فرض کرد. پس از آن با استفاده از تابع توزیع جملات اخلال، تابع درستنمایی یا تابع لگاریتم درستنمایی را تشکیل داده، و ضرایب را طوری برآورد می‌کنیم که با توجه به داده‌های نمونه، این تابع حداکثر شود.[۶]

به عنوان مثال در مورد مدلهای رگرسیون خطی، مستقل و نرمال فرض کردن توزیع جملات اخلال و سپس استفاده از روش حداکثر درستنمایی، ضرایبی عیناً مانند ضرایب روش OLS بدست می‌دهد.[۶] به عنوان مثالی دیگر، در رگرسیون لوجیت (Logit) فرض می‌شود که جملات اخلال دارای توزیع مستقل و یکسان Extreme Value هستند و سپس ضرایب با روش حداکثر درستنمایی برآورد می‌شوند.[۸]
روش‌های برآورد معادلات هم زمان

از روشهای مهم برآورد معادلات همزمان می‌توان روش گشتاورها (Method of Moments)، روش گشتاورهای تعمیم یافته (Generalized Method of Moments-GMM)، روش بیزین (Bayesian methods)، روش حداقل مربعات معمولی دو مرحله ای (Two Stage Least Squares-۲SLS)، و روش حداقل مربعات معمولی سه مرحله ای (Three Stage Least Squares-۳SLS)، روش حداکثر درستنمایی اطلاعات کامل (FIML) و روش حداکثر درستنمایی اطلاعات محدود (LIML) را نام برد.[۱]
دسته بندی مدلهای اقتصادسنجی

گاهی تنها یک متغیر را در مدل وجود دارد و سعی می‌کنیم مقدار آن متغیر در زمان t را به وسیله مقادیر محقق شده همان متغیر در دوره‌های گذشته یا شوکهای (جملات خطای) گذشته مدل کنیم. به چنین معادلاتی تک متغیره (Univariate) گفته می‌شود. این مدلها هیچ محتوای نظری ندارند و عموماً برای پیش بینی مورد استفاده قرار می‌گیرند. اگر تنها از مقادیر گذشته متغیر استفاده کنیم، مدل خودبرگشت (Autoegressive) نامیده می‌شود. اگر تنها از مقادیر شوکهای گذشته استفاده کنیم مدل میانگین متحرک (Moving Average) نامیده می‌شود. اگر از هر دو در مدل استفاده شود، آن مدل را ARMA می‌نامیم.[۹] اگر برای توضیح یک متغیر از متغیرهای دیگر نیز استفاده شود، آن معادله چندمتغیره نامیده می‌شود. این مدلها علاوه بر پیشبینی، برای تحلیلهای ساختاری هم مناسب هستند.

تحلیل‌های اقتصادسنجی گاهی بر اساس تعداد همبستگی‌های مدل شده (تعداد معادلات موجود در مدل) دسته بندی می‌شوند. متدهای تک‌معادله‌ای (Single equation methods)، یک متغیر (متغیر وابسته) را بعنوان تابعی از یک یا چند متغیر توضیح دهنده (متغیر مستقل) مدل می‌کند. در خیلی زمینه‌های اقتصاد سنجی چنین تک معادله ای ممکن است اثر مورد نظر را نپوشاند، و یا ممکن است تخمین هایی با خصیصه‌های آماری ضعیف تولید کند. روشهای معادلات همزمان (Simultaneous equation methods) برای از بین بردن چنین کمبود هایی ایجاد شده‌اند.[۴] معادلات همزمان اولین بار توسط هاولمو (Haavelmo) در سال 1943 پیشنهاد شدند.[۱]
همبستگی و علیت در اقتصادسنجی

در ساختن و تحلیل مدلهای اقتصادسنجی باید همواره توجه کرد که معناداری آماری بین دو متغیر لزوماً تضمین نمی‌کند که یک رابطهٔ اقتصادی مفید و بامعنی بین دو متغیر پیدا شده است. معنی‌داری آماری برای معنی داری اقتصادی نه لازم و نه کافی است. اگر هیچ تئوری نتوان یافت یا ساخت که این رابطه را پشتیبانی کند، این مدل حاوی هیچ اطلاعات حقیقی نخواهدبود. به چنین همبستگی‌هایی، همبستگی موهومی یا بی‌معنا گفته می‌شود.[۶]

همبستگی موهومی بین دو متغیر معمولاً در مورد متغیرهای سری زمانی انبوهشی[۱۰](aggregate) امر رایجی است. یک آماردان به نام آندی یول در مقاله ای در سال ۱۹۲۶ و با استفاده از داده‌های سالهای ۱۸۶۶ تا ۱۹۱۱ نشان داد که بین نرخ مرگ و میر در انگلستان و ولز، با نسبت ازدواجهای منعقد شده در کلیسای انگلیس یک همبستگی ۹۵% وجود دارد. با این حال هیچ سیاستمداری پیشنهاد نکرد که کلیسای انگلیس تعطیل شود تا مردم این کشور عمر جاویدان بیابند. به عنوان مثالی دیگری، هندری یک رابطه بسیار قوی ولی غیرخطی بین نرخ تورم و مجموع بارش سالانه در انگلستان یافت. بسیار عالی می‌شد اگر مردم بریتانیا می‌توانستند نرخ تورم خود را کاهش دهند و به عنوان جایزه، از اثر جانبی هوای بهتر هم بهره‌مند شوند.[۶]

در ضمن ممکن است علیت بین دو متغیر، معکوس تشخیص داده شود. یعنی در حالی که در واقعیت متغیر الف علت پدیده ب است، در ساخت مدل ما به اشتباه از متغیر الف به عنوان متغیر وابسته و از ب به عنوان متغیر توضیح دهنده استفاده کنیم. از لحاظ آماری هیچ آزمونی وجود ندارد که بتواند جهت واقعی علیت را به ما بشناساند با این حال کلایو گرانجر تکنیکی، که به آزمون علیت گرانجر معروف شده است، ابداع کرد که ادعا می‌کند می‌تواند چیزهایی درباره رابطه علی بین دو متغیر فاش کند.[۱۱]
نقد لوکاس

نقد لوکاس، توسط رابرت لوکاس در سال ۱۹۷۶ مطرح شد. در آن زمان ساختن و برآورد مدلهای معادلات همزمان بسیار بزرگ و استفاده از نتایج آنها برای سیاستگذاری بسیار باب شده‌بود. نقد لوکاس بیان می‌کند ساده‌لوحانه است که تصور کنیم می‌توانیم تاثیرات یک تغییر سیاست اقتصادی را کاملاً بر مبنای روابط منعکس شده در داده‌های گذشته پیش بینی کنیم. به عبارت دیگر، پارامترهای برآوردشده یک مدل حتی در صورتی که از لحاظ آماری کاملاً معتبر باشند، در اثر سیاست (قواعد بازی) جدید می‌توانند تغییر کنند. بنابراین نتیجه گیری‌های سیاستی بر مبنای این مدلها به صورت بالقوه گمراه کننده است. این نقد، استفاده گسترده از مدلهای اقتصادسنجی که فاقد پایه‌های تئوریک اقتصادی دینامیک بودند زیر سوال برد.

به عنوان یک مثال اقتصادی، رابطه منفی بین بیکاری و تورم که به منحنی فیلیپس معروف است در صورتی که حاکمان یک کشور قصد بهره‌گیری زیاد از آن را داشته‌باشند فرو می‌ریزد زیرا افزایش دادن مداوم تورم به امید اینکه بیکاری را برای همیشه پایین نگه دارند بالاخره باعث خواهدشد تورم انتظاری بنگاه‌ها افزایش یابد و تصمیمات استخدامی آنها تغییر یابد. پس اینکه تحت سیاستهای پولی اوایل قرن بیستم تورم بالا با بیکاری کم مرتبط بوده است بدین معنا نیست که انتظار داشته‌باشیم تحت همه رژیمهای متفاوت سیاست پولی نیز تورم بالا به بیکاری کم منجر شود.

نقد لوکاس پیشنهاد می‌دهد که اگر قصد پیشبینی درست اثرات یک سیاستگذاری را داریم، باید «پارامترهای عمیق» یعنی پارامترهای مرتبط با ترجیحات افراد، تکنولوژی بنگاه‌ها و قیود منابع را مدل کنیم. این دیدگاه باعث رونق اقتصاد کلان با پایهٔ خرد شد.[۱۲]
مدل خودبرگشت برداری

ظهور مدل اقتصادسنجی خودبرگشت برداری (VAR) در دهه ۱۹۸۰ پاسخ مستقیمی به نقد لوکاس بودند.[۱۳] در مدل VAR، متغیرها به صورت یک ترکیب خطی از مقادیر گذشته خودشان و مقادیر گذشته تمامی متغیرهای دیگر مدل توضیح داده می‌شوند بنابراین ساختار یک مدل VAR به جای ملاحظات نظری، بر دینامیک داده‌های مورد بررسی در مدل مبتنی است.[۹]
کتابهایی برای یادگیری اقتصادسنجی

برای یادگیری اقتصادسنجی، قبل از هر چیز تسلط به آمار به ویژه آمار استنتاجی (Inferential Statistics) ضروری است. علاوه بر آن، آشنایی با مبانی جبر ماتریسی و بهینه‌سازی نیز از ملزومات یادگیری اقتصادسنجی هستند.

از کتابهای آموزشی اقتصادسنجی که در اکثر دانشگاه‌های دنیا تدریس می‌شوند می‌توان کتابهای زیر را نام برد:

    «روشهای اقتصادسنجی» نوشته جانستون و دی‌ناردیو
    تحلیل اقتصادسنجی نوشته ویلیام گرین

از کتابهای آموزشی اقتصادسنجی به زبان فارسی می‌توان به عناوین ذیل اشاره کرد:

    اقتصاد سنجی همراه با کاربرد نرم‌افزار Eviews، نوشته علی سوری
    اقتصادسنجی (در دو جلد)، نوشتهٔ مسعود درخشان
    روشهای اقتصادسنجی، نوشتهٔ م. داتا و ترجمهٔ ابوالقاسم هاشمی
    مبانی اقتصادسنجی، نوشتهٔ دامودار گجراتی، ترجمهٔ حمید ابریشمی

برای اقتصادسنجی سری زمانی، کتاب «اقتصادسنجی کاربردی سری زمانی» نوشتهٔ والتر اندرز را می‌توان ذکر کرد. این کتاب توسط مهدی شاهدانی و سعید شوال‌پور به فارسی ترجمه شده‌است. برای یادگیری روشهای اقتصادسنجی خرد، کتاب روشهای انتخاب گسسته با شبیه سازی (Discrete Choice methods with simulation) نوشتهٔ کِنِت تِرِین و کتاب تحلیل داده خرد (Analysis of Microdata) نوشتهٔ وینکلمن و بوئِس از مراجع اصلی هستند. بادی بالتاجی و آریس اسپانوس از دیگر مولفان مطرح در زمینه‌های مختلف اقتصادسنجی هستند.

کتاب «اقتصادسنجی بی‌خطر» نوشتهٔ انگریست و پیشکه نیز می‌تواند راهنمای جیبی یک محقق تجربی درباره ضروریات اقتصادسنجی یک تحقیق باشد. به نظر مولفان این کتاب برخی از روش‌های اقتصادسنجی پیشرفته، عجیب و غریب و به نحوی غیرضروری پیچیده بوده و حتا «خطرناک» اند. افزون بر این، روش‌های اساسی اقتصادسنجی کاربردی عمدتاً بدون تغییر مانده‌اند. کتاب سعی دارد که جنبه کاربردی‌تر و، به زعم خودشان، کم‌خطرتر اقتصادسنجی را باز نمایی کند.[۱۴]

کتاب کاربرد ایویوز در اقتصادسنجی (نسخه 8) تالیف دکتر علیرضا مرادی از انتشارات جهاد دانشگاهی تهران راهنمای مناسبی برای آموزش کاربردی ایویوز و الگوهای متنوع تخمین و شبیه سازی است. در این کتاب به الگوهای مارکف سوئیچینگ رژیم اشاره شده است.
نرم‌افزارهای اقتصادسنجی

از آنجا که تحلیل‌های اقتصادسنجی به ویژه برآورد ضرایب و استنتاج آماری نیاز به محاسبات بسیار سنگین دارند، و همچنین برای ترسیم نمودارهای گرافیکی، استفاده از نرم‌افزارهای اقتصادسنجی در کارهای تجربی ناگزیر می‌نماید. همچنین از بعضی امکانات این نرم‌افزارها مثل شبیه سازی مونت‌کارلو برای پیشبرد نظری اقتصادسنجی استفاده می‌شود.

عموم نرم‌افزارهای آماری در اقتصادسنجی به کار می‌روند. در دانشگاه‌های ایران بیشتر نرم‌افزارهای ایویوز (EViews) و استتا (Stata) توسط دانشجویان و اساتید اقتصادسنجی مورد استفاده قرار میگیرند. ایویوز نرم‌افزاری است که در سال ۱۹۹۴ جایگزین نرم‌افزار مایکرو تی اس پی (MicroTSP) شد که از سالیان دور مورد استفاده دانشجویان اقتصاد قرار داشت. نقطه قوت ایویوز داشتن امکاناتی است که به خصوص در پروژه‌های سری زمانی به محقق اجازه می‌دهند به سرعت مدلهای مورد نیاز خود را برآورد و از جنبه‌های مختلف آزمون کند. همچنین منوهای این نرم‌افزار دسترسی به امکانات مختلف را به آسانی در اختیار کاربر قرار می‌دهد و نیاز چندانی به استفاده از خط فرمان نیست. استتا نرم‌افزاری است که قدرت و سرعت فوق‌العاده‌ای در کار با داده‌های بسیار حجیم (مثل داده‌های بودجه خانوار) دارد. همچنین امکانات برنامه‌نویسی فراوان و کدهای از پیش نوشته شده و منتشر شده در وب توسط کاربران این نرم‌افزار، آن را به یکی از نرم‌افزارهای اصلی بین اقتصادسنجی‌کاران تبدیل کرده است. کار کردن با این نرم‌افزار بیشتر به نوشتن دستورات در خط فرمان متکی است تا استفاده از منوها.

دو نرم‌افزار ذکر شده تجاری هستند اما در سالهای اخیر استفاده از نرم‌افزار متن باز و رایگان آر (R) نیز برای انجام پروژه‌های اقتصادسنجی باب شده است. همجنین بسته نرم‌افزاری مایکروفیت (Microfit) با همکاری محمدهاشم پسران اقتصاددان ایرانی توسط انتشارات دانشگاه آکسفورد عرضه شده‌است که برای اقتصادسنجی سری زمانی مناسب است.
اقتصادسنجی‌دانان مطرح

افراد زیر جایزه نوبل در علوم اقتصادی را به دلیل دستاوردهای قابل توجه در زمینه اقتصادسنجی دریافت کرده‌اند:

    یان تینبرگن، استاد سابق دانشگاه اراسموس روتردام، و راینار فریش در سال ۱۹۶۹ به خاطر ایجاد و کاربرد مدلهای پویا برای تحلیل فرایندهای اقتصادی
    لورنس کلاین، استاد دانشگاه پنسیلوانیا در سال ۱۹۸۰ به دلیل انجام یک مدلسازی کامپیوتری در زمینه اقتصادسنجی
    تریجی هاولکو در سال ۱۹۸۹ به دلیل مقاله ای که در سال ۱۹۴۴ (در ایکانامتریکا) با عنوان «رویکرد احتمالاتی در اقتصادسنجی» از او منتشر شد.
    دانیل مک‌فادن و جیمز هکمن در سال ۲۰۰۰ به دلیل کارهایشان در زمینه اقتصادسنجی خرد
    رابرت اِنگِل (دانشگاه کالیفرنیا در سن دییگو) و کلایو گِرانجر (دانشگاه ناتینگهام) در سال ۲۰۰۳ به دلیل کارهایشان در زمینه تحلیل سری‌های زمانی اقتصادی. انگل روش واریانس ناهمسانی مشروط خودبرگشت (ARCH) و گرانجر هم‌انباشتگی (Cointegration) را ابداع کردند.[۴]