آزمون های پـارامتری و ناپارامتری
>>> کپی برداری تنها با ذکر منبع مجاز است.
منبع: کتاب «
راهنمای آسان تحلیل آماری با SPSS؛ نویسنده: رامین کریمی»
آزمون های آماری را بر اساس ویژگی های داده ها یا متغیرها به دو دسته تقسیم میکنند: آزمون های پارامتری و آزمون های ناپارامتری.
در جریان رشد روش های آماری مدرن، اولین تکنیک های استنباطی که پدید آمدند، تکنیک هایی بودند که برای جمعیّتی که نمرات از آن برگرفته میشود مفروضات فراوانی قائل بودند. از آن جا که مقادیر جمعیّت «پارامتر»اند، این تکنیک های آماری را پارامتری میخوانند. این دسته از تکنیک ها به نتیجه گیری هایی می انجامد که با قید و شرط همراه اند؛ برای مثال، «اگر مفروضات شکل جمعیّت (جمعیّت ها) معتبر باشد، آنگاه می توانیم نتیجه گیری کنیم که...»
در سالهای اخیر تعداد زیادی تکنیک استنباطی ابداع شده است که مفروضات سختی را درباره پارامترها پیش نمی کشند. این تکنیک های جدیدتر، ناپارامتری یا توزیع آزاد هستند به طوری که نتیجه گیریها در آن مستلزم هیچ قید و شرطی نیست.
آزمون های پارامتری
زمانی که داده های ما ویژگی های زیر را دارا باشند میتوانیم از آزمونهای پارامتری استفاده کنیم:
1- مشاهده های ما باید از جمعیّت های آماری که دارای توزیع نرمال هستند به دست آمده باشند.
2- این جمعیّت های آماری باید دارای واریانس برابر باشند (فرض همگن بودن واریانسها).
3- متغیرها باید حداقل با مقیاس فاصله ای اندازه گیری شده باشند.
4- مشاهده های ما باید مستقل از یکدیگر باشند. یعنی انتخاب هر موردی از میان جمعیّت، برای قراردادن آن مورد در نمونه، نباید مشکل و خللی در شانس انتخاب شدن هریک از موارد دیگر در نمونه ایجاد کند.
تمام شرایط بالا عناصری از مدل آمار پارامتری هستند. به استثنای فرض همگن بودن واریانس ها، این شرایط را معمولا در جریان یک تحلیل آماری آزمون نمی کنند. بلکه این شرایط «پیش فرض هایی» هستند که پذیرفته میشوند، و درستی یا نادرستی آنها، معنی دار بودن عبارات نتیجه گیری ما را در کاربرد آزمون های پارامتری معیّن میکنند.
آزمون های پارامتریک چند مزیّت دارند. در صورت مساوی بودن سایر شرایط، این آزمون ها نسبت به آزمون های ناپارامتریک توان و انعطاف بیشتری دارند. آزمون های پارامتریک نه تنها به پژوهشگر اجازه میدهند تا تاثیر متغیرهای مستقل متعددی را بر روی متغیر وابسته مطالعه کند، بلکه امکان مطالعه تاثیر متقابل آنها را هم فراهم می کنند. نمونه های کوچک و انحراف در داده ها موجب میشود که از آزمون های ناپارامتریک استفاده کنیم.
وقتی دلایلی موجود باشد که نشان بدهد اطلاعات جمع آوری شده ما واجد شرایط ذکر شده هستند در آن صورت یقینا باید از آزمون های پارامتری از قبیل آزمون t یا آزمون F برای تجزیه و تحلیل داده ها استفاده شود. چنین انتخابی از آن جهت مطلوب است که آزمون های پارامتری در صورتی که مفروضات آنها رعایت شود، توانمندترین آزمون ها برای ردکردن فرض صفر وقتی که باید آن را رد کنیم میباشند.
آزمون های ناپارامتری
اما در صورتی که اطلاعات جمع آوری شده شرایط و پیش فرض های ذکر شده را نداشته باشند، مثلا جامعه آماری ما توزیع نرمال نداشته باشد یا توزیع آن مشخص نباشد و یا زمانی که مقیاس متغیرها فاصله ای نباشد و ترتیبی و اسمی باشد چه باید کرد؟ در صورتی که داده ها یکی از مفروضات ذکر شده را نداشته باشند باید از آزمون های ناپارامتری استفاده کرد. گرچه شواهد تجربی نشان میدهد که انحراف جزئی از مفروضات آزمون های پارامتری تأثیرات چندان شدید و عمیقی بر روی نتایج به دست آمده نمی گذارد. با این حال هنوز روی این مسأله که "انحراف جزئی" چقدر است اتفاق نظر عمومی و کلی به دست نیامده است. در جدول1-4 برخی از مهم ترین آزمون های پارامتری و ناپارامتری را می توان مشاهده کرد.
جدول 1-4- مقایسه انواع آزمونهای پارامتریک و ناپارامتریک
نوع آزمون |
سنجش رابطه |
مقایسه میانگین یا میانه |
پارامتری |
همبستگی پیرسون –رگرسیون خطی |
tتک نمونه ای –tگروههای مستقل
tجفتی یا همبسته –تحلیل واریانس- تحلیل اندازه های مکرر |
ناپارامتری |
همبستگی کندال و اسپیرمن
ضرایب فی و وی کرامر - مجذور کای استقلال
|
مجذور کای نیکویی برازش –مان ویتنی –ویلکاکسون
کروسکال والیس - فریدمن |
دانلود فایل PDF متن بالا