آزمون­ های پـارامتری و ناپارامتری


>>> کپی برداری تنها با ذکر منبع مجاز است.
منبع: کتاب «راهنمای آسان تحلیل آماری با SPSS؛ نویسنده: رامین کریمی»


آزمون­ های آماری را بر اساس ویژگی­ های داده­ ها یا متغیرها به دو دسته تقسیم می­کنند: آزمون­ های پارامتری و آزمون ­های ناپارامتری.
 
در جریان رشد روش ­های آماری مدرن، اولین تکنیک­ های استنباطی که پدید­ آمدند، تکنیک هایی بودند که برای جمعیّتی که نمرات از آن برگرفته می­شود مفروضات فراوانی قائل بودند. از آن جا که مقادیر جمعیّت «پارامتر»­اند، این تکنیک ­های آماری را پارامتری می­خوانند. این دسته از تکنیک­ ها به نتیجه­ گیری­ هایی می­ انجامد که با قید و شرط همراه­ اند؛ برای مثال، «اگر  مفروضات شکل جمعیّت (جمعیّت ­ها) معتبر باشد، آن­گاه می­ توانیم نتیجه­ گیری کنیم که...»
در سال­های اخیر تعداد زیادی تکنیک استنباطی ابداع شده است که مفروضات سختی را درباره پارامترها پیش نمی­ کشند. این تکنیک ­های جدیدتر، ناپارامتری یا توزیع آزاد هستند به طوری که نتیجه ­گیری­ها در آن مستلزم هیچ قید و شرطی نیست.
 
آزمون ­های پارامتری
زمانی که داده­ های ما ویژگی­ های زیر را دارا باشند می­توانیم از آزمون­های پارامتری استفاده کنیم:
1-     مشاهده­ های ما باید از جمعیّت­ های آماری که دارای توزیع نرمال هستند به دست آمده باشند.
2-     این جمعیّت ­های آماری باید دارای واریانس برابر باشند (فرض همگن بودن واریانس­ها).
3-     متغیرها باید حداقل با مقیاس فاصله ای اندازه­ گیری شده باشند.
4-     مشاهده­ های ما باید مستقل از یکدیگر باشند. یعنی انتخاب هر موردی از میان جمعیّت، برای قرار­دادن آن مورد در نمونه، نباید مشکل و خللی در شانس انتخاب شدن هر­یک از موارد دیگر در نمونه ایجاد کند.

تمام شرایط بالا عناصری از مدل آمار پارامتری هستند. به استثنای فرض همگن بودن واریانس­ ها، این شرایط را معمولا در جریان یک تحلیل آماری آزمون نمی­ کنند. بلکه این شرایط «پیش ­فرض­ هایی» هستند که پذیرفته می­شوند، و درستی یا نادرستی آن­ها، معنی­ دار بودن عبارات نتیجه­ گیری ما را در کاربرد آزمون­ های پارامتری معیّن می­کنند.
آزمون­ های پارامتریک چند مزیّت دارند. در صورت مساوی­ بودن سایر شرایط، این آزمون ها نسبت به آزمون­ های ناپارامتریک توان و انعطاف بیشتری دارند. آزمون­ های پارامتریک نه تنها به پژوهش­گر اجازه می­دهند تا تاثیر متغیرهای مستقل متعددی را بر روی متغیر وابسته مطالعه کند، بلکه امکان مطالعه تاثیر متقابل آن­ها را هم فراهم می کنند. نمونه های کوچک و انحراف در داده ­ها موجب می­شود که از آزمون ­های ناپارامتریک استفاده کنیم.
وقتی دلایلی موجود باشد که نشان بدهد اطلاعات جمع آوری شده ما واجد شرایط ذکر شده هستند در آن صورت یقینا باید از آزمون­ های پارامتری از قبیل آزمون t یا آزمون F برای تجزیه و تحلیل داده­ ها استفاده شود. چنین انتخابی از آن جهت مطلوب است که آزمون­ های پارامتری در صورتی که مفروضات آن­ها رعایت شود، توانمندترین آزمون ها برای رد­کردن فرض صفر وقتی که باید آن را رد کنیم می­باشند.

آزمون­ های ­ناپارامتری
اما در صورتی که اطلاعات جمع­ آوری­ شده شرایط و پیش فرض ­های ذکر شده را نداشته باشند، مثلا جامعه آماری ما توزیع نرمال نداشته باشد یا توزیع آن مشخص نباشد و یا زمانی که مقیاس متغیرها فاصله­ ای نباشد و ترتیبی و اسمی باشد چه باید کرد؟ در صورتی که داده­ ها یکی از مفروضات ذکر شده را نداشته باشند باید از آزمون­ های ناپارامتری استفاده کرد. گرچه شواهد تجربی نشان می­دهد که انحراف جزئی از مفروضات آزمون­ های پارامتری تأثیرات چندان شدید و عمیقی بر روی نتایج به دست آمده نمی­ گذارد. با این حال هنوز روی این مسأله که "انحراف جزئی" چقدر است اتفاق نظر عمومی و کلی به ­دست­ نیامده است. در جدول1-4 برخی از مهم­ ترین آزمون­ های پارامتری و ناپارامتری را می ­توان مشاهده کرد.
 

جدول 1-4- مقایسه انواع آزمون­های پارامتریک و ناپارامتریک

نوع آزمون سنجش رابطه مقایسه میانگین یا میانه
پارامتری همبستگی پیرسون –رگرسیون خطی tتک نمونه­ ای –tگروه­های مستقل
tجفتی یا همبسته –تحلیل واریانس- تحلیل اندازه ­های مکرر
ناپارامتری همبستگی کندال و اسپیرمن

ضرایب فی و وی کرامر - مجذور کای استقلال

مجذور کای نیکویی برازش –مان ویتنی –ویلکاکسون
کروسکال والیس - فریدمن
 

 

دانلود فایل PDF متن بالا