آموزش تخصصی آمار و معادلات ساختاری

SPSS- AMOS- LISREL- Smart PLS- Warp PLS- R

آموزش تخصصی آمار و معادلات ساختاری

SPSS- AMOS- LISREL- Smart PLS- Warp PLS- R

آموزش تخصصی آمار و معادلات ساختاری

تحلیل آماری یک ابزار بسیار مفید برای دستیابی به راهکارهای مناسب در زمانی که فرآیندهای واقعی تحلیل به شدت پیچیده یا در شکل واقعی آن ناشناخته است. می‌باشد. تحلیل آماری، فرآیند جمع آوری، بررسی، خلاصه سازی و تفسیر اطلاعات کمّی را برای ارائه ی دلایل زیربنایی، الگوها، روابط، و فرآیندها پوشش می دهد.

*********
اینجانب سیدسعید انصاری فر دارای لیسانس و فوق لیسانس مهندسی صنایع، فوق لیسانس مدیریت دولتی گرایش MIS و دانشجو دکترا مدیریت دولتی گرایش تصمیم‌گیری و خط مشی‌گذاری عمومی می‌باشم. برخی از سوابق علمی پژوهشی به شرح زیر است:

1- دارای بیش از 40 مقاله در موضوعات مختلف (کنفرانس های بین المللی و مجلات علمی پژوهشی و ژورنال ISC)
2- مولف سه کتاب (مبانی سازمان و مدیریت، آموزش مدل سازی معادلات ساختاری و SPSS، نگهداری کارکنان، چالش ها و نظریه ها)
3- مشاوره آماری و انجام تجزیه و تحلیل آماری در بیش از 700 پایان نامه ارشد و 50 پایان نامه دکترا
4- رتبه 7 کنکور دکترا
5- تدریس خصوصی آمار توصیفی و استنباطی و نرم افزارهای SPSS، AMOS، Smart PLS، LISREL
6- کسب رتبه پژوهشگر برتر و برگزیده در جشنواره علمی پژوهشی شهرداری اصفهان

*********
تماس با ما:
ایمیل: ansarifar2020@gmail.com
شماره همراه: 09131025408
شبکه اجتماعی ایتا: 09131025408

*********
گروه علمی آموزشی پژوهشگران برتر:
این گروه با بهره مندی از کادری مجرب آمادگی تجزیه و تحلیل کیفی و داده های کمی آماری در موضوعات مختلف با استفاده از نرم افزارهای مختلفی چون SPSS ، Smart PLS، LISREL،R ، AMOS، Nvivo، Max QDA را دارد.

همکاران:
1-مجید دادخواه
دکتری مدیریت از دانشگاه آزاد اصفهان
2- مرسا آذر:
دکتری مدیریت از دانشگاه آزاد اصفهان
3- زهرا وحیدی:
دکتری مدیریت آموزشی، مدرس تحلیل کیفی
4-محمد مهدی مقامی:
دکتری آمار از دانشگاه اصفهان
5- طناز فریدنی:
کارشناسی ارشد آمار و ریاضی از دانشگاه اصفهان
6- زینب احمدی:
کارشناسی ارشد روان شناسی از دانشگاه اصفهان


***********
از دلایلی که پژوهشگران انجام تحلیل آماری را به ما می سپارند:
- تیم حرفه ای و با تجربه
- متخصص در زمینه انواع نرم افزارهای تحلیل آماری با بیش از 10 سال تجربه
- پشتیبانی و آموزش حضوری به صورت رایگان

۴ مطلب در شهریور ۱۳۹۹ ثبت شده است

 

  • مدیریت منابع انسانی،
  • هوش هیجانی،
  • چابکی سازمان،
  • هماهنگی راهبردی عناصر سازمانی،
  • عملکرد سازمان،
  • استراتژی های منابع انسانی،
  • مدیریت دانش،
  • سبک های مدیریت تعارض،
  • اثربخشی سازمان،
  • فرهنگ سازمان،
  • تعهد سازمان،
  • توانمندسازی منابع انسانی،
  • سبک رهبری،
  • خلاقیت سازمانی،
  • پاسخگویی سازمانی،
  • اعتماد عمومی،
  • شهروندی سازمانی،
  • سودآوری سازمان،
  • عدالت سازمانی،
  • مدیریت مشارکتی،
  • حفظ ونگهداری منابع انسانی،
  • سیستم های اطلاعات مدیریت (MIS)،
  • رضایت شغلی،
  • ساختار سازمانی،
  • جو سازمانی،
  • سلامت سازمانی،
  • فساد اداری،
  • خصوصی سازی،
  • فناوری اطلاعات،
  • سرمایه اجتماعی،
  • سرمایه‌های فکری (سرمایه انسانی، سرمایه ساختاری، سرمایه مشتری)
۰ نظر موافقین ۰ مخالفین ۰ ۲۵ شهریور ۹۹ ، ۱۶:۴۶
سید سعید انصاری فر

شناسایی منابع هسته

نخستین قدم در انتخاب موضوع پایان­ نامه، شناسایی منابع هسته (کتاب، مجله و هر منبعی که بیشترین استنادها را به خود اختصاص می­ دهد) است. این منابع معمولا بیشترین تاثیر را در رشته مورد نظر شما دارند. برای یافتن این منابع نیز باید به مطالعات زیادی بپردازید، معمولا در فصل آخر پایان­ نامه­ ها بخشی به نام “پیشنهادهایی برای پژوهش­ های بیشتر” وجود دارد که می ­توانید آن­ها را مطالعه کنید و منابعی که در پایان ­نامه­ های مرتبط با رشته شما ذکر شده است را بررسی کنید.

 

جستجو در اینترنت

اینترنت کارها را آسان کرده است، تقریبا درباره هر موضوعی می­توانید در اینترنت جستجو کنید و نتایج بی ­نهایتی بدست بیاورید. همچنین برای آگاهی از موضوعات روز رشته شما نیز جستجو در اینترنت یک راهکار مفید است.

 

شرکت در همایش ها و کنفرانس ها

بسیار مهم است که بدانید در ارتباط با رشته شما چه همایش ­ها و گردهمایی­ هایی برقرار است. شناسایی و بررسی فهرست کنفرانس­ ها و همایش­های روز در رابطه با رشته شما و موضوعاتی که در این کنفرانس ­ها مورد بحث قرار می­ گیرند نیز می­توانند به انتخاب موضوع پایان­ نامه شما کمک کنند.

 

 

جستجو در پایگاه ­های مربوط به پژوهش­های جاری

انتخاب موضوع پایان­ نامه را به مطالعه پایان­ نامه­ ها و مطالعات کشور محدود نکنید، برای انتخاب یک موضوع خوب برای پایان­ نامه باید پا را فراتر قرار دهید و به شناسایی و بررسی پایگاه ­ها و فهرست پایان­ نامه­ های انجام شده در مراکز اطلاعات ملی یا وب سایت­ های دانشگاه­ های معتبر در خارج از کشور بپردازید. منابع استفاده شده در این تحقیقات و پایان­ نامه ­ها نیز می­ توانند ذهن شما را در انتخاب موضوع پایان­ نامه باز کنند.

علاوه بر اینکه باید بدانید چطور برای انتخاب موضوع پایان ­نامه تحقیق کنید، معیارهای دیگری نیز در انتخاب موضوع پایان­ نامه وجود دارد که به آن قدرت می بخشد.

 

علاقه ­مند بودن و تسلط به موضوع انتخاب شده

باید به موضوعی که انتخاب می­ کنید تسلط داشته باشید، علاقه­ مند بودن به موضوع نیز یکی از شرایط مهم انتخاب موضوع پایان­ نامه است. توانایی­ های خود از جمله قدرت تجزیه و تحلیل، توانایی تحلیل آماری، توانایی برقراری ارتباط با جامعه ­ی مورد تحقیق را در نظر بگیرید.

 

پژوهش پذیر بودن

پایان ­نامه باید کاربردی باشد و بتواند به یک نیاز مهم پاسخ دهد. همچنین امکان استفاده از نتایج آن در کوتاه­ مدت یا میان مدت وجود داشته باشد. همچنین باید بتوان پژوهش ­های بیشتری درباره موضوع انتخاب شده انجام داد.

 

هدفمند بودن

از انتخاب این موضوع برای پایان ­نامه چه هدفی دارید و به چه نتیجه­ ای می­خواهید برسید؟ بی هدف بودن هنگام انتخاب موضوع پایان­ نامه موجب می­ شود پس از انجام پایان ­نامه از نتیجه­ ی بدست آمده راضی نباشیم.

 

فراهم بودن اطلاعات مورد نیاز پایان ­نامه

شاید به این فکر کنید که چطور ممکن است برای موضوعی اطلاعات وجود نداشته باشد. اما گاهی ممکن است اطلاعات مورد نیاز برای پایان ­نامه جنبه کاملا شخصی و محرمانه داشته باشند که نتوان آن­ها را از طریق جستجو در اینترنت یا مواردی که گفته شد بدست آورد.

حتما بخوانید:   8 راه ساده برای جلوگیری از سرقت ادبی (+مثال)

 

در نظر گرفتن عامل زمان

موضوعی که برای پایان ­نامه انتخاب می­ کنید باید طوری باشد که تحقیق درباره آن تا زمان مشخص شده برای ارائه پایان­ نامه امکان پذیر باشد.

 

نگذشتن از کنار موضوعات ساده

فکر نکنید موضوعات ساده بی اهمیت هستند گاهی در میان همین مسائل که از نظر شما پیش پا افتاده هستند می ­توانید موضوعات مهمی بیابید.

 

استفاده از تجربیات شخصی

از تجربه­ هایی که داشتید استفاده کنید و آن­ها را ارزشمند بدانید. یک اتفاق ساده در زندگی شما ­می­ تواند موضوع یک بررسی علمی باشد. پس به دنیای پیرامونتان دقت بیشتری داشته باشید.

 

وفاداری به تحقیقات پیشین

موضوعی که انتخاب می­ کنید می­تواند ادامه یک تحقیق در گذشته باشد. بنابراین با نگاهی جدید و از زاویه ای دیگر به موضوعات قبلی بنگرید. شاید در دل این موضوعات بتوانید موضوعات جدیدتری بیابید.

 

تصمیم ­گیری نهایی در انتخاب موضوع

شما تمام مراحل و نکاتی که پیش­تر گفته شد را رعایت کردید و حالا نوبت تصمیم گیری نهایی است. در طی مراحل قبل بهتر است هربار موضوعی مناسب برای پایان­ نامه به ذهنتان رسید را یادداشت کنید. بنابراین در نهایت یک فهرست از موضوعات مختلف با توجه به معیارها و موارد گفته شده خواهید داشت.

این فهرست را با دقت بیشتری بررسی کرده و سبک سنگین کنید. معمولا در این مرحله به موضوعاتی برخورد می ­کنید که امتیاز کافی را از نظر شما برای یک موضوع خوب بودن نمی­گیرند. بنابراین آن­ها را حذف کنید. موضوعات حذف شده معمولا آن­هایی هستند که از نظر شما تحقیق و رسیدن به نتیجه مطلوب در رابطه با آن­ها دشوار است.

در نهایت باید برای شما دو یا سه موضوع باقی بماند. این موضوعات را از لحاظ وجود منابع اطلاعاتی بررسی کنید، حتما در این مرحله با استاد راهنمای خود مشورت کنید تا شما را در رابطه با انتخاب بهترین موضوع راهنمایی کند.

 

در نهایت می ­توانید به روش ­های زیر موضوع پایان ­نامه را جهت اطمینان از تکراری نبودن بررسی کنید :

 

۰ نظر موافقین ۰ مخالفین ۰ ۲۱ شهریور ۹۹ ، ۲۳:۳۹
سید سعید انصاری فر

در تحلیل‌های آماری بخصوص مباحث مربوط به آزمون‌های فرض آماری، بر وجود توزیع برای داده‌ها تکیه داریم. در این حالت برای داده‌های کمی، «توزیع نرمال» (Normal Distribution) و برای داده‌های کیفی، توزیع «دوجمله‌ای» (Binomial Distribution) یا «چند جمله‌ای» (Multinomial) در نظر گرفته می‌شود. به این ترتیب هنگام استفاده از روش‌های آماری هرچه قیدهای بیشتری در مورد توزیع داده‌ها داشته باشیم به «روش‌های پارامتری» (Parametric Methods) نزدیک‌تر شده‌ایم. مشخصا این شیوه و روش‌ها در «آمار پارامتری» (Parametric Statistics) مورد بحث و بررسی قرار می‌گیرند. برعکس هر چه قیدهای کمتری در مورد توزیع داده‌ها وجود داشته باشد، روش‌های تحلیلی به سمت «روش‌های ناپارامتری» (Non-Parametric methods) می‌روند و به شاخه «آمار ناپارامتری» (Non-Parametric Statistics) نزدیک می‌شوند. این نوشتار به آمار پارامتری و ناپارامتری اختصاص داشته و ویژگی و خصوصیات هر یک را بازگو می‌کند.

 

در این نوشتار به بررسی تفاوت روش‌های پارامتری و ناپارامتری در آمار می‌پردازیم و نقاط ضعف و قوت هر یک را مرور خواهیم کرد. برای مطالعه بیشتر در زمینه تحلیل‌ها و آزمون‌های فرض آماری مطلب آزمون های فرض و استنباط آماری — مفاهیم و اصطلاحات مناسب به نظر می‌رسد. همچنین آگاهی از نحوه اجرای آزمون‌های پارامتری در مورد میانگین جامعه که در نوشتار آزمون فرض میانگین جامعه در آمار — به زبان ساده آمده است، خالی از لطف نیست.

آمار پارامتری و ناپارامتری

در حوزه «تجزیه و تحلیل آماری داده‌ها» (Statistical Data Analysis)، توزیع جامعه آماری که نمونه از آن گرفته شده، مهم است زیرا هر چه اطلاعات بیشتر در زمینه رفتار داده‌ها و شکل پراکندگی و توزیع آن‌ها وجود داشته باشد، نتایج قابل اعتمادتر و دقیق‌تر خواهند بود. در مقابل، وجود اطلاعات کم از توزیع جامعه آماری مربوط به نمونه، باعث کاهش اعتماد به نتایج حاصل از روش‌های معمول (پارامتری) آماری می‌شود. بنابراین در این حالت مجبور به استفاده از روش‌های ناپارامتری هستیم که برای اجرای آن‌ها فرضیاتی در مورد توزیع داده‌ها وجود ندارد. به همین علت به روش‌های ناپارامتری گاهی «روش‌های توزیع-آزاد» (Distribution-free Methods) نیز می‌گویند.

آمار پارامتری و روش‌های تجزیه و تحلیل مرتبط

داده‌های پارامتری به نمونه‌ای گفته می‌شود که از توزیع جامعه آماری آن مطلع هستیم. معمولا این توزیع آماری برای داده‌های کمی، نرمال یک یا چند متغیره در نظر گرفته می‌شود. در این حالت از آزمون‌های آماری پارامتری مثل آزمون T، آزمون F و یا آزمون Z استفاده می‌کنیم. همچنین برای اندازه‌گیری میزان همبستگی بین متغیرهای دو یا چند بعدی نیز از ضریب همبستگی پیرسون استفاده خواهیم کرد.

 

اگر حجم نمونه در روش‌های تجزیه و تحلیل آمار پارامتری بزرگ انتخاب شود، معمولا توان آزمون مناسب خواهد بود و به راحتی می‌توان نتایج حاصل از آزمون فرض را به جامعه نسبت داد. جدول زیر به معرفی روش‌های پارامتری در انجام آزمون‌های فرض آماری پرداخته است.

مسئله نوع آزمون شرایط اجرای آزمون
مقایسه میانگین با مقدار ثابت از جامعه نرمال با واریانس معلوم آزمون تک نمونه‌ای با آماره Z مشاهدات بیشتر از 30 نمونه و چولگی نیز کم باشد.
مقایسه میانگین با مقدار ثابت از جامعه نرمال با واریانس نامعلوم آزمون تک نمونه‌ای با آماره T مشاهدات بیشتر از 20 نمونه و چولگی نیز کم باشد.
مقایسه میانگین دو جامعه مستقل نرمال با واریانس معلوم آزمون دو نمونه‌ای با آماره Z در هر گروه تعداد مشاهدات بیشتر از ۳۰ باشد و چولگی نیز کم باشد.
مقایسه میانگین دو جامعه مستقل نرمال با واریانس نامعلوم آزمون دو نمونه‌ای با آماره T در هر گروه تعداد مشاهدات بیشتر از 20 باشد و چولگی نیز کم باشد.
مقایسه میانگین زوجی آزمون دو نمونه‌ای زوجی با آماره T مشاهدات زوجی بیش از ۲۰ مشاهده باشند، چولگی نیز کم باشد.
مقایسه میانگین چند جامعه مستقل نرمال با واریانس برابر ولی نامعلوم آنالیز واریانس (ANOVA) تعداد مشاهدات نمونه در هر گروه از جامعه بیش از ۲۰ باشد. واریانس‌ها برابر یا تقریبا برابر باشند، هر جامعه دارای توزیع نرمال باشد.

آمار ناپارامتری و روش‌های تجزیه و تحلیل مرتبط

اگر توزیع جامعه آماری نامشخص باشد و از طرفی حجم نمونه نیز کوچک باشد بطوری که نتوان از قضیه حد مرکزی برای تعیین توزیع حدی یا مجانبی جامعه آماری، استفاده کرد، از تحلیل‌های ناپارامتری استفاده می‌شود، زیرا در این حالت کارآمدتر از روش‌های پارامتری هستند. به این ترتیب در زمانی که توزیع جامعه مشخص نباشد و یا حجم نمونه کم باشد، روش‌ها و آزمون‌های ناپارامتری نسبت به روش‌ها و آزمون‌های پارامتری از توان آزمون بیشتری برخوردارند و نسبت به آن‌ها ارجح هستند.

بهتر است شرایط بهره‌گیری از روش‌های ناپارامتری را به صورت زیر لیست کنیم:

  • برای داده‌ها، نتوان توزیع آماری مناسبی در نظر گرفت.
  • وجود داده‌های پرت (Outlier)، وجود چند نما و … امکان انتخاب توزیع نرمال را برایشان میسر نمی‌کند.
  • کم بودن حجم نمونه برآورد پارامترهای توزیع نرمال مانند میانگین و بخصوص واریانس را دچار مشکل می‌کند و در عمل امکان بررسی توزیع نرمال به علت حجم کم نمونه برای جامعه وجود ندارد.

روش‌های ناپارامتری در چنین موقعیت‌های می‌تواند راهگشا باشد و به محقق و «تحلیل‌گر داده‌» (Data Scientist) برای شناخت داده‌ها یاری برساند.

parametric-vs-nonparametrictest

نکته: باید توجه داشت که اگر توزیع جامعه آماری قابل تحقیق و تعیین باشد، اجرای روش‌های پارامتری بر روش‌های ناپارامتری ارجح هستند زیرا در این حالت روش‌های پارامتری نسبت به روش‌های ناپارامتری از دقت بیشتری برخوردارند. بنابراین فقط زمانی که از توزیع جامعه آماری مطلع نیستم، به اجبار از روش‌های ناپارامتری استفاده خواهیم کرد. البته اگر حجم نمونه بزرگ باشد، در اکثر موارد، نتایج حاصل از آزمون‌های پارامتری و ناپارامتری با یکدیگر همخوانی دارند.

 

از آنجایی که در بیشتر روش‌های ناپارامتری به جای داده‌ها، ترتیب آن‌ها به کار گرفته می‌شود، بهتر است با مفهوم رتبه‌ (Rank) بیشتر آشنا شویم. در ادامه به معرفی رتبه و کاربردهای آن در آمار ناپارامتری می‌پردازیم.

داده‌های رتبه‌بندی شده (Ranked Data)

استفاده از رتبه‌ها به جای مقدارها، یکی از ویژگی‌های روش‌های ناپارامتری است. برای مثال همانطور که دیده‌اید ضریب همبستگی اسپیرمن یک روش ناپارامتری برای اندازه‌گیری همبستگی بین مقدارها است. برای محاسبه ضریب همبستگی اسپیرمن به جای استفاده از مقدارها، رتبه‌هایشان ملاک قرار می‌گیرد و ضریب همبستگی عادی (پیرسون) به جای مقدارها از روی رتبه‌ها محاسبه می‌شود.

برای ایجاد رتبه‌ها کافی است که آن‌ها را به ترتیب چیده و از کمترین تا بیشترین مقدار، برچسب‌های از ۱ تا N را نسبت دهیم. این برچسب‌ها «رتبه‌» (Rank) را نشان می‌دهد.

برای مثال فرض کنید که ۵ مقدار مختلف در یک ستون داریم.

 

1

2

3

4

5

0.020

0.184

0.431

0.550

0.620

اگر آن‌ها را مرتب و رتبه‌بندی کنیم، به صورت زیر قرار خواهند گرفت. همانطور که دیده می‌شود، کوچکترین مقدار، رتبه ۱ و بزرگترین مقدار نیز رتبه 5 گرفته است.

 

1

2

3

4

5

1 = 0.021055

2 = 0.404622

3 = 0.488733

4 = 0.618510

5 = 0.832803

اگر منظور مقایسه بین دو جامعه باشد، می‌توان برای نمونه دوم نیز به همین ترتیب عمل کرد و بین رتبه‌های حاصل، مقایسه انجام داد.

نکته: اگر در بین داده‌های موجود در نمونه، دو مقدار یا بیشتر با یکدیگر برابر باشند، ممکن است برای دو مقدار یکسان شیوه‌های رتبه‌بندی متفاوتی به کار گرفته شود. برای مثال ممکن است حداقل یا حداکثر رتبه انتخاب شود. حتی میانگین رتبه‌ها نیز یکی از روش‌های تخصیص رتبه است.

در زیر کد مربوط به رتبه‌بندی داده‌ها به زبان پایتون نوشته شده است. در اینجا ۱۰۰۰ عدد تصادفی تولید شده و پس از رتبه‌بندی، ۱۰ سطر اول نمایش داده شده‌اند.

 

1

2

3

4

5

6

7

8

9

10

11

12

13

from numpy.random import rand

from numpy.random import seed

from scipy.stats import rankdata

# seed random number generator

seed(1)

# generate dataset

data = rand(1000)

# review first 10 samples

print(data[:10])

# rank data

ranked = rankdata(data)

# review first 10 ranked samples

print(ranked[:10])

نتیجه اجرای این کد به صورت زیر خواهد بود.

 

1

2

3

4

[4.17022005e-01 7.20324493e-01 1.14374817e-04 3.02332573e-01

1.46755891e-01 9.23385948e-02 1.86260211e-01 3.45560727e-01

3.96767474e-01 5.38816734e-01]

[408. 721.   1. 300. 151.  93. 186. 342. 385. 535.]

همانطور که گفته شد، گاهی ممکن است بعضی از مقدارها در لیست داده‌ها با هم برابر باشند. در این میان رتبه‌ها برایشان یکسان خواهد بود. چنین موقعیتی را «گره» (Tie) می‌نامند. برای آنکه با شیوه‌های مختلف رتبه و ایجاد گره‌ها آشنا شوید کد زیر در R تهیه شده است. همانطور که مشخص است اعداد ۱ تا ۵ لیست شده‌اند ولی عدد ۳ دوبار تکرار شده است. انتظار داریم که برای این شش عدد رتبه‌های مختلفی ایجاد شود.

 

1

2

3

4

5

6

7

8

x=c(1,2,3,3,4,5)

method= c("min","max","average","random","first")

for (i in method)

  {

r=rank(x,ties.method =i)

print(paste(" method = ",i))

print(r)

}

خروجی به صورت زیر خواهد بود.

 

1

2

3

4

5

6

7

8

9

10

11

[1] " method =  min"

[1] 1 2 3 3 5 6

[1] " method =  max"

[1] 1 2 4 4 5 6

[1] " method =  average"

[1] 1.0 2.0 3.5 3.5 5.0 6.0

[1] " method =  random"

[1] 1 2 4 3 5 6

[1] " method =  first"

[1] 1 2 3 4 5 6

>

همانطور که دیده می‌شود ۵ روش معمول برای مشخص کردن رتبه برای گره‌ها وجود دارد. در روش Min، کمترین رتبه برای مقدارهای تکراری در نظر گرفته می‌شود. همچنین به کمک روش Max، بزرگترین رتبه را برای داده‌های تکراری قرار خواهیم داد. روش میانگین یا Average یکی از معمول‌ترین روش‌ها است که میانگین رتبه‌ها را برای مقدارهای تکراری در نظر می‌گیرد. روش‌های تصادفی یا Random نیز از رتبه‌های ایجاد شده برای هر داده‌ تکراری، یکی را به تصادف انتخاب و به آن نسبت می‌دهد. همچنین در روش اول یا First، مشاهدات به ترتیب رتبه بندی شده و رتبه تکراری نخواهیم داشت.

نکته: در روش‌های Min, Max و Average، رتبه برای داده‌های تکراری، یکسان خواهد بود ولی در روش Random و First هر مشاهده رتبه منحصر به فردی خواهد داشت.

انواع روش‌های آزمون‌های ناپارامتری

روش‌های آزمون فرض آمار ناپارامتری که وابسته به رتبه‌ها هستند در جدول زیر معرفی شده‌اند.

مسئله نوع آزمون
آزمون تک نمونه‌ای- مقایسه میانگین با مقدار ثابت آزمون علامت (Sign test)

آزمون ویلکاکسون (Wilcoxon)

آزمون دو نمونه‌ای مستقل آزمون من ویتنی (Mann-Whitney)
آزمون مقایسه میانگین چند جامعه مستقل آزمون کروسکال والیس (Kruskal-Wallis)

آزمون میانه (Mood’s median test)

آنالیز واریانس دو طرفه آزمون فریدمن (Friedman test)

از آنجایی در زمان وجود چولگی زیاد در داده‌ها، «میانه» (Median) معیار مرکزی مناسب‌تری نسبت به میانگین است، در بسیاری از تحلیل‌های ناپارامتری میانه محاسبه و مقایسه می‌شود. بنابراین زمانی که میانه برآوردگر بهتری برای نقطه تمرکز جامعه آماری باشد، روش‌های ناپارامتری مفید خواهند بود.

skewed distribution

از طرف دیگر وجود داده‌های پرت نیز باعث انحراف میانگین خواهند شد. در چنین مواقعی باز هم میانگین نمی‌توان نماینده خوبی برای مشاهدات باشد. در چنین مواقعی نیز از میانه استفاده شده و به کارگیری روش‌های ناپارامتری مفید و موثرتر از روش‌های پارامتری است.

در روش‌های ناپارامتری علاوه بر رتبه‌ها از چندک‌ها (چارک، دهک و صدک) نیز به کار گرفته می‌شوند. روش‌های «رگرسیون ناپارامتری» (Non Parametric Regression) بر چنین شاخص‌های تکیه دارند.

non parametric regression

در نوشتارهای آینده به بررسی روش‌های آمار ناپارامتری نظیر «رگرسیون چندکی» (Quantile Regression) و همچنین «آزمون‌های فرض ناپارامتری» (Nonparametric Hypothesis Tests) خواهیم پرداخت. همچنین در آنجا برای انجام محاسبات مربوط به این گونه روش‌ها از نرم‌افزارهای آماری نظیر SPSS، Minitab و R نیز کمک خواهیم گرفت.

منبع: https://blog.faradars.org/parametric-and-non-parametric-statistics/

۰ نظر موافقین ۰ مخالفین ۰ ۲۱ شهریور ۹۹ ، ۱۹:۲۵
سید سعید انصاری فر

bootstrapping tech

 

روش بوت استرپ از گروه روش‌های ناپارامتری و در بخش تکنیک‌های باز نمونه‌گیری قرار می‌گیرد. هدف از اجرای بوت استرپ، پیدا کردن خطای (واریانس) برآوردگر با استفاده از تکرار مراحل نمونه‌گیری و برآوردیابی است. در هر بار تکرار براساس یک عمل باز‌نمونه‌گیری از داده‌ها، برآوردگر مورد نظر محاسبه می‌شود. تکرار این مراحل مثلا به تعداد ۱۰۰ بار، منجر به تولید ۱۰۰ مقدار مختلف برای برآوردگر می‌شود. میانگین این مقادیر، برای بدست آوردن امید ریاضی یا اریبی برآوردگر و واریانس یا انحراف معیار این مقدارها نیز می‌تواند برای پیدا کردن خطای برآوردگر به کار رود. در اینجا قصد داریم این روش را در SPSS مرور و به کار بگیریم. در نتیجه کار را با یک مثال در SPSS دنبال می‌کنیم. البته توجه داشته باشید که برای استفاده از این روش باید نسخه SPSS® Statistics Premium Edition را داشته یا بسته افزونه Bootstrapping را روی SPSS نصب کرده باشید.

استفاده از بوت استرپ در دستور Explore

با توجه به مقدمه‌ای که در مورد روش بوت استرپ گفته شد، در این قسمت به بررسی یک مثال به کمک داده‌های آموزشی SPSS می‌پردازیم. فایل Employee data.sav در پوشه samples مربوط به مشخصات کارمندان یک شرکت است. البته می‌توانید با کلیک روی اینجا این فایل را با قالب فشرده دریافت کنید. مدیریت شرکت احتیاج به بررسی تجربه کاری کارمندان در محل کار قبلی دارد. این متغیر کاملا به راست چوله است که باعث می‌شود، میانگین (Mean) برآوردگر خوبی برای شاخص تمرکز نباشد. بنابراین بهتر است از میانه (Median) برای نمایش نقطه تمرکز این متغیر استفاده شود. ولی متاسفانه برای میانه نمی‌توان به راحتی یک فاصله اطمینان به فرم بسته پیدا کرد. بنابراین از روش بوت استرپ برای پیدا کردن یک فاصله اطمینان برای میانه سابقه کار در این مثال استفاده می‌کنیم.

 

پس از باز کردن فایل اطلاعاتی Employee data.sav برای دسترسی به دستور Explorer مراحل زیر را طی کنید.

Analyze > Descriptive Statistics > Explore…

به این ترتیب پنجره مربوط به دستور Explorer باز می‌شود. تنظیمات این پنجره را مطابق با تصویر زیر انجام دهید.

explore dialog box

مشخص است که متغیر با نام prevexp و با برچسب (Previous Experience (months برای محاسبه میانه و فاصله اطمینان آن در کادر Dependent List قرار گرفته است. همچنین به انتخاب گزینه Statistics در کادر Display‌ دقت کنید. به این ترتیب فقط آماره‌ها محاسبه شده و نمودارها ترسیم نخواهند شد. برای اجرای روش بوت‌استرپ و محاسبه فاصله اطمینان، دکمه Bootstarp را انتخاب کنید. پنجره‌ای به مانند زیر ظاهر می‌شود. تنظیمات در تصویر دیده می‌شود. البته هر یک از این پارامترها را در ادامه توضیح خواهیم داد.

bootstrap_dialogbox

با انتخاب گزینه اول یعنی Perform bootstrapping از SPSS می‌خواهید که خطای برآوردگرها را به کمک این روش محاسبه کند. در کادر Number of samples تعداد نمونه‌ها را مشخص می‌کنید. هر چه تعداد نمونه‌های بیشتری را عمل باز‌نمونه‌گیری معرفی کنید، دقت برآوردگرها بیشتر خواهد شد. البته این کار منجر به افزایش زمان محاسبات نیز خواهد شد. از آنجایی که انتخاب نمونه‌ها به صورت تصادفی صورت می‌گیرد، با تکرار دستور Explorer، نمونه‌ها و میزان خطای محاسبه شده متفاوت خواهند بود. ولی با انتخاب یک seed برای تولید اعداد تصادفی مربوط به انتخاب نمونه‌ها، می‌توانید نتایج یکسانی از تکرار این دستور داشته باشید. البته انجام این کار ضرورتی ندارد ولی با این کار و اجرای دستورات، نتایجی درست به مانند نتایجی که ما در این نوشتار بدست آورده‌ایم، حاصل خواهد شد. به این منظور در کادر Seed مقدار 592004 را وارد کنید تا همیشه همین نتایج را بدست آوریم.

در کادر «فاصله اطمینان» (Confidence Intervals) نیز امکان تعریف خصوصیات فاصله اطمینان را دارید. مقدار سطح اطمینان را در قسمت (%)Level بین ۵۰ تا ۱۰۰ وارد کنید. اگر می‌خواهید یک فاصله اطمینان ۹۵٪ برای میانه ایجاد کنید، مقدار ۹۵ را در این کادر بنویسید. برای ایجاد این فاصله اطمینان دو روش در این پنجره معرفی شده‌اند. روش ابتدایی و ساده‌تر، استفاده از چندک‌ها یا همان صدک‌های میانه‌های حاصل از باز‌نمونه‌گیری‌ها است. روش دوم استفاده از تکنیک BCa یا (Bias Correction and acceleration) است که البته زمان و بار محاسباتی بیشتری دارد ولی در عوض دارای دقت بیشتری نیز هست زیرا اریبی را کاهش می‌دهد. بنابراین در اینجا از این راهکار استفاده کرده‌ایم.

در قسمت انتهایی یعنی Sampling می‌توانید روش نمونه‌گیری را به صورت یکی از حالت‌های نمونه‌گیری ساده تصادفی (Simple) یا نمونه‌گیری طبقه‌ای (Stratified) انتخاب کنید. در نمونه‌گیری طبقه‌ای باید متغیری که باعث ایجاد طبقات می‌شود را در کادر strata variables قرار دهید. با فشردن دکمه Continue به پنجره قبلی بازگشته و با انتخاب دکمه Ok خروجی را در پنجره output‌ مشاهده خواهید کرد.

 

همانطور که در خروجی شاهد هستید، برای متغیر prevexp شاخص‌های آماری به همراه یک فاصله اطمینان ۹۵٪ حاصل از روش بوت استرپ دیده می‌شود. برای میانه نیز این فاصله به صورت (60.00،50.0060.00،50.00) ظاهر شده است. همچنین خطا و اریبی (Bias) برآورد میانه نیز محاسبه و نمایش داده شده است. توجه داشته باشید که این سابقه برحسب ماه در نظر گرفته شده است.

همانطور که می‌دانید براساس انحراف استاندارد داده‌ها، می‌توان انحراف استاندارد میانگین (Std. Error) را محاسبه کرد. به این ترتیب خطای برآورد میانگین برابر با انحراف استاندارد داده‌ها تقسیم بر جذر تعداد نمونه‌ها است. همانطور که دیده می‌شود مقدار انحراف استاندارد میانگین یا همان خطای برآوردگر میانگین (4.804) که در ستون سوم جدول زیر دیده می‌شود با میزان برآورد خطای میانگین با روش بوت استرپ (مقدار ستون پنجم 4.86) تقریبا برابر است. ولی این کار برای میانه به سادگی صورت نمی‌گیرد. به همین منظور از برآورد بوت استرپ برای محاسبه خطا و فاصله اطمینان برای میانه استفاده کردیم.

output_bootstrap_explore

با استفاده از جدول بالا کاملا مشخص است که مقدار میانه «سابقه کار قبلی» برابر با 55.00 ماه با خطای 3.66 ماه و میزان اریبی 0.11- ماه برآورد شده است، زیرا ارقام مربوط به سابقه کار برحسب ماه بیان شده بودند. البته می‌توان مشاهده کرد که برای دیگر ویژگی‌های این متغیر مانند واریانس و چولگی و کشیدگی محاسبات مربوط به فاصله اطمینان و اریبی و خطای برآورد توسط روش بوت استرپ انجام و نمایش داده شده است.

۰ نظر موافقین ۰ مخالفین ۰ ۱۱ شهریور ۹۹ ، ۰۰:۰۱
سید سعید انصاری فر