آموزش تخصصی آمار و معادلات ساختاری

SPSS- AMOS- LISREL- Smart PLS- Warp PLS- R

آموزش تخصصی آمار و معادلات ساختاری

SPSS- AMOS- LISREL- Smart PLS- Warp PLS- R

آموزش تخصصی آمار و معادلات ساختاری

تحلیل آماری یک ابزار بسیار مفید برای دستیابی به راهکارهای مناسب در زمانی که فرآیندهای واقعی تحلیل به شدت پیچیده یا در شکل واقعی آن ناشناخته است. می‌باشد. تحلیل آماری، فرآیند جمع آوری، بررسی، خلاصه سازی و تفسیر اطلاعات کمّی را برای ارائه ی دلایل زیربنایی، الگوها، روابط، و فرآیندها پوشش می دهد.

*********
اینجانب سیدسعید انصاری فر دارای لیسانس و فوق لیسانس مهندسی صنایع، فوق لیسانس مدیریت دولتی گرایش MIS و دانشجو دکترا مدیریت دولتی گرایش تصمیم‌گیری و خط مشی‌گذاری عمومی می‌باشم. برخی از سوابق علمی پژوهشی به شرح زیر است:

1- دارای بیش از 40 مقاله در موضوعات مختلف (کنفرانس های بین المللی و مجلات علمی پژوهشی و ژورنال ISC)
2- مولف سه کتاب (مبانی سازمان و مدیریت، آموزش مدل سازی معادلات ساختاری و SPSS، نگهداری کارکنان، چالش ها و نظریه ها)
3- مشاوره آماری و انجام تجزیه و تحلیل آماری در بیش از 700 پایان نامه ارشد و 50 پایان نامه دکترا
4- رتبه 7 کنکور دکترا
5- تدریس خصوصی آمار توصیفی و استنباطی و نرم افزارهای SPSS، AMOS، Smart PLS، LISREL
6- کسب رتبه پژوهشگر برتر و برگزیده در جشنواره علمی پژوهشی شهرداری اصفهان

*********
تماس با ما:
ایمیل: ansarifar2020@gmail.com
شماره همراه: 09131025408
شبکه اجتماعی ایتا: 09131025408

*********
گروه علمی آموزشی پژوهشگران برتر:
این گروه با بهره مندی از کادری مجرب آمادگی تجزیه و تحلیل کیفی و داده های کمی آماری در موضوعات مختلف با استفاده از نرم افزارهای مختلفی چون SPSS ، Smart PLS، LISREL،R ، AMOS، Nvivo، Max QDA را دارد.

همکاران:
1-مجید دادخواه
دکتری مدیریت از دانشگاه آزاد اصفهان
2- مرسا آذر:
دکتری مدیریت از دانشگاه آزاد اصفهان
3- زهرا وحیدی:
دکتری مدیریت آموزشی، مدرس تحلیل کیفی
4-محمد مهدی مقامی:
دکتری آمار از دانشگاه اصفهان
5- طناز فریدنی:
کارشناسی ارشد آمار و ریاضی از دانشگاه اصفهان
6- زینب احمدی:
کارشناسی ارشد روان شناسی از دانشگاه اصفهان


***********
از دلایلی که پژوهشگران انجام تحلیل آماری را به ما می سپارند:
- تیم حرفه ای و با تجربه
- متخصص در زمینه انواع نرم افزارهای تحلیل آماری با بیش از 10 سال تجربه
- پشتیبانی و آموزش حضوری به صورت رایگان

آزمون‌های آماری روش‌هایی مبتنی بر علم آمار هستند که برای انجام روش پژوهش علمی در مدیریت و علوم اجتماعی کاربرد فراوانی دارند. مقاله‌های علمی-پژوهشی را با روش‌ها و آزمون‌های آماری مورد استفاده می‌شناسند و دیگر گرد هم آوردن مطالب نویسندگان مختلف ارزش علمی و پژوهشی ندارد. علم آمار با پردازش داده‌ها و تبدیل آنها به اطلاعات مورد نیاز، زمینه اخذ تصمیم را فراهم می‌آورد. هنر مدیران و کارشناسان در نحوه استفاده از روشهای آماری و تحلیل اطلاعات به دست آمده تجلی پیدا می‌کند. امروزه بندرت می‌توان بدون استفاده از روشهای آماری اقدام به تفسیر، تبیین و تحلیل نتایج به دست آمده از تحقیق‌ها و پژوهش‌های علمی کرد.

مباحث متعددی در زمینه آزمونهای آماری وجود دارد و از مناظر مختلف می‌توان به بحث در این زمینه پرداخت. بطور  کلی آمار در دو شاخه آمار توصیفی و احتمالات و آمار استنباطی بحث و بررسی می‌شود. احتمالات و تئوری‌های احتمال اساسا از دایره بحث ما خارج است. همچنین آمار توصیفی مانند فراوانی، میانگین، واریانس و … نیز مفروض در نظر گرفته شده اند. همچنین آزمونهای آمار استنباطی به دو دسته آمار پارامتریک و ناپارمتریک تقسیم می‌شود. در این مقاله با تاکید بر فنون و روش‌های آماری استنیاطی، کاربرد آمار در مقاله‌های علمی-پژوهشی ارائه خواهد شد.

آزمون‌های آماری استنباطی و توصیفی

آمار توصیفی (Descriptive statistics) مجموعه روش‌هایی است که برای سازمان دهی، خلاصه کردن، تهیه جدول، رسم نمودار، توصیف و تفسیر داده‌های جمع آوری شده از نمونه آماری به کار گرفته می‌شود. یک مجموعه داده آماری شامل مجموعه‌ای از مقادیر یک یا چند متغیر است. بنابراین، آمار توصیفی شامل آن بخش از آمار است که به ویژگی‌ها و آماره‌های مربوط به نمونه آماری تحقیق می‌پردازد.

در یک پژوهش جهت بررسی و توصیف ویژگی‌های عمومی پاسخ دهندگان از روش‌های موجود در آمار توصیفی مانند جداول توزیع فراوانی، در صد فراوانی، درصد فراوانی تجمعی و میانگین استفاده میگردد. بنابراین هدف آمار توصیفی یا descriptive محاسبه پارامترهای جامعه با استفاده از سرشماری تمامی عناصر جامعه است.

آمار توصیفی

آمار توصیفی (توصیف ویژگی‌های جامعه یا نمونه)

در آمار استنباطی (Inferential statistics) پژوهشگر با استفاده مقادیر نمونه آماره‌ها را محاسبه کرده و سپس با کمک تخمین و یا آزمون فرض آماری، آماره‌ها را به پارامترهای جامعه تعمیم می‌دهد. برای تجزیه و تحلیل داده‌ها و آزمون فرضیه‌های پژوهش از روش‌های آمار استنباطی استفاده می‌شود. پارامتر شاخص بدست آمده از جامعه آماری با استفاده از سرشماری است و شاخص بدست آمده از یک نمونه n تائی از جامعه آماره نامیده می‌شود. برای مثال میانگین جامعه یا µ یک پارامتر مهم جامعه است. چون میانگین جامعه همیشه در دسترس نیست به همین خاطر از میانگین نمونه یا X̄ که آماره برآورد کننده پارامتر µ است در بسیاری موارد استفاده می‌شود.

آمار استنباطی

شکل 1: آمار استنباطی (تخمین ویژگی‌های جامعه براساس نمونه)

 

آزمون‌های آماری پارامتریک و ناپارامتریک

آمار پارامتریک که در خلال جنگ جهانی دوم شکل گرفت در برابر آمار پارامتریک قرار می‌گیرد. آمار پارامتریک مستلزم پیش فرضهائی در مورد جامعه‌ای که از آن نمونه‌گیری صورت گرفته می‌باشد. به عنوان مهمترین پیش فرض در آمار پارامترک فرض می‌شود که توزیع جامعه نرمال است اما آمار ناپارامتریک مستلزم هیچگونه فرضی در مورد توزیع نیست. به همین خاطر بسیاری از تحقیقات علوم انسانی که با مقیاس‌های کیفی سنجیده شده و فاقد توزیع (Free of distribution) هستند از شاخصهای آمارا ناپارامتریک استفاده می‌کنند.

فنون آمار پارامتریک شدیداً تحت تاثیر مقیاس سنجش متغیرها و توزیع آماری جامعه است. اگر متغیرها از نوع اسمی و ترتیبی بوده حتما از روشهای ناپارامتریک استفاده می‌شود. اگر متغیرها از نوع فاصله‌ای و نسبی باشند در صورتیکه فرض شود توزیع آماری جامعه نرمال یا بهنجار است از روشهای پارامتریک استفاده می‌شود در غیراینصورت از روشهای ناپارامتریک استفاده می‌شود. خلاصه آزمونهای آماری پارامتریک و ناپارامتریک در ادامه ارائه شده است:

خلاصه آزمون‌های آماری پارامتریک

آزمون t تک نمونه : برای آزمون فرض پیرامون میانگین یک جامعه استفاده می‌شود. در بیشتر پژوهش هائی که با مقیاس لیکرت انجام می‌شوند جهت بررسی فرضیه‌های پژوهش و تحلیل سوالات تخصصی مربوط به آنها از این آزمون استفاده می‌شود.

آزمون t وابسته : برای آزمون فرض پیرامون دو میانگین از یک جامعه استفاده می‌شود. برای مثال اختلاف میانگین رضایت کارکنان یک سازمان قبل و بعد از تغییر مدیریت یا زمانی که نمرات یک کلاس با پیش آزمون و پس آزمون سنجش می‌شود.

آزمون t دو نمونه مستقل: جهت مقایسه میانگین دو جامعه استفاده می‌شود. در آزمون t برای دو نمونه مستقل فرض می‌شود واریانس دو جامعه برابر است. برای نمونه به منظور بررسی معنی دار بودن تفاوت میانگین نمره نظرات پاسخ دهندگان بر اساس جنسیت در خصوص هر یک از فرضیه‌های پژوهش استفاده می‌شود.

آزمون t ولچ: این آزمون نیز مانند آزمون t دو نمونه جهت مقایسه میانگین دو جامعه استفاده می‌شود. در آزمون t ولچ فرض می‌شود واریانس دو جامعه برابر نیست. برای نمونه به منظور بررسی معنی دار بودن تفاوت میانگین نمره نظرات پاسخ دهندگان بر اساس جنسیت در خصوص هر یک از فرضیه‌های پژوهش استفاده می‌شود.

آزمون t هتلینگ : برای مقایسه چند میانگین از دو جامعه استفاده می‌شود. یعنی دو جامعه براساس میانگین چندین صفت مقایسه شوند.

تحلیل واریانس (ANOVA): از این آزمون به منظور بررسی اختلاف میانگین چند جامعه آماری استفاده می‌شود. برای نمونه جهت بررسی معنی دار بودن تفاوت میانگین نمره نظرات پاسخ دهندگان بر اساس سن یا تحصیلات در خصوص هر یک از فرضیه‌های پژوهش استفاده می‌شود.

تحلیل واریانس چندعاملی (MANOVA): از این آزمون به منظور بررسی اختلاف چند میانگین از چند جامعه آماری استفاده می‌شود.

تحلیل کوواریانس چندعاملی (MANCOVA): چنانچه در MANOVA بخواهیم اثر یک یا چند متغیر کمکی را حذف کنیم استفاده می‌شود.

ضریب همبستگی گشتاوری پیرسون: برای محاسبه همبستگی دو مجموعه داده استفاده می‌شود.

خلاصه آزمون‌های آماری ناپارامتریک

آزمون علامت تک نمونه : برای آزمون فرض پیرامون میانگین یک جامعه استفاده می‌شود.

آزمون علامت زوجی : برای آزمون فرض پیرامون دو میانگین از یک جامعه استفاده می‌شود.

ویلکاکسون : همان آزمون علامت زوجی است که در آن اختلاف نسبی تفاوت از میانگین لحاظ می‌شود.

مان-ویتنی: به آزمون U نیز موسوم است و جهت مقایسه میانگین دو جامعه استفاده می‌شود.

کروسکال-والیس: از این آزمون به منظور بررسی اختلاف میانگین چند جامعه آماری استفاده می‌شود. به آزمون H نیز موسوم است و تعمیم آزمون U مان-ویتنی می‌باشد. آزمون کروسکال-والیس معادل روش پارامتریک آنالیز واریانس تک عاملی است.

فریدمن: این آزمون معادل روش پارامتریک آنالیز واریانس دو عاملی است که در آن k تیمار به صورت تصادفی به n بلوک تخصیص داده شده اند.

آزمون خی-دو χ² : این آزمون کاربردهای متعددی دارد برای مثال معادل ناپارامتریک آزمون تی-‌تک نمونه، آزمون استقلال و نیکویی برازش

کولموگروف-اسمیرنف : نوعی آزمون نیکوئی برازش برای مقایسه یک توزیع نظری با توزیع مشاهده شده است.

آزمون تقارن توزیع : در این آزمون شکل توزیع مورد سوال قرار می‌گیرد. فرض بدیل آن است که توزیع متقارن نیست.

آزمون میانه : جهت مقایسه میانه دو جامعه استفاده می‌شود و برای k جامعه نیز قابل تعمیم است.

مک نمار : برای بررسی مشاهدات زوجی درباره متغیرهای دو ارزشی استفاده می‌شود.

آزمون Q کوکران: تعمیم آزمون مک نمار در k نمونه وابسته است.

ضریب همبستگی اسپیرمن: برای محاسبه همبستگی دو مجموعه داده که به صورت ترتیبی قرار دارند استفاده می‌شود.

 

منبع: حبیبی، آرش؛ سرآبادانی، مونا. (۱۴۰۱). آموزش کاربردی SPSS. تهران: نارون.

۰ نظر موافقین ۰ مخالفین ۰ ۱۱ آبان ۰۲ ، ۰۹:۰۱
سید سعید انصاری فر

ضریب تعیین (R۲  (R-squared correlation میزان ارتباط خطی بین دو متغیر را اندازه گیری می کند. R۲ نسبت تغییرات متغیر وابسته را که می توان به متغیر مستقل نسبت داد اندازه گیری می کند. در تعاریف موجود به R۲، ضریب تعیین یا ضریب تشخیص نیز گفته می شود. به بیان ساده می توان گفت ضریب تعیین نشان می دهد که چند درصد تغییرات متغیر های وابسته در یک مدل رگرسیونی با متغیر مستقل تبیین می شود. به عبارت دیگر، ضریب تشخیص یا (R۲) نشان می دهد که چه میزان یا مقدار از تغییرات متغیر وابسته مساله تحت تاثیر متغیر مستقل مساله بوده است. همچنین تا چه حدی مابقی تغییرات متغیر وابسته مساله مربوط به سایر عوامل موجود در مساله است.

همبستگی قدرت رابطه بین یک متغیر مستقل و وابسته را توضیح می دهد، ضریب تعیین یا ضریب تشخیص بیانگر این است که تا چه اندازه واریانس یک متغیر واریانس متغیر دوم را توضیح می دهد. ضریب تعیین نمی تواند تعیین نماید که آیا مدل برازش شده دارای شیب است یا نه و به همین دلیل باید نمودارهای باقیمانده را مورد ارزیابی قرارداد.

محاسبه R۲

همان طور که بیان شد ضریب تعیین یا ضریب تشخیص نشان دهنده نسبت کل تغییر متغیر وابسته (حول میانگین خود) که بوسیله واریانس متغیرهای مستقل در رگرسیون توضیح داده می شود است. فرمول این شاخص به صورت زیر است:

فرمول ضریب تعیین
فرمول R۲
توضیحات فرمول R۲

R۲ مقداری بین ۰ و ۱۰۰٪ به دست می آید که عدد ۰٪ نشان می دهد که مدل هیچ ارتباطی با متغییر های وابسته و مستقل را در اطراف میانگین آن نشان نمی دهد و عدد ۱۰۰٪ نشان می دهد که مدل همه تغییرپذیری داده های پاسخ در اطراف میانگین آن را تبیین می نماید.

در مورد ارزیابی دو مدل، با ضرایب تعیین تقریبا یکسان، مدلی انتخاب می‌شود که خطای استاندارد مقادیر خطا (باقیمانده) کمتری داشته باشد.

ضریب تعیین تعدیل شده

مقدار تعدیل شده ضریب تعیین، میزان R2 را با توجه به متغیرهای مستقل اضافه شده به خط رگرسیون و با توجه به عرض از مبداهای جدید ، تعدیل و اصلاح می نماید .هرچه تفاوت بین R2 و R2 تعدیل شده کمتر باشدنشان میدهد که متغیرهای مستقل که به مدل اضافه شده اند به درستی انتخاب شده اند. فرمول این ضریب به صورت زیر است:

فرمول ضریب تعیین تعدیل شده
فرمول ضریب تعیین تعدیل شده

همانطور که در فرمول مشاهده می‌شود، وقتی تعداد مشاهدات (N) کم و تعداد پیش بینی‌ها (متغیرهای مستقل P) زیاد باشد، تفاوت بین ضریب تعیین و ضریب تعیین تعدیل شده بسیار زیاد خواهد بود زیرا نسبت  (N-P-1)/(N-1) بزرگتر از ۱ خواهد شد. همچنین هنگامی که تعداد مشاهدات در مقایسه با تعداد پیش بینی‌ها بسیار زیاد باشد، مقدار ضریب تعیین به ضریب تعیین اصلاح شده نزدیک و نزدیکتر می‌شود، زیرا نسبت  (N-P-1)/(N-1) به ۱ نزدیک می شود.

تفاوت ضریب تعیین و ضریب تعیین تعدیل شده

تفاوت مهم میان ضریب تعیین و ضریب تعیین تعدیل شده این است که  R۲ بر این فرض است که هرمتغیر مستقل  مشاهده  شده در مدل، در تغییرات متغیر وابسته نقش دارد. بنابراین درصد نشان داده شده ضریب تشخیص براساس تاثیر همه متغیرهای مستقل بر متغیر وابسته است. در صورتی که درصد نشان داده شده  توسط R۲ تعدیل شده فقط حاصل از تاثیر واقعی متغیرهای مستقل مدل بر وابسته است نه همه متغیرهای مستقل. می توان گقت R۲ تعدیل شده قابل اطمینان تر است.

محاسبه ضریب تعیین در SMARTPLS

در نرم افزار Smart PLS می توان شاخص R۲  را محاسبه کرد. این شاخص به عنوان یکی از شاخص های برازش مدل در تحلیل مدل معادلات ساختاری استفاده می شود. پس از اجرای مدل با دستور PLS ALGORITHM یک پنجره باز می شود. در میان شاخص های QUALITY CRITERIA،  گزینه اول R SQUARE  است.

محاسبه R2 در PLS
محاسبه R2 در PLS

با کلیک بر روی گزینه R SQUARE  یک پنجره دیگر باز می شود. این پنجره سه ستون دارد. MATRIX، R SQUARE و R SQUARE ADJUSTED. ستون ماتریکس بیانگر ماتریس و یا جدول عددی مقادیر ضریب تشخیص متغیرهای وابسته مدل است. R SQUARE نمودار ضریب تعیین است و R SQUARE ADJUSTED مقدار ضریب تعیین تعدیل شده است.

در ادامه نمودارهای این دو شاخص نشان داده شده است:

نمودار R2 در SMARTPL
نمودار R2 در SMARTPLS
نمودار R2 تعدیل شده در SMARTPLS
نمودار R2 تعدیل شده در SMARTPLS

در این نمودارها اگر مقدار ضریب ها مناسب نباشد، نمودار به صورت قرمز نشان داده می شود.

محاسبه ضریب تعیین در EVIEWS

در نرم افزار Eviews می توان شاخص R۲  را محاسبه کرد. پس از اجرای مدل رگرسیونی  در میان خروجی های تعیین صحت مدل، اولین معیارها، شاخص ضریب تعیین و ضریب تعیین تعدیل شده هستند.

R2 در EVIEWS
R2 در EVIEWS

منبع

Chicco, Davide; Warrens, Matthijs J.; Jurman, Giuseppe (2021). “The coefficient of determination R-squared is more informative than SMAPE, MAE, MAPE, MSE and RMSE in regression analysis evaluation

 

۰ نظر موافقین ۰ مخالفین ۰ ۲۷ شهریور ۰۲ ، ۰۰:۰۷
سید سعید انصاری فر

تکنیک تحلیل مضمون (Thematic analysis) روشی برای تجزیه و تحلیل داده های کیفی است و به تحلیل متون می پردازد. تحلیل مضمون، اولین روش تحلیل کیفی است که پژوهشگران باید یاد بگیرند. این روش، مهارت­های اساسی مورد نیاز برای بسیاری از تحلیل­های کیفی را فراهم می­کند. تحلیل مضمون، یکی از مهارت­های عام و مشترک در تحلیل­های کیفی است؛ به همین دلیل، بویاتزیس (۱۹۹۸) آن را نه روشی خاص بلکه ابزاری مناسب برای روش­های مختلف، معرفی می­کند. این روش بیشتر اوقات با روش فراتحلیل اشتباه گرفته می شود. همانطور که از نام آن پیداست، تکنیک تحلیل مضمون به معنای تجزیه و تحلیل الگوهای مضامین در داده ها است. روشی برای تجزیه و تحلیل داده های کیفی است. به این معنی که می توان از این روش برای تجزیه و تحلیل داده های غیر عددی مانند صدا، تصویر، متن و غیره استفاده کرد.

ریان و برنارد (۲۰۰۰) نیز کدگذاری مضامین را فرایند پیش نیازِ تحلیل­های اصلی و رایجِ کیفی، معرفی می‌کنند تا روشی منحصربه فرد و خاص. اما به عقیده براون و کلارک (۲۰۰۶) تحلیل مضمون را باید روش ویژه ­ای در نظر گرفت که یکی از مزایای آن، انعطاف­پذیری است. بنابراین، تحلیل مضمون، روشی برای شناخت، تحلیل و گزارش الگوهای موجود در داده­های کیفی است. تکنیک تحلیل مضمون مانند روش فراترکیب، تکنیک داده بنیاد در فصل چهارم رساله دکتری کاربرد فراوانی دارد.  در تکنیک تحلیل مضمون یک محقق باید کل متن را مرور کند و به دنبال الگوهای معنادار در مضامین در میان داده ها باشد. الگوها را می توان با خواندن داده های مکرر، کدگذاری داده ها و ایجاد تم تجزیه و تحلیل کرد.

فرآیند اجرایی تحلیل مضمون

تکنیک تحلیل مضمون، فرایندی برای تحلیل داده­های متنی است و داده­های پراکنده و متنوع را به داده­هایی غنی و تفصیلی تبدیل می­کند. تکنیک تحلیل مضمون، صرفاً روش کیفی خاصی نیست بلکه فرایندی است که می­تواند در اکثر روش­های کیفی به کار رود. به طور کلی، تحلیل مضمون، روشی است برای:

الف- دیدن متن؛

ب- برداشت و درک مناسب از اطلاعات ظاهراً نامرتبط؛

ج- تحلیل اطلاعات کیفی؛

د- مشاهده نظام­مند شخص، تعامل، گروه، موقعیت، سازمان و یا فرهنگ؛

ه- تبدیل داده­های کیفی به داده­های کمی.

تکنیک تحلیل مضمون روشی برای تجزیه و تحلیل داده در تحقیقات کیفی است که داده های متراکم و پراکنده را به داده هایی غنی و تفصیلی تبدیل می کند.

واژه ی ضمنی به طور کلی مبین تکرار است بنابراین اگر مسئله ای یک بار در متن داده ها آورده شود نمی توان آن را به عنوان مضمون در نظر گرفت مگر اینکه نقش برجسته ای در تجزیه و تحلیل داده ها داشته باشد. تحلیل مضمون شامل ۶ مرحله می باشد:

مرحله اول: آشنایی با داده ها

مرحله دوم: ایجاد کد های اولیه و کد گذاری

مرحله سوم: جستجو ی کد های گزینشی(مضامین پایه)

مرحله چهارم: شکل گیری مضامین سازنده

مرحله پنجم: تعریف و نامگذاری تم های اصلی

مرحله ششم: تهیه گزارش

در مرحله اول تکنیک تحلیل مضمون آشنایی با داده‌ها صورت می‌گیرد؛ در این مرحله با عمق محتوایی داده‌ها آشنا می‌شویم. مرحله دوم به ایجاد کدهای اولیه می‌پردازد؛ کدها ویژگی داده­هایی را معرفی می‌نمایند که به نظر محقق جالب می‌باشد.

در مرحله سوم  تکنیک تحلیل مضمون که جستجوی کدهای گزینشی نام دارد؛ هدف دسته‌بندی کدهای مختلف در قالب کدهای گزینشی و مرتب ­کردن همه خلاصه داده ­های کدگذاری می‌باشد.

در مرحله چهارم تکنیک تحلیل مضمون تم‌های فرعی شکل‌ می‌گیرد؛ این مرحله شامل دو مرحله بازبینی و تصفیه و شکل‌دهی به تم‌های فرعی است. مرحله اول شامل بازبینی در سطح خلاصه ­های کدگذاری شده است. در مرحله دوم اعتبار تم‌های فرعی در رابطه با مجموعه داده‌ها در نظر گرفته می‌شود.

مرحله پنجم تکنیک تحلیل مضمون به تعریف و نام‌گذاری تم‌های اصلی می‌پردازد؛ در این مرحله، تم‌های اصلی که برای تحلیل ارائه‌شده، تعریف و مورد بازبینی مجدد قرار می‌گیرد، سپس داده های داخل آن­ها تحلیل می‌شود. به‌وسیله تعریف و بازبینی­کردن، ماهیت آن چیزی که یک تم در مورد آن بحث می‌کند مشخص‌شده و تعیین می‌گردد که هر تم اصلی کدام جنبه از داده‌ها را در خود دارد. در این مرحله از میان تم‌های فرعی یک تم اصلی به دست آمد.

در مرحله آخر تکنیک تحلیل مضمون گزارش تهیه می‌شود؛ مرحله ششم زمانی شروع می‌شود که محقق مجموعه‌ای از تم‌های اصلی کاملاً انتزاعی و منطبق با ساختارهای زمینه‌ای تحقیق در اختیار داشته باشد. این مرحله شامل تحلیل پایانی و نگارش گزارش است.

تکنیک تحلیل مضمون
تکنیک تحلیل مضمون

گام های تحلیل مضمون

مرحله ۱. آشنایی با داده‌ها: در تکنیک تحلیل مضمون برای اینکه محقق با عمق و گستره محتوایی داده‌ها آشنا شود لازم است که خود را در آن­ها تا اندازه­ای غوطه­ور سازد. غوطه­ورشدن در داده‌ها معمولاً شامل “بازخوانی مکرر داده‌ها” و خواندن داده­ها به صورت فعال (یعنی جستجوی معانی و الگوها) است.

مرحله ۲. ایجاد کدهای اولیه: مرحله دوم تکنیک تحلیل مضمون زمانی شروع می‌شود که محقق داده‌ها را خوانده و با آن­ها آشنایی پیدا کرده است. این مرحله شامل ایجاد کدهای اولیه از داده‌ها است. کدها یک ویژگی داده‌ها را معرفی می‌نمایند که به نظر تحلیل‌گر جالب می‌رسد .داده‌های کدگذاری شده از واحدهای تحلیل (تم‌ها) متفاوت هستند. کدگذاری را می‌توان به صورت دستی یا از طریق برنامه‌های نرم‌افزاری انجام داد.

مرحله ۳. جستجوی کدهای گزینشی (مضامین پایه): این مرحله تکنیک تحلیل مضمون شامل دسته‌بندی کدهای مختلف در قالب کدهای گزینشی و مرتب کردن همه خلاصه داده‌های کدگذاری شده است. در واقع محقق، تحلیل کدهای خود را شروع کرده و در نظر می‌گیرد که چگونه کدهای مختلف می‌توانند برای ایجاد یک تم کلی ترکیب شوند. در این مرحله محققان کدهای ناقص یا نامرتبط و همچنین کدهای تکراری را کنار گذاشته تا به این تعداد کد گزینشی دست یابند.

مرحله ۴. شکل‌گیری مضامین سازنده: مرحله چهارم تکنیک تحلیل مضمون زمانی شروع می شود که محقق مجموعه‌ای از تم‌ها را ایجاد کرده و آن­ها را مورد بازبینی قرار می‌دهد. این مرحله شامل دو مرحله بازبینی و تصفیه و شکل‌دهی به تم‌های فرعی است. مرحله اول شامل بازبینی در سطح خلاصه‌های کدگذاری شده است. در مرحله دوم اعتبار تم‌های فرعی در رابطه با مجموعه داده‌ها در نظر گرفته می‌شود. در این مرحله محققان به  مضامین سازنده دست پیدا کردند.

مرحله ۵. تعریف و نامگذاری تم‌های اصلی: مرحله پنجم تکنیک تحلیل مضمون زمانی شروع می‌شود که یک تصویر رضایت‌بخش از تم‌ها وجود داشته باشد. محقق در این مرحله، تم‌های اصلی را که برای تحلیل ارائه کرده، تعریف نموده و مورد بازبینی مجدد قرار می‌دهد، سپس داده‌های داخل آن­ها را تحلیل می‌کند. به وسیله تعریف و بازبینی­کردن، ماهیت آن چیزی که یک تم در مورد آن بحث می‌کند مشخص شده و تعیین می‌گردد که هر تم اصلی کدام جنبه از داده‌ها را در خود دارد. در این مرحله محقق در نهایت پس از رفت و برگشت در میان تم‌های فرعی به ۱ تم اصلی دست یافت، که در زمینه مورد نظر تحقیق قابل تبیین می‌باشد.

مرحله ۶. تهیه گزارش: مرحله ششم تکنیک تحلیل مضمون زمانی شروع می‌شود که محقق مجموعه‌ای از تم‌های اصلی کاملاً انتزاعی و منطبق با ساختارهای زمینه‌ای تحقیق در اختیار داشته باشد. این مرحله شامل تحلیل پایانی و نگارش گزارش است. که در پایان ارائه خواهد شد.

منبع

/www.sciencedirect.com

https://modireamari.org

 

۰ نظر موافقین ۰ مخالفین ۰ ۰۷ شهریور ۰۲ ، ۰۷:۱۱
سید سعید انصاری فر

پایایی ترکیبی با استفاده از فرمولی که توسط یورسکاگ ارائه شده نیز قابل محاسبه است. ضریب Rho نیز برای سنجش پایایی درونی سازه‌ها است. همچنان که چین (۱۹۹۸) معتقد است ضریب Rho نسبت به آلفای کرونباخ از اطمینان بیشتری برخوردار است. به ضریب Rho گاهی ضریب دایلون-گولداشتین Dillon-Goldstein نیز گفته می‌شود. مقدار این ضریب باید بیش از ۰/۷ باشد. در نسخه شماره سه از نرم افزار Smart PLS این مقدار گزارش می‌شود.

منبع: کتاب مدلسازی معادلات ساختاری، نوشته آرش حبیبی، 1397

۰ نظر موافقین ۰ مخالفین ۰ ۳۰ تیر ۰۱ ، ۲۲:۲۶
سید سعید انصاری فر

نمونه‌گیری نظری (Theoretical sampling) روشی برای گرآوری داده‌ها جهت نظریه‌پردازی است که کدگذاری و طراحی روش پرسشگری برای ادامه مسیر، همزمان انجام می‌شود. یعنی در هر گام ضمن تحلیل و کدگذاری داده‌ها، پژوهشگر سرنخ‌هایی را برای ادامه روند پرسشگری و گردآوری داده‌ها مشخص می‌سازد.

این شیوه از نمونه‌گیری یک روش نمونه گیری در پژوهش های کیفی و به‌طور مشخص روش گراندد تئوری است. داده‌هایی که توسط نظریه‌پرداز داده‌بنیاد برای تشریح فرایندها گردآوری می‌شود، شکل‌های مختلفی از داده‌های کیفی را شامل می‌شود. مشاهده، گفت‌وشنودها، خاطرات، مصاحبه، اسناد عمومی، مقاله‌ها و افکار شخصی پژوهشگر از این دسته هستند.

در نمونه‌گیری هدفمند برای مصاحبه با مشاهده، نظریه داده‌بنیاد از نگرشی منحصربه‌فرد پشتیبانی می‌کند که آن را از دیگر رهیافت‌های کمی و کیفی گردآوری داده‌ها متمایز می‌کند. از سویی برخلاف نمونه‌گیری صورت گرفته در روش‌های کمی، نمونه‌گیری نظری نمی‌تواند پیش از شروع مطالعه و نظریه داده‌بنیاد، برنامه‌ریزی شود. بلکه تصمیم‌های ویژه نمونه‌گیری در خلال خود فرایند پژوهش شکل می‌گیرند.

از سوی دیگر نظریه‌پردازان داده‌بنیاد از روای استفاده می‌کنند که مستلزم گردآوری و تحلیل همزمان و متوالی داده‌ها است. نمونه‌گیری نظری در نظریه داده‌بنیاد به این معنی است که اشکالی از گردآوری داده‌ها را انتخاب می‌کند که متون و تصورات مفیدی را در راستای تولید یک نظریه به دست خواهد داد. این به معنی آن است که نمونه‌گیری، ارادی (غیرتصادفی) است و متمرکز بر تولید یک نظریه است.

تعریف نمونه‌گیری نظری و کفایت نظری

گلیزر و اشتراوس نمونه‌گیری نظری را اینگونه تعریف کرده‌اند:

نمونه‌گیری نظری فرایند گردآوری داده برای تولید نظری است که به آن وسیله پژوهشگر، به‌طور همزمان داده‌هایش را گردآوری، کدگذاری و تحلیل می‌کند. همچنین تصمیم می‌گیرد برای بهبود نظریه خود تا هنگام ظهور آن، در فرایند چه داده‌هایی گردآوری و در کجا آنها را پیدا کند.
گلیزر و اشتراوس، ۱۹۶۸

نظریه داده‌بنیاد به دلیل ماهیت مقایسه‌ای و تطبیقی بودن تحلیل، همیشه ملازم با نمونه‌گیری نظری است. معیار قضاوت پیرامون زمان متوقف کردن این شیوه از نمونه‌برداری، «کفایت نظری» مقوله‌ها با نظریه است.  گلیزر و اشترواس کفایت نظری را وضعیتی اشاره می‌کنند که در آن هیچ داده بیشتری یافت نمی‌شود که پژوهشگر بوسیله آن بتواند ویژگی‌های مقوله را رشد دهد.

مدل‌های گراندد تئوری

نمونه‌گیری نظری در گراندد تئوری

به موازاتی که پژوهشگر داده‌های مشابه را بارها و بارها مشاهده می‌کند، از نظر تجربی اطمینان حاصل می‌کند که یک مقوله به کفایت رسیده است. زمانیکه مقوله‌ای کفایت لازم را کسب کرد، هیچ چیزی باقی نمی‌ماند جز اینکه پژوهشگر به سراغ گروه‌های جدیدی از داده در مورد مقوله‌های دیگر برود. آنگاه باید تلاش کند آن مقوله‌ها نیز کفایت لازم را بدست آورند.

شیوه نمونه‌گیری نظری

این مساله بسیار مهم است که بدانیم چرا برای رسیدن به کفایت نظری از نمونه‌برداری نظری استفاده می‌شود. هم‌زمانی تحلیل داده و بررسی کفایت نظری، کیفیت داده‌هایی که باید گردآوری شود را افزایش می‌دهد. این داده‌ها بیشتر از تعاملات انسانی نظیر یادداشت‌های میدانی یا مصاحبه‌ها است. همچنین جهت اینکه برای تحلیل چه داده‌ای مورد نیاز است را مشخص می‌سازد.

نظریه‌پردازان داده‌بنیاد، حتی از نمونه‌برداری داده‌ها براساس ارزش نظری آنها فراتر رفته‌اند. آنها از ایده طراحی ظاهرشوند حمایت می‌کنند. یک طرح ظاهرشونده در نظریه‌پردازی داده‌بنیاد فرایندی است که در آن پژوهشگر داده‌ها را گردآوری کرده و بلافاصه تحلیل می‌کند. نه اینکه شکیبایی کند همه داده‌ها گردآوری شود و سپس تصمیم خود در مورد اینکه چه داده‌ای را بعدا گردآوری کند؛ بر این تحلیل بنیان می‌گذارد.

نمونه‌گیری زیگزاگی

نمونه‌گیری زیگزاگی (کرسول، ۲۰۰۵ : ۴۰۶)

همانطور که در شکل مشخص است، مسیر زیگزاک به ما می‌کند تا این روند را درک کنیم. در مسیر گردآوری داده‌ها ابتدا مصاحبه نخست ثبت و تحلیل می‌شود و سپس باید سرنخ‌هایی برای گردآوری داده‌های جدید فراهم شود. این سرنخ‌ها ممکن است موارد زیر باشد:

  • مقوله‌های خوب رشد نکرده
  • اطلاعات مفقوده در زنجیره فرایند مطالعه
  • افراد جدیدی که می‌توانند نگرش‌هایی جدید ارائه دهند.

نظریه‌پرداز داده‌بنیاد سپس دوباره به میدان مطالعه باز می‌گردد تا این اطلاعات بیشتر را گردآوری کند. در این روال پژوهشگر معانی مفوله‌ها را برای نظریه بهبود داده، تدوین کرده و روشن‌تر می‌کند. این فرایند گردآوری داده‌ها و تحلیل داده‌ها به‌طور زیگزاک به پیش می‌رود تا اینکه پژوهشگر به اشباع یا کفایت در مفوله مورد نظر دست یابد.

نتیجه‌گیری

نمونه گیری نظری روشی است که نمونه‌ها بر اساس نتایج داده‌های جمع‌آوری‌شده با هدف درک عمیق‌تر از منطقه یا توسعه نظریه‌ها انتخاب شوند.  این تکنیک نمونه گیری در تجزیه و تحلیل کیفی استفاده می شود. موارد شدید یا بسیار خاص ممکن است به منظور به حداکثر رساندن احتمال قابل مشاهده بودن یک پدیده انتخاب شوند. نمونه‌گیری نظری فرآیندی از جمع‌آوری داده‌ها برای تولید نظریه است که در آن تحلیل‌گر به طور مشترک کدها را جمع‌آوری می‌کند و داده‌ها را تجزیه و تحلیل می‌کند و تصمیم می‌گیرد چه داده‌هایی را در گام بعدی گردآوری کند و کجا پیدا کند، تا نظریه‌ای را در زمان ظهور ایجاد کند.

نمونه‌گیری نظری تا نقطه کفایت نظری کل مقوله‌ها و در نهایت دستیابی به نظریه ادامه خواهد داشت. بنابراین در نظریه‌سازی داده‌بنیاد، نمونه‌گیری توسط ظهور مفهومی و نه طرح پژوهش به پیش می‌رود. همچنین توسط کفایت نظری و نه طرح پژوهشی محدود می‌شود. از آنجا که همه مقوله‌ها به اندازه یکسانی به پدیده مورد مطالعه مربوط نیستند، ژرفنای بررسی هریک از مقوله‌ها نیز نباید یکسان باشد. به عنوان قاعده کلی، «مقوله محوری» باید تا حد امکان کفایت لازم را بدست آورد.

فهرست منابع

آرش حبیبی، تحلیل آماری پارس مدیر           www.parsmodir.com

Glaser, B. G., Strauss, A. L., & Strutzel, E. (1968). The discovery of grounded theory; strategies for qualitative research. Nursing research, 17(4), 364.

Creswell, J. W. (2017). Research design: Qualitative, quantitative, and mixed methods approaches. Sage publications.

۰ نظر موافقین ۰ مخالفین ۰ ۲۹ تیر ۰۱ ، ۰۰:۵۶
سید سعید انصاری فر

روایی همگرا و پایایی ترکیبی

روایی همگرا Convergent Validity یک سنجه کمی است که میزان همبستگی درونی و همسویی گویه‌های سنجش یک مقوله را نشان می‌دهد. مفهوم روایی پرسشنامه (اعتبار) به این سوال پاسخ می‌دهد که ابزار اندازه گیری تا چه حد خصیصه مورد نظر را می‌سنجد. پایایی (قابلیت اعتماد) با این امر سروکار دارد که ابزار اندازه‌گیری در شرایط یکسان تا چه اندازه نتایج یکسانی را به دست می‌دهد. به عبارت دیگر همبستگی میان یک مجموعه از نمرات و مجموعه دیگری از نمرات در یک ازمون معادل که به صورت مستقل بر یک گروه آزمودنی به دست آمده است. روش های متعددی برای محاسبه روایی وجود دارد که روایی همگرا یکی از آنها است.

هرگاه یک سازه (متغیر پنهان) براساس چند گویه (متغیر مشاهده پذیر) اندازه‌گیری شود همبستگی بین گویه های آن بوسیله روایی همگرا قابل بررسی است. اگر همبستگی بین بارهای عاملی گوبه ها بالا باشد، پرسشنامه از نظر همگرایی معتبر می‌باشد. این همبستگی برای اطمینان از این که آزمون آنچه را که باید سنجیده شود می‌سنجد، ضروری است. برای روایی همگرا باید میانگین واریانس استخراج شده (AVE) محاسبه شود.

میانگین واریانس استخراج شده : AVE

میانگین واریانس استخراج شده یا AVE مخفف Average Variance Extracted می‌باشد. این شاخص توسط فورنل و لارکر به سال ۱۹۸۱ معرفی شده است. اعتبار همگرا براساس مدل بیرونی و با محاسبه میانگین واریانس استخراج (AVE) بررسی می‌شود. معیار AVE نشان دهنده میانگین واریانس به اشتراک گذاشته شده بین هر سازه با شاخص‌های خود است. به بیان ساده‌تر AVE میزان همبستگی یک سازه با شاخص‌های خود را نشان می‌دهد که هرچه این همبستگی بیشتر باشد، برازش نیز بیشتر است. فورنل و لارکرمعتقدند روایی همگرا زمانی وجود دارد که AVE از ۰/۵ بزرگتر باشد.

بطورکلی در یک پرسشنامه عوامل متعددی وجود دارد و هر عامل نیز براساس تعدادی گویه موردسنجش قرار می‌گیرد. در روایی محتوایی از نظر داوران برای سنجش میزان درستی و مناسب بودن گویه‌ها استفاده می‌شود اما معیار AVE یک شاخص کمی برای سنجش روایی است. این معیار از بارهای عاملی مربوط به هر گویه برای سنجش آن استفاده می‌شود. در واقع این معیار نشان می‌دهد چقدر گویه‌های سنجش هر مقوله با هم از همبستگی کافی و بالایی برخوردار هستند.

محاسبه روایی همگرا در لیزرل و اموس

شکل زیر یک نمونه تحلیل عاملی تاییدی در نرم افزار لیزرل است. در این شکل دو عامل اصلی (متغیر پنهان) و ۶ گویه وجود دارد یعنی برای هر عامل سه گویه در نظر گرفته شده است. بارهای عاملی با λ نشان داده شده است. با توجه به فرمول مندرج در بالای صفحه کافی است تا مقادیر بارعاملی هر گویه را به توان دو برسانید و بعد میانگین آنها را حساب کنید. برای مثال برای سازه D1 روایی همگرا به صورت زیر قابل محاسبه است:

AVED1= [0.972+0.962+0.922]/3 = 0.903

محاسبه روایی همگرا

محاسبه روایی همگرا

محاسبه مقدار خطا

یکی از پارامترهای جالب دیگری که میتوانید با دست حساب کنید مقدار خطا است. مقدار خطا که با حرف e در شکل فوق نشان داده است به سادگی با رابطه زیر قابل محاسبه است:

e = 1- λ۲

بنابراین مشاهده می شود که مقدار ۰/۰۶ برای گویه شماره یک با دست نیز قابل محاسبه است.

محاسبه روایی همگرا در Smart PLS

اصول محاسبه اعتبار همگرا در نرم افزار PLS و تکنیک حداقل مجذورات جزیی نیز ثابت است ولی این نرم افزار برخلاف لیزرل مقدار AVE را بدست می دهد و نیازی نیست با دست آن را محاسبه کنید. برای محاسبه روایی همگرا در نرم افزار PLS  کافی است به خروجی این نرم افزار رجوع کنید.

پایایی ترکیبی CR

پایایی ترکیبی یا CR مخفف Composite Reliability می‌باشد. روایی همگرا زمانی وجود دارد که CR از ۰.۷ بزرگتر باشد. همچنین CR باید از AVE بزرگتر باشد. در اینصورت هم شرط روایی همگرا وجود خواهد داشت. بطور خلاصه داریم:

CR > 0.7
CR > AVE
AVE > 0.5

با استفاده از بارهای عاملی به سادگی می‌توان روایی همگرا را در نرم افزار لیزرل محاسبه کرد.

 

منبع : روایی همگرا نوشته آرش حبیبی کتاب مدل یابی معادلات ساختاری

 

۰ نظر موافقین ۰ مخالفین ۰ ۲۹ دی ۰۰ ، ۲۲:۳۹
سید سعید انصاری فر

 

متغیر تعدیل کننده و میانجی

آموزش آزمون سوبل و متغیر میانجی

آزمون سوبل Sobel test روشی برای سنجش معتاداری اثر متغیر میانجی در آمار است. این آزمون توسط مایکل سوبل مطرح شده است که از اساتید دانشگاه کلمبیا در آمریکا است. همانطور که توضیح داده شد، متغیر میانجی M به عنوان رابط بین متغیر مستقل و متغیر وابسته قرار می‌گیرد و به صورت جداگانه میزان رابطه متغیرهای مستقل و وابسته را تحت تاثیر قرار می‌دهد. در مثال فوق متغیر «اعتماد» در رابطه «رضایت» و «وفاداری» نقش میانجی دارد. بنابراین آنچه در زمینه محاسبه اثر غیرمستقیم توضیح داده شد همان نقش میانجی است. در پژوهش‌های دارای فرضیه‌های میانجی متغیر مستقل X از طریق متغیر M روی متغیر وابسته Y تأثیر می‌گذارد.

یک مدل میانجی ساده در تصویر زیر نمایش داده شده است. نقش میانجی متغیر M از طریق ضریب اثر غیرمستقیم ab اندازه‌گیری می‌شود. هر چند می‌توان از راه بررسی معناداری ضرایب a و b به آزمون فرضیه میانجی پرداخت، امّا این روش توان آماری پایینی دارد. روش مناسب‌تر این است که به صورت مستقیم معناداری ضریب ab آزمون شود. یکی از پرکاربردترین روشها برای این منظور آزمون سوبل (Sobel) است.

 

متغیر میانجی

متغیر میانجی

محاسبه آزمون سوبل

آزمون سوبل رویکرد حاصل‌ضرب ضرایب، روش دلتا یا رویکرد نظریه نرمال هم نامیده شده است. آزمون سوبل برای انجام استنباط در مورد ضریب اثر غیرمستقیم ab، بر همان نظریه استنباط مورد استفاده برای اثر مستقیم مبتنی است. اثر غیرمستقیم ab یک برآورد خاص نمونه از اثر غیرمستقیم در جامعه (TaTb) است که در معرض واریانس نمونه‌گیری قرار دارد. با داشتن برآوردی از خطای استاندارد ab و با فرض نرمال بودن داده ها و توزیع نمونه‌گیری ab می‌توان یک p-value برای ab به دست آورد.

بطور کلی در آزمون سوبل می‌توان از تخمین نرمال برای بررسی معنی‌داری رابطه استفاده کرد. با داشتن برآورد خطای استاندارد اثر غیرمستقیم می‌توان فرضیه صفر را در مقابل فرض مخالف آزمون کرد. آماره Z برابر است با نسبت ab به خطای استاندارد آن. به عبارت دیگر مقدار Z-Value را از رابطه زیر بدست می‌آوریم:

 

فرمول آزمون سوبل

 

فرمول آزمون سوبل

 

در این رابطه:

  • a: ضریب مسیر میان متغیر مستقل و میانجی
  • b: ضریب مسیر میان متغیر میانجی و وابسته
  • Sa: خطای استاندارد مسیر متغیر مستقل و میانجی
  • Sb: خطای استاندارد مسیر متغیر میانجی و وابسته

برای محاسبه خطای استاندارد در رگرسیون از جدول Model Summary قسمت Std. Error of the estimate استفاده کنید.

جدول ضریب تعیین در SPSS

خطای استاندارد تخمین

براساس نتایح این جدول متغیرهای پیش بین توانسته‌اند ۲۸% از تغییرات در متغیر وابسته را تبیین کنند.

تفسیر نتایج

این برآوردگر حاصل‌ضرب مجذور خطاهای استاندارد را از دو عبارت اول معادله کم می‌کند. به دلیل این که در برآورد گودمن امکان منفی شدن خطای معیار وجود دارد استفاده از آن توصیه نمی شود. مقادیر a و b و خطاهای استاندارد آنها می‌توانند از خروجی تحلیل رگرسیون یا مدل معادلات ساختاری استخراج شوند. در نرم افزار SPSS برای به دست آوردن این مقادیر باید دو تحلیل رگرسیون اجرا شود:

 

اجرای یک تحلیل رگرسیون که در آن متغیر مستقل X متغیر پیش بین و متغیر میانجی M متغیر ملاک است. این تحلیل مقادیر a و sa رابه شما می‌دهد.

اجرای یک تحلیل رگرسیون که در آن متغیر مستقل X و متغیر میانجی M متغیر پیش بین و متغیر وابسته Y متغیر ملاک است. این تحلیل مقادیر b و sb رابه شما می‌دهد.

این محاسبات به سادگی می‌تواند با دست انجام شود. با در نظر گرفتن سطح خطای ∝=۰.۰۵ اگر مقدار Z از ۱/۹۶ بیشتر باشد، اثر غیرمستقیم مشاهده‌شده از نظر آماری معنادار است.

 

منبع: آزمون سوبل و متغیر میانجی نویسنده آرش حبیبی کتاب آموزش SPSS

۰ نظر موافقین ۰ مخالفین ۰ ۲۸ شهریور ۰۰ ، ۲۱:۳۴
سید سعید انصاری فر

 

چولگی و کشیدگی داده‌ها

چولگی و کشیدگی داده‌ها دو آزمون آماری برای ارزیابی میزان پراکندگی فراوانی داده‌ها بوده و برای بررسی نرمال بودن توزیع استفاده می‌شوند.

در علم آمار چولگی یا Skewness معیاری از تقارن یا عدم تقارن تابع توزیع می‌باشد. برای یک توزیع کاملاً متقارن چولگی صفر و برای یک توزیع نامتقارن با کشیدگی به سمت مقادیر بالاتر چولگی مثبت و برای توزیع نامتقارن با کشیدگی به سمت مقادیر کوچکتر مقدار چولگی منفی است.

کشیدگی یا kurtosis نشان دهنده ارتفاع یک توزیع است. به عبارت دیگر کشیدگی معیاری از بلندی منحنی در نقطه ماکزیمم است و مقدار کشیدگی برای توزیع نرمال برابر ۳ می باشد. کشیدگی مثبت یعنی قله توزیع مورد نظر از توزیع نرمال بالاتر و کشیدگی منفی نشانه پایین تر بودن قله از توزیع نرمال است. برای مثال در توزیع t که پراکندگی داده ها بیشتر از توزیع نرمال است، ارتفاع منحنی کوتاه تر از منحنی نرمال است. از چولگی و کشیدگی برای آزمون نرمال بودن داده ها استفاده می شود.

کشیدگی داده‌ها

کشیدگی توزیع داده ها به عبارت ساده به همان ارتفاع توزیع داده ها اشاره می کند. براساس یک تعریف علمی کشیدگی برابر با گشتاور چهارم نرمال شده‌است. کشیدگی معیاری از تیزی منحنی در نقطه ماکزیمم است. در آمار کشیدگی توصیف کنندهٔ میزان قله‌ای بودن و مسطح بودن یک توزیع احتمالی است. هرچقدر شکل تابع چگالی احتمال (probability density function) قله ای تر و دارای دم پهن تر یا دنباله پهن تر(fat-tailed/ heavy-tailed) باشد میزان شاخص کشیدگی برای آن بیشتر است.

کشیدگی توزیع داده ها

کشیدگی توزیع داده ها

چولگی داده ها

چولگی (Skewness) در آمار نشان دهنده میزان عدم تقارن توزیع احتمالی است. اگر داده‌ها نسبت به میانگین متقارن باشند، چولگی برابر صفر خواهد بود.

چوله به راست: بزرگتر از صفر

چوله چپ: کوچکتر از صفر

در حالت کلی چنانچه چولگی و کشیدگی در بازه (۲ ، ۲-) نباشند داده‌ها از توزیع نرمال برخوردار نیستند.

آزمون چولگی و کشیدگی داده‌ها در SPSS

فرمان زیر را در SPSS اجرا کنید:

Analyze/Descriptive Statistics/Descriptive

در کادر باز شده متغیرهایی که می‌خواهید چولگی و کشیدگی آن را آزمون کنید را به کادر سفید انتقال دهید. سپس روی کلید options کلیک کنید و در کادر جدید گزینه‌های Skewness و kurtosis را فعال کنید. برای مثال به مقادیر جدول زیر دقت کنید:

  Skewness Kurtosis
  Statistic Std. Error Statistic Std. Error
D1 ۰.۱۴۶ ۰.۲۸۷ ۰.۷۸۴ ۰.۵۶۶
D2 -۰.۱۰۹ ۰.۲۸۷ -۰.۹۹۴ ۰.۵۶۶

مقدار چولگی مشاهده شده برای متغیر D1 برابر ۰.۱۴۶ است و در بازه (۲ ، ۲-) قرار دارد. یعنی از لحاظ کجی متغیر D1 نرمال بوده و توزیع آن متقارن است. مقدار کشیدگی آن ۰.۷۸۴ است و در بازه (۲ ، ۲-) قرار دارد. این نشان می‌دهد توزیع متغیر از کشیدگی نرمال برخوردار است.

منبع: کتاب آموزش SPSS نوشته آرش حبیبی

۰ نظر موافقین ۰ مخالفین ۰ ۰۲ شهریور ۰۰ ، ۲۳:۰۳
سید سعید انصاری فر

هولستی یکی از صاحب‌نظران تحلیل محتوا است.برای محاسبه پایایی در تحقیقات کیفی از روش هولستی استفاده شده است. در این روش متون در دو مرحله کدگذاری می‌شوند. هولستی فرمولی را برای تعیین پایایی داده های اسمی بر حسب «درصد توافق مشاهده‌شده» یا Percentage of Agreement Observation ارائه کرده است:

PAO = 2M / (N1+N2)

در فرمول فوق M تعداد موارد کدگذاری مشترک بین دو کدگذار می باشد. N1و N2  به ترتیب تعداد کلیه موارد کدگذاری شده توسط کدگذار اول و دوم است. مقدار PAO بین صفر (عدم توافق) و یک (توافق کامل) است و اگر از ۰/۷ بزرگتر باشد مطلوب می‌باشد.

۰ نظر موافقین ۰ مخالفین ۰ ۱۸ مرداد ۰۰ ، ۱۹:۵۹
سید سعید انصاری فر

شاخص اندازه اثر کوهن

اندازه اثر Effect Size

اندازه اثر Effect Size در آمار یک مقیاس است که برای نشان دادن بزرگی یک پدیده مورد استفاده قرار می‌گیرد. این شاخص توسط جاکوب کوهن معرفی و با اعلامیه انجمن روانشناسی آمریکا (APA) مشهور گردید. این انجمن تاکید کرده است که: پژوهشگران وقتی از مقدار معناداری استفاده می‌کنند باید تخمینی از اندازه اثر را ارائه نمایند. همچنین گزارش و تفسیر اندازه اثر براساس مطالعات پیشین نیز مفید است. برای اینکه افرادی که پژوهش شما را مطالعه می‌کنند درک بهتری از نتایج کار شما داشته باشند باید این شاخص را در بخش نتایج کار مشاهده نمایند. اندازه اثر بر جهت و شدت تفاوت میان دو گره یا رابطه بین دو متغیر دلالت دارد. این مقیاس می‌تواند تفاوت میانگین‌های مشاهده شده یا همبستگی متغیرها را مورد بررسی قرار دهد.

انتقادات به بحث آزمون معناداری بر این حوزه پژوهشگران را به این سوال واداشته است که اگر آزمون های معناداری آماری نمی توانند کارایی مناسبی در پژوهش های کمی داشته باشند، پس چه چیزی می تواند جای آن ها را بگیرد؟ در دو دهه گذشته علوم اجتماعی و رفتاری به استفاده از معناداری کاربردی ۹ روی آورده اند. شروع این جنبش علمی شدیداً تحت تأثیر انتشار مقاله ای از طرف انجمن روانشناسی آمریکا در سال های ۱۹۹۶و ۱۹۹۹ بوده است. در این مقالات دو گونه از ، شواهد معناداری کاربردی در این مقالات مورد بحث قرار گرفته است: میزان اثرات و فاصله اطمینان. در همین مقاله آمده است که گزارش و تحلیل اندازه اثر در کنار سایر شاخص های آماری برای یک پژوهش خوب لازم است.

 

اندازه اثر در رگرسیون، مدل ساختاری و حداقل مربعات جزئی

محاسبه اندازه اثر برای تحلیل رگرسیون، مدل معادلات ساختاری و حداقل مربعات جزئی بسیار ساده است. یکی از کاربردهای این شاخص استفاده به عنوان یکی از شاخص های برازش حداقل مربعات جزئی می باشد. در نرم افزار PLS برای هر اثر در مدل مسیری می توان این شاخص را با استفاده از f square کوهن ارزیابی کرد. اندازه اثر f2 به صورت نسبتی از تغییرات ضریب تعیین R2 به روی بخشی از واریانس متغیر مکنون درونزا است که به صورت تبیین نشده در مدل باقی می ماند. برای محاسبه این ضریب ابتدا مدل را به صورت کامل اجرا کرده و مقادیر  R2 را یادداشت کنید. در مرحله بعد متغیر مستقل مسیری را که می خواهید f2 آن را محاسبه کنید را حذف کرده و مجددا مدل را اجرا کنید. سپس در فرمول زیر قرار دهید.

f2=(R2included – R2excluded) / (1 – R2included)

براساس رابطه فوق کافی است یک بار ضریب تعیین با در نظر گرفتن تاثیر متغیر مستقل موردنظر محاسبه شود و سپس با حذف این تاثیر محاسبه شود. براساس نظر کوهن (۱۹۸۸) میزان این شاخص به ترتیب ۰/۰۲ (ضعیف) ۰/۱۵ (متوسط) و ۰/۳۵ (قوی) تفسیر می شود. برای محاسبه اندازه اثر از میزان ضریب تعیین استفاده می شود. سپس مقدار محاسبه شده براساس مقادیر پیشنهادی کوهن تفسیر شود. به همین ترتیب استفاده از نرم افزار SPSS نیز می‌توان اندازه ضریب اثر را برای رگرسیون و تحلیل مسیر محاسبه کرد.

مطالعه بیشتر

گاهی ممکن است برای یک متغیر وابسته تنها یک متغیر مستقل وجود داشته باشد. بنابراین این پرسش مطرح می‌شود که مقدار تاثیر با رابطه کوهن چگونه محاسبه می‌شود. بدیهی است در این R2excluded حالت برابر صفر خواهد بود. پس اگر این مقدار در رابطه فوق برابر صفر ثرار گیرد از رابطه ساده f2= R2 / (1 – R2) استفاده خواهد شد. روش تفسیر همچنان مانند قبل خواهد بود. با استفاده از این روش می‌توان به تفسیر مدل‌های ساختاری، رگرسیونی و یا حداقل مربعات جزئی پرداخت.

 

منبع: اندازه اثر نوشته آرش حبیبی تشر الکترونیک پارس مدیر

Cohen, J. E. (1988). Statistical Power Analysis for the Behavioral Sciences. Hillsdale, NJ: Lawrence Erlbaum Associates, Inc.

۰ نظر موافقین ۰ مخالفین ۰ ۱۰ مرداد ۰۰ ، ۲۳:۴۶
سید سعید انصاری فر

 

حجم نمونه تحلیل عاملی و مدل ساختاری

حداقل حجم نمونه مدل معادلات ساختاری و تحلیل عاملی براساس تعداد سازه‌های اصلی یا متغیرهای پنهان تعیین می‌شود. با وجود آنکه در مورد حجم نمونه لازم برای تحلیل عاملی و مدل‌های ساختاری توافق کلی وجود ندارد، اما به زعم بسیاری از پژوهشگران حداقل حجم نمونه لازم ۲۰۰ می‌باشد.

در تحلیل عاملی اکتشافی برای هر متغیر مشاهده‌پذیر ۵ تا ۱۰ نمونه لازم است. همچنین کف نمونه ۳۰۰ نمونه توصیه شده است (سرمد و همکاران، ۱۳۹۴).

در تحلیل عاملی تاییدی و مدل ساختاری، حداقل حجم نمونه براساس متغیرهای پنهان تعیین می‌شود نه متغیرهای مشاهده‌پذیر. در اینجا ۲۰ نمونه برای هر عامل (متغیر پنهان) لازم است. بطور کلی حداقل ۲۰۰ نمونه توصیه شده است (حبیبی و عدن‌ور، ۱۳۹۶).

متغیرهای پنهان همان عامل‌ها یا ابعاد مدل هستند و متغیرهای مشاهده پذیر نیز همان سوالات پرسشنامه می‌باشند.

 

محاسبه حجم نمونه با فرمول کوکران و یا رجوع به جدول کوکران در اینجا مصداق ندارد. این یک خطای رایج در میان پژوهشگران است.

مثال محاسبه حجم نمونه مدل معادلات ساختاری

فرض کنید یک پرسشنامه شامل ۵۰ گویه برای سنجش سازه A طراحی کرده‌اید. چنانچه هیچ پیش فرضی درباره ابعاد (متغیرهای پنهان) سازه A نداشته باشید با استفاده از تحلیل عاملی اکتشافی می‌توانید ابعاد سازه A را شناسائی کنید. برای منظور چون ۵۰ گویه موجود است بنابراین به حداقل ۲۵۰ و حداکثر ۵۰۰ نمونه نیاز دارید تا ساختار علی متغیرهای مدل شناسائی شود.

سوال: یک پرسشنامه شامل ۲۰ گویه وجود دارد چند نمونه برای تحلیل عاملی اکتشافی لازم است؟ براساس قاعده ارائه شده بین ۱۰۰ تا ۲۰۰ نمونه لازم است اما دقت کنید کف نمونه برای تحلیل عاملی اکتشافی نباید کمتر از ۳۰۰ باشد. البته معیار تشخیص کفایت نمونه در تحلیل عامل اکتشافی آزمون KMO است.

سوال: یک پرسشنامه شامل ۵۰ گویه و ۵ سازه اصلی وجود دارد. حداقل حجم نمونه برای تحلیل عاملی تاییدی چند نفر است؟ در این حالت چون ۵ متغیر پنهان وجود دارد به ۵ × ۲۰ = ۱۰۰ نمونه لازم است. اما چون کف نمونه نباید از ۲۰۰ نفر کمتر باشد بنابراین حداقل ۲۰۰ نمونه لازم است.

روش دوم محاسبه حجم نمونه مدل معادلات ساختاری

از آنجا که روش شناسی مدل معادلات ساختاری، تا حدود زیادی با برخی از جنبه های رگرسیون چند متغیری شباهت دارد، می توان از اصول تعیین حجم نمونه در تحلیل رگرسیون چند متغیری برای تعیین حجم نمونه در مدل یابی معادلات ساختاری استفاده نمود.

در تحلیل رگرسیون چند متغیری نسبت تعداد نمونه (مشاهدات) به متغیرهای مستقل نباید از ۵ کمتر باشد. در غیر این صورت نتایج حاصل از معادله رگرسیون چندان تعمیم پذیر نخواهد بود. نسبت محافظه کارانه تر ۱۰ مشاهده به ازای هر متغیر مستقل نیز پیشنهاد شده است. حتی در نظر گرفتن ۱۵ مشاهده به ازای هر متغیر پیش بین در تحلیل رگرسیون چند گانه با روش معمولی کمترین مجذورات استاندارد، یک قاعده سر انگشتی خوب به حساب می‌آید. پس به طور کلی در روش شناسی مدلیابی معادلات ساختاری تعیین حجم نمونه می تواند بین ۵ تا ۱۵ مشاهده به ازای هر متغیر اندازه گیری شده تعیین شود:

۵Q < n < 15Q

که در آن Q تعداد متغیرهای مشاهده شده یا تعداد گویه ها (سوالات) پرسشنامه و n حجم نمونه است. پس به طور مثال اگر پرسشنامه ای دارای ۳۰ گویه یا سوال است، حجم نمونه این تحقیق بین ۱۵۰ تا ۴۵۰ می باشد. لازم به تذکر است تاکید همیشه بر این است کف نمونه نباید از ۲۰۰ نفر کمتر باشد (هومن، ۱۳۸۴).

منابع :

حبیبی، آرش؛ عدن‌ور، مریم. (۱۳۹۶). مدل یابی معادلات ساختاری، انتشارات جهاد دانشگاهی.

سرمد، زهره؛ بازرگان، عباس؛ حجازی، الهه. (۱۳۹۴). روش های تحقیق در علوم رفتاری، تهران: انتشارات آگاه.

هومن، حیدرعلی. (۱۳۸۴). کتاب مدل‌یابی معادلات ساختاری با استفاده از نرم افزار لیزرل، انتشارات سمت.

۰ نظر موافقین ۰ مخالفین ۰ ۲۴ تیر ۰۰ ، ۲۱:۲۲
سید سعید انصاری فر

آزمون ویل کاکسون از آزمون های ناپارامتری است که برای ارزیابی همانندی دو نمونه وابسته با مقیاس رتبه ای بکار می رود. این آزمون که به اسم آزمون رتبه های علامت دار ویل کاکسون نیز معروف است، همچون آزمون مک نمار مناسب طرح های قبل از اجرا و بعد از اجرا است. این آزمون اندازه تفاوت میان رتبه ها را در نظر می گیرد. بنابراین متغیرها می توانند دارای جواب های متفاوت و یا فاصله ای باشند. این آزمون متناظر با آزمون t دو نمونه ای (زوجی) وابسته است و در صورت وجود نداشتن شرایط آزمون t جانشین خوبی برای آن است. نمونه های بکار برده شده در این آزمون باید جفت باشند.

این آزمون نه تنها جهت، بلکه اندازه تفاوت بین گروه های همتا را نیز می آزماید. بنابراین آزمون ویل کاکسون گویای این پاسخ است که کدام جزء یک جفت بزرگتر از جزء دیگر است و همچنین تفاوت ها را به ترتیب قدر مطلق آن ها رتبه بندی می کند.

برای فهم بیشتر مطلب به مثال زیر توجه کنید که با استفاده از نرم افزار SPSS تجزیه و تحلیل شده است.

پژوهش گری در تحقیقی با عنوان بررسی میزان رضایت ساکنین منطقه 10 تهران از وضعیت حمل و نقل منطقه، در یکی از فرضیه های خود به مقایسه میزان رضایت ساکنین این منطقه از وضع حمل و نقل در دو زمان قبل و بعد از احداث بزرگراه نواب پرداخت. فرضیه این پژوهشگر به قرار زیر است:

"به نظر می رسد میزان رضایت مردم از وضعیت حمل و نقل منطقه در دو زمان قبل و بعد از احداث بزرگراه متفاوت باشد"

برای آزمون این فرضیه میزان رضایت از وضعیت حمل و نقل قبل  و بعد از احداث بزرگراه را که بصورت طیف لیکرت (رتبه دهی از 1 تا 5) وارد شده است بصورت جفتی در دو ستون نرم افزار به شکل زیر وارد می کنیم: 

پس از آن از مسیر نمایش داده شده در شکل زیر دستور 2related samples را اجرا می کنیم.  

در کادر باز شده مطابق با شکل زیر ابتدا متغیر Before و سپس After را در قسمت های مربوطه وارد می کنیم. و از قسمت Test type آزمون ویلکاکسون (Wilcoxon) را انتخاب می کنیم.

در نهایت برای نمایش نتایج Ok را کلیک می کنیم تا نتایج مطابق با شکل زیر نمایش داده شوند.

در تفسیر نتایج آزمون ویل کاکسون برای این که پی ببریم آیا تفاوت میزان رضایت ساکنین از وضع حمل و نقل منطقه در دو زمان قبل و بعد از احداث بزرگراه متفاوت است با خیر باید از نتایج جدول دوم (Test Statistics) استفاده کنیم. با استناد به آزمون Z (-5.305) که در سطح خطای کوچکتر از 0.01 معنی دار است می توان گفت که به لحاظ آماری با اطمینان 0.99 تفاوت میزان رضایت ساکنین از وضع حمل و نقل منطقه در زمان های قبل و بعد از احداث بزرگراه نواب معنی دار است. این نتیجه دلالت بر رد شدن (رد) فرض H0 تحقیق مبنی بر برابری میزان رضایت ساکنین از وضع حمل و نقل منطقه در دو زمان قبل و بعد از اجرای بزرگراه نواب دارد. به عبارت دیگر میزان رضایت ساکنین قبل و بعد از اجرای بزرگراه نواب متفاوت است. 

علاوه بر تعیین معنی داری تفاوت یا عدم تفاوت میزان رضایت ساکنین از وضع حمل و نقل در دو زمان قبل و بعد از احداث بزرگراه، می توانیم پی ببریم که میزان رضایت از وضع حمل و نقل منطقه در کدام زمان بیشتر  و در کدام زمان کمتر است. برای این منظور می توانیم از نتایج جدول اول استفاده کنیم. طبق نتایج این جدول، میانگین رتبه رضایت از وضع حمل و نقل در زمان بعد از احداث بزرگراه (24.5) بیشتر از میزان آن در زمان قبل از احداث بزرگراه (11) بوده است. پس با احداث بزرگراه رضایت ساکنین منطقه از وضعیت حمل و نقل افزایش (بهبود) یافته است.

 

منبع: http://amarpersian.blogfa.com/

۱ نظر موافقین ۰ مخالفین ۰ ۲۴ خرداد ۰۰ ، ۰۰:۱۲
سید سعید انصاری فر

قبل از هر چیز باید به سوالات زیر پاسخ داده شود:

  • آیا پژوهش شما مبتنی بر مدل‌های نظری طراحی شده است؟
  • آیا هدف پژوهش شما تعیین روابط بین متغیرهای مفهومی است؟
  • آیا در پرسشنامه شما هر مجموعه سوالات یک مفهوم را اندازه گیری می کند؟
  • آیا هدف شما پیش بینی است؟

در مسائلی که ما قصد اندازه گیری متغیرهای مفهومی را داریم می‌بایست از تحلیل مسیر استفاده کرد. راه کارهای مختلف ابداع شده توسط دانشمندان حوزه مدل سازی معادلات ساختاری این یقین را در پژوهشگر بوجود می‌آورد که می‌تواند انواع فرضیه های کاربردی در مطالعات اجتماعی را به مدل درآورده و آن را آزمون کند در حالی که حداقل از یک نقطه ضعف بسیار مهم در روش‌های آماری کلاسیک و معمول (مثل تحلیل رگرسیون) پرهیز نماید. این نقطه ضعف به حساب نیاوردن خطاهای اندازه گیری متغیرهای پنهان به هنگام آزمون فرضیه است. دلیلش این است که به هنگام آزمون فرضیه با استفاده از روش‌های کلاسیک، متغیرهای پنهان(مفهومی) به گونه ای غیر واقعی به عنوان یک متغیر مشاهده شده ای در نظر گرفته می‌شود که از دقت اندازه گیری کامل برخوردار است که در واقعیت این طور نیست. اما به کمک مدل سازی معادلات ساختاری هم می‌توان خطاهای اندازه گیری متغیرهای مشاهده شده (متغیرهای پرسشنامه) و هم خطاهای ساختاری مدل(رابطه بین متغیرهای پنهان) را در مدل در نظر گرفت که در مقایسه با روشهای کلاسیک چون تحلیل رگرسیون به واقعیت نزدیک‌تر است.

قبل از اینکه مدل سازی معادلات ساختاری انجام گیرد پژوهشگر می‌بایست بر اساس چارچوب نظری پژوهش، پیشینه تحقیق و هم چنین دیدگاه های شخصی به تدوین انواع روابط بین متغیرها دست زده و به ارزیابی آنها می‌پردازد.

در تحلیل رگرسیون پژوهشگر به دنبال بررسی رابطه بین متغیرهای مستقل و وابسته است و اینکه کدامیک از متغیرهای مستقل در پیش بینی متغیر وابسته تاثیر بیشتری دارد. به عبارت دیگر در تحلیل رگرسیون یک رابطه ریاضی بین متغیرهای مستقل و وابسته تعیین می شود که به کمک آن پژوهش گر می تواند با تغییر در متغیر مستقل، تغییرات متغیر وابسته را پیش بینی کند. فرض مهم این روش، وجود نداشتن خطا در اندازه گیری متغیرهای مستقل و وابسته است.

بنابراین اگر هر کدام از سوالات پرسشنامه شما به تنهایی قادر به سنجش متغیرهای مستقل و وابسته است پیشنهاد می شود از روش تحلیل رگرسیون استفاده شود اما چنانچه هر مجموعه از سوالات یک مفهوم را اندازه گیری می کنند و شما به کمک مدل نظری پژوهش می خواهید رابطه بین متغیرهای مفهومی را مورد بررسی قرار دهید؛ بهتر است از تحلیل مسیر استفاده کنید. گرچه در این شرایط نیز می توان از تحلیل رگرسیون استفاده کرد اما با توجه به دلایل مطرح شده، تحلیل مسیر نتایج واقعی تر را نشان می دهد.

۰ نظر موافقین ۰ مخالفین ۰ ۱۶ خرداد ۰۰ ، ۱۸:۰۲
سید سعید انصاری فر

تحلیل مضمون در تحقیقات کیفی

تحلیل مضمون Thematic analysis شیوه ای در روش پژوهش کیفی است که بر شناسایی، تحلیل و تفسیر الگوی معانی داده‌های کیفی تمرکز دارد. مضمون یا تِم Theme عنصر کلیدی در این روش است. مضمون ها پر ارزش ترین واحدهایی هستند که در تجزیه و تحلیل محتوا باید مدنظر قرار گیرند و منظور از مضامین معنای خاصی است که از یک کلمه یا جمله یا پاراگراف مستفاد می شود. این مضمون ها فضای خاص و مشخصی را اشغال نمی کنند، چون یک جمله ممکن است چند مضمون داشته باشد و یا چند پاراگراف متن، ممکن است فقط یک مضمون داشته باشد. این روش نیز مانند سایر روش‌های تحلیل کیفی در مدیریت علوم اجتماعی رشد چشمگیری داشته است.

تحلیل مضمون گاهی با تحلیل محتوا نیز اشتباه گرفته می‌شود و یکی از روش های ساده و کارآمد در روش تحقیق کیفی است. در واقع، تحلیل مضمون، اولین روش تحلیل کیفی است که پژوهشگران باید یاد بگیرند. این روش، مهارت های اساسی مورد نیاز برای بسیاری از تحلیل های کیفی را فراهم می کند. تحلیل مضمون، یکی از مهارت های عام و مشترک در تحلیل های کیفی است؛ به همین دلیل،  آن را نه روشی خاص بلکه ابزاری مناسب برای روش های مختلف، معرفی می کند. برخی نیز کدگذاری مضامین را فرایند پیش نیازِ تحلیل های اصلی و رایجِ کیفی، معرفی می کنند تا روشی منحصربه فرد و خاص. اما به عقیده براون و کلارک، تحلیل مضمون را باید روش ویژه ای در نظر گرفت که یکی از مزایای آن انعطاف پذیری است.

تعریف تحلیل مضمون

تحلیل مضمون، روشی برای شناخت، تحلیل و گزارش الگوهای موجود در داده های کیفی است. این روش، فرایندی برای تحلیل داده های متنی است و داده های پراکنده ومتنوع را به داده هایی غنی و تفصیلی تبدیل می کند. تحلیل مضمون، صرفاً روش کیفی خاصی نیست بلکه فرایندی است که می تواند در اکثر روش های کیفی به کار رود. به طور کلی، تحلیل مضمون، روشی است برای:

  • دیدن متن
  • برداشت و درک مناسب از اطلاعات ظاهراً نامرتبط
  • تحلیل اطلاعات کیفی
  • مشاهده نظاممند شخص، تعامل، گروه، موقعیت، سازمان و یا فرهنگ
  • تبدیل داده های کیفی به داده های کمی

تحلیل مضمون، یکی از روش های رایج کیفی است که پژوهشگران رشته های ادبیات، روان شناسی، جامعه شناسی، مردم شناسی، تاریخ، هنر، علوم سیاسی، علوم اجتماعی، اقتصاد، ریاضیات، فیزیک، شیمی، زیست شناسی و پزشکی از آن استفاده کرده اند.

تعریف مضمون

یکی از بحث های اساسی تحلیل مضمون این است که مضمون چیست؟ و چرا و چگونه در داده ها شناخته می شود؟ در این بخش، به این سؤالات پاسخ داده می شود؛ از این رو نخست، مضمون و انواع آن، معرفی و سپس به برخی روش های شناخت مضمون در میان داده های متنی اشاره می شود.

قبل از پرداختن به انواع مضمون و روش شناخت آن، باید درک درستی از معنی « مضمون » یا Theme داشته باشیم. در ادبیات روش شناسی، چندان به معنیِ این مفهوم پرداخته نشده است و غالباً از آن به مثابه الگویی که مبین نکته جالبی درباره مضوع تحقیق است و با استفاده از شعور متعارف شناخته می‌شود، یاد شده است. مضمون یا تم، مبین اطلاعات مهمی درباره داده‌ها و سوالات تحقیق است و تا حدی، منی و مفهوم الگوی موجود در مجموعه ای از داده‌ها را نشان می‌دهد. مضمون، الگویی است که در داده‌ها یافت می‌شود و حداقل به توصیف و سازماندهی مشاهدات و حداکثر به تفسیر جنبه‌هایی از پدیده می‌پردازد.

بطور کلی مضمون، ویژگی تکراری و متمایزی در متن است که به نظر پژوهشگر نشان دهنده درک و تجربه خاصی در رابطه با سوالات تحقیق است.

روش تحلیل مضمون و شناخت مضامین

شناخت مضمون، یکی از مهم ترین و حساس ترین کارها در تحقیقات کیفی است و به عبارتی، قلب تحلیل مضمون است. شعور متعارف، ارزش های پژوهشگر، جهت گیری ها و سؤالات تحقیق و تجربه پژوهشگر درباره موضوع، در نحوه شناخت مضامین، تأثیر می گذارد. از آنجا که تحلیل مضمون، تحلیلی کیفی است، پاسخ روشن و سریعی برای این وجود ندارد که مقدار داده های مناسب و مورد نیاز -که دلالت بر وجود مضمون یا اطلاق آن کند- چقدر است. بنابراین، مضمون، لزوماً به معیارهای کمی بستگی ندارد؛ بلکه به این بستگی دارد که چقدر به نکته مهمی درباره سؤالات تحقیق می پردازد.

اولاً، شناخت مضمون هرگز به معنی صرفاً یافتن نکته جالبی در داده ها نیست، بلکه مستلزم آن است که پژوهشگر مشخص کند در داده ها باید دنبال چه چیزی باشد؟ از چه چیزهایی باید صرف نظر و چگونه باید داده ها را تحلیل و تفسیر کند؟

ثانیاً، واژه « مضمون » به طور ضمنی و تا حدی، مبین « تکرار »است؛ لذا مسئله ای را که صرفاً یکبار در متنِ داده ها ظاهر شود نمی توان « مضمون » به حساب آورد مگر آنکه نقش برجسته و مهمی در تحلیل نهایی داده ها داشته باشد. به طور معمول، تکرار به معنی مشاهده و ظاهر شدن در دو یا چند مورد در متن است.

ثالثاً، مضمون ها باید از یکدیگر متمایز باشد. با وجود اینکه هم پوشانی در میان مضامین تا حدودی اجتناب ناپذیر است اما اگر مرز کاملاً مشخص و تعریف شده ای میان مضامین مختلف وجود نداشته باشد نمی توان درک درستی از تحلیل ها و تفسیرها عرضه کرد.

روش تحلیل مضمون

روش تحلیل مضمون و شناخت مضامین

بطور کلی روش‌های مختلفی برای شناخت مضامین وجود دارد. در شکل فوق روش‌های مناسبی جهت شناخت و کشف مضامین در متن‌پژوهی از دیدگاه ریان و برنارد ارائه شده است. البته پژوهشگر باید تا حدودی منعطف باشد زیرا تبعیت صرف از قواعد در شناخت مضامین، کاربردی ندارد.

مراحل تحلیل مضمون

آشنا شدن با داده ها : هنگام شروع تحلیل مضمون، ممکن است خود پژوهشگر داده ها را جمع کند یا این که داده های تحقیق در اختیار او قرار گیرد. اگر خود پژوهشگر داده ها را (از طریق رسانه ها و منابع مختلف) جمع کند، به هنگام تحلیل، از دانش و مبنای تحلیلی اولیه برخوردار خواهد بود. اما مهم این است که پژوهشگر به گونه ای در داده ها غرق شود که با عمق و غنای محتوای آن ها کاملاً آشنا شود.

ایجاد کدهای اولیه و کدگذاری : گام دوم، زمانی آغاز می شود که پژوهشگر، داده ها را مطالعه کرده و با آن ها آشنا شده باشد. همچنین، فهرستی اولیه از ایده های موجود در داده ها و نکات جالب آن ها، تهیه کرده باشد؛ لذا این گام، مستلزم ایجاد کدهای اولیه از داده هاست.

جست وجو و شناخت مضامین : گام سوم، وقتی شروع می شود که همه داده ها، کدگذاری اولیه و گردآوری شده باشد و فهرستی طولانی از کدهای مختلف در مجموعه داده ها، شناخته شده باشد. در این گام که به تحلیل در سطحی کلان تر از کدها تمرکز دارد کدهای مختلف در قالب مضامین مرتب می شود و همه داده های کدگذاشته مرتبط با هر یک از مضامین، شناخته و گردآوری می شود. اساساً در این مرحله، کدها تجزیه و تحلیل می شود و به نحوه ترکیب و تلفیق کدهای مختلف جهت تشکیل مضمون پایه، توجه می شود. در این مرحله می توان از شکل، نمودار، جدول، نقشه های ذهنی و یا نوشتن نام هر کد همراه با توضیح خلاصه ای از آن بر روی کاغذی جداگانه و قرار دادن آن در ستون مضمون مرتبط، برای مرتب کردن کدهای مختلف در قالب مضامین بهره گرفت.

ترسیم شبکه مضامین : گام چهارم وقتی شروع می شود که پژوهشگر، مجموعه ای از مضامین را پیشنهاد و بخواهد آن ها را پالایش کند. مضامینِ شناخته، منبع اصلی تشکیل شبکه های مضامین است. طی این گام، مشخص خواهد شد که برخی مضامین پیشنهادشده، واقعاً مضمون نیستند (مثلاً اگر داده های کافی وجود نداشته باشد و یا داده های آن، خیلی متنوع باشد)، برخی مضامین با همدیگر هم پوشانی دارد (مثلاً اگر دو مضمونِ جدا، یک معنی و مفهوم داشته باشد و با هم، مضمون واحدی، تشکیل دهند) و ممکن است لازم باشد سایر مضامین به مضامین جداگانه ای تفکیک شود.

تحلیل شبکه مضامین : گام پنجم وقتی شروع می شود که پژوهشگر به شبکه مضامینِ رضایت بخشی رسیده باشد. در این حالت، می تواند مضامین پیشنهادشده جهت تحلیل داده ها را تعریف و تعدیل، و داده ها را بر اساس آن ها تحلیل کند. در این گام، شبکه های مضامین رسم شده، بررسی و تجزیه و تحلیل می شود. همان طور که قبلاً نیز اشاره شد، شبکه های مضامین، ابزاری برای تحلیل هستند، نه خود تحلیل. این شبکه ها به پژوهشگر کمک می کند تا به درک عمیق تری از معانی متون برسد و بتواند مضامین به دست آمده را تشریح کند و الگوهای آن ها را بشناسد. پس از ایجاد شبکه های مضامین، پژوهشگر باید مجدداً بهمتن اصلی، مراجعه و آن را به کمک این شبکه ها تفسیر کند .

تدوین گزارش : گام ششم، وقتی آغاز می شود که مجموعه کاملی از مضامینِ نهایی، فراهم شده باشد. در این مرحله، تحلیل و تدوین گزارشِ نهاییِ تحقیق، صورت می گیرد. هدف از نوشتن تحلیل مضمون این است که حکایت کامل و پیچیده موجود در داده ها را به گونه ای بیان شود که خواننده درباره اعتبار و صلاحیت تحلیل پژوهشگر، متقاعد شود. مهم این است که تحلیل، حکایت مختصر و منسجم و منطقی و غیرتکراری و جالبِ برآمده از داده ها را در قالب مضامین، عرضه کند. گزارش، باید شواهد کافی و مناسبی درباره مضامین موجود در داده ها فراهم کند و داده های کافی برای هر مضمون، عرضه شود.

جمع بندی بحث تحلیل مضمون

رشد سریع تحقیقات کیفی در سال های اخیر، منجر به برداشتن گامی مثبت در جهت درک عمیق تر از پدیده های اجتماعی و پویایی آن ها شده است. با این حال، هنوز ابزارهای مناسبی برای تحلیل داده های کیفی، به اندازه کافی، وجود ندارد. در حالی که به مسائل مربوط به چرایی، چگونگی و زمانِ به کارگیری روش های کیفی، توجه ویژه ای شده است؛ اما به نحوه تحلیل داده های متنی که پژوهشگران کیفی در مرحله پایانی جمع آوری داده عرضه م یکنند کمتر توجه شده است. این موضوع، یکی از مشکلات پژوهشگران، خصوصاً پژوهشگران علوم اجتماعی است که از روش های کیفی استفاده می کنند.

یکی از روش های کارامد تحقیقات کیفی، تحلیل مضمون است که هم اکنون به عنوان روش تحلیل، تجلیل و تعریف چندانی از آن نمی شود؛ چرا که این روش کمتر معرفی، ولی بیشتر استفاده شده است. این بدان معنی است که تحلیل مضمون ظاهراً روشی است که هر کسی به آسانی و بدون داشتن دانش یا مهارت خاص (که برای تحقیقات پیچیده تر و تحسین شده تر مانند نظریه داده بنیاد و تحلیل گفتمان لازم است) از آن استفاده می کند. این مقاله، چنین نگرشی را به نقد کشیده و نشان می دهد که تحلیل مضمون می تواند تحلیل های معقولی کند و به سؤالات خاص تحقیق به خوبی پاسخ دهد.

 

منبع: تحلیل مضمون و شبکه مضامین نوشته حسن عابدی و همکاران نشر الکترونیک پارس مدیر

۵ نظر موافقین ۰ مخالفین ۰ ۱۷ ارديبهشت ۰۰ ، ۲۰:۰۸
سید سعید انصاری فر

یکی از نرم افزارهای معادلات ساختاری که به بررسی آزمون فرضیات مربوطه می پردازد، نرم افزار pls می باشد.  در سال 2005 توسط رینگل و همکاران وی در دانشگاه هامبورگ آلمان طراحی شده است. این نرم افزار قابلیت پردازش و تحلیل داده های خام را داراست. همچنین طراحی و آزمون مدل در آن به صورت کاملا گرافیکی انجام می شود. خروجی نرم افزار را می توان در قالب صفحات وب، اکسل و لاتکس مشاهده نمود.

از مدل‌یابی معادلات ساختاری با کمک روش حداقل مربعات جزیی و نرم افزار PLS، جهت آزمون فرضیات و صحّت مدل استفاده میشود. پی‌ال‌اس نگرشی مبتنی بر واریانس است که در مقایسه با تکنیکهای مشابه معادلات ساختاری همچون آموس و- لیزرل شروط کمتری دارد.  به طور مثال بر خلاف لیزرل، مدل‌یابی مسیر پی‌ال‌اس برای کاربردهای واقعی مناسب‌تر است، به ویژه هنگامی که مدلها پیچیده‌تر هستند، بهره‌گیری از این نگرش مطلوبتر خواهد بود. مزیت اصلی آن در این است که این نوع مدل‌یابی نسبت به لیزرل به تعداد کمتری از نمونه نیاز دارد. محدودیت حجم نمونه ندارد و نمونه انتخاب شده می تواند برابر یا کمتر از 30 باشد، که در این صورت نتایج نیز معتبر است. همچنین به عنوان متدی قدرتمند مطرح می‌شود، در شرایطی که تعداد نمونه‌ها و آیتم‌های اندازه‌گیری محدود است و توزیع متغیرها میتواند نامعین باشد.

روش حداقل مربعات جزئی (PLS) یک راهکار جایگزین برای رگرسیون چندگانه و مدل‌سازی معادلات ساختاری مبتنی بر کوواریانس است. در حقیقت ‍PLS اغلب به‌عنوان یک روش معادلات ساختاری مبتنی بر مؤلفه (Component-Based SEM) یا معادلات ساختاری مبتنی بر واریانس (Variance-Based SEM) برخلاف روش‌های مبتنی بر کوواریانس که توسط نرم‌افزارهای لیزرل، اموس انجام می‌گیرد، نامیده می‌شود. تحلیل ‍ PLS بر اساس مجموعه‌ای از متغیرهای مستقل که بر مجموعه‌ای متغیرهای وابسته تأثیر می‌گذارند، بکار گرفته می‌شود

روش PLS به‌عنوان یک مدل رگرسیونی جهت پیش‌بینی یک یا چند متغیر وابسته از طریق مجموعه‌ای از یک یا چند مؤلفه مستقل تعریف می‌شود و یا می‌توان به‌عنوان یک مدل مسیر جهت تفسیر تأثیرات متغیرهای مستقل بر متغیرهای وابسته (پاسخ) در نظر گرفت. 

روش PLS بیشتر مواقع برای اهداف پژوهشی که از نوع مدل‌های پیش‌بینی و اکتشافی است مناسب است. به‌طورکلی مدل‌سازی معادلات ساختاری مبتنی بر کوواریانس در مواقعی که اهداف پژوهش از نوع مدل‌های تأییدی (Confirmatory Modeling) است توصیه می‌شود. برخلاف مدل یابی معادلات ساختاری مبتنی بر کوواریانس که میزان برازش مدل مفروض را ارزیابی می‌کند و درنتیجه برآورد مدل در جهت تبیین، آزمون و تأیید نظریه است، روش PLS پیش‌بینی مدار بوده، به نظریه قوی نیاز ندارد و به‌عنوان روش ساخت نظریه می‌تواند به کار رود.

از مزایای روش PLS می‌توان به موارد زیر اشاره کرد:

–  توانایی مدل کردن متغیرهای وابسته چندگانه بر اساس متغیرهای مستقل چندگانه؛

–  توانایی کنترل هم خطی‌های متعدد بین متغیرهای مستقل؛

–  یک روش مقاوم در مقابل داده‌های مفقودشده؛

–  ایجاد متغیرهای پنهان مستقل تأثیرگذار بر متغیر (های) وابسته به‌منظور تعیین پیش‌بینی کننده‌های قوی‌تر.

 نحوه تفسیر نتایج ضریب مسیر و مقدار آماره  تی در نرم افزار smart pls

مدلسازی معادلات ساختاری به روش حداقل مربعات جزئی یا همان نرم افزار smart pls چند مدتی است که بعلت وجود  مزیت های این نرم افزار بسیار مورد توجه محققین، اساتید و دانشجویان قرار گرفته است.وقتی از این نرم افزار استفاده می شود دو خروجی بسیار مهم و حیاتی وجود دارد.

۱- مقدار آماره تی

۲- ضرایب مسیر(بارهای عاملی)

اگر مقدار بارعاملی بین سوالات پرسشنامه و متغیرهای مکنون بیشتر از ۰٫۴ باشد نتیجه می گیریم که سوالی که برای آن سازه به کار برده ایم به خوبی متغیر مکنون مورد نظر را سنجیده است.مقدار آماره تی در واقع ملاک اصلی تایید یا رد فرضیات است.اگر این مقدار آمار به ترتیب از ۱٫۶۴ ، ۱٫۹۶ و ۲٫۵۸ بیشتر باشد نتیجه می گیریم که آن فرضیه در سطوح ۹۰، ۹۵ و ۹۹ درصد تایید می شود.همچنین باید گفت که اگر مقدار ضریب مسیر بین متغیر مکنون مستقل و متغیر مکنون وابسته مثبت باشد نتیجه می گیریم که با افزایش متغیر مستقل شاهد افزایش در متغیر وابسته خواهیم بود.و بالعکس اگر مقدار ضریب مسیر بین متغیر مکنون مستقل و متغیر مکنون وابسته منفی باشد نتیجه می گیریم که با افزایش متغیر مستقل شاهد کاهش در متغیر وابسته خواهیم بود

در محاسبه اثرات متغیر میانجی و تعدیلگر نیز می توان از این نرم افزار استفاده کرد.

هزینه انجام تحلیل آماری با SmartPLS به عوامل زیر بستگی دارد :

  • تعداد فرضیه ها و پیچیدگی مدل
  • تعداد متغیرهای میانجی
  • تعداد متغیرهای تعدیلی
۰ نظر موافقین ۰ مخالفین ۰ ۱۴ ارديبهشت ۰۰ ، ۱۹:۴۱
سید سعید انصاری فر

 

SmartPLS multigroup analysis: Chean, J./ Ramayah, T./ Memon, M.A./ Chuah, F./ Ting, H.: Multigroup Analysis using SmartPLS: Step-by-Step Guidelines for Business Research, Asian Journal of Business Research, Volume 10 (2020), Issue 3, pp. 1-19

PLS-SEM and future time perspectives: Chaouali, W./ Souiden, N./ Ringle, C.M.: Elderly Customers’ Reactions to Service Failures: The Role of Future Time Perspctive, Wisdom and Emotional Intelligence, Journal of Services Marketing, forthcoming.

Predictive model selection test: Liengaard, B./ Sharma, P N./ Hult, G.T.M./ Jensen, M.B./ Sarstedt, M./ Hair, J.F./ Ringle, C.M.: Prediction: Coveted, Yet Forsaken? Introducing a Cross-validated Predictive Ability Test in Partial Least Squares Path Modeling, Decision Sciences, forthcoming.

Prediction Metrics: Hair, J.F.: Next-generation Prediction Metrics for Composite-based PLS-SEM, Industrial Management & Data Systems, forthcoming.

No need for PROCESS: Sarstedt, M./ Hair, J.F./ Nitzl, C./ Ringle, C.M./ Howard, M.C.: Beyond a Tandem Analysis of SEM and PROCESS: Use of PLS-SEM for Mediation Analyses!, International Journal of Market Research, forthcoming.

Weighted PLS-SEM (WPLS): Cheah, J.-H./ Roldán, J. L./ Ciavolino, E./ Ting, H./ Ramayah, T.: Sampling Weight Adjustments in Partial Least Squares Structural Equation Modeling: Guidelines and Illustrations, Total Quality Management & Business Excellence, forthcoming.

PLS-SEM in Higher Education: Ghasemy, M./ Teeroovengadum, V./ Becker, J.-M./ & Ringle, C. M.: This Fast Car Can Move Faster: A Review of PLS-SEM Application in Higher Education Research. Higher Education, forthcoming.

Predictive model selection: Sharma, P.N./ Shmueli, G./ Sarstedt, M./ Danks, N./ Ray, S.: Prediction-oriented Model Selection in Partial Least Squares Path Modeling, Decision Sciences (2020), forthcoming.

Causal-predictive PLS-SEM: Chin, W./ Cheah, J.-H./ Liu, Y./ Ting, H./ Lim, X.-J./ & Cham Tat, H.: Demystifying the Role of Causal-predictive Modeling Using Partial Least Squares Structural Equation Modeling in Information Systems Research, Industrial Management & Data Systems, Volume 120 (2020), Issue 12, pp. 2161-2209.

Necessary condition analysis (NCA) and PLS-SEM: Richter, N.F./ Schubring, S./ Hauff, S./ Ringle, C.M./ Sarstedt, M.: When Predictors of Outcomes are Necessary: Guidelines for the Combined Use of PLS-SEM and NCA, Industrial Management & Data Systems, Volume 120 (2020), Issue 12, pp. 2243-2267.

PLS-SEM results assessment: Sarstedt, M./ Ringle, C.M./ Cheah, J.H./ Ting, H./ Moisescu, O.I./ Radomir, L.: Structural Model Robustness Checks in PLS-SEM, Tourism Economics, Volume 26 (2020), Issue 4, pp. 531-554.

Fit criteria: Cho, G./ Hwang, H./ Sarstedt, M./ Ringle, C.M.: Cutoff Criteria for Overall Model Fit Indexes in Generalized Structured Component Analysis, Journal of Marketing Analytics, Volume 8 (2020), Issue 4, pp. 189-202.

PLS-SEM and GSCA: Hwang, H./ Sarstedt, M./ Cheah, J. H./ Ringle, C.M.: A Concept Analysis of Methodological Research on Composite-Based Structural Equation Modeling: Bridging PLSPM and GSCA, Behaviormetrika, Volume 47 (2020), pp. 219-241.

IPMA application in hospitality management: Nunkoo, R./ Teeroovengadum, V./ Ringle, C.M./ Sunnassee, V.: Service Quality and Customer Satisfaction: The Moderating Effects of Hotel Star Rating, International Journal of Hospitality Management, Volume 91(2020), Issue 102414.

More common factor issues: Rhemtulla, M./ van Bork, R./ Borsboom, D.: Worse Than Measurement Error: Consequences of Inappropriate Latent Variable Measurement Models, Psychological Methods, Volume 25 (2020), Issue 1, pp. 30-45.

Different views on CCA: Crittenden, V., Sarstedt, M., Astrachan, C., Hair, J., and Lourenco C. E.: Guest Editorial: Measurement and Scaling Methodologies. Journal of Product & Brand Management, Volume 29 (2020), Issue 4, pp. 409-414.

CCA: Hair, J.F./ Howard, M.C./ Nitzl, C.: Assessing Measurement Model Quality in PLS-SEM Using Confirmatory Composite Analysis, Journal of Business Research, Volume 109 (2020), pp. 101-110. Also take a look here: https://www.unibw.de/ciss-en/methodpaper-nitzl-et-al

PLS-SEM and GSCA: Hwang, H./ Sarstedt, M./ Cheah, J.H./ & Ringle, C.M.: A Concept Analysis of Methodological Research on Composite-based Structural Equation Modeling: Bridging PLSPM and GSCA, Behaviormetrika, Volume 47 (2020), pp. 219–241.

PLS-SEM in HRM: Ringle, C.M./ Sarstedt, M./ Mitchell, R./ Gudergan, S.P.: Partial Least Squares Structural Equation Modeling in HRM Research, The International Journal of Human Resource Management, Volume 31 (2020), Issue 12, pp. 1617-1643.

Common factor issue: Rigdon, E.E., Becker, J.-M./ Sarstedt, M.: Factor Indeterminacy as Metrological Uncertainty: Implications for Advancing Psychological Measurement, Multivariate Behavioral Research, Volume 54 (2019), Issue 3, 429-443.

PLS-SEM software review: Sarstedt, M./ Cheah, J.-H.: Partial Least Squares Structural Equation Modeling Using SmartPLS: A Software Review, Journal of Marketing Analytics, Volume 7 (2019), Issue 3, pp 196–202.

Higher-order models: Sarstedt, M./ Hair, J.F./ Cheah, J.-H./ Becker, J.-M./ Ringle, C.M.: How to Specify, Estimate, and Validate Higher-order Constructs in PLS-SEM, Australasian Marketing Journal, Volume 27 (2019), Issue 3, pp. 197-211.

How to use PLSpredict?! Shmueli, G./ Sarstedt, M./ Hair, J.F./ Cheah, J.-H./ Ting, H./ Vaithilingam, S./ Ringle, C.M.: Predictive Model Assessment in PLS-SEM: Guidelines for Using PLSpredict, European Journal of Marketing, Volume 53 (2019), Issue 11, pp. 2322-2347.

PLS-SEM research networks: Khan, G.F./ Sarstedt, M./ Shiau, W.L., Hair, J.F./ Ringle, C.M./ Fritze, M.P.: Methodological Research on Partial Least Squares Structural Equation Modeling (PLS-SEM): An Analysis Based on Social Network Approaches, Internet Research, Volume 29 (2019), Issue 3, pp. 407-429.

Some rethinking of the PLS-SEM rethinking: Hair, J.F. / Sarstedt, M. / Ringle, C.M.: Rethinking Some of the Rethinking of Partial Least Squares, European Journal of Marketing, Volume 53, Issue 4, pp. 566-584.

More on predictive model selection: Sharma, P.N./ Shmueli, G./ Sarstedt, M./ Thiele, K.O.: PLS-based Model Selection: The Role of Alternative Explanations in MIS Research, Journal of the Association for Information Systems, Volume 20 (2019), Issue 4, pp. 346-397.

PLS-SEM in marketing: Ahrholdt, D.C./ Gudergan, S./ Ringle, C.M.: Enhancing Loyalty: When Improving Consumer Satisfaction and Delight Matters, Journal of Business Research, Volume 94 (2019), Issue 1, pp. 18-27.

PLS-SEM in environmental management: Kotilainen, K./ Saari, U.A./ Mäkinen, S.J./ Ringle, C.M. Exploring the Microfoundations of End-user Interests Toward Co-creating Renewable Energy Technology Innovations, Journal of Cleaner Production, Volume 229 (2019), pp. 203-212.

Something for PLS-SEM haters: Petter, S.: “Haters Gonna Hate”: PLS and Information Systems Research, ACM SIGMIS Database: the DATABASE for Advances in Information Systems, Volume 49, Issue 2, “Haters Gonna Hate”: PLS and Information Systems Research, May 2018.

Data from Experiments and PLS-SEM: Hair, J.F./ Ringle, C.M./ Gudergan, S.P./ Fischer, A./ Nitzl, C./ Menictas, C.: Partial Least Squares Structural Equation Modeling-based Discrete Choice Modeling: An Illustration in Modeling Retailer Choice, Business Research (2018).

Convergent valdity: Cheah, J.-H./ Sarstedt, M./ Ringle, C. M./ Ramayah, T./ Ting, H.: Convergent Validity Assessment of Formatively Measured Constructs in PLS-SEM: On Using Single-item versus Multi-item Measures in Redundancy Analyses, International Journal of Contemporary Hospitality Management, Volume 30 (2018), Issue 11, pp. 3192-3210.

Patient satisfaction: Rosenbusch, J./ Ismail, I.R./ Ringle, C.M.: The Agony of Choice for Medical Tourists: A Patient Satisfaction Index Model, Journal of Hospitality and Tourism Technology, Volume 9 (2018), Issue 3, pp. 267-279.

Endogeneity in PLS-SEM: Hult, G.T.M./ Hair, J.F./ Proksch, D./ Sarstedt, M./ Pinkwart, A./ Ringle, C.M.: Addressing Endogeneity in International Marketing Applications of Partial Least Squares Structural Equation Modeling, Journal of International Marketing, Volume 26 (2018), Issue 3, pp. 1-21.

Moderation: Becker, J.-M./ Ringle, C.M./ Sarstedt, M.: Estimating Moderating Effects in PLS-SEM and PLSc-SEM: Interaction Term Generation x Data Treatment, Journal of Applied Structural Equation Modeling, Volume 2 (2018), Issue 2, pp. 1-21.

PLS-SEM in hospitality research: Ali, F./ Rasoolmanesh, S.M./ Sarstedt, M./ Ringle, C.M./ Ryu, K.: An Assessment of the Use of Partial Least Squares Structural Equation Modeling (PLS-SEM) in Hospitality Research, The International Journal of Contemporary Hospitality Management, Volume 30 (2018), Issue 1, pp. 514-538.

PLS-SEM in finance: Avkiran, N.K./ Ringle, C.M. (2018): Partial Least Squares Structural Equation Modeling: Recent Advances in Banking and Finance. Berlin: Springer.

Handbook article on PLS-SEM: Sarstedt, M./ Ringle, C.M./ Hair, J.F. (2017): Partial Least Squares Structural Equation Modeling. In Homburg, C., Klarmann, M., and Vomberg, A. (Eds.), Handbook of Market Research. Heidelberg: Springer, 1-40.

Mediation: Cepeda Carrión, G./ Nitzl, C./ Roldán, J.L. (2017): Mediation Analyses in Partial Least Squares Structural Equation Modeling: Guidelines and Empirical Examples. In H. Latan & R. Noonan (Eds.), Partial Least Squares Path Modeling: Basic Concepts, Methodological Issues and Applications. Cham: Springer, pp. 173-195.

Segmentation: Sarstedt, M./ Ringle, C.M./ Hair, J.F. (2017): Treating Unobserved Heterogeneity in PLS-SEM: A Multi-method Approach. In H. Latan & R. Noonan (Eds.), Partial Least Squares Path Modeling: Basic Concepts, Methodological Issues and Applications. Cham: Springer, pp. 197-217.

 CB-SEM and PLS-SEM: Rigdon/ E. E./ Sarstedt, M./ Ringle, C. M. (2017). On Comparing Results from CB-SEM and PLS-SEM. Five Perspectives and Five Recommendations. Marketing ZFP, 39(3), 4-16.

PLS-SEM performance: Hair, J.F./ Hult, G.T.M./ Ringle, C.M./ Sarstedt, M./ Thiele, K.O. Mirror, Mirror on the Wall: A Comparative Evaluation of Composite-based Structural Equation Modeling Methods, Journal of the Academy of Marketing Science, Volume 45 (2017), Issue 5, 616-632.

Prediction: Shmueli, G./ Ray, S./ Velasquez Estrada, J.M./ Chatla, S.B. The Elephant in the Room: Evaluating the Predictive Performance of PLS Models, Journal of Business Research, Volume 69 (2016), Issue 10, pp. 4552–4564.

PLS-SEM: Richter, N.F./ Cepeda Carrión, G./ Roldán, J.L./ Ringle C.M.: European Management Research Using Partial Least Squares Structural Equation Modeling (PLS-SEM): Editorial, European Management Journal, Volume 34 (2016), Issue 6, pp. 589-97.

CB-SEM and PLS-SEM: Sarstedt, M./ Hair, J.F./ Ringle, C.M./ Thiele, K.O./ Gudergan, S.P. Estimation Issues with PLS and CBSEM: Where the Bias Lies!, Journal of Business Research, 69 (2016), Issue 10, pp. 3998-4010.

Mediation: Nitzl, C./ Roldán, J.L./ Cepeda Carrión, G.: Mediation Analysis in Partial Least Squares Path Modeling: Helping Researchers Discuss More Sophisticated Models, Industrial Management & Data Systems, Volume 119 (2016), Issue 9, pp. 1849-1864.

Importance-performance map (IPMA): Ringle, C.M./ Sarstedt, M.: Gain More Insight from Your PLS-SEM Results: The Importance-Performance Map Analysis, Industrial Management & Data Systems, Volume 119 (2016), Issue 9, 1865-1886.

Measurement invariance: Henseler, J./ Ringle, C.M./ Sarstedt, M.: Testing Measurement Invariance of Composites Using Partial Least Squares, International Marketing Review, Volume 33 (2016), Issue 3, pp. 405-431.

Weigthed PLS: Becker, J.-M./ Ismail, I. R. Accounting for Sampling Weights in PLS Path Modeling: Simulations and Empirical Examples, European Management Journal, Volume 34 (2016), Issue 6, pp. 606-617.

FIMIX-PLS segmentation: Hair, J.F./ Sarstedt, M./ Matthews, L./ Ringle, C.M.: Identifying and Treating Unobserved Heterogeneity with FIMIX-PLS: Part I – Method, European Business Review, Volume 28 (2016), Issue 1, pp. 63-76.

FIMIX-PLS tutorial: Matthews, L./ Sarstedt, M./ Hair, J.F./ Ringle, C.M.: Identifying and Treating Unobserved Heterogeneity with FIMIX-PLS: Part II – A Case Study, European Business Review, Volume 28 (2016), Issue 2, pp. 208-224.

Dynamic PLS: Schubring, S./ Lorscheid, I./ Meyer, M./ Ringle, C.M.: The PLS Agent: Predictive Modeling with PLS-SEM and Agent-based Simulation, Journal of Business Research, Volume 69 (2016), Issue 10, pp. 4604–4612.

Weighted regression segmentation: Schlittgen, R./ Ringle, C.M./ Sarstedt, M./ Becker, J.-M.: Segmentation of PLS Path Models by Iterative Reweighted Regressions, Journal of Business Research, Volume 69 (2016), Issue 10, pp. 4583–4592.

 HTMT: Henseler, J./ Sarstedt, M./ Ringle, C.M. A New Criterion for Assessing Discriminant Validity in Variance-Based Structural Equation Modeling. Journal of the Academy of Marketing Science, Volume 43 (2015), Issue 1, pp. 115-135.

Uncovering heterogeneity and prediction-oriented segmentation: Becker, J.-M./ Rai, A./ Ringle, C.M./ Völckner, F. Discovering Unobserved Heterogeneity in Structural Equation Models to Avert Validity Threats, MIS Quarterly, Volume 37 (2013), Issue 3, pp. 665-694.

The future of PLS-SEM! Sarstedt, M./ Ringle, C.M./ Henseler, J./ Hair, J.F. On the Emancipation of PLS-SEM: A Commentary on Rigdon (2012), Long Range Planning, 47 (2014), Issue 3, pp. 154-160.

Creating myths when chasing myths! Rigdon, E.E./ Becker, J.-M./ Rai, A./ Ringle, C.M./ Diamantopoulos, A./ Karahanna, E./ Straub, D.W./ Dijkstra, T.K. Conflating Antecedents and Formative Indicators: A Comment on Aguirre-Urreta and Marakas, Information Systems Research, Volume 25 (2014), Issue 4, pp. 780-784.

The silver bullet! Hair, J.F./ Ringle, C.M./ Sarstedt, M. PLS-SEM: Indeed a Silver Bullet, Journal of Marketing Theory and Practice, 19 (2011), Issue 2, pp. 139-152.

 

منبع: محسن مرادی و آیدا میرالماسی

آکادمی تحلیل آماری ایران https://analysisacademy.com/

۰ نظر موافقین ۰ مخالفین ۰ ۰۹ فروردين ۰۰ ، ۲۱:۵۵
سید سعید انصاری فر

۰ نظر موافقین ۰ مخالفین ۰ ۰۷ فروردين ۰۰ ، ۲۳:۵۴
سید سعید انصاری فر

قبول سفارشات تحلیل آماری فصل چهار پایان نامه های مدیریت و مقالات علمی پژوهشی با

SPSS

 AMOS

Smart-PLS

LISREL

  

انجام تحلیل آماری و تحلیل های کمی فصل ۴ پایان نامه ارشد و دکتری

خدمات آماری:

1- تعیین حجم نمونه با استفاده از نرم افزار تخصصی  Sample Power

2- تحلیل آماری همبستگی پیرسون و اسپیرمن و ...

3- انجام رگرسیون ساده و چندگانه (پیش بینی)

4- اعتبارسنجی پرسشنامه های استاندارد و محقق ساخته با استفاده از مدل اندازه گیری (روایی سازه)

5-تحلیل مسیر و انجام مدل سازی معادلات ساختاری (تعیین نقش میانجی گری و تعدیل کنندگی)

6- بررسی اعتبار و پایایی پرسشنامه ها با استفاده از تحلیل عاملی تاییدی و اکتشافی و آلفای کرونباخ

7- ارائه گزارش خروجی تحلیل آماری به صورت فرمت قابل پذیرش دانشگاهی و فرمت WORD

۰ نظر موافقین ۰ مخالفین ۰ ۲۰ بهمن ۹۹ ، ۲۰:۳۵
سید سعید انصاری فر

در این آموزش فرض بر اینه که Amos روی رایانه شما نصب شده است. اگر هنوز نرم افزار Amos را نصب نکردید، نرم افزار را نصب کنید و حتما مراحل را یک بار خودتان در نرم افزار انجام دهید. همچنین،  تصور بر این هست که شما تجربه اساسی استفاده از برنامه های ویندوز را دارید. بدین معنی که شما می دانید که چگونه یک مورد را از منو انتخاب کنید، چگونه نشانگر ماوس را حرکت دهید، ماوس را کلیک کنید و دوبار کلیک کنید و …

پیش نیازها :

1-نصب نرم افزار Amos روی سیستم ویندوز

2-آشنایی با محیط ویندوز و کار با منوهای نرم افزاری

با مطالعه مطلب آموزش Amos می توانید :

1- با نرم افزار Amos به طور کامل آشنا شوید.

2- تحلیل آماری پایان نامه و یا مقاله تان را انجام دهید.

3- راه حل اشکالات و خطاهایی که در هنگام استفاده از نرم افزار اموس مشاهده می کنید؛ برطرف نمایید.

و …

پیش فرض های نرم افزار Amos

همونطور که میدونیم مهم ترین پیش فرض های انجام معادلات ساختاری در نرم افزار Amos به شرح زیر است :

  1. مناسب بودن تعداد نمونه ها
  2. رابطه خطی بین متغیرها
  3. عدم وجود کوواریانس با مقدار صفر در بین متغیرها
  4. عدم وجود همخطی بین متغیرها
  5. دیتاها بایستی از نوع فاصله ای باشند.
  6. نرمال بودن توزیع داده ها (گارسون، 2009)

آموزش رسم مدل معادلات ساختاری در نرم افزار Amos

آموزش رسم مدل در نرم افزار اموس

 

 

فرض کنید می خواهیم مدل معادلات ساختاری زیر را در نرم افزار Amos رسم کنیم :

نحوه رسم مدل در Amos

اولش لازمه که بدونیم هر متغیر چندتا گویه یا زیر مقیاس داره که این اطلاعات رو این پایین آوردم

گویه ها و زیر شاخص های متغیرها جهت رسم در نرم افزار Amos به شرح زیر است :

  • زیر مقیاس های متغیر شدت یائسگی شامل : نشانه های جسمانی، نشانه های روانی و نشانه های ادراری
  • زیر مقیاس های متغیر افکار اتوماتیک شامل : افکار سوء استفاده، بدنی، فقدان، شهوانی، انفعال، شکست
  • زیر مقیاس های متغیر طرحواره ها شامل : نا مطلوبیت و طرد شدگی، بی کفایتی، خود ارزشمندی، تنهایی و درماندگی
  • زیر مقیاس های متغیر عملکرد جنسی شامل : میل، تحریک، رطوبت، ارگاسم، رضایت و درد

برای رسم مدل معادلات ساختاری یاد شده مثل شکل زیر از طریق گزینه نشان داده شده تک تک متغیرهای تحقیق را رسم می کنیم. در این شکل با توجه به این که متغیر عملکرد جنسی دارای 6 زیر مقیاس است پس از انتخاب دکمه (Draw a latent variable) 6 بار بر روی صفحه سفید رنگ کلیک چپ می کنیم (تا بتونیم زیر مقیاس های مربوطه را بعدا جایگزین کنیم. در واقع الان داریم قالب متغیرها و زیر شاخص ها رو درست می کنیم.)

رسم مدل در اموس

نحوه رسم متغیر پنهان به همراه متغیرهای آشکار

آموزش تصویری اموس (Amos)

مانند تصویر بالا تمام متغیرها را رسم می کنیم. برای این که جهت متغیرها رو تغییر بدیم می تونیم از دکمه (Rotate the indicators) استفاده کنیم. همچنین برای جا به جایی متغیرها می تونیم از دکمه (Move Objects) استفاده کنیم :

آموزش جا به جایی متغیرها در Amos

البته بهتره که برای جا به جایی متغیر پنهان با گویه های مربوط به خودش، دکمه (Preserve) را فعال کنیم تا با همدیگه قابلیت جا به جا شدن را داشته باشند. حالا وقتشه که اسم متغیرها رو مشخص کنیم. برای اینکار بایستی بر روی متغیر مورد نظر کلیک راست کرده و از منوی باز شده، گزینه (Object properties) را انتخاب کنیم. حال از طریق پنجره باز شده در کادر (Variable name)، به شرح زیر نامگذاری متغیرها رو انجام میدیم.

نامگذاری متغیرها در نرم افزار Amos

توجه داشته باشید که در کادر (Variable name) امکان درج حروف فارسی وجود ندارد. برای نامگذاری فارسی بایستی از کادر (Variable label) استفاده کنیم. این کار را برای تمام متغیرها انجام می دهیم. در ادامه با استفاده از دکمه (draw paths) جهت فلش ها را مشخص می نماییم.

رسم فلش و تاثیر در Amos

پس از رسم پیکان ها در Amos می توان از طریق دکمه (Touch up a variable) (یا همون چوب جادویی خودمون) فلش های رسم شده را مرتب کرد. توجه داشته باشید که هنوز کار رسم مدل تموم نشده، مثل شکل زیر بایستی برای متغیرهایی که بهشون فلش وارد شده ارور بار تعریف کنیم. این کار رو با استفاده از دکمه (add a unique variable) انجام میدیم.

رسم نهایی مدل معادلات ساختاری در Amos

در حال حاضر رسم مدل نهایی شده و کافیه که زیر مقیاس ها و یا گویه های مربوطه رو برای هر شاخص تعریف کنیم. برای این کار لازمه که ابتدا دیتاهای مورد نظر را به نرم افزار معرفی کنیم.

نحوه ورود دیتا به نرم افزار Amos

نحوه ورود داده در نرم افزار اموس

 

  • در مرحله اول برای ورود دیتا بر روی گزینه (Select data file) همانطور که در شکل زیر نشان داده شده است کلیک کنید.
  • در پنجره باز شده بر روی گزینه (File name) کلیک کنید.
  • در پنجره جدید فایل دیتا مورد نظر با فرمت مخصوص SPSS (sav) را پیدا کرده و آن را انتخاب کنید.

نحوه ورود دیتا به Amos

پس از انتخاب دیتای مورد نظر با فرمت گفته شده بر روی گزینه OK کلیک می کنیم. تا به صفحه اصلی نرم افزار AMOS برگردیم.

نحوه ورود دیتا به AMOS

حال بر روی گزینه List Variables in Data set کلیک کرده و متغیرهای مورد نیاز را سر جای خود جایگذاری می نماییم.

آموزش وارد کردن دیتا در AMOS

پس از این که تمامی متغیرها را در جای خود قرار دادیم. لازم است متغیرهای مربوط به خطاها نام گذاری شوند.

برای نام گذاری خودکار متغیرها از طریق منوی Plugins گزینه Name Unobserved Variables را انتخاب می کنیم. با انتخاب این گزینه متغیرهای بدون اسم، نام گذاری می شوند.

نحوه نام گذاری خودکار متغیرها در amos

در شکل زیر مدل معادلات ساختاری مورد نظر پس از نام گذاری نهایی، ملاحظه می شود.

آموزش نام گذاری متغیرها در اموس

توجه داشته باشید که پس از قرار دادن متغیرهای موجود در داده ها در جای خود، به دلیل زیاد بودن طول نوشته متغیرها، از مخفف آنها در مدل استفاده کردیم. (ظاهر مدل با توجه به این که نوشته ها از کادرشون بیرون می زنند خراب میشه. البته می تونیم اندازه مستطیل و دایره ها را بزرگتر کنیم. اما بهتره که همیشه از مخفف متغیرها استفاده کنیم).

حال همه چیز آماده برای اجرای مدل و برآورد پارامترها می باشد.

 

منبع: موسسه آماری کوکرانا 

۰ نظر موافقین ۰ مخالفین ۰ ۱۷ بهمن ۹۹ ، ۲۳:۲۷
سید سعید انصاری فر