خیال فریبنده استدلال: خوانش تاریخگرایی نوین از داستانهای استدلالی ادگار آلن پو
- رشته تحصیلی
- زبان وادبیات انگلیسی
- مقطع تحصیلی
- کارشناسی ارشد
- محل دفاع
- کتابخانه دانشکده زبانها و ادبیات خارجی شماره ثبت: 2/2080;کتابخانه مرکزی -تالار اطلاع رسانی شماره ثبت: 80906;کتابخانه دانشکده زبانها و ادبیات خارجی شماره ثبت: 2/2080;کتابخانه مرکزی -تالار اطلاع رسانی شماره ثبت: 80906
- تاریخ دفاع
- ۲۷ دی ۱۳۹۵
- دانشجو
- زهرا پناهی نائینی
- استاد راهنما
- زهره رامین
- چکیده
- معتبر و عادلانه بودن از عناصر اصلی هر تست استاندارد است. زمانی که سوال ها در عملکرد آزمون دهندگان با ویژگی های گوناگون، کارکردی افتراقی داشته باشند، ممکن است اعتبار آن نقض گردد. کارکرد افتراقی سوال/ آزمون که به صورت بالقوه در تفسیر نتایج آزمون تاثیر گذار است، معمولا سوال/آزمون متعصبانه نامیده می شود. محققان تلاش کرده اند برای توسعه سوال/آزمون عادلانه و غیر متعصبانه و بالابردن کیفیت تفسیر آنها، روش ها و شیوه های چالشی مانند لاجستیک ریگرشن ( Logistic Regression)، منتل هنستزل (Mantel-Haenszel) و ایتم ریسپانس تئوری ( Item Response Theory) را ایجاد کنند تا به شناسایی سوال هایی بپردازند که درآزمون کارکرد افتراقی دارند. این روند کارکرد افتراقی سوال (DIF) نامیده می شود. تحقیق حاضر با استفاده از مدل مولتی دیمنشنال رش (Multidimensional Rasch) به بررسی وجود کارکرد افتراقی سوالات میان دو گروه آزمون دهنده که در آزمون سراسری ورودی زبان های خارجی دانشگاه های ایران (INUEEFL) که یک آزمون توانش زبانی سرنوشت ساز با 70 سوال است و درسال 2011 برگزار شد، شرکت کرده اند. شرکت کنندگان با دانش پیشین ریاضی و انسانی، هر گروه با 1500 عضو، به صورت تصادفی از میان103121 شرکت کننده انتخاب شدند. نتایج این تحقیق نشان داد از بین 70 سوال آزمون، پنج سوال عملکرد افتراقی بالا و یا قابل توجهی دارند، تنها یکی از این سوال ها به نفع گروه علوم انسانی و چهار سوال دیگر به نفع گروه ریاضی بود. میزان کلی تاثیر دانش پیشین تفاوت عددی 0.48 را به نفع گروه ریاضی نشان می دهد (که میزان قابل ملاحظه ای از کارکرد افتراقی سوال ها نیست). اگر چه این مقدار به عنوان افتراق قابل ملاحظه ای در نظر گرفته نمی شود و آزمون برای هیچ یک از گروه ها متعصبانه و غیرعادلانه نیست اما حتی این میزان افتراق در یک چنین آزمون سرنوشت سازی قابل قبول نیست. این تحقیق به صاحبنظران در آزمون سازی پیشنهاد می کند تا کارکرد افتراقی سوال را برای هرسوال به کاربرند تا سوال های نادرست را برای تفسیر بهتر نتایج آزمون ها شناسایی کنند. نتایج نشان داد که وجود تعدادی سوال با کارکرد افتراقی بالا لزوما موجب آزمون ناعادلانه نمی شود. نتیجه دیگر این تحقیق این بود که بررسی استقلال موضعی سوال ها، بویژه در آزمون های چهارگزینه ای فرصت گمانه زنی آزمون دهندگان را کاهش می دهد.
- Abstract
- Validity and fairness as crucial elements of any standard test may be violated when items function differently in the performance of test takers with various characteristics. The difference in the item/test functioning is normally called item/test bias that can potentially affect the interpretation of test results. To develop unbiased and fair items/tests and improve the quality of interpretations, researchers attempted to develop challenging procedures and techniques, e. g., Logistic Regression, Mantel-Haenszel and Item Response Theory, to detect items that function differently in tests. This procedure is normally called Differential Item Functioning (DIF). The present study used Multidimensional Rasch model to examine the presence of DIF between two groups of test takers on Iranian National University Entrance Examination for Foreign Language (INUEEFL), a 70-item high-stakes language proficiency test, which was administered in 2011. Participants with Mathematics (N=1500) and Humanities background (N=1500) were randomly selected out of 103121participants who took the test. The results indicated five items out of the 70 items showed noticeable or large DIF, one item favored the Humanities group and four items favored the Mathematics group. The overall main effect size for academic background showed a 0.48 logit differences (moderate DIF) in favor of the Mathematics group. Although the effect size could not be considered as a large difference and the total test was not biased or unfair against any group, even such a small difference on such a high-stakes test is not be acceptable. This study suggests testing authorities to perform DIF on each item to detect misfitting items for a better interpretation of test results. The results indicate that existence of a number of items with large DIF does not necessarily lead to unfair test. Another implication of the study is that checking local independency of items, particularly in multiple choice tests, will decrease guessing chance of test takers. Key words: Differential Item Functioning, Item Bias, Item Response Theory, Multidimensionality, The Rasch Model, Fairness