عناصر مشابهة

استخدام نظرية إمكانية التعميم في تقدير ثبات اختبار تقييم كفاءة الرياضيات لدى طلاب السنة الرابعة ابتدائي

تفصيل البيانات البيبلوغرافية
العنوان بلغة أخرى:Using Generalizability Theory in Estimating Reliability of a Mathematical Competence Assessment Test of Fourth Year Primary School Students
المصدر:المجلة الأردنية في العلوم التربوية
الناشر: جامعة اليرموك - عمادة البحث العلمي
المؤلف الرئيسي: طباع، فاروق (مؤلف)
المجلد/العدد:مج16, ع1
محكمة:نعم
الدولة:الأردن
التاريخ الميلادي:2020
الصفحات:1 - 18
ISSN:1814-9480
رقم MD:1059844
نوع المحتوى: بحوث ومقالات
اللغة:Arabic
قواعد المعلومات:EduSearch
مواضيع:
رابط المحتوى:
الوصف
المستخلص:استخدمت الدراسة الحالية نظرية إمكانية التعميم في تقدير ثبات اختبار تقييم كفاءة الطلاب في الرياضيات، وأثناء الدراسة، طبق اختبار يشتمل تسع مهمات معقدة موزعة على ثلاث صيغ: أ) ثلاث مهمات محكمة البناء، ب) ثلاث مهمات غير محكمة البناء، ج) ثلاث مهمات ذات معلومات مشوشة، كأساس لتقييم كفاءة الأعداد والحساب، على عينة مكونة من (331) طالباً في السنة الرابعة ابتدائي. وقد شارك في عملية تقييم أداء الطلاب ثلاثة مقدرين مدربين باستخدام شبكات تصحيح تحليلية، وتم تحليل البيانات بواسطة تصميم ثنائي البعد متقاطع كلياً "طالب × مهمة × مقدر" باستخدام حزمة "EduG". أظهرت نتائج الدراسة وجود مصادر خطأ كبيرة راجعة إلى أثر تفاعل الطالب مع المهمة والتأثير الرئيسي للمهمة. ومن أجل ضمان مستويات ثبات مقبولة يجب زيادة عدد المهمات وليس عدد المقدرين. كما ينبغي العناية أثناء استخدام المهمات المعقدة في قياسات تقييم الكفاءة.

The current study used Generalizability Theory to estimate the reliability of a mathematical competence assessment test. During the study, the test was composed of nine different complex task formats: a) three well-defined tasks, b) three ill -defined tasks and c) three tasks with parasite data. These tasks were administered to a sample of (331) fourth year primary school students. Three trained raters participated in the scoring process by means of analytic scoring rubrics. Data collected were analyzed in terms of a fully crossed two-faceted design "person × task × rater" using "EduG" package. Research results showed substantial sources of error due to person-task interaction effect and task main effect. To ensure acceptable levels of reliability, the number of tasks should be increased but not the number of raters. As such, special caution should be put on the use of complex tasks in competence assessment measures.