تاثیر مدل وزن دهی بر نمره کل سازی سوابق تحصیلی و رتبه بندی داوطلبان ورود به دانشگاه ها و مراکز آموزش عالی کشور

نوع مقاله: مقاله پژوهشی

نویسندگان

1 دکتری سنجش و اندازه گیری دانشگاه علامه طباطبائی، تهران، ایران.

2 دانشیار گروه سنجش و اندازه گیری دانشگاه علامه طباطبائی، تهران، ایران

3 استاد ممتاز گروه سنجش و اندازه گیری دانشگاه علامه طباطبائی، تهران، ایران.

4 استادیار سازمان سنجش آموزش، تهران، ایران.

چکیده

هدف از پژوهش حاضر شناسایی وزن هریک از دروس سوابق تحصیلی و نمره کل سازی براساس رویکرد روانسنجی مدل پیوسته IRT و رویکردهای مبتنی بر نظر متخصصان تاپسیس و AHP، و همچنین مقایسه اثر مدل وزن دهی بر رتبه بندی و پایایی روش های وزن دهی و نمره کل سازی سوابق تحصیلی بود. روش پژوهش حاضر ترکیبی بود. به منظور اجرای پژوهش در بخش اول 11 آیتم(دروس) سوابق تحصیلی از گروه متخصصان مورد نظرخواهی قرار گرفت و با استفاده از تکنیک های تاپسیس و AHP وزن دهی و اولویت بندی شد. در بخش دوم نمرات دروس نهایی سال سوم متوسطه داوطلبان و پذیرفته شدگان رشته های روانشناسی و مشاوره در دگروه علوم انسانی از سازمان سنجش دریافت شد و جهت برآورد نمرات تتا استفاده شد. به منظور مقایسه ی مدل های مختلف وزن دهی و نمره کل سازی، ابتدا گروه نمونه براساس نمرات حاصل از هر سه رویکرد رتبه بندی شده، و از لحاظ شاخص های پراکندگی و میزان تفاوت رتبه ها مقایسه شد. نتایج مقایسه سه رویکرد نشان داد بیشترین واریانس مربوط به روش نمره کل سازی با مدل پیوسته IRT است. نتایج تحلیل آماری مبنی بر آزمون ویل کاکسون جهت مقایسه متوسط رتبه ها نشان داد در حجم نمونه ی کم روش وزن دهی به هر سه روش نسبت به روش وزن های یکسان تفاوت معنادار در رتبه ها ایجاد می کند و بنابراین مدل وزن دهی در رتبه بندی داوطلبان در حجم نمونه کم تاثیر می گذارد. اما بین سه مدل وزن دهی تفاوت معناداری در رتبه بندی داوطلبان مشاهده نمی شود. همچنین نتایج نشان داد در حجم نمونه بالا(2000 نفر) روش وزن دهی به هر سه روش نسبت به روش وزن های یکسان تفاوت معنادار در رتبه ها ایجاد می کند. نتایج تحلیل داده ها نشان داد نمرات بدست آمده از مدل پیوسته IRT نسبت به دو روش دیگر در رتبه بندی داوطلبان تاثیر متفاوتی می گذارد . نمرات روش IRT پایایی بالاتری نسبت به روش های مبتنی بر نظر خواهی از متخصصان دارد. با این وجود به نظر نمی رسد روش وزن دهی بر میزان پایایی نمرات تاثیر معناداری داشته باشد.

کلیدواژه‌ها


عنوان مقاله [English]

The effect of weighting model on the scoring of educational background and ranking of volunteers entering universities and higher education institutions of the Iran

نویسندگان [English]

  • meysam sadeghi 1
  • mohammadreza falsafinejad 2
  • ali delavar 3
  • noorali farrokhi 2
  • ehsan jamali 4
1 Ph.D. in Measurement and Measurement, Allameh Tabataba'i University, Tehran, Iran.
2 Associate Professor, Department of Measurement and Measurement, Allameh Tabataba'i University, Tehran, Iran
3 Distinguished Professor, Department of Measurement and Measurement, Allameh Tabataba'i University, Tehran, Iran.
4 Assistant Professor of Sanjesh Organization, Tehran, Iran.
چکیده [English]

The purpose of the present study was to identify the weight of each of the courses of academic record and scoring based on the psychometric approach of the IRT continuous model and approaches based on the viewpoint of the specialists of Topsis and AHP. The method of this study was a combination. In order to conduct research in the first part, 11 items (courses) of academic background were taken from the expert group and weighed and prioritized using Tapis and AHP techniques. The final third year grades of secondary school students were received from the assessment organization and accepted for psychology and counseling in the humanities group. Theta tests were used to estimate the grades. In order to compare different weighting and grading models, the sample group was first ranked based on scores derived from all three approaches, and compared in terms of dispersion indices and the degree of difference between rankings. The results of the comparison of the three approaches indicated that the most variance is related to the IRT continuous modeling method. The results of Wilcoxon's statistical analysis to compare the average rankings showed that in the small sample size, the weighting method in all three methods produced a significant difference in the rankings compared to the same weight method, and therefore the weighting model in the ranking of the volunteers In small sample size affects. But there are no significant differences between the three weighting models in the candidate ranking. Also, the results showed that in the high sample size (2000 persons), the weighting method in all three methods compared to the same weights makes a significant difference in the rankings. IRT method scores are more reliable than expert-based approaches.However, the weighting method does not seem to have a significant effect on the reliability of the scores.

کلیدواژه‌ها [English]

  • Weighting
  • Scoring and Ranking
  • IRT Continuous Model
  • TOPSIS
  • AHP
یوسف زاده چوسری، محمدرضا؛ محمد گنجی نیک، فرشته و خرم آبادی، یدالله. (1392). پیامدهای طرح حذف کنکور از دیدگاه دبیران و ‌دانش‌آموزان دوره ی پیش دانشگاهی شهر همدان در سال تحصیلی 90-89. مجله پژوهش علوم انسانی، 12(30)، 103-117.

Adams, R. M. & Murphy, J. L. (1982). The achieved weights of examination components. Educational Studies. 8(1), 15-22.

Dawes, R. (1976). The robust beauty of improper linear models in decision making. American Psychologist, 34(7), 571-582.

Forrest, G. M. (1974). The presentation of results. In H. G. Macintosh (Ed.), Techniques and problems of assessment. London: Edward Arnold.

French, S. (1985). The weighting of examination components. Statistician. 34. 265-280.

Feldt, L. S. (2004). Estimating the reliability of a test battery composite or a test score based on weighted item scoring. Measurement and Evaluation in Counseling and Development, 37, 184-190.

Gulliksen, H.O (1950). Theory of Mental Tests. New York: John Wiley and Sons, Inc.

Hambleton,R & Swaminathan,H & Rogers,H.J (1991).fundamentals of item response theory. Newbury Park, CA

Lindquist, E. F. (1940). Statistical analysis in educational research. Boston: Houghton Mifflin.

Lord,F. M(1980).Applications of item response theory to practical testing problems. Hillsdale, NJ: Lawrence Erlbaum Associates.

Ount S, Soner S(2008). Transshipment site selection using the AHP and TOPSIS approaches under fuzzy environment. Waste Management.;28(9):1552-59.

Sawilowsky,S. (2000). Psychometrics versus Datametrics: Comment on Vacha-Haase’s “Reliability Generalization” Method and Some Epm Editorial Policies. Educational and Psychological Measurement, vol. 60(2):157-173.

Thompson,B , Haase, T. (2000). Psychometrics is Datametrics: the Test is not Reliable. Educational and Psychological Measurement, vol. 60, no. 2, pp. 174-195.

Thyne, J. M. (1966). What is the weight of an examination paper? British Journal of Educational Psychology. 36. 321-326.

Vernon, P. E. (1940). The measurement of abilities. London: University of London Press.

Wainer, H. & Thissen D. (1993). Combining multiple-choice and constructed response test scores: Toward a marxist theory of test construction, Applied Measurement in Education, 6(2), 103-118.

Wang, M.D. & Stanley J.C. (1970). Differential weighting: A review of methods and empirical studies. Review of Educational Research, 40, 663-705.

Yoon, K.P.; Hwang, C. (1995). Multiple Attribute Decision Making: An Introduction. California: SAGE publications.

Zopluoglu C. (2013). A comparison of two estimation algorithms for Samejima's continuous IRT model. Behav Res Methods, 45(1):54-64.