نوع مقاله : مقاله پژوهشی
نویسندگان
1 دانشجوی دکترا، گروه زبان انگلیسی، دانشکده ی ادبیات و زبانهای خارجی، واحد کرج، دانشگاه آزاد اسلامی، کرج، ایران
2 استادیار، گروه زبان انگلیسی، دانشکده ی ادبیات و زبانهای خارجی ، واحد کرج، دانشگاه آزاد اسلامی، کرج، ایران
چکیده
عوامل مختلفی از جمله ژانر نگارش، داستانپردازی و یا طول آزمون میتوانند بر فرایندهای ذهنی مصححین هنگام نمرهدهی به آزمونهای نگارش تأثیر بگذارند. در این راستا، اینکه آیا افزایش یا کاهش طول آزمون تأثیری بر چگونگی سنجش ارزیابها از عملکرد نوشتاری آزموندهندگان دارد، انگیزه اصلی انجام این پژوهش بود. بدین منظور، 12 فراگیر زبان انگلیسی که در بخش نگارش آزمون آزمایشی آیلتس نمره بین 5/5 تا 5/7 دریافت کرده بودند، از طریق نمونهگیری در دسترس انتخاب شدند. شرکتکنندهها سه مقاله استدلالی به صورت نسخه اصلی، بلندتر و کوتاهتر نوشتند. هر یک از سه نسخه آزموندهنده گان، سپس توسط سه ارزیاب با استفاده از مقیاس تصحیح نگارش تکلیف دوم آیلتس تصحیح شد. در این میان، ارزیابها پروتکلهای شفاهی هم ارائه دادند که در آنها به توضیح جزئی دلایل اصلیشان برای اختصاص نمرهها به هر مقاله پرداختند. سپس، پروتکلهای شفاهی به نوشته بازگردانده شدند و محتوای آنها با استفاده از نرمافزار ان.وی.وو نسخه 11 تجزیه و تحلیل شد تا مضمون های اصلی ذکرشده توسط ارزیابها در نمرهدهی به هر آزمون نوشتاری استخراج شود. یافتهها نشان داد که ارزیابها توجه ویژهای به برخی از معیارهای موجود در مقیاس تصحیح نگارش آیلتس داشتند و برخی عوامل را نادیده گرفتند. با این وجود، یک الگوی مشابه در میان همه ارزیابها در نمرهدهی سه آزمون نوشتاری وجود داشت. یافتهها نشاندهنده وجود تفاوتهای معنادار در فرایندهای ذهنی ارزیابها هنگام نمرهدهی به هر سه آزمون نگارش نبود. نتیجه این پژوهش نشان داد طول آزمون عامل تأثیرگذاری بر فرایندهای ذهنی ارزیابها در آزمونهای نگارشی نبود. در نتیجه، ارزیابها و طراحان آزمون نیازی نیست نگران تأثیرگذاری طول آزمون بر نمرهدهی ارزیابها باشند.
کلیدواژهها
- Ackerman, P. L., & Kanfer, R. (2009). Test length and cognitive fatigue: An empirical examination of effects on performance and test-taker reactions. Journal of Experimental Psychology: Applied, 15(2), 163-181. https://doi.org/10.1037/a0015719
- Ahmad, B. A. D. (2021). Effect of time allotment on test scores for academic writing of Indonesian learners of English. Multicultural Education, 7(1), 134-141.
- Alderson, J. C., & Banerjee, J. (2002). Language testing and assessment (Part 2). Language Teaching, 35(2), 79-113. https://doi.org/10.1017/S0261444802001751
- Asadi Vahdat, Z., & Tavassoli, K. (2019). A comparison of the effects of task repetition and elicitation techniques on EFL learners’ expository and descriptive writing. Language Horizons, 3(1), 243-267. https://doi.org/10.22051/lghor.2019.27890.1173
- Attali, Y. (2016). A comparison of newly-trained and experienced raters on a standardized writing assessment. Language Testing, 33(1), 1-17. https://doi.org/10.1177/0265532215582283
- Bachman, L. F. (1990). Fundamental considerations in language testing. Oxford University Press.
- Barkaoui, K. (2019). Examining sources of variability in repeaters’ L2 writing scores: The case of the PTE Academic writing section. Language Testing, 36(1), 3-25. https://doi.org/10.1177/0265532217750692
- Biber, D., Gray, B., & Poonpon, K. (2011). Should we use characteristics of conversation to measure grammatical complexity in L2 writing development? TESOL Quarterly, 45(1), 5-35. https://doi.org/10.5054/tq.2011.244483
- Bijani, H. (2018). The investigation of rater expertise in oral language proficiency assessment: A multifaceted Rasch analysis. Language Horizons, 2(2), 103-124. https://doi.org/10.22051/lghor.2019.26072.1123
- Brown, J. D. (2005). Testing in language programs (2nd ed.). McGraw-Hill College.
- Coe, K., & Scacco, J. M. (2017). Content analysis, quantitative. In C. S. Davis & R. F. Potter (Eds.), The international encyclopedia of communication research methods (pp. 1-11). John Wiley & Sons, Inc.
- Cohen, A. D. (2003). Learner strategy training in the development of pragmatic ability. In A. Martinez Flor, E. Usó Juan, & A. Fernández Guerra (Eds.), Pragmatic competence and foreign language teaching (pp. 93-108). Publicacions de la Universitat Jaume I.
- Dörnyei, Z. (2007). Research methods in applied linguistics: Quantitative, qualitative, and mixed methodologies. Oxford University Press.
- Ducasse, A. M. (2010). Interaction in paired oral proficiency assessment in Spanish: Rater and candidate input into evidence-based scale development and construct definition. Peter Lang.
- Duijm, K., Schoonen, R., & Hulstijn, J. H. (2018). Professional and non-professional raters’ responsiveness to fluency and accuracy in L2 speech: An experimental approach. Language Testing, 35(4), 501-527. https://doi.org/10.1177/0265532217712553
- Eckes, T. (2012). Operational rater types in writing assessment: Linking rater cognition to rater behavior. Language Assessment Quarterly, 9(3), 270-292. https://doi.org/10.1080/15434303.2011.649381
- Esfandiari, R., & Noor, P. (2019). Iranian EFL raters’ cognitive processes in rating IELTS speaking tasks: The effect of expertise. Journal of Modern Research in English Language Studies, 5(2), 41-76. https://doi.org/10.30479/jmrels.2019.9383.1248
- Fazilatfar, A., Kasiri, F., & Nowbakht, M. (2020). The comparative effects of planning time and task conditions on the complexity, accuracy, and fluency of L2 writing by EFL learners. Iranian Journal of Language Teaching Research, 8(1), 93-110.
- Han, Q. (2016). Rater cognition in L2 speaking assessment: A review of the literature. Teachers College, Columbia University Working Papers in TESOL & Applied Linguistics, 16(1), 1-24. https://doi.org/10.7916/D82R53MF
- Hoora, E. (2019). The effect of the duration of IELTS speaking test on examiners’ evaluation of candidates’ performance [Unpublished Master’s thesis]. Karaj Islamic Azad University, Iran.
- Huang, J., & Foote, C. J. (2010). Grading between the lines: What really impacts professors’ holistic evaluation of ESL graduate student writing? Language Assessment Quarterly, 7(3), 219-233. https://doi.org/10.1080/15434300903540894
- Humphrey-Murto, S., Shaw, T., Touchie, C., Pugh, D., Cowley, L., & Wood, T.J. (2021). Are raters influenced by prior information about a learner? A review of assimilation and contrast effects in assessment. Advances in Health Sciences Education, 25(2), 4-24. https://doi.org/10.1007/s10459-021-10032-3
- Kang, H. S., & Veitch, H. (2017). Mainstream teacher candidates’ perspectives on ESL writing: The effects of writer identity and rater background. TESOL Quarterly, 51(2), 249-274. https://doi.org/10.1002/tesq.289
- Llosa, L., & Malone, M. E. (2019). Comparability of students’ writing performance on TOEFL iBT and in required university writing courses. Language Testing, 36(2), 235 263.
- Lumley, T. (2005). Assessing second language writing: The rater’s perspective. Peter Lang.
- Marcoulides, G. A., & Ing, M. (2014). The use of generalizability theory in language assessment. In A. J. Kunnan (Ed.), The companion to language assessment: Evaluation, methodology and interdisciplinary themes (Vol. 3, pp. 124-141). John Wiley & Sons, Inc.
- May, L. (2011). Interactional competence in a paired speaking test: Features salient to raters. Language Assessment Quarterly, 8(2), 127-145. https://doi.org/10.1080/15434303.2011.565845
- Oh, S. (2020). Second language learners’ use of writing resources in writing assessment. Language Assessment Quarterly, 17(1), 60-84. https://doi.org/10.1080/15434303.2019.1674854
- Plakans, L. (2014). Written discourse. In A. J. Kunnan (Ed.), The companion to language assessment: Evaluation, methodology and interdisciplinary themes (Vol. 3, pp. 305317). John Wiley & Sons, Inc.
- Purpura, J. E. (2004). Assessing grammar. Cambridge University Press.
- Purpura, J. E. (2014). Cognition and language assessment. In A. J. Kunnan (Ed.), The companion to language assessment (Vol. 3, pp.1452-1476). John Wiley & Sons, Inc.
- Sahin, A., & Anil, D. (2017). The effects of test length and sample size on item parameters in 1452item response theory. Educational Sciences: Theory & Practice, 17(1), 321-335. https://doi.org/10.12738/estp.2017.1.0270
- Sahragard, R., & Mallahi, O. (2014). Relationship between Iranian EFL learners’ language learning styles, writing proficiency, and self-assessment. Social and Behavioral Sciences, 98(1), 1611-1620. https://doi.org/10.1016/j.sbspro.2014.03.585
- Sawaki, Y. (2007). Construct validation of analytic rating scales in a speaking assessment: Reporting a score profile and a composite. Language Testing, 24(3), 355-390. https://doi.org/10.1177/0265532207077205
- Shirai, Y., & Vercellotti, M. L. (2014). Language acquisition and language assessment. In A. J. Kunnan (Ed.), The companion to language assessment: Evaluation, methodology and interdisciplinary themes (Vol. 3, pp. 300-314). John Wiley & Sons, Inc.
- University of Cambridge ESOL examinations. (2015). Cambridge English IELTS 10 with answers: Authentic examination papers from Cambridge English language assessment. Cambridge University Press.
- Van Batenburg, E. S., Oostdam, R. J., Van Gelderen, A. J., & De Jong, N. H. (2018). Measuring L2 speakers’ interactional ability using interactive speech tasks. Language Testing, 35(1), 75-100. https://doi.org/10.1177/0265532216679452
- Weigle, S. C. (2002). Assessing writing. Cambridge University Press.
- Wind, S. A. (2019). A nonparametric procedure for exploring differences in rating quality across test-taker subgroups in rater-mediated writing assessments. Language Testing, 36(4), 595-616. https://doi.org/10.1177/0265532219838014