Turquía
El Programa para la Evaluación Internacional de Alumnos (PISA) provee información muy valiosa a los países participantes puesto que les permite comparar el rendimiento de sus estudiantes con el de los estudiantes de otros países. En este tipo de comparaciones, el constructo analizado debería ser el mismo en todos los grupos, tanto a nivel de ítem como de prueba. El objetivo de este estudio es analizar las respuestas de los estudiantes a 16 ítems de ciencias de puntuación dicotómica de la prueba PISA 2015 para identificar posibles sesgos utilizando procedimientos estadísticos a nivel de ítem. Se utilizaron las respuestas de estudiantes de tres países de Latinoamérica (Chile, Costa Rica y México) para llevar a cabo los análisis del funcionamiento diferencial de los ítems (FDI) entre los diversos grupos culturales. Se identificaron como ítems FDI con alta magnitud de efecto alrededor de un 25% de los ítems en cada par de países. En base a los hallazgos del estudio, se puede concluir que al realizar comparaciones de los resultados de pruebas entre los distintos grupos culturales de este estudio, debería tenerse en cuenta el posible efecto de sesgo en la validez de las interpretaciones y en el uso de los resultados de la prueba de ciencias de PISA 2015.
Programme for International Student Assessment (PISA) provides valuable information to participating countries by allowing them to compare the performance of their students with the performances of students in other countries. When making such comparisons, the construct being measured should be the same across groups at the item and test levels. The purpose of this study was to examine the responses of students to 16 dichotomously scored science items in PISA 2015 for item bias using statistical procedures at the item level. Student data in three Latin American countries (Chile, Costa Rica and Mexico) were used to run the differential item function (DIF) analyses across cultural groups. About 25% of the items for each country pair were detected as DIF items with large effect sizes. Based on the findings of the study, it can be concluded that the possible item bias effect on the validity of the interpretation and the use of PISA 2015 science test results should be considered while comparing the test results across the cultures investigated in this study.