2018
DOI: 10.1080/10627197.2018.1427570
|View full text |Cite
|
Sign up to set email alerts
|

Validation of Automated Scoring for a Formative Assessment that Employs Scientific Argumentation

Help me understand this report

Search citation statements

Order By: Relevance

Paper Sections

Select...
1
1
1
1

Citation Types

1
37
0
4

Year Published

2018
2018
2023
2023

Publication Types

Select...
8

Relationship

2
6

Authors

Journals

citations
Cited by 57 publications
(42 citation statements)
references
References 23 publications
1
37
0
4
Order By: Relevance
“…These scoring systems identify important conceptual components in student responses, which then can be used to classify responses. Other efforts have applied automated scoring systems to assess scientific practices in middle school science, such as argumentation (Mao et al 2018;Haudek et al 2019). These efforts identified key components of the practice of argumentation (e.g., claim) via automated scoring.…”
Section: Machine Learning Of Constructed Response Assessmentsmentioning
confidence: 99%
See 1 more Smart Citation
“…These scoring systems identify important conceptual components in student responses, which then can be used to classify responses. Other efforts have applied automated scoring systems to assess scientific practices in middle school science, such as argumentation (Mao et al 2018;Haudek et al 2019). These efforts identified key components of the practice of argumentation (e.g., claim) via automated scoring.…”
Section: Machine Learning Of Constructed Response Assessmentsmentioning
confidence: 99%
“…Other previous work has used multi-leveled coding schemes to try to characterize the quality of complete student responses (Liu et al 2016;Mao et al 2018;Wiley et al 2017). Such holistic coding schemes may be developed based on "correctness" of an explanation; however, not all such schemes may be closely tied to an underlying framework.…”
Section: Challenges In Applying Coding Approaches To Machine Learningmentioning
confidence: 99%
“…B. dem Kodierleitfaden) verglichen werden, um auf diese Weise den automatisierten Auswertungsprozess inhaltlich zu prüfen (Williamson et al 2012;Yang et al 2002). Über Korrelationsanalysen lässt sich darüber hinaus ermitteln, ob die Kodierung durch die Algorithmen stärker durch die Antwortlänge beeinflusst wird als die menschliche Kodierung, was als Mangel für Validität betrachtet wird (Mao et al 2018).…”
Section: üBerprüfung Der Güte Des Maschinellen Lernensunclassified
“…Hierzu wird die Übereinstimmung zwischen menschlicher und computerbasierter Kodierung sowie der Prozess der automatisierten Kodierung untersucht (Yang et al 2002 Eine hohe Übereinstimmung der durch die Algorithmen besonders stark gewichteten Attribute mit den Ausführungen im Kodierleitfaden (F3) wird als Evidenz für eine valide Interpretation der durch die Algorithmen vorgenommenen Kodierung betrachtet (Williamson et al 2012). Ferner liefern Korrelationsanalysen zwischen den durch die Algorithmen kodierten Niveaus mit der externen Variable "Antwortlänge" (F4) Hinweise darauf, inwieweit die Algorithmen von einem Oberflächenmerkmal beeinflusst werden (Mao et al 2018 Tab. 2 und 3).…”
Section: Zielsetzung Und Fragestellungenunclassified
“…The argument is increasingly recognized as a fundamental and important intellectual skill to be learned (Crowell & Kuhn 2014;Scheuer, Pinkwart, & McLaren 2010). Arguments become a core part that should be applied in the classroom (Mao, Liu, Roohr, Belur, Mulholland, Lee, & Pallant 2018). Many international educational curricula that requires students to be able to participate in the argument, debate, and decision-making on science issues (Dawson & Carson 2017).…”
Section: Introductionmentioning
confidence: 99%