2016
DOI: 10.1002/jcu.22379
|View full text |Cite
|
Sign up to set email alerts
|

Impact of clinical training on supra‐aortic duplex and transcranial doppler examination concordance

Abstract: Sonographic tests are observer-dependent. With 1,527 consecutive patients, 22 trainees were assessed at baseline and after a hands-on 1:1 program, with a pre-examination median of 76 studies/trainee. We evaluated the required number of supervised examinations to reach a 0.80 kappa index (ki). Statistics included linear and exponential generalized estimating equation models. In the exponential model, 76 studies for carotid-duplex and >102 for vertebral-duplex and transcranial Doppler were needed for a 0.80 ki. … Show more

Help me understand this report

Search citation statements

Order By: Relevance

Paper Sections

Select...
1

Citation Types

0
0
0
1

Year Published

2019
2019
2021
2021

Publication Types

Select...
2

Relationship

0
2

Authors

Journals

citations
Cited by 2 publications
(1 citation statement)
references
References 21 publications
0
0
0
1
Order By: Relevance
“…Dados expressos pelo valor do coeficiente de Kappa (k) e seu Intervalo de Confiança (IC) 95% Na administração de dieta/água pela SNE 0,42 (0,37-0,67) 0,94 (0,81-1*) 0,89 (0,64-0,92) 0,90 (0,78-1*) 0,83 (0,70-0,99) 0,76 (0,67-0,96) 0,85 (0,73-1*) 0,86 (0,78-1*) 0,94 (0,81-1*) AP -Assistente de Pesquisa; k -Coeficiente Kappa -de 0 a 0,19 = concordância pobre, de 0,20-0,39 = concordância relativa, de 0,40-0,59 = concordância moderada, 0,60-0,79 = concordância substancial, 0,80-0,99 = concordância quase perfeita, e 1,00 = concordância perfeita; IC -Intervalo de Confiança (*valores de Intervalo de confiança matematicamente calculados > 1, considerados = 1) índice de Kappa alcançado no segundo estágio do treinamento foi de k=0,80 para ecografias de carótida, k=0,39 vertebral e k=0,54 para dopller transcraniano, o que permite concluir que um treinamento fixo não garante elevada concordância interobservadores. (25) Ainda que todos os auxiliares de pesquisa do presente estudo tenham recebido a mesma capacitação e supervisão antes da avaliação em duplicata, observou-se leve diferenças de desempenhos. Para alguns, a concordância comparada ao padrão referência foi perfeita, enquanto outros apresentaram mais discordâncias, em alguns itens.…”
Section: Discussionunclassified
“…Dados expressos pelo valor do coeficiente de Kappa (k) e seu Intervalo de Confiança (IC) 95% Na administração de dieta/água pela SNE 0,42 (0,37-0,67) 0,94 (0,81-1*) 0,89 (0,64-0,92) 0,90 (0,78-1*) 0,83 (0,70-0,99) 0,76 (0,67-0,96) 0,85 (0,73-1*) 0,86 (0,78-1*) 0,94 (0,81-1*) AP -Assistente de Pesquisa; k -Coeficiente Kappa -de 0 a 0,19 = concordância pobre, de 0,20-0,39 = concordância relativa, de 0,40-0,59 = concordância moderada, 0,60-0,79 = concordância substancial, 0,80-0,99 = concordância quase perfeita, e 1,00 = concordância perfeita; IC -Intervalo de Confiança (*valores de Intervalo de confiança matematicamente calculados > 1, considerados = 1) índice de Kappa alcançado no segundo estágio do treinamento foi de k=0,80 para ecografias de carótida, k=0,39 vertebral e k=0,54 para dopller transcraniano, o que permite concluir que um treinamento fixo não garante elevada concordância interobservadores. (25) Ainda que todos os auxiliares de pesquisa do presente estudo tenham recebido a mesma capacitação e supervisão antes da avaliação em duplicata, observou-se leve diferenças de desempenhos. Para alguns, a concordância comparada ao padrão referência foi perfeita, enquanto outros apresentaram mais discordâncias, em alguns itens.…”
Section: Discussionunclassified