2020
DOI: 10.1250/ast.41.67
|View full text |Cite
|
Sign up to set email alerts
|

PSYCHOACOUSTICS: Software package for psychoacoustics

Abstract: Current research in the field of psychoacoustics is mostly conducted using a computer to generate and present the stimuli and to collect the responses of the subject. However, writing the computer software to do this is time-consuming and requires technical expertise that is not possessed by many would-be researchers. We have developed a software package that makes it possible to set up and conduct a wide variety of experiments in psychoacoustics without the need for time-consuming programming or technical exp… Show more

Help me understand this report

Search citation statements

Order By: Relevance

Paper Sections

Select...
1
1
1
1

Citation Types

0
2
0
2

Year Published

2021
2021
2024
2024

Publication Types

Select...
5
1

Relationship

0
6

Authors

Journals

citations
Cited by 7 publications
(4 citation statements)
references
References 58 publications
0
2
0
2
Order By: Relevance
“…Cuando el modelo se entrena con una adecuada base de datos (suficientemente grande, y con abundante información sobre los parámetros distintivos), la capacidad de clasificación para parámetros desconocidos es muy alta, y es posible intuir que este desempeño se puede incrementar en relación con la aplicación específica. En particular, la inclusión de señales acústicas permite aumentar la sensibilidad del sistema en casos de personas poco expresivas o con algún nivel de oclusión en el rostro, algo también mostrado por investigaciones análogas (Sek y Moore, 2020). De igual forma, el modelo acústico se ve fortalecido por el modelo visual, ya que en los casos en los que la voz resulta muy plana, y por tanto difícil de categorizar, el modelo visual compensa las fallas incrementando la clasificación correcta del estado de ánimo.…”
Section: Resultsunclassified
See 1 more Smart Citation
“…Cuando el modelo se entrena con una adecuada base de datos (suficientemente grande, y con abundante información sobre los parámetros distintivos), la capacidad de clasificación para parámetros desconocidos es muy alta, y es posible intuir que este desempeño se puede incrementar en relación con la aplicación específica. En particular, la inclusión de señales acústicas permite aumentar la sensibilidad del sistema en casos de personas poco expresivas o con algún nivel de oclusión en el rostro, algo también mostrado por investigaciones análogas (Sek y Moore, 2020). De igual forma, el modelo acústico se ve fortalecido por el modelo visual, ya que en los casos en los que la voz resulta muy plana, y por tanto difícil de categorizar, el modelo visual compensa las fallas incrementando la clasificación correcta del estado de ánimo.…”
Section: Resultsunclassified
“…Estas estrategias son ampliamente utilizadas en dispositivos portátiles, interfaces de software y robots en los que se utilizan esquemas sencillos de procesamiento de imágenes para identificar características relacionadas con determinados estados emocionales, como la sonrisa, que permite valorar el estado de una persona (Lee et al, 2020;Martínez et al, 2020). Es posible realizar un análisis paralelo de otras señales para complementar la información de la imagen, como es el caso de la señal de voz de la persona, a partir de la cual se puede realizar una caracterización paralela para determinar con mayor precisión el estado emocional (Sek y Moore, 2020). Para esta estrategia, se supone que parámetros como la entonación de la voz y la cadencia de las palabras también pueden representarse como imágenes y, por tanto, procesarse del mismo modo (Balazs et al, 2017).…”
Section: Martínezunclassified
“…In the testing stages of TFS-AF, this study used a special software package published by Moore on the Internet 1 ( Sęk and Moore, 2020 ) with most parameters at the default settings ( Sęk and Moore, 2012 ).…”
Section: Methodsmentioning
confidence: 99%
“…In the testing stages of TFS1, this study uses the special software package published by moore on the Internet(https://www.psychol.cam.ac.uk/hearing)(A. P. Sęk & Moore, 2020). Most of the parameters use the default settings(A.…”
Section: Test For Sensitivity Of Tfsmentioning
confidence: 99%