Automatic term extraction is a branch of Natural Language Processing (NLP) used to automatically generate lexicographic materials, such as glossaries, vocabularies, and dictionaries. It allows the creation of standard bases for building unified theories and translations between languages. Scientific literature shows great interest in the construction of automatic term extractors and includes several approaches, tools, algorithms, and methods that can be used for their construction; however, the number of articles in specialized databases is vast, and literature reviews are not recent. This paper presents a systematic literature mapping of the existing material for developing automatic term extractors to provide an overview of approaches, tools, algorithms, and methods used to create them. For this purpose, scientific articles in the domain published between 2015 and 2022 are reviewed and categorized. The mapping results show that among the most used approaches are statistical, with 21.85%; linguistic, with 9.75%; and hybrid, with 68.29%. In addition, there are various computational tools for terminology extraction where authors use different methods for their construction and whose results are measured under the criteria of precision and recall. Finally, 113 documents were selected to answer the research questions and to demonstrate how automatic term extractors are constructed. This paper presents a global summary of primary studies as an essential tool to approach this type of computational system construction.
Un estudio de tendencias consiste en revisar y analizar gran cantidad de información de una disciplina, desde diferentes fuentes de información. En este artículo se muestran los principales temas tendencia en ciencias de la computación a nivel mundial, teniendo en cuenta los avances de la industria 4.0. La literatura existente plantea un gran interés por la aplicación práctica de temas teóricos de la academia en el sector productivo y gubernamental. Se hace necesario presentar los temas de tendencia actuales en distintos sectores y contextos. De esta manera, se presenta un estudio desde la perspectiva de los gobiernos, la empresa y la academia, el cual evidencia los temas pertinentes en ciencias de la computación. La intención es que sirva como insumo importante para una articulación entre el sector académico, gubernamental y productivo para una posterior contribución en el desarrollo de los países.
Los avances en tecnología de la información (TI) se han convertido en un factor determinante para el aumento de la eficiencia y productividad de diversos sectores económicos. Sin embargo, en el sector agrícola, especialmente en América Latina, no se ha beneficiado totalmente de estos avances. Este artículo pretende por medio del uso de la metodología de estudio de caso, determinar cuáles serían los potenciales beneficios de una aplicación agrícola, desde el punto de vista de diferentes actores de la cadena productiva del café. La investigación permitió identificar los potenciales beneficios de una aplicación de este tipo: (i) generar un sistema de alertas para las tareas agrícolas; (ii) ayudar a calcular las ganancias generadas; (iii) brindar información sobre el clima y los precios de venta de las cosechas; (iv) tener un registro que permita la trazabilidad del café entregado; y (v) informar al productor de la calidad del café que entregó. Finalmente, se identificaron algunas limitaciones como el bajo nivel digital de algunos de los posibles usuarios y la restringida conexión a internet en algunas zonas donde está ubicada la población estudiada.
scite is a Brooklyn-based organization that helps researchers better discover and understand research articles through Smart Citations–citations that display the context of the citation and describe whether the article provides supporting or contrasting evidence. scite is used by students and researchers from around the world and is funded in part by the National Science Foundation and the National Institute on Drug Abuse of the National Institutes of Health.