Programming by demonstration techniques facilitate the programming of robots. Some of them allow the generalization of tasks through parameters, although they require new training when trajectories different from the ones used to estimate the model need to be added. One of the ways to re-train a robot is by incremental learning, which supplies additional information of the task and does not require teaching the whole task again. The present study proposes three techniques to add trajectories to a previously estimated task-parameterized Gaussian mixture model. The first technique estimates a new model by accumulating the new trajectory and the set of trajectories generated using the previous model. The second technique permits adding to the parameters of the existent model those obtained for the new trajectories. The third one updates the model parameters by running a modified version of the Expectation-Maximization algorithm, with the information of the new trajectories. The techniques were evaluated in a simulated task and a real one, and they showed better performance than that of the existent model.
Resumen-Industrial robots are having major involvement in assembly lines, where they are able to identify, classify and even grasp objects and place them in non-default locations; furthermore, assembling pieces autonomously. We describe step by step the image processing to determine the objects orientation located in the field of view of the NAO robot, initial step in posterior developments in task execution using those objects. The processing stages described are: RGB color space segmentation, interest points detection and objects orientation estimation with respect to a reference frame. The results are compared with measures obtained using a commercial image processing software. The absolute error is less than 1.5 o in the objects orientation angles, which is considered acceptable due to the size of the processed objects. The introduced methodology is a first step in the execution of assembling tasks or handling of tools by a robotic platform, where the artificial vision has a relevant place in the identification, location and orientation of the objects.Index Terms-Image processing, objects detection, image segmentation, humanoid robots, robotic vision systems I. INTRODUCCIÓNLa programación por demostración (PbD por sus siglas en inglés) es una técnica donde, al contrario de la programación detallada que convencionalmente se hace al robot, este aprende movimientos parciales o incluso una tarea completa, con sólo ver una o varias demostraciones por parte de un humano.1 Docente Universidad del Quindío Entre las tareas que se espera desarrollen los robots, es común que se requiera la interacción con herramientas para llevar a cabo una determinada acción. El manejo de herramientas puede dividirse en: reconocimiento, agarre y posicionado, y reproducción de los movimientos para realizar la tarea. La plataforma utilizada, denominada NAO [1], es un robot humanoide programable de 58 centímetros de alto desarrollado por la compañía francesa Aldebaran. Entre sus principales características se encuentran: un cuerpo con 25 grados de libertad, una red de sensores, incluyendo dos cámaras, 4 micrófonos, sensor de distancia basado en ultrasonido, dos emisores y receptores infrarrojos, sensor de inercia, 9 sensores táctiles, y 8 sensores de presión. El autómata contiene una CPU Intel ATOM a 1,6 GHz que ejecuta un kernel Linux soportando el middleware propietario de Aldebaran (NAOqi). En este proyecto los programas se escribieron en lenguaje C++, accediendo desde un portátil a la cámara del robot y obteniendo el video en tiempo real.El trabajo presentado hace parte de un proyecto que pretende desarrollar técnicas que integren visión, programación por demostración y medida de fuerzas para realizar la tarea de apretar una tuerca. El robot, a partir de la demostración, aprende el movimiento de apretar, con la visión se logra flexibilidad en la tarea demostrada ya que permite variaciones de posición y orientación de la tuerca, con lo que se puede alinear la llave con la cabeza del tornillo, porúltimo se hace una medida de la corrient...
Abstract-Deformable object (e.g., clothes) manipulation by a robot in interaction with a human being presents several interesting challenges. Due to texture and deformability, the object can get hooked in the human limbs. Moreover, the human can change their limbs position and curvature, which require changes in the paths to be followed by the robot. To help solve these problems, in this paper we propose a technique of learning by demonstration able to adapt to changes in position and curvature of the object (human limb) and recover from execution faults (hooks). The technique is tested using simulations, but with data obtained from a real robot. 1Keywords-Robot programming by Demonstration, Robot Fault Recovery. I. INTRODUCCIÓNLa programación por demostración (PpD) es una técnica que permite a un robot aprender la realización de una tarea, a través de la demostración de la misma por parte de un humano u otro robot [1], [2]. Se puede aplicar en entornos poco estructurados, porque permite que un usuario enseñe fácilmente nuevas tareas a un robot sin necesidad de conocimientos en programación. En PpD el robot es entrenado con ejemplos de la tarea, a partir de los cuales el aprende a generalizarla.La tarea de poner una manga de camisa con un brazo robóti-co presenta una serie de retos interesantes. Por un lado, el robot debe operar cuidadosamente cerca de un humano, y la posición del brazo no siempre es la misma. Por otro lado, cuando se pone la manga de una camisa se producen frecuentemente enganches de la camisa en el codo. Una persona cuando pone la camisa detecta el enganche y de forma natural retrocede, modifica un poco la posición, y retoma la trayectoria cambián-dola ligeramente. Este es precisamente el desempeño que se quiere obtener del robot.Algunos Para el objetivo de la generación de nuevas trayectorias se propone utilizar la técnica de modelo de mezcla de gaussianas parametrizado en la tarea (en inglés "Task Parameterized Gaussian Mixture Model" que en este documento se abrevia como: TP-GMM) [4]. Cuando los robots manipulan objetos, sus movimientos pueden depender en gran medida de metas dadas y de las poses de los objetos, las cuales pueden ser definidas a través de marcos de referencia. Concretamente, el movimiento del robot es condicionado por un conjunto de variables de la tarea, que representan el sistema coordenado de marcos de referencia relevantes. A cambio de representar cada trayectoria como un modelo diferente, esta se basa en un solo modelo que abarca las diferentes trayectorias como función de las variables de la tarea, el modelo se basa en las propiedades del producto de gaussianas [7]. Para solucionar el problema planteado, la técnica TP-GMM es apropiada, por que genera la trayectoria requerida ante variaciones en la posición y curvatura del brazo, esta información del brazo es la que permite parametrizar la tarea.La técnica propuesta consiste en un algoritmo que, a partir del conjunto de demostraciones con y sin fallo, aprende a recuperarse ante un fallo de ejecución (enganche). La téc...
scite is a Brooklyn-based organization that helps researchers better discover and understand research articles through Smart Citations–citations that display the context of the citation and describe whether the article provides supporting or contrasting evidence. scite is used by students and researchers from around the world and is funded in part by the National Science Foundation and the National Institute on Drug Abuse of the National Institutes of Health.
customersupport@researchsolutions.com
10624 S. Eastern Ave., Ste. A-614
Henderson, NV 89052, USA
This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.
Copyright © 2024 scite LLC. All rights reserved.
Made with 💙 for researchers
Part of the Research Solutions Family.