Accès aux Téléchargement | Résumé | Contact | Référence BibTex | Référence EndNote |


K. Kapellos, F. Chaumette, M. Vergauwen, A. Rusconi, L. Joudrier. Vision-based control for space applications. In Int. Symp. on Artificial Intelligence, Robotics and Automation in Space, iSAIRAS'2008, Los Angeles, Californie, Février 2008.

Télécharger l'article [Aide]

Charger l'article sur Hal: Hal : Hyper Archive en ligne

Charger l'article : Adobe portable document (pdf) pdf

Copyright :

Les documents contenus dans ces répertoires sont rendus disponibles par les auteurs qui y ont contribué en vue d'assurer la diffusion à temps de travaux savants et techniques sur une base non-commerciale. Les droits de copie et autres droits sont gardés par les auteurs et par les détenteurs du copyright, en dépit du fait qu'ils présentent ici leurs travaux sous forme électronique. Les personnes copiant ces informations doivent adhérer aux termes et contraintes couverts par le copyright de chaque auteur. Ces travaux ne peuvent pas être rendus disponibles ailleurs sans la permission explicite du détenteur du copyright.

Cette page est générée automatiquement par bib2html v217, © Inria 2002-2021, Projet Lagadic/Rainbow


This paper presents the work performed in the context of the VIMANCO ESA project. It has the objective of improving the autonomy, safety and robustness of robotics system using vision. The approach we propose is based on an up-to-date recognition and 3D tracking method that allows to determine if a known object is visible on only one image, to compute its pose and to track it in real time along the image sequence acquired by the camera, even in the presence of varying lighting conditions, partial occlusions, and aspects changes. The robustness of the proposed method has been achieved by combining an efficient low level image processing step, statistical techniques to take into account potential outliers, and a formulation of the registration step as a closed loop minimization scheme. This approach is valid if only one camera observes the object, but can also be applied to a multi-cameras system. Finally, this approach provides all the necessary data for the manipulation of non cooperative objects using the general formalism of visual servoing, which is a closed loop control scheme on visual data expressed either in the image, or in 3D, or even in both spaces simultaneously. This formalism can be applied whatever the vision sensor configuration (one or several cameras) with respect to the robot arms (eye- in-hand or eye-to-hand systems). The global approach has been integrated and validated in the Eurobot testbed located at ESTEC


Francois Chaumette

Référence BibTex

   Author = {Kapellos, K. and Chaumette, F. and Vergauwen, M. and Rusconi, A. and Joudrier, L.},
   Title = {Vision-based control for space applications},
   BookTitle = {Int. Symp. on Artificial Intelligence, Robotics and Automation in Space, iSAIRAS'2008},
   Address = {Los Angeles, California},
   Month = {February},
   Year = {2008}

Référence EndNote [help]

Charger la référence EndNote (.ref)