KR20140031316A - Tracking and following of moving objects by a mobile robot - Google Patents

Tracking and following of moving objects by a mobile robot Download PDF

Info

Publication number
KR20140031316A
KR20140031316A KR1020137033129A KR20137033129A KR20140031316A KR 20140031316 A KR20140031316 A KR 20140031316A KR 1020137033129 A KR1020137033129 A KR 1020137033129A KR 20137033129 A KR20137033129 A KR 20137033129A KR 20140031316 A KR20140031316 A KR 20140031316A
Authority
KR
South Korea
Prior art keywords
robot
tracking
orientation
entity
sensory data
Prior art date
Application number
KR1020137033129A
Other languages
Korean (ko)
Inventor
찰스 에프 3세 올리비에
진 세바스티엔 파일레이드
아드리엔 펠론
제프리 콜
나사니엘 티 클린턴
러셀 산체즈
프랑소와 부리아넥
말렉 엠 찰라비
하르샤바르드하나 나라야나 키커리
Original Assignee
마이크로소프트 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 마이크로소프트 코포레이션 filed Critical 마이크로소프트 코포레이션
Publication of KR20140031316A publication Critical patent/KR20140031316A/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D3/00Control of position or direction

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

로봇은 감각 데이터를 사용하여 개체를 추적하고, 사용자에 의해 선택된 개체를 추종한다. 개체는 로봇에 의해 인식되는 개체들의 집합 중 사용자에 의해 지정될 수 있다. 로봇과 개체의 상대적 위치 및 배향이 결정된다. 로봇의 위치 및 배향은 개체와 로봇 간의 원하는 관계를 유지하는데 사용될 수 있다. 로봇의 네비게이션 시스템을 사용하면, 그의 이동 동안, 장애물을 피할 수 있다. 로봇이 추적되는 개체와의 접촉을 상실하는 경우, 로봇은 개체가 재획득될 때까지 계속 네비게이팅하고 환경을 검색할 수 있다.The robot uses sensory data to track the object and follow the object selected by the user. The object may be designated by a user among a set of objects recognized by the robot. The relative position and orientation of the robot and the object is determined. The position and orientation of the robot can be used to maintain the desired relationship between the object and the robot. Using the robot's navigation system, obstacles can be avoided during its movement. If the robot loses contact with the tracked entity, the robot can continue to navigate and search the environment until the object is reacquired.

Description

이동하는 개체를 이동 로봇을 이용하여 추적 및 추종하는 기법{TRACKING AND FOLLOWING OF MOVING OBJECTS BY A MOBILE ROBOT}TRACKING AND FOLLOWING OF MOVING OBJECTS BY A MOBILE ROBOT}

이동 로봇의 움직임은 일반적으로 로봇으로 하여금 특정한 방향으로, 또는 지정된 경로를 따라, 또는 특정 위치로 이동하게 함으로써 제어된다. 로봇은 지정된 방향으로, 또는 지정된 위치로, 또는 지정된 경로를 따라 이동하는 동안 장애물을 피할 수 있도록 해주는 센서를 포함할 수 있다.The movement of a mobile robot is generally controlled by causing the robot to move in a particular direction, along a designated path, or to a specific location. The robot may include sensors that allow obstacles to be avoided while traveling in a designated direction, to a designated location, or along a designated path.

예를 들어, 로봇은 일반적으로 로봇 상의 카메라에 의해 흔히 제공되는 라이브 비디오 피드(live video feed)를 시청하는 조작자에 의해 원격으로 제어된다. 비디오를 보면서, 조작자는 로봇이 다양한 방향으로 이동하도록 또한 다양한 동작을 수행하도록 명령할 수 있다. 이러한 종류의 제어가 갖는 한가지 도전 과제는 로봇 상에서 카메라 및 마이크로폰 위치를 조정하는 것이 자주 필요하다는 것이다. For example, a robot is generally controlled remotely by an operator viewing a live video feed commonly provided by a camera on the robot. While watching the video, the operator may instruct the robot to move in various directions and to perform various actions. One challenge with this kind of control is that it is often necessary to adjust the camera and microphone position on the robot.

또 다른 예로서, 로봇은 일반적으로 다양한 작업을 수행하기 위해 방 또는 방들 주변을 이동하도록 조작된다. 이러한 작업은 청소하는 것, 사진을 찍는 것 또는 다른 감각 입력(sensory inputs)을 수집하는 것을 포함할 수 있다. 이러한 작업 동안, 로봇은 독자적으로 이동할 수 있고, 장애물을 피할 수 있으며, 따라서 조작자에 의한 제어를 조금 포함하거나 또는 전혀 포함하지 않는다.
As another example, a robot is generally manipulated to move around a room or rooms to perform various tasks. Such tasks may include cleaning, taking pictures, or collecting other sensory inputs. During this operation, the robot can move on its own, avoid obstacles, and thus contain little or no control by the operator.

본 요약부는 이하 발명의 상세한 설명에서 보다 자세히 기술될 개념들 중 선택된 것들을 단순화된 형식으로 소개하기 위해 제공되는 것이다. 본 요약부는 청구항에 기재된 청구대상의 주된 사항 또는 핵심 사항을 밝히기 위한 것이 아니며, 청구항에 기재된 청구대상의 범위를 한정하기 위한 것은 더더욱 아니다.This summary is provided to introduce the selection of concepts to be described in more detail in the following detailed description in a simplified form. This summary is not intended to identify key or critical elements of the subject matter recited in a claim, nor is it intended to limit the scope of the subject matter recited in the claims.

오디오 및 비디오 정보와 같은 감각 데이터를 사용하여 사람과 같은 개체를 식별 및 추적하는 로봇의 기능을 개체의 위치 및 배향을 측정하는 기능과 결합함으로써, 로봇은 개체를 추적하고 추종(follow)하도록 지시를 받을 수 있다. 추적되고 추종되는 개체는 로봇에 의해 인식되는 개체들의 집합 중에서 사용자에 의해 지정될 수 있다. 추적되는 개체는 사람일 수 있다. 다수의 경우에서, 개체는 얼굴 또는 머리와 같은 개체의 일부분만을 인식 또는 추적함으로써 인식 및 추적될 수 있다.By combining the robot's ability to identify and track objects such as humans using sensory data, such as audio and video information, with the ability to measure the position and orientation of the object, the robot is instructed to track and follow the object. I can receive it. The object to be tracked and followed can be specified by the user among a set of objects recognized by the robot. The entity being tracked can be a person. In many cases, an entity may be recognized and tracked by recognizing or tracking only a portion of the entity, such as a face or head.

개체들은 예를 들어 로봇의 감각 입력에 적용되는 다수의 패턴 인식 기법들 중 임의의 기법을 사용하여 인식될 수 있다. 예를 들어, 안면 인식 또는 형상 인식이 이미지 데이터에 적용될 수 있다. 음성 인식 또는 음원의 방향측정(sound source localization)이 마이크로폰들의 집합에 의해 수집된 오디오 데이터에 적용될 수 있다. Objects can be recognized using any of a number of pattern recognition techniques applied to sensory input of a robot, for example. For example, facial recognition or shape recognition can be applied to the image data. Speech recognition or sound source localization may be applied to the audio data collected by the set of microphones.

사용자는 근거리 또는 원거리에 있을 수 있다. 근거리 사용자는 사용자의 목소리 또는 다른 사용자 입력에 기초하여 사용자 자신을 포함한 개체를 추종하도록 로봇에 명령할 수 있다. 원거리 사용자는 사용자 인터페이스를 통해 로봇에 의해 인식되는 하나 이상의 개체 중 한 개체의 선택을 입력할 수 있다.The user can be near or far. The near-field user may instruct the robot to follow an object including the user itself based on the user's voice or other user input. The remote user may enter a selection of one of the one or more objects recognized by the robot via the user interface.

선택된 개체가 주어진 경우, 개체와 로봇 간의 상대적 위치 및 배향, 예를 들어 x, y 위치 및 배향이 결정될 수 있다. 그런 다음 움직임 제어 시스템이 추적된 개체에 대해 지정된 상대적 위치 및 배향을 유지하도록 로봇의 움직임을 제어할 수 있다. 이러한 움직임 동안, 종래의 장애물 회피 기법을 사용하여 장애물을 피할 수 있다. 몇몇 경우, 장애물은 추적되는 개체가 인식되게 하는 감각 정보를 모호하게 할 것이다. 이 경우, 로봇은 예를 들어 마지막으로 알려진 개체의 방향에서 환경을 계속 네비게이팅 및 검색하여 개체를 다시 획득하려 할 수 있다. 개체가 다시 획득된 경우, 추적은 계속된다. Given a selected entity, the relative position and orientation between the entity and the robot, eg x, y position and orientation, can be determined. The motion control system can then control the movement of the robot to maintain the specified relative position and orientation with respect to the tracked object. During this movement, obstacles can be avoided using conventional obstacle avoidance techniques. In some cases, the obstacle will obscure the sensory information that causes the object being tracked to be recognized. In this case, the robot may, for example, continue to navigate and search the environment in the direction of the last known object to attempt to acquire the object again. If the object is acquired again, tracking continues.

따라서, 일 측면에서, 개체를 추적하고 추종하는 프로세스는 로봇으로부터의 감각 데이터를 메모리 내로 수신하는 단계를 포함한다. 로봇의 환경 내의 개체들은 이 감각 데이터를 사용하여 추적된다. 로봇은 추적된 개체들 중 하나 이상의 개체에 대한 로봇의 상대적 위치 및 배향을 유지하기 위해 이동하도록 지시를 받는다. 로봇의 이동은 감각 데이터를 사용하여 장애물을 피하도록 제어된다.Thus, in one aspect, the process of tracking and following an object includes receiving sensory data from a robot into memory. Objects in the robot's environment are tracked using this sensory data. The robot is instructed to move to maintain the relative position and orientation of the robot relative to one or more of the tracked objects. The movement of the robot is controlled to avoid obstacles using sensory data.

다른 측면에서, 개체를 추적하고 추종하는 컴퓨팅 머신은 로봇의 환경으로부터 감각 데이터를 수신하는 입력부, 및 그 환경에서 인식되는 개체들을 나타내는 출력부를 갖는 개체 인식 모듈을 포함한다. 추적 및 추종 모듈은 추적되는 선택된 개체를 나타내는 입력부 및 선택된 개체를 추종하기 위한 로봇에 대한 위치 및 배향을 나타내는 출력부를 갖는다. 네비게이션 모듈은 위치 및 배향을 수신하는 입력부 및 로봇이 장애물을 피하는 경로를 따라 원하는 위치 및 배향으로 이동하게 하는 로봇의 움직임 제어 시스템에 대한 출력부를 갖는다. In another aspect, a computing machine that tracks and tracks an object includes an object recognition module having an input that receives sensory data from the environment of the robot, and an output that represents the objects recognized in that environment. The tracking and tracking module has an input indicating the selected object to be tracked and an output indicating the position and orientation of the robot for following the selected object. The navigation module has an input to receive the position and orientation and an output to the robot's motion control system that allows the robot to move to the desired position and orientation along a path avoiding obstacles.

일 실시예에서, 사용자는 로봇이 추종하게 하는 추적되는 개체들 중 하나 이상을 선택할 수 있다. 사용자는 라이브 비디오 피드를 제공받을 수 있으며, 추적된 개체들은 라이브 비디오 피드 내에 표시된다.In one embodiment, the user can select one or more of the tracked objects that the robot follows. The user can be provided with a live video feed, and the tracked objects are displayed in the live video feed.

다른 실시예에서, 개체의 추적이 개체를 상실하는 경우, 프로세스는 상실된 개체의 추적을 다시 획득하려 시도하는 단계를 더 포함한다. 상실된 개체의 추적을 다시 획득하려 시도하는 단계는 로봇의 위치 및 배향을 조정하는 단계를 포함할 수 있다.In another embodiment, if the tracking of the subject loses the subject, the process further includes attempting to regain tracking of the lost subject. Attempting to regain tracking of the lost entity may include adjusting the position and orientation of the robot.

일 실시예에서, 두 개의 로봇이 세션을 유지할 수 있는데, 이 세션에서 각 로봇은 로봇의 환경 내의 사람을 추적 및 추종한다. 이러한 식으로, 각자 하나의 로봇을 가지고 있는 상이한 위치에 있는 두 명의 사람은 양 로봇이 각 참가자를 카메라 프레임 내에 유지하면서 추적 및 추종하고 있다면 상기 사람 각각이 자신의 환경을 돌아다님에 따라 서로를 "방문", 예를 들어 서로 보고 들을 수 있다. 각 사람은 각자의 로봇이 자신을 따르도록 명령할 수 있다. 사람에 대한 로봇의 상대적 위치 및 배향을 유지함으로써, 카메라 및 마이크로폰은 사람을 겨냥한 채로 유지될 수 있다.In one embodiment, two robots may maintain a session in which each robot tracks and follows a person in the robot's environment. In this way, two people in different locations, each with a single robot, will be able to "see" each other as each person walks around his or her environment if both robots are tracking and following each participant in the camera frame. Visit ", for example, to see and hear each other. Each person can command his robot to follow him. By maintaining the relative position and orientation of the robot relative to the person, the camera and microphone can be kept aimed at the person.

이하의 설명에서, 본 명세서의 일부를 형성하는 첨부한 도면을 참조할 것이며, 이 도면에는 예시로서 본 발명의 특정 예시적인 실시예가 도시되어 있다. 다른 실시예가 사용될 수 있고 본 발명의 범주를 벗어나지 않으면서 구조적 변경이 이루어질 수 있음이 이해될 것이다.
In the following description, reference is made to the accompanying drawings, which form a part hereof, in which certain illustrative embodiments of the invention are shown by way of illustration. It is to be understood that other embodiments may be utilized and structural changes may be made without departing from the scope of the present invention.

도 1은 예시적인 이동 로봇 시스템의 블록도,
도 2는 추적 및 추종하기 위한 예시적인 실시예를 나타내는 데이터 흐름도,
도 3은 도 2의 시스템의 동작을 나타내는 흐름도,
도 4는 로봇식의 원격 현장감 애플리케이션을 위한 예시적인 설정을 나타내는 흐름도,
도 5는 시스템이 구현될 수 있는 예시적인 컴퓨팅 장치의 블록도.
1 is a block diagram of an exemplary mobile robotic system,
2 is a data flow diagram illustrating an exemplary embodiment for tracking and following;
3 is a flowchart illustrating operation of the system of FIG. 2;
4 is a flow diagram illustrating an exemplary setup for a robotic remote presence application;
5 is a block diagram of an example computing device in which a system may be implemented.

후속하는 설명은 로봇에 의한 추적 및 추종이 구현될 수 있는 예시적인 동작 환경을 제공한다. 도 1을 참조하면, 이동 로봇(100)은 몇몇 컴포넌트를 구비한다.The following description provides an exemplary operating environment in which tracking and tracking by a robot can be implemented. Referring to FIG. 1, the mobile robot 100 has several components.

센서(102)는 주변 환경 및 그 주변 환경 내의 개체(104)에 대한 정보를 검출한다. 센서(102)는 로봇 시스템의 나머지 부분에 대한 입력으로서 감각 데이터(106)를 제공한다. 예시적인 센서는 하나 이상의 비디오 카메라, 마이크로폰 어레이와 같은 하나 이상의 마이크로폰, 적외선 검출기 및 근접도 검출기를 포함하나 여기에 국한되지는 않는다. 본 발명은 센서에 의해 제공되는 감각 데이터(106)에 의해 개체가 인식되고 추적되거나 또는 장애물을 피할 수 있는 한, 센서(102)의 특정 세트 또는 구성에 국한되지 않는다.The sensor 102 detects information about the environment and the objects 104 in the environment. Sensor 102 provides sensory data 106 as input to the rest of the robotic system. Exemplary sensors include, but are not limited to, one or more video cameras, one or more microphones such as microphone arrays, infrared detectors, and proximity detectors. The present invention is not limited to a particular set or configuration of sensors 102 as long as the object can be recognized and tracked or obstacles avoided by sensory data 106 provided by the sensors.

개체 인식 모듈(108)은 개체와, 공간에서 로봇(100)에 대한 개체의 위치 및 배향을 식별하기 위해 감각 데이터(106)를 사용한다. 움직임 제어 모듈(110)은 로봇(100)의 움직임의 방향 및 속도를 제어한다. 네비게이션 모듈(112)은 움직임 제어 모듈을 위한 방향(114)을, 장애물 회피 및 다른 경로 추종 프로세스에 기초하여 결정한다. 개체 인식, 움직임 제어 및 네비게이션 시스템이 당업자에게 알려진 임의의 방식으로 구현될 수 있고 본 발명은 그에 국한되지 않는다.The object recognition module 108 uses the sensory data 106 to identify the object and its position and orientation with respect to the robot 100 in space. The motion control module 110 controls the direction and speed of the movement of the robot 100. The navigation module 112 determines the direction 114 for the motion control module based on the obstacle avoidance and other path following processes. Object recognition, motion control and navigation systems can be implemented in any manner known to those skilled in the art and the invention is not limited thereto.

규칙적인 시간 프레임에서, 개체 인식 모듈은 개체에 대한 식별자와 같은, 개체를 기술하는 정보 및 각 개체의 위치 및 배향을 포함한, 인식된 개체(116)에 관한 정보를 제공한다. 다양한 패턴 인식 기법이 로봇의 감각 입력에 적용되어 개체를 인식할 수 있다. 예를 들어, 개체 인식 모듈(108)은 비디오 정보를 사용하고 이미지들을 처리하여 특정 형상 또는 얼굴을 식별할 수 있다. 근접도 검출기는 개체로부터 로봇(100)까지의 거리에 관한 정보를 제공할 수 있다. 시간에 걸쳐 이미지들을 처리하고, 개체를 추적함으로써, 개체 인식 모듈(108)은 개체가 이동하고 있는지 여부를 판정할 수 있다. 사람과 같이 소리를 내는 개체의 위치 및 그 또는 그녀의 목소리를 식별하기 위해 음원의 방향측정이 사용될 수 있다. 개체 인식 모듈(108)은 인식된 개체(116)에 관한 정보를 이하에서 보다 자세히 설명될 사용자 인터페이스(118) 및 추적 및 추종 모듈(122)에 제공한다.In a regular time frame, the entity recognition module provides information about the recognized entity 116, including information describing the entity, such as an identifier for the entity, and the location and orientation of each entity. Various pattern recognition techniques are applied to sensory inputs of robots to recognize objects. For example, object recognition module 108 may use the video information and process the images to identify a particular shape or face. The proximity detector may provide information about the distance from the object to the robot 100. By processing the images and tracking the object over time, the object recognition module 108 can determine whether the object is moving. Orientation of the sound source may be used to identify the location of the object making the sound, such as a person, and his or her voice. The object recognition module 108 provides information about the recognized object 116 to the user interface 118 and the tracking and tracking module 122, which will be described in more detail below.

다수의 애플리케이션에서, 인식 및 추적될 개체는 사람이다. 인식 및 추적은 얼굴과 같은 개체의 일부를 인식할 수 있다. 개체가 인식되면, 그 개체는 개체의 일 지점 또는 일 영역을 모니터링함으로써 추적될 수 있다. 예를 들어, 로봇이 사람을 추종하는 경우, 로봇은 먼저 얼굴을 인식하고 그런 다음 신체 상의 일 지점 또는 일 영역을 추종할 수 있다.In many applications, the entity to be recognized and tracked is a person. Recognition and tracking may recognize part of an object, such as a face. Once the object is recognized, the object can be tracked by monitoring a point or area of the object. For example, when a robot follows a person, the robot may first recognize a face and then follow a point or area on the body.

예시적인 실시예에서, 사용자 인터페이스(118)는 사용자가 인식된 개체에 대한 정보를 볼 수 있게 해주고 또한 로봇(100)에 의해 어느 개체가 추적되고 추종되는지를 나타내는 사용자 선택(120)을 제공할 수 있게 해준다. 이 사용자 선택(120)은, 로봇(100)이 개체를 추적하고 추종하는 방식을 개체 추적 모듈(108)로부터의 정보를 이용하여 결정하고 네비게이션 모듈(112)에 지시를 내리는 로봇(100) 내의 추적 및 추종 모듈(122)에 제공된다. 또 다른 실시예에서, 사용자 인터페이스는 감각 데이터를 처리하여 조작자의 명령을 판정한다. 예를 들어, 사용자는 로봇(100)으로 하여금 이 그의 시야 내에서 인식된 사람 또는 개체를 추종하게 하도록, 사용자 선택(120)을 제공하기 위해 "추종"을 말하거나 제스처를 취할 수 있다.In an example embodiment, the user interface 118 may allow the user to view information about the recognized object and also provide a user selection 120 indicating which object is tracked and followed by the robot 100. To make it possible. This user selection 120 uses tracking from the object tracking module 108 to determine how the robot 100 tracks and follows the object and to direct the navigation module 112 to the tracking within the robot 100. And a follow module 122. In another embodiment, the user interface processes sensory data to determine the operator's command. For example, the user may say “follow” or make a gesture to provide the user selection 120 to cause the robot 100 to follow a person or object recognized within its field of view.

이러한 상황 하에, 추적 및 추종 모듈(122)의 예시적인 실시예가 도 2 내지 도 4와 연계하여 보다 자세히 설명될 것이다.Under this situation, an exemplary embodiment of the tracking and following module 122 will be described in more detail in connection with FIGS.

도 2에서, 이 모듈의 예시적인 실시예의 블록도는 인식된 개체(202)에 대한 정보를 수신하는 개체 추종 모듈(200)을 포함한다. 이 정보는 예를 들어 각 인식된 개체에 대한 식별자 및 그의 위치를 포함한다. 현재의 사용자 선택(204)의 표시는 추적될 개체에 대해 개체 추종 모듈에 지시를 내린다.In FIG. 2, a block diagram of an exemplary embodiment of this module includes an entity tracking module 200 that receives information about a recognized entity 202. This information includes, for example, an identifier for each recognized entity and its location. The indication of the current user selection 204 instructs the entity following module for the entity to be tracked.

인식된 개체(202) 및 사용자 선택(204)에 대한 정보가 주어지면, 개체 추종 모듈(200)은 몇몇 모드에서 몇몇 동작을 수행한다. 먼저, 선택된 개체가 없는 경우, 개체 추종 모듈(200)은 대기 모드로 있으면서 사용자 선택을 기다린다.Given information about the recognized entity 202 and the user selection 204, the entity tracking module 200 performs some operations in some modes. First, if no object is selected, the object tracking module 200 waits for user selection while in the standby mode.

추종할 개체가 선택된 경우, 개체 추종 모듈(200)은 추적 모드를 시작한다. 추적 모드에서, 개체의 위치가 그의 본래의 위치로부터 임계 거리 내에 유지되거나 또는 로봇의 시야 내에 있는 경우, 로봇은 움직이지 않는다. 예를 들어, 모듈(200)은 이미지 내의 개체가 로봇의 시야 내의 경계 박스 내에 있는지 여부를 판정한다. 또한, 이 모듈은 개체의 깊이, 또는 로봇과 개체 간의 거리가 사전결정된 범위 내에 있는지 여부를 판정할 수 있다. 추적된 개체의 위치가 크게 변한 경우, 개체 추종 모듈은 로봇이 추적된 개체를 추종하기 위해서는 이동될 필요가 있음을 위치 계산 모듈(206)에 알려준다. 개체 추종 모듈(200)은 개체에 대한 정보(208), 예를 들어 개체의 위치, 배향 및 이동 방향 및 속도를 위치 계산 모듈(206)에 제공한다.If an entity to follow is selected, the entity tracking module 200 enters the tracking mode. In tracking mode, the robot does not move when the position of the object is kept within a critical distance from its original position or within the field of view of the robot. For example, module 200 determines whether an object in the image is within a bounding box in the field of view of the robot. The module may also determine whether the depth of the object, or the distance between the robot and the object, is within a predetermined range. If the position of the tracked object changes significantly, the object tracking module informs the position calculation module 206 that the robot needs to be moved in order to follow the tracked object. The entity tracking module 200 provides the position calculation module 206 with information about the object 208, such as the position, orientation and direction of movement and the velocity of the object.

위치 계산 모듈(206)은 추적되는 개체에 대한 정보(208)를 수신하고 그의 출력으로서 로봇을 위한 새로운 위치(214)를 제공한다. 이것은 새로운 x, y 위치 또는 새로운 배향 또는 이들 모두일 수 있다. 예를 들어, 로봇은 45도 회전하도록 지시를 받을 수 있다. 로봇은 개체에 대한 원하는 상대적 위치 및 배향에 일치시키기 위해 그의 위치 및 배향을 변경시킬 수 있다. 새로운 위치 정보(214)는 로봇의 네비게이션 제어 시스템에 제공된다.The position calculation module 206 receives information 208 about the object being tracked and provides, as its output, a new position 214 for the robot. This may be a new x, y position or a new orientation or both. For example, the robot may be instructed to rotate 45 degrees. The robot can change its position and orientation to match the desired relative position and orientation for the subject. New location information 214 is provided to the navigation control system of the robot.

선택된 개체가 인식된 개체에 대한 정보 내에서 더 이상 발견되지 않는 경우, 모듈(200)은 재획득 모드로 진입하고 예를 들어 "개체 상실" 메시지(212) 및 인식된 개체에 대한 다른 정보를 개체 재획득 모듈(210)에 알린다. 예를 들어, 개체의 움직임의 방향 및 속도는 유용한 정보일 수 있다.If the selected object is no longer found within the information about the recognized object, the module 200 enters the reacquisition mode and returns the object, for example, the "Lost Object" message 212 and other information about the recognized object. Notify reacquisition module 210. For example, the direction and speed of the object's movement may be useful information.

사용자 선택(204)이 주어진 경우, 개체 재획득 모듈(210)은 로봇을 이동시키는 것을 포함하는, 개체를 재배치하는 방식을 결정한다. 모듈(210)은 로봇을 위한 새로운 위치(214)를 결정한다. 예를 들어, 개체의 방향 및 속도가 주어진 경우, 모듈(210)은 로봇의 현재 위치로부터 로봇을 이동시킬 새로운 위치 및 그 새로운 위치로 이동시킬 속도를 계산할 수 있다. 로봇의 환경에 대해 이용가능한 정보에 따라, 다른 기법이 사용될 수 있다.Given the user selection 204, the object reacquisition module 210 determines how to relocate the object, including moving the robot. Module 210 determines a new location 214 for the robot. For example, given the direction and velocity of the object, module 210 may calculate from the current position of the robot a new position to move the robot and a speed to move to that new position. Depending on the information available about the environment of the robot, other techniques may be used.

개체가 재획득될 때까지, 또는 시간 종료 또는 사용자에 의해 재획득이 종료될 때까지, 개체 재획득 모듈은 상실된 개체에 대한 정보, 및 인식된 개체에 대해 수신된 정보를 이용하여 개체를 재배치한다. 특히, 개체 재획득 모듈은 주어진 시간 프레임에서 인식된 개체에 대한 정보를 상실된 개체에 대해 가지고 있는 정보에 비교한다. 일치가 발견되면, 일치된 개체는 이제 개체 추종 모듈(200)에 의해 추적되는 개체이다. 개체 재획득 모듈은 일치된 개체에 대한 정보를 추적을 재개하는 개체 추종 모듈로 다시 제공한다.Until the object is reacquired, or until the timeout or reacquisition is terminated by the user, the object reacquisition module relocates the object using information about the missing object and the received information about the recognized object. . In particular, the entity reacquisition module compares the information about the recognized entity in a given time frame to the information it has about the lost entity. If a match is found, the matched entity is now the entity tracked by entity tracking module 200. The entity reacquisition module provides information about the matched entity back to the entity tracking module to resume tracking.

도 2의 시스템의 동작을 설명하는 흐름도가 도 3과 연계하여 기술될 것이다.A flowchart describing the operation of the system of FIG. 2 will be described in conjunction with FIG. 3.

프로세스는 로봇이 개체를 추적하고 추종하는 것에 참여한 후에 시작된다. 개체를 추적 및 추종하는 경우, 로봇은 예를 들어 위치 또는 크기의 변경에 의해 개체의 움직임을 검출한다(300). 특히, 로봇은 위치 및 속도를 포함한 개체의 3차원 데이터를 추적한다. 움직임이 검출되면, 로봇은 로봇이 이동하거나 소정의 다른 반응을 하도록 하기에 충분한 움직임 양이 있는지 여부를 판정한다(302). 예를 들어, 로봇은 상대적 거리 및 배향이 소정의 경계 내에 있는지 여부를 판정할 수 있다. 구체적인 경계는 로봇의 적용 또는 사용에 따라 달라질 것이다. 추적된 개체의 배향이 추적될 수 있는 경우, 이 배향 정보는 로봇을 이동시키는데 사용되어, 로봇이 개체를 "마주하거나", 또는 그의 배향이 개체에 대해 원하는 배향에 일치하도록 보장할 수 있다.The process begins after the robot participates in tracking and following the object. When tracking and following an object, the robot detects the movement of the object, for example, by changing its position or size (300). In particular, the robot tracks three-dimensional data of the object, including its position and velocity. When a movement is detected, the robot determines whether there is enough movement amount for the robot to move or make some other reaction (302). For example, the robot can determine whether the relative distance and orientation are within a predetermined boundary. Specific boundaries will vary depending on the application or use of the robot. If the orientation of the tracked object can be tracked, this orientation information can be used to move the robot to ensure that the robot “facing” the object, or that its orientation matches the desired orientation with respect to the object.

개체와 로봇의 상대적 위치 및 배향이 사전결정된 경계 내에 있지 않은 경우, 로봇 위치 및 배향은 조정될 수 있다(304). 원하는 위치 및 배향이 주어진 경우, 움직임의 경로 및 속도는 로봇의 적용 또는 이용에 따라 네비게이션 시스템에 의해 결정될 수 있다. 예를 들어, 네비게이션 시스템은 최단거리 경로를 추종하고, 개체에 가까운 추종 거리를 유지한다. 네비게이션 시스템은 개체가 추종하는 경로와 동일한 경로를 추종하려 할 수 있다.If the relative position and orientation of the object and robot are not within a predetermined boundary, the robot position and orientation may be adjusted 304. Given the desired position and orientation, the path and speed of movement can be determined by the navigation system depending on the application or use of the robot. For example, the navigation system follows the shortest path and maintains a close distance to the object. The navigation system may try to follow the same path that the object follows.

로봇에 대한 다른 반응이 또한 제공될 수 있다. 예를 들어, 카메라, 마이크로폰 또는 다른 센서의 위치가 변경될 수 있다. 로봇이 다른 이동가능 부분을 가지고 있는 경우, 소정의 부분만이 이동될 수 있다. 로봇의 상태, 또는 그의 표현을 나타내는 다른 정보가 제공될 수 있다. 예를 들어, 로봇이 추적되는 개체를 상실할 것으로 예상됨을 나타내기 위한 소리 또는 표시가 출력될 수 있다.Other reactions to the robot may also be provided. For example, the position of the camera, microphone or other sensor may change. If the robot has other movable parts, only certain parts can be moved. Other information may be provided that indicates the state of the robot, or a representation thereof. For example, a sound or indication may be output to indicate that the robot is expected to lose the tracked entity.

로봇이 개체의 움직임에 대해 반응한 후, 로봇은 그 개체를 계속 추적한다(300). 추적이 실패하는 경우, 프로세스는 개체를 재획득하는 단계(308)로 계속된다. 잠재적인 목표물이 발견되고 단계(310)에서 판정된 바와 같이 본래의 개체와 일치하는 경우, 프로세스는 개체를 추적하는 단계(300)로 되돌아 간다. 그렇지 않으면, 시스템은 개체를 재획득하려 계속 시도한다(308).After the robot responds to the movement of the object, the robot continues to track the object (300). If tracking fails, the process continues with step 308 of reacquiring the subject. If a potential target is found and matches the original subject as determined in step 310, the process returns to step 300 for tracking the subject. Otherwise, the system continues to attempt to reacquire the object (308).

이제 도 4를 참조하여, 개체의 추적 및 추종을 시작하는 프로세스가 설명될 것이다. 도 1에서, 사용자 인터페이스는 사용자가 인식된 개체를 통보받고 추적할 개체를 선택할 수 있도록 해준다. 예시적인 실시예로서, 로봇식의 원격 현장감 세션이 로봇으로부터 라이브 비디오 피드를 제공한다(400). 이 세션은 전형적으로 통신 링크를 통해 로봇에 연결된 원격 컴퓨터 상에서 구동되는 클라이언트 애플리케이션으로서 구현된다. 로봇의 개체 인식 모듈은 개체의 위치를 계산하고 이 정보를 클라이언트 애플리케이션에 전송한다(402). 클라이언트 애플리케이션을 위한 사용자 인터페이스는 인식된 개체의 표시의 오버레이와 같이, 라이브 비디오 피드에서 개체를 식별하는(404) 정보를 디스플레이할 수 있다. 사용자는 개체를 선택하도록 허용되고(404), 그 선택은 로봇으로 전송된다(406). 그 선택을 수신하면, 로봇은 목표물에 대한 추적 및 추종 모드로 진입한다(408). 사용자 인터페이스는 또한 사용자가 이 모드를 취소하고 추종할 새로운 개체 또는 사람을 선택할 수 있도록 해주는 메카니즘을 갖출 수 있다. Referring now to FIG. 4, the process of initiating tracking and following of an entity will be described. In Figure 1, the user interface allows the user to be notified of the recognized objects and to select the objects to be tracked. As an example embodiment, a robotic remote realistic session provides 400 a live video feed from the robot. This session is typically implemented as a client application running on a remote computer connected to the robot via a communication link. The robot's object recognition module calculates the location of the object and sends this information to the client application (402). The user interface for the client application may display information identifying the object in the live video feed (404), such as an overlay of an indication of the recognized object. The user is allowed to select an object (404) and the selection is sent to the robot (406). Upon receiving the selection, the robot enters the tracking and tracking mode for the target (408). The user interface may also have a mechanism that allows the user to cancel this mode and select a new object or person to follow.

로봇에 의해 개체를 추적 및 추종하는 이 기법을 사용하는 다수의 애플리케이션이 구현될 수 있다. 예를 들어, 로봇식의 원격 현장감 세션은 로봇이 선택된 개체를 추종하도록 지시함으로써 간략화될 수 있다. 로봇은 또한 조작자에 의해 그 조작자 또는 다른 개체를 추종하도록 지시되어, 로봇을 이동하도록 지시하는 작업으로부터 조작자를 자유롭게 한다.Many applications can be implemented using this technique of tracking and following objects by robots. For example, a robotic remote realistic session can be simplified by instructing the robot to follow the selected entity. The robot is also instructed by the operator to follow the operator or another object, freeing the operator from the task of instructing the robot to move.

일 실시예에서, 각 로봇이 그의 환경 내의 사람을 추적 및 추종하는 하나의 세션을 두 개의 로봇이 유지할 수 있다. 이러한 식으로, 각자 하나의 로봇을 가지고 있는 상이한 위치에 있는 두 명의 사람은 양 로봇이 각 참가자를 카메라 프레임 내에 유지하면서 추적 및 추종하고 있다면 상기 사람 각각이 자신의 환경을 돌아다님에 따라 서로를 "방문", 예를 들어 서로 보고 들을 수 있다. 각 사람은 각자의 로봇이 자신을 추종하도록 명령할 수 있다. 사람에 대한 로봇의 상대적 위치 및 배향을 유지함으로써, 카메라 및 마이크로폰은 사람을 겨냥한 채로 유지될 수 있다.In one embodiment, two robots may maintain one session where each robot tracks and follows a person in its environment. In this way, two people in different locations, each with a single robot, will be able to "see" each other as each person walks around his or her environment if both robots are tracking and following each participant in the camera frame. Visit ", for example, to see and hear each other. Each person can command his robot to follow him. By maintaining the relative position and orientation of the robot relative to the person, the camera and microphone can be kept aimed at the person.

이제 예시적인 실시예를 설명할 것인데, 이러한 시스템이 동작하도록 설계된 컴퓨팅 환경이 설명될 것이다. 후속하는 설명은 이 시스템이 구현될 수 있는 적절한 컴퓨팅 환경에 대한 간단하고, 일반적인 설명을 제공하려 한다. 시스템은 다수의 범용 또는 전용 컴퓨팅 하드웨어 구성으로 구현될 수 있다. 이동 로봇은 전형적으로 잘 알려져 있는 컴퓨팅 장치, 예를 들어 개인용 컴퓨터, 핸드 헬드 또는 랩탑 장치(예를 들어, 미디어 플레이어, 노트북 컴퓨터, 셀룰러 폰, 개인 보조 단말기, 음성 녹음기 등), 멀티프로세서 시스템, 마이크로프로세서 기반 시스템, 셋탑 박스, 게임 콘솔, 프로그램가능 소비자 전자장치 등과 유사한 컴퓨팅 성능을 갖는다. 로봇에 대한 제어 시스템은 로봇으로부터 분리된 및/또는 원격인 컴퓨터 상에 있을 수 있기 때문에, 본 명세서에서 기술한 로봇 시스템을 구현하는데 다른 컴퓨팅 머신이 사용될 수 있다.An exemplary embodiment will now be described, where a computing environment designed to operate such a system will be described. The following description is intended to provide a brief, general description of a suitable computing environment in which this system may be implemented. The system may be implemented in a number of general purpose or dedicated computing hardware configurations. Mobile robots are typically well known computing devices, such as personal computers, hand held or laptop devices (eg, media players, notebook computers, cellular phones, personal assistants, voice recorders, etc.), multiprocessor systems, micro It has similar computing capabilities to processor-based systems, set-top boxes, game consoles, programmable consumer electronics, and the like. Because the control system for the robot can be on a computer separate from the robot and / or remote, other computing machines can be used to implement the robotic system described herein.

도 5는 적절한 컴퓨팅 시스템 환경의 일 예를 나타낸다. 컴퓨팅 시스템 환경은 적절한 컴퓨팅 환경의 단지 일 예일 뿐이고 이러한 컴퓨팅 환경의 사용 또는 기능의 범주에 대한 어떠한 제한도 두려 하지 않는다. 컴퓨팅 환경은 예시적인 동작 환경에 도시되어 있는 컴포넌트들의 임의의 하나 또는 그들의 조합에 관련된 어떠한 의존성 또는 요건을 갖는 것으로 해석되어서는 안된다.5 illustrates an example of a suitable computing system environment. The computing system environment is only one example of a suitable computing environment and is not intended to limit any scope of use or functionality of such computing environment. The computing environment should not be construed as having any dependencies or requirements related to any one or combination of components shown in the example operating environment.

도 5를 참조하면, 예시적인 컴퓨팅 환경은 컴퓨팅 머신(500)과 같은 컴퓨팅 머신을 포함한다. 그의 가장 기본적인 구성으로서, 컴퓨팅 머신(500)은 전형적으로 적어도 하나의 처리 장치(502) 및 메모리(504)를 포함한다. 컴퓨팅 장치는 다수의 처리 장치 및/또는 그래픽 처리 장치(520)와 같은 추가의 보조 처리 장치를 포함할 수 있다. 컴퓨팅 장치의 정확한 구성 및 유형에 따라, 메모리(504)는 휘발성(예를 들어, RAM), 비휘발성(예를 들어, ROM, 플래시 메모리 등) 또는 이 둘의 조합일 수 있다. 이러한 가장 기본적인 구성은 도 5에서 점선(506)으로 도시되어 있다. 또한, 컴퓨팅 머신(500)은 추가의 특징/기능을 포함할 수 있다. 예를 들어, 컴퓨팅 머신(500)은 또한 자기 또는 광학 디스크 또는 테이프를 포함하나 여기에 국한되지 않는 (제거가능 및/또는 제거가능하지 않은) 추가의 저장소를 포함할 수 있다. 이러한 추가적인 저장소는 도 5에서 제거가능 저장소(508) 및 제거가능하지 않은 저장소(510)로 도시되어 있다. 컴퓨터 저장 매체는 컴퓨터 프로그램 명령어, 데이터 구조, 프로그램 모듈 또는 그 밖의 다른 데이터와 같은 정보의 저장을 위한 임의의 방법 및 기술로 구현되는 휘발성 및 비휘발성, 제거가능한 및 제거가능하지 않은 매체를 포함할 수 있다. 메모리(504), 제거가능 저장소(508) 및 제거가능하지 않은 저장소(510)는 모두 컴퓨터 저장 매체의 예이다. 컴퓨터 저장 매체는 RAM, ROM, EEPROM, 플래시 메모리 또는 다른 메모리 기술, CD-ROM, DVD 또는 다른 광학 저장소, 자기 카세트, 자기 테이프, 자기 디스크 저장소 또는 다른 자기 저장 장치, 또는 원하는 정보를 저장하는데 사용될 수 있고 컴퓨팅 머신(500)에 의해 액세스될 수 있는 임의의 다른 매체를 포함하나 여기에 국한되지 않는다. 이러한 임의의 컴퓨터 저장 매체는 컴퓨팅 머신(500)의 일부일 수 있다.Referring to FIG. 5, an exemplary computing environment includes a computing machine, such as computing machine 500. In its most basic configuration, computing machine 500 typically includes at least one processing unit 502 and a memory 504. The computing device may include additional auxiliary processing devices, such as multiple processing devices and / or graphics processing devices 520. Depending on the exact configuration and type of computing device, memory 504 may be volatile (eg, RAM), nonvolatile (eg, ROM, flash memory, etc.) or a combination of both. This most basic configuration is shown by dashed line 506 in FIG. In addition, computing machine 500 may include additional features / functions. For example, computing machine 500 may also include additional storage (removable and / or non-removable), including but not limited to magnetic or optical disks or tapes. This additional reservoir is shown in FIG. 5 as removable reservoir 508 and non-removable reservoir 510. Computer storage media may include volatile and nonvolatile, removable and non-removable media implemented in any method and technology for storage of information such as computer program instructions, data structures, program modules or other data. have. Memory 504, removable storage 508 and non-removable storage 510 are all examples of computer storage media. Computer storage media can be used to store RAM, ROM, EEPROM, flash memory or other memory technology, CD-ROM, DVD or other optical storage, magnetic cassettes, magnetic tape, magnetic disk storage or other magnetic storage devices, or any desired information. And any other medium that can be accessed by the computing machine 500. Any such computer storage media may be part of computing machine 500.

컴퓨팅 머신(500)은 장치가 다른 장치와 통신할 수 있도록 해주는 통신 접속부(들)(512)를 포함할 수 있다. 통신 접속부(들)(512)는 통신 매체의 일 예이다. 통신 매체는 전형적으로 컴퓨터 프로그램 명령어들, 데이터 구조, 프로그램 모듈 또는 다른 데이터를 변조된 데이터 신호, 예를 들어 반송파 또는 다른 운송 메카니즘 내에 운반하고 임의의 정보 전달 매체를 포함한다. "변조된 데이터 신호"라는 용어는 신호 내에 정보를 인코딩하는 방식으로 설정 또는 변경되어 신호의 수신 장치의 구성 또는 상태를 변경하는 그의 특성들 중 하나 이상을 갖는 신호를 의미한다. 예를 들어, 통신 매체는 유선 네트워크 또는 직도선(direct wired) 접속과 같은 유선 매체, 및 음향, RF, 적외선 및 다른 무선 매체와 같은 무선 매체를 포함한다.Computing machine 500 may include communication connection (s) 512 to enable a device to communicate with other devices. Communication connection (s) 512 is an example of communication media. Communication media typically carry computer program instructions, data structures, program modules or other data within a modulated data signal, such as a carrier or other transport mechanism, and include any information transfer media. The term "modulated data signal" means a signal that has one or more of its characteristics set or changed in such a manner as to encode information in the signal to change the configuration or state of the receiving device of the signal. For example, communication media include wired media such as wired networks or direct wired connections, and wireless media such as acoustic, RF, infrared and other wireless media.

컴퓨팅 머신(500)은 디스플레이, 키보드, 마우스, 펜, 카메라, 터치 입력 장치 등과 같은 다양한 입력 장치(들)(514)를 구비할 수 있다. 스피커, 프린터 등과 같은 출력 장치(들)(516)도 포함될 수 있다. 이들 장치 모두는 당업자에게 잘 알려져 있으므로 본 명세서에서는 더 이상 설명할 필요가 없다.Computing machine 500 may include various input device (s) 514, such as a display, keyboard, mouse, pen, camera, touch input device, and the like. Output device (s) 516 such as speakers, printers, and the like may also be included. All of these devices are well known to those skilled in the art and need no further explanation herein.

이러한 시스템은 컴퓨팅 머신에 의해 처리되는 컴퓨터 실행가능 명령어들 및/또는 컴퓨터 해석되는 명령어들, 예를 들어 프로그램 모듈을 포함하여, 소프트웨어의 일반적인 문맥으로 구현될 수 있다. 일반적으로, 프로그램 모듈은 처리 장치에 의해 처리되는 경우 처리 장치로 하여금 특정 임무를 수행하거나 또는 특정 추상 데이터 유형을 구현하게 하는 루틴, 프로그램, 객체, 컴포넌트, 데이터 구조 등을 포함한다. 이 시스템은 작업들이 통신 네트워크를 통해 링크되는 원격 처리 장치들에 의해 수행되는 분산형 컴퓨팅 환경에서 실시될 수 있다. 분산형 컴퓨팅 환경에서, 프로그램 모듈은 메모리 저장 장치를 포함하는 근거리 및 원거리 컴퓨터 저장 매체 모두에 위치할 수 있다.Such a system may be implemented in the general context of software, including computer executable instructions processed by a computing machine and / or computer interpreted instructions, eg, program modules. Generally, program modules include routines, programs, objects, components, data structures, etc. that, when processed by a processing device, cause the processing device to perform certain tasks or implement particular abstract data types. The system can be practiced in distributed computing environments where tasks are performed by remote processing devices that are linked through a communications network. In a distributed computing environment, program modules may be located in both local and remote computer storage media including memory storage devices.

첨부한 청구항의 서두에 있는 "제조 물품", "프로세스", "머신" 및 "물질의 구성"이라는 용어는 청구항을 35 U.S.C. §101의 항목의 사용에 의해 정의된 특허가능 대상의 범주 내에 들어가는 간주되는 청구대상으로 한정하려 한 것이다.The terms " article of manufacture ", " process ", " machine " and " constitution of a substance " It is intended to be limited to the claimed subject matter falling within the scope of patentable subject matter defined by the use of §101.

앞서 설명한 실시예들 중 임의의 또는 모든 실시예는 추가의 혼합 실시예를 형성하도록 임의의 조합으로 사용될 수 있다. 청구항에 정의된 발명의 대상은 전술한 특정 실시예에 국한될 필요는 없음을 이해해야 한다. 특정 실시예는 오직 예시로서 기술되었다.Any or all of the embodiments described above may be used in any combination to form additional mixed embodiments. It is to be understood that the subject matter defined in the claims is not limited to the specific embodiments described above. Certain embodiments have been described by way of example only.

Claims (10)

로봇으로부터의 감각 데이터(sensory data)를 메모리 내로 수신하는 단계와,
상기 감각 데이터를 사용하여 상기 로봇의 환경 내에 있는 하나 이상의 개체를 추적하는 단계와,
상기 추적되는 하나 이상의 개체에 대한 상기 로봇의 상대적 위치 및 배향을 유지하도록 상기 로봇에게 이동할 것을 지시하는 단계와,
상기 감각 데이터를 사용하여 장애물을 회피하도록 상기 로봇의 이동을 제어하는 단계
를 포함하는 컴퓨터 구현 프로세스.
Receiving sensory data from the robot into memory,
Using the sensory data to track one or more entities within the environment of the robot;
Instructing the robot to move to maintain the relative position and orientation of the robot relative to the tracked one or more objects;
Controlling the movement of the robot to avoid obstacles using the sensory data
Computer implemented process comprising a.
제1항에 있어서,
상기 사용자에게 라이브 비디오 피드(live video feed)를 제공하고 상기 라이브 비디오 피드 내에 추적되는 개체들을 표시하는 단계를 더 포함하는 컴퓨터 구현 프로세스.
The method of claim 1,
Providing a live video feed to the user and displaying the objects tracked within the live video feed.
제2항에 있어서,
개체를 추적하는 단계에서 개체를 상실하는 경우, 상기 프로세스는 상기 로봇의 상기 위치 및 배향을 조정함으로써 상기 상실된 개체의 추적을 재획득하도록 시도하는 단계를 더 포함하는 컴퓨터 구현 프로세스.
3. The method of claim 2,
If the object is lost in the tracking of the object, the process further comprises attempting to reacquire tracking of the lost object by adjusting the position and orientation of the robot.
제1항에 있어서,
상기 추적되는 개체는 사람이고, 상기 프로세스는
제2 로봇을 제2 환경에 제공하는 단계와,
제2 로봇으로부터의 감각 데이터를 메모리 내로 수신하는 단계와,
상기 감각 데이터를 사용하여 상기 제2 로봇의 상기 제2 환경 내에 있는 사람을 추적하는 단계와,
상기 제2 환경 내에서 상기 추적되는 사람에 대한 상기 제2 로봇의 상대적 위치 및 배향을 유지하도록 상기 제2 로봇에게 이동할 것을 지시하는 단계와,
상기 감각 데이터를 사용하여 장애물을 회피하도록 상기 제2 로봇의 이동을 제어하는 단계
를 더 포함하는 컴퓨터 구현 프로세스.
The method of claim 1,
The entity being tracked is a human, and the process
Providing a second robot to a second environment,
Receiving sensory data from a second robot into a memory;
Using the sensory data to track a person within the second environment of the second robot;
Instructing the second robot to move to maintain the relative position and orientation of the second robot relative to the tracked person within the second environment;
Controlling the movement of the second robot to avoid obstacles using the sensory data
Computer implemented process further comprising.
컴퓨터 저장 매체와,
상기 컴퓨터 저장 매체 상에 저장되고, 처리 장치에 의해 처리되는 경우 상기 처리 장치로 하여금 프로세스를 실행하도록 지시하는 컴퓨터 프로그램 명령어들
을 포함하되,
상기 프로세스는
로봇으로부터의 감각 데이터를 메모리 내로 수신하는 단계와,
상기 감각 데이터를 사용하여 상기 로봇의 환경 내에 있는 개체들을 추적하는 단계와,
상기 추적되는 개체들 중 하나 이상의 개체에 대한 상기 로봇의 상대적 위치 및 배향을 유지하도록 상기 로봇에게 이동할 것을 지시하는 단계와,
상기 감각 데이터를 사용하여 장애물을 회피하도록 상기 로봇의 이동을 제어하는 단계
를 포함하는
제조 물품.
Computer storage media,
Computer program instructions stored on the computer storage medium and instructing the processing device to execute a process when processed by the processing device
≪ / RTI >
The process
Receiving sensory data from the robot into memory,
Using the sensory data to track objects in the environment of the robot;
Instructing the robot to move to maintain the relative position and orientation of the robot relative to one or more of the tracked objects;
Controlling the movement of the robot to avoid obstacles using the sensory data
Containing
Manufactured goods.
로봇의 환경으로부터 감각 데이터를 수신하는 입력부와 상기 환경에서 인식된 개체를 나타내는 출력부를 갖는 개체 인식 모듈과,
추적되도록 선택된 개체를 나타내는 입력부와 상기 선택된 개체를 추종(following)하는 상기 로봇의 위치 및 배향을 나타내는 출력부를 갖는 추적 및 추종 모듈과,
상기 위치 및 배향을 수신하는 입력부와 상기 로봇에게 장애물을 회피하는 경로를 따라 원하는 위치 및 배향으로 이동할 것을 지시하는 상기 로봇의 움직임 제어 시스템에 대한 출력부를 구비한 네비게이션 모듈
을 포함하는 컴퓨팅 머신.
An object recognition module having an input unit for receiving sensory data from an environment of the robot and an output unit representing an object recognized in the environment;
A tracking and tracking module having an input indicating an object selected to be tracked and an output indicating a position and orientation of the robot following the selected object;
A navigation module having an input for receiving the position and orientation and an output for the movement control system of the robot instructing the robot to move to a desired position and orientation along a path avoiding obstacles
Computing machine comprising a.
제6항에 있어서,
상기 추적 및 추종 모듈은 상기 인식된 개체에 대한 정보를 수신하는 입력부와 상기 선택된 개체가 사전결정된 경계 내에 존재하는지를 나타내는 출력부를 갖는 개체 추적 모듈을 포함하는, 컴퓨팅 머신.
The method according to claim 6,
The tracking and tracking module includes an entity tracking module having an input for receiving information about the recognized entity and an output for indicating whether the selected entity is within a predetermined boundary.
제7항에 있어서,
상기 추적 및 추종 모듈은 상기 선택된 개체가 사전결정된 경계 내에 존재하는지를 나타내는 출력을 수신하는 입력부와 상기 개체가 상기 경계 내에서 존재하는 경우의 상기 로봇에 대한 위치 및 배향을 제공하는 출력부를 갖는 위치 계산 모듈을 포함하는, 컴퓨팅 머신.
8. The method of claim 7,
The tracking and tracking module has a position calculation module having an input for receiving an output indicating whether the selected entity is within a predetermined boundary and an output for providing a position and orientation for the robot when the entity is within the boundary. Including, a computing machine.
제8항에 있어서,
상기 추적 및 추종 모듈은 상기 인식된 개체에 대한 정보를 수신하는 입력부와 상기 선택된 개체를 재획득하도록 시도하기 위해 상기 로봇을 이동시키기 위한 원하는 위치 및 배향을 제공하는 출력부를 갖는 개체 재획득 모듈을 포함하는, 컴퓨팅 머신.
9. The method of claim 8,
The tracking and tracking module includes an object reacquisition module having an input for receiving information about the recognized object and an output for providing a desired position and orientation for moving the robot to reacquire the selected object. , Computing machine.
제9항에 있어서,
상기 인식된 개체에 대한 정보를 사용자에게 제공하고 사용자가 상기 인식된 개체들 중 하나를 선택할 수 있게 하는 메카니즘을 구비한 사용자 인터페이스를 더 포함하는, 컴퓨팅 머신.
10. The method of claim 9,
And a user interface having a mechanism for providing a user with information about the recognized entity and allowing the user to select one of the recognized entities.
KR1020137033129A 2011-06-13 2012-06-10 Tracking and following of moving objects by a mobile robot KR20140031316A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/158,465 2011-06-13
US13/158,465 US20120316680A1 (en) 2011-06-13 2011-06-13 Tracking and following of moving objects by a mobile robot
PCT/US2012/041797 WO2012173901A2 (en) 2011-06-13 2012-06-10 Tracking and following of moving objects by a mobile robot

Publications (1)

Publication Number Publication Date
KR20140031316A true KR20140031316A (en) 2014-03-12

Family

ID=47293824

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020137033129A KR20140031316A (en) 2011-06-13 2012-06-10 Tracking and following of moving objects by a mobile robot

Country Status (6)

Country Link
US (1) US20120316680A1 (en)
EP (1) EP2718778A4 (en)
JP (1) JP2014516816A (en)
KR (1) KR20140031316A (en)
CN (1) CN103608741A (en)
WO (1) WO2012173901A2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108072369A (en) * 2016-11-16 2018-05-25 阳光暖果(北京)科技发展有限公司 A kind of Mobile Robotics Navigation method of configurable strategy
KR20180058004A (en) * 2016-11-23 2018-05-31 한화지상방산 주식회사 Following apparatus and following system
US11801602B2 (en) 2019-01-03 2023-10-31 Samsung Electronics Co., Ltd. Mobile robot and driving method thereof

Families Citing this family (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101970962B1 (en) * 2012-03-19 2019-04-22 삼성전자주식회사 Method and apparatus for baby monitering
JP5356615B1 (en) * 2013-02-01 2013-12-04 パナソニック株式会社 Customer behavior analysis device, customer behavior analysis system, and customer behavior analysis method
US9367067B2 (en) * 2013-03-15 2016-06-14 Ashley A Gilmore Digital tethering for tracking with autonomous aerial robot
US20150207961A1 (en) * 2014-01-17 2015-07-23 James Albert Gavney, Jr. Automated dynamic video capturing
CN104049633B (en) * 2014-06-13 2017-05-10 深圳市宇恒互动科技开发有限公司 Servo control method, servo device and servo system
CN104038717B (en) * 2014-06-26 2017-11-24 北京小鱼在家科技有限公司 A kind of intelligent recording system
WO2016012867A2 (en) * 2014-07-20 2016-01-28 Helico Aerospace Industries Sia Autonomous vehicle operation
JP6669948B2 (en) 2014-09-08 2020-03-18 日本電産株式会社 Moving object control device and moving object
KR102106889B1 (en) * 2014-12-11 2020-05-07 한화디펜스 주식회사 Mini Integrated-control device
KR102314637B1 (en) * 2015-03-23 2021-10-18 엘지전자 주식회사 Robot cleaner, and robot cleaning system
US11000944B2 (en) * 2015-04-22 2021-05-11 Massachusetts Institute Of Technology Foot touch position following apparatus, method of controlling movement thereof, and non-transitory computer-readable information recording medium storing the same
HK1202221A2 (en) * 2015-05-28 2015-09-18 Solomon Mobile Technology Ltd A method and system for dynamic point-of-interest filming with uav
EP3101889A3 (en) * 2015-06-02 2017-03-08 LG Electronics Inc. Mobile terminal and controlling method thereof
CN105005306B (en) * 2015-07-24 2017-08-25 杭州德宝威智能科技有限公司 Repositioning method in robot performance
WO2017041225A1 (en) * 2015-09-08 2017-03-16 深圳市赛亿科技开发有限公司 Robot following method
US10195740B2 (en) * 2015-09-10 2019-02-05 X Development Llc Using object observations of mobile robots to generate a spatio-temporal object inventory, and using the inventory to determine monitoring parameters for the mobile robots
EP3353706A4 (en) * 2015-09-15 2019-05-08 SZ DJI Technology Co., Ltd. System and method for supporting smooth target following
EP3368957B1 (en) 2015-10-30 2022-02-09 SZ DJI Technology Co., Ltd. Systems and methods for uav path planning and control
US10051839B2 (en) * 2016-01-13 2018-08-21 Petronics Inc. Animal exerciser system
US9868212B1 (en) 2016-02-18 2018-01-16 X Development Llc Methods and apparatus for determining the pose of an object based on point cloud data
US10271021B2 (en) * 2016-02-29 2019-04-23 Microsoft Technology Licensing, Llc Vehicle trajectory determination to stabilize vehicle-captured video
CN105892493B (en) * 2016-03-31 2019-03-01 纳恩博(常州)科技有限公司 A kind of information processing method and mobile device
CN105717927A (en) * 2016-04-13 2016-06-29 京东方科技集团股份有限公司 Bearing device and control method used for bearing device
DE17781954T1 (en) * 2016-04-15 2019-05-23 Positec Power Tools (Suzhou) Co., Ltd AUTOMATIC WORKING SYSTEM, MOBILE DEVICE AND CONTROL METHOD THEREFOR
TWI602433B (en) * 2016-04-29 2017-10-11 和碩聯合科技股份有限公司 Object tracking method and unmanned aerial vehicle using the same
DE102016208941A1 (en) 2016-05-24 2017-11-30 Robert Bosch Gmbh Method and device for evaluating a thermal image and autonomous system
US11263545B2 (en) 2016-06-30 2022-03-01 Microsoft Technology Licensing, Llc Control of cyber-physical systems under uncertainty
EP3828859A1 (en) 2016-07-04 2021-06-02 Sony Corporation Robot, robot system, and storage medium
CN109937119B (en) * 2016-07-29 2022-10-21 罗伯特·博世有限公司 Personal protection system and method for operating the same
US10229317B2 (en) 2016-08-06 2019-03-12 X Development Llc Selectively downloading targeted object recognition modules
CN109644303B (en) * 2016-08-29 2021-07-23 Groove X 株式会社 Robot for operating sounding body
US10955838B2 (en) * 2016-09-26 2021-03-23 Dji Technology, Inc. System and method for movable object control
CN106155065A (en) * 2016-09-28 2016-11-23 上海仙知机器人科技有限公司 A kind of robot follower method and the equipment followed for robot
US10884417B2 (en) * 2016-11-07 2021-01-05 Boston Incubator Center, LLC Navigation of mobile robots based on passenger following
KR101907548B1 (en) 2016-12-23 2018-10-12 한국과학기술연구원 Moving and searching method of mobile robot for following human
CN106774345B (en) * 2017-02-07 2020-10-30 上海仙软信息科技有限公司 Method and equipment for multi-robot cooperation
CN110546459A (en) * 2017-02-08 2019-12-06 马凯特大学 Robot tracking navigation with data fusion
US11238727B2 (en) 2017-02-15 2022-02-01 Ford Global Technologies, Llc Aerial vehicle-ground vehicle coordination
JPWO2018180454A1 (en) * 2017-03-28 2020-02-06 日本電産株式会社 Moving body
US20180336412A1 (en) * 2017-05-17 2018-11-22 Sphero, Inc. Computer vision robot control
DE102017214650A1 (en) 2017-08-22 2019-02-28 Volkswagen Aktiengesellschaft Method for operating a motor vehicle and motor vehicle
CN107608345A (en) * 2017-08-26 2018-01-19 深圳力子机器人有限公司 A kind of robot and its follower method and system
CN108737362B (en) * 2018-03-21 2021-09-14 北京猎户星空科技有限公司 Registration method, device, equipment and storage medium
CN110575099B (en) * 2018-06-07 2021-07-27 科沃斯机器人股份有限公司 Fixed-point cleaning method, floor sweeping robot and storage medium
WO2020019193A1 (en) * 2018-07-25 2020-01-30 深圳市大疆创新科技有限公司 Unmanned aerial vehicle control method and system, and unmanned aerial vehicle
KR102252034B1 (en) * 2018-09-06 2021-05-14 엘지전자 주식회사 A robot cleaner and a controlling method for the same
KR102582863B1 (en) * 2018-09-07 2023-09-27 삼성전자주식회사 Electronic device and method for recognizing user gestures based on user intention
KR102627014B1 (en) 2018-10-02 2024-01-19 삼성전자 주식회사 electronic device and method for recognizing gestures
JP7178061B2 (en) * 2018-10-10 2022-11-25 霊動科技(北京)有限公司 Human interaction automatic guided vehicle
US11292449B2 (en) * 2018-10-19 2022-04-05 GEOSAT Aerospace & Technology Unmanned ground vehicle and method for operating unmanned ground vehicle
US11817194B2 (en) * 2019-04-30 2023-11-14 Pixart Imaging Inc. Smart control system
US11137770B2 (en) * 2019-04-30 2021-10-05 Pixart Imaging Inc. Sensor registering method and event identifying method of smart detection system
CN110405767B (en) * 2019-08-01 2022-06-17 深圳前海微众银行股份有限公司 Leading method, device, equipment and storage medium for intelligent exhibition hall
US11932306B2 (en) 2019-09-14 2024-03-19 Honda Motor Co., Ltd. Trajectory planner
US11927674B2 (en) * 2019-09-16 2024-03-12 Honda Motor Co., Ltd. System and method for providing a comprehensive trajectory planner for a person-following vehicle
CN110543177A (en) * 2019-09-27 2019-12-06 珠海市一微半导体有限公司 Robot for walking baby automatically and method for walking baby automatically
CN112890680B (en) * 2019-11-19 2023-12-12 科沃斯机器人股份有限公司 Follow-up cleaning operation method, control device, robot and storage medium
CN110926476B (en) * 2019-12-04 2023-09-01 三星电子(中国)研发中心 Accompanying service method and device for intelligent robot
WO2022027015A1 (en) * 2020-07-27 2022-02-03 Brain Corporation Systems and methods for preserving data and human confidentiality during feature identification by robotic devices
CN115494882A (en) * 2022-10-20 2022-12-20 泉州装备制造研究所 Mobile robot following method and device based on electromagnetic positioning and readable medium

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004126801A (en) * 2002-09-30 2004-04-22 Secom Co Ltd Transport robot
JP4245887B2 (en) * 2002-09-30 2009-04-02 セコム株式会社 Transfer robot
JP2006003263A (en) * 2004-06-18 2006-01-05 Hitachi Ltd Visual information processor and application system
CN2715931Y (en) * 2004-07-13 2005-08-10 中国科学院自动化研究所 Apparatus for quick tracing based on object surface color
JP4792823B2 (en) * 2005-06-09 2011-10-12 ソニー株式会社 NETWORK SYSTEM, MOBILE DEVICE, ITS CONTROL METHOD, AND COMPUTER PROGRAM
JP5188977B2 (en) * 2005-09-30 2013-04-24 アイロボット コーポレイション Companion robot for personal interaction
JP4811128B2 (en) * 2006-05-25 2011-11-09 トヨタ自動車株式会社 Autonomous mobile device
US7211980B1 (en) * 2006-07-05 2007-05-01 Battelle Energy Alliance, Llc Robotic follow system and method
JP2008084135A (en) * 2006-09-28 2008-04-10 Toshiba Corp Movement control method, mobile robot and movement control program
US20100250022A1 (en) * 2006-12-29 2010-09-30 Air Recon, Inc. Useful unmanned aerial vehicle
US20090180668A1 (en) * 2007-04-11 2009-07-16 Irobot Corporation System and method for cooperative remote vehicle behavior
JP4413957B2 (en) * 2007-08-24 2010-02-10 株式会社東芝 Moving object detection device and autonomous moving object
CN101236657A (en) * 2008-03-03 2008-08-06 吉林大学 Single movement target track tracking and recording method
US8244469B2 (en) * 2008-03-16 2012-08-14 Irobot Corporation Collaborative engagement for target identification and tracking
US8103382B2 (en) * 2008-04-24 2012-01-24 North End Technologies Method and system for sharing information through a mobile multimedia platform
US8340819B2 (en) * 2008-09-18 2012-12-25 Intouch Technologies, Inc. Mobile videoconferencing robot system with network adaptive driving
US8897920B2 (en) * 2009-04-17 2014-11-25 Intouch Technologies, Inc. Tele-presence robot system with software modularity, projector and laser pointer
KR20110003146A (en) * 2009-07-03 2011-01-11 한국전자통신연구원 Apparatus for econgnizing gesture, robot system using the same and method for econgnizing gesture using the same
US20110026770A1 (en) * 2009-07-31 2011-02-03 Jonathan David Brookshire Person Following Using Histograms of Oriented Gradients
CN101694716A (en) * 2009-10-10 2010-04-14 北京理工大学 Stereoscopic vision optical tracking system aiming at multipoint targets
US20110164108A1 (en) * 2009-12-30 2011-07-07 Fivefocal Llc System With Selective Narrow FOV and 360 Degree FOV, And Associated Methods
US11154981B2 (en) * 2010-02-04 2021-10-26 Teladoc Health, Inc. Robot user interface for telepresence robot system
US8918209B2 (en) * 2010-05-20 2014-12-23 Irobot Corporation Mobile human interface robot

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108072369A (en) * 2016-11-16 2018-05-25 阳光暖果(北京)科技发展有限公司 A kind of Mobile Robotics Navigation method of configurable strategy
KR20180058004A (en) * 2016-11-23 2018-05-31 한화지상방산 주식회사 Following apparatus and following system
US11801602B2 (en) 2019-01-03 2023-10-31 Samsung Electronics Co., Ltd. Mobile robot and driving method thereof

Also Published As

Publication number Publication date
EP2718778A4 (en) 2015-11-25
WO2012173901A3 (en) 2013-04-04
EP2718778A2 (en) 2014-04-16
CN103608741A (en) 2014-02-26
JP2014516816A (en) 2014-07-17
WO2012173901A2 (en) 2012-12-20
US20120316680A1 (en) 2012-12-13

Similar Documents

Publication Publication Date Title
KR20140031316A (en) Tracking and following of moving objects by a mobile robot
US11830618B2 (en) Interfacing with a mobile telepresence robot
US9552056B1 (en) Gesture enabled telepresence robot and system
US11112261B2 (en) Navigation methods and apparatus for the visually impaired
US11126257B2 (en) System and method for detecting human gaze and gesture in unconstrained environments
JP6495331B2 (en) System, method and computer program product for processing interaction between human and humanoid robot
EP2068275B1 (en) Communication robot
EP3414644B1 (en) Control system for navigation in virtual reality environment
WO2017133453A1 (en) Method and system for tracking moving body
WO2016031105A1 (en) Information-processing device, information processing method, and program
WO2018077307A1 (en) Movement control method and apparatus, and computer storage medium
Medeiros et al. Human-drone interaction: Using pointing gesture to define a target object
Thrun et al. Experiences with two deployed interactive tour-guide robots
WO2022091787A1 (en) Communication system, robot, and storage medium
EP4209849A1 (en) Telepresence robots having cognitive navigation capabilit
JP6809267B2 (en) Information processing equipment, information processing systems and programs
Latif et al. Fusion of automation and teleoperation for person-following with mobile robots
JP2021047424A (en) Information processing device, information processing system and program
Oh A 360 VR and Wi-Fi Tracking Based Autonomous Telepresence Robot for Virtual Tour
Li ASCCbot: An open mobile robot platform

Legal Events

Date Code Title Description
N231 Notification of change of applicant
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid