KR102233609B1 - 자율 행동 로봇을 제어하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체 - Google Patents

자율 행동 로봇을 제어하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체 Download PDF

Info

Publication number
KR102233609B1
KR102233609B1 KR1020190041082A KR20190041082A KR102233609B1 KR 102233609 B1 KR102233609 B1 KR 102233609B1 KR 1020190041082 A KR1020190041082 A KR 1020190041082A KR 20190041082 A KR20190041082 A KR 20190041082A KR 102233609 B1 KR102233609 B1 KR 102233609B1
Authority
KR
South Korea
Prior art keywords
identification information
person identification
user
information
surrounding object
Prior art date
Application number
KR1020190041082A
Other languages
English (en)
Other versions
KR20200120982A (ko
Inventor
송주봉
박해솔
Original Assignee
주식회사 토룩
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 토룩 filed Critical 주식회사 토룩
Priority to KR1020190041082A priority Critical patent/KR102233609B1/ko
Publication of KR20200120982A publication Critical patent/KR20200120982A/ko
Application granted granted Critical
Publication of KR102233609B1 publication Critical patent/KR102233609B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1684Tracking a line or surface by means of sensors

Abstract

본 발명의 일 태양에 따르면, 자율 행동 로봇을 제어하기 위한 방법으로서, 영상 촬영 모듈에 의해 획득되는 인물 식별 정보에 대응하는 사용자를 인식하는 단계, 및 상기 인식되는 사용자에 관한 인물 식별 정보에 기초하여, 상기 자율 행동 로봇이 상기 사용자를 추적하며 이동할지 여부를 결정하는 단계를 포함하고, 상기 인물 식별 정보가 획득되지 않는 경우, 상기 인식 단계에서, 상기 인물 식별 정보와 시간적으로 또는 공간적으로 연관되는 주변 객체를 인식하고, 상기 결정 단계에서, 상기 자율 행동 로봇이 상기 인식되는 주변 객체를 추적하며 이동하는 것으로 결정하는 방법이 제공된다.

Description

자율 행동 로봇을 제어하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체{METHOD, SYSTEM AND NON-TRANSITORY COMPUTER-READABLE RECORDING MEDIUM FOR CONTROLLING AN AUTONOMOUS ROBOT}
본 발명은 자율 행동 로봇을 제어하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체에 관한 것이다.
근래에 들어, 인공지능(artificial intelligence) 및 로봇 기술이 발달하면서, 스스로 판단하여 동작할 수 있는 자율 행동 로봇에 관한 많은 연구가 진행되고 있다.
이에 관한, 종래 기술의 일 예로서, 사용자의 얼굴을 인식하고, 인식된 사용자의 위치를 목표지점으로 하여 사용자에게 가까이 다가가는 로봇이 소개된 바 있다.
하지만, 위와 같은 종래 기술을 비롯하여 지금까지 소개된 기술에 의하면, 사용자의 얼굴이 인식되는 경우에만 로봇이 사용자에게 가까이 다가갈 수 있을 뿐이고, 그 사용자의 얼굴이 인식되지 않는 경우에는 로봇이 사용자에게 다가가는 동작을 못하는 실정이었다.
본 발명은 전술한 종래 기술의 문제점을 모두 해결하는 것을 그 목적으로 한다.
또한, 본 발명은, 영상 촬영 모듈에 의해 획득되는 인물 식별 정보에 기초하여, 자율 행동 로봇이 사용자를 추적하며 이동하도록 제어하는 것을 또 다른 목적으로 한다.
또한, 본 발명은, 인물 식별 정보가 획득되지 않는 경우에도 자율 행동 로봇이 인식된 사용자의 인물 식별 정보와 시간적으로 또는 공간적으로 연관되는 주변 객체를 추적하며 이동하도록 제어하는 것을 또 다른 목적으로 한다.
상기 목적을 달성하기 위한 본 발명의 대표적인 구성은 다음과 같다.
본 발명의 일 태양에 따르면, 자율 행동 로봇을 제어하기 위한 방법으로서, 영상 촬영 모듈에 의해 획득되는 인물 식별 정보에 대응하는 사용자를 인식하는 단계, 및 상기 인식되는 사용자에 관한 인물 식별 정보에 기초하여, 상기 자율 행동 로봇이 상기 사용자를 추적하며 이동할지 여부를 결정하는 단계를 포함하고, 상기 인물 식별 정보가 획득되지 않는 경우, 상기 인식 단계에서, 상기 인물 식별 정보와 시간적으로 또는 공간적으로 연관되는 주변 객체를 인식하고, 상기 결정 단계에서, 상기 자율 행동 로봇이 상기 인식되는 주변 객체를 추적하며 이동하는 것으로 결정하는 방법이 제공된다.
본 발명의 다른 태양에 따르면, 자율 행동 로봇을 제어하기 위한 시스템으로서, 영상 촬영 모듈에 의해 획득되는 인물 식별 정보에 대응하는 사용자를 인식하는 인식부, 및 상기 인식되는 사용자에 관한 인물 식별 정보에 기초하여, 상기 자율 행동 로봇이 상기 사용자를 추적하며 이동할지 여부를 결정하는 결정부를 포함하고, 상기 인물 식별 정보가 획득되지 않는 경우, 상기 인식부에서, 상기 인물 식별 정보와 시간적으로 또는 공간적으로 연관되는 주변 객체를 인식하고, 상기 결정부에서, 상기 자율 행동 로봇이 상기 인식되는 주변 객체를 추적하며 이동하는 것으로 결정하는 시스템이 제공된다.
이 외에도, 본 발명을 구현하기 위한 다른 방법, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 비일시성의 컴퓨터 판독 가능한 기록 매체가 더 제공된다.
본 발명에 의하면, 영상 촬영 모듈에 의해 획득되는 인물 식별 정보에 기초하여, 자율 행동 로봇이 사용자를 추적하며 이동하도록 제어할 수 있게 된다.
본 발명에 의하면, 인물 식별 정보가 획득되지 않는 경우에도 위 인물 식별 정보와 시간적으로 또는 공간적으로 연관되는 주변 객체를 인식하여 그 주변 객체를 추적하며 이동하도록 제어할 수 있게 된다.
도 1은 본 발명의 일 실시예에 따른 자율 행동 로봇 제어 시스템의 내부 구성을 상세하게 도시하는 도면이다.
도 2는 본 발명의 일 실시예에 따른 자율 행동 로봇이 사용자를 인식하는 상황을 예시적으로 나타내는 도면이다.
도 3은 본 발명의 실시예에 따른 자율 행동 로봇이 사용자를 인식하는 상황을 영상 촬영 모듈의 시점에서 상황별로 구분하여 예시적으로 나타내는 도면이다.
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이러한 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 본 명세서에 기재되어 있는 특정 형상, 구조 및 특성은 본 발명의 정신과 범위를 벗어나지 않으면서 일 실시예로부터 다른 실시예로 변경되어 구현될 수 있다. 또한, 각각의 실시예 내의 개별 구성요소의 위치 또는 배치도 본 발명의 정신과 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 행하여지는 것이 아니며, 본 발명의 범위는 특허청구범위의 청구항들이 청구하는 범위 및 그와 균등한 모든 범위를 포괄하는 것으로 받아들여져야 한다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 구성요소를 나타낸다.
이하에서는, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 여러 바람직한 실시예에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.
자율 행동 로봇 제어 시스템의 구성
이하에서는, 본 발명의 구현을 위하여 중요한 기능을 수행하는 자율 행동 로봇 제어 시스템(100)의 내부 구성과 각 구성요소의 기능에 대하여 살펴보기로 한다.
도 1는 본 발명의 일 실시예에 따른 자율 행동 로봇 제어 시스템(100)의 내부 구성을 상세하게 도시하는 도면이다.
도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 자율 행동 로봇 제어 시스템(100)은, 인식부(110), 결정부(120), 통신부(130) 및 제어부(140)를 포함하여 구성될 수 있다. 본 발명의 일 실시예에 따르면, 인식부(110), 결정부(120), 통신부(130) 및 제어부(140)는 그 중 적어도 일부가 외부의 시스템과 통신하는 프로그램 모듈일 수 있다. 이러한 프로그램 모듈은 운영 시스템, 응용 프로그램 모듈 또는 기타 프로그램 모듈의 형태로 자율 행동 로봇 제어 시스템(100)에 포함될 수 있고, 물리적으로는 여러 가지 공지의 기억 장치에 저장될 수 있다. 또한, 이러한 프로그램 모듈은 자율 행동 로봇 제어 시스템(100)과 통신 가능한 원격 기억 장치에 저장될 수도 있다. 한편, 이러한 프로그램 모듈은 본 발명에 따라 후술할 특정 업무를 수행하거나 특정 추상 데이터 유형을 실행하는 루틴, 서브루틴, 프로그램, 오브젝트, 컴포넌트, 데이터 구조 등을 포괄하지만, 이에 제한되지는 않는다.
한편, 자율 행동 로봇 제어 시스템(100)에 관하여 위와 같이 설명되었으나, 이러한 설명은 예시적인 것이고, 자율 행동 로봇 제어 시스템(100)의 구성요소 또는 기능 중 적어도 일부가 필요에 따라 외부 시스템(미도시됨) 내에서 실현되거나 외부 시스템 내에 포함될 수도 있고, 자율 행동 로봇 제어 시스템(100)의 구성요소 또는 기능 중 적어도 일부가 필요에 따라 자율 행동 로봇 내에서 실현되거나 내부 시스템 내에 포함될 수도 있음은 당업자에게 자명하다.
도 2는 본 발명의 일 실시예에 따른 자율 행동 로봇(220)이 사용자(210)를 인식하는 상황을 예시적으로 나타내는 도면이다.
도 3은 본 발명의 실시예에 따른 자율 행동 로봇(220)이 사용자(210)를 인식하는 상황을 영상 촬영 모듈(221)의 시점에서 상황별로 구분하여 예시적으로 나타내는 도면이다. 구체적으로, 도 3의 (a)는 사용자(210)의 인물 식별 정보(310)가 인식되는 상황을, 도 3의 (b)는 사용자(210)가 뒤로 돎으로써 그 사용자의 인물 식별 정보가 인식되지 않는 경우에 그 사용자와 연관된 몸체에 관한 정보(320)가 인식되는 상황을, 도 3의 (c)는 사용자(210)의 인물 식별 정보와 몸체 정보가 인식되지 않는 경우에 그 사용자와 연관된 이동 물체에 관한 정보(330)가 인식되는 상황을 각각 나타내는 도면이다. 한편, 이러한 구분은 예시적인 것이고, 다른 유사한 상황이 존재하거나 복수의 객체가 인식될 수도 있음은 당업자에게 자명하다.
먼저, 본 발명의 일 실시예에 따른 인식부(110)는, 영상 촬영 모듈(221)에 의해 획득되는 인물 식별 정보(310)에 대응하는 사용자(210)를 인식하는 기능을 수행할 수 있다.
예를 들면, 본 발명의 일 실시예에 따른 인식부(110)는, 영상 촬영 모듈(221)을 통해 획득되는 인물 식별 정보(310)와 적어도 한 명의 사용자의 인물 식별 정보에 관한 룩업 테이블(또는 데이터베이스)을 비교함으로써 그 획득되는 인물 식별 정보(310)에 대응하는 사용자(210)를 인식할 수 있다. 본 발명의 일 실시예에 따른 인물 식별 정보에는, 얼굴 정보(눈, 코, 입 등의 모양, 크기, 및 위치, 수염 유무, 안경 유무 등), 이름, 나이, 성별 등이 포함될 수 있다.
한편, 본 발명의 일 실시예에 따른 인식부(110)는, 획득되는 객체 이미지로부터 주요 특징을 추출하여 룩업 테이블(또는 데이터베이스)의 객체 이미지의 주요 특징과 유사도를 비교함으로써 특정 객체임을 인식하는 알고리즘 등의 공지의 얼굴 인식 알고리즘을 이용할 수 있다.
또한, 본 발명의 일 실시예에 따른 인식부(110)는, 위의 인물 식별 정보가 획득되지 않는 경우, 그 인물 식별 정보와 시간적으로 또는 공간적으로 연관되는 주변 객체를 인식하는 기능을 수행할 수 있다.
구체적으로, 본 발명의 일 실시예에 따른 인식부(110)는, 사용자가 고개를 돌리는 경우, 뒤로 도는 경우, 특정 객체에 의해 얼굴이 가려지는 경우 등과 같이 영상 촬영 모듈에 의한 인물 식별 정보 획득이 불가능해지는 경우에, 기존의 인물 식별 정보가 마지막으로 획득된 시점에 그 인물 식별 정보와 근접하여 검출되는 객체를 주변 객체로 결정할 수 있다.
예를 들면, 본 발명의 일 실시예에 따른 인식부(110)는, 획득되는 인물 식별 정보의 획득 시점 및 획득 위치를 계산하거나 저장할 수 있고, 인물 식별 정보가 마지막으로 획득되는 시점에 그 인물 식별 정보로부터 기설정된 소정의 거리 범위 내(예를 들면, 마지막으로 획득된 얼굴 정보로부터 1미터 내)에서 검출되는 적어도 하나의 객체를 주변 객체로 결정할 수 있다. 또한, 본 발명의 일 실시예에 따른 인식부(110)는, 주변 객체를 인식하는 경우에, 주변 객체에 관한 정보의 획득 시점 및 획득 위치를 계산하거나 저장할 수 있다. 본 발명의 일 실시예에 따른 주변 객체에 관한 정보에는, 그 객체의 온도, 색깔, 크기, 모양, 신뢰도 등이 포함될 수 있다.
또한, 본 발명의 일 실시예에 따른 인식부(110)는, 인물 식별 정보가 획득되지 않는 경우, 그 인물 식별 정보가 마지막으로 획득된 시점에 그 인물 식별 정보와 근접하여 검출되는 객체를 주변 객체로 결정하는 기능을 수행할 수 있고, 그 주변 객체는 몸체 및 이동 물체 중 적어도 하나일 수 있다.
구체적으로, 본 발명의 일 실시예에 따른 인식부(110)는, 주변 객체를 인식하는 경우, 획득된 주변 객체에 관한 정보에 기초하여 그 주변 객체를 몸체 또는 이동 물체라고 판단할 수 있고, 획득된 주변 객체에 관한 정보, 그 정보의 획득 시점 및 그 정보의 획득 위치 중 적어도 하나에 기초하여 그 주변 객체에 관한 정보의 신뢰도(예를 들면, 0 내지 100 사이의 수치)를 부여할 수 있다.
예를 들면, 본 발명의 일 실시예에 따른 인식부(110)는, 인식된 주변 객체의 크기가 기설정된 소정의 범위 내(예를 들면, 객체의 면적이 A제곱미터 내지 B제곱미터 내)에 포함되고, 인식된 주변 객체의 온도가 기설정된 소정의 범위 내(예를 들면, 객체의 온도가 섭씨 C도 내지 섭씨 D도 내)에 포함되는 경우에, 그 객체를 몸체라고 판단할 수 있다. 그리고, 획득된 몸체에 관한 정보(320; 즉, 크기, 온도 등)가 위의 기설정된 소정의 범위들의 중간 값에 가까울수록, 획득된 몸체에 관한 정보(320)의 획득 시점이 마지막으로 획득된 인물 식별 정보의 획득 시점과 가까울수록 또는 획득된 몸체에 관한 정보(320)의 획득 위치가 마지막으로 획득된 인물 식별 정보의 획득 위치와 가까울수록 그 몸체에 관한 정보(320)에 높은 신뢰도를 부여할 수 있다.
또 다른 예를 들면, 본 발명의 일 실시예에 따른 인식부(110)는, 인식된 주변 객체의 크기가 기설정된 소정의 범위 내(예를 들면, 객체의 면적이 A제곱미터 내지 B제곱미터 내)에 포함되지 않거나, 인식된 주변 객체의 온도가 기설정된 소정의 범위 내(예를 들면, 객체의 온도가 섭씨 C도 내지 섭씨 D도 내)에 포함되지 않는 경우에, 그 객체를 이동 물체라고 판단할 수 있다. 그리고, 획득된 이동 물체에 관한 정보(330; 즉, 크기, 온도 등)가 위의 기설정된 소정의 범위들의 중간 값에서 멀수록, 획득된 이동 물체에 관한 정보(330)의 획득 시점이 마지막으로 획득된 인물 식별 정보의 획득 시점과 가까울수록 또는 획득된 이동 물체에 관한 정보(330)의 획득 위치가 마지막으로 획득된 인물 식별 정보의 획득 위치와 가까울수록 그 이동 물체에 관한 정보(330)에 높은 신뢰도를 부여할 수 있다.
또한, 본 발명의 일 실시예에 따른 인식부(110)는, 사용자의 인물 식별 정보 또는 주변 객체에 관한 정보가 연속적으로 획득될 수 있도록, 영상 촬영 모듈(221)의 위치, 방향, 및 각도 중 적어도 하나를 제어하는 기능을 수행할 수 있다.
구체적으로, 본 발명의 일 실시예에 따른 인식부(110)는, 사용자(210)가 이동하는 경우, 주변 객체가 이동하는 경우, 자율 행동 로봇(220)이 이동하는 경우 등 영상 촬영 모듈(221)에 의해 인물 식별 정보 또는 주변 객체에 관한 정보를 획득할 수 있는 공간적 범위를 사용자 또는 주변 객체가 벗어나려는 경우에, 영상 촬영 모듈(221)의 위치, 방향, 및 각도 중 적어도 하나를 제어함으로써 사용자의 인물 식별 정보 또는 주변 객체에 관한 정보가 연속적으로 획득될 수 있도록 영상 촬영 모듈(221)을 제어할 수 있다.
예를 들면, 본 발명의 일 실시예에 따른 인식부(110)는, 자율 행동 로봇(220)이 인식된 인물 식별 정보(예를 들면, 얼굴 정보)에 기초하여 사용자(210)를 추적하며 이동하는 도중에 그 사용자가 오른쪽으로 이동하는 경우, 그 사용자의 얼굴이 영상 촬영 모듈(221)에 의해 획득되는 이미지의 정중앙에 위치하도록 영상 촬영 모듈(221)의 촬영 방향 또는 촬영 각도를 제어할 수 있다.
다음으로, 본 발명의 일 실시예에 따른 결정부(120)는, 인식부(110)에 의해 인식되는 사용자(210)에 관한 인물 식별 정보에 기초하여, 자율 행동 로봇(220)이 그 사용자(210)를 추적하며 이동할지 여부를 결정할 수 있고, 인물 식별 정보가 획득되지 않는 경우, 인식부(110)에서 의해 인식되는 인물 식별 정보와 시간적으로 또는 공간적으로 연관되는 주변 객체를 자율 행동 로봇(220)이 추적하며 이동하는 것으로 결정하는 기능을 수행할 수 있다.
구체적으로, 본 발명의 일 실시예에 따른 결정부(120)는, 인식부(110)에 의해 인식되는 사용자(210)에 관한 인물 식별 정보에 기초하여, 자율 행동 로봇(220)이 그 사용자(220)를 추적하며 이동하는 것으로 결정되었으나, 사용자가 고개를 돌리는 경우, 뒤로 도는 경우, 특정 객체에 의해 얼굴이 가려지는 경우 등과 같이 영상 촬영 모듈(221)에 의한 인물 식별 정보 획득이 불가능해지는 경우, 자율 행동 로봇(220)이 인식부(110)에 의해 인식된 주변 객체를 추적하며 이동하는 것으로 결정할 수 있다. 또한, 그 결정을 함에 있어서 그 주변 객체에 관한 정보의 신뢰도를 고려하여 결정할 수 있다.
예를 들면, 본 발명의 일 실시예에 따른 결정부(120)는, 인식부(110)에 의해 인식되는 사용자(210)의 얼굴 정보에 기초하여 자율 행동 로봇(220)이 그 사용자(210)를 추적하며 이동하는 것으로 결정되었으나 사용자(210)가 고개를 돌림으로써 더 이상 얼굴 정보를 획득할 수 없게 된 경우에, 인식부(110)에 의해 인식된 주변 객체에 관한 정보(예를 들어, 그 주변 객체는 몸체이고, 색깔은 빨간색)에 기초하여 그 주변 객체를 계속 추적하며 이동하는 것으로 결정할 수 있다. 또한, 본 발명의 일 실시예에 따르면, 인식부(110)에 의해 인식된 주변 객체가 복수인 경우, 각 주변 객체에 관한 정보의 신뢰도를 비교하여 가장 높은 신뢰도를 갖는 주변 객체를 추적하며 이동하는 것으로 결정할 수 있다. 즉, 본 발명의 일 실시예에 따르면, 획득된 주변 객체에 관한 정보의 획득 시점이 마지막으로 획득된 인물 식별 정보의 획득 시점과 가장 가깝거나, 획득된 주변 객체에 관한 정보의 획득 위치가 마지막으로 획득된 인물 식별 정보의 획득 위치와 가장 가까움 등을 이유로 특정 주변 객체가 가장 높은 신뢰도를 부여 받은 경우, 그 주변 객체가 위의 얼굴 정보와 연관성이 가장 큰 객체(즉, 얼굴 정보와 대응되는 사용자와 동일하게 취급되야 할 가능성이 가장 큰 객체)로 취급될 수 있게 된다.
또한, 본 발명의 일 실시예에 따른 결정부(120)는, 자율 행동 로봇(220)이 인식부(110)에 의해 인식되는, 사용자 및 주변 객체 중 적어도 하나를 추적하며 이동할지 여부를 주기적으로 재결정하는 기능을 수행할 수 있다.
구체적으로, 본 발명의 일 실시예에 따른 결정부(120)는, 인식부(110)에 의해 획득되는 인물 식별 정보가 없어서 주변 객체를 추적하며 이동하는 경우라 하더라도, 인식부(110)에 의해 인물 식별 정보가 다시 획득되는 경우에는 사용자 및 주변 객체 중 어떤 것을 추적할지에 대해 결정부(120)에 의한 재결정이 필요할 수 있으므로, 사용자 및 주변 객체 중 적어도 하나를 추적하며 이동할지 여부를 주기적으로 재결정하는 기능을 수행할 수 있다. 한편, 본 발명의 일 실시예에 따르면, 결정부(120)가 재결정하는 기능은 특정 시간적 간격(interval) 또는 특정 이벤트 발생(예를 들면, 자율 행동 로봇이 특정 동작을 할 때)시의 주기(cycle)로 수행될 수 있다.
예를 들면, 본 발명의 일 실시예에 따른 결정부(120)는, 인식부(110)에 의해 획득되는 얼굴 정보가 없어서 몸체를 추적하며 이동하는 도중이라도 특정 시간적 간격(예를 들면, 1초마다)이나, 특정 이벤트 발생시(예를 들면, 자율 행동 로봇이 추적하는 객체를 향해 이동하기 위해 발을 들 때)마다 인식부(110)에 의해 획득되는 정보에 기초하여, 사용자 및 주변 객체 중 어떤 것을 추적할지에 대해 주기적으로 재결정을 할 수 있다. 즉, 본 발명의 일 실시예에 따르면, 몸체를 추적하며 이동하는 도중에도 인식부(110)에 의해 얼굴 정보가 다시 획득되는 경우에는, 위의 주기적인 재결정에 따라 다시 얼굴 정보를 추적하며 이동할 수 있게 된다.
또한, 본 발명의 일 실시예에 따른 결정부(120)는, 자율 행동 로봇(220)이 추적할 대상을 결정함에 있어서 인물 식별 정보, 몸체에 관한 정보 및 이동 물체에 관한 정보의 순서로 우선순위를 높게 고려하여 결정하는 기능을 수행할 수 있다.
구체적으로, 본 발명의 일 실시예에 따른 결정부(120)는, 인식부(110)에 의해 획득되는 정보가 복수인 경우, 그 정보가 인물 식별 정보라면 높은 우선순위로, 몸체에 관한 정보라면 중간 우선순위로, 이동 물체에 관한 정보라면 낮은 우선순위로 고려하여 추적할 객체를 결정할 수 있다. 즉, 사용자와 동일하게 취급되어야 할 가능성이 큰 객체일수록 우선순위가 높게 고려되므로, 잘못된 객체를 추적하게 되는 오류를 줄일 수 있게 된다.
예를 들면, 본 발명의 일 실시예에 따른 결정부(120)는, 인식부(110)에 의해 획득되는 정보가 인물 식별 정보, 몸체에 관한 정보, 및 이동 물체에 관한 정보인 경우, 중요도가 가장 높은 정보인 인물 식별 정보에 기초하여 사용자를 추적하며 이동하는 것으로 결정할 수 있게 되므로, 잘못된 객체를 추적하게 되는 오류를 줄일 수 있게 된다.
다음으로, 본 발명의 일 실시예에 따른 통신부(130)는 인식부(110), 결정부(120)로부터의/로의 데이터 송수신이 가능하도록 하는 기능을 수행할 수 있다.
마지막으로, 본 발명의 일 실시예에 따른 제어부(140)는 인식부(110), 결정부(120) 및 통신부(130) 간의 데이터의 흐름을 제어하는 기능을 수행할 수 있다. 즉, 본 발명에 따른 제어부(140)는 자율 행동 로봇 제어 시스템(100)의 외부로부터의/로의 데이터 흐름 또는 자율 행동 로봇 제어 시스템(100)의 각 구성요소 간의 데이터 흐름을 제어함으로써, 인식부(110), 결정부(120) 및 통신부(130)에서 각각 고유 기능을 수행하도록 제어할 수 있다.
이상 설명된 본 발명에 따른 실시예는 다양한 컴퓨터 구성요소를 통하여 실행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위하여 하나 이상의 소프트웨어 모듈로 변경될 수 있으며, 그 역도 마찬가지이다.
이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항과 한정된 실시예 및 도면에 의하여 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위하여 제공된 것일 뿐, 본 발명이 상기 실시예에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정과 변경을 꾀할 수 있다.
따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위는 본 발명의 사상의 범주에 속한다고 할 것이다.
100: 자율 행동 로봇 제어 시스템
110: 인식부
120: 결정부
130: 통신부
140: 제어부

Claims (9)

  1. 자율 행동 로봇을 제어하기 위한 방법으로서,
    영상 촬영 모듈에 의해 획득되는 인물 식별 정보에 대응하는 사용자를 인식하는 단계, 및
    상기 인식되는 사용자에 관한 인물 식별 정보에 기초하여, 상기 자율 행동 로봇이 상기 사용자를 추적하며 이동할지 여부를 결정하는 단계를 포함하고,
    상기 인물 식별 정보가 획득되지 않는 경우, 상기 인식 단계에서, 상기 인물 식별 정보와 시간적으로 또는 공간적으로 연관되는 주변 객체를 인식하고, 상기 결정 단계에서, 상기 자율 행동 로봇이 상기 인식되는 주변 객체를 추적하며 이동하는 것으로 결정하고,
    상기 주변 객체는, 몸체 및 이동 물체 중 적어도 하나이고,
    상기 인식 단계에서, 상기 인물 식별 정보가 마지막으로 획득된 시점에 상기 인물 식별 정보와 근접하여 검출되는 몸체 또는 이동 물체를 상기 주변 객체인 것으로 결정하고,
    상기 인식 단계에서, 상기 주변 객체는 상기 인식되는 주변 객체에 관한 정보의 신뢰도를 참조하여 결정되고,
    상기 신뢰도는 상기 인물 식별 정보가 마지막으로 획득된 시점과 시간적으로 가까울수록 높게 부여되고, 상기 인물 식별 정보가 마지막으로 획득된 위치와 공간적으로 가까울수록 높게 부여되는
    방법.
  2. 제1항에 있어서,
    상기 인물 식별 정보에는 상기 사용자의 얼굴 정보가 포함되는
    방법.
  3. 제1항에 있어서,
    상기 결정 단계에서, 상기 자율 행동 로봇이 상기 사용자 및 상기 주변 객체 중 적어도 하나를 추적하며 이동할지 여부를 주기적으로 재결정하는
    방법.
  4. 제1항에 있어서,
    상기 인식 단계에서, 상기 사용자의 인물 식별 정보 또는 상기 주변 객체에 관한 정보가 연속적으로 획득될 수 있도록, 상기 영상 촬영 모듈의 위치, 방향, 및 각도 중 적어도 하나를 제어하는
    방법.
  5. 삭제
  6. 삭제
  7. 제1항에 있어서,
    상기 결정 단계에서, 상기 자율 행동 로봇이 추적할 대상을 결정함에 있어서 상기 인물 식별 정보, 상기 몸체에 관한 정보 및 상기 이동 물체에 관한 정보의 순서로 우선순위를 높게 고려하는
    방법.
  8. 제1항에 따른 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 비일시성의 컴퓨터 판독 가능 기록 매체.
  9. 자율 행동 로봇을 제어하기 위한 시스템으로서,
    영상 촬영 모듈에 의해 획득되는 인물 식별 정보에 대응하는 사용자를 인식하는 인식부, 및
    상기 인식되는 사용자에 관한 인물 식별 정보에 기초하여, 상기 자율 행동 로봇이 상기 사용자를 추적하며 이동할지 여부를 결정하는 결정부를 포함하고,
    상기 인물 식별 정보가 획득되지 않는 경우, 상기 인식부에서, 상기 인물 식별 정보와 시간적으로 또는 공간적으로 연관되는 주변 객체를 인식하고, 상기 결정부에서, 상기 자율 행동 로봇이 상기 인식되는 주변 객체를 추적하며 이동하는 것으로 결정하고,
    상기 주변 객체는, 몸체 및 이동 물체 중 적어도 하나이고,
    상기 인식부에서, 상기 인물 식별 정보가 마지막으로 획득된 시점에 상기 인물 식별 정보와 근접하여 검출되는 몸체 또는 이동 물체를 상기 주변 객체인 것으로 결정하고,
    상기 인식부에서, 상기 인식되는 주변 객체에 관한 정보의 신뢰도를 참조하여 상기 주변 객체를 결정하고,
    상기 신뢰도는 상기 인물 식별 정보가 마지막으로 획득된 시점과 시간적으로 가까울수록 높게 부여되고, 상기 인물 식별 정보가 마지막으로 획득된 위치와 공간적으로 가까울수록 높게 부여되는
    시스템.
KR1020190041082A 2019-04-08 2019-04-08 자율 행동 로봇을 제어하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체 KR102233609B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190041082A KR102233609B1 (ko) 2019-04-08 2019-04-08 자율 행동 로봇을 제어하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190041082A KR102233609B1 (ko) 2019-04-08 2019-04-08 자율 행동 로봇을 제어하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체

Publications (2)

Publication Number Publication Date
KR20200120982A KR20200120982A (ko) 2020-10-23
KR102233609B1 true KR102233609B1 (ko) 2021-03-30

Family

ID=73039232

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190041082A KR102233609B1 (ko) 2019-04-08 2019-04-08 자율 행동 로봇을 제어하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체

Country Status (1)

Country Link
KR (1) KR102233609B1 (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4239635B2 (ja) * 2003-03-20 2009-03-18 ソニー株式会社 ロボット装置、その動作制御方法、及びプログラム
JP4830650B2 (ja) * 2005-07-05 2011-12-07 オムロン株式会社 追跡装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR1381241A (fr) * 1963-03-05 1964-12-14 Saint Gobain Rouleaux indéformables à haute température et leur application

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4239635B2 (ja) * 2003-03-20 2009-03-18 ソニー株式会社 ロボット装置、その動作制御方法、及びプログラム
JP4830650B2 (ja) * 2005-07-05 2011-12-07 オムロン株式会社 追跡装置

Also Published As

Publication number Publication date
KR20200120982A (ko) 2020-10-23

Similar Documents

Publication Publication Date Title
KR102415632B1 (ko) 정보처리장치, 정보처리방법 및 기억매체
US10908615B2 (en) Autonomous mobile robot, and method and program for controlling the same
US10133278B2 (en) Apparatus of controlling movement of mobile robot mounted with wide angle camera and method thereof
CN110362098B (zh) 无人机视觉伺服控制方法、装置以及无人机
KR101645722B1 (ko) 자동추적 기능을 갖는 무인항공기 및 그 제어방법
KR102501209B1 (ko) 홍채 인식에 의해 개체를 식별 및/또는 인증하기 위한 방법
WO2018068771A1 (zh) 目标跟踪方法、系统、电子设备和计算机存储介质
US10540540B2 (en) Method and device to determine landmark from region of interest of image
KR20140049152A (ko) 사람 추종 방법 및 로봇 장치
CN111094895B (zh) 用于在预构建的视觉地图中进行鲁棒自重新定位的系统和方法
US20190354171A1 (en) Input method and apparatus of device
US11227388B2 (en) Control method and device for mobile platform, and computer readable storage medium
US20140348380A1 (en) Method and appratus for tracking objects
KR20150144727A (ko) 에지 기반 재조정을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
US9582718B1 (en) Method and device for multi-target tracking by coupling multiple detection sources
US20150332476A1 (en) Method and apparatus for tracking object in multiple cameras environment
CN107180435B (zh) 一种适用于深度图像的人体目标跟踪方法
JP2013167986A (ja) 画像認識システム、画像認識方法
KR102233609B1 (ko) 자율 행동 로봇을 제어하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
US9165364B1 (en) Automatic tracking image pickup system
KR20070022446A (ko) 감시영상에서 얼굴의 진위 여부를 구별하는 방법
US10997398B2 (en) Information processing apparatus, authentication system, method of controlling same, and medium
CN110651274A (zh) 可移动平台的控制方法、装置和可移动平台
JP2018055167A (ja) 自律移動装置、自律移動方法及びプログラム
Chan et al. Autonomous person-specific following robot

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant