KR102400143B1 - 스마트폰의 영상통화에 기반하는 원격로봇의 자세 제어방법 및 장치 - Google Patents

스마트폰의 영상통화에 기반하는 원격로봇의 자세 제어방법 및 장치 Download PDF

Info

Publication number
KR102400143B1
KR102400143B1 KR1020200150647A KR20200150647A KR102400143B1 KR 102400143 B1 KR102400143 B1 KR 102400143B1 KR 1020200150647 A KR1020200150647 A KR 1020200150647A KR 20200150647 A KR20200150647 A KR 20200150647A KR 102400143 B1 KR102400143 B1 KR 102400143B1
Authority
KR
South Korea
Prior art keywords
robot
posture
smartphone
user
gaze
Prior art date
Application number
KR1020200150647A
Other languages
English (en)
Other versions
KR102400143B9 (ko
Inventor
박태형
김택림
Original Assignee
충북대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 충북대학교 산학협력단 filed Critical 충북대학교 산학협력단
Priority to KR1020200150647A priority Critical patent/KR102400143B1/ko
Application granted granted Critical
Publication of KR102400143B1 publication Critical patent/KR102400143B1/ko
Publication of KR102400143B9 publication Critical patent/KR102400143B9/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/006Controls for manipulators by means of a wireless system for controlling one or several manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone

Abstract

스마트폰의 영상통화에 기반하는 원격로봇의 자세 제어방법 및 장치를 개시한다.
본 실시예는, 영상통화에 기반하는 로봇에 대한 원격 제어를 수행함에 있어서, 카메라 영상을 기반으로 로봇의 자세를 확인한 후, 스마트폰 상에 구현된 제어기를 이용하여 스마트폰 내 카메라 센서 또는 자이로 센서의 출력에 기반하여 로봇의 자세를 설정함으로써, 로봇의 자세에 대한 상세한 제어를 수행하는 로봇의 자세 제어방법 및 장치를 제공한다.

Description

스마트폰의 영상통화에 기반하는 원격로봇의 자세 제어방법 및 장치{Method and Apparatus for Posture Control for Remote Robot Based on Video Call of Smartphone}
본 개시는 스마트폰의 영상통화에 기반하는 원격로봇의 자세 제어방법 및 장치에 관한 것이다. 더욱 상세하게는, 영상통화에 기반하는 로봇에 대한 원격 제어를 수행함에 있어서, 스마트폰 상에 구현된 제어기를 이용하여, 스마트폰 내 카메라 센서의 출력에 기반하여 로봇의 자세를 설정함으로써, 로봇의 자세에 대한 상세한 제어를 수행하는 로봇의 자세 제어방법 및 장치에 관한 것이다.
이하에 기술되는 내용은 단순히 본 발명과 관련되는 배경 정보만을 제공할 뿐 종래기술을 구성하는 것이 아니다.
전염성이 높은 병이 유행하는 환경, 방사능이 유출되고 있는 환경 등에서 사람이 특정 작업을 수행하기 위해서는 많은 안전장비를 필요로 하나, 로봇(robot)은 이러한 환경에서도 안전하게 작업을 진행할 수 있다. 또한, 텔레 프레즌스(tele-presence)에 기반하는 원격 진료(tele-medicine)의 경우에도, 로봇의 이동성, 카메라 움직임 등을 이용하여 대상 환자를 자세히 관찰하는 것이 가능하므로, 로봇이 활용될 수 있다.
자율주행이 가능한 로봇이 대상 작업 수행을 위한 자세 제어를 제대로 수행할 수 없는 경우, 작업 수행을 위한 자세를 갖추기 위해 로봇은 원격 조종(tele-operating)되어야 한다. 로봇에 대한 원격 조종을 위해서는, 제어기(controller) 및 통신장치가 구비되어 로봇과 제어기 간 통신이 구현되어야 한다. 제어기는 통신장치를 이용하여 로봇의 상태에 관련된 데이터, 예를 들어, 로봇 주변에 대한 상황을 포함하는 데이터를 획득하고, 이러한 상태 데이터를 기반으로 로봇을 자세를 추정하며, 사용자는 제어기를 조작하여 로봇의 자세에 대한 제어 신호가 로봇 측으로 전달될 수 있도록 하며, 로봇은 제어 신호에 따라 자세를 보정한 후 대상 작업을 수행할 수 있다.
이러한 일련의 과정에서 사용자가 제어기를 조작하기 위한 방법으로는, 도 7에 예시된 바와 같이 제어기에 부속된 키보드를 이용하는 방법이 있다. 도 7의 예시에서, 사용자는 위험지역 외부에서 키보드를 이용하여 위험지역 내 객체(예컨대, 방역 대상)를 추적하는 로봇을 제어한다. 제어기는 로봇이 전송하는 카메라의 영상을 이용하여 로봇의 자세를 추정한다. 이때 추정된 자세가 만족스럽더라도, 추적해야 할 대상 객체가 이동을 하거나, 다른 각도에서 대상 객체를 관찰해야 하는 경우, 사용자의 키보드 입력에 따라 제어기는 로봇의 각도를 변경시킬 수 있다. 그러나, 이러한 경우, 키보드 입력에 따른 각도가 기설정된 최소단위를 기준으로 설정되므로, 최종적인 로봇의 자세는 사용자가 원하는 자세와 차이가 날 수 있다는 문제가 존재한다.
제어장치에 대한 다른 조작 방법으로는, 도 8에 예시된 바와 같이 스마트폰의 UI(User Interface, 예를 들어, 터치 스크린(touch screen))를 이용하는 방법이 있다. 도 8의 예시에서 스마트폰 상의 앱(App)으로 구현된 제어기는 로봇이 전송하는 카메라의 화면을 참조하여 로봇의 자세를 추정한다. 추적해야 할 대상 객체가 이동을 하거나, 다른 각도에서 대상 객체를 관찰해야 하는 경우, 앱을 사용하는 사용자의 UI 입력에 따라 제어기는 로봇의 각도를 변경시킬 수 있다. 그러나, 이 경우에도 UI 입력에 따른 각도가 기설정된 최소단위를 기준으로 설정된다는 문제가 존재한다.
따라서, 로봇에 대한 원격 제어가 필요한 상황에서, 별도의 제어기를 운용하는 대신 스마트폰을 이용하되, 가급적 사용자의 조작을 억제하면서도 로봇에 대한 세밀한 제어가 가능한 방법이 고려되어야 한다.
본 개시는, 영상통화에 기반하는 로봇에 대한 원격 제어를 수행함에 있어서, 카메라 영상을 기반으로 로봇의 자세를 확인한 후, 스마트폰 상에 구현된 제어기를 이용하여 스마트폰 내 카메라 센서 또는 자이로 센서(gyro sensor)의 출력에 기반하여 로봇의 자세를 설정함으로써, 로봇의 자세에 대한 상세한 제어를 수행하는 로봇의 자세 제어방법 및 장치를 제공하는 데 주된 목적이 있다.
본 개시의 실시예에 따르면, 스마트폰에 탑재된 컴퓨팅 장치가 수행하는, 로봇(robot)의 자세를 조절하는 원격 제어방법에 있어서, 상기 로봇으로부터 카메라 영상 및 특성 영상(feature image)을 획득하고, 상기 특성 영상을 기반으로 상기 로봇의 자세를 추정하는 과정; 카메라 센서의 출력을 초기화하는 과정; 상기 카메라 센서의 출력을 기반으로 사용자의 시선 변화를 추적하는 과정: 및 상기 사용자의 시선 변화를 상기 로봇의 자세에 적용하기 위한 제어 신호를 생성하여 상기 로봇 측으로 전송하는 과정을 포함하는 것을 특징으로 하는 원격 제어방법을 제공한다.
본 개시의 다른 실시예에 따르면, 로봇(robot)과 스마트폰 간의 데이터의 교환을 수행하는 송수신부, 여기서, 상기 데이터는 스마트폰 측으로 전달되는 카메라 영상, 특성 영상(feature image) 및 상기 로봇 측으로 전달되는 제어 신호를 포함함; 사용자의 안면의 움직임에 대한 출력을 생성하는 카메라 센서; 및 상기 출력을 기반으로 상기 사용자의 시선 변화를 추적하며, 상기 시선 변화를 상기 로봇의 자세에 적용하기 위해 상기 제어 신호를 생성하는 제어부를 포함하는 것을 특징으로 하는, 상기 스마트폰 상에 탑재되는 로봇 자세 제어장치를 제공한다.
본 개시의 다른 실시예에 따르면, 로봇(robot)의 자세를 조절하는 원격 제어방법이 포함하는 각 단계를 실행시키기 위하여 컴퓨터로 읽을 수 있는 기록매체에 저장된 컴퓨터프로그램을 제공한다.
이상에서 설명한 바와 같이 본 실시예에 따르면, 카메라 영상을 기반으로 로봇의 자세를 확인한 후, 스마트폰 상에 구현된 제어기를 이용하여 스마트폰 내 카메라 센서 또는 자이로 센서의 출력에 기반하여 로봇의 자세를 설정하는 로봇의 자세 제어방법 및 장치를 제공함으로써, 사용자가 원하는 설정을 만족하도록 로봇의 자세에 대한 상세한 제어를 수행하는 것이 가능해지는 효과가 있다.
또한 본 실시예에 따르면, 스마트폰 상에 구현된 제어기를 이용하여 스마트폰 내 카메라 센서 또는 자이로 센서의 출력에 기반하여 로봇의 자세를 설정하는 로봇의 자세 제어방법 및 장치를 제공함으로써, 자율주행이 가능한 로봇이 자세 제어를 제대로 수행할 수 없는 경우, 스마트폰을 이용하여 비교적 간단하게 로봇의 자세를 제어하는 것이 가능해지는 효과가 있다.
도 1은 본 개시의 일 실시예에 따른 로봇에 대한 자세 제어장치에 대한 개략적인 블록도이다.
도 2는 본 개시의 일 실시예에 따른 로봇의 자세 추정에 대한 개략적인 예시도이다.
도 3은 본 개시의 일 실시예에 따른 로봇의 자세 제어에 대한 개략적인 예시도이다.
도 4는 본 개시의 일 실시예에 따른 사용자의 시선을 반영하는 방법에 대한 예시도이다.
도 5는 본 개시의 일 실시예에 따른 카메라 센서에 기반하는 로봇에 대한 자세 제어방법의 흐름도이다.
도 6은 본 개시의 다른 실시예에 따른 자이로 센서에 기반하는 로봇에 대한 자세 제어방법의 흐름도이다.
도 7은 키보드가 부착된 제어기를 이용하여 로봇 자세를 제어하는 방법에 대한 예시도이다.
도 8은 스마트폰 UI를 이용하는 로봇 자세를 제어하는 방법에 대한 예시도이다.
도 9는 로봇의 자세를 나타내는 파라미터에 대한 예시도이다.
이하, 본 발명의 실시예들을 예시적인 도면을 참조하여 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 실시예들을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 실시예들의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.
또한, 본 실시예들의 구성요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성요소를 다른 구성요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 명세서 전체에서, 어떤 부분이 어떤 구성요소를 '포함', '구비'한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 '…부', '모듈' 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.
첨부된 도면과 함께 이하에 개시될 상세한 설명은 본 발명의 예시적인 실시형태를 설명하고자 하는 것이며, 본 발명이 실시될 수 있는 유일한 실시형태를 나타내고자 하는 것이 아니다.
본 실시예는 스마트폰의 자이로 센서에 기반하는 원격로봇의 자세 제어장치 및 방법 관한 내용을 개시한다. 보다 자세하게는, 영상통화에 기반하는 로봇에 대한 원격 제어를 수행함에 있어서, 카메라 영상을 기반으로 로봇의 자세를 확인한 후, 스마트폰 상에 구현된 제어기를 이용하여 스마트폰 내 카메라 센서 또는 자이로 센서(gyro sensor)의 출력에 기반하여 로봇의 자세를 설정함으로써, 로봇의 자세에 대한 상세한 제어를 수행하는 로봇의 자세 제어방법 및 장치를 제공한다.
라이다(LiDAR: Light Detection And Ranging)는 레이저를 이용하여 대상 영역을 스캔(scan)함으로써, 대상 영역(대상 물체 및 물체 주변을 포함함)에 대한 점구름(point cloud) 형태의 정보를 제공한다.
로봇의 자세는, 도 9에 예시된 바와 같이 무게 중심에 대한 x, y, z 축 방향 각도인 롤(roll), 피치(pitch) 및 요(yaw)로 표현된다. 즉, 로봇의 전면을 중심으로 롤은 좌우 들림, 피치는 상하 요동, 및 요는 수직 회전을 나타낸다.
카메라의 FOV(Field of View)는 카메라 영상이 포함하는 상하좌우 범위를 나타낸다.
자이로 센서는 ‘각속도(angular velocity) 센서’이며, 물체의 회전에 대한 3 방향의 각속도를 출력한다. 이러한 각속도를 적분함으로써, 물체의 자세가 추적될 수 있다.
이하, 로봇에 카메라를 탑재함에 있어서, 로봇의 진행 방향에 대해 카메라의 촬영 방향이 고정된 것으로 가정한다. 따라서, 다른 각도의 영상 촬영을 위해서는 로봇의 자세가 원격 조정되는 것으로 가정한다. 물론, 카메라의 각도만을 조절하여 다른 각도의 영상을 촬영하는 것이 가능하나, 본 개시는 로봇의 자세 제어가 주된 목적이므로, 편의상 카메라 각도를 조절하는 방법을 배제하고, 카메라 각도에 대한 상하좌우 및 회전 조절도 로봇의 자세 변경(예를 들어 롤, 피치 및 요 중 적어도 하나의 변경)의 일부인 것으로 가정한다. 즉, 본 개시에서는, 카메라의 FOV가 원하는 영역을 포함하지 않는 경우, 로봇의 자세를 원격 제어함으로써 원하는 영역이 카메라의 FOV에 포함되도록 한다. 본 개시에 따른 다른 실시예에서는, 로봇 및 카메라의 자세가 모두 원격 제어될 수 있다.
카메라 센서는 스마트폰의 전면 카메라의 구성요소를 나타낸다.
도 1은 본 개시의 일 실시예에 따른 로봇에 대한 자세 제어장치에 대한 개략적인 블록도이다.
본 실시예에 따른 로봇에 대한 자세 제어장치(100, 이하 제어장치)는 로봇으로부터 카메라 영상을 획득하여 로봇의 자세를 확인한 후, 스마트폰 내 카메라 센서 또는 자이로 센서(gyro sensor)의 출력에 기반하여 로봇의 자세를 원격 제어한다. 제어장치(100)는 스마트폰 내 프로세서 및 메모리를 기반으로 구현되어 스마트폰 상에 탑재될 수 있다. 또한, 사용자 의도를 반영할 수 있도록 제어장치(100)를 조작하기 위한 앱(App)이 구현되어 UI로서 제공될 수 있다. 제어장치(100)는 송수신부(102), 제어부(104), 카메라 센서(106) 및 자이로 센서(108)의 전부 또는 일부를 포함한다.
송수신부(102)는 무선 송수신 방식을 이용하여 로봇과 데이터를 주고 받는다. 송수신부(102)는 로봇으로부터 카메라 영상, 카메라 영상에 대한 특성 영상, 로봇의 위치 등을 획득하고, 로봇의 자세를 설정하거나 로봇을 이동시키기 위한 제어 신호를 전송한다. 여기서, 무선 송수신 방식으로는 와이파이(WiFi), 이동 통신망 등과 같이 카메라 영상 및 제어 신호를 전송하는 것이 가능한 대역폭을 갖는 어느 방식이든 이용될 수 있다.
한편, 로봇은 로봇의 진행 방향을 촬영하기 위한 카메라, 스마트폰과 데이터를 송수신하기 위한 통신장치를 포함한다. 로봇은 바퀴 또는 캐터필러(caterpillar)를 이용하고, 전후진 및 방향 전환이 가능한 것으로 가정한다. 또한, 로봇은 라이다를 포함하고, 라이다를 이용하여 로봇의 위치를 추정할 수 있다. 로봇은 원격으로 전달되는 제어 신호 또는 내부에서 생성한 제어 신호에 따라, 이동 및 자세 변경(예를 들어 롤, 피치 및 요 중 적어도 하나의 변경)을 수행할 수 있다.
제어부(104)는, 특성 영상을 기반으로 로봇에 대한 자세를 추정한다. 자세를 추정한 후, 제어부(104)는 카메라 센서(106) 및 자이로 센서(108)를 초기화하여, 카메라 센서(106) 및 자이로 센서(108)를 로봇의 자세와 동기화시킬 수 있다. 로봇에 의한 신규 작업 수행을 위해, 제어부(104)는 로봇을 이동시키거나 로봇의 자세를 변경시키기 위한 제어 신호를 생성할 수 있다. 이때, 사용자는 앱의 조작, 시선의 움직임 또는 스마트폰의 몸체의 조작을 이용하여, 로봇을 이동시키거나 로봇의 자세를 변경시킬 수 있다.
특히, 로봇의 자세를 변경시키기 위해, 로봇으로부터 전송되어 스마트폰의 디스플레이 상에 플레이되는 카메라 영상을 모니터하면서 사용자가 시선을 움직이면, 제어부(104)는 사용자를 촬영하고 있는 카메라 센서(106)의 출력값을 이용하여 시선(예컨대, 홍채의 움직임)의 변화를 추적한다. 추적 결과를 기반으로 제어부(104)는 로봇의 자세를 변경시키기 위한 제어 신호를 생성한다. 이때, 제어 신호는 사용자 시선의 움직임에 따라 주기적으로 생성되거나, 최종적으로 사용자 시선이 정지한 시점에서 한 번 생성될 수 있다.
본 개시의 다른 실시예에 있어서, 로봇으로부터 전송되는 카메라 영상을 모니터하면서 사용자가 스마트폰 몸체를 조작하면, 예컨대, 스마트폰을 상하좌우로 움직이거나, 회전시키는 경우, 제어부(104)는 몸체의 움직임에 따른 자이로 센서(108)의 출력값을 이용하여 스마트폰 몸체의 움직임을 추적한다. 추적 결과를 기반으로 제어부(104)는 로봇의 자세를 변경시키기 위한 제어 신호를 생성한다. 이때, 제어 신호는 스마트폰 몸체의 움직임에 따라 주기적으로 생성되거나, 최종적으로 스마트폰 몸체의 움직임이 정지한 시점에서 한 번 생성될 수 있다.
한편, 전술한 바와 같은 무선 송수신 방식을 이용하는 경우, 스마트폰을 이용하는 로봇에 대한 제어는 영상통화(video call)를 기반으로 수행될 수 있다. 이때, 로봇이 생성한 카메라 영상은 무선 송수신 방식에 포함된 서버에 저장되고, 제어부(104)는 서버로부터 저장된 영상을 수신하여, 스마트폰의 디스플레이 상에 플레이함으로써, 사용자로 하여금 로봇을 관찰할 수 있도록 한다.
카메라 센서(106)는 사용자의 안면 영상을 출력한다. 제어부(104)는 통상의 홍채(iris) 인식 알고리즘을 기반으로 안면 영상으로부터 사용자의 시선 변화를 추적한 후, 추적된 시선의 변화를 로봇에 반영하기 위해 제어 신호를 생성할 수 있다. 사용자는 카메라 영상을 참조하면서, 자신의 시선을 움직임으로써, 로봇의 자세에 대한 미세한 제어를 수행할 수 있다.
자이로 센서(108)는, 스마트폰 몸체의 움직임에 따라 3 방향의 각속도를 출력한다. 제어부(104)는 이러한 각속도를 적분하여 스마트폰 몸체의 자세 변화를 추적한 후, 추적된 자세 변화를 로봇에 반영하기 위해 제어 신호를 생성할 수 있다. 사용자는 카메라 영상을 참조하면서 스마트폰의 몸체를 움직임으로써, 로봇의 자세에 대한 미세한 제어를 수행할 수 있다.
이하 도 2 및 도 3의 예시를 이용하여, 제어부(104)가 로봇의 위치 및 자세를 추정하고, 로봇의 자세를 제어하는 과정을 설명한다. 도 2 및 도 3의 예시에서, 로봇은 자율주행이 가능하고, 사용자의 시야 밖에서 특정 작업을 수행할 수 있다고 가정한다.
도 2는 본 개시의 일 실시예에 따른 로봇의 자세 추정에 대한 개략적인 예시도이다.
먼저, 자세 추정에 선행하여, 로봇은 라이다 및 라이다 지도를 이용하여 로봇의 위치를 추정할 수 있다. 로봇은 라이다에 의해 생성되는 점구름 정보와 로봇이 작업하는 영역과 관련하여 기저장된 라이다 지도를 비교하여 현재 위치를 파악할 수 있다.
다음, 로봇에 탑재된 카메라는 현재 위치에서의 영상을 촬영하고, 로봇은 도 2의 예시된 바와 같이 카메라 영상으로부터 특징점을 추출하고, 추출된 특징점으로 구성된 특성 영상을 스마트폰 측으로 전송한다. 특성 영상을 이용함으로써, 현재 영상에 대한 정보를 스마트폰 측으로 전송하기 위해 부가적으로 필요한 대역폭을 감소시키고, 유사도 비교를 위해 스마트폰 측에 기저장되는 데이터의 양을 감소시키는 것이 가능하다.
특징점을 추출하기 위해 로봇은 통상의 코너점 추출 알고리즘, 예를 들어, 해리스 코너점 검출(Harris corner point detection), SIFT(Shift Invariant Feature Transform), 딥러닝(deep learning) 기반의 코너점 검출 등을 이용할 수 있다. 로봇은 코너점 추출 알고리즘을 이용하여 특징점을 추출하고, 추출된 특징점으로 구성된 특성 영상을 스마트폰 측으로 전송한다.
본 개시에 따른 다른 실시예에 있어서, 카메라 영상이 스마트폰 측으로 전송되고 있으므로, 스마트폰의 컴퓨팅 파워가 충분한 경우, 이러한 코너점 추출 알고리즘은 스마트폰 상의 제어부(104)에 의해 수행될 수 있다.
본 개시에 따른 스마트폰 상의 제어부(104)는 송수신부(102)를 이용하여 특성 영상을 획득한 후, 특징점을 기반으로 현재 특성 영상과 기저장된 복수의 특성 영상 간의 유사도(similarity)를 계산한 후, 이를 이용하여 로봇의 현재 자세를 추정한다. 제어부(104)는 특징점의 개수를 기반으로 기저장된 특성 영상으로부터 유사한 특성 영상들을 1차 선별하고, 현재 특성 영상과 선별된 특성 영상의 특징점 간의 거리 차가 기 설정된 임계치 이내인 특성 영상을 2차 선별한다. 2차 선별된 특성 영상들이 포함하는 특징점 간의 상대성 및 로봇의 현재 진행 방향을 참조하여, 제어부(104)는 로봇의 현재 자세를 추정할 수 있다. 추정된 현재 자세는 이후 로봇의 자세 제어를 위한 기준으로 이용될 수 있다.
도 3은 본 개시의 일 실시예에 따른 로봇의 자세 제어에 대한 개략적인 예시도이다.
로봇의 자세 제어를 위해, 제어부(104)는 두 가지 모드, 제1 모드 및 제2 모드에서 동작할 수 있다.
제1 모드는, 사용자의 UI 입력에 따라 로봇을 제어하기 위한 모드이다. 제1 모드에서 로봇의 위치를 기반으로 사용자는 UI 입력을 이용하여 로봇을 이동시킬 수 있다. 편의상 이 상황에서 사용자 시선의 움직임에 따른 카메라 센서(106)의 출력, 또는 스마트폰 몸체의 움직임에 따른 자이로 센서(108)의 출력은 무시될 수 있다. 따라서, 로봇의 이동 후 제2 모드로 진입하기 전에, 로봇의 현재 위치 및 자세가 추정되어야 한다. 또한, 제1 모드에서는, 도 6에 예시된 바와 같이 사용자의 UI 입력에 따라 로봇의 자세를 변경시킬 수 있다. 다만, 이러한 경우, UI 입력에 따른 자세 변경이 기설정된 최소단위의 기준으로 설정되므로, 최종적인 로봇의 자세는 사용자가 원하는 자세와 차이가 날 수 있다
제2 모드는, 로봇으로부터 전송되는 카메라 영상을 모니터하면서 사용자가 시선을 움직이거나 스마트폰의 몸체를 움직이면, 시선의 움직임 또는 스마트폰 몸체 움직임에 따라 로봇의 자세를 변경시키기 위한 모드이다.
제어부(104)는 제2 모드에 진입 시, 전술한 바와 같이 로봇에 대한 자세 추정을 수행하고, 카메라 센서(106)를 초기화한다. 여기서 초기화는 제2 모드 진입 시점의 로봇의 자세(예컨대, 로봇의 롤, 피치 및 요)와 사용자의 시선을 동기화하는 것을 나타낸다. 제어부(104)는 로봇의 자세와 사용자 시선에 대한 두 좌표계 간의 변환 행렬을 계산하여 두 좌표계를 동기화시킨다.
본 개시의 다른 실시예에 있어서, 제어부(104)는 제2 모드에 진입 시, 로봇에 대한 자세 추정을 수행하고, 자이로 센서(108)를 초기화한다. 여기서, 초기화는 2 모드에 진입 시점에서 자이로 센서(108)의 상태를 리셋(reset)하는 것을 나타낸다. 제어부(104)는 자이로 센서(108)의 출력에 해당하는 3 방향의 각속도에 대한 적분을 새로 시작함으로써, 이전 상태에 대한 적분에 따른 오차 누적(error accumulation)을 방지할 수 있다.
로봇에 대한 자세 추정은 제1 모드에서의 로봇의 이동/자세 변화를 반영하기 위해 수행될 수 있다. 로봇의 이동/자세 변화가 없었더라도, 제1 모드 동안 사용자 시선의 움직임을 배제하기 위해 카메라 센서(106)의 상태에 대한 초기화가 수행될 수 있다. 본 개시의 다른 실시예에 있어서, 제1 모드 동안 스마트폰 몸체의 움직임에 따른 자이로 센서(108)의 출력 누적을 배제하기 위해 자이로 센서(108)의 상태에 대한 리셋(reset)이 수행될 수 있다.
제2 모드에 진입한 후, 제어부(104)는 사용자의 안면 영상에 대한 카메라 센서(106)의 출력을 기반으로, 예를 들어, 홍채 인식 알고리즘을 이용하여 사용자의 시선 변화를 추적한다. 추정된 로봇의 자세를 기준으로, 제어부(104)는 시선의 변화를 로봇의 자세에 적용시키기 위한 제어 신호를 생성할 수 있다. 도 4에 예시된 바와 같이, 제어 신호는 사용자 시선의 움직임에 따라 기설정된 시간에, 예컨대 주기적으로, 생성되거나, 사용자 시선이 고정된 지점이 로봇으로부터 전송되는 영상의 중심이 되도록 하기 위해 한 번 생성될 수 있다.
본 개시의 다른 실시예에 있어서, 제어부(104)는 사용자의 스마트폰 몸체 조작에 따른 자이로 센서(108)의 출력을 적분하여, 스마트폰 몸체의 자세 변화를 추적한다. 추정된 로봇의 자세를 기준으로, 제어부(104)는 스마트폰 몸체의 자세 변화를 로봇의 자세에 적용시키기 위한 제어 신호를 생성할 수 있다. 이러한 제어 신호는 제어 신호는 스마트폰 몸체의 움직임에 따라 기설정된 시간에, 예컨대 주기적으로, 생성될 수 있다.
송수신부(102)는 제어 신호를 로봇 측으로 전송하고, 로봇은 수신한 제어 신호를 기반으로 자신의 자세를 변경할 수 있다. 여기서, 자세의 변경은 로봇의 진행 방향의 전환, 카메라의 FOV를 변경시키기 위한 자세의 변경(예를 들어, 롤, 피치 및 요 중 적어도 하나의 변경에 따른 자세의 변경) 등을 포함할 수 있다.
제어부(104)는 제어 신호가 적용된 후, 필요한 경우 로봇의 자세를 다시 추정하여, 이후의 자세 제어를 위한 기준으로 이용할 수 있다. 또한, 제어 신호에 의해 의도된 자세와 다시 추정된 자세 간의 오차가 기설정된 임계치 이상인 경우, 카메라 센서(106) 또는 자이로 센서(108)에 대한 초기화가 다시 수행될 수 있다.
한편, 제2 모드에 대한 진입 및 탈출은, 상기 스마트폰 상에 탑재된 제어장치(100)를 조작하기 위한 앱의 UI(User Interface)를 이용하되, 제2 모드로의 진입을 위한 온(on) 및 제2 모드로부터의 탈출을 위한 오프(off) 방식이 이용될 수 있다.
도 5는 본 개시의 일 실시예에 따른 카메라 센서에 기반하는 로봇에 대한 자세 제어방법의 흐름도이다.
제2 모드로 진입한 후, 제어장치(100)는 로봇으로부터 특성 영상을 획득하고, 특성 영상을 기반으로 로봇의 자세를 추정한다(S500).
자세 추정에 선행하여, 로봇은 카메라 영상으로부터 특징점을 추출하고, 추출된 특징점으로 구성된 특성 영상을 스마트폰 측으로 전송한다. 특징점을 추출하기 위해 로봇은 통상의 코너점 추출 알고리즘을 이용할 수 있다.
본 개시에 따른 다른 실시예에 있어서, 스마트폰의 컴퓨팅 파워가 충분한 경우, 이러한 코너점 추출 알고리즘은 스마트폰 상의 제어장치(100)에 의해 수행될 수 있다.
제어장치(100)는 특성 영상을 획득한 후, 특징점을 기반으로 현재 특성 영상과 기저장된 복수의 특성 영상 간의 유사도를 계산한 후, 이를 이용하여 로봇의 현재 자세를 추정한다. 추정된 현재 자세는 이후 로봇의 자세 제어를 위한 기준으로 이용될 수 있다.
제어장치(100)는 사용자의 안면 영상을 생성하는 카메라 센서의 출력을 초기화한다(S502).
초기화는 제2 모드 진입 시점의 로봇의 자세(예컨대, 로봇의 롤, 피치 및 요)와 사용자의 시선을 동기화하는 것을 나타낸다. 제어장치(100)는 로봇의 자세와 사용자 시선에 대한 두 좌표계 간의 동질 행렬을 계산하여 두 좌표계를 동기화시킨다.
제어장치(100)는 카메라 센서의 출력을 기반으로 사용자의 시선 변화를 추적한다(S504).
로봇으로부터 전송되는 카메라 영상을 모니터하면서 사용자가 시선을 움직이면, 예컨대, 스마트폰을 상하좌우로 움직이거나, 회전시키는 경우, 제어장치(100)는 카메라 센서(106)가 출력하는 안면 영상을 기반으로, 예를 들어, 홍채 인식 알고리즘을 이용하여, 사용자의 시선 변화를 추적할 수 있다.
제어장치(100)는 사용자의 시선 변화를 로봇의 자세에 적용하기 위한 제어 신호를 생성하여 로봇 측으로 전송한다(S506). 추정된 로봇의 자세를 기준으로, 제어장치(100)는 사용자의 시선 변화를 로봇의 자세에 적용시키기 위한 제어 신호를 생성할 수 있다. 이러한 제어 신호는 사용자 시선의 움직임에 따라 기설정된 시간에, 예컨대 주기적으로, 생성될 수 있다.
제어 신호를 수신한 후, 로봇은 이를 기반으로 자신의 자세를 변경할 수 있다.
도 6은 본 개시의 일 실시예에 따른 자이로 센서에 기반하는 로봇에 대한 자세 제어방법의 흐름도이다.
제2 모드로 진입한 후, 제어장치(100)는 로봇으로부터 특성 영상을 획득하고, 특성 영상을 기반으로 로봇의 자세를 추정한다(S600).
자세 추정에 선행하여, 로봇은 카메라 영상으로부터 특징점을 추출하고, 추출된 특징점으로 구성된 특성 영상을 스마트폰 측으로 전송한다. 특징점을 추출하기 위해 로봇은 통상의 코너점 추출 알고리즘을 이용할 수 있다.
제어장치(100)는 특성 영상을 획득한 후, 특징점을 기반으로 현재 특성 영상과 기저장된 복수의 특성 영상 간의 유사도를 계산한 후, 이를 이용하여 로봇의 현재 자세를 추정한다. 추정된 현재 자세는 이후 로봇의 자세 제어를 위한 기준으로 이용될 수 있다.
제어장치(100)는 자이로 센서(gyro sensor)의 출력을 초기화한다(S602).
제어장치(100)는 제2 모드에 진입 시점에서 자이로 센서(108)의 상태를 리셋(reset)하여, 자이로 센서(108)의 출력에 해당하는 3 방향의 각속도에 대한 적분을 새로 시작함으로써, 이전 상태에 대한 적분에 따른 오차 누적(error accumulation)을 방지할 수 있다.
제어장치(100)는 사용자의 스마트폰 몸체 조작에 따른 자이로 센서의 출력을 기반으로 스마트폰 몸체에 대한 자세 변화를 추적한다(S604).
로봇으로부터 전송되는 카메라 영상을 모니터하면서 사용자가 스마트폰 몸체를 조작하면, 예컨대, 스마트폰을 상하좌우로 움직이거나, 회전시키는 경우, 제어장치(100)는 몸체의 움직임에 따른 자이로 센서(108)의 출력값을 적분하여 스마트폰 몸체에 대한 자세 변화를 추적할 수 있다.
제어장치(100)는 스마트폰 몸체의 대한 자세 변화를 로봇의 자세에 적용하기 위한 제어 신호를 생성하여 로봇 측으로 전송한다(S606). 추정된 로봇의 자세를 기준으로, 제어장치(100)는 스마트폰 몸체의 자세 변화를 로봇의 자세에 적용시키기 위한 제어 신호를 생성할 수 있다. 이러한 제어 신호는 기설정된 시간에 생성될 수 있다.
이상에서 설명한 바와 같이 본 실시예에 따르면, 카메라 영상을 기반으로 로봇의 자세를 확인한 후, 스마트폰 상에 구현된 제어기를 이용하여 스마트폰 내 카메라 센서 또는 자이로 센서의 출력에 기반하여 로봇의 자세를 설정하는 로봇의 자세 제어방법 및 장치를 제공함으로써, 사용자가 원하는 설정을 만족하도록 로봇의 자세에 대한 상세한 제어를 수행하는 것이 가능해지는 효과가 있다.
또한 본 실시예에 따르면, 스마트폰 상에 구현된 제어기를 이용하여 스마트폰 내 카메라 센서 또는 자이로 센서의 출력에 기반하여 로봇의 자세를 설정하는 로봇의 자세 제어방법 및 장치를 제공함으로써, 자율주행이 가능한 로봇이 자세 제어를 제대로 수행할 수 없는 경우, 스마트폰을 이용하여 비교적 간단하게 로봇의 자세를 제어하는 것이 가능해지는 효과가 있다.
본 실시예에 따른 각 순서도에서는 각각의 과정을 순차적으로 실행하는 것으로 기재하고 있으나, 반드시 이에 한정되는 것은 아니다. 다시 말해, 순서도에 기재된 과정을 변경하여 실행하거나 하나 이상의 과정을 병렬적으로 실행하는 것이 적용 가능할 것이므로, 순서도는 시계열적인 순서로 한정되는 것은 아니다.
본 명세서에 설명되는 시스템들 및 기법들의 다양한 구현예들은, 디지털 전자 회로, 집적 회로, FPGA(field programmable gate array), ASIC(application specific integrated circuit), 컴퓨터 하드웨어, 펌웨어, 소프트웨어, 및/또는 이들의 조합으로 실현될 수 있다. 이러한 다양한 구현예들은 프로그래밍가능 시스템 상에서 실행가능한 하나 이상의 컴퓨터 프로그램들로 구현되는 것을 포함할 수 있다. 프로그래밍가능 시스템은, 저장 시스템, 적어도 하나의 입력 디바이스, 그리고 적어도 하나의 출력 디바이스로부터 데이터 및 명령들을 수신하고 이들에게 데이터 및 명령들을 전송하도록 결합되는 적어도 하나의 프로그래밍가능 프로세서(이것은 특수 목적 프로세서일 수 있거나 혹은 범용 프로세서일 수 있음)를 포함한다. 컴퓨터 프로그램들(이것은 또한 프로그램들, 소프트웨어, 소프트웨어 애플리케이션들 혹은 코드로서 알려져 있음)은 프로그래밍가능 프로세서에 대한 명령어들을 포함하며 "컴퓨터가 읽을 수 있는 기록매체"에 저장된다.
컴퓨터가 읽을 수 있는 기록매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 이러한 컴퓨터가 읽을 수 있는 기록매체는 ROM, CD-ROM, 자기 테이프, 플로피디스크, 메모리 카드, 하드 디스크, 광자기 디스크, 스토리지 디바이스 등의 비휘발성(non-volatile) 또는 비일시적인(non-transitory) 매체일 수 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송) 및 데이터 전송 매체(data transmission medium)와 같은 일시적인(transitory) 매체를 더 포함할 수도 있다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수도 있다.
이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
100: 자세 제어장치
102: 송수신부 104: 제어부
106: 카메라 센서 108: 카메라 센서

Claims (9)

  1. 스마트폰에 탑재된 컴퓨팅 장치가 수행하는, 로봇(robot)의 자세를 조절하는 원격 제어방법에 있어서,
    상기 로봇으로부터 카메라 영상 및 특성 영상(feature image)을 획득하고, 상기 특성 영상을 기반으로 상기 로봇의 자세를 추정하는 과정, 여기서, 상기 로봇의 자세는, 상기 로봇의 롤(roll), 피치(pitch) 및 요(yaw)로 표현됨;
    카메라 센서의 출력을 초기화하는 과정;
    상기 카메라 센서의 출력을 기반으로 사용자의 시선 변화를 추적하는 과정: 및
    상기 사용자의 시선 변화를 상기 로봇의 자세에 적용하기 위한 제어 신호를 생성하여 상기 로봇 측으로 전송하는 과정
    을 포함하되,
    상기 자세를 추정하는 과정은,
    상기 카메라 영상으로부터 추출된 특징점으로 구성된 특성 영상과 기저장된 복수의 특성 영상 간의 유사도를 계산하고, 상기 유사도를 이용하여 상기 로봇의 자세를 추정하는 것을 특징으로 하는 원격 제어방법.
  2. 제1항에 있어서,
    상기 로봇의 자세 제어를 위한 조절모드(control mode)에 대한 진입(enter) 및 탈출(exit)은, 상기 스마트폰 상에서 상기 자세 제어를 수행하는 앱(App)의 UI(User Interface)를 이용하되, 상기 조절모드로의 진입을 위한 온(on) 및 상기 조절모드로부터의 탈출을 위한 오프(off) 방식을 이용하는 것을 특징으로 하는 원격 제어방법.
  3. 삭제
  4. 제2항에 있어서,
    상기 초기화하는 과정은,
    상기 조절모드에 진입 시, 상기 로봇의 자세와 상기 사용자의 시선에 대한 두 좌표계 간의 변환 행렬을 계산하여 상기 로봇의 자세와 상기 사용자의 시선을 동기화시키는 것을 특징으로 하는 원격 제어방법.
  5. 제2항에 있어서,
    상기 시선 변화를 추적하는 과정은,
    상기 조절모드에서, 상기 카메라 영상을 모니터하는 상기 사용자의 안면에 대해, 상기 안면의 움직임에 대한 상기 카메라 센서의 출력을 기반으로 상기 사용자의 시선 변화를 추적하는 것을 특징으로 하는 원격 제어방법.
  6. 제1항에 있어서,
    상기 전송하는 과정은,
    상기 제어 신호의 생성 및 전송은 상기 시선 변화에 따라 기설정된 시간에 수행되거나, 상기 사용자의 시선이 고정된 지점이 상기 카메라 영상의 중심이 되도록 하기 위해 한 번 수행되는 것을 특징으로 하는 원격 제어방법.
  7. 로봇(robot)과 스마트폰 간의 데이터의 교환을 수행하는 송수신부, 여기서, 상기 데이터는 스마트폰 측으로 전달되는 카메라 영상, 특성 영상(feature image) 및 상기 로봇 측으로 전달되는 제어 신호를 포함함;
    사용자의 안면의 움직임에 대한 출력을 생성하는 카메라 센서; 및
    상기 출력을 기반으로 상기 사용자의 시선 변화를 추적하며, 상기 시선 변화를 상기 로봇의 자세에 적용하기 위해 상기 제어 신호를 생성하는 제어부
    를 포함하되,
    상기 로봇의 자세는,
    상기 로봇의 롤(roll), 피치(pitch) 및 요(yaw)로 표현되고,
    상기 제어부는,
    상기 카메라 영상으로부터 추출된 특징점으로 구성된 특성 영상과 기저장된 복수의 특성 영상 간의 유사도를 계산하고, 상기 유사도를 이용하여 상기 로봇의 자세를 추정하는 것을 특징으로 하는, 상기 스마트폰 상에 탑재되는 로봇 자세 제어장치.
  8. 제7항에 있어서,
    상기 제어부는,
    상기 카메라 센서를 초기화하며, 상기 카메라 영상을 상기 스마트폰 상의 디스플레이에 플레이하는 것을 특징으로 하는, 상기 스마트폰 상에 탑재되는 로봇 자세 제어장치.
  9. 제1항, 제2항, 또는 제4항 내지 제6항 중 어느 한 항에 따른 로봇(robot)의 자세를 조절하는 원격 제어방법이 포함하는 각 단계를 실행시키기 위하여 컴퓨터로 읽을 수 있는 기록매체에 저장된 컴퓨터프로그램.
KR1020200150647A 2020-11-12 2020-11-12 스마트폰의 영상통화에 기반하는 원격로봇의 자세 제어방법 및 장치 KR102400143B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200150647A KR102400143B1 (ko) 2020-11-12 2020-11-12 스마트폰의 영상통화에 기반하는 원격로봇의 자세 제어방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200150647A KR102400143B1 (ko) 2020-11-12 2020-11-12 스마트폰의 영상통화에 기반하는 원격로봇의 자세 제어방법 및 장치

Publications (2)

Publication Number Publication Date
KR102400143B1 true KR102400143B1 (ko) 2022-05-18
KR102400143B9 KR102400143B9 (ko) 2022-10-21

Family

ID=81800940

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200150647A KR102400143B1 (ko) 2020-11-12 2020-11-12 스마트폰의 영상통화에 기반하는 원격로봇의 자세 제어방법 및 장치

Country Status (1)

Country Link
KR (1) KR102400143B1 (ko)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007216363A (ja) * 2006-02-20 2007-08-30 Saitama Univ コミュニケーションロボット
KR101966127B1 (ko) * 2013-09-05 2019-04-05 엘지전자 주식회사 로봇 청소기 시스템 및 그 제어방법
KR20200083359A (ko) * 2018-12-31 2020-07-08 주식회사 도구공간 Hmd 장비를 이용한 로봇 제어 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007216363A (ja) * 2006-02-20 2007-08-30 Saitama Univ コミュニケーションロボット
KR101966127B1 (ko) * 2013-09-05 2019-04-05 엘지전자 주식회사 로봇 청소기 시스템 및 그 제어방법
KR20200083359A (ko) * 2018-12-31 2020-07-08 주식회사 도구공간 Hmd 장비를 이용한 로봇 제어 방법

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
national treatise (2012.07.05) *
비특허문헌 1*

Also Published As

Publication number Publication date
KR102400143B9 (ko) 2022-10-21

Similar Documents

Publication Publication Date Title
US20200346750A1 (en) Method for generating flight path, control device, and unmanned aerial vehicle
CN105959625B (zh) 控制无人机追踪拍摄的方法及装置
US10356301B2 (en) Imaging system, angle-of-view adjustment method, and angle-of-view adjustment program
US10803600B2 (en) Information processing device, information processing method, and program
US10154190B2 (en) Balancing exposure and gain at an electronic device based on device motion and scene distance
WO2020107372A1 (zh) 拍摄设备的控制方法、装置、设备及存储介质
US20200125100A1 (en) Movable object control method, device and system
KR101959366B1 (ko) 무인기와 무선단말기 간의 상호 인식 방법
US20210103290A1 (en) System and Method for Probabilistic Multi-Robot SLAM
WO2019019819A1 (zh) 一种用于处理任务区域的任务的移动电子设备以及方法
JP2016085602A (ja) センサ情報統合方法、及びその装置
JP7103354B2 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2022228019A1 (zh) 移动目标跟随方法、机器人和计算机可读存储介质
Srisamosorn et al. Human-tracking system using quadrotors and multiple environmental cameras for face-tracking application
KR102400143B1 (ko) 스마트폰의 영상통화에 기반하는 원격로봇의 자세 제어방법 및 장치
JP2018009918A (ja) 自己位置検出装置、移動体装置及び自己位置検出方法
CN113587928A (zh) 导航方法、装置、电子设备、存储介质及计算机程序产品
KR102235589B1 (ko) 무인기 착륙 시스템
KR20160020828A (ko) 비행 촬영 시스템 및 그 운용 방법
WO2022040940A1 (zh) 标定方法、装置、可移动平台及存储介质
CN112291701B (zh) 定位验证方法、装置、机器人、外部设备和存储介质
KR20180106178A (ko) 무인 비행체, 전자 장치 및 그에 대한 제어 방법
EP4097622A1 (en) Three-dimensional (3d) modeling
CN107340889B (zh) 一种定位初始化方法及装置
KR102334509B1 (ko) 무인기와 무선단말기 간의 상호 인식 방법

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Re-publication after modification of scope of protection [patent]