KR102286006B1 - 추종 장치 및 추종 시스템 - Google Patents

추종 장치 및 추종 시스템 Download PDF

Info

Publication number
KR102286006B1
KR102286006B1 KR1020160156593A KR20160156593A KR102286006B1 KR 102286006 B1 KR102286006 B1 KR 102286006B1 KR 1020160156593 A KR1020160156593 A KR 1020160156593A KR 20160156593 A KR20160156593 A KR 20160156593A KR 102286006 B1 KR102286006 B1 KR 102286006B1
Authority
KR
South Korea
Prior art keywords
target object
value
distance value
target
photographing unit
Prior art date
Application number
KR1020160156593A
Other languages
English (en)
Other versions
KR20180058004A (ko
Inventor
채희서
정직한
최윤근
Original Assignee
한화디펜스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화디펜스 주식회사 filed Critical 한화디펜스 주식회사
Priority to KR1020160156593A priority Critical patent/KR102286006B1/ko
Priority to US15/440,087 priority patent/US10362277B2/en
Publication of KR20180058004A publication Critical patent/KR20180058004A/ko
Application granted granted Critical
Publication of KR102286006B1 publication Critical patent/KR102286006B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/12Target-seeking control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0094Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method

Abstract

목표 대상을 촬영하면서 추종하는 본 실시예의 추종 장치는 구동 장치, 촬영부, 및 제어부를 포함한다. 제어부는, 촬영부로부터의 라이브-뷰(live-view) 동영상에서 목표 대상의 면적 값과 목표 대상의 선명도(sharpness) 값을 구하고, 구해진 상기 면적 값과 상기 선명도 값에 따라, 촬영부와 목표 대상 사이의 거리 값이 기준 거리 값을 유지하도록 구동 장치를 제어한다.

Description

추종 장치 및 추종 시스템{Following apparatus and following system}
본 발명은, 추종 장치 및 추종 시스템에 관한 것으로서, 보다 상세하게는, 목표 대상을 추종하는 추종 장치 및 이를 채용한 추종 시스템에 관한 것이다.
일반적으로, 추종 시스템은 추종 장치 및 원격 제어 장치를 포함한다.
원격 제어 장치는, 추종 장치로부터의 동영상을 디스플레이하면서, 사용자 입력에 따라 추종 장치의 동작을 원격으로 제어한다.
추종 장치는 사람 또는 차량을 자율 주행에 의하여 추종할 수 있다. 이와 같은 추종 장치의 예로서, 추종 로봇, 무인 주행 차량(UGV : Unmanned Ground Vehicle), 및 드론(drone)과 같은 무인 비행기(UGV : Unmanned Aerial Vehicle) 등을 들 수 있다.
상기와 같은 추종 장치는 목표 대상에 대한 거리 값이 기준 거리 값을 유지하도록 추종 속도를 제어하여야 한다.
종래의 추종 장치에서는, 목표 대상의 영상 중에서 특징 부분이 검색 대상 영상으로 설정되어 있다. 즉, 종래의 추종 장치는, 목표 대상의 영상 중에서 특징 부분을 검색하고, 검색된 특징 부분에 대한 거리 값을 산출하였다. 이에 따라, 다음과 같은 문제점들이 발생될 수 있다.
첫째, 목표 대상의 영상 중에서 특징 부분을 검색할 수 없는 경우, 추종이 어려워진다.
둘째, 목표 대상의 영상이 흐려지는 경우, 특징 부분에 대한 거리 값을 산출하기 어려워진다.
상기 배경 기술의 문제점은, 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 내용으로서, 반드시 본 발명의 출원 전에 일반 공중에게 공지된 내용이라 할 수는 없다.
대한민국 등록 특허 제0612858호(출원인 : 삼성전자 주식회사, 명칭 : 로봇을 이용하여 사람을 추적하는 방법 및 장치)
본 발명의 실시예는, 목표 대상의 영상 중에서 특징 부분을 검색할 수 없는 경우, 또는 목표 대상의 영상이 흐려지는 경우에도, 목표 대상에 대한 거리 값을 일정하게 유지하면서 추종할 수 있는 추종 장치 및 추종 시스템을 제공하고자 한다.
본 발명의 실시예의 추종 장치는, 목표 대상을 촬영하면서 추종하는 것으로서, 구동 장치, 촬영부, 및 제어부를 포함한다.
구동 장치는 본체를 이동시킨다.
촬영부는 패닝 및 틸팅을 수행하면서 상기 목표 대상을 지속적으로 촬영한다.
제어부는, 상기 촬영부로부터의 라이브-뷰(live-view) 동영상에서 상기 목표 대상의 면적 값과 상기 목표 대상의 선명도(sharpness) 값을 구하고, 구해진 상기 면적 값과 상기 선명도 값에 따라, 상기 촬영부와 상기 목표 대상 사이의 거리 값이 기준 거리 값을 유지하도록 상기 구동 장치를 제어한다.
본 발명의 실시예의 추종 시스템은 추종 장치 및 원격 제어 장치를 포함한다.
상기 추종 장치는 목표 대상을 촬영하면서 추종한다.
상기 원격 제어 장치는, 상기 추종 장치로부터의 동영상을 디스플레이하면서, 사용자 입력에 따라 상기 추종 장치의 동작을 원격으로 제어한다.
상기 추종 장치는, 촬영에 의하여 생성되는 라이브-뷰(live-view) 동영상에서 상기 목표 대상의 면적 값과 상기 목표 대상의 선명도(sharpness) 값을 구하고, 구해진 상기 면적 값과 상기 선명도 값에 따라, 상기 목표 대상에 대한 거리 값이 기준 거리 값을 유지하도록 추종 속도를 제어한다.
본 실시예의 상기 추종 장치 또는 상기 추종 시스템에 의하면, 상기 라이브-뷰(live-view) 동영상에서의 상기 목표 대상의 면적 값과 상기 목표 대상의 선명도(sharpness) 값에 따라, 상기 목표 대상에 대한 거리 값이 기준 거리 값을 유지하도록 추종 속도를 제어한다. 이에 따라 다음과 같은 효과들을 얻을 수 있다.
첫째, 상기 목표 대상의 영상 중에서 특징 부분을 추적하지 않고, 상기 목표 대상의 영상 자체를 추적할 수 있다.
따라서, 목표 대상의 영상 중에서 특징 부분을 검색할 수 없는 경우에도 지속적인 추종이 가능하다.
또한, 이를 이용하여, 상기 추종 장치는 상기 원격 제어 장치로부터의 좌표 값에 상응하는 물체를 곧바로 목표 대상으로 설정할 수 있다. 이에 따라, 상기 원격 제어 장치의 사용자는 간단한 선택 조작에 의하여 목표 대상을 설정 또는 변경할 수 있다.
둘째, 상기 목표 대상의 면적 값뿐만 아니라 상기 목표 대상의 선명도(sharpness) 값에 따라 추종 속도가 제어되므로, 목표 대상의 영상이 흐려지더라도 추종 속도가 적절히 제어될 수 있다.
예를 들어, 상기 제어부는, 상기 목표 대상의 면적 값에 따라 상기 촬영부와 상기 목표 대상 사이의 거리 값을 구하고, 구해진 거리 값에 따라 추종 속도를 제어할 수 있다. 여기에서, 상기 목표 대상의 영상이 흐려질 경우, 상기 목표 대상의 선명도(sharpness)를 이용하여, 상기 목표 대상에 대한 거리 값 또는 추종 속도를 적절히 변경할 수 있다.
도 1은 본 발명의 일 실시예의 추종 시스템을 보여주는 도면이다.
도 2는 도 1의 추종 시스템에 포함되어 있는 추종 장치의 구성을 보여주는 도면이다.
도 3은 도 2에서의 제어부의 속도 제어 동작의 제1 예를 보여주는 흐름도이다.
도 4는 도 3에서의 단계들 S301 및 S302에 사용되는 룩-업 테이블(LUT : Look-Up Table)을 예시적으로 보여주는 도면이다.
도 5a는, 도 1에서의 촬영부가 자동 포커싱을 수행하는 경우, 촬영부와 목표 대상 사이의 거리가 100 미터(m)일 때의 시뮬레이션 영상을 보여주는 도면이다.
도 5b는, 도 1에서의 촬영부가 자동 포커싱을 수행하는 경우, 촬영부와 목표 대상 사이의 거리가 300 미터(m)일 때의 시뮬레이션 영상을 보여주는 도면이다.
도 6은 도 3에서의 단계들 S309 및 S311에 사용되는 룩-업 테이블(LUT : Look-Up Table)을 예시적으로 보여주는 도면이다.
도 7은 도 2에서의 제어부의 속도 제어 동작의 제2 예를 보여주는 흐름도이다.
도 8a는, 도 2에서의 촬영부가 자동 포커싱을 수행하지 않는 경우, 촬영부와 목표 대상 사이의 거리가 100 미터(m)일 때의 시뮬레이션 영상을 보여주는 도면이다.
도 8b는, 도 2에서의 촬영부가 자동 포커싱을 수행하지 않는 경우, 촬영부와 목표 대상 사이의 거리가 200 미터(m)일 때의 시뮬레이션 영상을 보여주는 도면이다.
도 8c는, 도 2에서의 촬영부가 자동 포커싱을 수행하지 않는 경우, 촬영부와 목표 대상 사이의 거리가 300 미터(m)일 때의 시뮬레이션 영상을 보여주는 도면이다.
도 9는 도 2에서의 제어부의 촬영 제어 동작의 예를 보여주는 흐름도이다.
도 10a는 목표 대상과 중첩 대상이 중첩되기 직전의 시뮬레이션 영상을 보여주는 도면이다.
도 10b는 목표 대상과 중첩 대상이 중첩된 때의 시뮬레이션 영상을 보여주는 도면이다.
도 10c는 목표 대상과 중첩 대상이 중첩된 직후의 시뮬레이션 영상을 보여주는 도면이다.
도 11은 목표 대상과 중첩 대상이 중첩된 때에 구해지는 목표 대상의 최근 이동 방향의 시뮬레이션 영상을 보여주는 도면이다.
도 12는 종래의 추종 장치에서 식별 창에 목표 대상과 중첩 대상이 모두 포함되는 시뮬레이션 영상을 보여주는 도면이다.
도 13은 본 실시예의 추종 장치에서 식별 창에 목표 대상만이 포함되는 시뮬레이션 영상을 보여주는 도면이다.
하기의 설명 및 첨부된 도면은 본 발명에 따른 동작을 이해하기 위한 것이며, 본 기술 분야의 통상의 기술자가 용이하게 구현할 수 있는 부분은 생략될 수 있다.
또한 본 명세서 및 도면은 본 발명을 제한하기 위한 목적으로 제공된 것은 아니고, 본 발명의 범위는 청구의 범위에 의하여 정해져야 한다. 본 명세서에서 사용된 용어들은 본 발명을 가장 적절하게 표현할 수 있도록 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 한다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예가 설명된다.
도 1은 본 발명의 일 실시예의 추종 시스템을 보여준다. 도 2는 도 1의 추종 시스템에 포함되어 있는 추종 장치(102)의 구성을 보여준다. 도 1 및 2를 참조하여 본 실시예의 추종 시스템 및 추종 장치를 설명하기로 한다.
본 실시예의 추종 시스템은 추종 장치(102) 및 원격 제어 장치(103)를 포함한다.
추종 장치(102)는 목표 대상(101)을 촬영하면서 추종한다. 도 1에서 추종 장치(102)는 추종 로봇으로서 도시되어 있다. 하지만, 추종 장치(102)는 드론(drone)과 같은 무인 비행기(UGV : Unmanned Aerial Vehicle) 또는 무인 주행 차량(UGV : Unmanned Ground Vehicle)일 수도 있다.
통상적으로 운용 통제 장치라고 불리어지는 원격 제어 장치(103)는, 추종 장치(102)로부터의 라이브-뷰(live-view) 동영상을 디스플레이 패널(103s)에 디스플레이하면서, 사용자 입력에 따라 추종 장치(102)의 동작을 원격으로 제어한다.
원격 제어 장치(103)는, 디스플레이 패널(103s)에 디스플레이되는 라이브-뷰(live-view) 동영상에서 한 지점이 선택되면, 선택된 지점의 좌표 값을 추종 장치(102)에게 전송한다. 상기 한 지점은 사용자가 마우스를 더블-클릭(double-click)함에 의하여 선택될 수 있다. 디스플레이 패널(103s)이 터치-디스플레이 패널인 경우, 사용자가 손가락으로 화면을 더블터치(double-touch)함에 의하여 상기 한 지점이 선택될 수 있다.
원격 제어 장치(103)로부터의 좌표 값은 추종 장치(102) 내의 무선 통신 인터페이스(203)를 통하여 제어부(202)에 입력된다. 추종 장치(102) 내의 제어부(202)는 원격 제어 장치(103)로부터의 좌표 값에 상응하는 물체를 목표 대상으로 설정한다.
추종 장치(102)는, 촬영부(102a)의 촬영에 의하여 생성되는 라이브-뷰(live-view) 동영상에서 목표 대상(101)의 면적 값과 목표 대상(101)의 선명도(sharpness) 값을 구한다. 또한, 추종 장치(102)는, 구해진 상기 면적 값과 상기 선명도 값에 따라, 목표 대상(101)에 대한 거리 값(D)이 기준 거리 값을 유지하도록 추종 속도를 제어한다.
추종 장치(102)는 구동 장치(201), 촬영부(102a), 및 제어부(202)를 포함한다.
구동 장치(201)는 본체를 이동시킨다.
촬영부(102a)는 패닝(panning) 및 틸팅(tilting)을 수행하면서 목표 대상(101)을 지속적으로 촬영한다.
제어부(202)는, 촬영부(102a)로부터의 라이브-뷰(live-view) 동영상에서 목표 대상(101)의 면적 값과 목표 대상(101)의 선명도(sharpness) 값을 구한다. 또한, 제어부(202)는, 구해진 상기 면적 값과 상기 선명도 값에 따라, 촬영부(102a)와 목표 대상(101) 사이의 거리 값(D)이 기준 거리 값을 유지하도록 구동 장치(201)를 제어한다.
상기와 같은 본 실시예의 추종 장치(102) 또는 추종 시스템에 의하면, 라이브-뷰(live-view) 동영상에서의 목표 대상(101)의 면적 값과 목표 대상(101)의 선명도(sharpness) 값에 따라, 목표 대상(101)에 대한 거리 값(D)이 기준 거리 값을 유지하도록 추종 속도를 제어한다. 이에 따라 다음과 같은 효과들을 얻을 수 있다.
첫째, 목표 대상(101)의 영상 중에서 특징 부분을 추적하지 않고, 목표 대상(101)의 영상 자체를 추적할 수 있다.
따라서, 목표 대상의 영상 중에서 특징 부분을 검색할 수 없는 경우에도 지속적인 추종이 가능하다.
또한, 이를 이용하여, 추종 장치(102)는 원격 제어 장치(103)로부터의 좌표 값에 상응하는 물체를 곧바로 목표 대상으로 설정할 수 있다. 이에 따라, 원격 제어 장치(103)의 사용자는 간단한 선택 조작에 의하여 목표 대상을 설정 또는 변경할 수 있다.
둘째, 목표 대상의 면적 값뿐만 아니라 목표 대상의 선명도(sharpness) 값에 따라 추종 속도가 제어되므로, 목표 대상의 영상이 흐려지더라도 추종 속도가 적절히 제어될 수 있다.
예를 들어, 제어부는, 목표 대상의 면적 값에 따라 촬영부와 목표 대상 사이의 거리 값을 구하고, 구해진 거리 값에 따라 추종 속도를 제어할 수 있다. 여기에서, 목표 대상의 영상이 흐려질 경우, 목표 대상의 선명도(sharpness)를 이용하여, 목표 대상에 대한 거리 값 또는 추종 속도를 적절히 변경할 수 있다.
도 3은 도 2에서의 제어부(202)의 속도 제어 동작의 제1 예를 보여준다.
도 4는 도 3에서의 단계들 S301 및 S302에 사용되는 룩-업 테이블(LUT : Look-Up Table, 401)을 예시적으로 보여준다.
도 5a는, 도 1에서의 촬영부(102a)가 자동 포커싱을 수행하는 경우, 촬영부(102a)와 목표 대상(101) 사이의 거리(D)가 100 미터(m)일 때의 시뮬레이션 영상을 보여준다.
도 5b는, 도 1에서의 촬영부(102a)가 자동 포커싱을 수행하는 경우, 촬영부(102a)와 목표 대상(101) 사이의 거리(D)가 300 미터(m)일 때의 시뮬레이션 영상을 보여준다.
도 6은 도 3에서의 단계들 S309 및 S311에 사용되는 룩-업 테이블(LUT : Look-Up Table, 601)을 예시적으로 보여준다.
도 1 내지 6을 참조하여, 도 3의 속도 제어 동작의 제1 예를 설명하기로 한다. 제어부(202)에서 목표 대상(101)의 선명도(sharpness) 값에 대한 제1 임계 값과 제2 임계 값이 설정되어 있다. 여기에서, 상기 제2 임계 값은 상기 제1 임계 값보다 적다. 또한, 촬영부(102a)는 자동 포커싱을 수행하면서 포커스 렌즈의 위치 정보를 제어부(202)에게 제공한다.
제어부(202)는 동영상에서의 목표 대상(501)의 면적 값(401A)에 따라 촬영부(102a)와 목표 대상(101) 사이의 거리 값(401D)을 구한다(단계 S301). 본 실시예의 경우, 보다 빠른 계산을 위하여 목표 대상의 식별 창(502)의 면적 값은 목표 대상(501)의 면적 값(401A)으로서 사용된다.
다음에, 제어부(202)는 구해진 거리 값(401D)에 따라 구동 장치(201)를 제어함에 의하여 이동 속도(401S)를 조정한다(단계 S302).
촬영부(102a)와 목표 대상(101) 사이의 거리 값(D)이 기준 거리 값과 같으면, 제어부(202)는 본체가 기준 속도로 이동하도록 구동 장치(201)를 제어한다.
촬영부(102a)와 목표 대상(101) 사이의 거리 값(D)이 기준 거리 값보다 적으면, 제어부(202)는 본체가 기준 속도보다 낮은 속도로 이동하도록 구동 장치(201)를 제어한다.
촬영부(102a)와 목표 대상(101) 사이의 거리 값(D)이 기준 거리 값보다 크면, 제어부(202)는 본체가 기준 속도보다 높은 속도로 이동하도록 구동 장치(201)를 제어한다.
다음에, 제어부(202)는 현재 적용된 촬영부(102a)와 목표 대상(101) 사이의 거리 값(D)을 갱신하여 저장한다(단계 S303).
목표 대상(501)의 선명도(sharpness) 값이 상기 제1 임계 값보다 적지 않으면, 목표 대상(501)의 면적 값(401A)이 정밀할 수 있으므로, 상기 단계들 S301 내지 S303은 반복적으로 수행된다(단계 S304).
목표 대상(501)의 선명도(sharpness) 값이 상기 제1 임계 값보다 적으면, 단계 S305 및 그 다음 단계들이 수행된다.
단계 S305에 있어서, 제어부(202)는 촬영부(102a)로부터 입력되는 포커스 렌즈의 위치 값을 갱신하여 저장한다(단계 S305).
다음에, 자동 포커싱에 의하여 선명도가 향상됨에 따라 선명도가 제2 임계 값과 같아지면(단계 S306), 제어부(202)는 포커스 렌즈의 이동 거리 값(601F)을 구한다(단계 S307).
다음에, 제어부(202)는 목표 대상(501)의 면적이 변했는지를 판단한다(단계 S308).
다음에, 제어부(202)는, 면적의 변함 여부 또는 변함 상태를 이용하여, 구해진 포커스 렌즈의 이동 거리 값(601F)에 따라 촬영부(102a)와 목표 대상(101) 사이의 거리 값(401D)을 보정한다(단계 S309 또는 S311). 또한, 제어부(202)는 보정 결과의 거리 값에 따라 구동 장치(201)를 제어한다(단계 S310 또는 S312).
여기에서, 선명도가 제2 임계 값과 같아질 경우, 목표 대상(501)의 면적 값(401A)을 구하면 그 정밀도가 떨어지겠지만, 목표 대상(501)의 면적이 변했는지를 판단하기에는 그 선명도가 충분해질 수 있다. 물론, 도 3의 속도 제어 동작의 제1 예의 경우, 목표 대상(501)의 면적 변화가 이용되지 않고, 포커스 렌즈의 이동 방향이 이용될 수도 있다.
단계 S309에 있어서, 목표 대상(501)의 면적이 증가했으면, 제어부(202)는, 구해진 포커스 렌즈의 이동 거리 값(601F)에 상응하는 증감 거리 값(601C)에 따라 촬영부(102a)와 목표 대상(101) 사이의 거리 값(401D)을 감소시킨다(도 5a의 경우).
다음에, 제어부(202)는, 감소 결과의 거리 값(D)에 상응하는 이동 속도(401S)에 따라 구동 장치(201)를 제어한다(단계 S310).
단계 S311에 있어서, 목표 대상(501)의 면적이 감소했으면, 제어부(202)는, 구해진 포커스 렌즈의 이동 거리 값(601F)에 상응하는 증감 거리 값(601C)에 따라 촬영부(102a)와 목표 대상(101) 사이의 거리 값(401D)을 증가시킨다(도 5b의 경우).
다음에, 제어부(202)는, 증가 결과의 거리 값(D)에 상응하는 이동 속도(401S)에 따라 구동 장치(201)를 제어한다(단계 S312).
다음에, 외부적인 종료 신호가 발생되지 않으면, 상기 단계 S303 및 그 다음 단계들이 수행된다(단계 S313).
도 7은 도 2에서의 제어부(202)의 속도 제어 동작의 제2 예를 보여준다.
도 8a는, 도 2에서의 촬영부(102a)가 자동 포커싱을 수행하지 않는 경우, 촬영부(102a)와 목표 대상(도 1에서의 101) 사이의 거리(D)가 100 미터(m)일 때의 시뮬레이션 영상을 보여준다.
도 8b는, 도 2에서의 촬영부(102a)가 자동 포커싱을 수행하지 않는 경우, 촬영부(102a)와 목표 대상(101) 사이의 거리가 200 미터(m)일 때의 시뮬레이션 영상을 보여준다.
도 8c는, 도 2에서의 촬영부(102a)가 자동 포커싱을 수행하지 않는 경우, 촬영부(102a)와 목표 대상(101) 사이의 거리가 300 미터(m)일 때의 시뮬레이션 영상을 보여준다.
도 4 내지 8c를 참조하여 도 7의 속도 제어 동작의 제2 예를 설명하기로 한다. 속도 제어 동작의 제2 예에 있어서, 제어부(202)에서 동영상의 목표 대상(501)의 선명도(sharpness) 값에 대한 임계 값이 설정되어 있다. 또한, 촬영부(102a)는 자동 포커싱을 수행하지 않는다.
제어부(202)는 동영상에서의 목표 대상(501)의 면적 값(401A)에 따라 촬영부(102a)와 목표 대상(101) 사이의 거리 값(401D)을 구한다(단계 S701).
다음에, 제어부(202)는 구해진 거리 값(401D)에 따라 구동 장치(201)를 제어함에 의하여 이동 속도(401S)를 조정한다(단계 S702).
촬영부(102a)와 목표 대상(101) 사이의 거리 값(D)이 기준 거리 값과 같으면, 제어부(202)는 본체가 기준 속도로 이동하도록 구동 장치(201)를 제어한다.
촬영부(102a)와 목표 대상(101) 사이의 거리 값(D)이 기준 거리 값보다 적으면, 제어부(202)는 본체가 기준 속도보다 낮은 속도로 이동하도록 구동 장치(201)를 제어한다.
촬영부(102a)와 목표 대상(101) 사이의 거리 값(D)이 기준 거리 값보다 크면, 제어부(202)는 본체가 기준 속도보다 높은 속도로 이동하도록 구동 장치(201)를 제어한다.
목표 대상(501)의 선명도(sharpness) 값이 상기 임계 값보다 적지 않으면, 목표 대상(501)의 면적 값(401A)이 정밀할 수 있으므로, 상기 단계들 S701 및 S702는 반복적으로 수행된다(단계 S703).
목표 대상(501)의 선명도(sharpness) 값이 상기 임계 값보다 적으면, 단계 S704 및 그 다음 단계들이 수행된다.
단계 S704에 있어서, 제어부(202)는 목표 대상(501)의 면적이 변했는지를 판단한다.
목표 대상(501)의 면적이 증가했으면, 제어부(202)는 감속 이동의 제어 신호를 구동 장치(201)에 출력한다(단계 S705, 도 8a의 경우).
목표 대상(501)의 면적이 감소했으면, 제어부(202)는 가속 이동의 제어 신호를 구동 장치(201)에 출력한다(단계 S706, 도 8c의 경우).
여기에서, 선명도가 상기 임계 값보다 낮아질 경우, 목표 대상(501)의 면적 값(401A)을 구하면 그 정밀도가 떨어지겠지만, 목표 대상(501)의 면적이 변했는지를 판단하기에는 그 선명도가 충분해질 수 있다.
외부적인 종료 신호가 발생되지 않으면, 상기 단계 S703 및 그 다음 단계들이 수행된다(단계 S707).
도 9는 도 2에서의 제어부(202)의 촬영 제어 동작의 예를 보여준다.
도 10a는 목표 대상(501)과 중첩 대상(1001)이 중첩되기 직전의 시뮬레이션 영상을 보여준다.
도 10b는 목표 대상(501)과 중첩 대상(1001)이 중첩된 때의 시뮬레이션 영상을 보여준다.
도 10c는 목표 대상(501)과 중첩 대상(1001)이 중첩된 직후의 시뮬레이션 영상을 보여준다.
도 11은 목표 대상(501)과 중첩 대상(1001)이 중첩된 때에 구해지는 목표 대상의 최근 이동 방향의 시뮬레이션 영상을 보여준다.
도 12는 종래의 추종 장치에서 식별 창(1201)에 목표 대상과 중첩 대상이 모두 포함되는 시뮬레이션 영상을 보여준다.
도 13은 본 실시예의 추종 장치에서 식별 창(1301)에 목표 대상만이 포함되는 시뮬레이션 영상을 보여준다.
도 1, 2 및 도 9 내지 13을 참조하여 도 9의 촬영 제어 동작의 예를 설명하기로 한다.
제어부(202)는, 원격 제어 장치(103)로부터 무선 통신 인터페이스(203)를 통하여 수신된 목표 지점의 좌표 값에 따라, 라이브-뷰(live-view) 동영상에서 목표 대상(501)을 설정한다(단계 S901).
다음에, 제어부(202)는 목표 대상에 식별 창(1301)을 형성한다(단계 S902).
다음에, 제어부(202)는 목표 대상의 식별 창(1301)이 화면의 중앙에 오도록 촬영부(102a)의 패닝 및 틸팅을 제어한다(단계 S903). 이에 따라, 촬영부(102a)는 목표 대상(501)을 지속적으로 추적하면서 촬영할 수 있다.
다음에, 제어부(202)는 목표 대상(501)과 중첩되는 대상(1001)이 있는지를 판단한다(단계 S904). 이 단계 S904는 도 10a 또는 도 10b의 시점에서 수행된다. 참고로, 도 10a와 10b의 시점 차이는 1초이다.
목표 대상(501)과 중첩되는 대상(1001)이 있으면, 제어부(202)는 목표 대상(501)의 최근 이동 방향에 따라 중첩 영역에서 목표 대상을 식별한다(단계 S905, 도 10c 및 11 참조). 이와 같이 목표 대상(501)의 최근 이동 방향이 이용됨에 따라 중첩 영역에서 목표 대상이 정확하게 식별될 수 있다.
목표 대상의 최근 이동 방향은 잘 알려져 있는 광축 흐름(optical flow)에 따라 즉각적으로 알 수 있다. 왜냐하면, 목표 대상의 식별 창(1301)이 화면의 중앙에 오도록 촬영부(102a)의 패닝 및 틸팅이 제어되기 때문이다(단계 S903 참조).
또한, 제어부(202)는 중첩 대상(1001)을 무시하고 목표 대상(501)에만 식별 창(1301)을 형성한다(단계 S906, 도 13의 경우). 도 12에 도시된 바와 같이 종래의 추종 장치에서는 사용자의 참조를 위하여 식별 창(1201)에 목표 대상과 중첩 대상이 모두 포함되었다. 하지만, 도 3 또는 7의 속도 제어에서의 단계 S301 또는 S701이 수행되려면, 도 13에 도시된 바와 같이 목표 대상(501)에만 식별 창(1301)이 형성되어야 한다. 이 경우, 중첩 영역에서의 식별 오류의 확률이 낮아질 수 있는 추가적 효과가 발생한다.
다음에, 제어부(202)는 촬영부(102a)의 줌 배율이 변경되는지를 판단한다(단계 S907). 예를 들어, 원격 제어 장치(103)로부터 무선 통신 인터페이스(203)를 통하여 목표 줌 배율이 수신되면, 제어부(202)는 촬영부(102a)의 줌 배율이 변경된다고 판단한다. 이 경우, 제어부(202)는, 촬영부(102a)의 주밍(zooming)을 제어한 후, 목표 대상(501)의 식별 창(1301)이 화면의 중앙에 오도록 목표 대상의 중심 좌표 값을 다시 설정한다(단계 S908). 이에 따라, 주밍에 의한 식별 오류의 확률이 낮아질 수 있다.
다음에, 새로운 목표 지점의 좌표 값이 수신되었으면, 제어부(202)는 상기 단계 S901 및 그 다음 단계들을 수행한다(단계 S909).
다음에, 외부적인 종료 신호가 발생되지 않았으면, 제어부(202)는 상기 단계 S903 및 그 다음 단계들을 수행한다(단계 S910).
이상 설명된 바와 같이, 본 실시예의 추종 장치 또는 추종 시스템에 의하면, 라이브-뷰(live-view) 동영상에서의 목표 대상의 면적 값과 목표 대상의 선명도(sharpness) 값에 따라, 목표 대상에 대한 거리 값이 기준 거리 값을 유지하도록 추종 속도를 제어한다. 이에 따라 다음과 같은 효과들을 얻을 수 있다.
첫째, 목표 대상의 영상 중에서 특징 부분을 추적하지 않고, 목표 대상의 영상 자체를 추적할 수 있다.
따라서, 목표 대상의 영상 중에서 특징 부분을 검색할 수 없는 경우에도 지속적인 추종이 가능하다.
또한, 이를 이용하여, 추종 장치는 원격 제어 장치로부터의 좌표 값에 상응하는 물체를 곧바로 목표 대상으로 설정할 수 있다. 이에 따라, 원격 제어 장치의 사용자는 간단한 선택 조작에 의하여 목표 대상을 설정 또는 변경할 수 있다.
둘째, 목표 대상의 면적 값뿐만 아니라 목표 대상의 선명도(sharpness) 값에 따라 추종 속도가 제어되므로, 목표 대상의 영상이 흐려지더라도 추종 속도가 적절히 제어될 수 있다.
예를 들어, 제어부는, 목표 대상의 면적 값에 따라 촬영부와 목표 대상 사이의 거리 값을 구하고, 구해진 거리 값에 따라 추종 속도를 제어할 수 있다. 여기에서, 목표 대상의 영상이 흐려질 경우, 목표 대상의 선명도(sharpness)를 이용하여, 목표 대상에 대한 거리 값 또는 추종 속도를 적절히 변경할 수 있다.
이제까지 본 발명에 대하여 바람직한 실시예를 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 본 발명을 구현할 수 있음을 이해할 것이다. 그러므로 상기 개시된 실시예는 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 특허청구범위에 의해 청구된 발명 및 청구된 발명과 균등한 발명들은 본 발명에 포함된 것으로 해석되어야 한다.
본 발명은 다양한 추종 시스템들에 이용될 수 있다.
101 : 목표 대상, 102 : 추종 장치,
102a : 촬영부, 103 : 원격 제어 장치,
103s : 디스플레이 패널, 201 : 구동 장치,
202 : 제어부, 203 : 무선 통신 인터페이스,
401 : 제1 룩-업 테이블, 501 : 목표 대상의 영상,
502 : 식별 창, 601 : 제2 룩-업 테이블,
1001 : 중첩 대상, 1201, 1301 : 식별 창.

Claims (11)

  1. 목표 대상을 촬영하면서 추종하는 추종 장치에 있어서,
    본체를 이동시키는 구동 장치;
    패닝 및 틸팅을 수행하면서 상기 목표 대상을 지속적으로 촬영하는 촬영부; 및
    상기 촬영부로부터의 라이브-뷰(live-view) 동영상에서 상기 목표 대상의 면적 값과 상기 목표 대상의 선명도(sharpness) 값을 구하고, 구해진 상기 면적 값과 상기 선명도 값에 따라, 상기 촬영부와 상기 목표 대상 사이의 거리 값이 기준 거리 값을 유지하도록 상기 구동 장치를 제어하는 제어부;를 포함하고,
    상기 촬영부는 자동 포커싱을 수행하면서 포커스 렌즈의 위치 정보를 상기 제어부에게 제공하고,
    상기 제어부는,
    상기 목표 대상의 선명도(sharpness) 값이 제1 임계 값보다 적지 않으면,
    제1 룩-업 테이블을 이용하여, 상기 목표 대상의 면적 값에 상응하는 상기 촬영부와 상기 목표 대상 사이의 거리 값을 구하고, 상기 거리 값에 상응하는 이동 속도에 따라 상기 구동 장치를 제어하고,
    상기 목표 대상의 선명도(sharpness) 값이 상기 제1 임계 값보다 적으면,
    상기 자동 포커싱에 의해 상기 목표 대상의 선명도(sharpness)가 상기 제1 임계 값보다 큰 제2 임계 값과 같아질 때까지의 상기 포커스 렌즈의 이동 거리 값을 구하고, 상기 목표 대상의 면적 변화를 판단하고,
    상기 목표 대상의 면적 변화가 증가한 경우, 제2 룩-업 테이블을 이용하여 상기 포커스 렌즈의 이동 거리 값에 따라 상기 촬영부와 상기 목표 대상 사이의 거리 값을 감소 보정하고,
    상기 목표 대상의 면적 변화가 감소한 경우, 상기 제2 룩-업 테이블을 이용하여 상기 포커스 렌즈의 이동 거리 값에 따라 상기 촬영부와 상기 목표 대상 사이의 거리 값을 증가 보정하고,
    상기 제1 룩-업 테이블을 이용하여, 상기 보정된 거리 값에 상응하는 이동 속도에 따라 상기 구동 장치를 제어하는, 추종 장치.
  2. 청구항 1에 있어서, 상기 제어부는,
    상기 촬영부와 상기 목표 대상 사이의 거리 값이 기준 거리 값과 같으면 상기 본체가 기준 속도로 이동하도록 상기 구동 장치를 제어하고,
    상기 촬영부와 상기 목표 대상 사이의 거리 값이 상기 기준 거리 값보다 적으면 상기 본체가 상기 기준 속도보다 낮은 속도로 이동하도록 상기 구동 장치를 제어하며,
    상기 촬영부와 상기 목표 대상 사이의 거리 값이 상기 기준 거리 값보다 크면 상기 본체가 상기 기준 속도보다 높은 속도로 이동하도록 상기 구동 장치를 제어하는, 추종 장치.
  3. 삭제
  4. 삭제
  5. 삭제
  6. 삭제
  7. 삭제
  8. 삭제
  9. 삭제
  10. 목표 대상을 촬영하면서 추종하는 추종 장치; 및
    상기 추종 장치로부터의 동영상을 디스플레이하면서, 사용자 입력에 따라 상기 추종 장치의 동작을 원격으로 제어하는 원격 제어 장치;를 포함한 추종 시스템에 있어서,
    상기 추종 장치는,
    촬영부의 촬영에 의하여 생성되는 라이브-뷰(live-view) 동영상에서 상기 목표 대상의 면적 값과 상기 목표 대상의 선명도(sharpness) 값을 구하고, 구해진 상기 면적 값과 상기 선명도 값에 따라, 상기 목표 대상에 대한 거리 값이 기준 거리 값을 유지하도록 추종 속도를 제어하고,
    상기 추종 장치는,
    상기 목표 대상의 선명도(sharpness) 값이 제1 임계 값보다 적지 않으면,
    제1 룩-업 테이블을 이용하여, 상기 목표 대상의 면적 값에 상응하는 상기 촬영부와 상기 목표 대상 사이의 거리 값을 구하고, 상기 거리 값에 상응하는 이동 속도에 따라 상기 추종 속도를 제어하고,
    상기 목표 대상의 선명도(sharpness) 값이 상기 제1 임계 값보다 적으면,
    자동 포커싱에 의해 상기 목표 대상의 선명도(sharpness)가 상기 제1 임계 값보다 큰 제2 임계 값과 같아질 때까지의 포커스 렌즈의 이동 거리 값을 구하고, 상기 목표 대상의 면적 변화를 판단하고,
    상기 목표 대상의 면적 변화가 증가한 경우, 제2 룩-업 테이블을 이용하여 상기 포커스 렌즈의 이동 거리 값에 따라 상기 촬영부와 상기 목표 대상 사이의 거리 값을 감소 보정하고,
    상기 목표 대상의 면적 변화가 감소한 경우, 상기 제2 룩-업 테이블을 이용하여 상기 포커스 렌즈의 이동 거리 값에 따라 상기 촬영부와 상기 목표 대상 사이의 거리 값을 증가 보정하고,
    상기 제1 룩-업 테이블을 이용하여, 상기 보정된 거리 값에 상응하는 이동 속도에 따라 상기 추종 속도를 제어하는, 추종 시스템.
  11. 청구항 10에 있어서,
    상기 원격 제어 장치는, 디스플레이되는 라이브-뷰(live-view) 동영상에서 한 지점이 선택되면, 선택된 지점의 좌표 값을 상기 추종 장치에게 전송하고,
    상기 추종 장치는 상기 원격 제어 장치로부터의 좌표 값에 상응하는 물체를 목표 대상으로 설정하는, 추종 시스템.
KR1020160156593A 2016-11-23 2016-11-23 추종 장치 및 추종 시스템 KR102286006B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020160156593A KR102286006B1 (ko) 2016-11-23 2016-11-23 추종 장치 및 추종 시스템
US15/440,087 US10362277B2 (en) 2016-11-23 2017-02-23 Following apparatus and following system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160156593A KR102286006B1 (ko) 2016-11-23 2016-11-23 추종 장치 및 추종 시스템

Publications (2)

Publication Number Publication Date
KR20180058004A KR20180058004A (ko) 2018-05-31
KR102286006B1 true KR102286006B1 (ko) 2021-08-04

Family

ID=62147987

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160156593A KR102286006B1 (ko) 2016-11-23 2016-11-23 추종 장치 및 추종 시스템

Country Status (2)

Country Link
US (1) US10362277B2 (ko)
KR (1) KR102286006B1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109814588A (zh) * 2017-11-20 2019-05-28 深圳富泰宏精密工业有限公司 飞行器以及应用于飞行器的目标物追踪系统和方法
CN109764905A (zh) * 2018-12-06 2019-05-17 华南理工大学 一种用于核辐射环境的无人机与机器人监测系统
KR20200087361A (ko) * 2019-01-03 2020-07-21 삼성전자주식회사 이동 로봇 및 그 구동 방법
CN113841380A (zh) * 2020-10-20 2021-12-24 深圳市大疆创新科技有限公司 确定目标跟随策略的方法、装置、系统、设备及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014007622A (ja) * 2012-06-26 2014-01-16 Casio Comput Co Ltd 撮像装置、及びプログラム

Family Cites Families (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1994029670A1 (fr) * 1993-06-10 1994-12-22 Kabushiki Kaisha Oh - Yoh Keisoku Kenkyusho Appareil pour mesurer la position d'un objet en mouvement
KR100612858B1 (ko) 2004-08-23 2006-08-14 삼성전자주식회사 로봇을 이용하여 사람을 추적하는 방법 및 장치
KR101001060B1 (ko) * 2006-03-15 2010-12-14 오므론 가부시키가이샤 트래킹 장치, 트래킹 방법, 트래킹 장치의 제어 프로그램, 및 컴퓨터 판독 가능한 기록 매체
US7633383B2 (en) * 2006-08-16 2009-12-15 International Business Machines Corporation Systems and arrangements for providing situational awareness to an operator of a vehicle
EP1962049B1 (de) * 2007-02-21 2015-12-23 Agfa HealthCare N.V. System und Verfahren zur optischen Kohärenztomographie
JP4715787B2 (ja) 2007-03-22 2011-07-06 トヨタ自動車株式会社 移動ロボット及びロボット移動制御方法
US20080278589A1 (en) * 2007-05-11 2008-11-13 Karl Ola Thorn Methods for identifying a target subject to automatically focus a digital camera and related systems, and computer program products
US7747351B2 (en) * 2007-06-27 2010-06-29 Panasonic Corporation Apparatus and method for controlling robot arm, and robot and program
US20090096664A1 (en) * 2007-10-10 2009-04-16 Northrop Grumman Systems Corporation Method, Apparatus and Computer Program Product for Providing Stabilization During a Tracking Operation
JP5176483B2 (ja) * 2007-10-30 2013-04-03 株式会社ニコン 画像認識装置、画像追尾装置および撮像装置
KR100919247B1 (ko) * 2008-03-12 2009-09-30 중앙대학교 산학협력단 파노라마 영상 생성장치 및 방법, 그리고 이를 이용한 객체추적장치 및 방법
JP4513039B2 (ja) * 2008-05-30 2010-07-28 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
US8209122B2 (en) * 2009-03-27 2012-06-26 Honeywell International Inc. System and method for rendering visible features of a target location on a synthetic flight display
GB0909635D0 (en) * 2009-06-04 2009-07-22 Renishaw Plc Vision measurement probe
US20110133914A1 (en) * 2009-12-04 2011-06-09 Delphi Technologies, Inc. Image based vehicle object detection sensor with range finder
JP2012002541A (ja) * 2010-06-14 2012-01-05 Sony Corp 画像処理装置、画像処理方法、プログラム、及び電子機器
FR2971860B1 (fr) * 2011-02-21 2013-08-30 Essilor Int Procede de determination, en posture naturelle, d'au moins un parametre geometrico-physionomique associe au montage d'une lentille ophtalmique dans une monture de lunettes
US20120316680A1 (en) * 2011-06-13 2012-12-13 Microsoft Corporation Tracking and following of moving objects by a mobile robot
JP5587930B2 (ja) * 2012-03-09 2014-09-10 日立オートモティブシステムズ株式会社 距離算出装置及び距離算出方法
AU2013283265A1 (en) * 2012-06-29 2014-11-27 Essilor International Ophthalmic lens supply system and related methods
AU2013283264B2 (en) * 2012-06-29 2017-07-20 Essilor International Ophthalmic lenses taking into account the wearer's handedness
KR20140049152A (ko) 2012-10-16 2014-04-25 한국전자통신연구원 사람 추종 방법 및 로봇 장치
US9057610B2 (en) * 2012-11-03 2015-06-16 Trimble A.B. Robotic laser pointer apparatus and methods
US9052746B2 (en) * 2013-02-15 2015-06-09 Microsoft Technology Licensing, Llc User center-of-mass and mass distribution extraction using depth images
US9858656B2 (en) * 2013-03-13 2018-01-02 Raytheon Company Video interpretability and quality estimation
US20140267611A1 (en) * 2013-03-14 2014-09-18 Microsoft Corporation Runtime engine for analyzing user motion in 3d images
US9142034B2 (en) * 2013-03-14 2015-09-22 Microsoft Technology Licensing, Llc Center of mass state vector for analyzing user motion in 3D images
US9159140B2 (en) * 2013-03-14 2015-10-13 Microsoft Technology Licensing, Llc Signal analysis for repetition detection and analysis
CA2902771C (en) * 2013-03-15 2018-08-14 Synaptive Medical (Barbados) Inc. Context aware surgical systems
US9314924B1 (en) * 2013-06-14 2016-04-19 Brain Corporation Predictive robotic controller apparatus and methods
US9566459B2 (en) * 2013-07-16 2017-02-14 Beijing Mechanical Equipment Institute Fire engine suitable for fire-fighting in high-rise and super high-rise buildings
KR101486308B1 (ko) 2013-08-20 2015-02-04 인하대학교 산학협력단 이동 객체를 추종하기 위한 이동로봇 제어 장치, 방법 및 이동로봇
US9430706B1 (en) * 2013-10-02 2016-08-30 Given Imaging Ltd. System and method for detection of in-vivo pathology sequences
KR20170035831A (ko) * 2014-03-14 2017-03-31 시냅티브 메디컬 (바베이도스) 아이엔씨. 인텔리전트 포지셔닝 시스템과 그것의 방법들
EP2998698B1 (de) * 2014-09-17 2017-02-01 Leica Geosystems AG Vermessungsgerät mit Funktion zur Kalibrierung distanzabhängig einzustellender Fokussieroptikpositionen
JP6030617B2 (ja) * 2014-10-15 2016-11-24 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置および画像処理方法
EP3086196B1 (en) * 2015-04-21 2017-04-05 Hexagon Technology Center GmbH Method and control system for surveying and mapping a terrain while operating a bulldozer
JP2016221645A (ja) * 2015-06-02 2016-12-28 セイコーエプソン株式会社 ロボット、ロボット制御装置およびロボットシステム
JP6574645B2 (ja) * 2015-08-28 2019-09-11 キヤノン株式会社 撮像装置を制御する制御装置、撮像装置の制御方法、及びプログラム
US20170076428A1 (en) * 2015-09-14 2017-03-16 Canon Kabushiki Kaisha Information processing apparatus
JP6886236B2 (ja) * 2015-09-30 2021-06-16 富士通株式会社 視野誘導方法、視野誘導プログラム、及び視野誘導装置
US10444339B2 (en) * 2016-10-31 2019-10-15 Trackman A/S Skid and roll tracking system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014007622A (ja) * 2012-06-26 2014-01-16 Casio Comput Co Ltd 撮像装置、及びプログラム

Also Published As

Publication number Publication date
US10362277B2 (en) 2019-07-23
US20180146168A1 (en) 2018-05-24
KR20180058004A (ko) 2018-05-31

Similar Documents

Publication Publication Date Title
KR102286006B1 (ko) 추종 장치 및 추종 시스템
EP3038345B1 (en) Auto-focusing method and auto-focusing device
CN108596116B (zh) 测距方法、智能控制方法及装置、电子设备和存储介质
JP4697810B2 (ja) 自動追尾装置及び自動追尾方法
CN108900767B (zh) 相机装置及其控制方法
US9503629B2 (en) Image processing apparatus, image processing method, and computer-readable device having instructions for generating focused image
US11061202B2 (en) Methods and devices for adjusting lens position
JP6366395B2 (ja) ズーム制御装置、撮像装置、ズーム制御装置の制御方法、被写体検出装置の制御プログラムおよび記憶媒体
US20140348380A1 (en) Method and appratus for tracking objects
KR20150076627A (ko) 차량 운전 학습 시스템 및 방법
KR20150128019A (ko) 비히클 및 그 제어 방법
US20200267309A1 (en) Focusing method and device, and readable storage medium
CN105469056A (zh) 人脸图像处理方法及装置
EP2757771A2 (en) Image pickup apparatus, remote control apparatus, and methods of controlling image pickup apparatus and remote control apparatus
CN107710736B (zh) 辅助用户捕获图像或视频的方法和系统
US20220182551A1 (en) Display method, imaging method and related devices
US20110102454A1 (en) Image processing device, image processing method, image processing program, and imaging device
US20190155487A1 (en) Methods, devices, and systems for controlling movement of a moving object
CN111126108A (zh) 图像检测模型的训练和图像检测方法及装置
CN112202962B (zh) 屏幕亮度调节方法、装置及存储介质
EP3770859B1 (en) Image processing method, image processing apparatus, and storage medium
CN110888420A (zh) 行走校正方法、智能移动设备、电子设备和存储介质
KR20170093440A (ko) 회전장치를 이용하여 디바이스가 촬영대상을 추적하게 하는 방법 및 장치
US11443719B2 (en) Information processing apparatus and information processing method
US20120134538A1 (en) Object tracking device capable of tracking object accurately, object tracking method, and storage medium

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A201 Request for examination
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant