KR20200094451A - 영상 처리 장치 및 방법과 서비스 로봇 - Google Patents

영상 처리 장치 및 방법과 서비스 로봇 Download PDF

Info

Publication number
KR20200094451A
KR20200094451A KR1020190011954A KR20190011954A KR20200094451A KR 20200094451 A KR20200094451 A KR 20200094451A KR 1020190011954 A KR1020190011954 A KR 1020190011954A KR 20190011954 A KR20190011954 A KR 20190011954A KR 20200094451 A KR20200094451 A KR 20200094451A
Authority
KR
South Korea
Prior art keywords
image
recognition
processor
recognition result
selecting
Prior art date
Application number
KR1020190011954A
Other languages
English (en)
Inventor
최병권
형승용
하태신
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020190011954A priority Critical patent/KR20200094451A/ko
Priority to US16/672,875 priority patent/US11321564B2/en
Publication of KR20200094451A publication Critical patent/KR20200094451A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/0085Cleaning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G06K9/00711
    • G06K9/60
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • G06V10/993Evaluation of the quality of the acquired pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Image Analysis (AREA)

Abstract

영상 처리 장치 및 방법이 개시된다. 일 실시예는 영상을 전처리하고, 상기 전처리된 영상에서 객체를 인식하며, 상기 객체의 인식 결과의 품질을 기초로 상기 인식 결과를 활용할지 여부를 결정하고, 상기 인식 결과를 활용하지 않을 것으로 결정한 경우, 설정된 동작 모드를 고려하여 상기 전처리된 영상을 후처리하기 위한 제1 프로세스 및 상기 객체의 예측(prediction)을 위한 제2 프로세스 중에서 하나를 선택하고, 상기 선택된 프로세스에 따라 동작한다.

Description

영상 처리 장치 및 방법과 서비스 로봇{APPARATUS AND METHOD FOR PROCESSING IMAGE AND SERVICE ROBOT}
아래 실시예들은 영상 처리에 관한 것이다.
최근에 지능형 로봇의 기술 발전에 따라 사용자에게 서비스를 제공하는 서비스 로봇이 점차 다양해 지고 있다. 예를 들어, 서비스 로봇은 안내 로봇, 청소 로봇, 가사 도우미 로봇, 교육 서비스 로봇 및 애완 동물 로봇 등과 같이 그 종류가 다양해 지고 있다. 이러한 서비스 로봇은 사용자와 상호 작용을 하며, 지능적인 작업을 수행할 수 있다. 서비스 로봇은 미리 프로그래밍된 알고리즘에 따라 동작하며, 다양한 상황에서 정의된 기능들을 수행한다.
일 측에 따른 영상 처리 방법은 영상을 전처리하는 단계; 상기 전처리된 영상에서 객체를 인식하는 단계; 상기 객체의 인식 결과의 품질을 기초로 상기 인식 결과를 활용할지 여부를 결정하는 단계; 상기 인식 결과를 활용하지 않을 것으로 결정한 경우, 설정된 동작 모드를 고려하여 상기 전처리된 영상을 후처리하기 위한 제1 프로세스 및 상기 객체의 예측(prediction)을 위한 제2 프로세스 중에서 하나를 선택하는 단계; 및 상기 선택된 프로세스에 따라 동작하는 단계를 포함한다.
상기 동작하는 단계는 상기 제1 프로세스를 선택한 경우, 상기 전처리된 영상에서 상기 객체의 인식 영역을 크롭(crop)하는 단계; 상기 크롭 영상을 전처리하는 단계; 및 상기 전처리된 크롭 영상에서 상기 객체를 인식하는 단계를 포함할 수 있다.
상기 크롭 영상을 전처리하는 단계는 상기 크롭 영상의 사이즈를 조절하는 단계를 포함할 수 있다.
상기 동작하는 단계는 카메라로부터 수신된 영상 및 상기 크롭 영상 중에서 상기 크롭 영상을 선택하는 단계를 더 포함할 수 있다.
상기 동작하는 단계는 상기 제2 프로세스를 선택하는 경우, 이전 인식 결과를 기초로 상기 객체를 예측하는 단계를 포함할 수 있다.
상기 선택하는 단계는 상기 설정된 동작 모드의 필요 인식 속도가 최대 인식 속도보다 작은 경우, 상기 제1 프로세스를 선택하고, 상기 필요 인식 속도가 상기 최대 인식 속도에 대응되는 경우, 상기 제2 프로세스를 선택하는 단계를 포함할 수 있다.
상기 인식 결과를 활용할지 여부를 결정하는 단계는 상기 객체의 인식 영역의 사이즈가 미리 결정된 사이즈보다 작은지 여부를 결정하는 단계; 및 상기 인식 영역의 사이즈가 상기 미리 결정된 사이즈보다 작은 경우, 상기 인식 결과를 활용하지 않는 것으로 결정하는 단계를 포함할 수 있다.
일 측에 따른 영상 처리 장치는 하나 이상의 명령어를 저장하는 메모리; 및 상기 명령어를 실행하는 프로세서를 포함한다.
상기 프로세서는 상기 명령어를 실행함으로써: 영상을 전처리하고, 상기 전처리된 영상에서 객체를 인식하며, 상기 객체의 인식 결과의 품질을 기초로 상기 인식 결과를 활용할지 여부를 결정하고, 상기 인식 결과를 활용하지 않을 것으로 결정한 경우, 설정된 동작 모드를 고려하여 상기 전처리된 영상을 후처리하기 위한 제1 프로세스 및 상기 객체의 예측(prediction)을 위한 제2 프로세스 중에서 하나를 선택하고, 상기 선택된 프로세스에 따라 동작한다.
상기 프로세서는 상기 제1 프로세스를 선택한 경우, 상기 전처리된 영상에서 상기 객체의 인식 영역을 크롭(crop)하고, 상기 크롭 영상을 전처리하며, 상기 전처리된 크롭 영상에서 상기 객체를 인식할 수 있다.
상기 프로세서는 상기 크롭 영상의 사이즈를 조절할 수 있다.
상기 프로세서는 카메라로부터 수신된 영상 및 상기 크롭 영상 중에서 상기 크롭 영상을 선택할 수 있다.
상기 프로세서는 상기 제2 프로세스를 선택하는 경우, 이전 인식 결과를 기초로 상기 객체를 예측할 수 있다.
상기 프로세서는 상기 설정된 동작 모드의 필요 인식 속도가 최대 인식 속도보다 작은 경우, 상기 제1 프로세스를 선택하고, 상기 필요 인식 속도가 상기 최대 인식 속도에 대응되는 경우, 상기 제2 프로세스를 선택할 수 있다.
상기 프로세서는 상기 객체의 인식 영역의 사이즈가 미리 결정된 사이즈보다 작은지 여부를 결정하고, 상기 인식 영역의 사이즈가 상기 미리 결정된 사이즈보다 작은 경우, 상기 인식 결과를 활용하지 않는 것으로 결정할 수 있다.
일 측에 따른 서비스 로봇은 상기 서비스 로봇의 동작 모드를 결정하는 제어기; 및 영상을 전처리하고, 상기 전처리된 영상에서 객체를 인식하며, 상기 객체의 인식 결과의 품질을 기초로 상기 인식 결과를 활용할지 여부를 결정하고, 상기 인식 결과를 활용하지 않을 것으로 결정한 경우, 상기 결정된 동작 모드를 고려하여 상기 전처리된 영상을 후처리하기 위한 제1 프로세스 및 상기 객체의 예측(prediction)을 위한 제2 프로세스 중에서 하나를 선택하고, 상기 선택된 프로세스에 따라 동작하고, 상기 동작 결과를 상기 로봇 제어기로 전송하는 영상 처리기를 포함한다.
상기 영상 처리기는 상기 제1 프로세스를 선택한 경우, 상기 전처리된 영상에서 상기 객체의 인식 영역을 크롭(crop)하고, 상기 크롭 영상을 전처리하며, 상기 전처리된 크롭 영상에서 상기 객체를 인식할 수 있다.
상기 영상 처리기는 상기 크롭 영상의 사이즈를 조절할 수 있다.
상기 영상 처리기는 상기 제2 프로세스를 선택하는 경우, 이전 인식 결과를 기초로 상기 객체를 예측할 수 있다.
상기 영상 처리기는 상기 결정된 동작 모드의 필요 인식 속도가 최대 인식 속도보다 작은 경우, 상기 제1 프로세스를 선택하고, 상기 필요 인식 속도가 상기 최대 인식 속도에 대응되는 경우, 상기 제2 프로세스를 선택할 수 있다.
상기 영상 처리기는 상기 인식 영역의 사이즈가 미리 결정된 사이즈보다 작은지 여부를 결정하고, 상기 인식 영역의 사이즈가 상기 미리 결정된 사이즈보다 작은 경우, 상기 인식 결과를 활용하지 않는 것으로 결정할 수 있다.
도 1은 일 실시예에 따른 서비스 제공 장치를 설명하기 위한 도면이다.
도 2 내지 도 4는 일 실시예에 따른 영상 처리기를 설명하기 위한 도면이다.
도 5는 일 실시예에 따른 영상 처리 방법을 설명하기 위한 순서도이다.
도 6은 일 실시예에 따른 영상 처리기를 설명하기 위한 블록도이다.
도 7은 일 실시예에 따른 서비스 로봇을 설명하기 위한 블록도이다.
이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다.
아래 설명하는 실시예들에는 다양한 변경이 가해질 수 있다. 아래 설명하는 실시예들은 실시 형태에 대해 한정하려는 것이 아니며, 이들에 대한 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
실시예에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 실시예를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
도 1은 일 실시예에 따른 서비스 제공 장치를 설명하기 위한 도면이다.
도 1을 참조하면, 일 실시예에 따른 서비스 제공 장치(100)는 영상 처리기(110) 및 제어기(120)를 포함한다.
서비스 제공 장치(100)는 자신의 서비스를 사용자에게 제공하는 장치를 나타낸다. 서비스 제공 장치(100)는, 예를 들어, 서비스 로봇을 포함할 수 있으나 이에 제한되지 않는다.
제어기(120)는 서비스 제공 장치(100)의 동작 모드를 설정 또는 결정한다. 설정된 동작 모드는, 예를 들어, 파워 세이브(power save) 모드, 탐색(detect) 모드, 또는 일반(normal) 모드일 수 있다. 파워 세이브 모드는 서비스 제공 장치(100)의 파워를 세이브하기 위한 모드를 나타낼 수 있고, 탐색 모드는 서비스 제공 장치(100)의 주변을 정밀하게 탐색하고 객체를 정확히 인식하기 위한 모드를 나타낼 수 있으며, 일반 모드는 디폴트(default)로 설정된 모드를 나타낸다.
각 동작 모드에는 필요 인식 속도가 설정된다. 필요 인식 속도는 영상 처리기(110)가 객체를 인식하는데 필요한 최소 fps(frame per second)를 나타낼 수 있다. 일례로, 일반 모드의 필요 인식 속도는 20fps일 수 있고 탐색 모드의 필요 인식 속도는 30fps 일 수 있으며, 파워 세이브 모드의 필요 인식 속도는 10fps 일 수 있다.
제어기(120)는 영상 처리기(110)의 인식 속도를 제어 또는 조절할 수 있다. 일례로, 제어기(120)는 동작 모드를 변경함으로써 영상 처리기(110)의 인식 속도를 제어할 수 있다. 제어기(120)는 파워 세이브 모드에서 일반 모드로 변경하여 영상 처리기(110)가 높은 인식 속도로 객체 인식을 수행하게 끔 할 수 있고, 탐색 모드에서 일반 모드로 변경하여 영상 처리기(110)가 낮은 인식 속도로 객체 인식을 수행하게 끔 할 수 있다.
영상 처리기(110)는 객체 인식을 수행하고 객체의 인식 결과를 제어기(120)로 전달할 수 있다. 이 때, 객체의 인식 결과의 품질이 좋지 않을 수 있다. 달리 표현하면, 인식률이 좋지 않을 수 있다. 이러한 인식 결과를 제어기(120)가 영상 처리기(110)로부터 수신하면 제어기(120)는 적절한 서비스를 제공하기 어려울 수 있다. 일 실시예에 있어서, 영상 처리기(110)는 객체의 인식 결과의 품질이 좋지 않은 경우, 해당 객체의 인식 결과를 제어기(120)로 전달하지 않고 해당 객체의 인식 결과의 품질을 향상시킬 수 있도록 동작할 수 있다. 달리 표현하면, 영상 처리기(110)는 객체 인식 성능을 향상시킬 수 있게 동작할 수 있다. 이하, 도 2 내지 도 4를 참조하면서 영상 처리기(110)에 대해 구체적으로 설명한다.
도 2 내지 도 4는 일 실시예에 따른 영상 처리기를 설명하기 위한 도면이다.
도 2를 참조하면, 일 실시예에 따른 영상 처리기(110)는 전처리기(210), 인식기(220), 및 후처리기(230)를 포함한다.
전처리기(210)는 카메라로부터 하나 이상의 영상을 수신한다.
전처리기(210)는 수신된 영상을 전처리한다. 일례로, 전처리기(210)는 수신된 영상의 노이즈를 제거할 수 있다. 또한, 전처리기(210)는 수신된 영상의 사이즈를 작게 조절할 수 있다. 달리 표현하면, 전처리기(210) 는 수신된 영상에 다운 스케일링(down scaling)을 수행할 수 있다.
인식기(220)는 전처리된 영상에서 객체를 인식한다.
후처리기(230)는 객체의 인식 결과의 품질을 추정할 수 있고, 추정된 품질을 기초로 해당 인식 결과를 활용할 것인지 여부를 결정할 수 있다. 인식 결과의 품질은, 예를 들어, 객체의 인식 영역의 사이즈를 포함할 수 있다. 일례로, 후처리기(230)는 객체의 인식 영역의 사이즈가 미리 결정된 사이즈보다 작은지 여부를 결정할 수 있고, 해당 객체의 인식 영역의 사이즈가 미리 결정된 사이즈보다 작으면 해당 객체의 인식 결과를 활용하지 않을 것으로 결정할 수 있다.
후처리기(230)는 객체의 인식 결과를 활용하지 않을 것으로 결정하면, 설정된 동작 모드를 고려하여 전처리된 영상을 후처리하기 위한 제1 프로세스 및 객체의 예측을 위한 제2 프로세스 중에서 하나를 선택한다. 일례로, 후처리기(230)는 설정된 동작 모드의 필요 인식 속도가 영상 처리기(110)의 최대 인식 속도(예를 들어, 30fps)보다 작으면, 제1 프로세스(달리 표현하면, 제1 동작)를 선택할 수 있고, 설정된 동작 모드의 필요 인식 속도가 영상 처리기(110)의 최대 인식 속도에 근접하거나 최대 인식 속도와 동일하면, 제2 프로세스(달리 표현하면, 제2 동작)를 선택할 수 있다.
영상 처리기(110)가 제1 프로세스를 선택한 경우에 대해선 도 3을 참조하면서 설명하고 제2 프로세스를 선택한 경우에 대해선 도 4를 참조하면서 설명한다.
도 3에 도시된 예에서, 전처리기(210) 및 후처리기(230)는 제어기(120)로부터 현재 동작 모드가 제1 동작 모드로 설정되어 있음을 나타내는 설정 정보를 수신할 수 있다. 여기서, 제1 동작 모드는 상술한 일반 모드(또는 파워 세이브 모드)라 하자.
전처리기(210)는 영상 a(310)를 카메라로부터 수신할 수 있고, 영상 a(310)를 전처리할 수 있다.
인식기(220)는 전처리된 영상 a(320)에서 객체를 인식할 수 있다.
후처리기(230)는 객체의 인식 결과(330)의 품질을 기초로 해당 객체의 인식 결과(330)를 활용할 것인지 여부를 결정할 수 있다. 일례로, 후처리기(230)는 해당 객체의 인식 영역(340)의 사이즈를 미리 결정된 사이즈와 비교할 수 있다. 여기서, 인식 영역(340)의 사이즈가 미리 결정된 사이즈보다 작으면, 해당 객체의 인식 결과(330)를 활용하지 않을 것으로 결정할 수 있다.
후처리기(230)는 인식 결과(330)를 활용하지 않을 것으로 결정하면, 전처리된 영상 a(320)를 크롭하여 크롭 영상(350)을 생성할 수 있다. 보다 구체적으로, 현재 설정된 동작 모드는 일반 모드로, 일반 모드의 필요 인식 속도(예를 들어, 20fps)는 최대 인식 속도(예를 들어, 30fps)보다 작다. 이 경우, 전처리기(210)와 인식기(220)는 최대 가용 자원보다 적게 자원을 사용할 수 있다. 다시 말해, 전처리기(210)와 인식기(220)에는 크롭 영상(350)을 처리할 여유 자원이 있을 수 있다. 후처리기(230)는 현재 설정된 동작 모드가 최대 인식 속도보다 작은 인식 속도를 갖는 일반 모드이므로, 전처리기(210)와 인식기(220)가 크롭 영상(350)을 처리 가능할 것이라고 판단할 수 있고 이러한 판단을 기반으로 전처리된 영상 a(320)에서 인식 영역(340)을 크롭하여 크롭 영상(350)을 생성할 수 있다. 구현에 따라, 후처리기(230)는 인식 영역(340)보다 크게 크롭을 수행할 수 있다.
전처리기(210)는 크롭 영상(350)을 전처리할 수 있다. 일례로, 전처리기(210)는 크롭 영상(350)의 노이즈를 제거 및/또는 크롭 영상(350)의 사이즈를 조절할 수 있다.
실시예에 있어서, 전처리기(210)는 카메라로부터 영상 a의 이후 영상들을 수신할 수 있다. 일례로, 전처리기(210)는 영상 a-1, 영상 a-2, 영상 a-3 등의 이후 영상들을 수신할 수 있다. 전처리기(210)는 후처리기(230)로부터 크롭 영상(350)도 수신하는데, 카메라로부터 수신한 이후 영상 대신에 크롭 영상(350)을 전처리할 수 있다. 다시 말해, 전처리기(210)는 후처리기(230)로부터 크롭 영상(350)을 수신하는 것 뿐 아니라 카메라로부터 영상 a의 이후 영상들을 수신할 수 있고, 영상 a의 이후 영상과 크롭 영상(350) 중에서 크롭 영상(350)을 선택하여 전처리할 수 있다. 일례로, 전처리기(210)는 카메라로부터 영상 a-3을 수신하고 후처리기(230)로부터 크롭 영상(350)을 수신하면, 영상 a-3 및 크롭 영상(350) 중에서 크롭 영상(350)을 선택하여 전처리할 수 있다. 다시 말해, 전처리기(210)는 영상 a-3을 전처리할 순서에서 영상 a-3 대신에 크롭 영상(350)을 전처리할 수 있다.
인식기(220)는 전처리된 크롭 영상에서 객체를 인식할 수 있다. 후처리기(230)는 전처리된 크롭 영상의 객체의 인식 결과의 품질이 좋으면 전처리된 크롭 영상의 객체의 인식 결과를 제어기(120)로 전달할 수 있고, 해당 품질이 좋지 않으면 영상 처리기(110)는 도 3을 통해 설명한 동작을 다시 수행할 수 있다.
도 4에 도시된 예에서, 전처리기(210) 및 후처리기(230)는 제어기(120)로부터 현재 동작 모드가 제2 동작 모드로 설정되어 있음을 나타내는 설정 정보를 수신할 수 있다. 여기서, 제2 동작 모드는 상술한 탐색 모드일 수 있다.
인식기(220)는 전처리된 영상 a(320)에서 객체를 인식할 수 있고, 후처리기(230)는 객체의 인식 결과(330)를 활용하지 못할 것으로 결정하면, 메모리(410)에서 이전 인식 결과(420)를 불러올 수 있다. 여기서, 이전 인식 결과(420)는 영상 a의 하나 이상의 이전 영상에 대한 인식 결과를 나타낼 수 있다. 보다 구체적으로, 현재 동작 모드가 탐색 모드이므로, 탐색 모드의 필요 인식 속도는 최대 인식 속도에 근접하거나 최대 인식 속도에 해당할 수 있다. 이 경우, 전처리기(210)와 인식기(220)에는 크롭 영상(350)을 처리할 여유 자원이 적거나 없을 수 있다. 후처리기(230)는 크롭 영상(350)을 생성하는 대신에 메모리(410)에서 이전 인식 결과(420)를 불러올 수 있고 이전 인식 결과(420)를 기초로 전처리된 영상 a(320) 내의 객체에 대한 예측을 수행할 수 있다. 후처리기(230)는 예측 결과를 제어기(120)로 전달할 수 있다.
도 5는 일 실시예에 따른 영상 처리 방법을 설명하기 위한 순서도이다.
일 실시예에 따른 영상 처리 방법은 영상 처리기(110)에 의해 수행될 수 있다. 영상 처리기(110)는 영상 처리 장치로 달리 표현될 수 있다.
도 5를 참조하면, 영상 처리기(110)는 영상을 전처리한다(510).
영상 처리기(110)는 전처리된 영상에서 객체를 인식한다(520).
영상 처리기(110)는 객체의 인식 결과의 품질을 기초로 해당 객체의 인식 결과를 활용할지 여부를 결정한다(530). 일례로, 영상 처리기(110)는 전처리된 영상에서의 객체의 인식 영역의 사이즈가 미리 결정된 사이즈보다 작은지 여부를 결정할 수 있다. 여기서, 인식 영역의 사이즈가 미리 결정된 사이즈보다 작은 경우, 영상 처리기(110)는 객체의 인식 결과를 활용하지 않는 것으로 결정할 수 있다.
영상 처리기(110)는 해당 객체의 인식 결과를 활용하지 않을 것으로 결정한 경우, 설정된 동작 모드를 고려하여 전처리된 영상을 후처리하기 위한 제1 프로세스 및 해당 객체의 예측을 위한 제2 프로세스 중에서 하나를 선택한다(540). 일례로, 영상 처리기(110)는 설정된 동작 모드의 필요 인식 속도가 최대 인식 속도보다 작은 경우, 제1 프로세스를 선택할 수 있고, 설정된 동작 모드의 필요 인식 속도가 최대 인식 속도에 대응되는 경우, 제2 프로세스를 선택할 수 있다. 달리 표현하면, 영상 처리기(110)는 현재 설정된 동작 모드가 최대 인식 속도보다 작은 인식 속도를 갖는 동작 모드(예를 들어, 일반 모드 또는 파워 세이브 모드)에 해당하면 제1 프로세스를 선택할 수 있고, 현재 설정된 동작 모드가 최대 인식 속도를 갖는 동작 모드(예를 들어, 탐색 모드)에 해당하면 제2 프로세스를 선택할 수 있다.
영상 처리기(110)는 선택된 프로세스에 따라 동작한다(550). 일례로, 영상 처리기(110)는 제1 프로세스를 선택하는 경우, 전처리된 영상에서 객체의 인식 영역을 크롭하여 크롭 영상을 생성할 수 있고, 해당 크롭 영상을 전처리할 수 있으며, 전처리된 크롭 영상에서 객체를 인식할 수 있다. 영상 처리기(110)는 제2 프로세스를 선택하는 경우, 이전 인식 결과를 기초로 객체를 예측할 수 있다.
도 1 내지 도 4를 통해 기술된 사항들은 도 5를 통해 설명한 단계들에 적용될 수 있으므로, 상세한 설명을 생략한다.
도 6은 일 실시예에 따른 영상 처리 장치를 설명하기 위한 블록도이다.
도 6을 참조하면, 영상 처리 장치(600)는 메모리(610) 및 프로세서(620)를 포함한다. 영상 처리 장치(600)는 영상 처리기(110)를 다르게 표현한 것이다.
메모리(610)는 프로세서(620)에 연결되고, 프로세서(620)에 의해 실행될 명령어들, 프로세서(620)가 연산할 데이터 또는 프로세서(620)에 의해 처리된 데이터를 저장할 수 있다. 메모리(610)는, 예를 들어, 비일시적인 컴퓨터 판독가능 매체(예컨대, 고속 랜덤 액세스 메모리) 및/또는 비휘발성 컴퓨터 판독가능 저장 매체(예컨대, 하나 이상의 디스크 저장 장치, 플래쉬 메모리 장치, 또는 기타 비휘발성 솔리드 스테이트 메모리 장치)를 포함할 수 있다.
프로세서(620)는 영상 처리 장치(600)의 전반적인 제어를 수행한다. 전처리기(210), 인식기(220), 및 후처리기(230)는 프로세서(620)에 의해 구현될 수 있다.
프로세서(620)는 메모리(610)에 저장된 명령어들을 실행하는 것에 의해 도 1 내지 도 5와 관련하여 전술한 하나 이상의 동작을 수행할 수 있다. 일례로, 프로세서(620)는 영상을 전처리하고, 전처리된 영상에서 객체를 인식하며, 객체의 인식 결과의 품질을 기초로 해당 객체의 인식 결과를 활용할지 여부를 결정한다. 여기서, 프로세서(620)는 해당 객체의 인식 결과를 활용하지 않을 것으로 결정한 경우, 설정된 동작 모드를 고려하여 전처리된 영상을 후처리하기 위한 제1 프로세스 및 전처리된 영상 내의 객체의 예측을 위한 제2 프로세스 중에서 하나를 선택하고, 선택된 프로세스에 따라 동작한다.
도 1 내지 도 5를 통해 기술된 사항들은 도 6을 통해 설명한 사항들에 적용될 수 있으므로, 상세한 설명을 생략한다.
도 7은 일 실시예에 따른 서비스 로봇을 설명하기 위한 블록도이다.
도 1을 통해 설명한 것과 같이, 서비스 제공 장치(100)의 일례로 서비스 로봇(700)이 있다.
서비스 로봇(700)은 사용자에게 서비스를 제공하는 로봇이다. 서비스 로봇(700)은 서비스 지역 내에서 이동할 수 있고, 사용자에게 사용 목적에 따른 서비스를 제공할 수 있다. 일례로, 서비스 로봇(700)은 길 안내 서비스, 동행 서비스, 방향 안내 서비스, 시설물 안내 서비스, 위험물 경고 서비스, 광고 서비스, 청소 서비스, 보안 서비스, 배달 서비스, 카트 서비스 등을 제공할 수 있다. 몇몇 서비스들을 예로 들어 설명하면, 시설물 안내 서비스에서는 서비스 로봇(700)이 사람을 따라다니면서 위치 기반으로 시설물에 대한 설명을 제공하고, 길 안내 서비스에서는 서비스 로봇(700)이 사용자를 목적지 위치로 안내하며, 카트 서비스에서는 서비스 로봇(700)이 필요한 물건의 위치를 안내하면서 짐을 싣고 사용자를 따라 다닐 수 있다.
도 7을 참조하면, 서비스 로봇(700)은 센서(710), 프로세서(720), 메모리(730), 및 구동기(740)를 포함한다. 도 7에는 서비스 로봇(700)이 하나의 센서(710) 및 프로세서(720)를 포함하는 것으로 도시되어 있으나 이에 제한되지 않고 복수의 센서들 및 복수의 프로세서들을 포함할 수 있다.
센서(710)는 서비스 로봇(700)의 환경 정보를 획득한다. 일례로, 센서(710)는 주행 중인 서비스 로봇(700)의 주변 환경 정보를 획득할 수 있다.
일 실시예에 있어서, 센서(710)는 카메라를 포함할 수 있다. 이에 제한되지 않고 센서(710)는 거리 센서, 감지 센서, 깊이 센서, GPS 센서, 마이크로폰, 라이다(LiDAR) 센서, 모터 엔코더 센서, 적외선 센서, IMU(Inertial Measurement Unit) 센서, 및 주행 센서 중 어느 하나 또는 이들의 조합을 포함할 수 있다.
프로세서(720)는 영상 처리기(110)와 제어기(120) 각각의 동작을 수행한다. 일례로, 프로세서(720)는 서비스 로봇(700)의 동작 모드를 파워 세이브에서 일반 모드로 변경하면, 인식 속도를 높게 조절(또는 변경)하여 객체 인식을 수행할 수 있고, 인식 결과를 기초로 서비스를 제공할 수 있다.
구현에 따라, 서비스 로봇(700)은 복수의 프로세서들을 포함할 수 있다. 여기서, 복수의 프로세서들 중 하나는 영상 처리기(110)의 동작을 수행할 수 있고, 복수의 프로세서들 중 다른 하나는 제어기(120)의 동작을 수행할 수 있다.
메모리(730)는 프로세서(720)에 의해 실행될 명령어들, 프로세서(720)가 연산할 데이터 또는 프로세서(720)에 의해 처리된 데이터를 저장할 수 있다.
구동기(740)는 서비스 로봇(700)을 이동시키기 위한 하나 이상의 기계적인 컴포넌트를 포함할 수 있다. 일례로, 구동기(740)는 하나 이상의 모터를 포함할 수 있다. 해당 모터는 프로세서(720)의 제어에 의해 토크를 출력할 수 있고 이러한 토크는 서비스 로봇(700)을 이동시킬 수 있다.
도 1 내지 도 6을 통해 기술된 사항들은 도 7을 통해 설명한 사항들에 적용될 수 있으므로, 상세한 설명을 생략한다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.

Claims (20)

  1. 영상을 전처리하는 단계;
    상기 전처리된 영상에서 객체를 인식하는 단계;
    상기 객체의 인식 결과의 품질을 기초로 상기 인식 결과를 활용할지 여부를 결정하는 단계;
    상기 인식 결과를 활용하지 않을 것으로 결정한 경우, 설정된 동작 모드를 고려하여 상기 전처리된 영상을 후처리하기 위한 제1 프로세스 및 상기 객체의 예측(prediction)을 위한 제2 프로세스 중에서 하나를 선택하는 단계; 및
    상기 선택된 프로세스에 따라 동작하는 단계
    를 포함하는,
    영상 처리 방법.
  2. 제1항에 있어서,
    상기 동작하는 단계는,
    상기 제1 프로세스를 선택한 경우, 상기 전처리된 영상에서 상기 객체의 인식 영역을 크롭(crop)하는 단계;
    상기 크롭 영상을 전처리하는 단계; 및
    상기 전처리된 크롭 영상에서 상기 객체를 인식하는 단계
    를 포함하는,
    영상 처리 방법.
  3. 제2항에 있어서,
    상기 크롭 영상을 전처리하는 단계는,
    상기 크롭 영상의 사이즈를 조절하는 단계
    를 포함하는,
    영상 처리 방법.
  4. 제2항에 있어서,
    상기 동작하는 단계는,
    카메라로부터 수신된 영상 및 상기 크롭 영상 중에서 상기 크롭 영상을 선택하는 단계
    를 더 포함하는,
    영상 처리 방법.
  5. 제1항에 있어서,
    상기 동작하는 단계는,
    상기 제2 프로세스를 선택하는 경우, 이전 인식 결과를 기초로 상기 객체를 예측하는 단계
    를 포함하는,
    영상 처리 방법.
  6. 제1항에 있어서,
    상기 선택하는 단계는,
    상기 설정된 동작 모드의 필요 인식 속도가 최대 인식 속도보다 작은 경우, 상기 제1 프로세스를 선택하고, 상기 필요 인식 속도가 상기 최대 인식 속도에 대응되는 경우, 상기 제2 프로세스를 선택하는 단계
    를 포함하는,
    영상 처리 방법.
  7. 제1항에 있어서,
    상기 인식 결과를 활용할지 여부를 결정하는 단계는,
    상기 객체의 인식 영역의 사이즈가 미리 결정된 사이즈보다 작은지 여부를 결정하는 단계; 및
    상기 인식 영역의 사이즈가 상기 미리 결정된 사이즈보다 작은 경우, 상기 인식 결과를 활용하지 않는 것으로 결정하는 단계
    를 포함하는,
    영상 처리 방법.
  8. 하나 이상의 명령어를 저장하는 메모리; 및
    상기 명령어를 실행하는 프로세서
    를 포함하고,
    상기 프로세서는 상기 명령어를 실행함으로써:
    영상을 전처리하고, 상기 전처리된 영상에서 객체를 인식하며, 상기 객체의 인식 결과의 품질을 기초로 상기 인식 결과를 활용할지 여부를 결정하고, 상기 인식 결과를 활용하지 않을 것으로 결정한 경우, 설정된 동작 모드를 고려하여 상기 전처리된 영상을 후처리하기 위한 제1 프로세스 및 상기 객체의 예측(prediction)을 위한 제2 프로세스 중에서 하나를 선택하고, 상기 선택된 프로세스에 따라 동작하는,
    영상 처리 장치.
  9. 제8항에 있어서,
    상기 프로세서는,
    상기 제1 프로세스를 선택한 경우, 상기 전처리된 영상에서 상기 객체의 인식 영역을 크롭(crop)하고, 상기 크롭 영상을 전처리하며, 상기 전처리된 크롭 영상에서 상기 객체를 인식하는,
    영상 처리 장치.
  10. 제9항에 있어서,
    상기 프로세서는 상기 크롭 영상의 사이즈를 조절하는,
    영상 처리 장치.
  11. 제9항에 있어서,
    상기 프로세서는 카메라로부터 수신된 영상 및 상기 크롭 영상 중에서 상기 크롭 영상을 선택하는,
    영상 처리 장치.
  12. 제8항에 있어서,
    상기 프로세서는 상기 제2 프로세스를 선택하는 경우, 이전 인식 결과를 기초로 상기 객체를 예측하는,
    영상 처리 장치.
  13. 제8항에 있어서,
    상기 프로세서는,
    상기 설정된 동작 모드의 필요 인식 속도가 최대 인식 속도보다 작은 경우, 상기 제1 프로세스를 선택하고, 상기 필요 인식 속도가 상기 최대 인식 속도에 대응되는 경우, 상기 제2 프로세스를 선택하는,
    영상 처리 장치.
  14. 제8항에 있어서,
    상기 프로세서는,
    상기 객체의 인식 영역의 사이즈가 미리 결정된 사이즈보다 작은지 여부를 결정하고, 상기 인식 영역의 사이즈가 상기 미리 결정된 사이즈보다 작은 경우, 상기 인식 결과를 활용하지 않는 것으로 결정하는,
    영상 처리 장치.
  15. 서비스 로봇에 있어서,
    상기 서비스 로봇의 동작 모드를 결정하는 로봇 제어기; 및
    영상을 전처리하고, 상기 전처리된 영상에서 객체를 인식하며, 상기 객체의 인식 결과의 품질을 기초로 상기 인식 결과를 활용할지 여부를 결정하고, 상기 인식 결과를 활용하지 않을 것으로 결정한 경우, 상기 결정된 동작 모드를 고려하여 상기 전처리된 영상을 후처리하기 위한 제1 프로세스 및 상기 객체의 예측(prediction)을 위한 제2 프로세스 중에서 하나를 선택하고, 상기 선택된 프로세스에 따라 동작하고, 상기 동작 결과를 상기 로봇 제어기로 전송하는 영상 처리기
    를 포함하는
    서비스 로봇.
  16. 제15항에 있어서,
    상기 영상 처리기는,
    상기 제1 프로세스를 선택한 경우, 상기 전처리된 영상에서 상기 객체의 인식 영역을 크롭(crop)하고, 상기 크롭 영상을 전처리하며, 상기 전처리된 크롭 영상에서 상기 객체를 인식하는,
    서비스 로봇.
  17. 제16항에 있어서,
    상기 영상 처리기는 상기 크롭 영상의 사이즈를 조절하는,
    서비스 로봇.
  18. 제15항에 있어서,
    상기 영상 처리기는 상기 제2 프로세스를 선택하는 경우, 이전 인식 결과를 기초로 상기 객체를 예측하는,
    서비스 로봇.
  19. 제15항에 있어서,
    상기 영상 처리기는,
    상기 결정된 동작 모드의 필요 인식 속도가 최대 인식 속도보다 작은 경우, 상기 제1 프로세스를 선택하고, 상기 필요 인식 속도가 상기 최대 인식 속도에 대응되는 경우, 상기 제2 프로세스를 선택하는,
    서비스 로봇.
  20. 제15항에 있어서,
    상기 영상 처리기는,
    상기 객체의 인식 영역의 사이즈가 미리 결정된 사이즈보다 작은지 여부를 결정하고, 상기 인식 영역의 사이즈가 상기 미리 결정된 사이즈보다 작은 경우, 상기 인식 결과를 활용하지 않는 것으로 결정하는,
    서비스 로봇.
KR1020190011954A 2019-01-30 2019-01-30 영상 처리 장치 및 방법과 서비스 로봇 KR20200094451A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020190011954A KR20200094451A (ko) 2019-01-30 2019-01-30 영상 처리 장치 및 방법과 서비스 로봇
US16/672,875 US11321564B2 (en) 2019-01-30 2019-11-04 Method and apparatus for processing image, and service robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190011954A KR20200094451A (ko) 2019-01-30 2019-01-30 영상 처리 장치 및 방법과 서비스 로봇

Publications (1)

Publication Number Publication Date
KR20200094451A true KR20200094451A (ko) 2020-08-07

Family

ID=71732467

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190011954A KR20200094451A (ko) 2019-01-30 2019-01-30 영상 처리 장치 및 방법과 서비스 로봇

Country Status (2)

Country Link
US (1) US11321564B2 (ko)
KR (1) KR20200094451A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023027312A1 (ko) * 2021-08-25 2023-03-02 삼성전자주식회사 로봇 및 그 제어 방법

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220270296A1 (en) * 2021-02-23 2022-08-25 Shanghai Ankobot Robot Co., Ltd Method for processing image, mobile robot and method for controlling mobile robot

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003281503A (ja) 2002-03-20 2003-10-03 Fuji Heavy Ind Ltd 立体物の画像認識装置
KR100918480B1 (ko) 2007-09-03 2009-09-28 한국전자통신연구원 스테레오 비전 시스템 및 그 처리 방법
KR101313103B1 (ko) 2009-03-20 2013-09-30 한국전자통신연구원 지능로봇의 얼굴인식 성능평가 시스템 및 평가 방법
KR20130051680A (ko) 2011-11-10 2013-05-21 한국전자통신연구원 로봇에서의 사용자 얼굴 인식 장치 및 방법
JP2014211694A (ja) 2013-04-17 2014-11-13 株式会社リコー 画像処理装置、距離測定装置及び画像処理用プログラム
KR101460964B1 (ko) 2013-05-14 2014-11-12 주식회사 슈프리마 지문 영상 취득 장치 및 방법
US9830534B1 (en) 2015-12-16 2017-11-28 A9.Com, Inc. Object recognition
US10049307B2 (en) 2016-04-04 2018-08-14 International Business Machines Corporation Visual object recognition
JP6867182B2 (ja) 2017-02-07 2021-04-28 東芝テック株式会社 情報処理装置およびプログラム
US20180348783A1 (en) * 2017-05-31 2018-12-06 Neato Robotics, Inc. Asynchronous image classification
KR102541560B1 (ko) * 2017-09-14 2023-06-08 삼성전자주식회사 객체 인식 방법 및 장치

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023027312A1 (ko) * 2021-08-25 2023-03-02 삼성전자주식회사 로봇 및 그 제어 방법

Also Published As

Publication number Publication date
US20200242359A1 (en) 2020-07-30
US11321564B2 (en) 2022-05-03

Similar Documents

Publication Publication Date Title
KR102463175B1 (ko) 객체 인식 방법 및 장치
US20240112051A1 (en) Machine learning models operating at different frequencies for autonomous vehicles
EP3466764B1 (en) Method for monitoring blind spot of monitoring vehicle and blind spot monitor using the same
US10884433B2 (en) Aerial drone utilizing pose estimation
US10948907B2 (en) Self-driving mobile robots using human-robot interactions
US11269324B2 (en) Method and apparatus for controlling autonomous vehicle
EP3690846B1 (en) Learning method and learning device for determining whether to switch mode of vehicle from manual driving mode to autonomous driving mode by performing trajectory-based behavior analysis on recent driving route
CN109466554A (zh) 自适应巡航加塞预防控制方法、系统、装置和存储介质
US20210174116A1 (en) Neural network system and operating method thereof
KR102266996B1 (ko) 이미지센서와 함께 회전 감지용 센서 또는 위치 센서를 장착한 모바일 시스템에서의 객체인식영역 제한 방법 및 장치
EP3640790B1 (en) Electronic device, control method thereof, and sound output control system of the electronic device
KR20200094451A (ko) 영상 처리 장치 및 방법과 서비스 로봇
CN112135553A (zh) 用于执行清洁操作的方法和设备
CN112926461B (zh) 神经网络训练、行驶控制方法及装置
CN113379096B (zh) 基于合成字段的单发(single shot)预测
CN113096151B (zh) 对目标的运动信息进行检测的方法和装置、设备和介质
CN110946511A (zh) 打滑判断的方法、设备及存储介质
US20220319514A1 (en) Information processing apparatus, information processing method, mobile object control device, and mobile object control method
JP7233572B2 (ja) エクスプレイナブルセルフフォーカスされたアテンションを利用して行動予測を遂行する方法及び装置
Buelow et al. Gesture-recognition as basis for a human robot interface (HRI) on a AUV
KR102426562B1 (ko) 오브젝트 검출 방법 및 장치
JP7450754B2 (ja) 画像解析から得られたフィンガープリントを用いた、画像フレーム全体に亘る脆弱な道路利用者の追跡
JP2010238182A (ja) 自律移動体及び不審者検知方法
CN112660146A (zh) 控制车辆的方法、装置、设备和存储介质
KR20200128469A (ko) 자율주행차량을 위한 충돌 예방 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal