KR101706365B1 - 이미지 세그멘테이션 방법 및 이미지 세그멘테이션 장치 - Google Patents

이미지 세그멘테이션 방법 및 이미지 세그멘테이션 장치 Download PDF

Info

Publication number
KR101706365B1
KR101706365B1 KR1020140180972A KR20140180972A KR101706365B1 KR 101706365 B1 KR101706365 B1 KR 101706365B1 KR 1020140180972 A KR1020140180972 A KR 1020140180972A KR 20140180972 A KR20140180972 A KR 20140180972A KR 101706365 B1 KR101706365 B1 KR 101706365B1
Authority
KR
South Korea
Prior art keywords
image
target object
displacement
module
image segmentation
Prior art date
Application number
KR1020140180972A
Other languages
English (en)
Other versions
KR20160053729A (ko
Inventor
지아웨이 구
카이 유
Original Assignee
바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 filed Critical 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드
Publication of KR20160053729A publication Critical patent/KR20160053729A/ko
Application granted granted Critical
Publication of KR101706365B1 publication Critical patent/KR101706365B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Abstract

이미지 세그멘테이션 방법 및 이미지 세그멘테이션 장치가 제공된다. 이미지 세그멘테이션 방법은 대상 오브젝트의 동적 운동 영상 이미지를 수신하고, 상기 영상 이미지의 각 픽셀의 제1 변위를 추정하기 위하여 상기 영상 이미지의 전체 이미지 옵티컬 플로우(optical flow)를 획득하고, 상기 영상 이미지의 배경 픽셀의 제2 변위를 추정하기 위하여 상기 영상 이미지의 배경 옵티컬 플로우(optical flow)를 획득하고; 상기 대상 오브젝트의 전경 영역을 획득하기 위하여 상기 제2 변위와 상기 제1 변위를 비교하고; 상기 대상 오브젝트의 전경 영역에서 상기 영상 이미지의 특징점들을 추출하고, 상기 대상 오브젝트의 개수를 결정하기 위하여 상기 추출된 특징점들의 확률 밀도를 산출하고; 상기 대상 오브젝트를 추적하기 위하여 상기 대상 오브젝트에 대한 비주얼 트래킹 및 운동 궤도 분석을 수행하고; 상기 특징점들의 인터프레임 변위(interframe displacement), 인터프레임 컷팅 윈도우 유사성(interframe cutting window similarity) 및 트래킹 박스 스케일링(tracking box scaling)에 따라 상기 대상 오브젝트에 대한 고정 판단(stationary judgment) 및 이미지 세그멘테이션(image segmentation)을 수행하는 것을 포함할 수 있다.

Description

이미지 세그멘테이션 방법 및 이미지 세그멘테이션 장치{IMAGE SEGMENTATION METHOD AND IMAGE SEGMENTATION DEVICE}
본 발명은 인터넷 분야에 관련된 것으로, 구체적으로는, 이미지 세그멘테이션(segmentation) 방법 및 이미지 세그멘테이션 장치에 관한 것이다.
인공 지능 분야에서, 스마트 웨어러블 장치(smart wearable devices) 또는 로봇이 자연스러운 인터랙티브(interactive) 방식의 재구성 및 식별을 수행하는 것을 어떻게 가능하게 할 것인지는 최근 연구에서 핵심적인 문제가 되었으며, 여기서 자연스러운 인간-컴퓨터 인터랙션(interaction)의 생성은 특히 중요하다.
인공 지능 장치 및 로봇은 인간 ??의 다양한 측면에서 널리 적용되고 있고, 인간 개입에 의한 머신 비전(machine vision) 및 인식 또한 새로운 기술 수단을 이용하여 더욱 편리하고 효율적으로 되야 한다. 따라서 머신 인식(machine recognition) 및 이미지 식별을 수행하기 위한 보다 자연스러운 방식이 요구된다.
현재, 이미지 식별에 대한 입력 및 머신 비전 인식은 먼저 사진을 촬영한 다음 대상 오브젝트를 결정함으로써 수행된다. 이러한 과정은 종종 촬영된 컨텐트(content)의 복잡성에 의해 제한되고, 그 결과 많은 스텝들이 필요하며, 학습 비용이 높다. 더욱이, 촬영된 사진은 인간의 개입이 필요하다. 예를 들어, 사진들은 수동으로 경계가 정해질 필요가 있다. 게다가, 낮은 식별 정확도의 결과로 식별 컨텐트(content)는 장치로부터 정밀하게 획득될 수 없으며, 불규칙한 오브젝트를 식별하는 것은 어렵고, 작업은 불편하며, 사용자 경험은 약하다.
본 발명의 실시예는 적어도 어느 정도 종래 기술에 존재하는 문제점들 중 적어도 하나를 해결하기 위한 것이다.
본 발명의 제1 측면에 따르면, 이미지 세그멘테이션 방법이 제공된다. 상기 이미지 세그멘테이션 방법은 대상 오브젝트의 동적 운동 영상 이미지를 수신하고, 상기 영상 이미지의 각 픽셀의 제1 변위를 추정하기 위하여 상기 영상 이미지의 전체 이미지 옵티컬 플로우(optical flow)를 획득하고, 상기 영상 이미지의 배경 픽셀의 제2 변위를 추정하기 위하여 상기 영상 이미지의 배경 옵티컬 플로우(optical flow)를 획득하고; 상기 대상 오브젝트의 전경 영역을 획득하기 위하여 상기 제2 변위와 상기 제1 변위를 비교하고; 상기 대상 오브젝트의 전경 영역에서 상기 영상 이미지의 특징점들을 추출하고, 상기 대상 오브젝트의 개수를 결정하기 위하여 상기 추출된 특징점들의 확률 밀도를 산출하고; 상기 대상 오브젝트를 추적하기 위하여 상기 대상 오브젝트에 대한 비주얼 트래킹(visual tracking) 및 이동 궤도 분석을 수행하고; 상기 특징점들의 인터프레임 변위(interframe displacement), 인터프레임 컷팅 윈도우 유사성(interframe cutting window similarity) 및 트래킹 박스 스케일링(tracking box scaling)에 따라 상기 대상 오브젝트에 대한 고정 판단(stationary judgment) 및 이미지 세그멘테이션(image segmentation)을 수행하는 것을 포함할 수 있다.
본 발명의 제2 측면에 따르면, 이미지 세그멘테이션 장치가 제공된다. 상기 이미지 세그멘테이션 장치는 대상 오브젝트의 동적 운동 영상 이미지를 수신하는 수신 모듈; 상기 영상 이미지의 각 픽셀의 제 1 변위를 추정하기 위하여 상기 영상 이미지의 전체 이미지 옵티컬 플로우(optical flow)를 획득하고, 상기 영상 이미지의 배경 픽셀의 제2 변위를 추정하기 위하여 상기 영상 이미지의 배경 옵티컬 플로우(optical flow)를 획득하는 획득 모듈; 상기 대상 오브젝트의 전경 영역을 획득하기 위하여 상기 제2 변위와 상기 제1 변위를 비교하는 비교 모듈; 상기 대상 오브젝트의 전경 영역에서 상기 영상 이미지의 특징점들을 추출하는 추출 모듈; 상기 대상 오브젝트의 개수를 결정하기 위하여 상기 추출된 특징점들의 확률 밀도를 산출하는 산출 모듈; 상기 대상 오브젝트를 추적하기 위하여 상기 대상 오브젝트에 대한 비주얼 트래킹(visual tracking) 및 이동 궤적 분석을 수행하는 트래킹 모듈; 및 상기 특징점들의 인터프레임 변위(interframe displacement), 인터프레임 컷팅 윈도우 유사성(interframe cutting window similarity) 및 트래킹 박스 스케일링(tracking box scaling)에 따라 상기 대상 오브젝트에 대한 고정 판단(stationary judgment) 및 이미지 세그멘테이션(image segmentation)을 수행하는 세그멘팅 모듈;을 포함할 수 있다.
본 발명의 제3 측면에 따르면, 컴퓨터 판독 가능한 기록 매체가 제공된다. 상기 컴퓨터 판독 가능한 기록 매체는, 컴퓨터 상에서 실행될 때, 본 발명의 제1 측면에 따른 이미지 세그멘테이션 방법을 실행하기 위한 컴퓨터 프로그램을 포함할 수 있다.
본 발명의 실시예에 따른 이미지 세그멘테이션 방법에 의하면, 대상 오브젝트의 동적 운동 영상 이미지가 수신된 다음, 상기 대상 오브젝트의 전경 영역(즉, 대상 오브젝트)은 전체 이미지 옵티컬 플로우(optical flow) 및 배경 옵티컬 플로우(optical flow)를 획득함으로써 결정될 수 있고, 상기 대상 오브젝트는 상기 대상 오브젝트의 동적 운동이 수행되는 동안 추적되고, 상기 대상 오브젝트에 대한 고정 판단(stationary judgment)이 수행되고, 상기 대상 오브젝트가 배치된 영상 이미지의 영역이 세그먼트된다. 따라서, 식별되어야 할 오브젝트가 식별되면, 사용자는 상기 대상 오브젝트에 대한 이미지 세그멘테이션을 빠르게 수행하기 위하여 대상 오브젝트를 잡거나(take) 흔들기(shake)만 하면 되고, 이것은 대상 오브젝트의 후속 이미지 식별을 위한 정확한 식별 입력으로써 사용될 수 있다.
본 발명의 실시예에 따른 이미지 세그멘테이션 장치에 의하면, 대상 오브젝트의 동적 운동 영상 이미지가 수신된 다음, 상기 대상 오브젝트의 전경 영역(즉, 대상 오브젝트)은 전체 이미지 옵티컬 플로우(optical flow) 및 배경 옵티컬 플로우(optical flow)를 획득함으로써 결정될 수 있고, 상기 대상 오브젝트는 상기 대상 오브젝트의 동적 운동이 수행되는 동안 추적되고, 상기 대상 오브젝트에 대한 고정 판단(stationary judgment)이 수행되고, 상기 대상 오브젝트가 배치된 영상 이미지의 영역이 세그먼트된다. 따라서, 식별되어야 할 오브젝트가 식별되면, 사용자는 상기 대상 오브젝트에 대한 이미지 세그멘테이션을 빠르게 수행하기 위하여 대상 오브젝트를 잡거나(take) 흔들기(shake)만 하면 되고, 이것은 대상 오브젝트의 후속 이미지 식별을 위한 정확한 식별 입력으로써 사용될 수 있다.
본 발명의 실시예에 대한 추가적인 측면 및 장점들은 다음의 설명에서 주어질 것이며, 다음의 설명으로부터 명백해지거나 또는 본 발명의 실시예들로부터 습득될 것이다.
본 발명의 실시예들의 다른 측면 및 장점들은 첨부된 도면들을 참조한 다음의 설명으로부터 명백해질 것이며, 더욱 용이하게 이해될 것이다.
도 1은, 본 발명의 일 실시예에 따른 이미지 세그멘테이션 방법의 흐름도(flow chart)이다.
도 2는, 본 발명의 일 실시예에 따른 이미지 세그멘테이션 방법의 개략도(schematic diagram)이다.
도 3은, 본 발명의 일 실시예에 따른 이미지 세그멘테이션 장치의 블록 구성도(block diagram)이다.
이하에서는 본 발명의 실시예에 대하여 상세하게 설명할 것이다. 도면을 참조하여 본 명세서에 기재된 실시예는 예시, 설명 그리고 본 발명을 일반적으로 이해하기 위하여 사용된다. 실시예들은 본 발명을 제한하는 것으로 해석되지 않는다. 동일 또는 유사한 요소들 및 동일 또는 유사한 기능을 갖는 요소들은 명세서 전반에 걸쳐 동일한 참조 부호에 의해 표시될 것이다.
본 출원은 2014년 11월 5일 국가지식재산국(State Intellectual Property Office)에 제출된 중국 특허 출원 No. 201410618207.5의 우선권 및 이익을 주장하고, 전체 내용을 여기에 원용한다.
도 1은 본 발명의 일 실시예에 따른 이미지 세그멘테이션 방법의 흐름도이다.
도 1에 도시된 바와 같이 이미지 세그멘테이션 방법은 다음과 같은 단계들을 포함한다.
101 단계에서, 대상 오브젝트의 동적 운동 영상 이미지가 획득되고, 상기 영상 이미지의 각 픽셀의 제1 변위를 추정하기 위하여 상기 영상 이미지의 전체 이미지 옵티컬 플로우(optical flow)가 획득되며, 상기 영상 이미지의 배경 픽셀의 제2 변위를 추정하기 위하여 상기 영상 이미지의 배경 옵티컬 플로우(optical flow)가 획득된다.
일부 실시예에 있어서, 대상 오브젝트의 동적 운동 영상 이미지를 수신하는 것은, 카메라를 통해 입력되는 상기 대상 오브젝트의 동적 운동 영상 이미지를 수신하는 것을 포함할 수 있다.
뿐만 아니라, 상기 대상 오브젝트의 동적 운동 영상 이미지가 수신되기 전에, 상기 영상 이미지의 수신 동작을 트리거하는 스피치, 터치 스크린 또는 동적 센서(dynamic sensor)를 통해 입력되는 이미지 식별 요청이 수신될 수 있다.
다시 말하면, 본 실시예에 있어서, 카메라를 구비한 스마트 디바이스가 스피치, 터치 스크린 또는 동적 센서를 통해 사용자에 의해 입력된 이미지 식별 요청을 수신한 이후, 상기 스마트 디바이스의 카메라가 켜진다. 대상 오브젝트를 사용자가 잡거나(taking) 이동시키는(moving) 프로세스는 카메라를 통해 촬영되고, 즉, 대상 오브젝트를 사용자가 잡거나 이동시키는 프로세스의 영상 이미지는 카메라를 통해 수신되며, 이에 따라 후속 프로세스가 실행된다.
일부 실시예에 있어서, 카메라를 구비한 스마트 디바이스는 카메라를 구비한 스마트 모바일 단말기, 카메라를 구비한 헤드셋 웨어러블 디바이스(예를 들어, Google Glass 또는 BaiduEye), 카메라를 구비한 스마트 워치 또는 카메라 비주얼 입력을 구비한 로봇일 수 있다. 그러나 본 발명이 이에 한정되지 않는다.
102 단계에 있어서, 대상 오브젝트의 전경 영역을 획득하기 위하여 제2 변위와 제1 변위가 비교된다.
구체적으로, 배경 픽셀의 제2 변위가 "배경 영역(환경)"을 나타내는 것에 반하여, 각 픽셀의 제1 변위는 "전경 영역(대상 오브젝트) + 배경 영역(환경)"을 나타낸다. 제1 변위가 제2 변위와 비교된 다음, 상기 대상 오브젝트의 전경 영역이 획득될 수 있다. 사용되는 알고리즘 로직은 "(전경 영역 + 배경 영역) - 배경 영역 = 전경 영역"과 같이 간단히 표현될 수 있다.
103 단계에 있어서, 대상 오브젝트의 전경 영역에서 영상 이미지의 특징점들이 추출될 수 있고, 상기 대상 오브젝트의 개수를 결정하기 위하여 상기 추출된 특징점들의 확률밀도가 산출될 수 있다.
104 단계에 있어서, 대상 오브젝트를 추적하기 위하여 상기 대상 오브젝트에 대한 비주얼 트래킹(visual tracking) 및 이동 궤적 분석이 수행될 수 있다.
105 단계에 있어서, 상기 특징점들의 인터프레임 변위(interframe displacement), 인터프레임 컷팅 윈도우 유사성(interframe cutting window similarity) 및 트래킹 박스 스케일링(tracking box scaling)에 따라 상기 대상 오브젝트에 대한 고정 판단(stationary judgment) 및 이미지 세그멘테이션(image segmentation)을 수행될 수 있다.
본 실시예에 있어서, 대상 오브젝트에 대한 이미지 세그멘테이션이 수행된 다음, 이를 기초로 이미지 식별이 수행될 수 있고, 상기 식별 결과는 상기 대상 오브젝트의 식별을 완료하도록 카메라가 구비된 스마트 디바이스의 오디오 출력 채널 또는 이미지 출력 채널을 통하여 사용자에게 출력된다.
본 발명의 실시예에 따른 이미지 세그멘테이션 방법에 의하면, 대상 오브젝트의 동적 운동 영상 이미지가 수신된 다음, 상기 대상 오브젝트의 전경 영역(즉, 대상 오브젝트)은 전체 이미지 옵티컬 플로우(optical flow) 및 배경 옵티컬 플로우(optical flow)를 획득함으로써 결정될 수 있고, 상기 대상 오브젝트는 상기 대상 오브젝트의 동적 운동이 수행되는 동안 추적되고, 상기 대상 오브젝트에 대한 고정 판단(stationary judgment)이 수행되고, 상기 대상 오브젝트가 배치된 영상 이미지의 영역이 세그먼트된다. 따라서, 식별되어야 할 오브젝트가 식별되면, 사용자는 상기 대상 오브젝트에 대한 이미지 세그멘테이션을 빠르게 수행하기 위하여 대상 오브젝트를 잡거나(take) 흔들기(shake)만 하면 되고, 이것은 대상 오브젝트의 후속 이미지 식별을 위한 정확한 식별 입력으로써 사용될 수 있다.
도 2는 본 발명의 일 실시예에 따른 이미지 세그멘테이션 방법의 개략도이다. 도 2에 도시된 바와 같이, 도1 에 도시된 방법으로 사용자가 제1 사용자 관점에서 손을 이용하여 오브젝트를 잡을 때 또는 손을 이용하여 오브젝트를 자연스럽게 흔들 때, 손의 동적 움직임은 카메라를 통해 캡쳐되고, 상기 대상 오브젝트의 전경 영역은 전체 이미지 옵티컬 플로우 및 배경 옵티컬 플로우를 획득함으로써 결정될 수 있고, 상기 대상 오브젝트는 추적되며, 상기 대상 오브젝트에 대한 고정 판단 및 이미지 세그멘테이션이 수행되고, 대상오브젝트는 세그먼트된다. 즉, 식별을 위한 이미지는 박스 안에 선택된다.
도 3은 본 발명의 일 실시예에 따른 이미지 세그멘테이션 장치의 블록 구성도이다. 본 발명의 실시예에서 이미지 세그멘테이션 장치는 도 1에 도시된 이미지 세그멘테이션 방법을 구현하기 위하여 사용된다.
이미지 세그멘테이션 장치는 수신 모듈(31), 획득 모듈(32), 비교 모듈(33), 추출 모듈(34), 산출 모듈(35), 트래킹 모듈(36) 및 세그멘팅 모듈(37)을 포함할 수 있다.
수신 모듈(31)은 대상 오브젝트의 동적 운동 영상 이미지를 수신하도록 구성된다. 본 실시예에 있어서, 상기 수신 모듈(31)은 카메라(38)를 통해 입력되는 대상 오브젝트의 동적 영상 이미지를 수신한다. 또한, 상기 수신 모듈(31)은 상기 대상 오브젝트의 동적 운동 영상 이미지를 수신하기 이전에, 상기 영상 이미지의 수신 동작을 트리거하는 스피치, 터치 스크린 또는 동적 센서(dynamic sensor)를 통해 입력되는 이미지 식별 요청을 더 수신할 수 있다.
다시 말하면, 본 실시예에 있어서, 상기 수신 모듈(31)이 스피치, 터치 스크린 또는 동적 센서(dynamic sonsor)를 통해 사용자에 의해 입력되는 이미지 식별 요청을 수신한 이후, 상기 카메라(38)가 켜진다. 사용자가 대상 오브젝트를 잡거나(taking) 이동시키는(moving) 프로세스는 카메라(38)를 통해 촬영되며, 즉, 사용자가 대상 오브젝트를 잡거나 이동시키는 프로세스의 영상이미지는 카메라(38)를 통해 수신되며, 이에 따라 후속 프로세스가 실행된다.
획득 모듈(32)는 상기 영상 이미지의 각 픽셀의 제1 변위를 추정하기 위하여 상기 영상 이미지의 전체 이미지 옵티컬 플로우(optical flow)를 획득하고, 상기 영상 이미지의 배경 픽셀의 제2 변위를 추정하기 위하여 상기 영상 이미지의 배경 옵티컬 플로우(optical flow)를 획득하도록 구성된다.
비교 모듈(33)은 대상 오브젝트의 전경 영역을 획득하기 위하여 제2 변위와 제1 변위를 비교하도록 구성된다. 구체적으로, 배경 픽셀의 제2 변위가 "배경 영역(환경)"을 나타내는 것에 반하여, 각 픽셀의 제1 변위는 "전경 영역(대상 오브젝트) + 배경 영역(환경)"을 나타낸다. 제1 변위가 제2 변위와 비교된 다음, 상기 대상 오브젝트의 전경 영역이 획득될 수 있다. 상기 비교 모듈(33)에 의해 사용되는 알고리즘 로직은 "(전경 영역 + 배경 영역) - 배경 영역 = 전경 영역"과 같이 간단히 표현될 수 있다.
추출 모듈(34)는 대상 오브젝트의 전경 영역에서 상기 영상 이미지의 특징점들을 추출하도록 구성된다.
산출 모듈(35)는 대상 오브젝트의 개수를 결정하기 위하여 상기 추출 모듈(34)에 의해 추출되는 특징점들의 확률 밀도를 산출하도록 구성된다.
트래킹 모듈(36)은 대상 오브젝트를 추적하기 위하여 상기 대상 오브젝트에 대한 비주얼 트래킹(visual tracking) 및 이동 궤적 분석을 수행하도록 구성된다.
세그멘팅 모듈(37)은 상기 특징점들의 인터프레임 변위(interframe displacement), 인터프레임 컷팅 윈도우 유사성(interframe cutting window similarity) 및 트래킹 박스 스케일링(tracking box scaling)에 따라 대상 오브젝트에 대한 고정 판단(stationary judgment) 및 이미지 세그멘테이션을 수행하도록 구성된다.
본 실시예에 있어서, 대상 오브젝트에 대한 이미지 세그멘테이션이 수행된 다음, 이를 기초로 이미지 식별이 수행될 수 있고, 상기 식별 결과는 상기 대상 오브젝트의 식별을 완료하도록 카메라가 구비된 스마트 디바이스의 오디오 출력 채널 또는 이미지 출력 채널을 통하여 사용자에게 출력된다.
본 실시예에 있어서, 이미지 세그멘테이션 장치는 카메라를 구비한 스마트 디바이스 또는 카메라를 구비한 스마트 디바이스의 일부일 수 있다. 일부 실시예에 있어서, 상기 카메라를 구비한 스마트 디바이스는 카메라를 구비한 스마트 모바일 단말기, 카메라를 구비한 헤드셋 웨어러블 디바이스(예를 들어, Google Glass 또는 BaiduEye), 카메라를 구비한 스마트 시계 또는 카메라 비주얼 입력을 구비한 로봇일 수 있다. 그러나 본 발명이 이에 한정되지 않는다.
본 발명의 일 실시예에 따른 이미지 세그멘테이션 장치에 있어서, 수신 모듈(31)이 대상 오브젝트의 동적 운동 영상 이미지가 수신한 다음, 상기 대상 오브젝트의 전경 영역(즉, 대상 오브젝트)은 전체 이미지 옵티컬 플로우(optical flow) 및 배경 옵티컬 플로우(optical flow)를 획득함으로써 결정될 수 있고, 상기 대상 오브젝트는 상기 대상 오브젝트의 동적 운동이 수행되는 동안 추적되고, 상기 대상 오브젝트에 대한 고정 판단(stationary judgment)이 수행되고, 상기 대상 오브젝트가 배치된 영상 이미지의 영역이 세그멘트된다. 따라서, 식별되어야 할 오브젝트가 식별되면, 사용자는 상기 대상 오브젝트에 대한 이미지 세그멘테이션을 빠르게 수행하기 위하여 대상 오브젝트를 잡거나 흔들기만 하면 되고, 이것은 대상 오브젝트의 후속 이미지 식별을 위한 정확한 식별 입력으로써 사용될 수 있다.
이미지 식별(image identification)은 인공 지능에 있어서 가장 중요한 혁신이며, 매우 넓은 범위의 유용한 사용 신(scenes)을 가지고 있고, 이것은 장래의 검색 분야에서 최우선 순위이다. 본 발명은 새로운 인간-컴퓨터 인터랙션(interaction) 및 자연스러운 사용자 인터페이스를 채용하며, 이것은 먼저 사진을 촬영한 다음 대상 오브젝트의 경계를 결정하는 종래 이미지 식별과 비교하여 보다 자연스럽고 편리한 것이다. 자연스러운 인터랙션은 스마트 웨어러블 디바이스의 이미지 식별 기능에 있어서 특히 중요하고, 본 발명에서는, 사용자가 검색 결과를 획득하기 위하여 오브젝트를 잡을 수 있고, 보다 자연스러운 인터랙션 및 보다 나은 사용자 경험을 실현할 수 있다.
본 발명의 일 실시예에 따른 이미지 세그멘테이션 방법은 제1 시점에서 비주얼 이미지 정보를 캡쳐하고(capturing) 프로세싱(processing)을 수행하는 다양한 스마트 디바이스에 적용될 수 있고, 스마트 웨어러블 비전 제품의 제스쳐 인식(gesture recognition)을 위한 기본적인 기술적 서포트를 제공할 수 있다.
본 발명의 일 실시예에 따른 이미지 세그멘테이션 방법은 이미지 인식 능력 및 비주얼 인식 능력을 갖고 있는 인공 지능 제품 또는 로봇과 상호작용하는 사용자에 대해 혁신적인 경험을 제공할 수 있다. 예를 들어, 사용자는 로봇의 정면에서 오브젝트를 잡을 수 있고, 로봇이 오브젝트를 인식하고 식별하게 할 수 있도록 흔들 수 있다.
또한, 본 발명의 일 실시예에 따른 컴퓨터 판독 가능한 기록 매체가 제공된다. 상기 컴퓨터 판독 가능한 기록 매체는, 컴퓨터 상에서 실행될 때, 전술한 본 발명의 일 실시예에 따른 이미지 세그멘테이션 방법을 실행하기 위한 컴퓨터 프로그램을 포함할 수 있다.
본 명세서에서 사용되는 "제1" 및 "제2"와 같은 용어는 설명을 위해 사용되는 것으로, 지시 또는 상대적인 중요도 또는 중요성을 암시하기 위한 것이 아니다. 따라서, "제1" 및 "제2"에 의해 정의되는 특징은 하나 이상의 특징을 포함할 수 있다. 본 발명의 설명에서 달리 명시되지 않는 한,"복수"는 두 개 또는 두 개 이상을 의미한다.
본 명세서에서 흐름도 또는 임의의 프로세스 또는 다른 방식으로 기재된 방법은 모듈, 세그먼트 또는 명시된 로직 함수(들)를 구현하는 하나 이상의 실행 가능한 명령을 구성하는 또는 진행의 단계에 대한 하나 이상의 실행 가능한 명령을 구성하는 코드의 부분을 나타내는 것으로 이해될 수 있을 것이다. 흐름도는 특정한 실행 순서를 나타내지만, 그것은 실행 순서는 도시된 것과 다른 것으로 이해될 수 있다. 예를 들어, 2개 이상의 박스들에 대한 실행 순서는 도시된 순서에 대해 스크램블(scrambled)될 수 있다.
여기서 다른 방식으로 기재된 또는 흐름도에 나타난 논리(logic) 및/또는 스텝(step)은, 예를 들어, 논리 기능을 실현하기 위한 실행 가능한 명령의 특별한 순서 테이블은, 명령 실행 시스템, 장치 또는 장비(예를 들어, 컴퓨터 기반 시스템, 프로세서 또는 명령 실행 시스템으로부터 명령을 획득할 수 있는 다른 시스템으로 구성되는 시스템)에 의해 사용되는 또는 명령 실행 시스템, 장치 및 장비가 결합되어 사용되는 컴퓨터 판독 가능 매체에서 구체적으로 수행될 수 있다. 본 명세서에서, "컴퓨터 판독 가능 매체"는 명령 실행 시스템에 의해 사용되는 또는 명령 실행 시스템의 조합에 의해 사용되는 프로그램을 포함, 저장, 통신, 전파 또는 전송하도록 적응한 임의의 장치일 수 있다. 구체적으로, 상기 컴퓨터 판독 가능 매체는, 하나 이상의 선(wire)을 가진 전기 연결(전자 기기), 휴대용 컴퓨터 인클로저(자성 기기), RAM(random access memory), ROM(read only memory), 비휘발성 메모리(erasable programmable read-only memory, EPROM 또는 플래쉬 메모리), 광섬유 기기(optical fiber device) 및 휴대용 CDROM(compact disk read-only memory)일 수 있다. 게다가, 상기 컴퓨터 판독 가능 매체는 그 위에 프로그램을 프린팅 가능한 종이(paper) 또는 다른 적절한 매체도 될 수 있으며, 이것은 왜냐하면, 예를 들어, 전기적 방식으로 프로그램을 획득하는 것이 필요할 때, 종이 또는 다른 적절한 매체는 광학적으로 스캔되고, 편집되고, 회독되거나 또는 다른 적절한 방법에 의해 처리될 수 있고, 그리고 프로그램은 컴퓨터 메모리에 저장될 수 있기 때문이다.
당업자는 본 발명의 상술한 예시 방법에서의 단계들의 전부 또는 일부가 프로그램과 관련된 하드웨어를 명령함으로써 달성될 수 있음을 이해할 수 있다. 프로그램은 컴퓨터 판독 가능 매체에 저장되고, 프로그램은 컴퓨터에서 실행될 때 본 발명의 방법 실시예에서 하나 이상의 단계들을 조합을 포함할 수 있다.
또한, 본 발명의 실시예들의 각 기능 셀은 프로세싱 모듈에 통합되거나, 각 기능 셀들이 물리적으로 분리되어 존재할 수 있으며, 두 개 이상의 셀들이 프로세싱 모듈에 통합되어 있을 수 있다. 통합 모듈은 하드웨어의 형태 또는 소프트웨어 기능 모듈의 형식으로 구현될 수 있다. 통합 모듈이 소프트웨어 기능 모듈의 형태로 구현되고 판매되거나, 독립 물품으로 사용되는 경우, 통합 모듈은 컴퓨터 판독 가능 매체에 저장될 수 있다.
상술한 저장 모듈은 ROM, 자기 디스크 또는 CD 등일 수 있다.
본 명세서의 전체에 걸쳐 참조한 "실시예", "일부 실시예", "일 실시예, "다른 실시예", "예", "구체 예" 또는 "일부 예"는 특정 기능, 구조, 재료, 또는 실시예 또는 예와 관련하여 설명된 특성은 본 발명의 적어도 하나의 실시예 또는 예에 포함될 수 있다. 따라서, 본 명세서의 전체에 걸쳐 다양한 곳에서 등장하는 "일부 실시예에서", "일 실시예에서", "실시예에서", "다른 예에서", "예에서", "특정 예에서" 또는 "일부 예에서"와 같은 문구는 반드시 본 발명의 동일한 실시예 또는 예를 참조할 필요가 없다. 뿐만 아니라, 특정한 특징, 구조, 재료 또는 특성은 하나 이상의 실시예 또는 예에서 적절한 방식으로 결합될 수 있다.
실시예들이 도시되고 설명되었지만, 상술한 실시예들이 본 발명을 제한하는 것으로 해석될 수 없으며, 본 발명의 사상, 원리 및 본 발명의 범위를 벗어남이 없이 변화, 대안 및 변경이 가능하다는 점에 대해서 당업자는 이해할 수 있을 것이다.
31: 수신 모듈
32: 획득 모듈
33: 비교 모듈
34: 추출 모듈
35: 산출 모듈
36: 트래킹 모듈
37: 세그먼팅 모듈
38: 카메라

Claims (7)

  1. 이미지 세그멘테이션 장치에서 수행되는 이미지 세그먼테이션 방법에 있어서,
    상기 이미지 세그멘테이션 장치의 수신 모듈이 대상 오브젝트의 동적 운동 영상 이미지를 수신하고, 상기 이미지 세그멘테이션 장치의 획득 모듈이 상기 영상 이미지의 각 픽셀의 제1 변위를 추정하기 위하여 상기 영상 이미지의 전체 이미지 옵티컬 플로우(optical flow)를 획득하고, 상기 영상 이미지의 배경 픽셀의 제2 변위를 추정하기 위하여 상기 영상 이미지의 배경 옵티컬 플로우(optical flow)를 획득하고;
    상기 이미지 세그멘테이션 장치의 비교 모듈이 상기 대상 오브젝트의 전경 영역을 획득하기 위하여 상기 제2 변위와 상기 제1 변위를 비교하고;
    상기 이미지 세그멘테이션 장치의 추출 모듈이 상기 대상 오브젝트의 전경 영역에서 상기 영상 이미지의 특징점들을 추출하고;
    상기 이미지 세그멘테이션 장치의 트래킹 모듈이 상기 대상 오브젝트를 추적하기 위하여 상기 대상 오브젝트에 대한 비주얼 트래킹(visual tracking) 및 운동 궤도 분석을 수행하고;
    상기 이미지 세그멘테이션 장치의 세그먼팅 모듈이 상기 특징점들의 인터프레임 변위(interframe displacement), 인터프레임 컷팅 윈도우 유사성(interframe cutting window similarity) 및 트래킹 박스 스케일링(tracking box scaling)에 따라 상기 대상 오브젝트에 대한 고정 판단(stationary judgment) 및 이미지 세그멘테이션(image segmentation)을 수행하는 이미지 세그멘테이션 방법.
  2. 제 1항에 있어서,
    상기 이미지 세그멘테이션 장치의 상기 수신 모듈이 상기 대상 오브젝트의 동적 운동 영상 이미지를 수신하는 것은,
    카메라를 통해 입력되는 상기 대상 오브젝트의 동적 운동 영상 이미지를 수신하는 것인 이미지 세그멘테이션 방법.
  3. 제 1항에 있어서,
    상기 이미지 세그멘테이션 장치의 상기 수신 모듈이 상기 영상 이미지의 수신 동작을 트리거하기 위한 스피치, 터치 스크린 또는 동적 센서(dynamic sensor)를 통해 입력되는 이미지 식별 요청을 수신하는 것을 더 포함하는 이미지 세그멘테이션 방법.
  4. 대상 오브젝트의 동적 운동 영상 이미지를 수신하는 수신 모듈;
    상기 영상 이미지의 각 픽셀의 제 1 변위를 추정하기 위하여 상기 영상 이미지의 전체 이미지 옵티컬 플로우(optical flow)를 획득하고, 상기 영상 이미지의 배경 픽셀의 제2 변위를 추정하기 위하여 상기 영상 이미지의 배경 옵티컬 플로우(optical flow)를 획득하는 획득 모듈;
    상기 대상 오브젝트의 전경 영역을 획득하기 위하여 상기 제2 변위와 상기 제1 변위를 비교하는 비교 모듈;
    상기 대상 오브젝트의 전경 영역에서 상기 영상 이미지의 특징점들을 추출하는 추출 모듈;
    상기 대상 오브젝트를 추적하기 위하여 상기 대상 오브젝트에 대한 비주얼 트래킹 및 이동 궤적 분석을 수행하는 트래킹 모듈; 및
    상기 특징점들의 인터프레임 변위(interframe displacement), 인터프레임 컷팅 윈도우 유사성(interframe cutting window similarity) 및 트래킹 박스 스케일링(tracking box scaling)에 따라 상기 대상 오브젝트에 대한 고정 판단(stationary judgment) 및 이미지 세그멘테이션(image segmentation)을 수행하는 세그멘팅 모듈;을 포함하는 이미지 세그멘테이션 장치.
  5. 제 4항에 있어서,
    카메라;를 더 포함하며, 상기 수신 모듈은 상기 카메라를 통해 입력되는 상기 대상 오브젝트의 동적 운동 영상 이미지를 수신하는 이미지 세그멘테이션 장치.
  6. 제 4항에 있어서, 상기 수신 모듈은 상기 영상 이미지의 수신 동작을 트리거하는 스피치, 터치 스크린 또는 동적 센서(dynamic sensor)를 통해 입력되는 이미지 식별 요청을 더 수신하는 이미지 세그멘테이션 장치.
  7. 컴퓨터 상에서 실행할 때,
    대상 오브젝트의 동적 운동 영상 이미지를 수신하고, 상기 영상 이미지의 각 픽셀의 제1 변위를 추정하기 위하여 상기 영상 이미지의 전체 이미지 옵티컬 플로우(optical flow)를 획득하고, 상기 영상 이미지의 배경 픽셀의 제2 변위를 추정하기 위하여 상기 영상 이미지의 배경 옵티컬 플로우(optical flow)를 획득하고;
    상기 대상 오브젝트의 전경 영역을 획득하기 위하여 상기 제2 변위와 상기 제1 변위를 비교하고;
    상기 대상 오브젝트의 전경 영역에서 상기 영상 이미지의 특징점들을 추출하고;
    상기 대상 오브젝트를 추적하기 위하여 상기 대상 오브젝트에 대한 비주얼 트래킹 및 이동 궤도 분석을 수행하고;
    상기 특징점들의 인터프레임 변위(interframe displacement), 인터프레임 컷팅 윈도우 유사성(interframe cutting window similarity) 및 트래킹 박스 스케일링(tracking box scaling)에 따라 상기 대상 오브젝트에 대한 고정 판단(stationary judgment) 및 이미지 세그멘테이션(image segmentation)을 수행하는 단계를 실행하기 위한 컴퓨터 프로그램을 포함하는 컴퓨터 판독 가능한 기록 매체.
KR1020140180972A 2014-11-05 2014-12-16 이미지 세그멘테이션 방법 및 이미지 세그멘테이션 장치 KR101706365B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201410618207.5A CN104408743A (zh) 2014-11-05 2014-11-05 图像分割方法和装置
CN201410618207.5 2014-11-05

Publications (2)

Publication Number Publication Date
KR20160053729A KR20160053729A (ko) 2016-05-13
KR101706365B1 true KR101706365B1 (ko) 2017-02-13

Family

ID=52231839

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140180972A KR101706365B1 (ko) 2014-11-05 2014-12-16 이미지 세그멘테이션 방법 및 이미지 세그멘테이션 장치

Country Status (5)

Country Link
US (1) US9418280B2 (ko)
EP (1) EP3023937A1 (ko)
JP (1) JP6339489B2 (ko)
KR (1) KR101706365B1 (ko)
CN (1) CN104408743A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190072875A (ko) 2017-12-18 2019-06-26 서강대학교산학협력단 동영상에서의 장소 추출 방법 및 장소 추출 시스템

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104915014A (zh) * 2015-07-07 2015-09-16 安徽瑞宏信息科技有限公司 一种基于移动终端的非接触式交互方法
CN106570557A (zh) * 2015-10-13 2017-04-19 富士通株式会社 运动物体的计数装置及方法
CN105511478B (zh) * 2016-02-23 2019-11-26 百度在线网络技术(北京)有限公司 应用于扫地机器人的控制方法、扫地机器人及终端
WO2017187723A1 (ja) * 2016-04-28 2017-11-02 パナソニックIpマネジメント株式会社 動画分割方法、動画分割装置および動画処理システム
US10380741B2 (en) * 2016-12-07 2019-08-13 Samsung Electronics Co., Ltd System and method for a deep learning machine for object detection
CN108230252B (zh) * 2017-01-24 2022-02-01 深圳市商汤科技有限公司 图像处理方法、装置以及电子设备
CN107009412B (zh) * 2017-04-12 2019-05-28 广东工业大学 一种证件照自动裁剪方法、装置以及系统
CN108961316B (zh) * 2017-05-23 2022-05-31 华为技术有限公司 图像处理方法、装置及服务器
DE102017212175A1 (de) * 2017-07-17 2019-01-17 Robert Bosch Gmbh Verfahren und Vorrichtung zum Ermitteln eines optischen Flusses anhand einer von einer Kamera eines Fahrzeugs aufgenommenen Bildsequenz
CN108062761A (zh) * 2017-12-25 2018-05-22 北京奇虎科技有限公司 基于自适应跟踪框的图像分割方法、装置及计算设备
CN108111911B (zh) * 2017-12-25 2020-07-28 北京奇虎科技有限公司 基于自适应跟踪框分割的视频数据实时处理方法及装置
CN108320301B (zh) * 2018-01-26 2022-03-18 西安电子科技大学 一种基于跟踪学习检测的目标跟踪优化方法
CN108829248B (zh) * 2018-06-01 2020-11-20 中国科学院软件研究所 一种基于用户表现模型矫正的移动目标选择方法及系统
CN109165550B (zh) * 2018-07-13 2021-06-29 首都师范大学 一种基于无监督深度学习的多模态手术轨迹快速分割方法
CN113163133A (zh) * 2018-10-15 2021-07-23 华为技术有限公司 一种图像处理方法、装置与设备
CN109583391B (zh) * 2018-12-04 2021-07-16 北京字节跳动网络技术有限公司 关键点检测方法、装置、设备及可读介质
CN111382603B (zh) * 2018-12-28 2023-09-26 顺丰科技有限公司 一种轨迹计算装置、方法
US10311578B1 (en) * 2019-01-23 2019-06-04 StradVision, Inc. Learning method and learning device for segmenting an image having one or more lanes by using embedding loss to support collaboration with HD maps required to satisfy level 4 of autonomous vehicles and softmax loss, and testing method and testing device using the same
CN110321858B (zh) * 2019-07-08 2022-06-14 北京字节跳动网络技术有限公司 视频相似度确定方法、装置、电子设备及存储介质
US10977717B2 (en) * 2019-07-22 2021-04-13 Pickey Solutions Ltd. Hand actions monitoring device
CN111126807B (zh) * 2019-12-12 2023-10-10 浙江大华技术股份有限公司 行程切分方法和装置、存储介质及电子装置
CN111178224B (zh) * 2019-12-25 2024-04-05 浙江大华技术股份有限公司 物体规则判断方法、装置、计算机设备和存储介质
CN111179159B (zh) * 2019-12-31 2024-02-20 北京金山云网络技术有限公司 消除视频中目标影像的方法、装置、电子设备及存储介质
CN111494947B (zh) * 2020-04-20 2023-05-23 上海米哈游天命科技有限公司 摄像机移动轨迹确定方法、装置、电子设备及存储介质
CN111583283B (zh) * 2020-05-20 2023-06-20 抖音视界有限公司 图像分割方法、装置、电子设备及介质
CN114079725B (zh) * 2020-08-13 2023-02-07 华为技术有限公司 视频防抖方法、终端设备和计算机可读存储介质
CN112218136B (zh) * 2020-10-10 2021-08-10 腾讯科技(深圳)有限公司 视频处理方法、装置、计算机设备及存储介质
CN114494087A (zh) * 2020-11-12 2022-05-13 安霸国际有限合伙企业 无监督的多尺度视差/光流融合
CN112750146B (zh) * 2020-12-31 2023-09-12 浙江大华技术股份有限公司 目标对象跟踪方法和装置、存储介质及电子设备
CN113709559B (zh) * 2021-03-05 2023-06-30 腾讯科技(深圳)有限公司 视频划分方法、装置、计算机设备及存储介质
CN114973175A (zh) * 2022-05-24 2022-08-30 深圳市航盛电子股份有限公司 运动物体检测方法、装置、终端设备以及存储介质
WO2023231021A1 (zh) * 2022-06-02 2023-12-07 深圳市正浩创新科技股份有限公司 目标物归集方法、设备和存储介质
CN115905733B (zh) * 2022-10-28 2024-03-08 广州地铁集团有限公司 一种基于机器视觉的口罩佩戴异常检测及轨迹追踪方法

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5909251A (en) * 1997-04-10 1999-06-01 Cognitech, Inc. Image frame fusion by velocity estimation using region merging
JPH11213156A (ja) * 1998-01-29 1999-08-06 Canon Inc 画像処理装置および方法、記録媒体
JP3823767B2 (ja) * 2001-07-18 2006-09-20 日本電信電話株式会社 動画像の前景背景領域分離方法、及びその方法を用いた条件付画素補填による動画像符号化方法
US7266220B2 (en) * 2002-05-09 2007-09-04 Matsushita Electric Industrial Co., Ltd. Monitoring device, monitoring method and program for monitoring
JP4163914B2 (ja) * 2002-09-04 2008-10-08 日本放送協会 切り出し映像生成装置、切り出し映像生成方法及び切り出し映像生成プログラム
KR100738522B1 (ko) * 2004-12-21 2007-07-11 삼성전자주식회사 비디오 감시 시스템에서 카메라/물체 움직임 구분 및 객체추출 장치 및 그 방법
JP2009042796A (ja) * 2005-11-25 2009-02-26 Panasonic Corp ジェスチャー入力装置および方法
EP1916538A3 (en) * 2006-10-27 2011-02-16 Panasonic Electric Works Co., Ltd. Target moving object tracking device
JP2008171141A (ja) * 2007-01-10 2008-07-24 Omron Corp 画像処理装置および方法、並びに、プログラム
CN101312524B (zh) * 2007-05-23 2010-06-23 财团法人工业技术研究院 利用光迹分析的移动物体侦测装置与方法
JP2010016580A (ja) * 2008-07-03 2010-01-21 Sony Corp 画像処理装置および画像処理方法
KR101173559B1 (ko) * 2009-02-10 2012-08-13 한국전자통신연구원 비디오 동영상의 움직이는 다중 객체 자동 분할 장치 및 방법
TWI413024B (zh) * 2009-11-19 2013-10-21 Ind Tech Res Inst 物件偵測方法及系統
JP5499856B2 (ja) * 2010-04-08 2014-05-21 株式会社ニコン 画像評価装置
JP5612915B2 (ja) * 2010-06-18 2014-10-22 東芝アルパイン・オートモティブテクノロジー株式会社 移動体検出装置及び移動体検出方法
JP2012098771A (ja) * 2010-10-29 2012-05-24 Sony Corp 画像処理装置および方法、並びに、プログラム
US8682063B2 (en) * 2010-11-24 2014-03-25 Adobe Systems Incorporated Methods and apparatus for dynamic color flow modeling
JP5482672B2 (ja) * 2011-01-12 2014-05-07 株式会社デンソーアイティーラボラトリ 移動物体検出装置
CN102110297B (zh) * 2011-03-02 2012-10-10 无锡慧眼电子科技有限公司 一种基于累积光流和双背景滤波的移动物体的探测方法
KR101792501B1 (ko) * 2011-03-16 2017-11-21 한국전자통신연구원 특징기반의 스테레오 매칭 방법 및 장치
JP2013196047A (ja) * 2012-03-15 2013-09-30 Omron Corp ジェスチャ入力装置、制御プログラム、コンピュータ読み取り可能な記録媒体、電子機器、ジェスチャ入力システム、および、ジェスチャ入力装置の制御方法
JP5988161B2 (ja) * 2012-12-25 2016-09-07 アルパイン株式会社 ジェスチャ認識装置
CN103149939B (zh) * 2013-02-26 2015-10-21 北京航空航天大学 一种基于视觉的无人机动态目标跟踪与定位方法
US20140253785A1 (en) * 2013-03-07 2014-09-11 Mediatek Inc. Auto Focus Based on Analysis of State or State Change of Image Content
CN103745485A (zh) * 2013-12-31 2014-04-23 深圳泰山在线科技有限公司 判断物体静止或运动的方法及系统

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190072875A (ko) 2017-12-18 2019-06-26 서강대학교산학협력단 동영상에서의 장소 추출 방법 및 장소 추출 시스템

Also Published As

Publication number Publication date
CN104408743A (zh) 2015-03-11
US9418280B2 (en) 2016-08-16
JP6339489B2 (ja) 2018-06-06
EP3023937A1 (en) 2016-05-25
JP2016091528A (ja) 2016-05-23
KR20160053729A (ko) 2016-05-13
US20160125235A1 (en) 2016-05-05

Similar Documents

Publication Publication Date Title
KR101706365B1 (ko) 이미지 세그멘테이션 방법 및 이미지 세그멘테이션 장치
KR101929077B1 (ko) 이미지 식별 방법 및 이미지 식별 장치
WO2020073860A1 (zh) 一种视频裁剪方法及装置
CN108229324B (zh) 手势追踪方法和装置、电子设备、计算机存储介质
JP6007682B2 (ja) 画像処理装置、画像処理方法及びプログラム
US20160300100A1 (en) Image capturing apparatus and method
WO2019023921A1 (zh) 一种手势识别方法、装置及设备
CN109727275B (zh) 目标检测方法、装置、系统和计算机可读存储介质
JP2021524951A (ja) 空中手書きを識別するための方法、装置、デバイス及びコンピュータ読み取り可能な記憶媒体
CN106648078B (zh) 应用于智能机器人的多模态交互方法及系统
JP2011095862A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2015219879A (ja) 画像認識システム、画像認識方法およびプログラム
US9947106B2 (en) Method and electronic device for object tracking in a light-field capture
CN106648042B (zh) 一种识别控制方法以及装置
CN108229281B (zh) 神经网络的生成方法和人脸检测方法、装置及电子设备
CN109919128B (zh) 控制指令的获取方法、装置及电子设备
US20160127651A1 (en) Electronic device and method for capturing image using assistant icon
CN107357424B (zh) 一种手势操作的识别方法、设备及计算机可读存储介质
CN111986229A (zh) 视频目标检测方法、装置及计算机系统
CN109725722B (zh) 有屏设备的手势控制方法和装置
KR20180069312A (ko) 라이트 필드 동영상을 이용한 물체 추적 방법 및 장치
CN112965602A (zh) 一种基于手势的人机交互方法及设备
CN116433939B (zh) 样本图像生成方法、训练方法、识别方法以及装置
CN111107259B (zh) 图像获取方法、装置及电子设备
TW202411949A (zh) 臉部屬性的串級偵測

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20200129

Year of fee payment: 4