KR101929077B1 - 이미지 식별 방법 및 이미지 식별 장치 - Google Patents

이미지 식별 방법 및 이미지 식별 장치 Download PDF

Info

Publication number
KR101929077B1
KR101929077B1 KR1020140180973A KR20140180973A KR101929077B1 KR 101929077 B1 KR101929077 B1 KR 101929077B1 KR 1020140180973 A KR1020140180973 A KR 1020140180973A KR 20140180973 A KR20140180973 A KR 20140180973A KR 101929077 B1 KR101929077 B1 KR 101929077B1
Authority
KR
South Korea
Prior art keywords
fingertip
region
hand
target object
image identification
Prior art date
Application number
KR1020140180973A
Other languages
English (en)
Other versions
KR20160051496A (ko
Inventor
지아웨이 구
이난 유
루이 왕
카이 유
Original Assignee
바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 filed Critical 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드
Publication of KR20160051496A publication Critical patent/KR20160051496A/ko
Application granted granted Critical
Publication of KR101929077B1 publication Critical patent/KR101929077B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/11Hand-related biometrics; Hand pose recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/113Recognition of static hand signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/142Image acquisition using hand-held instruments; Constructional details of the instruments
    • G06V30/1423Image acquisition using hand-held instruments; Constructional details of the instruments the instrument generating sequences of position coordinates corresponding to handwriting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

이미지 식별 방법 및 이미지 식별 장치가 제공된다. 이미지 식별 방법은 제1 시점에서 피부색 감지에 의해 시야 내의 손 특징 영역(hand feature region)을 획득하고; 뻗은 손(stretched hand)의 형태적 특징에 대한 패턴 인식을 수행하여 상기 손 특징 영역으로부터 손가락 끝의 특징 및 위치를 획득하고; 인터프레임 변위(interframe displacement)로부터 경계확정 궤도(delimiting trajectory)를 획득하기 위하여 상기 손가락 끝이 대상 오브젝트 주위의 경계를 정할 때 상기 손가락 끝의 특징점의 인터프레임 변위를 기록하고, 전체 둘레 형상(full-perimeter geometry)을 형성하기 위해 상기 경계확정 궤도를 폐쇄하고; 투영 영역(projection region)을 획득하도록 상기 시야의 방향이 상기 대상 오브젝트가 배치된 평면에 대하여 수직인 평면 상에 상기 전체 둘레 형상을 투영하고, 상기 대상 오브젝트의 식별 영역으로써 상기 투영 영역을 이용하여 이미지 식별을 수행하는 것; 을 포함할 수 있다.

Description

이미지 식별 방법 및 이미지 식별 장치{IMAGE IDENTIFICAITON METHOD AND IMAGE IDENTIFICATION DEVICE}
본 발명은 인터넷 분야에 관련된 것으로, 보다 구체적으로는, 이미지 식별 방법 및 이미지 식별 장치에 관한 것이다.
관련 기술 분야에서, 이미지 식별(image identification)을 위한 입력 및 머신 비전 인식(machine vision recognition)은 먼저 사진을 촬영한 다음 대상 오브젝트를 결정함으로써 수행된다. 구체적으로, 사진이 먼저 촬영되고, 대상 오브젝트의 전경 환경 이미지(foreground environment images) 및 배경 환경 이미지(background environment images)가 저장된 다음, 이미지 식별을 수행하기 위하여 손가락 및 세그멘트(segmented)에 의해 스크린 상의 대상 오브젝트의 경계를 정함으로써 대상 오브젝트가 선택된다. 이러한 방식으로, 촬영된 사진은 인간 개입이 필요하다. 예를 들어, 사진들은 수동으로 경계가 정해질 필요가 있으며, 이에 따라 작업 단계는 복잡해지고, 사용자의 경험은 매끄럽지 못하다. 게다가, 전술한 프로세스는 터치 스크린을 구비한 스마트 단말기에 대해서만 적용가능하고, 따라서 응용성이 약하다.
본 발명의 실시예는 적어도 어느 정도 종래 기술에 존재하는 문제점들 중 적어도 하나를 해결하기 위한 것이다.
본 발명의 제1 측면에 따르면, 이미지 식별 방법이 제공된다. 상기 이미지 식별 방법은 제1 시점에서 피부색 감지에 의해 시야 내의 손 특징 영역(hand feature region)을 획득하고, 상기 손 특징 영역을 실시간으로 캡쳐하고 추적하며; 뻗은 손(stretched hand)의 형태적 특징에 대한 패턴 인식을 수행하여 상기 손 특징 영역으로부터 손가락 끝의 특징 및 위치를 획득하고, 상기 손가락 끝의 특징 및 위치를 실시간으로 캡쳐하고 추적하며; 인터프레임 변위(interframe displacement)로부터 경계확정 궤도(delimiting trajectory)를 획득하기 위하여 상기 손가락 끝이 대상 오브젝트 주위의 경계를 정할 때 상기 손가락 끝의 특징점의 인터프레임 변위를 기록하고; 전체 둘레 형상(full-perimeter geometry)을 형성하기 위해 상기 경계확정 궤도를 폐쇄하고; 투영 영역(projection region)을 획득하도록 상기 시야의 방향이 상기 대상 오브젝트가 배치된 평면에 대하여 수직인 평면 상에 상기 전체 둘레 형상을 투영하고, 상기 대상 오브젝트의 식별 영역으로써 상기 투영 영역을 이용하여 이미지 식별을 수행하는 것을 포함할 수 있다.
본 발명의 제2 측면에 따르면, 이미지 식별 장치가 제공된다. 상기 이미지 식별 장치는 제1 시점에서 피부색 감지에 의해 시야 내의 손 특징 영역(hand feature region)을 획득하는 제1 획득 모듈; 상기 손 특징 영역을 실시간으로 캡쳐하고 추적하는 제1 트래킹 모듈; 뻗은 손(stretched hand)의 형태적 특징에 대한 패턴 인식을 수행하여 상기 손 특징 영역으로부터 손가락 끝의 특징 및 위치를 획득하는 제2 획득 모듈; 상기 손가락 끝의 특징 및 위치를 실시간으로 캡쳐하고 추적하는 제2 트래킹 모듈; 인터프레임 변위(interframe displacement)로부터 경계확정 궤도(delimiting trajectory)를 획득하기 위하여 상기 손가락 끝이 대상 오브젝트 주위의 경계를 정할 때 상기 손가락 끝의 특징점의 인터프레임 변위를 기록하고, 전체 둘레 형상(full-perimeter geometry)을 형성하기 위해 상기 경계확정 궤도를 폐쇄하는 레코딩 모듈; 및 투영 영역(projection retion)을 획득하도록 상기 시야의 방향이 상기 대상 오브젝트가 배치된 평면에 대하여 수직인 평면 상에 상기 전체 둘레 형상을 투영하고, 상기 대상 오브젝트의 식별 영역으로써 상기 투영 영역을 이용하여 이미지 식별을 수행하는 투영 모듈;을 포함할 수 있다.
본 발명의 제3 측면에 따르면, 컴퓨터 판독 가능한 기록 매체가 제공된다. 상기 컴퓨터 판독 가능한 기록 매체는, 컴퓨터 상에서 실행될 때, 본 발명의 제1 측면에 따른 이미지 식별 방법을 실행하기 위한 컴퓨터 프로그램을 포함할 수 있다.
본 발명의 실시예에 다른 이미지 식별 방법에 의하면, 손 특징 영역은 제1 시점에서 피부색 감지에 의해 획득되며, 손가락 끝의 특징 및 위치는 뻗은 손의 형태적 특징에 대한 패턴 인식을 수행함으로써 상기 손 특징 영역으로부터 획득된다. 상기 손가락 끝의 특징점의 인터프레임 변위는 상기 인터프레임 변위로부터 경계확정 궤도를 획득하기 위해 상기 손가락 끝이 대상 오브젝트 주위의 경계를 정할 때 기록되며, 상기 경계확정 궤도는 전체 둘레 형상을 형성하도록 폐쇄된다. 그리고, 상기 전체 둘레 형상은 투영 영역을 획득하도록 사용자의 상기 시야의 방향이 대상 오브젝트가 배치된 평면과 수직인 평면 상에 투영되고, 상기 대상 오브젝트의 식별 영역으로써 상기 투영 영역을 이용하여 이미지 식별이 수행된다. 따라서, 사용자가 대상 오브젝트에 대한 이미지 식별을 수행할 때, 빠르게 대상 오브젝트에 대한 경계 확정 및 세그멘테이션을 수행하기 위해 손가락을 뻗어서 상기 대상 오브젝트 주위에 직접 손가락 끝으로 대상 오브젝트의 경계를 정하기만 하면 된다. 이것은 대상 오브젝트의 이미지 식별을 위한 식별 입력으로써 사용되며, 이에 따라 작업은 간단하고, 사용자의 경험은 나아지며, 응용성은 높다.
본 발명의 일 실시예에 따른 이미지 식별 장치에 의하면, 제1 획득 모듈은 제1시점에서 피부색 감지에 의해 사용자의 시야 내의 손 특징 영역을 획득하고, 제2 획득 모듈은 뻗은 손의 형태적 특징에 대한 패턴 인식을 수행함으로써 제1 트래킹 모듈에 의해 캡쳐되고 추적된 손 특징 영역으로부터 손가락 끝의 특징 및 위치를 획득한다. 레코딩 모듈은 인터프레임 변위로부터 경계확정 궤도를 획득하기 위하여 손가락 끝이 상기 대상 오브젝트 주위의 경계를 정할 때 상기 손가락 끝의 특징점의 인터프레임 변위를 기록하고, 전체 둘레 형상을 형성하기 위해 상기 경계확정 궤도를 폐쇄한다. 그리고 투영 모듈은 주영 영역을 획득하도록 상기 시야의 방향이 대상 오브젝트가 배치된 평면에 대해 수직인 평면 상에 전체 둘레 형상을 투영하고, 상기 대상 오브젝트의 식별 영역으로써 상기 투영 영역을 이용하여 이미지 식별을 수행한다. 따라서, 사용자가 대상 오브젝트에 대한 이미지 식별을 수행할 때, 빠르게 대상 오브젝트에 대한 경계 확정 및 세그멘테이션을 수행하기 위해 손가락을 뻗어서 상기 대상 오브젝트 주위에 직접 손가락 끝으로 대상 오브젝트의 경계를 정하기만 하면 된다. 이것은 대상 오브젝트의 이미지 식별을 위한 식별 입력으로써 사용되며, 이에 따라 작업은 간단하고, 사용자의 경험은 나아지며, 응용성은 높다.
본 발명의 실시예에 대한 추가적인 측면 및 장점들은 다음의 설명에서 주어질 것이며, 다음의 설명으로부터 명백해지거나 또는 본 발명의 실시예들로부터 습득될 것이다.
본 발명의 실시예들의 다른 측면 및 장점들은 첨부된 도면들을 참조한 다음의 설명으로부터 명백해질 것이며, 더욱 용이하게 이해될 것이다.
도 1은, 본 발명의 일 실시예에 따른 이미지 식별 방법의 흐름도(flow chart)이다.
도 2는, 본 발명의 다른 실시예에 따른 이미지 식별 방법의 개략도(schematic diagram)이다.
도 3은, 본 발명의 일 실시예에 따른 이미지 식별 장치의 블록 구성도(block diagram)이다.
도 4는, 본 발명의 다른 실시예에 따른 이미지 식별 장치의 블록 구성도(block diagram)이다.
이하에서는 본 발명의 실시예에 대하여 상세하게 설명할 것이다. 도면을 참조하여 본 명세서에 기재된 실시예는 예시, 설명 그리고 본 발명을 일반적으로 이해하기 위하여 사용된다. 실시예들은 본 발명을 제한하는 것으로 해석되지 않는다. 동일 또는 유사한 요소들 및 동일 또는 유사한 기능을 갖는 요소들은 명세서 전반에 걸쳐 동일한 참조 부호에 의해 표시될 것이다.
본 출원은 2014년 10월 29일 국가지식재산국(State Intellectual Property Office)에 제출된 중국 특허 출원 No. 201410594523.3의 우선권 및 이익을 주장하고, 전체 내용을 여기에 원용한다.
도 1은 본 발명의 일 실시예에 따른 이미지 식별 방법의 흐름도이다.
도 1에 도시된 바와 같이 이미지 식별 방법은 다음의 단계들을 포함한다.
101 단계에서, 제1 시점에서 피부색 감지에 의해 시야 내의 손 특징 영역(hand feature region)이 획득되고, 상기 손 특징 영역은 실시간으로 캡쳐되고 추적된다.
나아가, 제1 시점에서 피부색 감지에 의해 시야 내의 손 특징 영역이 획득되기 전에, 상기 제1 시점에서 피부색 감지에 의해 시야 내의 손 특징 영역 획득 동작을 트리거(trigger)하도록 스피치, 터치 스크린 또는 동적 센서(dynamic sensor)를 통해 입력되는 이미지 식별 요청이 수신된다.
102 단계에서, 손가락 끝의 특징 및 위치는 뻗친 손의 형태적 특징에 대한 패턴 인식을 수행함으로써 상기 손 특징 영역으로부터 획득되고, 상기 손가락 끝의 특징 및 위치는 실시간으로 캡쳐되고 추적된다.
103 단계에서, 손가락 끝의 특징점의 인터프레임 변위(interframe displacement)는 상기 손가락 끝이 대상 오브젝트 주위의 경계를 정할 때 상기 인터프레임 변위로부터 경계확정 궤도(delimiting trajectory)를 획득하기 위해 기록되고, 상기 경계확정 궤도는 전체 둘레 형상(full-perimeter geometry)를 형성하기 위해 폐쇄된다.
구체적으로, 전체 둘레 형상을 형성하기 위해 상기 경계확정 궤도를 폐쇄하는 것은 폐쇄 곡선 최적화 알고리즘(closed curve optimization algorithm)에 의해 전체 둘레 형상을 형성하기 위한 경계확정 궤도를 폐쇄하는 것을 포함한다.
104 단계에서, 전체 둘레 형상은 투영 영역(projection region)을 획득하도록 시야의 방향이 대상 오브젝트가 배치된 평면에 대해 수직인 평면 상에 투영되고, 상기 대상 오브젝트의 식별 영역으로써 상기 투영 영역을 이용하여 이미지 식별이 수행된다.
본 발명의 실시예에 다른 이미지 식별 방법에 의하면, 손 특징 영역은 제1 시점에서 피부색 감지에 의해 획득되며, 손가락 끝의 특징 및 위치는 뻗은 손의 형태적 특징에 대한 패턴 인식을 수행함으로써 상기 손 특징 영역으로부터 획득된다. 상기 손가락 끝의 특징점의 인터프레임 변위는 상기 인터프레임 변위로부터 경계확정 궤도를 획득하기 위해 상기 손가락 끝이 대상 오브젝트 주위의 경계를 정할 때 기록되며, 상기 경계확정 궤도는 전체 둘레 형상을 형성하도록 폐쇄된다. 그리고, 상기 전체 둘레 형상은 투영 영역을 획득하도록 사용자의 상기 시야의 방향이 대상 오브젝트가 배치된 평면과 수직인 평면 상에 투영되고, 상기 대상 오브젝트의 식별 영역으로써 상기 투영 영역을 이용하여 이미지 식별이 수행된다. 따라서, 사용자가 대상 오브젝트에 대한 이미지 식별을 수행할 때, 빠르게 대상 오브젝트에 대한 경계 확정 및 세그멘테이션을 수행하기 위해 손가락을 뻗어서 상기 대상 오브젝트 주위에 직접 손가락 끝으로 대상 오브젝트의 경계를 정하기만 하면 된다. 이것은 대상 오브젝트의 이미지 식별을 위한 식별 입력으로써 사용되며, 이에 따라 작업은 간단하고, 사용자의 경험은 나아지며, 응용성은 높다.
도 2는 볼 발명의 다른 실시예에 따른 이미지 식별 방법의 개략도이다.
도 2에 도시된 바와 같이, 본 실시예에서는, 카메라를 구비한 스마트 디바이스가 사용자에 의해 스피치, 터치 스크린 또는 동적 센서(dynamic sensor)를 통해 입력되는 이미지 식별 요청을 수신한 후, 상기 스마트 디바이스의 카메라가 켜진다.
사용자의 시야 내의 손 특징 영역(hand feature region)은 제1 시점에서 피부색 감지에 의해 획득되고, 상기 손 특징 영역은 실시간으로 캡쳐되고 추적된다. 사용자는 손가락 끝의 특징점을 식별하고 캡쳐하도록 스피치와 같은 인터랙티브 수단(interactive means)에 의해 가이드되고, 대상 오브젝트 주위의 경계를 정하는 제스쳐(gesture)를 완성하도록 가이드된다. 상기 손가락 끝이 대상 오브젝트 주위의 경계를 정할 때, 손가락 끝의 경계확정 경로(delimiting path)가 추적되고, 인터프레임 변위(interframe displacement)로부터 경계확정 궤도(delimiting trajectory)를 획득하기 위해 상기 손가락 끝의 특징점의 인터프레임 변위가 기록되고, 상기 경계확정 궤도는 전체 둘레 형상(full-perimeter geometry)를 형성하기 위해 폐쇄된다. 상기 전체 둘레 형상은 투영 영역(projection region)을 획득하도록 사용자의 시야의 방향이 대상 오브젝트가 배치된 평면에 대해 수직인 평면 상에 투영되고, 이미지 식별은 상기 대상 오브젝트의 식별 영역으로써 상기 투영 영역을 이용하여 수행된다. 따라서, 자연스러운 경계확정 동작으로 이미지 세그멘테이션(segmentation) 및 식별(identification)이 수행되고, 식별 결과는 사용자가 대상 오브젝트의 식별을 완성하도록 스마트 디바이스의 오디오 출력 채널(audio output channel) 또는 스크린 이미지 출력 채널(screen image output channel)을 통해 사용자에게 출력된다.
일부 실시예에 있어서, 대상 오브젝트는 사용자로부터 먼 거리에 있는 오브젝트, 사용자가 만질 수 없는 오브젝트, 큰 오브젝트 또는 이동될 수 없는 고정 오브젝트일 수 있고, 상기 대상 오브젝트의 특정 형태는 본 발명에 제한되지 않는다.
일부 실시예에 있어서, 카메라를 구비한 스마트 디바이스는 카메라를 구비한 스마트 모바일 단말기, 카메라를 구비한 헤드셋 웨어러블 디바이스(예를 들어, Google Glass 또는 BaiduEye), 카메라를 구비한 스마트 워치 또는 카메라 비주얼 입력을 구비한 로봇일 수 있다. 그러나 본 발명이 이에 한정되지 않는다.
도 3은 본 발명의 일 실시예에 따른 이미지 식별 장치이다. 본 발명에서 이미지 식별 장치는 도 1에 도시된 이미지 식별 방법을 실현하기 위하여 사용될 수 있다.
도 3에 도시된 바와 같이, 이미지 식별 장치는, 제1 획득 모듈(31), 제1 트래킹 모듈(32), 제2 획득 모듈(33), 제2 트래킹 모듈(34), 레코딩 모듈(35) 및 투영 모듈(36)을 포함할 수 있다.
제1 획득 모듈(31)은 제1 시점에서 피부색 감지에 의해 시야 내의 손 특징 영역(hand feature region)을 획득하도록 구성된다.
제1 트래킹 모듈(32)은 상기 제1 획득 모듈(31)에 의해 획득된 손 특징 영역을 실시간으로 캡쳐 및 추적 하도록 구성된다.
제2 획득 모듈(33)은 뻗친 손의 형태적 특징에 대한 패턴 인식을 수행함으로써 상기 제1 추적 모듈(32)에 의해 캡쳐되고 추척된 손 특징 영역으로부터 손가락 끝의 특징 및 위치를 획득하도록 구성된다.
제2 트래킹 모듈(34)은 상기 손가락 끝의 특징 및 위치를 실시간으로 캡쳐 및 추적하도록 구성된다.
레코딩 모듈(35)은 인터프레임 변위(interframe displacement)로부터 경계확정 궤도(delimiting trajectory)를 획득하기 위하여 상기 손가락 끝이 대상 오브젝트 주위의 경계를 정할 때 상기 손가락 끝의 특징점의 인터프레임 변위를 기록하도록 구성된다.
투영 모듈(36)은 투영 영역(projection region)을 획득하기 위해 전체 둘레 형상(full-perimeter geometry)을 시야의 방향이 대상 오브젝트가 배치된 평면에 대해 수직인 평면 상에 투영하고, 상기 대상 오브젝트의 이미지 식별 영역으로써 상기 투영 영역을 이용하여 이미지 식별을 수행하도록 구성된다.
일부 실시예에 있어서, 이미지 식별 장치는 카메라가 구비된 스마트 디바이스 또는 카메라가 구비된 스마트 디바이스의 일부일 수 있고, 여기서 제1 획득 모듈(31), 제1 트래킹 모듈(32), 제2 획득 모듈(33), 제2 트래킹 모듈(34) 및 또는 레코딩 모듈(35)의 일부 또는 모든 기능이 상기 스마트 디바이스의 카메라에 의해 수행될 수 있다.
일부 실시예에 있어서, 카메라를 구비한 스마트 디바이스는 카메라를 구비한 스마트 모바일 단말기, 카메라를 구비한 헤드셋 웨어러블 디바이스(예를 들어, Google Glass 또는 BaiduEye), 카메라를 구비한 스마트 워치 또는 카메라 비주얼 입력을 구비한 로봇일 수 있다. 그러나 본 발명이 이에 한정되지 않는다.
본 발명의 일 실시예에 따른 이미지 식별 장치에 의하면, 제1 획득 모듈은 제1시점에서 피부색 감지에 의해 사용자의 시야 내의 손 특징 영역을 획득하고, 제2 획득 모듈은 뻗은 손의 형태적 특징에 대한 패턴 인식을 수행함으로써 제1 트래킹 모듈에 의해 캡쳐되고 추적된 손 특징 영역으로부터 손가락 끝의 특징 및 위치를 획득한다. 레코딩 모듈은 인터프레임 변위로부터 경계확정 궤도를 획득하기 위하여 손가락 끝이 상기 대상 오브젝트 주위의 경계를 정할 때 상기 손가락 끝의 특징점의 인터프레임 변위를 기록하고, 전체 둘레 형상을 형성하기 위해 상기 경계확정 궤도를 폐쇄한다. 그리고 투영 모듈은 주영 영역을 획득하도록 상기 시야의 방향이 대상 오브젝트가 배치된 평면에 대해 수직인 평면 상에 전체 둘레 형상을 투영하고, 상기 대상 오브젝트의 식별 영역으로써 상기 투영 영역을 이용하여 이미지 식별을 수행한다. 따라서, 사용자가 대상 오브젝트에 대한 이미지 식별을 수행할 때, 빠르게 대상 오브젝트에 대한 경계 확정 및 세그멘테이션을 수행하기 위해 손가락을 뻗어서 상기 대상 오브젝트 주위에 직접 손가락 끝으로 대상 오브젝트의 경계를 정하기만 하면 된다. 이것은 대상 오브젝트의 이미지 식별을 위한 식별 입력으로써 사용되며, 이에 따라 작업은 간단하고, 사용자의 경험은 나아지며, 응용성은 높다.
도 4는 본 발명의 다른 실시예에 따른 이미지 식별 디바이스의 블록 구성도이다.
본 실시예에서 도 4에 도시된 이미지 식별 장치는 도 3에 도시된 것과 달리 수신 모듈(37)을 더 포함할 수 있다.
수신 모듈(37)은 제1 시점에서 피부 색 감지에 의해 시야 내의 손 특징 영역을 획득하는 동작을 트리거하도록 사용자에 의해 스피치, 터치 스크린 또는 동적 센서(dynamic sensor)를 통해 입력되는 이미지 식별 요청을 수신하도록 구성된다.
다시 말하면, 본 실시예에서, 상기 수신 모듈(37)이 사용자에 의해 스피치, 터치 스크린 또는 동적 센서(dynamic sensor)를 통해 입력되는 이미지 식별 요청을 수신한 후, 카메라가 켜진다. 제1 획득 모듈(31)은 제1 시점에서 피부 색 감지에 의해 사용자의 시야 내의 손 특징 영역을 획득하고, 제1 트래킹 모듈(32)은 상기 손 특징 영역을 실시간으로 캡쳐하고 추적한다. 사용자는 손가락 끝의 특징점을 식별하고 캡쳐하도록 스피치와 같은 인터랙티브 수단(interactive means)에 의해 가이드되고, 대상 오브젝트 주위의 경계를 정하는 제스쳐(gesture)를 완성하도록 가이드된다. 상기 손가락 끝이 대상 오브젝트 주위의 경계를 정할 때, 제2 트래킹 모듈(34)은 손가락 끝의 경계확정 경로(delimiting path)를 추적하며, 레코딩 모듈(35)는 인터프레임 변위(interframe displacement)로부터 경계확정 궤도(delimiting trajectory)를 획득하기 위해 상기 손가락 끝의 특징점의 인터프레임 변위를 기록하고, 전체 둘레 형상(full-perimeter geometry)를 형성하기 위래 상기 경계확정 궤도를 폐쇄한다. 투영 모듈(36)은 투영 영역(projection region)을 획득하도록 사용자의 시야의 방향이 대상 오브젝트가 배치된 평면에 대해 수직인 평면 상에 상기 전체 둘레 형상을 투영하고, 상기 대상 오브젝트의 식별 영역으로써 상기 투영 영역을 이용하여 이미지 식별을 수행한다. 따라서, 자연스러운 경계확정 동작으로 이미지 세그멘테이션(segmentation) 및 식별(identification)이 수행되고, 식별 결과는 사용자가 대상 오브젝트의 식별을 완성하도록 스마트 디바이스의 오디오 출력 채널(audio output channel) 또는 스크린 이미지 출력 채널(screen image output channel)을 통해 사용자에게 출력된다.
본 발명의 일 실시예에 따른 이미지 식별 장치에 의하면, 사용자가 대상 오브젝트에 대한 이미지 식별을 수행할 때, 빠르게 대상 오브젝트에 대한 경계 확정 및 세그멘테이션을 수행하기 위해 손가락을 뻗어서 상기 대상 오브젝트 주위에 직접 손가락 끝으로 대상 오브젝트의 경계를 정하기만 하면 된다. 이것은 대상 오브젝트의 이미지 식별을 위한 식별 입력으로써 사용되며, 이에 따라 작업은 간단하고, 사용자의 경험은 나아지며, 응용성은 높다.
이미지 식별은 인공 지능에 있어서 가장 중요한 혁신이며, 매우 넓은 범위의 유용한 사용 신(scenes)을 가지고 있고, 이것은 장래의 검색 분야에서 최우선 순위이다. 본 발명은 새로운 인간-컴퓨터 인터랙션(houman-computer interaction) 및 자연스러운 사용자 인터페이스를 채용하며, 이것은 먼저 사진을 촬영한 다음 대상 오브젝트의 경계를 확정하는 종래의 이미지 식별과 비교하여 보다 자연스럽고 편리한 것이다. 자연스러운 인터랙션은 스마트 웨어러블 디바이스의 이미지 식별 기능에 있어서 특히 중요하고, 본 발명에서는, 사용자는 검색 결과를 획득하기 위하여 그의 앞에서 원격 오브젝트의 경계를 직접 정할 수 있으며, 보다 자연스러운 인터랙션 및 보다 나은 사용자 경험을 실현할 수 있다.
본 발명의 일 실시예에 따른 이미지 식별 방법은 제1 시점에서 비주얼 이미지 정보를 캡쳐(capturing)하고 프로세싱(processin)을 수행하는 매우 다양한 스마트 디바이스에 적용될 수 있고, 스마트 웨어러블 비전 제품의 제스쳐(gesture) 인식을 위한 기본적인 기술적 서포트를 제공할 수 있다.
또한, 본 발명의 일 실시예에 따른 컴퓨터 판독 가능한 기록 매체가 제공된다. 상기 컴퓨터 판독 가능한 기록 매체는, 컴퓨터 상에서 실행될 때, 전술한 본 발명의 일 실시예에 따른 이미지 식별 방법을 실행하기 위한 컴퓨터 프로그램을 포함할 수 있다.
본 명세서에서 사용되는 "제1" 및 "제2"와 같은 용어는 설명을 위해 사용되는 것으로, 지시 또는 상대적인 중요도 또는 중요성을 암시하기 위한 것이 아니다. 따라서, "제1" 및 "제2"에 의해 정의되는 특징은 하나 이상의 특징을 포함할 수 있다. 본 발명의 설명에서 달리 명시되지 않는 한,"복수"는 두 개 또는 두 개 이상을 의미한다.
본 명세서에서 흐름도 또는 임의의 프로세스 또는 다른 방식으로 기재된 방법은 모듈, 세그먼트 또는 명시된 로직 함수(들)를 구현하는 하나 이상의 실행 가능한 명령을 구성하는 또는 진행의 단계에 대한 하나 이상의 실행 가능한 명령을 구성하는 코드의 부분을 나타내는 것으로 이해될 수 있을 것이다. 흐름도는 특정한 실행 순서를 나타내지만, 그것은 실행 순서는 도시된 것과 다른 것으로 이해될 수 있다. 예를 들어, 2개 이상의 박스들에 대한 실행 순서는 도시된 순서에 대해 스크램블(scrambled)될 수 있다.
여기서 다른 방식으로 기재된 또는 흐름도에 나타난 논리(logic) 및/또는 스텝(step)은, 예를 들어, 논리 기능을 실현하기 위한 실행 가능한 명령의 특별한 순서 테이블은, 명령 실행 시스템, 장치 또는 장비(예를 들어, 컴퓨터 기반 시스템, 프로세서 또는 명령 실행 시스템으로부터 명령을 획득할 수 있는 다른 시스템으로 구성되는 시스템)에 의해 사용되는 또는 명령 실행 시스템, 장치 및 장비가 결합되어 사용되는 컴퓨터 판독 가능 매체에서 구체적으로 수행될 수 있다. 본 명세서에서, "컴퓨터 판독 가능 매체"는 명령 실행 시스템에 의해 사용되는 또는 명령 실행 시스템의 조합에 의해 사용되는 프로그램을 포함, 저장, 통신, 전파 또는 전송하도록 적응한 임의의 장치일 수 있다. 구체적으로, 상기 컴퓨터 판독 가능 매체는, 하나 이상의 선(wire)을 가진 전기 연결(전자 기기), 휴대용 컴퓨터 인클로저(자성 기기), RAM(random access memory), ROM(read only memory), 비휘발성 메모리(erasable programmable read-only memory, EPROM 또는 플래쉬 메모리), 광섬유 기기(optical fiber device) 및 휴대용 CDROM(compact disk read-only memory)일 수 있다. 게다가, 상기 컴퓨터 판독 가능 매체는 그 위에 프로그램을 프린팅 가능한 종이(paper) 또는 다른 적절한 매체도 될 수 있으며, 이것은 왜냐하면, 예를 들어, 전기적 방식으로 프로그램을 획득하는 것이 필요할 때, 종이 또는 다른 적절한 매체는 광학적으로 스캔되고, 편집되고, 회독되거나 또는 다른 적절한 방법에 의해 처리될 수 있고, 그리고 프로그램은 컴퓨터 메모리에 저장될 수 있기 때문이다.
당업자는 본 발명의 상술한 예시 방법에서의 단계들의 전부 또는 일부가 프로그램과 관련된 하드웨어를 명령함으로써 달성될 수 있음을 이해할 수 있다. 프로그램은 컴퓨터 판독 가능 매체에 저장되고, 프로그램은 컴퓨터에서 실행될 때 본 발명의 방법 실시예에서 하나 이상의 단계들을 조합을 포함할 수 있다.
또한, 본 발명의 실시예들의 각 기능 셀은 프로세싱 모듈에 통합되거나, 각 기능 셀들이 물리적으로 분리되어 존재할 수 있으며, 두 개 이상의 셀들이 프로세싱 모듈에 통합되어 있을 수 있다. 통합 모듈은 하드웨어의 형태 또는 소프트웨어 기능 모듈의 형식으로 구현될 수 있다. 통합 모듈이 소프트웨어 기능 모듈의 형태로 구현되고 판매되거나, 독립 물품으로 사용되는 경우, 통합 모듈은 컴퓨터 판독 가능 매체에 저장될 수 있다.
상술한 저장 모듈은 ROM, 자기 디스크 또는 CD 등일 수 있다.
본 명세서의 전체에 걸쳐 참조한 "실시예", "일부 실시예", "일 실시예, "다른 실시예", "예", "구체 예" 또는 "일부 예"는 특정 기능, 구조, 재료, 또는 실시예 또는 예와 관련하여 설명된 특성은 본 발명의 적어도 하나의 실시예 또는 예에 포함될 수 있다. 따라서, 본 명세서의 전체에 걸쳐 다양한 곳에서 등장하는 "일부 실시예에서", "일 실시예에서", "실시예에서", "다른 예에서", "예에서", "특정 예에서" 또는 "일부 예에서"와 같은 문구는 반드시 본 발명의 동일한 실시예 또는 예를 참조할 필요가 없다. 뿐만 아니라, 특정한 특징, 구조, 재료 또는 특성은 하나 이상의 실시예 또는 예에서 적절한 방식으로 결합될 수 있다.
실시예들이 도시되고 설명되었지만, 상술한 실시예들이 본 발명을 제한하는 것으로 해석될 수 없으며, 본 발명의 사상, 원리 및 본 발명의 범위를 벗어남이 없이 변화, 대안 및 변경이 가능하다는 점에 대해서 당업자는 이해할 수 있을 것이다.
31: 제1 획득 모듈
32: 제1 트래킹 모듈
33: 제2 획득 모듈
34: 제2 트래킹 모듈
35: 레코딩 모듈
36: 투영 모듈
37: 수신 모듈

Claims (7)

  1. 제1 시점에서 피부색 감지에 의해 시야 내의 손 특징 영역(hand feature region)을 획득하고, 상기 손 특징 영역을 실시간으로 캡쳐하고 추적하며;
    뻗은 손(stretched hand)의 형태적 특징에 대한 패턴 인식을 수행하여 상기 손 특징 영역으로부터 손가락 끝의 특징 및 위치를 획득하고, 상기 손가락 끝의 특징 및 위치를 실시간으로 캡쳐하고 추적하며;
    인터프레임 변위(interframe displacement)로부터 경계확정 궤도(delimiting trajectory)를 획득하기 위하여 상기 손가락 끝이 대상 오브젝트 주위의 경계를 정할 때 상기 손가락 끝의 특징점의 인터프레임 변위를 기록하고;
    전체 둘레 형상(full-perimeter geometry)을 형성하기 위해 상기 경계확정 궤도를 폐쇄하고;
    투영 영역(projection region)을 획득하도록 상기 시야의 방향이 상기 대상 오브젝트가 배치된 평면에 대하여 수직인 평면 상에 상기 전체 둘레 형상을 투영하고, 상기 대상 오브젝트의 식별 영역으로써 상기 투영 영역을 이용하여 이미지 식별을 수행하는 이미지 식별 방법.
  2. 제 1항에 있어서, 상기 전체 둘레 형상을 형성하기 위해 상기 경계확정 궤도를 폐쇄하는 것은, 폐쇄 곡선 최적화 알고리즘(closed curve optimization algorithm)에 의해 상기 전체 둘레 형상을 형성하기 위한 상기 경계확정 궤도를 폐쇄하는 이미지 식별 방법.
  3. 제 1항에 있어서,
    상기 제1 시점에서 상기 피부색 감지에 의해 상기 시야 내의 상기 손 특징 영역의 획득 동작을 트리거하도록 스피치, 터치 스크린 또는 동적 센서(dynamic sensor)를 통해 입력되는 이미지 식별 요청을 더 수신하는 이미지 식별 방법.
  4. 제1 시점에서 피부색 감지에 의해 시야 내의 손 특징 영역(hand feature region)을 획득하는 제1 획득 모듈;
    상기 손 특징 영역을 실시간으로 캡쳐하고 추적하는 제1 트래킹 모듈;
    뻗은 손(stretched hand)의 형태적 특징에 대한 패턴 인식을 수행하여 상기 손 특징 영역으로부터 손가락 끝의 특징 및 위치를 획득하는 제2 획득 모듈;
    상기 손가락 끝의 특징 및 위치를 실시간으로 캡쳐하고 추적하는 제2 트래킹 모듈;
    인터프레임 변위(interframe displacement)로부터 경계확정 궤도(delimiting trajectory)를 획득하기 위하여 상기 손가락 끝이 대상 오브젝트 주위의 경계를 정할 때 상기 손가락 끝의 특징점의 인터프레임 변위를 기록하고, 전체 둘레 형상(full-perimeter geometry)을 형성하기 위해 상기 경계확정 궤도를 폐쇄하는 레코딩 모듈; 및
    투영 영역(projection retion)을 획득하도록 상기 시야의 방향이 상기 대상 오브젝트가 배치된 평면에 대하여 수직인 평면 상에 상기 전체 둘레 형상을 투영하고, 상기 대상 오브젝트의 식별 영역으로써 상기 투영 영역을 이용하여 이미지 식별을 수행하는 투영 모듈;을 포함하는 이미지 식별 장치.
  5. 제 4항에 있어서, 상기 레코딩 모듈은 폐쇄 곡선 최적화 알고리즘(closed curve optimization algorithm)에 의해 상기 전체 둘레 형상을 형성하기 위해 상기 경계확정 궤도를 폐쇄하는 이미지 식별 장치.
  6. 제 4항에 있어서,
    상기 제1 시점에서 상기 피부색 감지에 의해 상기 시야 내의 상기 손 특징 영역의 획득 동작을 트리거하도록 스피치, 터치 스크린 또는 동적 센서(dynamic sensor)를 통해 입력되는 이미지 식별 요청을 수신하는 수신 모듈;을 더 포함하는 이미지 식별 장치.
  7. 컴퓨터 상에서 실행할 때,
    제1 시점에서 피부색 감지에 의해 시야 내의 손 특징 영역(hand feature region)을 획득하고, 상기 손 특징 영역을 실시간으로 캡쳐하고 추적하며;
    뻗은 손(stretched hand)의 형태적 특징에 대한 패턴 인식을 수행하여 상기 손 특징 영역으로부터 손가락 끝의 특징 및 위치를 획득하고, 상기 손가락 끝의 특징 및 위치를 실시간으로 캡쳐하고 추적하며;
    인터프레임 변위(interframe displacement)로부터 경계확정 궤도(delimiting trajectory)를 획득하기 위하여 상기 손가락 끝이 대상 오브젝트 주위의 경계를 정할 때 상기 손가락 끝의 특징점의 인터프레임 변위를 기록하고;
    전체 둘레 형상(full-perimeter geometry)을 형성하기 위해 상기 경계확정 궤도를 폐쇄하고;
    투영 영역(projection region)을 획득하도록 상기 시야의 방향이 상기 대상 오브젝트가 배치된 평면에 대하여 수직인 평면 상에 상기 전체 둘레 형상을 투영하고, 상기 대상 오브젝트의 식별 영역으로써 상기 투영 영역을 이용하여 이미지 식별을 수행하는; 단계들을 실행하기 위한 컴퓨터 프로그램을 포함하는 컴퓨터 판독 가능한 기록 매체.
KR1020140180973A 2014-10-29 2014-12-16 이미지 식별 방법 및 이미지 식별 장치 KR101929077B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201410594523.3A CN104318218A (zh) 2014-10-29 2014-10-29 图像识别方法和装置
CN201410594523.3 2014-10-29

Publications (2)

Publication Number Publication Date
KR20160051496A KR20160051496A (ko) 2016-05-11
KR101929077B1 true KR101929077B1 (ko) 2018-12-13

Family

ID=52231838

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140180973A KR101929077B1 (ko) 2014-10-29 2014-12-16 이미지 식별 방법 및 이미지 식별 장치

Country Status (5)

Country Link
US (1) US9396387B2 (ko)
EP (1) EP3016024A3 (ko)
JP (1) JP6104227B2 (ko)
KR (1) KR101929077B1 (ko)
CN (1) CN104318218A (ko)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105005441B (zh) * 2015-06-18 2018-11-06 美国掌赢信息科技有限公司 一种即时视频的显示方法和电子设备
US10186086B2 (en) * 2015-09-02 2019-01-22 Microsoft Technology Licensing, Llc Augmented reality control of computing device
CN106204423B (zh) * 2016-06-28 2019-09-27 Oppo广东移动通信有限公司 一种基于增强现实的图片调整方法、装置及终端
TWI734867B (zh) * 2017-11-20 2021-08-01 達明機器人股份有限公司 機器手臂作業軌跡的教導系統及方法
CN110443664B (zh) * 2018-05-04 2022-07-05 阿里巴巴集团控股有限公司 信息推送系统、投影系统、方法、装置及电子设备
CN111062235B (zh) * 2018-10-17 2023-05-02 阿里巴巴集团控股有限公司 人脸识别方法和装置、人脸检测库的建立方法
CN109840504B (zh) * 2019-02-01 2022-11-25 腾讯科技(深圳)有限公司 物品取放行为识别方法、装置、存储介质及设备
CN110555833B (zh) * 2019-08-30 2023-03-21 联想(北京)有限公司 图像处理方法、装置、电子设备以及介质
CN111583134B (zh) * 2020-04-20 2022-08-12 清华大学 带标注的手与物体复杂交互真实彩色数据生成方法及装置
CN111639545B (zh) * 2020-05-08 2023-08-08 浙江大华技术股份有限公司 一种人脸识别方法、装置、设备及介质
CN113676654B (zh) * 2020-05-14 2023-06-06 武汉Tcl集团工业研究院有限公司 一种图像截取方法、装置、设备及计算机可读存储介质
CN115793862B (zh) * 2023-01-05 2023-04-28 东云睿连(武汉)计算技术有限公司 一种图像目标隐式标注方法、系统、电子设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101499177A (zh) * 2008-01-28 2009-08-05 上海西门子医疗器械有限公司 一种三维模型的建立方法和系统
JP2011198270A (ja) * 2010-03-23 2011-10-06 Denso It Laboratory Inc 対象認識装置及びそれを用いた制御装置、並びに対象認識方法

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3255740B2 (ja) * 1992-11-20 2002-02-12 武藤工業株式会社 曲線の接続処理方法および装置
US7148913B2 (en) * 2001-10-12 2006-12-12 Hrl Laboratories, Llc Vision-based pointer tracking and object classification method and apparatus
US7308112B2 (en) * 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
US8775452B2 (en) * 2006-09-17 2014-07-08 Nokia Corporation Method, apparatus and computer program product for providing standard real world to virtual world links
US8005263B2 (en) * 2007-10-26 2011-08-23 Honda Motor Co., Ltd. Hand sign recognition using label assignment
US8199106B2 (en) * 2007-12-20 2012-06-12 University Of Central Florida Research Foundation, Inc. Systems and methods of camera-based fingertip tracking
TWI398818B (zh) * 2009-06-30 2013-06-11 Univ Nat Taiwan Science Tech 手勢辨識方法與系統
US8334842B2 (en) * 2010-01-15 2012-12-18 Microsoft Corporation Recognizing user intent in motion capture system
US8499257B2 (en) * 2010-02-09 2013-07-30 Microsoft Corporation Handles interactions for human—computer interface
US8600123B2 (en) * 2010-09-24 2013-12-03 General Electric Company System and method for contactless multi-fingerprint collection
US9135503B2 (en) * 2010-11-09 2015-09-15 Qualcomm Incorporated Fingertip tracking for touchless user interface
JP5648443B2 (ja) * 2010-11-26 2015-01-07 ソニー株式会社 画像処理装置および方法、並びにプログラム
US8782566B2 (en) * 2011-02-22 2014-07-15 Cisco Technology, Inc. Using gestures to schedule and manage meetings
US8971572B1 (en) * 2011-08-12 2015-03-03 The Research Foundation For The State University Of New York Hand pointing estimation for human computer interaction
CN103376890B (zh) * 2012-04-16 2016-08-31 富士通株式会社 基于视觉的手势遥控系统
TWI454968B (zh) * 2012-12-24 2014-10-01 Ind Tech Res Inst 三維互動裝置及其操控方法
KR101511297B1 (ko) * 2012-12-26 2015-04-10 주식회사 케이티 객체에 대한 부가정보를 생성하는 장치 및 방법 그리고, 부가정보를 공유하는 서버
US9076257B2 (en) * 2013-01-03 2015-07-07 Qualcomm Incorporated Rendering augmented reality based on foreground object
US10025486B2 (en) * 2013-03-15 2018-07-17 Elwha Llc Cross-reality select, drag, and drop for augmented reality systems

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101499177A (zh) * 2008-01-28 2009-08-05 上海西门子医疗器械有限公司 一种三维模型的建立方法和系统
JP2011198270A (ja) * 2010-03-23 2011-10-06 Denso It Laboratory Inc 対象認識装置及びそれを用いた制御装置、並びに対象認識方法

Also Published As

Publication number Publication date
JP6104227B2 (ja) 2017-03-29
US9396387B2 (en) 2016-07-19
EP3016024A3 (en) 2016-06-01
KR20160051496A (ko) 2016-05-11
JP2016091527A (ja) 2016-05-23
CN104318218A (zh) 2015-01-28
EP3016024A2 (en) 2016-05-04
US20160125236A1 (en) 2016-05-05

Similar Documents

Publication Publication Date Title
KR101929077B1 (ko) 이미지 식별 방법 및 이미지 식별 장치
KR101706365B1 (ko) 이미지 세그멘테이션 방법 및 이미지 세그멘테이션 장치
CN107251096B (zh) 图像捕获装置和方法
US8970696B2 (en) Hand and indicating-point positioning method and hand gesture determining method used in human-computer interaction system
US20130021490A1 (en) Facial Image Processing in an Image Capture Device
US10045007B2 (en) Method and apparatus for presenting 3D scene
KR101514168B1 (ko) 정보 처리 장치, 정보 처리 방법 및 기록 매체
KR101679290B1 (ko) 영상 처리 방법 및 장치
JP6007682B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP6723814B2 (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
US10620826B2 (en) Object selection based on region of interest fusion
CN107395957B (zh) 拍照方法、装置、存储介质及电子设备
US10163009B2 (en) Apparatus and method for recognizing iris
US11587202B2 (en) Method, apparatus or computer program for controlling image processing of a captured image of a scene to adapt the captured image
CN109981989B (zh) 渲染图像的方法、装置、电子设备和计算机可读存储介质
JP5882929B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP2012068948A (ja) 顔属性推定装置およびその方法
CN111986229A (zh) 视频目标检测方法、装置及计算机系统
CN107357424B (zh) 一种手势操作的识别方法、设备及计算机可读存储介质
CN113192127A (zh) 一种图像处理方法、装置、电子设备和存储介质
KR20180069312A (ko) 라이트 필드 동영상을 이용한 물체 추적 방법 및 장치
CN112965602A (zh) 一种基于手势的人机交互方法及设备
CN116820251B (zh) 一种手势轨迹交互方法、智能眼镜及存储介质
KR102308190B1 (ko) 사용자의 동공 위치 산출 방법 및 사용자의 동공 위치 산출 방법을 실행시키는 프로그램이 기록된 기록 매체
CN114449323A (zh) 视频生成方法和电子设备

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application
J201 Request for trial against refusal decision
J301 Trial decision

Free format text: TRIAL NUMBER: 2016101007343; TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20161229

Effective date: 20181015

S901 Examination by remand of revocation
GRNO Decision to grant (after opposition)