KR20130138529A - 가상평면 자동정의방법 및 그 장치 - Google Patents

가상평면 자동정의방법 및 그 장치 Download PDF

Info

Publication number
KR20130138529A
KR20130138529A KR1020120062196A KR20120062196A KR20130138529A KR 20130138529 A KR20130138529 A KR 20130138529A KR 1020120062196 A KR1020120062196 A KR 1020120062196A KR 20120062196 A KR20120062196 A KR 20120062196A KR 20130138529 A KR20130138529 A KR 20130138529A
Authority
KR
South Korea
Prior art keywords
virtual plane
recognition module
user
defining
reference points
Prior art date
Application number
KR1020120062196A
Other languages
English (en)
Other versions
KR101351993B1 (ko
Inventor
김상식
정성관
이원겸
박준석
신용철
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020120062196A priority Critical patent/KR101351993B1/ko
Publication of KR20130138529A publication Critical patent/KR20130138529A/ko
Application granted granted Critical
Publication of KR101351993B1 publication Critical patent/KR101351993B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor

Abstract

가상평면의 자동정의방법은 공간인식 모듈이 촬영장치로부터 이미지 신호와 깊이 신호를 수신하는 단계, 상기 공간인식 모듈이 상기 이미지 신호로부터 기준점들을 검출하는 단계, 상기 공간인식 모듈이 상기 기준점들을 분석하고, 분석결과에 따라 가상평면을 정의하는 단계, 및 상기 공간인식 모듈이 상기 깊이 신호에 기초하여 상기 가상평면과 사용자 사이의 거리를 조절하는 단계 포함할 수 있다.

Description

가상평면 자동정의방법 및 그 장치{AUTOMATIC DEFINING METHOD FOR VIRTUAL PLANE AND DEVICE THEREOF}
본 발명의 개념에 따른 실시 예는 가상평면(virtual plane)에 관한 것으로, 특히 가상평면을 자동으로 정의하는 방법 및 그 장치에 관한 것이다.
전자기기, 예컨대 스마트 TV(smart television), 인터넷 TV(internet television), 커넥티드 TV(connected television), 및 오픈 하이브리드 TV(open hybrid television) 등을 제어하기 위한 방법은 리모콘을 사용하는 것이다. 상기 리모콘을 사용하여 상기 전자기기를 제어하는 방법은 편리하지만, 상기 전자기기가 점점 복잡해짐에 따라 상기 전자기기를 제어하기 위한 상기 리모콘의 버튼의 숫자도 비례하여 더 많이 요구되었다. 이러한 상기 버튼의 각 기능을 기억하는 것은 어려움이 있다.
또한, 상기 전자기기는 미리 정의된 사용자의 동작들, 예컨대, 특별한 손모양, 관절의 꺾임, 및 손의 움직임 등에 의해 제어될 수 있다. 다만, 상기 사용자는 상기 전자기기를 제어하기 위한 상기 동작들을 많이 암기해야하는 불편함이 있고, 상기 전자기기는 상기 동작들 이외의 다른 동작들을 상기 정의된 사용자의 동작들로 인식할 수 있는 문제점이 있다.
본 발명이 이루고자 하는 기술적인 과제는 전자기기의 사용자 인터페이스를 제어할 수 있는 가상평면에 있어서, 사용자의 위치에 제한받지 않고 상기 사용자에게 자동으로 상기 가상평면을 제공하는 것이다.
본 발명의 실시 예에 따른 가상평면의 자동정의방법은 공간인식 모듈이 촬영장치로부터 이미지 신호와 깊이 신호를 수신하는 단계, 상기 공간인식 모듈이 상기 이미지 신호로부터 기준점들을 검출하는 단계, 상기 공간인식 모듈이 상기 기준점들을 분석하고, 분석결과에 따라 가상평면을 정의하는 단계, 및 상기 공간인식 모듈이 상기 깊이 신호에 기초하여 상기 가상평면과 사용자 사이의 거리를 조절하는 단계 포함할 수 있다.
상기 가상평면을 정의하는 단계는 상기 기준점들 중에서 중심 기준점을 결정하고, 상기 중심 기준점을 기준으로 일정거리에 위치한 적어도 3개의 꼭지점을 포함하는 다각형을 상기 가상평면으로 정의할 수 있다.
상기 공간 인식 모듈은 상기 가상평면의 위치를 상기 사용자의 이동에 따라 변경할 수 있다.
상기 가상평면은 상기 사용자를 포함하는 사용자들 각각에 대하여 서로 독립적으로 할당될 수 있다.
상기 공간 인식 모듈은 상기 사용자들 각각에 대하여 서로 독립적으로 할당되는 상기 가상평면 각각을 하나로 통합할 수 있다.
본 발명의 실시 예에 따른 가상평면의 자동정의방법은 컴퓨터로 읽을 수 있는 기록 매체에 저장될 수 있다.
본 발명의 실시 예에 따른 가상평면 정의 장치는 이미지 신호와 깊이 신호를 출력하는 촬영장치, 및 상기 촬영장치로부터 출력된 상기 이미지 신호에서 기준점들을 검출하고, 상기 기준점들을 분석하고, 분석결과에 따라 가상평면을 정의하는 공간인식 모듈을 포함하고, 상기 공간인식 모듈은 상기 깊이 신호에 기초하여 상기 가상평면을 사용자로부터 일정거리에 조절할 수 있다.
상기 공간인식 모듈은 상기 기준점들 중에서 중심 기준점을 결정하고, 상기 중심 기준점을 기준으로 일정거리에 위치한 적어도 3개의 꼭지점을 포함하는 다각형을 상기 가상평면으로 정의할 수 있다.
상기 공간 인식 모듈은 상기 가상평면의 위치를 상기 사용자의 이동에 따라 변경할 수 있다.
상기 가상평면은 상기 사용자를 포함하는 사용자들 각각에 대하여 독립적으로 할당될 수 있다.
상기 공간 인식 모듈은 상기 사용자들 각각에 대하여 서로 독립적으로 할당되는 상기 가상평면 각각을 하나로 통합할 수 있다.
본 발명의 실시 예에 따른 가상평면 자동정의방법은 사용자의 이미지 신호 및 깊이 신호에 기초하여 상기 사용자의 위치에 제한받지 않고 전자기기의 사용자 인터페이스를 제어할 수 있는 가상평면을 자동으로 제공하여 상기 사용자의 편의성을 향상시킬 수 있는 효과가 있다.
본 발명의 상세한 설명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 상세한 설명이 제공된다.
도 1은 본 발명의 실시 예에 따른 가상평면 정의 장치를 포함하는 시스템과 가상평면 정의 장치로부터 정의된 가상평면을 나타내는 도면이다.
도 2는 도 1에 도시된 가상평면 정의 장치를 설명하기 위한 블락도를 나타낸다.
도 3은 도 1에 도시된 가상평면의 위치가 사용자의 이동에 따라 것을 변경되는 것을 설명하기 위한 도면을 나타낸다.
도 4는 본 발명의 실시 예에 따른 가상평면 자동정의방법의 흐름도를 나타낸다.
본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시 예들에 대해서 특정한 구조적 또는 기능적 설명들은 단지 본 발명의 개념에 따른 실시 예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시 예들은 다양한 형태들로 실시될 수 있으며 본 명세서에 설명된 실시 예들에 한정되지 않는다.
본 발명의 개념에 따른 실시 예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시 예들을 도면에 예시하고 본 명세서에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시 예들을 특정한 개시 형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물, 또는 대체물을 포함한다.
제1 또는 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만, 예컨대 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1구성요소는 제2구성요소로 명명될 수 있고, 유사하게 제2구성요소는 제1구성요소로도 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.
본 명세서에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시 예를 설명함으로써, 본 발명을 상세히 설명한다.
도 1은 본 발명의 실시 예에 따른 가상평면 정의 장치를 포함하는 시스템과 가상평면 정의 장치로부터 정의된 가상평면을 나타내는 도면이다.
도 1를 참조하면, 시스템(10)은 호스트(100), 및 가상평면 정의 장치(200)를 포함할 수 있다.
호스트(100)는 네트워크(미도시)를 통해 가상평면 정의 장치(200)와 연결될 수 있다. 호스트(100)는 스마트 TV(smart television), 인터넷 TV(internet television), 커넥티드 TV(connected television), 오픈 하이브리드 TV(open hybrid television), 터치스크린(touchscreen)을 갖춘 전자기기(electric device) 등 일 수 있고, 반드시 이에 한정되지는 않는다.
사용자(User)는 호스트(200)의 정면에 위치하고, 가상평면(300)은 호스트(100)와 사용자(User) 사이에 위치할 수 있다.
가상평면(300)은 호스트(100)의 사용자 인터페이스(user interface)를 제어하기 위해 인터페이스(interface)의 역할을 수행하는 공간상의 가상적인 평면(virtual plane)을 의미한다.
가상평면(300)은 가상평면 영역(301)과 기준 깊이 범위(303)을 포함할 수 있다.
가상평면 영역(301)은 호스트(100)의 상기 사용자 인터페이스와 매핑(mapping)되는 영역일 수 있다.
가상평면(300)의 기준 깊이 범위(303)는 가상평면 정의 장치(200)가 사용자(User)의 터치를 인식할 수 있는 범위를 의미한다.
예컨대, 사용자(User)가 가상평면(300)의 기준 깊이 범위(303) 밖을 터치하는 때, 가상평면 정의 장치(200)는 사용자(User)의 터치를 인식할 수 없다.
가상평면 정의 장치(200)는 사용자(User)를 센싱(sensing)하고, 사용자(User)와 호스트(100) 사이에 가상평면(300)을 정의할 수 있다.
또한, 가상평면 정의 장치(200)는 정의된 가상 평면(300)을 터치하는 사용자(User)의 제스처를 센싱하고, 상기 제스처의 제스처 정보에 기초하여 네트워크를 통해 제어 신호를 출력하여 호스트(100)의 상기 사용자 인터페이스를 제어할 수 있다.
가상평면 정의 장치(200)는 사용자(User)를 센싱할 수 있는 위치라면 어느 곳에도 위치할 수 있다. 따라서, 가상평면 정의 장치(200)는 사용자(uer)의 위치에 제한받지 않고 가상평면(300)을 정의할 수 있고, 사용자(User)는 정의된 가상평면(300)을 이용하여 호스트(100)의 상기 사용자 인터페이스를 제어할 수 있다.
도 2는 도 1에 도시된 가상평면 정의 장치를 설명하기 위한 블락도를 나타낸다.
도 1 및 도 2를 참조하면, 가상평면 정의 장치(200)는 촬영장치(210), 및 공간 인식 모듈(230)을 포함할 수 있다.
본 명세서에서의 모듈(module)이라 함은 본 명세서에서 설명되는 각각의 명칭에 따른 기능과 동작을 수행할 수 있는 하드웨어를 의미할 수도 있고, 또는 특정한 기능과 동작을 수행할 수 있는 컴퓨터 프로그램 코드를 의미할 수 있고, 또는 특정한 기능과 동작을 수행시킬 수 있는 컴퓨터 프로그램 코드가 탑재된 전자적 기록 매체, 예컨대 프로세서를 의미할 수 있다.
다시 말해, 모듈이란 본 발명의 기술적 사상을 수행하기 위한 하드웨어 및/또는 상기 하드웨어를 구동하기 위한 소프트웨어의 기능적 및/또는 구조적 결합을 의미할 수 있다. 각 모듈은 장치로 불릴 수도 있다.
촬영장치(210)는 호스트(100)의 앞에 위치한 사용자(User)를 센싱하고, 이미지 신호(IS)와 깊이 신호(DS)를 공간인식 모듈(230)로 출력할 수 있다. 실시 예에 따라, 촬영장치(210)는 렌즈(미도시) 및 센서(미도시)를 포함할 수 있다.
촬영장치(210)는 상기 렌즈를 통해 이미지를 획득하고, 상기 이미지를 분석하여 이미지 신호(IS)를 공간 인식 모듈(230)로 출력할 수 있다. 촬영장치(210)는 상기 센서를 통해 사용자(User)를 감지하고, 감지된 사용자(User)로부터 거리를 계산하여 공간인식 모듈로 깊이 신호(DS)를 공간 인식 모듈(230)로 출력할 수 있다.
촬영장치(210)는 적외선 카메라(infrared camera), 깊이 카메라(depth camera) 등 일 수 있고, 반드시 이에 한정되지는 않는다.
공간 인식 모듈(230)은 촬영장치(210)로부터 출력된 이미지 신호(IS)와 깊이 신호(DS)를 이용하여 가상평면(300)을 정의할 수 있다.
보다 구체적으로, 공간 인식 모듈(230)은 촬영장치(210)로부터 출력된 이미지(IS)와 깊이 신호(DS)를 수신할 수 있다.
공간 인식 모듈(230)은 이미지 신호(IS)로부터 사용자(User)의 기준점들(예컨대, P1 내지 P5)을 검출할 수 있다. 예컨대, 기준점들(예컨대, P1 내지 P5)은 사용자(User)의 머리(P1), 가슴(P2), 배(P3), 및 팔꿈치들(P4 및 P5) 등을 포함할 수 있다.
공간 인식 모듈(230)은 기준점들(예컨대, P1 내지 P5)을 분석하고, 분석결과에 따라 가상평면(300)을 정의할 수 있다.
예컨대, 공간 인식 모듈(230)은 기준점들(예컨대, P1 내지 P5) 중에서 중심 기준점(예컨대, P2)을 결정하고, 중심 기준점(예컨대, P2)을 기준으로 일정 거리에 위치한 적어도 3개의 꼭지점을 포함하는 다각형(polygon)을 가상평면(300)으로 정의할 수 있다. 실시 예에 따라, 공간 인식 모듈(230)은 중심 기준점(예컨대, P2)을 기준으로 기준점들(예컨대, P1 내지 P5)을 잇는 다각형을 가상평면(300)으로 정의할 수 있다.
공간 인식 모듈(230)은 깊이 신호(DS)에 기초하여 가상평면(300)과 사용자(User) 사이의 거리를 조절할 수 있다.
실시 예에 따라, 공간 인식 모듈(230)은 정의된 가상평면(300)의 정보를 불휘발성 메모리(nonvolatile memory, 미도시)에 저장할 수 있다.
예컨대, 공간 인식 모듈(230)은 이미지 신호(IS)로부터 사용자(User)를 확인하고, 사용자(User)에게 정의되었던 가상평면(300)을 제공할 수 있다. 상기 불휘발성 메모리는 플래시 메모리(flash memory)일 수 있다.
또한, 공간 인식 모듈(230)은 사용자(User)의 제스처를 확인하고, 상기 제스처에 기초하여 가상평면(300)의 기울기를 조절할 수 있다.
촬영장치(210)는 사용자(User)를 포함하는 사용자들을 촬영하고, 상기 사용자들의 이미지 신호(IS)와 상기 사용자들의 깊이 신호(DS)를 공간 인식 모듈(230)로 출력할 수 있다.
공간 인식 모듈(230)은 이미지 신호(IS)로부터 상기 사용자들 각각의 기준점들을 검출할 수 있다. 공간 인식 모듈(230)은 상기 각각의 기준점들을 분석하고, 분석결과에 따라 상기 사용자들 각각의 가상평면(300)을 정의할 수 있다.
즉, 가상평면(300)은 사용자(User)를 포함하는 상기 사용자들 각각에 대하여 서로 독립적으로 할당될 수 있다.
따라서, 공간 인식 모듈(230)은 상기 사용자들 각각에 대하여 가상평면(300) 각각을 독립적으로 할당하므로, 할당된 상기 사용자들의 각각의 가상평면(300)에 대한 상기 사용자들의 각각의 터치를 구별하여 인식할 수 있다.
또한, 공간 인식 모듈(230)은 상기 사용자들 각각에 대하여 서로 독립적으로 할당된 각각의 가상평면(300)을 통합하여 하나의 가상평면(300)만을 제공할 수 있다.
도 3은 도 1에 도시된 가상평면의 위치가 사용자의 이동에 따라 것을 변경되는 것을 설명하기 위한 도면을 나타낸다.
도 1 내지 도 3을 참조하면, 가상평면 정의 장치(200)는 사용자(User)를 감지하고, 사용자(User)의 이미지 신호(IS)와 깊이 신호(DS)에 기초하여 호스트(100)와 사용자(User) 사이에 가상평면(300)을 정의할 수 있다.
사용자(User)는 가상평면(300)이 정의된 처음 위치(V1)에서 다른 위치(V2)로 이동할 수 있다. 공간 인식 모듈(230)은 가상평면(300)의 위치를 사용자(User)의 이동에 따라 변경할 수 있다.
보다 구체적으로, 공간인식 모듈(230)은 촬영장치(210)로부터 출력되는 깊이 신호(DS)에 기초하여 중심 기준점(예컨대, P2) 및 기준점들(예컨대, P1 내지 P5)을 감지할 수 있다.
중심 기준점(예컨대, P2)은 사용자(User) 이동의 기준이 될 수 있고, 공간인식 모듈(230)은 중심 기준점(예컨대, P2)을 감지할 수 있으므로, 중심 기준점(예컨대, P2)을 트래킹(tracking)할 수 있다.
즉, 사용자(User)가 이동할 때 공간인식 모듈(230)은 중심 기준점(예컨대, P2)을 기준으로 사용자(User)의 이동을 감지하고, 가상평면(300)의 위치를 사용자(User)의 이동에 따라 변경할 수 있다.
도 4는 본 발명의 실시 예에 따른 가상평면 자동정의방법의 흐름도를 나타낸다.
도 1 내지 도 4를 참조하면, 촬영장치(210)는 촬영장치(210)의 앞에 위치한 사용자(User)를 촬영하고, 이미지 신호(IS)와 깊이 신호(DS)를 공간 인식 모듈(230)로 출력할 수 있다.
공간 인식 모듈(230)은 촬영장치(210)로부터 출력된 이미지 신호(IS)와 깊이 신호(DS)를 이용하여 가상평면(300)을 정의할 수 있다.
보다 구체적으로, 공간 인식 모듈(230)은 촬영장치(210)로부터 출력된 이미지(IS)와 깊이 신호(DS)를 수신할 수 있다(S100).
공간 인식 모듈(230)은 이미지 신호(IS)로부터 사용자(User)의 기준점들(예컨대, P1 내지 P5)을 검출할 수 있다(S200).
공간 인식 모듈(230)은 기준점들(예컨대, P1 내지 P5)을 분석하고, 분석결과에 따라 가상평면(300)을 정의할 수 있다(S300).
공간 인식 모듈(230)은 기준점들(예컨대, P1 내지 P5) 중에서 중심 기준점(예컨대, P2)을 결정하고, 중심 기준점(예컨대, P2)을 기준으로 일정 거리에 위치한 적어도 3개의 꼭지점을 포함하는 다각형(polygon)을 가상평면(300)으로 정의할 수 있다.
공간 인식 모듈(230)은 깊이 신호(DS)에 기초하여 가상평면(300)과 사용자(User) 사이의 거리를 조절할 수 있다(S400).
본 발명은 도면에 도시된 일 실시 예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다.
10: 시스템
100: 호스트
200: 가상평면 정의 장치
300: 가상평면
IS: 이미지 신호
DS: 깊이 신호

Claims (11)

  1. 공간 인식 모듈이 촬영장치로부터 이미지 신호와 깊이 신호를 수신하는 단계;
    상기 공간 인식 모듈이 상기 이미지 신호로부터 기준점들을 검출하는 단계;
    상기 공간 인식 모듈이 상기 기준점들을 분석하고, 분석결과에 따라 가상평면을 정의하는 단계; 및
    상기 공간 인식 모듈이 상기 깊이 신호에 기초하여 상기 가상평면과 사용자 사이의 거리를 조절하는 단계 포함하는 가상평면의 자동정의방법.
  2. 제1항에 있어서,
    상기 가상평면을 정의하는 단계는,
    상기 기준점들 중에서 중심 기준점을 결정하고, 상기 중심 기준점을 기준으로 일정거리에 위치한 적어도 3개의 꼭지점을 포함하는 다각형을 상기 가상평면으로 정의하는 가상평면의 자동정의방법.
  3. 제1항에 있어서,
    상기 공간 인식 모듈은 상기 가상평면의 위치를 상기 사용자의 이동에 따라 변경하는 가상평면의 자동정의방법.
  4. 제1항에 있어서,
    상기 가상평면은 상기 사용자를 포함하는 사용자들 각각에 대하여 서로 독립적으로 할당되는 가상평면의 자동정의방법.
  5. 제4항에 있어서,
    상기 공간 인식 모듈은 상기 사용자들 각각에 대하여 서로 독립적으로 할당되는 상기 가상평면 각각을 하나로 통합하는 가상평면의 자동정의방법.
  6. 제1항 내지 5항에 기재된 가상평면을 자동정의하기 위한 컴퓨터 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체.
  7. 이미지 신호와 깊이 신호를 출력하는 촬영장치; 및
    상기 촬영장치로부터 출력된 상기 이미지 신호에서 기준점들을 검출하고, 상기 기준점들을 분석하고, 분석결과에 따라 가상평면을 정의하는 공간인식 모듈을 포함하고,
    상기 공간 인식 모듈은 상기 깊이 신호에 기초하여 상기 가상평면을 사용자로부터 일정거리에 조절하는 가상평면 정의 장치.
  8. 제7항에 있어서,
    상기 공간 인식 모듈은,
    상기 기준점들 중에서 중심 기준점을 결정하고, 상기 중심 기준점을 기준으로 일정거리에 위치한 적어도 3개의 꼭지점을 포함하는 다각형을 상기 가상평면으로 정의하는 가상평면 정의 장치.
  9. 제7항에 있어서,
    상기 공간 인식 모듈은,
    상기 가상평면의 위치를 상기 사용자의 이동에 따라 변경하는 가상평면 정의 장치.
  10. 제7항에 있어서,
    상기 가상평면은 상기 사용자를 포함하는 사용자들 각각에 대하여 독립적으로 할당되는 가상평면 정의 장치.
  11. 제10항에 있어서,
    상기 공간 인식 모듈은 상기 사용자들 각각에 대하여 서로 독립적으로 할당되는 상기 가상평면 각각을 하나로 통합하는 가상평면 정의 장치.
KR1020120062196A 2012-06-11 2012-06-11 가상평면 자동정의방법 및 그 장치 KR101351993B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120062196A KR101351993B1 (ko) 2012-06-11 2012-06-11 가상평면 자동정의방법 및 그 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120062196A KR101351993B1 (ko) 2012-06-11 2012-06-11 가상평면 자동정의방법 및 그 장치

Publications (2)

Publication Number Publication Date
KR20130138529A true KR20130138529A (ko) 2013-12-19
KR101351993B1 KR101351993B1 (ko) 2014-01-17

Family

ID=49984223

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120062196A KR101351993B1 (ko) 2012-06-11 2012-06-11 가상평면 자동정의방법 및 그 장치

Country Status (1)

Country Link
KR (1) KR101351993B1 (ko)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100851977B1 (ko) * 2006-11-20 2008-08-12 삼성전자주식회사 가상 평면을 이용하여 전자 기기의 사용자 인터페이스를제어하는 방법 및 장치.

Also Published As

Publication number Publication date
KR101351993B1 (ko) 2014-01-17

Similar Documents

Publication Publication Date Title
US9367138B2 (en) Remote manipulation device and method using a virtual touch of a three-dimensionally modeled electronic device
US10310675B2 (en) User interface apparatus and control method
US20140037135A1 (en) Context-driven adjustment of camera parameters
KR101985674B1 (ko) 비접촉식 사용자 인터페이스 동작 인식 방법 및 그 장치
KR101631011B1 (ko) 제스처 인식 장치 및 제스처 인식 장치의 제어 방법
CN103929603A (zh) 图像投影设备、图像投影系统及控制方法
JP2012238293A (ja) 入力装置
EP3185106A1 (en) Operating apparatus, control method therefor, program, and storage medium storing program
CN106569716B (zh) 单手操控方法及操控系统
US10078396B2 (en) Optical touch sensing device and touch signal determination method thereof
US9310903B2 (en) Displacement detection device with no hovering function and computer system including the same
TWI499938B (zh) 觸控系統
WO2011096571A1 (ja) 入力装置
JP6746419B2 (ja) 情報処理装置、及びその制御方法ならびにコンピュータプログラム
US9489077B2 (en) Optical touch panel system, optical sensing module, and operation method thereof
KR101351993B1 (ko) 가상평면 자동정의방법 및 그 장치
JP6643825B2 (ja) 装置及び方法
KR102614026B1 (ko) 복수의 렌즈를 구비하는 전자 장치 및 그 제어 방법
CN111373732A (zh) 信息处理装置、信息处理方法和信息处理系统
KR101695727B1 (ko) 스테레오 비전을 이용한 위치검출 시스템 및 위치검출 방법
TWI697827B (zh) 控制系統及其控制方法
CN113568502A (zh) 一种交互方法、装置、设备及存储介质
TWI566128B (zh) 虛擬觸控裝置
KR20160045945A (ko) 프로젝터에 기반한 양방향 상호작용 사용자 인터페이싱 장치
KR101353465B1 (ko) 가상 평면을 구성하는 방법, 이를 수행하는 장치 및 이 시스템

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20161227

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee