KR20120000161A - 포인팅 디바이스와 이의 제어 방법, 입체 영상용 안경 및 디스플레이 장치 - Google Patents

포인팅 디바이스와 이의 제어 방법, 입체 영상용 안경 및 디스플레이 장치 Download PDF

Info

Publication number
KR20120000161A
KR20120000161A KR1020100060346A KR20100060346A KR20120000161A KR 20120000161 A KR20120000161 A KR 20120000161A KR 1020100060346 A KR1020100060346 A KR 1020100060346A KR 20100060346 A KR20100060346 A KR 20100060346A KR 20120000161 A KR20120000161 A KR 20120000161A
Authority
KR
South Korea
Prior art keywords
pointing device
pointing
glasses
distance
reference distance
Prior art date
Application number
KR1020100060346A
Other languages
English (en)
Inventor
정지민
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020100060346A priority Critical patent/KR20120000161A/ko
Priority to US12/917,895 priority patent/US20110316778A1/en
Priority to EP10191641.9A priority patent/EP2400770A3/en
Publication of KR20120000161A publication Critical patent/KR20120000161A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Position Input By Displaying (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

본 발명은 포인팅 디바이스와 이의 제어 방법, 입체 영상용 안경 및 디스플레이 장치에 관한 것이다. 본 발명에 따른 포인팅 디바이스는, 입체 영상용 안경 및 디스플레이 장치와 통신을 수행하는 통신부; 및 상기 입체 영상용 안경과 통신을 수행하도록 상기 통신부를 제어하여 상기 입체 영상용 안경과 상기 포인팅 디바이스와의 기준 거리 및 상기 입체 영상용 안경과 상기 포인팅 디바이스와의 측정 거리를 감지하고, 상기 기준 거리 및 상기 측정 거리에 기초하여 3차원 포인팅을 위한 깊이 정보를 판단하는 제어부를 포함한다.

Description

포인팅 디바이스와 이의 제어 방법, 입체 영상용 안경 및 디스플레이 장치{POINTING DEVICE, CONTROLLING METHOD OF THE SAME, GLASS FOR 3D IMAGE AND DISPLAY APPARATUS}
본 발명은 포인팅 디바이스와 이의 제어 방법, 입체 영상용 안경 및 디스플레이 장치에 관한 것으로서, 보다 상세하게는 깊이가 존재하는 3차원 영상에 대하여 3차원 포인팅을 수행하기 위하여 요구되는 깊이 정보를 쉽게 설정할 수 있는 포인팅 디바이스와 이의 제어 방법, 입체 영상용 안경 및 디스플레이 장치에 관한 것이다.
현재, 자이로 센서를 사용하여 2차원 화면상에서 상하 좌우를 움직이며 포인팅을 수행할 수 있는 기술이 상용화되어 있다. 그러나, 3차원 영상의 경우 깊이가 존재하기 때문에, 기존의 자이로 센서만으로는 3차원(3-Dimensional) 포인팅을 수행할 수 없다.
만일, 3차원 화면상에서 3D 포인팅을 하려면, 깊이 정보를 알아야 한다. 이 경우, 깊이 정보를 얻어내기 위하여 포인팅 장치의 자세와 시선 정보, 3D 카메라를 이용하는 등의 복잡한 방법을 사용하여 깊이를 얻어낼 수 있으나, 이의 구현이 쉽지 않다.
따라서, 본 발명의 목적은 깊이가 존재하는 3차원 영상에 대하여 3차원 포인팅을 수행하기 위하여 요구되는 깊이 정보를 쉽게 설정할 수 있는 장치 및 방법을 제공하는 것이다.
상기 목적은, 본 발명에 따라, 포인팅 디바이스에 있어서, 입체 영상용 안경 및 디스플레이 장치와 통신을 수행하는 통신부; 상기 입체 영상용 안경과 통신을 수행하도록 상기 통신부를 제어하여 상기 입체 영상용 안경과 상기 포인팅 디바이스와의 기준 거리 및 상기 입체 영상용 안경과 상기 포인팅 디바이스와의 측정 거리를 감지하고, 상기 기준 거리 및 상기 측정 거리에 기초하여 3차원 포인팅을 위한 깊이 정보를 판단하는 제어부를 포함하는 포인팅 디바이스에 의해 달성된다.
상기 포인팅 디바이스에 있어서, 상기 기준 거리는, 상기 입체 영상용 안경과 상기 포인팅 디바이스와의 최대 거리에 해당할 수 있다.
상기 포인팅 디바이스에 있어서, 사용자의 입력을 입력 받는 사용자 입력부를 더 포함하고, 상기 제어부는, 상기 사용자의 입력에 대응하여 상기 기준 거리를 감지할 수 있다.
상기 포인팅 디바이스에 있어서, 상기 3차원 포인팅을 위한 깊이 정보는, 상기 기준 거리에 대한 상기 측정 거리의 비에 기초하여 판단될 수 있다.
상기 포인팅 디바이스에 있어서, 상기 통신부는 초음파를 송신하는 송신 소자를 포함하고, 상기 제어부는 상기 송신 소자에서 송신된 상기 초음파가 상기 입체 영상용 안경에 도달하는 시간 및 초음파 속도에 기초하여 상기 기준 거리 및 상기 측정 거리를 감지할 수 있다.
상기 포인팅 디바이스에 있어서, 상기 통신부는 초음파를 송수신하는 송수신 소자를 포함하고, 상기 제어부는 상기 송수신 소자에서 송신된 상기 초음파가 상기 입체 영상용 안경에 도달했다가 상기 포인팅 디바이스로 되돌아오는 시간 및 초음파 속도에 기초하여 상기 기준 거리 및 상기 측정 거리를 감지할 수 있다.
상기 포인팅 디바이스에 있어서, 상기 포인팅 디바이스의 움직임을 감지하는 움직임 감지부를 더 포함하고, 상기 제어부는 상기 움직임 감지부에 의하여 감지된 정보 및 상기 3차원 포인팅을 위한 깊이 정보에 기초하여, 상기 3차원 포인팅을 위한 좌표를 산출할 수 있다.
상기 포인팅 디바이스에 있어서, 상기 제어부는 상기 3차원 포인팅을 위한 좌표에 대한 정보를 상기 디스플레이 장치에 송신하도록 상기 통신부를 제어할 수 있다.
한편, 상기 목적은, 본 발명에 따라, 포인팅 디바이스의 제어 방법에 있어서, 입체 영상용 안경과 통신을 수행하여 상기 입체 영상용 안경과 상기 포인팅 디바이스와의 기준 거리를 감지하는 단계; 상기 입체 영상용 안경과 통신을 수행하여 상기 입체 영상용 안경과 상기 포인팅 디바이스와의 측정 거리를 감지하는 단계: 및 상기 기준 거리 및 상기 측정 거리에 기초하여 3차원 포인팅을 위한 깊이 정보를 판단하는 단계를 포함하는 포인팅 디바이스의 제어 방법에 의해 달성될 수 있다.
상기 포인팅 디바이스의 제어 방법에 있어서, 상기 기준 거리는, 상기 입체 영상용 안경과 상기 포인팅 디바이스와의 최대 거리에 해당할 수 있다.
상기 포인팅 디바이스의 제어 방법에 있어서, 사용자의 입력을 입력 받는 단계를 더 포함하고, 상기 사용자의 입력에 대응하여 상기 기준 거리를 감지할 수 있다.
상기 포인팅 디바이스의 제어 방법에 있어서, 상기 3차원 포인팅을 위한 깊이 정보는, 상기 기준 거리에 대한 상기 측정 거리의 비에 기초하여 판단될 수 있다.
상기 포인팅 디바이스의 제어 방법에 있어서, 상기 포인팅 디바이스는 초음파를 송신하는 송신 소자를 포함하고, 상기 송신 소자에서 송신된 상기 초음파가 상기 입체 영상용 안경에 도달하는 시간 및 초음파 속도에 기초하여 상기 기준 거리 및 상기 측정 거리를 감지할 수 있다.
상기 포인팅 디바이스의 제어 방법에 있어서, 상기 포인팅 디바이스는 초음파를 송수신하는 송수신 소자를 포함하고, 상기 송수신 소자에서 송신된 상기 초음파가 상기 입체 영상용 안경에 도달했다가 상기 포인팅 디바이스로 되돌아오는 시간 및 초음파 속도에 기초하여 상기 기준 거리 및 상기 측정 거리를 감지할 수 있다.
상기 포인팅 디바이스의 제어 방법에 있어서, 상기 포인팅 디바이스는 상기 포인팅 디바이스의 움직임을 감지하는 움직임 감지부를 더 포함하고, 상기 움직임 감지부에 의하여 감지된 정보 및 상기 3차원 포인팅을 위한 깊이 정보에 기초하여, 상기 3차원 포인팅을 위한 좌표를 산출할 수 있다.
상기 포인팅 디바이스의 제어 방법에 있어서, 상기 3차원 포인팅을 위한 좌표에 대한 정보를 상기 디스플레이 장치에 송신할 수 있다.
한편, 상기 목적은, 본 발명에 따라, 입체 영상용 안경에 있어서, 포인팅 디바이스 및 디스플레이 장치와 통신을 수행하는 통신부; 및 상기 포인팅 디바이스와 통신을 수행하도록 상기 통신부를 제어하여 상기 입체 영상용 안경과 상기 포인팅 디바이스와의 기준 거리 및 상기 입체 영상용 안경과 상기 포인팅 디바이스와의 측정 거리를 감지하고, 상기 기준 거리 및 상기 측정 거리에 기초하여 3차원 포인팅을 위한 깊이 정보를 판단하는 제어부를 포함하는 입체 영상용 안경에 의해 달성될 수 있다.
한편, 상기 목적은, 본 발명에 따라, 디스플레이 장치에 있어서, 포인팅 디바이스 및 입체 영상용 안경과 통신을 수행하는 통신부; 및 상기 포인팅 디바이스 및 상기 입체 영상용 안경 중 적어도 하나로부터 상기 입체 영상용 안경과 상기 포인팅 디바이스와의 기준 거리 및 상기 입체 영상용 안경과 상기 포인팅 디바이스와의 측정 거리를 수신하도록 상기 통신부를 제어하고, 수신된 상기 기준 거리 및 상기 측정 거리에 기초하여 3차원 포인팅을 위한 깊이 정보를 판단하는 제어부를 포함하는 디스플레이 장치에 의해 달성될 수 있다.
이상 설명한 바와 같이, 본 발명에 따르면 깊이가 존재하는 3차원 영상에서 3차원 포인팅을 수행하기 위하여 요구되는 깊이 정보를 쉽게 얻어낼 수 있고, 이에 기초하여 3D 포인팅을 수행할 수 있다.
도 1은 본 발명의 일 실시예에 의한 포인팅 디바이스의 구성을 도시한 블록도.
도 2a 내지 도 2d는 본 발명의 일 실시예에 의하여 감지된 측정 거리를 도시한 도면.
도 3a와 도 3b는 본 발명의 일 실시예에 의한 포인팅 디바이스의 사시도.
도 4는 본 발명의 일 실시예에 의한 포인팅 디바이스와 입체 영상용 안경 및 디스플레이 장치간 제어 동작을 도시한 도면.
도 5는 본 발명의 일 실시예에 의한 포인팅 디바이스의 제어 과정을 도시한 도면.
도 6은 본 발명의 일 실시예에 의한 입체 영상용 안경의 구성을 도시한 블록도.
도 7은 본 발명의 일 실시예에 의한 디스플레이 장치의 구성을 도시한 블록도.
이하, 첨부한 도면을 참고로 하여 본 발명의 실시예들에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예들에 한정되지 않는다. 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 동일 또는 유사한 구성요소에 대해서는 동일한 참조부호를 붙이도록 한다.
도 1은 본 발명의 일 실시예에 의한 포인팅 디바이스의 구성을 도시한 블록도이다.
본 발명의 일 실시예에 의한 포인팅 디바이스(100)는 리모트 컨트롤러, 레이저 포인터 및 광전펜(light pen) 등을 포함할 수 있다. 나아가, 사용자의 입력에 대응하여, 이격된 화면상의 임의의 위치를 포인팅함으로써 상기 화면을 제어할 수 있는 전자 디바이스라면, 본 실시예에 의한 포인팅 디바이스(100)가 될 수 있다.
본 실시예에 의한 포인팅 디바이스(100)는 통신부(110), 제어부(120), 사용자 입력부(130) 및 움직임 감지부(140)를 포함할 수 있다.
통신부(110)는 입체 영상용 안경(200) 및 디스플레이 장치(300)와 통신을 수행할 수 있다. 통신부(110)가 수행하는 통신은 적외선 통신, 블루투스 통신, LAN(Local Area Network) 통신, Zigbee 통신, 와이파이(Wi-Fi) 및 무선 랜 통신 등 다양한 형태의 유무선 통신일 수 있다.
입체 영상용 안경(200)과 포인팅 디바이스(100)와의 기준 거리 및 입체 영상용 안경(200)과 포인팅 디바이스(100)와의 측정 거리를 감지하는 방법에 대응하여, 통신부(110)는 다양한 형태로 구현될 수 있다. 예를 들어, 통신부(110)는 초음파를 송신하는 송신 소자(미도시)를 포함하거나 초음파를 송수신하는 송수신 소자(미도시)를 포함할 수 있다. 만일, 통신부(110)가 송신 소자를 포함하는 경우라면, 입체 영상용 안경(200) 측에는 초음파를 수신하는 수신 소자(미도시)가 구비될 수 있다.
제어부(120)는 입체 영상용 안경(200)과 통신을 수행하도록 통신부(110)를 제어하여 입체 영상용 안경(200)과 포인팅 디바이스(100)와의 기준 거리 및 입체 영상용 안경(200)과 포인팅 디바이스(100)와의 측정 거리를 감지하고, 기준 거리 및 측정 거리에 기초하여 3차원 포인팅을 위한 깊이 정보를 판단할 수 있다.
기준 거리는 3차원 포인팅을 위한 깊이 정보를 산출하는데 기준이 되는 값이다.
기준 거리는 입체 영상용 안경(200)과 포인팅 디바이스(100)와의 최대 거리에 해당할 수 있다. 예를 들어, 사용자가 입체 영상용 안경(200)을 착용하고 포인팅 디바이스(100)를 손에 든 경우, 입체 영상용 안경(200)과 포인팅 디바이스(100)와의 최대 거리는 사용자가 팔을 일직선상으로 뻗은 상태에서의 입체 영상용 안경(200)과 포인팅 디바이스(100)간의 거리이다. 따라서, 기준 거리는 포인팅 디바이스(100)의 사용자 별로 달라질 수 있다.
대체적으로, 기준 거리는 사용자가 포인팅 동작을 취할 수 있는 최대 깊이에 해당할 수도 있다. 예를 들어, 사용자가 입체 영상용 안경(200)을 착용하고 포인팅 디바이스(100)를 손에 든 경우, 사용자가 포인팅 동작을 취할 수 있는 최대 깊이는 사용자가 몸을 앞으로 최대한 기울인 동시에 팔을 일직선상으로 뻗은 상태에서의 입체 영상용 안경(200)과 포인팅 디바이스(100)간의 거리일 수 있다. 따라서, 기준 거리는 포인팅 디바이스(100)의 사용자 별로 달라질 수 있다.
또한, 기준 거리는 사용자의 팔 길이에 해당할 수도 있다. 따라서, 기준 거리는 포인팅 디바이스(100)의 사용자 별로 달라질 수 있다.
측정 거리는 사용자가 임의의 포인팅 동작을 취하는 경우, 입체 영상용 안경(200)과 포인팅 디바이스(100)와의 거리이다. 따라서, 측정 거리는 포인팅 동작에 대응하여 실시간으로 변할 수 있다.
3차원 포인팅을 위한 깊이 정보는 기준 거리에 대한 측정 거리의 비에 기초하여 판단될 수 있다.
제어부(120)는 다양한 방법에 따라 기준 거리 및 측정 거리를 감지할 수 있다. 예를 들어, 통신부(110)가 초음파를 송신하는 송신 소자를 포함하는 경우, 제어부(120)는 송신 소자에서 송신된 초음파가 입체 영상용 안경(200)에 도달하는 시간 및 초음파 속도에 기초하여 기준 거리 및 상기 측정 거리를 감지할 수 있다. 또한, 통신부(110)가 초음파를 송수신하는 송수신 소자를 포함하는 경우, 제어부(120)는 송수신 소자에서 송신된 초음파가 입체 영상용 안경(200)에 도달했다가 포인팅 디바이스(100)로 되돌아오는 시간 및 초음파 속도에 기초하여 기준 거리 및 측정 거리를 감지할 수 있다.
한편, 제어부(120)는 사용자 입력부(130)가 입력 받은 사용자의 입력에 대응하여 기준 거리를 감지할 수 있다.
제어부(120)는 움직임 감지부(140)에 의하여 감지된 정보 및 3차원 포인팅을 위한 깊이 정보에 기초하여, 3차원 포인팅을 위한 좌표를 산출할 수 있다. 이 경우, 제어부(120)는 3차원 포인팅을 위한 좌표에 대한 정보를 디스플레이 장치(300)에 송신하도록 통신부(110)를 제어할 수 있다.
사용자 입력부(130)는 사용자의 입력을 입력 받는다. 사용자 입력부(130)는 포인팅 디바이스(100)상에 입력 버튼, 터치 패드 등의 형태로 구현될 수 있다.
움직임 감지부(140)는 포인팅 디바이스(100)의 움직임을 감지할 수 있다. 움직임 감지부(140)는 자이로(gyro) 센서, 지자기 센서, 가속도 센서, 각속도 센서 등으로 구성될 수 있다.
도 2a 내지 도 2d는 본 발명의 일 실시예에 의하여 감지된 측정 거리를 도시한 도면이다.
사용자는 디스플레이 장치(300)에 표시되는 3차원 영상을 제어하기 위하여, 입체 영상용 안경(200)을 착용하고 포인팅 디바이스(100)를 손에 든 상태에서 3차원 포인팅 동작을 수행할 수 있다.
도 2a에서, 사용자는 팔을 최대한 접은 상태로 포인팅 동작을 수행한다. 이 경우, 입체 영상용 안경(200)과 포인팅 디바이스(100)는 각각 디스플레이 장치(300)로부터 동일한 거리만큼 이격되어 있다. 따라서, 입체 영상용 안경(200)과 포인팅 디바이스(100)와의 측정 거리(A)는 최소값을 갖는다. 구체적으로, 측정 거리(A)의 값은 0이다.
도 2c에서, 사용자는 팔을 최대한 일직선으로 뻗은 상태에서 포인팅 동작을 수행한다. 이 경우, 입체 영상용 안경(200)과 포인팅 디바이스(100)간의 측정 거리(C)는 최대값을 갖는다. 한편, 최대값을 갖는 측정 거리(C)는, 입체 영상용 안경(200)과 포인팅 디바이스(100)와의 기준 거리로 설정될 수 있다.
도 2b에서, 사용자는 도 2a에 도시된 것보다는 팔을 더 뻗고, 도 2c에 도시된 것보다는 팔을 더 접은 상태에서 포인팅 동작을 수행한다. 이 경우, 입체 영상용 안경(200)과 포인팅 디바이스(100)와의 측정 거리(B)는 도 2a에서 감지된 측정 거리(A)보다는 크고 도 2c에서 감지된 측정 거리(C) 보다는 작다.
도 2d에서, 3차원 영상(350)에는 깊이가 존재한다. 예를 들어, P 지점(X1, Y1, Z1)과 C지점(X1, Y1, Z2)은 X 좌표 및 Y 좌표는 동일하지만, Z 좌표가 상이하다. 이 경우, 3차원 영상(350)에서 P 지점(X1, Y1, Z1) 보다 C지점(X1, Y1, Z2)의 깊이가 더 깊다. 사용자는 3차원 영상(350)에서 더 깊은 지점을 포인팅 하기 위해서, 이전 포인팅 디바이스(100′)에 의하여 P 지점(X1, Y1, Z1)을 포인팅한 상태에서 팔을 더 뻗어 현재 포인팅 디바이스(100)에 의하여 C지점(X1, Y1, Z2)을 포인팅할 수 있다.
3D 포인팅을 하기 위해서는 포인팅 지점의 3차원 공간상의 좌표가 필요하다. 즉, X 좌표 및 Y 좌표뿐 아니라, Z 좌표에 해당하는 깊이(depth) 정보가 필요하다.
X 좌표 및 Y 좌표는 자이로 센서 등 동작 인식 센서를 통하여 얻을 수 있다. 예를 들어, 자이로 센서를 통하여 포인팅 지점 및 포인팅 지점으로부터 기울어진 정도를 측정함으로써, 포인팅 지점의 X 좌표 및 Y 좌표를 구할 수 있다.
깊이 정보는 입체 영상용 안경(200)과 포인팅 디바이스(100)간의 측정 거리 및 기준 거리를 통하여 얻을 수 있다. 이 경우, 입체 영상용 안경(200)과 포인팅 디바이스(100)간의 거리는 다양한 방법에 의하여 측정할 수 있다. 예를 들어, 초음파 센서를 이용하여 입체 영상용 안경(200)과 포인팅 디바이스(100)간의 거리를 측정할 수 있다. 초음파 센서를 사용하는 방식은 저전력, 저비용의 휴대용 기기에 가장 적합한 측정 방식일 수 있다. 대체적으로, 초음파 대신, 레이저 또는 적외선 등을 이용할 수도 있다.
한편, 초음파 센서를 이용하는 방식은 입체 영상용 안경(200)과 포인팅 디바이스(100) 각각에 발신 소자와 수신 소자를 개별적으로 설치하는 방법, 입체 영상용 안경(200) 또는 포인팅 디바이스(100)에서 발신 소자와 수신 소자를 공용하는 방법 등으로 다양하게 구현될 수 있다. 따라서, 본 실시예에서는 입체 영상용 안경(200)에 발신 소자를 장착하고 포인팅 디바이스(100)에 수신 소자를 장착하는 경우를 가정하지만, 본 발명이 이에 한정되는 것은 아니다.
입체 영상용 안경(200)에 포함된 발신 소자에서는 일정한 간격으로 초음파를 발생시켜 포인팅 디바이스(100)로 송신하고, 포인팅 디바이스(100)에 포함된 수신 소자에서는 입체 영상용 안경(200)으로부터 송신된 초음파를 수신한다. 이 경우, 포인팅 디바이스(100)는 초음파 도달 시간과 초음파 속도(340m/s)에 기초하여 입체 영상용 안경(200)과 포인팅 디바이스(100)와의 거리를 계산할 수 있다.
구체적으로, 사용자가 팔을 최대로 뻗어 터치 버튼을 눌렀을 때의 입체 영상용 안경(200)과 포인팅 디바이스(100)와의 최대 거리(Max Distance)를 얻어내고 이를 기준 거리로 설정한다.
또한, 임의의 포인팅 동작을 취하는 경우의 입체 영상용 안경(200)과 포인팅 디바이스(100)와의 실시간 거리(Realtime Distance)를 얻어내고, 이를 측정 거리로 설정한다.
기준 거리와 측정 거리를 알게 되면, 다음 식에 기초하여 3차원 포인팅을 위한 깊이 정보를 얻을 수 있다.
3차원 포인팅을 위한 깊이 = 측정 거리/기준 거리 (식 1)
기준 거리는 포인팅 디바이스(100)의 사용자 별로 달리질 수는 있지만, 동일한 사용자가 사용하는 내에서는 고정된 상수값이다. 따라서, 도 2a의 경우, 측정 거리(A)가 최소값을 가지므로, 이에 따라 3차원 포인팅을 위한 깊이는 최소가 된다. 도 2c의 경우, 측정 거리(C)는 최대값을 가지므로, 이에 따라 3차원 포인팅을 위한 깊이는 최대가 된다.
또한, 3차원 포인팅을 위한 깊이는 측정 거리에 비례한다. 따라서, 도 2d에서, P 지점(X1, Y1, Z1)을 포인팅한 경우 계산된 측정 거리가 C지점(X1, Y1, Z2)을 포인팅한 경우 계산된 측정 거리보다 작으므로, P 지점(X1, Y1, Z1)의 깊이가 C지점(X1, Y1, Z2)의 깊이보다 얕게 된다.
이 경우, 획득한 X 좌표와 Y 좌표 및 3차원 포인팅을 위한 깊이 정보(즉, Z 좌표)는 디스플레이 장치(300)에 송신되며, 디스플레이 장치(300)는 3D 포인팅에 기초하여 영상을 표시 및 제어한다.
이와 같이 본 실시예에 의하면, 최종적으로 디스플레이 단에서 3D 포인팅을 할 수 있다. 나아가, 본 실시예에 의하면 포인팅 디바이스(100)를 들고 팔을 최대한 뻗어서 입력 버튼을 누르면 설정이 완료되어, 그 이후에는 쉽게 사용자의 깊이 정보를 얻어올 수 있다. 따라서, 사용자가 포인팅 디바이스(100)를 사용하여 깊이가 있는 3차원 영상상에서 3D 포인팅을 수행하는 경우, 쉽고 간편하게 깊이 정보를 얻을 수 있다.
도 3a와 도 3b는 본 발명의 일 실시예에 의한 포인팅 디바이스의 사시도이다.
도 3a의 경우, 포인팅 디바이스(100)상에 사용자 입력부(130)가 입력 버튼 형태로 구현되어 있다. 도 3b의 경우, 포인팅 디바이스(100)상에 사용자 입력부(130)가 터치 버튼 형태로 구현되어 있다. 이 경우, 사용자가 입력 버튼을 누르거나 터치 버튼을 터치한 후 팔을 최대한 일직선으로 뻗으면, 포인팅 디바이스(100)는 입체 영상용 안경(200)과 포인팅 디바이스(100)와의 기준 거리를 측정할 수 있다.
도 4는 본 발명의 일 실시예에 의한 포인팅 디바이스와 입체 영상용 안경 및 디스플레이 장치간 제어 동작을 도시한 도면이다.
입체 영상용 안경(200)과 포인팅 디바이스(100)는 일정 간격마다 초음파를 송수신한다(S401). 예를 들어, 입체 영상용 안경(200)은 일정 간격마다 초음파를 포인팅 디바이스(100)에 송신하고, 포인팅 디바이스(100)는 입체 영상용 안경(200)으로부터 송신되는 초음파를 센싱하거나 수신할 수 있다.
포인팅 디바이스(100)는 기준 거리를 감지한다(S402). 예를 들어, 포인팅 디바이스(100)는 사용자가 팔을 최대한으로 뻗은 상태에서의 입체 영상용 안경(200)과 포인팅 디바이스(100) 간의 거리, 즉 입체 영상용 안경(200)과 포인팅 디바이스(100) 간의 최대 거리를 감지할 수 있다.
포인팅 디바이스(100)는 입체 영상용 안경(200)과 포인팅 디바이스(100)간의 측정 거리를 감지한다(S403). 측정 거리는 사용자의 포인팅 동작에 대응하여, 실시간으로 측정될 수 있다.
포인팅 디바이스(100)는 기준 거리와 측정 거리의 비에 기초하여 3D 깊이 정보를 산출한다(S404). 3D 깊이 정보는 앞서 설명한 (식 1) 에 기초하여 계산될 수 있다.
포인팅 디바이스(100)는 포인팅 디바이스(100)의 움직임을 감지한다(S405). 이 경우, 포인팅 디바이스(100)는 감지된 포인팅 디바이스(100)의 움직임에 기초하여 X 좌표 및 Y 좌표 정보를 산출한다(S406).
포인팅 디바이스(100)는 3D 포인팅을 위한 좌표 정보(X, Y, Z)를 디스플레이 장치(300)에 전송한다(S407).
디스플레이 장치(300)는 3D 포인팅에 대응하여 영상을 표시 및 제어한다(S408).
한편, 변형된 실시예에 의하면, 입체 영상용 안경(200)에 발신 소자 등을 장착하는 대신, 별개의 거리측정장치를 이용하여 기준 거리 및 측정 거리를 감지할 수도 있다. 예를 들어, 사용자의 신체에 거리측정장치를 부착하고, 상기 거리측정장치와 포인팅 디바이스(100) 간의 통신에 의하여 기준 거리 및 측정 거리가 측정될 수도 있다.
도 5는 본 발명의 일 실시예에 의한 포인팅 디바이스의 제어 과정을 도시한 도면이다.
포인팅 디바이스(100)는 입체 영상용 안경(200)과 통신을 수행하여 상기 입체 영상용 안경(200)과 상기 포인팅 디바이스(100)와의 기준 거리를 감지한다(S501). 기준 거리는 입체 영상용 안경(200)과 포인팅 디바이스(100)와의 최대 거리에 해당할 수 있다.
나아가, 포인팅 디바이스(100)는 사용자의 입력에 대응하여 기준 거리를 감지할 수도 있다. 예를 들어, 사용자가 입력 버튼을 누르거나 터치 버튼을 터치한 후 팔을 최대한 일직선으로 뻗는 경우, 기준 거리를 측정할 수 있다.
포인팅 디바이스(100)는 입체 영상용 안경(200)과 통신을 수행하여 입체 영상용 안경(200)과 포인팅 디바이스(100)와의 측정 거리를 감지한다(S502). 측정 거리는 사용자가 임의의 포인팅 동작을 취하는 경우, 입체 영상용 안경(200)과 포인팅 디바이스(100)와의 거리이다.
포인팅 디바이스(100)는 기준 거리 및 상기 측정 거리에 기초하여 3차원 포인팅을 위한 깊이 정보를 판단한다(S503). 3차원 포인팅을 위한 깊이 정보는, 기준 거리에 대한 측정 거리의 비에 기초하여 판단될 수 있다.
앞서 설명한 도 1 내지 도 5에서는 포인팅 디바이스(100)에 의하여 3차원 포인팅을 위한 깊이 정보를 판단하는 알고리즘이 수행되는 경우를 설명하였다. 그러나, 본 발명은 이에 한정되지 않으며, 깊이 정보를 판단하는 알고리즘은 입체 영상용 안경(200) 또는 디스플레이 장치(300)에 의하여 수행될 수도 있다. 이에 대해서는 도 6 및 도 7을 참조하여 설명한다.
도 6은 본 발명의 일 실시예에 의한 입체 영상용 안경의 구성을 도시한 블록도이다.
본 발명의 일 실시예에 의한 입체 영상용 안경(200)은 셔터 방식 또는 편광 방식일 수 있다. 셔터 방식의 입체 영상용 안경(200)은 좌안 셔터와 우안 셔터를 각각 선택적으로 개폐하는 방식으로 구동된다. 이 경우, 입체 영상용 안경(200)은 디스플레이 장치(300)에서 디스플레이 되는 3차원 영상과 동기되어 동작한다. 즉, 디스플레이 장치(300)에서 우안 영상이 디스플레이 되는 경우에는 입체 영상용 안경(200)은 우안 셔터는 개방시키고 좌안 셔터를 폐쇄시키며, 좌안 영상이 디스플레이 되는 경우에는 우안 셔터는 폐쇄시키고 좌안 셔터를 개방시킨다. 편광 방식의 입체 영상용 안경(200)은 좌안과 우안에 서로 다른 편광판이 부착된다. 이 경우, 3차원 영상의 좌안 영상과 우안 영상은 각각 다른 편광을 가지고 있어서, 사용자가 편광 방식의 입체 영상용 안경(200)을 착용하면 사용자에게는 좌안 영상과 우안 영상이 분리되어 보인다. 이에 의해, 사용자는 입체 영상을 볼 수 있다.
본 실시예에 의한 입체 영상용 안경(200)은 통신부(210) 및 제어부(220)를 포함할 수 있다.
통신부(210)는 포인팅 디바이스(100) 및 디스플레이 장치(300)와 통신을 수행할 수 있다. 통신부(210)가 수행하는 통신은 적외선 통신, 블루투스 통신, LAN(Local Area Network) 통신, Zigbee 통신, 와이파이(Wi-Fi) 및 무선 랜 통신 등 다양한 형태의 유무선 통신일 수 있다.
제어부(220)는 포인팅 디바이스(100)와 통신을 수행하도록 통신부(210)를 제어하여 입체 영상용 안경(200)과 포인팅 디바이스(100)와의 기준 거리 및 입체 영상용 안경(200)과 포인팅 디바이스(100)와의 측정 거리를 감지하고, 상기 기준 거리 및 상기 측정 거리에 기초하여 3차원 포인팅을 위한 깊이 정보를 판단할 수 있다.
이 경우, 제어부(220)는 판단된 3차원 포인팅을 위한 깊이 정보를 포인팅 디바이스(100) 또는 디스플레이 장치(300)에 송신하도록 통신부(210)를 제어할 수 있다.
도 7은 본 발명의 일 실시예에 의한 디스플레이 장치의 구성을 도시한 블록도이다.
본 발명의 일 실시예에 의한 디스플레이 장치(300)는, 디지털 TV, 데스크 탑 컴퓨터, 랩탑 컴퓨터, 셋탑 박스, 모니터 등일 수 있다. 나아가, 3차원 영상을 표시하며, 포인팅 디바이스(100)에 의하여 제어될 수 있는 전자 장치라면 본 발명의 일 실시예에 의한 디스플레이 장치(300)가 될 수 있다.
본 발명의 일 실시예에 의한 디스플레이 장치(300)는 통신부(310), 영상 처리부(320) 및 제어부(330)를 포함할 수 있다.
통신부(310)는 포인팅 디바이스(100) 및 입체 영상용 안경(200)과 통신을 수행할 수 있다. 통신부(310)가 수행하는 통신은 적외선 통신, 블루투스 통신, LAN(Local Area Network) 통신, Zigbee 통신, 와이파이(Wi-Fi) 및 무선 랜 통신 등 다양한 형태의 유무선 통신일 수 있다.
영상 처리부(320)는 3차원 영상을 처리하여 표시할 수 있다. 구체적으로, 영상 처리부(320)는 좌안 영상과 우안 영상을 교번적으로 표시할 수 있다.
영상 처리부(320)는 포인팅 디바이스(100)에 의하여 수행된 3D 포인팅에 대응하여 영상을 표시 및 제어할 수 있다.
또한, 영상 처리부(320)는 디코딩(decoding), 스케일링, 밝기 조절, 콘트라스트(대비) 조절, 명암 조절 및 이미지 인핸스먼트(image enhancement) 중 적어도 하나를 수행할 수 있다.
제어부(330)는 포인팅 디바이스(100) 및 입체 영상용 안경(200) 중 적어도 하나로부터 상기 입체 영상용 안경(200)과 상기 포인팅 디바이스(100)와의 기준 거리 및 상기 입체 영상용 안경(200)과 상기 포인팅 디바이스(100)와의 측정 거리를 수신하도록 통신부(310)를 제어하고, 수신된 기준 거리 및 측정 거리에 기초하여 3차원 포인팅을 위한 깊이 정보를 판단할 수 있다.
비록 본 발명의 몇몇 실시예들이 도시되고 설명되었지만, 본 발명이 속하는 기술분야의 통상의 지식을 가진 당업자라면 본 발명의 원칙이나 정신에서 벗어나지 않으면서 본 실시예를 변형할 수 있음을 알 수 있을 것이다. 발명의 범위는 첨부된 청구항과 그 균등물에 의해 정해질 것이다.
100: 포인팅 디바이스     110, 210, 310: 통신부
120, 220, 330: 제어부 130: 사용자 입력부
140: 움직임 감지부 200: 셔터 안경
300: 디스플레이 장치 320: 영상 처리부

Claims (18)

  1. 포인팅 디바이스에 있어서,
    입체 영상용 안경 및 디스플레이 장치와 통신을 수행하는 통신부; 및
    상기 입체 영상용 안경과 통신을 수행하도록 상기 통신부를 제어하여 상기 입체 영상용 안경과 상기 포인팅 디바이스와의 기준 거리 및 상기 입체 영상용 안경과 상기 포인팅 디바이스와의 측정 거리를 감지하고, 상기 기준 거리 및 상기 측정 거리에 기초하여 3차원 포인팅을 위한 깊이 정보를 판단하는 제어부를 포함하는 포인팅 디바이스.
  2. 제1항에 있어서,
    상기 기준 거리는, 상기 입체 영상용 안경과 상기 포인팅 디바이스와의 최대 거리에 해당하는 포인팅 디바이스.
  3. 제1항에 있어서,
    사용자의 입력을 입력 받는 사용자 입력부를 더 포함하고,
    상기 제어부는, 상기 사용자의 입력에 대응하여 상기 기준 거리를 감지하는 포인팅 디바이스.
  4. 제1항에 있어서,
    상기 3차원 포인팅을 위한 깊이 정보는, 상기 기준 거리에 대한 상기 측정 거리의 비에 기초하여 판단되는 포인팅 디바이스.
  5. 제1항에 있어서,
    상기 통신부는, 초음파를 송신하는 송신 소자를 포함하고,
    상기 제어부는, 상기 송신 소자에서 송신된 상기 초음파가 상기 입체 영상용 안경에 도달하는 시간 및 초음파 속도에 기초하여 상기 기준 거리 및 상기 측정 거리를 감지하는 포인팅 디바이스.
  6. 제1항에 있어서,
    상기 통신부는, 초음파를 송수신하는 송수신 소자를 포함하고,
    상기 제어부는, 상기 송수신 소자에서 송신된 상기 초음파가 상기 입체 영상용 안경에 도달했다가 상기 포인팅 디바이스로 되돌아오는 시간 및 초음파 속도에 기초하여 상기 기준 거리 및 상기 측정 거리를 감지하는 포인팅 디바이스.
  7. 제1항에 있어서,
    상기 포인팅 디바이스의 움직임을 감지하는 움직임 감지부를 더 포함하고,
    상기 제어부는, 상기 움직임 감지부에 의하여 감지된 정보 및 상기 3차원 포인팅을 위한 깊이 정보에 기초하여, 상기 3차원 포인팅을 위한 좌표를 산출하는 포인팅 디바이스.
  8. 제7항에 있어서,
    상기 제어부는, 상기 3차원 포인팅을 위한 좌표에 대한 정보를 상기 디스플레이 장치에 송신하도록 상기 통신부를 제어하는 포인팅 디바이스.
  9. 포인팅 디바이스의 제어 방법에 있어서,
    입체 영상용 안경과 통신을 수행하여 상기 입체 영상용 안경과 상기 포인팅 디바이스와의 기준 거리를 감지하는 단계;
    상기 입체 영상용 안경과 통신을 수행하여 상기 입체 영상용 안경과 상기 포인팅 디바이스와의 측정 거리를 감지하는 단계: 및
    상기 기준 거리 및 상기 측정 거리에 기초하여 3차원 포인팅을 위한 깊이 정보를 판단하는 단계를 포함하는 포인팅 디바이스의 제어 방법.
  10. 제9항에 있어서,
    상기 기준 거리는, 상기 입체 영상용 안경과 상기 포인팅 디바이스와의 최대 거리에 해당하는 포인팅 디바이스의 제어 방법.
  11. 제9항에 있어서,
    사용자의 입력을 입력 받는 단계를 더 포함하고,
    상기 사용자의 입력에 대응하여 상기 기준 거리를 감지하는 포인팅 디바이스의 제어 방법.
  12. 제9항에 있어서,
    상기 3차원 포인팅을 위한 깊이 정보는, 상기 기준 거리에 대한 상기 측정 거리의 비에 기초하여 판단되는 포인팅 디바이스의 제어 방법.
  13. 제9항에 있어서,
    상기 포인팅 디바이스는 초음파를 송신하는 송신 소자를 포함하고,
    상기 송신 소자에서 송신된 상기 초음파가 상기 입체 영상용 안경에 도달하는 시간 및 초음파 속도에 기초하여 상기 기준 거리 및 상기 측정 거리를 감지하는 포인팅 디바이스의 제어 방법.
  14. 제9항에 있어서,
    상기 포인팅 디바이스는 초음파를 송수신하는 송수신 소자를 포함하고,
    상기 송수신 소자에서 송신된 상기 초음파가 상기 입체 영상용 안경에 도달했다가 상기 포인팅 디바이스로 되돌아오는 시간 및 초음파 속도에 기초하여 상기 기준 거리 및 상기 측정 거리를 감지하는 포인팅 디바이스의 제어 방법.
  15. 제9항에 있어서,
    상기 포인팅 디바이스는 상기 포인팅 디바이스의 움직임을 감지하는 움직임 감지부를 더 포함하고,
    상기 움직임 감지부에 의하여 감지된 정보 및 상기 3차원 포인팅을 위한 깊이 정보에 기초하여, 상기 3차원 포인팅을 위한 좌표를 산출하는 포인팅 디바이스의 제어 방법.
  16. 제15항에 있어서,
    상기 3차원 포인팅을 위한 좌표에 대한 정보를 상기 디스플레이 장치에 송신하는 포인팅 디바이스의 제어 방법.
  17. 입체 영상용 안경에 있어서,
    포인팅 디바이스 및 디스플레이 장치와 통신을 수행하는 통신부; 및
    상기 포인팅 디바이스와 통신을 수행하도록 상기 통신부를 제어하여 상기 입체 영상용 안경과 상기 포인팅 디바이스와의 기준 거리 및 상기 입체 영상용 안경과 상기 포인팅 디바이스와의 측정 거리를 감지하고, 상기 기준 거리 및 상기 측정 거리에 기초하여 3차원 포인팅을 위한 깊이 정보를 판단하는 제어부를 포함하는 입체 영상용 안경.
  18. 디스플레이 장치에 있어서,
    포인팅 디바이스 및 입체 영상용 안경과 통신을 수행하는 통신부; 및
    상기 포인팅 디바이스 및 상기 입체 영상용 안경 중 적어도 하나로부터 상기 입체 영상용 안경과 상기 포인팅 디바이스와의 기준 거리 및 상기 입체 영상용 안경과 상기 포인팅 디바이스와의 측정 거리를 수신하도록 상기 통신부를 제어하고, 수신된 상기 기준 거리 및 상기 측정 거리에 기초하여 3차원 포인팅을 위한 깊이 정보를 판단하는 제어부를 포함하는 디스플레이 장치.
KR1020100060346A 2010-06-25 2010-06-25 포인팅 디바이스와 이의 제어 방법, 입체 영상용 안경 및 디스플레이 장치 KR20120000161A (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020100060346A KR20120000161A (ko) 2010-06-25 2010-06-25 포인팅 디바이스와 이의 제어 방법, 입체 영상용 안경 및 디스플레이 장치
US12/917,895 US20110316778A1 (en) 2010-06-25 2010-11-02 Pointing device, controlling method of the same, glasses for 3d image, and display apparatus
EP10191641.9A EP2400770A3 (en) 2010-06-25 2010-11-18 Pointing Device, Controlling Method of the Same, Glasses for 3D Image, and Display Apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100060346A KR20120000161A (ko) 2010-06-25 2010-06-25 포인팅 디바이스와 이의 제어 방법, 입체 영상용 안경 및 디스플레이 장치

Publications (1)

Publication Number Publication Date
KR20120000161A true KR20120000161A (ko) 2012-01-02

Family

ID=44759808

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100060346A KR20120000161A (ko) 2010-06-25 2010-06-25 포인팅 디바이스와 이의 제어 방법, 입체 영상용 안경 및 디스플레이 장치

Country Status (3)

Country Link
US (1) US20110316778A1 (ko)
EP (1) EP2400770A3 (ko)
KR (1) KR20120000161A (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120218321A1 (en) * 2009-11-19 2012-08-30 Yasunori Ake Image display system
JP2024035526A (ja) * 2022-09-02 2024-03-14 キヤノン株式会社 情報処理装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4825116A (en) * 1987-05-07 1989-04-25 Yokogawa Electric Corporation Transmitter-receiver of ultrasonic distance measuring device
US5239463A (en) * 1988-08-04 1993-08-24 Blair Preston E Method and apparatus for player interaction with animated characters and objects
JP3795647B2 (ja) * 1997-10-29 2006-07-12 株式会社竹中工務店 ハンドポインティング装置
JP3363837B2 (ja) * 1999-06-11 2003-01-08 キヤノン株式会社 ユーザインタフェース装置および情報処理方法
US6771294B1 (en) * 1999-12-29 2004-08-03 Petri Pulli User interface
AU2001233019A1 (en) * 2000-01-28 2001-08-07 Intersense, Inc. Self-referenced tracking
EP1709519B1 (en) * 2003-12-31 2014-03-05 ABB Research Ltd. A virtual control panel
DE102005061211B4 (de) * 2004-12-22 2023-04-06 Abb Schweiz Ag Verfahren zum Erzeugen einer Mensch-Maschine-Benutzer-Oberfläche
US7379078B1 (en) * 2005-10-26 2008-05-27 Hewlett-Packard Development Company, L.P. Controlling text symbol display size on a display using a remote control device
US8073198B2 (en) * 2007-10-26 2011-12-06 Samsung Electronics Co., Ltd. System and method for selection of an object of interest during physical browsing by finger framing
US8179604B1 (en) * 2011-07-13 2012-05-15 Google Inc. Wearable marker for passive interaction

Also Published As

Publication number Publication date
EP2400770A3 (en) 2014-07-23
EP2400770A2 (en) 2011-12-28
US20110316778A1 (en) 2011-12-29

Similar Documents

Publication Publication Date Title
JP3772137B2 (ja) ポインティング装置
US10403047B1 (en) Information handling system augmented reality through a virtual object anchor
TWI647595B (zh) 人體姿勢偵測系統、穿戴裝置以及方法
US9529442B2 (en) Head mounted display providing eye gaze calibration and control method thereof
KR101284797B1 (ko) 착용형 컴퓨팅 환경 기반의 사용자 인터페이스 장치 및 그 방법
JP2018125007A5 (ko)
US9311883B2 (en) Recalibration of a flexible mixed reality device
TW201911133A (zh) 用於多個自由度之控制器追蹤
US20160247322A1 (en) Electronic apparatus, method and storage medium
KR20110037053A (ko) 영상센서를 이용한 3차원 공간 터치 입력장치 및 그 방법
KR20170043911A (ko) 전자 장치 및 그 제어 방법
US20150339859A1 (en) Apparatus and method for navigating through volume image
US20150084897A1 (en) System and method for five plus one degree-of-freedom (dof) motion tracking and visualization
CN111712780A (zh) 用于增强现实的系统和方法
TW201830050A (zh) 追蹤系統、追蹤裝置及追蹤方法
US20230343052A1 (en) Information processing apparatus, information processing method, and program
CN108563332A (zh) 指控三维无线鼠标及其操控智能设备的方法
KR20120000161A (ko) 포인팅 디바이스와 이의 제어 방법, 입체 영상용 안경 및 디스플레이 장치
KR101665027B1 (ko) 헤드 마운트 디스플레이용 헤드 트래킹 바 시스템
CN106919928A (zh) 手势识别系统、方法及显示设备
US20240281087A1 (en) Systems and methods for dynamic shape sketching using position indicator and processing device that displays visualization data based on position of position indicator
JP2023047025A (ja) 測量システム
KR100520050B1 (ko) 응시방향 기반의 머리착용형 컴퓨터 인터페이스 장치 및방법
WO2022228056A1 (zh) 一种人机交互方法及设备
TWI521421B (zh) 互動式影像顯示系統及影像提供裝置

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20100625

PG1501 Laying open of application
PC1203 Withdrawal of no request for examination
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid