KR101557025B1 - 3차원 인터페이스 장치 및 이를 이용한 인터페이스 방법 - Google Patents

3차원 인터페이스 장치 및 이를 이용한 인터페이스 방법 Download PDF

Info

Publication number
KR101557025B1
KR101557025B1 KR1020080113254A KR20080113254A KR101557025B1 KR 101557025 B1 KR101557025 B1 KR 101557025B1 KR 1020080113254 A KR1020080113254 A KR 1020080113254A KR 20080113254 A KR20080113254 A KR 20080113254A KR 101557025 B1 KR101557025 B1 KR 101557025B1
Authority
KR
South Korea
Prior art keywords
motion
wind
pattern
display unit
interface
Prior art date
Application number
KR1020080113254A
Other languages
English (en)
Other versions
KR20100054352A (ko
Inventor
강정민
조성일
서영광
정기준
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020080113254A priority Critical patent/KR101557025B1/ko
Priority to US12/486,183 priority patent/US8799825B2/en
Priority to EP09164763A priority patent/EP2187287A3/en
Publication of KR20100054352A publication Critical patent/KR20100054352A/ko
Application granted granted Critical
Publication of KR101557025B1 publication Critical patent/KR101557025B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

모션을 기초로 동작되는 3차원 인터페이스 장치 및 이를 이용한 인터페이스 방법이 제공된다. 본 인터페이스 장치는, 모션 감지 센서, 바람의 패턴을 결정하는 제어부 및 바람을 생성하는 바람 생성 모듈을 포함한다. 이에 의해, 사용자로 하여금, 보다 쉽고 편리하며 직감적으로 GUI를 조작할 수 있도록 한다.
3차원 카메라 센서, 모션

Description

3차원 인터페이스 장치 및 이를 이용한 인터페이스 방법{3D INTERFACE APPARATUS AND INTERFACE METHOD USING THE SAME}
본 발명은, 3차원 인터페이스 장치 및 이를 이용한 인터페이스 방법에 관한 것으로서, 더욱 상세하게는, 모션을 기초로 동작되는 3차원 인터페이스 장치 및 이를 이용한 인터페이스 방법에 관한 것이다.
전자 기기의 기능이 다양해지면서, 오늘날의 전자 기기는 대부분 GUI(Graphic User Interface)를 통해 사용자로부터 명령을 입력받아 실행된다.
한편, 사용자로부터 명령을 입력받아 실행되는 전자기기들은, 사용자의 명령을 단순히 수신하여 수신된 명령에 따른 동작을 할 뿐이기 때문에, 전자기기가 실행되는 모습을 본 후에야 사용자의 명령이 제대로 입력되었는지 여부를 알 수 있게 된다.
따라서, 사용자의 명령을 수신함과 동시에 사용자의 명령에 대응되는 액션을 제공함으로써, 사용자로 하여금 올바른 명령이 입력되었는지 여부를 직감적으로 알 수 있도록 하는 방안이 모색된다.
본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, 사용자가 보다 쉽고, 편리하며, 직관적으로 GUI(Graphic User Interface)를 조작할 수 있도록 하는 3차원 인터페이스 장치 및 이를 이용한 인터페이스 방법을 제공함에 있다.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 모션을 기초로 동작되는 인터페이스 장치는, 3차원 공간에서의 모션을 감지하는 모션 감지 센서; 상기 모션에 기초하여 바람의 패턴을 결정하는 제어부; 및 상기 결정된 패턴에 따라 바람을 생성하는 바람 생성 모듈;을 포함한다.
여기서, 상기 제어부는, 상기 모션의 방향, 속도, 크기, 위치, 형태 중 적어도 하나에 기초하여, 상기 바람의 패턴을 결정할 수 있다.
또한, 상기 바람의 패턴은, 상기 바람의 세기, 온도, 냄새, 성분, 방향 중 적어도 하나에 관한 패턴을 포함할 수 있다.
한편, 본 실시예에 따른 인터페이스 장치는, 디스플레이부;를 더 포함하고, 상기 제어부는, 상기 모션에 기초하여 상기 디스플레이부에 표시되는 화면이 변경되도록 할 수 있다.
그리고, 상기 모션 감지 센서는 상기 디스플레이부의 일측에 위치하여, 상기 디스플레이부의 타측에 위치한 3차원 공간에서의 모션을 감지할 수 있다.
또한, 상기 제어부는, 상기 디스플레이부에 출력되는 화면과 상기 모션의 조합에 기초하여 상기 바람의 패턴을 결정할 수 있다.
그리고, 상기 모션 감지 센서는, 복수의 물체에 대한 모션의 감지가 가능하 고, 상기 제어부는, 상기 복수의 물체에 대한 모션을 비교하여, 상기 바람의 패턴을 결정할 수 있다.
한편, 본 실시예에 따른 인터페이스 장치는, 상기 모션에 대응되는 패턴을 저장하는 저장부;를 더 포함하고, 상기 제어부는, 상기 저장된 패턴에 기초하여 상기 바람을 생성할 수 있다.
한편, 상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 모션 감지 센서에 감지된 모션을 기초로 동작하는 인터페이스 방법은, 3차원 공간에서의 모션을 감지하는 단계; 상기 모션에 기초하여 바람의 패턴을 결정하는 단계; 및 상기 결정된 패턴에 따라 바람을 생성하는 단계;를 포함한다.
여기서, 상기 패턴 결정 단계는, 상기 모션의 방향, 속도, 크기, 위치, 형태 중 적어도 하나에 기초하여, 상기 바람의 패턴을 결정할 수 있다.
그리고, 상기 바람의 패턴은, 상기 바람의 세기, 온도, 냄새, 성분, 방향 중 적어도 하나에 관한 패턴을 포함할 수 있다.
그리고, 상기 패턴 결정 단계는, 디스플레이에 출력되는 화면과 상기 모션의 조합에 기초하여 상기 바람의 패턴을 결정할 수 있다.
또한, 상기 모션 감지 단계는, 복수의 물체에 대한 모션의 감지하는 단계;를 포함하고, 상기 패턴 결정 단계는, 상기 복수의 물체에 대한 모션을 비교하여, 상기 바람의 패턴을 결정할 수 있다.
그리고, 상기 바람 생성 단계는, 상기 모션에 대응되어 기저장된 패턴에 기초하여 상기 바람을 생성할 수 있다.
이에 의해, 사용자는, 보다 쉽고 편리하게 3차원 인터페이스 조작을 할 수 있으며, 3차원 인터페이스 조작에 따른 결과를 직감적으로 알 수 있게 된다.
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.
도 1은, 본 발명의 일 실시예에 따른, 인터페이스 장치(100)의 구성을 도시한 도면이다.
인터페이스 장치(100)는, 사용자의 모션을 감지하고, 감지된 모션을 기초로 바람의 패턴을 결정한다. 또한, 인터페이스 장치(100)는, 결정된 패턴에 따라 바람을 생성하여 사용자에게 제공한다.
도시된 바와 같이, 인터페이스 장치(100)는 멀티미디어 기능 블럭(110), 디스플레이부(120), 3차원 카메라 센서(130), 제어부(140), 바람 생성 모듈(150), 그리고, 저장부(160)를 구비한다.
멀티미디어 기능 블럭(110)은, 사용자의 인터페이스 조작에 따른 화면이 디스플레이되도록 한다. 멀티미디어 기능 블럭(110)은, 인터페이스 조작에 따른 화면이 디스플레이되도록 하기 위해, 메뉴 아이템 또는 컨텐츠 아이템과 같은 GUI(Graphic User Interface)를 생성하며, 동영상, 정지영상, 음악, 텍스트 등의 컨텐츠를 재생하는 등 인터페이스 조작에 대응되는 기능을 수행한다.
디스플레이부(120)는, 멀티미디어 기능 블럭(110)에서 생성된 GUI 및 멀티미디어 기능 블럭(110)에서 재생된 컨텐츠를 표시한다.
3차원 카메라 센서(130)는, 사용자의 3차원 모션에 따른 인터페이스 조작을 입력받는 수단으로 기능한다. 이러한 3차원 카메라 센서(130)는, 주로, 사용자의 손가락의 움직임에 따른 인터페이스 조작을 감지하여, 감지된 모션에 관한 정보를 제어부(140)로 전달한다. 여기서, 모션에 관한 정보는, 모션의 3차원 좌표 정보 및 모션의 형태 정보를 포함하는데, 이에 대한 내용은 후술한다.
바람 생성 모듈(150)은, 제어부(140)에 의해 결정된 바람 패턴에 따른 바람을 생성하여 사용자에게 제공한다. 이러한 바람 생성 모듈(150)은, 전원을 공급받아 바람을 생성하기 위한 팬(미도시) 및 생성된 바람을 외부로 분출하기 위한 분출구(미도시)를 포함하며, 이러한 분출구(미도시)는, 디스플레이부(120)의 네 모서리 등에 마련될 수 있다. 또한, 분출구(미도시)는, 디스플레이부(120)와 함께 마련되어, 화면을 표시함과 동시에 바람을 제공하는 것도 가능하다.
저장부(160)는, 인터페이스 장치(100)를 구동시키기 위한 프로그램들이 저장되어 있는 저장매체로서, 메모리, HDD(Hard Disk Drive) 등으로 구현가능하다.
또한, 저장부(160)는, 모션에 대응되는 제어 명령의 유형을 룩업테이블로 저장하며, 제어부(140)는, 저장부(160)에 저장된 제어 명령의 유형을 기초로 하여, 기설정된 방식에 따른 바람의 패턴을 결정한다.
제어부(140)는, 3차원 카메라 센서(130)를 통해 감지된 모션을 이용하여 제어 명령을 생성한다. 구체적으로, 제어부(140)는, 감지된 3차원 모션의 3차원 좌표 정보 및 형태 정보를 추출하고, 추출된 3차원 좌표 정보 및 형태 정보를 이용하여, 제어 명령을 생성한다.
모션의 3차원 좌표 정보는, 3차원 카메라 센서(130)의 감지 범위 내에서, 모 션에 대한 좌표의 정보를 의미한다. 예를 들어, A라는 3차원 공간상의 지점에서 B라는 3차원 공간상의 지점으로 사용자의 모션이 이동되었고, A 지점의 좌표가 (0, 1, 2)이고, B 지점의 좌표가 (2, 4, 6)이라면, 모션에 대한 좌표의 정보는, 최종 위치인 (2, 4, 6) 또는 최초 위치에서 최종 위치로의 변화량인 (2, 3, 4)가 된다.
모션의 형태 정보는, 3차원 카메라 센서(130)의 감지 범위 내에서, 모션의 형태에 관한 정보를 의미한다. 예를 들어, C라는 사용자가 주먹을 쥐고 있다면, 모션의 형태에 관한 정보는, '주먹' 형태라는 정보가 된다.
이와 같이, 제어부(140)는, 모션의 3차원 좌표 정보 및 형태 정보를 이용하여, 모션의 방향, 속도, 크기, 위치, 형태 등 모션 정보를 파악하고, 모션 정보를 이용하여 모션 정보에 대응되는 제어 명령을 생성한다.
우선, 제어부(140)는, 모션 정보만을 이용해 바람의 패턴만을 결정하는 제어 명령을 생성한다. 여기서, 바람의 패턴이란, 바람의 세기, 온도, 냄새, 성분, 방향 중 적어도 하나에 관한 패턴을 의미한다.
한편, 바람의 세기에 관한 패턴을 결정하기 위해, 본 실시예에 따른 인터페이스 장치(100)는, 입력된 신호에 따라 팬(미도시)의 회전속도를 변경시키는 방법을 이용할 수 있다. 즉, 인터페이스 장치(100)는, 센 바람을 생성하기 위해 팬(미도시)을 세게 동작시키고, 약한 바람을 생성하기 위해 팬(미도시)을 약하게 동작시킬 수 있다.
또한, 바람의 온도에 관한 패턴을 결정하기 위해, 본 실시예에 따른 인터페이스 장치(100)는, 바람 생성 모듈(150)의 주위에, 냉각 모듈(미도시) 및 가열 모 듈(미도시)을 추가로 구비할 수 있다. 즉, 인터페이스 장치(100)는, 더운 바람을 생성하기 위해 가열 모듈(미도시)에 전원을 공급하여 가열 모듈(미도시)이 동작되도록 하고, 바람 생성 모듈(150)에서 생성된 바람이 가열되도록 할 수 있다. 또한, 차가운 바람을 생성하기 위해 냉각 모듈(미도시)에 전원을 공급하여 냉각 모듈(미도시)이 동작되도록 하고, 바람 생성 모듈(150)에서 생성된 바람이 냉각되도록 할 수 있다.
그리고, 바람의 냄새 또는 성분에 관한 패턴을 결정하기 위해, 본 실시예에 따른 인터페이스 장치(100)는, 바람 생성 모듈(150)의 주위에, 냄새 보관 장치(미도시) 또는 성분 보관 장치(미도시)를 추가로 구비할 수 있다. 즉, 인터페이스 장치(100)는, 냄새나는 바람을 생성하기 위해, 닫혀져 있던 냄새 보관 장치(미도시) 또는 성분 보관 장치(미도시)의 마개가 열리도록 하여, 보관된 냄새 또는 보관된 성분이 포함된 바람이 생성되도록 할 수 있다.
또한, 바람의 방향에 관한 패턴을 결정하기 위해, 본 실시예에 따른 인터페이스 장치(100)는, 팬(미도시)의 방향을 변경시키거나, 여러 방향으로 향하고 있는 복수의 팬(미도시)을 구비할 수 있다. 즉, 인터페이스 장치(100)는, 다양한 방향으로 바람을 분출하기 위해, 원하는 방향을 향하고 있는 팬(미도시)만을 구동시키거나, 팬(미도시)의 방향을 원하는 방향으로 변경시킬 수 있다.
도 2는, 모션 정보를 이용해 바람이 생성되는 모습을 도시한 도면이다. 도시된 바와 같이, 디스플레이부(120)의 뒷쪽에서 앞쪽으로 손바닥을 이동시키게 되면, 디스플레이부(120)의 하단에 위치한 3차원 카메라 센서(130)는 이를 감지한다.
또한, 제어부(140)는, 감지된 모션 정보를 이용해 바람의 패턴을 결정하고, 결정된 패턴에 따른 바람이 생성되도록 바람 생성 모듈(150)을 제어하게 된다.
이 경우, 바람의 패턴은, 사용자의 손바닥의 모션 방향과 반대인 디스플레이부(120)의 앞쪽에서 뒷쪽을 향할 수 있다. 이와 같이, 사용자의 모션과 반대 방향으로 향하는 바람을 생성함으로 인해, 사용자로 하여금 보다 효과적으로 바람을 느끼게 할 수 있다.
또한, 제어부(140)는, 사용자의 모션의 속도, 크기, 위치, 형태에 따라 서로 다른 바람 패턴을 결정하도록 구현될 수 있다. 예를 들어, 사용자의 손바닥이 디스플레이부(120)의 뒷쪽에서 앞쪽으로 보다 빨리 움직이는 경우, 제어부(140)는, 천천히 움직이는 경우와 비교해 더 센 바람이 생성되도록 할 수 있다.
도 3은, 복수의 모션 정보를 이용해 바람이 생성되는 모습을 도시한 도면이다.
도시된 바와 같이, 두 명의 사용자가 가위바위보 게임을 하는 경우, 3차원 카메라 센서(130)는, 복수의 모션에 대한 감지를 할 수 있게 된다. 즉, 3차원 카메라 센서(130)는, 가위바위보 중 '보'의 형태와 '가위'의 형태로 된 모션을 각각 추출하고, 제어부(140)는, 추출된 두 개의 모션을 기초로 바람의 패턴을 결정할 수 있다.
따라서, 도시된 바와 같이, 제어부(140)는, 가위바위보 게임을 진 쪽 방향에 대한 바람 패턴을 결정하고, 바람 생성 모듈(150)은, 진 쪽 방향을 향해서만 바람을 분출하여 진 쪽 사용자가 벌칙을 받을 수 있도록 할 수 있다.
또한, 제어부(140)는, 디스플레이부(120)에 표시된 화면 정보와 모션 정보를 동시에 이용하여, 바람의 패턴을 결정하는 제어 명령을 생성한다.
이에 대한 구체적인 설명을 위해 도 4 및 도 5를 참조하여 설명하기로 한다.
도 4는, 화면 정보와 모션 정보를 이용해 냄새가 부가된 바람이 생성되는 모습을 도시한 도면이다. 도시된 바와 같이, 디스플레이부(120)에 장미꽃 화면이 표시되는 경우, 사용자가 냄새를 맡는 모션을 취하게 되면, 제어부(140)는, 장미꽃 냄새가 부가된 바람이 생성되도록 한다.
즉, 제어부(140)는, 장미꽃 화면이라는 화면 정보와 냄새를 맡는 모션이라는 모션 정보를 이용해, 장미꽃 냄새가 부가된 바람을 생성하게 되는 것이다.
도 5는, 화면 정보와 모션 정보를 이용해 차가운 바람이 생성되는 모습을 도시한 도면이다. 도시된 바와 같이, 디스플레이부(120)에 눈이 내리는 화면이 표시되는 경우, 사용자가 손바닥으로 부채질하는 모션을 취하게 되면, 제어부(140)는, 차가운 바람이 생성되도록 한다.
즉, 제어부(140)는, 눈이 내리는 화면이라는 화면 정보와 부채질하는 모션이라는 모션 정보를 이용해, 차가운 바람이 생성하게 되는 것이다.
한편, 도 4 및 도 5에서는, 바람의 냄새 및 온도를 변경시키는 경우에 대해 설명하였으나, 이는 설명의 편의를 위한 예시적 사항에 불과하다. 따라서, 화면 정보와 모션 정보를 이용하여 바람의 세기, 성분, 방향 등을 변경시키는 경우에도 본 발명의 기술적 사상이 그대로 적용될 수 있음은 물론이다.
또한, 제어부(140)는, 모션 정보를 이용하여 바람의 패턴을 결정함과 동시에 모션 정보를 이용하여 디스플레이부(120)에 표시된 화면을 변경시키도록 하는 제어 명령을 생성한다.
이에 대한 구체적인 설명을 위해 도 6을 참조하여 설명하기로 한다.
도 6은, 모션 정보를 이용하여 바람이 생성되고, 화면이 변경되는 모습을 도시한 도면이다. 특히, 도 6은, 디스플레이부(120)에 책 화면이 표시되고, 사용자가 책의 페이지를 넘기는 모션을 취할 경우, 바람이 생성되고, 화면이 변경되는 모습을 도시한 도면이다.
도시된 바와 같이, 디스플레이부(120)에 책 화면이 표시된 상태에서, 사용자가 3차원 카메라 센서(130)의 감지 범위 내에서 책의 페이지를 넘기는 모션을 취할 경우, 제어부(140)는, 디스플레이부(120)를 제어하여 책의 페이지가 넘어가는 화면이 표시되도록 하고, 바람 생성 모듈(150)을 제어하여, 책의 페이지가 넘어가는 방향으로 바람이 생성되도록 한다.
즉, 책의 페이지를 넘기는 모션 정보를 이용하여, 페이지가 넘어가는 방향으로의 바람이 생성되고, 이와 동시에 페이지가 넘어가는 화면이 표시되는 것이다.
도 7은 본 발명의 일 실시예에 따른 인터페이스 방법의 설명에 제공되는 흐름도이다.
우선, 제어부(140)는, 3차원 카메라 센서(130)를 통해 사용자의 3차원 모션이 감지되었는지 여부를 판단한다(S710).
사용자의 모션이 감지된 경우(S710-Y), 제어부(140)는 감지된 모션의 방향, 속도, 위치, 크기, 형태 등의 모션 정보를 판단한다(S720).
제어부(140)는 모션 정보를 이용해 룩업 테이블을 참조하여(S730), 감지된 모션에 대응되는 바람의 패턴을 결정한다(S740).
또한, 제어부(140)는, 결정된 패턴에 따라 바람이 생성되도록 바람 생성 모듈(150)을 제어한다(S750).
이후, 바람 생성 모듈(150)은, 분출구(미도시)를 통해 생성된 바람을 분출한다(S760).
이와 같이, 사용자는, 인터페이스 장치(100)를 사용하여, 보다 쉽고 편리하게 3차원 인터페이스 조작을 할 수 있으며, 3차원 인터페이스 조작에 따른 결과를 직감적으로 알 수 있게 된다.
이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
도 1은, 본 발명의 일 실시예에 따른, 인터페이스 장치(100)의 구성을 도시한 도면,
도 2는, 모션 정보를 이용해 바람이 생성되는 모습을 도시한 도면,
도 3은, 복수의 모션 정보를 이용해 바람이 생성되는 모습을 도시한 도면,
도 4는, 화면 정보와 모션 정보를 이용해 냄새가 부가된 바람이 생성되는 모습을 도시한 도면,
도 5는, 화면 정보와 모션 정보를 이용해 온도가 변경된 바람이 생성되는 모습을 도시한 도면,
도 6은, 모션 정보를 이용하여 바람이 생성되고, 화면이 변경되는 모습을 도시한 도면, 그리고,
도 7은 본 발명의 일 실시예에 따른 인터페이스 방법의 설명에 제공되는 흐름도이다.
*** 도면의 주요 부분에 대한 부호의 설명 ***
110 : 멀티미디어 기능 블럭 120 : 디스플레이부
130 : 3차원 카메라 센서 140 : 제어부
150 : 바람 생성 모듈 160 : 저장부

Claims (14)

  1. 모션을 기초로 동작되는 인터페이스 장치에 있어서,
    디스플레이부;
    3차원 공간에서의 모션을 감지하는 모션 감지 센서;
    상기 모션에 기초하여 바람의 패턴을 결정하는 제어부; 및
    상기 결정된 패턴에 따라 바람을 생성하는 바람 생성 모듈;을 포함하며,
    상기 제어부는,
    상기 모션의 방향, 속도, 크기, 위치, 형태 중 적어도 하나에 기초하여 상기 바람의 패턴을 결정하며,
    상기 모션에 기초하여 상기 디스플레이부에 표시되는 화면이 변경되도록 하는 것을 특징으로 하는 인터페이스 장치.
  2. 삭제
  3. 제 1항에 있어서,
    상기 바람의 패턴은,
    상기 바람의 세기, 온도, 냄새, 성분, 방향 중 적어도 하나에 관한 패턴을 포함하는 것을 특징으로 하는 인터페이스 장치.
  4. 삭제
  5. 제 1항에 있어서,
    상기 모션 감지 센서는 상기 디스플레이부의 일측에 위치하여, 상기 디스플레이부의 타측에 위치한 3차원 공간에서의 모션을 감지하는 것을 특징으로 하는 인터페이스 장치.
  6. 제 1항에 있어서,
    상기 제어부는,
    상기 디스플레이부에 출력되는 화면과 상기 모션의 조합에 기초하여 상기 바람의 패턴을 결정하는 것을 특징으로 하는 인터페이스 장치.
  7. 제 1항에 있어서,
    상기 모션 감지 센서는, 복수의 물체에 대한 모션의 감지가 가능하고,
    상기 제어부는,
    상기 복수의 물체에 대한 모션을 비교하여, 상기 바람의 패턴을 결정하는 것을 특징으로 하는 인터페이스 장치.
  8. 제 1항에 있어서,
    상기 모션에 대응되는 패턴을 저장하는 저장부;를 더 포함하고,
    상기 제어부는, 상기 저장된 패턴에 기초하여 상기 바람을 생성하는 것을 특징으로 하는 인터페이스 장치.
  9. 모션 감지 센서에 감지된 모션을 기초로 동작하는 인터페이스 방법에 있어서,
    3차원 공간에서의 모션을 감지하는 단계;
    상기 모션에 기초하여 바람의 패턴을 결정하는 단계;
    상기 결정된 패턴에 따라 바람을 생성하는 단계; 및
    상기 모션에 기초하여 디스플레이에 출력되는 화면을 변경하는 단계;를 포함하며,
    상기 패턴 결정 단계는,
    상기 모션의 방향, 속도, 크기, 위치, 형태 중 적어도 하나에 기초하여, 상기 바람의 패턴을 결정하는 것을 특징으로 하는 인터페이스 방법.
  10. 삭제
  11. 제 9항에 있어서,
    상기 바람의 패턴은,
    상기 바람의 세기, 온도, 냄새, 성분, 방향 중 적어도 하나에 관한 패턴을 포함하는 것을 특징으로 하는 인터페이스 방법.
  12. 제 9항에 있어서,
    상기 패턴 결정 단계는,
    상기 디스플레이에 출력되는 화면과 상기 모션의 조합에 기초하여 상기 바람의 패턴을 결정하는 것을 특징으로 하는 인터페이스 방법.
  13. 제 9항에 있어서,
    상기 모션 감지 단계는, 복수의 물체에 대한 모션을 감지하는 단계;를 포함하고,
    상기 패턴 결정 단계는, 상기 복수의 물체에 대한 모션을 비교하여, 상기 바람의 패턴을 결정하는 것을 특징으로 하는 인터페이스 방법.
  14. 제 9항에 있어서,
    상기 바람 생성 단계는,
    상기 모션에 대응되어 기저장된 패턴에 기초하여 상기 바람을 생성하는 것을 특징으로 하는 인터페이스 방법.
KR1020080113254A 2008-11-14 2008-11-14 3차원 인터페이스 장치 및 이를 이용한 인터페이스 방법 KR101557025B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020080113254A KR101557025B1 (ko) 2008-11-14 2008-11-14 3차원 인터페이스 장치 및 이를 이용한 인터페이스 방법
US12/486,183 US8799825B2 (en) 2008-11-14 2009-06-17 3D interface apparatus and interfacing method using the same
EP09164763A EP2187287A3 (en) 2008-11-14 2009-07-07 3D interface apparatus and interfacing method using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080113254A KR101557025B1 (ko) 2008-11-14 2008-11-14 3차원 인터페이스 장치 및 이를 이용한 인터페이스 방법

Publications (2)

Publication Number Publication Date
KR20100054352A KR20100054352A (ko) 2010-05-25
KR101557025B1 true KR101557025B1 (ko) 2015-10-05

Family

ID=41571741

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080113254A KR101557025B1 (ko) 2008-11-14 2008-11-14 3차원 인터페이스 장치 및 이를 이용한 인터페이스 방법

Country Status (3)

Country Link
US (1) US8799825B2 (ko)
EP (1) EP2187287A3 (ko)
KR (1) KR101557025B1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120000663A (ko) * 2010-06-28 2012-01-04 주식회사 팬택 3d 객체 처리 장치
US9645733B2 (en) * 2011-12-06 2017-05-09 Google Inc. Mechanism for switching between document viewing windows
US9696879B2 (en) 2012-09-07 2017-07-04 Google Inc. Tab scrubbing using navigation gestures
KR101587060B1 (ko) * 2014-09-04 2016-01-20 현대자동차주식회사 차량 및 그 제어방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003256105A (ja) 2002-03-01 2003-09-10 Nippon Telegr & Teleph Corp <Ntt> 力覚提示装置および力覚提示方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2195227C (en) * 1994-07-19 2002-10-29 Junji Furusho Virtual reality and telereality system
EP0864145A4 (en) * 1995-11-30 1998-12-16 Virtual Technologies Inc TACTILE FEEDBACK FOR HUMAN / MACHINE INTERFACE
JP3469410B2 (ja) 1996-11-25 2003-11-25 三菱電機株式会社 ウェルネスシステム
US7667686B2 (en) * 2006-02-01 2010-02-23 Memsic, Inc. Air-writing and motion sensing input for portable devices
WO2009062153A1 (en) * 2007-11-09 2009-05-14 Wms Gaming Inc. Interaction with 3d space in a gaming system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003256105A (ja) 2002-03-01 2003-09-10 Nippon Telegr & Teleph Corp <Ntt> 力覚提示装置および力覚提示方法

Also Published As

Publication number Publication date
US8799825B2 (en) 2014-08-05
US20100125817A1 (en) 2010-05-20
EP2187287A3 (en) 2012-03-07
EP2187287A2 (en) 2010-05-19
KR20100054352A (ko) 2010-05-25

Similar Documents

Publication Publication Date Title
US11366512B2 (en) Systems and methods for operating an input device in an augmented/virtual reality environment
US9030498B2 (en) Combining explicit select gestures and timeclick in a non-tactile three dimensional user interface
US10545579B2 (en) Remote control with 3D pointing and gesture recognition capabilities
US11353962B2 (en) Free-space user interface and control using virtual constructs
US20200409532A1 (en) Input device for vr/ar applications
CN110168475B (zh) 操作集线器的方法以及用于与外围装置交互的系统
US11487353B2 (en) Systems and methods for configuring a hub-centric virtual/augmented reality environment
JP6074170B2 (ja) 近距離動作のトラッキングのシステムおよび方法
KR101481880B1 (ko) 휴대용 실감형 상호작용을 위한 시스템
TWI524210B (zh) 基於自然姿勢之使用者介面方法及系統
JP4323180B2 (ja) 自己画像表示を用いたインタフェース方法、装置、およびプログラム
EP3234742A2 (en) Methods and apparatus for high intuitive human-computer interface
WO2009148064A1 (ja) 画像認識装置および操作判定方法並びにプログラム
KR20100048090A (ko) 터치와 모션을 통해 제어 명령을 생성하는 인터페이스 장치, 인터페이스 시스템 및 이를 이용한 인터페이스 방법
KR101557025B1 (ko) 3차원 인터페이스 장치 및 이를 이용한 인터페이스 방법
US20120208639A1 (en) Remote control with motion sensitive devices
US20100277422A1 (en) Touchpad display
JP2013037675A5 (ko)
EP3549127B1 (en) A system for importing user interface devices into virtual/augmented reality
KR20140040246A (ko) 컴퓨터 비젼 애플리케이션들에서 상호작용 반경을 확대하기 위한 제스쳐-제어 기법
JP2004258766A (ja) 自己画像表示を用いたインタフェースにおけるメニュー表示方法、装置、プログラム
CN108536348A (zh) 用于提供操作界面的方法和操作系统
KR20180004117A (ko) 3 차원 움직임의 트랜슬레이션 구성
JP2008181434A (ja) 入出力システム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180830

Year of fee payment: 4