KR101437424B1 - 사용자 인터랙션 시스템 및 방법 - Google Patents

사용자 인터랙션 시스템 및 방법 Download PDF

Info

Publication number
KR101437424B1
KR101437424B1 KR1020120036647A KR20120036647A KR101437424B1 KR 101437424 B1 KR101437424 B1 KR 101437424B1 KR 1020120036647 A KR1020120036647 A KR 1020120036647A KR 20120036647 A KR20120036647 A KR 20120036647A KR 101437424 B1 KR101437424 B1 KR 101437424B1
Authority
KR
South Korea
Prior art keywords
user
hand
tactile
ultrasonic transducers
tactile transmission
Prior art date
Application number
KR1020120036647A
Other languages
English (en)
Other versions
KR20130114367A (ko
Inventor
최광순
정광모
안양근
Original Assignee
전자부품연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전자부품연구원 filed Critical 전자부품연구원
Priority to KR1020120036647A priority Critical patent/KR101437424B1/ko
Publication of KR20130114367A publication Critical patent/KR20130114367A/ko
Application granted granted Critical
Publication of KR101437424B1 publication Critical patent/KR101437424B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/043Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using propagating acoustic waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

사용자 인터랙션 시스템 및 방법이 제공된다. 본 사용자 인터랙션 시스템은, 사용자에게 영상을 제공하는 디스플레이 장치, 사용자 손의 3차원 위치를 감지하는 센싱 장치 및 사용자의 손에 촉감을 비접촉식으로 전달하되 사용자 손의 3차원 위치를 기초로 촉감 전달 위치 및 세기를 결정하는 촉감 전달 장치를 포함한다. 이에 의해, 글러브 형태의 햅틱 장치 없이도 사용자의 손에 촉감을 비접촉식으로 다양한 패턴에 따라 전달할 수 있게 된다.

Description

사용자 인터랙션 시스템 및 방법{System and method for user interaction}
본 발명은 사용자 인터랙션 시스템 및 방법에 관한 것으로, 더욱 상세하게는 사용자에게 촉감을 인터랙션으로 제공하는 사용자 인터랙션 시스템 및 방법에 관한 것이다.
정보기기와 사용자의 상호 인터페이스 기술은 다양하게 발전하여 왔다. 이러한 인터페이스 기술은 사용자의 의지, 원하는 입력을 정보기기에 전달할 수 있는 과정(입력 과정)을 위한 입력기술과 이에 대해 사용자가 제대로 입력을 하였는지 알려주는 과정 또는 정보기기가 사용자의 의지(입력)를 인지하였음을 알려주는 피드백(feedback) 과정으로 나뉠 수 있다.
컴퓨터라는 정보기기의 입력 과정의 경우, 키보드, 마우스는 입력 과정을 위한 도구, 기술이라 할 수 있을 것이고, 피드백은 1차적으로 마우스나 키보드를 눌렀을 때의 물리적으로 전달되는 손의 느낌과 2차적으로 사용자 입력이 모니터 화면에 반응으로 나타나는 것을 예로 들 수 있다.
이러한 사용자와 정보기기간의 인터페이스는 다양한 방법으로 진화하여 왔으며, 기술의 발전은 가능한 한 별도 도구의 도움없이 맨손으로 자유롭게 기기와 인터페이스 하는 방법으로 진화하고 있다. 예를 들어, 멀티터치를 인식하는 터치스크린, 별도의 도구 없이 허공에서 사용자의 움직임을 인식하는 제스쳐 인식 기술 등이 이에 해당된다.
터치스크린의 경우, 피드백 과정은 사용자가 화면을 터치할 때 터치스크린은 손끝에 진동을 전해줌으로써 사용자가 제대로 입력을 하였는지를 인지할 수 있게 한다.
하지만, 허공에서의 제스쳐를 통한 제스쳐 인식에서는 별도의 도구없이 사용자에게 이러한 피드백을 전달할 수 없다. 따라서 이러한 터치스크린의 진동과 같은 피드백을 주기 위해 글러브 형태의 다양한 햅틱 장치들이 개발되고 이용되어 왔다.
본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, 글러브 형태의 햅틱 장치 없이도 사용자의 손에 촉감을 비접촉식으로 다양한 패턴에 따라 전달하되, 사용자 손의 3차원 위치를 기초로 촉감 전달 위치 및 세기를 가변시킬 수 있는 사용자 인터랙션 시스템 및 방법을 제공함에 있다.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 사용자 인터랙션 시스템은, 사용자에게 영상을 제공하는 디스플레이 장치; 상기 사용자 손의 3차원 위치를 감지하는 센싱 장치; 및 상기 사용자의 손에 촉감을 비접촉식으로 전달하되, 상기 사용자 손의 3차원 위치를 기초로 촉감 전달 위치 및 세기를 결정하는 촉감 전달 장치;를 포함한다.
그리고, 상기 촉감 전달 장치는, 상기 사용자 손의 수평면상 위치를 기초로, 촉감 발생 위치를 결정하고, 상기 사용자 손의 높이를 기초로, 촉감 발생 세기를 결정할 수 있다.
또한, 상기 촉감 전달 장치는, 상기 사용자 손의 높이 및 상기 사용자의 손으로 제공할 인터랙션의 종류를 기초로, 촉감 발생 세기를 결정할 수 있다.
그리고, 상기 촉감 전달 장치는, 제1 방향으로 상기 사용자의 손에 촉감을 비접촉식으로 전달하는 제1 전달기; 및 상기 제1 방향과 다른 제2 방향으로 상기 사용자의 손에 촉감을 비접촉식으로 전달하는 제2 전달기;를 포함할 수 있다.
또한, 상기 제1 방향은, 상향, 하향, 좌향 및 우향 중 어느 하나이고, 상기 제2 방향은, 상향, 하향, 좌향 및 우향 중 다른 하나일 수 있다.
그리고, 상기 촉감 전달 장치는, 상기 사용자에 촉감 전달을 위해 초음파을 방사하는 다수의 초음파 변환기들; 상기 센싱 장치로부터 상기 사용자 손의 3차원 위치를 수신하는 인터페이스; 상기 인터페이스를 통해 전달받은 상기 사용자 손의 3차원 위치를 기초로, 초음파를 방사할 초음파 변환기들 및 초음파 변환기들에서의 방사 세기들을 결정하는 프로세서; 상기 프로세서에서 결정한 초음파 변환기들 및 방사 세기들에 따라 상기 초음파 변환기들을 구동하기 위한 구동신호들을 생성하는 구동기; 및 상기 구동기에서 생성된 구동신호들을 각각 증폭하여 상기 초음파 변환기들에 각각 전달하는 증폭기;를 포함할 수 있다.
또한, 상기 구동기는, 상기 초음파 변환기들 각각에 대해 할당된 레지스터들; 상기 프로세서에서 결정한 초음파 변환기들 및 방사 세기들이 수록된 제어신호를 수신하는 인터페이스; 상기 인터페이스를 통해 수신한 상기 제어신호에 수록된 상기 초음파 변환기들에 할당된 레지스터들에 상기 방사 세기들을 세팅하는 디코더; 및 상기 레지스터들 각각에 매칭되며, 자신에 매칭된 레지스터에 세팅된 방사 세기에 부합하는 구동신호를 생성하여 상기 증폭기로 전달하는 구동신호 생성기들;을 포함할 수 있다.
한편, 본 발명의 다른 실시예에 따른, 사용자 인터랙션 방법은, 사용자에게 영상을 제공하는 단계; 상기 사용자 손의 3차원 위치를 감지하는 단계; 상기 사용자 손의 3차원 위치를 기초로 촉감 전달 위치 및 세기를 결정하는 단계; 및 결정된 상기 촉감 전달 위치 및 세기에 따라, 상기 사용자의 손에 촉감을 비접촉식으로 전달하는 단계;를 포함한다.
이상 설명한 바와 같이, 본 발명에 따르면, 사용자 손의 3차원 위치를 기초로 촉감 전달 위치 및 세기를 가변시킬 수 있게 되어, 글러브 형태의 햅틱 장치 없이도 사용자의 손에 촉감을 비접촉식으로 다양한 패턴에 따라 전달할 수 있게 된다.
또한, 공간상(허공)에서의 제스쳐 인식을 통한 사용자와 정보기기 간 인터페이스에서 사용자의 입력(제스쳐)이 제대로 되었는지 물리적인 피드백을 줌으로써 사용자에게 정보가전기기가 제대로 인지하고 있음을 알려줄 수 있게 되며, 이로 인하여 사용자에게 조작상의 자유로움, 편안함 및 편리성을 줄 수 있게 된다.
도 1은 본 발명의 일 실시예에 따른, 비접촉식 촉감 전달 장치를 도시한 도면,
도 2는, 도 1에 도시된 촉감 전달 장치의 상세 블럭도,
도 3은 초음파 변환기 어레이의 배열 형태를 예시한 도면, 그리고,
도 4는, 도 2에 도시된 구동기의 상세 블럭도이다.
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.
도 1은 본 발명의 일 실시예에 따른, 비접촉식 촉감 전달 장치를 도시한 도면이다. 본 실시예에 따른 비접촉식 촉감 전달 장치는, 초음파를 이용하여 사용자에게 비접촉식으로 촉감을 전달하는 사용자 인터랙션 시스템의 일종에 해당한다.
사용자에게 촉감을 "비"접촉식으로 전달할 수 있으므로, 사용자는 촉감을 전달 받기 위해 몸에 별도 장치를 부착할 필요가 없다.
도 1에 도시된 바와 같이, 본 실시예에 따른 비접촉식 촉감 전달 장치는, 디스플레이 장치(100), 사용자 센싱 장치(200), 촉감 전달 장치(300)를 구비한다.
디스플레이 장치(100)는 사용자(U)에게 3D 영상을 제공하는 시스템이다. 디스플레이 장치(100)가 3D 영상 대신 2D 플로팅 영상과 같은 다른 영상을 제공하도록 구현하는 것도 가능하다.
사용자 센싱 장치(200)는 사용자 손의 3차원 위치를 감지하고, 감지된 사용자 손의 3차원 위치를 촉감 전달 장치(300)로 전달한다.
사용자 손의 3차원 위치를 감지하기 위해, 사용자 센싱 장치(200)는 Z(Depth)-카메라, 스테레오 카메라 등을 이용할 수 있다.
촉감 전달 장치(300)는 사용자의 손에 초음파를 방사하여, 방사되는 초음파의 음압에 의해 촉감을 비접촉식으로 전달한다. 초음파를 방사함에 있어, 촉감 전달 장치(300)는 사용자 센싱 장치(200)로부터 전달받은 사용자 손의 3차원 위치를 참조한다.
구체적으로, 촉감 전달 장치(300)는 사용자의 손의 3차원 위치를 기초로, 초음파 방사 위치 및 세기(즉, 촉감 전달 위치 및 세기)를 결정한다. 구체적으로, 촉감 전달 장치(300)는 사용자 손의 수평면상 위치(도 1에서 xy-평면상 위치)를 기초로, 초음파 방사 위치(촉감 발생 위치)를 결정한다. 그리고, 촉감 전달 장치(300)는 사용자 손의 높이(도 1에서 z축 상 위치)를 기초로, 초음파 방사 세기(촉감 발생 세기)를 결정한다.
이와 같이 동작하는 촉감 전달 장치(300)에 대해, 이하에서 도 2를 참조하여 상세히 설명한다. 도 2는 촉감 전달 장치(300)의 상세 블럭도이다.
도 2에 도시된 바와 같이, 촉감 전달 장치(300)는 외부 인터페이스(310), 프로세서(320), 구동기(330), 증폭기(340) 및 초음파 변환기 어레이(350)를 포함한다.
외부 인터페이스(310)는 사용자 센싱 장치(200)와 통신 가능하도록 연결되는 수단으로, 사용자 센싱 장치(200)로부터 사용자의 3차원 손 위치(x,y,z)를 실시간으로 수신하여 프로세서(320)로 전달한다.
프로세서(320)는 외부 인터페이스(310)로부터 전달받은 사용자의 손의 3차원 위치를 기초로, 초음파 방사를 제어하기 위한 제어신호를 생성한다. 제어신호는 초음파 방사 위치 및 세기(즉, 촉감 전달 위치 및 세기)를 제어하기 위한 신호이다.
구동기(330)는 프로세서(320)에서 생성된 제어신호로부터, 초음파 변환기 어레이(350)를 구성하는 다수의 초음파 변환기들을 구동하기 위한 각각의 구동신호들을 생성한다. 구동기(330)에 대한 상세한 설명은 도 4를 참조하여 상세히 후술한다.
증폭기(340)는 구동기(330)에서 생성된 구동신호들을 각각 증폭하여 초음파 변환기 어레이(350)의 초음파 변환기들에 각각 전달한다.
초음파 변환기 어레이(350)는 도 3에 도시된 바와 같이 다수의 초음파 변환기들이 매트릭스 형태로 배열되어 있다. 도 3에서는 "O" 하나가 초음파 변환기 하나를 의미한다.
초음파 변환기 어레이(350)를 구성하는 초음파 변환기들은 증폭기(340)를 통해 증폭된 구동신호들에 의해 각각 구동된다. 초음파 변환기 어레이(350)를 구성하는 초음파 변환기들의 개수가 n개인 경우, 구동신호들의 개수 역시 n개이다.
따라서, 1) 초음파 변환기-1은 구동신호-1에 의해 구동되고, 2) 초음파 변환기-2는 구동신호-2에 의해 구동되며, 3) 초음파 변환기-3은 구동신호-3에 의해 구동되고, ... , n) 초음파 변환기-n은 구동신호-n에 의해 구동된다.
도 4는, 도 2에 도시된 구동기(330)의 상세 블럭도이다. 도 4에 도시된 바와 같이, 구동기(330)는 통신 인터페이스(331), 디코더(332), 레지스터 어레이(333) 및 구동신호 생성부(334)를 구비한다.
통신 인터페이스(331)는 프로세서(320)와 통신 가능하도록 연결되는 수단으로, 프로세서(320)로부터 제어신호를 수신하여 디코더(332)로 전달한다.
제어신호에는 '초음파를 방사할 초음파 변환기들'에 대한 정보와 '초음파 변환기들에서의 방사 세기들'에 대한 정보가 수록되어 있다. 예를 들어, 제어신호에는, 1) '초음파 변환기-17'을 '레벨 10'으로 구동하고, 2) '초음파 변환기-18'을 '레벨 10'으로 구동하며, 3) '초음파 변환기-39'를 '레벨 10'으로 구동하고, ... , m) '초음파 변환기-58'을 '레벨 10'으로 구동하라는 명령이 수록될 수 있다.
초음파를 방사할 초음파 변환기들에 의해 초음파 방사 위치(즉, 촉감 전달 위치)가 결정되고, 초음파 변환기들에서의 방사 세기들에 의해 초음파 방사 세기(즉, 촉감 전달 세기)가 결정된다고 할 수 있다.
디코더(332)는 제어신호를 참고하여 레지스터 어레이(333)를 구성하는 레지스터들(333-1, 333-2, 333-3, ... , 333-n)을 세팅한다. 구체적으로, 디코더(332)는 '제어신호에서 지정하는 초음파 변환기'에 할당된 레지스터에 '제어신호에서 지정하는 세기'를 세팅한다.
제어신호가 전술한 예와 같은 경우, 디코더(332)는, 레지스터-17, 레지스터-18, 레지스터-39, ... , 레지스터-58에 레벨 10을 세팅하게 된다.
구동신호 생성부(334)는 다수의 초음파 변환기들을 각각 구동하기 위한 구동신호들을 생성하는 다수의 구동신호 생성기들(334-1, 334-2, 334-3, ... , 334-n)을 구비한다.
구동신호 생성기들(334-1, 334-2, 334-3, ... , 334-n)은 자신에 매칭된 레지스터들(333-1, 333-2, 333-3, ... , 333-n)에 세팅된 세기에 부합하는 구동신호들을 생성하여 전술한 증폭기(340)로 전달한다.
레지스터 어레이(333)가 예와 같이 세팅된 경우, 구동신호 생성기-17, 구동신호 생성기-18, 구동신호 생성기-39, ... , 구동신호 생성기-58이 레벨이 10인 구동 신호들을 각각 생성하게 된다.
자신에 할당된 레지스터가 세팅되지 않은 구동신호 생성기는 구동신호를 생성하지 않는데, 이 경우 초음파 변환기는 구동되지 않아 초음파가 방사되지 않는다.
지금까지, 초음파를 이용하여 사용자에게 비접촉식으로 촉감을 전달하는 비접촉식 촉감 전달 장치에 대해 바람직한 실시예를 들어 상세히 설명하였다.
위 실시예에서, '초음파를 방사할 초음파 변환기들'은 사용자 손의 수평면상 위치를 기초로 결정할 수 있는데, 이 경우 사용자 손의 아래 부분에 있는 초음파 변환기들에서 초음파가 방사하게 된다.
또한, '초음파 변환기들에서의 방사 세기들'은 사용자 손의 높이를 기초로 결정할 수 있는데, 이 경우 사용자 손이 높을수록 방사 세기들을 강하게 결정하고 사용자 손이 낮을수록 방사 세기들을 약하게 결정할 수 있다.
그리고, 초음파 변환기 어레이(350)를 구성하는 초음파 변환기들은 모두 함께 구동될 수 있음은 물론, 일부만이 구동될 수도 있다. 모두가 함께 구동되는 경우와 일부만 구동되는 경우 모두에 대해, 구동되는 초음파 변환기들의 방사 세기들은 모두 동일할 수 있음은 물론 각기 다를 수 있다.
구동되는 초음파 변환기들의 방사 세기들을 특정 패턴에 따라 각기 다르게 구동하면, 사용자에게 각기 다르게 느끼는 촉감을 전달할 수 있게 된다. 이때, 방사 패턴은 사용자에게 제공하고자 하는 인터랙션의 종류에 따라 결정할 수 있다.
예를 들어, 사용자가 특정 오브젝트를 선택한 경우, 특정 오브젝트를 확대시킨 경우, 특정 오브젝트를 제거한 경우, 각기 다른 패턴의 초음파 방사로 사용자에게 각기 다른 촉감을 전달할 수 있다.
한편, 위 실시예에서 제시한 초음파 변환기 어레이(350)가 설치된 패널이 도 1의 xy 평면상에서 이동되도록 구현가능하며, 이 경우 이동 방향/거리는 사용자 손의 위치를 기초로 결정할 수 있다. 이에 따르면, 사용자 손의 이동 영역이 넓을지라도, 작은 크기의 초음파 변환기 어레이(350)를 통해 사용자에게 촉감 전달이 가능하다.
또한, 위 실시예에서 촉감 전달 장치(300)는 한 방향(상향)으로 촉감을 전달하는 것을 상정하였는데, 이는 설명의 편의를 위한 일 예에 불과하다. 촉감 전달 장치(300)를 사용자 손의 상부에 더 설치하여 양 방향(상향, 하향)으로 촉감을 전달하는 것도 가능하다.
뿐만 아니라, 좌측에서 우측으로 촉감을 전달하는 촉감 전달 장치(300)와 우측에서 좌측으로 촉감을 전달하는 촉감 전달 장치(300)를 더 구비시켜, 4 방향(상향, 하향, 좌향 및 우향)으로 촉감을 전달하는 것도 가능함은 물론이다.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
100 : 디스플레이 장치 200 : 사용자 센싱 장치
300 : 촉감 전달 장치 310 : 외부 인터페이스
320 : 프로세서 330 : 구동기
331 : 통신 인터페이스 332 : 디코더
333 : 레지스터 어레이 334 : 구동신호 생성부
340 : 증폭기 350 : 초음파 변환기 어레이

Claims (8)

  1. 사용자에게 영상을 제공하는 디스플레이 장치;
    상기 사용자 손의 3차원 위치를 감지하는 센싱 장치; 및
    상기 사용자의 손에 촉감을 비접촉식으로 전달하되, 상기 사용자 손의 3차원 위치를 기초로 촉감 전달 위치 및 세기를 결정하는 촉감 전달 장치;를 포함하고,
    상기 촉감 전달 장치는,
    상기 센싱 장치에 의해 감지된 상기 사용자 손의 수평면상 위치를 기초로, 촉감 발생 위치를 결정하고,
    상기 센싱 장치에 의해 감지된 상기 사용자 손의 높이를 기초로, 촉감 발생 세기를 결정하는 것을 특징으로 하는 사용자 인터랙션 시스템.
  2. 삭제
  3. 제 1항에 있어서,
    상기 촉감 전달 장치는,
    상기 사용자 손의 높이 및 상기 사용자의 손으로 제공할 인터랙션의 종류를 기초로, 촉감 발생 세기를 결정하는 것을 특징으로 하는 사용자 인터랙션 시스템.
  4. 제 1항에 있어서,
    상기 촉감 전달 장치는,
    제1 방향으로 상기 사용자의 손에 촉감을 비접촉식으로 전달하는 제1 전달기; 및
    상기 제1 방향과 다른 제2 방향으로 상기 사용자의 손에 촉감을 비접촉식으로 전달하는 제2 전달기;를 포함하는 것을 특징으로 하는 사용자 인터랙션 시스템.
  5. 제 4항에 있어서,
    상기 제1 방향은, 상향, 하향, 좌향 및 우향 중 어느 하나이고,
    상기 제2 방향은, 상향, 하향, 좌향 및 우향 중 다른 하나인 것을 특징으로 하는 사용자 인터랙션 시스템.
  6. 제 1항에 있어서,
    상기 촉감 전달 장치는,
    상기 사용자에 촉감 전달을 위해 초음파을 방사하는 다수의 초음파 변환기들;
    상기 센싱 장치로부터 상기 사용자 손의 3차원 위치를 수신하는 인터페이스;
    상기 인터페이스를 통해 전달받은 상기 사용자 손의 3차원 위치를 기초로, 초음파를 방사할 초음파 변환기들 및 초음파 변환기들에서의 방사 세기들을 결정하는 프로세서;
    상기 프로세서에서 결정한 초음파 변환기들 및 방사 세기들에 따라 상기 초음파 변환기들을 구동하기 위한 구동신호들을 생성하는 구동기; 및
    상기 구동기에서 생성된 구동신호들을 각각 증폭하여 상기 초음파 변환기들에 각각 전달하는 증폭기;를 포함하는 것을 특징으로 하는 사용자 인터랙션 시스템.
  7. 제 6항에 있어서,
    상기 구동기는,
    상기 초음파 변환기들 각각에 대해 할당된 레지스터들;
    상기 프로세서에서 결정한 초음파 변환기들 및 방사 세기들이 수록된 제어신호를 수신하는 인터페이스;
    상기 인터페이스를 통해 수신한 상기 제어신호에 수록된 상기 초음파 변환기들에 할당된 레지스터들에 상기 방사 세기들을 세팅하는 디코더; 및
    상기 레지스터들 각각에 매칭되며, 자신에 매칭된 레지스터에 세팅된 방사 세기에 부합하는 구동신호를 생성하여 상기 증폭기로 전달하는 구동신호 생성기들;을 포함하는 것을 특징으로 하는 사용자 인터랙션 시스템.
  8. 사용자에게 영상을 제공하는 단계;
    상기 사용자 손의 3차원 위치를 감지하는 단계;
    상기 사용자 손의 3차원 위치를 기초로 촉감 전달 위치 및 세기를 결정하는 단계; 및
    결정된 상기 촉감 전달 위치 및 세기에 따라, 상기 사용자의 손에 촉감을 비접촉식으로 전달하는 단계;를 포함하고,
    상기 결정단계는,
    상기 감지단계에 의해 감지된 상기 사용자 손의 수평면상 위치를 기초로, 촉감 발생 위치를 결정하고,
    상기 감지단계에 의해 감지된 상기 사용자 손의 높이를 기초로, 촉감 발생 세기를 결정하는 것을 특징으로 하는 사용자 인터랙션 방법.
KR1020120036647A 2012-04-09 2012-04-09 사용자 인터랙션 시스템 및 방법 KR101437424B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120036647A KR101437424B1 (ko) 2012-04-09 2012-04-09 사용자 인터랙션 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120036647A KR101437424B1 (ko) 2012-04-09 2012-04-09 사용자 인터랙션 시스템 및 방법

Publications (2)

Publication Number Publication Date
KR20130114367A KR20130114367A (ko) 2013-10-17
KR101437424B1 true KR101437424B1 (ko) 2014-09-05

Family

ID=49634418

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120036647A KR101437424B1 (ko) 2012-04-09 2012-04-09 사용자 인터랙션 시스템 및 방법

Country Status (1)

Country Link
KR (1) KR101437424B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020085521A1 (ko) * 2018-10-23 2020-04-30 엘지전자 주식회사 입출력 장치 및 그것을 포함하는 차량

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101464327B1 (ko) * 2014-03-27 2014-11-25 연세대학교 산학협력단 3차원 에어터치 피드백 장치, 시스템 및 방법
JP6558764B2 (ja) * 2014-10-23 2019-08-14 公立大学法人首都大学東京 テレプレゼンスロボット
KR102174464B1 (ko) * 2018-10-08 2020-11-05 주식회사 토비스 공간 터치 감지 장치 및 이를 포함하는 표시 장치
KR20220089523A (ko) 2020-12-21 2022-06-28 현대자동차주식회사 압전 소자 및 그 제작 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110107692A (ko) * 2010-03-25 2011-10-04 동서대학교산학협력단 공간 멀티 인터랙션 기반 3차원 입체 인터랙티브 비전 시스템 및 그 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110107692A (ko) * 2010-03-25 2011-10-04 동서대학교산학협력단 공간 멀티 인터랙션 기반 3차원 입체 인터랙티브 비전 시스템 및 그 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020085521A1 (ko) * 2018-10-23 2020-04-30 엘지전자 주식회사 입출력 장치 및 그것을 포함하는 차량

Also Published As

Publication number Publication date
KR20130114367A (ko) 2013-10-17

Similar Documents

Publication Publication Date Title
US11656684B2 (en) Haptic gloves for virtual reality systems and methods of controlling the same
US10974138B2 (en) Haptic surround functionality
KR101437424B1 (ko) 사용자 인터랙션 시스템 및 방법
US7778112B2 (en) Apparatus and method for sensing of three-dimensional environmental information
KR101464327B1 (ko) 3차원 에어터치 피드백 장치, 시스템 및 방법
JP4044114B2 (ja) 把持式コンピュータインタラクティブデバイス
US8614669B2 (en) Touchless tablet method and system thereof
EP3287871B1 (en) Wearable device and method for providing feedback of wearable device
US8827909B2 (en) Ultrasound probe
CN104714687A (zh) 用于触觉显示参数的光学传输的系统和方法
JP2010224665A (ja) 光触覚変換システム、及び触覚フィードバックの提供方法
JP2010511960A (ja) 手首装着型ユーザ命令入力装置及びその方法
KR20140128305A (ko) 강화된 제스처 기반 상호작용 시스템 및 방법
TW200519708A (en) Contactless input device
CN107589827B (zh) 一种可识别手势的虚拟现实头盔及其手势识别方法
CN109782916A (zh) 基于超声触觉的盲文交互系统及其交互方法
KR20100009023A (ko) 움직임을 인식하는 장치 및 방법
US20090102789A1 (en) Input apparatus and operation method for computer system
KR20070035236A (ko) 3차원 위치인식 장치 및 방법
CN102681713B (zh) 三维触摸显示系统和方法
JP3278150B2 (ja) 仮想入力装置
CN112764593A (zh) 触控反馈控制方法、存储介质、触控反馈系统和终端设备
KR20160111880A (ko) 착용가능한 3차원 입력 장치와 외부 기기와의 연동 방법
JP2012083866A (ja) 指取り付け型触覚再現機能付き処理装置
KR20080017194A (ko) 무선 마우스 및 그의 구동 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190531

Year of fee payment: 6