KR20140052640A - 커서를 디스플레이에 디스플레이하기 위한 방법과 상기 방법을 수행할 수 있는 시스템 - Google Patents

커서를 디스플레이에 디스플레이하기 위한 방법과 상기 방법을 수행할 수 있는 시스템 Download PDF

Info

Publication number
KR20140052640A
KR20140052640A KR1020120118985A KR20120118985A KR20140052640A KR 20140052640 A KR20140052640 A KR 20140052640A KR 1020120118985 A KR1020120118985 A KR 1020120118985A KR 20120118985 A KR20120118985 A KR 20120118985A KR 20140052640 A KR20140052640 A KR 20140052640A
Authority
KR
South Korea
Prior art keywords
cursor
display
gesture
user
sensor
Prior art date
Application number
KR1020120118985A
Other languages
English (en)
Inventor
김민호
김경일
권동욱
이기상
이상보
이진경
진영구
최진욱
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020120118985A priority Critical patent/KR20140052640A/ko
Priority to DE102013111550.0A priority patent/DE102013111550A1/de
Priority to US14/062,043 priority patent/US20140118252A1/en
Priority to CN201310511794.3A priority patent/CN103777751A/zh
Publication of KR20140052640A publication Critical patent/KR20140052640A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units

Abstract

커서 디스플레이 방법이 개시된다. 상기 방법은 상기 디스플레이에서 커서를 디스플레이하는 단계와, 사용자의 제스쳐를 감지하는 단계와, 상기 감지된 제스쳐에 따라 상기 커서를 리사이즈하는 단계를 포함한다.

Description

커서를 디스플레이에 디스플레이하기 위한 방법과 상기 방법을 수행할 수 있는 시스템{Method for displaying a cursor on a display and system performing the same}
본 발명의 개념에 따른 실시 예는 제스쳐(gesture) 인식 기술에 관한 것으로, 특히 해당 제스쳐에 따라 적응적(adaptively)으로 커서를 디스플레이에 디스플레이할 수 있는 방법과 상기 방법을 수행할 수 있는 시스템에 관한 것이다.
디스플레이 기술이 발전함에 따라, 보다 현실적인 장면(scene)을 원하는 사용자의 욕구는 증가한다. 이에 따라, 상기 사용자에게 3차원 정보를 제공하기 위한 많은 방법들이 제안되고 있다. 디스플레이에서 디스플레이되는 커서(cursor) 또한 상기 사용자에게 보다 현실적으로 제공될 필요가 있다.
본 발명이 이루고자 하는 기술적인 과제는 해당 제스쳐에 따라 적응적으로 커서를 디스플레이할 수 있는 방법과 상기 방법을 수행할 수 있는 시스템을 제공하는 것이다.
본 발명의 실시 예에 따른 커서 디스플레이 방법은 상기 디스플레이에서 커서를 디스플레이하는 단계와, 사용자의 제스쳐를 감지하는 단계와 상기 감지된 제스쳐에 따라 상기 디스플레이에서 상기 커서를 리사이즈하는 단계를 포함한다.
상기 제스쳐를 감지하는 단계는 상기 사용자와 센서 사이의 거리를 주기적으로 계산하는 단계와, 상기 거리의 변화에 따라 상기 사용자의 움직임을 인식하는 단계와, 상기 사용자의 움직임을 상기 제스쳐로서 감지하는 단계를 포함할 수 있다.
실시 예에 따라 상기 커서를 리사이즈하는 단계는 상기 제스쳐가 감지되었을 때, 상기 거리의 변화에 따라 상기 디스플레이에서 이동될 상기 커서의 좌표를 계산하는 단계와, 상기 디스플레이에서 상기 커서를 상기 좌표로 이동시키는 단계와, 상기 좌표의 주변에서 디스플레이되는 객체의 사이즈를 분석하는 단계와, 상기 분석된 객체의 사이즈에 따라 상기 디스플레이에서 상기 커서를 리사이즈하는 단계를 포함할 수 있다.
다른 실시 예에 따라 상기 커서를 리사이즈하는 단계는 상기 제스쳐가 감지되기 전에 상기 디스플레이에서 디스플레이된 상기 커서의 제1좌표를 계산하는 단계와, 상기 제스쳐가 감지되었을 때, 상기 계산된 거리에 따라 상기 디스플레이에서 이동될 상기 커서의 제2좌표를 계산하는 단계와, 상기 제1좌표와 상기 제2좌표 사이의 거리 차이를 계산하는 단계와, 상기 커서를 상기 제1좌표에서 상기 제2좌표로 이동시키는 단계와, 상기 거리 차이에 따라 상기 제2좌표에서 상기 커서를 리사이즈하는 단계를 포함할 수 있다.
실시 예에 따라 상기 커서 디스플레이 방법은 상기 감지된 제스쳐에 따라 상기 커서의 컬러를 변화시키는 단계를 더 포함할 수 있다.
다른 실시 예에 따라 상기 커서 디스플레이 방법은 상기 감지된 제스쳐에 따라 상기 커서의 모양을 변화시키는 단계를 더 포함할 수 있다.
또 다른 실시 예에 따라 상기 커서 디스플레이 방법은 상기 커서의 위치를 상기 디스플레이에 사용자 인터페이스로 디스플레이하는 단계를 더 포함할 수 있다.
상기 사용자 인터페이스는 바-타입(bar-type)으로 표현될 수 있다. 실시 예에 따라 상기 사용자 인터페이스는 3차원 좌표로 표현될 수 있다.
실시 예에 따라 상기 커서 디스플레이 방법은 상기 감지된 제스쳐에 따라 상기 디스플레이에 디스플레이되는 객체를 이동시키는 단계를 더 포함할 수 있다.
실시 예에 따라 상기 커서 디스플레이 방법은 상기 감지된 제스쳐에 따라 상기 커서를 이동시키는 단계와, 상기 이동된 커서가 상기 디스플레이에 디스플레이되는 객체에 위치하는지 여부를 결정하는 단계를 더 포함할 수 있다.
실시 예에 따라 상기 커서 디스플레이 방법은 상기 커서가 상기 객체에 위치할 때, 상기 커서의 컬러를 변화시키는 단계를 더 포함할 수 있다.
다른 실시 예에 따라 상기 커서 디스플레이 방법은 상기 커서가 상기 객체에 위치할 때, 상기 커서를 하이라이트하는 단계를 더 포함할 수 있다.
실시 예에 따라 상기 커서 디스플레이 방법은 상기 커서가 상기 객체에 위치할 때, 상기 객체를 줌 아웃 또는 줌 인하는 단계를 더 포함할 수 있다.
또 다른 실시 예에 따라 상기 커서 디스플레이 방법은 상기 커서가 상기 객체에 위치할 때, 상기 커서를 리사이즈하는 단계를 더 포함할 수 있다.
실시 예에 따라 상기 커서 디스플레이 방법은 주변 빛을 감지하는 단계와, 상기 감지된 주변 빛의 방향에 따라 상기 커서의 그림자를 상기 디스플레이에 디스플레이하는 단계를 더 포함할 수 있다.
실시 예에 따라 상기 커서 디스플레이 방법은 상기 감지된 제스쳐에 따라 상기 디스플레이에서 디스플레이되는 배경을 변화시키는 단계를 더 포함할 수 있다.
실시 예에 따라 상기 커서 디스플레이 방법은 상기 감지된 제스쳐에 따라 상기 디스플레이의 가장 자리에 검은색을 디스플레이하는 단계를 더 포함할 수 있다.
실시 예에 따라 상기 제스쳐를 감지하는 단계는 제1센서를 이용하여 상기 사용자의 움직임을 인식하는 단계와, 상기 사용자의 움직임을 상기 제스쳐로서 감지하는 단계를 포함할 수 있다.
실시 예에 따라 상기 디스플레이에 상기 커서를 리사이즈하는 단계는 상기 제스쳐가 감지되었을 때, 제2센서를 이용하여 상기 사용자와 상기 제2센서 사이의 거리를 계산하는 단계와, 상기 계산된 거리에 따라 상기 디스플레이에서 이동될 상기 커서의 좌표를 계산하는 단계와, 상기 디스플레이에서 상기 커서를 상기 좌표로 이동시키는 단계와, 상기 좌표의 주변에서 디스플레이되는 객체의 사이즈를 분석하는 단계와, 상기 분석된 객체의 사이즈에 따라 상기 디스플레이에 상기 커서를 리사이즈하는 단계를 포함할 수 있다.
상기 제1센서는 모션 센서이고, 상기 제2센서는 깊이 센서일 수 있다.
본 발명의 실시 예에 따른 시스템은 커서를 디스플레이하는 디스플레이와, 사용자의 제스쳐를 감지하여 감지 신호를 출력하기 위한 감지기와, 상기 감지 신호에 따라 상기 커서를 리사이즈하고, 상기 리사이즈된 커서를 상기 디스플레이에서 디스플레이하기 위해 명령들을 실행하는 CPU를 포함한다.
상기 감지기는 상기 감지기와 상기 사용자 사이의 거리를 계산하기 위한 깊이 센서를 포함한다. 실시 예에 따라 상기 감지기는 상기 사용자의 움직임을 인식하기 위한 모션 센서를 더 포함할 수 있다. 실시 예에 따라 상기 감지기는 주변 빛을 감지하기 위한 빛 감지 센서를 더 포함할 수 있다.
본 발명의 실시 예에 따른 방법과 상기 방법을 수행할 수 있는 시스템은 해당 제스쳐에 따라 적응적으로 커서를 디스플레이에 디스플레이할 수 있는 효과가 있다.
본 발명의 상세한 설명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 상세한 설명이 제공된다.
도 1은 본 발명의 실시 예에 따른 시스템의 다이어그램을 나타낸다.
도 2부터 도 4는 도 1에 도시된 장치의 실시 예들을 나타내는 블록도이다.
도 5부터 도 17은 도 1에 도시된 디스플레이에서 디스플레이되는 커서의 실시 예들을 나타낸다.
도 18부터 도 24는 도 1에 도시된 디스플레이에서 디스플레이되는 커서의 디스플레이 방법들을 설명하기 위한 흐름도를 나타낸다.
본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시 예들에 대해서 특정한 구조적 또는 기능적 설명은 단지 본 발명의 개념에 따른 실시 예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시 예들은 다양한 형태들로 실시될 수 있으며 본 명세서에 설명된 실시 예들에 한정되지 않는다.
본 발명의 개념에 따른 실시 예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시 예들을 도면에 예시하고 본 명세서에서 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시 예들을 특정한 개시 형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물, 또는 대체물을 포함한다.
제1 또는 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만, 예컨대 본 발명의 개념에 따른 권리 범위로부터 벗어나지 않은 채, 제1구성 요소는 제2구성 요소로 명명될 수 있고 유사하게 제2구성 요소는 제1구성 요소로도 명명될 수 있다.
어떤 구성 요소가 다른 구성 요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성 요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성 요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성 요소가 다른 구성 요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는 중간에 다른 구성 요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성 요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.
본 명세서에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로서, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 본 명세서에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 본 명세서에 첨부된 도면들을 참조하여 본 발명의 실시 예들을 상세히 설명한다.
도 1은 본 발명의 실시 예에 따른 시스템의 다이어그램을 나타낸다.
도 1을 참조하면, 시스템(100)은 제스쳐 센싱 장치(gesture sensing apparatus)로서 이용될 수 있다. 예컨대, 시스템(100)은 스마트 TV, 휴대용 게임 콘솔(handheld game console), PC(personal computer), 스마트 폰, 또는 태블릿 (tablet) PC로 구현될 수 있다. 시스템(100)은 장치(device; 10)와 디스플레이 (display; 40)를 포함한다. 장치(10)와 디스플레이(40)는 전기적으로 접속된다. 실시 예에 따라, 장치(10)와 디스플레이(40)는 하나의 장치로 구현될 수 있다.
장치(10)는 사용자(31)의 제스쳐(gesture)를 감지할 수 있는 감지기(11)를 포함한다. 장치(10)의 구조와 동작은 도 2를 참조하여 상세히 설명될 것이다.
감지기(11)는 깊이 센서(depth sensor)를 포함할 수 있다. 상기 깊이 센서는 TOF(time-of-flight) 원리를 이용하여 사용자(31)의 제스쳐를 감지하기 위해 이용될 수 있다. 실시 예에 따라, 상기 깊이 센서는 거리 센서(distance sensor)라고 q불릴 수 있다.
상기 제스쳐는 사용자(31)의 신체의 일부, 예컨대 손의 움직임을 포함한다. 예컨대, 사용자(31)의 손이 제1위치(33)로부터 제2위치(35)로 움직일 때, 감지기 (11)는, 사용자(31)와 감지기(11) 사이의 거리를 주기적으로 계산함으로써, 손의 위치 변화를 인식한다. 상기 손의 위치 변화는 제스쳐로서 인식된다.
실시 예에 따라, 제스쳐는 사용자(31)의 눈의 움직임 또는 다른 부분의 움직임을 포함할 수 있다. 또한, 실시 예에 따라, 감지기(11)는 모션(motion) 센서를 포함할 수 있다. 상기 모션 센서를 이용하여 상기 제스쳐가 인식될 수 있다.
디스플레이(40)는 사용자(31)에게 3차원 이미지를 제공한다. 예컨대, 디스플레이(40)는 스테레오스코픽(streoscopics) 기술을 이용하여 사용자(31)에게 3차원 이미지를 제공할 수 있다. 실시 예에 따라, 디스플레이(40)는 3차원 디스플레이일 수 있다.
즉, 직접적으로 3차원 이미지를 디스플레이(40)에서 디스플레이함으로써 디스플레이(40)는 사용자(31)에게 3차원 이미지를 제공할 수 있다. 상기 3차원 이미지는 객체(51)일 수 있다. 디스플레이(40)에서 디스플레이되는 커서(50)는 사용자 (31)에게 3차원 이미지로 보여진다.
커서(50)는 위치를 나타내는 포인터(pointer)의 일 예이다. 실시 예에 따라, 커서(50)는 3차원 포인터 또는 3차원 지시자(indicator)라고 불릴 수 있다. 본 발명의 실시 예에서 커서(50)는 손모양으로 도시되었으나 실시 예에 따라 커서(50)의 모양 또는 그래픽 (사용자) 인터페이스(graphic (user) interface)는 다양하게 변형될 수 있다.
예컨대, 커서(50)는 구 모양 또는 화살표 모양일 수 있다. 감지기(11)는 사용자(31)의 제스쳐를 인식하고, 제스쳐를 처리할 수 있는 장치(10)는 인식된 제스쳐에 따라 커서(50)를 적응적으로 디스플레이(40)에서 디스플레이하도록 디스플레이(40)를 제어한다.
도 2는 도 1에 도시된 장치의 일 실시 예를 나타내는 블록도이다. 도 2에 도시된 장치(10-1)는 도 1에 도시된 장치(10)의 일 실시 예이다.
도 1과 도 2를 참조하면, 장치(10-1)는 제1센서(11-1), 이미지 신호 프로세서(image signal processor(ISP); 13-1), CPU(central processing unit; 15-1), 메모리(17-1), 및 디스플레이 컨트롤러(19-1)를 포함한다.
감지기(11)는 제1센서(11-1)를 포함할 수 있다. 실시 예에 따라, 제1센서 (11-1)는 깊이 센서로 구현될 수 있다. 제1센서(11-1)는 제1센서(11-1)와 사용자 (31) 사이의 거리를 계산하기 위해 이용될 수 있다.
ISP(13-1)는 제1센서(11-1)로부터 출력된 센서 신호를 수신하고, 상기 센서 신호를 이용하여 제1센서(11-1)와 사용자(31) 사이의 거리를 주기적으로 계산한다.
CPU(15-1)는 ISP(13-1)에 의해 계산된 거리 변화를 이용하여 사용자(31)의 움직임을 인식하고, 사용자(31)의 움직임을 제스쳐로서 감지한다. 또한, CPU(15-1)는 사용자(31)의 제스쳐에 따라 디스플레이(40)에서 적응적으로 커서(50)를 디스플레이하기 위해 명령들(instructions)을 실행한다.
메모리(17-1)는 상기 명령들을 저장한다. 메모리(17-1)는 휘발성 메모리 또는 불휘발성 메모리로 구현될 수 있다. 상기 휘발성 메모리는 DRAM(Dynamic random access memory)로 구현될 수 있다. 상기 불휘발성 메모리는 EEPROM(Electrically Erasable Programmable Read-Only Memory), 플래시 메모리, MRAM(Magnetic RAM), 스핀전달토크 MRAM(Spin-Transfer Torque MRAM), Conductive bridging RAM(CBRAM), FeRAM (Ferroelectric RAM), OUM(Ovonic Unified Memory)라고도 불리는 PRAM(Phase change RAM), 저항 메모리(Resistive RAM: RRAM 또는 ReRAM), 나노튜브 RRAM(Nanotube RRAM), 폴리머 RAM(Polymer RAM: PoRAM), 나노 부유 게이트 메모리(Nano Floating Gate Memory: NFGM), 홀로그래픽 메모리 (holographic memory), 분자 전자 메모리 소자(Molecular Electronics Memory Device), 또는 절연 저항 변화 메모리(Insulator Resistance Change Memory)로 구현될 수 있다.
디스플레이 컨트롤러(19-1)는 CPU(15-1)의 제어에 따라 디스플레이(40)에서 커서(50)를 디스플레이하기 위해 디스플레이(40)를 제어한다. 실시 예에 따라, CPU (15-1)와 디스플레이 컨트롤러(19-1)는 하나의 칩으로 구현될 수 있다. 상기 하나의 칩은 애플리케이션 프로세서(application processor)라고 불릴 수 있다.
실시 예에 따라, 감지기(11)는 주변 빛을 감지하기 위해 제2센서(14-1)를 더 포함할 수 있다. 제2센서(14-1)는 빛 감지 센서라고 불릴 수 있다.
도 3은 도 1에 도시된 장치의 다른 실시 예를 나타내는 블록도이다. 도 3에 도시된 장치(10-2)는 도 1에 도시된 장치(10)의 다른 실시 예이다.
도 1과 도 3을 참조하면, 장치(10-2)는 센서(11-2), 이미지 신호 프로세서 (13-2), CPU(15-2), 메모리(17-2), 및 디스플레이 컨트롤러(19-2)를 포함한다. 센서(11-2)와 이미지 신호 프로세서(13-2)는 하나의 칩으로 구현될 수 있다. 실시 예에 따라, 장치(10-2)는 주변 빛을 감지하기 위해 제2센서(14-2)를 더 포함할 수 있다.
도 3에 도시된 각 구성요소(11-2, 13-2, 14-2, 15-2, 17-2, 및 19-2)의 구조와 기능은 도 2에 도시된 각 구성요소(11-1, 13-1, 14-1, 15-1, 17-1, 및 19-1)의 구조와 기능과 실질적으로 동일하므로 이들에 대한 상세한 설명은 생략한다.
도 4는 도 1에 도시된 장치의 또 다른 실시 예를 나타내는 블록도이다. 도 4에 도시된 장치(10-3)는 도 1에 도시된 장치(10)의 또 다른 실시 예이다.
도 1과 도 4를 참조하면, 장치(10-3)는 센서들(11-3과 12-3), CPU(15-3), 메모리(17-3) 및 디스플레이 컨트롤러(19-3)를 포함한다. 감지기(11)는 센서들(11-3과 12-3)을 포함할 수 있다. 제2센서(12-3)와 이미지 신호 프로세서(13-3)는 하나의 칩으로 구현될 수 있다.
제1센서(11-3)는 사용자(31)의 움직임을 인식하는 모션 센서(motion sensor)일 수 있다. 제2센서(12-3)는 제2센서(12-3)와 사용자(31) 사이의 거리를 계산하기 위해 이용된다. 실시 예에 따라, 장치(10-3)는 주변 빛을 감지하기 위해 제3센서 (14-3)를 더 포함할 수 있다.
도 4에 도시된 각 구성요소(14-3, 15-3, 17-3 및 19-3)의 구조와 기능은 도 2에 도시된 각 구성요소(14-1, 15-1, 17-1, 및 19-1)와 구조와 기능과 실질적으로 동일하므로 이들에 대한 상세한 설명은 생략한다.
이하 설명의 편의를 위해, 도 2에 도시된 장치를 이용하여 커서를 디스플레이 방법이 상세히 설명될 것이다.
도 5는 도 1에 도시된 디스플레이에서 디스플레이되는 커서의 일 실시 예를 나타낸다. 도 1, 도 2, 및 도 5를 참조하면, 디스플레이(40)에 커서(50)가 디스플레이된다. 커서(50)는 제1위치(50a)에서 디스플레이된다.
감지기(11)는 사용자(31)의 제스쳐를 감지하는데 이용된다. 예컨대, 감지기 (11)는 사용자(31)의 손 움직임을 인식하는데 이용된다. CPU(15-1)는, 감지기(11)로부터 출력된 감지 신호에 기초하여, 감지된 제스쳐에 따라 디스플레이(40)에서 커서(50)를 적응적으로 디스플레이하기 위해 명령들을 실행한다. 커서(50)는 제스쳐에 따라 디스플레이(40)에서 리사이즈(resize)된다.
구체적으로, 사용자(31)의 제스쳐에 따라 커서(50)가 제1위치(50a)로부터 제3위치(50c)로 이동함에 따라 커서(50)의 사이즈는 작아진다. 반대로, 커서(50)가 제3위치(50c)로부터 제1위치(50a)로 이동함에 따라 커서(50)의 사이즈는 커진다. 사용자(31)의 제스쳐에 따라 커서(50)는 다양한 위치들(50a, 50b, 및 50c)에 위치할 수 있다. 커서(50)의 사이즈는 객체(51)의 각 위치(51a, 51b, 및 51c)에 따라 상대적으로 결정될 수 있다. 즉, CPU(15-1)는 객체(51)의 상대적인 크기를 이용하여 커서(50)의 크기를 결정할 수 있다. 또한, 실시 예에 따라 커서(50)의 사이즈는 객체(50)의 크기와 관계없이 커서(50)의 상대적인 거리 차이를 계산함으로써 결정될 수 있다.
커서(50)를 리사이징(resizing)함으로써 디스플레이(40)는 사용자(31)에게 3D 이미지를 제공할 수 있다. 즉, 디스플레이(40)는 사용자(31)에게 깊이 정보를 제공할 수 있다. 설명의 편의를 위해, 디스플레이(40)는 3차원으로 도시되었으나, 실시 예에 따라 디스플레이(40)는 2차원 평면에서 3차원으로 도시될 수 있다.
도 6은 도 1에 도시된 디스플레이에서 디스플레이되는 커서의 다른 실시 예를 나타낸다. 도 1, 도 2, 및 도 6을 참조하면, 사용자(31)의 제스쳐에 따라 커서 (50)는 다양한 위치들(50a, 50b, 및 50c)에 위치할 수 있다.
커서(50)의 컬러(color)는 사용자(31)의 제스쳐에 따라 디스플레이(40)에서 변화된다. 예컨대, 사용자(31)의 제스쳐에 따라, 커서(50)가 제1위치(50a)로부터 제3위치(50c)로 이동할 때, 커서(50)의 컬러는 하얀색에서 검은색으로 변화될 수 있다. 즉, 제1위치(50a)에서 커서(50)의 컬러는 하얀색이고, 제2위치(50b)에서 커서(50)의 컬러는 회색이고, 제3위치(50c)에서 커서(50)의 컬러는 검은색일 수 있다.
실시 예에 따라, 사용자(31)의 제스쳐에 따라 커서(50)의 컬러뿐만 아니라 사이즈도 같이 변화할 수 있다. 예컨대, 사용자(31)의 제스쳐에 따라 커서(50)는 제1위치(50a)에서 제3위치(50c)로 이동할 때, 커서(50)의 컬러는 하얀색에서 검은색으로 변화하는 동시에 커서의 사이즈도 작아질 수 있다.
도 7은 도 1에 도시된 디스플레이에서 디스플레이되는 커서의 또 다른 실시 예를 나타낸다. 도 1, 도 2, 및 도 7을 참조하면, 사용자(31)의 제스쳐에 따라 커서(50)의 모양이 변화될 수 있다. 예컨대, 사용자(31)의 제스쳐(예컨대, 사용자 (31)가 주먹을 쥘 때)에 따라, 커서(50)는 제1모양(50d)에서 제2모양(50e)으로 변화할 수 있다.
도 8은 도 1에 도시된 디스플레이에서 디스플레이되는 커서의 또 다른 실시 예를 나타낸다. 도 1, 도 2, 및 도 8을 참조하면, 커서(50)의 위치(50a, 50b, 또는 50c)는 디스플레이(40)에서 사용자 인터페이스로서 디스플레이될 수 있다.
예컨대, 커서(50)의 위치(50a, 50b, 또는 50c)는 디스플레이(40)에서 바-타입(bar-type)으로 디스플레이될 수 있다. 예컨대, 커서(50)가 제1위치(50a)에 위치할 때, 막대-그래프(bar-graph)와 퍼센티지(percentage; 90%)가 커서(50)에 표시될 수 있다.
커서(50)가 제3위치(50c)에 위치할 때, 막대-그래프와 퍼센티지(30%)가 커서 (50)에 표시될 수 있다. 퍼센티지가 낮을수록 커서(50)는 더 깊은 깊이 정보를 가짐을 나타낸다. 반대로, 퍼센티지가 낮을수록 커서(50)는 더 얕은 깊이 정보를 가짐을 나타낼 수 있다. 따라서 시스템(100)은 사용자(31)에게 더욱 상세하게 커서 (50)의 위치 정보를 제공할 수 있다.
도 9는 도 1에 도시된 디스플레이에서 디스플레이되는 커서의 또 다른 실시 예를 나타낸다. 도 1, 도 2, 및 도 9를 참조하면, 커서(50)의 위치(50a, 50b, 또는 50c)는 디스플레이(40)에서 사용자 인터페이스로서 디스플레이될 수 있다.
예컨대, 커서(50)의 위치(50a, 50b, 또는 50c)는 3차원 좌표(X, Y, Z)로 디스플레이될 수 있다. 예컨대, 커서(50)가 제1위치(50a)에 위치할 때, 커서(50)는 제1좌표(0, 10, 10)로서 표시될 수 있다. 커서(50)가 제2위치(50b)에 위치할 때, 커서(50)는 제2좌표(10, 20, 30)로서 표시될 수 있다. 커서(50)가 제3위치(50c)에 위치할 때, 커서(50)는 제3좌표(30, 50, 40)로서 표시될 수 있다. 따라서, 시스템(100)은 사용자(31)에게 보다 상세하게 커서(50)의 위치 정보를 제공할 수 있다.
도 10은 도 1에 도시된 디스플레이에서 디스플레이되는 커서의 또 다른 실시 예를 나타낸다. 도 1, 도 2, 및 도 10을 참조하면, 객체(51)가 디스플레이(40)에서 제1위치(51a)에 위치할 때, 커서(50)는 객체(51)를 조작하기 위해 객체(51)의 제1위치(51a)에 도달할 수 없을 수 있다. 객체(51)를 조작한다 함은 커서(50)를 이용하여 객체(51)를 클릭(click), 이동, 또는 변경(translation)하는 것을 의미한다. 실시 예에 따라 객체(51)를 클릭함으로써 객체(51)에 링크되어 있는 명령이 수행될 수 있다.
사용자(31)의 제스쳐에 따라 커서(50)는 제1위치(50a)에서 제2위치(50b)로 이동될 수 있다. 또한, 커서(50)의 모양도 변경될 수 있다. CPU(15-1)는 커서(50)의 모양을 변경시킨 후, 객체(51)를 제1위치(51a)에서 제2위치(51b)로 이동시킨다. 실시 예에 따라 CPU(15-1)는 커서(50)의 모양을 변경시킴과 동시에 객체(51)를 제1위치(51a)에서 제2위치(51b)로 이동시킨다. 이 때, 사용자(31)의 제스쳐는 사용자(31)가 손을 쥐거나 손을 쥐면서 디스플레이(40) 쪽으로 당기는 경우를 의미할 수 있다. 따라서, 커서(50)는 객체(51)에 접근할 수 있고 객체(51)를 조작할 수 있다.
도 11은 도 1에 도시된 디스플레이에서 디스플레이되는 커서의 또 다른 실시 예를 나타낸다. 도 1, 도 2, 및 도 11을 참조하면, 사용자(31)의 제스쳐에 따라 커서(50)가 디스플레이되는 위치가 변화될 수 있다.
예컨대, 커서(50)는 제1위치(50a)에서 제2위치(50b)로 이동될 수 있다. 커서 (50)가 제2위치(50b)에 위치할 때, CPU(15-1)는 커서(50)가 객체(51)에 위치하는지 판단한다. 커서(50)가 객체(51)에 위치한다 함은 커서(50)가 객체(51)를 조작할 수 있는 거리 내에 있음을 의미한다.
커서(50)가 객체(51)에 위치될 때, CPU(15-1)는 커서(50)의 컬러를 변화시킨다. 예컨대, 커서(50)가 객체(51)에 위치할 때, CPU(15-1)는 커서(50)의 컬러를 흰색에서 검은색으로 변화시킬 수 있다. 따라서 디스플레이(40)는 사용자(31)에게 커서(50)를 이용해 객체(51)를 조작할 수 있음을 알릴 수 있다.
도 12는 도 1에 도시된 디스플레이에서 디스플레이되는 커서의 또 다른 실시 예를 나타낸다. 도 1, 도 2, 및 도 12를 참조하면, 사용자(31)의 제스쳐에 따라 커서(50)가 디스플레이되는 위치가 변화될 수 있다.
예컨대, 커서(50)는 제1위치(50a)에서 제2위치(50b)로 이동될 수 있다. 커서 (50)가 제2위치(50b)에 위치할 때, CPU(15-1)는 커서(50)가 객체(51)에 위치하는지 판단한다. 커서(50)가 객체(51)에 위치될 때, CPU(15-1)는 커서(50)를 하이라이트 (highlight)한다. 예컨대, 커서(50)가 객체(51)에 위치할 때, 커서(50)는 하이라이트된다. 따라서 디스플레이(40)는 사용자(31)에게 커서(50)를 이용해 객체(51)를 조작할 수 있음을 알릴 수 있다. 실시 예에 따라 커서(50)가 객체(51)에 위치할 때, 커서(50)는 하이라이트됨과 동시에 커서(50)의 컬러가 변경될 수 있다.
도 13은 도 1에 도시된 디스플레이에서 디스플레이되는 커서의 또 다른 실시 예를 나타낸다. 도 1, 도 2, 및 도 13을 참조하면, 사용자(31)의 제스쳐에 따라, 커서(50)가 디스플레이되는 위치와 모양이 변화될 수 있다.
예컨대, 커서(50)는 제1위치(50a)에서 제2위치(50b)로 이동되면서 모양이 변화될 수 있다. 커서(50)가 제2위치(50b)에 위치할 때, CPU(15-1)는 커서(50)가 객체(51)에 위치하는지 판단한다. 커서(50)가 객체(51)에 위치될 때, CPU(15-1)는 객체(51)를 줌-아웃(zoom-out)한다. 즉, CPU(15-1)는 객체(51)의 크기를 제1크기 (51a)에서 제2크기(51b)로 변화시킨다. 따라서 사용자(31)는 객체(51)에 포함된 정보를 자세히 확인할 수 있다.
반대로, 커서(50)가 객체(51)에 위치된다고 판단될 때, CPU(15-1)는 객체 (51)를 줌-인(zoom-in)할 수 있다. 실시 예에 따라 커서(50)가 객체(51)에 위치하고 커서(50)의 모양이 변경될 때, 객체(51)가 줌-인 또는 줌 아웃될 수 있다.
도 14는 도 1에 도시된 디스플레이에서 디스플레이되는 커서의 또 다른 실시 예를 나타낸다. 도 1, 도 2, 및 도 14를 참조하면, 사용자(31)의 제스쳐에 따라 커서(50)가 디스플레이되는 위치가 변화될 수 있다.
예컨대, 커서(50)는 제1위치(50a)에서 제2위치(50b)로 이동될 수 있다. 커서 (50)가 제2위치(50b)에 위치할 때, CPU(15-1)는 커서(50)가 객체(51)에 위치하는지 판단한다. 커서(50)가 객체(51)에 위치될 때, CPU(15-1)는 커서(50)를 리사이즈한다.
즉, 커서(50)가 제1위치(50a)에 있을 때보다 커서(50)가 제2위치(50b)에 있을 때, 커서(50)의 사이즈가 더 크다. 따라서 디스플레이(40)는 사용자(31)에게 커서(50)를 이용해 객체(51)를 조작할 수 있음을 알릴 수 있다.
도 15는 도 1에 도시된 디스플레이에서 디스플레이되는 커서의 또 다른 실시 예를 나타낸다. 도 1, 도 2, 및 도 15를 참조하면, 장치(10-1)가 제2센서(14-1)를 포함할 때, 제2센서(14-1)는 주변 빛을 감지할 수 있다. 제2센서(14-1)에 의해 감지된 감지 신호에 따라 CPU(15-1)는 주변 빛의 방향을 결정할 수 있다. CPU(15-1)는 상기 주변 빛의 방향에 따라 커서(50)의 그림자(52)를 디스플레이(40)에 디스플레이하도록 디스플레이 컨트롤러(19-1)를 제어할 수 있다. 실시 예에 따라 커서(50)의 그림자(52)는 디스플레이(40)에 디스플레이되는 빛의 방향에 따라 결정될 수 있다.
도 16은 도 1에 도시된 디스플레이에서 디스플레이되는 커서의 또 다른 실시 예를 나타낸다. 도 1, 도 2, 및 도 16을 참조하면, 사용자(31)의 제스쳐에 따라 디스플레이(40)에서 디스플레이되는 배경들(BG1과 BG2)이 변화될 수 있다.
예컨대, 커서(50)의 위치가 디스플레이(40)의 가장자리를 벗어날 때, CPU (15-1)는 복수의 제1배경들(BG1과 BG2)로부터 복수의 제2배경들(BG2과 BG3)로 변경할 수 있다. 커서(50)의 위치가 디스플레이(40)의 가장자리를 벗어날 때란 커서 (50)의 위치가 디스플레이(40)의 가장자리에 있을 때, 장치(10)가 사용자(31)의 제스쳐(예컨대, 사용자(31)가 손을 오른쪽으로 움직일 때)를 다시 인식하는 경우를 의미한다.
따라서 사용자(31)는 복수의 제2배경들(BG2과 BG3)을 볼 수 있다. 각 배경 (BG1, BG2, 및 BG3)은 서로 다른 컬러에 의해 구별될 수 있다. 실시 예에 따라 디스플레이(40)의 가장자리에서 사용자(31)의 제스쳐에 따라 커서(50)의 모양이 변할 때, CPU(15-1)는 복수의 제1배경들(BG1과 BG2)로부터 복수의 제2배경들(BG2와 BG3)으로 변경할 수 있다.
도 17은 도 1에 도시된 디스플레이에서 디스플레이되는 커서의 또 다른 실시 예를 나타낸다. 도 1, 도 2, 및 도 17을 참조하면, 사용자(31)의 제스쳐에 따라 디스플레이(40)에서 디스플레이되는 배경들(BG1과 BG2)이 변화될 수 있다.
예컨대, 커서(50)의 위치가 디스플레이(40)의 가장자리를 벗어날 때, CPU (15-1)는 배경(BG1)을 디스플레이(40)에 디스플레이하지 않고, 검은색 영역을 디스플레이(40)에 디스플레하도록 디스플레이 컨트롤러(19-1)를 제어할 수 있다. 따라서 사용자(31)는 배경(BG2)의 오른쪽에는 더 이상 디스플레이될 배경이 없음을 알 수 있다. 실시 예에 따라 커서(50)의 위치가 디스플레이(40)의 가장자리를 벗어날 때, 커서(50)가 흔들리거나 커서(50)의 컬러가 변경됨으로써 사용자(31)는 더 이상 디스플레이(40)에 디스플레이될 배경이 없음을 알 수 있다.
도 18은 도 1에 도시된 디스플레이에서 디스플레이되는 커서의 디스플레이 방법의 일 실시 예를 설명하기 위한 흐름도를 나타낸다. 도 1, 도 2, 도 5, 및 도 18을 참조하면, CPU(15-1)는 디스플레이(40)에 커서(50)를 디스플레이하도록 디스플레이 컨트롤러(19-1)를 제어한다(S1810).
이미지 신호 프로세서(13-1)는 제1센서(11-1)로부터 출력된 센서 신호를 이용하여 사용자(31)와 센서(11-1) 사이의 거리를 주기적으로 계산한다(S1820).
CPU(15-1)는 이미지 신호 프로세서(13-1)에 의해 계산된 거리 변화를 이용하여 사용자(31)의 움직임을 인식한다(S1830). 상기 거리 변화는 임의의 시점들에서 각각 계산된 거리의 차이를 의미한다.
CPU(15-1)는 사용자(31)의 움직임을 제스쳐로서 감지한다(S1840).
CPU(15-1)는 상기 거리 변화에 따라 디스플레이(40)에서 이동될 커서(50)의 좌표를 계산한다(S1850).
CPU(15-1)는 디스플레이(40)에서 커서(50)를 상기 좌표로 이동시키기 위해 디스플레이 컨트롤러(19-1)를 제어한다(S1860). 디스플레이(40)는 디스플레이 컨트롤러(19-1)의 제어하에 커서(50)를 상기 좌표로 이동시켜 디스플레이한다.
CPU(15-1)는 상기 좌표 주변에 위치하는 객체(51)의 사이즈를 분석한다 (S1870). CPU(15-1)는 객체(51)의 각 위치(51a, 51b, 및 51c)에서 객체(51)의 사이즈를 분석한다.
CPU(15-1)는 분석된 객체(51)의 사이즈에 따라 커서(50)를 리사이즈하도록 디스플레이 컨트롤러(19-1)를 제어한다(S1880). 디스플레이(40)는 디스플레이 컨트롤러(19-1)의 제어하에 커서(50)를 리사이즈하여 디스플레이한다.
도 19는 도 1에 도시된 디스플레이에서 디스플레이되는 커서의 디스플레이 방법의 다른 실시 예를 설명하기 위한 흐름도를 나타낸다.
도 1, 도 4, 도 5, 및 도 19를 참조하면, CPU(15-3)는 디스플레이(40)에 커서(50)를 디스플레이하도록 디스플레이 컨트롤러(19-3)를 제어한다(S1910).
제1센서(11-3)를 이용하여 사용자(31)의 움직임이 인식될 수 있다(S1920). 제1센서(11-3) 또는 CPU(15-3)가 사용자(31)의 움직임을 인식할 수 있다.
CPU(15-3)는 사용자(31)의 움직임을 제스쳐로서 감지한다(S1930).
이미지 신호 프로세서(13-3)는 제2센서(12-3)로부터 출력된 센서 신호를 이용하여 사용자(31)와 센서(12-3) 사이의 거리를 계산한다(S1940).
CPU(15-3)는 상기 계산된 거리에 따라 디스플레이(40)에서 이동될 커서(50)의 좌표를 계산한다(S1950).
CPU(15-3)는 디스플레이(40)에서 커서(50)를 상기 좌표로 이동시키기 위해 디스플레이 컨트롤러(19-3)를 제어한다(S1960). 디스플레이(40)는 디스플레이 컨트롤러(19-3)의 제어하에 커서(50)를 상기 좌표로 이동시켜 디스플레이한다.
CPU(15-3)는 상기 좌표 주변에 위치하는 객체(51)의 사이즈를 분석한다 (S1970). CPU(15-3)는 객체(51)의 각 위치(51a, 51b, 및 51c)에서 객체(51)의 사이즈를 분석한다.
CPU(15-3)는 상기 분석된 객체(51)의 사이즈에 따라 커서(50)를 리사이즈하도록 디스플레이 컨트롤러(19-3)를 제어한다(S1980). 디스플레이(40)는 디스플레이 컨트롤러(19-3)의 제어하에 커서(50)를 리사이즈하여 디스플레이한다.
도 20은 도 1에 도시된 디스플레이에서 디스플레이되는 커서의 디스플레이 방법의 또 다른 실시 예를 설명하기 위한 흐름도를 나타낸다.
도 1, 도 2, 도 5, 및 도 20을 참조하면, CPU(15-1)는 디스플레이(40)에 커서(50)를 디스플레이하도록 디스플레이 컨트롤러(19-1)를 제어한다(S2010).
CPU(15-1)는 사용자(31)의 움직임을 제스쳐로서 감지한다(S2020). 사용자 (31)의 움직임은 깊이 센서(11-1)를 이용하여 감지될 수 있다. 실시 예에 따라, 사용자(31)의 움직임은 도 4에 도시된 모션 센서(11-3)를 이용하여 감지될 수 있다.
CPU(15-1)는 상기 제스쳐가 감지되기 전에 디스플레이(40)에서 디스플레이된 커서(50)의 제1좌표를 계산한다(S2030).
CPU(15-1)는 상기 제스쳐가 감지되었을 때, 디스플레이(40)에서 이동될 커서 (50)의 제2좌표를 계산한다(S2040). CPU(15-1)는 상기 제1좌표와 상기 제2좌표 사이의 거리 차이를 계산한다(S2050).
CPU(15-1)는 디스플레이(40)에서 커서(50)를 상기 제1좌표에서 상기 제2좌표로 이동시키기 위해 디스플레이 컨트롤러(19-1)를 제어한다(S2060). 디스플레이 (40)는 디스플레이 컨트롤러(19-1)의 제어하에 커서(50)를 상기 제2좌표로 이동시켜 디스플레이한다.
CPU(15-1)는 상기 제1좌표와 상기 제2좌표 사이의 거리 차이에 따라 커서 (50)를 리사이즈하도록 디스플레이 컨트롤러(19-1)를 제어한다(S2070). 디스플레이 (40)는 디스플레이 컨트롤러(19-1)의 제어하에 상기 제2좌표에서 커서(50)를 리사이즈하여 디스플레이한다.
도 21은 도 1에 도시된 디스플레이에서 디스플레이되는 커서의 디스플레이 방법의 또 다른 실시 예를 설명하기 위한 흐름도를 나타낸다.
도 1, 도 2, 도 11, 및 도 21을 참조하면, CPU(15-1)는 디스플레이(40)에 커서(50)를 디스플레이하도록 디스플레이 컨트롤러(19-1)를 제어한다(S2110).
CPU(15-1)는 사용자(31)의 움직임을 제스쳐로서 감지한다(S2120). 사용자 (31)의 움직임은 깊이 센서(11-1)를 이용하여 감지될 수 있다. 실시 예에 따라, 사용자(31)의 움직임은 도 4에 도시된 모션 센서(11-3)를 이용하여 감지될 수 있다.
CPU(15-1)는 디스플레이(40)에서 이동될 커서(50)의 좌표를 계산한다 (S2130). CPU(15-1)는 커서(50)가 객체(51)에 위치하는지 판단한다(S2140). 커서 (50)가 객체(51)에 위치될 때, CPU(15-1)는 커서(50)의 컬러를 변화시킨다(S2150). 예컨대, 커서(50)가 객체(51)에 위치할 때, CPU(15-1)는 커서(50)의 컬러를 흰색에서 검은색으로 변화시킬 수 있다.
CPU(15-1)는 커서(50)를 리사이즈한다(S2160). 실시 예에 따라 커서(50)의 리사이즈와 커서(50)의 컬러 변화는 동시에 수행되거나, 커서(50)의 리사이즈가 커서(50)의 컬러 변화보다 먼저 수행될 수 있다.
도 22는 도 1에 도시된 디스플레이에서 디스플레이되는 커서의 디스플레이 방법의 또 다른 실시 예를 설명하기 위한 흐름도를 나타낸다.
도 1, 도 2, 도 12, 및 도 22를 참조하면, CPU(15-1)는 디스플레이(40)에 커서(50)를 디스플레이하도록 디스플레이 컨트롤러(19-1)를 제어한다(S2210).
CPU(15-1)는 사용자(31)의 움직임을 제스쳐로서 감지한다(S2220). 사용자 (31)의 움직임은 깊이 센서(11-1)를 이용하여 감지될 수 있다. 실시 예에 따라 사용자(31)의 움직임은 도 4에 도시된 모션 센서(11-3)를 이용하여 감지될 수 있다.
CPU(15-1)는 디스플레이(40)에서 이동될 커서(50)의 좌표를 계산한다 (S2230).
CPU(15-1)는 커서(50)가 객체(51)에 위치하는지 판단한다(S2240). 커서(50)가 객체(51)에 위치될 때, CPU(15-1)는 커서(50)를 하이라이트한다(S2250). CPU(15-1)는 커서(50)를 리사이즈한다(S2260). 실시 예에 따라 커서(50)의 리사이즈와 커서(50)의 하이라이트가 동시에 수행되거나, 커서(50)의 리사이즈가 커서(50)의 하이라이트보다 먼저 수행될 수 있다.
도 23은 도 1에 도시된 디스플레이에서 디스플레이되는 커서의 디스플레이 방법의 또 다른 실시 예를 설명하기 위한 흐름도를 나타낸다.
도 1, 도 2, 도 13, 및 도 23을 참조하면, CPU(15-1)는 디스플레이(40)에 커서(50)를 디스플레이하도록 디스플레이 컨트롤러(19-1)를 제어한다(S2310).
CPU(15-1)는 사용자(31)의 움직임을 제스쳐로서 감지한다(S2320). 사용자 (31)의 움직임은 깊이 센서(11-1)를 이용하여 감지될 수 있다. 실시 예에 따라 사용자(31)의 움직임은 도 4에 도시된 모션 센서(11-3)를 이용하여 감지될 수 있다.
CPU(15-1)는 디스플레이(40)에서 이동될 커서(50)의 좌표를 계산한다(S2330). CPU(15-1)는 커서(50)가 객체에 위치하는지 판단한다(S2340). 커서(50)가 객체(51)에 위치될 때, CPU(15-1)는 상기 객체를 줌-아웃(zoom-out)한다 (S2350). 즉, CPU(15-1)는 상기 객체의 크기를 제1크기(51a)에서 제2크기(51b)로 변화시킨다. CPU(15-1)는 커서(50)를 리사이즈한다(S2360). 실시 예에 따라 커서(50)의 리사이즈와 객체(51)의 줌 아웃은 동시에 수행되거나, 커서(50)의 리사이즈가 객체(51)의 줌 아웃보다 먼저 수행될 수 있다.
도 24는 도 1에 도시된 디스플레이에서 디스플레이되는 커서의 디스플레이 방법의 또 다른 실시 예를 설명하기 위한 흐름도를 나타낸다.
도 1, 도 2, 도 16, 및 도 24를 참조하면, CPU(15-1)는 디스플레이(40)에 커서(50)를 디스플레이하도록 디스플레이 컨트롤러(19-1)를 제어한다(S2410).
CPU(15-1)는 사용자(31)의 움직임을 제스쳐로서 감지한다(S2420). 사용자 (31)의 움직임은 깊이 센서(11-1)를 이용하여 감지될 수 있다. 실시 예에 따라 사용자(31)의 움직임은 도 4에 도시된 모션 센서(11-3)를 이용하여 감지될 수 있다.
CPU(15-1)는 디스플레이(40)에서 이동될 커서(50)의 좌표를 계산한다 (S2430). CPU(15-1)는 커서(50)가 객체에 위치하는지 판단한다(S2440).
커서(50)가 객체(51)에 위치될 때, 사용자(31)의 제스쳐에 따라 디스플레이 (40)에서 디스플레이되는 배경들(BG1과 BG2)이 변화될 수 있다(S2450). 예컨대, 커서(50)의 위치가 디스플레이(40)의 가장자리를 벗어날 때, CPU(15-1)는 복수의 제1배경들(BG1과 BG2)에서 복수의 제2배경들(BG2과 BG3)로 변경할 수 있다. 사용자(31)의 제스쳐로 인해 디스플레이(40)의 가장자리에서 모양이 변할 때, CPU(15-1)는 복수의 제1배경들(BG1과 BG2)에서 복수의 제2배경들(BG2와 BG3)로 변경할 수 있다. CPU(15-1)는 커서(50)를 리사이즈한다(S2460). 실시 예에 따라 커서(50)의 리사이즈와 배경 변경은 동시에 수행되거나, 커서(50)의 리사이즈가 배경 변경보다 먼저 수행될 수 있다.
본 발명은 여러 실시 예가 복합적으로 결합될 수 있다. 예컨대, 커서(50)의 리사이즈, 모양 변화, 컬러 변화 및 그림자 생성 등이 적어도 어느 하나 이상의 결합되어 수행될 수 있다.
본 발명은 도면에 도시된 실시 예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다.
100; 시스템
10; 장치
11; 감지기
31; 사용자
40; 디스플레이
50; 커서
11-1; 제1센서
13-1; 이미지 신호 프로세서
14-1; 제2센서
15-1; CPU
17-1; 메모리
19-2; 디스플레이 컨트롤러

Claims (25)

  1. 디스플레이에서 커서를 디스플레이하는 단계;
    사용자의 제스쳐를 감지하는 단계; 및
    상기 감지된 제스쳐에 따라 상기 커서를 리사이즈(resize)하는 단계를 포함하는 커서 디스플레이 방법.
  2. 제1항에 있어서, 상기 제스쳐를 감지하는 단계는,
    상기 사용자와 센서 사이의 거리를 주기적으로 계산하는 단계;
    상기 거리의 변화에 따라 상기 사용자의 움직임을 인식하는 단계; 및
    상기 사용자의 움직임을 상기 제스쳐로서 감지하는 단계를 포함하는 커서 디스플레이 방법.
  3. 제2항에 있어서, 상기 커서를 리사이즈하는 단계는,
    상기 제스쳐가 감지되었을 때, 상기 거리의 변화에 따라 상기 디스플레이에서 이동될 상기 커서의 좌표를 계산하는 단계;
    상기 디스플레이에서 상기 커서를 상기 좌표로 이동시키는 단계;
    상기 좌표의 주변에서 디스플레이되는 객체의 사이즈를 분석하는 단계; 및
    상기 분석된 객체의 사이즈에 따라 상기 디스플레이에서 상기 커서를 리사이즈하는 단계를 포함하는 커서 디스플레이 방법.
  4. 제2항에 있어서, 상기 커서를 리사이즈하는 단계는,
    상기 제스쳐가 감지되기 전에 상기 디스플레이에서 디스플레이된 상기 커서의 제1좌표를 계산하는 단계;
    상기 제스쳐가 감지되었을 때, 상기 계산된 거리에 따라 상기 디스플레이에서 이동될 상기 커서의 제2좌표를 계산하는 단계;
    상기 제1좌표와 상기 제2좌표 사이의 거리 차이를 계산하는 단계;
    상기 커서를 상기 제1좌표에서 상기 제2좌표로 이동시키는 단계; 및
    상기 거리 차이에 따라 상기 제2좌표에서 상기 커서를 리사이즈하는 단계를 포함하는 커서 디스플레이 방법.
  5. 제1항에 있어서, 상기 커서 디스플레이 방법은,
    상기 감지된 제스쳐에 따라 상기 커서의 컬러를 변화시키는 단계를 더 포함하는 커서 디스플레이 방법.
  6. 제1항에 있어서, 상기 커서 디스플레이 방법은,
    상기 감지된 제스쳐에 따라 상기 커서의 모양을 변화시키는 단계를 더 포함하는 커서 디스플레이 방법.
  7. 제1항에 있어서, 상기 커서 디스플레이 방법은,
    상기 커서의 위치를 상기 디스플레이에서 사용자 인터페이스(user interface)로서 디스플레이하는 단계를 더 포함하는 커서 디스플레이 방법.
  8. 제7항에 있어서, 상기 사용자 인터페이스는,
    바-타입(bar-type)으로 표현되는 커서 디스플레이 방법.
  9. 제7항에 있어서, 상기 사용자 인터페이스는,
    3차원 좌표로 표현되는 커서 디스플레이 방법.
  10. 제6항에 있어서, 상기 커서 디스플레이 방법은,
    상기 감지된 제스쳐에 따라 상기 디스플레이에서 디스플레이되는 객체 (object)를 이동시키는 단계를 더 포함하는 커서 디스플레이 방법.
  11. 제1항에 있어서, 상기 커서 디스플레이 방법은,
    상기 감지된 제스쳐에 따라 상기 커서를 이동시키는 단계; 및
    상기 이동된 커서가 상기 디스플레이에서 디스플레이되는 객체에 위치하는지 여부를 결정하는 단계를 더 포함하는 커서 디스플레이 방법.
  12. 제11항에 있어서, 상기 커서 디스플레이 방법은,
    상기 커서가 상기 객체에 위치할 때, 상기 커서의 컬러를 변화시키는 단계를 더 포함하는 커서 디스플레이 방법.
  13. 제11항에 있어서, 상기 커서 디스플레이 방법은,
    상기 커서가 상기 객체에 위치할 때, 상기 커서를 하이라이트(highlight)하는 단계를 더 포함하는 커서 디스플레이 방법.
  14. 제11항에 있어서, 상기 커서 디스플레이 방법은,
    상기 커서가 상기 객체에 위치할 때, 상기 객체를 줌-아웃 또는 줌-인하는 단계를 더 포함하는 커서 디스플레이 방법.
  15. 제11항에 있어서, 상기 커서 디스플레이 방법은,
    상기 커서가 상기 객체에 위치할 때, 상기 커서를 리사이즈하는 단계를 더 포함하는 커서 디스플레이 방법.
  16. 제1항에 있어서, 상기 커서 디스플레이 방법은,
    주변 빛을 감지하는 단계; 및
    상기 감지된 주변 빛의 방향에 따라 상기 커서의 그림자를 상기 디스플레이에서 디스플레이하는 단계를 더 포함하는 커서 디스플레이 방법.
  17. 제1항에 있어서, 상기 커서 디스플레이 방법은,
    상기 감지된 제스쳐에 따라 상기 디스플레이에서 디스플레이되는 배경을 변화시키는 단계를 더 포함하는 커서 디스플레이 방법.
  18. 제1항에 있어서, 상기 커서 디스플레이 방법은,
    상기 감지된 제스쳐에 따라 상기 디스플레이의 가장 자리에 검은색을 디스플레이하는 단계를 더 포함하는 커서 디스플레이 방법.
  19. 제1항에 있어서, 상기 제스쳐를 감지하는 단계는,
    제1센서를 이용하여 상기 사용자의 움직임을 인식하는 단계; 및
    상기 사용자의 움직임을 상기 제스쳐로서 감지하는 단계를 포함하는 커서 디스플레이 방법.
  20. 제19항에 있어서, 상기 커서를 리사이즈하는 단계는,
    상기 제스쳐가 감지되었을 때, 제2센서를 이용하여 상기 사용자와 상기 제2센서 사이의 거리를 계산하는 단계;
    상기 계산된 거리에 따라 상기 디스플레이에서 이동될 상기 커서의 좌표를 계산하는 단계;
    상기 디스플레이에서 상기 커서를 상기 좌표로 이동시키는 단계;
    상기 좌표의 주변에서 디스플레이되는 객체의 사이즈를 분석하는 단계; 및
    상기 분석된 객체의 사이즈에 따라 상기 디스플레이에서 상기 커서를 리사이즈하는 단계를 포함하는 커서 디스플레이 방법.
  21. 제20항에 있어서, 상기 제1센서는 모션 센서이고,
    상기 제2센서는 깊이 센서인 커서 디스플레이 방법.
  22. 커서를 디스플레이하는 디스플레이;
    사용자의 제스쳐를 감지하여 감지 신호를 출력하기 위한 감지기; 및
    상기 감지 신호에 따라 상기 커서를 리사이즈하고, 상기 리사이즈된 커서를 상기 디스플레이에서 디스플레이하기 위해 명령들을 실행하는 CPU(central processing unit)를 포함하는 시스템.
  23. 제22항에 있어서, 상기 감지기는,
    상기 감지기와 상기 사용자 사이의 거리를 계산하기 위한 깊이 센서를 포함하는 시스템.
  24. 제23항에 있어서, 상기 감지기는,
    상기 사용자의 움직임을 인식하기 위한 모션 센서를 더 포함하는 시스템.
  25. 제24항에 있어서, 상기 감지기는,
    주변 빛을 감지하기 위한 빛 감지 센서를 더 포함하는 시스템.
KR1020120118985A 2012-10-25 2012-10-25 커서를 디스플레이에 디스플레이하기 위한 방법과 상기 방법을 수행할 수 있는 시스템 KR20140052640A (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020120118985A KR20140052640A (ko) 2012-10-25 2012-10-25 커서를 디스플레이에 디스플레이하기 위한 방법과 상기 방법을 수행할 수 있는 시스템
DE102013111550.0A DE102013111550A1 (de) 2012-10-25 2013-10-21 Verfahren, das einen Cursor anzeigt und System, das ein Cursoranzeigeverfahren durchführt
US14/062,043 US20140118252A1 (en) 2012-10-25 2013-10-24 Method of displaying cursor and system performing cursor display method
CN201310511794.3A CN103777751A (zh) 2012-10-25 2013-10-25 光标显示方法和执行光标显示方法的系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120118985A KR20140052640A (ko) 2012-10-25 2012-10-25 커서를 디스플레이에 디스플레이하기 위한 방법과 상기 방법을 수행할 수 있는 시스템

Publications (1)

Publication Number Publication Date
KR20140052640A true KR20140052640A (ko) 2014-05-07

Family

ID=50479823

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120118985A KR20140052640A (ko) 2012-10-25 2012-10-25 커서를 디스플레이에 디스플레이하기 위한 방법과 상기 방법을 수행할 수 있는 시스템

Country Status (4)

Country Link
US (1) US20140118252A1 (ko)
KR (1) KR20140052640A (ko)
CN (1) CN103777751A (ko)
DE (1) DE102013111550A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160060386A (ko) * 2014-11-20 2016-05-30 삼성전자주식회사 윈도우의 크기를 변경하는 디바이스 및 그 제어 방법
WO2022124561A1 (ko) * 2020-12-08 2022-06-16 삼성전자 주식회사 복수의 센서를 이용한 전자 장치의 제어 방법 및 그 전자 장치
US11630639B2 (en) 2020-12-08 2023-04-18 Samsung Electronics Co., Ltd. Control method of electronic device using a plurality of sensors and electronic device thereof

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105302404A (zh) * 2014-07-25 2016-02-03 深圳Tcl新技术有限公司 鼠标指针快速移动的方法及系统
CN104360738A (zh) * 2014-11-06 2015-02-18 苏州触达信息技术有限公司 图形用户界面的空间手势控制方法
CN106339145A (zh) * 2015-07-08 2017-01-18 中兴通讯股份有限公司 一种移动光标的方法及装置
US11609427B2 (en) 2015-10-16 2023-03-21 Ostendo Technologies, Inc. Dual-mode augmented/virtual reality (AR/VR) near-eye wearable displays
US11106273B2 (en) * 2015-10-30 2021-08-31 Ostendo Technologies, Inc. System and methods for on-body gestural interfaces and projection displays
CN105302305A (zh) * 2015-11-02 2016-02-03 深圳奥比中光科技有限公司 手势操控方法和系统
CN105353873B (zh) * 2015-11-02 2019-03-15 深圳奥比中光科技有限公司 基于三维显示的手势操控方法和系统
CN105511607B (zh) * 2015-11-30 2018-10-02 四川长虹电器股份有限公司 立体式的人机交互设备、方法及系统
US10345594B2 (en) 2015-12-18 2019-07-09 Ostendo Technologies, Inc. Systems and methods for augmented near-eye wearable displays
US10578882B2 (en) 2015-12-28 2020-03-03 Ostendo Technologies, Inc. Non-telecentric emissive micro-pixel array light modulators and methods of fabrication thereof
US10353203B2 (en) 2016-04-05 2019-07-16 Ostendo Technologies, Inc. Augmented/virtual reality near-eye displays with edge imaging lens comprising a plurality of display devices
US10453431B2 (en) 2016-04-28 2019-10-22 Ostendo Technologies, Inc. Integrated near-far light field display systems
CN105975072A (zh) * 2016-04-29 2016-09-28 乐视控股(北京)有限公司 识别手势动作的方法、装置及系统
US10522106B2 (en) 2016-05-05 2019-12-31 Ostendo Technologies, Inc. Methods and apparatus for active transparency modulation
CN106406655A (zh) * 2016-08-29 2017-02-15 珠海市魅族科技有限公司 一种文本处理的方法及移动终端
CN106383583B (zh) * 2016-09-23 2019-04-09 深圳奥比中光科技有限公司 用于隔空人机交互的控制虚拟物体精确定位的方法与系统
CN106873847A (zh) * 2016-12-29 2017-06-20 珠海格力电器股份有限公司 一种触摸屏失效时的界面操作方法、系统和移动终端
CN112882612B (zh) * 2021-01-12 2024-01-23 京东方科技集团股份有限公司 一种显示方法、显示设备及显示系统
CN115291733B (zh) * 2022-09-28 2022-12-27 宁波均联智行科技股份有限公司 一种光标控制方法及装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05346957A (ja) * 1992-04-17 1993-12-27 Hitachi Ltd 形状特徴量提示装置および方法
US6057827A (en) * 1993-06-18 2000-05-02 Artifice, Inc. Automatic pointer positioning for 3D computer modeling
US6285374B1 (en) * 1998-04-06 2001-09-04 Microsoft Corporation Blunt input device cursor
US7043701B2 (en) * 2002-01-07 2006-05-09 Xerox Corporation Opacity desktop with depth perception
US7965859B2 (en) * 2006-05-04 2011-06-21 Sony Computer Entertainment Inc. Lighting control of a user environment via a display device
CN1885233A (zh) * 2006-06-27 2006-12-27 刘金刚 三维桌面系统的显示与操作方法
US8184096B2 (en) * 2007-12-04 2012-05-22 Apple Inc. Cursor transitions
JP5702798B2 (ja) * 2009-11-13 2015-04-15 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 低侵襲外科システムにおけるハンドジェスチャー制御の方法および装置
US8659658B2 (en) * 2010-02-09 2014-02-25 Microsoft Corporation Physical interaction zone for gesture-based user interfaces
US8872762B2 (en) * 2010-12-08 2014-10-28 Primesense Ltd. Three dimensional user interface cursor control
US8994718B2 (en) * 2010-12-21 2015-03-31 Microsoft Technology Licensing, Llc Skeletal control of three-dimensional virtual world
US20120218395A1 (en) * 2011-02-25 2012-08-30 Microsoft Corporation User interface presentation and interactions
KR101806500B1 (ko) 2011-04-20 2017-12-07 엘지디스플레이 주식회사 영상표시장치
US8872853B2 (en) * 2011-12-01 2014-10-28 Microsoft Corporation Virtual light in augmented reality

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160060386A (ko) * 2014-11-20 2016-05-30 삼성전자주식회사 윈도우의 크기를 변경하는 디바이스 및 그 제어 방법
WO2022124561A1 (ko) * 2020-12-08 2022-06-16 삼성전자 주식회사 복수의 센서를 이용한 전자 장치의 제어 방법 및 그 전자 장치
US11630639B2 (en) 2020-12-08 2023-04-18 Samsung Electronics Co., Ltd. Control method of electronic device using a plurality of sensors and electronic device thereof

Also Published As

Publication number Publication date
CN103777751A (zh) 2014-05-07
DE102013111550A1 (de) 2014-04-30
US20140118252A1 (en) 2014-05-01

Similar Documents

Publication Publication Date Title
KR20140052640A (ko) 커서를 디스플레이에 디스플레이하기 위한 방법과 상기 방법을 수행할 수 있는 시스템
JP5453246B2 (ja) コンパクト・デバイスのためのカメラ・ベースのユーザ入力
TWI544447B (zh) 擴增實境的方法及系統
US11752432B2 (en) Information processing device and method of causing computer to perform game program
KR101603680B1 (ko) 컴퓨터 비젼 애플리케이션들에서 상호작용 반경을 확대하기 위한 제스쳐-제어 기법
WO2017120052A1 (en) Three-dimensional object tracking to augment display area
KR20130068071A (ko) 디스플레이 장치 및 이를 이용한 화면 모드 변경 방법
US9501098B2 (en) Interface controlling apparatus and method using force
JP2005519368A (ja) Guiのためのディスプレイを提供する方法
WO2012040827A2 (en) Interactive input system having a 3d input space
US9207756B2 (en) Apparatus and method for controlling 3D image
EP3366101B1 (en) Portable electronic apparatus and method for controlling thereof
US20120319945A1 (en) System and method for reporting data in a computer vision system
BR112019019526A2 (pt) aparelho de controle, método de controle, e meio de armazenamento
JP2013137614A (ja) 情報処理プログラム、情報処理装置、情報処理方法、及び情報処理システム
KR101092841B1 (ko) 터치 입력을 인식하는 컴퓨팅 장치
CN107219970A (zh) 可视化分析图表的操作方法及装置、可读存储介质、终端
KR20150050288A (ko) 터치 스크린을 포함하는 전자 장치, 그 사용자 인터페이스 방법, 상기 사용자 인터페이스 방법을 수행하는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체, 및 사용자 인터페이스 시스템
KR20150002178A (ko) 전자 장치 및 그의 터치 감지 방법
JP5350003B2 (ja) 情報処理装置、情報処理プログラム、情報処理システム、および情報処理方法
CN112292656B (zh) 影像显示系统、影像显示方法及记录计算机程序的计算机能读取的记录介质
JP6418585B2 (ja) ウェアラブルデバイス、及びウェアラブルデバイスの動作方法
JP2013225321A (ja) 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
JP2017021495A (ja) 3d座標検出システム、情報処理装置、プログラム、及び3d座標検出方法
US20150042621A1 (en) Method and apparatus for controlling 3d object

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid