KR101396742B1 - 단말기 및 이를 이용한 가상 입체영역 제어 방법 - Google Patents

단말기 및 이를 이용한 가상 입체영역 제어 방법 Download PDF

Info

Publication number
KR101396742B1
KR101396742B1 KR1020120114619A KR20120114619A KR101396742B1 KR 101396742 B1 KR101396742 B1 KR 101396742B1 KR 1020120114619 A KR1020120114619 A KR 1020120114619A KR 20120114619 A KR20120114619 A KR 20120114619A KR 101396742 B1 KR101396742 B1 KR 101396742B1
Authority
KR
South Korea
Prior art keywords
unit
virtual
display unit
fixed point
reference plane
Prior art date
Application number
KR1020120114619A
Other languages
English (en)
Other versions
KR20140048541A (ko
Inventor
구대희
Original Assignee
구대희
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 구대희 filed Critical 구대희
Priority to KR1020120114619A priority Critical patent/KR101396742B1/ko
Publication of KR20140048541A publication Critical patent/KR20140048541A/ko
Application granted granted Critical
Publication of KR101396742B1 publication Critical patent/KR101396742B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0338Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of limited linear or angular displacement of an operating part of the device from a neutral position, e.g. isotonic or isometric joysticks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03549Trackballs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

단말기 및 이를 이용한 가상 입체영역 제어 방법이 개시된다. 본 발명에 따른 단말기는, 가상 입체영역을 표시하는 표시부; 상기 가상 입체영역을 두 개의 영역으로 분할하는 기준면을 설정하는 기준면 설정부; 상기 두 개의 영역 중 제1 영역에 대응하는 제1 조작부; 상기 두 개의 영역 중 제2 영역에 대응하는 제2 조작부; 및 상기 제1 조작부에 대한 사용자의 입력을 수신하여 상기 기준면에 제1 고정점을 설정하고, 상기 제2 조작부에 대한 사용자의 입력을 수신하여 상기 제1 고정점을 중심으로 상기 제2 영역을 조작하여 상기 표시부에 표시된 상기 가상 입체영역에 대한 시점을 제어하는 조작 제어부를 포함한다.

Description

단말기 및 이를 이용한 가상 입체영역 제어 방법{Terminal and method for controlling virtual three-dimensional area using the same}
본 발명은 단말기 및 이를 이용한 가상 입체영역 제어 방법에 관한 것으로서, 두 개의 조작부를 이용하여 하나의 조작부로 고정점을 설정하고 나머지 하나의 조작부로 단말기의 표시부에 표시된 가상 입체영역에 대한 시점을 제어함으로써, 단말기의 표시부에 표시된 가상 입체영역에 대한 시점을 보다 광범위하면서도 쉽게 제어할 수 있어서, 게임, 교육 등 입체영역이 적용될 수 있는 각종 응용 분야에 활용 가능한 단말기 및 이를 이용한 가상 입체영역 제어 방법에 관한 것이다.
3차원(3-dimensional, 3D) 입체 그래픽 기술이 개발된 이래, 3차원 입체 그래픽은 게임, 교육, 가상 실습 등 여러 가지 시뮬레이션에 다양하게 활용되고 있다.
예전에는 3차원 입체 그래픽이 하나의 시점으로 고정되어 그 내부에서 객체가 이동하는 것을 표현하는 것에 그쳤으나, 최근에는 그래픽 엔진의 발달에 따라 사용자가 필요에 따라 시점을 이동시킬 수 있게 되었다.
하지만, 종래에는 이러한 시점을 이동시키는데 있어 화면의 객체를 고정점으로 하여 스틱, 마우스 등의 조작에 의해 시점을 이동시키는 것이어서 시점의 자유로운 이동에 한계가 있었다.
따라서, 화면에 표시된 가상의 입체영역에 대한 시점을 좀더 자유롭고 광범위하게 제어할 수 있는 기술이 요구되고 있다. 특히, 최근 크게 발전한 모바일 산업 분야에 있어서, 가상 입체영역을 간편하면서도 광범위하게 제어할 수 있는 기술은 필수적으로 요구되고 있다.
본 발명의 목적은, 두 개의 조작부를 이용하여 하나의 조작부로 고정점을 설정하고 나머지 하나의 조작부로 단말기의 표시부에 표시된 가상 입체영역에 대한 시점을 제어함으로써, 단말기의 표시부에 표시된 가상 입체영역에 대한 시점을 보다 광범위하면서도 쉽게 제어할 수 있어서, 게임, 교육 등 입체영역이 적용될 수 있는 각종 응용 분야에 활용 가능한 단말기 및 이를 이용한 가상 입체영역 제어 방법을 제공하는 것이다.
본 발명의 일 실시예에 따른 단말기는, 가상 입체영역을 표시하는 표시부; 상기 가상 입체영역을 두 개의 영역으로 분할하는 기준면을 설정하는 기준면 설정부; 상기 두 개의 영역 중 제1 영역에 대응하는 제1 조작부; 상기 두 개의 영역 중 제2 영역에 대응하는 제2 조작부; 및 상기 제1 조작부에 대한 사용자의 입력을 수신하여 상기 기준면에 제1 고정점을 설정하고, 상기 제2 조작부에 대한 사용자의 입력을 수신하여 상기 제1 고정점을 중심으로 상기 제2 영역을 조작하여 상기 표시부에 표시된 상기 가상 입체영역에 대한 시점을 제어하는 조작 제어부를 포함하여 구성된다.
상기 조작 제어부는, 상기 제2 조작부에 대한 사용자의 입력을 수신하여 상기 기준면에 제2 고정점을 설정하고, 상기 제1 조작부에 대한 사용자의 입력을 수신하여 상기 제2 고정점을 중심으로 상기 제1 영역을 조작하여 상기 표시부에 표시된 상기 가상 입체영역에 대한 시점을 제어할 수 있다.
상기 기준면 설정부는, 상기 가상 입체영역 내의 객체를 기준으로 상기 기준면을 설정할 수 있다.
상기 제1 조작부는, 스틱, 트랙볼 마우스, 터치 패드, 상기 표시부에 표시된 가상 터치 패드 및 상기 표시부에 표시된 가상 트랙볼 중 하나일 수 있다.
상기 제2 조작부는, 스틱, 트랙볼 마우스, 터치 패드, 상기 표시부에 표시된 가상 터치 패드 및 상기 표시부에 표시된 가상 트랙볼 중 하나일 수 있다.
상기 제1 조작부와 상기 제2 조작부는, 상기 단말기의 일면에 위치할 수 있다.
또는, 상기 제1 조작부는, 상기 단말기의 일면에 위치하고, 상기 제2 조작부는, 상기 단말기의 타면에 위치할 수 있다.
상기 표시부는, 상기 표시부에 대한 사용자의 터치 입력 위치에 대응하여 상기 제1 조작부 또는 상기 제2 조작부를 표시할 수 있다.
상기 표시부는, 상기 제1 고정점 또는 상기 제2 고정점을 표시할 수 있다.
본 발명의 일 실시예에 따른 가상 입체영역 제어 방법은, 단말기의 표시부가 가상 입체영역을 표시하는 단계; 상기 가상 입체영역을 두 개의 영역으로 분할하는 기준면을 설정하는 단계; 상기 두 개의 영역 중 제1 영역에 대응하는 제1 조작부에 대한 사용자의 입력을 수신하여 상기 기준면에 제1 고정점을 설정하는 단계; 및 상기 두 개의 영역 중 제2 영역에 대응하는 제2 조작부에 대한 사용자의 입력을 수신하여 상기 제1 고정점을 중심으로 상기 제2 영역을 조작하여 상기 표시부에 표시된 상기 가상 입체영역에 대한 시점을 제어하는 단계를 포함하여 구성된다.
상기 가상 입체영역 제어 방법은, 상기 제2 조작부에 대한 사용자의 입력을 수신하여 상기 기준면에 제2 고정점을 설정하는 단계; 및 상기 제1 조작부에 대한 사용자의 입력을 수신하여 상기 제2 고정점을 중심으로 상기 제1 영역을 조작하여 상기 표시부에 표시된 상기 가상 입체영역에 대한 시점을 제어하는 단계를 더 포함할 수 있다.
상기 기준면을 설정하는 단계는, 상기 가상 입체영역 내의 객체를 기준으로 상기 기준면을 설정할 수 있다.
상기 가상 입체영역 제어 방법은, 상기 표시부가 상기 표시부에 대한 사용자의 터치 입력 위치에 대응하여 상기 제1 조작부 또는 상기 제2 조작부를 표시하는 단계를 더 포함할 수 있다.
상기 가상 입체영역 제어 방법은, 상기 표시부가 상기 제1 고정점 또는 상기 제2 고정점을 표시하는 단계를 더 포함할 수 있다.
본 발명의 일 측면에 따르면, 두 개의 조작부를 이용하여 하나의 조작부로 고정점을 설정하고 나머지 하나의 조작부로 단말기의 표시부에 표시된 가상 입체영역에 대한 시점을 제어함으로써, 단말기의 표시부에 표시된 가상 입체영역에 대한 시점을 보다 광범위하면서도 쉽게 제어할 수 있어서, 게임, 교육 등 입체영역이 적용될 수 있는 각종 응용 분야에 활용 가능한 단말기 및 이를 이용한 가상 입체영역 제어 방법을 제공할 수 있다.
도 1은 본 발명의 일 실시예에 따른 단말기를 개략적으로 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 단말기의 기준면 설정부가 표시부에 표시된 가상 입체영역에 기준면을 설정하는 일 예를 도시한 도면이다.
도 3은 본 발명의 일 실시예에 따른 단말기의 기준면 설정부가 표시부에 표시된 가상 입체영역에 기준면을 설정하는 다른 예를 도시한 도면이다.
도 4는 본 발명의 일 실시예에 따른 단말기의 조작 제어부가 가상 입체영역에 대한 시점을 제어하는 일 예를 도시한 도면이다.
도 5는 본 발명의 일 실시예에 따른 단말기의 일 예를 도시한 도면이다.
도 6 및 도 7은 본 발명의 일 실시예에 따른 단말기의 다른 예를 도시한 도면이다.
도 8은 본 발명의 일 실시예에 따른 단말기의 또 다른 예를 도시한 도면이다.
도 9는 본 발명의 일 실시예에 따른 단말기를 이용한 가상 입체영역 제어 방법을 설명하기 위한 순서도이다.
본 발명을 첨부된 도면을 참조하여 상세히 설명하면 다음과 같다. 여기서, 반복되는 설명, 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능, 및 구성에 대한 상세한 설명은 생략한다. 본 발명의 실시형태는 당 업계에서 평균적인 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위해서 제공되는 것이다. 따라서, 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.
도 1은 본 발명의 일 실시예에 따른 단말기를 개략적으로 도시한 도면이다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 단말기(100)는 표시부(101), 기준면 설정부(102), 제1 조작부(103), 제2 조작부(104) 및 조작 제어부(105)를 포함하여 구성된다. 도 1에 도시된 단말기(100)는 일 실시예에 따른 것이고, 그 구성요소들이 도 1에 도시된 실시예에 한정되는 것은 아니며, 필요에 따라 일부 구성요소가 부가, 변경 또는 삭제될 수 있다.
본 발명의 일 실시예에 따른 단말기(100)는 가상 입체영역을 표시할 수 있는 표시부(101)를 구비한 장치로서, 개인용 컴퓨터, 스마트폰, 개인용 휴대 단말기(personal digital assistants; PDA), 태블릿(tablet) 컴퓨터 및 게임기 중 하나 이상으로 구현될 수 있다.
표시부(101)는 가상 입체영역을 표시한다. 일 실시예에서, 표시부(101)는 LCD(Liquid Crystal Display) 장치, LED(Light Emitting Diode) 장치와 같은 표시 장치로 구현될 수 있다. 이 때, 가상 입체영역은 3D(3-dimensional) 그래픽으로 표시된 가상의 입체 공간일 수 있다.
기준면 설정부(102)는 상기 가상 입체영역을 두 개의 영역으로 분할하는 기준면을 설정한다. 기준면은 고정점을 설정하기 위한 2차원 면으로써, 상기 가상 입체영역을 두 개의 영역으로 분할하는 면이다. 기준면 설정부(102)에 의해 설정된 기준면의 예는 아래의 도 2 및 도 3을 참조하여 상세히 설명하도록 한다.
도 2는 본 발명의 일 실시예에 따른 단말기의 기준면 설정부가 표시부에 표시된 가상 입체영역에 기준면을 설정하는 일 예를 도시한 도면이다.
도 2를 참조하면, 가상 입체영역(200)이 도시되어 있다. 도 2에서 가상 입체영역(200)은 반구의 형태로 표시되었으나, 가상 입체영역(200)의 형태는 이에 한정되는 것은 아니고 다른 형태를 가질 수 있다. 그리고 기준면 설정부(102)에 의해 설정되는, 가상 입체영역(200)을 두 개의 영역으로 분할하는 기준면(201)이 표시되어 있다. 도 2에서 가상 입체영역(200)은 기준면(201)에 의해 동일한 크기의 영역으로 앞뒤로 분할되어 있다. 하지만 도 2는 일 실시예에 따른 것이며, 기준면(201)에 의해 분할되는 두 개의 영역이 동일한 크기를 가질 필요도 없으며, 앞뒤로 분할될 필요도 없으며, 단말기의 자동 설정 또는 사용자의 수동 설정에 의해 정해질 수 있다.
도 3은 본 발명의 일 실시예에 따른 단말기의 기준면 설정부가 표시부에 표시된 가상 입체영역에 기준면을 설정하는 다른 예를 도시한 도면이다.
도 3을 참조하면, 기준면 설정부(102)가 가상 입체영역(200) 내의 객체(301)를 기준으로 기준면(201)을 설정한 예를 도시하고 있다. 도 3에 도시된 객체(301)는 사람의 형태이며, 개임 또는 시뮬레이션 내의 캐릭터일 수 있다. 도 3에 도시된 바와 같이, 본 발명의 일 실시예에 따른 단말기(100)의 기준면 설정부(102)는 가상 입체영역(200) 내의 객체(301)를 기준으로 기준면(201)을 설정할 수 있다. 도 3에서 가상 입체영역(200)은 객체(301)를 기준으로 한 기준면(201)에 의해 동일한 크기의 영역으로 앞뒤로 분할되어 있다. 하지만 도 3은 일 실시예에 따른 것이며, 객체(301)를 기준으로 한 기준면(201)에 의해 분할되는 두 개의 영역이 동일한 크기를 가질 필요도 없으며, 앞뒤로 분할될 필요도 없으며, 단말기의 자동 설정 또는 사용자의 수동 설정에 의해 정해질 수 있다.
다시 도 1로 돌아와서, 제1 조작부(103) 및 제2 조작부(104)는 표시부(101)에 표시된 가상 입체영역(200)에 대한 시점을 조작하기 위한 것으로서, 제1 조작부(103)는 두 개의 영역 중 제1 영역에 대응하고, 제2 조작부(104)는 두 개의 영역 중 제2 영역에 대응한다. 제1 조작부(103)는 스틱, 트랙볼 마우스, 터치 패드와 같은 실체를 가진 조작부이거나, 표시부(101)에 표시된 가상 터치 패드 및 표시부(101)에 표시된 가상 트랙볼과 같은 가상의 조작부일 수 있다. 제2 조작부(104)도 마찬가지로, 스틱, 트랙볼 마우스, 터치 패드와 같은 실체를 가진 조작부이거나, 표시부(101)에 표시된 가상 터치 패드 및 표시부(101)에 표시된 가상 트랙볼과 같은 가상의 조작부일 수 있다.
조작 제어부(105)는 제1 조작부(103)에 대한 사용자의 입력을 수신하여 상기 기준면(201)에 제1 고정점을 설정하고, 제2 조작부(104)에 대한 사용자의 입력을 수신하여 제1 고정점을 중심으로 상기 제2 영역을 조작하여 표시부(101)에 표시된 가상 입체영역(200)에 대한 시점을 제어할 수 있다. 반대로, 조작 제어부(105)는 제2 조작부(104)에 대한 사용자의 입력을 수신하여 기준면(201)에 제2 고정점을 설정하고, 제1 조작부(103)에 대한 사용자의 입력을 수신하여 제2 고정점을 중심으로 상기 제1 영역을 조작하여 표시부(101)에 표시된 가상 입체영역(200)에 대한 시점을 제어할 수 있다. 이 때, 조작 제어부(104)는 먼저 두 개의 조작부 중 먼저 입력된 일 조작부에 대한 조작을 고정점 설정을 위한 조작으로 판단하고 그 뒤에 입력된 다른 조작부에 대한 조작을 설정된 고정점을 중심으로 가상 입체영역(200)에 대한 시점을 제어하는 조작으로 판단할 수 있다. 또는, 조작 제어부(104)는 두 개의 조작부 중 일 조작부를 고정점 설정을 위한 조작부로 고정하고, 다른 조작부를 설정된 고정점을 중심으로 가상 입체영역(200)에 대한 시점을 제어하기 위한 조작부로 고정할 수도 있다.
도 4는 본 발명의 일 실시예에 따른 단말기의 조작 제어부가 가상 입체영역에 대한 시점을 제어하는 일 예를 도시한 도면이다.
도 4를 참조하면, 기준면(201)에 두 개의 조작부 중 하나의 조작부에 의해 고정점(401)이 설정된다. 이 때, 제1 조작부(103) 또는 제2 조작부(104)에서 고정점을 설정하기 위한 조작은 고정점을 설정하고자 하는 위치에서 손가락을 떼거나 더블 터치를 하여 수행할 수 있다. 그리고 나서, 고정점을 설정하지 아니한 나머지 조작부가 설정된 고정점(401)을 중심으로 가상 입체영역(200)에 대한 시점을 조작할 수 있다. 도 4에서는 시점을 상하(402)로 움직이는 모습을 도시하고 있으며, 표시부(101)에 표시된 가상 입체영역의 시점이 상하로 변동될 것이다. 이와 같은 동작은 가상 입체영역의 시점을 좌우 또는 기타 다른 방향으로 변경하는 예에도 적용시킬 수 있을 것이다.
이상과 같이 도 1 내지 도 4를 참조하며 본 발명의 일 실시예에 따른 단말기의 각 구성요소의 기능에 대하여 설명하였다. 이하에서는 도 5 내지 도 8을 참조하여 본 발명의 일 실시예에 따른 단말기의 구현 예들을 설명하도록 한다.
도 5는 본 발명의 일 실시예에 따른 단말기의 일 예를 도시한 도면이다.
도 5는 단말기(100)의 일면에 제1 조작부(103) 및 제2 조작부(104)가 모두 위치하는 경우의 일 예를 도시한 도면이다. 제1 조작부(103) 및 제2 조작부(104)는 모두 스틱의 형태로 구현되어 있으며, 표시부(101)에는 가상 입체영상 및 객체(301)가 표시되어 있다. 표시부(101)는 도 5에 도시된 바와 같이, 제1 고정점(401) 또는 제2 고정점(501)을 표시할 수 있다. 도 5에서는 제1 고정점(401) 및 제2 고정점(501)을 구별하기 위하여 각각 다른 모양의 점으로 표시되어 있으나, 다른 실시예에서는 이를 구별하기 위해 각각 다른 색상의 점을 이용하는 등 여러 가지 방법을 이용할 수 있다.
도 6 및 도 7은 본 발명의 일 실시예에 따른 단말기의 다른 예를 도시한 도면이다.
도 6 및 도 7은 단말기(100)의 일면에 제1 조작부(103)가 위치하고, 단말기(100)의 타면에 제2 조작부(104)가 모두 위치하는 경우의 일 예를 도시한 도면이다. 도 6은 단말기(100)의 일면으로서 전면부가 표시되어 있다. 도 6에서 제1 조작부(103)는 스틱의 형태로 구현되어 있으며, 표시부(101)에는 가상 입체영상 및 객체(301)가 표시되어 있다. 그리고 도 5에서와 마찬가지로 제1 고정점(401) 및 제2 고정점(501)이 각각 다른 모양의 점으로 표시되어 있다.
그리고 도 7은 단말기(100)의 타면으로서 후면부가 표시되어 있다. 도 7에서 제2 조작부(104)는 터치 패드의 형태로 구현되어 있으며, 사용자가 후면을 보면서 조작을 하지 않으므로, 후면부에 표시부가 존재하지는 않는다.
도 8은 본 발명의 일 실시예에 따른 단말기의 또 다른 예를 도시한 도면이다.
도 8은 단말기(100)의 일면에 제1 조작부(103) 및 제2 조작부(104)가 모두 위치하는 경우로서 도 5의 경우와는 다른 예를 도시한 도면이다. 제1 조작부(103) 및 제2 조작부(104)는 모두 가상 트랙볼의 형태로 구현되어 있으며, 이러한 가상 트랙볼을 조작하여 본 발명의 일 실시예에 따른 단말기(100)의 가상 입체영역 제어가 가능하다. 표시부(101)에는 가상 입체영상 및 객체(301)가 표시되어 있다. 그리고 도 5에서와 마찬가지로 제1 고정점(401) 및 제2 고정점(501)이 각각 다른 모양의 점으로 표시되어 있다.
일 실시예에서, 표시부(101)는 제1 조작부(103) 또는 제2 조작부(104)를 도 8에 표시된 바와 같이 미리 설정된 위치에 표시할 수 있다. 다른 실시예에서, 표시부(101)는 표시부(101)에 대한 사용자의 터치 입력 위치에 대응하여 제1 조작부(103) 또는 제2 조작부(104)를 표시할 수 있다.
예를 들어, 사용자가 왼손 엄지 손가락으로 단말기(100)의 표시부(101)의 특정 위치를 터치하면 표시부(101)는 해당 위치에 제1 조작부(103)를 표시하고, 그 다음 오른손 엄지 손가락으로 단말기(100)의 표시부(101)의 다른 위치를 터치하면 표시부(101)는 해당 위치에 제2 조작부(104)를 표시할 수 있다.
이상 도 5 내지 도 8에서 설명한 단말기(100)의 구현 예 외에도 제1 조작부(103) 및 제2 조작부(104)가 각각 어떤 형태로 구현되는지 및 제1 조작부(103) 및 제2 조작부(104)가 각각 어디에 위치하는지에 따라 본 발명의 일 실시예에 따른 단말기(100)는 여러 가지 형태로 구현될 수 있다.
도 9는 본 발명의 일 실시예에 따른 단말기를 이용한 가상 입체영역 제어 방법을 설명하기 위한 순서도이다.
도 9를 참조하면, 본 발명의 일 실시예에 따른 단말기를 이용한 가상 입체영역 제어 방법이 시작되면, 먼저 단말기의 표시부가 가상 입체영역을 표시하고(S901), 상기 가상 입체영역을 두 개의 영역으로 분할하는 기준면을 설정한다(S902). 이 때, 단계(S902)에서 상기 가상 입체영역 내의 객체를 기준으로 상기 기준면을 설정할 수 있다.
그리고 나서, 상기 두 개의 영역 중 제1 영역에 대응하는 제1 조작부에 대한 사용자의 입력을 수신하여 상기 기준면에 제1 고정점을 설정하고(S903), 상기 두 개의 영역 중 제2 영역에 대응하는 제2 조작부에 대한 사용자의 입력을 수신하여 상기 제1 고정점을 중심으로 상기 제2 영역을 조작하여 상기 표시부에 표시된 상기 가상 입체영역에 대한 시점을 제어한다(S904).
일 실시예에서, 본 발명의 일 실시예에 따른 단말기를 이용한 가상 입체영역 제어 방법은 상기 제2 조작부에 대한 사용자의 입력을 수신하여 상기 기준면에 제2 고정점을 설정하고, 상기 제1 조작부에 대한 사용자의 입력을 수신하여 상기 제2 고정점을 중심으로 상기 제1 영역을 조작하여 상기 표시부에 표시된 상기 가상 입체영역에 대한 시점을 제어하는 과정을 더 포함할 수 있다.
다른 실시예에서, 본 발명의 일 실시예에 따른 단말기를 이용한 가상 입체영역 제어 방법은 상기 표시부가 상기 표시부에 대한 사용자의 터치 입력 위치에 대응하여 상기 제1 조작부 또는 상기 제2 조작부를 표시하는 과정을 더 포함할 수 있다.
또 다른 실시예에서, 본 발명의 일 실시예에 따른 단말기를 이용한 가상 입체영역 제어 방법은 상기 표시부가 상기 제1 고정점 또는 상기 제2 고정점을 표시하는 과정을 더 포함할 수 있다.
전술한 단말기를 이용한 가상 입체영역 제어 방법은 도면에 제시된 순서도를 참조로 하여 설명되었다. 간단히 설명하기 위하여 상기 방법은 일련의 블록들로 도시되고 설명되었으나, 본 발명은 상기 블록들의 순서에 한정되지 않고, 몇몇 블록들은 다른 블록들과 본 명세서에서 도시되고 기술된 것과 상이한 순서로 또는 동시에 일어날 수도 있으며, 동일한 또는 유사한 결과를 달성하는 다양한 다른 분기, 흐름 경로, 및 블록의 순서들이 구현될 수 있다. 또한, 본 명세서에서 기술되는 방법의 구현을 위하여 도시된 모든 블록들이 요구되지 않을 수도 있다.
이상 본 발명의 특정 실시예를 도시하고 설명하였으나, 본 발명의 기술사상은 첨부된 도면과 상기한 설명내용에 한정하지 않으며 본 발명의 사상을 벗어나지 않는 범위 내에서 다양한 형태의 변형이 가능함은 이 분야의 통상의 지식을 가진 자에게는 자명한 사실이며, 이러한 형태의 변형은, 본 발명의 정신에 위배되지 않는 범위 내에서 본 발명의 특허청구범위에 속한다고 볼 것이다.
100 단말기
101 표시부
102 기준면 설정부
103 제1 조작부
104 제2 조작부
105 조작 제어부

Claims (14)

  1. 가상 입체영역을 표시하는 표시부;
    상기 가상 입체영역을 두 개의 영역으로 분할하고 고정점을 설정하기 위한 기준면을 설정하는 기준면 설정부;
    상기 두 개의 영역 중 제1 영역에 대응하는 제1 조작부;
    상기 두 개의 영역 중 제2 영역에 대응하는 제2 조작부; 및
    상기 제1 조작부 및 제2 조작부 중 일 조작부에 대한 사용자의 입력을 수신하여 상기 기준면에 고정점을 설정하고, 타 조작부에 대한 사용자의 입력을 수신하여 상기 고정점을 중심으로 상기 제1 영역 및 제2 영역 중 상기 타 조작부에 대응하는 영역을 조작하여 상기 표시부에 표시된 상기 가상 입체영역에 대한 시점을 제어하는 조작 제어부를 포함하는 것을 특징으로 하는 단말기.
  2. 청구항 1에 있어서,
    상기 조작 제어부는,
    상기 제1 조작부 및 제2 조작부 중 먼저 입력된 일 조작부에 대한 조작을 고정점 설정을 위한 조작으로 판단하고 그 뒤에 입력된 타 조작부에 대한 조작을 설정된 고정점을 중심으로 가상 입체영역에 대한 시점을 제어하는 조작으로 판단하는 것을 특징으로 하는 단말기.
  3. 청구항 1에 있어서,
    상기 기준면 설정부는,
    상기 가상 입체영역 내의 객체를 기준으로 상기 기준면을 설정하는 것을 특징으로 하는 단말기.
  4. 청구항 1에 있어서,
    상기 제1 조작부는,
    스틱, 트랙볼 마우스, 터치 패드, 상기 표시부에 표시된 가상 터치 패드 및 상기 표시부에 표시된 가상 트랙볼 중 하나인 것을 특징으로 하는 단말기.
  5. 청구항 1에 있어서,
    상기 제2 조작부는,
    스틱, 트랙볼 마우스, 터치 패드, 상기 표시부에 표시된 가상 터치 패드 및 상기 표시부에 표시된 가상 트랙볼 중 하나인 것을 특징으로 하는 단말기.
  6. 청구항 1에 있어서,
    상기 제1 조작부와 상기 제2 조작부는,
    상기 단말기의 일면에 위치하는 것을 특징으로 하는 단말기.
  7. 청구항 1에 있어서,
    상기 제1 조작부는,
    상기 단말기의 일면에 위치하고,
    상기 제2 조작부는,
    상기 단말기의 타면에 위치하는 것을 특징으로 하는 단말기.
  8. 청구항 1에 있어서,
    상기 표시부는,
    상기 표시부에 대한 사용자의 터치 입력 위치에 대응하여 상기 제1 조작부 또는 상기 제2 조작부를 표시하는 것을 특징으로 하는 단말기.
  9. 청구항 2에 있어서,
    상기 표시부는,
    상기 제1 고정점 또는 상기 제2 고정점을 표시하는 것을 특징으로 하는 단말기.
  10. 단말기의 표시부가 가상 입체영역을 표시하는 단계;
    상기 가상 입체영역을 두 개의 영역으로 분할하고 고정점을 설정하기 위한 기준면을 설정하는 단계;
    상기 두 개의 영역 중 제1 영역에 대응하는 제1 조작부 및 상기 두 개의 영역 중 제2 영역에 대응하는 제2 조작부 중 일 조작부에 대한 사용자의 입력을 수신하여 상기 기준면에 고정점을 설정하는 단계; 및
    타 조작부에 대한 사용자의 입력을 수신하여 상기 고정점을 중심으로 상기 제1 영역 및 제2 영역 중 상기 타 조작부에 대응하는 영역을 조작하여 상기 표시부에 표시된 상기 가상 입체영역에 대한 시점을 제어하는 단계를 포함하는 것을 특징으로 하는 가상 입체영역 제어 방법.
  11. 청구항 10에 있어서,
    상기 제1 조작부 및 제2 조작부 중 먼저 입력된 일 조작부에 대한 조작을 고정점 설정을 위한 조작으로 판단하고 그 뒤에 입력된 타 조작부에 대한 조작을 설정된 고정점을 중심으로 가상 입체영역에 대한 시점을 제어하는 조작으로 판단하는 단계를 더 포함하는 것을 특징으로 하는 가상 입체영역 제어 방법.
  12. 청구항 10에 있어서,
    상기 기준면을 설정하는 단계는,
    상기 가상 입체영역 내의 객체를 기준으로 상기 기준면을 설정하는 것을 특징으로 하는 가상 입체영역 제어 방법.
  13. 청구항 10에 있어서,
    상기 표시부가 상기 표시부에 대한 사용자의 터치 입력 위치에 대응하여 상기 제1 조작부 또는 상기 제2 조작부를 표시하는 단계를 더 포함하는 특징으로 하는 가상 입체영역 제어 방법.
  14. 청구항 11에 있어서,
    상기 표시부가 상기 제1 고정점 또는 상기 제2 고정점을 표시하는 단계를 더 포함하는 특징으로 하는 가상 입체영역 제어 방법.
KR1020120114619A 2012-10-16 2012-10-16 단말기 및 이를 이용한 가상 입체영역 제어 방법 KR101396742B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120114619A KR101396742B1 (ko) 2012-10-16 2012-10-16 단말기 및 이를 이용한 가상 입체영역 제어 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120114619A KR101396742B1 (ko) 2012-10-16 2012-10-16 단말기 및 이를 이용한 가상 입체영역 제어 방법

Publications (2)

Publication Number Publication Date
KR20140048541A KR20140048541A (ko) 2014-04-24
KR101396742B1 true KR101396742B1 (ko) 2014-05-19

Family

ID=50654539

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120114619A KR101396742B1 (ko) 2012-10-16 2012-10-16 단말기 및 이를 이용한 가상 입체영역 제어 방법

Country Status (1)

Country Link
KR (1) KR101396742B1 (ko)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07302358A (ja) * 1994-05-02 1995-11-14 Nissan Motor Co Ltd Cadシステム用3次元図形視点変更装置
KR0122851B1 (en) * 1992-03-04 1997-11-21 Ibm Graphic display method and apparatus for rotating an object in a three-dimensional space
JP2000113231A (ja) 1998-10-06 2000-04-21 Nec Corp 3次元視点設定方法および記録媒体
JP2009157942A (ja) 2009-04-01 2009-07-16 Nintendo Co Ltd 表示領域を移動させる画像処理プログラムおよび画像処理装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR0122851B1 (en) * 1992-03-04 1997-11-21 Ibm Graphic display method and apparatus for rotating an object in a three-dimensional space
JPH07302358A (ja) * 1994-05-02 1995-11-14 Nissan Motor Co Ltd Cadシステム用3次元図形視点変更装置
JP2000113231A (ja) 1998-10-06 2000-04-21 Nec Corp 3次元視点設定方法および記録媒体
JP2009157942A (ja) 2009-04-01 2009-07-16 Nintendo Co Ltd 表示領域を移動させる画像処理プログラムおよび画像処理装置

Also Published As

Publication number Publication date
KR20140048541A (ko) 2014-04-24

Similar Documents

Publication Publication Date Title
AU2015241900B2 (en) User interface program and game program
Benko et al. Balloon selection: A multi-finger technique for accurate low-fatigue 3d selection
Hürst et al. Gesture-based interaction via finger tracking for mobile augmented reality
EP2681649B1 (en) System and method for navigating a 3-d environment using a multi-input interface
Valkov et al. 2D touching of 3D stereoscopic objects
KR20230054733A (ko) 가상 제어부들과 상호작용하기 위한 방법들 및/또는 가상 환경들에서 가상 객체들을 이동시키기 위한 어포던스
Bruder et al. Touching the void revisited: Analyses of touch behavior on and above tabletop surfaces
US20130307796A1 (en) Touchscreen Device Integrated Computing System And Method
Steinicke et al. Multi-touching 3D data: Towards direct interaction in stereoscopic display environments coupled with mobile devices
KR20140040246A (ko) 컴퓨터 비젼 애플리케이션들에서 상호작용 반경을 확대하기 위한 제스쳐-제어 기법
JP2009259259A (ja) 積層スクリーンを有する可視ディスプレイの奥行き移動の制御
CN104820497A (zh) 一种基于增强现实的3d交互显示系统
US20170177077A1 (en) Three-dimension interactive system and method for virtual reality
CN105159522A (zh) 一种虚拟现实显示设备响应外设设备操作的方法
CN102722338A (zh) 基于触摸屏的三维人体模型展示与交互方法
Stuerzlinger et al. Considerations for targets in 3D pointing experiments
Yan et al. Multitouching the fourth dimension
Wacker et al. Heatmaps, shadows, bubbles, rays: Comparing mid-air pen position visualizations in handheld ar
WO2009014080A1 (ja) 表示制御装置、表示制御方法および制御プログラム
Gotsch et al. Holoflex: A flexible light-field smartphone with a microlens array and a p-oled touchscreen
Hachet et al. Touch-based interfaces for interacting with 3D content in public exhibitions
Kim et al. Virtual object sizes for efficient and convenient mid-air manipulation
KR101396742B1 (ko) 단말기 및 이를 이용한 가상 입체영역 제어 방법
Kamuro et al. 3D Haptic modeling system using ungrounded pen-shaped kinesthetic display
JP5767371B1 (ja) 仮想空間平面上に配置したオブジェクトを表示制御するゲーム・プログラム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170512

Year of fee payment: 6