KR20120072867A - 3d 디스플레이 단말 장치 및 그 조작 방법 - Google Patents

3d 디스플레이 단말 장치 및 그 조작 방법 Download PDF

Info

Publication number
KR20120072867A
KR20120072867A KR1020100134784A KR20100134784A KR20120072867A KR 20120072867 A KR20120072867 A KR 20120072867A KR 1020100134784 A KR1020100134784 A KR 1020100134784A KR 20100134784 A KR20100134784 A KR 20100134784A KR 20120072867 A KR20120072867 A KR 20120072867A
Authority
KR
South Korea
Prior art keywords
screen
display
touch
depth
state
Prior art date
Application number
KR1020100134784A
Other languages
English (en)
Other versions
KR101763263B1 (ko
Inventor
심정현
이용연
이연희
구자옥
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020100134784A priority Critical patent/KR101763263B1/ko
Priority to US13/331,778 priority patent/US9495805B2/en
Priority to MX2013007308A priority patent/MX2013007308A/es
Priority to AU2011345468A priority patent/AU2011345468B2/en
Priority to CN201180061539.2A priority patent/CN103282945B/zh
Priority to CA2822760A priority patent/CA2822760A1/en
Priority to JP2013546042A priority patent/JP5968905B2/ja
Priority to EP11850279.8A priority patent/EP2656318B1/en
Priority to RU2013134461A priority patent/RU2616565C2/ru
Priority to PCT/KR2011/010125 priority patent/WO2012087085A1/en
Priority to BR112013009928A priority patent/BR112013009928A2/pt
Publication of KR20120072867A publication Critical patent/KR20120072867A/ko
Application granted granted Critical
Publication of KR101763263B1 publication Critical patent/KR101763263B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0382Plural input, i.e. interface arrangements in which a plurality of input device of the same type are in communication with a PC
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Architecture (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

3D 디스플레이 단말 장치의 조작 방법이 개시된다. 본 방법은, 서로 다른 깊이 감을 가지는 복수의 객체를 디스플레이하는 단계, 사용자 조작에 따라, 복수의 객체의 표시 상태를 변경하는 단계를 포함한다. 여기서, 사용자 조작은, 깊이 감에 대응되도록 상이한 깊이로 인식되는 복수의 터치 모드로 이루어지며, 복수의 터치 모드는 직접 터치 모드 및 근접 터치 모드를 포함할 수 있다. 이에 따라, 단말 장치를 좀 더 용이하게 조작할 수 있게 된다.

Description

3D 디스플레이 단말 장치 및 그 조작 방법{3D DISPLAY TERMINAL APPARATUS AND OPERATING METHOD}
본 발명은 3D 디스플레이 단말 장치 및 그 조작 방법에 대한 것으로, 보다 상세하게는, 3D 디스플레이 방식을 이용하여 서로 다른 깊이감을 가지는 복수의 객체를 표시하고, 그 객체를 터치 방식으로 조작하는 3D 디스플레이 단말 장치 및 그 조작 방법에 대한 것이다.
전자 기술의 발달에 힘입어 다양한 유형의 휴대형 단말 기기가 개발되어 보급되고 있다. 특히, 최근에는 기존 휴대폰에서 제공하던 서비스의 수준을 넘어서서 다양한 어플리케이션 서비스를 제공하는 스마트폰이 선풍적인 인기를 끌면서, 급속도로 보급되고 있다.
사용자는 스마트폰과 같은 단말 장치를 이용하여 다양한 서비스를 이용할 수 있다. 일 예로, 문서 편집이나 메일 전송 등과 같은 서비스도 이용할 수 있다. 이러한 서비스를 이용하는 과정에서, 사용자는 그림이나 사진과 같은 컨텐츠를 선택하여 복사 한 후, 다른 문서 또는 다른 어플리케이션에서 페이스트(paste)하여 사용할 수도 있다.
하지만, 휴대형으로 구현되기 위해서 단말 기기의 디스플레이 사이즈는 제한적일 수밖에 없어서, 컨텐츠 선택 및 그 이용에 어려움이 있었다. 특히, 복사 및 페이스트 기능을 이용하는 과정에서, 일단 복사를 명령하고 나서 화면이 전환되면 복사한 컨텐츠가 어떤 것인지를 확인하기 어렵다는 문제점이 있었다.
이에 따라, 사용자가 단말 기기를 좀 더 용이하고 편리하게 조작할 수 있는 방법에 대한 필요성이 대두되었다.
본 발명은 상술한 필요성에 따른 것으로, 본 발명의 목적은 서로 다른 깊이 감을 가지는 복수의 객체를 디스플레이하고, 그 깊이감에 대응되는 복수의 터치 모드에 따라 각 객체를 선택 및 조작할 수 있는 3D 디스플레이 단말 장치 및 그 조작 방법을 제공함에 있다.
본 발명의 일 실시 예에 따르면, 3D 디스플레이 단말 장치의 조작 방법은, 서로 다른 깊이 감을 가지는 복수의 객체를 디스플레이하는 단계, 사용자 조작에 따라, 상기 복수의 객체의 표시 상태를 변경하는 단계를 포함할 수 있다. 여기서, 상기 사용자 조작은, 상기 깊이 감에 대응되도록 상이한 깊이로 인식되는 복수의 터치 모드로 이루어질 수 있다.
한편, 본 조작 방법은, 상기 서로 다른 깊이 감을 가지는 복수의 객체를 디스플레이하는 단계 이전에, 동일한 깊이감을 가지는 객체들을 디스플레이하는 단계, 상기 객체들 중에서 하나의 객체가 선택되면, 선택된 객체의 깊이감을 조정하는 단계를 더 포함할 수도 있다.
또는, 상기 서로 다른 깊이 감을 가지는 복수의 객체를 디스플레이하는 단계 이전에, 동일한 깊이 감을 가지는 객체들로 구성된 화면을 디스플레이하는 단계, 상기 화면 상에서 하나의 객체가 선택되면, 선택된 객체의 일 측에 메뉴 선택 창을 표시하는 단계, 상기 메뉴 선택 창에서 복사 메뉴가 선택되면, 상기 선택된 객체의 깊이 감을 조정하는 단계를 더 포함할 수도 있다.
또는, 상기 서로 다른 깊이 감을 가지는 복수의 객체를 디스플레이하는 단계 이전에, 동일한 깊이 감을 가지는 객체들로 구성된 화면을 디스플레이하는 단계, 상기 화면 상에서 하나의 객체가 터치 되고, 터치 상태가 기 설정된 방향으로 회전되거나 기 설정된 패턴에 따라 이동되면, 상기 선택된 객체의 깊이 감을 조정하는 단계를 더 포함할 수도 있다.
이상과 같은 다양한 실시 예들에서, 상기 깊이감이 조정된 객체는 상기 3D 디스플레이 단말 장치의 화면으로부터 수직한 방향으로 돌출되도록 3D 방식으로 디스플레이될 수 있다. 또한, 상기 복수의 터치 모드는 상기 돌출된 객체를 상기 화면과 이격된 상태에서 선택하기 위한 근접 터치 모드, 상기 화면에 디스플레이되는 객체를 직접 터치하여 선택하기 위한 직접 터치 모드를 포함할 수 있다.
한편, 상기 깊이 감이 조정된 객체가 상기 화면으로부터 돌출된 상태로 표시되면, 원 화면 상에서 상기 객체 표시는 삭제될 수도 있다.
그리고, 상기 사용자 조작에 따라, 상기 복수의 객체의 표시 상태를 변경하는 단계는, 상기 근접 터치 모드에 따라 상기 돌출된 객체의 깊이 감에 대응되는 거리만큼 상기 화면과 이격된 상태에서 상기 돌출된 객체가 선택되고, 선택된 지점이 이동되면, 이동되는 지점에 따라 상기 돌출된 객체의 표시 위치를 변경하는 단계를 포함할 수 있다.
그리고, 상기 사용자 조작에 따라, 상기 복수의 객체의 표시 상태를 변경하는 단계는, 상기 선택된 객체가 상기 돌출된 형태로 3D 방식으로 디스플레이된 상태에서 상기 화면이 직접 터치 되면, 상기 선택된 객체의 디스플레이 상태는 유지하면서 상기 터치 상태에 따라 화면 표시 상태를 전환하는 단계, 상기 화면 표시 상태가 전환된 상태에서 상기 선택된 객체가 상기 근접 터치 모드에 의해 근접 터치 되어 선택된 후, 상기 전환된 화면 상의 일 영역으로 이동되어 직접 터치가 이루어지면, 상기 선택된 객체의 깊이 감을 원 상태로 복구하면서 상기 터치된 일 영역에 페이스트(paste)하는 단계를 포함할 수 있다.
여기서, 상기 객체는 컨텐츠가 될 수 있다.
또는, 상기 사용자 조작에 따라, 상기 복수의 객체의 표시 상태를 변경하는 단계는, 상기 선택된 객체의 깊이 감이 조정되어 서로 다른 깊이 감을 가지는 복수의 객체가 디스플레이된 상태에서, 레이어 변경 명령이 입력되면, 돌출된 객체와 상기 화면 상의 객체의 깊이 감을 서로 스위치하여 표시하는 단계를 포함할 수도 있다.
이 경우, 조작 방법은, 상기 레이어 변경 명령을 입력하기 위한 메뉴를 상기 화면 상의 일 영역에 표시하는 단계를 더 포함할 수도 있다.
한편, 상기 터치 상태에 따라 상기 화면 표시 상태를 전환하는 단계는, 상기 선택된 객체가 상기 돌출된 형태로 3D 방식으로 디스플레이된 상태에서 상기 화면이 직접 터치된 경우, 직접 터치된 지점이 어플리케이션 아이콘이면 상기 어플리케이션 아이콘에 대응되는 어플리케이션 화면으로 상기 화면 표시 상태를 전환할 수 있다.
그리고, 상기 사용자 조작에 따라, 상기 복수의 객체의 표시 상태를 변경하는 단계는, 상기 선택된 객체의 깊이감을 조정하여 상기 선택된 객체를 원 화면으로부터 분리하여 돌출된 형태로 3D 방식으로 디스플레이하면서, 상기 원 화면에서 상기 선택된 객체의 표시를 삭제하는 단계, 상기 화면이 직접 터치되고, 터치된 지점이 기 설정된 임계 속도 이상의 속도로 임의의 방향으로 이동되면, 상기 돌출된 형태의 객체 표시는 유지하면서 상기 임의의 방향에 따라 페이지를 전환하여 다음 페이지로 화면 표시 상태를 전환하는 단계를 포함할 수도 있다.
여기서, 상기 객체는 아이콘이 될 수 있다.
한편, 상기 복수의 터치 모드는, 상기 화면과 이격된 상태에서 객체를 선택할 수 있는 적어도 하나의 근접 터치 모드, 상기 화면을 직접 터치하여 객체를 선택하는 직접 터치 모드, 상기 화면을 직접 터치한 상태에서 터치 압력을 조정하여 객체를 선택할 수 있는 적어도 하나의 가압 모드, 상기 화면을 직접 터치하는 시간에 따라 객체를 선택할 수 있는 적어도 하나의 롱 프레스 모드 중 적어도 두 개 이상의 모드를 포함할 수 있다.
한편, 본 발명의 일 실시 예에 따른 3D 디스플레이 단말 장치는, 동일한 깊이감을 가지는 객체들을 디스플레이하는 디스플레이부, 상기 객체들 중에서 하나의 객체가 선택되면, 선택된 객체의 깊이감을 조정하는 변환부, 각 객체의 깊이감에 대응되는 상이한 깊이의 터치를 인식하는 복수의 터치 모드에 따라 사용자 조작을 인식하여, 상기 객체들의 표시 상태를 변경하도록 상기 디스플레이부 및 상기 변환부를 제어하는 제어부를 포함한다.
여기서, 상기 디스플레이부는, 하나의 객체가 선택되면 선택된 객체의 일 측에 메뉴 선택 창을 표시할 수 있다. 그리고, 상기 제어부는, 상기 메뉴 선택 창에서 복사 메뉴가 선택되면, 상기 선택된 객체의 깊이 감을 조정하도록 상기 변환부를 제어할 수 있다.
또는, 상기 제어부는, 하나의 객체가 터치 되고, 터치 상태가 기 설정된 방향으로 회전되거나 기 설정된 패턴에 따라 이동되면, 상기 선택된 객체의 깊이 감을 조정하도록 상기 변환부를 제어할 수도 있다.
한편, 상기 변환부는, 상기 선택된 객체가 상기 3D 디스플레이 단말 장치의 화면으로부터 수직한 방향으로 3D 방식으로 돌출되도록 상기 선택된 객체의 거리감을 조정할 수 있다. 이 경우, 상기 제어부는, 상기 화면으로부터 돌출된 객체의 선택은, 상기 화면과 이격된 상태에서 선택하는 근접 터치 모드에 따라 인식하고, 상기 화면에 디스플레이되는 객체의 선택은 상기 화면을 직접 터치하여 선택하는 직접 터치 모드에 따라 인식할 수 있다.
그리고, 상기 제어부는, 상기 깊이 감이 조정된 객체가 상기 화면으로부터 돌출된 상태로 표시되면, 원 화면 상에서 상기 선택된 객체의 표시를 삭제하도록 상기 디스플레이부 및 상기 변환부를 제어할 수 있다.
여기서, 상기 제어부는, 상기 근접 터치 모드에 따라 상기 돌출된 객체의 깊이 감에 대응되는 거리만큼 상기 화면과 이격된 상태에서 상기 돌출된 객체가 선택되고, 상기 돌출된 객체를 선택한 포인트가 이동되면, 이동되는 포인트에 따라 상기 돌출된 객체의 표시 위치를 변경하도록 상기 디스플레이부 및 상기 변환부를 제어할 수 있다.
한편, 상기 제어부는, 상기 선택된 객체가 상기 돌출된 형태로 3D 방식으로 디스플레이된 상태에서 상기 화면이 직접 터치 되면, 상기 선택된 객체의 디스플레이 상태는 유지하면서 상기 터치 상태에 따라 화면 표시 상태를 전환하고, 상기 화면 표시 상태가 전환된 상태에서 상기 선택된 객체가 상기 근접 터치 모드에 의해 근접 터치 되어 선택된 후, 상기 전환된 화면 상의 일 영역으로 이동되어 직접 터치가 이루어지면, 상기 선택된 객체의 깊이 감을 원 상태로 복구하면서 상기 터치된 일 영역에 페이스트(paste)하여 표시하도록 상기 디스플레이부 및 상기 변환부를 제어할 수 있다.
여기서, 상기 객체는 컨텐츠일 수 있다.
그리고, 상기 제어부는, 상기 선택된 객체의 깊이 감이 조정되어 서로 다른 깊이 감을 가지는 복수의 객체가 디스플레이된 상태에서, 레이어 변경 명령이 입력되면, 돌출된 객체와 상기 화면 상의 객체의 깊이 감을 서로 스위치하여 표시하도록 상기 디스플레이부 및 상기 변환부를 제어할 수 있다.
이 경우, 상기 디스플레이부는, 상기 레이어 변경 명령을 입력하기 위한 메뉴를 상기 화면 상의 일 영역에 표시할 수 있다.
그리고, 상기 제어부는, 상기 선택된 객체가 상기 돌출된 형태로 3D 방식으로 디스플레이된 상태에서 상기 화면이 직접 터치된 경우, 직접 터치된 지점이 어플리케이션 아이콘이면 상기 어플리케이션 아이콘에 대응되는 어플리케이션 화면으로 상기 화면 표시 상태를 전환할 수 있다.
한편, 상기 제어부는, 상기 선택된 객체의 깊이감을 조정하여 상기 선택된 객체를 원 화면으로부터 분리하여 돌출된 형태로 3D 방식으로 디스플레이하면서, 상기 원 화면에서 상기 선택된 객체의 표시를 삭제하고, 상기 화면이 직접 터치되고, 터치된 지점이 기 설정된 임계 속도 이상의 속도로 임의의 방향으로 이동되면, 상기 돌출된 형태의 객체 표시는 유지하면서 상기 임의의 방향에 따라 페이지를 전환하여 다음 페이지로 화면 표시 상태를 전환하도록 상기 디스플레이부 및 상기 변환부를 제어할 수 있다.
여기서, 상기 객체는 아이콘이 될 수 있다.
한편, 상기 복수의 터치 모드는, 상기 화면과 이격된 상태에서 객체를 선택할 수 있는 적어도 하나의 근접 터치 모드, 상기 화면을 직접 터치하여 객체를 선택하는 직접 터치 모드, 상기 화면을 직접 터치한 상태에서 터치 압력을 조정하여 객체를 선택할 수 있는 적어도 하나의 가압 모드, 상기 화면을 직접 터치하는 시간에 따라 객체를 선택할 수 있는 적어도 하나의 롱 프레스 모드 중 적어도 두 개 이상의 모드를 포함할 수 있다.
한편, 본 장치는, 상기 디스플레이부의 화면을 직접적으로 터치하는 직접 터치를 감지하는 제1 센서부, 상기 디스플레이부의 화면에 기 설정된 범위 이내로 접근하는 근접 터치를 감지하는 제2 센서부를 더 포함할 수 있다.
이상과 같은 본 발명의 다양한 실시 예에 따르면, 사용자는 단말 기기에서 컨텐츠나 아이콘 등과 같은 객체를 좀 더 편리하게 선택하여 이용할 수 있게 된다.
도 1은 본 발명의 일 실시 예에 따른 3D 디스플레이 단말 장치의 구성을 나타내는 블럭도,
도 2는 도 1의 3D 디스플레이 단말 장치의 세부 구성의 일 예를 나타내는 블럭도,
도 3은 근접 터치를 센싱하는 방법의 일 예를 설명하기 위한 도면,
도 4는 서로 다른 깊이감을 가지는 복수의 객체를 디스플레이하는 과정의 일 예를 설명하기 위한 도면,
도 5는 서로 다른 깊이감을 가지는 객체들의 표시 상태 및 그에 따른 터치 방식의 차이를 설명하기 위한 도면,
도 6 내지 도 11은 본 발명의 다양한 실시 예에 따른 조작 방법을 설명하기 위한 도면,
도 12 내지 도 14는 본 발명의 다양한 실시 예에 따른 3D 디스플레이 단말 장치에서의 조작 방법을 설명하기 위한 흐름도이다.
이하에서 첨부된 도면을 참조하여 본 발명에 대하여 구체적으로 설명한다.
<3D 디스플레이 단말 장치의 구성>
도 1은 본 발명의 일 실시 예에 따른 3D 디스플레이 단말 장치의 구성을 나타내는 블럭도이다. 도 1의 3D 디스플레이 단말 장치는 휴대폰, PDA, 노트북 PC, 태블릿 PC, 전자 액자, 전자 책, MP3 플레이어 등과 같은 다양한 휴대형 단말 장치 뿐만 아니라, TV, PC 등과 같은 단말 장치로 구현될 수도 있다.
도 1에 따르면, 3D 디스플레이 단말 장치는 디스플레이부(110), 변환부(120), 제어부(130)를 포함한다.
디스플레이부(110)는 적어도 하나 이상의 객체로 이루어진 화면을 출력한다. 여기서 객체란 텍스트, 그림, 사진 등과 같이 화면 상에서 하나의 독립적인 의미를 가지는 표시를 의미할 수 있으며, 메뉴 아이콘이나 폴더 아이콘 등과 같은 다양한 형태의 아이콘을 포함할 수도 있다.
디스플레이부(110)는 평상시 대기 화면에는 기 설치된 각종 어플리케이션 프로그램에 대응되는 아이콘이나, 장치 이용을 위해 마련된 메뉴 아이콘 등을 표시할 수 있다. 이러한 상태에서 특정 어플리케이션 또는 특정 메뉴가 선택되면, 그 선택된 어플리케이션 또는 메뉴에 대응되는 화면을 표시한다. 표시된 화면에는 텍스트나 그림, 사진, 메뉴 등이 다양한 형태 및 크기로 포함될 수 있다.
변환부(120)는 디스플레이부(110)에서 화면상에 표시한 객체들 중에서 일부 객체가 선택되면, 선택된 객체의 깊이감을 조정한다. 깊이 감이란 화면을 기준으로 화면으로부터 돌출되어 보이는 정도, 또는 화면 하측으로 매몰되어 보이는 정도를 의미한다. 즉, 3D 디스플레이 방식에 의하면, 좌측 영상 및 우측 영상 간의 디스패리티에 의해 사용자는 입체감을 느낄 수 있다. 깊이감이란 이러한 입체감을 의미할 수 있다.
변환부(120)는 선택된 객체의 깊이감을 조정하기 위하여, 해당 객체의 이미지를 3D 데이터로 변환한다. 3D 디스플레이 방식은 안경의 필요 여부에 따라 안경식 또는 무안경식으로 구분될 수 있다.
즉, 3D 디스플레이 단말 장치의 사용자가 3D 시청을 위한 전용 안경을 착용하는 안경식 3D 디스플레이 장치라면, 변환부(120)는 선택된 객체의 이미지를 좌안 영상 및 우안 영상으로 각각 생성한다. 좌안 영상 및 우안 영상이란 동일한 피사체를 서로 다른 시각에서 바라본 영상을 의미한다. 좌안 영상 및 우안 영상에서 서로 대응되는 블록 간의 거리가 입체감, 즉, 상술한 깊이감이 될 수 있다. 디스플레이부(110)는 변환부(120)에서 생성한 좌안 영상 및 우안 영상을 기 설정된 횟수로 교번적으로 출력한다. 제어부(130)는 별도로 마련된 동기 신호 전송유닛(미도시)를 이용하여, 좌안 영상 및 우안 영상의 교번적인 출력 타이밍에 맞는 동기 신호를 3D 안경 장치로 전송한다. 이에 따라, 3D 안경에서 좌측 글래스 및 우측 글래스를 그 동기 신호에 맞추어 교번적으로 턴온시켜, 3D 시청이 가능하도록 한다.
한편, 3D 디스플레이 단말 장치가 전용 안경을 필요치않는 무안경식 3D 디스플레이 장치라면, 변환부(120)는 선택된 객체의 이미지를 다시점 영상으로 변환하여 디스플레이부(110)로 제공한다.
구체적으로는, 변환부(120)는 영상 신호를 기준으로 초점 거리, 피사체의 깊이 등을 이용하여, 시점 변화 시에 피사체와의 거리 변화 정도, 방향 전환 정도 등을 추정한다. 변환부(120)는 추정 결과에 따라, 기준 영상의 각 픽셀의 위치를 이동시켜 새로운 영상을 생성한다. 생성된 영상은 기준 영상과는 소정 각도만큼 이격된 상태에서 피사체를 바라본 영상이 될 수 있다. 변환부(120)는 이러한 방식으로 복수의 다시점 영상을 생성할 수 있다.
디스플레이부(110)는 다시점 영상을 공간적으로 구분하여 출력하여 안경을 쓰지 않고서도 피사체와의 거리감을 느끼어, 3D 영상으로 인식하도록 할 수 있다. 예를 들어, 총 9개의 다시점 영상이 생성되었다면, 각 다시점 영상을 화면의 일측에서부터 순차적으로 출력하고, 마지막 9번째의 영상 출력이 끝나는 부분에서는 다시 첫번째 영상부터 출력하여 화면 전방을 향해 다양한 각도로 출력한다. 이에 따라 사용자는, 안경 없이도 입체감을 느낄 수 있게 된다. 한편, 다시점 영상의 개수는 반드시 9개로 한정되는 것은 아니며, 그 개수에 따라 디스플레이 방향의 수도 달라질 수 있다. 또한, 다시점 영상 출력을 위하여, 디스플레이부(110)는 패러랙스 배리어(Parallax Barrier) 기술 또는 렌티큘러(Lenticular) 기술에 따른 디스플레이 패널을 포함할 수 있다.
제어부(130)는 디스플레이된 각 객체의 깊이 감에 대응되는 상이한 깊이의 터치를 인식하는 복수의 터치 모드에 따라 사용자 조작을 인식한다. 이에 따라, 그 조작 내용에 맞게 객체들의 표시 상태를 변경하도록 디스플레이부(110) 및 변환부(130)를 제어한다.
터치 모드는 다양하게 구현될 수 있다. 예를 들어, 터치 모드는, 화면과 이격된 상태에서 객체를 선택할 수 있는 근접 터치 모드, 화면을 직접 터치하여 객체를 선택하는 직접 터치 모드, 화면을 직접 터치한 상태에서 터치 압력을 조정하여 객체를 선택할 수 있는 가압 모드, 화면을 직접 터치하는 시간에 따라 객체를 선택할 수 있는 롱 프레스 모드 등과 같이 다양한 터치 모드들 중에서 적어도 두 개 이상의 터치 모드가 적용될 수 있다.
제어부(130)는 3D 디스플레이 방식에 의해 화면에서 돌출된 형태로 인식되는 객체에 대해서는 화면에 직접 터치하지 않고 이격된 상태에서 그 객체 부분에 손가락 등을 갖다대었을 때, 해당 객체가 선택된 것으로 인식하는 근접 터치 모드로 조작 상태를 인식할 수 있다.
반면, 화면에 그대로 2D 형태로 표시된 객체에 대해서는 화면을 직접 터치하여 선택하는 직접 터치 모드에 따라 객체 선택 여부를 인식할 수 있다.
그 밖에, 3D 디스플레이 방식에 의해 화면 내측으로 매몰된 형태로 인식되는 객체에 대해서는 가압 모드나 롱프레스 모드로 그 선택 여부를 인식할 수 있다. 즉, 단순 터치인 경우에는 화면에 표시된 객체를 선택한 것으로 인식하고, 터치된 상태에서 임계치 이상으로 강하게 눌러지게 되거나, 터치한 상태로 임계시간동안 터치가 유지되면, 매몰된 객체가 선택된 것으로 인식할 수 있다.
이러한 터치 모드들은 다양한 실시 예에 따라 다양하게 조합되어 이용될 수 있다. 즉, 근접 터치 모드 및 직접 터치 모드가 조합되어 적용될 수도 있고, 가압 모드 또는 롱 프레스 모드와 직접 터치 모드가 조합되어 적용될 수도 있다. 또한, 가압 모드 또는 롱 프레스 모드와 직접 터치 모드 및 근접 터치 모드가 함께 조합되어 적용될 수도 있다. 이 경우에는 화면으로부터 돌출 표시된 객체, 화면에 그대로 표시된 객체, 화면으로부터 매몰된 형태로 표시된 객체를 각각의 깊이감에 맞게 근접 터치 모드, 직접 터치 모드, 가압모드 또는 롱 프레스 모드로 선택하여 조작할 수 있다.
한편, 상술한 근접 터치 모드는 화면과의 이격 거리에 따라서 구분되는 복수 개의 근접 터치 모드로 구현될 수도 있고, 가압 모드 역시 터치 압력의 세기 정도에 따라서 구분되는 복수 개의 가압 모드로 구현될 수 있으며, 롱 프레스 모드 역시 터치 시간의 길이에 따라서 구분되는 복수 개의 롱 프레스 모드로 구현될 수 있다.
도 2는 3D 디스플레이 단말 장치의 세부 구성의 일 예를 나타내는 블럭도이다. 도 2에 따르면, 3D 디스플레이 단말 장치는 디스플레이부(110), 변환부(120), 제어부(130), 통신부(140), 저장부(150), 센서부(160)를 포함한다.
디스플레이부(110), 변환부(120), 제어부(130)의 동작에 대해서는 도 1에서 설명한 바 있으므로 중복 설명은 생략한다.
통신부(140)는 유무선 인터페이스를 통해 외부 소스와 연결되어 다양한 프로그램 및 데이터를 다운로드받거나, 업로드시키는 구성요소를 의미한다. 일 예로, 통신부(140)는 외부 서버의 URL 등이 입력되거나, 특정 어플리케이션이 실행되면,대응되는 서버로 접속하여 컨텐츠를 수신할 수도 있다.
저장부(150)에는 각종 프로그램 및 데이터가 저장된다. 또한, 저장부(150)는 어플리케이션 프로그램의 실행 과정에서 새로이 입력되거나 설정, 생성되는 데이터들도 함께 저장하여 둘 수 있다. 또한, 저장부(150)는 3D 디스플레이를 위한 좌안 영상 및 우안 영상 또는 다시점 영상등을 저장하여 둘 수도 있다.
센서부(160)는 사용자의 모션이나 터치 등을 센싱하여 제어부(130)로 통지한다. 센서부(160)는 복수의 터치 모드에 대응되는 복수의 제1 내지 제n 센서부(161-1 ~ 161-n)를 구비할 수 있다.
일 예로, 제1 센서부(161-1)는 디스플레이부(110)의 화면을 직접적으로 터치하는 직접 터치를 감지하는 센서일 수 있고, 제2 센서부(161-2)는 디스플레이부(110)의 화면에 기 설정된 범위 이내로 접근하는 근접 터치를 감지하는 센서일 수도 있다.
제2 센서부(161-2)는 다양한 구성으로 구현되어 다양한 방식으로 근접 터치를 감지할 수 있다. 일 예로 도 3과 같이 발광-수광 방식으로 근접 터치를 감지할 수 있다.
도 3에 따르면, 제2 센서부(161-2)는 발광 소자(161a) 및 수광소자(161b)를 포함할 수 있다. 발광소자(161a)는 광스폿이 점진적으로 확대되는 각도로 광을 발광할 수 있다. 수광소자(161b)는 발광소자(161a)에서 발광되는 광의 수광 정도에 대응되는 전기 신호를 제어부(130)로 제공한다. 이 경우, 사용자의 손가락 등이 도 3에 도시된 바와 같이 3D 디스플레이 단말 장치(100)의 화면 방향으로 근접하여 광을 가리게 되면, 수광소자(161b)에서 감지되는 광의 양이 줄어들게 되며, 이에 따라 제어부(130)로 제공되는 전기 신호의 크기가 변하게 된다. 제어부(130)는 전기 신호의 크기의 변화 정도에 따라 근접 터치가 있었는지 여부를 판단할 수 있다. 일 예로, 제어부(130)는 발광소자(161a)와의 거리에 따라 예측되는 광스폿의 크기와 실제 감지되는 광량에 대응되는 광스폿의 크기가 일정 범위를 벗어날 만큼 차이가 있으면, 사용자의 근접 터치가 있었다고 판단할 수 있다.
다른 예로, 제2 센서부(161-2)는 촬상소자를 포함할 수도 있다. 즉, 화면 전면부를 향하여 촬상하는 촬상소자를 이용하여 전방위 촬상을 수행하고, 제어부(130)는 촬상 결과를 바탕으로 일정 거리 이내로 피사체가 화면에 접근하였다고 판단되면, 근접 터치가 있었다고 판단할 수 있다.
또 다른 예로, 제2 센서부(161-2)는 정전 용량 센서로 구현될 수도 있다. 즉, 사용자의 손가락이 화면측으로 근접 이동함에 따라 변화되는 정전 용량의 크기가 임계치 이상이면, 제어부(130)는 근접 터치가 일어났음을 인식할 수 있다.
한편, 복수의 터치 모드가 가압 모드나 롱 프레스 모드 등을 더 포함하는 경우라면, 센서부(160)는 압력 센서나 타이머 등을 더 포함할 수 있다.
즉, 가압 모드를 적용할 경우, 디스플레이부(110)의 화면 내측에 압력 센서를 배치하여, 터치된 지점에서의 압력 변화를 감지한다. 이에 따라 사용자가 강하게 누르는 경우와, 화면을 단순 터치한 경우를 구분하여, 서로 다른 레이어의 객체가 선택된 것으로 인식할 수 있다. 일 예로, 강하게 누른 경우에는 화면 하측으로 매몰된 형태로 표시되는 3D 객체가 선택된 것으로 인식할 수 있고, 단순 터치인 경우에는 화면 상에 표시된 객체가 선택된 것으로 인식할 수 있다.
반면, 롱 프레스 모드를 적용할 경우, 화면 터치가 이루어진 상태에서 동일 지점에서의 터치가 기 설정된 임계 시간 이상 지속적으로 유지된다고 판단되면, 임계 시간 미만의 터치인 경우와 구분하여 서로 다른 레이어의 객체가 선택된 것으로 인식할 수 있다. 이 경우, 타이머(미도시)를 별도로 더 필요로 할 수 있으며, 제어부(130)는 터치센서에서 터치가 감지된 시점부터 터치가 종료된 시점까지의 시간 경과 상태를 카운팅하도록 타이머를 제어할 수 있다.
<다양한 실시 예에 따른 동작의 설명>
도 4는 본 발명의 일 실시 예에 따른 3D 디스플레이 단말 장치의 화면 구성을 나타내는 도면이다.
도 4에 따르면, 적어도 하나 이상의 객체(10)를 포함하는 컨텐츠 화면(200)이 3D 디스플레이 단말 장치(100) 상에서 디스플레이될 수 있다. 이러한 상태에서 사용자가 하나의 객체(10)를 선택하면, 선택된 객체의 깊이감이 조정된다. 이에 따라, 3D 디스플레이가 이루어져, 선택된 객체와 나머지 객체들의 깊이감이 서로 다르게 표현된다.
도 4에서는 원 화면에서 선택된 객체(10)는 원화면상에 그대로 표시가 되면서, 별도로 화면(200)으로부터 수직한 방향으로 돌출된 형태의 3D 이미지(20)가 표시된 상태를 나타낸다. 3D 이미지(20), 즉, 돌출된 객체(20)의 크기는 원 객체(10)의 크기와 동일하게 표시될 수도 있고, 소정 비율로 축소되어 표시될 수도 있다. 표시 위치 역시 원 객체(10)의 상측 위치가 될 수도 있고, 또는, 화면 상에서 컨텐츠가 배치되지 않은 빈 영역 상측 등이 될 수도 있다.
도 4에서와 같이 돌출된 객체(20)와 원 화면(200)이 서로 다른 깊이감을 가지는 복수의 레이어로 표시된 상태에서, 사용자는 돌출된 객체(20)는 근접 터치 모드로 조작하고, 원 화면(200)은 직접 터치 모드로 조작한다. 사용자는 화면(200)을 직접 터치하여 다른 화면(200')으로 전환한다. 화면 전환이 이루어지더라도, 다른 레이어로 돌출된 객체(20)의 표시는 그대로 유지된다.
이와 같이 전환된 화면(200')이 표시되는 상태에서, 사용자가 근접 터치 방식으로 돌출된 객체(20)를 선택한 후 선택 지점을 이동하면 돌출된 객체(20)의 표시 위치가 이동된다. 이동 중에 화면을 직접 터치하게 되면, 도 4에 도시된 바와 같이 돌출된 객체(20)가 원 화면(20) 상에서 직접 터치된 위치에 페이스트된다. 이 경우, 돌출되어 있던 객체(20)의 표시는 사라지고, 원 화면(20) 상에 페이스트되는 객체(20)의 깊이감은 원 상태로 복귀된다. 즉, 원화면(20)과 동일한 레이어에 표시된다. 이와 같이, 복수의 터치 모드에 의해, 카피 및 페이스트(Copy & Paste) 동작이 용이하게 이루어질 수 있다.
도 5는 서로 다른 깊이감을 가지는 레이어를 설명하기 위한 도면이다. 도 5에 따르면, 3D 디스플레이 단말 장치의 실제 화면을 X-Y 평면이라고 보면, 원 화면(200)은 Z0 깊이로 표시되고, 돌출된 객체는 Z+ 축 방향으로 소정 높이를 가지는 레이어(Z+)(300) 상에 표시된다. Z+ 레이어(300)에서의 객체 선택 및 조작은 근접 터치 방식으로 이루어지고, Z0 레이어(200)에서의 객체 선택 및 조작은 직접 터치 방식으로 이루어진다. 도 5에서는 하나의 Z+ 레이어(300) 만이 도시되었으나, 돌출되는 객체의 깊이감의 크기에 따라서 복수의 Z+ 레이어가 마련될 수도 있다. 이러한 복수의 Z+ 레이어는 영상들간의 디스패리티를 다양한 값으로 설정하여, 생성할 수 있다. 또한, 도 5에서는 화면으로부터 돌출되도록 표시되는 Z+ 레이어만을 도시하였으나, 실시 예에 따라서는, 화면으로부터 매몰된 형태로 표시되는 Z- 레이어도 함께 이용될 수 있음은 물론이다.
도 6은 본 발명의 다른 실시 예에 따른 3D 디스플레이 단말 장치의 조작 방법을 설명하기 위한 도면이다.
도 6에 따르면, 임의의 애플리케이션인 "APPLICATION A"가 실행되면 그 어플리케이션 화면(200)이 표시되고, 해당 화면(200) 내에 임의의 객체(10)가 표시될 수 있다.
이러한 상태에서 사용자가 객체(10)를 직접 터치하면, 메뉴를 선택할 수 있는 영역(11)이 객체(10)의 일 측에 표시된다. 이러한 영역(11)은 도 6에서와 같이 그래픽 이미지로 표시될 수도 있고, 화면(200)의 일 측에 생성되는 메뉴 영역으로 표시될 수도 있다. 해당 영역(11)에는 도 6과 같이 "COPY"와 같은 메뉴가 포함될 수 있으며, 이 밖에 다양한 메뉴 등이 더 포함될 수도 있다.
사용자는 다시 "COPY" 메뉴를 직접 터치한다. 설명의 편의를 위하여 직접 터치되는 스폿(a)은 "●"으로 표시한다. "COPY" 메뉴가 직접 터치되면, 선택된 객체(10)에 대응되는 3D 이미지(20)가 표시된다. 이 경우, 3D 이미지(20)는 원 화면(200)의 일부와 중복될 수 있다. 도 6에서는 원 화면(200) 중에서 APPLICATION A 의 메인 화면으로 돌아가는 메뉴인 "APPLICATION A" 메뉴(50)와 중복 표시됨을 알 수 있다. 이와 같이 중복 표시되지만, 3D 이미지(20)는 화면으로부터 수직한 방향으로 돌출 표시된 형태이므로, 사용자는 그 입체감으로 인하여 3D 이미지(20)와 원 화면(200)이 상이하다는 점을 용이하게 인식할 수 있다.
이러한 상태에서 사용자는 3D 이미지(20) 또는 원 화면(200)을 선택할 수 있다. 3D 이미지(20)는 근접 터치 방식으로 선택하고, 원 화면(200)은 직접 터치 방식으로 선택할 수 있다. 특히, 도 6에 도시된 바와 같이 3D 이미지(20)가 표시된 영역을 직접 터치(a)하게 되면, 3D 이미지(20)가 선택되는 것이 아니라 그 하측의 "APPLICATION A" 메뉴(50)가 선택된다. 이에 따라, 3D 이미지(20) 표시는 그대로 유지되면서 하측의 화면만이 새로운 화면으로 전환된다. 즉, "APPLICATION A"메뉴(50)가 직접 터치된 경우이므로, 해당 어플리케이션의 메인 화면(200-1)으로 전환된다. 이러한 상태에서 사용자는 원 화면을 다시 터치하여 상이한 어플리케이션을 실행시킬 수도 있다. 일 예로, 도 6과 같이 사용자는 메일 어플리케이션 화면(200-2)으로 전환할 수 있다. 이러한 상태에서 근접 터치(b)로 3D 이미지, 즉, 돌출된 객체(20)를 선택한 후, 근접 터치 상태를 유지하면서 드래그하여 메시지 창 내의 내용 부분을 직접 터치(a)하면, 그 내용 부분에 객체(60)가 페이스트되어 표시되고, 돌출되어 있던 객체(20) 표시는 사라진다.
한편, 객체의 선택 및 카피 메뉴 입력은 도 6과 같이 메뉴(11)를 이용하지 않고, 사용자의 특정 모션에 따라 이루어지도록 구현될 수도 있다.
즉, 도 7에 표시된 바와 같이 사용자는 객체(10)를 직접 터치한 후, 터치한 손가락을 화살표 방향으로 돌릴 수 있다. 이와 같이 터치 상태가 터치 상태가 기 설정된 방향으로 회전되게 되면, 사용자가 해당 객체(10)를 카피하고자 하는 의도인 것으로 인식하고 해당 객체(10)의 깊이감을 조정하여 3D 이미지로 표시할 수 있다.
또는, 도 8에 도시된 바와 같이 사용자는 객체(10)를 직접 터치한 후, 기 설정된 패턴에 따라 터치 지점을 이동시킬 수 있다. 이 경우, 일정 속도 미만으로 터치 지점이 이동되는 경우에는 객체의 위치를 이동시키는 명령으로 인식하여 객체 표시를 이동시키고, 일정 속도 이상으로 터치 지점이 이동되면 해당 객체(10)를 카피하고자 하는 의도인 것으로 인식하고 해당 객체(10)의 깊이감을 조정하여 3D 이미지로 표시할 수 있다. 일 예로, 도 8과 같이 객체(10)를 터치한 후 위로 퍼올리는 모션을 취하게 되면, 객체(10)가 3D 방식으로 Z+ 방향으로 돌출 표시될 수 있다.
한편, 본 발명의 또 다른 예에 따르면, 사용자는 레이어 변경 모드를 직접 터치 모드와 함께 이용하여 서로 다른 깊이 감의 여러 객체들을 적절히 조작할 수도 있다.
즉, 도 9에 따르면, 화면(100)상에서 객체(10)가 선택되어 3D 이미지(20)로 표시되는 경우, 화면(100)의 일 영역에는 "Switch"와 같은 메뉴(70)가 표시될 수 있다. 상술한 메뉴는 레이어 변경 명령을 입력하기 위한 메뉴를 의미한다.
도 9에서 선택된 객체(10)가 3D 이미지(20)로 돌출되어 Z+ 레이어에 표시되고, 원 화면(200)이 Z0 레이어에 표시된 상태에서 "Switch" 메뉴(70)가 직접 터치(a)되면, 원 화면(200)이 Z+ 레이어로 3D 디스플레이되고, 돌출되어 있던 이미지(20)가 Z0 레이어로 원상복귀하게 된다. 이러한 상태에서 사용자가 다시 "Switch" 메뉴(70)를 선택하면, 컨텐츠들의 깊이감은 다시 서로 교체된다. 이와 같이, 돌출된 이미지(20) 및 원 화면(200)은 레이어 변경 명령의 입력에 따라 교번적으로 교체 표시된다. 한편, 본 실시 예에서는 Z+ 레이어에 표시된 컨텐츠에 대해서도 직접 터치 모드로 선택할 수 있다.
즉, 사용자는 최초에 동일한 깊이감으로 표시된 객체들을 포함하는 화면 상에서 하나의 객체(10)를 선택하여 복사한다. 이 경우, 3D 디스플레이 단말 장치는 선택된 객체(10)와 동일한 이미지를 3D 이미지(20)로 표시한다. 이러한 상태에서 사용자는 레이어 변경 메뉴를 선택하여 원 화면(200)을 상측 레이어에 두고, 3D 이미지(20)를 하측 레이어에 두도록 변경한다. 이러한 상태에서 사용자는 원화면(200)을 직접 터치하면서 화면 전환을 수행한다. 화면 전환은 페이지 이동 뿐만 아니라 새로운 어플리케이션 실행에 따른 화면 표시도 포함한다. 이와 같이, 사용자는 복사한 컨텐츠가 사용될 화면(200-2)을 선택한다. 이러한 상태에서 사용자는 다시 레이어 변경 명령을 입력하여 3D 이미지(20)가 다시 상측 레이어에 오도록 조작한 후, 직접 터치 지점(a)을 드래그한다. 드래그가 완료되면, 3D 디스플레이 단말 장치는 드래그가 완료된 지점에 해당 이미지(20)를 원 크기로 페이스트하여 객체(60)를 표시한다.
이와 같이 직접 터치 모드와 함께 레이어 변경 모드를 적용하면, 근접 터치를 감지하기 위한 센서가 구비되지 않은 장치에서도, 3D 디스플레이 방식을 이용하여 객체를 편리하게 조작할 수 있게 된다.
한편, 도 9에서는 화면(100) 상에 "Switch" 메뉴가 표시된 것을 도시하였으나, 반드시 이에 한정되는 것은 아니며, 3D 디스플레이 단말 장치의 본체에 구비된 키가 선택되었을 때 레이어 변경 메뉴가 선택된 것으로 인식하도록 구현할 수도 있다. 또는, 3D 디스플레이 단말 장치 내에 지자기 센서나 자이로 센서, 가속도 센서 등이 장착된 경우, 3D 디스플레이 단말 장치를 흔들거나 피치각, 롤각, 요우각 등이 변화되도록 회전시키는 경우에 레이어 변경 명령이 입력된 것으로 인식하도록 구현할 수도 있다. 이와 같이, 레이어 변경 명령을 입력하여 사용자는 돌출된 객체(20)의 레이어, 즉, Z+ 레이어와, 원 화면의 레이어, 즉, Z0 레이어 자체를 서로 교환할 수 있다.
한편, 상술한 바와 같이 객체는 그림이나 사진과 같은 컨텐츠나 텍스트 컨텐츠 등이 될 수 있지만, 이에 한정되지 않고 아이콘이 될 수도 있다. 즉, 카피 & 페이스트 기능 이외에 메뉴 아이콘 이동 기능에서도 복수의 터치 모드가 적용될 수 있다.
도 10은 본 발명의 또 다른 실시 예에 따른 3D 디스플레이 단말 장치의 화면을 나타내는 도면이다.
도 10에 따르면, 단말 장치(100)의 화면 상에는 다양한 아이콘(80-1, 80-2, ..., 80-12) 등이 표시된다. 각 아이콘은 어플리케이션에 대응되는 아이콘일 수도 있고, 단말 장치(100)에 저장된 폴더 등에 해당하는 아이콘일 수도 있다. 또한, 하나의 화면에 모두 표시될 수 없을 정도로 많은 아이콘이 존재하는 경우, 일정 개수 단위로 페이지를 구성할 수 있다. 도 10에서는 12개의 아이콘이 하나의 화면 상에 표시된 경우를 도시한다.
도 10에서와 같이 하나의 아이콘, 예를 들어, 제2 아이콘(80-2)이 직접 터치(a)에 의해 선택되면, 선택된 제2 아이콘(80-2)의 깊이감이 조정되어 돌출된 3D 이미지 형태로 표시된다. 이 경우, 원 위치의 제2 아이콘(80-2) 표시는 삭제될 수 있다. 이러한 상태에서, 사용자가 화면을 직접 터치(a)하면서 일 방향으로 임계 속도 이상으로 터치 지점을 이동시키면, 그 이동 방향에 부합되도록 페이지가 전환되어 다음 페이지가 화면에 표시된다. 즉, 제13 아이콘 내지 제18 아이콘이 표시되는 페이지가 화면에 표시된다. 이와 같이 화면이 전환된 상태에서 사용자는 돌출된 형태의 제2 아이콘(80-2)을 근접 터치(b) 방식으로 터치하여 제18 아이콘의 옆으로 이동시킨 후, 화면을 직접 터치(a)하면 제18 아이콘의 옆에 제2 아이콘(80-2)이 표시된다. 이와 같이, 아이콘의 표시 위치를 직접 터치 및 근접 터치를 이용하여 편리하게 조작할 수 있게 된다.
한편, 상술한 여러 실시 예들에서는 선택된 객체를 Z+ 또는 Z- 축 방향으로 3D 디스플레이하여 표시하는 경우를 설명하였으나, 3D 디스플레이가 불가능한 기기 또는 불가능한 데이터인 경우에는 이와 상이한 방식으로 분리하여 표시할 수도 있다.
즉, 본 발명의 또 다른 실시 예에 따른 단말 장치에서는 화면(200) 상에서 객체(10)가 선택되면, 현재 표시되고 있던 화면(200)의 크기를 축소시키면서 새로운 화면(300) 내의 일 영역에 표시하고, 선택된 객체(10)의 이미지(20)를 그 일측에 새로이 표시한다. 즉, 화면을 X-Y 평면이라고 볼 경우, X축 방향 또는 Y축 방향으로 선택된 객체(10)의 이미지를 표시하여 줄 수도 있다. 이러한 상태에서 사용자는 축소된 화면(200)을 터치하여 새로운 화면으로 전환시킬 수 있다. 이에 따라 객체를 이동할 새로운 화면이 표시되면, 사용자는 별도로 표시된 이미지(20)를 터치한 후 화면 상으로 이동시켜, 페이스트시킬 수 있다.
<조작 방법에 대한 설명>
도 12는 본 발명의 일 실시 예에 따른 3D 디스플레이 단말 장치의 조작 방법을 설명하기 위한 흐름도이다. 도 12에 따르면, 3D 디스플레이 단말 장치는 3D 디스플레이 방식을 이용하여, 서로 다른 깊이감을 가지는 객체를 디스플레이할 수 있다(S1210).
이러한 상태에서 사용자는 복수의 터치 모드를 이용하여 객체 조작을 할 수 있다. 여기서 복수의 터치 모드란 각 객체들의 깊이감에 대응되는 상이한 깊이로 인식되는 터치 모드들이 될 수 있다. 예를 들어, 화면과 어느 정도 이격된 상태로 인식되는 근접 터치 모드나, 화면에 직접 닿아서 인식되는 직접 터치 모드 등이 될 수 있다. 그 밖에, 화면과 터치한 상태에서 압력을 가하는 가압 모드나, 터치한 상태를 소정 시간 동안 유지하는 롱 프레스 모드 등이 더 포함될 수도 있다.
이와 같이 다양한 터치 모드에 의해 객체 조작이 이루어지면, 3D 디스플레이 단말 장치는 사용자 조작에 따라서 표시 상태를 변경한다(S1220). 결과적으로 카피 & 페이스트 기능이나, 아이콘 이동 등이 용이하게 이루어질 수 있으며, 이 밖에도 잘라 붙임 기능 등과 같은 다양한 편집 기능이 용이하게 이루어질 수도 있다.
한편, 상술한 여러 실시 예들에서는 동일한 깊이감을 가지는 객체들이 디스플레이된 상태에서 하나의 객체가 선택되었을 때 선택된 객체가 3D로 표시되는 경우를 설명하였으나, 3D 디스플레이 단말 장치는 컨텐츠의 내용에 따라 원래부터 3D 디스플레이 방식으로 서로 다른 깊이감의 객체들을 표시할 수 있다. 이러한 경우에는 별도로 선택하는 과정이 없이도, 각 객체의 깊이감에 대응되는 적절한 터치 모드로 각 객체를 선택할 수도 있다.
도 13은 본 발명의 일 실시 예에 따른 조작 방법 중에서 카피 & 페이스트 동작을 좀 더 구체적으로 설명하기 위한 흐름도의 일 예를 나타낸다.
도 13에 따르면, 객체가 디스플레이되고 있는 상태에서(S1310), 임의의 객체가 선택되면(S1315), 선택된 객체의 일 측에 메뉴를 표시한다(S1320).
이에 따라, 사용자가 표시된 메뉴 중에서 복사 메뉴를 선택하면(S1325), 선택된 객체를 3D 영상으로 Z+ 방향으로 돌출시켜 디스플레이한다(S1330).
한편, 이러한 상태에서 기존 화면에 존재하는 다른 객체에 대해서도 직접 터치가 이루어 상술한 바와 동일한 과정을 거친 후에 상기 3D 영상에 추가하여 새로운 3D 영상으로 표시될 수도 있다. 즉, Z+ 방향으로 돌출표시되는 객체는 복수 개일 수 있다.
이러한 상태에서 돌출된 이미지에 대한 근접 터치가 이루어지면, 해당 객체는 근접 터치의 상태에 따라서 조작된다(S1335).
즉, 근접 터치된 부분이 화면과 이격된 상태로 이동하게 되면, 이동 방향 및 거리에 따라 돌출된 이미지의 표시 위치를 이동시킨다(S1340).
반면, 적어도 하나의 이미지가 돌출 표시된 상태에서 직접 터치가 이루어지면(S1345), 돌출된 이미지가 아닌 원 화면을 직접 터치 상태에 따라 조작한다. 가령, 새로운 페이지로 이동하거나 새로운 어플리케이션을 실행하는 경우 등과 같이 화면 전환할 상황이 발생하면, 돌출 표시된 이미지는 그대로 유지하면서 화면을 전환한다(S1350).
이와 같이 사용자는 근접 터치 모드 또는 직접 터치 모드를 이용하여 각 객체들의 상태를 조작할 수 있다.
한편, 근접 터치를 이용하여 객체를 이동시키다가 직접 터치가 이루어지면( S1355), 돌출된 객체의 깊이감을 원 상태로 복구하면서 현재 화면에서 직접 터치된 지점에 해당 객체를 페이스트한다(S1360). 이에 따라, 선택했던 객체가 새 화면에 복사되어 표시될 수 있게 된다.
도 14는 본 발명의 다른 실시 예에 따른 조작 방법을 설명하기 위한 흐름도이다. 도 14에 따르면, 객체가 디스플레이된 상태에서(S1410), 객체가 선택되면(S1420), 선택된 객체의 깊이감을 조정하여 3D로 디스플레이시킨다(S1430).
이러한 객체의 선택은 상술한 바와 같이 메뉴를 이용할 수도 있고, 터치 후의 사용자의 모션 변화에 의해 이루어질 수도 있으며, 단순 터치만으로 이루어질 수도 있다.
한편, 이와 같이 복수의 객체가 서로 다른 깊이감으로 3D 디스플레이된 상태에서 사용자가 레이어 변경 명령을 입력하게 되면(S1440), 입력된 레이어 변경 명령에 따라 현재 화면의 레이어와 돌출 표시된 객체의 레이어를 서로 스위치시킨다(S1450).
이에 따라, 사용자는 상위 레이어에 존재하는 객체를 터치하여 조작할 수 있다. 하위 레이어에 존재하는 객체를 조작하고자 할 때에는 다시 레이어 변경 명령을 입력할 수 있다. 결과적으로 사용자는 자신이 원하는 결과물이 얻어질 때까지 터치 및 레이어 변경 명령 입력을 수행하여, 각 객체의 표시 위치 변경 및 복사, 페이스트 등을 수행할 수 있다. 사용자가 페이스트를 수행하거나, 3D 디스플레이 표시를 종료하고자 하는 명령을 입력하면 3D 디스플레이 처리가 종료될 수 있다(S1460). 3D 디스플레이 표시를 종료하고자 하는 명령은 화면 상에 표시된 특정 메뉴를 선택하거나, 3D 디스플레이된 객체를 롱프레스 또는 더블 터치 등과 같은 다양한 방식으로 터치하여, 입력할 수 있다.
이와 같이, 사용자는 레이어 변경 모드 및 직접 터치 모드를 함께 이용하여 객체 조작을 수행할 수도 있다.
한편, 상술한 본 발명의 다양한 실시 예들에 따른 조작 방법은 프로그램 코드로 구현되어 다양한 유형의 기록 매체에 저장될 수 있다. 구체적으로는, RAM(Random Access Memory), 플레시메모리, ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electronically Erasable and Programmable ROM), 레지스터, 하드디스크, 리무버블 디스크, 메모리 카드, USB 메모리, CD-ROM 등과 같이, 단말기에서 판독 가능한 다양한 유형의 기록 매체에 저장되어 있을 수 있다.
이에 따라, 이러한 기록 매체가 연결되거나 탑재되는 장치에서 상술한 조작 방법이 실행될 수 있도록, 프로그램이 설치될 수 있다.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
110 : 디스플레이부 120 : 변환부
130 : 제어부 140 : 통신부
150 : 저장부 160 : 센서부

Claims (30)

  1. 3D 디스플레이 단말 장치의 조작 방법에 있어서,
    서로 다른 깊이 감을 가지는 복수의 객체를 디스플레이하는 단계;
    사용자 조작에 따라, 상기 복수의 객체의 표시 상태를 변경하는 단계;를 포함하며,
    상기 사용자 조작은, 상기 깊이 감에 대응되도록 상이한 깊이로 인식되는 복수의 터치 모드로 이루어지는 것을 특징으로 하는 조작 방법.
  2. 제1항에 있어서,
    상기 서로 다른 깊이 감을 가지는 복수의 객체를 디스플레이하는 단계 이전에,
    동일한 깊이감을 가지는 객체들을 디스플레이하는 단계;
    상기 객체들 중에서 하나의 객체가 선택되면, 선택된 객체의 깊이감을 조정하는 단계;를 더 포함하는 것을 특징으로 하는 조작 방법.
  3. 제1항에 있어서,
    상기 서로 다른 깊이 감을 가지는 복수의 객체를 디스플레이하는 단계 이전에,
    동일한 깊이 감을 가지는 객체들로 구성된 화면을 디스플레이하는 단계;
    상기 화면 상에서 하나의 객체가 선택되면, 선택된 객체의 일 측에 메뉴 선택 창을 표시하는 단계;
    상기 메뉴 선택 창에서 복사 메뉴가 선택되면, 상기 선택된 객체의 깊이 감을 조정하는 단계;를 더 포함하는 것을 특징으로 하는 조작 방법.
  4. 제1항에 있어서,
    상기 서로 다른 깊이 감을 가지는 복수의 객체를 디스플레이하는 단계 이전에,
    동일한 깊이 감을 가지는 객체들로 구성된 화면을 디스플레이하는 단계;
    상기 화면 상에서 하나의 객체가 터치 되고, 터치 상태가 기 설정된 방향으로 회전되거나 기 설정된 패턴에 따라 이동되면, 상기 선택된 객체의 깊이 감을 조정하는 단계;를 더 포함하는 것을 특징으로 하는 조작 방법.
  5. 제2항 내지 제4항 중 어느 한 항에 있어서,
    상기 깊이감이 조정된 객체는 상기 3D 디스플레이 단말 장치의 화면으로부터 수직한 방향으로 돌출되도록 3D 방식으로 디스플레이되고,
    상기 복수의 터치 모드는 상기 돌출된 객체를 상기 화면과 이격된 상태에서 선택하기 위한 근접 터치 모드, 상기 화면에 디스플레이되는 객체를 직접 터치하여 선택하기 위한 직접 터치 모드를 포함하는 것을 특징으로 하는 조작 방법.
  6. 제5항에 있어서,
    상기 깊이 감이 조정된 객체가 상기 화면으로부터 돌출된 상태로 표시되면, 원 화면 상에서 상기 객체 표시는 삭제되는 것을 특징으로 하는 조작 방법.
  7. 제5항에 있어서,
    상기 사용자 조작에 따라, 상기 복수의 객체의 표시 상태를 변경하는 단계는,
    상기 근접 터치 모드에 따라 상기 돌출된 객체의 깊이 감에 대응되는 거리만큼 상기 화면과 이격된 상태에서 상기 돌출된 객체가 선택되고, 선택된 지점이 이동되면, 이동되는 지점에 따라 상기 돌출된 객체의 표시 위치를 변경하는 단계;를 포함하는 것을 특징으로 하는 조작 방법.
  8. 제5항에 있어서,
    상기 사용자 조작에 따라, 상기 복수의 객체의 표시 상태를 변경하는 단계는,
    상기 선택된 객체가 상기 돌출된 형태로 3D 방식으로 디스플레이된 상태에서 상기 화면이 직접 터치 되면, 상기 선택된 객체의 디스플레이 상태는 유지하면서 상기 터치 상태에 따라 화면 표시 상태를 전환하는 단계;
    상기 화면 표시 상태가 전환된 상태에서 상기 선택된 객체가 상기 근접 터치 모드에 의해 근접 터치 되어 선택된 후, 상기 전환된 화면 상의 일 영역으로 이동되어 직접 터치가 이루어지면, 상기 선택된 객체의 깊이 감을 원 상태로 복구하면서 상기 터치된 일 영역에 페이스트(paste)하는 단계;를 포함하는 것을 특징으로 하는 조작 방법.
  9. 제8항에 있어서,
    상기 객체는 컨텐츠인 것을 특징으로 하는 조작 방법.
  10. 제5항에 있어서,
    상기 사용자 조작에 따라, 상기 복수의 객체의 표시 상태를 변경하는 단계는,
    상기 선택된 객체의 깊이 감이 조정되어 서로 다른 깊이 감을 가지는 복수의 객체가 디스플레이된 상태에서, 레이어 변경 명령이 입력되면, 돌출된 객체와 상기 화면 상의 객체의 깊이 감을 서로 스위치하여 표시하는 단계;를 포함하는 것을 특징으로 하는 조작 방법.
  11. 제10항에 있어서,
    상기 레이어 변경 명령을 입력하기 위한 메뉴를 상기 화면 상의 일 영역에 표시하는 단계;를 더 포함하는 조작 방법.
  12. 제8항에 있어서,
    상기 터치 상태에 따라 상기 화면 표시 상태를 전환하는 단계는,
    상기 선택된 객체가 상기 돌출된 형태로 3D 방식으로 디스플레이된 상태에서 상기 화면이 직접 터치된 경우, 직접 터치된 지점이 어플리케이션 아이콘이면 상기 어플리케이션 아이콘에 대응되는 어플리케이션 화면으로 상기 화면 표시 상태를 전환하는 것을 특징으로 하는 조작 방법.
  13. 제5항에 있어서,
    상기 사용자 조작에 따라, 상기 복수의 객체의 표시 상태를 변경하는 단계는,
    상기 선택된 객체의 깊이감을 조정하여 상기 선택된 객체를 원 화면으로부터 분리하여 돌출된 형태로 3D 방식으로 디스플레이하면서, 상기 원 화면에서 상기 선택된 객체의 표시를 삭제하는 단계;
    상기 화면이 직접 터치되고, 터치된 지점이 기 설정된 임계 속도 이상의 속도로 임의의 방향으로 이동되면, 상기 돌출된 형태의 객체 표시는 유지하면서 상기 임의의 방향에 따라 페이지를 전환하여 다음 페이지로 화면 표시 상태를 전환하는 단계;를 포함하는 것을 특징으로 하는 조작 방법.
  14. 제13항에 있어서,
    상기 객체는 아이콘인 것을 특징으로 하는 조작 방법.
  15. 제1항 내지 제4항 중 어느 한 항에 있어서,
    상기 복수의 터치 모드는,
    상기 화면과 이격된 상태에서 객체를 선택할 수 있는 적어도 하나의 근접 터치 모드, 상기 화면을 직접 터치하여 객체를 선택하는 직접 터치 모드, 상기 화면을 직접 터치한 상태에서 터치 압력을 조정하여 객체를 선택할 수 있는 적어도 하나의 가압 모드, 상기 화면을 직접 터치하는 시간에 따라 객체를 선택할 수 있는 적어도 하나의 롱 프레스 모드 중 적어도 두 개 이상의 모드를 포함하는 것을 특징으로 하는 조작 방법.
  16. 3D 디스플레이 단말 장치에 있어서,
    동일한 깊이감을 가지는 객체들을 디스플레이하는 디스플레이부;
    상기 객체들 중에서 하나의 객체가 선택되면, 선택된 객체의 깊이감을 조정하는 변환부;
    각 객체의 깊이감에 대응되는 상이한 깊이의 터치를 인식하는 복수의 터치 모드에 따라 사용자 조작을 인식하여, 상기 객체들의 표시 상태를 변경하도록 상기 디스플레이부 및 상기 변환부를 제어하는 제어부;를 포함하는 3D 디스플레이 단말 장치.
  17. 제16항에 있어서,
    상기 디스플레이부는, 하나의 객체가 선택되면 선택된 객체의 일 측에 메뉴 선택 창을 표시하고,
    상기 제어부는,
    상기 메뉴 선택 창에서 복사 메뉴가 선택되면, 상기 선택된 객체의 깊이 감을 조정하도록 상기 변환부를 제어하는 것을 특징으로 하는 3D 디스플레이 단말 장치.
  18. 제16항에 있어서,
    상기 제어부는,
    하나의 객체가 터치 되고, 터치 상태가 기 설정된 방향으로 회전되거나 기 설정된 패턴에 따라 이동되면, 상기 선택된 객체의 깊이 감을 조정하도록 상기 변환부를 제어하는 것을 특징으로 하는 3D 디스플레이 단말 장치.
  19. 제16항 내지 제18항 중 어느 한 항에 있어서,
    상기 변환부는,
    상기 선택된 객체가 상기 3D 디스플레이 단말 장치의 화면으로부터 수직한 방향으로 3D 방식으로 돌출되도록 상기 선택된 객체의 거리감을 조정하고,
    상기 제어부는,
    상기 화면으로부터 돌출된 객체의 선택은, 상기 화면과 이격된 상태에서 선택하는 근접 터치 모드에 따라 인식하고,
    상기 화면에 디스플레이되는 객체의 선택은 상기 화면을 직접 터치하여 선택하는 직접 터치 모드에 따라 인식하는 것을 특징으로 하는 3D 디스플레이 단말 장치.
  20. 제19항에 있어서,
    상기 제어부는,
    상기 깊이 감이 조정된 객체가 상기 화면으로부터 돌출된 상태로 표시되면, 원 화면 상에서 상기 선택된 객체의 표시를 삭제하도록 상기 디스플레이부 및 상기 변환부를 제어하는 것을 특징으로 하는 3D 디스플레이 단말 장치.
  21. 제19항에 있어서,
    상기 제어부는,
    상기 근접 터치 모드에 따라 상기 돌출된 객체의 깊이 감에 대응되는 거리만큼 상기 화면과 이격된 상태에서 상기 돌출된 객체가 선택되고,
    상기 돌출된 객체를 선택한 포인트가 이동되면, 이동되는 포인트에 따라 상기 돌출된 객체의 표시 위치를 변경하도록 상기 디스플레이부 및 상기 변환부를 제어하는 것을 특징으로 하는 3D 디스플레이 단말 장치.
  22. 제19항에 있어서,
    상기 제어부는,
    상기 선택된 객체가 상기 돌출된 형태로 3D 방식으로 디스플레이된 상태에서 상기 화면이 직접 터치 되면, 상기 선택된 객체의 디스플레이 상태는 유지하면서 상기 터치 상태에 따라 화면 표시 상태를 전환하고,
    상기 화면 표시 상태가 전환된 상태에서 상기 선택된 객체가 상기 근접 터치 모드에 의해 근접 터치 되어 선택된 후, 상기 전환된 화면 상의 일 영역으로 이동되어 직접 터치가 이루어지면, 상기 선택된 객체의 깊이 감을 원 상태로 복구하면서 상기 터치된 일 영역에 페이스트(paste)하여 표시하도록 상기 디스플레이부 및 상기 변환부를 제어하는 것을 특징으로 하는 3D 디스플레이 단말 장치.
  23. 제22항에 있어서,
    상기 객체는 컨텐츠인 것을 특징으로 하는 3D 디스플레이 단말 장치.
  24. 제19항에 있어서,
    상기 제어부는,
    상기 선택된 객체의 깊이 감이 조정되어 서로 다른 깊이 감을 가지는 복수의 객체가 디스플레이된 상태에서, 레이어 변경 명령이 입력되면, 돌출된 객체와 상기 화면 상의 객체의 깊이 감을 서로 스위치하여 표시하도록 상기 디스플레이부 및 상기 변환부를 제어하는 것을 특징으로 하는 3D 디스플레이 단말 장치.
  25. 제24항에 있어서,
    상기 디스플레이부는,
    상기 레이어 변경 명령을 입력하기 위한 메뉴를 상기 화면 상의 일 영역에 표시하는 것을 특징으로 하는 3D 디스플레이 단말 장치.
  26. 제22항에 있어서,
    상기 제어부는,
    상기 선택된 객체가 상기 돌출된 형태로 3D 방식으로 디스플레이된 상태에서 상기 화면이 직접 터치된 경우, 직접 터치된 지점이 어플리케이션 아이콘이면 상기 어플리케이션 아이콘에 대응되는 어플리케이션 화면으로 상기 화면 표시 상태를 전환하는 것을 특징으로 하는 3D 디스플레이 단말 장치.
  27. 제19항에 있어서,
    상기 제어부는,
    상기 선택된 객체의 깊이감을 조정하여 상기 선택된 객체를 원 화면으로부터 분리하여 돌출된 형태로 3D 방식으로 디스플레이하면서, 상기 원 화면에서 상기 선택된 객체의 표시를 삭제하고,
    상기 화면이 직접 터치되고, 터치된 지점이 기 설정된 임계 속도 이상의 속도로 임의의 방향으로 이동되면, 상기 돌출된 형태의 객체 표시는 유지하면서 상기 임의의 방향에 따라 페이지를 전환하여 다음 페이지로 화면 표시 상태를 전환하도록 상기 디스플레이부 및 상기 변환부를 제어하는 것을 특징으로 하는 3D 디스플레이 단말 장치.
  28. 제27항에 있어서,
    상기 객체는 아이콘인 것을 특징으로 하는 조작 방법.
  29. 제16항 내지 제18항 중 어느 한 항에 있어서,
    상기 복수의 터치 모드는,
    상기 화면과 이격된 상태에서 객체를 선택할 수 있는 적어도 하나의 근접 터치 모드, 상기 화면을 직접 터치하여 객체를 선택하는 직접 터치 모드, 상기 화면을 직접 터치한 상태에서 터치 압력을 조정하여 객체를 선택할 수 있는 적어도 하나의 가압 모드, 상기 화면을 직접 터치하는 시간에 따라 객체를 선택할 수 있는 적어도 하나의 롱 프레스 모드 중 적어도 두 개 이상의 모드를 포함하는 것을 특징으로 하는 3D 디스플레이 단말 장치.
  30. 제16항 내지 제18항 중 어느 한 항에 있어서,
    상기 디스플레이부의 화면을 직접적으로 터치하는 직접 터치를 감지하는 제1 센서부;
    상기 디스플레이부의 화면에 기 설정된 범위 이내로 접근하는 근접 터치를 감지하는 제2 센서부;를 더 포함하는 3D 디스플레이 단말 장치.
KR1020100134784A 2010-12-24 2010-12-24 3d 디스플레이 단말 장치 및 그 조작 방법 KR101763263B1 (ko)

Priority Applications (11)

Application Number Priority Date Filing Date Title
KR1020100134784A KR101763263B1 (ko) 2010-12-24 2010-12-24 3d 디스플레이 단말 장치 및 그 조작 방법
US13/331,778 US9495805B2 (en) 2010-12-24 2011-12-20 Three dimensional (3D) display terminal apparatus and operating method thereof
AU2011345468A AU2011345468B2 (en) 2010-12-24 2011-12-26 Three dimensional (3D) display terminal apparatus and operating method thereof
CN201180061539.2A CN103282945B (zh) 2010-12-24 2011-12-26 三维(3d)显示终端设备及其操作方法
MX2013007308A MX2013007308A (es) 2010-12-24 2011-12-26 Aparato de terminal de visualizacion de tres dimensiones (3d) y metodo de operacion del mismo.
CA2822760A CA2822760A1 (en) 2010-12-24 2011-12-26 Three dimensional (3d) display terminal apparatus and operating method thereof
JP2013546042A JP5968905B2 (ja) 2010-12-24 2011-12-26 3dディスプレイ端末装置及びその操作方法
EP11850279.8A EP2656318B1 (en) 2010-12-24 2011-12-26 Three dimensional (3d) display terminal apparatus and operating method thereof
RU2013134461A RU2616565C2 (ru) 2010-12-24 2011-12-26 Терминал с трехмерным (3d) дисплеем и способ его работы
PCT/KR2011/010125 WO2012087085A1 (en) 2010-12-24 2011-12-26 Three dimensional (3d) display terminal apparatus and operating method thereof
BR112013009928A BR112013009928A2 (pt) 2010-12-24 2011-12-26 método para operar um aparelho terminal de exibição tridimensioanl (3d), e aparelho terminal tridimensional (3d)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100134784A KR101763263B1 (ko) 2010-12-24 2010-12-24 3d 디스플레이 단말 장치 및 그 조작 방법

Publications (2)

Publication Number Publication Date
KR20120072867A true KR20120072867A (ko) 2012-07-04
KR101763263B1 KR101763263B1 (ko) 2017-07-31

Family

ID=46314173

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100134784A KR101763263B1 (ko) 2010-12-24 2010-12-24 3d 디스플레이 단말 장치 및 그 조작 방법

Country Status (11)

Country Link
US (1) US9495805B2 (ko)
EP (1) EP2656318B1 (ko)
JP (1) JP5968905B2 (ko)
KR (1) KR101763263B1 (ko)
CN (1) CN103282945B (ko)
AU (1) AU2011345468B2 (ko)
BR (1) BR112013009928A2 (ko)
CA (1) CA2822760A1 (ko)
MX (1) MX2013007308A (ko)
RU (1) RU2616565C2 (ko)
WO (1) WO2012087085A1 (ko)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140033955A (ko) * 2012-09-11 2014-03-19 엘지전자 주식회사 이동단말기 및 그 제어방법
US9223398B2 (en) 2012-10-08 2015-12-29 Samsung Display Co., Ltd. Flexible display apparatus and method of operating the same
WO2016036474A1 (en) * 2014-09-05 2016-03-10 Intel Corporation A multi-camera device
KR20170034543A (ko) * 2015-09-21 2017-03-29 삼성전자주식회사 사용자 단말, 전자 장치 및 이들의 제어 방법
US10013139B2 (en) 2016-04-25 2018-07-03 Hyundai Motor Company Apparatus and method for controlling display of cluster for vehicle
US10719209B2 (en) 2016-03-25 2020-07-21 Samsung Electronics Co., Ltd. Method for outputting screen and electronic device supporting the same
KR20210108718A (ko) * 2020-02-26 2021-09-03 이화여자대학교 산학협력단 스트레처블 디스플레이를 이용한 입체 컨텐츠 출력 장치 및 방법

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
JP6081324B2 (ja) * 2013-09-05 2017-02-15 シャープ株式会社 操作入力装置、携帯型情報端末、操作入力装置の制御方法、プログラム、及び記録媒体
CN103631492B (zh) * 2013-09-27 2018-09-04 深圳超多维科技有限公司 一种调节立体内容深度的方法及装置
KR102201733B1 (ko) * 2013-09-30 2021-01-12 엘지전자 주식회사 디스플레이 디바이스 및 그 제어 방법
CN103530799B (zh) * 2013-10-22 2017-07-11 惠州Tcl移动通信有限公司 根据3d图库实现掌上看房的浏览方法及3d看房系统
EP2887199B1 (en) * 2013-12-20 2020-06-03 Dassault Systèmes A device with a touch-sensitive display comprising a mecanism to copy and manipulate modeled objects
KR102214437B1 (ko) 2014-01-10 2021-02-10 삼성전자주식회사 컴퓨팅 디바이스에서 컨텐츠 복사 실행 방법, 컨텐츠 붙여넣기 실행 방법 및 컴퓨팅 디바이스
KR102271853B1 (ko) * 2014-03-21 2021-07-01 삼성전자주식회사 전자 장치, 영상 처리 방법, 및 컴퓨터 판독가능 기록매체
KR102366677B1 (ko) * 2014-08-02 2022-02-23 삼성전자주식회사 전자 장치 및 이의 사용자 인터렉션 방법
EP2990923A1 (en) 2014-08-28 2016-03-02 Samsung Electronics Co., Ltd Image display device and method
US11181637B2 (en) 2014-09-02 2021-11-23 FLIR Belgium BVBA Three dimensional target selection systems and methods
US10296098B2 (en) 2014-09-30 2019-05-21 Mirama Service Inc. Input/output device, input/output program, and input/output method
CN106325654B (zh) * 2015-06-19 2019-09-10 深圳超多维科技有限公司 应用于触摸终端的3d界面切屏方法及触摸终端
CN106257389B (zh) * 2015-06-19 2019-08-06 深圳超多维科技有限公司 实现文件夹图标交互的方法及触控终端
CN106325652B (zh) * 2015-06-19 2019-12-10 深圳超多维科技有限公司 图形用户界面交互方法及触摸终端
CN106325650B (zh) * 2015-06-19 2019-12-10 深圳超多维科技有限公司 基于人机交互的3d动态显示方法及移动终端
US20170068374A1 (en) * 2015-09-09 2017-03-09 Microsoft Technology Licensing, Llc Changing an interaction layer on a graphical user interface
CN105208277A (zh) * 2015-09-29 2015-12-30 努比亚技术有限公司 一种移动终端及其相机调焦处理方法
WO2017166218A1 (zh) * 2016-03-31 2017-10-05 华为技术有限公司 一种压力触控方法及电子设备
CN106293127B (zh) * 2016-08-10 2019-03-19 北京英梅吉科技有限公司 用于三维空间中的阵列式输入方法及系统
DK180127B1 (en) * 2017-05-16 2020-05-26 Apple Inc. DEVICES, METHODS, AND GRAPHICAL USER INTERFACES FOR MOVING USER INTERFACE OBJECTS
KR102440291B1 (ko) * 2017-11-15 2022-09-07 삼성디스플레이 주식회사 전자장치 및 전자장치 제어방법
US11829581B2 (en) * 2018-05-21 2023-11-28 Huawei Technologies Co., Ltd. Display control method and terminal
CN109857288A (zh) * 2018-12-18 2019-06-07 维沃移动通信有限公司 一种显示方法及终端
CN115278202A (zh) * 2022-07-29 2022-11-01 联想(北京)有限公司 显示方法及装置

Family Cites Families (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5347295A (en) * 1990-10-31 1994-09-13 Go Corporation Control of a computer through a position-sensed stylus
EP0741885B1 (en) * 1994-01-27 2002-11-20 Minnesota Mining And Manufacturing Company Software notes
US5608850A (en) * 1994-04-14 1997-03-04 Xerox Corporation Transporting a display object coupled to a viewpoint within or between navigable workspaces
US5847709A (en) 1996-09-26 1998-12-08 Xerox Corporation 3-D document workspace with focus, immediate and tertiary spaces
JPH10105735A (ja) 1996-09-30 1998-04-24 Terumo Corp 入力装置及び画像表示システム
JP2001209470A (ja) 2000-01-26 2001-08-03 Fujitsu Ltd 表示インターフェイス方法及び装置並びにプログラム記憶媒体
US7266768B2 (en) * 2001-01-09 2007-09-04 Sharp Laboratories Of America, Inc. Systems and methods for manipulating electronic information using a three-dimensional iconic representation
TWI238348B (en) 2002-05-13 2005-08-21 Kyocera Corp Portable information terminal, display control device, display control method, and recording media
JP2004070920A (ja) 2002-06-11 2004-03-04 Sony Computer Entertainment Inc 情報処理プログラム、情報処理プログラムを記録したコンピュータ読み取り可能な記録媒体、情報処理方法、及び情報処理装置
JP2004145832A (ja) * 2002-08-29 2004-05-20 Sharp Corp コンテンツ作成装置、コンテンツ編集装置、コンテンツ再生装置、コンテンツ作成方法、コンテンツ編集方法、コンテンツ再生方法、コンテンツ作成プログラム、コンテンツ編集プログラム、および携帯通信端末
US7178111B2 (en) * 2004-08-03 2007-02-13 Microsoft Corporation Multi-planar three-dimensional user interface
WO2006041097A1 (ja) * 2004-10-12 2006-04-20 Nippon Telegraph And Telephone Corporation 3次元ポインティング方法、3次元表示制御方法、3次元ポインティング装置、3次元表示制御装置、3次元ポインティングプログラム、及び3次元表示制御プログラム
JP4076090B2 (ja) 2005-04-14 2008-04-16 日本電信電話株式会社 画像表示システム
US7748634B1 (en) * 2006-03-29 2010-07-06 Amazon Technologies, Inc. Handheld electronic book reader device having dual displays
KR100823272B1 (ko) * 2006-06-26 2008-04-21 삼성전자주식회사 3차원 메뉴 표시 방법 및 장치와 그 방법을 수행하는프로그램을 기록한 컴퓨터 판독 가능한 기록 매체
US8432365B2 (en) 2007-08-30 2013-04-30 Lg Electronics Inc. Apparatus and method for providing feedback for three-dimensional touchscreen
US9098647B2 (en) 2008-03-10 2015-08-04 Apple Inc. Dynamic viewing of a three dimensional space
EP2104024B1 (en) 2008-03-20 2018-05-02 LG Electronics Inc. Portable terminal capable of sensing proximity touch and method for controlling screen using the same
KR101012379B1 (ko) 2008-03-25 2011-02-09 엘지전자 주식회사 단말기 및 이것의 정보 디스플레이 방법
KR101469280B1 (ko) 2008-04-01 2014-12-04 엘지전자 주식회사 근접 터치 감지 기능을 갖는 휴대 단말기 및 이를 이용한그래픽 사용자 인터페이스 제공 방법
GB0806183D0 (en) * 2008-04-04 2008-05-14 Picsel Res Ltd Presentation of objects in 3D displays
JP5203797B2 (ja) * 2008-05-13 2013-06-05 株式会社エヌ・ティ・ティ・ドコモ 情報処理装置及び情報処理装置の表示情報編集方法
US8477139B2 (en) 2008-06-09 2013-07-02 Apple Inc. Touch screen device, method, and graphical user interface for manipulating three-dimensional virtual objects
KR20100041006A (ko) * 2008-10-13 2010-04-22 엘지전자 주식회사 3차원 멀티 터치를 이용한 사용자 인터페이스 제어방법
CN102292993B (zh) * 2009-01-20 2015-05-13 Lg电子株式会社 三维字幕显示方法以及用于实现该方法的三维显示装置
KR101544550B1 (ko) 2009-02-17 2015-08-13 엘지전자 주식회사 휴대 단말기 및 그 제어방법
KR20100101779A (ko) 2009-03-10 2010-09-20 엘지전자 주식회사 이동단말기 및 그 제어방법
JP5158606B2 (ja) 2009-04-23 2013-03-06 Necカシオモバイルコミュニケーションズ株式会社 端末装置、表示方法、及びプログラム
US8224392B2 (en) * 2009-04-29 2012-07-17 Lg Electronics Inc. Mobile terminal capable of recognizing fingernail touch and method of controlling the operation thereof
US9275680B2 (en) * 2009-06-16 2016-03-01 Microsoft Technology Licensing, Llc Viewer-centric user interface for stereoscopic cinema
US9021399B2 (en) * 2009-06-24 2015-04-28 Lg Electronics Inc. Stereoscopic image reproduction device and method for providing 3D user interface
JP4802267B2 (ja) 2009-09-07 2011-10-26 株式会社バンダイナムコゲームス 記憶媒体及び画像生成装置
US8970669B2 (en) * 2009-09-30 2015-03-03 Rovi Guides, Inc. Systems and methods for generating a three-dimensional media guidance application
US9104275B2 (en) * 2009-10-20 2015-08-11 Lg Electronics Inc. Mobile terminal to display an object on a perceived 3D space
KR101647722B1 (ko) * 2009-11-13 2016-08-23 엘지전자 주식회사 영상표시장치 및 그 동작방법
KR101631451B1 (ko) * 2009-11-16 2016-06-20 엘지전자 주식회사 영상표시장치 및 그 동작방법
EP2333651B1 (en) * 2009-12-11 2016-07-20 Dassault Systèmes Method and system for duplicating an object using a touch-sensitive display
US8232990B2 (en) * 2010-01-05 2012-07-31 Apple Inc. Working with 3D objects
BR112012017367A2 (pt) * 2010-01-14 2017-06-13 Humaneyes Tech Ltd metodo e sistema para ajustar valores de profundidade de objetos em uma tela tridimencional (3d)
US10007393B2 (en) * 2010-01-19 2018-06-26 Apple Inc. 3D view of file structure
US20120075202A1 (en) * 2010-09-27 2012-03-29 Avaya Inc. Extending the touchable area of a touch screen beyond the borders of the screen

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140033955A (ko) * 2012-09-11 2014-03-19 엘지전자 주식회사 이동단말기 및 그 제어방법
US9223398B2 (en) 2012-10-08 2015-12-29 Samsung Display Co., Ltd. Flexible display apparatus and method of operating the same
US10726296B1 (en) 2014-09-05 2020-07-28 Intel Corporation Multi-camera device
WO2016036474A1 (en) * 2014-09-05 2016-03-10 Intel Corporation A multi-camera device
US9710724B2 (en) 2014-09-05 2017-07-18 Intel Corporation Multi-camera device
US9898684B2 (en) 2014-09-05 2018-02-20 Intel Corporation Multi-camera device
US11967129B2 (en) 2014-09-05 2024-04-23 Intel Corporation Multi-camera device
US10460202B2 (en) 2014-09-05 2019-10-29 Intel Corporation Multi-camera device
US11270154B2 (en) 2014-09-05 2022-03-08 Intel Corporation Multi-camera device
KR20170034543A (ko) * 2015-09-21 2017-03-29 삼성전자주식회사 사용자 단말, 전자 장치 및 이들의 제어 방법
US10719209B2 (en) 2016-03-25 2020-07-21 Samsung Electronics Co., Ltd. Method for outputting screen and electronic device supporting the same
US10013139B2 (en) 2016-04-25 2018-07-03 Hyundai Motor Company Apparatus and method for controlling display of cluster for vehicle
KR20210108718A (ko) * 2020-02-26 2021-09-03 이화여자대학교 산학협력단 스트레처블 디스플레이를 이용한 입체 컨텐츠 출력 장치 및 방법

Also Published As

Publication number Publication date
CN103282945B (zh) 2016-08-10
AU2011345468B2 (en) 2015-02-26
CA2822760A1 (en) 2012-06-28
RU2616565C2 (ru) 2017-04-17
EP2656318A4 (en) 2016-04-27
JP5968905B2 (ja) 2016-08-10
JP2014507701A (ja) 2014-03-27
EP2656318A1 (en) 2013-10-30
EP2656318B1 (en) 2017-12-13
MX2013007308A (es) 2013-10-25
CN103282945A (zh) 2013-09-04
BR112013009928A2 (pt) 2016-08-02
RU2013134461A (ru) 2015-01-27
US9495805B2 (en) 2016-11-15
KR101763263B1 (ko) 2017-07-31
WO2012087085A1 (en) 2012-06-28
AU2011345468A1 (en) 2013-04-18
US20120162213A1 (en) 2012-06-28

Similar Documents

Publication Publication Date Title
KR101763263B1 (ko) 3d 디스플레이 단말 장치 및 그 조작 방법
EP2585900B1 (en) Apparatus and method for proximity based input
EP2638461B1 (en) Apparatus and method for user input for controlling displayed information
EP2630563B1 (en) Apparatus and method for user input for controlling displayed information
US8826184B2 (en) Mobile terminal and image display controlling method thereof
JP5703703B2 (ja) 情報処理装置、立体視表示方法及びプログラム
CN106325835B (zh) 应用于触摸终端的3d应用图标交互方法及触摸终端
EP2428882A2 (en) Mobile terminal and controlling method thereof
JP2014503927A (ja) 複数のレイヤを含む3d映像をディスプレイするモバイル機器及びそのディスプレイ方法
KR20110037657A (ko) 모션을 이용한 gui 제공방법 및 이를 적용한 디스플레이 장치
KR20130069730A (ko) 투영된 사용자 인터페이스와 상호작용하는 방법들 및 시스템들
JP2013016018A (ja) 表示制御装置、制御方法及びプログラム
KR102342282B1 (ko) 어플리케이션 선택 화면을 통해 어플리케이션들을 실행하는 방법 및 장치
JP5640680B2 (ja) 情報処理装置、立体視表示方法及びプログラム
CN104777957A (zh) 一种显示方法及电子设备
EP3544287A1 (en) Method for setting image capture conditions and electronic device performing the same
TW201301131A (zh) 影像處理裝置及方法,以及程式
JP5640681B2 (ja) 情報処理装置、立体視表示方法及びプログラム
TW201301130A (zh) 影像處理設備及方法和電腦程式產品
KR20140135884A (ko) 디스플레이 장치 및 그 제어방법
KR20120034302A (ko) 이동 단말기 및 그 제어방법
CN106325655B (zh) 应用于触摸终端的3d应用图标交互方法及触摸终端
KR101850391B1 (ko) 이동 단말기 및 그것의 제어 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant