KR102164453B1 - Object control method performed in device including transparent display, the device, and computer readable recording medium thereof - Google Patents

Object control method performed in device including transparent display, the device, and computer readable recording medium thereof Download PDF

Info

Publication number
KR102164453B1
KR102164453B1 KR1020130036716A KR20130036716A KR102164453B1 KR 102164453 B1 KR102164453 B1 KR 102164453B1 KR 1020130036716 A KR1020130036716 A KR 1020130036716A KR 20130036716 A KR20130036716 A KR 20130036716A KR 102164453 B1 KR102164453 B1 KR 102164453B1
Authority
KR
South Korea
Prior art keywords
input
transparent display
touch input
function
user
Prior art date
Application number
KR1020130036716A
Other languages
Korean (ko)
Other versions
KR20130113997A (en
Inventor
윤일국
이창수
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to EP13162552.7A priority Critical patent/EP2648086A3/en
Priority to JP2015504507A priority patent/JP6254147B2/en
Priority to AU2013203018A priority patent/AU2013203018B2/en
Priority to CN201380018937.5A priority patent/CN104246683B/en
Priority to PCT/KR2013/002907 priority patent/WO2013151400A1/en
Priority to US13/858,258 priority patent/US10296127B2/en
Publication of KR20130113997A publication Critical patent/KR20130113997A/en
Application granted granted Critical
Publication of KR102164453B1 publication Critical patent/KR102164453B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04804Transparency, e.g. transparent or translucent windows

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

디스플레이를 포함하는 디바이스에 의해 수행되는 오브젝트 제어 방법, 및 그 디바이스와 기록 매체를 제공한다. 오브젝트 제어 방법은, 상기 디스플레이에 적어도 하나의 오브젝트를 디스플레이 하는 단계; 상기 디스플레이의 입력 인터페이스를 통해 입력을 수신하고, 상기 입력 인터페이스는 제 1 입력 인터페이스 및 제 2 입력 인터페이스중 적어도 하나를 포함하는 단계; 및 상기 입력 수신에 응답하여, 상기 입력 인터페이스가 상기 제 1 입력 인터페이스이고, 소정의 입력 인터페이스가 상기 제 1 입력 인터페이스이면, 상기 디바이스의 상기 소정의 입력 인터페이스에 관련된 제 1 기능을 수행하고, 상기 입력 인터페이스가 상기 제 2 입력 인터페이스이고, 상기 소정의 입력 인터페이스가 상기 제 2 입력 인터페이스이면, 상기 소정의 입력 인터페이스에 관련된 제 2 기능을 수행하는 단계를 포함한다. An object control method performed by a device including a display, and a device and a recording medium thereof are provided. The object control method includes: displaying at least one object on the display; Receiving an input through an input interface of the display, the input interface including at least one of a first input interface and a second input interface; And in response to receiving the input, if the input interface is the first input interface and the predetermined input interface is the first input interface, performing a first function related to the predetermined input interface of the device, and the input And if the interface is the second input interface and the predetermined input interface is the second input interface, performing a second function related to the predetermined input interface.

Description

투명 디스플레이를 포함하는 디바이스에서 오브젝트 제어 방법 및 그 디바이스와 기록 매체{Object control method performed in device including transparent display, the device, and computer readable recording medium thereof} Object control method performed in device including transparent display, the device, and computer readable recording medium thereof in a device including a transparent display

본 발명은 투명 디스플레이를 포함하는 디바이스에 관한 것으로, 특히 투명 디스플레이를 포함하는 디바이스에서 오브젝트 제어 방법 및 그 디바이스와 기록 매체에 관한 것이다. The present invention relates to a device including a transparent display, and more particularly, to a method for controlling an object in a device including a transparent display, and a device and a recording medium therefor.

최근 투명 디스플레이를 포함하는 차세대 디스플레이 디바이스가 개발되고 있다. 투명 디스플레이는 사용자가 디스플레이를 통해 볼 수 있고, 디스플레이 뒤의 오브젝트들을 볼 수 있는 투명도를 갖는다. Recently, a next-generation display device including a transparent display has been developed. The transparent display has transparency through which a user can see through the display and objects behind the display.

투명 디스플레이를 포함하는 디바이스는 정보 인식, 정보 처리, 및 정보 전달을 포함하는 동작을 수행하는 디바이스가 될 수 있다. 이 동작들은 또한 투명 전자 소자를 이용하여 수행될 수 있다. A device including a transparent display may be a device that performs operations including information recognition, information processing, and information transfer. These operations can also be performed using a transparent electronic device.

투명 디스플레이의 가용성(availability)은 투명 디스플레이를 포함하는 디바이스들과 상호 작용하는 새롭고 혁신적인 방법과 투명 디스플레이를 포함하는 디바이스에 대한 유저 인터페이스의 기능을 확장하기 위한 방법에 대한 요구를 만들고 있다.The availability of transparent displays is creating a need for new and innovative ways of interacting with devices that include a transparent display and methods for extending the functionality of user interfaces for devices that include a transparent display.

본 발명이 해결하고자 하는 과제는 투명 디스플레이를 포함하는 디바이스의 전면, 후면, 및 양면에 대한 터치와 같은 입력기반으로 오브젝트를 제어하는 방법 및 그 디바이스와 기록 매체를 제공하는데 있다. An object to be solved by the present invention is to provide a method for controlling an object based on an input such as a touch to the front, rear, and both sides of a device including a transparent display, and a device and a recording medium thereof.

본 발명이 해결하고자 하는 다른 과제는 투명 디스플레이를 포함하는 디바이스에서 오브젝트의 상태 또는 디스플레이 상태에 따른 가이드(guide) 디스플레이 방법 및 그 디바이스와 기록 매체를 제공하는데 있다. Another problem to be solved by the present invention is to provide a guide display method according to the state of an object or a display state in a device including a transparent display, and a device and a recording medium thereof.

본 발명이 해결하고자 하는 또 다른 과제는 투명 디스플레이를 포함하는 디바이스에서 오브젝트별로 설정된 터치 인터페이스를 사용하여 오브젝트를 제어하는 방법 및 그 디바이스와 기록 매체를 제공하는데 있다.Another problem to be solved by the present invention is to provide a method of controlling an object using a touch interface set for each object in a device including a transparent display, and a device and a recording medium thereof.

상기 과제를 달성하기 위한 바람직한 실시 예에 따른 디스플레이를 포함하는 디바이스에 의해 수행되는 오브젝트 제어 방법은, 상기 디스플레이에 적어도 하나의 오브젝트를 디스플레이 하는 단계; 상기 디스플레이의 입력 인터페이스를 통해 입력을 수신하고, 상기 입력 인터페이스는 제 1 입력 인터페이스와 제 2 입력 인터페이스중 적어도 하나를 포함하는 단계; 상기 입력 수신에 응답하여 상기 입력 인터페이스가 상기 제 1 입력 인터페이스이고 소정의 입력 인터페이스가 상기 제 1 입력 인터페이스이면, 상기 디바이스의 상기 소정 입력 인터페이스와 관련된 제 1 기능을 수행하는 단계; 및 상기 입력 인터페이스가 제 2 입력 인터페이스이고, 상기 소정의 입력 인터페이스가 상기 제 2 입력 인터페이스이면, 상기 소정의 입력 인터페이스와 관련된 제 2 기능을 수행하는 단계를 포함하는 것이 바람직하다.An object control method performed by a device including a display according to a preferred embodiment for achieving the above object includes: displaying at least one object on the display; Receiving an input through an input interface of the display, the input interface including at least one of a first input interface and a second input interface; If the input interface is the first input interface and the predetermined input interface is the first input interface in response to receiving the input, performing a first function related to the predetermined input interface of the device; And if the input interface is a second input interface and the predetermined input interface is the second input interface, performing a second function related to the predetermined input interface.

상기 수행 단계는 상기 입력 인터페이스가 상기 제 1 입력 인터페이스와 상기 제 2 입력 인터페이스 둘이고, 상기 소정의 입력 인터페이스가 상기 제 1 입력 인터페이스와 상기 제 2 입력 인터페이스 둘이면, 상기 소정의 입력 인터페이스와 관련된 제 3 기능을 수행하는 단계를 더 포함할 수 있다.In the performing step, if the input interface is two of the first input interface and the second input interface, and the predetermined input interface is two of the first input interface and the second input interface, a second input interface related to the predetermined input interface It may further include the step of performing three functions.

상기 디스플레이는 투명 디스플레이가 될 수 있다.The display may be a transparent display.

상기 제 1 입력 인터페이스는 상기 투명 디스플레이의 전면과 후면중 적어도 하나가 될 수 있고, 상기 제 2 입력 인터페이스는 상기 투명 디스플레이의 상기 전면과 상기 후면중 하나의 또 다른 하나가 될 수 있다. The first input interface may be at least one of a front surface and a rear surface of the transparent display, and the second input interface may be another one of the front surface and the rear surface of the transparent display.

상기 입력은 적어도 하나의 오브젝트에 대응될 수 있고, 상기 소정의 입력 인터페이스는 상기 적어도 하나의 오브젝트에 대응될 수 있고, 상기 적어도 하나의 오브젝트의 디스플레이 환경과 상기 적어도 하나의 오브젝트의 동작중 적어도 하나에 따라 설정될 수 있다.The input may correspond to at least one object, and the predetermined input interface may correspond to the at least one object, and at least one of a display environment of the at least one object and an operation of the at least one object Can be set accordingly.

상기 적어도 하나의 오브젝트는 제 1 오브젝트와 상기 제 1 오브젝트의 전면에 디스플레이 되고 있는 제 2 오브젝트를 포함할 수 있고, 상기 제 2 기능은 상기 제 2 오브젝트의 디스플레이 상태를 변경하는 단계를 포함할 수 있다. The at least one object may include a first object and a second object displayed in front of the first object, and the second function may include changing a display state of the second object. .

상기 적어도 하나의 오브젝트는 제 1 계층(first layer) 아래에 제 2 계층(second layer)에 디스플레이 되고 있는 제 2 윈도우를 부분적으로 오버랩하는 제 1 계층에 디스플레이 되고 있는 제 1 윈도우를 포함할 수 있고, 상기 제 2 기능은 상기 제 2 윈도우를 이동하는 단계를 포함할 수 있다. The at least one object may include a first window displayed in a first layer partially overlapping a second window displayed in a second layer under a first layer, The second function may include moving the second window.

상기 적어도 하나의 오브젝트는 제 1 계층(first layer) 아래에 제 2 계층(second layer)에 디스플레이 되고 있는 제 2 윈도우를 부분적으로 오버랩하는 제 1 계층에 디스플레이 되고 있는 제 1 윈도우를 포함할 수 있고, 상기 제 2 기능은 상기 제 1 윈도우 위에 상기 제 2 윈도우를 디스플레이 하는 단계를 포함할 수 있다. The at least one object may include a first window displayed in a first layer partially overlapping a second window displayed in a second layer under a first layer, The second function may include displaying the second window on the first window.

상기 입력은 상기 제 2 입력 인터페이스의 소정 영역 이상 터치하는 단계를 포함할 수 있고, 상기 제 2 기능은 상기 디스플레이의 투명도를 최대 값으로 설정하는 단계를 포함할 수 있다. 상기 제 2 입력 인터페이스의 상기 소정 영역 이상 터치하는 입력이 소정 시간 이상 유지되지 않으면, 상기 제 2 기능은 상기 제 2 입력 인터페이스의 터치 단계 이전 화면(screen)으로 리턴하는 단계를 포함한다. The input may include touching more than a predetermined area of the second input interface, and the second function may include setting the transparency of the display to a maximum value. When an input of the second input interface touched for more than a predetermined time is not maintained for a predetermined time or longer, the second function includes returning to a screen before the touch step of the second input interface.

상기 방법은 상기 적어도 하나의 오브젝트와 관련된 입력 인터페이스 편집 요청에 응답하여 상기 적어도 하나의 오브젝트에 관련된 상기 소정의 입력 인터페이스에 관한 정보를 포함하는 편집 윈도우를 디스플레이 하는 단계; 및 상기 편집 윈도우에서 상기 유저의 입력에 따른 상기 적어도 하나의 오브젝트에 관한 상기 소정의 입력 인터페이스에 관한 정보를 업데이트 하는 단계를 더 포함할 수 있다. The method includes the steps of: in response to a request to edit an input interface related to the at least one object, displaying an edit window including information on the predetermined input interface related to the at least one object; And updating information about the predetermined input interface regarding the at least one object according to the user's input in the edit window.

상기 적어도 하나의 오브젝트는 제 1 오브젝트와 제 2 오브젝트를 포함할 수 있고, 상기 입력은 상기 제 1 입력 인터페이스를 통해 수신된 상기 제 1 오브젝트에 관한 제 1 입력 및 상기 제 2 입력 인터페이스를 통해 수신된 상기 제 2 오브젝트에 관한 제 2 입력을 포함하고, 상기 제 1 기능은 상기 제 2 오브젝트와 동시에 상기 제 1 입력 인터페이스를 통해 수신된 상기 제 1 입력에 따라 상기 제 1 오브젝트를 제어하는 단계를 포함하고, 상기 제 2 기능은 상기 제 1 오브젝트와 동시에 상기 제 2 입력 인터페이스를 통해 수신된 상기 제 2 입력에 따라 상기 제 2 오브젝트를 제어하는 단계를 포함할 수 있다.The at least one object may include a first object and a second object, and the input is a first input regarding the first object received through the first input interface and a first input received through the second input interface. A second input relating to the second object, wherein the first function includes controlling the first object according to the first input received through the first input interface simultaneously with the second object, and , The second function may include controlling the second object according to the second input received through the second input interface simultaneously with the first object.

상기 입력은 상기 적어도 하나의 오브젝트에 관한 제스처(gesture)를 포함할 수 있다. 상기 제스처는 상기 소정의 입력 인터페이스를 통해 일 방향으로 소정 길이 이상 이동하는 단계를 포함할 수 있다. 상기 제 1 기능은 상기 제스처에 대응하는 방향으로 상기 적어도 하나의 오브젝트를 회전하여 상기 소정의 입력 인터페이스를 상기 제 2 입력 인터페이스로 변경하는 단계를 포함할 수 있다. 상기 제 2 기능은 상기 제스처에 대응하는 방향으로 상기 적어도 하나의 오브젝트를 회전하여 상기 소정의 입력 인터페이스를 상기 제 1 입력 인터페이스로 변경하는 단계를 포함할 수 있다. The input may include a gesture regarding the at least one object. The gesture may include moving a predetermined length or more in one direction through the predetermined input interface. The first function may include changing the predetermined input interface to the second input interface by rotating the at least one object in a direction corresponding to the gesture. The second function may include changing the predetermined input interface to the first input interface by rotating the at least one object in a direction corresponding to the gesture.

상기 제 2 기능은 상기 적어도 하나의 오브젝트의 상태 또는 상기 디스플레이의 상태에 기초하여 상기 입력에 대응하는 가이드를 가변적으로 디스플레이 하는 단계를 포함할 수 있다. The second function may include variably displaying a guide corresponding to the input based on the state of the at least one object or the state of the display.

상기 제 2 기능은 상기 입력의 위치에 대응하는 가이드를 디스플레이 하는 단계를 포함할 수 있다. The second function may include displaying a guide corresponding to the position of the input.

상기 방법은 상기 방법을 수행하기 위한 명령어들을 포함하는 비 일시적인(non-transitory) 컴퓨터 기록 가능한 매체에 구현될 수 있다. The method may be embodied in a non-transitory computer-recordable medium containing instructions for performing the method.

상기 과제를 달성하기 위한 바람직한 실시 예에 따른 오브젝트 제어 방법을 수행하는 디바이스는, 적어도 하나의 오브젝트를 디스플레이 하는 디스플레이; 제 1 입력 인터페이스와 제 2 입력 인터페이스중 적어도 하나를 통해 입력을 수신하는 입력 인터페이스; 소정의 입력 인터페이스를 저장하는 저장기; 상기 입력 수신에 응답하여, 상기 입력 인터페이스가 상기 제 1 입력 인터페이스이고 상기 소정의 입력 인터페이스가 상기 제 1 입력 인터페이스이면, 상기 소정의 입력 인터페이스에 관련된 제 1 기능을 수행하고, 상기 입력 인터페이스가 제 2 입력 인터페이스이고 상기 소정의 입력 인터페이스는 상기 제 2 입력 인터페이스이면, 상기 소정의 입력 인터페이스와 관련된 제 2 기능을 수행하는 프로세서를 포함할 수 있다. A device for performing an object control method according to a preferred embodiment for achieving the above task includes: a display for displaying at least one object; An input interface for receiving an input through at least one of a first input interface and a second input interface; A storage device for storing a predetermined input interface; In response to receiving the input, if the input interface is the first input interface and the predetermined input interface is the first input interface, a first function related to the predetermined input interface is performed, and the input interface is a second input interface. If it is an input interface and the predetermined input interface is the second input interface, a processor that performs a second function related to the predetermined input interface may be included.

상기 프로세서는 또한 상기 입력 인터페이스가 상기 제 1 입력 인터페이스와 상기 제 2 입력 인터페이스 둘이고, 상기 소정의 입력 인터페이스가 상기 제 1 입력 인터페이스와 상기 제 2 입력 인터페이스 둘이면, 상기 소정의 입력 인터페이스에 관련된 제 3 기능을 수행할 수 있다. The processor further comprises a second input interface related to the predetermined input interface if the input interface is two of the first input interface and the second input interface, and the predetermined input interface is two of the first input interface and the second input interface. Can perform 3 functions.

상기 디스플레이는 투명 디스플레이가 될 수 있다.The display may be a transparent display.

상기 제 1 입력 인터페이스는 상기 투명 디스플레이의 전면과 후면중 적어도 하나가 될 수 있고, 상기 제 2 입력 인터페이스는 상기 투명 디스플레이의 상기 전면과 상기 후면중 하나의 또 다른 하나가 될 수 있다. The first input interface may be at least one of a front surface and a rear surface of the transparent display, and the second input interface may be another one of the front surface and the rear surface of the transparent display.

상기 제 2 기능은 상기 적어도 하나의 오브젝트의 상태 또는 상기 디스플레이의 상태에 기초하여 상기 입력에 대응하는 가이드를 가변적으로 디스플레이 하는 것을 포함할 수 있다. The second function may include variably displaying a guide corresponding to the input based on a state of the at least one object or a state of the display.

상기 제 2 기능은 상기 입력의 위치에 대응하는 가이드를 디스플레이 하는 것을 포함할 수 있다. The second function may include displaying a guide corresponding to the position of the input.

상기 입력은 상기 제 2 입력 인터페이스의 소정 영역 이상 터치하는 것을 포함할 수 있고, 상기 제 2 기능은 상기 디스플레이의 투명도를 최대 값으로 설정하는 것을 포함할 수 있다. 상기 제 2 입력 인터페이스의 상기 소정 영역 이상 터치하는 입력이 소정 시간 이상 유지되지 않으면, 상기 제 2 기능은 상기 제 2 입력 인터페이스의 터치 하기 이전 화면(screen)으로 리턴되는 것을 포함한다. The input may include touching more than a predetermined area of the second input interface, and the second function may include setting the transparency of the display to a maximum value. When an input of the second input interface touching the predetermined area or more is not maintained for a predetermined time or longer, the second function includes returning to a screen before the touch of the second input interface.

상기 입력은 적어도 하나의 오브젝트에 대응될 수 있고, 상기 소정의 입력 인터페이스는 제 1 입력 인터페이스와 제 2 입력 인터페이스중 적어도 하나이고, 상기 적어도 하나의 오브젝트에 대응될 수 있고, 상기 적어도 하나의 오브젝트의 디스플레이 환경과 상기 적어도 하나의 오브젝트의 동작중 적어도 하나에 따라 설정될 수 있다.The input may correspond to at least one object, and the predetermined input interface may be at least one of a first input interface and a second input interface, may correspond to the at least one object, and may correspond to the at least one object. It may be set according to at least one of a display environment and an operation of the at least one object.

상기 적어도 하나의 오브젝트는 제 1 오브젝트와 제 2 오브젝트를 포함할 수 있고, 상기 제 2 기능은 상기 제 1 오브젝트의 전면에 디스플레이 되고 있는 상기 제 2 오브젝트의 디스플레이 상태를 변경하는 것을 포함할 수 있다. The at least one object may include a first object and a second object, and the second function may include changing a display state of the second object displayed on the front surface of the first object.

상기 적어도 하나의 오브젝트는 제 1 계층(first layer) 아래에 제 2 계층(second layer)에 디스플레이 되고 있는 제 2 윈도우를 부분적으로 오버랩하는 제 1 계층에 디스플레이 되고 있는 제 1 윈도우를 포함할 수 있고, 상기 제 2 기능은 상기 제 2 윈도우를 이동하는 것을 포함할 수 있다. The at least one object may include a first window displayed in a first layer partially overlapping a second window displayed in a second layer under a first layer, The second function may include moving the second window.

상기 적어도 하나의 오브젝트는 제 1 계층(first layer) 아래에 제 2 계층(second layer)에 디스플레이 되고 있는 제 2 윈도우를 부분적으로 오버랩하는 제 1 계층에 디스플레이 되고 있는 제 1 윈도우를 포함할 수 있고, 상기 제 2 기능은 상기 제 1 계층 아래에 상기 제 2 계층으로부터 상기 제 2 윈도우를 이동하는 것, 및 상기 제 1 윈도우 위에 상기 제 2 윈도우를 디스플레이 하는 것을 포함할 수 있다. The at least one object may include a first window displayed in a first layer partially overlapping a second window displayed in a second layer under a first layer, The second function may include moving the second window from the second layer below the first layer, and displaying the second window above the first window.

상기 프로세서는, 상기 적어도 하나의 오브젝트에 대한 입력 인터페이스 편집 요청에 응답하여, 상기 적어도 하나의 오브젝트에 관한 상기 소정의 입력 인터페이스에 관한 정보를 포함하는 편집 윈도우를 디스플레이 하는 것; 및 상기 편집 윈도우에서 상기 사용자의 입력에 따라 상기 적어도 하나의 오브젝트에 관한 상기 소정의 입력 인터페이스에 관한 정보를 업데이트 하는 것을 수행할 수 있다. The processor, in response to a request to edit an input interface for the at least one object, displays an edit window including information on the predetermined input interface for the at least one object; And updating information on the predetermined input interface regarding the at least one object in the edit window according to the user's input.

도 1은 바람직한 실시 예에 따른 오브젝트들과 오브젝트의 사용자 입력 인터페이스 설정을 설명하기 위한 도면이다.
도 2a는 바람직한 실시 예에 따른 투명 디스플레이를 포함하는 디바이스의 블록도이다.
도 2b는 도 2a의 투명 디스플레이의 상세 구조의 단면도이다.
도 3은 바람직한 실시 예에 따른 투명 디스플레이를 포함하는 디바이스에 의해 수행되는 오브젝트 제어 방법의 흐름도이다.
도 4 내지 도 20은 도 3의 오브젝트 제어 방법중에서 디스플레이 되고 있는 화면의 예들을 설명한다.
도 21은 바람직한 다른 실시 예에 따른 투명 디스플레이를 포함하는 디바이스에 의해 수행되는 오브젝트 제어 방법의 흐름도이다.
도 22a 및 도 22b는 도 21의 오브젝트 제어 방법을 사용하여 사용자 입력 인터페이스를 변경하는 동안에 디스플레이 되는 화면의 예를 설명한다.
도 23은 바람직한 또 다른 실시 예에 따른 투명 디스플레이를 포함하는 디바이스에서 가이드 디스플레이의 디스플레이 방법의 흐름도이다.
도 24는 가이드를 디스플레이하는 화면의 예들을 설명한다.
도 25는 바람직한 실시 예에 따른 투명 디스플레이를 포함하는 디바이스의 블록도이다.
도 26은 바람직한 실시 예에 따른 투명 디스플레이를 포함하는 디바이스의 저장부에 저장되는 소프트웨어를 설명하는 도면이다.
1 is a diagram for describing objects and a user input interface setting of an object according to an exemplary embodiment.
2A is a block diagram of a device including a transparent display according to an exemplary embodiment.
2B is a cross-sectional view of a detailed structure of the transparent display of FIG. 2A.
3 is a flowchart of an object control method performed by a device including a transparent display according to an exemplary embodiment.
4 to 20 illustrate examples of screens displayed in the object control method of FIG. 3.
21 is a flowchart of an object control method performed by a device including a transparent display according to another exemplary embodiment.
22A and 22B illustrate examples of screens displayed while changing the user input interface using the object control method of FIG. 21.
23 is a flowchart illustrating a method of displaying a guide display in a device including a transparent display according to another exemplary embodiment.
24 illustrates examples of a screen displaying a guide.
25 is a block diagram of a device including a transparent display according to an exemplary embodiment.
26 is a diagram illustrating software stored in a storage unit of a device including a transparent display according to an exemplary embodiment.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. Since the present invention can apply various transformations and have various embodiments, specific embodiments are illustrated in the drawings and will be described in detail in the detailed description. However, this is not intended to limit the present invention to a specific embodiment, it should be understood to include all conversions, equivalents, or substitutes included in the spirit and scope of the present invention. In describing the present invention, when it is determined that a detailed description of a related known technology may obscure the subject matter of the present invention, a detailed description thereof will be omitted.

제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. Terms such as first and second may be used to describe various components, but the components should not be limited by terms. The terms are only used for the purpose of distinguishing one component from another component.

본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 본 출원에서 사용한 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나 이는 당 분야에 종사하는 기술자의 의도, 판례, 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다. The terms used in the present application are used only to describe specific embodiments, and are not intended to limit the present invention. The terms used in the present application have selected general terms that are currently widely used as possible while considering the functions of the present invention, but this may vary according to the intention of a technician working in the field, precedents, or the emergence of new technologies. In addition, in certain cases, there are terms arbitrarily selected by the applicant, and in this case, the meaning of the terms will be described in detail in the description of the corresponding invention. Therefore, the terms used in the present invention should be defined based on the meaning of the term and the overall contents of the present invention, not a simple name of the term.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Singular expressions include plural expressions unless the context clearly indicates otherwise. In the present application, terms such as "comprise" or "have" are intended to designate the presence of features, numbers, steps, actions, components, parts, or combinations thereof described in the specification, but one or more other features. It is to be understood that the presence or addition of elements or numbers, steps, actions, components, parts, or combinations thereof, does not preclude in advance.

명세서 전반에서 언급되는 오브젝트(object)는 디스플레이 되고 있는 모든 구성요소(component) 또는 정보로서, 사용자 입력에 의해 선택되어 사용자의 의도에 따라 제어될 수 있는 구성요소 또는 정보를 의미한다. 오브젝트는 예를 들어 제 1 이미지, 제 1 이미지에 포함된 제 2 이미지, 배경 이미지, 아이콘(icon), 폴더 아이콘(folder icon), 폴더 아이콘에 포함된 아이콘, 텍스트(text), 팝업 창(pop-up window), 어플리케이션 실행 창, 어플리케이션 실행 창에 포함된 컨텐츠(content), 리스트(list), 리스트에 포함된 아이템(item), 컨텐츠(content) 등을 포함할 수 있으나 이로 제한되지 않는다. An object referred to throughout the specification refers to all components or information being displayed, and means components or information that can be selected by a user input and controlled according to a user's intention. The object is, for example, a first image, a second image included in the first image, a background image, an icon, a folder icon, an icon included in the folder icon, text, and a pop-up window. -up window), an application execution window, a content included in the application execution window, a list, an item included in the list, content, etc., but are not limited thereto.

오브젝트는 오브젝트를 위해 설정된 사용자 입력 인터페이스(터치 입력 면과 같은 사용자 입력 인터페이스)를 통한 사용자의 입력(터치 입력과 같은 사용자의 입력)에 의해 디스플레이 될 수 있다. 예를 들어, 오브젝트는 투명 디스플레이를 포함하는 디바이스에서 수행되고 있는 기능에 따라 숨겨져 있다가 사용자의 입력에 따라 활성화(activation)되어 디스플레이 될 수 있다. The object may be displayed by a user input (a user input such as a touch input) through a user input interface (a user input interface such as a touch input surface) set for the object. For example, the object may be hidden according to a function being performed in a device including a transparent display, and then activated according to a user's input and displayed.

도 1은 바람직한 실시 예에 따른 오브젝트들과 오브젝트 각각에 대해 설정된 사용자 입력 인터페이스를 설명하기 위한 도면이다. 1 is a diagram for describing objects and a user input interface set for each of the objects according to an exemplary embodiment.

도 1을 참조하면, 리스트가 디스플레이 될 때, 스크롤 박스(scroll box), 아이템 박스(item box), 아이템 박스에 포함된 아이콘(icon) 등이 오브젝트들이다. 사용자는 사용자 입력 인터페이스를 이용하여 오브젝트에 대한 명령을 입력할 수 있다. Referring to FIG. 1, when a list is displayed, objects include a scroll box, an item box, and an icon included in the item box. A user can input a command for an object using a user input interface.

도 1은 오브젝트간의 계층적인(hierarchical) 관계의 예를 도시한다. 도 1에 도시된 스크롤 박스가 최상위 계층(layer)의 오브젝트이고, 아이콘이 최하위 계층의 오브젝트이다. 다시 말해서 도 1은 스크롤 박스 오브젝트의 하위 계층(sub-layer)에 복수의 아이템 박스 오브젝트가 포함되고, 각 아이템 박스 오브젝트의 하위 계층(sub-layer)에 아이콘 오브젝트가 포함된 경우이다. 1 shows an example of a hierarchical relationship between objects. The scroll box shown in FIG. 1 is an object of the highest layer, and an icon is an object of the lowest layer. In other words, FIG. 1 shows a case where a plurality of item box objects are included in a sub-layer of a scroll box object, and an icon object is included in a sub-layer of each item box object.

도 1에 도시된 바와 같이 각 오브젝트에 대한 사용자 입력 인터페이스는 사전에 설정될 수 있다. 각 오브젝트의 사용자 입력 인터페이스는 각 오브젝트를 운영하기 위한 프로그램 제작시 설정되나 상위 계층의 오브젝트를 위하여 설정된 사용자 입력 인터페이스에 따라 설정될 수 있다. As shown in FIG. 1, a user input interface for each object may be set in advance. The user input interface of each object is set when a program for operating each object is produced, but may be set according to a user input interface set for an object of a higher layer.

예를 들어, 도 1에 도시된 아이콘의 사용자 입력 인터페이스가 각 오브젝트를 포함하는 프로그램 제작시 설정되지 않은 경우에, 아이콘의 사용자 입력 인터페이스는 아이템 박스에 설정된 사용자 입력 인터페이스에 따라 설정될 수 있다. 이는 아이템 박스가 상기 아이콘의 페어런트 계층(parent layer)이고, 상기 아이콘이 상기 아이템 박스의 서브 계층이기 때문이다. 아이콘의 사용자 입력 인터페이스의 설정은 아이콘이 디스플레이 될 때 수행될 수 있다. 아이템 박스와 아이콘의 사용자 입력 인터페이스가 각 오브젝트를 포함하는 프로그램 제작 시 설정되지 않은 경우에, 스크롤 박스와 아이콘의 사용자 입력 인터페이스는 스크롤 박스의 사전에 설정된 사용자 입력 인터페이스에 따라 설정될 수 있다. 이는 상기 아이템 박스와 상기 아이콘이 상기 스크롤 박스의 서브 계층이기 때문이다. 이 경우에도 아이템 박스 및 아이콘이 디스플레이 될 때 아이템 박스 및 아이콘의 사용자 입력 인터페이스가 상기 스크롤 박스의 사용자 입력 인터페이스에 따라 설정될 수 있다. For example, when the user input interface of the icon shown in FIG. 1 is not set when a program including each object is produced, the user input interface of the icon may be set according to the user input interface set in the item box. This is because an item box is a parent layer of the icon, and the icon is a sub-layer of the item box. Setting of the user input interface of the icon may be performed when the icon is displayed. When the user input interface of the item box and the icon is not set when a program including each object is produced, the user input interface of the scroll box and the icon may be set according to a preset user input interface of the scroll box. This is because the item box and the icon are sub-layers of the scroll box. Even in this case, when the item box and icon are displayed, the user input interface of the item box and icon may be set according to the user input interface of the scroll box.

도 1에 도시된 바와 같이 각 오브젝트에 대한 사용자 입력 인터페이스가 설정된 경우에 스크롤 박스는 후면 입력 인터페이스를 통해 입력되는 사용자의 입력에 따라 동작되고, 아이템 박스_1은 전면 입력 인터페이스를 통해 입력되는 사용자의 입력에 따라 동작되고, 아이콘은 전면 입력 인터페이스 또는/ 및 후면 입력 인터페이스를 통해 입력되는 사용자의 입력에 의해 동작되고, 텍스트는 전면 입력 인터페이스를 통해 입력되는 사용자의 입력에 의해 동작된다. As shown in Fig. 1, when the user input interface for each object is set, the scroll box operates according to the user's input through the rear input interface, and the item box_1 is the user's input through the front input interface. It operates according to the input, the icon is operated by a user's input input through the front input interface or/and the rear input interface, and the text is operated by the user's input input through the front input interface.

따라서, 도 1에 도시된 바와 같이 각 오브젝트의 사용자 입력 인터페이스가 설정된 경우에, 스크롤을 멈춘 위치에 아이템 박스 또는 아이콘이 위치함에 따라 아이템 박스 또는 아이콘이 잘못 선택되는 동작 오류는 발생되지 않는다. 왜냐하면, 스크롤 박스는 후면 입력 인터페이스로 입력이 인가되어 동작되고 상기 아이템 박스는 후면 유저 인터페이스를 통해만 입력을 수신할 수 있고, 상기 아이콘은 전면 및 후면 입력 인터페이스 둘을 통해 입력을 수신할 수 있기 때문이다. Accordingly, when the user input interface of each object is set as shown in FIG. 1, an operation error in which the item box or icon is incorrectly selected as the item box or icon is positioned at the position where scrolling is stopped does not occur. This is because the scroll box is operated by receiving input through the rear input interface, and the item box can receive input only through the rear user interface, and the icon can receive input through both the front and rear input interfaces. to be.

또한, 도 1의 오브젝트에 설정된 사용자 입력 인터페이스는 오브젝트의 디스플레이 환경과 오브젝트의 동작중 적어도 하나에 기초하여 설정될 수 있으나 바람직한 실시 예는 이로 제한되지 않는다. Also, the user input interface set for the object of FIG. 1 may be set based on at least one of a display environment of the object and an operation of the object, but the preferred embodiment is not limited thereto.

예를 들어 사용자 입력면적(또는 터치면적)이 좁은 오브젝트는 상대적으로 사용자의 제어가 용이한 전면 입력 인터페이스로 설정하고, 사용자 입력면적이 넓은 오브젝트는 상대적으로 사용자의 제어가 용이하지 않은 후면 입력 인터페이스로 설정할 수 있다. 사용자가 자주 사용하는 동작을 수행하는 오브젝트는 상대적으로 사용자의 제어가 용이한 전면 입력 인터페이스로 설정하고, 사용자가 자주 사용하지 않는 동작을 수행하는 오브젝트는 상대적으로 사용자의 제어가 용이하지 않은 후면 입력 인터페이스로 설정할 수 있다. For example, an object with a narrow user input area (or touch area) is set as a front input interface that is relatively easy for the user to control, and an object with a large user input area is set as a rear input interface that is relatively difficult for the user to control. Can be set. Objects that perform actions frequently used by the user are set as the front input interface that is relatively easy for the user to control, and objects that perform actions that are not frequently used by the user are rear input interfaces that are relatively difficult for the user to control. Can be set to

오브젝트가 사용자 입력 인터페이스에 따라 멀티플 동작(multiple operations)을 실행하기 위해 설정된 경우에, 양면 입력 인터페이스(예를 들어, 전면 입력 인터페이스와 후면 입력 인터페이스)는 상기 오브젝트의 상기 사용자 입력 인터페이스로서 설정될 수 있다. 실행 동작에 기초한 오브젝트는 전면 입력 인터페이스, 후면 입력 인터페이스, 듀얼 사이드 입력 인터페이스를 통한 사용자의 입력에 따라 수행될 수 있다. 도 1에 도시된 각 오브젝트들은 위젯(widget)으로 언급될 수 있다. 상술한 전면 입력 인터페이스, 후면 입력 인터페이스, 및 듀얼 입력 인터페이스는 각각 전면 입력 모드(front input mode), 후면 입력 모드(back input mode), 및 듀얼 사이드 입력 모드(dual-side input mode)로 언급될 수 있다. When an object is set to perform multiple operations according to a user input interface, a double-sided input interface (for example, a front input interface and a rear input interface) may be set as the user input interface of the object. . The object based on the execution operation may be executed according to a user's input through a front input interface, a rear input interface, and a dual side input interface. Each of the objects shown in FIG. 1 may be referred to as a widget. The above-described front input interface, rear input interface, and dual input interface may be referred to as a front input mode, a back input mode, and a dual-side input mode, respectively. have.

명세서 전반에서 언급되는 입력 인터페이스 또는 입력 모드는 투명 디스플레이의 터치면이 될 수 있다. 따라서 전면 입력 인터페이스 또는 전면 입력 모드는 투명 디스플레이의 전면 터치면이 될 수 있다. 후면 입력 인터페이스 또는 후면 입력 모드는 투명 디스플레이의 후면 터치면이 될 수 있다. The input interface or input mode referred to throughout the specification may be a touch surface of a transparent display. Therefore, the front input interface or the front input mode may be the front touch surface of the transparent display. The rear input interface or rear input mode can be the rear touch surface of the transparent display.

명세서 전반에서 언급되는 사용자의 입력은 사용자의 제스처(gesture)에 따라 제공되는 입력 정보가 될 수 있다. 사용자의 제스처는 사용자의 입력의 위치(position), 방향(direction), 속도(speed), 터치 포인트의 횟수, 등에 따라 정의될 수 있다. 즉, 입력 장치가 터치스크린 기반일 때, 사용자의 제스처는 예를 들어 탭(tap), 터치 앤 홀드(touch and hold), 더블 탭(double tap), 드래그(drag), 패닝(panning), 플릭(flick), 드래그 앤 드롭(drag and drop), 및 스윕(sweep) 등을 포함할 수 있으나 이로 제한되지 않는다. The user's input referred to throughout the specification may be input information provided according to the user's gesture. The user's gesture may be defined according to the position, direction, speed, number of touch points, and the like of the user's input. That is, when the input device is based on a touch screen, the user's gesture is, for example, tap, touch and hold, double tap, drag, panning, and flick. (flick), drag and drop (drag and drop), and may include a sweep (sweep), and the like, but is not limited thereto.

터치스크린에 대한 사용자의 제스처는 사용자의 손가락 또는 터치 도구(예를 들어, stylus pen)를 이용하여 수행될 수 있다. 사용자의 제스처는 카메라 또는 다른 제스처 검출 디바이스로부터 수신될 수 있다. 이 경우에, 사용자의 제스처는 카메라를 이용하여 촬영된 영상 기반으로 결정된 공간에서 수행되는 체스처를 포함할 수 있다. 사용자의 모션(motion)에 기초한 공간에서 수행되는 상기 제스처는 디바이스의 움직임(예를 들어 디바이스 흔들기(shaking))에 의해 결정될 수 있다. The user's gesture on the touch screen may be performed using a user's finger or a touch tool (eg, a stylus pen). The user's gesture may be received from a camera or other gesture detection device. In this case, the user's gesture may include a chess gesture performed in a space determined based on an image captured using a camera. The gesture performed in a space based on a user's motion may be determined by a device movement (eg, device shaking).

입력 장치가 물리적 버튼, 다이얼, 슬라이더 스위치, 조이스틱, 클릭 휠 등중 적어도 하나를 포함할 때, 사용자의 입력은 입력 장치에 대한 사용자의 물리적인 제어에 의존할 수 있다. 입력 장치가 오디오 입력 장치 기반일 때, 사용자 입력은 자연어(natural language) 기반의 사용자의 음성 인식에 의존할 수 있다. When the input device includes at least one of a physical button, a dial, a slider switch, a joystick, a click wheel, or the like, the user's input may depend on the user's physical control of the input device. When the input device is based on an audio input device, the user input may rely on natural language based user's speech recognition.

도 2a는 바람직한 실시 예에 따른 투명 디스플레이(201)를 포함하는 디바이스(200)의 기능 블록도이다. 도 2a에 도시된 투명 디스플레이(201)를 포함하는 디바이스(200)는 일 예로 스마트 폰(Smart Phone), 노트북(Notebook), 태블릿(Tablet) PC(Personal Computer), 패블릿(Phablet), 이동 단말기(Mobile Device), 핸드헬드(handheld) 디바이스 또는 핸드헬드 PC, PDA(Personal Digital Assistant) 등이 있을 수 있으나 이로 제한되지 않는다. 투명 디스플레이(201)는 스마트 창(smart window), 고부가가치 유리, 기능성 자동차 부품인 유리, 자동차 대쉬보드(dashboard), 내비케이터(navigator), 보안 전자 디바이스, 태양 전지, 게임기, 장난감, 쇼윈도우 등 다양한 분야에 적용될 수 있다. 2A is a functional block diagram of a device 200 including a transparent display 201 according to an exemplary embodiment. The device 200 including the transparent display 201 shown in FIG. 2A is, for example, a smart phone, a notebook, a tablet PC, a phablet, and a mobile terminal. (Mobile Device), a handheld device or a handheld PC, PDA (Personal Digital Assistant), etc. may be, but is not limited thereto. The transparent display 201 is a smart window, high value-added glass, glass as a functional automobile component, a vehicle dashboard, a navigator, a security electronic device, a solar cell, a game console, a toy, a show window. It can be applied to various fields such as.

도 2a를 참조하면, 디바이스(200)는 투명 디스플레이(201), 사용자 입력부(205), 센싱부(206), 카메라(207), 오디오 입력부(208), 오디오 신호 처리부(209), 오디오 출력부(210), 저장부(211), 통신부(212), 포트(213), 전원부(214), 및 프로세서(215)를 포함한다. 투명 디스플레이를 포함하는 디바이스(200)의 구성은 도 2a에 도시된 바로 제한되지 않는다. 2A, the device 200 includes a transparent display 201, a user input unit 205, a sensing unit 206, a camera 207, an audio input unit 208, an audio signal processing unit 209, and an audio output unit. 210, a storage unit 211, a communication unit 212, a port 213, a power supply unit 214, and a processor 215. The configuration of the device 200 including the transparent display is not limited as shown in FIG. 2A.

투명 디스플레이(201)는 터치 스크린으로 언급될 수 있다. 투명 디스플레이(201)는 오브젝트들을 디스플레이 하는 디스플레이부(202), 디스플레이부(202)의 전면에 설치되어 터치 기반 사용자 입력을 수신하는 전면 입력부(203)(예를 들어 전면 입력 인터페이스), 및 디스플레이부(202)의 후면에 설치되어 터치 기반 사용자 입력을 수신하는 후면 입력부(204)(예를 들어, 후면 입력 인터페이스)를 포함한다. 전면 입력 인터페이스 및 후면 입력 인터페이스는 또한 이미징 센서들(imaging sensors), 적외선 센서(infrared sensors), 근접 센서들(proximity sensors) 등에 기초한 기타 여러 가지 사용자의 입력을 수신할 수 있다.The transparent display 201 may be referred to as a touch screen. The transparent display 201 includes a display unit 202 that displays objects, a front input unit 203 installed on the front of the display unit 202 to receive a touch-based user input (for example, a front input interface), and a display unit. It includes a rear input unit 204 (for example, a rear input interface) installed on the rear side of 202 and receiving a touch-based user input. The front input interface and rear input interface may also receive input from many other users based on imaging sensors, infrared sensors, proximity sensors, and the like.

디스플레이부(202)는 투명 디스플레이를 포함하는 디바이스(200)에서 처리되는 오브젝트를 포함한 정보를 출력한다. 정보는 오브젝트 이외의 정보를 포함할 수 있다. 오브젝트 이외의 정보는 디스플레이 되기는 하나 사용자 입력에 의해 선택될 수 없도록 설정될 수 있다. The display unit 202 outputs information including an object processed by the device 200 including a transparent display. The information may include information other than objects. Although information other than the object is displayed, it may be set so that it cannot be selected by user input.

디스플레이부(202)는 투명 소자로 구성되고, 투명 소자에 대한 광 투과율을 조절하여 투명도를 조절하거나 각 픽셀의 RGB(Red, Green, Blue)값을 조절하여 투명도를 조절할 수 있다. 또한 디스플레이부(202)는 유기 발광 다이오드(Organic Light-emitting diode)와 액정 디스플레이(Liquid Crystal Display)를 결합된 구조를 가질 수 있다. 유기 발광 다이오드는 전면 입력부(203)에 인접하게 위치시키고, 액정 디스플레이는 후면 입력부(204)에 인겁하게 위치시킬 수 있다. 디스플레이부(202)와 상술한 결합된 구조를 갖는 경우에, 평상시에는 투명한 유리와 같은 상태를 유지하다가 전원 공급시 액정 디스플레이가 빛을 차단하여 디스플레이부(202)는 불투명한 상태로 설정될 수 있다. The display unit 202 is composed of a transparent device, and the transparency may be adjusted by adjusting the light transmittance of the transparent device or by adjusting the RGB (Red, Green, Blue) value of each pixel. In addition, the display unit 202 may have a structure in which an organic light-emitting diode and a liquid crystal display are combined. The organic light emitting diode may be positioned adjacent to the front input unit 203, and the liquid crystal display may be cooperatively positioned on the rear input unit 204. In the case of having the above-described combined structure with the display unit 202, the display unit 202 may be set to an opaque state because the liquid crystal display blocks light when power is supplied while maintaining a transparent glass-like state. .

디스플레이부(202)는 전면 입력부(203) 또는/ 및 후면 입력부(204)를 통한 사용자의 제스처 또는 터치 패턴 또는 사용자 입력부(205)를 통해 입력된 사용자 입력 또는 센싱부(206)를 통해 입력된 사용자 입력, 카메라(207)를 통해 입력된 사용자 입력, 오디오 입력부(208)를 통해 입력된 사용자 입력에 각각 응답하는 화면을 디스플레이 한다. 디스플레이부(202)에 디스플레이 되는 화면은 UI(User Interface) 화면 또는 GUI(Graphical User Interface) 화면을 포함한다.The display unit 202 is a user's gesture or touch pattern through the front input unit 203 or/and the rear input unit 204, or a user input input through the user input unit 205 or a user input through the sensing unit 206 A screen that responds to an input, a user input input through the camera 207, and a user input input through the audio input unit 208 is displayed. The screen displayed on the display unit 202 includes a user interface (UI) screen or a graphical user interface (GUI) screen.

디스플레이부(202)는 액정 디스플레이(Liquid Crystal Display), 박막 트랜지스터 액정 디스플레이(Thin Film Transistor-Liquid Crystal Display), 유기 발광 다이오드(Organic Light-emitting diode), 플렉시블 디스플레이(Flexible display), 3차원 디스플레이(3D display), AM OLED(Active-Matrix Organic Light-Emitting Diode), 입체 디스플레이(volumetric display), 홀로그래픽 디스플레이(Holographic Display)중 적어도 하나로 구현될 수 있으나 이로 제한되지 않는다. 투명 디스플레이(201)는 디바이스(200)의 구현 형태에 따라 2개 이상이 될 수 있다. The display unit 202 includes a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display, and a three-dimensional display. 3D display), an Active-Matrix Organic Light-Emitting Diode (AM OLED), a volumetric display, and a holographic display may be implemented, but are not limited thereto. There may be two or more transparent displays 201 depending on the implementation type of the device 200.

전면 입력부(203)와 후면 입력부(204)는 사용자의 입력에 기초한 터치를 수신하기 위한 터치 센서를 포함한다. 또는, 사용자의 입력을 수신하기 위한 2개 이상의 터치 스크린 또는 다른 타입의 센서들이 있을 수 있다. 센서들은 사용자의 입력을 각 입력 인터페이스로 분리하거나 사용자의 입력을 멀티플 입력 인터페이스(multiple input interface)로 동시에 결합하여 다른 기능을 수행하기 위해 사용되는 무제한 입력 인터페이스(unlimited number of input interfaces)를 제공하기 위해 사용될 수 있다. The front input unit 203 and the rear input unit 204 include a touch sensor for receiving a touch based on a user's input. Alternatively, there may be two or more touch screens or other types of sensors for receiving user input. Sensors are designed to provide an unlimited number of input interfaces that are used to perform different functions by separating the user's input into each input interface or by simultaneously combining the user's input into multiple input interfaces. Can be used.

바람직한 실시 예에 따라, 전면 입력부(203)와 후면 입력부(204)의 터치를 감지하는 센서는 전면 입력부(203)와 후면 입력부(204)에서의 사용자의 제스처 또는 패턴을 감지하는 센서를 포함한다. 터치를 감지하는 센서는 전면 입력부(203)와 후면 입력부(204)에서 상술한 사용자의 제스처로서 인식되는 드래그, 플릭, 탭, 터치 앤 홀드, 더블 탭, 패닝, 스윕(sweep) 중 적어도 하나를 센싱한 센싱 신호를 발생시킬 수 있다. 전면 입력부(203)와 후면 입력부(204)의 터치를 감지하는 센서의 일례로 촉각 센서를 이용할 수 있다. 촉각 센서는 접촉면의 거칠기, 접촉 물체의 단단함, 접촉 지점의 온도 등의 다양한 정보를 감지할 수 있다. According to a preferred embodiment, a sensor for detecting a touch of the front input unit 203 and the rear input unit 204 includes a sensor for detecting a user's gesture or pattern in the front input unit 203 and the rear input unit 204. The sensor for sensing touch senses at least one of drag, flick, tap, touch and hold, double tap, pan, and sweep recognized as the user's gesture described above by the front input unit 203 and the rear input unit 204 One sensing signal can be generated. A tactile sensor may be used as an example of a sensor that senses a touch of the front input unit 203 and the rear input unit 204. The tactile sensor can detect various information such as roughness of a contact surface, hardness of a contact object, and temperature of a contact point.

전면 입력부(203)와 후면 입력부(204)는 감압(저항막)식 또는 정전(또는 정전용량)식으로 구성될 수 있다. 전면 입력부(203)와 후면 입력부(204)에서의 사용자의 입력 인식은 좌표 정보를 이용할 수 있다. 터치가 발생된 위치의 x축 좌표와 y축 좌표를 사용자의 입력으로서 인식할 수 있다. The front input unit 203 and the rear input unit 204 may be configured as a pressure-sensitive (resistive film) type or a capacitive (or capacitance) type. Coordinate information can be used to recognize a user's input in the front input unit 203 and the rear input unit 204. The x-axis coordinates and the y-axis coordinates of the location where the touch is generated can be recognized as a user input.

사용자의 입력은 사용자 제스처에 기초한 사용자의 요청(request) 또는 사용자의 선택(selection)에 따라 발생될 수 있다. 사용자의 제스처는 다양한 방법, 예를 들어 터치 횟수, 터치 패턴, 터치 면적, 및 터치 강도의 다양한 조합에 따라 결정될 수 있다. 사용자의 입력은 사용자의 손가락 또는 스타일러스 펜과 같은 터치 도구에 의해 입력될 수 있다. 사용자의 손가락 또는 스타일러스 펜은 외부 입력장치로 언급될 수 있다. The user's input may be generated according to a user's request or a user's selection based on a user gesture. The user's gesture may be determined according to various combinations of various methods, for example, the number of touches, a touch pattern, a touch area, and a touch intensity. The user's input may be input by a user's finger or a touch tool such as a stylus pen. The user's finger or stylus pen may be referred to as an external input device.

전면 입력부(203)와 후면 입력부(204)의 터치(touch)는 터치 패널에 포인터(pointer)가 터치된 경우이다. 터치 입력은 멀티 터치 또는 터치 포인트들(touch points)을 포함할 수 있다. 전면 입력부(203)와 후면 입력부(204)에 대한 근접 터치(proximity-touch)는 포인터가 각 전면 입력부(203)와 후면 입력부(204)에 실제로 터치되지 않고, 전면 입력부(203)와 후면 입력부(204)의 소정 거리내에 있는 것으로 판단되는 경우이다. The touch of the front input unit 203 and the rear input unit 204 is a case where a pointer is touched on the touch panel. The touch input may include multi-touch or touch points. In the proximity-touch of the front input unit 203 and the rear input unit 204, the pointer does not actually touch the front input unit 203 and the rear input unit 204, and the front input unit 203 and the rear input unit ( 204).

포인터는 전면 입력부(203)와 후면 입력부(204)의 특정 부분을 터치하거나 근접 터치하기 위한 도구로서, 상술한 사용자의 손가락 또는 스타일러스 펜이 이용될 수 있다. The pointer is a tool for touching or near-touching specific portions of the front input unit 203 and the rear input unit 204, and the above-described user's finger or a stylus pen may be used.

투명 디스플레이부(201)는 실시 예에 따라 투명 LCD(Liquid Crystal Display) 형, 투명 TFEL(Thin-Film Electroluminescent Panel) 형, 투명 OLED 형, 투사형 등과 같은 다양한 형태로 구현될 수 있다. 이하 투명 디스플레이부(201)의 구조에 대한 다양한 실시 예를 설명한다.The transparent display unit 201 may be implemented in various forms such as a transparent liquid crystal display (LCD) type, a transparent thin-film electroluminescent panel (TFEL) type, a transparent OLED type, a projection type, and the like, according to an embodiment. Hereinafter, various embodiments of the structure of the transparent display unit 201 will be described.

투명 LCD 형이란 현재 사용되고 있는 LCD 장치에서 백라이트 유닛을 제거하고, 한 쌍의 편광판, 광학 필름, 투명 박막 트랜지스터, 투명 전극 등을 사용하여 구현한 투명 디스플레이이다. The transparent LCD type is a transparent display implemented by removing a backlight unit from an LCD device currently being used and using a pair of polarizing plates, optical films, transparent thin film transistors, and transparent electrodes.

투명 TFEL 형이란 투명 전극, 무기 형광체, 절연막으로 이루어진 교류형 무기박막 EL 디스플레이(AC-TFEL)를 사용하는 장치를 의미한다. AC-TFEL은 무기 형광체 내부에 가속이 된 전자가 지나가면서 형광체를 여기시켜 빛을 내게 하는 디스플레이이다. 투명 디스플레이부(201)가 투명 TFEL 형태로 구현된 경우, 프로세서(215)는 적절한 위치로 전자가 투사되도록 조정하여, 정보 표시 위치를 결정할 수 있다. 무기 형광체, 절연막이 투명한 특성을 가지므로, 매우 투명한 디스플레이를 구현할 수 있다. The transparent TFEL type means a device using an AC type inorganic thin film EL display (AC-TFEL) composed of a transparent electrode, an inorganic phosphor, and an insulating film. AC-TFEL is a display that excites the phosphor to emit light as the accelerated electrons pass inside the inorganic phosphor. When the transparent display unit 201 is implemented in the form of a transparent TFEL, the processor 215 may determine an information display position by adjusting the electrons to be projected to an appropriate position. Since the inorganic phosphor and the insulating film have transparent properties, a very transparent display can be implemented.

투명 OLED형이란 자체 발광이 가능한 OLED를 이용하는 투명 디스플레이 장치를 의미한다. 유기 발광층이 투명하기 때문에, 양쪽 전극을 투명 전극으로 사용하면, 투명 디스플레이 장치로 구현 가능하다. OLED는 유기 발광층 양쪽에서 전자와 정공을 주입하여 이들이 유기 발광층 내에서 결합되면서 빛을 내게 된다. 투명 OLED 장치는 이러한 원리를 사용하여 원하는 위치에 전자 및 정공을 주입하여, 정보를 표시한다. The transparent OLED type means a transparent display device using an OLED capable of self-emission. Since the organic emission layer is transparent, if both electrodes are used as transparent electrodes, it can be implemented as a transparent display device. The OLED emits light by injecting electrons and holes from both sides of the organic emission layer and as they are combined in the organic emission layer. Transparent OLED devices use this principle to inject electrons and holes at a desired location to display information.

도 2b는 투명 OLED 형으로 구현된 투명 디스플레이부의 세부 구성 예를 나타내는 도면이다. 설명의 편의를 위하여 투명 OLED(Organic Light-Emitting Diodes) 형으로 구현된 투명 디스플레이에 대해서는 참조부호 140-1을 부여한다.2B is a diagram showing a detailed configuration example of a transparent display unit implemented in a transparent OLED type. For convenience of explanation, a reference numeral 140-1 is assigned to a transparent display implemented in a transparent OLED (Organic Light-Emitting Diodes) type.

도 2b에 따르면, 투명 디스플레이(140-1)는 투명 기판(141-1), 투명 트랜지스터층(142-1), 제1 투명 전극(143-1), 투명 유기 발광 층(Transparent Organic Light-Emitting layer)(144-1), 제2 투명 전극(145-1), 연결 전극(146-1)을 포함한다. 2B, the transparent display 140-1 includes a transparent substrate 141-1, a transparent transistor layer 142-1, a first transparent electrode 143-1, and a transparent organic light-emitting layer. layer) 144-1, a second transparent electrode 145-1, and a connection electrode 146-1.

투명기판(141-1)은 투명한 성질을 가지는 플라스틱과 같은 폴리머 재료 또는 유리를 사용할 수 있다. 투명 기판(141-1)의 재질은 투명 디스플레이 장치(100)가 사용될 환경에 따라 결정될 수 있다. 가령, 폴리머 재료는 가볍고 유연하다는 장점이 있어 휴대형 디스플레이 장치에 사용될 수 있으며, 유리는 상점의 쇼케이스 윈도우(showcase window)나 일반 윈도우 등에 사용할 수 있다.The transparent substrate 141-1 may be made of glass or a polymer material such as plastic having a transparent property. The material of the transparent substrate 141-1 may be determined according to an environment in which the transparent display device 100 is to be used. For example, polymer materials can be used in portable display devices because they are light and flexible, and glass can be used in store showcase windows or general windows.

투명 트랜지스터층(142-1)이란 기존 박막 트랜지스터의 불투명한 실리콘을 투명한 아연산화물, 산화 티타늄 등과 같은 투명 물질로 대체하여 제작한 트랜지스터를 포함하는 레이어를 의미한다. 투명 트랜지스터층(142-1) 내에는 소스, 게이트, 드레인 및 각종 유전막(147-1, 148-1)이 마련되며, 드레인과 제1 투명 전극(143-1)을 전기적으로 연결하는 연결 전극(146-1)도 마련될 수 있다. 도 2b에서는 투명 트랜지스터 층(142-1) 내에 소스, 게이트, 드레인으로 이루어진 하나의 투명 트랜지스터만이 도시되었으나, 디스플레이 표면의 전체 영역에 고르게 분포된 복수 개의 투명 트랜지스터를 포함한다. 프로세서(215)는 투명 트랜지스터층(142-1) 내의 각 트랜지스트들의 게이트로 제어 신호를 인가하여, 해당 투명 트랜지스터를 구동시켜 정보를 표시할 수 있다.The transparent transistor layer 142-1 refers to a layer including a transistor manufactured by replacing opaque silicon of an existing thin film transistor with a transparent material such as transparent zinc oxide or titanium oxide. In the transparent transistor layer 142-1, a source, a gate, a drain, and various dielectric layers 147-1 and 148-1 are provided, and a connection electrode electrically connecting the drain and the first transparent electrode 143-1 ( 146-1) may also be provided. In FIG. 2B, only one transparent transistor including a source, a gate, and a drain is shown in the transparent transistor layer 142-1, but includes a plurality of transparent transistors evenly distributed over the entire area of the display surface. The processor 215 may display information by applying a control signal to the gates of each of the transistors in the transparent transistor layer 142-1 to drive the corresponding transparent transistor.

제1 투명 전극 (143-1) 및 제2 투명 전극(145-1)은 투명 유기 발광층(144-1)을 기준으로 서로 반대 방향에 배치된다. 제1 투명 전극(143-1), 투명 유기 발광층(144-1) 및 제2 투명 전극(145-1)은 투명 유기 발광 다이오드(Organic Light-Emitting Diodes)를 형성한다.The first transparent electrode 143-1 and the second transparent electrode 145-1 are disposed in opposite directions with respect to the transparent organic emission layer 144-1. The first transparent electrode 143-1, the transparent organic emission layer 144-1, and the second transparent electrode 145-1 form transparent organic light-emitting diodes (Organic Light-Emitting Diodes).

투명 유기 발광 다이오드는 디스플레이 구동 방법에 따라 수동형(Passive Matrix OLED)과 능동형 (Active Matrix OLED)으로 분류된다. PMOLED는 제1 및 제2 투명 전극(143-1, 145-1)이 서로 교차하는 부분이 화소를 형성하는 구조이다. 반면, AMOLED는 각 화소를 구동하는 박막 트랜지스터(TFT)가 있는 구조이다. 도 2b에서는 능동형을 나타내고 있다. Transparent organic light emitting diodes are classified into passive (Passive Matrix OLED) and active (Active Matrix OLED) according to the display driving method. The PMOLED has a structure in which a portion where the first and second transparent electrodes 143-1 and 145-1 cross each other forms a pixel. On the other hand, AMOLED has a structure with a thin film transistor (TFT) driving each pixel. In Fig. 2b, the active type is shown.

제1 투명 전극 (143-1) 및 제2 투명 전극(145-1)은 각각 복수 개의 라인 전극을 포함하며, 라인 전극의 정렬 방향은 서로 수직하게 형성된다. 가령, 제1 투명 전극(143-1)의 라인 전극들이 가로 방향으로 배열되었다면, 제2 투명 전극(145-1)의 라인 전극들은 세로 방향으로 배열된다. 이에 따라, 제1 투명 전극(143-1) 및 제2 투명 전극(145-1) 간에는 복수의 교차 영역이 형성된다. 각 교차 영역에는 도 2b에 도시된 바와 같이 투명 트랜지스터가 연결된다.The first transparent electrode 143-1 and the second transparent electrode 145-1 each include a plurality of line electrodes, and alignment directions of the line electrodes are formed perpendicular to each other. For example, if the line electrodes of the first transparent electrode 143-1 are arranged in the horizontal direction, the line electrodes of the second transparent electrode 145-1 are arranged in the vertical direction. Accordingly, a plurality of crossing regions are formed between the first transparent electrode 143-1 and the second transparent electrode 145-1. A transparent transistor is connected to each crossing region as shown in FIG. 2B.

프로세서(215)는 투명 트랜지스터를 이용하여 각 교차 영역 별로 전위차가 형성되도록 한다. 전위차가 형성된 교차 영역 내에서 각 전극으로부터 전자와 정공이 투명 유기 발광층(144-1)으로 유입되어 결합하면서 발광이 이루어진다. 전위차가 형성되지 않은 교차 영역은 발광이 이루어지지 않으며, 이에 따라 후면 배경이 그대로 투명하게 비치게 된다.The processor 215 uses a transparent transistor to form a potential difference for each cross region. Electrons and holes from each electrode flow into the transparent organic light-emitting layer 144-1 in the cross region where the potential difference is formed, and are combined to emit light. The crossing region in which the potential difference is not formed does not emit light, so that the rear background is transparently reflected.

제1 및 제2 투명 전극(143-1, 145-1)으로는 ITO(indium tin oxide)가 사용될 수 있다. 또는, 그래핀과 같은 신소재가 사용될 수도 있다. 그래핀이란 탄소원자가 서로 연결되어 벌집 모양의 평면 구조를 이루며 투명한 성질을 가지는 물질을 의미한다. 그 밖에, 투명 유기 발광 층(144-1)도 다양한 재료로 구현될 수 있다. Indium tin oxide (ITO) may be used as the first and second transparent electrodes 143-1 and 145-1. Alternatively, a new material such as graphene may be used. Graphene refers to a material having a transparent property with carbon atoms connected to each other to form a honeycomb-shaped planar structure. In addition, the transparent organic light-emitting layer 144-1 may also be implemented with various materials.

상술한 바와 같이 투명 디스플레이(201)는 투명 LCD(Liquid Crystal Display) 형, 투명 TFEL(Thin-Film Electroluminescent Panel) 형, 투명 OLED 형 이외에 투사형으로도 구현될 수 있다. 투사형이란 HUD(Head Up Display)와 같이 투명한 스크린에 영상을 투사하여 디스플레이하는 방식을 의미한다. As described above, the transparent display 201 may be implemented in a transparent liquid crystal display (LCD) type, a transparent thin-film electroluminescent panel (TFEL) type, a transparent OLED type, and a projection type. Projection type refers to a method of projecting and displaying an image on a transparent screen, such as a HUD (Head Up Display).

사용자 입력부(205)는 투명 디스플레이를 포함하는 디바이스(200)의 동작을 제어하기 위한 입력 데이터(또는 제어 데이터) 및 사용자의 입력을 발생시킨다. 사용자 입력부(205)는 키 패드(key pad), 돔 스위치(dome switch), 터치 패드(touch pad), 조그 휠(Jog wheel), 조그 스위치(Jog swich), 하드웨어(H/W) 버튼 등을 포함할 수 있다. The user input unit 205 generates input data (or control data) for controlling the operation of the device 200 including a transparent display and a user input. The user input unit 205 includes a key pad, a dome switch, a touch pad, a jog wheel, a jog switch, a hardware (H/W) button, and the like. Can include.

센싱부(206)는 디바이스(200)의 위치, 사용자의 접촉 유무, 디바이스(200)의 방위, 디바이스(200)의 가속 또는 감속 등과 같이 디바이스(200)의 현재 상태를 감지하여 디바이스(200)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. The sensing unit 206 detects the current state of the device 200, such as the location of the device 200, the presence of a user's contact, the orientation of the device 200, and acceleration or deceleration of the device 200. It generates a sensing signal to control the operation.

센싱부(206)는 전면 입력부(203) 및 후면 입력부(204)의 터치를 감지하기 위한 센서 이외의 센서를 포함한다. 예를 들어 센싱부(206)는 근접 센서를 포함할 수 있다. 근접 센서는 소정의 검출면(예를 들어, 전면 입력 인터페이스, 후면 입력 인터페이스 등)에 접근하는 외부 물체, 또는 검출면(detection surface) 가까이에 존재하는 외부 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 물리적인 접촉없이 검출하는 센서를 말한다. 외부 물체는 디바이스(200)의 외부에 위치한 물체이다. 근접 센서의 예로 투과형 광전 센서, 직접 반사형 광전 센서, 미러 발사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다.The sensing unit 206 includes sensors other than sensors for sensing a touch of the front input unit 203 and the rear input unit 204. For example, the sensing unit 206 may include a proximity sensor. The proximity sensor detects the presence or absence of an external object approaching a predetermined detection surface (for example, a front input interface, a rear input interface, etc.) or an external object near the detection surface using the force of an electromagnetic field or infrared rays. It refers to a sensor that detects without physical contact. The external object is an object located outside the device 200. Examples of the proximity sensor include a transmission type photoelectric sensor, a diffuse reflection type photoelectric sensor, a mirror emission type photoelectric sensor, a high frequency oscillation type proximity sensor, a capacitive type proximity sensor, a magnetic type proximity sensor, and an infrared proximity sensor.

카메라(207)는 화상 통화 모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지 영상 또는 동영상 등의 화상 프레임을 처리한다. 그리고 처리된 화상 프레임은 디스플레이부(202)에 표시될 수 있다. 카메라(207)에서 처리된 화상 프레임은 저장부(211)에 저장되거나 통신부(212) 또는 포트(213)를 통해 외부 디바이스로 전송될 수 있다. The camera 207 processes image frames such as still images or moving pictures obtained by an image sensor in a video call mode or a photographing mode. In addition, the processed image frame may be displayed on the display unit 202. The image frame processed by the camera 207 may be stored in the storage unit 211 or transmitted to an external device through the communication unit 212 or the port 213.

카메라(207)는 또한 후면 입력부(204)를 통한 드래그에 대응되는 사용자의 제스처에 따라 좌 또는 우방향으로 렌즈의 촬영 각도를 이동할 수 있도록 구성될 수 있다. 카메라(207)는 디바이스(200)의 구성에 의존하여 2개 이상이 구비될 수 있다. 또한, 카메라(207)는 사용자의 공간 제스처를 인식하는 입력 장치로 사용될 수 있다. The camera 207 may also be configured to move the photographing angle of the lens in the left or right direction according to the user's gesture corresponding to the drag through the rear input unit 204. Two or more cameras 207 may be provided depending on the configuration of the device 200. In addition, the camera 207 may be used as an input device for recognizing a user's spatial gesture.

오디오 입력부(208)는 통화모드, 또는 녹화 모드, 또는 음성 인식 모드 등에서 외부의 음향 신호를 입력받는다. 오디오 입력부(208)는 예를 들어 마이크로폰으로 구성될 수 있다. 오디오 입력부(208)는 외부의 음향 신호를 입력받는 과정에서 발생하는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘을 포함하도록 구성될 수 있다. The audio input unit 208 receives an external sound signal in a call mode, a recording mode, or a voice recognition mode. The audio input unit 208 may be configured as a microphone, for example. The audio input unit 208 may be configured to include various noise removal algorithms for removing noise generated in a process of receiving an external sound signal.

오디오 입력부(208)를 이용하여 입력되는 상기 음향 신호는 바람직한 실시 예에 따라 투명 디스플레이(201)에 디스플레이 되고 있는 오브젝트를 제어하기 위해 사용되는 사용자의 음성 입력이 될 수 있다. 즉, 오디오 입력부(208)를 이용하여 입력되는 음향 신호는 사용자의 자연어 또는 사용자의 음성 언어(spoken language)에 기초한 사용자 음성 인식기반의 사용자의 입력 정보일 수 있다. 오디오 입력부(208)를 통해 입력된 외부의 음향 신호는 저장부(211)에 저장되거나 통신부(212) 또는 포트(213)를 통해 외부 디바이스로 전송될 수 있다.The sound signal input using the audio input unit 208 may be a user's voice input used to control an object displayed on the transparent display 201 according to a preferred embodiment. That is, the sound signal input using the audio input unit 208 may be user input information based on a user's voice recognition based on a user's natural language or a user's spoken language. An external sound signal input through the audio input unit 208 may be stored in the storage unit 211 or transmitted to an external device through the communication unit 212 or the port 213.

오디오 신호 처리부(209)는 오디오 입력부(208)와 프로세서(215)간 및 오디오 출력부(210)와 프로세서(215)간의 인터페이스를 제공한다. 예를 들면, 오디오 신호 처리부(209)는 오디오 입력부(208)로부터 수신되는 음향 신호를 프로세서(215)에서 처리할 수 있는 오디오 데이터로 변환하여 프로세서(215)로 전송한다. 또한 오디오 신호 처리부(209)는 프로세서(215)로부터 전송되는 오디오 데이터를 전기적인 음향 신호로 변환하여 오디오 출력부(210)로 전송한다. The audio signal processing unit 209 provides an interface between the audio input unit 208 and the processor 215 and between the audio output unit 210 and the processor 215. For example, the audio signal processing unit 209 converts an audio signal received from the audio input unit 208 into audio data that can be processed by the processor 215 and transmits it to the processor 215. In addition, the audio signal processing unit 209 converts the audio data transmitted from the processor 215 into an electrical sound signal and transmits the converted audio data to the audio output unit 210.

오디오 출력부(210)는 통화 모드, 또는 오디오 재생 모드 등에서 오디오 신호 처리부(209)로부터 수신된 음향 신호 또는 오디오 신호를 출력한다. 오디오 출력부(210)는 스피커로 구성될 수 있다. 오디오 입력부(208)와 오디오 출력부(210)는 헤드셋으로 구성될 수 있다. The audio output unit 210 outputs an audio signal or an audio signal received from the audio signal processing unit 209 in a call mode or an audio reproduction mode. The audio output unit 210 may be configured as a speaker. The audio input unit 208 and the audio output unit 210 may be configured as a headset.

디바이스(200)와 사용자간의 사용자 인터페이스 기능에 따라 투명 디스플레이(201), 사용자 입력부(205), 센싱부(206), 카메라(207), 및 오디오 입력부(208)는 입력 장치 또는 입출력 장치로 언급될 수 있다. 예를 들어, 디바이스(200)와 사용자간의 사용자 인터페이스 기능이 터치스크린 기능, 음성 인식 기능, 및 공간 제스처 인식 기능을 포함하는 경우에, 사용자 입력부(205), 센싱부(206), 카메라(207), 및 오디오 입력부(208)는 입력 장치로 언급되고, 투명 디스플레이(201)은 입출력 장치로 언급될 수 있다. Depending on the user interface function between the device 200 and the user, the transparent display 201, the user input unit 205, the sensing unit 206, the camera 207, and the audio input unit 208 will be referred to as an input device or an input/output device. I can. For example, when the user interface function between the device 200 and the user includes a touch screen function, a voice recognition function, and a spatial gesture recognition function, the user input unit 205, the sensing unit 206, and the camera 207 , And the audio input unit 208 may be referred to as an input device, and the transparent display 201 may be referred to as an input/output device.

저장부(211)는 프로세서(215)에서 실행 가능하도록 구성된 적어도 하나의 프로그램과 자원(resource)을 저장한다. 적어도 하나의 프로그램은 바람직한 실시 예에 따른 오브젝트 제어 방법 또는 가이드(guide) 표시 방법을 실행하는 프로그램, 디바이스(200)의 운영 체계(Operating System) 프로그램, 디바이스(200)에 설정된 어플리케이션, 및 디바이스(200)의 각종 기능(예를 들어 통신 기능과 디스플레이 기능)을 수행하는데 필요한 프로그램을 포함한다. The storage unit 211 stores at least one program and a resource configured to be executable by the processor 215. At least one program is a program that executes an object control method or a guide display method according to a preferred embodiment, an operating system program of the device 200, an application set in the device 200, and a device 200. Includes a program necessary to perform various functions of (for example, communication functions and display functions).

자원은 상술한 프로그램들을 수행하는데 필요한 정보 및 바람직한 실시 예들에서 언급되는 오브젝트 제어를 위한 사용자 인터페이스(User Interface) 화면 정보 및 사용자의 입력에 대응되는 오브젝트 제어 기능 정보 등을 포함한다. 오브젝트 제어를 위한 사용자 인터페이스 화면 정보는 예를 들어 각 오브젝트의 입력 인터페이스에 대한 편집 창을 포함할 수 있다. 또한, 자원은 각 오브젝트용으로 설정된 소정의 입력 인터페이스에 관한 정보를 포함한다. The resource includes information necessary to execute the above-described programs, user interface screen information for object control mentioned in the preferred embodiments, object control function information corresponding to a user's input, and the like. The user interface screen information for object control may include, for example, an edit window for the input interface of each object. In addition, the resource includes information on a predetermined input interface set for each object.

저장부(211)에 저장된 오브젝트 제어 방법 또는 가이드 디스플레이 방법을 실행하는 프로그램은 오브젝트를 포함하는 어플리케이션 프로그램에 포함되도록 구성될 수 있다. 가이드 디스플레이 방법을 실행하는 프로그램은 상기 어플리케이션 프로그램과 독립적인 프로그램으로 구성될 수 있다. 즉, 가이드 디스플레이 방법을 실행하는 프로그램은 실행되는 어플리케이션에 관계없이 디바이스(200)의 동작 모드가 가이드 디스플레이 방법을 실행하도록 설정될 때 실행되거나 디바이스(200)의 전원이 온되면 디폴트로 실행될 수 있다. 예를 들어 상기 가이드 디스플레이 방법을 실행하기 위한 프로그램은 디바이스(200)의 운영 시스템의 일부가 될 수 있다. A program that executes an object control method or a guide display method stored in the storage unit 211 may be configured to be included in an application program including an object. A program executing the guide display method may be configured as a program independent from the application program. That is, the program that executes the guide display method may be executed when the operation mode of the device 200 is set to execute the guide display method, or may be executed by default when the device 200 is powered on, regardless of the application being executed. For example, a program for executing the guide display method may be a part of the operating system of the device 200.

이하 설명되는 다양한 바람직한 실시 예들에 따라, 프로그램은 임의의 어플리케이션 실행 후 수행될 수 있고, 임의의 어플리케이션 실행이 종료되면 수행되지 않을 수 있다. 예를 들어, 폰 북(phone book) 어플리케이션에 포함된 오브젝트들에 대한 제어 방법을 실행하는 프로그램 또는 가이드 디스플레이 방법을 실행하는 프로그램이 폰 북 어플리케이션의 일부로서 실행되고, 폰 북 어플리케이션의 실행이 종료되면, 폰북 어플리케이션에 포함된 오브젝트들에 대한 제어 방법을 실행하는 프로그램 및 가이드 디스플레이 방법을 실행하는 프로그램의 동작이 종료될 수 있다. 그러나 폰북 어플리케이션 실행 여부와 관계없이 가이드 디스플레이 방법은 실행될 수 있다. According to various exemplary embodiments described below, the program may be executed after executing any application, and may not be executed when the execution of any application is terminated. For example, when a program that executes a control method for objects included in a phone book application or a program that executes a guide display method is executed as part of the phone book application, and the execution of the phone book application ends , The operation of the program executing the control method for objects included in the phonebook application and the program executing the guide display method may be terminated. However, regardless of whether the phonebook application is executed, the guide display method may be executed.

저장부(211)는 디바이스(200)의 운영 체계를 비롯한 디바이스(200)의 각종 기능을 수행하는데 필요한 적어도 하나의 프로그램을 저장하는 저장부와 다양한 바람직한 실시 예에 따른 오브젝트 제어 방법 또는 가이드 디스플레이 방법을 실행하는 하나 이상의 프로그램과 자원 및 상기 어플리케이션들을 저장하는 저장부를 독립적으로 구성할 수 있다. The storage unit 211 includes a storage unit for storing at least one program required to perform various functions of the device 200 including the operating system of the device 200, and an object control method or guide display method according to various preferred embodiments. One or more programs and resources to be executed, and a storage unit for storing the applications may be independently configured.

저장부(211)는 고속 랜덤 액세스 메모리, 자기 디스크 저장 장치, 플래시 메모리와 같은 불휘발성 메모리 또는 다른 불휘발성 반도체 메모리를 포함할 수 있다. 따라서 저장부(211)는 메모리로 언급될 수 있다. The storage unit 211 may include a high-speed random access memory, a magnetic disk storage device, a nonvolatile memory such as a flash memory, or other nonvolatile semiconductor memory. Therefore, the storage unit 211 may be referred to as a memory.

통신부(212)는 무선 인터넷, 무선 인트라넷, 무선 전화 네트워크, 무선 랜(LAN), 와이파이(Wi-Fi) 네트워크, 와이파이 다이렉트(WFD, Wi-Fi Direct) 네트워크, 3G(Generation) 네트워크, 4G(4 Generation) LTE 네트워크, 블루투스(Bluetooth) 네트워크, 적외선 통신(IrDA, Infrared Data Association) 네트워크, RFID(Radio Frequency Identification) 네트워크, UWB(Ultra WideBand) 네트워크, 지그비(Zigbee) 네트워크, NFC(Near Field Communication) 네트워크와 같은 무선 네트워크를 통해 외부 전자 디바이스(미 도시됨) 및 서버(미 도시됨)와 데이터를 송수신할 수 있도록 구성된다. The communication unit 212 includes a wireless Internet, a wireless intranet, a wireless telephone network, a wireless LAN (LAN), a Wi-Fi network, a Wi-Fi Direct (WFD) network, a 3G (Generation) network, and a 4G (4) network. Generation) LTE network, Bluetooth network, infrared communication (IrDA, Infrared Data Association) network, RFID (Radio Frequency Identification) network, UWB (Ultra WideBand) network, Zigbee network, NFC (Near Field Communication) network It is configured to transmit and receive data with an external electronic device (not shown) and a server (not shown) through a wireless network such as.

통신부(212)는 방송 수신 모듈, 이동 통신 모듈, 무선 인터넷 모듈, 유선 인터넷 모듈, 근거리 통신 모듈, 및 위치 정보 모듈중 적어도 하나를 포함할 수 있으나 이로 제한되지 않는다. The communication unit 212 may include at least one of a broadcast reception module, a mobile communication module, a wireless Internet module, a wired Internet module, a short-range communication module, and a location information module, but is not limited thereto.

방송 수신 모듈은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 이동 통신 모듈은 이동 통신망 상에서 기지국, 외부의 전자 디바이스(미 도시됨), 서버(미 도시됨)중 적어도 하나와 무선 신호를 송수신한다. 무선 신호는 음성 호 신호, 화상 통화 호, 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. 무선 인터넷 모듈은 무선 인터넷 접속을 통해 통신하기 위한 모듈을 의미한다. 유선 인터넷 모듈은 유선 인터넷 접속을 위한 모듈을 의미한다. The broadcast receiving module receives a broadcast signal and/or broadcast-related information from an external broadcast management server through a broadcast channel. Broadcast channels may include satellite channels and terrestrial channels. The mobile communication module transmits and receives a wireless signal with at least one of a base station, an external electronic device (not shown), and a server (not shown) on a mobile communication network. The wireless signal may include a voice call signal, a video call call, or various types of data according to transmission/reception of text/multimedia messages. The wireless Internet module refers to a module for communicating through a wireless Internet connection. The wired internet module means a module for wired internet access.

근거리 통신 모듈은 근거리 통신을 위한 모듈을 말한다. 근거리 통신 기술로 블루투스, RFID, 적외선 통신, UWB, Zigbee, WFD, NFC 등이 이용될 수 있다. 위치 정보 모듈은 디바이스(200)의 위치를 확인하거나 얻기 위한 모듈이다. 일 예로 GPS(Global Position System) 모듈이 있다. GPS 모듈은 복수개의 인공위성으로부터 위치 정보를 수신한다. 위치 정보는 위도 및 경도로 표시되는 좌표 정보를 포함할 수 있다. The short-range communication module refers to a module for short-range communication. As a short-range communication technology, Bluetooth, RFID, infrared communication, UWB, Zigbee, WFD, NFC, etc. may be used. The location information module is a module for checking or obtaining the location of the device 200. An example is a Global Position System (GPS) module. The GPS module receives location information from a plurality of satellites. The location information may include coordinate information expressed in latitude and longitude.

포트(213)는 USB(Universal Serial Bus) 포트(미 도시됨)와 같은 플러그 앤 플레이(Plug and Play) 인터페이스를 이용하여 외부 디바이스(미 도시됨)와 데이터를 송수신할 수 있다. 플러그 앤 플레이 인터페이스는 디바이스(200)의 플러그에 외부 디바이스가 꼽히며 자동으로 플레이하는 모듈을 의미한다. The port 213 may transmit and receive data to and from an external device (not shown) using a plug and play interface such as a Universal Serial Bus (USB) port (not shown). The plug-and-play interface refers to a module that automatically plays when an external device is inserted into the plug of the device 200.

전원부(214)는 디바이스(200)의 다양한 구성 요소에 전력을 공급한다. 전원부(214)는 배터리 및 교류 전원과 같은 하나 이상의 전원을 포함한다. 디바이스(200)는 전원부(214)를 포함하지 않고, 외부 전원 제공부(미 도시됨)와 연결될 수 있는 연결부(connection unit)(미 도시됨)를 포함할 수 있다. The power supply 214 supplies power to various components of the device 200. The power supply unit 214 includes one or more power sources such as a battery and an AC power source. The device 200 does not include the power supply unit 214 and may include a connection unit (not shown) that can be connected to an external power supply unit (not shown).

프로세서(215)는 디바이스(200)의 전반적인 동작을 제어하는 것으로 하나 이상의 프로세서를 포함할 수 있다. 예를 들어, 프로세서(215)는 디바이스(200)의 기능에 따라 복수개의 프로세서로 분할될 수 있다. The processor 215 controls the overall operation of the device 200 and may include one or more processors. For example, the processor 215 may be divided into a plurality of processors according to the function of the device 200.

프로세서(215)는 투명 디스플레이(201), 사용자 입력부(205), 센싱부(206), 카메라(207), 오디오 입력부(208), 오디오 출력부(210), 오디오 신호 처리부(209), 저장부(211), 통신부(212), 포트(213)를 전반적으로 제어할 수 있다. 따라서 프로세서(215)는 제어기나 마이크로프로세서, 디지털 신호 처리기(Digital Signal Processor) 등으로 언급될 수 있다. 또한 프로세서(215)는 입력 장치에 해당되는 투명 디스플레이(201), 사용자 입력부(205), 센싱부(206), 카메라(207), 오디오 입력부(208)를 이용하여 입력된 사용자의 입력 정보와 투명 디스플레이(201)에 기초한 사용자 인터페이스를 제공할 수 있다. The processor 215 includes a transparent display 201, a user input unit 205, a sensing unit 206, a camera 207, an audio input unit 208, an audio output unit 210, an audio signal processing unit 209, and a storage unit. (211), the communication unit 212, and the port 213 can be controlled overall. Therefore, the processor 215 may be referred to as a controller, a microprocessor, a digital signal processor, or the like. In addition, the processor 215 is a transparent display 201 corresponding to the input device, the user input unit 205, the sensing unit 206, the camera 207, the user input information input using the audio input unit 208 and transparent A user interface based on the display 201 may be provided.

프로세서(215)는 바람직한 실시 예에 따른 오브젝트 제어 방법 또는 가이드 디스플레이 방법에 관련된 적어도 하나의 프로그램을 실행시킬 수 있다. 프로세서(215)는 상기 프로그램을 저장부(211)로부터 리드하여 실행시키거나 통신부(212)를 통해 연결된 애플리케이션 제공 서버(미 도시됨) 또는 마켓 서버(미 도시됨)와 같은 외부 장치로부터 다운받아 실행시킬 수 있다. 오브젝트 제어 방법에 관련된 프로그램은 상술한 바와 같이 어플리케이션별 프로그램에 포함될 수 있다. The processor 215 may execute at least one program related to an object control method or a guide display method according to an exemplary embodiment. The processor 215 reads the program from the storage unit 211 and executes it, or downloads and executes the program from an external device such as an application providing server (not shown) or a market server (not shown) connected through the communication unit 212 I can make it. A program related to the object control method may be included in an application-specific program as described above.

프로세서(215)는 디바이스(200)내의 각종 기능 모듈과 프로세서(215)간의 인터페이스 기능부를 포함할 수 있다. 바람직한 실시 예에 따른 오브젝트 제어 방법 또는 가이드 디스플레이 방법에 관련된 프로세서(215)의 동작은 후술할 도 3, 21, 및 23에 도시된 흐름도와 같이 수행될 수 있다. The processor 215 may include an interface function unit between the various functional modules in the device 200 and the processor 215. The operation of the processor 215 related to the method for controlling an object or a method for displaying a guide according to an exemplary embodiment may be performed as in the flowcharts illustrated in FIGS. 3, 21 and 23 to be described later.

도 3은 바람직한 실시 예에 따른 디바이스(200)에 의해 수행되는 오브젝트 제어 방법의 흐름도이다. 도 3의 오브젝트 제어 방법은 도 2의 프로세서(215)에 의해 수행될 수 있다. 3 is a flowchart of an object control method performed by the device 200 according to an exemplary embodiment. The object control method of FIG. 3 may be performed by the processor 215 of FIG. 2.

프로세서(215)는 어플리케이션 실행 또는 디바이스(200)의 동작에 따라 적어도 하나의 오브젝트를 디스플레이 한다(S301).The processor 215 displays at least one object according to an application execution or an operation of the device 200 (S301).

프로세서(215)는 디스플레이 되고 있는 오브젝트에 대해서 전면 입력부(203) 및 후면 입력부(204)중 적어도 하나의 입력부를 통한 사용자의 입력을 수신한다(S302).The processor 215 receives a user's input through at least one of the front input unit 203 and the rear input unit 204 for the displayed object (S302).

프로세서(215)는 수신된 사용자의 입력이 디스플레이 되고 있는 적어도 하나의 오브젝트에 대해 소정의 입력 인터페이스로 입력되었는지를 판단한다(S303). 바람직한 실시 예에 따라, 프로세서(215)는 사용자의 입력이 전면 입력 인터페이스, 후면 입력 인터페이스, 및 전면 입력 인터페이스와 후면 입력 인터페이스 둘을 통해 수신되는지를 판단한다. 다음, 프로세서(215)는 상기 오브젝트의 소정의 입력 인터페이스와 상기 유저 입력으로부터 상기 검출된 입력 인터페이스를 비교한다.The processor 215 determines whether the received user's input is input to at least one object being displayed through a predetermined input interface (S303). According to a preferred embodiment, the processor 215 determines whether a user's input is received through a front input interface, a rear input interface, and both a front input interface and a rear input interface. Next, the processor 215 compares a predetermined input interface of the object with the input interface detected from the user input.

상기 소정의 입력 인터페이스는 도 1에서 설명한 바와 같이 각 오브젝트에 대해 사전에 설정되거나 상위 계층(페어런트 계층)의 오브젝트의 소정의 입력 인터페이스에 따라 오브젝트가 디스플레이 될 때 설정될 수 있다. 디스플레이 되고 있는 오브젝트에 대한 소정의 입력 인터페이스는 오브젝트가 디스플레이 될 때, 매핑될 수 있다. The predetermined input interface may be set in advance for each object as described in FIG. 1 or may be set when an object is displayed according to a predetermined input interface of an object of an upper layer (parent layer). A predetermined input interface for the object being displayed may be mapped when the object is displayed.

프로세서(215)는 단계 S303에서의 판단 결과에 기초하여 오브젝트를 제어한다(S304). 바람직한 실시 예에 따라, 프로세서(215)는 상기 오브젝트의 상기 소정의 입력 인터페이스와 상기 사용자 입력으로부터 검출된 입력 인터페이스간의 비교에 기초하여 상기 검출된 입력 인터페이스에 매칭되는 소정의 입력 인터페이스에 대응하는 기능을 수행할 수 있다.The processor 215 controls the object based on the determination result in step S303 (S304). According to a preferred embodiment, the processor 215 performs a function corresponding to a predetermined input interface matching the detected input interface based on a comparison between the predetermined input interface of the object and the input interface detected from the user input. Can be done.

도 4는 도 3에서의 오브젝트 제어 과정에 대한 화면의 예이다. 도 4를 참조하면, (410)에 도시된 바와 같은 화면이 투명 디스플레이(201)에 디스플레이 되고 있을 때, 폴더 아이콘(404)에 대응되는 후면 입력부(204)의 터치 위치가 투명 디스플레이(201)의 터치를 검출하기 위해 필요한 시간 보다 더 긴 소정 시간 동안 프레스(long press)(예를 들어 터치 앤 홀드(touch and hold) 제스처)됨에 따라 (410)화면은 (420)화면으로 변경된다. 즉, 화면(410)의 폴더 아이콘(404)이 전면 입력부(203) 방향으로 확대된 폴더 아이콘(404‘)을 포함하는 화면(420)으로 변경된다. 상기 터치 위치에 대한 프레스가 해제되면, 확대된 폴더 아이콘(404’)을 갖는 화면(420)은 화면(410)으로 되돌아간다. 도 4에 도시된 화면(410, 420)은 복수의 오브젝트(402 ~ 410)가 도 3의 단계 S301에서 디스플레이 될 때, 단계 S304에서 소정의 입력 인터페이스가 후면 입력부(204)인 제 1 오브젝트(401)(윈도우)에 대한 사용자의 입력(411)에 따라 제 1 오브젝트(401)의 전면에 디스플레이 되고 있는 제 2 오브젝트(폴더 아이콘(404))의 디스플레이 상태가 변경된다. 4 is an example of a screen for an object control process in FIG. 3. Referring to FIG. 4, when a screen as shown in 410 is displayed on the transparent display 201, the touch position of the rear input unit 204 corresponding to the folder icon 404 is As a long press (for example, a touch and hold gesture) is performed for a predetermined time longer than the time required to detect a touch, the screen 410 is changed to the screen 420. That is, the folder icon 404 on the screen 410 is changed to the screen 420 including the folder icon 404' enlarged in the direction of the front input unit 203. When the press on the touch position is released, the screen 420 having the enlarged folder icon 404' returns to the screen 410. When a plurality of objects 402 to 410 are displayed in step S301 of FIG. 3, the screens 410 and 420 illustrated in FIG. 4 are the first object 401 whose input interface is the rear input unit 204 in step S304. ) (Window), the display state of the second object (folder icon 404) displayed on the front surface of the first object 401 is changed according to the user's input 411.

이 때, 제 2 오브젝트에 해당되는 폴더 아이콘(404)에 대한 소정의 입력 인터페이스가 전면 입력부(203)이면, 사용자는 전면 입력부(203)를 통한 사용자의 입력에 기초하여 확대된 폴더 아이콘(404‘)에 포함된 아이콘들의 실행을 제어할 수 있다. At this time, if the predetermined input interface for the folder icon 404 corresponding to the second object is the front input unit 203, the user may select the expanded folder icon 404' based on the user's input through the front input unit 203. You can control the execution of icons included in ).

도 5는 도 3에서의 오브젝트 제어 과정의 다른 화면의 예이다. 소정의 입력 인터페이스가 후면 입력부(204)인 윈도우(501)상에서 폴더 아이콘(404)에 대응되는 후면 입력부(204)의 터치 위치를 터치한 후, (502) 방향으로 터치 위치를 드래그 함에 따라 폴더 아이콘(404)이 (520)에 도시된 위치로 이동된 경우이다. 그러므로, 아이콘(404)을 이동시킬 때, 사용자의 손에 의해 아이콘(404), 인접한 아이콘(407) 및 전체 윈도우(501)가 가려지는 것을 방지할 수 있다. 이는 사용자의 손이 투명 디스플레이(201)의 뒤에서 제스처를 수행하기 때문이다. 또한 폴더 아이콘(404)의 이동으로 화면(520)상에 아이콘들은 자동적으로 재배열될 수 있다.5 is an example of another screen of the object control process in FIG. 3. After a predetermined input interface touches the touch position of the rear input unit 204 corresponding to the folder icon 404 on the window 501, which is the rear input unit 204, the folder icon is dragged in the direction of 502. This is the case where 404 is moved to the position shown in 520. Therefore, when moving the icon 404, it is possible to prevent the icon 404, the adjacent icon 407, and the entire window 501 from being covered by the user's hand. This is because the user's hand performs a gesture behind the transparent display 201. In addition, icons on the screen 520 may be automatically rearranged due to the movement of the folder icon 404.

도 5 역시 상술한 도 4와 같이 소정의 입력 인터페이스가 후면 입력부(204)인 제 1 오브젝트(501)의 전면에 디스플레이 되고 있는 제 2 오브젝트(404)의 디스플레이 상태가 제 1 오브젝트(501)에 대한 사용자 입력에 따라 변경되는 예이다. 5, the display state of the second object 404 displayed on the front surface of the first object 501, which is the rear input unit 204, has a predetermined input interface as shown in FIG. This is an example that changes according to user input.

도 6은 도 3에서의 오브젝트 제어 과정의 또 다른 화면의 예이다. 소정의 입력 인터페이스가 후면 입력부(204)인 윈도우(401)상에서 아이콘(402)에 대응되는 후면 입력부(204)의 터치 위치가 터치될 때, 터치 시간 또는 터치 강도(예를 들어 터치 압력)를 나타내는 진행바(progressbar)가 화면(620)의 (601)과 같이 디스플레이 된다. 터치 시간이 유지되거나 터치 강도가 높아짐에 따라 화면(620)이 화면(630)으로 변경되고, 화면(630)이 화면(640)으로 변경된다. 화면(640)에 도시된 바와 같이 진행바(601)가 모두 채워지면, 화면(650)에 도시된 바와 같이 아이콘(402)이 삭제될 수 있다. 6 is an example of another screen of the object control process in FIG. 3. When a predetermined input interface is touched on the window 401, which is the rear input unit 204, the touch position of the rear input unit 204 corresponding to the icon 402 is touched, indicating the touch time or the touch strength (for example, touch pressure). A progress bar is displayed as 601 of the screen 620. As the touch time is maintained or the touch intensity increases, the screen 620 is changed to the screen 630 and the screen 630 is changed to the screen 640. When the progress bar 601 is all filled as shown in the screen 640, the icon 402 may be deleted as shown in the screen 650.

상술한 도 4와 같이, 도 6의 화면들(610 ~ 650)은 제 1 오브젝트(401)의 전면에 디스플레이 되고 있는 제 2 오브젝트(402)의 디스플레이 상태가 제 1 오브젝트(401)에 대한 사용자의 입력에 따라 변경(삭제)되는 예이다. 즉, 후면 입력부(204)가 소정의 입력 인터페이스로서 설정된 제 2 오브젝트(402)가 후면 입력부(204)를 통한 입력에 따라 삭제된다. As shown in FIG. 4, in the screens 610 to 650 of FIG. 6, the display state of the second object 402 displayed on the front of the first object 401 is This is an example of being changed (deleted) according to the input. That is, the second object 402 in which the rear input unit 204 is set as a predetermined input interface is deleted according to an input through the rear input unit 204.

도 7은 도 3에서의 오브젝트 제어 과정의 또 다른 화면의 예이다.7 is an example of another screen of the object control process in FIG. 3.

도 7의 화면(710)과 화면(720)은 하위 계층에서 상위 계층으로 윈도우(711)를 이동하는 예이다. 복수의 윈도우(711, 712)가 서로 겹쳐서 디스플레이 될 때, 후면 입력부(204)를 통한 사용자의 입력에 따라 윈도우(712)가 하위 계층으로 이동된다. 따라서 화면(720)상에서 윈도우(712)가 윈도우(711)의 하위 계층에 디스플레이 되어 숨겨진다. The screen 710 and screen 720 of FIG. 7 are examples of moving the window 711 from a lower layer to an upper layer. When the plurality of windows 711 and 712 overlap each other and are displayed, the window 712 is moved to a lower layer according to a user's input through the rear input unit 204. Accordingly, on the screen 720, the window 712 is displayed in a lower layer of the window 711 and is hidden.

하위 계층의 윈도우(711)의 소정의 입력 인터페이스는 전면 입력부(203)이고, 하위 계층의 윈도우(711)의 배경 계층(미 도시됨)의 소정의 입력 인터페이스는 후면 입력부(204)이고, 배경 계층(미 도시됨)의 후면 입력부(204)에 대한 사용자의 제스처에 의해 하위 계층의 윈도우(711)가 상위 계층으로 이동되어 디스플레이될 수 있다. The predetermined input interface of the lower layer window 711 is the front input unit 203, the predetermined input interface of the background layer (not shown) of the lower layer window 711 is the rear input unit 204, and the background layer A lower layer window 711 may be moved to an upper layer and displayed by a user's gesture to the rear input unit 204 (not shown).

도 7의 화면(730)과 화면(740)은 후면 입력부(204)를 통한 사용자의 입력에 따라 투명 상태를 불투명 상태로 전환하는 화면의 예이다. 즉, (730)에 도시된 바와 같은 화면이 디스플레이되고, 오브젝트(731)의 소정의 입력 인터페이스가 후면 입력부(204)일 때, 후면 입력부(204)를 통한 사용자의 입력이 화면 최상단에서 시작하여 화면 하단으로 드래그됨에 따라 화면(740)과 같이 화면의 상단이 투명 상태가 불투명 상태로 변경된다. The screen 730 and screen 740 of FIG. 7 are examples of screens in which a transparent state is converted into an opaque state according to a user's input through the rear input unit 204. That is, when the screen as shown in 730 is displayed and the predetermined input interface of the object 731 is the rear input unit 204, the user's input through the rear input unit 204 starts at the top of the screen and As it is dragged to the bottom, the top of the screen changes from a transparent state to an opaque state like the screen 740.

도 7의 화면(730)과 화면(740)은 소정의 입력 인터페이스가 후면 입력부(204)인 제 1 오브젝트(731)에 대한 사용자의 입력에 따라 디스플레이부(202)의 상태가 변경되는 예로 이해될 수 있다. The screen 730 and the screen 740 of FIG. 7 will be understood as an example in which the state of the display unit 202 is changed according to a user's input to the first object 731, which is the rear input unit 204 in a predetermined input interface. I can.

도 8은 도 3에서의 오브젝트 제어 과정의 또 다른 화면의 예이다.8 is an example of another screen of the object control process in FIG. 3.

도 8은 복수의 오브젝트가 겹쳐서 디스플레이 되고, 후면의 오브젝트(802)의 소정의 입력 인터페이스는 후면 입력부(204)이고, 전면의 오브젝트(803)의 소정의 입력 인터페이스는 전면 입력부(203)인 경우이다. 8 is a case in which a plurality of objects are overlapped and displayed, and a predetermined input interface of the object 802 on the rear is the rear input unit 204, and the predetermined input interface of the object 803 on the front is the front input unit 203. .

따라서 오브젝트(802)에 대응되는 후면 입력부(204)의 터치 위치를 터치한 후, (805)방향으로 드래그 함에 따라 후면의 오브젝트(802)가 화면(810)에서 화면(820)에 도시된 바와 같이 이동된다. Therefore, after touching the touch position of the rear input unit 204 corresponding to the object 802, and dragging in the direction 805, the object 802 on the rear surface is moved from the screen 810 to the screen 820 Is moved.

오브젝트(803)에 대응되는 전면 입력부(203)의 터치 위치를 터치한 후, (831)방향으로 드래그 함에 따라 전면의 오브젝트(803)가 화면(810)에서 화면(830)에 도시된 바와 같이 이동된다. After touching the touch position of the front input unit 203 corresponding to the object 803, the object 803 in the front is moved from the screen 810 to the screen 830 as shown in the screen 830 by dragging in the direction of 831 do.

전면 입력부(203)가 복수의 오브젝트들(802, 802)에 대한 소정의 입력 인터페이스로 설정되고, 오브젝트(802)가 배경 오브젝트(801)의 소정의 입력 인터페이스인 후면 입력부(204)에 대한 사용자의 입력에 따라 이동될 수 있다. 이와 같이 수행될 경우에, 도 8의 화면(810, 820)은 상술한 도 4에서와 같이 소정의 입력 인터페이스가 후면 입력부(204)인 제 1 오브젝트(예를 들어 배경 오브젝트(801))의 전면에 디스플레이 되고 있는 제 2 오브젝트(예를 들어 오브젝트(802))의 디스플레이 상태가 제 1 오브젝트(801)에 대한 사용자의 입력에 따라 변경된다. The front input unit 203 is set as a predetermined input interface for a plurality of objects 802 and 802, and the object 802 is a user's input to the rear input unit 204, which is a predetermined input interface of the background object 801. It can be moved according to the input. When performed in this way, the screens 810 and 820 of FIG. 8 are the front of the first object (for example, the background object 801) whose input interface is the rear input unit 204 as in FIG. 4 described above. The display state of the second object (for example, the object 802) being displayed in is changed according to the user's input to the first object 801.

도 9는 도 3에서의 오브젝트 제어 과정의 또 다른 화면의 예이다.9 is an example of another screen of the object control process in FIG. 3.

도 9는 디바이스의 락 스크린의 예이다. 즉, 도 9는 전면 입력부(203)에 대한 사용자의 입력에 따른 언락(unlock)시와 후면 입력부(204)에 대한 사용자의 입력에 따른 언락시 다른 홈 화면(또는 메뉴 화면)이 디스플레이 될 수 있다. 9 is an example of a device lock screen. That is, in FIG. 9, another home screen (or menu screen) may be displayed when unlocking according to a user input to the front input unit 203 and unlocking according to a user input to the rear input unit 204. .

도 9의 화면(910)과 화면(920)은 전면 입력부(203)에 대한 사용자의 입력에 따라 언락한 경우의 화면의 예이다. 도 9의 화면(930)과 화면(940)은 후면 입력부(203)에 대한 사용자의 입력에 따라 언락한 경우의 화면의 예이다. The screen 910 and the screen 920 of FIG. 9 are examples of screens when unlocked according to a user's input to the front input unit 203. The screen 930 and the screen 940 of FIG. 9 are examples of screens when unlocked according to a user's input to the rear input unit 203.

도 9는 전면 언락 사용자와 후면 언락 사용자가 다른 경우에도 적용될 수 있다. 9 may be applied even when the front unlock user and the rear unlock user are different.

전면 입력부(203) 및 후면 입력부(204)가 오브젝트(언락 기능을 수행할 수 있는 화면, 911)의 소정의 입력 인터페이스이고, 화면(910, 920)은 전면 입력부(203)를 통해 입력되는 사용자의 입력에 응답하여, 오브젝트(911)에 대한 사전에 설정된 제 1 기능을 수행하고, 화면(930, 940)은 후면 입력부(204)를 통한 사용자의 입력에 응답하여 오브젝트(911)의 사전에 설정된 제 2 기능을 수행한다. The front input unit 203 and the rear input unit 204 are a predetermined input interface of an object (a screen capable of performing an unlock function, 911), and the screens 910 and 920 are inputted through the front input unit 203. In response to an input, a first function set in advance for the object 911 is performed, and the screens 930 and 940 are displayed in response to a user's input through the rear input unit 204. 2 performs a function.

도 10은 도 3에서의 오브젝트 제어 과정의 또 다른 화면의 예이다.10 is an example of another screen of the object control process in FIG. 3.

도 10은 전면 입력부(203)를 통해 텍스트(1001)를 선택함에 따라 후면 입력부(204)가 (1020)에 도시된 바와 같이 세 영역(1021, 1022, 1023)으로 나뉘어 선택된 텍스트에 대한 타입, 크기, 및 색깔을 설정할 수 있는 경우이다. 세 영역(1021, 1022, 1023) 각각에서의 후면 터치에 기초한 스크롤링 제스처와 같은 제스처를 수행하여 선택될 수 있는 텍스트 타입, 텍스트 크기, 텍스트 색깔이 선택된 텍스트(1001)에 반영되어 디스플레이 될 수 있다. 10 shows the type and size of the selected text by dividing the rear input unit 204 into three areas 1021, 1022, and 1023 as shown in 1020 as the text 1001 is selected through the front input unit 203. , And color can be set. A text type, text size, and text color that can be selected by performing a gesture such as a scrolling gesture based on a back touch in each of the three areas 1021, 1022, and 1023 may be reflected in the selected text 1001 and displayed.

도 10의 화면(1010, 1020)은, 도 9에서와 같이, 오브젝트(1001)에 대해 소정의 입력 인터페이스가 전면 입력부(203)와 후면 입력부(204)이고, 화면(1010)의 전면 입력부(203)를 통한 사용자의 입력에 응답하여 오브젝트(1001)에 대한 제 1 기능(예를 들어, 상술한 바와 같이 세 영역으로 나누기 기능)이 수행되고, 화면(1020)의 후면 입력부(204)를 통한 사용자의 입력에 응답하여 오브젝트(1001)의 제 2 기능(예를 들어 텍스트 타입 설정, 텍스트 크기 설정, 텍스트 색깔 설정)이 수행된다. In the screens 1010 and 1020 of FIG. 10, as in FIG. 9, a predetermined input interface for the object 1001 is a front input unit 203 and a rear input unit 204, and the front input unit 203 of the screen 1010. ) In response to the user's input through the object 1001 (for example, the function of dividing into three areas as described above) is performed, and the user through the rear input unit 204 of the screen 1020 In response to an input of, a second function (eg, text type setting, text size setting, text color setting) of the object 1001 is performed.

도 11은 도 3에서의 오브젝트 제어 과정의 또 다른 화면의 예이다.11 is an example of another screen of the object control process in FIG. 3.

도 11은 픽쳐 오브젝트(1101)가 카메라(207)를 갖고 촬영되고, 화면(1110)은 화면(1110)의 오브젝트(1101)의 전면 입력부(203)에 대한 줌-인(zoom-in) 제스처(1102)가 수행되어 화면(1111)으로 확대되고, 화면(1120)의 오브젝트(1101)의 전면 입력부(203)에 대한 줌-아웃(zoom-out) 제스처(1103)가 수행되어 화면(1121)으로 축소된다. 11 shows a picture object 1101 is photographed with a camera 207, and a screen 1110 is a zoom-in gesture for the front input unit 203 of the object 1101 of the screen 1110 ( 1102) is performed and enlarged to the screen 1111, and a zoom-out gesture 1103 for the front input unit 203 of the object 1101 of the screen 1120 is performed to display the screen 1121. It is reduced.

또한, 오브젝트(1101)의 후면 입력부(204)를 터치한 후, (1104)방향으로 드래그 함에 따라 카메라(207)의 렌즈의 촬영 각도가 조정되어 촬영하고자 하는 화면이 도 11의 화면(1100)에서 화면(1130)으로 변경되고, 오브젝트(1101)의 후면 입력부(204)를 터치한 후, (1105)방향으로 드래그 함에 따라 카메라(207)의 렌즈의 촬영 각도가 조정되어 촬영하고자 하는 화면이 도 11의 화면(1100)에서 화면(1140)으로 변경된다. In addition, after touching the rear input unit 204 of the object 1101, the shooting angle of the lens of the camera 207 is adjusted by dragging in the direction of (1104) so that the screen to be photographed is displayed on the screen 1100 of FIG. The screen is changed to the screen 1130, after touching the rear input unit 204 of the object 1101, and dragging in the direction (1105), the shooting angle of the lens of the camera 207 is adjusted and the screen to be captured is shown in FIG. The screen 1100 of is changed to the screen 1140.

도 11의 화면(1110) 내지 화면(1140)은, 도 9에서와 같이, 오브젝트(1101)에 대해 소정의 입력 인터페이스가 전면 입력부(203)와 후면 입력부(204)이고, 전면 입력부(203)를 통한 사용자의 입력에 응답하여 오브젝트(1101)의 사전에 설정된 제 1 기능(줌-인 또는 줌-아웃)을 수행하고, 후면 입력부(204)를 통한 사용자의 입력에 응답하여 오브젝트(1101)의 사전에 설정된 제 2 기능(촬영 화면 변경 또는 촬영 영역 변경)을 수행한다. In the screens 1110 to 1140 of FIG. 11, as in FIG. 9, a predetermined input interface for the object 1101 is a front input unit 203 and a rear input unit 204, and the front input unit 203 is In response to a user's input through the object 1101, a preset first function (zoom-in or zoom-out) is performed, and in response to a user's input through the rear input unit 204, the dictionary of the object 1101 The second function (changing the shooting screen or changing the shooting area) set in is performed.

도 11은 파노라마(panorama) 기능에 적용될 수 있다. 카메라 렌즈의 각도가 픽쳐 오브젝트(1101)에 있어서 파노라마 뷰(panoramic view)를 캡쳐하기 위해 사용된 후면 입력부(204)로의 제스처 입력에 의해 변경될 수 있다. 또한 파노라마 사진(panoramic photo)은 후면 입력부(204)로 입력되는 제스처를 사용하여 사진의 파노라마 사진 또는 뷰 각도(view angle)를 이동하면서 볼 수 있다. 11 may be applied to a panorama function. The angle of the camera lens can be changed by a gesture input to the rear input unit 204 used to capture a panoramic view in the picture object 1101. In addition, a panoramic photo can be viewed while moving a panoramic photo or a view angle of the photo by using a gesture input through the rear input unit 204.

도 12는 도 3에서의 오브젝트 제어 과정의 또 다른 화면의 예이다. 도 12는 디바이스(200)가 벨소리 조절과 같은 시스템 볼륨 조절 기능과 미디어 컨텐트를 재생중일 때, 볼륨 조절 기능에 관련된 화면의 예이다. 12 is an example of another screen of the object control process in FIG. 3. 12 is an example of a screen related to a volume control function when the device 200 is playing media content and a system volume control function such as a ring tone control.

사용자 입력부(205)를 통해 볼륨 제어가 요청되면, 화면(1200)이 디스플레이 되고, 시스템 볼륨 제어는 전면 입력부(203, 화면(1210))에 대한 사용자의 입력에 의해 수행되고, 미디어 볼륨 제어(예를 들어 미디어 파일 재생시 볼륨 제어)는 후면 입력부(204)에 대한 사용자의 입력에 의해 수행된다. When volume control is requested through the user input unit 205, a screen 1200 is displayed, and system volume control is performed by a user's input to the front input unit 203 (screen 1210), and media volume control (e.g. For example, volume control when playing a media file) is performed by a user's input to the rear input unit 204.

도 12의 화면(1200) 내지 화면(1220)은, 도 9에서와 같이, 오브젝트(1201)의 소정의 사용자 입력 인터페이스가 전면 입력부(203)와 후면 입력부(204)이고, 전면 입력부(203)를 통한 사용자의 입력에 응답하여 오브젝트(1201)의 사전에 설정된 제 1 기능(시스템 볼륨 조절 기능)을 실행하고, 후면 입력부(204)를 통한 사용자의 입력에 응답하여 오브젝트(1201)의 사전에 설정된 제 2 기능(미디어 볼륨 조절 기능)을 실행하는 예로 이해될 수 있다. 전면 입력부(203)에 대한 사용자의 입력이 감지되면, 디스플레이부(202)에 시스템 볼륨 조절이라는 메시지가 디스플레이 되고, 후면 입력부(204)에 대한 사용자의 입력이 감지되면, 디스플레이부(202)에 미디어 볼륨이라는 메시지(1221)가 디스플레이 될 수 있다. In the screens 1200 to 1220 of FIG. 12, as in FIG. 9, a predetermined user input interface of the object 1201 is a front input unit 203 and a rear input unit 204, and the front input unit 203 is In response to the user's input through the object 1201, a first function (system volume control function) set in advance is executed, and in response to the user's input through the rear input unit 204, the object 1201 is It can be understood as an example of executing a 2 function (media volume control function). When a user's input to the front input unit 203 is detected, a message indicating system volume control is displayed on the display unit 202, and when a user's input to the rear input unit 204 is detected, the display unit 202 A message 1221 indicating volume may be displayed.

도 13은 도 3에서의 오브젝트 제어 과정의 또 다른 화면의 예이다. 도 13은 오브젝트(1301)의 소정의 입력 인터페이스인 전면 입력부(203)와 후면 입력부(204)에 따라 서로 다른 기능을 수행하는 화면의 예이다. 13 is another example of a screen of an object control process in FIG. 3. 13 is an example of a screen that performs different functions according to the front input unit 203 and the rear input unit 204 which are predetermined input interfaces of the object 1301.

즉, 도 13의 화면(1300)에 디스플레이 되는 오브젝트(1301)의 전면 입력부(203)에 대한 사용자의 터치로 오브젝트(1301)면이 불투명 상태가 된다(1310). 화면(1300)에서 오브젝트(1301)에 대한 후면 입력부(204)에 대한 사용자의 터치로 오브젝트(1301)를 제외한 배경면이 불투명 상태가 된다(1320). 화면(1300)에서 오브젝트(1301)에 대한 전면 입력부(203) 및 후면 입력부(204)가 동시에 터치됨에 따라 오브젝트(1301) 자체와 오브젝트(1301)의 배경 둘다 불투명 상태가 된다(1330). That is, the surface of the object 1301 becomes opaque due to the user's touch on the front input unit 203 of the object 1301 displayed on the screen 1300 of FIG. 13 (1310 ). A background surface other than the object 1301 becomes opaque due to a user's touch on the rear input unit 204 for the object 1301 on the screen 1300 (1320). As the front input unit 203 and the rear input unit 204 for the object 1301 are simultaneously touched on the screen 1300, both the object 1301 itself and the background of the object 1301 become opaque (1330 ).

도 13은 오브젝트가 이미지 편집창일 때, 터치면에 따라 편집 대상이 달라지는 것을 사용자가 직관적으로 알 수 있도록 디스플레이 하는 경우에 적용할 수 있다. 예를 들어, 오브젝트(1301)의 전면 입력부(203)에 대한 사용자 터치로 화면(1310)은 오브젝트(1310)의 내부 영역이 편집대상으로 설정되었음을 디스플레이 하고, 오브젝트(1301)의 후면 입력부(204)에 대한 사용자 터치로 화면(1320)은 오브젝트(1301)의 외부 영역이 편집대상으로 설정되었음을 디스플레이 하고, 오브젝트(1301)의 양면 입력부(203, 204)에 대한 사용자 터치로 화면(1330)는 전 화면이 편집 대상으로 설정되었음을 디스플레이 하는 화면들을 의미할 수 있다. FIG. 13 can be applied to a case where an object is an image editing window and is displayed so that a user can intuitively know that an object to be edited varies according to a touch surface. For example, by a user touch on the front input unit 203 of the object 1301, the screen 1310 displays that the inner area of the object 1310 is set as an edit target, and the rear input unit 204 of the object 1301 The screen 1320 with a user touch to the screen 1320 displays that the external area of the object 1301 has been set as an editing target, and the screen 1330 with a user touch to the double-sided input units 203 and 204 of the object 1301 is the entire screen. This may mean screens that display that they have been set for editing.

도 14는 도 3에서의 오브젝트 제어 과정의 또 다른 화면의 예이다. 도 14는 오브젝트의 소정의 입력 인터페이스가 전면 입력부(203)와 후면 입력부(204)이고, 전면 및 후면에 대한 각각의 입력에 따라 다른 기능을 수행한다. 14 is an example of another screen of the object control process in FIG. 3. 14, a predetermined input interface of an object is a front input unit 203 and a rear input unit 204, and perform different functions according to respective inputs to the front and rear surfaces.

즉, 도 14의 화면(1400)은 오브젝트(1401)에 대한 전면 입력부(203)를 통한 사용자의 입력에 따라 동영상이 수행되고 있는 화면이다. 따라서 동영상 재생시 전면 입력부(203)로 동영상 재생에 관련된 기본 기능(빨리 감기 기능, 되감기 기능, 재생 기능, 등)을 실행할 수 있다. 이와 같이 동영상이 수행되고 있을 때, 후면 입력부(204)에 대한 사용자의 터치에 따라 동영상이 정지(1410)하고, 후면 입력부(204)로의 사용자의 제스처에 따라 정지된 영상이 캡처된다(1420). 상기 제스처의 예는 후면 입력 부(204)에서 터치하고 위로 드래그하는 것이 될 수 있다. That is, the screen 1400 of FIG. 14 is a screen on which a video is being performed according to a user's input through the front input unit 203 to the object 1401. Therefore, when playing a video, the front input unit 203 can execute basic functions (fast forward function, rewind function, playback function, etc.) related to video playback. When the video is being performed in this way, the video is stopped 1410 according to the user's touch to the rear input unit 204, and the still image is captured according to the user's gesture to the rear input unit 204 (1420). An example of the gesture may be a touch on the rear input unit 204 and drag upward.

도 15는 도 3에서의 오브젝트 제어 과정에 대한 또 다른 화면의 예이다. 도 15 역시 오브젝트(1511)의 소정의 입력 인터페이스가 전면 입력부(203)와 후면 입력부(204)이고, 전면과 후면 각각으로의 입력에 따라 다른 기능을 수행한다. 15 is an example of another screen for the object control process in FIG. 3. In FIG. 15, predetermined input interfaces of the object 1511 are the front input unit 203 and the rear input unit 204, and perform different functions according to inputs to the front and rear surfaces.

즉, 오브젝트(1511)의 전면 입력부(203)에 대한 사용자의 터치 & 드래그에 따라 페이지가 전환된다(1510, 1520). 오브젝트(1511)의 후면 입력부(204)에 대한 사용자의 터치 & 드래그에 따라 상단의 상태 바(status bar)가 드래그 방향으로 이동되면서 상태 바의 내용이 변경된다(1510, 1530). That is, the page is switched according to the user's touch & drag on the front input unit 203 of the object 1511 (1510 and 1520). According to the user's touch & drag on the rear input unit 204 of the object 1511, the status bar at the top is moved in the dragging direction, and the contents of the status bar are changed (1510, 1530).

바람직한 실시 예에 따라, 페이지 변경 기능에서 스킵되는 페이지 수가 후면 입력부(204)에 대한 사용자의 터치 & 드래그 제스처에 따라 화면(1540)이 도시되거나 전면 입력부(203)에 대한 사용자의 터치 & 드래그 제스처에 따라 화면(1520)이 도시되는 것과 같이 다르게 될 수 있다. 예를 들어, 전면 입력부(203)에 대한 터치 & 드래그시 한 페이지씩 페이지를 변경하고(화면(1520)), 후면 입력부(204)에 대한 터치 & 드래그시 2페이지씩 페이지를 변경할 수 있다(화면(1540)). 또는 전면 입력부(203)에 대한 터치 & 드래그시 제공되는 페이지와 후면 입력부(204)에 대한 터치 & 드래그시 제공되는 페이지를 다르게 설정할 수 있다. According to a preferred embodiment, the screen 1540 is shown according to the user's touch & drag gesture to the rear input unit 204, or the number of pages skipped by the page change function is applied to the user's touch & drag gesture to the front input unit 203. Accordingly, the screen 1520 may be different as shown. For example, when touching and dragging the front input unit 203, the page can be changed one by one (screen 1520), and when touching and dragging the rear input unit 204, the page can be changed by two pages (screen (1540)). Alternatively, a page provided when touching & dragging the front input unit 203 and a page provided when touching & dragging the rear input unit 204 may be set differently.

도 16은 도 3에서의 오브젝트 제어 과정의 또 다른 화면 예이다. 도 16 역시 오브젝트(1611)에 소정의 입력 인터페이스가 전면 입력부(203)와 후면 입력부(204)이고, 전면 및 후면에 따라 다른 기능을 수행할 수 있다. 16 is another screen example of the object control process in FIG. 3. In FIG. 16, predetermined input interfaces to the object 1611 are the front input unit 203 and the rear input unit 204, and may perform different functions according to the front and rear surfaces.

즉, 알람이 울릴 때, 도 16의 오브젝트(1611)의 전면 입력부(203)에 대한 사용자의 입력에 의해 알람을 중지할 수 있다(화면(1610)) 후면 입력부(204)에 대한 사용자의 입력에 의해 다시 알림(snooze) 시간을 설정할 수 있다(화면(1620)). 다시 알림시간은 터치 후 위 또는 아래방향 드래그로 설정할 수 있다. That is, when the alarm goes off, the alarm can be stopped by a user's input to the front input unit 203 of the object 1611 of FIG. 16 (screen 1610) and the user's input to the rear input unit 204 It is possible to set the snooze time by (screen 1620). The reminder time can be set by touching and dragging up or down.

도 17은 도 3에서의 오브젝트 제어 과정의 또 다른 화면의 예이다. 도 17 역시 오브젝트(1713)에 대한 소정의 입력 인터페이스가 전면 입력부(203)와 후면 입력부(204)이고, 전면 및 후면에 따라 다른 기능을 수행할 수 있다. 17 is an example of another screen of an object control process in FIG. 3. 17 also includes a front input unit 203 and a rear input unit 204 as a predetermined input interface for the object 1713, and may perform different functions depending on the front and rear surfaces.

도 17의 경우에 오브젝트(1713)의 전면 입력부(203)에 대한 사용자의 입력에 따라 배열된 가상 키에 따른 정보를 입력하고, 후면 입력부(204)에 대한 사용자의 입력(1714)에 따라 가상 키의 모드를 변환하는 경우이다. 즉, (1710) 화면에서 후면 입력부(204)에 대한 1회 터치 시 (1720)에 도시된 바와 같이 오브젝트(1713)가 숫자 키 배열로 변경되고, 후면 입력부(204)에 대한 2회 터치시 (1730)에 도시된 바와 같이 오브젝트(1713)가 영문 키배열로 변경된다. In the case of FIG. 17, information according to a virtual key arranged according to a user's input to the front input unit 203 of the object 1713 is input, and a virtual key according to the user's input 1714 to the rear input unit 204 This is the case to convert the mode of. That is, when the rear input unit 204 is touched once on the screen (1710), the object 1713 is changed to a numeric key arrangement as shown in 1720, and when the rear input unit 204 is touched twice ( 1730, the object 1713 is changed to an English key sequence.

도 18은 도 3에서의 오브젝트 제어 과정의 또 다른 화면의 예이다. 도 18은 사용자의 입력이 후면 입력부(204)의 일정 면적 이상 터치된 것에 응답하여 오브젝트(1811)의 투명도를 최대 값으로 설정하는 경우의 예이다. 18 is an example of another screen of the object control process in FIG. 3. 18 is an example in which the transparency of the object 1811 is set to a maximum value in response to a user's input being touched over a certain area of the rear input unit 204.

즉, 도 18의 (1810)과 같은 화면이 디스플레이부(202)에 디스플레될 때, (1820)과 같이 후면 입력부(204)의 소정 면적 이상이 터치되면, 디스플레이부(202)의 투명도가 최대 값과 최소 값(예를 들어 최대 불투명도(maximum opaqueness))간의 값으로 설정될 수 있다. 비록 투명도는 디스플레이부(202)의 전원을 일시적으로 오프시켜 최대 값으로 설정할 수 있으나 바람직한 실시 예는 이로 제한되지 않는다. 바람직한 실시 예에 따라 근접 센서는 소정 면적 이상 터치 여부 판단하기 위해 사용될 수 있다. That is, when a screen such as 1810 of FIG. 18 is displayed on the display unit 202, when a predetermined area or more of the rear input unit 204 is touched as shown in 1820, the transparency of the display unit 202 is the maximum value. It may be set to a value between and a minimum value (for example, maximum opaqueness). Although the transparency can be set to a maximum value by temporarily turning off the power of the display unit 202, the preferred embodiment is not limited thereto. According to a preferred embodiment, the proximity sensor may be used to determine whether or not to touch a predetermined area or more.

(1820)에 도시된 바와 같이 터치 제스처가 소정 시간 이상 유지되지 않으면, 디스플레이부(202)는 (1830)과 같이 터치가 발생되기 전에 디스플레이 된 화면으로 리턴한다. 그러나, 터치 제스처가 소정 시간이상 유지되면, 디스플레이부(202)의 투명도는 최대 값으로 설정된 상태를 유지한다(1840). 소정 시간 이상은 예를 들어 3분 이상으로 설정될 수 있으나 바람직한 실시 예는 이로 제한되지 않는다. As shown in 1820, if the touch gesture is not maintained for a predetermined time or longer, the display unit 202 returns to the screen displayed before the touch is generated, as shown in 1830. However, when the touch gesture is maintained for a predetermined time or longer, the transparency of the display unit 202 maintains a state set to a maximum value (1840). The predetermined time or more may be set to 3 minutes or more, for example, but the preferred embodiment is not limited thereto.

도 19는 도 3에서의 오브젝트 제어 과정의 또 다른 화면의 예이다. 도 19는 오브젝트의 소정의 입력 인터페이스가 변경된다. 19 is an example of another screen of the object control process in FIG. 3. 19, a predetermined input interface of an object is changed.

즉, 디스플레이 되고 있는 오브젝트(1911)에 대한 입력 인터페이스 편집 요청에 응답하여 오브젝트(1911)에 소정의 입력 인터페이스에 대한 정보를 포함하는 편집 윈도우(1921)가 디스플레이된다. 입력 인터페이스 편집 요청은 전면 입력부(203) 또는 후면 입력부(204)를 통한 소정의 사용자 제스처 또는 메뉴를 사용하여 입력될 수 있다. That is, in response to a request to edit an input interface for the object 1911 being displayed, the edit window 1921 including information on a predetermined input interface is displayed on the object 1911. The input interface editing request may be input using a predetermined user gesture or menu through the front input unit 203 or the rear input unit 204.

편집 윈도우(1921)에 기초하여 수신된 사용자의 입력에 따라 변경된 입력 인터페이스 정보(1921)로 오브젝트(1911)에 대한 소정의 입력 인터페이스에 대한 정보를 업데이트 할 수 있다(화면(1920) 및 화면(1930)). 도 19에서 오브젝트(1911)에 대해 소정의 전면 입력부(203)는 후면 입력부(204)로 변경된다. Information on a predetermined input interface for the object 1911 may be updated with the input interface information 1921 changed according to the user's input received based on the edit window 1921 (screen 1920 and screen 1930 )). In FIG. 19, a predetermined front input unit 203 for the object 1911 is changed to a rear input unit 204.

도 20은 도 3에서의 오브젝트 제어 과정의 또 다른 화면의 예이다. 도 20은 서로 다른 입력 인터페이스가 설정된 오브젝트(2012, 2013)에 대해 동시에 사용자의 입력에 따른 오브젝트를 제어하는 경우로서 멀티 태스킹으로 이해될 수 있다. 20 is an example of another screen of the object control process in FIG. 3. FIG. 20 is a case in which objects 2012 and 2013 for which different input interfaces are set are simultaneously controlled according to a user's input, and may be understood as multitasking.

즉, 전면 입력부(203)를 통한 화면(2010)상에 오브젝트(2012)에 대한 사용자의 입력과 후면 입력부(204)를 통한 오브젝트(2013)에 대한 사용자의 입력이 도 20의 (2020)에 도시된 바와 같이 원하는 위치로 드래그하는 것이면, 그에 따라 동시에 (2030)에 도시된 바와 같이 디스플레이 위치가 이동된다. That is, the user's input for the object 2012 on the screen 2010 through the front input unit 203 and the user’s input for the object 2013 through the rear input unit 204 are shown in (2020) of FIG. If it is dragged to the desired position as described above, the display position is simultaneously moved as shown in 2030 accordingly.

도 20의 (2014)는 디스플레이 되고 있는 오브젝트(2012)의 소정의 입력 인터페이스를 나타내는 화면 정보이다. (2014)에 의해 사용자는 직관적으로 오브젝트(2012)의 소정의 입력 인터페이스가 전면 입력부(203)라는 것을 알 수 있다. 20(2014) is screen information showing a predetermined input interface of the object 2012 being displayed. By (2014), the user can intuitively know that the predetermined input interface of the object 2012 is the front input unit 203.

상술한 도 4 내지 도 20의 화면의 예는 프로세서(215)의 동작에 의해 제공된다. 또한, 도 4 내지 도 20의 화면의 예에서 설명된 사용자의 제스처는 상기 설명된 바로 제한되지 않는다. Examples of the screens of FIGS. 4 to 20 described above are provided by the operation of the processor 215. In addition, the user's gesture described in the example of the screens of FIGS. 4 to 20 is not limited to the above description.

도 21은 바람직한 다른 실시 예에 따른 투명 디스플레이를 포함하는 디바이스(200)에 의해 수행되는 오브젝트 제어 방법의 흐름도이다. 도 21의 오브젝트 제어 방법 역시 프로세서(215)에 의해 수행된다. 21 is a flowchart of an object control method performed by the device 200 including a transparent display according to another exemplary embodiment. The object control method of FIG. 21 is also performed by the processor 215.

도 21은 도 3에 도시된 오브젝트 제어 단계를 오브젝트 회전 및 그에 따라 오브젝트의 소정의 입력 인터페이스를 업데이트하는 단계로 변경한 경우이다. 따라서 도 21의 단계 S2101 내지 단계 S2103은 단계 S301 내지 단계 S303과 동일하므로, 이하 설명을 생략한다. 21 is a case in which the object control step shown in FIG. 3 is changed to the step of rotating the object and updating a predetermined input interface of the object accordingly. Accordingly, steps S2101 to S2103 of FIG. 21 are the same as steps S301 to S303, and thus a description thereof will be omitted.

단계 S2103에서 판단한 결과, 사용자의 입력이 오브젝트의 소정의 입력 인터페이스(예를 들어, 전면 입력부(203) 또는 후면 입력부(204))를 통해 수신되고, 일 측 방향으로 소정 길이 이상 이동되는 사용자의 제스처가 발생되면, 프로세서(215)는 사용자의 제스처에 대응되는 방향으로 오브젝트를 회전시키면서 오브젝트의 소정의 입력 인터페이스를 다른 입력 인터페이스로 변경한다(S2104). 따라서 만일 오브젝트의 소정의 입력 인터페이스가 전면 입력부(203)이면, 상술한 사용자의 입력과 사용자의 제스처에 따라 오브젝트의 입력부는 후면 입력부(204)로 변경될 수 있다. 이처럼, 각 오브젝트에 대한 입력 인터페이스가 독립적으로 지정될 수 있으므로, 보다 다양한 형태의 사용자 인터페이스가 가능하며 양면(dual surfaces)의 사용에 따른 구현의 복잡도를 줄일 수 있다. 또한, 도 1에서와 같이 한 화면상에 나타난 복수의 오브젝트들 각각에 서로 다른 입력 인터페이스가 설정될 수 있음은 물론이다. As a result of determination in step S2103, the user's input is received through a predetermined input interface (for example, the front input unit 203 or the rear input unit 204) of the object, and the user's gesture is moved by a predetermined length or more in one direction. When is generated, the processor 215 changes a predetermined input interface of the object to another input interface while rotating the object in a direction corresponding to the user's gesture (S2104). Therefore, if the predetermined input interface of the object is the front input unit 203, the input unit of the object may be changed to the rear input unit 204 according to the above-described user input and user gesture. In this way, since the input interface for each object can be independently specified, more various types of user interfaces are possible and the complexity of implementation due to the use of dual surfaces can be reduced. In addition, it goes without saying that different input interfaces may be set for each of a plurality of objects displayed on one screen as shown in FIG. 1.

도 22a는 복수의 오브젝트(2202~2210)중 오브젝트(2210)를 회전시켜 오브젝트의 입력 인터페이스를 변경하는 화면의 예이다. 즉, 도 22a의 화면(2240)에서 오브젝트(2210)에 대해 (2212)방향으로 이동되는 사용자의 제스처가 발생됨에 따라 화면(2250) 및 화면(2260)에 도시된 순서로 오브젝트(2210)가 회전된다. 화면(2260)은 오브젝트(2210)가 180도 회전되어 오브젝트(2210)의 이미지가 후면과 전면이 바뀐 상태이다. 22A is an example of a screen for changing an input interface of an object by rotating an object 2210 among a plurality of objects 2202 to 2210. That is, as a gesture of the user moving in the direction of (2212) with respect to the object 2210 is generated on the screen 2240 of FIG. 22A, the object 2210 is rotated in the order shown in the screen 2250 and the screen 2260 do. The screen 2260 is a state in which the object 2210 is rotated 180 degrees so that the image of the object 2210 is changed between the rear and the front.

프로세서(215)는 오브젝트(2210)의 회전에 따라 오브젝트(2210)의 디스플레이 면이 변경되면, 오브젝트(2210)에 대한 소정의 입력 인터페이스를 후면 입력부(204)로 변경한다(S2104).When the display surface of the object 2210 is changed according to the rotation of the object 2210, the processor 215 changes a predetermined input interface for the object 2210 to the rear input unit 204 (S2104).

도 22b는 오브젝트(2210)가 전면 입력부(203)와 후면 입력부(204)에 대해 각각 다른 오브젝트가 설정되어 다른 기능을 수행할 경우에, 오브젝트(2210)의 회전에 따라 전면 입력부(203)와 후면 입력부(204)에 대응되는 기능이 변경되는 화면의 예이다.22B shows that when the object 2210 performs different functions by setting different objects for the front input unit 203 and the rear input unit 204, respectively, the front input unit 203 and the rear surface are rotated according to the rotation of the object 2210. This is an example of a screen in which a function corresponding to the input unit 204 is changed.

즉, 도 22b는 오브젝트(2241)의 전면 입력부(203)를 입력 인터페이스로 설정한 어플리케이션이 미니 다이어리이고, 후면 입력부(204)를 입력 인터페이스로 설정한 어플리케이션이 스토어(store)인 경우이다. 화면 (2240), (2250), 및 (2260)에 도시된 바와 같은 방향(2242)으로 회전함에 따라, 스토어 어플리케이션은 디바이스(200)의 전면부에 디스플레이 되고, 스토어 어플리케이션의 입력 인터페이스는 전면 입력부(203)로 설정되고, 미니 다이어리 어플리케이션은 디바이스(200)의 후면부에 디스플레이 되고, 미니 다이어리의 입력 인터페이스는 후면 입력부(204)로 설정된다. 이에 따라 오브젝트(2241)의 전면 입력부(203)를 통한 입력으로 디바이스(200)는 스토어의 기능을 실행할 수 있고, 오브젝트(2241)의 후면 입력부(204)를 통한 입력으로 디바이스(200)는 미니 다이어리의 기능을 실행할 수 있다. That is, FIG. 22B shows a case in which an application in which the front input unit 203 of the object 2241 is set as an input interface is a mini diary, and an application in which the rear input unit 204 is set as an input interface is a store. As the screens 2240, 2250, and 2260 rotate in the direction 2242 as shown in, the store application is displayed on the front side of the device 200, and the input interface of the store application is the front input unit ( 203), the mini diary application is displayed on the rear side of the device 200, and the input interface of the mini diary is set to the rear input unit 204. Accordingly, the device 200 can execute the function of a store by input through the front input unit 203 of the object 2241, and the device 200 is a mini-diary by input through the rear input unit 204 of the object 2241 The function of can be executed.

도 23은 바람직한 다른 실시 예에 따른 투명 디스플레이를 포함하는 디바이스(200)에서 가이드(guide) 표시 방법에 대한 동작 흐름도이다. 상기 가이드 표시 방법은 프로세서(215)에 의해 수행된다. 가이드는 후면 입력부(204)에 대한 사용자의 입력이 감지된 위치(터치 위치)를 나타내는 정보를 포함할 수 있다. 23 is a flowchart illustrating a method of displaying a guide in a device 200 including a transparent display according to another exemplary embodiment. The guide display method is performed by the processor 215. The guide may include information indicating a position (touch position) at which a user's input to the rear input unit 204 is sensed.

프로세서(215)는 임의의 어플리케이션 실행에 따라 적어도 하나의 오브젝트를 디스플레이부(203)에 디스플레이 한다(S2301). 디스플레이 되고 있는 오브젝트에 대한 소정의 입력 인터페이스와 관계없이 후면 입력부(204)에서 사용자의 입력을 수신하면(S2302), 수신된 위치에 가이드를 디스플레이 한다(S2303). 가이드는 사용자의 입력이 수신된 지점에 디스플레이 되고 있는 오브젝트의 상태 또는 디스플레이부(203)의 상태에 기초하여 가변적으로 디스플레이될 수 있다. 가이드는 인디케이터(Indicator)로 언급될 수 있다.The processor 215 displays at least one object on the display unit 203 according to the execution of an arbitrary application (S2301). When a user's input is received from the rear input unit 204 regardless of a predetermined input interface for the object being displayed (S2302), the guide is displayed at the received position (S2303). The guide may be variably displayed based on the state of the object being displayed at the point where the user's input is received or the state of the display unit 203. The guide may be referred to as an indicator.

오브젝트의 상태 또는 디스플레이부(203)의 상태는 투명도에 기초한 상태를 포함할 수 있다. 따라서 가이드는 오브젝트의 투명도 또는 디스플레이부(203)의 투명도에 따라 서로 다른 이미지를 갖는 가이드를 디스플레이 하거나 서로 다른 투명도를 갖는 가이드를 디스플레이 할 수 있다. 상기 오브젝트의 투명도는 오브젝트에 인접한 영역의 투명도를 고려할 수 있다. 디스플레이부(203)의 상태는 터치 강도를 포함할 수 있다. The state of the object or the state of the display unit 203 may include a state based on transparency. Accordingly, the guide may display guides having different images or display guides having different transparency according to the transparency of the object or the transparency of the display unit 203. The transparency of the object may take into account the transparency of a region adjacent to the object. The state of the display unit 203 may include a touch intensity.

도 24는 가이드를 디스플레이 하는 화면의 예이다. 도 24의 화면(2400)은 리스트에 포함된 텍스트 4 오브젝트에 대해 후면 입력부(204)를 통한 사용자의 입력(2401)이 감지됨에 따라 가상 가이드(2402)가 텍스트 4의 위치에서 디스플레이 되어 사용자는 후면 입력부(204)를 통해 텍스트 4 오브젝트를 터치하고 있는 것을 직관적으로 알 수 있다. 또한, 가이드의 투명도 변화에 따라 사용자가 어느 정도의 터치 강도로 후면 입력부(204)를 터치하고 있는지를 직관적으로 알 수 있다. 24 is an example of a screen displaying a guide. In the screen 2400 of FIG. 24, a virtual guide 2402 is displayed at the position of the text 4 as the user's input 2401 through the rear input unit 204 is detected for the text 4 object included in the list. It can be intuitively known that the text 4 object is being touched through the input unit 204. In addition, according to the change in the transparency of the guide, it is possible to intuitively know whether the user is touching the rear input unit 204 with a level of touch strength.

도 24의 화면(2410)의 경우에 선택된 오브젝트가 디스플레이 되고 있는 모든 면에 가상 가이드가 디스플레이 되는 경우이다. 화면(2410)에 따라 사용자는 텍스트 4의 오브젝트에 대해 후면 입력부(204)를 통한 사용자 터치가 발생된 것을 직관적으로 알 수 있다. 화면(2410)의 경우에, 터치 강도에 따라 텍스트 4의 오브젝트 필드의 색깔이 가변될 수 있다. In the case of the screen 2410 of FIG. 24, a virtual guide is displayed on all surfaces on which the selected object is displayed. According to the screen 2410, the user can intuitively know that a user touch has occurred through the rear input unit 204 on the object of text 4. In the case of the screen 2410, the color of the object field of text 4 may be changed according to the touch intensity.

또한, 화면(2420)과 같이 후면 입력부(204)를 터치한 후 드래그하여 오브젝트(2421)를 (2422)방향으로 이동할 때, 터치가 유지된 상태에서 전면 입력부(203)를 통해 오브젝트(2421)를 터치할 경우, 오브젝트(2421)에 대해 후면 입력부(204)에서 실행되던 동작을 이어서 할 수 있다. 즉, 화면(2430)에 도시된 바와 같이 오브젝트(2421)를 터치한 후 드래그하여 방향(2431)으로 오브젝트(2421)를 이동하는 동작을 계속 수행할 수 있다. In addition, when moving the object 2421 in the direction of (2422) by touching and dragging the rear input unit 204 like the screen 2420, the object 2421 is moved through the front input unit 203 while the touch is maintained. When touched, the object 2421 may be continued with the operation performed by the rear input unit 204. That is, as illustrated in the screen 2430, an operation of moving the object 2421 in the direction 2431 by touching and dragging the object 2421 may be continuously performed.

도 25는 바람직한 실시 예에 따른 디바이스의 다른 기능 블록도이다. 25 is another functional block diagram of a device according to an exemplary embodiment.

도 25를 참조하면, 디바이스는 투명 디스플레이(2501), 프로세서(2502), 및 저장부(2503)를 포함한다. Referring to FIG. 25, the device includes a transparent display 2501, a processor 2502, and a storage unit 2503.

투명 디스플레이(2501)는 도 2a의 투명 디스플레이(201)과 같이 전면 입력부(203), 후면 입력부(204), 및 디스플레이부(202)를 포함하고, 전면 입력부(203)와 후면 입력부(204)중 적어도 하나의 입력부를 통해 사용자의 터치 입력을 수신하고, 사용자의 터치 입력에 대응하여 오브젝트를 디스플레이한다. The transparent display 2501 includes a front input unit 203, a rear input unit 204, and a display unit 202, like the transparent display 201 of FIG. 2A, among the front input unit 203 and the rear input unit 204 A user's touch input is received through at least one input unit, and an object is displayed in response to the user's touch input.

저장부(2503)는 적어도 하나의 오브젝트에 대해 소정의 입력 인터페이스의 정보와 바람직한 실시 예에 따른 오브젝트 제어 방법 및 가이드 표시 방법을 수행하기 위한 프로그램을 저장한다. 즉, 도 26에 도시된 소프트웨어 구조도에 따른 데이터가 저장부(2503)에 저장될 수 있다. 도 2a의 저장부(211) 역시 도 26에 도시된 소프트웨어 구조도에 따른 프로그램 및 자원을 저장할 수 있다. The storage unit 2503 stores information on a predetermined input interface for at least one object and a program for performing an object control method and a guide display method according to an exemplary embodiment. That is, data according to the software structure diagram shown in FIG. 26 may be stored in the storage unit 2503. The storage unit 211 of FIG. 2A may also store programs and resources according to the software structure diagram shown in FIG. 26.

특히, 도 26에 도시된 각 오브젝트의 터치 모드 또는 소정의 사용자 입력 인터페이스에 대한 설정 값을 포함하는 터치 모드 데이터(2612), 입력 받은 터치를 구분하는 터치 입력구분(Touch input classification) 모듈(2622) 및 터치 모드 추정(Touch Mode estimation) 모듈(2664)이 주로 이용될 수 있다. In particular, touch mode data 2612 including setting values for a touch mode of each object or a predetermined user input interface shown in FIG. 26, and a touch input classification module 2622 for classifying an input touch. And a touch mode estimation module 2664 may be mainly used.

도 26은 바람직한 실시 예에 따른 투명 디스플레이를 포함하는 디바이스의 저장부에 저장되는 소프트웨어 계층을 설명하기 위한 도면이다. 26 is a diagram for explaining a software layer stored in a storage unit of a device including a transparent display according to an exemplary embodiment.

도 26을 참조하면, 소프트웨어 계층은 스토리지 모듈(storage module)(2600), 센서 인식 모듈(sensor & recognition module)(2620), 메시징 모듈(messaging module)(2650), 텔레포니 모듈(telephony module)(2640), 멀티 미디어 모듈(multimedia module)(2665), UI & 그래픽 모듈(2661) 및 리젠 모듈(legend module)(2670)를 포함하나 이로 제한되지 않는다. Referring to Figure 26, the software layer is a storage module (storage module) 2600, a sensor recognition module (sensor & recognition module) 2620, a messaging module (messaging module) 2650, a telephony module (telephony module) 2640 ), a multimedia module 2665, a UI & graphics module 2661, and a legend module 2670, but are not limited thereto.

스토리지 모듈(2600)은 주소록, 환경 정보 등의 일반적인 데이터 저장소인 시스템 데이터베이스(2611) 및 본 발명에 따른 각 오브젝트의 터치 모드에 대한 설정 값을 저장하는 터치 모드 데이터 영역(2612)를 포함한다. The storage module 2600 includes a system database 2611, which is a general data storage such as address book and environment information, and a touch mode data area 2612 for storing setting values for a touch mode of each object according to the present invention.

센서 인식 모듈(2620)은 전면 입력부(203) 및 후면 입력부(204)에서의 터치를 인식하는 모듈(2621), 입력받은 터치를 구분하는 모듈(2622)를 포함한다. 입력 받는 터치를 구분하는 모듈(2622)은 전면 입력부(203)에 대한 입력을 이벤트 처리기(2662)로 전달하는 전면 입력모드(2623), 후면 입력부(204)에 대한 입력을 이벤트 처리기(2662)로 전달하는 후면 입력 모드(2624), 양면 터치(203 204 모두 터치)에 대한 입력을 이벤트 처리기(2662)로 전달하는 듀얼 모드(2625)를 포함한다. The sensor recognition module 2620 includes a module 2621 for recognizing a touch at the front input unit 203 and the rear input unit 204, and a module 2622 for identifying an input touch. The module 2622 for classifying an input touch is a front input mode 2623 that delivers an input to the front input unit 203 to the event processor 2662, and an input to the rear input unit 204 to the event processor 2662. It includes a rear input mode 2624 and a dual mode 2625 which transfers inputs for double-sided touches 203 and 204 to the event processor 2662.

메시지 모듈(2650)은 인터넷 연결을 통해 사용자간 대화 가능한 모듈인 인스턴트 모듈(2651), 단문 및 멀티미디어 메시지에 대한 모듈(2652), 이메일을 보내기 위한 모듈(2653)을 포함한다. The message module 2650 includes an instant module 2651, which is a module capable of conversation between users through an Internet connection, a module 2652 for short text and multimedia messages, and a module 2603 for sending an e-mail.

텔레포니 모듈(2640)은 전화 연결을 위한 정보 수집 모듈(2642), VoIP(Voice over Internet Protocol) 기반으로 인터넷을 통해 음성을 전송하는 음성 서비스 모듈(2641)를 포함한다. The telephony module 2640 includes an information collection module 2642 for telephone connection, and a voice service module 2641 for transmitting voice through the Internet based on Voice over Internet Protocol (VoIP).

멀티미디어 모듈(2665)는 동영상 재생 모듈(2666), 동영상 및 스틸 사진 촬영 모듈(2667), 음성 재생 모듈(2668)을 포함한다. The multimedia module 2665 includes a moving picture playback module 2666, a moving picture and still picture taking module 2667, and a voice playback module 2668.

UI & 그래픽 모듈(2661)은 윈도우 메니저로 터치 입력을 받는 모듈인 X11(2662), 사용자에게 보여지는 모든 오브젝트를 화면상에 출력해주는 모듈(2663), 및 오브젝트별로 저장된 모드 설정값과 현재 터치 입력에 대한 추정 모듈(2664)를 포함한다. The UI & graphic module 2661 is a module that receives touch input through a window manager, X11 (2662), a module (2663) that outputs all objects displayed to the user on the screen, and mode setting values stored for each object and current touch input. And an estimation module 2664 for.

이상과 같이 저장부(2503)에는 다양한 구조의 프로그램이 저장되어 있을 수 있으며, 도 26에 도시된 바로 제한되지 않는다. As described above, programs having various structures may be stored in the storage unit 2503, and the display in FIG. 26 is not limited thereto.

프로세서(2502)는 저장부(2503)에 저장된 프로그램을 이용하여 상술한 다양한 실시 예에 따른 동작을 수행할 수 있다. 프로세서(2502)는 적어도 하나의 오브젝트가 디스플레이 되도록 투명 디스플레이를 제어하고, 적어도 하나의 입력 인터페이스를 통해 수신된 사용자의 입력이 오브젝트에 대해 소정의 입력 인터페이스로 입력되었는지를 판단하고, 판단에 기초하여 오브젝트를 제어한다. The processor 2502 may perform operations according to various embodiments described above by using a program stored in the storage unit 2503. The processor 2502 controls the transparent display so that at least one object is displayed, determines whether a user's input received through at least one input interface is input to the object through a predetermined input interface, and based on the determination, the object Control.

본 발명의 실시 예들에 따른 오브젝트 제어 방법 또는 가이드 디스플레이 방법을 컴퓨터로 구현하는 방법을 수행하도록 하는 명령어들을 포함하는 하나 이상의 프로그램은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로써 기록되는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 저장 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드로써 저장되고 실행될 수 있다. One or more programs including instructions for performing a method of implementing an object control method or a guide display method according to embodiments of the present invention with a computer are recorded as computer-readable codes on a computer-readable recording medium. It is possible. The computer-readable recording medium includes all types of storage devices storing data that can be read by a computer system. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage. In addition, the computer-readable recording medium can be distributed over a network-connected computer system, and stored and executed as computer-readable codes in a distributed manner.

이제까지 본 발명에 대하여 그 바람직한 실시 예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다. So far, the present invention has been looked at around its preferred embodiments. Those of ordinary skill in the art to which the present invention pertains will be able to understand that the present invention can be implemented in a modified form without departing from the essential characteristics of the present invention. Therefore, the disclosed embodiments should be considered from an illustrative point of view rather than a limiting point of view. The scope of the present invention is shown in the claims rather than the foregoing description, and all differences within the scope equivalent thereto should be construed as being included in the present invention.

Claims (30)

투명 디스플레이를 포함하는 디바이스에 의해 수행되는 오브젝트 제어 방법에 있어서,
상기 투명 디스플레이상에 제 1 오브젝트와 제 2 오브젝트를 디스플레이 하는 단계;
상기 제 1 오브젝트와 상기 제 2 오브젝트가 디스플레이되고 있는 동안에 상기 투명 디스플레이의 제 1 면을 통해 상기 제 1 오브젝트에 대한 터치 입력이 수신됨에 따라 상기 제 1 오브젝트에 대응하는 기능을 수행하고, 상기 제 1 면은 상기 투명 디스플레이의 전면과 후면 중 하나인 단계; 및
상기 제 1 오브젝트와 상기 제 2 오브젝트가 디스플레이 되고 있는 동안에 상기 투명 디스플레이의 제 2 면을 통해 상기 제 2 오브젝트에 대한 터치 입력이 수신됨에 따라 상기 제 2 오브젝트에 대응하는 기능을 수행하고, 상기 제 2 면은 상기 투명 디스플레이의 전면과 후면 중 다른 하나인 단계; 및
상기 투명 디스플레이의 상기 제 1 면을 통해 상기 제 1 오브젝트에 대한 터치 입력과 상기 제 2 면을 통해 상기 제 2 오브젝트에 대한 터치 입력이 동시에 수신됨에 따라 상기 제 1 오브젝트를 제어하는 기능과 상기 제 2 오브젝트를 제어하는 기능을 동시에 수행하는 단계를 포함하는 오브젝트 제어 방법.
In the object control method performed by a device including a transparent display,
Displaying a first object and a second object on the transparent display;
While the first object and the second object are being displayed, as a touch input for the first object is received through the first surface of the transparent display, a function corresponding to the first object is performed, and the first A surface being one of a front surface and a rear surface of the transparent display; And
While the first object and the second object are being displayed, as a touch input for the second object is received through the second surface of the transparent display, a function corresponding to the second object is performed, and the second object The surface being the other one of the front and rear surfaces of the transparent display; And
As a touch input for the first object through the first surface of the transparent display and a touch input for the second object through the second surface are simultaneously received, a function of controlling the first object and the second Object control method comprising the step of simultaneously performing a function of controlling the object.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 제 1 항에 있어서, 상기 제 2 오브젝트를 제어하는 기능은 상기 제 2 오브젝트의 디스플레이 상태를 변경하는 것을 포함하는 오브젝트 제어 방법. The method of claim 1, wherein the function of controlling the second object comprises changing a display state of the second object. 제 1 항에 있어서, 상기 제 2 오브젝트를 제어하는 기능은 상기 제 2 오브젝트를 이동시키는 것을 포함하는 오브젝트 제어 방법. The method of claim 1, wherein the function of controlling the second object comprises moving the second object. 제 1 항에 있어서, 상기 제 2 오브젝트를 제어하는 기능은 상기 제 1 오브젝트 위에 상기 제 2 오브젝트를 디스플레이 것을 포함하는 오브젝트 제어 방법.The method of claim 1, wherein the function of controlling the second object comprises displaying the second object on the first object. 제 1 항에 있어서, 상기 방법은
상기 제 1 면과 상기 제 2 면중 적어도 하나의 사전에 설정된 영역 이상을 활성화하는 터치 입력이 수신됨에 따라 상기 사전에 설정된 영역 이상을 활성화하는 상기 터치 입력이 수신되는 상기 투명 디스플레이의 상기 제 1 면과 상기 제 2 면중 적어도 하나의 투명도를 최대 값으로 설정하는 단계를 더 포함하는 오브젝트 제어 방법.
The method of claim 1, wherein the method
The first surface of the transparent display on which the touch input activating more than the preset area is received as a touch input for activating at least one of the first and second surfaces is received, and And setting the transparency of at least one of the second surfaces to a maximum value.
제 10 항에 있어서, 상기 방법은,
상기 사전에 설정된 영역 이상을 활성화하는 상기 터치 입력이 사전에 설정된 시간보다 적은 시간동안 유지되면, 상기 사전에 설정된 영역 이상을 활성화하는 상기 터치 입력이 수신되기 전의 상기 투명 디스플레이의 상기 제 1 면 및 상기 제 2 면중 적어도 하나의 상기 투명도로 리턴하는 단계를 더 포함하는 오브젝트 제어 방법.
The method of claim 10, wherein the method comprises:
When the touch input activating the preset area or more is maintained for a period less than a preset time, the first surface of the transparent display and the first surface of the transparent display before the touch input activating the preset area or more is received The object control method further comprising the step of returning the transparency of at least one of the second surface.
제 1 항에 있어서, 상기 방법은,
상기 제 1 오브젝트와 상기 제 2 오브젝트 중 적어도 하나에 대한 상기 투명 디스플레이의 표면에 관한 편집 요청에 응답하여 상기 제 1 오브젝트와 상기 제 2 오브젝트 중 적어도 하나에 대한 상기 제 1 면과 상기 제 2 면중 적어도 하나를 선택하기 위한 정보를 포함하는 편집 윈도우를 디스플레이 하는 단계;
상기 편집 윈도우를 통한 사용자 입력에 따라 상기 제 1 오브젝트와 상기 제 2 오브젝트 중 적어도 하나에 대응하는 면을 할당하는 단계; 및
상기 할당에 기초하여 상기 제 1 오브젝트 및 상기 제 2 오브젝트에 대응하는 상기 면에 관한 정보를 업데이트 하는 단계를 더 포함하는 오브젝트 제어 방법.
The method of claim 1, wherein the method comprises:
At least one of the first surface and the second surface for at least one of the first object and the second object in response to a request for editing a surface of the transparent display for at least one of the first object and the second object Displaying an edit window including information for selecting one;
Allocating a surface corresponding to at least one of the first object and the second object according to a user input through the edit window; And
And updating information on the surface corresponding to the first object and the second object based on the allocation.
삭제delete 제 1 항에 있어서, 상기 제 1 오브젝트에 대한 터치 입력이 상기 제 1 면을 통해 하나의 방향으로 사전에 설정된 길이 이상 이동하는 것을 포함하고,
상기 제 1 오브젝트를 제어하는 기능은 상기 터치 입력에 대응하는 방향으로 상기 제 1 오브젝트를 회전하여 상기 제 1 면에서 상기 제 2 면으로 변경하는 단계를 포함하고,
상기 제 2 오브젝트에 대한 상기 터치 입력이 상기 제 2 면을 통해 하나의 방향으로 사전에 설정된 길이 이상 이동하는 것을 포함하고,
상기 제 2 오브젝트를 제어하는 기능은 상기 터치 입력에 대응하는 방향으로 상기 제 2 오브젝트를 회전하여 상기 제 2 면을 상기 제 1 면으로 변경하는 단계를 포함하는 오브젝트 제어 방법.
The method of claim 1, wherein the touch input to the first object moves in one direction through the first surface by a predetermined length or more,
The function of controlling the first object includes rotating the first object in a direction corresponding to the touch input to change from the first surface to the second surface,
Including that the touch input for the second object moves more than a preset length in one direction through the second surface,
The function of controlling the second object includes changing the second surface to the first surface by rotating the second object in a direction corresponding to the touch input.
제 1 항에 있어서, 상기 제 2 오브젝트를 제어하는 기능은 상기 제 2 오브젝트의 상태에 기초한 터치 입력에 대응하는 인디케이터를 가변적으로 디스플레이 하는 단계를 포함하는 오브젝트 제어 방법. The method of claim 1, wherein the function of controlling the second object includes variably displaying an indicator corresponding to a touch input based on a state of the second object. 삭제delete 투명 디스플레이를 포함하는 디바이스에 의해 수행되는 오브젝트 제어 방법을 수행하기 위한 컴퓨터에 의해 실행되는 명령어들이 기록된 컴퓨터 기록 가능한 기록 매체에 있어서,
상기 오브젝트 제어 방법은,
상기 투명 디스플레이상에 제 1 오브젝트와 제 2 오브젝트를 디스플레이 하는 단계;
상기 제 1 오브젝트와 상기 제 2 오브젝트가 디스플레이되고 있는 동안에 상기 투명 디스플레이의 제 1 면을 통해 상기 제 1 오브젝트에 대한 터치 입력이 수신됨에 따라 상기 제 1 오브젝트에 대응하는 기능을 수행하고, 상기 제 1 면은 상기 투명 디스플레이의 전면과 후면 중 하나인 단계; 및
상기 제 1 오브젝트와 상기 제 2 오브젝트가 디스플레이 되고 있는 동안에 상기 투명 디스플레이의 제 2 면을 통해 상기 제 2 오브젝트에 대한 터치 입력이 수신됨에 따라 상기 제 2 오브젝트에 대응하는 기능을 수행하고, 상기 제 2 면은 상기 투명 디스플레이의 전면과 후면 중 다른 하나인 단계; 및
상기 투명 디스플레이의 상기 제 1 면을 통해 상기 제 1 오브젝트에 대한 터치 입력과 상기 제 2 면을 통해 상기 제 2 오브젝트에 대한 터치 입력이 동시에 수신됨에 따라 상기 제 1 오브젝트를 제어하는 기능과 상기 제 2 오브젝트를 제어하는 기능을 동시에 수행하는 단계를 포함하는 기록 매체.
A computer recordable recording medium in which instructions executed by a computer for performing an object control method performed by a device including a transparent display are recorded,
The object control method,
Displaying a first object and a second object on the transparent display;
While the first object and the second object are being displayed, as a touch input for the first object is received through the first surface of the transparent display, a function corresponding to the first object is performed, and the first A surface being one of a front surface and a rear surface of the transparent display; And
While the first object and the second object are being displayed, as a touch input for the second object is received through the second surface of the transparent display, a function corresponding to the second object is performed, and the second object The surface being the other one of the front and rear surfaces of the transparent display; And
As a touch input for the first object through the first surface of the transparent display and a touch input for the second object through the second surface are simultaneously received, a function of controlling the first object and the second A recording medium comprising the step of simultaneously performing a function of controlling an object.
디바이스에 있어서,
제 1 오브젝트와 제 2 오브젝트를 디스플레이 하는 투명 디스플레이;
제 1 면과 제 2 면 중 적어도 하나를 통해 터치 입력을 수신하고, 상기 제 1 면은 상기 투명 디스플레이의 전면과 상기 투명 디스플레이의 후면 중 하나이고, 상기 제 2 면은 상기 투명 디스플레이의 전면과 후면 중 다른 하나인 입력 인터페이스;
상기 제 1 오브젝트, 상기 제 2 오브젝트, 상기 제 1 면, 및 상기 제 2 면에 관한 정보를 저장하는 저장기; 및
상기 제 1 오브젝트와 상기 제 2 오브젝트를 디스플레이 하는 동안,
상기 투명 디스플레이의 상기 제 1 면을 통해 상기 제 1 오브젝트에 대한 터치 입력이 수신됨에 따라 상기 제 1 오브젝트에 대응하는 기능을 수행하고,
상기 투명 디스플레이의 상기 제 2 면을 통해 상기 제 2 오브젝트에 대한 터치 입력이 수신됨에 따라 상기 제 2 오브젝트에 대응하는 기능을 수행하고,
상기 제 1 오브젝트에 대한 터치 입력과 상기 제 2 오브젝트에 대한 터치 입력이 동시에 수신됨에 따라 상기 제 1 오브젝트를 제어하는 기능과 상기 제 2 오브젝트를 제어하는 기능을 동시에 수행하는 프로세서를 포함하는 디바이스.
In the device,
A transparent display displaying a first object and a second object;
A touch input is received through at least one of a first surface and a second surface, wherein the first surface is one of a front surface of the transparent display and a rear surface of the transparent display, and the second surface is a front surface and a rear surface of the transparent display. The other one of the input interface;
A storage unit that stores information on the first object, the second object, the first surface, and the second surface; And
While displaying the first object and the second object,
When a touch input for the first object is received through the first surface of the transparent display, a function corresponding to the first object is performed,
When a touch input for the second object is received through the second surface of the transparent display, a function corresponding to the second object is performed,
A device comprising a processor that simultaneously performs a function of controlling the first object and a function of controlling the second object as a touch input for the first object and a touch input for the second object are simultaneously received.
삭제delete 삭제delete 삭제delete 제 18 항에 있어서, 상기 제 2 오브젝트를 제어하는 기능은 상기 제 2 오브젝트의 상태에 기초한 터치 입력에 대응하는 인디케이터를 가변적으로 디스플레이 하는 것을 포함하는 디바이스.The device of claim 18, wherein the function of controlling the second object includes variably displaying an indicator corresponding to a touch input based on a state of the second object. 삭제delete 제 18 항에 있어서, 상기 프로세서는, 상기 제 1 면과 상기 제 2 면중 적어도 하나의 사전에 설정된 영역 이상을 활성화하는 터치 입력이 수신됨에 따라 상기 사전에 설정된 영역 이상을 활성화하는 상기 터치 입력이 수신되는 동안 상기 투명 디스플레이의 상기 제 1 면과 상기 제 2 면 중 적어도 하나의 투명도를 최대값으로 설정하기 위하여 상기 디바이스를 제어하도록 더 구성되는 디바이스.The method of claim 18, wherein the processor receives the touch input for activating the preset area or more as a touch input for activating at least one of the first and second surfaces is received. A device further configured to control the device to set the transparency of at least one of the first side and the second side of the transparent display to a maximum value while being used. 제 24 항에 있어서, 상기 프로세서는,
상기 사전에 설정된 영역 이상을 활성화하는 상기 터치 입력이 사전에 설정된 시간보다 적은 시간동안 유지되면, 상기 사전에 설정된 영역 이상을 활성화하는 상기 터치 입력이 수신되기 전의 상기 투명 디스플레이의 상기 제 1 면 및 상기 제 2 면 중 적어도 하나의 상기 투명도로 리턴하기 위하여 상기 디바이스를 제어하도록 더 구성되는 디바이스.
The method of claim 24, wherein the processor,
When the touch input activating the preset area or more is maintained for a period less than a preset time, the first surface of the transparent display and the first surface of the transparent display before the touch input activating the preset area or more is received A device further configured to control the device to return to the transparency of at least one of the second sides.
삭제delete 제 18 항에 있어서, 상기 제 2 오브젝트를 제어하는 기능은 상기 제 2 오브젝트의 디스플레이 상태를 변경하는 것을 포함하는 디바이스.19. The device of claim 18, wherein the function of controlling the second object comprises changing a display state of the second object. 제 18 항에 있어서, 상기 제 2 오브젝트를 제어하는 기능은 상기 제 2 오브젝트를 이동하는 것을 포함하는 디바이스.19. The device of claim 18, wherein the function of controlling the second object comprises moving the second object. 제 18 항에 있어서, 상기 제 2 오브젝트를 제어하는 기능은 상기 제 1 오브젝트 위에 상기 제 2 오브젝트를 디스플레이 하는 것을 포함하는 디바이스.19. The device of claim 18, wherein the function of controlling the second object comprises displaying the second object over the first object. 제 18 항에 있어서, 상기 프로세서는,
상기 제 1 오브젝트와 상기 제 2 오브젝트 중 적어도 하나에 대한 상기 투명 디스플레이의 표면에 관한 편집 요청에 응답하여, 상기 제 1 오브젝트와 상기 제 2 오브젝트 중 적어도 하나에 대한 상기 제 1 면과 상기 제 2 면 중 적어도 하나를 선택하기 위한 정보를 포함하는 편집 윈도우를 디스플레이 하고,
상기 편집 윈도우를 통한 사용자 입력에 따라 상기 제 1 오브젝트와 상기 제 2 오브젝트 중 적어도 하나에 대응되는 면을 할당하고,
상기 할당에 기초하여 상기 제 1 오브젝트 및 상기 제 2 오브젝트에 대응하는 상기 면에 관한 정보를 업데이트 하도록 더 구성되는 디바이스.
The method of claim 18, wherein the processor,
In response to a request for editing a surface of the transparent display for at least one of the first object and the second object, the first surface and the second surface for at least one of the first object and the second object Display an edit window including information for selecting at least one of,
Allocating a surface corresponding to at least one of the first object and the second object according to a user input through the edit window,
The device further configured to update information on the plane corresponding to the first object and the second object based on the assignment.
KR1020130036716A 2012-04-07 2013-04-04 Object control method performed in device including transparent display, the device, and computer readable recording medium thereof KR102164453B1 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
EP13162552.7A EP2648086A3 (en) 2012-04-07 2013-04-05 Object control method performed in device including transparent display, the device, and computer readable recording medium thereof
JP2015504507A JP6254147B2 (en) 2012-04-07 2013-04-08 Object control method in device having transparent display, device and recording medium
AU2013203018A AU2013203018B2 (en) 2012-04-07 2013-04-08 Object control method performed in device including transparent display, the device, and computer readable recording medium thereof
CN201380018937.5A CN104246683B (en) 2012-04-07 2013-04-08 The object control method, apparatus and its computer readable recording medium executed in the device for including transparent display
PCT/KR2013/002907 WO2013151400A1 (en) 2012-04-07 2013-04-08 Object control method performed in device including transparent display, the device, and computer readable recording medium thereof
US13/858,258 US10296127B2 (en) 2012-04-07 2013-04-08 Object control method performed in device including transparent display, the device, and computer readable recording medium thereof

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20120036405 2012-04-07
KR1020120036405 2012-04-07

Publications (2)

Publication Number Publication Date
KR20130113997A KR20130113997A (en) 2013-10-16
KR102164453B1 true KR102164453B1 (en) 2020-10-13

Family

ID=49634290

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130036716A KR102164453B1 (en) 2012-04-07 2013-04-04 Object control method performed in device including transparent display, the device, and computer readable recording medium thereof

Country Status (3)

Country Link
JP (1) JP6254147B2 (en)
KR (1) KR102164453B1 (en)
CN (1) CN104246683B (en)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6225911B2 (en) * 2012-10-01 2017-11-08 日本電気株式会社 Information processing apparatus, information processing method, and program
KR102063952B1 (en) 2012-10-10 2020-01-08 삼성전자주식회사 Multi display apparatus and multi display method
US20150212647A1 (en) 2012-10-10 2015-07-30 Samsung Electronics Co., Ltd. Head mounted display apparatus and method for displaying a content
ES2802255T3 (en) 2014-01-15 2021-01-18 Volkswagen Ag Method and device for signaling an entrance to a user
KR102243652B1 (en) * 2014-02-17 2021-04-23 엘지전자 주식회사 Display device and method for controlling the same
CN106233243B (en) * 2014-04-30 2021-02-12 惠普发展公司,有限责任合伙企业 Multi-architecture manager
US9804707B2 (en) * 2014-09-12 2017-10-31 Microsoft Technology Licensing, Llc Inactive region for touch surface based on contextual information
KR102358548B1 (en) 2014-10-15 2022-02-04 삼성전자주식회사 Method and appratus for processing screen using device
JP6567324B2 (en) * 2015-05-21 2019-08-28 シャープ株式会社 Image display device and head mounted display
CN105100609B (en) * 2015-07-10 2019-04-16 努比亚技术有限公司 The adjusting method of mobile terminal and acquisition parameters
CN105824458A (en) * 2016-01-29 2016-08-03 维沃移动通信有限公司 Photographing control method and mobile terminal
JP6195964B1 (en) * 2016-04-15 2017-09-13 ネイバー コーポレーションNAVER Corporation Application production apparatus and method, application drive apparatus, and computer program
KR20180003175A (en) * 2016-06-30 2018-01-09 삼성전자주식회사 Electronic apparatus and operating method thereof
EP3588254B1 (en) * 2017-02-22 2021-12-08 Sony Group Corporation Information processing device, method, and program
CN110456948B (en) * 2018-05-07 2023-04-18 苹果公司 User interface for recommending and consuming content on electronic devices
CN109271120A (en) * 2018-08-21 2019-01-25 维沃移动通信有限公司 A kind of display methods and terminal
JP6613512B1 (en) * 2018-08-31 2019-12-04 レノボ・シンガポール・プライベート・リミテッド Electronics
CN110312034B (en) * 2019-06-19 2021-02-02 Oppo广东移动通信有限公司 Transparent display screen control method and related equipment
CN110503912B (en) * 2019-08-23 2022-11-04 Oppo(重庆)智能科技有限公司 Display control method and device of transparent display screen and terminal equipment
JP2021068206A (en) 2019-10-24 2021-04-30 株式会社ジャパンディスプレイ Display device
CN114730580A (en) 2019-11-11 2022-07-08 苹果公司 User interface for time period based cull playlist
KR20220118751A (en) * 2021-02-19 2022-08-26 삼성전자주식회사 Electronic device including transparent display and operating method thereof

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6963937B1 (en) * 1998-12-17 2005-11-08 International Business Machines Corporation Method and apparatus for providing configurability and customization of adaptive user-input filtration
JP2003296022A (en) * 2002-04-01 2003-10-17 Pioneer Electronic Corp Touch panel integrated display device
JP3852368B2 (en) * 2002-05-16 2006-11-29 ソニー株式会社 Input method and data processing apparatus
KR100672354B1 (en) * 2004-03-06 2007-01-24 엘지전자 주식회사 Keypad of mobile
JP4884912B2 (en) * 2006-10-10 2012-02-29 三菱電機株式会社 Electronics
US7979805B2 (en) * 2007-05-21 2011-07-12 Microsoft Corporation Button discoverability
JP2009187290A (en) * 2008-02-06 2009-08-20 Yamaha Corp Controller with touch panel and program
US20090235281A1 (en) * 2008-03-12 2009-09-17 Inventec Corporation Handheld electronic device, input device and method thereof, and display device and method thereof
JP4762262B2 (en) * 2008-03-13 2011-08-31 シャープ株式会社 Information display device and information display method
JP5353090B2 (en) * 2008-06-27 2013-11-27 株式会社ニコン digital photo frame
KR101592296B1 (en) * 2008-09-03 2016-02-05 엘지전자 주식회사 Mobile terminal and method for selection and activation object thereof
KR101544364B1 (en) * 2009-01-23 2015-08-17 삼성전자주식회사 Mobile terminal having dual touch screen and method for controlling contents thereof
US8493364B2 (en) * 2009-04-30 2013-07-23 Motorola Mobility Llc Dual sided transparent display module and portable electronic device incorporating the same
EP2282256A1 (en) * 2009-08-04 2011-02-09 Deutsche Telekom AG Electronic device and method for controlling an electronic device
JP2011070609A (en) * 2009-09-28 2011-04-07 Fujitsu Ltd Information terminal device with touch panel, method and program for controlling display
JP5363259B2 (en) * 2009-09-29 2013-12-11 富士フイルム株式会社 Image display device, image display method, and program
EP2341418A1 (en) * 2009-12-31 2011-07-06 Sony Computer Entertainment Europe Limited Device and method of control
KR20110081040A (en) * 2010-01-06 2011-07-13 삼성전자주식회사 Method and apparatus for operating content in a portable terminal having transparent display panel
CN102004614B (en) * 2010-12-30 2013-06-19 Tcl集团股份有限公司 Dual-screen touch sensible display electronic device and realization method thereof
JP5784960B2 (en) * 2011-04-26 2015-09-24 京セラ株式会社 Mobile terminal, touch panel operation program, and touch panel operation method
CN102360254A (en) * 2011-09-28 2012-02-22 广东美的电器股份有限公司 Touch display screen and terminal equipment using same

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
미국공개특허 제2010-0277439호(2010.11.04.) 1부.*
일본공개특허 제2003-330611호(2003.11.21.) 1부.*
일본공개특허 제2009-187290호(2009.08.20.) 1부.*
한국공개특허 제10-2010-0027866호(2010.03.11.) 1부.*
한국공개특허 제10-2010-0086639호(2010.08.02.) 1부.*
한국공개특허 제10-2011-0081040호(2011.07.13.) 1부.*

Also Published As

Publication number Publication date
KR20130113997A (en) 2013-10-16
JP6254147B2 (en) 2017-12-27
CN104246683B (en) 2019-04-16
CN104246683A (en) 2014-12-24
JP2015512549A (en) 2015-04-27

Similar Documents

Publication Publication Date Title
KR102164453B1 (en) Object control method performed in device including transparent display, the device, and computer readable recording medium thereof
US10296127B2 (en) Object control method performed in device including transparent display, the device, and computer readable recording medium thereof
US10788977B2 (en) System and method for displaying information on transparent display device
US10470538B2 (en) Portable terminal and display method thereof
US9865224B2 (en) Transparent display apparatus and display method thereof
KR102063952B1 (en) Multi display apparatus and multi display method
US9348504B2 (en) Multi-display apparatus and method of controlling the same
KR102042169B1 (en) User termincal device for displaying contents and methods thereof
US10222840B2 (en) Display apparatus and controlling method thereof
US20160357221A1 (en) User terminal apparatus and method of controlling the same
US9395823B2 (en) User terminal device and interaction method thereof
EP2720127A2 (en) Display device and method of providing tool therefor
AU2018223043B2 (en) Portable terminal and display method thereof
KR20140017420A (en) Transparent display apparatus and method thereof
KR102255832B1 (en) System and method for displaying information on transparent display device
AU2015200541A1 (en) Object control method performed in device including transparent display, the device, and computer readable recording medium thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant