KR20130113997A - 투명 디스플레이를 포함하는 디바이스에서 오브젝트 제어 방법 및 그 디바이스와 기록 매체 - Google Patents

투명 디스플레이를 포함하는 디바이스에서 오브젝트 제어 방법 및 그 디바이스와 기록 매체 Download PDF

Info

Publication number
KR20130113997A
KR20130113997A KR1020130036716A KR20130036716A KR20130113997A KR 20130113997 A KR20130113997 A KR 20130113997A KR 1020130036716 A KR1020130036716 A KR 1020130036716A KR 20130036716 A KR20130036716 A KR 20130036716A KR 20130113997 A KR20130113997 A KR 20130113997A
Authority
KR
South Korea
Prior art keywords
input interface
input
display
predetermined
user
Prior art date
Application number
KR1020130036716A
Other languages
English (en)
Other versions
KR102164453B1 (ko
Inventor
윤일국
이창수
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to EP13162552.7A priority Critical patent/EP2648086A3/en
Priority to PCT/KR2013/002907 priority patent/WO2013151400A1/en
Priority to US13/858,258 priority patent/US10296127B2/en
Priority to AU2013203018A priority patent/AU2013203018B2/en
Priority to CN201380018937.5A priority patent/CN104246683B/zh
Priority to JP2015504507A priority patent/JP6254147B2/ja
Publication of KR20130113997A publication Critical patent/KR20130113997A/ko
Application granted granted Critical
Publication of KR102164453B1 publication Critical patent/KR102164453B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04804Transparency, e.g. transparent or translucent windows

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

디스플레이를 포함하는 디바이스에 의해 수행되는 오브젝트 제어 방법, 및 그 디바이스와 기록 매체를 제공한다. 오브젝트 제어 방법은, 상기 디스플레이에 적어도 하나의 오브젝트를 디스플레이 하는 단계; 상기 디스플레이의 입력 인터페이스를 통해 입력을 수신하고, 상기 입력 인터페이스는 제 1 입력 인터페이스 및 제 2 입력 인터페이스중 적어도 하나를 포함하는 단계; 및 상기 입력 수신에 응답하여, 상기 입력 인터페이스가 상기 제 1 입력 인터페이스이고, 소정의 입력 인터페이스가 상기 제 1 입력 인터페이스이면, 상기 디바이스의 상기 소정의 입력 인터페이스에 관련된 제 1 기능을 수행하고, 상기 입력 인터페이스가 상기 제 2 입력 인터페이스이고, 상기 소정의 입력 인터페이스가 상기 제 2 입력 인터페이스이면, 상기 소정의 입력 인터페이스에 관련된 제 2 기능을 수행하는 단계를 포함한다.

Description

투명 디스플레이를 포함하는 디바이스에서 오브젝트 제어 방법 및 그 디바이스와 기록 매체{Object control method performed in device including transparent display, the device, and computer readable recording medium thereof}
본 발명은 투명 디스플레이를 포함하는 디바이스에 관한 것으로, 특히 투명 디스플레이를 포함하는 디바이스에서 오브젝트 제어 방법 및 그 디바이스와 기록 매체에 관한 것이다.
최근 투명 디스플레이를 포함하는 차세대 디스플레이 디바이스가 개발되고 있다. 투명 디스플레이는 사용자가 디스플레이를 통해 볼 수 있고, 디스플레이 뒤의 오브젝트들을 볼 수 있는 투명도를 갖는다.
투명 디스플레이를 포함하는 디바이스는 정보 인식, 정보 처리, 및 정보 전달을 포함하는 동작을 수행하는 디바이스가 될 수 있다. 이 동작들은 또한 투명 전자 소자를 이용하여 수행될 수 있다.
투명 디스플레이의 가용성(availability)은 투명 디스플레이를 포함하는 디바이스들과 상호 작용하는 새롭고 혁신적인 방법과 투명 디스플레이를 포함하는 디바이스에 대한 유저 인터페이스의 기능을 확장하기 위한 방법에 대한 요구를 만들고 있다.
본 발명이 해결하고자 하는 과제는 투명 디스플레이를 포함하는 디바이스의 전면, 후면, 및 양면에 대한 터치와 같은 입력기반으로 오브젝트를 제어하는 방법 및 그 디바이스와 기록 매체를 제공하는데 있다.
본 발명이 해결하고자 하는 다른 과제는 투명 디스플레이를 포함하는 디바이스에서 오브젝트의 상태 또는 디스플레이 상태에 따른 가이드(guide) 디스플레이 방법 및 그 디바이스와 기록 매체를 제공하는데 있다.
본 발명이 해결하고자 하는 또 다른 과제는 투명 디스플레이를 포함하는 디바이스에서 오브젝트별로 설정된 터치 인터페이스를 사용하여 오브젝트를 제어하는 방법 및 그 디바이스와 기록 매체를 제공하는데 있다.
상기 과제를 달성하기 위한 바람직한 실시 예에 따른 디스플레이를 포함하는 디바이스에 의해 수행되는 오브젝트 제어 방법은, 상기 디스플레이에 적어도 하나의 오브젝트를 디스플레이 하는 단계; 상기 디스플레이의 입력 인터페이스를 통해 입력을 수신하고, 상기 입력 인터페이스는 제 1 입력 인터페이스와 제 2 입력 인터페이스중 적어도 하나를 포함하는 단계; 상기 입력 수신에 응답하여 상기 입력 인터페이스가 상기 제 1 입력 인터페이스이고 소정의 입력 인터페이스가 상기 제 1 입력 인터페이스이면, 상기 디바이스의 상기 소정 입력 인터페이스와 관련된 제 1 기능을 수행하는 단계; 및 상기 입력 인터페이스가 제 2 입력 인터페이스이고, 상기 소정의 입력 인터페이스가 상기 제 2 입력 인터페이스이면, 상기 소정의 입력 인터페이스와 관련된 제 2 기능을 수행하는 단계를 포함하는 것이 바람직하다.
상기 수행 단계는 상기 입력 인터페이스가 상기 제 1 입력 인터페이스와 상기 제 2 입력 인터페이스 둘이고, 상기 소정의 입력 인터페이스가 상기 제 1 입력 인터페이스와 상기 제 2 입력 인터페이스 둘이면, 상기 소정의 입력 인터페이스와 관련된 제 3 기능을 수행하는 단계를 더 포함할 수 있다.
상기 디스플레이는 투명 디스플레이가 될 수 있다.
상기 제 1 입력 인터페이스는 상기 투명 디스플레이의 전면과 후면중 적어도 하나가 될 수 있고, 상기 제 2 입력 인터페이스는 상기 투명 디스플레이의 상기 전면과 상기 후면중 하나의 또 다른 하나가 될 수 있다.
상기 입력은 적어도 하나의 오브젝트에 대응될 수 있고, 상기 소정의 입력 인터페이스는 상기 적어도 하나의 오브젝트에 대응될 수 있고, 상기 적어도 하나의 오브젝트의 디스플레이 환경과 상기 적어도 하나의 오브젝트의 동작중 적어도 하나에 따라 설정될 수 있다.
상기 적어도 하나의 오브젝트는 제 1 오브젝트와 상기 제 1 오브젝트의 전면에 디스플레이 되고 있는 제 2 오브젝트를 포함할 수 있고, 상기 제 2 기능은 상기 제 2 오브젝트의 디스플레이 상태를 변경하는 단계를 포함할 수 있다.
상기 적어도 하나의 오브젝트는 제 1 계층(first layer) 아래에 제 2 계층(second layer)에 디스플레이 되고 있는 제 2 윈도우를 부분적으로 오버랩하는 제 1 계층에 디스플레이 되고 있는 제 1 윈도우를 포함할 수 있고, 상기 제 2 기능은 상기 제 2 윈도우를 이동하는 단계를 포함할 수 있다.
상기 적어도 하나의 오브젝트는 제 1 계층(first layer) 아래에 제 2 계층(second layer)에 디스플레이 되고 있는 제 2 윈도우를 부분적으로 오버랩하는 제 1 계층에 디스플레이 되고 있는 제 1 윈도우를 포함할 수 있고, 상기 제 2 기능은 상기 제 1 윈도우 위에 상기 제 2 윈도우를 디스플레이 하는 단계를 포함할 수 있다.
상기 입력은 상기 제 2 입력 인터페이스의 소정 영역 이상 터치하는 단계를 포함할 수 있고, 상기 제 2 기능은 상기 디스플레이의 투명도를 최대 값으로 설정하는 단계를 포함할 수 있다. 상기 제 2 입력 인터페이스의 상기 소정 영역 이상 터치하는 입력이 소정 시간 이상 유지되지 않으면, 상기 제 2 기능은 상기 제 2 입력 인터페이스의 터치 단계 이전 화면(screen)으로 리턴하는 단계를 포함한다.
상기 방법은 상기 적어도 하나의 오브젝트와 관련된 입력 인터페이스 편집 요청에 응답하여 상기 적어도 하나의 오브젝트에 관련된 상기 소정의 입력 인터페이스에 관한 정보를 포함하는 편집 윈도우를 디스플레이 하는 단계; 및 상기 편집 윈도우에서 상기 유저의 입력에 따른 상기 적어도 하나의 오브젝트에 관한 상기 소정의 입력 인터페이스에 관한 정보를 업데이트 하는 단계를 더 포함할 수 있다.
상기 적어도 하나의 오브젝트는 제 1 오브젝트와 제 2 오브젝트를 포함할 수 있고, 상기 입력은 상기 제 1 입력 인터페이스를 통해 수신된 상기 제 1 오브젝트에 관한 제 1 입력 및 상기 제 2 입력 인터페이스를 통해 수신된 상기 제 2 오브젝트에 관한 제 2 입력을 포함하고, 상기 제 1 기능은 상기 제 2 오브젝트와 동시에 상기 제 1 입력 인터페이스를 통해 수신된 상기 제 1 입력에 따라 상기 제 1 오브젝트를 제어하는 단계를 포함하고, 상기 제 2 기능은 상기 제 1 오브젝트와 동시에 상기 제 2 입력 인터페이스를 통해 수신된 상기 제 2 입력에 따라 상기 제 2 오브젝트를 제어하는 단계를 포함할 수 있다.
상기 입력은 상기 적어도 하나의 오브젝트에 관한 제스처(gesture)를 포함할 수 있다. 상기 제스처는 상기 소정의 입력 인터페이스를 통해 일 방향으로 소정 길이 이상 이동하는 단계를 포함할 수 있다. 상기 제 1 기능은 상기 제스처에 대응하는 방향으로 상기 적어도 하나의 오브젝트를 회전하여 상기 소정의 입력 인터페이스를 상기 제 2 입력 인터페이스로 변경하는 단계를 포함할 수 있다. 상기 제 2 기능은 상기 제스처에 대응하는 방향으로 상기 적어도 하나의 오브젝트를 회전하여 상기 소정의 입력 인터페이스를 상기 제 1 입력 인터페이스로 변경하는 단계를 포함할 수 있다.
상기 제 2 기능은 상기 적어도 하나의 오브젝트의 상태 또는 상기 디스플레이의 상태에 기초하여 상기 입력에 대응하는 가이드를 가변적으로 디스플레이 하는 단계를 포함할 수 있다.
상기 제 2 기능은 상기 입력의 위치에 대응하는 가이드를 디스플레이 하는 단계를 포함할 수 있다.
상기 방법은 상기 방법을 수행하기 위한 명령어들을 포함하는 비 일시적인(non-transitory) 컴퓨터 기록 가능한 매체에 구현될 수 있다.
상기 과제를 달성하기 위한 바람직한 실시 예에 따른 오브젝트 제어 방법을 수행하는 디바이스는, 적어도 하나의 오브젝트를 디스플레이 하는 디스플레이; 제 1 입력 인터페이스와 제 2 입력 인터페이스중 적어도 하나를 통해 입력을 수신하는 입력 인터페이스; 소정의 입력 인터페이스를 저장하는 저장기; 상기 입력 수신에 응답하여, 상기 입력 인터페이스가 상기 제 1 입력 인터페이스이고 상기 소정의 입력 인터페이스가 상기 제 1 입력 인터페이스이면, 상기 소정의 입력 인터페이스에 관련된 제 1 기능을 수행하고, 상기 입력 인터페이스가 제 2 입력 인터페이스이고 상기 소정의 입력 인터페이스는 상기 제 2 입력 인터페이스이면, 상기 소정의 입력 인터페이스와 관련된 제 2 기능을 수행하는 프로세서를 포함할 수 있다.
상기 프로세서는 또한 상기 입력 인터페이스가 상기 제 1 입력 인터페이스와 상기 제 2 입력 인터페이스 둘이고, 상기 소정의 입력 인터페이스가 상기 제 1 입력 인터페이스와 상기 제 2 입력 인터페이스 둘이면, 상기 소정의 입력 인터페이스에 관련된 제 3 기능을 수행할 수 있다.
상기 디스플레이는 투명 디스플레이가 될 수 있다.
상기 제 1 입력 인터페이스는 상기 투명 디스플레이의 전면과 후면중 적어도 하나가 될 수 있고, 상기 제 2 입력 인터페이스는 상기 투명 디스플레이의 상기 전면과 상기 후면중 하나의 또 다른 하나가 될 수 있다.
상기 제 2 기능은 상기 적어도 하나의 오브젝트의 상태 또는 상기 디스플레이의 상태에 기초하여 상기 입력에 대응하는 가이드를 가변적으로 디스플레이 하는 것을 포함할 수 있다.
상기 제 2 기능은 상기 입력의 위치에 대응하는 가이드를 디스플레이 하는 것을 포함할 수 있다.
상기 입력은 상기 제 2 입력 인터페이스의 소정 영역 이상 터치하는 것을 포함할 수 있고, 상기 제 2 기능은 상기 디스플레이의 투명도를 최대 값으로 설정하는 것을 포함할 수 있다. 상기 제 2 입력 인터페이스의 상기 소정 영역 이상 터치하는 입력이 소정 시간 이상 유지되지 않으면, 상기 제 2 기능은 상기 제 2 입력 인터페이스의 터치 하기 이전 화면(screen)으로 리턴되는 것을 포함한다.
상기 입력은 적어도 하나의 오브젝트에 대응될 수 있고, 상기 소정의 입력 인터페이스는 제 1 입력 인터페이스와 제 2 입력 인터페이스중 적어도 하나이고, 상기 적어도 하나의 오브젝트에 대응될 수 있고, 상기 적어도 하나의 오브젝트의 디스플레이 환경과 상기 적어도 하나의 오브젝트의 동작중 적어도 하나에 따라 설정될 수 있다.
상기 적어도 하나의 오브젝트는 제 1 오브젝트와 제 2 오브젝트를 포함할 수 있고, 상기 제 2 기능은 상기 제 1 오브젝트의 전면에 디스플레이 되고 있는 상기 제 2 오브젝트의 디스플레이 상태를 변경하는 것을 포함할 수 있다.
상기 적어도 하나의 오브젝트는 제 1 계층(first layer) 아래에 제 2 계층(second layer)에 디스플레이 되고 있는 제 2 윈도우를 부분적으로 오버랩하는 제 1 계층에 디스플레이 되고 있는 제 1 윈도우를 포함할 수 있고, 상기 제 2 기능은 상기 제 2 윈도우를 이동하는 것을 포함할 수 있다.
상기 적어도 하나의 오브젝트는 제 1 계층(first layer) 아래에 제 2 계층(second layer)에 디스플레이 되고 있는 제 2 윈도우를 부분적으로 오버랩하는 제 1 계층에 디스플레이 되고 있는 제 1 윈도우를 포함할 수 있고, 상기 제 2 기능은 상기 제 1 계층 아래에 상기 제 2 계층으로부터 상기 제 2 윈도우를 이동하는 것, 및 상기 제 1 윈도우 위에 상기 제 2 윈도우를 디스플레이 하는 것을 포함할 수 있다.
상기 프로세서는, 상기 적어도 하나의 오브젝트에 대한 입력 인터페이스 편집 요청에 응답하여, 상기 적어도 하나의 오브젝트에 관한 상기 소정의 입력 인터페이스에 관한 정보를 포함하는 편집 윈도우를 디스플레이 하는 것; 및 상기 편집 윈도우에서 상기 사용자의 입력에 따라 상기 적어도 하나의 오브젝트에 관한 상기 소정의 입력 인터페이스에 관한 정보를 업데이트 하는 것을 수행할 수 있다.
도 1은 바람직한 실시 예에 따른 오브젝트들과 오브젝트의 사용자 입력 인터페이스 설정을 설명하기 위한 도면이다.
도 2a는 바람직한 실시 예에 따른 투명 디스플레이를 포함하는 디바이스의 블록도이다.
도 2b는 도 2a의 투명 디스플레이의 상세 구조의 단면도이다.
도 3은 바람직한 실시 예에 따른 투명 디스플레이를 포함하는 디바이스에 의해 수행되는 오브젝트 제어 방법의 흐름도이다.
도 4 내지 도 20은 도 3의 오브젝트 제어 방법중에서 디스플레이 되고 있는 화면의 예들을 설명한다.
도 21은 바람직한 다른 실시 예에 따른 투명 디스플레이를 포함하는 디바이스에 의해 수행되는 오브젝트 제어 방법의 흐름도이다.
도 22a 및 도 22b는 도 21의 오브젝트 제어 방법을 사용하여 사용자 입력 인터페이스를 변경하는 동안에 디스플레이 되는 화면의 예를 설명한다.
도 23은 바람직한 또 다른 실시 예에 따른 투명 디스플레이를 포함하는 디바이스에서 가이드 디스플레이의 디스플레이 방법의 흐름도이다.
도 24는 가이드를 디스플레이하는 화면의 예들을 설명한다.
도 25는 바람직한 실시 예에 따른 투명 디스플레이를 포함하는 디바이스의 블록도이다.
도 26은 바람직한 실시 예에 따른 투명 디스플레이를 포함하는 디바이스의 저장부에 저장되는 소프트웨어를 설명하는 도면이다.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 본 출원에서 사용한 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나 이는 당 분야에 종사하는 기술자의 의도, 판례, 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
명세서 전반에서 언급되는 오브젝트(object)는 디스플레이 되고 있는 모든 구성요소(component) 또는 정보로서, 사용자 입력에 의해 선택되어 사용자의 의도에 따라 제어될 수 있는 구성요소 또는 정보를 의미한다. 오브젝트는 예를 들어 제 1 이미지, 제 1 이미지에 포함된 제 2 이미지, 배경 이미지, 아이콘(icon), 폴더 아이콘(folder icon), 폴더 아이콘에 포함된 아이콘, 텍스트(text), 팝업 창(pop-up window), 어플리케이션 실행 창, 어플리케이션 실행 창에 포함된 컨텐츠(content), 리스트(list), 리스트에 포함된 아이템(item), 컨텐츠(content) 등을 포함할 수 있으나 이로 제한되지 않는다.
오브젝트는 오브젝트를 위해 설정된 사용자 입력 인터페이스(터치 입력 면과 같은 사용자 입력 인터페이스)를 통한 사용자의 입력(터치 입력과 같은 사용자의 입력)에 의해 디스플레이 될 수 있다. 예를 들어, 오브젝트는 투명 디스플레이를 포함하는 디바이스에서 수행되고 있는 기능에 따라 숨겨져 있다가 사용자의 입력에 따라 활성화(activation)되어 디스플레이 될 수 있다.
도 1은 바람직한 실시 예에 따른 오브젝트들과 오브젝트 각각에 대해 설정된 사용자 입력 인터페이스를 설명하기 위한 도면이다.
도 1을 참조하면, 리스트가 디스플레이 될 때, 스크롤 박스(scroll box), 아이템 박스(item box), 아이템 박스에 포함된 아이콘(icon) 등이 오브젝트들이다. 사용자는 사용자 입력 인터페이스를 이용하여 오브젝트에 대한 명령을 입력할 수 있다.
도 1은 오브젝트간의 계층적인(hierarchical) 관계의 예를 도시한다. 도 1에 도시된 스크롤 박스가 최상위 계층(layer)의 오브젝트이고, 아이콘이 최하위 계층의 오브젝트이다. 다시 말해서 도 1은 스크롤 박스 오브젝트의 하위 계층(sub-layer)에 복수의 아이템 박스 오브젝트가 포함되고, 각 아이템 박스 오브젝트의 하위 계층(sub-layer)에 아이콘 오브젝트가 포함된 경우이다.
도 1에 도시된 바와 같이 각 오브젝트에 대한 사용자 입력 인터페이스는 사전에 설정될 수 있다. 각 오브젝트의 사용자 입력 인터페이스는 각 오브젝트를 운영하기 위한 프로그램 제작시 설정되나 상위 계층의 오브젝트를 위하여 설정된 사용자 입력 인터페이스에 따라 설정될 수 있다.
예를 들어, 도 1에 도시된 아이콘의 사용자 입력 인터페이스가 각 오브젝트를 포함하는 프로그램 제작시 설정되지 않은 경우에, 아이콘의 사용자 입력 인터페이스는 아이템 박스에 설정된 사용자 입력 인터페이스에 따라 설정될 수 있다. 이는 아이템 박스가 상기 아이콘의 페어런트 계층(parent layer)이고, 상기 아이콘이 상기 아이템 박스의 서브 계층이기 때문이다. 아이콘의 사용자 입력 인터페이스의 설정은 아이콘이 디스플레이 될 때 수행될 수 있다. 아이템 박스와 아이콘의 사용자 입력 인터페이스가 각 오브젝트를 포함하는 프로그램 제작 시 설정되지 않은 경우에, 스크롤 박스와 아이콘의 사용자 입력 인터페이스는 스크롤 박스의 사전에 설정된 사용자 입력 인터페이스에 따라 설정될 수 있다. 이는 상기 아이템 박스와 상기 아이콘이 상기 스크롤 박스의 서브 계층이기 때문이다. 이 경우에도 아이템 박스 및 아이콘이 디스플레이 될 때 아이템 박스 및 아이콘의 사용자 입력 인터페이스가 상기 스크롤 박스의 사용자 입력 인터페이스에 따라 설정될 수 있다.
도 1에 도시된 바와 같이 각 오브젝트에 대한 사용자 입력 인터페이스가 설정된 경우에 스크롤 박스는 후면 입력 인터페이스를 통해 입력되는 사용자의 입력에 따라 동작되고, 아이템 박스_1은 전면 입력 인터페이스를 통해 입력되는 사용자의 입력에 따라 동작되고, 아이콘은 전면 입력 인터페이스 또는/ 및 후면 입력 인터페이스를 통해 입력되는 사용자의 입력에 의해 동작되고, 텍스트는 전면 입력 인터페이스를 통해 입력되는 사용자의 입력에 의해 동작된다.
따라서, 도 1에 도시된 바와 같이 각 오브젝트의 사용자 입력 인터페이스가 설정된 경우에, 스크롤을 멈춘 위치에 아이템 박스 또는 아이콘이 위치함에 따라 아이템 박스 또는 아이콘이 잘못 선택되는 동작 오류는 발생되지 않는다. 왜냐하면, 스크롤 박스는 후면 입력 인터페이스로 입력이 인가되어 동작되고 상기 아이템 박스는 후면 유저 인터페이스를 통해만 입력을 수신할 수 있고, 상기 아이콘은 전면 및 후면 입력 인터페이스 둘을 통해 입력을 수신할 수 있기 때문이다.
또한, 도 1의 오브젝트에 설정된 사용자 입력 인터페이스는 오브젝트의 디스플레이 환경과 오브젝트의 동작중 적어도 하나에 기초하여 설정될 수 있으나 바람직한 실시 예는 이로 제한되지 않는다.
예를 들어 사용자 입력면적(또는 터치면적)이 좁은 오브젝트는 상대적으로 사용자의 제어가 용이한 전면 입력 인터페이스로 설정하고, 사용자 입력면적이 넓은 오브젝트는 상대적으로 사용자의 제어가 용이하지 않은 후면 입력 인터페이스로 설정할 수 있다. 사용자가 자주 사용하는 동작을 수행하는 오브젝트는 상대적으로 사용자의 제어가 용이한 전면 입력 인터페이스로 설정하고, 사용자가 자주 사용하지 않는 동작을 수행하는 오브젝트는 상대적으로 사용자의 제어가 용이하지 않은 후면 입력 인터페이스로 설정할 수 있다.
오브젝트가 사용자 입력 인터페이스에 따라 멀티플 동작(multiple operations)을 실행하기 위해 설정된 경우에, 양면 입력 인터페이스(예를 들어, 전면 입력 인터페이스와 후면 입력 인터페이스)는 상기 오브젝트의 상기 사용자 입력 인터페이스로서 설정될 수 있다. 실행 동작에 기초한 오브젝트는 전면 입력 인터페이스, 후면 입력 인터페이스, 듀얼 사이드 입력 인터페이스를 통한 사용자의 입력에 따라 수행될 수 있다. 도 1에 도시된 각 오브젝트들은 위젯(widget)으로 언급될 수 있다. 상술한 전면 입력 인터페이스, 후면 입력 인터페이스, 및 듀얼 입력 인터페이스는 각각 전면 입력 모드(front input mode), 후면 입력 모드(back input mode), 및 듀얼 사이드 입력 모드(dual-side input mode)로 언급될 수 있다.
명세서 전반에서 언급되는 입력 인터페이스 또는 입력 모드는 투명 디스플레이의 터치면이 될 수 있다. 따라서 전면 입력 인터페이스 또는 전면 입력 모드는 투명 디스플레이의 전면 터치면이 될 수 있다. 후면 입력 인터페이스 또는 후면 입력 모드는 투명 디스플레이의 후면 터치면이 될 수 있다.
명세서 전반에서 언급되는 사용자의 입력은 사용자의 제스처(gesture)에 따라 제공되는 입력 정보가 될 수 있다. 사용자의 제스처는 사용자의 입력의 위치(position), 방향(direction), 속도(speed), 터치 포인트의 횟수, 등에 따라 정의될 수 있다. 즉, 입력 장치가 터치스크린 기반일 때, 사용자의 제스처는 예를 들어 탭(tap), 터치 앤 홀드(touch and hold), 더블 탭(double tap), 드래그(drag), 패닝(panning), 플릭(flick), 드래그 앤 드롭(drag and drop), 및 스윕(sweep) 등을 포함할 수 있으나 이로 제한되지 않는다.
터치스크린에 대한 사용자의 제스처는 사용자의 손가락 또는 터치 도구(예를 들어, stylus pen)를 이용하여 수행될 수 있다. 사용자의 제스처는 카메라 또는 다른 제스처 검출 디바이스로부터 수신될 수 있다. 이 경우에, 사용자의 제스처는 카메라를 이용하여 촬영된 영상 기반으로 결정된 공간에서 수행되는 체스처를 포함할 수 있다. 사용자의 모션(motion)에 기초한 공간에서 수행되는 상기 제스처는 디바이스의 움직임(예를 들어 디바이스 흔들기(shaking))에 의해 결정될 수 있다.
입력 장치가 물리적 버튼, 다이얼, 슬라이더 스위치, 조이스틱, 클릭 휠 등중 적어도 하나를 포함할 때, 사용자의 입력은 입력 장치에 대한 사용자의 물리적인 제어에 의존할 수 있다. 입력 장치가 오디오 입력 장치 기반일 때, 사용자 입력은 자연어(natural language) 기반의 사용자의 음성 인식에 의존할 수 있다.
도 2a는 바람직한 실시 예에 따른 투명 디스플레이(201)를 포함하는 디바이스(200)의 기능 블록도이다. 도 2a에 도시된 투명 디스플레이(201)를 포함하는 디바이스(200)는 일 예로 스마트 폰(Smart Phone), 노트북(Notebook), 태블릿(Tablet) PC(Personal Computer), 패블릿(Phablet), 이동 단말기(Mobile Device), 핸드헬드(handheld) 디바이스 또는 핸드헬드 PC, PDA(Personal Digital Assistant) 등이 있을 수 있으나 이로 제한되지 않는다. 투명 디스플레이(201)는 스마트 창(smart window), 고부가가치 유리, 기능성 자동차 부품인 유리, 자동차 대쉬보드(dashboard), 내비케이터(navigator), 보안 전자 디바이스, 태양 전지, 게임기, 장난감, 쇼윈도우 등 다양한 분야에 적용될 수 있다.
도 2a를 참조하면, 디바이스(200)는 투명 디스플레이(201), 사용자 입력부(205), 센싱부(206), 카메라(207), 오디오 입력부(208), 오디오 신호 처리부(209), 오디오 출력부(210), 저장부(211), 통신부(212), 포트(213), 전원부(214), 및 프로세서(215)를 포함한다. 투명 디스플레이를 포함하는 디바이스(200)의 구성은 도 2a에 도시된 바로 제한되지 않는다.
투명 디스플레이(201)는 터치 스크린으로 언급될 수 있다. 투명 디스플레이(201)는 오브젝트들을 디스플레이 하는 디스플레이부(202), 디스플레이부(202)의 전면에 설치되어 터치 기반 사용자 입력을 수신하는 전면 입력부(203)(예를 들어 전면 입력 인터페이스), 및 디스플레이부(202)의 후면에 설치되어 터치 기반 사용자 입력을 수신하는 후면 입력부(204)(예를 들어, 후면 입력 인터페이스)를 포함한다. 전면 입력 인터페이스 및 후면 입력 인터페이스는 또한 이미징 센서들(imaging sensors), 적외선 센서(infrared sensors), 근접 센서들(proximity sensors) 등에 기초한 기타 여러 가지 사용자의 입력을 수신할 수 있다.
디스플레이부(202)는 투명 디스플레이를 포함하는 디바이스(200)에서 처리되는 오브젝트를 포함한 정보를 출력한다. 정보는 오브젝트 이외의 정보를 포함할 수 있다. 오브젝트 이외의 정보는 디스플레이 되기는 하나 사용자 입력에 의해 선택될 수 없도록 설정될 수 있다.
디스플레이부(202)는 투명 소자로 구성되고, 투명 소자에 대한 광 투과율을 조절하여 투명도를 조절하거나 각 픽셀의 RGB(Red, Green, Blue)값을 조절하여 투명도를 조절할 수 있다. 또한 디스플레이부(202)는 유기 발광 다이오드(Organic Light-emitting diode)와 액정 디스플레이(Liquid Crystal Display)를 결합된 구조를 가질 수 있다. 유기 발광 다이오드는 전면 입력부(203)에 인접하게 위치시키고, 액정 디스플레이는 후면 입력부(204)에 인겁하게 위치시킬 수 있다. 디스플레이부(202)와 상술한 결합된 구조를 갖는 경우에, 평상시에는 투명한 유리와 같은 상태를 유지하다가 전원 공급시 액정 디스플레이가 빛을 차단하여 디스플레이부(202)는 불투명한 상태로 설정될 수 있다.
디스플레이부(202)는 전면 입력부(203) 또는/ 및 후면 입력부(204)를 통한 사용자의 제스처 또는 터치 패턴 또는 사용자 입력부(205)를 통해 입력된 사용자 입력 또는 센싱부(206)를 통해 입력된 사용자 입력, 카메라(207)를 통해 입력된 사용자 입력, 오디오 입력부(208)를 통해 입력된 사용자 입력에 각각 응답하는 화면을 디스플레이 한다. 디스플레이부(202)에 디스플레이 되는 화면은 UI(User Interface) 화면 또는 GUI(Graphical User Interface) 화면을 포함한다.
디스플레이부(202)는 액정 디스플레이(Liquid Crystal Display), 박막 트랜지스터 액정 디스플레이(Thin Film Transistor-Liquid Crystal Display), 유기 발광 다이오드(Organic Light-emitting diode), 플렉시블 디스플레이(Flexible display), 3차원 디스플레이(3D display), AM OLED(Active-Matrix Organic Light-Emitting Diode), 입체 디스플레이(volumetric display), 홀로그래픽 디스플레이(Holographic Display)중 적어도 하나로 구현될 수 있으나 이로 제한되지 않는다. 투명 디스플레이(201)는 디바이스(200)의 구현 형태에 따라 2개 이상이 될 수 있다.
전면 입력부(203)와 후면 입력부(204)는 사용자의 입력에 기초한 터치를 수신하기 위한 터치 센서를 포함한다. 또는, 사용자의 입력을 수신하기 위한 2개 이상의 터치 스크린 또는 다른 타입의 센서들이 있을 수 있다. 센서들은 사용자의 입력을 각 입력 인터페이스로 분리하거나 사용자의 입력을 멀티플 입력 인터페이스(multiple input interface)로 동시에 결합하여 다른 기능을 수행하기 위해 사용되는 무제한 입력 인터페이스(unlimited number of input interfaces)를 제공하기 위해 사용될 수 있다.
바람직한 실시 예에 따라, 전면 입력부(203)와 후면 입력부(204)의 터치를 감지하는 센서는 전면 입력부(203)와 후면 입력부(204)에서의 사용자의 제스처 또는 패턴을 감지하는 센서를 포함한다. 터치를 감지하는 센서는 전면 입력부(203)와 후면 입력부(204)에서 상술한 사용자의 제스처로서 인식되는 드래그, 플릭, 탭, 터치 앤 홀드, 더블 탭, 패닝, 스윕(sweep) 중 적어도 하나를 센싱한 센싱 신호를 발생시킬 수 있다. 전면 입력부(203)와 후면 입력부(204)의 터치를 감지하는 센서의 일례로 촉각 센서를 이용할 수 있다. 촉각 센서는 접촉면의 거칠기, 접촉 물체의 단단함, 접촉 지점의 온도 등의 다양한 정보를 감지할 수 있다.
전면 입력부(203)와 후면 입력부(204)는 감압(저항막)식 또는 정전(또는 정전용량)식으로 구성될 수 있다. 전면 입력부(203)와 후면 입력부(204)에서의 사용자의 입력 인식은 좌표 정보를 이용할 수 있다. 터치가 발생된 위치의 x축 좌표와 y축 좌표를 사용자의 입력으로서 인식할 수 있다.
사용자의 입력은 사용자 제스처에 기초한 사용자의 요청(request) 또는 사용자의 선택(selection)에 따라 발생될 수 있다. 사용자의 제스처는 다양한 방법, 예를 들어 터치 횟수, 터치 패턴, 터치 면적, 및 터치 강도의 다양한 조합에 따라 결정될 수 있다. 사용자의 입력은 사용자의 손가락 또는 스타일러스 펜과 같은 터치 도구에 의해 입력될 수 있다. 사용자의 손가락 또는 스타일러스 펜은 외부 입력장치로 언급될 수 있다.
전면 입력부(203)와 후면 입력부(204)의 터치(touch)는 터치 패널에 포인터(pointer)가 터치된 경우이다. 터치 입력은 멀티 터치 또는 터치 포인트들(touch points)을 포함할 수 있다. 전면 입력부(203)와 후면 입력부(204)에 대한 근접 터치(proximity-touch)는 포인터가 각 전면 입력부(203)와 후면 입력부(204)에 실제로 터치되지 않고, 전면 입력부(203)와 후면 입력부(204)의 소정 거리내에 있는 것으로 판단되는 경우이다.
포인터는 전면 입력부(203)와 후면 입력부(204)의 특정 부분을 터치하거나 근접 터치하기 위한 도구로서, 상술한 사용자의 손가락 또는 스타일러스 펜이 이용될 수 있다.
투명 디스플레이부(201)는 실시 예에 따라 투명 LCD(Liquid Crystal Display) 형, 투명 TFEL(Thin-Film Electroluminescent Panel) 형, 투명 OLED 형, 투사형 등과 같은 다양한 형태로 구현될 수 있다. 이하 투명 디스플레이부(201)의 구조에 대한 다양한 실시 예를 설명한다.
투명 LCD 형이란 현재 사용되고 있는 LCD 장치에서 백라이트 유닛을 제거하고, 한 쌍의 편광판, 광학 필름, 투명 박막 트랜지스터, 투명 전극 등을 사용하여 구현한 투명 디스플레이이다.
투명 TFEL 형이란 투명 전극, 무기 형광체, 절연막으로 이루어진 교류형 무기박막 EL 디스플레이(AC-TFEL)를 사용하는 장치를 의미한다. AC-TFEL은 무기 형광체 내부에 가속이 된 전자가 지나가면서 형광체를 여기시켜 빛을 내게 하는 디스플레이이다. 투명 디스플레이부(201)가 투명 TFEL 형태로 구현된 경우, 프로세서(215)는 적절한 위치로 전자가 투사되도록 조정하여, 정보 표시 위치를 결정할 수 있다. 무기 형광체, 절연막이 투명한 특성을 가지므로, 매우 투명한 디스플레이를 구현할 수 있다.
투명 OLED형이란 자체 발광이 가능한 OLED를 이용하는 투명 디스플레이 장치를 의미한다. 유기 발광층이 투명하기 때문에, 양쪽 전극을 투명 전극으로 사용하면, 투명 디스플레이 장치로 구현 가능하다. OLED는 유기 발광층 양쪽에서 전자와 정공을 주입하여 이들이 유기 발광층 내에서 결합되면서 빛을 내게 된다. 투명 OLED 장치는 이러한 원리를 사용하여 원하는 위치에 전자 및 정공을 주입하여, 정보를 표시한다.
도 2b는 투명 OLED 형으로 구현된 투명 디스플레이부의 세부 구성 예를 나타내는 도면이다. 설명의 편의를 위하여 투명 OLED(Organic Light-Emitting Diodes) 형으로 구현된 투명 디스플레이에 대해서는 참조부호 140-1을 부여한다.
도 2b에 따르면, 투명 디스플레이(140-1)는 투명 기판(141-1), 투명 트랜지스터층(142-1), 제1 투명 전극(143-1), 투명 유기 발광 층(Transparent Organic Light-Emitting layer)(144-1), 제2 투명 전극(145-1), 연결 전극(146-1)을 포함한다.
투명기판(141-1)은 투명한 성질을 가지는 플라스틱과 같은 폴리머 재료 또는 유리를 사용할 수 있다. 투명 기판(141-1)의 재질은 투명 디스플레이 장치(100)가 사용될 환경에 따라 결정될 수 있다. 가령, 폴리머 재료는 가볍고 유연하다는 장점이 있어 휴대형 디스플레이 장치에 사용될 수 있으며, 유리는 상점의 쇼케이스 윈도우(showcase window)나 일반 윈도우 등에 사용할 수 있다.
투명 트랜지스터층(142-1)이란 기존 박막 트랜지스터의 불투명한 실리콘을 투명한 아연산화물, 산화 티타늄 등과 같은 투명 물질로 대체하여 제작한 트랜지스터를 포함하는 레이어를 의미한다. 투명 트랜지스터층(142-1) 내에는 소스, 게이트, 드레인 및 각종 유전막(147-1, 148-1)이 마련되며, 드레인과 제1 투명 전극(143-1)을 전기적으로 연결하는 연결 전극(146-1)도 마련될 수 있다. 도 2b에서는 투명 트랜지스터 층(142-1) 내에 소스, 게이트, 드레인으로 이루어진 하나의 투명 트랜지스터만이 도시되었으나, 디스플레이 표면의 전체 영역에 고르게 분포된 복수 개의 투명 트랜지스터를 포함한다. 프로세서(215)는 투명 트랜지스터층(142-1) 내의 각 트랜지스트들의 게이트로 제어 신호를 인가하여, 해당 투명 트랜지스터를 구동시켜 정보를 표시할 수 있다.
제1 투명 전극 (143-1) 및 제2 투명 전극(145-1)은 투명 유기 발광층(144-1)을 기준으로 서로 반대 방향에 배치된다. 제1 투명 전극(143-1), 투명 유기 발광층(144-1) 및 제2 투명 전극(145-1)은 투명 유기 발광 다이오드(Organic Light-Emitting Diodes)를 형성한다.
투명 유기 발광 다이오드는 디스플레이 구동 방법에 따라 수동형(Passive Matrix OLED)과 능동형 (Active Matrix OLED)으로 분류된다. PMOLED는 제1 및 제2 투명 전극(143-1, 145-1)이 서로 교차하는 부분이 화소를 형성하는 구조이다. 반면, AMOLED는 각 화소를 구동하는 박막 트랜지스터(TFT)가 있는 구조이다. 도 2b에서는 능동형을 나타내고 있다.
제1 투명 전극 (143-1) 및 제2 투명 전극(145-1)은 각각 복수 개의 라인 전극을 포함하며, 라인 전극의 정렬 방향은 서로 수직하게 형성된다. 가령, 제1 투명 전극(143-1)의 라인 전극들이 가로 방향으로 배열되었다면, 제2 투명 전극(145-1)의 라인 전극들은 세로 방향으로 배열된다. 이에 따라, 제1 투명 전극(143-1) 및 제2 투명 전극(145-1) 간에는 복수의 교차 영역이 형성된다. 각 교차 영역에는 도 2b에 도시된 바와 같이 투명 트랜지스터가 연결된다.
프로세서(215)는 투명 트랜지스터를 이용하여 각 교차 영역 별로 전위차가 형성되도록 한다. 전위차가 형성된 교차 영역 내에서 각 전극으로부터 전자와 정공이 투명 유기 발광층(144-1)으로 유입되어 결합하면서 발광이 이루어진다. 전위차가 형성되지 않은 교차 영역은 발광이 이루어지지 않으며, 이에 따라 후면 배경이 그대로 투명하게 비치게 된다.
제1 및 제2 투명 전극(143-1, 145-1)으로는 ITO(indium tin oxide)가 사용될 수 있다. 또는, 그래핀과 같은 신소재가 사용될 수도 있다. 그래핀이란 탄소원자가 서로 연결되어 벌집 모양의 평면 구조를 이루며 투명한 성질을 가지는 물질을 의미한다. 그 밖에, 투명 유기 발광 층(144-1)도 다양한 재료로 구현될 수 있다.
상술한 바와 같이 투명 디스플레이(201)는 투명 LCD(Liquid Crystal Display) 형, 투명 TFEL(Thin-Film Electroluminescent Panel) 형, 투명 OLED 형 이외에 투사형으로도 구현될 수 있다. 투사형이란 HUD(Head Up Display)와 같이 투명한 스크린에 영상을 투사하여 디스플레이하는 방식을 의미한다.
사용자 입력부(205)는 투명 디스플레이를 포함하는 디바이스(200)의 동작을 제어하기 위한 입력 데이터(또는 제어 데이터) 및 사용자의 입력을 발생시킨다. 사용자 입력부(205)는 키 패드(key pad), 돔 스위치(dome switch), 터치 패드(touch pad), 조그 휠(Jog wheel), 조그 스위치(Jog swich), 하드웨어(H/W) 버튼 등을 포함할 수 있다.
센싱부(206)는 디바이스(200)의 위치, 사용자의 접촉 유무, 디바이스(200)의 방위, 디바이스(200)의 가속 또는 감속 등과 같이 디바이스(200)의 현재 상태를 감지하여 디바이스(200)의 동작을 제어하기 위한 센싱 신호를 발생시킨다.
센싱부(206)는 전면 입력부(203) 및 후면 입력부(204)의 터치를 감지하기 위한 센서 이외의 센서를 포함한다. 예를 들어 센싱부(206)는 근접 센서를 포함할 수 있다. 근접 센서는 소정의 검출면(예를 들어, 전면 입력 인터페이스, 후면 입력 인터페이스 등)에 접근하는 외부 물체, 또는 검출면(detection surface) 가까이에 존재하는 외부 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 물리적인 접촉없이 검출하는 센서를 말한다. 외부 물체는 디바이스(200)의 외부에 위치한 물체이다. 근접 센서의 예로 투과형 광전 센서, 직접 반사형 광전 센서, 미러 발사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다.
카메라(207)는 화상 통화 모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지 영상 또는 동영상 등의 화상 프레임을 처리한다. 그리고 처리된 화상 프레임은 디스플레이부(202)에 표시될 수 있다. 카메라(207)에서 처리된 화상 프레임은 저장부(211)에 저장되거나 통신부(212) 또는 포트(213)를 통해 외부 디바이스로 전송될 수 있다.
카메라(207)는 또한 후면 입력부(204)를 통한 드래그에 대응되는 사용자의 제스처에 따라 좌 또는 우방향으로 렌즈의 촬영 각도를 이동할 수 있도록 구성될 수 있다. 카메라(207)는 디바이스(200)의 구성에 의존하여 2개 이상이 구비될 수 있다. 또한, 카메라(207)는 사용자의 공간 제스처를 인식하는 입력 장치로 사용될 수 있다.
오디오 입력부(208)는 통화모드, 또는 녹화 모드, 또는 음성 인식 모드 등에서 외부의 음향 신호를 입력받는다. 오디오 입력부(208)는 예를 들어 마이크로폰으로 구성될 수 있다. 오디오 입력부(208)는 외부의 음향 신호를 입력받는 과정에서 발생하는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘을 포함하도록 구성될 수 있다.
오디오 입력부(208)를 이용하여 입력되는 상기 음향 신호는 바람직한 실시 예에 따라 투명 디스플레이(201)에 디스플레이 되고 있는 오브젝트를 제어하기 위해 사용되는 사용자의 음성 입력이 될 수 있다. 즉, 오디오 입력부(208)를 이용하여 입력되는 음향 신호는 사용자의 자연어 또는 사용자의 음성 언어(spoken language)에 기초한 사용자 음성 인식기반의 사용자의 입력 정보일 수 있다. 오디오 입력부(208)를 통해 입력된 외부의 음향 신호는 저장부(211)에 저장되거나 통신부(212) 또는 포트(213)를 통해 외부 디바이스로 전송될 수 있다.
오디오 신호 처리부(209)는 오디오 입력부(208)와 프로세서(215)간 및 오디오 출력부(210)와 프로세서(215)간의 인터페이스를 제공한다. 예를 들면, 오디오 신호 처리부(209)는 오디오 입력부(208)로부터 수신되는 음향 신호를 프로세서(215)에서 처리할 수 있는 오디오 데이터로 변환하여 프로세서(215)로 전송한다. 또한 오디오 신호 처리부(209)는 프로세서(215)로부터 전송되는 오디오 데이터를 전기적인 음향 신호로 변환하여 오디오 출력부(210)로 전송한다.
오디오 출력부(210)는 통화 모드, 또는 오디오 재생 모드 등에서 오디오 신호 처리부(209)로부터 수신된 음향 신호 또는 오디오 신호를 출력한다. 오디오 출력부(210)는 스피커로 구성될 수 있다. 오디오 입력부(208)와 오디오 출력부(210)는 헤드셋으로 구성될 수 있다.
디바이스(200)와 사용자간의 사용자 인터페이스 기능에 따라 투명 디스플레이(201), 사용자 입력부(205), 센싱부(206), 카메라(207), 및 오디오 입력부(208)는 입력 장치 또는 입출력 장치로 언급될 수 있다. 예를 들어, 디바이스(200)와 사용자간의 사용자 인터페이스 기능이 터치스크린 기능, 음성 인식 기능, 및 공간 제스처 인식 기능을 포함하는 경우에, 사용자 입력부(205), 센싱부(206), 카메라(207), 및 오디오 입력부(208)는 입력 장치로 언급되고, 투명 디스플레이(201)은 입출력 장치로 언급될 수 있다.
저장부(211)는 프로세서(215)에서 실행 가능하도록 구성된 적어도 하나의 프로그램과 자원(resource)을 저장한다. 적어도 하나의 프로그램은 바람직한 실시 예에 따른 오브젝트 제어 방법 또는 가이드(guide) 표시 방법을 실행하는 프로그램, 디바이스(200)의 운영 체계(Operating System) 프로그램, 디바이스(200)에 설정된 어플리케이션, 및 디바이스(200)의 각종 기능(예를 들어 통신 기능과 디스플레이 기능)을 수행하는데 필요한 프로그램을 포함한다.
자원은 상술한 프로그램들을 수행하는데 필요한 정보 및 바람직한 실시 예들에서 언급되는 오브젝트 제어를 위한 사용자 인터페이스(User Interface) 화면 정보 및 사용자의 입력에 대응되는 오브젝트 제어 기능 정보 등을 포함한다. 오브젝트 제어를 위한 사용자 인터페이스 화면 정보는 예를 들어 각 오브젝트의 입력 인터페이스에 대한 편집 창을 포함할 수 있다. 또한, 자원은 각 오브젝트용으로 설정된 소정의 입력 인터페이스에 관한 정보를 포함한다.
저장부(211)에 저장된 오브젝트 제어 방법 또는 가이드 디스플레이 방법을 실행하는 프로그램은 오브젝트를 포함하는 어플리케이션 프로그램에 포함되도록 구성될 수 있다. 가이드 디스플레이 방법을 실행하는 프로그램은 상기 어플리케이션 프로그램과 독립적인 프로그램으로 구성될 수 있다. 즉, 가이드 디스플레이 방법을 실행하는 프로그램은 실행되는 어플리케이션에 관계없이 디바이스(200)의 동작 모드가 가이드 디스플레이 방법을 실행하도록 설정될 때 실행되거나 디바이스(200)의 전원이 온되면 디폴트로 실행될 수 있다. 예를 들어 상기 가이드 디스플레이 방법을 실행하기 위한 프로그램은 디바이스(200)의 운영 시스템의 일부가 될 수 있다.
이하 설명되는 다양한 바람직한 실시 예들에 따라, 프로그램은 임의의 어플리케이션 실행 후 수행될 수 있고, 임의의 어플리케이션 실행이 종료되면 수행되지 않을 수 있다. 예를 들어, 폰 북(phone book) 어플리케이션에 포함된 오브젝트들에 대한 제어 방법을 실행하는 프로그램 또는 가이드 디스플레이 방법을 실행하는 프로그램이 폰 북 어플리케이션의 일부로서 실행되고, 폰 북 어플리케이션의 실행이 종료되면, 폰북 어플리케이션에 포함된 오브젝트들에 대한 제어 방법을 실행하는 프로그램 및 가이드 디스플레이 방법을 실행하는 프로그램의 동작이 종료될 수 있다. 그러나 폰북 어플리케이션 실행 여부와 관계없이 가이드 디스플레이 방법은 실행될 수 있다.
저장부(211)는 디바이스(200)의 운영 체계를 비롯한 디바이스(200)의 각종 기능을 수행하는데 필요한 적어도 하나의 프로그램을 저장하는 저장부와 다양한 바람직한 실시 예에 따른 오브젝트 제어 방법 또는 가이드 디스플레이 방법을 실행하는 하나 이상의 프로그램과 자원 및 상기 어플리케이션들을 저장하는 저장부를 독립적으로 구성할 수 있다.
저장부(211)는 고속 랜덤 액세스 메모리, 자기 디스크 저장 장치, 플래시 메모리와 같은 불휘발성 메모리 또는 다른 불휘발성 반도체 메모리를 포함할 수 있다. 따라서 저장부(211)는 메모리로 언급될 수 있다.
통신부(212)는 무선 인터넷, 무선 인트라넷, 무선 전화 네트워크, 무선 랜(LAN), 와이파이(Wi-Fi) 네트워크, 와이파이 다이렉트(WFD, Wi-Fi Direct) 네트워크, 3G(Generation) 네트워크, 4G(4 Generation) LTE 네트워크, 블루투스(Bluetooth) 네트워크, 적외선 통신(IrDA, Infrared Data Association) 네트워크, RFID(Radio Frequency Identification) 네트워크, UWB(Ultra WideBand) 네트워크, 지그비(Zigbee) 네트워크, NFC(Near Field Communication) 네트워크와 같은 무선 네트워크를 통해 외부 전자 디바이스(미 도시됨) 및 서버(미 도시됨)와 데이터를 송수신할 수 있도록 구성된다.
통신부(212)는 방송 수신 모듈, 이동 통신 모듈, 무선 인터넷 모듈, 유선 인터넷 모듈, 근거리 통신 모듈, 및 위치 정보 모듈중 적어도 하나를 포함할 수 있으나 이로 제한되지 않는다.
방송 수신 모듈은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 이동 통신 모듈은 이동 통신망 상에서 기지국, 외부의 전자 디바이스(미 도시됨), 서버(미 도시됨)중 적어도 하나와 무선 신호를 송수신한다. 무선 신호는 음성 호 신호, 화상 통화 호, 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. 무선 인터넷 모듈은 무선 인터넷 접속을 통해 통신하기 위한 모듈을 의미한다. 유선 인터넷 모듈은 유선 인터넷 접속을 위한 모듈을 의미한다.
근거리 통신 모듈은 근거리 통신을 위한 모듈을 말한다. 근거리 통신 기술로 블루투스, RFID, 적외선 통신, UWB, Zigbee, WFD, NFC 등이 이용될 수 있다. 위치 정보 모듈은 디바이스(200)의 위치를 확인하거나 얻기 위한 모듈이다. 일 예로 GPS(Global Position System) 모듈이 있다. GPS 모듈은 복수개의 인공위성으로부터 위치 정보를 수신한다. 위치 정보는 위도 및 경도로 표시되는 좌표 정보를 포함할 수 있다.
포트(213)는 USB(Universal Serial Bus) 포트(미 도시됨)와 같은 플러그 앤 플레이(Plug and Play) 인터페이스를 이용하여 외부 디바이스(미 도시됨)와 데이터를 송수신할 수 있다. 플러그 앤 플레이 인터페이스는 디바이스(200)의 플러그에 외부 디바이스가 꼽히며 자동으로 플레이하는 모듈을 의미한다.
전원부(214)는 디바이스(200)의 다양한 구성 요소에 전력을 공급한다. 전원부(214)는 배터리 및 교류 전원과 같은 하나 이상의 전원을 포함한다. 디바이스(200)는 전원부(214)를 포함하지 않고, 외부 전원 제공부(미 도시됨)와 연결될 수 있는 연결부(connection unit)(미 도시됨)를 포함할 수 있다.
프로세서(215)는 디바이스(200)의 전반적인 동작을 제어하는 것으로 하나 이상의 프로세서를 포함할 수 있다. 예를 들어, 프로세서(215)는 디바이스(200)의 기능에 따라 복수개의 프로세서로 분할될 수 있다.
프로세서(215)는 투명 디스플레이(201), 사용자 입력부(205), 센싱부(206), 카메라(207), 오디오 입력부(208), 오디오 출력부(210), 오디오 신호 처리부(209), 저장부(211), 통신부(212), 포트(213)를 전반적으로 제어할 수 있다. 따라서 프로세서(215)는 제어기나 마이크로프로세서, 디지털 신호 처리기(Digital Signal Processor) 등으로 언급될 수 있다. 또한 프로세서(215)는 입력 장치에 해당되는 투명 디스플레이(201), 사용자 입력부(205), 센싱부(206), 카메라(207), 오디오 입력부(208)를 이용하여 입력된 사용자의 입력 정보와 투명 디스플레이(201)에 기초한 사용자 인터페이스를 제공할 수 있다.
프로세서(215)는 바람직한 실시 예에 따른 오브젝트 제어 방법 또는 가이드 디스플레이 방법에 관련된 적어도 하나의 프로그램을 실행시킬 수 있다. 프로세서(215)는 상기 프로그램을 저장부(211)로부터 리드하여 실행시키거나 통신부(212)를 통해 연결된 애플리케이션 제공 서버(미 도시됨) 또는 마켓 서버(미 도시됨)와 같은 외부 장치로부터 다운받아 실행시킬 수 있다. 오브젝트 제어 방법에 관련된 프로그램은 상술한 바와 같이 어플리케이션별 프로그램에 포함될 수 있다.
프로세서(215)는 디바이스(200)내의 각종 기능 모듈과 프로세서(215)간의 인터페이스 기능부를 포함할 수 있다. 바람직한 실시 예에 따른 오브젝트 제어 방법 또는 가이드 디스플레이 방법에 관련된 프로세서(215)의 동작은 후술할 도 3, 21, 및 23에 도시된 흐름도와 같이 수행될 수 있다.
도 3은 바람직한 실시 예에 따른 디바이스(200)에 의해 수행되는 오브젝트 제어 방법의 흐름도이다. 도 3의 오브젝트 제어 방법은 도 2의 프로세서(215)에 의해 수행될 수 있다.
프로세서(215)는 어플리케이션 실행 또는 디바이스(200)의 동작에 따라 적어도 하나의 오브젝트를 디스플레이 한다(S301).
프로세서(215)는 디스플레이 되고 있는 오브젝트에 대해서 전면 입력부(203) 및 후면 입력부(204)중 적어도 하나의 입력부를 통한 사용자의 입력을 수신한다(S302).
프로세서(215)는 수신된 사용자의 입력이 디스플레이 되고 있는 적어도 하나의 오브젝트에 대해 소정의 입력 인터페이스로 입력되었는지를 판단한다(S303). 바람직한 실시 예에 따라, 프로세서(215)는 사용자의 입력이 전면 입력 인터페이스, 후면 입력 인터페이스, 및 전면 입력 인터페이스와 후면 입력 인터페이스 둘을 통해 수신되는지를 판단한다. 다음, 프로세서(215)는 상기 오브젝트의 소정의 입력 인터페이스와 상기 유저 입력으로부터 상기 검출된 입력 인터페이스를 비교한다.
상기 소정의 입력 인터페이스는 도 1에서 설명한 바와 같이 각 오브젝트에 대해 사전에 설정되거나 상위 계층(페어런트 계층)의 오브젝트의 소정의 입력 인터페이스에 따라 오브젝트가 디스플레이 될 때 설정될 수 있다. 디스플레이 되고 있는 오브젝트에 대한 소정의 입력 인터페이스는 오브젝트가 디스플레이 될 때, 매핑될 수 있다.
프로세서(215)는 단계 S303에서의 판단 결과에 기초하여 오브젝트를 제어한다(S304). 바람직한 실시 예에 따라, 프로세서(215)는 상기 오브젝트의 상기 소정의 입력 인터페이스와 상기 사용자 입력으로부터 검출된 입력 인터페이스간의 비교에 기초하여 상기 검출된 입력 인터페이스에 매칭되는 소정의 입력 인터페이스에 대응하는 기능을 수행할 수 있다.
도 4는 도 3에서의 오브젝트 제어 과정에 대한 화면의 예이다. 도 4를 참조하면, (410)에 도시된 바와 같은 화면이 투명 디스플레이(201)에 디스플레이 되고 있을 때, 폴더 아이콘(404)에 대응되는 후면 입력부(204)의 터치 위치가 투명 디스플레이(201)의 터치를 검출하기 위해 필요한 시간 보다 더 긴 소정 시간 동안 프레스(long press)(예를 들어 터치 앤 홀드(touch and hold) 제스처)됨에 따라 (410)화면은 (420)화면으로 변경된다. 즉, 화면(410)의 폴더 아이콘(404)이 전면 입력부(203) 방향으로 확대된 폴더 아이콘(404‘)을 포함하는 화면(420)으로 변경된다. 상기 터치 위치에 대한 프레스가 해제되면, 확대된 폴더 아이콘(404’)을 갖는 화면(420)은 화면(410)으로 되돌아간다. 도 4에 도시된 화면(410, 420)은 복수의 오브젝트(402 ~ 410)가 도 3의 단계 S301에서 디스플레이 될 때, 단계 S304에서 소정의 입력 인터페이스가 후면 입력부(204)인 제 1 오브젝트(401)(윈도우)에 대한 사용자의 입력(411)에 따라 제 1 오브젝트(401)의 전면에 디스플레이 되고 있는 제 2 오브젝트(폴더 아이콘(404))의 디스플레이 상태가 변경된다.
이 때, 제 2 오브젝트에 해당되는 폴더 아이콘(404)에 대한 소정의 입력 인터페이스가 전면 입력부(203)이면, 사용자는 전면 입력부(203)를 통한 사용자의 입력에 기초하여 확대된 폴더 아이콘(404‘)에 포함된 아이콘들의 실행을 제어할 수 있다.
도 5는 도 3에서의 오브젝트 제어 과정의 다른 화면의 예이다. 소정의 입력 인터페이스가 후면 입력부(204)인 윈도우(501)상에서 폴더 아이콘(404)에 대응되는 후면 입력부(204)의 터치 위치를 터치한 후, (502) 방향으로 터치 위치를 드래그 함에 따라 폴더 아이콘(404)이 (520)에 도시된 위치로 이동된 경우이다. 그러므로, 아이콘(404)을 이동시킬 때, 사용자의 손에 의해 아이콘(404), 인접한 아이콘(407) 및 전체 윈도우(501)가 가려지는 것을 방지할 수 있다. 이는 사용자의 손이 투명 디스플레이(201)의 뒤에서 제스처를 수행하기 때문이다. 또한 폴더 아이콘(404)의 이동으로 화면(520)상에 아이콘들은 자동적으로 재배열될 수 있다.
도 5 역시 상술한 도 4와 같이 소정의 입력 인터페이스가 후면 입력부(204)인 제 1 오브젝트(501)의 전면에 디스플레이 되고 있는 제 2 오브젝트(404)의 디스플레이 상태가 제 1 오브젝트(501)에 대한 사용자 입력에 따라 변경되는 예이다.
도 6은 도 3에서의 오브젝트 제어 과정의 또 다른 화면의 예이다. 소정의 입력 인터페이스가 후면 입력부(204)인 윈도우(401)상에서 아이콘(402)에 대응되는 후면 입력부(204)의 터치 위치가 터치될 때, 터치 시간 또는 터치 강도(예를 들어 터치 압력)를 나타내는 진행바(progressbar)가 화면(620)의 (601)과 같이 디스플레이 된다. 터치 시간이 유지되거나 터치 강도가 높아짐에 따라 화면(620)이 화면(630)으로 변경되고, 화면(630)이 화면(640)으로 변경된다. 화면(640)에 도시된 바와 같이 진행바(601)가 모두 채워지면, 화면(650)에 도시된 바와 같이 아이콘(402)이 삭제될 수 있다.
상술한 도 4와 같이, 도 6의 화면들(610 ~ 650)은 제 1 오브젝트(401)의 전면에 디스플레이 되고 있는 제 2 오브젝트(402)의 디스플레이 상태가 제 1 오브젝트(401)에 대한 사용자의 입력에 따라 변경(삭제)되는 예이다. 즉, 후면 입력부(204)가 소정의 입력 인터페이스로서 설정된 제 2 오브젝트(402)가 후면 입력부(204)를 통한 입력에 따라 삭제된다.
도 7은 도 3에서의 오브젝트 제어 과정의 또 다른 화면의 예이다.
도 7의 화면(710)과 화면(720)은 하위 계층에서 상위 계층으로 윈도우(711)를 이동하는 예이다. 복수의 윈도우(711, 712)가 서로 겹쳐서 디스플레이 될 때, 후면 입력부(204)를 통한 사용자의 입력에 따라 윈도우(712)가 하위 계층으로 이동된다. 따라서 화면(720)상에서 윈도우(712)가 윈도우(711)의 하위 계층에 디스플레이 되어 숨겨진다.
하위 계층의 윈도우(711)의 소정의 입력 인터페이스는 전면 입력부(203)이고, 하위 계층의 윈도우(711)의 배경 계층(미 도시됨)의 소정의 입력 인터페이스는 후면 입력부(204)이고, 배경 계층(미 도시됨)의 후면 입력부(204)에 대한 사용자의 제스처에 의해 하위 계층의 윈도우(711)가 상위 계층으로 이동되어 디스플레이될 수 있다.
도 7의 화면(730)과 화면(740)은 후면 입력부(204)를 통한 사용자의 입력에 따라 투명 상태를 불투명 상태로 전환하는 화면의 예이다. 즉, (730)에 도시된 바와 같은 화면이 디스플레이되고, 오브젝트(731)의 소정의 입력 인터페이스가 후면 입력부(204)일 때, 후면 입력부(204)를 통한 사용자의 입력이 화면 최상단에서 시작하여 화면 하단으로 드래그됨에 따라 화면(740)과 같이 화면의 상단이 투명 상태가 불투명 상태로 변경된다.
도 7의 화면(730)과 화면(740)은 소정의 입력 인터페이스가 후면 입력부(204)인 제 1 오브젝트(731)에 대한 사용자의 입력에 따라 디스플레이부(202)의 상태가 변경되는 예로 이해될 수 있다.
도 8은 도 3에서의 오브젝트 제어 과정의 또 다른 화면의 예이다.
도 8은 복수의 오브젝트가 겹쳐서 디스플레이 되고, 후면의 오브젝트(802)의 소정의 입력 인터페이스는 후면 입력부(204)이고, 전면의 오브젝트(803)의 소정의 입력 인터페이스는 전면 입력부(203)인 경우이다.
따라서 오브젝트(802)에 대응되는 후면 입력부(204)의 터치 위치를 터치한 후, (805)방향으로 드래그 함에 따라 후면의 오브젝트(802)가 화면(810)에서 화면(820)에 도시된 바와 같이 이동된다.
오브젝트(803)에 대응되는 전면 입력부(203)의 터치 위치를 터치한 후, (831)방향으로 드래그 함에 따라 전면의 오브젝트(803)가 화면(810)에서 화면(830)에 도시된 바와 같이 이동된다.
전면 입력부(203)가 복수의 오브젝트들(802, 802)에 대한 소정의 입력 인터페이스로 설정되고, 오브젝트(802)가 배경 오브젝트(801)의 소정의 입력 인터페이스인 후면 입력부(204)에 대한 사용자의 입력에 따라 이동될 수 있다. 이와 같이 수행될 경우에, 도 8의 화면(810, 820)은 상술한 도 4에서와 같이 소정의 입력 인터페이스가 후면 입력부(204)인 제 1 오브젝트(예를 들어 배경 오브젝트(801))의 전면에 디스플레이 되고 있는 제 2 오브젝트(예를 들어 오브젝트(802))의 디스플레이 상태가 제 1 오브젝트(801)에 대한 사용자의 입력에 따라 변경된다.
도 9는 도 3에서의 오브젝트 제어 과정의 또 다른 화면의 예이다.
도 9는 디바이스의 락 스크린의 예이다. 즉, 도 9는 전면 입력부(203)에 대한 사용자의 입력에 따른 언락(unlock)시와 후면 입력부(204)에 대한 사용자의 입력에 따른 언락시 다른 홈 화면(또는 메뉴 화면)이 디스플레이 될 수 있다.
도 9의 화면(910)과 화면(920)은 전면 입력부(203)에 대한 사용자의 입력에 따라 언락한 경우의 화면의 예이다. 도 9의 화면(930)과 화면(940)은 후면 입력부(203)에 대한 사용자의 입력에 따라 언락한 경우의 화면의 예이다.
도 9는 전면 언락 사용자와 후면 언락 사용자가 다른 경우에도 적용될 수 있다.
전면 입력부(203) 및 후면 입력부(204)가 오브젝트(언락 기능을 수행할 수 있는 화면, 911)의 소정의 입력 인터페이스이고, 화면(910, 920)은 전면 입력부(203)를 통해 입력되는 사용자의 입력에 응답하여, 오브젝트(911)에 대한 사전에 설정된 제 1 기능을 수행하고, 화면(930, 940)은 후면 입력부(204)를 통한 사용자의 입력에 응답하여 오브젝트(911)의 사전에 설정된 제 2 기능을 수행한다.
도 10은 도 3에서의 오브젝트 제어 과정의 또 다른 화면의 예이다.
도 10은 전면 입력부(203)를 통해 텍스트(1001)를 선택함에 따라 후면 입력부(204)가 (1020)에 도시된 바와 같이 세 영역(1021, 1022, 1023)으로 나뉘어 선택된 텍스트에 대한 타입, 크기, 및 색깔을 설정할 수 있는 경우이다. 세 영역(1021, 1022, 1023) 각각에서의 후면 터치에 기초한 스크롤링 제스처와 같은 제스처를 수행하여 선택될 수 있는 텍스트 타입, 텍스트 크기, 텍스트 색깔이 선택된 텍스트(1001)에 반영되어 디스플레이 될 수 있다.
도 10의 화면(1010, 1020)은, 도 9에서와 같이, 오브젝트(1001)에 대해 소정의 입력 인터페이스가 전면 입력부(203)와 후면 입력부(204)이고, 화면(1010)의 전면 입력부(203)를 통한 사용자의 입력에 응답하여 오브젝트(1001)에 대한 제 1 기능(예를 들어, 상술한 바와 같이 세 영역으로 나누기 기능)이 수행되고, 화면(1020)의 후면 입력부(204)를 통한 사용자의 입력에 응답하여 오브젝트(1001)의 제 2 기능(예를 들어 텍스트 타입 설정, 텍스트 크기 설정, 텍스트 색깔 설정)이 수행된다.
도 11은 도 3에서의 오브젝트 제어 과정의 또 다른 화면의 예이다.
도 11은 픽쳐 오브젝트(1101)가 카메라(207)를 갖고 촬영되고, 화면(1110)은 화면(1110)의 오브젝트(1101)의 전면 입력부(203)에 대한 줌-인(zoom-in) 제스처(1102)가 수행되어 화면(1111)으로 확대되고, 화면(1120)의 오브젝트(1101)의 전면 입력부(203)에 대한 줌-아웃(zoom-out) 제스처(1103)가 수행되어 화면(1121)으로 축소된다.
또한, 오브젝트(1101)의 후면 입력부(204)를 터치한 후, (1104)방향으로 드래그 함에 따라 카메라(207)의 렌즈의 촬영 각도가 조정되어 촬영하고자 하는 화면이 도 11의 화면(1100)에서 화면(1130)으로 변경되고, 오브젝트(1101)의 후면 입력부(204)를 터치한 후, (1105)방향으로 드래그 함에 따라 카메라(207)의 렌즈의 촬영 각도가 조정되어 촬영하고자 하는 화면이 도 11의 화면(1100)에서 화면(1140)으로 변경된다.
도 11의 화면(1110) 내지 화면(1140)은, 도 9에서와 같이, 오브젝트(1101)에 대해 소정의 입력 인터페이스가 전면 입력부(203)와 후면 입력부(204)이고, 전면 입력부(203)를 통한 사용자의 입력에 응답하여 오브젝트(1101)의 사전에 설정된 제 1 기능(줌-인 또는 줌-아웃)을 수행하고, 후면 입력부(204)를 통한 사용자의 입력에 응답하여 오브젝트(1101)의 사전에 설정된 제 2 기능(촬영 화면 변경 또는 촬영 영역 변경)을 수행한다.
도 11은 파노라마(panorama) 기능에 적용될 수 있다. 카메라 렌즈의 각도가 픽쳐 오브젝트(1101)에 있어서 파노라마 뷰(panoramic view)를 캡쳐하기 위해 사용된 후면 입력부(204)로의 제스처 입력에 의해 변경될 수 있다. 또한 파노라마 사진(panoramic photo)은 후면 입력부(204)로 입력되는 제스처를 사용하여 사진의 파노라마 사진 또는 뷰 각도(view angle)를 이동하면서 볼 수 있다.
도 12는 도 3에서의 오브젝트 제어 과정의 또 다른 화면의 예이다. 도 12는 디바이스(200)가 벨소리 조절과 같은 시스템 볼륨 조절 기능과 미디어 컨텐트를 재생중일 때, 볼륨 조절 기능에 관련된 화면의 예이다.
사용자 입력부(205)를 통해 볼륨 제어가 요청되면, 화면(1200)이 디스플레이 되고, 시스템 볼륨 제어는 전면 입력부(203, 화면(1210))에 대한 사용자의 입력에 의해 수행되고, 미디어 볼륨 제어(예를 들어 미디어 파일 재생시 볼륨 제어)는 후면 입력부(204)에 대한 사용자의 입력에 의해 수행된다.
도 12의 화면(1200) 내지 화면(1220)은, 도 9에서와 같이, 오브젝트(1201)의 소정의 사용자 입력 인터페이스가 전면 입력부(203)와 후면 입력부(204)이고, 전면 입력부(203)를 통한 사용자의 입력에 응답하여 오브젝트(1201)의 사전에 설정된 제 1 기능(시스템 볼륨 조절 기능)을 실행하고, 후면 입력부(204)를 통한 사용자의 입력에 응답하여 오브젝트(1201)의 사전에 설정된 제 2 기능(미디어 볼륨 조절 기능)을 실행하는 예로 이해될 수 있다. 전면 입력부(203)에 대한 사용자의 입력이 감지되면, 디스플레이부(202)에 시스템 볼륨 조절이라는 메시지가 디스플레이 되고, 후면 입력부(204)에 대한 사용자의 입력이 감지되면, 디스플레이부(202)에 미디어 볼륨이라는 메시지(1221)가 디스플레이 될 수 있다.
도 13은 도 3에서의 오브젝트 제어 과정의 또 다른 화면의 예이다. 도 13은 오브젝트(1301)의 소정의 입력 인터페이스인 전면 입력부(203)와 후면 입력부(204)에 따라 서로 다른 기능을 수행하는 화면의 예이다.
즉, 도 13의 화면(1300)에 디스플레이 되는 오브젝트(1301)의 전면 입력부(203)에 대한 사용자의 터치로 오브젝트(1301)면이 불투명 상태가 된다(1310). 화면(1300)에서 오브젝트(1301)에 대한 후면 입력부(204)에 대한 사용자의 터치로 오브젝트(1301)를 제외한 배경면이 불투명 상태가 된다(1320). 화면(1300)에서 오브젝트(1301)에 대한 전면 입력부(203) 및 후면 입력부(204)가 동시에 터치됨에 따라 오브젝트(1301) 자체와 오브젝트(1301)의 배경 둘다 불투명 상태가 된다(1330).
도 13은 오브젝트가 이미지 편집창일 때, 터치면에 따라 편집 대상이 달라지는 것을 사용자가 직관적으로 알 수 있도록 디스플레이 하는 경우에 적용할 수 있다. 예를 들어, 오브젝트(1301)의 전면 입력부(203)에 대한 사용자 터치로 화면(1310)은 오브젝트(1310)의 내부 영역이 편집대상으로 설정되었음을 디스플레이 하고, 오브젝트(1301)의 후면 입력부(204)에 대한 사용자 터치로 화면(1320)은 오브젝트(1301)의 외부 영역이 편집대상으로 설정되었음을 디스플레이 하고, 오브젝트(1301)의 양면 입력부(203, 204)에 대한 사용자 터치로 화면(1330)는 전 화면이 편집 대상으로 설정되었음을 디스플레이 하는 화면들을 의미할 수 있다.
도 14는 도 3에서의 오브젝트 제어 과정의 또 다른 화면의 예이다. 도 14는 오브젝트의 소정의 입력 인터페이스가 전면 입력부(203)와 후면 입력부(204)이고, 전면 및 후면에 대한 각각의 입력에 따라 다른 기능을 수행한다.
즉, 도 14의 화면(1400)은 오브젝트(1401)에 대한 전면 입력부(203)를 통한 사용자의 입력에 따라 동영상이 수행되고 있는 화면이다. 따라서 동영상 재생시 전면 입력부(203)로 동영상 재생에 관련된 기본 기능(빨리 감기 기능, 되감기 기능, 재생 기능, 등)을 실행할 수 있다. 이와 같이 동영상이 수행되고 있을 때, 후면 입력부(204)에 대한 사용자의 터치에 따라 동영상이 정지(1410)하고, 후면 입력부(204)로의 사용자의 제스처에 따라 정지된 영상이 캡처된다(1420). 상기 제스처의 예는 후면 입력 부(204)에서 터치하고 위로 드래그하는 것이 될 수 있다.
도 15는 도 3에서의 오브젝트 제어 과정에 대한 또 다른 화면의 예이다. 도 15 역시 오브젝트(1511)의 소정의 입력 인터페이스가 전면 입력부(203)와 후면 입력부(204)이고, 전면과 후면 각각으로의 입력에 따라 다른 기능을 수행한다.
즉, 오브젝트(1511)의 전면 입력부(203)에 대한 사용자의 터치 & 드래그에 따라 페이지가 전환된다(1510, 1520). 오브젝트(1511)의 후면 입력부(204)에 대한 사용자의 터치 & 드래그에 따라 상단의 상태 바(status bar)가 드래그 방향으로 이동되면서 상태 바의 내용이 변경된다(1510, 1530).
바람직한 실시 예에 따라, 페이지 변경 기능에서 스킵되는 페이지 수가 후면 입력부(204)에 대한 사용자의 터치 & 드래그 제스처에 따라 화면(1540)이 도시되거나 전면 입력부(203)에 대한 사용자의 터치 & 드래그 제스처에 따라 화면(1520)이 도시되는 것과 같이 다르게 될 수 있다. 예를 들어, 전면 입력부(203)에 대한 터치 & 드래그시 한 페이지씩 페이지를 변경하고(화면(1520)), 후면 입력부(204)에 대한 터치 & 드래그시 2페이지씩 페이지를 변경할 수 있다(화면(1540)). 또는 전면 입력부(203)에 대한 터치 & 드래그시 제공되는 페이지와 후면 입력부(204)에 대한 터치 & 드래그시 제공되는 페이지를 다르게 설정할 수 있다.
도 16은 도 3에서의 오브젝트 제어 과정의 또 다른 화면 예이다. 도 16 역시 오브젝트(1611)에 소정의 입력 인터페이스가 전면 입력부(203)와 후면 입력부(204)이고, 전면 및 후면에 따라 다른 기능을 수행할 수 있다.
즉, 알람이 울릴 때, 도 16의 오브젝트(1611)의 전면 입력부(203)에 대한 사용자의 입력에 의해 알람을 중지할 수 있다(화면(1610)) 후면 입력부(204)에 대한 사용자의 입력에 의해 다시 알림(snooze) 시간을 설정할 수 있다(화면(1620)). 다시 알림시간은 터치 후 위 또는 아래방향 드래그로 설정할 수 있다.
도 17은 도 3에서의 오브젝트 제어 과정의 또 다른 화면의 예이다. 도 17 역시 오브젝트(1713)에 대한 소정의 입력 인터페이스가 전면 입력부(203)와 후면 입력부(204)이고, 전면 및 후면에 따라 다른 기능을 수행할 수 있다.
도 17의 경우에 오브젝트(1713)의 전면 입력부(203)에 대한 사용자의 입력에 따라 배열된 가상 키에 따른 정보를 입력하고, 후면 입력부(204)에 대한 사용자의 입력(1714)에 따라 가상 키의 모드를 변환하는 경우이다. 즉, (1710) 화면에서 후면 입력부(204)에 대한 1회 터치 시 (1720)에 도시된 바와 같이 오브젝트(1713)가 숫자 키 배열로 변경되고, 후면 입력부(204)에 대한 2회 터치시 (1730)에 도시된 바와 같이 오브젝트(1713)가 영문 키배열로 변경된다.
도 18은 도 3에서의 오브젝트 제어 과정의 또 다른 화면의 예이다. 도 18은 사용자의 입력이 후면 입력부(204)의 일정 면적 이상 터치된 것에 응답하여 오브젝트(1811)의 투명도를 최대 값으로 설정하는 경우의 예이다.
즉, 도 18의 (1810)과 같은 화면이 디스플레이부(202)에 디스플레될 때, (1820)과 같이 후면 입력부(204)의 소정 면적 이상이 터치되면, 디스플레이부(202)의 투명도가 최대 값과 최소 값(예를 들어 최대 불투명도(maximum opaqueness))간의 값으로 설정될 수 있다. 비록 투명도는 디스플레이부(202)의 전원을 일시적으로 오프시켜 최대 값으로 설정할 수 있으나 바람직한 실시 예는 이로 제한되지 않는다. 바람직한 실시 예에 따라 근접 센서는 소정 면적 이상 터치 여부 판단하기 위해 사용될 수 있다.
(1820)에 도시된 바와 같이 터치 제스처가 소정 시간 이상 유지되지 않으면, 디스플레이부(202)는 (1830)과 같이 터치가 발생되기 전에 디스플레이 된 화면으로 리턴한다. 그러나, 터치 제스처가 소정 시간이상 유지되면, 디스플레이부(202)의 투명도는 최대 값으로 설정된 상태를 유지한다(1840). 소정 시간 이상은 예를 들어 3분 이상으로 설정될 수 있으나 바람직한 실시 예는 이로 제한되지 않는다.
도 19는 도 3에서의 오브젝트 제어 과정의 또 다른 화면의 예이다. 도 19는 오브젝트의 소정의 입력 인터페이스가 변경된다.
즉, 디스플레이 되고 있는 오브젝트(1911)에 대한 입력 인터페이스 편집 요청에 응답하여 오브젝트(1911)에 소정의 입력 인터페이스에 대한 정보를 포함하는 편집 윈도우(1921)가 디스플레이된다. 입력 인터페이스 편집 요청은 전면 입력부(203) 또는 후면 입력부(204)를 통한 소정의 사용자 제스처 또는 메뉴를 사용하여 입력될 수 있다.
편집 윈도우(1921)에 기초하여 수신된 사용자의 입력에 따라 변경된 입력 인터페이스 정보(1921)로 오브젝트(1911)에 대한 소정의 입력 인터페이스에 대한 정보를 업데이트 할 수 있다(화면(1920) 및 화면(1930)). 도 19에서 오브젝트(1911)에 대해 소정의 전면 입력부(203)는 후면 입력부(204)로 변경된다.
도 20은 도 3에서의 오브젝트 제어 과정의 또 다른 화면의 예이다. 도 20은 서로 다른 입력 인터페이스가 설정된 오브젝트(2012, 2013)에 대해 동시에 사용자의 입력에 따른 오브젝트를 제어하는 경우로서 멀티 태스킹으로 이해될 수 있다.
즉, 전면 입력부(203)를 통한 화면(2010)상에 오브젝트(2012)에 대한 사용자의 입력과 후면 입력부(204)를 통한 오브젝트(2013)에 대한 사용자의 입력이 도 20의 (2020)에 도시된 바와 같이 원하는 위치로 드래그하는 것이면, 그에 따라 동시에 (2030)에 도시된 바와 같이 디스플레이 위치가 이동된다.
도 20의 (2014)는 디스플레이 되고 있는 오브젝트(2012)의 소정의 입력 인터페이스를 나타내는 화면 정보이다. (2014)에 의해 사용자는 직관적으로 오브젝트(2012)의 소정의 입력 인터페이스가 전면 입력부(203)라는 것을 알 수 있다.
상술한 도 4 내지 도 20의 화면의 예는 프로세서(215)의 동작에 의해 제공된다. 또한, 도 4 내지 도 20의 화면의 예에서 설명된 사용자의 제스처는 상기 설명된 바로 제한되지 않는다.
도 21은 바람직한 다른 실시 예에 따른 투명 디스플레이를 포함하는 디바이스(200)에 의해 수행되는 오브젝트 제어 방법의 흐름도이다. 도 21의 오브젝트 제어 방법 역시 프로세서(215)에 의해 수행된다.
도 21은 도 3에 도시된 오브젝트 제어 단계를 오브젝트 회전 및 그에 따라 오브젝트의 소정의 입력 인터페이스를 업데이트하는 단계로 변경한 경우이다. 따라서 도 21의 단계 S2101 내지 단계 S2103은 단계 S301 내지 단계 S303과 동일하므로, 이하 설명을 생략한다.
단계 S2103에서 판단한 결과, 사용자의 입력이 오브젝트의 소정의 입력 인터페이스(예를 들어, 전면 입력부(203) 또는 후면 입력부(204))를 통해 수신되고, 일 측 방향으로 소정 길이 이상 이동되는 사용자의 제스처가 발생되면, 프로세서(215)는 사용자의 제스처에 대응되는 방향으로 오브젝트를 회전시키면서 오브젝트의 소정의 입력 인터페이스를 다른 입력 인터페이스로 변경한다(S2104). 따라서 만일 오브젝트의 소정의 입력 인터페이스가 전면 입력부(203)이면, 상술한 사용자의 입력과 사용자의 제스처에 따라 오브젝트의 입력부는 후면 입력부(204)로 변경될 수 있다. 이처럼, 각 오브젝트에 대한 입력 인터페이스가 독립적으로 지정될 수 있으므로, 보다 다양한 형태의 사용자 인터페이스가 가능하며 양면(dual surfaces)의 사용에 따른 구현의 복잡도를 줄일 수 있다. 또한, 도 1에서와 같이 한 화면상에 나타난 복수의 오브젝트들 각각에 서로 다른 입력 인터페이스가 설정될 수 있음은 물론이다.
도 22a는 복수의 오브젝트(2202~2210)중 오브젝트(2210)를 회전시켜 오브젝트의 입력 인터페이스를 변경하는 화면의 예이다. 즉, 도 22a의 화면(2240)에서 오브젝트(2210)에 대해 (2212)방향으로 이동되는 사용자의 제스처가 발생됨에 따라 화면(2250) 및 화면(2260)에 도시된 순서로 오브젝트(2210)가 회전된다. 화면(2260)은 오브젝트(2210)가 180도 회전되어 오브젝트(2210)의 이미지가 후면과 전면이 바뀐 상태이다.
프로세서(215)는 오브젝트(2210)의 회전에 따라 오브젝트(2210)의 디스플레이 면이 변경되면, 오브젝트(2210)에 대한 소정의 입력 인터페이스를 후면 입력부(204)로 변경한다(S2104).
도 22b는 오브젝트(2210)가 전면 입력부(203)와 후면 입력부(204)에 대해 각각 다른 오브젝트가 설정되어 다른 기능을 수행할 경우에, 오브젝트(2210)의 회전에 따라 전면 입력부(203)와 후면 입력부(204)에 대응되는 기능이 변경되는 화면의 예이다.
즉, 도 22b는 오브젝트(2241)의 전면 입력부(203)를 입력 인터페이스로 설정한 어플리케이션이 미니 다이어리이고, 후면 입력부(204)를 입력 인터페이스로 설정한 어플리케이션이 스토어(store)인 경우이다. 화면 (2240), (2250), 및 (2260)에 도시된 바와 같은 방향(2242)으로 회전함에 따라, 스토어 어플리케이션은 디바이스(200)의 전면부에 디스플레이 되고, 스토어 어플리케이션의 입력 인터페이스는 전면 입력부(203)로 설정되고, 미니 다이어리 어플리케이션은 디바이스(200)의 후면부에 디스플레이 되고, 미니 다이어리의 입력 인터페이스는 후면 입력부(204)로 설정된다. 이에 따라 오브젝트(2241)의 전면 입력부(203)를 통한 입력으로 디바이스(200)는 스토어의 기능을 실행할 수 있고, 오브젝트(2241)의 후면 입력부(204)를 통한 입력으로 디바이스(200)는 미니 다이어리의 기능을 실행할 수 있다.
도 23은 바람직한 다른 실시 예에 따른 투명 디스플레이를 포함하는 디바이스(200)에서 가이드(guide) 표시 방법에 대한 동작 흐름도이다. 상기 가이드 표시 방법은 프로세서(215)에 의해 수행된다. 가이드는 후면 입력부(204)에 대한 사용자의 입력이 감지된 위치(터치 위치)를 나타내는 정보를 포함할 수 있다.
프로세서(215)는 임의의 어플리케이션 실행에 따라 적어도 하나의 오브젝트를 디스플레이부(203)에 디스플레이 한다(S2301). 디스플레이 되고 있는 오브젝트에 대한 소정의 입력 인터페이스와 관계없이 후면 입력부(204)에서 사용자의 입력을 수신하면(S2302), 수신된 위치에 가이드를 디스플레이 한다(S2303). 가이드는 사용자의 입력이 수신된 지점에 디스플레이 되고 있는 오브젝트의 상태 또는 디스플레이부(203)의 상태에 기초하여 가변적으로 디스플레이될 수 있다. 가이드는 인디케이터(Indicator)로 언급될 수 있다.
오브젝트의 상태 또는 디스플레이부(203)의 상태는 투명도에 기초한 상태를 포함할 수 있다. 따라서 가이드는 오브젝트의 투명도 또는 디스플레이부(203)의 투명도에 따라 서로 다른 이미지를 갖는 가이드를 디스플레이 하거나 서로 다른 투명도를 갖는 가이드를 디스플레이 할 수 있다. 상기 오브젝트의 투명도는 오브젝트에 인접한 영역의 투명도를 고려할 수 있다. 디스플레이부(203)의 상태는 터치 강도를 포함할 수 있다.
도 24는 가이드를 디스플레이 하는 화면의 예이다. 도 24의 화면(2400)은 리스트에 포함된 텍스트 4 오브젝트에 대해 후면 입력부(204)를 통한 사용자의 입력(2401)이 감지됨에 따라 가상 가이드(2402)가 텍스트 4의 위치에서 디스플레이 되어 사용자는 후면 입력부(204)를 통해 텍스트 4 오브젝트를 터치하고 있는 것을 직관적으로 알 수 있다. 또한, 가이드의 투명도 변화에 따라 사용자가 어느 정도의 터치 강도로 후면 입력부(204)를 터치하고 있는지를 직관적으로 알 수 있다.
도 24의 화면(2410)의 경우에 선택된 오브젝트가 디스플레이 되고 있는 모든 면에 가상 가이드가 디스플레이 되는 경우이다. 화면(2410)에 따라 사용자는 텍스트 4의 오브젝트에 대해 후면 입력부(204)를 통한 사용자 터치가 발생된 것을 직관적으로 알 수 있다. 화면(2410)의 경우에, 터치 강도에 따라 텍스트 4의 오브젝트 필드의 색깔이 가변될 수 있다.
또한, 화면(2420)과 같이 후면 입력부(204)를 터치한 후 드래그하여 오브젝트(2421)를 (2422)방향으로 이동할 때, 터치가 유지된 상태에서 전면 입력부(203)를 통해 오브젝트(2421)를 터치할 경우, 오브젝트(2421)에 대해 후면 입력부(204)에서 실행되던 동작을 이어서 할 수 있다. 즉, 화면(2430)에 도시된 바와 같이 오브젝트(2421)를 터치한 후 드래그하여 방향(2431)으로 오브젝트(2421)를 이동하는 동작을 계속 수행할 수 있다.
도 25는 바람직한 실시 예에 따른 디바이스의 다른 기능 블록도이다.
도 25를 참조하면, 디바이스는 투명 디스플레이(2501), 프로세서(2502), 및 저장부(2503)를 포함한다.
투명 디스플레이(2501)는 도 2a의 투명 디스플레이(201)과 같이 전면 입력부(203), 후면 입력부(204), 및 디스플레이부(202)를 포함하고, 전면 입력부(203)와 후면 입력부(204)중 적어도 하나의 입력부를 통해 사용자의 터치 입력을 수신하고, 사용자의 터치 입력에 대응하여 오브젝트를 디스플레이한다.
저장부(2503)는 적어도 하나의 오브젝트에 대해 소정의 입력 인터페이스의 정보와 바람직한 실시 예에 따른 오브젝트 제어 방법 및 가이드 표시 방법을 수행하기 위한 프로그램을 저장한다. 즉, 도 26에 도시된 소프트웨어 구조도에 따른 데이터가 저장부(2503)에 저장될 수 있다. 도 2a의 저장부(211) 역시 도 26에 도시된 소프트웨어 구조도에 따른 프로그램 및 자원을 저장할 수 있다.
특히, 도 26에 도시된 각 오브젝트의 터치 모드 또는 소정의 사용자 입력 인터페이스에 대한 설정 값을 포함하는 터치 모드 데이터(2612), 입력 받은 터치를 구분하는 터치 입력구분(Touch input classification) 모듈(2622) 및 터치 모드 추정(Touch Mode estimation) 모듈(2664)이 주로 이용될 수 있다.
도 26은 바람직한 실시 예에 따른 투명 디스플레이를 포함하는 디바이스의 저장부에 저장되는 소프트웨어 계층을 설명하기 위한 도면이다.
도 26을 참조하면, 소프트웨어 계층은 스토리지 모듈(storage module)(2600), 센서 인식 모듈(sensor & recognition module)(2620), 메시징 모듈(messaging module)(2650), 텔레포니 모듈(telephony module)(2640), 멀티 미디어 모듈(multimedia module)(2665), UI & 그래픽 모듈(2661) 및 리젠 모듈(legend module)(2670)를 포함하나 이로 제한되지 않는다.
스토리지 모듈(2600)은 주소록, 환경 정보 등의 일반적인 데이터 저장소인 시스템 데이터베이스(2611) 및 본 발명에 따른 각 오브젝트의 터치 모드에 대한 설정 값을 저장하는 터치 모드 데이터 영역(2612)를 포함한다.
센서 인식 모듈(2620)은 전면 입력부(203) 및 후면 입력부(204)에서의 터치를 인식하는 모듈(2621), 입력받은 터치를 구분하는 모듈(2622)를 포함한다. 입력 받는 터치를 구분하는 모듈(2622)은 전면 입력부(203)에 대한 입력을 이벤트 처리기(2662)로 전달하는 전면 입력모드(2623), 후면 입력부(204)에 대한 입력을 이벤트 처리기(2662)로 전달하는 후면 입력 모드(2624), 양면 터치(203 204 모두 터치)에 대한 입력을 이벤트 처리기(2662)로 전달하는 듀얼 모드(2625)를 포함한다.
메시지 모듈(2650)은 인터넷 연결을 통해 사용자간 대화 가능한 모듈인 인스턴트 모듈(2651), 단문 및 멀티미디어 메시지에 대한 모듈(2652), 이메일을 보내기 위한 모듈(2653)을 포함한다.
텔레포니 모듈(2640)은 전화 연결을 위한 정보 수집 모듈(2642), VoIP(Voice over Internet Protocol) 기반으로 인터넷을 통해 음성을 전송하는 음성 서비스 모듈(2641)를 포함한다.
멀티미디어 모듈(2665)는 동영상 재생 모듈(2666), 동영상 및 스틸 사진 촬영 모듈(2667), 음성 재생 모듈(2668)을 포함한다.
UI & 그래픽 모듈(2661)은 윈도우 메니저로 터치 입력을 받는 모듈인 X11(2662), 사용자에게 보여지는 모든 오브젝트를 화면상에 출력해주는 모듈(2663), 및 오브젝트별로 저장된 모드 설정값과 현재 터치 입력에 대한 추정 모듈(2664)를 포함한다.
이상과 같이 저장부(2503)에는 다양한 구조의 프로그램이 저장되어 있을 수 있으며, 도 26에 도시된 바로 제한되지 않는다.
프로세서(2502)는 저장부(2503)에 저장된 프로그램을 이용하여 상술한 다양한 실시 예에 따른 동작을 수행할 수 있다. 프로세서(2502)는 적어도 하나의 오브젝트가 디스플레이 되도록 투명 디스플레이를 제어하고, 적어도 하나의 입력 인터페이스를 통해 수신된 사용자의 입력이 오브젝트에 대해 소정의 입력 인터페이스로 입력되었는지를 판단하고, 판단에 기초하여 오브젝트를 제어한다.
본 발명의 실시 예들에 따른 오브젝트 제어 방법 또는 가이드 디스플레이 방법을 컴퓨터로 구현하는 방법을 수행하도록 하는 명령어들을 포함하는 하나 이상의 프로그램은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로써 기록되는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 저장 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드로써 저장되고 실행될 수 있다.
이제까지 본 발명에 대하여 그 바람직한 실시 예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.

Claims (30)

  1. 디스플레이를 포함하는 디바이스에 의해 수행되는 오브젝트 제어 방법에 있어서,
    상기 디스플레이에 적어도 하나의 오브젝트를 디스플레이 하는 단계;
    상기 디스플레이의 입력 인터페이스를 통해 입력을 수신하고, 상기 입력 인터페이스는 제 1 입력 인터페이스 및 제 2 입력 인터페이스중 적어도 하나를 포함하는 단계; 및
    상기 입력 수신에 응답하여,
    상기 입력 인터페이스가 상기 제 1 입력 인터페이스이고, 소정의 입력 인터페이스가 상기 제 1 입력 인터페이스이면, 상기 디바이스의 상기 소정의 입력 인터페이스에 관련된 제 1 기능을 수행하고,
    상기 입력 인터페이스가 상기 제 2 입력 인터페이스이고, 상기 소정의 입력 인터페이스가 상기 제 2 입력 인터페이스이면, 상기 소정의 입력 인터페이스에 관련된 제 2 기능을 수행하는 단계를 포함하는 오브젝트 제어 방법.
  2. 제 1 항에 있어서, 상기 수행 단계는 상기 입력 인터페이스가 상기 제 1 입력 인터페이스와 상기 제 2 입력 인터페이스 둘이고, 상기 소정의 입력 인터페이스가 상기 제 1 입력 인터페이스와 상기 제 2 입력 인터페이스 둘이면, 상기 소정의 입력 인터페이스와 관련된 제 3 기능을 수행하는 단계를 더 포함하는 오브젝트 제어 방법.
  3. 제 1 항에 있어서, 상기 디스플레이는 투명 디스플레이인 것을 특징으로 하는 오브젝트 제어 방법.
  4. 제 3 항에 있어서, 상기 제 1 입력 인터페이스는 상기 투명 디스플레이의 전면과 상기 투명 디스플레이의 후면중 적어도 하나이고,
    상기 제 2 입력 인터페이스는 상기 투명 디스플레이의 상기 전면과 상기 투명 디스플레이의 후면중 다른 하나인 것을 특징으로 하는 오브젝트 제어 방법.
  5. 제 1 항에 있어서, 상기 입력은 적어도 하나의 오브젝트에 대응되고,
    상기 소정의 입력 인터페이스는 상기 제 1 입력 인터페이스와 상기 제 2 입력 인터페이스중 적어도 하나이고, 상기 적어도 하나의 오브젝트에 대응되고, 상기 적어도 하나의 오브젝트의 디스플레이 환경과 상기 적어도 하나의 오브젝트의 동작중 적어도 하나에 따라 설정되는 것을 특징으로 하는 오브젝트 제어 방법.
  6. 제 5 항에 있어서, 상기 디스플레이 환경은 상기 디스플레이상에 디스플레이 되고 있는 액티브 어플리케이션인 것을 특징으로 하는 오브젝트 제어 방법.
  7. 제 5 항에 있어서, 상기 적어도 하나의 오브젝트는 제 1 오브젝트와 상기 제 1 오브젝트의 전면에 디스플레이 되고 있는 제 2 오브젝트를 포함하고,
    상기 제 2 기능은 상기 제 2 오브젝트의 디스플레이 상태를 변경하는 단계를 포함하는 오브젝트 제어 방법.
  8. 제 5 항에 있어서, 상기 적어도 하나의 오브젝트는 제 1 계층(first layer) 아래에 제 2 계층(second layer)에 디스플레이 되고 있는 제 2 윈도우를 부분적으로 오버랩하는 제 1 계층상에 디스플레이 되고 있는 제 1 윈도우를 포함하고,
    상기 제 2 기능은 상기 제 2 윈도우를 이동하는 단계를 포함하는 오브젝트 제어 방법.
  9. 제 5 항에 있어서, 상기 적어도 하나의 오브젝트는 제 1 계층(first layer) 아래에 제 2 계층(second layer)에 디스플레이 되고 있는 제 2 윈도우를 부분적으로 오버랩하는 제 1 계층에 디스플레이 되고 있는 제 1 윈도우를 포함하고,
    상기 제 2 기능은 상기 제 1 윈도우 위에 상기 제 2 윈도우를 디스플레이 하는 단계를 포함하는 오브젝트 제어 방법.
  10. 제 1 항에 있어서, 상기 입력은 상기 제 2 입력 인터페이스의 소정 영역 이상 활성화하는 단계를 포함하고,
    상기 제 2 기능은 상기 디스플레이의 투명도를 최대 값으로 설정하는 단계를 포함하는 오브젝트 제어 방법.
  11. 제 10 항에 있어서,
    상기 제 2 입력 인터페이스의 상기 소정 영역 이상 터치하는 입력이 소정 시간 이상 유지되지 않으면,
    상기 제 2 기능은 상기 제 2 입력 인터페이스의 터치 단계 이전 화면(screen)으로 리턴하는 단계를 더 포함하는 오브젝트 제어 방법.
  12. 제 5 항에 있어서, 상기 방법은,
    상기 적어도 하나의 오브젝트와 관련된 입력 인터페이스 편집 요청에 응답하여 상기 적어도 하나의 오브젝트에 관련된 상기 소정의 입력 인터페이스에 관한 정보를 포함하는 편집 윈도우를 디스플레이 하는 단계; 및
    상기 편집 윈도우에서 상기 사용자의 입력에 따른 상기 적어도 하나의 오브젝트에 관한 상기 소정의 입력 인터페이스에 관한 정보를 업데이트 하는 단계를 더 포함하는 오브젝트 제어 방법.
  13. 제 5 항에 있어서, 상기 적어도 하나의 오브젝트는 제 1 오브젝트와 제 2 오브젝트를 포함하고,
    상기 입력은 상기 제 1 입력 인터페이스를 통해 수신된 상기 제 1 오브젝트에 관한 제 1 입력 및 상기 제 2 입력 인터페이스를 통해 수신된 상기 제 2 오브젝트에 관한 제 2 입력을 포함하고,
    상기 제 1 기능은 상기 제 2 오브젝트와 동시에 상기 제 1 입력 인터페이스를 통해 수신된 상기 제 1 입력에 따라 상기 제 1 오브젝트를 제어하는 단계를 포함하고,
    상기 제 2 기능은 상기 제 1 오브젝트와 동시에 상기 제 2 입력 인터페이스를 통해 수신된 상기 제 2 입력에 따라 상기 제 2 오브젝트를 제어하는 단계를 포함하는 오브젝트 제어 방법.
  14. 제 5 항에 있어서, 상기 입력은 상기 적어도 하나의 오브젝트에 관한 제스처(gesture)를 포함하고,
    상기 제스처는 상기 소정의 입력 인터페이스를 통해 일 방향으로 소정 길이 이상 이동하는 단계를 포함하고,
    상기 제 1 기능은 상기 제스처에 대응하는 방향으로 상기 적어도 하나의 오브젝트를 회전하여 상기 소정의 입력 인터페이스를 상기 제 2 입력 인터페이스로 변경하는 단계를 포함하고,
    상기 제 2 기능은 상기 제스처에 대응하는 방향으로 상기 적어도 하나의 오브젝트를 회전하여 상기 소정의 입력 인터페이스를 상기 제 1 입력 인터페이스로 변경하는 단계를 포함하는 오브젝트 제어 방법.
  15. 제 1 항에 있어서, 상기 제 2 기능은 상기 적어도 하나의 오브젝트의 상태 또는 상기 디스플레이의 상태에 기초하여 상기 입력에 대응하는 가이드를 가변적으로 디스플레이 하는 단계를 포함하는 오브젝트 제어 방법.
  16. 제 1 항에 있어서, 상기 제 2 기능은 상기 입력의 위치에 대응하는 가이드를 디스플레이 하는 단계를 포함하는 오브젝트 제어 방법.
  17. 오브젝트 제어 방법을 수행하기 위한 컴퓨터에 의해 실행되는 명령어들이 기록된 비 일시적인(non-transitory) 컴퓨터 기록 가능한 기록 매체에 있어서, 상기 방법은 제 1 항에 기재된 방법을 포함하는 기록 매체.
  18. 디바이스에 있어서,
    적어도 하나의 오브젝트를 디스플레이 하는 디스플레이;
    제 1 입력 인터페이스와 제 2 입력 인터페이스중 적어도 하나를 통해 입력을 수신하는 입력 인터페이스;
    소정의 입력 인터페이스를 저장하는 저장기; 및
    상기 입력 수신에 응답하여,
    상기 입력 인터페이스가 상기 제 1 입력 인터페이스이고 소정의 입력 인터페이스가 상기 제 1 입력 인터페이스이면, 상기 소정의 입력 인터페이스에 관련된 제 1 기능을 수행하고,
    상기 입력 인터페이스가 제 2 입력 인터페이스이고 상기 소정의 입력 인터페이스는 상기 제 2 입력 인터페이스이면, 상기 소정의 입력 인터페이스와 관련된 제 2 기능을 수행하는 프로세서를 포함하는 디바이스.
  19. 제 18 항에 있어서, 상기 프로세서는,
    상기 입력 인터페이스가 상기 제 1 입력 인터페이스와 상기 제 2 입력 인터페이스 둘이고, 상기 소정의 입력 인터페이스가 상기 제 1 입력 인터페이스와 상기 제 2 입력 인터페이스 둘이면, 상기 소정의 입력 인터페이스에 관련된 제 3 기능을 더 수행하는 디바이스.
  20. 제 18 항에 있어서, 상기 디스플레이는 투명 디스플레이인 것을 특징으로 하는 디바이스.
  21. 제 20 항에 있어서, 상기 제 1 입력 인터페이스는 상기 투명 디스플레이의 전면과 후면중 적어도 하나이고,
    상기 제 2 입력 인터페이스는 상기 투명 디스플레이의 상기 전면과 상기 후면중 하나의 또 다른 하나인 것을 특징으로 하는 디바이스.
  22. 제 18 항에 있어서, 상기 제 2 기능은 상기 적어도 하나의 오브젝트의 상태 또는 상기 디스플레이의 상태에 기초하여 상기 입력에 대응하는 가이드를 가변적으로 디스플레이 하는 것을 포함하는 디바이스.
  23. 제 18 항에 있어서, 상기 제 2 기능은 상기 입력의 위치에 대응하는 가이드를 디스플레이 하는 것을 포함하는 디바이스.
  24. 제 19 항에 있어서, 상기 입력은 상기 제 2 입력 인터페이스의 소정 영역 이상 터치하는 것을 포함하고,
    상기 제 2 기능은 상기 디스플레이의 투명도를 최대 값으로 설정하는 것을 포함하는 디바이스.
  25. 제 19 항에 있어서,
    상기 제 2 입력 인터페이스의 상기 소정 영역 이상 터치하는 입력이 소정 시간 이상 유지되지 않으면,
    상기 제 2 기능은 상기 제 2 입력 인터페이스의 터치하기 이전 화면(screen)으로 리턴되는 것을 더 포함하는 디바이스.
  26. 제 18 항에 있어서, 상기 입력은 적어도 하나의 오브젝트에 대응되고,
    상기 소정의 입력 인터페이스는 상기 제 1 입력 인터페이스와 상기 제 2 입력 인터페이스중 적어도 하나이고,
    상기 적어도 하나의 오브젝트에 대응되고,
    상기 적어도 하나의 오브젝트의 디스플레이 환경과 상기 적어도 하나의 오브젝트의 동작중 적어도 하나에 따라 설정되는 디바이스.
  27. 제 26 항에 있어서, 상기 적어도 하나의 오브젝트는 제 1 오브젝트와 상기 제 1 오브젝트의 전면상에 디스플레이 되고 있는 제 2 오브젝트를 포함하고,
    상기 제 2 기능은 상기 제 2 오브젝트의 디스플레이 상태를 변경하는 것을 포함하는 디바이스.
  28. 제 26 항에 있어서, 상기 적어도 하나의 제 1 오브젝트는 제 1 계층(first layer) 아래에 제 2 계층(second layer)에 디스플레이 되고 있는 제 2 윈도우를 부분적으로 오버랩하는 제 1 계층에 디스플레이 되고 있는 제 1 윈도우를 포함하고,
    상기 제 2 기능은 상기 제 2 윈도우를 이동하는 것을 포함하는 디바이스.
  29. 제 26 항에 있어서, 상기 적어도 하나의 오브젝트는 제 1 계층(first layer) 아래에 제 2 계층(second layer)에 디스플레이 되고 있는 제 2 윈도우를 부분적으로 오버랩하는 제 1 계층에 디스플레이 되고 있는 제 1 윈도우를 포함하고,
    상기 제 2 기능은 상기 제 1 윈도우 위에 상기 제 2 윈도우를 디스플레이 하는 것을 포함하는 디바이스.
  30. 제 26 항에 있어서, 상기 프로세서는,
    상기 적어도 하나의 오브젝트에 대한 입력 인터페이스 편집 요청에 응답하여,
    상기 적어도 하나의 오브젝트에 관한 상기 소정의 입력 인터페이스에 관한 정보를 포함하는 편집 윈도우를 디스플레이 하고,
    상기 편집 윈도우에서 상기 사용자의 입력에 따라 상기 적어도 하나의 오브젝트에 관한 상기 소정의 입력 인터페이스에 관한 정보를 업데이트 하는 것을 포함하는 디바이스.
KR1020130036716A 2012-04-07 2013-04-04 투명 디스플레이를 포함하는 디바이스에서 오브젝트 제어 방법 및 그 디바이스와 기록 매체 KR102164453B1 (ko)

Priority Applications (6)

Application Number Priority Date Filing Date Title
EP13162552.7A EP2648086A3 (en) 2012-04-07 2013-04-05 Object control method performed in device including transparent display, the device, and computer readable recording medium thereof
PCT/KR2013/002907 WO2013151400A1 (en) 2012-04-07 2013-04-08 Object control method performed in device including transparent display, the device, and computer readable recording medium thereof
US13/858,258 US10296127B2 (en) 2012-04-07 2013-04-08 Object control method performed in device including transparent display, the device, and computer readable recording medium thereof
AU2013203018A AU2013203018B2 (en) 2012-04-07 2013-04-08 Object control method performed in device including transparent display, the device, and computer readable recording medium thereof
CN201380018937.5A CN104246683B (zh) 2012-04-07 2013-04-08 在包括透明显示器的装置中执行的对象控制方法、装置及其计算机可读记录介质
JP2015504507A JP6254147B2 (ja) 2012-04-07 2013-04-08 透明ディスプレイを有するデバイスにおけるオブジェクト制御方法、該デバイス及び該記録媒体

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20120036405 2012-04-07
KR1020120036405 2012-04-07

Publications (2)

Publication Number Publication Date
KR20130113997A true KR20130113997A (ko) 2013-10-16
KR102164453B1 KR102164453B1 (ko) 2020-10-13

Family

ID=49634290

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130036716A KR102164453B1 (ko) 2012-04-07 2013-04-04 투명 디스플레이를 포함하는 디바이스에서 오브젝트 제어 방법 및 그 디바이스와 기록 매체

Country Status (3)

Country Link
JP (1) JP6254147B2 (ko)
KR (1) KR102164453B1 (ko)
CN (1) CN104246683B (ko)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015122559A1 (en) * 2014-02-17 2015-08-20 Lg Electronics Inc. Display device and method of controlling therefor
KR20170053711A (ko) * 2014-09-12 2017-05-16 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 컨텍스트 정보에 기초한 터치 표면에 대한 비활성 영역
US9696899B2 (en) 2012-10-10 2017-07-04 Samsung Electronics Co., Ltd. Multi display apparatus and multi display method
WO2018004115A1 (ko) * 2016-06-30 2018-01-04 삼성전자주식회사 전자 장치 및 그의 동작 방법
US10353556B2 (en) 2014-01-15 2019-07-16 Volkswagen Aktiengesellschaft Method and device for providing a user with feedback on an input
US11360728B2 (en) 2012-10-10 2022-06-14 Samsung Electronics Co., Ltd. Head mounted display apparatus and method for displaying a content
WO2022177105A1 (ko) * 2021-02-19 2022-08-25 삼성전자 주식회사 투명 디스플레이를 포함하는 전자 장치 및 이의 동작 방법
KR20230141724A (ko) * 2014-10-15 2023-10-10 삼성전자주식회사 디바이스를 이용한 화면 처리 방법 및 장치

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104704441B (zh) * 2012-10-01 2018-10-26 日本电气株式会社 信息处理设备、信息处理方法和记录介质
CN106233243B (zh) * 2014-04-30 2021-02-12 惠普发展公司,有限责任合伙企业 多架构管理器
JP6567324B2 (ja) * 2015-05-21 2019-08-28 シャープ株式会社 画像表示装置、およびヘッドマウントディスプレイ
CN105100609B (zh) * 2015-07-10 2019-04-16 努比亚技术有限公司 移动终端和拍摄参数的调节方法
CN105824458A (zh) * 2016-01-29 2016-08-03 维沃移动通信有限公司 一种拍照控制方法及移动终端
JP6195964B1 (ja) * 2016-04-15 2017-09-13 ネイバー コーポレーションNAVER Corporation アプリケーション制作装置及びその方法、アプリケーション駆動装置、並びにコンピュータプログラム
CN110337631B (zh) * 2017-02-22 2022-11-18 索尼移动通信株式会社 信息处理装置、方法和程序
CN110456948B (zh) * 2018-05-07 2023-04-18 苹果公司 用于推荐和消费电子设备上的内容的用户界面
CN109271120A (zh) * 2018-08-21 2019-01-25 维沃移动通信有限公司 一种显示方法及终端
JP6613512B1 (ja) * 2018-08-31 2019-12-04 レノボ・シンガポール・プライベート・リミテッド 電子機器
CN110312034B (zh) * 2019-06-19 2021-02-02 Oppo广东移动通信有限公司 透明显示屏控制方法及相关设备
CN110503912B (zh) * 2019-08-23 2022-11-04 Oppo(重庆)智能科技有限公司 一种透明显示屏的显示控制方法、装置及终端设备
JP2021068206A (ja) * 2019-10-24 2021-04-30 株式会社ジャパンディスプレイ 表示装置
CN114730580A (zh) 2019-11-11 2022-07-08 苹果公司 基于时间段的精选播放列表的用户界面

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003330611A (ja) * 2002-05-16 2003-11-21 Sony Corp 入力方法及び入力装置
JP2009187290A (ja) * 2008-02-06 2009-08-20 Yamaha Corp タッチパネル付制御装置およびプログラム
KR20100027866A (ko) * 2008-09-03 2010-03-11 엘지전자 주식회사 이동 단말기 및 그의 객체 선택과 실행 방법
KR20100086639A (ko) * 2009-01-23 2010-08-02 삼성전자주식회사 듀얼 터치 스크린을 구비한 휴대 단말기 및 그 컨텐츠 제어방법
US20100277439A1 (en) * 2009-04-30 2010-11-04 Motorola, Inc. Dual Sided Transparent Display Module and Portable Electronic Device Incorporating the Same
KR20110081040A (ko) * 2010-01-06 2011-07-13 삼성전자주식회사 투명 디스플레이를 구비한 휴대단말에서 컨텐츠 운용 방법 및 장치

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6963937B1 (en) * 1998-12-17 2005-11-08 International Business Machines Corporation Method and apparatus for providing configurability and customization of adaptive user-input filtration
JP2003296022A (ja) * 2002-04-01 2003-10-17 Pioneer Electronic Corp タッチパネル一体型表示装置
KR100672354B1 (ko) * 2004-03-06 2007-01-24 엘지전자 주식회사 이동 단말기의 키 입력장치
JP4884912B2 (ja) * 2006-10-10 2012-02-29 三菱電機株式会社 電子機器
US7979805B2 (en) * 2007-05-21 2011-07-12 Microsoft Corporation Button discoverability
US20090235281A1 (en) * 2008-03-12 2009-09-17 Inventec Corporation Handheld electronic device, input device and method thereof, and display device and method thereof
JP4762262B2 (ja) * 2008-03-13 2011-08-31 シャープ株式会社 情報表示装置及び情報表示方法
JP5353090B2 (ja) * 2008-06-27 2013-11-27 株式会社ニコン デジタルフォトフレーム
EP2282256A1 (en) * 2009-08-04 2011-02-09 Deutsche Telekom AG Electronic device and method for controlling an electronic device
JP2011070609A (ja) * 2009-09-28 2011-04-07 Fujitsu Ltd タッチパネル付情報端末装置、表示制御方法、および表示制御プログラム
JP5363259B2 (ja) * 2009-09-29 2013-12-11 富士フイルム株式会社 画像表示装置、画像表示方法およびプログラム
EP2341418A1 (en) * 2009-12-31 2011-07-06 Sony Computer Entertainment Europe Limited Device and method of control
CN102004614B (zh) * 2010-12-30 2013-06-19 Tcl集团股份有限公司 双屏触敏显示电子设备及其实现方法
JP5784960B2 (ja) * 2011-04-26 2015-09-24 京セラ株式会社 携帯端末、タッチパネル操作プログラムおよびタッチパネル操作方法
CN102360254A (zh) * 2011-09-28 2012-02-22 广东美的电器股份有限公司 一种触控显示屏及使用触控显示屏的终端设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003330611A (ja) * 2002-05-16 2003-11-21 Sony Corp 入力方法及び入力装置
JP2009187290A (ja) * 2008-02-06 2009-08-20 Yamaha Corp タッチパネル付制御装置およびプログラム
KR20100027866A (ko) * 2008-09-03 2010-03-11 엘지전자 주식회사 이동 단말기 및 그의 객체 선택과 실행 방법
KR20100086639A (ko) * 2009-01-23 2010-08-02 삼성전자주식회사 듀얼 터치 스크린을 구비한 휴대 단말기 및 그 컨텐츠 제어방법
US20100277439A1 (en) * 2009-04-30 2010-11-04 Motorola, Inc. Dual Sided Transparent Display Module and Portable Electronic Device Incorporating the Same
KR20110081040A (ko) * 2010-01-06 2011-07-13 삼성전자주식회사 투명 디스플레이를 구비한 휴대단말에서 컨텐츠 운용 방법 및 장치

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9696899B2 (en) 2012-10-10 2017-07-04 Samsung Electronics Co., Ltd. Multi display apparatus and multi display method
US11360728B2 (en) 2012-10-10 2022-06-14 Samsung Electronics Co., Ltd. Head mounted display apparatus and method for displaying a content
US10353556B2 (en) 2014-01-15 2019-07-16 Volkswagen Aktiengesellschaft Method and device for providing a user with feedback on an input
WO2015122559A1 (en) * 2014-02-17 2015-08-20 Lg Electronics Inc. Display device and method of controlling therefor
US9529383B2 (en) 2014-02-17 2016-12-27 Lg Electronics Inc. Display device and method of controlling therefor
KR20170053711A (ko) * 2014-09-12 2017-05-16 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 컨텍스트 정보에 기초한 터치 표면에 대한 비활성 영역
KR20230141724A (ko) * 2014-10-15 2023-10-10 삼성전자주식회사 디바이스를 이용한 화면 처리 방법 및 장치
US11914153B2 (en) 2014-10-15 2024-02-27 Samsung Electronics Co., Ltd. Method and apparatus for processing screen using device
US12007570B2 (en) 2014-10-15 2024-06-11 Samsung Electronics Co., Ltd. Method and apparatus for processing screen using device
WO2018004115A1 (ko) * 2016-06-30 2018-01-04 삼성전자주식회사 전자 장치 및 그의 동작 방법
WO2022177105A1 (ko) * 2021-02-19 2022-08-25 삼성전자 주식회사 투명 디스플레이를 포함하는 전자 장치 및 이의 동작 방법

Also Published As

Publication number Publication date
CN104246683A (zh) 2014-12-24
CN104246683B (zh) 2019-04-16
JP6254147B2 (ja) 2017-12-27
KR102164453B1 (ko) 2020-10-13
JP2015512549A (ja) 2015-04-27

Similar Documents

Publication Publication Date Title
KR102164453B1 (ko) 투명 디스플레이를 포함하는 디바이스에서 오브젝트 제어 방법 및 그 디바이스와 기록 매체
US10296127B2 (en) Object control method performed in device including transparent display, the device, and computer readable recording medium thereof
US10788977B2 (en) System and method for displaying information on transparent display device
US10470538B2 (en) Portable terminal and display method thereof
US9865224B2 (en) Transparent display apparatus and display method thereof
KR102063952B1 (ko) 멀티 디스플레이 장치 및 멀티 디스플레이 방법
US9348504B2 (en) Multi-display apparatus and method of controlling the same
US9086787B2 (en) Mobile terminal and control method thereof
US10222840B2 (en) Display apparatus and controlling method thereof
EP2728437B1 (en) Mobile terminal and control method thereof
US20140340339A1 (en) User terminal device and interaction method thereof
US10409439B2 (en) User terminal apparatus and controlling method thereof
AU2018223043B2 (en) Portable terminal and display method thereof
KR20140037753A (ko) 투명 디스플레이 기기상에 정보를 디스플레이 하는 시스템 및 방법
KR102026946B1 (ko) 이동 단말기 및 그 제어방법
AU2015200541A1 (en) Object control method performed in device including transparent display, the device, and computer readable recording medium thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant