JP6254147B2 - 透明ディスプレイを有するデバイスにおけるオブジェクト制御方法、該デバイス及び該記録媒体 - Google Patents

透明ディスプレイを有するデバイスにおけるオブジェクト制御方法、該デバイス及び該記録媒体 Download PDF

Info

Publication number
JP6254147B2
JP6254147B2 JP2015504507A JP2015504507A JP6254147B2 JP 6254147 B2 JP6254147 B2 JP 6254147B2 JP 2015504507 A JP2015504507 A JP 2015504507A JP 2015504507 A JP2015504507 A JP 2015504507A JP 6254147 B2 JP6254147 B2 JP 6254147B2
Authority
JP
Japan
Prior art keywords
input
screen
display
user
transparent display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015504507A
Other languages
English (en)
Other versions
JP2015512549A (ja
Inventor
イル−コク・ユン
チャン−ソ・イ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Priority claimed from PCT/KR2013/002907 external-priority patent/WO2013151400A1/en
Publication of JP2015512549A publication Critical patent/JP2015512549A/ja
Application granted granted Critical
Publication of JP6254147B2 publication Critical patent/JP6254147B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04804Transparency, e.g. transparent or translucent windows

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、透明ディスプレイを有するデバイスに係り、特に、透明ディスプレイを有するデバイスにおけるオブジェクト制御方法、該デバイス及び該記録媒体に関する。
透明ディスプレイを有する次世代ディスプレイデバイスが、最近開発されている。透明ディスプレイは、ユーザがディスプレイを介して見て、ディスプレイ裏面のオブジェクトを見ることができる透明度を有している。
透明ディスプレイを有するデバイスは、透明電子素子を使用して、情報認識、情報処理及び情報伝達の機能を遂行するデバイスである。
透明ディスプレイの有用性は、透明ディスプレイを含むデバイスと相互作用する新たで革新的な方法、及び透明ディスプレイを含むデバイスのユーザ・インターフェース機能を拡大させるための必要性をもたらしている。
本発明が解決しようとする課題は、透明ディスプレイを有するデバイスにおいて、前面タッチ、背面タッチ及び両面タッチのような入力に基づいたオブジェクト制御方法、該デバイス及び該記録媒体を提供するところにある。
本発明が解決しようとする他の課題は、透明ディスプレイを有するデバイスにおいて、オブジェクトの状態またはディスプレイ状態によって、インジケータ(indicator)をディスプレイする方法、該デバイス及び該記録媒体を提供するところにある。
本発明が解決しようとするさらに他の課題は、透明ディスプレイを有するデバイスにおいて、各オブジェクトに対して設定されたタッチインターフェースを利用するオブジェクト制御方法、該デバイス及び該記録媒体を提供するところにある。
前記課題を達成するための本発明の実施形態による透明ディスプレイを有するデバイスによるオブジェクト制御方法は、ディスプレイを含むデバイスによって遂行されるオブジェクト制御方法において、前記ディスプレイに、少なくとも1つのオブジェクトをディスプレイする段階と、前記ディスプレイの入力インターフェースを介して入力を受信し、前記入力インターフェースは、第1入力インターフェース及び第2入力インターフェースのうち少なくとも一つを含む段階と、前記入力受信に応答し、前記デバイスの既設定入力インターフェースに係わる第1機能を遂行し、(i)前記入力インターフェースが、前記第1入力インターフェースであり、(ii)前記既設定の入力インターフェースが、前記第1入力インターフェースである段階と、前記既設定の入力インターフェースに係わる第2機能を遂行し、(i)前記入力インターフェースは、第2入力インターフェースであり、(ii)前記既設定の入力インターフェースが、前記第2入力インターフェースである段階と、を含む。
前記遂行段階は、前記既設定の入力インターフェースに係わる第3機能を遂行し、(i)前記入力インターフェースは、前記第1入力インターフェースと、前記第2入力インターフェースとのいずれでもあり、(ii)前記既設定の入力インターフェースは、前記第1入力インターフェースと、前記第2入力インターフェースとのいずれでもある段階をさらに含んでもよい。
前記ディスプレイは、透明ディスプレイにもなる。
前記第1入力インターフェースは、前記透明ディスプレイの前面と、前記透明ディスプレイの背面とのうちいずれか一つにもなり、前記第2入力インターフェースは、前記透明ディスプレイの前面と、前記透明ディスプレイの背面とのうち他の一つにもなる。
前記入力は、前記少なくとも1つのオブジェクトに対応し、前記既設定の入力インターフェースは、前記少なくとも1つのオブジェクトに対応し、前記少なくとも1つのオブジェクトのディスプレイ環境と、前記少なくとも1つのオブジェクトの動作とのうち少なくとも一つによって設定されもする。前記ディスプレイ環境は、前記ディスプレイ上にディスプレイされているアクティブ・アプリケーションにもなる。
前記少なくとも1つのオブジェクトは、第1オブジェクトと、前記第1オブジェクトの前面上にディスプレイされている第2オブジェクトとを含んでもよく、前記第2機能は、前記第2オブジェクトのディスプレイ状態を変更する段階を含んでもよい。
前記少なくとも1つのオブジェクトは、第1階層下に、第2階層上にディスプレイされている第2ウィンドウに部分的に重なった前記第1階層上にディスプレイされている第1ウィンドウを含み、前記第2機能は、前記2ウィンドウを移動させる段階を含んでもよい。
前記少なくとも1つのオブジェクトは、第1階層下に、第2階層上にディスプレイされている第2ウィンドウに部分的に重なった前記第1階層上にディスプレイされている第1ウィンドウを含み、前記第2機能は、前記第1ウィンドウ上に、前記第2ウィンドウをディスプレイする段階を含んでもよい。
前記入力は、前記第2入力インターフェースの既設定領域以上をタッチし、前記第2機能は、前記ディスプレイの透明度を最大値として設定する段階を含んでもよい。前記入力は、前記第2入力インターフェースの既設定領域以上タッチする入力が、既設定の時間以上維持されなければ、前記第2機能は、前記第2入力インターフェースのタッチ前の画面にリターンされる段階をさらに含んでもよい。
前記方法は、前記少なくとも1つのオブジェクトに対する入力インターフェース編集要請に応答し、少なくとも1つのオブジェクトに係わる前記既設定の入力インターフェースについての情報を含む編集ウィンドウをディスプレイする段階と、前記編集ウィンドウに対する前記ユーザの入力により、前記少なくとも1つのオブジェクトに係わる前記既設定の入力インターフェースについての情報をアップデートする段階と、を含んでもよい。
前記少なくとも1つのオブジェクトは、第1オブジェクト及び第2オブジェクトを含み、前記入力は、前記第1入力インターフェースを介して受信される前記第1オブジェクトに対する第1入力と、前記第2入力インターフェースを介して受信される前記第2オブジェクトに対する第2入力と、を含み、前記第1機能は、前記第2オブジェクトと同時に、前記第1入力インターフェースを介して受信される前記第1入力により、前記第1オブジェクトを制御する段階を含み、前記第2機能は、第1オブジェクトと同時に、前記第2入力インターフェースを介して受信される前記第2入力により、前記第2オブジェクトを制御する段階を含んでもよい。
前記入力は、前記少なくとも1つのオブジェクトに係わるジェスチャを含み、前記ジェスチャは、前記既設定の入力インターフェースを介して、一方向に既設定の長さ以上移動する段階を含み、前記第1機能は、前記ジェスチャに対応する方向に、前記少なくとも1つのオブジェクトを回転させ、前記既設定の入力インターフェースを、前記第2入力インターフェースに変更する段階を含み、前記第2機能は、前記ジェスチャに対応する方向に、前記少なくとも1つのオブジェクトを回転させ、前記既設定の入力インターフェースを、前記第1入力インターフェースに変更する段階を含んでもよい。
前記第2機能は、前記少なくとも1つのオブジェクトの状態、及び前記ディスプレイの状態に基づいた入力に対応するガイドを可変的にディスプレイする段階を含んでもよい。
前記第2機能は、前記入力の位置に対応するガイドをディスプレイする段階を含んでもよい。
前記方法は、前記方法を遂行するための命令語を含むコンピュータ読取り可能な媒体で具現されもする。
前記課題を達成するための本発明の実施形態によるオブジェクト制御方法を遂行するデバイスにおいて、前記デバイスは、少なくとも1つのオブジェクトをディスプレイするディスプレイ;第1入力インターフェース及び第2入力インターフェースのうち少なくとも一つを介して入力を受信する入力インターフェース;既設定の入力インターフェースを保存する保存器;及び前記入力受信に応答し、前記既設定の入力インターフェースに係わる第1機能を遂行し、(i)前記入力インターフェースは、前記第1入力インターフェースであり、(ii)前記既設定の入力インターフェースは、前記第1入力インターフェースであり、前記既設定の入力インターフェースに係わる第2機能を遂行し、(i)前記入力インターフェースは、第2入力インターフェースであり、(ii)前記既設定の入力インターフェースは、前記第2入力インターフェースであるプロセッサ;を含む。
また、前記プロセッサは、前記既設定の入力インターフェースに係わる第3機能を遂行し、(i)入力インターフェースは、前記第1入力インターフェースと、前記第2入力インターフェースとのいずれでもあり、(ii)前記既設定の入力インターフェースは、前記第1入力インターフェースと、前記第2入力インターフェースとのいずれでもある。
前記ディスプレイは、透明ディスプレイを含んでもよい。
前記第1入力インターフェースは、前記透明ディスプレイの前面及び背面のうち一つにもなり、前記第2入力インターフェースは、前記透明ディスプレイの前面及び背面のうち一つにもなる。
前記第2機能は、前記少なくとも1つのオブジェクトの状態、または前記ディスプレイの状態に基づいた入力に対応するガイドを可変的にディスプレイすることを含んでもよい。
前記第2機能は、前記入力の位置に対応するガイドをディスプレイすることを含んでもよい。
前記入力は、前記第2入力インターフェースの既設定領域以上タッチすることを含んでもよく、前記第2機能は、前記ディスプレイの透明度を最大値として設定することを含んでもよい。また、第2入力インターフェースの前記既設定の領域以上タッチする入力が、既設定の時間以上維持されなければ、前記第2機能は、前記第2入力インターフェースのタッチ前の画面にリターンすることを含んでもよい。
前記入力は、少なくとも1つのオブジェクトに対応し、前記既設定の入力インターフェースも、少なくとも1つのオブジェクトに対応し、前記少なくとも1つのオブジェクトのディスプレイ環境、及び前記少なくとも1つのオブジェクトの動作のうち少なくとも一つによって設定されもする。
前記少なくとも1つのオブジェクトは、第1オブジェクト及び第2オブジェクトを含んでもよく、前記第2機能は、前記第1オブジェクトの前面にディスプレイされている前記第2オブジェクトのディスプレイ状態を変更することを含んでもよい。
前記少なくとも1つのオブジェクトは、第1階層下に、第2階層上にディスプレイされている第2ウィンドウに部分的に重なった前記第1階層上にディスプレイされている第1ウィンドウを含んでもよく、前記第2機能は、前記第2ウィンドウを移動することを含んでもよい。
前記少なくとも1つのオブジェクトは、第1階層下の第2階層にディスプレイされている第2ウィンドウに部分的に重なった前記第1階層上にディスプレイされている第1ウィンドウを含んでもよく、前記第2機能は、前記第1階層下に、前記第2階層から、前記第2ウィンドウを移動させ、前記第1ウィンドウ上に、前記第2ウィンドウをディスプレイすることを含んでもよい。
前記プロセッサは、前記少なくとも1つのオブジェクトに対する入力インターフェース編集要請に応答し、前記少なくとも1つのオブジェクトに係わる前記既設定の入力インターフェースについての情報を含む編集ウィンドウをディスプレイし、前記編集ウィンドウに対する前記ユーザの入力により、前記少なくとも1つのオブジェクトに係わる前記既設定の入力インターフェースについての情報をアップデートすることができる。
本発明によると、ディスプレイを含むデバイスにおいて、それぞれのオブフェクに対してタッチインターフェースセットを使用することにより、オブジェクト制御が可能である。
望ましい実施形態によるオブジェクトと、オブジェクトのユーザ入力インターフェース設定とについて説明するための図面である。 望ましい実施形態による透明ディスプレイを含むデバイスのブロック図である。 図2Aの透明ディスプレイの詳細構成例を示した図面である。 望ましい一実施形態による透明ディスプレイを含むデバイスによって遂行されるオブジェクト制御方法のフローチャートである。 図3のオブジェクト制御方法期間にディスプレイされる画面の例を図示する図面である。 図3のオブジェクト制御方法期間にディスプレイされる画面の例を図示する図面である。 図3のオブジェクト制御方法期間にディスプレイされる画面の例を図示する図面である。 図3のオブジェクト制御方法期間にディスプレイされる画面の例を図示する図面である。 図3のオブジェクト制御方法期間にディスプレイされる画面の例を図示する図面である。 図3のオブジェクト制御方法期間にディスプレイされる画面の例を図示する図面である。 図3のオブジェクト制御方法期間にディスプレイされる画面の例を図示する図面である。 図3のオブジェクト制御方法期間にディスプレイされる画面の例を図示する図面である。 図3のオブジェクト制御方法期間にディスプレイされる画面の例を図示する図面である。 図3のオブジェクト制御方法期間にディスプレイされる画面の例を図示する図面である。 図3のオブジェクト制御方法期間にディスプレイされる画面の例を図示する図面である。 図3のオブジェクト制御方法期間にディスプレイされる画面の例を図示する図面である。 図3のオブジェクト制御方法期間にディスプレイされる画面の例を図示する図面である。 図3のオブジェクト制御方法期間にディスプレイされる画面の例を図示する図面である。 図3のオブジェクト制御方法期間にディスプレイされる画面の例を図示する図面である。 図3のオブジェクト制御方法期間にディスプレイされる画面の例を図示する図面である。 図3のオブジェクト制御方法期間にディスプレイされる画面の例を図示する図面である。 望ましい他の実施形態による透明ディスプレイを含むデバイスによって遂行されるオブジェクト制御方法のフローチャートである。 図21のオブジェクト制御方法を使用して、ユーザ入力インターフェースの変更期間にディスプレイされる画面の例を図示する図面である。 図21のオブジェクト制御方法を使用して、ユーザ入力インターフェースの変更期間にディスプレイされる画面の例を図示する図面である。 望ましいさらに他の実施形態による透明ディスプレイを含むデバイス上のガイドディスプレイのディスプレイ方法のフローチャートである。 ガイドをディスプレイする画面の例を図示する図面である。 望ましい実施形態による透明ディスプレイを含むデバイスのブロック図である。 望ましい実施形態による透明ディスプレイを含むデバイスの保存部に保存されるソフトウェアについて説明する図面である。
本発明は、多様な変換を加えることができ、さまざまな実施例を有することができるが、特定実施形態を図面に例示し、詳細な説明で詳細に説明する。しかし、それは、本発明を特定の実施形態に対して限定するのではなく、本発明の思想及び技術範囲に含まれる全ての変換、均等物ないし代替物を含むものであると理解されなければならない。本発明の説明において、関連公知技術に係わる具体的な説明が、本発明の要旨を不明確にすると判断される場合、その詳細な説明を省略する。
第1、第2のような用語は、多様な構成要素についての説明に使用されるが、構成要素は、用語によって限定されるものではない。用語は、1つの構成要素を他の構成要素から区別する目的のみに使用される。
本出願において使用される用語は、ただ特定の実施例について説明するために使用されるものであり、本発明を限定する意図ではない。本出願で使用される用語は、本発明での機能を考慮しながら、可能な限り現在汎用される一般的な用語を選択したが、それは当業者の意図、判例、または新たな技術の出現などによって異なりうる。また、特定の場合は、出願人が任意に選定した用語もあり、その場合、当該発明の説明部分において、詳細にその意味を記載する。従って、本発明で使用される用語は、単純な用語の名称ではない、その用語が有する意味と、本発明の全般にわたった内容とを基に定義されなければならない。
単数の表現は、文脈上明白に取り立てて意味しない限り、複数の表現を含む。本出願において、「含む」または「有する」というような用語は、明細書上に記載された特徴、数字、段階、動作、構成要素、部品、またはそれらの組み合わせが存在するということを指定するものであり、一つまたはそれ以上の他の特徴、数字、段階、動作、構成要素、部品、またはそれらの組み合わせの存在または付加の可能性をあらかじめ排除するものではないと理解されなければならない。また、「及び/または」という用語は、一つ以上の関連するリストされたアイテムの結合を含む。図面において、同じ参照番号は、同じエレメント(element)を示すので、それらの説明は反復しない。
詳細な説明全般で言及されるオブジェクト(object)は、ディスプレイされている全ての構成要素(component)または情報であり、ユーザ入力によって選択され、ユーザの意図によって制御される構成要素または情報を意味する。オブジェクトは、例えば、第1イメージ、第1イメージ内の第2イメージ、バックグラウンドイメージ、アイコン(icon)、フォルダアイコン(folder icon)、フォルダアイコン内のアイコン、テキスト(text)、ポップアップ・ウィンドウ(pop-up window)、アプリケーション実行ウィンドウ、アプリケーション実行ウィンドウ内のコンテンツ(content)、リスト(list)、リストに含まれたアイテム(item)、コンテンツ(content)などを含んでもよいが、それらに制限されるものではない。
オブジェクトは、オブジェクトのために設定されたユーザ入力インターフェース(または、タッチ入力面)を介したユーザの入力(または、タッチ入力)によってディスプレイされる。例えば、オブジェクトは、透明ディスプレイを有するデバイスで遂行されている機能によって隠されていて、ユーザの入力によって活性化(activation)されてディスプレイされる。
以下、望ましい実施形態について、図面を参照しつつ詳細に説明する。
図1は、望ましい実施形態によるオブジェクトと、各オブジェクトのために設定されたユーザ入力インターフェースとについて説明するための図面である。
図1を参照すると、リストがディスプレイされるとき、スクロールボックス(scroll box)、アイテムボックス(item box)、アイテムボックス内に含まれたアイコン(icon)などがオブジェクトである。ユーザは、ユーザ入力(user input)インターフェースを利用して、オブジェクトに対する命令を入力することができる。図1は、オブジェクト間の階層的な(hierarchical)関係の例を図示している。スクロールボックスは、最上位階層(layer)のオブジェクトであり、アイコンは、最下位階層のオブジェクトである。言い替えると、図1は、スクロールボックス・オブジェクトの下位階層に複数のアイテムボックス・オブジェクトが含まれ、各アイテムボックス・オブジェクトの下位階層に、アイコンオブジェクトが含まれた場合である。
図1に図示されているように、各オブジェクトのためのユーザ入力インターフェースが前もって設定されもする。各オブジェクトのユーザ入力インターフェースは、各オブジェクトを運用するためのプログラム制作時に設定される。下位階層のオブジェクトに対するユーザ入力インターフェースは、上位階層のオブジェクトのために設定されたユーザ入力インターフェースによって設定されもする。
例えば、図1のアイコンのユーザ入力インターフェースが、各オブジェクトを含むプログラム制作時に設定されていない場合、アイコンのユーザ入力インターフェースは、アイテムボックスのために設定されたユーザ入力インターフェースに設定されもする。なぜならば、アイテムボックスは、アイコンのペアレント階層(parent layer)であり、アイコンは、アイテムボックスのサブ階層であるからである。アイコンがディスプレイされるとき、アイコンのユーザ入力インターフェースの設定が遂行されもする。各オブジェクトを含むプログラムの制作時、アイテムボックスと、アイコンのユーザ入力インターフェースとが設定されていない場合、アイテムボックスと、アイコンのユーザ入力インターフェースは、スクロールボックスの既設定のユーザ入力インターフェースによって設定されもする。なぜならば、アイテムボックスとアイコンは、スクロールボックスのサブ階層であるからである。その場合、アイテムボックス及びアイコンがディスプレイされるとき、アイテムボックス及びアイコンのユーザ入力インターフェースは、スクロールボックスのユーザ・インターフェースによって設定されもする。
図1に図示されているように、各オブジェクトのユーザ入力インターフェースが設定された場合、スクロールボックスは、背面入力インターフェース(back input interface)を介して入力されたユーザの入力によって動作し、アイテムボックス_1は、前面入力インターフェース(front input interface)を介して入力されたユーザの入力によって動作し、アイコンは、前面入力インターフェースまたは/及び背面入力インターフェースを介して入力されたユーザの入力によって動作し、テキストは、前面入力インターフェースを介して入力されたユーザの入力によって動作する。
従って、図1のように、各オブジェクトのユーザ入力インターフェースが設定された場合、スクロールボックスは、背面入力インターフェースに入力が印加されて動作され、アイテムボックスは、ただ前面ユーザ・インターフェースを介して入力を受信し、アイコンは、ただ前面入力インターフェースと背面入力インターフェースとを介して入力を受信し、スクローリングの一時停止が発生した位置に位置しないため、アイテムボックスまたはアイコンが誤って選択される動作エラーは発生しない。
また、図1において、オブジェクトのために設定されたユーザ入力インターフェースは、オブジェクトがディスプレイされる環境と、オブジェクトの動作とのうち少なくとも一つに基づいて決定されるが、望ましい実施形態は、それに制限されるものではない。
例えば、ユーザによって容易に制御される前面入力インターフェースは、狭いユーザ入力面積(または、タッチ面積)を有するオブジェクトのために設定され、ユーザによって相対的に容易に制御されない背面入力インターフェースは、広いユーザ入力面積を有するオブジェクトのために設定されもする。ユーザによって容易に制御される前面入力インターフェースは、ユーザによって頻繁に使用される動作を遂行するオブジェクトのために設定され、ユーザによって相対的に容易に制御されない背面入力インターフェースは、ユーザによってあまり使用されないオブジェクトのために設定されもする。
オブジェクトが、ユーザ入力インターフェースによってマルチプル動作を実行するために設定された場合、両面入力インターフェース(例えば、前面入力インターフェース及び背面入力インターフェース)が、オブジェクトのユーザ入力インターフェースとして設定されもする。オブジェクト基盤実行動作は、前面入力インターフェース、背面入力インターフェース及び両面入力インターフェースを介したユーザの入力によって遂行される。図1に図示されたオブジェクトは、ウィジェット(widget)といわれる。前面入力インターフェース、背面入力インターフェース及び両面入力インターフェースは、それぞれ前面モード(front mode)、背面モード(back mode)、両面モード(front+back mode)とされる。
詳細な説明全般で言及される入力インターフェースまたは入力モードは、透明ディスプレイのタッチ面にもなる。従って、前面入力インターフェースまたは前面入力モードは、透明ディスプレイの前面タッチ面になる。背面入力インターフェースまたは背面入力モードは、透明ディスプレイの背面タッチ面になる。
詳細な説明全般で言及されるユーザの入力は、ユーザのジェスチャ(gesture)によって提供される入力情報にもなる。ユーザのジェスチャは、ユーザの入力の位置、方向、速度、タッチ地点の数などによって決定される。すなわち、入力装置がタッチスクリーン基盤であるとき、ユーザのジェスチャは、例えば、タップ(tap)、タッチ・アンド・ホールド(touch and hold)、ダブルタップ(double tap)、ドラッグ(drag)、パニング(panning)、フリック(flick)、ドラッグ・アンド・ドロップ(drag and drop)及びスウィープ(sweep)などを含んでもよいが、それらに制限されるものではない。
タッチスクリーンに対するユーザのジェスチャは、ユーザの指またはタッチツール(例えば、スタイラスペン)を利用して作われる。ユーザのジェスチャは、カメラまたは他のジェスチャ検出デバイスからも受信される。そのような場合、ユーザのジェスチャは、カメラを使用して撮影された映像に基づいて決定された空間で遂行されたジェスチャを含んでもよい。ユーザ動きに基づいた空間で遂行されるジェスチャは、デバイスの動き(例えば、シェーキングなど)によっても決定される。
入力装置が、物理的ボタン、ダイヤル、スライダスイッチ、ジョイスティック、クリックホイールのうち少なくとも一つを含むとき、ユーザの入力は、入力装置に対するユーザの物理的な制御に依存される。入力装置がオーディオ入力装置基盤であるとき、ユーザの入力は、自然語(spoken language)基盤のユーザの音声認識に依存される。
図2Aは、望ましい実施形態による透明ディスプレイ201を含むデバイス200の機能ブロック図である。図2に図示された透明ディスプレイ201を含むデバイス200は、一例であり、スマートフォン(smart phone)、ノート型パソコン(notebook)、タブレット(tablet)PC(personal computer)、ファブレット(phablet)、移動端末機(mobile device)、ハンドヘルド(handheld)デバイスまたはハンドヘルドPC、PDA(personal digital assistant)などがあるが、それらに制限されるものではない。透明ディスプレイ201はまた、高付加価値ガラス、機能性自動車部品であるガラス、自動車ダッシュボード(dash board)、ナビゲータ(navigator)、保安電子デバイス、太陽電池、ゲーム機、おもちゃ、ショーウインドウ、スマートウィンドウなど多様な分野に適用される。
図2Aを参照すると、デバイス200は、透明ディスプレイ201、ユーザ入力部205、センシング部206、カメラ207、オーディオ入力部208、オーディオ信号処理部209、オーディオ出力部210、保存部(保存器)211、通信部212、ポート213、電源部214及びプロセッサ215を含む。透明ディスプレイ201を有するデバイス200の構成は、図2に図示されたところに制限されるものではない。
透明ディスプレイ201は、タッチスクリーンといわれる。透明ディスプレイ201は、オブジェクトをディスプレイするディスプレイ部202、ディスプレイ部202の前面に設けられ、タッチに基づいたユーザの入力を受信する前面入力部203(例えば、前面入力インターフェース)、及びディスプレイ部202の背面に設けられ、タッチに基づいたユーザの入力を受信する背面入力部204(例えば、背面入力インターフェース)を含む。前面インターフェース及び背面入力インターフェースはまた、イメージングセンサ、赤外線センサ、近接センサなどに基づいた他の形態のユーザの入力を受信することができる。
ディスプレイ部202は、デバイス200によって処理されるオブジェクトを含む情報を出力する。該情報は、オブジェクト以外の情報を含んでもよい。オブジェクト以外の情報は、ディスプレイされ、ユーザの入力によって選択されることがないように設定される。
ディスプレイ部202は、透明デバイスによって構成され、透明デバイスの光透過率を調節し、透明度を調節したり、あるいは各ピクセルのRGB(red,Green,blue)値を調節し、透明度を調節したりすることができる。またディスプレイ部202は、有機発光ダイオード(organic light-emitting diode)と液晶ディスプレイ(liquid crystal display)とが互いに結合された構造を有することができる。有機発光ダイオードは、前面入力部203に隣接するように位置させ、液晶ディスプレイは、背面入力部204に隣接するように位置させることができる。ディスプレイ部202が、前述の結合された構造を有する場合、普段には、透明なガラスのような状態を維持していて、電源供給時、液晶ディスプレイが光を遮断し、ディスプレイ部202は、不透明な状態に設定される。
ディスプレイ部202は、前面入力部203または/及び背面入力部204を介したユーザのジェスチャまたはタッチパターン、ユーザ入力部205を介して入力されたユーザの入力、センシング部206を介して入力されたユーザの入力、カメラ207を介して入力されたユーザの入力、あるいはオーディオ入力部208を介して入力されたユーザの入力に応答する画面をディスプレイする。ディスプレイ部202にディスプレイされている画面は、UI(user interface)画面またはGUI(graphic user interface)画面を含む。
ディスプレイ部202は、液晶ディスプレイ、薄膜トランジスタ液晶ディスプレイ(thin film transistor-liquid crystal display)、有機発光ダイオード、フレキシブル・ディスプレイ(flexible display)、三次元ディスプレイ(3D(three dimensional) display)、AM OLED(active-matrix organic light-emitting diode)、体積型ディスプレイ(volumetric display)及びホログラフィック・ディスプレイ(holographic display)のうち少なくとも一つによって構成されもするが、それらに制限されるものではない。透明ディスプレイ201の数は、デバイス200の具現形態によって、2個以上にもなる。
前面入力部203と背面入力部204は、ユーザのタッチ基盤入力を受信するためのタッチセンサを含む。あるいは、ユーザの入力を受信するための2個以上のタッチセンサ、または他のタイプのセンサであってもよい。該センサは、各入力インターフェースに係わる独立したユーザ入力、またはマルチプル入力インターフェースに対する複合ユーザ入力によって、異なる機能を遂行するために使用される制限のない数の入力インターフェースを提供するために使用される。
望ましい実施形態により、前面入力部203及び背面入力部204に対するタッチを感知するセンサは、前面入力部203及び背面入力部204において、ユーザのジェスチャまたはパターンを感知するセンサを含む。タッチを感知するためのセンサは、ドラッグ、フリック、タップ、タッチ・アンド・ホールド、ダブルタップ、パニング、スウィープのうち少なくとも一つが、前面入力部203及び/または背面入力部204で感知されると、信号を生成することができる。触覚センサは、前面入力部203及び背面入力部204のタッチを感知するセンサの一例として使用される。該触覚センサは、接触面の粗度、接触物体の硬度、接触地点の温度のような多様な情報を感知することができる。
前面入力部203及び背面入力部204は、減圧(抵抗膜)式または静電(または、静電容量)式で構成される。前面入力部203及び背面入力部204において、ユーザ入力認識は、座標情報を利用することができる。タッチが生じた位置のx軸とy軸との座標をユーザの入力として認識することができる。
ユーザの入力は、ユーザのジェスチャに基づいたユーザの要請(request)またはユーザの選択(selection)によって生じる。ユーザのジェスチャは、例えば、タッチ回数、タッチパターン、タッチ面積及びタッチ強度の多様な組み合わせによって、多様な方法で決定される。ユーザの入力は、ユーザの指、またはスタイラスペンのようなタッチツールによって入力される。ユーザの指またはタッチツールは、外部入力装置ともいわれる。
前面入力部203及び背面入力部204のタッチは、ポインタ(pointer)がタッチパネルにタッチされた場合を示す。タッチは、マルチタッチまたはタッチポイントを含んでもよい。前面入力部203及び背面入力部204に対する近接タッチ(proximity-touch)は、ポインタが、前面入力部203及び背面入力部204に実際にタッチされず、前面入力部203及び背面入力部204の所定距離内になるように決定された場合を示す。
該ポインタは、前面入力部203及び背面入力部204の特定部分をタッチしたり、あるいは近接タッチしたりするためのツールであり、前述のユーザの指またはスタイラスペンが利用される。
透明ディスプレイ部201は、実施形態によって、透明LCD(liquid crystal display)型、透明TFEL(thin-film electroluminescent panel)型、透明OLED(organic light emitting diode)型、投射型のような多様な形態で具現される。以下、透明ディスプレイ部201の構造に係わる多様な実施例について説明する。
透明LCD型とは、現在使用されているLCD装置において、バックライトユニットを除去し、1対の偏光板、光学フィルム、透明薄膜トランジスタ、透明電極などを使用して具現した透明ディスプレイ装置である。
透明TFEL型とは、透明電極、無機蛍光体、絶縁膜からなる交流型無機薄膜EL(AC−TFEL)ディスプレイを使用する装置を意味する。AC−TFELは、無機蛍光体の内部に、加速された電子が通過しつつ蛍光体を励起させて発光させるディスプレイである。透明ディスプレイ部201が透明TFEL形態で具現された場合、プロセッサ215は、適切な位置に電子が投射されるように調整し、情報表示位置を決定することができる。無機蛍光体、絶縁膜が透明な特性を有するので、非常に透明なディスプレイを具現することができる。
透明OLED型とは、自体発光が可能なOLEDを利用する透明ディスプレイ装置を意味する。有機発光層が透明であるために、両電極に透明電極を使用すると、透明ディスプレイ装置として具現可能である。該OLEDは、有機発光層の両端から、電子と正孔とを注入し、それらが有機発光層内で結合されながら発光する。該透明OLED装置は、そのような原理を使用して、所望の位置に電子及び正孔を注入し、情報を表示する。
図2Bは、透明OLED型で具現された透明ディスプレイ140−1の詳細な構造の断面図である。
図2Bを参照すると、透明ディスプレイ140−1は、透明基板141−1、透明トランジスタ層142−1、第1透明電極143−1、透明有機発光層(transparent organic light-emitting layer)144−1、第2透明電極145−1、連結電極146−1を含む。
透明基板141−1は、透明な性質を有するプラスチックのようなポリマー材料またはガラスを使用することができる。透明基板141−1の材質は、透明ディスプレイ装置100が使用される環境によって決定される。例えば、ポリマー材料は、軽くて柔軟であるという長所があり、携帯型ディスプレイ装置に使用され、ガラスは、商店のショーケースウィンドウ(showcase window)や一般ウィンドウなどに使用することができる。透明トランジスタ層142−1とは、既存薄膜トランジスタの不透明なシリコンを、透明な亜鉛酸化物、酸化チタンのような透明物質で代替して製作したトランジスタを含むレイヤを意味する。透明トランジスタ層142−1内には、ソース、ゲート、ドレイン及び各種誘電膜147−1,148−1が設けられ、ドレインと第1透明電極143−1とを電気的に連結する連結電極146−1も設けられる。図2Bにおいては、透明トランジスタ層142−1内に、ソース、ゲート、ドレインからなる1つの透明トランジスタだけが図示されているが、透明トランジスタ層142−1は、ディスプレイ表面の全体領域に等しく分布された複数の透明トランジスタを含んでもよい。プロセッサ215は、透明トランジスタ層142−1に含まれた各トランジスタのゲートに制御信号を印加し、当該透明トランジスタを駆動させて情報を表示することができる。
第1透明電極143−1及び第2透明電極145−1は、透明有機発光層144−1を基準に、互いに反対方向に配置される。第1透明電極143−1、透明有機発光層144−1及び第2透明電極145−1は、透明有機発光ダイオードを形成する。
透明OLEDは、ディスプレイを駆動する方法によって、受動型OLED(passive matrix OLED)と能動型OLED(active matrix OLED)に分類される。PMOLED(classified into a passive matrix OLED)は、第1透明電極143−1及び第2透明電極145−1が互いに交差する部分が、画素を形成する構造である。一方、AMOLEDは、各画素を駆動する薄膜トランジスタ(TFT)がある構造である。図2Bにおいては、能動型OLEDを示している。
第1透明電極143−1及び第2透明電極145−1は、それぞれ複数個のライン電極を含み、ライン電極の整列方向は、互いに垂直に形成される。もし第1透明電極143−1のライン電極が横方向に配列されるとするならば、第2透明電極145−1のライン電極は、縦方向に配列される。それにより、第1透明電極143−1及び第2透明電極145−1の間には、複数の交差領域が形成される。各交差領域には、図2Bに図示されているように、透明トランジスタが連結される。
プロセッサ215は、透明トランジスタを利用して、各交差領域別に電位差を形成させる。電位差が形成された交差領域内において、各電極から、電子と正孔とが透明有機発光層144−1に流入して結合しながら、発光が行われる。電位差が形成されていない交差領域は、発光が行われず、それにより、背面背景がそのまま透明に映し出される。
第1透明電極143−1及び第2透明電極145−1としては、ITO(indium tin oxide)が使用される。または、グラフェンのような新素材が使用されもする。グラフェンは、炭素原子が互いに連結され、ハニカム状の平面構造をなし、透明な性質を有する物質である。それ以外に、透明有機発光層144−1も多様な材料によって具現される。
前述のように、透明ディスプレイ201は、透明LCD型、透明TFEL(thin-film electroluminescent panel)型、透明OLED型以外に、投射型によっても具現される。投射型とは、HUD(head up display)のように透明なスクリーンに映像を投射してディスプレイする方式を意味する。
ユーザ入力部205は、透明ディスプレイを有するデバイス200の動作を制御するための入力データ(または、制御データ)及びユーザの入力を発生させる。ユーザ入力部205は、キーパッド(key pad)、ドームスイッチ(dome switch)、マウスの代わりに使用されるタッチパッド(touch pad)、ジョグホイール(jog wheel)、ジョグスイッチ(jog switch)、ハードウェア(H/W)ボタンなどを含んでもよい。
センシング部206は、デバイス200の位置、ユーザの接触いかん、デバイス200の方位、デバイス200の加速または減速のように、デバイス200の現在状態を感知し、デバイス200の動作を制御するためのセンシング信号を発する。
センシング部206は、前面入力部203及び背面入力部204のタッチを感知するためのセンサ以外のセンサを含む。例えば、センシング部206は、近接センサを含んでもよい。近接センサは、外部物体が既設定の検出面(例えば、前面入力インターフェース、背面入力インターフェースなど)に近いか否かということ、または外部物体が実質的な物理的タッチを必要としない電子系の力または赤外線を使用して、近接検出面にあるか否かということを検出するためのセンサである。外部物体は、デバイス200の外部に位置している物体である。近接センサの例として、透過型光電センサ、直接反射型光電センサ、ミラー発射型光電センサ、高周波発振型近接センサ、静電容量型近接センサ、磁気型近接センサ、赤外線近接センサなどがある。
カメラ207は、画像通話モードまたは撮影モードで、イメージセンサによって得られる静止映像または動画などの画像フレームを処理する。そして、処理された画像フレームは、ディスプレイ部202に表示される。カメラ207で処理された画像フレームは、保存部211に保存されるか、あるいは通信部212またはポート213を介して外部デバイスに伝送される。
カメラ207はまた、背面入力部204を介したドラッグに対応するユーザのジェスチャによって、左方向または右方向にレンズの撮影角度を移動するように構成される。カメラ207は、デバイス200の構造によって、2個以上が具備される。また、カメラ207は、ユーザの空間ジェスチャを認識する入力装置として使用される。
オーディオ入力部208は、通話モード、録画モードまたは音声認識モードなどで、外部の音響信号の入力を受信する。オーディオ入力部208は、例えば、マイクロフォンで構成される。オーディオ入力部208は、外部の音響信号を入力される過程で発生するノイズを除去するための多様なノイズ除去アルゴリズムを含むように構成される。
オーディオ入力部208を利用して入力される前記音響信号は、望ましい実施形態による透明ディスプレイ201にディスプレイされているオブジェクトを制御するために使用されるユーザの音声入力にもなる。すなわち、オーディオ入力部208を利用して入力される音響信号は、自然語に基づいた音声認識基盤のユーザ入力情報を含んでもよい。オーディオ入力部208を使用して入力された音響信号は、保存部211に保存されるか、あるいは通信部212またはポート213を介して外部デバイスに伝送される。
オーディオ信号処理部209は、オーディオ入力部208とプロセッサ215との間、及びオーディオ出力部210とプロセッサ215とのインターフェースを提供する。例えば、オーディオ信号処理部209は、オーディオ入力部208から受信される音響信号を、プロセッサ215によって処理されるオーディオデータに変換し、オーディオデータをプロセッサ215に伝送する。オーディオ信号処理部209は、プロセッサ215から伝送されるオーディオデータを、電気的な音響信号に変換し、電気的な音響信号をオーディオ出力部210に伝送する。
オーディオ出力部210は、通話モードまたはオーディオ再生モードなどで、オーディオ信号処理部209から受信された音響信号またはオーディオ信号を出力する。オーディオ出力部210は、スピーカでも構成される。オーディオ入力部208とオーディオ出力部210は、ヘッドセットでも構成される。
デバイス200とユーザとのユーザ・インターフェース機能によって、透明ディスプレイ201、ユーザ入力部205、センシング部206、カメラ207及びオーディオ入力部208は、入力装置または入出力装置とされる。例えば、デバイス200とユーザとのユーザ・インターフェース機能が、タッチスクリーン機能、音声認識機能及び空間ジェスチャ認識機能を含む場合、ユーザ入力部205、センシング部206、カメラ207及びオーディオ入力部208は、入力装置とされ、透明ディスプレイ201は、入出力装置とされる。
保存部211は、プロセッサ215によって実行可能になるように構成された少なくとも1つのプログラムと資源(resource)とを保存する。少なくとも1つのプログラムは、望ましい実施形態によるオブジェクト制御方法またはガイド表示方法を実行するプログラム、デバイス200の運用体系(operating system)プログラム、デバイス200に設定されたアプリケーション、及びデバイス200の各種機能(例えば、通信機能やディスプレイ機能)を遂行するのに必要なプログラムを含む。該資源は、前述のプログラムを遂行するのに必要な情報、望ましい実施形態で言及されるオブジェクト制御のためのユーザ・インターフェース画面情報、及びユーザの入力に対応するオブジェクト制御機能情報などを含む。オブジェクト制御のためのユーザ・インターフェース画面情報は、例えば、各オブジェクトの入力インターフェースに係わる編集ウィンドウを含んでもよい。また、該資源は、各オブジェクトのために設定された既設定の入力インターフェースについての情報を含む。
保存部211に保存されたオブジェクト制御方法、またはガイドディスプレイ方法を実行するプログラムは、オブジェクトを含むアプリケーション・プログラムに含まれるように構成される。ガイドディスプレイ方法を実行するプログラムは、前記アプリケーション・プログラムと独立したプログラムで構成される。すなわち、ガイドディスプレイ方法を実行するプログラムは、実行されるアプリケーションに係わりなく、デバイス200の動作モードがガイドディスプレイ方法を実行するように設定されるときに実行されるか、あるいはデバイス200の電源がオンになると、デフォルトとして実行されたりする。例えば、ガイドディスプレイ方法を実行するためのプログラムは、デバイス200の動作システムの一部にもなる。
以下で説明する多様な望ましい実施形態によって、プログラムは、任意のアプリケーションが実行された後で実行され、任意のアプリケーションの実行が終了すると、実行されない。例えば、電話帳(phonebook)アプリケーションに含まれたオブジェクトを制御する方法を実行するプログラム、またはガイドディスプレイ方法を実行するプログラムが電話帳アプリケーションの一部として実行され、電話帳アプリケーションの実行が終わると、電話帳アプリケーションに含まれたオブジェクトに係わる制御方法を実行するプログラム、及びガイドディスプレイ方法を実行するプログラムの動作が終了する。その代わり、電話帳アプリケーション実行いかんに係わりなく、ガイドディスプレイ方法が実行されもする。
保存部211は、デバイス200の運用体系を始めとしたデバイス200の各種機能を遂行するのに必要な少なくとも1つのプログラムを保存する保存部と、多様な望ましい実施形態によるオブジェクト制御方法またはガイドディスプレイ方法を実行する一つ以上のプログラム、資源及び前記アプリケーションを保存する保存部と、を独立して構成することができる。
保存部211は、高速ランダムアクセスメモリ、磁気ディスク保存装置、フラッシュメモリのような揮発性メモリ、または他の揮発性半導体メモリを含んでもよい。従って、保存部211は、メモリとされる。
通信部212は、無線インターネット、無線イントラネット、無線電話ネットワーク、無線LAN(local area network)、Wi−Fi(wireless fidelity)ネットワーク、WFD(Wi−Fi direct)ネットワーク、3G(3 generation)ネットワーク、4G(4 generation)LTE(long term evolution)ネットワーク、ブルートゥース(Bluetooth(登録商標))ネットワーク、赤外線通信(IrDA:infrared data association)ネットワーク、RFID(radio frequency identification)ネットワーク、UWB(ultra-wideband)ネットワーク、ジグビー(Zigbee(登録商標))ネットワーク、NFC(near field communication)ネットワークのような無線ネットワークを介して、外部電子デバイス(図示せず)及びサーバ(図示せず)とデータを送受信することができるように構成される。
通信部212は、放送受信モジュール、移動通信モジュール、無線インターネット・モジュール、有線インターネット・モジュール、近距離通信モジュール及び位置情報モジュールのうち少なくとも一つを含んでもよいが、それらに制限されるものではない。
放送受信モジュールは、放送チャネルを介して、外部の放送管理サーバから放送信号及び/または放送関連情報を受信する。放送チャネルは、衛星チャネル、地上波チャネルを含んでもよい。移動通信モジュールは、移動通信網上で、基地局、外部の電子デバイス(図示せず)、サーバ(図示せず)のうち少なくとも一つと無線信号を送受信する。無線信号は、音声コール信号、画像通話信号、または文字/マルチメディアメッセージ送受信による多様な形態のデータを含んでもよい。無線インターネット・モジュールは、無線インターネット接続を介して通信するモジュールである。有線インターネット・モジュールは、有線インターネット接続のためのモジュールである。
近距離通信モジュールは、近距離通信のためのモジュールである。近距離通信技術としては、ブルートゥース、RFID、赤外線通信、UWB、Zigbee(登録商標)、WFD、NFCなどが利用される。位置情報モジュールは、デバイス200の位置を確認する、あるいは得るためのモジュールである。一例として、GPS(global position system)モジュールがある。GPSモジュールは、複数個の人工衛星から位置情報を受信する。位置情報は、緯度及び経度で表示される座標情報を含んでもよい。
ポート213は、USB(universal serial bus)ポート(図示せず)のようなプラグアンドプレイ(plug and play)・インターフェースを利用して、外部デバイス(図示せず)とデータを送受信することができる。プラグアンドプレイ・インターフェースは、デバイス200のプラグに、外部デバイスが差し込まれ、自動的にプレイするモジュールを意味する。
電源部214は、デバイス200の多様な構成要素に電力を供給する。電源部214は、バッテリ及び交流電源のような一つ以上の電源を含む。デバイス200は、電源部214を含まず、外部電源提供部(図示せず)と連結される連結部(connection unit)(図示せず)を含んでもよい。
プロセッサ215は、デバイス200の全般的な動作を制御する一つ以上のプロセッサを含んでもよい。例えば、プロセッサ215は、デバイス200の機能によって、複数個のプロセッサに分割される。
プロセッサ215は、透明ディスプレイ201、ユーザ入力部205、センシング部206、カメラ207、オーディオ入力部208、オーディオ出力部210、オーディオ信号処理部209、保存部211、通信部212及びポート213を全般的に制御することができる。従って、プロセッサ215は、制御器、マイクロプロセッサ、デジタル信号処理器(digital signal processor)などといわれる。また、プロセッサ215は、入力装置に該当する透明ディスプレイ201、ユーザ入力部205、センシング部206、カメラ207、オーディオ入力部208を利用して入力されたユーザの入力情報と、透明ディスプレイ201に基づいたユーザ・インターフェースとを提供することができる。
プロセッサ215は、望ましい実施形態によるオブジェクト制御方法またはガイドディスプレイ方法に係わる少なくとも1つのプログラムを実行させることができる。プロセッサ215は、前記プログラムを保存部211から読み取って実行させるか、あるいは通信部212を介して連結されたアプリケーション提供サーバ(図示せず)またはマーケットサーバ(図示せず)のような外部装置からダウンロードされて実行させることができる。オブジェクト制御方法に係わるプログラムは、前述のように、各アプリケーションのためのプログラムに含まれる。
プロセッサ215は、デバイス200の各種機能モジュールと、プロセッサ215とをインターフェースするインターフェース機能部を含んでもよい。望ましい実施形態によるオブジェクト制御方法またはガイドディスプレイ方法に係わるプロセッサ215の動作については、後述する図3、図21及び図23に図示されたフローチャートのように遂行される。
図3は、望ましい一実施形態による、デバイス200によって遂行されるオブジェクト制御方法のフローチャートである。図3のオブジェクト制御方法は、図2のプロセッサ215によって遂行される。
プロセッサ215は、アプリケーション実行またはデバイス200の動作によって、少なくとも1つのオブジェクトをディスプレイする(S301)。
プロセッサ215は、ディスプレイされているオブジェクトについて、前面入力部203及び背面入力部204のうち少なくとも1つの入力部を介したユーザの入力を受信する(S302)。
望ましい実施形態により、プロセッサ215は、受信されるユーザ入力が、前記ディスプレイされている少なくとも1つのオブジェクトについて、既設定の入力インターフェースに入力されたか否かということを判断する(S303)。望ましい実施形態により、プロセッサ215は、ユーザ入力が、前面入力インターフェースを介して受信されているか、背面入力インターフェースを介して受信されているか、あるいは前面入力インターフェース及び背面入力インターフェース二つのいずれも介して受信されているかを検出する。プロセッサ215は、オブジェクトの既設定入力インターフェースと、前記ユーザ入力から前記検出された入力インターフェースとを比較する。
既設定の入力インターフェースは、図1で説明したように、各オブジェクトのために前もって設定されるか、あるいは上位階層(または、ペアレント階層)のオブジェクトの既設定入力インターフェースによってオブジェクトがディスプレイされるときに設定される。オブジェクトがディスプレイされるとき、ディスプレイされているオブジェクトに係わる既設定の入力インターフェースは、マッピングされる。
プロセッサ215は、段階S303での判断結果に基づいて、オブジェクトを制御する(S304)。望ましい実施形態により、プロセッサ215は、オブジェクトの既設定入力インターフェースと、ユーザ入力から前記検出された入力インターフェースとの比較に基づいて、前記検出された入力インターフェースにマッチングする既設定の入力インターフェースに対応する機能を遂行することができる。
図4は、図3のオブジェクト制御過程の例題画面を図示している。図4を参照すると、画面410が透明ディスプレイ201にディスプレイされているとき、フォルダアイコン404に対応する背面入力部204のタッチ位置が、透明ディスプレイ201のタッチを検出するために必要な時間よりさらに長い所定時間の間押される(例えば、タッチ・アンド・ホールド・ジェスチャ)。すなわち、画面410のフォルダアイコン404が、前面入力部203方向に拡大された画面420のフォルダアイコン404’に変更される。押されたタッチ位置が解除されると、拡大されたフォルダアイコン404’を有する画面420は、画面410に戻る。
図4の画面410及び画面420は、図3の段階S301で、複数のオブジェクト402〜410がディスプレイされているとき、段階S304で、既設定の入力インターフェースが背面入力部204である第1オブジェクト(ウィンドウ401)に対するユーザの入力411によって、第1オブジェクト401の前面にディスプレイされている第2オブジェクト(フォルダアイコン404)のディスプレイ状態が変更される。
そのとき、第2オブジェクトに該当するフォルダアイコン404に係わる既設定の入力インターフェースが、前面入力部203であるならば、ユーザは、前面入力部203を介したユーザ入力に基づいて拡大されたフォルダアイコン404’に含まれたアイコンの実行を制御することができる。
図5は、図3のオブジェクト制御過程の他の例画面を図示している。既設定の入力インターフェースが、背面入力部204であるウィンドウ501において、フォルダアイコン404に対応する背面入力部204のタッチ位置をタッチした後、(502)方向にドラッグすることにより、フォルダアイコン404が、画面520の位置に移動された場合である。それにより、フォルダアイコン404が移動されるとき、ユーザの手が、透明ディスプレイ201の後からジェスチャを遂行するために、ユーザの手によって、フォルダアイコン404、隣接したフォルダアイコン407及び全体ウィンドウ501が隠れない。また、フォルダアイコン404の移動によって、画面上にアイコンが自動的に再配列される。
図4を参照して説明したように、図5の画面510,520は、既設定の入力インターフェースが、背面入力部204である第1オブジェクト501の前面にディスプレイされている第2オブジェクト404のディスプレイ状態が、第1オブジェクト501に対するユーザの入力によって変更されるということを示している。
図6は、図3のオブジェクト制御過程のさらに他の画面を図示している。既設定の入力インターフェースが、背面入力部204であるウィンドウ401において、アイコン402に対応する背面入力部204のタッチ位置がタッチされるとき、タッチ時間またはタッチ強度(例えば、タッチ圧力)を示す進行バー(progress bar)601が、画面620にディスプレイされる。タッチ時間が維持されるか、あるいはタッチ強度が強くなることにより、画面620が画面630に変更され、画面630が画面640に変更される。画面640に図示されているように、進行バー601がフルに満たされると、画面650に図示されているように、アイコン402が削除される。
図4で説明したように、図6の画面610〜650は、第1オブジェクト401に対するユーザの入力によって、第1オブジェクト401の前面にディスプレイされている第2オブジェクト402のディスプレイ状態が変更(削除)されるということを示す。すなわち、背面入力部204が、既設定の入力インターフェースとして設定された第2オブジェクト402は、背面入力部204を介した入力によって削除される。
図7は、図3でのオブジェクト制御過程のさらに他の画面を図示している。
図7の画面710と画面720は、下位階層から上位階層へのウィンドウ711の移動を図示している。複数のウィンドウ711,712が互いに重畳されるとき、背面入力部204を介して入力されるユーザの入力によって、ウィンドウ712は、下位階層に移動される。従って、ウィンドウ712は、画面720上で、ウィンドウ711の下位階層にディスプレイされて隠される。
下位階層のウィンドウ711の既設定入力インターフェースは、前面入力部203であり、下位階層のウィンドウ711の背景階層(図示せず)に係わる既設定の入力インターフェースが、背面入力部204に設定され、下位階層のウィンドウ711は、背景階層(図示せず)の背面入力部204に対するユーザのジェスチャによって、さらに上位階層に移動されてディスプレイされる。
図7の画面730と画面740は、背面入力部204を介したユーザの入力によって、透明状態から不透明状態への転換を図示している。すなわち、画面730がディスプレイされ、背面入力部204が第1オブジェクト731の既設定入力インターフェースであるならば、背面入力部204を介して、最上端から最下端までユーザ入力としてドラッグ・ジェスチャが遂行されることによって、画面740の最上端は、透明状態から不透明状態に変更される。
図7の画面730と画面740は、既設定の入力インターフェースが、背面入力部204である第1オブジェクト731に対するユーザの入力によって、ディスプレイ部202の状態が変更されるということを図示している。
図8は、図3のオブジェクト制御過程のさらに他の画面の例を図示している。
図8は、複数のオブジェクトが互いに重なってディスプレイされ、背面オブジェクト802の既設定入力インターフェースは、背面入力部204であり、前面のオブジェクト803の既設定入力インターフェースは、前面入力部203である場合である。
従って、背面のオブジェクト802に対応する背面入力部204のタッチ位置をタッチし、方向(805)にタッチ位置をドラッグし、画面820に図示されているように、画面810の背面オブジェクト802は、移動される。
前面オブジェクト803に対応する前面入力部203のタッチ位置をタッチし、方向(831)にタッチ位置をドラッグし、画面830に図示されているように、画面830の前面オブジェクト803は、移動される。
前面入力部203は、背面オブジェクト802及び前面オブジェクト802の既設定入力インターフェースとして設定され、背面オブジェクト802は、背景オブジェクト801の既設定入力インターフェースである背面入力部204に対するユーザの入力によって移動される。そのような場合、図4で説明したように、図8の画面810,820は、背面入力部204が既設定の入力インターフェースである第1オブジェクト(例えば、背景オブジェクト801)の前面にディスプレイされている第2オブジェクト(例えば、背面オブジェクト802)のディスプレイ状態を、第1オブジェクト801に対するユーザの入力によって変更するということを図示している。
図9は、図3のオブジェクト制御過程に係わるさらに他の画面の例を図示している。
図9は、デバイスのロックスクリーンの例を図示している。すなわち、スクリーンが、前面入力部203に対するユーザの入力と、背面入力部204に対するユーザの入力とによるアンロック時、他のホーム画面(または、メニュー画面)がディスプレイされる。
画面910と画面920は、前面入力部203に対するユーザの入力によって、アンロックされる。画面930と画面940は、背面入力部203に対するユーザの入力によってアンロックされる。
図9は、前面アンロックユーザと背面アンロックユーザと互いに異なるときに適用される。
前面入力部203及び背面入力部204は、オブジェクト(アンロック機能を遂行することができる画面)911の既設定入力インターフェースであり、画面910,920は、前面入力部203を介して入力されるユーザの入力に応答し、オブジェクト911に対して、既設定の第1機能を遂行し、画面930,940は、背面入力部204を介して入力されるユーザの入力に応答し、オブジェクト911に対して既設定の第2機能を遂行する。
図10は、図3のオブジェクト制御過程のさらに他の画面の例を図示している。
図10において、テキスト(text)1001が、前面入力部203を介して選択されることによって、背面入力部204は、画面1020に図示されているように、選択されたテキスト1001のタイプ、サイズ及び色を設定するために、3つの領域1021,1022,1023に分けられる。選択されたテキスト1001に反映された3つの領域1021,1022,1023それぞれでの背面タッチに基づいたスクローリング・ジェスチャのようなジェスチャを遂行し、テキストタイプ、テキストサイズ、テキスト色が選択され、画面1020上にディスプレイされる。
図10について述べたように、図10の画面1010,1020は、前面入力部203及び背面入力部204が、オブジェクト1001の既設定入力インターフェースであり、オブジェクト1001に係わる第1機能(例えば、前述のように、3つの領域に分ける機能)が、画面1010の前面入力部203を介して入力されたユーザの入力に応答して遂行され、オブジェクト1001に係わる第2機能(テキストタイプ設定、テキストサイズ設定、テキスト色設定)が、画面1020の背面入力部204を介して入力されるユーザの入力に応答して遂行されるということを図示している。
図11は、図3のオブジェクト制御過程のさらに他の画面の例を図示している。
図11を参照すると、ピクチャ・オブジェクト1101が、カメラ207をもって撮影され、画面1110は、画面1110のオブジェクト1101の前面入力部203に対するズームイン(zoom-in)・ジェスチャ1102を遂行し、画面1111に拡大され、画面1120の前面入力部203に対するズームアウト(zoom-out)1103を遂行し、画面1121のように縮小される。
また、オブジェクト1101の背面入力部204のタッチ位置をタッチし、方向(1104)にタッチ位置をドラッグし、カメラ207のレンズの撮影角度を調整し、画面1100は、画面1130に変更される。オブジェクト1101の背面入力部204のタッチ位置をタッチし、方向(1105)にタッチ位置をドラッグし、カメラ207のレンズの撮影角度を調整し、画面1100は、画面1140に変更される。
図11について説明したように、図11の画面1100〜1140は、前面入力部203及び背面入力部204が、オブジェクト1101の既設定入力インターフェースであり、オブジェクト1101に対して、既設定の第1機能(ズームインまたはズームアウト)が、前面入力部203を介して入力されるユーザの入力に応答して遂行され、オブジェクト1101に対して、既設定の第2機能(撮影画面変更または撮影領域変更)が、背面入力部204を介して入力されるユーザ入力に応答して遂行されるということを示している。
図11は、パノラマ(panorama)機能にも適用される。カメラレンズの角度が、ピクチャ・オブジェクト110から全景(panoramic view)をチャプチャするために使用された背面入力部204に入力されたジェスチャによって変更される。また、パノラマ写真(panoramic photo)は、該パノラマ写真、または背面入力部204に入力されるジェスチャを使用して、写真の見る角度(view angle)を移動して見ることができる。
図12は、図3のオブジェクト制御過程のさらに他の画面を図示している。図12は、デバイス200がメディアを再生しているとき、ベル音制御機能及びボリューム制御機能のようなシステムボリューム制御機能に係わる画面を図示している。
ユーザ入力部205を介して、ボリューム制御が要請されるとき、画面1200がディスプレイされると、システムボリューム制御は、前面入力部203に対するユーザの入力によって遂行され(画面1210)、メディアボリューム制御(1221)(例えば、再生されているメディアファイルのボリューム)は、背面入力部204に対するユーザの入力によって遂行される(画面1220)。
図9を参照して説明したように、図12の画面1200〜1220は、前面入力部203及び背面入力部204が、オブジェクト1201の既設定入力インターフェースであり、前面入力部203を介して入力されるユーザの入力に応答し、オブジェクト1201用に、既設定の第1機能(システムボリューム制御機能)が遂行され、背面入力部204を介して入力されるユーザの入力に応答し、オブジェクト1201用に、既設定の第2機能(メディアボリューム制御機能)が遂行されるということを図示している。もし前面入力部203を介して入力されるユーザの入力が検出されると、ディスプレイ部202に、システムボリューム制御メッセージがディスプレイされ、背面入力部204を介して入力されたユーザの入力が検出されると、ディスプレイ部202に、メディアボリューム制御メッセージ1221がディスプレイされる。
図13は、図3のオブジェクト制御過程のさらに他の画面を図示している。図13の画面1300,1310,1320,1330は、オブジェクト1301の既設定入力インターフェースである前面入力部203及び背面入力部204によって遂行される他の機能を図示している。
さらに詳細には、図13の画面1300にディスプレイされているオブジェクト1301の前面入力部203に対するユーザのタッチによって、オブジェクト1301は、不透明状態になる(画面1310)。画面1300にディスプレイされているオブジェクト1301に対する背面入力部204へのユーザのタッチによって、オブジェクト1301を除外した背景は、不透明状態になる(画面1320)。画面1300にディスプレイされているオブジェクト1301の前面入力部203及び背面入力部204に対して、同時に生じるユーザタッチによって、オブジェクト1301及びオブジェクト1301の背景がいずれも不透明状態になる(画面1330))。
図13は、イメージ編集ウィンドウであるオブジェクトがディスプレイされるとき、タッチ面によって、編集対象が異なるということをユーザが直観的に分かる場合に適用される。例えば、オブジェクト1301の前面入力部203に対するユーザタッチによって、画面1310は、編集対象として設定されたオブジェクト1310の内部領域をディスプレイし、オブジェクト1301の背面入力部204に対するユーザタッチによって、画面1320は、編集対象としてオブジェクト1301の外部領域をディスプレイし、オブジェクト1301の前面入力部203及び背面入力部204に対するユーザタッチによって、画面1330は、編集対象として全画面をディスプレイすることができる。
図14は、図3のオブジェクト制御過程のさらに他の画面を図示している。図14において、前面入力部203及び背面入力部204は、オブジェクトの既設定入力インターフェースであり、前面及び背面に対する各入力によって異なる機能を遂行する。
すなわち、画面1400は、オブジェクト1401に対する前面入力部203を介して入力されたユーザの入力によって、動画再生を図示している。従って、動画再生期間に、動画再生に係わる基本機能(早送り機能、巻き戻し機能、再生機能など)が、前面入力部203を介して遂行される。動画が再生されている間、背面入力部204に対するユーザのタッチによって動画が停止され(画面1410)、停止された映像が、背面入力部204に対するユーザのジェスチャによって、チャプチャされる(画面1420)。ユーザ・ジェスチャの例は、背面入力部204に対するタッチ後に上にドラッグすることにもなる。
図15は、図3のオブジェクト制御過程のさらに他の画面を図示している。図15において、前面入力部203及び背面入力部204は、オブジェクトの既設定入力インターフェースであり、前面及び背面それぞれに入力によって異なる機能を遂行する。
すなわち、オブジェクト1511の前面入力部203に対するユーザのタッチ&ドラッグ・ジェスチャによって、ページが変更される(画面1510,1520)。オブジェクト1511の背面入力部204に対するユーザのタッチ&ドラッグ・ジェスチャによって、上端のステータスバー(status bar)がドラッグ方向に移動されながら、上端ステータスバーの内容が変更される(画面1510,1530)。
望ましい実施形態により、ページ変更機能でスキップされたページ数は、背面入力部204に対するユーザのタッチ&ドラッグ・ジェスチャによる画面1540と、前面入力部203に対するユーザのタッチ&ドラッグ・ジェスチャによる画面1520とに図示されているように、異なってもいる。例えば、前面入力部203に対するユーザのタッチ&ドラッグ・ジェスチャによって1ページずつ変更され(画面1520)、背面入力部204に対するユーザのタッチ&ドラッグ・ジェスチャによって、2ページずつ変更される(画面1540)。または、前面入力部203に対するユーザのタッチ&ドラッグ・ジェスチャによって提供されるページと、背面入力部204に対するユーザのタッチ&ドラッグ・ジェスチャによって提供されるページは、異なって設定される。
図16は、図3のオブジェクト制御過程のさらに他の画面例を図示している。図16において、前面入力部203及び背面入力部204は、オブジェクト1611の既設定入力インターフェースであり、前面及び背面によって異なる機能を遂行する。
すなわち、アラームが鳴るとき、オブジェクト1611の前面入力部203に対するユーザの入力によって、アラームは鳴り止む(画面1610))。また、背面入力部204に対するユーザの入力によって、アラーム時間が再設定される。お知らせ時間は、タッチ後の上方向または下方向にドラッグされる。
図17は、図3のオブジェクト制御過程のさらに他の画面例を図示している。図17において、前面入力部203及び背面入力部204は、オブジェクト1713の既設定入力インターフェースであり、前面及び背面によって異なる機能を遂行する。
オブジェクト1713の前面入力部203に対するユーザの入力によって、配列された仮想キーによって情報が入力され、背面入力部204に対するユーザの入力1714によって、仮想キーのモードが変換される。すなわち、画面1710のオブジェクト1713は、背面入力部204に対する1回タッチによって、画面1720の数字キー配列に変更され、背面入力部204に対する2回タッチで、画面1730のアルファベットキー配列に変更される。
図18は、図3のオブジェクト制御過程のさらに他の画面の例を図示している。図18で、オブジェクト1811の透明度は、背面入力部204の所定面積以上タッチされるユーザの入力に応答して最大値に設定される。
すなわち、画面1810がディスプレイ部202にディスプレイされるとき、画面1820に図示されているように、背面入力部204の既設定の面積以上がタッチされると、ディスプレイ部202の透明度は、最大値と最小値(例えば、最大不透明度)との間の値に設定される。たとえ透明度が、ディスプレイ部202の電源を一時的にオフにして最大値に設定されるとしても、望ましい実施例は、それに制限されるものではない。望ましい実施形態により、近接センサは、既設定の面積以上タッチされたか否かということを判断するために使用される。
画面1820に図示されているように、タッチジェスチャが既設定の時間以上維持されなければ、ディスプレイ部202は、タッチが生じる前にディスプレイされた画面1830)にリターンする。しかし、タッチジェスチャが既設定の時間以上維持されると、ディスプレイ部202の透明度は、最大値に設定された状態を維持する(1840)。既設定の時間以上は、例えば、3分以上に設定されるが、望ましい実施例は、それに制限されるものではない。
図19は、図3のオブジェクト制御過程のさらに他の画面の例を図示している。図19において、オブジェクト1911の既設定入力インターフェースは、変更される。
すなわち、ディスプレイされているオブジェクト1911に対する入力インターフェース編集要請に応答し、オブジェクト1911の既設定入力インターフェースに係わる情報を含む編集ウィンドウ1921をディスプレイする(画面1910)。入力インターフェース編集要請は、前面入力部203または背面入力部204を介して、既設定のユーザのジェスチャまたはメニューを利用して入力される。
オブジェクト1911に係わる既設定の入力インターフェースについての情報は、編集ウィンドウ1921に基づいて受信されたユーザの入力によって変更された入力インターフェース情報によってアップデートされる(画面1920及び画面1930)。図19において、オブジェクト1911について既設定であった前面入力部203は、背面入力部204に変更される。
図20は、図3のオブジェクト制御過程のさらに他の画面を図示している。図20において、異なる入力インターフェースが設定されたオブジェクト2012,2013がユーザの入力によって同時に制御されることは、マルチタスキングと理解される。
すなわち、前面入力部203を介して、画面2010上のオブジェクト2012に対するユーザの入力、及び背面入力部204を介したオブジェクト2013に対するユーザの入力が、画面2020に図示されているように、所望位置へのドラッグ・ジェスチャであるならば、オブジェクト2012,2013のディスプレイ位置は、画面2030に図示されているように、同時に変更される。
参照番号2014は、ディスプレイされているオブジェクト2012の既設定入力インターフェースを示す画面情報を示している。画面情報2014は、ディスプレイされているオブジェクト2012の既設定入力インターフェースが、前面入力部203であることを、ユーザをして直観的に知らしめるものである。
前述の図4ないし図20の画面は、プロセッサ215の動作によって提供される。また、図4ないし図20について説明したユーザのジェスチャは、前述のところに制限されるものではない。
図21は、望ましい他の実施形態による、透明ディスプレイ201を含むデバイス200にために遂行されるオブジェクト制御方法のフローチャートである。図21のオブジェクト制御方法も、プロセッサ215によって遂行される。
図21において、図3のオブジェクト制御段階は、オブジェクト回転段階、及びオブジェクトの既設定入力インターフェースをアップデートする段階に変更される。従って、図21の段階S2101ないし段階S2103は、図3の段階S301ないし段階S303と同一であるので、以下において重複説明は省略する。
段階S2103で判断した結果、ユーザの入力が、オブジェクトの既設定入力インターフェース(例えば、前面入力部203または背面入力部204)を介して受信され、一方向に既設定の長さ以上移動されるユーザのジェスチャが生じると、プロセッサ215は、ユーザのジェスチャに対応する方向にオブジェクトを回転させながら、オブジェクトの既設定入力インターフェースを他の入力インターフェースに変更する(S2104)。従って、もしオブジェクトの既設定入力インターフェースが、前面入力部203であるならば、オブジェクトの入力インターフェースは、ユーザの入力及びユーザのジェスチャによって、背面入力部204に変更される。前述のように、各オブジェクトの入力インターフェースが独立して指定されるので、さらに多様な形態を有するユーザ・インターフェースが可能であり、両面の使用による具現の複雑度を低減させることができる。また、図1でのように、1画面上にディスプレイされている複数のオブジェクトに対して、互いに異なる入力インターフェースが設定されてもよい。
図22Aは、複数のオブジェクト2202〜2210のうち、オブジェクト2210を回転させ、オブジェクト2210に係わる入力インターフェースを変更する画面の例を図示している。すなわち、画面2240上において、オブジェクト2210に対して、方向(2212)に移動されるユーザのジェスチャ2211が生じ、画面2250及び画面2260に図示されているように、オブジェクト2210が回転される。画面2260上において、オブジェクト2210が180°回転され、オブジェクト2210のイメージの背面と前面とが変更される。
オブジェクト2210の回転によって、オブジェクト2210のディスプレイ面が変更されると、プロセッサ215は、オブジェクト2210に係わる既設定の入力インターフェースを、背面入力部204に変更する(S2104)。
図22Bは、前面入力部203及び背面入力部204に対して、異なるオブジェクトが設定されているために、オブジェクト2210が他の機能を遂行する場合、オブジェクト2241の回転によって、前面入力部203及び背面入力部204に対応する機能を変更する画面の例を図示している。
すなわち、図22Bは、オブジェクト2241の前面入力部203を、ミニダイアリー用入力インターフェースに設定したアプリケーションと、背面入力部204を、ストア(store)入力インターフェースに設定したアプリケーションとの場合である。画面2240,2250,2260に図示されているように、前述の方向(2242)に回転することによって、ストア・アプリケーションは、デバイス200の前面部にディスプレイされ、ストア・アプリケーションの入力インターフェースは、前面入力部203に設定され、ミニダイアリー・アプリケーションは、デバイス200の背面部にディスプレイされ、ミニダイアリー・アプリケーションの入力インターフェースは、背面入力部204に設定される。それによって、デバイス200は、オブジェクト2241の前面入力部203を介して受信されるユーザの入力によって、ストアの機能を遂行し、オブジェクト2241の背面入力部204を介して受信されるユーザの入力によって、ミニダイアリーの機能を遂行することができる。
図23は、望ましい実施形態による、透明ディスプレイ201を含むデバイス200によって遂行されるガイド表示方法のフローチャートである。ガイド表示方法は、プロセッサ215によって遂行される。ガイドは、背面入力部204に対して、ユーザの入力が感知された位置(タッチ位置)を示す情報を含んでもよい。
プロセッサ215は、任意のアプリケーションの実行によって、少なくとも1つのオブジェクトをディスプレイ部203にディスプレイする(S2301)。入力部204がディスプレイされているオブジェクトに係わる既設定の入力インターフェースと係わりなく、ユーザの入力を受信すると(S2302)、該ガイドは、ユーザの入力が受信された位置をディスプレイする(S2303)。該ガイドは、ユーザの入力が受信された地点にディスプレイされているオブジェクトの状態、またはディスプレイ部203の状態に基づいて、可変的にディスプレイされる。該ガイドは、インジケータ(indicator)ともいわれる。
オブジェクトの状態、またはディスプレイ部203の状態は、透明度に基づいた状態を含んでもよい。従って、ガイドは、オブジェクトの透明度、またはディスプレイ部203の透明度によって、他のイメージまたは他の透明度を有するガイドをディスプレイすることができる。前記オブジェクトの透明度は、オブジェクトに隣接した領域の透明度も考慮することができる。ディスプレイ部203の状態は、タッチ強度を含んでもよい。
図24は、ガイドをディスプレイする画面の例を図示している。図24の画面2400は、テキスト(text)4オブジェクトに対するユーザの入力2401が、背面入力部204を介して感知されることにより、仮想ガイド2402がテキスト4オブジェクトの位置にディスプレイされ、ユーザは、背面入力部204を介して、リストに含まれたテキスト4オブジェクトがタッチされているということを直観的に知ることができる。また、ガイドの透明度変化により、ユーザは、背面入力部204をタッチするために使用されるタッチ強度を直観的に知ることができる。
画面2410は、選択されたオブジェクトがディスプレイされている全ての面に、仮想ガイドをディスプレイする。画面2410は、テキスト4オブジェクトに対して、背面入力部204を介したユーザタッチが生じたということをユーザが直観的に知ることができる。テキスト4オブジェクトのフィールドのカラーは、タッチ強度によって可変にもなる。
また、画面2420に図示されているように、背面入力部204をタッチした後でドラッグし、オブジェクト2421を方向(2422)に移動するとき、背面入力部204に対するタッチが維持される間、前面入力部203を介してオブジェクト2421がタッチされる場合、オブジェクト2421に対する背面入力部204で遂行される動作が続く。すなわち、オブジェクト2421をタッチした後でドラッグし、方向(2431)にオブジェクト2421を移動する動作は、画面2430に図示されているように、続けて遂行される。
図25は、望ましい実施形態によるデバイスの機能ブロック図である。
図25を参照すると、デバイスは、透明ディスプレイ2501、プロセッサ2502及び保存部2503を含む。
透明ディスプレイ2501は、図2Aの透明ディスプレイ201のように、前面入力部203、背面入力部204及びディスプレイ部202を含む。透明ディスプレイ2501は、前面入力部203及び背面入力部204のうち少なくとも一つを介して、タッチ入力を受信し、ユーザのタッチ入力に対応するオブジェクトをディスプレイする。
保存部2503は、少なくとも1つのオブジェクトに係わる既設定の入力インターフェースについての情報と、望ましい実施形態によるガイド制御方法及びガイドディスプレイ方法を実行するためのプログラムと、を保存する。すなわち、図26に図示されたソフトウェア構造図によるデータが、保存部2503に保存される。図2Aの保存部211も、図26に図示されたソフトウェア構造図によるプログラム及び資源を保存することができる。
特に、図26の各オブジェクトのタッチモード、または既設定のユーザ入力インターフェースに係わる設定値を含むタッチモードデータ(touch mode data)2612、入力タッチを区分するタッチ入力区分モジュール(touch input classification module)2622及びタッチモード評価モジュール(touch mode estimation module)2664が主に使用される。
図26は、望ましい実施形態による透明ディスプレイを含むデバイスの保存部に保存されるソフトウェア階層について説明するための図面である。
図26を参照すると、ソフトウェア階層は、ストレージ・モジュール(storage module)2600、センサ認識モジュール(sensor & recognition module)2620、メッセージング・モジュール(messaging module)2650、テレフォニー・モジュール(telephony module)2640、マルチメディア・モジュール(multimedia module)2665、UI&グラフィック・モジュール2661、並びにレジェンド・モジュール(legend module)2670を含むが、それらに制限されるものではない。
ストレージ・モジュール2600は、住所録、環境情報のような一般的なデータ保存所であるシステムデータベース(system DB)2611、及び本発明による各オブジェクトのタッチモードに係わる設定値を保存するタッチモードデータ領域2612を含む。
センサ認識モジュール2620は、前面入力部203及び背面入力部204でのタッチを認識するモジュール(touch recognition)2621、入力タッチを区分するモジュール2622を含む。入力タッチを区分するモジュール2622は、前面入力部203に対する入力をイベント処理器(X11)2662に伝達する前面入力モード(front)2623、背面入力部204に対する入力をイベント処理器2662に伝達する背面入力モード(back)2624、両面(前面入力部203及び背面入力部204)タッチに対する入力をイベント処理器に伝達するデュアルモード(dual)2625を含む。
メッセージング・モジュール2650は、インターネット連結を介して、ユーザ間対話に係わるインスタント・モジュール(instant messenger)2651、短文メッセージサービス(SMS)テキストメッセージ及びマルチメディアメッセージに係わるモジュール(SMS & MMS)2652、電子メールのためのモジュール(E−mail)2653を含む。
テレフォニー・モジュール2640は、電話連結が可能にする情報検索モジュール(information retrieval module)2642、VoIP(voice over internet protocol)基盤で、インターネットを介して音声を伝送する音声サービス・モジュール2641を含む。
マルチメディア・モジュール2665は、動画再生モジュール(player)2666、動画及びスチール写真撮影モジュール(camcoder)2667、音声再生モジュール(sound)2668を含む。
UI&グラフィック・モジュール2661は、ウィンドウマネジャによって、タッチ入力を受信するためのX11モジュール2662、スクリーン上で、ユーザによって見ることができる全てのオブジェクトを出力する(2D/3D UI toolkit)2663、及び各オブジェクト用に保存されたモード設定値と、現在タッチ入力とに係わる推定モジュール(estimation module)2664を含む。
前述のように、多様な構造を有するプログラムが保存部2503に保存されるが、図26に図示されたところに制限されるものではない。
プロセッサ2502は、保存部2503に保存されたプログラムを使用して、前述の望ましい実施形態による動作を遂行することができる。プロセッサ2502は、少なくとも1つのオブジェクトをディスプレイするために、透明ディスプレイを制御し、少なくとも1つの入力インターフェースを介して受信されるユーザの入力が、オブジェクトに対して既設定の入力インターフェースに入力されたか否かということを判断し、判断に基づいてオブジェクトを制御する。
望ましい実施形態によるオブジェクト制御方法、またはガイドディスプレイ方法をコンピュータで具現する方法を遂行させる命令語を含む一つ以上のプログラムは、コンピュータで読取り可能な記録媒体に、コンピュータで読取り可能なコードとして記録されることが可能である。コンピュータで読取り可能な記録媒体は、コンピュータ・システムによって読み取り可能なデータが保存される全種の保存装置を含む。コンピュータで読取り可能な記録媒体の例としては、ROM(read-only memory)、RAM(random-access memory)、CD(compact disc)−ROM、磁気テープ、フロッピー(登録商標)ディスク、光データ保存装置などがある。また、コンピュータで読取り可能な記録媒体は、ネットワークに連結されたコンピュータ・システムに分散され、分散方式でコンピュータで読取り可能なコードとして保存されて実行される。
以上、本発明に対して、その望ましい実施形態を中心に説明した。本発明が属する技術分野で当業者であるならば、本発明が、本発明の本質的な特性から外れない範囲で変形された形態に具現されるということを理解することができるであろう。従って、開示された実施形態は、限定的な観点ではなく、説明的な観点から考慮されなければならない。本発明の範囲は、前述の説明ではなく、特許請求の範囲に示されており、それと同等な範囲内にある全ての差異は、本発明に含まれたものであると解釈されなければならない。
200 デバイス
201 透明ディスプレイ
202 ディスプレイ部
203 前面入力部
204 背面入力部
205 ユーザ入力部
206 センシング部
207 カメラ
208 オーディオ入力部
209 オーディオ信号処理部
210 オーディオ出力部
211 保存部
212 通信部
213 ポート
214 電源部
215 プロセッサ
140−1 透明ディスプレイ
141−1 透明基板
142−1 透明トランジスタ層
143−1 第1透明電極
144−1 透明有機発光層
145−1 第2透明電極
146−1 連結電極
147−1,148−1 誘電膜
401 第1オブジェクト
402 第2オブジェクト
402〜410 オブジェクト
404 フォルダアイコン
410 画面
404’ フォルダアイコン
420 画面
510,520 画面
601 進行バー
610〜650 画面
710,720,730,740 画面
711,712 ウィンドウ
731 第1オブジェクト
801〜803 オブジェクト
810,820,830 画面
910,920,930,940 画面
911 オブジェクト
1001 オブジェクト
1010,1020 画面
1021,1022,1023 領域
1100,1110〜1140 画面
1101 オブジェクト
1200,1210,1220 画面
1201 オブジェクト
1221 メディアボリューム制御
1300,1310,1320,1330 画面
1301 オブジェクト
1400,1410,1420 画面
1510,1540 画面
1511 オブジェクト
1610 画面
1611 オブジェクト
1710,1720,1730 画面
1713 オブジェクト
1810,1820,1830 画面
1811 オブジェクト
1910,1920,1930 画面
1911 オブジェクト
1921 編集ウィンドウ
2010,2020,2030 画面
2012,2013 オブジェクト
2014 画面情報
2202〜2210 オブジェクト
2240,2250,2260 画面
2400,2410,2420,2430 画面
2402 仮想ガイド
2421 オブジェクト
2501 透明ディスプレイ
2502 プロセッサ
2503 保存部
2600 ストレージ・モジュール
2611 システムデータベース
2612 タッチモードデータ
2620 センサ認識モジュール
2621 モジュール
2622 タッチ入力区分モジュール
2623 前面入力モード
2624 背面入力モード
2625 デュアルモード
2640 テレフォニー・モジュール
2650 メッセージング・モジュール
2651 インスタント・モジュール
2652,2653 モジュール
2661 グラフィック・モジュール
2662 イベント処理器
2663 2D/3D UI toolkit
2664 推定モジュール
2665 マルチメディア・モジュール
2666 動画再生モジュール
2667 写真撮影モジュール
2668 音声再生モジュール
2670 レジェンド・モジュール

Claims (12)

  1. 透明ディスプレイを含むデバイスによって遂行されるオブジェクト制御方法において、
    前記透明ディスプレイに、第1オブジェクトと第2オブジェクトをディスプレイし、前記第1オブジェクトと前記第2オブジェクトは、互いに異なるものである段階と、
    前記第1オブジェクトと前記第2オブジェクトがディスプレイされている間に前記透明ディスプレイの第1面を介して前記第1オブジェクトに対するタッチ入力が受信されることにより、前記第1オブジェクトに対応するオブジェクト特定機能を行う段階と、
    前記第1オブジェクトと前記第2オブジェクトがディスプレイされている間に前記透明ディスプレイの第2面を介して前記第2オブジェクトに対するタッチ入力が受信されることにより、前記第2オブジェクトに対応するオブジェクト特定機能を行う段階を含み、
    前記第1面上の前記第1オブジェクトのディスプレイ領域の一部は、前記第2面上の前記第2オブジェクトのディスプレイ領域の一部と重なり、
    前記第1オブジェクトに対する前記タッチ入力及び前記第2オブジェクトに対する前記タッチ入力の受信に応答し、
    前記第1オブジェクトに対応する前記オブジェクト特定機能と前記第2オブジェクトに対応する前記オブジェクト特定機能とを同時に制御する段階を含む
    ことを特徴とするデバイスによって遂行されるオブジェクト制御方法。
  2. 前記第1面は、前記透明ディスプレイの前面と、前記透明ディスプレイの背面とのうち一つであり、
    前記第2面は、前記透明ディスプレイの前面と、前記透明ディスプレイの背面とのうち他の一つである
    ことを特徴とする請求項1に記載のデバイスによって遂行されるオブジェクト制御方法。
  3. 前記第2オブジェクトは前記第1オブジェクトの前面上にディスプレイされ、
    前記第2オブジェクトに対応するオブジェクト特定機能は、前記第2オブジェクトのディスプレイ状態を変更する段階を含む
    ことを特徴とする請求項1に記載のデバイスによって遂行されるオブジェクト制御方法。
  4. 前記第1オブジェクトは、第1階層の下に、第2階層の上にディスプレイされている前記第2オブジェクトに部分的に重なった前記第1階層の上にディスプレイされ、
    前記第2オブジェクトに対応するオブジェクト特定機能は、前記第2オブジェクトを移動させる段階を含む
    ことを特徴とする請求項1に記載のデバイスによって遂行されるオブジェクト制御方法。
  5. 前記第1オブジェクトは、第1階層の下に、第2階層の上にディスプレイされている前記第2オブジェクトに部分的に重なった前記第1階層の上にディスプレイされ、
    前記第2オブジェクトに対応するオブジェクト特定機能は、前記第1オブジェクトの上に、前記第2オブジェクトをディスプレイする段階を含む
    ことを特徴とする請求項1に記載のデバイスによって遂行されるオブジェクト制御方法。
  6. 前記第1面と前記第2面のうち、少なくとも1つの既設定領域以上を活性化するタッチ入力が受信されることにより、
    前記既設定領域以上を活性化する前記タッチ入力が受信される前記透明ディスプレイの前記第1面と前記第2面のうち、少なくとも1つの透明度を最大値として設定する段階を含む
    ことを特徴とする請求項1に記載のデバイスによって遂行されるオブジェクト制御方法。
  7. 前記既設定領域以上を活性化する前記タッチ入力が、既設定の時間より短時間維持されると、前記既設定領域以上を活性化する前記タッチ入力が受信される前の前記透明ディスプレイの前記第1面及び前記第2面のうち、少なくとも1つの前記透明度にリターンされる段階をさらに含む
    ことを特徴とする請求項6に記載のデバイスによって遂行されるオブジェクト制御方法。
  8. 前記方法は、
    前記第1オブジェクトと前記第2オブジェクトのうち1つに対する前記透明ディスプレイの表面に係る編集要請に応答し、前記第1オブジェクトと前記第2オブジェクトのうち少なくとも1つに対する前記第1面と前記第2面のうち、少なくとも1つを選択するための情報を編集ウィンドウをディスプレイする段階と、
    前記編集ウィンドウを介したユーザの入力により、前記第1オブジェクトと前記第2オブジェクトのうち少なくとも1つに対応する面を割当てる段階と、
    前記割当てに基づいて前記第1オブジェクト及び前記第2オブジェクトに対応する前記面についての情報をアップデートする段階と、を含む
    ことを特徴とする請求項1に記載のデバイスによって遂行されるオブジェクト制御方法。
  9. 前記第1オブジェクトに対する前記タッチ入力が、前記第1面を介して一方向に既設定の長さ以上移動することを含み、
    前記第1オブジェクトに対応するオブジェクト特定機能は、前記タッチ入力に対応する方向に、前記第1オブジェクトを回転させ、前記第1面から前記第2面に変更する段階を含み、
    前記第2オブジェクトに対する前記タッチ入力が、前記第2面を介して一方向に既設定の長さ以上移動することを含み、
    前記第2オブジェクトに対応するオブジェクト特定機能は、前記タッチ入力に対応する方向に、前記第2オブジェクトを回転させ、前記第2面を前記第1面に変更する段階を含む
    ことを特徴とする請求項1に記載のデバイスによって遂行されるオブジェクト制御方法。
  10. 前記第2オブジェクトに対応する前記オブジェクト特定機能は、前記第2オブジェクトの状態または前記透明ディスプレイの状態に基づいた前記タッチ入力に対応するインジケータを可変的にディスプレイする段階を含む
    ことを特徴とする請求項1に記載のデバイスによって遂行されるオブジェクト制御方法。
  11. 請求項1に記載の方法を遂行するためのコンピュータによって実行される命令語が記録されたコンピュータで読み取り可能な記録媒体。
  12. オブジェクト制御方法を遂行するデバイスにおいて、
    第1オブジェクト及び、第2オブジェクトをディスプレイする透明ディスプレイと、
    前記透明ディスプレイの第1面及び第2面のうち少なくとも一つを介してタッチ入力を受信する入力インターフェースと、
    前記第1オブジェクト、前記第2オブジェクト、前記第1面及び前記第2面についての情報を保存する保存器と、
    前記第1オブジェクト及び前記第2オブジェクトがディスプレイされている間に前記透明ディスプレイの前記第1面を介して前記第1オブジェクトに対するタッチ入力が受信されることにより、前記第1オブジェクトに対応するオブジェクト特定機能を行い、
    前記第1オブジェクト及び前記第2オブジェクトがディスプレイされている間に前記透明ディスプレイの前記第2面を介して前記第2オブジェクトに対するタッチ入力が受信されることにより、前記第2オブジェクトに対応するオブジェクト特定機能を行うプロセッサを含み、
    前記第1オブジェクトと前記第2オブジェクトは、互いに異なり、前記第1面上の前記第1オブジェクトのディスプレイ領域の一部は、前記第2面上の前記第2オブジェクトのディスプレイ領域の一部と重なり、
    前記プロセッサは、
    前記第1オブジェクトに対する前記タッチ入力及び前記第2オブジェクトに対する前記タッチ入力の受信に応答し、
    前記第1オブジェクトに対応する前記オブジェクト特定機能と前記第2オブジェクトに対応する前記オブジェクト特定機能とを同時に制御する
    ことを特徴とするデバイス。
JP2015504507A 2012-04-07 2013-04-08 透明ディスプレイを有するデバイスにおけるオブジェクト制御方法、該デバイス及び該記録媒体 Expired - Fee Related JP6254147B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR20120036405 2012-04-07
KR10-2012-0036405 2012-04-07
KR1020130036716A KR102164453B1 (ko) 2012-04-07 2013-04-04 투명 디스플레이를 포함하는 디바이스에서 오브젝트 제어 방법 및 그 디바이스와 기록 매체
KR10-2013-0036716 2013-04-04
PCT/KR2013/002907 WO2013151400A1 (en) 2012-04-07 2013-04-08 Object control method performed in device including transparent display, the device, and computer readable recording medium thereof

Publications (2)

Publication Number Publication Date
JP2015512549A JP2015512549A (ja) 2015-04-27
JP6254147B2 true JP6254147B2 (ja) 2017-12-27

Family

ID=49634290

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015504507A Expired - Fee Related JP6254147B2 (ja) 2012-04-07 2013-04-08 透明ディスプレイを有するデバイスにおけるオブジェクト制御方法、該デバイス及び該記録媒体

Country Status (3)

Country Link
JP (1) JP6254147B2 (ja)
KR (1) KR102164453B1 (ja)
CN (1) CN104246683B (ja)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104704441B (zh) * 2012-10-01 2018-10-26 日本电气株式会社 信息处理设备、信息处理方法和记录介质
US20150212647A1 (en) 2012-10-10 2015-07-30 Samsung Electronics Co., Ltd. Head mounted display apparatus and method for displaying a content
KR102063952B1 (ko) 2012-10-10 2020-01-08 삼성전자주식회사 멀티 디스플레이 장치 및 멀티 디스플레이 방법
EP3094516B1 (de) 2014-01-15 2020-04-15 Volkswagen Aktiengesellschaft Verfahren und vorrichtung zur rückmeldung einer eingabe an einen anwender
KR102243652B1 (ko) * 2014-02-17 2021-04-23 엘지전자 주식회사 디스플레이 디바이스 및 그 제어 방법
US10860366B2 (en) 2014-04-30 2020-12-08 Hewlett-Packard Development Company, L.P. Multi architecture manager
US9804707B2 (en) * 2014-09-12 2017-10-31 Microsoft Technology Licensing, Llc Inactive region for touch surface based on contextual information
KR102358548B1 (ko) 2014-10-15 2022-02-04 삼성전자주식회사 디바이스를 이용한 화면 처리 방법 및 장치
JP6567324B2 (ja) * 2015-05-21 2019-08-28 シャープ株式会社 画像表示装置、およびヘッドマウントディスプレイ
CN105100609B (zh) * 2015-07-10 2019-04-16 努比亚技术有限公司 移动终端和拍摄参数的调节方法
CN105824458A (zh) * 2016-01-29 2016-08-03 维沃移动通信有限公司 一种拍照控制方法及移动终端
JP6195964B1 (ja) * 2016-04-15 2017-09-13 ネイバー コーポレーションNAVER Corporation アプリケーション制作装置及びその方法、アプリケーション駆動装置、並びにコンピュータプログラム
KR20180003175A (ko) * 2016-06-30 2018-01-09 삼성전자주식회사 전자 장치 및 그의 동작 방법
US10866689B2 (en) * 2017-02-22 2020-12-15 Sony Mobile Communications Inc. Information processing apparatus, method, and program for controlling a background of a display screen
CN110456948B (zh) * 2018-05-07 2023-04-18 苹果公司 用于推荐和消费电子设备上的内容的用户界面
CN109271120A (zh) * 2018-08-21 2019-01-25 维沃移动通信有限公司 一种显示方法及终端
JP6613512B1 (ja) 2018-08-31 2019-12-04 レノボ・シンガポール・プライベート・リミテッド 電子機器
CN110312034B (zh) * 2019-06-19 2021-02-02 Oppo广东移动通信有限公司 透明显示屏控制方法及相关设备
CN110503912B (zh) * 2019-08-23 2022-11-04 Oppo(重庆)智能科技有限公司 一种透明显示屏的显示控制方法、装置及终端设备
JP2021068206A (ja) 2019-10-24 2021-04-30 株式会社ジャパンディスプレイ 表示装置
WO2021096957A1 (en) 2019-11-11 2021-05-20 Apple Inc. User interfaces for time period-based curated playlists
KR20220118751A (ko) * 2021-02-19 2022-08-26 삼성전자주식회사 투명 디스플레이를 포함하는 전자 장치 및 이의 동작 방법

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6963937B1 (en) * 1998-12-17 2005-11-08 International Business Machines Corporation Method and apparatus for providing configurability and customization of adaptive user-input filtration
JP2003296022A (ja) * 2002-04-01 2003-10-17 Pioneer Electronic Corp タッチパネル一体型表示装置
JP3852368B2 (ja) * 2002-05-16 2006-11-29 ソニー株式会社 入力方法及びデータ処理装置
KR100672354B1 (ko) * 2004-03-06 2007-01-24 엘지전자 주식회사 이동 단말기의 키 입력장치
JP4884912B2 (ja) * 2006-10-10 2012-02-29 三菱電機株式会社 電子機器
US7979805B2 (en) * 2007-05-21 2011-07-12 Microsoft Corporation Button discoverability
JP2009187290A (ja) * 2008-02-06 2009-08-20 Yamaha Corp タッチパネル付制御装置およびプログラム
US20090235281A1 (en) * 2008-03-12 2009-09-17 Inventec Corporation Handheld electronic device, input device and method thereof, and display device and method thereof
JP4762262B2 (ja) * 2008-03-13 2011-08-31 シャープ株式会社 情報表示装置及び情報表示方法
JP5353090B2 (ja) * 2008-06-27 2013-11-27 株式会社ニコン デジタルフォトフレーム
KR101592296B1 (ko) * 2008-09-03 2016-02-05 엘지전자 주식회사 이동 단말기 및 그의 객체 선택과 실행 방법
KR101544364B1 (ko) * 2009-01-23 2015-08-17 삼성전자주식회사 듀얼 터치 스크린을 구비한 휴대 단말기 및 그 컨텐츠 제어방법
US8493364B2 (en) * 2009-04-30 2013-07-23 Motorola Mobility Llc Dual sided transparent display module and portable electronic device incorporating the same
EP2282256A1 (en) * 2009-08-04 2011-02-09 Deutsche Telekom AG Electronic device and method for controlling an electronic device
JP2011070609A (ja) * 2009-09-28 2011-04-07 Fujitsu Ltd タッチパネル付情報端末装置、表示制御方法、および表示制御プログラム
JP5363259B2 (ja) * 2009-09-29 2013-12-11 富士フイルム株式会社 画像表示装置、画像表示方法およびプログラム
EP2341418A1 (en) * 2009-12-31 2011-07-06 Sony Computer Entertainment Europe Limited Device and method of control
KR20110081040A (ko) * 2010-01-06 2011-07-13 삼성전자주식회사 투명 디스플레이를 구비한 휴대단말에서 컨텐츠 운용 방법 및 장치
CN102004614B (zh) * 2010-12-30 2013-06-19 Tcl集团股份有限公司 双屏触敏显示电子设备及其实现方法
JP5784960B2 (ja) * 2011-04-26 2015-09-24 京セラ株式会社 携帯端末、タッチパネル操作プログラムおよびタッチパネル操作方法
CN102360254A (zh) * 2011-09-28 2012-02-22 广东美的电器股份有限公司 一种触控显示屏及使用触控显示屏的终端设备

Also Published As

Publication number Publication date
CN104246683A (zh) 2014-12-24
KR20130113997A (ko) 2013-10-16
KR102164453B1 (ko) 2020-10-13
CN104246683B (zh) 2019-04-16
JP2015512549A (ja) 2015-04-27

Similar Documents

Publication Publication Date Title
JP6254147B2 (ja) 透明ディスプレイを有するデバイスにおけるオブジェクト制御方法、該デバイス及び該記録媒体
US10296127B2 (en) Object control method performed in device including transparent display, the device, and computer readable recording medium thereof
US10788977B2 (en) System and method for displaying information on transparent display device
US10470538B2 (en) Portable terminal and display method thereof
US9865224B2 (en) Transparent display apparatus and display method thereof
EP2720132B1 (en) Display apparatus and method of controlling the same
KR102203885B1 (ko) 사용자 단말 장치 및 그 제어 방법
US20160357221A1 (en) User terminal apparatus and method of controlling the same
US10222840B2 (en) Display apparatus and controlling method thereof
AU2018223043B2 (en) Portable terminal and display method thereof
KR20170082722A (ko) 사용자 단말 장치 및 그 제어 방법
KR20170057823A (ko) 에지 스크린을 통한 터치 입력 방법 및 전자 장치
KR102255832B1 (ko) 투명 디스플레이 기기상에 정보를 디스플레이 하는 시스템 및 방법
KR20160027886A (ko) 벤디드 디스플레이와 커버를 갖는 휴대단말 및 그 어플리케이션 실행 방법
KR20160027856A (ko) 벤디드 디스플레이와 커버를 갖는 휴대단말 및 그 어플리케이션 실행 방법
AU2015200541A1 (en) Object control method performed in device including transparent display, the device, and computer readable recording medium thereof

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20141226

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160404

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170123

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170407

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171013

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171030

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171129

R150 Certificate of patent or registration of utility model

Ref document number: 6254147

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees