JP2013525900A - 携帯端末機のgui提供方法及び装置 - Google Patents

携帯端末機のgui提供方法及び装置 Download PDF

Info

Publication number
JP2013525900A
JP2013525900A JP2013506070A JP2013506070A JP2013525900A JP 2013525900 A JP2013525900 A JP 2013525900A JP 2013506070 A JP2013506070 A JP 2013506070A JP 2013506070 A JP2013506070 A JP 2013506070A JP 2013525900 A JP2013525900 A JP 2013525900A
Authority
JP
Japan
Prior art keywords
item
displayed
display
application
items
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013506070A
Other languages
English (en)
Other versions
JP5976632B2 (ja
Inventor
キョン シン,ヒョン
ウー シン,スン
ウォン イ,ボン
ウォン ジョン,イン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2013525900A publication Critical patent/JP2013525900A/ja
Application granted granted Critical
Publication of JP5976632B2 publication Critical patent/JP5976632B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72469User interfaces specially adapted for cordless or mobile telephones for operating the device by selecting functions from two or more displayed items, e.g. menus or icons
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Digital Computer Display Output (AREA)

Abstract

本発明は、タッチスクリーンベースの携帯端末機において、ユーザのタッチ入力を誘導して使用便宜性を向上するGUI提供方法及び装置を提供する。本発明の実施例による携帯端末機のGUI提供方法は、アイテム表示割り当て領域に配列された少なくとも1つのアイテム以外に表示可能アイテムが存在するか否かを判断する判断段階と、前記表示可能アイテムが存在する場合、前記表示可能アイテムが生成されるアイテム表示割り当て領域の境界部分に一定形態のイメージ客体を表示する表示段階と、を含むことを特徴とする。
【選択図】図2

Description

本発明は、携帯端末機のGUI(Graphic User Interface)提供方法及び装置に係り、特にタッチスクリーン基盤の携帯端末機においてユーザのタッチ入力を誘導するGUI提供方法及び装置に関する。
最近、タッチスクリーンベースの携帯端末機に対する選好度は、徐々に増加している。ユーザは、タッチスクリーン上にタッチ動作を入力し、所望の情報を探索するか、所望の機能を実行するようになり、携帯端末機に表示されるGUI(Graphic User Interface)は、このようなユーザのタッチ動作を案内する。この際、前記表示されるGUIによって携帯端末機の使用便宜性を変更できるので、現在、携帯端末機の使用便宜性を向上できるGUIが持続的に研究されている。
本発明の目的は、携帯端末機の使用便宜性を向上したGUI提供方法及びこれを支援する装置を提供することにある。
本発明の実施例による携帯端末機のGUI提供方法は、アイテム表示割り当て領域に配列された少なくとも1つのアイテム以外に表示可能アイテムが存在するか否かを判断する判断段階と、前記表示可能アイテムが存在する場合、前記表示可能アイテムが生成されるアイテム表示割り当て領域の境界部分に一定形態のイメージ客体(object)を表示する表示段階と、を含むことを特徴とする。
本発明の他の実施例による携帯端末機のGUI提供方法は、第1アプリケーションを含む少なくとも1つのアプリケーション実行中に、ユーザから第2アプリケーション実行命令を入力される段階と、第2アプリケーション実行画面の特定領域に一定形態のイメージ客体を表示する段階と、前記イメージ客体上に入力されるタッチ動作を感知する段階と、前記感知されたタッチ動作によって前記第1アプリケーションの関連画面を表示する段階と、を含むことを特徴とする。
本発明の実施例によるGUI提供のための携帯端末機は、画面を出力する表示部と、前記表示部を制御し、少なくとも1つのアイテムをアイテム表示割り当て領域に配列して表示し、前記少なくとも1つのアイテム以外に表示可能アイテムが存在するか否かを判断し、前記表示可能アイテムが存在する場合、前記表示部を制御し、前記表示可能アイテムが生成されるアイテム表示割り当て領域の境界部分に一定形態のイメージ客体を表示する制御部と、を含むことを特徴とする。
本発明の他の実施例によるGUI提供のための携帯端末機は、ユーザのタッチ動作を認識するタッチセンサー部と、画面を出力する表示部と、第1アプリケーションを含む少なくとも1つのアプリケーションを実行し、前記タッチセンサー部を通じてユーザから第2アプリケーション実行命令を入力されれば、前記表示部を制御して第2アプリケーション実行画面の一方の領域に一定形態のイメージ客体を表示し、前記タッチセンサー部を制御して前記イメージ客体上に入力されるタッチ動作を感知し、前記表示部を制御して前記感知されたタッチ動作によって第1アプリケーション制御窓を前記第2アプリケーション実行画面にオーバレイ(overlay)して表示するか、又は前記第2アプリケーション実行画面を第1アプリケーション実行画面に切り替えて表示する制御部とを含むことを特徴とする。
本発明によれば、携帯端末機の使用便宜性を向上できる。具体的に、ユーザは、画面上に表示されるライトイメージ(light_image、より一般的には、イメージ客体(object))を通じて、現在表示された情報以外に追加的に表示可能な情報の存在有無を把握できる。また、ユーザは、画面上に表示されたライトイメージを通じて、前記表示可能な情報を携帯端末機に表示させるために入力しなければならないタッチ移動動作を把握できる。また、複数のアプリケーションを実行中の場合、ユーザは、アプリケーション実行画面上に表示されるライトイメージを通じて他のアプリケーションが実行されているか否かを把握でき、前記ライトイメージから生成される制御窓を通じて前記他のアプリケーションを制御できる。また、複数のアプリケーションを実行中の場合、ユーザは、アプリケーション実行画面上に表示されるライトイメージを通じて現在実行中のアプリケーションの種類を把握でき、前記ライトイメージに所定のタッチ動作を入力することによって、アプリケーション実行画面を切り替えられる。
は、本発明の実施例による携帯端末機の内部構成図を示す。 は、本発明の第1実施例による携帯端末機のGUI提供方法を示す流れ図である。 は、本発明の第1実施例によるGUI提供方法によって表示される携帯端末機の例示画面である。 は、本発明の第1実施例によるGUI提供方法によって表示される携帯端末機の他の例示画面である。 は、本発明の第1実施例によるGUI提供方法によって表示される携帯端末機のさらに他の例示画面である。 は、本発明の第1実施例によって表示されるライトイメージの照明光方向を示す図である。 は、本発明の第1実施例によるGUI提供方法によって表示される携帯端末機の例示画面であって、ユーザがタッチ移動動作を入力したとき、変更される形態を示す。 は、本発明の第1実施例によるGUI提供方法によって表示される携帯端末機の例示画面であって、ユーザがタッチ移動動作を入力したとき、変更される形態を示す。 は、本発明の第2実施例による携帯端末機のGUI提供方法を示す流れ図である。 は、本発明の第2実施例によるGUI提供方法によって表示される携帯端末機の例示画面である。 は、本発明の第2実施例によるGUI提供方法によって表示される携帯端末機の例示画面である。 は、本発明の第2実施例によるGUI提供方法によって表示される携帯端末機の他の例示画面である。 は、本発明の第2実施例によるGUI提供方法によって表示される携帯端末機の他の例示画面である。
本発明の実施例による’アイテム(item)’は、GUI(Graphic User Interface)の一種としてユーザによって選択可能なすべてのグラフィック客体(object)を包括する概念として使用される。
以下、添付の図面を参照して本発明の好ましい実施例を詳しく説明する。この際、添付の図面において同一の構成要素は、できるだけ同一の符号で示してあることに留意しなければならない。また、本発明の要旨を却って不明瞭にすると思われる場合、公知機能及び構成に関する詳細な説明は省略する。
本発明は、携帯端末機を例示して説明するが、これに限定されるものではなく、タッチスクリーンを備えたすべての装置に適用できる。また、本発明の実施例による携帯端末機は、タッチスクリーンを備えた端末機であって、好ましくは、移動通信端末機、携帯用マルチメディア再生装置(Portable Multimedia Player−PMP)、個人情報端末機(Personal Digital Assistant−PDA)、スマートフォン(Smart Phone)、MP3プレーヤーなどの情報通信機器及びマルチメディア機器に適用できる。
図1は、本発明の実施例による携帯端末機100の内部構成図を示す。本発明の携帯端末機100は、無線通信部110、オーディオ処理部120、タッチスクリーン部130、キー入力部140、格納部150及び制御部160を含む。
無線通信部110は、携帯端末機100の無線通信のための当該データの送受信機能を行う。無線通信部110は、送信される信号の周波数を上昇変換及び増幅するRF送信機と、受信される信号を低雑音増幅し、周波数を下降変換するRF受信機などで構成される。また、無線通信部110は、無線チャネルを介してデータを受信して制御部160に出力し、制御部160から出力されたデータを、無線チャネルを介して伝送する。
オーディオ処理部120は、コーデック(CODEC)で構成され、コーデックは、パケットデータなどを処理するデータコーデックと、音声などのオーディオ信号を処理するオーディオコーデックで構成される。オーディオ処理部120は、デジタルオーディオ信号を、オーディオコーデックを通じてアナログオーディオ信号に変換してスピーカー(SPK)を通じて再生し、マイク(MIC)から入力されるアナログオーディオ信号を、オーディオコーデックを通じてデジタルオーディオ信号に変換する。
タッチスクリーン部130は、タッチセンサー部131及び表示部132を含む。タッチセンサー部131は、ユーザのタッチ入力を感知する。タッチセンサー部131は、静電容量方式(capacitive overlay)、感圧式抵抗膜方式(resistive overlay)、赤外線感知方式(infrared beam)などのタッチ感知センサーで構成されるか、又は圧力感知センサー(pressure sensor)で構成される。前記センサー以外にも、物体の接触又は圧力を感知できるすべての種類のセンサー機器が本発明のタッチセンサー部131の具現化に適用できる。
タッチセンサー部131は、ユーザのタッチ入力を感知し、感知信号を発生させて制御部160に伝送する。前記感知信号には、ユーザがタッチを入力した座標データが含まれる。ユーザがタッチ位置移動動作を入力した場合、タッチセンサー部131は、タッチ位置移動経路の座標データを含む感知信号を発生させて制御部160に伝送する。本発明においてタッチ位置移動動作には、タッチ位置の移動速度が既定の(或る一定の、preset)臨界速度より大きい動作に該当するフリック(flick)と、タッチ位置の移動速度が既定の臨界速度より小さい動作に該当するドラッグ(drag)が含まれる。
表示部132は、液晶表示装置(LCD、Liquid Crystal Display)、有機発光ダイオード(OLED、Organic Light Emitting Diodes)、能動型有機発光ダイオード(AMOLED、Active Matrix Organic Light Emitting Diodes)などの何れかで形成され、携帯端末機100のメニュー、入力されたデータ、機能設定情報及びその他多様な情報をユーザに視覚的に提供する。表示部132は、携帯端末機100の起動画面、待機画面、メニュー画面、通話画面、その他アプリケーション画面を出力する機能を行う。
キー入力部140は、携帯端末機100を制御するためのユーザのキー操作を入力され、入力信号を生成して制御部160に伝達する。キー入力部140は、数字キー、方向キーを含むキーパッドで構成され、携帯端末機100の一面に所定の機能キーで形成される。本発明の実施例によってタッチスクリーン部130だけですべての操作が可能な携帯端末機の場合には、キー入力部140は省略できる。
格納部150は、携帯端末機100の動作に必要なプログラム及びデータを格納する役目を行い、プログラム領域とデータ領域に区分されることができる。プログラム領域は、携帯端末機100の全般的な動作を制御するプログラム及び携帯端末機100を起動させるOS(Operating System)、マルチメディアコンテンツ再生などに必要な応用プログラム、携帯端末機100のその他オプション機能、例えば、カメラ機能、音再生機能、イメージ又は動画再生機能に必要な応用プログラムなどを格納する。データ領域は、携帯端末機100の使用によって発生するデータが格納される領域であって、イメージ、動画、フォンブック、オーディオデータなどを格納する。
制御部160は、携帯端末機の各構成要素に対する全般的な動作を制御する。本発明の第1実施例による制御部160は、タッチセンサー部131又はキー入力部140を制御し、ユーザからアイテム表示命令が入力されるか否かを判断する。アイテム表示命令が入力されたものと判断すれば、制御部160は、表示部132を制御し、少なくとも1つのアイテムをアイテム表示割り当て領域に一定方向に配列して表示する。その後、制御部160は、アイテム配列方向又はアイテム配列方向の反対方向にアイテム移動が可能であるか否かを判断する。この際、制御部160は、現在表示されたアイテムのうち先頭に表示されたアイテム以前に表示待機状態のアイテムが存在するか、又は、最後尾に表示されたアイテム以後に表示待機状態のアイテムが存在するか否かを判断する。
アイテム配列方向にアイテム移動が可能なものと判断すれば、制御部160は、表示部132を制御し、アイテム配列が始まる側のアイテム表示割り当て領域の境界部分にライトイメージ、より一般的には、何らかのイメージ客体(object)、を表示し、アイテム配列方向の反対方向にアイテム移動が可能なものと判断すれば、制御部160は、表示部132を制御し、アイテム配列が終わる側のアイテム表示割り当て領域の境界部分にライトイメージを表示する。
本発明の第2実施例による制御部160は、ユーザの入力によって表示部132を制御して第1アプリケーション実行画面を表示し、タッチスクリーン部130又はキー入力部140を制御してユーザから第2アプリケーション実行命令が入力されるか否かを判断する。ユーザからの命令が入力されれば、制御部160は、表示部132を制御して第1アプリケーション実行画面から第2アプリケーション実行画面に切り替えて表示する。
その後、制御部160は表示部132を制御し、第2アプリケーション実行画面の一方の領域にライトイメージ(照明イメージ、illuminated_image)を表示する。第2アプリケーション実行画面上にライトイメージが表示された状態で、制御部160は、タッチスクリーン部130を制御し、ライトイメージに一定方向のタッチ動作が入力されるか否かを判断する。ユーザからライトイメージに一定方向のタッチ動作が入力されたものと判断すれば、制御部160は、表示部132を制御して第1アプリケーション制御窓を第2アプリケーション実行画面にオーバレイ(overlay)して表示する。
図2は、本発明の第1実施例による携帯端末機100のGUI提供方法を示す流れ図である。本発明の第1実施例は、表示部132に表示されていないアイテムに対してユーザの探索(browse)を許容するためのGUIを提供する実施例に該当する。
201段階で、制御部160(図1に示した)は、アイテム表示命令が入力されるか否かを判断する。本発明の実施例によって制御部160は、201段階で、タッチセンサー部131又はキー入力部140を通じて少なくとも1つのアイテムを含む背景画面(background)の表示命令が入力されるか否かを判断する。また、制御部160は、201段階で、タッチセンサー部131又はキー入力部140を制御し、少なくとも1つのアイテムを含むアプリケーション(application)実行画面又はメニュー(menu)画面の表示命令が入力されるか否かを判断する。本発明の実施例によって‘アイテム’は、多数の下位メニューアイテムを包括する上位メニューアイテムに該当する。
アイテム表示命令が入力されたものと判断すれば、制御部160は、202段階で、表示部132を制御し、少なくとも1つのアイテムをアイテム表示割り当て領域に一定方向に配列して表示する。本発明において‘アイテム表示割り当て領域’は、1つ又はそれ以上のアイテムが表示されるように定義された領域に該当する。制御部160は、表示部132でアイテム表示割り当て領域を確認し、前記アイテム表示割り当て領域に表示可能なアイテムの最大個数Aを確認する。その後、制御部160は、表示するアイテムの個数aを確認し、前記‘A’と‘a’を比較する。もし、‘A’が‘a’より大きいか又は同じ場合、制御部160は、表示部132を制御し、表示するアイテム全部をアイテム表示割り当て領域に一定方向に配列して表示する。
しかし、‘A’が‘a’より小さい場合、表示するべきアイテム全部をアイテム表示割り当て領域に表示できないので、制御部160は、表示部132を制御し、表示するアイテムのうち‘A’個のアイテムのみを選択し、アイテム表示割り当て領域に表示する。本発明の実施例によって表示するアイテムに配列順序が設定されている場合、制御部160は、表示部132を制御し、最高優先順位のアイテムから‘A’個のアイテムを表示できる。また、制御部160は、表示部132を制御し、最低優先順位のアイテムから逆順に‘A’個のアイテムを表示できる。また、制御部160は、表示部132を制御し、直近の(the_last)アイテム表示状態に復帰して表示することもできる。例えば、背景画面が配列順序の設定された複数個のアイテムを含み、これらのうち第2順位のアイテムが先頭に表示されている状態で他の画面に切り替えられた後、さらに背景画面の表示命令が入力されるとき、制御部160は、表示部132を制御し、第2順位のアイテムが先頭に表示されている形態でアイテムを配列して表示する。
制御部160は、202段階で、表示部132を制御し、アイテムを配列して表示するとき、一方の方向に配列して表示する。例えば、アイテムは、左側から右側に向ける方向又は右側から左側に向ける方向に配列されて表示できる。また、アイテムは、上側から下側に向ける方向又は下側から上側に向ける方向に配列されて表示できる。前記方向以外にも、本発明において一方の方向は、左上側から右下側に向ける方向、右上側から左側に向ける方向などアイテムが配列されて表示可能なすべての方向の何れかにできる。また本発明の実施例によって制御部160は、表示部132を制御し、複数の方向にアイテムを配列して表示できる。例えば、アイテムは、左側から右側に向ける方向と上側から下側に向ける方向に十字形状(十)を有するように表示されてもよい。
前記アイテム表示割り当て領域に表示可能なアイテムの最大個数Aが、表示するアイテムの個数aより少ない場合、表示するアイテムのうち一部のA個のアイテムだけが表示部132に表示され、他のアイテムは、表示部132に表示されない。この際、表示部132に表示されていないアイテムは、表示待機状態のアイテムとなる。本発明において‘表示待機状態のアイテム’というのは、現在表示部132に表示されていないが、ユーザの入力によってアイテム表示割り当て領域に表示できるアイテムを意味する。
203段階で、制御部160は、アイテム配列方向とアイテム配列方向の反対方向にアイテム移動が可能である否かを判断する。これは、表示部132に表示されたアイテム以外に追加的に表示することができるアイテムが存在するか否かを判断する過程に該当する。本発明の実施例によって制御部160は、203段階で、現在表示されたアイテムのうち先頭に表示されたアイテム以前に表示待機状態のアイテムが存在するか、又は最も終わりに表示されたアイテム以後に表示待機状態のアイテムが存在するか否かを判断することができる。また、制御部160は、203段階で、現在表示されたアイテムのうち先頭に表示されたアイテムが既定の配列順序のうち最高優先順位に該当するアイテムではないか、又は最も終わりに表示されたアイテムが既定の配列順序のうち最低優先順位に該当するアイテムではないかを判断することもできる。
203段階の判断結果、アイテム配列方向とアイテム配列方向の反対方向にアイテム移動が可能な場合、制御部160は、204段階で、表示部132を制御し、アイテム配列が始まる側のアイテム表示割り当て領域の境界部分とアイテム配列が終わる側のアイテム表示割り当て領域の境界部分に何らかのイメージ客体(object)を表示する。アイテム配列が始まる側のアイテム表示割り当て領域の境界部分は、隠されていたアイテムが表示部132に表示されるとき、表示が始まるアイテム表示割り当て領域の境界部分に該当する。本発明において、イメージ客体は、ライト(light)イメージ、即ち、一定方向を照らす照明光形状のイメージで具現化する。本発明では、このように、照明光形状のイメージを中心に説明するが、イメージ客体はこれに限定されるものではなく、アイテム表示割り当て領域の境界部分に表示されるイメージは、方向性を示す他の所定のイメージで構成できる。アイテムが左側から右側に向ける方向に配列された場合、アイテム配列が始まる側は、左側となり、アイテム配列が終わる側は、右側となる。アイテム表示割り当て領域が矩形形態で構成される場合、アイテム配列が始まる側のアイテム表示割り当て領域の境界部分は、前記矩形の左辺に該当し、アイテム配列が終わる側のアイテム表示割り当て領域の境界部分は、前記矩形の右辺に該当する。この際、ライトイメージは、前記左辺及び右辺に表示される。
図3は、本発明の第1実施例によるGUI提供方法によって表示される携帯端末機100の例示画面である。図3の[a]の画面は、それぞれ‘Artists’、‘Moods’及び‘Songs’に該当する3個のアイテム31、アイテム表示割り当て領域32、アイテム表示割り当て領域の第1境界33、アイテム表示割り当て領域の第2境界34及び2個のライトイメージ35を表示している。図3の[a]は、アイテムが左側から右側に向ける方向に配列された形態を示し、アイテム表示割り当て領域の第1境界33は、アイテム配列が始まる側のアイテム表示割り当て領域の境界部分に該当し、アイテム表示割り当て領域の第2境界34は、アイテム配列が終わる側のアイテム表示割り当て領域の境界部分に該当する。
図3を説明するにあたって、アイテム表示割り当て領域に表示するべきアイテムは、‘Album’、‘Artists’、‘Moods’、‘Songs’、‘Years’及び‘Genre’に該当し、アイテム配列順序は、前記配列順序と同一であり、アイテム表示割り当て領域に表示可能なアイテムの最大個数は、3個に該当するものと仮定する。202段階で、前記6個のアイテム全部がアイテム表示割り当て領域に表示できず、前記6個のアイテムのうち3個のアイテムだけがアイテム表示割り当て領域に表示される。
例えば‘Artists’、‘Moods’及び‘Songs’がアイテム表示割り当て領域に表示される場合、‘Album’、‘Years’及び‘Genre’は、表示待機状態のアイテムとなる。図3の[b]は、‘Artists’、‘Moods’及び‘Songs’がアイテム表示割り当て領域に表示され、‘Album’、‘Years’及び‘Genre’が表示待機状態で存在する形態を示す。‘Album’は、‘Artists’以前位置に表示待機状態で存在し、‘Years’及び‘Genre’は、‘Songs’以後位置に表示待機状態で存在する。アイテム表示割り当て領域で先頭(foremost)に表示されるアイテムである‘Artists’以前に表示待機状態のアイテムが存在するので、制御部160は、表示部132を制御し、図3の[a]に示したように、アイテム表示割り当て領域の第1境界33にライトイメージ35を表示する。また、アイテム表示割り当て領域で最も最後尾(last)に表示されるアイテムである‘Songs’以後に表示待機状態のアイテムが存在するので、制御部160は、表示部132を制御し、図3の[a]に示されたように、アイテム表示割り当て領域の第2境界34にライトイメージ35を表示する。
ユーザは、アイテム表示割り当て領域の第1境界33と第2境界34に表示されたライトイメージ35を確認することによって、‘Artists’以前と‘Songs’以後に追加的に表示可能なアイテムが存在することを把握できる。
本発明の実施例によって制御部160は、表示部132を制御し、表示待機状態のアイテムがアイテム表示割り当て領域に表示されているアイテムに向けて照明光を呈する形態のライトイメージを表示する。図6は、第1実施例によって表示されるライトイメージ35の照明光方向を示す図である。図6においてライトイメージ35は、‘Album’と‘Artists’との間の境界ライン上に位置し、照明光が表示待機状態のアイテムである‘Album’から画面に表示されるアイテムである‘Artists’に向ける方向に表示されている。また図6で、ライトイメージ35は、‘Years’と‘Songs’との間の境界ラインに位置し、照明光が表示待機状態のアイテムである‘Years’から画面に表示されるアイテムである‘Songs’に向ける方向に表示されている。
203段階で、アイテム配列方向とアイテム配列方向の反対方向の何れにもアイテム移動が可能なものと判断しない場合、制御部160は、205段階で、アイテム配列方向にのみアイテム移動が可能であるか否かを判断する。205段階は、制御部160が現在表示されたアイテムのうち先頭に表示されたアイテム以前に表示待機状態のアイテムが存在するか否かを判断する過程で行われることができる。また、205段階は、現在表示されたアイテムのうち先頭に表示されたアイテムが既定の配列順序のうち最高優先順位に該当するアイテムではないかを判断する過程で行われることができる。
205段階の判断結果、アイテム配列方向にアイテム移動が可能な場合、制御部160は、206段階で、表示部132を制御し、アイテム配列が始まる側のアイテム表示割り当て領域の境界部分にライトイメージを表示する。図4は、本発明の第1実施例によるGUI提供方法によって表示される携帯端末機100の他の例示画面に該当する。
図4の場合にも、図3と同様に、アイテム表示割り当て領域に表示するべきアイテムは、‘Album’、‘Artists’、‘Moods’、‘Songs’、‘Years’及び‘Genre’に該当し、アイテム配列順序は、前記配列順序と同一であり、アイテムは、左側から右側に向ける方向に配列され、アイテム表示割り当て領域に表示可能なアイテムの最大個数は、3個に該当するものと仮定する。‘Album’、‘Artists’及び‘Moods’がアイテム表示割り当て領域に表示される場合、‘Songs’、‘Years’及び‘Genre’は、表示待機状態のアイテムとなり、‘Moods’以後位置に存在する。‘Album’以前位置には、表示待機状態のアイテムが存在しないので、左側から右側に向ける方向には、アイテムを移動できないので、図4の[a]に示したように、アイテム表示割り当て領域の第1境界33には、ライトイメージ35が表示されない。一方、‘Moods’以後位置には、表示待機状態のアイテム‘Songs’、‘Years’及び‘Genre’が存在するので、右側から左側に向ける方向には、アイテムを移動できるので、制御部160は、表示部132を制御し、図4の[a]に示したように、アイテム表示割り当て領域の第2境界34にライトイメージ35を表示する。
205段階で、アイテム配列方向にアイテム移動が可能なものと判断しない場合、制御部160は、207段階で、アイテム配列方向の反対方向にのみアイテム移動が可能であるか否かを判断する。207段階は、制御部160が現在表示されたアイテムのうち最も終わりに表示されたアイテム以後に表示待機状態のアイテムが存在するか否かを判断する過程で行われることができる。また、207段階は、現在表示されたアイテムのうち最も終わりに表示されたアイテムが既定の配列順序のうち最低優先順位に該当するアイテムではないかを判断する過程で行われることができる。
207段階の判断結果、アイテム配列方向の反対方向にアイテム移動が可能な場合、制御部160は、208段階で、表示部132を制御し、アイテム配列が終わる側のアイテム表示割り当て領域の境界にライトイメージを表示する。図5は、本発明の第1実施例によるGUI提供方法によって表示される携帯端末機100のさらに他の例示画面である。
図5の場合にも、図3と同様に、アイテム表示割り当て領域に表示するアイテムは、‘Album’、‘Artists’、‘Moods’、‘Songs’、‘Years’及び‘Genre’に該当し、アイテム配列順序は、前記配列順序と同一であり、アイテムは、左側から右側に向ける方向に配列され、アイテム表示割り当て領域に表示可能なアイテムの最大個数は、3個に該当するこものと仮定する。‘Songs’、‘Years’及び‘Genre’がアイテム表示割り当て領域に表示される場合、‘Album’、‘Artists’及び‘Moods’は、表示待機状態のアイテムとなり、‘Songs’以前位置に存在する。
‘Genre’以後位置には、表示待機状態のアイテムが存在しないので、右側から左側に向ける方向には、アイテムを移動できないので、図5の[a]に示したように、アイテム表示割り当て領域の第2境界34には、ライトイメージ35が表示されない。一方、‘Songs’以前位置には、表示待機状態のアイテム‘Album’、‘Artists’及び‘Moods’が存在するので、左側から右側に向ける方向には、アイテムを移動できるので、制御部160は、表示部132を制御し、図4の[a]に示したように、アイテム表示割り当て領域の第1境界33にライトイメージ35を表示する。
本発明の実施例によって制御部160は、表示部132を制御し、ライトイメージを或る一定の(既定の、preset)明るさで表示し、その際、表示待機状態のアイテム個数によって明るさを変更して表示できる。制御部160は、表示部132を制御し、表示待機状態のアイテムの特性によってライトイメージを変更して表示することができる。例えば、ユーザの迅速な確認を要求する留守イベントを実行させるためのアイテムが表示待機状態で存在する場合、制御部160は、表示部132を制御し、照明光がちかちかする(blink)形態のライトイメージを表示できる。また、制御部160は、表示部132を制御し、表示待機状態のアイテムの特性によってライトの色相(color)を変更して表示できる。また、制御部160は、表示部132を制御し、最初アイテム表示時に、表示待機状態のアイテムが存在する場合、ライトイメージを表示した後、時間経過を測定し、既定の臨界時間を経過するか否かを判断し、ライトイメージを削除して表示できる。ライトイメージが削除された状態でユーザがタッチスクリーン部130にタッチを入力する場合、制御部160は、表示部132を制御し、ライトイメージを再び表示できる。
ライトイメージは、ユーザの正しいタッチ動作の入力を誘導できる。ユーザは、ライトイメージの表示位置と照明光方向を通じてどの方向のタッチ位置移動動作を入力しなければならないかを判断できるので、無意味なタッチ位置移動動作の入力を防止できる。図3の[a]を参照すれば、ライトイメージ35がアイテム表示割り当て領域の第1境界33及び第2境界34に共に表示されているので、ユーザは、アイテム探索のために左側から右側へのタッチ位置移動動作と右側から左側へのタッチ位置移動動作が共に可能であることを把握できる。ユーザは、アイテム表示割り当て領域32内の任意の地点又はライトイメージ35が表示された領域にタッチを入力した後、左側又は右側方向にタッチ位置移動動作を入力し、隠されているアイテムを探索できる。
図4の[a]では、ライトイメージ35がアイテム表示割り当て領域の第2境界34にのみ表示されているので、ユーザは、アイテム探索のために右側から左側へのタッチ位置移動動作だけが可能であることを把握できる。また、図5の[a]では、ライトイメージ35がアイテム表示割り当て領域の第1境界33にのみ表示されているので、ユーザは、アイテム探索のために左側から右側へのタッチ位置移動動作だけが可能であることを把握できる。
ユーザがタッチスクリーン部130上にタッチ位置移動動作を入力すれば、制御部160は、表示部132を制御し、アイテムを移動させて表示し、現在表示されていたアイテムを削除し、表示待機状態のアイテムを生成して表示する。その後、制御部160は、アイテムが移動した位置でアイテム配列方向又はアイテム配列方向の反対方向にアイテム移動が可能であるか否かを判断し、アイテム配列方向にアイテム移動が可能であると判断する場合、表示部132を制御し、アイテム配列が始まる側のアイテム表示割り当て領域の境界部分にライトイメージを表示し、アイテム配列方向の反対方向にアイテム移動が可能であると判断する場合、表示部132を制御し、アイテム配列が終わる側のアイテム表示割り当て領域の境界部分にライトイメージを表示する。
図7及び図8は、本発明の第1実施例によるGUI提供方法によって表示される携帯端末機100の例示画面であって、ユーザがタッチ移動動作を入力したとき、変更される形態を示す。図7及び図8を説明するにあたって、表示するアイテムは、‘1’〜‘15’の15個のアイテムに該当し、アイテム表示割り当て領域に表示可能なアイテムの最大個数は、8個に該当するものと仮定する。
図7の[a]は、図3の[a]〜図5の[a]とは異なる形態の携帯端末機100の表示画面を示す。図7の[a]の画面は、‘1’〜‘8’のアイテム51、アイテム表示割り当て領域52、アイテム表示割り当て領域の第1境界53、アイテム表示割り当て領域の第2境界54及び1個のライトイメージ55を表示している。図7の[a]で、‘1’〜‘8’のアイテム31は、左側から右側方向にアイテム表示割り当て領域52に2行で配列されて表示されていて、‘9’〜‘15’のアイテムは、表示待機状態で存在する。この際、‘9’〜‘15’のアイテムは、‘7’及び‘8’のアイテムの右側方向に表示待機状態で存在する。
図7の[a]で、‘1’〜‘8’アイテムが左側から右側方向に配列されているので、アイテム表示割り当て領域の第1境界53は、アイテム配列が始まる側のアイテム表示割り当て領域の境界に該当し、アイテム表示割り当て領域の第2境界54は、アイテム配列が終わる側のアイテム表示割り当て領域の境界に該当する。‘1’及び‘2’のアイテム左側方向には、表示待機状態のアイテムが存在せず、‘7’及び‘8’のアイテム右側方向にのみ表示待機状態のアイテムが存在するので、制御部160は、表示部132を制御し、アイテム表示割り当て領域の第2境界54にのみライトイメージ55を表示する。
ユーザは、図7の[a]のようにアイテム51が配列され、ライトイメージ55がアイテム表示割り当て領域の第2境界54にのみ表示された形態を見て、‘1’及び‘2’のアイテム31の左側に表示待機状態であるアイテムが存在せず、‘7’及び‘8’のアイテム31右側に表示待機状態であるアイテムが存在することを把握できる。また、ユーザは、右側から左側へのタッチ移動動作入力時に、アイテムが移動して表示されることができるが左側から右側へのタッチ移動動作入力時に、アイテムが移動して表示されないことを予測することができる。ユーザが右側から左側へのタッチ位置移動動作を入力すれば、制御部160は、タッチ位置移動距離又はタッチ位置移動速度によって表示部132を制御し、アイコンを移動させて表示する。
図7の[b]は、図7の[a]と比較すれば、アイテムが移動した形態を示している。図7の[b]では、‘1’、‘2’、‘3’及び‘4’アイテムが削除され、‘9’、‘10’、‘11’及び‘12’アイテムが新たに生成されて表示される。この際、‘13’、‘14’及び‘15’アイテムは、‘11’及び‘12’アイテムの右側方向に表示待機状態で存在し、‘1’、‘2’、‘3’及び‘4’アイテムは、‘5’及び‘6’アイテムの左側方向に表示待機状態で存在する。従って、制御部160は、表示部132を制御し、アイテム表示割り当て領域の第1境界53及び第2境界54の両方共にライトイメージ55を表示する。ユーザは、図7の[b]のようにアイテム31が配列され、ライトイメージ55がアイテム表示割り当て領域の第1境界53及び第2境界54に表示された形態を見て、‘5’及び‘6’アイテム31の左側方向及び‘11’及び‘12’アイテム31の右側方向に表示待機状態であるアイテムが存在することを把握できる。
図8の[a]は、図7の[a]とは異なる形態の携帯端末機100の表示画面を示す。図8の[a]の画面は、‘1’〜‘8’のアイテム51、アイテム表示割り当て領域52、アイテム表示割り当て領域の第1境界53、アイテム表示割り当て領域の第2境界54及び1個のライトイメージ55を表示している。図8の[a]では、図7の[a]とは異なり、アイテム51が左側から右側方向ではなく、上側から下側方向に配列されている。
図8の[a]で、アイテム表示割り当て領域の第1境界53は、アイテム表示割り当て領域52の上側境界に該当し、アイテム表示割り当て領域の第2境界54は、アイテム表示割り当て領域52の下側境界に該当する。図8の[a]の画面には、‘1’〜‘8’アイテムが表示されていて、‘9’〜‘15’のアイテムは、‘5’、‘6’、‘7’及び‘8’アイテムの下側方向に表示待機状態で存在する。‘1’、‘2’、‘3’及び‘4’アイテムの上側方向に表示待機状態のアイテムが存在せず、‘5’、‘6’、‘7’及び‘8’のアイテム下側方向にのみ表示待機状態のアイテムが存在するので、制御部160は、表示部132を制御し、アイテム表示割り当て領域の第2境界54にのみライトイメージ55を表示する。
ユーザは、図8の[a]のようにアイテムが配列され、ライトイメージ55が表示された形態を見て、‘5’、‘6’、‘7’及び‘8’アイテム51の下側方向に表示待機状態であるアイテムが存在することを把握できる。また、ユーザは、図8の[a]の画面を見て、下側から上側へのタッチ位置移動動作入力時に、アイテムが移動して表示でき、上側から下側へのタッチ位置移動動作入力時に、アイテムが移動して表示できないことを予測できる。ユーザが下側から上側へのタッチ位置移動動作を入力すれば、制御部160は、タッチ位置移動距離又はタッチ位置移動速度によって表示部132を制御し、アイコンを移動させて表示する。
図8の[b]は、図8の[a]と比較すれば、アイテムが移動した形態を示している。図8の[b]では、図8の[a]と比較すれば、‘1’、‘2’、‘3’及び‘4’のアイテムが削除され、‘9’、‘10’、‘11’及び‘12’アイテムが新たに生成されて表示される。この際、‘13’、‘14’及び‘15’アイテムは、‘9’、‘10’、‘11’及び‘12’アイテムの下側方向に表示待機状態のアイテムとして存在し、‘1’、‘2’、‘3’及び‘4’アイテムは、‘5’、‘6’、‘7’及び‘8’アイテムの上側方向に表示待機状態のアイテムとして存在する。
従って、制御部160は、表示部132を制御し、アイテム表示割り当て領域の第1境界53及び第2境界54の両方共にライトイメージ55を表示する。ユーザは、図8の[b]のように、アイテム51が配列され、ライトイメージ55がアイテム表示割り当て領域の第1境界53及び第2境界54に表示された形態を見て、‘5’、‘6’、‘7’及び‘8’アイテム51の上側方向及び‘9’、‘10’、‘11’及び‘12’アイテム51の下側方向に表示待機状態であるアイテムが存在することを把握できる。
本発明の第1実施例によれば、表示するべきアイコンを1つの画面に全部表示できず、一部のアイコンを省略して表示しなければならない場合が発生するとき、携帯端末機は、アイテムを表示するように割り当てられた領域の境界部分にライトイメージを表示し、ユーザは、前記ライトイメージの有無を通じて追加的に表示されるべきアイテムの存在有無を把握でき、ライトイメージが表示された位置及び照明光方向を通じて追加的に表示されるべきアイテムがどこに隠されているかを把握でき、隠されたアイテムが表示されるために入力しなければならないタッチ動作を予測できる。
図9は、本発明の第2実施例による携帯端末機100のGUI提供方法を示す流れ図である。本発明の第2実施例は、複数個のアプリケーション実行時に、現在表示されるアプリケーション実行画面で他のアプリケーションを制御するための制御窓を表示するか、又は他のアプリケーション実行画面に画面自体を切り替える機能を提供するためのGUIを提供する実施例に該当する。
601段階で、制御部160は、表示部132を制御し、第1アプリケーション実行画面を表示する。ユーザは、タッチスクリーン部130又はキー入力部140に第1アプリケーション実行命令を入力すれば、制御部160は、表示部132を制御し、第1アプリケーション実行画面を表示する。本発明においてアプリケーションは、格納部150のプログラム領域に格納される応用プログラムであって、通話機能、文字メッセージ機能、動画再生機能、音楽再生機能、放送機能など携帯端末機100で実行可能なすべての機能を包括する用語として使用される。601段階で実行する第1アプリケーションは、携帯端末機100で実行可能なすべての機能のうちいずれか1つに該当する。また、601段階で表示される第1アプリケーション実行画面は、表示部132にフルスクリーン(fullscreen)で表示されることが好ましい。
本発明の実施例によって制御部160は、ユーザの命令によって601段階で複数のアプリケーションをマルチタスキング(multitasking)で実行することができる。
602段階で、制御部160は、タッチスクリーン部130又はキー入力部140を通じてユーザから第2アプリケーション実行命令が入力されるか否かを判断する。ユーザは、いずれか1つ又は複数のアプリケーションを実行させている途中に、他のアプリケーションを追加的に実行させようとする場合があり得る。この際、ユーザは、タッチスクリーン部130及びキー入力部140を通じて第2アプリケーション実行命令を入力する。第1アプリケーション実行画面に他のアプリケーションを実行させるメニューキーが表示されている場合、ユーザは、前記メニューキーにタッチを入力し、第2アプリケーションを実行できる。また、キー入力部140にホームキー(home_key)が設けられている場合、ユーザは、前記ホームキーを押して表示部132の画面をホームスクリーン(home_screen)に復帰させ、ホームスクリーンに表示されたアイコンにタッチを入力し、第2アプリケーションを実行できる。
ユーザからの命令が入力されれば、制御部160は、603段階で、表示部132を制御し、第1アプリケーション実行画面から第2アプリケーション実行画面に切り替えて表示する。この際、第2アプリケーション実行画面は、表示部132にフルスクリーンで表示されることが好ましい。
その後、制御部160は、604段階で、表示部132を制御し、第2アプリケーション実行画面の一方の領域にライト(light)イメージを表示する。本発明においてライトイメージは、第1実施例と同様に、一定方向を照らす照明光形状のイメージに該当する。第2アプリケーション実行画面が複数のアイテムを含み、前記アイテムがライン(line)で区分されている場合、604段階で表示されるライトイメージは、アイテム間のラインを中心にして照明光がいずれか1つのアイテムに向ける形状で表示される。
例えば、第2アプリケーション実行画面が、矩形形態のアイテムが上側から下側方向に配列された形態の文字メッセージアプリケーション実行画面である場合、ライトイメージは、アイテムを区分するラインを中心にして照明光がいずれか1つのアイテムに向ける形状で表示される。また、ライトイメージは、アンテナ受信感度、バッテリー充電状態、視覚情報など携帯端末機100の状態(status)情報を表示する携帯端末機状態表示領域を区分するラインを中心にして照明光が携帯端末機状態表示領域に向ける方向と反対方向に向ける形状で表示できる。
一般的に、携帯端末機状態表示領域は、表示部132の最上端に位置し、矩形形態を有する。前記矩形を構成する4つの辺のうち底辺を除いた3つの辺は、表示部132の境界ラインに該当し、底辺は、ラインイメージで表示される。この際、ライトイメージは、照明光が前記底辺を中心にして下方向に向ける形態で構成される。即ち、ライトイメージは、下方向に光を照らす光源が前記携帯端末機状態表示領域上に位置するものと仮定するときの照明光イメージで表示される。また、ライトイメージは、照明光が表示部132の境界ラインのうちいずれか1つのラインを中心にして表示部132の中心に向ける形態で構成される。
表示部132は、一般的に矩形の形態を有する。この際、ライトイメージは、照明光が矩形を構成する4つの辺のうちいずれか1つの辺を中心にして表示部132の中心に向ける方向に表示される。この際、ライトイメージは、表示部132の外部から表示部132の内部に向ける方向に光を照らす光源が表示部132の外部に位置するものと仮定するときの照明光イメージで表示される。
本発明の実施例によってライトイメージは、表示部132のエッジ領域に表示される。矩形形態の表示部132は、4つのエッジを有するので、ライトイメージは、4つのエッジのうち少なくとも1つのエッジを中心にして表示部132の内部に向ける方向に表示できる。この際、ライトイメージは、表示部132の外部から表示部132の内部に向ける方向に光を照らす光源が位置するものと仮定するときの照明光イメージで表示される。ライトイメージは、第2アプリケーション以外にマルチタスキングで実行中のアプリケーションの個数によって表示個数を変更できる。
例えば、第2アプリケーション以外にマルチタスキングで実行中のアプリケーションが4個である場合、ライトイメージは、表示部132の4つのエッジ領域に表示される。また、第2アプリケーション以外にマルチタスキングで実行中のアプリケーションが5個以上の場合、ライトイメージは、表示部132の4つのエッジ領域以外に表示部132の境界ライン上に表示されることができる。
ライトイメージが表示部132に表示された状態で制御部160は、605段階で、タッチスクリーン部130を通じてライトイメージに一定方向のタッチ動作が入力されるか否かを判断する。ユーザは、表示部132に表示されたライトイメージにタッチを入力した後、一定方向のタッチ動作を入力する。ここで、一定方向は、光を照らす方向に該当することが好ましい。即ち、ライトイメージが下方向に光を照らす形態の場合、ユーザは、ライトイメージにタッチを入力した後、下方向のタッチ位置移動動作を入力し、ライトイメージが右側方向に光を照らす形態の場合、ユーザは、ライトイメージにタッチを入力した後、右側方向のタッチ位置移動動作を入力する。
本発明の実施例によって制御部160は、ユーザによって入力されるタッチ位置移動動作の移動距離が既定の臨界タッチ位置移動距離以上に該当するか否かを判断する。また、制御部160は、ユーザがタッチを入力すれば、タッチ入力維持時間を測定し、測定されたタッチ入力維持時間が既定の臨界タッチ入力維持時間を経過するか否かを判断する。本発明の実施例によって制御部160は、605段階で、タッチスクリーン部130を通じてライトイメージにタッチ後、タッチ位置移動なしにタッチ解除で連結されるタップ(tap)動作が入力されるか否かを判断する。
ユーザからライトイメージに一定方向のタッチ動作が入力されれば、制御部160は、表示部132を制御し、606段階で、第1アプリケーション制御窓を第2アプリケーション実行画面にオーバレイ(overlay)して表示する。本発明の実施例によって第1アプリケーション制御窓は、第1アプリケーションを制御するための機能キーだけを含む形態で構成され、第1アプリケーション以外に他のアプリケーションを行うための機能キーをさらに含むことができる。また、第2アプリケーションが実行される前に、複数のアプリケーションが実行中の場合、制御部160は、実行中のアプリケーションの優先順位を決定し、最優先の順位に設定されたアプリケーションの制御窓を表示する。
例えば、アプリケーション優先順位が通話アプリケーション、動画再生アプリケーション、音楽再生アプリケーションの順に設定されていて、現在前記3個のアプリケーションがすべて実行中の場合、制御部160は、表示部132を制御し、通話アプリケーション制御窓を表示する。また、本発明の実施例によって制御部160は、第2アプリケーション実行前に最後に実行されたアプリケーションを判断し、表示部132を制御し、前記判断されたアプリケーションの制御窓を表示することができる。例えば、ユーザが第2アプリケーション実行前に、通話アプリケーション、動画再生アプリケーション、音楽再生アプリケーションを順次にマルチタスキングで実行した場合、制御部160は、表示部132を制御し、最後に実行された音楽再生アプリケーション制御窓を表示する。この際、第1アプリケーション制御窓は、第2アプリケーション実行画面より小さいサイズで構成されることが好ましい。
第1アプリケーション制御窓は、ライトイメージを中心にしてユーザのタッチ位置移動距離及び移動方向によって徐々にオープンされる形態で表示される。本発明の実施例によって制御部160は、ユーザのタッチ入力を感知すれば、表示部132を制御し、ライトイメージを削除して表示し、タッチ入力後、タッチ位置移動動作を感知すれば、表示部132を制御し、ライトイメージを削除して表示する。また、制御部160は、ユーザのタッチ位置移動動作の移動距離を演算し、第1アプリケーション制御窓がすべてオープンされるためのタッチ位置移動距離に到逹したものと判断すれば、表示部132を制御し、ライトイメージを削除して表示できる。
制御部160は、タッチセンサー部131を通じてユーザによって入力されるタッチ位置移動動作が、第1アプリケーション制御窓が全部オープンされるまで必要な既定の臨界タッチ位置移動距離に到逹するか否かを判断し、到逹する前にタッチ解除が発生したものと判断すれば、表示部132を制御し、一部オープンされた第1アプリケーション制御窓を削除し、ライトイメージを復帰して表示する。また、制御部160は、前記臨界タッチ位置移動距離に到逹したものと判断すれば、表示部132を制御し、全体オープンされた第1アプリケーション制御窓を表示し、その後、タッチ解除を感知しても、前記表示された第1アプリケーション制御窓を継続的に維持する。
また、制御部160は、タッチ入力維持時間が既定の臨界タッチ入力維持時間が経過する前に第1アプリケーション制御窓が全部オープンされるまで必要な既定の臨界タッチ位置移動距離に到逹するか否かを判断し、既定の臨界タッチ位置移動距離に到逹する前に既定の臨界タッチ入力維持時間が経過したものと判断すれば、表示部132を制御し、一部オープンされた第1アプリケーション制御窓を削除し、ライトイメージを復帰して表示する。
本発明の実施例によって制御部160は、606段階で、表示部132を制御し、第2アプリケーション実行画面を第1アプリケーション実行画面に切り替えて表示する。この場合、ユーザがライトイメージにタッチを入力した後、一定方向にタッチ位置移動動作を入力すれば、現在表示されていた第2アプリケーション実行画面は除去され、601段階で表示されていた第1アプリケーション実行画面を復帰表示する。本発明の実施例によって制御部160は、既定の臨界タッチ位置移動距離以上でタッチ位置移動動作が入力されたことを感知するとき、表示部132を制御し、第2アプリケーション実行画面を第1アプリケーション実行画面に切り替えて表示する。例えば、ユーザがライトイメージにタッチを入力した後、照明光方向に表示部132の境界ラインまでタッチ位置移動動作を入力した場合、制御部160は、表示部132を制御し、第2アプリケーション実行画面を第1アプリケーション実行画面に切り替えて表示する。
図10及び図11は、本発明の第2実施例によるGUI提供方法によって表示される携帯端末機100の例示画面である。図10は、ライトイメージが表示部132の横方向に表示される実施例に該当し、図11は、ライトが表示部132の縦方向に表示される実施例に該当する。
図10の[a]は、通話アプリケーション実行画面に該当する。図10の[a]の画面は、‘Endcall’、‘Mute’、‘Speaker’の通話機能キーを含む。ユーザは、通話アプリケーション実行中に文字メッセージアプリケーションを実行しようとする場合、タッチスクリーン部130及びキー入力部140を通じて文字メッセージアプリケーション実行命令を入力し、制御部160は、表示部132を制御し、通話アプリケーション実行画面を文字メッセージアプリケーション実行画面に切り替えて表示する。この際、制御部160は、表示部132を制御し、文字メッセージアプリケーション実行画面上にライトイメージを表示する。図10の[b]は、文字メッセージアプリケーション実行画面に該当する。図10の[b]の上側から下側に列挙された4個のアイテムは、受信メッセージリストに該当し、最上端に位置する携帯端末機状態表示領域と‘AnnaBay’から受信したメッセージアイテムの間の境界ラインにライトイメージ71が表示されている。ライトイメージ71は、前記境界ライン全体にわたって表示されているが、前記境界ラインの一部に表示されてもよい。
文字メッセージアプリケーション実行画面が表示された状態でユーザがライトイメージにタッチを入力した後、下方向にタッチ移動動作を入力すれば、制御部160は、表示部132を制御し、通話アプリケーションを制御する制御窓を文字メッセージアプリケーション実行画面上にオーバレイして表示する。
図10の[c]は、文字メッセージアプリケーション実行画面上に通話アプリケーションの制御窓72がオーバレイされた形態を示す。通話アプリケーション制御窓72には、‘Mute’、‘Speaker’、‘End’のように通話アプリケーションを制御するための機能キーと‘Wi−Fi’、‘Bluetooth(登録商標)’、‘GPS’、‘Sound’など第1アプリケーション以外に携帯端末機100で実行可能な他のアプリケーションを実行する機能キーが含まれている。ユーザは、文字メッセージアプリケーション実行中にもライトイメージの有無を通じて他のアプリケーションが実行中であることを把握でき、ライトイメージの照明光方向に所定のタッチ動作を入力することによって、前記他のアプリケーションを制御する制御窓を開くことができ、制御窓を通じて便利に前記他のアプリケーションを制御できる。
図11は、ライトが表示部132の縦方向に表示される実施例を示す図であって、通話アプリケーション実行画面が表示された状態でユーザが文字メッセージアプリケーション実行命令を入力したものと仮定する。図11の[a]は、文字メッセージアプリケーション実行画面であって、図11の[a]の画面には、受信メッセージリストに該当する4個のアイテムが上側から下側方向に列挙されて表示されていて、ライトイメージは、表示部132の左側境界ラインに表示されている。
ユーザがライトイメージにタッチを入力した後、右側方向にタッチ位置移動動作を入力すれば、制御部160は、表示部132を制御し、通話アプリケーションを制御する制御窓を文字メッセージアプリケーション実行画面上にオーバレイして表示する。図11の[b]は、文字メッセージアプリケーション実行画面上に通話アプリケーションの制御窓72がオーバレイされた形態を示し、通話アプリケーション制御窓72には、‘Mute’、‘Speaker’、‘End’のように通話アプリケーションを制御するための機能キーと‘Wi−Fi’、‘Bluetooth(登録商標)’、‘GPS’、‘Sound’など第1アプリケーション以外に携帯端末機100で実行可能な他のアプリケーションを実行する機能キーが含まれる。
図12及び図13は、本発明の第2実施例によるGUI提供方法によって表示される携帯端末機100の他の例示画面である。図12及び図13は、ライトイメージが表示部132のエッジ領域に表示される実施例に該当し、図12は、現在表示中のアプリケーション以外に実行中のアプリケーションが1個である場合の実施例に該当し、図13は、現在表示中のアプリケーション以外に実行中のアプリケーションが2個である場合の実施例に該当する。
図12の[a]は、音楽再生アプリケーション実行画面に該当する。ユーザは、音楽再生アプリケーション実行中に文字メッセージアプリケーションを実行しようとする場合、タッチスクリーン部130及びキー入力部140を通じて文字メッセージアプリケーション実行命令を入力し、制御部160は、表示部132を制御し、音楽再生アプリケーション実行画面を文字メッセージアプリケーション実行画面に切り替えて表示する。この際、制御部160は、表示部132を制御し、文字メッセージアプリケーション実行画面上にライトイメージを表示する。
図12の[b]は、文字メッセージアプリケーション実行画面に該当する。図12の[b]の画面で上側から下側に列挙された4個のアイテムは、受信メッセージリストに該当し、表示部132の右側上端のエッジ部分にライトイメージ71が表示されている。前記ライトイメージ71には、音楽再生アプリケーションを意味する‘音符’イメージが付加されている。文字メッセージアプリケーション実行画面が表示された状態でユーザがライトイメージにタッチを入力した後、対角線に沿って左側下端方向にタッチ移動動作を入力すれば、制御部160は、表示部132を制御し、文字メッセージアプリケーション実行画面をさらに音楽再生アプリケーション実行画面に切り替えて表示する。
図12の[c]は、文字メッセージアプリケーション実行画面がさらに音楽再生アプリケーション実行画面に切り替えられた形態を示す。ユーザは、文字メッセージアプリケーション実行中にもライトイメージを通じて現在どんなアプリケーションがマルチタスキングで実行中であることを把握でき、ライトイメージの照明光方向に所定のタッチ動作を入力することによって、マルチタスキングで実行中のアプリケーション実行画面に切り替えて表示できる。
図13は、文字メッセージアプリケーション以外に音楽再生アプリケーションと動画再生アプリケーションがマルチタスキングで実行中の場合の文字メッセージアプリケーション実行画面を示す。図13には、表示部132の右側上端のエッジ部分及び左側上端のエッジ部分にそれぞれライトイメージ81、82が表示されている。右側上端のエッジ部分のライトイメージ81には、音楽再生アプリケーションを意味する‘音符’イメージが付加されており、左側上端のエッジ部分のライトイメージ82には、動画再生アプリケーションを意味する‘撮影機構’イメージが付加されている。ユーザが音楽再生アプリケーションに該当するライトイメージ81にタッチを入力し、ライトイメージ81の照明光方向のように対角線に沿って左側下端方向にタッチ位置移動動作を入力する場合、制御部160は、表示部132を制御して音楽再生アプリケーション実行画面を表示し、ユーザが動画再生アプリケーションに該当するライトイメージ82にタッチを入力し、ライトイメージ82の照明光方向のように対角線に沿って右側下端方向にタッチ位置移動動作を入力する場合、制御部160は、表示部132を制御し、動画再生アプリケーション実行画面を表示する。
本発明の実施例によって携帯端末機100で現在実行中のアプリケーションが1個である場合、前記実行中のアプリケーション実行画面上に他のアプリケーションを実行するためのライトイメージが表示される。ライトイメージは、現在実行中のアプリケーション実行画面の一方の領域に表示され、アプリケーション実行画面に含まれたアイテムの間に表示されるか、表示部132の境界ラインに表示されるか、又は表示部132のエッジ領域に表示される。ライトイメージで表示されるアプリケーションは、ユーザが頻繁に使用するアプリケーションに該当するか、及び/又は、ユーザが選択したアプリケーションに該当する。例えば、ライトイメージで表示されるアプリケーションが音楽再生アプリケーション、動画再生アプリケーションとして設定され、携帯端末機が現在通話アプリケーション実行中の場合、制御部160は、表示部132を制御し、音楽再生アプリケーションに該当するライトイメージと動画再生アプリケーションに該当するライトイメージを含む通話アプリケーション実行画面を表示できる。
本発明の実施例によってライトイメージは、表示画面の特性又はアプリケーションの特性によって異なる色相(color)で表示できる。例えば、第1実施例のように、アイテム探索のためのGUI提供方法の場合には、ライトイメージが青色で表示され、第2実施例のように、マルチタスキングで実行中のアプリケーションの制御窓を開くためのGUI提供方法の場合には、ライトイメージが緑色で表示される。本発明の実施例によってライトイメージの色相は、アプリケーションの重要度、緊急性などによって決定できる。例えば、通話アプリケーション、文字メッセージアプリケーション、アラームアプリケーションなどのように緊急性を要求するアプリケーションの場合、前記アプリケーションの制御窓を開くためのライトイメージは、赤色で表示される。
一方、本明細書と図面に開示された本発明の実施例は、本発明の技術内容を容易に説明し、本発明の理解を助けるために特定例を提示したものに過ぎず、本発明の範囲を限定しようとするものではない。ここに開示された実施例以外にも本発明の技術的思想に基づく他の変形例が実施可能であることは、本発明の属する技術分野における通常の知識を有する者に自明である。
100 携帯端末機
31、51 アイテム
110 無線通信部
32、52 アイテム表示割り当て領域
120 オーディオ処理部
33、53 アイテム表示割り当て領域の第1境界
130 タッチスクリーン部
34、54 アイテム表示割り当て領域の第2境界
131 タッチセンサー部
35、55、71、81、82 ライトイメージ
132 表示部
72 アプリケーション制御窓
140 キー入力部
150 格納部
160 制御部

Claims (19)

  1. 携帯端末機のGUI提供方法において、
    アイテム表示割り当て領域に配列された少なくとも1つのアイテム以外に表示可能アイテムが存在するか否かを判断する判断段階と、
    前記表示可能アイテムが存在する場合、前記表示可能アイテムが生成されるアイテム表示割り当て領域の境界部分に一定形態のイメージ客体(object)を表示する表示段階と、を含むことを特徴とするGUI提供方法。
  2. 前記判断段階は、
    少なくとも1つのアイテムがアイテム表示割り当て領域に配列された状態で前記アイテムが配列された方向又は前記アイテムが配列された方向の反対方向にアイテム移動が可能であるか否かを判断する段階であることを特徴とする請求項1に記載のGUI提供方法。
  3. 前記表示段階は、
    前記アイテムが配列された方向にアイテム移動が可能な場合、前記アイテムの配列が始まる側のアイテム表示割り当て領域の境界部分に前記一定形態のイメージ客体を表示するか、又は前記アイテムが配列された方向の反対方向にアイテム移動が可能な場合、前記アイテムの配列が終わる側のアイテム表示割り当て領域の境界部分に前記一定形態のイメージ客体を表示する段階であることを特徴とする請求項2に記載のGUI提供方法。
  4. 配列順序があらかじめ設定された複数のアイテムのうち一部のアイテム列を前記アイテム表示割り当て領域に一定方向に配列して表示する段階をさらに含むことを特徴とする請求項1に記載のGUI提供方法。
  5. 前記判断段階は、
    前記アイテム表示割り当て領域に先頭順位に表示されたアイテムが前記複数のアイテムのうち最高優先順位のアイテムではないかを判断するか、前記アイテム表示割り当て領域に最後尾の順位に表示されたアイテムが前記複数のアイテムのうち最低優先順位のアイテムではないかを判断する段階であることを特徴とする請求項4に記載のGUI提供方法。
  6. 前記イメージ客体は或る一定の方向を照らす照明光形状のイメージ(以下、ライト(light)イメージという)を備え、
    前記照明光は、前記表示可能アイテムが生成される方向を照らす形態で表示されることを特徴とする請求項1に記載のGUI提供方法。
  7. タッチ位置移動動作の入力を感知する段階と、
    前記感知されたタッチ位置移動動作によってアイテムを移動させて表示する段階と、
    アイテムが移動した位置で、表示可能アイテムが存在するか否かを判断する段階と、
    前記表示可能アイテムが存在する場合、前記表示可能アイテムが生成されるアイテム表示割り当て領域の境界部分に一定形態のイメージ客体を表示する段階と、をさらに含むことを特徴とする請求項1に記載のGUI提供方法。
  8. 前記一定形態のイメージ客体を表示する時間を測定する段階と、
    前記測定された時間が既定の(或る一定の、preset)臨界時間を経過するものと判断すれば、前記一定形態のイメージ客体を削除して表示する段階と、をさらに含むことを特徴とする請求項1に記載のGUI提供方法。
  9. 携帯端末機のGUI提供方法において、
    第1アプリケーションを含む少なくとも1つのアプリケーション実行中に、ユーザから第2アプリケーション実行命令を入力される段階と、
    第2アプリケーション実行画面の特定領域に一定形態のイメージ客体を表示する段階と、
    前記イメージ客体上に入力されるタッチ動作を感知する段階と、
    前記感知されたタッチ動作によって前記第1アプリケーションの関連画面を表示する段階と、を含むことを特徴とするGUI提供方法。
  10. 前記第1アプリケーションの関連画面は、
    前記第2アプリケーション実行画面の一部にオーバレイ(overlay)されることを特徴とする請求項9に記載のGUI提供方法。
  11. 前記イメージ客体を表示する段階は、
    前記第2アプリケーション実行画面が複数のアイテムを含み、前記アイテムがライン(line)により区分されるように構成される場合、前記アイテム間のライン上に前記イメージ客体を表示することを特徴とする請求項9に記載のGUI提供方法。
  12. 前記イメージ客体を表示する段階は、
    携帯端末機の全体表示画面が矩形形態で構成される場合、前記全体表示画面の4つのエッジ領域のうち少なくとも1つのエッジ領域に前記イメージ客体を表示することを特徴とする請求項9に記載のGUI提供方法。
  13. 前記イメージ客体は、照明光形状のイメージに該当し、
    前記タッチ動作を感知する段階は、
    前記照明光形状のイメージへのタッチ入力後、前記照明光形状のイメージの照明光へのタッチ位置移動動作を感知することを特徴とする請求項9に記載のGUI提供方法。
  14. 前記第1アプリケーション関連画面を表示する段階は、
    前記タッチ位置移動動作の移動距離によって前記第1アプリケーションを制御する制御窓を生成し、前記第2アプリケーション実行画面上にオーバレイ(overlay)して表示することを特徴とする請求項13に記載のGUI提供方法。
  15. 前記第1アプリケーション関連画面を表示する段階は、
    前記第2アプリケーション実行画面を前記第1アプリケーション実行画面に切り替えて表示することを特徴とする請求項9に記載のGUI提供方法。
  16. 前記第1アプリケーション関連画面を表示する段階は、
    第1アプリケーションを含む複数のアプリケーションが実行中である場合、前記実行中のアプリケーションのうち最優先の順位に設定されたアプリケーションの関連画面を表示するか、又は第1アプリケーションを含む複数のアプリケーションが実行中である場合、前記実行中のアプリケーションのうち直近に実行された(last_executed)アプリケーションの関連画面を表示することを特徴とする請求項9に記載のGUI提供方法。
  17. 画面を出力する表示部と、
    前記表示部を制御し、少なくとも1つのアイテムをアイテム表示割り当て領域に配列して表示し、前記少なくとも1つのアイテム以外に表示可能アイテムが存在するか否かを判断し、前記表示可能アイテムが存在する場合、前記表示部を制御し、前記表示可能アイテムが生成されるアイテム表示割り当て領域の境界部分に一定形態のイメージ客体を表示する制御部と、を含むことを特徴とする携帯端末機。
  18. ユーザのタッチ動作を認識するタッチセンサー部をさらに含み、
    前記制御部は、
    第1アプリケーションを含む少なくとも1つのアプリケーションを実行し、前記タッチセンサー部を通じてユーザから第2アプリケーション実行命令を入力されれば、前記表示部を制御し、第2アプリケーション実行画面の一方の領域に一定形態のグラフィック客体を表示し、前記タッチセンサー部を制御し、前記グラフィック客体上に入力されるタッチ動作を感知し、前記表示部を制御し、前記感知されたタッチ動作によって第1アプリケーション制御窓を前記第2アプリケーション実行画面にオーバレイ(overlay)して表示することを特徴とする請求項17に記載の携帯端末機。
  19. ユーザのタッチ動作を認識するタッチセンサー部をさらに含み、
    前記制御部は、
    第1アプリケーションを含む少なくとも1つのアプリケーションを実行し、前記タッチセンサー部を通じてユーザから第2アプリケーション実行命令を入力されれば、前記表示部を制御し、第2アプリケーション実行画面の一方の領域に一定形態のイメージ客体を表示し、前記タッチセンサー部を制御し、前記イメージ客体上に入力されるタッチ動作を感知し、前記表示部を制御し、前記感知されたタッチ動作によって前記第2アプリケーション実行画面を第1アプリケーション実行画面に切り替えて表示することを特徴とする請求項17に記載の携帯端末機。
JP2013506070A 2010-04-22 2011-04-18 携帯端末機のgui提供方法及び装置 Active JP5976632B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020100037511A KR101680113B1 (ko) 2010-04-22 2010-04-22 휴대 단말기의 gui 제공 방법 및 장치
KR10-2010-0037511 2010-04-22
PCT/KR2011/002732 WO2011132892A2 (en) 2010-04-22 2011-04-18 Method for providing graphical user interface and mobile device adapted thereto

Publications (2)

Publication Number Publication Date
JP2013525900A true JP2013525900A (ja) 2013-06-20
JP5976632B2 JP5976632B2 (ja) 2016-08-24

Family

ID=44816856

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013506070A Active JP5976632B2 (ja) 2010-04-22 2011-04-18 携帯端末機のgui提供方法及び装置

Country Status (11)

Country Link
US (1) US20110265040A1 (ja)
EP (1) EP2561429A4 (ja)
JP (1) JP5976632B2 (ja)
KR (1) KR101680113B1 (ja)
CN (1) CN102859479A (ja)
AU (1) AU2011243470B2 (ja)
BR (1) BR112012028357A2 (ja)
CA (1) CA2797086A1 (ja)
MY (1) MY162632A (ja)
RU (1) RU2597525C2 (ja)
WO (1) WO2011132892A2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018518766A (ja) * 2015-09-29 2018-07-12 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 情報処理方法、端末、およびコンピュータ記憶媒体

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104321736B (zh) 2012-05-21 2018-11-13 三星电子株式会社 用于通过使用触摸屏来控制用户界面的方法和装置
CN106528015B (zh) 2012-08-13 2019-11-19 华为终端有限公司 一种实现组件内容显示的方法和装置
US9032335B2 (en) * 2012-08-14 2015-05-12 Christopher V. Beckman User interface techniques reducing the impact of movements
JP6004868B2 (ja) * 2012-09-27 2016-10-12 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US9380149B2 (en) * 2012-10-22 2016-06-28 Nec Corporation Portable terminal device, information presentation method, and program
JP6055277B2 (ja) * 2012-11-06 2016-12-27 川崎重工業株式会社 乗物用メータ表示装置
CN103135890B (zh) * 2012-12-27 2016-03-30 深圳天珑无线科技有限公司 触摸屏上图像的显示方法和终端
KR102087395B1 (ko) * 2013-01-16 2020-03-10 삼성전자주식회사 전자 장치에서 응용프로그램을 실행하기 위한 장치 및 방법
WO2014165976A1 (en) * 2013-04-10 2014-10-16 Berryman Jeremy Multitasking and screen sharing on portable computing devices
US9442627B2 (en) 2013-06-24 2016-09-13 Evernote Corporation Expandable two-dimensional flow for container hierarchy
KR102220085B1 (ko) 2013-10-18 2021-02-26 삼성전자주식회사 멀티윈도우 운용 방법 및 이를 지원하는 전자 장치
EP3097473A4 (en) * 2014-01-20 2017-09-13 Samsung Electronics Co., Ltd. User interface for touch devices
US20150278353A1 (en) * 2014-03-31 2015-10-01 Linkedln Corporation Methods and systems for surfacing content items based on impression discounting
DE102014207699B4 (de) * 2014-04-24 2023-10-19 Siemens Healthcare Gmbh Verfahren zur Bildüberwachung eines Eingriffs mit einer Magnetresonanzeinrichtung, Magnetresonanzeinrichtung und Computerprogramm
USD872119S1 (en) 2014-06-01 2020-01-07 Apple Inc. Display screen or portion thereof with animated graphical user interface
USD771646S1 (en) 2014-09-30 2016-11-15 Apple Inc. Display screen or portion thereof with graphical user interface
KR102295844B1 (ko) * 2014-11-18 2021-08-31 삼성전자 주식회사 전자장치에서 화면의 표시를 제어하는 장치 및 방법
KR102325340B1 (ko) * 2015-07-02 2021-11-11 삼성전자주식회사 방송신호 수신장치가 어플리케이션을 실행하는 방법 및 그 방송신호 수신장치
USD808410S1 (en) * 2016-06-03 2018-01-23 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
USD829223S1 (en) 2017-06-04 2018-09-25 Apple Inc. Display screen or portion thereof with graphical user interface
USD957448S1 (en) 2017-09-10 2022-07-12 Apple Inc. Electronic device with graphical user interface
KR102031104B1 (ko) * 2017-12-08 2019-10-14 네이버 주식회사 웹 브라우저 표시 장치 및 웹 브라우저 표시 방법
JP7430034B2 (ja) * 2019-04-26 2024-02-09 シャープ株式会社 画像形成装置、画像形成方法及びプログラム
US20210386385A1 (en) * 2020-06-10 2021-12-16 Mette Dyhrberg Managing dynamic health data and in-body experiments for digital therapeutics
CN111857505B (zh) * 2020-07-16 2022-07-05 Oppo广东移动通信有限公司 一种显示方法、装置及存储介质

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000311042A (ja) * 1999-04-28 2000-11-07 Kenwood Corp 指示メニュー表示装置
US20020109678A1 (en) * 2000-12-27 2002-08-15 Hans Marmolin Display generating device
US20030160815A1 (en) * 2002-02-28 2003-08-28 Muschetto James Edward Method and apparatus for accessing information, computer programs and electronic communications across multiple computing devices using a graphical user interface
JP2003330586A (ja) * 2002-05-13 2003-11-21 Mobile Computing Technologies:Kk 表示制御装置、携帯型情報端末装置、表示制御情報、及び表示制御方法
JP2006085210A (ja) * 2004-09-14 2006-03-30 Sharp Corp コンテンツ表示制御装置、コンテンツ表示装置、方法、プログラム、及び記録媒体
US20080270936A1 (en) * 2007-04-30 2008-10-30 Cyrille De Bebrisson Electronic device display adjustment interface
US20080313540A1 (en) * 2007-06-18 2008-12-18 Anna Dirks System and method for event-based rendering of visual effects
US20090013275A1 (en) * 2007-07-05 2009-01-08 Darrell May System and method for quick view of application data on a home screen interface triggered by a scroll/focus action
US20090070711A1 (en) * 2007-09-04 2009-03-12 Lg Electronics Inc. Scrolling method of mobile terminal
US20090094562A1 (en) * 2007-10-04 2009-04-09 Lg Electronics Inc. Menu display method for a mobile communication terminal
US20090293007A1 (en) * 2008-05-23 2009-11-26 Palm, Inc. Navigating among activities in a computing device

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6008803A (en) * 1994-11-29 1999-12-28 Microsoft Corporation System for displaying programming information
FI20001506A (fi) * 1999-10-12 2001-04-13 J P Metsaevainio Design Oy Kädessäpidettävän laitteen toimintamenetelmä
KR100354780B1 (ko) * 2000-10-06 2002-10-05 엘지전자주식회사 이동통신 단말기의 메뉴 구현 방법
US6753892B2 (en) * 2000-11-29 2004-06-22 International Business Machines Corporation Method and data processing system for presenting items in a menu
US7017119B1 (en) * 2001-03-15 2006-03-21 Vaultus Mobile Technologies, Inc. System and method for display notification in a tabbed window setting
US7281215B1 (en) * 2002-04-30 2007-10-09 Aol Llc IM conversation counter and indicator
US7051284B2 (en) * 2002-05-16 2006-05-23 Microsoft Corporation Displaying information to indicate both the importance and the urgency of the information
US7036092B2 (en) * 2002-05-23 2006-04-25 Microsoft Corporation Categorical user interface for navigation within a grid
US7656393B2 (en) 2005-03-04 2010-02-02 Apple Inc. Electronic device having display and surrounding touch sensitive bezel for user interface and control
US6990637B2 (en) * 2003-10-23 2006-01-24 Microsoft Corporation Graphical user interface for 3-dimensional view of a data collection based on an attribute of the data
US20050114791A1 (en) * 2003-11-20 2005-05-26 International Business Machines Corporation Cueing mechanism that indicates a display is able to be scrolled
WO2006098021A1 (ja) * 2005-03-16 2006-09-21 Fujitsu Limited 情報処理システム
US20060227129A1 (en) * 2005-03-30 2006-10-12 Cheng Peng Mobile communication terminal and method
US20070050732A1 (en) * 2005-08-31 2007-03-01 Ranco Incorporated Of Delaware Proportional scroll bar for menu driven thermostat
US7958456B2 (en) * 2005-12-23 2011-06-07 Apple Inc. Scrolling list with floating adjacent index symbols
KR20070113022A (ko) * 2006-05-24 2007-11-28 엘지전자 주식회사 사용자 입력에 반응하는 터치스크린 장치 및 이의 작동방법
US8570278B2 (en) * 2006-10-26 2013-10-29 Apple Inc. Portable multifunction device, method, and graphical user interface for adjusting an insertion point marker
US20080163065A1 (en) * 2006-12-29 2008-07-03 Nokia Corporation Using a light source to indicate navigation spots on a web page
US20080165148A1 (en) * 2007-01-07 2008-07-10 Richard Williamson Portable Electronic Device, Method, and Graphical User Interface for Displaying Inline Multimedia Content
KR100894146B1 (ko) * 2007-02-03 2009-04-22 엘지전자 주식회사 이동통신 단말기 및 그 동작 제어방법
US8065603B2 (en) * 2007-04-30 2011-11-22 Google Inc. Hiding portions of display content
US7823076B2 (en) * 2007-07-13 2010-10-26 Adobe Systems Incorporated Simplified user interface navigation
KR100873679B1 (ko) * 2007-09-04 2008-12-12 엘지전자 주식회사 휴대단말기의 스크롤링 방법
KR101386473B1 (ko) * 2007-10-04 2014-04-18 엘지전자 주식회사 휴대 단말기 및 그 메뉴 표시 방법
JP5531616B2 (ja) * 2007-12-07 2014-06-25 ソニー株式会社 制御装置、入力装置、制御システム、制御方法及びハンドヘルド装置
US9154606B2 (en) * 2008-01-30 2015-10-06 Google Inc. Notification of mobile device events
KR20090111764A (ko) * 2008-04-22 2009-10-27 에이치티씨 코퍼레이션 그래픽 메뉴바 작동 방법 및 장치 그리고 이를 사용하는 기록 장치
KR101461954B1 (ko) * 2008-05-08 2014-11-14 엘지전자 주식회사 단말기 및 그 제어 방법
US8150804B2 (en) * 2008-07-18 2012-04-03 Yang Pan Hierarchical categorization of media assets and user interface for media player
US8201100B2 (en) * 2008-09-04 2012-06-12 VIZIO Inc. Metadata driven control of navigational speed through a user interface
KR101504210B1 (ko) * 2008-10-17 2015-03-19 엘지전자 주식회사 단말기 및 그 제어 방법
US20100138765A1 (en) * 2008-11-30 2010-06-03 Nokia Corporation Indicator Pop-Up
KR20110011002A (ko) * 2009-07-27 2011-02-08 삼성전자주식회사 웹 브라우징 방법 및 장치
US20110209098A1 (en) * 2010-02-19 2011-08-25 Hinckley Kenneth P On and Off-Screen Gesture Combinations

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000311042A (ja) * 1999-04-28 2000-11-07 Kenwood Corp 指示メニュー表示装置
US20020109678A1 (en) * 2000-12-27 2002-08-15 Hans Marmolin Display generating device
US20030160815A1 (en) * 2002-02-28 2003-08-28 Muschetto James Edward Method and apparatus for accessing information, computer programs and electronic communications across multiple computing devices using a graphical user interface
JP2003330586A (ja) * 2002-05-13 2003-11-21 Mobile Computing Technologies:Kk 表示制御装置、携帯型情報端末装置、表示制御情報、及び表示制御方法
JP2006085210A (ja) * 2004-09-14 2006-03-30 Sharp Corp コンテンツ表示制御装置、コンテンツ表示装置、方法、プログラム、及び記録媒体
US20080270936A1 (en) * 2007-04-30 2008-10-30 Cyrille De Bebrisson Electronic device display adjustment interface
US20080313540A1 (en) * 2007-06-18 2008-12-18 Anna Dirks System and method for event-based rendering of visual effects
US20090013275A1 (en) * 2007-07-05 2009-01-08 Darrell May System and method for quick view of application data on a home screen interface triggered by a scroll/focus action
US20090070711A1 (en) * 2007-09-04 2009-03-12 Lg Electronics Inc. Scrolling method of mobile terminal
US20090094562A1 (en) * 2007-10-04 2009-04-09 Lg Electronics Inc. Menu display method for a mobile communication terminal
US20090293007A1 (en) * 2008-05-23 2009-11-26 Palm, Inc. Navigating among activities in a computing device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018518766A (ja) * 2015-09-29 2018-07-12 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 情報処理方法、端末、およびコンピュータ記憶媒体

Also Published As

Publication number Publication date
CN102859479A (zh) 2013-01-02
US20110265040A1 (en) 2011-10-27
EP2561429A2 (en) 2013-02-27
MY162632A (en) 2017-06-30
AU2011243470A1 (en) 2012-11-01
RU2597525C2 (ru) 2016-09-10
KR101680113B1 (ko) 2016-11-29
KR20110117979A (ko) 2011-10-28
RU2012144627A (ru) 2014-04-27
AU2011243470B2 (en) 2015-08-13
EP2561429A4 (en) 2016-09-28
CA2797086A1 (en) 2011-10-27
WO2011132892A2 (en) 2011-10-27
BR112012028357A2 (pt) 2019-04-02
WO2011132892A3 (en) 2012-01-26
JP5976632B2 (ja) 2016-08-24

Similar Documents

Publication Publication Date Title
JP5976632B2 (ja) 携帯端末機のgui提供方法及び装置
KR101924835B1 (ko) 터치 디바이스의 기능 운용 방법 및 장치
KR101640464B1 (ko) 터치스크린 기반의 ui 제공방법 및 이를 이용한 휴대 단말기
KR101662726B1 (ko) 전자 기기의 스크롤 방법 및 장치
KR101841590B1 (ko) 멀티태스킹 인터페이스 제공 방법 및 장치
KR20130068250A (ko) 그립 센서를 이용한 사용자 기반의 휴대용 단말기의 장치 및 방법
US20050140657A1 (en) Mobile communication terminal with multi-input device and method of using the same
EP3825828A1 (en) Method and device for display at interface of multimedia information application, ue, computer program, and medium
EP3388961A1 (en) A method and a touch-sensitive device for performing a search
KR20120040358A (ko) 휴대 단말기의 화면 제어 방법 및 장치
KR20120040898A (ko) 휴대 단말기의 화면 표시 방법 및 장치
KR20130039586A (ko) 터치 디바이스의 잠금 기능 제공 방법 및 장치
KR20110092826A (ko) 복수의 터치스크린을 구비하는 휴대 단말기의 화면 제어 방법 및 장치
KR20140142546A (ko) 전자 기기 및 그의 애플리케이션 제어 방법
KR20110107143A (ko) 멀티 입력을 이용한 휴대단말의 기능 제어 방법 및 장치
JP6002688B2 (ja) 携帯端末機のgui提供方法及び装置
US20140089829A1 (en) System supporting manual user interface based control of an electronic device
KR20150003446A (ko) 단말기 및 그의 상태 알림 정보 표시 방법
KR20120019531A (ko) 휴대 단말기의 gui제공 방법 및 장치
KR20100134948A (ko) 터치스크린을 구비하는 장치의 메뉴 표시 방법
KR20120064756A (ko) 터치스크린을 구비한 휴대 단말기의 화면 표시 방법 및 장치
KR20110131909A (ko) 터치 단말에서 터치 인터페이스 불량 시 입력 기능 지원 방법 및 장치
KR101530546B1 (ko) 휴대 단말기의 입력 장치 및 방법
US9575582B2 (en) Method and apparatus for processing touch input in mobile terminal
KR20130063190A (ko) 터치스크린을 구비한 휴대 단말기의 작업 관리 화면 표시 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140417

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150407

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20150707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150721

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160506

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160607

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20160613

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160628

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160720

R150 Certificate of patent or registration of utility model

Ref document number: 5976632

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250