JP6367231B2 - イメージ表示方法及び携帯端末 - Google Patents

イメージ表示方法及び携帯端末 Download PDF

Info

Publication number
JP6367231B2
JP6367231B2 JP2015551599A JP2015551599A JP6367231B2 JP 6367231 B2 JP6367231 B2 JP 6367231B2 JP 2015551599 A JP2015551599 A JP 2015551599A JP 2015551599 A JP2015551599 A JP 2015551599A JP 6367231 B2 JP6367231 B2 JP 6367231B2
Authority
JP
Japan
Prior art keywords
window
displayed
touch screen
image
keyboard
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015551599A
Other languages
English (en)
Other versions
JP2016507822A5 (ja
JP2016507822A (ja
Inventor
テグン・パク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2016507822A publication Critical patent/JP2016507822A/ja
Publication of JP2016507822A5 publication Critical patent/JP2016507822A5/ja
Application granted granted Critical
Publication of JP6367231B2 publication Critical patent/JP6367231B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/20Linear translation of whole images or parts thereof, e.g. panning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/40Circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/045Zooming at least part of an image, i.e. enlarging it or shrinking it
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed
    • G09G2340/145Solving problems related to the presentation of information to be displayed related to small screens

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Input From Keyboards Or The Like (AREA)
  • Digital Computer Display Output (AREA)

Description

本発明は、イメージ表示方法及び携帯端末に関し、特に、特定イメージを常に画面の最上層に表示するようにした方法及びこれを具現する携帯端末に関する。
携帯端末のハードウェア仕様が高くなり、マルチメディア技術が発展するに伴い、携帯端末は、動画を常に最上層に表示する機能を提供することができるようになった。すなわちどんなイメージよりも動画が最上部に位置する。このような機能は、一名、ポップアップ機能と言う。ユーザは、動画を見ながら、他の作業、例えば、インターネットや文字送りなどを行うことができる。
しかし、従来、ポップアップ機能によれば、動画の位置が固定されていて、他の作業に邪魔になる場合が発生した。例えば、動画が画面の下端に位置している状態で、キーパッドの表示を要請するイベントが発生することができる。イベントに応答して、携帯端末は、キーパッドを表示する。この際、キーパッドは、一般的に画面の下端に表示される。したがって、ユーザは、動画の位置を変更した後、キーパッドを使用しなければならないという不便さがある。
したがって、ユーザが動画を視聴しながら、作業(task)を行うことができるようにする画面の最上層に特定イメージを表示するための方法及び携帯端末の要求(need)が存在する。
本発明は、特定イメージを常に最上層に表示するようにする方法及びこれを具現する携帯端末を提供することを目的とする。特に本発明は、ユーザにとって動画を見ながら、不便なしに他の作業を行うことができるようにする方法及びこれを具現する携帯端末を提供することを目的とする。
本発明の一実施形態によるイメージ表示方法は、動画(moving images)を画面(screen)の第1領域に表示する段階と;前記画面の第2領域で機能を行うようにしたイベントが受信された場合、前記イベントと関連した特定イメージを表示する第2領域を決定する段階と;前記第2領域が前記第1領域と重なるか否かを確認する段階と;前記第2領域が前記第1領域と重なる場合、前記第2領域と重ならない第3領域を決定する段階と;前記特定イメージを前記第2領域に表示し、同時に前記動画を前記第3領域に表示する段階と;を含むことができる。
本発明の他の実施形態によるイメージ表示方法は、動画を画面の第1領域に表示する段階と;前記画面の第2領域で機能を行うようにしたイベントが受信された場合、前記イベントと関連した特定イメージを表示する第2領域を決定する段階と;前記第2領域が前記第1領域と重なるか否かを確認する段階と;前記第2領域が前記第1領域と重なる場合、前記第1領域と重ならない第3領域を決定する段階と;前記特定イメージを前記第3領域に表示する段階と;を含むことができる。
本発明のさらに他の実施形態によるイメージ表示方法は、動画を画面の第1領域に表示する段階と;前記画面の第2領域で機能を行うようにした第1イベントが受信された場合、前記第1イベントと関連した特定イメージを表示する第2領域を決定する段階と;前記第2領域が前記第1領域と重なるか否かを確認する段階と;前記第2領域が前記第1領域と重なる場合、前記特定イメージを第2領域に表示し、前記動画で前記イメージと重なる部分を半透明に表示する段階と;前記動画の位置変更を要請する第2イベントが受信された場合、前記動画を前記第2領域と重ならない第3領域に表示する段階と;を含むことができる。
本発明のさらに他の実施形態によるイメージ表示方法は、動画を画面の第1領域に表示する段階と;前記画面の第2領域で機能を行うようにしたイベントが受信された場合、前記イベントと関連した特定イメージを表示する第2領域を決定する段階と;前記第2領域が前記第1領域と重なるか否かを確認する段階と;前記第2領域が前記第1領域と重なる場合、前記動画の位置を変更するためのガイドシンボルを表示する段階と;前記ガイドシンボルから1つの選択を検出する段階と;前記特定イメージを前記第2領域に表示し、同時に前記動画を前記選択されたガイドシンボルに該当する第3領域に表示する段階と;を含むことができる。
本発明のさらに他の実施形態によるイメージ表示方法は、第1イメージを画面の第1領域に表示する段階と;前記画面の第2領域で機能を行うようにしたイベントが受信された場合、前記イベントと関連した第2イメージを表示する第2領域を決定する段階と;前記第2領域が前記第1領域と重なるか否かを確認する段階と;前記第2領域が前記第1領域と重なる場合、前記第2領域と重ならない第3領域を決定する段階と;前記第2イメージを前記第2領域に表示し、前記第1イメージを前記第3領域に表示する段階と;を含むことができる。
本発明の一実施形態による携帯端末は、動画を画面の第1領域に表示するように構成される表示部と;前記画面の第2領域で機能を行うようにしたイベントを受信するように構成される受信部と;前記受信部からイベントを受信し、前記イベントに応答して前記動画の表示を制御する制御部と;を含み、前記制御部は、前記イベントと関連した特定イメージを表示する第2領域を決定し、前記第2領域が前記第1領域と重なるか否かを確認し、前記第2領域が前記第1領域と重なる場合、前記第2領域と重ならない第3領域を決定し、前記特定イメージを前記第2領域に表示し、前記動画を前記第3領域に表示するように制御することができる。
本発明の他の実施形態による携帯端末は、動画を画面の第1領域に表示する表示部と;タッチパネル、キー入力部、マイクロホン及び無線通信部のうち少なくとも1つ(それぞれイベントを受信するように構成される)と;前記タッチパネル、前記キー入力部、前記マイクロホン及び前記無線通信部のうち少なくとも1つから前記イベントを受信し、前記イベントに応答して前記動画の表示を制御する制御部と;を含み、前記制御部は、前記イベントと関連した特定イメージを表示する第2領域を決定し、前記第2領域が前記第1領域と重なるか否かを確認し、前記第2領域が前記第1領域と重なる場合、前記第1領域と重ならない第3領域を決定し、前記特定イメージを前記第3領域に表示するように制御することができる。
本発明のさらに他の実施形態による携帯端末は、動画を画面の第1領域に表示する表示部と;タッチパネル、キー入力部、マイクロホン及び無線通信部のうち少なくとも1つ(それぞれ第1イベントと第2イベントを受信するように構成される)と;前記タッチパネル、前記キー入力部、前記マイクロホン及び前記無線通信部のうち少なくとも1つからイベントを受信し、前記第1イベント及び前記第2イベントに応答して前記動画の表示を制御する制御部と;を含み、前記制御部は、前記第1イベントと関連した特定イメージを表示する第2領域を決定し、前記第2領域が前記第1領域と重なるか否かを確認し、前記第2領域が前記第1領域と重なる場合、前記特定イメージを第2領域に表示し、前記動画で前記特定イメージと重なる部分を半透明に表示するように制御し、前記第2イベントに応答して前記動画を前記第2領域と重ならない第3領域に表示するように制御することができる。
本発明のさらに他の実施形態による携帯端末は、動画を画面の第1領域に表示する表示部と;タッチパネル、キー入力部、マイクロホン及び無線通信部のうち少なくとも1つ(それぞれイベントを受信するように構成される)と;前記タッチパネル、前記キー入力部、前記マイクロホン及び前記無線通信部のうち少なくとも1つから前記イベントを受信し、前記イベントに応答して前記動画の表示を制御する制御部と;を含み、前記制御部は、前記イベントと関連した特定イメージを表示する第2領域を決定し、前記第2領域が前記第1領域と重なるか否かを確認し、前記第2領域が前記第1領域と重なる場合、前記動画の位置を変更するためのガイドシンボルを表示し、前記ガイドシンボルから1つの選択を検出し、前記特定イメージを前記第2領域に表示し、前記動画を前記選択されたガイドシンボルに該当する第3領域に表示するように制御することができる。
本発明のさらに他の実施形態による携帯端末は、第1イメージ及び第2イメージを表示する表示部と;タッチパネル、キー入力部、マイクロホン及び無線通信部のうち少なくとも1つ(それぞれイベントを受信するように構成される)と;前記タッチパネル、前記キー入力部、前記マイクロホン及び前記無線通信部のうち少なくとも1つから前記イベントを受信し、前記イベントに応答して前記第1イメージ及び前記第2イメージの表示を制御する制御部と;を含み、前記制御部は、前記第1イメージを表示する画面の第1領域を決定し、前記第1領域に前記第1イメージを表示するように制御し、前記第1イメージの表示中に前記イベントが発生した場合、前記第2イメージを表示する画面の第2領域を決定し、前記第2領域が前記第1領域と重なるか否かを確認し、前記第2領域が前記第1領域と重なる場合、前記第2領域と重ならない第3領域を決定し、前記第2イメージを前記第2領域に表示し、前記第1イメージを前記第3領域に表示するように制御することができる。
以上、本発明によるイメージ表示方法及び携帯端末は、ユーザにとって動画を見ながら不便なしに他の作業を行うことができるようにする。
図1は、本発明の一実施形態による携帯端末のブロック構成図である。 図2は、本発明の一実施形態によるイメージ表示方法を説明するための流れ図である。 図3aは、本発明の一実施形態によるイメージ表示方法を説明するための図である。 図3bは、本発明の一実施形態によるイメージ表示方法を説明するための図である。 図3cは、本発明の一実施形態によるイメージ表示方法を説明するための図である。 図3dは、本発明の一実施形態によるイメージ表示方法を説明するための図である。 図4aは、本発明の一実施形態によるイメージ表示方法を説明するための図である。 図4bは、本発明の一実施形態によるイメージ表示方法を説明するための図である。 図5は、本発明の他の実施形態によるイメージ表示方法を説明するための流れ図である。 図6は、本発明の他の実施形態によるイメージ表示方法を説明するための図である。 図7は、本発明のさらに他の実施形態によるイメージ表示方法を説明するための流れ図である。 図8aは、本発明のさらに他の実施形態によるイメージ表示方法を説明するための図である。 図8bは、本発明のさらに他の実施形態によるイメージ表示方法を説明するための図である。 図8cは、本発明のさらに他の実施形態によるイメージ表示方法を説明するための図である。 図9は、本発明のさらに他の実施形態によるイメージ表示方法を説明するための流れ図である。 図10aは、本発明のさらに他の実施形態によるイメージ表示方法を説明するための図である。 図10bは、本発明のさらに他の実施形態によるイメージ表示方法を説明するための図である。 図10cは、本発明のさらに他の実施形態によるイメージ表示方法を説明するための図である。 図11は、本発明のさらに他の実施形態によるイメージ表示方法を説明するための流れ図である。 図12aは、本発明のさらに他の実施形態によるイメージ表示方法を説明するための図である。 図12bは、本発明のさらに他の実施形態によるイメージ表示方法を説明するための図である。 図12cは、本発明のさらに他の実施形態によるイメージ表示方法を説明するための図である。 図13aは、ランドスケープモードでイメージ表示方法を説明するための図である。 図13bは、ランドスケープモードでイメージ表示方法を説明するための図である。
本発明において携帯端末は、スマートフォン、タブレットパソコン、ノートパソコンなどのような携帯可能な電子機器である。以下、本発明による携帯端末のイメージ表示方法について詳しく説明する。本発明の詳細な説明に先立って、以下で使用される用語や単語は、通常的または辞書的な意味に限定して解釈してはならないし、本発明の技術的思想に符合する意味や概念として解釈しなければならない。したがって、下記の説明と添付の図面は、本発明の好ましい実施形態に過ぎず、本発明の技術的思想をすべて代弁するものではないので、本出願時点においてこれらを代替することができる多様な均等物と変形例があり得ることを理解しなければならない。また、添付の図面において一部の構成要素は、誇張されるか、省略されるかまたは概略的に図示され、各構成要素のサイズは、実際サイズを反映するものではない。したがって、本発明は、添付の図面に示された相対的なサイズや間隔によって制限されない。
図1は、本発明の一実施形態による携帯端末のブロック構成図である。
図1を参照すれば、本発明による携帯端末100は、表示部110、キー入力部120、格納部130、無線通信部140、オーディオ処理部150、スピーカーSPK、マイクMIC及び制御部160を含むことができる。
表示部110は、制御部160の制御の下にイメージを画面(screen on which at least one image is shown)に表示することができる。すなわち制御部160がデータを画面に表示するイメージで処理(例えば、デコーディング)してバッファーに格納すれば、表示部110は、バッファーに格納されたイメージをアナログ信号に変換して画面に表示することができる。表示部110に電源が供給されれば、表示部110は、ロックイメージを画面に表示することができる。ロックイメージが表示されている状態でロック解除情報が検出されれば、制御部160は、ロックを解除することができる。すなわち表示部110は、制御部160の制御の下にロックイメージの代わりに、他のイメージを表示することができる。ここで、ロック解除情報は、ユーザが表示部110の画面に表示されたキーパッドまたはキー入力部120を利用して携帯端末100に入力したテキスト(例えば、1234)であるか、または表示部110に対するユーザのタッチの軌跡、タッチの方向またはタッチの種類であるか、マイクMICを介して携帯端末100に入力されたユーザの音声データである。一方、他のイメージは、ホームイメージ、アプリケーション実行イメージ(例えば、動画、ウェブページなど)、キーパッドまたはリストなどである。ホームイメージは、背景イメージと、この上に表示される多数のアイコンを含むことができる。アイコンは、それぞれアプリケーション(以下、アプリ(App)という)またはデータ(例えば、写真ファイル、ビデオファイル、録音ファイル、文書、メッセージなど)を指示することができる。ユーザがアイコン中の1つ(例えば、アプリケーションアイコンを選択)(例えば、アイコンをタップ)すれば、制御部160は、当該アプリ(例えば、SNSを提供するアプリ)を実行し、その実行イメージを表示するように表示部110を制御することができる。
表示部110は、制御部160の制御の下に、イメージを多層(multi−layer)構造で画面に表示することができる。例えば、表示部110は、第1イメージ(例えば、ホームイメージ、ウェブページ)を画面に表示し、第1イメージの上に第2イメージ(例えば、動画)を表示することができる。この際、第1イメージが表示される領域は、画面全体であり、第2イメージが表示される領域は、画面の一部であることができる。したがって、ユーザは、第1イメージの全体ではなくても、その一部を見ることができる。また、表示部110は、制御部160の制御の下に、第2イメージを不透明に表示することもできる。これによって、第1イメージの全体を見ることもできる。
表示部110は、制御部160の制御の下に、動画の場合、画面の最上層に表示することができる。例えば、ユーザによってウェブブラウザーが実行され、ウェブブラウザーの実行によってウェブページが画面に表示され得る。この際、制御部160は、動画をウェブページより上層に表示するように表示部110を制御することができる。また、表示部110は、制御部160の制御の下に、第1イメージ(例えば、動画)を画面の第1領域に表示し、第2イメージ(例えば、キーパッド、メッセージ、お知らせ窓など)を、第1領域と重ならない第2領域に表示することができる。
表示部110は、液晶表示装置(Liquid Crystal Display:LCD)、OLED(Organic Light Emitted Diode)、AMOLED(Active Matrix Organic Light Emitted Diode)またはフレキシブルディスプレイ(Flexible display)で構成され得る。
タッチパネル111は、表示部110に保持(place on)され得る。具体的に、タッチパネル111は、表示部110の画面に位置するアドオンタイプ(add−on type)であるか、または表示部110内に挿入されるオンセルタイプ(on−cell type)またはインセルタイプ(in−cell type)で具現され得る。
タッチパネル111は、タッチパネル111に対するユーザジェスチャーに応答してアナログ信号(例えば、タッチイベント)を発生し、アナログ信号をA/D変換して制御部160に伝達することができる。ここで、タッチイベントは、タッチ座標x、yを含むことができる。制御部160は、タッチパネル111からタッチ座標が受信される場合、タッチ器具(例えば、指やペン)がタッチパネル111にタッチされたものと決定し、タッチパネル111からタッチ座標が受信されない場合、タッチ解除されたものと決定することができる。また、制御部160は、タッチ座標が例えば、(x1、y1)から(x2、y2)に変化した場合、制御部160は、タッチ器具が移動したものと決定することができる。制御部160は、タッチ器具の移動に応答してタッチ器具の位置変化量dx、dy及びタッチ器具の移動速度などを算出することができる。制御部160は、タッチ座標、タッチ器具のタッチ解除可否、タッチ器具の移動可否、タッチ器具の位置変化量及びタッチ器具の移動速度などを基盤として、ユーザジェスチャーをタッチ、マルチタッチ、タップ(Tap)、ダブルタップ(Double Tap)、ロングタップ(Long tap)、タップアンドタッチ(Tap & touch)、ドラッグ(Drag)、フリック(Flick)、プレス(Press)、ピンチである(pinchin)及びピンチアウト(pinch out)などのうちいずれか1つとして決定することができる。タッチは、ユーザが画面のタッチパネル111のいずれか1つの地点にタッチ器具を接触するジェスチャーであり、マルチタッチは、様々な地点に多数のタッチ器具(例えば、親指と人さし指)を接触するジェスチャーであり、タップは、画面のいずれか1つの地点にタッチ器具がタッチされた後、移動なしに当該地点でタッチ解除(touch−off)されるジェスチャーであり、ダブルタップは、いずれか1つの地点を連続的に二度タップするジェスチャーであり、ロングタップは、タップより相対的に長くタッチした後、タッチ器具の移動なしに当該地点でタッチ器具をタッチ解除するジェスチャーであり、タップアンドタッチは、画面のいずれか1つ地点をタップした後、当該地点を所定時間(例えば、0.5秒)以内にさらにタッチするジェスチャーであり、ドラッグは、いずれか1つの地点をタッチした状態でタッチ器具を所定方向に移動させるジェスチャーであり、フリックは、ドラッグに比べてタッチ器具を早く移動させた後、タッチ解除するジェスチャーであり、プレスは、いずれか1つの地点をタッチした後、当該地点を押すジェスチャーであり、ピンチインは、2つのタッチ器具で2つの地点を同時にマルチタッチした後、タッチ器具の間隔を狭めるジェスチャーであり、ピンチアウトは、タッチ器具の間隔を広げるジェスチャーである。すなわちタッチは、タッチパネル111に接触(contact)している状態を意味し、その他のジェスチャーは、タッチの変化を意味することができる。
タッチパネル111は、手ジェスチャーを感知する手タッチパネルとペンジェスチャーを感知するペンタッチパネルを含んで構成された複合タッチパネルであることができる。ここで、手タッチパネルは、静電容量方式(capacitive type)で構成され得る。もちろん手タッチパネルは、抵抗膜方式(resistive type)、赤外線方式または超音波方式で構成されてもよい。また、手タッチパネルは、ユーザの手ジェスチャーだけによってタッチイベントを発生するものではなく、他の物体(例えば、静電容量変化を加えることができる伝導性材質の物体)によってもタッチイベントを生成することができる。ペンタッチパネルは、電磁誘導方式(electromagnetic induction type)で構成され得る。これによって、ペンタッチパネルは、磁場を形成できるように特殊製作されたタッチ用スタイラスペンによってタッチイベントを生成することができる。一方、タッチパネル111は、圧力センサーを具備してタッチされた地点の圧力を感知することができる。感知された圧力情報は、制御部160に伝達され、制御部160は、感知された圧力情報に基づいてタッチとプレスを区分することができる。ここで、圧力情報は、他の方式でも感知することができる。
キー入力部120は、数字または文字情報を入力されて各種機能を設定するための多数のキーを含むことができる。このようなキーは、メニュー呼び出しキー、画面オン/オフキー、電源オン/オフキー及びボリューム調節キーなどを含むことができる。キー入力部120は、ユーザ設定及び携帯端末100の機能制御と関連したキーイベントを生成し、制御部160に伝達する。キーイベントは、電源オン/オフイベント、ボリューム調節イベント、画面オン/オフイベント、シャッターイベントなどを含むことができる。制御部160は、このようなキーイベントに応答して前述した構成を制御することができる。一方、キー入力部120のキーは、ハードキー(hard key)といい、表示部110に表示される仮想の(virtual)キーは、ソフトキー(soft key)ということができる。
格納部130は、制御部160の補助記憶装置(secondary memory unit)として、ディスク、ラム(RAM)、ロム(ROM)及びフラッシュメモリなどを含むことができる。
格納部130は、位置変更テーブル131を格納することができる。位置変更テーブル131は、イベント情報とこれに対応する位置情報を含むことができる。ここで、位置情報は、ユーザによって変更可能であり、位置変更テーブル131の一例は、次の表1の通りである。
Figure 0006367231
格納部130は、携帯端末100で生成されたデータ(例えば、連絡先)と、無線通信部140を介して外部から受信したデータ(例えば、メッセージ、動画ファイル)を格納することができる。
格納部130は、イメージ(例えば、キーパッド、動画、メッセージなど)のサイズ情報及びイメージの表示領域情報を含むことができる。画面を構成する最小単位がピクセル(pixel)であると仮定すれば、サイズ情報は、例えば、「x*y」である。「x」は、X軸方向にx番目のピクセルを意味し、「y」は、Y軸方向にy番目のピクセルを意味することができる。表示領域情報は、例えば、4個の座標、すなわち(x1、y1)、(x2、y1)、(x2、y1)及び(x2、y2)である。また、表示領域情報は、1個の座標であってもよい。
格納部130は、設定値(例えば、画面の明るさの自動調節可否を示す値、ブルートゥース(bluetooth)の使用可否を示す値、ポップアップ機能の使用可否を示す値、位置変更テーブル131の使用可否を示す値など)を格納することができる。
格納部130は、起動プログラム、運営体制(OS、Operating System)及びアプリケーションを格納することができる。周知のように、運営体制は、ハードウェアとアプリケーションとの間、及びアプリケーション間のインターフェースの役目をしつつ、CPU、GPU、主記憶装置、補助記憶装置などのコンピュータ資源を管理することができる。また、運営体制は、ハードウェアの動作及びアプリケーションの実行を制御し、作業(task)の手順を決定し、CPU及びGPUの演算を制御し、データとファイルの格納を管理することができる。アプリケーションは、埋め込みアプリケーション(embedded application)とサードパーティアプリケーション(3rd party application)とに分類され得る。例えば、埋め込みアプリケーションは、ウェブブラウザー(Web browser)、電子メール(email)プログラム、インスタントメッセンジャー(instant messenger)などである。サードパーティアプリケーションは、アプリマーケットサーバーから携帯端末100に受信されて設置されるアプリケーションである。バッテリーから制御部160に電源が供給されれば、まず、起動プログラムが制御部160の主記憶装置(例えば、RAM)にローディング(loading)され得る。このような起動プログラムは、運営体制を主記憶装置にローディングさせる。運営体制は、アプリケーション、例えば、動画プレーヤー132を主記憶装置にローディングすることができる。
格納部130は、音声データをテキストに変換するSTT(speech to text)プログラムを含むことができる。また、格納部130は、音声命令データを分析してユーザの意図を把握する人工知能プログラムを含むことができる。具体的に、人工知能プログラムは、音声命令データで文脈(context)を認識する自然語処理エンジン(natural language processing engine)と、認識された文脈を基盤としてユーザの意図を推論する推論エンジンと、認識された文脈を基盤としてユーザと話し合う対話エンジンなどを含むことができる。
無線通信部140は、制御部160の制御の下に、ネットワークを介して外部装置と音声通話、画像通話またはデータ通信を行うことができる。無線通信部140は、送信される信号の周波数を上昇変換及び増幅する無線周波数送信部と、受信される信号の周波数を低雑音増幅及び下降変換する無線周波数受信部を含むことができる。また、無線通信部140は、移動通信モジュール(例えば、3世代(3−Generation)移動通信モジュール、3.5世代 (3.5−Generation) 移動通信モジュールまたは4世代 (4−Generation)移動通信モジュールなど、デジタル放送モジュール(例えば、DMBモジュール)及び近距離通信モジュール(例えば、ワイファイ(Wi−Fi)モジュール、ブルートゥース(bluetooth)モジュール、NFC(Near Field Communication)モジュール)を含むことができる。
オーディオ処理部150は、スピーカーSPK及びマイクMICと結合して音声認識、音声録音、デジタルレコーディング(recording)及び通話のためのオーディオ信号(例えば、音声命令データ)の入力及び出力を行うことができる。オーディオ処理部150は、制御部160からオーディオ信号を受信し、受信したオーディオ信号をアナログにD/A変換し増幅した後、スピーカーSPKに出力することができる。オーディオ処理部150は、マイクMICから受信したオーディオ信号をデジタルにA/D変換した後、制御部160に提供することができる。スピーカーSPKは、オーディオ処理部150から受信したオーディオ信号を音波(sound wave)に変換して出力することができる。マイクMICは、人やその他の音源(sound source)から伝達された音波をオーディオ信号に変換することができる。
制御部160は、携帯端末100の全般的な動作及び携帯端末100の内部構成間の信号フローを制御し、データを処理する機能を行い、バッテリーから前記構成への電源供給を制御することができる。制御部160は、CPU(central processing unit)と、GPU(graphic processing unit)を含むことができる。周知のように、CPUは、資料の演算及び比較と、コマンドの解釈及び実行などを行うコンピューターシステムの核心的な制御ユニットである。GPUは、CPUの代わりに、グラフィックと関連した資料の演算及び比較と、コマンドの解釈及び実行などを行うグラフィック制御ユニットである。CPUとGPUは、それぞれ、2つ以上の独立コア(例えば、クォドコア(quad−core)が単一集積回路よりなる1つのパッケージ(package)に統合され得る。また、CPUとGPUは、1つのチップで統合(SoC;System on Chip)されたものであることができる。また、CPUとGPUは、マルチレイヤ(multi layer)でパッケージング(packaging)されたものであってもよい。一方、CPU及びGPUを含む構成は、AP(Application Processor)と指称され得る。
制御部160は、メインメモリ(main memory unit)、例えば、ラム(RAM)を含むことができる。メインメモリは、格納部130からローディングされた各種プログラム、例えば、起動プログラム、ホスト運営体制、ゲスト運営体制及びアプリケーションを格納することができる。すなわち制御部161のCPU及びGPUは、このようなプログラムにアクセスしてプログラムの命令を解読し、解読結果による機能(例えば、ポップアップ機能)を行うことができる。また、制御部160は、格納部130に記録(write)するデータを臨時格納し、格納部130から読み出した(read)データを臨時格納するキャッシュメモリを含むことができる。
制御部160は、格納部130に格納されたサイズ情報及び表示領域情報を利用して携帯端末100を運営することができる。例えば、キーパッドの表示を要請するイベントが発生した場合、制御部160は、キーパッドに該当するサイズ情報と表示領域情報を格納部130から読み出し、読み出した情報を基盤としてキーパッドを当該表示領域に表示するように表示部110を制御することができる。
制御部160は、格納部130に格納された設定値を利用して携帯端末100を運営することができる。例えば、動画が表示されれば、制御部160は、「ポップアップ機能の使用可否を示す値」を格納部130から読み出し、この値を基盤としてポップアップ機能の使用可否を決定することができる。ポップアップ機能を使用することに決定されれば、制御部160は、「位置変更テーブル131の使用可否を示す値」を格納部130から読み出し、この値を基盤として位置変更テーブル131の使用可否を決定することができる。一方、ポップアップ機能の実行可否は、当該設定値と関係なく決定され得る。例えば、表示部11は、動画とともに、ポップアップ機能ボタンを表示することができる。このようなボタンは、動画の上に半透明に表示されるか、または別途の領域に表示され得る。ユーザがボタンを選択すれば、制御部160は、ポップアップ機能を行うことができる。この際、ボタンの上には、「ON」が表示され得る。ユーザがさらにボタンを選択すれば、制御部160は、ポップアップ機能を終了することができる。この際、ボタンの上には、「OFF」が表示され得る。ポップアップ機能の対象となるイメージは、動画に限るものではなく、他のイメージ(例えば、写真、停止映像、メモ、地図情報など)になることもできる。すなわち動画以外にも、他のイメージが常に画面の最上層に表示され得る。
位置変更テーブル131を使用することに決定されれば、制御部160は、表1のような位置変更テーブル131を格納部130から読み出す。制御部160は、位置変更テーブル131を参照してイメージの表示位置を変更することができる。例えば、動画が画面の下端に表示されており、この際、、キーパッドの表示を要請するイベント(例えば、ウェブページでテキスト入力欄をユーザがタップ)が発生することができる。それでは、制御部160は、動画を画面の上端に表示し、キーパッドを画面の下端に表示するように、表示部110を制御することができる。すなわち動画が画面の下端から上端に移動することができる。もちろんその反対であってもよい。すなわち動画は、そのまま画面の下端で表示され、キーパッドが画面の上端に表示され得る。一方、位置変更機能の実行可否は、位置変更テーブル131と関係なく決定され得る。すなわち制御部160は、位置変更テーブル131を使用しなくても、イメージの表示位置を変更することができる。これに対する具体的な例示は、以下の図面を参照して具体的に説明する。
一方、デジタル機器のコンバージェンス(convergence)傾向によって変形が非常に多様で、すべて列挙することはできないが、携帯端末100は、カメラ、GPSモジュール、振動モーター、アクセサリー、外部装置インターフェース部(例えば、イアジャック)、加速度センサーなどのように前記で言及されない構成をさらに含むことができる。ここで、アクセサリーは、携帯端末100から分離が可能な携帯端末100の附属品であって、例えば、表示部110の画面にタッチのためのペンになることができる。また、携帯端末100は、その提供形態によって前述した構成から特定構成が除外されるか、または他の構成に代替されてもよい。
図2は、本発明の一実施形態によるイメージ表示方法を説明するための流れ図である。図3a〜図3d、図4a及び図4bは、本発明の一実施形態によるイメージ表示方法を説明するための図である。
図2を参照すれば、段階210で、制御部160は、動画の表示を要請する第1イベントの発生可否を決定することができる。このような第1イベントは、表示部110に対するユーザジェスチャー(例えば、当該動画を示すサムネイルをユーザがタップ)であるか、またはキー入力部120で発生したキーイベントである。また、第1イベントは、音声命令データであってもよい。例えば、当該動画の名称が表示されており、ユーザは、マイクMICに向けて当該動画の名称、例えば、「タイタニック」を話す。それでは、マイクMICは、ユーザの音声を受信し、これをオーディオ信号に変換してオーディオ処理部150に伝達する。制御部160は、オーディオ処理部150から音声命令データを受信し、受信された音声命令データをテキストに変換し、テキストに例えば、「タイタニック」が含まれた場合、第1イベントが発生したものと決定することができる。一方、ユーザは、マイクMICに向けて「タイタニックを再生してくれ」と話す。それでは、制御部160は、人工知能プログラムを利用してユーザの意図を把握し、第1イベントが発生したものと決定することができる。この際、当該動画及び人工知能プログラムは、携帯端末100ではない外部のサーバーに具備され得る。それなら、制御部160は、当該音声命令データを含む動画要請メッセージをサーバーに伝送するように無線通信部140を制御することができる。これに応答して、サーバーは、音声命令データを分析してユーザの意図を把握し、当該動画を携帯端末100に伝送することができる。動画が受信されれば、制御部160は、第1イベントが発生したものと決定することができる。
第1イベントが発生した場合、段階215で、制御部160は、動画を表示する第1領域を決定することができる。例えば、制御部160は、表示領域情報を格納部130から読み出し、読み出した情報を基盤として動画を表示する第1領域を決定することができる。例えば、図3aに示されたように、画面のサイズは、640*380であり、表示領域情報は、(0、0)、(0、213)、(380、213)及び(380、0)である。それでは、第1領域は、図3aで310として決定され得る。段階220で、制御部160は、第1領域に動画320を表示するように表示部110を制御することができる。また、制御部160は、ポップアップ機能を行うことができる。一方、表示領域情報は、1個の座標、例えば、(107、190)であることができる。それでは、第1領域は、107、190を中心とする領域として決定され得る。
段階225で、制御部160は、第2イベントの発生可否を決定することができる。第2イベントが発生しない場合、プロセスは、段階230に進行することができる。段階230で、制御部160は、動画の表示を終了するか否かを決定することができる。例えば、表示部110に表示された終了ボタンがタップされた場合、プロセスは終了することができる。そうではなければ、プロセスは、段階225に復帰することができる。
第2イベントが発生した場合、段階235で、制御部160は、第2イベントと関連したイメージを表示する第2領域を決定することができる。例えば、制御部160は、第2イベントに該当する表示領域情報を格納部130から読み出し、読み出した表示領域情報に対応する領域を第2領域として決定することができる。例えば、キーパッドは、画面の下端として決定され得る。通話を要請する差出人情報(例えば、名前と電話番号)は、画面の上端として決定され得る。差出人の通話要請に対する受諾可否をユーザが選択するようにするためのイメージ(例えば、通話受諾アイコン及び通話拒絶アイコンを含む)は、画面の下端として決定され得る。SMS(Short Message Service)メッセージ、MMS(Multimedia Message Service)メッセージ、SNS(Social Network Service)メッセージ、電子メール及びニュースなどのようなメッセージの受信を知らせるためのお知らせイメージは、画面の上端または画面の中央として決定され得る。
段階240で、制御部160は、第2イベントがあらかじめ定められた特定イベントであるか否かを確認することができる。ここで、あらかじめ定められた特定イベントは、タッチパネル111やキー入力部120から受信したキーパッド表示要請イベントと、オーディオ処理部150を介してマイクMICから受信した音声データ(例えば、「キーパッド」という音声と、無線通信部140を介してネットワーク(例えば、基地局)から受信した各種メッセージ(例えば、通話要請メッセージ、SMS(Short Message Service)メッセージ、MMS(Multimedia Message Service)メッセージ、SNS(Social Network Service)メッセージ、電子メール、ニュースなど)などになることができる。特定イベントが通話要請メッセージ(特に、映像通話要請メッセージ)である場合、動画再生は、一時停止され得る。すなわち無線通信部140を介してネットワークから通話要請メッセージが受信されれば、制御部160は、1つのフレームを継続して表示するように表示部110を制御することができる。ここで、フレームは、動画(moving images)を構成する停止イメージ(still image)である。例えば、1秒の動画は、30フレームで構成され得る。一方、通話要請メッセージによる機能(例えば、通話)が終了すれば、一時停止が解除され、動画が表示され得る。また、映像通話メッセージが受信される場合、動画は停止されずに、続いて再生されてもよい。例えば、制御部160は、動画を動画表示領域に表示し、通話映像を通話映像表示領域に表示するように、表示部110を制御してもよい。ここで、2つの領域は、制御部160の制御によって互いに重ならないことがある。通話映像は、相手端末から受信された動画とカメラで撮影した映像(すなわち相手端末に送る動画)を含むことができる。
第2イベントが特定イベントではない場合、プロセスは、段階245に進行することができる。段階245で、制御部160は、第2イベントに該当する機能を行うことができる。例えば、第2イベントがインターネットアイコン330(図3b参照)に対するタップである場合、制御部160は、ウェブページ340(図3c参照)を第2領域(例えば、画面全体)に表示するように表示部110を制御することができる。この際、動画320は、最上層に位置することができる。したがって、図3cに示されたように、ウェブページ340の一部は表示されない。第2イベントに該当する機能が行われた後、プロセスは、段階225に復帰することができる。
第2イベントが特定イベントである場合、段階250で、制御部160は、第2領域が第1領域と重なるか否かを確認することができる。ここで、重なりは、第2領域の一部が第1領域と重なること、第2領域が第1領域に含まれることまたは第1領域が第2領域に含まれることを意味することができる。
2つの領域が重ならない場合、プロセスは、段階255に進行することができる。段階255で、制御部160は、イメージを第2領域に表示するように表示部110を制御することができる。これによって、動画とイメージが互いに重なることなく、画面の最上層に表示され得る。
2つの領域が重なる場合、段階260で、制御部160は、第2領域と重ならない第3領域を決定することができる。一例として、制御部160は、図3cに示されたように、第2領域350(図3c参照)の4個の座標(x1、y1)、(x1、y2)、(x2、y2)及び(x2、y1)を確認し、確認された4個の座標を基盤として第3領域360を決定することができる。すなわち4個の座標を頂点とする四角形領域が第3領域360として決定され得る。
他の例として、制御部160は、位置変更テーブル131を格納部130から読み出す。例えば、特定イベントがキーパッド表示要請イベント(例えば、テキスト入力欄380に対するユーザのタップ)である場合、制御部160は、それに対応する位置情報が「画面の上端」であることを確認することができる。したがって、制御部160は、確認された位置情報を基盤として第3領域を決定することができる。
段階265で、制御部160は、イメージを第2領域に表示し、動画を第3領域に表示するように、表示部110を制御することができる。これによって、動画とイメージが互いに重なることなく、画面の最上層に表示され得る。一方、第2領域は、互いに分離した多数の領域を含むことができる。一例として、図4aを参照すれば、第1領域410は、画面の下端として決定され、動画420が第1領域410で表示され得る。その後、通話要請メッセージの受信に応答して差出人情報431を表示する第2−1領域421は、画面の上端として決定され、通話受諾アイコン432と通話拒絶アイコン433を表示する第2−2領域422は、画面の下端として決定され得る。この際、第2−2領域422は、第1領域410と重なるようになることができる。したがって、第3領域440は、画面の中央として決定され、動画420は縮小され、第3領域440に表示され得る。
図5は、本発明の他の実施形態によるイメージ表示方法を説明するための流れ図である。図6は、本発明の他の実施形態によるイメージ表示方法を説明するための図である。
図5を参照すれば、段階510で、制御部160は、画面の第1領域610(図6参照)に動画を表示するように表示部110を制御することができる。また、制御部160は、ポップアップ機能を行うことができる。
段階515で、制御部160は、イベントの発生可否を決定することができる。イベントが発生しない場合、プロセスは、段階520に進行することができる。段階520で、制御部160は、動画の表示を終了するか否かを決定することができる。動画の表示が終了しない場合、プロセスは、段階515に復帰することができる。
イベントが発生した場合、段階525で、制御部160は、イベントと関連したイメージを表示する第2領域を決定することができる。
段階530で、制御部160は、イベントがあらかじめ定められた特定イベントであるか否かを確認することができる。
イベントが特定イベントではない場合、プロセスは、段階535に進行することができる。段階535で、イベントに該当する機能が制御部160によって行われた後、プロセスは、段階515に復帰することができる。
イベントが特定イベントである場合、段階540で、制御部160は、第2領域が第1領域と重なるか否かを確認することができる。
2つの領域が重ならない場合、プロセスは、段階545に進行することができる。段階545で、制御部160は、イメージを第2領域に表示するように表示部110を制御することができる。
2つの領域が重なる場合(例えば、図6に示されたように、第2領域620が第1領域610に含まれる場合)、段階550で、制御部160は、第1領域と重ならない第3領域を決定することができる。一例として、制御部160は、位置変更テーブル131を格納部130から読み出す。制御部160は、発生した特定イベント(例えば、メッセージ受信)に対応する位置情報(例えば、画面の下端)を位置変更テーブル131で確認することができる。また、制御部160は、確認された位置情報を基盤として第3領域として決定することができる。
段階555で、制御部160は、イメージ630を第3領域640に表示するように表示部110を制御することができる。これによって、動画650とイメージ630が互いに重なることなく、画面の最上層に表示され得る。
図7は、本発明のさらに他の実施形態によるイメージ表示方法を説明するための流れ図である。図8a〜図8cは、本発明のさらに他の実施形態によるイメージ表示方法を説明するための図である。
図7を参照すれば、段階710で、制御部160は、画面の第1領域810に動画820を表示するように表示部110を制御することができる。また、制御部160は、ポップアップ機能を行うことができる。
段階715で、制御部160は、第1イベントの発生可否を決定することができる。第1イベントが発生しない場合、プロセスは、段階720に進行することができる。段階720で、制御部160は、動画の表示を終了するか否かを決定することができる。動画の表示が終了しない場合、プロセスは、段階715に復帰することができる。
第1イベントが発生した場合、段階725で、制御部160は、第1イベントと関連したイメージを表示する第2領域を決定することができる。
段階730で、制御部160は、イベントがあらかじめ定められた特定イベントであるか否かを確認することができる。
第1イベントが特定イベントではない場合、プロセスは、段階735に進行することができる。段階735で、第1イベントに該当する機能が制御部160によって行われた後、プロセスは、段階715に復帰することができる。
第1イベントが特定イベントである場合、段階740で、制御部160は、第2領域が第1領域810と重なるか否かを確認することができる。
2つの領域が重ならない場合、プロセスは、段階745に進行することができる。段階745で、制御部160は、イメージを第2領域に表示するように表示部110を制御することができる。
2つの領域が重なる場合(例えば、図8aに示されたように、第2領域830の一部が第1領域810に重なる場合)、段階750で、制御部160は、イメージ840を第2領域830に表示するように表示部110を制御することができる。また、制御部160は、動画820においてイメージ840と重なる部分821を半透明に表示するように表示部110を制御することができる。これによって、動画820の全体はもちろん、イメージ840の全体が識別可能である。また、制御部160は、重なる部分821でタッチイベントが発生する場合、これを動画820ではないイメージ840と関連したイベントであると決定することができる。一方、動画820でイメージ840と重なる部分821は、表示されなくてもよい。すなわちポップアップ機能が行われているが、こんな場合には、例外的にイメージ840が高層に位置し、相対的に動画820が低層に位置することができる。
段階755で、制御部160は、動画820の位置変更を要請する第2イベントの発生可否を決定することができる。このような第2イベントは、表示部110に対するユーザジェスチャー(例えば、動画820に対する上側へのフリック850)であるか、キー入力部120で発生したキーイベントである。また、第2イベントは、音声データ(例えば、「動画位置転換」)であってもよい。動画820が上側へ移動することによって、イメージ840と重ならない部分が生ずるようになる。それでは、制御部160は、このような部分を認識し、認識された部分を不透明に表示するように表示部110を制御することができる。
段階760で、制御部160は、第2イベントに応答して動画820を第3領域860に表示するように表示部110を制御することができる。図8cに示されたように、第3領域860は、第2領域830と重ならない。
図9は、本発明のさらに他の実施形態によるイメージ表示方法を説明するための流れ図である。図10a〜図10cは、本発明のさらに他の実施形態によるイメージ表示方法を説明するための図である。
図9を参照すれば、段階910で、制御部160は、画面の第1領域1010に動画1020を表示するように表示部110を制御することができる。また、制御部160は、ポップアップ機能を行うことができる。
段階915で、制御部160は、イベントの発生可否を決定することができる。イベントが発生しない場合、プロセスは、段階920に進行することができる。段階920で、制御部160は、動画の表示を終了するか否かを決定することができる。動画の表示が終了しない場合、プロセスは段階915に復帰することができる。
イベントが発生した場合、段階925で、制御部160は、イベントと関連したイメージを表示する第2領域を決定することができる。
段階930で、制御部160は、イベントがあらかじめ定められた特定イベントであるか否かを確認することができる。
イベントが特定イベントではない場合、プロセスは、段階935に進行することができる。段階935で、イベントに該当する機能が制御部160によって行われた後、プロセスは、段階915に復帰することができる。
イベントが特定イベントである場合、段階940で、制御部160は、第2領域が第1領域1010と重なるか否かを確認することができる。
2つの領域が重ならない場合、プロセスは、段階945に進行することができる。段階945で、制御部160は、イメージを第2領域に表示するように表示部110を制御することができる。
2つの領域が重なる場合(例えば、図10に示されたように、第2領域1030の一部が第1領域1010に重なる場合)、段階950で、制御部160は、方向アイコン1041〜1043を表示するように表示部110を制御することができる。すなわち方向アイコン1041〜1043は、動画1020の位置を変更するためのガイドシンボルである。このようなガイドシンボルは、方向アイコンの代わりに、図10bに示されたようなメッセージ1040であってもよい。メッセージ1040は、あらかじめ定められた時間(例えば、約2秒)表示された後、消える。制御部160は、メッセージ1040を消えるようにした後、図10cに示されたように、位置指定アイコン1051〜1053を表示するように表示部110を制御することができる。
段階955で、制御部160は、ユーザが方向アイコン(または位置指定アイコン)を選択したか否かを決定することができる。
方向アイコン(または位置指定アイコン)の選択が検出された場合、段階960で、制御部160は、イメージを第2領域1030に表示するように表示部110を制御することができる。また、制御部160は、動画1020を前記選択された方向アイコン(または位置指定アイコン)に該当する第3領域に表示するように表示部110を制御することができる。
図11は、本発明のさらに他の実施形態によるイメージ表示方法を説明するための流れ図である。図12a〜図12cは、本発明のさらに他の実施形態によるイメージ表示方法を説明するための図である。
図11を参照すれば、段階1110で、制御部160は、イベントリスト1210を表示するように表示部110を制御することができる。一例として、表示部110は、環境設定アイコンを含むホームイメージを表示することができる。環境設定アイコンが選択されれば、制御部160は、位置変更メニューを含む環境設定イメージを表示するように表示部110を制御することができる。位置変更メニューが選択されれば、図12aに示されたようなイベントリスト1210が表示され得る。
段階1120で、制御部160は、ユーザがイベントリスト1210から1つのイベントアイコンを選択したか否かを決定することができる。
イベントアイコンの選択が検出された場合、段階1130で、制御部160は、図12bに示されたような位置指定アイコン1221〜1229を表示するように表示部110を制御することができる。すなわち位置指定アイコン1221〜1229は、イベントに対応する位置情報を設定するためのガイドシンボルである。このようなガイドシンボルは、図12cに示されたように、方向アイコン1231〜1238であってもよい。
段階1140で、制御部160は、ユーザが位置指定アイコン(または方向アイコン)を選択したか否かを決定することができる。
位置指定アイコン(または方向アイコン)の選択が検出された場合、段階1150で、制御部160は、選択されたイベントアイコンに該当するイベント情報と選択された位置指定アイコンまたは方向アイコンに該当する位置情報をマッピングし、格納部130に格納することができる。
一方、前述した例示は、便宜上、表示モードがポートレートモード(portrait mode)、すなわち縦モードと仮定して説明したものである。もちろん本発明は、ランドスケープモード(landscape mode)、すなわち横モードでも具現され得る。携帯端末100は、携帯端末の姿勢感知が可能なセンサー、例えば、加速度センサーをさらに具備することができる。加速度センサーは、携帯端末100の加速度(例えば、X軸加速度、Y軸加速度及びZ軸加速度)及びその変化を感知し、感知情報を生成し、制御部160に伝達することができる。制御部160は、加速度センサーから伝達された感知情報を利用して携帯端末100の姿勢、例えば、傾き情報(例えば、X、Y及びZ軸各々を中心とする回転角度)を算出することができる。通常、X軸を中心とする回転角度をロール角といい、Y軸を中心とする回転角度をピッチ角といい、Z軸を中心とする回転角度を凹角という。また、制御部160は、算出された傾き情報を利用して携帯端末100の表示モードを決定することができる。もちろん、表示モードは、携帯端末100の姿勢と関係なく、ユーザ任意どおり固定されてもよい。しかし、固定されていなければ(例えば、画面自動回転機能が設定されていたら)、制御部160は、傾き情報を利用して表示モードを決定することができる。
図13a及び図13bは、ランドスケープモードでイメージ表示方法を説明するための図である。
図13a及び図13bを参照すれば、制御部160は、ポップアップ機能を行うことができる。すなわち表示部110は、制御部160の制御の下に、画面の左側に動画1310を表示することができる。この際、特定イベント(例えば、テキスト入力欄1320に対するユーザのタップ)が発生することができる。それでは、表示部110は、制御部160の制御の下に、動画1310を画面の中央に表示し、分離キーパッド(split keypad)の左側キーパッド1331を画面の左側に表示し、右側キーパッド1332を画面の右側に表示することができる。
前述したような本発明によるイメージ表示方法は、多様なコンピューターを介して行われることができるプログラム命令で具現され、コンピューターで読み取り可能な記録媒体に記録され得る。ここで、記録媒体は、プログラム命令、データファイル、データ構造などを含むことができる。また、プログラム命令は、本発明のために特別に設計され構成されたものであるか、コンピューターソフトウェア当業者に公知されて使用可能なものであってもよい。また、記録媒体には、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体(Magnetic Media)と、CD−ROM、DVDのような光記録媒体(Optical Media)と、フロプチカルディスク(Floptical Disk)のような磁気−光媒体(Magneto−Optical Media)と、ロム(ROM)と、ラム(RAM)と、フラッシュメモリなどのようなハードウェア装置が含まれることができる。また、プログラム命令には、コンパイラーによって作われるもののような機械語コードだけでなく、インタプリターなどを使用してコンピュータによって実行され得る高級言語コードが含まれることができる。ハードウェア装置は、本発明を行うために1つ以上のソフトウェアモジュールとして作動するように構成され得る。
本発明によるイメージ表示方法及び携帯端末は、前述した実施形態に限定されず、本発明の技術思想が許容する範囲で多様に変形して実施することができる。
100 携帯端末
110 表示部
111 タッチパネル
120 キー入力部
130 格納部
131 位置変更テーブル
132 動画プレーヤー
140 無線通信部
150 オーディオ処理部
160 制御部

Claims (19)

  1. モバイル装置であって、
    タッチスクリーンと、
    少なくとも一つのプロセッサと、を含み、
    前記少なくとも一つのプロセッサは、
    第1のウィンドウを前記タッチスクリーンに提供する動作と、
    動画を表示する第2のウィンドウを前記第1のウィンドウ上に提供する動作と、
    前記第2のウィンドウが前記第1のウィンドウ上に提供される間、ユーザ入力を検出する動作と、
    前記ユーザ入力の検出に反応してキーボードが前記タッチスクリーンに表示されるとき、前記第2のウィンドウが前記キーボードと重なるものと決定された場合、前記第2のウィンドウを前記タッチスクリーン上で移動し、前記移動した第2のウィンドウで前記動画を表示すると共に、キーボードを前記第1のウィンドウ上に表示する動作と、を行うように構成され、
    前記移動した第2のウィンドウは、前記表示されたキーボードとは重ならないところに位置し、
    前記第2のウィンドウが前記タッチスクリーンの第1の部分に提供されるものと決定された場合、前記第2のウィンドウを前記タッチスクリーン上で移動する動作は、前記タッチスクリーンの前記第1の部分から前記タッチスクリーンの第2の部分に移動する動作を含み、
    前記第2の部分に移動した前記第2のウィンドウは、前記表示されたキーボードと重ならないところに位置し、
    前記タッチスクリーンの前記第1の部分と、前記タッチスクリーンの前記第2の部分との間のマッピング関係を定義した位置変更情報を保存するように構成されたメモリをさらに含み、
    前記位置変更情報は、ユーザによって設定するように構成されたモバイル装置。
  2. 前記第1のウィンドウは、全画面に表示され、前記第2のウィンドウは、前記第1のウィンドウが前記全画面に表示されるとき、前記第1のウィンドウ上に提供される請求項1に記載のモバイル装置。
  3. 前記動画は、前記移動する前に前記第1の部分として前記タッチスクリーンの下部に表示される請求項に記載のモバイル装置。
  4. 前記第1のウィンドウは、前記タッチスクリーンの上部に表示されるテキスト入力部分を有する請求項1に記載のモバイル装置。
  5. 前記上部は、前記表示された第2のウィンドウとは重ならない請求項に記載のモバイル装置。
  6. 前記第1のウィンドウは、ウェブページを含み、
    前記動画は、前記ウェブページに表示される請求項1に記載のモバイル装置。
  7. 前記第2のウィンドウのサイズと位置は、手動で調節されるように構成された請求項1に記載のモバイル装置。
  8. 前記動画が表示される間、コール接続要求メッセージがコールの開始のために受信される場合、前記少なくとも一つのプロセッサは、前記動画の再生を一時停止する動作をさらに行うように構成され、
    前記コールの接続が切れる場合、前記少なくとも一つのプロセッサは、前記動画の再生の前記一時停止を解除する動作をさらに行うように構成された請求項1に記載のモバイル装置。
  9. 前記少なくとも一つのプロセッサでは、
    前記動画を表示する前記第2のウィンドウを縮小させる動作と、
    前記タッチスクリーンの第3の部分に前記縮小された第2のウィンドウを表示する動作と、をさらに行うように構成された請求項に記載のモバイル装置。
  10. 前記少なくとも一つのプロセッサでは、
    前記表示されたキーボードを左側キーボードと右側キーボードとに分離する動作をさらに行うように構成された請求項1に記載のモバイル装置。
  11. 前記少なくとも一つのプロセッサでは、
    前記左側キーボードと前記右側キーボードとの間に前記動画を表示する前記第2のウィンドウを提供する動作をさらに行うように構成された請求項10に記載のモバイル装置。
  12. モバイル装置にてウィンドウを表示する方法であって、
    第1のウィンドウをタッチスクリーンに提供する動作と、
    動画を表示する第2のウィンドウを前記第1のウィンドウ上に提供する動作と、
    前記第2のウィンドウが前記第1のウィンドウ上に提供される間、ユーザ入力を検出する動作と、
    前記ユーザ入力の検出に反応してキーボードが前記タッチスクリーンに表示されるとき、前記第2のウィンドウが前記キーボードと重なるものと決定された場合、前記第2のウィンドウを前記タッチスクリーン上で移動し、前記移動した第2のウィンドウで前記動画を表示すると共に、キーボードを前記第1のウィンドウ上に表示する動作と、を含み、
    前記移動した第2のウィンドウは、前記表示されたキーボードと重ならないところに位置し、
    前記第2のウィンドウが前記タッチスクリーンの第1の部分に提供されるものと決定された場合、前記第2のウィンドウを前記タッチスクリーン上で移動する動作は、前記タッチスクリーンの前記第1の部分から前記タッチスクリーンの第2の部分に移動する動作を含み、
    前記第2の部分に移動した前記第2のウィンドウは、前記表示されたキーボードと重ならないところに位置し、
    前記動画を表示する前記第2のウィンドウを縮小させる動作と、
    前記タッチスクリーンの第3の部分に前記縮小された第2のウィンドウを表示する動作と、をさらに含み、
    前記タッチスクリーンの前記第1の部分と、前記タッチスクリーンの前記第2の部分との間のマッピング関係を定義した位置変更情報をメモリに保存する動作をさらに含み、
    前記位置変更情報は、ユーザによって設定するように構成された方法。
  13. 前記第1のウィンドウは、全画面に表示され、前記第2のウィンドウは、前記第1のウィンドウが前記全画面に表示されるとき、前記第1のウィンドウ上に提供される請求項12に記載の方法。
  14. 前記動画は、前記移動する前に前記第1の部分として前記タッチスクリーンの下部に表示される請求項12に記載の方法。
  15. 前記第1のウィンドウは、前記タッチスクリーンの上部に表示されるテキスト入力部分を有する請求項12に記載の方法。
  16. 前記上部は、前記表示された第2のウィンドウとは重ならない請求項15に記載の方法。
  17. 前記第1のウィンドウは、ウェブページを含み、
    前記動画は、前記ウェブページに表示される請求項12に記載の方法。
  18. 前記動画が表示される間、コール接続要求メッセージがコールの開始のために受信される場合、前記動画の再生を一時停止する動作と、
    前記コールの接続が切れる場合、前記動画の再生の前記一時停止を解除する動作と、をさらに含む請求項12に記載の方法。
  19. 前記表示されたキーボードを左側キーボードと右側キーボードとに分離する動作をさらに含む請求項12に記載の方法。
JP2015551599A 2013-01-07 2013-12-30 イメージ表示方法及び携帯端末 Active JP6367231B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2013-0001691 2013-01-07
KR1020130001691A KR102032449B1 (ko) 2013-01-07 2013-01-07 이미지 표시 방법 및 휴대 단말
PCT/KR2013/012357 WO2014107011A1 (en) 2013-01-07 2013-12-30 Method and mobile device for displaying image

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018127439A Division JP6999513B2 (ja) 2013-01-07 2018-07-04 イメージ表示方法及び携帯端末

Publications (3)

Publication Number Publication Date
JP2016507822A JP2016507822A (ja) 2016-03-10
JP2016507822A5 JP2016507822A5 (ja) 2017-02-16
JP6367231B2 true JP6367231B2 (ja) 2018-08-01

Family

ID=49999712

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2015551599A Active JP6367231B2 (ja) 2013-01-07 2013-12-30 イメージ表示方法及び携帯端末
JP2018127439A Active JP6999513B2 (ja) 2013-01-07 2018-07-04 イメージ表示方法及び携帯端末

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2018127439A Active JP6999513B2 (ja) 2013-01-07 2018-07-04 イメージ表示方法及び携帯端末

Country Status (7)

Country Link
US (3) US9779475B2 (ja)
EP (2) EP2752840B1 (ja)
JP (2) JP6367231B2 (ja)
KR (1) KR102032449B1 (ja)
CN (2) CN104904126B (ja)
AU (1) AU2013371739B2 (ja)
WO (1) WO2014107011A1 (ja)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140063125A (ko) * 2012-11-16 2014-05-27 삼성전자주식회사 영역에 따라 다른 계수를 적용하여 화질을 개선하는 영상 처리 방법 및 그 장치
KR102032449B1 (ko) 2013-01-07 2019-10-15 삼성전자주식회사 이미지 표시 방법 및 휴대 단말
USD746849S1 (en) * 2013-11-22 2016-01-05 Apple Inc. Display screen or portion thereof with graphical user interface
WO2015130875A1 (en) * 2014-02-27 2015-09-03 Keyless Systems Ltd. Improved data entry systems
JP6306965B2 (ja) * 2014-07-25 2018-04-04 株式会社Nttドコモ 携帯端末及びアプリケーション起動方法
USD770475S1 (en) * 2014-11-28 2016-11-01 Samsung Electronics Co., Ltd. Display screen or portion thereof with an animated graphical user interface
USD794650S1 (en) * 2014-11-28 2017-08-15 Samsung Electronics Co., Ltd. Display screen or portion thereof with a graphical user interface
KR102350097B1 (ko) 2015-04-30 2022-01-13 삼성디스플레이 주식회사 영상 보정부, 이를 포함하는 표시 장치 및 이의 영상 표시 방법
CN105824590B (zh) * 2015-08-31 2019-11-22 维沃移动通信有限公司 一种在移动设备中的分屏处理方法和装置
KR102423447B1 (ko) * 2015-10-22 2022-07-21 삼성전자 주식회사 벤디드 디스플레이를 구비한 전자 장치 및 그 제어 방법
JP6517680B2 (ja) * 2015-12-16 2019-05-22 田中 佳子 心理形成プログラム
JP7091601B2 (ja) * 2016-11-07 2022-06-28 富士フイルムビジネスイノベーション株式会社 表示装置およびプログラム
US10955985B2 (en) * 2017-10-11 2021-03-23 International Business Machines Corporation Optimizing an arrangement of content on a display of a user device based on user focus
CN110520830A (zh) * 2018-02-26 2019-11-29 华为技术有限公司 移动终端及其显示方法
CN108491127B (zh) * 2018-03-12 2020-02-07 Oppo广东移动通信有限公司 输入法界面显示方法、装置、终端及存储介质
CN113485627A (zh) 2018-03-23 2021-10-08 华为技术有限公司 一种应用窗口的显示方法及终端
TWI669703B (zh) * 2018-08-28 2019-08-21 財團法人工業技術研究院 適於多人觀看的資訊顯示方法及資訊顯示裝置
TWI686742B (zh) * 2018-10-29 2020-03-01 華碩電腦股份有限公司 控制方法、電子裝置及非暫態電腦可讀記錄媒體裝置
CN109542328B (zh) 2018-11-30 2021-04-06 北京小米移动软件有限公司 用户界面显示方法、装置、终端及存储介质
JP7305976B2 (ja) * 2019-02-13 2023-07-11 京セラドキュメントソリューションズ株式会社 表示装置、及び表示制御プログラム
CN110582027B (zh) * 2019-08-22 2022-04-12 聚好看科技股份有限公司 智能电视上显示消息的方法及相关装置
KR102263412B1 (ko) * 2019-12-30 2021-06-10 동국대학교 산학협력단 동영상 오버랩 출력 제어 방법
CN111580729B (zh) * 2020-04-22 2021-07-13 江西博微新技术有限公司 一种重叠图元选中的处理方法、系统、可读存储介质及电子设备
CN111552532A (zh) * 2020-04-23 2020-08-18 北京达佳互联信息技术有限公司 弹窗控制方法、装置、电子设备及存储介质
CN113051432B (zh) * 2021-04-25 2022-07-19 聚好看科技股份有限公司 显示设备及媒资播放方法
WO2022078154A1 (zh) * 2020-10-15 2022-04-21 聚好看科技股份有限公司 显示设备及媒资播放方法
US20220397985A1 (en) * 2021-06-14 2022-12-15 Citrix Systems, Inc. Transparent Application Window
CN115345331A (zh) * 2022-08-18 2022-11-15 浙江安易信科技有限公司 一种基于物联网的工单全过程分配跟踪管理系统
WO2024042708A1 (ja) * 2022-08-26 2024-02-29 楽天モバイル株式会社 画面に表示される特定の要素の隠蔽を防ぐ動画表示

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
KR100754579B1 (ko) 1998-12-30 2007-12-11 삼성전자주식회사 이동통신단말기에서동영상표시방법
JP2003108283A (ja) * 2001-09-18 2003-04-11 Internatl Business Mach Corp <Ibm> コンピュータ装置、表示デバイス、表示制御装置、イメージの処理方法、表示解像度の変更処理方法、コンピュータプログラム
JP4174651B2 (ja) * 2002-01-23 2008-11-05 ソニー株式会社 画面表示制御方法および画面表示制御装置
JP2004260632A (ja) * 2003-02-26 2004-09-16 Sony Ericsson Mobilecommunications Japan Inc 携帯端末装置及び動画付加情報の編集方法
KR20060123033A (ko) 2005-05-28 2006-12-01 삼성전자주식회사 디스플레이 시스템 및 디스플레이장치와, 영상소스와디스플레이장치의 제어방법
US20070008338A1 (en) 2005-05-28 2007-01-11 Young-Chan Kim Display system, display apparatus, and method of controlling video source and display apparatus
JP4596156B2 (ja) 2005-08-11 2010-12-08 ブラザー工業株式会社 情報処理装置及びプログラム
JP2008040622A (ja) 2006-08-02 2008-02-21 Sharp Corp 広告提供システム、広告提供装置、広告表示装置、広告提供方法およびプログラム
WO2008040119A1 (en) * 2006-10-02 2008-04-10 Optosecurity Inc. Tray for assessing the threat status of an article at a security check point
KR101144423B1 (ko) * 2006-11-16 2012-05-10 엘지전자 주식회사 휴대 단말기 및 휴대 단말기의 화면 표시 방법
CN101569017B (zh) * 2006-12-25 2011-11-30 夏普株式会社 光电转换装置及其制造方法
JP4982505B2 (ja) * 2007-01-25 2012-07-25 シャープ株式会社 マルチウィンドウ管理装置及びプログラム、記憶媒体、並びに情報処理装置
KR101426718B1 (ko) 2007-02-15 2014-08-05 삼성전자주식회사 휴대단말기에서 터치 이벤트에 따른 정보 표시 장치 및방법
JP5219407B2 (ja) 2007-05-31 2013-06-26 株式会社エヌ・ティ・ティ・ドコモ 情報処理装置及びプログラム
US7956869B1 (en) 2007-07-13 2011-06-07 Adobe Systems Incorporated Proximity based transparency of windows aiding in obscured window selection
JP4342578B2 (ja) 2007-07-24 2009-10-14 株式会社エヌ・ティ・ティ・ドコモ 情報処理装置およびプログラム
JP2009109223A (ja) * 2007-10-26 2009-05-21 Mitsubishi Electric Corp 目的地設定履歴検索支援装置
KR20090077603A (ko) 2008-01-11 2009-07-15 엘지전자 주식회사 이동 단말기의 문자입력 장치 및 방법
KR101012300B1 (ko) * 2008-03-07 2011-02-08 삼성전자주식회사 터치스크린을 구비한 휴대 단말기의 사용자 인터페이스장치 및 그 방법
KR101482121B1 (ko) 2008-08-04 2015-01-13 엘지전자 주식회사 웹 브라우징이 가능한 휴대 단말기 및 그 제어방법
KR101505688B1 (ko) 2008-10-23 2015-03-24 엘지전자 주식회사 이동 단말기 및 그 정보 처리 방법
JP2010134625A (ja) 2008-12-03 2010-06-17 Sharp Corp 電子機器、表示制御方法、およびプログラム
KR101521932B1 (ko) 2009-01-19 2015-05-20 엘지전자 주식회사 단말기 및 그 제어 방법
KR101640460B1 (ko) 2009-03-25 2016-07-18 삼성전자 주식회사 휴대 단말기의 분할 화면 운용 방법 및 이를 지원하는 휴대 단말기
US20100277414A1 (en) * 2009-04-30 2010-11-04 Qualcomm Incorporated Keyboard for a portable computing device
KR101613838B1 (ko) 2009-05-19 2016-05-02 삼성전자주식회사 휴대 단말기의 홈 스크린 지원 방법 및 이를 지원하는 휴대 단말기
KR101092591B1 (ko) 2009-11-05 2011-12-13 주식회사 팬택 관통입력을 제공하는 단말 및 그 방법
KR20110121926A (ko) 2010-05-03 2011-11-09 삼성전자주식회사 터치 스크린에서 선택된 정보에 대응하는 부가정보를 포함하는 투명 팝업을 표시하는 방법 및 장치
US9483175B2 (en) * 2010-07-26 2016-11-01 Apple Inc. Device, method, and graphical user interface for navigating through a hierarchy
US8587547B2 (en) 2010-11-05 2013-11-19 Apple Inc. Device, method, and graphical user interface for manipulating soft keyboards
KR101199618B1 (ko) 2011-05-11 2012-11-08 주식회사 케이티테크 화면 분할 표시 장치 및 방법
US20160034178A1 (en) * 2012-01-05 2016-02-04 Lg Cns Co., Ltd. Virtual keyboard
KR102032449B1 (ko) * 2013-01-07 2019-10-15 삼성전자주식회사 이미지 표시 방법 및 휴대 단말

Also Published As

Publication number Publication date
AU2013371739A1 (en) 2015-05-21
US20140192090A1 (en) 2014-07-10
EP2752840A2 (en) 2014-07-09
KR20140089809A (ko) 2014-07-16
US20180025469A1 (en) 2018-01-25
US9779475B2 (en) 2017-10-03
CN107657934B (zh) 2021-03-12
KR102032449B1 (ko) 2019-10-15
EP2752840B1 (en) 2018-11-21
AU2013371739B2 (en) 2017-06-15
US10482573B2 (en) 2019-11-19
EP3495933B1 (en) 2021-08-18
CN104904126A (zh) 2015-09-09
WO2014107011A1 (en) 2014-07-10
US20200082500A1 (en) 2020-03-12
CN104904126B (zh) 2017-10-31
JP6999513B2 (ja) 2022-01-18
JP2016507822A (ja) 2016-03-10
CN107657934A (zh) 2018-02-02
JP2018185845A (ja) 2018-11-22
EP3495933A1 (en) 2019-06-12
US11024003B2 (en) 2021-06-01
EP2752840A3 (en) 2014-11-05

Similar Documents

Publication Publication Date Title
JP6999513B2 (ja) イメージ表示方法及び携帯端末
US10379809B2 (en) Method for providing a voice-speech service and mobile terminal implementing the same
JP6139397B2 (ja) マウス機能提供方法およびこれを具現する端末
KR102190904B1 (ko) 윈도우 제어 방법 및 이를 지원하는 전자장치
JP6138146B2 (ja) メッセージ管理方法及び装置
US20150012881A1 (en) Method for controlling chat window and electronic device implementing the same
US20170003812A1 (en) Method for providing a feedback in response to a user input and a terminal implementing the same
JP6313028B2 (ja) タッチ入力方法及び携帯端末
KR20140065831A (ko) 데이터 제공 방법 및 휴대 단말
US9658865B2 (en) Method of editing content and electronic device for implementing the same
KR20130133980A (ko) 터치스크린을 가진 단말에서 오브젝트 이동 방법 및 장치
JP6251555B2 (ja) アプリケーション情報提供方法および携帯端末
AU2013231179A1 (en) Method for controlling camera and mobile device
KR102191376B1 (ko) 이미지 표시 방법 및 휴대 단말
KR102076193B1 (ko) 이미지 표시 방법 및 휴대 단말

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161227

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171016

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180521

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180704

R150 Certificate of patent or registration of utility model

Ref document number: 6367231

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250