JP2016057759A - 電子機器、方法およびプログラム - Google Patents

電子機器、方法およびプログラム Download PDF

Info

Publication number
JP2016057759A
JP2016057759A JP2014182397A JP2014182397A JP2016057759A JP 2016057759 A JP2016057759 A JP 2016057759A JP 2014182397 A JP2014182397 A JP 2014182397A JP 2014182397 A JP2014182397 A JP 2014182397A JP 2016057759 A JP2016057759 A JP 2016057759A
Authority
JP
Japan
Prior art keywords
display
image
enlargement
movement
reduction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014182397A
Other languages
English (en)
Inventor
勇宇次 入本
Yuji Irimoto
勇宇次 入本
大介 平川
Daisuke Hirakawa
大介 平川
孝子 鈴木
Takako Suzuki
孝子 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2014182397A priority Critical patent/JP2016057759A/ja
Priority to US14/733,587 priority patent/US20160070450A1/en
Publication of JP2016057759A publication Critical patent/JP2016057759A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】オブジェクトに対する処理の実行を指示するための操作子を操作する利便性を向上させる。
【解決手段】オブジェクトと、オブジェクトの端部のいずれかの位置を基準として定められる第1位置にオブジェクトに対する処理の実行を指示するための操作子を、ディスプレイの表示領域に表示する。操作子は、オブジェクトの移動、拡大、又は縮小のいずれか少なくとも1つに伴って移動する。オブジェクトの移動、拡大、又は縮小のいずれかがなされた後のオブジェクトの端部のいずれかの位置を基準として定められる第2位置が、ディスプレイの表示領域に含まれる場合、操作子を第2位置に表示する。オブジェクトの移動、拡大、又は縮小のいずれかがなされた後のオブジェクトの端部のいずれかの位置を基準として定められる第3位置が、ディスプレイの表示領域に含まれない場合、操作子を、ディスプレイの表示領域内で、第3位置とは異なる第4位置に表示する。
【選択図】図1

Description

本発明の実施形態は、電子機器、方法およびプログラムに関する。
画像コラージュアプリケーションやプレゼンテーションアプリケーションなど、表示部の表示画面に対して表示されたオブジェクトの配置,移動,拡大,縮小,回転等の処理を自由に実行可能なアプリケーションがある。
特開2010−262660号公報
ところで、上述のアプリケーションにおいては、オブジェクトの端部に配置されたUI(User Interface)等のオブジェクトを用いることによって、オブジェクトに対する処理の実行を指示することができる。しかしながら、オブジェクトのサイズの変更等によってUIが表示画面外へ移動してしまった場合に、UIを用いてオブジェクトに対する処理の実行を指示するためには、オブジェクトを、一旦、表示画面内に移動させて、UIを用いたオブジェクトに対する処理の実行を指示する必要がある。
実施形態の電子機器は、プロセッサを備える。プロセッサは、第1オブジェクトと、第1オブジェクトの端部のいずれかの位置を基準として定められる第1位置に第1オブジェクトに対する処理の実行を指示するための第1操作子とを、ディスプレイの表示領域に表示する。第1操作子は、第1オブジェクトの移動、拡大、又は縮小のいずれか少なくとも1つに伴って移動する。プロセッサは、第1オブジェクトの移動、拡大、又は縮小のいずれかがなされた場合であって、移動、拡大、又は縮小のいずれかがなされた後の第1オブジェクトの端部のいずれかの位置を基準として定められる第2位置が、ディスプレイの表示領域に含まれる場合、第1操作子を第2位置に表示する。プロセッサは、第1オブジェクトの移動、拡大、又は縮小のいずれかがなされた場合であって、移動、拡大、又は縮小のいずれかがなされた後の第1オブジェクトの端部のいずれかの位置を基準として定められる第3位置が、ディスプレイの表示領域に含まれない場合、第1操作子を、ディスプレイの表示領域内であって、第3位置とは異なる第4位置に表示する。
図1は、第1の実施形態にかかるタブレット端末の外観の一例を示す図である。 図2は、第1の実施形態にかかるタブレット端末のハードウェア構成の一例を示す図である。 図3は、第1の実施形態にかかるタブレット端末によるイメージの編集処理の流れを示すフローチャートである。 図4は、第1の実施形態にかかるタブレット端末によって表示されるフレーム選択画面の一例を示す図である。 図5は、第1の実施形態にかかるタブレット端末によって表示される画像選択画面の一例を示す図である。 図6は、第1の実施形態にかかるタブレット端末によって表示される編集画面の一例を示す図である。 図7は、第1の実施形態にかかるタブレット端末によって表示される画像編集画面の一例を示す図である。 図8は、第1の実施形態にかかるタブレット端末による操作子の移動処理の一例を示す図である。 図9は、第1の実施形態にかかるタブレット端末によって表示されるスタンプ選択画面の一例を示す図である。 図10は、第1の実施形態にかかるタブレット端末によって表示されるテキスト編集画面の一例を示す図である。 図11は、第1の実施形態にかかるタブレット端末によって表示される背景選択画面の一例を示す図である。 図12は、第1の実施形態にかかるタブレット端末によって表示されるレイアウト変更画面の一例を示す図である。 図13は、第1の実施形態にかかるタブレット端末において表示される保存画面の一例を示す図である。 図14は、第2の実施形態にかかるタブレット端末による操作子の表示方法の一例を説明するための図である。 図15は、第2の実施形態にかかるタブレット端末による操作子の表示方法の一例を説明するための図である。 図16は、第2の実施形態にかかるタブレット端末による操作子の表示方法の一例を説明するための図である。 図17は、第2の実施形態にかかるタブレット端末による操作子の表示方法の一例を説明するための図である。 図18は、第2の実施形態にかかるタブレット端末による操作子の表示方法の一例を説明するための図である。
以下、添付の図面を用いて、本実施形態にかかる電子機器、方法およびプログラムを適用したタブレット端末について説明する。
(第1の実施形態)
図1は、第1の実施形態にかかるタブレット端末の外観の一例を示す図である。本実施形態にかかるタブレット端末1は、図1に示すように、本体部11と、表示部12と、を備える。本体部11は、薄い箱型の筐体を有する。表示部12(ディスプレイの一例)は、LCD(Liquid Crystal Display)等で構成された表示画面13と、静電容量式のタッチパネルや電磁誘導方式のデジタイザ等によって構成され、当該表示画面13上でのスタイラスペンまたは指等によるタッチ操作(タップ)を検出可能に設けられたタッチパネル14と、を有するタッチパネルディスプレイである。
図2は、第1の実施形態にかかるタブレット端末のハードウェア構成の一例を示す図である。本実施形態にかかるタブレット端末1は、図2に示すように、CPU(Central Processing Unit)101と、システムコントローラ102と、メインメモリ103と、グラフィックスコントローラ104と、BIOS(Basic Input / Output)−ROM(Read Only Memory)105と、不揮発性メモリ106と、無線通信デバイス107と、エンベデットコントローラ(EC)108と、カメラモジュール109と、電話回線通信モジュール111と、スピーカモジュール112と、GPS(Global Positioning System)受信部113と、を備える。
CPU101は、タブレット端末1の各種モジュールの動作を制御する制御部として機能するプロセッサ(コンピュータ)の一例である。具体的には、CPU101は、BIOS−ROM105に記憶されたBIOSを実行する。その後、CPU101は、記憶装置の一例である不揮発性メモリ106からメインメモリ103にロードされる各種プログラムを実行する。CPU101によって実行されるプログラムには、OS(Operating System)201、画像管理プログラムな202どの各種アプリケーションプログラムが含まれる。
ここで、画像管理プログラム202は、カメラモジュール109の撮像により得られた画像データ、不揮発性メモリ106に記憶された画像データ、サーバ等の外部記憶装置に記憶された画像データ等に対する各種処理を実行する機能を有する。
システムコントローラ102は、CPU101のローカルバスと各種モジュールとの間を接続するデバイスである。また、システムコントローラ102は、メインメモリ103に対するアクセスを制御するメモリコントローラを有している。また、システムコントローラ102は、PCI EXPRESS規格のシリアルバス等を介してグラフィックスコントローラ104と通信する機能を有している。
グラフィックスコントローラ104は、表示部102を制御する表示制御部として機能する。具体的には、グラフィックスコントローラ104は、表示部102に対して各種情報を表示させる場合、各種情報を表示するための表示信号を生成し、当該表示信号を表示画面13に出力することによって、各種情報を表示画面13に表示させる。
無線通信デバイス107は、無線LAN(Local Area Network)やBluetooth(登録商標)等によって外部機器との無線通信を実行するデバイスである。エンベデットコントローラ108は、タブレット端末1の電源をオンまたはオフする。
カメラモジュール109は、本体部11において、表示画面13が設けられた面とは反対側の面から、タブレット端末1の周囲を撮像可能に設けられた撮像部として機能する。本実施形態では、カメラモジュール109は、ユーザが表示画面13に表示されたボタンに対してタッチ操作を行ったことがタッチパネル14によって検出された場合に、タブレット端末1の周囲の撮像を行う。スピーカモジュール112は、システムコントローラ102を介してCPU101から入力される音信号に基づいて、音声等の音を出力する。
電話回線通信モジュール111は、例えば3G等の移動通信システムを用いて、基地局を介して外部機器とデータ通信を行うためのモジュールである。GPS受信部113は、GPSで計測されたタブレット端末1の位置情報を受信する。
次に、図3を用いて、本実施形態にかかるタブレット端末1によるイメージの編集処理について説明する。図3は、第1の実施形態にかかるタブレット端末によるイメージの編集処理の流れを示すフローチャートである。本実施形態では、CPU101が、不揮発性メモリ106に記憶されたプログラム(画像管理プログラム202等)を実行することによって、以下に示すイメージの編集処理を実行するが、これに限定するものではなく、複数のプロセッサ(例えば、タブレット端末1が備えるCPU101および外部機器が備えるCPU等)がプログラムを実行することによって、以下に示すイメージの編集処理を実行するように構成しても良い。
本実施形態では、CPU101は、表示画面13に表示されたボタンに対するタッチ操作がタッチパネル14によって検出されて、イメージ(例えば、カメラモジュール109の撮像により得られた画像データに基づく画像、不揮発性メモリ106や外部記憶装置に記憶された画像データに基づく画像など)の編集処理が指示されると、イメージの表示に用いるフレームを選択するためのフレーム選択画面を表示画面13に表示させる。CPU101は、フレーム選択画面を用いて選択されたフレームを、イメージの表示に用いるフレームとして選択する(ステップS301)。
図4は、第1の実施形態にかかるタブレット端末によって表示されるフレーム選択画面の一例を示す図である。CPU101は、図4に示すように、フレーム内においてイメージを配置する領域であるイメージ表示領域の境界線(枠)を移動できないフレーム(以下、固定フレームと言う)の一覧が配置された固定フレーム領域G11と、フレーム内においてイメージ表示領域の枠を移動可能なフレーム(以下、可変フレームと言う)の一覧が表示された可変フレーム領域G12と、を含むフレーム選択画面G1を表示画面13に表示させる。そして、CPU101は、フレーム選択画面G1に配置させたフレームのうち、タッチパネル14によってタッチ操作Tが検出されたフレームを、イメージの表示に用いるフレームとして選択する。
図3に戻り、CPU101は、イメージの表示に用いるフレームが選択されると、当該選択したフレーム内に配置するイメージを選択するための画像選択画面を表示画面13に表示させる。そして、CPU101は、画像選択画面を用いて選択されたイメージを、フレーム内に配置するイメージとして選択する(ステップS302)。
図5は、第1の実施形態にかかるタブレット端末によって表示される画像選択画面の一例を示す図である。CPU101は、図5(a)に示すように、フレーム選択画面G1を用いて選択したフレームFと、当該フレームFに配置可能なイメージの一覧501とを含む画像選択画面G2を表示画面13に表示させる。CPU101は、フレームF内のイメージ表示領域Rのうち、タッチパネル14によってタッチ操作Tが検出されたイメージ表示領域Rを、表示するイメージを選択する選択領域として選択する。次いで、CPU101は、図5(b)に示すように、イメージの一覧501に配置されたイメージのうち、タッチパネル14によってタッチ操作が検出されたイメージを、選択領域に配置するイメージとして選択する。CPU101は、フレームF内の全てのイメージ表示領域Rに配置させるイメージが選択されるまで、イメージの一覧501からのイメージの選択を繰り返す。
図3に戻り、CPU101は、フレーム内に配置するイメージが選択されると、当該選択されたイメージが配置されたフレームに対する編集処理の実行を指示するための編集画面を表示画面13に表示させる。そして、CPU101は、選択したイメージが配置されたフレームに対して、編集画面を用いて指示された編集処理を実行する(ステップS303)。
図6は、第1の実施形態にかかるタブレット端末によって表示される編集画面の一例を示す図である。CPU101は、図6に示すように、選択したイメージが配置されたフレームFと、フレーム選択画面G1の再表示を指示するためのフレーム選択ボタンB1と、フレームFに配置されたイメージに対する編集処理の実行を指示するための画像編集ボタンB2と、フレームFに対するスタンプの貼付処理の実行を指示するためのスタンプ貼付ボタンB3と、フレームFに対するテキストの貼付処理の実行を指示するためのテキスト貼付ボタンB4と、フレームFに配置されたイメージの背景画像の選択を指示するための背景選択ボタンB5と、フレーム選択画面G1で選択されたフレームが可変フレームである場合に当該可変フレームのレイアウトの変更を指示するためのレイアウト変更指示ボタンB6と、フレームFの不揮発性メモリ106への保存を指示するための保存ボタンB7と、が配置された編集画面G3を表示画面13に表示させる。
以下、フレーム選択ボタンB1、画像編集ボタンB2、スタンプ貼付ボタンB3、テキスト貼付ボタンB4、背景選択ボタンB5、レイアウト変更指示ボタンB6および保存ボタンB7を区別する必要が無い場合には、各種ボタンBと記載する。
次に、画像編集ボタンB2を用いてフレームに配置されたイメージに対する編集処理の実行が指示された場合におけるイメージに対する編集処理について説明する。画像編集ボタンB2を用いてイメージに対する編集処理の実行が指示されると、CPU101は、当該イメージに対する編集処理を実行するための画像編集画面を表示画面13に表示させる。
図7は、第1の実施形態にかかるタブレット端末によって表示される画像編集画面の一例を示す図である。図8は、第1の実施形態にかかるタブレット端末による操作子の移動処理の一例を示す図である。CPU101は、図7(a)に示すように、フレームFと、各種ボタンBと、フレームF内に配置されたイメージの端部のいずれかの位置を基準として定められる位置(第1位置)に当該イメージに対する編集処理(処理の一例)の実行を指示するための操作子UI1,UI2,UI3,UI4と、を含む画像編集画面G4を表示画面13に表示させる。以下、操作子UI1,UI2,UI3,UI4を区別する必要が無い場合には、操作子UIと記載する。
本実施形態では、フレーム内のイメージ表示領域を含みかつ当該イメージ表示領域より大きい画像編集画面G4に対して、操作子UIを表示させているが、イメージ表示領域を含む表示領域に対して操作子UIを表示させるものであれば、これに限定するものではなく、例えば、イメージ表示領域と同一の領域を、操作子UIを表示させる領域としても良い。
ここで、操作子UI1は、画像選択ボタンB2により選択されたイメージのフレームFからの削除処理の実行を指示するためのオブジェクトである。操作子UI2は、画像選択ボタンB2により選択されたイメージの拡大または縮小を指示するためのオブジェクトである。操作子UI3は、画像選択ボタンB2により選択されたイメージに対するエフェクト処理(例えば、エッジの強調など)を指示するためのオブジェクトである。操作子UI4は、画像選択ボタンB2により選択されたイメージの回転を指示するためのオブジェクトである。
CPU101は、複数の操作子UIを画像編集画面G4に表示させる場合、複数の操作子UIを所定の位置関係に従って画像編集画面G4に表示させる。ここで、所定の位置関係は、複数の操作子UIに対して予め設定された位置関係である。本実施形態では、所定の位置関係は、図7(a)に示すように、各操作子UIが、イメージの端部に沿った矩形状の枠であるイメージ枠Wの異なる角部に配置される位置関係である。
CPU101は、タッチパネル14によって検出されたタッチ操作が行われた操作子UIによって指示された編集処理を、当該操作子UIが配置されたイメージ枠W内のイメージに対して実行する。その際、CPU101は、画像選択ボタンB2により選択されたイメージに対する編集処理によって、イメージが回転、移動、拡大、または縮小等(以下、移動等と言う)した場合、当該イメージの移動等のいずれか少なくとも1つに伴って操作子UIも移動させる(図7(a)参照)。
また、CPU101は、イメージの移動等のいずれかがなされた場合であって、移動等のいずれかがなされた後のイメージの端部のいずれかの位置を基準として定められる少なくとも1つの操作子UI(例えば、操作子UI2)の位置(第2位置)が画像編集画面G4内に含まれる場合、当該操作子UIを当該位置に表示する。一方、CPU101は、イメージの移動等のいずれかがなされた場合であって、移動等のいずれかがなされた後のイメージの端部のいずれかの位置を基準として定められる少なくとも1つの操作子UI(例えば、操作子UI2)の位置(第3位置)が画像編集画面G4外に移動した場合(図7(a)参照)、当該操作子UIを画像編集画面G4内であって、当該位置とは異なる位置(第4位置)に表示させる。これにより、イメージの移動によって操作子UIが画像編集画面G4外に移動した場合でも、イメージを再度移動させることなく、操作子UIを用いて各種処理の実行を指示することができるので、操作子UIを操作するユーザの利便性を向上させることができる。
CPU101は、複数の操作子UIを画像編集画面G4内に移動させる際、複数の操作子UIを所定の位置関係を維持したまま画像編集画面G4内に表示させる。本実施形態では、CPU101は、イメージを縮小化した仮想オブジェクトを画像編集画面G4内に表示させ、複数の操作子UIを、仮想オブジェクトの角部に所定の位置関係を維持したまま画像編集画面G4内に表示させる。仮想オブジェクトの角部は、イメージの移動等のいずれかがなされた後のイメージの一部であって、イメージを縮小して得られる領域(第2領域)の端部のいずれかの位置を基準として定められる第4位置の一例である。ここで、第2領域は、イメージの移動等のいずれかがなされた後のイメージの中心点を基準に、イメージを縮小して得られる領域である。そして、移動等のいずれかがなされた後のイメージの形状と、第2領域の形状とは、移動等がなされた後のイメージの形状の中心点を基準に相似形である。
例えば、CPU101は、図8に示すように、フレームF内のイメージ表示領域Rに表示されたイメージ801の拡大に伴って操作子UI1,UI3が非表示状態(すなわち、画像編集画面G4外に移動した状態)となった場合、イメージ801を縮小化した仮想オブジェクトVOを画像編集画面G4内に表示させる。そして、CPU101は、図8に示すように、複数の操作子UI1,UI2,UI3,UI4を、仮想オブジェクトVOの角部に所定の位置関係を維持したまま表示させる。
これにより、イメージ801の移動に伴って画像編集画面G4外に移動した操作子UIを画像編集画面G4内に移動させた場合に、イメージ801の移動前と同様の位置関係で複数の操作子UIが画像編集画面G4内に表示されるので、操作子UIの利便性をさらに向上させることができる。
本実施形態では、操作子UIが画像編集画面G4外に移動した場合に、イメージを縮小化した仮想オブジェクトの端部に複数の操作子UIを表示させることで、当該複数の操作子UIを所定の位置関係を維持したまま表示させているが、複数の操作子UIを所定の位置関係で表示させるものであれば、これに限定するものではなく、例えば、イメージと同様の縦横比またはイメージの同じ角度の角部を有する矩形状のオブジェクトの端部に複数の操作子UIを表示させることで、当該複数の操作子UIを所定の位置関係で表示させても良い。
本実施形態では、イメージの拡大処理によって操作子UIが画像編集画面G4外に移動した場合における操作子UIの画像編集画面G4内への移動方法について説明したが、イメージの移動等によってイメージの表示領域が移動して操作子UIが画像編集画面G4外に移動した場合も同様にして、操作子UIを画像編集画面G4内に移動させる。
次に、スタンプ貼付ボタンB3を用いてスタンプの貼付処理の実行が指示された場合におけるスタンプの貼付処理について説明する。スタンプ貼付ボタンB3を用いてスタンプの貼付処理の実行が指示されると、CPU101は、フレームに貼り付けるスタンプの選択および当該スタンプに対する編集処理を実行するためのスタンプ選択画面を表示画面13に表示させる。
図9は、第1の実施形態にかかるタブレット端末によって表示されるスタンプ選択画面の一例を示す図である。CPU101は、図9(a)に示すように、フレームFと、各種ボタンBと、フレームFに貼付可能なスタンプの一覧901と、を含むスタンプ選択画面G5を表示画面13に表示させる。
本実施形態では、CPU101は、スタンプ選択画面G5に表示されたスタンプの一覧901のうち、タッチパネル14により検出されたタッチ操作Tが行われたスタンプを、フレームFに貼り付ける。そして、CPU101は、フレームFにスタンプが貼り付けられた場合、図9(b)に示すように、フレームFに貼り付けたスタンプ(第1オブジェクトの一例)の端部のいずれかの位置を基準として定めらる位置(第1位置)に当該スタンプに対する編集処理(処理の一例)の実行を指示するための操作子UI1,UI2,UI4をスタンプ選択画面G5に配置する。
その際、CPU101は、図9(b)に示すように、イメージの端部に操作子UIを配置する場合と同様に、複数の操作子UIを、スタンプの端部に沿った矩形状の枠であるイメージ枠Wの異なる角部に対して、所定の位置関係で表示させる。
スタンプ選択画面G5に表示された操作子UIによって指示されるスタンプに対する処理、およびスタンプ選択画面G5における操作子UIの表示方法は、画像編集画面G4における操作子UIによって指示されるイメージに対する処理、および画像編集画面G4における操作子UIの表示方法と同様である。
次に、テキスト貼付ボタンB4を用いてテキストの貼付処理の実行が指示された場合におけるテキストの貼付処理について説明する。テキスト貼付ボタンB4を用いてテキストの貼付処理の実行が指示されると、CPU101は、フレームに貼り付けるテキストの選択および当該テキストに対する編集処理を実行するためのテキスト編集画面を表示画面13に表示させる。
図10は、第1の実施形態にかかるタブレット端末によって表示されるテキスト編集画面の一例を示す図である。CPU101は、図10(a)に示すように、フレームFと、各種ボタンBと、フレームFに貼り付けたテキスト1001の書式(例えば、フォント,サイズ,太字や斜体などのスタイル,文字色,左寄せや右寄せや中央揃えなどの文字位置など)を設定するための書式設定ツール1002と、を含むテキスト編集画面G6を表示画面13に表示させる。
本実施形態では、CPU101は、テキスト編集画面G6が表示画面13に表示された後、タッチパネル14によってフレームFに対するタッチ操作が検出された場合、フレームFに貼り付けるテキストを入力するためのテキスト入力ボックス(図示しない)を表示画面13に表示させる。そして、CPU101は、当該テキスト入力ボックスを用いてテキストが入力されると、入力されたテキスト1001(第1オブジェクトの一例)をフレームFに貼り付ける。フレームFにテキスト1001を貼り付けた場合、CPU101は、図10(a)および図10(b)に示すように、フレームFに貼り付けたテキスト1001の端部のいずれかの位置を基準として定められる位置(第1位置)に当該テキスト1001に対する編集処理(処理の一例)の実行を指示するための操作子UI1,UI2,UI4をテキスト編集画面G6に配置する。
その際、CPU101は、図10(a)および図10(b)に示すように、イメージの端部に操作子UIを配置する場合と同様に、複数の操作子UIを、テキスト1001の端部に沿った矩形状の枠であるイメージ枠Wの異なる角部に対して、所定の位置関係で表示させる。
テキスト編集画面G6に表示された操作子UIによって指示されるテキスト1001に対する処理、およびテキスト編集画面G6における操作子UIの表示方法は、画像編集画面G4における操作子UIによって指示されるイメージに対する処理、および画像編集画面G4における操作子UIの表示方法と同様である。
次に、背景選択ボタンB5を用いて背景画像の選択が指示された場合における背景画像の選択処理について説明する。背景選択ボタンB5を用いてフレームに配置されたイメージの背景画像の選択処理の実行が指示されると、CPU101は、フレームに配置されたイメージの背景画像を選択するための背景選択画面を表示画面13に表示させる。
図11は、第1の実施形態にかかるタブレット端末によって表示される背景選択画面の一例を示す図である。CPU101は、図11に示すように、フレームFと、各種ボタンBと、フレームFに配置されたイメージの背景画像として選択可能な背景画像の一覧1101と、を含む背景選択画面G7を表示画面13に表示させる。本実施形態では、CPU101は、背景選択画面G7に表示された背景画像の一覧1101のうち、タッチパネル14により検出されたタッチ操作Tが行われた背景画像を、フレームFに配置されたイメージの背景画像とする。
次に、レイアウト変更指示ボタンB6を用いてフレーム(可変フレーム)のレイアウトの変更が指示された場合におけるフレームのレイアウトの変更処理について説明する。レイアウト変更指示ボタンB6を用いてフレームのレイアウトの変更が指示されると、CPU101は、フレームのレイアウトを変更するためのレイアウト変更画面を表示画面13に表示させる。
図12は、第1の実施形態にかかるタブレット端末によって表示されるレイアウト変更画面の一例を示す図である。CPU101は、図12(a)に示すように、フレームFと、各種ボタンBと、フレームFのレイアウト(例えば、フレームF内における余白、フレームF内に配置された複数のイメージの間隔)の変更を指示するためのレイアウト変更ツール1201と、フレームFの変更を指示するためのフレーム変更ボタン1202と、を含むレイアウト変更画面G8を表示画面13に表示させる。
本実施形態では、CPU101は、図12(a)に示すように、タッチパネル14によってイメージの端部に対するタッチ操作Tが検出されかつ当該タッチ操作Tが解除されずに移動した場合、図12(b)に示すように、フレームFのサイズを変更する。また、CPU101は、レイアウト変更ツール1201によってフレームF内の余白の変更が指示された場合、図12(c)に示すように、フレームF内における余白を変更する。また、CPU101は、図示しない角丸ツールを用いて、フレームF内のイメージ表示領域の角を丸めることが指示された場合、図12(d)に示すように、フレームF内のイメージ表示領域の角を丸める処理を実行する。また、CPU101は、レイアウト変更ツール1201によってフレームF内のイメージ表示領域の間隔の変更が指示された場合、図12(e)に示すように、フレームF内のイメージ表示領域間の間隔を変更する。
さらに、CPU101は、図12(f)に示すように、フレーム変更ボタン1202を用いてフレームFの変更が指示される度に、イメージを配置するフレームFを、予め設定された順番に従って他のフレームに変更する。その際、CPU101は、変更されたフレームF内のイメージ表示領域の数が、図5に示す画像選択画面G2を用いて選択されたイメージの数よりも多い場合、フレームF内のイメージ表示領域のうち、イメージが配置されないイメージ表示領域を空欄とする。
次に、保存ボタンB7を用いてフレームの不揮発性メモリ106への保存が指示された場合におけるフレームの保存処理について説明する。図13は、第1の実施形態にかかるタブレット端末において表示される保存画面の一例を示す図である。CPU101は、図13に示すように、保存ボタンB7を用いてフレームの保存が指示されると、イメージが配置されたフレームFの画像データを不揮発性メモリ106等の記憶装置に保存する。CPU101は、不揮発性メモリ106等へのフレームFの画像データの保存が完了するまで、図13に示すように、保存する画像データのフレームFが配置された保存画面G9を表示画面13に表示させる。
このように、第1の実施形態のタブレット端末1によれば、イメージ,スタンプ,テキスト等のオブジェクトの移動によって操作子UIが表示領域外に移動した場合でも、オブジェクトを再度移動させることなく、操作子UIを用いて各種処理の実行を指示することができるので、操作子UIを操作するユーザの利便性を向上させることができる。
(第2の実施形態)
本実施形態は、オブジェクトの端部から、当該オブジェクトの外側に向かって所定距離離れた位置に操作子が配置されている例である。以下の説明では、第1の実施形態と異なる箇所について説明する。
図14〜18は、第2の実施形態にかかるタブレット端末による操作子の表示方法の一例を説明するための図である。本実施形態では、CPU101は、図14に示すように、イメージ,スタンプ,テキスト等の矩形状のオブジェクトO(第1オブジェクトの一例)を表示画面13に表示させる。さらに、CPU101は、図14に示すように、表示画面13に表示させたオブジェクトOの角部(端部の一例)に配置された操作子UI1,UI2,UI3,UI4に加えて、オブジェクトOの上辺の中心C0(端部の一例)から当該オブジェクトOの外側に向かって所定距離d離れた位置に操作子UI5を表示させる。
本実施形態では、CPU101は、表示画面13に表示された操作子UIを用いてオブジェクトOの拡大等が指示されると、図14に示すように、オブジェクトOの拡大処理等を実行する。そして、オブジェクトOの拡大等のいずれかがなされた場合であって、拡大等のいずれかがなされた後のオブジェクトOの端部のいずれかの位置を基準として定められる位置(第2位置)が、表示画面13の表示領域に含まれる場合、CPU101は、操作子UIを当該第2位置に表示する。一方、オブジェクトOの拡大処理等のいずれかがなされた場合であって、拡大等のいずれかがなされた後のオブジェクトOの端部のいずれか位置を基準として定められる位置(第3位置)が、表示画面13の表示領域に含まれない場合、CPU101は、図14に示すように、表示画面13においてオブジェクトOが表示されていない非表示領域1401(表示画面13の表示領域内であって、第3位置とは異なる位置の一例)に複数の操作子UIを移動させる。これにより、イメージの移動によって操作子UIが表示画面13外に移動した場合でも、イメージを再度移動させることなく、操作子UIを用いて各種処理の実行を指示することができるので、操作子UIを操作するユーザの利便性を向上させることができる。
その際、CPU101は、複数の操作子UIを所定の位置関係で表示画面13内に表示させる。具体的には、CPU101は、図14に示すように、仮想オブジェクトVOの角部と、当該仮想オブジェクトVOの上辺の中心から当該仮想オブジェクトVOの外側に向かって所定距離D離れた位置とに、複数の操作子UIを表示させる。ここで、仮想オブジェクトVOは、オブジェクトOを縮小化したオブジェクト若しくはオブジェクトOの端部に沿った矩形状の枠等である。これにより、オブジェクトOの移動に伴って表示画面13外に移動した操作子UIを表示画面13内に移動させた場合に、オブジェクトOの移動前と同様の位置関係で複数の操作子UIが表示画面13内に表示されるので、操作子UIの利便性をさらに向上させることができる。
または、CPU101は、図15に示すように、オブジェクトOの拡大処理等によって操作子UI1,UI2,UI4,UI5が表示画面13外に移動した場合、拡大処理等を行ったオブジェクトOのうち表示画面13内に位置する表示領域R1の中心C1から所定範囲R2内に、複数の操作子UI1,UI2,UI3,UI4,UI5を表示させても良い。ここでは、CPU101は、表示領域R1の中心C1を基準として定められる位置に複数の操作子UIを表示させているが、拡大処理等のいずれかがなされた後のオブジェクトOの一部であって、表示画面13に含まれる領域の端部のいずれかの位置を基準として定められる位置に操作子UIを表示するものであれば、これに限定するものではない。
例えば、CPU101は、図16に示すように、オブジェクトOの拡大処理等によって操作子UI1,UI2,UI4,UI5が表示画面13外に移動した場合、拡大処理等を行ったオブジェクトOの中心C2から所定範囲R3内に、複数の操作子UI1,UI2,UI3,UI4,UI5を表示させても良い。これにより、操作子UIがオブジェクトOの移動方向にずれて表示されるので、オブジェクトOがどの方向に移動しているかを容易に特定することができる。
また、CPU101は、図17に示すように、オブジェクトOの拡大処理等によって操作子UI1,UI2,UI4,UI5が表示画面13外に移動した場合、オブジェクトOのうち表示画面13内の表示領域R1の角部(端部の一例)に対して、操作子UIを表示させる。若しくは、CPU101は、図18に示すように、オブジェクトOの拡大処理等によって操作子UI1,UI2,UI4,UI5が表示画面13外に移動した場合、表示領域R1の一部の部分領域r(例えば、表示領域R1の角部近傍の矩形状の部分領域など)に操作子UIを表示させる。
このように、第2の実施形態のタブレット端末1によれば、オブジェクトOの端部から、当該オブジェクトOの外側に向かって所定距離離れた位置に操作子UIが配置されている場合であっても、第1の実施形態と同様の作用効果を得ることができる。
以上説明したとおり、第1,2の実施形態によれば、操作子UIを操作するユーザの利便性を向上させることができる。
なお、本実施形態のタブレット端末1で実行されるプログラムは、ROM等の不揮発性メモリ106に予め組み込まれて提供されるが、これに限定するものではなく、例えば、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成しても良い。
さらに、本実施形態のタブレット端末1で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、本実施形態のタブレット端末1で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1 タブレット端末
11 本体部
12 表示部
13 表示画面
14 タッチパネル
101 CPU
102 システムコントローラ
103 メインメモリ
104 グラフィックスコントローラ
105 BIOS−ROM
106 不揮発性メモリ
107 無線通信デバイス
108 エンベデットコントローラ
109 カメラモジュール
111 電話回線通信モジュール
112 スピーカモジュール
113 GPS受信部

Claims (15)

  1. 第1オブジェクトと、前記第1オブジェクトの端部のいずれかの位置を基準として定められる第1位置に前記第1オブジェクトに対する処理の実行を指示するための第1操作子とを、ディスプレイの表示領域に表示するプロセッサを備え、
    前記第1操作子は、前記第1オブジェクトの移動、拡大、又は縮小のいずれか少なくとも1つに伴って移動するものであって、
    前記第1オブジェクトの移動、拡大、又は縮小のいずれかがなされた場合であって、移動、拡大、又は縮小のいずれかがなされた後の前記第1オブジェクトの端部のいずれかの位置を基準として定められる第2位置が、前記ディスプレイの表示領域に含まれる場合、前記プロセッサは、前記第1操作子を前記第2位置に表示するものであって、
    前記第1オブジェクトの移動、拡大、又は縮小のいずれかがなされた場合であって、移動、拡大、又は縮小のいずれかがなされた後の前記第1オブジェクトの端部のいずれかの位置を基準として定められる第3位置が、前記ディスプレイの表示領域に含まれない場合、前記プロセッサは、前記第1操作子を、前記ディスプレイの表示領域内であって、前記第3位置とは異なる第4位置に表示する電子機器。
  2. 前記第4位置は、移動、拡大、又は縮小のいずれかがなされた後の前記第1オブジェクトの一部であって、前記ディスプレイの表示領域に含まれる第1領域の端部のいずれかの位置を基準として定められる位置である請求項1に記載の電子機器。
  3. 前記第4位置は、移動、拡大、又は縮小のいずれかがなされた後の前記第1オブジェクトの一部であって、前記第1オブジェクトを縮小して得られる第2領域の端部のいずれかの位置を基準として定められる位置である請求項1または2に記載の電子機器。
  4. 前記第2領域は、移動、拡大、又は縮小のいずれかがなされた後の前記第1オブジェクトの中心点を基準に、前記第1オブジェクトを縮小して得られる領域であって、
    移動、拡大、又は縮小のいずれかがなされた後の前記第1オブジェクトの形状と、前記第2領域の形状とは、移動、拡大、又は縮小のいずれかがなされた後の前記第1オブジェクトの形状の中心点を基準に相似形である請求項3に記載の電子機器。
  5. 前記第4位置は、移動、拡大、又は縮小のいずれかがなされた後の前記第1オブジェクトのうち前記ディスプレイの表示領域に含まれる第4領域の端部、若しくは前記第1オブジェクトのうち前記ディスプレイの表示領域内の一部の領域である請求項1から4のいずれか一に記載の電子機器。
  6. 第1オブジェクトと、前記第1オブジェクトの端部のいずれかの位置を基準として定められる第1位置に前記第1オブジェクトに対する処理の実行を指示するための第1操作子とを、ディスプレイの表示領域に表示し、
    前記第1操作子は、前記第1オブジェクトの移動、拡大、又は縮小のいずれか少なくとも1つに伴って移動するものであって、
    前記第1オブジェクトの移動、拡大、又は縮小のいずれかがなされた場合であって、移動、拡大、又は縮小のいずれかがなされた後の前記第1オブジェクトの端部のいずれかの位置を基準として定められる第2位置が、前記ディスプレイの表示領域に含まれる場合、前記第1操作子を前記第2位置に表示し、
    前記第1オブジェクトの移動、拡大、又は縮小のいずれかがなされた場合であって、移動、拡大、又は縮小のいずれかがなされた後の前記第1オブジェクトの端部のいずれかの位置を基準として定められる第3位置が、前記ディスプレイの表示領域に含まれない場合、前記第1操作子を、前記ディスプレイの表示領域内であって、前記第3位置とは異なる第4位置に表示する、
    ことを含む方法。
  7. 前記第4位置は、移動、拡大、又は縮小のいずれかがなされた後の前記第1オブジェクトの一部であって、前記ディスプレイの表示領域に含まれる第1領域の端部のいずれかの位置を基準として定められる位置である請求項6に記載の方法。
  8. 前記第4位置は、移動、拡大、又は縮小のいずれかがなされた後の前記第1オブジェクトの一部であって、前記第1オブジェクトを縮小して得られる第2領域の端部のいずれかの位置を基準として定められる位置である請求項6または7に記載の方法。
  9. 前記第2領域は、移動、拡大、又は縮小のいずれかがなされた後の前記第1オブジェクトの中心点を基準に、前記第1オブジェクトを縮小して得られる領域であって、
    移動、拡大、又は縮小のいずれかがなされた後の前記第1オブジェクトの形状と、前記第2領域の形状とは、移動、拡大、又は縮小のいずれかがなされた後の前記第1オブジェクトの形状の中心点を基準に相似形である請求項8に記載の方法。
  10. 前記第4位置は、移動、拡大、又は縮小のいずれかがなされた後の前記第1オブジェクトのうち前記ディスプレイの表示領域に含まれる第4領域の端部、若しくは前記第1オブジェクトのうち前記ディスプレイの表示領域内の一部の領域である請求項6から9のいずれか一に記載の方法。
  11. コンピュータを、
    第1オブジェクトと、前記第1オブジェクトの端部のいずれかの位置を基準として定められる第1位置に前記第1オブジェクトに対する処理の実行を指示するための第1操作子とを、ディスプレイの表示領域に表示する制御部として機能させ、
    前記第1操作子は、前記第1オブジェクトの移動、拡大、又は縮小のいずれか少なくとも1つに伴って移動するものであって、
    前記第1オブジェクトの移動、拡大、又は縮小のいずれかがなされた場合であって、移動、拡大、又は縮小のいずれかがなされた後の前記第1オブジェクトの端部のいずれかの位置を基準として定められる第2位置が、前記ディスプレイの表示領域に含まれる場合、前記制御部は、前記第1操作子を前記第2位置に表示するものであって、
    前記第1オブジェクトの移動、拡大、又は縮小のいずれかがなされた場合であって、移動、拡大、又は縮小のいずれかがなされた後の前記第1オブジェクトの端部のいずれかの位置を基準として定められる第3位置が、前記ディスプレイの表示領域に含まれない場合、前記制御部は、前記第1操作子を、前記ディスプレイの表示領域内であって、前記第3位置とは異なる第4位置に表示するプログラム。
  12. 前記第4位置は、移動、拡大、又は縮小のいずれかがなされた後の前記第1オブジェクトの一部であって、前記ディスプレイの表示領域に含まれる第1領域の端部のいずれかの位置を基準として定められる位置である請求項11に記載のプログラム。
  13. 前記第4位置は、移動、拡大、又は縮小のいずれかがなされた後の前記第1オブジェクトの一部であって、前記第1オブジェクトを縮小して得られる第2領域の端部のいずれかの位置を基準として定められる位置である請求項11または12に記載のプログラム。
  14. 前記第2領域は、移動、拡大、又は縮小のいずれかがなされた後の前記第1オブジェクトの中心点を基準に、前記第1オブジェクトを縮小して得られる領域であって、
    移動、拡大、又は縮小のいずれかがなされた後の前記第1オブジェクトの形状と、前記第2領域の形状とは、移動、拡大、又は縮小のいずれかがなされた後の前記第1オブジェクトの形状の中心点を基準に相似形である請求項13に記載のプログラム。
  15. 前記第4位置は、移動、拡大、又は縮小のいずれかがなされた後の前記第1オブジェクトのうち前記ディスプレイの表示領域に含まれる第4領域の端部、若しくは前記第1オブジェクトのうち前記ディスプレイの表示領域内の一部の領域である請求項11から14のいずれか一に記載のプログラム。
JP2014182397A 2014-09-08 2014-09-08 電子機器、方法およびプログラム Pending JP2016057759A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014182397A JP2016057759A (ja) 2014-09-08 2014-09-08 電子機器、方法およびプログラム
US14/733,587 US20160070450A1 (en) 2014-09-08 2015-06-08 Electronic device, method, and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014182397A JP2016057759A (ja) 2014-09-08 2014-09-08 電子機器、方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2016057759A true JP2016057759A (ja) 2016-04-21

Family

ID=55437536

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014182397A Pending JP2016057759A (ja) 2014-09-08 2014-09-08 電子機器、方法およびプログラム

Country Status (2)

Country Link
US (1) US20160070450A1 (ja)
JP (1) JP2016057759A (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD870744S1 (en) * 2018-05-07 2019-12-24 Google Llc Display screen or portion thereof with graphical user interface
USD877183S1 (en) * 2018-05-07 2020-03-03 Google Llc Display screen or portion thereof with transitional graphical user interface
USD877182S1 (en) * 2018-05-07 2020-03-03 Google Llc Display screen or portion thereof with transitional graphical user interface
USD877161S1 (en) * 2018-05-07 2020-03-03 Google Llc Display screen or portion thereof with transitional graphical user interface
USD877181S1 (en) * 2018-05-07 2020-03-03 Google Llc Display screen or portion thereof with graphical user interface
KR20200084584A (ko) * 2019-01-03 2020-07-13 삼성전자주식회사 가전 기기 및 그 제어 방법

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5269851B2 (ja) * 2010-09-27 2013-08-21 富士フイルム株式会社 画像編集装置及びその画像編集方法並びにそのプログラム
JP5269050B2 (ja) * 2010-12-07 2013-08-21 シャープ株式会社 表示処理装置及び表示処理方法

Also Published As

Publication number Publication date
US20160070450A1 (en) 2016-03-10

Similar Documents

Publication Publication Date Title
US10452333B2 (en) User terminal device providing user interaction and method therefor
US10698564B2 (en) User terminal device and displaying method thereof
JP6159078B2 (ja) 装置、方法、及びプログラム
JP2016057759A (ja) 電子機器、方法およびプログラム
US20180130243A1 (en) Display apparatus and control method thereof
US20210405838A1 (en) Image display device and operating method for enlarging an image displayed in a region of a display and displaying the enlarged image variously
US10067666B2 (en) User terminal device and method for controlling the same
US10928948B2 (en) User terminal apparatus and control method thereof
US20150212724A1 (en) Manipulation input device, manipulation input method, manipulation input program, and electronic apparatus
US10572148B2 (en) Electronic device for displaying keypad and keypad displaying method thereof
EP2811391A1 (en) Method for transforming an object based on motion, gestures or breath input and electronic device thereof
JP2013200680A (ja) 装置、方法、及びプログラム
JP2014164718A (ja) 情報端末
JP2014006904A (ja) タッチ情報認識方法及び電子装置
KR102295823B1 (ko) 모바일 디바이스 및 웨어러블 디바이스를 이용한 인터페이스 제공 방법
US20180203602A1 (en) Information terminal device
JP5221694B2 (ja) 電子機器、オブジェクトの表示方法及びオブジェクトの表示プログラム。
JP4854797B2 (ja) プログラムおよび電子機器
JP6977710B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US20150363039A1 (en) Terminal device, information display method, and recording medium
JP2015184814A (ja) 電子機器、表示制御方法及びプログラム
JP2015215840A (ja) 情報処理装置及び入力方法
JP2013214235A (ja) 表示制御装置、表示制御方法、およびプログラム
JP6034486B2 (ja) 電子機器
JP2009301523A (ja) タッチパネル式操作電子機器