JP2014211720A - 表示装置および表示制御プログラム - Google Patents

表示装置および表示制御プログラム Download PDF

Info

Publication number
JP2014211720A
JP2014211720A JP2013086918A JP2013086918A JP2014211720A JP 2014211720 A JP2014211720 A JP 2014211720A JP 2013086918 A JP2013086918 A JP 2013086918A JP 2013086918 A JP2013086918 A JP 2013086918A JP 2014211720 A JP2014211720 A JP 2014211720A
Authority
JP
Japan
Prior art keywords
display
image
screen
input
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013086918A
Other languages
English (en)
Other versions
JP2014211720A5 (ja
Inventor
英昭 條
Hideaki Jo
英昭 條
龍太 津村
ryuta Tsumura
龍太 津村
勝明 赤間
Katsuaki Akama
勝明 赤間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2013086918A priority Critical patent/JP2014211720A/ja
Priority to US14/249,033 priority patent/US20140313147A1/en
Priority to EP14163999.7A priority patent/EP2793120A1/en
Priority to CN201410143437.0A priority patent/CN104111790A/zh
Publication of JP2014211720A publication Critical patent/JP2014211720A/ja
Publication of JP2014211720A5 publication Critical patent/JP2014211720A5/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】表示装置の操作性を向上させる。【解決手段】表示装置10は、表示部、入力デバイス、割り当て部、検出部、移動処理部を備える。表示部は、画面を備える。入力デバイスは、ユーザからの入力を受け付ける。割り当て部は、入力デバイスの一部を、画面への画像の表示位置の変更の要求を検出する領域である検出領域40に割り当てる。検出部は、検出領域からの入力を検出する。移動処理部は、ユーザが処理対象として選択可能な領域である対象領域を含む第1の画像が画面に表示されているときに、検出領域からの入力が検出されると、第2の画像を、表示部に表示させる。ここで、第2の画像は、第1の画像の表示位置を対象領域が検出領域に近づくように移動させた画像である。【選択図】図1

Description

本発明は、表示機能を有する電子機器に関する。
近年、携帯電話端末やタブレットなど、表示機能を有する様々な携帯電子機器が普及してきている。携帯電子機器で使用されるアプリケーションでは、アプリケーションの終了など、重要な操作に用いられるアイコンなどの操作子は、誤操作を防ぐために画面の上部に設定されることが多い。ところが、携帯電子機器をユーザが片手で操作する場合、重要な操作に用いられる操作子は、ユーザの手が届きにくい領域に表示されることになる。さらに、画面の大きさが大きいほど、重要な操作に用いられる操作子の表示位置はユーザの手の位置から遠くなるので、大きな画面を備える機器ほど、ユーザにとって操作しづらくなってしまう。
そこで、この問題を解決するために、第1の表示手段により画面に表示されている情報のうちでユーザが操作可能な項目を抽出し、抽出された項目に対応する番号を第2の表示手段により、上位レイヤで表示する携帯端末が考案されている(例えば特許文献1)。この携帯端末では、第2の表示手段により番号が表示された領域に対するユーザからの操作入力を、第1の表示手段により表示された項目に対する操作入力として受け付ける。
特開2010−160564号公報
操作可能な項目に対応する番号を第2の表示手段で上位レイヤに表示する携帯端末では、番号の表示が第1の表示手段による表示に上書きされている。ここで、第2の表示手段は、各項目に対応する番号の表示位置を第1の表示手段での各項目の表示位置に合わせないので、ユーザは、操作しようとしている項目に対応する番号の表示を見つけにくいという問題がある。
本発明は、1つの側面では、表示装置の操作性を向上させることを目的とする。
実施形態に係る表示装置は、表示部、入力デバイス、割り当て部、検出部、移動処理部を備える。表示部は、画面を備える。入力デバイスは、ユーザからの入力を受け付ける。割り当て部は、前記入力デバイスの一部を、前記画面への画像の表示位置の変更の要求を検出する領域である検出領域に割り当てる。検出部は、前記検出領域からの入力を検出する。移動処理部は、前記ユーザが処理対象として選択可能な領域である対象領域を含む第1の画像が前記画面に表示されているときに、前記検出領域からの入力が検出されると、第2の画像を、前記表示部に表示させる。ここで、第2の画像は、前記第1の画像の表示位置を前記対象領域が前記検出領域に近づくように移動させた画像である。
表示装置の操作性が向上する。
実施形態にかかる表示装置での表示例を示す図である。 表示装置の例を示すブロック図である。 表示装置のハードウェア構成の例を示す図である。 座標の例と表示領域の設定例を示す図である。 表示装置での横表示の例を示す図である。 表示装置で行われる処理の例を示すフローチャートである。 スライド表示で行われる処理の例を示すフローチャートである。 表示装置で行われる処理の例を示すフローチャートである。 表示装置で行われる処理の例を示すフローチャートである。 第2の実施形態にかかる表示装置の例を示すブロック図である。 空き領域の大きさの変更方法の例を示す図である。 座標の例と表示領域の設定例を示す図である。 空き領域の大きさの変更方法の例を示す図である。 空き領域の大きさの変更処理の例を示すフローチャートである。 空き領域の大きさの変更処理の例を示すフローチャートである。 空き領域の大きさの変更処理の例を示すフローチャートである。 第3の実施形態で行われる処理の例を説明する図である。 第3の実施形態で行われる処理の例を示すフローチャートである。 表示装置の変形例を示す図である。
図1は、実施形態にかかる表示装置10での表示例を示す図である。表示装置10は、ユーザの操作に応じて、画面への表示画像を変更する。ユーザの処理により、図1(a)に示す画面が表示装置10に表示されているとする。図1(a)の例では、最上位層で使用されているアプリケーションに関する画面中にユーザが選択可能なアイコン5(5a〜5c)が表示されている。
表示装置10は、表示装置10に搭載されている入力デバイスの一部を選択し、選択した領域を、画像の表示位置の変更の要求を検出する領域である検出領域40に割り当てる。ここで、表示装置10に搭載されている入力デバイスは、タッチパネル、ハードキー、外付けキーボードなどを含む、表示装置10への入力に使用可能な任意の装置である。入力デバイスの一部として選択される領域は、搭載されている入力デバイスの一部であればよく、複数の種類のデバイスの一部でも良い。例えば、タッチパネルの一部の領域が検出領域40とされても良く、タッチパネルの一部の領域に加えてハードキーのうちの一つが検出領域40とされても良い。図1(a)の例では、検出領域40は、タッチパネルの一部分の領域であるとする。
表示装置10は、検出領域40からのユーザの入力を検出すると、最上位層で動作しているアプリケーションによる表示について、表示位置の変更が要求されたと判定する。以下、最上位層で動作しているアプリケーションによる表示を「対象画像」と記載する。そこで、表示装置10は、対象画像を表示するときに使用している座標の原点を検出領域40の方向に移動させることにより、対象画像の表示位置を、検出領域40の方向に移動させて、対象画像の一部を画面に表示する。例えば、表示装置10は、検出領域40からの入力を検出すると、画面を空き領域41と表示領域42に分け、表示領域42に対象画像を表示できる。図1(b)は、対象画像を表示領域42に表示することにより、対象画像の表示位置を変更したときの表示例を示す。換言すると、表示装置10は、ユーザが選択可能な領域であるアイコン5a〜5cの表示位置が検出領域40に近づくように、対象画像の表示位置を変更しているといえる。
ここで、検出領域40からユーザの入力が検出されるということは、検出領域40への入力が行われた時点では、ユーザの手が検出領域40への入力が可能な位置にあることを示す。従って、検出領域40からの入力に応じて対象画像を検出領域40に近づけて表示することにより、検出領域40への入力前には対象画像のうちのユーザの手が届きにくい領域に表示されていた操作子を、ユーザの手の位置に近づけることができる。このため、表示装置10は、ユーザにとって操作しやすい環境を提供することができる。さらに、対象画像の表示位置が検出領域40の方向にスライドするので、アイコンやボタンなどの操作子の相対的な位置は変更されず、ユーザは、操作しようとする対象を簡単に見つけることができる。例えば、図1(a)のアイコン5aを操作しようとしたユーザが図1(b)に示すように対象画面をスライドさせても、対象画面の上部に表示されているアイコン5a〜5cの順序は変更されないので、簡単にアイコン5aを発見できる。
さらに、検出領域40から再度入力が行われると、表示装置10は、対象画像の表示位置を図1(a)に示すように元に戻す。このため、ユーザは、検出領域40での操作により、表示位置の変更を解除することもできる。従って、ユーザは、操作子を用いた処理が終わって、表示位置を元に戻したいときにも、簡単に表示位置の変更設定を解除できる。
<装置構成>
図2は、表示装置10の例を示すブロック図である。表示装置10は、アプリケーション処理部11、入力デバイス12、割り当て部13、表示部14、表示方向特定部15、画像データ生成部16、制御部20、記憶部30を備える。制御部20は、検出部21、移動処理部22、座標変換部23を備える。記憶部30は、画面情報データ31、画像データ32、処理状況データ33を保持する。
アプリケーション処理部11は、アプリケーションを処理する。複数のアプリケーションを処理する場合、アプリケーション処理部11は、最上位層で処理するアプリケーションを決定する。アプリケーション処理部11は、アプリケーションの起動順に、アプリケーションの識別子と管理番号を対応付ける。管理番号は、通し番号になっており、アプリケーション処理部11は、管理番号の値が最大のアプリケーションを、最上位層で処理していると判定する。アプリケーションの識別子と管理番号を対応付けた情報は、処理状況データ33として記憶部30に記憶される。
入力デバイス12は、ユーザからの入力を受け付け、入力座標をアプリケーション処理部11、検出部21などに出力する。入力デバイス12は、タッチパネル、ハードキー、外付けキーボードなどを含む、表示装置10への入力に使用可能な任意の装置である。割り当て部13は、入力デバイス12の一部を検出領域40に割り当てる。例えば、割り当て部13は、画面の座標系と同じ座標系に設定されており、かつ、画面への入力位置を検出するために使用されるタッチパネルの一部を、検出領域40に割り当てても良い。また、割り当て部13は、表示装置10に備えられたハードキーの全部または一部を検出領域40に設定しても良い。割り当て部13は、検出領域40に割り当てられている領域やデバイスなどを検出部21に通知する。
表示部14は、画面を含み、ユーザが視認できるように画像を画面に表示する。表示方向特定部15は、画面の表示方向を特定する。例えば、長方形の画面において、短辺が横方向の辺であり、かつ、長辺が高さ方向の辺である場合、表示方向特定部15は、画面が縦方向に使用されていると判定する。一方、長方形の画面において、短辺が高さ方向の辺であり、かつ、長辺が横方向の辺である場合、表示方向特定部15は、画面が横方向に使用されていると判定する。画像データ生成部16は、アプリケーション処理部11における処理に応じて、画面に表示する画像データを生成し、画像データ32として記憶部30に格納する。
検出部21は、ユーザからの検出領域40への入力を検出する。検出部21は、入力デバイス12から通知された座標や、入力が確認されたキーが検出領域40に含まれているかを判定する。入力座標や入力が確認されたキーが検出領域40に含まれている場合、検出部21は、検出領域40への入力が行われたことを移動処理部22に通知する。移動処理部22は、予め、空き領域41と表示領域42の設定情報を画面情報データ31から読み込むものとする。移動処理部22は、検出部21からの通知に応じて、対象画像の左上隅を表示領域42の左上隅に合わせた上で、表示領域42の領域分だけ対象画像を表示することを、表示部14に要求する。また、移動処理部22は、予め決められた表示を空き領域41に表示することを表示部14に要求する。空き領域41に表示される画像は、黒や白などの単色の画像とすることができ、また、時計画面、メッセージ画面、ユーザが選択した画像などとすることができる。このように、移動処理部22からの要求により、対象画像の表示位置が検出領域40の方向にスライドした表示となる。以下、対象画像の表示位置が検出領域40の方向にスライドした表示のことを「スライド表示」と記載することがあるものとする。さらに、移動処理部22は、スライド表示中は、入力デバイス12に対して、アプリケーション処理部11への入力座標の通知を停止することを要求する。従って、スライド表示中、入力デバイス12は、検出部21に入力座標を出力する。
座標変換部23は、スライド表示中に入力デバイス12で入力が検出された場合、入力位置の座標を対象画像での座標に変換し、変換により得られた座標をアプリケーション処理部11に通知する。アプリケーション処理部11は、座標変換部23から入力された座標により、入力の対象となった操作子を特定する。画面情報データ31は、表示装置10に備えられている画面に設定されている座標の情報である。さらに、画面情報データ31は、空き領域41と表示領域42の設定範囲についての情報も含むものとする。画像データ32は、対象画像や、空き領域41に表示される画像などを含む。
図3は、表示装置10のハードウェア構成の例を示す。表示装置10は、加速度センサ106、プロセッサ107、入力デバイス12、表示デバイス109、メモリ110を備える。メモリ110は、Read Only Memory(ROM)111とRandom Access Memory(RAM)112を備えるものとする。さらに、表示装置10は、オプションとして、アンテナ101、無線処理回路102、スピーカー103、マイク104、オーディオ入出力デバイス105を備えても良い。表示装置10がスピーカー103やマイク104などを備える場合、表示装置10は携帯電話端末であっても良い。
プロセッサ107は、アプリケーション処理部11、割り当て部13、画像データ生成部16、制御部20として動作する。ROM111は、表示装置10の動作に用いられるプログラムやデータを格納することができる。RAM112は、画面情報データ31、画像データ32、処理状況データ33を格納する。さらに、RAM112は、プロセッサ107の処理によって得られたデータや、アンテナ101を介して受信したデータを格納することもできる。表示方向特定部15は、加速度センサ106とプロセッサ107によって実現される。入力デバイス12は画面に表示されたアイコンの選択などに用いられるハードキーや、液晶ディスプレイに重ねて設置されたタッチパネルなどである。入力デバイス12は、キーによる入力の認識や、タッチパネルへの入力位置の特定を行う。表示デバイス109は、液晶ディスプレイなどのディスプレイなどであり、表示部14として動作する。無線処理回路102は、アンテナ101を介して基地局との間でデータを送受信する。オーディオ入出力デバイス105は、マイク104からの音声の入力と、スピーカー103への音声データの出力を制御する。
<第1の実施形態>
以下、空き領域41と表示領域42が図4(a)に示すように設定されている場合を例として、表示装置10で行われる処理を説明する。図4(a)に示す情報は、予め、画面情報データ31として記録されているものとする。また、画面やタッチパネルでは、図4(b)に示すように、画面の左上隅を原点とし、原点から右方向にX軸を設定し、原点から下方向にY軸を設定するものとする。画面は、短手方向の長さがa、長手方向の長さがbであるものとする。従って、画面が縦表示の場合、図4(b)に示すように、画面の左上隅の座標は(0,0)であり、右下隅の座標は(a,b)である。一方、画面が横表示の場合、図4(d)に示すように、画面の左上隅の座標は(0,0)であり、右下隅の座標は(b,a)である。
第1の実施形態では、空き領域41と表示領域42の大きさが等しい場合を例として説明する。縦表示の状態で検出領域40が画面の下側に設定されていると、図4(c)に示すように、空き領域41が画面の上半分、表示領域42が画面の下半分となる。そのため、図4(a)に示すように、表示領域42の左上隅の座標は(0,0.5b)、右下隅の座標は(a,b)となり、空き領域41の左上隅の座標は(0,0)、右下隅の座標は(a,0.5b)となる。
一方、横表示の状態で検出領域40が画面の右側に設定されていると、図4(e)に示すように、空き領域41が画面の左半分、表示領域42が画面の右半分となる。そのため、図4(a)に示すように、表示領域42の左上隅の座標は(0.5b,0)、右下隅の座標は(b,a)となり、空き領域41の左上隅の座標は(0,0)、右下隅の座標は(0.5b,a)となる。
図5は、表示装置での横表示の例を示す図である。以下、表示装置10が横表示で使用されている状態で、検出領域40からの入力が検出されたときに行われる処理の例を説明する。
(1)表示装置10が起動されると、表示方向特定部15は、画面が使用されている方向を特定し、割り当て部13、移動処理部22、画像データ生成部16に通知する。ここでは、画面の使用方向は横方向である。割り当て部13は、入力デバイス12のうちの一部を検出領域40に設定する。ここでは、図5(a)に示すように、入力デバイス12として搭載されているタッチパネルのうち、画面の右上隅周辺の領域が検出領域40に設定されたものとする。タッチパネルの一部を検出領域40に設定する場合、割り当て部13は、ユーザの手に近い位置である可能性の高い領域から、検出領域40に割り当てる領域を選択する。例えば、割り当て部13は、表示方向特定部15からの通知が縦方向であれば画面の下側に検出領域40を設定し、横方向であると通知されると画面の右側に検出領域40を設定することができる。割り当て部13は、タッチパネル中で検出領域40に割り当てられた領域の座標を検出部21に通知し、検出部21は検出領域40を特定するための座標を記憶する。例えば、検出部21は、検出領域40の左上隅の座標が(0.9b,0)、右下隅の座標が(b,0.25a)であると記憶したとする。
(2)表示装置10の起動後にユーザがアプリケーションAP1を起動すると、アプリケーション処理部11は、アプリケーションAP1の識別子と管理番号Z=1を対応付けて、処理状況データ33に記録する。さらに、アプリケーション処理部11は、アプリケーションAP1による画面の表示に使用されるデータを画像データ生成部16に出力する。画像データ生成部16は、アプリケーション処理部11と表示方向特定部15から入力された情報を用いて、画面に表示する画像を生成する。画像データ生成部16は、生成した画像を、アプリケーションAP1の識別子に対応付けて画像データ32として記録する。表示部14は、画像データ32を画面に表示する。
(3)次に、ユーザがアプリケーションAP2を起動させると、アプリケーション処理部11は、アプリケーションAP2の識別子に管理番号Z=2を対応付けて処理状況データ33に記録する。さらに、アプリケーション処理部11は、アプリケーションAP2による画面の表示に使用されるデータを画像データ生成部16に出力する。表示方向特定部15、画像データ生成部16、表示部14は、アプリケーションAP1に関する画像が表示されたときと同様に動作するので、画面には、アプリケーションAP2に関する画像が表示される。アプリケーションAP2による表示画面は、例えば、図5(a)に示すとおりであるとする。
(4)ユーザは、表示装置10の画面の右側を保持することにより、表示装置10を横方向にして使用しているものとする。すると、アプリケーションAP2に関する画面の表示中に、ユーザがアイコン5a〜5cを操作しようとしても、ユーザの手が検出領域40の周辺にあるため、アイコン5a〜5cに届きにくい。そこで、ユーザは、検出領域40にタッチ操作をする。
(5)検出部21は、入力デバイス12で検出された入力位置の座標を取得し、入力位置が検出領域40に含まれているかを判定する。検出領域40への入力があったと判定すると、検出部21は、検出領域40への入力を検出したことを、移動処理部22に通知する。
(6)移動処理部22は、表示方向特定部15から通知された画面の方向に応じて、空き領域41と表示領域42の領域を特定する。ここでは、画面の表示方向は横方向なので、図4(a)と図4(e)に示すように、表示領域42の左上隅の座標は(0.5b,0)である。そこで、移動処理部22は、空き領域41に、画面の原点から対象画像の表示開始位置をずらすために挿入する画像を表示し、表示領域42の左上隅に対象画像の原点を合わせて表示することを、表示部14に要求する。以下、対象画像の表示開始位置をずらすために挿入する画像のことを「挿入画像」と記載することがあるものとする。さらに、移動処理部22は、入力デバイス12に、タッチパネルへの入力位置の情報を、アプリケーション処理部11には出力せずに、検出部21に出力することを要求する。
(7)表示部14は、移動処理部22からの要求に従って、表示を変更する。このとき、表示部14は、空き領域41に挿入画像を表示する。挿入画像は、単色の画像、時計やメッセージを含む画像、模様を含む多色の画像などを含む任意の画像であるものとする。なお、表示装置10は、横表示の場合の空き領域41と縦表示の場合の空き領域41に合わせて、横表示の挿入画像と、縦表示の挿入画像を保持していても良い。表示部14の処理により、画面の表示は図5(a)から図5(b)に示すように変更される。すなわち、
対象画像の表示位置は、ユーザが選択可能な領域であるアイコン5a〜5cの表示位置が検出領域40に近づくように変更されている。
(8)表示部14での表示の変更と並行して、移動処理部22は、表示領域42の左上隅の座標を座標変換部23に通知する。座標変換部23は、移動処理部22から通知された情報に基づいて、表示領域42に表示された領域が、対象画像の画像データ32の中でどの部分であるかを特定する。表示方向が横のときにスライド表示が行われると、対象画像の原点(0,0)が表示領域42の左上隅の座標(0.5b,0)に合わせて表示される。また、画面の右下隅の座標は(b,a)である。従って、表示領域42に表示されている領域は、対象画像のうち、(0,0)を左上隅とし、かつ、(0.5b,a)が右下隅となる領域である。換言すると、表示方向が横のときにスライド表示が行われると、対象画像のうちの左半分が画面の右半分に表示されることになる。表示領域42に表示された領域の対象画像中での位置についての情報の例を、図4(a)のテーブルの右側に示す。さらに、座標変換部23は、入力が観測された座標を、対象画像での入力位置に変換するための変換量も計算して記憶する。この例では、入力された座標のX座標の値から0.5bを差し引き、Y座標の値を変更しないことにより、対象画像中での入力位置が求められる。
(9)ユーザが図5(b)に示すスライド表示中に、アイコン5aを選択したとする。入力デバイス12は、タッチパネル上での入力位置の座標を取得する。入力デバイス12は、取得した座標を、検出部21に出力する。検出部21は、入力デバイス12から通知された座標が検出領域40に含まれていないと判定する。すると、検出部21は、入力デバイス12から入力された座標を、移動処理部22と座標変換部23に出力する。
移動処理部22は、入力座標が空き領域41に含まれているかを判定する。ここでは、入力座標は空き領域41に含まれていないので、移動処理部22は処理を終了する。
座標変換部23は、入力座標が表示領域42に含まれているかを判定する。ここでは、入力座標は表示領域42に含まれているので、座標変換部23は、入力デバイス12から通知された座標を対象画像での位置に変換し、得られた値をアプリケーション処理部11に出力する。例えば、図5(b)に示す画面表示のときに入力デバイス12から入力された座標が(0.55b,0.05a)であったとする。この場合、座標変換部23は、入力位置を対象画像の原点を基準として表すと、(0.05b,0.05a)であると計算し、アプリケーション処理部11に出力する。
(10)アプリケーション処理部11は、座標変換部23から入力された位置に対応付けられた画面遷移を行う。例えば、アイコン5aがテキスト入力画面の表示に対応付けられている場合、アプリケーション処理部11は、テキストの入力画面を表示する。
(11)入力デバイス12から入力された座標が空き領域41に含まれている場合、移動処理部22は、スライド表示の終了が要求されたと判定する。そこで、移動処理部22は、対象画像の表示位置をスライド表示が行われる前の状態に戻すことを表示部14に要求する。表示部14が表示を戻すことにより、図5(b)の状態から、図5(a)に示すように表示が変更される。
また、ユーザの入力位置が検出領域40に含まれている場合は、検出部21が移動処理部22に検出領域40へのアクセスがあったことを通知する。移動処理部22は、スライド表示中に検出領域40への入力が観測される場合も、スライド表示の終了が要求されていると判定する。そこで、移動処理部22は、同様にスライド表示の終了を表示部14に要求するため、スライド表示が行われる前の状態に画面の表示が戻される。なお、スライド表示が解除されると、入力デバイス12は、入力座標をアプリケーション処理部11と検出部21に出力し始める。
図6は、表示装置10で行われる処理の例を示すフローチャートである。検出部21は、検出領域40からの入力が検出されたかを判定する(ステップS1)。表示装置10は、検出領域40からの入力が検出されるまで待機する(ステップS1でNo)。検出領域40からの入力が検出されると、移動処理部22が表示部14にスライド表示を要求することにより、スライド表示が行われる(ステップS1でYes、ステップS2)。ユーザからの入力が検出されると、検出部21は、再度、検出領域40への入力が観測されたかを判定する(ステップS3)。再度、検出領域40への入力が検出された場合、移動処理部22は、スライド表示の解除を表示部14に求め、表示部14は、移動処理部22からの要求に応じて、画面の表示をスライド表示が行われる前の状態に戻す(ステップS3でYes、ステップS4)。さらに、移動処理部22は、空き領域41への入力が検出されたかを判定する(ステップS5)。移動処理部22は、空き領域41への入力が検出されると、スライド表示の終了が要求されたと判定し、表示部14にスライド表示の終了を要求する(ステップS5でYes、ステップS6)。座標変換部23は、表示領域42への入力が検出されたかを判定する(ステップS7)。表示領域42への入力が検出された場合、座標変換部23は入力位置を対象画面での座標に変換し、アプリケーション処理部11に出力する(ステップS7でYes)。アプリケーション処理部11は、座標変換部23から通知された座標に応じて画面遷移を行う(ステップS8)。一方、入力座標が表示領域42に含まれていない場合、座標変換部23は待機状態に戻る(ステップS7でNo)。
図7は、スライド表示で行われる処理の例を示すフローチャートである。図7は、図6のステップS2で行われる処理を詳しく示している。移動処理部22は、表示方向特定部15からの通知を用いて、画面が縦表示で使用されているかを判定する(ステップS11)。画面が縦表示で使用されている場合、移動処理部22は、対象画像の原点と縦表示の表示領域42の左上隅を重ねたときに表示領域42に含まれる領域をバッファに複写する(ステップS11でYes、ステップS12)。なお、バッファは、RAM112中にあるものとする。表示部14は、縦表示での空き領域41に挿入画像を表示する(ステップS13)。さらに、表示部14は、表示領域42に、バッファに複写した領域の画像を表示する(ステップS14)。画面が横表示で使用されている場合、ステップS12〜S14の処理は行われない(ステップS11でNo)。
次に、移動処理部22は、表示方向特定部15からの通知を用いて、画面が横表示で使用されているかを判定する(ステップS15)。画面が横表示で使用されている場合、移動処理部22は、対象画像のうちスライド表示が行われたときに横表示での表示領域42に表示される領域をバッファに複写する(ステップS15でYes、ステップS16)。表示部14は、横表示での空き領域41に挿入画像を表示する(ステップS17)。さらに、表示部14は、表示領域42に、バッファに複写した領域の画像を表示する(ステップS18)。画面が縦表示で使用されている場合、ステップS16〜S18の処理は行われない(ステップS15でNo)。
図8Aおよび図8Bは、表示装置で行われる処理の例を示すフローチャートである。図8Aおよび図8Bは、表示装置10で入力が検出されたときの動作の例を示している。入力デバイス12は、ユーザからのタッチパネルへの入力を検出すると、画面の左上隅を原点としたときの入力座標を取得する(ステップS21、S22)。入力デバイス12は、スライド表示中であるかを判定し、スライド表示中は、入力座標を検出部21に通知する(ステップS23でYes)。入力座標が検出領域40または空き領域41に含まれている場合、表示領域42への入力ではない(ステップS24でNo)。検出領域40への入力は検出部21で検出され、空き領域41への入力は、移動処理部22で検出される。スライド表示中に検出領域40か空き領域41で入力が検出されると、いずれの場合でも、移動処理部22は、スライド表示の解除処理を行う(ステップS25)。一方、表示領域42への入力が検出されると、座標変換部23は、対象画像での入力位置を求めるための座標の変換量を取得する(ステップS24でYes、ステップS26)。座標変換部23は、得られた変換量を用いることにより、入力座標を対象画像の左上隅を基準としたときの入力座標に変換し、アプリケーション処理部11に出力する(ステップS27)。アプリケーション処理部11は、入力された変換後の座標に対応付けられた画面遷移を行う(ステップS28)。
ステップS23でスライド表示が行われていないと判定されると、入力デバイス12は、検出された入力座標をアプリケーション処理部11と検出部21に出力する。検出部21は、検出領域40への入力が検出されたかを判定する(ステップS29)。検出領域40への入力ではない場合、アプリケーション処理部11は、入力デバイス12から入力された座標に対応付けられた画面遷移を行う(ステップS29でNo、ステップS30)。スライド表示が行われていないときに検出領域40への入力が検出されると、移動処理部22は、スライド表示のための処理を行う(ステップS31)。
なお、以上の説明では、空き領域41と表示領域42が画面の半分ずつに設定されている場合を例としたが、空き領域41と表示領域42の割合は、実装に応じて任意に変更されうる。
第1の実施形態によると、検出領域40からの入力に応じて対象画像の原点を検出領域40に近づけるので、表示装置10は、対象画像ではユーザの手から遠い領域に表示されていた操作子を、ユーザの手の位置に近い領域に移動することができる。このため、表示装置10は、ユーザに操作しやすい環境を提供できる。また、対象画像の表示位置が検出領域40の方向にスライドするので、アイコンやボタンなどの操作子の相対的な位置の変動が発生しない。このため、ユーザは、操作しようとする対象を簡単に見つけることができる。さらに、第1の実施形態にかかる方法では、対象画像の上に新たなアイコンなどを付加しないので、対象画像が見づらくならない。
<第2の実施形態>
第2の実施形態では、ユーザが空き領域41と表示領域42の大きさを任意に設定することができる表示装置50について説明する。
図9は、第2の実施形態にかかる表示装置50の例を示すブロック図である。表示装置50は、制御部55を備え、さらに、アプリケーション処理部11、入力デバイス12、割り当て部13、表示部14、表示方向特定部15、画像データ生成部16、記憶部30を備える。制御部55には、検出部21、移動処理部56、座標変換部23、決定部57が含まれる。
ここで、第2の実施形態では、入力デバイス12は、入力座標の他にタッチイベントの種類も検出部21に通知しているものとする。検出部21は、検出された入力が検出領域40に含まれていない場合、入力デバイス12から通知された情報を、移動処理部56と座標変換部23に出力する。第2の実施形態では、移動処理部56は、タッチイベントの種類により、タッチ操作の中で入力位置が変動しているかを特定するものとする。入力デバイス12は、タッチイベントとして、DOWNイベント、MOVEイベント、UPイベントを検出できるものとする。ユーザからの入力座標をタッチパネルで検出し、かつ、検出した座標への入力がすでに観測されているタッチ操作の軌跡に含まれない場合、入力デバイス12は、DOWNイベントが発生したと判定する。既に検出されているタッチ操作の軌跡に含まれるが、DOWNイベントが発生した座標とは異なる座標での入力を検出すると、入力デバイス12は、MOVEイベントを検出したと判定する。さらに、タッチパネルでタッチ操作の終了を検出すると、入力デバイス12は、UPイベントを検出したと判定する。従って、入力デバイス12は、1つのタッチ操作は、DOWNイベントの検出からUPイベントの検出まで継続しているものとして扱う。また、入力座標の変動を伴うタッチ操作では、タッチイベントがDOWN、MOVE、UPの順に変化するが、入力座標の変動を伴わないタッチ操作では、タッチイベントはDOWN、UPの順に変化する。
移動処理部56は、スライド表示中に空き領域41でユーザからの入力が検出されると入力位置が変動するかを判定する。移動処理部56は、DOWNイベントの発生後、同じタッチ操作でのUPイベントの前にMOVEイベントが発生しなければ、表示領域42と空き領域41の大きさの調整が要求されていないと判定する。そこで、第1の実施形態と同様に、移動処理部56は、スライド表示の終了を表示部14に要求する。
一方、移動処理部56は、DOWNイベントの発生後、同じタッチ操作においてUPイベントが発生する前にMOVEイベントが発生すると、表示領域42と空き領域41の大きさの調整がユーザから要求されたと判定する。そこで、移動処理部56は、MOVEイベントが発生すると、決定部57に空き領域41の大きさの決定を要求する。また、移動処理部56は、入力座標のデータやタッチイベントの種類を決定部57に出力することを、入力デバイス12に要求する。
決定部57は、タッチパネル中で、画面の空き領域41と同じ座標が割り当てられた領域に、入力位置の移動を伴うタッチ操作が行われた場合、タッチ操作の終了位置の座標を求める。決定部57は、空き領域41の大きさを、画面の辺のうちで検出領域からの距離が相対的に長い辺から終了位置までの距離が、空き領域41についての画面の長手方向の長さになるように決定する。また、決定部57は、空き領域41についての画面の短手方向の長さは、画面の長さと同じ長さとする。なお、決定部57は、画面の辺のうちで検出領域からの距離が相対的に長い辺からタッチ操作の終了位置までの距離が、挿入画像についての画面の長手方向の長さになるように、挿入画像の大きさを決定してもよい。この場合、挿入画像についての画面の短手方向の長さは画面と同じ長さとなり、さらに、空き領域41は、挿入画像の大きさと同じ大きさになるように調整される。
図10は、空き領域41の大きさの変更方法の例を示す図である。図10(a)に示すように、アイコン5a〜5cを含む対象画像が表示装置50に表示されているとする。ユーザが検出領域40に入力すると、第1の実施形態で説明した手順により、図10(a)から図10(b)に示すように、表示装置50での表示がスライド表示に変更される。ここで、図10(b)の時点では、予め表示装置50が保持している座標データ(図4(a)、図4(c))に基づいて、空き領域41aと表示領域42aの大きさが設定される。
次に、ユーザが画面のうちで空き領域41aが表示されている領域にタッチ操作をしたとする。このとき、入力デバイス12は、タッチパネルのうちで空き領域41aと同じ座標が割り当てられている領域へのタッチ操作を検出する。入力デバイス12は、検出部21を介して、移動処理部56に、タッチ操作の開始を意味するDOWNイベントの発生と、入力が行われた座標を通知する。
ユーザのタッチ操作中で入力位置の変動が発生すると、移動処理部56は決定部57に空き領域41の大きさの決定を要求する。さらに、移動処理部56は、タッチイベントと入力座標を決定部57に入力することを入力デバイス12に要求する。入力デバイス12は、移動処理部56からの要求により、タッチイベントの種類と入力位置を、決定部57に通知する。決定部57は、タッチイベントがUPになるまで入力座標の変動を監視し、UPイベントが発生したときの入力座標を取得する。例えば、UPイベントが発生したときの座標は(c,d)であるとする。UPイベントの発生した位置を図10(c)に示す。
決定部57は、表示方向特定部15から表示方向を取得する。縦表示の場合は、検出領域40が画面の下側に設定されるので、検出領域40からの距離が相対的に長い辺は、画面の上側の短辺である。そこで、決定部57は、空き領域41の高さが調整されていると判定する。決定部57は、画面の上側の短辺からUPイベントが発生した位置までの距離を、新たに設定する空き領域41bの高さとする。この例では、UPイベントが発生した位置のY座標はdであるので、決定部57は、空き領域41bを図10(c)に示すように決定する。
決定部57は、空き領域41bの大きさを決定すると、空き領域41bの領域と表示領域42bの領域を特定するための座標を決定する。空き領域41bと表示領域42bの領域を特定するための座標の例を図11に示す。決定部57は、得られた座標の情報を、移動処理部56に通知する。移動処理部56は、空き領域41bの座標が通知されると、表示部14に、空き領域41bへの挿入画像の表示と、表示領域42bへの対象画像の表示を要求する。さらに、移動処理部56は、通知された座標の情報を、画面情報データ31として格納することもできる。
表示部14での表示の変更と並行して、移動処理部56は、表示領域42bの左上隅の座標を座標変換部23に通知する。座標変換部23は、第1の実施形態と同様の処理により、表示領域42bに表示される領域が、対象画像の画像データ32の中でどの部分であるかを特定する。表示領域42bに表示された領域の対象画像中での位置についての情報の例を、図11のテーブルの右側に示す。さらに、座標変換部23は、入力が観測された座標を、対象画像での入力位置に変換するための変換量も計算して記憶する。この例では、入力された座標のY座標の値からdを差し引き、X座標の値を変更しないことにより、対象画像中での入力位置が求められる。
ユーザが、タッチパネル中で検出領域40か表示領域42bに設定されている領域に入力した場合の表示装置50の動作は、第1の実施形態と同様である。一方、空き領域41bと同じ座標への入力が観測された場合、前述のとおり、空き領域41の大きさの再調整かスライド表示の解除が行われる。
図12は、画面が横方向の表示に使用されている場合についての空き領域の大きさの変更方法の例を示す図である。画面が横方向の表示に使用されている場合も、縦方向の表示に使用されている場合と同様に、空き領域41と表示領域42の大きさを調整できる。第1の実施形態で説明した手順によりスライド表示が行われると、図12(a)に示すように、空き領域41cに挿入画像が表示され、表示領域42cに対象画像の一部が表示される。ユーザが空き領域41cで座標の移動を伴うタッチ操作を行った場合、図10を参照しながら説明したように、決定部57は、タッチ操作の終了位置の座標を特定する。図12(b)の例では、タッチ操作の終了位置の座標は(f、g)であるとする。
図12(b)に示すように横表示で検出領域40が右側に設置されている場合、検出領域40からの距離が相対的に長い辺は、画面の左側の短辺である。そこで、決定部57は、タッチ操作の終了位置のX座標の値がfであることから、空き領域41dのX座標の最大値をfに設定する。すなわち、決定部57は、横方向についての空き領域41dと表示領域42dを、図12(b)に示すように設定する。さらに、決定部57は、図12(c)に示すように、空き領域41dと表示領域42dの領域を特定するための座標を決定し、移動処理部56に通知する。移動処理部56は、空き領域41bへの挿入画像の表示と、表示領域42bへの対象画像の表示を表示部14に要求するため、表示装置50の画面の表示は図12(b)に示すとおりになる。
さらに、座標変換部23は、第1の実施形態と同様の処理により、表示領域42bに表示された領域が、対象画像の画像データ32の中でどの部分であるかを特定する。座標変換部23によって計算された結果を図12(c)に示す。この例では、入力された座標のX座標の値からfを差し引き、Y座標の値を変更しないことにより、対象画像中での入力位置が求められる。
図13Aおよび図13Bは、空き領域41の大きさの変更処理の例を示すフローチャートである。なお、図13Aおよび図13Bに示す処理の場合、MOVEイベントが決定部57に通知されるたびに空き領域41の大きさが設定され、表示部14の表示が更新されるものとする。このため、図13Aおよび図13Bに示す処理が行われる場合、ユーザは、表示領域42に表示される対象画像の範囲を確認しながら、空き領域41を調整できるという利点がある。なお、移動処理部56は、MOVEフラグを記憶しているものとする。MOVEフラグ=ONは、MOVEイベントが観測されたことを示し、MOVEフラグがONに設定されていないことは、MOVEイベントが観測されていないことを示すものとする。
移動処理部56は、スライド表示中かを判定する(ステップS41)。スライド表示中ではない場合、空き領域41の大きさの変更処理を終了する(ステップS41でNo)。スライド表示中である場合、移動処理部56は、タッチパネル中の空き領域41に含まれている座標においてタッチ操作が開始するまで待機する(ステップS42)。
移動処理部56は、タッチ操作でMOVEイベントが発生したかを判定する(ステップS43)。MOVEイベントが発生した場合、移動処理部56は、MOVEフラグをONに設定した上で、空き領域41の調整を決定部57に要求する(ステップS43でYes、ステップS44)。決定部57は、画面の表示方向が縦方向であるかを判定する(ステップS45)。画面の表示方向が縦方向である場合、決定部57は、MOVEイベントとともに入力デバイス12から入力された位置のY座標の値(y1)を取得する(ステップS45でYes、ステップS46)。画面の表示方向が横方向である場合、決定部57は、MOVEイベントとともに入力デバイス12から入力された位置のX座標の値(x1)を取得する(ステップS45でNo、ステップS47)。すると、決定部57が空き領域41の大きさと表示領域42の大きさを調整した結果を移動処理部56に通知することにより、変更後の空き領域41と表示領域42を用いて画面表示が行われる(ステップS48)。移動処理部56は、タッチ操作が終了したかを判定する(ステップS49)。一方、ステップS43においてタッチ操作でMOVEイベントが発生していないと判定された場合は、ステップS44〜S48の処理が行われずに、ステップS49の判定が行われる。
タッチ操作が終了していない場合、移動処理部56は、MOVEフラグがONに設定されているかを判定する(ステップS49でNo、ステップS50)。MOVEフラグがONに設定されている場合、ステップS45以降の処理が繰り返される(ステップS50でYes)。MOVEフラグがONに設定されていない場合、ステップS43以降の処理が繰り返される(ステップS50でNo)。
タッチ操作が終了すると、移動処理部56は、MOVEフラグがONに設定されているかを判定する(ステップS49でYes、ステップS51)。MOVEフラグがONに設定されている場合、移動処理部56は、MOVEフラグをOFFに設定し、処理を終了する(ステップS51でYes)。MOVEフラグがONに設定されていない場合、移動処理部56は、スライド表示の解除がユーザから要求されたと判定し、スライド表示を解除する(ステップS51でNo、ステップS52)。
図14は、空き領域41の大きさの変更処理の例を示すフローチャートである。図14は、図13BのステップS48で行われる処理を詳しく示している。移動処理部56は、表示方向特定部15にアクセスして、画面が縦表示で使用されているかを判定する(ステップS61)。画面が縦表示で使用されている場合、移動処理部56は、対象画像のうち、Y座標の値が0からb−y1までの領域をバッファに複写する(ステップS61でYes、ステップS62)。表示部14は、画面の原点を基準として、Y座標の値が0からy1までの領域に、挿入座標を表示する(ステップS63)。さらに、表示部14は、バッファに複写した領域の画像を、Y座標がy1以上の領域に表示する(ステップS14)。画面が横表示で使用されている場合、ステップS62〜S64の処理は行われない(ステップS61でNo)。
次に、移動処理部56は、表示方向特定部15からの通知を用いて、画面が横表示で使用されているかを判定する(ステップS65)。画面が横表示で使用されている場合、移動処理部56は、対象画像のうちX座標の値が0からb−x1までの領域をバッファに複写する(ステップS65でYes、ステップS66)。表示部14は、画面の原点を基準として、X座標の値が0からx1までの領域に、挿入画像を表示する(ステップS67)。さらに、表示部14は、表示領域42に、バッファに複写した領域の画像を、X座標がx1以上の領域に表示する(ステップS68)。画面が縦表示で使用されている場合、ステップS66〜S68の処理は行われない(ステップS65でNo)。
第2の実施形態によると、ユーザは、空き領域41と表示領域42の大きさを好みに合わせて調整することができるので、例えば、対象画面の表示領域を広く保持しつつ、アイコン5などの表示位置を手が届く範囲に移動させることができる。また、子供など、手が小さいユーザの場合、表示領域42を狭くすることにより、アイコン5などの表示位置を検出領域40により近い位置に設定することができる。このため、表示装置50がユーザにとって操作しやすくなる。さらに、第2の実施形態でも、第1の実施形態と同様に、操作子の相対的な位置の変動が発生しないため、ユーザは、操作対象を簡単に見つけることができる。また、対象画像の上に新たなアイコンなどが付加されないので、対象画像が見づらくならないという利点もある。
<第3の実施形態>
第3の実施形態では、スライド表示中に画面の方向を変更したときに、画面の方向に合わせたスライド表示を行う場合の表示装置10の動作について説明する。
図15(a)は、スライド表示に設定する前の横方向での画面表示の例を示す。図15(a)の例では、画像データ32aが画面に表示されているとする。検出領域40への入力が検出されると、第1の実施形態で説明した処理により、図15(a)から図15(b)に示すように画面の表示が変更され、表示領域42aに画像データ32aの一部分が表示される。
その後、ユーザは、図15(b)に示すスライド表示中に画面の方向が縦表示になるように表示装置10を持ち替えたとする。すると、表示方向特定部15は、表示装置10の方向が変更されたことを検出し、移動処理部22と画像データ生成部16に画面の方向の変更を通知する。移動処理部22は、スライド表示を一時的に中断させ、中断フラグの値を1に設定する。ここで、中断フラグは、スライド表示が中断されているかを特定するときに使用するフラグであり、移動処理部22で保持されているものとする。中断フラグ=0の場合、画面の方向の変更によるスライド表示の中断は発生していない。一方、中断フラグ=1の場合、画面の方向の変更によりスライド表示が中断されていることを示す。
画像データ生成部16は、画面の方向が変更されたことが通知されると、変更後の画面の方向に合わせて、新たに対象画像を生成しなおす。ここで、画像データ生成部16が新たに生成した対象画像のデータを、画像データ32bとする。画像データ32bは、図15(c)に示すように、画面の方向に合わせてアイコン5a〜5cの位置や、表示対象となる画像の配置などが調整されている。
移動処理部22は、中断フラグ=1であるので、新たな画像データ32bが生成されると、表示部14に、再度、スライド表示を要求する。このとき、移動処理部22は、図15(d)に示すように、縦表示のときの空き領域41eに挿入画像を表示することと、縦表示のときの表示領域42eに画像データ32bを表示することを要求する。表示部14によるスライド表示が行われると、移動処理部22は、中断フラグ=0に設定する。
なお、以上の説明は表示装置10において、横方向でのスライド表示中に画面の方向が変更された場合を例としたが、縦方向でのスライド表示中に画面の方向が変更された場合も同様に処理が行われる。さらに、表示装置50でも同様に、画面の方向の変更に応じて画面のスライド表示の方向が切り替えられても良い。
図16は、第3の実施形態で行われる処理の例を示すフローチャートである。移動処理部22は、スライド表示中に画面の回転が検出されたかを判定する(ステップS71)。スライド表示中に画面の回転が検出された場合、移動処理部22は、中断フラグ=1に設定するとともに、スライド表示を解除する(ステップS71でYes、ステップS72)。画像データ生成部16は、画面の方向に合わせて新たな画像データ32を生成する(ステップS73)。移動処理部22は、その後、新しく生成された画像データ32を用いてスライド表示のための処理を行う(ステップS74)。スライド表示のための処理は、図7を参照しながら説明したとおりである。ステップS75〜S80の処理は、図6を参照しながら説明したステップS3〜S8と同様である。なお、ステップS71において、スライド表示中に画面の回転が検出されていないと判定されると、移動処理部22は処理を終了する(ステップS71でNo)。
第3の実施形態では、表示装置10または表示装置50が自律的にスライド表示の方向を変更する。このため、スライド表示後で表示領域42などへの入力前に、画面の方向が変更されても、アイコン5などの操作子がユーザの手の届きやすい領域に表示される。このため、ユーザが表示装置10や表示装置50を操作しやすくなる。
<その他>
なお、本発明は上記の実施形態に限られるものではなく、様々に変形可能である。以下にその例をいくつか述べる。
図17は、表示装置の変形例を示す図である。表示装置10は、画面が設置されている面の全体が画面でなくても良く、図17(a)に示すように、画面が設置されている面にハードキー60が設置されていても良い。割り当て部13は、ハードキー60を検出領域40に含めることができる。ハードキー60が検出領域40に含まれている場合、ユーザは、ハードキー60を押し下すことにより、図17(a)の表示から図17(b)に示すスライド表示に変更することができる。また、ハードキー60を押し下すことにより、図17(b)のスライド表示を解除することもできるものとする。なお、表示装置50についても、表示装置10と同様に、画面と同じ面にハードキー60が設置されている装置を用いることもできる。
以上の説明では、アプリケーションによる処理で生成される画像の表示位置のスライドを例として説明したが、対象画像には、表示装置10、50のオペレーティングシステム(Operating System、OS)によって表示されている操作子も含まれても良い。例えば、表示装置10、50の状態をユーザに通知するためにOSが表示する画像や、OSがハードキーの代替としてユーザからの入力を認識する領域を示すアイコンなども、対象画像に含まれていても良い。OSによって表示されている画像やアイコンなども、アプリケーションによって表示されている画像とともに移動することにより、表示装置10、50は、ユーザが操作しやすい環境を提供できる。
以上の説明では、画像の表示位置をずらす場合を例として説明したが、スライド後の表示領域の形状に合わせて、画像データ生成部16が、表示する画像を再生成するように変形しても良い。この場合、移動処理部22は、スライド後の表示領域42を画像データ生成部16に通知し、表示部14は、画像データ生成部16で生成された画像データを表示領域42に表示する。
第2の実施形態において、決定部57は、画面の使用方向にかかわらず、縦方向と横方向の両方について空き領域41と表示領域42の大きさを調整するように設定されても良い。この場合、移動処理部56は、決定部57から通知された座標を画面情報データ31として記録する。このため、第3の実施形態と組み合わせると、ユーザは、一方の方向で空き領域41の大きさを調整することによって、画面の使用方向を変更しても変更後の空き領域41の大きさを使用することができる。
上述の第1〜第3実施形態を含む各実施形態に対し、さらに以下の付記を開示する。
(付記1)
画面を備える表示部と、
ユーザからの入力を受け付ける入力デバイスと、
前記入力デバイスの一部を、前記画面への画像の表示位置の変更の要求を検出する領域である検出領域に割り当てる割り当て部と、
前記検出領域からの入力を検出する検出部と、
前記ユーザが処理対象として選択可能な領域である対象領域を含む第1の画像が前記画面に表示されているときに、前記検出領域からの入力が検出されると、前記第1の画像の表示位置を前記対象領域が前記検出領域に近づくように移動させた第2の画像を、前記表示部に表示させる移動処理部
を備えることを特徴とする表示装置。
(付記2)
前記第1の画像の表示位置を決定する決定部をさらに備え、
前記入力デバイスは、前記画面上の位置の入力に使用されるタッチパネルを含み、
前記第2の画像は、前記第1の画像の表示開始位置をずらすために挿入する画像である挿入画像と、前記第1の画像の少なくとも一部を含み、
前記移動処理部は、前記第2の画像が前記画面に表示されているときに、前記挿入画像が表示されている領域で、前記タッチパネルへの操作であるタッチ操作が発生すると、前記タッチ操作により入力された位置の変動が発生するかを判定し、
前記決定部は、前記変動が発生すると、前記タッチ操作の軌跡を用いて前記挿入画像の大きさを変更する
ことを特徴とする付記1に記載の表示装置。
(付記3)
前記決定部は、
前記変動が発生すると、前記タッチ操作の終了位置を特定し、
前記画面の辺のうちで前記検出領域からの距離が相対的に長い辺から前記終了位置までの距離が、前記画面の長手方向の長さになるように、前記挿入画像の大きさを決定する
ことを特徴とする付記2に記載の表示装置。
(付記4)
前記移動処理部は、
前記タッチ操作により入力された位置が変動しない場合、前記第1の画像の表示位置を戻すことが前記ユーザから要求されたと判定し、
前記第2の画像の代わりに前記第1の画像を前記表示部に表示させる
ことを特徴とする付記2または3に記載の表示装置。
(付記5)
前記画面での表示方向を特定する方向特定部と、
前記画面に表示される画像のデータを生成する生成部
をさらに備え、
前記生成部は、前記第2の画像の表示中に前記画面の表示方向が変更されると、変更後の表示方向に合わせて前記第1の画像のレイアウトを変更した第3の画像を生成し、
前記移動処理部は、前記第3の画像の表示位置を前記対象領域が前記検出領域に近づくように移動させた第4の画像の表示を、前記表示部に表示させる
ことを特徴とする付記1〜4のいずれか1項に記載の表示装置。
(付記6)
前記移動処理部は、
前記第2の画像の表示中に、前記検出領域から入力が検出された場合は、前記第1の画像の表示位置を戻すことが前記ユーザから要求されたと判定し、
前記第2の画像の代わりに前記第1の画像を前記表示部に表示させる
ことを特徴とする付記1〜5のいずれか1項に記載の表示装置。
(付記7)
画面と入力デバイスを備える表示装置に、
前記入力デバイスの一部を、前記画面への画像の表示位置の変更の要求を検出する領域である検出領域に割り当て、
前記検出領域からの入力を検出し、
前記ユーザが処理対象として選択可能な領域である対象領域を含む第1の画像が前記画面に表示されているときに、前記検出領域からの入力が検出されると、前記第1の画像の表示位置を前記対象領域が前記検出領域に近づくように移動させた第2の画像を、前記第1の画像の代わりに前記画面に表示する
処理を行わせることを特徴とする表示制御プログラム。
(付記8)
前記入力デバイスは、前記画面上の位置の入力に使用されるタッチパネルを含み、
前記第2の画像は、前記第1の画像の表示開始位置をずらすために挿入する画像である挿入画像と、前記第1の画像の少なくとも一部を含み、
前記表示装置に、
前記第2の画像が前記画面に表示されているときに、前記挿入画像が表示されている領域で、前記タッチパネルへの操作であるタッチ操作が発生すると、前記タッチ操作により入力された位置の変動が発生するかを判定し、
前記変動が発生すると、前記タッチ操作の軌跡を用いて前記挿入画像の大きさを変更する
処理をさらに行わせることを特徴とする付記7に記載の表示制御プログラム。
(付記9)
前記表示装置に、
前記変動が発生すると、前記タッチ操作の終了位置を特定し、
前記画面の辺のうちで前記検出領域からの距離が相対的に長い辺から前記終了位置までの距離が、前記画面の長手方向の長さになるように、前記挿入画像の大きさを決定する
処理をさらに行わせることを特徴とする付記8に記載の表示制御プログラム。
(付記10)
前記表示装置に、
前記タッチ操作により入力された位置が変動しない場合、前記第1の画像の表示位置を戻すことが前記ユーザから要求されたと判定し、
前記第2の画像の代わりに前記第1の画像を表示する
処理をさらに行わせることを特徴とする付記8または9に記載の表示制御プログラム。
(付記11)
前記表示装置に、
前記画面での表示方向を特定し、
前記第2の画像の表示中に前記画面の表示方向が変更されると、変更後の表示方向に合わせて前記第1の画像のレイアウトを変更した第3の画像を生成し、
前記第3の画像の表示位置を前記対象領域が前記検出領域に近づくように移動させた第4の画像の表示を、前記表示部に表示させる
処理をさらに行わせることを特徴とする付記7〜10のいずれか1項に記載の表示制御プログラム。
(付記12)
前記表示装置に、
前記第2の画像の表示中に、前記検出領域から入力が検出された場合は、前記第1の画像の表示位置を戻すことが前記ユーザから要求されたと判定し、
前記第2の画像の代わりに前記第1の画像を前記表示部に表示させる
処理をさらに行わせることを特徴とする付記7〜11のいずれか1項に記載の表示制御プログラム。
5 アイコン
10、50 表示装置
11 アプリケーション処理部
12 入力デバイス
13 割り当て部
14 表示部
15 表示方向特定部
16 画像データ生成部
20、55 制御部
21 検出部
22、56 移動処理部
23 座標変換部
30 記憶部
31 画面情報データ
32 画像データ
33 処理状況データ
40 検出領域
41 空き領域
42 表示領域
57 決定部
60 ハードキー
101 アンテナ
102 無線処理回路
103 スピーカー
104 マイク
105 オーディオ入出力デバイス
106 加速度センサ
107 プロセッサ
109 表示デバイス
110 メモリ
111 ROM
112 RAM

Claims (9)

  1. 画面を備える表示部と、
    ユーザからの入力を受け付ける入力デバイスと、
    前記入力デバイスの一部を、前記画面への画像の表示位置の変更の要求を検出する領域である検出領域に割り当てる割り当て部と、
    前記検出領域からの入力を検出する検出部と、
    前記ユーザが処理対象として選択可能な領域である対象領域を含む第1の画像が前記画面に表示されているときに、前記検出領域からの入力が検出されると、前記第1の画像の表示位置を前記対象領域が前記検出領域に近づくように移動させた第2の画像を、前記表示部に表示させる移動処理部
    を備えることを特徴とする表示装置。
  2. 前記第1の画像の表示位置を決定する決定部をさらに備え、
    前記入力デバイスは、前記画面上の位置の入力に使用されるタッチパネルを含み、
    前記第2の画像は、前記第1の画像の表示開始位置をずらすために挿入する画像である挿入画像と、前記第1の画像の少なくとも一部を含み、
    前記移動処理部は、前記第2の画像が前記画面に表示されているときに、前記挿入画像が表示されている領域で、前記タッチパネルへの操作であるタッチ操作が発生すると、前記タッチ操作により入力された位置の変動が発生するかを判定し、
    前記決定部は、前記変動が発生すると、前記タッチ操作の軌跡を用いて前記挿入画像の大きさを変更する
    ことを特徴とする請求項1に記載の表示装置。
  3. 前記決定部は、
    前記変動が発生すると、前記タッチ操作の終了位置を特定し、
    前記画面の辺のうちで前記検出領域からの距離が相対的に長い辺から前記終了位置までの距離が、前記画面の長手方向の長さになるように、前記挿入画像の大きさを決定する
    ことを特徴とする請求項2に記載の表示装置。
  4. 前記移動処理部は、
    前記タッチ操作により入力された位置が変動しない場合、前記第1の画像の表示位置を戻すことが前記ユーザから要求されたと判定し、
    前記第2の画像の代わりに前記第1の画像を前記表示部に表示させる
    ことを特徴とする請求項2または3に記載の表示装置。
  5. 前記画面での表示方向を特定する方向特定部と、
    前記画面に表示される画像のデータを生成する生成部
    をさらに備え、
    前記生成部は、前記第2の画像の表示中に前記画面の表示方向が変更されると、変更後の表示方向に合わせて前記第1の画像のレイアウトを変更した第3の画像を生成し、
    前記移動処理部は、前記第3の画像の表示位置を前記対象領域が前記検出領域に近づくように移動させた第4の画像の表示を、前記表示部に表示させる
    ことを特徴とする請求項1〜4のいずれか1項に記載の表示装置。
  6. 前記移動処理部は、
    前記第2の画像の表示中に、前記検出領域から入力が検出された場合は、前記第1の画像の表示位置を戻すことが前記ユーザから要求されたと判定し、
    前記第2の画像の代わりに前記第1の画像を前記表示部に表示させる
    ことを特徴とする請求項1〜5のいずれか1項に記載の表示装置。
  7. 画面と入力デバイスを備える表示装置に、
    前記入力デバイスの一部を、前記画面への画像の表示位置の変更の要求を検出する領域である検出領域に割り当て、
    前記検出領域からの入力を検出し、
    前記ユーザが処理対象として選択可能な領域である対象領域を含む第1の画像が前記画面に表示されているときに、前記検出領域からの入力が検出されると、前記第1の画像の表示位置を前記対象領域が前記検出領域に近づくように移動させた第2の画像を、前記第1の画像の代わりに前記画面に表示する
    処理を行わせることを特徴とする表示制御プログラム。
  8. 前記入力デバイスは、前記画面上の位置の入力に使用されるタッチパネルを含み、
    前記第2の画像は、前記第1の画像の表示開始位置をずらすために挿入する画像である挿入画像と、前記第1の画像の少なくとも一部を含み、
    前記表示装置に、
    前記第2の画像が前記画面に表示されているときに、前記挿入画像が表示されている領域で、前記タッチパネルへの操作であるタッチ操作が発生すると、前記タッチ操作により入力された位置の変動が発生するかを判定し、
    前記変動が発生すると、前記タッチ操作の軌跡を用いて前記挿入画像の大きさを変更する
    処理をさらに行わせることを特徴とする、請求項7に記載の表示制御プログラム。
  9. 前記表示装置に、
    前記画面での表示方向を特定し、
    前記第2の画像の表示中に前記画面の表示方向が変更されると、変更後の表示方向に合わせて前記第1の画像のレイアウトを変更した第3の画像を生成し、
    前記第3の画像の表示位置を前記対象領域が前記検出領域に近づくように移動させた第4の画像の表示を、前記表示部に表示させる
    処理をさらに行わせることを特徴とする、請求項7または8に記載の表示制御プログラム。
JP2013086918A 2013-04-17 2013-04-17 表示装置および表示制御プログラム Pending JP2014211720A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2013086918A JP2014211720A (ja) 2013-04-17 2013-04-17 表示装置および表示制御プログラム
US14/249,033 US20140313147A1 (en) 2013-04-17 2014-04-09 Display device and storage medium
EP14163999.7A EP2793120A1 (en) 2013-04-17 2014-04-09 Display device and display control program
CN201410143437.0A CN104111790A (zh) 2013-04-17 2014-04-10 显示装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013086918A JP2014211720A (ja) 2013-04-17 2013-04-17 表示装置および表示制御プログラム

Publications (2)

Publication Number Publication Date
JP2014211720A true JP2014211720A (ja) 2014-11-13
JP2014211720A5 JP2014211720A5 (ja) 2016-03-10

Family

ID=50486783

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013086918A Pending JP2014211720A (ja) 2013-04-17 2013-04-17 表示装置および表示制御プログラム

Country Status (4)

Country Link
US (1) US20140313147A1 (ja)
EP (1) EP2793120A1 (ja)
JP (1) JP2014211720A (ja)
CN (1) CN104111790A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014241026A (ja) * 2013-06-11 2014-12-25 ソニー株式会社 表示制御装置、表示制御方法およびプログラム
JP2019096182A (ja) * 2017-11-27 2019-06-20 シャープ株式会社 電子装置、表示方法、およびプログラム

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102250856B1 (ko) * 2014-04-30 2021-05-11 삼성전자주식회사 터치 입력 검출 방법, 터치 입력 감지 장치, 및 좌표 표시 장치
US20160364103A1 (en) * 2015-06-11 2016-12-15 Yaron Galant Method and apparatus for using gestures during video playback
US10607399B2 (en) * 2017-05-22 2020-03-31 Htc Corporation Head-mounted display system, method for adaptively adjusting hidden area mask, and computer readable medium
CN108762648A (zh) * 2018-04-28 2018-11-06 维沃移动通信有限公司 屏幕操作控制方法及移动终端
CN110418059B (zh) * 2019-07-30 2021-12-24 联想(北京)有限公司 应用于电子设备的图像处理方法、装置、电子设备、介质

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008129689A (ja) * 2006-11-17 2008-06-05 Xanavi Informatics Corp タッチパネルを備えた入力装置、その入力受付方法
JP2009230765A (ja) * 2009-07-08 2009-10-08 Panasonic Corp 携帯端末装置及び表示制御方法並びに表示制御プログラム
JP2010003307A (ja) * 2008-04-23 2010-01-07 Sharp Corp 携帯情報端末、コンピュータ読取可能なプログラムおよび記録媒体
JP2010033413A (ja) * 2008-07-30 2010-02-12 Casio Hitachi Mobile Communications Co Ltd 表示端末装置及びプログラム
JP2010079442A (ja) * 2008-09-24 2010-04-08 Toshiba Corp 携帯端末
JP2011141825A (ja) * 2010-01-08 2011-07-21 Sony Corp 情報処理装置およびプログラム
US20130038544A1 (en) * 2011-08-10 2013-02-14 Samsung Electronics Co., Ltd. Input and output method in touch screen terminal and apparatus therefor
WO2013035229A1 (ja) * 2011-09-05 2013-03-14 Necカシオモバイルコミュニケーションズ株式会社 携帯端末装置、携帯端末制御方法及びプログラム
JP2013214164A (ja) * 2012-03-30 2013-10-17 Fujitsu Ltd 携帯電子機器、スクロール処理方法及びスクロール処理プログラム
JP2014182587A (ja) * 2013-03-19 2014-09-29 Ntt Docomo Inc 情報端末、操作領域制御方法及び操作領域制御プログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4719494B2 (ja) * 2005-04-06 2011-07-06 任天堂株式会社 入力座標処理プログラムおよび入力座標処理装置
JP2009284468A (ja) * 2008-04-23 2009-12-03 Sharp Corp 携帯情報端末、コンピュータ読取可能なプログラムおよび記録媒体
JP2010160564A (ja) 2009-01-06 2010-07-22 Toshiba Corp 携帯端末
EP2495644B1 (en) * 2009-10-28 2018-08-08 Nec Corporation Portable information terminal comprising two adjacent display screens
US8296332B2 (en) * 2010-04-01 2012-10-23 Apple Inc. Visual manipulation of database schema
KR101686108B1 (ko) * 2010-09-28 2016-12-14 엘지디스플레이 주식회사 터치 패널 일체형 표시 장치
US8963962B2 (en) * 2012-03-06 2015-02-24 Apple Inc. Display of multiple images
KR101496512B1 (ko) * 2012-03-08 2015-02-26 엘지전자 주식회사 이동 단말기 및 그 제어방법
KR101979666B1 (ko) * 2012-05-15 2019-05-17 삼성전자 주식회사 표시부에 출력되는 입력 영역 운용 방법 및 이를 지원하는 단말기

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008129689A (ja) * 2006-11-17 2008-06-05 Xanavi Informatics Corp タッチパネルを備えた入力装置、その入力受付方法
JP2010003307A (ja) * 2008-04-23 2010-01-07 Sharp Corp 携帯情報端末、コンピュータ読取可能なプログラムおよび記録媒体
JP2010033413A (ja) * 2008-07-30 2010-02-12 Casio Hitachi Mobile Communications Co Ltd 表示端末装置及びプログラム
JP2010079442A (ja) * 2008-09-24 2010-04-08 Toshiba Corp 携帯端末
JP2009230765A (ja) * 2009-07-08 2009-10-08 Panasonic Corp 携帯端末装置及び表示制御方法並びに表示制御プログラム
JP2011141825A (ja) * 2010-01-08 2011-07-21 Sony Corp 情報処理装置およびプログラム
US20130038544A1 (en) * 2011-08-10 2013-02-14 Samsung Electronics Co., Ltd. Input and output method in touch screen terminal and apparatus therefor
WO2013035229A1 (ja) * 2011-09-05 2013-03-14 Necカシオモバイルコミュニケーションズ株式会社 携帯端末装置、携帯端末制御方法及びプログラム
JP2013214164A (ja) * 2012-03-30 2013-10-17 Fujitsu Ltd 携帯電子機器、スクロール処理方法及びスクロール処理プログラム
JP2014182587A (ja) * 2013-03-19 2014-09-29 Ntt Docomo Inc 情報端末、操作領域制御方法及び操作領域制御プログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014241026A (ja) * 2013-06-11 2014-12-25 ソニー株式会社 表示制御装置、表示制御方法およびプログラム
US10387026B2 (en) 2013-06-11 2019-08-20 Sony Corporation Apparatus, method, computer-readable storage medium, and smartphone for causing scrolling of content in response to touch operations
US10852932B2 (en) 2013-06-11 2020-12-01 Sony Corporation Apparatus, method, computer-readable storage medium, and smartphone for causing scrolling of content in response to touch operations
US11157157B2 (en) 2013-06-11 2021-10-26 Sony Corporation Apparatus, method, computer-readable storage medium, and smartphone for causing scrolling of content in response to touch operations
US11573692B2 (en) 2013-06-11 2023-02-07 Sony Group Corporation Apparatus, method, computer-readable storage medium, and smartphone for causing scrolling of content in response to touch operations
US12050767B2 (en) 2013-06-11 2024-07-30 Sony Group Corporation Apparatus, method, computer-readable storage medium, and smartphone for causing scrolling of content in response to touch operations
JP2019096182A (ja) * 2017-11-27 2019-06-20 シャープ株式会社 電子装置、表示方法、およびプログラム

Also Published As

Publication number Publication date
CN104111790A (zh) 2014-10-22
US20140313147A1 (en) 2014-10-23
EP2793120A1 (en) 2014-10-22

Similar Documents

Publication Publication Date Title
US11561680B2 (en) Method and apparatus for adding icon to interface of android system, and mobile terminal
US11054986B2 (en) Apparatus including a touch screen under a multi-application environment and controlling method thereof
JP2014211720A (ja) 表示装置および表示制御プログラム
EP3287884B1 (en) Display device and method of controlling the same
JP5900500B2 (ja) 携帯電子機器及びキー表示プログラム
KR102251834B1 (ko) 전자 장치의 디스플레이 방법
KR20140124278A (ko) 디스플레이 영역을 조절하기 위한 방법 및 그 방법을 처리하는 전자 장치
CN103197878B (zh) 信息处理装置和信息处理方法
US7979092B2 (en) Apparatus and method for display control in a mobile communication terminal
KR20150094484A (ko) 사용자 단말 장치 및 이의 디스플레이 방법
JP2007272904A (ja) 画面表示項目を選択する端末機及び方法
KR101803311B1 (ko) 디스플레이 장치 및 이의 ui 제공 방법
EP2743814A2 (en) Display apparatus and method of providing user interface thereof
CN112230914B (zh) 小程序的制作方法、装置、终端及存储介质
KR20160057651A (ko) 디스플레이 장치 및 그 제어 방법
JP5861710B2 (ja) 携帯電子機器及びキー表示プログラム
JPWO2017022031A1 (ja) 情報端末装置
CN105335007B (zh) 触摸控制方法、用户设备、输入处理方法和移动终端
JP5113218B2 (ja) 携帯端末装置、表示制御方法、及び表示制御プログラム
KR20140073380A (ko) 디스플레이 장치 및 그 제어 방법
JP4854797B2 (ja) プログラムおよび電子機器
JP2015082148A (ja) 携帯端末、画像処理装置、及びプログラム
JP4977480B2 (ja) 電子機器及びプログラム
JP2018005531A (ja) 電子機器、制御方法、及びプログラム
JP2013033499A (ja) 携帯端末装置、表示制御方法、及び表示制御プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160119

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160920

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160921

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161117

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170110