JP2014092880A - 表示装置、表示制御方法及びプログラム - Google Patents

表示装置、表示制御方法及びプログラム Download PDF

Info

Publication number
JP2014092880A
JP2014092880A JP2012242079A JP2012242079A JP2014092880A JP 2014092880 A JP2014092880 A JP 2014092880A JP 2012242079 A JP2012242079 A JP 2012242079A JP 2012242079 A JP2012242079 A JP 2012242079A JP 2014092880 A JP2014092880 A JP 2014092880A
Authority
JP
Japan
Prior art keywords
display
user
user interface
interface image
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012242079A
Other languages
English (en)
Other versions
JP6034140B2 (ja
Inventor
Seiji Shiraishi
誠二 白石
Tetsuro Tanaka
徹郎 田中
Taketsugu Tsuchimoto
剛嗣 土本
Manabu Furukawa
学 古川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2012242079A priority Critical patent/JP6034140B2/ja
Publication of JP2014092880A publication Critical patent/JP2014092880A/ja
Application granted granted Critical
Publication of JP6034140B2 publication Critical patent/JP6034140B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】表示装置に各種の処理を指示するときのユーザの負担を少なくする。
【解決手段】ユーザは、裏面操作を行うことで表示面141上の所望の位置にユーザインターフェース画像UIを表示させ、表示装置10に対して所望の処理を指示する。ユーザインタフェース画像UIはユーザの人差し指f1の指先が届く範囲内の位置で表示されるから、表示面141においてその位置に対しては親指f2も届きやすく、アイコンを選択する操作も容易となる。ユーザは、コンテンツが表示されていない背景領域などの裏面部分を人差し指f1で触るようにすれば、コンテンツの視認に邪魔にならない領域にユーザインタフェース画像UIを表示させることが可能となる。
【選択図】図1

Description

本発明は、表示装置においてユーザインタフェースとして機能する画像を表示する技術に関する。
ユーザが手に持って操作することの可能な表示装置には、表面(おもてめん)に画像を表示する一方、裏面からユーザの操作入力を受け付ける機能を有するものがある。特許文献1には、デジタルフォトフレーム等の表示装置の裏面に対するユーザの接触操作を検出して、表面に表示する画像に対する各種処理(スライドショーの早送りや巻き戻し、一時停止等)を行うことが開示されている。
特開2010−108071号公報
ところで、ユーザが表示装置を利用する場合、必ずしも両手を使って操作できるとは限らない。例えば、ユーザが表示装置を持っていないほうの手で荷物を持っていたり電車やバスのつり革を握っていたりすると、表示装置を持っている手だけでその表示装置を操作しなければならない。このようにユーザが片手で表示装置を操作しなければならない場合であっても、ユーザの操作負担はなるべく小さいことが望ましい。
また、特許文献1に記載の仕組みによれば、表示装置の裏面をユーザが指で触るときの接触方法を変えることで、早送りや巻き戻し、一時停止等の各種処理を個別に指示することができる。しかしながら、処理の種類が多い場合には、ユーザは、その接触方法と処理との対応関係を覚えていなければ、所望の処理をすばやく指示することができない。よって、ユーザの操作に関する負担は大きいと言える。
そこで、本発明の目的は、表示装置に各種の処理を指示するときのユーザの負担を少なくすることにある。
上述した課題を解決するため、本発明は、画像を表示する表示面と、前記表示面とは反対側に設けられた操作面と、前記操作面に対してユーザが行った操作を検出する操作検出手段と、前記操作検出手段によって操作が検出されると、当該操作が行われた前記操作面上の位置に対応する前記表示面上の位置に、前記ユーザが自装置の行う処理を指示するためのユーザインタフェース画像を表示させる表示制御手段とを備えることを特徴とする表示装置を提供する。
前記表示制御手段は、前記ユーザインタフェース画像を前記表示面に表示させた後に、当該ユーザインタフェース画像の表示位置に対応する前記操作面上の位置が操作されたことを前記操作検出手段が検出すると、当該ユーザインタフェース画像の表示を止める、又は、当該ユーザインタフェース画像の表示態様を変えるようにしてもよい。
前記表示制御手段は、前記ユーザインタフェース画像を前記表示面に表示させた後に、当該ユーザインタフェース画像の表示位置に対応しない前記操作面上の位置が操作されたことを前記操作検出手段が検出すると、当該ユーザインタフェース画像の表示を止めて、前記操作が行われた前記操作面上の位置に対応する前記表示面上の位置に、新たに前記ユーザインタフェース画像を表示させるようにしてもよい。
前記表示制御手段は、前記操作が行われた前記操作面上の位置に応じて異なるユーザインタフェース画像を前記表示面に表示させるようにしてもよい。また、前記表示制御手段は、前記ユーザが前記操作面に対する操作を行ったときの力の大きさに応じて異なるユーザインタフェース画像を前記表示面に表示させるようにしてもよい。また、前記表示制御手段は、前記ユーザが前記操作面に対する操作を行ったときの操作量に応じて異なるユーザインタフェース画像を前記表示面に表示させるようにしてもよい。
前記操作検出手段は、前記操作面に対してユーザが行った第1操作と、前記表示面に対してユーザが行った第2操作とをそれぞれ検出し、前記表示制御手段は、前記操作検出手段が検出した第1操作と第2操作とに応じて、前記ユーザインタフェース画像を前記表示面に表示させるようにしてもよい。
また、本発明は、画像を表示する表示面とは反対側に設けられた操作面に対してユーザが行った操作を検出するステップと、前記操作面に対する操作が検出されると、当該操作が行われた前記操作面上の位置に対応する前記表示面上の位置に、前記ユーザが自装置の行う処理を指示するためのユーザインタフェース画像を表示させるステップとを有する表示制御方法を提供する。
また、本発明は、コンピュータに、画像を表示する表示面とは反対側に設けられた操作面に対してユーザが行った操作を検出するステップと、前記操作面に対する操作が検出されると、当該操作が行われた前記操作面上の位置に対応する前記表示面上の位置に、前記ユーザが自装置の行う処理を指示するためのユーザインタフェース画像を表示させるステップとを実行させるためのプログラムを提供する。
本発明によれば、表示装置に各種の処理を指示するときのユーザの負担を少なくすることができる。
表示装置のハードウェア構成を示すブロック図。 表示装置の外観図。 ユーザが表示装置を把持したときの様子を示す図。 表示装置の機能構成を示すブロック図。 制御部の処理の手順を示すフローチャート。 ユーザインタフェース画像が変化する様子を説明する図。 ユーザインタフェース画像の表示例を説明する図。 ユーザインタフェース画像の表示例とユーザの操作を説明する図。 ユーザインタフェース画像の表示例とユーザの操作を説明する図。
以下、図面を参照しつつ本発明の実施形態を説明する。
[実施形態]
図1は、本発明の一実施形態である表示装置10のハードウェア構成を示すブロック図である。表示装置10は、例えば携帯電話機、スマートフォン、無線LAN(Local Area Network)端末またはタブレット端末など、ユーザが手に持った状態で操作可能であり、画像を表示する機能を少なくとも有する装置である。表示装置10は、図1に示すように、制御部11と、操作部12と、通信部13と、表示部14と、記憶部15とを備える。制御部11は、CPU(Central Processing Unit)、ROM(Read Only Memory)、及びRAM(Random Access Memory)を有するマイクロコンピュータである。CPUは、ROMや記憶部15に記憶されたプログラムをRAMに読み出して実行することにより、表示装置10の各部を制御する。操作部12は、裏面タッチパッド121、表面センサ122及び物理キー(図示略)を備え、ユーザによる操作を受け付ける。通信部13は、無線通信回路やアンテナを有し、図示しないネットワークに接続して通信するためのインタフェースである。表示部14は、例えば液晶ディスプレイであり、複数の画素が配列された矩形の表示面141を有している。記憶部15は、例えばEEPROM(Electronically Erasable and Programmable ROM)やフラッシュメモリ等の記憶装置であり、制御部11により実行されるプログラムや、表示部14に表示されるコンテンツを記憶する。表示部14に表示されるコンテンツは例えば電子書籍であり、通信部13により表示装置10にダウンロードされるなどの方法により、記憶部15に記憶される。
図2において、(a)は、表示装置10の表面を平面視したときの外観図であり、(b)は、表示装置10の裏面を平面視したときの外観図である。ユーザが表示装置10を持ったとき、ユーザに正対する側の面が表面であり、その反対側の面が裏面である。表示装置10は、ユーザが片手に持つことができる程度の寸法で、全体として板状(言い換えれば薄い直方体状)の形状である。裏面タッチパッド121は、表示装置10の裏面に設けられた操作面として機能する。裏面タッチパッド121は、ユーザの指等を用いて行われた接触操作を、例えば接触センサを用いて検出する。裏面タッチパッド121は、接触操作により指示された位置を検出すると、検出した位置を示す位置情報(裏面タッチパッド121における座標情報)を制御部11に供給する。裏面タッチパッド121は、例えば静電容量型のセンサであるが、センサの検出方式は特に問わない。裏面タッチパッド121が検出する操作のことを、以下では「裏面操作」という。
表面センサ122は、表示面141に重ねて設けられ、表示装置10の表面に設けられた操作面として機能する。表面センサ122は、表示面141に表示された画像をユーザが視認するのを妨げないように、例えば透明の素材で形成されている。表面センサ122は、ユーザの指等が表示面141に接触している状態を検出するセンサである。表面センサ122は、例えば静電容量型のセンサであるが、センサの検出方式は特に問わない。表面センサ122は、ユーザの指等で指示された位置を検出すると、検出した位置を示す位置情報(表面センサ122における座標情報)を制御部11に供給する。表面センサ122が検出する操作のことを、以下では「表面操作」という。
なお、図2においては、表示面141が裏面タッチパッド121よりも大きいが、これは一例にすぎず、表示面141と裏面タッチパッド121とがほぼ同じ大きさであってもよい。ただし、表示面141に垂直な方向から視たとき、表示面141と裏面タッチパッド121とが重なるような位置関係になっている。
図3において、(a)は、ユーザが表示装置10を右手で把持して表示面141に表示された画像を閲覧するときの様子を表し、(b)は、ユーザが表示装置10を右手で把持したまま裏面操作を行ったときの様子を表す。図3(a)に示すように、ユーザは、画像を閲覧するとき、右手で裏面側から包み込むように表示装置10を把持する。ユーザが右手を用いて裏面操作を行う場合には、図3(b)に示すように、例えば表示装置10の裏面タッチパッド121において、人差し指f1の届く範囲内で裏面タッチパッド121の表面を軽く押す(触る)操作を行う。これに応じて、この操作が行われた裏面タッチパッド121上の操作位置(人差し指f1の指先の位置)に対応する表示面141上の位置に、ユーザが表示装置10の行う処理を指示するためのユーザインタフェース画像UIが表示されるようになっている。
ここで、“裏面タッチパッド121上の操作位置に対応する表示面141上の位置”とは、裏面タッチパッド121上の操作位置が決まれば表示面141上の位置も一意に決まるというような対応関係にあるような位置のことである。典型的には、この表示面141上の位置は、表示面141に垂直な方向から視たときに、裏面タッチパッド121上の操作位置とちょうど重なるような表示面141上の位置である。この場合、図3(b)に示すように、ユーザから見れば、自らの人差し指f1の指先の位置にユーザインタフェース画像UIが表示されているように感じられる。
ユーザインターフェース画像とは、表示装置10とユーザとの間で情報のやり取りを行うための画像であり、例えば、処理に関連付けられたアイコンやソフトボタンなどのオブジェクトをユーザの指等の指示子によって指し示すためのグラフィカルユーザインタフェース(GUI)である。図3(b)の例では、ユーザインタフェース画像UIは、データを保存する処理を指示するためのアイコンi1と、データを新たに表示する処理を指示するためのアイコンi2と、電子メールを作成する処理を指示するためのアイコンi3とを含んでいる。ユーザは、表示面141に表示されたユーザインターフェース画像UIに含まれるアイコンを親指f2などで触ることで、表示装置10に対して所望の処理を指示し、表示装置10の制御部11はその処理を実行する。このユーザインタフェース画像UIは、ユーザと対話し得るように構成されたものであるから、ユーザの選択肢となる処理の種類が多い場合であっても、ユーザはこのユーザインタフェース画像UIの案内に従って操作すればよいだけであるから、操作負担は小さい。
また前述したように、ユーザインタフェース画像UIはユーザの人差し指f1の指先が届く範囲内の位置に表示されるから、表示面141においてもその位置に対して親指f2が届きやすく、アイコンを選択する操作も容易となる。ユーザは、図3(a)の状態でコンテンツが表示されていない背景領域などの裏面部分を人差し指f1で触るようにすれば、コンテンツの視認に邪魔にならない領域にユーザインタフェース画像UIを表示させることが可能となる。つまり、ユーザは様々な理由により自らが表示させたいと考えた位置にユーザインタフェース画像UIを表示させることができる。なお、ユーザが表示装置10を左手で把持した場合については、図3に関する説明において、「右手」を「左手」に読み替えればよい。
図4は、表示装置10の機能構成を示すブロック図である。図4に示すように、表示装置10の制御部11は、操作検出部111と表示制御部112としての機能を実現する。操作検出部111は、操作部12に対してユーザに行われた操作を検出する。操作検出部111は、裏面タッチパッド121から位置情報を取得し、取得した位置情報に応じて裏面操作を検出する。また、操作検出部111は、表面センサ122から位置情報を取得し、取得した位置情報に応じて表面操作を検出する。
表示制御部112は、表示部14を制御して表示面141に画像を表示させる。表示制御部112は、操作検出部111が検出した表面操作に応じた表示制御を行う。例えば、表示制御部112は、表示面141に表示されたアイコン等のオブジェクトが選択されると、選択されたオブジェクトに応じた画像を表示させる。また、表示制御部112は、操作検出部111が検出した裏面操作に応じた表示制御を行う。例えば、表示制御部112は、裏面操作が行われた裏面タッチパッド121上の位置に対応する表示面141上の位置に、前述したインタフェース画像UIを表示させる。
次に、本実施形態の動作を説明する。図5は、制御部11によるユーザインタフェース画像の表示に関する処理の手順を示すフローチャートである。制御部11は、例えば図3(a)に示す態様でユーザに把持された状態で、ユーザが閲覧しようとするコンテンツを選択する表面操作を検出すると、選択されたコンテンンツを表示面141に表示させる。制御部11は、コンテンツの表示中に、裏面タッチパッド121によって裏面操作を検出したかどうかを判断する(ステップS11)。
制御部11は、裏面操作を検出した場合には(ステップS11;YES)、裏面タッチパッド121における座標情報を表面センサ122における座標情報に変換することで、裏面操作の操作位置に対応する表示面141上の位置を特定する(ステップS12)。そして、制御部11は、特定した表示面141上の位置にユーザインタフェース画像UIを表示させる(ステップS13)。
これにより、図3(b)に示すように、ユーザインタフェース画像UIが表示面141に表示される。図6(a)はユーザインタフェース画像UIの拡大図である。ユーザインタフェース画像UIは、前述したアイコンi1〜i3のほか、ユーザインタフェース画像を更新するためのソフトボタンS11,S12が含まれている。制御部11は、アイコンi1〜i3のいずれかがユーザにより選択され、処理が指示されたと判断すると(ステップS14;YES)、制御部11は、選択されたアイコンに関連付けられた処理を実行する(ステップS15)。
本実施形態では、5つ以上のアイコンがリング状となるよう仮想的に配置されており、ソフトボタンi11,i12が選択されると、そのリングが回転したかの如く、アイコンの位置が1つずれた状態でユーザインタフェース画像UIが表示されるようになっている。例えば、右方向を指し示すソフトボタンS11が選択されると、制御部11は、ユーザインタフェース画像UIの送り操作がなされたと判断して(ステップS16;YES)、リング状となるよう仮想的に配置されたアイコンの位置が左に1つ移動した状態になるように、ユーザインタフェース画像UIを更新して表示する(ステップS17)。
これにより、図6(b)に示すようなユーザインタフェース画像UIが表示面141に表示される。このユーザインタフェース画像UIは、前述したアイコンi2、i3のほか、画像の拡大処理を指示するためのアイコンi4が含まれているが、アイコンi1は含まれていない。一方、左方向を指し示すソフトボタンS10が選択されると、制御部11は、ユーザインタフェース画像の送り操作がなされたと判断して、アイコンの位置が右に1つ移動した状態になるように、ユーザインタフェース画像UIを更新して表示する。
ユーザは、ユーザインタフェース画像UIを表示面141から消去したい場合には、そのユーザインタフェース画像UIの表示位置に対応する裏面タッチパッド121上の位置を触ればよい。制御部11は、ユーザインタフェース画像UIを表示面141に表示させた後に、そのユーザインタフェース画像UIの表示位置に対応する裏面タッチパッド121上の位置が操作されたことを検出すると(ステップS18;YES)、ユーザインタフェース画像の表示を止めてコンテンツのみを表示した状態に戻る(ステップS19)。
また、ユーザは、ユーザインタフェース画像UIの表示位置を変更したい場合には、そのユーザインタフェース画像UIの表示位置に対応する裏面タッチパッド121上の位置以外の位置(つまりユーザインタフェース画像UIの新たな表示位置に対応する裏面タッチパッド121上の位置)を触ればよい。制御部11は、ユーザインタフェース画像UIを表示面141に表示させた後に、そのユーザインタフェース画像UIの表示位置に対応する裏面タッチパッド121上の位置以外の位置が操作されたことを検出すると(ステップS20;YES)、それまでに表示していたユーザインタフェース画像UIを消去し、さらに、その操作位置に対応する表示面141上の位置に新たにユーザインタフェース画像UIを表示する(ステップS21)。つまり、ユーザからは、ユーザインタフェース画像UIが移動したように見える。
以上説明したように、本実施形態によれば、ユーザは、裏面操作を行うことにより、表示面141上の所望の位置にユーザインターフェース画像UIを表示させ、そして、このユーザインターフェース画像UIに対する表面操作により表示装置10に所望の処理を指示することができる。よって、ユーザにとって選択肢となる処理の種類が多い場合であっても、ユーザはこのユーザインタフェース画像UIの案内に従って操作すればよいだけであり、例えば処理の種類と操作方法との対応関係を記憶する必要などがない。
そして、ユーザインタフェース画像UIはユーザの人差し指f1の指先が届く範囲内の位置で表示されるから、表示面141においてもその位置に対しては親指f2が届きやすく、処理を指示するアイコンを選択する操作も容易となる。
また、ユーザは、コンテンツが表示されていない背景領域などの裏面部分を人差し指f1で触るようにすれば、コンテンツの視認に邪魔にならない領域にユーザインタフェース画像UIを表示させることが可能となる。
なお、ユーザインターフェース画像UIの表示位置を指定するときに、裏面操作ではなく、表面操作で指定することも可能である。しかし、仮にそのような仕組みにしてしまうと、表面操作するときに、表示面141に表示されているコンテンツを親指が遮ることになるので、このときにコンテンツの視認が妨げられることになる。これに対し、本実施形態によれば、ユーザインターフェース画像UIを表示するまでの過程においてコンテンツの視認が妨げられることがない。
[変形例]
本発明は、上述した実施形態と異なる形態で実施することが可能である。本発明は、例えば、以下のような形態で実施することも可能である。また、以下に示す変形例は、各々を適宜に組み合わせてもよい。
(変形例1)
実施形態では、アイコンの位置を移動させる送り操作を意味するソフトボタンを選択することで、異なる内容のユーザインタフェース画像UIを表示させていたが、以下のようにしてユーザインタフェース画像UIを表示させるようにしてもよい。
例えば制御部11は、操作が行われた裏面タッチパッド121上の位置に応じて異なるユーザインタフェース画像を表示面141に表示させてもよい。図7(A)に示すように、例えば、裏面タッチパッド121の予め決められた中央領域が操作されれば、制御部11は、表示されているコンテンツを処理対象とした第1のユーザインタフェース画像UI1(例えばコンテンツの保存、コピーや拡大といった処理を指示するためのユーザインタフェース画像)を表示する。一方、図7(B)に示すように、、裏面タッチパッド121の予め決められた端部領域が操作されれば、制御部11は、表示されているコンテンツを処理対象としない第2のユーザインタフェース画像UI2(例えばメーラや音声認識ソフトなどの他のソフトウェアの起動といった処理を指示するためのユーザインタフェース画像)を表示する。
また、制御部11は、ユーザが裏面タッチパッド121に対する操作を行ったときの力の大きさに応じて異なるユーザインタフェース画像を表示面に表示させてもよい。例えば、
裏面タッチパッド121はユーザの指によって押されたときの押圧力を検知する機能を備えている。そして、制御部11は、裏面操作における押圧力を検知して、図8(A)に示すように、押圧力が閾値以上であれば、表示されているコンテンツを処理対象とした第1のユーザインタフェース画像UI1を表示し、図8(B)に示すように、押圧力が閾値未満であれば、表示されているコンテンツを処理対象としない第2のユーザインタフェーズ画像UI2を表示する。
また、制御部11は、ユーザが裏面タッチパッド121に対する操作を行ったときの操作量に応じて異なるユーザインタフェース画像を表示面に表示させてもよい。例えば、制御部11は、裏面操作で裏面タッチパッド121を押す操作が連続して行われた回数(操作量)に応じて異なるユーザインターフェース画像を表示する。具体的には、制御部11は、押す操作が1回であれば、表示されているコンテンツを処理対象とした第1のユーザインタフェース画像UI1を表示し、押す操作が所定期間内に2回連続してあれば、表示されているコンテンツを処理対象としない第2のユーザインタフェーズ画像UI2を表示する。
なお、上述した実施形態および変形例において、表示装置10が検出する裏面操作の操作方法を規定する具体的数値や態様はあくまで一例であり、これ以外の数値や態様に適宜変更されてもよい。
(変形例2)
表示装置10は、両手操作モードと片手操作モードという異なる操作モードを有し、片手操作モード時においてのみ、裏面操作に応じてユーザインタフェース画像の表示を行ってもよい。この場合に、両手操作モード時の表示制御はどのように行ってもよく、例えば表面操作のみによって表示制御を行ってもよい。操作モードの判定については、表示装置10は、ユーザが手動で設定した操作モードが両手操作モードであるか片手操作モードであるかということを特定してもよいし、表面操作や裏面操作の検知結果を解析して、操作モードを自動判別して特定してもよい。
(変形例3)
実施形態において、制御部11は、裏面操作のみに応じてユーザインタフェース画像を表示していたが、裏面操作(第1操作)と表面操作(第2操作)とをそれぞれ検出し、これら裏面操作(第1操作)と表面操作(第2操作)とに応じてユーザインタフェース画像を表示面141に表示させるようにしてもよい。図9(A)に示すように、例えば、制御部11は、裏面操作(第1操作)を検出した後に、表示面141上の所定の位置を触る表面操作(第2操作)があった場合にユーザインタフェース画像UIを表示面に表示させるようにしてもよい。また、図9(B)に示すように、制御部11は、表示面141上の所定の位置を触る表面操作(第2操作)があった後に、裏面操作(第1操作)を検出すると、ユーザインタフェース画像UIを表示面に表示させるようにしてもよい。また、図9(C)に示すように、制御部11は、表示面141上の所定の位置を触る表面操作(第2操作)を行っている期間中に、裏面操作(第1操作)を検出すると、ユーザインタフェース画像UIを表示面に表示させるようにしてもよい。なお、図9(A)〜(C)において制御部11は全て同じユーザインタフェース画像UIを表示させていたが、それぞれの操作方法に応じて異なるユーザインタフェース画像を表示させてもよい。例えば、制御部11は、裏面操作(第1操作)を検出した後に表面操作(第2操作)があった場合にユーザインタフェース画像UI1を表示させる。また、表面操作(第2操作)があった後に裏面操作(第1操作)を検出した場合には、ユーザインタフェース画像UI2を表示させる。また、表面操作(第2操作)を行っている期間中に裏面操作(第1操作)を検出した場合には、ユーザインタフェース画像UI1およびUI2、或いは、これらと異なるユーザインタフェース画像を表示させる。
(変形例4)
実施形態において、制御部11は、ユーザインタフェース画像UIを表示面141に表示させた後に、そのユーザインタフェース画像UIの表示位置に対応する裏面タッチパッド121上の位置が操作されたことを検出すると、ユーザインタフェース画像の表示を止めていた。これに代えて、制御部11は、そのユーザインタフェース画像UIをその操作前よりも小さい大きさで表示するとか、半透明の画像として表示するとか、表示面141の端部に寄せて表示するなどのように、操作前とは表示態様を変えて表示するようにしてもよい。
(変形例5)
上述した実施形態に係る表示装置10は、その表面と裏面とが正反対の方向を向いていた。表示装置10の表面と裏面の位置関係はこれに限らず、表面の法線が裏面の法線方向の成分を持つような方向であってもよく、このような場合も、裏面の操作面が表面の表示面とは反対側に設けられている、という意味に含まれる。
また、表示装置10は、表面操作や裏面操作を接触操作で検知していたが、表面や裏面に対する操作を非接触の近接操作で検出してもよい。また、表示装置10は、表面操作を接触操作で検知するのではなく、物理キーの押下操作等で検知してもよい。この場合、表示装置10は表面センサ122を備えなくてよい。
上述した実施形態および各変形例において、表示装置10の制御部11が実現する各機能は、複数のプログラムの組み合わせによって実現され、又は、複数のハードウェア資源の協働によって実現されうる。また、本発明の表示装置は、コンピュータや制御部11が実行するプログラムやコンテンツの表示制御方法として把握することも可能である。
10…表示装置、11…制御部、111…操作検出部、112…表示制御部、12…操作部、121…裏面タッチパッド、122…表面センサ、13…通信部、14…表示部、141…表示面、15…記憶部。

Claims (9)

  1. 画像を表示する表示面と、
    前記表示面とは反対側に設けられた操作面と、
    前記操作面に対してユーザが行った操作を検出する操作検出手段と、
    前記操作検出手段によって操作が検出されると、当該操作が行われた前記操作面上の位置に対応する前記表示面上の位置に、前記ユーザが自装置の行う処理を指示するためのユーザインタフェース画像を表示させる表示制御手段と
    を備えることを特徴とする表示装置。
  2. 前記表示制御手段は、
    前記ユーザインタフェース画像を前記表示面に表示させた後に、当該ユーザインタフェース画像の表示位置に対応する前記操作面上の位置が操作されたことを前記操作検出手段が検出すると、
    当該ユーザインタフェース画像の表示を止める、又は、当該ユーザインタフェース画像の表示態様を変える
    ことを特徴とする請求項1に記載の表示装置。
  3. 前記表示制御手段は、
    前記ユーザインタフェース画像を前記表示面に表示させた後に、当該ユーザインタフェース画像の表示位置に対応しない前記操作面上の位置が操作されたことを前記操作検出手段が検出すると、
    当該ユーザインタフェース画像の表示を止めて、前記操作が行われた前記操作面上の位置に対応する前記表示面上の位置に、新たに前記ユーザインタフェース画像を表示させる
    ことを特徴とする請求項1又は2に記載の表示装置。
  4. 前記表示制御手段は、
    前記操作が行われた前記操作面上の位置に応じて異なるユーザインタフェース画像を前記表示面に表示させる
    ことを特徴とする請求項1から3のいずれか1項に記載の表示装置。
  5. 前記表示制御手段は、
    前記ユーザが前記操作面に対する操作を行ったときの力の大きさに応じて異なるユーザインタフェース画像を前記表示面に表示させる
    ことを特徴とする請求項1から3のいずれか1項に記載の表示装置。
  6. 前記表示制御手段は、
    前記ユーザが前記操作面に対する操作を行ったときの操作量に応じて異なるユーザインタフェース画像を前記表示面に表示させる
    ことを特徴とする請求項1から3のいずれか1項に記載の表示装置。
  7. 前記操作検出手段は、
    前記操作面に対してユーザが行った第1操作と、前記表示面に対してユーザが行った第2操作とをそれぞれ検出し、
    前記表示制御手段は、
    前記操作検出手段が検出した第1操作と第2操作とに応じて、前記ユーザインタフェース画像を前記表示面に表示させる
    ことを特徴とする請求項1から6のいずれか1項に記載の表示装置。
  8. 画像を表示する表示面とは反対側に設けられた操作面に対してユーザが行った操作を検出するステップと、
    前記操作面に対する操作が検出されると、当該操作が行われた前記操作面上の位置に対応する前記表示面上の位置に、前記ユーザが自装置の行う処理を指示するためのユーザインタフェース画像を表示させるステップと
    を有することを特徴とする表示制御方法。
  9. コンピュータに、
    画像を表示する表示面とは反対側に設けられた操作面に対してユーザが行った操作を検出するステップと、
    前記操作面に対する操作が検出されると、当該操作が行われた前記操作面上の位置に対応する前記表示面上の位置に、前記ユーザが自装置の行う処理を指示するためのユーザインタフェース画像を表示させるステップと
    を実行させるためのプログラム。
JP2012242079A 2012-11-01 2012-11-01 表示装置、表示制御方法及びプログラム Active JP6034140B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012242079A JP6034140B2 (ja) 2012-11-01 2012-11-01 表示装置、表示制御方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012242079A JP6034140B2 (ja) 2012-11-01 2012-11-01 表示装置、表示制御方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2014092880A true JP2014092880A (ja) 2014-05-19
JP6034140B2 JP6034140B2 (ja) 2016-11-30

Family

ID=50936924

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012242079A Active JP6034140B2 (ja) 2012-11-01 2012-11-01 表示装置、表示制御方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6034140B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016079931A1 (en) * 2014-11-18 2016-05-26 Sharp Kabushiki Kaisha User Interface with Touch Sensor
US10387033B2 (en) 2013-06-10 2019-08-20 Lenovo (Singapore) Pte. Ltd. Size reduction and utilization of software keyboards

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003058316A (ja) * 2001-08-21 2003-02-28 Sharp Corp 携帯端末
JP2004135340A (ja) * 2002-10-09 2004-04-30 Nec Corp 携帯電子デバイス上で使用するためのタッチパッド技術
JP2004334315A (ja) * 2003-04-30 2004-11-25 Toshiba Corp 情報処理装置および機能選択方法
JP2010251844A (ja) * 2009-04-10 2010-11-04 Olympus Imaging Corp 撮像装置およびそのモード切換え方法
JP2011043991A (ja) * 2009-08-21 2011-03-03 Olympus Imaging Corp ユーザインターフェース装置、携帯機器、およびプログラム
JP2011076233A (ja) * 2009-09-29 2011-04-14 Fujifilm Corp 画像表示装置、画像表示方法およびプログラム
WO2012065885A1 (en) * 2010-11-15 2012-05-24 Movea Smart air mouse

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003058316A (ja) * 2001-08-21 2003-02-28 Sharp Corp 携帯端末
JP2004135340A (ja) * 2002-10-09 2004-04-30 Nec Corp 携帯電子デバイス上で使用するためのタッチパッド技術
JP2004334315A (ja) * 2003-04-30 2004-11-25 Toshiba Corp 情報処理装置および機能選択方法
JP2010251844A (ja) * 2009-04-10 2010-11-04 Olympus Imaging Corp 撮像装置およびそのモード切換え方法
JP2011043991A (ja) * 2009-08-21 2011-03-03 Olympus Imaging Corp ユーザインターフェース装置、携帯機器、およびプログラム
JP2011076233A (ja) * 2009-09-29 2011-04-14 Fujifilm Corp 画像表示装置、画像表示方法およびプログラム
WO2012065885A1 (en) * 2010-11-15 2012-05-24 Movea Smart air mouse

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10387033B2 (en) 2013-06-10 2019-08-20 Lenovo (Singapore) Pte. Ltd. Size reduction and utilization of software keyboards
WO2016079931A1 (en) * 2014-11-18 2016-05-26 Sharp Kabushiki Kaisha User Interface with Touch Sensor

Also Published As

Publication number Publication date
JP6034140B2 (ja) 2016-11-30

Similar Documents

Publication Publication Date Title
JP5983503B2 (ja) 情報処理装置及びプログラム
EP2987108B1 (en) Grip force sensor array for one-handed and multimodal interaction on handheld devices and methods
US9436376B2 (en) Load required to cancel an input on a touch sensor is adjusted when the slide of a touch object is detected
JP5642659B2 (ja) 電子機器及び電子機器の制御方法
US20140015786A1 (en) Electronic device
US9459704B2 (en) Method and apparatus for providing one-handed user interface in mobile device having touch screen
JP6297787B2 (ja) 携帯電子機器
US20140055384A1 (en) Touch panel and associated display method
JP6109788B2 (ja) 電子機器及び電子機器の作動方法
US20150033175A1 (en) Portable device
WO2012160829A1 (ja) タッチスクリーン装置、タッチ操作入力方法及びプログラム
US20200089362A1 (en) Device and control method capable of touch sensing and touch pressure sensing
US20150248213A1 (en) Method to enable hard keys of a device from the screen
JP2012199888A (ja) 携帯端末
KR20160019762A (ko) 터치 스크린 한손 제어 방법
WO2016183912A1 (zh) 菜单布局方法及装置
CN106681640B (zh) 一种移动终端的屏幕显示控制方法及移动终端
JP6551579B2 (ja) 携帯端末及びプログラム
US20140359541A1 (en) Terminal and method for controlling multi-touch operation in the same
JP6153487B2 (ja) 端末及び制御方法
US20170075453A1 (en) Terminal and terminal control method
JP6034140B2 (ja) 表示装置、表示制御方法及びプログラム
EP3528103B1 (en) Screen locking method, terminal and screen locking device
WO2015029239A1 (ja) 情報処理装置、表示制御方法およびプログラム
JP5624662B2 (ja) 電子機器、表示制御方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150812

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160517

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160518

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160712

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161027

R150 Certificate of patent or registration of utility model

Ref document number: 6034140

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250