JP5486721B2 - Display control device, display control device control method, program, and storage medium - Google Patents
Display control device, display control device control method, program, and storage medium Download PDFInfo
- Publication number
- JP5486721B2 JP5486721B2 JP2013127971A JP2013127971A JP5486721B2 JP 5486721 B2 JP5486721 B2 JP 5486721B2 JP 2013127971 A JP2013127971 A JP 2013127971A JP 2013127971 A JP2013127971 A JP 2013127971A JP 5486721 B2 JP5486721 B2 JP 5486721B2
- Authority
- JP
- Japan
- Prior art keywords
- display
- gesture
- image
- gesture operation
- display control
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Description
本発明は、タッチパネルへのジェスチャー操作入力のための表示制御装置及び表示制御装置の制御方法に関する。 The present invention relates to a display control device for inputting a gesture operation to a touch panel and a control method for the display control device.
近年、表示部にタッチパネルを備え、直感的な操作が可能となったデジタル機器が登場している。それらの機器ではタッチパネル表示上に置かれているボタンアイコンで機能を実行させるだけでなく、ジェスチャー認識させて機能を呼び出すことも可能である。しかしこれらのジェスチャー認識というのは誰でもそして簡単に操作させるには使用方法を事前に知っておく必要がある。または知っていても操作完了までジェスチャー認識されたのか否かがわかりにくく、操作が難しい。 In recent years, digital devices having a touch panel in a display unit and capable of intuitive operation have appeared. In these devices, it is possible not only to execute a function with a button icon placed on the touch panel display, but also to call the function with gesture recognition. However, it is necessary for anyone to know how to use these gesture recognitions in advance so that they can be operated easily. Or even if it is known, it is difficult to know whether or not the gesture has been recognized until the operation is completed, and the operation is difficult.
ジェスチャー認識を用いたユーザインターフェースの操作性を向上するために、ジェスチャー認識させるためのガイダンスを表示させるという手法が提案されている。このような従来のガイダンス表示方法として、一定時間以上入力がないことを検出してアプリケーションを実行するためのガイドを表示するという方法がある(特許文献1参照)。 In order to improve the operability of the user interface using gesture recognition, a method of displaying guidance for gesture recognition has been proposed. As such a conventional guidance display method, there is a method of detecting that there is no input for a certain period of time and displaying a guide for executing an application (see Patent Document 1).
しかし特許文献1に記載のガイダンス表示方法では、ガイドを見ながら操作をしたいユーザにとっては一定時間操作を待つ必要があり、すぐに操作をすることができない。またデジタルカメラなどの小型ディスプレイ上において撮影された画像を閲覧することを望むユーザにとっては、その他の関係のない編集操作に対するガイドが表示されつづけるのは画像そのものが見づらくなってしまうといった課題がある。
However, in the guidance display method described in
本発明は上記の課題に鑑みてなされたものであり、ガイド表示による表示の煩雑化を解消するとともに、ユーザが簡単にジェスチャー操作を行えるようなガイド表示を可能とする表示制御装置を提供することを目的とするものである。 The present invention has been made in view of the above problems, and provides a display control device that eliminates the complication of display by guide display and enables guide display so that a user can easily perform a gesture operation. It is intended.
上記の目的を達成するための本発明の一態様による表示制御装置は、以下の構成を有する。すなわち、
タッチパネル式の表示手段の表示画面上へのタッチ入力を検出する入力手段と、
前記表示手段の表示画面に、画像を表示するとともに、該画像に関する情報を該画像とともに表示する表示処理手段と、
前記表示手段に前記画像を表示している際に前記入力手段で検出されたタッチ入力の軌跡が、ジェスチャー操作の一部となり得る軌跡である場合に、前記表示手段に表示された前記情報を非表示とするとともに、複数のジェスチャー操作のうち、前記タッチ入力を継続することで確定され得るジェスチャー操作であるジェスチャー操作候補に関するガイダンスを前記表示手段の表示画面に表示するように制御する表示制御手段と、を有する。
In order to achieve the above object, a display control apparatus according to one aspect of the present invention has the following configuration. That is,
An input means for detecting a touch input on the display screen of the touch panel type display means;
Display processing means for displaying an image on the display screen of the display means and displaying information about the image together with the image;
When the touch input locus detected by the input means when displaying the image on the display means is a locus that can be part of a gesture operation, the information displayed on the display means is not displayed. Display control means for controlling to display guidance on a gesture operation candidate that is a gesture operation that can be determined by continuing the touch input among a plurality of gesture operations, and displaying on the display screen of the display means Have.
本発明によれば、ガイド表示による表示の煩雑化を解消するとともに、ユーザが簡単にジェスチャー操作を行えるようなガイド表示をすることが可能となる。 According to the present invention, it is possible to eliminate the complicated display by the guide display and to perform the guide display so that the user can easily perform the gesture operation.
以下、図面を参照して本発明の好適な実施形態を説明する。
図1は本発明が実施されうる表示制御装置の一例としてのデジタルカメラ100の構成例を示している。CPU101はコンテンツ管理装置の動作を制御する演算処理装置であり、入力部105等を介してユーザからの指示受け付けをし、後述する各種プログラムを実行し、ディスプレイ104の表示制御を行う。撮像部102では画像の撮影を行う。メモリ103はCPU101のワークエリアとして使用される。ディスプレイ104は本実施形態によるグラフィックユーザインターフェースを表示するための表示部であり、この表示部上に後述する画像や表示アイテムが表示される。入力部105は、ユーザからの指示を受け付けるための入力部であり、本実施形態では、ディスプレイ104の表示画面上に設けられたタッチパネル113を含む入力デバイスである。すなわち、入力部105は、ディスプレイ104の表示画面上へのタッチ入力を検出し、その情報をCPU101に提供する。ユーザは入力部105を使用することで、コンテンツ管理プログラムを実行できるような構成となっている。なお、タッチパネル113としては、このような接触型の物に限られず、例えば光学式(表示画面の側部から赤外線を照射する構成)のものであってもよい。すなわち、タッチパネル式の表示部が形成されていればよい。
Preferred embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 shows a configuration example of a
記録媒体ドライブ106は、CD−ROMやDVD−ROM、フラッシュメモリ等からなる外部記録媒体108に格納されているデータの読み出しや、外部記録媒体108にデータの書き込みを行う装置である。外部記録媒体108には、撮像部102で撮像された画像や、CPU101が実行するプログラムが記憶されているものとする。I/F107は通信回線109を介してネットワーク110と接続される。センサ112は、加速度センサ等からなる振動検知手段であり、デジタルカメラ100の姿勢や振動の検出を行う。CPU101はセンサ112で検出した振動に基づいてディスプレイ104に表示されている画像の切り替えや回転などの各種機能を実行することができる。CPU101がI/F107を介してネットワーク110上にあるプログラムを実行することも可能であり、ネットワーク110上のプログラムにも本発明を適用できる。
The
上述のように、入力部105はタッチパネル113を有し、タッチパネル113への接触位置を検出し、検出した位置を内部バス111を通じてCPU101に通知する。CPU101は、通知された接触位置に基づいて、タッチパネル113を指やペンで触れる(以下タッチダウンと称する)、離す(以下タッチアップ、又はタッチ入力の解除と称する)、触れたまま移動する(以下ドラッグと称する)といった操作を検出する。なお、CPU101は、タッチパネル113上をタッチダウンから一定距離以上のドラッグを経てタッチアップをしたときにストロークが描かれたと判断する。そして、このストロークの形状が、予め登録されているジェスチャーのいずれかに該当する場合、CPU101は、該当したジェスチャーに対応付けられている機能を実行する。
As described above, the
本実施形態における前提条件を述べる。デジタルカメラ100が認識できる、ユーザの操作指示を示すジェスチャーパターンを図2に示す。本例では、1ストローク中に第1の方向(本例ではY方向)のタッチ入力の移動軌跡とこれに続く第2の方向(本例ではX方向)のタッチ入力の移動軌跡を持つ4つのストロークパターンとする。より厳密には、表示画面上でのタッチ位置の第1の方向の移動成分が所定距離以上となった後に、該タッチ位置の前記表示画面上で該第1の方向と垂直な第2の方向の移動成分が所定距離以上となるストロークパターンである(第1の条件)。移動軌跡とは、タッチ入力のドラッグにより描かれる軌跡である。そして、これらパターンをジェスチャー1、ジェスチャー2、ジェスチャー3、ジェスチャー4と名づける。なお、タッチ入力のX成分、Y成分とは、図7の(a)に示した座標系700におけるX方向、Y方向のタッチ入力成分である。またこれらジェスチャーにあらかじめ割り当てられた機能をそれぞれ機能F1、機能F2、機能F3、機能F4とし、ここでは機能F1に割り当てられた機能を画像の消去、F2では画像の保護、F3では画像の回転、F4では画像のスライドショーとする。例えばジェスチャー1を認識確定した場合、画像の消去というアプリケーションを呼び出すことができるものとする。
Preconditions in this embodiment will be described. FIG. 2 shows gesture patterns indicating user operation instructions that can be recognized by the
図3は無入力の状態からガイダンス表示処理までの流れを説明したフローチャートである。無入力の状態とは、図7の(a)のように、ディスプレイ104には外部記録媒体108に格納されている画像が表示されている状態で入力部105から何の入力もされていない状態である。なお後述する図3、図4、図5、図6のフローチャートにより示される処理は、外部記録媒体108に記憶されたプログラムをCPU101が実行することで実現する。
FIG. 3 is a flowchart for explaining the flow from the no-input state to the guidance display process. The no-input state is a state in which no image is input from the
S301において、CPU101は、入力部105からの入力イベントを監視する。ここでいう入力イベントとは、タッチパネル113へのタッチ入力(タッチアップ、タッチダウン、ドラッグ)、およびタッチパネル113以外の入力機器からの操作イベントなどがあげられる。入力イベントが発生すると処理はS302へ進む。S302において、CPU101は、S301で検出した入力イベントがタッチダウンイベントか否かを判定する。タッチダウンイベントと判定された場合は、S303において、CPU101は、タッチの開始点として、その座標をP(Xo,Yo)としメモリ103に保持し、再びイベント監視を行い次のイベント受信まで待機する(S301)。一方、S302でタッチダウンイベントでないと判定された場合は、処理はS304へ進む。
In step S <b> 301, the
S304では、CPU101はイベントがタッチアップイベントか否かを判定する。タッチアップイベントと判定した場合はS305に進み、CPU101は、タッチ開始点Pをメモリ103からクリアし、イベント監視を行い次のイベント受信まで待機する(S301)。一方、S304でタッチアップイベントでないと判定された場合は、処理はS306へ進む。
In S304, the
S306では、CPU101は、入力イベントがドラッグイベントか否かを判定する。ドラッグイベントと判定された場合はS307に進み、CPU101は、そのときタッチしている点を現在点とし、その座標をC(X,Y)としてメモリ103に保持する。そしてS308へ進む。一方、S306でドラッグイベントでないと判定された場合は、処理はS315へ進む。
In S306, the
S308では、CPU101は、開始点の座標Pから現在点の座標Cまでの移動量、すなわち距離を算出し、X成分における距離をSx、Y成分における距離をSyとしてメモリ103に保持する。そして、S309〜S311では、入力部105によって検出されているタッチ入力の軌跡がジェスチャー操作の一部(図2により示したジェスチャーパターンの一部)であるかどうかを判定する。まず、S309において、CPU101は、X成分の距離Sxが閾値B1を超えたか否かを判定する。X成分の距離Sxが閾値B1を超えた場合、すなわち、X方向へのタッチ入力の移動量が閾値B1を超えた場合にはジェスチャー認識候補(ジェスチャー操作候補)からはずれS316へ進み、超えない場合にはS310へ進む。ここでX成分の距離が閾値B1を超えたというのは、タッチ入力がX方向に移動しすぎたためにY方向のストロークではないと認識され、デジタルカメラ100が認識できるジェスチャーパターンに当てはまらないことを意味する。よってジェスチャー認識候補(ジェスチャー操作候補)からはずれる。
In S <b> 308, the
S310において、CPU101は、Y成分の距離Syが閾値A1(<0)を下回ったか否かを判定する。下回った場合はS312へ進み、下回っていない場合はS311へ進む。ここでいうY成分の距離Syが閾値A1を下回ったとは、Y成分のストロークの負の方向(タッチパネル上における上方向とする)への移動量が距離|A1|を上回ったことを意味する。一方、S311において、CPU101は、Y成分の距離Syが閾値A2(>0)を超えたか否かを判定する。超えた場合はS313へ進み、超えていない場合はS301へ進む。ここでいうY成分の距離Syが閾値A2を超えたとは、Y成分のストロークの正の方向(タッチパネル上における下方向とする)への移動量が距離|A2|を上回ったことを意味する。なおS310およびS311でA1<0、A2>0としたが、正負の値を逆にしてもよい。また|A1|=|A2|として上下の閾値の距離を一定としてもよいし、|A1|≠|A2|として正負に応じて一定でないとしてもよい。
In S310, the
以上のようにして、S310、S311の判定により、タッチ入力の移動量がY軸・負方向へ|A1|を上回った場合、またはY軸・正方向へ|A2|を上回った場合、当該タッチ入力はジェスチャー認識候補(ジェスチャー操作候補)と判定される。すなわち、タッチ入力の開始からの移動量が第1の方向へ所定量を超えた場合に、当該タッチ入力の移動軌跡はジェスチャー操作の一部であると判定されたことになる。そして、S312では、CPU101はY成分の距離Syが閾値A1を下回ったという情報をメモリ103へ保持する。そしてS314へ進む。S313では、CPU101はY成分の距離Syが閾値A2を超えたという情報をメモリ103へ保持する。そしてS314へ進む。S314において、CPU101は後述するガイダンス以外の文字情報を非表示にする。そして、図4に示すガイダンス表示処理へ進む。なおガイダンス以外の文字情報とは、図7の(a)に示すように画像701に重畳して表示される画像701の撮影日時702や画像701を撮影した際の撮影設定値703などの情報を指す。
As described above, if the amount of movement of the touch input exceeds | A1 | in the Y-axis / negative direction or exceeds | A2 | in the Y-axis / positive direction according to the determinations in S310 and S311, the touch The input is determined as a gesture recognition candidate (gesture operation candidate). That is, when the movement amount from the start of the touch input exceeds a predetermined amount in the first direction, it is determined that the movement locus of the touch input is a part of the gesture operation. In step S <b> 312, the
一方S315では、CPU101は、検出されたイベントがタッチパネル以外の物理ボタンなどの入力インベントか否かの判定を行う。タッチパネル以外の入力イベントと判定した場合はS316へ進み、タッチパネルの入力イベントと判定した場合はS301へと進む。S316では、CPU101は、S307やS308で算出したジェスチャー認識情報を消去し、本処理を終了する。すなわち、タッチパネルへの操作中であっても、物理ボタンへの操作など、タッチパネル以外の操作があった場合にはそちらを優先してジェスチャーの認識処理を終了する。S308の後にタッチアップを検知してもジェスチャーによる機能は発動しない。
On the other hand, in S315, the
図4はガイダンス表示処理のフローチャートであり、図3のS314に続く処理である。ガイダンス表示処理では、ジェスチャー操作の一部(すなわち、ジェスチャー認識候補)であると判定されたタッチ入力について、当該タッチ入力を継続することで確定され得るジェスチャー操作を候補として選択し、ガイダンス表示を行う。まず、S401において、CPU101はY成分の距離が閾値A1を下回ったかどうかを判定する。この判定に関しては、S312もしくはS313によって保持した情報を用いる。下回ったと判定した場合は処理はS402へ進む。この時点でジェスチャー操作の候補は図2のジェスチャー1とジェスチャー2である。他方、下回らなかったと判定した場合は、Y成分の距離が閾値A2を上回った場合であり、処理はS408へ進む。この時点で、ジェスチャー操作の候補は図2のジェスチャー3とジェスチャー4である。
FIG. 4 is a flowchart of the guidance display process, which is a process following S314 in FIG. In the guidance display process, for a touch input determined to be a part of the gesture operation (that is, a gesture recognition candidate), a gesture operation that can be determined by continuing the touch input is selected as a candidate, and guidance display is performed. . First, in S401, the
S402〜S407の処理を開始する時点では、当該タッチ入力を継続することで特定され得るジェスチャーの候補として図2のジェスチャー1,2が選択されることになる。したがって、これら選択されたジェスチャーの候補に関するガイダンス表示をディスプレイ104上に行ってもよい。しかしながら、本実施形態では、更に操作性を向上するために、その時点で実行可能でない機能が割り当てられているジェスチャーのガイダンス表示を禁止し、実行可能な機能が割り当てられているジェスチャーのみをガイダンス表示する。まず、S402において、CPU101は、機能F1が有効かつ機能F2が有効であるか否かの判定をする。つまり現在ディスプレイ104上に表示されている画像に対して、画像を消去ができるか、そして、画像保護できるか状態かを判定することを意味する。機能F1も機能F2も有効である場合はS403へ進んで実行可能な機能を複数表示し、否の場合にはS404へ進む。
At the time of starting the processes of S402 to S407, the
S403ではジェスチャー1とジェスチャー2のガイダンスを表示する。ここでいうガイダンスとは図7の(b)に示すように機能名や図形を表示させることを意味する。機能名711はジェスチャー1の機能名を表しており、画像701に重畳して表示される。図形712はジェスチャー1の機能を発動するためにストロークすべき方向を表しており、画像701に重畳して表示される。機能名711と図形712により、ユーザは指をこのままタッチパネルから離さずに左方向(図形712の表す方向)に移動すればジェスチャー1の操作が認識され、画像701を消去できることがわかる。同様に、機能名713と図形714はジェスチャー2に関するものであり、指を右に動かせばジェスチャー2の操作が認識され、画像701を保護できることを表している。機能名711と図形712、機能名713と図形714は、それぞれのジェスチャーの機能を発動させるためにタッチ位置を移動させるべき位置に表示される。例えば、ジェスチャー1はY方向にA1(<0)、すなわち画面上で上方向に所定距離動いた後に、X方向にD1(<0)、すなわち画面上で左方向に所定量動くストロークで確定される。したがってジェスチャー1に割り当てられた機能を実行するためには、タッチ位置が左上に移動することになる。この移動を促すために、ジェスチャー1のガイダンスである機能名711と図形712は、ディスプレイ104の表示画面の左上領域(X座標が画面中央より左側で、Y座標が画面中央より上側の領域)に表示される。同様の理由により、ジェスチャー2のガイダンスである機能名713と図形714は、ディスプレイ104の表示画面の右上領域(X座標が画面中央より右側で、Y座標が画面中央より上側の領域)に表示される。
In S403, the
またS401の判定によりY方向のストロークが負の方向(上方向)へ進んだことを意味するので、その後に認識できるジェスチャーパターンはジェスチャー1もしくはジェスチャー2に限られたことになる。この場合、図7の(b)のようにジェスチャー1とジェスチャー2に関するガイダンスのみを表示することで、その後X成分のストロークを描いても認識できないジェスチャーパターンに関しては表示する必要がなくなる。そのため、残りのパターンのガイドを表示させるための表示エリアを有効に使用することが可能となる。
In addition, since the determination in S401 means that the stroke in the Y direction has advanced in the negative direction (upward), the gesture pattern that can be recognized thereafter is limited to
S404において、CPU101は、機能F1が有効かつ機能F2が無効であるか否かの判定をする。つまり現在ディスプレイ104上に表示されている画像に対して、画像を消去ができるが、画像保護ができない状態かを判定することを意味する。F1のみが有効である場合はS405へ進み、否の場合にはS406へ進む。S405では、CPU101は、ジェスチャー1に関するガイダンスのみをディスプレイ104に表示し、ジェスチャー2に関するガイダンスは表示しない。S406では、CPU101は、機能F1が無効かつ機能F2が有効であるか否かの判定をする。F2のみが有効である場合はS407へ進み、否の場合にはジェスチャー認識処理へ進む。S407では、CPU101は、ジェスチャー2に関するガイダンスのみをディスプレイ104に表示し、ジェスチャー1に関するガイダンスは表示しない。
In S404, the
一方S408へ進む場合は、Y方向のストロークが正の方向(下方向)へ進んだことを意味する。つまりその後のジェスチャーパターンはジェスチャー3もしくはジェスチャー4に限られたことになる。よってこの後のS408、S410、S412の各処理は、機能F1が機能F3であり、機能F2が機能F4であることを除いて前述のS402、S404、S406と同様である。なお、上述したジェスチャー1,2と同様の理由により、ジェスチャー3のガイダンスである機能名と図形は、ディスプレイ104の表示画面の左下領域(x座標が画面中央より左側で、Y座標が画面中央より下側の領域)に表示される。また、ジェスチャー4のガイダンスである機能名と図形は、ディスプレイ104の表示画面の右下領域(X座標が画面中央より右側で、Y座標が画面中央より下側の領域)に表示される。
On the other hand, when proceeding to S408, it means that the stroke in the Y direction has proceeded in the positive direction (downward). That is, the subsequent gesture pattern is limited to gesture 3 or gesture 4. Therefore, the subsequent processes of S408, S410, and S412 are the same as S402, S404, and S406 described above except that the function F1 is the function F3 and the function F2 is the function F4. For the same reason as
以上説明したように、ジェスチャー認識途中で、その後にタッチ入力を継続すると特定され得るジェスチャーで実行可能な機能名を表すガイダンスを表示する。これによって、ユーザは現在行っているジェスチャー操作を継続することでどのような機能を発動することができるのかを識別することができる。すなわち、現在までのところユーザが意図するジェスチャー操作が行えているか否かを確認することができる。また、タッチ入力を継続することで確定され得るジェスチャーで実行可能な機能名を表すガイダンスとともに、その機能を発動するためにストロークすべき方向を表すガイダンスを表示する。これによってユーザはその後どのような操作をすればジェスチャー認識させることができるかということが視覚的にわかりやすくなり、その結果ジェスチャー操作が容易になる。 As described above, during the gesture recognition, the guidance indicating the function name that can be executed by the gesture that can be specified by continuing the touch input is displayed. Thus, the user can identify what function can be activated by continuing the gesture operation currently being performed. That is, it is possible to confirm whether the gesture operation intended by the user has been performed so far. In addition, a guidance indicating a function name that can be executed with a gesture that can be determined by continuing touch input is displayed together with a guidance that indicates a direction to be stroked to activate the function. This makes it easier for the user to visually understand what kind of operation can be made to recognize the gesture thereafter, and as a result, the gesture operation becomes easy.
なおS405の説明で機能F2が無効の場合はガイダンスを表示しないと述べたが、表示形態を変えるなどして有効である場合の表示と区別して表示してもよい。この場合、例えば機能F1、F2がともに有効でない場合に、その旨をユーザに知らせることができるようになる。すなわち、ユーザは、ジェスチャー操作の候補は存在するものの、実行できる機能に対応したジェスチャー操作は存在しないことを知ることができる。またガイダンスは機能名や図形と述べたが、例えばX成分の移動を示す矢印をガイダンスとして含めても良い。またガイダンス表示は静止している例を示したが、ストロークを描く操作のガイドをアニメーション表現を用いることによって操作を誘導するようにしても良い。 In the description of S405, it is described that the guidance is not displayed when the function F2 is invalid. However, the guidance may not be displayed by changing the display form or the like. In this case, for example, when both the functions F1 and F2 are not effective, it is possible to notify the user to that effect. That is, the user can know that there is no gesture operation corresponding to a function that can be executed although there are gesture operation candidates. Further, although the guidance is described as function names and figures, for example, an arrow indicating movement of the X component may be included as guidance. Moreover, although the guidance display showed the example which is still, you may make it guide | invade operation by using animation expression for the guide of operation which draws a stroke.
またS314でジェスチャー操作候補以外の操作に関わる情報を非表示にすることにより、ジェスチャー認識とは関係のない情報を非表示にし、伝えたい情報だけを表示することができる。そのため、ユーザが操作がしやすくなるとともに、限られた表示エリアをジェスチャー認識のガイドで利用できるので有効に使うことができるといった効果がある。 Further, by hiding information related to operations other than gesture operation candidates in S314, it is possible to hide information that is not related to gesture recognition and display only the information to be transmitted. Therefore, it is easy for the user to operate, and there is an effect that the limited display area can be used effectively by the gesture recognition guide.
また本実施形態ではジェスチャー操作のみ述べたが、タッチパネル上で可能な操作というのはジェスチャー操作だけではない。たとえば、タッチダウン後、X成分の正方向にドラッグさせた場合は次の画像表示させたり、負の方向にドラッグさせた場合は前の画像を表示させたりする操作も可能である。つまり一つの画面で複数の操作ができるのが望ましい。ただし、この場合、ユーザが次の画像表示の操作をしたつもりが誤ってすこしでもY成分にドラッグしたことにより図4のガイダンス表示処理においてジェスチャーのガイダンスが表示されてしまう可能性がある。このようなガイダンス表示は、画像送りをしたいユーザにとっては邪魔なガイダンスとなってしまう。そのために本実施形態ではS310、S311で述べたように、Y成分の距離が閾値に達する前にガイダンスを表示させないようにして、ジェスチャー認識と画像送り処理を区別している。よって画像閲覧時には関係のないガイド表示を気にすることなく快適な画像閲覧ができるといった効果がある。 Although only the gesture operation has been described in the present embodiment, the operation that can be performed on the touch panel is not only the gesture operation. For example, after the touchdown, the next image can be displayed when dragged in the positive direction of the X component, and the previous image can be displayed when dragged in the negative direction. In other words, it is desirable that a plurality of operations can be performed on one screen. However, in this case, there is a possibility that the guidance of the gesture is displayed in the guidance display processing of FIG. 4 because the user intends to perform the next image display operation and drags it to the Y component by mistake. Such a guidance display is annoying guidance for a user who wants to send an image. Therefore, in the present embodiment, as described in S310 and S311, the guidance recognition is not displayed before the distance of the Y component reaches the threshold, and the gesture recognition and the image feed processing are distinguished. Therefore, there is an effect that comfortable image browsing can be performed without worrying about unrelated guide display during image browsing.
次にジェスチャー認識途中からジェスチャー確定した際に表示してあるガイダンスを変化させる場合について説明する。図5は図4に続くジェスチャー認識処理で、Y成分の距離Syが閾値A1を下回っていた(上方向のストロークだった)場合のフローチャートである。この場合、ジェスチャーの候補はジェスチャー1かジェスチャー2である。
Next, a case where the displayed guidance is changed when the gesture is confirmed during the gesture recognition will be described. FIG. 5 is a flowchart when the Y component distance Sy is less than the threshold value A1 in the gesture recognition process following FIG. In this case, the gesture candidate is
S501およびS502は前述のS301およびS302と同様である。S502でタッチダウンイベントと判定した場合はS501へ進み、タッチダウンイベントでないと判定した場合はS503へ進む。S503は前述のS304と同様である。タッチアップイベントであると判定した場合S516へ進み、タッチアップイベントでないと判定した場合はS504へと進む。S504は前述のS306と同様である。ドラッグイベントであると判定した場合はS505へと進み、ドラッグイベントでないと判定した場合はS515へと進む。 S501 and S502 are the same as S301 and S302 described above. If it is determined in S502 that the event is a touchdown event, the process proceeds to S501. If it is determined that the event is not a touchdown event, the process proceeds to S503. S503 is the same as S304 described above. If it is determined that the event is a touch-up event, the process proceeds to S516. If it is determined that the event is not a touch-up event, the process proceeds to S504. S504 is the same as S306 described above. If it is determined that the event is a drag event, the process proceeds to S505. If it is determined that the event is not a drag event, the process proceeds to S515.
S505およびS506は前述のS307およびS308と同様である。S506を終えると、処理S507へと進む。S507において、CPU101は、S506で算出したSx、Syの値がそれぞれ同一ストローク内での最大値Sx_max、Sy_maxよりも大きい場合は、Sx_max、Sy_maxにSx、Syを代入し、最大値の更新を行う。同様にSx、Syの値が同一ストローク内での最小値Sx_min,Sy_minよりも小さい場合は、Sx_min、Sy_minにSx、Syを代入し、最小値の更新を行う。そして処理はS508へ進む。 S505 and S506 are the same as S307 and S308 described above. When S506 ends, the process proceeds to S507. In S507, if the values of Sx and Sy calculated in S506 are larger than the maximum values Sx_max and Sy_max in the same stroke, S101 substitutes Sx and Sy for Sx_max and Sy_max, and updates the maximum values. . Similarly, when the values of Sx and Sy are smaller than the minimum values Sx_min and Sy_min within the same stroke, Sx and Sy are substituted for Sx_min and Sy_min, and the minimum value is updated. Then, the process proceeds to S508.
S508において、CPU101は、Y方向に対して逆向きに動いたか否かの判定を行う。動いたと判定した場合はS517へと進んでジェスチャー認識情報をクリアし、動いていないと判定した場合はS509へと進む。S508の判定を細かく述べる。例えばY成分に対して負の方向へストロークしていた場合は、Sy_minの値は負の値であり、Syも負の値である。ここでSy_minの値とSyの値の差異を演算する。差異がある場合は現在点CがY成分のストロークに対して逆向きに動いたことを意味する。逆にY成分に対して正の方向へストロークしていた場合はSy_maxの値とSyの値の差異を演算する。このようにすることで、ストロークがジェスチャーパターン通りの動きをしているかの判定をすることが可能となる。
In step S508, the
また前述したSy_minの値とSyの値に差異にマージンをもたせてもよい。つまりSy_minの値とSyの値に差異が所定量を超えたとき、逆向きに動いたとする判定する方法である。例えば所定量をB2とし、Sy-Sy_min>B2となった場合に逆向きに動いたと判定する。これにより、指などのように一点をタッチしているつもりでも、タッチパネルデバイスに入力された座標が微小な動きを検出するような場合の誤検出を防ぐことが可能となる。 Further, a margin may be given to the difference between the value of Sy_min and the value of Sy. That is, when the difference between the Sy_min value and the Sy value exceeds a predetermined amount, it is determined that the movement has been reversed. For example, when the predetermined amount is B2 and Sy-Sy_min> B2, it is determined that the movement has been reversed. This makes it possible to prevent erroneous detection when the coordinates input to the touch panel device detect minute movements even if the user intends to touch one point like a finger.
S509では、CPU101はX方向に対して逆向きに動いたか否かの判定を行う。動いたと判定した場合はS517へと進んでジェスチャー認識情報をクリアし、動いていないと判定した場合はS510へと進む。ここでS509の詳細を、ジェスチャー2を確定する場合を例にとって説明する。ジェスチャー2の認識途中の操作ではX成分の正方向へストロークを描いている途中なので、Sx_maxの値は正の値であり、Sxも正の値である。ここでSx_maxの値とSxの値の差異を演算する。差異がある場合は現在点CがX成分の正方向のストロークに対して逆向きに動いたことを意味する。逆向きに動いたと判定した場合はS516へ進みジェスチャー情報をクリアする。また前述したS508での説明と同様に例えば所定量をB3とし、Sx_max−Sx>B3とすることで誤った操作をしたときにS516へ進んでしまうのを防ぐようにしてもよい。ジェスチャー1を確定する場合に関しても同様である。この場合、Sx_min、Sxは負の値であるので、Sx_minの値とSxの値の差異を演算することで、現在点CがX成分の負方向のストロークに対して逆向きに動いたことを判定する。
In step S509, the
このように、ジェスチャー操作の途中で、タッチ入力を継続することで実行可能な機能名を表示した上で、S503、S508、S509、S515のいずれかでYESと判定される操作をすると、ジェスチャー操作による機能発動をしないようにすることができる。従ってユーザは、ジェスチャー操作の途中で表示される機能名を見て、現在までのジェスチャー操作では意図する機能が発動できないことが分かった場合に、ジェスチャー操作をキャンセルして、表示された機能名の機能を発動しないようにするこができる。このように、ジェスチャー操作による意図しない機能の発動を防止することができる。 As described above, when the operation name that can be executed by continuing the touch input is displayed in the middle of the gesture operation and the operation determined as YES in any of S503, S508, S509, and S515, the gesture operation is performed. It is possible to prevent the function from being activated. Therefore, when the user sees the function name displayed in the middle of the gesture operation and finds that the intended function cannot be activated by the current gesture operation, the user cancels the gesture operation and The function can be disabled. In this way, it is possible to prevent an unintended function from being activated by a gesture operation.
S510では、X成分の負方向の距離Sxが閾値を下回ったか否かの判定を行う。下回ったと判定した場合はS511へと進み、下回っていないと判定した場合はS513へと進む。ここでの判定はX成分の距離がジェスチャー1を認識させるための必要な距離を満たしたかどうか否かの判定である。S511では機能F1が発動できるか否かの判定を行う。発動できると判定した場合はS512へ進み、発動できないと判定した場合S517へと進む。
In S510, it is determined whether or not the distance Sx in the negative direction of the X component has fallen below a threshold value. If it is determined that it has fallen below, the process proceeds to S511. If it is determined that it has not fallen below, the process proceeds to S513. This determination is a determination as to whether or not the distance of the X component satisfies the distance necessary for recognizing the
一方、S513では、X成分の正方向の距離Sxが閾値を超えたか否かの判定を行う。超えたと判定した場合はS514へと進み、超えていないと判定した場合はS501へと進む。ここでの判定はX成分の距離がジェスチャー2を認識させるための必要な距離を満たしたかどうかの判定である。S514では機能F2が発動できるか否かの判定を行う。発動できると判定した場合はS512へ進み、発動できないと判定した場合S517へと進む。 On the other hand, in S513, it is determined whether or not the distance Sx in the positive direction of the X component exceeds the threshold value. If it is determined that it has exceeded, the process proceeds to S514, and if it is determined that it has not exceeded, the process proceeds to S501. This determination is a determination as to whether or not the distance of the X component satisfies the distance necessary for recognizing the gesture 2. In S514, it is determined whether or not the function F2 can be activated. If it is determined that it can be activated, the process proceeds to S512, and if it is determined that it cannot be activated, the process proceeds to S517.
S512において、CPU101は、図8の(a)のようにジェスチャーガイダンスの表示を確定モードの表示へと変更し、ジェスチャーを確定する。ジェスチャーが確定すると、現在のタッチ入力でのジェスチャー操作で実行可能な機能が確定される。確定したジェスチャーの情報はメモリ103に保持する。本例では、ジェスチャー2の操作が確定した状態が示されている。図8の(a)では、図7(b)に比べてジェスチャー1の機能名711と図形712,714が消去され、ジェスチャー2の確定を示す表示801が表示された状態となっている。このように表示することで、ユーザは現在までのストロークでジェスチャー2が装置に認識されたことがわかり、ここで指を離せばジェスチャー2に割り当てられた機能が発動することが識別できる。なお、確定した状態を示す表示はこれに限られるものではないことは明らかである。例えば、機能名713の表示を保持したままタッチ入力の移動方向を示す図形(例えば図形714)のみをを消去することで、確定状態を示すようにしても良い。また、機能名713や図形714を消去せずに、機能名713や図形714の色や形などの表示形態を変更して確定状態を示すようにしても良いし、機能名713や図形714に枠やマークを付すなどして確定状態を示すようにしても良い。
In S512, the
また、S515は前述のS315と同様である。タッチパネル以外の入力イベントと判定した場合はS516へ進み、タッチパネルの入力イベントと判定した場合はS501へと進む。S516では、CPU101は、S305で記憶したタッチ開始点情報の消去を行い、処理をS517へ進める。S517は前述のS316と同様である。S518において、CPU101は図4のフローチャートの処理(ガイダンス表示処理)にて表示したガイダンスを非表示にし、図7の(a)に示した表示状態へ戻し、処理を終了する。S518の後にタッチアップを検知してもジェスチャーによる機能は発動しない。
S515 is the same as S315 described above. If it is determined that the input event is other than a touch panel, the process proceeds to S516. If it is determined that the input event is a touch panel, the process proceeds to S501. In S516, the
なお、図5では機能F1もしくはF2を確定する場合のジェスチャー確定の例を述べたが、機能F3もしくはF4を確定する場合のジェスチャー確定についてもY方向の正負を逆にして同様の処理を行うため、説明は省略する。 In FIG. 5, an example of gesture confirmation when the function F1 or F2 is confirmed has been described. However, the same process is performed for the gesture confirmation when the function F3 or F4 is confirmed with the positive and negative signs in the Y direction reversed. The description is omitted.
図6はジェスチャー確定後のジェスチャーに割り当てられた機能を発動する場合のフローチャートであり、図5のS512に続く処理である。S601およびS602は前述のS301およびS302と同様である。S602にてタッチダウンイベントだと判定した場合S601へ進み、タッチダウンイベントでないと判定した場合はS603へと進む。S603は前述のS304と同様である。タッチアップイベントであると判定した場合S613へとすすみ、タッチアップイベントでないと判定した場合はS604へと進む。S604は前述のS306と同様である。ドラッグイベントであると判定した場合はS605へと進み、ドラッグイベントでないと判定した場合はS612へと進む。 FIG. 6 is a flowchart in the case of activating the function assigned to the gesture after the gesture is confirmed, and is a process following S512 in FIG. S601 and S602 are the same as S301 and S302 described above. If it is determined in S602 that the event is a touchdown event, the process proceeds to S601. If it is determined that the event is not a touchdown event, the process proceeds to S603. S603 is the same as S304 described above. If it is determined that the event is a touch-up event, the process proceeds to S613. If it is determined that the event is not a touch-up event, the process proceeds to S604. S604 is the same as S306 described above. If it is determined that the event is a drag event, the process proceeds to S605. If it is determined that the event is not a drag event, the process proceeds to S612.
S605からS607は前述のS505からS507と同様である。S608で、CPU101は、タッチ入力のY成分が逆向きになったか、すなわち確定したジェスチャーのストロークのY方向(第1の方向)に対して180度反対向き(第3の方向)に動いたかどうかを判定する。Y成分が逆向きに動いたと判定した場合はS609へ処理を進め、動いていないと判定した場合はS610へ処理を進める。また、S609において、CPU101は、タッチ入力のX成分が逆向きになったか、すなわち確定したジェスチャーのストロークのX方向(第2の方向)に対して180度反対向き(第4の方向)に動いたかどうかを判定する。X成分が逆向きに動いたと判定した場合はS610へ処理を進め、動いていないと判定した場合は処理をS601へ戻す。なお、S608,S609における判定の方法はS508,S509で説明したとおりである。
S605 to S607 are the same as S505 to S507 described above. In step S <b> 608, the
S610では、ここまでに取得したジェスチャー認識情報を消去する。すなわち、S512で確定されたジェスチャーの情報をメモリ103から消去することで、ジェスチャーの確定をキャンセルする。S611は前述のS518と同様である。S611の後にタッチアップを検知してもジェスチャーによる機能は発動しない。また、S612は前述のS315と同様である。タッチパネル以外の入力イベントと判定した場合はS610へ進み、タッチパネルの入力イベントと判定した場合はS601へと進む。S613は前述のS518と同様である。S613の後に、CPU101は割り当てられた機能を発動(実行)し(S614)、機能を実行した旨(802)を図8の(b)のように表示する(S615)。
このように、S512でジェスチャーが確定された後からでも、ユーザがタッチアップするまでは、S608,S609、S612でYESと判定される操作をすることにより、確定したジェスチャーに割り当てられた機能を実行しないようにすることができる。S608,S609、S612でYESと判定されることが第2の条件に相当する。すなわちユーザは、S512での確定モードの表示を見て確定されたジェスチャーに割り当てられた機能を確認することで、意図する機能が発動されるか否かを確認することができる。意図しない機能が発動されることが分かった場合には、それからでもジェスチャー操作をキャンセルして確定モードで表示された機能を実行しないようにすることができる。
In S610, the gesture recognition information acquired so far is deleted. In other words, the gesture information confirmed in S512 is deleted from the
In this way, even after the gesture is confirmed in S512, until the user touches up, the function assigned to the confirmed gesture is executed by performing an operation determined as YES in S608, S609, and S612. You can avoid it. Determining YES in S608, S609, and S612 corresponds to the second condition. That is, the user can confirm whether or not the intended function is activated by confirming the function assigned to the confirmed gesture by looking at the display of the confirmation mode in S512. If it is found that an unintended function is activated, it is possible to cancel the gesture operation and not execute the function displayed in the confirmation mode.
以上説明したように、ジェスチャー確定した際に表示してあるガイダンスを変化させ、発動する機能についてのみ表示することにより、ユーザはジェスチャーパターンに一致したストロークが描けたことが認識できる。また、そのような表示から、ユーザはさらにどの機能が発動するかどうかを容易に把握することが可能となる。 As described above, by changing the guidance displayed when the gesture is confirmed and displaying only the function to be activated, the user can recognize that the stroke corresponding to the gesture pattern has been drawn. In addition, from such a display, the user can easily grasp which function is activated.
なお、上記実施形態では、本発明の表示制御装置をデジタルカメラに適用した場合を説明したが、これに限られるものではない。携帯情報端末(PDA)等、タッチ入力が可能なあらゆる情報処理装置に適用が可能であることは明らかである。 In the above embodiment, the case where the display control apparatus of the present invention is applied to a digital camera has been described, but the present invention is not limited to this. It is obvious that the present invention can be applied to any information processing apparatus capable of touch input such as a personal digital assistant (PDA).
また、上記実施形態では、ジェスチャーパターンとして、上下・左右の組み合わせによる単純なストロークを示したが、これに限られるものではない。例えば、上下方向と斜め方向の移動軌跡の組合せとしても良いし、曲線の移動軌跡を用いるようにしてもよい。更に、上記実施形態では上下方向と左右方向の2種類の移動軌跡で形成されたジェスチャーパターンを示したが、上方向→右方向→斜め右上方向といったように3種類以上の移動軌跡で形成されジェスチャーパターンを用いることもできる。また、複数のタッチ位置を同時に検出可能な方式のタッチパネルであれば、複数点タッチを用いたジェスチャー操作も可能である。例えば、ユーザが1点をタッチダウンしてタッチ操作を行っている間は、ボタンアイコンに対する操作や、表示アイテムの表示位置変更(ドラッグ)の操作等が行えるものとする。ユーザが1点をタッチダウンして、そのタッチがタッチオン状態であるまま、2点目のタッチが行われた場合は、2点のタッチ位置の変化(軌跡)に応じたジェスチャー操作が行えるものとする。2点のタッチ位置の変化(軌跡)に応じたジェスチャー操作としては例えば、2点間の距離が広がることに応じて表示されている画像を拡大する操作や、2点間の距離が狭まることに応じて表示している画像を縮小する操作がある。この場合は、2点目のタッチダウンがあった時点で、ユーザにジェスチャー操作をする意図があるとみなせるので、2点目のタッチダウンに応じて2点以上のタッチを用いたジェスチャー操作のガイダンスを表示する。 Moreover, in the said embodiment, although the simple stroke by the combination of up and down, right and left was shown as a gesture pattern, it is not restricted to this. For example, a combination of vertical and oblique movement trajectories may be used, or a curved movement trajectory may be used. Furthermore, in the above-described embodiment, the gesture pattern formed by two types of movement trajectories in the vertical direction and the left-right direction is shown. However, the gesture pattern formed by three or more types of movement trajectories such as upward direction → right direction → diagonal upper right direction. A pattern can also be used. In addition, if the touch panel can detect a plurality of touch positions at the same time, a gesture operation using a multi-point touch is also possible. For example, while the user is touching down one point and performing a touch operation, it is possible to perform an operation on a button icon, a display item display position change (drag) operation, or the like. When the user touches down one point and the second touch is performed while the touch is in the touch-on state, a gesture operation can be performed according to the change (trajectory) of the touch position of the two points. To do. Examples of the gesture operation corresponding to the change (trajectory) of the two touch positions include, for example, an operation for enlarging the displayed image according to an increase in the distance between the two points and a decrease in the distance between the two points. There is an operation to reduce the displayed image accordingly. In this case, since it can be considered that the user intends to perform the gesture operation when the second point touchdown occurs, the guidance of the gesture operation using two or more touches according to the second point touchdown. Is displayed.
以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。上述の実施形態の一部を適宜組み合わせてもよい。
なお、上述した制御は1つのハードウェアが行ってもよいし、複数のハードウェアが処理を分担することで、装置全体の制御を行ってもよい。
なお、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。
(他の実施形態)
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。
Although the present invention has been described in detail based on preferred embodiments thereof, the present invention is not limited to these specific embodiments, and various forms within the scope of the present invention are also included in the present invention. included. A part of the above-described embodiments may be appropriately combined.
Note that the above-described control may be performed by a single piece of hardware, or the entire apparatus may be controlled by a plurality of pieces of hardware sharing the processing.
Each of the above-described embodiments is merely an embodiment of the present invention, and the embodiments can be combined as appropriate.
(Other embodiments)
The present invention is also realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program code. It is a process to be executed. In this case, the program and the storage medium storing the program constitute the present invention.
Claims (12)
前記表示手段の表示画面に、画像を表示するとともに、該画像に関する情報を該画像とともに表示する表示処理手段と、
前記表示手段に前記画像を表示している際に前記入力手段で検出されたタッチ入力の軌跡が、ジェスチャー操作の一部となり得る軌跡である場合に、前記表示手段に表示された前記情報を非表示とするとともに、複数のジェスチャー操作のうち、前記タッチ入力を継続することで確定され得るジェスチャー操作であるジェスチャー操作候補に関するガイダンスを前記表示手段の表示画面に表示するように制御する表示制御手段と、を有することを特徴とする表示制御装置。 An input means for detecting a touch input on the display screen of the touch panel type display means;
Display processing means for displaying an image on the display screen of the display means and displaying information about the image together with the image;
When the touch input locus detected by the input means when displaying the image on the display means is a locus that can be part of a gesture operation, the information displayed on the display means is not displayed. Display control means for controlling to display guidance on a gesture operation candidate that is a gesture operation that can be determined by continuing the touch input among a plurality of gesture operations, and displaying on the display screen of the display means And a display control device.
前記表示制御手段は、前記第1の方向への軌跡から始まるジェスチャー操作を前記ジェスチャー操作候補として前記ガイダンスを表示させることを特徴とする請求項1乃至4のいずれか1項に記載の表示制御装置。 The trajectory that can be part of the gesture operation is that the amount of movement from the start of the touch input exceeds a predetermined amount in the first direction,
Wherein the display control unit, the display control device according to any one of claims 1 to 4, characterized in that for displaying the guidance gesture operation that begins from the trajectory to the first direction as the gesture operation candidate .
前記表示手段の表示画面に、画像を表示するとともに、該画像に関する情報を該画像とともに表示する表示処理工程と、
前記表示手段に前記画像を表示している際に前記入力工程で検出されたタッチ入力の軌跡が、ジェスチャー操作の一部となり得る軌跡である場合に、記表示手段に表示された前記情報を非表示とするとともに、複数のジェスチャー操作のうち、前記タッチ入力を継続することで確定され得るジェスチャー操作であるジェスチャー操作候補に関するガイダンスを前記表示手段の表示画面に表示するように制御する表示制御工程と、を有することを特徴とする表示制御装置の制御方法。 An input process for detecting a touch input on a display screen of a touch panel type display means;
A display processing step of displaying an image on the display screen of the display means and displaying information about the image together with the image;
When the touch input trajectory detected in the input step when displaying the image on the display means is a trajectory that can be part of a gesture operation, the information displayed on the display means is not displayed. A display control step for controlling to display guidance on a gesture operation candidate, which is a gesture operation that can be determined by continuing the touch input among a plurality of gesture operations, on the display screen of the display unit A control method for a display control device, comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013127971A JP5486721B2 (en) | 2013-06-18 | 2013-06-18 | Display control device, display control device control method, program, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013127971A JP5486721B2 (en) | 2013-06-18 | 2013-06-18 | Display control device, display control device control method, program, and storage medium |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009189581A Division JP5306105B2 (en) | 2009-08-18 | 2009-08-18 | Display control device, display control device control method, program, and storage medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013178847A JP2013178847A (en) | 2013-09-09 |
JP5486721B2 true JP5486721B2 (en) | 2014-05-07 |
Family
ID=49270339
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013127971A Active JP5486721B2 (en) | 2013-06-18 | 2013-06-18 | Display control device, display control device control method, program, and storage medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5486721B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6135524B2 (en) | 2014-01-27 | 2017-05-31 | ブラザー工業株式会社 | Image information processing program, image information processing method, and image information processing apparatus |
JP2015172836A (en) * | 2014-03-11 | 2015-10-01 | キヤノン株式会社 | Display control unit and display control method |
KR101918421B1 (en) * | 2014-07-18 | 2018-11-13 | 애플 인크. | Raise gesture detection in a device |
JP6426025B2 (en) | 2015-02-20 | 2018-11-21 | クラリオン株式会社 | Information processing device |
JP6106319B2 (en) * | 2016-06-20 | 2017-03-29 | 日本電信電話株式会社 | Input device, input support method, and input support program |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05127819A (en) * | 1991-10-31 | 1993-05-25 | Nec Corp | Stroke command supporting system |
JP3546337B2 (en) * | 1993-12-21 | 2004-07-28 | ゼロックス コーポレイション | User interface device for computing system and method of using graphic keyboard |
JP4684745B2 (en) * | 2005-05-27 | 2011-05-18 | 三菱電機株式会社 | User interface device and user interface method |
JP4602166B2 (en) * | 2005-06-07 | 2010-12-22 | 富士通株式会社 | Handwritten information input device. |
JP4939959B2 (en) * | 2007-02-02 | 2012-05-30 | ペンタックスリコーイメージング株式会社 | Portable device |
JP2008282092A (en) * | 2007-05-08 | 2008-11-20 | Canon Inc | Information processor allowing user to learn gesture command during operation |
JP5197048B2 (en) * | 2008-02-14 | 2013-05-15 | 株式会社三共 | Information display device |
-
2013
- 2013-06-18 JP JP2013127971A patent/JP5486721B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2013178847A (en) | 2013-09-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5306105B2 (en) | Display control device, display control device control method, program, and storage medium | |
JP5371626B2 (en) | Display control device, display control device control method, program, and storage medium | |
EP3304263B1 (en) | Devices and methods for processing touch inputs over multiple regions of a touch-sensitive surface | |
JP5506375B2 (en) | Information processing apparatus and control method thereof | |
JP5495813B2 (en) | Display control apparatus, display control method, program, and storage medium | |
JP5486721B2 (en) | Display control device, display control device control method, program, and storage medium | |
US10607574B2 (en) | Information processing device and information processing method | |
JPWO2012157272A1 (en) | Display device, display control method and display control program, and input device, input support method and program | |
JP6229473B2 (en) | Display device and program | |
JP2011134212A (en) | Input device, control method of input device, program, and storage medium | |
JP6034649B2 (en) | Information processing apparatus, information processing apparatus control method, and program | |
JP2007172303A (en) | Information input system | |
CN103809903B (en) | Method and apparatus for controlling virtual screen | |
JP2015035092A (en) | Display controller and method of controlling the same | |
JP5814147B2 (en) | Input device, input control method, and input control program | |
JP2014059633A (en) | Information processor, information processing method, and program | |
JP6248678B2 (en) | Information processing apparatus, handwriting input program, and handwriting input method | |
JP2014174764A (en) | Information processing device and control method of the same | |
JP2013152529A (en) | Information processor and method for controlling the same | |
JP6579866B2 (en) | Information processing apparatus, control method therefor, program, and storage medium | |
JP2016066254A (en) | Electronic device with touch detection apparatus | |
JP2015153197A (en) | Pointing position deciding system | |
JP5769841B2 (en) | Portable game device with touch panel display | |
JP6305147B2 (en) | Input device, operation determination method, computer program, and recording medium | |
JP2014120052A (en) | Touch panel controller, control method of touch panel controller |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130618 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131120 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A132 Effective date: 20131125 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131227 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140124 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140221 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5486721 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |