JP2015088090A - Operation display device, and operation display method and program - Google Patents
Operation display device, and operation display method and program Download PDFInfo
- Publication number
- JP2015088090A JP2015088090A JP2013228072A JP2013228072A JP2015088090A JP 2015088090 A JP2015088090 A JP 2015088090A JP 2013228072 A JP2013228072 A JP 2013228072A JP 2013228072 A JP2013228072 A JP 2013228072A JP 2015088090 A JP2015088090 A JP 2015088090A
- Authority
- JP
- Japan
- Prior art keywords
- display
- pad
- unit
- touch
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、タッチパネルを備えたディスプレイに対してタッチ操作を行う操作表示装置、操作表示方法及びプログラムに関する。 The present invention relates to an operation display device, an operation display method, and a program for performing a touch operation on a display provided with a touch panel.
従来、大型のテーブルディスプレイなどのタッチ対応表示機器で画面を操作する際、画面が大きいと手を大きく動かしてタッチする必要があるため、タッチが快適に行えなかった。また、複数人が別々に操作を行うと、操作対象をタッチ操作で移動する場合、たとえば手が交差してしまうことがあり、操作性が悪かった。そこで、別途マウスなどの入力機器や、操作用の端末を用意する必要があった。 Conventionally, when operating a screen with a touch-compatible display device such as a large table display, it is necessary to move the hand greatly when the screen is large, so that the touch cannot be performed comfortably. Further, when a plurality of people perform operations separately, when the operation target is moved by a touch operation, for example, hands may cross each other, and the operability is poor. Therefore, it was necessary to prepare a separate input device such as a mouse and a terminal for operation.
これを解決するために、特許文献1には、仮想的なタッチパッドを表示画面上に表示して、タッチパッドにより操作することが開示されている。また、特許文献2には、身体検出部によりユーザの位置などを検出して、ユーザが操作し易い位置に制御ウィンドウ(タッチパッド)を表示することが開示されている。また、特許文献3には、テーブルディスプレイにユーザが複数囲み操作する場合、共有領域を設けて、各ユーザの専用領域から共有領域を介してコピーや移動を行うものが開示されている。
In order to solve this,
しかし、特許文献1の技術は、操作し易いようにタッチパッドの操作領域を拡大するものであるが、複数のユーザの同時操作を想定していない。従って、複数のユーザが同時に多方向から操作する場合には、操作性が良くなるわけではない。
However, the technique of
また、特許文献2の技術では、複数のユーザが使用することを想定しながら、各ユーザが使いやすい位置にタッチパッドを表示するようになっているが、表示装置が縦置きのディスプレイであり、ディスプレイ周辺の一方向からの操作しか想定していない。従ってテーブルディスプレイのように、ディスプレイ周辺の各方向から操作される場合には、操作性が良くなるわけではない。 Moreover, in the technique of patent document 2, while assuming that it is used by a plurality of users, the touch pad is displayed at a position that is easy for each user to use, but the display device is a vertical display, Only operation from one direction around the display is assumed. Therefore, when it is operated from each direction around the display like a table display, the operability is not improved.
また、特許文献3の技術は、テーブルディスプレイ周辺の各方向から複数のユーザが操作し、共通領域を介してコピーや移動を行うのであるが、共通領域の位置によっては、操作距離が大きく、操作性が改善されるわけではない。 The technique of Patent Document 3 is operated by a plurality of users from each direction around the table display and performs copying and moving through the common area. However, depending on the position of the common area, the operation distance is large, Sex is not improved.
大画面のディスプレイに表示されたウィンドウやオブジェクトを複数人が同時にタッチ操作する場合などは、混乱をきたす可能性があり、結局はユーザが一人一人操作することになって時間がかかり、効率がよいとは言えなかった。 When multiple people touch and operate windows and objects displayed on a large-screen display at the same time, it may be confusing, and eventually it will be time consuming and efficient for each user to operate. I couldn't say that.
本発明は、斯かる実情に鑑み、タッチ操作可能な表示装置に対して、複数のユーザが同時にタッチ操作する場合に快適に操作できる操作表示装置、操作表示方法及びプログラムを提供しようとするものである。 In view of such circumstances, the present invention is intended to provide an operation display device, an operation display method, and a program that can be comfortably operated when a plurality of users perform a touch operation simultaneously on a display device that can be touch-operated. is there.
本発明は、表示部に表示されている表示対象物に対して、タッチによる操作を可能とする操作パッドを前記表示部に表示する操作表示装置であって、
タッチ操作を検出する操作検出部と、前記操作検出部の検出結果によりタッチ操作における操作対象と操作内容を判定する操作判定部と、前記操作判定部により前記表示対象物の前記操作パッドを表示するパッド表示操作が行われたと判定された場合に、前記表示対象物を操作対象とする前記操作パッドの画像データを生成し、前記操作パッドでのタッチ操作による前記表示対象物への操作を実行する画像データの生成を行う操作実行部と、
前記画像データに基づいて前記表示部に表示させる表示制御部と、を備えることを特徴とするものである。
The present invention is an operation display device for displaying on the display unit an operation pad that enables an operation by touching the display object displayed on the display unit,
An operation detection unit that detects a touch operation, an operation determination unit that determines an operation target and an operation content in the touch operation based on a detection result of the operation detection unit, and the operation determination unit that displays the operation pad of the display object. When it is determined that a pad display operation has been performed, image data of the operation pad having the display object as an operation object is generated, and an operation to the display object is performed by a touch operation on the operation pad. An operation execution unit for generating image data;
And a display control unit that displays on the display unit based on the image data.
ここで、前記表示対象物は、アプリケーション・ウィンドウ又は画像のオブジェクトであることを特徴とする。 Here, the display object is an application window or an image object.
また、前記操作実行部は、前記表示対象物に最も近い表示部の画面周辺近傍に、前記操作パッドを表示することを特徴とする。 Further, the operation execution unit displays the operation pad in the vicinity of the screen periphery of the display unit closest to the display object.
また、前記操作実行部は、前記操作パッドに自らを操作するボタンを設けて、前記操作パッドへのボタン操作によって、前記操作パッド自身へのタッチ操作を可能とすることを特徴とする。 The operation execution unit may be provided with a button for operating itself on the operation pad, and a touch operation on the operation pad itself may be performed by a button operation on the operation pad.
また、前記操作判定部は、前記表示対象物以外の箇所に対して前記パッド表示操作が行われ場合、前記操作パッドは、前記表示部に表示されるカーソル移動の操作を対象とすると判定することを特徴とする。 In addition, when the pad display operation is performed on a portion other than the display object, the operation determination unit determines that the operation pad targets a cursor movement operation displayed on the display unit. It is characterized by.
また、前記操作判定部により操作内容が文字入力モードと判定された場合に、前記操作パッドに手書き手入力された文字を認識する文字認識部をさらに備え、前記操作実行部は、前記文字認識部により認識した文字を文字画像として生成することを特徴とする。 In addition, when the operation content is determined to be a character input mode by the operation determination unit, the operation determination unit further includes a character recognition unit that recognizes a character manually input to the operation pad, and the operation execution unit includes the character recognition unit The character recognized by the above is generated as a character image.
また、本発明は、表示部に表示されている表示対象物に対して、タッチによる操作を可能とする操作パッドを前記表示部に表示する操作表示方法であって、
タッチ操作を検出する操作検出ステップと、前記操作検出ステップの検出結果によりタッチ操作における操作対象と操作内容を判定する操作判定ステップと、前記操作判定ステップにより前記表示対象物の前記操作パッドを表示するパッド表示操作が行われたと判定された場合に、前記表示対象物を操作対象とする前記操作パッドの画像データを生成し、前記操作パッドでのタッチ操作による前記表示対象物への操作を実行する画像データの生成を行う操作実行ステップと、前記画像データに基づいて前記表示部に表示させる表示制御ステップと、を備えることを特徴とするものである。
Further, the present invention is an operation display method for displaying on the display unit an operation pad that enables an operation by touching the display object displayed on the display unit,
An operation detection step for detecting a touch operation, an operation determination step for determining an operation target and operation content in the touch operation based on a detection result of the operation detection step, and the operation pad of the display object is displayed by the operation determination step. When it is determined that a pad display operation has been performed, image data of the operation pad having the display object as an operation object is generated, and an operation to the display object is performed by a touch operation on the operation pad. An operation execution step for generating image data and a display control step for displaying on the display unit based on the image data are provided.
また、本発明は、コンピュータに、前記操作表示方法の各ステップを実行させるためのプログラムである。 Moreover, this invention is a program for making a computer perform each step of the said operation display method.
本発明によれば、表示対象物(アプリケーション・ウィンドウや画像オブジェクト)を操作対象とする操作パッドを表示するパッド表示操作が行われたときに、前記操作パッドを表示し、前記操作パッドでのタッチ操作による前記表示対象物への操作を実行するので、ユーザは操作パッドへのタッチ操作だけで表示対象物を操作できる。特に、操作対象となる表示対象物に対応する操作パッドを表示するので、ユーザも認識し易く、また操作もし易い。そして、表示対象物を大きく移動させる時も、操作パッドの操作だけですみ、また複数人のユーザであっても混乱なく同時操作が可能となるので、操作効率も向上する。 According to the present invention, when a pad display operation for displaying an operation pad whose operation target is a display object (an application window or an image object) is performed, the operation pad is displayed and touched with the operation pad. Since the operation on the display object is performed by the operation, the user can operate the display object only by touching the operation pad. In particular, since the operation pad corresponding to the display object to be operated is displayed, the user can easily recognize and operate. When the display object is moved greatly, it is only necessary to operate the operation pad, and even a plurality of users can perform simultaneous operation without confusion, so that the operation efficiency is improved.
以下、本発明の実施の形態を添付図面を参照して説明する。
図1は、本発明に係る操作表示装置であるテーブルディスプレイを示す外観図である。図2は、テーブルディスプレイで表示対象物をユーザが操作する説明図である。図3は、操作パッドの一例を示す説明図である。
Embodiments of the present invention will be described below with reference to the accompanying drawings.
FIG. 1 is an external view showing a table display which is an operation display device according to the present invention. FIG. 2 is an explanatory diagram in which the user operates the display object on the table display. FIG. 3 is an explanatory diagram illustrating an example of the operation pad.
<全体構成と動作概略>
図1及び図2に示すように、このテーブルディスプレイ10は、タッチパネルである表示装置20をテーブル全面に備え、複数のユーザが表示を見ながらタッチ操作を行い、処理を行う装置である。この表示装置20は、液晶パネルなどの表示部の上側にタッチ入力部を備える構造である。
<Overall configuration and operation outline>
As shown in FIGS. 1 and 2, the
図2に示すように、テーブルディスプレイ10を囲んだユーザは、表示装置20に表示されるアプリケーション・ウィンドウW1,W2や画像のオブジェクトO1,O2に対して、矢印方向への移動操作などを表示された操作パッド100(100−1,100−2,100−3,1004)を用いて行う。表示対象物であるアプリケーション・ウィンドウW1,W2やオブジェクトO1,O2に対して、直に各ユーザがタッチ操作で移動を行うと、移動距離が大きい場合には身を乗り出さなければならなかったり、他のユーザと腕が交差したりして、操作性が良くない。そこで、各ユーザの近くに操作パッド100(100−1,100−2,100−3,1004)を表示させて、そこでタッチ操作によるアプリケーション・ウィンドウW1,W2や表示オブジェクトO1,O2の移動操作などを行う。操作パッド100(100−1,100−2,100−3,1004)は、それぞれ1対1にアプリケーション・ウィンドウW1,W2やオブジェクトO1,O2に対応している。また、操作パッド100は、操作対象となるものがない場合(操作対象となるものが指定されていない場合)は、カーソルの操作を行うものである。
As shown in FIG. 2, the user who surrounds the
<表示操作パッドの外観構成>
図3に示すように、操作パッド100の左端には、操作パッド100自体に対する操作ボタンが表示されている。手書き入力のための「ペンソフトリモコン」ボタン101、移動するための「移動」ボタン102、表示倍率を変えるための「変倍」ボタン103、回転させるための「回転」ボタン104、操作表示パッドを閉じるための「クローズ」ボタン105が備えられている。
<Appearance structure of display operation pad>
As shown in FIG. 3, an operation button for the
また、操作パッド100の上側及び下側には、表示装置20に表示されている表示対象物(ウィンドウやオブジェクト)を操作するためのボタンが表示されている。上側には、選択された表示対象物を一定割合で縮小する縮小ボタン106、選択された表示対象物を最大化する最大化ボタン107、選択された表示対象物を一定割合で拡大する拡大ボタン108が備えられている。また、下側には、選択されたウィンドウのページを戻す前ページボタン109と、選択されたウィンドウのページを送る次ページボタン110を備える。
In addition, buttons for operating display objects (windows and objects) displayed on the
操作パッド100のタッチパッド部(点線で囲んだ部分)111は、タップ、フリック、ピンチなどのタッチ操作を行う部分である。
表示対象物を移動、回転させるボタンがないが、たとえば、次のような操作で行う。移動するには、タッチパッド部111の2箇所を同時にタッチして、片方を移動方向にスライドさせる。回転するには、2箇所同時にタッチして、一方を回転方向に回転させる。
なお、これは表示対象物への操作の一例に過ぎず、移動ボタンや回転ボタンを設けてもよい。
A touch pad portion (portion surrounded by a dotted line) 111 of the
Although there is no button for moving and rotating the display object, for example, the following operation is performed. In order to move, two places on the
Note that this is merely an example of an operation on a display object, and a movement button or a rotation button may be provided.
また、操作パッド100では、指操作によるジェスチャー操作が可能であり、表示対象物の移動、変倍、回転、最大化などを行うことが可能であり、たとえばタッチした二本の指をひねることにより回転方向と角度を操作するような様々なジェスチャー操作を設定してもよい。プレゼンタ―がスマートタッチパッドを操作することで、表示データを最適な状態に変化させることで、視聴者への最適なプレゼンテーションが可能となる。
In addition, the
操作パッド100を表示するには、たとえば表示装置20の表示画面を所定時間(たとえば5秒)以上長押しすることが、操作パッド100の表示操作となる。この場合、操作対象となる表示対象物(ウィンドウやオブジェクト)を長押しすると、その表示対象物が、操作対象に指定されることになる。こうして操作パッド100は、表示対象物に1対1で対応することになる。
In order to display the
また、長押した位置が表示対象物の存在しない箇所であれば、操作パッド100はカーソル移動の処理を行うものとする。この場合は、ウィンドウやオブジェクトに対する操作は行わないので、表示対象物操作のボタンは、薄く表示するなどして、使用できないことをユーザに知らせる。あるいは、カーソル操作を示すために、操作パッドの隅にでもカーソルを示す画像を表示してもよい。
Further, if the long-pressed position is a place where there is no display object, the
以降の実施形態では、表示画面を長押しをすることにより、操作パッド100を出現させることにしているが、同じ箇所を2タッチすることにより操作パッド100を出現させるなどのタッチ位置を特定できる他の操作であっても構わない。
In the following embodiments, the
<機能ブロック構成>
図4は、テーブルディスプレイの一例を示す機能ブロック図である。
<Functional block configuration>
FIG. 4 is a functional block diagram illustrating an example of a table display.
テーブルディスプレイ10は、タッチパネルである表示装置20、表示装置20への表示制御を行う表示制御部30、データを記憶する記憶部40、操作に従って処理を制御する制御部50を備える。
The
表示装置20は、上述したように液晶パネルなどの表示部21の上側にタッチ入力部22を備える構造である。
As described above, the
制御部50は、タッチ入力部22の入力信号からそのタッチ位置とタッチ移動を検出する操作検出部51、検出したタッチ位置と動きから操作対象及び操作内容を判定する操作判定部52、判定したタッチ操作に基づいて操作処理を実行して画像を生成する操作実行部53、タッチ入力部22の信号から文字認識を行う文字認識部54を備える。
The
表示制御部30は、制御部50で生成された画像データに基づいて、表示部21に表示を行う。
The
記憶部40は、ハードディスクやメモリなどからなる記憶装置であり、画像データや操作処理に関わる各種データを記憶し、制御部50とデータのやり取りを行うものである。
The
[第1実施形態]
第1実施形態は、操作パッド100による操作対象への操作に関するものである。ペンソフトリモコンボタン101による手書き入力は第2実施形態として後述する。
[First Embodiment]
The first embodiment relates to an operation on an operation target using the
図5は、第1実施形態における操作対象に対する操作処理を示すフローチャートである。
ユーザは、表示部21の画面をタッチする(ステップS1)。このとき、ユーザは、表示部21に表示されている表示対象物(ウィンドウやオブジェクト)を操作する場合は、操作対象とするウィンドウやオブジェクトにタッチする。カーソルの操作を行う場合は、操作対象が無い場所、すなわちウィンドウやオブジェクトが表示されていない場所にタッチする。
FIG. 5 is a flowchart showing an operation process for the operation target in the first embodiment.
The user touches the screen of the display unit 21 (step S1). At this time, when operating the display object (window or object) displayed on the
操作判定部52は、タッチ操作が所定時間以上長押しされているかを判定する(ステップS2)。所定時間は予め設定されて、記憶部40に記憶されており、操作判定部52は記憶部40から所定時間を読み出して判定に用いる。この所定時間以上長押しされている場合は、操作判定部52は、操作パッド100の表示指示がされたと判定する。操作実行部53は、操作パッド表示ための画像データを生成する。表示制御部30は、この画像データに基づいて表示部21に操作パッド100を表示する(ステップS3)。
The
このとき、操作判定部52は、ユーザが長押ししている箇所から、ユーザが操作対象としているのが、どのウィンドウやオブジェクトであるのかを判定し、記憶部40にそのデータを記憶する。
At this time, the
また、操作パッド100の表示位置は予め設定されており、長押し箇所、長押し箇所の近傍、あるいは操作対象の表示対象物(ウィンドウやオブジェクト)近傍などである。図2に示すように、特に操作対象となった表示対象物に最も近い表示画面の周辺部近傍に表示してもよい。デーブルディスプレイでは、表示画面周辺に沿ってユーザがいることと、ユーザは表示画面周辺に沿って移動も可能なので、周辺部近傍に操作パッド100を表示すれば、ユーザにとっては簡単に操作が可能となる。
また、操作パッド100の表示位置は、ユーザが任意に設定可能としてもよい。
In addition, the display position of the
The display position of the
ユーザが操作パッド100をタッチ操作する(ステップS4)。操作判定部52は、操作検出部51の検出結果から、操作パッド100の操作ボタン101〜105へのタッチであるかを判定する(ステップS5)。操作ボタン101〜105へのタッチであれば、操作対象は操作パッド100自体に対するものであるので、タッチされた操作ボタンの示す操作処理に従って、操作パッド100に対して操作処理が行われる(ステップS6)。すなわち、操作判定部52が、操作検出部51の検出結果に基づいて、操作内容を判定し、その判定結果を操作実行部53に送る。操作実行部53は、操作の内容に基づいて操作パッド100を移動、回転などを行いその画像データを生成する。表示制御部30は、その画像データに基づいて操作パッド100を表示部21に表示する。
The user touches the operation pad 100 (step S4). The
移動ボタン102がタッチされている場合は、タッチパッド部111におけるスライド操作やフリック操作により、その方向に操作パッド100を移動する。
変倍ボタン102がタッチされている場合は、タッチパッド部111におけるピンチ操作により、その方向に操作パッド100を拡大縮小する。
回転ボタン104がタッチされている場合は、タッチパッド部111における回転スライド操作により、その回転方向に操作パッド100を回転する。
クローズボタン105がタッチされている場合は、操作パッド100を閉じる(画像表示をやめる)。
When the
When the
When the
When the
移動や変倍については、操作パッド100のタッチ操作と、表示部21の画面上での移動や変倍の程度は、予め設定されており、ユーザが任意に設定することも可能である。
Regarding movement and scaling, the touch operation of the
操作パッド100の操作処理について具体例を説明する。図6は、操作パッドの移動操作を示す説明図である。
ユーザが、操作パッド100の「移動」ボタン102にタッチすると、ボタン102の表示の白黒が反転して移動処理モードになったことが示される。ユーザが操作パッド100のタッチパッド部111においてスライド操作を行うと、表示部21の画面ではスライド方向に操作パッド100が移動して表示される。
A specific example of the operation process of the
When the user touches the “move”
なお、表示対象物を表示装置20での最大化表示を行った際には、最大化された表示対象物が最前面に位置し、他の表示対象物や操作パッド100が背面に位置し、プレゼンテーションとしては都合がよい。ただし、このような表示の場合には、最大化された表示対象物に対応する操作パッド100も背面に位置することから、最大化された表示対象物を直接タッチ操作することで、最大化する前の状態に戻すことができる。
When the display object is maximized on the
次に、ステップS5において、操作対象が操作パッド100ではない場合、操作対象が表示対象物(ウィンドウやオブジェクト)であるかを判定する(ステップS7)。操作対象は記憶部40に、操作パッド100を表示した段階で記憶されているので、操作判定部52は、この操作対象データに基づいて判定する。操作対象が表示対象物であれば、操作パッド100になされた操作に基づいて、操作対象の表示対象物に対して操作が行われる(ステップS8)。すなわち、操作判定部52が、操作検出部51の検出結果に基づいて、操作内容を判定し、その判定結果を操作実行部53に送る。操作実行部53は、操作の内容に基づいて操作対象の表示対象物(ウィンドウやオブジェクト)に対し移動、回転などを行い、その画像データを生成する。表示制御部30は、その画像データに基づいて操作処理を行った表示対象物を表示部21に表示する。
Next, when the operation target is not the
表示対象物(ウィンドウやオブジェクト)への操作処理は次のようになる。
縮小ボタン106がタッチされた場合は、一定の割合で縮小する。
最大化ボタン107がタッチされた場合は、表示部21の画面最大に拡大する。
拡大ボタン108がタッチされた場合は、一定の割合で拡大する。
前ページボタン109がタッチされた場合は、操作対象のウィンドウのページを戻す。
次ページボタン110がタッチされた場合は、操作対象のウィンドウのページを送る。
表示対象物を移動する場合は、タッチパッド部111において、2箇所を同時にタッチし、一方のタッチを移動方向にスライド操作する。
表示対象物を回転する場合は、タッチパッド部111において、2箇所を同時にタッチし、一方のタッチを回転方向に回転スライド操作する。
The operation process for the display object (window or object) is as follows.
When the
When the maximize
When the enlarge
When the
When the
When moving the display object, the
When rotating the display object, two places are touched simultaneously on the
移動や変倍については、操作パッド100のタッチ操作と、表示部21の画面上での表示対象物の移動や変倍の程度は、予め設定されており、ユーザが任意に設定することも可能である。
Regarding the movement and scaling, the touch operation of the
表示対象物の操作処理について具体例として移動操作を説明する。図7は、表示対象物の移動操作を示す説明図である。
ユーザが、操作パッド100のタッチパッド部111において、2箇所を同時タッチすると、表示対象物への移動処理モードになる。さらにユーザが一方のタッチをスライド操作すると、表示部21の画面ではスライド方向に表示対象物201が移動して表示される。
A moving operation will be described as a specific example of the operation processing of the display object. FIG. 7 is an explanatory diagram illustrating a moving operation of the display object.
When the user touches two places at the same time on the
なお、操作パッド100がどの表示対象物に対応しているかを示すために、操作パッド100をタッチしたときに、対応する表示対象物を点滅させたり、色を濃くしたりなどして、ユーザ判別できるようにしてもよい。また、対応する表示対象物のサムネイルを操作パッド100の隅に表示させてもよい。
In order to indicate which display object the
次にステップS7において、操作対象が表示対象物(ウィンドウやオブジェクト)ではない場合、操作対象は特定されていないことになるので、操作対象はカーソルとなる。従って、操作パッド100になされたタッチ操作に基づいて、カーソルに対して操作が行われる(ステップS9)。すなわち、操作判定部52が、操作検出部51の検出結果に基づいて、カーソル移動の操作内容を判定し、その判定結果を操作実行部53に送る。操作実行部53は、操作の内容に基づいてカーソル移動を行い、その画像データを生成する。表示制御部30は、その画像データに基づいてカーソルを表示部21に表示する。
Next, in step S7, when the operation target is not a display target (window or object), the operation target is not specified, so the operation target is a cursor. Accordingly, an operation is performed on the cursor based on the touch operation performed on the operation pad 100 (step S9). That is, the
カーソル移動については、操作パッド100のタッチ操作と、表示部21の画面上での表示対象物の移動や変倍の程度は、予め設定されており、ユーザが任意に設定することも可能である。
Regarding the cursor movement, the touch operation of the
こうして、表示対象物(ウィンドウやオブジェクト)に1対1で対応する操作パッド100を表示して、各表示対象物への操作をするときに、操作パッド100でタッチ操作が可能となるので、大画面表示で、さらにユーザが複数いても、操作が混乱することなくスムーズに行うことができる。また、操作パッド100自体をその操作パッド100で操作可能であり、ユーザが望む位置(操作し易い位置など)に自由に、しかユーザが複数いても、操作が混乱することなくスムーズに行うことができ、操作性が向上する。操作パッド100は、表示対象物を操作対象として指定する操作(その表示対象物の長押し操作など)を行うと、1対1に対応するものが表示されるので、ユーザには操作パッドの表示出現操作がわかりやすい。
In this way, when the
[第2実施形態]
第1実施形態においては、移動・回転・拡大縮小といった表示対象物への操作について記載したが、第2実施形態は、新たな画像を追加表示するものである。
操作パッド100には、ペンソフトリモコンボタン101が表示されており、このボタンをタッチすることにより、文字入力が可能となる。
[Second Embodiment]
In the first embodiment, operations on display objects such as movement, rotation, and enlargement / reduction have been described. However, in the second embodiment, a new image is additionally displayed.
A pen soft
図8は、第2実施形態における手書き入力に対する操作処理を示すフローチャートである。
これは図5のステップS6における操作パッド100の操作処理についての処理動作である。
操作判定部52は、操作検出部51の検出結果からユーザがペンタッチリモコンボタン101にタッチしたかを確認する(ステップS11)。ペンタッチリモコンボタン101をタッチしていれば、操作実行部53は、記憶部40より文字認識のアプリケーションを読み出し、手書き文字入力モードとなる(ステップS12)。
FIG. 8 is a flowchart showing an operation process for handwritten input in the second embodiment.
This is a processing operation for the operation processing of the
The
ユーザが操作パッド100のタッチパッド部111において、手書きの文字入力を行う(ステップS13)。操作実行部53は、アプリケーションによって文字認識を行う(ステップS14)。そして、認識した文字を画像データとして生成し、表示制御部30は、その文字画像データを表示装置20の表示部21に表示する(ステップS15)。
The user performs handwritten character input on the
なお、文字表示位置は、例えばカーソル操作の操作パッド100などから、文字表示衣位置を指定しておき、そのカーソル操作の操作パッド100から文字入力を行ってもよいし、カーソル位置が表示対象物(ウィンドウやオブジェクト)であれば、その表示対象物を操作する操作パッド100から文字入力をしてもよい。
As the character display position, for example, a character display clothing position may be designated from the
図9は、操作パッドによる手書き文字入力を示す説明図である。
ユーザが、操作パッド100のペンタッチリモコンボタン101にタッチすると、ペンタッチリモコンボタン101は、その表示の白黒が反転して手書き文字入力モードになったことが示される。ユーザが操作パッド100のタッチパッド部111において「W」と手書きで文字入力を行うと、それを文字認識して、表示部21の画面では、指定されたオブジェクト202内に「W」と表示される。
FIG. 9 is an explanatory diagram showing input of handwritten characters using the operation pad.
When the user touches the pen touch
このように、指やタッチペンによる手書文字入力も可能であり、ブラウザーの検索領域を選択した後に、手書き入力を行うことで、手書入力が文字認識され、WWWでの検索も可能となる。さらに、アプリケーション上に直接文字入力することで、プレゼンテーションを行った表示データ上に打ち合わせ履歴を付加することも可能となる。 In this way, handwritten character input using a finger or a touch pen is also possible, and handwriting input is performed after selecting a search area of the browser, whereby the handwritten input is recognized and search on the WWW is also possible. Furthermore, by directly inputting characters on the application, it is possible to add a meeting history to the display data on which the presentation was performed.
また、文字表示する箇所のエリアに比べ、操作パッド100の大きさが小さい場合には、一旦、手書文字入力を行った後に、文字表示するエリアに合せて、文字サイズや文字表示位置を変更することで、適切な文字配置が可能となる。
If the size of the
本発明による操作表示装置で動作するプログラムは、本発明に関わる上記実施形態の機能を実現するように、CPU(Central Processing Unit)等を制御するプログラム(コンピュータを機能させるプログラム)であっても良い。そして、これら装置で取り扱われる情報は、その処理時に一時的にRAM(Random Access Memory)に蓄積され、その後、Flash ROM(Read Only Memory)などの各種ROMやHDD(Hard Disk Drive)に格納され、必要に応じてCPUによって読み出し、修正・書き込みが行われる。また、各構成の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各部の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。 The program that operates on the operation display device according to the present invention may be a program that controls a CPU (Central Processing Unit) or the like (a program that causes a computer to function) so as to realize the functions of the above-described embodiments related to the present invention. . Information handled by these devices is temporarily stored in RAM (Random Access Memory) during the processing, and then stored in various ROMs such as Flash ROM (Read Only Memory) and HDD (Hard Disk Drive). Reading, correction, and writing are performed by the CPU as necessary. In addition, a program for realizing the function of each component may be recorded on a computer-readable recording medium, and the program recorded on the recording medium may be read into a computer system and executed to perform processing of each unit. Good. Here, the “computer system” includes an OS and hardware such as peripheral devices.
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。 The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory in a computer system serving as a server or a client in that case, and a program that holds a program for a certain period of time are also included. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.
以上、この発明の実施形態を図面を参照して詳述してきたが、具体的な構成はこれらの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計変更等された発明も含まれる。 As described above, the embodiments of the present invention have been described in detail with reference to the drawings. However, the specific configuration is not limited to these embodiments, and the invention may be changed in design without departing from the gist of the present invention. Is also included.
本実施形態においては、平置きのテーブルディスプレイに適用した場合を述べたが、縦置きの大画面ディスプレイにおいて複数のユーザが使用する場合にも適用できる。この場合は、操作パッドをユーザが触れる位置に表示するように予め設定しておけばよい。
また、縦置きディスプレイを横置きにしたものにも当然適用できる。また、タブレット端末において複数のユーザが使用する場合にも適用できる。
In the present embodiment, the case where the present invention is applied to a flat table display has been described. However, the present invention can also be applied to a case where a plurality of users use a vertical large screen display. In this case, the operation pad may be set in advance so as to be displayed at a position touched by the user.
Of course, the present invention can also be applied to a vertically placed display. Further, the present invention can also be applied when a plurality of users use the tablet terminal.
10 :テーブルディスプレイ
20 :表示装置
21 :表示部
22 :タッチ入力部
30 :表示制御部
40 :記憶部
50 :制御部
51 :操作検出部
52 :操作判定部
53 :操作実行部
54 :文字認識部
100 :操作パッド
10: Table display 20: Display device 21: Display unit 22: Touch input unit 30: Display control unit 40: Storage unit 50: Control unit 51: Operation detection unit 52: Operation determination unit 53: Operation execution unit 54: Character recognition unit 100: Operation pad
Claims (8)
タッチ操作を検出する操作検出部と、
前記操作検出部の検出結果によりタッチ操作における操作対象と操作内容を判定する操作判定部と、
前記操作判定部により前記表示対象物の前記操作パッドを表示するパッド表示操作が行われたと判定された場合に、前記表示対象物を操作対象とする前記操作パッドの画像データを生成し、前記操作パッドでのタッチ操作による前記表示対象物への操作を実行する画像データの生成を行う操作実行部と、
前記画像データに基づいて前記表示部に表示させる表示制御部と、
を備えることを特徴とする操作表示装置。 An operation display device that displays on the display unit an operation pad that enables an operation by touching a display object displayed on the display unit,
An operation detection unit for detecting a touch operation;
An operation determination unit that determines an operation target and operation content in a touch operation based on a detection result of the operation detection unit;
When it is determined by the operation determination unit that a pad display operation for displaying the operation pad of the display object is performed, image data of the operation pad with the display object as an operation object is generated, and the operation An operation execution unit for generating image data for performing an operation on the display object by a touch operation on a pad;
A display control unit for displaying on the display unit based on the image data;
An operation display device comprising:
前記操作実行部は、前記文字認識部により認識した文字を文字画像として生成することを特徴とする請求項1から5のいずれか一項に記載の操作表示装置。 A character recognition unit for recognizing a character manually input on the operation pad when the operation content is determined to be in the character input mode by the operation determination unit;
The operation display device according to claim 1, wherein the operation execution unit generates a character recognized by the character recognition unit as a character image.
タッチ操作を検出する操作検出ステップと、
前記操作検出ステップの検出結果によりタッチ操作における操作対象と操作内容を判定する操作判定ステップと、
前記操作判定ステップにより前記表示対象物の前記操作パッドを表示するパッド表示操作が行われたと判定された場合に、前記表示対象物を操作対象とする前記操作パッドの画像データを生成し、前記操作パッドでのタッチ操作による前記表示対象物への操作を実行する画像データの生成を行う操作実行ステップと、
前記画像データに基づいて前記表示部に表示させる表示制御ステップと、
を備えることを特徴とする操作表示方法。 An operation display method for displaying, on the display unit, an operation pad that enables operation by touching a display object displayed on the display unit,
An operation detection step for detecting a touch operation;
An operation determination step for determining an operation target and operation content in the touch operation based on a detection result of the operation detection step;
When it is determined in the operation determination step that a pad display operation for displaying the operation pad of the display object has been performed, image data of the operation pad with the display object as an operation object is generated, and the operation An operation execution step of generating image data for performing an operation on the display object by a touch operation on a pad;
A display control step for displaying on the display unit based on the image data;
An operation display method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013228072A JP6327834B2 (en) | 2013-11-01 | 2013-11-01 | Operation display device, operation display method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013228072A JP6327834B2 (en) | 2013-11-01 | 2013-11-01 | Operation display device, operation display method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015088090A true JP2015088090A (en) | 2015-05-07 |
JP6327834B2 JP6327834B2 (en) | 2018-05-23 |
Family
ID=53050768
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013228072A Active JP6327834B2 (en) | 2013-11-01 | 2013-11-01 | Operation display device, operation display method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6327834B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180089805A1 (en) * | 2016-09-29 | 2018-03-29 | Seiko Epson Corporation | Display apparatus, information processing apparatus, and information processing method |
WO2021066023A1 (en) * | 2019-09-30 | 2021-04-08 | 株式会社小松製作所 | Control device, work machine, and control method |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07319615A (en) * | 1994-05-24 | 1995-12-08 | Wacom Co Ltd | Information processor and its control method |
JPH11259237A (en) * | 1998-03-12 | 1999-09-24 | Ricoh Co Ltd | Picture display device |
JP2000222092A (en) * | 1999-01-29 | 2000-08-11 | Canon Inc | Electronic information display device, its display controlling method and storage medium |
JP2000235443A (en) * | 1999-02-16 | 2000-08-29 | Canon Inc | Electronic conferencing device, and its control method and storage medium |
JP2003058137A (en) * | 2001-08-10 | 2003-02-28 | Sharp Corp | Information processor with screen-display-direction inverting function |
JP2006011914A (en) * | 2004-06-28 | 2006-01-12 | Fuji Photo Film Co Ltd | Image display controller and image display control program |
JP2006018348A (en) * | 2004-06-30 | 2006-01-19 | Hitachi Ltd | Input/display system and its method in using large screen display |
JP2009064209A (en) * | 2007-09-06 | 2009-03-26 | Sharp Corp | Information display device |
JP2013041350A (en) * | 2011-08-12 | 2013-02-28 | Panasonic Corp | Touch table system |
-
2013
- 2013-11-01 JP JP2013228072A patent/JP6327834B2/en active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07319615A (en) * | 1994-05-24 | 1995-12-08 | Wacom Co Ltd | Information processor and its control method |
JPH11259237A (en) * | 1998-03-12 | 1999-09-24 | Ricoh Co Ltd | Picture display device |
JP2000222092A (en) * | 1999-01-29 | 2000-08-11 | Canon Inc | Electronic information display device, its display controlling method and storage medium |
JP2000235443A (en) * | 1999-02-16 | 2000-08-29 | Canon Inc | Electronic conferencing device, and its control method and storage medium |
JP2003058137A (en) * | 2001-08-10 | 2003-02-28 | Sharp Corp | Information processor with screen-display-direction inverting function |
JP2006011914A (en) * | 2004-06-28 | 2006-01-12 | Fuji Photo Film Co Ltd | Image display controller and image display control program |
JP2006018348A (en) * | 2004-06-30 | 2006-01-19 | Hitachi Ltd | Input/display system and its method in using large screen display |
JP2009064209A (en) * | 2007-09-06 | 2009-03-26 | Sharp Corp | Information display device |
JP2013041350A (en) * | 2011-08-12 | 2013-02-28 | Panasonic Corp | Touch table system |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180089805A1 (en) * | 2016-09-29 | 2018-03-29 | Seiko Epson Corporation | Display apparatus, information processing apparatus, and information processing method |
US10410323B2 (en) | 2016-09-29 | 2019-09-10 | Seiko Epson Corporation | Display apparatus, information processing apparatus, and information processing method for displaying a second image that includes options for manipulating a first image |
WO2021066023A1 (en) * | 2019-09-30 | 2021-04-08 | 株式会社小松製作所 | Control device, work machine, and control method |
CN114364845A (en) * | 2019-09-30 | 2022-04-15 | 株式会社小松制作所 | Control device, work machine, and control method |
JP7424784B2 (en) | 2019-09-30 | 2024-01-30 | 株式会社小松製作所 | Control device, working machine and control method |
Also Published As
Publication number | Publication date |
---|---|
JP6327834B2 (en) | 2018-05-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2715491B1 (en) | Edge gesture | |
JP6215534B2 (en) | Information processing apparatus, information processing method, and computer program | |
US9658766B2 (en) | Edge gesture | |
CN109643210B (en) | Device manipulation using hovering | |
US8976140B2 (en) | Touch input processor, information processor, and touch input control method | |
US11812135B2 (en) | Wide angle video conference | |
US20120304131A1 (en) | Edge gesture | |
US20120304132A1 (en) | Switching back to a previously-interacted-with application | |
US20230109787A1 (en) | Wide angle video conference | |
EP2815299A1 (en) | Thumbnail-image selection of applications | |
TWI510083B (en) | Electronic device and image zooming method thereof | |
TWI442305B (en) | A operation method and a system of the multi-touch | |
WO2016160175A1 (en) | Enhancement to text selection controls | |
TW201403386A (en) | Eye controlling method and system | |
JP6327834B2 (en) | Operation display device, operation display method and program | |
JP5165661B2 (en) | Control device, control method, control program, and recording medium | |
JP2015022675A (en) | Electronic apparatus, interface control method, and program | |
JP6971573B2 (en) | Electronic devices, their control methods and programs | |
JP2014160416A (en) | Browsing system and program | |
JP6525022B2 (en) | Portable information terminal and program | |
JP6987337B2 (en) | Display control program, display control method and display control device | |
JP2023106171A (en) | Business card management system and business card management program | |
JP2013109529A (en) | Input device, control method for input device, control program, and recording medium | |
JP2017162099A (en) | Information processing apparatus, control method, and program | |
JP2017167792A (en) | Information processing method and information processor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160923 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170609 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170718 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170913 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180116 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180313 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180327 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180417 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6327834 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |