JP2015088090A - Operation display device, and operation display method and program - Google Patents

Operation display device, and operation display method and program Download PDF

Info

Publication number
JP2015088090A
JP2015088090A JP2013228072A JP2013228072A JP2015088090A JP 2015088090 A JP2015088090 A JP 2015088090A JP 2013228072 A JP2013228072 A JP 2013228072A JP 2013228072 A JP2013228072 A JP 2013228072A JP 2015088090 A JP2015088090 A JP 2015088090A
Authority
JP
Japan
Prior art keywords
display
pad
unit
touch
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013228072A
Other languages
Japanese (ja)
Other versions
JP6327834B2 (en
Inventor
正治 小新井
Masaharu Koarai
正治 小新井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2013228072A priority Critical patent/JP6327834B2/en
Publication of JP2015088090A publication Critical patent/JP2015088090A/en
Application granted granted Critical
Publication of JP6327834B2 publication Critical patent/JP6327834B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To enable a plurality of users to comfortably perform touch operations at the same time on a display device on which a touch operation can be done.SOLUTION: A table display (10) is configured to display an operation pad, enabling a display object displayed at a display part (21) to be operated by a touch, at the display part (21). The table display includes: an operation detection part (51) which detects a touch operation; an operation determination part (52) which determines an operation object and operation details of the touch operation from the detection result; an operation execution part (54) which generates image data on an operation pad where a display object is an operation object and generates image data for execution of an operation on the display object by a touch operation on the operation pad when it is determined that a pad display operation to display the operation pad of the display object is done; and a display control part (30) which allows the display part 21 to make a display based upon the image data.

Description

本発明は、タッチパネルを備えたディスプレイに対してタッチ操作を行う操作表示装置、操作表示方法及びプログラムに関する。   The present invention relates to an operation display device, an operation display method, and a program for performing a touch operation on a display provided with a touch panel.

従来、大型のテーブルディスプレイなどのタッチ対応表示機器で画面を操作する際、画面が大きいと手を大きく動かしてタッチする必要があるため、タッチが快適に行えなかった。また、複数人が別々に操作を行うと、操作対象をタッチ操作で移動する場合、たとえば手が交差してしまうことがあり、操作性が悪かった。そこで、別途マウスなどの入力機器や、操作用の端末を用意する必要があった。   Conventionally, when operating a screen with a touch-compatible display device such as a large table display, it is necessary to move the hand greatly when the screen is large, so that the touch cannot be performed comfortably. Further, when a plurality of people perform operations separately, when the operation target is moved by a touch operation, for example, hands may cross each other, and the operability is poor. Therefore, it was necessary to prepare a separate input device such as a mouse and a terminal for operation.

これを解決するために、特許文献1には、仮想的なタッチパッドを表示画面上に表示して、タッチパッドにより操作することが開示されている。また、特許文献2には、身体検出部によりユーザの位置などを検出して、ユーザが操作し易い位置に制御ウィンドウ(タッチパッド)を表示することが開示されている。また、特許文献3には、テーブルディスプレイにユーザが複数囲み操作する場合、共有領域を設けて、各ユーザの専用領域から共有領域を介してコピーや移動を行うものが開示されている。   In order to solve this, Patent Document 1 discloses that a virtual touchpad is displayed on a display screen and operated by the touchpad. Patent Document 2 discloses that a body detection unit detects a user's position and the like, and displays a control window (touch pad) at a position where the user can easily operate. Japanese Patent Application Laid-Open No. 2004-151620 discloses a method in which a plurality of user's surrounding operations are provided on a table display, and a shared area is provided to copy or move from each user's dedicated area via the shared area.

特開2013−15890号公報JP 2013-15890 A 特開2012−103800号公報JP 2012-103800 A 特開2005−352579号公報JP 2005-352579 A

しかし、特許文献1の技術は、操作し易いようにタッチパッドの操作領域を拡大するものであるが、複数のユーザの同時操作を想定していない。従って、複数のユーザが同時に多方向から操作する場合には、操作性が良くなるわけではない。   However, the technique of Patent Document 1 enlarges the operation area of the touchpad so that it can be easily operated, but does not assume simultaneous operation by a plurality of users. Therefore, when a plurality of users operate from multiple directions at the same time, the operability is not improved.

また、特許文献2の技術では、複数のユーザが使用することを想定しながら、各ユーザが使いやすい位置にタッチパッドを表示するようになっているが、表示装置が縦置きのディスプレイであり、ディスプレイ周辺の一方向からの操作しか想定していない。従ってテーブルディスプレイのように、ディスプレイ周辺の各方向から操作される場合には、操作性が良くなるわけではない。   Moreover, in the technique of patent document 2, while assuming that it is used by a plurality of users, the touch pad is displayed at a position that is easy for each user to use, but the display device is a vertical display, Only operation from one direction around the display is assumed. Therefore, when it is operated from each direction around the display like a table display, the operability is not improved.

また、特許文献3の技術は、テーブルディスプレイ周辺の各方向から複数のユーザが操作し、共通領域を介してコピーや移動を行うのであるが、共通領域の位置によっては、操作距離が大きく、操作性が改善されるわけではない。   The technique of Patent Document 3 is operated by a plurality of users from each direction around the table display and performs copying and moving through the common area. However, depending on the position of the common area, the operation distance is large, Sex is not improved.

大画面のディスプレイに表示されたウィンドウやオブジェクトを複数人が同時にタッチ操作する場合などは、混乱をきたす可能性があり、結局はユーザが一人一人操作することになって時間がかかり、効率がよいとは言えなかった。   When multiple people touch and operate windows and objects displayed on a large-screen display at the same time, it may be confusing, and eventually it will be time consuming and efficient for each user to operate. I couldn't say that.

本発明は、斯かる実情に鑑み、タッチ操作可能な表示装置に対して、複数のユーザが同時にタッチ操作する場合に快適に操作できる操作表示装置、操作表示方法及びプログラムを提供しようとするものである。   In view of such circumstances, the present invention is intended to provide an operation display device, an operation display method, and a program that can be comfortably operated when a plurality of users perform a touch operation simultaneously on a display device that can be touch-operated. is there.

本発明は、表示部に表示されている表示対象物に対して、タッチによる操作を可能とする操作パッドを前記表示部に表示する操作表示装置であって、
タッチ操作を検出する操作検出部と、前記操作検出部の検出結果によりタッチ操作における操作対象と操作内容を判定する操作判定部と、前記操作判定部により前記表示対象物の前記操作パッドを表示するパッド表示操作が行われたと判定された場合に、前記表示対象物を操作対象とする前記操作パッドの画像データを生成し、前記操作パッドでのタッチ操作による前記表示対象物への操作を実行する画像データの生成を行う操作実行部と、
前記画像データに基づいて前記表示部に表示させる表示制御部と、を備えることを特徴とするものである。
The present invention is an operation display device for displaying on the display unit an operation pad that enables an operation by touching the display object displayed on the display unit,
An operation detection unit that detects a touch operation, an operation determination unit that determines an operation target and an operation content in the touch operation based on a detection result of the operation detection unit, and the operation determination unit that displays the operation pad of the display object. When it is determined that a pad display operation has been performed, image data of the operation pad having the display object as an operation object is generated, and an operation to the display object is performed by a touch operation on the operation pad. An operation execution unit for generating image data;
And a display control unit that displays on the display unit based on the image data.

ここで、前記表示対象物は、アプリケーション・ウィンドウ又は画像のオブジェクトであることを特徴とする。   Here, the display object is an application window or an image object.

また、前記操作実行部は、前記表示対象物に最も近い表示部の画面周辺近傍に、前記操作パッドを表示することを特徴とする。   Further, the operation execution unit displays the operation pad in the vicinity of the screen periphery of the display unit closest to the display object.

また、前記操作実行部は、前記操作パッドに自らを操作するボタンを設けて、前記操作パッドへのボタン操作によって、前記操作パッド自身へのタッチ操作を可能とすることを特徴とする。   The operation execution unit may be provided with a button for operating itself on the operation pad, and a touch operation on the operation pad itself may be performed by a button operation on the operation pad.

また、前記操作判定部は、前記表示対象物以外の箇所に対して前記パッド表示操作が行われ場合、前記操作パッドは、前記表示部に表示されるカーソル移動の操作を対象とすると判定することを特徴とする。   In addition, when the pad display operation is performed on a portion other than the display object, the operation determination unit determines that the operation pad targets a cursor movement operation displayed on the display unit. It is characterized by.

また、前記操作判定部により操作内容が文字入力モードと判定された場合に、前記操作パッドに手書き手入力された文字を認識する文字認識部をさらに備え、前記操作実行部は、前記文字認識部により認識した文字を文字画像として生成することを特徴とする。   In addition, when the operation content is determined to be a character input mode by the operation determination unit, the operation determination unit further includes a character recognition unit that recognizes a character manually input to the operation pad, and the operation execution unit includes the character recognition unit The character recognized by the above is generated as a character image.

また、本発明は、表示部に表示されている表示対象物に対して、タッチによる操作を可能とする操作パッドを前記表示部に表示する操作表示方法であって、
タッチ操作を検出する操作検出ステップと、前記操作検出ステップの検出結果によりタッチ操作における操作対象と操作内容を判定する操作判定ステップと、前記操作判定ステップにより前記表示対象物の前記操作パッドを表示するパッド表示操作が行われたと判定された場合に、前記表示対象物を操作対象とする前記操作パッドの画像データを生成し、前記操作パッドでのタッチ操作による前記表示対象物への操作を実行する画像データの生成を行う操作実行ステップと、前記画像データに基づいて前記表示部に表示させる表示制御ステップと、を備えることを特徴とするものである。
Further, the present invention is an operation display method for displaying on the display unit an operation pad that enables an operation by touching the display object displayed on the display unit,
An operation detection step for detecting a touch operation, an operation determination step for determining an operation target and operation content in the touch operation based on a detection result of the operation detection step, and the operation pad of the display object is displayed by the operation determination step. When it is determined that a pad display operation has been performed, image data of the operation pad having the display object as an operation object is generated, and an operation to the display object is performed by a touch operation on the operation pad. An operation execution step for generating image data and a display control step for displaying on the display unit based on the image data are provided.

また、本発明は、コンピュータに、前記操作表示方法の各ステップを実行させるためのプログラムである。   Moreover, this invention is a program for making a computer perform each step of the said operation display method.

本発明によれば、表示対象物(アプリケーション・ウィンドウや画像オブジェクト)を操作対象とする操作パッドを表示するパッド表示操作が行われたときに、前記操作パッドを表示し、前記操作パッドでのタッチ操作による前記表示対象物への操作を実行するので、ユーザは操作パッドへのタッチ操作だけで表示対象物を操作できる。特に、操作対象となる表示対象物に対応する操作パッドを表示するので、ユーザも認識し易く、また操作もし易い。そして、表示対象物を大きく移動させる時も、操作パッドの操作だけですみ、また複数人のユーザであっても混乱なく同時操作が可能となるので、操作効率も向上する。   According to the present invention, when a pad display operation for displaying an operation pad whose operation target is a display object (an application window or an image object) is performed, the operation pad is displayed and touched with the operation pad. Since the operation on the display object is performed by the operation, the user can operate the display object only by touching the operation pad. In particular, since the operation pad corresponding to the display object to be operated is displayed, the user can easily recognize and operate. When the display object is moved greatly, it is only necessary to operate the operation pad, and even a plurality of users can perform simultaneous operation without confusion, so that the operation efficiency is improved.

本発明に係る操作表示装置であるテーブルディスプレイを示す外観図である。It is an external view which shows the table display which is the operation display apparatus which concerns on this invention. テーブルディスプレイで表示対象物をユーザが操作する説明図である。It is explanatory drawing in which a user operates a display target object with a table display. 操作パッドの一例を示す説明図である。It is explanatory drawing which shows an example of an operation pad. テーブルディスプレイの一例を示す機能ブロック図である。It is a functional block diagram which shows an example of a table display. 第1実施形態における操作対象に対する操作処理を示すフローチャートである。It is a flowchart which shows the operation process with respect to the operation target in 1st Embodiment. 操作パッドの移動操作を示す説明図である。It is explanatory drawing which shows movement operation of an operation pad. 表示対象物の移動操作を示す説明図である。It is explanatory drawing which shows movement operation of a display target object. 第2実施形態における手書き入力に対する操作処理を示すフローチャートである。It is a flowchart which shows the operation process with respect to the handwritten input in 2nd Embodiment. 操作パッドによる手書き文字入力を示す説明図である。It is explanatory drawing which shows the handwritten character input by an operation pad.

以下、本発明の実施の形態を添付図面を参照して説明する。
図1は、本発明に係る操作表示装置であるテーブルディスプレイを示す外観図である。図2は、テーブルディスプレイで表示対象物をユーザが操作する説明図である。図3は、操作パッドの一例を示す説明図である。
Embodiments of the present invention will be described below with reference to the accompanying drawings.
FIG. 1 is an external view showing a table display which is an operation display device according to the present invention. FIG. 2 is an explanatory diagram in which the user operates the display object on the table display. FIG. 3 is an explanatory diagram illustrating an example of the operation pad.

<全体構成と動作概略>
図1及び図2に示すように、このテーブルディスプレイ10は、タッチパネルである表示装置20をテーブル全面に備え、複数のユーザが表示を見ながらタッチ操作を行い、処理を行う装置である。この表示装置20は、液晶パネルなどの表示部の上側にタッチ入力部を備える構造である。
<Overall configuration and operation outline>
As shown in FIGS. 1 and 2, the table display 10 is a device that includes a display device 20 that is a touch panel on the entire surface of the table, and a plurality of users perform touch operations while watching the display to perform processing. The display device 20 has a structure including a touch input unit on the upper side of a display unit such as a liquid crystal panel.

図2に示すように、テーブルディスプレイ10を囲んだユーザは、表示装置20に表示されるアプリケーション・ウィンドウW1,W2や画像のオブジェクトO1,O2に対して、矢印方向への移動操作などを表示された操作パッド100(100−1,100−2,100−3,1004)を用いて行う。表示対象物であるアプリケーション・ウィンドウW1,W2やオブジェクトO1,O2に対して、直に各ユーザがタッチ操作で移動を行うと、移動距離が大きい場合には身を乗り出さなければならなかったり、他のユーザと腕が交差したりして、操作性が良くない。そこで、各ユーザの近くに操作パッド100(100−1,100−2,100−3,1004)を表示させて、そこでタッチ操作によるアプリケーション・ウィンドウW1,W2や表示オブジェクトO1,O2の移動操作などを行う。操作パッド100(100−1,100−2,100−3,1004)は、それぞれ1対1にアプリケーション・ウィンドウW1,W2やオブジェクトO1,O2に対応している。また、操作パッド100は、操作対象となるものがない場合(操作対象となるものが指定されていない場合)は、カーソルの操作を行うものである。   As shown in FIG. 2, the user who surrounds the table display 10 is displayed on the application windows W1 and W2 and the image objects O1 and O2 displayed on the display device 20 with a movement operation in the arrow direction. The operation pad 100 (100-1, 100-2, 100-3, 1004) is used. If each user moves directly to the application window W1, W2 and the objects O1, O2, which are the display objects, by touch operation, if the moving distance is long, he / she has to get out, The operability is not good because the arms cross with other users. Therefore, the operation pad 100 (100-1, 100-2, 100-3, 1004) is displayed in the vicinity of each user, and the application windows W1, W2 and the display objects O1, O2 are moved by touch operation. I do. The operation pads 100 (100-1, 100-2, 100-3, 1004) correspond to the application windows W1, W2 and the objects O1, O2 on a one-to-one basis. Further, the operation pad 100 is used to operate the cursor when there is no operation target (when no operation target is specified).

<表示操作パッドの外観構成>
図3に示すように、操作パッド100の左端には、操作パッド100自体に対する操作ボタンが表示されている。手書き入力のための「ペンソフトリモコン」ボタン101、移動するための「移動」ボタン102、表示倍率を変えるための「変倍」ボタン103、回転させるための「回転」ボタン104、操作表示パッドを閉じるための「クローズ」ボタン105が備えられている。
<Appearance structure of display operation pad>
As shown in FIG. 3, an operation button for the operation pad 100 itself is displayed at the left end of the operation pad 100. A “pen soft remote control” button 101 for handwriting input, a “move” button 102 for moving, a “magnification” button 103 for changing display magnification, a “rotation” button 104 for rotating, and an operation display pad A “close” button 105 for closing is provided.

また、操作パッド100の上側及び下側には、表示装置20に表示されている表示対象物(ウィンドウやオブジェクト)を操作するためのボタンが表示されている。上側には、選択された表示対象物を一定割合で縮小する縮小ボタン106、選択された表示対象物を最大化する最大化ボタン107、選択された表示対象物を一定割合で拡大する拡大ボタン108が備えられている。また、下側には、選択されたウィンドウのページを戻す前ページボタン109と、選択されたウィンドウのページを送る次ページボタン110を備える。   In addition, buttons for operating display objects (windows and objects) displayed on the display device 20 are displayed above and below the operation pad 100. On the upper side, a reduction button 106 that reduces the selected display object at a certain rate, a maximize button 107 that maximizes the selected display object, and an enlargement button 108 that enlarges the selected display object at a certain rate. Is provided. On the lower side, a previous page button 109 for returning the page of the selected window and a next page button 110 for sending the page of the selected window are provided.

操作パッド100のタッチパッド部(点線で囲んだ部分)111は、タップ、フリック、ピンチなどのタッチ操作を行う部分である。
表示対象物を移動、回転させるボタンがないが、たとえば、次のような操作で行う。移動するには、タッチパッド部111の2箇所を同時にタッチして、片方を移動方向にスライドさせる。回転するには、2箇所同時にタッチして、一方を回転方向に回転させる。
なお、これは表示対象物への操作の一例に過ぎず、移動ボタンや回転ボタンを設けてもよい。
A touch pad portion (portion surrounded by a dotted line) 111 of the operation pad 100 is a portion that performs touch operations such as tap, flick, and pinch.
Although there is no button for moving and rotating the display object, for example, the following operation is performed. In order to move, two places on the touch pad unit 111 are simultaneously touched and one of them is slid in the moving direction. To rotate, touch two locations at the same time and rotate one in the direction of rotation.
Note that this is merely an example of an operation on a display object, and a movement button or a rotation button may be provided.

また、操作パッド100では、指操作によるジェスチャー操作が可能であり、表示対象物の移動、変倍、回転、最大化などを行うことが可能であり、たとえばタッチした二本の指をひねることにより回転方向と角度を操作するような様々なジェスチャー操作を設定してもよい。プレゼンタ―がスマートタッチパッドを操作することで、表示データを最適な状態に変化させることで、視聴者への最適なプレゼンテーションが可能となる。   In addition, the operation pad 100 can perform a gesture operation by a finger operation, and can move, scale, rotate, and maximize a display object. For example, by twisting two touched fingers. Various gesture operations for manipulating the rotation direction and angle may be set. The presenter can operate the smart touchpad to change the display data to an optimal state, thereby enabling an optimal presentation to the viewer.

操作パッド100を表示するには、たとえば表示装置20の表示画面を所定時間(たとえば5秒)以上長押しすることが、操作パッド100の表示操作となる。この場合、操作対象となる表示対象物(ウィンドウやオブジェクト)を長押しすると、その表示対象物が、操作対象に指定されることになる。こうして操作パッド100は、表示対象物に1対1で対応することになる。   In order to display the operation pad 100, for example, the display operation of the operation pad 100 is to press and hold the display screen of the display device 20 for a predetermined time (for example, 5 seconds) or longer. In this case, when a display target object (window or object) to be operated is pressed for a long time, the display target object is designated as the operation target. In this way, the operation pad 100 corresponds to the display object on a one-to-one basis.

また、長押した位置が表示対象物の存在しない箇所であれば、操作パッド100はカーソル移動の処理を行うものとする。この場合は、ウィンドウやオブジェクトに対する操作は行わないので、表示対象物操作のボタンは、薄く表示するなどして、使用できないことをユーザに知らせる。あるいは、カーソル操作を示すために、操作パッドの隅にでもカーソルを示す画像を表示してもよい。   Further, if the long-pressed position is a place where there is no display object, the operation pad 100 performs a cursor movement process. In this case, since no operation is performed on the window or the object, the display object operation button is displayed lightly to notify the user that it cannot be used. Or in order to show cursor operation, you may display the image which shows a cursor also in the corner of an operation pad.

以降の実施形態では、表示画面を長押しをすることにより、操作パッド100を出現させることにしているが、同じ箇所を2タッチすることにより操作パッド100を出現させるなどのタッチ位置を特定できる他の操作であっても構わない。   In the following embodiments, the operation pad 100 is made to appear by long-pressing the display screen. However, the touch position such as making the operation pad 100 appear by touching the same portion two times can be specified. It may be an operation.

<機能ブロック構成>
図4は、テーブルディスプレイの一例を示す機能ブロック図である。
<Functional block configuration>
FIG. 4 is a functional block diagram illustrating an example of a table display.

テーブルディスプレイ10は、タッチパネルである表示装置20、表示装置20への表示制御を行う表示制御部30、データを記憶する記憶部40、操作に従って処理を制御する制御部50を備える。   The table display 10 includes a display device 20 that is a touch panel, a display control unit 30 that performs display control on the display device 20, a storage unit 40 that stores data, and a control unit 50 that controls processing according to an operation.

表示装置20は、上述したように液晶パネルなどの表示部21の上側にタッチ入力部22を備える構造である。   As described above, the display device 20 has a structure including the touch input unit 22 on the upper side of the display unit 21 such as a liquid crystal panel.

制御部50は、タッチ入力部22の入力信号からそのタッチ位置とタッチ移動を検出する操作検出部51、検出したタッチ位置と動きから操作対象及び操作内容を判定する操作判定部52、判定したタッチ操作に基づいて操作処理を実行して画像を生成する操作実行部53、タッチ入力部22の信号から文字認識を行う文字認識部54を備える。   The control unit 50 includes an operation detection unit 51 that detects the touch position and touch movement from the input signal of the touch input unit 22, an operation determination unit 52 that determines an operation target and operation content from the detected touch position and movement, and the determined touch. An operation execution unit 53 that executes an operation process based on an operation to generate an image and a character recognition unit 54 that performs character recognition from a signal from the touch input unit 22 are provided.

表示制御部30は、制御部50で生成された画像データに基づいて、表示部21に表示を行う。   The display control unit 30 performs display on the display unit 21 based on the image data generated by the control unit 50.

記憶部40は、ハードディスクやメモリなどからなる記憶装置であり、画像データや操作処理に関わる各種データを記憶し、制御部50とデータのやり取りを行うものである。   The storage unit 40 is a storage device including a hard disk, a memory, and the like, stores image data and various types of data related to operation processing, and exchanges data with the control unit 50.

[第1実施形態]
第1実施形態は、操作パッド100による操作対象への操作に関するものである。ペンソフトリモコンボタン101による手書き入力は第2実施形態として後述する。
[First Embodiment]
The first embodiment relates to an operation on an operation target using the operation pad 100. Handwriting input by the pen software remote control button 101 will be described later as a second embodiment.

図5は、第1実施形態における操作対象に対する操作処理を示すフローチャートである。
ユーザは、表示部21の画面をタッチする(ステップS1)。このとき、ユーザは、表示部21に表示されている表示対象物(ウィンドウやオブジェクト)を操作する場合は、操作対象とするウィンドウやオブジェクトにタッチする。カーソルの操作を行う場合は、操作対象が無い場所、すなわちウィンドウやオブジェクトが表示されていない場所にタッチする。
FIG. 5 is a flowchart showing an operation process for the operation target in the first embodiment.
The user touches the screen of the display unit 21 (step S1). At this time, when operating the display object (window or object) displayed on the display unit 21, the user touches the window or object to be operated. When operating the cursor, a place where there is no operation target, that is, a place where no window or object is displayed is touched.

操作判定部52は、タッチ操作が所定時間以上長押しされているかを判定する(ステップS2)。所定時間は予め設定されて、記憶部40に記憶されており、操作判定部52は記憶部40から所定時間を読み出して判定に用いる。この所定時間以上長押しされている場合は、操作判定部52は、操作パッド100の表示指示がされたと判定する。操作実行部53は、操作パッド表示ための画像データを生成する。表示制御部30は、この画像データに基づいて表示部21に操作パッド100を表示する(ステップS3)。   The operation determination unit 52 determines whether the touch operation has been pressed for a predetermined time or longer (step S2). The predetermined time is set in advance and stored in the storage unit 40, and the operation determination unit 52 reads the predetermined time from the storage unit 40 and uses it for determination. If the button has been pressed for a predetermined time or longer, the operation determination unit 52 determines that an instruction to display the operation pad 100 has been issued. The operation execution unit 53 generates image data for displaying the operation pad. The display control unit 30 displays the operation pad 100 on the display unit 21 based on the image data (step S3).

このとき、操作判定部52は、ユーザが長押ししている箇所から、ユーザが操作対象としているのが、どのウィンドウやオブジェクトであるのかを判定し、記憶部40にそのデータを記憶する。   At this time, the operation determination unit 52 determines which window or object the user is operating from the location where the user is long-pressed, and stores the data in the storage unit 40.

また、操作パッド100の表示位置は予め設定されており、長押し箇所、長押し箇所の近傍、あるいは操作対象の表示対象物(ウィンドウやオブジェクト)近傍などである。図2に示すように、特に操作対象となった表示対象物に最も近い表示画面の周辺部近傍に表示してもよい。デーブルディスプレイでは、表示画面周辺に沿ってユーザがいることと、ユーザは表示画面周辺に沿って移動も可能なので、周辺部近傍に操作パッド100を表示すれば、ユーザにとっては簡単に操作が可能となる。
また、操作パッド100の表示位置は、ユーザが任意に設定可能としてもよい。
In addition, the display position of the operation pad 100 is set in advance, such as a long-pressed position, a vicinity of the long-pressed position, or a display target object (window or object) to be operated. As shown in FIG. 2, it may be displayed near the periphery of the display screen that is closest to the display object that is the operation target. In the table display, since there is a user along the periphery of the display screen and the user can move along the periphery of the display screen, if the operation pad 100 is displayed in the vicinity of the peripheral portion, the user can easily operate. Become.
The display position of the operation pad 100 may be arbitrarily set by the user.

ユーザが操作パッド100をタッチ操作する(ステップS4)。操作判定部52は、操作検出部51の検出結果から、操作パッド100の操作ボタン101〜105へのタッチであるかを判定する(ステップS5)。操作ボタン101〜105へのタッチであれば、操作対象は操作パッド100自体に対するものであるので、タッチされた操作ボタンの示す操作処理に従って、操作パッド100に対して操作処理が行われる(ステップS6)。すなわち、操作判定部52が、操作検出部51の検出結果に基づいて、操作内容を判定し、その判定結果を操作実行部53に送る。操作実行部53は、操作の内容に基づいて操作パッド100を移動、回転などを行いその画像データを生成する。表示制御部30は、その画像データに基づいて操作パッド100を表示部21に表示する。   The user touches the operation pad 100 (step S4). The operation determination unit 52 determines whether the operation button 101 to 105 of the operation pad 100 is a touch from the detection result of the operation detection unit 51 (step S5). If it is a touch on the operation buttons 101 to 105, the operation target is for the operation pad 100 itself. Therefore, the operation process is performed on the operation pad 100 according to the operation process indicated by the touched operation button (step S6). ). That is, the operation determination unit 52 determines the operation content based on the detection result of the operation detection unit 51, and sends the determination result to the operation execution unit 53. The operation execution unit 53 moves and rotates the operation pad 100 based on the content of the operation, and generates the image data. The display control unit 30 displays the operation pad 100 on the display unit 21 based on the image data.

移動ボタン102がタッチされている場合は、タッチパッド部111におけるスライド操作やフリック操作により、その方向に操作パッド100を移動する。
変倍ボタン102がタッチされている場合は、タッチパッド部111におけるピンチ操作により、その方向に操作パッド100を拡大縮小する。
回転ボタン104がタッチされている場合は、タッチパッド部111における回転スライド操作により、その回転方向に操作パッド100を回転する。
クローズボタン105がタッチされている場合は、操作パッド100を閉じる(画像表示をやめる)。
When the movement button 102 is touched, the operation pad 100 is moved in that direction by a slide operation or a flick operation on the touch pad unit 111.
When the scaling button 102 is touched, the operation pad 100 is enlarged or reduced in that direction by a pinch operation on the touch pad unit 111.
When the rotation button 104 is touched, the operation pad 100 is rotated in the rotation direction by a rotation slide operation on the touch pad unit 111.
When the close button 105 is touched, the operation pad 100 is closed (the image display is stopped).

移動や変倍については、操作パッド100のタッチ操作と、表示部21の画面上での移動や変倍の程度は、予め設定されており、ユーザが任意に設定することも可能である。   Regarding movement and scaling, the touch operation of the operation pad 100 and the degree of movement and scaling on the screen of the display unit 21 are set in advance, and the user can arbitrarily set them.

操作パッド100の操作処理について具体例を説明する。図6は、操作パッドの移動操作を示す説明図である。
ユーザが、操作パッド100の「移動」ボタン102にタッチすると、ボタン102の表示の白黒が反転して移動処理モードになったことが示される。ユーザが操作パッド100のタッチパッド部111においてスライド操作を行うと、表示部21の画面ではスライド方向に操作パッド100が移動して表示される。
A specific example of the operation process of the operation pad 100 will be described. FIG. 6 is an explanatory diagram showing the operation of moving the operation pad.
When the user touches the “move” button 102 of the operation pad 100, the black and white display of the button 102 is reversed to indicate that the movement processing mode has been entered. When the user performs a slide operation on the touch pad unit 111 of the operation pad 100, the operation pad 100 is moved and displayed in the slide direction on the screen of the display unit 21.

なお、表示対象物を表示装置20での最大化表示を行った際には、最大化された表示対象物が最前面に位置し、他の表示対象物や操作パッド100が背面に位置し、プレゼンテーションとしては都合がよい。ただし、このような表示の場合には、最大化された表示対象物に対応する操作パッド100も背面に位置することから、最大化された表示対象物を直接タッチ操作することで、最大化する前の状態に戻すことができる。   When the display object is maximized on the display device 20, the maximized display object is positioned at the foreground, the other display objects and the operation pad 100 are positioned at the back, It is convenient as a presentation. However, in the case of such a display, since the operation pad 100 corresponding to the maximized display object is also located on the back side, it is maximized by directly touching the maximized display object. You can return to the previous state.

次に、ステップS5において、操作対象が操作パッド100ではない場合、操作対象が表示対象物(ウィンドウやオブジェクト)であるかを判定する(ステップS7)。操作対象は記憶部40に、操作パッド100を表示した段階で記憶されているので、操作判定部52は、この操作対象データに基づいて判定する。操作対象が表示対象物であれば、操作パッド100になされた操作に基づいて、操作対象の表示対象物に対して操作が行われる(ステップS8)。すなわち、操作判定部52が、操作検出部51の検出結果に基づいて、操作内容を判定し、その判定結果を操作実行部53に送る。操作実行部53は、操作の内容に基づいて操作対象の表示対象物(ウィンドウやオブジェクト)に対し移動、回転などを行い、その画像データを生成する。表示制御部30は、その画像データに基づいて操作処理を行った表示対象物を表示部21に表示する。   Next, when the operation target is not the operation pad 100 in step S5, it is determined whether the operation target is a display target (window or object) (step S7). Since the operation target is stored in the storage unit 40 when the operation pad 100 is displayed, the operation determination unit 52 determines based on the operation target data. If the operation target is a display target, the operation is performed on the display target as the operation target based on the operation performed on the operation pad 100 (step S8). That is, the operation determination unit 52 determines the operation content based on the detection result of the operation detection unit 51, and sends the determination result to the operation execution unit 53. The operation execution unit 53 moves and rotates the display target object (window or object) to be operated based on the content of the operation, and generates the image data. The display control unit 30 displays on the display unit 21 the display object that has been operated based on the image data.

表示対象物(ウィンドウやオブジェクト)への操作処理は次のようになる。
縮小ボタン106がタッチされた場合は、一定の割合で縮小する。
最大化ボタン107がタッチされた場合は、表示部21の画面最大に拡大する。
拡大ボタン108がタッチされた場合は、一定の割合で拡大する。
前ページボタン109がタッチされた場合は、操作対象のウィンドウのページを戻す。
次ページボタン110がタッチされた場合は、操作対象のウィンドウのページを送る。
表示対象物を移動する場合は、タッチパッド部111において、2箇所を同時にタッチし、一方のタッチを移動方向にスライド操作する。
表示対象物を回転する場合は、タッチパッド部111において、2箇所を同時にタッチし、一方のタッチを回転方向に回転スライド操作する。
The operation process for the display object (window or object) is as follows.
When the reduction button 106 is touched, the image is reduced at a certain rate.
When the maximize button 107 is touched, the screen of the display unit 21 is enlarged to the maximum.
When the enlarge button 108 is touched, the image is enlarged at a certain rate.
When the previous page button 109 is touched, the page of the operation target window is returned.
When the next page button 110 is touched, the window page to be operated is sent.
When moving the display object, the touch pad unit 111 touches two places at the same time, and slides one touch in the moving direction.
When rotating the display object, two places are touched simultaneously on the touch pad unit 111, and one touch is rotated and slid in the rotation direction.

移動や変倍については、操作パッド100のタッチ操作と、表示部21の画面上での表示対象物の移動や変倍の程度は、予め設定されており、ユーザが任意に設定することも可能である。   Regarding the movement and scaling, the touch operation of the operation pad 100 and the degree of movement and scaling of the display object on the screen of the display unit 21 are set in advance, and can be arbitrarily set by the user. It is.

表示対象物の操作処理について具体例として移動操作を説明する。図7は、表示対象物の移動操作を示す説明図である。
ユーザが、操作パッド100のタッチパッド部111において、2箇所を同時タッチすると、表示対象物への移動処理モードになる。さらにユーザが一方のタッチをスライド操作すると、表示部21の画面ではスライド方向に表示対象物201が移動して表示される。
A moving operation will be described as a specific example of the operation processing of the display object. FIG. 7 is an explanatory diagram illustrating a moving operation of the display object.
When the user touches two places at the same time on the touch pad unit 111 of the operation pad 100, the mode for moving to the display object is set. Further, when the user slides one of the touches, the display object 201 is moved and displayed in the sliding direction on the screen of the display unit 21.

なお、操作パッド100がどの表示対象物に対応しているかを示すために、操作パッド100をタッチしたときに、対応する表示対象物を点滅させたり、色を濃くしたりなどして、ユーザ判別できるようにしてもよい。また、対応する表示対象物のサムネイルを操作パッド100の隅に表示させてもよい。   In order to indicate which display object the operation pad 100 corresponds to, when the operation pad 100 is touched, the corresponding display object blinks or the color is darkened, so that the user is discriminated. You may be able to do it. Further, thumbnails of corresponding display objects may be displayed at the corners of the operation pad 100.

次にステップS7において、操作対象が表示対象物(ウィンドウやオブジェクト)ではない場合、操作対象は特定されていないことになるので、操作対象はカーソルとなる。従って、操作パッド100になされたタッチ操作に基づいて、カーソルに対して操作が行われる(ステップS9)。すなわち、操作判定部52が、操作検出部51の検出結果に基づいて、カーソル移動の操作内容を判定し、その判定結果を操作実行部53に送る。操作実行部53は、操作の内容に基づいてカーソル移動を行い、その画像データを生成する。表示制御部30は、その画像データに基づいてカーソルを表示部21に表示する。   Next, in step S7, when the operation target is not a display target (window or object), the operation target is not specified, so the operation target is a cursor. Accordingly, an operation is performed on the cursor based on the touch operation performed on the operation pad 100 (step S9). That is, the operation determination unit 52 determines the operation content of the cursor movement based on the detection result of the operation detection unit 51, and sends the determination result to the operation execution unit 53. The operation execution unit 53 moves the cursor based on the content of the operation, and generates the image data. The display control unit 30 displays a cursor on the display unit 21 based on the image data.

カーソル移動については、操作パッド100のタッチ操作と、表示部21の画面上での表示対象物の移動や変倍の程度は、予め設定されており、ユーザが任意に設定することも可能である。   Regarding the cursor movement, the touch operation of the operation pad 100 and the degree of movement or scaling of the display object on the screen of the display unit 21 are set in advance, and can be arbitrarily set by the user. .

こうして、表示対象物(ウィンドウやオブジェクト)に1対1で対応する操作パッド100を表示して、各表示対象物への操作をするときに、操作パッド100でタッチ操作が可能となるので、大画面表示で、さらにユーザが複数いても、操作が混乱することなくスムーズに行うことができる。また、操作パッド100自体をその操作パッド100で操作可能であり、ユーザが望む位置(操作し易い位置など)に自由に、しかユーザが複数いても、操作が混乱することなくスムーズに行うことができ、操作性が向上する。操作パッド100は、表示対象物を操作対象として指定する操作(その表示対象物の長押し操作など)を行うと、1対1に対応するものが表示されるので、ユーザには操作パッドの表示出現操作がわかりやすい。   In this way, when the operation pad 100 corresponding to the display object (window or object) is displayed one-to-one and each of the display objects is operated, a touch operation can be performed with the operation pad 100. Even if there are a plurality of users on the screen display, the operation can be performed smoothly without confusion. Further, the operation pad 100 itself can be operated with the operation pad 100, and the operation pad 100 can be smoothly operated without any confusion even if there are a plurality of users at a position desired by the user (e.g., an easy-to-operate position). And operability is improved. When the operation pad 100 performs an operation of designating a display object as an operation object (such as a long press operation of the display object), a one-to-one correspondence is displayed, so that the user can display the operation pad. Appearance operation is easy to understand.

[第2実施形態]
第1実施形態においては、移動・回転・拡大縮小といった表示対象物への操作について記載したが、第2実施形態は、新たな画像を追加表示するものである。
操作パッド100には、ペンソフトリモコンボタン101が表示されており、このボタンをタッチすることにより、文字入力が可能となる。
[Second Embodiment]
In the first embodiment, operations on display objects such as movement, rotation, and enlargement / reduction have been described. However, in the second embodiment, a new image is additionally displayed.
A pen soft remote control button 101 is displayed on the operation pad 100, and touching this button enables character input.

図8は、第2実施形態における手書き入力に対する操作処理を示すフローチャートである。
これは図5のステップS6における操作パッド100の操作処理についての処理動作である。
操作判定部52は、操作検出部51の検出結果からユーザがペンタッチリモコンボタン101にタッチしたかを確認する(ステップS11)。ペンタッチリモコンボタン101をタッチしていれば、操作実行部53は、記憶部40より文字認識のアプリケーションを読み出し、手書き文字入力モードとなる(ステップS12)。
FIG. 8 is a flowchart showing an operation process for handwritten input in the second embodiment.
This is a processing operation for the operation processing of the operation pad 100 in step S6 of FIG.
The operation determination unit 52 confirms whether the user has touched the pen touch remote control button 101 from the detection result of the operation detection unit 51 (step S11). If the pen touch remote control button 101 is touched, the operation execution unit 53 reads the character recognition application from the storage unit 40 and enters the handwritten character input mode (step S12).

ユーザが操作パッド100のタッチパッド部111において、手書きの文字入力を行う(ステップS13)。操作実行部53は、アプリケーションによって文字認識を行う(ステップS14)。そして、認識した文字を画像データとして生成し、表示制御部30は、その文字画像データを表示装置20の表示部21に表示する(ステップS15)。   The user performs handwritten character input on the touchpad unit 111 of the operation pad 100 (step S13). The operation execution unit 53 performs character recognition by the application (step S14). And the recognized character is produced | generated as image data, and the display control part 30 displays the character image data on the display part 21 of the display apparatus 20 (step S15).

なお、文字表示位置は、例えばカーソル操作の操作パッド100などから、文字表示衣位置を指定しておき、そのカーソル操作の操作パッド100から文字入力を行ってもよいし、カーソル位置が表示対象物(ウィンドウやオブジェクト)であれば、その表示対象物を操作する操作パッド100から文字入力をしてもよい。   As the character display position, for example, a character display clothing position may be designated from the operation pad 100 for cursor operation, and characters may be input from the operation pad 100 for cursor operation. In the case of (window or object), characters may be input from the operation pad 100 for operating the display object.

図9は、操作パッドによる手書き文字入力を示す説明図である。
ユーザが、操作パッド100のペンタッチリモコンボタン101にタッチすると、ペンタッチリモコンボタン101は、その表示の白黒が反転して手書き文字入力モードになったことが示される。ユーザが操作パッド100のタッチパッド部111において「W」と手書きで文字入力を行うと、それを文字認識して、表示部21の画面では、指定されたオブジェクト202内に「W」と表示される。
FIG. 9 is an explanatory diagram showing input of handwritten characters using the operation pad.
When the user touches the pen touch remote control button 101 on the operation pad 100, the pen touch remote control button 101 indicates that the display is reversed in black and white and the handwriting character input mode is entered. When the user inputs a character “W” by handwriting on the touch pad unit 111 of the operation pad 100, the character is recognized and “W” is displayed in the designated object 202 on the screen of the display unit 21. The

このように、指やタッチペンによる手書文字入力も可能であり、ブラウザーの検索領域を選択した後に、手書き入力を行うことで、手書入力が文字認識され、WWWでの検索も可能となる。さらに、アプリケーション上に直接文字入力することで、プレゼンテーションを行った表示データ上に打ち合わせ履歴を付加することも可能となる。   In this way, handwritten character input using a finger or a touch pen is also possible, and handwriting input is performed after selecting a search area of the browser, whereby the handwritten input is recognized and search on the WWW is also possible. Furthermore, by directly inputting characters on the application, it is possible to add a meeting history to the display data on which the presentation was performed.

また、文字表示する箇所のエリアに比べ、操作パッド100の大きさが小さい場合には、一旦、手書文字入力を行った後に、文字表示するエリアに合せて、文字サイズや文字表示位置を変更することで、適切な文字配置が可能となる。   If the size of the operation pad 100 is smaller than the area where characters are displayed, once the handwritten characters are input, the character size and character display position are changed to match the area where characters are displayed. By doing so, appropriate character arrangement becomes possible.

本発明による操作表示装置で動作するプログラムは、本発明に関わる上記実施形態の機能を実現するように、CPU(Central Processing Unit)等を制御するプログラム(コンピュータを機能させるプログラム)であっても良い。そして、これら装置で取り扱われる情報は、その処理時に一時的にRAM(Random Access Memory)に蓄積され、その後、Flash ROM(Read Only Memory)などの各種ROMやHDD(Hard Disk Drive)に格納され、必要に応じてCPUによって読み出し、修正・書き込みが行われる。また、各構成の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各部の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。   The program that operates on the operation display device according to the present invention may be a program that controls a CPU (Central Processing Unit) or the like (a program that causes a computer to function) so as to realize the functions of the above-described embodiments related to the present invention. . Information handled by these devices is temporarily stored in RAM (Random Access Memory) during the processing, and then stored in various ROMs such as Flash ROM (Read Only Memory) and HDD (Hard Disk Drive). Reading, correction, and writing are performed by the CPU as necessary. In addition, a program for realizing the function of each component may be recorded on a computer-readable recording medium, and the program recorded on the recording medium may be read into a computer system and executed to perform processing of each unit. Good. Here, the “computer system” includes an OS and hardware such as peripheral devices.

また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。   The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory in a computer system serving as a server or a client in that case, and a program that holds a program for a certain period of time are also included. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.

以上、この発明の実施形態を図面を参照して詳述してきたが、具体的な構成はこれらの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計変更等された発明も含まれる。   As described above, the embodiments of the present invention have been described in detail with reference to the drawings. However, the specific configuration is not limited to these embodiments, and the invention may be changed in design without departing from the gist of the present invention. Is also included.

本実施形態においては、平置きのテーブルディスプレイに適用した場合を述べたが、縦置きの大画面ディスプレイにおいて複数のユーザが使用する場合にも適用できる。この場合は、操作パッドをユーザが触れる位置に表示するように予め設定しておけばよい。
また、縦置きディスプレイを横置きにしたものにも当然適用できる。また、タブレット端末において複数のユーザが使用する場合にも適用できる。
In the present embodiment, the case where the present invention is applied to a flat table display has been described. However, the present invention can also be applied to a case where a plurality of users use a vertical large screen display. In this case, the operation pad may be set in advance so as to be displayed at a position touched by the user.
Of course, the present invention can also be applied to a vertically placed display. Further, the present invention can also be applied when a plurality of users use the tablet terminal.

10 :テーブルディスプレイ
20 :表示装置
21 :表示部
22 :タッチ入力部
30 :表示制御部
40 :記憶部
50 :制御部
51 :操作検出部
52 :操作判定部
53 :操作実行部
54 :文字認識部
100 :操作パッド
10: Table display 20: Display device 21: Display unit 22: Touch input unit 30: Display control unit 40: Storage unit 50: Control unit 51: Operation detection unit 52: Operation determination unit 53: Operation execution unit 54: Character recognition unit 100: Operation pad

Claims (8)

表示部に表示されている表示対象物に対して、タッチによる操作を可能とする操作パッドを前記表示部に表示する操作表示装置であって、
タッチ操作を検出する操作検出部と、
前記操作検出部の検出結果によりタッチ操作における操作対象と操作内容を判定する操作判定部と、
前記操作判定部により前記表示対象物の前記操作パッドを表示するパッド表示操作が行われたと判定された場合に、前記表示対象物を操作対象とする前記操作パッドの画像データを生成し、前記操作パッドでのタッチ操作による前記表示対象物への操作を実行する画像データの生成を行う操作実行部と、
前記画像データに基づいて前記表示部に表示させる表示制御部と、
を備えることを特徴とする操作表示装置。
An operation display device that displays on the display unit an operation pad that enables an operation by touching a display object displayed on the display unit,
An operation detection unit for detecting a touch operation;
An operation determination unit that determines an operation target and operation content in a touch operation based on a detection result of the operation detection unit;
When it is determined by the operation determination unit that a pad display operation for displaying the operation pad of the display object is performed, image data of the operation pad with the display object as an operation object is generated, and the operation An operation execution unit for generating image data for performing an operation on the display object by a touch operation on a pad;
A display control unit for displaying on the display unit based on the image data;
An operation display device comprising:
前記表示対象物は、アプリケーション・ウィンドウ又は画像のオブジェクトであることを特徴とする請求項1に記載の操作表示装置。   The operation display device according to claim 1, wherein the display object is an application window or an image object. 前記操作実行部は、前記表示対象物に最も近い表示部の画面周辺近傍に、前記操作パッドを表示することを特徴とする請求項1又は2に記載の操作表示装置。   The operation display device according to claim 1, wherein the operation execution unit displays the operation pad near the periphery of the screen of the display unit closest to the display object. 前記操作実行部は、前記操作パッドに自らを操作するボタンを設けて、前記操作パッドへのボタン操作によって、前記操作パッド自身へのタッチ操作を可能とすることを特徴とする請求項1から3のいずれか一項に記載の操作表示装置。   The operation execution unit is provided with a button for operating itself on the operation pad, and enables a touch operation on the operation pad itself by a button operation on the operation pad. The operation display device according to any one of the above. 前記操作判定部は、前記表示対象物以外の箇所に対して前記パッド表示操作が行われ場合、前記操作パッドは、前記表示部に表示されるカーソル移動の操作を対象とすると判定することを特徴とする請求項1から4のいずれか一項に記載の操作表示装置。   The operation determination unit determines that the operation pad is intended for an operation of moving a cursor displayed on the display unit when the pad display operation is performed on a portion other than the display object. The operation display device according to any one of claims 1 to 4. 前記操作判定部により操作内容が文字入力モードと判定された場合に、前記操作パッドに手書き手入力された文字を認識する文字認識部をさらに備え、
前記操作実行部は、前記文字認識部により認識した文字を文字画像として生成することを特徴とする請求項1から5のいずれか一項に記載の操作表示装置。
A character recognition unit for recognizing a character manually input on the operation pad when the operation content is determined to be in the character input mode by the operation determination unit;
The operation display device according to claim 1, wherein the operation execution unit generates a character recognized by the character recognition unit as a character image.
表示部に表示されている表示対象物に対して、タッチによる操作を可能とする操作パッドを前記表示部に表示する操作表示方法であって、
タッチ操作を検出する操作検出ステップと、
前記操作検出ステップの検出結果によりタッチ操作における操作対象と操作内容を判定する操作判定ステップと、
前記操作判定ステップにより前記表示対象物の前記操作パッドを表示するパッド表示操作が行われたと判定された場合に、前記表示対象物を操作対象とする前記操作パッドの画像データを生成し、前記操作パッドでのタッチ操作による前記表示対象物への操作を実行する画像データの生成を行う操作実行ステップと、
前記画像データに基づいて前記表示部に表示させる表示制御ステップと、
を備えることを特徴とする操作表示方法。
An operation display method for displaying, on the display unit, an operation pad that enables operation by touching a display object displayed on the display unit,
An operation detection step for detecting a touch operation;
An operation determination step for determining an operation target and operation content in the touch operation based on a detection result of the operation detection step;
When it is determined in the operation determination step that a pad display operation for displaying the operation pad of the display object has been performed, image data of the operation pad with the display object as an operation object is generated, and the operation An operation execution step of generating image data for performing an operation on the display object by a touch operation on a pad;
A display control step for displaying on the display unit based on the image data;
An operation display method comprising:
コンピュータに、請求項6の操作表示方法の各ステップを実行させるためのプログラム。   The program for making a computer perform each step of the operation display method of Claim 6.
JP2013228072A 2013-11-01 2013-11-01 Operation display device, operation display method and program Active JP6327834B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013228072A JP6327834B2 (en) 2013-11-01 2013-11-01 Operation display device, operation display method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013228072A JP6327834B2 (en) 2013-11-01 2013-11-01 Operation display device, operation display method and program

Publications (2)

Publication Number Publication Date
JP2015088090A true JP2015088090A (en) 2015-05-07
JP6327834B2 JP6327834B2 (en) 2018-05-23

Family

ID=53050768

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013228072A Active JP6327834B2 (en) 2013-11-01 2013-11-01 Operation display device, operation display method and program

Country Status (1)

Country Link
JP (1) JP6327834B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180089805A1 (en) * 2016-09-29 2018-03-29 Seiko Epson Corporation Display apparatus, information processing apparatus, and information processing method
WO2021066023A1 (en) * 2019-09-30 2021-04-08 株式会社小松製作所 Control device, work machine, and control method

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07319615A (en) * 1994-05-24 1995-12-08 Wacom Co Ltd Information processor and its control method
JPH11259237A (en) * 1998-03-12 1999-09-24 Ricoh Co Ltd Picture display device
JP2000222092A (en) * 1999-01-29 2000-08-11 Canon Inc Electronic information display device, its display controlling method and storage medium
JP2000235443A (en) * 1999-02-16 2000-08-29 Canon Inc Electronic conferencing device, and its control method and storage medium
JP2003058137A (en) * 2001-08-10 2003-02-28 Sharp Corp Information processor with screen-display-direction inverting function
JP2006011914A (en) * 2004-06-28 2006-01-12 Fuji Photo Film Co Ltd Image display controller and image display control program
JP2006018348A (en) * 2004-06-30 2006-01-19 Hitachi Ltd Input/display system and its method in using large screen display
JP2009064209A (en) * 2007-09-06 2009-03-26 Sharp Corp Information display device
JP2013041350A (en) * 2011-08-12 2013-02-28 Panasonic Corp Touch table system

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07319615A (en) * 1994-05-24 1995-12-08 Wacom Co Ltd Information processor and its control method
JPH11259237A (en) * 1998-03-12 1999-09-24 Ricoh Co Ltd Picture display device
JP2000222092A (en) * 1999-01-29 2000-08-11 Canon Inc Electronic information display device, its display controlling method and storage medium
JP2000235443A (en) * 1999-02-16 2000-08-29 Canon Inc Electronic conferencing device, and its control method and storage medium
JP2003058137A (en) * 2001-08-10 2003-02-28 Sharp Corp Information processor with screen-display-direction inverting function
JP2006011914A (en) * 2004-06-28 2006-01-12 Fuji Photo Film Co Ltd Image display controller and image display control program
JP2006018348A (en) * 2004-06-30 2006-01-19 Hitachi Ltd Input/display system and its method in using large screen display
JP2009064209A (en) * 2007-09-06 2009-03-26 Sharp Corp Information display device
JP2013041350A (en) * 2011-08-12 2013-02-28 Panasonic Corp Touch table system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180089805A1 (en) * 2016-09-29 2018-03-29 Seiko Epson Corporation Display apparatus, information processing apparatus, and information processing method
US10410323B2 (en) 2016-09-29 2019-09-10 Seiko Epson Corporation Display apparatus, information processing apparatus, and information processing method for displaying a second image that includes options for manipulating a first image
WO2021066023A1 (en) * 2019-09-30 2021-04-08 株式会社小松製作所 Control device, work machine, and control method
CN114364845A (en) * 2019-09-30 2022-04-15 株式会社小松制作所 Control device, work machine, and control method
JP7424784B2 (en) 2019-09-30 2024-01-30 株式会社小松製作所 Control device, working machine and control method

Also Published As

Publication number Publication date
JP6327834B2 (en) 2018-05-23

Similar Documents

Publication Publication Date Title
EP2715491B1 (en) Edge gesture
JP6215534B2 (en) Information processing apparatus, information processing method, and computer program
US9658766B2 (en) Edge gesture
CN109643210B (en) Device manipulation using hovering
US8976140B2 (en) Touch input processor, information processor, and touch input control method
US11812135B2 (en) Wide angle video conference
US20120304131A1 (en) Edge gesture
US20120304132A1 (en) Switching back to a previously-interacted-with application
US20230109787A1 (en) Wide angle video conference
EP2815299A1 (en) Thumbnail-image selection of applications
TWI510083B (en) Electronic device and image zooming method thereof
TWI442305B (en) A operation method and a system of the multi-touch
WO2016160175A1 (en) Enhancement to text selection controls
TW201403386A (en) Eye controlling method and system
JP6327834B2 (en) Operation display device, operation display method and program
JP5165661B2 (en) Control device, control method, control program, and recording medium
JP2015022675A (en) Electronic apparatus, interface control method, and program
JP6971573B2 (en) Electronic devices, their control methods and programs
JP2014160416A (en) Browsing system and program
JP6525022B2 (en) Portable information terminal and program
JP6987337B2 (en) Display control program, display control method and display control device
JP2023106171A (en) Business card management system and business card management program
JP2013109529A (en) Input device, control method for input device, control program, and recording medium
JP2017162099A (en) Information processing apparatus, control method, and program
JP2017167792A (en) Information processing method and information processor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160923

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170609

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170718

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180313

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180327

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180417

R150 Certificate of patent or registration of utility model

Ref document number: 6327834

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150