JP2004355059A - Operation display method - Google Patents

Operation display method Download PDF

Info

Publication number
JP2004355059A
JP2004355059A JP2003148489A JP2003148489A JP2004355059A JP 2004355059 A JP2004355059 A JP 2004355059A JP 2003148489 A JP2003148489 A JP 2003148489A JP 2003148489 A JP2003148489 A JP 2003148489A JP 2004355059 A JP2004355059 A JP 2004355059A
Authority
JP
Japan
Prior art keywords
event
computer
display method
screen
operation display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003148489A
Other languages
Japanese (ja)
Inventor
Hiromi Ukai
ひろみ 鵜飼
Yoshihiro Yamada
佳弘 山田
Takeshi Kamoshita
毅 鴨志田
Hitoshi Nakamura
仁 中村
Hiroki Yamamoto
弘樹 山本
Shigeki Hirasawa
茂樹 平澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2003148489A priority Critical patent/JP2004355059A/en
Publication of JP2004355059A publication Critical patent/JP2004355059A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method for displaying an operation such as a mouse input or a keyboard input which cannot be comprehended only by watching a screen on the screen by using texts or animation more specifically. <P>SOLUTION: An event handler 141 for monitoring event generation from a window system to an application, an event conversion table 200 for associating the event with an user operation, and an input event display 142 for displaying the result of event conversion onto the screen by using the animation, icons, the letters, etc. are provided. Since the operation information about which mouse button is pressed etc. can be acquired from the screen, the aspect of specific operations can be comprehended only by watching the screen. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明はコンピュータへの入力操作の内容を分かりやすく表示するための表示方法に関する発明であり、特にウィンドウ・システムにおいて、画面共有時や自動実行時の入力操作の内容を画面に表示するシステムに関する。
【0002】
【従来の技術】
パソコンにUSBカメラなどを接続して、手軽にTV電話(ビデオ・コミュニケーション、ビデオチャットなどの名称でも呼ばれている)ができるようになってきている。遠隔地をTV電話でつないで会議を行うビデオ会議システムでは、映像に加えてホワイトボードやアプリケーション共有などの機能が使用できる(例えば、特許文献1、非特許文献1参照)。これらは複数のコンピュータが画面やウィンドウを共有する機能であり、ネットワークを介してビデオ会議システムに接続している複数のコンピュータの画面に同一のウィンドウが表示され、共有アプリケーションへの入力(表示されたウィンドウへの入力)も各コンピュータから行うことができる。類似の機能として、コンピュータの操作を支援するために、支援者が遠隔地のパソコンから支援を必要とするパソコンの画面を見て操作できるリモート アシスタンスと呼ばれる機能もある(非特許文献2参照)。
【0003】
ネットワークで接続された複数のコンピュータが画面やウィンドウを共有する方法は大きく分けて二つある。一つは、一台のコンピュータ上でアプリケーションを動作させ、ユーザが行ったアプリケーションへの入力に対応して発生したイベントを、通信機能を介してアプリケーションが動作しているコンピュータに送り、アプリケーションがイベント処理を行い、その結果が反映された画面情報を各コンピュータに通信機能を介して送信し、各コンピュータの画面に表示する方法である。もう一方は画面情報を共有するのではなく図形やテキストなどのデータを共有する方法であり、同じアプリケーションを各コンピュータ上で動作させ、ユーザが行ったアプリケーションへの入力に対応して発生したイベントを、通信機能を介して他のコンピュータに送る方法である。双方とも、イベントを通信する技術を用いているが、ここでいうイベントとは、ウィンドウ・システムで用いられているイベント ドリブン プログラミングというプログラミング パラダイムで使われているものである。イベント ドリブン プログラミングとは、ユーザがアプリケーションに対して操作を行うとイベントが発生し、そのイベントを処理するコードを記述するプログラミング手法である。例えば、ユーザがマウスをクリックするとハードウェア割り込みが発生し、OSカーネルとマウス用デバイスドライバが処理してウィンドウ・システムにクリック信号の入力を伝える。ウィンドウ・システムはどのウィンドウ内でマウスがクリックされたのかを判断し、対応するアプリケーションにクリック イベントの発生を伝える。クリック イベントが発生するとアプリケーション内のクリック用のイベント・ハンドラが応答して、開発者が記述したコードに従ってイベント処理が行われる。従って、他のコンピュータにイベントを送り、そのイベントがアプリケーションに伝達されれば他のコンピュータ上で動作しているアプリケーションを操作することができる。
【0004】
ところで、パソコンの具体的な操作を説明するために説明者が明示的に説明を加える方法は古くから使われている。例えば、画面やウィンドウをハードコピーして画面遷移が分かるように並べたものに『マウスの右ボタンをクリック』などの説明を書き入れたものや、画面をビデオに録画して『ここでマウスの右ボタンをクリックしてください』などのように説明を音声で補助するものである。
【0005】
【特許文献1】
特開平6−337915号公報
【非特許文献1】
NetMeeting Home、http://www.microsoft.com/windows/netmeeting/
【非特許文献2】
Step−by−Step Guide to Remote Assistance、http://www.microsoft.com/windowsxp/pro/techinfo/deployment/remoteguide/
【0006】
【発明が解決しようとする課題】
アプリケーション共有やリモート アシスタンス機能では、遠隔地にいる対話相手がどのような操作を行ったのかはマウスカーソルの動きなどの画面に表示される情報から推測するしかなく、パソコンの操作に慣れていない人にとっては推測が難しいために対話相手の具体的な操作が分からないという問題がある。そのため、遠隔対話で教えてもらったことを再び自分で行おうとしても、操作方法が分からないという問題もある。例えば、ある文字列をコピーして別の場所に貼り付ける操作では、マウスのみを用いる方法とキーボードとマウスを併用する方法とキーボードのみを用いる方法とがある。キーボードとマウスを併用する場合の操作例を以下に記述する。まず、コピーする文字列の上にマウスカーソルを移動し、コピーする文字列上でマウスボタンを押したまま移動させることで文字列を選択する。次に、キーボードで<Ctrl>キーを押しながら<C>キーを押すことで文字列のコピーを行う。最後に、文字列を貼り付ける場所にマウスカーソルを移動させてマウスの左ボタンを押し、再びキーボードで<Ctrl>キーを押しながら<V>キーを押すことでコピーした文字列の貼り付けを行い、操作が完了する。キーボードで<Ctrl>キーを押しながら行うキー操作は、アプリケーション・プログラムのメニューを選択して行う操作のショートカット機能であり、利用者がよく行う操作を<Ctrl>+<C>で代用したりファンクション・キーに割り当てたりすることで操作を簡単にしている。上述したキーボードとマウスを併用する場合の操作例において、遠隔地にいる人に見えるのはマウスカーソルの動きだけであり、マウスのボタンを押したりキーボードから入力したりといった操作情報を見ることはできない。
【0007】
説明者が明示的に説明を加える方法では、説明者があらかじめ説明を加える作業が必要となり、説明者が説明を加えない限り、どのような操作が行われたのかは説明される側には伝わらないという問題がある。
【0008】
本発明の課題は、マウスやキーボード入力などの画面を見ているだけでは分からない操作を、文字やアニメーションを用いて具体的に説明するシステム、方法及びプログラムを提供することである。
【0009】
【課題を解決するための手段】
上記の課題を解決するために、ウィンドウ・システムからアプリケーションへのイベント発生をモニタリングする手段と、イベントと具体的なユーザの操作とを対応付ける手段と、発生したイベントに対応するユーザ操作をアニメーション、アイコン、文字などを用いて画面に表示する手段を設けることにより、ユーザが行ったマウスやキーボード入力などの具体的な操作を画面に表示できるようにする。尚、以降の説明のために、これらの手段を基本手段とする。
【0010】
上述した基本手段に加えて、操作情報を記憶領域に記録する機能を設け、必要な場合に画面に表示したり印刷したりすることで、操作説明書を自動的に作成することができるようになる。
【0011】
上述した基本手段に加えて、特定のアプリケーションへのイベントのみを選択して操作情報を画面に表示する、および、記録する手段を設けることにより、あるアプリケーションへの操作に注目した情報を表示することができるようになる。
【0012】
一台のコンピュータ上で動作しているアプリケーションを複数のコンピュータが共有している場合、アプリケーションを実行しているコンピュータ上に上述した基本手段を設けるとともに、ユーザ操作を表示している画面情報を他のコンピュータに送る手段を設けることにより、同一のユーザ操作表示画面を複数のコンピュータ上に表示できるようになる。加えて、ユーザ(コンピュータ)ごとにイベントを区別して管理する機能を設け、操作を行ったユーザを色やアニメーション、アイコン、文字などを用いて区別して表示する手段を設けることにより、どのユーザがどのような操作を行ったのかという情報を画面から得られるようになる。
【0013】
同じアプリケーションを各コンピュータ上でそれぞれ動作させ、図形やテキストなどのデータを共有している場合も同様に、各コンピュータ上に上述した基本手段を設けるとともに、ユーザ(コンピュータ)ごとにイベントを区別して管理する機能を設け、操作を行ったユーザを色やアニメーション、アイコン、文字などを用いて区別して表示する手段を設けることにより、どのユーザがどのような操作を行ったのかという情報を画面から得られるようになる。
【0014】
また、共有アプリケーションを実行しているコンピュータにて上述した基本手段とイベントを記録する機能を設けることによりユーザ操作を再現することが可能となり、記録したイベントをダウンロードなどして他のコンピュータで利用することもできるようになる。ユーザが行った操作を登録して自動実行するマクロ機能においても、自動実行時にユーザ操作情報を表示することが可能となる。
【0015】
【発明の実施の形態】
以下、本発明の第1の実施例を図1により説明する。図1にはウィンドウ・システムがOSに組み込まれているコンピュータの構成を示しているが、CPU、主記憶、二次記憶装置などのハードウェア構成は本発明に関係しないので、記載を省略している。また、マウス102、キーボード101を入力装置としているが、他の入力装置が接続されていても良い。マウス102、キーボード101、ディスプレイ100などの装置からの信号を処理するデバイスドライバ110と、装置から発生したハードウェア割り込みやソフトウェアのスケジューリングなどを行うOSカーネル120と、ウィンドウの管理を行うウィンドウ・システム130を基盤として、アプリケーション・ソフトウェア群150が動作する構成を示している。例えば、マウス102をクリックするとハードウェア割り込みが発生し、OSカーネル120とマウス用デバイスドライバ110が処理してウィンドウ・システム130にクリック信号の入力を伝えると、ウィンドウ・システム130は対応するアプリケーションにクリック イベントの発生を伝える。本発明の入力操作表示プログラム140はウィンドウ・システム130からアプリケーション・ソフトウェア群150へのイベント通知を拾い、イベント・ハンドラ141がイベント変換テーブル200を参照してイベントの内容を解析し、解釈した内容を入力イベント表示142が画面に表示する。具体的な入力操作が画面に表示されるため、装置の操作を見ていない人にもどのような操作が行われたのかが分かるようになる。
【0016】
図2にはイベント変換テーブル200の構成例を示している。基本的な構成は、イベント210とそれに対応する表示情報、例えば文章での表示情報220と画像での表示情報230からなり、イベント210が発生したオブジェクトとそのイベントを発生させた装置の属性がイベントの引数となっている。イベント210の種類とそれに付随する属性情報はウィンドウ・システム130の仕様により異なるが、イベントを扱うための基本的な仕組みは同じである。例えば、Click(Obj, MEventArgs)はマウスがクリックされたときに発生するイベントであるが、Objはクリックされたボタンやメニューなどのオブジェクトの名称またはIDまたはポインタなどであり、MeventArgsは属性240としてどのボタンが押されたのかを示す値や、クリックされたX座標/Y座標などを有するため、Click(Obj, MEventArgs)からマウスがどのオブジェクトをクリックしたのか、また、クリックされたときのマウスボタンの状態や座標の情報を得ることができる。イベント変換テーブル200はイベント210をユーザの操作に変換するためのテーブルであり、それぞれのイベントに対応したユーザ操作を用意している。ここでは、ユーザ操作を文に変換した表示情報(文)220、画像に変換した表示情報(画像)230を用意している。クリック イベントが発生した場合は、Click(Obj, MEventArgs)からMEventArgsのButton属性を参照し、Button属性の値が右ボタンであれば「右マウスボタンをクリック」という文とClickR.gif画像に変換する。図2ではButton属性の値が左ボタンの場合については括弧で示しているが、右ボタンの場合と同様に、「左マウスボタンをクリック」という文とClickL.gif画像に変換する。
【0017】
図3は右ボタンがクリックされた場合の画面表示例を示している。図3(1)アニメーション表示の例では、ClickR.gif画像を利用してマウスの右クリックが押されたアニメーションを表示するとともに、「右マウスボタンをクリック」という文を表示している。アニメーションは作成ツールを利用してあらかじめ作成しておいてもよいし、ボタンが押されていないマウスの画像と、右ボタンを押した画像とを交互に表示するなどして、表示時に擬似的にアニメーションを作成してもよい。表示する文も、表示情報(文)220の文をそのまま表示してもよいし、知識処理などを行って加工した結果を表示してもよい。キャラクタを表示して、操作内容をキャラクタが文字で説明している表示にしてもよいし、合成音声による説明にしてもよい。操作と音とを対応付けて、操作に応じた音を再生してもよい。図3(2)には文字のみを用いて表示する例を示している。図3(3)には、マウス入力操作の一覧をリストで表示し、リストの内容に該当する操作が行われた場合に、該当するリスト内の位置に印をつける例を示している。リスト型表示では、印をつける代わりにフォーカスを当てる、反転表示する、など強調表示のための技術を用いてもよい。
【0018】
キーボードの入力イベントに対してもマウスの場合と同様に、<Alt><Shift><Ctrl>キーが押されているか、または、直前に押されたかという属性値と、どのキーが押されているかという属性値がイベントの引数KEventArgs250として得られる。キーボードの場合もマウスと同様に、どのキーが押されているかが分かる文章やアニメーションを表示することで、具体的なキー操作を画面に表示することができる。マウスとキーボードを併用する場合や、他の入力機器を用いる場合も同様である。図3(4)にはマウスとキーボードを併用した操作を文字で表示した例を示している。マウスカーソルの移動方向が表示されているが、連続したイベントの発生時刻と座標の差から移動方向を計算することができる。
【0019】
図2に示すように、イベント210を視覚的に表示するための情報220および230に変換し、図3に示すように変換された情報を表示することにより、従来は得ることができなかった操作情報を画面に表示できるようになる。
【0020】
図4は入力操作表示プログラム140の処理の流れを示す図である。プログラムがスタート(ステップ410)すると、イベント・ハンドラ141が起動してウィンドウ・システム130からのイベント発生を待ち、イベントが発生したら受信し(ステップ420)、イベントを解析して、同時に行われた操作かどうかといった複数のイベント間の相関関係や、表示すべき操作かどうかなどの判断を行う(ステップ430)。次に、イベントが入力操作表示プログラム140への終了指示か否かを判断し(ステップ460)、終了指示の場合はプログラムを終了する(ステップ470)。イベントが終了指示でなかった場合は入力イベント表示142にイベントの解析結果を渡し、イベント変換テーブル200を参照して操作説明文/アニメーション作成を行い(ステップ440)、画面に表示して(ステップ450)、再びイベント受信を待つ処理(ステップ420)に戻る。
【0021】
図5は遠隔会議ソフトに本発明を適用した場合の構成を示している。遠隔地にある主催側と参加側のそれぞれのコンピュータ上に遠隔会議ソフト510および520、入力操作プログラム140および540が動作している。510と520、140と540は動作しているコンピュータを区別するために別の番号を付与しているが、同じソフトウェアであり、音声や映像をリアルタイムで送受信しあうことができ、共有アプリケーションを動作させることができる。また、参加側のコンピュータはテレビ機能を有しており、TVリモコンによる入力操作も可能である。従って、遠隔会議ソフト520への入力はキーボード531、マウス532、TVリモコン536から行われるものとする。遠隔会議ソフト520に入力イベントが発生すると、遠隔会議ソフト520のイベント・ハンドラ526がイベントを受信し、共有アプリケーション514へのイベントだと判断されたイベントは、通信機能の一つのTCP/IP537から主催側のTCP/IP104に送信され、遠隔会議ソフト510の共有アプリケーション514に送られ、イベント処理される。共有アプリケーションが表示しているウィンドウは、逆にTCP/IP104から537に送られ、ウィンドウ・システム560とOSカーネル570とデバイスドライバ580を介してディスプレイ530に表示される。入力操作表示プログラム540には、キーボード531、マウス532、TVリモコン536からの入力イベントが送信され、入力操作表示プログラム140には、キーボード101、マウス102、キーボード531、マウス532、TVリモコン536からの入力イベントが送信される。参加側のディスプレイ530に主催側の操作情報も表示するためには、ディスプレイ100に表示されている入力操作表示プログラム140の操作情報を表示しているウィンドウを共用し、遠隔ソフトと同様の手法でディスプレイ530に表示するようにすればよい。また、入力操作記録/再生プログラム500において、イベントの発生時刻とイベントを組にして記録するステップと、イベント発生する時刻の間隔を保つようにして記録したイベントを擬似的に発生させるステップを設けることにより、イベントの記録/再生が可能となる。主催側のコンピュータにウェブ・サーバ機能を設けるなどして記録したイベントの発生時刻とイベントの組を参加側のコンピュータにダウンロードし、入力操作記録/再生プログラム550を動作させてダウンロードしたイベントを再生して操作情報を表示することもできる。
【0022】
遠隔会議の内容を記録する場合、各コンピュータにおいて映像と音声を録画するか、あるいは映像と音声とともに共有アプリケーションのウィンドウを録画することが予想できる。映像の録画は容量が大きいため、会議全部を録画するよりも重要と思われる部分のみを録画するという使い方が多いと予想される。イベントの発生時刻とイベントを記録することは容量が少ないため、会議全体を記録することは現実的である。映像を記録する際に、映像の時刻情報も記録しておき、イベントの発生時刻情報と映像の時刻情報とを対応付けることにより、映像の再生と同時にイベントを再現することができる。会議時のイベントの発生時刻とイベントの組を常に記録しておき、ネットワークを介して参照できるようにすることにより、録画した会話を再生したときに「さきほどの資料の訂正部分」というように過去の操作に遡って言及があった場合でも操作情報が参照できるシステムを構築することが可能である。
【0023】
【発明の効果】
本発明は、どのマウスボタンが押されたのかなどの操作情報を画面から得られることができるようになるので、利用者は具体的な操作方法を知ることができるという効果がある。また、操作情報を記憶することにより必要に応じて表示することができるようになるので、操作説明書を用意する手間とコストが省けるという効果がある。
【図面の簡単な説明】
【図1】本発明の1実施例の構成図である。
【図2】図1のイベント変換テーブルの例である。
【図3】利用者がマウスの右ボタンを押したときの、入力操作表示プログラムによる操作内容の画面表示例である。
【図4】入力操作表示プログラムの処理の流れである。
【図5】遠隔会議ソフトを利用した場合の構成図である。
【符号の説明】
140…入力操作表示プログラム、141…イベント・ハンドラ、142…入力イベント表示、200…イベント変換テーブル。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a display method for displaying the contents of an input operation on a computer in an easy-to-understand manner, and more particularly to a system for displaying the contents of an input operation during screen sharing or automatic execution in a window system.
[0002]
[Prior art]
By connecting a USB camera or the like to a personal computer, a TV phone (also called video communication, video chat, etc.) can be easily made. 2. Description of the Related Art In a video conference system in which a remote location is connected by a TV phone to hold a conference, functions such as a whiteboard and application sharing can be used in addition to video (for example, see Patent Document 1 and Non-Patent Document 1). These are functions that allow multiple computers to share screens and windows. The same window is displayed on the screens of multiple computers connected to the video conferencing system via the network, and input to the shared application (displayed Window input) can also be performed from each computer. As a similar function, there is a function called Remote Assistance, which allows a supporter to view and operate the screen of a personal computer that requires assistance from a remote personal computer in order to support the operation of the computer (see Non-Patent Document 2).
[0003]
There are two main ways to share screens and windows among multiple computers connected via a network. One is to run an application on one computer and send an event that occurs in response to a user input to the application via a communication function to the computer where the application is running. This is a method of performing processing, transmitting screen information reflecting the result to each computer via a communication function, and displaying the screen information on the screen of each computer. The other method is to share data such as graphics and text, rather than sharing screen information.The same application runs on each computer, and events that occur in response to user input to the application are monitored. This is a method of sending data to another computer via a communication function. Both use the technology of communicating events, where events are used in the event driven programming paradigm used in window systems. Event-driven programming is a programming technique in which an event occurs when a user performs an operation on an application, and code for processing the event is written. For example, when the user clicks the mouse, a hardware interrupt occurs, and the OS kernel and the device driver for the mouse process and transmit a click signal to the window system. The window system determines in which window the mouse was clicked and informs the corresponding application of the click event. When a click event occurs, a click event handler in the application responds and performs event processing according to the code written by the developer. Therefore, an event can be sent to another computer, and if the event is transmitted to the application, the application running on the other computer can be operated.
[0004]
By the way, in order to explain a specific operation of a personal computer, a method in which an explainer explicitly adds an explanation has been used for a long time. For example, a hard copy of the screen or window, with descriptions such as "Click the right mouse button" written on the screen and the screen transitions can be recorded. Please click the button.]
[0005]
[Patent Document 1]
JP-A-6-337915 [Non-Patent Document 1]
NetMeeting Home, http: // www. Microsoft. com / windows / netmeeting /
[Non-patent document 2]
Step-by-Step Guide to Remote Assistance, http: // www. Microsoft. com / windowsxp / pro / techinfo / deployment / remoteguide /
[0006]
[Problems to be solved by the invention]
With the application sharing and remote assistance functions, people who are not accustomed to operating a PC can only guess what operation was performed by a remote party at a remote location from information displayed on the screen such as mouse cursor movement. Is difficult for the user to guess, and the specific operation of the conversation partner cannot be understood. For this reason, there is also a problem that even if the user tries to do what he / she has been taught by the remote conversation again, he does not know the operation method. For example, the operation of copying a certain character string and pasting it in another place includes a method using only a mouse, a method using both a keyboard and a mouse, and a method using only a keyboard. An operation example when using both a keyboard and a mouse is described below. First, the user moves the mouse cursor over the character string to be copied, and selects the character string by pressing and moving the mouse button over the character string to be copied. Next, the character string is copied by pressing the <C> key while pressing the <Ctrl> key on the keyboard. Finally, move the mouse cursor to the place where you want to paste the character string, press the left mouse button, and press the <V> key while pressing the <Ctrl> key again on the keyboard to paste the copied character string. , The operation is completed. The key operation performed while pressing the <Ctrl> key on the keyboard is a shortcut function of an operation performed by selecting a menu of the application program. The operation frequently performed by the user is replaced with <Ctrl> + <C> or a function.・ Easy operation by assigning to keys. In the above-described operation example in which the keyboard and the mouse are used in combination, only the movement of the mouse cursor can be seen by a person in a remote place, and operation information such as pressing a mouse button or inputting from the keyboard cannot be viewed. .
[0007]
In the method in which the explainer explicitly adds an explanation, it is necessary for the explainer to add an explanation in advance, and unless the explainer adds an explanation, what operation has been performed is transmitted to the explained side. There is no problem.
[0008]
An object of the present invention is to provide a system, a method, and a program that specifically describe an operation that cannot be understood only by looking at a screen such as a mouse or keyboard input using characters or animation.
[0009]
[Means for Solving the Problems]
In order to solve the above problems, a means for monitoring the occurrence of an event from a window system to an application, a means for associating an event with a specific user operation, and an animation and an icon for a user operation corresponding to the generated event By providing means for displaying on the screen using characters and the like, it is possible to display on the screen specific operations such as mouse and keyboard input performed by the user. For the following description, these means will be referred to as basic means.
[0010]
In addition to the basic means described above, a function of recording operation information in a storage area is provided, and an operation manual can be automatically created by displaying or printing on a screen when necessary. Become.
[0011]
In addition to the basic means described above, by displaying only operation information for a specific application on the screen by selecting only an event for the specific application, and displaying information focusing on an operation for a certain application by providing a recording means Will be able to
[0012]
When an application operating on one computer is shared by a plurality of computers, the above-described basic means is provided on the computer executing the application, and the screen information indicating the user operation is displayed on another computer. By providing means for sending to the other computer, the same user operation display screen can be displayed on a plurality of computers. In addition, by providing a function for distinguishing and managing events for each user (computer) and providing means for distinguishing and displaying the user who performed the operation using colors, animations, icons, characters, etc., Information on whether such an operation has been performed can be obtained from the screen.
[0013]
Similarly, when the same application is operated on each computer and data such as graphics and texts are shared, the above-described basic means are provided on each computer, and events are separately managed for each user (computer). By providing a function to perform the operation and providing a means for displaying the user who performed the operation using colors, animations, icons, characters, and the like, information on which user performed what operation can be obtained from the screen. Become like
[0014]
Further, by providing the above-described basic means and the function of recording an event on a computer executing a shared application, it is possible to reproduce a user operation, and the recorded event is downloaded and used by another computer. You can also do things. Even in a macro function for registering an operation performed by a user and automatically executing the operation, it is possible to display user operation information at the time of automatic execution.
[0015]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, a first embodiment of the present invention will be described with reference to FIG. FIG. 1 shows the configuration of a computer in which the window system is incorporated in the OS. However, since the hardware configurations such as the CPU, main storage, and secondary storage are not related to the present invention, the description is omitted. I have. Further, although the mouse 102 and the keyboard 101 are used as input devices, other input devices may be connected. A device driver 110 for processing signals from devices such as a mouse 102, a keyboard 101, and a display 100; an OS kernel 120 for performing hardware interrupts and software scheduling generated from the devices; and a window system 130 for managing windows On the basis of which the application software group 150 operates. For example, when the mouse 102 is clicked, a hardware interrupt occurs. When the OS kernel 120 and the mouse device driver 110 process the signal and transmit a click signal to the window system 130, the window system 130 sends a click signal to the corresponding application. Report the occurrence of an event. The input operation display program 140 of the present invention picks up an event notification from the window system 130 to the application software group 150, and the event handler 141 analyzes the contents of the event with reference to the event conversion table 200 and interprets the interpreted contents. An input event display 142 is displayed on the screen. Since a specific input operation is displayed on the screen, even a person who is not looking at the operation of the apparatus can know what operation has been performed.
[0016]
FIG. 2 shows a configuration example of the event conversion table 200. The basic configuration consists of an event 210 and display information corresponding thereto, for example, display information 220 in text and display information 230 in an image. Argument. Although the type of the event 210 and the attribute information associated therewith are different depending on the specifications of the window system 130, the basic mechanism for handling the event is the same. For example, Click (Obj, EventArgs) is an event that occurs when a mouse is clicked. Obj is the name or ID or pointer of an object such as a clicked button or menu, and EventArgs is an attribute 240 Since it has a value indicating whether the button was pressed, the X coordinate / Y coordinate at which the button was clicked, etc., from the Click (Obj, EventArgs), which object the mouse clicked, and the mouse button at the time of the click, Information on state and coordinates can be obtained. The event conversion table 200 is a table for converting the event 210 into a user operation, and prepares a user operation corresponding to each event. Here, display information (sentence) 220 in which the user operation is converted into a sentence and display information (image) 230 in which the user operation is converted into an image are prepared. When a click event occurs, the Button attribute of MEvenArgs is referenced from Click (Obj, MEventArgs). If the value of the Button attribute is a right button, a sentence “Click the right mouse button” and a ClickR. gif image. Although the case where the value of the Button attribute is the left button is shown in parentheses in FIG. 2, similarly to the case of the right button, the sentence “Click the left mouse button” and the ClickL. gif image.
[0017]
FIG. 3 shows a screen display example when the right button is clicked. In the example of the animation display shown in FIG. Using the gif image, an animation of a right mouse click being pressed is displayed, and a sentence "Click the right mouse button" is displayed. The animation may be created in advance using the creation tool, or an image of a mouse with no buttons pressed and an image of the right button pressed alternately displayed, etc. Animations may be created. As for the sentence to be displayed, the sentence of the display information (sentence) 220 may be displayed as it is, or a result obtained by performing a knowledge process or the like may be displayed. The character may be displayed, and the content of the operation may be described by the character as a character, or may be described by a synthesized voice. The sound corresponding to the operation may be reproduced by associating the operation with the sound. FIG. 3B shows an example in which display is performed using only characters. FIG. 3C shows an example in which a list of mouse input operations is displayed in a list, and when an operation corresponding to the contents of the list is performed, a position in the corresponding list is marked. In the list-type display, a technique for highlighting, such as putting a focus instead of a mark or performing reverse display, may be used.
[0018]
For the keyboard input event, similarly to the case of the mouse, the <Alt><Shift><Ctrl> key is pressed or an attribute value indicating whether the key was pressed immediately before, and which key is pressed. Is obtained as the argument EventEvents 250 of the event. In the case of a keyboard, similar to a mouse, a specific key operation can be displayed on the screen by displaying a text or an animation that indicates which key is being pressed. The same applies to the case where a mouse and a keyboard are used in combination and the case where another input device is used. FIG. 3D shows an example in which an operation using both a mouse and a keyboard is displayed in characters. Although the moving direction of the mouse cursor is displayed, the moving direction can be calculated from the difference between the occurrence time of successive events and the coordinates.
[0019]
As shown in FIG. 2, the event 210 is converted into information 220 and 230 for visually displaying, and the converted information is displayed as shown in FIG. Information can be displayed on the screen.
[0020]
FIG. 4 is a diagram showing a processing flow of the input operation display program 140. When the program starts (step 410), the event handler 141 is activated and waits for the occurrence of an event from the window system 130. When the event occurs, the event is received (step 420), the event is analyzed, and the operations performed simultaneously. A determination is made as to whether there is a correlation between a plurality of events such as whether or not the operation is to be displayed (step 430). Next, it is determined whether or not the event is an end instruction to the input operation display program 140 (step 460). If the event is an end instruction, the program ends (step 470). If the event is not an end instruction, the analysis result of the event is passed to the input event display 142, an operation explanation / animation is created with reference to the event conversion table 200 (step 440), and displayed on the screen (step 450). ), And returns to the process of waiting for event reception again (step 420).
[0021]
FIG. 5 shows a configuration when the present invention is applied to remote conference software. Remote conference software 510 and 520 and input operation programs 140 and 540 are operated on the host computer and the participating computer at remote locations. 510 and 520, and 140 and 540 are assigned different numbers to distinguish the operating computers, but they are the same software, which can transmit and receive audio and video in real time, and operate shared applications. Can be done. The computer on the participant side also has a television function, and can perform an input operation using a TV remote control. Therefore, input to the remote conference software 520 is performed from the keyboard 531, the mouse 532, and the TV remote controller 536. When an input event occurs in the remote conference software 520, the event handler 526 of the remote conference software 520 receives the event, and the event determined to be an event to the shared application 514 is hosted by one of the communication functions TCP / IP 537. Is transmitted to the TCP / IP 104 on the side, and is transmitted to the shared application 514 of the remote conference software 510 to be processed. The window displayed by the shared application is sent from TCP / IP 104 to 537, and is displayed on display 530 via window system 560, OS kernel 570, and device driver 580. An input event from the keyboard 531, the mouse 532, and the TV remote controller 536 is transmitted to the input operation display program 540, and an input event from the keyboard 101, the mouse 102, the keyboard 531, the mouse 532, and the TV remote controller 536 are transmitted to the input operation display program 140. An input event is sent. In order to display the operation information of the host on the display 530 of the participant, the window displaying the operation information of the input operation display program 140 displayed on the display 100 is shared, and the same method as that of the remote software is used. What is necessary is just to display on the display 530. The input operation recording / reproducing program 500 may include a step of recording the event occurrence time and the event as a set, and a step of generating the recorded event in a pseudo manner while maintaining an interval between the event occurrence times. Thus, recording / reproduction of an event becomes possible. A set of event occurrence times and events recorded by providing a web server function in the host computer is downloaded to the participating computer, and the input operation recording / playback program 550 is operated to play back the downloaded event. To display operation information.
[0022]
When recording the content of the remote conference, it is expected that video and audio will be recorded in each computer, or that the window of the shared application will be recorded together with the video and audio. Since video recording has a large capacity, it is anticipated that there will be many uses in which only a portion considered important is recorded rather than recording the entire conference. Recording the event occurrence time and the event is small in capacity, so recording the entire conference is realistic. When recording the video, the time information of the video is also recorded, and the event occurrence time information and the time information of the video are associated with each other, whereby the event can be reproduced simultaneously with the reproduction of the video. By always recording the event occurrence time and event set at the time of the meeting and making it possible to refer to it via the network, when the recorded conversation is played back, it will be called the "correction part of the previous material" It is possible to construct a system that can refer to the operation information even when the operation is referred to retroactively.
[0023]
【The invention's effect】
According to the present invention, operation information such as which mouse button is pressed can be obtained from the screen, so that the user can know a specific operation method. In addition, since the operation information can be displayed as needed by storing the operation information, there is an effect that labor and cost for preparing an operation manual can be saved.
[Brief description of the drawings]
FIG. 1 is a configuration diagram of one embodiment of the present invention.
FIG. 2 is an example of an event conversion table of FIG. 1;
FIG. 3 is a screen display example of operation contents by an input operation display program when a user presses a right button of a mouse.
FIG. 4 is a flow of processing of an input operation display program.
FIG. 5 is a configuration diagram when using remote conference software.
[Explanation of symbols]
140: input operation display program, 141: event handler, 142: input event display, 200: event conversion table.

Claims (11)

入力装置からの信号をイベントとしてアプリケーションに伝達するコンピュータ・システムの操作表示方法において、
アプリケーションへのイベント伝達をモニタリングし、イベントを解釈してイベント変換し、イベントとユーザの操作とを対応付けるイベント変換テーブルと、イベント変換した結果をアニメーション、アイコン、文字、キャラクタを用いて画面に表示することを特徴とする操作表示方法。
An operation display method of a computer system for transmitting a signal from an input device to an application as an event,
Monitors event transmission to applications, interprets events, converts events, and displays event conversion tables that associate events with user operations, and displays the results of event conversion on the screen using animation, icons, characters, and characters An operation display method, characterized in that:
請求項1に記載の操作表示方法において、上記イベント変換した結果を音声で知らせることを特徴とする操作表示方法。2. The operation display method according to claim 1, wherein a result of the event conversion is notified by voice. 請求項1に記載の操作表示方法において、イベント変換した結果を記憶領域に記憶し、ユーザからの要求に応じて表示、および、印刷することを特徴とする操作表示方法。2. The operation display method according to claim 1, wherein a result of the event conversion is stored in a storage area, and is displayed and printed in response to a request from a user. 請求項1に記載の操作表示方法において、イベントを記憶領域に記憶し、ユーザからの要求に応じてイベントを解釈してイベント変換して画面に表示することを特徴とする操作表示方法。2. The operation display method according to claim 1, wherein the event is stored in a storage area, the event is interpreted in response to a request from a user, converted into an event, and displayed on a screen. 請求項1に記載の操作表示方法において、ユーザからの要求に応じて特定のアプリケーションに対するイベントのみを解釈してイベント変換して画面に表示することを特徴とする操作表示方法。2. The operation display method according to claim 1, wherein only an event for a specific application is interpreted in response to a request from a user, the event is converted, and the converted event is displayed on a screen. 入力装置からの信号をイベントとしてアプリケーションに伝達する複数のコンピュータが通信機能を介して接続されたコンピュータシステムの操作表示方法において、複数のコンピュータは、互いにイベントを送信すると共に画面表示を共有し、少なくとも一台のコンピュータは、アプリケーションへのイベント伝達をモニタリングし、イベントを解釈してイベント変換し、イベントとユーザの操作とを対応付けるイベント変換テーブルと、イベント変換した結果をアニメーション、アイコン、文字、キャラクタを用いて画面に表示することを特徴とする操作表示方法。In an operation display method of a computer system in which a plurality of computers that transmit a signal from an input device as an event to an application are connected via a communication function, the plurality of computers transmit an event to each other and share a screen display, at least One computer monitors the event transmission to the application, interprets the event, converts the event, and converts the event and the user's operation into an event conversion table, and converts the event conversion result into animation, icons, characters, and characters. An operation display method characterized in that the operation display method is used to display on a screen. 請求項6に記載の操作表示方法において、イベントをコンピュータごとに識別して管理し、イベント変換した結果を画面に表示する際に、色やアニメーション、アイコン、文字、音声、音を用いてコンピュータごとに区別して表示することを特徴とする操作表示方法。7. The operation display method according to claim 6, wherein events are identified and managed for each computer, and when the result of the event conversion is displayed on a screen, each event is displayed using a color, animation, icon, character, voice, or sound. An operation display method characterized in that the operation display method is distinguished and displayed. 請求項6に記載の操作表示方法において、イベントまたはイベント変換後の操作情報は他のコンピュータが記録しており、画面情報の再生に合わせてイベントまたはイベント変換後の操作情報をダウンロードして利用することを特徴とする操作表示方法。7. The operation display method according to claim 6, wherein the event or the operation information after the event conversion is recorded by another computer, and the event or the operation information after the event conversion is downloaded and used in accordance with the reproduction of the screen information. An operation display method, characterized in that: ユーザからの指示に応じてコンピュータの処理装置が所定の処理を実行した場合に、
前記所定の処理を特定するための処理識別子を、前記コンピュータの記憶装置から検索する機能と、
前記ユーザからの指示を行うために前記ユーザが前記コンピュータの入力装置に対して行った操作内容を示す文字又は/及び画像又は/及びアニメーションを、前記記憶装置から検索する機能と、
前記文字又は/及び画像又は/及びアニメーションと前記処理識別子を対応づけて前記記憶装置へ格納する機能とを、前記コンピュータに実現させるためのプログラム。
When the processing device of the computer executes a predetermined process in response to an instruction from the user,
A function of retrieving a process identifier for specifying the predetermined process from a storage device of the computer,
A function of searching the storage device for characters or / and / or images or / and animations indicating the content of an operation performed by the user on the input device of the computer in order to give an instruction from the user;
A program for causing the computer to realize the function of storing the character or / and / or the image / and / or the animation and the processing identifier in the storage device in association with each other.
前記文字又は/及び画像又は/及びアニメーションと前記処理識別子を前記記憶装置から読み出す機能と、
前記文字又は/及び画像又は/及びアニメーションと前記処理識別子を対応づけて他のユーザの他のコンピュータへ送信する機能を、前記コンピュータに実現させるための請求項9に記載のプログラム。
A function of reading the character or / and / or the image or / and the animation and the process identifier from the storage device;
The program according to claim 9, wherein the program causes the computer to realize a function of associating the character or / and / or the image or / and the animation with the processing identifier and transmitting it to another computer of another user.
前記他のコンピュータへ送信された前記文字又は/及び画像又は/及びアニメーションは、前記他のコンピュータで前記所定の処理が開始される場合に、前記他のコンピュータの表示画面に表示される、請求項10に記載のプログラム。The character or / and / or image and / or animation transmitted to the other computer is displayed on a display screen of the other computer when the predetermined process is started on the other computer. 10. The program according to 10.
JP2003148489A 2003-05-27 2003-05-27 Operation display method Pending JP2004355059A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003148489A JP2004355059A (en) 2003-05-27 2003-05-27 Operation display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003148489A JP2004355059A (en) 2003-05-27 2003-05-27 Operation display method

Publications (1)

Publication Number Publication Date
JP2004355059A true JP2004355059A (en) 2004-12-16

Family

ID=34044839

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003148489A Pending JP2004355059A (en) 2003-05-27 2003-05-27 Operation display method

Country Status (1)

Country Link
JP (1) JP2004355059A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007080166A (en) * 2005-09-16 2007-03-29 Shimadzu Corp Software for supporting creation of standard manual for analytical instruments
JP2010211586A (en) * 2009-03-11 2010-09-24 Sharp Corp Information processing system, information processor, information processing method, control program, and recording medium
JP2011028501A (en) * 2009-07-24 2011-02-10 Fujitsu Ltd Operation content transmission program
JP2012190242A (en) * 2011-03-10 2012-10-04 Shunji Sugaya Remote support system and remote support method of terminal
JP2016136377A (en) * 2015-10-19 2016-07-28 株式会社インビオ Device, program, and method for displaying key input
JP2019036178A (en) * 2017-08-17 2019-03-07 有限会社野村環境設計 Input support device and input support program
US10969958B2 (en) 2015-01-24 2021-04-06 Invio, Inc. Key-input display apparatus, key-input display system, and key-input display program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007080166A (en) * 2005-09-16 2007-03-29 Shimadzu Corp Software for supporting creation of standard manual for analytical instruments
JP4613770B2 (en) * 2005-09-16 2011-01-19 株式会社島津製作所 Standard operation procedure creation support software for analytical instruments
JP2010211586A (en) * 2009-03-11 2010-09-24 Sharp Corp Information processing system, information processor, information processing method, control program, and recording medium
JP2011028501A (en) * 2009-07-24 2011-02-10 Fujitsu Ltd Operation content transmission program
JP2012190242A (en) * 2011-03-10 2012-10-04 Shunji Sugaya Remote support system and remote support method of terminal
US10969958B2 (en) 2015-01-24 2021-04-06 Invio, Inc. Key-input display apparatus, key-input display system, and key-input display program
JP2016136377A (en) * 2015-10-19 2016-07-28 株式会社インビオ Device, program, and method for displaying key input
JP2019036178A (en) * 2017-08-17 2019-03-07 有限会社野村環境設計 Input support device and input support program

Similar Documents

Publication Publication Date Title
JP3546705B2 (en) Method and apparatus for associating annotation data with application window, system, and storage medium storing program for controlling association of annotation data with application window
CN114390359B (en) Message display method and display equipment
US10936270B2 (en) Presentation facilitation
JP4363166B2 (en) Communication service providing system, server, service providing method, and service providing program
US7996776B2 (en) Shared telepointer
US20090037827A1 (en) Video conferencing system and method
KR101733115B1 (en) Method and apparatus for controlling content of the remote screen
US20110307800A1 (en) Methodology for Creating an Easy-To-Use Conference Room System Controller
US20100231556A1 (en) Device, system, and computer-readable medium for an interactive whiteboard system
US20120042265A1 (en) Information Processing Device, Information Processing Method, Computer Program, and Content Display System
EP3074858A1 (en) Terminal device, screen sharing method, and screen sharing system
JP2013257792A (en) Program, information sharing system, and information processing apparatus
CN111263175A (en) Interaction control method and device for live broadcast platform, storage medium and electronic equipment
KR100611255B1 (en) Remote conference method of sharing work space
US20020078445A1 (en) Internet appliance for interactive audio/video display using a remote control unit for user input
US9905029B2 (en) Input device for inputting and editing text, display apparatus and methods thereof
JP2009187094A (en) Conference system and program
JP2004355059A (en) Operation display method
JP2018185863A (en) Information processing device and program
JP5042257B2 (en) Information processing system, information processing apparatus, information processing method, control program, and recording medium
JP2007066077A (en) Method and apparatus for generating gui, computer program, and storage medium
JP2003116095A (en) Video processor
JP2001197461A (en) Sharing operation method for multimedia information operation window
JP2013254275A (en) Answer generation device, information input/output device and question answering system
JP2016076056A (en) Information processing system, information processing device, and information processing method