JP5994903B2 - Image display device, image display method, and image display program - Google Patents

Image display device, image display method, and image display program Download PDF

Info

Publication number
JP5994903B2
JP5994903B2 JP2015109054A JP2015109054A JP5994903B2 JP 5994903 B2 JP5994903 B2 JP 5994903B2 JP 2015109054 A JP2015109054 A JP 2015109054A JP 2015109054 A JP2015109054 A JP 2015109054A JP 5994903 B2 JP5994903 B2 JP 5994903B2
Authority
JP
Japan
Prior art keywords
image
information
display
state
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015109054A
Other languages
Japanese (ja)
Other versions
JP2015181040A (en
Inventor
崇範 永原
崇範 永原
剣持 栄治
栄治 剣持
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2015109054A priority Critical patent/JP5994903B2/en
Publication of JP2015181040A publication Critical patent/JP2015181040A/en
Application granted granted Critical
Publication of JP5994903B2 publication Critical patent/JP5994903B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

本発明は、画像表示装置、画像表示方法及び画像表示プログラムに関する。   The present invention relates to an image display device, an image display method, and an image display program.

従来、企業や教育機関、行政機関などにおいて、電子黒板が用いられている。電子黒板は、大型ディスプレイを有し、ディスプレイ上に背景画像を表示させた上で、ユーザにより書き込まれた文字や数字、図形等の描画画像を背景画像上に表示する。例えば、タッチパネルを有する電子黒板は、黒板の役割をする画面上に背景画像を表示し、タッチパネルを用いて描かれた描画画像を背景画像上に重畳して表示する。   Conventionally, electronic blackboards have been used in companies, educational institutions, administrative institutions, and the like. The electronic blackboard has a large display, displays a background image on the display, and displays a drawing image such as letters, numbers, and figures written by the user on the background image. For example, an electronic blackboard having a touch panel displays a background image on a screen serving as a blackboard, and displays a drawn image drawn using the touch panel superimposed on the background image.

電子黒板として、現在、スマートテクノロジーズ社のSmartBoard、日立ソフトウェアエンジニアリング社のStarBoard(登録商標)及びパイオニア社のサイバーカンファレンス(登録商標)等が提供されている。また、座標入力/検出装置を備える電子黒板システムもある。   Currently, SmartBoard's SmartBoard, Hitachi Software Engineering's StarBoard (registered trademark), Pioneer Cyberconference (registered trademark), and the like are provided as electronic blackboards. There is also an electronic blackboard system including a coordinate input / detection device.

また、電子黒板として、板書のダイジェストを表示する装置がある。板書のダイジェストを表示する装置は、板書の画面を一定時間間隔でキャプチャする。そして、板書のダイジェストを表示する装置は、キャプチャされた画面の描画部分を囲む矩形の形と大きさに応じて、文字方向のタイプを縦書き、横書き、その他のタイプに判別する。そして、板書のダイジェストを表示する装置は、判別された文字方向のタイプに応じて異なる方法を用いて、板書画面の意味的な構造を判別して領域をブロックに分割し、ブロックが完成されたと推測される画面を時系列に編成し、編成された画面をダイジェストとして表示する。   There is also a device for displaying a digest of a board written as an electronic blackboard. A device that displays a digest of a blackboard captures the screen of the blackboard at regular time intervals. Then, the apparatus for displaying the digest of the blackboard discriminates the character direction type into vertical writing, horizontal writing, and other types according to the shape and size of the rectangle surrounding the drawing portion of the captured screen. Then, the device for displaying the digest of the board writing uses a different method depending on the type of the determined character direction, determines the semantic structure of the board writing screen, divides the area into blocks, and the block is completed. The estimated screen is organized in time series, and the organized screen is displayed as a digest.

しかしながら、上述した電子黒板は、保存された過去の板書が表示されるに過ぎないという問題がある。例えば、電子黒板では、背景画像上に描画画像が重畳されるが、上述した電子黒板では、板書について表示されるに過ぎない。   However, the electronic blackboard described above has a problem in that only a stored past board is displayed. For example, on an electronic blackboard, a drawing image is superimposed on a background image, but on the electronic blackboard described above, only a blackboard is displayed.

本発明は上記の課題を解決するものであり、過去の表示画面を効率良く閲覧可能となる画像表示装置、画像表示方法及び画像表示プログラムを提供することを目的とする。   The present invention solves the above-described problems, and an object thereof is to provide an image display device, an image display method, and an image display program that enable efficient browsing of past display screens.

上述した課題を解決し、目的を達成するために、本発明における画像表示装置は、映像情報出力装置から受信した映像情報を表示領域に表示する表示制御部と、描画画像を前記映像情報に重畳描画する重畳描画部と、前記描画画像が重畳描画される第1の状態と、前記描画画像が描画されない第2の状態とを切り替える切替制御部と、前記切替制御部により前記第1の状態に切り替えられると、第1の画像情報を格納し、前記切替制御部により前記第2の状態に切り替えられると、第2の画像情報を前記第1の画像情報に関連付けて格納する。   In order to solve the above-described problems and achieve the object, an image display device according to the present invention includes a display control unit that displays video information received from a video information output device in a display area, and a drawing image superimposed on the video information. A superimposing drawing unit for drawing, a switching control unit that switches between a first state in which the drawing image is superimposed and drawn and a second state in which the drawing image is not drawn, and the switching control unit switches to the first state. When switched, the first image information is stored, and when switched to the second state by the switching control unit, the second image information is stored in association with the first image information.

本発明によれば、過去の表示画面を効率良く閲覧可能となるという効果を奏する。   According to the present invention, it is possible to efficiently browse past display screens.

図1は、第1の実施形態における画像表示システムの一例を示す図である。FIG. 1 is a diagram illustrating an example of an image display system according to the first embodiment. 図2は、第1の実施形態における画像表示装置内部の結線の一例を示す結線図である。FIG. 2 is a connection diagram illustrating an example of connections inside the image display apparatus according to the first embodiment. 図3は、第1の実施形態における画像表示装置のハードウェア構成の一例を示す図である。FIG. 3 is a diagram illustrating an example of a hardware configuration of the image display apparatus according to the first embodiment. 図4は、第1の実施形態におけるコントローラユニット及びストレージの一例について示す図である。FIG. 4 is a diagram illustrating an example of a controller unit and storage in the first embodiment. 図5は、第1の実施形態におけるスナップショットテーブルに記憶された情報の一例を示す図である。FIG. 5 is a diagram illustrating an example of information stored in the snapshot table according to the first embodiment. 図6は、第1の実施形態における代表画像テーブルに記憶された情報の一例を示す図である。FIG. 6 is a diagram illustrating an example of information stored in the representative image table according to the first embodiment. 図7は、第1の実施形態における手書き処理部により生成される手書きストロークの一例を示す図である。FIG. 7 is a diagram illustrating an example of a handwriting stroke generated by the handwriting processing unit according to the first embodiment. 図8は、第1の実施形態における表示領域に表示される画面の一例を示す図である。FIG. 8 is a diagram illustrating an example of a screen displayed in the display area according to the first embodiment. 図9は、第1の実施形態における代表画像格納部により代表画像IDが格納された後のスナップショットテーブルに記憶された情報の一例を示す図である。FIG. 9 is a diagram illustrating an example of information stored in the snapshot table after the representative image ID is stored by the representative image storage unit according to the first embodiment. 図10は、第1の実施形態における第2の画像情報を格納するための一連の処理の一例を示すシーケンス図である。FIG. 10 is a sequence diagram illustrating an example of a series of processes for storing the second image information according to the first embodiment. 図11は、代表画像とスナップショットとを並べて閲覧する点について示す図である。FIG. 11 is a diagram illustrating a point where the representative image and the snapshot are browsed side by side. 図12は、代表画像とスナップショットとを並べて閲覧する点について示す図である。FIG. 12 is a diagram illustrating the point of browsing the representative image and the snapshot side by side.

以下に添付図面を参照して、画像表示装置、画像表示方法及び画像表示プログラムの実施形態を詳細に説明する。   Hereinafter, embodiments of an image display device, an image display method, and an image display program will be described in detail with reference to the accompanying drawings.

(第1の実施形態)
図1は、第1の実施形態における画像表示システムの一例を示す図である。画像表示システム100は、画像表示装置110と、ユーザPC(Personal Computer)130とを有する。ユーザPC130は、「映像情報出力装置」とも称する。図1に示す例では、画像表示装置110及びユーザPC130は、ケーブル123と124とで接続される。
(First embodiment)
FIG. 1 is a diagram illustrating an example of an image display system according to the first embodiment. The image display system 100 includes an image display device 110 and a user PC (Personal Computer) 130. The user PC 130 is also referred to as a “video information output device”. In the example shown in FIG. 1, the image display device 110 and the user PC 130 are connected by cables 123 and 124.

画像表示装置110は、以下に詳細に説明するように、ユーザPC130から受信した映像情報を背景画像として表示領域に表示する。また、画像表示装置110は、以下に詳細に説明するように、ユーザにより描画された描画画像を背景画像上に重畳描画する。なお、画像表示装置110は、映像情報を表示領域の全面に表示しても良く、表示領域の一部に表示しても良い。   As will be described in detail below, the image display device 110 displays video information received from the user PC 130 in the display area as a background image. In addition, the image display device 110 superimposes and draws a drawing image drawn by the user on the background image, as will be described in detail below. Note that the image display device 110 may display the video information on the entire display area or a part of the display area.

図1に示す例では、画像表示装置110は、表示部112と、タッチパネル113と、操作ボタン114と、操作ボタン116と、映像情報インタフェース120と、表示画像インタフェース122とを有する。なお、図1には示されていないが、画像表示装置110は、コントローラユニット126と、ストレージ125とを有する。   In the example illustrated in FIG. 1, the image display device 110 includes a display unit 112, a touch panel 113, operation buttons 114, operation buttons 116, a video information interface 120, and a display image interface 122. Although not shown in FIG. 1, the image display device 110 includes a controller unit 126 and a storage 125.

表示部112は、表示領域を有し、背景画像及び描画画像を表示領域に表示する。タッチパネル113は、表示領域上に設けられる。なお、タッチパネル113に所定の物体が接近したり接触したりすると、後述するコントローラユニット126によって接触位置座標や接近位置座標が検出される。なお、所定の物体とは、例えば、ユーザの指や専用ペンなどである。   The display unit 112 has a display area, and displays a background image and a drawing image in the display area. The touch panel 113 is provided on the display area. Note that when a predetermined object approaches or comes into contact with the touch panel 113, the contact position coordinates and the approach position coordinates are detected by the controller unit 126 described later. The predetermined object is, for example, a user's finger or a dedicated pen.

操作ボタン114と操作ボタン116とは、画像表示装置110の動作モードを切り替える指示をユーザから受け付ける。第1の実施形態では、操作ボタン114と操作ボタン116とがハードウェアで形成されたボタンである場合を用いて説明するが、これに限定されるものではなく、ソフトウェアで形成されるボタンであっても良い。   The operation button 114 and the operation button 116 receive an instruction to switch the operation mode of the image display apparatus 110 from the user. In the first embodiment, the case where the operation button 114 and the operation button 116 are buttons formed by hardware will be described. However, the present invention is not limited to this, and is a button formed by software. May be.

以下では、画像表示装置110が、動作モードとして、「第1の状態」又は「第2の状態」にて処理を実行する場合を用いて説明する。言い換えると、画像表示装置110が、「第1の状態」と「第2の状態」という2つの動作モードを有する場合を用いて説明する。第1の状態とは、接触位置座標又は接近位置座標が検出されると、描画画像が背景画像上に重畳描画される状態を示す。また、第2の状態とは、接触位置座標又は接近位置座標が検出されても、描画画像が背景画像上に重畳描画されない状態を示す。   In the following, description will be given using a case where the image display apparatus 110 executes processing in the “first state” or the “second state” as the operation mode. In other words, the case where the image display device 110 has two operation modes of “first state” and “second state” will be described. The first state indicates a state in which the drawn image is superimposed and drawn on the background image when the contact position coordinates or the approach position coordinates are detected. The second state indicates a state in which the drawn image is not superimposed and drawn on the background image even if the contact position coordinates or the approach position coordinates are detected.

例えば、以下では、操作ボタン114が操作されると、画像表示装置110が第1の状態となり、操作ボタン116が操作されると、画像表示装置110が第2の状態となる場合を用いて説明する。例えば、画像表示装置110は、操作ボタン114又は操作ボタン116がユーザにより操作されることで、言い換えると、ユーザの指示に従って、第1の状態と第2の状態とを交互に切り替えられる。なお、動作モードは、第1の状態と第2の状態とに限定されるものではなく、第1の状態や第2の状態とは別に、更に別の動作モードがあっても良い。   For example, in the following description, the case where the image display device 110 is in the first state when the operation button 114 is operated and the image display device 110 is in the second state when the operation button 116 is operated will be described. To do. For example, when the operation button 114 or the operation button 116 is operated by the user, the image display device 110 can be switched alternately between the first state and the second state in accordance with the user's instruction. Note that the operation mode is not limited to the first state and the second state, and there may be another operation mode separately from the first state and the second state.

映像情報インタフェース120は、ユーザPC130から表示部112に背景画像として表示される映像情報を受信するインタフェースである。映像情報インタフェース120は、例えば、VGA(Video Graphics Array)端子により構成されるVGA入力コネクタである。映像情報とは、ユーザPC130から送信される映像信号である。映像情報は、例えば、VGA信号である。映像情報インタフェース120は、ユーザPC130からVGAケーブル等のケーブル123を介してVGA信号を受信し、受信したVGA信号を画像表示装置110のコントローラユニット126に出力する。   The video information interface 120 is an interface that receives video information displayed as a background image on the display unit 112 from the user PC 130. The video information interface 120 is a VGA input connector configured by, for example, a VGA (Video Graphics Array) terminal. The video information is a video signal transmitted from the user PC 130. The video information is, for example, a VGA signal. The video information interface 120 receives a VGA signal from the user PC 130 via a cable 123 such as a VGA cable, and outputs the received VGA signal to the controller unit 126 of the image display device 110.

なお、映像情報インタフェース120は、任意の手法により映像情報を受信して良い。例えば、映像情報インタフェース120は、Bluetooth(登録商標)やWiFi等の無線通信プロトコルに準拠した無線通信を用いて、ユーザPC130から映像情報を受信しても良い。   Note that the video information interface 120 may receive video information by any method. For example, the video information interface 120 may receive the video information from the user PC 130 using wireless communication conforming to a wireless communication protocol such as Bluetooth (registered trademark) or WiFi.

表示画像インタフェース122は、画像表示装置110に表示される表示画像の取得や削除等の処理の際に使用されるインタフェースである。表示画像インタフェース122は、例えば、USB(Universal Serial Bus)ソケットである。表示画像インタフェース122は、USBケーブル等のケーブル124を介して、ユーザPC130からの種々の指示情報をコントローラユニット126に出力したり、コントローラユニット126からの指示情報をユーザPCに出力したりする。なお、指示情報とは、例えば、表示領域のうちタッチされた箇所に対応する出力座標が1回クリックするマウスイベントを示す指示情報が該当する。   The display image interface 122 is an interface used for processing such as acquisition and deletion of a display image displayed on the image display device 110. The display image interface 122 is, for example, a USB (Universal Serial Bus) socket. The display image interface 122 outputs various instruction information from the user PC 130 to the controller unit 126 and outputs instruction information from the controller unit 126 to the user PC via a cable 124 such as a USB cable. The instruction information corresponds to, for example, instruction information indicating a mouse event in which an output coordinate corresponding to a touched portion in the display area is clicked once.

ここで、第1の実施形態における画像表示装置110内部の結線の一例を示す。図2は、第1の実施形態における画像表示装置内部の結線の一例を示す結線図である。図2に示す例では、参考までに、ユーザPC130を併せて示した。図2に示す例では、表示部112と、タッチパネル113と、操作ボタン114と、操作ボタン116と、映像情報インタフェース120と、表示画像インタフェース122と、ストレージ125は、それぞれ、コントローラユニット126と接続される。また、映像情報インタフェース120と、表示画像インタフェース122とは、それぞれ、ケーブル123とケーブル124とを介して、ユーザPC130と接続される。   Here, an example of the connection inside the image display apparatus 110 in the first embodiment is shown. FIG. 2 is a connection diagram illustrating an example of connections inside the image display apparatus according to the first embodiment. In the example shown in FIG. 2, the user PC 130 is also shown for reference. In the example illustrated in FIG. 2, the display unit 112, the touch panel 113, the operation buttons 114, the operation buttons 116, the video information interface 120, the display image interface 122, and the storage 125 are each connected to the controller unit 126. The The video information interface 120 and the display image interface 122 are connected to the user PC 130 via the cable 123 and the cable 124, respectively.

なお、図2に示す例では、画像表示装置110が、任意の外部インタフェース127を更に備え、コントローラユニット126が、任意の外部インタフェース127と更に接続される場合を例に示したが、これに限定されるものではない。なお、外部インタフェース127は、任意のインタフェースであって良く、例えば、LAN(Local Area Network)ポートやIEEE1394(Institute of Electrical and Electronic Engineers 1394)などであって良い。   In the example illustrated in FIG. 2, the image display apparatus 110 further includes an arbitrary external interface 127 and the controller unit 126 is further connected to the arbitrary external interface 127. However, the present invention is not limited thereto. Is not to be done. The external interface 127 may be an arbitrary interface, such as a LAN (Local Area Network) port or IEEE 1394 (Institute of Electrical and Electronic Engineers 1394).

例えば、ユーザPC130から入力されたVGA信号は、映像情報インタフェース120を介してコントローラユニット126に入力される。また、ユーザPC130は、USBケーブルなどのケーブル124を介して画像表示装置110と接続される結果、コントローラユニット126からのデータを取得可能となる。例えば、ユーザPC130は、画像表示装置110にて表示されている表示画像や、マウスイベントなどを取得可能となる。すなわち、ユーザPC130は、画像表示装置110をUSB規格におけるHID(Human Interface Device)デバイス、又はストレージデバイスとして認識可能となる。これにより、ユーザPC130は、ドライバ等がインストールされることなく、マウスイベントやファイルを画像表示装置110から取得することも可能となる。   For example, a VGA signal input from the user PC 130 is input to the controller unit 126 via the video information interface 120. Further, the user PC 130 can acquire data from the controller unit 126 as a result of being connected to the image display device 110 via a cable 124 such as a USB cable. For example, the user PC 130 can acquire a display image displayed on the image display device 110, a mouse event, and the like. That is, the user PC 130 can recognize the image display device 110 as an HID (Human Interface Device) device or a storage device in the USB standard. As a result, the user PC 130 can also acquire a mouse event or file from the image display device 110 without installing a driver or the like.

ここで、第1の実施形態における画像表示装置のハードウェア構成の一例を示す。図3は、第1の実施形態における画像表示装置のハードウェア構成の一例を示す図である。   Here, an example of the hardware configuration of the image display apparatus according to the first embodiment will be described. FIG. 3 is a diagram illustrating an example of a hardware configuration of the image display apparatus according to the first embodiment.

図3に示す例では、画像表示装置110は、プロセッサ150と、ROM151と、RAM152と、ハードディスク装置(HDD、Hard Disk Dive)153と、グラフィックスボード154と、ディスプレイ155と、検知装置156と、ネットワークインタフェース157と、外部機器接続インタフェース158とを有する。   In the example illustrated in FIG. 3, the image display device 110 includes a processor 150, a ROM 151, a RAM 152, a hard disk device (HDD, Hard Disk Dive) 153, a graphics board 154, a display 155, a detection device 156, A network interface 157 and an external device connection interface 158 are included.

図3におけるプロセッサ150やROM(Read Only Memory)151、RAM(Random Access Memory)152、グラフィックスボード154などは、例えば、図1や図2におけるコントローラユニット126に対応する。また、図3におけるハードディスク装置153は、例えば、図1や図2におけるストレージ125に対応する。また、図3におけるネットワークインタフェース157や外部機器接続インタフェース158は、例えば、図1や図2における映像情報インタフェース120及び表示画像インタフェース122に対応する。図3における検知装置156は、例えば、図1や図2におけるタッチパネル113に対応する。図3におけるディスプレイ155は、例えば、図1や図2における表示部112に対応する。   A processor 150, a ROM (Read Only Memory) 151, a RAM (Random Access Memory) 152, a graphics board 154, and the like in FIG. 3 correspond to the controller unit 126 in FIG. 1 and FIG. 3 corresponds to the storage 125 in FIGS. 1 and 2, for example. Also, the network interface 157 and the external device connection interface 158 in FIG. 3 correspond to, for example, the video information interface 120 and the display image interface 122 in FIG. 1 and FIG. 3 corresponds to, for example, the touch panel 113 in FIGS. 1 and 2. The display 155 in FIG. 3 corresponds to the display unit 112 in FIGS. 1 and 2, for example.

プロセッサ150は、画像表示装置110により実行される処理を演算する。プロセッサ150は、例えば、PENTIUM(登録商標)やAthlon等のCPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)、又は、FPGA(Field Programmable Gate Array)などの種々のプロセッサである。ROM151は、BIOS(Basic Input/Output System)等のブートプログラムなどが保存される不揮発性メモリである。RAM152は、本実施形態の画像表示装置110で実行されるプログラムを実行するための実行空間を提供する不揮発性メモリである。   The processor 150 calculates processing executed by the image display device 110. The processor 150 is, for example, a CPU (Central Processing Unit) such as PENTIUM (registered trademark) or Athlon, an MPU (Micro Processing Unit), a GPU (Graphics Processing Unit), an ASIC (Application Specific Integrated Circuit), or an FPGA (Field Programmable). Various processors such as (Gate Array). The ROM 151 is a non-volatile memory in which a boot program such as BIOS (Basic Input / Output System) is stored. The RAM 152 is a non-volatile memory that provides an execution space for executing a program executed by the image display apparatus 110 of the present embodiment.

画像表示装置110では、OS(Operating System)の管理下でアセンブラ、C、C++、Java(登録商標)、JavaScript(登録商標)、PERL、RUBY、PYTHONなどのプログラム言語で記述されたプログラムを展開して実行することで、後述する一連の処理が画像表示装置110にて実現される。   In the image display device 110, a program written in a program language such as assembler, C, C ++, Java (registered trademark), JavaScript (registered trademark), PERL, RUBY, or PYTHON is developed under the management of an OS (Operating System). By executing the above, a series of processing described later is realized in the image display device 110.

ハードディスク装置153は、大容量の不揮発性メモリである。ハードディスク装置153は、例えば、画像表示装置110のシステム全体を制御するWINDOWS(登録商標)シリーズ、UNIX(登録商標)、LINUX(登録商標)、Android(登録商標)、ITRON、μITRONなどの種々のOSを記憶する。また、ハードディスク装置153は、グラフィックスボード154やディスプレイ155、検知装置156等のデバイスドライバや、本実施形態の画像表示装置110で実行されるプログラムなどの様々なデータを記憶する。   The hard disk device 153 is a large-capacity nonvolatile memory. The hard disk device 153 includes various OSs such as WINDOWS (registered trademark) series, UNIX (registered trademark), LINUX (registered trademark), Android (registered trademark), ITRON, and μITRON that control the entire system of the image display device 110, for example. Remember. The hard disk device 153 stores various data such as device drivers such as the graphics board 154, the display 155, and the detection device 156, and programs executed by the image display device 110 of the present embodiment.

なお、本実施形態の画像表示装置110で実行されるプログラムは、CD−ROM、MO(Magneto Optical disk)、DVD(Digital Versatile Disk)フレキシブルディスク、EEPROM(Electrically Erasable Programmable Read−Only Memory)、EPROM(Erasable Programmable Read Only Memory)などの任意の装置可読な記録媒体に格納してインストールしても良く、ネットワークを介してインストールしても良い。   Note that programs executed by the image display apparatus 110 according to the present embodiment are CD-ROM, MO (Magneto Optical disk), DVD (Digital Versatile Disk) flexible disk, EEPROM (Electrically Erasable Programmable Read-Only Memory), EPROM ( Erasable Programmable Read Only Memory) or any other device-readable recording medium may be stored and installed, or may be installed via a network.

グラフィックスボード154は、ディスプレイ155に描画する描画データを処理する装置であり、画像イメージを保持するVRAM(Video RAM)やディスプレイ155の接続端子を含んで構成される。ディスプレイ155は、グラフィックスボード154が生成した描画データを描画する表示装置である。   The graphics board 154 is a device that processes drawing data to be drawn on the display 155 and includes a VRAM (Video RAM) that holds an image and a connection terminal of the display 155. The display 155 is a display device that draws drawing data generated by the graphics board 154.

検知装置156は、物体が接触又は接近したことを検知する検知装置である。検知装置156は、例えば、物体が接触することによって変化する静電容量を検知する静電容量センサを備えたタッチパネルが該当する。ただし、これに限定されるものではなく、検知装置156は、物体の接触圧を検知する圧力センサを備えたタッチパネルでも良く、ディスプレイ155の面に平行に照射された1方向の光又は縦方向及び横方向の2方向の光が遮断されたことを検知して、物体がディスプレイ155に接近又は接触したことを検知する光学検知装置でも良く、任意の装置であって良い。なお、検知装置156が、光が遮断されたことを検知する場合、表示領域上にタッチパネル113が設けられていなくても良い。   The detection device 156 is a detection device that detects that an object has contacted or approached. The detection device 156 corresponds to, for example, a touch panel including a capacitance sensor that detects a capacitance that changes when an object comes into contact. However, the present invention is not limited to this, and the detection device 156 may be a touch panel provided with a pressure sensor that detects the contact pressure of an object. An optical detection device that detects that light in two lateral directions is blocked and detects that an object approaches or contacts the display 155 may be used, or any device may be used. Note that when the detection device 156 detects that the light is blocked, the touch panel 113 may not be provided on the display area.

ネットワークインタフェース157は、外部ネットワークと接続するインタフェースであり、LAN(Local Area Network)ケーブルコネクタやモジュラーケーブルコネクタ等の物理インタフェースである。外部機器接続インタフェース158は、ユーザPC130等の外部機器を接続するためのインタフェースである。ネットワークインタフェース157は、例えば、VGA入力コネクタやUSBポート等の物理インタフェースである。   The network interface 157 is an interface connected to an external network, and is a physical interface such as a LAN (Local Area Network) cable connector or a modular cable connector. The external device connection interface 158 is an interface for connecting an external device such as the user PC 130. The network interface 157 is a physical interface such as a VGA input connector or a USB port.

図1の説明に戻る。ユーザPC130は、画像表示装置110において背景画像として用いられる映像情報を画像表示装置110に出力する。図1に示す例では、ユーザPC130が、ノート型PCである場合を示したが、これに限定されるものではない。ユーザPC130は、映像情報を出力可能な任意の情報端末であって良く、例えば、デスクトップ型PCであっても良く、タブレット型PCであっても良く、PDA(Personal Digital Assistants)であっても良い。   Returning to the description of FIG. The user PC 130 outputs video information used as a background image in the image display device 110 to the image display device 110. In the example illustrated in FIG. 1, the user PC 130 is a notebook PC, but the present invention is not limited to this. The user PC 130 may be any information terminal that can output video information, and may be, for example, a desktop PC, a tablet PC, or a PDA (Personal Digital Assistants). .

ユーザPC130は、ユーザPC130の表示画面に表示された表示画像を出力するインタフェースを備えており、ユーザPC130の表示画面に表示された表示画像を映像情報として画像表示装置110に出力する。例えば、ユーザPC130は、インタフェースとしてVGA出力端子を備えており、映像情報をVGA信号として画像表示装置110に出力する。ただし、これに限定されるものではなく、ユーザPC130は、任意の各種無線通信プロトコルに準拠した無線通信を用いて、映像情報を出力しても良い。   The user PC 130 includes an interface that outputs a display image displayed on the display screen of the user PC 130, and outputs the display image displayed on the display screen of the user PC 130 to the image display device 110 as video information. For example, the user PC 130 includes a VGA output terminal as an interface, and outputs video information to the image display device 110 as a VGA signal. However, the present invention is not limited to this, and the user PC 130 may output the video information using wireless communication complying with any of various wireless communication protocols.

また、ユーザPC130は、画像表示装置110により表示されている表示画像を取得したり、画像表示装置110に対して行われたユーザによる指示を示す指示情報を受信したりする。例えば、ユーザPC130は、USBポートを備えており、Use Mass Storage Class等の汎用ドライバを用いて、USB接続された画像表示装置110に格納されている表示画像を取得したり、指示情報を受信したりする。   Further, the user PC 130 acquires a display image displayed by the image display device 110 or receives instruction information indicating an instruction given by the user to the image display device 110. For example, the user PC 130 has a USB port, and uses a general-purpose driver such as Use Mass Storage Class to acquire a display image stored in the image display device 110 connected by USB or receive instruction information. Or

図4は、第1の実施形態におけるコントローラユニット及びストレージの一例について示す図である。図4に示す例では、説明の便宜上、ユーザPC130についても併せて示した。   FIG. 4 is a diagram illustrating an example of a controller unit and storage in the first embodiment. In the example shown in FIG. 4, the user PC 130 is also shown for convenience of explanation.

図4に示す例では、ストレージ125は、スナップショットテーブル201と、代表画像テーブル202とを有する。ストレージ125は、「記憶装置」とも称する。ストレージ125は、例えば、フラッシュメモリ(Flash Memory)などの半導体メモリ素子、又は、ハードディスクや光ディスクなどである。なお、図2に示す例では、ストレージ125がコントローラユニット126とは別に設けられる場合を示したが、これに限定されるものではない。例えば、ストレージ125は、コントローラユニット126と統合されても良い。言い換えると、ストレージ125は、コントローラユニット126の内部に設けられても良い。   In the example illustrated in FIG. 4, the storage 125 includes a snapshot table 201 and a representative image table 202. The storage 125 is also referred to as a “storage device”. The storage 125 is, for example, a semiconductor memory element such as a flash memory, a hard disk, an optical disk, or the like. In the example illustrated in FIG. 2, the storage 125 is provided separately from the controller unit 126, but the present invention is not limited to this. For example, the storage 125 may be integrated with the controller unit 126. In other words, the storage 125 may be provided inside the controller unit 126.

スナップショットテーブル201は、第1の状態において表示部112の表示領域に表示されている表示画像を再現するための情報である第1の画像情報を記憶する。具体的には、スナップショットテーブル201は、第1の状態において表示領域に表示されていた表示画像のスナップショットの履歴を時系列に沿って記憶する。   The snapshot table 201 stores first image information that is information for reproducing the display image displayed in the display area of the display unit 112 in the first state. Specifically, the snapshot table 201 stores a history of snapshots of the display image displayed in the display area in the first state in time series.

例えば、スナップショットテーブル201は、第1の画像情報として、表示領域に背景画像として表示されていた映像情報と、映像情報に重畳描画されていた描画画像を描画するための接触位置座標又は接近位置座標とを対応付けて記憶する。ただし、スナップショットテーブル201によって記憶される第1の画像情報は、これに限定されるものではない。スナップショットテーブル201は、第1の画像情報として、表示領域に表示されている表示画像そのものをスナップショットとして記憶しても良い。また、スナップショットテーブル201は、接触位置座標又は接近位置座標の代わりに、描画画像そのものを記憶しても良い。   For example, the snapshot table 201 includes, as the first image information, the contact position coordinates or the approach position for drawing the video information displayed as the background image in the display area and the drawn image superimposed on the video information. The coordinates are stored in association with each other. However, the first image information stored by the snapshot table 201 is not limited to this. The snapshot table 201 may store the display image itself displayed in the display area as the first image information as a snapshot. The snapshot table 201 may store the drawn image itself instead of the contact position coordinates or the approach position coordinates.

代表画像テーブル202は、第2の状態において表示部112の表示領域に表示されている表示画像を再現するための情報である第2の画像情報を記憶する。例えば、代表画像テーブル202は、第2の状態において接触位置座標又は接近位置座標が検出された際に表示領域に表示されていた表示画像のスナップショットを記憶する。より詳細な一例をあげて説明すると、代表画像テーブル202は、第2の状態において接触位置座標又は接近位置座標が検出された結果、指示情報がユーザPC130に送信された後に表示領域に表示されていた表示画像のスナップショットを記憶する。また、代表画像テーブル202は、第2の画像情報の履歴を時系列に沿って記憶する。以下では、第2の画像情報を「代表画像」とも称する。   The representative image table 202 stores second image information that is information for reproducing the display image displayed in the display area of the display unit 112 in the second state. For example, the representative image table 202 stores a snapshot of the display image displayed in the display area when the contact position coordinates or the approach position coordinates are detected in the second state. To explain with a more detailed example, the representative image table 202 is displayed in the display area after the instruction information is transmitted to the user PC 130 as a result of detecting the contact position coordinates or the approach position coordinates in the second state. A snapshot of the displayed image is stored. The representative image table 202 stores the history of the second image information in time series. Hereinafter, the second image information is also referred to as “representative image”.

ただし、代表画像テーブル202によって記憶される第2の画像情報は、これに限定されるものではない。代表画像テーブル202は、第2の画像情報として、映像情報と接触位置座標又は接近位置座標とを対応付けて記憶しても良く、接触位置座標又は接近位置座標の代わりに描画画像そのものを記憶しても良く、任意の形式にて記憶して良い。   However, the second image information stored by the representative image table 202 is not limited to this. The representative image table 202 may store the video information and the contact position coordinates or the approach position coordinates as the second image information in association with each other, and stores the drawing image itself instead of the contact position coordinates or the approach position coordinates. It may be stored in any format.

ここで、スナップショットテーブル201に記憶された第1の画像情報は、コントローラユニット126によって、代表画像テーブル202に記憶された第2の画像情報に関連付けられる。以下では、スナップショットテーブル201が、第1の画像情報と第2の画像情報との関連付けを記憶する場合を用いて説明するが、これに限定されるものではない。例えば、代表画像テーブル202が関連付けを記憶しても良く、スナップショットテーブル201や代表画像テーブル202とは別のテーブルが関連付けを記憶しても良い。   Here, the first image information stored in the snapshot table 201 is associated with the second image information stored in the representative image table 202 by the controller unit 126. Hereinafter, the snapshot table 201 will be described using a case where the association between the first image information and the second image information is stored. However, the present invention is not limited to this. For example, the representative image table 202 may store the association, or a table different from the snapshot table 201 or the representative image table 202 may store the association.

図5及び図6を用いて、スナップショットテーブル201に記憶された情報の一例と、代表画像テーブル202に記憶された情報の一例とについて説明する。   An example of information stored in the snapshot table 201 and an example of information stored in the representative image table 202 will be described with reference to FIGS. 5 and 6.

図5は、第1の実施形態におけるスナップショットテーブルに記憶された情報の一例を示す図である。図5に示す例では、スナップショットテーブル201は、「表示画面」と、「手書きストローク」と、「代表画像ID」とを対応付けて記憶する。図5の「表示画面」は、第1の状態において表示部112の表示領域に表示されている背景画像のビットマップを示す。「手書きストローク」は、「表示画面」に重畳描画された描画画像を形成する手書きストロークを示す。「手書きストローク」には、一つ又は複数の手書きストロークが含まれる。手書きストローク各々には、例えば、ユーザによる接触位置座標又は接近位置座標が含まれる。ここで、「表示画面」と「手書きストローク」とは、「第1の画像情報」に相当する。「代表画像ID」は、第1の画像情報に対応付けられた第2の画像情報を識別するための識別情報である。図5に示す例では、代表画像ID「100」は、代表画像テーブル202に記憶された第2の画像情報のうち、代表画像ID「100」により識別される第2の画像情報が関連付けられることを示す。また、図5に示す例では、代表画像ID「NULL」は、第2の画像情報が未だ関連付けられていないことを示す。   FIG. 5 is a diagram illustrating an example of information stored in the snapshot table according to the first embodiment. In the example illustrated in FIG. 5, the snapshot table 201 stores “display screen”, “handwritten stroke”, and “representative image ID” in association with each other. The “display screen” in FIG. 5 shows a bitmap of the background image displayed in the display area of the display unit 112 in the first state. The “handwritten stroke” indicates a handwritten stroke that forms a drawn image superimposed on the “display screen”. The “handwritten stroke” includes one or a plurality of handwritten strokes. Each handwritten stroke includes, for example, contact position coordinates or approach position coordinates by the user. Here, the “display screen” and the “handwritten stroke” correspond to “first image information”. The “representative image ID” is identification information for identifying the second image information associated with the first image information. In the example illustrated in FIG. 5, the representative image ID “100” is associated with the second image information identified by the representative image ID “100” among the second image information stored in the representative image table 202. Indicates. In the example illustrated in FIG. 5, the representative image ID “NULL” indicates that the second image information is not yet associated.

図6は、第1の実施形態における代表画像テーブルに記憶された情報の一例を示す図である。図6に示す例では、代表画像テーブル202は、「代表画像ID」と「表示画面」とを対応付けて記憶する。ここで、図6の「表示画面」は、第2の状態において表示部112の表示領域に表示されている画像のビットマップを示す。図6の「表示画面」は、「第2の画像情報」や「代表画像」に相当する。   FIG. 6 is a diagram illustrating an example of information stored in the representative image table according to the first embodiment. In the example illustrated in FIG. 6, the representative image table 202 stores “representative image ID” and “display screen” in association with each other. Here, the “display screen” in FIG. 6 shows a bitmap of an image displayed in the display area of the display unit 112 in the second state. The “display screen” in FIG. 6 corresponds to “second image information” and “representative image”.

なお、図5や図6に示す例では、表示画面としてビットマップを記憶する場合を示したが、これに限定されるものではない。例えば、表示画面として、数字列及び映像情報の保存形式を示す文字列との組み合わせを用いても良く、任意の形式の情報を用いて良い。また、図5に示す例では、手書きストロークとして、接触位置座標又は接近位置座標を記憶する場合を示したが、これに限定されるものではない。例えば、手書きストロークとして、接触位置座標又は接近位置座標に加えて、描画画像の表示色や線分の太さ等の描画画像の属性情報を用いても良い。   In the example shown in FIGS. 5 and 6, the case where a bitmap is stored as a display screen is shown, but the present invention is not limited to this. For example, a combination of a numeric string and a character string indicating a storage format of video information may be used as the display screen, and information in an arbitrary format may be used. In the example shown in FIG. 5, the case where the contact position coordinates or the approach position coordinates are stored as the handwritten stroke is shown, but the present invention is not limited to this. For example, in addition to the contact position coordinates or the approach position coordinates, attribute information of the drawn image such as the display color of the drawn image and the thickness of the line segment may be used as the handwritten stroke.

ここで、スナップショットテーブル201に第1の画像情報が格納されるタイミングと、代表画像テーブル202に第2の画像情報が格納されるタイミングとの違いについて補足する。スナップショットテーブル201には、第1の状態において、任意のタイミングごとに第1の画像情報が格納される。例えば、スナップショットテーブル201は、所定のタイミングごとに第1の画像情報が格納されたり、新たな手書きストロークが発生するごとに第1の画像情報が格納されたりする。ここで、第1の画像情報が格納される際には、「代表画像ID」には、初期値として「NULL」が設定される。   Here, the difference between the timing at which the first image information is stored in the snapshot table 201 and the timing at which the second image information is stored in the representative image table 202 will be supplemented. In the first state, the snapshot table 201 stores first image information for each arbitrary timing. For example, the snapshot table 201 stores the first image information at every predetermined timing, or stores the first image information every time a new handwritten stroke occurs. Here, when the first image information is stored, “NULL” is set as the initial value in the “representative image ID”.

一方、代表画像テーブル202には、第2の状態において、任意のタイミングごとに、新たな代表画像IDが付された上で、第2の画像情報が格納される。例えば、代表画像テーブル202は、第2の状態において指示情報がユーザPC130に出力されるごとに、新たな代表画像IDと第2の画像情報とが格納される。また、後述するように、例えば、代表画像IDと第2の画像情報とが代表画像テーブル202に格納されると、新たに格納された代表画像IDがスナップショットテーブル201に格納された第1の画像情報に対応付けてスナップショットテーブル201に格納される。   On the other hand, in the second state, the second image information is stored in the representative image table 202 after a new representative image ID is added at every arbitrary timing. For example, the representative image table 202 stores a new representative image ID and second image information each time instruction information is output to the user PC 130 in the second state. As will be described later, for example, when the representative image ID and the second image information are stored in the representative image table 202, the newly stored representative image ID is stored in the snapshot table 201. It is stored in the snapshot table 201 in association with the image information.

図4の説明に戻る。コントローラユニット126は、例えば、ASIC、FPGA、CPU、MPUなどである。図4に示す例では、コントローラユニット126は、映像取得部211と、モード切替制御部212と、タッチパネル制御部213と、手書き処理部214と、映像処理部215と、表示制御部216と、スナップショット格納部217と、イベント転送部218と、代表画像格納部219とを有する。   Returning to the description of FIG. The controller unit 126 is, for example, an ASIC, FPGA, CPU, MPU or the like. In the example shown in FIG. 4, the controller unit 126 includes a video acquisition unit 211, a mode switching control unit 212, a touch panel control unit 213, a handwriting processing unit 214, a video processing unit 215, a display control unit 216, and a snap. A shot storage unit 217, an event transfer unit 218, and a representative image storage unit 219 are included.

映像取得部211は、ユーザPC130から映像情報を受信する。具体的には、映像取得部211は、ユーザPC130によって出力された映像情報を、映像情報インタフェース120を介して取得する。例えば、映像取得部211は、周期Tごとに、ユーザPC130の表示領域にて表示されている映像情報を取得する。より詳細な一例をあげて説明すると、映像取得部211は、T=1/60[s]ごとに、背景画像なる画像をユーザPC130から取得する。   The video acquisition unit 211 receives video information from the user PC 130. Specifically, the video acquisition unit 211 acquires video information output by the user PC 130 via the video information interface 120. For example, the video acquisition unit 211 acquires video information displayed in the display area of the user PC 130 for each period T. To explain with a more detailed example, the video acquisition unit 211 acquires an image as a background image from the user PC 130 every T = 1/60 [s].

モード切替制御部212は、接触位置座標又は接近位置座標が検出されると描画画像が重畳描画される第1の状態と、接触位置座標又は接近位置座標が検出されても描画画像が重畳描画部により重畳描画されない第2の状態とを切り替える。具体的には、モード切替制御部212は、ユーザの指示に従って、第1の状態と第2の状態とを交互に切り替える。   The mode switching control unit 212 has a first state in which a drawing image is superimposed and drawn when a contact position coordinate or an approach position coordinate is detected, and a drawing image is superimposed and drawn even if a contact position coordinate or an approach position coordinate is detected To switch to the second state in which the superimposed drawing is not performed. Specifically, the mode switching control unit 212 switches between the first state and the second state alternately in accordance with a user instruction.

例えば、モード切替制御部212は、ユーザにより操作された操作ボタンの種別に応じて、動作モードを切り替える。より詳細な一例をあげて説明すると、モード切替制御部212は、操作ボタン114が押下された場合には、第1の状態に切り替え、操作ボタン116が押下された場合には、第2の状態に切り替える。   For example, the mode switching control unit 212 switches the operation mode according to the type of operation button operated by the user. To explain with a more detailed example, the mode switching control unit 212 switches to the first state when the operation button 114 is pressed, and changes to the second state when the operation button 116 is pressed. Switch to.

モード切替制御部212による動作モードの切り替え処理の一例について更に説明する。例えば、操作ボタン114が押下されると、モード切替制御部212は、手書き処理部214とタッチパネル制御部213とに制御コマンド「handwrite disable」を出力することで、第2の状態に切り替える。この結果、詳細については後述するように、背景画像上に描画画像を重畳描画する処理が無効となる。例えば、手書き処理部214が無効となることで、背景画像上に描画画像を重畳描画する処理が無効となる。   An example of operation mode switching processing by the mode switching control unit 212 will be further described. For example, when the operation button 114 is pressed, the mode switching control unit 212 switches to the second state by outputting a control command “handwrite disable” to the handwriting processing unit 214 and the touch panel control unit 213. As a result, as will be described later in detail, the process of superimposing and drawing the drawing image on the background image becomes invalid. For example, when the handwriting processing unit 214 becomes invalid, the process of superimposing and drawing the drawing image on the background image becomes invalid.

また、例えば、操作ボタン116が押下されると、モード切替制御部212は、手書き処理部214とタッチパネル制御部213とに制御コマンド「handwrite enable」を出力することで、第1の状態に切り替える。この結果、詳細については後述するように、背景画像上に描画画像を重畳描画する処理が有効となる。例えば、手書き処理部214が有効となることで、背景画像上に描画画像を重畳描画する処理が有効となる。   Further, for example, when the operation button 116 is pressed, the mode switching control unit 212 switches to the first state by outputting a control command “handwrite enable” to the handwriting processing unit 214 and the touch panel control unit 213. As a result, as will be described later in detail, the process of superimposing and drawing the drawing image on the background image becomes effective. For example, when the handwriting processing unit 214 is enabled, the process of superimposing and drawing the drawing image on the background image is enabled.

タッチパネル制御部213は、タッチパネル113を制御することで、表示領域上における接触位置座標又は接近位置座標を検出する。例えば、タッチパネル制御部213は、表示領域の任意の点を原点とした上で、ユーザにより接触された位置又はユーザに接近された位置を示す座標「(Xt、Yt)」を検出する。より詳細な一例をあげて説明すると、タッチパネル制御部213は、画像表示装置の表示領域と、ユーザPC130の表示領域のいずれにおいても、表示領域の左上隅を原点として用いた上で、水平方向をx軸又はX軸とし、垂直方向をy軸又はY軸として用いる。なお、タッチパネル制御部213は、「検出部」とも称する。   The touch panel control unit 213 controls the touch panel 113 to detect contact position coordinates or approach position coordinates on the display area. For example, the touch panel control unit 213 detects coordinates “(Xt, Yt)” indicating the position touched by the user or the position approached by the user, with an arbitrary point in the display area as the origin. To explain with a more detailed example, the touch panel control unit 213 uses the upper left corner of the display area as the origin in both the display area of the image display device and the display area of the user PC 130, and then sets the horizontal direction. The x axis or the X axis is used, and the vertical direction is used as the y axis or the Y axis. The touch panel control unit 213 is also referred to as a “detection unit”.

ここで、タッチパネル制御部213は、モード切替制御部212から制御コマンド「handwrite enable」を受信した場合には、言い換えると、第1の状態においては、検出した接触位置座標又は接近位置座標を手書き処理部214に出力する。一方、タッチパネル制御部213は、モード切替制御部212から制御コマンド「handwrite disable」を受信した場合には、言い換えると、第2の状態においては、検出した接触位置座標又は接近位置座標を映像処理部215に出力する。   Here, when the touch panel control unit 213 receives the control command “handwrite enable” from the mode switching control unit 212, in other words, in the first state, the detected touch position coordinates or the approach position coordinates are handwritten. To the unit 214. On the other hand, when the touch panel control unit 213 receives the control command “handwrite disable” from the mode switching control unit 212, in other words, in the second state, the touch position coordinate or the approach position coordinate is detected as the video processing unit. To 215.

手書き処理部214は、第1の状態において、以下に説明する一連の処理を実行する。手書き処理部214は、タッチパネル制御部213により接触位置座標又は接近位置座標が検出されると、検出された接触位置座標又は接近位置座標を受信し、受信した接触位置座標又は接近位置座標に基づいて描画される描画画像を、表示領域に表示されている映像情報に重畳描画する。具体的には、手書き処理部214は、重畳画像を重畳描画する旨の指示を表示制御部216に出力することで、映像情報に描画画像を重畳描画する。手書き処理部214や表示制御部216は、「重畳描画部」とも称する。   The handwriting processing unit 214 executes a series of processes described below in the first state. When the touch position control unit 213 detects the contact position coordinates or the approach position coordinates, the handwriting processing unit 214 receives the detected contact position coordinates or the approach position coordinates, and based on the received contact position coordinates or the approach position coordinates. The rendered image to be rendered is superimposed and rendered on the video information displayed in the display area. Specifically, the handwriting processing unit 214 outputs an instruction to superimpose and draw the superimposed image to the display control unit 216, thereby superimposing and drawing the rendered image on the video information. The handwriting processing unit 214 and the display control unit 216 are also referred to as “superimposed drawing unit”.

例えば、手書き処理部214は、タッチ(接触)からデタッチ(非接触)までの間にタッチパネル制御部213により検出された座標群をストローク(ベクトル)として生成し、生成した手書きストロークを背景画像上に重畳描画する。なお、手書き処理部214は、例えば、ストロークの色を指定したり、対象とする画素の範囲(ペン幅に相当)を指定したりしても良い。   For example, the handwriting processing unit 214 generates a coordinate group detected by the touch panel control unit 213 as a stroke (vector) from touch (contact) to detachment (non-contact), and the generated handwriting stroke is displayed on the background image. Superimpose drawing. The handwriting processing unit 214 may specify, for example, a stroke color or a target pixel range (corresponding to a pen width).

図7は、第1の実施形態における手書き処理部により生成される手書きストロークの一例を示す図である。図7に示すように、ストローク301や302、303、304は、表示領域上の任意の位置に設定される。言い換えると、手書きストロークが設定される表示領域の範囲は、表示領域の全面となる。図7に示すような手書きストロークは、ユーザによってタッチパネル113がタッチされることで、手書き処理部214により生成される。   FIG. 7 is a diagram illustrating an example of a handwriting stroke generated by the handwriting processing unit according to the first embodiment. As shown in FIG. 7, the strokes 301, 302, 303, and 304 are set at arbitrary positions on the display area. In other words, the range of the display area where the handwritten stroke is set is the entire display area. 7 is generated by the handwriting processing unit 214 when the touch panel 113 is touched by the user.

なお、手書き処理部214は、第2の状態では、タッチパネル制御部213から接触位置座標又は接近位置座標を受信しない。この結果、新たな手書きストロークは生成されず、背景画像上に新たな描画画像が重畳描画されることもない。ただし、既に重畳描画された描画画像は、ユーザが特段操作をしない限り、背景画像上に重畳描画されたままとなる。   Note that the handwriting processing unit 214 does not receive the contact position coordinates or the approach position coordinates from the touch panel control unit 213 in the second state. As a result, a new handwritten stroke is not generated, and a new drawn image is not superimposed and drawn on the background image. However, the drawing image that has already been drawn in a superimposed manner remains superimposed on the background image unless the user performs a special operation.

映像処理部215は、映像取得部211により取得された映像情報を表示領域に表示する。具体的には、映像取得部211は、表示制御部126に対して指示することで、映像取得部211により取得された映像情報を背景画像として表示領域に表示したり、アプリケーションウィンドウとして表示領域に表示したりする。アプリケーションウィンドウとして表示領域に表示する点について言い換えると、映像処理部215は、任意のアプリケーションに対応するウィンドウを表示した上で、映像取得部211により取得された映像情報がウインドウ内に描画されるように、表示制御部216に指示しても良い。   The video processing unit 215 displays the video information acquired by the video acquisition unit 211 in the display area. Specifically, the video acquisition unit 211 instructs the display control unit 126 to display the video information acquired by the video acquisition unit 211 as a background image in the display area or as an application window in the display area. Or display. In other words, the video processing unit 215 displays a window corresponding to an arbitrary application, and the video information acquired by the video acquisition unit 211 is rendered in the window. Alternatively, the display control unit 216 may be instructed.

また、映像処理部215は、適宜、受信した映像情報について、リサイズやクリッピングなどの画像処理を行った上で、表示領域に表示しても良い。映像処理部215や表示制御部216は、「表示制御部」とも称する。   In addition, the video processing unit 215 may display the received video information in the display area after performing image processing such as resizing and clipping as appropriate. The video processing unit 215 and the display control unit 216 are also referred to as “display control unit”.

また、映像処理部215は、第2の状態において、接触位置座標又は接近位置座標をタッチパネル制御部213から受信すると、映像情報が表示されている表示領域の座標を加えた上で、イベント転送部218に出力する。   In addition, when the video processing unit 215 receives the contact position coordinates or the approach position coordinates from the touch panel control unit 213 in the second state, the video processing unit 215 adds the coordinates of the display area in which the video information is displayed, To 218.

図8は、第1の実施形態における表示領域に表示される画面の一例を示す図である。図8に示す例では、記載の便宜上、ユーザPC130を併せて示した。また、図8に示す例では、映像処理部215が、映像取得部211により取得された映像情報を表示領域の全面に表示するのではなく、アプリケーションウィンドウ310として表示する場合を例に示した。   FIG. 8 is a diagram illustrating an example of a screen displayed in the display area according to the first embodiment. In the example shown in FIG. 8, the user PC 130 is also shown for convenience of description. In the example illustrated in FIG. 8, the video processing unit 215 displays the video information acquired by the video acquisition unit 211 as an application window 310 instead of displaying it on the entire display area.

図8に示す例を用いて、タッチパネル制御部213から接触位置座標又は接近位置座標を映像処理部215が受信した場合における処理の一例について説明する。図8に示す例では、映像処理部215は、タッチパネル制御部213から受信した座標「Xt、Yt」に加えて、アプリケーションウィンドウ310が表示されている座標「Xa、Ya」をイベント転送部218に出力する。なお、図8に示す例では、画像表示装置110の表示領域の座標系を「XY座標系」と記載し、ユーザPC130の表示領域の座標系を「xy座標系」として記載した。   An example of processing when the video processing unit 215 receives the contact position coordinates or the approach position coordinates from the touch panel control unit 213 will be described using the example illustrated in FIG. 8. In the example illustrated in FIG. 8, the video processing unit 215 adds the coordinates “Xa, Ya” at which the application window 310 is displayed to the event transfer unit 218 in addition to the coordinates “Xt, Yt” received from the touch panel control unit 213. Output. In the example shown in FIG. 8, the coordinate system of the display area of the image display device 110 is described as “XY coordinate system”, and the coordinate system of the display area of the user PC 130 is described as “xy coordinate system”.

なお、第1の実施形態では、映像処理部215が、ユーザPCの表示領域にて表示されている映像情報を映像取得部211が取得すると、取得された映像情報をそのまま表示する場合を例に説明する。言い換えると、映像取得部211により取得された映像情報の解像度を変更することなく、表示領域から表示する場合を例に説明する。この場合、画像表示装置110の表示領域における座標系と、ユーザPC130の表示領域における座標系とは、必ずしも一致しないことを踏まえ、映像処理部215は、タッチパネル制御部213により検出された接触位置座標又は接近位置座標に加えて、映像情報が表示されている表示部112の表示領域における座標を出力する。ただし、これに限定されるものではない。例えば、画像表示装置110の表示領域における座標系と、ユーザPC130の表示領域における座標系とが一致する場合には、映像処理部215は、接触位置座標又は接近位置座標を出力する一方、映像情報が表示されている表示部112の表示領域における座標を出力しなくても良い。   In the first embodiment, the video processing unit 215 displays the acquired video information as it is when the video acquisition unit 211 acquires the video information displayed in the display area of the user PC. explain. In other words, an example will be described in which display is performed from the display area without changing the resolution of the video information acquired by the video acquisition unit 211. In this case, based on the fact that the coordinate system in the display area of the image display device 110 and the coordinate system in the display area of the user PC 130 do not necessarily match, the video processing unit 215 detects the contact position coordinates detected by the touch panel control unit 213. Alternatively, in addition to the approach position coordinates, coordinates in the display area of the display unit 112 on which the video information is displayed are output. However, it is not limited to this. For example, when the coordinate system in the display area of the image display device 110 matches the coordinate system in the display area of the user PC 130, the video processing unit 215 outputs the contact position coordinates or the approach position coordinates, while the video information It is not necessary to output the coordinates in the display area of the display unit 112 on which is displayed.

表示制御部216は、手書き処理部214や映像処理部215から指示を受信すると、受信した指示に基づいて映像を表示部112の表示領域に表示する。例えば、表示制御部216は、映像情報を表示領域に表示し、描画画像を表示する。   When the display control unit 216 receives an instruction from the handwriting processing unit 214 or the video processing unit 215, the display control unit 216 displays a video in the display area of the display unit 112 based on the received instruction. For example, the display control unit 216 displays video information in the display area and displays a drawing image.

スナップショット格納部217は、第1の状態において、任意のタイミングごとに、表示領域に表示されている画像を再現するための情報である第1の画像情報をスナップショットテーブル201に格納する。例えば、スナップショット格納部217は、第1の画像情報として、表示領域に表示されている画像のビットマップと、重畳描画された描画画像の手書きストロークとを対応付けて格納する。図5に示す例では、スナップショット格納部217は、第1の状態において、任意のタイミングごとに、表示画面と手書きストロークとを対応付けて格納する。なお、この際、代表画像IDは初期値としての「NULL」となる。   The snapshot storage unit 217 stores first image information, which is information for reproducing an image displayed in the display area, in the snapshot table 201 at any timing in the first state. For example, the snapshot storage unit 217 stores, as first image information, a bitmap of an image displayed in the display area and a handwritten stroke of a drawn image that is superimposed and drawn in association with each other. In the example illustrated in FIG. 5, the snapshot storage unit 217 stores the display screen and the handwritten stroke in association with each other at any timing in the first state. At this time, the representative image ID is “NULL” as an initial value.

言い換えると、スナップショット格納部217は、第1の状態において、表示部112の表示領域に表示されている画像のスナップショットを格納する。なお、スナップショット格納部217は、「第1の格納部」とも称する。   In other words, the snapshot storage unit 217 stores a snapshot of the image displayed in the display area of the display unit 112 in the first state. The snapshot storage unit 217 is also referred to as a “first storage unit”.

また、スナップショット格納部217は、第1の状態において、一つ又は複数の第1の画像情報を格納する。例えば、スナップショット格納部217は、手書き処理部214により新たな手書きストロークが生成されるごとに、スナップショットを格納する。ただし、これに限定されるものではなく、スナップショット格納部217は、例えば、任意のタイミングごとにスナップショットを格納しても良い。より詳細な一例をあげて説明すると、スナップショット格納部217は、Ts=1[s]ごとにスナップショットを格納しても良い。   The snapshot storage unit 217 stores one or more pieces of first image information in the first state. For example, the snapshot storage unit 217 stores a snapshot each time a new handwritten stroke is generated by the handwriting processing unit 214. However, the present invention is not limited to this, and the snapshot storage unit 217 may store snapshots at arbitrary timings, for example. To explain with a more detailed example, the snapshot storage unit 217 may store a snapshot every Ts = 1 [s].

イベント転送部218は、モード切替制御部212により第1の状態から第2の状態に切り替えられた場合に、接触位置座標又は接近位置座標が検出されると、接触位置座標又は接近位置座標に基づいてユーザPC130に対する指示情報を生成し、生成した指示情報をユーザPC130に出力する。イベント転送部218は、「出力部」とも称する。   When the mode switching control unit 212 switches from the first state to the second state, the event transfer unit 218 detects the contact position coordinates or the approach position coordinates based on the contact position coordinates or the approach position coordinates. Instruction information for the user PC 130 is generated, and the generated instruction information is output to the user PC 130. The event transfer unit 218 is also referred to as an “output unit”.

例えば、イベント転送部218は、座標「Xt、Yt」と座標「Xa、Ya」とを映像処理部215から受信すると、(数1)に基づいて出力座標「xo、yo」を算出する。そして、イベント転送部218は、出力座標「xo、yo」がタッチされた旨の指示情報、言い換えると、「xo、yo」がクリックされた旨の指示情報を、ユーザPC130に出力する。なお、「xo、yo」は、検出された座標に対応するユーザPC130における座標となる。   For example, when receiving the coordinates “Xt, Yt” and the coordinates “Xa, Ya” from the video processing unit 215, the event transfer unit 218 calculates the output coordinates “xo, yo” based on (Equation 1). Then, the event transfer unit 218 outputs instruction information indicating that the output coordinates “xo, yo” has been touched, in other words, instruction information indicating that “xo, yo” has been clicked, to the user PC 130. Note that “xo, yo” are coordinates on the user PC 130 corresponding to the detected coordinates.

(xo、yo)=(Xt−Xa、Yt−Ya)・・・(数1)   (Xo, yo) = (Xt−Xa, Yt−Ya) (Equation 1)

ここで、イベント転送部218は、タッチパネル113に対するタッチの仕方に応じて、異なる指示情報を生成する。例えば、タッチパネル113がユーザにより1回タッチされた場合には、イベント転送部218は、タッチされた箇所に対応する出力座標を1回クリックするマウスイベントを示す指示情報を生成する。また、例えば、タッチパネル113がユーザにより2回タッチされた場合には、イベント転送部218は、タッチされた箇所に対応する出力座標をダブルクリックするマウスイベントを示す指示情報を生成する。また、例えば、1回タッチされた後、そのまま別の場所までタッチしたまま移動した上で離された場合には、イベント転送部218は、最初にタッチされた座標からタッチが離された座標までドラッグするマウスイベントを示す指示情報を生成する。   Here, the event transfer unit 218 generates different instruction information depending on how to touch the touch panel 113. For example, when the touch panel 113 is touched once by the user, the event transfer unit 218 generates instruction information indicating a mouse event that clicks once on the output coordinates corresponding to the touched location. For example, when the touch panel 113 is touched twice by the user, the event transfer unit 218 generates instruction information indicating a mouse event that double-clicks an output coordinate corresponding to the touched location. Also, for example, when the event transfer unit 218 is touched once and then moved while being touched to another place as it is and then released, the event transfer unit 218 determines from the first touched coordinate to the coordinate where the touch is released. Instruction information indicating a mouse event to be dragged is generated.

ここで、タッチパネル113が1回タッチされたか、2回タッチされたか、あるいは、1回タッチされた後、そのまま別の場所までタッチしたまま移動した上で離されたかなどについては、イベント転送部218が判断しても良く、タッチパネル制御部213又は映像処理部215が判断しても良い。   Here, as to whether the touch panel 113 is touched once, touched twice, or touched once and then moved to another location while being touched and released, the event transfer unit 218 May be determined, or the touch panel control unit 213 or the video processing unit 215 may determine.

代表画像格納部219は、第2の状態において、接触位置座標又は接近位置座標が検出されると、表示領域に表示されている画像を再現するための情報である第2の画像情報を、スナップショット格納部217により格納された第1の画像情報に関連付けて格納する。なお、代表画像格納部219は、「第2の格納部」とも称する。   When the contact position coordinates or the approach position coordinates are detected in the second state, the representative image storage unit 219 snaps the second image information that is information for reproducing the image displayed in the display area. The image data is stored in association with the first image information stored by the shot storage unit 217. The representative image storage unit 219 is also referred to as a “second storage unit”.

具体的には、代表画像格納部219は、第2の状態において、イベント転送部218により指示情報が送信される場合に、第2の画像情報を格納する。例えば、代表画像格納部219は、第2の状態において、イベント転送部218による指示情報の送信後の表示領域に表示されていた画面を再現するための情報である第2の画像情報を格納する。なお、代表画像格納部219は、例えば、表示領域に表示されている画面を取り込み、取り込んだ画面のビットマップを第2の画像情報として格納したり、任意の形式を用いて第2の画像情報を格納したりする。   Specifically, the representative image storage unit 219 stores the second image information when the instruction information is transmitted from the event transfer unit 218 in the second state. For example, the representative image storage unit 219 stores the second image information that is information for reproducing the screen displayed in the display area after the instruction information is transmitted by the event transfer unit 218 in the second state. . Note that the representative image storage unit 219, for example, captures a screen displayed in the display area, stores a bitmap of the captured screen as second image information, or uses the second image information using an arbitrary format. Or store.

第1の画像情報に関連付けて格納する点について更に説明する。代表画像格納部219は、第2の状態において、第2の画像情報を、第2の状態の直前の第1の状態においてスナップショット格納部217により格納された一つ又は複数の第1の画像情報に関連付けて、第2の画像情報を格納する。   The point stored in association with the first image information will be further described. The representative image storage unit 219 stores the second image information in the second state, and one or more first images stored by the snapshot storage unit 217 in the first state immediately before the second state. The second image information is stored in association with the information.

例えば、代表画像格納部219は、新たな第2の画像情報を格納する場合に、新たな代表画像IDを付与した上で、第2の画像情報を代表画像テーブル202に格納する。例えば、代表画像格納部219は、例えば、スナップショットテーブル201が生成された際に代表画像IDを「1」で初期化した上で、その後、格納するごとに「1」増加させた代表画像IDを付与する。   For example, when storing new second image information, the representative image storage unit 219 stores the second image information in the representative image table 202 after giving a new representative image ID. For example, the representative image storage unit 219 initializes the representative image ID with “1” when the snapshot table 201 is generated, and then increases the representative image ID by “1” each time it is stored. Is granted.

また、代表画像格納部219は、新たに付与した代表画像IDを、スナップショットテーブル201に記憶されている第1の画像情報のうち、第2の画像情報に関連付けられていない第1の画像情報に対応付けて格納することで、第2の画像情報に関連付ける。   In addition, the representative image storage unit 219 uses the newly assigned representative image ID as the first image information that is not associated with the second image information among the first image information stored in the snapshot table 201. Is stored in association with the second image information.

図9は、第1の実施形態における代表画像格納部により代表画像IDが格納された後のスナップショットテーブルに記憶された情報の一例を示す図である。図9は、図5を用いて示したスナップショットテーブル201に対して、代表画像格納部219が代表画像IDを格納した後の一例を示す。図5及び図9に示すように、代表画像格納部219は、図5において代表画像IDが「NULL」となっている箇所に対して、新たに付与した代表画像ID「101」を格納することで、新たに格納した第2の画像情報を、第2の状態の直前の第1の状態においてスナップショット格納部217により格納された一つ又は複数の第1の画像情報に関連付ける。   FIG. 9 is a diagram illustrating an example of information stored in the snapshot table after the representative image ID is stored by the representative image storage unit according to the first embodiment. FIG. 9 shows an example after the representative image storage unit 219 stores the representative image ID in the snapshot table 201 shown in FIG. As shown in FIGS. 5 and 9, the representative image storage unit 219 stores the newly assigned representative image ID “101” for the location where the representative image ID is “NULL” in FIG. 5. Thus, the newly stored second image information is associated with one or a plurality of first image information stored by the snapshot storage unit 217 in the first state immediately before the second state.

すなわち、代表画像格納部219は、イベント転送部218により指示情報が送信されると、表示領域に表示されている表示画面を画像として取得する。そして、代表画像格納部219は、新たな代表画像IDを取得した上で、取得した新たな代表画像IDと併せて表示画面を代表画像テーブル202に格納し、スナップショットテーブル201において、代表画像ID列がNULL値となっているレコードを取得し、取得した代表画像IDでNULL値を上書きすることでレコードを更新する。   In other words, when the instruction information is transmitted from the event transfer unit 218, the representative image storage unit 219 acquires the display screen displayed in the display area as an image. The representative image storage unit 219 acquires the new representative image ID, stores the display screen together with the acquired new representative image ID in the representative image table 202, and the representative image ID is stored in the snapshot table 201. A record whose column has a NULL value is acquired, and the record is updated by overwriting the NULL value with the acquired representative image ID.

[画像表示装置における処理]
以下では、画像表示装置110による処理の一例として、第2の画像情報を格納するための一連の処理について説明する。図10は、第1の実施形態における第2の画像情報を格納するための一連の処理の一例を示すシーケンス図である。
[Processing in image display device]
Hereinafter, a series of processing for storing the second image information will be described as an example of processing by the image display device 110. FIG. 10 is a sequence diagram illustrating an example of a series of processes for storing the second image information according to the first embodiment.

図10に示すように、画像表示装置110では、映像処理部215が、タッチイベント情報を受信すると(ステップS101肯定)、タッチイベント情報と自身の座標を送信する(ステップS102)。つまり、映像処理部215は、第2の状態において、タッチパネル制御部213から接触位置座標又は接近位置座標を受信すると、映像情報が表示されている表示部112の表示領域の座標を加えた上で、イベント転送部218に出力する。   As shown in FIG. 10, in the image display device 110, when the video processing unit 215 receives touch event information (Yes at Step S101), it transmits the touch event information and its own coordinates (Step S102). That is, when the video processing unit 215 receives the contact position coordinates or the approach position coordinates from the touch panel control unit 213 in the second state, the video processing unit 215 adds the coordinates of the display area of the display unit 112 on which the video information is displayed. To the event transfer unit 218.

そして、画像表示装置110では、イベント転送部218が、タッチイベント情報を受信すると(ステップS103)、言い換えると、接触位置座標又は接近位置座標と、映像情報が表示されている表示部112の表示領域とを映像処理部215から受信すると、出力座標を算出する(ステップS104)。例えば、イベント転送部218は、(数1)に従って出力座標を算出する。   In the image display device 110, when the event transfer unit 218 receives the touch event information (step S103), in other words, the display area of the display unit 112 in which the contact position coordinates or the approach position coordinates and the video information are displayed. Are received from the video processing unit 215, output coordinates are calculated (step S104). For example, the event transfer unit 218 calculates the output coordinates according to (Equation 1).

そして、イベント転送部218は、タッチイベント情報のイベント種類と出力座標に基づいてマウスイベントを生成し(ステップS105)、生成したマウスイベントをユーザPC130に送信する(ステップS106)。その後、イベント転送部218は、イベント送信完了を代表画像格納部219に通知する(ステップS107)。つまり、イベント転送部218は、接触位置座標又は接近位置座標が検出されると、接触位置座標又は接近位置座標に基づいてユーザPC130に対する指示情報を生成し、生成した指示情報をユーザPC130に出力する。また、イベント転送部218は、出力したことを代表画像格納部219に出力する。   Then, the event transfer unit 218 generates a mouse event based on the event type and output coordinates of the touch event information (Step S105), and transmits the generated mouse event to the user PC 130 (Step S106). Thereafter, the event transfer unit 218 notifies the representative image storage unit 219 of completion of event transmission (step S107). That is, when the contact position coordinates or the approach position coordinates are detected, the event transfer unit 218 generates instruction information for the user PC 130 based on the contact position coordinates or the approach position coordinates, and outputs the generated instruction information to the user PC 130. . In addition, the event transfer unit 218 outputs the output to the representative image storage unit 219.

そして、画像表示装置110では、代表画像格納部219が、イベント送信完了通知を受信すると(ステップS108)、表示領域に表示されている表示画面を画像として取得する(ステップS109)。そして、代表画像格納部219は、新たな代表画像IDを取得した上で、取得した新たな代表画像IDと併せて表示画面を代表画像テーブル202に格納し(ステップS110)、スナップショットテーブル201において、代表画像ID列がNULL値となっているレコードを取得し、取得した代表画像IDでNULL値を上書きすることでレコードを更新する(ステップS111)。   In the image display device 110, when the representative image storage unit 219 receives the event transmission completion notification (step S108), the display screen displayed in the display area is acquired as an image (step S109). Then, the representative image storage unit 219 acquires a new representative image ID, and stores the display screen together with the acquired new representative image ID in the representative image table 202 (step S110). Then, a record whose representative image ID string is a NULL value is acquired, and the record is updated by overwriting the NULL value with the acquired representative image ID (step S111).

[第1の実施形態の効果]
上述したように、第1の実施形態によれば、画像表示装置110は、ユーザPC130から映像情報を受信し、受信した映像情報を表示領域に表示する。また、画像表示装置110は、表示領域上における接触位置座標又は接近位置座標を検出し、検出した接触位置座標又は接近位置座標に基づいて描画される描画画像を、表示領域に表示されている映像情報に重畳描画する。また、画像表示装置110は、接触位置座標又は接近位置座標が検出されると描画画像が重畳描画される第1の状態と、接触位置座標又は接近位置座標が検出されても描画画像が重畳描画されない第2の状態とを切り替える。また、画像表示装置110は、第1の状態において、任意のタイミングごとに、表示領域に表示されている画像を再現するための情報である第1の画像情報をスナップショットテーブル201に格納する。また、画像表示装置110は、第2の状態において、接触位置座標又は接近位置座標が検出されると、表示領域に表示されている画像を再現するための情報である第2の画像情報を、スナップショットテーブル201に格納された第1の画像情報に関連付けて格納する。この結果、過去の表示画面を効率良く閲覧可能となる。具体的には、手書きのスクロールが反映された一連のスナップショットに簡単に代表画像が関連付けられる結果、スナップショットとして保存された情報を効率良く閲覧可能となる。
[Effect of the first embodiment]
As described above, according to the first embodiment, the image display apparatus 110 receives video information from the user PC 130 and displays the received video information in the display area. In addition, the image display device 110 detects the contact position coordinates or the approach position coordinates on the display area, and displays the rendered image drawn based on the detected contact position coordinates or the approach position coordinates on the display area. Superimpose on information. In addition, the image display device 110 has a first state in which a drawing image is superimposed and drawn when a contact position coordinate or an approach position coordinate is detected; The second state is not switched. Further, in the first state, the image display device 110 stores, in the snapshot table 201, first image information that is information for reproducing an image displayed in the display area at any timing. In addition, when the contact position coordinates or the approach position coordinates are detected in the second state, the image display device 110 displays second image information that is information for reproducing the image displayed in the display area, Stored in association with the first image information stored in the snapshot table 201. As a result, the past display screen can be browsed efficiently. Specifically, as a result of easily associating a representative image with a series of snapshots in which handwritten scroll is reflected, information stored as snapshots can be browsed efficiently.

また、第1の実施形態によれば、画像表示装置110は、第1の状態から第2の状態に切り替えられた場合に、接触位置座標又は接近位置座標が検出部により検出されると、接触位置座標又は接近位置座標に基づいてユーザPC130に対する指示情報を生成し、生成した指示情報をユーザPC130に出力する。また、画像表示装置110は、第2の状態において指示情報が送信される場合に、第2の画像情報を格納する。   Further, according to the first embodiment, when the image display device 110 is switched from the first state to the second state and the contact position coordinates or the approach position coordinates are detected by the detection unit, the contact is detected. Instruction information for the user PC 130 is generated based on the position coordinates or the approach position coordinates, and the generated instruction information is output to the user PC 130. Further, the image display device 110 stores the second image information when the instruction information is transmitted in the second state.

また、第1の実施形態によれば、画像表示装置110は、表示領域上に設けられたタッチパネルにおける接触位置座標又は接近位置座標を検出する。この結果、例えば、ユーザによりタッチされた座標や接近された座標を確実に検出可能となる。   Further, according to the first embodiment, the image display apparatus 110 detects the contact position coordinates or the approach position coordinates on the touch panel provided on the display area. As a result, for example, the coordinates touched by the user or the coordinates approached can be reliably detected.

また、第1の実施形態によれば、画像表示装置110は、ユーザの指示に従って、第1の状態と第2の状態とを交互に切り替え、第1の状態において、一つ又は複数の第1の画像情報を格納し、第2の状態において、第2の画像情報を、第2の状態の直前の第1の状態において第1の格納部により格納された一つ又は複数の第1の画像情報に関連付けて格納する。この結果、直前の第1の状態にて格納された第1の画像が確実に次の第2の状態における第2の画像情報に関連付けられる結果、過去の表示画面を効率良く閲覧可能となる。   In addition, according to the first embodiment, the image display device 110 alternately switches between the first state and the second state in accordance with a user instruction, and in the first state, one or more first One or a plurality of first images stored in the first state immediately before the second state and the second image information stored in the first state immediately before the second state. Store in association with information. As a result, the first image stored in the immediately preceding first state is reliably associated with the second image information in the next second state, so that past display screens can be efficiently browsed.

すなわち、例えば、画像表示装置110は、ユーザPC130から映像情報を受信すると、受信した映像情報を表示領域に表示する。また、画像表示装置110では、表示画面全体に対して手書きを行うことが可能である。その上で、画像表示装置110では、第2の状態において、表示領域がタッチされると、ユーザPC130にマウスイベントを送信するとともに、表示画面を代表画像として他のスナップショットと関連付けて保存する。   That is, for example, when receiving image information from the user PC 130, the image display apparatus 110 displays the received image information in the display area. In the image display device 110, handwriting can be performed on the entire display screen. In addition, when the display area is touched in the second state, the image display device 110 transmits a mouse event to the user PC 130 and stores the display screen as a representative image in association with another snapshot.

このように、例えば、第1の状態においてスナップショットを格納するのに加えて、ユーザにより描画された描画画像を重畳描画しない第2の状態において、代表画像を代表画像テーブル202に格納して関連付けておくことで、代表画像とスナップショットとを並べて閲覧することが可能となり、第1の状態において格納されたスナップショットを1画像ずつ閲覧するのと比較して、過去の表示画面を効率良く閲覧可能となる。   Thus, for example, in addition to storing the snapshot in the first state, the representative image is stored and associated in the representative image table 202 in the second state in which the drawing image drawn by the user is not superimposed and drawn. By doing so, it is possible to browse the representative image and the snapshot side by side, and the past display screen can be viewed more efficiently compared to browsing the snapshot stored in the first state one by one. It becomes possible.

ここで、スナップショット代表画像を関連付けておくことで、スナップショットとして保存された情報を効率良く閲覧可能となる点について更に説明する。図11と図12とは、代表画像とスナップショットとを並べて閲覧する点について示す図である。図11と図12とに示す例では、代表画像を時系列に沿って表示するための領域となる代表画像表示レーン330と、代表画像表示レーン330に表示されている代表画像に関連付けられたスナップショットを時系列に沿って表示するための関連スナップショット表示レーン340とを表示する場合を示した。また、図11と図12とに示す例では、時系列に沿って記憶された代表画像又はスナップショットのうち、時系列において過去側に位置する代表画像又はスナップショットを表示するためのボタン331や341、時系列において未来側に位置する代表画像又はスナップショットを表示するためのボタン332や342を併せて示した。言い換えると、代表画像やスナップショットを逆送りするためのボタン33や341を併せて示すとともに、代表画像やスナップショットを順送りするためのボタン332や342を併せて示した。   Here, it will be further described that the information stored as the snapshot can be efficiently browsed by associating the snapshot representative image. FIG. 11 and FIG. 12 are diagrams showing a point where the representative image and the snapshot are browsed side by side. In the example shown in FIG. 11 and FIG. 12, a representative image display lane 330 that is an area for displaying a representative image in time series, and a snap associated with the representative image displayed in the representative image display lane 330. The case where the related snapshot display lane 340 for displaying shots in chronological order is displayed. In the example shown in FIG. 11 and FIG. 12, among the representative images or snapshots stored along the time series, a button 331 for displaying a representative image or snapshot located on the past side in the time series, 341, buttons 332 and 342 for displaying a representative image or snapshot positioned on the future side in time series are also shown. In other words, the buttons 33 and 341 for reversely feeding the representative image and the snapshot are shown together, and the buttons 332 and 342 for sequentially feeding the representative image and the snapshot are also shown.

図11に示す例では、代表画像表示レーン330に表示されている代表画像333と併せて、代表画像333に関連付けられたスナップショットが時系列に沿って表示される。この結果、過去の表示画面を効率良く閲覧可能となる。図11に示す例では、手書きストロークごとにスナップショットが格納され、関連スナップショット表示レーン340に、代表画像333と関連付けられた複数のスナップショット343が、手書きストローク単位で表示される場合を示した。   In the example illustrated in FIG. 11, snapshots associated with the representative image 333 are displayed in time series together with the representative image 333 displayed in the representative image display lane 330. As a result, the past display screen can be browsed efficiently. In the example illustrated in FIG. 11, a snapshot is stored for each handwritten stroke, and a plurality of snapshots 343 associated with the representative image 333 are displayed in the related snapshot display lane 340 in units of handwritten strokes. .

図12に示す例では、代表画像表示レーン330に表示されている代表画像が、代表画像333から1つ順送りされて代表画像334になった場合を示した。この場合、関連スナップショット表示レーン340に表示されるスナップショットは、代表画像334に関連付けられたスナップショット344となる。   In the example illustrated in FIG. 12, the representative image displayed in the representative image display lane 330 has been forwarded by one from the representative image 333 to become the representative image 334. In this case, the snapshot displayed in the related snapshot display lane 340 is a snapshot 344 associated with the representative image 334.

(第2の実施形態)
さて、これまで本発明の実施形態について説明したが、本発明は上述した実施形態以外にも、その他の実施形態にて実施されても良い。そこで、以下では、その他の実施形態を示す。
(Second Embodiment)
Although the embodiments of the present invention have been described so far, the present invention may be implemented in other embodiments besides the above-described embodiments. Therefore, other embodiments will be described below.

[第1の画像情報及び第2の画像情報の閲覧処理]
例えば、画像表示装置110が、ユーザによる指示を受け付けると、代表画像テーブル202やスナップショットテーブル201から第1の画像情報や第2の画像情報を取得し、表示部112の表示領域に表示しても良い。つまり、画像表示装置110が、記憶装置に格納された情報を表示する旨の指示を受け付けると、代表画像格納部219により格納された第2の画像情報を取得して第2の画像情報により再現される画像を時系列に沿って表示するとともに、第2の画像情報に関連付けられた第1の画像情報により再現される画像を時系列に沿って併せて表示する画像情報表示制御部を更に備えても良い。
[Browsing process of first image information and second image information]
For example, when the image display device 110 receives an instruction from the user, the first image information and the second image information are acquired from the representative image table 202 and the snapshot table 201 and displayed in the display area of the display unit 112. Also good. That is, when the image display device 110 receives an instruction to display information stored in the storage device, the second image information stored in the representative image storage unit 219 is acquired and reproduced by the second image information. An image information display control unit that displays the image to be reproduced along the time series and also displays the image reproduced by the first image information associated with the second image information along the time series. May be.

[代表画像ID]
また、例えば、上述した実施形態では、第1の画像情報が格納された後に、第2の画像情報が格納されると、新たに格納された第2の画像情報を示す代表画像IDを第1の画像情報に対応付けることで、第2の画像情報と第1の画像情報とを関連付ける場合を示した。ただし、これに限定されるものではない。例えば、第1の画像情報が格納されると、既に格納されている第2の画像情報のうち、最後に格納された第2の画像情報を示す代表画像IDを対応付けることで、第2の画像情報と第1の画像情報とを関連付けても良い。
[Representative image ID]
Further, for example, in the above-described embodiment, when the second image information is stored after the first image information is stored, the representative image ID indicating the newly stored second image information is set to the first image ID. The case where the second image information is associated with the first image information by associating with the image information is shown. However, it is not limited to this. For example, when the first image information is stored, the second image information is associated with the representative image ID indicating the second image information stored last among the already stored second image information. The information may be associated with the first image information.

[システム構成]
また、本実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部又は一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部又は一部を公知の方法で自動的に行うこともできる。この他、上述文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報(図1〜図12)については、特記する場合を除いて任意に変更することができる。
[System configuration]
Also, among the processes described in this embodiment, all or part of the processes described as being performed automatically can be performed manually, or the processes described as being performed manually can be performed. All or a part can be automatically performed by a known method. In addition, the processing procedure, control procedure, specific name, information including various data and parameters (FIGS. 1 to 12) shown in the above-mentioned document and drawings are arbitrarily changed unless otherwise specified. be able to.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。例えば、図4に示す例では、ストレージ125を画像表示装置110とは別装置としても良く、ユーザPC130と統合しても良い。   Further, each component of each illustrated apparatus is functionally conceptual, and does not necessarily need to be physically configured as illustrated. That is, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or a part of the distribution / integration may be functionally or physically distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured. For example, in the example illustrated in FIG. 4, the storage 125 may be a separate device from the image display device 110 or may be integrated with the user PC 130.

また、例えば、上述した実施形態では、画像表示装置110が、表示領域を備える表示部112を有する場合を示したが、これに限定されるものではない。例えば、画像表示装置110は、表示部112を有さなくても良い。この場合、画像表示装置110は、例えば、ネットワークを経由したり直接接続されたりした別の装置に備えられた表示領域に画像を表示したり、プロジェクタなどを用いて画像を照射することで、任意の表示領域に画像を表示したりする。プロジェクタなどを用いて画像を照射する場合、画像が照射された普通の黒板や任意の壁面、スクリーンなどが、表示領域となる。   Further, for example, in the above-described embodiment, the case where the image display device 110 includes the display unit 112 including a display area has been described, but the present invention is not limited to this. For example, the image display device 110 may not have the display unit 112. In this case, for example, the image display device 110 displays an image on a display area provided in another device via a network or directly connected, or irradiates an image using a projector or the like. An image is displayed in the display area. When an image is irradiated using a projector or the like, a normal blackboard, an arbitrary wall surface, a screen, or the like on which the image is irradiated is a display area.

[その他]
なお、本実施形態の画像表示装置110で実行される画像表示プログラムは、ROM等に予め組み込まれて提供される。また、本実施形態の画像表示装置110で実行される画像表示プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成しても良い。
[Others]
Note that the image display program executed by the image display apparatus 110 of the present embodiment is provided by being incorporated in advance in a ROM or the like. The image display program executed by the image display apparatus 110 according to the present embodiment is a file in an installable format or an executable format, and is a computer such as a CD-ROM, a flexible disk (FD), a CD-R, or a DVD. You may comprise so that it may record and provide on a readable recording medium.

更に、本実施形態の画像表示装置110で実行される画像表示プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、本実施形態で実行される画像表示プログラムをインターネット等のネットワーク経由で提供又は配布するように構成しても良い。   Furthermore, the image display program executed by the image display apparatus 110 of the present embodiment may be provided by being stored on a computer connected to a network such as the Internet and downloaded via the network. The image display program executed in the present embodiment may be provided or distributed via a network such as the Internet.

本実施形態の画像表示装置110で実行される画像表示プログラムは、上述した各部(例えば、映像取得部211、モード切替制御部212、タッチパネル制御部213、手書き処理部214、映像処理部215、表示制御部216、スナップショット格納部217、イベント転送部218、代表画像格納部219)を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が上記ROMから画像表示プログラムを読み出して実行することで、上記各部が主記憶装置上にロードされ、映像取得部211、モード切替制御部212、タッチパネル制御部213、手書き処理部214、映像処理部215、表示制御部216、スナップショット格納部217、イベント転送部218、代表画像格納部219が主記憶装置上に生成される。   The image display program executed by the image display device 110 according to the present embodiment includes the above-described units (for example, the video acquisition unit 211, the mode switching control unit 212, the touch panel control unit 213, the handwriting processing unit 214, the video processing unit 215, and the display). The module configuration includes a control unit 216, a snapshot storage unit 217, an event transfer unit 218, and a representative image storage unit 219). As actual hardware, a CPU (processor) reads an image display program from the ROM. By executing, the above-described units are loaded on the main storage device, and the video acquisition unit 211, the mode switching control unit 212, the touch panel control unit 213, the handwriting processing unit 214, the video processing unit 215, the display control unit 216, and the snapshot storage Unit 217, event transfer unit 218, and representative image storage unit 219 are main memory It is generated in 置上.

100 画像表示システム
110 画像表示装置
112 表示部
113 タッチパネル
114 操作ボタン
116 操作ボタン
120 映像情報インタフェース
122 表示画像インタフェース
123 ケーブル
124 ケーブル
125 ストレージ
126 コントローラユニット
127 外部インタフェース
150 プロセッサ
153 ハードディスク装置
154 グラフィックスボード
155 ディスプレイ
156 検知装置
157 ネットワークインタフェース
158 外部機器接続インタフェース
201 スナップショットテーブル
202 代表画像テーブル
211 映像取得部
212 モード切替制御部
213 タッチパネル制御部
214 手書き処理部
215 映像処理部
216 表示制御部
217 スナップショット格納部
218 イベント転送部
219 代表画像格納部
301 ストローク
310 アプリケーションウィンドウ
330 代表画像表示レーン
331 ボタン
332 ボタン
333 代表画像
334 代表画像
340 関連スナップショット表示レーン
343 代表画像
344 スナップショット
100 image display system 110 image display device 112 display unit 113 touch panel 114 operation button 116 operation button 120 video information interface 122 display image interface 123 cable 124 cable 125 storage 126 controller unit 127 external interface 150 processor 153 hard disk device 154 graphics board 155 display 156 Detection Device 157 Network Interface 158 External Device Connection Interface 201 Snapshot Table 202 Representative Image Table 211 Video Acquisition Unit 212 Mode Switching Control Unit 213 Touch Panel Control Unit 214 Handwriting Processing Unit 215 Video Processing Unit 216 Display Control Unit 217 Snapshot Storage Unit 218 Event transfer unit 219 Representative image storage unit 301 Stroke 310 Application Window 330 Representative Image Display Lane 331 Button 332 Button 333 Representative Image 334 Representative Image 340 Related Snapshot Display Lane 343 Representative Image 344 Snapshot

特開2008−33393号公報JP 2008-33393 A

Claims (3)

映像情報出力装置から受信した映像情報を表示領域に表示する表示制御部と、
描画画像を前記映像情報に重畳描画する重畳描画部と、
前記描画画像が重畳描画される第1の状態と、前記描画画像が描画されない第2の状態とを切り替える切替制御部と、
前記切替制御部により前記第1の状態に切り替えられると、第1の画像情報を格納し、前記切替制御部により前記第2の状態に切り替えられると、第2の画像情報を前記第1の画像情報に関連付けて格納することを特徴とする画像表示装置。
A display control unit for displaying video information received from the video information output device in a display area;
A superimposing drawing unit for superposing and drawing a drawing image on the video information;
A switching control unit that switches between a first state in which the drawing image is superimposed and a second state in which the drawing image is not drawn;
When the switching control unit switches to the first state, the first image information is stored, and when the switching control unit switches to the second state, the second image information is stored in the first image. An image display device characterized by being stored in association with information.
画像表示装置で実行される画像表示方法であって、
映像情報出力装置から受信した映像情報を表示領域に表示する表示制御工程と、
描画画像を前記映像情報に重畳描画する重畳描画工程と、
前記描画画像が重畳描画される第1の状態と、前記描画画像が描画されない第2の状態とを切り替える切替制御工程と、
前記切替制御部により前記第1の状態に切り替えられると、第1の画像情報を格納し、前記切替制御部により前記第2の状態に切り替えられると、第2の画像情報を前記第1の画像情報に関連付けて格納する格納工程と、を含むことを特徴とする画像表示方法。
An image display method executed by an image display device,
A display control step of displaying video information received from the video information output device in a display area;
A superimposing drawing step of superposing and drawing a drawing image on the video information;
A switching control step for switching between a first state in which the drawn image is drawn and a second state in which the drawn image is not drawn;
When the switching control unit switches to the first state, the first image information is stored, and when the switching control unit switches to the second state, the second image information is stored in the first image. A storage step of storing the information in association with the information.
映像情報出力装置から受信した映像情報を表示領域に表示する表示制御ステップと、
描画画像を前記映像情報に重畳描画する重畳描画ステップと、
前記描画画像が重畳描画される第1の状態と、前記描画画像が描画されない第2の状態とを切り替える切替制御ステップと、
前記切替制御部により前記第1の状態に切り替えられると、第1の画像情報を格納し、前記切替制御部により前記第2の状態に切り替えられると、第2の画像情報を前記第1の画像情報に関連付けて格納する格納ステップと、
をコンピュータに実行させるための画像表示プログラム。
A display control step for displaying video information received from the video information output device in a display area;
A superimposing drawing step of superposing and drawing a drawing image on the video information;
A switching control step for switching between a first state in which the drawn image is drawn in a superimposed manner and a second state in which the drawn image is not drawn;
When the switching control unit switches to the first state, the first image information is stored, and when the switching control unit switches to the second state, the second image information is stored in the first image. A storing step for storing the information in association with the information;
Display program for causing a computer to execute.
JP2015109054A 2015-05-28 2015-05-28 Image display device, image display method, and image display program Expired - Fee Related JP5994903B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015109054A JP5994903B2 (en) 2015-05-28 2015-05-28 Image display device, image display method, and image display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015109054A JP5994903B2 (en) 2015-05-28 2015-05-28 Image display device, image display method, and image display program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011201905A Division JP5760886B2 (en) 2011-09-15 2011-09-15 Image display device, image display method, and image display program

Publications (2)

Publication Number Publication Date
JP2015181040A JP2015181040A (en) 2015-10-15
JP5994903B2 true JP5994903B2 (en) 2016-09-21

Family

ID=54329237

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015109054A Expired - Fee Related JP5994903B2 (en) 2015-05-28 2015-05-28 Image display device, image display method, and image display program

Country Status (1)

Country Link
JP (1) JP5994903B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7082587B2 (en) * 2019-03-20 2022-06-08 株式会社日立製作所 Image processing device, image processing method and image processing system

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003008805A (en) * 2001-06-26 2003-01-10 Matsushita Electric Ind Co Ltd Electronic blackboard system
JP4250884B2 (en) * 2001-09-05 2009-04-08 パナソニック株式会社 Electronic blackboard system
JP4439462B2 (en) * 2005-11-29 2010-03-24 株式会社東芝 Information presenting method, information presenting apparatus, and information presenting program
JP5031291B2 (en) * 2006-07-26 2012-09-19 株式会社日立ソリューションズ Digest creation device, digest creation method, and program
JP5543055B2 (en) * 2007-04-25 2014-07-09 キヤノン株式会社 Display control method, display control apparatus, and program

Also Published As

Publication number Publication date
JP2015181040A (en) 2015-10-15

Similar Documents

Publication Publication Date Title
JP5760886B2 (en) Image display device, image display method, and image display program
KR102627342B1 (en) Touch sensing system and contrlling method of the same
US20150199125A1 (en) Displaying an application image on two or more displays
JP5915143B2 (en) Electronic information board device
US11209921B2 (en) Electronic blackboard, storage medium, and information display method
CN103744582A (en) Terminal control device and terminal control method
US20160196034A1 (en) Touchscreen Control Method and Terminal Device
CN107168632B (en) Processing method of user interface of electronic equipment and electronic equipment
JP6349800B2 (en) Gesture recognition device and method for controlling gesture recognition device
US9846529B2 (en) Method for processing information and electronic device
CN106547429B (en) Display method and device for electronic terminal
RU2016106288A (en) METHOD AND DEVICE FOR PROVIDING USER GRAPHIC INTERFACE
CN106325726B (en) Touch interaction method
US20170090710A1 (en) Display control device and display control method
JP5075975B2 (en) Information processing apparatus, information processing method, and program
US20170242498A1 (en) Passive Chopsticks Stylus System for Capacitive Touch Screens
JP5994903B2 (en) Image display device, image display method, and image display program
JP5949010B2 (en) INPUT CONTROL DEVICE, INPUT CONTROL PROGRAM, AND INPUT CONTROL METHOD
JP5204343B1 (en) Test system and program
WO2019024507A1 (en) Touch control method and device, and terminal
WO2016206438A1 (en) Touch screen control method and device and mobile terminal
JP5390674B2 (en) Information processing apparatus, information processing method, and program
US20120013550A1 (en) Method for controlling the interactions of a user with a given zone of a touch screen panel
WO2018161421A1 (en) Performance test method and performance test apparatus for touch display screen of terminal device
US20180239486A1 (en) Control method, electronic blackboard system, display device, and program

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160808

R151 Written notification of patent or utility model registration

Ref document number: 5994903

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees