JP2010074639A - Information processing apparatus and system - Google Patents

Information processing apparatus and system Download PDF

Info

Publication number
JP2010074639A
JP2010074639A JP2008241166A JP2008241166A JP2010074639A JP 2010074639 A JP2010074639 A JP 2010074639A JP 2008241166 A JP2008241166 A JP 2008241166A JP 2008241166 A JP2008241166 A JP 2008241166A JP 2010074639 A JP2010074639 A JP 2010074639A
Authority
JP
Japan
Prior art keywords
annotation
information
information processing
external terminal
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008241166A
Other languages
Japanese (ja)
Inventor
Atsushi Shingu
淳 新宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2008241166A priority Critical patent/JP2010074639A/en
Publication of JP2010074639A publication Critical patent/JP2010074639A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an information processing apparatus and an information processing system in which a user at an information processing apparatus side is enabled to grasp information about a user, who wrote an annotation, or about an external terminal. <P>SOLUTION: When an annotation is written into an image photographed by a first camera 5, a CPU 201 of a client 2 displays on a monitor 20 the written annotation and ID information of the client 2 (information about a user who wrote the annotation or about an external terminal) and transmits to a server 1 the written annotation and the ID information of the client 2. A CPU 101 of the server 1 receives the written annotation and the ID information of the client 2 from the client 2 and projects the received annotation and ID information on the client 2 on a projector 7. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、情報処理装置及び情報処理システムに関する。   The present invention relates to an information processing apparatus and an information processing system.

従来より、カメラ及びプロジェクタが接続されているサーバ(例えばコンピュータ)と、ネットワークを介して当該サーバに接続される遠隔地のクライアント(例えばコンピュータ)とを備える遠隔指示システムが知られている(例えば、特許文献1、2参照)。   Conventionally, a remote instruction system including a server (for example, a computer) to which a camera and a projector are connected and a remote client (for example, a computer) connected to the server via a network is known (for example, (See Patent Documents 1 and 2).

この遠隔指示システムでは、サーバに接続されているカメラが対象物を撮影し、ネットワークを介して撮影画像をクライアントに送信する。クライアントは、表示装置の表示画面に撮影画像を表示し、当該表示画面上にアノテーションなどが書き込まれると、当該アノテーションをネットワークを介してサーバに送信する。サーバは受信したアノテーションをプロジェクタに送信し、プロジェクタは受信したアノテーションを含む投影領域の適切な位置(これは、クライアントが、撮影画像の範囲内でアノテーションを書き込んだ位置に対応する)に投影する。
米国特許公開2004/0070674号公報 特開2005−33756号公報
In this remote instruction system, a camera connected to a server captures an object and transmits a captured image to a client via a network. The client displays the captured image on the display screen of the display device, and when an annotation or the like is written on the display screen, the client transmits the annotation to the server via the network. The server transmits the received annotation to the projector, and the projector projects it to an appropriate position of the projection area including the received annotation (this corresponds to the position where the client wrote the annotation within the range of the captured image).
US Patent Publication No. 2004/0070674 JP 2005-33756 A

本発明の目的は、情報処理装置側のユーザが、注釈を書き込んだユーザ又は外部端末に関する情報を把握することができる情報処理装置及び情報処理システムを提供することにある。   An object of the present invention is to provide an information processing apparatus and an information processing system in which a user on the information processing apparatus side can grasp information related to a user who has written an annotation or an external terminal.

上記目的を達成するため、請求項1の情報処理装置は、外部端末からの注釈及び当該注釈を書き込んだユーザ又は前記外部端末に関する情報を受信する受信手段と、前記受信手段で受信された注釈及び当該注釈を書き込んだユーザ又は前記外部端末に関する情報を、対象物を含む投影領域に投影する投影手段と、前記投影領域を撮影する撮影手段と、前記撮影手段で撮影された画像を前記外部端末に送信する送信手段と、を有することを特徴とする。   In order to achieve the above object, the information processing apparatus according to claim 1 includes: a receiving unit that receives an annotation from an external terminal and a user who has written the annotation or information related to the external terminal; an annotation received by the receiving unit; Projecting means for projecting information related to the user who wrote the annotation or the external terminal onto a projection area including an object, photographing means for photographing the projection area, and an image photographed by the photographing means to the external terminal Transmitting means for transmitting.

請求項2の情報処理装置は、請求項1に記載の情報処理装置において、前記投影手段は、前記注釈を書き込んだユーザ又は前記外部端末に関する情報をあらかじめ設定された時間内で投影することを特徴とする。   The information processing apparatus according to claim 2 is the information processing apparatus according to claim 1, wherein the projection unit projects the information about the user who wrote the annotation or the information regarding the external terminal within a preset time. And

請求項3の情報処理システムは、投影装置、及び対象物を含む、当該投影装置の投影領域を撮影する撮影装置に接続可能な情報処理装置、及び当該情報処理装置及び第1表示装置に接続される外部端末を有する情報処理システムであって、前記外部端末は、前記撮影装置で撮影された画像に注釈を書き込む書込手段と、前記書込手段により書き込まれた注釈及び当該注釈を書き込んだユーザ又は前記外部端末に関する情報を前記第1表示装置に表示させる第1制御手段と、前記書込手段により書き込まれた注釈及び当該注釈を書き込んだユーザ又は前記外部端末に関する情報を前記情報処理装置に送信する第1送受信手段とを備え、前記情報処理装置は、前記外部端末から前記書き込まれた注釈及び当該注釈を書き込んだユーザ又は前記外部端末に関する情報を受信する第2送受信手段と、前記受信された注釈及び当該受信された注釈を書き込んだユーザ又は前記外部端末に関する情報を前記投影装置に投影させる第2制御手段とを備えることを特徴とする。   The information processing system according to claim 3 is connected to the information processing device that includes the projection device and the object, and that can be connected to an imaging device that images the projection area of the projection device, and the information processing device and the first display device. The external terminal includes a writing unit that writes an annotation to an image captured by the imaging device, a comment that is written by the writing unit, and a user that writes the annotation Alternatively, a first control unit that displays information on the external terminal on the first display device, and an annotation written by the writing unit and a user who wrote the annotation or information on the external terminal are transmitted to the information processing device. A first transmission / reception means, wherein the information processing apparatus is configured to receive the written annotation and the user who wrote the annotation from the external terminal or the external A second transmission / reception unit configured to receive information about a terminal; and a second control unit configured to cause the projection apparatus to project information about the received annotation and a user who wrote the received annotation or the external terminal. And

請求項4の情報処理システムは、請求項3に記載の情報処理システムにおいて、前記第1表示装置は、前記撮影装置で撮影された画像を表示する第1表示領域と当該画像以外の情報を表示する第2表示領域とを含み、前記第1制御手段は、前記書込手段により書き込まれた注釈を前記第1表示領域に表示させ、前記注釈を書き込んだユーザ又は前記外部端末に関する情報を前記第2表示領域に表示させ、前記投影装置は、前記投影領域に前記受信された注釈及び当該受信された注釈を書き込んだユーザ又は前記外部端末に関する情報を投影することを特徴とする。   The information processing system according to claim 4 is the information processing system according to claim 3, wherein the first display device displays a first display area for displaying an image photographed by the photographing device and information other than the image. The first display means displays the annotation written by the writing means on the first display area, and displays information about the user who wrote the annotation or the external terminal in the first display area. Two projection areas are displayed, and the projection apparatus projects the received annotation and information related to the user who has written the received annotation or the external terminal onto the projection area.

請求項5の情報処理システムは、請求項3又は4に記載の情報処理システムにおいて、前記情報処理装置は、前記撮影装置で連続撮影された画像に基づいて、前記対象物に直接書き込まれた注釈又は前記対象物の移動を検出する検出手段を備え、前記第2送受信手段は、前記検出手段が前記対象物に直接書き込まれた注釈又は前記対象物の移動を検出した場合に、前記撮影装置で連続撮影された画像及び前記情報処理装置に関する情報を前記外部端末に送信し、前記第1送受信手段は、前記撮影装置で連続撮影された画像及び前記情報処理装置に関する情報を前記情報処理装置から受信し、前記第1制御手段は、前記受信手段により受信された前記撮影装置で連続撮影された画像及び前記情報処理装置に関する情報を前記第1表示装置に表示させることを特徴とする。   The information processing system according to claim 5 is the information processing system according to claim 3 or 4, wherein the information processing device is an annotation directly written on the object based on images continuously photographed by the photographing device. Or a detecting means for detecting the movement of the object, wherein the second transmitting / receiving means uses the photographing apparatus when the detecting means detects an annotation written directly on the object or a movement of the object. The continuously captured image and information related to the information processing device are transmitted to the external terminal, and the first transmitting / receiving unit receives the image continuously captured by the capturing device and information related to the information processing device from the information processing device. The first control means displays on the first display device the images continuously taken by the photographing device received by the receiving means and information on the information processing device. And characterized in that.

請求項6の情報処理システムは、請求項3乃至5のいずれか1項に記載の情報処理システムにおいて、前記情報処理装置には、複数の外部端末が接続されており、前記複数の外部端末の各々は、前記書込手段と、前記第1制御手段と、前記第1送受信手段とを備え、前記第1送受信手段が他の外部端末の書込手段により書き込まれた注釈及び当該注釈を書き込んだユーザ又は当該他の外部端末に関する情報を受信した場合に、前記第1制御手段は、当該受信された注釈及び当該受信された注釈を書き込んだユーザ又は当該他の外部端末に関する情報を前記第1表示装置に表示させることを特徴とする。   An information processing system according to a sixth aspect is the information processing system according to any one of the third to fifth aspects, wherein a plurality of external terminals are connected to the information processing apparatus. Each includes the writing means, the first control means, and the first transmission / reception means, and the first transmission / reception means writes the annotation written by the writing means of another external terminal and the annotation. When receiving information related to the user or the other external terminal, the first control means displays the received annotation and the information related to the user who wrote the received annotation or the other external terminal in the first display. It is displayed on a device.

請求項7の情報処理システムは、請求項6に記載の情報処理システムにおいて、前記第1表示装置には、前記情報処理装置側のユーザの仮想画像及び前記情報処理装置に関する情報並びに他の外部端末のユーザの仮想画像及び当該他の外部端末に関する情報が表示されることを特徴とする。   The information processing system according to claim 7 is the information processing system according to claim 6, wherein the first display device includes a virtual image of the user on the information processing device side, information on the information processing device, and other external terminals. The user's virtual image and information on the other external terminal are displayed.

請求項8の情報処理システムは、請求項6又は7に記載の情報処理システムにおいて、前記情報処理装置には、第2表示装置が接続されており、前記第2表示装置には、前記情報処理装置に接続されている各外部端末のユーザの仮想画像及び当該各外部端末に関する情報が表示されることを特徴とする。   The information processing system according to claim 8 is the information processing system according to claim 6 or 7, wherein a second display device is connected to the information processing device, and the information processing device includes the information processing system. A virtual image of a user of each external terminal connected to the apparatus and information regarding each external terminal are displayed.

請求項1の発明によれば、情報処理装置側のユーザが、注釈を書き込んだユーザ又は外部端末に関する情報を把握することができる。   According to the first aspect of the invention, the user on the information processing apparatus side can grasp information related to the user who wrote the annotation or the external terminal.

請求項2の発明によれば、注釈及び注釈を書き込んだユーザ又は外部端末に関する情報を投影させた上で、あらかじめ定められた時間経過後には注釈だけを表示させることができる。   According to the second aspect of the present invention, it is possible to display only the annotation after a predetermined time has elapsed after projecting the annotation and information on the user or the external terminal to which the annotation has been written.

請求項3の発明によれば、情報処理装置側のユーザ及び外部端末側のユーザが、注釈を書き込んだユーザ又は外部端末に関する情報を把握することができる。 According to the third aspect of the present invention, the user on the information processing apparatus side and the user on the external terminal side can grasp the information related to the user who wrote the annotation or the external terminal.

請求項4の発明によれば、注釈を書き込んだユーザ又は外部端末に関する情報の第1表示装置上おける表示位置と当該注釈を書き込んだユーザ又は外部端末に関する情報の投影位置との位置関係をずらすことができる。   According to invention of Claim 4, the positional relationship of the display position on the 1st display device of the information regarding the user or external terminal which wrote the annotation and the projection position of the information regarding the user or external terminal which wrote the annotation is shifted. Can do.

請求項5の発明によれば、外部端末側のユーザは、情報処理装置側のユーザにより対象物に直接注釈が書き込まれたこと又は対象物が移動されたことを把握することができる。   According to the invention of claim 5, the user on the external terminal side can grasp that the annotation is directly written on the object or the object is moved by the user on the information processing apparatus side.

請求項6の発明によれば、外部端末側のユーザは、他の外部端末のユーザにより書き込まれた注釈及び当該注釈を書き込んだユーザ又は他の外部端末に関する情報を把握することができる。   According to the invention of claim 6, the user on the external terminal side can grasp the annotation written by the user of the other external terminal and the information related to the user who wrote the annotation or the other external terminal.

請求項7の発明によれば、情報処理装置側のユーザの仮想画像及び情報処理装置に関する情報並びに他の外部端末のユーザの仮想画像及び他の外部端末に関する情報が表示されない場合に比べて、臨場感のあるコミュニケーションが可能となる。   According to the seventh aspect of the present invention, compared to the case where the virtual image of the user on the information processing device side and the information related to the information processing device and the virtual image of the user of other external terminal and the information related to the other external terminal are not displayed, Communication with feeling is possible.

請求項8の発明によれば、情報処理装置に接続されている各外部端末のユーザの仮想画像及び当該各外部端末に関する情報が表示されない場合と比べて、臨場感のあるコミュニケーションが可能となる。   According to the eighth aspect of the present invention, realistic communication is possible compared to a case where a virtual image of a user of each external terminal connected to the information processing apparatus and information regarding each external terminal are not displayed.

以下、本発明の実施の形態について、図面を参照して説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1は、本発明の実施の形態に係る情報処理システムの構成を示すブロック図である。   FIG. 1 is a block diagram showing a configuration of an information processing system according to an embodiment of the present invention.

図1の情報処理システムは、コンピュータで構成されるサーバ1(情報処理装置)及びクライアント2,3を備えており、これらは、ネットワーク4を介して互いに接続されている。サーバ1には、第1カメラ5(撮影装置、撮影手段)、第2カメラ9、プロジェクタ7(投影装置、投影手段)及びモニタ10(第2表示装置)が接続されている。   The information processing system in FIG. 1 includes a server 1 (information processing apparatus) configured by a computer and clients 2 and 3, which are connected to each other via a network 4. The server 1 is connected to a first camera 5 (imaging device, imaging means), a second camera 9, a projector 7 (projection device, projection means), and a monitor 10 (second display device).

プロジェクタ7は、サーバ1からの制御コマンドに基づいて、対象物8に対して、ハーフミラー6を介して単なる光線を照射する又はクライアント2,3から入力されたアノテーション(注釈)等を投影する。尚、アノテーションは、線、文字、記号、図形、色、フォント(書体)等を含む。   Based on the control command from the server 1, the projector 7 irradiates the object 8 with a simple light beam via the half mirror 6 or projects an annotation (annotation) input from the clients 2 and 3. Note that the annotation includes a line, a character, a symbol, a figure, a color, a font (typeface), and the like.

第1カメラ5は、ビデオカメラで構成され、対象物8の反射画像をハーフミラー6を介して撮影し、撮影画像をサーバ1に出力する。第1カメラ5の光軸及び画角は、プロジェクタ7の光軸及び画角と一致する。第1カメラ5は、対象物8を定期的に(例えば、0.1秒間隔で)静止画像としてキャプチャする。第2カメラ9は、対象物8が置かれた場所や対象物8の周りのユーザを撮影する。   The first camera 5 is composed of a video camera, captures a reflected image of the object 8 through the half mirror 6, and outputs the captured image to the server 1. The optical axis and field angle of the first camera 5 coincide with the optical axis and field angle of the projector 7. The first camera 5 captures the object 8 as a still image periodically (for example, at intervals of 0.1 seconds). The second camera 9 photographs a place where the object 8 is placed and a user around the object 8.

サーバ1は、第1カメラ5により撮影された撮影画像をモニタ10に表示すると共にネットワーク4を介してクライアント2,3に出力する。クライアント2,3には、モニタ20,30がそれぞれ接続されており、モニタ20,30(第1表示装置)は、撮影画像の表示領域15及びユーザインターフェース(UI)14を表示する。各表示領域15は、第1カメラ5により撮影された撮影画像を表示する。尚、クライアント2,3は、モニタ20,30を備える一体型のコンピュータで構成してもよい。   The server 1 displays the captured image captured by the first camera 5 on the monitor 10 and outputs it to the clients 2 and 3 via the network 4. Monitors 20 and 30 are respectively connected to the clients 2 and 3, and the monitors 20 and 30 (first display device) display a captured image display area 15 and a user interface (UI) 14. Each display area 15 displays a captured image captured by the first camera 5. The clients 2 and 3 may be constituted by an integrated computer including the monitors 20 and 30.

UI14は、ペン、テキスト、及び消去などのボタン群と、線種や色種のアイコンとを含む。同図においては、対象物8を第1カメラ5により撮影した撮影画像が表示領域15に表示されている。例えば、モニタ20のUI14のペンボタンが押下されて、表示領域15内の対象物8上にアノテーションが記載されると、当該アノテーションの情報(具体的には座標データ)がクライアント2からサーバ1へ出力される。サーバ1は、このアノテーションの情報(具体的には座標データ)をデコードし、プロジェクタ7用の投影画像に変換し、プロジェクタ7に出力する。プロジェクタ7は当該投影画像を対象物8上に投写する。   The UI 14 includes a group of buttons such as pen, text, and erase, and icons of line types and color types. In the figure, a captured image obtained by photographing the object 8 with the first camera 5 is displayed in the display area 15. For example, when the pen button on the UI 14 of the monitor 20 is pressed and an annotation is described on the object 8 in the display area 15, the annotation information (specifically, coordinate data) is transferred from the client 2 to the server 1. Is output. The server 1 decodes the annotation information (specifically, coordinate data), converts it into a projection image for the projector 7, and outputs it to the projector 7. The projector 7 projects the projection image on the object 8.

また、クライアント2及びクライアント3は、サーバ1に対して制御コマンドを出力し、プロジェクタ7及び第1カメラ5の動作(例えば、第1カメラ5の撮影角度、第1カメラ5の撮影画像の明るさ、並びにプロジェクタ7の投影画像の明るさなど)を制御することができる。カメラ11及び12は、それぞれクライアント2,3に接続されており、クライアント2,3のユーザを撮影する。   Further, the client 2 and the client 3 output a control command to the server 1, and the operations of the projector 7 and the first camera 5 (for example, the shooting angle of the first camera 5 and the brightness of the shot image of the first camera 5). And the brightness of the projection image of the projector 7 can be controlled. The cameras 11 and 12 are connected to the clients 2 and 3, respectively, and take pictures of the users of the clients 2 and 3.

尚、同図においては、クライアントとしてクライアント2、3が記載されているが、情報処理システムは、3台以上のクライアント(クライアント)を備えていてもよい。   In the figure, although the clients 2 and 3 are described as clients, the information processing system may include three or more clients (clients).

図2は、サーバ1及びクライアント2,3のハードウエア構成を示すブロック図である。サーバ1のハードウエア構成は、クライアント2,3のハードウエア構成と同一であるので、ここではサーバ1のハードウエア構成について説明する。尚、図2において、201〜209番の符号は、クライアント2の構成要素を示し、301〜309番の符号は、クライアント3の構成要素を示す。   FIG. 2 is a block diagram showing the hardware configuration of the server 1 and the clients 2 and 3. Since the hardware configuration of the server 1 is the same as that of the clients 2 and 3, the hardware configuration of the server 1 will be described here. In FIG. 2, reference numerals 201 to 209 indicate constituent elements of the client 2, and reference numerals 301 to 309 indicate constituent elements of the client 3.

サーバ1は、装置全体を制御するCPU101、制御プログラムを備えるROM102、ワーキングエリアとして機能するRAM103、各種の情報やプログラムを備えるハードディスクドライブ(HDD)104、キーボード及びマウスが接続されるキー入力端子105、他のコンピュータと接続するためのネットワークインタフェース106、モニタを接続するためのビデオインターフェース107、及び不図示のUSB機器と接続するためのUSB(universal serial bus)インタフェース108を備えている。CPU101は、システムバス109を介してROM102、RAM103、ハードディスクドライブ(HDD)104、キー入力端子105、ネットワークインタフェース106、ビデオインターフェース107及びUSBインタフェース108に接続されている。   The server 1 includes a CPU 101 for controlling the entire apparatus, a ROM 102 having a control program, a RAM 103 functioning as a working area, a hard disk drive (HDD) 104 having various information and programs, a key input terminal 105 to which a keyboard and a mouse are connected, A network interface 106 for connecting to another computer, a video interface 107 for connecting a monitor, and a USB (universal serial bus) interface 108 for connecting to a USB device (not shown) are provided. The CPU 101 is connected to a ROM 102, a RAM 103, a hard disk drive (HDD) 104, a key input terminal 105, a network interface 106, a video interface 107, and a USB interface 108 via a system bus 109.

サーバ1のHDD104は、サーバ1の所在地(例えば部屋番号、会議室名など)を示す所在地ID、サーバ1を識別するための端末ID、クライアント2又は3からアクセスするユーザのユーザIDを認証するデータベースを備えている。HDD204は、クライアント2の所在地(例えば部屋番号、会議室名など)を示す所在地ID及びクライアント2を識別するための端末IDを備えている。HDD304は、クライアント3の所在地(例えば部屋番号、会議室名など)を示す所在地ID及びクライアント3を識別するための端末IDを備えている。   The HDD 104 of the server 1 authenticates a location ID indicating the location of the server 1 (for example, a room number, a meeting room name, etc.), a terminal ID for identifying the server 1, and a user ID of a user accessing from the client 2 or 3. It has. The HDD 204 includes a location ID indicating the location of the client 2 (for example, a room number, a conference room name, etc.) and a terminal ID for identifying the client 2. The HDD 304 includes a location ID indicating the location of the client 3 (for example, a room number, a conference room name, etc.) and a terminal ID for identifying the client 3.

キー入力端子205は書込手段を構成し、CPU201は第1制御手段及び第1送受信手段を構成する。CPU101は、第2送受信手段、第2制御手段及び検出手段を構成する。   The key input terminal 205 constitutes writing means, and the CPU 201 constitutes first control means and first transmission / reception means. The CPU 101 constitutes second transmission / reception means, second control means, and detection means.

図3は、アノテーションがクライアント2で書き込まれた場合に、情報処理システムで実行される処理を示すフローチャートである。   FIG. 3 is a flowchart showing processing executed by the information processing system when annotation is written by the client 2.

まず、クライアント2のCPU201は、キー入力端子205から入力されたユーザIDを取得し(ステップS1)、アノテーションがモニタ20の表示領域15に書き込まれた否かを判別する(ステップS2)。尚、CPU201は、アノテーションの座標データがキー入力端子205から入力されると、アノテーションがモニタ20の表示領域15に書き込まれたと判別する。   First, the CPU 201 of the client 2 acquires the user ID input from the key input terminal 205 (step S1), and determines whether or not the annotation is written in the display area 15 of the monitor 20 (step S2). Note that when the annotation coordinate data is input from the key input terminal 205, the CPU 201 determines that the annotation has been written in the display area 15 of the monitor 20.

ステップS2でNOの場合には、本処理を終了する。一方、ステップS2でYESの場合には、CPU201は、アノテーションの座標データ及びクライアント2のID情報をサーバ1に送信する(ステップS3)。尚、クライアント2のID情報は、所在地ID、クライアント2の端末ID及びステップS1のユーザIDを含む。   If NO in step S2, this process ends. On the other hand, if YES in step S2, the CPU 201 transmits the coordinate data of the annotation and the ID information of the client 2 to the server 1 (step S3). The ID information of the client 2 includes the location ID, the terminal ID of the client 2, and the user ID in step S1.

次いで、サーバ1のCPU101は、クライアント2からアノテーションの座標データ及びクライアント2のID情報を受信しているか否かを判別する(ステップS4)。ステップS4でNOの場合には、当該判別を繰り返す。一方、ステップS4でYESの場合には、CPU101は、アノテーションの座標データ及びクライアント2のID情報をプロジェクタ7に送信し、アノテーション及びクライアント2のID情報をプロジェクタ7に投影させる(ステップS5)。   Next, the CPU 101 of the server 1 determines whether or not the annotation coordinate data and the client 2 ID information are received from the client 2 (step S4). If NO in step S4, the determination is repeated. On the other hand, if YES in step S4, the CPU 101 transmits the annotation coordinate data and the ID information of the client 2 to the projector 7, and causes the projector 7 to project the annotation and the ID information of the client 2 (step S5).

図4は、対象物8に投影されたアノテーション及びクライアント2のID情報の例を示す図である。   FIG. 4 is a diagram illustrating an example of the annotation projected on the object 8 and the ID information of the client 2.

CPU101は、キー入力端子105からの入力又はクライアント2,3からの入力に応じて、クライアント2のID情報の表示位置を予めサーバ1のHDD104に設定する。例えば、クライアント2のID情報の表示位置は、予め設定された4つの座標で指定されてもよい。この場合、クライアント2のID情報は、予め設定された4つの座標で囲まれる領域に表示される。また、例えば、アノテーションの右上端の座標(x1、y1)を基準として、クライアント2のID情報の表示位置の右上端の座標(例えば、(x1+500、y1+50)を特定してもよい。尚、クライアント2のID情報の表示位置はプロジェクタ7で投影できる範囲内に設定される。   The CPU 101 presets the display position of the ID information of the client 2 in the HDD 104 of the server 1 in response to an input from the key input terminal 105 or an input from the clients 2 and 3. For example, the display position of the ID information of the client 2 may be designated by four preset coordinates. In this case, the ID information of the client 2 is displayed in an area surrounded by four preset coordinates. Further, for example, the coordinates of the display position of the ID information of the client 2 (for example, (x1 + 500, y1 + 50)) may be specified on the basis of the coordinates (x1, y1) of the upper right edge of the annotation. The display position of ID information 2 is set within a range that can be projected by the projector 7.

図3に戻り、CPU101は、クライアント2以外のクライアント(例えば、クライアント3)がサーバ1に接続されているか否かを判別する(ステップS6)。ステップS6でNOの場合は、本処理を終了する。一方、ステップS6でYESの場合には、CPU101は、クライアント2のアノテーションの座標データ及びクライアント2のID情報をクライアント3に送信する(ステップS7)。   Returning to FIG. 3, the CPU 101 determines whether or not a client other than the client 2 (for example, the client 3) is connected to the server 1 (step S6). If NO in step S6, this process ends. On the other hand, if YES in step S6, the CPU 101 transmits the annotation coordinate data of the client 2 and the ID information of the client 2 to the client 3 (step S7).

次いで、クライアント3のCPU301は、他のクライアントのアノテーションの座標データ及びID情報(即ち、クライアント2のアノテーションの座標データ及びID情報)を受信したか否かを判別する(ステップS8)。ステップS8でNOの場合には、本判別を繰り返す。一方、ステップS8でYESの場合には、CPU301は、クライアント2のアノテーション及びID情報をモニタ30に表示させ(ステップS9)、本処理を終了する。   Next, the CPU 301 of the client 3 determines whether or not the coordinate data and ID information of another client's annotation (that is, the coordinate data and ID information of the annotation of the client 2) has been received (step S8). If NO in step S8, this determination is repeated. On the other hand, if YES in step S8, the CPU 301 displays the annotation and ID information of the client 2 on the monitor 30 (step S9), and ends this process.

図5(A),(B)は、モニタ30に表示されるアノテーション及びクライアント2のID情報の例を示す図である。   5A and 5B are diagrams showing examples of annotations displayed on the monitor 30 and ID information of the client 2. FIG.

図5(A),(B)において、破線16は、第1カメラ5からの撮影画像の表示領域を示す。表示領域16は、各種のデータや情報などを表示することが可能な表示領域15の一部を構成する。   5A and 5B, a broken line 16 indicates a display area of a captured image from the first camera 5. The display area 16 constitutes a part of the display area 15 that can display various data and information.

CPU301は、キー入力端子305からの入力又はクライアント2又はサーバ1からの入力に応じて、ID情報の表示位置を予めクライアント3のHDD304に設定する。例えば、ID情報の表示位置は、予め設定された4つの座標で指定されてもよい。この場合、ID情報は、予め設定された4つの座標で囲まれる領域に表示される。また、例えば、アノテーションの右上端の座標(x1、y1)を基準として、ID情報の表示位置の右上端の座標(例えば、(x1+500、y1+50)を特定してもよい。   The CPU 301 sets the display position of the ID information in the HDD 304 of the client 3 in advance in response to an input from the key input terminal 305 or an input from the client 2 or the server 1. For example, the display position of the ID information may be designated by four preset coordinates. In this case, the ID information is displayed in an area surrounded by four preset coordinates. For example, the coordinates of the upper right end of the display position of the ID information (for example, (x1 + 500, y1 + 50)) may be specified based on the coordinates (x1, y1) of the upper right end of the annotation.

また、図5(A)に示すように、ID情報の表示位置は、他のクライアント(例えば、クライアント2)で指定されたID情報の表示位置と同一であってもよい。また、ID情報の表示位置は、他のクライアント(例えば、クライアント2)で指定されたID情報の表示位置又はプロジェクタ7のID情報の投影位置と異なっていてもよい。   Further, as shown in FIG. 5A, the display position of the ID information may be the same as the display position of the ID information specified by another client (for example, the client 2). Further, the display position of the ID information may be different from the display position of the ID information specified by another client (for example, the client 2) or the projection position of the ID information of the projector 7.

さらに、図5(B)に示すように、ID情報の表示位置は、表示領域15内で撮影画像の表示領域16と重ならない部分であってもよい。これにより、例えば、モニタ20でアノテーションとID情報とが重なって表示されていても、モニタ30では、アノテーションとID情報とが分離されて、アノテーションの全体が表示される。   Further, as shown in FIG. 5B, the display position of the ID information may be a portion that does not overlap the display area 16 of the captured image in the display area 15. Thereby, for example, even if the annotation and the ID information are displayed overlappingly on the monitor 20, the annotation and the ID information are separated on the monitor 30, and the entire annotation is displayed.

ID情報の表示タイミングは、アノテーションが表示領域15に書き込まれたとき、アノテーションが編集されたとき、又はアノテーションが消去されたときである。また、ID情報の表示を消去するタイミングは、次のアノテーションが表示領域15に書き込まれたとき、又はアノテーションが書き込まれて、一定時間(例えば10秒)経過したときである。   The display timing of the ID information is when the annotation is written in the display area 15, when the annotation is edited, or when the annotation is deleted. The timing for deleting the display of the ID information is when the next annotation is written in the display area 15 or when a certain time (for example, 10 seconds) has passed since the annotation was written.

図6は、アノテーションがモニタ20の表示領域15に書き込まれているときのモニタ10及び20の表示状態を示す図である。   FIG. 6 is a diagram illustrating a display state of the monitors 10 and 20 when annotations are written in the display area 15 of the monitor 20.

クライアント2,3がサーバ1に接続されている場合には、クライアント2のCPU201は、サーバ1からクライアント3がサーバ1に接続されていることを示す情報、及びクライアント3のID情報を受信し、モニタ20の表示領域15にクライアント3のユーザを示すアバタ19及びクライアント3のID情報を表示させる。アバタは、ネットワーク上で人や物を示すバーチャル画像である。尚、クライアント2、3のID情報の表示位置はクライアント2のCPU201により予め設定されているものとする。   When the clients 2 and 3 are connected to the server 1, the CPU 201 of the client 2 receives information indicating that the client 3 is connected to the server 1 and the ID information of the client 3 from the server 1, The avatar 19 indicating the user of the client 3 and the ID information of the client 3 are displayed in the display area 15 of the monitor 20. An avatar is a virtual image showing people and things on the network. Note that the display position of the ID information of the clients 2 and 3 is set in advance by the CPU 201 of the client 2.

また、CPU201は、アノテーションがモニタ20の表示領域15に書き込まれているときに、クライアント2のユーザの手を示すアバタ18a及びクライアント2のID情報を表示領域15に表示させる。アバタ18a及びアバタ19はクライアント2のID情報と関連付けられて、予めHDD204に格納されている。   Further, the CPU 201 causes the display area 15 to display the avatar 18 a indicating the user's hand of the client 2 and the ID information of the client 2 when the annotation is written in the display area 15 of the monitor 20. The avatar 18 a and the avatar 19 are associated with the ID information of the client 2 and stored in the HDD 204 in advance.

このとき、クライアント3のCPU301は、サーバ1からクライアント2がサーバ1に接続されていることを示す情報、及びクライアント2のID情報を受信し、モニタ30の表示領域15にクライアント3のユーザの手を示すアバタ、クライアント2のユーザを示すアバタ18及びクライアント2のID情報を表示させる。これらのアバタはクライアント3のID情報と関連付けられて、予めHDD304に格納されている。   At this time, the CPU 301 of the client 3 receives information indicating that the client 2 is connected to the server 1 and the ID information of the client 2 from the server 1, and the client 3 user's hand is displayed in the display area 15 of the monitor 30. , The avatar 18 indicating the user of the client 2 and the ID information of the client 2 are displayed. These avatars are associated with the ID information of the client 3 and stored in the HDD 304 in advance.

また、クライアント2,3がサーバ1に接続されており、アノテーションがモニタ20の表示領域15に書き込まれている場合には、サーバ1のCPU101は、アバタ18、アバタ19、及びクライアント2,3のID情報をモニタ10に表示させる。このとき、アバタ18は、アノテーションを書き込む動作を示すアニメーションで表示される。また、プロジェクタ7は、アノテーション及びクライアント2のID情報に加えてアバタ18aを投影する。アバタ18、アバタ18a及びアバタ19の画像はクライアント2及び3のID情報と関連付けられて、予めHDD104に格納されている。CPU101は、クライアント2からアノテーションの座標データ及びクライアント2,3のID情報が受信されると、アバタ18、アバタ18a及びアバタ19の画像をHDD104から読み出し、アバタ18、アバタ19及びクライアント2,3のID情報をモニタ10に表示させ、アノテーション、クライアント2のID情報及びアバタ18aをプロジェクタ7に投影させる。   Further, when the clients 2 and 3 are connected to the server 1 and the annotation is written in the display area 15 of the monitor 20, the CPU 101 of the server 1 performs the avatar 18, the avatar 19, and the clients 2 and 3. ID information is displayed on the monitor 10. At this time, the avatar 18 is displayed as an animation indicating the operation of writing the annotation. The projector 7 projects the avatar 18a in addition to the annotation and the ID information of the client 2. The images of the avatar 18, the avatar 18 a, and the avatar 19 are stored in advance in the HDD 104 in association with the ID information of the clients 2 and 3. When the CPU 101 receives the coordinate data of the annotation and the ID information of the clients 2 and 3 from the client 2, the CPU 101 reads the images of the avatar 18, the avatar 18 a and the avatar 19 from the HDD 104. The ID information is displayed on the monitor 10, and the annotation, the ID information of the client 2 and the avatar 18 a are projected on the projector 7.

サーバ1のCPU101は、アバタ18及びアバタ19に加えて、クライアント2,3にそれぞれ接続されているカメラ11,12の撮影画像(例えば、クライアント2,3のユーザの顔画像)をモニタ10に表示させてもよい。また、クライアント2のCPU201は、モニタ20の表示領域15にアバタ19に加えてカメラ12の撮影画像(例えば、クライアント3のユーザの顔画像)を表示させてもよい。また、クライアント3のCPU301は、モニタ30の表示領域15にアバタ18に加えてカメラ11の撮影画像(例えば、クライアント2のユーザの顔画像)を表示させてもよい。   In addition to the avatar 18 and the avatar 19, the CPU 101 of the server 1 displays captured images of the cameras 11 and 12 connected to the clients 2 and 3 (for example, face images of the users of the clients 2 and 3) on the monitor 10. You may let them. In addition to the avatar 19, the CPU 201 of the client 2 may display a captured image of the camera 12 (for example, a face image of the user of the client 3) in the display area 15 of the monitor 20. In addition to the avatar 18, the CPU 301 of the client 3 may display a captured image of the camera 11 (for example, a face image of the user of the client 2) in the display area 15 of the monitor 30.

また、図7に示すように、クライアント2のCPU201は、クライアント2のID情報を、モニタ20の表示領域15内で撮影画像の表示領域16と重ならない部分に表示してもよい。この場合、クライアント2のID情報のモニタ20上おける表示位置とクライアント2のID情報の投影位置との位置関係はずれている。即ち、モニタ20上ではクライアント2のID情報は対象物8と重ならない位置に表示されているが、対象物8側では、クライアント2のID情報は対象物8上に投影されている。   Further, as shown in FIG. 7, the CPU 201 of the client 2 may display the ID information of the client 2 in a portion that does not overlap the display area 16 of the captured image in the display area 15 of the monitor 20. In this case, the positional relationship between the display position of the ID information of the client 2 on the monitor 20 and the projection position of the ID information of the client 2 is shifted. That is, the ID information of the client 2 is displayed on the monitor 20 at a position that does not overlap the object 8, but the ID information of the client 2 is projected on the object 8 on the object 8 side.

同様に、サーバ1のCPU101は、クライアント2のID情報及びクライアント3のID情報を、モニタ10の表示領域内で撮影画像の表示領域と重ならない部分に表示してもよい。   Similarly, the CPU 101 of the server 1 may display the ID information of the client 2 and the ID information of the client 3 in a portion that does not overlap the display area of the captured image in the display area of the monitor 10.

図8は、対象物8に生じた変化を各クライアントに接続されるモニタに表示する処理を示すフローチャートである。   FIG. 8 is a flowchart showing a process for displaying a change generated in the object 8 on a monitor connected to each client.

まず、サーバ1のCPU101は、第1カメラ5で連続撮影された複数の撮影画像(即ちフレーム)間の差分を検出し、複数の撮影画像間に変化が生じているか否かを判別する(ステップS11)。ここで、複数の撮影画像間の変化は、対象物8やその周辺に直接ペンでアノテーションが書き込まれている場合、又は対象物8が移動された場合などを意味し、各クライアントで書き込まれたアノテーションやID情報の投影による複数の撮影画像間の変化は含まれない。このため、サーバ1のCPU101は、各クライアントで書き込まれたアノテーション又はID情報の投影が行われた後、一定時間内の複数の撮影画像間の変化は無視する又は各クライアントで書き込まれたアノテーション又はID情報の投影が行われた領域に対応する複数の撮影画像間の変化は無視する。   First, the CPU 101 of the server 1 detects a difference between a plurality of captured images (that is, frames) continuously captured by the first camera 5, and determines whether or not a change has occurred between the plurality of captured images (step). S11). Here, the change between a plurality of captured images means that an annotation is directly written with the pen on or around the object 8 or the object 8 is moved, and is written by each client. Changes between a plurality of captured images due to the projection of annotations and ID information are not included. For this reason, the CPU 101 of the server 1 ignores changes between a plurality of captured images within a certain time after the annotation or ID information written by each client is projected, or the annotation or Changes between a plurality of captured images corresponding to the area where the ID information is projected are ignored.

ステップS11でNOの場合には、本処理を終了する。一方、ステップS11でYESの場合には、サーバ1のCPU101は、撮影画像及び撮影画像間に変化が生じたことを示すメッセージを全てのクライアントに送信する(ステップS12)。   If NO in step S11, this process ends. On the other hand, if YES in step S11, the CPU 101 of the server 1 transmits a message indicating that a change has occurred between the captured image and the captured image to all clients (step S12).

ここで、サーバ1から全クライアントに送信されるメッセージの一例を図9に示す。サーバ1から全クライアントに送信されるメッセージは、図9に示すように、変化のタイプ、サーバ1のID情報、及び変化位置特定データを含む。サーバ1のID情報には、所在地ID、サーバ1の端末ID、及びサーバ1で認証されたユーザのユーザIDが含まれている。変化のタイプは、対象物8やその周辺に直接ペンでアノテーションが書き込まれていることを示す「writing」又は対象物8が移動されたことを示す「moving」などを含む。   An example of a message transmitted from the server 1 to all clients is shown in FIG. As shown in FIG. 9, the message transmitted from the server 1 to all clients includes the type of change, the ID information of the server 1, and change position specifying data. The ID information of the server 1 includes the location ID, the terminal ID of the server 1, and the user ID of the user authenticated by the server 1. The type of change includes “writing” indicating that an annotation is directly written with a pen on or around the object 8 or “moving” indicating that the object 8 has been moved.

変化位置特定データは、変化が生じている領域の4頂点の座標又は変化が生じている領域の重心座標及び面積で特定される。上記メッセージが変化位置特定データを含むのは、変化が生じている領域の近くにサーバ1のID情報を表示するためである。   The change position specifying data is specified by the coordinates of the four vertices of the area where the change occurs or the barycentric coordinates and area of the area where the change occurs. The reason why the message includes the change position specifying data is to display the ID information of the server 1 near the area where the change occurs.

尚、上記メッセージは、複数の撮影画像間の変化が生じている間、一定間隔(例えば、1秒)で送信される又は複数の撮影画像間の変化の検出を開始したタイミングと複数の撮影画像間の変化の検出が終了したタイミングで送信される。   Note that the above message is transmitted at a constant interval (for example, 1 second) while a change between a plurality of captured images occurs, or a timing at which detection of a change between a plurality of captured images is started and a plurality of captured images. It is transmitted at the timing when the detection of the change in between ends.

次に、各クライアントのCPUが撮影画像及びメッセージを受信したか否かを判別する(ステップS13)。ステップS13でNOの場合には、当該判別を繰り返す。一方、ステップS13でYESの場合には、各クライアントのCPUは、対応するモニタに、撮影画像、他のクライアントのアバタ及びそのID情報、並びに対象物8側のユーザのアバタ及びサーバ1のID情報を表示させ(ステップS14)、本処理を終了する。   Next, it is determined whether the CPU of each client has received a captured image and a message (step S13). If NO in step S13, the determination is repeated. On the other hand, if YES in step S13, the CPU of each client displays the captured image, the avatar of another client and its ID information, the user's avatar on the object 8 side, and the ID information of the server 1 on the corresponding monitor. Is displayed (step S14), and this process is terminated.

尚、ステップS14で表示されるサーバ1のID情報は、所在地ID、サーバ1の端末ID、及びサーバ1で認証されたユーザのユーザIDのうち少なくとも1つであればよい。   The server 1 ID information displayed in step S14 may be at least one of the location ID, the server 1 terminal ID, and the user ID of the user authenticated by the server 1.

図10は、対象物8にアノテーションが直接書き込まれている場合のモニタ10及び20の表示状態を示す図である。   FIG. 10 is a diagram illustrating a display state of the monitors 10 and 20 when annotations are directly written on the object 8.

クライアント2のCPU201は、サーバ1からクライアント3がサーバ1に接続されていることを示す情報、サーバ1のID情報、及びクライアント3のID情報を受信し、モニタ20の表示領域15にクライアント3のユーザを示すアバタ19、対象物8側のユーザのアバタ17、サーバ1のID情報及びクライアント3のID情報を表示させる。このとき、アバタ17は、アノテーションを書き込む動作を示すアニメーションで表示される。アバタ17及びアバタ19はクライアント2のID情報と関連付けられて、予めHDD204に格納されている。尚、サーバ1及びクライアント3のID情報の表示位置は、クライアント2のCPU201により予め設定されているものとする。   The CPU 201 of the client 2 receives information indicating that the client 3 is connected to the server 1 from the server 1, ID information of the server 1, and ID information of the client 3, and displays the client 3 's ID in the display area 15 of the monitor 20. The avatar 19 indicating the user, the user avatar 17 on the object 8 side, the ID information of the server 1 and the ID information of the client 3 are displayed. At this time, the avatar 17 is displayed with an animation indicating the operation of writing the annotation. The avatar 17 and the avatar 19 are associated with the ID information of the client 2 and stored in the HDD 204 in advance. Note that the display positions of the ID information of the server 1 and the client 3 are set in advance by the CPU 201 of the client 2.

また、クライアント2のCPU201は、図8の変化位置特定データに基づいて、サーバ8側のユーザに書き込まれたアノテーション周辺にサーバ1のID情報を表示してもよい。   Further, the CPU 201 of the client 2 may display the ID information of the server 1 around the annotation written to the user on the server 8 side based on the change position specifying data in FIG.

クライアント3のCPU301は、サーバ1からクライアント2がサーバ1に接続されていることを示す情報、サーバ1のID情報、及びクライアント2のID情報を受信し、モニタ30の表示領域15にアバタ17、アバタ18、サーバ1のID情報、及びクライアント2のID情報を表示させる。これらのアバタはクライアント3のID情報と関連付けられて、予めHDD304に格納されている。   The CPU 301 of the client 3 receives the information indicating that the client 2 is connected to the server 1 from the server 1, the ID information of the server 1, and the ID information of the client 2, and displays the avatar 17 in the display area 15 of the monitor 30. The avatar 18, the server 1 ID information, and the client 2 ID information are displayed. These avatars are associated with the ID information of the client 3 and stored in the HDD 304 in advance.

また、図10の左側に示すように、モニタ10には、アバタ18、アバタ19、及びクライアント2,3のID情報が表示されている。尚、クライアント2,3のID情報は常に表示されている必要はない。   As shown on the left side of FIG. 10, the monitor 10 displays ID information of the avatar 18, the avatar 19, and the clients 2 and 3. Note that the ID information of the clients 2 and 3 need not always be displayed.

尚、サーバ1のCPU101は、アバタ18及びアバタ19に加えて、クライアント2,3にそれぞれ接続されているカメラ11,12の撮影画像(例えば、クライアント2,3のユーザの顔画像)をモニタ10に表示させてもよい。また、クライアント2のCPU201は、モニタ20の表示領域15にアバタ17,19に加えて第2カメラ9の撮影画像(例えば、サーバ1のユーザの顔画像)及びカメラ12の撮影画像(例えば、クライアント3のユーザの顔画像)を表示させてもよい。また、クライアント3のCPU301は、モニタ30の表示領域15にアバタ17,18に加えて第2カメラ9の撮影画像(例えば、サーバ1のユーザの顔画像)及びカメラ11の撮影画像(例えば、クライアント2のユーザの顔画像)を表示させてもよい。   In addition to the avatar 18 and the avatar 19, the CPU 101 of the server 1 monitors the captured images of the cameras 11 and 12 connected to the clients 2 and 3 (for example, face images of the users of the clients 2 and 3) 10. May be displayed. In addition to the avatars 17 and 19, the CPU 201 of the client 2 adds a captured image of the second camera 9 (for example, a face image of the user of the server 1) and a captured image of the camera 12 (for example, the client) to the display area 15 of the monitor 20. 3 user face images) may be displayed. In addition to the avatars 17 and 18, the CPU 301 of the client 3 adds a captured image of the second camera 9 (for example, a face image of the user of the server 1) and a captured image of the camera 11 (for example, the client) to the display area 15 of the monitor 30. 2 user face images) may be displayed.

また、クライアント2のCPU201は、サーバ1のID情報及びクライアント3のID情報を、モニタ20の表示領域15内で撮影画像の表示領域と重ならない部分に表示してもよい。同様に、サーバ1のCPU101は、クライアント2のID情報及びクライアント3のID情報を、モニタ10の表示領域内で撮影画像の表示領域と重ならない部分に表示してもよい。   Further, the CPU 201 of the client 2 may display the ID information of the server 1 and the ID information of the client 3 in a portion that does not overlap the display area of the captured image in the display area 15 of the monitor 20. Similarly, the CPU 101 of the server 1 may display the ID information of the client 2 and the ID information of the client 3 in a portion that does not overlap the display area of the captured image in the display area of the monitor 10.

以上詳細に説明したように、本実施の形態によれば、第1カメラ5で撮影された画像にアノテーションが書き込まれると、CPU201は、書き込まれたアノテーション及びクライアント2のID情報をモニタ20に表示させ、書き込まれたアノテーション及びクライアント2のID情報をサーバ1に送信する。サーバ1のCPU101はクライアント2から書き込まれたアノテーション及びクライアント2のID情報を受信し、受信されたアノテーション及びクライアント2のID情報をプロジェクタ7に投影させる。   As described above in detail, according to the present embodiment, when an annotation is written in an image captured by the first camera 5, the CPU 201 displays the written annotation and the ID information of the client 2 on the monitor 20. The written annotation and the ID information of the client 2 are transmitted to the server 1. The CPU 101 of the server 1 receives the annotation written from the client 2 and the ID information of the client 2 and causes the projector 7 to project the received annotation and the ID information of the client 2.

よって、クライアント2で書き込まれたアノテーション及びクライアント2のID情報は、サーバ1側のユーザ及びクライアント2側のユーザに伝達される。   Therefore, the annotation written in the client 2 and the ID information of the client 2 are transmitted to the user on the server 1 side and the user on the client 2 side.

なお、本発明は、上述した実施の形態に限定されるものではなく、その要旨を逸脱しない範囲内で種々変形して実施することが可能である。   Note that the present invention is not limited to the above-described embodiment, and can be implemented with various modifications without departing from the scope of the invention.

本発明の実施の形態に係る情報処理システムの構成を示すブロック図である。It is a block diagram which shows the structure of the information processing system which concerns on embodiment of this invention. サーバ1及びクライアント2,3のハードウエア構成を示すブロック図である。2 is a block diagram illustrating a hardware configuration of a server 1 and clients 2 and 3. FIG. アノテーションがクライアント2で書き込まれた場合に、情報処理システムで実行される処理を示すフローチャートである。10 is a flowchart illustrating processing executed by the information processing system when an annotation is written by a client 2; 対象物8に投影されたアノテーション及びクライアント2のID情報の例を示す図である。It is a figure which shows the example of the annotation projected on the target object 8, and ID information of the client 2. FIG. (A),(B)は、モニタ30に表示されるアノテーション及びクライアント2のID情報の例を示す図である。(A), (B) is a figure which shows the example of the annotation displayed on the monitor 30, and ID information of the client 2. FIG. アノテーションがモニタ20の表示領域15に書き込まれているときのモニタ10及び20の表示状態を示す図である。It is a figure which shows the display state of the monitors 10 and 20 when the annotation is written in the display area 15 of the monitor 20. アノテーションがモニタ20の表示領域15に書き込まれているときのモニタ10及び20の表示状態の変形例を示す図である。It is a figure which shows the modification of the display state of the monitors 10 and 20 when the annotation is written in the display area 15 of the monitor 20. FIG. 対象物8に生じた変化を各クライアントに接続されるモニタに表示する処理を示すフローチャートである。It is a flowchart which shows the process which displays the change which arose in the target object 8 on the monitor connected to each client. サーバ1から全クライアントに送信されるメッセージの一例を示す図である。It is a figure which shows an example of the message transmitted to all the clients from the server. 対象物8にアノテーションが直接書き込まれている場合のモニタ10及び20の表示状態を示す図である。It is a figure which shows the display state of the monitors 10 and 20 in case the annotation is directly written in the target object 8. FIG.

符号の説明Explanation of symbols

1 サーバ
2,3 クライアント
4 ネットワーク
5 第1カメラ
6 ハーフミラー
7 プロジェクタ
8 対象物
9 第2カメラ
11,12 カメラ
10,20,30 モニタ
101,201,301 CPU
102,202,302 ROM
103,203,303 RAM
104,204,304 HDD
105,205,305 キー入力端子
106,206,306 ネットワークインターフェース
107,207,307 ビデオインターフェース
108,208,308 USBインターフェース
DESCRIPTION OF SYMBOLS 1 Server 2, 3 Client 4 Network 5 1st camera 6 Half mirror 7 Projector 8 Object 9 2nd camera 11, 12 Camera 10, 20, 30 Monitor 101, 201, 301 CPU
102, 202, 302 ROM
103, 203, 303 RAM
104, 204, 304 HDD
105, 205, 305 Key input terminal 106, 206, 306 Network interface 107, 207, 307 Video interface 108, 208, 308 USB interface

Claims (8)

外部端末からの注釈及び当該注釈を書き込んだユーザ又は前記外部端末に関する情報を受信する受信手段と、
前記受信手段で受信された注釈及び当該注釈を書き込んだユーザ又は前記外部端末に関する情報を、対象物を含む投影領域に投影する投影手段と、
前記投影領域を撮影する撮影手段と、
前記撮影手段で撮影された画像を前記外部端末に送信する送信手段と、
を有することを特徴とする情報処理装置。
Receiving means for receiving an annotation from an external terminal and a user who wrote the annotation or information on the external terminal;
Projection means for projecting the annotation received by the reception means and the user who wrote the annotation or information on the external terminal onto a projection area including the object;
Photographing means for photographing the projection area;
Transmitting means for transmitting an image photographed by the photographing means to the external terminal;
An information processing apparatus comprising:
前記投影手段は、前記注釈を書き込んだユーザ又は前記外部端末に関する情報をあらかじめ設定された時間内で投影することを特徴とする請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the projection unit projects information related to the user who wrote the annotation or the external terminal within a preset time. 投影装置、及び対象物を含む、当該投影装置の投影領域を撮影する撮影装置に接続可能な情報処理装置、及び当該情報処理装置及び第1表示装置に接続される外部端末を有する情報処理システムであって、
前記外部端末は、
前記撮影装置で撮影された画像に注釈を書き込む書込手段と、
前記書込手段により書き込まれた注釈及び当該注釈を書き込んだユーザ又は前記外部端末に関する情報を前記第1表示装置に表示させる第1制御手段と、
前記書込手段により書き込まれた注釈及び当該注釈を書き込んだユーザ又は前記外部端末に関する情報を前記情報処理装置に送信する第1送受信手段とを備え、
前記情報処理装置は、
前記外部端末から前記書き込まれた注釈及び当該注釈を書き込んだユーザ又は前記外部端末に関する情報を受信する第2送受信手段と、
前記受信された注釈及び当該受信された注釈を書き込んだユーザ又は前記外部端末に関する情報を前記投影装置に投影させる第2制御手段とを備えることを特徴とする情報処理システム。
An information processing system that includes a projection device and an information processing device that can be connected to an imaging device that captures a projection area of the projection device, and an information processing system that includes an external terminal connected to the information processing device and the first display device. There,
The external terminal is
Writing means for writing an annotation on an image photographed by the photographing device;
First control means for causing the first display device to display the annotation written by the writing means and the user or the external terminal that wrote the annotation;
An annotation written by the writing means and a first transmission / reception means for transmitting information related to the user who wrote the annotation or the external terminal to the information processing apparatus,
The information processing apparatus includes:
Second transmission / reception means for receiving from the external terminal the written annotation and information about the user who wrote the annotation or the external terminal;
An information processing system comprising: a second control unit that causes the projection device to project information about the received annotation and a user who wrote the received annotation or the external terminal.
前記第1表示装置は、前記撮影装置で撮影された画像を表示する第1表示領域と当該画像以外の情報を表示する第2表示領域とを含み、
前記第1制御手段は、前記書込手段により書き込まれた注釈を前記第1表示領域に表示させ、前記注釈を書き込んだユーザ又は前記外部端末に関する情報を前記第2表示領域に表示させ、
前記投影装置は、前記投影領域に前記受信された注釈及び当該受信された注釈を書き込んだユーザ又は前記外部端末に関する情報を投影することを特徴とする請求項3に記載の情報処理システム。
The first display device includes a first display region that displays an image captured by the imaging device, and a second display region that displays information other than the image,
The first control means causes the annotation written by the writing means to be displayed in the first display area, and displays information related to the user who wrote the annotation or the external terminal in the second display area,
The information processing system according to claim 3, wherein the projection apparatus projects information about the received annotation and a user who has written the received annotation or the external terminal onto the projection area.
前記情報処理装置は、前記撮影装置で連続撮影された画像に基づいて、前記対象物に直接書き込まれた注釈又は前記対象物の移動を検出する検出手段を備え、
前記第2送受信手段は、前記検出手段が前記対象物に直接書き込まれた注釈又は前記対象物の移動を検出した場合に、前記撮影装置で連続撮影された画像及び前記情報処理装置に関する情報を前記外部端末に送信し、
前記第1送受信手段は、前記撮影装置で連続撮影された画像及び前記情報処理装置に関する情報を前記情報処理装置から受信し、
前記第1制御手段は、前記受信手段により受信された前記撮影装置で連続撮影された画像及び前記情報処理装置に関する情報を前記第1表示装置に表示させることを特徴とする請求項3又は4に記載の情報処理システム。
The information processing apparatus includes a detection unit that detects an annotation directly written on the object or a movement of the object based on images continuously captured by the imaging apparatus,
The second transmission / reception unit displays, when the detection unit detects an annotation directly written on the object or a movement of the object, images taken continuously by the imaging device and information on the information processing device. Send it to an external device,
The first transmission / reception means receives images taken continuously by the photographing device and information on the information processing device from the information processing device
The first control unit causes the first display device to display an image continuously received by the imaging device received by the receiving unit and information on the information processing device. The information processing system described.
前記情報処理装置には、複数の外部端末が接続されており、
前記複数の外部端末の各々は、前記書込手段と、前記第1制御手段と、前記第1送受信手段とを備え、
前記第1送受信手段が他の外部端末の書込手段により書き込まれた注釈及び当該注釈を書き込んだユーザ又は当該他の外部端末に関する情報を受信した場合に、前記第1制御手段は、当該受信された注釈及び当該受信された注釈を書き込んだユーザ又は当該他の外部端末に関する情報を前記第1表示装置に表示させることを特徴とする請求項3乃至5のいずれか1項に記載の情報処理システム。
A plurality of external terminals are connected to the information processing apparatus,
Each of the plurality of external terminals includes the writing unit, the first control unit, and the first transmitting / receiving unit.
When the first transmission / reception means receives the annotation written by the writing means of another external terminal and the information about the user who wrote the annotation or the other external terminal, the first control means receives the annotation. 6. The information processing system according to claim 3, wherein information related to the user who wrote the received annotation and the received annotation or the other external terminal is displayed on the first display device. .
前記第1表示装置には、前記情報処理装置側のユーザの仮想画像及び前記情報処理装置に関する情報並びに他の外部端末のユーザの仮想画像及び当該他の外部端末に関する情報が表示されることを特徴とする請求項6に記載の情報処理システム。   The first display device displays a virtual image of the user on the information processing device side, information on the information processing device, a virtual image of a user of another external terminal, and information on the other external terminal. The information processing system according to claim 6. 前記情報処理装置には、第2表示装置が接続されており、前記第2表示装置には、前記情報処理装置に接続されている各外部端末のユーザの仮想画像及び当該各外部端末に関する情報が表示されることを特徴とする請求項6又は7に記載の情報処理システム。   A second display device is connected to the information processing device, and a virtual image of a user of each external terminal connected to the information processing device and information regarding each external terminal are connected to the second display device. The information processing system according to claim 6 or 7, wherein the information processing system is displayed.
JP2008241166A 2008-09-19 2008-09-19 Information processing apparatus and system Pending JP2010074639A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008241166A JP2010074639A (en) 2008-09-19 2008-09-19 Information processing apparatus and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008241166A JP2010074639A (en) 2008-09-19 2008-09-19 Information processing apparatus and system

Publications (1)

Publication Number Publication Date
JP2010074639A true JP2010074639A (en) 2010-04-02

Family

ID=42205982

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008241166A Pending JP2010074639A (en) 2008-09-19 2008-09-19 Information processing apparatus and system

Country Status (1)

Country Link
JP (1) JP2010074639A (en)

Similar Documents

Publication Publication Date Title
US8004571B2 (en) Projection-based system, apparatus and program of storing annotated object image
JP2012023595A (en) Conference system
JP6079695B2 (en) Image display photographing system, photographing device, display device, image display and photographing method, and computer program
JP2016126432A (en) Remote conference program, terminal device, and remote conference method
JP4872482B2 (en) Remote support device, remote support system, and remote support method
JP2011013396A (en) Projector, image projection system and image projection method
WO2018193509A1 (en) Remote work supporting system, remote work supporting method, and program
JP2009282431A (en) Projector, image display device, and image display control device
JP4674627B2 (en) Information processing apparatus, remote instruction system, and program
JP2010272078A (en) System, and control unit of electronic information board, and cursor control method
JP2010015032A (en) Projector, control method thereof, and image projection display system
JP5162855B2 (en) Image processing apparatus, remote image processing system, and image processing method
JP2010074639A (en) Information processing apparatus and system
JP6115090B2 (en) Display control apparatus and program
JP2012182766A (en) Conference system, control method of the same and program
US8279294B2 (en) Information processing apparatus, remote indication system, and computer readable medium
JP2009284390A (en) Image display control device and method
JP2009076983A (en) Information processing system, and information processor
US20230368399A1 (en) Display terminal, communication system, and non-transitory recording medium
US20240179267A1 (en) Display terminal, communication system, and display method
JP2009290488A (en) Information processing system and information processing apparatus
JP2009100192A (en) Information processing apparatus, storing method, and program
US8035700B2 (en) Information processing apparatus, remote indication system, and computer readable medium
TWI554822B (en) Briefing system having function of synchronizing indication position and method thereof
WO2022011415A1 (en) A system and method for remotely providing assessments or quotations