JP2010061411A - Image projector, image synthesizer, image projection method and image projection program - Google Patents

Image projector, image synthesizer, image projection method and image projection program Download PDF

Info

Publication number
JP2010061411A
JP2010061411A JP2008226552A JP2008226552A JP2010061411A JP 2010061411 A JP2010061411 A JP 2010061411A JP 2008226552 A JP2008226552 A JP 2008226552A JP 2008226552 A JP2008226552 A JP 2008226552A JP 2010061411 A JP2010061411 A JP 2010061411A
Authority
JP
Japan
Prior art keywords
image
information
captured
entry
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008226552A
Other languages
Japanese (ja)
Inventor
Katsuhiro Amano
勝博 天野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2008226552A priority Critical patent/JP2010061411A/en
Publication of JP2010061411A publication Critical patent/JP2010061411A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Image Processing (AREA)
  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image projector, image synthesizer, image projection method and image projection program capable of projecting a synthetic image even when there is a part where information overlaps. <P>SOLUTION: A writing time when information is written on a whiteboard is acquired, and the whiteboard with the information written thereon is imaged. An imaged whiteboard image is transmitted to the other image projector as an imaged image at an own-location with the writing time added thereto. The imaged image of the own-location is received as an imaged image of other-location by the other image projector (S31). An information image, as an image corresponding to each piece of information written on the whiteboard, included in the imaged image at other-location is extracted (S32), and respective information images are synthesized into one image while the position of the information image in the imaged image of other-location is retained (S33). Here, the synthetic image is synthesized so that the information image with the last writing time added to the imaged image of other-location is foregrounded (S33). Then, the synthetic image is projected (S35). <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、情報を記入可能な板である情報記入ボードを複数の拠点に設置して、各拠点における情報記入ボードに記入された情報を各拠点で共有するための画像投影装置、画像合成装置、画像投影方法及び画像投影プログラムに関する。   The present invention provides an image projection apparatus and an image composition apparatus for installing information entry boards, which are boards capable of entering information, at a plurality of bases, and sharing information entered on the information entry boards at the respective bases. The present invention relates to an image projection method and an image projection program.

近年、ホワイトボードなどの情報を記入可能な情報記入ボードを複数の拠点に設置して、各拠点における情報記入ボードに記入された情報を、各拠点で共有する遠隔会議が実施されることが多くなってきている。このような遠隔会議を実現するために、各拠点に画像投影装置を設置する。この画像投影装置は、情報記入ボードに情報が記入された場合に、その情報記入ボードを撮像する。そして、各画像投影装置が撮像した撮像画像を収集して、それら撮像画像を一つの画像となるように合成する。この際、各撮像画像に含まれている情報記入ボードに記入された各情報に相当する画像である情報画像を抽出して、撮像画像における情報画像の位置を保持させつつ各情報画像を一つの画像に合成する。そして、合成後の画像である合成画像を各画像投影装置に送信する。各画像投影装置は、その合成画像を情報記入ボードに投影する。こうすることによって、複数の拠点に会議参加者がいるにもかかわらず、各会議参加者に、あたかも一つの情報記入ボードで遠隔会議が進行されていると思わせることができる。したがって、遠隔会議をスムーズに進行させることができる。   In recent years, information conference boards that can be used to fill in information such as whiteboards are installed at multiple locations, and remote conferences are often held in which information entered on the information entry boards at each location is shared by each location. It has become to. In order to realize such a remote conference, an image projection device is installed at each site. When information is entered on the information entry board, the image projection apparatus images the information entry board. And the captured image which each image projection apparatus imaged is collected, and those captured images are synthesize | combined so that it may become one image. At this time, an information image corresponding to each piece of information entered on the information entry board included in each captured image is extracted, and each information image is stored in one image while maintaining the position of the information image in the captured image. Composite to the image. Then, a composite image, which is a composite image, is transmitted to each image projection device. Each image projection device projects the composite image onto the information entry board. By doing so, it is possible to make each conference participant think that the remote conference is progressing with one information entry board even though there are conference participants at a plurality of bases. Therefore, the remote conference can proceed smoothly.

また、特許文献1に記載された発明では、上記遠隔会議において、各画像投影装置は、自身が設置されている拠点の情報記入ボードに記入された情報を除いて、他の拠点の情報記入ボードに記入された情報だけを用いて、上記合成画像を作成している。こうすることによって、合成画像を情報記入ボードに投影したときに、会議参加者は、情報記入ボードに記入された情報若しくは投影された情報を把握しやすくなる。
特開2005−253067号公報
Moreover, in the invention described in Patent Document 1, in the remote conference, each image projection apparatus, except for the information entered on the information entry board of the site where the image projector is installed, information entry boards of other sites The above composite image is created using only the information entered in. In this way, when the composite image is projected onto the information entry board, the conference participant can easily grasp the information entered on the information entry board or the projected information.
JP 2005-253067 A

ところで、上述した遠隔会議において、各拠点の会議参加者は、情報記入ボードに投影された情報を見て、その情報の上に、他の情報を記入することがある。このような場合、情報が重なっている部分において、どの情報を上にして合成画像を作成すればよいのかコンピュータは判断できないために、合成画像を作成することができなかった。したがって、以後、情報記入ボードに合成画像を投影できないという問題点があった。   By the way, in the remote conference described above, a conference participant at each site may look at the information projected on the information entry board and enter other information on the information. In such a case, since the computer cannot determine which information should be created in the overlapping portion of the information, the composite image cannot be created. Accordingly, there has been a problem that the composite image cannot be projected on the information entry board.

本発明は、以上の問題点に鑑みてなされたものであり、情報が重なっている部分がある場合であっても、合成画像を投影できる画像投影装置、画像合成装置、画像投影方法及び画像投影プログラムを提供することを目的とする。   The present invention has been made in view of the above problems, and an image projection apparatus, an image composition apparatus, an image projection method, and an image projection capable of projecting a composite image even when there is a portion where information overlaps. The purpose is to provide a program.

上記目的を達成するために、請求項1の画像投影装置は、情報を記入可能な情報記入ボードが複数の拠点に設けられ、各拠点において、前記情報記入ボードを撮像する撮像手段と、その情報記入ボードに情報が記入された時刻である記入時刻を取得する取得手段と、前記撮像手段が撮像した自拠点での撮像画像である自拠点撮像画像を、前記記入時刻を付してネットワークを介して他拠点に送信する送信手段とを備える画像投影システムに用いられる各拠点に設けられた画像投影装置であって、前記送信手段が送信した他拠点での前記撮像画像である他拠点撮像画像及びそれに付された前記記入時刻を受信する受信手段と、前記受信手段が受信した前記他拠点撮像画像が複数ある場合、それら他拠点撮像画像に含まれている前記情報記入ボードに記入された各情報に相当する画像である情報画像を抽出して、前記他拠点撮像画像における前記情報画像の位置を保持させつつ前記各情報画像を一つの画像に合成するものであって、前記他拠点撮像画像に付されている前記記入時刻が最新の前記情報画像を最前面にして合成する合成手段と、前記合成手段が合成した前記画像である合成画像を前記情報記入ボードに投影する投影手段とを備えることを特徴とする。   In order to achieve the above object, an image projection apparatus according to claim 1 is provided with an information entry board capable of entering information at a plurality of bases, an imaging means for imaging the information entry board at each base, and the information An acquisition means for acquiring entry time, which is a time when information is entered on the entry board, and a captured image taken by the imaging means at the own location taken by the imaging means via the network with the entry time An image projection apparatus provided at each site used in an image projection system including a transmission unit that transmits to another site, the other site captured image that is the captured image at the other site transmitted by the transmission unit, and When there are a plurality of other site captured images received by the receiving unit and the receiving unit receiving the entry time attached thereto, the information entry board included in the other site captured images Extracting an information image that is an image corresponding to each information entered in the information, and combining the information images into one image while maintaining the position of the information image in the image taken at the other site, A combining unit that combines the information image with the latest entry time attached to the captured image at the other site with the forefront, and a combined image that is the image combined by the combining unit is projected onto the information entry board. And a projecting means.

また、請求項2の画像投影装置は、請求項1に記載の発明の構成に加え、前記撮像手段、前記取得手段及び前記送信手段は前記画像投影装置が備えていることを特徴とする。   According to a second aspect of the present invention, in addition to the configuration of the first aspect of the invention, the image projecting device includes the image capturing unit, the acquiring unit, and the transmitting unit.

また、請求項3の画像投影装置は、請求項1又は2に記載の発明の構成に加え、他の前記画像投影装置との間で、前記取得手段が取得する時刻を同期させる同期手段をさらに備えることを特徴とする。   According to a third aspect of the present invention, in addition to the configuration of the first or second aspect of the invention, the image projecting device further includes a synchronizing unit that synchronizes the time acquired by the acquiring unit with the other image projecting device. It is characterized by providing.

また、請求項4の画像投影装置は、請求項1〜3のいずれかに記載の発明の構成に加え、前記投影手段は、前記撮像手段が前記情報記入ボードを撮像するときには、前記合成画像の投影を中止することを特徴とする。   According to a fourth aspect of the present invention, in addition to the configuration of the invention according to any one of the first to third aspects, the projecting unit is configured to display the composite image when the imaging unit images the information entry board. The projection is stopped.

また、請求項5の画像投影装置は、請求項1〜4のいずれかに記載の発明の構成に加え、前記撮像手段は、所定周期で前記情報記入ボードを撮像し、前記取得手段は、前記撮像手段が前回撮像した撮像画像と今回撮像した撮像画像を比較して、それらに差異を検出したときに、前記記入時刻を取得することを特徴とする。   According to a fifth aspect of the present invention, in addition to the configuration of the invention according to any one of the first to fourth aspects, the imaging means images the information entry board at a predetermined period, and the acquisition means The imaging unit compares the captured image captured last time with the captured image captured this time, and acquires the entry time when a difference is detected between them.

また、請求項6の画像投影装置は、請求項5に記載の発明の構成に加え、前記撮像画像の画素単位の変化で、前記取得手段が前記記入時間を取得できるように、前記撮像手段が撮像する周期が定められていることを特徴とする。   According to a sixth aspect of the present invention, in addition to the configuration of the fifth aspect of the present invention, the imaging unit is configured so that the acquisition unit can acquire the entry time by a change in a pixel unit of the captured image. The imaging cycle is determined.

請求項7の画像合成装置は、情報を記入可能な情報記入ボード及び画像投影装置を複数の拠点に設置して、各画像投影装置が、情報が記入されている自拠点における前記情報記入ボードを撮像するとともに、その撮像画像を画像合成装置に送信し、その画像合成装置が、各画像投影装置から送信されてきた前記撮像画像を受信して、それら撮像画像に含まれている前記情報記入ボードに記入された各情報に相当する画像である情報画像を抽出して、前記撮像画像における前記情報画像の位置を保持させつつ前記各情報画像を一つの画像に合成するとともに、その合成した画像である合成画像を各画像投影装置に送信し、各画像投影装置が、前記画像合成装置から送信されてきた前記合成画像を前記情報記入ボードに投影する画像投影システムに用いられる前記画像合成装置であって、前記画像投影システムは、前記情報記入ボードに情報が記入された時刻である記入時刻を取得する取得手段と、前記撮像画像を、前記記入時刻を付してネットワークを介して前記画像合成装置に送信する送信手段とを備えており、前記画像合成装置は、前記撮像画像を合成する際に、各撮像画像に付されている前記記入時刻が最新の情報画像を最前面にして合成することを特徴とする。   The image composition apparatus according to claim 7 is provided with an information entry board and an image projection apparatus capable of entering information at a plurality of bases, and each image projection apparatus has the information entry board at its own base where information is entered. The captured image is transmitted to the image composition device, and the image composition device receives the captured image transmitted from each image projection device, and the information entry board included in the captured image. An information image that is an image corresponding to each piece of information entered in is extracted, and the information images are combined into a single image while maintaining the position of the information image in the captured image. An image projection system that transmits a composite image to each image projection device, and each image projection device projects the composite image transmitted from the image synthesis device onto the information entry board. The image synthesizing apparatus used, wherein the image projection system includes an acquisition unit that acquires an entry time, which is a time when information is entered on the information entry board, and the captured image with the entry time. Transmitting means for transmitting to the image synthesizer via a network, and the image synthesizer is an information image with the latest entry time attached to each captured image when the captured image is synthesized. It is characterized by combining with the forefront.

請求項8の画像投影方法は、情報を記入可能な情報記入ボードが複数の拠点に設置された画像投影方法であって、各拠点における前記情報記入ボードを撮像する撮像ステップと、前記情報記入ボードに情報が記入された時刻である記入時刻を取得する取得ステップと、前記撮像ステップにおいて撮像された各拠点における撮像画像を、それぞれ前記記入時刻を付して収集する収集ステップと、その収集ステップにおいて収集した各拠点における前記撮像画像に含まれている前記情報記入ボードに記入された各情報に相当する画像である情報画像を抽出して、前記撮像画像における前記情報画像の位置を保持させつつ前記各情報画像を一つの画像に合成するステップであって、前記撮像画像に付されている前記記入時刻が最新の情報画像を最前面にして合成する合成ステップと、その合成ステップにおいて合成された前記合成画像を前記情報記入ボードに投影する投影ステップとを備えることを特徴とする。   The image projecting method according to claim 8 is an image projecting method in which information entry boards capable of entering information are installed at a plurality of bases, an imaging step for imaging the information entry boards at each base, and the information entry board In the acquisition step of acquiring the entry time, which is the time when the information is entered in, the collection step of collecting the captured images taken at the respective locations taken in the imaging step with the entry time, and the collection step An information image that is an image corresponding to each information entered in the information entry board included in the captured image at each collected base is extracted, and the position of the information image in the captured image is retained Combining each information image into one image, wherein the information image with the latest entry time attached to the captured image To to to a synthesis step of synthesizing, characterized in that it comprises a projection step of projecting the synthesized image synthesized in the synthesizing step to the information entry board.

請求項9の画像投影プログラムは、請求項8の画像投影方法の各種ステップをコンピュータに実行させる画像投影プログラム。   An image projection program according to claim 9 causes a computer to execute various steps of the image projection method according to claim 8.

請求項1の画像投影装置によれば、受信手段は、送信手段が送信した他拠点での撮像画像である他拠点撮像画像及び上記記入時刻を受信できる。そして、合成手段は、受信手段が受信した他拠点撮像画像が複数ある場合、それら他拠点撮像画像に含まれている情報記入ボードに記入された各情報に相当する画像である情報画像を抽出して、前記他拠点撮像画像における前記情報画像の位置を保持させつつ前記各情報画像を一つの画像に合成できる。その際に、他拠点撮像画像に付されている記入時刻が最新の情報画像を最前面にして合成できる。そして、投影手段は、合成手段が合成した画像である合成画像を情報記入ボードに投影できる。   According to the image projecting apparatus of the first aspect, the receiving unit can receive the other-site captured image that is a captured image at the other site transmitted by the transmitting unit and the entry time. Then, when there are a plurality of other site captured images received by the receiving unit, the synthesizing unit extracts an information image that is an image corresponding to each information entered on the information entry board included in the other site captured images. Thus, each information image can be combined into one image while maintaining the position of the information image in the image taken at the other site. At that time, the information image with the latest entry time attached to the image taken at the other site can be combined with the information image at the forefront. The projecting unit can project a composite image, which is an image synthesized by the synthesizing unit, onto the information entry board.

このように、情報が重なっている部分がある場合であっても、合成画像を作成することができるので、合成画像を投影できる。また、合成画像は、最新の情報画像が最前面になっている。すなわち、古い情報画像が最前面になって投影されることがないので、違和感なく遠隔会議を進行することができる。   Thus, even if there is a portion where information overlaps, a composite image can be created, so that the composite image can be projected. In the composite image, the latest information image is the foreground. That is, since the old information image is not projected in the foreground, the remote conference can proceed without a sense of incongruity.

また、請求項2の画像投影装置のように、撮像手段、取得手段及び送信手段は画像投影装置が備えているので、画像投影装置だけで請求項1に記載の発明と同じ効果を得られる。   Further, as in the image projecting device of claim 2, since the image projecting device is provided with the image pickup unit, the obtaining unit, and the transmitting unit, the same effect as that of the invention described in claim 1 can be obtained only by the image projecting device.

また、請求項3の画像投影装置は、請求項1又は2に記載の発明の効果に加え、各画像投影装置間で、前記取得手段が取得する時刻が同期手段によって同期されているので、合成手段が情報画像を合成する際に、正確に最新の情報画像を最前面にすることができる。   According to a third aspect of the present invention, in addition to the effect of the first or second aspect of the invention, the time acquired by the acquisition means is synchronized by the synchronization means between the image projection apparatuses. When the means synthesizes the information image, the latest information image can be accurately brought to the forefront.

また、請求項4の画像投影装置は、請求項1〜3のいずれかに記載の発明の効果に加え、撮像手段が情報記入ボードを撮像するときには、投影手段は合成画像の投影を中止するので、情報記入ボードに記入されている情報と同じ情報が投影されることがない。したがって、会議参加者は、情報記入ボードに記入されている情報を把握しやすくなる。   According to a fourth aspect of the present invention, in addition to the effect of the first aspect of the present invention, when the imaging unit images the information entry board, the projection unit stops projecting the composite image. The same information as the information entered on the information entry board is not projected. Therefore, the conference participant can easily grasp the information entered on the information entry board.

また、請求項5の画像投影装置は、請求項1〜4のいずれかに記載の発明の効果に加え、上記記入時刻を取得できる。   In addition to the effect of the invention according to any one of claims 1 to 4, the image projection apparatus according to claim 5 can acquire the entry time.

また、請求項6の画像投影装置は、請求項5に記載の発明の効果に加え、正確な記入時刻を取得できる。   Further, in addition to the effect of the invention according to claim 5, the image projection apparatus according to claim 6 can acquire an accurate entry time.

請求項7の画像合成装置によれば、画像投影システムの取得手段は、情報記入ボードに情報が記入された時刻である記入時刻を取得できる。また、画像投影システムの送信手段は、撮像画像を、その記入時刻を付してネットワークを介して画像合成装置に送信できる。そして、画像合成装置は、撮像画像を合成する際に、各撮像画像に付されている記入時刻が最新の情報を最前面にして合成できる。   According to the image composition device of the seventh aspect, the acquisition unit of the image projection system can acquire the entry time which is the time when the information is entered on the information entry board. Further, the transmission means of the image projection system can transmit the captured image with the entry time to the image composition device via the network. Then, when combining the captured images, the image composition device can combine the information with the latest entry time attached to each captured image as the foreground.

このように、情報が重なっている部分がある場合であっても、合成画像を作成することができるので、合成画像を投影できる。また、合成画像は、最新の情報画像が最前面になっている。すなわち、古い情報画像が最前面になって投影されることがないので、違和感なく遠隔会議を進行することができる。   Thus, even if there is a portion where information overlaps, a composite image can be created, so that the composite image can be projected. In the composite image, the latest information image is the foreground. That is, since the old information image is not projected in the foreground, the remote conference can proceed without a sense of incongruity.

請求項8の画像投影方法によれば、撮像ステップにおいて、各拠点における情報記入ボードが撮像できる。また、取得ステップにおいて、情報記入ボードに情報が記入された時刻である記入時刻が取得できる。その後、収集ステップにおいて、撮像ステップにおいて撮像された撮像画像が、それぞれ前記記入時刻が付されて収集できる。次いで、合成ステップにおいて、収集ステップにおいて収集した各拠点における撮像画像に含まれている情報記入ボードに記入された各情報に相当する画像である情報画像が抽出されて、前記撮像画像における前記情報画像の位置を保持させつつ前記各情報画像を一つの画像に合成できる。この際、撮像画像に付されている記入時刻が最新の情報が最前面になって合成できる。その後、投影ステップにおいて、合成ステップにおいて合成した合成画像が情報記入ボードに投影できる。   According to the image projecting method of the eighth aspect, the information entry board at each site can be imaged in the imaging step. In addition, in the obtaining step, the entry time that is the time when the information is entered on the information entry board can be obtained. Thereafter, in the collecting step, the picked-up images picked up in the picking-up step can be collected with the entry time added. Next, in the synthesis step, an information image corresponding to each piece of information entered in the information entry board included in the captured image at each location collected in the collecting step is extracted, and the information image in the captured image is extracted. The respective information images can be combined into one image while maintaining the position of. At this time, information with the latest entry time attached to the captured image can be combined with the forefront information. Thereafter, in the projection step, the synthesized image synthesized in the synthesis step can be projected onto the information entry board.

このように、情報が重なっている部分がある場合であっても、合成画像が作成されるので、各画像投影装置は、合成画像を投影できる。また、合成画像は、最新の情報が最前面になっている。すなわち、古い情報が最前面になって投影されることがないので、違和感なく遠隔会議を進行することができる。   Thus, even when there is a portion where information overlaps, a composite image is created, so that each image projection device can project the composite image. In the composite image, the latest information is the foreground. That is, since the old information is not projected in the foreground, the remote conference can proceed without a sense of incongruity.

請求項9の画像投影プログラムをコンピュータに実行させれば、請求項8に記載の効果を得ることができる。   If the image projection program of claim 9 is executed by a computer, the effect of claim 8 can be obtained.

(第1実施形態)
以下、本発明に係る画像投影装置、画像投影方法及び画像投影プログラムの第1実施形態について説明する。この第1実施形態では、一例として、拠点A〜拠点Cの3つにおいて、画像投影装置10a〜10c及びホワイトボード20a〜20cが各々設置されているものとする。図1は、本実施形態の画像投影システム1の概略を示した図である。図1に示すように、画像投影システム1では、拠点A〜拠点Cに各々設けられた画像投影装置10a〜10cがネットワーク30を介して相互に接続されている。尚、ホワイトボード20a〜20cが本発明の「情報記入ボード」に相当する。また、画像投影装置10a及びホワイトボード20aは拠点Aに、画像投影装置10b及びホワイトボード20bは拠点Bに、画像投影装置10c及びホワイトボード20cは拠点Cに設けられている。ホワイトボード20a〜20cは、記入ペン(図示せず)によって、情報を記入することができるボードである。この画像投影システム1では、複数の拠点A〜Cで開催される遠隔会議に適用されるシステムである。そして、各拠点A〜Cでの会議参加者は、自拠点A〜Cのホワイトボード20a〜20cに情報を記入できるとともに、他拠点A〜Cのホワイトボード20a〜20cに記入された情報が、拠点A〜Cのホワイトボード20a〜20cのホワイトボードに投影される。すなわち、複数の拠点A〜C間でホワイトボード20a〜20cに記入された情報を共有するシステムである。
(First embodiment)
Hereinafter, a first embodiment of an image projection apparatus, an image projection method, and an image projection program according to the present invention will be described. In the first embodiment, as an example, it is assumed that the image projectors 10a to 10c and the whiteboards 20a to 20c are respectively installed at the three locations A to C. FIG. 1 is a diagram showing an outline of an image projection system 1 of the present embodiment. As shown in FIG. 1, in the image projection system 1, the image projection apparatuses 10 a to 10 c provided at the sites A to C are connected to each other via a network 30. The white boards 20a to 20c correspond to the “information entry board” of the present invention. The image projector 10a and the whiteboard 20a are provided at the site A, the image projector 10b and the whiteboard 20b are provided at the site B, and the image projector 10c and the whiteboard 20c are provided at the site C. The whiteboards 20a to 20c are boards on which information can be entered with an entry pen (not shown). The image projection system 1 is a system applied to a remote conference held at a plurality of bases A to C. And the meeting participant in each base AC can enter information on the whiteboard 20a-20c of own base AC, and the information entered on the whiteboard 20a-20c of other base AC is It is projected on the white boards 20a to 20c of the bases A to C. That is, this is a system for sharing information entered on the whiteboards 20a to 20c among a plurality of bases A to C.

先ず、画像投影装置10a〜10cの構成について図2を参照して説明する。図2は画像投影装置10a〜10cの概略構成を示したブロック図である。図2に示すように、画像投影装置10a〜10cは、制御回路101、カメラ102、計時装置103、プロジェクタ104、記入終了信号入力装置105及び通信ユニット109を備えている。   First, the configuration of the image projectors 10a to 10c will be described with reference to FIG. FIG. 2 is a block diagram showing a schematic configuration of the image projectors 10a to 10c. As shown in FIG. 2, the image projecting devices 10 a to 10 c include a control circuit 101, a camera 102, a timing device 103, a projector 104, an entry end signal input device 105, and a communication unit 109.

制御回路101は、内部にCPU106、ROM108、RAM107が設けられ、これらはバスで相互に接続されている。このCPU106がROM108に記憶されているプログラムに従って各種演算処理を実行する。また、RAM107は、演算処理の過程で情報を一時的に記憶する役割を担っており、複数の撮像画像の記憶エリアが設けられている。CPU106が行う演算処理としては、ホワイトボード20a〜20cを撮像する撮像処理や、他の画像投影装置10a〜10cのカメラ102が撮像した撮像画像である他拠点撮像画像を投影する投影処理などがある。これら、撮像処理、投影処理については、フローチャートを参照して後述する。   The control circuit 101 includes a CPU 106, a ROM 108, and a RAM 107, which are connected to each other via a bus. The CPU 106 executes various arithmetic processes in accordance with programs stored in the ROM 108. The RAM 107 has a role of temporarily storing information in the course of arithmetic processing, and is provided with a plurality of captured image storage areas. Examples of the arithmetic processing performed by the CPU 106 include imaging processing for imaging the whiteboards 20a to 20c, and projection processing for projecting the image captured at the other site, which is a captured image captured by the camera 102 of the other image projection apparatuses 10a to 10c. . These imaging processing and projection processing will be described later with reference to flowcharts.

カメラ102はCCDやCMOSから成る画像撮像素子を内蔵したデジタル式のカメラで、拠点A〜Cに各々設けられたホワイトボード20a〜20cを撮像できる位置に各々設置されている。このカメラ102は制御回路101からの制御信号に基づいて、拠点A〜Cのホワイトボード20a〜20cを撮像し、その撮像画像のデータを制御回路101に出力する。   The camera 102 is a digital camera incorporating an image pickup device such as a CCD or CMOS, and is installed at a position where the whiteboards 20a to 20c provided at the bases A to C can be imaged. Based on the control signal from the control circuit 101, the camera 102 images the whiteboards 20 a to 20 c at the bases A to C, and outputs the captured image data to the control circuit 101.

計時装置103は現在時刻を計測しCPU106に入力する。また、上記撮像処理が実行されるときには、画像投影装置10a〜10cの3つの計時装置103の時刻が同期させられる。プロジェクタ104は、上記他拠点撮像画像を投影する装置であり、投影面が自拠点A〜Cのホワイトボード20a〜20cとなり、且つ、図3に示すように投影範囲104aがカメラ102の撮像範囲102aと同じになるように、設置位置が定められている。   The time measuring device 103 measures the current time and inputs it to the CPU 106. Further, when the imaging process is executed, the times of the three timing devices 103 of the image projection devices 10a to 10c are synchronized. The projector 104 is a device that projects the image taken at the other site, the projection planes are the whiteboards 20a to 20c of the sites A to C, and the projection range 104a is the imaging range 102a of the camera 102 as shown in FIG. The installation position is determined so as to be the same.

記入終了信号入力装置105は、ホワイトボード20a〜20cへの情報の記入を終了したことを示す記入終了信号を制御回路101に入力する装置である。記入終了信号入力装置105としては、一例として、通常のスイッチで実現できる。すなわち、スイッチが会議参加者によって操作されたときに、記入終了信号を制御回路101に入力する。また、上記記入ペンに微弱電波を出力する装置を設けるとともに、ホワイトボード20a〜20c近傍にその微弱電波を受信する装置として記入終了信号入力装置105を設けるようにしても良い。ここで、微弱電波の強度は、記入ペンがホワイトボード20a〜20cから所定距離以上離れたときに、記入終了信号入力装置105がその微弱電波を受信できないように定める。そして、記入終了信号入力装置105は、上記微弱電波を受信できなくなったときに、記入終了信号を制御回路101に入力するようにする。こうすることで、会議参加者はホワイトボード20a〜20cへの情報の記入が終了したときには、記入ペンをホワイトボード20a〜20cから離すことにより、記入終了信号を制御回路101に入力することができる。尚、通信ユニット109は、ネットワーク30を介して通信するための装置である。   The entry completion signal input device 105 is a device that inputs an entry completion signal indicating that entry of information on the whiteboards 20 a to 20 c is completed to the control circuit 101. As an example, the entry end signal input device 105 can be realized by a normal switch. That is, when the switch is operated by the conference participant, an entry end signal is input to the control circuit 101. In addition to providing a device for outputting weak radio waves to the entry pen, an entry end signal input device 105 may be provided in the vicinity of the whiteboards 20a to 20c as a device for receiving the weak radio waves. Here, the intensity of the weak radio wave is determined so that the entry end signal input device 105 cannot receive the weak radio wave when the writing pen is separated from the whiteboards 20a to 20c by a predetermined distance or more. Then, the entry end signal input device 105 inputs the entry end signal to the control circuit 101 when the weak radio wave cannot be received. By doing so, the conference participants can input an entry completion signal to the control circuit 101 by separating the entry pen from the whiteboards 20a to 20c when entry of information on the whiteboards 20a to 20c is completed. . Note that the communication unit 109 is a device for communicating via the network 30.

次に、上記構成を備えた画像投影装置10a〜10cの制御回路101が実行する撮像処理について、図4に示すフローチャートを参照して説明する。図4は、制御回路101が実行する撮像処理のフローチャートである。なお、この撮像処理は、遠隔会議が開始されたときに、同時に開始される。先ず、この撮像処理では、画像投影装置10a〜10cの3つの計時装置103の時刻を同じ時刻に同期させる時刻同期処理(S11)を行う。この時刻同期処理(S11)では、画像投影装置10a〜10cのいずれかの計時装置103に他の画像投影装置10a〜10cの計時装置103を同期しても良いし、画像投影装置10a〜10cの各計時装置103を、ネットワーク30上に設けた図示しない時刻サーバーに同期しても良い。なお、S11の処理を行うCPU106が本発明の「同期手段」に相当する。   Next, imaging processing executed by the control circuit 101 of the image projection apparatuses 10a to 10c having the above configuration will be described with reference to a flowchart shown in FIG. FIG. 4 is a flowchart of imaging processing executed by the control circuit 101. This imaging process is started simultaneously when the remote conference is started. First, in this imaging process, a time synchronization process (S11) is performed in which the times of the three timing devices 103 of the image projection apparatuses 10a to 10c are synchronized with the same time. In this time synchronization processing (S11), the timing device 103 of the other image projection devices 10a to 10c may be synchronized with the timing device 103 of any of the image projection devices 10a to 10c, or the time of the image projection devices 10a to 10c. Each timing device 103 may be synchronized with a time server (not shown) provided on the network 30. The CPU 106 that performs the process of S11 corresponds to the “synchronizing means” of the present invention.

次いで、計時装置103からの時刻データにより所定周期が経過したか否かを判断する(S12)。この周期は、例えば、1/60秒である。ここで、所定周期が経過するまでは、以降の処理に進まない。そして、所定周期が経過したときには(S12:YES)、各画像投影装置10a〜10cのカメラ102にホワイトボード20a〜20cを各々撮像させる(S13)。   Next, it is determined whether or not a predetermined period has elapsed based on time data from the time measuring device 103 (S12). This period is 1/60 second, for example. Here, the process does not proceed until the predetermined period elapses. Then, when the predetermined period has elapsed (S12: YES), the cameras 102 of the image projection devices 10a to 10c are caused to image the whiteboards 20a to 20c, respectively (S13).

次いで、その撮像画像をRAM107の撮影画像の記憶エリアに記憶する(S14)。次いで、RAM107に記憶されている前回の撮像画像と今回の撮像画像を比較し、画像間に差異を検出したか否かを判断する(S15)。ここで、差異を検出しなかった場合は(S15:NO)、処理をS12に戻り、差異を検出した場合は(S15:YES)、処理をS16に移行する。したがって、撮像画像に差異を検出するまでは、所定周期で繰り返しホワイトボード20a〜20cを撮像することになる。また、上記差異が撮像画像の画素単位で検出できるように、上記所定周期が定められている。また、差異を検出したということは、会議参加者がホワイトボード20a〜20cに情報を記入し始めたことを意味している。   Next, the captured image is stored in the storage area of the captured image in the RAM 107 (S14). Next, the previous captured image stored in the RAM 107 is compared with the current captured image, and it is determined whether a difference is detected between the images (S15). If no difference is detected (S15: NO), the process returns to S12. If a difference is detected (S15: YES), the process proceeds to S16. Therefore, the whiteboards 20a to 20c are repeatedly imaged at a predetermined period until a difference is detected in the captured images. The predetermined period is determined so that the difference can be detected in units of pixels of the captured image. Also, the fact that a difference has been detected means that the conference participant has started to enter information on the whiteboards 20a to 20c.

そして、S16の処理において、記入終了信号入力装置105から記入終了信号が入力されたか否かによって、ホワイトボード20a〜20cへの情報の記入が終了したか否かを判定する。ここで、記入終了信号が入力されるまでは(S16:NO)、このステップを実行する。したがって、記入終了信号が入力されるまでは、カメラ102による撮像が一時的に停止されることになる。一方、記入終了信号が入力されて、ホワイトボード20a〜20cへの情報の記入が終了したと判断した場合は(S16:YES)、計時装置103から現在時刻を取得する(S17)。なお、S17は、本発明の「取得ステップ」に相当する処理である。また、S17を実行するCPU106は、本発明の「取得手段」に相当する。   Then, in the processing of S16, it is determined whether or not the entry of information on the whiteboards 20a to 20c is completed depending on whether or not the entry end signal is input from the entry end signal input device 105. Here, this step is executed until an entry end signal is input (S16: NO). Therefore, the imaging by the camera 102 is temporarily stopped until the entry end signal is input. On the other hand, when it is determined that entry of information on the whiteboards 20a to 20c has been completed when the entry completion signal is input (S16: YES), the current time is acquired from the timing device 103 (S17). Note that S17 is a process corresponding to the “acquisition step” of the present invention. The CPU 106 that executes S17 corresponds to the “acquiring means” of the present invention.

次いで、情報の記入が終了したと判断された(S16:YES)ホワイトボード20a〜20cを撮影しているカメラ102に当該ホワイトボード20a〜20cを撮像させ、その撮像画像データをカメラ102から受け取る(S18)。すなわち、ホワイトボード20a〜20cの内、情報が記入されているホワイトボード20a〜20cを撮像することになる。なお、カメラ102が本発明の「撮像手段」に相当し、S13、S18の処理が、本発明の「撮像ステップ」に相当する処理である。   Next, it is determined that the entry of information has been completed (S16: YES), the camera 102 that is photographing the whiteboards 20a to 20c is caused to image the whiteboards 20a to 20c, and the captured image data is received from the camera 102 ( S18). That is, among the whiteboards 20a to 20c, the whiteboards 20a to 20c in which information is written are imaged. The camera 102 corresponds to the “imaging unit” of the present invention, and the processes of S13 and S18 are processes corresponding to the “imaging step” of the present invention.

次いで、S18における撮像画像データを自拠点撮像画像として、その自拠点撮像画像をS17にて取得した記入時刻を付して、他の画像投影装置10a〜10cにネットワーク30を介して送信する(S19)。その後、処理をS12に戻す。したがって、ホワイトボード20a〜20cに情報が記入される度に、その情報が記入された記入時刻を付して、自拠点撮像画像を他の10a〜10cに送信することになる。なお、S19を実行するCPU106は、本発明の「送信手段」に相当する。   Next, the captured image data in S18 is used as a captured image of the local site, and the local site captured image is attached with the entry time acquired in S17, and transmitted to the other image projection apparatuses 10a to 10c via the network 30 (S19). ). Thereafter, the process returns to S12. Therefore, every time information is written on the whiteboards 20a to 20c, the time when the information is written is added, and the captured image of the own base is transmitted to the other 10a to 10c. The CPU 106 that executes S19 corresponds to the “transmission unit” of the present invention.

続いて、画像投影装置10a〜10cの各制御回路101が実行する投影処理について、図5のフローチャートを参照して説明する。図5は、制御回路101がプロジェクタ104を制御して実行する投影処理のフローチャートである。なお、この投影処理は、遠隔会議が開始されたときに開始される。また、投影処理は、上述した撮像処理と並列して実行される。   Next, projection processing executed by each control circuit 101 of the image projection apparatuses 10a to 10c will be described with reference to the flowchart of FIG. FIG. 5 is a flowchart of a projection process executed by the control circuit 101 by controlling the projector 104. This projection process is started when the remote conference is started. The projection process is executed in parallel with the above-described imaging process.

先ず、他の画像投影装置10a〜10cが自拠点撮像画像として送信した画像を他拠点撮像画像として受信したか否かを判断する(S31)。ここで、他拠点撮像画像を受信した場合は(S31:YES)、処理をS32へ移行し、受信していない場合は(S31:NO)、処理をS35へ移行する。なお、他拠点撮像画像には、上記記入時刻が付されている。なお、S31の判定がYESとなる処理は、本発明の「受信手段」に相当する処理である。また、S19及びS31の判定がYESとなる処理は、本発明の「収集ステップ」に相当する。   First, it is determined whether or not the image transmitted by the other image projecting apparatuses 10a to 10c as the captured image at the local site is received as the captured image at the other site (S31). Here, when the other-site captured image is received (S31: YES), the process proceeds to S32, and when not received (S31: NO), the process proceeds to S35. Note that the above-mentioned entry time is attached to the image taken at the other site. The process in which the determination in S31 is YES is a process corresponding to the “reception unit” of the present invention. The process in which the determinations in S19 and S31 are YES corresponds to the “collection step” of the present invention.

図6は拠点Aに設けられたホワイトボード20aを示した図であり、図7は拠点Bに設けられたホワイトボード20bを示した図であり、図8は拠点Cに設けられたホワイトボード20cを示した図である。図6に示すように、拠点Aに設けられたホワイトボード20aには、「〜ここの辺で部長退席」という情報90aが記入されている。また、図7に示すように、拠点Bに設けられたホワイトボード20bには、「議事録 1.アジェンダ 2.内容」という情報90bが記入されている。また、図8に示すように、拠点Cに設けられたホワイトボード20cには、「3.討議」という情報90cが記入されている。したがって、画像投影装置10aは、S110において、情報90bが含まれている他拠点撮像画像と、情報90cが含まれている他拠点撮像画像とを受信することになる。また、画像投影装置10bは、情報90aが含まれている他拠点撮像画像と、情報90cが含まれている他拠点撮像画像とを受信することになる。また、画像投影装置10cは、情報90aが含まれている他拠点撮像画像と、情報90bが含まれている他拠点撮像画像とを受信することになる。また、情報90aが含まれている他拠点撮像画像に付されている記入時刻は「2008年6月10日 10時02分」、情報90bが含まれている他拠点撮像画像に付されている記入時刻は「2008年6月10日 10時00分」、情報90cが含まれている他拠点撮像画像に付されている記入時刻は「2008年6月10日 10時01分」とする。   6 is a diagram showing the whiteboard 20a provided at the site A, FIG. 7 is a diagram showing the whiteboard 20b provided at the site B, and FIG. 8 is a whiteboard 20c provided at the site C. FIG. As shown in FIG. 6, the white board 20a provided at the site A is filled with information 90a that says “to leave the manager at this side”. Further, as shown in FIG. 7, the information 90 b of “minutes 1. agenda 2. contents” is entered in the whiteboard 20 b provided at the site B. Also, as shown in FIG. 8, the information 90c “3. Discussion” is entered in the whiteboard 20c provided at the site C. Therefore, in S110, the image projection device 10a receives the other-site captured image including the information 90b and the other-site captured image including the information 90c. In addition, the image projection device 10b receives the other base image including the information 90a and the other base image including the information 90c. In addition, the image projection device 10c receives the other-site captured image including the information 90a and the other-site captured image including the information 90b. The entry time attached to the image taken at the other site including the information 90a is “10:02 on June 10, 2008”, and the image taken at the other site including the information 90b. The entry time is “June 10, 2008, 10:00”, and the entry time attached to the image captured at the other site including the information 90c is “June 10, 2008, 10:01”.

次いで、他拠点撮像画像に含まれているホワイトボード20a〜20cに記入された各情報に相当する画像である情報画像を抽出する(S32)。具体的には、他拠点撮像画像を構成する各画素に着目して、画素の色がホワイトボード20a〜20cの色に相当する色と異なる画素を収集することによって、情報画像を抽出する。なお、抽出した情報画像に、その情報画像の他拠点撮像画像における位置情報を付しておく。ここで、その位置情報は、他拠点撮像画像の所定の位置(例えば他拠点撮像画像の中心点)を原点としたときの座標である。また、S32において、既に抽出した情報が他拠点撮像画像に含まれている場合は、その情報に相当する情報画像は抽出しない。   Next, an information image that is an image corresponding to each piece of information entered in the whiteboards 20a to 20c included in the image taken at the other site is extracted (S32). Specifically, paying attention to each pixel constituting the image picked up at the other site, the information image is extracted by collecting pixels whose color is different from the color corresponding to the color of the whiteboards 20a to 20c. It should be noted that the extracted information image is attached with the position information in the other site captured image of the information image. Here, the position information is coordinates when the origin is a predetermined position (for example, the center point of the image captured at the other site) of the image captured at the other site. In S32, when the already extracted information is included in the image taken at the other site, the information image corresponding to the information is not extracted.

S32を、図6〜図8の例で説明すると、画像投影装置10aは、図7に示す情報90bに相当する情報画像91bと、図8に示す情報90cに相当する情報画像91cとを抽出することになる。また、画像投影装置10bは、図6に示す情報90aに相当する情報画像91aと、図8に示す情報90cに相当する情報画像91cとを抽出することになる。また、画像投影装置10cは、図6に示す情報90aに相当する情報画像91aと、図7に示す情報90bに相当する情報画像91bとを抽出することになる。   S32 will be described with reference to the examples of FIGS. 6 to 8. The image projection apparatus 10a extracts an information image 91b corresponding to the information 90b shown in FIG. 7 and an information image 91c corresponding to the information 90c shown in FIG. It will be. Further, the image projection device 10b extracts an information image 91a corresponding to the information 90a shown in FIG. 6 and an information image 91c corresponding to the information 90c shown in FIG. Further, the image projection apparatus 10c extracts an information image 91a corresponding to the information 90a shown in FIG. 6 and an information image 91b corresponding to the information 90b shown in FIG.

次いで、S32にて抽出した情報画像及び後述するにS34にてRAM107に情報画像を記憶したならばその情報画像ついて、各情報画像に付された上記位置情報を参照して、各情報画像の原点を一致させることによって、他拠点撮像画像における情報画像の位置を保持させつつ各情報画像を一つの画像に合成する(S33)。この際、他拠点撮像画像に付されている記入時刻が最新の情報画像を最前面にして合成する。図6〜図8の例で説明すると、画像投影装置10aは、情報画像91bと情報画像91cとを一つの画像に合成する。この際、情報画像91bに対応する記入時刻は「2008年6月10日 10時00分」であり、情報画像91cに対応する記入時刻は「2008年6月10日 10時01分」であるので、情報画像91bよりも情報画像91cを前にして合成する。図9は、情報画像91bと情報画像91cとを合成した合成画像P10を示している。このように、情報画像91bと情報画像91cは重なる部分がないので、この場合、どちらを前にしても同じ合成画像となる。   Next, if the information image extracted in S32 and the information image stored in the RAM 107 in S34, which will be described later, are referred to the positional information attached to each information image, the origin of each information image is referred to. By matching, the information images are combined into one image while maintaining the position of the information image in the image taken at the other site (S33). At this time, the information image with the latest entry time attached to the image taken at the other site is combined with the information image at the forefront. 6 to 8, the image projecting device 10a combines the information image 91b and the information image 91c into one image. At this time, the entry time corresponding to the information image 91b is “June 10, 2008 10:00”, and the entry time corresponding to the information image 91c is “June 10, 2008 10:01”. Therefore, the information image 91c is combined before the information image 91b. FIG. 9 shows a composite image P10 obtained by combining the information image 91b and the information image 91c. As described above, since the information image 91b and the information image 91c do not overlap each other, in this case, the same composite image is obtained regardless of which is preceded.

また、画像投影装置10bは、情報画像91aと情報画像91cとを一つの画像に合成する。この際、情報画像91aに対応する記入時刻は「2008年6月10日 10時02分」であり、情報画像91cに対応する記入時刻は「2008年6月10日 10時01分」であるので、情報画像91cよりも情報画像91aを前にして合成する。図10は、情報画像91aと情報画像91cとを合成した合成画像P20を示している。このように、情報画像91aと情報画像91cは重なる部分がないので、この場合、どちらを前にしても同じ合成画像となる。   In addition, the image projection device 10b combines the information image 91a and the information image 91c into one image. At this time, the entry time corresponding to the information image 91a is “June 10, 2008 10:02”, and the entry time corresponding to the information image 91c is “June 10, 2008 10:01”. Therefore, the information image 91a is combined before the information image 91c. FIG. 10 shows a composite image P20 obtained by combining the information image 91a and the information image 91c. As described above, since the information image 91a and the information image 91c do not overlap each other, in this case, the same composite image is obtained no matter which is preceded.

また、画像投影装置10cは、情報画像91aと情報画像91bとを一つの画像に合成する。この際、情報画像91aに対応する記入時刻は「2008年6月10日 10時02分」であり、情報画像91bに対応する記入時刻は「2008年6月10日 10時00分」であるので、情報画像91bよりも情報画像91aを前にして合成する。図11は、情報画像91aと情報画像91bとを合成した合成画像P30を示している。このように、情報画像91aと情報画像91bは重なる部分がないので、この場合、どちらを前にしても同じ合成画像となる。なお、S32及びS33を実行するCPU106は、本発明の「合成手段」に相当し、S111及びS112は、本発明の「合成ステップ」に相当する。   In addition, the image projection device 10c combines the information image 91a and the information image 91b into one image. At this time, the entry time corresponding to the information image 91a is “June 10, 2008 10:02”, and the entry time corresponding to the information image 91b is “June 10, 2008 10:00”. Therefore, the information image 91a is combined before the information image 91b. FIG. 11 shows a composite image P30 obtained by combining the information image 91a and the information image 91b. As described above, since the information image 91a and the information image 91b do not overlap each other, in this case, the same composite image is obtained regardless of which is preceded. The CPU 106 that executes S32 and S33 corresponds to “combining means” of the present invention, and S111 and S112 correspond to “combining step” of the present invention.

次いで、情報画像を記入時刻に対応付けてRAM107に記憶する(S34)。図6〜図8に示す場合において、図12は、画像投影装置10aのRAM107に記憶される内容を示しており、図13は、画像投影装置10bのRAM107に記憶される内容を示しており、図14は、画像投影装置10cのRAM107に記憶される内容を示している。図12に示すように、画像投影装置10aのRAM107には、情報画像91bと情報画像91c及びそれらの記入時刻が記憶されることになる。また、図13に示すように、画像投影装置10bのRAM107には、情報画像91aと情報画像91c及びそれらの記入時刻が記憶されることになる。また、図14に示すように、画像投影装置10cのRAM107には、情報画像91bと情報画像91c及びそれらの記入時刻が記憶されることになる。なお、S34で記憶した情報画像は、上述したように、S33で用いられる。   Next, the information image is stored in the RAM 107 in association with the entry time (S34). In the cases shown in FIGS. 6 to 8, FIG. 12 shows the contents stored in the RAM 107 of the image projection apparatus 10a, and FIG. 13 shows the contents stored in the RAM 107 of the image projection apparatus 10b. FIG. 14 shows the contents stored in the RAM 107 of the image projection apparatus 10c. As shown in FIG. 12, the information image 91b, the information image 91c, and their entry times are stored in the RAM 107 of the image projection apparatus 10a. Further, as shown in FIG. 13, the information image 91a, the information image 91c, and their entry times are stored in the RAM 107 of the image projection apparatus 10b. As shown in FIG. 14, the information image 91b, the information image 91c, and their entry times are stored in the RAM 107 of the image projection apparatus 10c. Note that the information image stored in S34 is used in S33 as described above.

次いで、S33にて合成した合成画像をプロジェクタ104に出力してホワイトボード20a〜20cに投影する(S35)。図6〜図8の例で言えば、ホワイトボード20aには合成画像P10(図9参照)が投影され、ホワイトボード20bには合成画像P20(図10参照)が投影され、ホワイトボード20cには合成画像P30(図11参照)が投影される。その結果、各ホワイトボード20a〜20cには、図15に示す情報が表示されることになり、各拠点A〜Cであたかも一つのホワイトボードで遠隔会議が進行しているかのように、会議参加者に思わせることができる。   Next, the synthesized image synthesized in S33 is output to the projector 104 and projected on the whiteboards 20a to 20c (S35). 6 to 8, the composite image P10 (see FIG. 9) is projected on the whiteboard 20a, the composite image P20 (see FIG. 10) is projected on the whiteboard 20b, and the whiteboard 20c is projected. A composite image P30 (see FIG. 11) is projected. As a result, the information shown in FIG. 15 is displayed on each of the whiteboards 20a to 20c, and the conference participation is performed as if the remote conference is progressing at each of the bases A to C with one whiteboard. Can make you think.

次いで、自身がカメラ102に撮像の指示をするタイミングか否かを判断する(S36)。ここで、撮像の指示をするタイミングであると判断した場合は(S36:YES)、プロジェクタ104に指示をして、合成画像の投影を中止させる(S37)。このようにしているのは、各拠点A〜Cにおいて、ホワイトボード20a〜20cに記入されている情報と同じ情報を投影するのを防止するためである。したがって、会議参加者は、ホワイトボード20a〜20cに記入されている情報を把握しやすくなる。その後、処理はS31に戻る。そして、S31〜S33の処理を経て、合成画像の投影を再開する。また、S36において、撮像の指示をするタイミングでない場合は(S36:NO)、処理はS31に戻る。この場合、S31〜S33の処理を経て、合成画像の投影は継続することになる。なお、S35〜S37を実行するCPU106は本発明の「投影手段」に相当し、S35〜S37は本発明の「投影ステップ」に相当する。   Next, it is determined whether or not it is time to instruct the camera 102 to take an image (S36). If it is determined that it is time to instruct imaging (S36: YES), the projector 104 is instructed to stop projecting the composite image (S37). The reason for this is to prevent projection of the same information as the information entered on the whiteboards 20a to 20c at each of the sites A to C. Therefore, the conference participant can easily grasp the information entered on the whiteboards 20a to 20c. Thereafter, the process returns to S31. Then, the projection of the composite image is resumed through the processes of S31 to S33. In S36, when it is not the timing for instructing imaging (S36: NO), the process returns to S31. In this case, the projection of the composite image is continued through the processes of S31 to S33. The CPU 106 that executes S35 to S37 corresponds to the “projection unit” of the present invention, and S35 to S37 corresponds to the “projection step” of the present invention.

図6〜図8の例において、その後、ホワイトボード20cの情報画像90bの一部である「2.内容」に相当する位置に、「2.内容」を取り消すための取消線「=」を示す情報90dが記入されたとする。なお、取消線「=」が記入された記入時刻は、「2008年6月10日 10時05分」とする。図16〜図18は、そのときのホワイトボード20a〜20cを示した図である。なお、図16はホワイトボード20aを、図17はホワイトボード20bを、図18はホワイトボード20cを示している。図18に示すように、ホワイトボード20cには、「2.内容」に相当する位置に取消線「=」が記入されている。   In the example of FIGS. 6 to 8, a strike-through line “=” for canceling “2. content” is shown at a position corresponding to “2. content” which is a part of the information image 90 b of the whiteboard 20 c. Assume that information 90d is entered. The entry time when the strikethrough “=” is entered is “10:05 on June 10, 2008”. 16 to 18 are diagrams showing the white boards 20a to 20c at that time. 16 shows the whiteboard 20a, FIG. 17 shows the whiteboard 20b, and FIG. 18 shows the whiteboard 20c. As shown in FIG. 18, the whiteboard 20c has a strikethrough “=” written at a position corresponding to “2. Contents”.

この場合、画像投影装置10cは、取消線「=」が記入された記入時刻「2008年6月10日 10時05分」を取得し(図4、S17)、ホワイトボード20cを撮像する(図4、S18)。その後、その撮像画像を自拠点撮像画像として、記入時刻「2008年6月10日 10時05分」を付して、画像投影装置10a、10bに送信する(図4、S19)。そして、画像投影装置10a、10bは、S31において、他拠点撮像画像を受信し(図5、S31:YES)、その他拠点撮像画像から取消線「=」に相当する情報画像91dを抽出する(図5、S32)。その後、画像投影装置10aは、情報画像91d及びRAM107に記憶されている情報画像91b、情報画像91c(図11参照)を一つの画像に合成する。この際、上述したように、記入時刻が最新の情報画像が最前面になるように合成する。この場合、情報画像91dの記入時刻が最新なので、情報画像91dが最前面となる。図19は、そのときの合成画像P11を示している。同図に示すように、「2.内容」と「=」が重なっている。図21は、その部分の拡大図である。同図に示すように、「2.内容」よりも「=」が前になっている。したがって、古い情報画像が最前面になって投影されることがないので、違和感なく遠隔会議を進行することができる。   In this case, the image projection apparatus 10c acquires the entry time “June 10, 2008 10:05” in which the strikethrough “=” is entered (FIG. 4, S17), and images the whiteboard 20c (FIG. 4). 4, S18). After that, the captured image is used as a captured image at the local site, and the entry time “June 10, 2008, 10:05” is added and transmitted to the image projectors 10a and 10b (FIG. 4, S19). Then, in S31, the image projection devices 10a and 10b receive the other-site captured image (FIG. 5, S31: YES), and extract the information image 91d corresponding to the strikethrough “=” from the other-site captured image (FIG. 5). 5, S32). Thereafter, the image projection apparatus 10a combines the information image 91d and the information image 91b and the information image 91c (see FIG. 11) stored in the RAM 107 into one image. At this time, as described above, the information image with the latest entry time is synthesized so that it becomes the foreground. In this case, since the entry time of the information image 91d is the latest, the information image 91d is the foreground. FIG. 19 shows a composite image P11 at that time. As shown in the figure, “2. Contents” and “=” overlap. FIG. 21 is an enlarged view of the portion. As shown in the figure, “=” precedes “2. Contents”. Therefore, since the old information image is not projected in the foreground, the remote conference can proceed without a sense of incongruity.

なお、画像投影装置10bは、情報画像91d及びRAM107に記憶されている情報画像91a、情報画像91c (図12参照)を一つの画像に合成する。図20は、その合成画像P21を示した図である。同図に示すように、情報画像91d、情報画像91a、情報画像91cは、重なる部分がないので、どの情報画像が最前面になっても、同じ合成画像となる。   The image projection device 10b combines the information image 91d and the information image 91a and the information image 91c (see FIG. 12) stored in the RAM 107 into one image. FIG. 20 is a diagram showing the composite image P21. As shown in the figure, the information image 91d, the information image 91a, and the information image 91c do not overlap each other, and therefore the same composite image is obtained regardless of which information image is the foreground.

以上、本実施形態の画像投影システム1の画像投影装置10a〜10cは、ホワイトボード20a〜20cに情報が記入された記入時刻を取得し(S17)、そのホワイトボード20a〜20cを撮像する(S18)。そして、S18にて撮像した撮像画像を自拠点撮像画像として、記入時刻を付して、他の画像投影装置10a〜10cに送信する(S19)。この自拠点撮像画像を、他の画像投影装置10a〜10cが他拠点撮像画像として受信する(S31:YES)。そして、他拠点撮像画像に含まれているホワイトボード20a〜20cに記入された各情報に相当する画像である情報画像を抽出して(S32)、他拠点撮像画像における情報画像の位置を保持させつつ各情報画像を一つの画像に合成する(S33)。この際、他拠点撮像画像に付されている記入時刻が最新の情報画像を最前面にして合成する。そして、その合成した合成画像を投影する(S34)。   As described above, the image projecting apparatuses 10a to 10c of the image projecting system 1 according to the present embodiment acquire the entry time when information is entered in the whiteboards 20a to 20c (S17), and image the whiteboards 20a to 20c (S18). ). Then, the captured image captured in S18 is transmitted as a self-portion captured image to the other image projection apparatuses 10a to 10c with an entry time (S19). The other image projection devices 10a to 10c receive the captured image of the local site as the captured image of the other site (S31: YES). Then, an information image corresponding to each information entered in the whiteboards 20a to 20c included in the image taken at the other site is extracted (S32), and the position of the information image in the image taken at the other site is held. The information images are combined into one image (S33). At this time, the information image with the latest entry time attached to the image taken at the other site is combined with the information image at the forefront. Then, the synthesized composite image is projected (S34).

これにより、情報が重なっている部分がある場合であっても、合成画像を作成することができるので、合成画像を投影できる。また、合成画像は、最新の情報画像が最前面になっている。すなわち、古い情報画像が最前面になって投影されることがないので、違和感なく遠隔会議を進行することができる。   Thereby, even if there is a portion where information overlaps, a composite image can be created, so that the composite image can be projected. In the composite image, the latest information image is the foreground. That is, since the old information image is not projected in the foreground, the remote conference can proceed without a sense of incongruity.

また、画像投影装置10a〜10c間で現在時刻を同期しているので(S11)、正確に最新の情報画像を最前面にすることができる。   Further, since the current time is synchronized between the image projection apparatuses 10a to 10c (S11), the latest information image can be accurately brought to the forefront.

また、カメラ102でホワイトボード20a〜20cを撮像するときには、プロジェクタ104に合成画像の投影を中止させているので(S37)、各拠点A〜Cにおいて、ホワイトボード20a〜20cに記入されている情報と同じ情報を投影するのを防止できる。したがって、会議参加者は、ホワイトボード20a〜20cに記入されている情報を把握しやすくなる。   When the camera 102 captures the whiteboards 20a to 20c, the projector 104 stops projecting the composite image (S37), so the information entered in the whiteboards 20a to 20c at the respective locations A to C. Can be prevented from projecting the same information. Therefore, the conference participant can easily grasp the information entered on the whiteboards 20a to 20c.

また、画像投影装置10a〜10cは、所定周期ごとにカメラ102でホワイトボード20a〜20cを撮像して(S12、S13)、前回撮像した撮像画像と今回撮像した撮像画像とを比較して、差異を検出したときに(S15:YES)、記入時刻を取得している(S16)。そして、上記差異が撮像画像の画素単位で検出できるように、上記所定周期が定められている。したがって、正確な記入時刻を取得できる。   Further, the image projection apparatuses 10a to 10c capture the whiteboards 20a to 20c with the camera 102 at predetermined intervals (S12, S13), and compare the captured image captured last time with the captured image captured this time. Is detected (S15: YES), the entry time is acquired (S16). The predetermined period is determined so that the difference can be detected in pixel units of the captured image. Therefore, an accurate entry time can be acquired.

(第2実施形態)
次に、発明に係る画像投影装置、画像合成装置、画像投影方法及び画像投影プログラムの第2実施形態について説明する。図22は、本実施形態の画像投影システム2の概略を示した図である。同図に示すように、画像投影システム2は、各拠点A〜Cにおいて、画像投影装置11、本発明の「情報記入ボード」に相当するホワイトボード21を備えている。そして、各拠点A〜Cにおいて、画像投影装置11はネットワーク30に接続されており、そのネットワーク30を介して、拠点A〜C間で、種々の情報を送受信できる。さらに、画像投影システム2は、ネットワーク30と接続された画像合成装置40を備えている。以下、画像投影システム2について説明する。なお、画像投影装置11とホワイトボード21の構成は、第1実施形態と同じなので説明を省略する。
(Second Embodiment)
Next, a second embodiment of the image projection apparatus, the image composition apparatus, the image projection method, and the image projection program according to the invention will be described. FIG. 22 is a diagram showing an outline of the image projection system 2 of the present embodiment. As shown in the figure, the image projection system 2 includes an image projection device 11 and a whiteboard 21 corresponding to the “information entry board” of the present invention at each of the sites A to C. In each of the bases A to C, the image projection apparatus 11 is connected to the network 30, and various information can be transmitted and received between the bases A to C via the network 30. Further, the image projection system 2 includes an image composition device 40 connected to the network 30. Hereinafter, the image projection system 2 will be described. Note that the configurations of the image projection device 11 and the whiteboard 21 are the same as those in the first embodiment, and a description thereof will be omitted.

画像投影装置11は、情報が記入されている自拠点A〜Cにおけるホワイトボード21を撮像する。また画像投影装置11は、ホワイトボード21に情報が記入された記入時刻を取得する。さらに、画像投影装置11は、画像投影装置11が撮像した撮像画像を、記入時刻を付して、ネットワーク30を介して画像合成装置40に送信する。   The image projection apparatus 11 images the whiteboard 21 at its own bases A to C where information is written. Further, the image projection device 11 acquires the entry time when information is entered on the whiteboard 21. Further, the image projecting device 11 transmits the captured image captured by the image projecting device 11 to the image synthesizing device 40 via the network 30 with an entry time.

画像合成装置40は、各画像投影装置11から送信されてきた撮像画像を受信して、それら撮像画像に含まれているホワイトボード21に記入された各情報に相当する画像である情報画像を抽出して、撮像画像における情報画像の位置を保持させつつ各情報画像を一つの画像に合成する。この際、各撮像画像に付されている記入時刻が最新の情報画像を最前面にして合成する。その後、合成した画像である合成画像を各画像投影装置11に送信する。そして、各画像投影装置11は、合成画像を受信して、その合成画像を投影する。   The image composition device 40 receives the captured images transmitted from the image projection devices 11 and extracts information images that are images corresponding to the information entered on the whiteboard 21 included in the captured images. Then, each information image is combined into one image while maintaining the position of the information image in the captured image. At this time, the information image with the latest entry time attached to each captured image is synthesized with the information image at the forefront. Thereafter, a composite image that is a composite image is transmitted to each image projection device 11. Each image projection device 11 receives the composite image and projects the composite image.

ここで、画像投影システム2の動作について、詳細に説明する。画像投影装置11は、第1実施形態の図4に示す撮像処理を実行する。この撮像処理については、第1実施形態と同じなので説明を省略する。   Here, the operation of the image projection system 2 will be described in detail. The image projecting device 11 executes the imaging process shown in FIG. 4 of the first embodiment. Since this imaging process is the same as in the first embodiment, a description thereof will be omitted.

次に、画像合成装置40が実行する処理について、図23のフローチャートを参照して説明する。なお、このフローチャートの処理は一定期間おきに実行される。先ず、各拠点A〜Cから送信される撮像画像を受信したか否かを判定する(S51)。撮像画像を受信していない場合は(S51:NO)、このフローチャートの処理を終了する。一方、撮像画像を受信した場合は(S51:YES)、第1実施形態の図5に示すS32と同じ処理により、撮像画像に含まれているホワイトボード21に記入された各情報に相当する画像である情報画像を抽出する(S52)。   Next, processing executed by the image composition device 40 will be described with reference to the flowchart of FIG. Note that the processing of this flowchart is executed at regular intervals. First, it is determined whether or not the captured images transmitted from the respective bases A to C have been received (S51). If a captured image has not been received (S51: NO), the process of this flowchart is terminated. On the other hand, when a captured image is received (S51: YES), an image corresponding to each piece of information entered on the whiteboard 21 included in the captured image by the same processing as S32 shown in FIG. 5 of the first embodiment. Is extracted (S52).

次いで、第1実施形態の図5に示すS33と同じ処理により、S52にて抽出した情報画像及び後述するにS54にて自身に情報画像を記憶したならばその情報画像ついて、撮像画像における情報画像の位置を保持させつつ各情報画像を一つの画像に合成する(S53)。この際、撮像画像に付されている記入時刻が最新の情報画像を最前面にして合成する。次いで、情報画像を記入時刻に対応付けて自身に記憶する(S54)。なお、S54で記憶した情報画像は、上述したように、S53で用いられる。次いで、S53にて合成した合成画像を各拠点A〜Cの画像投影装置11に送信する(S55)。その後、このフローチャートの処理を終了する。   Next, by the same processing as S33 shown in FIG. 5 of the first embodiment, if the information image extracted in S52 and the information image stored in itself in S54 to be described later, the information image is the information image in the captured image. Each information image is combined into one image while maintaining the position of (S53). In this case, the information image with the latest entry time attached to the captured image is combined with the foreground as the foreground. Next, the information image is stored in association with the entry time (S54). Note that the information image stored in S54 is used in S53 as described above. Next, the composite image synthesized in S53 is transmitted to the image projectors 11 at the respective bases A to C (S55). Then, the process of this flowchart is complete | finished.

続いて、各拠点A〜Cの画像投影装置11が実行する投影処理について、図24のフローチャートを参照して説明する。なお、この投影処理は、遠隔会議が開始されたときに開始される。また、投影処理は、撮像処理と並列して実行される。先ず、画像合成装置40から送信された合成画像を受信する(S71)。次に、その合成画像をホワイトボード21に投影する(S72)。次に、第1実施形態の図5に示すS36とS37と同じ処理を実行する(S73、S74)。   Next, projection processing executed by the image projection apparatuses 11 at the respective bases A to C will be described with reference to the flowchart of FIG. This projection process is started when the remote conference is started. The projection process is executed in parallel with the imaging process. First, the composite image transmitted from the image composition device 40 is received (S71). Next, the composite image is projected onto the whiteboard 21 (S72). Next, the same processing as S36 and S37 shown in FIG. 5 of the first embodiment is executed (S73, S74).

このように、合成画像を作成する装置を画像投影装置と別に設けても、第1実施形態と同じ効果が得られる。なお、画像合成装置40は、合成画像を作成する際に、拠点A〜Cごとに別の合成画像を作成してもよい。例えば、拠点Aに対する合成画像を作成する際には、拠点Bと拠点Cからの撮像画像を合成する。また、拠点Bに対する合成画像を作成する際には、拠点Aと拠点Cからの撮像画像を合成する。また、拠点Cに対する合成画像を作成する際には、拠点Aと拠点Bからの撮像画像を合成する。こうすることにより、各拠点A〜Cにおいて、ホワイトボード21に記入されている情報と同じ情報を投影するのを防止できる。したがって、会議参加者は、ホワイトボード21に記入されている情報を把握しやすくなる。   As described above, even if a device for creating a composite image is provided separately from the image projection device, the same effect as in the first embodiment can be obtained. The image composition device 40 may create another composite image for each of the bases A to C when creating the composite image. For example, when creating a composite image for base A, the captured images from base B and base C are combined. When creating a composite image for the base B, the captured images from the base A and the base C are combined. Further, when creating a composite image for the base C, the captured images from the base A and the base B are combined. By doing so, it is possible to prevent the same information as the information written on the whiteboard 21 from being projected at each of the sites A to C. Therefore, the conference participant can easily understand the information entered on the whiteboard 21.

なお、本発明に係る画像投影装置、画像合成装置、画像投影方法及び画像投影プログラムは、上記実施形態に限定されるわけではなく、その趣旨を逸脱しない範囲において種々変形してもよい。例えば、上記第1、第2実施形態では、記入時刻を画像単位で取得していたが、画素単位で記入時刻を取得するようにしてもよい。例えば、画素に差異を検出したときに、記入時刻を取得するとともに、ホワイトボード20a〜20c、21を撮像し、その撮像画像を他の画像投影装置10a〜10c又は画像合成装置40に送信する。その撮像画像を受信した画像投影装置10a〜10c又は画像合成装置40は、画像を合成し、その合成画像を画像投影装置10a〜10c、11が投影する。こうすることにより、より正確に最新の情報画像を最前面にすることができるとともに、情報が記入されている途中でも合成画像が投影されるので、遠隔会議に臨場感を持たせることができる。   The image projecting device, the image synthesizing device, the image projecting method, and the image projecting program according to the present invention are not limited to the above-described embodiment, and various modifications may be made without departing from the spirit of the present invention. For example, in the first and second embodiments, the entry time is acquired in units of images, but the entry time may be acquired in units of pixels. For example, when a difference is detected in the pixels, the entry time is acquired, the whiteboards 20a to 20c and 21 are captured, and the captured images are transmitted to the other image projection apparatuses 10a to 10c or the image composition apparatus 40. The image projecting devices 10a to 10c or the image synthesizing device 40 that have received the captured images synthesize the images, and the image projecting devices 10a to 10c and 11 project the synthesized images. In this way, the latest information image can be brought to the forefront more accurately, and the composite image can be projected even while information is being entered, so that the remote conference can have a sense of realism.

また、上記第1、第2実施形態では、記入時刻として、分単位までの時刻を取得していたが、さらに細かい単位までの時刻を取得するようにしてもよい。こうすることにより、より正確に最新の情報画像を最前面にすることができる。   In the first and second embodiments, the time up to the minute unit is acquired as the entry time. However, the time up to a finer unit may be acquired. By doing so, the latest information image can be brought to the forefront more accurately.

また、上記第1、第2実施形態では、記入時刻として、現在時刻を取得していたが、画像投影装置10a〜10c、11間での相対時間を取得するようにしてもよい。すなわち、時刻の同期時を基準とした時間を取得するようにする。このようにしても、第1、第2実施形態と同じ効果が得られる。   In the first and second embodiments, the current time is acquired as the entry time. However, the relative time between the image projection apparatuses 10a to 10c and 11 may be acquired. That is, the time based on the time synchronization is acquired. Even if it does in this way, the same effect as a 1st and 2nd embodiment is acquired.

また、上記第1、第2実施形態では、3拠点間の遠隔会議について説明したが、複数の拠点であれば、何拠点あっても本発明は適用できる。   In the first and second embodiments, the remote conference between the three sites has been described. However, the present invention can be applied to any number of sites as long as there are a plurality of sites.

また、第1実施形態において、図4に示す撮像処理を画像投影装置10a〜10c以外の装置が実行してもよい。すなわち、画像投影装置10a〜10cは、図5に示す投影処理のみを実行する。   In the first embodiment, the imaging process shown in FIG. 4 may be executed by an apparatus other than the image projecting apparatuses 10a to 10c. That is, the image projection devices 10a to 10c execute only the projection processing shown in FIG.

第1実施形態における画像投影システム1の概略を示した図である。It is the figure which showed the outline of the image projection system 1 in 1st Embodiment. 画像投影装置10a〜10cの概略構成を示したブロック図である。It is the block diagram which showed schematic structure of the image projectors 10a-10c. カメラ102の撮像範囲102aとプロジェクタ104の投影範囲104aを示した図である。2 is a diagram illustrating an imaging range 102a of a camera 102 and a projection range 104a of a projector 104. FIG. 制御回路101が実行する撮像処理のフローチャートである。3 is a flowchart of imaging processing executed by a control circuit 101. 制御回路101が実行する投影処理のフローチャートである。3 is a flowchart of projection processing executed by a control circuit 101. ホワイトボード20aを示した図である。It is the figure which showed the whiteboard 20a. ホワイトボード20bを示した図である。It is the figure which showed the white board 20b. ホワイトボード20cを示した図である。It is the figure which showed the whiteboard 20c. 合成画像P10を示した図である。It is the figure which showed the synthesized image P10. 合成画像P20を示した図である。It is the figure which showed the synthesized image P20. 合成画像P30を示した図である。It is the figure which showed the synthesized image P30. 画像投影装置10aのRAM107に記憶される内容を例示した図である。It is the figure which illustrated the content memorize | stored in RAM107 of the image projector 10a. 画像投影装置10bのRAM107に記憶される内容を例示した図である。It is the figure which illustrated the content memorize | stored in RAM107 of the image projector 10b. 画像投影装置10cのRAM107に記憶される内容を例示した図である。It is the figure which illustrated the content memorize | stored in RAM107 of the image projector 10c. 合成画像を投影したときにおけるホワイトボード20a〜20cを示した図である。It is the figure which showed whiteboard 20a-20c when a synthesized image is projected. ホワイトボード20aを示した図である。It is the figure which showed the whiteboard 20a. ホワイトボード20bを示した図である。It is the figure which showed the white board 20b. ホワイトボード20cを示した図である。It is the figure which showed the whiteboard 20c. 合成画像P11を示した図である。It is the figure which showed the synthesized image P11. 合成画像P21を示した図である。It is the figure which showed the synthesized image P21. 合成画像P11において、情報が重なっている部分の拡大図である。In the composite image P11, it is an enlarged view of a portion where information overlaps. 第2実施形態における画像投影システム2の概略を示した図である。It is the figure which showed the outline of the image projection system 2 in 2nd Embodiment. 画像合成装置40が実行する処理を示したフローチャートである。5 is a flowchart showing processing executed by the image composition device 40. 画像投影装置11が実行する投影処理を示したフローチャートである。5 is a flowchart showing a projection process executed by the image projection apparatus 11.

符号の説明Explanation of symbols

1、2 画像投影システム
10a〜10c、11 画像投影装置
20a〜20c、21 ホワイトボード
30 ネットワーク
40 画像合成装置
102 カメラ
103 計時装置
104 プロジェクタ
105 記入終了信号入力装置
DESCRIPTION OF SYMBOLS 1, 2 Image projection system 10a-10c, 11 Image projection apparatus 20a-20c, 21 White board 30 Network 40 Image composition apparatus 102 Camera 103 Timing apparatus 104 Projector 105 Input completion signal input apparatus

Claims (9)

情報を記入可能な情報記入ボードが複数の拠点に設けられ、各拠点において、前記情報記入ボードを撮像する撮像手段と、その情報記入ボードに情報が記入された時刻である記入時刻を取得する取得手段と、前記撮像手段が撮像した自拠点での撮像画像である自拠点撮像画像を、前記記入時刻を付してネットワークを介して他拠点に送信する送信手段とを備える画像投影システムに用いられる各拠点に設けられた画像投影装置であって、
前記送信手段が送信した他拠点での前記撮像画像である他拠点撮像画像及びそれに付された前記記入時刻を受信する受信手段と、
前記受信手段が受信した前記他拠点撮像画像が複数ある場合、それら他拠点撮像画像に含まれている前記情報記入ボードに記入された各情報に相当する画像である情報画像を抽出して、前記他拠点撮像画像における前記情報画像の位置を保持させつつ前記各情報画像を一つの画像に合成するものであって、前記他拠点撮像画像に付されている前記記入時刻が最新の前記情報画像を最前面にして合成する合成手段と、
前記合成手段が合成した前記画像である合成画像を前記情報記入ボードに投影する投影手段とを備えることを特徴とする画像投影装置。
An information entry board capable of entering information is provided at a plurality of bases, and at each base, an image pickup means for picking up the information entry board, and acquisition of obtaining the entry time which is the time when the information is entered on the information entry board And an image projection system comprising: a transmission means for transmitting a self-captured image, which is a captured image at the local site, captured by the imaging unit to the other site via the network with the entry time. An image projection apparatus provided at each site,
Receiving means for receiving the other base captured image that is the captured image at the other base transmitted by the transmitting means and the entry time attached thereto;
When there are a plurality of the other-site captured images received by the receiving means, extract an information image that is an image corresponding to each information entered in the information entry board included in the other-site captured images, The information image is synthesized into one image while maintaining the position of the information image in the image taken at the other site, and the information image with the latest entry time attached to the image taken at the other site is obtained. A synthesis means for synthesizing the forefront,
An image projecting apparatus comprising: a projecting unit that projects a synthesized image, which is the image synthesized by the synthesizing unit, onto the information entry board.
前記撮像手段、前記取得手段及び前記送信手段は前記画像投影装置が備えていることを特徴とする請求項1に記載の画像投影装置。   The image projection apparatus according to claim 1, wherein the image projection apparatus includes the imaging unit, the acquisition unit, and the transmission unit. 他の前記画像投影装置との間で、前記取得手段が取得する時刻を同期させる同期手段をさらに備えることを特徴とする請求項1又は2に記載の画像投影装置。   The image projection apparatus according to claim 1, further comprising a synchronization unit that synchronizes a time acquired by the acquisition unit with another image projection apparatus. 前記投影手段は、前記撮像手段が前記情報記入ボードを撮像するときには、前記合成画像の投影を中止することを特徴とする請求項1〜3のいずれかに記載の画像投影装置。   The image projecting device according to claim 1, wherein the projecting unit stops projecting the composite image when the image capturing unit captures the information entry board. 前記撮像手段は、所定周期で前記情報記入ボードを撮像し、
前記取得手段は、前記撮像手段が前回撮像した撮像画像と今回撮像した撮像画像を比較して、それらに差異を検出したときに、前記記入時刻を取得することを特徴とする請求項1〜4のいずれかに記載の画像投影装置。
The imaging means images the information entry board at a predetermined cycle,
The acquisition unit compares the captured image captured by the imaging unit with the captured image captured this time, and acquires the entry time when a difference is detected between them. The image projection apparatus in any one of.
前記撮像画像の画素単位の変化で、前記取得手段が前記記入時間を取得できるように、前記撮像手段が撮像する周期が定められていることを特徴とする請求項5に記載の画像投影装置。   The image projecting apparatus according to claim 5, wherein a period in which the imaging unit captures an image is determined so that the acquisition unit can acquire the entry time by a change in a pixel unit of the captured image. 情報を記入可能な情報記入ボード及び画像投影装置を複数の拠点に設置して、各画像投影装置が、情報が記入されている自拠点における前記情報記入ボードを撮像するとともに、その撮像画像を画像合成装置に送信し、その画像合成装置が、各画像投影装置から送信されてきた前記撮像画像を受信して、それら撮像画像に含まれている前記情報記入ボードに記入された各情報に相当する画像である情報画像を抽出して、前記撮像画像における前記情報画像の位置を保持させつつ前記各情報画像を一つの画像に合成するとともに、その合成した画像である合成画像を各画像投影装置に送信し、各画像投影装置が、前記画像合成装置から送信されてきた前記合成画像を前記情報記入ボードに投影する画像投影システムに用いられる前記画像合成装置であって、
前記画像投影システムは、
前記情報記入ボードに情報が記入された時刻である記入時刻を取得する取得手段と、
前記撮像画像を、前記記入時刻を付してネットワークを介して前記画像合成装置に送信する送信手段とを備えており、
前記画像合成装置は、前記撮像画像を合成する際に、各撮像画像に付されている前記記入時刻が最新の情報画像を最前面にして合成することを特徴とする画像合成装置。
An information entry board and an image projection device capable of entering information are installed at a plurality of locations, and each image projection device images the information entry board at its location where information is entered, and images the captured images. The image composition device receives the captured image transmitted from each image projection device and corresponds to each information entered on the information entry board included in the captured image. An information image that is an image is extracted, and each information image is combined into one image while maintaining the position of the information image in the captured image, and the combined image that is the combined image is combined with each image projection device. The image synthesizing apparatus used in the image projecting system for projecting the synthesized image transmitted from the image synthesizing apparatus onto the information entry board. There is,
The image projection system includes:
Obtaining means for obtaining entry time, which is the time when information is entered on the information entry board;
A transmission means for transmitting the captured image with the entry time to the image composition device via a network;
The image synthesizing apparatus, when synthesizing the captured images, synthesizes the information image with the latest entry time attached to each captured image with the foreground as the foreground.
情報を記入可能な情報記入ボードが複数の拠点に設置された画像投影方法であって、
各拠点における前記情報記入ボードを撮像する撮像ステップと、
前記情報記入ボードに情報が記入された時刻である記入時刻を取得する取得ステップと、
前記撮像ステップにおいて撮像された各拠点における撮像画像を、それぞれ前記記入時刻を付して収集する収集ステップと、
その収集ステップにおいて収集した各拠点における前記撮像画像に含まれている前記情報記入ボードに記入された各情報に相当する画像である情報画像を抽出して、前記撮像画像における前記情報画像の位置を保持させつつ前記各情報画像を一つの画像に合成するステップであって、前記撮像画像に付されている前記記入時刻が最新の情報画像を最前面にして合成する合成ステップと、
その合成ステップにおいて合成された前記合成画像を前記情報記入ボードに投影する投影ステップとを備えることを特徴とする画像投影方法。
An image projection method in which information entry boards capable of entering information are installed at multiple locations,
An imaging step of imaging the information entry board at each site;
An acquisition step of acquiring an entry time which is a time when information is entered in the information entry board;
A collecting step of collecting the captured images at the respective locations imaged in the imaging step with the entry time;
An information image that is an image corresponding to each information entered in the information entry board included in the captured image at each location collected in the collecting step is extracted, and the position of the information image in the captured image is determined. A step of combining the information images into one image while holding the image, and a combining step of combining the information image with the latest entry time attached to the captured image as the foreground;
A projecting step of projecting the synthesized image synthesized in the synthesizing step onto the information entry board.
請求項8の画像投影方法の各種ステップをコンピュータに実行させる画像投影プログラム。   An image projection program for causing a computer to execute various steps of the image projection method according to claim 8.
JP2008226552A 2008-09-04 2008-09-04 Image projector, image synthesizer, image projection method and image projection program Pending JP2010061411A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008226552A JP2010061411A (en) 2008-09-04 2008-09-04 Image projector, image synthesizer, image projection method and image projection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008226552A JP2010061411A (en) 2008-09-04 2008-09-04 Image projector, image synthesizer, image projection method and image projection program

Publications (1)

Publication Number Publication Date
JP2010061411A true JP2010061411A (en) 2010-03-18

Family

ID=42188145

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008226552A Pending JP2010061411A (en) 2008-09-04 2008-09-04 Image projector, image synthesizer, image projection method and image projection program

Country Status (1)

Country Link
JP (1) JP2010061411A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011145539A1 (en) * 2010-05-17 2011-11-24 Ricoh Company, Ltd. Multiple-site drawn-image sharing apparatus, multiple-site drawn-image sharing system, method executed by multiple-site drawn-image sharing apparatus, program, and recording medium
JP2013186823A (en) * 2012-03-09 2013-09-19 Canon Inc Information processing apparatus, computer program, and information processing method
JP2015073214A (en) * 2013-10-03 2015-04-16 キヤノン株式会社 Information processing system, control method of information processing system, information processing apparatus, and computer program
JP2015139202A (en) * 2014-01-24 2015-07-30 キヤノン株式会社 Information processing apparatus, control method for the same, and computer program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0798734A (en) * 1993-02-04 1995-04-11 Matsushita Electric Ind Co Ltd Working state controller
JPH11215126A (en) * 1998-01-28 1999-08-06 Sharp Corp Information processor
JP2005203886A (en) * 2004-01-13 2005-07-28 Seiko Epson Corp Remote conference support system, control method therefor and program
JP2006146415A (en) * 2004-11-17 2006-06-08 Ricoh Co Ltd Conference support system
JP2007295399A (en) * 2006-04-26 2007-11-08 Nippon Telegr & Teleph Corp <Ntt> Photography projection control apparatus, image input output apparatus, photography projection control method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0798734A (en) * 1993-02-04 1995-04-11 Matsushita Electric Ind Co Ltd Working state controller
JPH11215126A (en) * 1998-01-28 1999-08-06 Sharp Corp Information processor
JP2005203886A (en) * 2004-01-13 2005-07-28 Seiko Epson Corp Remote conference support system, control method therefor and program
JP2006146415A (en) * 2004-11-17 2006-06-08 Ricoh Co Ltd Conference support system
JP2007295399A (en) * 2006-04-26 2007-11-08 Nippon Telegr & Teleph Corp <Ntt> Photography projection control apparatus, image input output apparatus, photography projection control method, and program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011145539A1 (en) * 2010-05-17 2011-11-24 Ricoh Company, Ltd. Multiple-site drawn-image sharing apparatus, multiple-site drawn-image sharing system, method executed by multiple-site drawn-image sharing apparatus, program, and recording medium
JP2012005107A (en) * 2010-05-17 2012-01-05 Ricoh Co Ltd Multi-base drawing image sharing apparatus, multi-base drawing image sharing system, method, program and recording medium
CN103004187A (en) * 2010-05-17 2013-03-27 株式会社理光 Multiple-site drawn-image sharing apparatus, multiple-site drawn-image sharing system, method executed by multiple-site drawn-image sharing apparatus, program, and recording medium
RU2534951C2 (en) * 2010-05-17 2014-12-10 Рикох Компани, Лтд. Device, method and system for sharing of plotted image at multiple workplaces, programme and recordable media
JP2013186823A (en) * 2012-03-09 2013-09-19 Canon Inc Information processing apparatus, computer program, and information processing method
JP2015073214A (en) * 2013-10-03 2015-04-16 キヤノン株式会社 Information processing system, control method of information processing system, information processing apparatus, and computer program
JP2015139202A (en) * 2014-01-24 2015-07-30 キヤノン株式会社 Information processing apparatus, control method for the same, and computer program

Similar Documents

Publication Publication Date Title
US9473741B2 (en) Teleconference system and teleconference terminal
US20130063547A1 (en) Multiple-site drawn-image sharing apparatus, multiple-site drawn-image sharing system, method executed by multiple-site drawn-image sharing apparatus, program, and recording medium
JP5769032B2 (en) Imaging apparatus, imaging method, and program
CN105554372B (en) Shooting method and device
US10951804B2 (en) Photographing synchronization method and apparatus
US9183556B2 (en) Display control apparatus and method
US9992402B2 (en) Imaging apparatus and imaging control apparatus having synchronous type wireless communication function
KR20190118548A (en) Image sensor, and control system
US20060082663A1 (en) Video camera
JP2009267999A (en) Live delivery system, motion picture shooting system and motion picture delivery method
JP2010061411A (en) Image projector, image synthesizer, image projection method and image projection program
CN112887601B (en) Shooting method and device and electronic equipment
JP6608708B2 (en) Appearance inspection apparatus, appearance inspection method, and computer program executable by controller used in appearance inspection apparatus
JP5864371B2 (en) Still image automatic generation system, worker information processing terminal, instructor information processing terminal, and determination device in still image automatic generation system
JP5332497B2 (en) Imaging apparatus and image transfer method
CN112672057B (en) Shooting method and device
CN114390206A (en) Shooting method and device and electronic equipment
KR20180124539A (en) Chroma key remote synthesis synchronization system and method
US10362210B2 (en) Transmission control device and transmission control method for transmitting image
JP2004139206A (en) Image display/shooting system
US10425460B2 (en) Marking objects of interest in a streaming video
JP2004021542A (en) Image processing device, photographing terminal, and image processing system
CN111050091B (en) Output control method and device and electronic equipment
US20110026897A1 (en) Video Recording Devices and Video Recording Methods
CN115811596A (en) Image processing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120424

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120911