JP2015109520A - Information processing apparatus, control method of information processing apparatus, and computer program - Google Patents

Information processing apparatus, control method of information processing apparatus, and computer program Download PDF

Info

Publication number
JP2015109520A
JP2015109520A JP2013250528A JP2013250528A JP2015109520A JP 2015109520 A JP2015109520 A JP 2015109520A JP 2013250528 A JP2013250528 A JP 2013250528A JP 2013250528 A JP2013250528 A JP 2013250528A JP 2015109520 A JP2015109520 A JP 2015109520A
Authority
JP
Japan
Prior art keywords
image
difference
projection
information processing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013250528A
Other languages
Japanese (ja)
Inventor
奥津 俊久
Toshihisa Okutsu
俊久 奥津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013250528A priority Critical patent/JP2015109520A/en
Publication of JP2015109520A publication Critical patent/JP2015109520A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an information processing apparatus that can create appropriate difference information between a photographed image and a projection image, and enable the sharing of a written image without the occurrence of interruption between apparatuses.SOLUTION: An information processing apparatus 5 creates a projection image to be projected on a projection surface on the basis of image information received from another information processing apparatus 5, acquires a photographed image obtained by photographing the projection surface as a photographing surface, creates a first difference image from the projection image and the photographed image, corrects the projection image, creates a second difference image from the projection image after the correction and a photographed image obtained by photographing the projection image after the correction projected on the projection surface, composes the first and second difference images to create a composite image, and transmits the composite image to the another information processing apparatus.

Description

本発明は、装置間で画像を共有する情報処理装置、情報処理装置の制御方法およびコンピュータプログラムに関する。   The present invention relates to an information processing apparatus that shares an image between apparatuses, a control method for the information processing apparatus, and a computer program.

遠隔にある拠点間で会議などを行う際に、各拠点に設けられたホワイトボードや黒板等の撮影対象に描かれた文字や絵などの画像をカメラ等の撮影装置で撮影し、撮影画像を共有するシステムが提案されている。撮影画像は装置間で送受信されることにより共有され、各拠点に設けられたプロジェクタ等の投影装置が撮影対象に投影する。これにより、複数の撮影対象に描かれた画像をリアルタイムで各撮影対象に共有させることができる。すなわち、このシステムは投影装置と撮影装置とを用いて、複数の撮影対象に描かれた画像を合成し、各撮影対象に同一内容の画像を投影させて画像を共有する。ここで、特許文献1は、投影画像と撮影画像における差分画像を他の拠点にある装置に送信することで投影装置による投影を中断することなく同一内容の画像を共有させるシステムを開示している。   When conferences are held between remote locations, images such as letters and pictures drawn on the subject such as whiteboards and blackboards provided at each location are taken with a camera or other photographic device. A sharing system has been proposed. A captured image is shared by transmission / reception between apparatuses, and a projection apparatus such as a projector provided at each base projects the image onto an imaging target. Thereby, the image drawn on the several imaging | photography object can be shared with each imaging | photography object in real time. That is, this system uses a projection device and a photographing device to synthesize images drawn on a plurality of photographing objects, and projects the same content image on each photographing target to share the images. Here, Patent Document 1 discloses a system for sharing an image having the same content without interrupting projection by the projection apparatus by transmitting a difference image between the projection image and the captured image to an apparatus at another base. .

特開2011−151764号公報JP 2011-151664 A

しかしながら、このような従来の技術は、投影画像と書込みが重なった部分を区別できない。そのため、投影画像を投影したホワイトボードに書き込まれた書込み画像を撮影した撮影画像と、元の投影画像から差分を抽出した書込み画像には途切れが発生するという課題がある。途切れが発生すると遠隔拠点毎の書込み画像の可読性が低減する。本発明は、撮影画像と投影画像の適切な差分情報を作成し、途切れが生じない書込み画像を装置間で共有させることを可能とする情報処理装置を提供することを目的とする。   However, such a conventional technique cannot distinguish the portion where the projection image and the writing overlap. For this reason, there is a problem that a gap occurs between a captured image obtained by photographing a written image written on a whiteboard on which the projected image is projected and a written image obtained by extracting a difference from the original projected image. When the interruption occurs, the readability of the written image at each remote site is reduced. It is an object of the present invention to provide an information processing apparatus that creates appropriate difference information between a captured image and a projected image and allows a written image that does not cause interruption to be shared between apparatuses.

本発明の一実実施形態の情報処理装置は、撮影された画像情報をネットワークを介して複数の情報処理装置で共有する。前記情報処理装置は、他の情報処理装置から受信した画像情報に基づいて投影面に投影する投影画像を作成する作成手段と、前記投影面を撮影面として撮影された撮影画像を取得する取得手段と、前記投影画像と前記撮影画像から第1の差分画像を生成し、前記投影画像を補正して、当該補正後の投影画像が投影面に投影され撮影された撮影画像と前記補正後の投影画像から第2の差分画像を生成する生成手段と、前記第1および第2の差分画像を合成して合成画像を生成する合成手段と、前記合成画像を前記他の情報処理装置に送信する送信手段と、を備える。   An information processing apparatus according to an embodiment of the present invention shares captured image information among a plurality of information processing apparatuses via a network. The information processing apparatus includes a creation unit that creates a projection image to be projected onto a projection plane based on image information received from another information processing apparatus, and an acquisition unit that acquires a captured image shot using the projection plane as a shooting plane. A first difference image is generated from the projected image and the captured image, the projected image is corrected, and the corrected projected image is projected onto a projection plane and the corrected projection. Generating means for generating a second difference image from an image, combining means for combining the first and second difference images to generate a combined image, and transmission for transmitting the combined image to the other information processing apparatus Means.

本発明によれば、撮影画像と投影画像の適切な差分情報を作成し、途切れが生じない書込み画像を装置間で共有させることを可能とする情報処理装置を提供することが可能となる。拠点毎の書込みに画像に途切れが無いため、書込み画像の可読性が高まるという効果が得られる。   ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to provide the information processing apparatus which produces the suitable difference information of a picked-up image and a projection image, and makes it possible to share the writing image which does not produce a discontinuity between apparatuses. Since there is no interruption in the image in writing at each site, the effect of improving the readability of the written image is obtained.

本発明の画像共有システムの全体構成例を示す図である。It is a figure which shows the example of whole structure of the image sharing system of this invention. 情報処理装置のハードウエア構成例を示す図である。It is a figure which shows the hardware structural example of information processing apparatus. 情報処理装置の機能ブロック構成例を示す図である。It is a figure showing an example of functional block composition of an information processor. 情報処理装置が決定する共有領域の概念図である。It is a conceptual diagram of the shared area | region which an information processing apparatus determines. 時系列に変化させる結像画像により得られる撮影画像、差分画像、書込み画像を示す図である。It is a figure which shows the picked-up image, difference image, and writing image which are obtained by the imaging image changed in time series. 画像投影処理の動作を説明するフローチャートである。It is a flowchart explaining the operation | movement of an image projection process. 書込み画像送信処理の動作を説明するフローチャートである。It is a flowchart explaining the operation | movement of a written image transmission process. 画像共有システムの基本動作例を示す図である。It is a figure which shows the basic operation example of an image sharing system. 重ね書きがされた際の画像共有システムの動作例を示す図である。It is a figure which shows the operation example of the image sharing system at the time of overwriting. 差分画像生成処理の動作を説明するフローチャートである。It is a flowchart explaining the operation | movement of a difference image generation process. 平均差分算出処理の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of an average difference calculation process. 差分算出処理の動作を説明するフローチャートである。It is a flowchart explaining the operation | movement of a difference calculation process. 合成画像生成処理の動作を説明するフローチャートである。It is a flowchart explaining the operation | movement of a synthesized image generation process. 実施例2の、情報処理装置の機能ブロック構成例を示す図である。FIG. 10 is a diagram illustrating a functional block configuration example of an information processing apparatus according to a second embodiment. 結像画像と書込み画像に近接領域があることを示す図である。It is a figure which shows that a proximity | contact area | region exists in a focused image and a writing image. 結像画像と書込み画像に近接領域が無いことを示す図である。It is a figure which shows that a proximity | contact area | region does not exist in a focused image and a writing image. 書込み画像送信処理の動作を説明するフローチャートである。It is a flowchart explaining the operation | movement of a written image transmission process. 重ね書きがされた際の画像共有システムの動作例を示す。An example of the operation of the image sharing system when overwritten is shown. 近接領域画像生成処理の動作を説明するフローチャートである。It is a flowchart explaining the operation | movement of a near region image generation process. 実施例3における、時系列に位置を変化させる結像画像により得られる撮影画像、差分画像、書込み画像を示す図である。FIG. 10 is a diagram illustrating a captured image, a difference image, and a written image obtained by an imaged image whose position is changed in time series in Example 3. 実施例3における、時系列に輝度を変化させる結像画像により得られる撮影画像、差分画像、書込み画像を示す図である。In Example 3, it is a figure which shows the picked-up image, difference image, and writing image which are obtained by the image formation image which changes a brightness | luminance in time series.

(実施例1)
<システム構成>
図1は、本発明の一実施形態の画像共有システムの構成例を示す図である。図1に示すように、画像共有システム1は複数の情報処理装置5を備える。各情報処理装置5は、複数の会議室等の拠点(ここでは拠点Aと拠点B)に設置され、インターネットまたは専用線など任意のネットワーク6を介して通信可能である。また、各拠点に設置された情報処理装置5には、投影装置3と撮影装置4が有線または無線を介して接続されている。投影装置3は、例えば、一般的なプロジェクタであってよく、情報処理装置5から送信された画像を投影面に投影する。撮影装置4は、例えば一般的なビデオカメラによって構成され、0.5秒間に1回、または、1秒間に15回等の予め設定された時間間隔で、投影面を撮影面として撮影した画像を情報処理装置5に送信する。すなわち、本実施形態では、投影装置3が画像を投影する投影面と撮影装置4が撮影する撮影面とは一致する。また、撮影面は、情報処理装置間で画像を共有させる共有領域である。
Example 1
<System configuration>
FIG. 1 is a diagram illustrating a configuration example of an image sharing system according to an embodiment of the present invention. As shown in FIG. 1, the image sharing system 1 includes a plurality of information processing devices 5. Each information processing device 5 is installed at a plurality of bases such as conference rooms (base A and base B in this case), and can communicate via an arbitrary network 6 such as the Internet or a dedicated line. In addition, the projection device 3 and the photographing device 4 are connected to the information processing device 5 installed at each site via a wired or wireless connection. The projection device 3 may be, for example, a general projector, and projects the image transmitted from the information processing device 5 onto the projection surface. The imaging device 4 is configured by, for example, a general video camera, and captures an image captured using the projection plane as an imaging plane at a preset time interval such as once every 0.5 seconds or 15 times per second. It transmits to the information processing device 5. In other words, in the present embodiment, the projection surface on which the projection device 3 projects an image and the photographing surface on which the photographing device 4 photographs are the same. The imaging surface is a shared area for sharing images between information processing apparatuses.

本実施の形態においては、投影面および撮影面としてホワイトボード2を適用した例について説明するがこれに限定されるものではなく、黒板および紙等が適用されてよい。投影装置3は、ホワイトボード2のマーカ等により描画される描画領域を投影面とする。なお、本実施の形態においては、投影装置3に代えて、液晶ディスプレイ装置等の表示装置が適用されてもよい。表示装置が適用される場合には、表示対象として、表示装置の表示面上に設けられた描画可能な透過性を有するボードが適用されればよい。   In the present embodiment, an example in which the whiteboard 2 is applied as a projection surface and a photographing surface will be described. However, the present invention is not limited to this, and a blackboard, paper, or the like may be applied. The projection device 3 uses a drawing area drawn by a marker or the like of the whiteboard 2 as a projection plane. In the present embodiment, a display device such as a liquid crystal display device may be applied instead of the projection device 3. In the case where the display device is applied, it is only necessary to apply a drawable transparent board provided on the display surface of the display device as a display target.

<情報処理装置のハードウエア構成>
図2は、情報処理装置のハードウエア構成例を示す図である。本発明の情報処理装置5は、CPU100、RAM110、ROM120と、HDD130、入力装置140、表示装置150、デバイス通信モジュール160、ネットワーク通信モジュール170を備える。CPU、RAM、ROM、HDDはそれぞれ、Central Processing Unit、Random Access Memory、Read Only Memory、Hard Disk Driveの略称である。CPU100は、各処理部を統合的に制御する。ROM120およびハードディスク装置130には、本発明の情報処理装置の各種機能を実現するプログラムが記憶されている。CPU100は、RAM110を作業領域としてROM120およびハードディスク装置130に記憶されたプログラムを実行することにより情報処理装置の各種機能を実現する。
<Hardware configuration of information processing device>
FIG. 2 is a diagram illustrating a hardware configuration example of the information processing apparatus. The information processing apparatus 5 according to the present invention includes a CPU 100, a RAM 110, a ROM 120, an HDD 130, an input device 140, a display device 150, a device communication module 160, and a network communication module 170. CPU, RAM, ROM, and HDD are abbreviations for Central Processing Unit, Random Access Memory, Read Only Memory, and Hard Disk Drive, respectively. The CPU 100 controls each processing unit in an integrated manner. The ROM 120 and the hard disk device 130 store programs that realize various functions of the information processing apparatus of the present invention. The CPU 100 implements various functions of the information processing apparatus by executing programs stored in the ROM 120 and the hard disk device 130 using the RAM 110 as a work area.

入力装置140は、キーボードやポインティングデバイス等から構成され、ユーザ入力などを受け付ける。液晶ディスプレイ等よりなる表示装置150は液晶デバイス等から構成され、投影装置3が投影する画像や撮影装置4が撮影した画面などを表示する。デバイス通信モジュール160投影装置3や撮影装置4等の周辺機器と通信するためのモジュールである。ネットワーク通信モジュール170は、ネットワークを介して接続された他の情報処理装置5など外部機器との間で通信を行うためのモジュールである。なお、情報処理装置5は、上述のモジュールを備えた一般的なコンピュータ装置によって構成する。   The input device 140 includes a keyboard, a pointing device, and the like, and accepts user input and the like. The display device 150 including a liquid crystal display is configured by a liquid crystal device or the like, and displays an image projected by the projection device 3, a screen taken by the photographing device 4, and the like. The device communication module 160 is a module for communicating with peripheral devices such as the projection device 3 and the imaging device 4. The network communication module 170 is a module for communicating with an external device such as another information processing apparatus 5 connected via a network. The information processing device 5 is configured by a general computer device including the above-described module.

<情報処理装置の機能ブロック>
図3は、情報処理装置の機能ブロック図である。情報処理装置5は、画像受信部200、結像画像供給部210、撮影画像取得部220、差分画像生成部230、画像送信部240、書込み画像合成部260、書き込み取得制御部270を備える。
<Functional blocks of information processing device>
FIG. 3 is a functional block diagram of the information processing apparatus. The information processing apparatus 5 includes an image receiving unit 200, a formed image supply unit 210, a captured image acquisition unit 220, a difference image generation unit 230, an image transmission unit 240, a write image synthesis unit 260, and a write acquisition control unit 270.

画像受信部200は、他の情報処理装置5から送信された画像を受信する。結像画像供給部210は、画像受信部200によって受信された受信画像をホワイトボード2に投影させるに適した結像画像に変換し投影装置3に供給する。撮影画像取得部220は、ホワイトボード2間で画像を共有させる共有領域が撮影された画像を撮影装置4から取得する。差分画像生成部230は、投影装置3が投影している結像画像と撮影装置4が撮影した撮影画像との共有領域における差分を表す差分画像を生成する。   The image receiving unit 200 receives an image transmitted from another information processing apparatus 5. The formed image supply unit 210 converts the received image received by the image receiving unit 200 into a formed image suitable for projecting on the whiteboard 2 and supplies the converted image to the projection device 3. The captured image acquisition unit 220 acquires from the imaging device 4 an image in which a shared area for sharing an image between the whiteboards 2 is captured. The difference image generation unit 230 generates a difference image representing a difference in a shared area between the formed image projected by the projection device 3 and the captured image captured by the imaging device 4.

書込み画像合成部260は、複数の差分画像を合成し書込み画像を生成する。書込み画像とは、マーカによって自拠点のホワイトボード2に書き込まれた文字や絵などの画像情報であって、他拠点の情報処理装置5への送信対象となる画像を指す。書込み画像は上述の画像に限定されるものではなく、ホワイトボード2にマグネットなどを用いて貼り付けられた紙媒体などであってもよい。書込み取得制御部270は、ホワイトボード2に投影する結像画像を時系列に変化させ、撮影画像を取得し、差分画像を生成して書込み画像を合成するなど書込みに関する制御を行う。画像送信部240は、生成された書込み画像を他の情報処理装置5に送信する。   The written image combining unit 260 combines a plurality of difference images to generate a written image. The written image is image information such as characters and pictures written on the whiteboard 2 at the local site by the marker, and indicates an image to be transmitted to the information processing apparatus 5 at another base. The written image is not limited to the above-described image, and may be a paper medium attached to the white board 2 using a magnet or the like. The writing acquisition control unit 270 performs writing-related control such as changing the formed image projected onto the whiteboard 2 in time series, acquiring a captured image, generating a difference image, and synthesizing the writing image. The image transmission unit 240 transmits the generated writing image to the other information processing apparatus 5.

ここで、画像受信部200および画像送信部240は、CPU100とネットワーク通信モジュール170によって構成される。結像画像供給部210および撮影画像取得部220は、CPU100とデバイス通信モジュール160とによって構成される。差分画像生成部230、書込み画像合成部260、書込み取得制御部270は、CPU100によって構成される。   Here, the image receiving unit 200 and the image transmitting unit 240 are configured by the CPU 100 and the network communication module 170. The formed image supply unit 210 and the captured image acquisition unit 220 are configured by the CPU 100 and the device communication module 160. The difference image generation unit 230, the write image composition unit 260, and the write acquisition control unit 270 are configured by the CPU 100.

<結像画像供給部>
結像画像供給部210は、図4に示すように、共有領域30を特定するためのマーカ画像31,32,33,34を投影装置3に供給する画像に重畳するようになっている。なお、図4において、マーカ画像31,32,33,34は、共有領域30の4つの角にそれぞれ配置された矩形で示されているが、マーカ画像は、共有領域30を特定できればよく、その形状、個数および位置が図4に示したものと異なっていてもよい。
<Image formation image supply unit>
As shown in FIG. 4, the formed image supply unit 210 superimposes the marker images 31, 32, 33, and 34 for specifying the shared region 30 on the image supplied to the projection device 3. In FIG. 4, the marker images 31, 32, 33, and 34 are shown as rectangles arranged at the four corners of the shared area 30, but the marker image only needs to be able to identify the shared area 30. The shape, number and position may be different from those shown in FIG.

<撮影画像取得部>
撮影画像取得部220は、本発明における共有領域画像取得部を構成する。撮影装置4から取得した画像に含まれるマーカ画像31,32,33,34の位置に基づいて、撮影装置4から取得した画像に台形補正等の画像補正を施した上で、共有領域30を切り出すようになっている。
<Captured image acquisition unit>
The captured image acquisition unit 220 constitutes a shared area image acquisition unit in the present invention. Based on the positions of the marker images 31, 32, 33, and 34 included in the image acquired from the image capturing device 4, the image acquired from the image capturing device 4 is subjected to image correction such as keystone correction, and then the shared area 30 is cut out. It is like that.

結像画像供給部210は、画像受信部200に受信された受信画像の領域と、投影装置3に供給する画像の共有領域30とが一致するように、受信画像を拡大または縮小し、投影装置3に供給するようになっている。   The formed image supply unit 210 enlarges or reduces the received image so that the region of the received image received by the image receiving unit 200 matches the shared region 30 of the image supplied to the projection device 3. 3 is supplied.

<差分画像生成部>
差分画像生成部230は、結像画像供給部210から投影装置3に供給する結像画像と、撮影装置4により撮影された撮影画像との共有領域30における差分を表す差分画像を生成する。差分画像生成部230は、結像画像供給部210に保持する投影画像と、撮影装置4により撮影された撮影画像とを、ピクセル単位に比較し、差分画像を生成する。
<Difference image generation unit>
The difference image generation unit 230 generates a difference image representing a difference in the shared region 30 between the formed image supplied from the formed image supply unit 210 to the projection device 3 and the captured image captured by the imaging device 4. The difference image generation unit 230 compares the projection image held in the formed image supply unit 210 and the captured image captured by the imaging device 4 in units of pixels, and generates a difference image.

具体的には、差分画像生成部230は、対応するピクセル間の輝度の差の絶対値または色空間上での距離尺度が予め定められた閾値より大きいピクセルよりなる差分画像を生成する。なお、差分画像生成部230は、結像画像供給部210から投影装置3に供給する投影画像と、撮影装置4により撮影された撮影画像とを、矩形(例えば、8ピクセル×8ピクセル)単位に比較することにより、差分画像を生成するようにしてもよい。この場合、差分画像生成部230は、対応する矩形の輝度の差の絶対値または色空間上での距離尺度に対する平均値が予め定められた閾値より大きい矩形よりなる差分画像を生成するように構成される。   Specifically, the difference image generation unit 230 generates a difference image composed of pixels in which the absolute value of the difference in luminance between corresponding pixels or the distance scale in the color space is larger than a predetermined threshold. The difference image generation unit 230 divides the projection image supplied from the imaging image supply unit 210 to the projection device 3 and the captured image captured by the imaging device 4 in units of rectangles (for example, 8 pixels × 8 pixels). A difference image may be generated by comparison. In this case, the difference image generation unit 230 is configured to generate a difference image made up of rectangles whose absolute value of the difference in luminance of the corresponding rectangles or an average value with respect to the distance scale in the color space is larger than a predetermined threshold value. Is done.

また、差分画像生成部230は、結像画像供給部210から投影装置3に供給する投影画像と、撮影装置4により撮影された撮影画像とにそれぞれフィルタ処理を施した上で、差分画像を生成するようにしてもよい。例えば、差分画像生成部230は、撮影装置4により撮影された撮影画像に対して、画像の各ピクセルを周囲のピクセルで平均化した移動平均画像と元画像との差分を抽出する鮮鋭化フィルタ処理を施す。そして結像画像供給部210から投影装置3に供給する投影画像に対して、平滑化フィルタ処理を施した上に、鮮鋭化フィルタ処理を施し、フィルタ処理をそれぞれ施した画像から差分画像を生成するようにしてもよい。   Further, the difference image generation unit 230 generates a difference image after filtering each of the projection image supplied from the imaging image supply unit 210 to the projection device 3 and the captured image captured by the imaging device 4. You may make it do. For example, the difference image generation unit 230 extracts a difference between the moving average image obtained by averaging each pixel of the image with the surrounding pixels and the original image with respect to the captured image captured by the imaging device 4. Apply. Then, the projection image supplied from the imaging image supply unit 210 to the projection device 3 is subjected to smoothing filter processing and then subjected to sharpening filter processing, and a difference image is generated from each of the images subjected to the filter processing. You may do it.

ここで、差分画像生成部230は、例えば、モルフォロジー演算のEROSIONの基本演算を用いて、太め処理を投影装置3に供給された画像に施すことにより平滑化フィルタ処理を実行する。これにより、差分画像生成部230は、撮影画像取得部220によって補正し切れなかった台形歪みや位置ずれ等の影響を抑制することができる。   Here, the difference image generation unit 230 performs the smoothing filter process by applying a thickening process to the image supplied to the projection device 3 using, for example, a basic operation of EROSION of a morphological operation. As a result, the difference image generation unit 230 can suppress the influence of trapezoidal distortion, positional deviation, and the like that could not be corrected by the captured image acquisition unit 220.

<書込み画像合成部>
書込み画像合成部260は、差分画像生成部230によって生成された複数の差分画像を合成して書込み画像を生成するものである。具体的には差分画像に含まれる書込みに対応するピクセルを抽出して合成する。
<Writing image composition unit>
The written image synthesis unit 260 synthesizes a plurality of difference images generated by the difference image generation unit 230 to generate a written image. Specifically, pixels corresponding to writing included in the difference image are extracted and combined.

<書込み取得制御部>
書込み取得制御部270は、ホワイトボード2に投影する結像画像を時系列に変化させ、撮影画像を取得し、差分画像を生成して書込み画像を合成する制御を行う。時系列に変化させる結像画像の一例を図5(A)と図5(E)に示す。図5(A)は第一の結像画像の一例を示し、画像受信部200で受信した画像そのままである。一方、図5(E)は第二の結像画像の一例を示し、図5(A)に示す画像の輪郭を抽出した画像である。図5(E)の画像は補正前の図5(A)の画像と重ならないように画像処理を行い輪郭を抽出された画像である。具体的には図5(A)の画像の黒い部分を太らせ処理を行ったうえで輪郭抽出すればよい。なお、本実施形態では、図5(A)に示す結合画像が図5(B)に先立って時系列に取得されたが、画像の取得順序はこれに限定されるものではない。
<Write acquisition control unit>
The writing acquisition control unit 270 performs control to change the formed image projected on the whiteboard 2 in time series, acquire a captured image, generate a difference image, and synthesize the writing image. An example of the formed image to be changed in time series is shown in FIGS. 5 (A) and 5 (E). FIG. 5A shows an example of the first imaged image, which is the image received by the image receiving unit 200 as it is. On the other hand, FIG. 5E shows an example of the second imaged image, which is an image obtained by extracting the contour of the image shown in FIG. The image in FIG. 5E is an image obtained by performing image processing so as not to overlap with the image in FIG. Specifically, the outline may be extracted after the black portion of the image in FIG. In this embodiment, the combined image shown in FIG. 5A is acquired in time series prior to FIG. 5B, but the image acquisition order is not limited to this.

結像画像を時系列に変化させて撮影画像取得部220が取得する撮影画像の一例を図5(C)と図5(F)に示す。なお結像画像が投影されるホワイトボード2には図5(B)の書込みがされているものとする。ホワイトボード2の書込み(図5(B))に図5(A)と図5(E)に示す結合画像が時系列に重畳投影され、撮影装置4により撮影された場合、図5(C)と図5(F)に示す2種類の撮影画像が取得される。そして差分画像生成部230では撮影画像と結像画像の差分画像を生成する。差分画像の一例を図5(D)と図5(G)に示す。それぞれ結像画像と書込みが重なった部分には途切れが発生している。   An example of the captured image acquired by the captured image acquisition unit 220 by changing the formed image in time series is shown in FIGS. 5 (C) and 5 (F). It is assumed that the whiteboard 2 on which the formed image is projected has been written as shown in FIG. When the combined images shown in FIGS. 5A and 5E are superimposed and projected in time series on the writing on the whiteboard 2 (FIG. 5B) and taken by the photographing device 4, FIG. Two types of captured images shown in FIG. 5F are acquired. Then, the difference image generation unit 230 generates a difference image between the captured image and the formed image. An example of the difference image is shown in FIGS. 5D and 5G. In each of the portions where the formed image and the writing overlap, a break occurs.

書込み画像合成部260は、結像画像を時系列に変化させて取得した複数の差分画像を合成し、図5(H)に示す書込み画像を生成する。本発明では図5(E)に示す結合画像をホワイトボードに投影した場合に図5(A)に示す結合画像と重ならないように画像処理を施すため、複数の差分画像を合成すると途切れのない書込み画像(H)を得ることができる。   The written image synthesis unit 260 synthesizes a plurality of difference images acquired by changing the formed image in time series to generate a written image shown in FIG. In the present invention, when the combined image shown in FIG. 5 (E) is projected onto the whiteboard, image processing is performed so as not to overlap the combined image shown in FIG. 5 (A). A written image (H) can be obtained.

<画像送信部>
画像送信部240は、書込み画像合成部260によって生成された書込み画像を他の情報処理装置5に送信する。ここで、書込み画像合成部260によって生成された書込み画像が空であった場合(すなわち、両画像間に差分がなかった場合)、または前回に送信した書込み画像と同一であった場合には、画像送信部240は、書込み画像の送信を行わなくともよい。この場合、画像送信部240は、書込み画像を他の情報処理装置5に送信するときに、RAM110等の記憶媒体に当該書込み画像を記憶させ、当該書込み画像と、送信しようとしている書込み画像とを比較するように構成される。
<Image transmission unit>
The image transmission unit 240 transmits the written image generated by the written image composition unit 260 to another information processing apparatus 5. Here, when the writing image generated by the writing image composition unit 260 is empty (that is, when there is no difference between both images), or when it is the same as the writing image transmitted last time, The image transmission unit 240 may not transmit the written image. In this case, when transmitting the written image to another information processing apparatus 5, the image transmitting unit 240 stores the written image in a storage medium such as the RAM 110, and the written image and the written image to be transmitted are stored. Configured to compare.

以下、図6、図7、図7、図8、図9を用いて情報処理装置5が行う動作を説明する。
<書込み画像受信動作フローチャート>
図6は、情報処理装置5の結像画像供給部210が書込み取得制御部270から入力された画像を投影装置3に投影する動作を説明するためのフローチャートである。本処理は、結像画像供給部210を構成するCPU100がRAM110を作業領域としてROM120およびHDD130に記憶されたプログラムを実行することで実現される。画像は作業領域のRAM110に記憶するものとする。
Hereinafter, operations performed by the information processing apparatus 5 will be described with reference to FIGS. 6, 7, 7, 8, and 9.
<Writing image reception operation flowchart>
FIG. 6 is a flowchart for explaining an operation in which the image formation image supply unit 210 of the information processing device 5 projects an image input from the write acquisition control unit 270 onto the projection device 3. This process is realized by the CPU 100 configuring the image forming image supply unit 210 executing programs stored in the ROM 120 and the HDD 130 using the RAM 110 as a work area. Assume that the image is stored in the RAM 110 of the work area.

結像画像供給部210は、他の情報処理装置から受信した画像情報に基づいて投影面に投影する投影画像を作成する。具体的には、他拠点から画像を受信した場合、結像画像供給部210は、投影装置3に供給する画像の共有領域と一致するように、受信画像を拡大または縮小した結像画像を生成する(S1000)。次に、結像画像供給部210は結像画像にマーカ画像を重畳し(S1010)、投影装置3に供給する(S1020)。投影装置3は、供給された画像を自拠点のホワイトボード2に投影する。   The formed image supply unit 210 creates a projection image to be projected on the projection plane based on image information received from another information processing apparatus. Specifically, when an image is received from another site, the imaging image supply unit 210 generates an imaging image in which the received image is enlarged or reduced so as to coincide with the shared area of the image supplied to the projection device 3. (S1000). Next, the imaged image supply unit 210 superimposes the marker image on the imaged image (S1010), and supplies it to the projection device 3 (S1020). The projection device 3 projects the supplied image on the whiteboard 2 at its own location.

<書込み画像送信動作フローチャート>
図7は、他拠点の情報処理装置への書込み画像送信動作を説明するためのフローチャートである。なお、以下に説明する書込み画像送信動作は、一定間隔で繰り返し実行される。または情報処理装置5の入力装置140を介した撮影要求が発生したときにスタートするようにしても構わない。本処理は、図3に示す各処理部を構成するCPU100がRAM110を作業領域としてROM120およびHDD130に記憶されたプログラムを実行することで実現される。画像は作業領域のRAM110に記憶するものとする。また、本処理を行う各処理部は書込み取得制御部270により制御される。
<Writing image transmission operation flowchart>
FIG. 7 is a flowchart for explaining a write image transmission operation to an information processing apparatus at another site. Note that the write image transmission operation described below is repeatedly executed at regular intervals. Alternatively, it may be started when a photographing request is generated via the input device 140 of the information processing apparatus 5. This process is realized by the CPU 100 configuring each processing unit shown in FIG. 3 executing programs stored in the ROM 120 and the HDD 130 using the RAM 110 as a work area. Assume that the image is stored in the RAM 110 of the work area. Each processing unit that performs this processing is controlled by the write acquisition control unit 270.

まず、結像画像供給部210は、画像受信部200が他の情報処理装置から受信した他拠点からの書込み画像つまり受信画像を、投影装置3に送り投影させる(S2010)。具体的な処理は図6で説明した画像投影フローチャートで示した通りである。結像画像供給部210は他拠点の書込み画像にマーカ画像を重畳し、投影装置3が供給された画像を自拠点のホワイトボード2に投影する。次に、撮影画像取得部220は、撮影装置4が撮影したホワイトボードの画像を第一の撮影画像として取得する(S2015)。   First, the image formation image supply unit 210 sends a projection image, that is, a received image from another site received by the image reception unit 200 from another information processing device, to the projection device 3 for projection (S2010). The specific processing is as shown in the image projection flowchart described in FIG. The formed image supply unit 210 superimposes the marker image on the writing image at the other site, and projects the image supplied by the projection device 3 onto the whiteboard 2 at the own site. Next, the captured image acquisition unit 220 acquires a whiteboard image captured by the imaging device 4 as a first captured image (S2015).

差分画像生成部230は、撮影画像取得部220が取得した画像に対し、当該画像に含まれるマーカ画像の位置に基づいて台形補正等の画像補正を施した上で共有領域を切り出す(S2020)。差分画像生成部230は、結像画像供給部210が投影装置3に供給した画像と、撮影装置4が撮影した画像との共有領域における差分を表す第一の差分画像を生成する(S2030)。   The difference image generation unit 230 performs image correction such as keystone correction on the image acquired by the captured image acquisition unit 220 based on the position of the marker image included in the image, and then cuts out the shared area (S2020). The difference image generation unit 230 generates a first difference image representing a difference in the shared area between the image supplied by the imaging image supply unit 210 to the projection device 3 and the image shot by the shooting device 4 (S2030).

次に、書込み画像合成部260は、保持する自拠点書込み画像を空にクリアする。(S2038)。書込み画像合成部260は、差分画像生成部230から渡された第一の差分画像を保持する(S2040)。S2038で書込み画像は空にクリアされているため、書込み画像は第一の差分画像になる。   Next, the written image composition unit 260 clears the self-site written image to be held empty. (S2038). The written image composition unit 260 holds the first difference image passed from the difference image generation unit 230 (S2040). Since the written image is cleared to empty in S2038, the written image becomes the first difference image.

次に、結像画像供給部210は他の情報処理装置から受信した他拠点書込み画像に補正を施し、補正後の画像を投影装置3に送り投影させる(S2050)。ここでは、差分画像生成部が輪郭抽出を行った画像を生成する。   Next, the imaging image supply unit 210 corrects the other-site written image received from another information processing apparatus, and sends the corrected image to the projection apparatus 3 for projection (S2050). Here, the difference image generation unit generates an image subjected to contour extraction.

次に、撮影画像取得部220は、撮影装置4が撮影したホワイトボードの画像を第二の撮影画像として取得する(S2055)。差分画像生成部230は、撮影画像取得部220が取得した第二の撮影画像に対し、当該画像に含まれるマーカ画像の位置に基づいて台形補正等の画像補正を施し共有領域を切り出す(S2060)。   Next, the captured image acquisition unit 220 acquires a whiteboard image captured by the capturing apparatus 4 as a second captured image (S2055). The difference image generation unit 230 performs image correction such as trapezoid correction on the second captured image acquired by the captured image acquisition unit 220 based on the position of the marker image included in the image, and cuts out the shared area (S2060). .

次に、差分画像生成部230は、結像画像供給部210が投影装置3に供給した画像と、撮影装置4が撮影した画像との共有領域における差分を表す第二の差分画像を生成する(S2070)。書込み画像合成部260は、差分画像生成部230から渡された第二の差分画像を保持しておいた第一の差分画像と合成し、書込み画像を得る(S2080)。   Next, the difference image generation unit 230 generates a second difference image that represents the difference in the shared region between the image supplied by the imaging image supply unit 210 to the projection device 3 and the image captured by the imaging device 4 ( S2070). The written image composition unit 260 synthesizes the second difference image passed from the difference image generation unit 230 with the first difference image, and obtains a written image (S2080).

ここで、画像送信部240は、書込み画像合成部260によって生成された自拠点の書込み画像が空であるか否かを判断する(S2100)。画像送信部240は、当該自拠点の書込み画像が空であると判断した場合には、他の情報処理装置から受信した他拠点書込み画像を、結像画像供給部に送り、書込み画像送信動作を終了する(S2130)。   Here, the image transmitting unit 240 determines whether or not the written image of the local site generated by the written image combining unit 260 is empty (S2100). If the image transmission unit 240 determines that the writing image at the local site is empty, the image transmission unit 240 sends the other site writing image received from the other information processing apparatus to the imaging image supply unit, and performs the writing image transmission operation. The process ends (S2130).

一方、当該自拠点の書込み画像が空でないと判断された場合(S2100)、画像送信部240は、書込み画像合成部260によって生成された自拠点書込み画像が前回に送信した自拠点書込み画像と同一であるか否かを判断する(S2110)。   On the other hand, when it is determined that the written image at the local site is not empty (S2100), the image transmitting unit 240 has the same local site written image generated by the written image combining unit 260 as the previous local site written image. It is determined whether or not (S2110).

ここで、画像送信部240が書込み画像合成部260によって生成された自拠点書込み画像が前回に送信した自拠点書込み画像と同一であると判断した場合には、他の情報処理装置から受信した他拠点書込み画像を結像画像供給部に送る。そして、画像送信部240は書込み画像送信動作を終了する(S2130)。   Here, if the image transmission unit 240 determines that the self-site write image generated by the write image composition unit 260 is the same as the self-site write image that was transmitted last time, the other received from another information processing apparatus The base writing image is sent to the imaging image supply unit. Then, the image transmission unit 240 ends the writing image transmission operation (S2130).

一方、書込み画像合成部260によって生成された自拠点の書込み画像が前回に送信した自拠点書込み画像と同一でないと判断された場合、当該自拠点書込み画像が、画像送信部240によって他の情報処理装置5に送信される(S2120)。そして他の情報処理装置から受信した他拠点の書込み画像つまり受信画像を、結像画像供給部に送り投影し書込み画像送信動作を終了する(S2130)。   On the other hand, when it is determined that the written image of the local site generated by the written image composition unit 260 is not the same as the previously written image of the local site, the local site image is transferred to another information processing by the image transmitting unit 240. It is transmitted to the device 5 (S2120). Then, the written image of the other site received from the other information processing apparatus, that is, the received image is sent and projected to the image formation image supply unit, and the written image transmission operation is terminated (S2130).

<画像共有システムの動作例>
図8、図9は、画像共有システム1の動作例を説明するための概念図である。拠点Aと拠点Bにはそれぞれ情報処理装置5が設置されている。以下では、各拠点の間でやり取りされる書込み画像と、投影装置3によってそれぞれ投影される投影画像と、撮影装置4によってそれぞれ撮影された撮影画像との例を時系列に並べて示す。
<Operation example of image sharing system>
8 and 9 are conceptual diagrams for explaining an operation example of the image sharing system 1. Information processing devices 5 are installed at the sites A and B, respectively. In the following, examples of written images exchanged between the respective bases, projected images respectively projected by the projection device 3, and photographed images respectively photographed by the photographing device 4 are shown in time series.

図8は、拠点Aから拠点Bへ書込み画像を送る動作を示す。投影に書込みを重ね書きしていないケースを説明する。まず拠点Aと拠点Bぞれぞれの情報処理装置5は初期状態として空白の他拠点書込み画像を保持し、結像画像を投影するものとする。   FIG. 8 shows an operation of sending a writing image from the base A to the base B. The case where the projection is not overwritten will be explained. First, it is assumed that each of the information processing apparatuses 5 at the base A and the base B holds a blank other-site writing image as an initial state and projects a formed image.

図8(A)は、拠点Aの情報処理装置5の初期状態を示す。拠点Aの投影装置3がホワイトボード2に空白の結像画像500を投影する。ホワイトボード2の書込み501が空白なのでホワイトボード2に結像画像を重畳した描画盤面502も空白である。図8(B)に拠点Bの情報処理装置5の初期状態を示す。投影装置3は、拠点Aの投影装置3によってホワイトボード2に空白の結像画像510を投影する。ホワイトボード2の書込み511が空白なのでホワイトボード2に結像画像を重畳した描画盤面512も空白である。   FIG. 8A shows an initial state of the information processing apparatus 5 at the site A. The projection device 3 at the site A projects a blank image 500 on the whiteboard 2. Since the writing 501 of the whiteboard 2 is blank, the drawing board surface 502 on which the formed image is superimposed on the whiteboard 2 is also blank. FIG. 8B shows an initial state of the information processing apparatus 5 at the site B. The projection device 3 projects a blank image 510 on the whiteboard 2 by the projection device 3 at the site A. Since the writing 511 of the whiteboard 2 is blank, the drawing board surface 512 on which the formed image is superimposed on the whiteboard 2 is also blank.

次に拠点Aの情報処理装置5と拠点Bの情報処理装置5とのセッションが確立すると、お互いの書込み画像を送受信できるようになる。ここでは拠点Aから拠点Bへ書込み画像を送信する場合を説明する。図8(C)に拠点Bの書込み画像が空白かつ拠点Aのホワイトボード2の書込みが空白の状態で書込み画像を送信するケースを示す。   Next, when a session between the information processing device 5 at the site A and the information processing device 5 at the site B is established, it becomes possible to transmit and receive the written images of each other. Here, a case where a writing image is transmitted from the base A to the base B will be described. FIG. 8C shows a case where the written image is transmitted in a state where the written image at the site B is blank and the writing on the whiteboard 2 at the site A is blank.

最初に拠点Aの投影装置3が拠点Bの書込み画像を結像画像520としてホワイトボード2の書込み521へ重畳投影し、撮影装置4が重畳投影された描画盤面522を撮影して撮影画像523を取得する。そして、差分画像生成部230が結像画像520と撮影画像523との差分をとり第一の差分画像524を得る。次に拠点Aの投影装置3が拠点Bの書込み画像の輪郭を抽出した画像を結像画像530としてホワイトボード2の書込み531へ重畳投影し、撮影装置4が重畳投影された描画盤面532を撮影して撮影画像533を取得する。そして、差分画像生成部230が結像画像530と撮影画像533の差分をとり第二の差分画像534を得る。そして、書込み画像合成部260が第一の差分画像524と第二の差分画像534を合成して拠点Aの合成画像535を生成する。   First, the projection device 3 at the site A superimposes and writes the image written at the site B as a formed image 520 onto the writing 521 of the whiteboard 2, and the imaging device 4 captures the image on the drawing board surface 522 on which the projection is performed. get. Then, the difference image generation unit 230 obtains a first difference image 524 by taking the difference between the formed image 520 and the captured image 523. Next, the projection device 3 at the site A extracts the outline of the writing image at the site B and superimposes it on the writing 531 of the whiteboard 2 as a formed image 530, and the imaging device 4 photographs the drawing board surface 532 on which the projection is performed. The captured image 533 is acquired. Then, the difference image generation unit 230 takes the difference between the formed image 530 and the captured image 533 to obtain a second difference image 534. Then, the writing image combining unit 260 combines the first difference image 524 and the second difference image 534 to generate a combined image 535 of the base A.

他拠点の書込み画像もホワイトボード2に対する書込みもないため、生成された第一の差分画像524と第二の差分画像534は共に空白、よって合成画像535も空白となる。生成された合成画像535は空白であるため、拠点Aの情報処理装置5は拠点Bへ書込み画像を送信しない。   Since there is neither a written image at another site nor a written image on the whiteboard 2, the generated first difference image 524 and the second difference image 534 are both blank, and thus the composite image 535 is also blank. Since the generated composite image 535 is blank, the information processing apparatus 5 at the site A does not transmit the written image to the site B.

次に拠点Bの書込み画像が空白かつ拠点Aのホワイトボード2へ書込みを行った場合を説明する。ここではユーザがホワイトボードにマーカーペン等で「10」を書き込んだ例を示す。図8(D)は、拠点Bの書込み画像が空白かつ拠点Aのホワイトボード2へ書込みを行った状態を示す。「10」の書込みがされた拠点Aのホワイトボード2に投影装置3が空白の結像画像540を重畳投影する。結像画像540が空白なので書込み541がそのまま描画盤面542となる。つまり盤面の状態は「10」そのままである。   Next, a case where the writing image at the site B is blank and writing is performed on the whiteboard 2 at the site A will be described. Here, an example is shown in which the user has written “10” on the whiteboard with a marker pen or the like. FIG. 8D shows a state in which the writing image at the site B is blank and writing is performed on the whiteboard 2 at the site A. The projection device 3 superimposes and projects a blank image 540 on the whiteboard 2 at the site A where “10” is written. Since the formed image 540 is blank, the writing 541 becomes the drawing board surface 542 as it is. In other words, the state of the board remains “10”.

図8(E)は、拠点Bの書込み画像が空白かつ拠点Aのホワイトボード2のへ「10」を書き込んだ状態で拠点Aから拠点Bに書込み画像が送信されるケースを説明する。最初に拠点Aの投影装置3が他拠点の書込み画像を結像画像550としてホワイトボード2の書込み551へ重畳投影し、撮影装置4が重畳投影された描画盤面552を撮影して撮影画像553を取得する。そして、差分画像生成部230が結像画像550と撮影画像553の差分をとり第一の差分画像554を得る。   FIG. 8E illustrates a case where the written image is transmitted from the base A to the base B in a state where the written image of the base B is blank and “10” is written to the whiteboard 2 of the base A. First, the projection device 3 at the site A superimposes and writes the image written at the other site on the writing 551 of the whiteboard 2 as a formed image 550, and the imaging device 4 shoots the drawing board surface 552 onto which the superimposed projection is performed. get. Then, the difference image generation unit 230 obtains a first difference image 554 by taking the difference between the formed image 550 and the captured image 553.

次に拠点Aの投影装置3が他拠点の書込み画像の輪郭抽出した画像を結像画像560としてホワイトボード2の書込み561へ重畳投影し、撮影装置4が重畳投影された描画盤面562を撮影して撮影画像563を取得する。そして、差分画像生成部230が結像画像560と撮影画像563の差分をとり第二の差分画像564を得る。そして、書込み画像合成部260が第一の差分画像554と第二の差分画像564を合成して拠点Aの合成画像565を生成する。   Next, the projection device 3 at the site A superimposes the image obtained by extracting the contour of the written image at the other site as the image 560 on the writing 561 of the whiteboard 2, and the imaging device 4 captures the drawing board surface 562 on which the projection is performed. The captured image 563 is acquired. Then, the difference image generation unit 230 obtains a second difference image 564 by taking the difference between the formed image 560 and the captured image 563. Then, the writing image combining unit 260 combines the first difference image 554 and the second difference image 564 to generate a combined image 565 of the base A.

拠点Bの書込み画像は空白、拠点Aのホワイトボード2には「10」が書き込まれているので生成された第一の差分画像554と第二の差分画像564は共に「10」、よって合成画像565も「10」となる。生成された合成画像565は空白でないため、情報処理装置5は拠点Bの情報処理装置へ合成画像565を送信する。拠点Bでは投影装置3が受信した書込み画像を結像画像566として投影することになる。   The written image of the site B is blank, and “10” is written on the whiteboard 2 of the site A. Therefore, the generated first difference image 554 and second difference image 564 are both “10”, and thus the composite image. 565 is also “10”. Since the generated composite image 565 is not blank, the information processing apparatus 5 transmits the composite image 565 to the information processing apparatus at the base B. At the site B, the written image received by the projection device 3 is projected as a formed image 566.

図9は、拠点Bから拠点Aへ書込み画像が送信される際の各情報処理装置の動作を示す。拠点Bのユーザが書込み画像に重ね書きしたケースを説明する。本発明の情報処理装置が行う処理によって、投影に書込みを重ね合わせても抽出した書込み画像に途切れが発生しない。これにより拠点毎の書込みが可読であることを示す。   FIG. 9 shows the operation of each information processing apparatus when a written image is transmitted from the site B to the site A. A case where the user at the site B overwrites the written image will be described. By the processing performed by the information processing apparatus of the present invention, the extracted written image is not interrupted even if writing is superimposed on the projection. This indicates that the writing at each site is readable.

まず拠点Aから受信した書込み画像が「10」かつ拠点Bのホワイトボード2が空白の場合を説明する。図9(A)は、拠点Bにおいて拠点Aから受信した書込み画像をホワイトボード2へ重畳投影するケースを示す。拠点Bの投影装置3が、ホワイトボード2に拠点Aから受信した書込み画像に基づいて生成した結像画像600を投影する。ホワイトボード2の書込み601が空白なのでホワイトボード2には結像画像がそのまま重畳投影された描画盤面602となる。具体的には「10」がそのまま投影される。   First, the case where the written image received from the site A is “10” and the whiteboard 2 at the site B is blank will be described. FIG. 9A shows a case where the writing image received from the site A at the site B is projected onto the whiteboard 2 in a superimposed manner. The projection device 3 at the site B projects the formed image 600 generated based on the written image received from the site A on the whiteboard 2. Since the writing 601 of the whiteboard 2 is blank, the whiteboard 2 becomes a drawing board surface 602 on which the formed image is directly superimposed and projected. Specifically, “10” is projected as it is.

図9(B)は、拠点Bのホワイトボード2に書込みが空白の状態で書込み画像を送信するケース示す。最初に拠点Bの投影装置3が拠点Aの書込み画像を結像画像610としてホワイトボード2の書込み611へ重畳投影し、撮影装置4が重畳投影された描画盤面612を撮影して撮影画像613を取得する。そして、差分画像生成部230が結像画像610と撮影画像613の差分をとり第一の差分画像614を得る。   FIG. 9B shows a case where a written image is transmitted to the whiteboard 2 at the site B in a state where the writing is blank. First, the projection device 3 at the site B superimposes the image written at the site A on the writing 611 of the whiteboard 2 as a formed image 610, and the imaging device 4 captures the imaging surface 612 on which the superimposed projection is performed, thereby obtaining a captured image 613. get. Then, the difference image generation unit 230 takes the difference between the formed image 610 and the captured image 613 to obtain a first difference image 614.

次に、拠点Bの投影装置3が拠点Aの書込み画像の輪郭を抽出した画像を結像画像620としてホワイトボード2の書込み621へ重畳投影し、撮影装置4が重畳投影された描画盤面622を撮影して撮影画像623を取得する。そして、差分画像生成部230が結像画像620と撮影画像623の差分をとり第二の差分画像624を得る。そして、書込み画像合成部260が第一の差分画像614と第二の差分画像624を合成して拠点Bの合成画像625を生成する。   Next, an image obtained by extracting the contour of the writing image at the site A by the projection device 3 at the site B is superimposed and projected on the writing 621 of the whiteboard 2 as an image 620, and the drawing board surface 622 on which the photographing device 4 is projected is superimposed. A photographed image 623 is obtained by photographing. Then, the difference image generation unit 230 obtains a second difference image 624 by taking the difference between the formed image 620 and the captured image 623. Then, the writing image combining unit 260 combines the first difference image 614 and the second difference image 624 to generate a combined image 625 of the base B.

拠点Bのホワイトボード2への書込みがないため、生成された第一の差分画像614と第二の差分画像624は共に空白、よって合成画像625も空白となる。生成された合成画像625は空白であるため、情報処理装置5は拠点Aへ書込み画像を送信しない。   Since there is no writing to the whiteboard 2 at the site B, the generated first difference image 614 and the second difference image 624 are both blank, and thus the composite image 625 is also blank. Since the generated composite image 625 is blank, the information processing apparatus 5 does not transmit the written image to the base A.

次に拠点Aの書込み画像が空白でなく、かつ拠点Bのホワイトボード2へ書込みを行った場合を説明する。ここでは拠点Aの書込み画像「10」がホワイトボード2へ投影されている上にマーカーペン等で取り消し線を書き込んだ例を示す。   Next, a case where the writing image at the site A is not blank and writing is performed on the whiteboard 2 at the site B will be described. Here, an example is shown in which a writing image “10” of the base A is projected onto the whiteboard 2 and a strikethrough is written with a marker pen or the like.

図9(C)は、拠点Bに拠点Aから受信した書込み画像をホワイトボード2へ重畳投影し、ユーザがホワイトボード2に書込み、つまり投影した画像に重ねて書込みを行うケースを示す。拠点Bの投影装置3がホワイトボード2に拠点Aの結像画像630を投影する。ユーザがホワイトボード2に取り消し線を書くと、ホワイトボード2には書込み631に結像画像630が重畳投影され「10」に取り消し線が重ねられた描画盤面632となる。   FIG. 9C shows a case where the writing image received from the site A is superimposed and projected on the whiteboard 2 at the site B, and the user writes on the whiteboard 2, that is, the writing is performed by overlapping the projected image. The projection device 3 at the site B projects the image 630 at the site A on the whiteboard 2. When the user writes a strike-through line on the whiteboard 2, the image forming image 630 is superimposed and projected on the write 631 on the whiteboard 2, and the drawing board surface 632 is formed with the strike-out line superimposed on “10”.

図9(D)は、「拠点Aから受信した書込み画像「10」を拠点Bのホワイトボード2へ重畳投影し、投影した画像に重ねて取り消し線が書き込まれた状態で書込み画像が拠点Bから拠点Aに送信されるケースを示す。最初に拠点Bの投影装置3が他拠点の書込み画像を結像画像640としてホワイトボード2の書込み641へ重畳投影し、撮影装置4が重畳投影された描画盤面642を撮影して撮影画像643を取得する。そして、差分画像生成部230が結像画像640と撮影画像643の差分をとり第一の差分画像644を得る。   FIG. 9D shows that “the writing image“ 10 ”received from the site A is superimposed and projected onto the whiteboard 2 at the site B, and the writing image is displayed from the site B in a state where a strikethrough is written on the projected image. The case transmitted to the base A is shown. First, the projection device 3 at the site B superimposes and writes the image written at the other site on the writing 641 of the whiteboard 2 as a formed image 640, and the imaging device 4 shoots the drawing board surface 642 on which the image is superimposed and the captured image 643 is captured. get. Then, the difference image generation unit 230 obtains a first difference image 644 by taking the difference between the formed image 640 and the captured image 643.

次に、拠点Bの投影装置3が他拠点の書込み画像の輪郭を抽出した画像を結像画像650としてホワイトボード2の書込み651へ重畳投影し、撮影装置4が重畳投影された描画盤面652を撮影して撮影画像653を取得する。そして、差分画像生成部230が結像画像650と撮影画像653の差分をとり第二の差分画像654を得る。そして、書込み画像合成部260が第一の差分画像644と第二の差分画像654を合成して拠点Bの合成画像655を生成する。   Next, the projection device 3 at the site B superimposes and projects the image obtained by extracting the contour of the writing image at the other site onto the writing 651 of the whiteboard 2 as the imaging image 650, and the drawing board surface 652 onto which the imaging device 4 is superimposed and projected. The photographed image 653 is acquired by photographing. Then, the difference image generation unit 230 obtains a second difference image 654 by taking the difference between the formed image 650 and the captured image 653. Then, the writing image combining unit 260 combines the first difference image 644 and the second difference image 654 to generate a combined image 655 of the base B.

拠点Aの書込み画像は「10」、ホワイトボード2には取り消し線が書き込まれているので、生成された第一の差分画像644と第二の差分画像654は途切れが発生した取り消し線である。書込み画像合成部260がこの二つの差分画像を合成することにより、途切れの無い取り消し線が再現された合成画像655を取得することができる。従来の手法では差分画像644しか抽出できず、当該差分画像を受信した他の情報処理装置が、抽出した画像が取り消し線ではなく、点線であるようにまちがって解釈する場合があった。本発明の情報処理装置によれば、合成画像655が得られるので、当該差分画像を受信した他の情報処理装置が確実に取り消し線を示す結像画像を投影することができる。従って、他拠点のユーザが、取り消し線であると解釈できる。つまり、他拠点に書き込まれた画像を自拠点で精確に投影することができ、視認性や操作性が向上する。生成された合成画像655は空白でないため、情報処理装置5は拠点Bへ合成画像655を送信する。拠点Bでは、投影装置3が、受信した書込み画像を結像画像656として投影することになる。   Since the written image of the site A is “10” and a strikethrough is written on the whiteboard 2, the generated first difference image 644 and second difference image 654 are strikeouts where interruptions occur. The written image composition unit 260 synthesizes these two difference images, whereby a composite image 655 in which a strikeout line without interruption is reproduced can be acquired. In the conventional method, only the difference image 644 can be extracted, and another information processing apparatus that has received the difference image sometimes interprets the extracted image so as to be a dotted line instead of a strikethrough. According to the information processing apparatus of the present invention, since the composite image 655 is obtained, another information processing apparatus that has received the difference image can reliably project an imaged image showing a strikethrough. Therefore, it can be interpreted that a user at another base is a strikethrough. That is, an image written at another site can be accurately projected at the own site, and visibility and operability are improved. Since the generated composite image 655 is not blank, the information processing apparatus 5 transmits the composite image 655 to the base B. At the site B, the projection device 3 projects the received written image as a formed image 656.

図9(E)は、拠点Bから受信した書込み画像が拠点Aのホワイトボード2へ重畳投影されるケースを示す。拠点Aの投影装置3がホワイトボード2に拠点Bから受信した書込み画像、つまり取り消し線を結像画像660として投影する。ホワイトボード2は書込み661つまり「10」に対して拠点Aの取り消し線を重畳投影した描画盤面662となる。   FIG. 9E shows a case where the written image received from the site B is superimposed and projected onto the whiteboard 2 at the site A. The projection device 3 at the site A projects the written image received from the site B, that is, the cancellation line, as the imaging image 660 on the whiteboard 2. The whiteboard 2 becomes a drawing board surface 662 obtained by superimposing a cancellation line of the base A on the writing 661, that is, “10”.

<差分画像生成処理>
図10は、差分画像生成処理の動作を説明するフローチャートである。本処理は差分画像生成部230を構成するCPU100がRAM110を作業領域としてROM120およびハードディスク装置に記憶されたプログラムを実行することで実現される。画像は作業領域のRAM110に記憶するものとする。
<Difference image generation processing>
FIG. 10 is a flowchart for explaining the operation of the difference image generation process. This processing is realized by the CPU 100 configuring the differential image generation unit 230 executing programs stored in the ROM 120 and the hard disk device using the RAM 110 as a work area. Assume that the image is stored in the RAM 110 of the work area.

以下、図7に示した情報処理装置5の書込み画像送信動作における、差分画像生成処理(S2030、S2070)の詳細について図10、図11、図12を用いて説明する。ここでは、差分画像生成部230が、撮影装置4により撮影された画像(以下、単に「撮影画像」という)と、投影装置3に供給された画像(以下、単に「投影画像」という)と、これら画像に基づいて生成した差分画像とにフィルタ処理を施す。   Details of the difference image generation processing (S2030, S2070) in the write image transmission operation of the information processing apparatus 5 shown in FIG. 7 will be described below with reference to FIGS. Here, the difference image generation unit 230 includes an image captured by the imaging device 4 (hereinafter simply referred to as “captured image”), an image supplied to the projection device 3 (hereinafter simply referred to as “projected image”), Filter processing is performed on the difference image generated based on these images.

まず、差分画像生成部230は、投影画像に対して、太め処理を適用した平滑化フィルタ処理を行う(S3000)。次いで、差分画像生成部230は、平滑化された投影画像と撮影画像とをR(赤)、G(緑)、B(青)成分にそれぞれ分離する(S3010)。   First, the difference image generation unit 230 performs a smoothing filter process to which the thickening process is applied to the projection image (S3000). Next, the difference image generation unit 230 separates the smoothed projected image and the captured image into R (red), G (green), and B (blue) components, respectively (S3010).

次に、差分画像生成部230は、R、G、Bの各成分に対して、以下に説明するS3020からステップ3050を実行する。ここで、R、G、Bの各成分は、0から255までの値をとり、この値が高くなるに連れて、輝度が高くなるものとする。すなわち、R、G、Bの各成分が0のとき、当該ピクセルの色は、黒となり、R、G、Bの各成分が255のとき、当該ピクセルの色は、白となる。差分画像生成部230は、投影画像と、撮影画像との該当成分の積分画像をそれぞれ生成する(S3020)。   Next, the difference image generation unit 230 performs steps 3050 to 3030 described below for each of the R, G, and B components. Here, the R, G, and B components take values from 0 to 255, and the luminance increases as this value increases. That is, when each of the R, G, and B components is 0, the color of the pixel is black, and when each of the R, G, and B components is 255, the color of the pixel is white. The difference image generation unit 230 generates integral images of corresponding components of the projection image and the captured image (S3020).

次に、差分画像生成部230は、撮影画像の各ピクセルおよび投影画像の各ピクセルに対して、以下に説明するS3030からS3050を実行する。まず、差分画像生成部230は、撮影画像の対象ピクセルに対して、該当成分を周囲のピクセルの該当成分で平均化した平均差分を算出する平均差分算出処理を実行する(S3030)。   Next, the difference image generation unit 230 executes S3030 to S3050 described below for each pixel of the captured image and each pixel of the projection image. First, the difference image generation unit 230 executes average difference calculation processing for calculating an average difference obtained by averaging the corresponding component with the corresponding component of surrounding pixels for the target pixel of the captured image (S3030).

平均差分算出処理では、図11に示すように、差分画像生成部230は、対象ピクセルを中心としたm×nのサイズの矩形を算出する(S4000)。なお、m、nは、予め定められた定数であり、撮影画像のサイズが1024ピクセル×768ピクセルの場合、例えば、m=n=31ピクセルとする。次に、差分画像生成部230は、図10のS3020で算出した積分画像を用いて、S4000で算出された矩形内の輝度の平均値を算出する(S4010)。   In the average difference calculation process, as shown in FIG. 11, the difference image generation unit 230 calculates a rectangle with a size of m × n with the target pixel as the center (S4000). Note that m and n are predetermined constants. When the size of the captured image is 1024 pixels × 768 pixels, for example, m = n = 31 pixels. Next, the difference image generation unit 230 calculates the average value of the luminance in the rectangle calculated in S4000 using the integrated image calculated in S3020 of FIG. 10 (S4010).

具体的には、当該積分画像の該当矩形の左上の輝度をLT、右上の輝度をRT、左下の輝度をLB、右下の輝度をRBとし、該当矩形内のピクセル数をPNとすると、該当矩形内の輝度の平均値AVGは、以下に示す式によって算出される。
AVG=(RB−RT−LB+LT)/PN
Specifically, the upper left luminance of the corresponding rectangle of the integral image is LT, the upper right luminance is RT, the lower left luminance is LB, the lower right luminance is RB, and the number of pixels in the corresponding rectangle is PN. The average value AVG of the luminance in the rectangle is calculated by the following formula.
AVG = (RB-RT-LB + LT) / PN

差分画像生成部230は、このように算出した平均値AVGで対象ピクセルの輝度を減じ、対象ピクセルの平均差分を算出し(S4020)、平均差分算出処理を終了する。   The difference image generation unit 230 reduces the luminance of the target pixel by the average value AVG calculated in this way, calculates the average difference of the target pixel (S4020), and ends the average difference calculation process.

図10に戻り、差分画像生成部230は、撮影画像の対象ピクセルに対する平均差分算出処理が終了すると、投影画像の対象ピクセルに対して、図11を参照して説明した平均差分算出処理を実行する(S3040)。次に、差分画像生成部230は、撮影画像の対象ピクセルの平均差分と、投影画像の対象ピクセルの平均差分とに基づいて、対象ピクセル間の差分値を算出する差分算出処理を実行する(S3050)。   Returning to FIG. 10, when the average difference calculation process for the target pixel of the captured image ends, the difference image generation unit 230 executes the average difference calculation process described with reference to FIG. 11 for the target pixel of the projection image. (S3040). Next, the difference image generation unit 230 executes a difference calculation process for calculating a difference value between the target pixels based on the average difference of the target pixels of the captured image and the average difference of the target pixels of the projection image (S3050). ).

差分算出処理では、図12に示すように、差分画像生成部230は、撮影画像の対象ピクセルの平均差分が予め定められた閾値THより大きいか否かを判断する(S5000)。なお、本例において、閾値THは、−5とする。   In the difference calculation process, as shown in FIG. 12, the difference image generation unit 230 determines whether or not the average difference of the target pixels of the captured image is larger than a predetermined threshold TH (S5000). In this example, the threshold value TH is -5.

当該平均差分が閾値THより大きいと判断した場合には、差分画像生成部230は差分値を背景色の同成分に設定し(S5080)、差分算出処理は終了する。一方、当該平均差分が閾値THより大きくないと判断した場合には、差分画像生成部230が投影画像の対象ピクセルの平均差分が濃くなるように定数倍(例えば、1.5倍)する(S5010)。   If it is determined that the average difference is greater than the threshold TH, the difference image generation unit 230 sets the difference value to the same component of the background color (S5080), and the difference calculation process ends. On the other hand, if it is determined that the average difference is not larger than the threshold value TH, the difference image generation unit 230 multiplies the constant difference (for example, 1.5 times) so that the average difference of the target pixels of the projection image becomes deeper (S5010). ).

次いで、差分画像生成部230は、撮影画像の対象ピクセルの平均差分から、定数倍された投影画像の対象ピクセルの平均差分を減算する(S5020)。次に、差分画像生成部230は、この減算結果として得られた差分値が、閾値THより大きいか否かを判断する(S5030)。   Next, the difference image generation unit 230 subtracts the average difference of the target pixels of the projection image multiplied by a constant from the average difference of the target pixels of the captured image (S5020). Next, the difference image generation unit 230 determines whether or not the difference value obtained as a result of the subtraction is larger than the threshold value TH (S5030).

差分値が閾値THより大きいと判断した場合には、撮影画像の対象ピクセルが背景より明るい外来光等のノイズと判断できるため、差分画像生成部230は差分値が背景色の同成分に設定し(S5080)、差分算出処理を終了する。   When it is determined that the difference value is greater than the threshold value TH, it can be determined that the target pixel of the photographed image is noise such as extraneous light brighter than the background. Therefore, the difference image generation unit 230 sets the difference value to the same component of the background color. (S5080), the difference calculation process is terminated.

一方、差分値が閾値THより大きくないと判断した場合には、差分画像生成部230は差分値が濃くなるように定数倍(例えば、1.5倍)する(S5040)。そして、差分画像生成部230は差分値に背景色の同成分を加算する(S5050)。なお、本実施の形態において、背景色の各成分は200とする。   On the other hand, if it is determined that the difference value is not larger than the threshold value TH, the difference image generation unit 230 multiplies the constant value by a constant (for example, 1.5 times) so that the difference value becomes deep (S5040). Then, the difference image generation unit 230 adds the same component of the background color to the difference value (S5050). In the present embodiment, it is assumed that each component of the background color is 200.

ここで、差分画像生成部230は、差分値が0未満か否かを判断し、差分値が0未満であると判断した場合には、差分値を0に設定し(S5070)、差分算出処理を終了する。一方、差分値が0未満でないと判断した場合には、差分画像生成部230は差分算出処理を終了する。   Here, the difference image generation unit 230 determines whether or not the difference value is less than 0. If it is determined that the difference value is less than 0, the difference image generation unit 230 sets the difference value to 0 (S5070), and performs difference calculation processing. Exit. On the other hand, if it is determined that the difference value is not less than 0, the difference image generation unit 230 ends the difference calculation process.

図10に戻り、撮影画像および投影画像の各ピクセルの各R、G、B成分に対する上述した各処理が終了すると、差分画像生成部230は各R、G、B成分の差分値を有する各ピクセルからなる差分画像を生成する(S3060)。   Returning to FIG. 10, when the above-described processing for each R, G, B component of each pixel of the captured image and the projected image is completed, the difference image generation unit 230 has each pixel having a difference value of each R, G, B component. The difference image which consists of is produced | generated (S3060).

<合成画像生成処理>
図13は、合成画像生成処理の動作を説明するフローチャートである。本処理は、書込み画像合成部260を構成するCPU100がRAM110を作業領域としてROM120およびハードディスク装置に記憶されたプログラムを実行することで機能する。画像は作業領域のRAM110に記憶するものとする。
<Composite image generation processing>
FIG. 13 is a flowchart for explaining the operation of the composite image generation process. This processing functions when the CPU 100 configuring the writing image composition unit 260 executes programs stored in the ROM 120 and the hard disk device using the RAM 110 as a work area. Assume that the image is stored in the RAM 110 of the work area.

ここで、図7に示した書込み画像送信動作における合成画像生成処理(S2040、S2080)の詳細を図13を用いて説明する。書込み画像合成部260が保持する書込み画像と、差分画像生成部230から入力した差分画像とを合成する処理である。   Details of the composite image generation processing (S2040, S2080) in the write image transmission operation shown in FIG. 7 will be described with reference to FIG. This is a process of synthesizing the write image held by the write image synthesis unit 260 and the difference image input from the difference image generation unit 230.

まず、書込み画像合成部260が保持する書込み画像と差分画像生成部230から入力した差分画像をR(赤)、G(緑)、B(青)成分にそれぞれ分離する(S6000)。   First, the writing image held by the writing image composition unit 260 and the difference image input from the difference image generation unit 230 are separated into R (red), G (green), and B (blue) components, respectively (S6000).

次に、書込み画像合成部260は、R、G、Bの各成分に対して、以下に説明するS6010からS6020を実行する。ここで、R、G、Bの各成分は、0から255までの値をとり、この値が高くなるに連れて、輝度が高くなるものとする。すなわち、R、G、Bの各成分が0のとき、当該ピクセルの色は、黒となり、R、G、Bの各成分が255のとき、当該ピクセルの色は、白となる。   Next, the written image composition unit 260 executes S6010 to S6020 described below for each of the R, G, and B components. Here, the R, G, and B components take values from 0 to 255, and the luminance increases as this value increases. That is, when each of the R, G, and B components is 0, the color of the pixel is black, and when each of the R, G, and B components is 255, the color of the pixel is white.

ここで、書込み画像合成部260は、差分画像の差分値が背景色成分値よりも小さいか否かを判断する(S6010)。なお、本例において、背景色成分値は各色成分共に200とする。差分画像の差分値が背景色成分値よりも小さいと判断した場合には、書込み画像合成部260は書込み画像のピクセル成分に差分画像の差分値で置き換える(S6020)。一方、書込み画像合成部260は、差分画像の差分値が背景色成分値よりも小さくないと判断した場合にはなにも処理をしない。   Here, the written image composition unit 260 determines whether or not the difference value of the difference image is smaller than the background color component value (S6010). In this example, the background color component value is 200 for each color component. When it is determined that the difference value of the difference image is smaller than the background color component value, the writing image composition unit 260 replaces the pixel component of the writing image with the difference value of the difference image (S6020). On the other hand, the writing image composition unit 260 performs no processing when it is determined that the difference value of the difference image is not smaller than the background color component value.

以上、説明したように、本発明の画像共有システムによれば、撮影画像と投影画像の適切な差分情報を作成し、途切れが生じない書込み画像を装置間で共有させることを可能とする情報処理装置を提供することが可能となる。つまり、情報処理装置が投影画像を時系列に変化させて撮影し、書込み画像との差分を抽出する。そして各差分を合成することで、投影画像と書込み画像を重ね合わせても他拠点に送信する書込み画像に途切れが発生しない。拠点毎の書込みに画像に途切れが無いため、書込み画像の可読性が高まるという効果が得られる。   As described above, according to the image sharing system of the present invention, it is possible to create appropriate difference information between a captured image and a projected image, and to process a written image that does not cause a break between devices. An apparatus can be provided. That is, the information processing apparatus captures and captures a projected image in time series, and extracts a difference from the written image. Then, by synthesizing the differences, even if the projected image and the written image are superimposed, the written image transmitted to the other site is not interrupted. Since there is no interruption in the image in writing at each site, the effect of improving the readability of the written image is obtained.

(実施例2)
第一の実施例においては自拠点の書込み画像を取得するには毎度、結像画像を時系列に変化させ、撮影画像を取得し、差分画像を生成して書込み画像を合成していた。結像画像と差分画像に近接領域が存在する場合に結像画像を時系列に変化させて自拠点の書込み画像を取得することも考えられる。
(Example 2)
In the first embodiment, each time the acquired image of the local site is acquired, the formed image is changed in time series, the captured image is acquired, the difference image is generated, and the written image is synthesized. It is also conceivable to obtain a writing image of the local site by changing the formed image in time series when there is a close region in the formed image and the difference image.

<情報処理装置の機能ブロック>
図14は、実施例2における情報処理装置の機能ブロック図である。実施例1との違いは、投影装置3に投影させている結像画像と撮影装置4により撮影された撮影画像との共有領域における差分を表す差分画像との近接領域画像を生成する近接領域画像生成部280を追加した点である。近接領域画像生成部280はCPU100によって構成される。
<Functional blocks of information processing device>
FIG. 14 is a functional block diagram of the information processing apparatus according to the second embodiment. The difference from the first embodiment is that a proximity area image that generates a proximity area image of a difference image representing a difference in a shared area between a formed image projected on the projection apparatus 3 and a captured image captured by the imaging apparatus 4 This is the point that the generation unit 280 is added. The proximity area image generation unit 280 is configured by the CPU 100.

<書込み取得制御部>
実施例2における書込み取得制御部270は、まずホワイトボード2に結像画像を投影して撮影画像を取得し、差分画像を生成する。そして結像画像と差分画像に近接領域が存在する場合に結像画像を時系列に変化させて自拠点の書込み画像を合成する制御を行う。図15、図16は実施例2の画像を示す。実施例1との違いは、まず図15(K)の近接領域画像を追加した点である。近接領域画像とは、ホワイトボードに投影する結像画像と、ホワイトボードへの書込みが近接した領域を抽出した画像のことである。
<Write acquisition control unit>
The writing acquisition control unit 270 according to the second embodiment first projects a formed image on the whiteboard 2 to acquire a captured image, and generates a difference image. Then, when there is a close region in the formed image and the difference image, control is performed to change the formed image in time series to synthesize the writing image of the local site. 15 and 16 show images of the second embodiment. The difference from the first embodiment is that a proximity region image shown in FIG. The proximity area image is an image obtained by projecting an image projected on the whiteboard and an area where writing on the whiteboard is close.

まず、図15に示すように、投影装置3が10」を結像画像として投影し、結像画像の中の「0」と書込みの取り消し線が近接している状態を説明する。図15(A)は第一の結像画像、図15(B)はホワイトボード2への書込み、図15(C)はホワイトボード2の書込みに第一の結像画像を投影し撮影装置4が撮影した撮影画像である。ここで図15(C)に示すように、書込みと第一の結像画像が近接している領域が近接領域である。この近接領域は、図15(D)に示す撮影画像と結像画像の差分画像と、図15(A)の第一の結像画像の背景色ではないピクセルが近接している個所を抽出する画像処理を行い図15(K)の近接領域画像として生成する。   First, as shown in FIG. 15, a state in which the projection device 3 projects 10 ”as an imaged image and“ 0 ”in the imaged image is close to the writing strike-through line will be described. 15A shows the first image formed, FIG. 15B shows the writing on the whiteboard 2, and FIG. 15C projects the first image formed on the writing on the whiteboard 2. Is a captured image. Here, as shown in FIG. 15C, a region where the writing and the first image are close is a close region. This proximity region extracts the difference image between the captured image and the imaged image shown in FIG. 15D and the pixel that is not the background color of the first imaged image shown in FIG. Image processing is performed to generate the proximity region image in FIG.

また、時系列に変化させる結像画像は、実施例1と同様に画像全体を輪郭抽出処理した図15(E)に示す結像画像であっても良いし、近接領域を含んだ画像の一部を輪郭抽出処理した、図15(M)に示す第二の結像画像(M)であっても構わない。図15(M)の結像画像を用いて撮影した第二の撮影画像を図15(N)に示す。撮影画像は図15(F)でも図15(N)に示す画像であっても得られる第二の差分画像は同一である(図15(G))。   Further, the imaging image to be changed in time series may be the imaging image shown in FIG. 15E obtained by performing contour extraction processing on the entire image in the same manner as in the first embodiment, or may be an image including an adjacent region. It may be a second image (M) shown in FIG. FIG. 15 (N) shows a second photographed image photographed using the imaged image of FIG. 15 (M). The second difference image obtained is the same regardless of whether the captured image is the image shown in FIG. 15F or FIG. 15N (FIG. 15G).

書込み画像合成部260は、結像画像を時系列変化させて取得した複数の差分画像を合成し、図15(H)に示す書込み画像を生成する。本発明では図15(A)、(E)、または(M)に示す結像画像をホワイトボードに投影した場合に近接領域を含む部分は重ならないようにしてあるため、複数の差分画像を合成すると途切れのない書込み画像(図15(H))を得ることができる。   The written image synthesis unit 260 synthesizes a plurality of difference images acquired by changing the formed image in time series, and generates a written image shown in FIG. In the present invention, when the imaged image shown in FIG. 15A, 15E, or 15M is projected onto the whiteboard, the portion including the adjacent region is not overlapped, so that a plurality of difference images are synthesized. As a result, an uninterrupted written image (FIG. 15H) can be obtained.

次に、図16を参照し、「10」を結像画像として投影し、結像画像の中の「0」に近接しない書込みのアンダーラインがある状態を説明する。図16に示した通り、近接領域が存在しないため図16(K)に示す近接領域画像は空になる。   Next, with reference to FIG. 16, a state in which “10” is projected as a formed image and there is an underline of writing that is not close to “0” in the formed image will be described. As shown in FIG. 16, since there is no near area, the near area image shown in FIG.

<近接領域画像生成部>
近接領域画像生成部280は図14に示す通り結像画像供給部210が保持する結像画像と、差分画像生成部230が生成する撮影装置4により撮影された撮影画像との共有領域30における差分を表す差分画像とを、ピクセル単位に比較し近接領域画像を生成する。具体的には近接領域画像生成部280は、結像画像の背景色では無いピクセルの周辺領域(例えば、3ピクセル×3ピクセル矩形)に、差分画像の背景色では無いピクセルを含むピクセルを近接領域とする。
<Near-area image generator>
As shown in FIG. 14, the proximity region image generation unit 280 is a difference in the shared region 30 between the imaging image held by the imaging image supply unit 210 and the captured image captured by the imaging device 4 generated by the difference image generation unit 230. Are compared with each other in units of pixels to generate a proximity region image. Specifically, the proximity region image generation unit 280 includes pixels including pixels that are not the background color of the difference image in the peripheral region (for example, 3 pixels × 3 pixels rectangle) of the pixels that are not the background color of the formed image. And

<書込み画像送信動作フローチャート>
図17は、実施例2における情報処理装置5の書込み画像送信動作を説明するためのフローチャートである。なお実施例1同様、以下に説明する書込み画像送信動作は、一定間隔で繰り返しスタートする。または情報処理装置5の入力装置140を介した撮影要求を発生したときにスタートするようにしても構わない。本処理は図3に示す各処理部を構成するCPU100がRAM110を作業領域としてROM120およびハードディスク装置に記憶されたプログラムを実行することで実現される。画像は作業領域のRAM110に記憶するものとする。また、本処理を行う各処理部は書込み取得制御部270により制御される。
<Writing image transmission operation flowchart>
FIG. 17 is a flowchart for explaining the write image transmission operation of the information processing apparatus 5 according to the second embodiment. As in the first embodiment, the write image transmission operation described below starts repeatedly at regular intervals. Alternatively, it may be started when a photographing request is generated via the input device 140 of the information processing apparatus 5. This processing is realized by the CPU 100 configuring each processing unit shown in FIG. 3 executing programs stored in the ROM 120 and the hard disk device using the RAM 110 as a work area. Assume that the image is stored in the RAM 110 of the work area. Each processing unit that performs this processing is controlled by the write acquisition control unit 270.

実施例1との違いは、近接領域画像を生成したうえで近接領域(領域情報)が空でない場合に結像画像を時系列に変化させて自拠点の書込み画像を抽出する処理を行う点である。以下、フローチャート上で実施例1と異なるステップのみ説明する。近接領域画像生成部280は、結像画像供給部210から投影装置3に供給された画像とS2030で生成した第一の差分画像の近接領域を示す近接領域画像を生成する(S2043)。   The difference from the first embodiment is that, when a proximity region image is generated and the proximity region (region information) is not empty, the imaging image is changed in time series to extract the writing image of the local site. is there. Hereinafter, only steps different from the first embodiment will be described on the flowchart. The proximity region image generation unit 280 generates a proximity region image indicating the proximity region between the image supplied from the imaging image supply unit 210 to the projection device 3 and the first difference image generated in S2030 (S2043).

画像送信部240は、近接領域画像生成部280により生成された近接領域画像が空であるか否かを判断する(S2045)。画像送信部240は、近接領域画像が空であると判断した場合、S2040で生成した画像をそのまま自拠点書込み画像として他拠点へ送信するためにS2100以降の処理を行う。一方、画像送信部240は、近接領域画像生成部280により生成された近接領域画像が空でないと判断した場合、S2050以降の時系列に結像画像を変化させ自拠点書込み画像を抽出する処理を行う。   The image transmission unit 240 determines whether or not the proximity area image generated by the proximity area image generation unit 280 is empty (S2045). If the image transmission unit 240 determines that the proximity region image is empty, the image transmission unit 240 performs the processing from S2100 onward in order to transmit the image generated in S2040 as it is to the other site as a self-written image. On the other hand, when the image transmission unit 240 determines that the proximity region image generated by the proximity region image generation unit 280 is not empty, the image transmission unit 240 performs processing for changing the imaged image in time series after S2050 and extracting the self-site-written image. Do.

<画像共有システムの動作例>
図18は、実施例2における画像共有システム1の動作例を説明するための概念図である。拠点Aと拠点Bにそれぞれ情報処理装置5を設置し、各拠点の間でやり取りされる書込み画像と、投影装置3によってそれぞれ投影される投影画像と、撮影装置4によってそれぞれ撮影された撮影画像との例を時系列で並べられて示す。
<Operation example of image sharing system>
FIG. 18 is a conceptual diagram for explaining an operation example of the image sharing system 1 in the second embodiment. An information processing device 5 is installed at each of the bases A and B, and a writing image exchanged between the bases, a projection image projected by the projection device 3, and a photographed image photographed by the photographing device 4, respectively Examples are shown in time series.

実施例1と違う個所、つまり近接領域画像を用いた動作部分のみ説明する。ここでは拠点Bから拠点Aへ書込み画像を送る動作を示す。投影に書込みを重ね書きしたケースを説明する。まず拠点Aの書込み画像「10」がホワイトボード2へ投影されている上にマーカーペン等で取り消し線を書き込んだ例を示す。結像画像と書込みに近接領域があるので近接領域画像が空でないケースを示す。   Only the difference from the first embodiment, that is, only the operation part using the proximity region image will be described. Here, an operation of sending a written image from the site B to the site A is shown. A case where writing is overwritten on the projection will be described. First, an example in which a writing image “10” of the site A is projected onto the whiteboard 2 and a strikethrough is written with a marker pen or the like is shown. Since there is a proximity region in the formed image and writing, the case where the proximity region image is not empty is shown.

図18(A)は、情報処理装置が拠点Aから受信した書込み画像「10」を拠点Bのホワイトボード2へ重畳投影し、投影した画像に重ねて取り消し線を書き込んだ状態で書込み画像を送信するケースを示す。最初に拠点Bの投影装置3が他拠点の書込み画像を結像画像740としてホワイトボード2の書込み741へ重畳投影し、重畳投影した描画盤面742を撮影して撮影画像743を取得する。そして差分画像生成部230が結像画像740と撮影画像743の差分をとり第一の差分画像744を得る。   In FIG. 18A, the written image “10” received from the site A by the information processing apparatus is superimposed and projected onto the whiteboard 2 at the site B, and the written image is transmitted in a state where a strikethrough is written on the projected image. Show the case. First, the projection device 3 at the site B superimposes the image written at the other site on the writing 741 of the whiteboard 2 as a formed image 740, and captures the superimposed drawing board surface 742 to obtain a captured image 743. Then, the difference image generation unit 230 obtains a first difference image 744 by taking the difference between the formed image 740 and the captured image 743.

次に、近接領域画像生成部280は、結像画像740と第一の差分画像744の近接領域を抽出した近接領域画像745を得る。近接領域画像745は空でないので、拠点Bの投影装置3は他拠点の書込み画像の輪郭抽出した画像を結像画像750としてホワイトボード2の書込み751へ重畳投影する。撮影装置4は、重畳投影した描画盤面752を撮影して撮影画像753を取得する。差分画像生成部230は、結像画像750と撮影画像753の差分をとり第二の差分画像754を得る。差分画像生成部230は、第一の差分画像744と第二の差分画像754を合成して拠点Bの合成画像755を生成する。   Next, the proximity area image generation unit 280 obtains a proximity area image 745 in which the proximity areas of the imaging image 740 and the first difference image 744 are extracted. Since the proximity region image 745 is not empty, the projection device 3 at the site B superimposes and projects the image obtained by extracting the contour of the writing image at the other site onto the writing 751 of the whiteboard 2 as the imaging image 750. The imaging device 4 acquires the captured image 753 by imaging the drawing board surface 752 that is superimposed and projected. The difference image generation unit 230 obtains a second difference image 754 by taking the difference between the formed image 750 and the captured image 753. The difference image generation unit 230 combines the first difference image 744 and the second difference image 754 to generate a combined image 755 of the base B.

拠点Aの書込み画像は「10」、ホワイトボード2には取り消し線が書き込まれているので生成された第一の差分画像744と第二の差分画像754は途切れが発生した取り消し線である。この二つの差分画像を合成すると途切れの無い取り消し線が再現された合成画像755を得る。生成された合成画像755は空白でないため、情報処理装置5は拠点Bへ合成画像755を送信する。拠点Bでは受信した書込み画像を結像画像756とする。   The written image of the site A is “10”, and the strike-through line is written on the whiteboard 2. Therefore, the generated first difference image 744 and the second difference image 754 are strike-through lines where breaks occur. When these two difference images are combined, a combined image 755 in which a continuous strikeout line is reproduced is obtained. Since the generated composite image 755 is not blank, the information processing apparatus 5 transmits the composite image 755 to the base B. At the site B, the received written image is defined as a formed image 756.

<近接領域画像が空の場合>
次に拠点Aの書込み画像「10」がホワイトボード2へ投影されている下にマーカーペン等でアンダーラインを書き込んだ例を示す。結像画像と書込みに近接領域が無いので近接領域画像が空のケースを示す。
<When the proximity image is empty>
Next, an example is shown in which an underline is written with a marker pen or the like under the image “10” of the site A projected onto the whiteboard 2. Since there is no adjacent area in the formed image and writing, the adjacent area image is empty.

図18(B)は、情報処理装置が拠点Aから受信した書込み画像「10」を拠点Bのホワイトボード2へ重畳投影し、投影した画像に重ねてアンダーラインを書き込んだ状態で書込み画像を送信するケースを示す。最初に拠点Bの投影装置3が他拠点の書込み画像を結像画像760としてホワイトボード2の書込み761へ重畳投影する。撮影装置4は、重畳投影した描画盤面762を撮影して撮影画像763を取得する。そして、差分画像生成部230は結像画像760と撮影画像763の差分をとり第一の差分画像764を得る。   FIG. 18B shows the writing image “10” received from the site A by the information processing apparatus superimposed on the whiteboard 2 at the site B, and the written image is transmitted with the underline overlaid on the projected image. Show the case. First, the projection device 3 at the site B superimposes and projects the image written at the other site as the image 760 on the address 761 on the whiteboard 2. The imaging device 4 acquires the captured image 763 by imaging the drawing board surface 762 superimposed and projected. Then, the difference image generation unit 230 obtains a first difference image 764 by taking the difference between the formed image 760 and the captured image 763.

次に、近接領域画像生成部280は、結像画像760と第一の差分画像764の近接領域を抽出した近接領域画像765を得る。近接領域画像765は空なので、第一の差分画像764拠点Bの書込み画像775として生成する。拠点Aの書込み画像は「10」、ホワイトボード2にはアンダーラインが書き込まれているので生成された第一の差分画像764は元々途切れが無い。生成された書込み画像775は空白でないため、情報処理装置5は拠点Bへ書込み画像775を送信する。拠点Bでは受信した書込み画像を結像画像776とする。   Next, the proximity region image generation unit 280 obtains a proximity region image 765 obtained by extracting the proximity region between the imaging image 760 and the first difference image 764. Since the proximity region image 765 is empty, it is generated as a writing image 775 of the first difference image 764 site B. Since the written image of the site A is “10” and the underline is written in the whiteboard 2, the generated first difference image 764 is originally uninterrupted. Since the generated writing image 775 is not blank, the information processing apparatus 5 transmits the writing image 775 to the base B. At the site B, the received written image is defined as an image 776.

<近接領域画像生成処理>
図19は、近接領域画像生成処理の動作を説明するフローチャートである。ここで、図17に示した情報処理装置5の書込み画像送信動作において、近接領域画像を生成する処理(S2043)について、図19を用いて説明する。本処理は近接領域画像生成部280が行う。結像画像供給部210が保持する結像画像と、差分画像生成部230が生成する撮影装置4により撮影された撮影画像との共有領域30における差分を表す差分画像とを、ピクセル単位に比較する。そして近接領域画像を生成する。本処理は近接領域画像生成部280を構成するCPU100がRAM110を作業領域としてROM120およびハードディスク装置に記憶されたプログラムを実行することで機能する。画像は作業領域のRAM110に記憶するものとする。
<Near-area image generation processing>
FIG. 19 is a flowchart for explaining the operation of the proximity region image generation process. Here, in the write image transmission operation of the information processing apparatus 5 shown in FIG. 17, processing (S2043) for generating a proximity region image will be described with reference to FIG. 19. This process is performed by the proximity region image generation unit 280. The difference image representing the difference in the shared area 30 between the formed image held by the formed image supply unit 210 and the captured image captured by the imaging device 4 generated by the difference image generation unit 230 is compared in units of pixels. . Then, a proximity area image is generated. This processing functions when the CPU 100 configuring the proximity area image generation unit 280 executes programs stored in the ROM 120 and the hard disk device using the RAM 110 as a work area. Assume that the image is stored in the RAM 110 of the work area.

まず、結像画像供給部210が保持する結像画像と、差分画像生成部230が生成する撮影装置4により撮影された撮影画像との共有領域30における差分を表す差分画像をR(赤)、G(緑)、B(青)成分にそれぞれ分離する(S7000)。ここで、R、G、Bの各成分は、0から255までの値をとり、この値が高くなるに連れて、輝度が高くなるものとする。すなわち、R、G、Bの各成分が0のとき、当該ピクセルの色は、黒となり、R、G、Bの各成分が255のとき、当該ピクセルの色は白となる。   First, a difference image representing a difference in the shared region 30 between the formed image held by the formed image supply unit 210 and the captured image taken by the imaging device 4 generated by the difference image generating unit 230 is represented by R (red), Separated into G (green) and B (blue) components, respectively (S7000). Here, the R, G, and B components take values from 0 to 255, and the luminance increases as this value increases. That is, when each of the R, G, and B components is 0, the color of the pixel is black. When each of the R, G, and B components is 255, the color of the pixel is white.

次に、近接領域画像生成部280は、結像画像の各ピクセルおよび差分画像の各ピクセルに対して、以下に説明するS7010からS7050が実行される。まず、近接画像の対象ピクセルのRGB色成分値を全て背景色の成分値とする(S7010)。ここで背景色の成分値はRGBそれぞれ200とする。次に、R、G、Bの各成分に対して、以下に説明するS7020からS7050が実行される。   Next, the proximity region image generation unit 280 executes S7010 to S7050 described below for each pixel of the formed image and each pixel of the difference image. First, all the RGB color component values of the target pixel of the proximity image are set as the background color component values (S7010). Here, the component value of the background color is 200 for each of RGB. Next, S7020 to S7050 described below are executed for each of the R, G, and B components.

ここで、近接領域画像生成部280は、結像画像の成分値が背景色成分値よりも小さいかを判断する(S7020)。近接領域画像生成部280は、結像画像の成分値が背景色成分値よりも小さくない場合はなにも処理をしない。一方結像画像の成分値が背景色成分値よりも小さいと判断した場合は、差分画像の対象ピクセルを中心としたm×nに背景色成分値より小さい成分値があるかを判断する(S7040)。   Here, the proximity region image generation unit 280 determines whether the component value of the formed image is smaller than the background color component value (S7020). The proximity region image generation unit 280 does not perform any processing when the component value of the formed image is not smaller than the background color component value. On the other hand, if it is determined that the component value of the formed image is smaller than the background color component value, it is determined whether m × n centered on the target pixel of the difference image has a component value smaller than the background color component value (S7040). ).

ここで、近接領域画像生成部280は、差分画像の対象ピクセルを中心としたm×nに背景色成分値より小さい成分値がなければなにも処理しない。一方差分画像の対象ピクセルを中心としたm×nに背景色成分値より小さい成分値があった場合は、近接画像の対象ピクセルのRGB色成分値を全て結像画像の成分値とする(S7050)。   Here, the proximity region image generation unit 280 does not perform processing unless m × n centered on the target pixel of the difference image has a component value smaller than the background color component value. On the other hand, if m × n centered on the target pixel of the difference image has a component value smaller than the background color component value, all the RGB color component values of the target pixel of the adjacent image are set as the component values of the formed image (S7050). ).

以上に説明したように、本発明の画像共有システムは、ホワイトボードに投影する結像画像と、ホワイトボードへの書込みが近接した領域がある場合に投影画像を時系列に変化させて撮影、差分抽出、合成する。これにより、投影画像と書込みを重ね合わせて書込み抽出しても書込み画像に途切れが発生しないようにできる。実施例1の効果に加えて、ホワイトボードへの結像画像と、書込みに近接領域が存在するときのみ時系列変化させた処理を行うので処理負荷が軽減される。   As described above, in the image sharing system of the present invention, when there is an imaging image to be projected on the whiteboard and an area where writing on the whiteboard is close, the projected image is changed in time series, and the difference is taken. Extract and synthesize. Thereby, even if the projection image and the writing are overlapped and written and extracted, the written image can be prevented from being interrupted. In addition to the effects of the first embodiment, the processing load is reduced because the time-series processing is performed only when the image formed on the whiteboard and the adjacent area exist for writing.

(実施例3)
第一の実施例においては図5で示したように時系列に変化させる画像は他拠点から受信した受信画像に対して輪郭抽出した画像であった。時系列に変化させる画像は輪郭抽出に限らず、位置のシフトや、輝度を変化させることも考えられる。
(Example 3)
In the first embodiment, as shown in FIG. 5, the image to be changed in time series is an image obtained by extracting the contour of the received image received from another base. The image to be changed in time series is not limited to the contour extraction, and it is conceivable to shift the position or change the luminance.

図20は結像画像を時系列に位置をシフトさせる例を示す。図20(A)は第一の結像画像の一例を示し、画像受信部200で受信した画像そのままである。一方、図20(E)は第二の結像画像の一例を示し、図20(A)に対して結像画像の水平方向の位置を右へ距離Aだけ移動させた画像である。図20(E)の画像は図20(A)の画像と重ならないような位置へ画像処理によって移動を行うものとする。   FIG. 20 shows an example of shifting the position of the formed image in time series. FIG. 20A shows an example of the first imaged image, which is the image received by the image receiving unit 200 as it is. On the other hand, FIG. 20E shows an example of the second imaged image, which is an image obtained by moving the horizontal position of the imaged image to the right by the distance A with respect to FIG. Assume that the image in FIG. 20E is moved by image processing to a position that does not overlap with the image in FIG.

結像画像を時系列に変化させて撮影画像取得部220が取得する撮影画像の一例を図20(C)と図20(F)に示す。なお結像画像が投影されるホワイトボード2には図20(B)の書込みがされているものとする。ホワイトボード2の書込みに図20(A)と図20(E)の結合画像が時系列に重畳投影され図20(C)と図20(F)の2種類の結像画像が取得される。   An example of a captured image acquired by the captured image acquisition unit 220 by changing the formed image in time series is shown in FIGS. 20 (C) and 20 (F). It is assumed that the writing in FIG. 20B is written on the whiteboard 2 on which the formed image is projected. The combined images of FIGS. 20A and 20E are superimposed and projected in time series for writing on the whiteboard 2, and two types of formed images of FIGS. 20C and 20F are acquired.

そして差分画像生成部230は、撮影画像と結像画像の差分画像を生成する。差分画像の一例を図20(D)と図20(G)に示す。それぞれ結像画像と書込みが重なった部分には途切れが発生している。   Then, the difference image generation unit 230 generates a difference image between the captured image and the formed image. An example of the difference image is shown in FIGS. 20D and 20G. In each of the portions where the formed image and the writing overlap, a break occurs.

書込み画像合成部260では、結像画像を時系列変化させて取得した複数の差分画像を合成し、図20(H)に示す書込み画像を生成する。本発明では図20(A)と図20(E)の結像画像をホワイトボードに投影した場合に重ならないようにしてあるため、複数の差分画像を合成すると途切れのない書込み画像を得ることができる。   The written image synthesis unit 260 synthesizes a plurality of difference images acquired by changing the formed image in time series to generate a written image shown in FIG. In the present invention, since the imaged images of FIGS. 20A and 20E are not overlapped when projected onto a whiteboard, when a plurality of difference images are combined, an uninterrupted written image can be obtained. it can.

図21は結像画像を時系列に輝度を変化させる例を示す。図21(A)は第一の結像画像の一例を示し、画像受信部200で受信した画像そのままである。一方、図21(E)は、第二の結像画像の一例を示し図21(A)の画像と重ならないような輪郭抽出と輪郭の内側の輝度を元画像に対して明るくする画像処理によって行うものとする。具体的には(A)の画像の黒い部分を太らせ処理を行ったうえで輪郭抽出し、輪郭の内側の輝度を撮影画像により書込みが検知できる値まで明るくすればよい。   FIG. 21 shows an example in which the brightness of the formed image is changed in time series. FIG. 21A shows an example of the first imaged image, which is the image received by the image receiving unit 200 as it is. On the other hand, FIG. 21E shows an example of the second image formed by contour extraction so as not to overlap the image of FIG. 21A and image processing for increasing the brightness inside the contour relative to the original image. Assumed to be performed. Specifically, the black portion of the image in (A) is thickened, the contour is extracted, and the brightness inside the contour is increased to a value at which writing can be detected from the captured image.

結像画像を時系列に変化させて撮影画像取得部220が取得する撮影画像の一例を図21(C)と図21(F)に示す。なお結像画像が投影されるホワイトボード2には同図(B)の書込みがされているものとする。ホワイトボード2の書込みに図21(A)と図21(E)の結像画像が時系列に重畳投影され図21(C)と図21(F)の2種類の結像画像が取得される。そして差分画像生成部230では撮影画像と結像画像の差分画像を生成する。差分画像の一例を図21(D)と図21(G)に示す。それぞれ結像画像と書込みが重なった部分には途切れが発生している。   An example of the captured image acquired by the captured image acquisition unit 220 by changing the formed image in time series is shown in FIGS. It is assumed that the whiteboard 2 on which the formed image is projected is written as shown in FIG. 21A and 21E are superimposed and projected in time series for writing on the whiteboard 2, and two types of formed images shown in FIGS. 21C and 21F are acquired. . Then, the difference image generation unit 230 generates a difference image between the captured image and the formed image. An example of the difference image is shown in FIGS. 21 (D) and 21 (G). In each of the portions where the formed image and the writing overlap, a break occurs.

書込み画像合成部260では結像画像を時系列変化させて取得した複数の差分画像を合成し、図21(H)に示す書込み画像を生成する。本発明では図21(A)と図21(E)に示す結像画像をホワイトボードに投影した場合に元画像と輪郭画像の輪郭部分が重ならず、かつ輪郭の内側の輝度は書込みが検知できる。従って、複数の差分画像を合成すると途切れのない書込み画像(H)を得ることができる。   The written image synthesizing unit 260 synthesizes a plurality of difference images acquired by changing the formed image in time series to generate a written image shown in FIG. In the present invention, when the formed image shown in FIGS. 21A and 21E is projected onto the whiteboard, the outline portion of the original image and the outline image do not overlap, and the brightness inside the outline is detected by writing. it can. Therefore, when a plurality of difference images are combined, an uninterrupted written image (H) can be obtained.

以上に説明したように、本発明の画像共有システムは、投影画像を時系列に変化させて撮影、差分抽出、合成することで、投影画像と書込み画像を重ね合わせて書込み抽出しても書込み画像に途切れが発生しないようにできる。拠点毎の書込みに画像に途切れが無いため、書込み画像の可読性が高まる。   As described above, the image sharing system of the present invention changes the projected image in time series, captures, extracts a difference, and synthesizes the written image even if the projected image and the written image are overwritten and extracted. It is possible to prevent interruptions. Since there is no interruption in the image for writing at each site, the readability of the written image is enhanced.

(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(コンピュータプログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給する。そしてそのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (computer program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media. Then, the computer (or CPU, MPU, etc.) of the system or apparatus reads out and executes the program. In this case, the program and the storage medium storing the program constitute the present invention.

230 差分画像生成部
260 書込み画像合成部
230 Difference Image Generation Unit 260 Written Image Synthesis Unit

Claims (7)

撮影された画像情報をネットワークを介して複数の情報処理装置で共有する情報処理装置であって、
他の情報処理装置から受信した画像情報に基づいて投影面に投影する投影画像を作成する作成手段と、
前記投影面を撮影面として撮影された撮影画像を取得する取得手段と、
前記投影画像と前記撮影画像から第1の差分画像を生成し、前記投影画像を補正して、当該補正後の投影画像が投影面に投影され撮影された撮影画像と前記補正後の投影画像から第2の差分画像を生成する生成手段と、
前記第1および第2の差分画像を合成して合成画像を生成する合成手段と、
前記合成画像を前記他の情報処理装置に送信する送信手段と、を備える
ことを特徴とする情報処理装置。
An information processing apparatus that shares captured image information among a plurality of information processing apparatuses via a network,
Creating means for creating a projection image to be projected on a projection surface based on image information received from another information processing apparatus;
Obtaining means for obtaining a photographed image photographed using the projection surface as a photographing surface;
A first difference image is generated from the projected image and the captured image, the projected image is corrected, and the corrected projected image is projected onto the projection plane and captured from the corrected projected image. Generating means for generating a second difference image;
Combining means for combining the first and second difference images to generate a combined image;
Transmitting means for transmitting the composite image to the other information processing apparatus. An information processing apparatus comprising:
前記生成手段は、前記投影画像の輪郭を抽出することにより前記投影画像の補正を行い、前記補正後の投影画像は補正前の前記投影画像と重ならない
ことを特徴とする請求項1に記載の情報処理装置。
The said generation means correct | amends the said projection image by extracting the outline of the said projection image, The said projection image after correction | amendment does not overlap with the said projection image before correction | amendment. Information processing device.
前記生成手段は、前記投影画像の前記投影面における位置を変化させることにより前記投影画像の補正を行う
ことを特徴とする請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the generation unit corrects the projection image by changing a position of the projection image on the projection plane.
前記生成手段は、前記投影画像の輝度を変化させることにより前記投影画像の補正を行い、前記補正後の投影画像は補正前の前記投影画像と重ならない
ことを特徴とする請求項1に記載の情報処理装置。
The said generating means correct | amends the said projection image by changing the brightness | luminance of the said projection image, The said projection image after correction | amendment does not overlap with the said projection image before correction | amendment. Information processing device.
前記撮影面において、前記投影画像と前記撮影画像が重畳する場合に、重畳する領域の領域情報を取得する取得手段をさらに備え、
前記生成手段は、前記領域情報が取得された場合に前記投影画像を補正する
ことを特徴とする請求項1乃至4のいずれか一項に記載の情報処理装置。
In the imaging surface, when the projected image and the captured image are superimposed, the image capturing surface further includes an acquisition unit that acquires region information of a region to be superimposed,
The information processing apparatus according to claim 1, wherein the generation unit corrects the projection image when the area information is acquired.
撮影された画像情報をネットワークを介して複数の情報処理装置で共有する情報処理装置の制御方法であって、
他の情報処理装置から受信した画像情報に基づいて投影面に投影する投影画像を作成する作成工程と、
前記投影面を撮影面として撮影された撮影画像を取得する取得工程と、
前記投影画像と前記撮影画像から第1の差分画像を生成し、前記投影画像を補正して、当該補正後の投影画像が投影面に投影され撮影された撮影画像と前記補正後の投影画像から第2の差分画像を生成する生成工程と、
前記第1および第2の差分画像を合成して合成画像を生成する合成工程と、
前記合成画像を前記他の情報処理装置に送信する送信工程と、を含む
ことを特徴とする制御方法。
An information processing apparatus control method for sharing captured image information among a plurality of information processing apparatuses via a network,
A creation step of creating a projection image to be projected onto a projection surface based on image information received from another information processing apparatus;
An obtaining step of obtaining a photographed image photographed using the projection surface as a photographing surface;
A first difference image is generated from the projected image and the captured image, the projected image is corrected, and the corrected projected image is projected onto the projection plane and captured from the corrected projected image. A generating step of generating a second difference image;
A combining step of combining the first and second difference images to generate a combined image;
And a transmission step of transmitting the composite image to the other information processing apparatus.
請求項6に記載の制御方法をコンピュータにより実行させることを特徴とするコンピュータプログラム。   A computer program causing a control method according to claim 6 to be executed by a computer.
JP2013250528A 2013-12-03 2013-12-03 Information processing apparatus, control method of information processing apparatus, and computer program Pending JP2015109520A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013250528A JP2015109520A (en) 2013-12-03 2013-12-03 Information processing apparatus, control method of information processing apparatus, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013250528A JP2015109520A (en) 2013-12-03 2013-12-03 Information processing apparatus, control method of information processing apparatus, and computer program

Publications (1)

Publication Number Publication Date
JP2015109520A true JP2015109520A (en) 2015-06-11

Family

ID=53439590

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013250528A Pending JP2015109520A (en) 2013-12-03 2013-12-03 Information processing apparatus, control method of information processing apparatus, and computer program

Country Status (1)

Country Link
JP (1) JP2015109520A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019012499A (en) * 2017-07-03 2019-01-24 Necネッツエスアイ株式会社 Electronic writing board system
JP2019168894A (en) * 2018-03-23 2019-10-03 富士ゼロックス株式会社 Information process system and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019012499A (en) * 2017-07-03 2019-01-24 Necネッツエスアイ株式会社 Electronic writing board system
JP2019168894A (en) * 2018-03-23 2019-10-03 富士ゼロックス株式会社 Information process system and program
JP7247466B2 (en) 2018-03-23 2023-03-29 富士フイルムビジネスイノベーション株式会社 Information processing system and program

Similar Documents

Publication Publication Date Title
JP5266953B2 (en) Projection display apparatus and display method
JP5633320B2 (en) Drawing image sharing device
JP6089461B2 (en) Projector, image display system, and projector control method
CN106664465B (en) System for creating and reproducing augmented reality content and method using the same
US9459820B2 (en) Display processing apparatus, display processing method, and computer program product
JP2010050542A (en) Projection display apparatus, and display method
JP2011151764A (en) Drawn image sharing apparatus
JP5771981B2 (en) Drawing image sharing apparatus, data processing method, program, and recording medium
US20090002510A1 (en) Image processing device, computer readable recording medium, and image processing method
US10460421B2 (en) Image processing apparatus and storage medium
JP5870639B2 (en) Image processing system, image processing apparatus, and image processing program
US11398007B2 (en) Video generation device, video generation method, program, and data structure
JP2018107593A (en) Image processing apparatus, image processing method, and program
JP6708407B2 (en) Image processing apparatus, image processing method and program
JP2015109520A (en) Information processing apparatus, control method of information processing apparatus, and computer program
JP5972462B2 (en) Image generation method
JP5550111B2 (en) Imaging apparatus, imaging method, and program
JP2012185386A (en) Drawing image processing device
JP7391502B2 (en) Image processing device, image processing method and program
JP2014163979A (en) Projector device, control method thereof, and control program
JP5740942B2 (en) Image processing apparatus and image processing program
JP6620979B2 (en) Portable terminal, projection system, control method and program for projection system
JP6014995B2 (en) Image processing apparatus and image processing program
JP5448799B2 (en) Display control apparatus and display control method
US20230379442A1 (en) Information processing apparatus, projection method, and non-transitory computer readable medium