JP2015115857A - Device, system, method, and program - Google Patents

Device, system, method, and program Download PDF

Info

Publication number
JP2015115857A
JP2015115857A JP2013257911A JP2013257911A JP2015115857A JP 2015115857 A JP2015115857 A JP 2015115857A JP 2013257911 A JP2013257911 A JP 2013257911A JP 2013257911 A JP2013257911 A JP 2013257911A JP 2015115857 A JP2015115857 A JP 2015115857A
Authority
JP
Japan
Prior art keywords
image
area
transmission
person
transmission target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013257911A
Other languages
Japanese (ja)
Inventor
裕介 村松
Yusuke Murakami
裕介 村松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013257911A priority Critical patent/JP2015115857A/en
Publication of JP2015115857A publication Critical patent/JP2015115857A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a system sharing contents written on a board surface of an information input board with a plurality of bases in which, when new contents is written on the board surface of the information input board to update the contents written on the board surface of the information input board, the updated contents of writing is immediately shared with other bases.SOLUTION: A device by which information on an information input board is shared between own base and the other base where the information input boards are respectively installed comprises: imaging control means which takes an image of the information input board to acquire an image-capture image; identification means which compares, when a region of a person is included in the image-capture image, the image-capture image with an image-capture image captured before the image-capture image to identify the region where the person passed through; and transmission image generation means which extracts the portion corresponding to the identified region from the acquired image-capture image to generate a transmission image to transmit to the other base.

Description

本発明は、各拠点に設置された情報入力ボードに入力された情報を複数拠点で共有する技術に関するものである。   The present invention relates to a technique for sharing information input to an information input board installed at each site at a plurality of sites.

近年、遠隔会議等を支援する為に、ホワイトボード等の情報入力ボードを複数の拠点に設置し、各拠点の情報入力ボードをカメラで撮像して得た画像を他拠点の情報入力ボードにプロジェクタで投影する事で、複数拠点間で情報を共有するシステムが提案されている。   In recent years, in order to support remote conferences, etc., information input boards such as whiteboards have been installed at multiple sites, and images obtained by capturing information input boards at each site with cameras are projected onto information input boards at other sites. A system for sharing information among multiple bases has been proposed.

このようなシステムでは、自拠点の情報入力ボードの記載内容を撮像して得た画像を他拠点に送信し、他拠点では、受信した画像と既に投影している画像とを合成して、合成した画像を当該他拠点の情報入力ボードに投影する(例えば、特許文献1を参照)。   In such a system, an image obtained by capturing the description contents of the information input board at the local site is transmitted to another site, and the other site synthesizes the received image with the already projected image. The projected image is projected onto the information input board at the other base (for example, see Patent Document 1).

特開2005−121748号公報JP 2005-121748 A

しかしながら、特許文献1の場合には、常に情報入力ボードの盤面の全面を撮像した画像を他拠点に送信しているのでシステムの処理負荷が大きかった。   However, in the case of Patent Document 1, an image obtained by capturing the entire surface of the information input board is always transmitted to another base, so the processing load on the system is large.

本発明に係る情報処理装置は、それぞれに情報入力ボードが設置された自拠点と他拠点との間で情報入力ボード上の情報を共有するための装置であって、情報入力ボードを撮像して撮像画像を取得する撮像処理手段と、取得した撮像画像に人物の領域が含まれる場合、当該撮像画像と当該撮像画像よりも前に取得された過去の撮像画像とを比較して、当該人物が通過した領域を特定する特定手段と、取得した撮像画像から前記特定された領域に相当する部分を抽出して、前記他拠点へ送信するための送信画像を生成する送信画像生成手段とを備えたことを特徴とする。   An information processing apparatus according to the present invention is an apparatus for sharing information on an information input board between a local site where an information input board is installed and another site, and images the information input board. When the acquired image includes a person region in the acquired image processing unit and the acquired image, the image is compared with the past image acquired before the acquired image. A specifying means for specifying the area that has passed, and a transmission image generating means for extracting a portion corresponding to the specified area from the acquired captured image and generating a transmission image for transmission to the other base. It is characterized by that.

本発明によれば、他拠点に送信する画像の領域を限定出来る為、処理を行うシステムの負荷や通信コストを軽減でき、速やかに他拠点と更新された記載内容を共有する事ができる。   According to the present invention, since the area of an image to be transmitted to another base can be limited, the load on the system for processing and the communication cost can be reduced, and the updated description can be quickly shared with the other base.

実施例1における、複数の拠点間で情報を共有するためのシステムの構成の一例を示す図である。1 is a diagram illustrating an example of a configuration of a system for sharing information among a plurality of bases in Embodiment 1. FIG. PCの内部構成の一例を示す図である。It is a figure which shows an example of an internal structure of PC. 実施例1における、図1の構成を具体化した図である。It is the figure which actualized the structure of FIG. 1 in Example 1. FIG. 実施例1における、PCのソフトウェア構成を示す機能ブロック図である。3 is a functional block diagram illustrating a software configuration of a PC in Embodiment 1. FIG. 実施例1における、各拠点の共有領域の記載状態を示す図である。It is a figure which shows the description state of the common area | region of each base in Example 1. FIG. 実施例1における、各拠点の共有領域の状態の推移と、それぞれの時点での各種画像の生成の様子の一覧を示す図である。FIG. 6 is a diagram illustrating a list of changes in the state of a shared area at each base and a state of generation of various images at each time point in the first embodiment. 実施例1における、送信対象領域画像を生成する処理における領域の単位の一例を示す図である。FIG. 10 is a diagram illustrating an example of a region unit in a process of generating a transmission target region image in the first embodiment. 実施例1における、送信対象領域を特定する様子を示す図である。It is a figure which shows a mode that the transmission object area | region in Example 1 is specified. 実施例1における、拠点Aの情報処理システムのカメラが共有領域の記載内容を撮像し、拠点Bの情報処理システムに送信する処理のフローチャートを示す図である。FIG. 10 is a diagram illustrating a flowchart of a process in which the camera of the information processing system at the base A captures the description content of the shared area and transmits it to the information processing system at the base B in the first embodiment. 実施例1における、送信対象領域画像を生成する処理の詳細を表すフローチャートを示す図である。FIG. 6 is a flowchart illustrating details of processing for generating a transmission target area image in the first embodiment. 実施例1における、拠点BのPCが拠点Aから送信されてきた送信画像を共有領域に投影する処理のフローチャートを示す図である。FIG. 6 is a diagram illustrating a flowchart of a process for projecting a transmission image transmitted from the base A by the PC at the base B to the shared area in the first embodiment. 実施例2における、PCのソフトウェア構成を示す機能ブロック図である。FIG. 10 is a functional block diagram illustrating a software configuration of a PC in a second embodiment. 実施例2における、各拠点の共有領域の状態の推移と、それぞれの時点での各種画像の生成の様子の一覧を示す図である。In Example 2, it is a figure which shows the transition of the state of the shared area of each base, and the list of the mode of the production | generation of the various images in each time. 実施例2における、拠点Aの情報処理システムのカメラが共有領域の記載内容を撮像し、拠点Bの情報処理システムに送信する処理のフローチャートを示す図である。FIG. 10 is a diagram illustrating a flowchart of a process in which a camera of an information processing system at a base A captures the description of a shared area and transmits it to the information processing system at a base B in the second embodiment. 実施例2における、送信対象領域画像を生成する処理の詳細を表すフローチャートを示す図である。FIG. 11 is a flowchart illustrating details of a process for generating a transmission target area image in the second embodiment.

以下、本発明を実施するための形態について図面を用いて説明する。ただし、この実施形態に記載されている構成要素はあくまで例示であり、この発明の範囲をそれらに限定する趣旨のものではない。   Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. However, the components described in this embodiment are merely examples, and are not intended to limit the scope of the present invention thereto.

<本システムの構成>
図1は、本実施例における、複数の拠点間で情報を共有するためのシステム(以下、情報共有システム)の構成の一例を示す図である。情報共有システム100の各拠点には、情報処理システムと情報入力ボードとが存在する。本実施例の情報共有システム100は2つの拠点からなり、情報処理システム110と情報入力ボード114とで構成される拠点を拠点A(自拠点)、情報処理システム120と情報入力ボード124とで構成される拠点を拠点B(他拠点)と呼ぶこととする。
<Configuration of this system>
FIG. 1 is a diagram illustrating an example of a configuration of a system (hereinafter referred to as an information sharing system) for sharing information between a plurality of bases in the present embodiment. An information processing system and an information input board exist at each site of the information sharing system 100. The information sharing system 100 according to the present embodiment includes two bases, and the base constituted by the information processing system 110 and the information input board 114 is constituted by the base A (own base) and the information processing system 120 and the information input board 124. This base is called base B (other base).

本実施例にかかる、情報処理システム110は、PC111と、プロジェクタ(投影装置)112と、カメラ(撮像装置)113とを有する。情報処理システム120は、PC121と、プロジェクタ122と、カメラ123とを有する。拠点Aの情報処理システム110は、LANやWANなどに代表されるネットワーク130を介して、拠点Bにある情報処理システム120と接続されている。以下、PC121については、PC111と同様の構成であり、基本的に異なるところはないので説明を省略する。   The information processing system 110 according to the present embodiment includes a PC 111, a projector (projection device) 112, and a camera (imaging device) 113. The information processing system 120 includes a PC 121, a projector 122, and a camera 123. The information processing system 110 at the site A is connected to the information processing system 120 at the site B via a network 130 typified by a LAN or WAN. Hereinafter, the PC 121 has the same configuration as that of the PC 111, and there is basically no difference, so that the description thereof is omitted.

なお、本実施例の情報共有システム100は、拠点Aと拠点Bの2つの拠点からなるが、合計の拠点数が3以上(つまり、他拠点の数が複数)でも構わない。ここでは説明を簡単にするため他拠点の数を1箇所としている。   Note that the information sharing system 100 according to the present embodiment includes two bases, the base A and the base B, but the total number of bases may be three or more (that is, the number of other bases is plural). Here, in order to simplify the explanation, the number of other bases is one.

本明細書において、情報入力ボードは、スクリーンやホワイトボードなどに代表される。情報入力ボードの盤面には、文字や図形をマーカペン等で手書きしたり、文字や図形が記入されている糊付の付箋を貼ったり、文字や図形等が印刷された文書やカード等をテープや磁石等を用いて貼ったりすることが可能である。以下、情報入力ボードの盤面の共有領域(詳細は後述する)に記載して各拠点と共有する情報を共有情報と記述する。   In this specification, the information input board is represented by a screen, a white board, and the like. On the board of the information input board, characters and figures are handwritten with a marker pen, etc., sticky sticky notes with letters and figures filled in, and documents and cards with letters and figures printed on tape or It can be pasted using a magnet or the like. Hereinafter, information shared with each base described in a shared area (details will be described later) on the surface of the information input board is described as shared information.

PC111は、カメラ113を制御し、一定時間毎(例えば0.5秒毎)に情報入力ボード114の盤面を撮像した撮像画像を取得する。   The PC 111 controls the camera 113 and acquires a captured image obtained by capturing the surface of the information input board 114 at regular time intervals (for example, every 0.5 seconds).

なお、図1に示す情報処理システムは、PCにプロジェクタとカメラが接続されているが、PC自体がプロジェクタやカメラの機能を有していてもよい。また、各拠点の情報処理システムはネットワークを介して接続される構成であるが、各拠点の情報処理システムがサーバを介して接続し、上述したPCにおける処理内容の一部を当該サーバで処理するような構成としてもよい。   In the information processing system shown in FIG. 1, a projector and a camera are connected to a PC, but the PC itself may have functions of a projector and a camera. In addition, the information processing system at each site is configured to be connected via a network, but the information processing system at each site is connected via a server, and a part of the processing contents in the PC described above is processed by the server. It is good also as such a structure.

図2は、本実施例における、PC111の内部構成の一例を示す図である。PC111は、CPU201、RAM202、ROM203、キーボードI/F 205、ディスプレイI/F 206、外部メモリI/F 207、外部I/F 208、マウスI/F 211、ネットワークI/F 213を有する。これらはシステムバス204で接続されている。   FIG. 2 is a diagram illustrating an example of an internal configuration of the PC 111 in the present embodiment. The PC 111 includes a CPU 201, a RAM 202, a ROM 203, a keyboard I / F 205, a display I / F 206, an external memory I / F 207, an external I / F 208, a mouse I / F 211, and a network I / F 213. These are connected by a system bus 204.

キーボードI/F 205にはキーボード209が接続され、マウスI/F 211にはマウス212が接続される。PC111は、ユーザがキーボード209及びマウス212で入力した入力情報を受け付ける。ディスプレイI/F 206にはプロジェクタ112が接続される。PC111は、プロジェクタ112を介して情報入力ボード114に画像を投影する。外部I/F 208にはカメラ113が接続される。カメラ113は、情報入力ボード114の盤面の記載内容を撮像し、PC111は、カメラ113が撮像した画像を取得する。PC111は、予め設定された時間間隔で撮像するようカメラ113を制御してもよいし、ユーザがマウス212やキーボード209で入力した入力情報に応じて撮像するようカメラ113を制御してもよい。   A keyboard 209 is connected to the keyboard I / F 205, and a mouse 212 is connected to the mouse I / F 211. The PC 111 receives input information input by the user using the keyboard 209 and the mouse 212. A projector 112 is connected to the display I / F 206. The PC 111 projects an image on the information input board 114 via the projector 112. A camera 113 is connected to the external I / F 208. The camera 113 captures the content described on the surface of the information input board 114, and the PC 111 acquires an image captured by the camera 113. The PC 111 may control the camera 113 to capture images at preset time intervals, or may control the camera 113 to capture images according to input information input by the user with the mouse 212 or the keyboard 209.

PC111は、情報処理システム120へネットワークI/F 213を介して情報入力ボード114の盤面の撮像画像に基づく画像を送信する。また、PC111は、情報処理システム120からネットワークI/F 213を介して情報入力ボード124の盤面の撮像画像に基づく画像を受信する。   The PC 111 transmits an image based on a captured image of the surface of the information input board 114 to the information processing system 120 via the network I / F 213. Further, the PC 111 receives an image based on the captured image of the surface of the information input board 124 from the information processing system 120 via the network I / F 213.

CPU201は、PC111全体の制御を行い、ROM203やHDD等の外部メモリ210などに記憶された本実施例を実現するプログラムを、RAM202に読み込み、各種処理を実行する。すなわち、PC111のCPU201は、コンピュータ読み取り可能な記憶媒体に記憶されたコンピュータプログラムを実行することにより、後述するフローチャートの各ステップを実行する処理部(処理手段)として機能する。ROM203は、CPU201を起動するためのプログラムを含む各種データを記憶している。RAM202は、ワークメモリとして用いられる。   The CPU 201 controls the entire PC 111, reads a program for realizing the present embodiment stored in the external memory 210 such as the ROM 203 or the HDD into the RAM 202, and executes various processes. That is, the CPU 201 of the PC 111 functions as a processing unit (processing unit) that executes each step of a flowchart described later by executing a computer program stored in a computer-readable storage medium. The ROM 203 stores various data including a program for starting the CPU 201. The RAM 202 is used as a work memory.

図3(a)及び図3(b)は、実施例1における、図1の構成を具体化した図である。図3(a)において、拠点Aには、情報入力ボード114と、プロジェクタ112と、カメラ113とが設置されている。図3(b)において、拠点Bには、情報入力ボード124と、プロジェクタ122と、カメラ123とが設置されている。拠点Aにおいて、プロジェクタ112は、投影画像310を情報入力ボード114の盤面上(情報入力ボード上)に存在する共有領域311に投影する。拠点Aのユーザ351は、共有領域311に投影された投影画像310の内容に応じて、情報入力ボード114の盤面の共有領域311にマーカペンで文字図形等を書き込む。文字図形等が書き込まれた共有領域311は、カメラ113で撮像され、PC111は、撮像画像312を取得する。   FIG. 3A and FIG. 3B are diagrams illustrating the configuration of FIG. 1 in the first embodiment. 3A, an information input board 114, a projector 112, and a camera 113 are installed at a site A. In FIG. 3B, an information input board 124, a projector 122, and a camera 123 are installed at the site B. At the site A, the projector 112 projects the projection image 310 onto the shared area 311 existing on the surface of the information input board 114 (on the information input board). The user 351 at the site A writes a character figure or the like with a marker pen in the shared area 311 on the surface of the information input board 114 according to the content of the projection image 310 projected on the shared area 311. The shared area 311 in which the characters and figures are written is captured by the camera 113, and the PC 111 acquires the captured image 312.

投影画像310は、プロジェクタ112によって共有領域311に投影する画像である。投影画像310は、拠点BにおけるPC121が拠点Bの情報入力ボード124の盤面の共有領域321を撮像して得た画像に所定の処理(後述するステップ921等の処理)を施して送信される画像である。   The projected image 310 is an image projected onto the shared area 311 by the projector 112. The projected image 310 is an image that is transmitted by performing a predetermined process (a process such as step 921 described later) on an image obtained by the PC 121 at the base B imaging the shared area 321 on the board surface of the information input board 124 at the base B. It is.

共有領域311は、各拠点と記載内容を共有する領域である。共有領域311の位置と大きさは、情報入力ボード114の盤面に投影された際の投影画像310の領域と同じとする。   The shared area 311 is an area for sharing the description content with each base. The position and size of the shared area 311 are the same as the area of the projection image 310 when projected onto the surface of the information input board 114.

撮像画像312は、カメラ113によって共有領域311を撮像した画像である。カメラ113の撮像範囲である領域は、共有領域311と同じとする。即ち、撮像画像312には共有領域311以外の領域は写っていないものとする。   The captured image 312 is an image obtained by capturing the shared area 311 with the camera 113. The area that is the imaging range of the camera 113 is the same as the shared area 311. That is, it is assumed that the captured image 312 does not include an area other than the shared area 311.

図3(b)に示すように、拠点Bにおいても拠点Aと同様に、情報入力ボード124の盤面上に共有領域321が存在し、プロジェクタ122が共有領域321に重なるように投影画像320を投影する。また、拠点Bにおいて、カメラ123が共有領域321を撮像する事で撮像画像322を生成している。   As shown in FIG. 3B, at the base B as well as the base A, the shared area 321 exists on the surface of the information input board 124, and the projection image 320 is projected so that the projector 122 overlaps the shared area 321. To do. In addition, at the site B, the camera 123 generates a captured image 322 by capturing the shared area 321.

尚、本実施例では共有領域と、プロジェクタが投影画像を投影する領域と、カメラが撮像画像を生成する為に撮像する領域が全て同じであるとしたが、これらの領域は全て同じでなくても良い。投影画像を投影する領域とカメラが撮像する領域は互いに共通する領域があれば良く、その共通する領域の中に共有領域が含まれていれば良い。   In the present embodiment, the shared area, the area where the projector projects the projected image, and the area where the camera captures the captured image are all the same. However, these areas are not all the same. Also good. The area where the projected image is projected and the area captured by the camera need only be in common with each other, and the common area may be included in the common area.

続いて、PC111のソフトウェア構成について説明する。ここでも、説明の便宜上、自拠点である拠点A側のPC111について説明することとするが、拠点B側のPC121も同様である。   Next, the software configuration of the PC 111 will be described. Here, for convenience of explanation, the PC 111 on the site A side, which is its own site, will be described, but the same applies to the PC 121 on the site B side.

図4は、本実施例に係る、PC111のソフトウェア構成を示す機能ブロック図である。PC111は、撮像処理部401、人物領域導出部402、送信対象領域特定部403、送信画像生成部404、通信部(送受信する手段)405、合成部406、投影処理部407の各機能部を有する。   FIG. 4 is a functional block diagram illustrating the software configuration of the PC 111 according to the present embodiment. The PC 111 includes functional units such as an imaging processing unit 401, a person region deriving unit 402, a transmission target region specifying unit 403, a transmission image generating unit 404, a communication unit (transmission / reception unit) 405, a combining unit 406, and a projection processing unit 407. .

撮像処理部401は、フレームIDを外部メモリ210等から取得し、また、情報入力ボード114の盤面の共有領域311を一定時間毎(例えば0.5秒毎)に撮像し、フレーム毎に撮像を行う。フレームは、連続して撮像した画像の1コマであり、撮像時刻に関連付けられている。フレームIDは、一連の処理(後述のステップ905及びステップ910を参照)で撮像される撮像画像や、当該撮像画像に対応する人物領域画像等の各種画像を識別する為に、共通して使用されるIDである。フレームIDは、一連の処理(後述のステップ901〜ステップ926を参照)が実行される度に1つ加算され、外部メモリ210等に格納される。本明細書では、1つ前のフレームIDに紐付けられた画像を、1フレーム前の画像と表現する。   The imaging processing unit 401 acquires the frame ID from the external memory 210 or the like, images the shared area 311 on the surface of the information input board 114 at regular time intervals (for example, every 0.5 seconds), and captures images for each frame. Do. A frame is one frame of continuously captured images and is associated with the imaging time. The frame ID is commonly used to identify various images such as a captured image captured in a series of processes (see step 905 and step 910 described later) and a person area image corresponding to the captured image. ID. The frame ID is incremented by one each time a series of processes (see step 901 to step 926 described later) is executed, and stored in the external memory 210 or the like. In this specification, an image linked to the previous frame ID is expressed as an image one frame before.

人物領域導出部402は、撮像された撮像画像の中から人物を検出して、検出した人物に基づき人物領域を導出する。ここで、人物領域とは人の腕や体等の人物の領域を指し、本明細書でいう人物領域には、ユーザの手で保持されるマーカペンやイレーサ等、ユーザの手と一体となって移動する領域を含むものとする。人物領域を導出する方法の具体例としては、撮像された撮像画像を二値化し、キャニー法等のエッジ検出技術を用いて撮像画像に含まれる物体の輪郭を検出する方法がある。そして、検出された物体の輪郭のうち、当該輪郭で囲われた領域の面積が閾値以上で、且つ撮像画像の下端から伸びている物体の輪郭を、人物領域として特定してもよい。ここで述べた方法の他、例えば背景差分法やトラッキングを用いて人物領域を抽出してもよい。そして、抽出された人物領域に基づいて、人物領域画像を生成する。人物領域画像とは、撮像画像と同じサイズのビット深度が1の画像であって、人物領域に含まれる座標は画素値が1、それ以外の座標は画素値が0となる画像である。即ち、人物領域は人物領域画像中で画素値が1である領域であり、人物領域画像の画素値が全て0である場合は、人物領域が存在しないという事になる。   The person area deriving unit 402 detects a person from the captured image and derives a person area based on the detected person. Here, the person area refers to an area of a person such as a person's arm or body, and the person area referred to in this specification is integrated with the user's hand such as a marker pen or an eraser held by the user's hand. It shall include a moving area. As a specific example of a method for deriving a person region, there is a method of binarizing a captured image and detecting an outline of an object included in the captured image using an edge detection technique such as a Canny method. Then, among the detected contours of the object, the contour of the object whose area surrounded by the contour is equal to or larger than the threshold and extends from the lower end of the captured image may be specified as the human region. In addition to the method described here, for example, a person region may be extracted using a background difference method or tracking. Then, a person area image is generated based on the extracted person area. The person area image is an image having the same size as the captured image and having a bit depth of 1, in which the coordinates included in the person area have a pixel value of 1, and other coordinates have a pixel value of 0. That is, the person area is an area having a pixel value of 1 in the person area image. If the pixel values of the person area image are all 0, the person area does not exist.

送信対象領域特定部403は、生成された人物領域画像に基づいて送信対象領域を特定する。また送信対象領域特定部403は、導出された送信対象領域に基づき送信対象領域画像を生成する。送信対象領域とは、撮像画像の中で拠点Bの情報処理システム120に送信すべき領域であり、処理のタイミングにより送信対象領域の大きさや、形状が異なる。送信対象領域は、現在の撮像画像と現在の撮像画像を撮像した時刻よりも前に撮像した過去の撮像画像とを比較すること等によって導出された人物領域に基づいて特定された領域であり、人物が通過した領域である。送信対象領域は、2フレーム前の人物領域画像に含まれる人物領域と1フレーム前の人物領域画像に含まれる人物領域とを包含する領域を導出し、当該導出した領域と、1フレーム前の人物領域画像に含まれる人物領域との差分を求めることで導出される。   The transmission target area specifying unit 403 specifies a transmission target area based on the generated person area image. The transmission target area specifying unit 403 generates a transmission target area image based on the derived transmission target area. The transmission target area is an area to be transmitted to the information processing system 120 at the base B in the captured image, and the size and shape of the transmission target area differ depending on the processing timing. The transmission target area is an area specified based on a person area derived by comparing a current captured image and a past captured image captured before the time when the current captured image is captured, This is the area where a person has passed. The transmission target area derives an area including a person area included in the person area image two frames before and a person area included in the person area image one frame before, and the derived area and the person one frame before It is derived by obtaining the difference from the person area included in the area image.

送信対象領域画像とは、撮像画像と同じサイズのビット深度が1の画像であって、上述の送信対象領域に含まれる座標は画素値が1、それ以外の座標は画素値が0となる画像である。即ち、送信対象領域は送信対象領域画像中で画素値が1である領域であり、送信対象領域画像の画素値が全て0である場合は、送信対象領域が存在しないという事になる。送信対象領域が存在する送信対象領域画像は、未送信の送信対象領域画像リストに一時的に格納される。   The transmission target area image is an image having the same size as the captured image and having a bit depth of 1, in which the coordinates included in the transmission target area have a pixel value of 1, and the other coordinates have a pixel value of 0. It is. That is, the transmission target area is an area having a pixel value of 1 in the transmission target area image, and when the pixel values of the transmission target area image are all 0, the transmission target area does not exist. The transmission target area image in which the transmission target area exists is temporarily stored in an untransmitted transmission target area image list.

未送信の送信対象領域画像リストとは、未だ外部に送信されていない送信画像に対応する送信対象領域画像を特定するための詳細情報が、リスト形式で列挙されたものである。詳細情報には、例えば、撮像時刻、フレームID、送信対象領域画像の名前、保存形式を表す拡張子を含む。送信画像は、撮像画像から共有情報を含む画像領域を抽出した画像である。   The untransmitted transmission target area image list is a list of detailed information for specifying transmission target area images corresponding to transmission images that have not yet been transmitted to the outside in a list format. The detailed information includes, for example, an imaging time, a frame ID, a name of the transmission target area image, and an extension indicating a storage format. A transmission image is an image obtained by extracting an image region including shared information from a captured image.

送信画像生成部404は、撮像画像及び上記送信対象領域画像を用いて、撮像画像から送信対象領域に相当する部分を抽出して、送信画像を生成する。   The transmission image generation unit 404 uses the captured image and the transmission target area image to extract a portion corresponding to the transmission target area from the captured image, and generates a transmission image.

通信部405は、生成された送信画像のデータを他拠点の情報処理システム120へ送信する。また、通信部405は、他拠点から送信されてきた送信画像等のデータを受信する。   The communication unit 405 transmits the generated transmission image data to the information processing system 120 at another base. Further, the communication unit 405 receives data such as a transmission image transmitted from another base.

合成部406は、他拠点から受信した送信画像を用いて画像合成処理を行い、情報入力ボード114の盤面に投影する投影画像(合成画像)を生成する。   The composition unit 406 performs image composition processing using a transmission image received from another base, and generates a projection image (composite image) to be projected onto the surface of the information input board 114.

投影処理部407は、合成処理によって得られた投影画像を、投影している投影画像に代えて、情報入力ボード114の盤面の共有領域311に投影する。   The projection processing unit 407 projects the projection image obtained by the synthesizing process onto the shared area 311 on the board surface of the information input board 114 instead of the projection image being projected.

なお、PC111は、本発明と直接の関係がない一般的な情報処理装置が有する上記機能以外の諸機能を有してもよい。   The PC 111 may have various functions other than the above functions of a general information processing apparatus that is not directly related to the present invention.

<実施例1の概要>
本実施例における情報処理システムの動作の概要について、具体例を用いて説明する。
<Overview of Example 1>
An outline of the operation of the information processing system in the present embodiment will be described using a specific example.

図5(a)〜図5(e)は、本実施例における、図3に示す各拠点の共有領域311及び共有領域321の記載状態を示す図である。この具体例で想定する情報入力ボード114の共有領域311及び共有領域321の記載状態について説明する。まず初期の状態として、拠点Aの共有領域311には、図5(a)のように「ABCDEF」という文字列501と「GHI」という文字列502とがマーカペンで書き込まれているとして考える。一方、拠点Bの共有領域321には、図5(b)のように「あいう」という文字列503と「かきく」という文字列504とがマーカペンで書き込まれているとして考える。   FIG. 5A to FIG. 5E are diagrams illustrating the state of description of the shared area 311 and the shared area 321 of each base shown in FIG. 3 in the present embodiment. The description state of the shared area 311 and shared area 321 of the information input board 114 assumed in this specific example will be described. First, as an initial state, it is assumed that a character string 501 “ABCDEF” and a character string 502 “GHI” are written with a marker pen in the shared area 311 of the site A as shown in FIG. On the other hand, it is assumed that the character string 503 “Aki” and the character string 504 “Kakiku” are written with a marker pen in the shared area 321 of the site B as shown in FIG.

この状態で拠点Aと拠点Bで互いの情報を共有する為には、拠点Aの共有領域311の記載内容を、拠点Bの共有領域321に投影させ、拠点Bの共有領域321の記載内容を、拠点Aの共有領域311に投影させる必要がある。具体的には、拠点AのPC111は、図5(a)に示す共有領域311の内容をカメラ113で撮像し、撮像した画像を拠点Bの情報処理システム120に送信する。そして、拠点Bの情報処理システム120は、画像を受信し、図5(b)に示す共有領域321に、文字列501と文字列502を含む画像(図5(a))をプロジェクタ122で投影する。拠点Bにおいて、投影した共有領域321の内容は、図5(d)のようになる。   In order to share information between the base A and the base B in this state, the description content of the shared area 311 of the base A is projected onto the shared area 321 of the base B, and the description content of the shared area 321 of the base B is projected. , It must be projected onto the shared area 311 of the base A. Specifically, the PC 111 at the site A captures the contents of the shared area 311 shown in FIG. 5A with the camera 113 and transmits the captured image to the information processing system 120 at the site B. Then, the information processing system 120 at the site B receives the image, and the projector 122 projects an image including the character string 501 and the character string 502 (FIG. 5A) in the shared area 321 shown in FIG. To do. The content of the projected shared area 321 at the base B is as shown in FIG.

また、拠点BのPC121は、図5(b)に示す共有領域321の内容をカメラ123で撮像し、撮像した画像を拠点Aの情報処理システム110に送信する。そして、拠点Aの情報処理システム110は、画像を受信し、図5(a)に示す共有領域311に、文字列503と文字列504を含む画像(図5(b))をプロジェクタ112で投影する。拠点Aにおいて、投影した共有領域311の内容は、図5(c)のようになる。よって、拠点Aの共有領域311に表示された内容(図5(c))および拠点Bの共有領域321に表示された内容(図5(d))がどちらも同様の内容となる。したがって、情報入力ボード114の共有領域311に記載された内容を、拠点Aと拠点Bとで互いに共有することが可能となる。   Further, the PC 121 at the site B captures the contents of the shared area 321 shown in FIG. 5B with the camera 123 and transmits the captured image to the information processing system 110 at the site A. The information processing system 110 at the site A receives the image, and projects the image including the character string 503 and the character string 504 (FIG. 5B) by the projector 112 in the shared area 311 shown in FIG. To do. At the site A, the projected contents of the shared area 311 are as shown in FIG. Therefore, the content displayed in the shared area 311 of the base A (FIG. 5C) and the content displayed in the shared area 321 of the base B (FIG. 5D) are the same. Therefore, the contents described in the sharing area 311 of the information input board 114 can be shared between the base A and the base B.

本実施例では、拠点Aにて、図5(c)に示すような情報入力ボード114の共有領域311の状態から、図5(e)に示すように、文字列501と文字列503にかかるように線分505が引かれるという想定で説明を行う。この想定では、拠点Aにおける情報入力ボード114の共有領域311に記載された線分505の部分が、拠点Bと共有したい共有情報である。   In this embodiment, at the site A, the character string 501 and the character string 503 are applied from the state of the shared area 311 of the information input board 114 as shown in FIG. 5C, as shown in FIG. The description will be made on the assumption that the line segment 505 is drawn. In this assumption, the portion of the line segment 505 described in the shared area 311 of the information input board 114 at the site A is shared information that the user wants to share with the site B.

拠点Aの情報入力ボード114の共有領域311に投影される画像(図5(b))は、投影画像として、予めPC111の外部メモリ210等に格納されているものとする。拠点Bの情報入力ボード124の共有領域321に投影される画像(図5(a))は、投影画像として、予めPC121の外部メモリ210等に格納されているものとする。   It is assumed that an image (FIG. 5B) projected on the shared area 311 of the information input board 114 at the site A is stored in advance in the external memory 210 of the PC 111 as a projected image. It is assumed that the image (FIG. 5A) projected on the shared area 321 of the information input board 124 at the site B is stored in advance in the external memory 210 of the PC 121 as a projected image.

図6は、この想定における、図3に示す拠点Aの共有領域311及び拠点Bの共有領域321の状態の推移と、それぞれの時点での各種画像の生成の様子の一覧を示す図である。この想定における拠点Aの共有領域311の状態の推移を図6(a1)〜図6(a6)を用いて説明する。時刻t1〜t6は、拠点Aの情報入力ボードの共有領域を撮像した時刻を指す。撮像時刻t1〜t6に対応するフレームIDについて、時刻t1に対応するものをフレームID5123、時刻t2に対応するものをフレームID5124、時刻t3に対応するものをフレームID5125とする。また、時刻t4に対応するものをフレームID5126、時刻t5に対応するものをフレームID5127、時刻t6に対応するものをフレームID5128とする。   FIG. 6 is a diagram showing a transition of the state of the shared area 311 of the base A and the shared area 321 of the base B shown in FIG. 3 and a list of various image generation states at each time point in this assumption. The transition of the state of the shared area 311 of the base A in this assumption will be described with reference to FIGS. 6 (a1) to 6 (a6). Times t1 to t6 indicate times when the shared area of the information input board at the base A is imaged. Of the frame IDs corresponding to the imaging times t1 to t6, the frame ID 5123 corresponds to the time t1, the frame ID 5124 corresponds to the time t2, and the frame ID 5125 corresponds to the time t3. Also, a frame ID 5126 corresponds to time t4, a frame ID 5127 corresponds to time t5, and a frame ID 5128 corresponds to time t6.

図6(a1)は、時刻t1における共有領域311の状態であり、ユーザ351の腕601が共有領域311の前に差し掛かる前の状態である。   FIG. 6A1 shows the state of the shared area 311 at time t1, which is the state before the arm 601 of the user 351 reaches the front of the shared area 311.

図6(a2)は、時刻t2における共有領域311の状態であり、マーカペンを持ったユーザ351の腕601が線分505の始点に置かれた状態である。   FIG. 6A2 shows the state of the shared area 311 at time t2, in which the arm 601 of the user 351 holding the marker pen is placed at the start point of the line segment 505. FIG.

図6(a3)は、時刻t3における共有領域311の状態であり、ユーザ351が線分505を引いている途中の状態である。   FIG. 6A3 shows the state of the shared area 311 at time t3, which is in the middle of the user 351 drawing the line segment 505. FIG.

図6(a4)は、時刻t4における共有領域311の状態であり、マーカペンを持ったユーザ351の腕601が線分505の終点付近に置かれた状態である。   FIG. 6A4 shows the state of the shared area 311 at time t4, in which the arm 601 of the user 351 holding the marker pen is placed near the end point of the line segment 505. FIG.

図6(a5)は、時刻t5における共有領域311の状態であり、ユーザ351が線分505を引き終わり、ユーザ351の腕601が共有領域311の外に出た状態である。   FIG. 6A5 shows the state of the shared area 311 at time t5, in which the user 351 has finished drawing the line segment 505 and the arm 601 of the user 351 has gone out of the shared area 311.

図6(a6)は、時刻t6における共有領域311の状態であり、ユーザ351の腕601が共有領域311から更に離れた状態である。尚、時刻t1よりも前の状態では共有領域311の前にはユーザ351の腕等の人物は無かったものとし、時刻t1の段階では未送信の送信対象領域画像は存在しない(つまり、未送信の送信対象領域画像リストは空である)とする。また、各時刻の間隔は、本実施例に係るシステムが後述する図9に示したフローを実行する間隔の時間と等しいものとする。   FIG. 6A6 shows the state of the shared area 311 at time t6, in which the arm 601 of the user 351 is further away from the shared area 311. FIG. In the state before the time t1, it is assumed that there is no person such as the arm of the user 351 in front of the shared area 311, and there is no untransmitted transmission target area image at the stage of the time t1 (that is, no transmission) The transmission target area image list is empty). Also, the time interval is assumed to be equal to the time interval at which the system according to this embodiment executes the flow shown in FIG.

先ず時刻t1において、拠点AのPC111の送信対象領域特定部403は、送信対象領域画像の生成を行う。時刻t1よりも前の状態では共有領域311の前にはユーザ351の腕等の人物は無かったという想定の為、2フレーム前の人物領域画像にも1フレーム前の人物領域画像にも人物領域は存在しない。よって、送信対象領域特定部403は、図6(b1)に示すような画素値が全て0の送信対象領域画像を生成する。図6において、送信対象領域画像及び人物領域画像は、画素値が1の画素を黒、画素が0の画素を白として表現する。この時点では、情報入力ボード114の共有領域311には、投影画像(図5(b))が投影されたままとなっている。次に、撮像処理部401は、カメラ113に共有領域311の撮像を指示する。カメラ113が共有領域311を撮像することで、撮像画像として図6(d1)に示す画像が取得される。そして、撮像処理部401は、図6(d1)に示す画像を時刻t1における撮像画像として、フレームID5123と紐付けて外部メモリ210等に格納する。   First, at time t1, the transmission target area specifying unit 403 of the PC 111 at the site A generates a transmission target area image. Since it is assumed that there is no person such as the arm of the user 351 in front of the shared area 311 in the state before the time t1, the person area image in the person area image two frames before and the person area image one frame before Does not exist. Therefore, the transmission target area specifying unit 403 generates a transmission target area image whose pixel values are all 0 as shown in FIG. In FIG. 6, the transmission target area image and the person area image represent a pixel having a pixel value of 1 as black and a pixel having a pixel value of 0 as white. At this time, the projection image (FIG. 5B) is still projected on the shared area 311 of the information input board 114. Next, the imaging processing unit 401 instructs the camera 113 to image the shared area 311. When the camera 113 images the shared area 311, an image illustrated in FIG. 6D1 is acquired as a captured image. Then, the imaging processing unit 401 stores the image shown in FIG. 6 (d1) in the external memory 210 or the like as the captured image at time t1 in association with the frame ID 5123.

その後、人物領域導出部402が人物領域の導出を行うが、時刻t1及び時刻t1よりも前の状態では撮像画像中に人物は無い。よって、時刻t1における人物領域画像は図6(e1)に示すように画素値が全て0になり、人物領域導出部402は、図6(e1)に示す画像をフレームID5123と紐付けて格納する。未送信の送信対象領域画像リストはこの時点では空である為、拠点Bの情報処理システム120への送信処理は行われず、このまま処理を終える。よって、拠点Bの情報入力ボード124の共有領域321には、投影画像(図5(a))が投影されたままとなる。投影画像(図5(a))が共有領域321に投影された状態を図6(h1)に示す。   Thereafter, the person area deriving unit 402 derives the person area, but there is no person in the captured image in the state before the time t1 and the time t1. Accordingly, the person area image at time t1 has all pixel values 0 as shown in FIG. 6 (e1), and the person area derivation unit 402 stores the image shown in FIG. 6 (e1) in association with the frame ID 5123. . Since the untransmitted transmission target area image list is empty at this time, the transmission process to the information processing system 120 at the site B is not performed, and the process ends. Therefore, the projected image (FIG. 5A) remains projected on the shared area 321 of the information input board 124 at the site B. FIG. 6H1 shows a state in which the projected image (FIG. 5A) is projected onto the shared area 321. FIG.

次に時刻t2において、拠点AのPC111の送信対象領域特定部403は、送信対象領域画像の生成を行う。この時点での2フレーム前の人物領域画像は、人物領域がないため画素値が全て0の画像である。また、この時点での1フレーム前の人物領域画像は、1フレーム前において外部メモリ210等に格納された画素値が全て0の画像(図6(e1))である。よって、送信対象領域特定部403は、図6(b2)に示すような画素値が全て0の送信対象領域画像を生成する。この時点では、情報入力ボード114の共有領域311には、投影画像(図5(b))が投影されたままとなっている。次に、撮像処理部401は、カメラ113に共有領域311の撮像を指示する。カメラ113が共有領域311を撮像することで、撮像画像として図6(d2)に示す画像が取得される。そして、撮像処理部401は、図6(d2)に示す画像を時刻t2における撮像画像として、フレームID5124と紐付けて外部メモリ210等に格納する。   Next, at time t2, the transmission target area specifying unit 403 of the PC 111 at the site A generates a transmission target area image. At this time, the person area image two frames before is an image having all pixel values of 0 because there is no person area. Further, the person area image one frame before at this time is an image in which all the pixel values stored in the external memory 210 or the like one frame before are zero ((e1) in FIG. 6). Therefore, the transmission target area specifying unit 403 generates a transmission target area image whose pixel values are all 0 as shown in FIG. At this time, the projection image (FIG. 5B) is still projected on the shared area 311 of the information input board 114. Next, the imaging processing unit 401 instructs the camera 113 to image the shared area 311. When the camera 113 images the shared area 311, an image illustrated in FIG. 6D2 is acquired as a captured image. Then, the imaging processing unit 401 stores the image shown in FIG. 6D2 as the captured image at time t2 in association with the frame ID 5124 in the external memory 210 or the like.

その後、人物領域導出部402は、人物領域の導出を行う。人物領域導出部402は、1フレーム前の撮像画像(図6(d1))や現フレームの撮像画像(図6(d2))に基づいて、図6(e2)に示す領域602が人物領域であると判断する。そして、人物領域導出部402は、図6(e2)に示す人物領域画像をフレームID5124と紐付けて外部メモリ210等に格納する。未送信の送信対象領域画像リストはこの時点では空である為、拠点Bの情報処理システム120への送信処理は行われず、このまま処理を終える。よって、拠点Bの情報入力ボード124の共有領域321には、投影画像(図5(a))が投影されたままとなる。投影画像(図5(a))が共有領域321に投影された状態を図6(h2)に示す。   Thereafter, the person area deriving unit 402 derives a person area. Based on the captured image of the previous frame (FIG. 6 (d1)) and the captured image of the current frame (FIG. 6 (d2)), the person region deriving unit 402 is the region 602 shown in FIG. Judge that there is. The person area deriving unit 402 associates the person area image shown in FIG. 6E2 with the frame ID 5124 and stores the person area image in the external memory 210 or the like. Since the untransmitted transmission target area image list is empty at this time, the transmission process to the information processing system 120 at the site B is not performed, and the process ends. Therefore, the projected image (FIG. 5A) remains projected on the shared area 321 of the information input board 124 at the site B. FIG. 6H2 shows a state in which the projected image (FIG. 5A) is projected onto the shared area 321. FIG.

次に時刻t3において、拠点AのPC111の送信対象領域特定部403は、送信対象領域画像の生成を行う。この時点での2フレーム前の人物領域画像は、2フレーム前に外部メモリ210等に格納された画素値が全て0の画像(図6(e1))である。また、1フレーム前の人物領域画像は、1フレーム前に外部メモリ210等に格納された画像(図6(e2))である。2フレーム前の人物領域画像(図6(e1))に含まれる人物領域と、1フレーム前の人物領域画像(図6(e2))に含まれる人物領域602とが包含された領域と、1フレーム前の人物領域画像(図6(e2))に含まれる人物領域602との差分は、0である。よって、送信対象領域特定部403は、図6(b3)に示すような画素値が全て0の送信対象領域画像を生成する。この時点では、情報入力ボード114の共有領域311には、投影画像(図5(b))が投影されたままとなっている。次に、撮像処理部401は、カメラ113に共有領域311の撮像を指示する。カメラ113が共有領域311を撮像することで、撮像画像として図6(d3)に示す画像が取得される。そして、撮像処理部401は、図6(d3)に示す画像を時刻t3における撮像画像として、フレームID5125と紐付けて外部メモリ210等に格納する。   Next, at time t3, the transmission target area specifying unit 403 of the PC 111 at the site A generates a transmission target area image. The person area image two frames before at this time is an image in which the pixel values stored in the external memory 210 or the like two frames before are all 0 (FIG. 6 (e1)). The person area image one frame before is an image (FIG. 6 (e2)) stored in the external memory 210 or the like one frame before. A person area included in the person area image two frames before (FIG. 6 (e1)), a person area 602 included in the person area image one frame before (FIG. 6 (e2)), and 1 The difference from the person area 602 included in the person area image before the frame (FIG. 6 (e2)) is zero. Therefore, the transmission target area specifying unit 403 generates a transmission target area image whose pixel values are all 0 as shown in FIG. At this time, the projection image (FIG. 5B) is still projected on the shared area 311 of the information input board 114. Next, the imaging processing unit 401 instructs the camera 113 to image the shared area 311. When the camera 113 captures the shared area 311, an image illustrated in FIG. 6D 3 is acquired as a captured image. Then, the imaging processing unit 401 stores the image shown in FIG. 6D3 as the captured image at time t3 in association with the frame ID 5125 in the external memory 210 or the like.

その後、人物領域導出部402は、人物領域の導出が行われる。人物領域導出部402は、1フレーム前の撮像画像(図6(d2))や現フレームの撮像画像(図6(d3))に基づいて、図6(e3)に示す領域602が人物領域であると判断する。そして、人物領域導出部402は、図6(e3)に示す人物領域画像をフレームID5125と紐付けて外部メモリ210等に格納する。未送信の送信対象領域画像リストはこの時点では空である為、拠点Bの情報処理システム120への送信処理は行われず、このまま処理を終える。よって、拠点Bの情報入力ボード124の共有領域321には、投影画像(図5(a))が投影されたままとなる。投影画像(図5(a))が共有領域321に投影された状態を図6(h3)に示す。   Thereafter, the person area deriving unit 402 derives a person area. Based on the captured image of the previous frame (FIG. 6 (d2)) and the captured image of the current frame (FIG. 6 (d3)), the person region deriving unit 402 is the region 602 shown in FIG. Judge that there is. Then, the person area deriving unit 402 associates the person area image shown in FIG. 6E3 with the frame ID 5125 and stores it in the external memory 210 or the like. Since the untransmitted transmission target area image list is empty at this time, the transmission process to the information processing system 120 at the site B is not performed, and the process ends. Therefore, the projected image (FIG. 5A) remains projected on the shared area 321 of the information input board 124 at the site B. FIG. 6H3 shows a state in which the projected image (FIG. 5A) is projected onto the shared area 321. FIG.

次に時刻t4において、拠点AのPC111の送信対象領域特定部403は、送信対象領域画像の生成を行う。   Next, at time t4, the transmission target area specifying unit 403 of the PC 111 at the site A generates a transmission target area image.

この時点での2フレーム前の人物領域画像は、2フレーム前に外部メモリ210等に格納された画像(図6(e2))であって、人物領域602を含む画像である。また、この時点での1フレーム前の人物領域画像は、1フレーム前に外部メモリ210等に格納された画像(図6(e3))であって、人物領域603を含む画像である。送信対象領域特定部403は、2フレーム前の人物領域602と1フレーム前の人物領域603の両方を包含する最小の矩形領域を導出する。   The person area image two frames before at this point is an image (FIG. 6 (e2)) stored in the external memory 210 or the like two frames before, and includes the person area 602. At this time, the person area image one frame before is an image (FIG. 6 (e3)) stored in the external memory 210 or the like one frame before, and includes the person area 603. The transmission target area specifying unit 403 derives a minimum rectangular area that includes both the person area 602 two frames before and the person area 603 one frame before.

図7は、本実施例における、送信対象領域画像を生成する処理における領域の単位の一例を示す図である。図7では、共有領域311の外枠を実線で表し、共有領域311の枠内の点線は、共有領域311の縦と共有領域311の横をそれぞれ8分割して、共有領域311を64個に分割していることを表す。   FIG. 7 is a diagram illustrating an example of an area unit in the process of generating the transmission target area image in the present embodiment. In FIG. 7, the outer frame of the shared area 311 is represented by a solid line, and the dotted lines within the frame of the shared area 311 divide the vertical of the shared area 311 and the horizontal of the shared area 311 into 8 parts, respectively. Indicates that it is divided.

上記の最小の矩形領域の導出は、送信対象領域特定部403によって、図7に示すような共有領域311を64個に分割した小領域の単位で行われる。   The derivation of the minimum rectangular area is performed by the transmission target area specifying unit 403 in units of small areas obtained by dividing the shared area 311 as shown in FIG.

図8(a)〜図8(e)は、本実施例における、送信対象領域を特定する様子を示す図である。図8では、図7に示すような、共有領域311を64分割した領域の単位で、人物領域を包含する最小の矩形領域が生成される。   Fig.8 (a)-FIG.8 (e) are figures which show a mode that a transmission object area | region is specified in a present Example. In FIG. 8, a minimum rectangular area including the person area is generated in units of areas obtained by dividing the shared area 311 into 64 as shown in FIG.

図8(a)において、2フレーム前の人物領域画像(図6(e2))に含まれる人物領域602と1フレーム前の人物領域画像(図6(e1))に含まれる人物領域603を含む最小の矩形領域は801で示す領域である為、領域801が導出される領域になる。次に、送信対象領域特定部403は、1フレーム前の人物領域603を包含する最小の矩形領域を導出する。この様子を図8(b)に示す。   8A, a person area 602 included in the person area image two frames before (FIG. 6E2) and a person area 603 included in the person area image one frame before (FIG. 6E1) are included. Since the minimum rectangular area is an area indicated by 801, the area 801 is derived. Next, the transmission target area specifying unit 403 derives a minimum rectangular area including the person area 603 one frame before. This is shown in FIG.

図8(b)において、人物領域603を含む最小の矩形領域は領域802で示す領域である為、領域802は、送信対象領域特定部403によって導出される領域になる。その後、送信対象領域特定部403は、送信対象領域を特定する。   In FIG. 8B, since the minimum rectangular area including the person area 603 is an area indicated by an area 802, the area 802 is an area derived by the transmission target area specifying unit 403. Thereafter, the transmission target area specifying unit 403 specifies the transmission target area.

図8(b)において、送信対象領域特定部403は、導出した領域801から、導出した領域802を引いた斜線の領域である領域604が、送信対象領域であると決定する。その後、送信対象領域特定部403は、領域604の画素値を1、他の画素値を0とした送信対象領域画像を生成する(図6(b4)を参照)。   In FIG. 8B, the transmission target area specifying unit 403 determines that a hatched area 604 obtained by subtracting the derived area 802 from the derived area 801 is the transmission target area. Thereafter, the transmission target area specifying unit 403 generates a transmission target area image with the pixel value of the area 604 set to 1 and the other pixel values set to 0 (see FIG. 6B4).

撮像処理部401は、この時点における投影画像(図5(b))をフレームID5126に紐付けて外部メモリ210等に格納する。その後、撮像処理部401は、この時点における投影画像(図5(b))のうち破線の送信対象領域604に相当する部分の画素値を、所定の画素値に置き換えた投影画像を生成する。具体的には、例えば、送信対象領域画像の画素値が0である座標の画素は投影画像の同座標の画素値を反映し、送信対象領域画像の画素値が1である座標の画素は白色とした画像を生成する。本実施例では、撮像処理部401は、投影画像(図5(b))のうち送信対象領域604に相当する部分を白色で塗り潰した投影画像(図6(c4))を生成する。これにより、投影画像(図5(b))における文字列503の「あいう」に該当する情報が消去される。よって、投影画像(図5(b))のうち送信対象領域604に相当する部分を、均一の色にすることが可能となる。   The imaging processing unit 401 associates the projection image at this time (FIG. 5B) with the frame ID 5126 and stores it in the external memory 210 or the like. Thereafter, the imaging processing unit 401 generates a projection image in which the pixel value of the portion corresponding to the transmission target area 604 indicated by the broken line in the projection image (FIG. 5B) at this time is replaced with a predetermined pixel value. Specifically, for example, a pixel having a coordinate whose pixel value is 0 in the transmission target region image reflects a pixel value having the same coordinate in the projection image, and a pixel having a pixel value 1 in the transmission target region image is white. An image is generated. In the present embodiment, the imaging processing unit 401 generates a projection image (FIG. 6 (c4)) in which a portion corresponding to the transmission target area 604 in the projection image (FIG. 5 (b)) is filled with white. As a result, the information corresponding to “a” in the character string 503 in the projection image (FIG. 5B) is deleted. Therefore, a portion corresponding to the transmission target area 604 in the projection image (FIG. 5B) can be made to have a uniform color.

その後、投影処理部407は、投影画像(図6(c4))を投影する。この状態で投影処理部407は、カメラ113に共有領域311の撮像を指示する。カメラ113が共有領域311を撮像することで、撮像画像として図6(d4)に示す画像が取得される。撮像処理部401は、図6(d4)に示す画像を時刻t4における撮像画像としてフレームID5126と紐付けて外部メモリ210等に格納する。次に、投影処理部407は、外部メモリ210等に格納した画像(図5(b))に投影を切り替える事で、元の状態に戻す。次に、送信画像生成部404は、未送信の送信対象領域画像リストに送信対象領域画像(図6(b4))を追加する。   Thereafter, the projection processing unit 407 projects a projection image (FIG. 6 (c4)). In this state, the projection processing unit 407 instructs the camera 113 to image the shared area 311. When the camera 113 captures the shared area 311, an image illustrated in FIG. 6D 4 is acquired as a captured image. The imaging processing unit 401 associates the image shown in FIG. 6 (d4) with the frame ID 5126 as a captured image at time t4 and stores the image in the external memory 210 or the like. Next, the projection processing unit 407 returns to the original state by switching the projection to the image (FIG. 5B) stored in the external memory 210 or the like. Next, the transmission image generation unit 404 adds the transmission target area image (FIG. 6 (b4)) to the untransmitted transmission target area image list.

その後、人物領域導出部402は、人物領域の導出を行う。人物領域導出部402は、この時点での1フレーム前の撮像画像(図6(d3))や現在のフレームの撮像画像(図6(d4))に基づいて、図6(e4)に示す領域605が人物領域であると判断する。そして、人物領域導出部402は、図6(e4)に示す人物領域画像を外部メモリ210等に格納する。未送信の送信対象領域画像リストにはこの時点で送信対象領域画像(図6(b4))が含まれ、また、送信対象領域画像604と人物領域605に重複は無い為、送信画像生成部404は、拠点Bの情報処理システム120への送信処理に移る。   Thereafter, the person area deriving unit 402 derives a person area. The person area deriving unit 402 performs the area shown in FIG. 6 (e4) based on the captured image one frame before (FIG. 6 (d3)) and the captured image of the current frame (FIG. 6 (d4)). It is determined that 605 is a person area. Then, the person area deriving unit 402 stores the person area image shown in FIG. 6 (e4) in the external memory 210 or the like. The transmission target area image list (FIG. 6 (b4)) is included in the untransmitted transmission target area image list at this time, and there is no overlap between the transmission target area image 604 and the person area 605. Shifts to transmission processing to the information processing system 120 at the site B.

送信画像生成部404は、撮像画像(図6(d4))から送信対象領域604に相当する部分を抽出した送信画像(図6(f4))を生成する。具体的には、送信画像生成部404は、外部メモリ210等に格納された撮像画像(図6(d4))を、送信対象領域画像((図6(b4)))の画素値が0である座標の画素は白色になるようマスクする。これによって、送信画像生成部404は、撮像画像(図6(d4))から送信対象領域604の部分のみを抽出する。送信対象領域の部分のみを抽出する事で、送信画像(図6(f4))を生成する。なお、本実施例にかかるPC111の機能部として機能する不図示の画像補正部が、送信画像が生成される前の画像に色味補正やエッジ強調等の画像補正を掛けてもよい。以下、この機能については、送信画像が生成される段階の度に機能し得るが、処理内容が上記と同様であるため、説明を省略する。   The transmission image generation unit 404 generates a transmission image (FIG. 6 (f4)) obtained by extracting a portion corresponding to the transmission target area 604 from the captured image (FIG. 6 (d4)). Specifically, the transmission image generation unit 404 converts the captured image (FIG. 6 (d4)) stored in the external memory 210 or the like into a transmission target area image ((FIG. 6 (b4))) with a pixel value of 0. A pixel at a certain coordinate is masked to become white. Thereby, the transmission image generation unit 404 extracts only the portion of the transmission target area 604 from the captured image (FIG. 6 (d4)). By extracting only the part of the transmission target area, a transmission image (FIG. 6 (f4)) is generated. Note that an image correction unit (not shown) that functions as a functional unit of the PC 111 according to the present embodiment may perform image correction such as color correction and edge enhancement on the image before the transmission image is generated. Hereinafter, this function can function every time a transmission image is generated. However, since the processing content is the same as described above, the description thereof is omitted.

次に、通信部405は、送信画像(図6(f4))及びフレームID5126を拠点Bの通信部427へ送信する。次に、送信画像生成部404は、送信対象領域画像(図6(b4))を未送信の送信対象領域画像リストから削除する。この時点で未送信の送信対象領域画像リストは空になった為、これ以上の拠点Bの情報処理システム120への送信処理は行われず、このまま処理を終える。   Next, the communication unit 405 transmits the transmission image (FIG. 6 (f4)) and the frame ID 5126 to the communication unit 427 at the site B. Next, the transmission image generation unit 404 deletes the transmission target area image (FIG. 6 (b4)) from the untransmitted transmission target area image list. At this time, since the untransmitted transmission target area image list is empty, no further transmission processing to the information processing system 120 at the base B is performed, and the processing ends.

一方、拠点BのPC121の通信部405は、拠点Aの通信部405によって送信された送信画像及びフレームID5126を受信する。PC121の投影処理部407は、受信した送信画像を用いて投影処理を行う。先ずPC121の投影処理部407は、投影画像(図5(a))を取得する。次に、PC121の合成部406は、取得された投影画像(図5(a))と受信した送信画像(図6(f4))を合成する。この合成によって生成された投影画像を図6(g4)に示す。この画像の合成は、例えば、受信された画像に係る画像のうち白の画素は投影画像の画素値を、それ以外の画素は受信された画像の画素値を使用するような画像を生成する事によって行われる。   On the other hand, the communication unit 405 of the PC 121 at the site B receives the transmission image and the frame ID 5126 transmitted by the communication unit 405 at the site A. The projection processing unit 407 of the PC 121 performs projection processing using the received transmission image. First, the projection processing unit 407 of the PC 121 acquires a projection image (FIG. 5A). Next, the combining unit 406 of the PC 121 combines the acquired projection image (FIG. 5A) and the received transmission image (FIG. 6F4). A projection image generated by this synthesis is shown in FIG. This image synthesis is performed by, for example, generating an image that uses the pixel value of the projection image for the white pixels and the pixel value of the received image for the other pixels. Is done by.

その後、PC121の投影処理部407は、生成された投影画像(図6(g4))を受信されたフレームID5126に紐付けて情報処理システム120の外部メモリ210等に格納する。PC121の投影処理部407は、生成された投影画像(図6(g4))を共有領域321に投影する。こうして生成された投影画像(図6(g4))が共有領域321に投影された状態を図6(h4)に示す。図6(h4)では、1フレーム前における図6(h3)に示す共有領域311の表示と比較して、拠点Aの情報入力ボード114の共有領域311に書き込まれた線分505だけが、拠点Bの情報入力ボード124の共有領域321に投影されている。よって、本実施例に係る情報共有システム100は、画像を処理する領域及び送信処理を行なう領域を、拠点Aの情報入力ボード114の共有領域311に書き込まれた部分に限定することが可能となる。したがって、情報共有システム100が処理する負担が軽減され、当該書き込まれた情報を他拠点と迅速に共有することが可能となる。   Thereafter, the projection processing unit 407 of the PC 121 stores the generated projection image (FIG. 6 (g4)) in the external memory 210 of the information processing system 120 in association with the received frame ID 5126. The projection processing unit 407 of the PC 121 projects the generated projection image (FIG. 6 (g4)) onto the shared area 321. FIG. 6H4 shows a state where the projection image generated in this way (FIG. 6G4) is projected onto the shared area 321. FIG. In FIG. 6 (h4), only the line segment 505 written in the shared area 311 of the information input board 114 of the base A is compared with the display of the shared area 311 shown in FIG. 6 (h3) one frame before. It is projected onto the shared area 321 of the B information input board 124. Therefore, the information sharing system 100 according to the present embodiment can limit the area for processing the image and the area for performing the transmission process to the portion written in the shared area 311 of the information input board 114 at the site A. . Therefore, the burden of processing by the information sharing system 100 is reduced, and the written information can be quickly shared with other bases.

次に時刻t5において、拠点AのPC111の送信対象領域特定部403は、送信対象領域画像の生成を行う。この時点での2フレーム前の人物領域画像は、2フレーム前に外部メモリ210等に格納された画像(図6(e3))であって、人物領域603を含む画像である。また、この時点での1フレーム前の人物領域画像は、1フレーム前に外部メモリ210等に格納された画像(図6(e4))であって、人物領域605を含む画像である。送信対象領域特定部403は、2フレーム前の人物領域603と1フレーム前の人物領域605の両方を包含する最小の矩形領域を導出する。この様子を図8(c)に示す。   Next, at time t5, the transmission target area specifying unit 403 of the PC 111 at the base A generates a transmission target area image. The person area image two frames before at this point is an image (FIG. 6 (e3)) stored in the external memory 210 or the like two frames before, and includes the person area 603. At this time, the person area image one frame before is an image (FIG. 6 (e4)) stored in the external memory 210 or the like one frame before, and includes the person area 605. The transmission target area specifying unit 403 derives a minimum rectangular area that includes both the person area 603 two frames before and the person area 605 one frame before. This is shown in FIG.

図8(c)において、2フレーム前の人物領域画像(図6(e3))に含まれる人物領域603と1フレーム前の人物領域画像(図6(e4))に含まれる人物領域605を含む最小の矩形領域は、803で示す領域である。このため、領域803が送信対象領域特定部403によって導出される領域になる。次に、送信対象領域特定部403は、1フレーム前の人物領域605を包含する最小の矩形領域を導出する。この様子を図8(d)に示す。   8C, a person area 603 included in the person area image two frames before (FIG. 6E3) and a person area 605 included in the person area image one frame before (FIG. 6E4) are included. The minimum rectangular area is an area indicated by 803. For this reason, the area 803 is an area derived by the transmission target area specifying unit 403. Next, the transmission target area specifying unit 403 derives a minimum rectangular area including the person area 605 one frame before. This is shown in FIG.

図8(d)において、人物領域605を含む最小の矩形領域は804で示す領域である為、領域804が送信対象領域特定部403によって導出される領域になる。その後、送信対象領域特定部403は、送信対象領域を特定する。   In FIG. 8D, since the minimum rectangular area including the person area 605 is an area indicated by 804, the area 804 is an area derived by the transmission target area specifying unit 403. Thereafter, the transmission target area specifying unit 403 specifies the transmission target area.

図8(d)において、送信対象領域特定部403は、導出した領域803から、導出した領域804を引いた斜線の領域である領域606が、送信対象領域であると決定する。その後、送信対象領域特定部403は、領域606の画素値を1、他の画素値を0とした送信対象領域画像を生成する(図6(b5)を参照)。   In FIG. 8D, the transmission target area specifying unit 403 determines that a hatched area 606 obtained by subtracting the derived area 804 from the derived area 803 is the transmission target area. Thereafter, the transmission target area specifying unit 403 generates a transmission target area image with the pixel value of the area 606 set to 1 and the other pixel values set to 0 (see FIG. 6B5).

撮像処理部401は、この時点における投影画像(図5(b))をフレームID5127に紐付けて外部メモリ210等に格納する。その後、撮像処理部401は、投影画像(図5(b))のうち破線の送信対象領域606に相当する部分を白色で塗り潰した投影画像(図6(c5))を生成する。   The imaging processing unit 401 associates the projection image at this time (FIG. 5B) with the frame ID 5127 and stores it in the external memory 210 or the like. After that, the imaging processing unit 401 generates a projection image (FIG. 6 (c5)) in which a portion corresponding to the broken transmission target area 606 in the projection image (FIG. 5 (b)) is filled with white.

その後、投影処理部407は、投影画像(図6(c5))を投影する。この状態で撮像処理部401は、カメラ113に共有領域311の撮像を指示する。カメラ113が共有領域311を撮像することで、撮像画像として図6(d5)に示す画像が取得される。撮像処理部401は、図6(d5)に示す画像を時刻t5における撮像画像としてフレームID5127と紐付けて外部メモリ210等に格納する。次に、投影処理部407は、外部メモリ210等に格納した画像(図5(b))に投影を切り替える事で、元の状態に戻す。次に、送信画像生成部404は、未送信の送信対象領域画像リストに送信対象領域画像(図6(b5))を追加する。   Thereafter, the projection processing unit 407 projects a projection image (FIG. 6 (c5)). In this state, the imaging processing unit 401 instructs the camera 113 to image the shared area 311. When the camera 113 captures the shared area 311, an image illustrated in FIG. 6D 5 is acquired as a captured image. The imaging processing unit 401 associates the image shown in FIG. 6 (d5) with the frame ID 5127 as the captured image at time t5 and stores the image in the external memory 210 or the like. Next, the projection processing unit 407 returns to the original state by switching the projection to the image (FIG. 5B) stored in the external memory 210 or the like. Next, the transmission image generation unit 404 adds the transmission target area image (FIG. 6 (b5)) to the untransmitted transmission target area image list.

その後、人物領域導出部402は、人物領域の導出を行う。人物領域導出部402は、この時点での1フレーム前の撮像画像(図6(d4))や現在のフレームの撮像画像(図6(d5))に基づいて、人物は存在しないと判断する。そして、人物領域導出部402は、図6(e5)に示すような画素値が全て0の人物領域画像をフレームID5127と紐付けて外部メモリ210等に格納する。未送信の送信対象領域画像リストにはこの時点で送信対象領域画像(図6(b5))が含まれ、また、人物領域は存在せず、送信対象領域に人物領域が含まれる事も無い為、拠点Bの情報処理システム120への送信処理に移る。   Thereafter, the person area deriving unit 402 derives a person area. The person area deriving unit 402 determines that there is no person based on the captured image of the previous frame at this time (FIG. 6 (d4)) and the captured image of the current frame (FIG. 6 (d5)). Then, the person area deriving unit 402 associates a person area image whose pixel values are all 0 as shown in FIG. 6E5 with the frame ID 5127 and stores the person area image in the external memory 210 or the like. Since the transmission target area image list (FIG. 6 (b5)) is included in the untransmitted transmission target area image list at this time, and the person area does not exist and the transmission target area does not include the human area. The process proceeds to transmission processing to the information processing system 120 at the base B.

送信画像生成部404は、撮像画像(図6(d5))から送信対象領域606に相当する部分を抽出した送信画像(図6(f5))を生成する。   The transmission image generation unit 404 generates a transmission image (FIG. 6 (f5)) obtained by extracting a portion corresponding to the transmission target area 606 from the captured image (FIG. 6 (d5)).

次に、通信部405は、送信画像(図6(f5))及び現在のフレームID5127を拠点Bの通信部427へ送信する。次に、送信画像生成部404は、送信対象領域画像(図6(b5))を未送信の送信対象領域画像リストから削除する。この時点で未送信の送信対象領域画像リストは空になった為、これ以上の拠点Bの情報処理システム120への送信処理は行われず、このまま処理を終える。   Next, the communication unit 405 transmits the transmission image (FIG. 6 (f5)) and the current frame ID 5127 to the communication unit 427 at the base B. Next, the transmission image generation unit 404 deletes the transmission target area image (FIG. 6 (b5)) from the untransmitted transmission target area image list. At this time, since the untransmitted transmission target area image list is empty, no further transmission processing to the information processing system 120 at the base B is performed, and the processing ends.

一方、拠点BのPC121の通信部405は、拠点AのPC111の通信部405によって送信された送信画像及びフレームID5127を受信する。拠点BのPC121の投影処理部407は、受信した送信画像を用いて投影処理を行う。先ずPC121の投影処理部407は、受信されたフレームID5127の1つ前のフレームID5126に紐付けられた投影画像(図6(g4))を取得する。次に、PC121の合成部406は、取得された投影画像(図6(g4))と受信した送信画像(図6(f5))を合成する。この合成によって生成された投影画像を図6(g5)に示す。その後、PC121の投影処理部407は、生成された投影画像(図6(g5))をフレームID5127に紐付けて情報処理システム120の外部メモリ210等に格納する。PC121の投影処理部407は、生成された投影画像(図6(g5))を共有領域321に投影する。こうして生成された投影画像(図6(g5))が共有領域321に投影された状態を図6(h5)に示す。   On the other hand, the communication unit 405 of the PC 121 at the site B receives the transmission image and the frame ID 5127 transmitted by the communication unit 405 of the PC 111 at the site A. The projection processing unit 407 of the PC 121 at the site B performs projection processing using the received transmission image. First, the projection processing unit 407 of the PC 121 obtains a projection image (FIG. 6 (g4)) linked to the frame ID 5126 that is one previous to the received frame ID 5127. Next, the combining unit 406 of the PC 121 combines the acquired projection image (FIG. 6 (g4)) and the received transmission image (FIG. 6 (f5)). A projection image generated by this synthesis is shown in FIG. Thereafter, the projection processing unit 407 of the PC 121 associates the generated projection image (FIG. 6 (g5)) with the frame ID 5127, and stores it in the external memory 210 of the information processing system 120. The projection processing unit 407 of the PC 121 projects the generated projection image (FIG. 6 (g5)) onto the shared area 321. FIG. 6H5 shows a state in which the projection image generated in this way (FIG. 6G5) is projected onto the shared area 321. FIG.

次に時刻t6において、拠点AのPC111の送信対象領域特定部403は、送信対象領域画像の生成を行う。この時点での2フレーム前の人物領域画像は、2フレーム前に外部メモリ210等に格納された画像(図6(e4))であって、人物領域605を含む画像である。また、1フレーム前の人物領域画像は、1フレーム前に外部メモリ210等に格納された画像(図6(e5))であって、人物領域を含まない画像である。よって、送信対象領域特定部403は、2フレーム前の人物領域画像を包含する最小の矩形領域を導出する。この様子を図8(e)に示す。   Next, at time t6, the transmission target area specifying unit 403 of the PC 111 at the site A generates a transmission target area image. The person area image two frames before at this point is an image (FIG. 6 (e4)) stored in the external memory 210 or the like two frames before, and includes the person area 605. The person area image one frame before is an image (FIG. 6 (e5)) stored in the external memory 210 or the like one frame before and does not include the person area. Therefore, the transmission target area specifying unit 403 derives the minimum rectangular area that includes the person area image two frames before. This is shown in FIG.

図8(e)において、2フレーム前の人物領域画像(図6(e4))に含まれる人物領域605を含む最小の矩形領域は、607で示す斜線の領域である為、領域607が導出される領域になる。その後、送信対象領域特定部403は、送信対象領域607の画素値を1、他の画素値を0とした送信対象領域画像を生成する(図6(b6)を参照)。   In FIG. 8E, since the minimum rectangular area including the person area 605 included in the person area image two frames before (FIG. 6E4) is a hatched area indicated by 607, the area 607 is derived. Become an area. Thereafter, the transmission target area specifying unit 403 generates a transmission target area image in which the pixel value of the transmission target area 607 is 1 and the other pixel values are 0 (see FIG. 6 (b6)).

撮像処理部401は、この時点における投影画像(図5(b))をフレームID5128に紐付けて外部メモリ210等に格納する。その後、撮像処理部401は、投影画像(図5(b))のうち破線の送信対象領域607に相当する部分を白色で塗り潰した投影画像(図6(c6))を生成する。   The imaging processing unit 401 associates the projection image at this time (FIG. 5B) with the frame ID 5128 and stores it in the external memory 210 or the like. Thereafter, the imaging processing unit 401 generates a projection image (FIG. 6 (c6)) in which a portion corresponding to the transmission target area 607 of the broken line in the projection image (FIG. 5 (b)) is filled with white.

その後、投影処理部407は、投影画像(図6(c6))を投影する。この状態で、撮像処理部401は、カメラ113に共有領域311の撮像を指示する。カメラ113が共有領域311を撮像することで、撮像画像として図6(d6)に示す画像が取得される。撮像処理部401は、図6(d6)に示す画像を時刻t6における撮像画像としてフレームID5128と紐付けて外部メモリ210等に格納する。次に、投影処理部407は、外部メモリ210等に格納した画像(図5(b))に投影を切り替える事で、元の状態に戻す。次に、送信画像生成部404は、未送信の送信対象領域画像リストに送信対象領域画像(図6(b6))を追加する。   Thereafter, the projection processing unit 407 projects a projection image (FIG. 6 (c6)). In this state, the imaging processing unit 401 instructs the camera 113 to image the shared area 311. When the camera 113 captures the shared area 311, an image illustrated in FIG. 6D 6 is acquired as a captured image. The imaging processing unit 401 associates the image shown in FIG. 6 (d6) with the frame ID 5128 as a captured image at time t6 and stores the image in the external memory 210 or the like. Next, the projection processing unit 407 returns to the original state by switching the projection to the image (FIG. 5B) stored in the external memory 210 or the like. Next, the transmission image generation unit 404 adds the transmission target area image (FIG. 6 (b6)) to the untransmitted transmission target area image list.

その後、人物領域導出部402は、人物領域の導出を行う。人物領域導出部402は、この時点での1フレーム前の撮像画像(図6(d5))や現在の撮像画像(図6(d6))に基づいて、人物は存在しないと判断する。そして、人物領域導出部402は、図6(e6)に示すような画素値が全て0の人物領域画像をフレームID5128と紐付けて外部メモリ210等に格納する。未送信の送信対象領域画像リストには、この時点で送信対象領域画像(図6(b6))が含まれ、また、人物領域は存在せず、送信対象領域に人物領域が含まれる事も無い為、拠点Bの情報処理システム120への送信処理に移る。   Thereafter, the person area deriving unit 402 derives a person area. The person area deriving unit 402 determines that there is no person based on the captured image one frame before (FIG. 6 (d 5)) and the current captured image (FIG. 6 (d 6)) at this time. Then, the person area deriving unit 402 associates a person area image whose pixel values are all 0 as illustrated in FIG. 6E6 with the frame ID 5128 and stores the person area image in the external memory 210 or the like. The transmission target area image list (FIG. 6 (b6)) is included in the untransmitted transmission target area image list at this time, the person area does not exist, and the transmission target area does not include a person area. Therefore, the process proceeds to the transmission process to the information processing system 120 at the site B.

送信画像生成部404は、撮像画像(図6(d6))から送信対象領域607に相当する部分を抽出した送信画像(図6(f6))を生成する。   The transmission image generation unit 404 generates a transmission image (FIG. 6 (f6)) obtained by extracting a portion corresponding to the transmission target area 607 from the captured image (FIG. 6 (d6)).

次に、通信部405は、送信画像(図6(f6))及び現在のフレームID5128を拠点Bの通信部427へ送信する。次に、送信画像生成部404は、送信対象領域画像(図6(b6))を未送信の送信対象領域画像リストから削除する。この時点で未送信の送信対象領域画像リストは空になった為、これ以上の拠点Bの情報処理システム120への送信処理は行われず、このまま処理を終える。   Next, the communication unit 405 transmits the transmission image (FIG. 6 (f6)) and the current frame ID 5128 to the communication unit 427 at the site B. Next, the transmission image generation unit 404 deletes the transmission target area image (FIG. 6B6) from the untransmitted transmission target area image list. At this time, since the untransmitted transmission target area image list is empty, no further transmission processing to the information processing system 120 at the base B is performed, and the processing ends.

拠点BのPC121の通信部405は、拠点AのPC111の通信部405によって送信された送信画像及びフレームID5128を受信する。拠点BのPC121の投影処理部407は、受信した送信画像を用いて投影処理を行う。先ずPC121の投影処理部407は、受信されたフレームID5128の1つ前のフレームID5127に紐付けられた投影画像(図6(g5))を取得する。次に、PC121の合成部406は、取得した投影画像(図6(g5)と受信した送信画像(図6(f6))を合成する。この合成によって生成され生成された投影画像を図6(g6)に示す。その後、PC121の投影処理部407は、生成された投影画像(図6(g6))をフレームID5128に紐付けて情報処理システム120の外部メモリ210等に格納する。PC121の投影処理部407は、生成された投影画像(図6(g6))を共有領域321に投影する。こうして生成された投影画像(図6(g6))が共有領域321に投影された状態を図6(h6)に示す。   The communication unit 405 of the PC 121 at the site B receives the transmission image and the frame ID 5128 transmitted by the communication unit 405 of the PC 111 at the site A. The projection processing unit 407 of the PC 121 at the site B performs projection processing using the received transmission image. First, the projection processing unit 407 of the PC 121 obtains a projection image (FIG. 6 (g5)) linked to the frame ID 5127 immediately before the received frame ID 5128. Next, the synthesizing unit 406 of the PC 121 synthesizes the acquired projection image (FIG. 6 (g5) and the received transmission image (f6)). The projection image generated and generated by this synthesis is shown in FIG. Thereafter, the projection processing unit 407 of the PC 121 associates the generated projection image (FIG. 6 (g6)) with the frame ID 5128 and stores it in the external memory 210 or the like of the information processing system 120. Projection of the PC 121 The processing unit 407 projects the generated projection image (FIG. 6 (g6)) onto the shared area 321. The state where the thus generated projection image (FIG. 6 (g6)) is projected onto the shared area 321 is shown in FIG. Shown in (h6).

<送信画像の生成処理及び送信処理>
次に、図6で説明したような動作を実現する、情報共有システムにおける処理について説明する。説明の便宜上、ここでも自拠点としての拠点Aにおける情報処理システム110における処理を中心として説明することとするが、他拠点としての拠点Bにおける情報処理システム120においても同様の処理がなされるものである。
<Transmission image generation processing and transmission processing>
Next, processing in the information sharing system that realizes the operation described in FIG. 6 will be described. For the sake of convenience of explanation, the processing in the information processing system 110 at the base A as its own base will be mainly described here, but the same processing is performed also in the information processing system 120 at the base B as another base. is there.

図9は、本実施例における、自拠点としての拠点Aの情報処理システム110のカメラ113が情報入力ボード114の共有領域311の記載内容を撮像し、他拠点としての拠点Bの情報処理システム120に送信するまでの処理の流れを示すフローチャートである。なお、本フローチャートで示す一連の処理は、一定の時間間隔(例えば0.5秒毎)で情報入力ボード114の共有領域311をカメラ113で撮像する毎に実行される。この一連の処理は、フレーム毎で行われるものとする。例えば、撮像の間隔をさらに短くした上で(例えば、0.1秒毎)、2フレーム毎や3フレーム毎といったように複数フレームに1度の割合で処理を実行するようにしてもよい。また、本フローチャートで示す手順は、そのプログラムがPC111のROM203、RAM202、外部メモリ(HDDなど)210のいずれかに格納され、CPU201により実行される。   FIG. 9 shows the information processing system 120 of the base B as the other base, in which the camera 113 of the information processing system 110 at the base A as its base picks up the contents of the shared area 311 of the information input board 114. It is a flowchart which shows the flow of a process until it transmits to. A series of processing shown in this flowchart is executed each time the shared area 311 of the information input board 114 is imaged by the camera 113 at a constant time interval (for example, every 0.5 seconds). This series of processing is performed for each frame. For example, after further shortening the imaging interval (for example, every 0.1 second), the processing may be executed at a rate of once every plural frames, such as every two frames or every three frames. The procedure shown in this flowchart is executed by the CPU 201 with the program stored in one of the ROM 203, RAM 202, and external memory (HDD, etc.) 210 of the PC 111.

ステップ901において、撮像処理部401は、外部メモリ210等からフレームIDを取得する。   In step 901, the imaging processing unit 401 acquires a frame ID from the external memory 210 or the like.

次に、ステップ902において、送信画像生成部404は、外部メモリ210等から未送信の送信対象領域画像リストを取得する。   In step 902, the transmission image generation unit 404 acquires an untransmitted transmission target area image list from the external memory 210 or the like.

その後、ステップ903において、送信対象領域特定部403は、送信対象領域画像(図6(b4)等を参照)の生成を行う。送信対象領域画像の生成の詳細は後述する。   Thereafter, in step 903, the transmission target area specifying unit 403 generates a transmission target area image (see FIG. 6B4 and the like). Details of generation of the transmission target area image will be described later.

次に、ステップ904において、撮像処理部401は、送信対象領域画像中に送信対象領域が存在するかどうかを判断する。具体的には、ステップ903で送信対象領域特定部403が生成した送信対象領域画像の画素値が全て0かどうかの判定を行なう。   Next, in step 904, the imaging processing unit 401 determines whether a transmission target area exists in the transmission target area image. Specifically, it is determined in step 903 whether or not the pixel values of the transmission target area image generated by the transmission target area specifying unit 403 are all zero.

ステップ904で送信対象領域が存在しないと判断した場合は、ステップ905において、撮像処理部401は、カメラ113に共有領域311の撮像を指示する。その後、ステップ906において、撮像処理部401は、ステップ905で取得した撮像画像(図6(d1)等を参照)をステップ901で取得したフレームIDと紐付けて外部メモリ210等に格納し、処理をステップ916に進める。   If it is determined in step 904 that the transmission target area does not exist, in step 905, the imaging processing unit 401 instructs the camera 113 to image the shared area 311. Thereafter, in step 906, the imaging processing unit 401 associates the captured image acquired in step 905 (see FIG. 6 (d1) and the like) with the frame ID acquired in step 901, and stores it in the external memory 210 and the like. To step 916.

ステップ904で送信対象領域が存在すると判断した場合、ステップ907において撮像処理部401は、この時点でプロジェクタ112に投影させている画像(図5(b)を参照)を保存する。この時点でプロジェクタ112に投影させている画像は、ステップ901で取得されたフレームIDに紐付けて外部メモリ210等に格納される。   If it is determined in step 904 that there is a transmission target area, in step 907, the imaging processing unit 401 stores the image (see FIG. 5B) that is being projected on the projector 112 at this time. The image projected on the projector 112 at this time is stored in the external memory 210 or the like in association with the frame ID acquired in step 901.

次に、ステップ908において、撮像処理部401は、ステップ903で送信対象領域特定部403が生成した送信対象領域画像を用い、投影画像のうち送信対象領域を白色で塗りつぶした画像(図6(c4)等を参照)を生成する。   Next, in step 908, the imaging processing unit 401 uses the transmission target region image generated by the transmission target region specifying unit 403 in step 903, and fills the transmission target region in white among the projection images (FIG. 6 (c4)). ) Etc.) is generated.

その後、ステップ909において、投影処理部407は、プロジェクタ112へ、ステップ908で撮像処理部401が生成した画像を投影するよう指示を出す。   Thereafter, in step 909, the projection processing unit 407 instructs the projector 112 to project the image generated by the imaging processing unit 401 in step 908.

ステップ910において、撮像処理部401は、カメラ113に共有領域311の撮像を指示し、撮像画像(図6(d4)等を参照)を取得する。ステップ908、ステップ909及びステップ910により、投影が含まれない、マーカペンで直に書き込まれた情報だけの共有領域311の撮像画像が得られる。   In step 910, the imaging processing unit 401 instructs the camera 113 to image the shared area 311 and acquires a captured image (see FIG. 6 (d4) and the like). Through step 908, step 909, and step 910, a captured image of the shared area 311 only including information directly written with the marker pen that does not include projection is obtained.

その後、ステップ911において、撮像処理部401は、ステップ910で取得した撮像画像をステップ901で取得されたフレームIDに紐付けて外部メモリ210等に格納する。   Thereafter, in step 911, the imaging processing unit 401 associates the captured image acquired in step 910 with the frame ID acquired in step 901 and stores it in the external memory 210 or the like.

次に、ステップ912において、撮像処理部401は、ステップ907で格納した投影画像(図5(b)を参照)を外部メモリ210等から取得する。   Next, in step 912, the imaging processing unit 401 acquires the projection image (see FIG. 5B) stored in step 907 from the external memory 210 or the like.

その後、ステップ913において、投影処理部407は、プロジェクタ112へ、ステップ912で取得した画像を投影するよう指示を出す。   Thereafter, in step 913, the projection processing unit 407 instructs the projector 112 to project the image acquired in step 912.

ステップ914において、送信画像生成部404は、ステップ903で送信対象領域特定部403が生成した送信対象領域画像(図6(b4)等を参照)を、ステップ902で取得された未送信の送信対象領域画像リストに追加する。   In step 914, the transmission image generation unit 404 uses the transmission target region image (see FIG. 6B 4, etc.) generated by the transmission target region specification unit 403 in step 903 as the untransmitted transmission target acquired in step 902. Add to region image list.

その後、ステップ915において、人物領域導出部402は、ステップ901で取得されたフレームIDから1を引いたフレームIDに紐付けられている、すなわち1フレーム前の撮像画像を外部メモリ210等から取得する。   Thereafter, in step 915, the person area deriving unit 402 acquires the captured image that is linked to the frame ID obtained by subtracting 1 from the frame ID acquired in step 901, that is, the captured image of the previous frame from the external memory 210 or the like. .

ステップ916において、人物領域導出部402は、ステップ906又はステップ911で外部メモリ210等に格納された撮像画像から、人物領域を導出する。   In step 916, the person area deriving unit 402 derives a person area from the captured image stored in the external memory 210 or the like in step 906 or 911.

ステップ917において、人物領域導出部402は、ステップ916で導出した人物領域の画素値を1、その他の領域の画素値を0とした人物領域画像(図6(e4)等を参照)を生成する。   In step 917, the person area deriving unit 402 generates a person area image (see FIG. 6 (e4) and the like) in which the pixel value of the person area derived in step 916 is 1 and the pixel values of other areas are 0. .

その後、ステップ918において、人物領域導出部402は、ステップ917で生成した人物領域画像を、ステップ901で撮像処理部401が取得したフレームIDと紐付けて外部メモリ210等に格納する。   Thereafter, in step 918, the person area deriving unit 402 stores the person area image generated in step 917 in the external memory 210 or the like in association with the frame ID acquired by the imaging processing unit 401 in step 901.

ステップ919において、送信画像生成部404は、未送信の送信対象領域画像リストに含まれている送信対象領域画像の全件について、ステップ920の判断をしたかどうかを判断する。全件について判断した場合は処理をステップ924に移す。また、ステップ919において、送信画像生成部404は、未送信の送信対象領域画像リストが空の場合も、送信対象領域画像の全件について判断したとみなして、処理をステップ924に移す。   In step 919, the transmission image generation unit 404 determines whether or not the determination in step 920 has been made for all the transmission target area images included in the untransmitted transmission target area image list. If all cases have been determined, the process proceeds to step 924. In step 919, the transmission image generation unit 404 determines that all the transmission target area images have been determined even when the untransmitted transmission target area image list is empty, and moves the process to step 924.

一方、ステップ920の判断をしていない送信対象領域画像があると判断した場合、ステップ920において、送信画像生成部404は、そのうちの一つの送信対象領域画像について、送信対象領域内に人物が含まれるかどうかを判断する。送信対象領域内に人物が含まれるかどうかは、具体的には、このステップで対象としている送信対象領域画像と、ステップ918で外部メモリ210等に格納された人物領域画像で論理積を算出し、画素値が1である画素が存在するかどうかによって判断する。画素値が1である画素が存在する、つまり二つの領域に重複する領域が有ると判断された場合、送信対象領域内に人物が含まれるという事になる為、この送信対象領域については送信処理を行わずに処理をステップ919に戻す。   On the other hand, if it is determined that there is a transmission target area image that has not been determined in step 920, in step 920, the transmission image generation unit 404 includes a person in the transmission target area for one of the transmission target area images. To determine whether or not Specifically, whether or not a person is included in the transmission target area is calculated by calculating a logical product of the transmission target area image targeted in this step and the person area image stored in the external memory 210 or the like in step 918. The determination is made based on whether or not there is a pixel having a pixel value of 1. When it is determined that there is a pixel having a pixel value of 1, that is, there is an overlapping area between the two areas, a person is included in the transmission target area. The process returns to step 919 without performing the above.

送信対象領域に人物が含まれる場合、ステップ920において、送信画像生成部404は、この送信対象領域画像を未送信の送信対象領域画像リストに追加した上で、処理をステップ919に戻す。この場合のステップ919では、送信画像生成部404は、未送信の送信対象領域画像リストに追加された当該送信対象領域画像が、一度、ステップ920において判断がされているため、「YES」としてステップ924に処理を進める。これにより、次フレームでも送信対象領域に人物が含まれる場合、送信画像生成部404は、送信対象領域に対応する送信対象領域画像を未送信の送信対象領域画像リストに追加する。このため、未送信の送信対象領域画像リストには、複数の送信対象領域画像が追加される場合がある。この場合、次フレームにおけるステップ919において、送信画像生成部404は、上記複数の送信対象領域画像が含まれる未送信の送信対象領域画像リストの全件について、ステップ920の判断がされたかどうかを判定する。この未送信の送信対象領域画像リストに追加された送信対象領域画像のうち1つでも、ステップ920の判断がされていない場合、ステップ919において、送信画像生成部404は、「NO」と判断する。そしてステップ920の判断がされていない当該送信対象領域画像について、ステップ920の判断がなされる。   When a person is included in the transmission target area, in step 920, the transmission image generation unit 404 adds the transmission target area image to the untransmitted transmission target area image list, and returns the process to step 919. In step 919 in this case, the transmission image generation unit 404 determines that the transmission target area image added to the untransmitted transmission target area image list has been determined in step 920 once. The process proceeds to 924. Accordingly, when a person is included in the transmission target area even in the next frame, the transmission image generation unit 404 adds a transmission target area image corresponding to the transmission target area to the untransmitted transmission target area image list. For this reason, a plurality of transmission target area images may be added to the untransmitted transmission target area image list. In this case, in step 919 in the next frame, the transmission image generation unit 404 determines whether the determination in step 920 has been made for all cases in the untransmitted transmission target area image list including the plurality of transmission target area images. To do. If even one of the transmission target area images added to the untransmitted transmission target area image list has not been determined in step 920, in step 919, the transmission image generating unit 404 determines “NO”. . Then, the determination in step 920 is made for the transmission target region image that has not been determined in step 920.

1フレーム前における一連の処理(ステップ919及びステップ920を参照)が実行された際に、送信対象領域は存在するが撮像画像中の送信対象領域に人物が写っている場合は、送信画像を生成せず、拠点Bの情報処理システム120への送信処理は保留される。これにより、ユーザの腕などが含まれた撮像画像を拠点Bの共有領域に投影してしまうことが抑止される。また、これにより、送信対象領域内に人物が含まれている場合には拠点Bの情報処理システム120への送信処理を保留にして、送信対象領域内から人物が離れると、拠点Bの情報処理システム120への送信処理を行うことが可能となる。なお、ステップ919において、ステップ920の判断が終了したかどうかについて判定する方法については、例えば、未送信の送信対象領域画像リストに、フレームIDごとにチェックボックスを設けるといった方法が考えられる。そして、ステップ920の判断が終了した場合に、当該チェックボックスに自動的にチェックを入れる。そして、ステップ919において、当該チェックが入っている場合、当該チェックに対応するフレームIDに紐付いている送信対象領域画像については、ステップ920の判定が済んでいるものとして、ステップ924に処理を進めるとしてよい。また、ステップ919において、当該チェックが入っていない場合、当該チェックに対応するフレームIDに紐付いている送信対象領域画像については、ステップ920に処理を進めるとしてよい。   When a series of processes one frame before (see step 919 and step 920) are executed, if a transmission target area exists but a person is reflected in the transmission target area in the captured image, a transmission image is generated. Instead, the transmission process to the information processing system 120 at the site B is suspended. Thereby, it is suppressed that the captured image including the user's arm or the like is projected onto the shared area of the base B. As a result, if a person is included in the transmission target area, the transmission process to the information processing system 120 at the base B is suspended, and if the person leaves the transmission target area, the information processing at the base B is performed. Transmission processing to the system 120 can be performed. As a method for determining whether or not the determination in step 920 is completed in step 919, for example, a method of providing a check box for each frame ID in an untransmitted transmission target area image list is conceivable. Then, when the determination in step 920 is completed, the check box is automatically checked. In step 919, if the check is on, the transmission target region image associated with the frame ID corresponding to the check is assumed to have been determined in step 920, and the process proceeds to step 924. Good. If the check is not entered in step 919, the process may be advanced to step 920 for the transmission target area image associated with the frame ID corresponding to the check.

ステップ920において送信画像生成部404が送信対象領域内に人物が含まれないと判断した場合、送信画像生成部404は、拠点Bの情報処理システム120に送信する送信画像の生成処理に移行する。   When the transmission image generation unit 404 determines in step 920 that no person is included in the transmission target area, the transmission image generation unit 404 proceeds to generation processing of a transmission image to be transmitted to the information processing system 120 at the base B.

ステップ921において、送信画像生成部404は、ステップ906又はステップ911で格納された撮像画像から送信対象領域に相当する部分のみを抽出する。送信対象領域に相当する部分のみを抽出する事で、送信画像(図6(f4)等を参照)を生成する。   In step 921, the transmission image generation unit 404 extracts only a portion corresponding to the transmission target area from the captured image stored in step 906 or 911. A transmission image (see FIG. 6 (f4) and the like) is generated by extracting only a portion corresponding to the transmission target area.

その後、ステップ922において、通信部405は、ネットワークI/F 213、ネットワーク130を介して、ステップ921で送信画像生成部404が生成した送信画像を、拠点Bの情報処理システム120に送信する。また、通信部405は、送信画像を生成するために使用した撮像画像に紐付けられたフレームIDを、送信画像とともに、拠点Bの情報処理システム120に送信する。   Thereafter, in step 922, the communication unit 405 transmits the transmission image generated by the transmission image generation unit 404 in step 921 to the information processing system 120 in the base B via the network I / F 213 and the network 130. In addition, the communication unit 405 transmits the frame ID associated with the captured image used for generating the transmission image to the information processing system 120 at the site B together with the transmission image.

その後、ステップ923において、送信画像生成部404は、このステップで対象としている送信対象領域画像を未送信の送信対象領域画像リストから削除し、処理をステップ919に戻す。ステップ919で未送信の送信対象領域画像リストに含まれる全ての送信対象領域画像についてステップ920の判断がなされたと判断された場合、処理をステップ924に進める。   Thereafter, in step 923, the transmission image generation unit 404 deletes the transmission target area image targeted in this step from the untransmitted transmission target area image list, and returns the process to step 919. If it is determined in step 919 that the determination in step 920 has been made for all transmission target area images included in the untransmitted transmission target area image list, the process proceeds to step 924.

ステップ924において、送信画像生成部404は、未送信の送信対象領域画像リストを外部メモリ210等に格納する。   In step 924, the transmission image generation unit 404 stores an untransmitted transmission target area image list in the external memory 210 or the like.

次に、ステップ925において、撮像処理部401は、ステップ901で取得したフレームIDに1を加算する。   Next, in step 925, the imaging processing unit 401 adds 1 to the frame ID acquired in step 901.

ステップ926において、撮像処理部401は、その後、ステップ925で導出した新しいフレームIDを外部メモリ210等に格納し、処理を終了する。   In step 926, the imaging processing unit 401 stores the new frame ID derived in step 925 in the external memory 210 or the like, and ends the process.

図10は、図9のステップ903に示した送信対象領域画像(図6(b4)等を参照)を生成する処理の詳細を示すフローチャートである。本フローチャートで示す手順も図9と同様、そのプログラムがPC111のROM203、RAM202、外部メモリ(HDDなど)210のいずれかに格納され、CPU201により実行される。   FIG. 10 is a flowchart showing details of the processing for generating the transmission target region image (see FIG. 6B4, etc.) shown in step 903 of FIG. Similarly to FIG. 9, the procedure shown in this flowchart is stored in one of the ROM 203, RAM 202, and external memory (such as HDD) 210 of the PC 111 and executed by the CPU 201.

図10に示すステップ1001において送信対象領域特定部403は、ステップ901で取得されたフレームIDから2を引いたフレームIDに紐付けられた人物領域画像、即ち2フレーム前の人物領域画像を外部メモリ210等から取得する。   In step 1001 shown in FIG. 10, the transmission target area specifying unit 403 stores the person area image linked to the frame ID obtained by subtracting 2 from the frame ID acquired in step 901, that is, the person area image two frames before the external memory. Obtained from 210 or the like.

次に、ステップ1002において、送信対象領域特定部403は、ステップ901で取得されたフレームIDから1を引いたフレームIDに紐付けられた人物領域画像、即ち1フレーム前の人物領域画像を、外部メモリ210等から取得する。   Next, in step 1002, the transmission target area specifying unit 403 obtains the person area image linked to the frame ID obtained by subtracting 1 from the frame ID acquired in step 901, that is, the person area image one frame before Obtained from the memory 210 or the like.

その後、ステップ1003において、送信対象領域特定部403は、ステップ1001で取得した2フレーム前の人物領域画像の画素値が全て0かどうかの判定を行う事で、人物領域画像中に人物領域が存在するかどうかの判断を行う。   Thereafter, in step 1003, the transmission target area specifying unit 403 determines whether all the pixel values of the person area image two frames before acquired in step 1001 are 0, so that the person area exists in the person area image. Judge whether to do.

送信対象領域特定部403がステップ1003で人物領域が存在しないと判断した場合は、ステップ1004において、送信対象領域特定部403は、全ての座標の画素値を0とした送信対象領域画像(図6(b1)等を参照)を生成し、処理を終える。   If the transmission target area specifying unit 403 determines in step 1003 that the person area does not exist, in step 1004, the transmission target area specifying unit 403 sets the pixel values of all coordinates to 0 as the transmission target area image (FIG. 6). (See (b1), etc.) and finishes the process.

ステップ1003で2フレーム前の人物領域画像中に人物領域が存在すると判断された場合、ステップ1005において送信対象領域特定部403は、ステップ1002で取得した1フレーム前の人物領域画像の画素値が全て0かどうかの判定を行う。判定を行う事によって、送信対象領域特定部403は、1フレーム前の人物領域画像中に人物領域が存在するかどうかを判断する。   When it is determined in step 1003 that a person area exists in the person area image two frames before, in step 1005, the transmission target area specifying unit 403 determines that all pixel values of the person area image one frame before acquired in step 1002 are all. Judge whether it is 0 or not. By performing the determination, the transmission target area specifying unit 403 determines whether a person area exists in the person area image one frame before.

人物領域が存在しないと判断した場合は、ステップ1006において、送信対象領域特定部403は、2フレーム前の人物領域画像を包含する最小の矩形領域を導出する。   If it is determined that the person area does not exist, in step 1006, the transmission target area specifying unit 403 derives the minimum rectangular area that includes the person area image two frames before.

その後、図10に示すステップ1007において、送信対象領域特定部403は、ステップ1006で導出した領域に含まれる座標の画素値を1、他の画素値を0とした送信対象領域画像(図6(b6)を参照)を生成し、処理を終える。   After that, in step 1007 shown in FIG. 10, the transmission target area specifying unit 403 transmits the transmission target area image with the pixel value of the coordinates included in the area derived in step 1006 as 1 and the other pixel values as 0 (FIG. 6 ( b6)) is generated and the process is terminated.

ステップ1005で1フレーム前の人物領域画像にも人物が存在すると判断した場合は、ステップ1008において、送信対象領域特定部403は、2フレーム前の人物領域と1フレーム前の人物領域の両方を包含する最小の矩形領域を導出する。   If it is determined in step 1005 that a person is also present in the person area image one frame before, in step 1008, the transmission target area specifying unit 403 includes both the person area two frames before and the person area one frame before. The smallest rectangular area to be derived is derived.

次に、ステップ1009において、送信対象領域特定部403は、1フレーム前の人物領域を包含する最小の矩形領域を導出する。   Next, in step 1009, the transmission target area specifying unit 403 derives a minimum rectangular area including the person area one frame before.

次に、ステップ1010において、送信対象領域特定部403は、ステップ1008で求めた領域からステップ1009で求めた領域を引いた領域を導出する。尚、ステップ1008、ステップ1009、及びステップ1010の処理においてもステップ1006と同様、領域の導出は図7に示すような共有領域311を64個に分割した小領域の単位で行う。   Next, in step 1010, the transmission target area specifying unit 403 derives an area obtained by subtracting the area obtained in step 1009 from the area obtained in step 1008. In the processing of step 1008, step 1009, and step 1010, similarly to step 1006, the derivation of the area is performed in units of small areas obtained by dividing the shared area 311 as shown in FIG.

その後、ステップ1011において、送信対象領域特定部403は、ステップ1010で導出した領域に含まれる座標の画素値を1、他の画素値を0とした送信対象領域画像(図6(b4)等を参照)を生成し、処理を終える。これにより、システムが処理する画像のデータのサイズを小さくすることができるため、システムの負荷が軽減され、画像のデータの通信コストも軽減することが可能となる。したがって、拠点Aの情報入力ボード114の共有領域311に記載された内容を拠点Bの情報入力ボード124の共有領域321に迅速に投影して、記載内容をすばやく共有することが可能となる。   Thereafter, in step 1011, the transmission target area specifying unit 403 displays a transmission target area image (FIG. 6 (b <b> 4)) in which the pixel value of the coordinates included in the area derived in step 1010 is 1 and the other pixel values are 0. Reference) and finish the process. As a result, the size of the image data processed by the system can be reduced, so that the load on the system is reduced and the communication cost of the image data can be reduced. Therefore, the contents described in the sharing area 311 of the information input board 114 at the base A can be quickly projected onto the sharing area 321 of the information input board 124 at the base B, so that the description can be quickly shared.

図11は、本実施例における、拠点Bの情報処理システム120が拠点Aから送信されてきた送信画像と投影画像とを合成した画像を、共有領域321に投影する処理のフローチャートである。本フローチャートで示す手順は、そのプログラムがPC121のROM203、RAM202、外部メモリ(HDDなど)210のいずれかに格納され、CPU201により実行される。   FIG. 11 is a flowchart of processing for projecting an image obtained by combining the transmission image and the projection image transmitted from the site A by the information processing system 120 at the site B onto the shared area 321 in this embodiment. The procedure shown in this flowchart is executed by the CPU 201 with the program stored in any of the ROM 203, RAM 202, and external memory (HDD, etc.) 210 of the PC 121.

図11に示すステップ1101において、拠点BのPC121の通信部405は、図9に示すステップ922で拠点AのPC111の通信部405から送信された送信画像及びフレームIDを受信する。   In step 1101 shown in FIG. 11, the communication unit 405 of the PC 121 at the site B receives the transmission image and the frame ID transmitted from the communication unit 405 of the PC 111 at the site A in step 922 shown in FIG. 9.

拠点BのPC121の通信部405が送信画像及びフレームIDを受信した場合は、ステップ1102において、PC121の投影処理部407は、外部メモリ210等に格納されている投影画像を取得する。この投影画像は、PC121の投影処理部407がステップ1104で外部メモリ210等に格納されている投影画像とする。また、この投影画像は、受信したフレームIDに最も近いフレームIDに紐付けられた投影画像であって、最新の投影画像とする。   When the communication unit 405 of the PC 121 at the site B receives the transmission image and the frame ID, the projection processing unit 407 of the PC 121 acquires a projection image stored in the external memory 210 or the like in step 1102. This projection image is the projection image stored in the external memory 210 or the like in step 1104 by the projection processing unit 407 of the PC 121. Further, this projection image is a projection image associated with the frame ID closest to the received frame ID, and is the latest projection image.

ステップ1103においてPC121の合成部406は、ステップ1102で外部メモリ210等から取得された投影画像と、ステップ1101でPC121の通信部405から取得した送信画像とを合成する。当該合成する事で、投影画像(図6(g4)等を参照)を生成する。   In step 1103, the combining unit 406 of the PC 121 combines the projection image acquired from the external memory 210 or the like in step 1102 and the transmission image acquired from the communication unit 405 of the PC 121 in step 1101. By the synthesis, a projection image (see FIG. 6 (g4) and the like) is generated.

その後、ステップ1104において、PC121の投影処理部407は、ステップ1103で合成部406が合成した投影画像を受信したフレームIDに紐付けて外部メモリ210等に格納する。   Thereafter, in step 1104, the projection processing unit 407 of the PC 121 stores the projection image synthesized by the synthesis unit 406 in step 1103 in the external memory 210 or the like in association with the received frame ID.

ステップ1105において、その後、PC121の投影処理部407は、プロジェクタ122へ、ステップ1103で合成部406が合成した投影画像を情報入力ボード124の共有領域321に投影するよう指示を出し、処理を終える(図6(h4)等を参照)。   In step 1105, the projection processing unit 407 of the PC 121 thereafter instructs the projector 122 to project the projection image synthesized by the synthesis unit 406 in step 1103 onto the shared area 321 of the information input board 124, and the process ends ( (See FIG. 6 (h4) and the like).

通常、情報入力ボードの盤面に記載するためには、ユーザはマーカペンを持ち、自分の腕を動かすことによって、情報入力ボードの盤面に文字図形等を書き込んでいく。つまり、人物であるユーザの腕が通過した領域が、文字図形等が書き込まれた可能性が高い領域と推定することができる。本実施例により、人物が通過した領域を、送信すべき領域として特定し、当該特定された領域を他拠点に送信することで、情報入力ボードの盤面に記載された内容を含む可能性が高い画像を他拠点の情報入力ボードの盤面に投影することが可能となる。また、本実施例により、情報入力ボードの盤面に記載するユーザの腕等が、他拠点の情報入力ボードの盤面に極力投影されないようにすることが可能となる。   Usually, in order to write on the surface of the information input board, the user holds a marker pen and moves his / her arm to write a character figure or the like on the surface of the information input board. That is, it can be estimated that the area through which the user's arm as a person passes has a high possibility of writing a character graphic or the like. According to the present embodiment, an area through which a person has passed is specified as an area to be transmitted, and the specified area is transmitted to another base, so that there is a high possibility that the contents described on the board of the information input board are included. An image can be projected on the surface of an information input board at another site. Further, according to the present embodiment, it is possible to prevent the user's arm or the like described on the board of the information input board from being projected as much as possible on the board of the information input board at another base.

尚、本実施例にかかる図6で示す具体例では、ユーザの腕を左上から右下に移動させて書き込みが行われているが、ユーザの腕を右下から左上に移動させて書き込みが行われた場合でも、本実施例による効果は、実現可能である。この場合、例えば、ユーザ351の腕601を、文字列501の「ABCDEF」の「F」の付近から、文字列501の「あいう」の「あ」の付近まで移動させて、線分505が書き込まれる。線分505が書き込まれる際、線分505がユーザ351の腕601によって隠れる場合には、上述したステップ920の処理において、送信画像生成部404は送信画像を生成せず、送信処理は保留となる。そして、線分505からユーザ351の腕601が離れると、送信処理が行なわれる。これによって、他拠点に送信する画像の情報を、ユーザ351の腕601が通過した領域に限定することが可能となるため、本実施例による効果と同様の効果を得ることが可能となる。   In the specific example shown in FIG. 6 according to the present embodiment, writing is performed by moving the user's arm from the upper left to the lower right, but writing is performed by moving the user's arm from the lower right to the upper left. Even in such a case, the effect of the present embodiment can be realized. In this case, for example, the line 505 is written by moving the arm 601 of the user 351 from the vicinity of “A” in “ABCDEF” of the character string 501 to the vicinity of “A” in “A” of the character string 501. It is. If the line segment 505 is hidden by the arm 601 of the user 351 when the line segment 505 is written, the transmission image generation unit 404 does not generate a transmission image in the process of step 920 described above, and the transmission process is suspended. . When the arm 601 of the user 351 is separated from the line segment 505, transmission processing is performed. As a result, it is possible to limit the information of the image transmitted to the other base to the area through which the arm 601 of the user 351 has passed, so that it is possible to obtain the same effect as the effect of the present embodiment.

<実施例1の効果>
以上説明したように、本実施例によれば、自拠点で情報入力ボードの盤面の記載内容を更新した際、更新された領域だけに限定して画像を処理し、他拠点への送信を行う事ができる。
<Effect of Example 1>
As described above, according to the present embodiment, when the description content of the board of the information input board is updated at the local site, the image is processed only in the updated area and transmitted to other sites. I can do things.

本実施例によれば、情報入力ボードの盤面へ投影している投影画像の一部分を均一の色に切り替え、且つ、情報入力ボード上の記載が更新されている可能性の高い領域に限定する。したがって、情報入力ボードの記載内容が重なり合うなどの視覚エコーのような問題を生じさせることを抑止できる。また、情報入力ボードの盤面へ投影している投影画像の一部分を均一の色に切り替えた後、短時間で投影していた投影画像に戻し、且つ、均一の色に切替える領域を可能な限り小さくすることで、ユーザから一時的に見えなくなる投影内容を可能な限り少なくできる。   According to the present embodiment, a part of the projected image projected onto the board surface of the information input board is switched to a uniform color and limited to an area where the description on the information input board is likely to be updated. Therefore, it is possible to suppress the occurrence of problems such as visual echo such as overlapping description contents of the information input board. In addition, after switching a part of the projected image projected onto the board of the information input board to a uniform color, the projected image is returned to the projected image in a short time, and the area to be switched to the uniform color is made as small as possible. By doing so, it is possible to reduce the amount of projection that is temporarily invisible to the user as much as possible.

また、本実施例によれば、投影画像に特別な画像処理を施す領域だけでなく、撮像画像の中で画像解析の対象とする領域も、できるだけサイズを小さくして、情報入力ボードの盤面の記載内容を更新する可能性が高い領域に限定することができる。よって、画像の処理範囲を限定する事ができ、情報共有システムの処理負荷を軽減することが可能となる。   Further, according to the present embodiment, not only the area where the projection image is subjected to special image processing but also the area which is the target of image analysis in the captured image is made as small as possible so that the board surface of the information input board This can be limited to an area where there is a high possibility of updating the description. Therefore, the image processing range can be limited, and the processing load on the information sharing system can be reduced.

さらに、本実施例によれば、拠点間で情報入力ボードの盤面の表示を共有させるために送受信する画像のデータについて、情報入力ボードの盤面の記載内容の更新の可能性が高い領域に限定することができる。よって、他拠点に送信する画像のデータのサイズを小さくでき、情報共有システムの通信コストを軽減することが可能となる。   Furthermore, according to the present embodiment, the image data transmitted and received to share the display of the information input board surface between the bases is limited to an area where there is a high possibility of updating the description content of the information input board surface. be able to. Therefore, it is possible to reduce the size of image data to be transmitted to another site, and to reduce the communication cost of the information sharing system.

以上のように、本実施例によれば、情報共有システムが処理する内容を、情報入力ボードの盤面の記載内容が更新された領域に限定することが可能となり、情報共有システムの処理負荷、記憶容量、通信速度等の観点から有益となる。また、情報共有システムの性能向上やコストダウンにつながることが期待できる。   As described above, according to the present embodiment, it is possible to limit the contents to be processed by the information sharing system to the area where the description contents on the board of the information input board are updated. This is useful from the viewpoint of capacity, communication speed, and the like. It can also be expected to lead to improved performance and cost reduction of the information sharing system.

なお、本実施例では、各種画像やフレームID、リストなどが外部メモリ210に格納されるとしているが、勿論、外部メモリ210のほか、ROM203、RAM202などの記憶領域に記憶されてもよい。   In the present embodiment, various images, frame IDs, lists, and the like are stored in the external memory 210, but of course, in addition to the external memory 210, they may be stored in storage areas such as the ROM 203 and the RAM 202.

また、本実施例では、送信対象領域内に人物が含まれる場合、送信画像を送信しないとしているが(ステップ920でYes)、送信対象領域から現フレームの人物領域を引いて得た領域を使用して、送信画像を生成しても良い。この際、現フレームの人物領域の部分は記載内容が人物によって隠れてしまって撮像されていないため、次のフレームで、現フレームの人物領域を含めて送信対象領域を特定するようにしても良い。   In this embodiment, when a person is included in the transmission target area, the transmission image is not transmitted (Yes in step 920), but the area obtained by subtracting the person area of the current frame from the transmission target area is used. Then, a transmission image may be generated. At this time, the portion of the person area of the current frame is not captured because the description is hidden by the person, and therefore the transmission target area including the person area of the current frame may be specified in the next frame. .

実施例1では他拠点での投影時に視覚エコーの発生を抑える為に、自拠点の情報入力ボードに投影された投影画像のうち、送信対象領域に相当する部分の画素値を所定の画素値に置き替える処理(実施例1のステップ907〜ステップ913を参照)を説明した。実施例2では、送信対象領域に相当する部分の画素値を所定の画素値に置き替えずに、視覚エコーの発生を抑えつつ、自拠点の情報入力ボードに書き込まれた情報を他拠点と共有する方法を説明する。尚、本実施例におけるシステム構成と、受信側の拠点の情報入力ボードへの投影処理は実施例1と同一とする。   In the first embodiment, in order to suppress the occurrence of visual echoes at the time of projection at another site, the pixel value of the portion corresponding to the transmission target area in the projection image projected on the information input board at the own site is set to a predetermined pixel value. The replacement process (see step 907 to step 913 of the first embodiment) has been described. In the second embodiment, the pixel value corresponding to the transmission target area is not replaced with a predetermined pixel value, and the information written on the information input board at the local site is shared with other sites while suppressing the occurrence of visual echo. How to do it. The system configuration in this embodiment and the projection processing on the information input board at the base on the receiving side are the same as those in the first embodiment.

<本実施例のソフトウェア構成>
PC111のソフトウェア構成について説明する。ここでも、説明の便宜上、自拠点である拠点A側のPC111について説明することとするが、拠点B側のPC121も同様である。
<Software configuration of the present embodiment>
The software configuration of the PC 111 will be described. Here, for convenience of explanation, the PC 111 on the site A side, which is its own site, will be described, but the same applies to the PC 121 on the site B side.

図12は、本実施例に係る、PC111のソフトウェア構成を示す機能ブロック図である。PC111は、撮像処理部401、人物領域導出部402、送信対象領域特定部403、送信画像生成部404、通信部405、合成部406、投影処理部407、背景画像生成部1201の各機能部を有する。   FIG. 12 is a functional block diagram illustrating the software configuration of the PC 111 according to the present embodiment. The PC 111 includes functional units such as an imaging processing unit 401, a person region deriving unit 402, a transmission target region specifying unit 403, a transmission image generating unit 404, a communication unit 405, a combining unit 406, a projection processing unit 407, and a background image generating unit 1201. Have.

送信画像生成部404は、撮像処理部401で撮像された画像から送信対象領域に相当する部分を抽出して画像を生成し、及び背景画像から送信対象領域に相当する部分を抽出して画像を生成する。背景画像は、人物領域を含まない画像であって、拠点Bの情報処理システム120に送信する送信画像を生成するために使用される画像である。送信画像生成部404は、それぞれ抽出した画像の画像差分を取って送信画像を生成する。   The transmission image generation unit 404 generates an image by extracting a part corresponding to the transmission target area from the image captured by the imaging processing unit 401, and extracts a part corresponding to the transmission target area from the background image. Generate. The background image is an image that does not include a person area and is used to generate a transmission image to be transmitted to the information processing system 120 at the base B. The transmission image generation unit 404 generates a transmission image by taking an image difference between the extracted images.

背景画像生成部1201は、人物領域画像中に人物領域が含まれていない場合、撮像画像を背景画像として外部メモリ210等に格納する。   When the person area image does not include the person area, the background image generation unit 1201 stores the captured image as a background image in the external memory 210 or the like.

他の各機能部については、実施例1と同様の機能であるため、説明を省略する。   Since the other functional units have the same functions as those in the first embodiment, the description thereof is omitted.

<実施例2の概要>
本実施例における情報処理システムの動作の概要について、具体例を用いて説明する。尚、この具体例で想定する情報入力ボードの盤面の記載状態は、実施例1のものと同じとする。
<Overview of Example 2>
An outline of the operation of the information processing system in the present embodiment will be described using a specific example. The state of the information input board assumed in this specific example is the same as that in the first embodiment.

図13は、この想定における拠点Aの共有領域311及び拠点Bの共有領域321の状態の推移と、それぞれの時点での送信画像の生成や各種画像の入出力の様子の一覧を示す図である。この想定における拠点Aの共有領域311の状態の推移は図13(a1)〜図13(a5)に示す通りである。図13(a1)〜図13(a5)は、実施例1における図6(a1)〜図6(a5)にそれぞれ対応する。   FIG. 13 is a diagram showing a state transition of the shared area 311 of the base A and the shared area 321 of the base B in this assumption, and a list of the state of generation of transmission images and input / output of various images at each time point. . The transition of the state of the shared area 311 of the base A in this assumption is as shown in FIGS. 13 (a1) to 13 (a5). FIGS. 13 (a1) to 13 (a5) correspond to FIGS. 6 (a1) to 6 (a5) in the first embodiment, respectively.

本実施例では、実施例1とは異なり、未送信の送信対象領域画像リストを使用しない。その代わり、他拠点へ送信画像を送信するか否かの判定を、実施例1とは異なる方法で行う。それは、送信対象領域画像中に送信対象領域が存在するか否かを判定して、判定結果に基づいて他拠点への送信処理の内容を決定する方法である。具体的には、送信対象領域画像中に送信対象領域が存在する場合、送信画像を作成し、作成した送信画像を他拠点へ送信する。また、送信対象領域画像中に送信対象領域が存在しない場合、送信画像を作成せず他拠点への送信処理も行わない。   In the present embodiment, unlike the first embodiment, an untransmitted transmission target area image list is not used. Instead, whether or not to transmit the transmission image to another base is determined by a method different from that in the first embodiment. This is a method of determining whether or not a transmission target area exists in the transmission target area image and determining the content of transmission processing to another base based on the determination result. Specifically, when a transmission target area exists in the transmission target area image, a transmission image is created and the created transmission image is transmitted to another base. In addition, when the transmission target area does not exist in the transmission target area image, the transmission image is not created and the transmission process to another base is not performed.

尚、時刻t1よりも前の状態では共有領域311の前にはユーザ351の腕等の人物は無かったものとする。また、各時刻の間隔はシステムが図14に示したフローを実行する間隔の時間と等しいものとする。   Note that it is assumed that there is no person such as the arm of the user 351 in front of the shared area 311 in a state before the time t1. Also, the time interval is assumed to be equal to the time interval at which the system executes the flow shown in FIG.

尚、時刻t1〜t5は、拠点Aの情報入力ボードの共有領域を撮像した時刻を指す。また、撮像時刻t1〜t6に対応するフレームIDについて、時刻t1に対応するものをフレームID5223、時刻t2に対応するものをフレームID5224、時刻t3に対応するものをフレームID5225とする。また、時刻t4に対応するものをフレームID5226、時刻t5に対応するものをフレームID5227とする。   Times t1 to t5 indicate times when the shared area of the information input board at the base A is imaged. Also, regarding the frame IDs corresponding to the imaging times t1 to t6, the frame ID 5223 corresponds to the time t1, the frame ID 5224 corresponds to the time t2, and the frame ID 5225 corresponds to the time t3. Also, a frame ID 5226 corresponds to time t4, and a frame ID 5227 corresponds to time t5.

先ず時刻t1において、拠点AのPC111の撮像処理部401は、撮像画像として図13(b1)に示す画像を取得する。次に、撮像処理部401は、取得した画像(図13(b1))を時刻t1における撮像画像として、フレームID5223と紐付けて外部メモリ210等に格納する。その後、人物領域導出部402は、1フレーム前の撮像画像を外部メモリ210等から取得する。時刻t1よりも前の状態では共有領域311の前にはユーザ351の腕等の人物は無かったという想定である為、この時点で取得される1フレーム前の撮像画像は図13(b1)に示す画像と同様である。   First, at time t1, the imaging processing unit 401 of the PC 111 at the site A acquires an image shown in FIG. 13B1 as a captured image. Next, the imaging processing unit 401 associates the acquired image (FIG. 13 (b1)) with the frame ID 5223 as a captured image at time t1, and stores the image in the external memory 210 or the like. Thereafter, the person area deriving unit 402 acquires the captured image of the previous frame from the external memory 210 or the like. Since it is assumed that there is no person such as the arm of the user 351 in front of the shared area 311 in the state before the time t1, the captured image one frame before acquired at this time is shown in FIG. 13 (b1). It is the same as the image shown.

その後、人物領域導出部402が人物領域の導出を行うが、時刻t1及び時刻t1よりも前の状態では撮像画像中に人物は無い。よって、人物領域導出部402を生成する時刻t1における人物領域画像は、図13(c1)に示すように画素値が全て0になる。その後、人物領域導出部402は、生成した人物領域画像(図13(c1))を外部メモリ210等に格納する。   Thereafter, the person area deriving unit 402 derives the person area, but there is no person in the captured image in the state before the time t1 and the time t1. Therefore, the person area image at the time t1 when the person area deriving unit 402 is generated has all pixel values 0 as shown in FIG. 13 (c1). Thereafter, the person area deriving unit 402 stores the generated person area image (FIG. 13C1) in the external memory 210 or the like.

その後、送信対象領域特定部403は、送信対象領域画像の生成を行う。時刻t1よりも前の状態では共有領域311の前にはユーザ351の腕等の人物は無かったという想定の為、1フレーム前の人物領域画像にも現フレームの人物領域画像(図13(c1))にも人物領域は存在しない。よって、送信対象領域特定部403は、図13(d1)に示すような画素値が全て0の送信対象領域画像を生成する。図13において、送信対象領域画像及び人物領域画像は、画素値が1の画素を黒、画素が0の画素を白として表現する。送信対象領域画像(図13(d1))の画素値が全て0である為、拠点Bへ画像が送信されず、拠点Bの情報入力ボード124の共有領域321には、投影画像(図5(a))が投影されたままとなる。投影画像(図5(a))が共有領域321に投影された状態を図13(h1)に示す。   Thereafter, the transmission target area specifying unit 403 generates a transmission target area image. Since it is assumed that there is no person such as the arm of the user 351 in front of the shared area 311 before the time t1, the person area image of the current frame is also displayed in the person area image one frame before (FIG. 13 (c1 )) Also has no person area. Therefore, the transmission target area specifying unit 403 generates a transmission target area image whose pixel values are all 0 as shown in FIG. In FIG. 13, the transmission target area image and the person area image represent a pixel having a pixel value of 1 as black and a pixel having a pixel value of 0 as white. Since all the pixel values of the transmission target area image (FIG. 13 (d1)) are 0, the image is not transmitted to the base B, and the projection image (FIG. a)) remains projected. FIG. 13H1 shows a state in which the projected image (FIG. 5A) is projected onto the shared area 321.

背景画像生成部1201は、外部メモリ210等に格納された撮像画像(図13(b1))を背景画像(図13(e1))として外部メモリ210等に格納して処理を終える。背景画像生成部1201は、撮像画像(図13(b1))に紐付けられたフレームID5223を、背景画像(図13(e1))に紐付けて、外部メモリ210等に格納する。以下、背景画像ついては、説明の便宜上、異なるフレームIDごとに図13(e2)〜図13(e5)で示すが、それぞれ、図13(e1)に示す背景画像と変わりがない。   The background image generation unit 1201 stores the captured image (FIG. 13 (b1)) stored in the external memory 210 or the like as the background image (FIG. 13 (e1)) in the external memory 210 or the like and ends the process. The background image generation unit 1201 associates the frame ID 5223 associated with the captured image (FIG. 13 (b1)) with the background image (FIG. 13 (e1)) and stores the frame ID 5223 in the external memory 210 or the like. Hereinafter, for convenience of explanation, the background image is shown in FIGS. 13 (e2) to 13 (e5) for each different frame ID, but the background image is not different from the background image shown in FIG. 13 (e1).

次に時刻t2において、拠点AのPC111の撮像処理部401は、撮像画像として図13(b2)に示す画像を取得する。次に、撮像処理部401は、取得した画像(図13(b2))を時刻t2における撮像画像として、フレームID5224と紐付けて外部メモリ210等に格納する。その後、人物領域導出部402は、フレームID5223と紐付けられて格納された1フレーム前の撮像画像(図13(b1))を外部メモリ210等から取得する。   Next, at time t2, the imaging processing unit 401 of the PC 111 at the site A acquires the image shown in FIG. 13B2 as a captured image. Next, the imaging processing unit 401 stores the acquired image (FIG. 13B2) as a captured image at time t2 in association with the frame ID 5224 in the external memory 210 or the like. After that, the person area deriving unit 402 acquires the captured image of the previous frame stored in association with the frame ID 5223 (FIG. 13B1) from the external memory 210 or the like.

その後、人物領域導出部402は、人物領域の導出を行う。人物領域導出部402は、この時点での1フレーム前の撮像画像(図13(b1))や撮像処理部401が取得した撮像画像(図13(b2))に基づいて、図13(c2)に示す領域602が人物領域であると判断する。そして、人物領域導出部402は、図13(c2)に示す人物領域画像をフレームID5224と紐付けて外部メモリ210等に格納する。   Thereafter, the person area deriving unit 402 derives a person area. The person area deriving unit 402 based on the captured image one frame before at this time (FIG. 13B1) and the captured image acquired by the imaging processing unit 401 (FIG. 13B2), FIG. 13C2. It is determined that the area 602 shown in FIG. Then, the person area deriving unit 402 associates the person area image shown in FIG. 13C2 with the frame ID 5224 and stores it in the external memory 210 or the like.

その後、送信対象領域特定部403は、送信対象領域画像の生成を行う。送信対象領域特定部403は、図13(d2)に示すような画素値が全て0の送信対象領域画像を生成する。送信対象領域画像(図13(d2))中に送信対象領域が存在しない為、拠点Bへ画像が送信されず、拠点Bの情報入力ボード124の共有領域321には、投影画像(図5(a))が投影されたままとなる。投影画像(図5(a))が共有領域321に投影された状態を図13(h2)に示す。   Thereafter, the transmission target area specifying unit 403 generates a transmission target area image. The transmission target area specifying unit 403 generates a transmission target area image whose pixel values are all 0 as shown in FIG. Since there is no transmission target area in the transmission target area image (FIG. 13 (d2)), the image is not transmitted to the base B, and the projection image (FIG. a)) remains projected. FIG. 13 (h2) shows a state where the projection image (FIG. 5 (a)) is projected onto the shared area 321. FIG.

また、人物領域導出部402が生成した人物領域画像(図13(c2))中に人物領域が存在する為、背景画像を生成せずに処理を終える。したがって、外部メモリ210等には、1フレーム前の背景画像(図13(e1))と同じ内容の背景画像(図13(e2))が格納されたままとなっている。   Further, since the person area exists in the person area image (FIG. 13 (c2)) generated by the person area deriving unit 402, the process ends without generating the background image. Therefore, the background image (FIG. 13 (e2)) having the same content as the background image (FIG. 13 (e1)) of the previous frame is still stored in the external memory 210 or the like.

次に時刻t3において、拠点AのPC111の撮像処理部401は、撮像画像として図13(b3)に示す画像を取得する。次に、撮像処理部401は、取得した画像(図13(b3))を時刻t3における撮像画像として、フレームID5225と紐付けて外部メモリ210等に格納する。その後、人物領域導出部402は、フレームID5224と紐付けられて格納された1フレーム前の撮像画像(図13(b2))を外部メモリ210等から取得する。   Next, at time t3, the imaging processing unit 401 of the PC 111 at the site A acquires an image shown in FIG. 13B3 as a captured image. Next, the imaging processing unit 401 associates the acquired image (FIG. 13 (b3)) with the frame ID 5225 as a captured image at time t3 and stores it in the external memory 210 or the like. Thereafter, the person area deriving unit 402 acquires the captured image (FIG. 13B2) of the previous frame stored in association with the frame ID 5224 from the external memory 210 or the like.

その後、人物領域導出部402は、人物領域の導出を行う。人物領域導出部402は、この時点での1フレーム前の撮像画像(図13(b2))や撮像処理部401が取得した撮像画像(図13(b3))に基づいて、図13(c3)に示す領域603が人物領域であると判断する。そして、人物領域導出部402は、図13(c3)に示す人物領域画像をフレームID5225と紐付けて外部メモリ210等に格納する。   Thereafter, the person area deriving unit 402 derives a person area. The person area deriving unit 402 based on the captured image one frame before at this time (FIG. 13B2) and the captured image acquired by the imaging processing unit 401 (FIG. 13B3), FIG. 13C3. It is determined that the area 603 shown in FIG. The person area deriving unit 402 associates the person area image shown in FIG. 13C3 with the frame ID 5225 and stores the person area image in the external memory 210 or the like.

その後、送信対象領域特定部403は、送信対象領域画像の生成を行う。送信対象領域特定部403は、1フレーム前の人物領域602と現フレームの人物領域603の両方を包含する最小の矩形領域を導出する。この様子を図8(a)に示す。   Thereafter, the transmission target area specifying unit 403 generates a transmission target area image. The transmission target area specifying unit 403 derives a minimum rectangular area that includes both the person area 602 one frame before and the person area 603 of the current frame. This is shown in FIG.

図8(a)において、1フレーム前の人物領域画像(図13(c2))に含まれる人物領域602と現フレームの人物領域画像(図13(c3))に含まれる人物領域603を含む最小の矩形領域は801で示す領域である為、領域801が導出される領域になる。   In FIG. 8A, the minimum including the person area 602 included in the person area image of the previous frame (FIG. 13C2) and the person area 603 included in the person area image of the current frame (FIG. 13C3). Since the rectangular area is an area indicated by 801, the area 801 is derived.

次に、送信対象領域特定部403は、現フレームの人物領域603を包含する最小の矩形領域を導出する。この様子を図8(b)に示す。   Next, the transmission target area specifying unit 403 derives a minimum rectangular area including the person area 603 of the current frame. This is shown in FIG.

図8(b)において、人物領域603を含む最小の矩形領域は802で示す領域である為、領域802は、送信対象領域特定部403によって導出される領域になる。その後、送信対象領域特定部403は、送信対象領域を特定する。   In FIG. 8B, since the minimum rectangular area including the person area 603 is an area indicated by 802, the area 802 is an area derived by the transmission target area specifying unit 403. Thereafter, the transmission target area specifying unit 403 specifies the transmission target area.

図8(b)において、送信対象領域特定部403は、導出した領域801から、導出した領域802を引いた斜線の領域である領域604が、送信対象領域であると決定する。その後、送信対象領域特定部403は、領域604の画素値を1、他の画素値を0とした送信対象領域画像を生成する(図13(d3)を参照)。   In FIG. 8B, the transmission target area specifying unit 403 determines that a hatched area 604 obtained by subtracting the derived area 802 from the derived area 801 is the transmission target area. Thereafter, the transmission target area specifying unit 403 generates a transmission target area image in which the pixel value of the area 604 is 1 and the other pixel values are 0 (see FIG. 13 (d3)).

送信対象領域画像(図13(d3))中に送信対象領域が存在する為、拠点Bの情報処理システム120への送信処理に移る。   Since there is a transmission target area in the transmission target area image (FIG. 13 (d3)), the process proceeds to the transmission process to the information processing system 120 at the base B.

先ず送信画像生成部404は、撮像された撮像画像(図13(b3))から送信対象領域604を抽出した画像を生成する。次に、送信画像生成部404は、この時点で最新の背景画像(図13(e1))を外部メモリ210等から取得する。そして、送信画像生成部404は、背景画像(図13(e1))から送信対象領域604を抽出した画像を生成する。その後、送信画像生成部404は、2つの抽出した画像の間で画像差分を取り送信画像(図13(f3))を生成する。   First, the transmission image generation unit 404 generates an image obtained by extracting the transmission target area 604 from the captured image (FIG. 13 (b3)). Next, the transmission image generation unit 404 acquires the latest background image (FIG. 13 (e1)) from the external memory 210 or the like at this time. Then, the transmission image generation unit 404 generates an image obtained by extracting the transmission target area 604 from the background image (FIG. 13 (e1)). Thereafter, the transmission image generation unit 404 takes an image difference between the two extracted images and generates a transmission image (FIG. 13 (f3)).

その後、通信部405は、送信画像(図13(f3))及び現在のフレームID5225を拠点Bの通信部427へ送信する。人物領域導出部402が生成した人物領域画像(図13(c3))中に人物領域が存在する為、背景画像を生成せずに処理を終える。したがって、外部メモリ210等には、2フレーム前の背景画像(図13(e1))と同じ内容の背景画像(図13(e3))が格納されたままとなっている。   Thereafter, the communication unit 405 transmits the transmission image (FIG. 13 (f3)) and the current frame ID 5225 to the communication unit 427 at the base B. Since the person area exists in the person area image (FIG. 13 (c3)) generated by the person area deriving unit 402, the process ends without generating a background image. Therefore, the background image (FIG. 13 (e3)) having the same content as the background image (FIG. 13 (e1)) two frames before is still stored in the external memory 210 or the like.

拠点BのPC121の通信部405は、拠点AのPC111の通信部405によって送信された送信画像及びフレームID5225を受信する。拠点BのPC121の投影処理部407は、受信した送信画像を用いて投影処理を行う。先ずPC121の投影処理部407は、投影画像(図5(a))を取得する。次に、PC121の合成部406は、取得した投影画像(図5(a))と受信した送信画像(図13(f3))を合成する。この合成によって生成された投影画像を図13(g3)に示す。その後、PC121の投影処理部407は、生成された投影画像(図13(g3))を受信されたフレームID5225に紐付けて情報処理システム120の外部メモリ210等に格納する。PC121の投影処理部407は、生成された投影画像(図13(g3))を共有領域321に投影する。こうして生成された投影画像(図13(g3))が共有領域321に投影された状態を図13(h3)に示す。図13(h3)では、1フレーム前における図13(h2)に示す共有領域311の表示と比較して、拠点Aの情報入力ボード114の共有領域311に書き込まれた線分505だけが、拠点Bの情報入力ボード124の共有領域321に投影されている。よって、本実施例に係る情報共有システム100は、投影画像のうち送信対象領域に相当する部分の画素値を所定の画素値に置き替える処理を行わずに、実施例1の効果と同様の効果を実現することが可能となる。即ち、本実施例に係る情報共有システム100は、画像を処理する領域及び送信処理を行なう領域を、拠点Aの情報入力ボード114の共有領域311に書き込まれた部分に限定することが可能となる。したがって、視覚エコーの発生を抑えつつ、情報共有システム100が処理する負担が軽減され、当該書き込まれた情報を他拠点と迅速に共有することが可能となる。   The communication unit 405 of the PC 121 at the site B receives the transmission image and the frame ID 5225 transmitted by the communication unit 405 of the PC 111 at the site A. The projection processing unit 407 of the PC 121 at the site B performs projection processing using the received transmission image. First, the projection processing unit 407 of the PC 121 acquires a projection image (FIG. 5A). Next, the synthesis unit 406 of the PC 121 synthesizes the acquired projection image (FIG. 5A) and the received transmission image (FIG. 13F3). A projection image generated by this synthesis is shown in FIG. Thereafter, the projection processing unit 407 of the PC 121 stores the generated projection image (FIG. 13 (g3)) in the external memory 210 of the information processing system 120 in association with the received frame ID 5225. The projection processing unit 407 of the PC 121 projects the generated projection image (FIG. 13 (g3)) onto the shared area 321. FIG. 13 (h3) shows a state where the projection image generated in this way (FIG. 13 (g3)) is projected onto the shared area 321. FIG. In FIG. 13 (h3), only the line segment 505 written in the shared area 311 of the information input board 114 of the base A is compared with the display of the shared area 311 shown in FIG. 13 (h2) one frame before. It is projected onto the shared area 321 of the B information input board 124. Therefore, the information sharing system 100 according to the present embodiment does not perform the process of replacing the pixel value corresponding to the transmission target area in the projection image with a predetermined pixel value, and has the same effect as that of the first embodiment. Can be realized. That is, the information sharing system 100 according to the present embodiment can limit the area for processing an image and the area for performing a transmission process to a portion written in the shared area 311 of the information input board 114 at the base A. . Therefore, the burden of processing by the information sharing system 100 is reduced while suppressing the occurrence of visual echoes, and the written information can be quickly shared with other bases.

次に時刻t4において、拠点AのPC111の撮像処理部401は、撮像画像として図13(b4)に示す画像を取得する。次に、撮像処理部401は、取得した画像(図13(b4))を時刻t4における撮像画像として、フレームID5226と紐付けて外部メモリ210等に格納する。その後、人物領域導出部402は、フレームID5225と紐付けられて格納された1フレーム前の撮像画像(図13(b3))を外部メモリ210等から取得する。   Next, at time t4, the imaging processing unit 401 of the PC 111 at the site A acquires an image illustrated in FIG. 13B4 as a captured image. Next, the imaging processing unit 401 stores the acquired image (FIG. 13B4) as a captured image at time t4 in association with the frame ID 5226 in the external memory 210 or the like. Thereafter, the person area deriving unit 402 acquires the captured image of the previous frame stored in association with the frame ID 5225 (FIG. 13B3) from the external memory 210 or the like.

その後、人物領域導出部402は、人物領域の導出を行う。人物領域導出部402は、この時点での1フレーム前の撮像画像(図13(b3))や撮像処理部401が取得した撮像画像(図13(b4))に基づいて、図13(c4)に示す領域605が人物領域であると判断する。そして、人物領域導出部402は、図13(c4)に示す人物領域画像をフレームID5226と紐付けて外部メモリ210等に格納する。   Thereafter, the person area deriving unit 402 derives a person area. The person area deriving unit 402 is based on the captured image of the previous frame at this time (FIG. 13 (b3)) and the captured image acquired by the imaging processing unit 401 (FIG. 13 (b4)). It is determined that the area 605 shown in FIG. The person area deriving unit 402 associates the person area image shown in FIG. 13C4 with the frame ID 5226 and stores the person area image in the external memory 210 or the like.

その後、送信対象領域特定部403は、送信対象領域画像の生成を行う。送信対象領域特定部403は、1フレーム前の人物領域603と現フレームの人物領域605の両方を包含する最小の矩形領域を導出する。この様子を図8(c)に示す。   Thereafter, the transmission target area specifying unit 403 generates a transmission target area image. The transmission target area specifying unit 403 derives a minimum rectangular area that includes both the person area 603 one frame before and the person area 605 of the current frame. This is shown in FIG.

図8(c)において、1フレーム前の人物領域画像(図13(c3))に含まれる人物領域603と現フレームの人物領域画像(図13(c4))に含まれる人物領域605を含む最小の矩形領域は803で示す領域である為、領域803が導出される領域になる。次に、送信対象領域特定部403は、現フレームの人物領域605を包含する最小の矩形領域を導出する。この様子を図8(d)に示す。   In FIG. 8C, the minimum including the person area 603 included in the person area image of the previous frame (FIG. 13C3) and the person area 605 included in the person area image of the current frame (FIG. 13C4). Since the rectangular area is an area indicated by 803, the area 803 is derived. Next, the transmission target area specifying unit 403 derives a minimum rectangular area including the person area 605 of the current frame. This is shown in FIG.

図8(d)において、人物領域605を含む最小の矩形領域は804で示す領域である為、領域804が送信対象領域特定部403によって導出される領域になる。その後、送信対象領域特定部403は、送信対象領域を特定する。   In FIG. 8D, since the minimum rectangular area including the person area 605 is an area indicated by 804, the area 804 is an area derived by the transmission target area specifying unit 403. Thereafter, the transmission target area specifying unit 403 specifies the transmission target area.

図8(d)において、送信対象領域特定部403は、導出した領域803から、導出した領域804を引いた斜線の領域である領域606が、送信対象領域であると決定する。その後、送信対象領域特定部403は、領域606の画素値を1、他の画素値を0とした送信対象領域画像を生成する(図13(d4)を参照)。   In FIG. 8D, the transmission target area specifying unit 403 determines that a hatched area 606 obtained by subtracting the derived area 804 from the derived area 803 is the transmission target area. Thereafter, the transmission target area specifying unit 403 generates a transmission target area image in which the pixel value of the area 606 is 1 and the other pixel values are 0 (see FIG. 13 (d4)).

送信対象領域画像(図13(d4))中に送信対象領域が存在する為、拠点Bの情報処理システム120への送信処理に移る。   Since there is a transmission target area in the transmission target area image (FIG. 13 (d4)), the process proceeds to the transmission processing to the information processing system 120 at the base B.

まず送信画像生成部404は、撮像された撮像画像(図13(b4))から送信対象領域606に相当する部分を抽出した画像を生成する。次に、送信画像生成部404は、この時点で最新の背景画像(図13(e1))を外部メモリ210等から取得する。そして、送信画像生成部404は、背景画像(図13(e1))から送信対象領域606に相当する部分を抽出した画像を生成する。その後、送信画像生成部404は、2つの抽出した画像の間で画像差分を取り送信画像(図13(f4))を生成する。   First, the transmission image generation unit 404 generates an image obtained by extracting a portion corresponding to the transmission target area 606 from the captured image (FIG. 13 (b4)). Next, the transmission image generation unit 404 acquires the latest background image (FIG. 13 (e1)) from the external memory 210 or the like at this time. Then, the transmission image generation unit 404 generates an image obtained by extracting a portion corresponding to the transmission target area 606 from the background image (FIG. 13 (e1)). Thereafter, the transmission image generation unit 404 takes an image difference between the two extracted images and generates a transmission image (FIG. 13 (f4)).

その後、通信部405は、送信画像(図13(f4))及び現在のフレームID5226を拠点Bの通信部427へ送信する。人物領域導出部402が生成した人物領域画像(図13(c4))中に人物領域が存在する為、背景画像を生成せずに処理を終える。したがって、外部メモリ210等には、3フレーム前の背景画像(図13(e1))と同じ内容の背景画像(図13(e4))が格納されたままとなっている。   Thereafter, the communication unit 405 transmits the transmission image (FIG. 13 (f4)) and the current frame ID 5226 to the communication unit 427 at the site B. Since the person area exists in the person area image (FIG. 13 (c4)) generated by the person area deriving unit 402, the process is terminated without generating the background image. Therefore, the background image (FIG. 13 (e4)) having the same content as the background image three frames before (FIG. 13 (e1)) remains stored in the external memory 210 or the like.

拠点BのPC121の通信部405は、拠点AのPC111の通信部405によって送信された送信画像及びフレームID5226を受信する。拠点BのPC121の投影処理部407は、受信した送信画像を用いて投影処理を行う。先ずPC121の投影処理部407は、受信されたフレームID5226の1つ前のフレームID5225に紐付けられた投影画像(図13(g3))を取得する。次に、PC121の合成部406は、取得した投影画像(図13(g3))と受信した送信画像(図13(f4))を合成する。この合成によって生成された投影画像を図13(g4)に示す。その後、PC121の投影処理部407は、生成された投影画像(図13(g4))をフレームID5226に紐付けて情報処理システム120の外部メモリ210等に格納する。PC121の投影処理部407は、生成された投影画像(図13(g4))を共有領域321に投影する。こうして生成された投影画像(図13(g4))が共有領域321に投影された状態を図13(h4)に示す。   The communication unit 405 of the PC 121 at the site B receives the transmission image and the frame ID 5226 transmitted by the communication unit 405 of the PC 111 at the site A. The projection processing unit 407 of the PC 121 at the site B performs projection processing using the received transmission image. First, the projection processing unit 407 of the PC 121 obtains a projection image (FIG. 13 (g3)) linked to the frame ID 5225 immediately preceding the received frame ID 5226. Next, the combining unit 406 of the PC 121 combines the acquired projection image (FIG. 13 (g3)) and the received transmission image (FIG. 13 (f4)). A projected image generated by this synthesis is shown in FIG. 13 (g4). Thereafter, the projection processing unit 407 of the PC 121 associates the generated projection image (FIG. 13 (g4)) with the frame ID 5226, and stores it in the external memory 210 of the information processing system 120 or the like. The projection processing unit 407 of the PC 121 projects the generated projection image (FIG. 13 (g4)) onto the shared area 321. FIG. 13H4 shows a state where the projection image generated in this way (FIG. 13G4) is projected onto the shared area 321. FIG.

次に時刻t5において、拠点AのPC111の撮像処理部401は、撮像画像として図13(b5)に示す画像を取得する。次に、撮像処理部401は、取得した画像(図13(b5))を時刻t5における撮像画像として、フレームID5227と紐付けて外部メモリ210等に格納する。その後、人物領域導出部402は、フレームID5226と紐付けられて格納された1フレーム前の撮像画像(図13(b4))を外部メモリ210等から取得する。   Next, at time t5, the imaging processing unit 401 of the PC 111 at the site A acquires an image shown in FIG. 13B5 as a captured image. Next, the imaging processing unit 401 associates the acquired image (FIG. 13 (b5)) with the frame ID 5227 as a captured image at time t5 and stores it in the external memory 210 or the like. Thereafter, the person area deriving unit 402 acquires the captured image of the previous frame stored in association with the frame ID 5226 (FIG. 13B4) from the external memory 210 or the like.

その後、人物領域導出部402は、人物領域の導出を行う。人物領域導出部402は、この時点での1フレーム前の撮像画像(図13(b4))や撮像処理部401が取得した撮像画像(図13(b5))に基づいて、人物は存在しないと判断する。そして、人物領域導出部402は、図13(c5)に示す人物領域画像をフレームID5227と紐付けて外部メモリ210等に格納する。   Thereafter, the person area deriving unit 402 derives a person area. The person area deriving unit 402 determines that there is no person based on the captured image of the previous frame at this time (FIG. 13B4) or the captured image acquired by the imaging processing unit 401 (FIG. 13B5). to decide. The person area deriving unit 402 associates the person area image shown in FIG. 13C5 with the frame ID 5227 and stores the person area image in the external memory 210 or the like.

その後、送信対象領域特定部403は、送信対象領域画像の生成を行う。送信対象領域特定部403は、1フレーム前の人物領域605を包含する最小の矩形領域を導出する。この様子を図8(e)に示す。   Thereafter, the transmission target area specifying unit 403 generates a transmission target area image. The transmission target area specifying unit 403 derives a minimum rectangular area including the person area 605 one frame before. This is shown in FIG.

図8(e)において、1フレーム前の人物領域画像(図13(c4))に含まれる人物領域605を含む最小の矩形領域は、607で示す斜線の領域である為、領域607が導出される領域になる。その後、送信対象領域特定部403は、領域607の画素値を1、他の画素値を0とした送信対象領域画像を生成する(図13(d5)を参照)。   In FIG. 8E, the smallest rectangular area including the person area 605 included in the person area image one frame before (FIG. 13C4) is a hatched area indicated by 607, and therefore the area 607 is derived. Become an area. Thereafter, the transmission target area specifying unit 403 generates a transmission target area image in which the pixel value of the area 607 is 1 and the other pixel values are 0 (see FIG. 13 (d5)).

送信対象領域画像(図13(d5))中に送信対象領域が存在する為、拠点Bの情報処理システム120への送信処理に移る。   Since there is a transmission target area in the transmission target area image (FIG. 13 (d5)), the process proceeds to the transmission processing to the information processing system 120 at the base B.

まず送信画像生成部404は、撮像された撮像画像(図13(b5))から送信対象領域607に相当する部分を抽出した画像を生成する。次に、送信画像生成部404は、この時点で最新の背景画像(図13(e1))を外部メモリ210等から取得する。そして、送信画像生成部404は、背景画像(図13(e1))から送信対象領域607に相当する部分を抽出した画像を生成する。その後、送信画像生成部404は、2つの抽出した画像の間で画像差分を取り送信画像(図13(f5))を生成する。   First, the transmission image generation unit 404 generates an image obtained by extracting a portion corresponding to the transmission target area 607 from the captured image (FIG. 13 (b5)). Next, the transmission image generation unit 404 acquires the latest background image (FIG. 13 (e1)) from the external memory 210 or the like at this time. Then, the transmission image generation unit 404 generates an image obtained by extracting a portion corresponding to the transmission target area 607 from the background image (FIG. 13 (e1)). Thereafter, the transmission image generation unit 404 takes an image difference between the two extracted images and generates a transmission image (FIG. 13 (f5)).

その後、通信部405は、送信画像(図13(f5))及び現在のフレームID5227を拠点Bの通信部427へ送信する。人物領域導出部402が生成した人物領域画像(図13(c5))中に人物領域が存在する為、背景画像を生成せずに処理を終える。したがって、外部メモリ210等には、4フレーム前の背景画像(図13(e1))と同じ内容の背景画像(図13(e5))が格納されたままとなっている。   Thereafter, the communication unit 405 transmits the transmission image (FIG. 13 (f5)) and the current frame ID 5227 to the communication unit 427 at the site B. Since the person area exists in the person area image (FIG. 13 (c5)) generated by the person area deriving unit 402, the process is terminated without generating the background image. Therefore, the background image (FIG. 13 (e5)) having the same content as the background image (FIG. 13 (e1)) four frames before is still stored in the external memory 210 or the like.

拠点BのPC121の通信部405は、拠点AのPC111の通信部405によって送信された送信画像及びフレームID5227を受信する。拠点BのPC121の投影処理部407は、受信した送信画像を用いて投影処理を行う。先ずPC121の投影処理部407は、受信されたフレームID5227の1つ前のフレームID5226に紐付けられた投影画像(図13(g4))を取得する。次に、PC121の合成部406は、取得した投影画像(図13(g4))と受信した送信画像(図13(f5))を合成する。この合成によって生成された投影画像を図13(g5)に示す。その後、PC121の投影処理部407は、生成された投影画像(図13(g5))をフレームID5227に紐付けて情報処理システム120の外部メモリ210等に格納する。PC121の投影処理部407は、生成された投影画像(図13(g5))を共有領域321に投影する。こうして生成された投影画像(図13(g5))が共有領域321に投影された状態を図13(h5)に示す。   The communication unit 405 of the PC 121 at the site B receives the transmission image and the frame ID 5227 transmitted by the communication unit 405 of the PC 111 at the site A. The projection processing unit 407 of the PC 121 at the site B performs projection processing using the received transmission image. First, the projection processing unit 407 of the PC 121 obtains a projection image (FIG. 13 (g4)) associated with the frame ID 5226 that is immediately before the received frame ID 5227. Next, the composition unit 406 of the PC 121 synthesizes the acquired projection image (FIG. 13 (g4)) and the received transmission image (FIG. 13 (f5)). A projection image generated by this synthesis is shown in FIG. After that, the projection processing unit 407 of the PC 121 associates the generated projection image (FIG. 13 (g5)) with the frame ID 5227 and stores it in the external memory 210 of the information processing system 120 or the like. The projection processing unit 407 of the PC 121 projects the generated projection image (FIG. 13 (g5)) onto the shared area 321. FIG. 13 (h5) shows a state in which the projection image generated in this way (FIG. 13 (g5)) is projected onto the shared area 321. FIG.

<送信画像の生成処理及び送信処理>
次に、図13で説明したような処理を実現する、情報共有システムにおける処理について説明する。説明の便宜上、ここでも自拠点としての拠点Aにおける情報処理システム110における動作を中心として説明することとするが、他拠点としての拠点Bにおける情報処理システム120においても同様の動作がなされるものである。
<Transmission image generation processing and transmission processing>
Next, processing in the information sharing system that realizes the processing described with reference to FIG. 13 will be described. For the sake of convenience of explanation, the description here will focus on the operation of the information processing system 110 at the site A as its own site, but the same operation is also performed at the information processing system 120 at the site B as another site. is there.

図14は、本実施例における、自拠点としての拠点Aの情報処理システム110のカメラ113が共有領域311の記載内容を撮像し、他拠点としての拠点Bの情報処理システム120に送信するまでの処理の流れを示すフローチャートである。なお、本フローチャートで示す一連の処理は、一定の時間間隔(例えば0.5秒毎)でカメラ113で情報入力ボード114の共有領域311を撮像する毎(フレーム毎)に実行される。また、本フローチャートで示す手順は、そのプログラムがPC111のROM203、RAM202、外部メモリ(HDDなど)210のいずれかに格納され、CPU201により実行される。   FIG. 14 illustrates the process until the camera 113 of the information processing system 110 at the site A as its own base captures the description of the shared area 311 and transmits it to the information processing system 120 at the site B as another base in this embodiment. It is a flowchart which shows the flow of a process. Note that a series of processing shown in this flowchart is executed every time the shared area 311 of the information input board 114 is imaged (every frame) by the camera 113 at regular time intervals (for example, every 0.5 seconds). The procedure shown in this flowchart is executed by the CPU 201 with the program stored in one of the ROM 203, RAM 202, and external memory (HDD, etc.) 210 of the PC 111.

先ず図14に示すステップ1401において、撮像処理部401は、外部メモリ210等からフレームIDを取得する。またフレームIDは、ステップ1401〜ステップ1415の一連の処理が実行される度にステップ1417で加算され、ステップ1418で外部メモリ210等に格納される。   First, in step 1401 shown in FIG. 14, the imaging processing unit 401 acquires a frame ID from the external memory 210 or the like. The frame ID is added at step 1417 every time a series of processing from step 1401 to step 1415 is executed, and stored in the external memory 210 or the like at step 1418.

次に、ステップ1402において、撮像処理部401は、カメラ113に共有領域311の撮像を指示する。   Next, in step 1402, the imaging processing unit 401 instructs the camera 113 to image the shared area 311.

その後、ステップ1403において、撮像処理部401は、ステップ1402で取得した撮像画像(図13(b1)等を参照)をステップ1401で取得したフレームIDと紐付けて外部メモリ210等に格納する。   Thereafter, in step 1403, the imaging processing unit 401 stores the captured image acquired in step 1402 (see FIG. 13B1, etc.) in the external memory 210 in association with the frame ID acquired in step 1401.

ステップ1404において、人物領域導出部402は、ステップ1401で取得されたフレームIDから1を引いたフレームIDに紐付けられている、すなわち1フレーム前の撮像画像を外部メモリ210等から取得する。   In step 1404, the person area deriving unit 402 acquires the captured image that is linked to the frame ID obtained by subtracting 1 from the frame ID acquired in step 1401, that is, the captured image of the previous frame from the external memory 210 or the like.

その後、ステップ1405において人物領域導出部402は、ステップ1403で外部メモリ210等に格納された撮像画像のうち、人の腕や体等の人物領域を導出する。   Thereafter, in step 1405, the person area deriving unit 402 derives a person area such as a person's arm or body from the captured image stored in the external memory 210 or the like in step 1403.

次に、ステップ1406において、人物領域導出部402は、ステップ1405で導出した人物の領域の画素値を1、その他の領域の画素値を0とした人物領域画像(図13(c2)等を参照)を生成する。   Next, in step 1406, the person area deriving unit 402 refers to a person area image (refer to FIG. 13C 2) or the like in which the pixel value of the person area derived in step 1405 is 1 and the pixel values of other areas are 0. ) Is generated.

次にステップ1407において、人物領域導出部402は、ステップ1406で生成した人物領域画像を、ステップ1401で撮像処理部401が取得したフレームIDと紐付けて外部メモリ210等に格納する。   In step 1407, the person area deriving unit 402 stores the person area image generated in step 1406 in the external memory 210 or the like in association with the frame ID acquired by the imaging processing unit 401 in step 1401.

その後、ステップ1408において、送信対象領域特定部403は、送信対象領域画像(図13(d3)等を参照)の生成を行う。送信対象領域画像の生成の詳細は後述する。   Thereafter, in step 1408, the transmission target area specifying unit 403 generates a transmission target area image (see FIG. 13 (d3) and the like). Details of generation of the transmission target area image will be described later.

次に、ステップ1409において、送信画像生成部404は、送信対象領域画像中に送信対象領域が存在するかどうかを判断する。具体的には、ステップ1408で送信対象領域特定部403が生成した送信対象領域画像の画素値が全て0かどうかの判定を行う。   In step 1409, the transmission image generation unit 404 determines whether a transmission target area exists in the transmission target area image. Specifically, it is determined in step 1408 whether or not the pixel values of the transmission target area image generated by the transmission target area specifying unit 403 are all zero.

ステップ1409で送信対象領域が存在しないと判断した場合、送信画像生成部404は、処理をステップ1415に進める。   If it is determined in step 1409 that the transmission target area does not exist, the transmission image generation unit 404 advances the process to step 1415.

ステップ1409で送信対象領域が存在すると判断した場合、拠点Bの情報処理システム120に送信する送信画像の生成の処理に移行する。   If it is determined in step 1409 that the transmission target area exists, the process proceeds to a process of generating a transmission image to be transmitted to the information processing system 120 at the base B.

まずステップ1410において、送信画像生成部404は、ステップ1403で格納された撮像画像を、送信対象領域画像の画素値が0である座標の画素は白になるようマスクする事で、撮像画像から送信対象領域に相当する部分のみを抽出する。そして、送信画像生成部404は、抽出した画像(第1の画像)を生成する。   First, in step 1410, the transmission image generation unit 404 transmits the captured image stored in step 1403 from the captured image by masking the pixel of the coordinate whose pixel value of the transmission target region image is 0 to be white. Only a portion corresponding to the target area is extracted. Then, the transmission image generation unit 404 generates the extracted image (first image).

次に、ステップ1411において、送信画像生成部404は、外部メモリ210等に格納されている最新のフレームIDに紐付けられた背景画像(図13(e1)等を参照)を取得する。   Next, in step 1411, the transmission image generation unit 404 acquires a background image (see FIG. 13 (e1) and the like) associated with the latest frame ID stored in the external memory 210 or the like.

その後、ステップ1412において、送信画像生成部404は、ステップ1411で取得した背景画像に対してステップ1410と同様に送信対象領域でマスクする事で、背景画像から送信対象領域に相当する部分のみを抽出する。そして、送信画像生成部404は、抽出した画像(第2の画像)を生成する。   Thereafter, in step 1412, the transmission image generation unit 404 extracts only the portion corresponding to the transmission target area from the background image by masking the background image acquired in step 1411 with the transmission target area in the same manner as in step 1410. To do. Then, the transmission image generation unit 404 generates the extracted image (second image).

ステップ1413において、送信画像生成部404は、ステップ1410で抽出した画像とステップ1412で抽出した画像との間で画像差分を取り送信画像(図13(f3)等を参照)を生成する。   In step 1413, the transmission image generation unit 404 takes an image difference between the image extracted in step 1410 and the image extracted in step 1412 and generates a transmission image (see FIG. 13 (f3) and the like).

ステップ1414において、通信部405は、ネットワークI/F213、ネットワーク130を介して、ステップ1413で送信画像生成部404が生成した送信画像を、拠点Bの情報処理システム120に送信する。これにより、実施例1に係る図9に示すステップ906〜ステップ913における白マスク処理を行わずに、視覚エコーの発生の抑止、画像のデータのサイズの縮小を達成することが可能となる。   In step 1414, the communication unit 405 transmits the transmission image generated by the transmission image generation unit 404 in step 1413 to the information processing system 120 in the site B via the network I / F 213 and the network 130. Accordingly, it is possible to suppress the generation of visual echoes and reduce the size of image data without performing the white mask processing in Steps 906 to 913 shown in FIG. 9 according to the first embodiment.

その後、ステップ1415において、背景画像生成部1201は、人物領域画像中に人物領域があるかどうかの判定を行う。具体的には、ステップ1406で人物領域導出部402が生成した人物領域画像の画素値が全て0かどうかの判定を行う。   Thereafter, in step 1415, the background image generation unit 1201 determines whether or not there is a person area in the person area image. Specifically, it is determined in step 1406 whether or not the pixel values of the person area image generated by the person area deriving unit 402 are all zero.

ステップ1415で人物領域画像中に人物領域が無いと判断した場合、背景画像生成部1201は、処理をステップ1417に進める。   If it is determined in step 1415 that there is no person area in the person area image, the background image generation unit 1201 advances the processing to step 1417.

ステップ1415で人物領域があると判断した場合は、ステップ1416において、背景画像生成部1201は、ステップ1403で外部メモリ210等に格納された撮像画像を、背景画像として外部メモリ210等に格納し、背景画像を生成する。背景画像生成部1201は、当該撮像画像に紐付けられたフレームIDと同じフレームIDを背景画像に紐付けて、外部メモリ210等に格納する。   If it is determined in step 1415 that there is a person area, in step 1416, the background image generation unit 1201 stores the captured image stored in the external memory 210 or the like in step 1403 as the background image in the external memory 210 or the like. Generate a background image. The background image generation unit 1201 associates the same frame ID as the frame ID associated with the captured image with the background image, and stores the associated frame ID in the external memory 210 or the like.

その後、ステップ1417において、撮像処理部401は、ステップ1401で取得したフレームIDに1を加算する。   Thereafter, in step 1417, the imaging processing unit 401 adds 1 to the frame ID acquired in step 1401.

続いて、ステップ1418において、撮像処理部401は、ステップ1417で導出した新しいフレームIDを外部メモリ210等に格納し、処理を終える。   Subsequently, in step 1418, the imaging processing unit 401 stores the new frame ID derived in step 1417 in the external memory 210 or the like, and ends the process.

図15は、図14のステップ1408に示した送信対象領域画像(図13(d3)等を参照)を生成する処理の詳細を示すフローチャートである。本フローチャートで示す手順も図14と同様、そのプログラムがPC111のROM203、RAM202、外部メモリ(HDDなど)210のいずれかに格納され、CPU201により実行される。   FIG. 15 is a flowchart showing details of processing for generating the transmission target region image (see FIG. 13 (d3) and the like) shown in step 1408 of FIG. Similarly to FIG. 14, the procedure shown in this flowchart is stored in any of the ROM 203, RAM 202, and external memory (such as HDD) 210 of the PC 111 and executed by the CPU 201.

ステップ1501において、送信対象領域特定部403は、ステップ1401で取得されたフレームIDから1を引いたフレームIDに紐付けられた人物領域画像、即ち1フレーム前の人物領域画像を、外部メモリ210等から取得する。   In step 1501, the transmission target area specifying unit 403 obtains the person area image associated with the frame ID obtained by subtracting 1 from the frame ID acquired in step 1401, that is, the person area image one frame before, from the external memory 210 or the like. Get from.

次に、ステップ1502において、送信対象領域特定部403は、ステップ1407で外部メモリ210等に格納された人物領域画像、即ち現フレームの人物領域画像を、外部メモリ210等から取得する。   Next, in step 1502, the transmission target area specifying unit 403 acquires the person area image stored in the external memory 210 or the like in step 1407, that is, the person area image of the current frame from the external memory 210 or the like.

その後、ステップ1503において、送信対象領域特定部403は、ステップ1501で取得した1フレーム前の人物領域画像の画素値が全て0かどうかの判定を行う事で、人物領域画像中に人物領域が存在するかどうかの判断を行う。   Thereafter, in step 1503, the transmission target area specifying unit 403 determines whether all the pixel values of the person area image one frame before acquired in step 1501 are 0, so that the person area exists in the person area image. Judge whether to do.

送信対象領域特定部403がステップ1503で人物領域が存在しないと判断した場合は、ステップ1504において、送信対象領域特定部403は、全ての座標の画素値を0とした送信対象領域画像(図13(d1)等を参照)を生成し、処理を終える。   If the transmission target area specifying unit 403 determines in step 1503 that the person area does not exist, in step 1504, the transmission target area specifying unit 403 sets the pixel values of all coordinates to 0 as the transmission target area image (FIG. 13). (See (d1) etc.) and finishes the process.

ステップ1503で1フレーム前の人物領域画像中に人物領域が存在すると判断された場合、ステップ1505において、送信対象領域特定部403は、ステップ1502で取得した現フレームの人物領域画像の画素値が全て0かどうかの判定を行う。判定を行う事によって、送信対象領域特定部403は、現フレームの人物領域画像中に人物領域が存在するかどうかを判断する。   If it is determined in step 1503 that a person area exists in the person area image one frame before, in step 1505, the transmission target area specifying unit 403 determines that all the pixel values of the person area image of the current frame acquired in step 1502 are present. Judge whether it is 0 or not. By performing the determination, the transmission target area specifying unit 403 determines whether a person area exists in the person area image of the current frame.

送信対象領域特定部403が人物領域が存在しないと判断した場合は、ステップ1506において、送信対象領域特定部403は、1フレーム前の人物領域画像を包含する最小の矩形領域を導出する。   If the transmission target area specifying unit 403 determines that the person area does not exist, in step 1506, the transmission target area specifying unit 403 derives the minimum rectangular area including the person area image of the previous frame.

この矩形領域の導出は、実施例1と同様に図7に示すような共有領域311を64個に分割した小領域の単位で行う。   The derivation of the rectangular area is performed in units of small areas obtained by dividing the shared area 311 as shown in FIG.

その後、ステップ1507において、送信対象領域特定部403は、ステップ1506で導出した領域に含まれる座標の画素値を1、他の画素値を0とした送信対象領域画像(図13(d5)を参照)を生成し、処理を終える。   Thereafter, in step 1507, the transmission target area specifying unit 403 refers to a transmission target area image in which the pixel value of the coordinates included in the area derived in step 1506 is 1 and the other pixel values are 0 (see FIG. 13 (d5)). ) And finish the process.

ステップ1505で現フレームの人物領域画像にも人物が存在すると判断された場合は、ステップ1508において、送信対象領域特定部403は、1フレーム前の人物領域と現フレームの人物領域の両方を包含する最小の矩形領域を導出する。   If it is determined in step 1505 that a person is also present in the person area image of the current frame, in step 1508, the transmission target area specifying unit 403 includes both the person area of the previous frame and the person area of the current frame. The smallest rectangular area is derived.

次に、ステップ1509において、現フレームの人物領域を包含する最小の矩形領域を導出する。   Next, in step 1509, a minimum rectangular area including the person area of the current frame is derived.

次に、ステップ1510において、送信対象領域特定部403は、ステップ1508で求めた領域からステップ1509で求めた領域を引いた領域を導出する。尚、ステップ1508、ステップ1509、ステップ1510の処理においてもステップ1506と同様、領域の導出は図7に示すような共有領域311を64個に分割した小領域の単位で行う。   Next, in step 1510, the transmission target area specifying unit 403 derives an area obtained by subtracting the area obtained in step 1509 from the area obtained in step 1508. In the processing of step 1508, step 1509, and step 1510, similarly to step 1506, the derivation of the area is performed in units of small areas obtained by dividing the shared area 311 shown in FIG.

その後、ステップ1511において、送信対象領域特定部403は、ステップ1510で導出された領域に含まれる座標の画素値を1、他の画素値を0とした送信対象領域画像(図13(d3)等を参照)を生成し、処理を終える。   Thereafter, in step 1511, the transmission target area specifying unit 403 transmits a transmission target area image in which the pixel value of the coordinates included in the area derived in step 1510 is 1 and the other pixel values are 0 (FIG. 13 (d 3), etc. ) And finish the process.

本実施例における、拠点BのPC121が拠点Aから送信されてきた送信画像を共有領域321に投影する処理のフローチャートについては、実施例1において説明した図11に示すフローチャートと異ならないため説明を省略する。   The flowchart of the process of projecting the transmission image transmitted from the base A by the PC 121 of the base B in the present embodiment is not different from the flowchart shown in FIG. To do.

<実施例2の効果>
以上説明したように、本実施例によれば、自拠点で情報入力ボードの盤面の記載内容を更新した際、更新された領域だけに限定して、画像の差分抽出等の解析や他拠点への送信を行う事ができる。
<Effect of Example 2>
As described above, according to the present embodiment, when the description content on the board of the information input board is updated at its own site, it is limited to only the updated area, and analysis such as image difference extraction or to other sites Can be sent.

実施例1及び2では、人物領域をカメラで撮像されて得られる画像によって判断したが、カメラの構成に複眼カメラ等を追加し、距離画像を生成して情報入力ボードの盤面より手前にある人物の移動から人物領域を判断しても良い。   In the first and second embodiments, the person area is determined by an image obtained by being captured by the camera. However, a compound eye camera or the like is added to the configuration of the camera, a distance image is generated, and the person in front of the board of the information input board The person area may be determined based on the movement of.

また、共有領域の分割については、本実施例の64分割の他に、例えば左右に2分割、4分割といった分割や、全画素を個別の領域とした画素単位の分割や、或いは情報入力ボードの盤面に既に記載されている内容毎に個別に領域を分けるといった分割方法でも良い。   As for the division of the shared area, in addition to the 64 divisions of the present embodiment, for example, a division such as 2 divisions to the left and right, 4 divisions, division by pixel units in which all pixels are individual areas, or information input board A division method may be used in which areas are individually divided for each content already described on the board.

また、送信対象領域の導出の際、例えば、ユーザが情報入力ボードの盤面の前をただ横切る際にも、人物を検出して送信対象領域を特定してしまう可能性がある。そのため、現フレームの人物と1フレーム前の人物との移動距離が一定の閾値を超えた場合には、送信対象領域を特定しないとしても良い。   Further, when the transmission target area is derived, for example, even when the user just crosses the front of the information input board, there is a possibility that the transmission target area is detected and the transmission target area is specified. For this reason, when the moving distance between the person in the current frame and the person in the previous frame exceeds a certain threshold, the transmission target area may not be specified.

さらに、フレームレートが低く、フレーム前後で人物の位置が離れてしまう結果、記載内容が送信対象領域内に含まれない可能性がある。そこで、ユーザが単位時間(撮像間隔時間)で情報入力ボードの盤面に書き込むことができる線の長さを定義し、定義された線の長さに対する一定の割合だけ、送信対象領域を拡張しても良い。   Furthermore, as a result of the frame rate being low and the position of the person being separated before and after the frame, the description content may not be included in the transmission target area. Therefore, the length of the line that the user can write on the board of the information input board in unit time (imaging interval time) is defined, and the transmission target area is expanded by a certain ratio to the defined line length. Also good.

(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other examples)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

Claims (9)

それぞれに情報入力ボードが設置された自拠点と他拠点との間で情報入力ボード上の情報を共有するための装置であって、
情報入力ボードを撮像して撮像画像を取得する撮像処理手段と、
取得した撮像画像に人物の領域が含まれる場合、当該撮像画像と当該撮像画像よりも前に取得された過去の撮像画像とを比較して、当該人物が通過した領域を特定する特定手段と、
取得した撮像画像から前記特定された領域に相当する部分を抽出して、前記他拠点へ送信するための送信画像を生成する送信画像生成手段と
を備えたことを特徴とする装置。
It is a device for sharing information on the information input board between its own base and other bases where information input boards are installed,
Imaging processing means for imaging the information input board and obtaining a captured image;
When the acquired captured image includes a person's area, the specifying unit for comparing the captured image with a past captured image acquired before the captured image and specifying the area through which the person has passed;
An apparatus comprising: a transmission image generation unit configured to extract a portion corresponding to the specified region from the acquired captured image and generate a transmission image for transmission to the other site.
前記他拠点との間で前記送信画像を送受信する手段と、
前記他拠点から受信した送信画像に基づいて、自拠点の情報入力ボード上に投影する投影処理手段をさらに備えたことを特徴とする請求項1に記載の装置。
Means for transmitting and receiving the transmission image to and from the other base;
The apparatus according to claim 1, further comprising projection processing means for projecting onto an information input board at the local site based on a transmission image received from the other site.
前記撮像処理手段で取得された撮像画像から、人物の領域を導出する導出手段をさらに備えたことを特徴とする請求項1又は請求項2に記載の装置。   The apparatus according to claim 1, further comprising derivation means for deriving a human region from the captured image acquired by the imaging processing means. 前記他拠点から受信した送信画像と前記自拠点の情報入力ボード上に投影している投影画像とを合成する合成手段をさらに備え、
前記投影処理手段は、前記合成手段で合成された合成画像を前記投影している投影画像に代えて投影することを特徴とする請求項2又は請求項3に記載の装置。
Further comprising a combining means for combining the transmission image received from the other site and the projected image projected on the information input board of the own site;
The apparatus according to claim 2, wherein the projection processing unit projects the synthesized image synthesized by the synthesizing unit instead of the projected projection image.
前記特定手段で特定された領域に人物の領域が含まれる場合、前記送信画像生成手段は、前記送信画像を生成しないことを特徴とする請求項1から請求項4のいずれか一項に記載の装置。   5. The transmission image generation unit does not generate the transmission image when the region specified by the specifying unit includes a human region. 6. apparatus. 取得した撮像画像に人物の領域が含まれない場合、当該撮像画像を背景画像とする背景画像生成手段をさらに備え、
前記送信画像生成手段は、取得した撮像画像から前記特定手段で特定された領域に相当する部分を抽出して第1の画像を生成し、前記背景画像から前記特定手段で特定された領域に相当する部分を抽出して第2の画像を生成し、当該第1の画像と当該第2の画像との差分を導出して、前記送信画像を生成することを特徴とする請求項1から請求項5のいずれか一項に記載の装置。
When the acquired captured image does not include a human region, the image capturing apparatus further includes background image generation means that uses the captured image as a background image,
The transmission image generating means generates a first image by extracting a portion corresponding to the area specified by the specifying means from the acquired captured image, and corresponds to the area specified by the specifying means from the background image 2. The transmission image is generated by extracting a portion to be generated to generate a second image, deriving a difference between the first image and the second image, and generating the transmission image. The apparatus according to any one of 5.
請求項1から請求項6のいずれか一項に記載の装置を用いて、前記自拠点と前記他拠点との間で情報の共有を行なうシステム。   A system for sharing information between the own base and the other base using the apparatus according to any one of claims 1 to 6. それぞれに情報入力ボードが設置された自拠点と他拠点との間で情報入力ボード上の情報を共有するための方法であって、
情報入力ボードを撮像して撮像画像を取得する撮像処理ステップと、
取得した撮像画像に人物の領域が含まれる場合、当該撮像画像と当該撮像画像よりも前に取得された過去の撮像画像とを比較して、当該人物が通過した領域を特定する特定ステップと、
取得した撮像画像から前記特定された領域に相当する部分を抽出して、前記他拠点へ送信するための送信画像を生成する送信画像生成ステップと
を備えることを特徴とする方法。
It is a method for sharing information on the information input board between the own base where the information input board is installed in each and the other bases,
An imaging process step of imaging the information input board to obtain a captured image;
When the acquired captured image includes a person's region, the captured image and a past captured image acquired before the captured image are compared, and a specifying step for specifying the region through which the person has passed
A transmission image generating step of extracting a portion corresponding to the specified region from the acquired captured image and generating a transmission image for transmission to the other site.
コンピュータを請求項1から請求項6のいずれか一項に記載の装置として機能させるためのプログラム。   The program for functioning a computer as an apparatus as described in any one of Claims 1-6.
JP2013257911A 2013-12-13 2013-12-13 Device, system, method, and program Pending JP2015115857A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013257911A JP2015115857A (en) 2013-12-13 2013-12-13 Device, system, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013257911A JP2015115857A (en) 2013-12-13 2013-12-13 Device, system, method, and program

Publications (1)

Publication Number Publication Date
JP2015115857A true JP2015115857A (en) 2015-06-22

Family

ID=53529263

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013257911A Pending JP2015115857A (en) 2013-12-13 2013-12-13 Device, system, method, and program

Country Status (1)

Country Link
JP (1) JP2015115857A (en)

Similar Documents

Publication Publication Date Title
US20210337177A1 (en) Image processing apparatus, image generating method, and storage medium
JP6627861B2 (en) Image processing system, image processing method, and program
EP3460761A1 (en) Image processing apparatus, image processing method, image processing system, and program
JP5771981B2 (en) Drawing image sharing apparatus, data processing method, program, and recording medium
US8896692B2 (en) Apparatus, system, and method of image processing, and recording medium storing image processing control program
EP3506623B1 (en) Image processing apparatus and method
KR102382247B1 (en) Image processing apparatus, image processing method, and computer program
US10269155B1 (en) Image artifact masking
CN112243505A (en) Information processing apparatus, information processing method, and program
JP2013200735A (en) Image generation device, image generation method, and program
US20190005347A1 (en) Information processing apparatus, program, and information processing method
US11659134B2 (en) Image processing apparatus and image processing method
US20180220077A1 (en) Information processing apparatus having camera function, display control method thereof, and storage medium
JP2005332177A (en) Three-dimensional information processor, three-dimensional information processing method, and three-dimensional information processing program
JP2015115857A (en) Device, system, method, and program
KR101539038B1 (en) Hole-filling method for depth map obtained from multiple depth camera
CN110110614A (en) A kind of gesture identifying device and method based on 3D camera
JP2016042661A (en) Information processing unit, system, information processing method, and program
KR20170059310A (en) Device for transmitting tele-presence image, device for receiving tele-presence image and system for providing tele-presence image
JP2015115856A (en) Information processing system, control method of the same, information processor, and computer program
JP2014174643A (en) Image processing system, control method therefor, image processing device, and image processing method
JP2011048545A (en) Image synthesizing device and program
JP6700804B2 (en) Information processing apparatus, information processing method, and program
JP2015220660A (en) Device, method and program for use for electronic conference
JP2024000370A (en) System and terminal device