JP2015109565A - Conference terminal device, electronic conference system, and program - Google Patents

Conference terminal device, electronic conference system, and program Download PDF

Info

Publication number
JP2015109565A
JP2015109565A JP2013251417A JP2013251417A JP2015109565A JP 2015109565 A JP2015109565 A JP 2015109565A JP 2013251417 A JP2013251417 A JP 2013251417A JP 2013251417 A JP2013251417 A JP 2013251417A JP 2015109565 A JP2015109565 A JP 2015109565A
Authority
JP
Japan
Prior art keywords
image
writing
information
terminal device
conference terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013251417A
Other languages
Japanese (ja)
Inventor
奥津 俊久
Toshihisa Okutsu
俊久 奥津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013251417A priority Critical patent/JP2015109565A/en
Publication of JP2015109565A publication Critical patent/JP2015109565A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephonic Communication Services (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

PROBLEM TO BE SOLVED: To notify a participant in a remote location of the state where an operator performs a writing operation and pointing operation to a white board, in an electronic conference system using a projector with a camera.SOLUTION: A conference terminal device detects a writing operation and pointing operation to a white board from a photographed image of the white board, and creates operation information according to the respective operations and transmits the created operation information to a conference terminal in a remote location. When the conference terminal has received the operation information, projects an image object showing the writing operation or the pointing operation on a white board according to the received operation information.

Description

本発明は、例えば、それぞれの端末のカメラで撮影した画像情報をネットワークを介して複数拠点間で共有し、それぞれの端末で表示するための、会議端末装置、電子会議システムおよびプログラムに関する。   The present invention relates to a conference terminal device, an electronic conference system, and a program for sharing image information captured by a camera of each terminal among a plurality of bases via a network and displaying the information on each terminal.

自拠点において遠隔地にある他拠点との会議を行うために電子会議システムが利用されることがある。電子会議システムでは、以下の処理が行われる。他拠点に設置されたホワイトボードや黒板等の書き込み対象物に書き込まれたテキストや図形等を、他拠点に設置されたカメラ等の撮影装置で撮影する。そして自拠点に設置されたプロジェクタ等の投影装置は、他拠点で撮影された画像を受信して、その画像を自拠点に設置されたホワイトボード等に投影する。このような処理が行われることにより、他拠点に設置された書き込み対象物上に書き込まれた内容を、自拠点においても参照することが可能になる(例えば特許文献1)。   An electronic conference system may be used to hold a conference with another site at a remote location at the site. In the electronic conference system, the following processing is performed. A text or figure written on a writing object such as a whiteboard or blackboard installed at another base is photographed by a photographing device such as a camera installed at the other base. Then, a projection device such as a projector installed at its own site receives an image taken at another site and projects the image onto a whiteboard or the like installed at its own site. By performing such processing, it is possible to refer to the contents written on the writing object installed at the other site also at the own site (for example, Patent Document 1).

特開2011-151764号公報JP 2011-151764 A

特許文献1の電子会議システムは、他拠点に設置されたホワイトボード等の書き込み対象物上に書き込まれた内容を、自拠点において参照可能にする。このような電子会議システムにおいて、他拠点のホワイトボード等への書き込みの内容の他に、他拠点のホワイトボード等において現在書き込まれている領域の位置も、自拠点においてリアルタイムに参照可能にすることが望ましい。言い換えれば、他拠点のホワイトボード等において他拠点のユーザが操作している領域の位置を、自拠点のユーザが認識できることが、よりスムーズな電子会議を開催する上で望ましい。しかしながら、特許文献1記載の発明では、一方の拠点において当該拠点のユーザが操作している領域の位置を他方の拠点においてそのユーザに認識させることはできなかった。   The electronic conference system of Patent Document 1 makes it possible to refer to the content written on a writing object such as a whiteboard installed at another base at the base. In such an electronic conference system, in addition to the contents written on the whiteboards at other sites, the position of the area currently written on the whiteboards at other sites can be referred to in real time at the local site. Is desirable. In other words, it is desirable that the user at the local site can recognize the position of the area operated by the user at the other site on the whiteboard or the like at the other site in order to hold a smoother electronic conference. However, in the invention described in Patent Document 1, the position of the area operated by the user at the base at one base cannot be recognized by the user at the other base.

本発明は上記従来例に鑑みて成されたもので、書き込まれた内容のみならず、進行中の書き込みやユーザの指示した位置等、ユーザが操作している領域を遠隔拠点でも共有できる電子会議システムを提供することを目的とする。   The present invention has been made in view of the above-mentioned conventional example, and is an electronic conference that can share not only the written contents but also the area operated by the user such as the ongoing writing and the position designated by the user even at a remote site. The purpose is to provide a system.

上記目的を達成するために本発明は以下の構成を有する。   In order to achieve the above object, the present invention has the following configuration.

会議端末装置であって、
書き込み対象物を撮影する撮影手段と、
前記書き込み対象物に画像を投影する投影手段と、
前記会議端末装置を制御する制御手段と、
他の会議端末装置と通信する通信手段とを有し、
前記制御手段は、
前記撮影手段により撮影した画像から、人物の手の動きを検出し、検出した手の動きに対応した画像オブジェクトを示す操作情報を前記通信手段により前記他の会議端末装置に送信し、
前記他の会議端末装置から前記通信手段により受信した前記操作情報に基づいて画像オブジェクトを生成し、前記投影手段により投影させることを特徴とする。
A conference terminal device,
Photographing means for photographing the writing object;
Projecting means for projecting an image onto the writing object;
Control means for controlling the conference terminal device;
Communication means for communicating with other conference terminal devices,
The control means includes
Detecting movement of a person's hand from the image taken by the photographing means, and sending operation information indicating an image object corresponding to the detected hand movement to the other conference terminal device by the communication means;
An image object is generated based on the operation information received by the communication unit from the other conference terminal device, and projected by the projection unit.

本発明によって、遠隔地におけるホワイトボード等の書き込み対象物に対する操作の様子を通知することができる。   According to the present invention, it is possible to notify a state of operation on a writing object such as a whiteboard in a remote place.

会議システムのネットワーク構成例を示す図The figure which shows the network configuration example of the conference system 会議端末のハードウエア構成例を示す図The figure which shows the hardware constitution example of the conference terminal 会議端末のソフトウエア構成例を示す図Figure showing a software configuration example of a conference terminal ホワイトボードへ書き込み時の状態を示す図Diagram showing the state when writing to the whiteboard 撮影画像を元に書き込み画像情報を生成する処理のフローチャートFlowchart of processing for generating writing image information based on a photographed image 撮影画像を元に書き込み画像情報を生成する例を示す図The figure which shows the example which produces | generates writing image information based on a picked-up image 撮影画像を元に操作情報を生成する処理のフローチャートFlowchart of processing for generating operation information based on a photographed image ホワイトボードへ指で指し示す時の状態を示す図Diagram showing the state when pointing with a finger to the whiteboard ホワイトボードの撮影画像と操作状態の解析対応を示す図Diagram showing analysis of whiteboard shot image and operation status , 操作状態の解析結果から生成した操作状態情報の一例を示す図The figure which shows an example of the operation state information produced | generated from the analysis result of the operation state 操作状態の解析結果から生成した操作軌跡情報の一例を示す図The figure which shows an example of the operation locus information produced | generated from the analysis result of the operation state 電子オブジェクト受信処理のフローチャートElectronic object reception processing flowchart 盤面画像形成処理のフローチャートFlow chart of board image forming process 背景画像の一例を示す図A figure showing an example of a background image 実施形態2における撮影画像を元に操作情報を生成する処理のフローチャートFlowchart of processing for generating operation information based on a captured image in the second embodiment 実施形態3におけるソフトウエア構成を示す図The figure which shows the software configuration in Embodiment 3. 実施形態3における撮影画像と音声認識状態を元に操作情報を生成する処理のフローチャートFlowchart of processing for generating operation information based on a captured image and a voice recognition state in the third embodiment 実施形態4における撮影画像と手動による操作状態の切り替え情報を元に操作情報を生成する処理のフローチャートThe flowchart of the process which produces | generates operation information based on the switching information of the picked-up image and manual operation state in Embodiment 4.

[実施形態1]
以下、本発明を実施するための形態について図面を用いて説明する。
[Embodiment 1]
Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.

<ネットワーク構成>
図1に、会議システムのネットワーク構成例を示す。会議端末装置(以下、会議端末と呼ぶ)101、102は、それぞれゲートウエイサーバー103,104を介して通信ネットワークであるインターネット105と接続されている。会議端末同士はゲートウエイサーバー103,104及びインターネット105を介して、データを送受信できる。以下では、会議端末101側で行われる処理に注目して説明を行う。そこで、会議端末101を「本端末」と、会議端末102を「遠隔端末」と呼称するものとする。遠隔とは、通信を介していることを意味しており、距離の遠近には関わらない。会議端末102に注目した場合には、この関係が入れ替わることに注意されたい。また、本実施形態においては、遠隔端末は1台に限定するものではなく、複数台接続された構成となっても本実施形態を適用する事ができることを予め明言する。なお、各拠点における各機器は、まずホワイトボード等の書き込み対象物が置かれ、その書き込みを撮影できる位置、望ましくはほぼ正面の位置にカメラが設置され、ホワイトボードに他の拠点の書き込み画像が投影できる位置に投影機が設置される。
<Network configuration>
FIG. 1 shows a network configuration example of the conference system. Conference terminal devices (hereinafter referred to as conference terminals) 101 and 102 are connected to the Internet 105, which is a communication network, via gateway servers 103 and 104, respectively. The conference terminals can transmit and receive data via the gateway servers 103 and 104 and the Internet 105. Hereinafter, the description will be given focusing on the processing performed on the conference terminal 101 side. Therefore, the conference terminal 101 is referred to as “this terminal”, and the conference terminal 102 is referred to as “remote terminal”. Remote means that it is via communication, regardless of distance. Note that this relationship is reversed if attention is paid to the conference terminal 102. Further, in the present embodiment, the number of remote terminals is not limited to one, but it will be clarified in advance that the present embodiment can be applied even when a plurality of remote terminals are connected. In addition, each device at each site first has a writing object such as a whiteboard placed on it, and a camera is installed at a position where the writing can be photographed, preferably almost in front of it. A projector is installed at a position where projection is possible.

<ハードウエア構成>
図2に、会議端末のハードウエア構成例を示す。本実施形態では、カメラ付きプロジェクタを会議端末としている。なお、ここでは会議システムに接続するための専用ハードウェアデバイスとして会議端末を説明しているが、プロジェクタとカメラ付きスマートフォンを組み合わせる形で構成する事もできる。プロジェクタに市販品のWebカメラを接続して構成する事もできる。プロジェクタ内蔵のカメラ付きスマートフォンを用いる事もできる。いずれにせよ、ホワイトボード等の記録用ボードを撮影するためのカメラと、遠隔端末から受信した画像を投影するための投影機と、カメラで撮影した画像の画像処理等を行う処理装置と、遠隔端末あるいはサーバーとの間で画像データ等の送受信を行うための通信機とを会議端末は含む。
<Hardware configuration>
FIG. 2 shows a hardware configuration example of the conference terminal. In the present embodiment, a projector with a camera is used as a conference terminal. Although the conference terminal is described here as a dedicated hardware device for connecting to the conference system, it can be configured by combining a projector and a smartphone with a camera. It can also be configured by connecting a commercially available Web camera to the projector. You can also use a camera-equipped smartphone with a projector. In any case, a camera for photographing a recording board such as a whiteboard, a projector for projecting an image received from a remote terminal, a processing device for performing image processing of an image photographed by the camera, and the like The conference terminal includes a communication device for transmitting and receiving image data and the like to and from the terminal or server.

会議端末は、メインバス200を介してCPU201と、RAM202、ROM203とが接続されている。また、メインバス200を介してCPU201と、外部機器コントローラ204及び内部機器コントローラ205といった制御モジュールと接続されている。CPU201は後述するプログラム300を実行するためのユニットである。RAM202は、CPU201がプログラム300(図3に示す)を実行する際に必要となるデータに対する読み書き可能メモリである。ROM203はCPU 201がプログラム300を実行する際に必要となるデータを読み出すための読み込み専用メモリである。   The conference terminal is connected to the CPU 201, the RAM 202, and the ROM 203 via the main bus 200. Further, the CPU 201 is connected to a control module such as an external device controller 204 and an internal device controller 205 via the main bus 200. The CPU 201 is a unit for executing a program 300 described later. The RAM 202 is a readable / writable memory for data required when the CPU 201 executes the program 300 (shown in FIG. 3). A ROM 203 is a read-only memory for reading data necessary for the CPU 201 to execute the program 300.

外部機器コントローラ204は画像撮影モジュール211や画像投影モジュール212等の外部機器を制御する為のモジュールである。画像撮影モジュール211は、撮影の対象となる撮影面上の画像を撮影して画像データ(撮影画像と呼ぶ)として出力する為のモジュールである。画像投影モジュール212は、CPU201が生成した画像データ(投影画像と呼ぶ)を投影面に表示する為のモジュールである。ヒューマンインターフェイスデバイス(HID)モジュール213は人間からの操作を受け付けるためのモジュールである。音声入力モジュール214は人間からの音声入力を受け付け、音声データとして出力するためのモジュールである。例えば、画像撮影モジュール211としてCCD方式のカメラモジュールを、画像投影モジュール212としては液晶パネル方式のプロジェクションモジュールを用いる事ができる。また、HIDモジュール213としてはマウスを、音声入力モジュール213としてはマイクを用いることができる。HIDモジュール213は利用者に対してユーザインタフェースを提供する。   The external device controller 204 is a module for controlling external devices such as the image capturing module 211 and the image projection module 212. The image photographing module 211 is a module for photographing an image on a photographing surface to be photographed and outputting it as image data (referred to as a photographed image). The image projection module 212 is a module for displaying the image data (referred to as a projection image) generated by the CPU 201 on the projection plane. A human interface device (HID) module 213 is a module for accepting an operation from a human. The voice input module 214 is a module for receiving voice input from a human and outputting it as voice data. For example, a CCD camera module can be used as the image capturing module 211, and a liquid crystal panel projection module can be used as the image projection module 212. Further, a mouse can be used as the HID module 213, and a microphone can be used as the voice input module 213. The HID module 213 provides a user interface to the user.

内部機器コントローラ205は内部機器を制御する為のモジュールであり、内蔵記憶装置221、ネットワークモジュール222を制御する為のモジュールである。内部記憶装置221はデータやプログラムを保存するための二次記憶装置である。ネットワークモジュール222はネットワーク上の別の機器と情報の送受信を行うためのモジュールである。ネットワークモジュール222としては有線LANに対応しているネットワークモジュールだけではなく、無線LANに対応しているネットワークモジュールを適用する事もできる。   The internal device controller 205 is a module for controlling internal devices, and is a module for controlling the internal storage device 221 and the network module 222. The internal storage device 221 is a secondary storage device for storing data and programs. The network module 222 is a module for transmitting / receiving information to / from another device on the network. As the network module 222, not only a network module supporting a wired LAN but also a network module supporting a wireless LAN can be applied.

<ソフトウエア構成>
図3に、会議端末のソフトウエア構成例を示す。プログラム300はRAM202ないしROM203に記憶され、会議システムを実現する為にCPU201で実行されるプログラムである。接続設定301は、接続先となる遠隔端末のIPアドレスなどの接続情報を記憶している設定データである。撮影画像入力部311は画像撮影モジュール211が撮影した撮影画像を受信する。本実施形態では、撮影画像入力部311が幾何補正や色調整の前処理を行うものとしている。書き込み画像生成部312は、撮影画像を解析しホワイトボードに描かれた物理書き込みを変換した書き込み画像を元に書き込み画像情報を生成する。書き込み画像更新部313は、本端末および遠隔端末に表示された書き込み画像情報を更新するもので、電子オブジェクト記憶部331への格納と遠隔拠点への送信を行う。なお電子オブジェクトは、それが画像に含まれる成分であるなら特に画像オブジェクトと呼ぶ。たとえば後述する書き込まれた文字や画像(これを書き込みとも呼ぶ)や、操作者による書き込み動作やポインティング動作を示す画像成分などが画像オブジェクトに相当する。
<Software configuration>
FIG. 3 shows a software configuration example of the conference terminal. A program 300 is a program stored in the RAM 202 or the ROM 203 and executed by the CPU 201 to realize a conference system. The connection setting 301 is setting data that stores connection information such as an IP address of a remote terminal that is a connection destination. The captured image input unit 311 receives a captured image captured by the image capturing module 211. In the present embodiment, the photographed image input unit 311 performs preprocessing for geometric correction and color adjustment. The written image generation unit 312 analyzes the captured image and generates written image information based on the written image obtained by converting the physical writing drawn on the whiteboard. The written image update unit 313 updates the written image information displayed on the terminal and the remote terminal, and stores it in the electronic object storage unit 331 and transmits it to the remote site. An electronic object is particularly called an image object if it is a component included in an image. For example, written characters and images described later (also referred to as writing), image components indicating writing operations and pointing operations by an operator, and the like correspond to image objects.

操作情報生成部341は、撮影画像を解析し人物の検知および手の形状検知の状態(あるいは結果)を元に操作情報を生成する。なお操作情報は2つに大別され、ひとつは操作情報の最新状態を示す操作状態情報、もうひとつは操作情報を軌跡として残すための操作軌跡情報である。操作状態記憶部342は、操作状態情報を記憶するものである。操作軌跡記憶部343は、操作軌跡情報を記憶するものである。操作情報更新部344は、本端末および遠隔端末に送信された操作情報を更新するもので、電子オブジェクト記憶部331への格納と遠隔拠点への送信を行う。電子オブジェクト送信信部314は、接続設定301に基づいて、書き込み画像更新部313と操作情報更新部344において送信が必要な電子オブジェクトをネットワーク上で送受信できる形式として電子オブジェクトをペイロードとするパケットを生成する。そして、ネットワークモジュール222を経由して遠隔端末へ送信する。   The operation information generation unit 341 analyzes the captured image and generates operation information based on the state (or result) of human detection and hand shape detection. The operation information is roughly divided into two, one is operation state information indicating the latest state of the operation information, and the other is operation locus information for leaving the operation information as a locus. The operation state storage unit 342 stores operation state information. The operation locus storage unit 343 stores operation locus information. The operation information update unit 344 updates the operation information transmitted to the terminal and the remote terminal, and stores it in the electronic object storage unit 331 and transmits it to the remote site. Based on the connection setting 301, the electronic object transmission / reception unit 314 generates a packet having the electronic object as a payload in a format in which the writing image update unit 313 and the operation information update unit 344 can transmit / receive the electronic object that needs to be transmitted on the network. To do. Then, the data is transmitted to the remote terminal via the network module 222.

電子オブジェクト受信部321は、接続設定301に基づいて、遠隔端末から送信されてきた電子オブジェクトを含むパケットを受信し、当該パケットに含まれる電子オブジェクトを抽出する。電子オブジェクト更新判断部322は、電子オブジェクト受信部321が受信パケットから抽出した電子オブジェクトの種別に応じて電子オブジェクト記憶部331に格納されている情報を更新する。盤面画像形成部332は電子オブジェクト記憶部331が記憶している書き込み画像情報および操作情報から画像を形成する。形成する画像は3種類ある。第1は本拠点のホワイトボードに描かれた物理書き込みを撮影画像から抽出するための書き込み撮影用画像である。書き込み撮影用画像は、本拠点でホワイトボードへの書き込みを撮影する際に投影される画像であり、投影画像が撮影されないよう、例えば空白画像である。第2は遠隔端末のホワイトボードの書き込み画像と操作情報とを本端末で投影するための盤面共有用画像、第3は本拠点の操作情報を撮影画像から背景差分で抽出するための背景画像である。ホワイトボード上での操作は、書き込みに重畳して、遠隔端末の書き込み情報が投影表示された状態でおこなわれるために、操作を抽出すべく、例えば自端末でホワイトボードを撮影して取得した書き込み画像と、その時にホワイトボードに投影されている盤面共有画像とを合成した画像などである、書き込み画像撮影用画像と盤面共有用画像は投影画像記憶部335に格納し、投影画像出力部333が画像投影モジュール313を用いて投影面へ投影画像を投影する。背景画像は背景画像記憶部336に格納し、操作情報生成部341が背景差分に用いる。   Based on the connection setting 301, the electronic object receiving unit 321 receives a packet including an electronic object transmitted from a remote terminal, and extracts the electronic object included in the packet. The electronic object update determination unit 322 updates the information stored in the electronic object storage unit 331 according to the type of electronic object extracted from the received packet by the electronic object reception unit 321. The panel image forming unit 332 forms an image from the written image information and the operation information stored in the electronic object storage unit 331. There are three types of images to be formed. The first is a writing image for extracting physical writing drawn on the whiteboard at the base from the captured image. The image for writing and photographing is an image projected when photographing the writing on the whiteboard at the base, and is, for example, a blank image so that the projected image is not photographed. The second is a panel sharing image for projecting the whiteboard writing image and operation information on the remote terminal, and the third is a background image for extracting the operation information of the base from the photographed image as a background difference. is there. Since operations on the whiteboard are performed in a state where the writing information of the remote terminal is projected and superimposed on the writing, the writing acquired by photographing the whiteboard with the own terminal, for example, to extract the operation An image for writing image recording and an image for board surface sharing, such as an image obtained by combining an image and a board surface shared image projected on the whiteboard at that time, are stored in the projection image storage unit 335, and the projection image output unit 333 A projected image is projected onto the projection plane using the image projection module 313. The background image is stored in the background image storage unit 336, and the operation information generation unit 341 uses it for the background difference.

また、ジェスチャ入力部361は、画像撮影モジュール211が撮影した撮影画像中から会議参加者の身振り・手振りを解析し、書き込み画像操作部364に通知する。HID入力部362は、HIDモジュール213で行われた操作を受け付け、書き込み画像操作部364に通知する。音声入力部363は、音声入力モジュール214から入力された音声データから会議参加者の声による操作を解析し、書き込み画像操作部364に通知する。書き込み画像操作部364は、書き込み画像情報生成部312に対してホワイトボードの書き込みを書き込み画像として取得する操作を指示する。   In addition, the gesture input unit 361 analyzes the gestures / hand gestures of the conference participants from the captured images captured by the image capturing module 211 and notifies the writing image operation unit 364 of them. The HID input unit 362 accepts an operation performed by the HID module 213 and notifies the write image operation unit 364. The voice input unit 363 analyzes an operation performed by the voice of the conference participant from the voice data input from the voice input module 214 and notifies the writing image operation unit 364 of the operation. The writing image operation unit 364 instructs the writing image information generation unit 312 to perform an operation for acquiring writing on the whiteboard as a writing image.

ここで、その他電子会議システムで必要とする一般的な機能を、プログラム300が持っていてもよい。例えば、遠隔端末を指定するために、接続先の会議端末を設定する為の接続先設定ダイアログボックスを設ける事ができる。遠隔端末を選択する為に、ネットワークモジュール222を介して外部に存在するサーバーに接続可能な端末を問い合わせする機能と、それをダイアログボックスに候補として通知する機能を設ける事ができる。会議におけるセキュリティを確保する為に、電子オブジェクトパケット送信信部314が送信する電子オブジェクトパケットを暗号化する機能を有する事ができる。電子オブジェクトパケット受信部321が受信した電子オブジェクトパケットを複号する機能を有する事ができる。これらは従来技術の電子会議システムで用いられる一般的な機能であり、本実施形態の本質に直接影響しないため、詳細は割愛する。なお、図3ではプログラムモジュールとして説明したプログラム300に含まれる各ブロックの全部または一部をハードウエアで実現してもよい。   Here, the program 300 may have other general functions required for the electronic conference system. For example, in order to designate a remote terminal, a connection destination setting dialog box for setting a connection destination conference terminal can be provided. In order to select a remote terminal, it is possible to provide a function of inquiring of a terminal that can be connected to a server existing outside via the network module 222 and a function of notifying the dialog box as a candidate. In order to ensure security in the conference, the electronic object packet transmission unit 314 can have a function of encrypting the electronic object packet transmitted. The electronic object packet receiving unit 321 can have a function of decoding the electronic object packet received. These are general functions used in the prior art electronic conference system, and do not directly affect the essence of the present embodiment, so the details are omitted. In FIG. 3, all or a part of each block included in the program 300 described as the program module may be realized by hardware.

以下、ハードウエアとしてはCPU201が実行する、書き込み画像情報生成部312、操作情報生成部341、受信電子オブジェクト更新実施判断部322、および、盤面画像形成部332を中心に、本実施形態の特徴を説明する。   Hereinafter, as the hardware, the CPU 201 executes the writing image information generation unit 312, the operation information generation unit 341, the received electronic object update execution determination unit 322, and the board image formation unit 332. explain.

<書き込み画像情報と操作情報>
図4と図8とを用いて、本実施形態で電子オブジェクトとして扱う書き込み画像情報と操作情報とを、ホワイトボードと対応させて説明する。図4にホワイトボードへ書き込み時の状態を示す。図8にホワイトボードへ指で指し示す時の状態を示す。図4(a)〜(e)は、端末101拠点でホワイトボードへの書き込みを行い、書き込み最中の操作状態を端末102に表示し、そして端末101の書き込み画像を端末102で表示するまでの様子を順に示したものである。ここでまず用語を定義する。
<Writing image information and operation information>
Using FIG. 4 and FIG. 8, writing image information and operation information handled as an electronic object in this embodiment will be described in association with a whiteboard. FIG. 4 shows a state when writing to the whiteboard. FIG. 8 shows a state when the finger is pointed to the whiteboard. 4 (a) to 4 (e) show how the whiteboard is written at the terminal 101 base, the operation state during the writing is displayed on the terminal 102, and the written image of the terminal 101 is displayed on the terminal 102. The situation is shown in order. Here, the terms are first defined.

書き込み画像:ホワイトボードを撮影しマーカーペンによる書き込みを画像に変換した画像。
操作状態(書き込み):書き込みを行っている状態を示す。例えば撮影画像からペンを握る状態を操作状態として検知し生成した操作状態情報を遠隔端末へ送付する。操作状態情報を受信した遠隔端末側では操作状態(書き込み)を人物のシルエットと手の周囲の円で表示する。
操作軌跡:ホワイトボードへの書き込み操作の軌跡であり、操作状態(書き込み)が一定時間、一定距離を保持されたことを示す。遠隔端末による操作軌跡の表示は、次に書き込み画像を送付するタイミングまで保持される。
Written image: An image obtained by shooting a whiteboard and converting writing with a marker pen into an image.
Operation state (writing): Indicates the state of writing. For example, the state of gripping the pen from the photographed image is detected as the operation state, and the generated operation state information is sent to the remote terminal. On the remote terminal side that has received the operation state information, the operation state (writing) is displayed with a silhouette of the person and a circle around the hand.
Operation locus: A locus of a writing operation on the whiteboard, which indicates that the operation state (writing) has been maintained at a certain distance for a certain time. The display of the operation locus by the remote terminal is held until the next timing of sending the written image.

図4(a)は本拠点(端末101)と遠隔拠点(端末102)のホワイトボードに何も書かれていない初期状態を示す。この状態では、各拠点の拠点端末は起動され、図3のプログラム300の実行が開始される。ただしプログラム300は、ホワイトボードへの書き込みが既に行われている状態で実行されてもよい。   FIG. 4A shows an initial state in which nothing is written on the whiteboard of the main base (terminal 101) and the remote base (terminal 102). In this state, the base terminal at each base is activated, and execution of the program 300 in FIG. 3 is started. However, the program 300 may be executed in a state where writing to the whiteboard has already been performed.

端末101側のホワイトボードへマーカーペンで書き込み402を開始すると、端末102側のホワイトボードに、ホワイトボードへ書き込み範囲を示す操作軌跡403と、現在の操作状態を示す操作状態404とが画像として投影され、表示される。図4(b)は、その状態を示している。   When writing 402 to the whiteboard on the terminal 101 side with a marker pen is started, an operation locus 403 indicating the writing range to the whiteboard and an operation state 404 indicating the current operation state are projected as images on the whiteboard on the terminal 102 side. And displayed. FIG. 4B shows this state.

端末101側のホワイトボードへの書き込みを継続すると、端末102側のホワイトボードに、右方向へ広がった操作軌跡403と、右方向へ移動した現在の操作状態404とが画像として投影され表示される。図4(c)はその状態を示している。   When writing to the whiteboard on the terminal 101 side is continued, the operation locus 403 spreading rightward and the current operation state 404 moved rightward are projected and displayed on the whiteboard terminal 102 side as images. . FIG. 4 (c) shows this state.

図4(c)の状態で、端末101側のホワイトボードへの書き込み402をやめても、端末101のホワイトボードへの書き込み画像が端末102で表示されるまでは、端末102側のホワイトボードに操作軌跡403が投影されたままの状態が維持される。図4(d)はその状態を示している。   In the state of FIG. 4 (c), even if the writing 402 to the whiteboard on the terminal 101 side is stopped, the whiteboard on the terminal 102 side is operated until the image written on the whiteboard of the terminal 101 is displayed on the terminal 102. The state where the locus 403 is projected is maintained. FIG. 4 (d) shows this state.

端末101が、ホワイトボードの書き込み画像405を端末102に送信すると、端末102側のホワイトボードに、受信した書き込み画像406が投影表示さ、それと共に操作軌跡の表示は取りやめられて消える。図4(d)はその状態を示している。   When the terminal 101 transmits the written image 405 of the whiteboard to the terminal 102, the received written image 406 is projected and displayed on the whiteboard on the terminal 102 side, and at the same time, the display of the operation locus is canceled and disappears. FIG. 4 (d) shows this state.

図8(a)〜(c)は、端末101拠点でのホワイトボードへの指で指し示すと、指し示した操作状態を端末102に表示する様子を示したものである。また撮影画像から人物の手の状態を検知できなかった場合の挙動も示す。まず用語を定義する。 操作状態(ポイント指示):指で指し示す状態を示す。撮影画像から指差し状態を検知し生成した操作状態情報を遠隔端末へ送付する。その操作状態情報を受信した遠隔端末では操作状態(ポイント指示)を人物のシルエットと手の周囲への塗りつぶし円で表示する。
操作状態(手未検出):人物が立っている状態を示す。撮影画像から人物領域のみ検知し手の形状は検知できなかった場合、操作状態(手未検出)を示す操作状態情報を生成して、その情報を遠隔端末へ送付する。その操作状態情報を受信した遠隔端末側では人物のシルエットのみ表示する。
FIGS. 8A to 8C show a state where the pointing operation state is displayed on the terminal 102 when pointing with a finger to the whiteboard at the terminal 101 base. It also shows the behavior when the person's hand state cannot be detected from the captured image. First, define terms. Operation state (point instruction): Indicates a state of pointing with a finger. Operation state information generated by detecting the pointing state from the captured image is sent to the remote terminal. The remote terminal that has received the operation state information displays the operation state (point instruction) with a silhouette of the person and a circle around the hand.
Operation state (hand not detected): Indicates a state where a person is standing. If only the human region is detected from the photographed image and the hand shape cannot be detected, operation state information indicating the operation state (hand not detected) is generated, and the information is sent to the remote terminal. Only the silhouette of the person is displayed on the remote terminal side that has received the operation state information.

図8(a)は本拠点(端末101)と遠隔拠点(端末102)のホワイトボードにお互いの書き込み画像を重畳投影している状態を示す。端末101側の書き込み801「a+b=」の書き込み画像803が端末102側に投影される一方、端末102側の書き込み804「2」の書き込み画像802が端末101側へ投影されることを示している。この状態で端末101側のホワイトボードに人物が指を指し示すと、操作状態(ポイント指示)が検出されて、それを示す操作状態情報が端末102に送信される。それを受信した端末102は、ホワイトボードに、現在の操作状態を示す操作状態(ポイント指示)805を表示する。図8(b)はその状態を示している。図8(c)では、端末101側のホワイトボードに人物が背を向けて書き込みを行っている。この状態では人物領域は検知できても手の形状は検知できない。そのため端末101側では操作状態(手未検出)を検知し、それを示す操作状態情報を端末102に送信する。それを受信した端末102は、端末102側のホワイトボードに現在の操作状態である操作状態(手未検出)806を投影して表示する。   FIG. 8A shows a state in which the written images are superimposed and projected on the whiteboard at the main site (terminal 101) and the remote site (terminal 102). It shows that the writing image 803 of the writing 801 “a + b =” on the terminal 101 side is projected to the terminal 102 side, while the writing image 802 of the writing 804 “2” on the terminal 102 side is projected to the terminal 101 side. ing. In this state, when a person points a finger to the whiteboard on the terminal 101 side, an operation state (point instruction) is detected, and operation state information indicating the operation state is transmitted to the terminal 102. The terminal 102 that has received the message displays an operation state (point instruction) 805 indicating the current operation state on the whiteboard. FIG. 8B shows this state. In FIG. 8C, a person is writing with the back on the whiteboard on the terminal 101 side. In this state, even if the person area can be detected, the shape of the hand cannot be detected. Therefore, the terminal 101 side detects the operation state (hand undetected) and transmits operation state information indicating it to the terminal 102. The terminal 102 that has received it projects and displays the operation state (hand undetected) 806 that is the current operation state on the whiteboard on the terminal 102 side.

<書き込み画像情報生成処理>
図5と図6を用いて書き込み画像情報を生成する処理を説明する。図5は、撮影画像を元に書き込み画像情報を生成する処理のフローチャートである。本処理は書き込み画像生成部312で行われ、撮影画像を解析しホワイトボードに描かれた物理書き込みを変換した書き込み画像を元に書き込み画像情報を生成するものである。図6は、撮影画像を元に書き込み画像情報を生成する例である。この処理は撮影画像入力部311から送られる動画の毎フレームに対して行われる。あるいは所定数のフレームおきに行われてもよい。図6はCPU201により実行される。
<Writing image information generation process>
A process for generating write image information will be described with reference to FIGS. 5 and 6. FIG. 5 is a flowchart of a process for generating written image information based on a captured image. This process is performed by the writing image generation unit 312 and generates writing image information based on a writing image obtained by analyzing a photographed image and converting physical writing drawn on a whiteboard. FIG. 6 shows an example in which writing image information is generated based on a captured image. This process is performed for each frame of the moving image sent from the photographed image input unit 311. Alternatively, it may be performed every predetermined number of frames. FIG. 6 is executed by the CPU 201.

撮影画像等から書き込み画像の生成タイミングに適しているかを判定する(S4000)。なお、以下の説明では書き込み画像の生成タイミングのことを撮影タイミングと呼ぶ。会議参加者がジェスチャ入力部361や、HID入力部362、音声入力部363を介して操作を行い、書き込み画像操作部364から撮影タイミングを受け取ることができる。例えば、画像撮影モジュール211が撮影した撮影画像をジェスチャ入力部361が解析し、その中で行われた特定の身振り・手振りを持って、撮影タイミングであると判定できる。また、ジェスチャ入力部361が撮影画像中から動体が無くなるタイミングをもって、撮影タイミングであると判定する事もできる。HIDモジュール213としてのマウスでクリックしたことをHID入力部302が解釈し、撮影タイミングであると判定できる。音声入力モジュール213で入力された音声を音声入力部263で解釈し、特定キーワードを検出したタイミングを、撮影タイミングであると判定できる。   It is determined from the photographed image etc. whether it is suitable for the generation timing of the written image (S4000). In the following description, the generation timing of the written image is referred to as shooting timing. A conference participant can perform an operation via the gesture input unit 361, the HID input unit 362, and the voice input unit 363, and can receive the shooting timing from the writing image operation unit 364. For example, the gesture input unit 361 analyzes a photographed image photographed by the image photographing module 211, and can determine that it is a photographing timing with a specific gesture / hand gesture performed therein. The gesture input unit 361 can also determine that it is the shooting timing with the timing when the moving object disappears from the captured image. The HID input unit 302 interprets that the mouse is clicked as the HID module 213, and it can be determined that it is the photographing timing. The voice input unit 263 interprets the voice input by the voice input module 263, and the timing at which the specific keyword is detected can be determined as the shooting timing.

上記の撮影タイミングであるかを判断した結果に基づいて処理を分岐する(S4010)。撮影タイミングではない場合には、このフレームに対する処理を終了する。撮影タイミングである場合には、書き込み撮影用画像の投影指示をセットする(S4020)。これは後述する盤面画像形成部332に対して、書き込み撮影用画像をプロジェクタに投影するための指示を出すものである。そして盤面画像形成部332にて形成された書き込み撮影用画像が投影されたホワイトボードを撮影し、撮影画像を取得する(S4022)。書き込み撮影用画像とは、ホワイトボードに描かれた書き込み画像を撮影するためにホワイトボードに投影するための画像であり、たとえば空白画像である。   The process branches based on the result of determining whether it is the above photographing timing (S4010). If it is not the photographing timing, the processing for this frame is terminated. If it is the photographing timing, a projection instruction for the written photographing image is set (S4020). This is an instruction for projecting a writing image to the projector to a board surface image forming unit 332 described later. Then, the whiteboard on which the image for writing and photographing formed by the board image forming unit 332 is projected is photographed to obtain a photographed image (S4022). The image for writing and photographing is an image for projecting onto the whiteboard in order to photograph the written image drawn on the whiteboard, for example, a blank image.

この処理例を図6(a)〜(c)に示す。図6(a)では端末101拠点に端末102拠点の書き込み602の画像601が投影されており、図6(b)にてユーザが、端末101拠点でホワイトボードへ書き込み603の書き込みを行う。書き込み中は、図6(b)のように、操作軌跡604が端末102により表示される。そして拠点101では、図6(c)に示すように、書き込み撮影用画像605を投影し端末102の書き込みの投影をやめた状態の撮影画像を取得する。この例では書き込み撮影用画像605は空白であり、端末101における書き込み602の書き込み画像601が投影されていない。   An example of this processing is shown in FIGS. In FIG. 6A, the image 601 of the writing 602 of the terminal 102 base is projected on the terminal 101 base. In FIG. 6B, the user writes the writing 603 on the whiteboard at the terminal 101 base. During writing, the operation locus 604 is displayed by the terminal 102 as shown in FIG. Then, at the base 101, as shown in FIG. 6C, a written image 605 is projected, and a captured image in a state where the writing of the terminal 102 is stopped is acquired. In this example, the writing image 605 is blank, and the writing image 601 of the writing 602 in the terminal 101 is not projected.

S4022で撮影画像を取得すると盤面画像形成部332に対する書き込み撮影用画像の投影指示を解除する(S4023)。取得した撮影画像に対して盤面共有領域の幾何変換と色処理等の画像処理を行いホワイトボードの書き込みを書き込み画像として生成する(S4024)。生成した書き込み画像を元に書き込み画像情報を生成する(S4026)。書き込み画像情報の例を図6(e)に示す。図に示した通り書き込み画像情報610は、オブジェクトID611、オブジェクトタイプ612、生成端末情報613、生成時刻情報614、画像情報615、画像位置情報616の属性を持つ。オブジェクトID611は書き込み画像情報を含む電子オブジェクトにシーケンシャルに付与される識別子である。オブジェクトタイプ612は電子オブジェクトの種類を示すものでここでは書き込み画像情報を示す情報「書き込み画像」をセットする。生成端末情報613は、電子オブジェクトを生成した端末を表わす識別子がセットされる。本実施形態では端末101と端末102とする。生成時刻情報614は電子オブジェクトを生成した時刻を示す。画像情報615は書き込み画像として生成した画像データ本体である。画像位置情報616は盤面共有領域内に書き込み画像を配置する座標情報である。本実施形態では盤面共有領域の左上を原点とする座標系とする。また書き込み画像は盤面共有領域全体を対象とし常に左上に配置される例を示しており、画像位置情報は(0,0)である。   When the photographed image is acquired in S4022, the instruction to project the written photographed image to the panel image forming unit 332 is canceled (S4023). The acquired image is subjected to image processing such as geometric transformation of the board shared area and color processing, and whiteboard writing is generated as a writing image (S4024). Write image information is generated based on the generated write image (S4026). An example of written image information is shown in FIG. As shown in the figure, the written image information 610 has attributes of object ID 611, object type 612, generation terminal information 613, generation time information 614, image information 615, and image position information 616. An object ID 611 is an identifier that is sequentially assigned to an electronic object that includes written image information. The object type 612 indicates the type of electronic object, and here, information “written image” indicating written image information is set. In the generation terminal information 613, an identifier representing the terminal that generated the electronic object is set. In this embodiment, the terminals 101 and 102 are used. Generation time information 614 indicates the time when the electronic object was generated. Image information 615 is an image data body generated as a written image. Image position information 616 is coordinate information for arranging a written image in the board surface shared area. In the present embodiment, a coordinate system having the origin at the upper left of the board surface shared area is used. The written image is an example in which the entire board shared area is always arranged at the upper left, and the image position information is (0, 0).

生成した書き込み画像情報は書き込み画像情報更新部313にて電子オブジェクト記憶部331に格納し(S4028)、そして電子オブジェクト送信部314を用いて遠隔端末へ送信する(S4030)。   The generated writing image information is stored in the electronic object storage unit 331 by the writing image information update unit 313 (S4028), and is transmitted to the remote terminal using the electronic object transmission unit 314 (S4030).

図6(d)に示す通り、生成された書き込み画像情報607を遠隔端末に送信すると、遠隔端末(端末102)に本端末(端末101)で書き込んだ書き込み画像情報607すなわち「a+b=」という書き込み画像が投影され、ホワイトボードの書き込みが共有される。   As shown in FIG. 6D, when the generated write image information 607 is transmitted to the remote terminal, the write image information 607 written to the remote terminal (terminal 102) by the present terminal (terminal 101), that is, “a + b =” The projected image is projected and the writing on the whiteboard is shared.

<操作情報生成処理>
図7、図9、図10A、図10B、図11、図14を用いて操作情報を生成する処理を説明する。図7は、撮影画像を元に操作情報を生成する処理のフローチャートである。本処理は操作情報生成部341で行われ、撮影画像を解析して得た人物の操作状態を元に操作情報を生成するものである。図9は、ホワイトボードの撮影画像と操作状態の解析対応の一例を示す。図10A、図10B(まとめて図10と呼ぶ)は、操作状態の解析結果から生成した操作状態情報の一例を示す。図11は、操作状態の解析結果から生成した操作軌跡情報の一例を示す。図14は、背景画像の一例を示す。図7のフローチャートに沿って処理と、処理例を説明する。処理例は図9に示した操作状態の解析結果から生成した操作状態情報の一例を参照しながら説明する。
<Operation information generation process>
Processing for generating operation information will be described with reference to FIGS. 7, 9, 10A, 10B, 11, and 14. FIG. FIG. 7 is a flowchart of processing for generating operation information based on a captured image. This processing is performed by the operation information generation unit 341, and operation information is generated based on the operation state of the person obtained by analyzing the captured image. FIG. 9 shows an example of the correspondence between the captured image of the whiteboard and the operation state. 10A and 10B (collectively referred to as FIG. 10) show an example of operation state information generated from the analysis result of the operation state. FIG. 11 shows an example of operation trajectory information generated from the analysis result of the operation state. FIG. 14 shows an example of a background image. Processing and a processing example will be described along the flowchart of FIG. A processing example will be described with reference to an example of operation state information generated from the operation state analysis result shown in FIG.

ステップS4100で背景画像記憶部336から背景画像を取得する。ここで図9に端末101側におけるホワイトボードの状態例、そして図14に背景画像に一例を示す。図9(a)に示した通りホワイトボードの撮影範囲901内には書き込み「a+b=」と投影された画像「2」が存在する。この場合図14に示した通り端末101が取得した書き込み画像「a+b=」と端末102が取得した書き込み画像「2」とにそれぞれ対応する書き込み画像情報を、それぞれの位置情報に応じて合成し、合成された背景画像「a+b=2」が背景画像記憶部336に格納される。なお本例では書き込み画像のみが背景画像を構成しているが、遠隔端末における操作状態をホワイトボードに表示している本端末では、遠隔端末の操作状態を示す画像も背景画像に合成される。 ステップS4102で撮影画像入力部311から撮影画像を取得する。ステップS4104で撮影画像と背景画像から背景差分の画像を生成する。ステップS4106で背景差分画像から人物領域を抽出する。ここまでの処理例を図9に示す。図9(a)は人物領域の検出なし、図9(b)〜図9(d)は人物領域の検出あり、図9(e)は人物領域の検出ありでかつ複数の人物領域を検出している状態である。   In step S4100, a background image is acquired from the background image storage unit 336. FIG. 9 shows an example of the state of the whiteboard on the terminal 101 side, and FIG. 14 shows an example of the background image. As shown in FIG. 9A, the image “2” projected as “a + b =” is present in the photographing range 901 of the whiteboard. In this case, as shown in FIG. 14, the writing image information corresponding to the writing image “a + b =” acquired by the terminal 101 and the writing image “2” acquired by the terminal 102 is synthesized according to the respective position information. Then, the synthesized background image “a + b = 2” is stored in the background image storage unit 336. In this example, only the written image constitutes the background image. However, in this terminal displaying the operation state of the remote terminal on the whiteboard, the image indicating the operation state of the remote terminal is also synthesized with the background image. In step S 4102, a captured image is acquired from the captured image input unit 311. In step S4104, a background difference image is generated from the captured image and the background image. In step S4106, a person region is extracted from the background difference image. An example of the processing so far is shown in FIG. 9 (a) shows no person area detection, FIGS. 9 (b) to 9 (d) show person area detection, FIG. 9 (e) shows person area detection, and detects a plurality of person areas. It is in a state.

ステップS4110で人物領域の検出有無で処理を分岐する。次のステップ以降で操作状態情報を生成するので、まずは操作状態情報のフォーマットを説明する。なお、ここでは背景差分画像にオブジェクトが含まれていればそれを人物領域と判定する。撮影画像と背景画像とでは例えば書き込み画像の位置がずれていることもあり得る。そこで、背景差分画像に含まれた例えば消去しきれない輪郭線などを検出し、それを削除する補正を施してもよい。   In step S4110, the process branches depending on whether or not a person area is detected. Since the operation state information is generated in the subsequent steps, the format of the operation state information will be described first. Here, if an object is included in the background difference image, it is determined as a person area. For example, the position of the written image may be shifted between the captured image and the background image. Therefore, for example, an outline that cannot be completely erased included in the background difference image may be detected and correction may be performed to delete it.

図10に示した通り操作状態情報1000は、オブジェクトID1001、オブジェクトタイプ1002、生成端末情報1003、生成時刻情報1004、人物有無1005、人物ID1006、人物領域情報1007、人物位置1008、手の検出1009、操作タイプ1010、手の位置1011の属性を持つ。ここでオブジェクトID1001は操作状態情報を含む電子オブジェクトにシーケンシャルに付与される識別子である。オブジェクトタイプ1002は電子オブジェクトの種類を示すものでここでは操作状態情報を示す「操作状態」をセットする。生成端末情報1003は、電子オブジェクトを生成した端末を表わす識別子を用いる。本実施形態では端末101と端末102とする。生成時刻情報1004は電子オブジェクトを生成した時刻を示す。人物有無1005は人物領域の検出のありなしを示す。人物ID1006は検出した人物領域にシーケンシャルに付与される識別子である。ここでは撮影画像の左側から順に1,2,3と付与する。人物領域情報1007は抽出した人物領域の画像データ本体である。人物領域は矩形であり人物領域を示す単色の画像とする。人物位置1008は盤面共有領域内に対する人物領域の位置座標情報である。本実施形態では盤面共有領域の左上を原点とする座標系で、人物領域の矩形左上の座標を格納する。手の検出1009は手の形状の検出ありなしを示す。操作タイプ1010は手の形状検出結果から決定する操作タイプで、「ポイント指示」あるいは「書き込み」のいずれかを格納する。手の位置1011は手の形状の検出位置を示すものである。手の検出位置の中央座標を格納する。   As shown in FIG. 10, the operation state information 1000 includes an object ID 1001, an object type 1002, generation terminal information 1003, generation time information 1004, person presence / absence 1005, person ID 1006, person area information 1007, person position 1008, hand detection 1009, Has operation type 1010 and hand position 1011 attributes. Here, the object ID 1001 is an identifier that is sequentially assigned to the electronic object including the operation state information. The object type 1002 indicates the type of electronic object. Here, “operation state” indicating operation state information is set. The generation terminal information 1003 uses an identifier representing the terminal that generated the electronic object. In this embodiment, the terminals 101 and 102 are used. Generation time information 1004 indicates the time when the electronic object was generated. Person presence / absence 1005 indicates whether or not a person area is detected. The person ID 1006 is an identifier that is sequentially assigned to the detected person area. Here, 1, 2, and 3 are assigned in order from the left side of the photographed image. The person area information 1007 is the image data body of the extracted person area. The person area is a rectangle and is a single color image showing the person area. The person position 1008 is position coordinate information of the person area with respect to the board surface shared area. In the present embodiment, the coordinates of the upper left corner of the person area are stored in a coordinate system with the upper left corner of the board shared area as the origin. Hand detection 1009 indicates whether or not a hand shape is detected. The operation type 1010 is an operation type determined from the hand shape detection result, and stores either “point instruction” or “writing”. The hand position 1011 indicates the detection position of the hand shape. Stores the center coordinates of the hand detection position.

ステップS4110で人物領域を検出しなければステップS4120へ進み人物領域無しの操作状態情報を生成する。この処理例は図9(a)に示した解析状態に対応し、図10(a)に示す操作状態情報を生成する。図9の撮影範囲901内に表示される書き込み画像等の画像および書き込みは背景画像に含まれるため、図9(a)のホワイトボードの撮影画像からは人物領域は検出されない。そこで人物領域無しのため人物有無1005に「なし」、その他人物や手の検出に関する情報は不要なので(null)をセットする。ステップS4130へ進む。   If no person area is detected in step S4110, the process advances to step S4120 to generate operation state information without a person area. This processing example corresponds to the analysis state shown in FIG. 9A and generates operation state information shown in FIG. Since an image such as a written image and writing displayed in the shooting range 901 of FIG. 9 are included in the background image, no person area is detected from the shot image of the whiteboard of FIG. 9A. Therefore, since there is no person area, “None” is set in the person presence / absence 1005, and other information regarding the person and hand detection is unnecessary (null). Proceed to step S4130.

ステップS4110で人物領域を検出したならばステップS4150へ進む。ステップS4150からステップS4166の間は検出した人物領域の回数だけループする。図9(b)〜図9(d)は人物領域を1つ検出するのでループ回数は1回となる。図9(e)は人物領域を2つ検出するのでループ回数は2回である。   If a person area is detected in step S4110, the process proceeds to step S4150. Steps S4150 to S4166 are looped by the number of detected human areas. In FIG. 9B to FIG. 9D, since one person area is detected, the number of loops is one. Since FIG. 9E detects two person areas, the number of loops is two.

ステップS4150で新しい人物領域に対して手の形状をテンプレートマッチングする。ここで検出する手の形状は3種類ある。第1は、図9(b)に示した手の形状検出なし、第2は、図9(c)に示した手のポイント指示形状、第3は、図9(d)に示した手の書き込み形状である。指とペンとを正確に区別するために、例えばペンには特定の識別色や形状のマークを付してもよい。   In step S4150, the hand shape is template-matched to the new person area. There are three types of hand shapes to be detected here. The first is the hand shape detection shown in FIG. 9B, the second is the hand pointing shape shown in FIG. 9C, and the third is the hand shown in FIG. 9D. It is a writing shape. In order to accurately distinguish between a finger and a pen, for example, a mark with a specific identification color or shape may be attached to the pen.

ステップS4152で手の形状のテンプレートマッチング結果に応じて処理を分岐する。ステップS4152で手の形状が未検出の場合ステップS4154へ進み、未検出タイプの操作状態情報を生成する。具体的には図10(b)に示す操作状態情報1000を生成する。人物領域ありのため人物有無1005に「あり」、人物ID1006は1、人物領域情報1007は図9(b)の人物領域画像、人物位置1008は図9(b)に示す座標情報、手の検出1009はしていないので「なし」、操作タイプ1010と手の位置1011に関する情報は不要なので(null)をセットする。ステップS4160へ進む。   In step S4152, the process branches according to the template matching result of the hand shape. If the hand shape is not detected in step S4152, the process proceeds to step S4154, and undetected type operation state information is generated. Specifically, the operation state information 1000 shown in FIG. 10B is generated. Because there is a person area, the presence / absence of person 1005 is “Yes”, person ID 1006 is 1, person area information 1007 is the person area image of FIG. 9B, person position 1008 is the coordinate information shown in FIG. Since 1009 is not performed, “None” is set, and information regarding the operation type 1010 and the hand position 1011 is not necessary (null) is set. Proceed to step S4160.

ステップS4152で手の形状がポイント指示形状の場合ステップS4156へ進み、ポイント指示タイプの操作状態情報を生成する。具体的には図10(c)に示す操作状態情報1000を生成する。人物領域ありのため人物有無1005に「あり」、人物ID1006は1、人物領域情報1007は図9(c)の人物領域画像、人物位置1008は図9(c)に示す座標情報、手の検出1009は「あり」、操作タイプ1010は「ポイント指示」、手の位置1011は図9(c)に示す手を検出した座標をセットする。ステップS4160へ進む。   If it is determined in step S4152 that the hand shape is a point indication shape, the process advances to step S4156 to generate point indication type operation state information. Specifically, the operation state information 1000 shown in FIG. 10C is generated. Because there is a person area, the presence / absence of person 1005 is “Yes”, person ID 1006 is 1, person area information 1007 is the person area image of FIG. 9C, person position 1008 is the coordinate information shown in FIG. 1009 is “present”, the operation type 1010 is “point indication”, and the hand position 1011 is set to the coordinates for detecting the hand shown in FIG. Proceed to step S4160.

ステップS4152で手の形状が書き込み形状の場合ステップS4158へ進み、書き込みタイプの操作状態情報を生成する。具体的には図10(d)に示す操作状態情報1000を生成する。人物領域ありのため人物有無1005に「あり」、人物ID1006は1、人物領域情報1007は図9(d)の人物領域画像、人物位置1008は図9(d)に示す座標情報、手の検出1009は「あり」、操作タイプ1010は「書き込み」、手の位置1011は図9(d)に示す手を検出した座標をセットする。ステップS4170へ進む。ここまでの処理で生成した操作状態情報1000は操作状態記憶部342に格納する。   If it is determined in step S4152 that the hand shape is a writing shape, the process advances to step S4158 to generate writing type operation state information. Specifically, the operation state information 1000 shown in FIG. 10 (d) is generated. Because there is a person area, the presence / absence of person 1005 is “Yes”, person ID 1006 is 1, person area information 1007 is the person area image of FIG. 9D, person position 1008 is the coordinate information shown in FIG. 1009 is “Yes”, the operation type 1010 is “Write”, and the hand position 1011 is set to the coordinates of detecting the hand shown in FIG. Proceed to step S4170. The operation state information 1000 generated by the processing so far is stored in the operation state storage unit 342.

次に操作軌跡情報の生成に関する処理を説明する。操作軌跡情報は図4で説明したとおり操作状態(書き込み)が一定時間、一定距離内を保持されたと判断すると生成するものである。操作軌跡情報の生成処理はステップS4170以降の処理で行う。また判断の途中で不要となる操作軌跡情報はステップS4160以降の処理で削除する。   Next, processing related to generation of operation trajectory information will be described. The operation trajectory information is generated when it is determined that the operation state (writing) is held within a certain distance for a certain time as described with reference to FIG. The operation trajectory information generation process is performed in processes after step S4170. Further, the operation trajectory information which becomes unnecessary during the determination is deleted in the processing after step S4160.

まずは操作軌跡情報の生成をステップS4170から説明する。操作軌跡情報は図11にフォーマットを示す。操作軌跡情報1100は操作軌跡情報記憶部343に格納する。内容は操作状態情報の書き込みタイプに準ずる。すなわち操作軌跡情報1100に含まれる項目1101〜1111は、操作状態情報1000の項目1001〜1011に準ずる。異なるのはオブジェクトタイプ1102である。オブジェクトタイプ1102には軌跡候補と軌跡確定の2つが存在する。図11(a)は、操作軌跡情報1100のうち、軌跡情報の候補として一時的に記憶するものの一例であり、図11(b)は、操作軌跡情報1100のうち、軌跡情報として確定したものの一例である。   First, generation of operation trajectory information will be described from step S4170. The operation trajectory information has a format shown in FIG. The operation locus information 1100 is stored in the operation locus information storage unit 343. The content conforms to the operation type information writing type. That is, the items 1101 to 1111 included in the operation trajectory information 1100 conform to the items 1001 to 1011 of the operation state information 1000. The object type 1102 is different. There are two types of object types 1102: trajectory candidates and trajectory confirmation. FIG. 11A is an example of information temporarily stored as trajectory information candidates in the operation trajectory information 1100, and FIG. 11B is an example of information confirmed as trajectory information in the operation trajectory information 1100. It is.

ステップS4170で操作軌跡記憶部343に操作軌跡候補、すなわちオブジェクトタイプ1102が「軌跡候補」である操作軌跡情報1100が存在するか判定する。操作軌跡候補が無ければステップS4182へ進み新たな操作軌跡候補を生成する。具体的にはステップS4158で生成した書き込みタイプの操作状態情報1000を複製し、そのオブジェクトタイプを「操作状態」から「軌跡候補」に変更した操作軌跡情報1100を新たな操作軌跡候補として新規生成する。ステップS4166へ進み、他の人物領域がまだ残っていればステップS4150からの処理に戻る。ステップS4166で他の人物領域が残っていなければステップS4130へ処理を進める。   In step S4170, it is determined whether or not operation locus candidates, that is, operation locus information 1100 whose object type 1102 is “trajectory candidate” exists in the operation locus storage unit 343. If there is no operation locus candidate, the process proceeds to step S4182, and a new operation locus candidate is generated. Specifically, the operation state information 1000 of the writing type generated in step S4158 is duplicated, and operation locus information 1100 whose object type is changed from “operation state” to “trajectory candidate” is newly generated as a new operation locus candidate. . Proceeding to step S4166, if other person areas still remain, the process returns to step S4150. If no other person area remains in step S4166, the process proceeds to step S4130.

一方、ステップS4170で操作軌跡候補が存在すればステップS4172へ進む。ステップS4172で、操作軌跡記憶部343に格納されている操作軌跡候補の生成時刻情報を参照し、現在の時刻が生成時刻から一定時間が経過しているかを判断する。生成時刻から一定時間が経過していない場合(NO)にはなにも処理をせずにステップS4166へ進む。ステップS4166で他の人物領域がまだ残っていればステップS4150からの処理に戻る。ステップS4166で他の人物領域が残っていなければステップS4130へ処理を進める。   On the other hand, if an operation locus candidate exists in step S4170, the process proceeds to step S4172. In step S4172, the operation trajectory candidate generation time information stored in the operation trajectory storage unit 343 is referred to, and it is determined whether a certain time has elapsed from the generation time of the current time. If the predetermined time has not elapsed since the generation time (NO), the process proceeds to step S4166 without performing any processing. If other person areas still remain in step S4166, the process returns to step S4150. If no other person area remains in step S4166, the process proceeds to step S4130.

一方ステップS4172で、ステップS4170で見出した操作軌跡記憶部343に格納された操作軌跡候補の生成時刻情報を参照し、生成時刻から一定時間が経過している(YES)場合にはステップS4174へ進む。ステップS4174では、操作軌跡記憶部343に格納される操作軌跡候補の手の位置座標と、ステップS4158で生成した書き込みタイプの操作状態情報の手の位置座標とを比較する。比較は2つの位置の間の距離を算出することで行う。位置差分すなわち距離が一定距離以下の場合(YES)、ステップS4176で現在の操作軌跡候補を確定した操作軌跡に変更して保持する。具体的には、ステップS4170で見出された操作軌跡候補の、図11(a)に示したオブジェクトタイプ1102を、「軌跡候補」から図11(b)に示した「軌跡確定」に変更する。ステップS4178へ進む。ステップS4178で、ステップS4158で生成した書き込みタイプの操作状態情報1000を複製し、そのオブジェクトタイプを「軌跡候補」に変更した新たな操作軌跡情報1100を、新たな操作軌跡候補として操作軌跡記憶部343に追加してステップS4166へ進む。   On the other hand, in step S4172, the generation time information of the operation trajectory candidate stored in the operation trajectory storage unit 343 found in step S4170 is referred to, and when a predetermined time has elapsed from the generation time (YES), the process proceeds to step S4174. . In step S4174, the position coordinate of the hand of the operation track candidate stored in the operation track storage unit 343 is compared with the position coordinate of the hand of the write-type operation state information generated in step S4158. The comparison is performed by calculating the distance between the two positions. If the position difference, that is, the distance is equal to or smaller than the predetermined distance (YES), the current operation locus candidate is changed to the confirmed operation locus in step S4176 and held. Specifically, the object type 1102 shown in FIG. 11A of the operation trajectory candidate found in step S4170 is changed from “trajectory candidate” to “trajectory confirmation” shown in FIG. 11B. . Proceed to step S4178. In step S4178, the operation state information 1000 of the writing type generated in step S4158 is duplicated, and the new operation locus information 1100 whose object type is changed to “trajectory candidate” is used as a new operation locus candidate as the operation locus storage unit 343. And go to step S4166.

一方ステップS4174で判断する手の位置差分が一定距離以下で無い場合(NO)、ステップS4180で操作軌跡候補の操作軌跡情報を更新する。具体的にはステップS4158で生成した書き込みタイプの操作状態情報のオブジェクトタイプ1002を「軌跡候補」に変更した操作軌跡情報1100を、既存の(すなわちステップS4170で見出した操作軌跡候補の)操作軌跡情報と置き換える。換言すれば、既存の操作軌跡候補のオブジェクトタイプ1102を除く各フィールドに、ステップS4158で生成した操作状態情報の対応するフィールドの値を上書きする。ステップS4166へ進む。ステップS4166で他の人物領域がまだ残っていればステップS4150からの処理に戻る。ステップS4166で他の人物領域が残っていなければステップS4130へ処理を進める。   On the other hand, if the hand position difference determined in step S4174 is not less than a certain distance (NO), the operation trajectory information of the operation trajectory candidate is updated in step S4180. Specifically, the operation trajectory information 1100 obtained by changing the object type 1002 of the write-type operation state information generated in step S4158 to “trajectory candidate” is stored in the existing operation trajectory information (that is, the operation trajectory candidate found in step S4170). Replace with In other words, each field excluding the object type 1102 of the existing operation locus candidate is overwritten with the value of the corresponding field of the operation state information generated in step S4158. Proceed to step S4166. If other person areas still remain in step S4166, the process returns to step S4150. If no other person area remains in step S4166, the process proceeds to step S4130.

このように、手が書き込み形状であることを検出すると、手が一定の速さ以下の速さで移動していれば、書き込みが行われていると判定して、その手の軌跡を一定時間おきの座標として記録する。   As described above, when it is detected that the hand has a writing shape, if the hand moves at a speed equal to or less than a certain speed, it is determined that writing is being performed, and the locus of the hand is determined for a certain period of time. Record as every other coordinate.

次に不要となる操作軌跡情報の削除処理を説明する。ステップS4160で操作軌跡記憶部343に操作軌跡候補が存在するか確認する。操作軌跡候補が無い場合(NO)ステップS4166へ進む。   Next, unnecessary operation track information deletion processing will be described. In step S4160, it is confirmed whether an operation locus candidate exists in the operation locus storage unit 343. If there is no operation locus candidate (NO), the process proceeds to step S4166.

一方ステップS4160で操作軌跡候補がある場合(YES)ステップS4162へ進む。ステップS4162で、操作軌跡記憶部343に格納される操作軌跡候補の生成時刻情報を参照し、生成時刻から一定時間が経過しているかを判断する。生成時刻から一定時間が経過していない場合(NO)にはなにも処理をせずにステップS4166へ進む。   On the other hand, if there is an operation locus candidate in step S4160 (YES), the process proceeds to step S4162. In step S4162, with reference to the generation time information of the operation trajectory candidate stored in the operation trajectory storage unit 343, it is determined whether a certain time has elapsed from the generation time. If the predetermined time has not elapsed since the generation time (NO), the process proceeds to step S4166 without performing any processing.

一方ステップS4162で、操作軌跡情報記憶部343に格納される操作軌跡候補の生成時刻情報を参照し、生成時刻から一定時間が経過している(YES)場合にはステップS4164へ進む。生成時刻から一定時間が経過しているポイント指示タイプの操作軌跡候補は不要であると判断される。ステップS4164では、不要となった操作軌跡候補の操作軌跡情報1100を削除しステップS4166へ進む。ステップS4166で他の人物領域がまだ残っていればステップS4150からの処理に戻る。ステップS4166で他の人物領域が残っていなければステップS4130へ処理を進める。   On the other hand, in step S4162, the generation time information of the operation trajectory candidate stored in the operation trajectory information storage unit 343 is referred to, and when a predetermined time has elapsed from the generation time (YES), the process proceeds to step S4164. It is determined that a point indication type operation trajectory candidate for which a predetermined time has elapsed from the generation time is unnecessary. In step S4164, the operation trajectory information 1100 of the operation trajectory candidate that has become unnecessary is deleted, and the process proceeds to step S4166. If other person areas still remain in step S4166, the process returns to step S4150. If no other person area remains in step S4166, the process proceeds to step S4130.

操作状態情報と操作軌跡情報の更新処理をステップS4130とステップS4140で説明する。本処理は操作情報更新部344で処理される。ステップS4130で、操作状態記憶部342に格納されている操作状態情報を電子オブジェクト記憶部331へ格納する。ステップS4140で、操作状態記憶部342に格納される操作状態情報と、操作軌跡記憶部342に格納される確定した操作軌跡情報、すなわちオブジェクトタイプ1102が「軌跡確定」の操作軌跡情報とを、電子オブジェクトパケット送信部314を用いて遠隔端末へ送信する。送信済みの操作状態情報と操作軌跡確定情報とを削除し処理を終了する。   The update process of the operation state information and the operation trajectory information will be described in steps S4130 and S4140. This processing is processed by the operation information update unit 344. In step S 4130, the operation state information stored in operation state storage unit 342 is stored in electronic object storage unit 331. In step S4140, the operation state information stored in the operation state storage unit 342 and the confirmed operation track information stored in the operation track storage unit 342, that is, the operation track information whose object type 1102 is “track determination” are The object packet transmission unit 314 is used to transmit to the remote terminal. The transmitted operation state information and operation trajectory confirmation information are deleted, and the process ends.

<電子オブジェクト受信処理>
図12を用いて電子オブジェクト受信処理を説明する。図12は電子オブジェクト受信処理のフローチャートである。本処理は電子オブジェクト更新判断部322で行われ、受信した電子オブジェクトの種類に応じて電子オブジェクト記憶部の内容を更新するものである。受信するオブジェクトは3種類に大別される。図6(e)に示した書き込み画像情報、図10(a)〜(e)に示した操作状態情報、図11(b)に示した、確定した操作軌跡情報である。
<Electronic object reception processing>
The electronic object reception process will be described with reference to FIG. FIG. 12 is a flowchart of the electronic object reception process. This process is performed by the electronic object update determination unit 322, and the contents of the electronic object storage unit are updated according to the type of the received electronic object. The objects to be received are roughly classified into three types. The written image information shown in FIG. 6 (e), the operation state information shown in FIGS. 10 (a) to 10 (e), and the confirmed operation trajectory information shown in FIG. 11 (b).

ステップS4200で、電子オブジェクト受信部321を用いて受信した電子オブジェクトを取得する。ステップS4210で、受信したオブジェクトの種類をオブジェクトタイプで判断する。ステップS4210で、受信したオブジェクトが書き込み画像情報610と判断したならばステップS4220へ進み、電子オブジェクト記憶部331に格納されている操作軌跡情報のうち、受信した書き込み画像情報610と生成端末614が同一の操作軌跡情報を削除しステップS4230へ進む。これは図4(e)に示した書き込み画像406を受信するとそれまで投影表示していた操作軌跡403の表示を消すためである。ステップS4230で、電子オブジェクト記憶部331に格納されている書き込み画像情報610のうち、受信した書き込み画像情報610と生成端末614が同一の書き込み画像情報を、受信した書き込み画像情報610で更新して処理を終了する。この処理により遠隔端末から送付された書き込み画像情報を最新にすることが完了する。   In step S4200, the electronic object received using electronic object receiver 321 is acquired. In step S4210, the type of the received object is determined based on the object type. If it is determined in step S4210 that the received object is the written image information 610, the process proceeds to step S4220, and the received written image information 610 and the generation terminal 614 are the same among the operation trajectory information stored in the electronic object storage unit 331. Is deleted, and the process proceeds to step S4230. This is because, when the written image 406 shown in FIG. 4E is received, the display of the operation trajectory 403 that has been projected and displayed is erased. In step S4230, among the written image information 610 stored in the electronic object storage unit 331, the received written image information 610 and the generation terminal 614 update the same written image information with the received written image information 610 and process it. Exit. This process completes the update of the written image information sent from the remote terminal.

ステップS4210で受信したオブジェクトが操作状態情報1000と判断したならばステップS4240へ進み、電子オブジェクト記憶部331に格納されている、受信した操作状態情報と生成端末が同一の操作状態情報を、受信した操作状態情報で更新し処理を終了する。この処理により遠隔端末から送付された操作状態情報を最新にすることが完了する。ステップS4210で受信したオブジェクトが操作軌跡情報と判断したならばステップS4250へ進み、電子オブジェクト記憶部331に操作軌跡情報を追加的に格納し処理を終了する。この処理により遠隔端末から送付された操作軌跡情報を追加することが完了する。   If it is determined that the object received in step S4210 is the operation state information 1000, the process proceeds to step S4240, and the operation state information stored in the electronic object storage unit 331 and the generation terminal having the same operation state information are received. Update with the operation status information and end the process. This process completes the update of the operation state information sent from the remote terminal. If it is determined that the object received in step S4210 is operation trajectory information, the process advances to step S4250 to additionally store the operation trajectory information in the electronic object storage unit 331, and the process ends. This process completes adding the operation trajectory information sent from the remote terminal.

<盤面画像形成処理>
図13を用いて盤面画像を形成する処理を説明する。図13は盤面画像形成処理のフローチャートである。本処理は盤面画像形成部332で行われ、書き込み画像情報生成部312からの撮影用投影画像の生成指示を判断して電子オブジェクト記憶部331に格納される電子オブジェクトから投影画像と背景画像を形成するものである。投影画像には2種ある。第1は、拠点でホワイトボードへの書き込みを撮影する際に投影される書き込み撮影用画像である。これは例えば空白画像である。第2は遠隔端末のホワイトボードの書き込み画像と操作情報とを本端末で投影するための盤面共有用画像である。これらをまとめて投影用画像と呼んでいる。
<Panel surface image forming process>
A process for forming a board image will be described with reference to FIG. FIG. 13 is a flowchart of the board image forming process. This process is performed by the panel image forming unit 332, and a projection image and a background image are formed from the electronic object stored in the electronic object storage unit 331 by judging the instruction to generate the projection image for shooting from the writing image information generating unit 312. To do. There are two types of projection images. The first is an image for writing and shooting projected when shooting writing on the whiteboard at the site. This is for example a blank image. The second is a board sharing image for projecting a whiteboard writing image and operation information of the remote terminal by this terminal. These are collectively called a projection image.

ステップS4300で、書き込み画像情報生成部312から指示される撮影用画像の投影指示のセット状態を判断する。そしてステップS4310で撮影用画像の投影指示がセット状態ならば(YES)、撮影用画像を投影する処理をステップS4320からステップ4324で行う。   In step S4300, the set state of the projection instruction for the photographic image instructed from write image information generation unit 312 is determined. If the projection instruction for the photographic image is set in step S4310 (YES), the process for projecting the photographic image is performed from step S4320 to step 4324.

一方、ステップS4310で撮影用画像の投影指示がセット状態でなければ(NO)、本拠点と遠隔拠点でホワイトボードの書き込み画像と遠隔拠点の操作状態そして操作軌跡を知るための投影画像すなわち盤面共有用画像を形成すると共に、背景画像を形成するまでの処理を行う。こちらはステップS4330からステップS4352で行う。   On the other hand, if the projection instruction of the shooting image is not set in step S4310 (NO), the whiteboard writing image, the remote base operation state, and the projection image for knowing the operation locus are shared between the main site and the remote site, that is, the board surface sharing. A process for forming a background image and a background image is performed. This is performed from step S4330 to step S4352.

まずは撮影用画像を投影する処理をステップS4320からステップ4324で説明する。ステップS4320で投影用画像データを初期化する。具体的にはホワイトボードに投影する撮影用画像である白画像で投影用画像を初期化する。ステップS4322で、作成した撮影用画像を投影画像記憶部335に投影用画像として格納する。ステップS4324で撮影用画像を背景画像として背景画像記憶部336に格納する。以上の処理により投影画像出力部333が投影画像記憶部335に格納した書き込み撮影用画像が画像投影モジュール212によりホワイトボードへ投影される。   First, the process of projecting an image for photographing will be described from step S4320 to step 4324. In step S4320, image data for projection is initialized. Specifically, the projection image is initialized with a white image that is a photographing image projected onto the whiteboard. In step S4322, the created shooting image is stored in the projection image storage unit 335 as a projection image. In step S4324, the image for shooting is stored in the background image storage unit 336 as a background image. With the above processing, the image for writing and shooting stored in the projection image storage unit 335 by the projection image output unit 333 is projected onto the whiteboard by the image projection module 212.

次に盤面共有用の投影画像と背景画像の形成処理をステップS4330からステップS4352で説明する。ステップS4330で電子オブジェクト記憶部331に格納される電子オブジェクトの更新状態をチェックし更新が無い場合(NO)新たな投影画像と背景画像の形成は不要なので処理を終了する。   Next, the process of forming the projection image for sharing the board and the background image will be described in steps S4330 to S4352. In step S4330, the update state of the electronic object stored in the electronic object storage unit 331 is checked. If there is no update (NO), it is not necessary to form a new projection image and a background image, and the process ends.

一方電子オブジェクトに更新がある場合(YES)新たな投影画像と背景画像の形成をするためステップS4340の処理へ進む。ステップS4340で投影用画像を初期化する。具体的にはホワイトボードに投影する背景色である白画像で初期化する。ステップS4342で、電子オブジェクト記憶部331に格納される操作軌跡情報のうち、生成端末1103が、本処理を実行している端末以外の端末(これを他拠点の端末と呼ぶ)であるような操作軌跡情報を描画する。具体的には図4(d)に示す操作軌跡情報403に対応する。描画対象は図11(b)に示した確定した操作軌跡情報である。ステップS4342では、この情報の手の位置座標1111で示される位置を中心とした一定サイズの塗りつぶし円を描画する。操作軌跡情報は複数存在することが可能である。そのため図4(d)に示した通り複数の円を重ねて描画することにより書き込み操作を行った軌跡として描画を行う。   On the other hand, if the electronic object is updated (YES), the process proceeds to step S4340 to form a new projection image and background image. In step S4340, the projection image is initialized. Specifically, initialization is performed with a white image as a background color projected on the whiteboard. Of the operation trajectory information stored in the electronic object storage unit 331 in step S4342, an operation in which the generation terminal 1103 is a terminal other than the terminal executing this processing (referred to as a terminal at another base). Draw trajectory information. Specifically, it corresponds to the operation trajectory information 403 shown in FIG. The drawing target is the confirmed operation trajectory information shown in FIG. In step S4342, a solid circle of a certain size is drawn centered on the position indicated by the hand position coordinates 1111 of this information. There can be a plurality of pieces of operation trajectory information. For this reason, as shown in FIG. 4D, a plurality of circles are drawn so as to be drawn as a locus of the writing operation.

ステップS4344で、電子オブジェクト記憶部331に格納される操作状態情報のうち、生成端末1003が他拠点の端末であるような操作状態情報を描画する。具体的には、図10(d)に示すような、人物有無1005が「あり」かつ手の検出1010が「あり」であり、かつ操作タイプ1010が「書き込み」の操作状態情報は、図4(c)に示すような書き込みタイプの操作状態403として描画される。また、図10(c)(e)に示すような、人物有無1005が「あり」かつ手の検出1010が「あり」であり、かつ操作タイプ1010が「ポイント指示」の操作状態情報は、図8(b)に示すようなポイント指示タイプの操作状態805として描画される。図10(c)(e)に示すような、人物有無1005が「あり」かつ手の検出1010が「なし」の操作状態情報は、図8(c)に示すような手未検出タイプの操作状態806として描画される。ポイント指示タイプと書き込みタイプでは、人物領域情報の画像を人物位置が示す座標位置にそれぞれ図9(c)、図9(d)のように描画する。更には手の位置を示す座標を中心とした一定サイズの円を描画する。手未検出タイプは人物領域情報の画像を人物位置が示す座標位置に図9(b)のように描画する。   In step S4344, among the operation state information stored in the electronic object storage unit 331, operation state information is drawn such that the generation terminal 1003 is a terminal at another site. Specifically, as shown in FIG. 10 (d), the operation status information in which the presence / absence of person 1005 is “present”, the hand detection 1010 is “present”, and the operation type 1010 is “write” is shown in FIG. Rendered as a write-type operation state 403 as shown in (c). Further, as shown in FIGS. 10C and 10E, the operation state information in which the presence / absence of person 1005 is “present”, the hand detection 1010 is “present”, and the operation type 1010 is “point indication” is shown in FIG. It is rendered as a point indication type operation state 805 as shown in FIG. As shown in FIGS. 10 (c) and 10 (e), the operation state information in which the presence / absence of a person 1005 is “present” and the hand detection 1010 is “not present” is an operation of a non-hand detection type as shown in FIG. Rendered as state 806. In the point instruction type and the writing type, the image of the person area information is drawn at the coordinate position indicated by the person position as shown in FIGS. 9C and 9D, respectively. Furthermore, a circle of a certain size is drawn around the coordinates indicating the position of the hand. The hand non-detection type draws an image of person area information at the coordinate position indicated by the person position as shown in FIG.

ステップS4346で、電子オブジェクト記憶部331に格納される生成端末が他拠点の書き込み画像を描画する。具体的な一例を図6(d)に示す端末102拠点を用いて説明する。端末102では端末101で生成された「a+b=」に相当する書き込み画像を投影する。図6(e)のオブジェクトタイプが書き込み画像であり生成端末情報が端末101である書き込み画像情報が対象である。ステップS4348で、形成した画像を投影画像記憶部335に格納する。以上でホワイトボードに投影するための盤面共有用画像の形成が完了する。   In step S4346, the generation terminal stored in the electronic object storage unit 331 draws a writing image at another site. A specific example will be described using the terminal 102 base shown in FIG. The terminal 102 projects a written image corresponding to “a + b =” generated by the terminal 101. The write image information in which the object type in FIG. 6E is the write image and the generation terminal information is the terminal 101 is the target. In step S4348, the formed image is stored in the projection image storage unit 335. This completes the formation of the board-sharing image for projection onto the whiteboard.

次にステップS4350で、ステップS4344までで生成した画像に対して生成端末が本拠点の書き込み画像を追加的に描画する。具体的な一例を図6(d)に示す端末102拠点を用いて説明する。端末102では図6(e)に示す通り本拠点(端末102)の書き込みを画像として取得した書き込み画像情報を保持している。ここでは書き込み「2」の書き込み画像を撮影などで取得し、ステップS4348で保存した盤面共有用画像の上に追加的に描画する。これにより図14(c)に示す背景画像の形成が完了する。ステップS4352で、ステップS4350で形成した画像を背景画像記憶部336に格納し処理を終了する。   Next, in step S4350, the generation terminal additionally draws the writing image at the main site with respect to the images generated up to step S4344. A specific example will be described using the terminal 102 base shown in FIG. As shown in FIG. 6E, the terminal 102 holds written image information obtained by writing the main site (terminal 102) as an image. Here, the writing image of writing “2” is acquired by photographing or the like, and additionally drawn on the board sharing image stored in step S4348. This completes the formation of the background image shown in FIG. In step S4352, the image formed in step S4350 is stored in the background image storage unit 336, and the process ends.

以上説明した通り、本実施形態の従来のカメラ付きプロジェクタを用いた電子会議システムでは、遠隔地にホワイトボードに対する書き込みやポインティングなどの操作の様子を通知することができる。ホワイトボードの撮影画像からホワイトボードへの書き込み状況を検出し、遠隔地へ書き込み状況を示す情報を通知することで、遠隔地側でホワイトボードへの書き込み領域を知ることができるようになる。またホワイトボードの撮影画像からホワイトボードへの指差し指示を検出し、遠隔地へ指差し指示をする領域の情報を通知することで、自拠点で指さし指示をしている領域を他拠点と共有できるようになる。   As described above, in the electronic conference system using the conventional camera-equipped projector according to the present embodiment, it is possible to notify a remote place of operations such as writing and pointing on the whiteboard. By detecting the writing status on the whiteboard from the photographed image of the whiteboard and notifying the remote location of the information indicating the writing status, the remote location side can know the writing area on the whiteboard. In addition, by detecting the pointing instruction to the whiteboard from the photographed image of the whiteboard and notifying the remote area of the information on the area where the pointing instruction is made, the area pointing at the local site is shared with other bases become able to.

[実施形態2]
実施形態2では人物領域に顔を検出したかにより操作状態を区別する方法に関して説明する。実施形態1の手の形状をテンプレートマッチングすることにより操作状態を区別していた。人物がホワイトボードの盤面を指さしながら会議の参加者に向かって説明するケースにおいては、図9(c)に示した通りおおむねホワイトボードを指さしている人物の顔は正面をむいている状態にある。ここでは図15を用いて本実施形態の操作情報生成処理を説明する。図15は、実施形態2における撮影画像を元に操作情報を生成する処理のフローチャートである。本処理は操作情報生成処理部341で行われ、撮影画像を解析して得た人物の操作状態を元に操作情報を生成するものである。図7のステップS4100〜S4140の処理については本実施形態でも共通に実行されるので省略する。図15は、図7のステップS4110における判定がYESの場合の分岐後の処理を示す。図7のステップS4150以降で説明した実施形態1の処理との差分は、S4152における分岐先と、その分妃としてステップS4190〜ステップS4191が加わったことである。生成する操作情報には変更はない。
[Embodiment 2]
In the second embodiment, a method for distinguishing operation states depending on whether a face is detected in a person area will be described. The operation state is distinguished by template matching the hand shape of the first embodiment. In the case where a person explains to a conference participant while pointing to the board of the whiteboard, as shown in FIG. 9C, the face of the person generally pointing to the whiteboard is in a state of facing the front. . Here, the operation information generation process of this embodiment will be described with reference to FIG. FIG. 15 is a flowchart of processing for generating operation information based on a captured image according to the second embodiment. This processing is performed by the operation information generation processing unit 341, and operation information is generated based on the operation state of the person obtained by analyzing the captured image. The processing in steps S4100 to S4140 in FIG. 7 is omitted because it is executed in common in this embodiment. FIG. 15 shows processing after branching when the determination in step S4110 in FIG. 7 is YES. The difference from the processing of the first embodiment described in step S4150 and subsequent steps in FIG. 7 is that steps S4190 to S4191 are added as branch destinations in S4152 and their splits. There is no change in the operation information to be generated.

ステップS4150で、新しい人物領域に対して手の検出を行う。ここではテンプレートマッチングや肌色検出等の手法により手の検出を行う。形状の判断は行わない。なお図15のステップS4150およびS4152には、図7のステップS4150およびS4152と異なる説明が記載されているが、それぞれ同じ処理であってよい。ステップS4152で手を検出しなかった場合(NO)、ステップS4154に進み、未検出タイプの操作状態情報を生成するフローへ進む。処理は図7で説明したとおりであるので割愛する。ステップS4152で、手を検出した場合(YES)はステップS4190に進み、人物領域に対して顔の検出を行う。   In step S4150, a hand is detected for a new person area. Here, hand detection is performed by methods such as template matching and skin color detection. The shape is not judged. Although steps S4150 and S4152 in FIG. 15 are described differently from steps S4150 and S4152 in FIG. 7, they may be the same processing. If a hand is not detected in step S4152 (NO), the process proceeds to step S4154, and the process proceeds to a flow for generating undetected type operation state information. Since the processing is as described with reference to FIG. If a hand is detected in step S4152 (YES), the process proceeds to step S4190, and a face is detected for the person area.

ステップS4191で、正面を向いた顔を検出した場合(YES)には、ステップS4156へ進みポイント指示タイプの操作状態情報を生成する。一方ステップS4191で、正面を向いた顔を検出しなかった場合(NO)には、ステップS4158へ進み書き込みタイプの操作状態情報を生成する。   In step S4191, when a face facing front is detected (YES), the process proceeds to step S4156 to generate point indication type operation state information. On the other hand, in step S4191, if a face facing front is not detected (NO), the process proceeds to step S4158 to generate write type operation state information.

以上説明したとおり、人物の顔が正面を向いていることを判断材料として操作状態がポイント指示であるか書き込みであるかを判断することが可能になる。   As described above, it is possible to determine whether the operation state is a point instruction or writing based on the fact that the person's face is facing the front.

[実施形態3]
実施形態3では操作状態を音声により切り替える方法に関して説明する。実施形態1、実施形態2においては画像処理による手の形状や顔の検出を用いて操作状態を区別していた。人物がホワイトボードの盤面を指さしながら会議の参加者に向かって説明するケースにおいては、図9(c)に示した通り会議の参加者に向かって説明する言葉を発している状態にある。
[Embodiment 3]
In the third embodiment, a method for switching operation states by voice will be described. In the first and second embodiments, the operation state is distinguished by detecting the shape of the hand and the face by image processing. In the case where a person explains to a conference participant while pointing to the board of the whiteboard, the words are explained to the conference participant as shown in FIG. 9C.

図16、図17を用いて本実施形態のソフトウエア構成と操作情報生成処理を説明する。図16は、実施形態3におけるソフトウエア構成を示す図である。図16は本実施形態のソフトウエア構成図であり、図3で示した実施形態1、実施形態2との差分は、操作状態切り替え部345を備えることである。操作状態切り替え部345は、操作情報生成部341に操作状態がポイント指示であるか書き込みであるかを通知するものである。操作状態の切り替えはHID入力部362又は音声入力部363の入力に従い行う。実施形態3においては音声入力部363から入力した音声を操作状態切り替え部345が音声認識を行い切り替える。すなわち図9(c)に示した会議の参加者に向かって説明する言葉を発している状態を音声認識にて判断する。具体的には音声認識をしている期間はポイント指示、音声認識をしていない期間は書き込み状態であると操作状態を切り替える。   The software configuration and operation information generation processing of this embodiment will be described with reference to FIGS. FIG. 16 is a diagram illustrating a software configuration according to the third embodiment. FIG. 16 is a software configuration diagram of the present embodiment, and the difference from the first and second embodiments shown in FIG. 3 is that an operation state switching unit 345 is provided. The operation state switching unit 345 notifies the operation information generation unit 341 whether the operation state is a point instruction or writing. The operation state is switched according to the input from the HID input unit 362 or the voice input unit 363. In the third embodiment, the operation state switching unit 345 recognizes and switches the voice input from the voice input unit 363. That is, it is determined by voice recognition that a word to be explained is given to participants in the conference shown in FIG. Specifically, the point state is switched during a period during which voice recognition is being performed, and the operation state is switched during a period during which voice recognition is not being performed.

図17は、実施形態3における撮影画像と音声認識状態を元に操作情報を生成する処理のフローチャートである。本処理は操作情報生成処理部341で行われ、撮影画像を解析して得た人物の操作状態と操作状態切り替え部が判断する操作状態の情報を元に操作情報を生成するものである。図7のステップS4100〜S4140の処理については本実施形態でも共通に実行されるので省略する。図17は、図7のステップS4110における判定がYESの場合の分岐後の処理を示す。図17と図7で説明した実施形態1の処理との差分はステップS4150〜ステップS4152、そしてステップS4194〜ステップS4195である。生成する操作情報に変更はない。   FIG. 17 is a flowchart of processing for generating operation information based on a captured image and a voice recognition state according to the third embodiment. This processing is performed by the operation information generation processing unit 341, and operation information is generated based on the operation state of the person obtained by analyzing the captured image and the operation state information determined by the operation state switching unit. The processing in steps S4100 to S4140 in FIG. 7 is omitted because it is executed in common in this embodiment. FIG. 17 shows processing after branching when the determination in step S4110 in FIG. 7 is YES. Differences between the processing of the first embodiment described with reference to FIGS. 17 and 7 are steps S4150 to S4152, and steps S4194 to S4195. There is no change in the generated operation information.

ステップS4150で、新しい人物領域に対して手の検出を行う。ここではテンプレートマッチングや肌色検出等の手法により手の検出を行う。形状の判断は行わない。なお図15のステップS4150およびS4152には、図7のステップS4150およびS4152と異なる説明が記載されているが、それぞれ同じ処理であってよい。ステップS4152で、手を検出しなかった場合(NO)はステップS4154に進み、未検出タイプの操作状態情報を生成するフローへ進む。処理は図7で説明したとおりであるので割愛する。ステップS4152で、手を検出した場合(YES)はステップS4194に進み、操作状態切り替え部345による音声認識による操作状態切り替え状態を検出する。ステップS4194における判定は、例えば操作者による発話の有無である。発話があればポイント指示タイプ、なければ書き込みタイプと判定される。   In step S4150, a hand is detected for a new person area. Here, hand detection is performed by methods such as template matching and skin color detection. The shape is not judged. Although steps S4150 and S4152 in FIG. 15 are described differently from steps S4150 and S4152 in FIG. 7, they may be the same processing. If no hand has been detected in step S4152 (NO), the process proceeds to step S4154, and the process proceeds to a flow for generating undetected type operation state information. Since the processing is as described with reference to FIG. If a hand is detected in step S4152 (YES), the process proceeds to step S4194, and an operation state switching state by voice recognition by the operation state switching unit 345 is detected. The determination in step S4194 is, for example, whether or not there is an utterance by the operator. If there is an utterance, it is determined as a point instruction type, and if not, it is determined as a writing type.

ステップS4195で、操作状態がポイント指示である場合(YES)にはステップS4156へ進みポイント指示タイプの操作状態情報を生成する。一方ステップS4191で、ポイント指示タイプでない場合(NO)にはステップS4158へ進み書き込みタイプの操作状態情報を生成する。   If it is determined in step S4195 that the operation state is a point instruction (YES), the flow advances to step S4156 to generate point instruction type operation state information. On the other hand, if it is determined in step S4191 that it is not a point instruction type (NO), the flow advances to step S4158 to generate write type operation state information.

以上説明したとおり、人物が説明するために音声を発しているかを音声認識により判断し、音声認識をしている期間はポイント指示、音声認識をしていない期間は書き込み状態であると操作状態を切り替えることが可能になる。   As described above, it is determined by voice recognition whether a person is uttering voice for explanation, and a point instruction is given during a period of voice recognition, and an operation state is shown as being in a writing state during a period of no voice recognition. It becomes possible to switch.

[実施形態4]
実施形態4では操作状態を手動により切り替える方法に関して説明する。
人物がマウスやキーボード等のHID機器を用いて明確に操作状態を切り替える方法である。図16のソフトウエア構成図に示した通り、本実施形態では実施形態3と同様に操作状態切り替え部345により操作状態がポイント指示であるか書き込みであるかを切り替える。操作状態の切り替えはHID入力部362により切り替えるものとする。具体的にはマウスやキーボードの入力によりポイント指示と書き込みを切り替える。
[Embodiment 4]
In the fourth embodiment, a method for manually switching the operation state will be described.
This is a method in which a person clearly switches the operation state using a HID device such as a mouse or a keyboard. As shown in the software configuration diagram of FIG. 16, in the present embodiment, the operation state switching unit 345 switches whether the operation state is a point instruction or writing as in the third embodiment. The operation state is switched by the HID input unit 362. Specifically, point indication and writing are switched by mouse or keyboard input.

図18は、実施形態4における撮影画像と手動による操作状態の切り替え情報を元に操作情報を生成する処理のフローチャートである。本処理は操作情報生成処理部341で行われ、撮影画像を解析して得た人物の操作状態と操作状態切り替え部が判断する操作状態の情報を元に操作情報を生成するものである。図7のステップS4100〜S4140の処理については本実施形態でも共通に実行されるので省略する。図18は、図7のステップS4110における判定がYESの場合の分岐後の処理を示す。図18と図7で説明した実施形態1の処理との差分はステップS4150〜ステップS4152、そしてステップS4192〜ステップS4193である。生成する操作情報に変更はない。   FIG. 18 is a flowchart of a process for generating operation information based on the captured image and manual operation state switching information in the fourth embodiment. This processing is performed by the operation information generation processing unit 341, and operation information is generated based on the operation state of the person obtained by analyzing the captured image and the operation state information determined by the operation state switching unit. The processing in steps S4100 to S4140 in FIG. 7 is omitted because it is executed in common in this embodiment. FIG. 18 shows processing after branching when the determination in step S4110 in FIG. 7 is YES. Differences between the processing of the first embodiment described with reference to FIGS. 18 and 7 are steps S4150 to S4152, and steps S4192 to S4193. There is no change in the generated operation information.

ステップS4150で、新しい人物領域に対して手の検出を行う。ここではテンプレートマッチングや肌色検出等の手法により手の検出を行う。形状の判断は行わない。なお図15のステップS4150およびS4152には、図7のステップS4150およびS4152と異なる説明が記載されているが、同じそれぞれ処理であってよい。ステップS4152で、手を検出しなかった場合(NO)はステップS4154に進み、未検出タイプの操作状態情報を生成するフローへ進む。処理は図7で説明したとおりであるので割愛する。ステップS4152で、手を検出した場合(YES)はステップS4194に進み、操作状態切り替え部345によるHID入力部により手動で決定した操作状態切り替え状態を検出する。HIDによる切り替えは、たとえばポインティングデバイスやキーボードにより現在の操作(あるいはこれから行う操作)が、書き込みかそれともポインティングかを積極的に指示することで行われる。   In step S4150, a hand is detected for a new person area. Here, hand detection is performed by methods such as template matching and skin color detection. The shape is not judged. Although steps S4150 and S4152 in FIG. 15 are described differently from steps S4150 and S4152 in FIG. 7, they may be the same processing. If no hand has been detected in step S4152 (NO), the process proceeds to step S4154, and the process proceeds to a flow for generating undetected type operation state information. Since the processing is as described with reference to FIG. If a hand is detected in step S4152 (YES), the process proceeds to step S4194, and an operation state switching state manually determined by the HID input unit by the operation state switching unit 345 is detected. Switching by HID is performed by actively instructing whether the current operation (or an operation to be performed in the future) is writing or pointing, for example, using a pointing device or a keyboard.

ステップS4195で、操作状態がポイント指示である場合(YES)にはステップS4156へ進みポイント指示タイプの操作状態情報を生成する。一方ステップS4191で、ポイント指示タイプでない場合(NO)にはステップS4158へ進み書き込みタイプの操作状態情報を生成する。以上説明したとおり、手動により操作状態を切り替えることが可能になる。   If it is determined in step S4195 that the operation state is a point instruction (YES), the flow advances to step S4156 to generate point instruction type operation state information. On the other hand, if it is determined in step S4191 that it is not a point instruction type (NO), the flow advances to step S4158 to generate write type operation state information. As described above, the operation state can be manually switched.

[その他の実施形態]
また、本実施形態は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
[Other Embodiments]
Moreover, this embodiment is implement | achieved also by performing the following processes. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

Claims (10)

会議端末装置であって、
書き込み対象物を撮影する撮影手段と、
前記書き込み対象物に画像を投影する投影手段と、
前記会議端末装置を制御する制御手段と、
他の会議端末装置と通信する通信手段とを有し、
前記制御手段は、
前記撮影手段により撮影した画像から、人物の手の動きを検出し、検出した手の動きに対応した画像オブジェクトを示す操作情報を前記通信手段により前記他の会議端末装置に送信し、
前記他の会議端末装置から前記通信手段により受信した前記操作情報に基づいて画像オブジェクトを生成し、前記投影手段により投影させることを特徴とする会議端末装置。
A conference terminal device,
Photographing means for photographing the writing object;
Projecting means for projecting an image onto the writing object;
Control means for controlling the conference terminal device;
Communication means for communicating with other conference terminal devices,
The control means includes
Detecting movement of a person's hand from the image taken by the photographing means, and sending operation information indicating an image object corresponding to the detected hand movement to the other conference terminal device by the communication means;
A conference terminal device, wherein an image object is generated based on the operation information received by the communication unit from the other conference terminal device, and is projected by the projection unit.
前記制御手段はさらに、人物の手の動きとともに手の形状を検出し、前記形状が、前記書き込み対象物への書き込みを示すと判定される場合には、前記操作情報として、前記人物の手の動きの軌跡を示す軌跡情報を前記他の会議端末装置に送信し、
前記他の会議端末装置から前記通信手段により前記軌跡情報を受信した場合には、前記軌跡情報に基づいて軌跡の範囲を示す画像オブジェクトを生成し、前記投影手段により投影させることを特徴とする請求項1に記載の会議端末装置。
The control means further detects the shape of the hand along with the movement of the person's hand, and if the shape is determined to indicate writing on the writing object, the operation information is used as the operation information. Sending trajectory information indicating the trajectory of movement to the other conference terminal device;
When the trajectory information is received from the other conference terminal device by the communication unit, an image object indicating a trajectory range is generated based on the trajectory information and projected by the projection unit. Item 2. The conference terminal device according to Item 1.
前記制御手段はさらに、人物の手の動きとともに手の形状を検出し、前記形状が、前記書き込み対象物を指し示すポインティングと判定される場合には、前記操作情報として、前記人物の手の位置を示す操作情報を前記他の会議端末装置に送信し、
前記他の会議端末装置から前記通信手段により前記操作情報を受信した場合には、前記操作情報に基づいて前記手の位置を示す画像オブジェクトを生成し、前記投影手段により投影させることを特徴とする請求項1に記載の会議端末装置。
The control means further detects the shape of the hand together with the movement of the person's hand, and if the shape is determined to be pointing pointing to the object to be written, the operation information includes the position of the person's hand. Operation information to be sent to the other conference terminal device,
When the operation information is received from the other conference terminal device by the communication unit, an image object indicating the position of the hand is generated based on the operation information and projected by the projection unit. The conference terminal device according to claim 1.
前記制御手段は、前記撮影手段により撮影した画像から、人物を検出し、かつその手を検出しなかった場合、検出した人物に対応した画像オブジェクトを示す操作情報を前記通信手段により前記他の会議端末装置に送信し、
前記他の会議端末装置から前記通信手段により前記操作情報を受信した場合には、前記操作情報に基づいて人物に対応した画像オブジェクトを生成し、前記投影手段により投影させることを特徴とする請求項1に記載の会議端末装置。
When the control unit detects a person from the image captured by the imaging unit and does not detect the hand, the control unit displays operation information indicating an image object corresponding to the detected person by the communication unit. To the terminal device,
The image object corresponding to a person is generated based on the operation information and projected by the projection unit when the operation information is received from the other conference terminal device by the communication unit. The conference terminal device according to 1.
前記制御手段は、前記撮影手段により撮影した画像から人物の顔を検出し、検出した顔の方向に基づいて、前記手の形状が書き込み対象物への書き込みを示すか、あるいは前記書き込み対象物へのポインティングを示すかを判定することを特徴とする請求項2又は3に記載の会議端末装置。   The control means detects a human face from an image photographed by the photographing means, and based on the detected face direction, the shape of the hand indicates writing to the writing object, or to the writing object. 4. The conference terminal device according to claim 2, wherein it is determined whether or not pointing is indicated. 音声を検出する手段を更に有し、
前記制御手段は、検出した音声に基づいて、前記手の形状が、書き込み対象物への書き込みを示すか、あるいは前記書き込み対象物へのポインティングを示すかを判定することを特徴とする請求項2又は3に記載の会議端末装置。
Further comprising means for detecting speech;
The control means determines whether the shape of the hand indicates writing on the writing object or pointing on the writing object based on the detected voice. Or the conference terminal device of 3.
操作者による入力を受け付けるユーザインタフェース手段を更に有し、
前記制御手段は、前記入力に基づいて、前記手の形状が、書き込み対象物への書き込みを示すか、あるいは前記書き込み対象物へのポインティングを示すかを判定することを特徴とする請求項2又は3に記載の会議端末装置。
A user interface means for receiving an input by an operator;
3. The control unit according to claim 2, wherein the control unit determines, based on the input, whether the shape of the hand indicates writing on the writing object or pointing on the writing object. 3. The conference terminal device according to 3.
前記制御手段は、前記撮影手段により撮影した画像から、前記書き込み対象物に書き込まれた書き込み画像を検出し、検出した書き込み画像を示す書き込み画像情報を前記通信手段により前記他の会議端末装置に送信し、
前記他の会議端末装置から前記書き込み画像情報を受信した場合には、前記書き込み画像情報に基づいて画像オブジェクトを生成し、前記投影手段により投影させることを特徴とする請求項1乃至7のいずれか一項に記載の会議端末装置。
The control means detects a written image written on the object to be written from images taken by the photographing means, and sends written image information indicating the detected written image to the other conference terminal device by the communication means. And
8. When receiving the written image information from the other conference terminal device, an image object is generated based on the written image information and projected by the projecting unit. The conference terminal device according to one item.
請求項1乃至8のいずれか一項に記載の会議端末装置を、通信ネットワークにより複数台接続したことを特徴とする電子会議システム。   An electronic conference system, wherein a plurality of the conference terminal devices according to claim 1 are connected by a communication network. 書き込み対象物を撮影する撮影手段と、前記書き込み対象物に画像を投影する投影手段と、通信手段とを有するコンピュータにより、
前記撮影手段により撮影した画像から、人物の手の動きを検出し、検出した手の動きに対応した画像オブジェクトを示す操作情報を前記通信手段により前記他の会議端末装置に送信する工程と、
前記他の会議端末装置から前記通信手段により受信した前記操作情報に基づいて画像オブジェクトを生成し、前記投影手段により投影させる工程と
を実行させるためのプログラム。
By a computer having a photographing means for photographing a writing object, a projecting means for projecting an image on the writing object, and a communication means,
Detecting the movement of a person's hand from the image photographed by the photographing means and transmitting operation information indicating an image object corresponding to the detected hand movement to the other conference terminal device by the communication means;
A program for generating an image object based on the operation information received by the communication unit from the other conference terminal device and causing the projection unit to project the image object.
JP2013251417A 2013-12-04 2013-12-04 Conference terminal device, electronic conference system, and program Pending JP2015109565A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013251417A JP2015109565A (en) 2013-12-04 2013-12-04 Conference terminal device, electronic conference system, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013251417A JP2015109565A (en) 2013-12-04 2013-12-04 Conference terminal device, electronic conference system, and program

Publications (1)

Publication Number Publication Date
JP2015109565A true JP2015109565A (en) 2015-06-11

Family

ID=53439624

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013251417A Pending JP2015109565A (en) 2013-12-04 2013-12-04 Conference terminal device, electronic conference system, and program

Country Status (1)

Country Link
JP (1) JP2015109565A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019008732A1 (en) 2017-07-06 2019-01-10 富士通株式会社 Information processing device, information processing method, and information processing program
JP2020088437A (en) * 2018-11-16 2020-06-04 岩舘電気株式会社 Information sharing system, information sharing method, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019008732A1 (en) 2017-07-06 2019-01-10 富士通株式会社 Information processing device, information processing method, and information processing program
US11256466B2 (en) 2017-07-06 2022-02-22 Fujitsu Limited Information processing apparatus, information processing method, and recording medium recording information processing program
JP2020088437A (en) * 2018-11-16 2020-06-04 岩舘電気株式会社 Information sharing system, information sharing method, and program

Similar Documents

Publication Publication Date Title
JP6573755B2 (en) Display control method, information processing program, and information processing apparatus
EP3341851B1 (en) Gesture based annotations
JP6244954B2 (en) Terminal apparatus, information processing apparatus, display control method, and display control program
US9860484B2 (en) Information processing apparatus, information processing system and information processing method
JP6230113B2 (en) Video instruction synchronization method, system, terminal, and program for synchronously superimposing instruction images on captured moving images
JP6217437B2 (en) Terminal apparatus, information processing apparatus, display control method, and display control program
US11288871B2 (en) Web-based remote assistance system with context and content-aware 3D hand gesture visualization
CN107194968B (en) Image identification tracking method and device, intelligent terminal and readable storage medium
JP6543924B2 (en) INFORMATION PROCESSING METHOD, INFORMATION PROCESSING PROGRAM, AND INFORMATION PROCESSING APPARATUS
JP2017037434A (en) Mark processing unit and program
JP2015109565A (en) Conference terminal device, electronic conference system, and program
US20170026617A1 (en) Method and apparatus for real-time video interaction by transmitting and displaying user interface correpsonding to user input
US10929703B2 (en) Method apparatus and program product for enabling two or more electronic devices to perform operations based on a common subject
WO2016004765A1 (en) Method, device and system for multipoint video communications
KR20160072306A (en) Content Augmentation Method and System using a Smart Pen
JP2013186823A (en) Information processing apparatus, computer program, and information processing method
US8970483B2 (en) Method and apparatus for determining input
JP6374203B2 (en) Display system and program
US20220244788A1 (en) Head-mounted display
JP6308842B2 (en) Display system and program
US20190303675A1 (en) Information processing apparatus, information processing method, and program
JP6146869B2 (en) Video instruction display method, system, terminal, and program for superimposing instruction image on photographing moving image synchronously
JP2015052895A (en) Information processor and method of processing information
JP6688457B2 (en) Call processing system, call processing device, call processing method, and call processing program
US10459533B2 (en) Information processing method and electronic device