JP2015127925A - Information processing device, method of controlling information processing device, and computer program - Google Patents

Information processing device, method of controlling information processing device, and computer program Download PDF

Info

Publication number
JP2015127925A
JP2015127925A JP2013273576A JP2013273576A JP2015127925A JP 2015127925 A JP2015127925 A JP 2015127925A JP 2013273576 A JP2013273576 A JP 2013273576A JP 2013273576 A JP2013273576 A JP 2013273576A JP 2015127925 A JP2015127925 A JP 2015127925A
Authority
JP
Japan
Prior art keywords
type
electronic object
electronic
information processing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013273576A
Other languages
Japanese (ja)
Other versions
JP2015127925A5 (en
JP6234223B2 (en
Inventor
英史 佐々木
Hidefumi Sasaki
英史 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013273576A priority Critical patent/JP6234223B2/en
Publication of JP2015127925A publication Critical patent/JP2015127925A/en
Publication of JP2015127925A5 publication Critical patent/JP2015127925A5/ja
Application granted granted Critical
Publication of JP6234223B2 publication Critical patent/JP6234223B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information processing device that improves operability by specifying the type of an electronic object and switching a sharing method when sharing an information processing device other than itself and the electronic object.SOLUTION: An information processing device extracts a physical object as an electronic component corresponding to the physical object from image information obtained by photographing a projection plane as a photographic plane, receives an electronic object from an information processing device other than itself, and projects a projection image generated based upon the electronic object on the projection plane. The information processing device determines which of a synchronous type and a permanent type the electronic object is based upon features of the physical object, and if the physical object has change, the information processing device transmits information associated with the electronic object to the information processing device other than itself when the electronic object is the synchronous type, but does not transmit the information associated with the electronic object when the electronic object is the permanent type.

Description

本発明は、それぞれの端末のカメラで撮影した画像情報をネットワークを介して複数拠点間で共有し、それぞれの端末で表示するための情報処理装置、情報処理システムおよびコンピュータプログラムに関する。   The present invention relates to an information processing apparatus, an information processing system, and a computer program for sharing image information captured by a camera of each terminal among a plurality of bases via a network and displaying the information on each terminal.

液晶プロジェクタに代表される投影装置に、カメラなどの撮像手段を備えたものが提供されている。例えば、特許文献1が開示する投影装置は、投影面・撮影面に紙が置かれたタイミングを検出し、そのタイミングに合わせて投影面を撮影し、データとして取得する。   A projection apparatus typified by a liquid crystal projector is provided with an imaging means such as a camera. For example, the projection apparatus disclosed in Patent Document 1 detects the timing when paper is placed on the projection plane / imaging plane, captures the projection plane in accordance with the timing, and acquires the data as data.

また、ネットワークを介して複数拠点で情報を共有しディスカッションを行う電子会議システムも提供されている。例えば、特許文献2が開示する端末装置は、共有ホワイトボードにデータを入力する際に、全ての参加者で共有したい情報を書き込むパブリックモードと、他拠点と共有したくない情報を書き込めるプライベートモードとを両立する。   In addition, an electronic conference system is also provided in which information is shared and discussed at a plurality of locations via a network. For example, when a terminal device disclosed in Patent Document 2 inputs data to a shared whiteboard, a public mode for writing information that all the participants want to share and a private mode for writing information that is not to be shared with other bases Both.

情報と実在する物とを関連付け、形の無い情報を手にとって操作できるインタフェースとして、タンジブル・インタフェースも提供されている。例えば、非特許文献1は、自拠点で手書きしたものを他拠点でリアルタイムに共有できるシステムを開示している。また、非特許文献2は、実在する物体と情報とを関連付け、物体の物理的な操作(移動や重ね合わせ)に合わせて、情報の表示方法や合成などの操作も行うシステムを開示している。更に、特許文献3は、投影面・撮影面に所定の形状を有する物体を置き、人がその物体を移動させるだけの簡単な操作により、投影面・撮影面に表示された画像を操作できるコマンド入力方法を提案している。   A tangible interface is also provided as an interface for associating information with a real object and allowing the user to manipulate information without shape. For example, Non-Patent Document 1 discloses a system that can share in real time what is handwritten at its own site. Non-Patent Document 2 discloses a system that associates an actual object with information and performs operations such as an information display method and composition in accordance with physical operations (movement and superposition) of the object. . Further, Patent Document 3 discloses a command that allows an image displayed on a projection plane / photographing plane to be operated by a simple operation in which an object having a predetermined shape is placed on the projection plane / photographing plane and a person moves the object. Proposed input method.

特開2011−215441号公報JP 2011-215441 A 特開平10−289175号公報JP-A-10-289175 特開2007−11276号公報JP 2007-11276 A

MIT Media Lab Tangible Media Group / Clear Board<http://tangible.media.mit.edu/project/clearboard/>(2013年5月7日 確認)MIT Media Lab Tangible Media Group / Clear Board <http: // tangible. media. mit. edu / project / clearboard /> (confirmed on May 7, 2013) MIT Media Lab Tangible Media Group / Sense Board<http://tangible.media.mit.edu/project/senseboard/>(2013年5月7日 確認)MIT Media Lab Tangible Media Group / Sense Board <http: // tangible. media. mit. edu / project / senseboard /> (confirmed on May 7, 2013)

上述のように、カメラ付きプロジェクタを用いて物理オブジェクトと電子オブジェクトの双方が表示される電子会議システムを想定する。このようなシステムでは、自拠点側の会議端末が物理オブジェクト(本やカタログ、ホワイトボード上の書き込み)を撮影し、電子オブジェクト(画像データや、電子文書データ)に変換する。そして、会議端末が他拠点側の会議端末にデータを送信することにより情報を共有する。この時、大きく分けて2つの情報共有に関するユースケースが考えられる。   As described above, an electronic conference system in which both a physical object and an electronic object are displayed using a projector with a camera is assumed. In such a system, the conference terminal at the local site takes a physical object (book, catalog, whiteboard writing) and converts it to an electronic object (image data or electronic document data). The conference terminal transmits data to the conference terminal on the other site side to share information. At this time, two use cases related to information sharing can be roughly divided.

自拠点で付箋やホワイトボードに書き込まれた情報を、他拠点側の会議参加者と共有したい第1のユースケースが考えられる。この時、自拠点の会議参加者と他拠点の会議参加者とでコミュニケーションを成立させるためには、情報が変化した時にも各拠点間で同期が取れている必要がある。自拠点側の会議参加者によって物理オブジェクトの撮影面上の位置が移動されたら、他拠点の会議端末は電子オブジェクトの投影面上の表示位置を変更して欲しい。ここでは、たとえば物理的にホワイトボードへ貼付けられた付箋やホワイトボードへ書き込まれた情報のことを物理オブジェクトと呼ぶ。自拠点側の会議参加者によって物理オブジェクトが撮影面上から除外されたら、他拠点側の会議端末は、電子オブジェクトを撮影面上から除外して欲しい。このように、物理オブジェクトが変化したら、他拠点の会議端末が表示している電子オブジェクトでもその変化に対して同期を取りたい、という第1の要望があった。   There may be a first use case in which information written on a sticky note or whiteboard at a local site is desired to be shared with a conference participant at another site. At this time, in order to establish communication between the conference participant at the local site and the conference participant at the other site, it is necessary to synchronize the sites even when the information changes. If the physical participant moves the position of the physical object on the imaging plane, the conference terminal at the other site wants to change the display position of the electronic object on the projection plane. Here, for example, sticky notes physically attached to the whiteboard and information written on the whiteboard are referred to as physical objects. If the physical object is excluded from the imaging plane by the conference participant at the local site, the conference terminal at the other site wants the electronic object to be excluded from the imaging plane. As described above, when the physical object changes, there is a first request that the electronic object displayed on the conference terminal at the other base should be synchronized with the change.

ここで、第1の要望を満たす会議システムでは、地面に垂直に投影面・撮影面を設けた場合に、撮影可能な物理オブジェクトは比較的軽量なものに限定される。あるいは、物理オブジェクトを予めいくつかの向きで撮影・印刷しておくことも可能であるが、会議開催の手間を増やしてしまう課題がある。地面に対して水平に投影面・撮影面を設ければ、重量がある物理オブジェクトも撮影できる。しかし、複数人が様々な角度から覗き込む形で会議を開催するため、同じ情報を同時に見ることは難しくなる。   Here, in the conference system that satisfies the first demand, when a projection plane and a photographing plane are provided perpendicular to the ground, the physical object that can be photographed is limited to a relatively lightweight object. Alternatively, it is possible to photograph and print physical objects in several directions in advance, but there is a problem of increasing the time and labor for holding a conference. If a projection plane / photographing plane is provided horizontally with respect to the ground, a heavy physical object can be photographed. However, it is difficult to see the same information at the same time because the conference is held in such a way that multiple people look into it from various angles.

手元にある本やカタログ、あるいは立体物を、他拠点の会議参加者と共有したい第2のユースケースも考えられる。閲覧性を考慮すると、複数人が会議へ参加する場合には、ホワイトボード(投影面・撮影面)が地面に対して垂直に配置されていることが望ましい。しかし、参加者が地面に対して垂直な撮影面に、重量のある本やカタログ、立体物を固定し続けることは難しい。よって、自拠点側で物理オブジェクトを撮影したら、撮影面上から除外しても、自拠点側でも他拠点側でも会議端末が電子オブジェクトとして表示して欲しい。このように、物理オブジェクトが変化したとしても、自拠点・他拠点の会議端末が表示している電子オブジェクトはその変化に対して同期を取りたくない、という第2の要望があった。   There may be a second use case where a book, catalog, or three-dimensional object at hand is desired to be shared with a conference participant at another location. Considering readability, when a plurality of people participate in the conference, it is desirable that the whiteboard (projection plane / photographing plane) be arranged perpendicular to the ground. However, it is difficult for participants to keep fixing heavy books, catalogs, and three-dimensional objects on the shooting surface perpendicular to the ground. Therefore, if a physical object is photographed on the local site side, the conference terminal should be displayed as an electronic object on both the local site side and the other site side even if it is excluded from the photographing surface. As described above, even if the physical object changes, there is a second request that the electronic object displayed on the conference terminal at the local site / other site does not want to be synchronized with the change.

第2の要望を満たす会議システムでは、自拠点で物理オブジェクトの位置を操作したタイミングで、他拠点で表示している電子オブジェクトとの間で見ている物に差異が生じてしまう。全ての資料を電子化することで、複数拠点間で情報を共有することはできる。しかし、電子オブジェクトを操作するには電子ペンやジェスチャ入力を介する必要があり、操作性に課題がある。電子ペンを用いる場合には超音波センサ等の新たなハードウェアが別途必要となり、製品原価が上がってしまう。ジェスチャ入力はもともとあるカメラを利用できるため新たなハードウェアは不要だが、認識精度に課題が残る。
本発明は、自装置以外の情報処理装置と電子オブジェクトを共有する場合に当該電子オブジェクトのタイプを特定して共有方法を切り替えることにより操作性を向上させる情報処理装置を提供することを目的とする。
In the conference system that satisfies the second demand, at the timing when the position of the physical object is operated at the local site, a difference occurs in the object viewed from the electronic object displayed at the other site. By digitizing all materials, information can be shared among multiple sites. However, in order to operate an electronic object, it is necessary to use an electronic pen or gesture input, and there is a problem in operability. When the electronic pen is used, new hardware such as an ultrasonic sensor is required separately, which increases the product cost. Gesture input can use the original camera, so no new hardware is required, but there are still problems with recognition accuracy.
An object of the present invention is to provide an information processing device that improves operability by specifying a type of the electronic object and switching a sharing method when the electronic object is shared with an information processing device other than the device itself. .

本発明の一実施形態の情報処理装置は、撮影された画像情報をネットワークを介して複数の情報処理装置で共有する。前記情報処理装置は、投影面を撮影面として撮影された画像情報から物理オブジェクトを抽出し、該物理オブジェクトに対応する電子オブジェクトを生成する生成手段と、自装置以外の情報処理装置から電子オブジェクトを受信する受信手段と、前記生成または受信した電子オブジェクトに基づいて生成された投影画像を前記投影面に投影する投影手段と、前記物理オブジェクトに対応する画像領域の特徴に基づいて、前記生成された電子オブジェクトのタイプが自装置の前記撮影面における前記物理オブジェクトの変化に同期させて自装置以外の情報処理装置が投影する投影画像に描画される同期タイプか、同期させることなく自装置以外の情報処理装置の投影面に永続的に投影させる永続タイプかを判断する判断手段と、前記同期タイプまたは永続タイプと判断された電子オブジェクトを自装置以外の情報処理装置に送信する送信手段とを備える。前記送信手段は、前記物理オブジェクトに変化が生じた場合には、前記電子オブジェクトが前記同期タイプであるときは、自装置以外の情報処理装置に当該電子オブジェクトに関する情報を送信し、前記電子オブジェクトが前記永続タイプであるときは、当該電子オブジェクトに関する情報を送信しない。   An information processing apparatus according to an embodiment of the present invention shares captured image information among a plurality of information processing apparatuses via a network. The information processing apparatus extracts a physical object from image information captured using a projection plane as an imaging plane, generates an electronic object corresponding to the physical object, and generates an electronic object from an information processing apparatus other than the own apparatus. Receiving means for receiving, projecting means for projecting a projection image generated based on the generated or received electronic object onto the projection plane, and the generated based on characteristics of an image area corresponding to the physical object The electronic object type is a synchronous type drawn on a projection image projected by an information processing device other than the own device in synchronization with the change of the physical object on the photographing surface of the own device, or information other than the own device without being synchronized Judgment means for judging whether or not to permanently project onto the projection surface of the processing apparatus, and the synchronization type Others and transmission means for transmitting the electronic objects that are determined to persistent type information processing apparatus other than the self apparatus. When the change occurs in the physical object, the transmission means transmits information about the electronic object to an information processing apparatus other than the own apparatus when the electronic object is the synchronization type, and the electronic object When it is the permanent type, information regarding the electronic object is not transmitted.

本発明の情報処理装置によれば、自装置以外の情報処理装置と電子オブジェクトを共有する場合に当該電子オブジェクトのタイプを特定して共有方法を切り替えることにより操作性を向上させることが可能となる。従って、物理オブジェクトと電子オブジェクトを画面上に表示する複数の情報処理装置が電子オブジェクトを共有する際に、各装置による投影表示が、煩雑な操作なしに適切に制御される。   According to the information processing apparatus of the present invention, when an electronic object is shared with an information processing apparatus other than its own apparatus, the operability can be improved by specifying the type of the electronic object and switching the sharing method. . Therefore, when a plurality of information processing apparatuses that display physical objects and electronic objects on the screen share the electronic objects, the projection display by each apparatus is appropriately controlled without complicated operations.

本発明の会議システムのネットワーク構成例である。It is a network structural example of the conference system of this invention. 会議端末のハードウェア構成例である。It is a hardware structural example of a conference terminal. 会議端末のソフトウェア構成例である。It is an example of a software configuration of a conference terminal. 撮影画像から電子オブジェクトを生成する処理のフローチャートである。It is a flowchart of the process which produces | generates an electronic object from a picked-up image. 撮影画像から生成された電子オブジェクトの例である。It is an example of the electronic object produced | generated from the picked-up image. オブジェクトタイプを、静止画から決定する処理のフローチャートである。It is a flowchart of the process which determines an object type from a still image. 静止画的な特徴に基づいて決定されたオブジェクトタイプの例である。It is an example of the object type determined based on the still image characteristic. オブジェクトタイプを、動画から決定する処理のフローチャートである。It is a flowchart of the process which determines an object type from a moving image. 動画的な特徴に基づいて決定されたオブジェクトタイプの例である。It is an example of the object type determined based on animation characteristics. 更新実施判断を行う処理のフローチャートである。It is a flowchart of the process which performs update implementation determination. 電子オブジェクトから投影画像を形成する処理のフローチャートである。It is a flowchart of the process which forms a projection image from an electronic object. 電子オブジェクト記憶部が記憶している電子オブジェクトの例である。It is an example of the electronic object which the electronic object storage part has memorized. 電子オブジェクトから投影画像を形成する例である。It is an example which forms a projection image from an electronic object. オブジェクトタイプを指定するユーザインタフェースの例である。It is an example of the user interface which designates an object type. 位置に応じてオブジェクトタイプを指定するフローチャートである。It is a flowchart which designates an object type according to a position. 位置に応じてオブジェクトタイプを指定する例である。This is an example of specifying an object type according to a position. 電子オブジェクトを表示している上に物理オブジェクトを置くことでオブジェクトタイプを変更する処理のフローチャートである。It is a flowchart of the process which changes an object type by putting a physical object on displaying an electronic object. 図17の処理の結果オブジェクトタイプが変更された撮影面の例である。It is an example of the imaging | photography surface by which the object type was changed as a result of the process of FIG. 距離情報を適用したオブジェクトタイプ決定処理の例である。It is an example of the object type determination process to which distance information is applied.

(実施例1)
図1は、本発明の会議シテムのネットワーク構成例を示す。会議端末101、102は、それぞれGatewayサーバー103,104を介してインターネット105に接続されている。会議端末はGatewayサーバー103,104及びインターネット105を介して、互いにデータを送受信しデータを共有することができる情報処理装置である。以下では、会議端末101側で行われる処理に注目して説明を行う。ここで、会議端末101側を「本端末」と、会議端末102側を「対向端末」として扱うものとする。会議端末102側に注目した場合には、この関係が入れ替わることに注意されたい。また、本発明においては、対向端末は1台に限定されるものではなく、複数台の構成となっても本発明を適用する事ができることを予め明言する。
Example 1
FIG. 1 shows a network configuration example of the conference system of the present invention. The conference terminals 101 and 102 are connected to the Internet 105 via gateway servers 103 and 104, respectively. The conference terminal is an information processing apparatus that can transmit and receive data to and share data with each other via the gateway servers 103 and 104 and the Internet 105. In the following description, attention is paid to the processing performed on the conference terminal 101 side. Here, it is assumed that the conference terminal 101 side is treated as “present terminal” and the conference terminal 102 side is treated as “opposite terminal”. It should be noted that this relationship is switched when attention is paid to the conference terminal 102 side. Further, in the present invention, the number of opposing terminals is not limited to one, but it will be clearly stated in advance that the present invention can be applied even when a plurality of terminals are configured.

図2は、本発明の情報処理装置として機能する会議端末のハードウェア構成例を示す。会議端末101と会議端末102の構成は同等であるため、以下では会議端末101を例に説明する。本実施例では、カメラ付きプロジェクタを会議端末としている。なお、ここでは会議システムを構成する専用ハードウェアデバイスとしてカメラ付きプロジェクタを説明しているが、プロジェクタとカメラ付きスマートフォンを組み合わせる形で会議端末を構成する事もできる。プロジェクタに市販品のWebカメラを接続して会議端末を構成する事もできる。プロジェクタ内蔵のカメラ付きスマートフォンを会議端末として用いる事もできる。   FIG. 2 shows a hardware configuration example of a conference terminal that functions as the information processing apparatus of the present invention. Since the conference terminal 101 and the conference terminal 102 have the same configuration, the conference terminal 101 will be described below as an example. In this embodiment, a projector with a camera is used as a conference terminal. Although a projector with a camera is described here as a dedicated hardware device constituting the conference system, a conference terminal can also be configured by combining a projector and a smartphone with a camera. It is also possible to configure a conference terminal by connecting a commercially available Web camera to the projector. A camera-equipped smartphone with a projector can also be used as a conference terminal.

会議端末101は、CPU201、RAM202、ROM203、外部機器コントローラ204、内部機器コントローラ205を備える。CPU201乃至内部機器コントローラ205は、メインバス200を介して接続されている。また、外部機器コントローラ204には、画像撮影モジュール211、画像投影モジュール212、HIDモジュール213、音声入力モジュール214が接続されている。内部機器コントローラ205には、内部記憶装置221、ネットワークモジュール222が接続されている。CPU201は、外部機器コントローラ204と内部機器コントローラ205を介してこれらの制御モジュールと通信することができる。   The conference terminal 101 includes a CPU 201, a RAM 202, a ROM 203, an external device controller 204, and an internal device controller 205. The CPU 201 to the internal device controller 205 are connected via the main bus 200. In addition, an image capturing module 211, an image projecting module 212, an HID module 213, and an audio input module 214 are connected to the external device controller 204. An internal storage device 221 and a network module 222 are connected to the internal device controller 205. The CPU 201 can communicate with these control modules via the external device controller 204 and the internal device controller 205.

CPUは、Central Processing Unitの略称である。CPU201は、後述するプログラム300を実行するためのユニットである。RAMは、Random Access Memoryの略称である。RAM 202は、CPU 201がプログラム300を実行する際に必要となるデータに対する読み書き可能メモリである。ROMは、Read Only Memoryの略称である。ROM 203はCPU 201がプログラム300を実行する際に必要となるデータを読み出すための読み込み専用メモリである。   CPU is an abbreviation for Central Processing Unit. The CPU 201 is a unit for executing a program 300 described later. RAM is an abbreviation for Random Access Memory. The RAM 202 is a readable / writable memory for data necessary for the CPU 201 to execute the program 300. ROM is an abbreviation for Read Only Memory. A ROM 203 is a read-only memory for reading data necessary for the CPU 201 to execute the program 300.

外部機器コントローラ204は、画像撮影モジュール211や画像投影モジュール212等の外部機器を制御する為のモジュールである。画像撮影モジュール211は、撮影面上の画像を撮影画像として撮影する為のモジュールである。画像投影モジュール212は、CPU201が生成した投影画像を投影面に表示する為のモジュールである。HID(ヒューマン・インタフェース・デバイス)モジュール213は、人間からの操作を受け付けるためのモジュールである。   The external device controller 204 is a module for controlling external devices such as the image capturing module 211 and the image projection module 212. The image photographing module 211 is a module for photographing an image on the photographing surface as a photographed image. The image projection module 212 is a module for displaying the projection image generated by the CPU 201 on the projection plane. An HID (Human Interface Device) module 213 is a module for receiving an operation from a human.

音声入力モジュール214は、人間からの音声入力を受け付けるためのモジュールである。例えば、画像撮影モジュール211としてCCD方式のカメラモジュールを、画像投影モジュール212としては液晶パネル方式のプロジェクションモジュールを用いる事ができる。また、HIDモジュール213としてはマウスを、音声入力モジュール213としてはマイクを用いることができる。   The voice input module 214 is a module for receiving voice input from a human. For example, a CCD camera module can be used as the image capturing module 211, and a liquid crystal panel projection module can be used as the image projection module 212. A mouse can be used as the HID module 213 and a microphone can be used as the voice input module 213.

内部機器コントローラ205は会議端末101の内部機器を制御する為のモジュールであり、内蔵記憶装置221、ネットワークモジュール222を制御する為のモジュールである。内部記憶装置221は、データを保存するための二次記憶装置である。ネットワークモジュール222は、ネットワーク上の別の機器と情報の送受信を行うためのモジュールである。ネットワークモジュール222としては有線LANに対応しているネットワークモジュールだけではなく、無線LANに対応しているネットワークモジュールを適用する事もできる。つまり、本端末と対向端末とは、ネットワークモジュール222を介して互いにデータを送受信する。   The internal device controller 205 is a module for controlling internal devices of the conference terminal 101, and is a module for controlling the internal storage device 221 and the network module 222. The internal storage device 221 is a secondary storage device for storing data. The network module 222 is a module for transmitting / receiving information to / from another device on the network. As the network module 222, not only a network module supporting a wired LAN but also a network module supporting a wireless LAN can be applied. That is, the terminal and the opposite terminal transmit / receive data to / from each other via the network module 222.

図3は、会議端末のソフトウェア構成例を示す。本発明の会議端末が各実施例の会議システムを実現する際に、CPU201はプログラム300を読み出して実行する。プログラム300は、RAM202ないしROM203に記憶されている。接続情報301は、接続先となる対向端末のIPアドレスなどの接続情報を記憶している設定データである。   FIG. 3 shows a software configuration example of the conference terminal. When the conference terminal of the present invention realizes the conference system of each embodiment, the CPU 201 reads and executes the program 300. The program 300 is stored in the RAM 202 or ROM 203. The connection information 301 is setting data that stores connection information such as the IP address of the opposite terminal that is the connection destination.

撮影画像入力手段311は、画像撮影モジュール211が撮影した撮影画像を受信する。本実施例では、撮影画像入力手段311が幾何補正や色調整の前処理を行うものとしている。電子オブジェクト生成手段312は、撮影画像を解析し、物理オブジェクトが存在する部分領域を検出する。そして部分領域上を元に第1の電子オブジェクトを生成する。   The captured image input unit 311 receives a captured image captured by the image capturing module 211. In this embodiment, the photographed image input unit 311 performs preprocessing for geometric correction and color adjustment. The electronic object generation unit 312 analyzes the captured image and detects a partial region where the physical object exists. Then, a first electronic object is generated based on the partial area.

電子オブジェクトタイプ決定部351は、第1の電子オブジェクトの元となった部分領域と、部分領域を含む周辺領域の撮影時刻における静止画的な特徴または時系列で変化する動画的な特徴とを求める。そして、電子オブジェクトタイプ決定部351はその部分領域もしくは周辺領域の特徴に基づき、当該第1の電子オブジェクトのオブジェクトタイプを決定する。   The electronic object type determination unit 351 obtains a partial area that is a source of the first electronic object and a still-image characteristic or a moving-image characteristic that changes in time series at the shooting time of a peripheral area that includes the partial area. . Then, the electronic object type determination unit 351 determines the object type of the first electronic object based on the characteristics of the partial area or the peripheral area.

更新実施判断手段352は、第1の電子オブジェクトのオブジェクトタイプに基づいて、本端末および対向端末において、第1の電子オブジェクトに関する情報を登録・更新すべきかを判断する。ローカル電子オブジェクト記憶手段313は、更新実施判断手段352で本端末における更新が必要と判断された電子オブジェクトの情報を電子オブジェクト記憶部331に記憶する。   Based on the object type of the first electronic object, the update execution determining unit 352 determines whether information regarding the first electronic object should be registered / updated in the terminal and the opposite terminal. The local electronic object storage unit 313 stores, in the electronic object storage unit 331, information on the electronic object determined to be updated in the terminal by the update execution determination unit 352.

電子オブジェクトパケット送信信手段314は、接続設定301に基づいて、更新実施判断手段352が対向端末において更新が必要と判断された電子オブジェクトの情報を元に、ネットワーク上で送受信できる形式として電子オブジェクトパケットを生成する。そして、ネットワークモジュール222を経由して対向端末へ送信する。   Based on the connection setting 301, the electronic object packet transmission / reception unit 314 is configured to transmit the electronic object packet in a format that can be transmitted / received on the network based on the information of the electronic object that is determined to be updated by the update execution determination unit 352. Is generated. Then, the data is transmitted to the opposite terminal via the network module 222.

電子オブジェクトパケット受信手段321は、接続設定301に基づいて、対向端末から送信されてきた電子オブジェクトパケットを受信し、当該電子オブジェクトパケットに含まれる第2の電子オブジェクトを抽出する。リモート電子オブジェクト記憶手段322は、電子オブジェクトパケット受信手段321が抽出した第2の電子オブジェクトを、電子オブジェクト記憶部331に記憶する。   Based on the connection setting 301, the electronic object packet receiving unit 321 receives the electronic object packet transmitted from the opposite terminal, and extracts the second electronic object included in the electronic object packet. The remote electronic object storage unit 322 stores the second electronic object extracted by the electronic object packet reception unit 321 in the electronic object storage unit 331.

ここで、電子オブジェクトパケット送信手段314や電子オブジェクトパケット受信手段321が送受信する電子オブジェクトパケットは、それぞれの電子オブジェクトの投影面上の位置情報及び画像情報等を含む。電子オブジェクトパケットのデータフォーマットとしては、JSON(JavaScript(登録商標) Object Notation)形式やXML(Extensible Markup Language)形式等、種々のフォーマットを用いることができる。   Here, the electronic object packet transmitted and received by the electronic object packet transmitting unit 314 and the electronic object packet receiving unit 321 includes position information, image information, and the like on the projection plane of each electronic object. As a data format of the electronic object packet, various formats such as a JSON (Java Script (registered trademark) Object Notation) format and an XML (Extensible Markup Language) format can be used.

投影画像形成手段332は、電子オブジェクト記憶部331が記憶している第1及び第2の電子オブジェクトから投影画像を形成する。投影画像出力手段333は、画像投影モジュール313を用いて投影面へ投影画像を投影する。   The projection image forming unit 332 forms a projection image from the first and second electronic objects stored in the electronic object storage unit 331. The projection image output means 333 projects the projection image onto the projection plane using the image projection module 313.

また、ジェスチャ入力手段361は、画像撮影モジュール211が撮影した撮影画像中から会議参加者の身振り・手振りを解析し、電子オブジェクト操作手段364に通知する為の手段である。HID入力手段362は、HIDモジュール213で行われた操作を受け付け、電子オブジェクト操作手段364に通知するための手段である。音声入力手段363は、音声入力モジュール214から入力された音声データから会議参加者の声による操作を解析し、電子オブジェクト操作手段364に通知するための手段である。電子オブジェクト操作手段364は、他モジュールから通知された操作を元に、電子オブジェクト記憶部331が記憶している電子オブジェクトに対して変更を行う。   The gesture input unit 361 is a unit for analyzing the gestures / hand gestures of the conference participants from the captured images captured by the image capturing module 211 and notifying the electronic object operation unit 364. The HID input unit 362 is a unit for receiving an operation performed by the HID module 213 and notifying the electronic object operation unit 364. The voice input unit 363 is a unit for analyzing an operation performed by the voice of the conference participant from the voice data input from the voice input module 214 and notifying the electronic object operation unit 364. The electronic object operation unit 364 changes the electronic object stored in the electronic object storage unit 331 based on the operation notified from the other module.

ここで、その他電子会議システムで必要とする一般的な機能を、プログラム300が持っていてもよい。例えば、対向端末を指定するために、接続先の会議端末を設定する為の接続先設定ダイアログボックスを設ける事ができる。対向端末を選択する為に、ネットワークモジュール222を介して外部に存在するサーバーに接続可能な端末を問い合わせする機能と、それをダイアログボックスに候補として通知する機能を設ける事ができる。また、プログラム300は、会議におけるセキュリティを確保する為に、電子オブジェクトパケット送信信手段314が送信する電子オブジェクトパケットを暗号化する機能を有する事ができる。プログラム300は、電子オブジェクトパケット受信手段321が受信した電子オブジェクトパケットを複号する機能を有する事ができる。これらは従来技術の電子会議システムで用いられる一般的な機能であり、本発明の本質に直接影響しないため、詳細は割愛する。   Here, the program 300 may have other general functions required for the electronic conference system. For example, in order to designate the opposite terminal, a connection destination setting dialog box for setting a connection destination conference terminal can be provided. In order to select the opposite terminal, it is possible to provide a function of inquiring about a terminal that can be connected to a server existing outside via the network module 222 and a function of notifying the dialog box as a candidate. Further, the program 300 can have a function of encrypting an electronic object packet transmitted by the electronic object packet transmission means 314 in order to ensure security in the conference. The program 300 can have a function of decoding the electronic object packet received by the electronic object packet receiving unit 321. Since these are general functions used in the electronic conference system of the prior art and do not directly affect the essence of the present invention, details are omitted.

以下、ハードウェアとしてCPU201が実行する、電子オブジェクト生成手段312、電子オブジェクトタイプ決定手段351、更新実施判断手段352、及び投影画像形成手段332を中心に本発明の特徴を説明する。   Hereinafter, the features of the present invention will be described focusing on the electronic object generation unit 312, the electronic object type determination unit 351, the update execution determination unit 352, and the projection image formation unit 332 that are executed by the CPU 201 as hardware.

<電子オブジェクト生成>
図4は、電子オブジェクト生成手段312が行う、撮影画像から電子オブジェクトを生成する処理のフローチャートである。図5は、電子オブジェクト生成手段312が撮影画像から電子オブジェクトを生成する例である。この処理は撮影画像入力手段311から送られる動画の毎フレームに対して行われる。
<Generate electronic objects>
FIG. 4 is a flowchart of processing for generating an electronic object from a captured image, which is performed by the electronic object generating unit 312. FIG. 5 shows an example in which the electronic object generation unit 312 generates an electronic object from a captured image. This processing is performed for each frame of the moving image sent from the photographed image input means 311.

電子オブジェクト生成手段312は、撮影画像から撮影タイミングに適しているかを判定する(S400)。会議参加者がジェスチャ入力手段361や、HID入力手段362、音声入力手段363を介して操作を行い、電子オブジェクト操作手段364から撮影タイミングを受け取り判断することができる。例えば、画像撮影モジュール211が撮影した撮影画像をジェスチャ入力手段361が解析し、その中で行われた特定の身振り・手振りを持って、撮影タイミングであると判定できる。また、ジェスチャ入力手段361が撮影画像中から動体が無くなるタイミングをもって、撮影タイミングであると判定する事もできる。HIDモジュール213としてのマウスでクリックしたことをHID入力手段302が解釈し、撮影タイミングであると判定できる。音声入力モジュール213で入力された音声を音声入力手段263で解釈し、特定キーワードを検出したタイミングを、撮影タイミングであると判定できる。   The electronic object generation means 312 determines whether it is suitable for the shooting timing from the captured image (S400). A conference participant can perform an operation via the gesture input unit 361, the HID input unit 362, and the voice input unit 363, and can receive and determine the shooting timing from the electronic object operation unit 364. For example, the gesture input unit 361 analyzes a photographed image photographed by the image photographing module 211, and can determine that it is a photographing timing with a specific gesture / hand gesture performed therein. The gesture input unit 361 can also determine that it is the shooting timing when the moving object disappears from the captured image. Clicking with the mouse as the HID module 213 is interpreted by the HID input means 302, and it can be determined that it is the photographing timing. The voice input unit 263 interprets the voice input by the voice input module 213, and the timing at which the specific keyword is detected can be determined as the shooting timing.

電子オブジェクト生成手段312は、上記の撮影タイミングであるかを判断した結果に基づいて処理を分岐する(S402)。撮影タイミングではない場合には、このフレームに対する処理は終了する。撮影タイミングである場合には、電子オブジェクト生成手段312は撮影時刻を取得する(S403)。これは後述する電子オブジェクトの生成処理時に付与される、生成時刻である。   The electronic object generation unit 312 branches the process based on the result of determining whether it is the above photographing timing (S402). If it is not the shooting timing, the processing for this frame ends. If it is the shooting timing, the electronic object generation unit 312 acquires the shooting time (S403). This is a generation time given during the electronic object generation process described later.

電子オブジェクト生成手段312は、撮影画像に対して、撮影画像をホワイトボードの背景部分と、物理オブジェクトが含まれている前景部分とを画素単位で分離する背景差分処理を行う(S404)。なお、この時に、撮影画像において手や腕の輪郭や色を検出し、それらによって隠されている部分を推定して補完する前処理を更に加えてもよい。この処理例を図5(A)に示す。黒画素部分が前景部分を意味し、白画素部分が背景部分を意味する。   The electronic object generation unit 312 performs background difference processing on the captured image to separate the captured image from the background portion of the whiteboard and the foreground portion including the physical object in units of pixels (S404). At this time, preprocessing for detecting the contours and colors of the hands and arms in the photographed image and estimating and complementing the portions hidden by them may be further added. An example of this processing is shown in FIG. The black pixel portion means the foreground portion, and the white pixel portion means the background portion.

電子オブジェクト生成手段312は、前景部分の画素に対して複数の輪郭を抽出し、これらの複数の輪郭を部分領域とする(S406)。この時、隣接している前景部分同士が結合するように前処理することが望ましい。図5(B)に示した処理例では、5つの部分領域501〜505が抽出されている。   The electronic object generation unit 312 extracts a plurality of contours for the pixels in the foreground portion, and sets the plurality of contours as partial regions (S406). At this time, it is desirable to perform preprocessing so that adjacent foreground portions are joined together. In the processing example shown in FIG. 5B, five partial areas 501 to 505 are extracted.

電子オブジェクト生成手段312は、それぞれの部分領域に対して以下の処理を行う。まず、電子オブジェクト生成手段312は処理対象となる部分領域を選択する(S408)。電子オブジェクト生成手段312は選択対象の部分領域の面積を算出し、それが一定未満であれば別の部分領域を選択する(S410)。これは誤検出した孤立点から生成された部分領域を除外する為に必要となる。部分領域はパス点列であるため、たすきがけ法などを用いて面積を算出する事ができる。あるいは、部分領域を包含するバウンディングボックスの面積を、部分領域自体の面積の概算値として用いることもできる。   The electronic object generation unit 312 performs the following processing on each partial area. First, the electronic object generation unit 312 selects a partial area to be processed (S408). The electronic object generation means 312 calculates the area of the partial area to be selected, and if it is less than a certain value, selects another partial area (S410). This is necessary to exclude a partial region generated from an erroneously detected isolated point. Since the partial area is a pass point sequence, the area can be calculated using a brushing method or the like. Alternatively, the area of the bounding box that includes the partial region can be used as an approximate value of the area of the partial region itself.

電子オブジェクト生成手段312は、一定以上の面積を持つ部分領域の情報を元に電子オブジェクトを生成する(S412)。生成された電子オブジェクトは、電子オブジェクトID、物理オブジェクトの有無、画像情報、位置情報、オブジェクトタイプ情報、生成端末情報、静止開始時刻、静止時間の属性を持つ(図5(C))。電子オブジェクトIDは各電子オブジェクトにシーケンシャルに付与される識別子である。物理オブジェクトの有無は、電子オブジェクトを生成した端末の存在する拠点側の投影面上に物理オブジェクトが存在しているかを示すフラグである。画像情報は撮影画像上での部分領域が示す部分を切り出した画像である。位置情報は部分領域の左上原点の座標である。   The electronic object generation unit 312 generates an electronic object based on the information of the partial region having a certain area or more (S412). The generated electronic object has attributes of electronic object ID, physical object presence / absence, image information, position information, object type information, generation terminal information, stationary start time, and stationary time (FIG. 5C). The electronic object ID is an identifier that is sequentially assigned to each electronic object. The presence / absence of a physical object is a flag indicating whether a physical object is present on the base-side projection plane where the terminal that generated the electronic object is present. The image information is an image obtained by cutting out a portion indicated by the partial area on the captured image. The position information is the coordinates of the upper left origin of the partial area.

オブジェクトタイプ情報は、物理オブジェクトが移動した場合の振る舞い、例えば更新処理を行うか否かを決めるための識別情報である。オブジェクトタイプは、削除済みタイプ、未定タイプ、永続表示タイプ、同期表示タイプがある。本実施形態において、永続表示タイプは、同期させることなく自装置以外の情報処理装置の投影面に永続的に投影させる電子オブジェクトを指す。例えば、自装置が撮影する撮影面から物理オブジェクトが除去、移動されても自装置の投影面とともに自装置以外の装置の投影面にも固定位置で表示される電子オブジェクトである。同期表示タイプは、自装置の撮影面における物理オブジェクトの変化に同期させて自装置以外の情報処理装置が投影する投影画像に描画される電子オブジェクトを指す。例えば、物理オブジェクトの移動があれば、対向端末側の電子オブジェクトも同様の移動が行われる電子オブジェクトである。また、同期表示タイプは、本端末側で物理オブジェクトを除去すると、対向端末側の電子オブジェクトも表示されなくなる。未定タイプは、物理オブジェクトに対応する電子オブジェクトが撮影できているが、同期表示タイプ、永続表示タイプのいずれにも決定しかねている電子オブジェクトに付与される。削除済みタイプは永続表示タイプの電子オブジェクトに、会議参加者から明示的な除去指定があった場合に付与される。電子オブジェクトを生成した時のオブジェクトタイプの初期値は未定タイプである。なお、同期表示タイプ、永続表示タイプはそれぞれ、単に同期タイプ、永続タイプと呼ぶ場合もある。   The object type information is identification information for determining a behavior when a physical object moves, for example, whether to perform an update process. The object type includes a deleted type, an undetermined type, a permanent display type, and a synchronous display type. In the present embodiment, the permanent display type refers to an electronic object that is permanently projected onto a projection plane of an information processing apparatus other than its own apparatus without being synchronized. For example, it is an electronic object that is displayed at a fixed position on the projection plane of the apparatus other than the own apparatus together with the projection plane of the own apparatus even if the physical object is removed and moved from the imaging plane captured by the own apparatus. The synchronous display type refers to an electronic object drawn on a projection image projected by an information processing apparatus other than the own apparatus in synchronization with a change in a physical object on the photographing surface of the own apparatus. For example, if the physical object moves, the electronic object on the opposite terminal side is also an electronic object that undergoes the same movement. In the synchronous display type, when the physical object is removed on the terminal side, the electronic object on the opposite terminal side is not displayed. The undetermined type is given to an electronic object for which an electronic object corresponding to a physical object has been photographed but cannot be determined as either a synchronous display type or a permanent display type. The deleted type is given to the permanent display type electronic object when there is an explicit removal designation from the conference participant. The initial value of the object type when the electronic object is generated is an undetermined type. The synchronous display type and the permanent display type may be simply referred to as a synchronous type and a permanent type, respectively.

生成端末情報は、電子オブジェクトを生成した端末を表す識別子を用いる。本実施例では本端末(すなわち、端末101)とする。静止開始時刻は本電子オブジェクトの元となった物理オブジェクトが撮影画像内で静止しはじめた時刻であって、先ほど求めた撮影時刻である。静止時間は本電子オブジェクトの元となった物理オブジェクトが撮影画像内で静止し続けている時刻である。これは後の処理で計算される。   The generated terminal information uses an identifier representing the terminal that generated the electronic object. In this embodiment, it is assumed that this terminal (that is, terminal 101). The still start time is the time when the physical object that is the source of the electronic object starts to stop in the captured image, and is the previously determined shooting time. The stationary time is the time at which the physical object that is the source of the electronic object remains stationary in the captured image. This is calculated in a later process.

なお、以下は説明を簡略化する為に、電子オブジェクトID511を持つ電子オブジェクトのことを、電子オブジェクト511と呼称するものとする。図5(C)の例では、部分領域501〜504にそれぞれ該当する電子オブジェクト511〜514が生成されている。部分領域505は面積が小さいため、電子オブジェクトが生成されない。電子オブジェクト生成手段312は他に部分領域があるかを判定し、まだ残っていれば再びこれらの処理を繰り返す(S414)。以上の処理によって、物理オブジェクトが含まれる撮影画像内の部分領域を元に、電子オブジェクトが生成される。   Hereinafter, in order to simplify the description, an electronic object having the electronic object ID 511 is referred to as an electronic object 511. In the example of FIG. 5C, electronic objects 511 to 514 corresponding to the partial areas 501 to 504 are generated. Since the partial area 505 has a small area, an electronic object is not generated. The electronic object generation means 312 determines whether there is another partial area, and if it still remains, repeats these processes (S414). Through the above processing, an electronic object is generated based on the partial area in the captured image including the physical object.

次に、電子オブジェクト生成手段312は、電子オブジェクト記憶部331に保持されている電子オブジェクトに対して、除外されているかを検出する。最初に、電子オブジェクト記憶部331から、対象となる電子オブジェクトを選択する(S450)。当該電子オブジェクトの生成端末が本端末ではない場合には、電子オブジェクト生成手段312は当該電子オブジェクトに対する処理を終了する(S452)。当該電子オブジェクトに対応する部分領域が存在する場合には、電子オブジェクト生成手段312は当該電子オブジェクトに対する処理を終了する(S454)。当該電子オブジェクトの生成端末が本端末であり、かつ部分領域に対応するものが無い場合には、電子オブジェクト生成手段312は当該電子オブジェクトの物理有無をなしにして、電子オブジェクトを新たに生成する(S456)。電子オブジェクト生成手段312は他に電子オブジェクト記憶部331に電子オブジェクトがあるかを判定し、まだ残っていれば再びこれらの処理を繰り返す(S458)。以上の処理によって、撮影画像から除外された物理オブジェクトを元に生成された電子オブジェクトは、物理有無をなしとした新規電子オブジェクトとして生成される。   Next, the electronic object generation unit 312 detects whether or not the electronic object held in the electronic object storage unit 331 is excluded. First, a target electronic object is selected from the electronic object storage unit 331 (S450). If the generation terminal of the electronic object is not the terminal, the electronic object generation unit 312 ends the process for the electronic object (S452). If there is a partial area corresponding to the electronic object, the electronic object generation unit 312 ends the process for the electronic object (S454). If the generation terminal of the electronic object is the terminal and there is nothing corresponding to the partial area, the electronic object generation unit 312 generates a new electronic object without the physical presence or absence of the electronic object ( S456). The electronic object generation unit 312 determines whether there is another electronic object in the electronic object storage unit 331, and repeats these processes again if it remains (S458). Through the above processing, the electronic object generated based on the physical object excluded from the captured image is generated as a new electronic object with or without physical presence.

次に、電子オブジェクトタイプ決定手段351は、それぞれの電子オブジェクトのオブジェクトタイプを、部分領域およびその周辺領域の、撮影時刻における静止画的な特徴、もしくは時系列の変化に注目した動画的特徴のいずれかに基づいて決定する。なお、それぞれのオブジェクトタイプ決定手段を複数組み合わせることで、様々な決定方法を同時に適用する事もできる。   Next, the electronic object type determining means 351 determines the object type of each electronic object as either a still image characteristic at the shooting time or a moving image characteristic focusing on time-series changes in the partial area and its peripheral area. Decide on the basis. It should be noted that various determination methods can be applied simultaneously by combining a plurality of object type determination means.

また、ここでは簡単に説明をするに留めるが、永続表示タイプの電子オブジェクトに対して削除する指定がなされた場合、この生成された電子オブジェクトに削除済みのオブジェクトタイプを指定して追加すればよい。削除する電子オブジェクトを選択する方法としては、例えば非特許文献2のように、削除用のマーカーが書かれた物理オブジェクトを上に重ねて撮影する方法が取れる。あるいは、HID入力手段362を介して電子オブジェクトの位置を移動させ、アイコンの上までドラッグした場合や表示画面外にドラッグした場合に削除が選択されたと判断してもよい。あるいは、ジェスチャ入力手段361やHID入力手段362で電子オブジェクトを指定中に、音声入力手段363で削除指示を行う形を用いてもよい。   In addition, only a brief description will be given here, but if it is specified to delete an electronic object of the permanent display type, it is only necessary to specify the deleted object type and add it to the generated electronic object. . As a method for selecting an electronic object to be deleted, for example, as in Non-Patent Document 2, a method can be used in which a physical object on which a deletion marker is written is superimposed and photographed. Alternatively, the position of the electronic object may be moved via the HID input unit 362, and it may be determined that deletion has been selected when dragging over the icon or dragging outside the display screen. Alternatively, the voice input unit 363 may issue a deletion instruction while the gesture input unit 361 or the HID input unit 362 specifies an electronic object.

<静止画的特徴に基づくオブジェクトタイプ決定>
同期表示タイプとして取り込むべき物理オブジェクトと、永続表示タイプとして取り込むべき物理オブジェクトが混在している場合に、静止画から得られる画像上の特徴を考える。
<Determining object type based on still image features>
Consider a feature on an image obtained from a still image when a physical object to be captured as a synchronous display type and a physical object to be captured as a permanent display type are mixed.

同期表示タイプとして取り込むべき物理オブジェクトをマグネットによって撮影面上に固定するユースケースを考える。永続表示タイプとして取り込むべき物理オブジェクトは、マグネットで撮影面上に固定する事が出来ず、手で持つことで投影面上に固定する。つまり、撮影画像内からマグネットや手を検出する事で、電子オブジェクトに付与するべきオブジェクトタイプを決定できる。   Consider a use case where a physical object to be captured as a synchronous display type is fixed on a photographing surface by a magnet. A physical object to be captured as a permanent display type cannot be fixed on the photographing surface with a magnet, but is fixed on the projection surface by holding it by hand. That is, by detecting a magnet or a hand from the captured image, the object type to be given to the electronic object can be determined.

オブジェクトタイプの決定方法としては、接着力の弱い糊が裏面に貼付されている紙製付箋を用いる別のユースケースも考えられる。予め付箋に識別するための識別マーカーを印字したり、利用できる付箋の色を限定することで、部分領域内に撮影された物理オブジェクトが付箋であるか否かを判断できる。そして物理オブジェクトが付箋であると判断された場合に、電子オブジェクトのオブジェクトタイプは同期表示タイプであると決定できる。   As a method for determining the object type, another use case using a paper sticky note in which a paste having a weak adhesive force is attached to the back surface is also conceivable. It is possible to determine whether or not the physical object photographed in the partial area is a tag by printing an identification marker for identifying the tag in advance or limiting the colors of the tags that can be used. When it is determined that the physical object is a tag, it can be determined that the object type of the electronic object is a synchronous display type.

図6は、静止画における、物理オブジェクトに対応する画像領域の特徴に基づいて、電子オブジェクトのオブジェクトタイプを決定するフローチャートである。図7は静止画的な特徴に基づいて、電子オブジェクトのオブジェクトタイプを決定する物理オブジェクトの例である。最初に、電子オブジェクトタイプ決定手段351は、対象となっている電子オブジェクトが物理有無=あるとなっているかを判定し、物理オブジェクトがない場合には以下の処理を行わない(S600)。電子オブジェクトタイプ決定手段351は、当該電子オブジェクトの位置・情報に相当する投影画像上の部分画像を抽出する(S601)。電子オブジェクトタイプ決定手段351は、部分画像およびその周辺部において手が重畳・隣接して撮影されているかを判定する(S604)。例えば、図7に示す物理オブジェクト701は、手702が重畳されていると判断される。手が重畳・隣接している場合、電子オブジェクトタイプ決定手段351は当該電子オブジェクトのオブジェクトタイプを永続表示タイプと決定する(S606)。   FIG. 6 is a flowchart for determining the object type of the electronic object based on the characteristics of the image area corresponding to the physical object in the still image. FIG. 7 is an example of a physical object that determines an object type of an electronic object based on still image characteristics. First, the electronic object type determination unit 351 determines whether or not the target electronic object is physical existence = there is no physical object, and does not perform the following processing if there is no physical object (S600). The electronic object type determination unit 351 extracts a partial image on the projection image corresponding to the position / information of the electronic object (S601). The electronic object type determination unit 351 determines whether or not the hand is superimposed and adjacent to the partial image and its peripheral part (S604). For example, it is determined that the hand 702 is superimposed on the physical object 701 illustrated in FIG. When the hands are superimposed / adjacent, the electronic object type determination unit 351 determines the object type of the electronic object as a permanent display type (S606).

電子オブジェクトタイプ決定手段351は、手が重なっていない場合には、部分画像中に識別マーカーやマグネットが含まれているかを判定する(S612)。例えば、物理オブジェクト721を撮影した部分画像中には識別マーカー722,723が存在している。物理オブジェクト731を撮影した部分画像中には識別マーカー732,733が存在している。これらの識別マーカーには任意の形状を用いることができ、そこに更に何らかの情報を付与する事もできる。   The electronic object type determination unit 351 determines whether an identification marker or a magnet is included in the partial image when the hands are not overlapped (S612). For example, identification markers 722 and 723 exist in the partial image obtained by photographing the physical object 721. Identification markers 732 and 733 exist in the partial image obtained by photographing the physical object 731. Arbitrary shapes can be used for these identification markers, and some information can be further given thereto.

また、物理オブジェクト741を撮影した部分画像中には、マグネット742、743が存在している。物理オブジェクト751を撮影した部分画像中には、マグネット752が存在している。これらは画像中にマグネットに相当する画像が含まれているかを判定する事で、存在を判定できる。予めシステム側にマグネットとして用いる任意の形状や色を指定しておいてもよい。マグネット自体に識別マーカーを付与することもできる。部分画像中に識別マーカーやマグネットが存在する場合には、電子オブジェクトタイプ決定手段351は当該電子オブジェクトのオブジェクトタイプを同期表示タイプと決定する(S614)。   Further, magnets 742 and 743 exist in the partial image obtained by photographing the physical object 741. A magnet 752 exists in the partial image obtained by photographing the physical object 751. The presence of these can be determined by determining whether an image corresponding to a magnet is included in the image. An arbitrary shape or color used as a magnet may be specified in advance on the system side. An identification marker can be attached to the magnet itself. When an identification marker or a magnet is present in the partial image, the electronic object type determination unit 351 determines the object type of the electronic object as a synchronous display type (S614).

部分画像中に識別マーカーやマグネットが存在しない場合には、電子オブジェクトタイプ決定手段351は部分領域内での背景色を特定する(S618)。例えば、部分画像に含まれるそれぞれの色をクラスタリングし、最頻出となっている色クラスタを背景色であると推定できる。この時、付箋に書き込む際に油性マーカー等でよく使われる色クラスタは背景色とする候補から除外することが望ましい。次に、背景色がいずれかの付箋特定色と一致するかを判定する(S620)。市販されている紙付箋の色は、多くの場合、書き込みがはっきり見えるように淡い色合いの、かつそれぞれの付箋の色が見分けやすい色が用いられる。背景色と付箋特定色が一致しているのかを判定することで、部分領域に撮影されている物理オブジェクトが付箋であるかを判定する。なお、付箋特定色は予め決めてあってもよいし、明度や彩度などの条件を元に決定することもできる。更に、本実施例では色を基準に判定しているが、部分画像の幅・高さの比率が、付箋の幅・高さの比率と一致しているかなどの形状的な特徴を元に判定してもよい。   If there is no identification marker or magnet in the partial image, the electronic object type determining means 351 specifies the background color in the partial area (S618). For example, each color included in the partial image is clustered, and the most frequently occurring color cluster can be estimated as the background color. At this time, it is desirable to exclude a color cluster often used for oil-based markers or the like when writing on a sticky note from the candidates for the background color. Next, it is determined whether the background color matches any one of the sticky note specific colors (S620). In many cases, commercially available paper sticky notes are lightly colored so that the writing can be clearly seen, and the colors of the respective sticky notes are easily distinguishable. By determining whether the background color matches the specific color of the tag, it is determined whether the physical object photographed in the partial area is a tag. The specific color of the sticky note may be determined in advance, or may be determined based on conditions such as lightness and saturation. Furthermore, in this embodiment, the determination is made based on the color, but the determination is based on the shape characteristics such as whether the width / height ratio of the partial image matches the width / height ratio of the tag. May be.

電子オブジェクトタイプ決定手段351は、背景色が付箋特定色と一致している場合には、同期表示タイプと決定する(S622)。一致していない場合には、未定タイプと決定する(S624)。他に処理するべき電子オブジェクトがあれば処理を繰り返し、そうでなければ処理を終了する(S630)。ここでは、部分領域内の色や識別マーカーやマグネットなどの特定画像が含まれているかを、オブジェクトタイプを判断する材料に用いた。その他、部分領域内の色数や、線の太さの平均・分散などを、オブジェクトタイプの判断に用いることもできる。   When the background color matches the tag specific color, the electronic object type determination unit 351 determines the synchronous display type (S622). If they do not match, it is determined as an undetermined type (S624). If there is another electronic object to be processed, the process is repeated, otherwise the process ends (S630). Here, whether or not a specific image such as a color in the partial region, an identification marker, or a magnet is included is used as a material for determining the object type. In addition, the number of colors in the partial area, the average / distribution of the line thickness, and the like can also be used for determining the object type.

<動画的特徴に基づくオブジェクトタイプ決定>
次に、同期表示タイプとして取り込むべき物理オブジェクトと、永続表示タイプとして取り込むべき物理オブジェクトが混在している場合に、動画から得られる画像上の特徴を考える。
<Determining object type based on animated features>
Next, when the physical object to be captured as the synchronous display type and the physical object to be captured as the permanent display type are mixed, the feature on the image obtained from the moving image will be considered.

同期表示タイプとして取り込むべき物理オブジェクトをマグネットによって撮影面上に固定するユースケースを考える。永続表示タイプとして取り込むべき物理オブジェクトは、マグネットでは撮影面上に固定する事が出来ず、その代わりに、手で持つことで投影面上に固定する。この時、同期表示タイプとして取り込むべき物理オブジェクトは撮影面上に長時間固定できる。しかし、永続表示タイプとして取り込むべき物理オブジェクトは会議参加者が手動で撮影面上に固定するため、会議参加者の利便性を考えれば、できるだけ短くすることが理想的である。これを利用すると、最初、(取り込むべき)全ての電子オブジェクトを永続表示タイプと仮決定しておき、一定時間以上投影面上に静止した電子オブジェクトに同期表示タイプに再決定する方法を採用することができる。これらの挙動は紙付箋を用いるユースケースでも同様である。   Consider a use case where a physical object to be captured as a synchronous display type is fixed on a photographing surface by a magnet. A physical object to be captured as a permanent display type cannot be fixed on the imaging surface with a magnet, but instead is fixed on the projection surface by holding it by hand. At this time, the physical object to be captured as the synchronous display type can be fixed on the photographing surface for a long time. However, since the physical object to be captured as the permanent display type is manually fixed on the photographing surface by the conference participant, it is ideal to make it as short as possible considering the convenience of the conference participant. When this is used, first, all electronic objects (to be imported) should be provisionally determined as permanent display types, and a method of re-determining synchronous display types for electronic objects that have been stationary on the projection surface for a certain time or longer should be adopted. Can do. These behaviors are the same for use cases using paper sticky notes.

図8は、動画における、物理オブジェクトに対応する画像領域の特徴に基づいて電子オブジェクトのオブジェクトタイプを決定するフローチャートである。図9は、電子オブジェクトのオブジェクトタイプを、動画的な特徴に基づいて決定する例である。最初に、電子オブジェクトタイプ決定手段351は、対象となっている電子オブジェクトが物理有無=あるとなっているかを判定し、物理オブジェクトがない場合には以下の処理を行わない(S800)。電子オブジェクトタイプ決定手段351は、当該電子オブジェクトと電子オブジェクト記憶部331に記憶している電子オブジェクトとを比較し、新規登録となっているかを判定する(S802)。新規登録である場合には、オブジェクトタイプを未定タイプとする(S804)。   FIG. 8 is a flowchart for determining the object type of the electronic object based on the characteristics of the image area corresponding to the physical object in the moving image. FIG. 9 is an example in which the object type of an electronic object is determined based on moving image characteristics. First, the electronic object type determination unit 351 determines whether the target electronic object is physical existence = not present, and does not perform the following processing when there is no physical object (S800). The electronic object type determination unit 351 compares the electronic object with the electronic object stored in the electronic object storage unit 331, and determines whether or not a new registration has been made (S802). If it is a new registration, the object type is set as an undetermined type (S804).

次に、電子オブジェクトタイプ決定手段351は電子オブジェクト記憶部331に記憶している情報から比較して、前回の撮影時から電子オブジェクトが移動しているかを判定する(S806)。電子オブジェクトの元となった物理オブジェクトが撮影画像内で移動しているかを判定している事と等価である。なお、実際には撮影時に端末を設置している机の振動などによって撮影画像にブレなどが生じる事が予想される。これらについては移動判定においてはある程度の閾値を持って多少の変動を許容できるようにするものとする。電子オブジェクトが移動していると判断した場合、電子オブジェクトタイプ決定手段351は、当該電子オブジェクトのオブジェクトタイプを未定タイプと判定する(S808)。   Next, the electronic object type determination unit 351 compares the information stored in the electronic object storage unit 331 to determine whether the electronic object has moved since the previous shooting (S806). This is equivalent to determining whether the physical object that is the source of the electronic object is moving in the captured image. Actually, it is expected that the photographed image will be blurred due to the vibration of the desk where the terminal is installed during photographing. In these movement determinations, it is assumed that some variation is allowed with a certain threshold value. If it is determined that the electronic object is moving, the electronic object type determination unit 351 determines that the object type of the electronic object is an undetermined type (S808).

電子オブジェクトが移動していないと判断した場合、電子オブジェクトタイプ決定手段351は静止を継続している時間を算出する(S810)。電子オブジェクトタイプ決定手段351は、静止時間が任意の閾値である取込判定閾値以下であるかを判定し、取込判定閾値以下であれば、当該電子オブジェクトのオブジェクトタイプを未定タイプと決定する(S814)。静止時間が取り込み判定閾値よりも大きい場合には、電子オブジェクトタイプ決定手段351は静止時間が同期判定閾値以下であるかを判定し、同期判定閾値以下であれば当該電子オブジェクトのオブジェクトタイプを永続表示タイプと決定する(S824)。静止時間が同期判定閾値よりも大きければ、電子オブジェクトタイプ決定手段351は当該電子オブジェクトのオブジェクトタイプを同期表示タイプと決定する(S826)。他に処理するべき電子オブジェクトがあれば処理を繰り返し、そうでなければ処理を終了する(S830)。   If it is determined that the electronic object has not moved, the electronic object type determination unit 351 calculates the time during which the electronic object is stationary (S810). The electronic object type determination unit 351 determines whether the stationary time is equal to or less than the capture determination threshold that is an arbitrary threshold, and determines that the object type of the electronic object is an undetermined type if it is equal to or less than the capture determination threshold ( S814). If the stationary time is greater than the capture determination threshold, the electronic object type determination unit 351 determines whether the stationary time is less than or equal to the synchronization determination threshold. If the stationary time is less than or equal to the synchronization determination threshold, the object type of the electronic object is permanently displayed. The type is determined (S824). If the stationary time is larger than the synchronization determination threshold, the electronic object type determination unit 351 determines the object type of the electronic object as a synchronous display type (S826). If there is another electronic object to be processed, the process is repeated, otherwise the process ends (S830).

以下、図9を用いて具体的な挙動について補足する。本例では所定時間として、取込判定閾値は4秒、同期判定閾値は8秒とする。また、電子オブジェクト記憶部331には何も電子オブジェクトが登録されていないものとする。   Hereinafter, a specific behavior will be supplemented with reference to FIG. In this example, as the predetermined time, the capture determination threshold is 4 seconds and the synchronization determination threshold is 8 seconds. Also, it is assumed that no electronic object is registered in the electronic object storage unit 331.

図9(A)は、2013年5月20日 9:19:42.250に撮影された撮影画像である。「マスコット案!」と書かれた物理オブジェクト951が撮影されている。この時、電子オブジェクト記憶部331に電子オブジェクトが1つも存在していない。よって、電子オブジェクトタイプ決定手段351は、当該物理オブジェクト951を撮影した部分領域から生成した電子オブジェクト901のオブジェクトタイプを未定タイプと判断する。そして、電子オブジェクトタイプ決定手段351は、電子オブジェクト901は後の処理で電子オブジェクト記憶部331に記憶する。   FIG. 9A is a photographed image taken on May 20, 2013, 9: 19: 42.250. A physical object 951 written “Mascot proposal!” Is photographed. At this time, no electronic object exists in the electronic object storage unit 331. Therefore, the electronic object type determination unit 351 determines that the object type of the electronic object 901 generated from the partial area obtained by photographing the physical object 951 is an undetermined type. Then, the electronic object type determination unit 351 stores the electronic object 901 in the electronic object storage unit 331 in a later process.

図9(B)は、2013年5月20日 9:19:47.250に撮影された撮影画像である。「マスコット案!」「いぬ」「斜め下への矢印」と書かれた物理オブジェクト961,962,964と、手持ちの「犬画像」の物理オブジェクト963が撮影画像に含まれている。この時、電子オブジェクト記憶部331には電子オブジェクト901が記憶されている。電子オブジェクトタイプ決定手段351は電子オブジェクト911と電子オブジェクト901を比較して、移動していないと判定する。この時、静止開始時刻と撮影時刻とを差分から、静止時間が5秒であることが算出される。これは、取込判定閾値を超えており、かつ、同期判定閾値未満である。よって、電子オブジェクトタイプ決定手段351は、電子オブジェクト911のオブジェクトタイプを永続表示タイプと判断する。電子オブジェクトタイプ決定手段351は、電子オブジェクト912,913,914が電子オブジェクト記憶部331に該当する電子オブジェクトが記憶されていないため、未定タイプであると判断する。   FIG. 9B is a photographed image taken on May 20, 2013, 9: 19: 47.250. The physical images 961, 962, and 964 written as “mascot plan!”, “Inu”, and “downwardly slanting arrow”, and the physical object 963 of the “dog image” on hand are included in the photographed image. At this time, an electronic object 901 is stored in the electronic object storage unit 331. The electronic object type determination unit 351 compares the electronic object 911 and the electronic object 901 and determines that it has not moved. At this time, it is calculated from the difference between the stationary start time and the photographing time that the stationary time is 5 seconds. This exceeds the capture determination threshold and is less than the synchronization determination threshold. Therefore, the electronic object type determination unit 351 determines that the object type of the electronic object 911 is a permanent display type. The electronic object type determination unit 351 determines that the electronic objects 912, 913, and 914 are of an undetermined type because no electronic object corresponding to the electronic object storage unit 331 is stored.

図9(C)は、2013年5月20日 9:19:52.250に撮影された撮影画像である。「マスコット案!」「いぬ」「斜め下への矢印」と書かれた物理オブジェクト971,972,974が撮影画像に含まれている。手持ちの「犬」の物理オブジェクト973は撮影面から除外されている。この時、電子オブジェクト記憶部331には電子オブジェクト901、912、913、914が記憶されている。電子オブジェクトタイプ決定手段351は電子オブジェクト921と電子オブジェクト901を比較して、移動していないと判定する。この時、静止開始時刻と撮影時刻とを差分から、静止時間が10秒と算出される。この静止時間は、取込判定閾値を超えており、かつ、同期判定閾値も超えている。よって、電子オブジェクトタイプ決定手段351は、電子オブジェクト921のオブジェクトタイプを同期表示タイプと判断する。   FIG. 9C is a photographed image taken on May 20, 2013, 9: 19: 52.250. The physical images 971, 972, and 974 written as “mascot plan!”, “Inu”, and “downwardly pointing arrow” are included in the photographed image. A physical object 973 of “dog” held by hand is excluded from the photographing surface. At this time, electronic objects 901, 912, 913, and 914 are stored in the electronic object storage unit 331. The electronic object type determination unit 351 compares the electronic object 921 and the electronic object 901 and determines that it has not moved. At this time, the stationary time is calculated as 10 seconds from the difference between the stationary start time and the photographing time. This stationary time exceeds the capture determination threshold and also exceeds the synchronization determination threshold. Therefore, the electronic object type determination unit 351 determines that the object type of the electronic object 921 is a synchronous display type.

物理オブジェクト973は撮影面から除外されているので、電子オブジェクト913を元に物理有無をなしとして取り込まれているため、オブジェクトタイプは決定されない。よって、電子オブジェクトタイプ決定手段351は、電子オブジェクト923を未定タイプと判断する。電子オブジェクト922,924についても同様に判定を行うと、静止時間が5秒であることから、永続表示タイプであると判断される。すなわち、本例では、電子オブジェクトの静止時間が4秒以上であって8秒以内の場合に、電子オブジェクト決定手段は該電子オブジェクトを永続表示タイプであると判定する。   Since the physical object 973 is excluded from the imaging surface, the object type is not determined because the physical object 973 is taken in based on the presence or absence of physicality based on the electronic object 913. Therefore, the electronic object type determination unit 351 determines that the electronic object 923 is an undetermined type. If the same determination is made for the electronic objects 922 and 924, the stationary time is 5 seconds, and therefore, it is determined that the electronic objects 922 and 924 are of the permanent display type. That is, in this example, when the stationary time of the electronic object is 4 seconds or longer and within 8 seconds, the electronic object determining means determines that the electronic object is a permanent display type.

図9(D)は、2013年5月20日 9:12:57.350に撮影された撮影画像である。「マスコット案!」「いぬ」「斜め下への矢印」と書かれた物理オブジェクト981,982,983が撮影画像に含まれている。この時、電子オブジェクト記憶部331には電子オブジェクト901、912、913、914が記憶されている。電子オブジェクトタイプ決定手段351は、電子オブジェクト931と電子オブジェクト901を比較して、移動していないことを判定する。この時、静止開始時刻と撮影時刻とを差分から、静止時間が15秒と算出される。この静止時間は、取込判定閾値を超えており、かつ、同期判定閾値も超えている。よって、電子オブジェクト931のオブジェクトタイプは同期表示タイプとなる。電子オブジェクト932,933についても同様に判定を行うと、静止時間が10秒であることから、同期表示タイプであると判断される。   FIG. 9D is a photographed image taken on May 20, 2013, 9: 12: 57.350. The physical images 981, 982, and 983 written as “mascot plan!”, “Inu”, and “downwardly pointing arrow” are included in the photographed image. At this time, electronic objects 901, 912, 913, and 914 are stored in the electronic object storage unit 331. The electronic object type determination unit 351 compares the electronic object 931 and the electronic object 901 and determines that they are not moved. At this time, the stationary time is calculated as 15 seconds from the difference between the stationary start time and the photographing time. This stationary time exceeds the capture determination threshold and also exceeds the synchronization determination threshold. Therefore, the object type of the electronic object 931 is a synchronous display type. If the same determination is made for the electronic objects 932 and 933, the stationary time is 10 seconds, and therefore, it is determined that the electronic objects 932 and 933 are the synchronous display type.

以上の処理によれば、本発明の会議端末は、それぞれの電子オブジェクトの元となった物理オブジェクトが撮影画像内で静止しているか否かに応じ、オブジェクトタイプを決定する事ができる。これにより、撮影面上にマグネット等で固定できる物理オブジェクトを対象に、それと対応する電子オブジェクトへ、同期表示タイプのオブジェクトタイプを付与できる。また、手で持っているような物理オブジェクトには、同期判定閾値に達する前に撮影面から除外するジェスチャによって、永続表示タイプのオブジェクトタイプを付与できる。   According to the above processing, the conference terminal of the present invention can determine the object type according to whether or not the physical object that is the basis of each electronic object is stationary in the captured image. As a result, for a physical object that can be fixed on the imaging surface with a magnet or the like, a synchronous display type object type can be assigned to the corresponding electronic object. A physical object such as a hand can be given a permanent display type object type by a gesture that is excluded from the imaging surface before reaching the synchronization determination threshold.

<更新実施判断>
更新実施判断手段352は、それぞれの電子オブジェクトに対して2つの更新処理を行うかを判別する。1つは、ローカル電子オブジェクト記憶手段313が行う本端末側の電子オブジェクト記憶部331内の電子オブジェクト情報を更新する処理である。もう1つは、電子オブジェクトパケット送信手段314を介して行う、対向端末の電子オブジェクト記憶部331内の電子オブジェクト情報を更新する処理である。
<Update execution judgment>
The update execution determination unit 352 determines whether to perform two update processes for each electronic object. One is a process of updating the electronic object information in the electronic object storage unit 331 on the terminal side performed by the local electronic object storage unit 313. The other is processing for updating the electronic object information in the electronic object storage unit 331 of the opposite terminal, which is performed via the electronic object packet transmission unit 314.

図10は、更新実施判断手段352が行う、各電子オブジェクトの更新実施判断を行う処理のフローチャートである。更新実施判断手段352は、電子オブジェクト記憶部331に同等の情報が記憶されているか否かに基づき、新規登録かを判別する(S1004)。更新実施判断手段352は、新規登録であれば当該電子オブジェクトのオブジェクトタイプに応じて処理を分岐する(S1005)。更新実施判断手段352は、オブジェクトタイプが同期表示タイプ、もしくは、永続表示タイプであれば、送信フラグをTRUEにし(S1012)、記憶フラグをTRUEにする(S1014)。更新実施判断手段352は、オブジェクトタイプが未定タイプであれば、送信フラグをFALSEにし(S1022)、記憶フラグをTRUEにする(S1024)。つまり、まだ新規登録となる電子オブジェクトは無条件に登録処理を行う。しかし、オブジェクトタイプが未定タイプであるものは、対向端末へ送信しない。これは、表示された時間が4秒以下など短い場合は、対向端末に反映する必要がないケースが多いためである。   FIG. 10 is a flowchart of a process for performing update execution determination for each electronic object performed by the update execution determination unit 352. The update execution determination unit 352 determines whether the registration is new based on whether or not equivalent information is stored in the electronic object storage unit 331 (S1004). If it is a new registration, the update execution determination unit 352 branches the process according to the object type of the electronic object (S1005). If the object type is the synchronous display type or the permanent display type, the update execution determining unit 352 sets the transmission flag to TRUE (S1012) and sets the storage flag to TRUE (S1014). If the object type is an undetermined type, the update execution determining unit 352 sets the transmission flag to FALSE (S1022) and sets the storage flag to TRUE (S1024). That is, an electronic object that is still newly registered is unconditionally registered. However, if the object type is undetermined, it is not transmitted to the opposite terminal. This is because when the displayed time is short, such as 4 seconds or less, it is often unnecessary to reflect it on the opposite terminal.

新規登録ではない場合、前回の登録時から電子オブジェクトの画像情報や一致情報に変化があったかを判別する(S1008)。変化している場合には、オブジェクトタイプに応じて処理を分岐する(S1009)。更新実施判断手段352は、当該電子オブジェクトのオブジェクトタイプが同期表示タイプであれば、送信フラグをTRUEに(S1032)、記憶フラグをTRUEにする(S1034)。更新実施判断手段352は、永続表示タイプであれば、送信フラグをFALSEに(S1042)、記憶フラグをFALSEにする(S1044)。未定タイプであれば、送信フラグをFALSEに(S1052)、記憶フラグをTRUEに変更する(S1054)。すなわち、既に登録されているものから変化があった電子オブジェクトは、同期表示タイプであれば変更を送信し、記憶もするが、永続表示タイプであればその変更を送信も記憶もしない。未定タイプの電子オブジェクトは、本端末内では内容更新するが、対向端末に送信は行わない。   If it is not a new registration, it is determined whether the image information and the matching information of the electronic object have changed since the previous registration (S1008). If it has changed, the process branches according to the object type (S1009). If the object type of the electronic object is the synchronous display type, the update execution determining unit 352 sets the transmission flag to TRUE (S1032) and the storage flag to TRUE (S1034). If it is a permanent display type, the update execution determination unit 352 sets the transmission flag to FALSE (S1042) and the storage flag to FALSE (S1044). If the type is undetermined, the transmission flag is changed to FALSE (S1052), and the storage flag is changed to TRUE (S1054). In other words, an electronic object that has changed from an already registered one transmits and stores a change if it is a synchronous display type, but neither transmits nor stores a change if it is a permanent display type. The content of the undetermined type electronic object is updated in the terminal, but is not transmitted to the opposite terminal.

移動していない場合、更新実施判断手段352は電子オブジェクト記憶手段331に記憶されている電子オブジェクトからオブジェクトタイプ、物理有無のいずれかに変更があるかを判定する(S1010)。更新実施判断手段352は、変更が無い場合には送信フラグをFALSEに(S1062)、記憶フラグをFALSEにする(S1064)。更新実施判断手段352は、オブジェクトタイプに変更がある場合には、送信フラグをTRUEに(S1072)、記憶フラグをTRUEにする(S1074)。すなわち、前回撮影時から情報が更新されていない場合には、送信処理や更新処理を行わないためデータ量を抑えることができる。   If not moved, the update execution determination unit 352 determines whether there is a change in the object type or physical presence / absence from the electronic object stored in the electronic object storage unit 331 (S1010). If there is no change, the update execution determination unit 352 sets the transmission flag to FALSE (S1062) and sets the storage flag to FALSE (S1064). If there is a change in the object type, the update execution determination unit 352 sets the transmission flag to TRUE (S1072) and the storage flag to TRUE (S1074). That is, when the information has not been updated since the previous shooting, the data amount can be suppressed because the transmission process and the update process are not performed.

そして、送信フラグがTRUEになっている場合(S1082)、更新実施判断手段352は送信候補に当該電子オブジェクトを追加する(S1084)。また、記憶フラグがTRUEになっているか場合(S1092)、更新実施判断手段352は当該電子オブジェクトを記憶候補に追加する(S1094)。他に処理するべき電子オブジェクトがあれば処理を繰り返す(S1099)。処理するべき電子オブジェクトが無くなれば、電子オブジェクトパケット送信手段314に送信候補を通知する事で、対向端末に送信候補を送信する(S1086)。また、ローカル電子オブジェクト記憶手段313に記憶候補を通知することで、電子オブジェクト記憶部331内に記憶されている電子オブジェクトの情報を更新する(S1096)。   If the transmission flag is TRUE (S1082), the update execution determination unit 352 adds the electronic object to the transmission candidate (S1084). If the storage flag is TRUE (S1092), the update execution determination unit 352 adds the electronic object to the storage candidate (S1094). If there is another electronic object to be processed, the process is repeated (S1099). If there is no electronic object to be processed, the transmission candidate is transmitted to the opposite terminal by notifying the electronic object packet transmission unit 314 of the transmission candidate (S1086). In addition, the electronic object information stored in the electronic object storage unit 331 is updated by notifying the local electronic object storage unit 313 of the storage candidate (S1096).

図9を元に更新実施判断手段を具体的に説明する。まず、図9(A)の段階を考える。電子オブジェクト901は新規登録であるが、オブジェクトタイプが未定タイプであるため、送信フラグはFALSE、記憶フラグはTRUEが設定される(S1022,S1034)。つまり、本端末では保存されるが、対向端末には情報を送信しない。   The update execution determination means will be specifically described based on FIG. First, consider the stage of FIG. Although the electronic object 901 is newly registered, since the object type is an undetermined type, the transmission flag is set to FALSE, and the storage flag is set to TRUE (S1022, S1034). That is, the information is stored in the terminal but is not transmitted to the opposite terminal.

図9(B)の段階を考える。電子オブジェクト911は、同じ画像情報かつ同じ位置に存在する電子オブジェクト901が既に登録されており、位置も移動していない。オブジェクトタイプが未定タイプから永続表示タイプに変化したため、送信フラグはTRUE、記憶フラグもTRUEが設定される(S1072,S1074)。よって、本端末で保存すると共に、対向端末に情報を送信する。一方、電子オブジェクト912、913、914は新規登録であり、オブジェクトタイプが未定タイプであるため、送信フラグがFALSE、記憶フラグがTRUEとなる。   Consider the stage of FIG. As for the electronic object 911, the electronic object 901 existing in the same position with the same image information is already registered, and the position is not moved. Since the object type has changed from the undetermined type to the permanent display type, the transmission flag is set to TRUE, and the storage flag is set to TRUE (S1072, S1074). Therefore, the information is stored in the terminal and information is transmitted to the opposite terminal. On the other hand, since the electronic objects 912, 913, and 914 are newly registered and the object type is an undetermined type, the transmission flag is FALSE and the storage flag is TRUE.

図9(C)の段階を考える。電子オブジェクト921は、電子オブジェクト901が既に登録されており、位置も移動していない。しかし、オブジェクトタイプが永続表示タイプから同期表示タイプに変化したため、送信フラグがTRUE、記憶フラグもTRUEが設定される。よって、本端末で保存すると共に、対向端末に情報を送信する。電子オブジェクト922,924は、電子オブジェクト912,914が登録されており、位置は変更していないがオブジェクトタイプが変更しているため、送信フラグがTRUE、記憶フラグもTRUEが設定される。電子オブジェクト923は新規追加にもなっておらず、位置情報も変更なく、物理有無情報がなしとなっているため、送信フラグがTRUE、記憶フラグもTRUEが設定される。つまりこれによって除外された事が共有される。   Consider the stage of FIG. As for the electronic object 921, the electronic object 901 has already been registered, and the position has not moved. However, since the object type has changed from the permanent display type to the synchronous display type, the transmission flag is set to TRUE and the storage flag is set to TRUE. Therefore, the information is stored in the terminal and information is transmitted to the opposite terminal. In the electronic objects 922 and 924, the electronic objects 912 and 914 are registered, and the position is not changed but the object type is changed. Therefore, the transmission flag is set to TRUE and the storage flag is set to TRUE. Since the electronic object 923 is not newly added, the position information is not changed, and the physical presence / absence information is none, the transmission flag is set to TRUE and the storage flag is set to TRUE. In other words, what is excluded by this is shared.

最後に、電子オブジェクト931は、電子オブジェクト901が既に登録されており、位置・オブジェクトタイプともに変化が無い。よって、送信フラグも記憶フラグもFALSEが設定される。電子オブジェクト932、933は、電子オブジェクト922,924が登録されており、位置は変更していないがオブジェクトタイプが変更しているため、送信フラグがTRUE、記憶フラグもTRUEが設定される。   Finally, as for the electronic object 931, the electronic object 901 has already been registered, and there is no change in both position and object type. Therefore, both the transmission flag and the storage flag are set to FALSE. Since the electronic objects 932 and 933 are registered with the electronic objects 922 and 924 and the position is not changed but the object type is changed, the transmission flag is set to TRUE and the storage flag is set to TRUE.

<投影画像の形成>
投影画像形成手段332は、電子オブジェクト記憶手段313が記憶している電子オブジェクトを元に、画像投影モジュール212を使って投影画像出力手段333が投影する投影画像を形成する。
<Formation of projected image>
The projection image forming unit 332 forms a projection image to be projected by the projection image output unit 333 using the image projection module 212 based on the electronic object stored in the electronic object storage unit 313.

図11は、電子オブジェクトから投影画像を形成するフローチャートである。図12は、電子オブジェクト記憶部331が記憶している電子オブジェクトの例である。図13は、電子オブジェクトから投影画像を形成する例である。   FIG. 11 is a flowchart for forming a projection image from an electronic object. FIG. 12 is an example of an electronic object stored in the electronic object storage unit 331. FIG. 13 is an example of forming a projection image from an electronic object.

投影画像形成手段332は、投影画像を白紙で初期化する(S1102)。そして、投影画像形成手段332は電子オブジェクト記憶手段313が記憶している全電子オブジェクトに対して以下の処理を繰り返す。電子オブジェクトのオブジェクトタイプに応じて処理を分岐する(S1104)。電子オブジェクトのオブジェクトタイプが削除済みタイプである場合には、投影画像形成手段332は画像描画フラグをFALSEに設定する(S1110)。   The projection image forming unit 332 initializes the projection image with blank paper (S1102). Then, the projection image forming unit 332 repeats the following process for all the electronic objects stored in the electronic object storage unit 313. Processing branches depending on the object type of the electronic object (S1104). If the object type of the electronic object is a deleted type, the projection image forming unit 332 sets the image drawing flag to FALSE (S1110).

電子オブジェクトのオブジェクトタイプが未定タイプである場合には、投影画像形成手段332は画像描画フラグをFALSEに設定する(S1112)。つまり、オブジェクトタイプが永続表示タイプとも同期表示タイプとも決定できていない場合には、当該電子オブジェクトは表示しない。電子オブジェクトのオブジェクトタイプが、永続表示タイプである場合には、投影画像形成手段332は画像描画フラグをTRUEに設定する(S1122)。つまり、オブジェクトタイプが永続表示タイプである場合には、その電子オブジェクトは本端末・対向端末の両方ともに表示される。   If the object type of the electronic object is an undetermined type, the projection image forming unit 332 sets the image drawing flag to FALSE (S1112). That is, if the object type is neither the permanent display type nor the synchronous display type, the electronic object is not displayed. When the object type of the electronic object is a permanent display type, the projection image forming unit 332 sets the image drawing flag to TRUE (S1122). That is, when the object type is a permanent display type, the electronic object is displayed on both the present terminal and the opposite terminal.

電子オブジェクトのオブジェクトタイプが同期表示タイプである場合、投影画像形成手段332は電子オブジェクトの生成端末情報が本端末と一致しているかを判定する(S1106)。一致している場合には、投影画像形成手段332は画像描画フラグをFALSEに設定する(S1132)。本端末が生成した電子オブジェクトであれば、物理オブジェクトが画面上に表示されているため、投影する必要がないからである。一致していない場合には、物理オブジェクトが存在しているかを判定する(S1108)。物理オブジェクトが存在している場合には、投影画像形成手段332は画像描画フラグをTRUEに設定する(S1142)。物理オブジェクトが存在していない場合には、投影画像形成手段332は画像描画フラグをFALSEに設定する(S1152)。すなわち、オブジェクトタイプが同期表示タイプである場合には、本端末で生成した電子オブジェクトは描画されない。また、対向端末で生成したが物理オブジェクトが存在していない電子オブジェクトは表示されない。対向端末で生成し、物理オブジェクトが存在している電子オブジェクトは表示される。   When the object type of the electronic object is the synchronous display type, the projection image forming unit 332 determines whether the electronic object generation terminal information matches that of the terminal (S1106). If they match, the projection image forming unit 332 sets the image drawing flag to FALSE (S1132). This is because if the electronic object is generated by the terminal, the physical object is displayed on the screen, and thus it is not necessary to project it. If not, it is determined whether a physical object exists (S1108). When the physical object exists, the projection image forming unit 332 sets the image drawing flag to TRUE (S1142). If the physical object does not exist, the projection image forming unit 332 sets the image drawing flag to FALSE (S1152). That is, when the object type is the synchronous display type, the electronic object generated by this terminal is not drawn. In addition, an electronic object that is generated by the opposite terminal but has no physical object is not displayed. An electronic object that is generated by the opposite terminal and has a physical object is displayed.

以上の結果、投影画像形成手段332は画像描画フラグを判断し(S1162)、TRUEが設定された場合には、電子オブジェクトの位置情報と画像情報を元に投影画像上に描画する(S1164)。他に処理するべき電子オブジェクトがあれば処理を繰り返し、そうでなければ処理を終了する(S1199)。   As a result, the projection image forming unit 332 determines the image drawing flag (S1162), and when TRUE is set, the image is drawn on the projection image based on the position information and image information of the electronic object (S1164). If there is another electronic object to be processed, the process is repeated, otherwise the process ends (S1199).

投影画像形成の具体例を図12、図13を用いて説明する。図12(A)は端末101を設置された拠点における、撮影面上の物理オブジェクトの配置を表したものである。図12(B)は端末102を設置された拠点における、撮影面上の物理オブジェクトの配置を表したものである。図12(C)は端末101側の電子オブジェクト記憶手段331に記憶されている電子オブジェクトである。図12(D)は端末101側の電子オブジェクト記憶手段331に記憶されている電子オブジェクトである。   A specific example of projection image formation will be described with reference to FIGS. FIG. 12A shows the arrangement of physical objects on the imaging plane at the base where the terminal 101 is installed. FIG. 12B shows the arrangement of physical objects on the imaging plane at the base where the terminal 102 is installed. FIG. 12C shows an electronic object stored in the electronic object storage unit 331 on the terminal 101 side. FIG. 12D shows an electronic object stored in the electronic object storage unit 331 on the terminal 101 side.

電子オブジェクト1251,1252,1253,1254及び1258は端末101側で生成された電子オブジェクトである。電子オブジェクト1253はその元となった物理オブジェクトは既に除外されて撮影面上に存在せず、そのオブジェクトタイプは永続表示タイプとなっている。電子オブジェクト1258はその元となった物理オブジェクト1208が撮影面上に存在するが、オブジェクトタイプは未定タイプが設定されている。電子オブジェクト1255,1256,1257は端末102側で生成された。電子オブジェクト1257はその元となった物理オブジェクトは既に除外されて撮影面上に存在せず、そのオブジェクトタイプは永続表示タイプとなっている。   Electronic objects 1251, 1252, 1253, 1254, and 1258 are electronic objects generated on the terminal 101 side. In the electronic object 1253, the original physical object is already excluded and does not exist on the photographing surface, and the object type is a permanent display type. In the electronic object 1258, the physical object 1208 that is the source of the electronic object 1258 exists on the photographing surface, but the object type is set to the undetermined type. Electronic objects 1255, 1256, and 1257 were generated on the terminal 102 side. In the electronic object 1257, the original physical object is already excluded and does not exist on the photographing surface, and the object type is a permanent display type.

端末101、102側ではそれぞれ異なる投影画像を形成し、それを撮影面上に重畳表示する。その具体例を示したものが図13になる。図13(A)は、図12(C)に示した電子オブジェクト群に基づき、端末101が形成する投影画像の例である。電子オブジェクト1253、1257は永続表示タイプであることから、端末101の投影しようとする投影画像上に画像が描画される。電子オブジェクト1255,1256は同期表示タイプであり、対向端末で生成され、対向端末の撮影面上に物理オブジェクトが存在していることから、端末101の投影しようとする投影画像上に画像が描画される。電子オブジェクト1258はオブジェクトタイプが未定であるため、端末101の投影しようとする投影画像上に表示されない。以上の処理で投影画像図13(A)が形成される。この投影画像を図12(A)の撮影面上に重畳表示すると、図13(C)が得られる。   Different projected images are formed on the terminals 101 and 102, respectively, and are superimposed on the photographing surface. A specific example is shown in FIG. FIG. 13A shows an example of a projected image formed by the terminal 101 based on the electronic object group shown in FIG. Since the electronic objects 1253 and 1257 are of a permanent display type, an image is drawn on the projection image to be projected by the terminal 101. The electronic objects 1255 and 1256 are synchronous display types, and are generated by the opposite terminal. Since a physical object exists on the photographing surface of the opposite terminal, an image is drawn on the projection image to be projected by the terminal 101. The Since the electronic object 1258 has an undefined object type, the electronic object 1258 is not displayed on the projection image to be projected by the terminal 101. The projection image FIG. 13A is formed by the above processing. When this projection image is superimposed and displayed on the imaging surface of FIG. 12A, FIG. 13C is obtained.

図13(B)は、図12(D)に示した電子オブジェクト群に基づき、端末102が形成する投影画像の例である。電子オブジェクト1253、1257は永続表示タイプであることから、端末102の投影しようとする投影画像上に画像が描画される。電子オブジェクト1251,1252,1254は同期表示タイプであり、対向端末で生成され、対向端末の撮影面上に物理オブジェクトが存在するため、端末102の投影しようとする投影画像上に画像が描画される。以上の処理で投影画像図13(B)が形成される。この投影画像を図12(B)の撮影面上に重畳表示すると、図13(D)が得られる。   FIG. 13B is an example of a projection image formed by the terminal 102 based on the electronic object group illustrated in FIG. Since the electronic objects 1253 and 1257 are of a permanent display type, an image is drawn on the projection image to be projected by the terminal 102. The electronic objects 1251, 1252, and 1254 are synchronous display types, and are generated by the opposite terminal. Since a physical object exists on the photographing surface of the opposite terminal, an image is drawn on the projection image to be projected by the terminal 102. . The projection image FIG. 13B is formed by the above processing. When this projection image is superimposed and displayed on the imaging surface of FIG. 12B, FIG. 13D is obtained.

このように、各端末で電子オブジェクトに基づいて投影画像を形成し、撮影面上の物理オブジェクトに重畳表示することで、各端末間で同じ情報を共有できる。この時、永続表示タイプの電子オブジェクトは、物理オブジェクトが存在しない場合でも、どの端末にも表示される。同期表示タイプの電子オブジェクトは、物理オブジェクトが存在する場合に表示される。オブジェクトタイプが未定タイプの電子オブジェクトの情報は各会議端末間で共有されない。   In this way, the same information can be shared between the terminals by forming a projection image based on the electronic object at each terminal and displaying the projection image superimposed on the physical object on the photographing surface. At this time, the permanent display type electronic object is displayed on any terminal even if no physical object exists. The synchronous display type electronic object is displayed when a physical object exists. Information on an electronic object whose object type is undetermined is not shared between the conference terminals.

以上、本発明の情報処理装置によれば、自装置以外の情報処理装置と電子オブジェクトを共有する場合に当該電子オブジェクトのタイプを特定して共有方法を切り替えることにより操作性を向上させることが可能となる。同期表示タイプである電子オブジェクトは、撮影面上での物理オブジェクトの変化に対して、投影面上の電子オブジェクトにその変化を反映させる。これにより、物理オブジェクトを介して電子オブジェクトの移動や除外といった操作、すなわち、タンジブル・インタフェースを会議の場に導入でき、会議参加者にとって操作性が向上できる。また、永続表示タイプである電子オブジェクトは、撮影面上での物理オブジェクトの変化に対して、投影面上の電子オブジェクトにその変化を反映させない。この事で、物理的な制約を気にせずに、カメラによって撮影できる様々な資料を会議に取り込むことができる。これにより、資料を会議の場に取り込む際の前処理の煩雑さを解決でき、会議開催時の準備の負荷を大幅に軽減できる。   As described above, according to the information processing apparatus of the present invention, when an electronic object is shared with an information processing apparatus other than its own apparatus, the operability can be improved by specifying the type of the electronic object and switching the sharing method. It becomes. The electronic object of the synchronous display type reflects the change in the electronic object on the projection surface with respect to the change in the physical object on the imaging surface. Accordingly, an operation such as movement or exclusion of an electronic object via a physical object, that is, a tangible interface can be introduced into a conference place, and operability for conference participants can be improved. In addition, the electronic object of the permanent display type does not reflect the change in the electronic object on the projection surface with respect to the change in the physical object on the imaging surface. In this way, various materials that can be photographed by the camera can be taken into the conference without worrying about physical restrictions. As a result, it is possible to solve the complexity of preprocessing when taking materials into the meeting place, and to greatly reduce the load of preparation at the time of holding the meeting.

(実施例2)
実施例2では、会議参加者が手動で行うオブジェクトタイプの付与を中心に説明する。実施例1の手段をもってしても、会議参加者が望んだ電子オブジェクトのオブジェクトタイプを部分領域の静止画的・動画的特徴から確実に推定できるとは限らない。推定である以上は、ある一定の誤認識が含まれていると考える事が妥当である。そのため、何かしらの形で、オブジェクトタイプの誤認識をリカバリーできる手段が必要である。例えば、必ず特定のオブジェクトタイプが設定できる必要がある。あるいは、電子オブジェクトのオブジェクトタイプを会議参加者が後から容易に変更できる必要がある。
(Example 2)
In the second embodiment, description will be made centering on object type assignment manually performed by a conference participant. Even with the means of the first embodiment, it is not always possible to reliably estimate the object type of the electronic object desired by the conference participant from the still image / moving image characteristics of the partial area. As long as it is an estimate, it is reasonable to consider that certain misrecognitions are included. Therefore, there is a need for a way to recover misrecognition of object types in some way. For example, a specific object type must be set. Alternatively, it is necessary that the conference participant can easily change the object type of the electronic object later.

オブジェクトタイプの誤認識に対する1つのリカバリー手段として、次の撮影で取得される撮影画像から生成される電子オブジェクトのオブジェクトタイプを予め明示的に指定しておく手段が考えられる。図14は、明示的にオブジェクトタイプを指定するユーザインタフェースの例と、その時の投影面上の表示を示す。設定ダイアログ1400は、投影面上に表示される明示的なオブジェクトタイプを強制的に付与する為のダイアログボックスである。これはジェスチャ入力手段361や、HID入力手段362、音声入力手段363からの指示によって、投影画像形成手段332が描画する事で表示される。   As one recovery means for erroneous recognition of the object type, a means for explicitly specifying the object type of the electronic object generated from the captured image acquired in the next shooting can be considered. FIG. 14 shows an example of a user interface that explicitly designates an object type and a display on the projection plane at that time. The setting dialog 1400 is a dialog box for forcibly giving an explicit object type displayed on the projection plane. This is displayed by drawing by the projection image forming unit 332 according to instructions from the gesture input unit 361, the HID input unit 362, and the voice input unit 363.

設定ダイアログ1400は、オブジェクトタイプ決定モードを設定するための選択項目ある。本例では、オブジェクトタイプ決定モードとしては、自動判別モード、固定判別(永続)モード、固定判別(同期)モードを選択可能である。ユーザが自動判定ボタン1402を指定すると、オブジェクトタイプ決定モードは自動判別モードとなる。ユーザが固定判定(永続)ボタン1406を指定すると、オブジェクトタイプ決定モードは固定判定(永続)モードとなる。ユーザが固定判定(同期)ボタン1408を指定すると、オブジェクトタイプ決定モードは固定判定(同期)モードとなる。   A setting dialog 1400 is a selection item for setting an object type determination mode. In this example, as the object type determination mode, an automatic determination mode, a fixed determination (permanent) mode, and a fixed determination (synchronous) mode can be selected. When the user designates the automatic determination button 1402, the object type determination mode becomes the automatic determination mode. When the user designates a fixed determination (permanent) button 1406, the object type determination mode becomes a fixed determination (permanent) mode. When the user designates a fixed determination (synchronization) button 1408, the object type determination mode becomes a fixed determination (synchronization) mode.

オブジェクトタイプ決定モードが自動判別モードである場合には、前述した電子オブジェクトのオブジェクトタイプを、その元となった部分領域の、静止画的・動画的特徴の少なくとも一方に基づいて決定する。オブジェクトタイプ決定モードが固定判定(同期)モード、あるいは、固定判定(同期)モードである場合には、次の電子オブジェクトを取り込んだときのオブジェクト判定を固定的に決定する。   When the object type determination mode is the automatic determination mode, the object type of the electronic object described above is determined based on at least one of still image characteristics and moving image characteristics of the partial area from which the object type is determined. When the object type determination mode is the fixed determination (synchronous) mode or the fixed determination (synchronous) mode, the object determination when the next electronic object is captured is fixedly determined.

なお、この設定ダイアログ1400を介さずにジェスチャ入力手段361、音声入力手段363でどのモードにするかを指定出来てもよい。例えば、オブジェクトタイプ決定モードを、右腕を時計方向に回すジェスチャをした場合には固定判別(永続)モードにする、半時計方向に回すジェスチャをした場合には、固定判別(同期)モードにする、ということも可能である。   Note that it may be possible to specify which mode is to be set by the gesture input unit 361 and the voice input unit 363 without using the setting dialog 1400. For example, the object type determination mode is set to a fixed determination (permanent) mode when a gesture of rotating the right arm clockwise is performed, and is set to a fixed determination (synchronization) mode when a gesture of rotating counterclockwise is performed. It is also possible.

更に、ジェスチャ入力手段361、音声入力手段363を介して撮影タイミングを指示すると同時にどのモードにするかを指定出来てもよい。音声入力モジュール213から入力された音声が「永続表示タイプで撮影」であると音声入力手段363が認識した場合には、オブジェクトタイプ決定モードが固定判定(永続)モードにした後に、電子オブジェクトの取り込み処理を実行する。音声入力モジュール213から入力された音声が「同期表示タイプで撮影」であると音声入力手段363が認識した場合には、オブジェクトタイプ決定モードが固定判定(同期)モードにした後に、電子オブジェクトの取り込み処理を実行する。   Furthermore, it may be possible to designate which mode is to be selected at the same time that the photographing timing is instructed via the gesture input unit 361 and the voice input unit 363. When the voice input unit 363 recognizes that the voice input from the voice input module 213 is “shooting with a permanent display type”, the electronic object is captured after the object type determination mode is set to the fixed determination (permanent) mode. Execute the process. When the voice input unit 363 recognizes that the voice input from the voice input module 213 is “shooting with a synchronous display type”, the electronic object is captured after the object type determination mode is set to the fixed determination (synchronization) mode. Execute the process.

この時、オブジェクトタイプ決定モードを会議参加者に通知する為、投影面上に、ラベルボタン1452、1454、1456のようにオブジェクトタイプ決定モードを表示する手段を別途設けてもよい。   At this time, in order to notify the conference participant of the object type determination mode, a means for displaying the object type determination mode, such as label buttons 1452, 1454, and 1456, may be separately provided on the projection plane.

オブジェクトタイプの誤認識に対する1つのリカバリー手段として、物理オブジェクトが置かれた位置に応じてオブジェクトタイプを固定で指定する手段も考えられる。図15は、位置に応じてオブジェクトタイプを指定するフローチャートである。また、図16は、位置に応じてオブジェクトタイプを指定する部分エリアの表示例である。   As one recovery means for erroneous recognition of the object type, a means for specifying the object type in a fixed manner according to the position where the physical object is placed can be considered. FIG. 15 is a flowchart for specifying an object type according to a position. FIG. 16 is a display example of a partial area in which the object type is designated according to the position.

物理オブジェクトが置かれた位置に応じてオブジェクトタイプを固定で指定する手段では、撮影面上の一部領域に強制永続表示エリアを設ける。例えば、図16(A)のように撮影面の周縁部を強制永続表示エリア1601とすることができる。図16(B)のように下部を強制永続表示エリア1611とすることができる。図16(C)のように撮影面の下側の角を強制永続表示エリア1621,1622とすることができる。あるいは、図16(D)のように撮影面の左右端を強制永続表示エリア1631,1632とすることができる。   In the means for fixedly specifying the object type in accordance with the position where the physical object is placed, a forced permanent display area is provided in a partial area on the imaging surface. For example, as shown in FIG. 16A, the peripheral portion of the imaging surface can be a forced permanent display area 1601. The lower part can be a forced permanent display area 1611 as shown in FIG. As shown in FIG. 16C, the lower corners of the imaging surface can be used as forced permanent display areas 1621 and 1622. Alternatively, as shown in FIG. 16D, the left and right ends of the imaging surface can be set as forced permanent display areas 1631 and 1632.

強制永続表示エリアは様々な形状を用いることが出来、これらはそれらの1バリエーションにすぎない。また、矩形である必要はなく、三角形、円形、円弧など様々な形状を用いることもできる。また、電子オブジェクトが強制永続表示エリアの一部が重なっているという条件の他に、確実に強制永続表示エリアに電子オブジェクトが包含されたという条件を用いてもよい。投影画像上に強制永続表示エリアを描画して、投影面上に重畳表示をしてもよい。   The forced permanent display area can use various shapes, and these are just one variation thereof. Further, the shape does not need to be rectangular, and various shapes such as a triangle, a circle, and an arc can be used. In addition to the condition that the electronic object partially overlaps the forced permanent display area, a condition that the electronic object is surely included in the forced permanent display area may be used. A forced permanent display area may be drawn on the projection image and superimposed on the projection plane.

最初に、電子オブジェクト記憶部331の内容に基づいて、電子オブジェクト生成手段312が生成した電子オブジェクトが静止中かを判断する(S1502)。電子オブジェクトタイプ決定手段351は、静止していなければ、そのオブジェクトタイプは未定タイプと決定する(S1512)。オブジェクトが静止していれば、その静止時間を求める(S1504)。S1506で、電子オブジェクトタイプ決定手段351は、静止時間が任意の閾値である取込判定閾値以下である場合には、オブジェクトタイプは未定タイプと決定する。静止時間が取込判定閾値より大きい場合、電子オブジェクトが強制永続表示エリア上にあるかを判定する(S1508)。電子オブジェクトタイプ決定手段351は、該エリア上に無い場合にはオブジェクトタイプは未定タイプと決定する。エリア上にある場合には永続表示タイプと決定する(S1510)。他に処理するべき電子オブジェクトがあれば処理を繰り返し、そうでなければ処理を終了する(S1599)。なお、本フローチャートでは、S1508の処理において、強制永続表示エリア上にないと判断された場合はS1512で未定タイプと決定された。しかし、部分エリア以外に所定の時間を越えて表示されている、つまり静止時間が取込判定閾値より大きい場合であれば、同期表示タイプと決定されてもよい。   First, based on the contents of the electronic object storage unit 331, it is determined whether the electronic object generated by the electronic object generation unit 312 is stationary (S1502). If the electronic object type determining unit 351 is not stationary, the electronic object type determining unit 351 determines that the object type is an undetermined type (S1512). If the object is stationary, the stationary time is obtained (S1504). In step S1506, the electronic object type determination unit 351 determines that the object type is an undetermined type when the stationary time is equal to or less than the capture determination threshold that is an arbitrary threshold. If the stationary time is larger than the capture determination threshold, it is determined whether the electronic object is on the forced permanent display area (S1508). The electronic object type determining means 351 determines that the object type is an undetermined type if it is not on the area. If it is on the area, it is determined as the permanent display type (S1510). If there is another electronic object to be processed, the process is repeated; otherwise, the process ends (S1599). In this flowchart, if it is determined in step S1508 that it is not on the forced permanent display area, it is determined to be an undetermined type in step S1512. However, the display may be determined as the synchronous display type if it is displayed outside the partial area for a predetermined time, that is, when the stationary time is larger than the capture determination threshold.

例えば、図16(A)における物理オブジェクト1601を取り込む場合には、これを元にした電子オブジェクトが強制永続表示エリア1611の上にある為、電子オブジェクトのオブジェクトタイプは永続表示タイプであると決定される。なお、同期表示タイプを付与すべく強制同期表示エリアを撮影面上に設けてもよい。   For example, when the physical object 1601 in FIG. 16A is captured, since the electronic object based on the physical object 1601 is on the forced permanent display area 1611, the object type of the electronic object is determined to be the permanent display type. The Note that a forced synchronous display area may be provided on the imaging surface in order to provide a synchronous display type.

オブジェクトタイプの誤認識に対する1つのリカバリー手段として、電子オブジェクトを表示している上に物理オブジェクトを置くことでオブジェクトタイプの変更を指定する方法も考えられる。図17は、電子オブジェクトを表示している上に物理オブジェクトを置くことでオブジェクトタイプの変更するフローチャートである。図18は、電子オブジェクトを表示している上に物理オブジェクトを置くことでオブジェクトタイプの変更するフローチャート例である。   As one recovery means for erroneous recognition of the object type, a method of designating a change of the object type by placing a physical object on the electronic object is also conceivable. FIG. 17 is a flowchart for changing an object type by placing a physical object on an electronic object. FIG. 18 is an example of a flowchart for changing an object type by placing a physical object on an electronic object.

最初に、電子オブジェクト記憶部331の内容に基づいて、電子オブジェクト生成手段312が生成した電子オブジェクトが静止中かを判断する(S1702)。電子オブジェクトタイプ決定手段351は、静止していなければ、そのオブジェクトタイプは未定タイプとする(S1712)。電子オブジェクトタイプ決定手段351は、オブジェクトが静止していれば、その静止時間を求める(S1704)。S1706で、電子オブジェクトタイプ決定手段351は、静止時間が任意の閾値である同期判定閾値以下である場合には、オブジェクトタイプは未定タイプと決定する。静止時間が同期判定閾値より大きい場合、電子オブジェクトが同じ画像情報と位置情報を持つ電子オブジェクト上にあるかを判定する(S1708)。電子オブジェクトタイプ決定手段351は、この上に無い場合にはオブジェクトタイプは未定タイプとする。上にある場合には同期表示タイプとする(S1710)。他に処理するべき電子オブジェクトがあれば処理を繰り返し、そうでなければ処理を終了する(S1799)。   First, based on the contents of the electronic object storage unit 331, it is determined whether the electronic object generated by the electronic object generation unit 312 is stationary (S1702). If the electronic object type determination unit 351 is not stationary, the electronic object type determination unit 351 determines that the object type is an undetermined type (S1712). If the object is stationary, the electronic object type determining unit 351 obtains the stationary time (S1704). In step S1706, the electronic object type determination unit 351 determines that the object type is an undetermined type when the stationary time is equal to or less than the synchronization determination threshold value which is an arbitrary threshold value. If the stationary time is larger than the synchronization determination threshold, it is determined whether the electronic object is on an electronic object having the same image information and position information (S1708). The electronic object type determination means 351 determines that the object type is an undetermined type if it is not above this. If it is above, it is set as a synchronous display type (S1710). If there is another electronic object to be processed, the process is repeated, otherwise the process ends (S1799).

図18を用いて、具体的な動作について説明する。図18(A)は、電子オブジェクト記憶手段313が記憶している永続表示タイプのオブジェクトタイプを持つ電子オブジェクト1811の上に、会議参加者が物理オブジェクト1801を近づけている状態を示す。   A specific operation will be described with reference to FIG. FIG. 18A shows a state in which the conference participant is bringing the physical object 1801 close to the electronic object 1811 having the permanent display type object type stored in the electronic object storage unit 313.

図18(B)は、電子オブジェクト1811の上に同じ画像情報と位置情報を持つ電子オブジェクトが生成されるように、物理オブジェクト1801を移動し、静止している状態を示す。物理オブジェクト1801から電子オブジェクトが生成されると、生成した電子オブジェクトによって、電子オブジェクト記憶手段313で記憶している電子オブジェクト1811はオブジェクトタイプを永続表示タイプから同期表示タイプに更新される。   FIG. 18B shows a state where the physical object 1801 is moved and stationary so that an electronic object having the same image information and position information is generated on the electronic object 1811. When an electronic object is generated from the physical object 1801, the electronic object 1811 stored in the electronic object storage unit 313 is updated from the permanent display type to the synchronous display type by the generated electronic object.

図18(C)は、物理オブジェクト1801を移動した例である。この時、同期表示タイプでかつ物理が存在する為、当該電子オブジェクトは投影面上に表示されない。例えば、この状態で会議参加者は、先ほどのリカバリー手段で前述した手段を用いて、音声入力手段363を介してオブジェクトタイプを同期表示タイプから永続表示タイプに変更して電子オブジェクトを取り込む指示をする。すると、電子オブジェクト1811のオブジェクトタイプは、同期表示タイプから永続表示タイプに更新される。   FIG. 18C shows an example in which the physical object 1801 is moved. At this time, the electronic object is not displayed on the projection plane because it is a synchronous display type and has physics. For example, in this state, the conference participant uses the above-described recovery means to change the object type from the synchronous display type to the permanent display type and instruct to take in the electronic object via the voice input means 363. . Then, the object type of the electronic object 1811 is updated from the synchronous display type to the permanent display type.

図18(D)は、物理オブジェクト1801を動かした例である。物理オブジェクト1801と電子オブジェクト1811はオブジェクトタイプの変更に伴い独立して表示される。以上に示したように、この機能を利用する事で、永続表示タイプとして取り込まれた電子オブジェクトを、物理オブジェクトを重ねるという簡単な操作で、同期表示タイプのオブジェクトタイプに再設定することが可能となる。   FIG. 18D shows an example in which the physical object 1801 is moved. The physical object 1801 and the electronic object 1811 are displayed independently as the object type is changed. As shown above, by using this function, it is possible to reset an electronic object imported as a permanent display type to an object type of synchronous display type with a simple operation of overlapping physical objects. Become.

(実施例3)
実施例3では、オブジェクトタイプ決定への距離情報活用について述べる。実施例3の会議端末は、撮影画像内に含まれる部分領域の静止画的・動画的な特徴に基づき、電子オブジェクトのオブジェクトタイプを決定する点に特徴がある。しかし、たとえば手やマグネットが撮影された写真をホワイトボードへ示した場合、その手やマグネットが実際に存在する立体物なのか、実際には存在しない平面なのかを確実に区別することは難しい。そのため、オブジェクトタイプの誤判定が生じる場合もありえる。
(Example 3)
In the third embodiment, utilization of distance information for object type determination will be described. The conference terminal according to the third embodiment is characterized in that the object type of the electronic object is determined based on the still image / moving image characteristics of the partial area included in the captured image. However, for example, when a photograph taken with a hand or magnet is shown on a whiteboard, it is difficult to reliably distinguish whether the hand or magnet is actually a three-dimensional object or a plane that does not actually exist. For this reason, an erroneous determination of the object type may occur.

本実施例の電子会議端末では、画像撮影モジュール211はステレオカメラである。ステレオカメラは通常の映像取得のカメラを2つ持ち、それぞれのカメラで撮影した画像の特徴点から撮影対象との距離情報を推定するカメラである。撮影面上にある物理オブジェクトとカメラとの距離情報から、撮影対象が立体物か否かを判断する。   In the electronic conference terminal of this embodiment, the image capturing module 211 is a stereo camera. A stereo camera is a camera that has two normal video acquisition cameras and estimates distance information with respect to a subject to be photographed from feature points of images taken by the respective cameras. It is determined from the distance information between the physical object on the imaging surface and the camera whether or not the imaging target is a three-dimensional object.

なお、ここで距離情報を取得するためにステレオカメラの代わりに距離画像センサ技術を用いてもよい。距離画像センサは撮影対象との距離情報を測定するセンサであり、例えば赤外線の反射時間などが用いられる。距離画像センサやステレオカメラは、3次元モデルに基づいたジェスチャ認識や、複数枚画像からの超解像処理など、他の用途に兼用してもよい。   Here, in order to acquire the distance information, a distance image sensor technique may be used instead of the stereo camera. The distance image sensor is a sensor that measures distance information with respect to an object to be imaged, and for example, an infrared reflection time is used. The distance image sensor and the stereo camera may be used for other purposes such as gesture recognition based on a three-dimensional model and super-resolution processing from a plurality of images.

図19に、距離情報を適用したオブジェクトタイプ決定処理の例を示す。撮影面1900上には、物理オブジェクト1901と物理オブジェクト1911が含まれる。物理オブジェクト1901は、マグネット1903と1902によって固定されている。一方、物理オブジェクト1911は手1912によって固定されている。そして、撮影面1900と同じ領域を、距離画像センサやステレオカメラで撮影し、距離情報を求めた結果が距離マップ1950である。   FIG. 19 shows an example of object type determination processing to which distance information is applied. On the imaging surface 1900, a physical object 1901 and a physical object 1911 are included. The physical object 1901 is fixed by magnets 1903 and 1902. On the other hand, the physical object 1911 is fixed by the hand 1912. A distance map 1950 is a result obtained by photographing the same area as the photographing surface 1900 with a distance image sensor or a stereo camera and obtaining distance information.

距離マップ1950において、物理オブジェクト1911に対応して距離情報上でも形状1961が観測できる。一方で、物理オブジェクト1901に対応した形状は観測できない。これに基づき、撮影面に対してある程度の距離を離して持っている物理オブジェクト1911と、撮影面に貼りつけている物体1901とを識別できる。例えば、物理オブジェクト1911を撮影した部分領域から生成した電子オブジェクトに対しては永続表示タイプを付与できる。また、物理オブジェクト1901を撮影した部分領域から生成した物理オブジェクトに対しては同期表示タイプを付与する事が出来る。つまり、撮影面よりも手前の位置にあると判断された電子オブジェクトは永続表示タイプであると決定され、撮影面とほぼ同じ一にあると判断された電子オブジェクトは同期表示タイプであると決定される。   In the distance map 1950, the shape 1961 can be observed on the distance information corresponding to the physical object 1911. On the other hand, the shape corresponding to the physical object 1901 cannot be observed. Based on this, it is possible to identify a physical object 1911 having a certain distance from the imaging surface and an object 1901 attached to the imaging surface. For example, a permanent display type can be assigned to an electronic object generated from a partial area obtained by photographing the physical object 1911. Further, a synchronous display type can be assigned to a physical object generated from a partial area where the physical object 1901 is photographed. That is, an electronic object that is determined to be in a position before the shooting surface is determined to be a permanent display type, and an electronic object that is determined to be substantially the same as the shooting surface is determined to be a synchronous display type. The

また、距離マップ1950では、マグネット1902,1903に対応するように距離情報上でも形状1952,1953が観測できる。これによりマグネットが「印刷物」ではなく「立体物」であることを認識することで、部分領域が立体物となっているマグネット画像を含んでいる場合にのみ、オブジェクトタイプを同期表示タイプと決定する事が出来るようになる。   In the distance map 1950, the shapes 1952 and 1953 can be observed on the distance information so as to correspond to the magnets 1902 and 1903. By recognizing that the magnet is a “three-dimensional object” instead of “printed material”, the object type is determined as the synchronous display type only when the partial area includes a magnet image that is a three-dimensional object. I can do things.

更に、距離マップ1950では手1912に対応するように形状1962を観測する事が出来る。手や腕であれば多少の丸味を帯びている事が予想でき、そこから距離情報上でも階調性が構成されていることが期待できる。これを元に、色味だけを用いた判別よりも、より高い精度で手部分の検出ができる。以上に述べたとおり、オブジェクトタイプ決定への距離情報活用することで、オブジェクトタイプの認識精度をより高める事が出来る。   Further, the shape 1962 can be observed in the distance map 1950 so as to correspond to the hand 1912. A hand or arm can be expected to have a slight roundness, and from this, it can be expected that gradation is also formed in distance information. Based on this, the hand portion can be detected with higher accuracy than the discrimination using only the color. As described above, by using the distance information for determining the object type, the recognition accuracy of the object type can be further increased.

(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(コンピュータプログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給する。そしてそのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (computer program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media. Then, the computer (or CPU, MPU, etc.) of the system or apparatus reads out and executes the program. In this case, the program and the storage medium storing the program constitute the present invention.

101、102 会議端末   101, 102 Conference terminal

Claims (18)

撮影された画像情報をネットワークを介して複数の情報処理装置で共有する情報処理装置であって、
投影面を撮影面として撮影された画像情報から物理オブジェクトを抽出し、該物理オブジェクトに対応する電子オブジェクトを生成する生成手段と、
自装置以外の情報処理装置から電子オブジェクトを受信する受信手段と、
前記生成または受信した電子オブジェクトに基づいて生成された投影画像を前記投影面に投影する投影手段と、
前記物理オブジェクトに対応する画像領域の特徴に基づいて、前記生成された電子オブジェクトのタイプが自装置の前記撮影面における前記物理オブジェクトの変化に同期させて自装置以外の情報処理装置が投影する投影画像に描画される同期タイプか、同期させることなく自装置以外の情報処理装置の投影面に永続的に投影させる永続タイプかを判断する判断手段と、
前記同期タイプまたは永続タイプと判断された電子オブジェクトを自装置以外の情報処理装置に送信する送信手段とを備え、
前記送信手段は、前記物理オブジェクトに変化が生じた場合には、前記電子オブジェクトが前記同期タイプであるときは、自装置以外の情報処理装置に当該電子オブジェクトに関する情報を送信し、前記電子オブジェクトが前記永続タイプであるときは、当該電子オブジェクトに関する情報を送信しない
ことを特徴とする情報処理装置。
An information processing apparatus that shares captured image information among a plurality of information processing apparatuses via a network,
Generating means for extracting a physical object from image information captured using the projection plane as an imaging plane, and generating an electronic object corresponding to the physical object;
Receiving means for receiving an electronic object from an information processing apparatus other than the own apparatus;
Projection means for projecting a projection image generated based on the generated or received electronic object onto the projection plane;
Based on the characteristics of the image area corresponding to the physical object, the type of the generated electronic object is projected by the information processing apparatus other than the own apparatus in synchronization with the change of the physical object on the photographing surface of the own apparatus. A determination means for determining whether the synchronization type is drawn on the image or the permanent type to be permanently projected onto the projection plane of the information processing apparatus other than the own apparatus without being synchronized;
Transmission means for transmitting the electronic object determined to be the synchronization type or the permanent type to an information processing apparatus other than the own apparatus,
When the change occurs in the physical object, the transmission means transmits information about the electronic object to an information processing apparatus other than the own apparatus when the electronic object is the synchronization type, and the electronic object When the permanent type, the information processing apparatus does not transmit information regarding the electronic object.
前記投影手段は、前記物理オブジェクトに変化が生じた場合には、前記電子オブジェクトが前記永続タイプであるときは当該電子オブジェクトの更新処理を行わず生成された投影画像を前記投影面に投影し、前記電子オブジェクトが前記同期タイプであるときは更新処理を行って生成された投影画像を前記投影面に投影する
ことを特徴とする請求項1に記載の情報処理装置。
When the change occurs in the physical object, the projection unit projects the generated projection image on the projection plane without performing an update process of the electronic object when the electronic object is the permanent type, The information processing apparatus according to claim 1, wherein when the electronic object is the synchronous type, a projection image generated by performing update processing is projected onto the projection plane.
前記生成または受信した電子オブジェクトに基づいて前記投影画像を描画する描画手段をさらに備え、
前記描画手段は、前記同期タイプであって自装置の前記生成手段により生成された電子オブジェクトであるときは当該電子オブジェクトを前記投影画像として描画せず、自装置以外の情報処理装置から受信した電子オブジェクトであるときは当該電子オブジェクトを前記投影画像として描画する
ことを特徴とする請求項1または2に記載の情報処理装置。
Further comprising drawing means for drawing the projection image based on the generated or received electronic object;
When the drawing means is the synchronous type and is an electronic object generated by the generation means of its own apparatus, the electronic object received from an information processing apparatus other than the own apparatus is not drawn as the projection image. The information processing apparatus according to claim 1, wherein when the object is an object, the electronic object is drawn as the projection image.
前記判断手段は、静止画または動画に基づいて前記電子オブジェクトのタイプを判断し、
前記静止画を用いる場合は、前記静止画に物理オブジェクトを保持する第1の物体が含まれているときは前記永続タイプと判断し、前記静止画に前記物理オブジェクトを保持する第2の物体が含まれているときは前記同期タイプと判断し、
前記動画を用いる場合は、前記電子オブジェクトの静止時間が第1の所定時間を越えているときは前記同期タイプと判断し、前記第1の所定時間を越えていないときは前記永続タイプであると判断する
ことを特徴とする請求項1乃至3のいずれか一項記載の情報処理装置。
The determining means determines the type of the electronic object based on a still image or a moving image,
When the still image is used, when the first object that holds the physical object is included in the still image, it is determined as the permanent type, and the second object that holds the physical object in the still image is If it is included, the sync type is determined,
When the moving image is used, it is determined that the synchronization type is the stationary type when the stationary time of the electronic object exceeds a first predetermined time, and is the permanent type when the electronic object does not exceed the first predetermined time. The information processing apparatus according to claim 1, wherein the information processing apparatus is determined.
前記第1の物体は手であり、前記第2の物体は少なくとも識別マーカー、マグネットまたは付箋である
ことを特徴とする請求項4に記載の情報処理装置。
The information processing apparatus according to claim 4, wherein the first object is a hand, and the second object is at least an identification marker, a magnet, or a tag.
前記判断手段は、前記電子オブジェクトが前記第1の所定時間を越えないが、第2の所定時間を越えているときは当該電子オブジェクトを永続タイプであると判断し、前記電子オブジェクトが前記第2の所定時間を越えていないときは当該電子オブジェクトを未定タイプであると判断する
ことを特徴とする請求項5に記載の情報処理装置。
The determination means determines that the electronic object is of a permanent type when the electronic object does not exceed the first predetermined time but exceeds the second predetermined time, and the electronic object is the second type. 6. The information processing apparatus according to claim 5, wherein when the predetermined time is not exceeded, the electronic object is determined to be an undetermined type.
前記送信手段は、前記電子オブジェクトが新規に生成された場合であって前記同期タイプまたは前記永続タイプであるときは当該電子オブジェクトに関する情報を自装置以外の情報処理装置に送信し、前記電子オブジェクトが前記未定タイプであるときは当該電子オブジェクトに関する情報を自装置以外の情報処理装置に送信しない
ことを特徴とする請求項6に記載の情報処理装置。
When the electronic object is newly generated and is of the synchronization type or the permanent type, the transmission means transmits information about the electronic object to an information processing apparatus other than its own device, and the electronic object The information processing apparatus according to claim 6, wherein when it is the undetermined type, information about the electronic object is not transmitted to an information processing apparatus other than its own apparatus.
前記送信手段は、前記電子オブジェクトのタイプが前記永続タイプから前記同期タイプに変更された場合に、当該電子オブジェクトに関する情報を自装置以外の情報処理装置に送信する
ことを特徴とする請求項6または7に記載の情報処理装置。
The transmission means, when the type of the electronic object is changed from the permanent type to the synchronization type, transmits information about the electronic object to an information processing apparatus other than the own apparatus. 8. The information processing apparatus according to 7.
前記永続タイプの電子オブジェクトが前記投影面に投影された状態で当該電子オブジェクトと内容が同じ物理オブジェクトが撮影された場合、両方のオブジェクトが自装置の前記投影面に表示される
ことを特徴とする請求項1乃至8のいずれか一項に記載の情報処理装置。
When a physical object having the same content as the electronic object is photographed in a state where the electronic object of the permanent type is projected on the projection plane, both objects are displayed on the projection plane of the own apparatus. The information processing apparatus according to any one of claims 1 to 8.
前記物理オブジェクトが前記撮影面上に表示された場合に、当該電子オブジェクトを前記同期タイプとするか前記永続タイプとするかを選択する選択項目を前記投影面上に表示する表示手段をさらに備える
ことを特徴とする請求項1乃至3のいずれか一項に記載の情報処理装置。
When the physical object is displayed on the photographing surface, the display device further includes a display unit that displays on the projection surface a selection item for selecting whether the electronic object is the synchronous type or the permanent type. The information processing apparatus according to any one of claims 1 to 3.
前記投影面には、前記電子オブジェクトが表示された際に前記永続タイプと判断するための一または複数の部分エリアが設けられており、
前記判断手段は、前記電子オブジェクトが、前記部分エリアに第2の所定時間を越えて表示されているときは当該電子オブジェクトを永続タイプと判断し、前記部分エリア以外に第2の所定時間を越えて表示されているときは当該電子オブジェクトを未定タイプと判断する
ことを特徴とする請求項1乃至3のいずれか一項に記載の情報処理装置。
The projection plane is provided with one or a plurality of partial areas for determining the permanent type when the electronic object is displayed,
The determination means determines that the electronic object is a permanent type when the electronic object is displayed in the partial area beyond the second predetermined time, and exceeds the second predetermined time other than the partial area. The information processing apparatus according to any one of claims 1 to 3, wherein the electronic object is determined to be an undetermined type.
前記判断手段は、前記投影面上に投影された前記永続タイプと判断された電子オブジェクト上に当該電子オブジェクトと内容が同じである物理オブジェクトが重ねて表示された場合に、当該電子オブジェクトを前記同期タイプに変更する
ことを特徴とする請求項1乃至3のいずれか一項に記載の情報処理装置。
When the physical object having the same content as the electronic object is displayed on the electronic object that is determined to be the permanent type projected on the projection plane, the determination unit is configured to synchronize the electronic object with the synchronization object. The information processing apparatus according to claim 1, wherein the information processing apparatus is changed to a type.
前記投影面には、前記電子オブジェクトが表示された際に前記永続タイプと判断するための一または複数の部分エリアが設けられており、
前記判断手段は、前記電子オブジェクトが、前記部分エリアに第2の所定時間を越えて表示されているときは当該電子オブジェクトを永続タイプと判断し、前記部分エリア以外に第2の所定時間を越えて表示されているときは当該電子オブジェクトを同期タイプと判断し、前記第2の所定時間を越えずに表示されているときは未定タイプと判断する
ことを特徴とする請求項1乃至3のいずれか一項に記載の情報処理装置。
The projection plane is provided with one or a plurality of partial areas for determining the permanent type when the electronic object is displayed,
The determination means determines that the electronic object is a permanent type when the electronic object is displayed in the partial area beyond the second predetermined time, and exceeds the second predetermined time other than the partial area. The electronic object is determined to be a synchronous type when it is displayed, and is determined to be an undetermined type when displayed without exceeding the second predetermined time. The information processing apparatus according to claim 1.
撮影対象との距離情報を測定する距離画像センサをさらに備え、
前記判断手段は、前記距離画像センサが測定した距離情報に基づいて前記電子オブジェクトを前記同期タイプとするか前記永続タイプとするかを判断する
ことを特徴とする請求項1乃至3のいずれか一項に記載の情報処理装置。
A distance image sensor for measuring distance information with respect to the subject;
The determination unit determines whether the electronic object is the synchronous type or the permanent type based on distance information measured by the distance image sensor. The information processing apparatus according to item.
前記電子オブジェクトのタイプを決定するための指示を受け付ける音声入力手段、ジェスチャ入力手段またはヒューマン・インタフェース・デバイスを少なくとも備える
ことを特徴とする請求項1乃至3のいずれか一項に記載の情報処理装置。
The information processing apparatus according to claim 1, further comprising: a voice input unit that receives an instruction for determining a type of the electronic object, a gesture input unit, or a human interface device. .
前記判断手段は、前記第2の物体が前記付箋である場合に当該付箋の色と前記物理オブジェクトの背景色とを抽出し、前記付箋の色と背景色が一致すれば前記同期タイプであると判断し、一致しなければ永続タイプであると判断する
ことを特徴とする請求項5に記載の情報処理装置。
When the second object is the sticky note, the determination unit extracts the color of the sticky note and the background color of the physical object, and if the color of the sticky note matches the background color, it is the synchronization type. The information processing apparatus according to claim 5, wherein the information processing apparatus determines that the type is a permanent type if they do not match.
撮影された画像情報をネットワークを介して複数の情報処理装置で共有する情報処理装置の制御方法であって、
投影面を撮影面として撮影された画像情報から物理オブジェクトを抽出し、該物理オブジェクトに対応する電子オブジェクトを生成する生成工程と、
自装置以外の情報処理装置から電子オブジェクトを受信する受信工程と、
前記生成または受信した電子オブジェクトに基づいて生成された投影画像を前記投影面に投影する投影工程と、
前記物理オブジェクトに対応する画像領域の特徴に基づいて、前記生成された電子オブジェクトのタイプが自装置の前記撮影面における前記物理オブジェクトの変化に同期させて自装置以外の情報処理装置が投影する投影画像に描画される同期タイプか、同期させることなく自装置以外の情報処理装置の投影面に永続的に投影させる永続タイプかを判断する判断工程と、
前記同期タイプまたは永続タイプと判断された電子オブジェクトを自装置以外の情報処理装置に送信する送信工程とを含み、
前記送信工程では、前記物理オブジェクトに変化が生じた場合には、前記電子オブジェクトが前記同期タイプであるときは、自装置以外の情報処理装置に当該電子オブジェクトに関する情報が送信され、前記電子オブジェクトが前記永続タイプであるときは、当該電子オブジェクトに関する情報が送信されない
ことを特徴とする制御方法。
An information processing apparatus control method for sharing captured image information among a plurality of information processing apparatuses via a network,
A generation step of extracting a physical object from image information captured using the projection plane as an imaging plane, and generating an electronic object corresponding to the physical object;
A receiving step of receiving an electronic object from an information processing apparatus other than the own apparatus;
A projection step of projecting a projection image generated based on the generated or received electronic object onto the projection plane;
Based on the characteristics of the image area corresponding to the physical object, the type of the generated electronic object is projected by the information processing apparatus other than the own apparatus in synchronization with the change of the physical object on the photographing surface of the own apparatus. A determination step of determining whether it is a synchronous type drawn on an image or a permanent type that is permanently projected onto a projection surface of an information processing device other than its own device without being synchronized;
A transmission step of transmitting the electronic object determined to be the synchronization type or the permanent type to an information processing apparatus other than the own apparatus,
In the transmission step, when a change occurs in the physical object, when the electronic object is the synchronization type, information on the electronic object is transmitted to an information processing apparatus other than the own apparatus, and the electronic object When the permanent type, the control method is characterized in that information on the electronic object is not transmitted.
請求項17に記載の制御方法をコンピュータにより実行させることを特徴とするコンピュータプログラム。
A computer program for causing a computer to execute the control method according to claim 17.
JP2013273576A 2013-12-27 2013-12-27 Information processing apparatus, information processing apparatus control method, and computer program Active JP6234223B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013273576A JP6234223B2 (en) 2013-12-27 2013-12-27 Information processing apparatus, information processing apparatus control method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013273576A JP6234223B2 (en) 2013-12-27 2013-12-27 Information processing apparatus, information processing apparatus control method, and computer program

Publications (3)

Publication Number Publication Date
JP2015127925A true JP2015127925A (en) 2015-07-09
JP2015127925A5 JP2015127925A5 (en) 2017-02-16
JP6234223B2 JP6234223B2 (en) 2017-11-22

Family

ID=53837890

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013273576A Active JP6234223B2 (en) 2013-12-27 2013-12-27 Information processing apparatus, information processing apparatus control method, and computer program

Country Status (1)

Country Link
JP (1) JP6234223B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019082366A1 (en) * 2017-10-26 2019-05-02 サン電子株式会社 Conference system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06261317A (en) * 1993-03-08 1994-09-16 Nippon Telegr & Teleph Corp <Ntt> Video system constituting remote shared space
JPH09330281A (en) * 1996-06-13 1997-12-22 Canon Inc Information processor and its method, and information processing system and its system control method
JP2001014303A (en) * 1999-06-29 2001-01-19 Nec Corp Document management device
JP2010231369A (en) * 2009-03-26 2010-10-14 Fuji Xerox Co Ltd Information processor and program for information processor
JP2013186823A (en) * 2012-03-09 2013-09-19 Canon Inc Information processing apparatus, computer program, and information processing method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06261317A (en) * 1993-03-08 1994-09-16 Nippon Telegr & Teleph Corp <Ntt> Video system constituting remote shared space
JPH09330281A (en) * 1996-06-13 1997-12-22 Canon Inc Information processor and its method, and information processing system and its system control method
JP2001014303A (en) * 1999-06-29 2001-01-19 Nec Corp Document management device
JP2010231369A (en) * 2009-03-26 2010-10-14 Fuji Xerox Co Ltd Information processor and program for information processor
JP2013186823A (en) * 2012-03-09 2013-09-19 Canon Inc Information processing apparatus, computer program, and information processing method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019082366A1 (en) * 2017-10-26 2019-05-02 サン電子株式会社 Conference system
JPWO2019082366A1 (en) * 2017-10-26 2020-11-19 サン電子株式会社 Conference system
US11212488B2 (en) 2017-10-26 2021-12-28 Suncorporation Conference system

Also Published As

Publication number Publication date
JP6234223B2 (en) 2017-11-22

Similar Documents

Publication Publication Date Title
US10671232B2 (en) Information processing apparatus, and part generating and using method
US9811910B1 (en) Cloud-based image improvement
JP6525611B2 (en) Image processing apparatus and control method thereof
JP6812203B2 (en) Information processing system, information processing method, mobile projection terminal
US20210142568A1 (en) Web-based remote assistance system with context &amp; content-aware 3d hand gesture visualization
JP2010206745A (en) Communication terminal, display control method, and display control program
JP2022040434A (en) Communication terminal, image communication system, image display method, and program
JP2022050979A (en) Communication terminal, image communication system, image display method, and program
TWI506534B (en) Mirror display system having low data traffic and method thereof
JP2022057771A (en) Communication management device, image communication system, communication management method, and program
JP5950634B2 (en) Information processing apparatus, computer program, and information processing method
JP2022023931A (en) Information processing apparatus, program, and control method
US20160261828A1 (en) Method, Device, and System for Multipoint Video Communication
WO2016062191A1 (en) Information publication method, information receiving method and apparatus, and information sharing system
JP2014120805A (en) Information processing device, information processing method, and program
JP6234223B2 (en) Information processing apparatus, information processing apparatus control method, and computer program
KR102234660B1 (en) System and method for tagging additional information on 3d tour
JP6617547B2 (en) Image management system, image management method, and program
CN114637436A (en) Information sharing method and device, computer readable storage medium and terminal
US9041973B2 (en) Support system, control device, image forming apparatus, and support method utilizing cards on which written information is printed
JP6881193B2 (en) Information processing device, information processing method, program, display control device, display control method, program and information processing system
WO2019205566A1 (en) Method and device for displaying image
US20140063240A1 (en) Systems, apparatuses, and methods for branding and/or advertising through immediate user interaction, social networking, and image sharing
JP2021036400A (en) Information processing system, information processing apparatus, information processing method, and program
JP2016095620A (en) Display device, server device, display system and control method thereof, control program, and storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161227

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170926

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170929

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171024

R151 Written notification of patent or utility model registration

Ref document number: 6234223

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151