JP2018190144A - Information processing apparatus, control method therefor, and program - Google Patents

Information processing apparatus, control method therefor, and program Download PDF

Info

Publication number
JP2018190144A
JP2018190144A JP2017091310A JP2017091310A JP2018190144A JP 2018190144 A JP2018190144 A JP 2018190144A JP 2017091310 A JP2017091310 A JP 2017091310A JP 2017091310 A JP2017091310 A JP 2017091310A JP 2018190144 A JP2018190144 A JP 2018190144A
Authority
JP
Japan
Prior art keywords
image
capture
processing apparatus
information processing
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017091310A
Other languages
Japanese (ja)
Inventor
元気 池田
Motoki Ikeda
元気 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017091310A priority Critical patent/JP2018190144A/en
Publication of JP2018190144A publication Critical patent/JP2018190144A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an information processing apparatus, a control method therefor, and a program for enabling a user surrounding a desktop surface to perform communication at a good tempo without being affected by operation of a device.SOLUTION: When a touch by a user's hand or an object such as a pen on a capture button 503 of an operation menu 500 included in an image projected by a projector is present, the information processing apparatus specifies the object and determines whether or not the specified object is within a capture area 401. When it is determined not to be within the capture area 401, a picture is taken by a camera to perform an image capture.SELECTED DRAWING: Figure 5

Description

本発明は、情報処理装置及びその制御方法、並びにプログラムに関し、特に机上面の様子をキャプチャして画像を生成する会議システムに用いられる情報処理装置及びその制御方法、並びにプログラムに関する。   The present invention relates to an information processing apparatus, a control method therefor, and a program, and more particularly to an information processing apparatus used in a conference system that captures the appearance of a desk surface and generates an image, a control method therefor, and a program.

従来より、机上面(水平面)に情報を表示する会議システムとして、例えば、プロジェクタにより上方から画像を投影する方式や机上埋め込み型のディスプレイで画像を表示する方式が存在する。   Conventionally, as a conference system that displays information on a desk surface (horizontal plane), for example, there are a method of projecting an image from above by a projector and a method of displaying an image on a desktop embedded display.

このような会議システムでは、机上面に電子資料を表示して会議を行うことができる。またプロジェクタで画像を上方から投影する方式の場合、机上面に紙やホワイトボードを設置すれば、画等として投影された電子資料に対してペンやマーカーで書き込みを行うことができる。   In such a conference system, it is possible to hold a conference by displaying electronic materials on the desk surface. In the case of a method of projecting an image from above with a projector, if paper or a white board is installed on the desk top surface, electronic material projected as an image can be written with a pen or a marker.

また一般的に会議では、現物や試作物、サンプル品といった物を机上におき、これを参照しながらディスカッションする場合がある。   In general, there are cases where things such as actual products, prototypes, and sample products are placed on a desk and discussed while referring to them.

さらに、かかる会議システムには撮像手段が設けられており、机上におけるコミュニケーションの様子を撮像し、画像として記録保持(キャプチャ)することができる。例えば、電子資料や書込みの内容、机上においた物、電子資料や物への指し示し、などの様子を撮影して画像を生成し、その画像を記録すれば、会議の経過や備忘の情報として活用することができる。   Further, such a conference system is provided with an imaging means, which can capture the state of communication on a desk and record and hold (capture) it as an image. For example, if you create an image by taking pictures of electronic materials and written contents, items placed on a desk, pointing to electronic materials and objects, etc., and recording the images, you can use them as information about the progress of the meeting and reminders. can do.

一方、特許文献1に記載されている画像処理装置は、机上面に載置した帳票を上方から撮像し画像を生成する。このとき、生成した画像に、ユーザの手などの被写体である帳票以外の物体が含まれるか否かを判定する。含まれると判定された場合には、当該被写体以外の物体がキャプチャの対象領域から移動するまでの時間を予測し、当該時間が経過した後で再度撮像を行う。   On the other hand, the image processing apparatus described in Patent Document 1 captures a form placed on a desk surface from above and generates an image. At this time, it is determined whether or not the generated image includes an object other than a form, which is a subject such as a user's hand. If it is determined that the object is included, a time until an object other than the subject moves from the capture target region is predicted, and imaging is performed again after the time has elapsed.

これにより、ユーザの手などが写り込んだ画像が生成されてしまうことを低減する。   This reduces the generation of an image in which the user's hand is reflected.

例えば、前述の会議システムにおいて、物理的あるいは仮想的に設けられたボタン等で、キャプチャの操作指示を受け付ける場合、こうしたボタンと表示領域との位置関係によっては、当該ボタンを操作したユーザの手が画像に写り込んでしまうことがある。このような画像の生成を特許文献1の技術を適用することにより低減することができる。   For example, in the above-described conference system, when a capture operation instruction is received using a button provided physically or virtually, depending on the positional relationship between the button and the display area, the user's hand operating the button It may appear in the image. Generation of such an image can be reduced by applying the technique of Patent Document 1.

特許第5629238号公報Japanese Patent No. 5629238

しかしながら、前述の会議システムに特許文献1の技術を適用すると、本来画像に含めたい指差しを行う手や、画像に含まれても差し支えのない物を把持する手までもが被写体以外の物体として検出されてしまい、キャプチャされなくなってしまう。   However, when the technology of Patent Document 1 is applied to the above-described conference system, the hand that performs the pointing operation that is originally intended to be included in the image and the hand that holds the object that may be included in the image are not objects. It will be detected and will not be captured.

このような課題を鑑みて本発明は、机上面を囲むユーザが機器の操作に影響されずテンポのよいコミュニケーションを行うことができる情報処理装置及びその制御方法、並びにプログラムを提供することを目的とする。   In view of such problems, the present invention has an object to provide an information processing apparatus, a control method therefor, and a program that allow a user surrounding a desk surface to perform good-tempo communication without being affected by operation of the device. To do.

本発明の請求項1に係る情報処理装置は、机上面の対象領域に画像を表示する表示手段と、前記画像を撮影してキャプチャ画像を生成するキャプチャ手段と、ユーザにより操作される物体によるキャプチャボタンへのタッチの有無を検出する検出手段と、前記検出手段により前記タッチが有ったことが検出されたときに、前記物体を特定する特定手段と、前記特定手段により特定された前記物体が前記対象領域内にあるか否かを判定する判定手段とを備え、前記キャプチャ手段は前記判定手段により前記物体が前記対象領域内にないと判定された場合に前記キャプチャ画像を生成することを特徴とする。   An information processing apparatus according to claim 1 of the present invention includes a display unit that displays an image in a target area on a desk surface, a capture unit that captures the image and generates a captured image, and capture by an object operated by a user. Detecting means for detecting presence / absence of a touch on a button, specifying means for specifying the object when the detecting means detects that the touch is present, and the object specified by the specifying means Determining means for determining whether or not the object is within the target area, and the capture means generates the captured image when the determining means determines that the object is not within the target area. And

本発明によれば、机上面を囲むユーザが機器の操作に影響されずテンポのよいコミュニケーションを行うことができる。   ADVANTAGE OF THE INVENTION According to this invention, the user who surrounds a desk surface can perform communication with good tempo without being influenced by operation of an apparatus.

実施例1に係る情報処理装置を含む会議システムの外観図である。1 is an external view of a conference system including an information processing apparatus according to Embodiment 1. FIG. 図1の情報処理装置の外観図である。It is an external view of the information processing apparatus of FIG. 図1の会議システムのハードウェア構成図である。It is a hardware block diagram of the conference system of FIG. 実施例1における各領域の関係を示す模式図である。FIG. 3 is a schematic diagram illustrating a relationship between regions in Example 1. 図4の投影領域に投影される画像に含まれる操作メニューを示す図である。It is a figure which shows the operation menu contained in the image projected on the projection area | region of FIG. 実施例1における情報処理装置の制御処理の手順を示すフローチャートである。3 is a flowchart illustrating a control processing procedure of the information processing apparatus according to the first exemplary embodiment. 実施例1に係る図6のステップS604のキャプチャ処理の手順を示すフローチャートである。FIG. 7 is a flowchart showing a procedure of capture processing in step S604 of FIG. 6 according to Embodiment 1. FIG. 実施例1で生成される物体画像およびキャプチャ画像を示す図である。It is a figure which shows the object image and capture image which are produced | generated in Example 1. FIG. 実施例2における各領域の関係を示す模式図である。FIG. 10 is a schematic diagram illustrating a relationship between regions in Example 2. 図9の投影領域に投影される画像に含まれる操作メニューを示す図である。It is a figure which shows the operation menu contained in the image projected on the projection area | region of FIG. 実施例3に係る画面の表示態様の決定方法を説明する模式図である。FIG. 10 is a schematic diagram illustrating a method for determining a screen display mode according to the third embodiment. 実施例3に係る図6のステップS604のキャプチャ処理の手順を示すフローチャートである。FIG. 7 is a flowchart illustrating a capture processing procedure in step S604 in FIG. 6 according to a third embodiment. 実施例4に係る情報処理装置を含む会議システムの外観図である。FIG. 10 is an external view of a conference system including an information processing apparatus according to a fourth embodiment. 実施例4における情報処理装置の制御処理の手順を示すフローチャートである。14 is a flowchart illustrating a control processing procedure of the information processing apparatus according to the fourth embodiment. 図14のステップS604,S1402におけるキャプチャ処理の手順を示すフローチャートである。15 is a flowchart showing a capture process procedure in steps S604 and S1402 of FIG. 実施例4で生成される物体画像を示す図である。It is a figure which shows the object image produced | generated in Example 4. FIG.

以下、本発明を実施するための形態について図面を用いて説明する。   Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.

(実施例1)
図1は、本実施例に係る情報処理装置101を含む会議システムの外観図である。
(Example 1)
FIG. 1 is an external view of a conference system including an information processing apparatus 101 according to the present embodiment.

この会議システムは、図1(a)に示すように、プロジェクタ203により机上の投影面に画像が投影された状態で、図1(b)に示すように、机の周りに複数のユーザが囲むようにして使用する。   In this conference system, as shown in FIG. 1A, a projector 203 projects an image onto a projection surface on a desk, and as shown in FIG. 1B, a plurality of users surround the desk. Use it as you like.

情報処理装置101は、机上に設置して利用するものであり、カメラ202、プロジェクタ203、デプスセンサ204を備える。なお、図1では、情報処理装置101の内部構成を説明するため情報処理装置101の外装は省略して示している。   The information processing apparatus 101 is installed on a desk and used, and includes a camera 202, a projector 203, and a depth sensor 204. In FIG. 1, the exterior of the information processing apparatus 101 is omitted in order to explain the internal configuration of the information processing apparatus 101.

プロジェクタ203は、画像を机上の投影面103に投影する投影部である。カメラ202はその投影された画像を撮影するための撮像部である。尚、本実施例においては、プロジェクタ203により机上に画像を投影したが、ユーザが机上面で画像が視認できる方法であればこれに限定される物ではない。例えば、机上埋め込み型のディスプレイに画像を表示するようにしてもよい。   The projector 203 is a projection unit that projects an image onto the projection surface 103 on the desk. The camera 202 is an image capturing unit for capturing the projected image. In the present embodiment, the projector 203 projects an image on the desk, but the present invention is not limited to this as long as the user can visually recognize the image on the desk surface. For example, an image may be displayed on a desktop embedded display.

また、デプスセンサ204は、机上面にあるユーザの手やペンなどの物体の領域を抽出して取得するために用いるセンサである。   The depth sensor 204 is a sensor used for extracting and acquiring a region of an object such as a user's hand or pen on the desk surface.

情報処理装置101には、机上に設置されたタッチマット205が接続されている。タッチマット205は、ユーザによるタッチ操作を受け付けるための入力インターフェースであり、押圧された位置を示す座標を検出する。尚、プロジェクタ203ではなく、机上埋め込み型のディスプレイを使用する場合、そのディスプレイとタッチマット205が一体となって構成される。   A touch mat 205 installed on a desk is connected to the information processing apparatus 101. The touch mat 205 is an input interface for accepting a touch operation by the user, and detects coordinates indicating a pressed position. When using a desktop embedded display instead of the projector 203, the display and the touch mat 205 are integrated.

タッチマット205は、プロジェクタ203が画像を投影できる範囲を含む領域(図1(a)の破線で示す領域、以下、投影領域104と呼ぶ。)に設定される。   The touch mat 205 is set to an area including a range in which the projector 203 can project an image (an area indicated by a broken line in FIG. 1A, hereinafter referred to as a projection area 104).

プロジェクタ203が投影する画像には、電子資料や、メッセージおよびボタン等のGUI(Graphical User Interface)を含めることができる。ユーザは手やペンなどを使って情報処理装置101に対する操作を行う。情報処理装置101は、タッチマット205のポインティング結果に基づいて投影面に投影されているGUIの選択操作を検知する。   The image projected by the projector 203 can include electronic materials and GUI (Graphical User Interface) such as messages and buttons. The user operates the information processing apparatus 101 using a hand or a pen. The information processing apparatus 101 detects a selection operation of the GUI projected on the projection surface based on the pointing result of the touch mat 205.

図2は、情報処理装置101を図1とは別の方向から見た外観図である。図2においても図1と同様、内部構成を説明するため外装は省略して示している。   FIG. 2 is an external view of the information processing apparatus 101 as viewed from a direction different from that in FIG. In FIG. 2, as in FIG. 1, the exterior is not shown in order to explain the internal configuration.

情報処理装置101は、台座251、及びこれに固定されるメインフレーム252を備えている。また、このメインフレーム252に、プロジェクタ203及びデプスセンサ204を直接固定すると共に、カメラ202をカメラアタッチメント253を介して固定する。   The information processing apparatus 101 includes a base 251 and a main frame 252 fixed to the base 251. In addition, the projector 203 and the depth sensor 204 are directly fixed to the main frame 252 and the camera 202 is fixed via the camera attachment 253.

プロジェクタ203は、光源である光源ユニット258と投影光学系であるプロジェクタ鏡筒部259と投影ミラー260を備えている。プロジェクタ鏡筒部259の内部には複数のレンズが配置されている。光源ユニット258とプロジェクタ鏡筒部259は屈曲部259aを介して接続されている。光源ユニット258は屈曲部259aの奥側に配置される。屈曲部259aには反射ミラー261が配置され、光源ユニット258から出た光を投影ミラー260に向けて反射する。投影ミラー260は、プロジェクタ鏡筒部259の図2向かって上方手前側に配置される。投影ミラー260は、光源ユニット258から投光された光を投影面103に向けて反射し、投影領域104に画像を投影する。以下、図1の投影領域104のサイズとして、幅を「screen_width」、高さを「screen_height」と表す。本実施例の投影領域104のサイズは、screen_width=1920ドット、screen_height=1080ドットであるが、これに限定されない。また、本実施例において、プロジェクタ203の投影ミラー260は投影領域104に投影した画像が適切なアスペクト比(例えば16:9)となるように曲面ミラーとなっている。   The projector 203 includes a light source unit 258 that is a light source, a projector barrel 259 that is a projection optical system, and a projection mirror 260. A plurality of lenses are arranged inside the projector barrel 259. The light source unit 258 and the projector barrel 259 are connected via a bent portion 259a. The light source unit 258 is disposed on the back side of the bent portion 259a. A reflection mirror 261 is disposed at the bent portion 259 a and reflects light emitted from the light source unit 258 toward the projection mirror 260. The projection mirror 260 is disposed on the upper front side of the projector barrel 259 in FIG. The projection mirror 260 reflects the light projected from the light source unit 258 toward the projection plane 103 and projects an image on the projection area 104. Hereinafter, as the size of the projection region 104 in FIG. 1, the width is represented as “screen_width” and the height is represented as “screen_height”. The size of the projection area 104 in this embodiment is screen_width = 1920 dots and screen_height = 1080 dots, but is not limited thereto. In this embodiment, the projection mirror 260 of the projector 203 is a curved mirror so that the image projected on the projection area 104 has an appropriate aspect ratio (for example, 16: 9).

次に、カメラ202の構成を説明する。カメラ202は、撮像素子としてのCCD(Charge−Coupled Device)センサ(不図示)、撮像ミラー256、及びカメラ鏡筒部257を備える。   Next, the configuration of the camera 202 will be described. The camera 202 includes a charge-coupled device (CCD) sensor (not shown), an imaging mirror 256, and a camera barrel 257 as an imaging device.

CCDセンサは、投影面103に対して略水平になるように取り付けられている。   The CCD sensor is mounted so as to be substantially horizontal with respect to the projection plane 103.

撮像ミラー256はメインフレーム252に組み付けられる、凹形状の曲面ミラーである。   The imaging mirror 256 is a concave curved mirror that is assembled to the main frame 252.

カメラ鏡筒部257(撮像鏡筒部)は、撮像光学系として複数のレンズを組み込んだ撮像光学系であり、カメラマウント255に取り付けられる。   The camera barrel portion 257 (imaging barrel portion) is an imaging optical system that incorporates a plurality of lenses as an imaging optical system, and is attached to the camera mount 255.

カメラ鏡筒部257は、対象物の像を上述のカメラ202内部のCCDセンサに結像させる。   The camera barrel 257 forms an image of the object on the CCD sensor inside the camera 202 described above.

投影領域104をカメラ202で読み取る際には、対象物の像を撮像ミラー256でカメラ鏡筒部257へと反射させ、カメラ鏡筒部257が備える複数のレンズ(不図示)を通り、CCDセンサで画像を読み取る。CCDセンサの撮像面に結像された像は、カメラ202内部のA/D変換部(不図示)により画像データに変換される。   When the projection area 104 is read by the camera 202, the image of the object is reflected by the imaging mirror 256 to the camera barrel 257, passes through a plurality of lenses (not shown) provided in the camera barrel 257, and is then charged to the CCD sensor. Read the image with. An image formed on the imaging surface of the CCD sensor is converted into image data by an A / D conversion unit (not shown) inside the camera 202.

次に、会議システムのハードウェア構成を説明する。   Next, the hardware configuration of the conference system will be described.

図3は、図1の会議システムのハードウェア構成を示す図である。   FIG. 3 is a diagram illustrating a hardware configuration of the conference system of FIG.

情報処理装置101は、上述のカメラ202,プロジェクタ203、及びデプスセンサ204の他、制御部301を備える。   The information processing apparatus 101 includes a control unit 301 in addition to the above-described camera 202, projector 203, and depth sensor 204.

制御部301は、システムバスに接続されたCPU302、RAM303、ROM304、HDD305。ネットワークI/F306、カメラI/F307、ディスプレイコントローラ308、USBコントローラ309を備える。   The control unit 301 includes a CPU 302, a RAM 303, a ROM 304, and an HDD 305 connected to the system bus. A network I / F 306, a camera I / F 307, a display controller 308, and a USB controller 309 are provided.

CPU302は制御部301全体の動作を制御する中央演算装置(プロセッサ)であり、ROM304又はHDD305に記憶された制御プログラムを読み出す。また、情報処理装置101の有するカメラ202,プロジェクタ203、及びデプスセンサ204や、情報処理装置101に接続された後述の各周辺装置を制御する。   The CPU 302 is a central processing unit (processor) that controls the operation of the entire control unit 301, and reads a control program stored in the ROM 304 or the HDD 305. In addition, the camera 202, the projector 203, and the depth sensor 204 included in the information processing apparatus 101 and the peripheral devices described later connected to the information processing apparatus 101 are controlled.

RAM303は揮発性メモリであり、CPU302の演算や、ROM304及びHDD305に格納された各種制御プログラムを展開するための一時記憶領域として用いられる。   A RAM 303 is a volatile memory, and is used as a temporary storage area for developing operations of the CPU 302 and various control programs stored in the ROM 304 and the HDD 305.

ROM304は不揮発性メモリであり、情報処理装置101のブートプログラムなどが格納されている。   A ROM 304 is a nonvolatile memory, and stores a boot program for the information processing apparatus 101 and the like.

HDD305には情報処理装置101の制御用プログラムが格納されている。   The HDD 305 stores a control program for the information processing apparatus 101.

CPU302は電源ON等の起動時、ROM304に格納されているブートプログラムを実行する。このブートプログラムは、HDD305に格納されている制御用プログラムを読み出し、RAM303上に展開する。CPU302はブートプログラムを実行すると、続けてRAM303上に展開した制御用プログラムを実行し、情報処理装置101の制御を行う。また、CPU302は制御用プログラムによる動作に用いるデータもRAM303上に格納して読み書きを行う。HDD305は、更に、制御用プログラムによる動作に必要な各種設定や、また、生成した画像データや投影する電子資料を記憶する。   The CPU 302 executes a boot program stored in the ROM 304 when the power is turned on. The boot program reads a control program stored in the HDD 305 and expands it on the RAM 303. When the CPU 302 executes the boot program, it executes the control program developed on the RAM 303 to control the information processing apparatus 101. Further, the CPU 302 also stores data used for the operation by the control program on the RAM 303 to read / write. The HDD 305 further stores various settings necessary for operation by the control program, generated image data, and electronic material to be projected.

制御部301は、ネットワークI/F306を介してネットワーク300に接続される。CPU302は、ネットワーク300上の外部装置との間で、画像や情報の送受信を行う。これにより、例えば、ネットワーク300上のファイルサーバ102から電子資料を受信したり、画像として記録保持する(以下「キャプチャ」という)画像をファイルサーバ102に送信したりされる。   The control unit 301 is connected to the network 300 via the network I / F 306. The CPU 302 transmits and receives images and information to and from external devices on the network 300. Thereby, for example, electronic material is received from the file server 102 on the network 300, or an image recorded and held as an image (hereinafter referred to as “capture”) is transmitted to the file server 102.

制御部301は、カメラI/F307を介してデプスセンサ204に接続される。   The control unit 301 is connected to the depth sensor 204 via the camera I / F 307.

デプスセンサ204は、赤外線投射部315、赤外線カメラ316、及びコントローラ314からなる。   The depth sensor 204 includes an infrared projection unit 315, an infrared camera 316, and a controller 314.

赤外線投射部315は対象物に対して人の目には不可視である赤外線によって3次元測定パターンを投射する。   The infrared projection unit 315 projects a three-dimensional measurement pattern to the object using infrared rays that are invisible to the human eye.

赤外線カメラ316は対象物に投射した3次元測定パターンを読み取るカメラである。   The infrared camera 316 is a camera that reads a three-dimensional measurement pattern projected on an object.

コントローラ314は、赤外線投射部315と赤外線カメラ316を制御して、対象物までの距離を示す8ビット1チャネルの距離画像データを取得する。この距離画像データはデプスセンサ204からカメラI/F307を介して制御部301のRAM303へ転送される。   The controller 314 controls the infrared projection unit 315 and the infrared camera 316 to acquire 8-bit 1-channel distance image data indicating the distance to the object. This distance image data is transferred from the depth sensor 204 to the RAM 303 of the control unit 301 via the camera I / F 307.

ディスプレイコントローラ308は、CPU302の指示に応じてディスプレイ(投影領域104)への画像の表示を制御する。ここでは、ディスプレイコントローラ308はプロジェクタ203に接続されている。   The display controller 308 controls display of an image on the display (projection area 104) in accordance with an instruction from the CPU 302. Here, the display controller 308 is connected to the projector 203.

また、制御部301は、USBコントローラ309を介してタッチマット205に接続されている。CPU302は、ユーザの手やペンなどによるタッチや長押しといった、タッチマット205に対する操作およびその座標を取得することができる。また、USBコントローラ309はCPU302の指示に応じて外付けのUSBデバイスの制御を行う。本実施例では、情報処理装置101にUSBメモリやSDカードなどの外部メモリ313が接続されている。ユーザは、情報処理装置101に外部メモリ313を接続することで、外部メモリ313内に記憶されている電子資料をプロジェクタ203で投影することができる。また、カメラ202でキャプチャした画像を外部メモリ313内に記録することができる。   The control unit 301 is connected to the touch mat 205 via the USB controller 309. The CPU 302 can acquire an operation on the touch mat 205 such as a touch with a user's hand or a pen or a long press and coordinates thereof. The USB controller 309 controls an external USB device in accordance with an instruction from the CPU 302. In this embodiment, an external memory 313 such as a USB memory or an SD card is connected to the information processing apparatus 101. The user can project the electronic material stored in the external memory 313 with the projector 203 by connecting the external memory 313 to the information processing apparatus 101. In addition, an image captured by the camera 202 can be recorded in the external memory 313.

なお、上述したディスプレイコントローラ308、USBコントローラ309、カメラI/F307、及びネットワークI/F306の接続には、USBや有線LAN、無線LAN、ラインケーブルなどを適宜採用することができる。   Note that a USB, a wired LAN, a wireless LAN, a line cable, or the like can be appropriately employed for connecting the display controller 308, the USB controller 309, the camera I / F 307, and the network I / F 306 described above.

次に、本実施例における、プロジェクタ203の投影領域104と、投影された画像のキャプチャ領域401、カメラ202の撮影領域402、デプスセンサ204の3次元形状測定領域403の関係について説明する。   Next, the relationship between the projection area 104 of the projector 203, the captured area 401 of the projected image, the imaging area 402 of the camera 202, and the three-dimensional shape measurement area 403 of the depth sensor 204 in this embodiment will be described.

図4は、本実施例におけるこれらの領域の関係を示す模式図である。   FIG. 4 is a schematic diagram showing the relationship between these regions in the present embodiment.

カメラ202が撮影する領域である撮影領域402は、投影領域104より広く、投影領域104を内包する領域である。   An imaging area 402 that is an area captured by the camera 202 is an area that is wider than the projection area 104 and includes the projection area 104.

デプスセンサ204が3次元形状測定する領域である3次元形状測定領域403は、撮影領域402より広く、撮影領域402を内包する領域である。   A three-dimensional shape measurement region 403 that is a region in which the depth sensor 204 measures a three-dimensional shape is a region that is wider than the imaging region 402 and includes the imaging region 402.

プロジェクタ203により投影され画像のうち、カメラ202で撮影され、キャプチャの対象とする領域をキャプチャ領域401と呼称する。本実施例において、キャプチャ領域401は、投影領域104と同じサイズの領域である。   Of the images projected by the projector 203, an area captured by the camera 202 and to be captured is referred to as a capture area 401. In this embodiment, the capture area 401 is an area having the same size as the projection area 104.

次に、会議システムに用いられる机上にプロジェクタ203により投影される画像に含まれる操作メニュー500について説明する。   Next, the operation menu 500 included in the image projected by the projector 203 on the desk used in the conference system will be described.

図5は、投影領域104に投影される画像に含まれる操作メニュー500を示す図である。   FIG. 5 is a diagram showing an operation menu 500 included in an image projected on the projection area 104.

CPU302はタッチマット205から投影領域104内の任意のタッチ位置(例えば501)に対する長押し(一定時間タッチし続ける操作)を検知するとタッチ位置501を中心とした位置に操作メニュー500を表示する。長押し以外の操作、例えば、タッチやダブルタッチ(素早く2回タッチする操作)を検知し、そのタッチ位置を中心とした位置に操作メニュー500を表示してもよい。なお、タッチ位置が、投影領域104の端部に近いと、操作メニュー500の一部が投影領域104の外部にかかる場合がある。この場合に、CPU302は操作メニュー500の全体が表示されるよう操作メニュー500を表示すべき中心位置をタッチ位置からずらすように補正した後に、操作メニュー500を表示する。これにより、操作メニュー500は投影領域104の内部に確実に表示することができる。このように投影領域104に表示される操作メニュー500は、開くボタン502、キャプチャボタン503、及び終了ボタン504を含む。   When the CPU 302 detects a long press (an operation to keep touching for a predetermined time) from the touch mat 205 to an arbitrary touch position (for example, 501) in the projection area 104, the CPU 302 displays the operation menu 500 at a position centered on the touch position 501. An operation other than a long press, for example, a touch or a double touch (a quick two touch operation) may be detected, and the operation menu 500 may be displayed at a position centered on the touch position. Note that when the touch position is close to the end of the projection area 104, a part of the operation menu 500 may be placed outside the projection area 104. In this case, the CPU 302 displays the operation menu 500 after correcting the center position where the operation menu 500 should be displayed to be shifted from the touch position so that the entire operation menu 500 is displayed. Thereby, the operation menu 500 can be reliably displayed inside the projection area 104. Thus, the operation menu 500 displayed in the projection area 104 includes an open button 502, a capture button 503, and an end button 504.

ユーザによる開くボタン502のタッチが有ったことをタッチマット205が検出すると、CPU502は不図示の資料選択画面を表示する。さらに、ユーザによりその資料選択画面から表示したい電子資料(例えばプレゼンテーション用の資料)105が選択(タッチ)されたことをタッチマット205が検出すると、CPU502はその選択された電子資料105を投影領域104に表示する。ユーザは、資料選択画面により外部メモリ313やファイルサーバ102、さらに、情報処理装置101内のHDD305などに格納されている電子資料を選択することができる。   When the touch mat 205 detects that the user touches the open button 502, the CPU 502 displays a material selection screen (not shown). Furthermore, when the touch mat 205 detects that the user selects (touches) an electronic material (for example, a material for presentation) 105 to be displayed from the material selection screen, the CPU 502 displays the selected electronic material 105 in the projection area 104. To display. The user can select an electronic material stored in the external memory 313, the file server 102, the HDD 305 in the information processing apparatus 101, or the like on the material selection screen.

ユーザによるキャプチャボタン503のタッチが有ったことをタッチマット205が検出すると、CPU502は机上面におけるコミュニケーションの様子をカメラ202により撮像して画像としてキャプチャする。   When the touch mat 205 detects that the user has touched the capture button 503, the CPU 502 captures an image of communication on the desk surface by the camera 202 and captures it as an image.

ユーザによる終了ボタン504のタッチが有ったことをタッチマット205が検出すると、CPU502は情報処理装置101の電源をオフにして会議システムを終了する。   When the touch mat 205 detects that the user touches the end button 504, the CPU 502 turns off the information processing apparatus 101 and ends the conference system.

ユーザによる投影領域104の内部であって操作メニュー500の領域外の部分のタッチが有ったことをタッチマット205が検出すると、CPU502は操作メニュー500を閉じる(表示を終了する)。   When the touch mat 205 detects that the user touches a portion inside the projection area 104 but outside the area of the operation menu 500, the CPU 502 closes the operation menu 500 (ends display).

次に、情報処理装置101の制御について説明する。   Next, control of the information processing apparatus 101 will be described.

図6は、本実施例における情報処理装置101の制御処理の手順を示すフローチャートである。図6のフローチャートに示す各ステップは、CPU302がROM304又はHDD305に記憶された制御プログラムをRAM303に読み出し、実行することにより実現される。なお、本処理は、制御部301内のCPU302、ディスプレイコントローラ308、USBコントローラ309等と、制御部301と接続するカメラ202、プロジェクタ203、デプスセンサ204,タッチマット205等が適宜協働して実現する。   FIG. 6 is a flowchart illustrating a control processing procedure of the information processing apparatus 101 according to the present exemplary embodiment. Each step shown in the flowchart of FIG. 6 is realized by the CPU 302 reading out the control program stored in the ROM 304 or the HDD 305 to the RAM 303 and executing it. This processing is realized by appropriately cooperating the CPU 302, the display controller 308, the USB controller 309, and the like in the control unit 301 with the camera 202, the projector 203, the depth sensor 204, the touch mat 205, and the like connected to the control unit 301. .

情報処理装置101の電源が投入されるとCPU302は本処理を開始する。   When the information processing apparatus 101 is powered on, the CPU 302 starts this process.

ステップS601では、CPU302は、ユーザにより操作メニュー500の表示指示が成されたか否かを判定する。CPU302は、前述のように、ユーザが投影領域104内の任意のタッチ位置を長押ししすると操作メニュー500の表示指示がなされたと判定し、処理をステップS602へ進める。そうでない場合には、再度ステップS601の処理を行う。   In step S601, the CPU 302 determines whether or not an instruction to display the operation menu 500 has been issued by the user. As described above, CPU 302 determines that an instruction to display operation menu 500 has been issued when the user presses and holds an arbitrary touch position in projection area 104, and advances the process to step S602. Otherwise, the process of step S601 is performed again.

ステップS602では、CPU302は、ディスプレイコントローラ308及びプロジェクタ203を制御して操作メニュー500を表示する。   In step S602, the CPU 302 controls the display controller 308 and the projector 203 to display the operation menu 500.

ステップS603では、CPU302は、ユーザによりキャプチャの操作指示が成されたか、すなわちユーザによるキャプチャボタン503のタッチの有無を判定する。ステップS602で表示した操作メニュー500上のキャプチャボタン503がタッチされたら、キャプチャの操作指示が成されたと判定し、処理をステップS604へ進める。そうでなければ、処理をステップS605へ進める。   In step S <b> 603, the CPU 302 determines whether a capture operation instruction has been made by the user, that is, whether the user has touched the capture button 503. If the capture button 503 on the operation menu 500 displayed in step S602 is touched, it is determined that a capture operation instruction has been made, and the process proceeds to step S604. Otherwise, the process proceeds to step S605.

ステップS604では、CPU302は、キャプチャ処理を行う。キャプチャ処理については図7(a)で後述する。   In step S604, the CPU 302 performs capture processing. The capture process will be described later with reference to FIG.

ステップS605では、CPU302は、ユーザによりファイルを開く操作指示が成されたか否かを判定する。ステップS602で表示した操作メニュー500上の開くボタン502がタッチされたら、ファイルを開く操作指示が成されたと判定し、処理をステップS606へ進める。そうでなければ、処理をステップS608へ進める。   In step S605, the CPU 302 determines whether or not an operation instruction to open a file has been made by the user. If the open button 502 on the operation menu 500 displayed in step S602 is touched, it is determined that an operation instruction to open the file has been issued, and the process proceeds to step S606. Otherwise, the process proceeds to step S608.

ステップS606では、CPU302は、前述のように、ユーザからの操作指示に応じて、ユーザが選択したファイルを開く。   In step S606, as described above, the CPU 302 opens the file selected by the user in response to an operation instruction from the user.

ステップS607では、CPU302は、ディスプレイコントローラ308及びプロジェクタ203を制御して、操作メニュー500を閉じ、表示内容を更新する。   In step S607, the CPU 302 controls the display controller 308 and the projector 203 to close the operation menu 500 and update the display content.

ステップS608では、CPU302は、ユーザにより終了の操作指示が成されたか否かを判定する。ステップS602で表示した操作メニュー500上の終了ボタン504がタッチされたら、終了の操作指示が成されたと判定し、処理を終了する(情報処理装置101の電源をオフにする)。そうでなければ、処理をステップS609へ進める。   In step S <b> 608, the CPU 302 determines whether an end operation instruction has been issued by the user. If the end button 504 on the operation menu 500 displayed in step S602 is touched, it is determined that an end operation instruction has been made, and the process ends (the information processing apparatus 101 is turned off). Otherwise, the process proceeds to step S609.

ステップS609では、CPU302は、ユーザにより操作メニュー500の表示終了指示が成されたか否かを判定する。CPU302は、前述のように、ユーザが投影領域104の内部であって操作メニュー500の領域外の部分をタッチすると操作メニュー500の表示終了指示がなされたと判定し、処理をステップS607へ進める。そうでない場合には、ステップS603の処理に戻る。   In step S <b> 609, the CPU 302 determines whether or not the user has issued an instruction to end the display of the operation menu 500. As described above, the CPU 302 determines that an instruction to end the display of the operation menu 500 is given when the user touches a portion inside the projection area 104 but outside the operation menu 500, and advances the process to step S607. Otherwise, the process returns to step S603.

次に、図7(a)のフローチャートを用いて、図6のステップS604のキャプチャ処理について説明する。   Next, the capture processing in step S604 in FIG. 6 will be described using the flowchart in FIG.

ステップS701では、CPU302は、投影面103近傍の物体を検出する物体検出処理を実行する。この処理について、図7(b)のフローチャートを用いて説明する。   In step S <b> 701, the CPU 302 executes an object detection process for detecting an object near the projection plane 103. This process will be described with reference to the flowchart of FIG.

図7(b)においてまず、ステップS721で、CPU302は、デプスセンサ204を制御して距離画像を取得する。以下、本実施例では、デプスセンサ204により取得された距離画像が640ドットx360ドットのサイズである場合について説明する。ステップS721で取得する距離画像は、デプスセンサ204のコントローラ314が実行する図7(c)の距離画像生成処理により生成される。   In FIG. 7B, first, in step S721, the CPU 302 controls the depth sensor 204 to acquire a distance image. Hereinafter, in the present embodiment, a case where the distance image acquired by the depth sensor 204 has a size of 640 dots × 360 dots will be described. The distance image acquired in step S721 is generated by the distance image generation process of FIG. 7C executed by the controller 314 of the depth sensor 204.

図7(c)においてまず、ステップS741では、コントローラ314は、赤外線投射部315を制御して赤外線による3次元形状測定パターンを投影面103方向に投射する。   In FIG. 7C, first, in step S741, the controller 314 controls the infrared projection unit 315 to project a three-dimensional shape measurement pattern using infrared rays toward the projection plane 103.

ステップS742では、コントローラ314は、ステップS741で投影面103方向に向けて投射した3次元測定パターンを赤外線カメラ316で撮影し、8ビット1チャネルの情報からなる赤外線カメラ画像を取得する。   In step S742, the controller 314 captures the three-dimensional measurement pattern projected in the direction of the projection plane 103 in step S741 with the infrared camera 316, and acquires an infrared camera image including 8-bit 1-channel information.

ステップS743では、コントローラ314は、ステップS741で投射した3次元測定パターンとステップS742で取得した赤外線カメラ画像との間の対応点を抽出する。例えば、赤外線カメラ画像上の1点を3次元形状測定パターン上から探索して、同一の点が検出された場合にこれらを対応付ける。或いは、赤外線カメラ画像の画素の周辺を含む所定の大きさのパターンを3次元形状測定パターン上から探索し、一番類似度が高い部分と対応付けるようにしてもよい。この対応付けを容易化するために、3次元形状測定パターンは、その任意の一部分が、他のどの一部分とも異なるパターンとなるよう構成される。従ってパターンの一部分から、その一部分が全体におけるどの部分と類似しているかをパターンマッチングにより特定することができる。また、3次元形状測定パターンを手や指などの3次元形状へ投射する場合、それを撮影して得たパターンが大きく歪んでしまう場合がある。この場合、元のパターンとの対応付が困難になる可能性がある。そこで、平面に近似できるようなごく狭い範囲に投影されたパターンの一部からそのパターン全体における位置を特定できるよう、3次元形状測定パターンは、密度の高いパターンとしておくことが望ましい。   In step S743, the controller 314 extracts corresponding points between the three-dimensional measurement pattern projected in step S741 and the infrared camera image acquired in step S742. For example, one point on the infrared camera image is searched from the three-dimensional shape measurement pattern, and these are associated when the same point is detected. Alternatively, a pattern having a predetermined size including the periphery of the pixel of the infrared camera image may be searched from the three-dimensional shape measurement pattern and associated with the portion having the highest similarity. In order to facilitate this association, the three-dimensional shape measurement pattern is configured such that an arbitrary part thereof is a pattern different from any other part. Therefore, it is possible to specify from a part of the pattern by pattern matching which part of the whole is similar to which part. When a three-dimensional shape measurement pattern is projected onto a three-dimensional shape such as a hand or a finger, the pattern obtained by photographing the pattern may be greatly distorted. In this case, it may be difficult to associate with the original pattern. Therefore, it is desirable that the three-dimensional shape measurement pattern be a high-density pattern so that the position in the entire pattern can be specified from a part of the pattern projected in a very narrow range that can be approximated to a plane.

ステップS744では、コントローラ314は赤外線投射部315と赤外線カメラ316を結ぶ直線を基線として三角測量の原理を用いて計算を行うことにより、赤外線カメラ316からステップS743で抽出された各対応点までの距離を算出する。赤外線カメラ画像の画素のうち、ステップS743で対応点として抽出された画素については、赤外線カメラ316からの距離を算出して画素値として保存する。一方、対応点として抽出ができなかった画素については、距離の計測ができなかった部分として無効値(例えば−1など)を保存する。これを赤外線カメラ画像の全画素に対して行うことで、各画素に距離値が入った8ビット1チャネルの情報からなる距離画像を生成する。なお、赤外線カメラ316から各対応点までの距離を算出するためには、赤外線投射部315と赤外線カメラ316の位置関係及びそれぞれの内部パラメータがわかっている必要がある。これらは、事前のキャリブレーション処理により算出される。なお、ステップS744の処理はコントローラ314内に備えられた不図示のASICやDSP(Degital Signal Processor)により実行される。   In step S744, the controller 314 calculates the distance from the infrared camera 316 to each corresponding point extracted in step S743 by performing calculation using the principle of triangulation using the straight line connecting the infrared projection unit 315 and the infrared camera 316 as a base line. Is calculated. Of the pixels of the infrared camera image, for the pixels extracted as corresponding points in step S743, the distance from the infrared camera 316 is calculated and stored as a pixel value. On the other hand, for a pixel that could not be extracted as a corresponding point, an invalid value (for example, −1) is stored as a portion where the distance could not be measured. By performing this operation for all pixels of the infrared camera image, a distance image composed of 8-bit 1-channel information in which each pixel has a distance value is generated. In order to calculate the distance from the infrared camera 316 to each corresponding point, it is necessary to know the positional relationship between the infrared projection unit 315 and the infrared camera 316 and respective internal parameters. These are calculated by a prior calibration process. Note that the processing in step S744 is executed by an ASIC or DSP (Digital Signal Processor) (not shown) provided in the controller 314.

なお、本実施例ではデプスセンサ204として赤外線による3次元形状測定パターンを投射して対象物までの距離を検出する方式を採用しているが、他の方式を用いることも可能である。例えば、2つのRGBカメラでステレオ立体視を行うステレオ方式や、赤外線の投射光と反射光の位相差から、赤外線が被写体により反射するまでの時間を算出し、被写体と距離を検出するTOF(Time of Flight)方式を用いることもできる。   In this embodiment, the depth sensor 204 employs a method of detecting a distance to an object by projecting a three-dimensional shape measurement pattern using infrared rays, but other methods can also be used. For example, a stereo method in which stereo vision is obtained with two RGB cameras, or a time until infrared rays are reflected by a subject from a phase difference between infrared projection light and reflected light, and TOF (Time of Flight) can also be used.

図7(b)の説明に戻り、ステップS722では、CPU302は、ステップS721で取得した距離画像と事前に取得しておいた基準画像から物体画像を生成する。具体的には、物体画像は、距離画像と基準画像の画像値(赤外線カメラ316からの距離)の差が所定値以上である画素を黒(画素値255)、所定値未満である画素を白(画素値0)に二値化することにより生成される。尚、基準画像は、事前のキャリブレーション処理によって、ユーザの手やペンなどの物体が存在しない状態で取得した基準となる距離画像である。すなわち、生成された物体画像では、ユーザの手やペンなどの物体が存在する部分が黒の画素として表現される。   Returning to the description of FIG. 7B, in step S722, the CPU 302 generates an object image from the distance image acquired in step S721 and the reference image acquired in advance. Specifically, in the object image, a pixel in which the difference between the image value of the distance image and the reference image (distance from the infrared camera 316) is a predetermined value or more is black (pixel value 255), and a pixel that is less than the predetermined value is white. It is generated by binarizing to (pixel value 0). Note that the reference image is a distance image that serves as a reference acquired in a state where an object such as a user's hand or pen does not exist by a prior calibration process. That is, in the generated object image, a portion where an object such as a user's hand or pen is present is expressed as a black pixel.

ステップS723では、CPU302は、ステップS722で得られた物体画像に対して、ノイズ除去のための画像処理を行う。例えば、CPU302は、注目画素の周辺に1画素でも白(画素値0)の画素があれば当該注目画素の値を0とする収縮処理や、注目画素の周辺に1画素でも黒(画素値255)の画素があれば当該注目画素の値を255とする膨張処理によりノイズを低減する。図8(a)は、以上のステップにより得られた物体画像の例を示す。物体画像800には、連続した黒(画素値255)の画素群から形成される領域として、ふたつの物体が含まれている。すなわち、物体801は、投影領域104に投影された操作メニュー500のキャプチャボタン503をタッチするユーザの手である。そして、物体802は、投影領域104に投影された電子資料105を指差すユーザの手である。   In step S723, the CPU 302 performs image processing for noise removal on the object image obtained in step S722. For example, if there is a pixel of white (pixel value 0) even around one pixel around the pixel of interest, the CPU 302 performs contraction processing to set the value of the pixel of interest to 0, or black (pixel value 255) around the pixel of interest. ), The noise is reduced by an expansion process for setting the value of the target pixel to 255. FIG. 8A shows an example of an object image obtained by the above steps. The object image 800 includes two objects as an area formed from a continuous black (pixel value 255) pixel group. That is, the object 801 is a user's hand that touches the capture button 503 of the operation menu 500 projected onto the projection area 104. The object 802 is a user's hand pointing at the electronic material 105 projected onto the projection area 104.

図7(a)の説明に戻り、ステップS702では、CPU302は、ステップS701で得られた物体画像内の投影領域104に相当する領域の画像を、投影座標系に射影変換する。図8(b)は、このステップS702における射影変換を説明する図である。破線821は、物体画像800内の投影領域104に相当する領域を示す。また、物体画像820は、破線821を射影変換した画像である。物体画像800と物体画像820の、各座標が次の対応となるように射影変換を行う。物体画像800の座標(L821,M821)が物体画像820の座標(0,0)になる。物体画像800の座標(L822,M822)が物体画像820の座標(0,screen_height−1)になる。物体画像800の座標(L823,M823)が物体画像820の座標(screen_width−1,screen_height−1)になる。物体画像800の座標(L824,M824)が物体画像820の座標(screen_width−1,0)になる。なお、この射影変換に必要となるパラメータは、事前のキャリブレーションで取得される。   Returning to the description of FIG. 7A, in step S702, the CPU 302 performs projective transformation of the image of the region corresponding to the projection region 104 in the object image obtained in step S701 into the projection coordinate system. FIG. 8B is a diagram for explaining the projective transformation in step S702. A broken line 821 indicates an area corresponding to the projection area 104 in the object image 800. The object image 820 is an image obtained by projective transformation of the broken line 821. Projective transformation is performed so that the coordinates of the object image 800 and the object image 820 correspond to the following. The coordinates (L821, M821) of the object image 800 become the coordinates (0, 0) of the object image 820. The coordinates (L822, M822) of the object image 800 become the coordinates (0, screen_height-1) of the object image 820. The coordinates (L823, M823) of the object image 800 become the coordinates (screen_width-1, screen_height-1) of the object image 820. The coordinates (L824, M824) of the object image 800 become the coordinates (screen_width-1, 0) of the object image 820. Note that the parameters necessary for this projective transformation are acquired by prior calibration.

ステップS703では、CPU302は、キャプチャ操作指示を行った物体を特定する。ここで、図8(b)の破線822は、投影領域104における操作メニュー500の領域を示し、破線823はキャプチャボタン503の領域を示す。ステップS702で取得した物体画像820と投影領域104に投影されている画像とは座標系が一致している。よって、CPU302は、物体画像820内において、キャプチャボタン503に相当する領域に重なっている物体(黒画素集合、本実施例では、物体801)をキャプチャ操作を行った物体として特定する。   In step S703, the CPU 302 identifies the object for which the capture operation instruction has been issued. Here, a broken line 822 in FIG. 8B indicates the area of the operation menu 500 in the projection area 104, and a broken line 823 indicates the area of the capture button 503. The object image 820 acquired in step S702 and the image projected on the projection area 104 have the same coordinate system. Therefore, the CPU 302 identifies an object (black pixel set, object 801 in this embodiment) that overlaps the area corresponding to the capture button 503 in the object image 820 as the object that has undergone the capture operation.

尚、ステップS703におけるキャプチャ操作指示を行った物体の特定方法はこれに限定されない。例えば、CPU302は、物体画像820に含まれる各物体の端部の座標を特定し、当該座標が破線823の領域に含まれるか否かを判定してもよい。この場合、物体の端部の座標は次のようにして特定する。物体の外接矩形の四辺の中から物体画像の端辺であり、かつ、非透明画素が最も多く内接する辺を決定する。そして当該辺の反対側の辺に内接している非透明画素を物体の端部として算出する(当該非透明画素が複数ある場合は、例えば、中央の画素を選択する)。図8(c)に示すように、物体801の場合、端部の座標は(U1,V1)となる。   It should be noted that the method for identifying the object for which the capture operation instruction has been issued in step S703 is not limited to this. For example, the CPU 302 may specify the coordinates of the end of each object included in the object image 820 and determine whether or not the coordinates are included in the area of the broken line 823. In this case, the coordinates of the end of the object are specified as follows. Of the four sides of the circumscribed rectangle of the object, the side that is the end side of the object image and that is inscribed most by the non-transparent pixels is determined. Then, the non-transparent pixel inscribed in the side opposite to the side is calculated as the end portion of the object (if there are a plurality of the non-transparent pixels, for example, the center pixel is selected). As shown in FIG. 8C, in the case of the object 801, the coordinates of the end are (U1, V1).

なお、ステップS701の物体検出処理により取得した物体画像800と、ステップS703でキャプチャ操作指示を行った物体の特定結果とを、RAM303に一時的に記憶しておく。ここで、キャプチャ操作指示を行った物体の特定結果とは、例えば、本実施例においては、キャプチャ操作指示を行った物体は物体画像800に含まれる物体のうち最も左側の物体であるという情報を指す。   Note that the object image 800 acquired by the object detection process in step S701 and the identification result of the object for which the capture operation instruction has been issued in step S703 are temporarily stored in the RAM 303. Here, the identification result of the object for which the capture operation instruction has been issued is, for example, information that the object for which the capture operation instruction has been performed is the leftmost object among the objects included in the object image 800 in this embodiment. Point to.

ステップS704では、CPU302は、ステップS703で特定されたキャプチャ操作指示を行った物体が、キャプチャ領域401内(対象領域内)にあるか否かを判定する。CPU302は、物体画像800内のキャプチャ領域401に相当する領域内に、キャプチャ操作指示を行った物体が含まれるかを判定する。含まれると判定する場合には、処理をステップS705へ進める。含まれないと判定する場合には、処理をステップS707へ進める。なお、物体画像800内でキャプチャ領域401に相当する領域は、事前のキャリブレーション処理によって算出されている。   In step S704, the CPU 302 determines whether or not the object for which the capture operation instruction specified in step S703 is in the capture area 401 (in the target area). The CPU 302 determines whether an object for which a capture operation instruction has been issued is included in an area corresponding to the capture area 401 in the object image 800. If it is determined that it is included, the process proceeds to step S705. If it is determined that it is not included, the process proceeds to step S707. Note that an area corresponding to the capture area 401 in the object image 800 is calculated by a prior calibration process.

ステップS705では、CPU302は、再度、物体検出処理を行い、物体画像800a(不図示)を取得する。本ステップはステップS701と同様である。   In step S705, the CPU 302 performs object detection processing again to acquire an object image 800a (not shown). This step is the same as step S701.

ステップS706では、CPU302は、キャプチャ操作指示を行った物体を、ステップS705で取得した物体画像800a内において追跡して特定する。ステップS701で物体画像800を取得し、ステップS703で当該物体画像800内においてキャプチャ操作指示を行った物体を特定した時点から一定の時間が経過している。よって、ステップS705で取得した物体画像800aにおいては、キャプチャ操作指示を行った物体が移動していることが想定される。よって、キャプチャ操作指示を行った後に移動した物体を、ステップS705で取得した物体画像800a内において追跡して特定する必要がある。CPU302は、RAM303に一時的に記憶している物体画像800とキャプチャ操作指示を行った物体の特定結果とを読み出す。そして、ステップS705で取得した物体画像800a内の物体のそれぞれと、物体画像800に含まれる前記特定結果により特定される以前にキャプチャ操作指示を行った物体との重なり具合を評価する。最も重なり具体の高い物体を、ステップS705で取得した物体画像800aにおいて追跡される、以前にキャプチャ操作指示を行った物体として特定する。また、RAM303に一時的に記憶している物体画像800を物体画像800aで更新すると共に、キャプチャ操作指示を行った物体の特定結果を上記追跡される物体の特定結果で更新する。そして、処理をステップS704へ戻すが、そこでは本ステップS706により追跡・特定されたキャプチャ操作指示を行った物体に対して、キャプチャ領域401内にあるか否かを判定する。   In step S706, the CPU 302 tracks and specifies the object for which the capture operation instruction has been given in the object image 800a acquired in step S705. A certain time has elapsed since the object image 800 is acquired in step S701 and the object for which the capture operation instruction is given in the object image 800 is specified in step S703. Therefore, in the object image 800a acquired in step S705, it is assumed that the object that has issued the capture operation instruction is moving. Therefore, it is necessary to track and specify the object that has moved after the capture operation instruction is given in the object image 800a acquired in step S705. The CPU 302 reads the object image 800 temporarily stored in the RAM 303 and the identification result of the object for which the capture operation instruction has been issued. Then, the degree of overlap between each of the objects in the object image 800a acquired in step S705 and an object for which a capture operation instruction has been issued before being specified by the specifying result included in the object image 800 is evaluated. The object with the highest overlap and specificity is identified as the object that has been previously instructed to perform the capture operation and is tracked in the object image 800a acquired in step S705. In addition, the object image 800 temporarily stored in the RAM 303 is updated with the object image 800a, and the result of specifying the object for which the capture operation instruction has been issued is updated with the result of specifying the tracked object. Then, the process returns to step S704, where it is determined whether or not the object that has been subjected to the capture operation instruction tracked and specified in step S706 is within the capture area 401.

一方、ステップS704の判定の結果、キャプチャ操作指示を行った物体がキャプチャ領域401内にないと判定された場合、ステップS707に進む。ステップS707では、CPU302は、ディスプレイコントローラ308及びプロジェクタ203を制御して、操作メニュー500を一時的に非表示にする。これにより、次のステップS708における撮影の結果得られるキャプチャ画像860の内容に操作メニュー500が含まれなくすることができる。   On the other hand, as a result of the determination in step S704, if it is determined that the object for which the capture operation instruction has been issued is not in the capture area 401, the process proceeds to step S707. In step S707, the CPU 302 controls the display controller 308 and the projector 203 to temporarily hide the operation menu 500. Thereby, it is possible to prevent the operation menu 500 from being included in the content of the captured image 860 obtained as a result of photographing in the next step S708.

ステップS708において、CPU302は、カメラ202を制御して、机上面を撮影し、撮影画像を取得する。   In step S <b> 708, the CPU 302 controls the camera 202 to photograph the desk surface and obtain a photographed image.

ステップS709において、CPU302は、ステップS708で取得した撮影画像内におけるキャプチャ領域401に相当する領域の画像を射影変換してキャプチャ画像860を生成する。キャプチャ画像860のサイズとして、幅を「image_width」、高さを「image_height」とする。本実施例においては、キャプチャ画像860のサイズを、image_width=1920ドット、image_height=1080ドットとするが、これに限定されない。図8(d)は、本ステップS709における射影変換を説明する図である。破線841は、撮影画像840内のキャプチャ領域401に相当する領域を示した物である。また、キャプチャ画像860は、撮影画像840を射影変換して得られた画像である。撮影画像840とキャプチャ画像860の、各座標が次の対応となるように射影変換を行う。撮影画像840の座標(L841,M841)がキャプチャ画像860の座標(0,0)になる。撮影画像840の座標(L842,M842)がキャプチャ画像860の座標(0,image_height − 1)になる。撮影画像840の座標(L843,M843)がキャプチャ画像860の座標(image_width − 1,image_height − 1)になる。撮影画像840の座標(L844,M844)がキャプチャ画像860の座標(image_width − 1,0)になる。なお、本ステップ709における射影変換に必要となるパラメータは、事前のキャリブレーションで取得されている。生成したキャプチャ画像860は、HDD305ないし外部メモリ313に記録する。あるいは、ネットワークI/F306を介して、ファイルサーバ102に送信する。   In step S <b> 709, the CPU 302 generates a captured image 860 by performing projective transformation on an image of an area corresponding to the capture area 401 in the captured image acquired in step S <b> 708. As the size of the captured image 860, the width is “image_width” and the height is “image_height”. In this embodiment, the size of the captured image 860 is image_width = 1920 dots and image_height = 1080 dots, but is not limited thereto. FIG. 8D illustrates the projective transformation in step S709. A broken line 841 indicates an area corresponding to the capture area 401 in the captured image 840. The captured image 860 is an image obtained by projective transformation of the captured image 840. Projective transformation is performed so that the coordinates of the captured image 840 and the captured image 860 correspond to the following. The coordinates (L841, M841) of the captured image 840 become the coordinates (0, 0) of the captured image 860. The coordinates (L842, M842) of the captured image 840 become the coordinates (0, image_height-1) of the captured image 860. The coordinates (L843, M843) of the captured image 840 become the coordinates (image_width−1, image_height−1) of the captured image 860. The coordinates (L844, M844) of the captured image 840 become the coordinates (image_width−1, 0) of the captured image 860. Note that the parameters necessary for the projective transformation in step 709 have been acquired by prior calibration. The generated captured image 860 is recorded in the HDD 305 or the external memory 313. Alternatively, it is transmitted to the file server 102 via the network I / F 306.

ステップS710において、CPU302は、ディスプレイコントローラ308及びプロジェクタ203を制御して、操作メニュー500を再度表示する。   In step S710, the CPU 302 controls the display controller 308 and the projector 203 to display the operation menu 500 again.

なお、ステップS701とステップS705の物体検出処理は、キャプチャの操作指示を行った物体が、キャプチャ領域401外に移動するまで複数回実行されると想定されるが、その処理間隔は人間の動作に対して十分に短い時間間隔となる。例えば、24FPS(Frame Per Second)相当の処理間隔となる。   It should be noted that the object detection processing in step S701 and step S705 is assumed to be executed a plurality of times until the object for which the capture operation instruction is issued moves outside the capture area 401, but the processing interval is determined by human action. The time interval is sufficiently short. For example, the processing interval is equivalent to 24 FPS (Frame Per Second).

また、なお、本実施例では、撮影領域402の一部をキャプチャ領域401とする例を説明したが、撮影領域402とキャプチャ領域401を一致させてもよい。すなわち、撮影画像の全部をキャプチャ画像としてもよい。   In this embodiment, an example in which a part of the shooting area 402 is the capture area 401 has been described. However, the shooting area 402 and the capture area 401 may be matched. That is, the entire captured image may be a captured image.

また、本実施例では、ステップS704において、キャプチャ操作指示を行った物体がキャプチャ領域に含まれなくなったと判定された場合にステップS708で撮影を行ったが、これに限定されない。キャプチャ領域401は撮影領域402に内包されるため、例えば、ステップS704において、キャプチャ操作指示を行った物体が撮影領域402に含まれなくなったと判定された場合にステップS708で撮影を行ってもよい。   In this embodiment, when it is determined in step S704 that the object for which the capture operation instruction has been issued is no longer included in the capture area, the image is captured in step S708. However, the present invention is not limited to this. Since the capture area 401 is included in the imaging area 402, for example, when it is determined in step S704 that the object for which the capture operation instruction has been issued is not included in the imaging area 402, the imaging may be performed in step S708.

以上説明したように、本実施例によれば、キャプチャ領域401内に表示されたキャプチャボタン503へのタッチを行ったユーザの手などの物体が、キャプチャ画像に写り込むことを低減することができる。一方で、電子資料105の指差しや机上に置かれたサンプル品の把持などを行うユーザの手は、キャプチャ画像に含めることができる。   As described above, according to the present embodiment, it is possible to reduce an object such as a user's hand that has touched the capture button 503 displayed in the capture area 401 from appearing in the captured image. . On the other hand, a user's hand that points at the electronic material 105 or grips a sample product placed on the desk can be included in the captured image.

(実施例2)
本実施例では、会議システムの画面について、実施例1とは異なる構成の場合について説明する。実施例1との差分のみ説明する。
(Example 2)
In the present embodiment, a case where the screen of the conference system has a configuration different from that of the first embodiment will be described. Only differences from the first embodiment will be described.

まず、本実施例における会議システムに関して説明する。実施例1では、情報処理装置101にタッチマット205が接続されていたが、本実施例ではタッチマット205は接続されない。次の方法でユーザによるタッチ操作を受け付ける。   First, the conference system in the present embodiment will be described. In the first embodiment, the touch mat 205 is connected to the information processing apparatus 101. However, in this embodiment, the touch mat 205 is not connected. The touch operation by the user is received by the following method.

実施例1において、CPU302が、デプスセンサ204が図7(c)の距離画像生成処理によって生成した距離画像を取得し、図8(a)に示す物体画像800を生成する方法を説明した。また、図8(b)を用いて、物体画像800を投影座標系に射影変換する方法を説明した。さらに、物体画像800に含まれる物体801について、図8(c)を用いて説明したように、その端点を取得する方法を説明した。本実施例では、CPU302は、図8(b)を用いて説明したのと同様の方法により、デプスセンサ204から取得した距離画像についても投影座標系に射影変換する。そして、図8(c)を用いて説明した方法によって取得した物体の端点について、距離画像内の該当する画素の値を参照する。この画素の値(距離値)が予め決定した閾値以下であるか、すなわちユーザの指先またはユーザが使用するペン先が机上近くに存在するか否かが判定される。この判定の結果が閾値以下であって、さらに、その物体の端点が図8(b)のキャプチャボタン503の領域を示す破線823と重なっている場合、当該画素の座標位置に対してタッチが成されたとして判定する。   In the first embodiment, the method in which the CPU 302 obtains the distance image generated by the depth sensor 204 by the distance image generation process of FIG. 7C and generates the object image 800 shown in FIG. In addition, the method for projective transformation of the object image 800 to the projection coordinate system has been described with reference to FIG. Furthermore, as described with reference to FIG. 8C, the method for acquiring the end points of the object 801 included in the object image 800 has been described. In this embodiment, the CPU 302 performs projective transformation on the distance image acquired from the depth sensor 204 into the projection coordinate system by the same method as described with reference to FIG. Then, the value of the corresponding pixel in the distance image is referred to for the end point of the object acquired by the method described with reference to FIG. It is determined whether the pixel value (distance value) is equal to or less than a predetermined threshold value, that is, whether the user's fingertip or the penpoint used by the user is near the desk. If the result of this determination is equal to or less than the threshold value and the end point of the object overlaps the broken line 823 indicating the area of the capture button 503 in FIG. 8B, a touch is made on the coordinate position of the pixel. Judge as having been done.

情報処理装置101は、上述の方法で得たタッチ判定結果に基づいて、投影面に投影されているGUIへの操作を検知することができる。   The information processing apparatus 101 can detect an operation on the GUI projected on the projection plane based on the touch determination result obtained by the above-described method.

次に、本実施例における、投影領域104と、キャプチャ領域901、カメラ202の撮影領域402、デプスセンサ204の3次元形状測定領域403の関係について説明する。図9は、本実施例におけるこれらの領域の関係を示す模式図である。   Next, the relationship between the projection area 104, the capture area 901, the imaging area 402 of the camera 202, and the three-dimensional shape measurement area 403 of the depth sensor 204 in this embodiment will be described. FIG. 9 is a schematic diagram showing the relationship between these regions in the present embodiment.

実施例1とは異なり、図9に示すように、キャプチャ領域901は、投影領域104の部分領域である。   Unlike the first embodiment, the capture area 901 is a partial area of the projection area 104 as shown in FIG.

次に、本実施例における、会議システムに用いられる机上にプロジェクタ203により投影される画像に含まれる操作メニュー1000について説明する。   Next, the operation menu 1000 included in the image projected by the projector 203 on the desk used in the conference system in the present embodiment will be described.

図10は、投影領域104に投影される画像に含まれる操作メニュー1000を示す図である。   FIG. 10 is a diagram showing an operation menu 1000 included in an image projected on the projection area 104.

操作メニュー1000は、図10に示すとおり、キャプチャ領域901の上部に常時表示されている。操作メニュー1000は、開くボタン1001、キャプチャボタン1002、及び終了ボタン1003を含む。   The operation menu 1000 is always displayed at the top of the capture area 901 as shown in FIG. The operation menu 1000 includes an open button 1001, a capture button 1002, and an end button 1003.

開くボタン1001、キャプチャボタン1002、及び終了ボタン1003へのタッチがあった場合、夫々図5の開くボタン502、キャプチャボタン503、終了ボタン504へのタッチがあった場合と同様の処理がCPU502により実行される。   When the open button 1001, the capture button 1002, and the end button 1003 are touched, the CPU 502 executes the same processing as when the open button 502, the capture button 503, and the end button 504 in FIG. Is done.

本実施例における、情報処理装置101の制御は、実施例1において、図6および図7を用いて説明した処理と同様である。尚、ステップS603では、CPU302は、ユーザによりキャプチャ操作指示が成されたか否かを判定するが、キャプチャボタン503へのタッチ判定は、上述のようにデプスセンサ204を用いて取得した距離画像を用いて行う。そして、ステップS721では、ステップS603でタッチ判定に用いた距離画像を参照するようにしてもよい。また、実施例1では、ステップS707で操作メニュー500を非表示としているが、本実施例では操作メニュー1000は常時表示されるためステップS707の処理は行わずステップS704から直接ステップS708に進む。尚、実施例1においても、操作メニュー500の代わりに操作メニュー1000がステップS602の処理で表示されるようにしてもよい。この場合、実施例1においても同様にステップS707の処理は行わずステップS704から直接ステップS708に進む。   The control of the information processing apparatus 101 in this embodiment is the same as the processing described in the first embodiment with reference to FIGS. 6 and 7. In step S603, the CPU 302 determines whether or not a capture operation instruction has been issued by the user. The touch determination on the capture button 503 is performed using the distance image acquired using the depth sensor 204 as described above. Do. In step S721, the distance image used in the touch determination in step S603 may be referred to. In the first embodiment, the operation menu 500 is not displayed in step S707. However, in this embodiment, since the operation menu 1000 is always displayed, the process proceeds to step S708 directly from step S704 without performing the process in step S707. In the first embodiment, instead of the operation menu 500, the operation menu 1000 may be displayed in the process of step S602. In this case, similarly in the first embodiment, the process of step S707 is not performed, and the process proceeds directly from step S704 to step S708.

以上説明したように、キャプチャの操作指示手段とユーザとの間にキャプチャ領域が存在する場合にも、キャプチャの操作指示手段に対して操作指示を行ったユーザの手などの物体が、キャプチャ画像に写り込むことを低減することができる。一方で、指し示しや物の把持などを行うユーザの手は、撮影画像に含めることができる。   As described above, even when a capture area exists between the capture operation instruction means and the user, an object such as a user's hand that has made an operation instruction to the capture operation instruction means is captured in the captured image. Reflection can be reduced. On the other hand, a user's hand that points or grips an object can be included in the captured image.

(実施例3)
本実施例では、キャプチャボタン503へのタッチを検出してから実際にカメラ202により撮影領域が撮影されキャプチャが実施されるまでの間の、会議システムの画面の表示制御について説明する。実施例1との差分のみ説明する。
Example 3
In the present embodiment, display control of the screen of the conference system from when the touch to the capture button 503 is detected until the shooting region is actually shot by the camera 202 and captured will be described. Only differences from the first embodiment will be described.

会議システムに用いられる机上にプロジェクタ203により投影される画像は、図5に示したとおりである。加えて、本実施例では、キャプチャボタン503へのタッチを検出し、キャプチャの操作指示が成されたと判定すると、キャプチャの操作指示を行ったユーザの手やペンなどの物体の位置に応じて画面の表示態様を変化させる。本実施例では、キャプチャの操作指示を行った物体がキャプチャボタン503から離れるに従って、徐々に透明に表示されるよう、操作メニュー500の表示透過度を決定する。これによって、キャプチャの操作指示を行ったユーザの手やペンなどの物体が、キャプチャ領域401外へと移動することに伴ってキャプチャが実行されることを示唆する。当該表示透過度の決定方法の例を説明する。   An image projected by the projector 203 on a desk used in the conference system is as shown in FIG. In addition, in this embodiment, when a touch on the capture button 503 is detected and it is determined that a capture operation instruction has been made, the screen is displayed according to the position of an object such as a user's hand or pen that has performed the capture operation instruction. The display mode of is changed. In this embodiment, the display transparency of the operation menu 500 is determined so that the object for which the capture operation instruction has been issued is gradually displayed as the object moves away from the capture button 503. This suggests that the capture is executed when an object such as a user's hand or pen that has issued the capture operation instruction moves out of the capture area 401. An example of a method for determining the display transparency will be described.

図11は、本実施例に係る画面の表示態様の決定方法を説明する模式図である。ここでは、ユーザがキャプチャボタン503をタッチした後、手をキャプチャ領域401の外へ移動させている。   FIG. 11 is a schematic diagram illustrating a method for determining the display mode of the screen according to the present embodiment. Here, after the user touches the capture button 503, the hand is moved out of the capture area 401.

投影座標系におけるキャプチャ操作指示を行った物体の端点座標は、実施例1において、図8(c)を用いて説明した方法によって求めることができる。   The end point coordinates of the object for which the capture operation instruction is given in the projection coordinate system can be obtained by the method described with reference to FIG.

本実施例では、ユーザは、破線1101の線分に沿って手を移動させている。ここで、破線1101は、キャプチャボタン503の領域の中心点1102から始まり、キャプチャ操作指示を行った物体の端点1103を通り、キャプチャ領域401の端辺と交差する点1104までの線分である。ここで、中心点1102と端点1103までの距離をD1、点1103と点1104の距離をD2とすると、操作メニュー500の表示透過度は以下の計算式により求められる。   In the present embodiment, the user moves his / her hand along the broken line 1101. Here, a broken line 1101 is a line segment that starts from the center point 1102 of the area of the capture button 503, passes through the end point 1103 of the object that has instructed the capture operation, and extends to a point 1104 that intersects the end side of the capture area 401. Here, if the distance between the center point 1102 and the end point 1103 is D1, and the distance between the point 1103 and the point 1104 is D2, the display transparency of the operation menu 500 is obtained by the following calculation formula.

表示透過度A=D1/(D1+D2)
これにより、操作メニュー500は、キャプチャ操作指示を行った物体の端点がキャプチャボタン503の領域の中心点に近いほど不透明に表示され、離れるほど透明に表示される。
Display transparency A = D1 / (D1 + D2)
As a result, the operation menu 500 is displayed more opaque as the end point of the object for which the capture operation instruction has been issued is closer to the center point of the area of the capture button 503, and is displayed more transparent as it is further away.

なお、キャプチャ操作指示を行った物体がキャプチャ領域401外へと移動することに伴ってキャプチャが実行されることが示唆されるような他の方法によって表示透過度を算出してもよい。例えば、表示透過度A1、A2、A3を定義する(A1<A2<A3)。キャプチャボタン503がタッチされたら表示透過度をA1にする。そして、キャプチャ操作指示を行った物体の端点がキャプチャボタン503の領域外に至ったら、表示透過度をA2にする。さらに、キャプチャ操作指示を行った物体の端点が操作メニュー500の領域外に至ったら、表示透過度をA3にする。   It should be noted that the display transparency may be calculated by another method that suggests that the capture is executed as the object that has issued the capture operation instruction moves out of the capture area 401. For example, display transparency A1, A2, and A3 are defined (A1 <A2 <A3). When the capture button 503 is touched, the display transparency is set to A1. Then, when the end point of the object for which the capture operation instruction has been issued reaches outside the area of the capture button 503, the display transparency is set to A2. Further, when the end point of the object for which the capture operation instruction has been issued reaches the area outside the operation menu 500, the display transparency is set to A3.

次に、本実施例における、情報処理装置101の制御を説明する。実施例1との差分のみ説明する。   Next, control of the information processing apparatus 101 in the present embodiment will be described. Only differences from the first embodiment will be described.

図12は、本実施例に係る図6のステップS604のキャプチャ処理の手順を示すフローチャートである。   FIG. 12 is a flowchart illustrating the procedure of the capture process in step S604 of FIG. 6 according to the present embodiment.

図12において、ステップS701からステップS710は、図7(a)の同符号のステップと同様である。   In FIG. 12, step S701 to step S710 are the same as the step with the same sign in FIG.

ステップS1201では、CPU302は、操作メニュー500の表示透過度を算出する。当該表示透過度は、ステップS705で取得した物体画像800a内の物体であってステップS706で追跡・特定したキャプチャ操作指示を行った物体に対して、前述の方法を適用することで算出することができる。   In step S1201, the CPU 302 calculates the display transparency of the operation menu 500. The display transparency can be calculated by applying the above-described method to the object in the object image 800a acquired in step S705 and for which the capture operation instruction is tracked and specified in step S706. it can.

ステップS1202では、CPU302は、ディスプレイコントローラ308及びプロジェクタ203を制御して、ステップS1201で計算した表示透過度となるよう、操作メニュー500の表示を更新する。   In step S1202, the CPU 302 controls the display controller 308 and the projector 203 to update the display of the operation menu 500 so that the display transparency calculated in step S1201 is obtained.

なお、本実施例では、実施例1の操作メニュー500を例に説明したが、実施例2の操作メニュー1000の形態においても適用することができる。この場合、ステップS1202では、CPU302は、操作メニュー1000の表示を更新する。   In the present embodiment, the operation menu 500 according to the first embodiment has been described as an example, but the present invention can also be applied to the operation menu 1000 according to the second embodiment. In this case, in step S1202, the CPU 302 updates the display of the operation menu 1000.

また、本実施例では、キャプチャボタン503を含む操作メニュー500の透過度を決定し会議システムの画面の表示を更新したが、キャプチャボタン503のみに適用してもよい。   In this embodiment, the transparency of the operation menu 500 including the capture button 503 is determined and the screen display of the conference system is updated. However, the present invention may be applied only to the capture button 503.

以上説明したように、本発明によれば、キャプチャの操作指示を行った物体が、キャプチャ対象の領域の外部に移動してから撮影を行う際に、当該物体の移動に伴い撮影が行われることを示唆するよう、画面を表示することができる。   As described above, according to the present invention, when an object for which a capture operation instruction has been performed moves outside the area to be captured and is shot, shooting is performed as the object moves. A screen can be displayed to suggest.

(実施例4)
本実施例では、キャプチャ操作指示手段が、情報処理装置101のハードウェアとして物理的に設けられる場合について説明する。実施例1との差分のみ説明する。
(Example 4)
In the present embodiment, a case where the capture operation instruction unit is physically provided as hardware of the information processing apparatus 101 will be described. Only differences from the first embodiment will be described.

図13は、本実施例に係る情報処理装置101を含む会議システムの外観図である。図13の情報処理装置101は、図1(a)と同様の構成を有するが、外装が装着されている。   FIG. 13 is an external view of a conference system including the information processing apparatus 101 according to the present embodiment. The information processing apparatus 101 in FIG. 13 has the same configuration as that in FIG.

キャプチャボタン1301は、キャプチャ領域401外(対象領域外)に配される、情報処理装置101のハードウェアボタンであり、押下することにより、机上面の内容をキャプチャして画像として保存することができる。本実施例では、キャプチャボタン1301とキャプチャボタン503との両方からキャプチャの操作指示を行うことができる。   A capture button 1301 is a hardware button of the information processing apparatus 101 arranged outside the capture area 401 (outside the target area). When pressed, the capture button 1301 can capture the contents on the desk surface and save it as an image. . In this embodiment, a capture operation instruction can be issued from both the capture button 1301 and the capture button 503.

次に、本実施例における情報処理装置101の制御について説明する。   Next, control of the information processing apparatus 101 in the present embodiment will be described.

図14は、本実施例における情報処理装置101の制御処理の手順を示すフローチャートである。ステップS601からステップS609は、図6の同符号のステップと同様である。   FIG. 14 is a flowchart illustrating a control processing procedure of the information processing apparatus 101 according to the present exemplary embodiment. Steps S601 to S609 are the same as steps with the same reference numerals in FIG.

ステップS1401では、CPU302は、キャプチャボタン1301が押下されたか否かを判定する。ユーザがキャプチャボタン1301を押下していれば、処理をステップS1402へ進める。   In step S1401, the CPU 302 determines whether the capture button 1301 has been pressed. If the user has pressed capture button 1301, the process advances to step S1402.

ステップS1402では、CPU302は、キャプチャ処理を行う。本ステップはステップS604と同様である。   In step S1402, the CPU 302 performs capture processing. This step is the same as step S604.

次に、図15のフローチャートを用いて、図14のステップS604,S1402のキャプチャ処理について説明する。ステップS701からステップS710は、図7(a)の同符号のステップと同様である。   Next, the capture processing in steps S604 and S1402 in FIG. 14 will be described using the flowchart in FIG. Steps S701 to S710 are the same as the steps denoted by the same reference numerals in FIG.

ステップS1501では、CPU302は、本処理がキャプチャボタン1301が押下されて実行されたのか否かを判定する。ユーザがキャプチャボタン1301を押下していれば、処理をステップS1502に進める。そうでなければ(すなわち、ユーザがキャプチャボタン503をタッチしていれば)、処理をステップS703に進める。   In step S <b> 1501, the CPU 302 determines whether this process has been executed by pressing the capture button 1301. If the user has pressed capture button 1301, the process advances to step S1502. Otherwise (that is, if the user has touched the capture button 503), the process proceeds to step S703.

ステップS1502では、CPU302は、キャプチャボタン1301を押下して、キャプチャ操作指示を行った物体を推定して特定する。図16は、ユーザがキャプチャボタン1301を押下した際に、デプスセンサ204により取得した距離画像1600と、当該距離画像1600の破線部分を射影変換した物体画像1620の例である。物体1601は、キャプチャボタン1301を押下するユーザの手である。また、物体1602は、投影領域104に投影された電子資料を指差すユーザの手である。情報処理装置101は、デプスセンサ204により机上面の3次元形状測定を行うことができるが、自機に具備されたキャプチャボタン1301近傍は画角に収まらず、計測することができない。このため、キャプチャボタン1301を押下した物体を推定する必要がある。ここでは、物体画像1620内の物体のうち、物体画像1620の上端辺(情報処理装置101の側の辺)と、上端辺以外の他の辺のうちの一辺とに交差する物体を、キャプチャボタン1301を押下した物体として推定する。   In step S1502, the CPU 302 depresses the capture button 1301, and estimates and specifies the object for which the capture operation instruction has been issued. FIG. 16 shows an example of a distance image 1600 acquired by the depth sensor 204 when the user presses the capture button 1301 and an object image 1620 obtained by projective transformation of a broken line portion of the distance image 1600. An object 1601 is a user's hand pressing the capture button 1301. An object 1602 is a user's hand pointing at the electronic material projected on the projection area 104. The information processing apparatus 101 can measure the three-dimensional shape of the desk top surface with the depth sensor 204, but the vicinity of the capture button 1301 provided in the apparatus does not fall within the angle of view and cannot be measured. For this reason, it is necessary to estimate an object for which the capture button 1301 is pressed. Here, among the objects in the object image 1620, an object that intersects the upper end side of the object image 1620 (the side on the information processing apparatus 101 side) and one of the other sides other than the upper end side is captured by the capture button. 1301 is estimated as the pressed object.

以上説明したように、本発明は、キャプチャの操作指示手段が、情報処理装置のハードウェアとして物理的に設けられた場合にも適用することができる。   As described above, the present invention can also be applied to the case where the capture operation instruction means is physically provided as hardware of the information processing apparatus.

また、本発明の目的は、以下の処理を実行することによっても達成される。即ち、上述した実施例の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)が記憶媒体に格納されたプログラムコードを読み出す処理である。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施の形態の機能を実現することになり、そのプログラムコード及び該プログラムコードを記憶した記憶媒体は本発明を構成することになる。   The object of the present invention can also be achieved by executing the following processing. That is, a storage medium that records a program code of software that implements the functions of the above-described embodiments is supplied to a system or apparatus, and a computer (or CPU, MPU, etc.) of the system or apparatus is stored in the storage medium. This is the process of reading the code. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the program code and the storage medium storing the program code constitute the present invention.

101 情報処理装置
202 カメラ
203 プロジェクタ
204 デプスセンサ
205 タッチマット
301 制御部
401 キャプチャ領域
402 撮影領域
403 3次元形状測定領域
500 操作メニュー
DESCRIPTION OF SYMBOLS 101 Information processing apparatus 202 Camera 203 Projector 204 Depth sensor 205 Touch mat 301 Control part 401 Capture area 402 Shooting area 403 Three-dimensional shape measurement area 500 Operation menu

Claims (13)

机上面の対象領域に画像を表示する表示手段と、
前記画像を撮影してキャプチャ画像を生成するキャプチャ手段と、
ユーザにより操作される物体によるキャプチャボタンへのタッチの有無を検出する検出手段と、
前記検出手段により前記タッチが有ったことが検出されたときに、前記物体を特定する特定手段と、
前記特定手段により特定された前記物体が前記対象領域内にあるか否かを判定する判定手段とを備え、
前記キャプチャ手段は前記判定手段により前記物体が前記対象領域内にないと判定された場合に前記キャプチャ画像を生成することを特徴とする情報処理装置。
Display means for displaying an image in a target area on the desk surface;
Capture means for capturing the image and generating a capture image;
Detecting means for detecting whether or not the capture button is touched by an object operated by a user;
A specifying means for specifying the object when the detection means detects that the touch is present;
Determining means for determining whether the object specified by the specifying means is within the target area;
The information processing apparatus according to claim 1, wherein the capture unit generates the capture image when the determination unit determines that the object is not in the target area.
前記キャプチャボタンは前記表示される画像に含まれ、
前記判定手段により前記物体が前記対象領域内にないと判定された場合、前記画像において前記キャプチャボタンを非表示とする表示制御手段をさらに備え、
前記キャプチャ手段は、前記キャプチャボタンが非表示となった後、前記画像を撮影することを特徴とする請求項1記載の情報処理装置。
The capture button is included in the displayed image,
When the determination unit determines that the object is not in the target area, the display unit further includes a display control unit that hides the capture button in the image,
The information processing apparatus according to claim 1, wherein the capture unit captures the image after the capture button is hidden.
前記キャプチャボタンは前記表示される画像に含まれ、
前記キャプチャボタンと前記ユーザとの間に前記対象領域のうち前記キャプチャ画像となる画像が表示される領域が存在することを特徴とする請求項1記載の情報処理装置。
The capture button is included in the displayed image,
The information processing apparatus according to claim 1, wherein an area in which an image to be the captured image is displayed exists in the target area between the capture button and the user.
前記特定手段は、前記対象領域に対する第1の物体画像を生成する第1の生成手段を備え、前記第1の物体画像に基づいて前記物体を特定することを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。   4. The apparatus according to claim 1, wherein the specifying unit includes a first generation unit that generates a first object image for the target region, and specifies the object based on the first object image. 5. The information processing apparatus according to any one of claims. 前記判定手段により前記物体が前記対象領域内にあると判定された場合、前記物体を追跡する追跡手段を更に備えることを特徴とする請求項4記載の情報処理装置。   The information processing apparatus according to claim 4, further comprising: a tracking unit that tracks the object when the determination unit determines that the object is within the target region. 前記第1の物体画像及び前記特定手段による特定結果を保持する保持手段を更に備え、
前記追跡手段は、前記対象領域に対する第2の物体画像を生成する第2の生成手段を備え、前記生成された第2の物体画像に含まれる物体のうち、前記第1の物体画像に含まれる前記特定結果により特定される前記物体との重なり具体の最も高い物体を、前記追跡される物体として特定することを特徴とする請求項5記載の情報処理装置。
A holding means for holding the first object image and the specifying result by the specifying means;
The tracking unit includes a second generation unit that generates a second object image for the target region, and is included in the first object image among objects included in the generated second object image. The information processing apparatus according to claim 5, wherein an object that overlaps with the object specified by the specifying result is specified as the tracked object.
前記検出手段により前記タッチが有ったことが検出されてから前記キャプチャ手段により前記キャプチャ画像が生成されるまでの間は前記検出手段が設けられている領域と前記追跡手段により位置が追跡された前記物体の間の距離に応じて前記キャプチャボタンの表示態様を決定する決定手段をさらに備えることを特徴とする請求項5又は6記載の情報処理装置。   Between the detection of the touch by the detection means and the generation of the captured image by the capture means, the position was tracked by the area where the detection means was provided and the tracking means. The information processing apparatus according to claim 5, further comprising a determining unit that determines a display mode of the capture button according to a distance between the objects. 前記表示態様は、表示透過度であることを特徴とする請求項7記載の情報処理装置。   The information processing apparatus according to claim 7, wherein the display mode is display transparency. 前記検出手段は前記対象領域内に設けられるタッチマットであることを特徴とする請求項1乃至8のいずれか1項に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the detection unit is a touch mat provided in the target area. 前記検出手段は、前記対象領域に対する第3の物体画像を生成する第3の生成手段を備え、前記第3の物体画像に含まれる物体の端点の距離値が閾値以下であって、当該物体の位置が前記キャプチャボタンと重なる場合、前記タッチが有ったことを検出することを特徴とする請求項1乃至8のいずれか1項に記載の情報処理装置。   The detection means includes third generation means for generating a third object image for the target region, and a distance value of an end point of the object included in the third object image is equal to or less than a threshold value, The information processing apparatus according to claim 1, wherein when the position overlaps the capture button, the touch is detected. 前記検出手段は前記対象領域外に物理的に設けられるボタンであることを特徴とする請求項1乃至8のいずれか1項に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the detection unit is a button physically provided outside the target area. 机上面の対象領域に画像を表示する表示ステップと、
前記画像を撮影してキャプチャ画像を生成するキャプチャステップと、
ユーザにより操作される物体によるキャプチャボタンへのタッチの有無を検出する検出ステップと、
前記検出ステップにおいて前記タッチが有ったことが検出されたときに、前記物体を特定する特定ステップと、
前記特定ステップにおいて特定された前記物体が前記対象領域内にあるか否かを判定する判定ステップとを有し、
前記キャプチャステップは前記判定ステップにおいて前記物体が前記対象領域内にないと判定された場合に前記キャプチャ画像を生成することを特徴とする制御方法。
A display step for displaying an image in a target area on the desk surface;
A capture step of capturing the image and generating a capture image;
A detection step of detecting whether or not the capture button is touched by an object operated by a user;
A specifying step of specifying the object when it is detected in the detecting step that the touch is present;
A determination step of determining whether or not the object specified in the specifying step is within the target region,
The control method characterized in that the capture step generates the capture image when it is determined in the determination step that the object is not within the target region.
請求項12記載の制御方法を実行することを特徴とするプログラム。   A program for executing the control method according to claim 12.
JP2017091310A 2017-05-01 2017-05-01 Information processing apparatus, control method therefor, and program Pending JP2018190144A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017091310A JP2018190144A (en) 2017-05-01 2017-05-01 Information processing apparatus, control method therefor, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017091310A JP2018190144A (en) 2017-05-01 2017-05-01 Information processing apparatus, control method therefor, and program

Publications (1)

Publication Number Publication Date
JP2018190144A true JP2018190144A (en) 2018-11-29

Family

ID=64480022

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017091310A Pending JP2018190144A (en) 2017-05-01 2017-05-01 Information processing apparatus, control method therefor, and program

Country Status (1)

Country Link
JP (1) JP2018190144A (en)

Similar Documents

Publication Publication Date Title
US8358872B2 (en) Information-inputting device inputting contact point of object on recording surface as information
JP6327931B2 (en) Image processing apparatus, information processing method, and program
JP6075122B2 (en) System, image projection apparatus, information processing apparatus, information processing method, and program
JP6955369B2 (en) Information processing equipment, control methods and programs for information processing equipment
JP6723814B2 (en) Information processing apparatus, control method thereof, program, and storage medium
JP6028589B2 (en) Input program, input device, and input method
JPWO2018150569A1 (en) Gesture recognition device, gesture recognition method, projector including gesture recognition device, and video signal supply device
JP6127465B2 (en) Information processing apparatus, information processing system, and program
JP2005267257A (en) Handwritten information input system
JP6207211B2 (en) Information processing apparatus and control method thereof
JP2018190144A (en) Information processing apparatus, control method therefor, and program
JP6632298B2 (en) Information processing apparatus, information processing method and program
JP6643825B2 (en) Apparatus and method
JP6187547B2 (en) Information processing apparatus, control method and program thereof, and information processing system, control method and program thereof
JP6478641B2 (en) Image processing apparatus, information processing method, and program
JP3474772B2 (en) Sensor calibration method and device, and recording medium recording sensor calibration program
JP2017199288A (en) Image processing device, image processing method and program
JP2021049262A (en) Image processing system and method for controlling the same
JP2021049248A (en) Image processing system and method for controlling the same
JP6624861B2 (en) Image processing apparatus, control method, and program
JP6705988B2 (en) Information processing system, control method thereof, and program
JP2018191258A (en) Image reading device, image reading method, and program
JP2016224888A (en) Information processing apparatus, coordinate estimation program, and coordinate estimation method
JP6203070B2 (en) Scanning system, control method therefor, and program
JP2017033389A (en) Image processing device, image reading method, computer program, and storage medium