JP2015219548A - Device control system, device control program, and device control apparatus - Google Patents

Device control system, device control program, and device control apparatus Download PDF

Info

Publication number
JP2015219548A
JP2015219548A JP2014100190A JP2014100190A JP2015219548A JP 2015219548 A JP2015219548 A JP 2015219548A JP 2014100190 A JP2014100190 A JP 2014100190A JP 2014100190 A JP2014100190 A JP 2014100190A JP 2015219548 A JP2015219548 A JP 2015219548A
Authority
JP
Japan
Prior art keywords
camera
image
irradiation point
region
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014100190A
Other languages
Japanese (ja)
Inventor
雄大 今道
Takehiro Imamichi
雄大 今道
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2014100190A priority Critical patent/JP2015219548A/en
Publication of JP2015219548A publication Critical patent/JP2015219548A/en
Pending legal-status Critical Current

Links

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a device control mechanism with high practicability and with future potential.SOLUTION: A device control system comprises: a camera for photographing a predetermined real space; and an information processor for processing an image photographed by the camera. The information processor includes: device area control means for controlling an area of a device on the image photographed by the camera; device removal means for extracting an area to be a candidate for a device from the image photographed by the camera and for removing association between an area, which is found among areas associated with the device, and user interface information of the device; irradiation point detection means for detecting an irradiation point indicated by a laser pointer from the image photographed by the camera; operation detection means for detecting a predetermined operation from behavior of the irradiation point in the area of the device; and device control means for appropriately controlling the device in accordance with the detected operation.

Description

本発明は、機器を制御する技術に関する。   The present invention relates to a technique for controlling a device.

深度カメラによるモーションセンサを用いた、ジェスチャによるユーザインタフェース(UI)が知られており(例えば、特許文献1等を参照。)、これらのジェスチャによるユーザインタフェースを実際の機器等のデバイスの制御に応用する研究も種々行われている。   There are known user interfaces (UI) by gestures using a motion sensor by a depth camera (see, for example, Patent Document 1), and the user interfaces by these gestures are applied to control devices such as actual devices. Various studies have been conducted.

上述したジェスチャによるユーザインタフェースは、手や体の動きだけで操作を行うことができる点で有利である。しかし、テレビや照明機器等の実際のデバイスのユーザインタフェースとして用いようとすると、手や体の動きに起因して、細かい精度が出せなかったり、誤認識が多かったりして、実用性のあるユーザインタフェースとしては課題が多い。   The above-described user interface using gestures is advantageous in that operations can be performed only with movements of hands and bodies. However, if you try to use it as a user interface for an actual device such as a TV or a lighting device, you may not be able to get a fine accuracy due to the movement of your hands or body, or there may be a lot of misrecognitions. There are many problems as an interface.

また、ジェスチャによるユーザインタフェースは、デバイスに向かってジェスチャを行うユーザの姿態を撮影する必要から、デバイス側にセンサを設けるものであるため、デバイス側にセンサを設置することが困難な場合には適用が困難であった。更に、複数のデバイスの制御を行う場合、デバイスのそれぞれにセンサが必要となり、コスト的にも適用が困難であった。   In addition, the user interface by gesture is applied when the sensor is installed on the device side because it is necessary to capture the user's appearance toward the device, so the sensor is provided on the device side. It was difficult. Further, when controlling a plurality of devices, a sensor is required for each of the devices, which is difficult to apply in terms of cost.

本発明は上記の従来の問題点に鑑み提案されたものであり、その目的とするところは、未来感のある実用性の高い機器制御の仕組を提供することにある。   The present invention has been proposed in view of the above-described conventional problems, and an object of the present invention is to provide a highly practical device control mechanism with a sense of future.

上記の課題を解決するため、本発明にあっては、所定のリアル空間を撮影するカメラと、前記カメラの撮影画像を処理する情報処理装置とを備え、前記情報処理装置は、前記カメラの撮影画像上のデバイスの領域を管理するデバイス領域管理手段と、前記カメラの撮影画像からデバイスの候補となる領域を抽出し、デバイスに対応付けられている領域のうち発見できなかった領域について当該領域とデバイスのユーザインタフェース情報との対応付けを削除するデバイス除去手段と、前記カメラの撮影画像からレーザポインタによる照射点を検出する照射点検出手段と、前記照射点の前記デバイスの領域での振る舞いから所定の操作を検出する操作検出手段と、検出した操作に応じて該当する前記デバイスの制御を行うデバイス制御手段とを備える。   In order to solve the above-described problems, the present invention includes a camera that captures a predetermined real space and an information processing device that processes a captured image of the camera, and the information processing device captures the camera. A device region management unit that manages a device region on the image; and a region that is a candidate for the device is extracted from the captured image of the camera, and the region that is not found among the regions associated with the device Device removal means for deleting the association with the user interface information of the device, irradiation point detection means for detecting the irradiation point by the laser pointer from the photographed image of the camera, and predetermined behavior from the behavior of the irradiation point in the device area An operation detection means for detecting the operation of the device, and a device control means for controlling the device corresponding to the detected operation. Obtain.

本発明にあっては、未来感のある実用性の高い機器制御の仕組を提供することができる。   In the present invention, it is possible to provide a highly practical device control mechanism with a sense of future.

本発明の一実施形態にかかるシステムの構成例を示す図である。It is a figure which shows the structural example of the system concerning one Embodiment of this invention. 各装置の内部構成例を示す図である。It is a figure which shows the internal structural example of each apparatus. 処理に用いる情報の例を示す図である。It is a figure which shows the example of the information used for a process. 実施形態の処理例を示すシーケンス図である。It is a sequence diagram which shows the process example of embodiment. レーザポインタによるデバイスの操作の例を示す図(その1)である。It is FIG. (1) which shows the example of operation of the device by a laser pointer. レーザポインタによるデバイスの操作の例を示す図(その2)である。FIG. 10 is a second diagram illustrating an example of device operation by a laser pointer; 実施形態のより詳細な処理例を示すフローチャートである。It is a flowchart which shows the more detailed process example of embodiment. 変換用パターンの例を示す図である。It is a figure which shows the example of the pattern for conversion. デバイス追加処理の例を示すフローチャートである。It is a flowchart which shows the example of a device addition process. デバイス除去処理の例を示すフローチャートである。It is a flowchart which shows the example of a device removal process.

以下、本発明の好適な実施形態につき説明する。   Hereinafter, preferred embodiments of the present invention will be described.

<構成>
図1は本発明の一実施形態にかかるシステムの構成例を示す図である。図1において、テレビや家具等が配置された室内等のリアル空間1には、PC(Personal Computer)等の情報処理装置2と、映像の投影を行うプロジェクタ3と、撮影を行うカメラ4とが設けられ、プロジェクタ3とカメラ4は情報処理装置2に接続されている。プロジェクタ3はリアル空間1の所定範囲に映像の投影を行うように配置され、カメラ4はプロジェクタ3の投影範囲を撮影するように配置される。また、情報処理装置2はネットワーク6を介してサーバ7に接続されている。更に、情報処理装置2は、直接に、またはネットワーク6を介して、テレビ等のデバイス11に接続されている。なお、情報処理装置2とデバイス11との接続形態は有線・無線を問わない。そして、利用者はレーザポインタ5によりリアル空間1に光線を照射してポインティング操作を行うことで、リアル空間1に配置されたデバイス11の制御を行うことができる。
<Configuration>
FIG. 1 is a diagram showing a configuration example of a system according to an embodiment of the present invention. In FIG. 1, an information processing device 2 such as a PC (Personal Computer), a projector 3 for projecting an image, and a camera 4 for photographing are provided in a real space 1 such as a room where a TV, furniture, and the like are arranged. The projector 3 and the camera 4 are connected to the information processing apparatus 2. The projector 3 is disposed so as to project an image within a predetermined range of the real space 1, and the camera 4 is disposed so as to photograph the projection range of the projector 3. In addition, the information processing apparatus 2 is connected to the server 7 via the network 6. Furthermore, the information processing apparatus 2 is connected to a device 11 such as a television directly or via the network 6. The connection form between the information processing apparatus 2 and the device 11 may be wired or wireless. The user can control the device 11 disposed in the real space 1 by irradiating the real space 1 with a light beam by the laser pointer 5 and performing a pointing operation.

図2は各装置の内部構成例を示す図である。図2において、情報処理装置2は、統括制御部201と撮影制御部202と変換用パターン出力部203と映像信号伝送部204と映像信号入力部205と変換係数演算部206と照射点検出部207と変換処理部208とデバイス設定部209と通信部210と操作判定部211とUI画像生成部212とデバイス制御部213とを備えている。各部は主にコンピュータのハードウェアとその上で実行されるコンピュータプログラムにより実現される。   FIG. 2 is a diagram illustrating an internal configuration example of each apparatus. In FIG. 2, the information processing apparatus 2 includes an overall control unit 201, an imaging control unit 202, a conversion pattern output unit 203, a video signal transmission unit 204, a video signal input unit 205, a conversion coefficient calculation unit 206, and an irradiation point detection unit 207. A conversion processing unit 208, a device setting unit 209, a communication unit 210, an operation determination unit 211, a UI image generation unit 212, and a device control unit 213. Each unit is realized mainly by computer hardware and a computer program executed on the computer hardware.

プロジェクタ3は、映像信号入力部301と映像処理部302と駆動制御部303とランプ電源304とランプ305とモータ306とカラーホイール307と画像形成部308と同期信号出力部309とを備えている。ランプ電源304、ランプ305、モータ306およびカラーホイール307を除いた各部は主にコンピュータのハードウェアとその上で実行されるコンピュータプログラムにより実現される。なお、レンズやミラー等の光学系については図示を省略している。   The projector 3 includes a video signal input unit 301, a video processing unit 302, a drive control unit 303, a lamp power source 304, a lamp 305, a motor 306, a color wheel 307, an image forming unit 308, and a synchronization signal output unit 309. Each unit excluding the lamp power supply 304, the lamp 305, the motor 306, and the color wheel 307 is mainly realized by computer hardware and a computer program executed thereon. Note that illustration of optical systems such as lenses and mirrors is omitted.

情報処理装置2の統括制御部201は、情報処理装置2における処理の全体的な制御を行う機能を有している。   The overall control unit 201 of the information processing apparatus 2 has a function of performing overall control of processing in the information processing apparatus 2.

撮影制御部202は、プロジェクタ3の同期信号出力部309から同期信号を入力し、カメラ4に対して撮影期間の制御を行う機能を有している。ここで、同期信号は、レーザポインタ5(図1)の発光色がプロジェクタ3から投影される光色と被らないようにし、レーザポインタ5の照射点の検出ができなくなるのを防止するためのものである。より具体的には、プロジェクタ3の画像形成部308が1つのDMD(Digital Micromirror Device)素子で構成され、カラー映像の投影にカラーホイール307が用いられる場合には、レーザポインタ5の発光色と、カラーホイール307の回転位置の色とが被らない期間を同期信号は示す。プロジェクタ3の画像形成部308がLCD(Liquid Crystal Display)素子で構成される場合には、フレーム単位等に映像を投影しない期間を同期信号は示す。   The shooting control unit 202 has a function of inputting a synchronization signal from the synchronization signal output unit 309 of the projector 3 and controlling the shooting period for the camera 4. Here, the synchronization signal prevents the emission color of the laser pointer 5 (FIG. 1) from covering the light color projected from the projector 3 and prevents the irradiation point of the laser pointer 5 from being detected. Is. More specifically, when the image forming unit 308 of the projector 3 is configured by one DMD (Digital Micromirror Device) element and the color wheel 307 is used for projecting a color image, the emission color of the laser pointer 5 and The synchronization signal indicates a period in which the color at the rotational position of the color wheel 307 is not covered. When the image forming unit 308 of the projector 3 is configured by an LCD (Liquid Crystal Display) element, the synchronization signal indicates a period during which no image is projected in units of frames.

変換用パターン出力部203は、初期設定モードにおいて、プロジェクタ3から投影する変換用パターンを出力する機能を有している。変換用パターンは、プロジェクタ3により投影する映像の画素位置と、カメラ4により撮影されたリアル空間1の映像の画素位置とを、射影変換により一致させるための変換係数(行列値)を算出するために用いられる。   The conversion pattern output unit 203 has a function of outputting a conversion pattern to be projected from the projector 3 in the initial setting mode. The conversion pattern calculates a conversion coefficient (matrix value) for matching the pixel position of the image projected by the projector 3 and the pixel position of the image of the real space 1 captured by the camera 4 by projective transformation. Used for.

映像信号伝送部204は、プロジェクタ3に対して映像信号を出力する機能を有している。より具体的には、初期設定モードにおいては変換用パターン出力部203からの変換用パターンを出力し、通常モードにおいては全面黒画像の映像信号(UI画像を投影する場合にはUI画像生成部212の出力するUI画像を含む映像信号)を出力する。   The video signal transmission unit 204 has a function of outputting a video signal to the projector 3. More specifically, the conversion pattern is output from the conversion pattern output unit 203 in the initial setting mode, and the video signal of the entire black image (in the case of projecting a UI image, the UI image generation unit 212 in the normal mode). The video signal including the UI image to be output by is output.

映像信号入力部205は、カメラ4で撮影された映像信号を入力する機能を有している。   The video signal input unit 205 has a function of inputting a video signal captured by the camera 4.

変換係数演算部206は、初期設定モードにおいて、変換用パターンの撮影画像の画素位置を元の変換用パターン(投影画像)の画素位置に一致させる射影変換の変換係数を算出し、算出した変換係数を保持する機能を有している。すなわち、変換係数演算部206は、変換用パターン出力部203の出力する変換用パターンと映像信号入力部205の出力する映像信号の撮影画像に基づいて変換係数を算出し、算出した変換係数を保持する。   In the initial setting mode, the conversion coefficient calculation unit 206 calculates a conversion coefficient for projective conversion that matches the pixel position of the captured image of the conversion pattern with the pixel position of the original conversion pattern (projection image), and calculates the calculated conversion coefficient It has a function to hold. That is, the conversion coefficient calculation unit 206 calculates a conversion coefficient based on the conversion pattern output from the conversion pattern output unit 203 and the captured image of the video signal output from the video signal input unit 205, and holds the calculated conversion coefficient. To do.

照射点検出部207は、通常モードにおいて、映像信号入力部205の出力する映像信号の撮影画像から、レーザポインタ5による照射点を検出(撮影画像における照射点の座標値を検出)する機能を有している。   The irradiation point detection unit 207 has a function of detecting the irradiation point by the laser pointer 5 (detecting the coordinate value of the irradiation point in the captured image) from the captured image of the video signal output from the video signal input unit 205 in the normal mode. doing.

変換処理部208は、変換処理部208の検出した照射点の撮影画像における座標値を、変換係数演算部206の保持する変換係数に基づいて、投影画像における座標値に座標変換(射影変換)する機能を有している。   The conversion processing unit 208 performs coordinate conversion (projection conversion) of the coordinate value in the captured image of the irradiation point detected by the conversion processing unit 208 into the coordinate value in the projection image based on the conversion coefficient held by the conversion coefficient calculation unit 206. It has a function.

デバイス設定部209は、デバイス設定モードにおいて、レーザポインタ5による照射点の座標範囲と制御対象となる機器等のデバイス11のUI情報との関係を設定する機能を有している。すなわち、デバイス設定部209は、映像信号入力部205の出力する映像信号の画像からデバイス11の可能性のある物体の輪郭を抽出し、情報処理装置2のモニタやリアル空間1に表示し、更にデバイスの候補を表示して、利用者にデバイス11ひいてはUI情報との対応付けを行わせる。この際、デバイス設定部209は、抽出した輪郭(選択されなかった輪郭も含むが、削除されたデバイスにかかる輪郭は除くことが望ましい)の座標情報を内部的に保持する。また、デバイス設定部209は、UI情報が対応付けられた輪郭の座標情報を別に内部的に保持する。なお、利用者に撮影画像上でデバイスの輪郭座標を指定させた上でデバイス11ひいてはUI情報との対応付けを行わせるようにしてもよい。   The device setting unit 209 has a function of setting the relationship between the coordinate range of the irradiation point by the laser pointer 5 and the UI information of the device 11 such as a device to be controlled in the device setting mode. That is, the device setting unit 209 extracts the outline of a possible object of the device 11 from the image of the video signal output from the video signal input unit 205 and displays it on the monitor of the information processing apparatus 2 or the real space 1. The device candidates are displayed, and the user is made to associate the device 11 with the UI information. At this time, the device setting unit 209 internally holds the coordinate information of the extracted contour (including the contour that has not been selected, but it is desirable to exclude the contour related to the deleted device). In addition, the device setting unit 209 internally holds the coordinate information of the contour associated with the UI information. Note that the user may be allowed to designate the contour coordinates of the device on the photographed image and then associate the device 11 with the UI information.

また、デバイス設定部209は、通常モードにおいて、所定のタイミング(処理開始時や所定周期等)でカメラ4の撮影画像から新たなデバイスの候補となる領域を抽出し、抽出した領域とデバイスのUI情報とを対応付ける機能も有している。すなわち、デバイス設定部209は、映像信号入力部205の出力する映像信号の画像からデバイス11の可能性のある物体の輪郭を抽出し、内部的に保持している輪郭の座標情報と比較し、新たな輪郭であれば情報処理装置2のモニタやリアル空間1にデバイスの追加が必要となる可能性を表示し、更にデバイスの候補を表示して、利用者にデバイス11ひいてはUI情報との対応付けを行わせる。   In the normal mode, the device setting unit 209 extracts a new device candidate area from a captured image of the camera 4 at a predetermined timing (at the start of processing, a predetermined cycle, etc.), and extracts the extracted area and the device UI. It also has a function for associating information. That is, the device setting unit 209 extracts the contour of a possible object of the device 11 from the image of the video signal output from the video signal input unit 205, compares it with the coordinate information of the contour held internally, If it is a new outline, the possibility of adding a device to the monitor of the information processing apparatus 2 or the real space 1 is displayed, and further candidates for the device are displayed so that the user can respond to the device 11 and the UI information. Let them be attached.

また、デバイス設定部209は、通常モードにおいて、所定のタイミング(処理開始時や所定周期等)でカメラ4の撮影画像からデバイスの候補となる領域を抽出し、現時点でUI情報と対応付けられている領域が消失している場合には、領域とデバイスのUI情報との対応付けを削除する機能も有している。すなわち、デバイス設定部209は、映像信号入力部205の出力する映像信号の画像からデバイス11の可能性のある物体の輪郭を抽出し、内部的に保持している、UI情報が対応付けられた輪郭の座標情報と比較し、UI情報が対応付けられた輪郭の座標情報のうち存在しないものがあれば、対応するデバイスが除去されたものとして、領域とデバイスのUI情報との対応付けを削除する。   In the normal mode, the device setting unit 209 extracts a device candidate area from the captured image of the camera 4 at a predetermined timing (at the start of processing, a predetermined cycle, etc.), and is associated with the UI information at this time. When the existing area has disappeared, it also has a function of deleting the association between the area and the UI information of the device. That is, the device setting unit 209 extracts the contour of the object that may be the device 11 from the image of the video signal output from the video signal input unit 205, and is associated with the UI information that is internally held. Compared with the coordinate information of the contour, if there is no coordinate information of the contour associated with the UI information, the correspondence between the region and the UI information of the device is deleted assuming that the corresponding device is removed. To do.

通信部210は、外部とデータ通信を行う機能を有している。より具体的には、デバイス設定部209において該当するデバイス11のUI情報を保持していない場合に、ネットワーク6を介してサーバ7からUI情報を取得する。また、デバイス制御部213がネットワーク経由でデバイス11の制御を行う場合、デバイス11との通信を媒介する。   The communication unit 210 has a function of performing data communication with the outside. More specifically, when the device setting unit 209 does not hold the UI information of the corresponding device 11, the UI information is acquired from the server 7 via the network 6. Further, when the device control unit 213 controls the device 11 via the network, it mediates communication with the device 11.

操作判定部211は、レーザポインタ5による照射点がいずれかのデバイス11の座標範囲(領域)に入ったか否か、および、座標範囲に入ることで表示されるUIに所定の操作を行ったか否かを判定する機能を有している。所定の操作として判定されるためには、単に照射点が通過した場合に誤判定しないよう、領域内で照射点が所定の時間にわたって滞留する等の、所定の振る舞いが条件として与えられる。   The operation determination unit 211 determines whether or not the irradiation point by the laser pointer 5 has entered the coordinate range (area) of any device 11 and whether or not a predetermined operation has been performed on the UI displayed by entering the coordinate range. It has a function to determine whether. In order to be determined as the predetermined operation, a predetermined behavior is given as a condition such that the irradiation point stays in the region for a predetermined time so as not to make an erroneous determination when the irradiation point simply passes.

UI画像生成部212は、操作判定部211により判定された操作内容に応じ、対応するUI画像を生成する機能を有している。なお、デバイス11に制御を行った結果のレスポンスについても表示する場合には、UI画像の一環としてレスポンス画像を生成する。   The UI image generation unit 212 has a function of generating a corresponding UI image in accordance with the operation content determined by the operation determination unit 211. In addition, when displaying also the response of the result of having controlled to the device 11, a response image is produced | generated as a part of UI image.

デバイス制御部213は、操作判定部211により判定された操作内容に応じ、デバイス11に対し、直接または通信部210を介し、制御を行う機能を有している。   The device control unit 213 has a function of controlling the device 11 directly or via the communication unit 210 according to the operation content determined by the operation determination unit 211.

一方、プロジェクタ3の映像信号入力部301は、情報処理装置2の映像信号伝送部204から投影のための映像信号を入力する機能を有している。   On the other hand, the video signal input unit 301 of the projector 3 has a function of inputting a video signal for projection from the video signal transmission unit 204 of the information processing apparatus 2.

映像処理部302は、映像信号入力部301の入力した映像信号に対して各種の画像処理を行う機能を有している。具体的には、コントラスト、明るさ、彩度、色相、RGBゲイン、シャープネス、拡大縮小等の画像処理を行う。   The video processing unit 302 has a function of performing various types of image processing on the video signal input by the video signal input unit 301. Specifically, image processing such as contrast, brightness, saturation, hue, RGB gain, sharpness, and enlargement / reduction is performed.

駆動制御部303は、投影する映像信号に応じ、ランプ電源304、モータ306および画像形成部308の制御を行う機能を有している。   The drive control unit 303 has a function of controlling the lamp power source 304, the motor 306, and the image forming unit 308 in accordance with the video signal to be projected.

ランプ電源304は、光源となるランプ305に電源を供給する機能を有している。   The lamp power supply 304 has a function of supplying power to the lamp 305 serving as a light source.

モータ306は、画像形成部308が1つのDMD素子で構成される場合にカラー映像の投影を行うためのカラーホイール307の同期回転を行う機能を有している。   The motor 306 has a function of synchronously rotating the color wheel 307 for projecting a color image when the image forming unit 308 is configured with one DMD element.

画像形成部308は、映像処理部302の出力である映像信号を再生する機能を有しており、DMD素子またはLCD素子から構成される。   The image forming unit 308 has a function of reproducing a video signal that is an output of the video processing unit 302, and includes a DMD element or an LCD element.

同期信号出力部309は、駆動制御部303の制御タイミングに基づき、情報処理装置2に対して撮影のための同期信号を出力する機能を有している。   The synchronization signal output unit 309 has a function of outputting a synchronization signal for photographing to the information processing device 2 based on the control timing of the drive control unit 303.

図3は情報処理装置2における処理に用いる情報の例を示す図であり、主にデバイス設定部209によって設定が行われ、操作判定部211において参照される情報である。図3において、UI存在テーブルは、座標変換後の画像の有効座標範囲とUI情報IDとを対応付けて保持している。UI情報IDはUI情報を識別する情報である。例えば、第1のデバイスが「テレビ」であり、その筐体の輪郭の左上座標が(100,100)、右下座標が(200,200)であった場合、有効座標範囲は「(100,100)⇒(200,200)」となり、UI情報IDは例えば「UI0001」となる。   FIG. 3 is a diagram illustrating an example of information used for processing in the information processing apparatus 2, which is information that is mainly set by the device setting unit 209 and is referenced by the operation determination unit 211. In FIG. 3, the UI existence table holds the effective coordinate range of the image after coordinate conversion and the UI information ID in association with each other. The UI information ID is information for identifying UI information. For example, if the first device is “TV”, the upper left coordinate of the casing outline is (100,100), and the lower right coordinate is (200,200), the effective coordinate range is “(100,100) ⇒ (200,200)” The UI information ID is, for example, “UI0001”.

各UI情報IDにはUI情報が対応付けられており、UI情報にはUI要素ID、要素パターン、グラフィックID、アクションIDが含まれている。UI要素IDは、UI要素を識別する情報である。要素パターンは、UI要素の種類を示す情報である。グラフィックIDは、UI要素に画像が対応する場合に、グラフィックファイルを識別する情報である。アクションIDは、UI要素に対する操作が有効となる操作条件およびデバイスに対する制御内容を示すアクション定義ファイルを識別する情報である。操作条件としては、例えば、UI要素の所定領域上に所定時間の照射点の検出がある等である。制御内容としては、例えば、電源のON/OFFや音量の上げ/下げ、チャンネルの次/前等がある。   Each UI information ID is associated with UI information, and the UI information includes a UI element ID, an element pattern, a graphic ID, and an action ID. The UI element ID is information for identifying a UI element. The element pattern is information indicating the type of UI element. The graphic ID is information for identifying a graphic file when an image corresponds to a UI element. The action ID is information for identifying an action definition file indicating an operation condition in which an operation on the UI element is valid and a control content for the device. The operation condition includes, for example, detection of an irradiation point for a predetermined time on a predetermined area of the UI element. Examples of control contents include power ON / OFF, volume increase / decrease, and next / previous channel.

<動作>
図4は上記の実施形態の処理例を示すシーケンス図である。なお、通常モードでの処理の概要を説明する。初期設定モードとデバイス設定モードを含め、処理の詳細は後述する。
<Operation>
FIG. 4 is a sequence diagram showing a processing example of the above embodiment. An outline of processing in the normal mode will be described. Details of the process including the initial setting mode and the device setting mode will be described later.

図4において、利用者がレーザポインタ5を用いてリアル空間1に対してポインティングを行うと(ステップS101)、情報処理装置2は、照射点の検出、および、座標変換を行う(ステップS102)。   In FIG. 4, when the user performs pointing with respect to the real space 1 using the laser pointer 5 (step S101), the information processing apparatus 2 performs irradiation point detection and coordinate conversion (step S102).

次いで、情報処理装置2は、照射点の変換後の座標値がUI存在テーブル(図3)のいずれかのデバイス11の有効座標範囲内か否か判断する(ステップS103)。   Next, the information processing apparatus 2 determines whether or not the coordinate value after conversion of the irradiation point is within the effective coordinate range of any device 11 in the UI presence table (FIG. 3) (step S103).

次いで、有効座標範囲内である場合、対応するUI情報に基づいてUI画像をプロジェクタ3により投影し、UI操作待機モードに入る(ステップS104)。UI画像の生成の際に、制御対象のデバイス11の状態(チャンネル、音量等)を必要とする場合、デバイス11と通信して情報を取得する。なお、UI画像を表示することなく、有効座標範囲内に照射点が所定時間滞留等することで、デバイス11のオン・オフ等を制御する場合もある。   Next, if it is within the effective coordinate range, a UI image is projected by the projector 3 based on the corresponding UI information, and the UI operation standby mode is entered (step S104). When generating the UI image, if the state (channel, volume, etc.) of the device 11 to be controlled is required, information is acquired by communicating with the device 11. Note that there is a case where the on / off of the device 11 is controlled by the irradiation point staying in the effective coordinate range for a predetermined time without displaying the UI image.

図5はレーザポインタ5の照射点がデバイス11の1つである「テレビ」の有効座標範囲内で所定時間にわたって検出されたことにより、その上部にUI画像として「− Channel 4ch +」と「− Volume 21 +」が投影された状態を示している。   FIG. 5 shows that the irradiation point of the laser pointer 5 is detected for a predetermined time within the effective coordinate range of “TV” which is one of the devices 11, and “−Channel 4ch +” and “− “Volume 21+” is projected.

図4に戻り、UI操作待機モードにおいて利用者がレーザポインタ5を用いてリアル空間1に対してポインティングを行うと(ステップS105)、情報処理装置2は、照射点の検出、および、座標変換を行う(ステップS106)。なお、この場合のポインティング(ステップS105)は、最初のポインティング(ステップS101)から光を照射したまま連続して行ってもよい。   Returning to FIG. 4, when the user performs pointing on the real space 1 using the laser pointer 5 in the UI operation standby mode (step S <b> 105), the information processing apparatus 2 performs irradiation point detection and coordinate conversion. This is performed (step S106). In this case, the pointing (step S105) may be continuously performed while irradiating light from the first pointing (step S101).

次いで、情報処理装置2は、表示(投影)されたUI要素の画像について定義されたUI操作であるか否か判定する(ステップS107)。   Next, the information processing apparatus 2 determines whether the UI operation is defined for the displayed (projected) UI element image (step S107).

定義されたUI操作であると判定した場合、当該UI要素に定義された制御を、該当するデバイス11に対して行う(ステップS108)。図6はUI画像「− Channel 4ch +」の「+」部分にレーザポインタ5によりポインティングが行われた状態を示しており、その結果、テレビのチャンネルがアップする。   If it is determined that the UI operation is defined, the control defined in the UI element is performed on the corresponding device 11 (step S108). FIG. 6 shows a state in which pointing is performed by the laser pointer 5 on the “+” portion of the UI image “−Channel 4ch +”. As a result, the television channel is up.

図4に戻り、デバイス11から制御の結果のレスポンス(例えば、チャンネルを変更する制御であれば変更後のチャンネル番号、音量を変更する制御であれば変更後の音量レベル等)が返される場合(ステップS109)、情報処理装置2はレスポンス画像(変更後のチャンネル番号や音量レベル等)を投影することができる(ステップS110)。その後、情報処理装置2はUI操作待機モードを解除する(ステップS111)。   Returning to FIG. 4, the device 11 returns a response as a result of the control (for example, if the control is to change the channel, the channel number after the change, if the control is to change the volume, etc., the volume level after the change). In step S109, the information processing apparatus 2 can project a response image (changed channel number, volume level, etc.) (step S110). Thereafter, the information processing apparatus 2 cancels the UI operation standby mode (step S111).

図7は上記の実施形態のより詳細な処理例を示すフローチャートである。図7において、情報処理装置2は、処理を開始すると、現時点のモードにより処理を分岐する(ステップS121)。   FIG. 7 is a flowchart showing a more detailed processing example of the above embodiment. In FIG. 7, when the information processing apparatus 2 starts processing, the information processing device 2 branches the processing depending on the current mode (step S121).

初期設定モードである場合(ステップS121の初期設定)、変換用パターン出力部203から変換用パターンの画像を出力し、映像信号伝送部204からプロジェクタ3に出力する(ステップS122)。図8は変換用パターンの例を示す図であり、(a)はチェックパターン(市松模様)の例、(b)は格子パターンの例、(c)はドットパターンの例である。   In the initial setting mode (initial setting in step S121), an image of the conversion pattern is output from the conversion pattern output unit 203, and is output from the video signal transmission unit 204 to the projector 3 (step S122). 8A and 8B are diagrams showing examples of conversion patterns. FIG. 8A shows an example of a check pattern (checkered pattern), FIG. 8B shows an example of a lattice pattern, and FIG. 8C shows an example of a dot pattern.

図7に戻り、プロジェクタ3は映像信号入力部301から投影用の映像信号を入力し、映像処理部302で所定の画像処理を施した後、駆動制御部303により画像形成部308に画像形成を行う。それをランプ305の光源によりリアル空間1に対して投影する。   Returning to FIG. 7, the projector 3 receives a projection video signal from the video signal input unit 301, performs predetermined image processing in the video processing unit 302, and then forms an image in the image forming unit 308 by the drive control unit 303. Do. This is projected onto the real space 1 by the light source of the lamp 305.

カメラ4は撮影制御部202の制御により、同期信号に同期してリアル空間1を撮影し、情報処理装置2は、カメラ4の撮影した映像信号を映像信号入力部205により入力する(ステップS123)。   The camera 4 captures the real space 1 in synchronization with the synchronization signal under the control of the capture control unit 202, and the information processing apparatus 2 inputs the video signal captured by the camera 4 via the video signal input unit 205 (step S123). .

変換係数演算部206は、変換用パターン出力部203の出力する変換用パターンと映像信号入力部205により入力した映像信号の画像とから、両者を一致させる変換係数を算出して保持する(ステップS124)。そして、モードの判断(ステップS121)に戻る。   The conversion coefficient calculation unit 206 calculates and holds a conversion coefficient for matching the conversion pattern output from the conversion pattern output unit 203 and the image of the video signal input by the video signal input unit 205 (step S124). ). Then, the process returns to the mode determination (step S121).

一方、デバイス設定モードである場合(ステップS121のデバイス設定)、デバイス設定部209は、映像信号入力部205からカメラ4で撮影した映像信号を入力し(ステップS125)、その画像中から輪郭を抽出して強調表示を行う(ステップS126)。   On the other hand, in the device setting mode (device setting in step S121), the device setting unit 209 inputs a video signal captured by the camera 4 from the video signal input unit 205 (step S125), and extracts a contour from the image. Then, highlighting is performed (step S126).

そして、利用者から輪郭およびデバイスの選択を受け付け(ステップS127)、輪郭の座標変換を行い(ステップS128)、UI存在テーブルの設定を行う(ステップS129)。すなわち、利用者により選択された輪郭の座標範囲をUI存在テーブルの有効座標範囲に設定し、選択されたデバイスに対応するUI情報IDを対応付ける。また、デバイス設定部209は、抽出した輪郭(選択されなかった輪郭を含むが、削除されたデバイスにかかる輪郭は除くことが望ましい)の座標情報を内部的に保持する。また、これとは別に、UI情報が対応付けられた輪郭の座標情報を内部的に保持する。なお、デバイス設定モードにおいては、利用者の選択により、既に設定済のデバイスの情報(有効座標範囲、UI情報ID等)を削除することもできる。   Then, selection of a contour and a device is received from the user (step S127), coordinate conversion of the contour is performed (step S128), and a UI presence table is set (step S129). That is, the coordinate range of the contour selected by the user is set as the effective coordinate range of the UI presence table, and the UI information ID corresponding to the selected device is associated. In addition, the device setting unit 209 internally holds coordinate information of the extracted contour (including a contour that has not been selected, but it is desirable to exclude the contour related to the deleted device). Separately from this, the coordinate information of the contour associated with the UI information is held internally. In the device setting mode, information on devices already set (valid coordinate range, UI information ID, etc.) can be deleted by user selection.

一方、通常モードである場合(ステップS121の通常)、デバイス追加処理を行う所定のタイミング(処理の開始時や所定時間おき等のタイミングであり、後述するUI操作待機中を除く。)であるか否か判断し(ステップS130)、所定のタイミングであれば(ステップS130のYes)、デバイス追加処理を実行する(ステップS131)。   On the other hand, in the normal mode (normal in step S121), is the predetermined timing for performing the device addition process (timing at the start of the process, every predetermined time, etc., excluding waiting for UI operation described later)? If it is determined (step S130) and the predetermined timing is reached (Yes in step S130), a device addition process is executed (step S131).

図9はデバイス追加処理(図7のステップS131)の例を示すフローチャートである。図9において、デバイス設定部209は、映像信号入力部205からカメラ4で撮影した映像信号を入力し(ステップS151)、その画像中からデバイスである可能性のある物体の輪郭を抽出する(ステップS152)。   FIG. 9 is a flowchart illustrating an example of device addition processing (step S131 in FIG. 7). In FIG. 9, the device setting unit 209 inputs a video signal captured by the camera 4 from the video signal input unit 205 (step S151), and extracts an outline of an object that may be a device from the image (step S151). S152).

デバイス設定部209は、抽出した輪郭の座標情報を、内部的に保持している、以前に抽出した輪郭(選択されなかった輪郭を含むが、削除されたデバイスにかかる輪郭は除くことが望ましい)の座標情報と比較し(ステップS153)、新たな輪郭であるか否か判断する(ステップS154)。   The device setting unit 209 internally retains the coordinate information of the extracted contour, and the previously extracted contour (including the contour that was not selected, but it is desirable to exclude the contour related to the deleted device) Is compared with the coordinate information (step S153), and it is determined whether or not it is a new contour (step S154).

新たな輪郭である場合(ステップS154のYes)、情報処理装置2のモニタやリアル空間1にデバイスの追加が必要となる可能性を表示し(ステップS155)、輪郭の強調表示を行う(ステップS156)。   When the outline is a new outline (Yes in step S154), the possibility of adding a device to the monitor of the information processing apparatus 2 or the real space 1 is displayed (step S155), and the outline is highlighted (step S156). ).

そして、利用者からデバイスの選択(新たな輪郭が複数の場合は輪郭の選択も伴う)を受け付け(ステップS157)、輪郭の投影画像上の座標値への座標変換を行い(ステップS158)、UI存在テーブルの設定を行う(ステップS159)。すなわち、新たな輪郭の座標範囲をUI存在テーブルの有効座標範囲に設定し、選択されたデバイスに対応するUI情報IDを対応付ける。また、デバイス設定部209は、抽出した輪郭(選択されなかった輪郭を含むが、削除されたデバイスにかかる輪郭は除くことが望ましい)の座標情報を内部的に保持する。   Then, the device receives a device selection (when a new contour is present, the selection of the contour is accompanied) (step S157), performs coordinate conversion to the coordinate value on the projected image of the contour (step S158), and the UI. The presence table is set (step S159). That is, the coordinate range of the new contour is set as the effective coordinate range of the UI presence table, and the UI information ID corresponding to the selected device is associated. In addition, the device setting unit 209 internally holds coordinate information of the extracted contour (including a contour that has not been selected, but it is desirable to exclude the contour related to the deleted device).

次いで、図7に戻り、デバイス除去処理を行う所定のタイミング(処理の開始時や所定時間おき等のタイミングであり、後述するUI操作待機中を除く。)であるか否か判断し(ステップS132)、所定のタイミングであれば(ステップS132のYes)、デバイス除去処理を実行する(ステップS133)。   Next, returning to FIG. 7, it is determined whether or not it is a predetermined timing for performing device removal processing (timing at the start of processing or every predetermined time, excluding waiting for UI operation described later) (step S132). ), If it is a predetermined timing (Yes in step S132), a device removal process is executed (step S133).

図10はデバイス除去処理(図7のステップS133)の例を示すフローチャートである。図10において、デバイス設定部209は、映像信号入力部205からカメラ4で撮影した映像信号を入力し(ステップS161)、その画像中からデバイスである可能性のある物体の輪郭を抽出する(ステップS162)。   FIG. 10 is a flowchart showing an example of the device removal process (step S133 in FIG. 7). In FIG. 10, the device setting unit 209 inputs a video signal captured by the camera 4 from the video signal input unit 205 (step S161), and extracts an outline of an object that may be a device from the image (step S161). S162).

デバイス設定部209は、抽出した輪郭の座標情報を、内部的に保持している、UI情報が対応付けられた輪郭の座標情報と比較し(ステップS163)、UI情報が対応付けられた輪郭の座標情報が抽出されずに消失してれば(ステップS164のYes)、対応するデバイスが除去されたものとして、UI存在テーブルから領域とデバイスのUI情報との対応付けを削除する(ステップS165)。対応付けの削除により、保持しているUI情報が対応付けられた輪郭についても併せて更新する。   The device setting unit 209 compares the extracted coordinate information of the contour with the coordinate information of the contour associated with the UI information held internally (step S163), and the contour information associated with the UI information is compared. If the coordinate information disappears without being extracted (Yes in step S164), it is determined that the corresponding device has been removed, and the association between the area and the device UI information is deleted from the UI presence table (step S165). . By deleting the association, the contour associated with the held UI information is also updated.

なお、誤認識により有効なデバイスの領域とデバイスのUI情報との対応付けを削除してしまうことがないよう、削除に先立って利用者にアラートを表示し、確認の操作を待ってから削除を行うようにしてもよい。また、UI存在テーブルから削除した領域とデバイスのUI情報の組み合わせを別途保持しておき、再び同じデバイスを追加する際に選択できるようにして、設定の手間を減らすようにすることもできる。   In order not to delete the association between the valid device area and the device UI information due to misrecognition, an alert is displayed to the user prior to the deletion, and the deletion is performed after waiting for the confirmation operation. You may make it perform. It is also possible to reduce the setting effort by separately holding a combination of the area deleted from the UI presence table and the UI information of the device so that the same device can be selected again.

デバイスは利用者の都合で除去されることがあり、UI情報が対応付けられたままであると、デバイスの存在しない領域にレーザポインタ5でポイントを行った場合にもUI画像が投影されてしまう等の不都合がある。しかし、上記のような自動的なデバイス除去処理により、その時点で存在しないデバイスとUI情報との対応付けが削除されるため、不都合が解消される。なお、デバイスをプロジェクタ3およびカメラ4の視野内で移動した場合には、前述した手動によるデバイス設定または半自動のデバイス追加処理により、新たな領域とUI情報との対応付けが行われる。   The device may be removed for the convenience of the user. If the UI information remains associated, a UI image is projected even when the laser pointer 5 is used to point to an area where no device exists. There are inconveniences. However, the automatic device removal process as described above eliminates the inconvenience because the association between the device that does not exist at that time and the UI information is deleted. Note that when the device is moved within the field of view of the projector 3 and the camera 4, the new area and UI information are associated with each other by the above-described manual device setting or semi-automatic device addition processing.

なお、デバイス追加処理のタイミングとデバイス除去処理のタイミングとを別とした場合について説明したが、両者を同じタイミングで実行する場合には、同様な内容の処理(映像信号の入力、輪郭の抽出等)を共通に行うことができる。デバイス追加処理とデバイス除去処理を同じタイミングで行う場合、デバイスをプロジェクタ3およびカメラ4の視野内で移動した場合に、以前の領域から新たな領域へのUI情報の対応の付け替えを同時に行うこともできる。   In addition, although the case where the timing of the device addition processing and the timing of the device removal processing are separated has been described, when both are executed at the same timing, similar processing (video signal input, contour extraction, etc.) is performed. ) Can be performed in common. When the device addition process and the device removal process are performed at the same timing, when the device is moved within the field of view of the projector 3 and the camera 4, the correspondence change of UI information from the previous area to the new area may be performed simultaneously. it can.

次いで、図7に戻り、UI操作待機中である場合を除き、映像信号伝送部204から全面黒画像の投影用の映像信号をプロジェクタ3に出力する(ステップS134)。プロジェクタ3は映像信号入力部301から映像信号を入力し、映像処理部302で所定の画像処理を施した後、駆動制御部303により画像形成部308に画像形成を行う。それをランプ305の光源によりリアル空間1に対して投影する。   Next, returning to FIG. 7, the video signal for projecting the entire black image is output from the video signal transmission unit 204 to the projector 3 except when the UI operation is on standby (step S134). The projector 3 inputs a video signal from the video signal input unit 301, performs predetermined image processing by the video processing unit 302, and then forms an image on the image forming unit 308 by the drive control unit 303. This is projected onto the real space 1 by the light source of the lamp 305.

カメラ4は撮影制御部202の制御により、同期信号に同期してリアル空間1を撮影し、情報処理装置2は、カメラ4の撮影した映像信号を映像信号入力部205により入力する(ステップS135)。   The camera 4 captures the real space 1 in synchronization with the synchronization signal under the control of the capture control unit 202, and the information processing apparatus 2 inputs the video signal captured by the camera 4 via the video signal input unit 205 (step S135). .

照射点検出部207は、映像信号入力部205により入力した映像信号の画像からレーザポインタ5の照射点を検出する(ステップS136)。   The irradiation point detection unit 207 detects the irradiation point of the laser pointer 5 from the image of the video signal input by the video signal input unit 205 (step S136).

変換処理部208は変換係数演算部206の保持する変換係数に基づいて照射点の座標変換を行う(ステップS137)。   The conversion processing unit 208 performs coordinate conversion of the irradiation point based on the conversion coefficient held by the conversion coefficient calculation unit 206 (step S137).

次いで、UI操作待機モードでない場合(ステップS138のNo)であって、操作判定部211により照射点の座標変換後の座標値がUI存在テーブルのいずれの有効座標範囲にも入っていないと判定した場合(ステップS139のNo)、モードの判断(ステップS121)に戻る。   Next, when the UI operation standby mode is not set (No in step S138), the operation determination unit 211 determines that the coordinate value after the coordinate conversion of the irradiation point is not included in any effective coordinate range of the UI presence table. If so (No in step S139), the process returns to the mode determination (step S121).

照射点の座標変換後の座標値がUI存在テーブルのいずれかの有効座標範囲に入っていると判定した場合(ステップS139のYes)、UI画像生成部212はUI情報に基づいて該当するUI画像を生成し、映像信号伝送部204は映像信号に追加する(ステップS140)。そして、UI操作待機モードに入り(ステップS141)、モードの判断(ステップS121)に戻る。   When it is determined that the coordinate value after the coordinate conversion of the irradiation point is in any effective coordinate range of the UI presence table (Yes in step S139), the UI image generation unit 212 corresponds to the corresponding UI image based on the UI information. And the video signal transmission unit 204 adds it to the video signal (step S140). Then, the UI operation standby mode is entered (step S141), and the process returns to the mode determination (step S121).

一方、UI操作待機モードである場合(ステップS138のYes)であって、操作判定部211により照射点の座標変換後の座標値が起動しているUI要素についての所定のUI操作であると判定した場合(ステップS142のYes)、デバイス制御部213は対応するデバイス11に制御信号を送信し、レスポンスが返される場合には受信する(ステップS143)。   On the other hand, in the UI operation standby mode (Yes in step S138), the operation determination unit 211 determines that the coordinate value after the coordinate conversion of the irradiation point is a predetermined UI operation for the activated UI element. If it is (Yes in step S142), the device control unit 213 transmits a control signal to the corresponding device 11, and receives a response when a response is returned (step S143).

レスポンスが受信された場合、UI画像生成部212は該当するレスポンス画像を生成し、映像信号伝送部204は映像信号に追加する(ステップS144)。そして、UI操作待機モードを解除し(ステップS145)、モードの判断(ステップS121)に戻る。なお、UI操作待機モードが所定時間継続した場合は、強制的に解除する。   When the response is received, the UI image generation unit 212 generates a corresponding response image, and the video signal transmission unit 204 adds the response image to the video signal (step S144). Then, the UI operation standby mode is canceled (step S145), and the process returns to the mode determination (step S121). If the UI operation standby mode continues for a predetermined time, it is forcibly canceled.

<総括>
以上説明したように、本実施形態によれば、未来感のある実用性の高い機器制御の仕組を提供することができる。
<Summary>
As described above, according to this embodiment, it is possible to provide a highly practical device control mechanism with a sense of future.

以上、本発明の好適な実施の形態により本発明を説明した。ここでは特定の具体例を示して本発明を説明したが、特許請求の範囲に定義された本発明の広範な趣旨および範囲から逸脱することなく、これら具体例に様々な修正および変更を加えることができることは明らかである。すなわち、具体例の詳細および添付の図面により本発明が限定されるものと解釈してはならない。   The present invention has been described above by the preferred embodiments of the present invention. While the invention has been described with reference to specific embodiments, various modifications and changes may be made to the embodiments without departing from the broad spirit and scope of the invention as defined in the claims. Obviously you can. In other words, the present invention should not be construed as being limited by the details of the specific examples and the accompanying drawings.

1 リアル空間
11 デバイス
2 情報処理装置
201 統括制御部
202 撮影制御部
203 変換用パターン出力部
204 映像信号伝送部
205 映像信号入力部
206 変換係数演算部
207 照射点検出部
208 変換処理部
209 デバイス設定部
210 通信部
211 操作判定部
212 UI画像生成部
213 デバイス制御部
3 プロジェクタ
301 映像信号入力部
302 映像処理部
303 駆動制御部
304 ランプ電源
305 ランプ
306 モータ
307 カラーホイール
308 画像形成部
309 同期信号出力部
4 カメラ
5 レーザポインタ
6 ネットワーク
7 サーバ
DESCRIPTION OF SYMBOLS 1 Real space 11 Device 2 Information processing apparatus 201 General control part 202 Image | photographing control part 203 Conversion pattern output part 204 Video signal transmission part 205 Video signal input part 206 Conversion coefficient calculating part 207 Irradiation point detection part 208 Conversion processing part 209 Device setting Unit 210 communication unit 211 operation determination unit 212 UI image generation unit 213 device control unit 3 projector 301 video signal input unit 302 video processing unit 303 drive control unit 304 lamp power source 305 lamp 306 motor 307 color wheel 308 image forming unit 309 synchronization signal output Part 4 Camera 5 Laser pointer 6 Network 7 Server

特表2013−517051号公報Special table 2013-517051 gazette

Claims (7)

所定のリアル空間を撮影するカメラと、
前記カメラの撮影画像を処理する情報処理装置と
を備え、
前記情報処理装置は、
前記カメラの撮影画像上のデバイスの領域を管理するデバイス領域管理手段と、
前記カメラの撮影画像からデバイスの候補となる領域を抽出し、デバイスに対応付けられている領域のうち発見できなかった領域について当該領域とデバイスのユーザインタフェース情報との対応付けを削除するデバイス除去手段と、
前記カメラの撮影画像からレーザポインタによる照射点を検出する照射点検出手段と、
前記照射点の前記デバイスの領域での振る舞いから所定の操作を検出する操作検出手段と、
検出した操作に応じて該当する前記デバイスの制御を行うデバイス制御手段と
を備えたことを特徴とする機器制御システム。
A camera for photographing a predetermined real space;
An information processing device for processing a photographed image of the camera,
The information processing apparatus includes:
Device area management means for managing the area of the device on the captured image of the camera;
A device removing unit that extracts a device candidate region from the photographed image of the camera and deletes the association between the region and the user interface information of the device for a region that is not found among the regions associated with the device. When,
An irradiation point detecting means for detecting an irradiation point by a laser pointer from a photographed image of the camera;
Operation detecting means for detecting a predetermined operation from the behavior of the irradiation point in the region of the device;
A device control system comprising device control means for controlling the corresponding device in accordance with the detected operation.
請求項1に記載の機器制御システムにおいて、
前記デバイス除去手段は、領域とデバイスのユーザインタフェース情報との対応付けを削除する前に利用者に削除の確認を求める
ことを特徴とする機器制御システム。
The device control system according to claim 1,
The device removal unit requests the user to confirm the deletion before deleting the association between the area and the user interface information of the device.
請求項1または2のいずれか一項に記載の機器制御システムにおいて、
前記カメラの撮影画像から新たなデバイスの候補となる領域を抽出し、抽出した領域とデバイスのユーザインタフェース情報とを対応付けるデバイス追加手段
を備えたことを特徴とする機器制御システム。
In the apparatus control system as described in any one of Claim 1 or 2,
An apparatus control system comprising: a device adding unit that extracts a region as a new device candidate from a captured image of the camera, and associates the extracted region with user interface information of the device.
請求項1乃至3のいずれか一項に記載の機器制御システムにおいて、
前記リアル空間に所定の映像の投影を行うプロジェクタを備え、
前記情報処理装置は、
前記プロジェクタの映像上の座標値と前記カメラの撮影画像上の座標値との対応を管理する座標値管理手段と、
前記照射点の前記デバイスの領域での振る舞いから所定の操作を検出した場合に、前記プロジェクタに投影画像として所定のユーザインタフェース画像を出力するユーザインタフェース画像出力手段と
を備え、
前記操作検出手段は、前記照射点の前記ユーザインタフェース画像の表示領域での振る舞いから所定の操作を検出する
ことを特徴とする機器制御システム。
In the equipment control system according to any one of claims 1 to 3,
A projector for projecting a predetermined image in the real space;
The information processing apparatus includes:
Coordinate value management means for managing the correspondence between the coordinate value on the image of the projector and the coordinate value on the captured image of the camera;
A user interface image output means for outputting a predetermined user interface image as a projection image to the projector when a predetermined operation is detected from the behavior of the irradiation point in the device region;
The device control system, wherein the operation detection means detects a predetermined operation from a behavior of the irradiation point in a display area of the user interface image.
請求項4に記載の機器制御システムにおいて、
前記操作検出手段は、前記ユーザインタフェース画像の投影によりUI操作待機モードに入り、所定の操作の検出によりUI操作待機モードを解除する
ことを特徴とする機器制御システム。
In the apparatus control system according to claim 4,
The apparatus control system, wherein the operation detection unit enters a UI operation standby mode by projecting the user interface image, and cancels the UI operation standby mode by detecting a predetermined operation.
コンピュータを、
所定のリアル空間を撮影するカメラから撮影画像を取得する撮影画像取得手段、
前記カメラの撮影画像上のデバイスの領域を管理するデバイス領域管理手段、
前記カメラの撮影画像からデバイスの候補となる領域を抽出し、デバイスに対応付けられている領域のうち発見できなかった領域について当該領域とデバイスのユーザインタフェース情報との対応付けを削除するデバイス除去手段、
前記カメラの撮影画像からレーザポインタによる照射点を検出する照射点検出手段、
前記照射点の前記デバイスの領域での振る舞いから所定の操作を検出する操作検出手段、
検出した操作に応じて該当する前記デバイスの制御を行うデバイス制御手段
として機能させることを特徴とする機器制御プログラム。
Computer
Captured image acquisition means for acquiring a captured image from a camera that captures a predetermined real space,
Device area management means for managing the area of the device on the captured image of the camera;
A device removing unit that extracts a device candidate region from the photographed image of the camera and deletes the association between the region and the user interface information of the device for a region that is not found among the regions associated with the device. ,
Irradiation point detecting means for detecting an irradiation point by a laser pointer from a photographed image of the camera,
Operation detection means for detecting a predetermined operation from the behavior of the irradiation point in the device region;
An apparatus control program that functions as device control means for controlling the corresponding device in accordance with a detected operation.
所定のリアル空間を撮影するカメラから撮影画像を取得する撮影画像取得手段と、
前記カメラの撮影画像上のデバイスの領域を管理するデバイス領域管理手段と、
前記カメラの撮影画像からデバイスの候補となる領域を抽出し、デバイスに対応付けられている領域のうち発見できなかった領域について当該領域とデバイスのユーザインタフェース情報との対応付けを削除するデバイス除去手段と、
前記カメラの撮影画像からレーザポインタによる照射点を検出する照射点検出手段と、
前記照射点の前記デバイスの領域での振る舞いから所定の操作を検出する操作検出手段と、
検出した操作に応じて該当する前記デバイスの制御を行うデバイス制御手段と
を備えたことを特徴とする機器制御装置。
Captured image acquisition means for acquiring a captured image from a camera that captures a predetermined real space;
Device area management means for managing the area of the device on the captured image of the camera;
A device removing unit that extracts a device candidate region from the photographed image of the camera and deletes the association between the region and the user interface information of the device for a region that is not found among the regions associated with the device. When,
An irradiation point detecting means for detecting an irradiation point by a laser pointer from a photographed image of the camera;
Operation detecting means for detecting a predetermined operation from the behavior of the irradiation point in the region of the device;
A device control apparatus comprising device control means for controlling the corresponding device in accordance with the detected operation.
JP2014100190A 2014-05-14 2014-05-14 Device control system, device control program, and device control apparatus Pending JP2015219548A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014100190A JP2015219548A (en) 2014-05-14 2014-05-14 Device control system, device control program, and device control apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014100190A JP2015219548A (en) 2014-05-14 2014-05-14 Device control system, device control program, and device control apparatus

Publications (1)

Publication Number Publication Date
JP2015219548A true JP2015219548A (en) 2015-12-07

Family

ID=54778904

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014100190A Pending JP2015219548A (en) 2014-05-14 2014-05-14 Device control system, device control program, and device control apparatus

Country Status (1)

Country Link
JP (1) JP2015219548A (en)

Similar Documents

Publication Publication Date Title
CN107077258B (en) Projection type image display device and image display method
US10277544B2 (en) Information processing apparatus which cooperate with other apparatus, and method for controlling the same
JP6544073B2 (en) Image display system and image display method
JP6340958B2 (en) Projector apparatus, interactive system, and interactive control method
US9529422B2 (en) Image display and photographing system, photographing device, display device, image display and photographing method, and computer-readable storage medium for computer program
JP6350175B2 (en) POSITION DETECTION DEVICE, PROJECTOR, AND POSITION DETECTION METHOD
KR102272310B1 (en) Method of processing images, Computer readable storage medium of recording the method and an electronic apparatus
US11170520B2 (en) Image processing apparatus for analyzing an image to detect an object within the image
US10416814B2 (en) Information processing apparatus to display an image on a flat surface, method of controlling the same, and storage medium
JP6349886B2 (en) Image projection apparatus, control method for image projection apparatus, and control program for image projection apparatus
JP2020160808A (en) Position detection method, position detection device, and interactive projector
US10365770B2 (en) Information processing apparatus, method for controlling the same, and storage medium
JP2015219547A (en) Device control system, device control program, and device control apparatus
JP6439398B2 (en) Projector and projector control method
JP2015219548A (en) Device control system, device control program, and device control apparatus
JP6057407B2 (en) Touch position input device and touch position input method
JP2014048775A (en) Apparatus and program for identifying position gazed
JP2015219546A (en) Device control system, device control method, and device control apparatus
JP2009205498A (en) Information presentation device, information presentation method, information presentation program, and recording medium recorded with the program
JP6540275B2 (en) Display device and image display method
JP2015149603A (en) Image display system, image display device, and image display method
JP2017167810A (en) Input support device, input support method, control program and storage medium
US20160320897A1 (en) Interactive display system, image capturing apparatus, interactive display method, and image capturing method
JP6409517B2 (en) Display device and control method of display device
JP6429470B2 (en) Image display device, image display method, and program