JP2016176816A - Image processor, image processing method, and program - Google Patents

Image processor, image processing method, and program Download PDF

Info

Publication number
JP2016176816A
JP2016176816A JP2015057286A JP2015057286A JP2016176816A JP 2016176816 A JP2016176816 A JP 2016176816A JP 2015057286 A JP2015057286 A JP 2015057286A JP 2015057286 A JP2015057286 A JP 2015057286A JP 2016176816 A JP2016176816 A JP 2016176816A
Authority
JP
Japan
Prior art keywords
designated
coordinates
coordinate
dimensional
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015057286A
Other languages
Japanese (ja)
Inventor
洋介 五十嵐
Yosuke Igarashi
洋介 五十嵐
秀往 松井
Hideyuki Matsui
秀往 松井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015057286A priority Critical patent/JP2016176816A/en
Publication of JP2016176816A publication Critical patent/JP2016176816A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processor capable of detecting a designated object disposed in space without putting restrictions, such as an installation position of a camera and presence of an object, in question, and capable of setting a three-dimensional area by projecting coordinates of the designated object onto a reference surface.SOLUTION: An image processor 100 includes: distance information acquisition means 110 for acquiring distance information from an object in space and setting a reference surface of space and three-dimensional coordinates of the space based on the distance information; designated coordinates acquisition means 111 for detecting a designated object disposed in the space and acquiring coordinates of the designated object in the three-dimensional coordinates as designated coordinates; projection coordinates acquisition means 112 for acquiring projected coordinates obtained by projecting the designated coordinates onto the reference surface; and designated area setting means 113 for setting a designated area to the space, based on the designated coordinates and the projected coordinates.SELECTED DRAWING: Figure 1

Description

本発明は、画像処理装置、画像処理方法、及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program.

安全を確保するための防犯カメラの設置が進んでいる。特に、美術館や博物館など貴重な文化財を展示する場において、盗難や故意による破損などの犯罪を抑止し、早急に犯罪事件を解決するために、防犯カメラが設置されている。   Security cameras are being installed to ensure safety. In particular, in places where precious cultural properties such as art museums and museums are displayed, security cameras are installed to prevent crimes such as theft and deliberate damage, and to quickly resolve crime cases.

文化財保護のための監視システムとして、文化財から所定の距離内に人物などが立ち入った際に自動通報する監視システムが提案されている。このような監視システムは、カメラの他に距離情報を取得する測距センサを備えており、3次元領域(例えば、文化財を中心とした所定の距離内の領域)における画像と距離情報の変化を検知し、人物などの3次元領域への侵入を検知する。   As a monitoring system for protecting cultural properties, a monitoring system that automatically reports when a person or the like enters within a predetermined distance from the cultural property has been proposed. Such a monitoring system includes a distance measuring sensor that acquires distance information in addition to the camera, and changes in images and distance information in a three-dimensional region (for example, a region within a predetermined distance centered on a cultural property). And intrusion into a three-dimensional area such as a person is detected.

また、3次元領域を設定する方法として、距離情報を基に床面(基準面)を推定し、防犯カメラで撮影した2次元画像から床面の座標を検出することで、床面の座標を3次元領域の底面とする方法がある(例えば、特許文献1参照)。また、柱状の対象物を測距することにより得られた3次元点群から、柱状の対象物の3次元柱状モデルを作成する方法がある(例えば、特許文献2参照)。   In addition, as a method of setting a three-dimensional area, the floor surface (reference surface) is estimated based on distance information, and the floor surface coordinates are detected by detecting the floor surface coordinates from the two-dimensional image captured by the security camera. There is a method of setting the bottom surface of a three-dimensional region (for example, see Patent Document 1). In addition, there is a method of creating a three-dimensional columnar model of a columnar object from a three-dimensional point group obtained by measuring a columnar object (for example, see Patent Document 2).

特開2007−271408号公報JP 2007-271408 A 特許第5451457号公報Japanese Patent No. 5451457

しかし、特許文献1の方法では、防犯カメラで撮影した2次元画像から床面の座標を検出するため、3次元領域の底面に対応する床面が確実に認識される範囲まで2次元画像に含まれていなければならない。したがって、床面を撮像するために、監視領域(例えば、文化財の周囲領域)より必要以上に広い画角でカメラを設置したり、カメラ光軸を下方向に傾けたりする必要があり、真に欲する領域の画像を撮像する際の制約となることがある。   However, in the method of Patent Document 1, since the coordinates of the floor surface are detected from the two-dimensional image captured by the security camera, the two-dimensional image includes a range in which the floor surface corresponding to the bottom surface of the three-dimensional region is reliably recognized. It must be. Therefore, in order to image the floor surface, it is necessary to install a camera with an angle of view wider than necessary, or to tilt the camera optical axis downward. This may be a limitation when capturing an image of a desired area.

また、特許文献2の方法は、対象物を測距することにより得られた3次元点群から対象物に対応する3次元柱状モデルを作成するため、対象物が存在しない仮想的な3次元柱状モデルを作成することができない。   Further, the method of Patent Document 2 creates a three-dimensional columnar model corresponding to an object from a three-dimensional point group obtained by measuring the object, so that a virtual three-dimensional columnar shape having no object exists. The model cannot be created.

本発明は、カメラの設置位置や対象物の存在などの制約を解決するため、空間に配置された指定物体を検出し、指定物体の座標を基準面に投影することで3次元領域を設定することができる画像処理装置、画像処理方法、及びプログラムを提供することを目的とする。   The present invention sets a three-dimensional region by detecting a designated object arranged in a space and projecting the coordinates of the designated object on a reference plane in order to solve restrictions such as the installation position of a camera and the presence of an object. An object of the present invention is to provide an image processing apparatus, an image processing method, and a program.

本発明に係る画像処理装置は、空間における物体からの距離情報を取得し、前記距離情報に基づいて前記空間の基準面及び前記空間の3次元座標を設定する距離情報取得手段と、前記空間に配置された指定物体を検出し、前記3次元座標における前記指定物体の座標を指定座標として取得する指定座標取得手段と、前記指定座標を前記基準面に投影した投影座標を取得する投影座標取得手段と、前記指定座標及び前記投影座標に基づいて、前記空間に指定領域を設定する指定領域設定手段とを備える。   An image processing apparatus according to the present invention acquires distance information from an object in a space, and sets distance information acquisition means for setting a reference plane of the space and a three-dimensional coordinate of the space based on the distance information; Designated coordinate acquisition means for detecting the designated object arranged and obtaining the coordinates of the designated object in the three-dimensional coordinates as designated coordinates; and projection coordinate obtaining means for obtaining projection coordinates obtained by projecting the designated coordinates onto the reference plane And designated area setting means for setting a designated area in the space based on the designated coordinates and the projected coordinates.

本発明によれば、カメラの設置位置や対象物の存在などの制約を問題とせずに、空間に配置された指定物体を検出し、指定物体の座標を基準面に投影することで3次元領域を設定することができる。   According to the present invention, a three-dimensional region can be obtained by detecting a designated object arranged in a space without projecting restrictions such as the installation position of a camera or the presence of an object, and projecting the coordinates of the designated object on a reference plane. Can be set.

(a)本発明に係る画像処理装置の一例を示すブロック図である。(b)本発明に係る画像処理装置の距離情報取得部の一例を示すブロック図である。(A) It is a block diagram which shows an example of the image processing apparatus which concerns on this invention. (B) It is a block diagram which shows an example of the distance information acquisition part of the image processing apparatus which concerns on this invention. 本発明に係る画像処理装置の具体的な構成例を示すブロック図である。It is a block diagram which shows the specific structural example of the image processing apparatus which concerns on this invention. 指定領域の設定の一例を示す図である。It is a figure which shows an example of the setting of a designation | designated area | region. 本発明に係る画像処理装置の動作の一例を示すフローチャートである。6 is a flowchart illustrating an example of an operation of the image processing apparatus according to the present invention. 指定形状の例を示す図である。It is a figure which shows the example of a designated shape. 投影座標を全て包含する多角形を算出する手法の一例を示す図である。It is a figure which shows an example of the method of calculating the polygon which includes all the projection coordinates. 通知部又は表示部であるディスプレイの表示画面の一例を示す図である。It is a figure which shows an example of the display screen of the display which is a notification part or a display part. 指定領域設定部が指定領域の大きさを調整する一例を示す図である。It is a figure which shows an example in which the designated area setting part adjusts the magnitude | size of a designated area.

以下、図面を参照して本発明の実施形態を説明する。ただし、本発明は以下の実施形態に限定されるものではない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, the present invention is not limited to the following embodiments.

図1(a)は、本発明に係る画像処理装置の一例を示すブロック図である。図1(b)は、本発明に係る画像処理装置の距離情報取得部の一例を示すブロック図である。   FIG. 1A is a block diagram illustrating an example of an image processing apparatus according to the present invention. FIG. 1B is a block diagram illustrating an example of a distance information acquisition unit of the image processing apparatus according to the present invention.

図1(a)に示すように、画像処理装置100は、撮像部101、制御部102、入出力部103、通知部104、表示部105、及び記憶部106を備える。制御部102は、距離情報取得部110、指定座標取得部111、投影座標取得部112、及び指定領域設定部113を備える。また、図1(b)に示すように、距離情報取得部110は、平面抽出部115、基準面設定部116、及び座標設定部117を備える。   As illustrated in FIG. 1A, the image processing apparatus 100 includes an imaging unit 101, a control unit 102, an input / output unit 103, a notification unit 104, a display unit 105, and a storage unit 106. The control unit 102 includes a distance information acquisition unit 110, a designated coordinate acquisition unit 111, a projected coordinate acquisition unit 112, and a designated area setting unit 113. As shown in FIG. 1B, the distance information acquisition unit 110 includes a plane extraction unit 115, a reference plane setting unit 116, and a coordinate setting unit 117.

撮像部101は、空間における物体を撮像し、2次元画像を取得する。制御部102は、画像処理装置100を機能させるためのコンピュータプログラムを実行し、画像処理装置100の構成要素を制御する。入出力部103は、画像処理装置100に各種のデータを入出力する。通知部104は、各種の情報をユーザに通知する。表示部105は、2次元画像や各種のデータなどを表示する。記憶部106は、各種のデータを記憶する。   The imaging unit 101 captures an object in space and acquires a two-dimensional image. The control unit 102 executes a computer program for causing the image processing apparatus 100 to function, and controls components of the image processing apparatus 100. The input / output unit 103 inputs / outputs various data to / from the image processing apparatus 100. The notification unit 104 notifies the user of various types of information. The display unit 105 displays a two-dimensional image and various data. The storage unit 106 stores various data.

距離情報取得部110は、空間における物体からの距離情報を取得し、距離情報に基づいて空間の基準面及び空間の3次元座標を設定する。距離情報は、光や超音波の反射を利用して物体までの距離を計測する距離センサにより取得される。また、赤外線レーザなどで所定のパターンを照射し、赤外線カメラ又は撮像部101により撮像されたパターンの歪みや形状に基づいて、距離情報が取得されてもよい。   The distance information acquisition unit 110 acquires distance information from an object in a space, and sets a space reference plane and a space three-dimensional coordinate based on the distance information. The distance information is acquired by a distance sensor that measures the distance to an object using reflection of light or ultrasonic waves. Moreover, a predetermined pattern may be irradiated with an infrared laser or the like, and distance information may be acquired based on the distortion or shape of the pattern imaged by the infrared camera or the imaging unit 101.

平面抽出部115は、距離情報から物体の表面を示す3次元点群を取得し、3次元点群に基づいて平面を抽出する。基準面設定部116は、平面抽出部115により抽出された平面から基準面(例えば、底面)を設定する。座標設定部117は、撮像部101により取得された2次元画像内の空間座標の座標系と距離情報に基づく3次元座標の座標系とを一致させる。   The plane extraction unit 115 acquires a three-dimensional point group indicating the surface of the object from the distance information, and extracts a plane based on the three-dimensional point group. The reference plane setting unit 116 sets a reference plane (for example, a bottom surface) from the plane extracted by the plane extraction unit 115. The coordinate setting unit 117 matches the coordinate system of the spatial coordinates in the two-dimensional image acquired by the imaging unit 101 with the coordinate system of the three-dimensional coordinates based on the distance information.

指定座標取得部111は、空間に配置された指定物体を検出し、3次元座標における指定物体の座標を指定座標として取得する。指定物体は、色、光、形状、移動、信号、マーカー、及びパターンの少なくとも1つにより、空間における任意の座標を指定する物体である。例えば、指定物体は、ペン型デバイスの先端に取り付けられたLEDである。この場合、指定座標取得部111は、発光のON/OFF機能を有するLEDが発光した位置を指定座標として取得する。また、指定物体は、ペン型デバイスの先端に取り付けられたQRコード(登録商標)などの2次元コードであってもよい。   The designated coordinate acquisition unit 111 detects the designated object arranged in the space, and obtains the coordinates of the designated object in the three-dimensional coordinates as the designated coordinates. The designated object is an object that designates arbitrary coordinates in space by at least one of color, light, shape, movement, signal, marker, and pattern. For example, the designated object is an LED attached to the tip of a pen-type device. In this case, the designated coordinate obtaining unit 111 obtains, as designated coordinates, a position where an LED having a light emission ON / OFF function emits light. The designated object may be a two-dimensional code such as a QR code (registered trademark) attached to the tip of the pen-type device.

また、指定物体が手や指であり、指定座標取得部111は、手や指の動きによるジェスチャー(指で円を描く動作など)により、指定座標を取得してもよい。   Further, the designated object may be a hand or a finger, and the designated coordinate acquisition unit 111 may obtain the designated coordinate by a gesture based on the movement of the hand or finger (such as an operation of drawing a circle with the finger).

投影座標取得部112は、指定座標を基準面に投影した投影座標を取得する。基準面が底面である場合、指定座標を底面の垂線に沿って底面に投影した座標が投影座標となる。なお、投影座標取得部112は、垂線の他、所定の角度で基準面(例えば、底面)に投影された座標を投影座標としてもよい。   The projected coordinate acquisition unit 112 acquires the projected coordinates obtained by projecting the designated coordinates onto the reference plane. When the reference surface is the bottom surface, the coordinates obtained by projecting the designated coordinates onto the bottom surface along the perpendicular to the bottom surface are projection coordinates. The projected coordinate acquisition unit 112 may use, as a projected coordinate, a coordinate projected on a reference plane (for example, the bottom surface) at a predetermined angle in addition to a perpendicular line.

指定領域設定部113は、指定座標及び投影座標に基づいて、空間に指定領域を設定する。例えば、指定領域設定部113は、指定座標の4点及び投影座標の4点を頂点とする四角柱を指定領域として設定する。指定領域に人物などが立ち入った際に、入出力部103、通知部104、及び表示部105の少なくとも1つが通報又は警報を出力する。   The designated area setting unit 113 sets a designated area in the space based on the designated coordinates and the projected coordinates. For example, the designated area setting unit 113 sets, as the designated area, a quadrangular prism whose apexes are four designated coordinates and four projected coordinates. When a person or the like enters the designated area, at least one of the input / output unit 103, the notification unit 104, and the display unit 105 outputs a notification or an alarm.

図2は、本発明に係る画像処理装置の具体的な構成例を示すブロック図である。図2に示すように、撮像部101に相当する撮像装置121は、対象物を撮像し、外光を画像データに変換するデジタルカメラ又はビデオカメラなどである。制御部102に相当する処理装置122は、画像処理装置100の各要素を制御処理するCPU、MPU、及びGPUなどである。   FIG. 2 is a block diagram showing a specific configuration example of the image processing apparatus according to the present invention. As illustrated in FIG. 2, the imaging device 121 corresponding to the imaging unit 101 is a digital camera or a video camera that images an object and converts external light into image data. A processing device 122 corresponding to the control unit 102 is a CPU, MPU, GPU, or the like that performs control processing on each element of the image processing device 100.

入出力部103に相当する入出力装置123は、画像処理装置100に信号を入出力するボタン、センサ(距離センサなど)、タッチパネル、及び音声入出力装置などのUI(ユーザ・インターフェイス)である。なお、入出力部103は画像処理装置100に電気的に接続されていればよく、図2のようにバスで接続されている必要はない。   An input / output device 123 corresponding to the input / output unit 103 is a UI (user interface) such as a button for inputting / outputting a signal to / from the image processing apparatus 100, a sensor (distance sensor, etc.), a touch panel, and a voice input / output device. Note that the input / output unit 103 only needs to be electrically connected to the image processing apparatus 100, and does not need to be connected by a bus as shown in FIG.

通知部104に相当する通知装置124は、指定座標の入力成否、指定座標の入力内容、画像データ、及び距離情報などの各種の情報をユーザに通知するLED、スピーカ、及びディスプレイなどである。表示部105に相当する表示装置125は、撮像部101の2次元画像や各種情報を表示するディスプレイなどである。記憶部106に相当する記憶装置126は、画像処理プログラムや撮像部101により取得された画像データや制御部102の処理結果などの各種のデータを保持するメモリやハードディスクなどである。   The notification device 124 corresponding to the notification unit 104 is an LED, a speaker, a display, or the like that notifies the user of various information such as success / failure of input of designated coordinates, input contents of designated coordinates, image data, and distance information. A display device 125 corresponding to the display unit 105 is a display that displays a two-dimensional image of the imaging unit 101 and various types of information. A storage device 126 corresponding to the storage unit 106 is a memory, a hard disk, or the like that holds various data such as an image processing program, image data acquired by the imaging unit 101, and processing results of the control unit 102.

なお、図2に示す画像処理装置の構成例は一例であり、ここで示した以外の構成要素を含んでいてもよい。また、外部の汎用コンピュータなどを用いて、画像処理プログラムが実行されてもよいし、電子回路上で画像処理プログラムが実行されてもよい。   Note that the configuration example of the image processing apparatus illustrated in FIG. 2 is an example, and may include components other than those illustrated here. Further, the image processing program may be executed using an external general-purpose computer or the like, or the image processing program may be executed on an electronic circuit.

次に、指定領域の設定について説明する。図3は、指定領域の設定の一例を示す図である。図3(a)では、監視カメラ(撮像部)301が、監視の対象である対象物303を撮像し、2次元画像を取得する。また、距離センサ302が、物体までの距離を計測し、距離情報を距離情報取得部110に出力する。   Next, setting of the designated area will be described. FIG. 3 is a diagram illustrating an example of setting a designated area. In FIG. 3A, a monitoring camera (imaging unit) 301 images a target object 303 to be monitored and acquires a two-dimensional image. Further, the distance sensor 302 measures the distance to the object, and outputs the distance information to the distance information acquisition unit 110.

ここで、ユーザは、対象物303を囲む3次元領域を指定領域として設定するために、指定物体(例えば、LED)を有するポインタ304を用いて空間における指定座標を指定する。ポインタ304は、スイッチによりLEDの点灯を可能とし、指定座標を指定したい位置でLEDの点灯をONにすることで、指定座標の位置を指定する。   Here, the user designates designated coordinates in the space using a pointer 304 having a designated object (for example, LED) in order to set a three-dimensional region surrounding the object 303 as the designated region. The pointer 304 enables the LED to be turned on by a switch, and designates the position of the designated coordinate by turning on the LED at a position where the designated coordinate is desired to be designated.

図3(b)では、物体表面までの距離情報により、空間における物体の3次元座標が点群として出力される。平面抽出部115は、物体の表面を示す3次元点群から平面305,306を推定して抽出する。例えば、特許第4016180号に開示される技術を用いることで、平面305,306の推定が実現される。   In FIG. 3B, the three-dimensional coordinates of the object in the space are output as a point group based on the distance information to the object surface. The plane extraction unit 115 estimates and extracts the planes 305 and 306 from a three-dimensional point group indicating the surface of the object. For example, the estimation of the planes 305 and 306 is realized by using the technique disclosed in Japanese Patent No. 4016180.

基準面設定部116は、平面抽出部115により抽出された平面305,306から底面を設定する。例えば、抽出された平面のうち、最も下方向にある平面306を底面として設定してもよい。また、所定のパターンが表示されたマーカーを床面の一部又は床面以外の平面(例えば、壁面)に貼付し、撮像部101により撮像された2次元画像からマーカーの位置と方向を検出することで、底面が設定されてもよい。また、距離センサの座標系を実空間の座標系に対して予めキャリブレ―ションしておき、仮想的に与えた平面を底面として設定してもよい。   The reference plane setting unit 116 sets the bottom surface from the planes 305 and 306 extracted by the plane extraction unit 115. For example, the lowermost plane 306 among the extracted planes may be set as the bottom surface. In addition, a marker displaying a predetermined pattern is attached to a part of the floor surface or a plane other than the floor surface (for example, a wall surface), and the position and direction of the marker are detected from the two-dimensional image captured by the imaging unit 101. Thus, the bottom surface may be set. Also, the coordinate system of the distance sensor may be calibrated in advance with respect to the coordinate system of the real space, and a virtually given plane may be set as the bottom surface.

このように、距離センサによる距離情報、床面の一部又は床面以外の平面に貼付されたマーカー、又はキャリブレーションによる仮想平面に基づいて底面が抽出される。この結果、2次元画像から床面の座標を検出する必要がなくなり、床面が確実に認識される範囲まで2次元画像に含まれる必要がなくなる。つまり、必要以上に広い画角で監視カメラ301を設置したり、監視カメラ301の光軸を下方向に傾けたりする必要がなくなり、真に欲する対象物の領域の画像を撮像することができる。   In this way, the bottom surface is extracted based on the distance information from the distance sensor, the marker attached to a part of the floor surface or a plane other than the floor surface, or the virtual plane by calibration. As a result, it is not necessary to detect the coordinates of the floor surface from the two-dimensional image, and it is not necessary to include the floor surface in a range where the floor surface can be reliably recognized. That is, it is not necessary to install the monitoring camera 301 with an angle of view wider than necessary, or to tilt the optical axis of the monitoring camera 301 downward, and an image of the area of the target that is truly desired can be taken.

図3(c)では、監視カメラ301が空間を撮像して2次元画像を取得する。指定座標取得部111は、2次元画像内のポインタ(指定物体)304を検出し、2次元画像におけるポインタ304の位置から指定座標を取得する。指定座標取得部111は、LEDの発光に起因する局所的に高輝度な点を2次元画像から検出することにより、指定座標の位置307を取得する。また、指定座標取得部111は、QRコード(登録商標)や所定のパターンが表示されたマーカーを2次元画像から検出することにより、指定座標の位置307を取得する。   In FIG. 3C, the monitoring camera 301 captures a space and acquires a two-dimensional image. The designated coordinate acquisition unit 111 detects a pointer (designated object) 304 in the two-dimensional image and obtains designated coordinates from the position of the pointer 304 in the two-dimensional image. The designated coordinate obtaining unit 111 obtains a designated coordinate position 307 by detecting a locally high-brightness point caused by the light emission of the LED from the two-dimensional image. Also, the designated coordinate acquisition unit 111 acquires a designated coordinate position 307 by detecting a marker displaying a QR code (registered trademark) or a predetermined pattern from the two-dimensional image.

このように、指定座標取得部111は、2次元画像におけるポインタ(指定物体)304の位置に基づいて、指定領域に対応する指定座標を取得するので、監視の対象である対象物303が存在しない場合であっても指定領域を設定することができる。   As described above, the designated coordinate acquisition unit 111 acquires the designated coordinates corresponding to the designated area based on the position of the pointer (designated object) 304 in the two-dimensional image, and thus there is no target object 303 to be monitored. Even in this case, the designated area can be set.

なお、2次元画像から指定座標を取得するために、監視カメラ301はステレオカメラ又は複数のカメラにより構成される。また、単眼測距技術を用いれば、監視カメラ301は単眼カメラにより構成されてもよい。これにより、監視カメラ301が撮像する空間の座標(2次元画像内の空間座標)の座標系を設定することができる。   Note that the monitoring camera 301 includes a stereo camera or a plurality of cameras in order to acquire designated coordinates from a two-dimensional image. Further, if the monocular distance measuring technique is used, the monitoring camera 301 may be configured by a monocular camera. Thereby, the coordinate system of the coordinate of the space which the monitoring camera 301 images (spatial coordinates in the two-dimensional image) can be set.

また、図3(c)では、指定座標の位置307を円形のマークで表示しているが、監視カメラ301の実際の2次元画像にマークは表示されなくてもよい。また、通知部104のディスプレイに表示される2次元画像には、指定座標の位置307を表すマークが表示され、表示部105のディスプレイに表示される2次元画像には、指定座標の位置307を表すマークが表示されないようにしてもよい。このように、装置によってマークの表示/非表示が区別されてもよい。   In FIG. 3C, the position 307 of the designated coordinate is displayed as a circular mark, but the mark may not be displayed in the actual two-dimensional image of the monitoring camera 301. Further, a mark representing the designated coordinate position 307 is displayed on the two-dimensional image displayed on the display of the notification unit 104, and the designated coordinate position 307 is displayed on the two-dimensional image displayed on the display of the display unit 105. The mark to represent may not be displayed. In this way, display / non-display of the mark may be distinguished by the apparatus.

また、指定座標取得部111は、指定座標の消去、移動、及び変更の少なくとも1つを実行してもよい。この場合、ポインタ304が入出力装置123を備え、ポインタ304のボタンや切り替えスイッチを押下することで、これらの処理が実行されてもよい。   The designated coordinate acquisition unit 111 may execute at least one of erasing, moving, and changing the designated coordinates. In this case, the pointer 304 includes the input / output device 123, and these processes may be executed by pressing a button or a changeover switch of the pointer 304.

図3(d)では、指定座標取得部111は、2次元画像から取得された指定座標の位置307に基づいて、3次元座標における指定座標の位置308を取得する。この場合、座標設定部117が、2次元画像内の空間座標の座標系と距離情報に基づく3次元座標の座標系とを一致させている。例えば、監視カメラ301と測距センサ302の相対位置又は基準位置が分かれば、座標系を一致させることができる。座標系を一致させることにより、指定座標取得部111は、2次元画像内の指定座標の位置307と距離情報に基づく3次元座標における指定座標の位置308を一致させることができる。   In FIG. 3D, the designated coordinate acquisition unit 111 acquires the designated coordinate position 308 in the three-dimensional coordinates based on the designated coordinate position 307 obtained from the two-dimensional image. In this case, the coordinate setting unit 117 matches the coordinate system of the spatial coordinates in the two-dimensional image with the coordinate system of the three-dimensional coordinates based on the distance information. For example, if the relative position or reference position of the monitoring camera 301 and the distance measuring sensor 302 is known, the coordinate systems can be matched. By matching the coordinate system, the designated coordinate acquisition unit 111 can match the designated coordinate position 307 in the two-dimensional image with the designated coordinate position 308 in the three-dimensional coordinates based on the distance information.

また、投影座標取得部112が、指定座標を底面(基準面)に投影した投影座標の位置309を取得する。なお、基準面は、曲面であってもよく、底面以外の面であってもよい。例えば、対象物が絵画であり、側面(壁面)に設置されている場合、側面を基準面として、指定座標を側面に投影した投影座標の位置309を取得する。通知部104又は表示部105のディスプレイが、平面抽出部115により抽出された平面を表示し、入出力部103が、抽出された平面から基準面を選択してもよい。また、入出力部103が、距離情報に基づく3次元座標において基準面を任意に設定してもよい。   Further, the projection coordinate acquisition unit 112 acquires the position 309 of the projection coordinates obtained by projecting the designated coordinates on the bottom surface (reference plane). Note that the reference surface may be a curved surface or a surface other than the bottom surface. For example, when the object is a painting and is installed on a side surface (wall surface), a position 309 of projection coordinates obtained by projecting designated coordinates onto the side surface is acquired using the side surface as a reference surface. The display of the notification unit 104 or the display unit 105 may display the plane extracted by the plane extraction unit 115, and the input / output unit 103 may select the reference plane from the extracted plane. Further, the input / output unit 103 may arbitrarily set the reference plane in the three-dimensional coordinates based on the distance information.

図3(e)では、4つの指定座標が指定され、これらの指定座標を投影した4つの投影座標が示されている。そして、指定領域設定部113は、指定座標及び投影座標に基づいて、3次元座標に指定領域を設定する。図3(e)では、指定領域設定部113は、指定座標の4点及び投影座標の4点を頂点とする四角柱を指定領域310として設定する。   In FIG. 3E, four designated coordinates are designated, and four projected coordinates obtained by projecting these designated coordinates are shown. Then, the designated area setting unit 113 sets the designated area in the three-dimensional coordinates based on the designated coordinates and the projected coordinates. In FIG. 3E, the designated area setting unit 113 sets, as the designated area 310, a quadrangular prism having apexes at four designated coordinates and four projected coordinates.

図3(f)では、指定領域設定部113が、指定領域310の中心を共通の中心として指定領域310を拡大し、指定領域310を指定領域311に変更する。指定領域310と指定領域311は相似形である。   In FIG. 3F, the designated area setting unit 113 enlarges the designated area 310 with the center of the designated area 310 as a common center, and changes the designated area 310 to the designated area 311. The designated area 310 and the designated area 311 are similar.

このように、指定領域設定部113は、指定領域310の数、大きさ、位置、及び形状の少なくとも1つを調整してもよい。この結果、指定領域310を容易に設定又は変更することで、対象物が取り替えられた場合であっても、対象物の大きさや数などに迅速に対応することができる。また、指定領域310及び指定領域311などの複数の指定領域を設定することで、人物の侵入場所や人物と対象物との距離に応じた警戒レベルを設定することができる。例えば、人物が指定領域311に侵入した場合は低レベルの警戒を発令し、人物が指定領域310に侵入した場合は高レベルの警戒を発令してもよい。   As described above, the designated area setting unit 113 may adjust at least one of the number, size, position, and shape of the designated area 310. As a result, by easily setting or changing the designated area 310, it is possible to quickly cope with the size and number of objects even when the object is replaced. Further, by setting a plurality of designated areas such as the designated area 310 and the designated area 311, it is possible to set a warning level according to the intrusion location of the person and the distance between the person and the target object. For example, a low level alert may be issued when a person enters the designated area 311, and a high level alert may be issued when a person enters the designated area 310.

次に、画像処理装置100の動作について説明する。図4は、本発明に係る画像処理装置100の動作の一例を示すフローチャートである。   Next, the operation of the image processing apparatus 100 will be described. FIG. 4 is a flowchart showing an example of the operation of the image processing apparatus 100 according to the present invention.

ステップS401において、入出力部103が、指定領域の形状(指定形状)を設定する。複数の指定形状(例えば、多角柱、円柱、及び平面など)が記憶部106に予め登録されており、入出力部103が指定形状を選択してもよい。この場合、ポインタ304が入出力装置123を備え、ポインタ304のボタンや切り替えスイッチを押下することで、指定形状が設定されてもよい。指定形状が設定された場合は、指定形状を規定する点(例えば、頂点)が、形状規定情報として指定形状情報とともに記憶部106に保持され、制御部102に入力される。   In step S401, the input / output unit 103 sets the shape (specified shape) of the specified region. A plurality of designated shapes (for example, a polygonal cylinder, a cylinder, and a plane) may be registered in the storage unit 106 in advance, and the input / output unit 103 may select the designated shape. In this case, the pointer 304 may include the input / output device 123, and the designated shape may be set by pressing a button or a changeover switch of the pointer 304. When the designated shape is set, a point (for example, a vertex) that defines the designated shape is held in the storage unit 106 together with the designated shape information as shape defining information, and is input to the control unit 102.

ステップS402において、撮像部101が、監視カメラ301を用いて、対象物303を含む空間を撮像し、撮影画像(2次元画像)を取得する。ステップS403において、指定座標取得部111が、2次元画像内のポインタ(指定物体)304を検出する。   In step S <b> 402, the imaging unit 101 captures a space including the object 303 using the monitoring camera 301 and acquires a captured image (two-dimensional image). In step S403, the designated coordinate acquisition unit 111 detects a pointer (designated object) 304 in the two-dimensional image.

ステップS402,S403とは別に、ステップS404において、距離センサ302が、対象物303を含む空間の距離情報を取得し、距離情報を距離情報取得部110に出力する。ステップS405において、平面抽出部115が、物体の表面を示す3次元点群から平面305,306を推定して抽出し、基準面設定部116が、平面抽出部115により抽出された平面305,306から底面を基準面として設定する。   Separately from steps S402 and S403, in step S404, the distance sensor 302 acquires the distance information of the space including the object 303, and outputs the distance information to the distance information acquisition unit 110. In step S405, the plane extraction unit 115 estimates and extracts the planes 305 and 306 from the three-dimensional point group indicating the surface of the object, and the reference plane setting unit 116 extracts the planes 305 and 306 extracted by the plane extraction unit 115. To set the bottom as the reference plane.

ステップS406において、指定座標取得部111は、撮像部101の撮像空間と距離情報取得部110の距離情報との座標系を一致させることにより、2次元画像から取得された指定座標の位置を3次元座標の座標系で取得する。   In step S406, the designated coordinate acquisition unit 111 matches the coordinate system of the imaging space of the imaging unit 101 and the distance information of the distance information acquisition unit 110, thereby obtaining the three-dimensional position of the designated coordinate acquired from the two-dimensional image. Get in the coordinate system of coordinates.

ステップS407において、通知部104が、指定座標取得部111により指定座標が取得されたことを通知し、指定座標の入力成否をユーザに通知する。例えば、ポインタ304の先端に取り付けられた指定物体が、撮像部101の撮像範囲外にあって撮像画像に写らなかったり、他の物体に隠れたりする場合、ステップS406において指定座標の位置を3次元座標の座標系で取得できないことがある。そのため、指定座標の位置を3次元座標の座標系で取得できた場合には、指定座標の入力成立をユーザに通知することで、ユーザが意図する指定座標の入力を支援することができる。   In step S407, the notification unit 104 notifies that the designated coordinates have been acquired by the designated coordinate acquisition unit 111, and notifies the user of the success or failure of input of the designated coordinates. For example, if the designated object attached to the tip of the pointer 304 is outside the imaging range of the imaging unit 101 and does not appear in the captured image or is hidden by another object, the position of the designated coordinate is three-dimensional in step S406. It may not be obtained in the coordinate system of coordinates. Therefore, when the position of the designated coordinate can be acquired in the coordinate system of the three-dimensional coordinate, the input of the designated coordinate intended by the user can be supported by notifying the user that the designated coordinate is input.

例えば、通知部104の通知は、監視カメラ301に備えられたLEDを点灯させることにより実現される。また、通知部104の通知は、音声、ポインタ304の振動、及びディスプレイに表示される撮像画像中のマークなどにより実現されてもよい。   For example, the notification of the notification unit 104 is realized by turning on an LED provided in the monitoring camera 301. The notification of the notification unit 104 may be realized by voice, vibration of the pointer 304, a mark in a captured image displayed on the display, and the like.

ステップS408において、指定領域設定部113が、ステップS401で設定された指定形状を規定するために必要な指定座標の全てが指定されたか否かを判定する。指定座標の全てが指定されていない場合は、ステップS402及びステップS404に戻り、指定座標の指定が行われる。指定座標の全てが指定されていない場合は、ステップS409へ進む。   In step S408, the designated area setting unit 113 determines whether all the designated coordinates necessary for defining the designated shape set in step S401 have been designated. If all the designated coordinates are not designated, the process returns to step S402 and step S404, and designated coordinates are designated. If all of the designated coordinates are not designated, the process proceeds to step S409.

例えば、ステップS401で設定された指定形状が四角柱であり、四角柱を規定するために必要な指定座標の数が4つである場合は、指定領域設定部113が、4つの指定座標が指定されているか否かを判定する。4つの指定座標が指定されていない場合は、ステップS402及びステップS404に戻り、4つの指定座標が指定されている場合は、ステップS409へ進む。   For example, when the designated shape set in step S401 is a quadrangular prism and the number of designated coordinates required to define the quadrangular prism is four, the designated area setting unit 113 designates four designated coordinates. It is determined whether or not it has been done. If four designated coordinates are not designated, the process returns to step S402 and step S404, and if four designated coordinates are designated, the process proceeds to step S409.

ステップS409において、投影座標取得部112が、指定座標を底面(基準面)に投影した投影座標の位置を3次元座標の座標系で取得する。ステップS410において、ステップS406で取得した指定座標の位置とステップS409で取得した投影座標の位置から、指定領域設定部113が3次元座標に指定領域を設定する。例えば、四角柱の形状規定情報に従って4つの指定座標が指定されている場合、4つの指定座標と4つの投影座標とを頂点とする四角柱が指定領域として設定される。   In step S409, the projection coordinate acquisition unit 112 acquires the position of the projection coordinates obtained by projecting the designated coordinates on the bottom surface (reference plane) in the three-dimensional coordinate system. In step S410, the designated area setting unit 113 sets the designated area as a three-dimensional coordinate from the position of the designated coordinate acquired in step S406 and the position of the projection coordinate acquired in step S409. For example, when four designated coordinates are designated according to the shape definition information of the quadrangular prism, a quadrangular prism having apexes of the four designated coordinates and the four projected coordinates is set as the designated area.

ステップS411において、指定領域設定部113が、入出力部103の入力に従って指定領域の調整が必要か否かを判断する。指定領域の調整が必要である場合は、ステップS412に進み、指定領域設定部113が、指定領域の数、大きさ、位置、及び形状の少なくとも1つを調整する。指定領域の調整が不要である場合は、処理が終了する。   In step S <b> 411, the designated area setting unit 113 determines whether the designated area needs to be adjusted according to the input from the input / output unit 103. If adjustment of the designated area is necessary, the process proceeds to step S412 and the designated area setting unit 113 adjusts at least one of the number, size, position, and shape of the designated area. If it is not necessary to adjust the designated area, the process ends.

このように、本実施形態に係る画像処理方法は、空間における物体からの距離情報を取得し、距離情報に基づいて空間の基準面及び空間の3次元座標を設定する工程を備える。また、本実施形態に係る画像処理方法は、空間に配置された指定物体を検出し、3次元座標における指定物体の座標を指定座標として取得する工程と、指定座標を基準面に投影した投影座標を取得する工程とを備える。また、本実施形態に係る画像処理方法は、指定座標及び投影座標に基づいて、空間に指定領域を設定する工程を備える。   As described above, the image processing method according to the present embodiment includes a step of acquiring distance information from an object in a space and setting a reference plane of the space and a three-dimensional coordinate of the space based on the distance information. In addition, the image processing method according to the present embodiment includes a step of detecting a designated object arranged in a space, obtaining the coordinates of the designated object in three-dimensional coordinates as designated coordinates, and projected coordinates on which the designated coordinates are projected on a reference plane And obtaining a process. Further, the image processing method according to the present embodiment includes a step of setting a designated area in the space based on the designated coordinates and the projected coordinates.

以上、本発明にかかる実施形態について説明したが、本発明はこれらに限定されるものではなく、請求項に記載された範囲内において変更・変形することが可能である。   As mentioned above, although embodiment concerning this invention was described, this invention is not limited to these, It can change and change within the range described in the claim.

例えば、ステップS401において、入出力部103が、複数の指定形状から指定形状を選択してもよいし、所定の指定形状を入力してもよい。図5は、指定形状の例を示す図である。図5の黒い円形のマークは、指定形状を規定する点のうち、指定形状を規定するために必要な指定座標を示している。図5の白い円形のマークは、指定形状を規定する点のうち、指定形状を規定するために必要な投影座標を示している。   For example, in step S401, the input / output unit 103 may select a specified shape from a plurality of specified shapes, or may input a predetermined specified shape. FIG. 5 is a diagram illustrating an example of the designated shape. The black circular marks in FIG. 5 indicate the designated coordinates necessary for defining the designated shape among the points defining the designated shape. White circular marks in FIG. 5 indicate projection coordinates necessary for defining the designated shape among the points defining the designated shape.

図5(a)は、N角柱の指定形状である。Nは3以上の任意整数であり、指定座標の必要数S1はN個である(形状規定情報:N角柱,S1=N)。この場合、形状規定情報に従って、N個の指定座標が取得され、それらを基準面に投影した投影座標がN個取得される。そして、N個の指定座標及びN個の投影座標を頂点とするN角柱が指定領域として設定される。N角柱の高さは、N個の指定座標の高さの平均であってもよいし、予め設定された高さHであってもよい。また、N角柱ではなく、N個の指定座標を含む任意の平面又は曲面で上面を構成する柱状体が、指定領域として設定されてもよい。   FIG. 5A shows the designated shape of the N prism. N is an arbitrary integer of 3 or more, and the required number S1 of designated coordinates is N (shape defining information: N prism, S1 = N). In this case, N designated coordinates are acquired according to the shape defining information, and N projected coordinates obtained by projecting them on the reference plane are acquired. Then, an N prism having the N designated coordinates and the N projected coordinates as vertices is set as the designated area. The height of the N prism may be the average of the heights of the N designated coordinates, or may be a preset height H. In addition, a columnar body that forms an upper surface with an arbitrary plane or curved surface including N designated coordinates, instead of an N prism, may be set as the designated area.

図5(b)は、図5(a)と形状規定情報が異なる正N角柱の指定形状である。Nは3以上の任意整数であり、指定座標の必要数S2は2個である(形状規定情報:正N角柱,S2=2)。この場合、形状規定情報に従って、2個の指定座標が取得され、それらを基準面に投影した投影座標が2個取得される。そして、2個の指定座標のうち1つを正N角形の中心とし、もう1つを頂点とする正N角形が構成され、正N角形の各頂点の頂点座標が取得される。また、正N角形の各頂点を基準面に投影した投影座標が取得される。N個の頂点座標及びN個の投影座標を頂点とする正N角柱が指定領域として設定される。   FIG. 5B shows a specified shape of a regular N prism having shape defining information different from that in FIG. N is an arbitrary integer of 3 or more, and the required number S2 of designated coordinates is 2 (shape defining information: regular N prism, S2 = 2). In this case, two specified coordinates are acquired according to the shape defining information, and two projection coordinates obtained by projecting them on the reference plane are acquired. Then, a regular N-gon is formed with one of the two designated coordinates as the center of the regular N-gon and the other as a vertex, and the vertex coordinates of each vertex of the regular N-gon are acquired. Also, projection coordinates obtained by projecting each vertex of the regular N-gon on the reference plane are acquired. A normal N prism having N vertex coordinates and N projected coordinates as vertices is set as the designated area.

図5の(c)は、円柱の指定形状である。指定座標の必要数S3は2個である(形状規定情報:円柱,S3=2)。この場合、形状規定情報に従って、2個の指定座標が取得され、それらを基準面に投影した投影座標が2個取得される。そして、2個の指定座標のうち1つを円形の中心とし、もう1つを中心までの半径とする円形が構成され、円形の座標が取得される。また、円形を基準面に投影した投影座標が取得される。円形の座標を投影方向に平行移動させた円柱が指定領域として設定される。   (C) of FIG. 5 is the designated shape of a cylinder. The required number S3 of designated coordinates is two (shape defining information: cylinder, S3 = 2). In this case, two specified coordinates are acquired according to the shape defining information, and two projection coordinates obtained by projecting them on the reference plane are acquired. A circle having one of the two designated coordinates as the center of the circle and the other as the radius to the center is formed, and the circle coordinates are acquired. Also, the projection coordinates obtained by projecting the circle onto the reference plane are acquired. A cylinder obtained by translating circular coordinates in the projection direction is set as the designated area.

図5(d)は、平面の指定形状である。例えば、平面の指定領域を通過した人物の数をカウントする場合に、平面の指定形状が設定される。指定座標の必要数S4は2個である(形状規定情報:平面,S4=2)。この場合、形状規定情報に従って、2個の指定座標が取得され、それらを基準面に投影した投影座標が2個取得される。そして、2個の指定座標及び2個の投影座標を頂点とする平面が指定領域として設定される。   FIG. 5D shows a designated shape of a plane. For example, when the number of persons who have passed through the plane designated area is counted, the plane designated shape is set. The required number S4 of designated coordinates is two (shape defining information: plane, S4 = 2). In this case, two specified coordinates are acquired according to the shape defining information, and two projection coordinates obtained by projecting them on the reference plane are acquired. A plane having two designated coordinates and two projected coordinates as vertices is set as the designated area.

図5(e)は、任意の指定形状である。指定座標の必要数S5は不定である(形状規定情報:任意形状,S5=不定)。この場合、形状規定情報に従って、任意のM個の指定座標が取得され、それらを基準面に投影した投影座標がM個取得される。そして、M個の指定座標及びM個の投影座標を頂点とする柱状体が指定領域として設定される。ポインタ304のボタンや切り替えスイッチを押下してLEDを所定のパターンで点滅させることで、撮像部101の撮像画像を介して、指定座標の指定終了を指定領域設定部113に出力してもよい。   FIG. 5E shows an arbitrary designated shape. The required number S5 of designated coordinates is indefinite (shape defining information: arbitrary shape, S5 = undefined). In this case, arbitrary M designated coordinates are acquired according to the shape defining information, and M projected coordinates obtained by projecting them onto the reference plane are acquired. A columnar body having apexes at M designated coordinates and M projected coordinates is set as the designated area. The designation end of the designated coordinates may be output to the designated area setting unit 113 via the captured image of the imaging unit 101 by pressing the button of the pointer 304 or the changeover switch to blink the LED in a predetermined pattern.

また、任意の指定形状である場合、M個の投影座標を全て包含する多角形を算出し、この多角形を投影方向と逆方向に平行移動させた多角柱が指定領域として設定されてもよい。図6は、M個の投影座標を全て包含する多角形を算出する手法の一例を示す図である。図6(a)に示すように、指定領域設定部113は、M個の投影座標のうち、y座標が最小になる投影座標601を取得する。指定領域設定部113は、投影座標601とその他の投影座標とを結ぶ直線がx軸と成す角度をそれぞれ求め、角度が最小になる投影座標602を取得する。   In the case of an arbitrary designated shape, a polygon that includes all M projection coordinates may be calculated, and a polygonal column obtained by translating the polygon in a direction opposite to the projection direction may be set as the designated region. . FIG. 6 is a diagram illustrating an example of a technique for calculating a polygon that includes all M projected coordinates. As shown in FIG. 6A, the designated area setting unit 113 acquires a projected coordinate 601 that minimizes the y coordinate among the M projected coordinates. The designated area setting unit 113 obtains each angle formed by a straight line connecting the projection coordinates 601 and other projection coordinates with the x axis, and obtains the projection coordinates 602 that minimizes the angle.

そして、図6(b)に示すように、指定領域設定部113は、投影座標601,602を結ぶ直線を多角形の1辺とする。次に、指定領域設定部113は、投影座標601とその他の投影座標とを結ぶ直線がx軸と成す角度をそれぞれ求め、角度が最小になる投影座標603を取得する。指定領域設定部113は、最初に取得した投影座標601が再度取得されるまで、この処理を繰り返す。そして、最終的に取得された投影座標を頂点とする多角形が、M個の投影座標を全て包含する多角形となる。   Then, as shown in FIG. 6B, the designated area setting unit 113 sets a straight line connecting the projected coordinates 601 and 602 as one side of the polygon. Next, the designated region setting unit 113 obtains each angle formed by the straight line connecting the projection coordinate 601 and other projection coordinates with the x axis, and obtains the projection coordinate 603 that minimizes the angle. The designated area setting unit 113 repeats this process until the projection coordinates 601 acquired first are acquired again. And the polygon which makes the projection coordinate finally acquired the vertex becomes a polygon which includes all M projection coordinates.

このように、指定領域設定部113は、予め設定された指定領域の形状に基づいて、指定座標及び投影座標の少なくとも1つを、指定領域の形状を規定する点とすることにより、指定領域を設定してもよい。   As described above, the designated area setting unit 113 sets the designated area as a point that defines the shape of the designated area based on at least one of the designated coordinates and the projected coordinates based on the shape of the designated area set in advance. It may be set.

図7は、通知部104又は表示部105であるディスプレイの表示画面の一例を示す図である。図7に示すように、ディスプレイ701は、撮像部101により撮像された撮像画像702を表示する。撮像画像702には、基準面設定部116により設定された基準面(底面)703、指定座標取得部111により取得された指定座標の位置704、及び投影座標取得部112により取得された投影座標の位置705が強調表示により重畳される。   FIG. 7 is a diagram illustrating an example of a display screen of a display that is the notification unit 104 or the display unit 105. As illustrated in FIG. 7, the display 701 displays a captured image 702 captured by the imaging unit 101. The captured image 702 includes a reference plane (bottom surface) 703 set by the reference plane setting unit 116, a specified coordinate position 704 acquired by the specified coordinate acquisition unit 111, and a projection coordinate acquired by the projection coordinate acquisition unit 112. The position 705 is superimposed by highlighting.

また、撮像画像702には、位置704と位置705との結線706、指定物体の位置707、位置707を基準面に投影した投影座標の位置708、位置704と位置707とを結ぶ結線709、及び位置705と位置708とを結ぶ結線710が重畳される。   The captured image 702 includes a connection 706 between the position 704 and the position 705, a position 707 of the designated object, a position 708 of the projected coordinates obtained by projecting the position 707 on the reference plane, a connection 709 connecting the position 704 and the position 707, and A connection line 710 connecting the position 705 and the position 708 is superimposed.

このように、通知部104又は表示部105のディスプレイは、基準面(底面)703、指定物体の位置707、指定座標の位置704、投影座標の位置705、指定座標と投影座標を結ぶ線706、指定物体と指定座標とを結ぶ線709、複数の投影座標を結ぶ線710、及び指定領域の位置の少なくとも1つを撮像画像(2次元画像)702に重畳表示してもよい。また、通知部104又は表示部105のディスプレイは、複数の指定座標を結ぶ線及び指定領域の位置の少なくとも1つを撮像画像(2次元画像)702に重畳表示してもよい。   As described above, the display of the notification unit 104 or the display unit 105 includes a reference plane (bottom surface) 703, a designated object position 707, a designated coordinate position 704, a projected coordinate position 705, a line 706 connecting the designated coordinate and the projected coordinate, At least one of the line 709 connecting the specified object and the specified coordinates, the line 710 connecting the plurality of projection coordinates, and the position of the specified area may be superimposed on the captured image (two-dimensional image) 702. Further, the display of the notification unit 104 or the display unit 105 may superimpose and display at least one of a line connecting a plurality of designated coordinates and a position of the designated area on the captured image (two-dimensional image) 702.

なお、指定物体の位置707を指定座標の位置704と区別するために、指定物体が変化してもよい。例えば、ポインタ304がマーカーとLEDとを備える。そして、指定座標取得部111がマーカーを検出した場合は、指定物体の位置707が撮像画像702に重畳され、指定座標取得部111がLEDの発光を検出した場合は、指定座標の位置704が撮像画像702に重畳されてもよい。つまり、LEDの発光により指定座標が取得される。   Note that the designated object may be changed in order to distinguish the designated object position 707 from the designated coordinate position 704. For example, the pointer 304 includes a marker and an LED. When the specified coordinate acquisition unit 111 detects a marker, the position 707 of the specified object is superimposed on the captured image 702, and when the specified coordinate acquisition unit 111 detects light emission of the LED, the position 704 of the specified coordinate is captured. It may be superimposed on the image 702. That is, the designated coordinates are acquired by the light emission of the LED.

また、LEDの発光パターンが変化してもよい。この場合、指定座標取得部111が第1の発光パターンを検出した場合は、指定物体の位置707が撮像画像702に重畳され、指定座標取得部111が第2の発光パターンを検出した場合は、指定座標の位置704が撮像画像702に重畳される。   Moreover, the light emission pattern of LED may change. In this case, when the designated coordinate acquisition unit 111 detects the first light emission pattern, the position 707 of the designated object is superimposed on the captured image 702, and when the designated coordinate acquisition unit 111 detects the second light emission pattern, A designated coordinate position 704 is superimposed on the captured image 702.

つまり、指定物体が変化することにより、様々な命令を入力することができる。指定物体は、色、光、形状、動き、信号、マーカー、及びパターンの少なくとも1つにより変化すればよい。例えば、指定物体が手や指であり、手や指の動きによるジェスチャー(手を開いたり閉じたりする動作など)により、様々な命令が入力されてもよい。   That is, various commands can be input by changing the designated object. The designated object may be changed by at least one of color, light, shape, movement, signal, marker, and pattern. For example, the designated object may be a hand or a finger, and various commands may be input by gestures (movement of opening or closing the hand) by movement of the hand or finger.

図8は、指定領域設定部113が指定領域の大きさを調整する一例を示す図である。図8には、ポインタ304を用いて設定された第1の指定領域801と、第1の指定領域801の大きさが調整された第2の指定領域802の関係が示されている。図8(a)は俯瞰図であり、図8(b)は上面図であり、図8(c)は側面図であり、図8(d)は正面図である。   FIG. 8 is a diagram illustrating an example in which the designated area setting unit 113 adjusts the size of the designated area. FIG. 8 shows the relationship between the first designated area 801 set using the pointer 304 and the second designated area 802 in which the size of the first designated area 801 is adjusted. 8A is a bird's-eye view, FIG. 8B is a top view, FIG. 8C is a side view, and FIG. 8D is a front view.

指定領域設定部113が、第1の指定領域801の中心を共通の中心として第1の指定領域801の幅及び奥行を所定の距離で拡大し、第2の指定領域802に変更する。なお、指定領域設定部113は、第1の指定領域801の高さを所定の距離で拡大してもよい。   The designated area setting unit 113 enlarges the width and depth of the first designated area 801 by a predetermined distance with the center of the first designated area 801 as a common center, and changes to the second designated area 802. Note that the designated area setting unit 113 may enlarge the height of the first designated area 801 by a predetermined distance.

また、上述の実施形態の機能を実現するソフトウェア(プログラム)が、ネットワーク又は各種記憶媒体を介してシステム又は装置に供給され、そのシステム又は装置のコンピュータ(CPU、MPU、及びGPUなどを含む)により読み出されて実行されてもよい。このプログラム及びこのプログラムを記憶するコンピュータ読取可能な記憶媒体は、本発明に含まれる。   In addition, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and the computer (including a CPU, MPU, GPU, and the like) of the system or apparatus. It may be read and executed. This program and a computer-readable storage medium storing this program are included in the present invention.

以上のように、本実施形態によれば、カメラの設置位置や対象物の存在などの制約を問題とせずに、空間に配置された指定物体を検出し、指定物体の座標を基準面に投影することで3次元領域を設定することができる。   As described above, according to the present embodiment, a designated object placed in a space is detected and the coordinates of the designated object are projected onto a reference plane without causing problems such as camera installation position and the presence of an object. By doing so, a three-dimensional area can be set.

101 撮像部
102 制御部
103 入出力部
104 通知部
105 表示部
106 記憶部
110 距離情報取得部
111 指定座標取得部
112 投影座標取得部
113 指定領域設定部
115 平面抽出部
116 基準面設定部
117 座標設定部
121 撮像装置
122 処理装置
123 入出力装置
124 通知装置
125 表示装置
126 記憶装置

DESCRIPTION OF SYMBOLS 101 Image pick-up part 102 Control part 103 Input / output part 104 Notification part 105 Display part 106 Storage part 110 Distance information acquisition part 111 Designated coordinate acquisition part 112 Projection coordinate acquisition part 113 Designated area setting part 115 Plane extraction part 116 Reference plane setting part 117 Coordinate Setting unit 121 Imaging device 122 Processing device 123 Input / output device 124 Notification device 125 Display device 126 Storage device

Claims (11)

空間における物体からの距離情報を取得し、前記距離情報に基づいて前記空間の基準面及び前記空間の3次元座標を設定する距離情報取得手段と、
前記空間に配置された指定物体を検出し、前記3次元座標における前記指定物体の座標を指定座標として取得する指定座標取得手段と、
前記指定座標を前記基準面に投影した投影座標を取得する投影座標取得手段と、
前記指定座標及び前記投影座標に基づいて、前記空間に指定領域を設定する指定領域設定手段と
を備えることを特徴とする画像処理装置。
Distance information acquisition means for acquiring distance information from an object in space, and setting a reference plane of the space and a three-dimensional coordinate of the space based on the distance information;
Designated coordinate acquisition means for detecting a designated object arranged in the space and obtaining the coordinates of the designated object in the three-dimensional coordinates as designated coordinates;
Projected coordinate acquisition means for acquiring projected coordinates obtained by projecting the designated coordinates onto the reference plane;
An image processing apparatus comprising: a designated area setting unit configured to set a designated area in the space based on the designated coordinates and the projected coordinates.
前記距離情報取得手段は、
前記距離情報から前記物体の表面を示す3次元点群を取得し、前記3次元点群に基づいて平面を抽出する平面抽出手段と、
前記平面から前記基準面を設定する基準面設定手段と
を備えることを特徴とする請求項1に記載の画像処理装置。
The distance information acquisition means includes
Plane extraction means for acquiring a three-dimensional point group indicating the surface of the object from the distance information, and extracting a plane based on the three-dimensional point group;
The image processing apparatus according to claim 1, further comprising: a reference plane setting unit that sets the reference plane from the plane.
前記空間を撮像して2次元画像を取得する撮像手段を備え、
前記距離情報取得手段は、前記2次元画像内の空間座標の座標系と前記3次元座標の座標系とを一致させる座標設定手段を備え、
前記指定座標取得手段は、前記2次元画像内の前記指定物体を検出し、前記2次元画像における前記指定物体の位置から前記指定座標を取得することを特徴とする請求項1又は2に記載の画像処理装置。
Imaging means for capturing the space and acquiring a two-dimensional image;
The distance information acquisition means includes coordinate setting means for matching a coordinate system of spatial coordinates in the two-dimensional image with a coordinate system of the three-dimensional coordinates,
The said designated coordinate acquisition means detects the said designated object in the said two-dimensional image, and acquires the said designated coordinate from the position of the said designated object in the said two-dimensional image. Image processing device.
前記指定座標取得手段は、前記指定物体の色、光、形状、動き、信号、マーカー、及びパターンの少なくとも1つにより、前記指定物体を検出することを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。   4. The specified coordinate acquisition unit detects the specified object by at least one of a color, light, shape, movement, signal, marker, and pattern of the specified object. The image processing apparatus according to item 1. 前記指定座標取得手段は、前記指定座標の消去、移動、及び変更の少なくとも1つを実行することを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the designated coordinate acquisition unit executes at least one of erasing, moving, and changing the designated coordinate. 前記指定座標取得手段により前記指定座標が取得されたことを通知する通知手段を備えることを特徴とする請求項1乃至5の何れか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising a notification unit that notifies that the specified coordinate is acquired by the specified coordinate acquisition unit. 前記空間を撮像して2次元画像を取得する撮像手段と、
前記基準面の位置、前記指定物体の位置、前記指定座標の位置、前記投影座標の位置、前記指定座標と前記投影座標とを結ぶ線、前記指定物体と前記指定座標とを結ぶ線、複数の前記指定座標を結ぶ線、複数の前記投影座標を結ぶ線、及び前記指定領域の位置の少なくとも1つを前記2次元画像に表示する表示手段と
を備えることを特徴とする請求項1乃至6の何れか1項に記載の画像処理装置。
Imaging means for capturing the space and acquiring a two-dimensional image;
A position of the reference plane; a position of the designated object; a position of the designated coordinate; a position of the projected coordinate; a line connecting the designated coordinate and the projected coordinate; a line connecting the designated object and the designated coordinate; The display unit for displaying at least one of a line connecting the designated coordinates, a line connecting a plurality of the projected coordinates, and a position of the designated area on the two-dimensional image. The image processing apparatus according to any one of the above.
前記指定領域設定手段は、予め設定された前記指定領域の形状に基づいて、前記指定座標及び前記投影座標の少なくとも1つを、前記指定領域の形状を規定する点とすることにより、前記指定領域を設定することを特徴とする請求項1乃至7の何れか1項に記載の画像処理装置。   The designated area setting means sets at least one of the designated coordinates and the projection coordinates as a point that defines the shape of the designated area based on a preset shape of the designated area. The image processing device according to claim 1, wherein the image processing device is set. 前記指定領域設定手段は、前記指定領域の数、大きさ、位置、及び形状の少なくとも1つを調整することを特徴とする請求項1乃至8の何れか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the designated area setting unit adjusts at least one of the number, size, position, and shape of the designated area. 空間における物体からの距離情報を取得し、前記距離情報に基づいて前記空間の基準面及び前記空間の3次元座標を設定する工程と、
前記空間に配置された指定物体を検出し、前記3次元座標における前記指定物体の座標を指定座標として取得する工程と、
前記指定座標を前記基準面に投影した投影座標を取得する工程と、
前記指定座標及び前記投影座標に基づいて、前記空間に指定領域を設定する工程と
を備えることを特徴とする画像処理方法。
Obtaining distance information from an object in space, and setting a reference plane of the space and a three-dimensional coordinate of the space based on the distance information;
Detecting a designated object arranged in the space, and obtaining coordinates of the designated object in the three-dimensional coordinates as designated coordinates;
Obtaining projected coordinates obtained by projecting the designated coordinates onto the reference plane;
A step of setting a designated area in the space based on the designated coordinates and the projected coordinates.
コンピュータを、請求項1乃至9の何れか1項に記載の画像処理装置の各手段として機能させるためのコンピュータプログラム。

The computer program for functioning a computer as each means of the image processing apparatus of any one of Claims 1 thru | or 9.

JP2015057286A 2015-03-20 2015-03-20 Image processor, image processing method, and program Pending JP2016176816A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015057286A JP2016176816A (en) 2015-03-20 2015-03-20 Image processor, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015057286A JP2016176816A (en) 2015-03-20 2015-03-20 Image processor, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2016176816A true JP2016176816A (en) 2016-10-06

Family

ID=57069939

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015057286A Pending JP2016176816A (en) 2015-03-20 2015-03-20 Image processor, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2016176816A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110427815A (en) * 2019-06-24 2019-11-08 特斯联(北京)科技有限公司 Realize the method for processing video frequency and device of the effective contents interception of gate inhibition
JP7177239B1 (en) 2021-11-05 2022-11-22 株式会社ダイヘン Marker detection device and robot teaching system
JP2022183736A (en) * 2021-05-31 2022-12-13 セイコーエプソン株式会社 Detection method and detection system
JPWO2023032168A1 (en) * 2021-09-03 2023-03-09

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110427815A (en) * 2019-06-24 2019-11-08 特斯联(北京)科技有限公司 Realize the method for processing video frequency and device of the effective contents interception of gate inhibition
CN110427815B (en) * 2019-06-24 2020-07-10 特斯联(北京)科技有限公司 Video processing method and device for realizing interception of effective contents of entrance guard
JP2022183736A (en) * 2021-05-31 2022-12-13 セイコーエプソン株式会社 Detection method and detection system
JP7424348B2 (en) 2021-05-31 2024-01-30 セイコーエプソン株式会社 Detection method and detection system
JPWO2023032168A1 (en) * 2021-09-03 2023-03-09
JP7177239B1 (en) 2021-11-05 2022-11-22 株式会社ダイヘン Marker detection device and robot teaching system
JP2023069265A (en) * 2021-11-05 2023-05-18 株式会社ダイヘン Marker detection apparatus and robot teaching system
TWI806762B (en) * 2021-11-05 2023-06-21 日商達誼恆股份有限公司 Mark detection device and robot teaching system

Similar Documents

Publication Publication Date Title
US8730164B2 (en) Gesture recognition apparatus and method of gesture recognition
AU2014382730B2 (en) Method and device for detecting a touch between a first object and a second object
US20210112181A1 (en) Image processing device, image processing method, and recording medium
CN107545592B (en) Dynamic camera calibration
JP6723814B2 (en) Information processing apparatus, control method thereof, program, and storage medium
KR102130316B1 (en) Apparatus and method for image recognition
JP6562437B1 (en) Monitoring device and monitoring method
JP5956248B2 (en) Image monitoring device
US10664090B2 (en) Touch region projection onto touch-sensitive surface
CN108027656B (en) Input device, input method, and program
US20160292888A1 (en) Image measurement device, and recording medium
JP2016176816A (en) Image processor, image processing method, and program
JP6712778B2 (en) Object detection device, object detection system, and object detection method
JP2007243509A (en) Image processing device
JP2016114963A (en) Input operation detection device, projector device, electronic blackboard device, digital signage device, and projector system
US20180165853A1 (en) Head-mounted display apparatus and virtual object display system
JP6393409B2 (en) Image recognition system, camera state estimation device, and program
JP2007011776A (en) Monitoring system and setting device
JP2010286930A (en) Content display device, content display method, and program
US20200302643A1 (en) Systems and methods for tracking
CN113228117A (en) Authoring apparatus, authoring method, and authoring program
JP5960471B2 (en) Image monitoring device
JP7272118B2 (en) Intrusion detection devices, programs and intrusion detection systems
WO2020111053A1 (en) Monitoring device, monitoring system, monitoring method, and monitoring program
WO2021096662A1 (en) Display information on a head-mountable apparatus corresponding to data of a computing device