JP2016176816A - Image processor, image processing method, and program - Google Patents
Image processor, image processing method, and program Download PDFInfo
- Publication number
- JP2016176816A JP2016176816A JP2015057286A JP2015057286A JP2016176816A JP 2016176816 A JP2016176816 A JP 2016176816A JP 2015057286 A JP2015057286 A JP 2015057286A JP 2015057286 A JP2015057286 A JP 2015057286A JP 2016176816 A JP2016176816 A JP 2016176816A
- Authority
- JP
- Japan
- Prior art keywords
- designated
- coordinates
- coordinate
- dimensional
- space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
本発明は、画像処理装置、画像処理方法、及びプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and a program.
安全を確保するための防犯カメラの設置が進んでいる。特に、美術館や博物館など貴重な文化財を展示する場において、盗難や故意による破損などの犯罪を抑止し、早急に犯罪事件を解決するために、防犯カメラが設置されている。 Security cameras are being installed to ensure safety. In particular, in places where precious cultural properties such as art museums and museums are displayed, security cameras are installed to prevent crimes such as theft and deliberate damage, and to quickly resolve crime cases.
文化財保護のための監視システムとして、文化財から所定の距離内に人物などが立ち入った際に自動通報する監視システムが提案されている。このような監視システムは、カメラの他に距離情報を取得する測距センサを備えており、3次元領域(例えば、文化財を中心とした所定の距離内の領域)における画像と距離情報の変化を検知し、人物などの3次元領域への侵入を検知する。 As a monitoring system for protecting cultural properties, a monitoring system that automatically reports when a person or the like enters within a predetermined distance from the cultural property has been proposed. Such a monitoring system includes a distance measuring sensor that acquires distance information in addition to the camera, and changes in images and distance information in a three-dimensional region (for example, a region within a predetermined distance centered on a cultural property). And intrusion into a three-dimensional area such as a person is detected.
また、3次元領域を設定する方法として、距離情報を基に床面(基準面)を推定し、防犯カメラで撮影した2次元画像から床面の座標を検出することで、床面の座標を3次元領域の底面とする方法がある(例えば、特許文献1参照)。また、柱状の対象物を測距することにより得られた3次元点群から、柱状の対象物の3次元柱状モデルを作成する方法がある(例えば、特許文献2参照)。 In addition, as a method of setting a three-dimensional area, the floor surface (reference surface) is estimated based on distance information, and the floor surface coordinates are detected by detecting the floor surface coordinates from the two-dimensional image captured by the security camera. There is a method of setting the bottom surface of a three-dimensional region (for example, see Patent Document 1). In addition, there is a method of creating a three-dimensional columnar model of a columnar object from a three-dimensional point group obtained by measuring a columnar object (for example, see Patent Document 2).
しかし、特許文献1の方法では、防犯カメラで撮影した2次元画像から床面の座標を検出するため、3次元領域の底面に対応する床面が確実に認識される範囲まで2次元画像に含まれていなければならない。したがって、床面を撮像するために、監視領域(例えば、文化財の周囲領域)より必要以上に広い画角でカメラを設置したり、カメラ光軸を下方向に傾けたりする必要があり、真に欲する領域の画像を撮像する際の制約となることがある。 However, in the method of Patent Document 1, since the coordinates of the floor surface are detected from the two-dimensional image captured by the security camera, the two-dimensional image includes a range in which the floor surface corresponding to the bottom surface of the three-dimensional region is reliably recognized. It must be. Therefore, in order to image the floor surface, it is necessary to install a camera with an angle of view wider than necessary, or to tilt the camera optical axis downward. This may be a limitation when capturing an image of a desired area.
また、特許文献2の方法は、対象物を測距することにより得られた3次元点群から対象物に対応する3次元柱状モデルを作成するため、対象物が存在しない仮想的な3次元柱状モデルを作成することができない。 Further, the method of Patent Document 2 creates a three-dimensional columnar model corresponding to an object from a three-dimensional point group obtained by measuring the object, so that a virtual three-dimensional columnar shape having no object exists. The model cannot be created.
本発明は、カメラの設置位置や対象物の存在などの制約を解決するため、空間に配置された指定物体を検出し、指定物体の座標を基準面に投影することで3次元領域を設定することができる画像処理装置、画像処理方法、及びプログラムを提供することを目的とする。 The present invention sets a three-dimensional region by detecting a designated object arranged in a space and projecting the coordinates of the designated object on a reference plane in order to solve restrictions such as the installation position of a camera and the presence of an object. An object of the present invention is to provide an image processing apparatus, an image processing method, and a program.
本発明に係る画像処理装置は、空間における物体からの距離情報を取得し、前記距離情報に基づいて前記空間の基準面及び前記空間の3次元座標を設定する距離情報取得手段と、前記空間に配置された指定物体を検出し、前記3次元座標における前記指定物体の座標を指定座標として取得する指定座標取得手段と、前記指定座標を前記基準面に投影した投影座標を取得する投影座標取得手段と、前記指定座標及び前記投影座標に基づいて、前記空間に指定領域を設定する指定領域設定手段とを備える。 An image processing apparatus according to the present invention acquires distance information from an object in a space, and sets distance information acquisition means for setting a reference plane of the space and a three-dimensional coordinate of the space based on the distance information; Designated coordinate acquisition means for detecting the designated object arranged and obtaining the coordinates of the designated object in the three-dimensional coordinates as designated coordinates; and projection coordinate obtaining means for obtaining projection coordinates obtained by projecting the designated coordinates onto the reference plane And designated area setting means for setting a designated area in the space based on the designated coordinates and the projected coordinates.
本発明によれば、カメラの設置位置や対象物の存在などの制約を問題とせずに、空間に配置された指定物体を検出し、指定物体の座標を基準面に投影することで3次元領域を設定することができる。 According to the present invention, a three-dimensional region can be obtained by detecting a designated object arranged in a space without projecting restrictions such as the installation position of a camera or the presence of an object, and projecting the coordinates of the designated object on a reference plane. Can be set.
以下、図面を参照して本発明の実施形態を説明する。ただし、本発明は以下の実施形態に限定されるものではない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, the present invention is not limited to the following embodiments.
図1(a)は、本発明に係る画像処理装置の一例を示すブロック図である。図1(b)は、本発明に係る画像処理装置の距離情報取得部の一例を示すブロック図である。 FIG. 1A is a block diagram illustrating an example of an image processing apparatus according to the present invention. FIG. 1B is a block diagram illustrating an example of a distance information acquisition unit of the image processing apparatus according to the present invention.
図1(a)に示すように、画像処理装置100は、撮像部101、制御部102、入出力部103、通知部104、表示部105、及び記憶部106を備える。制御部102は、距離情報取得部110、指定座標取得部111、投影座標取得部112、及び指定領域設定部113を備える。また、図1(b)に示すように、距離情報取得部110は、平面抽出部115、基準面設定部116、及び座標設定部117を備える。
As illustrated in FIG. 1A, the
撮像部101は、空間における物体を撮像し、2次元画像を取得する。制御部102は、画像処理装置100を機能させるためのコンピュータプログラムを実行し、画像処理装置100の構成要素を制御する。入出力部103は、画像処理装置100に各種のデータを入出力する。通知部104は、各種の情報をユーザに通知する。表示部105は、2次元画像や各種のデータなどを表示する。記憶部106は、各種のデータを記憶する。
The
距離情報取得部110は、空間における物体からの距離情報を取得し、距離情報に基づいて空間の基準面及び空間の3次元座標を設定する。距離情報は、光や超音波の反射を利用して物体までの距離を計測する距離センサにより取得される。また、赤外線レーザなどで所定のパターンを照射し、赤外線カメラ又は撮像部101により撮像されたパターンの歪みや形状に基づいて、距離情報が取得されてもよい。
The distance
平面抽出部115は、距離情報から物体の表面を示す3次元点群を取得し、3次元点群に基づいて平面を抽出する。基準面設定部116は、平面抽出部115により抽出された平面から基準面(例えば、底面)を設定する。座標設定部117は、撮像部101により取得された2次元画像内の空間座標の座標系と距離情報に基づく3次元座標の座標系とを一致させる。
The
指定座標取得部111は、空間に配置された指定物体を検出し、3次元座標における指定物体の座標を指定座標として取得する。指定物体は、色、光、形状、移動、信号、マーカー、及びパターンの少なくとも1つにより、空間における任意の座標を指定する物体である。例えば、指定物体は、ペン型デバイスの先端に取り付けられたLEDである。この場合、指定座標取得部111は、発光のON/OFF機能を有するLEDが発光した位置を指定座標として取得する。また、指定物体は、ペン型デバイスの先端に取り付けられたQRコード(登録商標)などの2次元コードであってもよい。
The designated
また、指定物体が手や指であり、指定座標取得部111は、手や指の動きによるジェスチャー(指で円を描く動作など)により、指定座標を取得してもよい。
Further, the designated object may be a hand or a finger, and the designated
投影座標取得部112は、指定座標を基準面に投影した投影座標を取得する。基準面が底面である場合、指定座標を底面の垂線に沿って底面に投影した座標が投影座標となる。なお、投影座標取得部112は、垂線の他、所定の角度で基準面(例えば、底面)に投影された座標を投影座標としてもよい。
The projected
指定領域設定部113は、指定座標及び投影座標に基づいて、空間に指定領域を設定する。例えば、指定領域設定部113は、指定座標の4点及び投影座標の4点を頂点とする四角柱を指定領域として設定する。指定領域に人物などが立ち入った際に、入出力部103、通知部104、及び表示部105の少なくとも1つが通報又は警報を出力する。
The designated
図2は、本発明に係る画像処理装置の具体的な構成例を示すブロック図である。図2に示すように、撮像部101に相当する撮像装置121は、対象物を撮像し、外光を画像データに変換するデジタルカメラ又はビデオカメラなどである。制御部102に相当する処理装置122は、画像処理装置100の各要素を制御処理するCPU、MPU、及びGPUなどである。
FIG. 2 is a block diagram showing a specific configuration example of the image processing apparatus according to the present invention. As illustrated in FIG. 2, the
入出力部103に相当する入出力装置123は、画像処理装置100に信号を入出力するボタン、センサ(距離センサなど)、タッチパネル、及び音声入出力装置などのUI(ユーザ・インターフェイス)である。なお、入出力部103は画像処理装置100に電気的に接続されていればよく、図2のようにバスで接続されている必要はない。
An input /
通知部104に相当する通知装置124は、指定座標の入力成否、指定座標の入力内容、画像データ、及び距離情報などの各種の情報をユーザに通知するLED、スピーカ、及びディスプレイなどである。表示部105に相当する表示装置125は、撮像部101の2次元画像や各種情報を表示するディスプレイなどである。記憶部106に相当する記憶装置126は、画像処理プログラムや撮像部101により取得された画像データや制御部102の処理結果などの各種のデータを保持するメモリやハードディスクなどである。
The
なお、図2に示す画像処理装置の構成例は一例であり、ここで示した以外の構成要素を含んでいてもよい。また、外部の汎用コンピュータなどを用いて、画像処理プログラムが実行されてもよいし、電子回路上で画像処理プログラムが実行されてもよい。 Note that the configuration example of the image processing apparatus illustrated in FIG. 2 is an example, and may include components other than those illustrated here. Further, the image processing program may be executed using an external general-purpose computer or the like, or the image processing program may be executed on an electronic circuit.
次に、指定領域の設定について説明する。図3は、指定領域の設定の一例を示す図である。図3(a)では、監視カメラ(撮像部)301が、監視の対象である対象物303を撮像し、2次元画像を取得する。また、距離センサ302が、物体までの距離を計測し、距離情報を距離情報取得部110に出力する。
Next, setting of the designated area will be described. FIG. 3 is a diagram illustrating an example of setting a designated area. In FIG. 3A, a monitoring camera (imaging unit) 301 images a
ここで、ユーザは、対象物303を囲む3次元領域を指定領域として設定するために、指定物体(例えば、LED)を有するポインタ304を用いて空間における指定座標を指定する。ポインタ304は、スイッチによりLEDの点灯を可能とし、指定座標を指定したい位置でLEDの点灯をONにすることで、指定座標の位置を指定する。
Here, the user designates designated coordinates in the space using a
図3(b)では、物体表面までの距離情報により、空間における物体の3次元座標が点群として出力される。平面抽出部115は、物体の表面を示す3次元点群から平面305,306を推定して抽出する。例えば、特許第4016180号に開示される技術を用いることで、平面305,306の推定が実現される。
In FIG. 3B, the three-dimensional coordinates of the object in the space are output as a point group based on the distance information to the object surface. The
基準面設定部116は、平面抽出部115により抽出された平面305,306から底面を設定する。例えば、抽出された平面のうち、最も下方向にある平面306を底面として設定してもよい。また、所定のパターンが表示されたマーカーを床面の一部又は床面以外の平面(例えば、壁面)に貼付し、撮像部101により撮像された2次元画像からマーカーの位置と方向を検出することで、底面が設定されてもよい。また、距離センサの座標系を実空間の座標系に対して予めキャリブレ―ションしておき、仮想的に与えた平面を底面として設定してもよい。
The reference
このように、距離センサによる距離情報、床面の一部又は床面以外の平面に貼付されたマーカー、又はキャリブレーションによる仮想平面に基づいて底面が抽出される。この結果、2次元画像から床面の座標を検出する必要がなくなり、床面が確実に認識される範囲まで2次元画像に含まれる必要がなくなる。つまり、必要以上に広い画角で監視カメラ301を設置したり、監視カメラ301の光軸を下方向に傾けたりする必要がなくなり、真に欲する対象物の領域の画像を撮像することができる。
In this way, the bottom surface is extracted based on the distance information from the distance sensor, the marker attached to a part of the floor surface or a plane other than the floor surface, or the virtual plane by calibration. As a result, it is not necessary to detect the coordinates of the floor surface from the two-dimensional image, and it is not necessary to include the floor surface in a range where the floor surface can be reliably recognized. That is, it is not necessary to install the
図3(c)では、監視カメラ301が空間を撮像して2次元画像を取得する。指定座標取得部111は、2次元画像内のポインタ(指定物体)304を検出し、2次元画像におけるポインタ304の位置から指定座標を取得する。指定座標取得部111は、LEDの発光に起因する局所的に高輝度な点を2次元画像から検出することにより、指定座標の位置307を取得する。また、指定座標取得部111は、QRコード(登録商標)や所定のパターンが表示されたマーカーを2次元画像から検出することにより、指定座標の位置307を取得する。
In FIG. 3C, the
このように、指定座標取得部111は、2次元画像におけるポインタ(指定物体)304の位置に基づいて、指定領域に対応する指定座標を取得するので、監視の対象である対象物303が存在しない場合であっても指定領域を設定することができる。
As described above, the designated coordinate
なお、2次元画像から指定座標を取得するために、監視カメラ301はステレオカメラ又は複数のカメラにより構成される。また、単眼測距技術を用いれば、監視カメラ301は単眼カメラにより構成されてもよい。これにより、監視カメラ301が撮像する空間の座標(2次元画像内の空間座標)の座標系を設定することができる。
Note that the
また、図3(c)では、指定座標の位置307を円形のマークで表示しているが、監視カメラ301の実際の2次元画像にマークは表示されなくてもよい。また、通知部104のディスプレイに表示される2次元画像には、指定座標の位置307を表すマークが表示され、表示部105のディスプレイに表示される2次元画像には、指定座標の位置307を表すマークが表示されないようにしてもよい。このように、装置によってマークの表示/非表示が区別されてもよい。
In FIG. 3C, the
また、指定座標取得部111は、指定座標の消去、移動、及び変更の少なくとも1つを実行してもよい。この場合、ポインタ304が入出力装置123を備え、ポインタ304のボタンや切り替えスイッチを押下することで、これらの処理が実行されてもよい。
The designated coordinate
図3(d)では、指定座標取得部111は、2次元画像から取得された指定座標の位置307に基づいて、3次元座標における指定座標の位置308を取得する。この場合、座標設定部117が、2次元画像内の空間座標の座標系と距離情報に基づく3次元座標の座標系とを一致させている。例えば、監視カメラ301と測距センサ302の相対位置又は基準位置が分かれば、座標系を一致させることができる。座標系を一致させることにより、指定座標取得部111は、2次元画像内の指定座標の位置307と距離情報に基づく3次元座標における指定座標の位置308を一致させることができる。
In FIG. 3D, the designated coordinate
また、投影座標取得部112が、指定座標を底面(基準面)に投影した投影座標の位置309を取得する。なお、基準面は、曲面であってもよく、底面以外の面であってもよい。例えば、対象物が絵画であり、側面(壁面)に設置されている場合、側面を基準面として、指定座標を側面に投影した投影座標の位置309を取得する。通知部104又は表示部105のディスプレイが、平面抽出部115により抽出された平面を表示し、入出力部103が、抽出された平面から基準面を選択してもよい。また、入出力部103が、距離情報に基づく3次元座標において基準面を任意に設定してもよい。
Further, the projection coordinate
図3(e)では、4つの指定座標が指定され、これらの指定座標を投影した4つの投影座標が示されている。そして、指定領域設定部113は、指定座標及び投影座標に基づいて、3次元座標に指定領域を設定する。図3(e)では、指定領域設定部113は、指定座標の4点及び投影座標の4点を頂点とする四角柱を指定領域310として設定する。
In FIG. 3E, four designated coordinates are designated, and four projected coordinates obtained by projecting these designated coordinates are shown. Then, the designated
図3(f)では、指定領域設定部113が、指定領域310の中心を共通の中心として指定領域310を拡大し、指定領域310を指定領域311に変更する。指定領域310と指定領域311は相似形である。
In FIG. 3F, the designated
このように、指定領域設定部113は、指定領域310の数、大きさ、位置、及び形状の少なくとも1つを調整してもよい。この結果、指定領域310を容易に設定又は変更することで、対象物が取り替えられた場合であっても、対象物の大きさや数などに迅速に対応することができる。また、指定領域310及び指定領域311などの複数の指定領域を設定することで、人物の侵入場所や人物と対象物との距離に応じた警戒レベルを設定することができる。例えば、人物が指定領域311に侵入した場合は低レベルの警戒を発令し、人物が指定領域310に侵入した場合は高レベルの警戒を発令してもよい。
As described above, the designated
次に、画像処理装置100の動作について説明する。図4は、本発明に係る画像処理装置100の動作の一例を示すフローチャートである。
Next, the operation of the
ステップS401において、入出力部103が、指定領域の形状(指定形状)を設定する。複数の指定形状(例えば、多角柱、円柱、及び平面など)が記憶部106に予め登録されており、入出力部103が指定形状を選択してもよい。この場合、ポインタ304が入出力装置123を備え、ポインタ304のボタンや切り替えスイッチを押下することで、指定形状が設定されてもよい。指定形状が設定された場合は、指定形状を規定する点(例えば、頂点)が、形状規定情報として指定形状情報とともに記憶部106に保持され、制御部102に入力される。
In step S401, the input /
ステップS402において、撮像部101が、監視カメラ301を用いて、対象物303を含む空間を撮像し、撮影画像(2次元画像)を取得する。ステップS403において、指定座標取得部111が、2次元画像内のポインタ(指定物体)304を検出する。
In step S <b> 402, the
ステップS402,S403とは別に、ステップS404において、距離センサ302が、対象物303を含む空間の距離情報を取得し、距離情報を距離情報取得部110に出力する。ステップS405において、平面抽出部115が、物体の表面を示す3次元点群から平面305,306を推定して抽出し、基準面設定部116が、平面抽出部115により抽出された平面305,306から底面を基準面として設定する。
Separately from steps S402 and S403, in step S404, the
ステップS406において、指定座標取得部111は、撮像部101の撮像空間と距離情報取得部110の距離情報との座標系を一致させることにより、2次元画像から取得された指定座標の位置を3次元座標の座標系で取得する。
In step S406, the designated coordinate
ステップS407において、通知部104が、指定座標取得部111により指定座標が取得されたことを通知し、指定座標の入力成否をユーザに通知する。例えば、ポインタ304の先端に取り付けられた指定物体が、撮像部101の撮像範囲外にあって撮像画像に写らなかったり、他の物体に隠れたりする場合、ステップS406において指定座標の位置を3次元座標の座標系で取得できないことがある。そのため、指定座標の位置を3次元座標の座標系で取得できた場合には、指定座標の入力成立をユーザに通知することで、ユーザが意図する指定座標の入力を支援することができる。
In step S407, the
例えば、通知部104の通知は、監視カメラ301に備えられたLEDを点灯させることにより実現される。また、通知部104の通知は、音声、ポインタ304の振動、及びディスプレイに表示される撮像画像中のマークなどにより実現されてもよい。
For example, the notification of the
ステップS408において、指定領域設定部113が、ステップS401で設定された指定形状を規定するために必要な指定座標の全てが指定されたか否かを判定する。指定座標の全てが指定されていない場合は、ステップS402及びステップS404に戻り、指定座標の指定が行われる。指定座標の全てが指定されていない場合は、ステップS409へ進む。
In step S408, the designated
例えば、ステップS401で設定された指定形状が四角柱であり、四角柱を規定するために必要な指定座標の数が4つである場合は、指定領域設定部113が、4つの指定座標が指定されているか否かを判定する。4つの指定座標が指定されていない場合は、ステップS402及びステップS404に戻り、4つの指定座標が指定されている場合は、ステップS409へ進む。
For example, when the designated shape set in step S401 is a quadrangular prism and the number of designated coordinates required to define the quadrangular prism is four, the designated
ステップS409において、投影座標取得部112が、指定座標を底面(基準面)に投影した投影座標の位置を3次元座標の座標系で取得する。ステップS410において、ステップS406で取得した指定座標の位置とステップS409で取得した投影座標の位置から、指定領域設定部113が3次元座標に指定領域を設定する。例えば、四角柱の形状規定情報に従って4つの指定座標が指定されている場合、4つの指定座標と4つの投影座標とを頂点とする四角柱が指定領域として設定される。
In step S409, the projection coordinate
ステップS411において、指定領域設定部113が、入出力部103の入力に従って指定領域の調整が必要か否かを判断する。指定領域の調整が必要である場合は、ステップS412に進み、指定領域設定部113が、指定領域の数、大きさ、位置、及び形状の少なくとも1つを調整する。指定領域の調整が不要である場合は、処理が終了する。
In step S <b> 411, the designated
このように、本実施形態に係る画像処理方法は、空間における物体からの距離情報を取得し、距離情報に基づいて空間の基準面及び空間の3次元座標を設定する工程を備える。また、本実施形態に係る画像処理方法は、空間に配置された指定物体を検出し、3次元座標における指定物体の座標を指定座標として取得する工程と、指定座標を基準面に投影した投影座標を取得する工程とを備える。また、本実施形態に係る画像処理方法は、指定座標及び投影座標に基づいて、空間に指定領域を設定する工程を備える。 As described above, the image processing method according to the present embodiment includes a step of acquiring distance information from an object in a space and setting a reference plane of the space and a three-dimensional coordinate of the space based on the distance information. In addition, the image processing method according to the present embodiment includes a step of detecting a designated object arranged in a space, obtaining the coordinates of the designated object in three-dimensional coordinates as designated coordinates, and projected coordinates on which the designated coordinates are projected on a reference plane And obtaining a process. Further, the image processing method according to the present embodiment includes a step of setting a designated area in the space based on the designated coordinates and the projected coordinates.
以上、本発明にかかる実施形態について説明したが、本発明はこれらに限定されるものではなく、請求項に記載された範囲内において変更・変形することが可能である。 As mentioned above, although embodiment concerning this invention was described, this invention is not limited to these, It can change and change within the range described in the claim.
例えば、ステップS401において、入出力部103が、複数の指定形状から指定形状を選択してもよいし、所定の指定形状を入力してもよい。図5は、指定形状の例を示す図である。図5の黒い円形のマークは、指定形状を規定する点のうち、指定形状を規定するために必要な指定座標を示している。図5の白い円形のマークは、指定形状を規定する点のうち、指定形状を規定するために必要な投影座標を示している。
For example, in step S401, the input /
図5(a)は、N角柱の指定形状である。Nは3以上の任意整数であり、指定座標の必要数S1はN個である(形状規定情報:N角柱,S1=N)。この場合、形状規定情報に従って、N個の指定座標が取得され、それらを基準面に投影した投影座標がN個取得される。そして、N個の指定座標及びN個の投影座標を頂点とするN角柱が指定領域として設定される。N角柱の高さは、N個の指定座標の高さの平均であってもよいし、予め設定された高さHであってもよい。また、N角柱ではなく、N個の指定座標を含む任意の平面又は曲面で上面を構成する柱状体が、指定領域として設定されてもよい。 FIG. 5A shows the designated shape of the N prism. N is an arbitrary integer of 3 or more, and the required number S1 of designated coordinates is N (shape defining information: N prism, S1 = N). In this case, N designated coordinates are acquired according to the shape defining information, and N projected coordinates obtained by projecting them on the reference plane are acquired. Then, an N prism having the N designated coordinates and the N projected coordinates as vertices is set as the designated area. The height of the N prism may be the average of the heights of the N designated coordinates, or may be a preset height H. In addition, a columnar body that forms an upper surface with an arbitrary plane or curved surface including N designated coordinates, instead of an N prism, may be set as the designated area.
図5(b)は、図5(a)と形状規定情報が異なる正N角柱の指定形状である。Nは3以上の任意整数であり、指定座標の必要数S2は2個である(形状規定情報:正N角柱,S2=2)。この場合、形状規定情報に従って、2個の指定座標が取得され、それらを基準面に投影した投影座標が2個取得される。そして、2個の指定座標のうち1つを正N角形の中心とし、もう1つを頂点とする正N角形が構成され、正N角形の各頂点の頂点座標が取得される。また、正N角形の各頂点を基準面に投影した投影座標が取得される。N個の頂点座標及びN個の投影座標を頂点とする正N角柱が指定領域として設定される。 FIG. 5B shows a specified shape of a regular N prism having shape defining information different from that in FIG. N is an arbitrary integer of 3 or more, and the required number S2 of designated coordinates is 2 (shape defining information: regular N prism, S2 = 2). In this case, two specified coordinates are acquired according to the shape defining information, and two projection coordinates obtained by projecting them on the reference plane are acquired. Then, a regular N-gon is formed with one of the two designated coordinates as the center of the regular N-gon and the other as a vertex, and the vertex coordinates of each vertex of the regular N-gon are acquired. Also, projection coordinates obtained by projecting each vertex of the regular N-gon on the reference plane are acquired. A normal N prism having N vertex coordinates and N projected coordinates as vertices is set as the designated area.
図5の(c)は、円柱の指定形状である。指定座標の必要数S3は2個である(形状規定情報:円柱,S3=2)。この場合、形状規定情報に従って、2個の指定座標が取得され、それらを基準面に投影した投影座標が2個取得される。そして、2個の指定座標のうち1つを円形の中心とし、もう1つを中心までの半径とする円形が構成され、円形の座標が取得される。また、円形を基準面に投影した投影座標が取得される。円形の座標を投影方向に平行移動させた円柱が指定領域として設定される。 (C) of FIG. 5 is the designated shape of a cylinder. The required number S3 of designated coordinates is two (shape defining information: cylinder, S3 = 2). In this case, two specified coordinates are acquired according to the shape defining information, and two projection coordinates obtained by projecting them on the reference plane are acquired. A circle having one of the two designated coordinates as the center of the circle and the other as the radius to the center is formed, and the circle coordinates are acquired. Also, the projection coordinates obtained by projecting the circle onto the reference plane are acquired. A cylinder obtained by translating circular coordinates in the projection direction is set as the designated area.
図5(d)は、平面の指定形状である。例えば、平面の指定領域を通過した人物の数をカウントする場合に、平面の指定形状が設定される。指定座標の必要数S4は2個である(形状規定情報:平面,S4=2)。この場合、形状規定情報に従って、2個の指定座標が取得され、それらを基準面に投影した投影座標が2個取得される。そして、2個の指定座標及び2個の投影座標を頂点とする平面が指定領域として設定される。 FIG. 5D shows a designated shape of a plane. For example, when the number of persons who have passed through the plane designated area is counted, the plane designated shape is set. The required number S4 of designated coordinates is two (shape defining information: plane, S4 = 2). In this case, two specified coordinates are acquired according to the shape defining information, and two projection coordinates obtained by projecting them on the reference plane are acquired. A plane having two designated coordinates and two projected coordinates as vertices is set as the designated area.
図5(e)は、任意の指定形状である。指定座標の必要数S5は不定である(形状規定情報:任意形状,S5=不定)。この場合、形状規定情報に従って、任意のM個の指定座標が取得され、それらを基準面に投影した投影座標がM個取得される。そして、M個の指定座標及びM個の投影座標を頂点とする柱状体が指定領域として設定される。ポインタ304のボタンや切り替えスイッチを押下してLEDを所定のパターンで点滅させることで、撮像部101の撮像画像を介して、指定座標の指定終了を指定領域設定部113に出力してもよい。
FIG. 5E shows an arbitrary designated shape. The required number S5 of designated coordinates is indefinite (shape defining information: arbitrary shape, S5 = undefined). In this case, arbitrary M designated coordinates are acquired according to the shape defining information, and M projected coordinates obtained by projecting them onto the reference plane are acquired. A columnar body having apexes at M designated coordinates and M projected coordinates is set as the designated area. The designation end of the designated coordinates may be output to the designated
また、任意の指定形状である場合、M個の投影座標を全て包含する多角形を算出し、この多角形を投影方向と逆方向に平行移動させた多角柱が指定領域として設定されてもよい。図6は、M個の投影座標を全て包含する多角形を算出する手法の一例を示す図である。図6(a)に示すように、指定領域設定部113は、M個の投影座標のうち、y座標が最小になる投影座標601を取得する。指定領域設定部113は、投影座標601とその他の投影座標とを結ぶ直線がx軸と成す角度をそれぞれ求め、角度が最小になる投影座標602を取得する。
In the case of an arbitrary designated shape, a polygon that includes all M projection coordinates may be calculated, and a polygonal column obtained by translating the polygon in a direction opposite to the projection direction may be set as the designated region. . FIG. 6 is a diagram illustrating an example of a technique for calculating a polygon that includes all M projected coordinates. As shown in FIG. 6A, the designated
そして、図6(b)に示すように、指定領域設定部113は、投影座標601,602を結ぶ直線を多角形の1辺とする。次に、指定領域設定部113は、投影座標601とその他の投影座標とを結ぶ直線がx軸と成す角度をそれぞれ求め、角度が最小になる投影座標603を取得する。指定領域設定部113は、最初に取得した投影座標601が再度取得されるまで、この処理を繰り返す。そして、最終的に取得された投影座標を頂点とする多角形が、M個の投影座標を全て包含する多角形となる。
Then, as shown in FIG. 6B, the designated
このように、指定領域設定部113は、予め設定された指定領域の形状に基づいて、指定座標及び投影座標の少なくとも1つを、指定領域の形状を規定する点とすることにより、指定領域を設定してもよい。
As described above, the designated
図7は、通知部104又は表示部105であるディスプレイの表示画面の一例を示す図である。図7に示すように、ディスプレイ701は、撮像部101により撮像された撮像画像702を表示する。撮像画像702には、基準面設定部116により設定された基準面(底面)703、指定座標取得部111により取得された指定座標の位置704、及び投影座標取得部112により取得された投影座標の位置705が強調表示により重畳される。
FIG. 7 is a diagram illustrating an example of a display screen of a display that is the
また、撮像画像702には、位置704と位置705との結線706、指定物体の位置707、位置707を基準面に投影した投影座標の位置708、位置704と位置707とを結ぶ結線709、及び位置705と位置708とを結ぶ結線710が重畳される。
The captured
このように、通知部104又は表示部105のディスプレイは、基準面(底面)703、指定物体の位置707、指定座標の位置704、投影座標の位置705、指定座標と投影座標を結ぶ線706、指定物体と指定座標とを結ぶ線709、複数の投影座標を結ぶ線710、及び指定領域の位置の少なくとも1つを撮像画像(2次元画像)702に重畳表示してもよい。また、通知部104又は表示部105のディスプレイは、複数の指定座標を結ぶ線及び指定領域の位置の少なくとも1つを撮像画像(2次元画像)702に重畳表示してもよい。
As described above, the display of the
なお、指定物体の位置707を指定座標の位置704と区別するために、指定物体が変化してもよい。例えば、ポインタ304がマーカーとLEDとを備える。そして、指定座標取得部111がマーカーを検出した場合は、指定物体の位置707が撮像画像702に重畳され、指定座標取得部111がLEDの発光を検出した場合は、指定座標の位置704が撮像画像702に重畳されてもよい。つまり、LEDの発光により指定座標が取得される。
Note that the designated object may be changed in order to distinguish the designated
また、LEDの発光パターンが変化してもよい。この場合、指定座標取得部111が第1の発光パターンを検出した場合は、指定物体の位置707が撮像画像702に重畳され、指定座標取得部111が第2の発光パターンを検出した場合は、指定座標の位置704が撮像画像702に重畳される。
Moreover, the light emission pattern of LED may change. In this case, when the designated coordinate
つまり、指定物体が変化することにより、様々な命令を入力することができる。指定物体は、色、光、形状、動き、信号、マーカー、及びパターンの少なくとも1つにより変化すればよい。例えば、指定物体が手や指であり、手や指の動きによるジェスチャー(手を開いたり閉じたりする動作など)により、様々な命令が入力されてもよい。 That is, various commands can be input by changing the designated object. The designated object may be changed by at least one of color, light, shape, movement, signal, marker, and pattern. For example, the designated object may be a hand or a finger, and various commands may be input by gestures (movement of opening or closing the hand) by movement of the hand or finger.
図8は、指定領域設定部113が指定領域の大きさを調整する一例を示す図である。図8には、ポインタ304を用いて設定された第1の指定領域801と、第1の指定領域801の大きさが調整された第2の指定領域802の関係が示されている。図8(a)は俯瞰図であり、図8(b)は上面図であり、図8(c)は側面図であり、図8(d)は正面図である。
FIG. 8 is a diagram illustrating an example in which the designated
指定領域設定部113が、第1の指定領域801の中心を共通の中心として第1の指定領域801の幅及び奥行を所定の距離で拡大し、第2の指定領域802に変更する。なお、指定領域設定部113は、第1の指定領域801の高さを所定の距離で拡大してもよい。
The designated
また、上述の実施形態の機能を実現するソフトウェア(プログラム)が、ネットワーク又は各種記憶媒体を介してシステム又は装置に供給され、そのシステム又は装置のコンピュータ(CPU、MPU、及びGPUなどを含む)により読み出されて実行されてもよい。このプログラム及びこのプログラムを記憶するコンピュータ読取可能な記憶媒体は、本発明に含まれる。 In addition, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and the computer (including a CPU, MPU, GPU, and the like) of the system or apparatus. It may be read and executed. This program and a computer-readable storage medium storing this program are included in the present invention.
以上のように、本実施形態によれば、カメラの設置位置や対象物の存在などの制約を問題とせずに、空間に配置された指定物体を検出し、指定物体の座標を基準面に投影することで3次元領域を設定することができる。 As described above, according to the present embodiment, a designated object placed in a space is detected and the coordinates of the designated object are projected onto a reference plane without causing problems such as camera installation position and the presence of an object. By doing so, a three-dimensional area can be set.
101 撮像部
102 制御部
103 入出力部
104 通知部
105 表示部
106 記憶部
110 距離情報取得部
111 指定座標取得部
112 投影座標取得部
113 指定領域設定部
115 平面抽出部
116 基準面設定部
117 座標設定部
121 撮像装置
122 処理装置
123 入出力装置
124 通知装置
125 表示装置
126 記憶装置
DESCRIPTION OF
Claims (11)
前記空間に配置された指定物体を検出し、前記3次元座標における前記指定物体の座標を指定座標として取得する指定座標取得手段と、
前記指定座標を前記基準面に投影した投影座標を取得する投影座標取得手段と、
前記指定座標及び前記投影座標に基づいて、前記空間に指定領域を設定する指定領域設定手段と
を備えることを特徴とする画像処理装置。 Distance information acquisition means for acquiring distance information from an object in space, and setting a reference plane of the space and a three-dimensional coordinate of the space based on the distance information;
Designated coordinate acquisition means for detecting a designated object arranged in the space and obtaining the coordinates of the designated object in the three-dimensional coordinates as designated coordinates;
Projected coordinate acquisition means for acquiring projected coordinates obtained by projecting the designated coordinates onto the reference plane;
An image processing apparatus comprising: a designated area setting unit configured to set a designated area in the space based on the designated coordinates and the projected coordinates.
前記距離情報から前記物体の表面を示す3次元点群を取得し、前記3次元点群に基づいて平面を抽出する平面抽出手段と、
前記平面から前記基準面を設定する基準面設定手段と
を備えることを特徴とする請求項1に記載の画像処理装置。 The distance information acquisition means includes
Plane extraction means for acquiring a three-dimensional point group indicating the surface of the object from the distance information, and extracting a plane based on the three-dimensional point group;
The image processing apparatus according to claim 1, further comprising: a reference plane setting unit that sets the reference plane from the plane.
前記距離情報取得手段は、前記2次元画像内の空間座標の座標系と前記3次元座標の座標系とを一致させる座標設定手段を備え、
前記指定座標取得手段は、前記2次元画像内の前記指定物体を検出し、前記2次元画像における前記指定物体の位置から前記指定座標を取得することを特徴とする請求項1又は2に記載の画像処理装置。 Imaging means for capturing the space and acquiring a two-dimensional image;
The distance information acquisition means includes coordinate setting means for matching a coordinate system of spatial coordinates in the two-dimensional image with a coordinate system of the three-dimensional coordinates,
The said designated coordinate acquisition means detects the said designated object in the said two-dimensional image, and acquires the said designated coordinate from the position of the said designated object in the said two-dimensional image. Image processing device.
前記基準面の位置、前記指定物体の位置、前記指定座標の位置、前記投影座標の位置、前記指定座標と前記投影座標とを結ぶ線、前記指定物体と前記指定座標とを結ぶ線、複数の前記指定座標を結ぶ線、複数の前記投影座標を結ぶ線、及び前記指定領域の位置の少なくとも1つを前記2次元画像に表示する表示手段と
を備えることを特徴とする請求項1乃至6の何れか1項に記載の画像処理装置。 Imaging means for capturing the space and acquiring a two-dimensional image;
A position of the reference plane; a position of the designated object; a position of the designated coordinate; a position of the projected coordinate; a line connecting the designated coordinate and the projected coordinate; a line connecting the designated object and the designated coordinate; The display unit for displaying at least one of a line connecting the designated coordinates, a line connecting a plurality of the projected coordinates, and a position of the designated area on the two-dimensional image. The image processing apparatus according to any one of the above.
前記空間に配置された指定物体を検出し、前記3次元座標における前記指定物体の座標を指定座標として取得する工程と、
前記指定座標を前記基準面に投影した投影座標を取得する工程と、
前記指定座標及び前記投影座標に基づいて、前記空間に指定領域を設定する工程と
を備えることを特徴とする画像処理方法。 Obtaining distance information from an object in space, and setting a reference plane of the space and a three-dimensional coordinate of the space based on the distance information;
Detecting a designated object arranged in the space, and obtaining coordinates of the designated object in the three-dimensional coordinates as designated coordinates;
Obtaining projected coordinates obtained by projecting the designated coordinates onto the reference plane;
A step of setting a designated area in the space based on the designated coordinates and the projected coordinates.
The computer program for functioning a computer as each means of the image processing apparatus of any one of Claims 1 thru | or 9.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015057286A JP2016176816A (en) | 2015-03-20 | 2015-03-20 | Image processor, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015057286A JP2016176816A (en) | 2015-03-20 | 2015-03-20 | Image processor, image processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016176816A true JP2016176816A (en) | 2016-10-06 |
Family
ID=57069939
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015057286A Pending JP2016176816A (en) | 2015-03-20 | 2015-03-20 | Image processor, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016176816A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110427815A (en) * | 2019-06-24 | 2019-11-08 | 特斯联(北京)科技有限公司 | Realize the method for processing video frequency and device of the effective contents interception of gate inhibition |
JP7177239B1 (en) | 2021-11-05 | 2022-11-22 | 株式会社ダイヘン | Marker detection device and robot teaching system |
JP2022183736A (en) * | 2021-05-31 | 2022-12-13 | セイコーエプソン株式会社 | Detection method and detection system |
JPWO2023032168A1 (en) * | 2021-09-03 | 2023-03-09 |
-
2015
- 2015-03-20 JP JP2015057286A patent/JP2016176816A/en active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110427815A (en) * | 2019-06-24 | 2019-11-08 | 特斯联(北京)科技有限公司 | Realize the method for processing video frequency and device of the effective contents interception of gate inhibition |
CN110427815B (en) * | 2019-06-24 | 2020-07-10 | 特斯联(北京)科技有限公司 | Video processing method and device for realizing interception of effective contents of entrance guard |
JP2022183736A (en) * | 2021-05-31 | 2022-12-13 | セイコーエプソン株式会社 | Detection method and detection system |
JP7424348B2 (en) | 2021-05-31 | 2024-01-30 | セイコーエプソン株式会社 | Detection method and detection system |
JPWO2023032168A1 (en) * | 2021-09-03 | 2023-03-09 | ||
JP7177239B1 (en) | 2021-11-05 | 2022-11-22 | 株式会社ダイヘン | Marker detection device and robot teaching system |
JP2023069265A (en) * | 2021-11-05 | 2023-05-18 | 株式会社ダイヘン | Marker detection apparatus and robot teaching system |
TWI806762B (en) * | 2021-11-05 | 2023-06-21 | 日商達誼恆股份有限公司 | Mark detection device and robot teaching system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8730164B2 (en) | Gesture recognition apparatus and method of gesture recognition | |
AU2014382730B2 (en) | Method and device for detecting a touch between a first object and a second object | |
US20210112181A1 (en) | Image processing device, image processing method, and recording medium | |
CN107545592B (en) | Dynamic camera calibration | |
JP6723814B2 (en) | Information processing apparatus, control method thereof, program, and storage medium | |
KR102130316B1 (en) | Apparatus and method for image recognition | |
JP6562437B1 (en) | Monitoring device and monitoring method | |
JP5956248B2 (en) | Image monitoring device | |
US10664090B2 (en) | Touch region projection onto touch-sensitive surface | |
CN108027656B (en) | Input device, input method, and program | |
US20160292888A1 (en) | Image measurement device, and recording medium | |
JP2016176816A (en) | Image processor, image processing method, and program | |
JP6712778B2 (en) | Object detection device, object detection system, and object detection method | |
JP2007243509A (en) | Image processing device | |
JP2016114963A (en) | Input operation detection device, projector device, electronic blackboard device, digital signage device, and projector system | |
US20180165853A1 (en) | Head-mounted display apparatus and virtual object display system | |
JP6393409B2 (en) | Image recognition system, camera state estimation device, and program | |
JP2007011776A (en) | Monitoring system and setting device | |
JP2010286930A (en) | Content display device, content display method, and program | |
US20200302643A1 (en) | Systems and methods for tracking | |
CN113228117A (en) | Authoring apparatus, authoring method, and authoring program | |
JP5960471B2 (en) | Image monitoring device | |
JP7272118B2 (en) | Intrusion detection devices, programs and intrusion detection systems | |
WO2020111053A1 (en) | Monitoring device, monitoring system, monitoring method, and monitoring program | |
WO2021096662A1 (en) | Display information on a head-mountable apparatus corresponding to data of a computing device |