JP5838355B2 - 空間情報検出装置、人位置検出装置 - Google Patents

空間情報検出装置、人位置検出装置 Download PDF

Info

Publication number
JP5838355B2
JP5838355B2 JP2014520893A JP2014520893A JP5838355B2 JP 5838355 B2 JP5838355 B2 JP 5838355B2 JP 2014520893 A JP2014520893 A JP 2014520893A JP 2014520893 A JP2014520893 A JP 2014520893A JP 5838355 B2 JP5838355 B2 JP 5838355B2
Authority
JP
Japan
Prior art keywords
dimensional data
target space
plane
unit
spatial information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014520893A
Other languages
English (en)
Other versions
JPWO2013190772A1 (ja
Inventor
翔 池村
翔 池村
伸裕 見市
伸裕 見市
一馬 原口
一馬 原口
智治 中原
智治 中原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2014520893A priority Critical patent/JP5838355B2/ja
Application granted granted Critical
Publication of JP5838355B2 publication Critical patent/JP5838355B2/ja
Publication of JPWO2013190772A1 publication Critical patent/JPWO2013190772A1/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • G06T3/12
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Description

本発明は、3次元計測の対象である対象空間における基準面を自動的に定める空間情報検出装置、および空間情報検出装置が定めた基準面に基づいて対象空間に存在する人の位置を検出する人位置検出装置に関するものである。
従来から、対象空間の形状や対象空間に存在する物体の位置や形状を計測するために、対象空間の3次元計測を行う技術が提案されている。たとえば、日本国公開特許第2009−174830号公報(以下「文献1」という)では、冷暖房を行う対象空間の3次元計測を行うことにより、対象空間に存在する人の位置を検出し、人の位置に合わせて送風方向や送風速度を調節する技術が提案されている。
文献1に記載された技術では、投射光を出射してから、物体で反射された反射光を受光するまでの時間を用いて物体までの距離を計測する飛行時間法(Time of Flight)を用いた距離計測を行っている。また、文献1に記載された技術では、対象空間における人の存否を、計測した距離の時間変化により求めている。また、人か否かを判別するために人の形状の特徴を用いている。すなわち、文献1に記載された技術では、人の形状を頭部、胴体、足部、手部の各部位に分割し、部位ごとの寸法ないし寸法比を用いることによって、距離変化が生じた部位について、形状の特徴から人か否かを判別している。
文献1に記載された技術は、3次元計測により得られた距離の時間変化を用いて人が存在する領域の候補を求め、候補の領域における形状の特徴により人を判断している。したがって、文献1に記載された技術を採用した場合、人体の一部が机や棚のような什器で遮蔽されている状態では、人を検出できない可能性がある。たとえば、オフィスのような対象空間において、広範囲な3次元計測を行うために、計測装置を天井のような高所に配置すると、計測装置からは机や棚のような什器に隠れて死角になる領域が生じやすくなる。
人の一部が死角になる領域に隠れていると、3次元計測により得られる距離の時間変化が生じる領域の範囲が小さくなり、また形状の特徴を判別できない可能性が生じる。そのため、距離の時間変化を精度よく把握できなくなり、人が存在するにもかかわらず人の検出に失敗する可能性が生じる。距離の時間変化を判断する基準を緩和すれば、人の検出に失敗する可能性が低減されるが、その一方で、人が移動させた椅子やゴミ箱などを人の候補と誤判断する可能性が高くなる。
ただし、人の検出に失敗するか、人以外の物体を誤検出するかは、トレードオフの関係であるから、判断の基準を調節するだけでは、判定の精度を高めることは困難である。すなわち、文献1に記載された技術のように、距離の時間変化と形状の特徴とを用いるだけでは、対象空間に机や棚などの什器が多く存在する場合に人を精度よく検出することは困難である。
ところで、対象空間には3次元計測を行う際の基準面になる床面や壁面が存在しているのが一般的である。このような基準面について、計測装置に対する向きや位置を求めておけば、計測装置に設定された座標系と対象空間における座標系との相対関係がわかる。計測装置が計測した3次元データを用いると、対象空間に存在する物体の相対位置が求められる。したがって、計測装置が計測した3次元データから基準面が求められていれば、物体の寸法および形状が求められ、結果的に物体の種類を特定することが可能になる。
たとえば、人の頭部は通常は床面から所定の高さ範囲に存在すると考えられるから、床面が求められていれば、床面に対する高さ範囲を規定することにより、人の存否を精度よく検出することが可能になる。
しかしながら、対象空間において、計測装置を取り付ける位置や向きは定まっていないから、計測装置の設置時には、計測装置の位置および向きに関するデータを校正用のデータとして人手によって与えなければならない。つまり、計測装置の設置毎に計測装置の位置および向きを入力する手間が必要になる。
本発明は、3次元計測の対象である対象空間における基準面を自動的に定めることにより、計測装置の設置毎に校正用のデータを入力する手間を省いて計測装置の設置時の作業効率を高め、また、基準面からの高さを用いることによって物体の計測を容易にした空間情報検出装置を提供することを目的とし、さらに、基準面を用いることにより、対象空間における人の存否および位置を精度よく検出する人位置検出装置を提供することを目的とする。
本発明に係る空間情報検出装置は、対象空間に関して計測装置が計測した第1の3次元データを取得する取得部と、前記対象空間における着目領域に複数個の小平面を設定し、前記着目領域における前記第1の3次元データを用いて前記複数個の小平面の各々について、前記計測装置に規定した装置座標系での向き、および前記計測装置からの距離を求める面素算出部と、前記面素算出部が求めた前記複数個の小平面の各々の向きおよび距離に基づいて前記対象空間を計測するための基準面を定める基準設定部とを備えることを特徴とする。
この空間情報検出装置において、前記面素算出部が算出した前記複数個の小平面の向きについて度数分布を求める分布抽出部をさらに備え、前記基準設定部は、前記分布抽出部が求めた度数分布において規定した向き閾値以上の度数である向きから前記基準面の向きを求めることが好ましい。
この空間情報検出装置において、前記分布抽出部は、前記複数個の小平面の向きのうち、指定された向き範囲内の向きについて前記度数分布を求めることが好ましい。
この空間情報検出装置において、前記計測装置は、広角レンズを備えるカメラで撮像した前記対象空間の画像を用いて前記第1の3次元データを出力する構成であって、前記分布抽出部は、前記複数個の小平面のうち前記画像の中心側の領域における小平面の向きの度数に、前記複数個の小平面のうち前記画像の周辺側の領域における小平面の向きの度数よりも大きい重みを付与して前記度数分布を求めることが好ましい。
この空間情報検出装置において、前記基準設定部は、前記複数個の小平面のうち、前記計測装置からの距離が最大である小平面から前記基準面を求めることが好ましい。
この空間情報検出装置において、前記対象空間は建物の空間であって、前記基準面は前記建物の床面であることが好ましい。
この空間情報検出装置において、前記第1の3次元データを用いることにより、前記対象空間に存在する物体に関して前記基準面からの高さを算出する高さ算出部をさらに備えることが好ましい。
この空間情報検出装置において、前記取得部が異なる時刻に取得した複数の前記第1の3次元データを記憶する記憶部をさらに備え、前記面素算出部は、前記記憶部に記憶された前記複数の前記第1の3次元データの変化が規定した誤差範囲内である領域から前記着目領域を抽出することが好ましい。
この空間情報検出装置において、前記面素算出部は、前記計測装置が異なる時刻に計測した複数組の前記第1の3次元データから前記複数個の小平面の各々の向きの候補を複数回ずつ求め、前記複数個の小平面の各々の向きの候補についての統計的処理により前記複数個の小平面の各々の向きを決定することが好ましい。
本発明の人位置検出装置は、床面からの高さを算出する空間情報検出装置と、前記取得部が前記対象空間に人が存在しないときに前記計測装置が計測した第2の3次元データを記憶する記憶部と、前記対象空間を監視する期間に前記計測装置が計測した第3の3次元データを用いて求めた距離と、前記記憶部が記憶している前記第2の3次元データを用いて求めた距離との差分を算出する差分演算部と、前記差分演算部により算出された前記差分が規定の判定閾値を超える領域について前記基準面に対する高さを評価することにより人が存在する位置を推定する人位置推定部とを備えることを特徴とする。
この人位置検出装置において、前記人位置推定部は、前記基準面に対する前記高さが指定された高さ範囲内である領域から前記人が存在する位置を求めることが好ましい。
本発明に係る空間情報検出装置の構成によれば、3次元計測の対象である対象空間における基準面が自動的に定められるから、計測装置の設置毎に校正用のデータを入力する手間を省いて計測装置の設置時の作業効率が高められ、また、基準面からの高さを用いることによって物体の計測が容易になるという利点がある。
本発明に係る人位置検出装置の構成によれば、空間情報検出装置が求めた基準面を用いることにより、対象空間における人の存否および位置が精度よく検出されるという利点がある。
本発明の好ましい実施形態をより詳細に記載する。本発明の他の特徴および利点は、以下の詳細な記載および添付図面に関連して一層よく理解される。
実施形態に係る空間情報検出装置および人位置検出装置を示すブロック図である。 実施形態に係る空間情報検出装置および人位置検出装置の使用例を示す概略構成図である。 図3A,3Bは実施形態に用いる計測装置の原理を説明する図である。 図4A,4Bは実施形態に用いる計測装置の原理を説明する図である。 図5A,5Bは実施形態に用いる計測装置の原理を説明する図である。 図6A〜6Eは実施形態に用いる計測装置における画像例を示す図である。 実施形態に係る空間情報検出装置の動作説明図である。 実施形態に係る空間情報検出装置の動作説明図である。 実施形態に係る空間情報検出装置および人位置検出装置の処理手順をフローチャートで示す動作説明図である。
(計測装置)
以下に説明する実施形態では、ステレオビジョンの技術を用いて対象空間の3次元データを計測する計測装置を例示するが、3次元データを計測する技術は、ステレオビジョンに限らず、飛行時間や位相シフトなどの周知の種々の技術を採用可能である。
本実施形態の計測装置20は、ステレオビジョンの技術を用いているから、図2のように、対象空間を撮像する複数台(図示例は2台)のカメラ21,22を備える。カメラ21,22は濃淡画像を出力することを想定しているが、カメラ21,22がカラー画像を出力する場合も以下に説明する技術思想は適用可能である。
カメラ21は、撮像素子211と受光光学系212とを備える。カメラ22は、撮像素子221と受光光学系222とを備える。撮像素子211,221は、CCDイメージセンサ、CMOSセンサのような周知の固体撮像素子が用いられる。また、受光光学系212,222は、対象空間から光を受ける光学系である。受光光学系212,222は、広角レンズであり、望ましくは魚眼レンズであるか魚眼レンズに相当する機能を有するレンズであり、カメラ21,22は、それぞれの画角が180度に近くなる。図示例では、受光光学系212,222がそれぞれ半球状の1個のレンズで模式的に表されている。受光光学系212,222の射影方式は、等距離射影方式、立体射影方式、等立体角射影方式、正射影方式のいずれでもよいが、以下では等距離射影方式を用いて説明する。
本実施形態は、図3A,3Bのように、2台のカメラ21,22が、光軸を平行にし、かつ両カメラ21,22の光学中心O1,O2を結ぶ線分(以下、「ベースライン」という)を両光軸に直交させて配置された平行ステレオ法を採用している。したがって、2台のカメラ21,22の視野はほぼ全体が重複する。また、本実施形態は、ベースラインの方向をカメラ21,22の各々の撮像によって得られた画像(以下、「撮像画像」という)の水平方向に一致させている。これらの制約条件を課すことにより、2台のカメラ21,22で撮像した撮像画像を用いて対象空間の3次元計測を行う際の処理負荷が低減される。ただし、これらの制約条件は必須というわけではない。
2枚の撮像画像を用いて光学中心O1,O2の各々から対象空間における着目点Qまでの距離を計測するには、ベースラインの長さ(以下、「ベースライン長」という)と、2枚の撮像画像の中で対象空間における着目点Qに対応する像の位置のずれの距離との情報が必要である。像の位置のずれの距離は、対象空間において着目する部位を2台のカメラ21,22から見込んだときの視差であって、2枚の撮像画像にそれぞれ規定した基準位置から像の位置までの距離差を用いる。すなわち、像の位置のずれの距離は、カメラ21で撮像された撮像画像の中における基準位置から像の位置までの距離と、カメラ22で撮像された撮像画像の中における基準位置から像の位置までの距離との差である。着目点Qに対応する像の位置のずれの距離は、着目点Qを2台のカメラ21,22から見込んだときの視差になる。
2枚の撮像画像から視差を求めるには、2枚の撮像画像の中で対象空間において着目する部位に対応する像の位置を探し出す必要がある。すなわち、2枚の撮像画像において同部位に対応する対応点を特定する必要がある。2枚の撮像画像から対応点を探索する処理をステレオマッチングと呼んでいる。2台のカメラ21,22のそれぞれの光学中心O1,O2と対象空間における着目点Qとを含むエピポーラ面を考えると、ステレオマッチングにおいて2枚の撮像画像上で対応点を探索する範囲は、撮像画像にエピポーラ面を投影した線上に限定することができる。
計測装置20には、受光面の水平方向(つまり、撮像画像の水平方向)に沿う方向をx方向、受光面におけるx方向に対する垂直方向(つまり、撮像画像の垂直方向)に沿う方向をy方向、受光面に直交する方向をz方向とする装置座標系を規定する。x方向(装置座標系の第1の方向)はベースラインの方向に一致し、撮像画像の水平方向における右向き(画像座標系の第1の方向の第1の側)がx方向の正の向き(装置座標系の第1の方向の第1の側)、撮像画像の水平方向における左向き(画像座標系の第1の方向の第2の側)がx方向の負の向き(装置座標系の第1の方向の第2の側)、撮像画像の垂直方向における下向き(画像座標系の第2の方向の第1の側)がy方向の正の向き(装置座標系の第2の方向の第1の側)、撮像画像の垂直方向における上向き(画像座標系の第2の方向の第2の側)がy方向の負の向き(装置座標系の第2の方向の第2の側)になるように規定され、受光面から遠ざかる向きをz方向の正の向き(装置座標系の第3の方向の第1の側)とする。装置座標系の原点は、ベースライン上であって一方のカメラ21の光学中心O1に設定される。
また、以下の説明において、カメラ21,22ごとのカメラ座標系を規定する。カメラ座標系は、装置座標系の座標軸と平行な座標軸を持つが、原点はカメラ21,22ごとの光学中心O1,O2を用いる。カメラ座標系の座標軸を装置座標系の座標軸と区別するために、カメラ21に規定するカメラ座標系の座標軸をx1,y1,z1で表し、カメラ22に規定するカメラ座標系の座標軸をx2,y2,z2で表す。z1軸は、カメラ21の光軸に一致し、z2軸は、カメラ22の光軸に一致する。本実施形態では、上述したように装置座標系の原点を設定しているから、装置座標系はカメラ21に設定したカメラ座標系と一致する。
一方のカメラ21に関するカメラ座標系において、原点である光学中心O1から対象空間の着目点Qを見込む方向は、図4Aに示すように、z1軸に対する角度θ1と、光学中心O1から着目点Qを見込む方向をx1y1平面に投影したときのx1軸からz1軸周りの角度φ1とを用いて表される。カメラ21に関するカメラ座標系では、着目点Qの位置を記述するために、角度(θ1,φ1)以外に、着目点Qをx1y1平面に投影した点までの光学中心O1からの距離r1を用いる。図4Bに示すように、他方のカメラ22に関するカメラ座標系についても同様の関係になる。すなわち、カメラ22に関するカメラ座標系では、着目点Qの位置を記述するために、z2軸に対する角度θ2と、光学中心O2から着目点Qを見込む方向をx2y2平面に投影したときのx2軸からz2軸周りの角度φ2と、着目点Qをx2y2平面に投影した点までの光学中心O2からの距離r2とを用いる。なお、カメラ21に関するカメラ座標系の極座標(r1,θ1,φ1)とカメラ22に関するカメラ座標系の極座標(r2,θ2,φ2)とを区別せずに説明する場合、極座標(r,θ,φ)と表す。
図4A,4Bにおいて、上部に示した平行四辺形は撮像画像を表している。撮像画像については、カメラ21,22ごとに得られた撮像画像における画素の位置を表すために、撮像画像の左上隅を原点とした2次元の直交座標系である画像座標系が用いられる。図4Aに示すように、カメラ21で得られた撮像画像の画像座標系は、撮像画像の水平方向(画像座標系の第1の方向)がx1方向(装置座標系の第1の方向)に沿っており、撮像画像における水平方向に対する垂直方向(画像座標系の第2の方向)がy1方向(装置座標系の第2の方向)に沿うように設定され、撮像画像中の任意の座標位置は(u1,v1)で表される。図4Bに示すように、カメラ22で得られた撮像画像の画像座標系は、撮像画像の水平方向がx2方向に沿っており、撮像画像における水平方向に対する垂直方向がy2方向に沿うように設定され、撮像画像中の任意の座標位置は(u2,v2)で表される。なお、カメラ21で得られた撮像画像の画像座標系の座標位置(u1,v1)とカメラ22で得られた撮像画像の画像座標系の座標位置(u2,v2)とを区別せずに説明する場合、座標位置(u,v)と表す。
計測装置20は、カメラ21,22ごとに撮像した撮像画像を用いて対象空間の3次元データを算出する演算処理部23を備える。演算処理部23は、ハードウェア資源としてのプロセッサおよびメモリと、データの入出力のためのインターフェイス部とを備え、以下に説明する処理を行う装置として機能させるためのプログラムを実行する。演算処理部23を構成するデバイスは、マイコンのほか、DSP(Digital Signal Processor)、FPGA(Field-Programmable Gate Array)などでもよい。要するに、演算処理部23には、プログラムを実行する機能を有したデバイス(つまり、コンピュータに相当するデバイス)が用いられる。ただし、演算処理部23は専用のハードウェアにより構成してもよい。
上述のように条件が設定されているから、撮像画像に投影した光学中心O1,O2の座標を(uc,vc)とすると、カメラ座標系の極座標(r,θ,φ)と画像座標系における座標(u,v)との間に数1の関係が成立する。なお、fは等距離射影方式における比例定数である。なお、カメラ21とカメラ22とを区別する場合、カメラ21で撮像された撮像画像に投影した光学中心O1の座標を(uc1,vc1)とし、カメラ22で撮像された撮像画像に投影した光学中心O2の座標を(uc2,vc2)とする。
Figure 0005838355
また、等距離射影方式を用いているから、対象空間における着目点Qは、カメラ21,22の光学中心O1,O2を中心とする半径1の球面上に射影される。着目点Qが当該球面上に射影された点のカメラ座標系の直交座標(xa,ya,za)は、上述したカメラ座標系の極座標(r,θ,φ)を用いると、数2のように表される。カメラ21,22のいずれについても同様の関係が得られる。すなわち、カメラ21については、着目点Qが当該球面上に射影された点のカメラ座標系の直交座標(xa1,ya1,za1)は、カメラ座標系の極座標(r1,θ1,φ1)を用いて表される。カメラ22については、着目点Qが当該球面上に射影された点のカメラ座標系の直交座標(xa2,ya2,za2)は、カメラ座標系の極座標(r2,θ2,φ2)を用いて表される。
Figure 0005838355
ここで、本実施形態の演算処理部23は、座標(u,v)で表された画像を角度(α,β)を用いて表される画像に変換する機能を有する。いま、一方のカメラ21のカメラ座標系を用いて説明する。図5A,5Bに示すように、角度α1は、x1軸と着目点Qとを含む平面(エピポーラ平面EP1に相当する)内において、光学中心O1から着目点Qを見込む直線La1がy1z1平面に対してなす角度である。また、角度β1は、光学中心O1から着目点Qを見込む直線La1をy1z1平面に投影した直線La2がz1軸に対してなす角度である。言い換えると、角度β1はエピポーラ平面EP1がz1軸に対してなす角度である。角度α1はy1z1平面を0度とし、角度β1はz軸を0度とする。したがって、座標(xa,ya,za)を用いて角度(α,β)を表すと、数3の関係が得られる。
Figure 0005838355
撮像画像の全画素について数1から数3の関係を適用すると、画像座標系の座標(u,v)を用いて表される座標(xa,ya,za)の関係が角度(α,β)で表されることになる。角度αを水平方向とし角度βを垂直方向とする画像を生成すると、画素の位置が座標(u,v)で表される撮像画像から、画素の位置が角度(α,β)で表される画像に変換される。以下、角度(α,β)で画素の位置を表した画像を「変換画像」と呼ぶ。
演算処理部23は、他方のカメラ22で撮像した撮像画像についても同様の変換を行って変換画像を生成する。図6Aはカメラ21で撮像された撮像画像の例を示し、図6Bはカメラ22で撮像された撮像画像の例を示している。また、図6Cは図6Aに示す撮像画像に対応する変換画像の例を示し、図6Dは図6Bに示す撮像画像に対応する変換画像の例を示している。
カメラ21,22は、光軸が平行であり、かつx1軸とx2軸とが一直線上に並ぶように配置されているから、2台のカメラ21,22の撮像画像からそれぞれ求めた2枚の変換画像において、同じ着目点Qを見込む角度β1,β2(図3A参照)は一致する。すなわち、後述するステレオマッチングの際に、変換画像の角度α1,α2(図3A参照)に着目すればよく、ステレオマッチングの処理が簡素化されることになる。
演算処理部23は、求めた2枚の変換画像を用いてカメラ21,22の視差を推定し、推定した視差を対象空間の3次元データの算出に利用する。カメラ21,22の視差を推定するために、演算処理部23は、2枚の変換画像から対象空間の同位置に対応する対応点を抽出する。対応点を抽出する技術はとくに限定しないが、本実施形態では、ブロックマッチングの技術を採用している。つまり、演算処理部23は、ブロックマッチングにより、カメラ21の撮像画像に対する変換画像から抽出した点の座標(α1,β1)に対して、カメラ22の撮像画像に対する変換画像から対応点の座標(α2,β2)を抽出する。
上述したように、カメラ21,22の配置により、β1=β2の制約条件があるから、ブロックマッチングでは、角度α1に対応する角度α2を求めるだけでよく、視差Dqは、Dq=α2−α1と表される。ブロックマッチングを行うには、適宜大きさのブロックを変換画像の中で走査し、輝度値の差を評価する数4で示す評価値Rを算出する。そして、評価値Rが最小になる位置を、座標(α1,β1)で表される点に対する対応点の座標(α2,β2)とする。数4において、I1(α1+i,β1+j),I2(α2+i,β2+j)は変換画像ごとの輝度値であり、ブロックの大きさは水平方向に(2N+1)画素、垂直方向に(2M+1)画素としている。なお、N,Mは適宜に定めた自然数である。
Figure 0005838355
数4は変換画像に設定したブロックの画素の位置(i,j)について、画素値(輝度値)I1(α1+i,β1+j)、I2(α2+i,β2+j)の差分(絶対値)の総和を評価値Rに用いている。すなわち、評価値Rとして、SAD(Sum of Absolute Difference)を用いている。ただし、評価値Rとしては、SSD(Sum of Squared Difference)や正規化した相互相関関数などを用いることも可能である。また、対応点を求めるためにブロックマッチングを行っているが、ステレオマッチングの他の技術を採用することも可能であり、変換画像を用いずにステレオマッチングを行ってもよい。また、変換画像は画像の横軸をα、縦軸をβとする画像としたが、他の変換方法で変換した画像を用いてもよい。
演算処理部23は、上述した評価値Rを用いることにより、2枚の変換画像から対応点を抽出し、視差Dq(=α2−α1)を算出し、算出した視差Dqを装置座標系(すなわち、カメラ21のカメラ座標系)にマッピングすることにより、図6Eのような視差画像を生成する。つまり、視差画像は対応点の座標(α1,β1)に視差Dqを対応付けた画像になる。
演算処理部23は、対応点を求めた後、三角測量法の原理を用いることにより、対象空間における対応点(つまり、着目点Q)の3次元座標を算出する。図3A,3Bに示すように、2台のカメラ21,22にそれぞれ設定したカメラ座標系の原点から着目点Qを見込む角度(α1,β1)、(α2,β2)を用いると、装置座標系での着目点Qの3次元座標(xq,yq,zq)は、数5のように表される。数5において、bはベースラインの長さである。
Figure 0005838355
以上のようにして、対象空間におけるすべての対応点について3次元座標を求めると、対象空間に関する3次元データが得られる。また、数5により求めた着目点Qの3次元座標(xq,yq,zq)を用いると、装置座標系における原点(カメラ21の光学中心O1)から着目点Qまでの距離が求められる。演算処理部23は、対象空間のすべての着目点Qについて数6の演算を行って距離Lqを求め、変換画像の座標(α1,β1)における画素値を距離Lqとした距離画像を生成する。
Figure 0005838355
以上説明したように、計測装置20は、対象空間の3次元データを求め、さらに、画素値が視差Dqである視差画像と、画素値が距離Lqである距離画像とを生成する。
(空間情報検出装置)
以下では、上述した計測装置20から出力される3次元データを用いて対象空間の3次元計測を行うために、対象空間において計測の基準となる基準面を定める技術について説明する。以下では、対象空間が建物の室内空間であって、基準面が床面である場合を例として説明する。ただし、対象空間は、建物の屋外空間や、建物以外に形成される空間であってもよい。また、基準面が壁面、天井面、机上面などであっても、以下に説明する技術と同様の技術を採用可能である。
以下の説明では、対象空間が建物の室内空間であり、かつ基準面が床面である場合を想定する。また、以下では、計測装置20が対象空間のほぼ全域を計測範囲とするように、図2に示すように、計測装置20が天井51の中央付近にカメラ21,22の光軸を下向きにして配置される場合を基本にして説明する。ただし、計測装置20の施工状態によっては、計測装置20に規定した装置座標系におけるxy平面が床面50と平行になるとは限らず、また、場合によっては計測装置20を天井51に配置できずに壁面に配置する場合もある。
計測装置20が計測した3次元データは、空間情報検出装置10に入力される。空間情報検出装置10は、図1に示すように、計測装置20から3次元データを取得する取得部11と、取得部11が取得した3次元データを記憶する記憶部12とを備える。取得部11は、計測装置20を接続するためのインターフェイス部であり、計測装置20が3次元データを出力する通信仕様に応じて構成される。記憶部12は、計測装置20による計測毎の3次元データ(第1の3次元データ)を記憶する第1記憶部121を備える。また、記憶部12は、計測装置20が所定のタイミングで計測した基準となる3次元データ(第2の3次元データ)と、計測装置20が対象空間での変化を検出するために計測した比較用の3次元データ(第3の3次元データ)とを記憶する第2記憶部122を備える。
第1記憶部121に記憶させる3次元データは、カメラ21,22が撮像した撮像画像のフレーム毎に取得される。撮像画像のフレームレートは、一般的な動画像のように30フレーム毎秒であってもよいが、許容される処理負荷の程度に応じて、0.1〜30フレーム毎秒程度の範囲で適宜に設定される。
一方、第2記憶部122に記憶させる基準の3次元データ(第2の3次元データ)は、計測装置20の視野内に移動する物体が存在しないタイミングで計測装置20が計測して取得部11が計測装置20から取得することが望ましい。もし、移動物体が存在する場合には、連続する異なる時間に撮影された画像の輝度の中央値を画素値とする画像を作成し、その画像から基準の3次元データを求めてもよい。基準となる3次元データはいわば背景の3次元データであり、比較用の3次元データ(第3の3次元データ)と背景の3次元データとの差を求めると、対象空間での変化の有無と、変化が生じた場所とが検出される。第2記憶部122は、後述する人位置検出装置30の一部の構成要素として用いられる。
さらに、空間情報検出装置10は、第1記憶部121に記憶されている3次元データを用いて、撮像画像に含まれる床面50を特定し、対象空間の床面50の全面を基準面として定める基準設定部13を備える。撮像画像に含まれる床面50に関するデータは、第1記憶部121に記憶されている3次元データに含まれている。基準設定部13が定める基準面は、撮像画像に含まれる床面50だけではなく、対象空間に配置された什器などで隠されている床面50も含まれる。すなわち、基準設定部13は、計測装置20に設けられたカメラ21,22が撮像した撮像画像で見えている床面50の情報に基づいて、撮像画像では見えていない領域の床面50を推定し、推定した床面50を含めて基準面とする。
計測装置20を設置した状態では、装置座標系は既知であるが、対象空間に規定される空間座標系は未知である。したがって、基準設定部13が基準面を定めるには、計測装置20に設定された装置座標系における基準面の向きと基準面までの距離との情報が必要になる。
そのため、空間情報検出装置10は、対象空間において床面50を含む着目領域に複数個の小平面を設定し、計測装置20に規定した座標系において複数個の小平面の各々の向きを求める面素算出部14を備える。複数個の小平面は、着目領域の全体を分割して設定されるか、あるいは、着目領域に適宜の間隔で設定される。面素算出部14は、着目領域における3次元データを用いて小平面ごとに法線ベクトルを求め、法線ベクトルが表す向きを小平面の向きとする。着目領域は、対象空間を計測するための基準面を定めるために対象空間の中の一部領域であり、面素算出部14が複数個の小平面の向きを求める前に予め抽出される。
なお、一般に面素の法線ベクトルの大きさは面素の面積を表すが、本実施形態では、小平面の面積は利用しない。いま、計測装置20が天井51に対して正確に位置を合わせて配置されていると仮定する。つまり、計測装置20が、カメラ21,22の光軸(つまり、装置座標系のz軸)を、対象空間に規定される空間座標系の1つの軸(Z軸)と平行になるように配置されていると仮定する。ここに、空間座標系のZ軸は床面50に直交し、空間座標系のX軸およびY軸は、互いに直交し、かつZ軸に直交する適宜の方向に設定される。
面素算出部14は、図7に示すように、取得部11が計測装置20から取得した3次元データから隣接する3点P0i,P1i,P2iずつの組合せを抽出し(iは自然数である)、抽出した3点で規定される小平面の法線ベクトル[Ni]を算出する。図7における丸印は3次元データが得られた点を表している。小平面を規定する3点P0i,P1i,P2iの距離はできるだけ小さいほうが望ましいが、3点間の距離が最小であることは必須ではなく、基準面の評価が可能な程度の距離であれば許容される。たとえば、3点P0i,P1i,P2iを選択する際に、1つの点P0iから規定した距離範囲である2点P1i,P2iを選択してもよい。また、小平面を規定する3点P0i,P1i,P2iは、対象空間の中で3次元データが求められている領域の一部である着目領域において求めているが、対象空間の中で3次元データが求められている全領域から求めてもよい。
いま、抽出した3点P0i,P1i,P2iのうちの1つの点P0iから他の2点P1i,P2iに向かうベクトル[V1i],[V2i]を規定すると、3点P0i,P1i,P2iで規定される小平面の法線ベクトル[Ni]は、ベクトル[V1i],[V2i]の外積[V1i]×[V2i]で表される。
上述したように、装置座標系のz軸は空間座標系のZ軸と平行であると仮定している。したがって、小平面が床面50の一部であるとすれば、ベクトル[V1i],[V2i]の外積[V1i]×[V2i]は、装置座標系のz軸と平行になる。
ここに、ベクトル[V1i],[V2i]の向きによって、外積[V1i]×[V2i]の向きが変化するから、[V1i],[V2i]の設定の仕方によって小平面の向きが反対向きになることが考えられるが、床面50を基準面に用いるから床面50の法線ベクトル[Ni]は同じ向きでなければならない。また、対象空間における物体は床面50の下には存在しないから、基準面を定めるために用いる小平面の法線ベクトル[Ni]は、小平面から計測装置20に向かう向きを正とする。このことから、小平面の法線ベクトル[Ni]の向きが、下向きになる場合には上向きとなるように符号を反転させる。
なお、小平面は、床面50以外の部位にも形成される場合があり、床面50以外の小平面は、実空間であれば向きを考慮する必要があるが、面素算出部14は基準面を定めるための小平面に着目しているから、床面50以外の小平面についても同じルールを適用する。つまり、すべての小平面について符号は無視する。
撮像画像をモニタ装置に表示し、着目領域を人が選択する場合は、着目領域を床面50のみとすることが可能であるから、着目領域から求めた複数個の小平面の法線ベクトル[Ni]は、ほぼ同じ向きであると考えられる。このような場合は、求めた複数個の小平面の法線ベクトル[Ni]の向きについて平均を求めれば、基準面の向きが定められる。
ただし、省力のために着目領域を人手によって指定せず、撮像画像の適宜の範囲を着目領域とする場合や、3次元データが求められている全領域を着目領域とする場合には、着目領域から基準面である床面50を抽出する必要がある。本実施形態の空間情報検出装置10は、面素算出部14が算出した複数個の小平面の法線ベクトル[Ni]の向きについて度数分布を用いることにより、着目領域から床面50を抽出する。
ここに、着目領域を自動的に設定する場合、計測装置20において複数回の撮像により得られた3次元データを第1記憶部121に格納し、第1記憶部121に格納された撮像毎の3次元データがほとんど変化していない領域を着目領域として用いればよい。すなわち、面素算出部14は、計測装置20のカメラ21,22が撮像した複数フレームの撮像画像から得られる複数組の3次元データを用いて着目領域を決定すればよい。面素算出部14は、対象空間のうち、第1記憶部121に記憶された3次元データの変化が規定した誤差範囲内である領域から着目領域を抽出する。面素算出部14は、複数の3次元データの変化としてxy平面上の同位置ごとにz座標の差分を求め、この差分が誤差範囲内である部位を着目領域として抽出する。
言い換えると、複数の3次元データの各々は、装置座標系として計測装置20の受光面に平行する方向の位置を表すx座標(第1の座標)およびy座標(第2の座標)と、装置座標系において上記受光面に直交する方向の位置を表すz座標(第3の座標)とを含む。そして、面素算出部14は、複数の3次元データの変化として、x座標およびy座標が同じ位置のz座標の差分を求め、上記差分が誤差範囲内である領域を着目領域として抽出する。
ところで、計測装置20において不規則に発生する計測誤差や対象空間における移動物体の存在により、3次元データから得られる法線ベクトル[Ni]の信頼性が低下する場合がある。そこで、複数組の3次元データからそれぞれ法線ベクトル[Ni]を求め、法線ベクトル[Ni]の向きについて、統計的処理(たとえば、平均化や異常値の除去)を行うことにより、法線ベクトル[Ni]の向きの信頼性を高めることが望ましい。すなわち、面素算出部14は、計測装置20が異なる時刻に計測した複数組の3次元データから複数個の小平面の各々の向き候補を複数回ずつ求め、複数個の小平面の各々の向き候補についての統計的処理により複数個の小平面の各々の向きを決定することが望ましい。
小平面の法線ベクトル[Ni]の向きは、球座標による装置座標系を用いて、伏角の余角(θ)と方位角(φ)とにより表される。角度θは、装置座標系の原点から法線ベクトル[Ni]の始点を見込む直線が装置座標系のz軸に対してなす角度であり、角度φは、装置座標系のxy平面への法線ベクトル[Ni]の射影がx軸に対してなす角度である。小平面ごとの法線ベクトル[Ni]の向きを表す角度(θ,φ)は下式で定義される。なお、0≦θ≦π/2、0≦φ<2πである。
θ=cos−1{z/(x2+y2+z2)1/2}
φ=cos−1{x/(x2+y2)1/2}
空間情報検出装置10は、小平面ごとの法線ベクトル[Ni]の向きについて度数分布を求める分布抽出部15を備える。分布抽出部15は、図8に示すように、法線ベクトル[Ni]の向きを表す角度(θ,φ)を所定幅の区間に区分して度数分布を求める。言い換えると、角度(θ,φ)を量子化し、量子化後の角度(θ,φ)について度数分布を求めていることに相当する。
量子化を簡便に行うには、角度(θ,φ)の単位を[度]として、整数値に量子化すればよい。この場合、1度刻みの区間に区分して度数を求めることになる。ただし、量子化の刻み幅は適宜に設定することが可能であって、精度を高める場合は刻み幅を狭くすればよい。
着目領域において床面50の占める面積が大きい場合、あるいは対象空間に存在する物体に設定される小平面の向きが揃っていない場合、床面50に対応する第1の法線ベクトル[Ni]の度数が第1の法線ベクトル[Ni]とは異なる第2の法線ベクトル[Ni]の度数よりも大きくなると考えられる。したがって、上述のように第1の法線ベクトル[Ni]の度数が第2の法線ベクトル[Ni]の度数よりも大きいという条件が成立している場合には、基準設定部13は、分布抽出部15が求めた度数分布において、規定した向き閾値以上の度数である向きを床面50の向きと判断することができる。
ただし、上述した条件がつねに成立するとは限らないから、分布抽出部15は、複数個の小平面の向きのうち、指定された向き範囲内の向きについて度数分布を求めるように制約条件を設定しておくことが望ましい。ここでは、床面50を抽出することが目的であり、計測装置20は天井51に配置されているから(図2参照)、角度θについては0付近に集中すると考えられる。したがって、分布抽出部15が複数個の小平面の法線ベクトル[Ni]のうち、角度θについて、0から所定の角度範囲内である法線ベクトル[Ni]のみについて度数分布を求めると、処理負荷を大幅に軽減することが可能になる上に、床面50以外を抽出する可能性が低減される。
ここに、計測装置20の配置によっては、装置座標系のz軸と空間座標系のZ軸とが平行であるという仮定が成立しない場合がある。このような場合でも、カメラ21,22の光軸のおおよその向きがわかっている場合は、角度θについて角度範囲を制限することにより、上述した効果が期待できる。なお、z軸とZ軸とが平行ではない場合に備えて、空間情報検出装置10は、入力手段による角度範囲の指示を受け付ける通信手段と、制約条件を記憶する記憶手段とを備えていることが望ましい。角度θについて、角度範囲を制限すれば、基準面とは明らかに異なる方向の法線ベクトル[Ni]が除外される。したがって、計測装置20の計測範囲内に基準面とは異なる方向の法線ベクトル[Ni]が多数存在するような複雑な形状でも基準面を精度よく定めることが可能になる。
ところで、角度(θ,φ)の度数分布に基づいて床面50と同方向の面が存在する領域は抽出されるが、たとえば、机上面41や椅子の座面42と床面50とは略平行と考えられるから(図2参照)、角度(θ,φ)の度数分布の情報だけでは机上面41や座面42が床面50と誤認される可能性がある。ただし、計測装置20が天井51のような対象空間の上部に配置されている場合、床面50との距離は、机上面41、座面42、棚の上面などとの間の距離よりも大きいと考えられる。
この特性を利用し、基準設定部13は、角度(θ,φ)の度数分布で向き閾値以上の度数に含まれる小平面を抽出し、抽出した小平面ごとに法線の向きにおける計測装置20の距離(つまり、高さ)を求め、求めた距離が最大となる小平面を決定する。
距離が最大となる小平面は、たとえば、以下の方法で決定する。まず、基準設定部13は、抽出した小平面の距離(高さ)を横軸とする度数分布を求める。続いて、基準設定部13は、求めた度数分布に、一般的な混合正規分布の当て嵌めを行い、複数の正規分布を当て嵌める。そして、基準設定部13は、当て嵌めた各正規分布の平均における度数が閾値以上である正規分布において、平均にもっとも近い小平面を、距離が最大となる小平面とする。この方法は一例であって、距離が最大となる小平面は他の方法で決定してもよい。
求められた距離が最大である小平面は、基準面に含まれると推定される。要するに、基準設定部13は、複数個の小平面の向きを用いて基準面の候補となる小平面を抽出し、基準面の候補である小平面の法線の向きにおける計測装置20との距離を用いて基準面に含まれる小平面を抽出する。
ここに、小平面の法線の向きにおける計測装置20と小平面との距離は、小平面の法線ベクトルを[Ni]=(nx,ny,nz)とするとき、装置座標系における法線ベクトルの始点の3次元データ(xp,yp,zp)を用いることにより、nx・xp+ny・yp+nz・zpとして求められる。つまり、小平面の法線ベクトルと、法線ベクトルの始点の位置を表す位置ベクトルとの内積により、法線ベクトルの向きにおける計測装置20の高さが求められる。
上述した例では、小平面の法線方向における計測装置20と小平面との距離を、距離閾値と比較しているが、距離の度数分布を用いて度数が所定の閾値以上になり、かつ度数分布において距離が最大である区間に属する小平面を抽出してもよい。言い換えると、求めた距離を量子化して度数を求め、度数が比較的多く、かつ量子化した距離が最大になる小平面を抽出してもよい。
基準設定部13は、複数個の小平面から、基準面に含まれると推定される小平面を抽出した後、抽出した小平面を用いて基準面を設定する。つまり、基準設定部13は、抽出した小平面を1枚の平面に当て嵌め、この平面を基準面(床面50)に用いる。複数の小平面を1枚の平面に当て嵌めるには、最小二乗法やRANSAC(RANdom SAmple Consensus)などの周知の技術が用いられる。
基準設定部13が基準面を抽出すると、度数が最大になった向きをZ方向(空間座標系の第3の方向)とし、Z方向に直交する平面をXY平面とする空間座標系を規定することが可能になる。ここに、X方向(空間座標系の第1の方向)およびY方向(空間座標系の第2の方向)は、XY平面内で適宜に設定することが可能であるが、たとえば対象空間における壁面などを基準にしてX方向およびY方向を設定することが望ましい。あるいはまた、計測装置20の装置座標系におけるx軸およびy軸をXY平面に投影し、x軸の射影をX軸とし、y軸の射影をY軸としてもよい。設定された空間座標系の座標値は、装置座標系の座標値と対応付けられて記憶部12に格納される。したがって、記憶部12は、装置座標系から空間座標系への座標変換のためのデータを格納する。
空間座標系が定まることにより、装置座標系の3次元データから空間座標系への座標変換が可能になる。すなわち、対象空間に存在する物体の3次元データを用いて、基準面(床面50)に対する物体に関する高さを求めることが可能になる。基準面に対する物体の高さを算出する演算は、空間情報検出装置10に設けられた高さ算出部16が行う。高さ算出部16が床面50に対する物体の高さを求めるから、床面50に沿った物体の外周形状と併せることによって、物体の3次元形状が求められる。
ところで、計測装置20の受光光学系212,222は、魚眼レンズであるか魚眼レンズに相当する機能を有するレンズであるから、撮像画像において、カメラ21,22の光軸付近である中央側の領域より周辺側の領域のほうが単位面積当たりの情報量が多くなっている。そのため、撮像画像の中央側の領域は撮像画像の周辺側の領域と比較すると計測精度が高くなる。すなわち、角度θの可変範囲は、0≦θ≦π/2であるから、角度θが0付近である場合に計測精度が高くなり、角度θがπ/2付近になると計測精度が低下する。
このことを踏まえて、分布抽出部15は、角度(θ,φ)の度数分布を生成する際に、角度(θ,φ)を求めた3次元データの位置に応じて度数に重み係数を乗じることが望ましい。重み係数は、撮像画像の中央側の領域に対応する3次元データに対して、撮像画像の周辺側の領域に対応する3次元データよりも大きい重み係数を乗じることが望ましい。重み係数wは、たとえば以下のように定められる。
w=−(2/π)θ+1 (0≦θ≦π/2)
このように、広角レンズを用いて得られる撮像画像における領域ごとの情報量の相違に着目し、情報量に応じて重み係数を設定して度数分布を求めることにより、度数分布から得られる情報の信頼性を高めることが可能になる。つまり、度数分布に基づく基準面の抽出の信頼性が高くなる。
上述した動作例では、1回の撮像により得られた3次元データを用いて角度(θ,φ)の度数分布が生成されているが、計測装置20の位置は固定されているから、複数回の撮像により得られた3次元データを用いて度数分布を生成してもよい。ただし、度数分布の生成には、カメラ21,22の視野内に移動する物体が存在しない期間の3次元データを用いる必要がある。計測装置20から取得した複数組の3次元データを用いて度数分布が生成されると、度数差が広がるから向き閾値による判別がより容易になる。
上述のように、小平面の法線の方向(つまり、角度(θ,φ))の度数分布を用いて基準面を検出するから、基準面を簡単かつ精度よく検出することが可能になる。しかも、計測装置20から基準面までの距離も考慮して基準面を推定するから、床面50を検出する場合に、机上面41、椅子の座面42、棚の上面のような床面50と平行な面を誤検出することが防止される。すなわち、後述する人位置の検出の際には、机や棚が配置されている領域を除外して人40(図2参照)の位置を検出することが可能になる。
(人位置検出装置)
空間情報検出装置10は、計測装置20に対する基準面の傾きおよび距離を自動的に求め、対象空間における基準面と計測装置20との関係を自動的に抽出するから、計測装置20を設置するだけで、装置座標系から空間座標系への変換が可能になる。また、装置座標系の3次元データを空間座標系の3次元データに変換することにより、基準面に対する物体の高さを検出することが可能になっている。
このような空間情報検出装置10の機能を用いることにより、対象空間における人40(図2参照)の存否および人40の位置を検出することが可能になる。以下では、図1を用いて、空間情報検出装置10を用いて人40の存否および位置を検出する人位置検出装置30について説明する。
人位置検出装置30は、いずれも第2記憶部122に記憶された基準の3次元データ(第2の3次元データ)および比較用の3次元データ(第3の3次元データ)を用いて人40の存否および位置を検出する。第2記憶部122は、取得部11が異なる時刻に取得した複数の3次元データを記憶している。具体的には、第2記憶部122には、対象空間に人40が存在しないことが保証されている期間に得られた基準の3次元データと、対象空間を監視する期間に得られた比較用の3次元データとが格納される。対象空間に人40が存在しない期間に得られた基準の3次元データは、対象空間の背景に相当する3次元データであるから、以下では「背景データ」と呼ぶ。また、対象空間を監視する期間に得られた比較用の3次元データは、監視対象となる3次元データであるから、「監視データ」と呼ぶ。
人位置検出装置30は、監視データを用いて求めた距離と背景データを用いて求めた距離との差分を算出する差分演算部31と、差分演算部31により算出された差分を用いて人40が存在する位置を推定する人位置推定部32とを備える。
差分演算部31は、監視データと背景データとについて距離画像における同座標(α,β)ごとに距離Lqの値の差分を求める。つまり、差分演算部31は、計測装置20からの距離Lqの差分を求めることにより、背景データに対して変化が生じた部位を抽出する。
監視データにおいて背景データに対して距離Lqが変化した領域は、移動した物体に対応すると考えられ、移動した物体は人40である可能性を有しているから、監視データと背景データとの差分に変化が生じた領域があれば、この領域は人40の候補領域すなわち人40が存在する候補領域とみなされる。ただし、差分が小さい場合には誤差の可能性があり、また対象空間を小動物が移動した場合も差分に変化が生じる可能性がある。
したがって、人位置推定部32は、誤差や小動物などによる差分の変化を除去して人40を検出するために、差分演算部31が求めた差分(監視データと背景データとの差分)が規定した判定閾値を超える場合に、差分が変化した領域を人40の候補となる領域と判断する。すなわち、人位置推定部32は、監視データと背景データとの差分を判定閾値によって2値化していることになる。ここで、2値化後のデータは、閾値を超える画素に1を対応付け、閾値以下の画素に0を対応付けた2値画像になる。つまり、この2値画像において画素値が1である領域は人40の候補となる領域になる。
人位置推定部32は、人40の候補となる領域に対して、記憶部12に格納されているデータを適用し、装置座標系から空間座標系への座標変換を行う。この座標変換により、人40の候補となる領域について基準面からの高さが求められる。したがって、人位置推定部32は、人40の候補となる領域から求めた基準面からの高さを、人40の身長に基づいて指定される高さ範囲と比較することにより、人40と他の物体とに判別する。この処理により、椅子、ゴミ箱、ノートパソコンなど、移動する物体であっても、基準面からの高さが指定した高さ範囲ではない物体は人40の候補から除外される。
すなわち、人位置推定部32は、推定した基準面の向きおよび距離を利用して対象空間に存在する物体の基準面からの高さを計測するから、人40と他の物体とを高さの相違によって区別し、他の物体を誤検出する可能性が低減される。しかも、基準面である床面50からの高さ範囲を定めているから、人40の身長とは明らかに異なる高さの物体を誤検出することが防止される。
人位置推定部32は、検出された人40の候補である領域のうち、クラスタを形成する領域について重心を求め、重心を基準面に投影した位置を人40の位置とする。ここに、クラスタを形成する領域とは、当該領域に含まれる点(画素に対応する点)の距離を評価し、所定の閾値内の距離である点の集合を意味する。クラスタを求めるには、Mean-Shiftクラスタリングのような周知のクラスタリング方法を採用してもよい。
上述した動作例は、3次元データである監視データと背景データとの差分を用いる技術について説明したが、計測装置20で生成された視差画像の差分を用いて人40の候補の領域を求めることが可能である。視差画像を用いる場合、記憶部12は、角度(α1,β1)で表した座標ごとに画素値として視差Dqを格納する。また、差分演算部31は、同座標(α1,β1)の画素値(視差Dq)の差分を求める。人位置推定部32が行う処理は、3次元データを用いる場合と同様であって、差分が変化した領域を2値化して抽出し、この領域について基準面からの高さの情報に変換し、クラスタの重心位置を人40の位置とすればよい。
さらに、3次元データと視差画像とを併用して人40の候補の領域を求めてもよい。すなわち、上述したように3次元データの差分を2値化することにより抽出した人40の候補である領域と、視差画像の差分を2値化することにより抽出した人40の候補の領域とを、座標変換後に合成し、合成された領域を人40の候補の領域に用いてもよい。領域の合成には、論理和を用いれば人40の候補の領域が検出されやすくなり、論理積を用いれば人40の候補の領域を絞り込むことになる。
空間情報検出装置10と連携した人位置検出装置30の動作を図9にまとめて示す。図示例は、3次元データ(距離画像)を用いる場合を示している。空間情報検出装置10の取得部11は、背景データ(第2の3次元データ)を取得し(S11)、背景データを第2記憶部122に記憶する(S12)。また、空間情報検出装置10の基準設定部13は、床面50の向きおよび距離を算出し(S13,S14)、記憶部12に装置座標系から空間座標系への座標変換のためのデータを格納する(S15)。
その後、空間情報検出装置10の取得部11は監視データ(第3の3次元データ)を取得し(S16)、人位置検出装置30の差分演算部31は、監視データと背景データとの差分により人40の候補となる領域を抽出する(S17)。人位置検出装置30の人位置推定部32は、この領域について床面50からの高さにより人40が存在するか否かを評価し(S18)、この領域に人40が存在すると評価した場合、人位置検出装置30は、クラスタを形成している領域の重心を人40の位置として算出する(S19)。監視データの取得を含むステップS16〜S19の動作は、監視が終了するまで(S20:Yes)、適宜の時間間隔で繰り返し行われる。
上述した構成例では、計測装置20と空間情報検出装置10(人位置検出装置30)とを別体として説明しているが、これらを一体化して1つの筐体に収納した装置を構成してもよい。
本発明を好ましい実施形態によって記載したが、本発明の本来の精神および範囲、すなわち請求の範囲を逸脱することなく、当業者によってさまざまな修正および変形が可能である。

Claims (11)

  1. 対象空間に関して計測装置が計測した第1の3次元データを取得する取得部と、
    前記対象空間における着目領域に複数個の小平面を設定し、前記着目領域における前記第1の3次元データを用いて前記複数個の小平面の各々について、前記計測装置に規定した装置座標系での向き、および前記計測装置からの距離を求める面素算出部と、
    前記面素算出部が求めた前記複数個の小平面の各々の向きおよび距離に基づいて前記対象空間を計測するための基準面を定める基準設定部とを備える
    ことを特徴とする空間情報検出装置。
  2. 前記面素算出部が算出した前記複数個の小平面の向きについて度数分布を求める分布抽出部をさらに備え、
    前記基準設定部は、前記分布抽出部が求めた度数分布において規定した向き閾値以上の度数である向きから前記基準面の向きを求める
    ことを特徴とする請求項1記載の空間情報検出装置。
  3. 前記分布抽出部は、前記複数個の小平面の向きのうち、指定された向き範囲内の向きについて前記度数分布を求める
    ことを特徴とする請求項2記載の空間情報検出装置。
  4. 前記計測装置は、広角レンズを備えるカメラで撮像した前記対象空間の画像を用いて前記第1の3次元データを出力する構成であって、
    前記分布抽出部は、前記複数個の小平面のうち前記画像の中心側の領域における小平面の向きの度数に、前記複数個の小平面のうち前記画像の周辺側の領域における小平面の向きの度数よりも大きい重みを付与して前記度数分布を求める
    ことを特徴とする請求項2又は3記載の空間情報検出装置。
  5. 前記基準設定部は、前記複数個の小平面のうち、前記計測装置からの距離が最大である小平面から前記基準面を求める
    ことを特徴とする請求項1〜4のいずれか1項に記載の空間情報検出装置。
  6. 前記対象空間は建物の空間であって、前記基準面は前記建物の床面である
    ことを特徴とする請求項1〜5のいずれか1項に記載の空間情報検出装置。
  7. 前記第1の3次元データを用いることにより、前記対象空間に存在する物体に関して前記基準面からの高さを算出する高さ算出部をさらに備える
    ことを特徴とする請求項6記載の空間情報検出装置。
  8. 前記取得部が異なる時刻に取得した複数の前記第1の3次元データを記憶する記憶部をさらに備え、
    前記面素算出部は、前記記憶部に記憶された前記複数の前記第1の3次元データの変化が規定した誤差範囲内である領域から前記着目領域を抽出する
    ことを特徴とする請求項1〜7のいずれか1項に記載の空間情報検出装置。
  9. 前記面素算出部は、前記計測装置が異なる時刻に計測した複数組の前記第1の3次元データから前記複数個の小平面の各々の向きの候補を複数回ずつ求め、前記複数個の小平面の各々の向きの候補についての統計的処理により前記複数個の小平面の各々の向きを決定する
    ことを特徴とする請求項1〜8のいずれか1項に記載の空間情報検出装置。
  10. 請求項7記載の空間情報検出装置と、
    前記対象空間に人が存在しないときに前記計測装置が計測した第2の3次元データを記憶する記憶部と、
    前記対象空間を監視する期間に前記計測装置が計測した第3の3次元データを用いて求めた距離と、前記記憶部が記憶している前記第2の3次元データを用いて求めた距離との差分を算出する差分演算部と、
    前記差分演算部により算出された前記差分が規定の判定閾値を超える領域について前記基準面に対する高さを評価することにより人が存在する位置を推定する人位置推定部とを備える
    ことを特徴とする人位置検出装置。
  11. 前記人位置推定部は、前記基準面に対する前記高さが指定された高さ範囲内である領域から前記人が存在する位置を求める
    ことを特徴とする請求項10記載の人位置検出装置。
JP2014520893A 2012-06-20 2013-05-27 空間情報検出装置、人位置検出装置 Expired - Fee Related JP5838355B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014520893A JP5838355B2 (ja) 2012-06-20 2013-05-27 空間情報検出装置、人位置検出装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2012139033 2012-06-20
JP2012139033 2012-06-20
PCT/JP2013/003322 WO2013190772A1 (ja) 2012-06-20 2013-05-27 空間情報検出装置、人位置検出装置
JP2014520893A JP5838355B2 (ja) 2012-06-20 2013-05-27 空間情報検出装置、人位置検出装置

Publications (2)

Publication Number Publication Date
JP5838355B2 true JP5838355B2 (ja) 2016-01-06
JPWO2013190772A1 JPWO2013190772A1 (ja) 2016-02-08

Family

ID=49768387

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014520893A Expired - Fee Related JP5838355B2 (ja) 2012-06-20 2013-05-27 空間情報検出装置、人位置検出装置

Country Status (2)

Country Link
JP (1) JP5838355B2 (ja)
WO (1) WO2013190772A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108573508A (zh) * 2017-03-13 2018-09-25 佳能株式会社 信息处理装置、信息处理方法和存储介质

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015224879A (ja) * 2014-05-26 2015-12-14 パイオニア株式会社 検出装置及び方法、コンピュータプログラム並びに記録媒体
JP2016067800A (ja) * 2014-10-01 2016-05-09 パナソニックIpマネジメント株式会社 電気機器システム
US9761015B2 (en) * 2015-04-28 2017-09-12 Mitsubishi Electric Research Laboratories, Inc. Method for determining dimensions in an indoor scene from a single depth image
EP3185171B1 (en) * 2015-12-24 2020-03-04 Dassault Systèmes 3d object localization with descriptor
EP3185172B1 (en) * 2015-12-24 2020-02-12 Dassault Systèmes 3d object localization with quantization of the point pair descriptors
JP6742157B2 (ja) * 2016-06-06 2020-08-19 株式会社デンソーアイティーラボラトリ 物体検出装置、物体検出システム、物体検出方法、およびプログラム
JP2018048839A (ja) * 2016-09-20 2018-03-29 ファナック株式会社 三次元データ生成装置及び三次元データ生成方法、並びに三次元データ生成装置を備えた監視システム
JP6967715B2 (ja) * 2017-04-18 2021-11-17 パナソニックIpマネジメント株式会社 カメラ校正方法、カメラ校正プログラム及びカメラ校正装置
WO2020217651A1 (ja) * 2019-04-25 2020-10-29 パナソニックIpマネジメント株式会社 寸法測定装置及び荷物発送用ロッカー
JP7405395B2 (ja) * 2019-10-07 2023-12-26 日本電気通信システム株式会社 物体検知装置、システム、方法、及びプログラム
JP6905772B2 (ja) * 2020-06-02 2021-07-21 株式会社センシンロボティクス 飛行体、点検方法及び点検システム
JP6905771B2 (ja) * 2020-06-02 2021-07-21 株式会社センシンロボティクス 飛行体、点検方法及び点検システム
JP6832598B1 (ja) * 2020-07-30 2021-02-24 株式会社センシンロボティクス 飛行体、点検方法及び点検システム
WO2022201786A1 (ja) * 2021-03-22 2022-09-29 ソニーグループ株式会社 情報処理装置、情報処理方法、及び、プログラム
JP7424348B2 (ja) * 2021-05-31 2024-01-30 セイコーエプソン株式会社 検出方法、及び検出システム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006054681A (ja) * 2004-08-11 2006-02-23 Tokyo Institute Of Technology 移動体周辺監視装置
JP2006053754A (ja) * 2004-08-11 2006-02-23 Honda Motor Co Ltd 平面検出装置及び検出方法
JP2008009999A (ja) * 2007-07-27 2008-01-17 Sony Corp 平面抽出方法、その装置、そのプログラム、その記録媒体及び撮像装置
JP2009174830A (ja) * 2008-01-28 2009-08-06 Sharp Corp 人物位置検出装置および空気調和機

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006054681A (ja) * 2004-08-11 2006-02-23 Tokyo Institute Of Technology 移動体周辺監視装置
JP2006053754A (ja) * 2004-08-11 2006-02-23 Honda Motor Co Ltd 平面検出装置及び検出方法
JP2008009999A (ja) * 2007-07-27 2008-01-17 Sony Corp 平面抽出方法、その装置、そのプログラム、その記録媒体及び撮像装置
JP2009174830A (ja) * 2008-01-28 2009-08-06 Sharp Corp 人物位置検出装置および空気調和機

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108573508A (zh) * 2017-03-13 2018-09-25 佳能株式会社 信息处理装置、信息处理方法和存储介质

Also Published As

Publication number Publication date
JPWO2013190772A1 (ja) 2016-02-08
WO2013190772A1 (ja) 2013-12-27

Similar Documents

Publication Publication Date Title
JP5838355B2 (ja) 空間情報検出装置、人位置検出装置
Diraco et al. An active vision system for fall detection and posture recognition in elderly healthcare
EP2717013A1 (en) Stereo camera device and computer-readable recording medium
EP2072947B1 (en) Image processing device and image processing method
JP5950296B2 (ja) 人物追跡属性推定装置、人物追跡属性推定方法、プログラム
KR102424135B1 (ko) 2개의 카메라로부터의 곡선의 세트의 구조형 광 매칭
JP2014127208A (ja) 物体検出方法及び物体検出装置
JP2008304268A (ja) 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
Ruotsalainen et al. Visual-aided two-dimensional pedestrian indoor navigation with a smartphone
US9449389B2 (en) Image processing device, image processing method, and program
JP2015524560A (ja) 3d走査および位置決めのインターフェース
JP2006343859A (ja) 画像処理装置及び画像処理方法
JP2013205175A (ja) 3次元対象面認識装置および方法、ならびにプログラム
Gallegos et al. Appearance-based slam relying on a hybrid laser/omnidirectional sensor
Kim et al. Quasi-globally optimal and real-time visual compass in manhattan structured environments
Antunes et al. Can stereo vision replace a laser rangefinder?
JP2007114168A (ja) 画像処理方法および装置、並びにプログラム
JP6802923B2 (ja) 物体検出装置、及び、物体検出手法
Meers et al. Face recognition using a time-of-flight camera
Distante et al. Active range imaging dataset for indoor surveillance
Li et al. Two-phase approach—Calibration and iris contour estimation—For gaze tracking of head-mounted eye camera
JP2010107224A (ja) 位置特定装置及び異動建物検出装置
Bräuer-Burchardt et al. Comparison and evaluation of correspondence finding methods in 3D measurement systems using fringe projection
Cupec et al. Place Recognition Based on Planar Surfaces Using Multiple RGB-D Images Taken From the same Position
US20230308746A1 (en) Methods and systems for performing object dimensioning

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150519

LAPS Cancellation because of no payment of annual fees