JP6606340B2 - 画像検出装置、画像検出方法およびプログラム - Google Patents
画像検出装置、画像検出方法およびプログラム Download PDFInfo
- Publication number
- JP6606340B2 JP6606340B2 JP2015074942A JP2015074942A JP6606340B2 JP 6606340 B2 JP6606340 B2 JP 6606340B2 JP 2015074942 A JP2015074942 A JP 2015074942A JP 2015074942 A JP2015074942 A JP 2015074942A JP 6606340 B2 JP6606340 B2 JP 6606340B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- camera
- captured
- dimensional position
- geometric attribute
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 80
- 238000012545 processing Methods 0.000 claims description 32
- 238000003384 imaging method Methods 0.000 claims description 9
- 238000000034 method Methods 0.000 description 50
- 239000013598 vector Substances 0.000 description 44
- 210000000746 body region Anatomy 0.000 description 30
- 230000008569 process Effects 0.000 description 19
- 230000000694 effects Effects 0.000 description 17
- 238000004891 communication Methods 0.000 description 13
- 230000033001 locomotion Effects 0.000 description 11
- 238000000605 extraction Methods 0.000 description 8
- 230000005540 biological transmission Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 7
- 239000000284 extract Substances 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 7
- 230000001133 acceleration Effects 0.000 description 6
- 230000000295 complement effect Effects 0.000 description 4
- 230000008094 contradictory effect Effects 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Image Processing (AREA)
Description
例えば、図2のようにカメラ1が人体B、カメラ2が人体Aと人体Bを捉えている場合を考える。この場合、人体Bの正しい位置のみならず、カメラ1の光学中心C1と人体Bとを結ぶ直線と、カメラ2の光学中心C2と人体Aとを結ぶ直線の交点が虚像Vの位置として推定される。
また、虚像はカメラ間の人体の対応付けに曖昧性があるために生じる。そのため、ステレオ視ではカメラ間の物体領域の色やテクスチャ等の画像情報を比較し、これらが同一物体か否かを判定することで、虚像を排除する方法がよく行われる(非特許文献1)。
本発明は、多くのフレームの照合や画像情報の直接比較に依らず、虚像を排除して物体の3次元位置を得ることを目的とする。
複数の前記カメラで撮像して得られた各撮像画像に含まれる物体の前記撮像画像上の位置および幾何的属性を取得する物体情報取得手段と、
複数の前記撮像画像に含まれる前記物体の各撮像画像上の位置を対応付け、前記カメラの位置関係と前記物体の各撮像画像上の位置と前記物体の各撮像画像から得られる前記幾何的属性とに基づいて前記物体の3次元位置を推定する3次元位置推定部と、
推定された前記物体の3次元位置に基づいて、当該物体の像を少なくとも1つの前記カメラの前記撮像画像に投影し、該投影された像の前記撮像画像上での幾何的属性と前記物体情報取得手段により取得された幾何的属性との類似度に基づいて、当該推定された前記物体の3次元位置の整合性を判定する判定手段と、
前記3次元位置推定手段により推定された3次元位置から、前記判定手段により整合性が低いと判定された3次元位置を除外して出力する出力手段と
を備える。
少なくとも2つのカメラの位置関係を保持するカメラ情報保持手段と、
複数の前記カメラで撮像して得られた各撮像画像に含まれる物体の前記撮像画像上の位置および幾何的属性を取得する物体情報取得手段と、
複数の前記撮像画像に含まれる前記物体の各撮像画像上の位置を対応付け、前記カメラの位置関係と前記物体の各撮像画像上の位置と前記物体の各撮像画像から得られる前記幾何的属性とから前記物体の3次元位置を推定する3次元位置推定手段と、
推定された前記物体の3次元位置に基づいて、当該物体の像を少なくとも1つの前記カメラの前記撮像画像に投影し、該投影された像の前記撮像画像上での幾何的属性と前記物体情報取得手段により取得された幾何的属性との類似度に基づいて、当該推定された前記物体の3次元位置の整合性を判定する判定手段と、
前記3次元位置推定手段により推定された3次元位置から、前記判定手段により整合性が低いと判定された3次元位置を除外して出力する出力手段と
を備える。
物体情報取得手段は、例えば、第1のカメラで撮像して得られた第1の撮像画像に含まれる物体の第1の撮像画像上の位置と、第2のカメラで撮像して得られた第2の撮像画像に含まれる物体の第2の撮像画像上の位置と、幾何的属性を取得する。第1の撮像画像と第2の撮像画像とはほぼ同時に撮像されたものである。
3次元位置推定手段は、例えば、
第1の撮像画像に含まれる物体の第1の撮像画像上の位置と、
第2の撮像画像に含まれる物体の第2の撮像画像上の位置と、
を対応付け、
第1のカメラと第2のカメラの位置関係と、
対応付けられた物体の
第1の撮像画像上の位置と、
第2の撮像画像上の位置と、
第1の撮像画像から得られる幾何的属性と
第2の撮像画像から得られる幾何的属性と
から対応付けられた物体の3次元位置を推定する。
以下、本発明の実施例について説明する。
本実施例では、検出対象物体として人体を例に説明するが、他の検出対象物体でも構わない。
図3に、本実施例の画像検出装置のハードウェア構成例を示す。
カメラ情報保持部103はカメラキャリブレーションを行うことにより取得した各カメラの内部パラメータ、位置、姿勢に関する情報を保持する。画像取得部101は各カメラから画像を取得する。
3次元位置推定部104は、物体対応部105、位置推定部107、整合性判定部106で構成される。
位置推定部107は、対応付いた物体の位置とカメラの位置関係から、物体の3次元位置座標を推定する。
整合性判定部106は、カメラの位置関係と複数の物体の位置と幾何的属性から整合性を判定し、3次元位置が虚像か否かを判定する。
検出補完部108が行う「補完」について説明する。ここで「補完」とは、あるカメラのカメラ画像から検出できた物体の三次元位置を推定し、推定した三次元位置に基づいて、その物体の幾何的属性を、他のカメラのカメラ画像に表示することをいう。
例えば、第1のカメラ、第2のカメラおよび第3のカメラを物体Aの方向に向け、各カメラで物体Aの撮像を同時に試みたとする。そして、物体情報取得部102が、第1のカメラのカメラ画像および第2のカメラのカメラ画像からは物体Aを検出できたとする。
第3のカメラのカメラ画像からは物体Aを検出できる場合とできない場合が想定される。第3のカメラのカメラ画像から物体Aを検出できなかった場合、その理由としては、第3のカメラと物体Aとの間になんらかの障害物が存在した場合などが想定される。
そして、
第1のカメラのカメラ画像上の物体Aの位置および
第2のカメラのカメラ画像上の物体Aの位置
から物体Aの3次元位置を推定し、
推定された3次元位置に物体Aが存在すると仮定して
第1のカメラのカメラ画像または第2のカメラのカメラ画像
から得られた物体Aの幾何的属性を
第3のカメラのカメラ画像に投影する。
このように投影することによって、物体情報取得部102が第3のカメラのカメラ画像から物体Aを検出できなかった(検出に失敗した)場合に物体Aの幾何的属性を、第3のカメラのカメラ画像に補完する。
表示部109は、物体の検出結果や3次元位置をカメラ画像とともにディスプレイに表示する。
本実施例では、視野が重複した4台のカメラが設置されているものとする。カメラ台数はこれに限らず、2台以上の任意の数でもよい。
まず、ステップS401ではカメラキャリブレーションを行うことにより、各カメラの内部パラメータ、位置、姿勢を推定する。まず、キャリブレーションボードを環境に設置し、非特許文献3の手法により各カメラの内部パラメータを求める。さらに、環境に設置した別のキャリブレーションマーカーによって各カメラの位置、姿勢を推定する。これらの情報は図1のカメラ情報保持部103に保持される。
<ステップS403 物体情報取得部102の処理>
ステップS403では、ステップS402で取得された各画像から人体領域を抽出する。この処理の結果、人体領域を示す矩形の代表点座標(x,y)および高さh、幅wを得る。
<ステップS404 物体情報取得部102の処理>
ステップS404では、ステップS403で抽出された人体領域からこの幾何的属性を抽出する。本実施例では、人体領域の大きさ(検出枠の高さhと幅w)を幾何的属性とする。そのため、ステップS403で取得した検出枠の高さhと幅wを幾何的属性として設定する。ステップS403とステップS404の処理は図1の物体情報取得部102の処理に相当する。
ステップS405では、ステップS403で検出された人体を画像間で対応付ける。すなわち、ある画像で検出された人体が、他の画像のどの人体に対応するかを探索する。ステップS405の処理は図1の物体対応部105の処理に相当する。
人体の画像間の対応付けは、人体領域の代表点をエピポーラ幾何によって対応付けることで行う。
例えば、カメラ1によって撮像されたカメラ画像1(501)に写っている人体Aの代表点とカメラ1の光学中心(不図示)とを結ぶ直線は、カメラ画像2(502)ではエピポーラ線と呼ばれる直線503で表わされる。エピポーラ線とは、エピポーラ平面とカメラ画像1(カメラ1の画像面)が交わる線およびエピポーラ平面とカメラ画像2(カメラ2の画像面)が交わる線のことである。エピポーラ平面とは、カメラ画像1(501)の人体Aの代表点に対応する3次元空間中の点をP、カメラ1の光学中心をC1、カメラ2の光学中心をC2としたとき、3点P、C1およびC2を通る平面のことである。
カメラの位置、姿勢、内部パラメータから得られるカメラ画像1(501)とカメラ画像2(502)との間の位置関係の情報を含む行列である基礎行列をFとする。さらに、人体Aの2次元座標を表わすベクトルをxとすると、エピポーラ線lは次式で表わされる。
例えば、図5において、カメラ画像1(501)の人体Aに対応するものは、カメラ画像2(502)上では人体BとCである。カメラ画像2(502)の人体Dの代表点とエピポーラ線503との間の距離はしきい値を超えるため、カメラ像2(502)の人体Dはガメラ画像1(501)の人体Aには対応しないこととなる。ある人体に対応する他のカメラの人体は、1つのカメラにつき1つでなければならない。そのため、それを満たすように対応付く人体の組の組み合わせを求める。図5のカメラ画像1(501)の人体Aに対応付く人体の組として、{A,B}と{A,C}が生成される。
ステップS406では、ステップS405で対応付いた人体の組から3次元位置を推定する。ステップS406の処理は図1の位置推定部107の処理に相当する。
まず図6のように、各カメラの光学中心C1、C2、C3と各カメラ画像の人体領域の代表点とを通る3次元空間中の直線を求める。直線はカメラの位置、姿勢、内部パラメータおよび代表点の画像上の座標より求める。次に、各カメラの直線の交点を求め、これを人体の3次元位置とする。直線の推定誤差により、実際にはこれらの直線が1点で交わらない場合がある。この場合には、各直線からの距離の和が最小になる点を交点の代わりとして採用する。
ステップS407では、カメラの位置、姿勢、内部パラメータとステップS404でそれぞれ求めた幾何的属性から、3次元位置の整合度を算出する。この整合度が大きいほど虚像ではなく実像である度合いが高く、信頼性の高い3次元位置となる。ステップS407の処理は図1の整合性判定部106の処理に相当する。
図7(a)では、作成された円柱形の像701の位置(推定された3次元位置)と人体の実際の位置とが一致するものとして示されている。次に、この円柱形の像を各カメラ画像702,703に投影する。このとき、図7(a)に示すように推定された3次元位置が正しいならば、円柱形の像はカメラから正しい距離に存在するため、図7(b)に示すようにカメラ画像702,703に投影された像(投影像)と検出枠の大きさは類似する。
全てのカメラ画像を考慮した3次元物体の整合度Rは次式のように、各カメラ画像から算出された整合度rcの最小値とする。
<整合度の低い対応付けの除外>
ステップS408では、ステップS407の整合度Rを基に、カメラ画像間の物体対応付けのうち整合度の低いものを削除する。具体的には、整合度が事前に定めたしきい値より小さい対応付けを削除の対象とする。
ステップS409では、ステップS406の3次元位置推定結果を利用し、ステップS403で検出漏れが生じた人体について、検出枠の位置、大きさを推定する。ステップS409の処理は図1の検出補完部108の処理に相当する。
まず、ステップS407と同様の手順で求めた3次元位置に作成した円柱形の像902を図9のように任意のカメラ画像904に投影する。
このとき、もし投影された像901の近傍にステップS403で求めた人体領域903が存在するならば、この投影された像901はすでに検出済みであるとして破棄する。
ステップS410では、以上の処理で求めた検出結果および3次元位置推定結果を表示機器に表示する。ステップS410の処理は図1の表示部109の処理に相当する。
カメラ画像1101には、ステップS403やステップS409で検出された人体領域を示すシンボル(枠)が撮像画像に重畳表示される。カメラが異なっていても同一の人体であるか否かをユーザが容易に識別できるように、異なるカメラの同一の人物の枠は同じ色で着色する。
ステップS411では、処理を継続するか否かを判定する。カメラ画像からさらなる画像が取得可能であるならステップS402に戻り、取得不可であるなら処理を終了する。
例えば、図10(a)のように、任意のカメラ画像平面1005を選択し、これに平行な平面1001を推定された3次元位置1002を通るように置き、その平面1001に人体領域1003を投影する。そして、平面1001に投影された平面像の高さと幅を取得し、これを高さと直径とする円柱形の像1004をステップS407で作成する円柱形の像の代わりとしてもよい。そして図7の実像701や図8の虚像801と同様に、像1004を各カメラ画像に投影する。図10(a)では像1004をカメラ画像平面1005とカメラ画像平面1006に投影している。投影された像の例を図10(b)に示す。カメラ1に投影された像はカメラ画像平面1005上の人体領域1003により生成された像1004を投影したものであるため、推定された3次元位置が虚像であるか否かにかかわらず検出枠と投影像は一致する。一方、カメラ2に関しては、推定された3次元位置が虚像である場合にはカメラ2に投影された像とカメラ2の検出枠の大きさが一致せず、実像である場合には大きさが一致する。そのため、先に説明したステップ407と同様に、各カメラ画像において投影された像と検出枠の大きさの類似度を算出した後、式2と同様の方法で全てのカメラ画像を考慮した3次元物体の整合度Rを算出する。図10ではカメラを2台しか図示していないが、3台以上ある場合には像1004をそれぞれのカメラ画像に投影して同様に整合度Rの算出を行う。図10では任意のカメラ画像平面1005を選択して整合度Rを算出したが、各カメラ画像平面を選択してそれぞれで整合度の算出を行い、これらの平均をとって整合度Rとしてもよい。このような方法で像を作成することで、人体の平均的な大きさを仮定する必要がなくなり、人体の実際の大きさが平均的な大きさと大きく異なる場合に精度向上が見込める。
例えば、物体抽出を物体情報取得部の外部で行い、物体情報取得部は通信リンクを通じて外部から物体の画像上の位置および幾何的属性を抽出してもよい。
より具体的には、例えば、カメラに撮像画像から物体の画像上の位置および幾何的属性を抽出する物体検出部および送信部を持たせる。あるいは、カメラを接続したPCに撮像画像から物体の画像上の位置および幾何的属性を抽出する物体検出部および送信部を持たせる。
そして、カメラ又はPCが有する送信部と画像検出装置が有する受信部との間に確立されたネットワーク等の通信リンクを通じて情報取得部はこれらのカメラあるいはPCから情報を取得するようにしてもよい。
物体検出部1412が物体を検出する。物体情報取得部1422は、通信部1413と通信部1421との間に確立された通信リンクを介して、物体の位置と幾何的属性を取得する。
また、PCが物体情報取得部を備え、PCで3次元位置推定を行ってもよいし、カメラが物体情報取得部を備え、カメラに3次元位置推定の機能を持たせてもよい。
カメラの位置、姿勢を用いることにより、物体の撮像方向、距離によらず異なるカメラ間の幾何的属性が正確に比較できるようになり、第1のカメラ画像と第2のカメラ画像に写っている物体が同一物体か否かの判別精度の向上が見込める。人体の大きさの幾何的属性は属性抽出の計算量が少なく、少ない計算量で効率的に虚像を除去する効果が見込める。
また、幾何的属性の記憶に必要な容量は小さく、画像や画像特徴に比べ、少ない記憶容量や伝送量で、効果的に虚像を除去する効果が見込める。
実施例1では人体領域の大きさを幾何的属性とした。一方、以下の実施例2に示すように、人体の向きを幾何的属性としてもよい。
本実施例と実施例1とは図4のステップS404、ステップS407の処理のみが異なるため、この部分のみを説明する。
ステップS404では、ステップS403で抽出された人体領域からこの幾何的属性を抽出する。実施例1では人体領域の大きさを幾何的属性としたが、本実施例では人体領域から抽出した人体の向きを幾何的属性とする。
具体的には、図12で示すように、人体の向き1202に平行な方向ベクトル1201を推定し、これを幾何的属性とする。方向ベクトルは3次元であり、ノルムが1に正規化されている。
ステップS407では、カメラの位置、姿勢、内部パラメータとステップS404でそれぞれ求めた幾何的属性から、3次元位置の整合性を判定する。
まず、あるカメラ画像の方向ベクトルを他のカメラの方向ベクトルと比較することで、2つのカメラ間の整合度rを算出する方法を説明する。方向ベクトルはカメラ座標系で算出したため、方向ベクトル同士を比較するためには、同じ座標系に変換する必要がある。そこで、本実施例では、カメラ座標系で表わされる方向ベクトルを世界座標系に変換する。
次に、あるカメラの世界座標系の方向ベクトルと他のカメラの世界座標系の方向ベクトルとを比較することで、2つのカメラ間の整合度rを算出する。
本実施例では、方向ベクトルはノルムが1に正規化された3次元ベクトルであり、人体の向きの自由度が2であったが、自由度が1でもよい。人体の向きの自由度が1の場合とは、例えば鉛直な直線を軸としたヨー回転のみを考慮した人体の向きである。その場合にはカメラ座標系において鉛直方向の成分が0の方向ベクトルを抽出すればよい。また、人体の向きの自由度は3でもよく、ピッチ、ヨー、ロールの回転を考慮してもよい。この場合には、ベクトルの方向でピッチ角とヨー角を、ベクトルのノルムでロール角を表わしてもよい。
実施例1では人体領域の大きさを幾何的属性とした。一方、以下の実施例3に示すように、物体の動きを幾何的属性としてもよい。物体の動きとは、例えば物体領域の移動方向や大きさの変化量、速度や加速度である。
まず、人体の動きの幾何的属性を人体領域の移動方向とした実施例について説明する。本実施例は実施例1とは図4のステップS404、ステップS407の処理が異なるため、この部分のみを説明する。
ステップS404では、ステップS403で抽出された人体領域からこの幾何的属性を抽出する。本実施例では、人体の移動方向を幾何的属性とする。
具体的には、図12で示すように、人体の移動方向1202に平行な移動方向ベクトル1201を推定し、これを幾何的属性とする。移動方向ベクトルは3次元であり、ノルムが1に正規化されている。
ステップS407では、カメラの位置、姿勢、内部パラメータとステップS404でそれぞれ求めた幾何的属性から、3次元位置の整合性を判定する。処理内容は、実施例2の方向ベクトル同士の比較と同様である。
移動方向と人体方向を併用することによって、被写体の距離が遠く安定して移動方向が抽出できない場合等に、より信頼性の高い方を使い分けることができ、精度向上が見込める。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
102 物体情報取得部
103 カメラ情報保持部
104 3次元位置推定部
105 物体対応部
106 整合性判定部
107 位置推定部
108 検出補完部
109 表示部
Claims (11)
- 少なくとも2つのカメラの位置関係を保持するカメラ情報保持手段と、
複数の前記カメラで撮像して得られた各撮像画像に含まれる物体の前記撮像画像上の位置および幾何的属性を取得する物体情報取得手段と、
複数の前記撮像画像に含まれる前記物体の各撮像画像上の位置を対応付け、前記カメラの位置関係と前記物体の各撮像画像上の位置と前記物体の各撮像画像から得られる前記幾何的属性とに基づいて前記物体の3次元位置を推定する3次元位置推定手段と、
推定された前記物体の3次元位置に基づいて、当該物体の像を少なくとも1つの前記カメラの前記撮像画像に投影し、該投影された像の前記撮像画像上での幾何的属性と前記物体情報取得手段により取得された幾何的属性との類似度に基づいて、当該推定された前記物体の3次元位置の整合性を判定する判定手段と、
前記3次元位置推定手段により推定された3次元位置から、前記判定手段により整合性が低いと判定された3次元位置を除外して出力する出力手段と
を備えることを特徴とする画像検出装置。 - 前記3次元位置推定手段は、
第1のカメラの撮像画像に含まれる物体と、
第2のカメラの撮像画像に含まれる物体と、
を対応付け、
前記第1のカメラと前記第2のカメラとの位置関係と、
対応づけられた前記物体の
前記第1のカメラの撮像画像上の位置と、
前記第2のカメラの撮像画像上の位置と、
から前記物体の3次元位置を推定する
ことを特徴とする請求項1に記載の画像検出装置。 - 前記判定手段は、前記3次元位置の整合度を求めることを特徴とする請求項1に記載の画像検出装置。
- 前記幾何的属性が物体の大きさであることを特徴とする請求項1乃至3のいずれか1項に記載の画像検出装置。
- 前記幾何的属性が物体の向きであることを特徴とする請求項1乃至3のいずれか1項に記載の画像検出装置。
- 少なくとも2つのカメラと画像検出装置とを備える画像処理システムであって、
前記カメラは、
前記カメラで撮像して得られた各撮像画像に含まれる物体の画像上の位置および幾何的属性を画像処理により求める物体検出手段と、
前記物体検出手段によって求められた前記物体の画像上の前記位置および前記幾何的属性を送信する送信手段と、を備え、
前記画像検出装置は、
請求項1から5のいずれか1項に記載の画像検出装置であって、
前記送信手段から送信された前記物体の画像上の前記位置および前記幾何的属性を受信する受信手段をさらに備え、
前記物体情報取得手段は、前記受信手段が受信した前記物体の画像上の前記位置および前記幾何的属性を取得する
ことを特徴とする画像処理システム。 - 物体検出装置と画像検出装置とを備える画像処理システムであって、
前記物体検出装置は、
少なくとも2つのカメラで撮像して得られた各撮像画像に含まれる物体の画像上の位置および幾何的属性を画像処理により求める物体検出手段と、
前記物体検出手段によって求められた前記物体の画像上の前記位置および前記幾何的属性を送信する送信手段と、を備え、
前記画像検出装置は、
請求項1から5のいずれか1項に記載の画像検出装置であって、
前記送信手段から送信された前記物体の画像上の前記位置および前記幾何的属性を受信する受信手段をさらに備え、
前記物体情報取得手段は、前記受信手段が受信した前記物体の画像上の前記位置および前記幾何的属性を取得する、
ことを特徴とする画像処理システム。 - 第1のカメラ、第2のカメラ、および第3のカメラで物体が撮像され、
前記第1のカメラの撮像画像上の前記物体の位置と
前記第2のカメラの撮像画像上の前記物体の位置と
に基づいて前記物体の3次元位置を推定し、
推定された前記3次元位置に前記物体が存在すると仮定して、
前記第1のカメラの撮像画像または前記第2のカメラの撮像画像
から得られた前記物体の幾何的属性を
前記第3のカメラの撮像画像に投影することで前記物体情報取得手段の検出漏れを補完する検出補完手段
をさらに備えることを特徴とする請求項1から5のいずれか1項に記載の画像検出装置。 - 前記物体情報取得手段で取得され前記物体の画像上の位置と3次元位置推定手段で推定された前記物体の3次元位置を表示する表示手段を備え、
前記表示手段は
前記撮像画像に前記物体情報取得手段で取得された画像上の位置を示すシンボルを重畳する画像表示手段と、
2次元または3次元のマップに前記3次元位置推定手段で推定された前記物体の3次元位置を示すシンボルを重畳させるマップ表示手段と
をさらに備えることを特徴とする請求項1から5のいずれか1項に記載の画像検出装置。 - 少なくとも2つのカメラの位置関係を保持するカメラ情報保持工程と、
複数の前記カメラで撮像して得られた各撮像画像に含まれる物体の前記撮像画像上の位置および幾何的属性を取得する物体情報取得工程と、
複数の前記撮像画像に含まれる前記物体の各撮像画像上の位置を対応付け、前記カメラの位置関係と前記物体の各撮像画像上の対応付けられた位置とに基づいて前記物体の3次元位置を推定する3次元位置推定工程と、
推定された前記物体の3次元位置に基づいて、当該物体の像を少なくとも1つの前記カメラの前記撮像画像に投影し、該投影された像の前記撮像画像上での幾何的属性と前記物体情報取得工程において取得された幾何的属性との類似度に基づいて、当該推定された前記物体の3次元位置の整合性を判定する判定工程と、
前記3次元位置推定工程で推定された3次元位置から、前記判定工程において整合性が低いと判定された3次元位置を除外して出力する出力工程と
を有することを特徴とする画像検出方法。 - 請求項1乃至9のいずれか1項に記載の画像検出装置の各手段としてコンピュータを機能させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015074942A JP6606340B2 (ja) | 2015-04-01 | 2015-04-01 | 画像検出装置、画像検出方法およびプログラム |
US15/084,381 US9877012B2 (en) | 2015-04-01 | 2016-03-29 | Image processing apparatus for estimating three-dimensional position of object and method therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015074942A JP6606340B2 (ja) | 2015-04-01 | 2015-04-01 | 画像検出装置、画像検出方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016194847A JP2016194847A (ja) | 2016-11-17 |
JP6606340B2 true JP6606340B2 (ja) | 2019-11-13 |
Family
ID=57323711
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015074942A Active JP6606340B2 (ja) | 2015-04-01 | 2015-04-01 | 画像検出装置、画像検出方法およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6606340B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110807431A (zh) * | 2019-11-06 | 2020-02-18 | 上海眼控科技股份有限公司 | 对象定位方法、装置、电子设备及存储介质 |
CN111080638B (zh) * | 2019-12-27 | 2023-04-07 | 成都泓睿科技有限责任公司 | 一种检测模制瓶瓶底脏污的方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000228766A (ja) * | 1999-02-05 | 2000-08-15 | Canon Inc | 監視システムおよびその制御方法およびその動作処理プログラムを記憶した記憶媒体 |
GB2400513B (en) * | 2003-03-14 | 2005-10-05 | British Broadcasting Corp | Video processing |
JP2010063001A (ja) * | 2008-09-05 | 2010-03-18 | Mitsubishi Electric Corp | 人物追跡装置および人物追跡プログラム |
JP6141079B2 (ja) * | 2013-04-08 | 2017-06-07 | キヤノン株式会社 | 画像処理システム、画像処理装置、それらの制御方法、及びプログラム |
-
2015
- 2015-04-01 JP JP2015074942A patent/JP6606340B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016194847A (ja) | 2016-11-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6700752B2 (ja) | 位置検出装置、位置検出方法及びプログラム | |
US9877012B2 (en) | Image processing apparatus for estimating three-dimensional position of object and method therefor | |
US20200279121A1 (en) | Method and system for determining at least one property related to at least part of a real environment | |
JP5812599B2 (ja) | 情報処理方法及びその装置 | |
JP4653606B2 (ja) | 画像認識装置、方法およびプログラム | |
WO2017041731A1 (en) | Markerless multi-user multi-object augmented reality on mobile devices | |
JP4429298B2 (ja) | 対象個数検出装置および対象個数検出方法 | |
KR20190034092A (ko) | 화상처리 장치, 화상처리 방법, 화상처리 시스템 및 기억매체 | |
JP6590609B2 (ja) | 画像解析装置及び画像解析方法 | |
JP7159384B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP7379065B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP2018156408A (ja) | 画像認識撮像装置 | |
JP2019114103A (ja) | 物体認識処理装置、物体認識処理方法及びプログラム | |
JP2018120283A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2014134856A (ja) | 被写体識別装置、被写体識別方法および被写体識別プログラム | |
JP2020042575A (ja) | 情報処理装置、位置合わせ方法、及びプログラム | |
JP6606340B2 (ja) | 画像検出装置、画像検出方法およびプログラム | |
JP6659095B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP6163732B2 (ja) | 画像処理装置、プログラム、及び方法 | |
JP2007200364A (ja) | ステレオキャリブレーション装置とそれを用いたステレオ画像監視装置 | |
JP2011090708A (ja) | 対象個数検出装置および対象個数検出方法 | |
US11417063B2 (en) | Determining a three-dimensional representation of a scene | |
KR20160049639A (ko) | 부분 선형화 기반의 3차원 영상 정합 방법 | |
WO2017042852A1 (en) | Object recognition appratus, object recognition method and storage medium | |
JP2009205695A (ja) | 対象個数検出装置および対象個数検出方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180329 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190410 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190422 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190619 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190919 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191018 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6606340 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: R3D03 |