JP2009129049A - 物体位置推定装置、物体位置推定方法、物体位置推定プログラムおよびそのプログラムを記録した記録媒体 - Google Patents

物体位置推定装置、物体位置推定方法、物体位置推定プログラムおよびそのプログラムを記録した記録媒体 Download PDF

Info

Publication number
JP2009129049A
JP2009129049A JP2007301322A JP2007301322A JP2009129049A JP 2009129049 A JP2009129049 A JP 2009129049A JP 2007301322 A JP2007301322 A JP 2007301322A JP 2007301322 A JP2007301322 A JP 2007301322A JP 2009129049 A JP2009129049 A JP 2009129049A
Authority
JP
Japan
Prior art keywords
image
object position
position estimation
map
image input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007301322A
Other languages
English (en)
Other versions
JP4675368B2 (ja
Inventor
Isao Miyagawa
勲 宮川
Tatsuya Osawa
達哉 大澤
Hiroyuki Arai
啓之 新井
Hideki Koike
秀樹 小池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2007301322A priority Critical patent/JP4675368B2/ja
Publication of JP2009129049A publication Critical patent/JP2009129049A/ja
Application granted granted Critical
Publication of JP4675368B2 publication Critical patent/JP4675368B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】メモリに乏しく処理速度があまり速くない計算機においても監視映像からの物体位置の推定を高速、かつ効率的に行うことができる物体位置推定装置を提供する。
【解決手段】画像入力装置で取得し、時系列画像データベース1に蓄積された時系列画像から、対象物領域を画像処理的に抽出する物体領域抽出部2と、前記抽出部2により抽出された画素が、用意した3次元モデルのうちどの投影が該当するかどうかを、モデルテーブル構築部4内の参照用テーブルを使って照合し、投影される3次元モデルが存在した場合はそのモデルの空間位置にそれぞれ投票することにより、投票値が多い場所に対象物の存在の可能性が高いことを表すマップを生成する空間マップ生成部5と、前記空間マップ生成部5により生成されたマップの得票値に基づいて対象物の位置を推定する物体位置推定部6とを備える。
【選択図】図1

Description

本発明は、監視カメラなどの固定カメラで撮影した人物歩行撮影画像、車両などの移動物体や歩行者などの動きを撮影した時系列画像に利用可能で、カメラで取得した時系列画像から、対象物(被写体)の位置を推定する物体位置推定装置、物体位置推定方法、物体位置推定プログラムおよびそのプログラムを記録した記録媒体に関する。
監視カメラで撮影された映像から混雑で込み合う状態を計測する技術として、従来では背景差分などの画像処理を使って人物領域を抽出し、人物一人を構成する画素数や空間の奥行きに応じた補正を行うことにより監視エリア内の混雑度を測定する方法がある。これに対し、ステレオカメラを使って人物の大まかな位置を3次元計測することにより混雑度算出の精度を上げる方法がある。ステレオカメラでは光軸をほぼ平行に設置することで画像間の探索を容易にしており、画素間の対応付けが正確に処理されれば三角測量の原理によりその点の奥行きが分かる。さらに、カメラからの各物体への奥行きが分かれば、オクルージョン問題を解決することも期待できる。あるいは、複数のカメラを使って監視領域を撮影し、対象画像または対象領域と3次元空間を対応付けし、物体の位置を検出する方法も公開されている(特許文献1、2参照)。
一方、監視映像における人物追跡への新たな応用としてパーティクル・フィルタ(非特許文献1参照)の有用性が報告されている。パーティクル・フィルタは、追跡対象を状態量と尤度を持つ多数の仮説群により離散的な確率密度として表現し、状態遷移モデルを用いて伝播させることで動きの変動や観測の雑音に対して頑健に追跡を実現するために使われている。
尚、本発明に関連する技術として、ガウス混合分布を利用して画像から物体領域を抽出することは、例えば非特許文献2に記載されている。
特開2003−331263号公報 特開2004−46464号公報 樋口知之,"粒子フィルタ",電子情報通信学会誌,Vol.88,No.12,pp.989−994,2005. C.Stauffer & W.E.L Grimson,"Adaptive background mixture models for real−time tracking",Proceeding of International Conference on Computer Vision and Pattern Recognition,Vol.2,pp.246−252,1999.
単眼カメラでは奥行き方向に不定性があるため、画素数に応じた混雑度計測は必ずしも的確である保証はない。その奥行き不定性を解消するためにステレオカメラなどのマルチカメラ撮影が考えられるが、公共広場、駅、デパート構内などの監視カメラで撮像されるエリアは多数の人物監視の上で広域撮影である場合が多い。つまり、やや遠方のエリアを低角度で監視する状況では画面中において人物は小さく撮像されるためステレオ視に十分な精度の特徴点が観測できるかどうかは曖昧であり、遠方なだけに両眼での対応点が正確でないと推定された奥行き値は信頼性が低いものとなる。また、カメラ画像と3次元空間の対応付けにより物体位置を検出するには画像(2D)のボクセル空間(3D)への逆投影法(特許文献2)が提案されているが、計算コストが高く、かつ、複数カメラでは物体位置がボクセル空間において分散する恐れがある。
一方、広域エリアの監視映像ではパーティクル・フィルタを使った3次元追跡は有望な手法であると考えられるが、計算機パワーに依存する処理が多く、監視映像を処理する計算機の資源が乏しい場合は負荷が大きい。
本発明は上記課題を解決するものであり、その目的は、メモリに乏しく処理速度があまり速くない計算機においても監視映像からの物体位置の推定を高速、かつ効率的に行うことができる物体位置推定装置、物体位置推定方法、物体位置推定プログラムおよびそのプログラムを記録した記録媒体を提供することにある。
上記課題を解決するための請求項1に記載の物体位置推定装置は、カメラなどの画像入力装置を1台または複数台使って取得した映像において対象物領域を抽出し、その対象物領域から空間中の位置を推定する物体位置推定装置であって、前記各画像入力装置で取得した各時系列画像から、それぞれ対象物領域を画像処理的に抽出する物体領域抽出手段と、前記物体領域抽出手段により抽出された、前記各画像入力装置に対応する各画素が、用意した3次元モデルのうちどの投影が該当するかどうかを、前記画像入力装置から得られる画像の各画素がどの空間位置に配置した3次元モデルから投影されるかを示す参照用テーブルを使って照合し、投影される3次元モデルが存在した場合はそのモデルの空間位置にそれぞれ投票することにより、投票値が多い場所に対象物の存在の可能性が高いことを表すマップを生成する空間マップ生成手段と、前記空間マップ生成手段により生成されたマップの得票値に基づいて対象物の位置を推定する物体位置推定手段とを備えることを特徴としている。
また請求項2に記載の物体位置推定装置は、請求項1において、前記参照用テーブルは、ある基準座標系上の空間位置に複数個の3次元モデルを配置し、画像入力装置の位置と姿勢及びその画像入力装置固有の内部パラメータを使って生成した3次元形状の透視投影像の各画像座標と、前記3次元モデルの配置位置との関係を示すテーブルとして構築されていることを特徴としている。
また、請求項7に記載の物体位置推定方法は、カメラなどの画像入力装置を1台または複数台使って取得した映像において対象物領域を抽出し、その対象物領域から空間中の位置を推定する物体位置推定方法であって、物体領域抽出手段が、前記各画像入力装置で取得した各時系列画像から、それぞれ対象物の領域を画像処理的に抽出する物体領域抽出ステップと、参照用テーブル構築手段が、前記各画像入力装置から得られる画像の各画素がどの空間位置に配置した3次元モデルから投影されるかを示す参照用テーブルを構築する参照用テーブル構築ステップと、空間マップ生成手段が、前記物体領域抽出ステップにより抽出された、前記各画像入力装置に対応する各画素が、用意した3次元モデルのうちどの投影が該当するかどうかを、前記参照用テーブルを使って照合し、投影される3次元モデルが存在した場合はそのモデルの空間位置にそれぞれ投票することにより、投票値が多い場所に対象物の存在の可能性が高いことを表すマップを生成する空間マップ生成ステップと、物体位置推定手段が、前記空間マップ生成ステップにより生成されたマップの得票値に基づいて対象物の位置を推定する物体位置推定ステップとを備えることを特徴としている。
また請求項8に記載の物体位置推定方法は請求項7において、前記参照用テーブル構築ステップは、ある基準座標系上の空間位置に複数個の3次元モデルを配置し、画像入力装置の位置と姿勢及びその画像入力装置固有の内部パラメータを使ってその3次元形状の透視投影像を生成し、その透視投影像の各画像座標と、前記3次元モデルの配置位置とを対応づけることを特徴としている。
上記構成によれば、従来のように画素数に応じた奥行き補正を行うことなく、画像入力装置、例えばカメラを使って取得した時系列画像全般から、車両などの移動物体や人物の位置を推定することができる。
また複数台のカメラを用いた場合、対象物位置を示す空間マップ分布がより確からしくなるとともに、雑音による影響の低減が可能となり、物体位置の推定精度を向上させることができる。
また、各画像から物体領域を抽出し、参照用テーブルの参照による投票処理だけで済むため、市販のパーソナルコンピュータによるリアルタイム処理が可能であるとともに、処理コストを低減することができる。
また請求項3に記載の物体位置推定装置は、請求項1または2において、前記物体位置推定手段は、前記生成された空間マップにおいて極大点となる位置を検出して対象物の位置とし、さらに、既に対象物の位置として決定した位置には1つの物体のみ占有する第1の排他的領域を設定し、該第1の排他的領域外の空間マップにおいて第2〜第n(nは3以上の正数)の排他的領域を設定し、該第2〜第nの排他的領域において、空間マップの得票値の和または積算量が所定の値以上であるとき、その領域の中心を対象物の位置とすることを特徴としている。
また請求項9に記載の物体位置推定方法は、請求項7または8において、前記物体位置推定ステップは、前記生成された空間マップにおいて極大点となる位置を検出して対象物の位置とし、さらに、既に対象物の位置として決定した位置には1つの物体のみ占有する第1の排他的領域を設定し、該第1の排他的領域外の空間マップにおいて第2〜第n(nは3以上の正数)の排他的領域を設定し、該第2〜第nの排他的領域において、空間マップの得票値の和または積算量が所定の値以上であるとき、その領域の中心を対象物の位置とすることを特徴としている。
上記構成によれば、例えばカメラの配置が悪い場合や対象物の密集等の物体位置推定精度が落ちる状況であっても、重複した複数の対象物の集まりに対して正確に物体位置を推定することができる。
また請求項4に記載の物体位置推定装置は、請求項1または2において、前記物体位置推定手段は、前記生成された空間マップを格子状に量子化し、該量子化された範囲における各得票値が所定の値以上である場合に、当該量子化された範囲を対象物の存在する場所とすることを特徴としている。
また請求項10に記載の物体位置推定方法は、請求項7または8において、前記物体位置推定ステップは、前記生成された空間マップを格子状に量子化し、該量子化された範囲における各得票値が所定の値以上である場合に、当該量子化された範囲を対象物の存在する場所とすることを特徴としている。
上記構成によれば、例えば物体領域抽出時に生じる、背景画像との差分をとる処理の誤差(雑音)による影響を低減することができる。
また請求項5に記載の物体位置推定装置は、請求項4において、前記空間マップにおける格子状の量子化は、前記各画像入力装置が向く方向と当該装置の設置面とのなす角度が、所定角度よりも小さい場合、前記画像入力装置が向く方向の量子化を粗く設定することを特徴としている。
また請求項11に記載の物体位置推定方法は、請求項10において、前記空間マップにおける格子状の量子化は、前記各画像入力装置が向く方向と当該装置の設置面とのなす角度が、所定角度よりも小さい場合、前記画像入力装置が向く方向の量子化を粗く設定することを特徴としている。
上記構成によれば、カメラの設置面に対する角度が小さいときは、奥行き方向に空間マップの分布が流れる可能性があるが、その場合に、不要に推定位置の数が増加してしまうことを防止することができ、処理コストが低減される。
また請求項6に記載の物体位置推定装置は、請求項1ないし5のいずれか1項において、用意した3次元モデルの画像上での投影結果について、画像に投影された領域を投影有効画素として設定する有効画素設定手段をさらに備え、前記参照用テーブルは、前記有効画素設定手段により設定された投影有効画素を用いて構築され、前記物体領域抽出手段は、前記有効画素設定手段により設定された投影有効画素の領域のみを抽出することを特徴としている。
また請求項12に記載の物体位置推定方法は、請求項7ないし11のいずれか1項において、用意した3次元モデルの画像上での投影結果について、画像に投影された領域を投影有効画素として設定する有効画素設定ステップをさらに備え、前記参照用テーブル構築ステップは、前記有効画素設定ステップにより設定された投影有効画素を用いて構築し、前記物体領域抽出ステップは、前記有効画素設定ステップにより設定された投影有効画素の領域のみを抽出することを特徴としている。
上記構成によれば、投影されない画素領域を処理対象から外すことができ、一連の処理を効率的に実行することができる。
また請求項13に記載の物体位置推定プログラムは、コンピュータに、請求項7ないし12のいずれか1項に記載の各ステップを実行させるプログラムとしたことを特徴としている。
また請求項14に記載の記録媒体は、請求項13に記載の物体位置推定プログラムを記録したコンピュータ読み取り可能な記録媒体であることを特徴としている。
(1)請求項1〜14に記載の発明によれば、画像入力装置、例えばカメラを使って取得した時系列画像全般から、車両などの移動物体や人物の位置を推定することができる。単眼カメラを使う場合には奥行き方向に不定性があるため従来技術では画素数に応じた奥行きを補正する必要があったが、本発明ではそのような補正を一切必要とせず、対象物の位置を表す空間マップとして推定することができる。
また、複数カメラの場合では、従来では光軸をそろえたステレオタイプや基線長を既知とし多眼カメラが多く使われていたが、本発明では適当に配置された複数カメラでも容易に適用することができる。
なお、複数カメラでは従来、ボクセル空間への逆投影法が使われていたが、その手法では計算コストが高く、多くのカメラを扱うことでボクセル空間が発散するという問題があった。これに対して、本発明での多視点カメラ投票では、対象物位置を示す空間マップ分布がより確からしくなるとともに、雑音による影響を低減できるため、物体位置の推定精度を向上させることができる。
さらに、従来のパーティクル・フィルタを使った3次元追跡は演算コストが高く計算機パワーに頼っていたが、本発明はモデルテーブルを予め生成し具備しておくことで、各画像から物体領域が抽出されれば空間マップの生成にはテーブル参照による投票処理だけで済む。すなわち、市販のパーソナルコンピュータであってもビデオレートでのリアルタイム処理が可能であり、さらに計算機の資源が不十分な場合でも照合処理における処理コストを低減して物体位置推定の処理を行うことができる。
(2)請求項3、9に記載の発明によれば、例えばカメラの配置が悪い場合や対象物の密集等の物体位置推定精度が落ちる状況であっても、重複した複数の対象物の集まりに対して正確に物体位置を推定することができる。
(3)請求項4、10に記載の発明によれば、例えば物体領域抽出時に生じる、背景画像との差分をとる処理の誤差(雑音)による影響を低減することができる。
(4)請求項5、11に記載の発明によれば、カメラの設置面に対する角度が小さいときは、奥行き方向に空間マップの分布が流れる可能性があるが、その場合に、不要に推定位置の数が増加してしまうことを防止することができ、処理コストが低減される。
(5)請求項6、12に記載の発明によれば、投影されない画素領域を処理対象から外すことができ、一連の処理を効率的に実行することができる。
以下、図面を参照しながら本発明の実施の形態を説明するが、本発明は下記の実施形態例に限定されるものではない。
(実施例1)
まず最初にカメラ(画像入力装置)と3次元モデルを配置する座標系と使用する数式や表記について説明する。図11はカメラと3次元モデルの位置関係を表している。カメラは事前に校正されているものとし、空間中の点Oを原点とした基準座標系XYZからの位置(Xi,Yi,Zi)と姿勢(X軸周りの回転Rx,Y軸周りの回転Ry,Z軸周りの回転Rz)、および内部パラメータ(有効焦点距離f,画像中心(Cx,Cy),アスペクト比α,スキューγなど)を既知とする。XY平面を監視エリアの底辺(床,地面など)と位置付け、人物や物体はこの平面上を移動すると仮定する。監視エリアをWx[m]×Wy[m]とし、その中心が原点Oとする。このWx×WyエリアをX軸方向にΔXの間隔でM等分、Y軸方向にΔYの間隔でN等分に分割する。この平面において3次元モデルを式(1)に従って位置(Xm,Yn),m=1,2,・・・,M,n=1,2,・・・,N(M,Nは便宜上奇数とする)の位置に配置する。
Figure 2009129049
3次元モデルは式(2)に従い、中心(Xm,Yn,C)、半径A、B、Cとした3次元楕円体とする。
Figure 2009129049
ここで、例えばCは人の平均身長の1/2としておく。一方、半径A、BはΔX、ΔYと同じ、またはそれ以下の値にし、必ずしも人の大きさである必要はない。本発明では、例えば、量子化数M、Nを十分に大きくして3次元モデルのA、Bを小さく設定し、細かく量子化した空間位置(Xm,Yn)での微細な3次元モデルを扱う。
図1は請求項1、2の発明において、画像入力装置が1台の場合の基本構成図である。図1において1は、時系列画像を蓄積した時系列画像データベース、2は前記データベース1内の各画像における物体または人物領域を抽出する物体領域抽出部(物体領域抽出手段)である。3はカメラの内部・外部パラメータを与えるカメラ情報データ入力部であり、4はそのカメラ情報データから前記XYZ座標系において式(1)に従った空間位置に3次元モデルを配置し、その透視投影像を計算して参照するためのモデルテーブル(参照用テーブル)を構築するモデルテーブル構築部である。5は前記テーブルを使って物体領域の各画素から照合処理を行い物体の空間位置を得る空間マップ生成部(空間マップ生成手段)であり、6はその空間マップから物体位置を推定する物体位置推定部(物体位置推定手段)である。図1の各部は、例えばコンピュータにより構成される。
この構成において、時系列画像データベース1には、ハードディスク、RAID装置、CD−ROMなどの記録媒体を利用する、または、ネットワークを介してリモートなデータ資源を利用する形態でもどちらでも構わない。
さらに、図2はリアルタイムで処理する場合の処理構成図であり、本発明は必ずしも各データベース部(時系列画像データベース1)などの記憶装置を必要としない。図2において図1と異なる点は、時系列画像データベース1の代わりに、カメラからの画像を取り込む画像入力部7を設けた点にあり、その他は図1と同一に構成されている。
図3は本実施例の処理フローであり、この図に従って図1、図2の装置の動作を説明する。まず、カメラ情報データを与えて予めモデルテーブルを生成することについて説明する。カメラは予め校正されているので、図1、図2のカメラ情報データ入力部3では、基準座標系に対する外部パラメータ(位置と姿勢)とカメラ特有の内部パラメータ(焦点距離,レンズ歪,画像中心など)を保有しており、また、3次元モデル入力においてもパラメータA、B、Cを与えておく(ステップS1,S2)。
次にステップS3において、インデックスm、nをそれぞれ1から順番にあげていき、式(1)に従った位置(Xm,Yn)での3次元モデルとして、式(2)の3次元楕円体表面の標本点(Xj,Yj,Zj),j=1,2,・・・,Qを計算する(ステップS2,S3)。この標本点数Qは十分に大きな値に設定しておく(例えば、透視投影像へ変換したとき、画像上にて楕円体内にスペースが生じない程度に密に設定する)。
次にステップS4の透視投影像生成では、各標本点(Xj,Yj,Zj)からカメラ情報データを使って式(3)〜(5)の計算式により画像座標(xj,yj),j=1,2,・・・,Qを生成する。なお、上式にレンズ歪を考慮した透視投影計算により画像座標を算出してもよい。
Figure 2009129049
Figure 2009129049
Figure 2009129049
次にステップS5において、前記画像座標とモデルを結びつけるための図4に示すモデルテーブルを構築する。図4は画像サイズを640×480画素とした場合のモデルテーブルの例である。縦方向に画素(1,1)から(640,480)画素に対応する欄が順番に用意され、横方向にX方向の量子化数mが1からMに対応する欄が順番に用意され、モデルテーブルの大きさは(640×480)×Mになる。
まず、テーブル構築の前に予め全ての配列の欄を0に初期化しておく。次に、式(3)〜(5)に従った計算で得られる画像座標(xj,yj)をj=1,2,・・・,Qの順番でこのテーブルに書き込む。つまり、位置(Xm,Yn)に置いた3次元モデル上の点からの透視投影像(xj,yj)について、縦方向の行番号(xj,yj)と横方向の列番号mで指定する欄に”n”を書き込む。これを全ての画素(xj,yj),j=1,2,・・・,Qに対して行い、それが済むと次の位置(Xm,Yn)に3次元モデルを置いて、同様の透視投影計算により画像座標(xj,yj),j=1,2,・・・,Qを得て、同じテーブルに書き込む。こうして得られたテーブルは各画素がどのモデルと結びついているかを示したモデルテーブルになる。
図4の例では、画素(1,1)は(X2,Y1)に置いた3次元モデル上のある点から投影され、画素(1,2)は(X3,Y10)と(Xm,Y25)に置いた3次元モデル上のある点からそれぞれ投影されることを示している。各画素には1つだけのモデルが紐付くわけではなく、複数のモデルが同じ画素を形成することもある。配列の値が0であるときは位置(Xm,Yn)に置いた3次元モデル上の点が全く投影されないことを意味し、全て0の場合はその画素に対して、量子化数m、nを使って用意した3次元モデル上の点からその画素に何一つ投影されないことを意味する。以上のテーブル構築を全ての位置(Xm,Yn)において行い、モデルテーブル構築を完了する。
なお、本発明では図4の配列形式である必要は無く、図5に示すように各画素に投影されたモデルの数(すなわち物体位置の数)とそのモデルのXY平面上での位置を示すインデックス(m,n)を横方向に逐次書き込む形式としてもよい。この形式では横方向には投影されたモデル数だけが書き込まれ、何も投影されない画素の場合は何の値を書き込む必要がないため、メモリ資源を有効に利用する場合に適している。さらに、これらのモデルテーブルを別の処理装置によって予め構築し、そのテーブルを他の処理装置でも保持していれば、以降の処理だけで物体位置推定を同様に行うことができる。
一方、図1において、対象物の時間的な動きはカメラにより撮影され、その時系列画像が時系列画像データベース1に取り込まれる(ステップS6)。図1の物体領域抽出部2では、時系列画像データベース1から画像を逐次取り出し、その画像から移動物体領域または人物領域(これ以降の説明では物体領域と総称する)を抽出する(ステップS7)。
尚図2において、前記同様にカメラにより撮影された画像は、画像入力部7から取り込まれ(ステップS6)、物体領域抽出部2に入力される。
ここで図6に示すように、事前に背景画像が得られているならば、各画像からこの背景画像との差分処理(背景差分)により物体領域を抽出することができる。または非特許文献2に記載されたガウス混合分布を利用した方法を使えば、背景画像を必要とせずフレーム間差分だけで移動物体領域を抽出することができる。以上の処理により、物体領域を形成する各画素(xj,yj),j=1,2,・・・,P(抽出した領域の総画素数がP個)が得られる。
次にステップS8において、物体領域抽出部2から得られた各画素(xj,yj),j=1,2,・・・,Pを前記モデルテーブルと照合する。照合処理は、まずXY空間を量子化数MとNによる大きさのM×Nの2次元バッファを用意しておき、各画素(xj,yj)に対応する欄を横方向に参照して0以外の値があれば、そのmとnで決定されるバッファの位置(m,n)に1票を入れる(ステップS9)。これを抽出した画素全て(xj,yj),j=1,2,・・・,Pに対して行う(ステップS11)。その結果、抽出した物体領域と3次元モデルの透視投影像とのパターン照合を行ったことになり、投票数が多い位置ほど物体位置である可能性が高いという空間マップが得られる(ステップS10)。
このマップはM×Nの大きさのバッファであるが、式(1)により実世界のスケールと対応付けられているので、配列(m,n)は空間位置(Xm,Yn)に対応している。上記の投票結果により生成される空間マップは(Xm,Yn)を座標とし、その座標の値が得票値に対応している。その3次元分布は対象物が存在する場所を中心に山型の形状となり、そのマップを等高線図として表現すると図7になる。
図7の例ではYn軸方向にカメラがあり、その方向を向くように分布する特徴がある。また、手前の分布(AとB)は比較的まとまっているが、奥側の分布(CとD)はやや伸びるような傾向になる。これはカメラから遠くなるに従って投票による精度が劣化することを表しており、この傾向は床面に対するカメラの傾きが浅くなると、さらに奥行きに長く伸びる分布となる。
次にステップS12において、図1、図2の物体位置推定部6では、図7の空間マップから対象物の位置を推定する。その処理フローを図8に示す。まず、物体領域抽出での雑音の影響などにより孤立点などが存在することが考えられるため、全ての格子点(m=1,2,・・・,M,n=1,2,・・・,N)に対して適当な窓の標準偏差σの2次元ガウシアンを使って投票値を暈す(ステップS21,S22)。次に、その暈した値を得票値とする空間マップにおいて図9の×で示したように極大となる点を検出し、その点を対象物の位置とする(ステップS23,S24)。
ただし、カメラの配置状況や対象物の密集によっては極大点の箇所に必ずしも単独の対象物があるとは限らない。特に、奥側に位置する分布(図9のCまたはD)において奥行き方向に長く伸びている場合、重複して複数の対象物の集まりを一つの分布として形成していることも考えられる。図8の処理フローはこのような重複するような対象物を考慮して複数の物体位置を算出する。
すなわちステップS23により各分布から極大点を検出した後に、その位置を中心に物体を包含する程度の半径Rの円で囲み(図10の太い実線の円)、その内部を排他的領域(第1の排他的領域)として設定する(ステップS25)。つまり、その排他的領域に物体は一つとする。さらに、前記設定した排他的領域を共有しない箇所に半径Rの円領域(円領域は排他的領域と共有しない)を別の排他的領域(第2〜第nの排他的領域)として設定し(図10の破線の円)、その範囲において得票値を集計し(ステップS26)、その集計値が所定の値を超えている場合(ステップS27)には、その箇所に物体が存在するとして、当該領域(第2〜第nの排他的領域)の中心を対象物の位置とする(ステップS24)。なお、前記第1、第2〜第nの排他的領域は半径Rの円の他に矩形や多角形などの図形としてもよい。この処理を空間マップ全体に対して行うことで、空間マップから物体位置を得、該物体位置を出力する(ステップS13)。
以上の一連の処理は対象とする画像全てに対して繰り返され、本発明の実施例により各画像における物体の位置を推定することができる。また、画像系列を長くすることで長時間での物体位置の推定も可能となる。
(実施例2)
図12は請求項1,2の発明において、画像入力装置が複数台の場合の基本構成図であり、図1の構成と比べてカメラ台数分のカメラ情報データ入力部3a〜3nと対応するモデルテーブル構築部4a〜4nが付け加わる。また、図13はリアルタイムで処理する場合の処理構成図であり、本発明は必ずしも各データベース部(時系列画像データベース1)などの記憶装置を必要としない。
図13において図12と異なる点は、時系列画像データベース1の代わりに、複数のカメラからの画像を取り込む画像入力部7を設けた点にあり、その他は図12と同一に構成されている。
尚、図12、図13において、前記実施例1と同一部分の説明は省略し、以下では、前掲の実施例1と異なる箇所を中心に説明する。
この実施例2ではC(C≧2)台の複数カメラを使った場合を説明する。各カメラは必ずしも同じ種類のカメラである必要はなく、事前にカメラ校正作業により各カメラの内部・外部パラメータを得ておればよく、図12の各カメラ情報データ入力部3a〜3nにそれらの情報を保持しておく。全てのカメラは時間的に同期がとれており各フレームでの画像が取得され、図12の場合は時系列画像データベース1に格納されることを前提に以下の説明を進める。
モデルテーブル構築部4a〜4nで行われる透視投影像生成(図3のステップS4)では、インデックスmとnの値をそれぞれ順番にあげていき、式(1)に従った空間位置(Xm,Yn)と、その位置での式(2)の3次元モデル上の点(Xj,Yj,Zj)を、各カメラi情報データ入力部3a〜3nから与えられるカメラパラメータを使って式(3)〜(5)の計算により画像座標(xij,yij),i=1,2,・・・,C,j=1,2,・・・,Qを得る。
実施例1と異なるのは画像座標(xij,yij)を各カメラの分だけ求めることだけであり、空間位置(Xm,Yn)とその位置での3次元モデルの配置は前掲の実施例1と同じである。モデルテーブル構築部4a〜4nでは、実施例1と同様の手続き(図3のステップS1〜S5)により各カメラに応じてC種類のモデルテーブルが生成される。
次に、物体領域抽出部2では時系列画像データベース1から画像が取り出され、実施例1と同様に背景差分やフレーム間差分により物体領域が抽出される(図3のステップS6,S7)。物体領域が得られれば、各画素(xij,yij),i=1,2,・・・,C,j=1,2,・・・,PをC種類のモデルテーブルに従いM×Nの2次元マップ空間へ投票する。このとき、各カメラは事前のカメラ校正によりXY平面、すなわち、インデックスmとnにより示される位置(Xm,Yn)と幾何的に対応付けられているため、各テーブルによる照合処理を逐次実行し、同じM×Nの2次元マップ空間へ投票することができる。その結果、抽出した物体領域と3次元モデルの全カメラによる透視投影像とのパターン照合を行ったことになる(図3のステップS8〜S11)。
実施例2では、実施例1の単眼カメラと比べて複数カメラを使用するため、単眼カメラに付随する曖昧性が大幅に低減された信頼性の高い空間マップが得られる。実施例1では、カメラの配置状況や複数の対象物の集まりなどによって図7の分布Cまたは分布Dに示すように奥行き方向に長く伸びる場合もある。これに対して、上記実施例2の複数のカメラに基づく投票では、それぞれのカメラによる分布が長く伸びても、複数カメラに基づく各分布を同一の空間マップにおいて交差させることができるため、得票値の多い箇所が物体位置であることを反映した信頼性の高い空間マップを得ることができる。これ以降は、実施例1と同様に、空間マップから物体位置を推定する(図3のステップS12,S13)。
(実施例3)
次に請求項4、5に関する実施例を説明する。本実施例3は図1、図2と同じ処理構成であり、同一部分の説明は省略する。本実施例3では物体位置推定部6における処理フローが前記図8と異なっているため、以下ではこの箇所のみを説明する。
図14は本実施例3における物体位置推定部6での処理フローである。物体領域抽出から得られる空間位置マップは背景処理による雑音の影響を受けており、カメラの傾きによって分布が流れたりする場合がある。したがって、空間位置マップでは必ずしも物体数に応じた忠実な極大点が得られるとは限らない。そこで、まず図14のステップS31では、(Xm,Yn)空間において格子状に量子化(セル化)を行う(図15の図示破線部分)。このセルの大きさは、カメラの設置状況を考慮して決めてよい。例えば、カメラと床面との角度が大きい場合は、図15に示すように人が一人占有する大きさとし、またその角度が、例えば所定角度より小さい場合は奥行き方向に分布が流れている可能性があるので、図16のようにYn方向の量子化を粗くしたセルを設定する。
次にステップS32,S33において、空間マップ上の最大の得票値が1となるように各得票値を予め正規化しておき、そのときの(Xm,Yn)での値(得票率)が0.5未満の場合は削除するという処理(ステップS34,S35)を施す。これは背景差分処理時の誤差などを含めて空間マップが生成されているため、極力、この雑音からの得票を除去して、得票率が半分以上のものを物体位置の候補として残すためである。
続いて、前記設定されたセル内での新たな得票率を集計して得票率マップを生成する(ステップS36)。そしてこのセル座標空間での得票率が所定値より大きい場合はそのセル位置を物体の位置とする(ステップS37〜S39)。図17の黒で塗ったセルは物体位置と決定した処理例である。図15のようにYn方向のセル量子化をXm方向のセル量子化と同じにすると、奥側の物体位置として検出されるセルが図17のように多くなる場合がある。その場合はYn方向の量子化をやや粗くした図16のセル空間において物体位置を検出することで、図18に示すように、位置として検出するセルの数を極力抑えることができる。
(実施例4)
次に請求項6に関する実施例を説明する。本実施例4の基本構成図は図19のとおりであり、複数カメラへも容易に拡張できるためその説明および図示は省略する。
図19において図1と異なる点は、用意した3次元モデルの画像上での投影結果について、画像に投影された領域を投影有効画素として設定する有効画素設定部8をさらに設けた点にあり、その他は図1と同一に構成されている。
また、図20はリアルタイムで処理する場合の処理構成図であり、本発明は必ずしも各データベース部(時系列画像データベース1)などの記憶装置を必要としない。
図20において図19と異なる点は、時系列画像データベース1の代わりに、複数のカメラからの画像を取り込む画像入力部7を設けた点にあり、その他は図19と同一に構成されている。
通常の監視カメラの場合、例えば図21に示すように、監視エリアを撮影する際に床面(または地面)を向くように傾けて配置されることが多い。上記で説明した実施例1〜3のモデルテーブル構築では、位置(Xm,Yn)を変えて3次元モデルとし、その投影される座標に基づいてテーブルを構築した。ところが、図21でカメラの画角をΦとすると、位置(Xm,Yn)で指定する有限なエリアにしか3次元モデルを配置しないので、図21の破線で示した部分より上側には何も投影されないことが明らかであり、画像として図22のように投影される(白部分が投影された画素、黒部分が投影されない画素)。
つまり、全ての画素に対してモデルテーブルを構築しても、画角とカメラ配置の状況によって”疎な”テーブル(図4,図5にて空欄の多いテーブル)を構築することになる。そこで、本実施例では、配置する3次元モデルを事前に把握し、処理の対象をその投影される画素のみに行う。以下では、これまでの実施例1〜3と比べて図19の有効画素設定部8の処理が異なるため、この処理を中心に説明する。
前記実施例1の図3のステップS4(透視投影像生成ステップ)で説明したように、位置(Xm,Yn)での3次元モデル上の点(Xj,Yj,Zj)から画像座標(xj,yj),j=1,2,・・・,Qを得る。次に、図22で示したように何も投影されない画素が存在するので、モデルテーブル構築において投影されない画素領域の該当する欄を削除しておく。この削除処理の後に残った画素が投影有効画素であり、この投影有効画素が物体領域抽出部2と空間マップ生成部5において使われる。この画素削除処理として大まかに二通りあり、一つは投影されないと分かった画像座標の欄を削除する方法で、図4の例では、ある画素(xj,yj)の横方向の欄が全て0となる場合はその(xj,yj)の行を全て削除する。
あるいは、図5の例では投影数が0の場合にその行を削除する。もう一つは、図23に示すように投影されないと分かった画素領域を矩形などでフィルタリングし、このフィルタリングされた画素領域に該当する画像座標の欄をモデルテーブルから削除する処理である。以降は後者の削除処理の場合についてである。
このモデルテーブル構築の際に、投影される画像領域を投影有効画素として有効画素設定部8に設定しておく。続いて、物体領域抽出部2では実施例1と同様に背景差分やフレーム間差分により時系列画像から物体領域を抽出するとき、前記投影有効画素として設定されている画素領域のみ物体領域の画素(xj,yj)として抽出する。次に、この抽出した各画素についてモデルテーブルを参照し投票処理を行い空間マップを生成する。その後の処理は実施例1と同様である。本実施例は、投影されない画素領域を処理対象から外すため、物体領域抽出、モデルテーブル構築、空間マップ生成の一連の処理を効率的に実行することができる。
尚、本発明の物体位置推定方法は、前記実施例1〜4で述べた各処理を実行するものである。
また前記物体位置推定方法をコンピュータに実行させるためのプログラムを構築するものである。
また、本実施形態の物体位置推定装置における各手段の一部もしくは全部の機能をコンピュータのプログラムで構成し、そのプログラムをコンピュータを用いて実行して本発明を実現することができること、本実施形態の物体位置推定方法における手順をコンピュータのプログラムで構成し、そのプログラムをコンピュータに実行させることができることは言うまでもなく、コンピュータでその機能を実現するためのプログラムを、そのコンピュータが読み取り可能な記録媒体、例えばFD(Floppy(登録商標) Disk)や、MO(Magneto−Optical disk)、ROM(Read Only Memory)、メモリカード、CD(Compact Disk)−ROM、DVD(Digital Versatile Disk)−ROM、CD−R,、CD−RW,HDD,リムーバブルディスクなどに記録して、保存したり、配布したりすることが可能である。また、上記のプログラムをインターネットや電子メールなど、ネットワークを通して提供することも可能である。
本発明の一実施形態例の物体位置推定装置の画像蓄積型の基本構成図である。 本発明の一実施形態例の物体位置推定装置のリアルタイム処理型の基本構成図である。 本発明の実施例1の処理フロー図である。 本発明のモデルテーブルの一例を示す説明図である。 本発明のモデルテーブルの他の例を示す説明図である。 本発明において背景画像と各フレーム画像との背景差分により物体領域を抽出する例を示す説明図である。 本発明における空間マップの例を示す説明図である。 本発明における物体位置推定の一例を示す処理フロー図である。 図8の処理フローによる物体位置推定の処理結果の例を示す説明図である。 図8の処理フローによる物体位置推定の処理結果の例を示す説明図である。 本発明におけるカメラと物体の位置関係、並びに3次元モデルを配置する格子マップの説明図である。 本発明の他の実施形態例の物体位置推定装置の画像蓄積型の基本構成図である。 本発明の他の実施形態例の物体位置推定装置のリアルタイム処理型の基本構成図である。 本発明における物体位置推定の他の例を示す処理フロー図である。 本発明の実施例3の物体位置推定処理のようすを示す説明図である。 本発明の実施例3の物体位置推定処理のようすを示す説明図である。 図15の処理結果を示す説明図である。 図16の処理結果を示す説明図である。 本発明の実施例4の物体位置推定装置の画像蓄積型の基本構成図である。 本発明の実施例4の物体位置推定装置のリアルタイム処理型の基本構成図である。 カメラと3次元モデルの配置例を示す説明図。 3次元モデルの投影結果の例を示す説明図である。 本発明の実施例4の、背景差分による物体領域における投影有効画素からの抽出例を示す説明図である。
符号の説明
1…時系列画像データベース、2…物体領域抽出部、3、3a〜3n…カメラ情報データ入力部、4,4a〜4n…モデルテーブル構築部、5…空間マップ生成部、6…物体位置推定部、7…画像入力部、8…有効画素設定部。

Claims (14)

  1. カメラなどの画像入力装置を1台または複数台使って取得した映像において対象物領域を抽出し、その対象物領域から空間中の位置を推定する物体位置推定装置であって、
    前記各画像入力装置で取得した各時系列画像から、それぞれ対象物領域を画像処理的に抽出する物体領域抽出手段と、
    前記物体領域抽出手段により抽出された、前記各画像入力装置に対応する各画素が、用意した3次元モデルのうちどの投影が該当するかどうかを、前記画像入力装置から得られる画像の各画素がどの空間位置に配置した3次元モデルから投影されるかを示す参照用テーブルを使って照合し、投影される3次元モデルが存在した場合はそのモデルの空間位置にそれぞれ投票することにより、投票値が多い場所に対象物の存在の可能性が高いことを表すマップを生成する空間マップ生成手段と、
    前記空間マップ生成手段により生成されたマップの得票値に基づいて対象物の位置を推定する物体位置推定手段と
    を備えることを特徴とする物体位置推定装置。
  2. 前記参照用テーブルは、
    ある基準座標系上の空間位置に複数個の3次元モデルを配置し、画像入力装置の位置と姿勢及びその画像入力装置固有の内部パラメータを使って生成した3次元形状の透視投影像の各画像座標と、前記3次元モデルの配置位置との関係を示すテーブルとして構築されている
    ことを特徴とする請求項1に記載の物体位置推定装置。
  3. 前記物体位置推定手段は、
    前記生成された空間マップにおいて極大点となる位置を検出して対象物の位置とし、さらに、既に対象物の位置として決定した位置には1つの物体のみ占有する第1の排他的領域を設定し、該第1の排他的領域外の空間マップにおいて第2〜第n(nは3以上の正数)の排他的領域を設定し、該第2〜第nの排他的領域において、空間マップの得票値の和または積算量が所定の値以上であるとき、その領域の中心を対象物の位置とする
    ことを特徴とする請求項1または2に記載の物体位置推定装置。
  4. 前記物体位置推定手段は、
    前記生成された空間マップを格子状に量子化し、該量子化された範囲における各得票値が所定の値以上である場合に、当該量子化された範囲を対象物の存在する場所とする
    ことを特徴とする請求項1または2に記載の物体位置推定装置。
  5. 前記空間マップにおける格子状の量子化は、前記各画像入力装置が向く方向と当該装置の設置面とのなす角度が、所定角度よりも小さい場合、前記画像入力装置が向く方向の量子化を粗く設定する
    ことを特徴とする請求項4に記載の物体位置推定装置。
  6. 用意した3次元モデルの画像上での投影結果について、画像に投影された領域を投影有効画素として設定する有効画素設定手段をさらに備え、
    前記参照用テーブルは、前記有効画素設定手段により設定された投影有効画素を用いて構築され、
    前記物体領域抽出手段は、前記有効画素設定手段により設定された投影有効画素の領域のみを抽出する
    ことを特徴とする請求項1ないし5のいずれか1項に記載の物体位置推定装置。
  7. カメラなどの画像入力装置を1台または複数台使って取得した映像において対象物領域を抽出し、その対象物領域から空間中の位置を推定する物体位置推定方法であって、
    物体領域抽出手段が、前記各画像入力装置で取得した各時系列画像から、それぞれ対象物の領域を画像処理的に抽出する物体領域抽出ステップと、
    参照用テーブル構築手段が、前記各画像入力装置から得られる画像の各画素がどの空間位置に配置した3次元モデルから投影されるかを示す参照用テーブルを構築する参照用テーブル構築ステップと、
    空間マップ生成手段が、前記物体領域抽出ステップにより抽出された、前記各画像入力装置に対応する各画素が、用意した3次元モデルのうちどの投影が該当するかどうかを、前記参照用テーブルを使って照合し、投影される3次元モデルが存在した場合はそのモデルの空間位置にそれぞれ投票することにより、投票値が多い場所に対象物の存在の可能性が高いことを表すマップを生成する空間マップ生成ステップと、
    物体位置推定手段が、前記空間マップ生成ステップにより生成されたマップの得票値に基づいて対象物の位置を推定する物体位置推定ステップと
    を備えることを特徴とする物体位置推定方法。
  8. 前記参照用テーブル構築ステップは、
    ある基準座標系上の空間位置に複数個の3次元モデルを配置し、画像入力装置の位置と姿勢及びその画像入力装置固有の内部パラメータを使ってその3次元形状の透視投影像を生成し、その透視投影像の各画像座標と、前記3次元モデルの配置位置とを対応づける
    ことを特徴とする請求項7に記載の物体位置推定方法。
  9. 前記物体位置推定ステップは、前記生成された空間マップにおいて極大点となる位置を検出して対象物の位置とし、さらに、既に対象物の位置として決定した位置には1つの物体のみ占有する第1の排他的領域を設定し、該第1の排他的領域外の空間マップにおいて第2〜第n(nは3以上の正数)の排他的領域を設定し、該第2〜第nの排他的領域において、空間マップの得票値の和または積算量が所定の値以上であるとき、その領域の中心を対象物の位置とする
    ことを特徴とする請求項7または8に記載の物体位置推定方法。
  10. 前記物体位置推定ステップは、
    前記生成された空間マップを格子状に量子化し、該量子化された範囲における各得票値が所定の値以上である場合に、当該量子化された範囲を対象物の存在する場所とする
    ことを特徴とする請求項7または8に記載の物体位置推定方法。
  11. 前記空間マップにおける格子状の量子化は、前記各画像入力装置が向く方向と当該装置の設置面とのなす角度が、所定角度よりも小さい場合、前記画像入力装置が向く方向の量子化を粗く設定する
    ことを特徴とする請求項10に記載の物体位置推定方法。
  12. 用意した3次元モデルの画像上での投影結果について、画像に投影された領域を投影有効画素として設定する有効画素設定ステップをさらに備え、
    前記参照用テーブル構築ステップは、前記有効画素設定ステップにより設定された投影有効画素を用いて構築し、
    前記物体領域抽出ステップは、前記有効画素設定ステップにより設定された投影有効画素の領域のみを抽出する
    ことを特徴とする請求項7ないし11のいずれか1項に記載の物体位置推定方法。
  13. コンピュータに、請求項7ないし12のいずれか1項に記載の各ステップを実行させるプログラムとしたことを特徴とする物体位置推定プログラム。
  14. 請求項13に記載の物体位置推定プログラムを記録したコンピュータ読み取り可能な記録媒体。
JP2007301322A 2007-11-21 2007-11-21 物体位置推定装置、物体位置推定方法、物体位置推定プログラムおよびそのプログラムを記録した記録媒体 Expired - Fee Related JP4675368B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007301322A JP4675368B2 (ja) 2007-11-21 2007-11-21 物体位置推定装置、物体位置推定方法、物体位置推定プログラムおよびそのプログラムを記録した記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007301322A JP4675368B2 (ja) 2007-11-21 2007-11-21 物体位置推定装置、物体位置推定方法、物体位置推定プログラムおよびそのプログラムを記録した記録媒体

Publications (2)

Publication Number Publication Date
JP2009129049A true JP2009129049A (ja) 2009-06-11
JP4675368B2 JP4675368B2 (ja) 2011-04-20

Family

ID=40819931

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007301322A Expired - Fee Related JP4675368B2 (ja) 2007-11-21 2007-11-21 物体位置推定装置、物体位置推定方法、物体位置推定プログラムおよびそのプログラムを記録した記録媒体

Country Status (1)

Country Link
JP (1) JP4675368B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011205615A (ja) * 2010-03-01 2011-10-13 Ricoh Co Ltd 描画画像共有装置、描画画像共有方法、プログラムおよび記録媒体
US8504317B2 (en) 2009-09-04 2013-08-06 Panasonic Corporation Position calibration information collecting apparatus, position calibration information collecting method, and position calibration information collecting program
KR101945487B1 (ko) * 2017-08-02 2019-02-07 에스케이텔레콤 주식회사 동영상에 포함된 객체를 인식하기 위한 장치 및 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003331263A (ja) * 2002-05-13 2003-11-21 Nippon Telegr & Teleph Corp <Ntt> カメラ画像−実空間座標対応付けマップ生成方法、カメラ画像−実空間座標対応付けマップ生成装置、プログラムおよび記録媒体
JP2004046464A (ja) * 2002-07-10 2004-02-12 Nippon Telegr & Teleph Corp <Ntt> 移動物体3次元位置推定装置及びその方法、プログラム並びにその記録媒体
JP2004191083A (ja) * 2002-12-09 2004-07-08 Mitsubishi Electric Corp 人物検出装置
JP2006236025A (ja) * 2005-02-25 2006-09-07 Mitsubishi Electric Corp 人物検出方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003331263A (ja) * 2002-05-13 2003-11-21 Nippon Telegr & Teleph Corp <Ntt> カメラ画像−実空間座標対応付けマップ生成方法、カメラ画像−実空間座標対応付けマップ生成装置、プログラムおよび記録媒体
JP2004046464A (ja) * 2002-07-10 2004-02-12 Nippon Telegr & Teleph Corp <Ntt> 移動物体3次元位置推定装置及びその方法、プログラム並びにその記録媒体
JP2004191083A (ja) * 2002-12-09 2004-07-08 Mitsubishi Electric Corp 人物検出装置
JP2006236025A (ja) * 2005-02-25 2006-09-07 Mitsubishi Electric Corp 人物検出方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8504317B2 (en) 2009-09-04 2013-08-06 Panasonic Corporation Position calibration information collecting apparatus, position calibration information collecting method, and position calibration information collecting program
JP2011205615A (ja) * 2010-03-01 2011-10-13 Ricoh Co Ltd 描画画像共有装置、描画画像共有方法、プログラムおよび記録媒体
KR101945487B1 (ko) * 2017-08-02 2019-02-07 에스케이텔레콤 주식회사 동영상에 포함된 객체를 인식하기 위한 장치 및 방법

Also Published As

Publication number Publication date
JP4675368B2 (ja) 2011-04-20

Similar Documents

Publication Publication Date Title
US10893251B2 (en) Three-dimensional model generating device and three-dimensional model generating method
US10311595B2 (en) Image processing device and its control method, imaging apparatus, and storage medium
US9087408B2 (en) Systems and methods for generating depthmaps
JP4341564B2 (ja) 対象物判定装置
CN111815707B (zh) 点云确定方法、点云筛选方法、装置、计算机设备
JP7058277B2 (ja) 再構成方法および再構成装置
JP4283816B2 (ja) 三次元環境情報取得装置,三次元環境情報取得方法及びその方法を実現したプログラムを格納した記録媒体
CN114766042A (zh) 目标检测方法、装置、终端设备及介质
US20230394832A1 (en) Method, system and computer readable media for object detection coverage estimation
CN116168143A (zh) 一种多视图三维重建的方法
WO2012056610A1 (ja) コンテンツシーン判定装置
JP4675368B2 (ja) 物体位置推定装置、物体位置推定方法、物体位置推定プログラムおよびそのプログラムを記録した記録媒体
JP2007025863A (ja) 撮影システム、撮影方法及び画像処理プログラム
JP4914870B2 (ja) 混雑度計測装置、混雑度計測方法、混雑度計測プログラムおよびそのプログラムを記録した記録媒体
CN116051980B (zh) 基于倾斜摄影的建筑识别方法、系统、电子设备及介质
CN116051736A (zh) 一种三维重建方法、装置、边缘设备和存储介质
CN116778094A (zh) 一种基于优选视角拍摄的建筑物变形监测方法及装置
Verhoeven et al. From 2D (to 3D) to 2.5 D: not all gridded digital surfaces are created equally
GB2561525A (en) Method and corresponding device for digital 3D reconstruction
JP2004046464A (ja) 移動物体3次元位置推定装置及びその方法、プログラム並びにその記録媒体
KR101117235B1 (ko) 교통사고 인식 장치 및 방법
Cho et al. Depth map up-sampling using cost-volume filtering
Chien et al. Improved visual odometry based on transitivity error in disparity space: A third-eye approach
JP2009251990A (ja) 物体運動推定装置、物体運動推定方法、物体運動推定プログラムおよびそのプログラムを記録した記録媒体
JP7487266B2 (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20090618

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20100528

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101026

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110118

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110125

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140204

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees