JP5091908B2 - 物体数計測方法、物体数計測装置、物体数計測プログラム及びこのプログラムを記録した記録媒体 - Google Patents

物体数計測方法、物体数計測装置、物体数計測プログラム及びこのプログラムを記録した記録媒体 Download PDF

Info

Publication number
JP5091908B2
JP5091908B2 JP2009111376A JP2009111376A JP5091908B2 JP 5091908 B2 JP5091908 B2 JP 5091908B2 JP 2009111376 A JP2009111376 A JP 2009111376A JP 2009111376 A JP2009111376 A JP 2009111376A JP 5091908 B2 JP5091908 B2 JP 5091908B2
Authority
JP
Japan
Prior art keywords
image
load value
pixel
coordinates
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009111376A
Other languages
English (en)
Other versions
JP2010262397A (ja
Inventor
勲 宮川
直己 伊藤
啓之 新井
秀樹 小池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Inc
NTT Inc USA
Original Assignee
Nippon Telegraph and Telephone Corp
NTT Inc USA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp, NTT Inc USA filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2009111376A priority Critical patent/JP5091908B2/ja
Publication of JP2010262397A publication Critical patent/JP2010262397A/ja
Application granted granted Critical
Publication of JP5091908B2 publication Critical patent/JP5091908B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、360度全ての方位を一度に撮影することのできる全方位画像を生成できる撮像装置によって取得された画像から、その画像に含まれる物体の数を計測する技術に関するものである。特に、魚眼カメラや全方位カメラに例示される撮像装置によって得られた全方位映像中の対象物単体の数を計測することを目的として、駅・バス停・その他の公共の場の人の混雑度や、道路・通路における人の流れを把握するための技術に関する。
セキュリティカメラを使って画像中の人数を計測する方法として非特許文献1が公知である。この方法では、既知のカメラパラメータを使って、各画素の人数への寄与率(荷重値)を事前に算出しておき、背景差分などの画像処理によって検出した前景領域の画素について、その対応する荷重値を積算することで人数を推定する。また、画像中の移動物体が通過、滞留、静止の判定を行い、移動する物体を計数する方法が特許文献1にて公知となっている。さらに、カメラ以外のアクティブ型センサ(赤外線、レーザなど)を使い、監視空間内の物体検出を人数計測に応用することも可能である。
非特許文献1の先行技術では、有限な画角のカメラを使って人数を推定する方法であるため、人数を測定する範囲には限界がある。特に、大人数になると、オクルージョンの影響が高まり、計測誤差が大きくなる。
また、特許文献1の移動物体計数処理方法は、移動物体を計測できる程度であり、奥行きを考慮していない計測であるため、同じ大きさでも奥行きの違いで人数計測の誤差が大きくなる場合がある。この方法でも撮影範囲に限界があることに加え、大規模な人数の係数には対応できないという問題がある。
非特許文献2では、魚眼カメラを使った場合、空間中の任意の点の画像上の座標からカメラの視点と空間中の3次元座標を同時に復元するアルゴリズムが公開されている。この方法はStructure from Motionの原理に基づいているため、画像中からシーンの時系列的変化を特徴点座標として抽出する必要がある。ただし、セキュリティカメラで得た画像には人物が映っている場合が多く、静止物体の特徴点座標を精度良く抽出することは期待できない。よって、非特許文献2で公開されている方法を直接に人数へ応用することはできない。また、公共の場所では、赤外線センサやレーザ計測などと併用するようなセキュリティカメラはまだ十分に普及しておらず、市販カメラを使ったシンプルな人数計測手段が一般的である。
新井啓之,宮川勲,小池秀樹,長谷山美紀,「幾何モデルに基づく映像からの人数推定」,映像情報メディア学会技術報告(IST2008−26,ME2008−84),Vol.32,No.26,pp.33−36,2008. 宮川勲,石川裕治,若林佳織,荒川賢一,「車両運動投影モデルに基づく全方位画像系列からの市街地空間の3次元構造復元」,情報処理学会論文誌,Vol.45,No.SIG13(CVIM10),pp.34−53,2004.
特許第3190833号公報
本発明は、以上の事情に鑑み、その目的は全方位画像を取得できる撮像装置を用いて広視野の撮影範囲内の物体数を直接計測できる物体数計測方法、物体数計測装置、物体数計測プログラム及びこのプログラムを記録した記録媒体の提供にある。
前記課題を解決するための本発明は以下の基本原理に基づくものである。
図15、図16は全方位カメラ(説明の都合上、魚眼レンズを装着したカメラを仮定する)と対象物の配置を示す。カメラ視点、すなわち、世界座標系の原点をOとし、X軸は水平方向、Y軸は紙面の表から裏の方向、Z軸は鉛直真下の方向をそれぞれ向いて取り付けられている。このような座標系を設定しても一般性を失わない。以下では、魚眼カメラについて記述するが、反射ミラーを使った全方位カメラにも容易に拡張することができる(後で詳細を説明する)。図15は真横(ZX面)から見た図であり、図16はカメラの真上から見た鳥瞰図である。ここでは、図の黒領域で示すような対象物(人)を撮影したとき、固体数(人数)を計測する場合について説明する。
図15及び図16のカメラと対象物の関係から幾何的関係を導出するため、魚眼レンズ、そのレンズを通して観測する画像、並びに、空間中の点の関係を図17に示す。非特許文献2によれば、図17のユークリッド空間において、空間中の任意の点Pj=(Xj,Yj,Zj)とすると、点Pjの各座標値(Xj,Yj,Zj)は、以下の式(1)〜(3)で表される(図15、図16の状況では、光軸まわりの回転を考慮する必要がないので、上式には含めていない)。
Figure 0005091908
ここで、ベクトル(Pj−T)がXY平面と成す角(俯瞰角)をφj、ベクトル(Pj−Ti)がXY平面上でX軸と成す角(位相角)をρjとし、λj=‖Pj−T‖とする。尚、Tは図17に示されたO(原点)に相当する。
図17の魚眼投影において、物体上の点Pjは画像座標系の点pjに投影されるとする。図18に投影中心を(Cx,Cy)とした画像面での画像座標系を示す。ここで、魚眼レンズが等距離投影で設計されている場合(他に、立体投影、等立体投影で設計された魚眼レンズもあり、同様の議論が可能である)、投影中心(Cx,Cy)から点pjまでの画素上の距離Rj(式(4))と俯瞰角φjとの関係は式(5)(6)で示される。
Figure 0005091908
Figure 0005091908
ただし、Rは図18でのイメージサークルの半径であり、fは焦点距離である。この関係式から、俯瞰角φjは、式(7)と表すことができる。
Figure 0005091908
また、画像面とXY平面は平行なので、図17のPjは図18の画像座標系でのpjになる。したがって、図18の画像座標系では、位相角ρjは式(8)で示される。
Figure 0005091908
したがって、図17に示した俯瞰角φijと位相角ρijは、画像上で観測した画像座標値pj=(xj,yj)から、式(7),(8)により求めることができる。
式(1)〜(3)を整理すると、以下の式(9),(10)が得られる。
Figure 0005091908
ただし、上式は、以下の式(11),(12)と置換しており、本明細書ではuv座標値(uj,vj)と定義する。
Figure 0005091908
魚眼カメラで得た画像において、通常の画像座標xyを直接用いないで、変換したuv座標を使う利点は非特許文献2でも公開されている。
以上の説明は魚眼カメラの等距離投影を前提とするものであるが、放物曲線の形状で設計された反射鏡を使って外界の周囲を一度に撮影可能な全方位カメラでは、下記の式(13)で示した算出式を使うことができる(hは放物曲線のパラメータ)。
Figure 0005091908
また、双曲線鏡が反射鏡に応用されている全方位カメラでは、下記の式(14),(15)のの算出式を使うことができる(b,cは双曲線のパラメータ、fは焦点距離である)。
Figure 0005091908
よって、上記でφjを算出する式をそれぞれの魚眼カメラあるいは全方位カメラの光学系に応じて変更するだけで、本発明を容易に応用することができる。
続いて、本発明において、式(9),(10)で記述した3次元座標とuv座標との関係を利用し、非特許文献1などで公開されている人数計測アルゴリズムにより全方位画像中の人数を計測する原理を説明する。
非特許文献1では、各画素のサブ画素4近傍の座標から空間中の視体積を算出し、この視体積に基づいて各画素の荷重値が計算される。ところが、魚眼カメラでの画像では外界の直線が曲線として投影されるため、各画素のサブ画素は単純なサブ画素4近傍の正方格子として扱うことができない。
そこで、本発明では、注目画素の画像座標とその画素のサブ画素4近傍の画像座標を、式(11),(12)を使ってuv座標系へ変換し、そのuv座標系での注目画素のuv座標と、その画素のサブ画素4近傍のuv座標を使って、式(9),(10)で示した関係を使って視体積を算出する。視体積が得られれば、非特許文献1で公開されている荷重値算出により、注目画素の荷重値を計算する。これを全ての画素に対して算出しておけば、全方位画像において検出した前景画素の荷重値を積算することで、全方位画像で観測した対象物の個数を計測することができる。
ところが、広視野のカメラを使う場合、計測上考慮しなければならない問題がある。図3に示された全方位カメラで撮影した画像の例において、画像中心付近の不安定領域Aとイメージサークル付近の不安定領域Bの部分に注目する。不安定領域Aでは光軸に近づくにつれて視点Oからの距離Zjは無限大に近づく。つまり、画素上での僅かな誤差が空間中の大きな誤差につながる恐れがある。一方、不安定領域Bではイメージサークルに近づくにつれ、式(7)で計算される俯瞰角φが0に近づくことになる。俯瞰角φが0に近づくことは、uv座標を計算する式(11),(12)において、φが0になるとcot(φ)の値が無限大になる。つまり、不安定領域Bでは画素上での僅かな誤差が大きなuv座標の誤差につながる恐れがある。一方、視点を変えて、この不安定領域の荷重値を調べてみると、不安定領域Aでは光軸中心、すなわち、画像中心に近づくにつれて荷重値が急激に大きくなり、不安定領域Bでもイメージサークルに近づくにつれて急激に大きくなる。
本発明の人数計測では、荷重値は画像から検出された前景画素について、その該当する荷重値を積算することで人数値を得るため、たとえ数画素としてもこのような極端に大きな荷重値を積算すれば、人数計測の誤差に影響を与えることは容易に想像がつく。そこで、カメラパラメータから各画素に対応する荷重値を算出する際に、不安定領域Aまたは不安定領域Bかどうかを事前に判定し、それらの領域でない画素についてのみ荷重値を算出する。不安定領域Aまたは不安定領域Bの画素の荷重値を0としておけば、例えば、前景画素として検出されても荷重値0を加えることになり、自ずとフィルタリングを行うことができる。
以上の基本原理に基づく本発明に係る物体数計測方法の態様としては、全方位画像に基づき当該画像に含まれる物体の数を計測する物体数計測方法であって、物体抽出処理手段が全方位画像から物体を含んだ画像領域を抽出するステップと、有効領域判定手段が前記抽出された画像領域に含まれる物体の数の計測に有効な画像領域を撮像装置の視野特性に基づき判定するステップと、荷重値テーブル生成手段が、前記判定された有効な画像領域を構成する各画素に投影される視体積のうち前記物体の体積に寄与する体積を算出し、この体積に基づき前記各画素が物体の数にどれだけ寄与するかを示す荷重値を算出し、この算出した各画素の荷重値を格納させた荷重値テーブルを生成するステップと、計測手段が前記抽出された画像領域における各画素が前記判定によって有効領域と判定された場合のみ、前記荷重値テーブルに格納された当該各画素の荷重値を積算することにより前記物体の数を計測するステップとを有する。
また、本発明に係る物体数計測装置の態様としては、全方位画像に基づき当該画像に含まれる物体の数を計測する物体数計測装置であって、全方位画像から物体を含んだ画像領域を抽出する物体抽出処理手段と、前記抽出された画像領域に含まれる物体の数の計測に有効な画像領域を撮像装置の視野特性に基づき判定する有効領域判定手段と、前記判定された有効な画像領域を構成する各画素に投影される視体積のうち前記物体の体積に寄与する体積を算出し、この体積に基づき前記各画素が物体の数にどれだけ寄与するかを示す荷重値を算出し、この算出した各画素の荷重値を格納させた荷重値テーブルを生成する荷重値テーブル生成手段と、前記抽出された画像領域における各画素が前記判定によって有効領域と判定された場合のみ、前記荷重値テーブルに格納された当該各画素の荷重値を積算することにより前記物体の数を計測する計測手段とを備える。
本発明は前記物体数計測装置を構成する各手段としてコンピュータを機能させる物体数計測プログラムまたはこれを記録したコンピュータ読み取り可能な記録媒体の態様とすることもできる。
以上の発明によれば広視野の撮影範囲内の物体数を直接計測できる。
実施形態1に係る物体数計測装置(画像蓄積部を備えた場合)の概略構成図。 実施形態1に係る物体数計測装置(画像蓄積部を備えていない場合)の概略構成図。 全方位画像における不安定領域の一例。 実施形態1に係る計測処理の過程を説明したフローチャート。 荷重値算出の処理過程を説明したフローチャート。 (a)有効領域判定の過程を説明したフローチャート(中心からの距離Rjを使う場合),(b)有効領域判定の過程を説明したフローチャート(俯瞰角φjを使う場合)。 uv座標変換のフローチャート。 前景画素抽出の一例。 カメラが傾いて取り付けられている例の説明図。 実施形態2に係るuv座標補正の過程を説明したフローチャート。 実施形態3に係る物体数計測装置(画像蓄積部を備えた場合)の概略構成図。 実施形態3に係るカメラ情報獲得部による回転角(ψ,ω)算出の過程を説明したフローチャート。 実施形態3で使用される参照物体の一例を示した外観図、断面図、鳥瞰図。 実施形態3での参照物体とカメラの配置関係の説明図。 全方位カメラと撮影対象の一例の説明図。 全方位カメラと撮影対象の一例を示した鳥瞰図。 魚眼カメラの射影光学系の一例の説明図。 イメージサークルと投影点の関係の説明図。
以下に本発明の実施形態について図面を参照しながら計測する対象物を「人」として説明する。以下の実施形態は計測する対象物体が「人」なっているが、本発明はこの実施形態によって限定されるものではなく、計測の対象物体が人以外の物体でもよい。
(実施形態1)
本実施形態に係る物体数計測装置1は図1に示されたように画像蓄積部3と対象物抽出処理部4と有効領域判定部5とカメラ情報入力部6と荷重値テーブル生成部7と人数計測部8と計測値出力部9とを備える。
画像蓄積部3はカメラ2による全方位の撮影によって取得された全方位画像を格納する。画像蓄積部3はハードディスク、RAID装置、CD−ROMなどの記録媒体を利用する、または、ネットワークを介してリモートなデータ資源を利用する形態でもどちらでも構わない。
カメラ2は図15に例示されるように天井面に固定されており、その光軸は床面または地面に垂直に向けられている(カメラキャリブレーションが行われている)。このように取り付けられたカメラ2は、図17に例示されたような光学系からなる。本実施形態の説明では、魚眼レンズを装着したカメラを用いているが、放物曲線の形状で設計された反射鏡を使った全方位カメラでも構わない。魚眼カメラの場合は、画像上の座標(xj,yj)を式(11),(12)に従って(uj,vj)座標に変換する、全方位カメラを使う場合でも、反射鏡の形状に応じて式(13)または式(14),(15)と式(11),(12)を使って(uj,vj)座標に変換すれば以降の処理によって同様の人数計測ができる。
対象物抽出処理部4は画像蓄積部3から引き出した全方位画像から移動物体(人)を含んだ画像領域を抽出する。本実施形態では対象物抽出処理部4は画像蓄積部3から逐次引き出した全方位画像から移動物体領域または前景と判定された移動物体を含んだ画像領域を抽出する。
有効領域判定部5は前記抽出された画像領域に含まれる移動物体の数の計測に有効な画像領域をカメラ2の視野特性(図3)に基づき判定する。本実施形態では具体的には有効領域判定部5は後述の図6(a)のS601〜S603または図6(b)のS601〜S612のステップに準じて前記抽出された画像領域が人数計測に有効かどうかの判定を行う。
カメラ情報入力部6はカメラ2の内部特性(焦点距離fなどの内部パラメータ)並びに外部特性(姿勢情報や位置情報などの外部パラメータ)を荷重値テーブル生成部7に供する。
荷重値テーブル生成部7は、有効領域判定部5で判定された有効な画像領域を構成する各画素に投影される視体積のうち前記物体の体積に寄与する体積を算出し、この体積に基づき前記各画素が物体の数にどれだけ寄与するかを数量的に示す荷重値を算出する。そして、この算出した各画素の荷重値を格納させた荷重値テーブルを生成する。尚、荷重値テーブル作成部7は、前記有効な画像領域を構成する各画素の荷重値を算出する際、カメラ情報入力部6から供されたカメラ2の内部特性(焦点距離fなどの内部パラメータ)並びに外部特性(姿勢情報と位置情報などの外部パラメータ)、及び予め設定されたパラメータ(人の平均表面積S、人の平均身長h)を考慮する。
人数計測部8は、対象物抽出処理部4で抽出された画像領域における各画素が有効領域判定部5で有効領域と判定された場合のみ、荷重値テーブル生成部7で作成された荷重値テーブルに格納された当該各画素の荷重値を積算することで前記物体の数を計測する。本実施形態では、人数計測部8は、有効領域判定部5によって有効領域と判定された画像領域の画素と、荷重値テーブル作成部7にて作成された荷重値テーブルの荷重値とに基づき、前記画像領域中の人数を計測する。このとき、荷重値計算の効率化のため、有効領域判定部5において有効領域でない画素に該当する荷重値の計算は行わない。荷重値の計算は人数計測の前処理として行えばよく、各画像に共通して利用することができる。荷重値テーブルが構築されていれば、各画像において対象物抽出処理部4により抽出された前景の画素の荷重値を積算することで、その画像中の人数を計測する。そして、各画像について同様の処理が繰り返し実行され、逐次、各画像から推定された人数が計測値出力部9から出力される。
物体数計測装置1に係る機能部3〜9はコンピュータのハードウェアとプログラムの協働によって実現できる(後述の図2に示された物体数計測装置10の機能部11、図11に示された物体数計測装置20の機能部21も同様)。機能部3はコンピュータの内部メモリやハードディスク装置等の外部メモリによって実現できる。また、機能部4〜9,11,21から供された画像データや計測データは適宜に表示装置(ディスプレイ等)によって表示される。尚、カメラ2と機能部3は既知の有線または無線のネットワークを介して送受信可能に接続すればよい。
また、物体数計測装置1は機能部3〜9,11,21としてコンピュータを機能させるプログラムの態様とすることもできる。そして、このプログラムは既知の記録媒体(例えば、CD−ROM、DVD−ROM、CD−R、CD−RW、DVD−R、DVD−RW、MO、HDD、Blu−ray Disk(登録商標)等)格納してまたはネットワークを通じて提供できる。
図4に示されたフローチャートを参照しながら物体数計測装置1に係る計測処理の過程(S1〜S9)について説明する。
先ず、本実施形態で利用される射影幾何について説明する。図17に示すように、カメラ(魚眼カメラ)2の視点を原点Oとし、この原点から観測される空間中の任意の3次元座標Pj=(Xj,Yj,Zj)は式(1)〜(3)に従うとする。この3次元座標はカメラ2によって画像上の座標pj=(xj,yj)の点として観測される。その座標pj=(xj,yj)から、式(7),(8)により俯瞰角φjと方位角ρjを計算し、式(11),(12)の座標変換により得た座標(uj,vj)は、式(9),(10)により3次元座標Pjと対応付けられる。以降の処理は、上記の射影幾何を前提としたものである。
S1:カメラ情報入力部6はカメラ2に関する内部パラメータ(焦点距離f)と外部パラメータ(姿勢情報として光軸の回転角ψ,ω、位置情報としてカメラ2の視点から床面または地面までの高さTz)を荷重値テーブル作成部7に供する。
S2:荷重値テーブル作成部7は前記内部パラメータ及び前記外部パラメータ並びに予め設定されたパラメータ(人の平均身長h,人の平均表面積S)を利用して図5に示した処理フロー(S501〜S514)に従って荷重値を算出し、これを荷重値テーブルに書き込む。
画像上の座標を処理するにあたり、図18に示すように、画像中心を(Cx,Cy)としており、左下隅を原点として水平方向にx軸、垂直方向にy軸が定義されている。画像座標(xj,yj)はこのxy座標系での座標とする。この座標系上の各画素pjの座標値(xj,yj)が順番に処理される。図5のS501で各画素pjの座標値(xj,yj)が与えられると、S502で有効領域判定部5によって予め領域判定が実行される。
この領域判定は具体的には図6(a)または図6(b)に示された処理フロー(S601〜S603またはS601〜S612)に従って実行される。
図6(a)の処理フローでは、まず、入力された座標値(xj,yj)から(S601)、式(4)により画像中心からの距離Rjを計算する(S602)。この距離Rjが下記の式(16)を満たすとき(S603)、有効範囲にあると判定する(図6(a))。
Figure 0005091908
式(16)のR0は図3において画像中心から灰色部分までを示した不安定領域Aまでの円領域の半径に相当し、R1は同図においてドーナツ型の不安定領域Bで示した画像中心から内円までの距離に相当する。この判定により画像中心付近の画素と視野境界付近の画素を処理対象から除外できる。
一方、図6(b)のフローチャートでは、式(7)により俯瞰角φjを計算し(S611)、その俯瞰角φjが下記の式(17)を満たすとき(S612)、有効範囲にあると判定してもよい。
Figure 0005091908
図6に示されたどちらの判定フロー(S601〜S603またはS601〜S612)を利用しても後の処理(図5のS503,S505以降のステップ)には影響を及ぼさない。図6(a)では、閾値を画像中心からの画像上での距離R0,R1で設定するのに対して、図6(b)では式(7)の計算が加わるが、ユーザによっては角度という直感的な閾値で角度φ0,φ1を設定できる。
図5のS502で有効範囲と判定されれば、pj=(xj,yj)と、その点を中心とした4近傍のサブ画像座標:pj (1)=(xj−1/2,yj−1/2),pj (2)=(xj+1/2,yj−1/2),pj (3)=(xj+1/2,yj+1/2),pj (4)=(xj−1/2,yj+1/2)が設定される(S505)。
次いで、S503,S506では、中心座標とその4近傍の画像座標が図7に示された処理フロー(S701〜S705)に従ってそれぞれ順番にuv座標に変換される。一例として、pj (1)の座標のuv座標変換は、先ず、図7のS701で入力されたpj (1)の画像座標(xj−1/2,yj−1/2)から、距離Rjを下記の式(18)により計算する(S702)。
Figure 0005091908
次に、式(7)においてxj←xj−1/2、yj←yj−1/2と代入してφjを算出すると共に(S703)、式(8)においてxj←xj−1/2、yj←yj−1/2と代入してρjを算出する(S704)。Rはイメージサークルの値であり、(Cx,Cy)は図18での画像中心の座標であり、定数値として事前にセットされている。続いて、式(11),(12)により(uj,vj)座標が得られる(S705)。この計算を順番に行い、中心座標pjとその4近傍のサブ画素pj (n),n=1,2,3,4に関するuv座標:(uj,vj),(uj (n),vj (n)),n=1,2,3,4が得られる。
次いで、図5のS504,S507aでは、式(9),(10)を使って3次元座標を得る。すなわち、uv座標:(uj,vj),(uj (n),vj (n)),n=1,2,3,4に視点からの高さZ=Tz−h(h:人の平均身長)を乗じて、下記の式(19),(20),(21),(22)の計算により、それぞれの3次元座標Aj=(Xj,Yj,Tz−h),Aj (n)=(Xj (n),Yj (n),Tz−h)を得る。
Figure 0005091908
S508aでは、Aj (n),n=1,2,3,4のうち、視点位置から最も近い点を探した結果、点Aj (1)が該当したとし、その3次元座標をAj (1)=(Xj (s),Yj (s),Tz−h)とする。一方、床面または地面、すなわち、視点からの高さZ=Tzにおけるその4点の位置は、下記の式(23),(24)により算出され、それぞれBj (n),n=1,2,3,4とする(S507b)。
Figure 0005091908
S508bでは、4近傍Bj (n),n=1,2,3,4のうち、視点位置から最も遠い点を探した結果、点Bj (2)が該当したとし、その3次元座標をBj (2)=(Xj (e),Yj (e),Tz)とする。次いで、S509で、床面または地面上においてBj (n),n=1,2,3,4が形成する四角形の面積Sbが算出される。S510では、体積Vが下記の式(25)によって算出される(体積Vは床面または地面で形成するBj (n),n=1,2,3,4と視点からの距離Z=Tz−hのXY平面上のAj (n),n=1,2,3,4による四角形で囲まれた四角柱の体積である)。
Figure 0005091908
S512での荷重値w(x,y)(非特許文献1にて公開)の算出は下記の式(26)によって実行される。
Figure 0005091908
式(26)において、Sは人の平均表面積として設定する値であり、Lは線分Aj (1)j (2)の長さを視線方向(ベクトルa)に射影した有効長であり、S504,S511での下記の式(27),(28),(29)の演算により算出されたものである。
Figure 0005091908
S512で算出された荷重値w(x,y)は、S513で、画像座標(xj,yj)の荷重値として、逐次、荷重値テーブルに書き込まれる。S514では次の画像座標がセットされて、最初の処理ステップ(S501)に戻る。この処理を全ての画像座標に対して行い、荷重値テーブルが生成される。なお、座標が有効範囲でないときは、荷重値算出を求めないので、テーブルには値0が書き込まれる。
S3:対象物抽出処理部4は、画像蓄積部3に格納された画像を取り出す。前記画像はカメラ2による全方位の撮影によって取得されたものである。
S4:対象物抽出処理部4は、S3で取得した画像から背景モデルを構築する。
背景モデルは複数枚の時系列画像の平均値をとることで簡単に得られる。すなわち、静的なシーン以外は移動物体と考えて、時間平均を各画素に対して処理することで、移動する物体を画像中からキャンセルする(画像観測で混入するランダム雑音を除去する目的にでも使用する)。この背景モデル構築は定期的に実施する。屋外での撮影は朝と昼と夕方では照明が変化するため、静的シーンの濃淡にも変化が発生する。そこで、このような照明変化の効果を除去するため、背景モデルは対象物抽出処理部4によって定期的に更新される。
S5:対象物抽出処理部4はS3で画像蓄積部3から取得した複数の時系列画像のうち抽出処理の対象画像が有るか否かを判断する。対象画像が有る場合、S6を実行する。対象画像がない場合は処理を終了させる。
S6:対象物抽出処理部4は、S4で背景モデルを構築すると、画像蓄積部3から時系列画像を逐次取り出し、前記背景モデルを使った背景差分処理により、移動する物体領域または前景画素領域を抽出する。
S7:有効領域判定部5は、S6で抽出された領域が図3の不安定領域Aまたは不安定領域Bに属するかどうかを判定する。
特に、不安定領域Bは外界が視野の限界に近い状況で撮影されているため、画素としての品質は保証されておらず、背景差分によって得る画素は前景画素としての信頼性は低い。このため、無駄な処理を省くため、不安定領域Aまたは不安定領域Bに属する画素領域は、背景差分の処理対象から外すことがこの判定処理の目的である。例えば、背景モデルを構築するとき、不安定領域Aまたは不安定領域Bの画素領域を背景モデルとして常に背景として判定するように背景モデルを構築する。この背景モデルに対する前景画素を背景差分処理により得る。図8はその例であり、不安定領域Aと不安定領域Bの境界を白枠として示した(実際の処理では、そのような円を描くわけではない)。逆に、不安定領域Aまたは不安定領域Bの画素を常に前景画素として処理したとしても、荷重値テーブル生成部7において、その領域の荷重値は零に設定されているので、後の人数計測には何ら影響を与えない。以上の処理により、対象物領域を形成する各画素p(x,y)=(xj,yj),j=1,2,…,P(抽出した領域の総画素数がP個)を得る。
S8:人数計測部8は、S7得た画素pに対して、下記の式(30)による演算によって画素pの荷重値w(x,y)を積算してカメラ2観測下の対象物の数(人数)Nを計測する。
Figure 0005091908
S9:計測値出力部9はS8の加算処理により算出した値を混雑度として出力する。
本発明に係る物体数計測装置は必ずしも画像蓄積部3などの記憶装置を必要としない。図2に例示された物体数計測装置10はリアルタイムで処理する場合の態様となっている。物体数計測装置10は画像蓄積部3の代わりに背景情報構築部11を備えていること以外は物体数計測装置1と同じ構成となっている。背景情報構築部11はカメラ2と画像データの送受信が可能となるように既知の有線または無線のネットワークを介して接続される。
物体数計測装置10では、背景情報構築部11が上述のS4を実行する。これにより、カメラ2から取得した全方向の時系列画像から直接背景モデルが構築される。背景情報構築部11で構築された背景モデルは上述のS6に供される。
以上のように本実施形態に係る物体数計測装置1,10によれば、時系列画像(全方位画像)において、移動する対象物体の画像領域または背景モデルに対する前記対象物体を含んだ前景領域を検出し、どれだけの対象物体が存在しているかを示す混雑度を計測することができる。
(実施形態2)
実施形態1に係る物体数計測装置1,10は、カメラ2の光軸が床面または地面に対して垂直の姿勢であることを前提に荷重値w(x,y)を計算しているが、実施形態2に係る物体数計測装置は、実施形態1と同じ構成要素を有しているが、荷重値テーブル作成部7が荷重値テーブルの生成においてカメラ2の姿勢情報を考慮した荷重値算出を行う点で、実施形態1とは異なる。
すなわち、本実施形態に係る荷重値テーブル生成部7は、図10のフローチャートのようにカメラ2の姿勢情報であるカメラ2の光軸の傾きに基づき前記有効な画像領域を構成する各画素を補正し、この補正した各画素を前記荷重値の算出に供している。
実環境では、図9に例示するように、厳密には、床面または地面に対してカメラ2の光軸を垂直の姿勢で取り付けることは稀であり、多少傾いて取り付けられている。カメラ2の傾きは、光軸の方向と視点から垂直に下ろした垂線の足の位置が異なるかどうかでその傾きの有無が分かる。
図9に示されたカメラ配置において、顕著にカメラ2を傾けて取り付けることはなく、理想的に垂直方向から微小に傾いていると仮定する。その傾きをX軸、Y軸周りに回転角ψ,ωでモデル化できるとする。回転角ψ,ωはカメラキャリブレーション等によって事前に既知であるとする。得られた回転角は微小とし、cos(ψ)≒1,sin(ψ)≒ψ,cos(ω)≒1,sin(ω)≒ωが成り立つとする。このような条件でカメラ2の光軸が傾いていると、そのカメラ2で得た画像での画像座標(xj,yj)のuv座標は、下記の式(31),(32)で関係付けることができる(非特許文献2にて公開されている)。
Figure 0005091908
ただし、εjは、便宜上、下記の式(33)によって置換される。
Figure 0005091908
ここで、式(9),(10)と式(31),(32)を見比べると、(uj,vj)から式(31)によって変換された新たな座標(u’j,v’j)をuv座標と見なせば、式(9),(10)と同様な形式であることが分かる。言い換えば、(uj,vj)を、傾き角ψ,ωと、式(33)に示した係数εjを使って、式(31)に基づいて(u’j,v’j)に補正すれば、実施例1と同様の処理により荷重値を算出することができる。ところが、式(31),(32)は、予め(Xj/Zj,Yj/Zj)が分からないと、係数εjを計算することはできない。
本実施形態に係る物体数計測装置では、荷重値テーブル作成部7が、係数εjを反復的に算出し、式(31),(32)の関係を使って荷重値を算出する。すなわち、荷重値テーブル作成部7は、荷重値を算出するステップにおいて、uv座標を計算するにあたり、図10で示した処理過程(S901〜S907)でuv座標を補正する。そして、この補正したuv座標に基づき荷重値の算出を行う。これ以外の処理フローは実施形態1と同様の処理となる。よって、本実施形態では新たなuv座標を得るための座標補正の手順についてのみ説明する。
図10に示された本実施形態におけるuv座標補正のステップの前段階として、画像座標(xj,yj)から図7に示されたuv座標変換のステップ(S701〜S705)を介して初期値のuv座標が算出される。この算出された初期値は荷重値テーブル作成部7によって実行される以下の本実施形態に係る補正のステップ(S901〜S907)に供される。
S901:uv座標の入力では、前記初期値のuv座標(uj,vj)がセットされる。
S902:初期値の係数εj=0がセットされる。
S903:微小回転角ψ,ωが計算に応じて適宜与えられる。
S904:初期状態では、(u’j,v’j)=(uj+ω,vj−ψ)である。この(u’j,v’j)は、式(32)の関係の上では(Xj/Zj,Yj/Zj)になる。
S905:式(33)に現時点での(Xj/Zj,Yj/Zj)を代入して、εjを更新する。
S906:更新したεjを使って、式(31)右辺の計算を行い、(u’j,v’j)を更新する。(u’j,v’j)が更新されれば、これまでと同様の処理を行い、そのときの(Xj/Zj,Yj/Zj)を得る。以上のS904〜S906を反復回数M(所定値)まで繰り返し実行することにより、式(31),(32)の関係を満たす補正されたuv座標(u’j,v’j)を算出する。
S907: 以上のステップによって補正されたuv座標が出力される。
前記出力されたuv座標は図5に示された荷重値算出の過程(S504〜S512)に供される。
(実施形態3)
図9の事例のように光軸が傾くようにカメラ2が取り付けられているとき、実施形態2では光軸の傾き角ψ,ωを既知であるとした。本実施形態では、カメラ2が天井面において任意に傾いて取り付けられていても、カメラ2によって得られた既知の参照物体の撮影画像に基づきカメラ2の回転角を算出している。そして、この算出された値に基づき有効な画像領域を構成する各画素を補正し、この補正した各画素を前記荷重値の算出に供している。
前記回転角の算出は図11に示された本実施形態に係る物体数計測装置20に係るカメラ情報獲得部21によって実行される。物体数計測装置20はカメラ情報入力部6の代わりにカメラ情報獲得部21を備えていること以外は物体数計測装置1と同じ構成である。
カメラ情報獲得部21は、既知の参照物体の中心座標と前記参照物体を撮影するカメラ2の姿勢情報に基づく画像座標との差分が許容誤差以下になるまで前記中心座標を調整しこの調整した中心座標に基づくカメラ2の姿勢情報の算出している。そして、以上の算出の過程を反復的に行うことで更新した姿勢情報を荷重値テーブル生成部7での有効な画像領域を構成する各画素の補正に供している。
カメラ情報獲得部21による回転角の算出の原理について説明する。式(31),(32)の関係を利用して、uv座標(uj,vj)と補正uv座標(u’j,v’j)の誤差が微小な回転角ψ,ωから発生すると考える。この誤差は、式(31),(32)を使うと、下記の式(34),(35)で表される。
Figure 0005091908
式(33)を用いて式(35)を展開し、さらに、回転角ψ,ωを未知数としてN個の参照点(Xj/Zj,Yj/Zj),j=1,2,…,Nに対して行列表記すると、下記の式(36)を得る。
Figure 0005091908
ここで、式(35)の誤差(Δuj,Δvj),j=1,2,…,Nは、画像座標から直接得られたuv座標値(uj,vj)と、補正されたuv座標値(u’j,v’j)から計算できる値である。したがって、既知の参照物体を使ってN個の参照点の(Xj/Zj,Yj/Zj),j=1,2,…,Nを与えれば、未知の回転角ψ,ωiは式(35)の連立方程式を解けば得られる。
図13に示された本実施形態に使用する参照物体の例において、●で示した箇所は参照点の位置であり、この点をカメラ2で観測する。図13の断面図と鳥瞰図に示すように、説明の都合上、正方形の四隅に参照点を配置し、5重の高さで組み上がっているとする。各層はζだけの間隔があり、参照点An,n=1,2,3,4,5に示した3次元座標は、それぞれAn=(D,D,Tz−(n−1)ζ)になっている。ただし、この3次元座標はカメラの視点位置Oの真下に参照物体の中心が位置することを前提としている。つまり、図14において、視点から下ろした垂線は、参照物体の中心(○で示した箇所)と交差する。取り付け時には、カメラ2の真下に参照物体を配置することは稀であるので、この位置合わせ(中心移動)の処理も図12の処理フローで行うことになる。
本実施形態は天上面に取り付けられたカメラ2の姿勢情報(実施形態2での回転角:ψ,ω)をカメラ情報獲得部21が事前に算出することが実施形態2と異なるので、その算出の過程(S121〜S131)について図12〜図14を参照しながら説明する。
図13の参照物体をカメラの下に配置する(参照物体の初期位置)。この参照物体の参照点座標は先のスケールによって与えられるものとする。さらに、回転角ψ、回転角ωを零に初期化しておく。これらの初期状態のセットが完了すれば、全ての参照点の画像座標(xj,yj)を測定し、図7の処理フロー(S701〜S705)に従ってuv座標(uj,vj)を逐次得る。
S121:初期値のuv座標(uj,vj)が入力される。
S122:係数εjを零に初期化する。
S123:式(31)に回転角ψ,ω、係数εjを代入して補正uv座標(u’j,v’j)を算出する。
S124:ここで、参照物体の中心座標(図13の○で示した参照点)を観測する。
前記中心座標の点は(0,0,Tz)と与えられる3次元座標である。つまり、式(31)において、下記の式(37)となる。したがって、中心点のuv座標は、下記の式(38)にならなければならない。現時点での回転角ψ、回転角ω、係数εjを式(38)に代入しuv座標を得る。
Figure 0005091908
Figure 0005091908
一方、図7の処理フロー(S701〜S705)に従って前記中心座標の画像座標からuv座標を得る。
S124:式(38)で得たuv座標とS701〜S705で得たuv座標との差分を算出する。
S125:前記算出されるuv座標の差分が許容誤差以下になるまで前記中心座標を移動させる。
S126:中心座標の調整(S125)が完了した後、参照点(参照物体の中心座標)のuv座標(uj,vj)とその補正uv座標(u’j,v’j)の差(Δuj,Δvj)を式(34)に従って算出する。
S127:各参照点の(Xj/Zj,Yj/Zj)と前記算出された誤差(Δuj,Δvj)が式(36)の連立方程式に入力される。
S128:式(36)の連立方程式から解として回転角ψ,ωが算出される。
S129:式(36)から算出された回転角ψ,ωがS123のステップに再度供される。そして、反復回数がM回以上になるまでS123〜128が反復実行される。
S130:前記反復回数がM未満である間は係数εjが式(33)に従って更新される。回転角ψ,ω、係数εjが更新されると、中心位置合わせ(S123〜S125)に戻り、これまでと同様の処理を続けることにより、回転角ψ,ωが算出される。
S131:カメラ情報獲得部21はS130で算出した回転角ψ,ωを荷重値テーブル生成部7に出力する。
荷重値テーブル生成部7は、カメラ情報獲得部21から取得した回転角ψ,ωに基づき画像座標の全てのuv座標の補正を行った後に(図10のS903〜S907)、各画像座標の荷重値を算出し(図5のS504〜S512)、荷重値テーブルを作成する。人数計測部8はこの作成された荷重値テーブルに格納された荷重値に基づきカメラ2観測下の対象物(人)の数を計測する(図4のS8)。
非特許文献1のような従来技術では画角が狭いために物体数の計測に限界があったが、駅や公共の場で設置されている全方位カメラに、本発明に係る物体数計測装置1,10,20を利用すると、100人規模の人数を計測することができるようになる。また、本発明は全方位カメラのカメラパラメータに基づいて視体積を算出し混雑度を計測するため、特許文献1と比べて、物体数を正確に、かつ、大規模に計測することに寄与する。本発明は単眼に限定されるわけではなく、複数カメラにおいてもそれぞれのカメラに対して本発明の物体数計測を適用できる。その場合、一様にカメラが取り付けられ共通視野が十分に確保されているならば、各カメラからの混雑度を統合することによって、オクルージョンなどによる混雑度の誤差を低減することも可能である。
以上のように、本発明によれば、屋内・屋外に設置された単眼のセキュリティカメラあるいは定点カメラに魚眼カメラあるいは全方位カメラを使って、広視野の撮影範囲内の物体数(人数)を直接計測できる。
1,10,20…物体数計測装置
2…カメラ(撮像装置)
3…画像蓄積部
4…対象物抽出処理部(対象物抽出処理手段)
5…有効領域判定部(有効領域判定手段)
6…カメラ情報入力部
7…荷重値テーブル生成部(荷重値テーブル生成手段)
8…人数計測部(計測手段)
11…背景情報構築部
21…カメラ情報獲得部(撮像装置情報獲得手段)

Claims (8)

  1. 全方位画像に基づき当該画像に含まれる物体の数を計測する物体数計測方法であって、
    物体抽出処理手段が全方位画像から物体を含んだ画像領域を抽出するステップと、
    有効領域判定手段が前記抽出された画像領域に含まれる物体の数の計測に有効な画像領域を撮像装置の視野特性に基づき判定するステップと、
    荷重値テーブル生成手段が、前記判定された有効な画像領域を構成する各画素に投影される視体積のうち前記物体の体積に寄与する体積を算出し、この体積に基づき前記各画素が物体の数にどれだけ寄与するかを示す荷重値を算出し、この算出した各画素の荷重値を格納させた荷重値テーブルを生成するステップと、
    計測手段が前記抽出された画像領域における各画素が前記判定によって有効領域と判定された場合のみ、前記荷重値テーブルに格納された当該各画素の荷重値を積算することにより前記物体の数を計測するステップと、
    を有すること
    を特徴とする物体数計測方法。
  2. 前記荷重値テーブルを生成するステップは、前記撮像装置の姿勢情報に基づき前記有効な画像領域を構成する各画素を補正し、この補正した各画素を前記荷重値の算出に供するステップをさらに有すること
    を特徴とする請求項1に記載の物体数計測方法。
  3. 撮像装置情報獲得手段が、既知の参照物体の中心座標と前記参照物体を撮影する撮像装置の姿勢情報に基づく画像座標との差分が許容誤差以下になるまで前記中心座標を調整しこの調整した中心座標に基づく前記撮像装置の姿勢情報の算出を反復的に行うことにより更新した姿勢情報を前記有効な画像領域を構成する各画素の補正に供するステップをさらに有すること
    を特徴とする請求項2に記載の物体数計測方法。
  4. 全方位画像に基づき当該画像に含まれる物体の数を計測する物体数計測装置であって、
    全方位画像から物体を含んだ画像領域を抽出する物体抽出処理手段と、
    前記抽出された画像領域に含まれる物体の数の計測に有効な画像領域を撮像装置の視野特性に基づき判定する有効領域判定手段と、
    前記判定された有効な画像領域を構成する各画素に投影される視体積のうち前記物体の体積に寄与する体積を算出し、この体積に基づき前記各画素が物体の数にどれだけ寄与するかを示す荷重値を算出し、この算出した各画素の荷重値を格納させた荷重値テーブルを生成する荷重値テーブル生成手段と、
    前記抽出された画像領域における各画素が前記判定によって有効領域と判定された場合のみ、前記荷重値テーブルに格納された当該各画素の荷重値を積算することにより前記物体の数を計測する計測手段と
    を備えること
    を特徴とする物体数計測装置。
  5. 前記荷重値テーブル生成手段は、前記撮像装置の姿勢情報に基づき前記有効な画像領域を構成する各画素を補正し、この補正した各画素を前記荷重値の算出に供すること
    を特徴とする請求項4に記載の物体数計測装置。
  6. 既知の参照物体の中心座標と前記参照物体を撮影する撮像装置の姿勢情報に基づく画像座標との差分が許容誤差以下になるまで前記中心座標を調整しこの調整した中心座標に基づく前記撮像装置の姿勢情報の算出を反復的に行うことにより更新した姿勢情報を前記荷重値テーブル生成手段に供する撮像装置情報獲得手段を
    さらに備えたこと
    を特徴とする請求項5に記載の物体数計測装置。
  7. 請求項4から6のいずれか1項に記載の物体数計測装置を構成する各手段としてコンピュータを機能させることを特徴とする物体数計測プログラム。
  8. 請求項7に記載の物体数計測プログラムを記録したコンピュータ読み取り可能な記録媒体。
JP2009111376A 2009-04-30 2009-04-30 物体数計測方法、物体数計測装置、物体数計測プログラム及びこのプログラムを記録した記録媒体 Expired - Fee Related JP5091908B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009111376A JP5091908B2 (ja) 2009-04-30 2009-04-30 物体数計測方法、物体数計測装置、物体数計測プログラム及びこのプログラムを記録した記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009111376A JP5091908B2 (ja) 2009-04-30 2009-04-30 物体数計測方法、物体数計測装置、物体数計測プログラム及びこのプログラムを記録した記録媒体

Publications (2)

Publication Number Publication Date
JP2010262397A JP2010262397A (ja) 2010-11-18
JP5091908B2 true JP5091908B2 (ja) 2012-12-05

Family

ID=43360420

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009111376A Expired - Fee Related JP5091908B2 (ja) 2009-04-30 2009-04-30 物体数計測方法、物体数計測装置、物体数計測プログラム及びこのプログラムを記録した記録媒体

Country Status (1)

Country Link
JP (1) JP5091908B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103473554B (zh) * 2013-08-19 2016-12-28 上海汇纳信息科技股份有限公司 人流统计系统及方法
WO2017135310A1 (ja) * 2016-02-04 2017-08-10 シャープ株式会社 通過数カウント装置、通過数カウント方法、プログラムおよび記憶媒体
JP7696880B2 (ja) * 2022-11-29 2025-06-23 キヤノン株式会社 画像処理装置、制御装置、画像処理方法、及びプログラム
CN118642417B (zh) * 2024-08-14 2024-11-08 山东鲁检科技有限公司 一种基于物品识别的消毒设备控制方法及系统

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6288080A (ja) * 1985-10-15 1987-04-22 A S T Soken:Kk 運動する物体の概数測定装置
JP4825350B2 (ja) * 2000-12-07 2011-11-30 住友大阪セメント株式会社 通過物体計数装置及び計数方法
JP5046285B2 (ja) * 2007-08-29 2012-10-10 一般財団法人電力中央研究所 バブルカウントシステム
JP4914870B2 (ja) * 2008-06-03 2012-04-11 日本電信電話株式会社 混雑度計測装置、混雑度計測方法、混雑度計測プログラムおよびそのプログラムを記録した記録媒体

Also Published As

Publication number Publication date
JP2010262397A (ja) 2010-11-18

Similar Documents

Publication Publication Date Title
US11200734B2 (en) Method for reconstructing three-dimensional space scene based on photographing
JP5580164B2 (ja) 光学情報処理装置、光学情報処理方法、光学情報処理システム、光学情報処理プログラム
CN107836012B (zh) 投影图像生成方法及其装置、图像像素与深度值之间的映射方法
TWI555379B (zh) 一種全景魚眼相機影像校正、合成與景深重建方法與其系統
US9965870B2 (en) Camera calibration method using a calibration target
CN103198524B (zh) 一种大规模室外场景三维重建方法
JP5593177B2 (ja) 点群位置データ処理装置、点群位置データ処理方法、点群位置データ処理システム、および点群位置データ処理プログラム
CN104463880B (zh) 一种rgb‑d图像获取方法
CN110807809A (zh) 基于点线特征和深度滤波器的轻量级单目视觉定位方法
CN103813150B (zh) 图像处理设备和方法、图像处理系统
WO2018068678A1 (zh) 一种立体摄像机外部参数的确定方法及装置
KR20130138247A (ko) 신속 3d 모델링
KR101759798B1 (ko) 실내 2d 평면도의 생성 방법, 장치 및 시스템
TW200937348A (en) Calibration method for image capturing device
US20170289516A1 (en) Depth map based perspective correction in digital photos
KR20130121290A (ko) 회전식 라인 카메라로 획득한 실내 전방위 영상의 지오레퍼런싱 방법
JP5091908B2 (ja) 物体数計測方法、物体数計測装置、物体数計測プログラム及びこのプログラムを記録した記録媒体
CN106264537A (zh) 图像中人体姿态高度的测量系统及方法
JP2008249431A (ja) 3次元画像補正方法及びその装置
CN104732557A (zh) 一种地面激光扫描仪彩色点云生成方法
JP2018044942A (ja) カメラパラメータ算出装置、カメラパラメータ算出方法、プログラム、及び記録媒体
CN111742352A (zh) 3d对象建模方法以及相关设备和计算机程序产品
JP5714960B2 (ja) 監視範囲検知装置
JP4914870B2 (ja) 混雑度計測装置、混雑度計測方法、混雑度計測プログラムおよびそのプログラムを記録した記録媒体
JP5727969B2 (ja) 位置推定装置、方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110926

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120911

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120914

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150921

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5091908

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees