JP6619927B2 - キャリブレーション装置 - Google Patents

キャリブレーション装置 Download PDF

Info

Publication number
JP6619927B2
JP6619927B2 JP2014216820A JP2014216820A JP6619927B2 JP 6619927 B2 JP6619927 B2 JP 6619927B2 JP 2014216820 A JP2014216820 A JP 2014216820A JP 2014216820 A JP2014216820 A JP 2014216820A JP 6619927 B2 JP6619927 B2 JP 6619927B2
Authority
JP
Japan
Prior art keywords
image
camera
unit
camera parameter
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014216820A
Other languages
English (en)
Other versions
JP2016086250A (ja
Inventor
聡 笹谷
聡 笹谷
竜 弓場
竜 弓場
誠也 伊藤
誠也 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2014216820A priority Critical patent/JP6619927B2/ja
Priority to CN201580050513.6A priority patent/CN107079093B/zh
Priority to US15/513,842 priority patent/US10638115B2/en
Priority to PCT/JP2015/079250 priority patent/WO2016063796A1/ja
Publication of JP2016086250A publication Critical patent/JP2016086250A/ja
Application granted granted Critical
Publication of JP6619927B2 publication Critical patent/JP6619927B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof

Description

本発明は、監視カメラのカメラパラメータを求めるキャリブレーション装置及びキャリブレーション方法に関するものである。
近年、監視分野において、撮像装置で撮影した映像から、対象物の位置やサイズを検出する画像認識技術のニーズが高まっている。このような画像認識技術を実現するためには、カメラの撮影した画像上に設置した座標(以下「画像座標」と称する)と実空間上に設置した座標(以下「世界座標」と称する)とを対応付ける必要がある。この対応付けには、カメラパラメータが使用される。
カメラパラメータは、カメラの焦点距離や向き等を示すカメラ情報であり、大きく内部パラメータと外部パラメータの2つに分けられる。(数1)は、内部パラメータ行列であり、fは焦点距離、aはアスペクト比、sはスキュー、(vc,uc)は画像座標の中心座標を示す。
また、(数2)は、外部パラメータ行列であり、(r11、r12、r13、r21、r22、r23、r31、r32、r33)はカメラの向きを示し、(tx、ty、tz)はカメラ設置位置の世界座標を示す。
これら2つのパラメータ行列K、D及び定数λを用いると、画像座標(u,v)と世界座標(XW、YW、ZW)は(数3)の関係式により対応付けられる。
なお、外部パラメータのカメラの向きを示す(r11、r12、…r33)においては、オイラー角により定義すると、カメラの設置角度であるパンθ、チルトφ、ロールψの3個のパラメータによって表される。そのため、画像座標と世界座標の対応付けのために必要なカメラパラメータ数は、5個の内部パラメータと6個の外部パラメータを合計した11個となる。(数3)において、カメラパラメータ行列は定数倍しても意味が不変であることから、λとパラメータ行列K、Dを1つの行列に整理して(数4)のように表現しても良い。さらに、(数4)において、c34=1と固定すると未知のパラメータ数は11個となり、これら11個のパラメータを求めることは(数3)における5つの内部パラメータと6つの外部パラメータを求めることと同義である。
したがって、最終的に(数3)は(数5)のように変形でき、(数5)における行列Cが最終的に求めるカメラパラメータとなる。このカメラパラメータCを算出するために、キャリブレーション技術が求められている。
一般的なキャリブレーションでは、対象のカメラにて特定の被写体を撮影して、特徴点の世界座標と、その特徴点に対応する画像座標の複数の組み合わせを(数5)に入力することでカメラパラメータCを算出する。例えば、特許文献1では、手動にてこれら座標情報を取得している。
特開2006−067272
特許文献1では、キャリブレーションに必要な情報を人手により入力している。そのため、複数のカメラを設置する際に作業負担が大きくなるだけでなく、作業内容の複雑さから人手によるミスも生じやすいという課題がある。
本発明は、前記の課題を解決するための発明であって、キャリブレーションにおいて、カメラ画像から複数の物体を抽出してそれぞれの物体に特性情報を付加することで、座標情報を入力することなくキャリブレーションを実施することを目的とする。
前記目的を達成するため、本発明のキャリブレーション装置は、撮像装置から画像を取
得する画像取得部と、画像から複数の物体を抽出する物体抽出部と、複数の物体間の幾何
学的な関係を示す幾何学情報を、物体間毎に特性情報として付加する特性情報付加部と、
特性情報に応じて物体の画像座標を取得し、特性情報および画像座標に基づいて焦点距離、アスペクト比、スキュー、画像座標の中心座標のいずれかを示す内部パラメータと、カメラの向き、カメラ設置位置の世界座標のいずれかを示す外部パラメータからなるカメラパラメータを推定するカメラパラメータ推定部と、カメラパラメータを出力するカメラパラメータ出力部と、を有し前記撮像装置は複数台設けられており、推定された前記カメラパラメータに基づいて、前記画像上の物体と前記撮像装置との距離を算出することにより、前記物体の3次元情報を取得し、前記3次元情報に基づいて前記カメラパラメータの値を調整するカメラパラメータ精度確認部と、前記カメラパラメータに基づき前記3次元情報を異なる視点から見た視点変換画像を表示する表示部と、を有し前記表示部は、前記カメラパラメータの値の変更を受け付けるパラメータ調整手段と、を有することを特徴とする。
以上述べた特徴により本発明のキャリブレーション装置を適用することで、監視カメラにおいて、座標情報を入力せずキャリブレーションを実施できる。
本発明の実施例1の機能ブロック図である。 物体抽出部において、撮像画像から建物、人、道路を抽出した例である。 図2の場合において、特性情報付加部によって、物体抽出部により撮像画像中から抽出された物体Pn、Qnに付加される特性情報Onの一例を示している。 撮像画像から、高さが同じである物体、および道路を示している。 図4の場合において、特性情報付加部によって、物体抽出部により撮像画像中から抽出された物体Pn、Qnに付加される特性情報Onの一例を示している。 物体情報取得部のフローを説明する図である。 物体情報取得部の処理のフローを示している。 特性情報が「垂直」である物体間の空間ベクトルの一例である。 特性情報が「同じ高さ」である物体間の空間ベクトルの一例である。 本発明の実施例2の機能ブロック図である。 カメラパラメータ精度確認部を説明する図である。 本発明の実施例3の機能ブロック図である。 人物追跡部のフローを説明する図である。 本発明の実施例4の機能ブロック図である。 人物位置推定部を説明する図である。 人流解析部を説明する図である。 人流解析部のフローを説明する図である。 3次元情報により生成される俯瞰画像の違いを説明する図である。
以下、本発明の具体的な実施形態について、図面を参照しながら説明する。
図1は、本実施例におけるキャリブレーション装置1のブロック構成図を示している。
図1に示すキャリブレーション装置1は、画像取得部3、物体抽出部4、特性情報付加部5、カメラパラメータ推定部6、およびカメラパラメータ出力部7を有する。キャリブレーション装置は、撮像装置2とネットワークを介して管理サーバー等に設けられていてもよいし、撮像装置2内に設けられていてもよい。
撮像画像取得部3は、所定の時間周期で少なくとも1つ以上のカメラ2から取得した可視光を、CCDやCMOS素子を介して電気信号に変換する。デジタル方式の場合には、これに加えてデジタル変換も行う。以降では、電気信号やデジタル変換を施した画像取得部3から出力された画像を、撮像画像と称する。
物体抽出部4は、撮像画像から物体を抽出する。本実施例において、例えば、撮像画像中に含まれる水平面や、その水平面に直立した物体等を抽出する。屋外では、水平面として道路、水平面に直立した物体として人や建築物等があげられる。一方、屋内では、水平面として床面、水平面に直立した物体としては、机や棚等が挙げられる。
物体の抽出方法は、GUI等の表示画面による手動の検出と、画像認識による自動の検出方法がある。前者のGUI等による手動の検出は、撮像画像をディスプレイ等に表示させた後、物体の外枠を直接指定する方法や物体を矩形により囲む方法がある。後者の画像認識による自動の検出は、物体が存在しない背景画像を予め取得して背景画像と撮像画像との差分により物体を抽出する方法や、撮像画像から特別な色情報を持つ物体のみを抽出する方法がある。この他にも、シーン認識により画像中から複数の物体を抽出及び分別して、それら物体の中から手動にて特定の物体を選択する方法もある。なお、物体の抽出方法としては、上記以外にも撮像画像から特定の物体を検出する方法であれば、特に限定しない。
特性情報付加部5は、物体抽出部4において抽出した物体に対して特性情報を付加する。特性情報とは、複数の物体間で成立する幾何学的な関係を示す幾何学情報のことである。
図2〜5は、特性情報付加部5によって、物体抽出部4により撮像画像中から抽出された物体Pn、Qnに付加される特性情報Onの一例を示している。
図2は、物体抽出部4において、撮像画像から建物である物体10および11、人である物体12、道路である物体13を抽出した例を示している。このような撮像画像が得られる場合、図3のような特性情報が付加される。
図3のnは、物体間毎に付加される特性情報に付与した通し番号であり、Pn、Qnは、特性情報が付加される物体を示す。本実施例では幾何学情報が付加される物体は、Pn、Qnの2物体の場合で説明するが、2以上の複数の物体間における幾何学情報が付加されてもよい。特性情報Onは、物体間の幾何学情報を示し、本実施例では「垂直」、「同じ高さ」といった2つの特性情報である。図3においてn=1の場合、P1=10、Q1=12の幾何学情報O1は、水平である。すなわち、図2に示すように、建物10と人12は、いずれも地面に対して垂直に立っているので、幾何学的には互いに水平関係にある。
図4は、撮像画像から、物体14a〜14dは高さが同じである電柱、物体15は道路を示している。
この場合、例えば図5のような特性情報を付加できる。特性情報付加部5により付加する特性情報数としては、未知のパラメーター数存在すればよい。例えば図2の場合は、図3に記載の物体10と物体13が「垂直」、図4の場合は、図4に記載の物体14aと物体14bが「同じ高さ」という特性情報Onのみ付加するだけでも良い。
ここで、物体に特性を付加する手段としては、表示画面などのGUI等により、撮像画像中から抽出した物体を2つ選択した後、特性情報を「垂直」、「同じ高さ」の中から1つ選択するというフローを繰り返す方法や、予め抽出物体にID番号等を付加しておき、その番号と特性情報をテキストファイル等に書き込み対応付ける方法がある。
その他にも、例えば図4の場合、物体14a、14b、14c、14dが「同じ高さ」の属性であると対応付けられれば、自動的に6つの物体間の組み合わせを作成し、それぞれに特性情報を付加させる方法もある。なお、上記以外にも撮像画像内の抽出物体の中から物体を複数選択して、それら物体に特性情報を対応付ける方法であれば、特に限定しない。
図6は、図1に示したカメラパラメータ推定部6の詳細を示した図である。カメラパラメータ推定部6は、物体の特性情報に基づき、カメラパラメータを推定する。
カメラパラメータ推定部6は、物体情報取得部20、初期パラメータ取得部21、およびパラメータ算出部22を有する。
物体情報取得部20は、特性情報付加部5から出力された特性情報を入力するとともに、画像座標を取得する。
初期パラメータ取得部21は、カメラパラメータの初期値を取得する。パラメータ算出部22は、物体に付加された特性情報と画像座標に基づき、カメラパラメータの初期値から最終カメラパラメータを計算する機能である。
図7は、物体情報取得部20の処理のフローを示している。
物体情報取得部20では、まず特性情報付加部5により物体Pn、Qnに付加された特性情報Onが「垂直」か「同じ高さ」であるか判定する(S701)。
S701において、特性情報Onが「垂直」と判定された場合は、物体Pn、Qnが〈水平面〉か〈水平面に垂直な物体〉のどちらかを判定する(S702)。物体が〈水平面〉の場合は、その水平面上から2つの画像座標を取得する(S703)。水平面上から2つの画像座標を取得する方法としては、水平面上からランダムに選出する方法や、GUI等を用いて手動にて選択する方法等がある。一方、物体が〈水平面に垂直な物体〉の場合は、その物体領域の上底と下底の画像座標を取得する(S704)。なお、物体領域の上底と下底でなくても、物体領域の実空間上での高さ方向軸上にある2点であればよい。また、物体の物体領域の撮像画像上でのy軸上にある2つの画像座標を取得してもよい。
S701において、特性情報Onが「同じ高さ」と判定された場合は、物体Pn、Qnのそれぞれの領域における上底と下底の画像座標を取得する(S705)。なお、物体領域の上底と下底でなくても、物体領域の実空間上での高さ方向軸上にある2点であればよい。物体領域の上底と下底の画像座標を取得する方法としては、画像左上を原点とした場合、物体領域の外枠の画像座標の中でy座標が最大のものを上底、最小のものを下底とする方法や、物体領域の上辺の中点を上底、下辺の中点を下底とする方法等がある。なお、画像座標を取得する方法としては、上記以外の方法でも画像座標を選出できる方法であれば良い。このようにして、物体情報取得部20は、物体に付加された特性情報と、特性情報に応じた画像情報を取得する機能を有する。
次に、初期パラメータ取得部21について説明する。初期パラメータ取得部21は、11個のカメラパラメータの初期値を取得する機能を有する。初期パラメータの取得の方法としては、乱数により取得する方法や、カメラのハード情報を利用して手動にて入力する方法等があり、特に限定しない。
最後に、パラメータ算出部22について説明する。パラメータ算出部22は、物体情報取得部20により取得した物体Pn、Qnの特性情報Onと、物体Pnの画像座標(pxn,pyn)、(pxn ',pyn ')及び物体Qnの画像座標(qxn,qyn)、 (qxn ',qyn ')と、初期パラメータ取得部21により入力された初期カメラパラメータC0とに基づいて、最終的なカメラパラメータを算出する。
パラメータ算出部22により扱うカメラパラメータCについて説明する。前述した(数5)において、世界座標Zwを固定値Hとすると、(数6)の式を経ることで(数7)のように変形できる。(数7)は世界座標ZwをHが既知であれば、画像座標(u,v)とカメラパラメータCから、世界座標XwとYwを導出できることを示している。
ここで、(数8)のように(数7)を展開し、C31 'C13+C32 'C23+C34 'C33≠0という条件を加えると、固定値Hは(数9)のように置き換えることが可能である。
したがって、(数7)においてHの値が既知でなくても、画像座標(u,v)とカメラパラメータCにより世界座標wiは算出でき、本実施例ではこの関係式を関数fを用いて(数10)のように示す。パラメータ算出部22では、(数10)によりカメラパラメータを推定する。
以下、特性情報Onが「垂直」の場合を例に、カメラパラメータの推定方法について説明する。図8は、この例における撮像画像を示している。物体Pnが水平面に垂直かつ高さがHの物体、物体Qnが水平面とした場合、物体Pnの上底部分の画像座標(pxn,pyn)に対応する世界座標wpnと下底部分の画像座標(pxn ',pyn ')に対応する世界座標wpn 'は(数11)のように示される。
一方、物体Qnの画像座標は水平面に存在するため、その世界座標wqn、wqn 'は(数12)のように示される。
ここで、図8に示すように、物体Pnと物体Qnは垂直であるため、(数13)のように空間ベクトルのwpnwpn 'とwqnwqn 'の内積は0となる。
そして、(数14)に示すエラー関数Eが最小となるよう、初期カメラパラメータC0の最適化を行うことで、最終カメラパラメータCを導出できる。
最適化の手法としては、バンドル調整等の一般的な方法を使用し、特に限定しない。次に、特性情報Onが「同じ高さ」の際の推定方法について説明する。図9は、この例における撮像画像を示している。物体Pn、Qnの高さがHでありかつそれらが水平面に直立していると仮定すると、物体Pnの上底、下底部分の画像座標(pxn,pyn)、(pxn ',pyn ')及び、高さがHである物体Qnの上底、下底部分の画像座標(qxn,qyn)、 (qxn ',qyn ')に対応する世界座標wpn、wpn '、 wqn、wqn 'は(数15)のように示される。
ここで、図9に示すように、物体Pn、Qnは同じ高さであるため、(数16)のように空間ベクトルのwpnwpn 'とwqnwqn 'の大きさの差は0となる。
したがって、(数17)に示すエラー関数Eが最小となるよう初期パラメータC0の最適化によりカメラパラメータCを推定できる。
なお、(数14)や(数17)を用いて最適化をする際、1組のベクトル情報のみでは1つのカメラパラメータしか推定することはできない。しかし、特性情報を増やすことで複数のカメラパラメータを同時に推定することが可能であることは自明である。制約条件を増やす方法としては、例えば、特性情報が「垂直」の場合は、水平面の物体領域から2つ以上の画像座標を抽出して複数の空間ベクトルを取得することで対応することができる。また、特性情報が「同じ高さ」の場合は、同じ高さの物体を更に画像上から選択することで、空間ベクトル情報を増やすことで対応できる。また、カメラのハード情報等から既知のカメラパラメータを固定値として初期パラメータC0に設定することで、制約条件を少なくしカメラパラメータを推定することも可能である。また、本実施例では物体の特性情報を「垂直」と「同じ高さ」のみについて述べたが、例えば「平行」や「物体間の成す角度が45度」等の特性情報を使用しても良い。
図1に戻り、カメラパラメータ出力部7は、カメラパラメータ推定部6で推定されたカメラパラメータを、撮像装置2又は管理サーバー等に出力して、撮像装置2に対してカメラパラメータを設定する。
以上の通り、本実施例では、カメラ画像から抽出した複数の物体と、それら物体に付加された特性情報を利用することで、実空間上の座標情報を入力することなくキャリブレーションを実施することができる。
なお、実施例1において、ある物体間の特性情報から最終カメラパラメータを求めた後に、最終カメラパラメータを初期パラメータとして前回とは異なる物体間の特性情報を用いてパラメータの値を更新しても良い。
本実施例は、実施例1において求めたカメラパラメータの精度調整を行う場合に関するものである。
実施例2の機能ブロック図を、図10に示す。図10において、1、2、3、4、5、6、7の各機能は実施例1と同一である。
図10の概要を述べると、まず、複数のカメラ2(撮像装置2)において、機能3、4、5、6、7により各カメラ2のカメラパラメータを推定する。次に、3次元情報取得部30は2台のカメラの撮像画像とカメラパラメータ出力部7より入手したカメラパラメータから、画像中の物体の3次元情報を取得する。
そして、カメラパラメータ精度確認部31は、3次元情報取得部30により取得した物体の3次元情報からカメラパラメータの精度を確認し、パラメータの精度が悪い場合は再度カメラパラメータを推定する。このような構成にすることにより、精度の高いカメラパラメータを取得することが可能となる。
以下、3次元情報取得部30とカメラパラメータ精度確認部31の機能について説明する。
3次元情報取得部30は、2台のカメラにより得た撮像画像と各カメラにおいて推定したカメラパラメータから、撮像画像中の物体とカメラとの距離を算出することで物体の3次元情報を取得する。なお、3次元情報の取得方法としては、カメラパラメータから求めた基礎行列Fによって視差を算出するステレオマッチングと呼ばれる一般的な手法を使用する。基礎行列Fは、2台のカメラの相対的な位置関係を示すパラメータ行列であり、(数18)に示すように、カメラパラメータ出力部7により取得した2台のカメラの内部パラメータK0、K1と外部パラメータD0、D1により算出できる。
図11は、カメラパラメータ精度確認部31において、3次元情報から作成した視点変換画像を見ることで、ユーザがカメラパラメータの精度を確認しつつ、パラメータの値を調整するGUI画面の一例である。
図11において、画面40はカメラ2の撮像画像であり、同じ身長の人物41a、41b、41cと道路42が撮影されている。画面43は、人物41a、41b、41cと道路42の3次元情報を示し、画面44、45、46は、画面43に表示された3次元情報を仮想の視点から見た際の視点変換画像である。画面44は真正面方向、画面45は真横(右)方向、画面46は真上方向の視点における視点変換画像を示す。なお、視点変換画像の作成方法としては、カメラパラメータを用いた透視投影といった一般的な方法を使用する。また、真正面、真横(右)、真上以外の視点方向から作成した視点変換画像を利用しても良い。
カメラパラメータ精度確認部31では、この視点変換画像44、45、46によりカメラパラメータの精度を確認する。カメラパラメータが正確に算出されている場合、図11に示すように、視点変換画像44、45において、道路42は水平となり、人物41a、41b、41cは道路42に直立しかつ各頭頂部が同じ高さになり、視点変換画像46においては、人物41a、41b、41cの位置が離れているため各人物領域は独立する。
しかし、例えば、カメラの外部パラメータの内、カメラの俯角を示すチルト角に誤差がある際は、視点変換画像44、45において、道路42は水平とならず、人物41a、41b、41cの頭頂部も同じ高さにならない。よって、ユーザは表示画面を確認することによりチルト角に誤差があることを確認できる。そこで、図11のカメラパラメータ調整GUI47により、誤差があるカメラパラメータの調整を行う。カメラパラメータ調整GUI47では、画面48にて表示された撮像画像40を出力するカメラのカメラパラメータを、増減ボタン49により調整することが可能である。なお、GUI47において、増減ボタン49によりパラメータ値を変更すると、その値に応じて視点変換画像44、45、46が更新されるため、ユーザは視覚的にカメラパラメータを補正できる。ユーザが変更したカメラパラメータは、初期値あるいは固定値として再度カメラパラメータ推定部6に入力し最適化を行うか、あるいはそのまま使用しても良い。なお、カメラパラメータ調整GUIによりパラメータを調整するカメラは選択でき、調整するカメラを変更すると撮像画像40と視点変換画像44、45、46は変更後のカメラに応じた画像に更新される。また、パラメータの調整手段としては、図11のような 増減ボタン49の使用の他にも、直接値を入力するといった方法でも良く、特に限定はしない。
本発明の実施例2では、以上説明した機能構成により、2台のカメラから取得したカメラパラメータと物体の3次元情報から視点変換画像を生成しGUIに表示することで、ユーザは視覚的に2台のカメラのカメラパラメータの精度を確認しつつ、必要な場合はそのパラメータ値を調整できる。
なお、実施例2において、カメラ台数は2台に限定せず、複数台のカメラのカメラパラメータの精度を同時に確認しつつパラメータ値を調整しても良い。
本実施例では、実施例1における1つの撮像画像上に存在する2以上の物体間の幾何学的関係に基づいて付加される特性情報に代えて、異なる時刻に取得された2以上の撮像画像上に存在する物体間の幾何学的関係に基づいて特性情報を付加する場合を説明する。
図12は、実施例3の機能ブロック図を示したものである。
図12において、1、2、3、6、7の各機能は実施例1と同一である。物体追跡部60は、例えば、動体である人物を追跡することで、複数の撮像画像から物体の特性情報と画像情報を取得する機能である。以下、物体追跡部60の機能の詳細について説明する。
図13は、物体追跡部60の機能を詳細に示したものである。
図13において、物体検出部61は撮像画像から人物を検出する機能、物体認識部62は物体検出部61により検出された物体が過去の撮像画像から検出された物体と同一であるかを判定する機能、ID番号付加部63は物体認識部62の判定結果に基づき物体にID番号を付加する機能、物体情報保存部64は検出された物体の画像情報等を保存する機能である。
物体検出部61は、撮像画像から物体を検出する機能であり、GUI等を用いて手動にて検出する方法や、画像特徴量を用いて自動で検出する方法がある。後者の画像特徴量を用いて自動で検出する方法としては、予め撮影した背景画像との差分により物体領域を抽出する方法、オプティカルフロー等を利用して画像中の動きのある領域を物体として抽出する方法、HOG特徴量等を利用したパターン認識により検出する方法等がある。なお、この他にも物体を画像から検出する方法であれば、特に限定しない。
物体認識部62は、現在の撮像画像から物体検出部61により検出した物体と、過去の撮像画像から検出した物体が同一であるかを判定する機能である。同一であるかを判定する方法としては、物体が人物である場合には顔認識を利用する方法や、オプティカルフロー等により直前フレームとの動きの差を求め動きが最少のものは同一人物とみなすといった位置情報から判定する方法等があり、この他にも同一物体と判定できる方法であれば良い。
ID番号付加部63では、現在の撮像画像において物体検出部102により検出した物体が、物体認識部62により過去の物体と同一と判定された場合は、過去の物体と同じID番号を、同一と判定されなければ新しいID番号を付加する。なお本実施例では、ID番号は0から昇順に付加することとする。
物体情報保存部64は、現在の撮像画像から物体検出部61により検出された物体Pnにおいて、その領域の上底と下底の画像情報を取得及び保存する。そして、過去の撮像画像の中から、その物体PnのID番号と同一のID番号を持つ物体Qnの画像情報を保存していた場合は、「同じ高さ」という特性情報Onを付加する。
以上のような処理を採用することにより、特性情報Onが「同じ高さ」である物体Pn、Qn、Rn、…の上底と下底の画像情報[(pxn,pyn)、(pxn ',pyn ')]、[(qxn,qyn)、(qxn ',qyn ')]、[(rxn,ryn)、(rxn ',ryn ')]、…を出力することで、実施例1と同様にカメラパラメータ推定部6からカメラパラメータを算出することができる。なお、物体追跡部60において、上述した方法以外でも、同一物体を追跡でき、かつその物体の物体領域の実空間上での高さ方向軸上にある2つの画像座標を取得することができれば、特に限定しない。
本発明の実施例3では以上説明した機能構成により、カメラ映像内で同一人物を追跡することで、実空間上の座標情報を入力することなくキャリブレーションを実施することができる。
なお、実施例3において、映像内における同一人物を追跡することが可能であれば、2台のカメラを用いた撮像装置2であるステレオカメラにも適用できる。
本発明の実施例4の機能ブロック図を図14に示す。
図14において、1、2、3、4、5、6、7、30、31の各機能は実施例2と同一であり、人物位置推定部70は距離情報取得部30から取得した距離情報と、カメラパラメータ精度確認部31により調整したカメラパラメータから、画像中の人物における実空間上の位置を推定する機能、人流解析部71は人物位置推定部70により推定した人物の位置に基づき、人数計測、動線抽出、混雑時間計測等の人流解析を行う機能、解析結果表示部72は人流解析部71によって行われた人流解析の結果をPCディスプレイ等に表示する機能である。以下、人物位置推定部70と人流解析部71の詳細について説明する。ここでは、人物としたが他の動体であってもよい。
図15は、人物位置推定部を説明するための図である。
図15において、(a)は2台のカメラの内、どちらか一方のカメラにおける撮像画像であり、75a、75bは人物、76は道路、77はビルを示している。人物位置推定部70では、まず人検出により撮像画像から人物のみ抽出し、図15(b)に示す人物領域画像を作成する。なお、人検出の方法については、実施例3で述べた人検出部61の手法や、予め取得した人物が存在しない状況での3次元情報との差分により導出する方法がある。次に、カメラパラメータ精度確認部31と同様に、抽出した人物領域に対応する3次元情報を取得し、取得した3次元情報を真上方向からの視点から見た際の視点変換画像である俯瞰画像(c)を生成する。最後に、俯瞰画像(c)における各人物領域において重心位置を求めることで、人物位置画像(d)を算出でき、人物75a、75bの実空間上の位置である、78a、78bの推定が可能となる。
図16は、人流解析部71を説明するための図である。図16において、(a)は撮像画像、(b)は推定した実空間上の人物の位置と実際の地図をマッピングするフロー、(c)、(d)、(e)は人数計測、動線抽出、滞留時間測定といった人流解析のアプリ例を示す。人流解析部71では、まず撮像画像(a)から人物位置推定部70によって算出した人物位置画像79と、実際の地図情報である地図画像80との対応付けを行う。この対応付けの方法としては、GUI等により、人物位置画像79に示される人物位置78a、78bがマップ画像80の適した場所に収まるよう画像座標を手動で調整する方法等があり、特に限定しない。次に、人物位置画像79と地図画像80を対応付けたマッピング画像83を使用して人流解析を行う。図16(c)は、マッピング画像83における道路76の画像情報と、人物位置78a、78bの画像情報とを比較することで、道路76上にいる人物の数を計測するアプリの実行例である。本実行例では、道路76上にいる人物は75aのみなので、実行結果84には1人と表示される。図16(d)は、連続フレームにおいて、人物位置推定部70により推定した人物位置の結果を結合して人物を追跡する動線抽出アプリの実行例である。人物の追跡方法としては、実施例3にて述べた人物追跡部60と同様の方法や、俯瞰画像における複数の人物領域を前後フレームにて比較し、移動量が最小のものを同じ人物領域と扱い追跡する方等があるが、特に限定しない。図16(d)において、85aは人物75aの、85bは人物75bの動線を示しており、人物75aは大きく移動しているものの、人物75bは同じ場所付近を滞留していることがわかる。図16(e)はマップ画像を4つのブロックに分割し、動線抽出結果を利用して各ブロックごとの人物の平均滞留時間を計測するアプリの実行例である。実行結果86では、ブロックA、Cには人物がいないため平均滞留時間は0秒、ブロックBには大きく移動する人物75aが居り、ブロックDには滞留する人物76bがいるため、平均滞留時間はDブロックが最も大きくなる。
本発明の実施例4では、以上説明した機能構成により、2台のカメラから取得したカメラパラメータと物体の3次元情報から人物の位置を推定することで、実空間上の座標情報を入力することなく、人流解析を実施できる。
実施例4において、人物全体の3次元情報ではなく頭部の3次元情報を利用しても良い。
図17は、人物位置推定部70により撮像画像から人物の位置を推定するフローの一例である。
まず人検出により撮像画像から人物領域画像を作成する(S1701)。
次に、人物領域に対応する3次元情報を取得し(S1702)、取得した人物の3次元情報から頭部のみの3次元情報を抽出する(S1703)。
最後に、抽出した頭部のみの3次元情報からカメラパラメータを使用して俯瞰画像を作成し(S1704)、作成した俯瞰画像における各頭部の重心位置を求めることで(S1705)、人物位置を推定できる。
なお、S1703における頭部の3次元情報を抽出する方法としては、あらかじめ撮像画像から画像特徴量を用いて頭部の凸状の形状等を検出し、検出した頭部領域に対応する3次元情報を取得する方法や、カメラパラメータ精度確認部31により作成した、真正面方向や真横方向の視点変換画像を用いて一定以上の高さから上の3次元情報を頭部として検出する等の方法がある。その他にも、頭部付近を検出する手法であれば、特に限定しない。
人物全体の3次元情報から人物の位置を推定した結果と、図17のフローに従い頭部のみの3次元情報から人物の位置を推定した結果の違いを図18に示す。図18において、人物90a、90b、90cが密集した撮像画像91から人物全体の3次元情報92を抽出して俯瞰画像93を作成した場合、肩等の部分に重なりが生じてしまい人物の区別が困難となりその位置を正確に推定できない。しかし、撮像画像91から人物の顔部分のみの3次元情報94を抽出して作成した俯瞰画像95では、重なりが生じないため人物90a、90b、90cの位置を精度良く推定することが可能となる。
また、実施例4において、人流解析部71では、人数計測、動線抽出、滞留時間測定といった推定した人物の位置に基づく人流解析アプリ以外のアプリを実行しても良い。例えば、ある特定領域内に直立する人物の数と人物ごとの滞留時間を測定することで、特定領域内の混雑度を数値として算出する混雑度推定アプリや、俯瞰画像における人物領域同士の結合状態により、人物が近づいたか遠のいたか判定し、近づいた場合その場での滞留時間を計測することで店頭等の接客行動を認識する行動認識アプリ等がある。
1…キャリブレーション装置、2…撮像装置、3…画像取得部、4…物体抽出部、
5…特性情報付加部、6…カメラパラメータ推定部、7…カメラパラメータ出力部

Claims (8)

  1. 撮像装置から画像を取得する画像取得部と、
    前記画像から複数の物体を抽出する物体抽出部と、
    前記複数の物体間の幾何学的な関係を示す幾何学情報を、物体間毎に特性情報として付加する特性情報付加部と、
    前記特性情報に応じて前記物体の画像座標を取得し、前記特性情報および前記画像座標に基づいて焦点距離、アスペクト比、スキュー、画像座標の中心座標のいずれかを示す内部パラメータと、カメラの向き、カメラ設置位置の世界座標のいずれかを示す外部パラメータからなるカメラパラメータを推定するカメラパラメータ推定部と、
    前記カメラパラメータを出力するカメラパラメータ出力部と、を有し
    前記撮像装置は複数台設けられており、
    推定された前記カメラパラメータに基づいて、前記画像上の物体と前記撮像装置との距離を算出することにより、前記物体の3次元情報を取得し、前記3次元情報に基づいて前記カメラパラメータの値を調整するカメラパラメータ精度確認部と、前記カメラパラメータに基づき前記3次元情報を異なる視点から見た視点変換画像を表示する表示部と、
    前記調整後のカメラパラメータから再生成した真正面方向や真横方向の前記視点変換画像に基づき人物を検出する物体検出部とを有し、
    前記表示部は、前記カメラパラメータの値の変更を受け付ける撮像システム。
  2. 請求項1に記載の撮像システムであって、
    前記特性情報が垂直である場合には、前記カメラパラメータ出力部は、
    前記複数の物体のうち実空間上で水平面を構成する物体については、前記物体の任意の2つの画像座標を取得し、前記複数の物体のうち実空間上で水平面に垂直な物体については、前記物体の物体領域の実空間上での高さ方向軸上にある2つの画像座標を取得する撮像システム。
  3. 請求項1に記載の撮像システムであって、
    前記特性情報が同じ高さである場合には、前記カメラパラメータ出力部は、
    前記複数の物体のうち実空間上で水平面に垂直な物体について、物体領域の実空間上での高さ方向軸上にある2つの画像座標を取得する撮像システム。
  4. 請求項1に記載の撮像システムであって、
    前記画像を表示させ、前記複数の物体を選択することができるとともに、前記複数の物体において前記複数の物体の任意の物体間毎に特性情報を付加する表示画面を有する撮像システム。
  5. 請求項1に記載の撮像システムであって、
    前記物体抽出部は、前記画像のシーン認識を行い、前記シーン認識の結果に基づいて前記画像中から複数の物体を検出するとともに、前記特性情報を付加する撮像システム。
  6. 撮像装置から画像を取得する画像取得部と、
    前記画像から物体を検出し、追跡する物体追跡部と、
    前記物体追跡部は、
    第1の時刻において検出した第1の物体と第2の時刻において検出した第2の物体とが同一物体であるかを判定する物体認識部、
    前記物体が同一物体である場合には、前記第1の時刻および前記第2の時刻における画像上の前記物体の高さに関する情報を取得し、前記第1の物体および前記第2の物体の間で成り立つ幾何学的な関係を示す幾何学情報を、物体間毎に特性情報として付加する物体情報保存部、を含み、
    前記特性情報および前記特性情報に応じて取得した前記物体の画像座標に基づいて、焦点距離、アスペクト比、スキュー、画像座標の中心座標のいずれかを示す内部パラメータと、カメラの向き、カメラ設置位置の世界座標のいずれかを示す外部パラメータからなるカメラパラメータを推定するカメラパラメータ推定部と、
    前記カメラパラメータを出力するカメラパラメータ出力部と、を有し
    前記撮像装置は複数台設けられており、
    推定された前記カメラパラメータに基づいて、前記画像上の物体と前記撮像装置との距離を算出することにより、前記物体の3次元情報を取得し、前記3次元情報に基づいて前記カメラパラメータの値を調整するカメラパラメータ精度確認部と、前記カメラパラメータに基づき前記3次元情報を異なる視点から見た視点変換画像を表示する表示部と、
    前記調整後のカメラパラメータから再生成した真正面方向や真横方向の前記視点変換画像に基づき人物を検出する物体検出部とを有し、
    前記表示部は、前記カメラパラメータの値の変更を受け付ける撮像システム。
  7. 請求項6に記載の撮像システムにおいて、
    前記カメラパラメータ精度確認部において、前記のカメラパラメータに基づき前記3次元情報を異なる視点から見た視点変換画像を表示し、前記2つのカメラパラメータの値を変更すると前記視点変換画像も変更するステレオカメラ装置。
  8. 請求項7に記載のステレオカメラ装置おいて、
    前記視点変換画像の画像を用いて物体検出を行うステレオカメラ装置。
JP2014216820A 2014-10-24 2014-10-24 キャリブレーション装置 Active JP6619927B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014216820A JP6619927B2 (ja) 2014-10-24 2014-10-24 キャリブレーション装置
CN201580050513.6A CN107079093B (zh) 2014-10-24 2015-10-16 校准装置
US15/513,842 US10638115B2 (en) 2014-10-24 2015-10-16 Calibration device
PCT/JP2015/079250 WO2016063796A1 (ja) 2014-10-24 2015-10-16 キャリブレーション装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014216820A JP6619927B2 (ja) 2014-10-24 2014-10-24 キャリブレーション装置

Publications (2)

Publication Number Publication Date
JP2016086250A JP2016086250A (ja) 2016-05-19
JP6619927B2 true JP6619927B2 (ja) 2019-12-11

Family

ID=55760835

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014216820A Active JP6619927B2 (ja) 2014-10-24 2014-10-24 キャリブレーション装置

Country Status (4)

Country Link
US (1) US10638115B2 (ja)
JP (1) JP6619927B2 (ja)
CN (1) CN107079093B (ja)
WO (1) WO2016063796A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI590195B (zh) * 2016-05-26 2017-07-01 晶睿通訊股份有限公司 具有低資料儲存量與低資料計算量的影像流量分析方法、及其相關的攝影裝置與攝影系統
JP6898165B2 (ja) * 2017-07-18 2021-07-07 パナソニック株式会社 人流分析方法、人流分析装置及び人流分析システム
JP6802923B2 (ja) * 2017-07-19 2020-12-23 株式会社日立製作所 物体検出装置、及び、物体検出手法
JP2019176306A (ja) * 2018-03-28 2019-10-10 キヤノン株式会社 監視システム、監視システムの制御方法及びプログラム
CN108322670B (zh) * 2018-04-27 2019-05-28 Oppo广东移动通信有限公司 一种多摄像头系统的控制方法、移动终端及存储介质
JP6841977B2 (ja) * 2018-06-11 2021-03-10 富士フイルム株式会社 撮影支援装置、撮影支援方法、及び撮影支援プログラム
TWI720447B (zh) * 2019-03-28 2021-03-01 財團法人工業技術研究院 影像定位方法及其系統
CN110223354A (zh) * 2019-04-30 2019-09-10 惠州市德赛西威汽车电子股份有限公司 一种基于sfm三维重建的相机自标定方法
KR102254950B1 (ko) * 2019-06-26 2021-05-24 주식회사 티맥스티베로 캘리브레이션 방법
TWI720869B (zh) * 2020-04-15 2021-03-01 致伸科技股份有限公司 相機模組之對位方法
WO2024053041A1 (ja) * 2022-09-08 2024-03-14 三菱電機株式会社 移動予測装置、移動予測方法、及び、移動予測プログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3104638B2 (ja) * 1996-03-25 2000-10-30 株式会社日立製作所 3次元画像作成装置
JP3411889B2 (ja) * 2000-06-27 2003-06-03 株式会社国際電気通信基礎技術研究所 カメラの自動校正方法
JP2003284059A (ja) * 2002-03-27 2003-10-03 Toshiba Lighting & Technology Corp カメラ画像による移動物体追跡装置およびカメラパラメータのキャリブレーション方法並びに装置
JP2006067272A (ja) 2004-08-27 2006-03-09 Matsushita Electric Ind Co Ltd カメラキャリブレーション装置及びカメラキャリブレーション方法
CN101144959B (zh) * 2007-11-02 2010-11-24 威盛电子股份有限公司 相机的自动对焦方法与数字相机
JP5073461B2 (ja) * 2007-11-29 2012-11-14 クラリオン株式会社 車両周辺監視システム
JP4871909B2 (ja) * 2008-04-25 2012-02-08 日立オートモティブシステムズ株式会社 物体認識装置、および物体認識方法
JP5381133B2 (ja) * 2009-02-02 2014-01-08 株式会社ニコン 再生装置、撮像装置およびプログラム
JP5714232B2 (ja) * 2009-03-12 2015-05-07 オムロン株式会社 キャリブレーション装置および3次元計測のためのパラメータの精度の確認支援方法
JP2010256995A (ja) * 2009-04-21 2010-11-11 Daihatsu Motor Co Ltd 物体認識装置
JP5385740B2 (ja) * 2009-09-25 2014-01-08 キヤノン株式会社 撮像装置及び画像データの補正方法
JP2012198031A (ja) * 2011-03-18 2012-10-18 Ricoh Co Ltd 画像補正方法及び画像補正装置
JP5898475B2 (ja) 2011-11-28 2016-04-06 クラリオン株式会社 車載カメラシステム及びその較正方法、及びその較正プログラム
WO2013111229A1 (ja) * 2012-01-23 2013-08-01 日本電気株式会社 カメラ校正装置、カメラ校正方法およびカメラ校正用プログラム

Also Published As

Publication number Publication date
WO2016063796A1 (ja) 2016-04-28
CN107079093A (zh) 2017-08-18
US10638115B2 (en) 2020-04-28
CN107079093B (zh) 2020-02-21
JP2016086250A (ja) 2016-05-19
US20170289526A1 (en) 2017-10-05

Similar Documents

Publication Publication Date Title
JP6619927B2 (ja) キャリブレーション装置
CN107273846B (zh) 一种人体体型参数确定方法及装置
JP6534499B1 (ja) 監視装置、監視システム、及び、監視方法
CN105283129B (zh) 信息处理装置、信息处理方法
JP6295645B2 (ja) 物体検出方法及び物体検出装置
WO2017156894A1 (zh) 身高测量系统和方法
JP6424163B2 (ja) ビデオ内の対象物を検出するための方法、装置及びシステム
JP7355974B2 (ja) 距離推定装置および方法
JP2020529685A5 (ja)
JP2018148422A (ja) 情報処理システム、情報処理装置、情報処理方法ならびに情報処理方法をコンピュータに実行させるプログラム
JP6352208B2 (ja) 三次元モデル処理装置およびカメラ校正システム
CN110598590A (zh) 基于多视角相机的紧密交互人体姿态估计方法及装置
JP2007233523A (ja) 非同期カメラ映像を用いた人物位置推定方法及びそのシステム
JP6503079B2 (ja) 特定人物検知システム、特定人物検知方法および検知装置
JP2005077385A (ja) 画像対応付け方法ならびに測量方法およびそれらを利用する計測システム
JP7224832B2 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2022127181A1 (zh) 客流的监测方法、装置、电子设备及存储介质
KR101469099B1 (ko) 사람 객체 추적을 통한 자동 카메라 보정 방법
JP2017091063A (ja) 物体検知装置、情報処理装置およびその方法
Russo et al. A new approach to obtain metric data from video surveillance: Preliminary evaluation of a low-cost stereo-photogrammetric system
JP4914870B2 (ja) 混雑度計測装置、混雑度計測方法、混雑度計測プログラムおよびそのプログラムを記録した記録媒体
KR20140031129A (ko) 사용자 인터렉션에 기반한 전방위 영상의 가상면 생성 방법
JP6374812B2 (ja) 三次元モデル処理装置およびカメラ校正システム
Kochi et al. 3D modeling of architecture by edge-matching and integrating the point clouds of laser scanner and those of digital camera
CN111028299A (zh) 基于图像中点属性数据集计算标定点空间距的系统和方法

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170110

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170112

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180612

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180807

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181211

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190212

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190611

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190909

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190918

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191023

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191118

R150 Certificate of patent or registration of utility model

Ref document number: 6619927

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150