JP4291048B2 - Imaging device - Google Patents
Imaging device Download PDFInfo
- Publication number
- JP4291048B2 JP4291048B2 JP2003163718A JP2003163718A JP4291048B2 JP 4291048 B2 JP4291048 B2 JP 4291048B2 JP 2003163718 A JP2003163718 A JP 2003163718A JP 2003163718 A JP2003163718 A JP 2003163718A JP 4291048 B2 JP4291048 B2 JP 4291048B2
- Authority
- JP
- Japan
- Prior art keywords
- dimensional
- dimensional coordinate
- detected object
- coordinates
- coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000003384 imaging method Methods 0.000 title claims description 32
- 238000006243 chemical reaction Methods 0.000 claims description 21
- 238000005259 measurement Methods 0.000 description 13
- 238000000034 method Methods 0.000 description 9
- 238000012544 monitoring process Methods 0.000 description 9
- 238000001914 filtration Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 238000012806 monitoring device Methods 0.000 description 2
- 238000004091 panning Methods 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Description
【0001】
【発明の属する技術分野】
本発明は、撮影手段を用いた撮影装置に関し、主に撮影対象点の三次元座標位置を撮影するように、簡単で判りやすい操作で撮影手段を制御することができるものに関する。
【0002】
【従来の技術】
撮影装置は、例えば監視装置に使用されることがある。ビデオカメラ等の動画像を撮影することができる撮影手段によって撮影領域を撮影する。このような撮影装置では、撮影された画像の中心に撮影対象点が映し出されるように、撮影手段をパン、チルトすることがある。このような装置の一例が特許文献1に示されている。
【0003】
【特許文献1】
特開2002−101408号公報
【0004】
特許文献1に開示された技術では、ステレオ視法を用いた測定を行うために2台以上の測定用カメラが設置されている。これら測定用カメラで撮影された映像がそれぞれ2台以上の測定用モニタに表示されている。測定用カメラとは別に撮影区域内の監視を行うための監視用カメラも設置されている。2台以上の測定用モニタに表示された各画像において、入力手段によって同一の撮影対象物が指定される。この入力手段により指定された撮影対象物の位置を、各測定用カメラの画像から、位置測定手段が算出する。この算出された撮影対象物の位置に基づいて、監視カメラ駆動制御手段が、監視用カメラによって撮影対象物が撮影できるように監視用カメラの撮影方向を制御する。
【0005】
【発明が解決しようとする課題】
この特許文献1の技術では、ステレオ視法を用いて、撮影対象物の各測定用カメラからの位置を決定している。そのため、撮影対象物の位置決定のために、2台以上の測定用カメラと2台以上の測定用モニタとが必要であり、撮影装置のコストが高くなる。
【0006】
しかも、撮影対象物の位置を決定するためには、監視員は、2台以上の測定用モニタの画像それぞれにおいて、撮影対象物を特定するための操作を行わなければなら無い。また、監視員は、2台以上の測定用モニタを見るために、視点の移動を行わなければならない。従って、撮影対象物を速やかに指定することが困難である。
【0007】
しかも、この撮影対象物の指定は、撮影区域内の同じ位置に撮影対象物が存在する状態で行わなければ、撮影対象物を正確に監視用カメラによって撮影することができない。しかし、撮影対象物が例えば人体のように移動するものである場合、一方の測定用モニタにおいて撮影対象物を指定した後、他の測定用モニタにおいて撮影対象物を指定したときには、撮影対象物が移動している可能性がある。これを避けるためには、各監視用モニタにおいて迅速に撮影対象物を指定する必要がある。従って、1台の監視用モニタにおいて撮影対象物を指定することができる撮影装置が必要である。
【0008】
本発明は、1台のカメラによって得られた二次元画像上で、被検知物体を特定することによって、被検知物体の三次元座標位置、特に高さを自動的に得ることができる撮影装置を提供することを目的とする。
【0009】
【課題を解決するための手段】
本発明による撮影装置は、1台の撮影装置を有している。この撮影手段は、三次元空間上にある基準面と、この基準面上にある被検知物体とを二次元で撮影するように固定されている。三次元空間は、第1の三次元座標軸、第1の三次元座標軸に直交する第2の三次元座標軸並びに第1及び第2の三次元座標軸に直交する第3の三次元座標軸によって規定されている。基準面は、第3の三次元座標軸に直交し、その第3の三次元座標軸上の位置が既知のものである。基準面は、例えば三次元空間上にある床面とすることもできるし、或いは、この床面よりも所定の高さにある面とすることもできる。被検知物体は、この基準面上に一端が位置し、他端が第3の三次元座標軸方向に前記基準面から離れて位置する。この撮影手段によって撮影される二次元画面は、第1の二次元座標軸に直交する第2の二次元座標軸とによって規定されている。この二次元画面には、前記基準面を撮影した像である二次元基準面と、前記被検知物体を撮影した被検知物体像とが、含まれている。被検知物体撮影像確定手段が、前記二次元画像から前記被検知物体像を確定する。この被検知物体像の確定は、例えば複数フレームの二次元画像を用いて、フレーム間差分をとることによって行うこともできるし、或いは表示手段によって表示されている二次元画像を目視で確認して、マウス等の操作手段を操作することによって行うこともできる。この被検知物体撮影像確定手段によって確定された被検知物体の撮影像に基づいて、二次元座標決定手段が、前記被検知物体の一端に相当する前記被検知物体像の一端の二次元座標である第1の二次元座標と、前記被検知物体の他端に相当する前記被検知物体像の他端の二次元座標である第2の二次元座標とを、決定する。前記被検知物体の一端が前記基準面に接していることにより前記被検知物体の一端の第3の三次元座標軸上の位置が判明していることを条件として設定して、第1の座標変換手段が、第1の二次元座標を第1の三次元座標に変換する。第2の二次元座標を第2の三次元座標に変換し、第2の座標変換手段が出力する。第2の座標変換手段での変換は、第2の三次元座標のうち、第1または第2の三次元座標軸の位置を第1の三次元座標の第1または第2の三次元座標軸の位置に設定して行う。
【0010】
一般に二次元座標を三次元座標に変換するには、三次元座標の3つの座標軸のうち少なくとも1つの座標軸上の値が必要である。このように構成した撮影装置では、被検知物体の画像の第1の二次元座標が二次元基準面上にあることを利用して、即ち、三次元座標に変換した場合、基準面上の座標となる(第3の三次元座標軸上の値が判明している)ことを利用して、第1の変換手段が第1の二次元座標を第1の三次元座標に変換している。さらに、第2の二次元座標を三次元座標に変換する場合、第2の三次元座標のうちの第1または第2の三次元座標軸における位置が第1の三次元座標の第1または第2の三次元座標軸の位置に一致することを前提として、即ち、第2の三次元座標の内、第1及び第2の三次元座標軸の一方の軸上の位置が既知であるとし、第2の座標変換手段が第2の二次元座標を第2の三次元座標に変換している。
【0011】
このようにして第2の三次元座標が求められるので、第1及び第2の三次元座標における第3の三次元座標軸の値の差を求めることによって、被検知物体の基準面からの高さを求めることができる。決定された高さは、適当な表示手段、例えば二次元画面が表示されているのと同じ表示手段に、表示することができる。この高さの決定は、二次元画面において被検知物体を検知することによって自動的に行われ、操作者が三次元空間における高さを設定する必要はない。
【0012】
前記1台の撮影手段とは別の撮影手段を、少なくともパン及びチルトを調整可能に設けることもできる。1台だけ別の撮影手段を設けることもできるし、複数台の別の撮影手段を設けることもできる。別の撮影手段は、ズーム機能を備えるものであってもよい。この場合、第2の座標変換手段から入力された第2の三次元座標に基づいて前記別の撮影手段の前記パン及びチルトを制御する制御手段が設けられている。このパン及びチルトの制御は、例えば、第2の三次元座標における第1及び第2の座標軸上の位置であって、かつ第2の三次元座標における第3の座標軸上の値に関連する値、例えば第3の座標軸上の値に適当なバイアスを付加した値の位置を、別の撮影手段が撮影するように、行うことができる。
【0013】
このように構成することによって、被検知物体を撮影するように別の撮影手段を制御することができる。特に、被検知物体の三次元座標を求め、その座標の位置を撮影するように制御しているので、複数台の撮影手段の制御であっても、容易に行うことができる。
【0014】
さらに、前記二次元座標決定手段は、前記被検知物体が移動するごとにまたは検出されるごとに第1及び第2の二次元座標を決定することができる。この場合、第1の座標変換手段は、第1の二次元座標が決定されるごとに、第1の二次元座標を第1の三次元座標に変換する。第2の座標変換手段は、第2の二次元座標が決定されるごとに、これを第2の三次元座標に変換する。前記制御手段は、第2の三次元座標が得られるごとに、この第2の三次元座標に基づいて前記別の撮影手段を制御する。
【0015】
このように構成することによって、被検知物体が移動するものであっても、被検知物体を自動追尾して、別の撮影手段によって撮影することができる。
【0016】
【発明の実施の形態】
本発明の1実施形態の撮影装置は、例えば映像による監視装置に本発明を実施したものである。この監視装置は、図1に示すように、1台の撮影手段、例えばマスターカメラ2を有している。マスターカメラ2は、例えば広角のビデオカメラで、撮影領域、例えば特定の部屋の所定の範囲を撮影するように、例えば特定の部屋の天井若しくは側壁に取り付けられている。この撮影領域は、図2(b)に示すように、第1の三次元座標軸、例えばx軸、第2の三次元座標軸、例えばy軸及び第3の三次元座標軸、例えばz軸で規定される三次元空間である。x軸とy軸とは直交し、さらに、x、y軸にz軸が直交している。これらx、y及びz軸の直交点が原点である。この三次元空間は、基準面、例えば床4を有している。この床4は、例えば、x軸とy軸とが通る平面上にある。
【0017】
マスターカメラ2の撮影信号は、ビデオキャプチャーボード6を介して制御手段、例えばパーソナルコンピュータ8に入力され、例えばLCDやCRT等の表示装置10上の表示手段、例えばマスターカメラ用ウインドウに表示されている。図2(a)にマスターカメラ用ウインドウに表示されている二次元画面を示す。この画面は、左上隅を原点とする第1の二次元座標軸、例えば水平方向のU軸と、第1の二次元座標軸と直交する第2の二次元座標軸、例えば垂直方向のV軸とによって規定されている。この二次元画面上に、床4が基準二次元領域4aとして表示されている。
【0018】
マスターカメラ2はパーソナルコンピュータ8が使用するプログラムによってキャリブレーションされている。例えば、図2(b)に示す三次元空間座標と同図(a)に示す二次元座標とを考えた場合、三次元空間座標上の位置に対応する二次元座標位置を決定することができる。このキャリブレーションの手法は公知であるので、詳細な説明は省略する。
【0019】
マスターカメラ2の他に、複数台、例えば4台の別の撮影手段、例えばスレーブカメラ12が配置されている。これらスレーブカメラ12は、パン、チルト及びズーム操作がそれぞれ可能なビデオカメラである。これらスレーブカメラ12は、それぞれ任意の異なる位置、例えば特定の部屋の天井四隅に配置されている。各スレーブカメラ12の撮影信号も、ビデオキャプチャーボード6を介してパーソナルコンピュータ8に入力され、表示装置10の各スレーブカメラ用ウインドウに表示されている。なお、1台の表示装置10において、マスターカメラ及び各スレーブカメラの画像を表示したが、マスターカメラ、各スレーブカメラ用に1台ずつ表示装置を設けることもできる。
【0020】
これらスレーブカメラ12のパン、チルト及びズームの操作は、パーソナルコンピュータ8からの制御信号に基づいて行われる。即ち、パーソナルコンピュータ8は、スレーブカメラ12の制御手段として機能する。
【0021】
また、パーソナルコンピュータ8には、例えばマウスや、キーボード等の操作部14も設けられている。
【0022】
この実施の形態の監視装置では、図3に示すように、マスターカメラの撮像信号から被検知物体を検出する(ステップS2)。この被検知物体は、複数の存在することがある。これら被検知物体の二次元座標を決定し、これら二次元座標から各被検知物体の三次元座標(実世界座標)、被検知物体の高さ及び大きさ(サイズ)を決定する(ステップS4)。各被検知物体のサイズを基に、スレーブカメラ12によって撮影する被検知物体を決定する。即ちサイズに基づくフィルタリングを行う(ステップS6)。この決定された被検知物体を各スレーブカメラが撮影するように、各スレーブカメラ12のパン、チルト及びズームの制御が行われる(ステップS8)。そして、再びステップS2から実行する。従って、或る被検知物体が床4上を移動していると、この被検知物体をスレーブカメラ12によって自動追尾して撮影することができる。
【0023】
そこで、この実施形態では、上述したようにマスターカメラの撮影信号から移動物体を検出している。この検出は、パーソナルコンピュータ8が行う。例えば、マスターカメラ2の撮影信号のうち、連続または接近した複数例えば2枚のフレームの差分をとることによって、移動している物体を抽出し、これを被検知物体の部分と決定する。或いは、被検知物体が撮影されていない背景フレームをメモリに予め記憶させておいて、この背景フレームと撮影された最新のフレームとの差分を取ることによって、被検知物体を検出することもできる。画像処理による被検知物体の検出法として、これら以外にも公知の種々の手法を採用できる。
【0024】
次に、図2(a)に示すように、この被検知物体の部分を接して囲うように、例えば矩形の枠体Aをパーソナルコンピュータ8が決定する。この枠体Aは、その下部が必ず基準二次元領域4aに接触するように決定する。基準面として床4を使用しているので、被検知物体が、例えば人体のような移動物体である場合には、床面上にある確率は非常に高い。この枠体Aの下部のV軸方向の座標をVbottomと、上部のV軸方向の座標をVtopと決定する。同じく、枠体Aの左右方向の右端のU軸方向の座標をUrightと、左端のU軸方向の座標をUleftとパーソナルコンピュータ8が決定する。このようにして被検知物体の二次元座標、例えば枠体Aの4隅の二次元座標が取得され、パーソナルコンピュータ8が、二次元座標検出手段として機能している。
【0025】
なお、マスターカメラ用ウインドウを目視し、例えば操作部14を二次元座標指定手段として使用して、被検知物体に接して囲うように、マスターカメラ用ウインドウにおいて枠体Aを描き、これら枠体Aの上述した各座標Vbottom、Vtop、Uright、Uleftを、パーソナルコンピュータ8によって取得することによって、移動物体を囲う枠体Aの4隅の二次元座標を取得することもできる。
【0026】
このようにして求めた各二次元座標を基に、被検知物体の三次元座標を求めるが、上述したように、マスターカメラ用ウインドウに表示された画像はキャリブレーションされているので、三次元空間である撮影領域との対応が取られ、三次元空間上の或る座標位置を、マスターカメラ用ウインドウの画面上の座標位置に変換することは可能である。しかし、逆に、マスターカメラ用ウインドウの画面上の座標位置(二次元座標)を三次元空間上の座標に直接に変換することはできない。
【0027】
そこで、図3のステップS4の処理は、図4に詳細に示すように行われている。まず、二次元基準領域4a上にある座標(Uleft、Vbottom)を三次元空間に変換したとき、基準領域4上にある、即ちz軸方向の位置は0であることは明らかであるので、ステップS10において、座標(Uleft、Vbottom)が三次元座標に変換されたz軸方向の値zw=0を条件として、第1の3次元空間座標(x1、y1、0)にパーソナルコンピュータ8が変換する。同様に、ステップS10において、二次元基準領域4a上にあるもう1つの座標(Uright、Vbottom)もzw=0を条件として第1の3次元空間座標(x2、y2、0)に変換する。このようにパーソナルコンピュータ8は第1の三次元座標変換手段として機能する。上記の前提をおいているので、この座標変換は容易に行える。この変換された基準面4上の座標(x1、y1、0)、(x2、y2、0)を図2(b)に示す。
【0028】
これら座標変換を、図5を参照して説明する。この座標変換では、図5に示すようなマスターカメラ2の中心cとマスターカメラ2の画像上の座標(u,v)、例えば上述した(Uleft、Vbottom)または(Uright、Vbottom)を通る3次元座標空間における直線Aを求め、その直線が床面に交差する点aを対象物の位置(xw、yw、0)として計算する。この(xw、yw、0)が、上述した(x1、y1、0)または(x2、y2、0)に相当する。
【0029】
ここで、図5に示す三次元座標(xw、yw、zw)とマスターカメラ2のカメラ座標(x、y、z)との関係は、次式で表される。次式においてRは3行3列の回転行列、Tは平行移動ベクトル[Tx、Ty、Tz]Tである。
【0030】
【数1】
【0031】
まず、マスターカメラ2の画像上の座標(u,v)を、マスターカメラ2の画像平面X−Y(その中心が原点0であり、この原点0がマスターカメラ2の座標の原点cに対応している平面)における座標(Xd、Yd)に、次式によって変換する。但し、uc、vcは、マスターカメラ2の画像座標の中心を表す。
【0032】
【数2】
【0033】
座標点(Xd、Yd)をマスターカメラ2におけるレンズ歪みを修正した座標点(Xu、Yu)に次式によって変換する。但し、rは画像中心からの距離であり、Sは画像座標の縦横比、k1、k2はレンズ歪み係数である。
【0034】
【数3】
【0035】
図5において、マスターカメラ2の座標の原点cから画像上の(Xu、Yu)点を通過する光線ベクトルVr=[xv、yv、zv]Tは、次式によって表される。fは、マスターカメラ2の座標における焦点距離とする。
【0036】
【数4】
【0037】
光線ベクトルVrを3次元空間上の直線で表すと、次式となる。但し、αは実数である。
【0038】
【数5】
【0039】
ここで、床面4がxw−yw平面に平行であり、zw=0であると仮定しているので、上記直線が床面4と交わるときのαを次式によって決定することができる。
【0040】
【数6】
【0041】
数6に求めたαの値を数5に代入することによって、画像座標点(u、v)に対応した三次元座標点(xw、yw、0)を、次式によって求めることができる。
【0042】
【数7】
【0043】
数7を使用することによって、上述した(Uleft、Vbottom)、(Uright、Vbottom)を、(x1、y1、0)、(x2、y2、0)に変換できる。
【0044】
次に、二次元座標(Uleft、Vtop)と、(Uright、Vtop)とを、第2の三次元空間座標に変換するが、このとき、二次元座標(Uleft、Vtop)は、先の座標(Uleft、Vbottom)とUleftが共通である。従って、二次元座標(Uleft、Vtop)を三次元座標に変換したx軸及びはy軸の値は、(Uleft、Vbottom)を三次元座標に変換した値(x1、y1、0)のx軸及びy軸の値x1、y1と等しいと考えられる。そこで、ステップS12において、変換されるx軸方向の値xw=x1またはy軸方向の値yw=y1を条件として、(Uleft、Vbottom)を三次元空間座標(x1、y1、z1)に変換する。
【0045】
例えば、(x1、y1、0)を通るyw−zw平面を考え、(Uleft、Vbottom)を通る光線を数5から求める。ここでは数5における実数αをβとする。その光線が、xw−zw平面(この平面はzw≠0)と交差するβを次式によって求める。
【数8】
【0046】
βの値を数5に代入することで、(Uleft、Vbottom)に対応した三次元座標(x1、y1、z1)を求めることができる。なお、(x1、y1、0)を通るxw−zw平面を考え、(Uleft、Vbottom)を通る光線を数5から求める際に、βを次式によって求めることもできる。
【0047】
【数9】
【0048】
同様にして、ステップS14において、(Uright、Vtop)の三次元座標への変換後のx軸方向の値xw=x2またはy軸方向の値yw=y2を条件として、(Uright、Vtop)を三次元空間座標(x2、y2、z2)に変換する。従って、パーソナルコンピュータ8は、第2の三次元座標変換手段としても、機能する。変換された三次元空間座標(x1、y1、z1)、(x2、y2、z2)を図2(a)に示す。
【0049】
このようにして被検知物体を囲う枠体Aの4隅の二次元座標(Uleft、Vbottom)、(Uright、Vbottom)、(Uleft、Vtop)、(Uright、Vtop)を三次元座標(x1、y1、0)、(x2、y2、0)、(x1、y1、z1)、(x2、y2、z2)に変換する。
【0050】
これら4つの三次元座標(x1、y1、0)、(x2、y2、0)、(x1、y1、z1)、(x2、y2、z2)を用いて、被検知物体の高さhと、横幅wとを算出する。
【0051】
まず、ステップS16において、z1とz2との平均値(z1+z2)/2を算出し、高さhを求める。図2(a)では、z1とz2とを同じ高さに描いてあるが、実際には、異なった高さになることがあるので、その場合に備えて、z1とz2との平均を高さhとしている。
【0052】
このようにして物体の三次元における注目している部分の床面4からの高さ、例えば物体の床面4からの高さを知ることができる。例えば物体が人体であった場合で、その注目している部分を人体の頭頂部とすれば、その身長を知ることができ、防犯上有用である。この高さhは、例えばマスターカメラ用ウインドウに表示する。
【0053】
次に、ステップS18において、(x2−x1)2+(y2−y1)2の平方根を求めることによって、被検知物体の横幅wを算出する。この横幅wを用いて、ステップS6のフィルタリングが行われる。
【0054】
続いて、ステップS20において、スレーブカメラ12の中心で撮影する三次元座標を、(x1+x2)/2、(y1+y2)/2、h−α(αは予め定めた値)の演算を行って求める。ここで、(x1+x2)/2、(y1+y2)/2は、被検知物体の中心が位置するx、y軸上の値を示している。またh−αの演算を行っているのは次の理由による。hが被検知物体の高さを示しており、被検知物体が例えば人体である場合には、hは、床面4を基準とした頭の先端の高さを示している。人体を撮影する場合には、その顔の部分がスレーブカメラ12の中心に捉えられることが望ましい。従って、顔が捉えられるように、hよりもαだけ低い位置を撮影するようにh−αの演算を行っている。
【0055】
このようにして被検知物体の撮影しようとしている部分の三次元座標位置が得られる。このとき、複数の被検知物体がある場合、いずれの被検知物体を撮影するかを決定するために、ステップS8によって横幅wに基づくフィルタリングが行われている。なお、このフィルタリングは、横幅wだけでなく高さhも含めて行うこともできるし、高さhだけで行うこともできる。高さhだけでフィルタリングを行う場合には、横幅wの算出は不要である。
【0056】
撮影する被検知物体が決定されると、ステップS20において決定した被検知物体の座標を中心として各スレーブカメラ12が撮影するように、ステップS8において各スレーブカメラ12のパン角度、チルト角度、ズーム倍率をパーソナルコンピュータ8が計算し、計算された角度及び倍率となるように各スレーブカメラ12を制御する。
【0057】
この角度及び倍率の計算は、物体の撮影しようとしている部分の三次元座標が判明しているので、この三次元座標と、予め判明している各スレーブカメラ12の三次元座標とを利用して、容易に行える。このように異なる任意の位置にある各スレーブカメラ12によって物体を同時に撮影することができるので、物体が人体であり、その注目している部分が頭部である場合に、例えば1台のスレーブカメラで物体を撮影したが、後姿しか映し出されていないというような場合、他のスレーブカメラにより別の方向から撮影することにより、顔を捉えることができる確率が高くなる。或いは、撮影領域4上にある何らかの静止物によって遮蔽されて、物体を全く撮影できないと言う事態を回避することもできる。なお、物体が人体等の移動体である場合には、その移動体が移動するごとに、追尾することができる。なお、撮影しようとする物体が静止物体であることもある。
【0058】
上記の実施の形態では、4台のスレーブカメラ12を用いたが、その台数は任意に設定することができ、最小限度1台のスレーブカメラ12を設けることもできる。また、物体の三次元空間における座標及び高さを取得し、適切な表示手段に表示するだけでよい場合には、スレーブカメラ12は不要である。
【0059】
また、上記の実施の形態では、枠体Aの4隅の二次元座標を用いたが、二次元基準領域4a上の二次元座標、例えば(Uleft+Uright)/2、Vbottomと、同じU軸上の値を持ち、V軸方向に異なる値を持つ二次元座標、例えば(Uleft+Uright)/2、Vtopとを、用いてもよい。この場合には、(Uleft+Uright)/2、Vbottomをzw=0として三次元に座標変換し、これによって得られたx軸上の値またはy軸上の値が共通するとして、(Uleft+Uright)/2、Vtopを三次元に座標変換する。
【0060】
また、上記の実施の形態では、被検知物体が人体である場合に備えて、αの値を顔が撮影できるような場合としたが、αの値を適切に選択することによって、例えば、腰の当たり、胸の当たりを中心にスレーブカメラ12によって撮影することもできる。また、上記の実施の形態では、高さhからαを減算したが、適当な係数Kを高さhに乗算しても良い。上記の実施の形態では、基準面を床面4としたが、これに限ったものではなく、床面4から垂直に予め定めた距離だけ離れた位置を基準面とすることもでき、またマスターカメラ2やスレーブカメラ12の設置位置や物体の通過位置によっては、天井面とすることもできる。
【0061】
上記の実施の形態では、マスターカメラ2には、固定カメラを使用している。従って、パン、チルト及びズームの制御は行えない。しかし、パン、チルト及びズーム操作可能なカメラをマスターカメラとして使用することもできる。その場合、このカメラによってパン、チルト及びズームがそれぞれ異なる画像が得られるが、これら映像ごとにキャリブレーションを行っておく必要がある。例えば、異なるパン、チルト及びズーム位置をそれぞれプリセット記憶しておいて、これらプリセットそれぞれに対してキャリブレーションを行っておけば、そのプリセット位置を再生してマスターカメラとして使用することも可能である。
【0062】
上記の実施の形態では、本発明を映像による監視装置に実施したが、これに限ったものではなく、例えばカメラマンが一人で特定の撮影対象物、特に移動物体を多視点で撮影するシステム等に使用することもできる。
【0063】
【発明の効果】
以上のように、本発明によれば、1台の撮影手段によって得られた映像に基づいて、自動的に被検知物体の三次元座標位置を取得することができ、特に基準面からの高さを取得することができる。また、この取得された三次元座標に基づいて、任意の位置に設けた少なくとも1台の別の撮影手段が、被検知物体を中心として迅速に撮影することもできる。
【図面の簡単な説明】
【図1】本発明の第1の実施形態の撮影装置のブロック図である。
【図2】図1の撮影装置において二次元座標位置から三次元座標位置を決定する過程を示す図である。
【図3】図1の撮影装置において実行される処理の概略を示すフローチャートである。
【図4】図4のフローチャートにおけるステップS4の処理の詳細なフローチャートである。
【図5】図1の撮影装置において二次元座標位置から床面上の三次元座標位置を決定する手法の説明図である。
【符号の説明】
2 マスターカメラ(撮影手段)
4 床(基準面)
8 パーソナルコンピュータ(二次元座標決定手段、第1及び第2の座標変換手段)
12 スレーブカメラ(別の撮影手段)[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an imaging apparatus using an imaging unit, and more particularly to an apparatus capable of controlling an imaging unit with a simple and easy-to-understand operation so as to capture a three-dimensional coordinate position of an imaging target point.
[0002]
[Prior art]
An imaging device may be used for a monitoring device, for example. The photographing area is photographed by photographing means capable of photographing a moving image such as a video camera. In such a photographing apparatus, the photographing means may be panned and tilted so that the photographing target point is projected at the center of the photographed image. An example of such an apparatus is shown in Patent Document 1.
[0003]
[Patent Document 1]
JP 2002-101408 A
[0004]
In the technique disclosed in Patent Document 1, two or more measurement cameras are installed in order to perform measurement using stereo vision. Images taken by these measurement cameras are respectively displayed on two or more measurement monitors. In addition to the measurement camera, a surveillance camera is also installed to monitor the shooting area. In each image displayed on two or more measurement monitors, the same object to be photographed is designated by the input means. The position measuring means calculates the position of the photographing object designated by the input means from the images of the respective measurement cameras. Based on the calculated position of the shooting target, the monitoring camera drive control means controls the shooting direction of the monitoring camera so that the shooting target can be shot by the monitoring camera.
[0005]
[Problems to be solved by the invention]
In the technique of this patent document 1, the position from each measuring camera of the object to be photographed is determined using stereo vision. Therefore, two or more measurement cameras and two or more measurement monitors are required to determine the position of the object to be imaged, which increases the cost of the image capturing apparatus.
[0006]
In addition, in order to determine the position of the object to be imaged, the monitor must perform an operation for specifying the object to be imaged in each of the images of the two or more measurement monitors. In addition, the observer must move the viewpoint in order to see two or more measurement monitors. Therefore, it is difficult to quickly specify the photographing object.
[0007]
Moreover, the imaging object cannot be accurately captured by the monitoring camera unless the imaging object is specified in a state where the imaging object exists at the same position in the imaging area. However, when the object to be photographed moves like a human body, for example, when the object to be photographed is designated on the other monitor for measurement after the object to be photographed is designated on the other monitor for measurement, the object to be photographed is It may be moving. In order to avoid this, it is necessary to quickly specify the object to be photographed on each monitoring monitor. Therefore, there is a need for an imaging apparatus that can specify an imaging object on one monitoring monitor.
[0008]
The present invention provides an imaging apparatus capable of automatically obtaining a three-dimensional coordinate position, particularly a height of a detected object by specifying the detected object on a two-dimensional image obtained by one camera. The purpose is to provide.
[0009]
[Means for Solving the Problems]
The photographing apparatus according to the present invention has one photographing apparatus. The photographing means is fixed so as to photograph a reference surface in a three-dimensional space and a detected object on the reference surface in two dimensions. The three-dimensional space is defined by a first three-dimensional coordinate axis, a second three-dimensional coordinate axis orthogonal to the first three-dimensional coordinate axis, and a third three-dimensional coordinate axis orthogonal to the first and second three-dimensional coordinate axes. Yes. The reference plane is orthogonal to the third three-dimensional coordinate axis, and the position on the third three-dimensional coordinate axis is known. The reference surface can be a floor surface in a three-dimensional space, for example, or can be a surface at a predetermined height from the floor surface. The detected object has one end positioned on the reference plane and the other end positioned away from the reference plane in the third three-dimensional coordinate axis direction. The two-dimensional screen imaged by this imaging means is defined by a second two-dimensional coordinate axis orthogonal to the first two-dimensional coordinate axis. The two-dimensional screen includes a two-dimensional reference surface that is an image obtained by photographing the reference surface, and a detected object image obtained by photographing the detected object. A detected object captured image determination unit determines the detected object image from the two-dimensional image. The detection object image can be determined by taking a difference between frames using, for example, a two-dimensional image of a plurality of frames, or visually confirming a two-dimensional image displayed by the display means. It can also be performed by operating an operation means such as a mouse. Based on the captured image of the detected object determined by the detected object captured image determination unit, the two-dimensional coordinate determination unit includes: One end of the detected object image corresponding to one end of the detected object A first two-dimensional coordinate that is a two-dimensional coordinate; Corresponds to the other end of the detected object A second two-dimensional coordinate that is a two-dimensional coordinate of the other end of the detected object image is determined. The first coordinate transformation is performed on the condition that one end of the detected object is in contact with the reference plane and the position of the one end of the detected object on the third three-dimensional coordinate axis is known. Means convert the first two-dimensional coordinates to first three-dimensional coordinates. The second two-dimensional coordinate is converted into the second three-dimensional coordinate, and the second coordinate conversion means outputs. The conversion by the second coordinate conversion means is performed by converting the position of the first or second three-dimensional coordinate axis to the position of the first or second three-dimensional coordinate axis of the first three-dimensional coordinate among the second three-dimensional coordinates. Set to.
[0010]
In general, in order to convert a two-dimensional coordinate into a three-dimensional coordinate, a value on at least one of the three coordinate axes of the three-dimensional coordinate is necessary. In the imaging apparatus configured as described above, when the first two-dimensional coordinates of the image of the detected object are on the two-dimensional reference plane, that is, when converted into the three-dimensional coordinates, the coordinates on the reference plane are used. (The value on the third three-dimensional coordinate axis is known), and the first conversion means converts the first two-dimensional coordinates into the first three-dimensional coordinates. Further, when the second two-dimensional coordinate is converted into the three-dimensional coordinate, the position of the second three-dimensional coordinate on the first or second three-dimensional coordinate axis is the first or second of the first three-dimensional coordinate. On the assumption that the position of the first three-dimensional coordinate axis coincides with the position of the first three-dimensional coordinate axis of the second three-dimensional coordinate axis. The coordinate conversion means converts the second two-dimensional coordinates into the second three-dimensional coordinates.
[0011]
Since the second three-dimensional coordinates are obtained in this way, the height of the detected object from the reference plane is obtained by obtaining the difference between the values of the third three-dimensional coordinate axes in the first and second three-dimensional coordinates. Can be requested. The determined height can be displayed on a suitable display means, for example the same display means on which the two-dimensional screen is displayed. The determination of the height is automatically performed by detecting the detected object on the two-dimensional screen, and the operator does not need to set the height in the three-dimensional space.
[0012]
An imaging means different from the one imaging means can be provided so that at least pan and tilt can be adjusted. Only one other photographing means can be provided, or a plurality of other photographing means can be provided. Another photographing means may have a zoom function. In this case, there is provided control means for controlling the pan and tilt of the other photographing means based on the second three-dimensional coordinates input from the second coordinate conversion means. This pan and tilt control is, for example, a value on the first and second coordinate axes in the second three-dimensional coordinate and a value related to the value on the third coordinate axis in the second three-dimensional coordinate. For example, the position of a value obtained by adding an appropriate bias to the value on the third coordinate axis can be performed so that another photographing unit photographs the position.
[0013]
With this configuration, it is possible to control another photographing unit so as to photograph the detected object. Particularly, since the control is performed so that the three-dimensional coordinates of the detected object are obtained and the position of the coordinates is photographed, even the control of a plurality of photographing means can be easily performed.
[0014]
Further, the two-dimensional coordinate determining means can determine the first and second two-dimensional coordinates every time the detected object moves or is detected. In this case, the first coordinate conversion means converts the first two-dimensional coordinate into the first three-dimensional coordinate every time the first two-dimensional coordinate is determined. The second coordinate conversion means converts the second two-dimensional coordinate into the second three-dimensional coordinate every time the second two-dimensional coordinate is determined. The control means controls the other photographing means based on the second three-dimensional coordinates every time the second three-dimensional coordinates are obtained.
[0015]
With this configuration, even if the detected object moves, the detected object can be automatically tracked and photographed by another photographing means.
[0016]
DETAILED DESCRIPTION OF THE INVENTION
An imaging apparatus according to an embodiment of the present invention is obtained by, for example, implementing the present invention in a video monitoring apparatus. As shown in FIG. 1, this monitoring apparatus has one photographing unit, for example, a
[0017]
The photographing signal of the
[0018]
The
[0019]
In addition to the
[0020]
The pan, tilt and zoom operations of the
[0021]
The
[0022]
In the monitoring apparatus of this embodiment, as shown in FIG. 3, the detected object is detected from the imaging signal of the master camera (step S2). There may be a plurality of detected objects. The two-dimensional coordinates of these detected objects are determined, and the three-dimensional coordinates (real world coordinates) of each detected object and the height and size (size) of the detected object are determined from these two-dimensional coordinates (step S4). . Based on the size of each detected object, the detected object to be photographed by the
[0023]
Therefore, in this embodiment, the moving object is detected from the photographing signal of the master camera as described above. This detection is performed by the
[0024]
Next, as shown in FIG. 2A, the
[0025]
The master camera window is visually observed. For example, the
[0026]
Based on the two-dimensional coordinates thus obtained, the three-dimensional coordinates of the detected object are obtained. As described above, since the image displayed in the master camera window is calibrated, the three-dimensional space is obtained. It is possible to convert a certain coordinate position in the three-dimensional space into a coordinate position on the screen of the master camera window. However, conversely, the coordinate position (two-dimensional coordinate) on the screen of the master camera window cannot be directly converted to the coordinate in the three-dimensional space.
[0027]
Therefore, the process of step S4 in FIG. 3 is performed as shown in detail in FIG. First, when the coordinates (Uleft, Vbottom) on the two-
[0028]
These coordinate transformations will be described with reference to FIG. In this coordinate conversion, the center c of the
[0029]
Here, the relationship between the three-dimensional coordinates (xw, yw, zw) shown in FIG. 5 and the camera coordinates (x, y, z) of the
[0030]
[Expression 1]
[0031]
First, the coordinates (u, v) on the image of the
[0032]
[Expression 2]
[0033]
The coordinate point (Xd, Yd) is converted into a coordinate point (Xu, Yu) with corrected lens distortion in the
[0034]
[Equation 3]
[0035]
In FIG. 5, a light vector Vr = [xv, yv, zv] passing through the (Xu, Yu) point on the image from the coordinate c of the
[0036]
[Expression 4]
[0037]
When the light vector Vr is represented by a straight line in a three-dimensional space, the following expression is obtained. Where α is a real number.
[0038]
[Equation 5]
[0039]
Here, since it is assumed that the floor surface 4 is parallel to the xw-yw plane and zw = 0, α when the straight line intersects the floor surface 4 can be determined by the following equation.
[0040]
[Formula 6]
[0041]
By substituting the value of α obtained in
[0042]
[Expression 7]
[0043]
By using Equation 7, (Uleft, Vbottom) and (Uright, Vbottom) described above can be converted into (x1, y1, 0), (x2, y2, 0).
[0044]
Next, the two-dimensional coordinates (Uleft, Vtop) and (Uright, Vtop) are converted into the second three-dimensional space coordinates. At this time, the two-dimensional coordinates (Uleft, Vtop) are converted to the previous coordinates ( Uleft, Vbottom) and Uleft are common. Therefore, the x-axis and y-axis values obtained by converting the two-dimensional coordinates (Uleft, Vtop) into the three-dimensional coordinates are the x-axis values obtained by converting (Uleft, Vbottom) into the three-dimensional coordinates (x1, y1, 0). And y-axis values x1 and y1 are considered to be equal. Therefore, in step S12, (Uleft, Vbottom) is converted into three-dimensional space coordinates (x1, y1, z1) on the condition that the value xw = x1 to be converted or the value yw = y1 in the y-axis direction is converted. .
[0045]
For example, a yw-zw plane passing through (x1, y1, 0) is considered, and a ray passing through (Uleft, Vbottom) is obtained from Equation 5. Here, the real number α in Equation 5 is β. Β in which the ray intersects the xw-zw plane (this plane is zw ≠ 0) is obtained by the following equation.
[Equation 8]
[0046]
By substituting the value of β into Equation 5, three-dimensional coordinates (x1, y1, z1) corresponding to (Uleft, Vbottom) can be obtained. In addition, considering the xw-zw plane passing through (x1, y1, 0), β can also be obtained by the following equation when the light ray passing through (Uleft, Vbottom) is obtained from Equation 5.
[0047]
[Equation 9]
[0048]
In the same manner, in step S14, (Uright, Vtop) is converted into a cubic value on the condition that the value xw = x2 in the x-axis direction after conversion into the three-dimensional coordinates of (Uright, Vtop) or the value yw = y2 in the y-axis direction. Convert to original space coordinates (x2, y2, z2). Therefore, the
[0049]
In this way, the two-dimensional coordinates (Uleft, Vbottom), (Uright, Vbottom), (Uleft, Vtop), (Uright, Vtop) of the four corners of the frame A surrounding the detected object are represented by the three-dimensional coordinates (x1, y1). , 0), (x2, y2, 0), (x1, y1, z1), (x2, y2, z2).
[0050]
Using these four three-dimensional coordinates (x1, y1, 0), (x2, y2, 0), (x1, y1, z1), (x2, y2, z2), the height h of the detected object, The width w is calculated.
[0051]
First, in step S16, an average value (z1 + z2) / 2 of z1 and z2 is calculated to obtain the height h. In FIG. 2 (a), z1 and z2 are drawn at the same height, but in actuality, they may have different heights. Therefore, in preparation for this case, the average of z1 and z2 is increased. H.
[0052]
In this way, it is possible to know the height from the floor surface 4 of the portion of interest in three dimensions of the object, for example, the height from the floor surface 4 of the object. For example, when the object is a human body, if the focused part is the top of the human body, its height can be known, which is useful for crime prevention. The height h is displayed on a master camera window, for example.
[0053]
Next, in step S18, (x2-x1) 2 + (Y2-y1) 2 The lateral width w of the detected object is calculated by obtaining the square root of. Filtering in step S6 is performed using the horizontal width w.
[0054]
Subsequently, in step S20, three-dimensional coordinates to be photographed at the center of the
[0055]
In this way, the three-dimensional coordinate position of the part to be photographed of the detected object is obtained. At this time, if there are a plurality of detected objects, filtering based on the width w is performed in step S8 in order to determine which detected object is to be imaged. This filtering can be performed not only for the horizontal width w but also for the height h, or only for the height h. When filtering is performed using only the height h, it is not necessary to calculate the width w.
[0056]
When the detected object to be photographed is determined, step S S is performed so that each
[0057]
In the calculation of the angle and the magnification, since the three-dimensional coordinates of the portion to be photographed of the object are known, the three-dimensional coordinates and the three-dimensional coordinates of each
[0058]
In the above embodiment, four
[0059]
In the above embodiment, the two-dimensional coordinates of the four corners of the frame A are used. However, the two-dimensional coordinates on the two-
[0060]
Further, in the above embodiment, the case where the face can be photographed with the value of α is prepared in preparation for the case where the detected object is a human body. It is also possible to take a picture with the
[0061]
In the above embodiment, the
[0062]
In the above embodiment, the present invention is implemented in a video monitoring device. However, the present invention is not limited thereto. For example, a cameraman alone can shoot a specific object to be photographed, particularly a moving object from multiple viewpoints. It can also be used.
[0063]
【The invention's effect】
As described above, according to the present invention, it is possible to automatically acquire the three-dimensional coordinate position of the detected object based on the video obtained by one photographing unit, and particularly the height from the reference plane. Can be obtained. In addition, based on the acquired three-dimensional coordinates, at least one other photographing unit provided at an arbitrary position can also photograph quickly with the detected object as the center.
[Brief description of the drawings]
FIG. 1 is a block diagram of a photographing apparatus according to a first embodiment of the present invention.
FIG. 2 is a diagram illustrating a process of determining a three-dimensional coordinate position from a two-dimensional coordinate position in the photographing apparatus of FIG.
FIG. 3 is a flowchart showing an outline of processing executed in the imaging apparatus of FIG. 1;
FIG. 4 is a detailed flowchart of the process of step S4 in the flowchart of FIG.
5 is an explanatory diagram of a method for determining a three-dimensional coordinate position on a floor surface from a two-dimensional coordinate position in the imaging apparatus of FIG. 1;
[Explanation of symbols]
2 Master camera (photographing means)
4 floors (reference plane)
8 Personal computer (two-dimensional coordinate determination means, first and second coordinate conversion means)
12 Slave camera (another shooting method)
Claims (3)
前記二次元画像から前記被検知物体像を確定する被検知物体撮影像確定手段と、
この被検知物体撮影像確定手段によって確定された被検知物体の撮影像に基づいて、前記被検知物体の一端に相当する前記被検知物体像の一端の二次元座標である第1の二次元座標と、前記被検知物体の他端に相当する前記被検知物体像の他端の二次元座標である第2の二次元座標とを、決定する二次元座標決定手段と、
前記被検知物体の一端が前記基準面に接していることにより前記被検知物体の一端の第3の三次元座標軸上の位置が判明していることを条件として設定して、第1の二次元座標を、第1の三次元座標に変換する第1の座標変換手段と、
第2の二次元座標を第2の三次元座標に変換し、出力する座標変換手段であって、この変換を、第2の三次元座標のうち、第1または第2の三次元座標軸の位置を第1の三次元座標の第1または第2の三次元座標軸の位置に設定して行う第2の座標変換手段とを、
具備する撮影装置。On a three-dimensional space defined by a first three-dimensional coordinate axis, a second three-dimensional coordinate axis orthogonal to the first three-dimensional coordinate axis, and a third three-dimensional coordinate axis orthogonal to the first and second three-dimensional coordinate axes A reference plane that is orthogonal to the third three-dimensional coordinate axis and whose position on the third three-dimensional coordinate axis is known, and one end located on the reference plane and the other end in the third three-dimensional coordinate axis direction. The object to be detected located away from the surface is fixed so as to be photographed in a two-dimensional manner defined by a first two-dimensional coordinate axis and a second two-dimensional coordinate axis orthogonal to the first two-dimensional coordinate axis, A single photographing means for obtaining a two-dimensional image including a two-dimensional reference surface that is an image obtained by photographing a reference surface and a detected object image obtained by photographing the detected object;
A detected object captured image determining means for determining the detected object image from the two-dimensional image;
First two-dimensional coordinates that are two-dimensional coordinates of one end of the detected object image corresponding to one end of the detected object based on the captured image of the detected object determined by the detected object captured image determination unit Two-dimensional coordinate determination means for determining a second two-dimensional coordinate that is a two-dimensional coordinate of the other end of the detected object image corresponding to the other end of the detected object;
The first two-dimensional object is set on condition that one end of the detected object is in contact with the reference plane and the position of the one end of the detected object on the third three-dimensional coordinate axis is known. First coordinate conversion means for converting coordinates to first three-dimensional coordinates;
Coordinate conversion means for converting the second two-dimensional coordinates into the second three-dimensional coordinates and outputting the converted two-dimensional coordinates, the position of the first or second three-dimensional coordinate axis among the second three-dimensional coordinates. A second coordinate conversion means configured to set the first three-dimensional coordinate to the position of the first or second three-dimensional coordinate axis,
An imaging apparatus provided.
前記被検知物体を撮影する、少なくともパン及びチルトを調整可能に別の撮影手段を設け、
第2の座標変換手段から出力された第2の三次元座標に基づいて前記別の撮影手段の前記パン及びチルトを調整して、前記別の撮影手段に前記被検知物体の他端部付近を撮影させる制御手段が設けられている
撮影装置。The imaging device according to claim 1,
Provide another imaging means for imaging the detected object, at least pan and tilt adjustable,
Based on the second three-dimensional coordinates output from the second coordinate conversion means, the pan and tilt of the other photographing means are adjusted, and the other photographing device is moved near the other end of the detected object. An imaging apparatus provided with control means for imaging.
前記二次元座標決定手段は、前記被検知物体が移動するごとに第1及び第2の二次元座標を決定し、
第1の座標変換手段は、第1の二次元座標が決定されるごとに、第1の二次元座標を第1の三次元座標に変換し、
第2の座標変換手段は、第2の二次元座標が決定されるごとに、これを第2の三次元座標に変換し、
前記制御手段は、第2の三次元座標が得られるごとに、この第2の三次元座標に基づいて前記別の撮影手段を制御する
撮影装置。The imaging device according to claim 2,
The two-dimensional coordinate determining means determines the first and second two-dimensional coordinates every time the detected object moves,
The first coordinate conversion means converts the first two-dimensional coordinate into the first three-dimensional coordinate each time the first two-dimensional coordinate is determined,
The second coordinate conversion means converts the second two-dimensional coordinates into the second three-dimensional coordinates every time the second two-dimensional coordinates are determined,
The imaging device controls the other imaging unit based on the second three-dimensional coordinate every time the second three-dimensional coordinate is obtained.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003163718A JP4291048B2 (en) | 2003-06-09 | 2003-06-09 | Imaging device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003163718A JP4291048B2 (en) | 2003-06-09 | 2003-06-09 | Imaging device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005003377A JP2005003377A (en) | 2005-01-06 |
JP4291048B2 true JP4291048B2 (en) | 2009-07-08 |
Family
ID=34090748
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003163718A Expired - Fee Related JP4291048B2 (en) | 2003-06-09 | 2003-06-09 | Imaging device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4291048B2 (en) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4628911B2 (en) * | 2005-09-09 | 2011-02-09 | ティーオーエー株式会社 | Height measuring device |
JP4628910B2 (en) * | 2005-09-09 | 2011-02-09 | ティーオーエー株式会社 | Length measuring device and height measuring device |
JP4527710B2 (en) * | 2006-12-25 | 2010-08-18 | 技研トラステム株式会社 | Noise processing method |
JP4848312B2 (en) * | 2007-05-17 | 2011-12-28 | 綜合警備保障株式会社 | Height estimating apparatus and height estimating method |
WO2009110417A1 (en) * | 2008-03-03 | 2009-09-11 | ティーオーエー株式会社 | Device and method for specifying installment condition of rotatable camera and camera control system equipped with the installment condition specifying device |
CN101819627B (en) * | 2010-03-30 | 2012-02-22 | 北京蓝色星河软件技术发展有限公司 | Method for identifying abnormal behavior of people based on space conversion |
JP6551088B2 (en) * | 2015-09-11 | 2019-07-31 | 沖電気工業株式会社 | Camera control apparatus, camera control method, program and monitoring system |
JP7284500B2 (en) * | 2018-04-25 | 2023-05-31 | 株式会社ノア | weight estimator |
JP7423842B1 (en) | 2023-04-27 | 2024-01-29 | 中央復建コンサルタンツ株式会社 | Coordinate conversion device, coordinate conversion method and program |
CN117346661A (en) * | 2023-11-04 | 2024-01-05 | 杭州钱江链传动有限公司 | Chain pin shaft detection method, system and storage medium |
-
2003
- 2003-06-09 JP JP2003163718A patent/JP4291048B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2005003377A (en) | 2005-01-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4775474B2 (en) | Imaging apparatus, imaging control method, and program | |
JP2001094857A (en) | Method for controlling virtual camera, camera array and method for aligning camera array | |
JP4291048B2 (en) | Imaging device | |
KR20170041636A (en) | Display control apparatus, display control method, and program | |
JP7204346B2 (en) | Information processing device, system, information processing method and program | |
JP6846651B2 (en) | Image processing equipment and imaging equipment | |
US20130050483A1 (en) | Apparatus, method, and program for video surveillance system | |
WO2018154634A1 (en) | Projection display device, method for controlling projection display device, and program | |
JP6635764B2 (en) | Imaging device, control method thereof, and control program | |
KR100585822B1 (en) | Monitor system use panorama image and control method the system | |
JP4628911B2 (en) | Height measuring device | |
JP3875199B2 (en) | Imaging device | |
JP3328478B2 (en) | Camera system | |
JP4198536B2 (en) | Object photographing apparatus, object photographing method and object photographing program | |
JP6269014B2 (en) | Focus control device and focus control method | |
JP2000341574A (en) | Camera device and camera control system | |
CN111699412A (en) | Method for calculating three-dimensional driving numerical value of three-dimensional numerical value driving control instrument by using driving measurement of laser tracking distance measuring instrument | |
JP2006033188A (en) | Supervisory apparatus and supervisory method | |
TW201205506A (en) | System and method for managing security of a roof | |
JP2011146762A (en) | Solid model generator | |
KR20170055455A (en) | Camera system for compensating distortion of lens using super wide angle camera and Transport Video Interface Apparatus used in it | |
JPH09145368A (en) | Moving and tracing method for object by stereoscopic image | |
JP2018046415A (en) | Display control device, display control method, and program | |
JP5610579B2 (en) | 3D dimension measuring device | |
JP2752993B2 (en) | 3D TV device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050527 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20061211 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070814 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071012 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081216 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090213 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090310 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090402 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4291048 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120410 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120410 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130410 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130410 Year of fee payment: 4 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130410 Year of fee payment: 4 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140410 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |