JP2010217984A - 像検出装置及び像検出方法 - Google Patents
像検出装置及び像検出方法 Download PDFInfo
- Publication number
- JP2010217984A JP2010217984A JP2009061016A JP2009061016A JP2010217984A JP 2010217984 A JP2010217984 A JP 2010217984A JP 2009061016 A JP2009061016 A JP 2009061016A JP 2009061016 A JP2009061016 A JP 2009061016A JP 2010217984 A JP2010217984 A JP 2010217984A
- Authority
- JP
- Japan
- Prior art keywords
- image
- cylindrical surface
- perspective
- input
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 131
- 238000003909 pattern recognition Methods 0.000 claims abstract description 12
- 230000002093 peripheral effect Effects 0.000 claims abstract description 11
- 230000003287 optical effect Effects 0.000 claims abstract description 10
- 238000013507 mapping Methods 0.000 claims abstract description 6
- 238000003860 storage Methods 0.000 claims description 9
- 230000000875 corresponding effect Effects 0.000 description 64
- 238000000034 method Methods 0.000 description 30
- 238000004422 calculation algorithm Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 13
- 238000004364 calculation method Methods 0.000 description 10
- 238000003384 imaging method Methods 0.000 description 8
- 238000004519 manufacturing process Methods 0.000 description 7
- 238000012544 monitoring process Methods 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 5
- 230000014509 gene expression Effects 0.000 description 5
- 238000012937 correction Methods 0.000 description 4
- 241000405217 Viola <butterfly> Species 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241000251468 Actinopterygii Species 0.000 description 1
- 108020004566 Transfer RNA Proteins 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Abstract
【課題】広角カメラで得られた画像から所定の被写体像をより早く確実に検出することが可能な像検出装置及び像検出方法を提供する。
【解決手段】像検出装置10は、広角カメラ5により取得した画像21から所定の被写体像を検出するものであって、広角カメラからの画像を入力画像として受けつける入力部11と、互いに直交する第1〜第3の軸を有し第3の軸が広角カメラの光軸に対応する直交座標系での第1の軸又は第2の軸を中心軸とする円柱30の周面30a上に、入力画像を写像することによって円柱面画像32を生成する円柱面画像生成部12Aと、円柱面画像に対して所定の被写体のパターン認識を実行することで所定の被写体像を検出する像検出部13とを備える。円柱面画像を生成して、歪みの影響が低減された円柱面画像上で所定の被写体像の検出を実施していることから、所定の被写体像をより早く確実に検出することが可能である。
【選択図】図4
【解決手段】像検出装置10は、広角カメラ5により取得した画像21から所定の被写体像を検出するものであって、広角カメラからの画像を入力画像として受けつける入力部11と、互いに直交する第1〜第3の軸を有し第3の軸が広角カメラの光軸に対応する直交座標系での第1の軸又は第2の軸を中心軸とする円柱30の周面30a上に、入力画像を写像することによって円柱面画像32を生成する円柱面画像生成部12Aと、円柱面画像に対して所定の被写体のパターン認識を実行することで所定の被写体像を検出する像検出部13とを備える。円柱面画像を生成して、歪みの影響が低減された円柱面画像上で所定の被写体像の検出を実施していることから、所定の被写体像をより早く確実に検出することが可能である。
【選択図】図4
Description
本発明は、広角レンズを利用して取得された画像から所定の被写体の画像を検出する装置及びその検出方法に関するものであり、特に、移動する所定の被写体に対する被写体像を検出する装置及びその検出方法に関するものである。
近年、監視システムや、ネット環境を利用したネットミーティング等において、視野の広い広角レンズを有するカメラ装置が利用されてきている。広角カメラとしては、例えば、特許文献1に記載されているような魚眼レンズを有する魚眼カメラが採用される傾向にある。このような魚眼カメラといった視野のより広いカメラ装置を利用すると、より多くの領域を一度に撮影できたり、視野内での人物等の移動範囲の拘束が少なくなったりするので、好ましい。
Viola, P. Jones, M, "Rapid object detection using a boosted cascade of simplefeatures," Proceeding of IEEE Computer Society Conferenceon Computer Vision and Pattern Recognition, 2001, Vol.1, pp511-518
ところで、カメラ等の画像から所定の被写体(例えば、人物の顔など)を検出する場合、所定の被写体のパターン認識を利用したアルゴリズムが知られているが、このようなアルゴリズムは、視野の狭いカメラを対象として開発されている。視野の狭いカメラでは、所定の被写体の画像上の位置変化による顔の変形は殆どないが、魚眼カメラのような広角カメラにおいては、画像上の位置により、所定の被写体の変形(縦横比など)が大きくなる。そのため、従来、視野の狭いカメラに対して、所定の被写体を検出するアルゴリズムを適用しても適切に所定の像を検出することができない場合があった。特許文献1には、広角カメラで取得した画像に対して画像位置による歪補正を実施して、被写体を検出する方法が記載されているが、歪補正の処理に時間を要すると共に、歪補正の仕方によっては適切に所定の被写体を検出できない場合も考えられる。
そこで、本発明は、広角カメラで得られた画像から所定の被写体像をより早く確実に検出することが可能な像検出装置及び像検出方法を提供することを目的とする。
本発明に係る像検出装置は、広角カメラにより取得した画像から所定の被写体像を検出する像検出装置であって、広角カメラにより取得された画像を入力画像として受けつける入力部と、互いに直交する第1〜第3の軸を有し第3の軸が前記広角カメラの光軸に対応する直交座標系での第1の軸又は第2の軸を中心軸とする円柱の周面上に、入力部で受けつけた入力画像を写像することによって円柱面画像を生成する円柱面画像生成部と、円柱面画像に対して所定の被写体のパターン認識を実行することによって所定の被写体像を検出する像検出部と、を備えることを特徴とする
また、本発明に係る像検出方法は、広角カメラにより取得した画像から所定の被写体像を検出する像検出方法であって、広角カメラにより取得された画像を入力画像として受けつける入力工程と、互いに直交する第1〜第3の軸を有し第3の軸が広角カメラの光軸に対応する直交座標系での第1の軸又は第2の軸を中心軸とする円柱の周面上に、入力工程で受けつけた入力画像を写像することによって円柱面画像を生成する円柱面画像生成工程と、円柱面画像に対して所定の被写体のパターン認識を実行することによって所定の被写体像を検出する像検出工程と、を備えることを特徴とする。
上記像検出装置及び像検出方法では、広角カメラで取得された画像を入力画像として受け付け、その入力画像を基に円柱面画像を生成し、円柱面画像に対しパターン認識を実行して所定の被写体像の検出を実施している。円柱面画像は、上記円柱の周面に入力画像が写像されて生成されているものであるから、円柱面画像では、広角カメラで取得された画像である入力画像に比べて画像位置による歪の影響が低減されている。従って、円柱面画像に対してパターン認識を実施することで、所定の被写体像を容易にかつより確実に検出でき、例えば所定の被写体が移動したとしても所定の被写体像を検出することができる。また、円柱面画像は、例えば、円柱の周面上の点と、入力画像上の画素との対応関係を予め算出しておけば、その対応関係を参照することで生成することができるため、所定の被写体像をより早く且つ容易に検出することが可能である。
また、本発明に係る像検出装置では、円柱面画像生成部は、第1及び第2の軸の少なくとも一方の軸方向に対する広角カメラの視野をカバーするように周面上に円柱面画像生成領域を設定し、円柱面画像生成領域を構成する各画素に対する入力画像上の対応画素が有する画像情報を取得して円柱面画像を生成する、ことが好ましい。同様に、本発明に係る像検出方法における円柱面画像生成工程では、第1及び第2の軸の少なくとも一方の軸方向に対する広角カメラの視野をカバーするように周面上に円柱面画像生成領域を設定し、円柱面画像生成領域を構成する各画素に対する入力画像上の対応画素が有する画像情報を取得して円柱面画像を生成する、ことが好ましい。
上記構成により、第1及び第2の軸の少なくとも一方の軸方向に対する広角カメラの視野を確実にカバーした円柱面画像を生成することができる。
また、本発明に係る円柱面画像生成部は、予め算出されている、円柱面画像生成領域を構成する各画素と入力画像上の対応画素との対応関係により、円柱面画像生成領域を構成する各画素に対して画像情報を取得する、ことが好適である。同様に、本発明に係る像検出方法が有する円柱面画像生成工程では、予め算出されている、円柱面画像生成領域を構成する各画素と入力画像上の対応画素との対応関係により、円柱面画像生成領域を構成する各画素に対して画像情報を取得する、ことが好適である。
この場合、円柱面画像を生成する度に、円柱面画像生成領域を構成する各画素に対する入力画像上の対応画素を演算により求める場合に比べて、円柱面画像をより早く生成することができる。
更に、本発明に係る像検出装置では、像検出部で検出された所定の被写体像を含む透視画像を生成する透視画像生成部であって、所定の被写体像の中心に対応する、透視画像平面上の点を画像中心とする透視画像生成領域を透視画像平面上に設定し、広角カメラの射影方程式に従って算出される仮想的な理想画像である仮想理想画像を介して、透視画像生成領域が有する各画素と入力画像の画素とを対応づけ、透視画像生成領域が有する各画素に対する入力画像の対応画素が有する画像情報を取得することで透視画像を生成する透視画像生成部と、透視画像を表示装置に出力する出力部と、を更に備え、透視画像生成部は、透視画像生成領域が有する各画素に対する仮想理想画像上の対応位置を射影方程式に基づいて算出し、仮想理想画像上の対応位置を、予め算出されている、仮想理想画像と入力画像との対応関係に基づいて入力画像の画素と対応づけることによって、透視画像生成領域の各画素に対する前記入力画像の対応画素の画像情報を取得する、ことが好適である。
同様に、本発明に係る像検出方法では、像検出工程で検出された所定の被写体像を含む透視画像を生成する透視画像生成工程であって、所定の被写体像の中心に対応する、透視画像平面上の点を画像中心とする透視画像生成領域を透視画像平面上に設定し、広角カメラの射影方程式に従って算出される仮想的な理想画像である仮想理想画像を介して、透視画像生成領域を構成する各画素と入力画像の画素とを対応づけ、透視画像生成領域を構成する各画素に対する入力画像上の対応画素が有する画像情報を取得することで透視画像を生成する透視画像生成工程と、透視画像を表示装置に出力する出力工程と、を更に備え、透視画像生成工程では、透視画像生成領域を構成する各画素に対する仮想理想画像上の対応位置を射影方程式に基づいて算出し、仮想理想画像上の対応位置を、予め算出されている、仮想理想画像と入力画像との対応関係に基づいて入力画像の画素と対応づけることによって、透視画像生成領域の各画素に対する入力画像の対応画素が有する画像情報を取得する、ことが好ましい。
上記構成では、所定の被写体像が検出されると、所定の被写体像を画像の中心部に有する透視画像を生成し、表示装置で表示させることが可能である。透視画像は、所定の被写体像の検出位置に応じて生成されることから、所定の被写体像の位置に応じて視点の変更された透視画像が生成されることになる。このような可変視点の透視画像において、上記構成では、広角カメラの射影方程式に従って生成される上記仮想理想画像を介して、透視画像を生成しているため、より早く透視画像を生成可能となっている。
通常、広角カメラで実際に取得された画像である入力画像には、レンズの製造誤差などによる歪みも含まれている。可変視点であることから、透視画像平面上の透視画像生成領域の画素に対応する入力画像上の画素を、上記のように仮想理想画像を介さずに演算により算出しようとすると、上記製造誤差による歪を補正のためにより多くの時間を有する。一方、仮想理想画像は、上記のように射影方程式に従った理想的な画像であるため、透視画像平面上の透視画像生成領域の画素に対応する仮想理想画像上の対応位置の算出は容易である。そして、仮想理想画像と入力画像とは、ほぼ同じ解像度であり、仮想理想画像と入力画像との間で視点の変更はないことから、上記のように予め対応関係を準備しておくことが可能である。よって、透視画像平面上の透視画像生成領域の画素に対する仮想理想画像の対応位置を更に、上記対応関係に基づいて入力画像上の画素を対応させることによって、前述したように可変視点に対する透視画像をより早く生成することが可能である。
更に、本発明に係る像検出装置においては、予め算出されている円柱面画像生成領域を構成する各画素と入力画像上の対応画素との対応関係及び予め算出されている、仮想理想画像と入力画像との対応関係は、それぞれ第1及び第2のルックアップテーブルとして格納する記憶部を更に有する、とすることができる。同様に、本発明に係る像検出方法では、予め算出されている、円柱面画像生成領域を構成する各画素と入力画像上の対応画素との対応関係及び予め算出されている、仮想理想画像と入力画像との対応関係は、それぞれ第1及び第2のルックアップテーブルである、とすることができる。
上記所定の被写体は人間の顔であると、することができる。これにより、像検出装置及び像検出方法で、人間の顔を検出できるので、ネットワークミーティングや監視システムに好適に適用することができる。
本発明によれば、広角カメラで得られた画像から所定の被写体像をより早く検出するための像検出装置及び像検出方法を提供することができる。
以下、本発明に係る像検出装置及び像検出方法の実施形態について添付図面を参照して説明する。なお、同一の構成要素は同一の符号で示し、重複する説明は省略する。
図1は、本発明に係る像検出装置の一実施形態を適用したネットミーディングシステムの模式図である。図1に示したネットミーディングシステム1では、2つのパーソナルコンピュータ(PC)21,22がネットワーク3に接続されてPC21,22に対してそれぞれ一人のユーザUがネットワーク3を介して通信できるものとしている。
各PC21,22に接続された、ディスプレイといった表示装置41,42には、WEBカメラとしての魚眼カメラ(カメラ装置)51,52が搭載されている。これにより、魚眼カメラ(カメラ装置)51,52が各PC21,22のユーザUを撮影し、他方のPC21,22に画像を転送することで、各ユーザUはお互いを見ながらミーティングができる。
本発明に係る像検出装置の一実施形態は、上記のようなネットミーディングシステム1において好適に利用される。図2〜図7を参照して、図1に示したネットミーディングシステム1に適用される像検出装置及びその像検出装置を利用した像検出方法について説明する。本実施形態では、図1に示したネットミーディングシステム1において各ユーザUが有する構成要素は同じものであるとし、特に断らない限り、PC21,22をPC2、表示装置41,42は表示装置4、魚眼カメラ51,52は、魚眼カメラ51,52を魚眼カメラ5とも称す。
図2に示した像検出装置10は、魚眼カメラ(カメラ装置)5により取得した画像から所定の被写体像を検出するためのものである。ここでは、所定の被写体像はPC2のユーザUの顔であるとする。
図2には、像検出装置10に画像を入力するカメラ装置として魚眼カメラ5、及び、像検出装置10で検出された所定の被写体像を表示するための表示装置4もあわせて記載している。像検出装置10は、PC2に組み込まれているとし、表示装置4は、魚眼カメラ5が接続されているPCとは別のPC側のものとする。
魚眼カメラ5は、約180°以上の視野角を有する魚眼レンズ5a及びCCDといった撮像素子5bを有しており、像検出装置10に電気的に接続されている、魚眼カメラ5は、例えば、図1に示したように表示装置4に組み込まれたものとすることもできるし、表示装置4上に別途配置されているものとすることできる。本実施形態では、魚眼カメラ5は、その光軸が水平面内に位置するように設置されているとする。魚眼カメラ5は、魚眼レンズ5aにより結像した像を撮像素子5bで検出し、得られた魚眼画像21(図3参照)を像検出装置10に出力する。
像検出装置10は、魚眼カメラ5から出力された魚眼画像21を入力画像として受けつける入力部11と、入力部11で受け付けられた魚眼画像21を基に種々の画像を生成する画像生成部12と、魚眼画像21から所定の被写体像を検出する像検出部13と、画像生成部12での画像生成に使用する第1及び第2のルックアップテーブル(LUT)14A,14B及び魚眼画像21や画像生成部12での生成した画像等を格納する記憶部14と、像検出装置10で生成した画像を表示装置4に出力する出力部15と、を含む。以下、像検出装置10の主要な構成要素である画像生成部12及び像検出部13を中心にして像検出装置10について説明する。
画像生成部12は、円柱面画像生成部12Aを有する。円柱面画像生成部12Aは、魚眼画像21を基に円柱面画像32を生成する。図3及び図4を利用して円柱面画像32の生成方法について説明する。
図3(a)は、魚眼レンズの球面解析モデルを説明する図面である。図3(b)は撮像平面上の表示領域の模式図である。図4は円柱面画像を説明するための図面である。以下の説明では、特に断らない限り、魚眼レンズ5aの射影方式は等距離射影方式とし、魚眼レンズ5aの焦点距離はfとする。図3(b)及び図4では、ユーザUの像を模式的に示している。
図3(a)に示すように、魚眼レンズ5aにより取得された画像は球面解析モデルを用いて解析することができる。球面解析モデルでは、ZC軸(第3の軸)方向を光軸とし、Zc軸に直交するXC軸(第1の軸)及びYC軸(第2の軸)を有するカメラ座標系(直交座標系)において、原点OCを中心とする半径R1の球面Sを想定する。そして、このモデルでは、実空間がその球面S上に投影されたとし、球面S上の各点を魚眼レンズ5aの射影方式によって撮像平面に射影されたものが魚眼画像であると考える。球面解析モデルでは、カメラ座標系の原点OCに魚眼レンズ5aがZC軸方向を向いて配置され、球面S上の点から魚眼レンズ5aに光が入射していることを想定していることになる。
半径R1は、魚眼カメラ5の倍率などを考慮して決定することができるが、以下の説明では、球面Sの半径R1は1であり、球面Sは単位球面であるとする。また、球面S上に形成される画像を球面画像とも称す。本実施形態では、説明の便宜上、「球面画像」を利用して説明しているが、この球面画像を物理的には生成していない、すなわち、球面Sを離散化し、各画素に対して色情報や輝度値といった画像情報の取得は行っていない。
なお、魚眼レンズ5aの視野は有限(例えば、180°)であることから、球面Sのうち魚眼レンズ5aの視野に応じた領域に実空間が投影される。図3(a)及び図3(b)では、魚眼レンズ5aの視野が180°であることを想定して球面Sのうちの半球面で表している。また、魚眼カメラ5aの設置方向に依存するが、本実施形態では、説明の簡略化のため、カメラ座標系においてXCZC平面が水平面に平行であり、YC軸方向が鉛直方向(図3(b)では、例えば−YC方向が鉛直上方向)に対応するものとする。
図3(a)に示すように、球面S上の点Pからの光線が魚眼レンズ5aに入射する場合を考える。点Pの天頂角、すなわち、原点OCと点Pとを繋ぐ直線OCPがZC軸となす角度をθとし、原点OCに対する方位角をφとする。この場合、点Pからの魚眼レンズ5aへの入射光線の方向は(θ,φ)で規定され、θは点Pからの光線の魚眼レンズ5aへの入射角に対応する。よって、点Pの極座標表示での座標は、上記θ,φ,R1(=1)により表される。なお、R1は一定であることから、θ,φを特定することで、球面S上の点が規定される。
点Pの魚眼レンズ5aに対する撮像平面上の射影点をpiとすると、射影方式を等距離射影方式としていることから、撮像平面上に設定したXIYI直交座標系において原点OIから点piへの距離(像高)riはfθであり、原点OIに対する方位角をφiとすると、φi=φである。よって、θ,φにより、撮像平面上において画像の表示領域20内に表示される魚眼画像21と、球面画像とが対応付けられる。以下では、魚眼画像21上の点piを画素piとも称す。
ここでは、魚眼画像21の画素の位置と球面S上の点(或いは、球面画像上の点)とを理論的な射影方程式に基づいて対応づけて説明している。しかし、後述するように、実際の魚眼レンズ5aを使用して得られる魚眼画像21には、レンズの製造誤差等が含まれている。よって、魚眼画像21と球面画像とはレンズの製造誤差による歪を考慮して対応づけることが好ましい。また、魚眼カメラ5の射影方式は、上記等距離射影方式の他に、ri=2ftan(θ/2)で表される立体射影、ri=2fsin(θ/2)で表される等立体角射影、ri=fsin(θ)で表される正射影といった射影方式を使用することもできる。
円柱面画像32は、図4に示すように、互いに直交するXC軸、YC軸及びZC軸を有するカメラ座標系の原点OCを内側に含む円柱30の周面30aの一部に魚眼画像21を写像したものである。図4に示したように、ZC軸に直交するYC軸を中心軸として設定する。円柱30は、円柱30上の任意の点の座標を(xc,yc,zc)とし、半径をR2とすると次式で表される。
なお、式(1)中のa,bは、図4に示したようにYC軸の負方向及び正方向の円柱30の高さである。
なお、式(1)中のa,bは、図4に示したようにYC軸の負方向及び正方向の円柱30の高さである。
円柱30の半径R2は、円柱面画像32を生成する際の拡大・縮小率、すなわち、倍率を考慮して決定すれば良いが、図4では、一例として球面Sの半径R1より大きく設定した場合を示している。高さHe(=a+b)は、魚眼カメラ5における鉛直方向の視野を考慮して決定すればよく、例えば、後述するように視野角60°〜90°に対応する高さとすることも可能である。
円柱面画像32は、周面30aに設定した円柱面画像生成領域31(図5参照)が有する複数の画素に対する魚眼画像21上の対応画素が有する画像情報(RGBといった色情報や輝度値等)を取得することで生成する。具体的には、円柱30の周面30aにおいて魚眼レンズ5aの視野をカバーする領域を円柱面画像生成領域31とし、直交座標系であるXEYE座標系を設定する。図5は、円柱面画像生成領域の一例の模式図である。図5に示すように、XE軸は幅方向(円柱30の表現では周方向)に延びる軸であり、YE軸はXE軸に直交する方向(円柱30では高さ方向)に延びる軸である。これは、周面30aを平面展開し、円柱面画像生成領域31に対応する領域を切り出していることに対応する。図5は、魚眼レンズ5aの視野は180°であって、周面30aの半周分を円柱面画像生成領域31として設定している場合を示している。図5に示した円柱面画像32の幅をWeとする。
円柱面画像32上の画素p2のXEYE座標系における座標を直交座標表示で表して(xe(2),ye(2))とした場合、画素p2のカメラ座標系における座標は、式(2a)〜式(2c)で表される。
ただし、kはYC軸(又はYE軸)方向のスケールファクターである。また、式中の下付の「括弧2」は、画素p2に対応していることを示している。対応する画素又は点の異なる座標系での表示や、異なる画像表示方法(例えば、魚眼画像、円柱面画像など)において対応する画素を特定する必要がある場合には、同様の表記を採用する。
ただし、kはYC軸(又はYE軸)方向のスケールファクターである。また、式中の下付の「括弧2」は、画素p2に対応していることを示している。対応する画素又は点の異なる座標系での表示や、異なる画像表示方法(例えば、魚眼画像、円柱面画像など)において対応する画素を特定する必要がある場合には、同様の表記を採用する。
円柱面画像32を生成する際には、式(2a)〜式(2c)を利用して画素p2に対する球面Sへの投影点を算出し、次いで、その投影点に対する魚眼画像21上の対応画素を算出する。このように、円柱面画像32の画素p2に対する魚眼画像21上の対応画素を特定し、円柱面画像32の各画素に対して、魚眼画像21の対応画素が有する画像情報(RGB等)を取得することで、円柱面画像32を生成する。
通常、実際のカメラを使用して取得した画像には、カメラが有するレンズの製造誤差などにより、径方向の歪みや光軸と画像中心とのズレなどの一定の歪みが含まれていることが知られている(例えば、A Conrady, “Decentering lens system,”Monthly Notices of the Royal Astronomical Soc. 1919, Vol.79, pp.384-390や R. Swaminathan and S. K. Nayar, “Nonmetric Calibration of Wild Angle Lenses and Polycameras,” IEEE Trnas. PAMI, 2000, Vol. 22, No. 10参照)。これは魚眼レンズ5aを有する魚眼カメラ5についても同様であり、球面S上の点と魚眼画像21上の画素とを対応付ける際には、レンズの製造誤差などによる歪みを補正しておくことが好ましい。このような歪を補正する種々の方法が提案されているが、本実施形態では、S. Li, “Monitoringaround a velicle by a spherical image sensor,” IEEE Trans. On ITS, 2006, Vol. 7 No.4, pp.541-550、に記載されている補正方法を採用する。すなわち、球面S上の点と魚眼画像21上の画素とを対応付ける際に、以下の非線形連立方程式を解く。
式(3a)〜式(3d)では、実際の魚眼レンズ5aを介して取得された魚眼画像21上の画素に対するri,φiを、rri,rφiと表している。なお、点Pに対する、射影方程式に基づく理論的な投影位置のri,φiは、後述するように、vri、vφiと表す。また、式(3a)〜式(3d)において、k1,k3,k5が魚眼レンズ5aの放射歪のパラメータであり、P1,P2は接線方向歪のパラメータである。
式(3a)〜式(3d)では、実際の魚眼レンズ5aを介して取得された魚眼画像21上の画素に対するri,φiを、rri,rφiと表している。なお、点Pに対する、射影方程式に基づく理論的な投影位置のri,φiは、後述するように、vri、vφiと表す。また、式(3a)〜式(3d)において、k1,k3,k5が魚眼レンズ5aの放射歪のパラメータであり、P1,P2は接線方向歪のパラメータである。
上記式(3a)〜(3d)で示される非線形方程式を解くことは、演算上多くの時間を要することになる。そこで、本実施形態では、式(3a)〜式(3d)を利用して円柱面画像32上の各画素に対して、魚眼画像21上の対応画素を予め一度算出した後、その関係を第1のLUT14Aとしてまとめておき記憶部14に格納している。円柱面画像生成部12Aは、記憶部14に格納されている第1のLUT14Aを参照して、円柱面画像32の各画素に対する魚眼画像21上の対応画素を特定し、その対応画素の画像情報を取得することによって、円柱面画像32を生成する。画像生成部12が有する透視画像生成部12Bについては後述する。
像検出部13は、円柱面画像生成部12Aにおいて円柱面画像32が生成されると、生成された円柱面画像32に対して顔検出アルゴリズムを実施して、所定の被写体像としてのユーザUの顔領域Fを検出する。顔検出アルゴリズムとしては、パターン認識により顔領域を検出できれば特に限定されず、例えば非特許文献1として記載した、Viola, P. Jones, M, “Rapid object detection using a boosted cascade of simplefeatures,” Proceeding of IEEE Computer Society Conferenceon Computer Vision and Pattern Recognition, 2001, Vol.1, pp511-518に記載されているアルゴリズムを利用することができる。
画像生成部12が有する透視画像生成部12Bは、像検出部13が円柱面画像32において顔領域を検出すると、その顔領域の透視画像42を生成する。透視画像生成部12Bは、魚眼レンズ5aの射影方程式に正確に従って生成される理想的な画像であって、歪みを含まない画像である仮想理想画像22を利用して透視画像42を生成する。
透視画像42の生成方法について図6を利用して説明する。図6は、透視画像の生成方法を模式的に示す図面である。図6(a)は、透視画像、球面画像、仮想理想画像及び入力画像である魚眼画像の関係を模式的示している。また、図6(b)は透視画像の模式図である。図6(b)では、ユーザUを模式的に示している。
先ず、透視画像生成部12Bは、次のステップ1−1〜1−3を実施して透視画像生成領域41を設定する。
(I)ステップ1−1:円柱面画像32上における顔領域の中心を算出し、その中心に対応する球面S(或いは球面画像)上の対応点soを算出する。
(II)ステップ1−2:図6(a)に示すように、球面S上の対応点soを透視画像平面40上に投影する。透視画像平面40は、対応点soと原点OCとを結ぶ直線に直交する平面とすることができる。透視画像平面40と原点OCとの間の距離は倍率などを考慮して設定すればよい。図6(a)及び図6(b)では、透視画像平面40を二点鎖線で示している。透視画像平面40は無限のものであるが、図6(b)では、便宜的に略矩形状で表している。
(III)ステップ1−3:透視画像生成部12Bは、透視画像平面40上に透視画像生成領域41を設定する。透視画像生成領域41は、図6(b)に示すように例えば長方形状や正方形状とすることができる。この際、透視画像生成部12Bは、直線と透視画像平面40との交点を画像中心OPとして透視画像生成領域41を設定する。透視画像生成領域41の大きさは、表示装置4に表示させたい透視画像42の大きさとすればよい。透視画像平面40上であって画像中心OPを原点とする直交座標系をXPYP座標系と称す。
(I)ステップ1−1:円柱面画像32上における顔領域の中心を算出し、その中心に対応する球面S(或いは球面画像)上の対応点soを算出する。
(II)ステップ1−2:図6(a)に示すように、球面S上の対応点soを透視画像平面40上に投影する。透視画像平面40は、対応点soと原点OCとを結ぶ直線に直交する平面とすることができる。透視画像平面40と原点OCとの間の距離は倍率などを考慮して設定すればよい。図6(a)及び図6(b)では、透視画像平面40を二点鎖線で示している。透視画像平面40は無限のものであるが、図6(b)では、便宜的に略矩形状で表している。
(III)ステップ1−3:透視画像生成部12Bは、透視画像平面40上に透視画像生成領域41を設定する。透視画像生成領域41は、図6(b)に示すように例えば長方形状や正方形状とすることができる。この際、透視画像生成部12Bは、直線と透視画像平面40との交点を画像中心OPとして透視画像生成領域41を設定する。透視画像生成領域41の大きさは、表示装置4に表示させたい透視画像42の大きさとすればよい。透視画像平面40上であって画像中心OPを原点とする直交座標系をXPYP座標系と称す。
次に、透視画像生成部12Bは、仮想理想画像22を介して透視画像生成領域41を構成する各画素に対する魚眼画像21の対応画素から色情報や輝度値といった画像情報を以下のステップ2−1,2−2を実行して取得する。
(1)ステップ2−1:透視画像生成領域41が有する画素p3に対応する仮想理想画像22上の対応画素vpi(3)を次のようにして算出する。
・ステップ2−1a:画素p3のカメラ座標系における天頂角θ及び方位角φを算出する。これは画素p3の球面S上の対応点s(3)を特定することに対応する。具体的には、XPYP座標系で表される画素p3の座標(xp(3),yp(3))を、カメラ座標系の座標に変換した後、画素p3のカメラ座標系の原点OCに対してθ,φを算出する。算出されたθ,φをそれぞれθ(3),φ(3)と称す。
・ステップ2−1b:ステップ2−1aで算出したθ(3),φ(3)に対して射影方程式を適用して、画素p3の仮想理想画像22上の対応画素vpi(3)の座標(vri(3),vφi(3))を算出する。
・ステップ2−1c:極座標表示である(vri(3),vφi(3))を直交座標表示である(vxi(3),vyi(3))に変換する。
・ステップ2−1a:画素p3のカメラ座標系における天頂角θ及び方位角φを算出する。これは画素p3の球面S上の対応点s(3)を特定することに対応する。具体的には、XPYP座標系で表される画素p3の座標(xp(3),yp(3))を、カメラ座標系の座標に変換した後、画素p3のカメラ座標系の原点OCに対してθ,φを算出する。算出されたθ,φをそれぞれθ(3),φ(3)と称す。
・ステップ2−1b:ステップ2−1aで算出したθ(3),φ(3)に対して射影方程式を適用して、画素p3の仮想理想画像22上の対応画素vpi(3)の座標(vri(3),vφi(3))を算出する。
・ステップ2−1c:極座標表示である(vri(3),vφi(3))を直交座標表示である(vxi(3),vyi(3))に変換する。
上記ステップ2−1a〜ステップ2−1cは、次の式で表される演算過程を実施していることになる。
(2)ステップ2−2:仮想理想画像22上の各画素と、魚眼画像21上の各画素との対応関係を示すテーブルであり、予め記憶部14に格納されている第2のLUT14Bを参照して、式(4)により算出された仮想理想画像22の対応画素に対して、魚眼画像21上の対応画素を特定する。魚眼画像21における画素の位置座標を(xf(3),yf(3))とすると、この過程は次の式で表される。
従って、透視画像生成領域41を設定した後の透視画像42を生成する、ステップ2−1,2−2は、次の式で表される処理を実行していることになる。なお、式(6)では、式(4)及び式(5)で付していた点p3に対応することを示す下付きの「括弧3」は省略している。
ここで、上記第2のLUT14Bの作成方法について説明する。第2のLUT14Bは、次の処理過程を実施することで作成する。
すなわち、仮想理想画像22上の画素vpi(vxi,vyi)に対して球面S上の対応点を規定するパラメータ、すなわち(θ,φ)を算出する。次いで、その算出された(θ,φ)で規定される球面S上の点に対する魚眼画像21の対応画素の座標(rri,rφi)を、式(3a)〜式(3d)に基づいて算出した後、直交座標表示である(xf,yf)に変換する。これにより、魚眼画像21の画素と仮想理想画像22の画素とを対応付けた第2のLUT14Bを作成する。
すなわち、仮想理想画像22上の画素vpi(vxi,vyi)に対して球面S上の対応点を規定するパラメータ、すなわち(θ,φ)を算出する。次いで、その算出された(θ,φ)で規定される球面S上の点に対する魚眼画像21の対応画素の座標(rri,rφi)を、式(3a)〜式(3d)に基づいて算出した後、直交座標表示である(xf,yf)に変換する。これにより、魚眼画像21の画素と仮想理想画像22の画素とを対応付けた第2のLUT14Bを作成する。
以上説明した像検出装置10では、画像生成部12や像検出部13は、PC2において、CPUの制御の下、画像生成部12及び像検出部13の各種機能を実現するプログラムを実施することで実現することができる。また、入力部11は、像検出装置10が組み込まれているPC2におけるデータの入力部とすることができる。また、出力部15は、同様に、PC2におけるデータの出力部15であって、ネットワーク3にデータを送信可能な各種機能を備えたものとすることができる。また、記憶部14は、PC2におけるRAMやROMといったメモリとすることができる。ただし、入力部11、画像生成部12、像検出部13、記憶部14及び出力部15は、それぞれ専用の回路とすることもできる。
次に、図7〜図11を参照して、図2に示した像検出装置10を利用した像検出方法について説明する。魚眼カメラ5が起動されているものとして説明する。図7は像検出方法の一例のフローチャートである。
先ず、像検出装置10は、魚眼カメラ5で取得された魚眼画像21を、入力部11を介して入力魚眼画像として受けつける(ステップS10)。次に、円柱面画像生成部12Aが、上述した第1のLUT14Aを利用して魚眼画像21から円柱面画像32を生成する(ステップS11)。具体的には、カメラ座標系において設定されている円柱30の周面30a上に設定した円柱面画像生成領域31の各画素に対する入力画像22上の対応画素を第1のLUT14Aを利用して特定し、その画像情報を取得して円柱面画像32とする。
像検出装置10は、円柱面画像32を生成すると、像検出部13が、円柱面画像32に対して顔検出アルゴリズムを実行して、円柱面画像32上においてユーザUの顔領域Fを検出する(ステップS12)。
像検出部13が円柱面画像32上の顔領域Fを検出すると、透視画像生成部12Bは、ユーザUの顔が透視画像生成領域41の中央部になるように、透視画像42を形成する(ステップS13)。具体的には、円柱面画像32の顔領域Fの中心に対応する球面S上の対応点soを特定する。次いで、その対応点soとカメラ座標系の原点Ocとをとおる直線に直交する透視画像平面40を設定した後、透視画像平面40上に所望の大きさの透視画像生成領域41を顔領域Fの中心が画像中心Opとなるように設定する。次いで、式(6)に示した過程に従って、透視画像生成領域41の各画素の魚眼画像21の対応画素の画像情報を取得して、透視画像42を生成する。
透視画像生成部12Bが、透視画像42を生成すると、出力部15はその透視画像42を表示装置4に出力する(ステップS14)。
図8は、実際の魚眼カメラで撮影して得られた魚眼画像の例を示す図面である。撮影に使用した魚眼カメラは、ソニー製ディジタルハンディカムに魚眼レンズ5aを搭載したものである。なお、魚眼レンズ5aは、オリンパス製魚眼コンバージョンレンズFCON−02である。図8において、表示領域(画像フレーム)20の画素数は640×480としている。領域Fiは、ステップS12において検出した顔領域Fに対応する部分である。また、図9は、図8の魚眼画像に対してステップS11で説明した処理により得られた円柱面画像の一例を示す図面である。円柱面画像32は、水平画角が180度、垂直画角が90度で、画素数は640×320である。図9中の領域Feは、円柱面画像32に対してステップS12の処理により得られた顔領域Fを示している。顔領域Fの検出は、Viola, P. Jones, M, “Rapid object detection using a boosted cascade of simplefeatures,” Proceeding of IEEE Computer Society Conferenceon Computer Vision and Pattern Recognition, 2001, Vol.1, pp511-518に記載されているアルゴリズムであり、広角レンズではなく視野の狭いレンズに対して開発された顔検出アルゴリズムを適用した。このように、使用した顔検出アルゴリズムは、魚眼画像特有の歪(前述した、周縁部での縦横比の変化など)を考慮したものではないが、円柱面画像32に適用することで、図9に示すように、顔領域Fを検出できていることが分かる。図10は、図9に示した円柱面画像で検出された所定の被写体像(顔領域)の検出結果の一例を示す図面である。図10は、本実施形態で説明した方法ではなく、図9で検出した顔領域Fを含む魚眼画像21の部分を切り出し、予め準備していたルックアップテーブルを用いて透視画像に変換している。図10中の領域Fpは、図8の領域Fi及び図9の領域Feに対応する顔領域Fである。
本実施形態の像検出装置10及びその像検出装置10を用いた像検出方法では、取得された魚眼画像21ではなく、円柱面画像32上で顔検出を実施することが一つの重要な点である。この点について、図8及び図9に示した、実際に撮影された魚眼画像21及びそれに基づいて作成した円柱面画像32の例を参照して説明する。
図8に示したように、通常、魚眼画像21は、その周縁部近傍で画像に歪みがでる。その結果、顔の縦横比が魚眼画像21内の顔の位置によって変化することになる。一方、顔検出アルゴリズムは、顔のパターンを認識して人物の顔を検出するものである。よって、魚眼カメラ5の撮影対象であるユーザUが魚眼カメラ5の視野内で移動(例えば、水平方向への移動)したりすると、魚眼画像21上における歪みの影響により顔の領域の縦横比が変わることなどにより顔を表す特徴量が大きく変化するので、顔の領域のパターンが変わる。その結果、本実施形態の場合とは異なり、魚眼画像21に対して顔検出アルゴリズムを直接適用すると、適切に顔を検出できない場合がある。
これに対して、本実施形態では、魚眼画像21を基に円柱面画像32を生成し、その円柱面画像32を利用して顔検出を実施している。円柱面画像32を利用することで、顔の変形を魚眼画像21に比べて抑制することができ、特に、水平方向(左右方向)の人物の移動による顔の変形のバラツキを抑制することができる。その結果、図9に示したように、魚眼画像特有の歪みを考慮していない顔検出アルゴリズムを用いても、ユーザUの顔を検出することが可能である。
そして、ネットミーティング(或いはWEB会議)などでは、ユーザUは魚眼カメラ5に対して移動する場合もあるが、このような移動としては、鉛直方向(上下方向)への移動よりも、図11に示したように、魚眼レンズ5aに対して、図11中の破線で模式的に示される魚眼レンズ5aの視野内で水平方向(左右方向)へ移動する傾向にあると考えられる。そのため、実空間での水平方向に対応する方向が円柱30の周方向(或いは、図5に示した場合では幅方向)になるように円柱面画像32を生成し顔領域を検出することで、移動するユーザUの顔をより正確に検出することができる。
なお、ユーザUが水平方向により多く移動する傾向があることを考慮すると、円柱30の高さは、魚眼レンズ5aの鉛直方向の視野角を全てカバーするように設定する必要は必ずしもなく、例えば、視野角60°〜90°程度(光軸を基準とした場合、光軸から上下にそれぞれ30°〜45°)とに対応したものとすることも可能である。
また、本実施形態の像検出装置10及びその像検出装置10を用いた像検出方法では、上述のように円柱面画像32を利用して検出したユーザUの顔が、画像の中央部に位置する透視画像42を生成することも重要である。この点について説明する。
魚眼レンズを使用した魚眼カメラでは、取得した円形形状の魚眼画像を透視画像に変換して表示することが知られている。このような透視画像変換では、所定の視点方向に対する透視画像の画素と入力画像との画素との間のルックアップテーブル(LUT)を予め作成しておき、そのルックアップテーブルを利用して透視画像を生成することが考えられる。この場合、透視画像と魚眼画像との対応関係を、予め準備しているLUTを利用していることから、視点が固定されていることになる。そのため、ユーザUが移動したりして、ユーザUの顔が透視画像の中央部ではなく、透視画像の周縁部に位置したりすると、ユーザUの顔が透視画像上に表示されない場合も生じることがある。
これに対して、本実施形態の像検出装置10及びそれを用いた像検出方法では、像検出部13で検出した顔領域Fが透視画像42の中央部に位置するように、透視画像生成領域41を設定して透視画像42を生成している。このように、本実施形態では、顔検出結果に応じて視点を変更して透視画像42を生成している。そのため、ユーザUは互いの顔を表示装置4で表示される画像の中央部に見ながらネットミーティングを進めることが可能である。
そして、上記のような可変視点の場合でも、透視画像42を生成する際に、射影方程式に正確に従った仮想理想画像22と第2のLUT14Bとを利用していることから透視画像42の生成に要する時間の増加を抑制できている。
実際に取得された魚眼画像21にはレンズの製造誤差などの歪みが生じていることから、歪み補正をするためには、例えば、式(3a)〜(3d)を、視点が変わるたびに解かなくてはならないが、この演算処理には時間を要する。この演算処理を短縮化する方法としては、透視画像上の画素と球面画像上の点との対応関係を演算により算出し、球面画像上と魚眼画像21との間の対応関係はLUTを利用することも考えられる。しかし、球面画像を等サイズの画素に離散化することが難しい。また、地図のような経緯度画像による球面画像の表現では両極に従って歪み大きくなり、好ましくない。更に、測地ドーム法による離散化はデータ構造が複雑になることから計算時間もより多くかかることなる。
これに対して、本実施形態では、透視画像生成領域内の各画素に対する魚眼画像21上の対応画素を演算によって直接に算出せずに、先ず、射影方程式に正確に従った仮想理想画像22上の対応画素を特定し、その特定された対応画素に対応する魚眼画像21上の画素を第2のLUT14Bを利用して求めている。仮想理想画像22上の対応画素を特定する際には、演算を実行することになるが、これは射影方程式をそのまま適用するため、式(3a)〜式(3d)に示したように非線形連立方程式を解く場合より、演算時間を短縮することができる。従って、本実施形態では、検出された顔領域Fを画像の中央部に有する透視画像42をより早く生成することが可能となっている。また、仮想理想画像22は、平面画像であり、魚眼画像21とほぼ同じ解像度に設定できる。そして、仮想理想画像と入力画像としての魚眼画像21との間で視点の変更はないことから、上記のように予め対応関係を準備しておくことが可能となっている。
以上、本発明の好適な実施形態について説明したが、本発明は上記実施形態に限定されない。例えば、像検出装置10では、透視画像生成部12Bを備えるとしたが、必ずしも透視画像42を生成しなくてもよい。この場合は、例えば、円柱面画像32に対して顔検出アルゴリズムを適用することでユーザUの顔を検出したら、魚眼画像21において対応する領域(図8に示す領域Fi)を特定し、魚眼画像21からその部分を切り出して、表示すればよい。
また、上記実施形態では、説明の簡略化のため、図1に示したように2台のPC2をそれぞれ一人のユーザUが操作するとしたが、例えば、1台のPC2の前に複数のユーザUがいてもよい。この場合は、像検出部13は、各ユーザUの顔を円柱面画像32上でそれぞれ検出し、透視画像生成部12Bは、像検出部13で検出された顔領域Fの各々に対して、各顔領域Fを中央部に有する透視画像42を生成すればよい。
更にまた、実施形態の説明では、像検出装置10及び像検出装置10による像検出方法は、ネットミーティングに使用されることを仮定していたがこれに限定されない。魚眼カメラは、視野が広いことから、例えば監視システムに利用されることもあるため、そのような監視システムでの所定の被写体像の検出にも適用することができる。エレベータの監視システムを例として説明する。
複数のエレベータがエレベータホールの一壁面側に並列に配置されている場合、複数のエレベータの扉の開閉位置が一度に視野に入るように魚眼カメラを配置しておく。そして、当該魚眼カメラからの画像を像検出装置に取り込み、像検出装置で、前述したようにして所定の被写体像の検出を行い、表示装置に表示すればよい。像検出装置で検出する所定の被写体像は、人物の顔などにすることができる。これにより、エレベータの出入りに伴う人物の監視を、人物の顔を表示装置に示される画像の中心に見ながら行うことができる。また、特定の人物を探索又は監視したい場合には、その人物特有の顔のパターンを用いて像検出を実施すればよい。
上記エレベータの例では、エレベータホールの一壁面側に複数のエレベータが配置されているとしたが、エレベータホールの対向する2壁面のそれぞれの側に複数のエレベータが配置されている場合には、2つの魚眼カメラを利用してそれぞれの側の複数のエレベータへの人の出入りを監視すればよい。このようにすれば、例えば対向する両壁面の一方の側のエレベータから出た人が他方の側のエレベータに入る場合などを、人物の顔をみながら追跡できることになる。
また、例えば、魚眼レンズといった広角レンズが広い視野を有することから、例えば、広角レンズを有するカメラ装置を備えた追尾システムなどに使用することもできる。すなわち、広角レンズを有するカメラ装置で取得した広い視野を有する画像に対し、本実施形態で説明した像検出装置10を適用して所定の被写体像を検出し、画像上の検出位置に応じて、他のより視野の狭いカメラ装置で、検出された被写体像をより詳細に撮影しながら追尾することも可能である。
更に、本発明は、魚眼カメラや全天周カメラを取り付けたネットワークロボットにも適用することが可能である。例えば、ネットワークに接続されたロボットに上記魚眼カメラや全天周カメラ並びに像検出装置を搭載しておけば、特定の観測領域(所定の被写体像)に対応した透視画像を、ネットワークを介して監視センターに送付することができる。
更に、本発明は、魚眼カメラや全天周カメラを取り付けたネットワークロボットにも適用することが可能である。例えば、ネットワークに接続されたロボットに上記魚眼カメラや全天周カメラ並びに像検出装置を搭載しておけば、特定の観測領域(所定の被写体像)に対応した透視画像を、ネットワークを介して監視センターに送付することができる。
また、これまでの説明では、カメラ装置は、魚眼レンズ5aを利用した魚眼カメラとして説明したが、カメラ装置は、広角レンズを利用したものとすることができる。
本発明は、ネットミーディングシステム(又はWEB会議システム)及び監視システムに好適に利用することができる。
4,41,42…表示装置,5,51,52 …魚眼カメラ(カメラ装置),10…像検出装置,11…入力部,12A…円柱面画像生成部,12B…透視画像生成部,13…像検出部,14…記憶部,15…出力部,21…魚眼画像(入力画像),22…仮想理想画像,30…円柱,30a…周面,31…円柱面画像生成領域,40…透視画像平面,41…透視画像生成領域,42…透視画像,F…顔領域(所定の被写体像),Oc…原点,Op…画像中心。
Claims (11)
- 広角カメラにより取得した画像から所定の被写体像を検出する像検出装置であって、
前記広角カメラにより取得された前記画像を入力画像として受けつける入力部と、
互いに直交する第1〜第3の軸を有し前記第3の軸が前記広角カメラの光軸に対応する直交座標系での前記第1の軸又は第2の軸を中心軸とする円柱の周面上に、前記入力部で受けつけた前記入力画像を写像することによって円柱面画像を生成する円柱面画像生成部と、
前記円柱面画像に対して所定の被写体のパターン認識を実行することによって前記所定の被写体像を検出する像検出部と、
を備えることを特徴とする像検出装置。 - 前記円柱面画像生成部は、
前記第1及び第2の軸の少なくとも一方の軸方向に対する前記広角カメラの視野をカバーするように前記周面上に円柱面画像生成領域を設定し、
前記円柱面画像生成領域を構成する各画素に対する前記入力画像上の対応画素が有する画像情報を取得して前記円柱面画像を生成する、
ことを特徴とする請求項1に記載の像検出装置。 - 前記円柱面画像生成部は、
予め算出されている、前記円柱面画像生成領域を構成する各画素と前記入力画像上の対応画素との対応関係により、前記円柱面画像生成領域を構成する各画素に対して画像情報を取得する、
ことを特徴とする請求項1に記載の像検出装置。 - 前記像検出部で検出された前記所定の被写体像を含む透視画像を生成する透視画像生成部であって、前記所定の被写体像の中心に対応する、透視画像平面上の点を画像中心とする透視画像生成領域を前記透視画像平面上に設定し、前記広角カメラの射影方程式に従って算出される仮想的な理想画像である仮想理想画像を介して、前記透視画像生成領域が有する各画素と前記入力画像の画素とを対応づけ、前記透視画像生成領域が有する各画素に対する前記入力画像の対応画素が有する画像情報を取得することで前記透視画像を生成する前記透視画像生成部と、
前記透視画像を表示装置に出力する出力部と、
を更に備え、
前記透視画像生成部は、
前記透視画像生成領域が有する各画素に対する前記仮想理想画像上の対応位置を前記射影方程式に基づいて算出し、
前記仮想理想画像上の前記対応位置を、予め算出されている、前記仮想理想画像と前記入力画像との対応関係に基づいて前記入力画像の画素と対応づけることによって、前記透視画像生成領域の各画素に対する前記入力画像の対応画素の画像情報を取得する、
ことを特徴とする請求項2又は3に記載の像検出装置。 - 予め算出されている、前記円柱面画像生成領域を構成する各画素と前記入力画像上の対応画素との対応関係及び予め算出されている、前記仮想理想画像と前記入力画像との対応関係を、それぞれ第1及び第2のルックアップテーブルとして格納する記憶部を更に有することを特徴とする請求項4に記載の像検出装置。
- 広角カメラにより取得した画像から所定の被写体像を検出する像検出方法であって、
前記広角カメラにより取得された前記画像を入力画像として受けつける入力工程と、
互いに直交する第1〜第3の軸を有し前記第3の軸が前記広角カメラの光軸に対応する直交座標系での前記第1の軸又は第2の軸を中心軸とする円柱の周面上に、前記入力工程で受けつけた前記入力画像を写像することによって円柱面画像を生成する円柱面画像生成工程と、
前記円柱面画像に対して所定の被写体のパターン認識を実行することによって前記所定の被写体像を検出する像検出工程と、
を備えることを特徴とする像検出方法。 - 前記円柱面画像生成工程では、
前記第1及び第2の軸の少なくとも一方の軸方向に対する前記広角カメラの視野をカバーするように前記周面上に円柱面画像生成領域を設定し、
前記円柱面画像生成領域を構成する各画素に対する前記入力画像上の対応画素が有する画像情報を取得して前記円柱面画像を生成する、
ことを特徴とする請求項6に記載の像検出方法。 - 前記円柱面画像生成工程では、
予め算出されている、前記円柱面画像生成領域を構成する各画素と前記入力画像上の対応画素との対応関係により、前記円柱面画像生成領域を構成する各画素に対して画像情報を取得する、
ことを特徴とする請求項7に記載の像検出方法。 - 前記像検出工程で検出された前記所定の被写体像を含む透視画像を生成する透視画像生成工程であって、前記所定の被写体像の中心に対応する、透視画像平面上の点を画像中心とする透視画像生成領域を前記透視画像平面上に設定し、前記広角カメラの射影方程式に従って算出される仮想的な理想画像である仮想理想画像を介して、前記透視画像生成領域を構成する各画素と前記入力画像の画素とを対応づけ、前記透視画像生成領域を構成する各画素に対する前記入力画像上の対応画素が有する画像情報を取得することで前記透視画像を生成する透視画像生成工程と、
前記透視画像を表示装置に出力する出力工程と、
を更に備え、
前記透視画像生成工程では、
前記透視画像生成領域を構成する各画素に対する前記仮想理想画像上の対応位置を前記射影方程式に基づいて算出し、
前記仮想理想画像上の前記対応位置を、予め算出されている、前記仮想理想画像と前記入力画像との対応関係に基づいて前記入力画像の画素と対応づけることによって、前記透視画像生成領域の各画素に対する前記入力画像の対応画素が有する画像情報を取得する、
ことを特徴とする請求項7又は8に記載の像検出方法。 - 予め算出されている、前記円柱面画像生成領域を構成する各画素と前記入力画像上の対応画素との対応関係及び予め算出されている、前記仮想理想画像と前記入力画像との対応関係は、それぞれ第1及び第2のルックアップテーブルである、ことを特徴とする請求項9に記載の像検出方法。
- 前記所定の被写体は人間の顔であることを特徴とする請求項6〜10の何れか一項に記載の像検出方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009061016A JP2010217984A (ja) | 2009-03-13 | 2009-03-13 | 像検出装置及び像検出方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009061016A JP2010217984A (ja) | 2009-03-13 | 2009-03-13 | 像検出装置及び像検出方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010217984A true JP2010217984A (ja) | 2010-09-30 |
Family
ID=42976814
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009061016A Pending JP2010217984A (ja) | 2009-03-13 | 2009-03-13 | 像検出装置及び像検出方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010217984A (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012060269A1 (ja) * | 2010-11-04 | 2012-05-10 | コニカミノルタオプト株式会社 | 画像処理方法、画像処理装置及び撮像装置 |
JP5632100B2 (ja) * | 2011-11-24 | 2014-11-26 | 株式会社Nttドコモ | 表情出力装置及び表情出力方法 |
EP2858037A1 (en) | 2013-10-02 | 2015-04-08 | Toshiba Alpine Automotive Technology Corporation | Moving object detector |
JP2017211535A (ja) * | 2016-05-26 | 2017-11-30 | 株式会社リコー | 情報処理装置、情報処理方法、プログラムおよび表示システム |
JP2019175283A (ja) * | 2018-03-29 | 2019-10-10 | 株式会社リコー | 認識装置、認識システム、プログラムおよび位置座標検出方法 |
CN110458753A (zh) * | 2019-08-12 | 2019-11-15 | 杭州环峻科技有限公司 | 一种全景环带图像的自适应分割与无畸变展开系统及方法 |
-
2009
- 2009-03-13 JP JP2009061016A patent/JP2010217984A/ja active Pending
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012060269A1 (ja) * | 2010-11-04 | 2012-05-10 | コニカミノルタオプト株式会社 | 画像処理方法、画像処理装置及び撮像装置 |
US8913162B2 (en) | 2010-11-04 | 2014-12-16 | Konica Minolta, Inc. | Image processing method, image processing apparatus and image capturing apparatus |
JP5632100B2 (ja) * | 2011-11-24 | 2014-11-26 | 株式会社Nttドコモ | 表情出力装置及び表情出力方法 |
JPWO2013077076A1 (ja) * | 2011-11-24 | 2015-04-27 | 株式会社Nttドコモ | 表情出力装置及び表情出力方法 |
EP2858037A1 (en) | 2013-10-02 | 2015-04-08 | Toshiba Alpine Automotive Technology Corporation | Moving object detector |
CN104517298A (zh) * | 2013-10-02 | 2015-04-15 | 东芝阿尔派·汽车技术有限公司 | 移动体检测装置 |
JP2017211535A (ja) * | 2016-05-26 | 2017-11-30 | 株式会社リコー | 情報処理装置、情報処理方法、プログラムおよび表示システム |
JP2019175283A (ja) * | 2018-03-29 | 2019-10-10 | 株式会社リコー | 認識装置、認識システム、プログラムおよび位置座標検出方法 |
JP7020240B2 (ja) | 2018-03-29 | 2022-02-16 | 株式会社リコー | 認識装置、認識システム、プログラムおよび位置座標検出方法 |
CN110458753A (zh) * | 2019-08-12 | 2019-11-15 | 杭州环峻科技有限公司 | 一种全景环带图像的自适应分割与无畸变展开系统及方法 |
CN110458753B (zh) * | 2019-08-12 | 2023-08-11 | 杭州环峻科技有限公司 | 一种全景环带图像的自适应分割与无畸变展开系统及方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2017217411A1 (ja) | 画像処理装置、画像処理方法、及び記憶媒体 | |
US9892488B1 (en) | Multi-camera frame stitching | |
JP6398472B2 (ja) | 画像表示システム、画像表示装置、画像表示方法、およびプログラム | |
JP6891954B2 (ja) | 物体検知装置、物体検知方法、及びプログラム | |
JP2011182176A (ja) | 広視野角画像処理方法と広視野角画像撮影装置 | |
EP3332387B1 (en) | Method for calibration of a stereo camera | |
JP2023075366A (ja) | 情報処理装置、認識支援方法およびコンピュータプログラム | |
JP6594170B2 (ja) | 画像処理装置、画像処理方法、画像投影システムおよびプログラム | |
CN110505468B (zh) | 一种增强现实显示设备的测试标定及偏差修正方法 | |
JP2010217984A (ja) | 像検出装置及び像検出方法 | |
JP6963295B2 (ja) | 3次元情報取得装置 | |
KR20120108256A (ko) | 로봇 물고기 위치 인식 시스템 및 로봇 물고기 위치 인식 방법 | |
JP5487946B2 (ja) | カメラ画像の補正方法およびカメラ装置および座標変換パラメータ決定装置 | |
JP2014092922A (ja) | 検出装置、検出方法及び検出プログラム | |
US20220076399A1 (en) | Photographing guide device | |
KR102156998B1 (ko) | 비디오 시퀀스에서 모션을 감지하기 위한 방법 | |
JP2012054891A (ja) | 画像処理装置、方法及びプログラム | |
JP5727969B2 (ja) | 位置推定装置、方法、及びプログラム | |
JP2005275789A (ja) | 三次元構造抽出方法 | |
WO2018167971A1 (ja) | 画像処理装置、制御方法及び制御プログラム | |
JP2009239392A (ja) | 複眼撮影装置およびその制御方法並びにプログラム | |
CN110786017B (zh) | 分发图像生成方法 | |
JP6610741B2 (ja) | 画像表示システム、画像表示装置、画像表示方法、およびプログラム | |
JP2005277825A (ja) | マルチカメラ映像表示装置 | |
JP6879350B2 (ja) | 画像表示システム、画像表示装置、画像表示方法、およびプログラム |