JP2012226645A - Image processing apparatus, image processing method, recording medium, and program - Google Patents
Image processing apparatus, image processing method, recording medium, and program Download PDFInfo
- Publication number
- JP2012226645A JP2012226645A JP2011094938A JP2011094938A JP2012226645A JP 2012226645 A JP2012226645 A JP 2012226645A JP 2011094938 A JP2011094938 A JP 2011094938A JP 2011094938 A JP2011094938 A JP 2011094938A JP 2012226645 A JP2012226645 A JP 2012226645A
- Authority
- JP
- Japan
- Prior art keywords
- image
- face
- fisheye
- processing apparatus
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000012545 processing Methods 0.000 title claims abstract description 81
- 238000003672 processing method Methods 0.000 title description 3
- 238000006243 chemical reaction Methods 0.000 claims abstract description 21
- 230000014509 gene expression Effects 0.000 claims description 118
- 238000005259 measurement Methods 0.000 claims description 19
- 238000001514 detection method Methods 0.000 claims description 15
- 238000000034 method Methods 0.000 description 123
- 238000005516 engineering process Methods 0.000 description 20
- 238000010586 diagram Methods 0.000 description 13
- 238000004891 communication Methods 0.000 description 5
- 210000000887 face Anatomy 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 5
- 208000029152 Small face Diseases 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- FFBHFFJDDLITSX-UHFFFAOYSA-N benzyl N-[2-hydroxy-4-(3-oxomorpholin-4-yl)phenyl]carbamate Chemical compound OC1=C(NC(=O)OCC2=CC=CC=C2)C=CC(=C1)N1CCOCC1=O FFBHFFJDDLITSX-UHFFFAOYSA-N 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Abstract
Description
本技術は画像処理装置および方法、記録媒体並びにプログラムに関し、特に正確に3次元座標を検出することができるようにした画像処理装置および方法、記録媒体並びにプログラムに関する。 The present technology relates to an image processing apparatus and method, a recording medium, and a program, and more particularly, to an image processing apparatus and method, a recording medium, and a program that can accurately detect three-dimensional coordinates.
カメラにおいて魚眼レンズが使用される場合がある。魚眼レンズは360度の範囲の画像を撮像できるため、例えば周囲を全体的に監視するのに好適である。 Fisheye lenses may be used in cameras. Since the fisheye lens can capture an image in a range of 360 degrees, it is suitable for monitoring the entire surroundings, for example.
このような魚眼レンズを有するカメラをロボットの頭上に配置し、周囲を観察することが提案されている(例えば特許文献1)。 It has been proposed to arrange a camera having such a fisheye lens on the robot's head and observe the surroundings (for example, Patent Document 1).
しかしながら、魚眼レンズを用いたカメラにより撮像された画像はひずみが大きいので、その画像から、そこに写されている被写体の3次元位置を正確に推定することは困難である。 However, since an image captured by a camera using a fisheye lens has a large distortion, it is difficult to accurately estimate the three-dimensional position of the subject imaged from the image.
本技術はこのような状況に鑑みてなされたものであり、正確に3次元座標を検出できるようにする。 The present technology has been made in view of such a situation, and enables accurate detection of three-dimensional coordinates.
本技術の一側面は、魚眼レンズを介して撮影した画像である魚眼画像を取得する取得部と、前記魚眼画像を変換して、変換画像を生成する変換部と、前記変換画像から認識対象の画像を認識する認識部とを備える画像処理装置である。 One aspect of the present technology is an acquisition unit that acquires a fisheye image that is an image captured through a fisheye lens, a conversion unit that converts the fisheye image to generate a converted image, and a recognition target from the converted image It is an image processing apparatus provided with the recognition part which recognizes this image.
前記変換画像は、前記魚眼画像を円筒面上に展開した展開画像とすることができる。 The converted image may be a developed image obtained by developing the fisheye image on a cylindrical surface.
前記展開画像上の前記認識対象の画像の大きさを検出する検出部をさらに備えることができる。 The image processing apparatus may further include a detection unit that detects a size of the recognition target image on the developed image.
前記認識対象までの距離を、前記認識対象の画像の大きさから演算する演算部をさらに備えることができる。 The image processing apparatus may further include a calculation unit that calculates a distance to the recognition target from a size of the recognition target image.
前記演算部は、前記距離と大きさの関係を規定する関係式から、前記認識対象の画像の大きさに対応する前記認識対象までの距離を演算することができる。 The calculation unit can calculate the distance to the recognition target corresponding to the size of the recognition target image from a relational expression that defines the relationship between the distance and the size.
異なる大きさの複数の前記認識対象について用意されている複数の前記関係式から1つを選択する選択部をさらに備えることができる。 The information processing apparatus may further include a selection unit that selects one from the plurality of relational expressions prepared for the plurality of recognition targets having different sizes.
1つの前記関係式を選択するために距離を測定する測定部をさらに備えることができる。 In order to select one of the relational expressions, a measuring unit that measures a distance may be further provided.
1つの前記関係式を選択するために特定の前記認識対象を特定する特定部をさらに備えることができる。 In order to select one said relational expression, the specific part which specifies the specific said recognition object can further be provided.
前記演算部はさらに、新たな前記関係式を演算し、追加することができる。 The calculation unit can further calculate and add a new relational expression.
前記関係式を更新する更新部をさらに備えることができる。 An updating unit for updating the relational expression can be further provided.
前記関係式から検出された前記認識対象までの距離をパラメータとして、前記魚眼画像の座標系を、世界座標系に変換する座標変換部をさらに備えることができる。 The image processing apparatus may further include a coordinate conversion unit that converts a coordinate system of the fisheye image into a world coordinate system using a distance to the recognition target detected from the relational expression as a parameter.
本技術の一側面の画像処理方法、記録媒体及びプログラムは、上述した本技術の一側面の画像処理装置に対応する画像処理方法、記録媒体及びプログラムである。 An image processing method, a recording medium, and a program according to one aspect of the present technology are an image processing method, a recording medium, and a program corresponding to the image processing device according to one aspect of the present technology.
本技術の一側面においては、魚眼レンズを介して撮影した画像である魚眼画像が取得され、魚眼画像を変換して、変換画像が生成され、変換画像から認識対象の画像が検出される。 In one aspect of the present technology, a fish-eye image that is an image captured through a fish-eye lens is acquired, the fish-eye image is converted, a converted image is generated, and a recognition target image is detected from the converted image.
以上のように、本技術の一側面によれば、正確に3次元座標を検出することができる。 As described above, according to one aspect of the present technology, three-dimensional coordinates can be accurately detected.
以下、技術を実施するための形態(以下、実施の形態と称する)について説明する。なお、説明は以下の順序で行う。
1.第1の実施の形態
2.第2の実施の形態
3.第3の実施の形態
4.第4の実施の形態
5.変形例
6.本技術のプログラムへの適用
7.その他
Hereinafter, modes for carrying out the technology (hereinafter referred to as embodiments) will be described. The description will be given in the following order.
1. 1.
<1.第1の実施の形態>
[画像処理装置の構成]
<1. First Embodiment>
[Configuration of image processing apparatus]
図1は、本技術の画像処理装置1の構成を示すブロック図である。画像処理装置1は、カメラ11、モータ12、マイクロプロセッサ13、入力部14、出力部15、通信部16、メモリ17、およびステレオカメラ18を有している。
FIG. 1 is a block diagram illustrating a configuration of an
カメラ11は魚眼レンズ11Aを有し、所定の範囲の監視領域の被写体を撮像する。モータ12は、カメラ11を駆動し、その方向を所定の方向に指向させる。マイクロプロセッサ13は各部を制御する。入力部14はキーボード、マウス、スイッチ等により構成され、ユーザにより操作され、操作に対応する信号をマイクロプロセッサ13に出力する。出力部15は、LCD(Liquid Crystal Display)、スピーカなどにより構成され、所定の画像やメッセージを表示したり、音声を出力する。
The
通信部16は、インターネットその他のネットワークを介して他の装置と通信する。メモリ17は、各種の情報やプログラムを記憶する。ステレオカメラ18は必要に応じて付加され、測距のための画像を撮像する。
The
マイクロプロセッサ13は、撮像部31、画像変換部32、顔認識部33、判定部34、検出部35、演算部36、座標変換部37、指示部38、選択部39、測定部40、記憶部41、更新部42、制御部43の機能ブロックを有している。
The
撮像部31は、カメラ11とステレオカメラ18により被写体を撮像する。画像変換部32は、魚眼レンズ11Aによる画像を、変換画像に変換する。顔認識部33は、変換画像から認識対象としての人の顔を認識する。判定部34は、各種の判定処理を実行する。検出部35は、顔、顔のサイズ等の検出処理を行う。演算部36は、距離、関係式、顔の特定のための演算を行う。
The
座標変換部37は、座標変換の演算を行う。指示部38は、距離の変更、顔の大きさの変更などの指示を行う。選択部39は、関係式を選択する。測定部40は、距離を測定する。記憶部41は、距離と顔のサイズを記憶する。更新部42は、距離と顔のサイズの関係式を更新する。制御部43は、モータ12を駆動し、カメラ11とステレオカメラ18の向きを制御する。
The coordinate
<1.第1の実施の形態>
[3次元位置推定処理1]
<1. First Embodiment>
[Three-dimensional position estimation process 1]
次に、画像処理装置1の3次元位置推定処理を説明する。図2は、本技術の画像処理装置1の3次元位置推定処理を説明するフローチャートである。この処理は、画像処理装置1の電源をオンしたとき開始される。
Next, the three-dimensional position estimation process of the
ステップS1において撮像部31は、カメラ11で撮影する。カメラ11により魚眼レンズ11Aを介して周囲の被写体が撮影され、その画像が魚眼画像として取得される。
In step S <b> 1, the
図3は、本技術の画像処理装置1の3次元位置推定処理を説明する図である。カメラ11による撮影処理により、図3の左上に示されている魚眼画像P1が取得される。
FIG. 3 is a diagram illustrating a three-dimensional position estimation process of the
ステップS2において、画像変換部32は、画像を変換する。具体的には、ステップS1で取得された魚眼画像P1が、変換画像P2に変換される。この実施の形態における変換画像P2は、魚眼画像P1を円筒面上に展開した展開画像とされている。図3の右上に、この変換画像P2が示されている。
In step S2, the
ステップS3において顔認識部33は、顔認識処理を実行する。すなわち、図3の右下の図に示されるように、ステップS2で得られた変換画像に含まれる人の顔の画像51が変換画像P2から認識される。この認識処理は、例えば肌色、目、口、耳、鼻などの特徴を有する領域を検索することで行うことができる。
In step S3, the
ステップS1の撮像処理で得られた魚眼画像P1においては、3次元空間における上方向が画像の中心となる。そのため、3次元空間における上方向が画像の上方向であることを前提としている検出器で顔を検出し、そのサイズを迅速かつ正確に検出することが困難である。そこで本実施の形態においては、変換画像P2が生成される。これにより3次元空間における上方向の検出が容易となり、その結果、顔を検出することが容易となる。つまり、図3の右下に示されているように、変換画像P2から顔の画像51が検出される。
In the fisheye image P1 obtained by the imaging process in step S1, the upward direction in the three-dimensional space is the center of the image. Therefore, it is difficult to detect the face with a detector that assumes that the upward direction in the three-dimensional space is the upward direction of the image, and to detect the size quickly and accurately. Therefore, in the present embodiment, a converted image P2 is generated. This facilitates the upward detection in the three-dimensional space, and as a result, the face can be easily detected. That is, as shown in the lower right of FIG. 3, a
ステップS4において判定部34は、顔が認識されたかを判定する。顔が認識されない場合、処理はステップS1に戻り、顔が認識されるまで、ステップS1乃至S4の処理が繰り返される。
In step S4, the
ステップS4において顔が認識されたと判定された場合、ステップS5において検出部35は、認識された顔を魚眼画像の座標系から検出する。すなわち、図3の左側の中央に示されるように、魚眼画像P1上における顔の画像51が検出される。
If it is determined in step S4 that the face has been recognized, in step S5, the
ステップS6において検出部35は、顔のサイズ、つまり大きさを検出する。具体的には、図3の左側の中央に示される魚眼画像P1上における顔の画像51の大きさが検出される。
In step S6, the
図4は、被写体の画像の大きさと距離の関係を説明する図である。図4に示されるように、XYZの世界座標系において、カメラ11からより遠い距離R1の位置に顔の画像51−1が存在し、より近い距離R2の位置に顔の画像51−2が存在するとする。この場合、魚眼画像P1上の顔の画像51−1と、顔の画像51−2の大きさを比較すると、距離が近い顔の画像51−2の方が、距離が遠い顔の画像51−1より大きくなる。
FIG. 4 is a diagram for explaining the relationship between the size of the subject image and the distance. As shown in FIG. 4, in the XYZ world coordinate system, the face image 51-1 exists at a position at a distance R1 farther from the
図5は、被写体の画像の大きさと距離の関係を示すグラフである。図5において、横軸は顔の画像51の大きさ(すなわち、顔のサイズ)を表し、縦軸は、カメラ11と顔の距離Rを表す。図5に曲線Lで示されるように、顔のサイズSと距離Rの間には負の相関がある。つまり、距離Rが大きくなるほど、顔のサイズSは小さくなる。曲線Lは下に突の形状となる。曲線Lは、次の式で表される。
R=fs(S) (1)
FIG. 5 is a graph showing the relationship between the size of the subject image and the distance. In FIG. 5, the horizontal axis represents the size of the face image 51 (that is, the face size), and the vertical axis represents the distance R between the
R = fs (S) (1)
ステップS7において演算部36は、関係式に基づき、顔のサイズから距離を求める。ここで関係式とは、図5において曲線Lで表される式、すなわち顔のサイズSと距離Rの関係を表す式(1)である。ステップS6の処理で検出された顔のサイズSに対応する距離Rが、式(1)から求められる。式(1)はメモリ17に予め記憶されている。
In step S7, the
ステップS8において座標変換部37は、座標系を世界座標系に変換する。
In step S8, the coordinate
図6は、魚眼レンズ11Aにより撮像された魚眼画像の座標系を説明する図である。図6の魚眼画像の座標系xyにおいて、座標(xC,yC)はカメラ11が存在する座標である。rCは、魚眼レンズ11Aの視野半径である。世界座標系でカメラ11から距離Rに位置する顔の画像51が、魚眼画像の座標系において、座標(x,y)に位置するものとする。座標(xC,yC)と座標(x,y)とを結ぶ直線の、y座標軸に対する時計回転方向の角度をθとする。そして、顔の画像51の、世界座標系のXY面上のカメラ11からの仰角、つまり水平面からの仰角をφとする。このとき、次式が成立する。
FIG. 6 is a diagram for explaining a coordinate system of a fish-eye image captured by the fish-
x=xC−rC×cosφ×sinθ (2)
y=yC+rC×cosφ×cosθ (3)
x = x C −r C × cos φ × sin θ (2)
y = y C + r C × cosφ × cosθ (3)
上記式(2),(3)から次式が求められる。
rC×cosφ=(xC−x)/sinθ (4)
y=yC+((xC−x)/sinθ)×cosθ (5)
y=yC+(xC−x)/tanθ (6)
θ=tan−1((xC−x)/(y−yC)) (7)
rC×cosφ×sinθ=xC−x (8)
cosφ=(xC−x)/(rC×sinθ) (9)
φ=cos−1((xC−x)/(rC×sinθ)) (10)
From the above equations (2) and (3), the following equation is obtained.
r C × cos φ = (x C −x) / sin θ (4)
y = y C + ((x C −x) / sin θ) × cos θ (5)
y = y C + (x C −x) / tan θ (6)
θ = tan −1 ((x C −x) / (y−y C )) (7)
r C × cos φ × sin θ = x C −x (8)
cosφ = (x C −x) / (r C × sin θ) (9)
φ = cos −1 ((x C −x) / (r C × sin θ)) (10)
上記式に基づいて、演算部36は、顔の画像51の座標(x,y)から、角度θ,φを求めることができる。
Based on the above equation, the
図7は、世界座標系を説明する図である。図7(並びに、図3の左側の下の図)に示されるように、顔の画像51の世界座標系における座標(X,Y,Z)は、次式で表される。
X=Rcosφ×cosθ (11)
Y=Rcosφ×sinθ (12)
Z=Rsinφ (13)
FIG. 7 is a diagram illustrating the world coordinate system. As shown in FIG. 7 (and the lower diagram on the left side of FIG. 3), the coordinates (X, Y, Z) in the world coordinate system of the
X = Rcosφ × cosθ (11)
Y = Rcosφ × sinθ (12)
Z = Rsinφ (13)
座標変換部37は上記式(11)乃至(13)に基づき、ステップS7の処理で求められた距離Rをパラメータとして、顔の画像51の座標(X,Y,Z)を演算することができる。角度θ,φは、上記式(7)と式(10)で演算することができる。
The coordinate
ステップS9において判定部34は、推定処理を終了するかを判定する。ユーザから処理の終了が指示されていない場合、処理はステップS1に戻り、それ以降の処理が繰り返される。
In step S9, the
ステップS9において、ユーザから処理の終了が指示されたと判定された場合、推定処理は終了される。 If it is determined in step S9 that the user has instructed the end of the process, the estimation process ends.
以上のようにして、1個の魚眼レンズ11Aを有する1台のカメラ11の画像から、迅速かつ正確に、世界座標を求めることができる。その結果、顔の画像51の世界座標系における移動軌跡を予測したり、顔の画像51をより認識し易い方向にカメラ11を指向させたりすることができる。
As described above, the world coordinates can be obtained quickly and accurately from the image of one
<1.第1の実施の形態>
[学習処理]
<1. First Embodiment>
[Learning process]
上述したように、図2の3次元位置推定処理を実行する場合、距離と顔のサイズの関係が予め判っている必要がある。つまり、関係式を予め求めておく必要がある。そこで次に、距離と顔のサイズの関係式を予め学習し、求めておく方法について、図8と図9を参照して説明する。なお、図8と図9の実施の形態においては、異なる大きさの複数の顔についての複数の関係式を学習するものとする。 As described above, when the three-dimensional position estimation process of FIG. 2 is executed, the relationship between the distance and the face size needs to be known in advance. That is, it is necessary to obtain a relational expression in advance. Therefore, a method for learning in advance and obtaining a relational expression between the distance and the face size will be described with reference to FIGS. In the embodiment shown in FIGS. 8 and 9, a plurality of relational expressions for a plurality of faces having different sizes are learned.
図8は、学習処理を説明するフローチャートである。なお、図8のステップS41,S42,S44、S45の処理は、図2のステップS1,S2,S3,S6の処理と同様の処理であり、これらの処理については繰り返しになるので簡単に説明する。 FIG. 8 is a flowchart for explaining the learning process. Note that the processes in steps S41, S42, S44, and S45 in FIG. 8 are the same as the processes in steps S1, S2, S3, and S6 in FIG. 2, and these processes are repeated and will be briefly described. .
ステップS41において撮像部31は、カメラ11で撮影する。カメラ11により魚眼レンズ11Aを介して周囲の被写体が撮影され、その画像が魚眼画像として取得される。
In step S <b> 41, the
ステップS42において、画像変換部32は、画像を変換する。すなわち、ステップS41で取得された魚眼画像P1が変換画像P2に変換される。
In step S42, the
ステップS43において検出部35は、所定の大きさの顔が配置された距離を検出する。つまり、ステレオカメラ18または別途設けられた測距装置により、顔までの距離が測定され、その結果が取得される。
In step S43, the
ステップS44において顔認識部33は、顔認識処理を実行する。すなわち、ステップS42で得られた変換画像に含まれる人の顔の画像が認識される。
In step S44, the
ステップS45において検出部35は、顔のサイズを検出する。
In step S45, the
次にステップS46において記憶部41は、距離と顔のサイズとの関係を記憶する。つまり、ステップS43で検出された距離と、ステップS45で検出された顔のサイズが、対応づけられてメモリ17に記憶される。
Next, in step S46, the
ステップS47において判定部34は、必要な範囲を測定したかを判定する。つまり、監視する範囲についての測定が完了したかが判定される。
In step S47, the
まだ必要な範囲の測定が完了していない場合、ステップS48において指示部38は、距離の変更を指示する。例えば出力部15に距離の変更を指示するメッセージが表示される。ユーザはこの指示に従って、顔の位置を変更する。
If the measurement of the necessary range has not been completed, the
その後、処理はステップS41に戻り、新たに位置に配置された顔について、同様の処理が実行される。 Thereafter, the processing returns to step S41, and the same processing is executed for the face newly placed at the position.
ステップS47において必要な範囲の測定が完了したと判定された場合、ステップS49において判定部34は、全ての大きさを測定したかを判定する。まだ全ての大きさの顔を測定していない場合、ステップS50において指示部38は、顔の大きさの変更を指示する。例えば、出力部15に顔の大きさの変更を指示するメッセージが表示される。ユーザはこの指示に従って、顔の大きさを変更する。
If it is determined in step S47 that the measurement of the necessary range has been completed, the
その後、処理はステップS41に戻り、新たな大きさの顔について、同様の処理が実行される。 Thereafter, the process returns to step S41, and the same process is executed for the face of a new size.
ステップS49において全ての大きさの顔が測定されたと判定された場合、ステップS61において演算部36は、各サイズの顔と距離の関係式を演算する。
When it is determined in step S49 that faces of all sizes have been measured, in step S61, the
図9は、被写体の画像の大きさと距離の関係を表す式を説明する図である。以上のようにして、例えばサイズが大きい顔の画像51Lについての距離と顔のサイズの関係を表す曲線L1が、最小自乗法などにより求められ、それを表す関数である関係式R=fL(S)が求められる。
FIG. 9 is a diagram for explaining an expression representing the relationship between the size of the subject image and the distance. As described above, for example, the curve L1 representing the relationship between the distance and the face size for the
同様に、サイズが中程度の大きさの顔の画像51Mについての距離と顔のサイズの関係を表す曲線L2が、最小自乗法などにより求められ、それを表す関係式R=fM(S)が求められる。さらにサイズが小さい顔の画像51Sについての距離と顔のサイズの関係を表す曲線L3が、最小自乗法などにより求められ、それを表す関係式R=fS(S)が求められる。
Similarly, a curve L2 representing the relationship between the distance and the face size for the
求められた関係式は、メモリ17に記憶される。
The obtained relational expression is stored in the
<2.第2の実施の形態>
[3次元位置推定処理2]
<2. Second Embodiment>
[Three-dimensional position estimation process 2]
図2の3次元位置推定処理は、関係式が1つである場合の処理であるが、関係式が複数存在する場合の処理について、図10乃至図14を参照して説明する。 The three-dimensional position estimation process of FIG. 2 is a process when there is one relational expression, but a process when there are a plurality of relational expressions will be described with reference to FIGS. 10 to 14.
図10と図11は、本技術の画像処理装置1の3次元位置推定処理を説明するフローチャートである。なお、図10と図11のステップS81乃至S86と、ステップS88乃至S90の処理は、図2のステップS1乃至S9の処理と同様の処理であり、ステップS87と、ステップS91乃至S96の処理が、図2の3次元位置推定処理と異なっている。以下においては、主に図2における場合と異なる処理を中心に説明する。
10 and 11 are flowcharts illustrating the three-dimensional position estimation process of the
すなわち図2における場合と同様に、ステップS81乃至S86において、カメラ11で撮影して得られた魚眼画像が変換画像に変換され、変換画像から顔が認識され、認識された顔の魚眼画像上のサイズが検出される。
That is, as in the case of FIG. 2, in steps S81 to S86, the fisheye image obtained by photographing with the
魚眼画像上の顔のサイズが検出された後、ステップS87において関係式選択処理が実行される。この関係式選択処理の詳細について、図12のフローチャートを参照して説明する。この実施の形態の場合、魚眼レンズ11Aを有するカメラ11以外に、ステレオカメラ18が設けられている。
After the face size on the fisheye image is detected, the relational expression selection process is executed in step S87. Details of this relational expression selection processing will be described with reference to the flowchart of FIG. In the case of this embodiment, a
図12は、関係式選択処理を説明するフローチャートである。ステップS111において測定部40は、ステレオカメラ18により距離を測定する。すなわち、ステレオカメラ18が顔を撮像し、測定部40はその画像から顔までの距離を演算する。
FIG. 12 is a flowchart for explaining the relational expression selection process. In step S <b> 111, the
ステップS112において選択部39は、距離と顔のサイズから関係式を選択する。
In step S112, the
図13は、被写体の画像の大きさから距離を求める原理を説明する図である。いま、図13に示されるように、3つの関係式R=fL(S),R=fM(S),R=fS(S)が記憶されているものとする。ステップS85の処理で検出された顔のサイズをS1とするとき、関係式R=fL(S)上において、顔のサイズS1と対応する距離はR1となる。関係式R=fM(S)上において、顔のサイズS1と対応する距離はR2となり、関係式R=fS(S)上において、顔のサイズS1と対応する距離はR3となる。 FIG. 13 is a diagram for explaining the principle of obtaining the distance from the size of the subject image. Assume that three relational expressions R = f L (S), R = f M (S), and R = f S (S) are stored as shown in FIG. When the size of the detected face in the processing of step S85 and S 1, on the relationship R = f L (S), a distance corresponding to the size S 1 of the face becomes R 1. On the relational expression R = f M (S), the distance corresponding to the face size S 1 is R 2 , and on the relational expression R = f S (S), the distance corresponding to the face size S 1 is R 3. It becomes.
選択部39は、距離R1乃至R3のうち、ステップS111で測定された距離R0に最も近い値に対応する関係式を選択する。例えば距離R1の値が距離R0の値に最も近い場合、関係式R=fL(S)が選択される。すなわち、この場合、撮影されている被写体の人物の顔のサイズは、大きいサイズであると判断される。
Selecting
以上のようにして、1つの関係式が選択されると、その後、ステップS88乃至S96において、図2のステップS7乃至S9,S1乃至S6の処理と同様の処理が実行される。すなわち、ステップS88,S89において、選択された関係式に基づいて顔のサイズから距離が求められ、さらに魚眼画像の座標系が世界座標系に変換される。 When one relational expression is selected as described above, processing similar to the processing in steps S7 to S9 and S1 to S6 in FIG. 2 is thereafter performed in steps S88 to S96. That is, in steps S88 and S89, the distance is obtained from the face size based on the selected relational expression, and the coordinate system of the fisheye image is converted into the world coordinate system.
ステップS90で、まだ推定処理の終了が指示されていないと判定された場合、ステップS91乃至S96で、ステップS81乃至S86と同様の処理が実行される。すなわち、カメラ11で新たに撮影された魚眼画像が変換画像に変換される。そして変換画像から顔が認識されるまで顔認識処理が行われ、顔が認識されると、顔のサイズが検出される。さらに検出された顔のサイズに基づいて、ステップS87で選択された関係式から距離が求められる。以下同様の処理が繰り返される。
If it is determined in step S90 that the estimation process has not yet been instructed, the same processes as in steps S81 to S86 are executed in steps S91 to S96. That is, a fisheye image newly taken by the
こように、1度関係式が選択されると、以後、その選択された関係式が使用される。複数の顔が存在する場合、検出された顔がトラッキングされ、同じ顔については同じ関係式が使用される。 Thus, once a relational expression is selected, the selected relational expression is used thereafter. If there are multiple faces, the detected face is tracked and the same relation is used for the same face.
以上のようにして、この実施の形態の場合、ステレオカメラ18による測定結果に基づいて、1つの関係式が選択され、選択された関係式に基づいて、距離が求められる。
As described above, in the case of this embodiment, one relational expression is selected based on the measurement result by the
ステレオカメラ18を用いる場合、ステップS88の距離を求める処理でも、ステレオカメラ18による測定結果をそのまま用いることが可能である。しかし、カメラ11で撮影できてもステレオカメラ18で撮影できない範囲が存在することもある。そこで、ステレオカメラ18による測定結果は関係式の選択にのみ用い、距離は関係式から検出するようにした方が、全体としてのバラツキを少なくし、統一のとれた検出を行うことが可能となる。
When the
図12の実施の形態の場合、ステレオカメラ18による測定結果に基づいて、1つの関係式が選択されたが、他の方法で関係式を選択することも可能である。図14を参照して、他の方法で関係式を選択する例を説明する。
In the case of the embodiment of FIG. 12, one relational expression is selected based on the measurement result by the
図14は、関係式選択処理を説明するフローチャートである。この処理は、図10のステップS87の関係式選択処理の他の例を表す。この実施の形態の場合、顔からその人物を特定することができ、その特定された人物の顔のサイズがメモリ17に予め登録されている。
FIG. 14 is a flowchart for explaining the relational expression selection process. This process represents another example of the relational expression selection process in step S87 of FIG. In the case of this embodiment, the person can be specified from the face, and the size of the face of the specified person is registered in the
上述した場合と同様に、ステップS81乃至S86において、カメラ11で撮影して得られた魚眼画像が変換画像に変換され、変換画像から顔が認識され、認識された顔の魚眼画像上のサイズが検出される。
In the same manner as described above, in steps S81 to S86, the fisheye image obtained by photographing with the
魚眼画像上の顔のサイズが検出された後、ステップS87において、図14の関係式選択処理が実行される。 After the face size on the fisheye image is detected, the relational expression selection process of FIG. 14 is executed in step S87.
図14のステップS131において検出部35は特定部として機能し、顔を特定する。すなわち、メモリ17には、監視対象の人物の顔とその顔のサイズが予め登録されており、ステップS83の処理で認識された顔が、予め登録されている顔と比較され、特定される。
In step S131 in FIG. 14, the
ステップS132において選択部39は、特定された顔のサイズに対応する関係式を選択する。例えば各人物の顔のサイズは、図13のサイズが大きい顔の画像51L、サイズが中程度の顔の画像51M、およびサイズが小さい顔の画像51Sのいずれかに分類されており、特定された人物の顔のサイズに対応する関係式が選択される。特定された顔のサイズが小さい顔の画像51Sである場合には、関係式R=fS(S)が選択される。
In step S132, the
以上のようにして、1つの関係式が選択されると、図11のステップS88乃至S96において、上述した場合と同様の処理が実行される。 When one relational expression is selected as described above, processing similar to that described above is executed in steps S88 to S96 in FIG.
この実施の形態の場合、ステレオカメラ18が不要なので、ステレオカメラ18を設ける場合に比べて、構成を簡略化し、低コスト化することができる。また、装置を取り付ける空間も狭くてよい。
In this embodiment, since the
<3.第3の実施の形態>
[3次元位置推定処理3]
<3. Third Embodiment>
[Three-dimensional position estimation process 3]
図2の実施の形態、並びに図10と図11の実施の形態においては、関係式を予め用意しておく必要があったが、関係式を適宜追加するようにすることも可能である。以下、図15と図16を参照して、この場合の実施の形態について説明する。この実施の形態の場合にも、魚眼レンズ11Aを有するカメラ11以外に、ステレオカメラ18が設けられている。
In the embodiment of FIG. 2 and the embodiments of FIGS. 10 and 11, it is necessary to prepare the relational expression in advance, but it is possible to add the relational expression as appropriate. Hereinafter, an embodiment in this case will be described with reference to FIGS. 15 and 16. Also in this embodiment, a
図15と図16は、本技術の画像処理装置1の3次元位置推定処理を説明するフローチャートである。図15と図16のステップS161乃至S166、ステップS170乃至S172の処理は、図2のステップS1乃至S9の処理と同様の処理である。ステップS167乃至S169、ステップS173乃至S181の処理が、図2における場合と異なっている。以下、主に、異なっている処理について説明する。
FIGS. 15 and 16 are flowcharts illustrating the three-dimensional position estimation process of the
ステップS161乃至S166において、カメラ11で撮影して得られた魚眼画像が変換画像に変換され、変換画像から顔が認識され、認識された魚眼画像上の顔のサイズが検出される。
In steps S161 to S166, the fisheye image obtained by photographing with the
魚眼画像上の顔のサイズが検出された後、ステップS167,S168において、図12のステップS111,S112における場合と同様の処理が実行される。すなわち、ステップS167において測定部40は、ステレオカメラ18により距離を測定する。このとき、ステレオカメラ18が顔を撮像し、測定部40はその画像から顔までの距離を演算する。
After the face size on the fisheye image is detected, the same processing as in steps S111 and S112 in FIG. 12 is executed in steps S167 and S168. That is, in step S167, the
ステップS168において選択部39は、距離と顔のサイズから関係式を選択する。すなわち図13を参照して上述したように、選択部39は、距離R1乃至R3のうち、ステップS166で測定された距離R0に最も近い値に対応する関係式を選択する。例えば距離R1の値が距離R0の値に最も近い場合、関係式R=fL(S)が選択される。
In step S168, the
以上のようにして、1つの関係式が選択されると、ステップS169において判定部34は、適切な関係式があるかを判定する。つまり、ステップS168の処理で、適切な関係式が選択されたかが判定される。例えばステップS166で検出された顔のサイズと各関係式の顔のサイズとの差が、所定の閾値以内であるかが判定され、差が閾値以内である関係式が存在する場合、適切な関係式が存在すると判定される。
As described above, when one relational expression is selected, in step S169, the
ステップS169において適切な関係式が存在すると判定された場合、ステップS170乃至S172において、図2のステップS7乃至S9の処理と同様の処理が実行される。すなわち、ステップS170,S171において、選択された関係式に基づいて顔のサイズから距離が求められ、さらに魚眼画像の座標系が世界座標系に変換される。 When it is determined in step S169 that an appropriate relational expression exists, in steps S170 to S172, processing similar to the processing in steps S7 to S9 in FIG. 2 is executed. That is, in steps S170 and S171, the distance is obtained from the face size based on the selected relational expression, and the coordinate system of the fisheye image is converted into the world coordinate system.
ステップS172において判定部34は、推定処理の終了が指示されたかを判定する。ステップS172で、まだ推定処理の終了が指示されていないと判定された場合、ステップS173乃至S178、ステップS170乃至S172の処理が実行される。ステップS173乃至S178の処理は、ステップS161乃至S166の処理と同様の処理である。
In step S172, the
すなわち、新たな魚眼画像が取得され、変換画像に変換される。変換画像から顔が認識されるまで顔認識処理が行われ、顔が認識されると、魚眼画像上の顔のサイズが検出される。 That is, a new fisheye image is acquired and converted into a converted image. Face recognition processing is performed until a face is recognized from the converted image. When the face is recognized, the size of the face on the fisheye image is detected.
ステップS170において演算部36は、ステップS168の処理で選択されている関係式に基づいて、ステップS178の処理で検出された顔のサイズに対応する距離を求める。ステップS171において座標変換部37は、座標系を世界座標系に変換する。
In step S170, the
ステップS172において推定処理を終了するかが判定され、まだ終了が指示されていない場合、処理はステップS173に戻り、それ以降の処理が繰り返される。 In step S172, it is determined whether or not the estimation process is to be terminated. If the termination has not been instructed yet, the process returns to step S173, and the subsequent processes are repeated.
ステップS169において、適切な関係式が存在しないと判定された場合、つまり、ステップS166で検出された顔のサイズと各関係式の顔のサイズとの差が閾値以内ではない場合、ステップS179以降の処理が実行される。ステップS179において記憶部41は、距離と顔のサイズを記憶する。すなわち、ステップS166で検出された顔のサイズと、ステップS167の処理でステレオカメラ18により測定された距離が、対応づけてメモリ17に記憶される。
If it is determined in step S169 that an appropriate relational expression does not exist, that is, if the difference between the face size detected in step S166 and the face size of each relational expression is not within the threshold value, step S179 and the subsequent steps are performed. Processing is executed. In step S179, the
ステップS180において判定部34は、データが十分記憶されたかを判定する。距離と顔のサイズのデータが、関係式を演算するのに十分なデータであるかは、例えば次のように判定することができる。例えば、図13に示される各顔のサイズの関係式を表す曲線L1乃至L3は、それぞれほぼ相似と考えることができる。この場合、所定の値の距離と顔のサイズで規定される1点の座標が決まれば、そこを通る相似の曲線は一義的に特定することができる。このように考える場合、1つのデータが十分なデータとなる。
In step S180, the
また、複数の座標の平均値を演算し、その平均値で表される1つの点を通る相似の曲線を求めることもできる。この場合、平均値を求めるための任意の数のデータが十分なデータとなる。 It is also possible to calculate an average value of a plurality of coordinates and obtain a similar curve passing through one point represented by the average value. In this case, an arbitrary number of data for obtaining the average value is sufficient data.
さらに、複数のデータから最小自乗法により1つの関係式を演算する場合には、最小自乗法により1つの関係式を演算するのに必要な数のデータが、十分なデータとなる。 Further, when one relational expression is calculated from a plurality of data by the least square method, the number of data necessary for calculating one relational expression by the least square method is sufficient data.
ステップS180においてデータが十分記憶されたと判定された場合、ステップS181において演算部36は、所定の距離と顔のサイズの関係式を演算し、追加する。すなわち、新たな関係式がメモリ17に記憶される。
If it is determined in step S180 that the data has been sufficiently stored, in step S181, the
ステップS181の処理の後、ステップS172において、推定処理の終了が指示されたかが判定され、まだ終了が指示されていない場合、処理はステップS173に進み、それ以降の処理が実行される。ステップS172において、推定処理の終了が指示されたと判定された場合、処理は終了される。 After the process of step S181, it is determined in step S172 whether or not the end of the estimation process has been instructed. If the end has not been instructed yet, the process proceeds to step S173, and the subsequent processes are executed. If it is determined in step S172 that the end of the estimation process has been instructed, the process ends.
一方、ステップS180においてまだデータが十分記憶されていないと判定された場合、ステップS181の処理をスキップし、ステップS172の処理に移行してもよい。しかしこの実施の形態においては、ステップS180でまだデータが十分記憶されていないと判定された場合、ステップS182において、最も近い関係式を選択する処理が実行される。つまり、いまの場合、ステップS166で検出された顔のサイズと各関係式の顔のサイズとの差が閾値を超えている(ステップS169でそのように判定されている)のであるが、その差が最も小さい関係式が選択される。その後、ステップS169で適切な関係式が存在すると判定された場合と同様に、処理はステップS170に進み、それ以降の処理が実行される。 On the other hand, when it is determined in step S180 that the data has not been sufficiently stored, the process of step S181 may be skipped and the process may proceed to step S172. However, in this embodiment, when it is determined in step S180 that the data is not yet sufficiently stored, in step S182, processing for selecting the closest relational expression is executed. That is, in this case, the difference between the face size detected in step S166 and the face size of each relational expression exceeds the threshold value (determined as such in step S169). The relational expression with the smallest is selected. Thereafter, similarly to the case where it is determined in step S169 that an appropriate relational expression exists, the processing proceeds to step S170, and the subsequent processing is executed.
以上のようにして、この実施の形態の場合、新たな関係式が適宜追加される。 As described above, in the case of this embodiment, new relational expressions are added as appropriate.
<4.第4の実施の形態>
[3次元位置推定処理4]
<4. Fourth Embodiment>
[Three-dimensional position estimation process 4]
次に、図17と図18を参照して、関係式を更新する実施の形態について説明する。この実施の形態の場合にも、魚眼レンズ11Aを有するカメラ11以外に、ステレオカメラ18が設けられている。また、この実施の形態においては、メモリ17に顔のサイズが既知の特定の顔が予め記憶されている。
Next, an embodiment for updating the relational expression will be described with reference to FIGS. 17 and 18. Also in this embodiment, a
図17と図18は、本技術の画像処理装置1の3次元位置推定処理を説明するフローチャートである。図17と図18のステップS201乃至S206、ステップS212乃至S214の処理は、図2のステップS1乃至S9の処理と同様の処理である。ステップS207乃至S211、ステップS215乃至S222の処理が、図2における場合と異なっている。以下、主に、異なっている処理について説明する。
FIGS. 17 and 18 are flowcharts illustrating the three-dimensional position estimation process of the
ステップS201乃至S206において、カメラ11で撮影して得られた魚眼画像が変換画像に変換され、変換画像から顔が認識され、認識された魚眼画像上の顔のサイズが検出される。
In steps S201 to S206, the fisheye image obtained by photographing with the
魚眼画像上の顔のサイズが検出された後、ステップS207において、図12のステップS111における場合と同様の処理が実行される。すなわち、ステップS207において測定部40は、ステレオカメラ18により距離を測定する。このとき、ステレオカメラ18が顔を撮像し、測定部40はその画像から顔までの距離を演算する。
After the face size on the fisheye image is detected, in step S207, the same processing as in step S111 in FIG. 12 is executed. That is, in step S207, the
ステップS208において判定部34は、ステップS203の処理で認識された顔が、特定の顔であるかを判定する。ステップS203の処理で認識された顔が、特定の顔ではない場合、ステップS211において、図12のステップS112における場合と同様の処理が実行される。すなわち、選択部39は、距離と顔のサイズから関係式を選択する。図13を参照して上述したように、選択部39は、距離R1乃至R3のうち、ステップS207で測定された距離R0に最も近い値に対応する関係式を選択する。例えば距離R1の値が距離R0の値に最も近い場合、関係式R=fL(S)が選択される。
In step S208, the
以上のようにして、1つの関係式が選択されると、ステップS212乃至S214において、図2のステップS7乃至S9の処理と同様の処理が実行される。すなわち、ステップS212乃至S214において、選択された関係式に基づいて顔のサイズから距離が求められ、さらに魚眼画像の座標系が世界座標系に変換される。 As described above, when one relational expression is selected, in steps S212 to S214, processing similar to the processing in steps S7 to S9 in FIG. 2 is executed. That is, in steps S212 to S214, the distance is obtained from the face size based on the selected relational expression, and the coordinate system of the fisheye image is converted into the world coordinate system.
ステップS214において判定部34は、推定処理の終了が指示されたかを判定する。ステップS214で、まだ推定処理の終了が指示されていないと判定された場合、ステップS215乃至S220、ステップS212乃至S214の処理が実行される。ステップS215乃至S220の処理は、ステップS201乃至S206の処理と同様の処理である。
In step S214, the
すなわち、新たな魚眼画像が取得され、変換画像に変換される。変換画像から顔が認識されるまで顔認識処理が行われ、顔が認識されると、顔のサイズが検出される。 That is, a new fisheye image is acquired and converted into a converted image. Face recognition processing is performed until a face is recognized from the converted image, and when the face is recognized, the size of the face is detected.
ステップS212において演算部36は、ステップS211の処理で選択されている関係式に基づいて、ステップS220の処理で検出された顔のサイズに対応する距離を求める。ステップS213において座標変換部37は、座標系を世界座標系に変換する。
In step S212, the
ステップS214において推定処理を終了するかが判定され、まだ終了が指示されていない場合、処理はステップS215に戻り、それ以降の処理が繰り返される。 In step S214, it is determined whether or not the estimation process is to be terminated, and if the termination has not been instructed yet, the process returns to step S215 and the subsequent processes are repeated.
一方ステップS208において、認識された顔が予め登録されている特定の顔であると判定された場合、ステップS209において記憶部41は、距離と顔のサイズを記憶する。つまり、ステップS206で検出された顔のサイズと、ステップS207で測定された距離が、対応づけてメモリ17に記憶される。
On the other hand, when it is determined in step S208 that the recognized face is a specific face registered in advance, in step S209, the
ステップS210において判定部34は、データが十分記憶されたかを判定する。距離と顔のサイズのデータが、関係式を演算するのに十分なデータであるかは、例えば図15のステップS180における場合と同様に判定することができる。
In step S210, the
すなわち、例えば、図13に示される各顔のサイズの関係式を表す曲線L1乃至L3は、それぞれほぼ相似と考える場合、所定の値の距離と顔のサイズで規定される1点の座標が決まれば、そこを通る相似の曲線は一義的に特定することができる。このように考える場合、1つのデータが十分なデータとなる。 That is, for example, when the curves L 1 to L 3 representing the relational expressions of the face sizes shown in FIG. 13 are substantially similar to each other, the coordinates of one point defined by the predetermined distance and the face size are used. If it is determined, a similar curve passing there can be uniquely identified. When thinking in this way, one piece of data is sufficient data.
また、複数の座標の平均値を演算し、その平均値で表される1つの点を通る相似の曲線を求めることもできる。この場合、平均値を求めるための任意の数のデータが十分なデータとなる。 It is also possible to calculate an average value of a plurality of coordinates and obtain a similar curve passing through one point represented by the average value. In this case, an arbitrary number of data for obtaining the average value is sufficient data.
さらに、複数のデータから最小自乗法により1つの関係式を演算する場合には、最小自乗法により1つの関係式を演算するのに必要な数のデータが、十分なデータとなる。 Further, when one relational expression is calculated from a plurality of data by the least square method, the number of data necessary for calculating one relational expression by the least square method is sufficient data.
ステップS210においてデータが十分であると判定された場合、ステップS221において更新部42は、特定の距離と顔のサイズの関係式を演算し、更新する。特定の顔のサイズの正確な値は、メモリ17に予め登録されている。そこで、ステップS206で検出された顔のサイズが、予め登録されている顔のサイズに対応づけられる。この顔のサイズと、ステップS207においてステレオカメラ18により測定された距離とに基づいて演算を行うことで、正確な関係式を得ることができる。
If it is determined in step S210 that the data is sufficient, in step S221, the
関係式が更新されると、ステップS222において選択部39は、更新した関係式を選択する。すなわちステップS221でいま更新された関係式が選択される。
When the relational expression is updated, in step S222, the
その後、処理はステップS212に進み、それ以降の処理が実行される。 Thereafter, the process proceeds to step S212, and the subsequent processes are executed.
ステップS210においてデータがまだ十分記憶されていないと判定された場合、ステップS221,S222の処理はスキップされる。この場合は、ステップS211において、距離と顔のサイズから関係式が選択される。つまりこの場合には関係式は更新されず、ステップS206で検出された顔のサイズと、ステップS207で測定された距離にもとづき特定される従前の関係式が選択される。その後、処理はステップS212に進み、それ以降の処理が実行される。 If it is determined in step S210 that the data is not yet sufficiently stored, the processes in steps S221 and S222 are skipped. In this case, in step S211, a relational expression is selected from the distance and the face size. That is, in this case, the relational expression is not updated, and the previous relational expression specified based on the face size detected in step S206 and the distance measured in step S207 is selected. Thereafter, the process proceeds to step S212, and the subsequent processes are executed.
このように、この実施の形態においてはサイズが既知の顔が検出されると、関係式が更新されるので、関係式をより正確なものとし、それに基づいて正確な位置を検出することが可能になる。 Thus, in this embodiment, when a face with a known size is detected, the relational expression is updated, so that the relational expression can be made more accurate and an accurate position can be detected based on the relational expression. become.
[5.変形例] [5. Modified example]
魚眼画像の他の変換画像の例について説明する。図19は、画像の展開を説明する図である。図19の例では、1枚の魚眼画像が、その中心を通る水平方向の仮想的な線と垂直方向の仮想的な線により、左上、右上、左下、および右下の4つの領域A1乃至A4に区分される。そして1枚の魚眼画像が、左右または上下に隣接する2つの領域を含む処理対象の変換画像に変換される。つまり、領域A3と領域A4の変換画像、領域A4と領域A2の変換画像、領域A2と領域A1の変換画像、および領域A1と領域A3の変換画像に変換される。 Examples of other converted images of fisheye images will be described. FIG. 19 is a diagram for explaining image development. In the example of FIG. 19, one fisheye image is divided into four regions A1 to A1, an upper left, an upper right, a lower left, and a lower right by a horizontal virtual line and a vertical virtual line passing through the center. It is divided into A4. Then, one fisheye image is converted into a conversion image to be processed that includes two regions that are adjacent to each other on the left and right or top and bottom. That is, the image is converted into a converted image of region A3 and region A4, a converted image of region A4 and region A2, a converted image of region A2 and region A1, and a converted image of region A1 and region A3.
このように変換した変換画像から顔を認識することでも、1枚の魚眼画像自体から顔を認識する場合に比べれば、容易に顔を認識することが可能になる。 Even when the face is recognized from the converted image thus converted, the face can be easily recognized as compared with the case where the face is recognized from one fisheye image itself.
ただしこの場合、各変換画像において、顔は最大±45度に傾斜する。そこで、顔の認識器は、±45度に傾斜する顔を認識できる性能を有する必要がある。 However, in this case, in each converted image, the face is inclined up to ± 45 degrees. Therefore, the face recognizer needs to have a performance capable of recognizing a face inclined at ± 45 degrees.
以上においてはステレオカメラ18により距離を測定するようにしたが、他の測距手段を用いることも可能である。
In the above, the distance is measured by the
また、魚眼画像を平面展開することも考えられる。 It is also conceivable to develop a fisheye image on a plane.
本技術は、例えば所定の空間を監視する監視装置、ロボットにより周囲を視認する装置、その他の画像処理装置に適用することができる。また認識対象は人の顔に限られない。動物、各種の物体などを認識対象とすることができる。 The present technology can be applied to, for example, a monitoring device that monitors a predetermined space, a device that visually recognizes the surroundings by a robot, and other image processing devices. The recognition target is not limited to a human face. Animals, various objects, etc. can be recognized.
[6.本技術のプログラムへの適用] [6. Application of this technology to programs]
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。 The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software is installed in the computer. Here, the computer includes, for example, a general-purpose personal computer capable of executing various functions by installing various programs by installing a computer incorporated in dedicated hardware.
図20は、上述した一連の処理をプログラムにより実行するパーソナルコンピュータの構成を示すブロック図である。 FIG. 20 is a block diagram showing a configuration of a personal computer that executes the above-described series of processing by a program.
コンピュータにおいて、CPU(Central Processing Unit)221,ROM(Read Only Memory)222,RAM(Random Access Memory)223は、バス224により相互に接続されている。
In the computer, a CPU (Central Processing Unit) 221, a ROM (Read Only Memory) 222, and a RAM (Random Access Memory) 223 are connected to each other via a
バス224には、さらに、入出力インタフェース225が接続されている。入出力インタフェース225には、入力部226、出力部227、記憶部228、通信部229、及びドライブ230が接続されている。
An input /
入力部226は、キーボード、マウス、マイクロフォンなどよりなる。出力部227は、ディスプレイ、スピーカなどよりなる。記憶部228は、ハードディスクや不揮発性のメモリなどよりなる。通信部229は、ネットワークインタフェースなどよりなる。ドライブ230は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア231を駆動する。
The
以上のように構成されるコンピュータでは、CPU221が、例えば、記憶部228に記憶されているプログラムを、入出力インタフェース225及びバス224を介して、RAM223にロードして実行することにより、上述した一連の処理が行われる。
In the computer configured as described above, the
コンピュータ(CPU221)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア231に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
The program executed by the computer (CPU 221) can be provided by being recorded on a
コンピュータでは、プログラムは、リムーバブルメディア231をドライブ230に装着することにより、入出力インタフェース225を介して、記憶部228にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部229で受信し、記憶部228にインストールすることができる。その他、プログラムは、ROM222や記憶部228に、あらかじめインストールしておくことができる。
In the computer, the program can be installed in the
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。 The program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.
なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。 The embodiments of the present technology are not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present technology.
[7.その他] [7. Others]
本技術は、以下のような構成もとることができる。
(1)
魚眼レンズを介して撮影した画像である魚眼画像を取得する取得部と、
前記魚眼画像を変換して、変換画像を生成する変換部と、
前記変換画像から認識対象の画像を認識する認識部と
を備える画像処理装置。
(2)
前記変換画像は、前記魚眼画像を円筒面上に展開した展開画像である
前記(1)に記載の画像処理装置。
(3)
前記展開画像上の前記認識対象の画像の大きさを検出する検出部をさらに備える
前記(1)または(2)に記載の画像処理装置。
(4)
前記認識対象までの距離を、前記認識対象の画像の大きさから演算する演算部をさらに備える
前記(3)に記載の画像処理装置。
(5)
前記演算部は、前記距離と大きさの関係を規定する関係式から、前記認識対象の画像の大きさに対応する前記認識対象までの距離を演算する
前記(4)に記載の画像処理装置。
(6)
異なる大きさの複数の前記認識対象について用意されている複数の前記関係式から1つを選択する選択部をさらに備える
前記(5)に記載の画像処理装置。
(7)
1つの前記関係式を選択するために距離を測定する測定部をさらに備える
前記(6)に記載の画像処理装置。
(8)
1つの前記関係式を選択するために特定の前記認識対象を特定する特定部をさらに備える
前記(6)に記載の画像処理装置。
(9)
前記演算部はさらに、新たな前記関係式を演算し、追加する
前記(5)乃至(8)のいずれかに記載の画像処理装置。
(10)
前記関係式を更新する更新部をさらに備える
前記(5)乃至(9)のいずれかに記載の画像処理装置。
(11)
前記関係式から検出された前記認識対象までの距離をパラメータとして、前記魚眼画像の座標系を、世界座標系に変換する座標変換部をさらに備える
前記(5)乃至(10)のいずれかに記載の画像処理装置。
(12)
魚眼レンズを介して撮影した画像である魚眼画像を取得する取得ステップと、
前記魚眼画像を変換して、変換画像を生成する変換ステップと、
前記変換画像から認識対象の画像を認識する認識ステップと
を含む画像処理方法。
(13)
コンピュータに、
魚眼レンズを介して撮影した画像である魚眼画像を取得する取得ステップと、
前記魚眼画像を変換して、変換画像を生成する変換ステップと、
前記変換画像から認識対象の画像を認識する認識ステップと
を実行させるプログラムが記録されているコンピュータが読み取り可能な記録媒体。
(14)
コンピュータに、
魚眼レンズを介して撮影した画像である魚眼画像を取得する取得ステップと、
前記魚眼画像を変換して、変換画像を生成する変換ステップと、
前記変換画像から認識対象の画像を認識する認識ステップと
を実行させるプログラム。
The present technology can be configured as follows.
(1)
An acquisition unit that acquires a fisheye image that is an image taken through a fisheye lens;
A conversion unit that converts the fisheye image and generates a converted image;
An image processing apparatus comprising: a recognition unit that recognizes an image to be recognized from the converted image.
(2)
The image processing apparatus according to (1), wherein the converted image is a developed image obtained by developing the fisheye image on a cylindrical surface.
(3)
The image processing apparatus according to (1) or (2), further including a detection unit configured to detect a size of the recognition target image on the developed image.
(4)
The image processing apparatus according to (3), further including a calculation unit that calculates a distance to the recognition target from a size of the image of the recognition target.
(5)
The image processing apparatus according to (4), wherein the calculation unit calculates a distance to the recognition target corresponding to a size of the image to be recognized, from a relational expression that defines a relationship between the distance and the size.
(6)
The image processing apparatus according to (5), further including a selection unit that selects one of the plurality of relational expressions prepared for the plurality of recognition targets having different sizes.
(7)
The image processing apparatus according to (6), further including a measurement unit that measures a distance in order to select one of the relational expressions.
(8)
The image processing apparatus according to (6), further including a specifying unit that specifies the specific recognition target in order to select one of the relational expressions.
(9)
The image processing apparatus according to any one of (5) to (8), wherein the calculation unit further calculates and adds a new relational expression.
(10)
The image processing apparatus according to any one of (5) to (9), further including an update unit that updates the relational expression.
(11)
The coordinate system according to any one of (5) to (10), further including a coordinate conversion unit that converts the coordinate system of the fisheye image into a world coordinate system using the distance to the recognition target detected from the relational expression as a parameter. The image processing apparatus described.
(12)
An acquisition step of acquiring a fisheye image, which is an image taken through a fisheye lens;
Converting the fisheye image to generate a converted image;
A recognition step of recognizing an image to be recognized from the converted image.
(13)
On the computer,
An acquisition step of acquiring a fisheye image, which is an image taken through a fisheye lens;
Converting the fisheye image to generate a converted image;
A computer-readable recording medium storing a program for executing a recognition step of recognizing an image to be recognized from the converted image.
(14)
On the computer,
An acquisition step of acquiring a fisheye image, which is an image taken through a fisheye lens;
Converting the fisheye image to generate a converted image;
A recognition step of recognizing an image to be recognized from the converted image.
1 画像処理装置, 11 カメラ, 11A 魚眼レンズ, 13 マイクロプロセッサ, 31 撮像部, 32 画像変換部, 33 顔認識部, 34 判定部, 35 検出部, 36 演算部, 37 座標変換部, 38 指示部, 39 選択部, 40 測定部, 41 記憶部, 42 更新部, 43 制御部
DESCRIPTION OF
Claims (14)
前記魚眼画像を変換して、変換画像を生成する変換部と、
前記変換画像から認識対象の画像を認識する認識部と
を備える画像処理装置。 An acquisition unit that acquires a fisheye image that is an image taken through a fisheye lens;
A conversion unit that converts the fisheye image and generates a converted image;
An image processing apparatus comprising: a recognition unit that recognizes an image to be recognized from the converted image.
請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the converted image is a developed image obtained by developing the fisheye image on a cylindrical surface.
請求項2に記載の画像処理装置。 The image processing apparatus according to claim 2, further comprising a detection unit that detects a size of the image to be recognized on the developed image.
請求項3に記載の画像処理装置。 The image processing apparatus according to claim 3, further comprising a calculation unit that calculates a distance to the recognition target from a size of the image of the recognition target.
請求項4に記載の画像処理装置。 The image processing apparatus according to claim 4, wherein the calculation unit calculates a distance to the recognition target corresponding to a size of the image to be recognized, from a relational expression that defines a relationship between the distance and the size.
請求項5に記載の画像処理装置。 The image processing apparatus according to claim 5, further comprising a selection unit that selects one of the plurality of relational expressions prepared for the plurality of recognition targets having different sizes.
請求項6に記載の画像処理装置。 The image processing apparatus according to claim 6, further comprising a measurement unit that measures a distance in order to select one of the relational expressions.
請求項6に記載の画像処理装置。 The image processing apparatus according to claim 6, further comprising a specifying unit that specifies a specific recognition target in order to select one of the relational expressions.
請求項6に記載の画像処理装置。 The image processing apparatus according to claim 6, wherein the calculation unit further calculates and adds the new relational expression.
請求項6に記載の画像処理装置。 The image processing apparatus according to claim 6, further comprising an update unit that updates the relational expression.
請求項5に記載の画像処理装置。 The image processing apparatus according to claim 5, further comprising a coordinate conversion unit that converts a coordinate system of the fisheye image into a world coordinate system using a distance to the recognition target detected from the relational expression as a parameter.
前記魚眼画像を変換して、変換画像を生成する変換ステップと、
前記変換画像から認識対象の画像を認識する認識ステップと
を含む画像処理方法。 An acquisition step of acquiring a fisheye image, which is an image taken through a fisheye lens;
Converting the fisheye image to generate a converted image;
A recognition step of recognizing an image to be recognized from the converted image.
魚眼レンズを介して撮影した画像である魚眼画像を取得する取得ステップと、
前記魚眼画像を変換して、変換画像を生成する変換ステップと、
前記変換画像から認識対象の画像を認識する認識ステップと
を実行させるプログラムが記録されているコンピュータが読み取り可能な記録媒体。 On the computer,
An acquisition step of acquiring a fisheye image, which is an image taken through a fisheye lens;
Converting the fisheye image to generate a converted image;
A computer-readable recording medium storing a program for executing a recognition step of recognizing an image to be recognized from the converted image.
魚眼レンズを介して撮影した画像である魚眼画像を取得する取得ステップと、
前記魚眼画像を変換して、変換画像を生成する変換ステップと、
前記変換画像から認識対象の画像を認識する認識ステップと
を実行させるプログラム。 On the computer,
An acquisition step of acquiring a fisheye image, which is an image taken through a fisheye lens;
Converting the fisheye image to generate a converted image;
A recognition step of recognizing an image to be recognized from the converted image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011094938A JP2012226645A (en) | 2011-04-21 | 2011-04-21 | Image processing apparatus, image processing method, recording medium, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011094938A JP2012226645A (en) | 2011-04-21 | 2011-04-21 | Image processing apparatus, image processing method, recording medium, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012226645A true JP2012226645A (en) | 2012-11-15 |
Family
ID=47276719
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011094938A Withdrawn JP2012226645A (en) | 2011-04-21 | 2011-04-21 | Image processing apparatus, image processing method, recording medium, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012226645A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014185169A1 (en) | 2013-05-16 | 2014-11-20 | ソニー株式会社 | Image processing device, image processing method, and program |
WO2014185170A1 (en) | 2013-05-16 | 2014-11-20 | ソニー株式会社 | Image processing device, image processing method, and program |
WO2017086029A1 (en) * | 2015-11-20 | 2017-05-26 | ソニー株式会社 | Image processing device, image processing method, moving body, wearable electronic device, and computer program |
CN107122770A (en) * | 2017-06-13 | 2017-09-01 | 驭势(上海)汽车科技有限公司 | Many mesh camera systems, intelligent driving system, automobile, method and storage medium |
CN108182747A (en) * | 2018-02-06 | 2018-06-19 | 上海灵纽智能科技有限公司 | A kind of recognition of face lock and recognition methods based on fish-eye camera |
JP2019159739A (en) * | 2018-03-13 | 2019-09-19 | キヤノン株式会社 | Image processing device, image processing method, and program |
WO2022000862A1 (en) * | 2020-06-29 | 2022-01-06 | 苏州科达科技股份有限公司 | Method and apparatus for detecting object in fisheye image, and storage medium |
-
2011
- 2011-04-21 JP JP2011094938A patent/JP2012226645A/en not_active Withdrawn
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014185169A1 (en) | 2013-05-16 | 2014-11-20 | ソニー株式会社 | Image processing device, image processing method, and program |
WO2014185170A1 (en) | 2013-05-16 | 2014-11-20 | ソニー株式会社 | Image processing device, image processing method, and program |
US9800780B2 (en) | 2013-05-16 | 2017-10-24 | Sony Corporation | Image processing device, image processing method, and program to capture an image using fisheye lens |
US10713525B2 (en) | 2013-05-16 | 2020-07-14 | Sony Corporation | Image processing device and method to obtain a 360° image without remapping |
WO2017086029A1 (en) * | 2015-11-20 | 2017-05-26 | ソニー株式会社 | Image processing device, image processing method, moving body, wearable electronic device, and computer program |
CN107122770A (en) * | 2017-06-13 | 2017-09-01 | 驭势(上海)汽车科技有限公司 | Many mesh camera systems, intelligent driving system, automobile, method and storage medium |
CN107122770B (en) * | 2017-06-13 | 2023-06-27 | 驭势(上海)汽车科技有限公司 | Multi-camera system, intelligent driving system, automobile, method and storage medium |
CN108182747A (en) * | 2018-02-06 | 2018-06-19 | 上海灵纽智能科技有限公司 | A kind of recognition of face lock and recognition methods based on fish-eye camera |
JP2019159739A (en) * | 2018-03-13 | 2019-09-19 | キヤノン株式会社 | Image processing device, image processing method, and program |
JP7059054B2 (en) | 2018-03-13 | 2022-04-25 | キヤノン株式会社 | Image processing equipment, image processing methods and programs |
WO2022000862A1 (en) * | 2020-06-29 | 2022-01-06 | 苏州科达科技股份有限公司 | Method and apparatus for detecting object in fisheye image, and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6942488B2 (en) | Image processing equipment, image processing system, image processing method, and program | |
JP5538160B2 (en) | Pupil detection device and pupil detection method | |
JP2012226645A (en) | Image processing apparatus, image processing method, recording medium, and program | |
JP6201991B2 (en) | Camera position / orientation evaluation apparatus, camera position / orientation evaluation method, and camera position / orientation evaluation program | |
US9811742B2 (en) | Vehicle-surroundings recognition device | |
KR20120138627A (en) | A face tracking method and device | |
EP2704056A2 (en) | Image processing apparatus, image processing method | |
JP2009266086A (en) | Line of sight detecting device and method and program | |
JP7334432B2 (en) | Object tracking device, monitoring system and object tracking method | |
Tepelea et al. | A vision module for visually impaired people by using Raspberry PI platform | |
JP2013202273A (en) | Estimation device of sleepiness level, estimation method of sleepiness level, and estimation processing program of sleepiness level | |
KR20210155655A (en) | Method and apparatus for identifying object representing abnormal temperatures | |
US20240104769A1 (en) | Information processing apparatus, control method, and non-transitory storage medium | |
CN113052907B (en) | Positioning method of mobile robot in dynamic environment | |
TWI671707B (en) | Image analysis method, electronic system and non-transitory computer-readable recording medium | |
JP2010217984A (en) | Image detector and image detection method | |
JP5482412B2 (en) | Robot, position estimation method and program | |
JP2015106307A (en) | Object detection device | |
CN107562050B (en) | Method and system for robot to recognize environment | |
JP2011118767A (en) | Facial expression monitoring method and facial expression monitoring apparatus | |
KR101031369B1 (en) | Apparatus for identifying face from image and method thereof | |
JP5896781B2 (en) | Image processing apparatus and image processing method | |
JP2012242315A (en) | Position detection system, mobile body using the same, position detection method, and program therefor | |
WO2002007095A1 (en) | Device for three-dimensionally tracking face and peripheral recognition device comprising the same | |
US11946768B2 (en) | Information processing apparatus, moving body, method for controlling information processing apparatus, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20140701 |