JP2005260731A - Camera selecting device and camera selecting method - Google Patents
Camera selecting device and camera selecting method Download PDFInfo
- Publication number
- JP2005260731A JP2005260731A JP2004071463A JP2004071463A JP2005260731A JP 2005260731 A JP2005260731 A JP 2005260731A JP 2004071463 A JP2004071463 A JP 2004071463A JP 2004071463 A JP2004071463 A JP 2004071463A JP 2005260731 A JP2005260731 A JP 2005260731A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- image
- viewpoint
- viewer
- cameras
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、異なる位置に配設された複数のカメラによって動物体を撮影する技術に関する。 The present invention relates to a technique for photographing a moving object using a plurality of cameras arranged at different positions.
従来、複数箇所に設置されたカメラを使用して、被写界に存在する動物体の撮影を行うシステムが実用化されている。例えば、特許文献1には、使用者の要望に応じて、カメラとレンズとの組合せを容易に選択できるようにした、レンズの選択装置が開示されている。当該装置では、レンズの選択に際して、カメラの画面サイズ、撮影距離、焦点距離、被写体の大きさ、絞りの方式などの撮影条件が考慮される。撮影条件に適合するレンズが検索されると、これが表示装置に表示され、使用者による選択を待って、撮影に使用されるレンズが決定する。
しかしながら、上記従来技術は、監視を含む動物体の撮影を主な目的としたものであり、任意の視点から観た映像の提供を目的としたものではないことから、以下に示す問題点があった。すなわち、カメラの選択基準として、個々のカメラの特性は考慮されているが、カメラの視点と動物体の視点との類似度合い、あるいは、位置に応じたカメラの解像度特性といった、両者の相関性は充分に考慮されていなかった。このため、高画質な撮像をユーザに提供するという観点から、必ずしも最適なカメラが選択されるとは限らなかった。 However, the above-mentioned prior art is mainly intended for photographing a moving body including surveillance, and is not intended to provide an image viewed from an arbitrary viewpoint, and therefore has the following problems. It was. In other words, the characteristics of individual cameras are taken into account as the camera selection criteria, but the degree of similarity between the camera viewpoint and the viewpoint of the moving object or the resolution characteristics of the camera according to the position is not correlated. It was not considered enough. For this reason, the optimal camera is not always selected from the viewpoint of providing the user with high-quality imaging.
そこで、本発明の課題は、複数のカメラの中から、動物体の視点に応じた最適なカメラを選択することである。 Therefore, an object of the present invention is to select an optimal camera corresponding to the viewpoint of a moving object from a plurality of cameras.
上記課題を解決するために、本発明に係るカメラ選択装置は、複数のカメラにより撮影可能な被写界において、視者(動物体)の位置を特定する特定手段と、前記特定手段により特定された視者位置とカメラの位置と視点とが形成する三角形の面積、並びに、前記カメラの光軸中心ベクトルと、前記視者位置から前記視点へのベクトルとの為す角度を、前記複数のカメラに関して算出する算出手段と、前記算出手段による算出結果を使用して、前記視点を中心とする撮影画像を出力するカメラを選択する選択手段とを備える。 In order to solve the above-described problems, a camera selection device according to the present invention is specified by a specifying unit that specifies the position of a viewer (animal body) in an object field that can be captured by a plurality of cameras, and the specifying unit. The area of the triangle formed by the viewer position, the camera position, and the viewpoint, and the angle formed by the optical axis center vector of the camera and the vector from the viewer position to the viewpoint are related to the plurality of cameras. Calculation means for calculating, and selection means for selecting a camera that outputs a captured image centered on the viewpoint using a calculation result by the calculation means.
本発明に係るカメラ選択方法は、複数のカメラにより撮影可能な被写界において、視者(動物体)の位置を特定する特定ステップと、前記特定ステップにて特定された視者位置とカメラの位置と視点とが形成する三角形の面積、並びに、前記カメラの光軸中心ベクトルと、前記視者位置から前記視点へのベクトルとの為す角度を、前記複数のカメラに関して算出する算出ステップと、前記算出ステップにおける算出結果を使用して、前記視点を中心とする撮影画像を出力するカメラを選択する選択ステップとを含む。 The camera selection method according to the present invention includes a specifying step of specifying a position of a viewer (animal body) in a field that can be photographed by a plurality of cameras, a viewer position specified in the specifying step, and a camera A calculation step of calculating an angle formed by the area of the triangle formed by the position and the viewpoint, the optical axis center vector of the camera, and the vector from the viewer position to the viewpoint with respect to the plurality of cameras; And a selection step of selecting a camera that outputs a captured image centered on the viewpoint using the calculation result in the calculation step.
これらの発明は、カメラの選択に際して、特定された視者位置とカメラの位置と視点とが形成する三角形の面積を使用するので、視者位置からの視点と類似性のより高い視点を有するカメラを選択可能とする。また、カメラの光軸中心ベクトルと、視者位置から視点に向かうベクトルとの為す角度が併せて使用するので、撮影方向に応じたカメラの解像度特性をも勘案したカメラの選択を同時に可能とする。このように選択されたカメラは、特定された視者位置からの高画質な撮影画像を出力することのできるカメラである。つまり、これらの発明によれば、複数のカメラの中から、動物体の視点に応じた最適なカメラを選択することができる。 Since these inventions use a triangular area formed by the specified viewer position, the camera position, and the viewpoint when selecting a camera, a camera having a viewpoint that is more similar to the viewpoint from the viewer position Can be selected. In addition, since the angle between the optical axis center vector of the camera and the vector from the viewer position to the viewpoint is used in combination, it is possible to simultaneously select the camera considering the resolution characteristics of the camera according to the shooting direction. . The camera selected in this way is a camera that can output a high-quality captured image from the specified viewer position. That is, according to these inventions, an optimal camera can be selected from a plurality of cameras according to the viewpoint of the moving object.
本発明に係るカメラ選択装置において好ましくは、前記選択手段は、前記算出結果を使用して、前記視点を中心とする撮影画像を出力するカメラを複数選択し、一のカメラによる撮影にオクルージョンが生じた場合には、他のカメラによる撮影画像を当該オクルージョン箇所に適用することで、提示画像を生成する生成手段を更に備える。 Preferably, in the camera selection device according to the present invention, the selection unit uses the calculation result to select a plurality of cameras that output a photographed image centered on the viewpoint, and occlusion occurs in photographing with one camera. In such a case, the image processing apparatus further includes a generation unit that generates a presentation image by applying an image captured by another camera to the occlusion portion.
被写界の形状や遮蔽体の介在によっては、被写界内であっても死角となって、一台のカメラでは撮影不能な視点が存在する可能性がある。かかる状況を想定して、本発明は、一方のカメラから死角となった画像部分を、別のカメラによる撮影画像で補完することで、オクルージョンの発生を回避する。これにより、例えば、被写界に現存するユーザからは不可視な領域に関しての撮影画像を、遠隔に位置するユーザに提示することができる。 Depending on the shape of the object scene and the intervention of the shield, there may be a blind spot even in the object scene, and there may be a viewpoint that cannot be taken with one camera. Assuming such a situation, the present invention avoids the occurrence of occlusion by complementing an image portion that has become a blind spot from one camera with an image captured by another camera. Thereby, for example, a captured image regarding an area invisible to the user who is present in the scene can be presented to a user located remotely.
本発明に係るカメラ選択装置において、より好ましくは、前記生成手段により提示画像を生成した結果、相互に解像度の異なる画像部分が存在する場合には、個々の画素の解像度に応じた平滑化を行う画像処理手段を更に備える。 In the camera selection device according to the present invention, more preferably, when there are image portions having different resolutions as a result of generating the presentation image by the generation unit, smoothing according to the resolution of each pixel is performed. Image processing means is further provided.
低解像度の画素値を用いて一律に画像平滑化処理(スムージング処理)を実行すると、これに伴い、高解像度の部分の画質が劣化することが懸念される。かかる懸念は、解像度の高い撮影画像のオクルージョンを、これよりも解像度の低い画像で補って提示画像を生成した場合などに特に顕著である。本発明によれば、画像の平滑化処理は、提示画像を構成する各画素の解像度に応じて実行されるので、高解像度の画像部分の画質を維持しながら、提示画像全体の画質を高めることができる。 When image smoothing processing (smoothing processing) is uniformly performed using low-resolution pixel values, there is a concern that the image quality of the high-resolution portion deteriorates accordingly. Such a concern is particularly noticeable when a presentation image is generated by supplementing occlusion of a captured image with a high resolution with an image with a lower resolution. According to the present invention, since the image smoothing process is performed according to the resolution of each pixel constituting the presentation image, the image quality of the entire presentation image is improved while maintaining the image quality of the high-resolution image portion. Can do.
本発明に係るカメラ選択装置において、前記視者の位置は、前記被写界内に指定された仮想的なユーザの位置であってもよい。 In the camera selection device according to the present invention, the position of the viewer may be a virtual user position designated in the object scene.
本発明のように、特定された視者位置は、実存するユーザの位置であるか、仮想的なユーザの位置であるかを問わない。したがって、遠隔操作によって、仮想的な視者の位置をユーザが可変的に制御することにより、実際には被写界に存在しなくとも、任意の位置から所望の視点を中心とする画像を閲覧することができる。また、本発明は、被写界内であれば、如何なる位置からの視点をも提示できるので、実ユーザでは到達不能な高い位置や進入不能な狭い場所からの撮影画像の閲覧をユーザが所望する場合に、特に有効である。 As in the present invention, it does not matter whether the specified viewer position is an existing user position or a virtual user position. Therefore, the user can variably control the position of a virtual viewer by remote control, so that an image centered on a desired viewpoint can be viewed from an arbitrary position even if it is not actually present in the object scene. can do. In addition, since the present invention can present a viewpoint from any position within the object scene, the user desires to view a photographed image from a high position that cannot be reached by a real user or from a narrow place that cannot be entered. This is particularly effective when
本発明によれば、複数のカメラの中から、動物体の視点に応じた最適なカメラを選択することが可能となる。 According to the present invention, it is possible to select an optimal camera according to the viewpoint of a moving object from among a plurality of cameras.
以下、例示のみの為に添付された図面を参照しながら、本発明の一実施形態について説明する。まず、本実施の形態における画像処理システム1の構成について説明する。図1に示すように、画像処理システム1は、画像処理装置10(カメラ選択装置に対応)と、被写界を同一とする5台のカメラC1〜C5とを備える。更に、画像処理装置10は、機能的な構成要素として、視者情報入力部11と、撮影環境設定部12と、視者位置特定部13(特定手段に対応)と、視者位置類似性演算部14(算出手段に対応)と、カメラ選択部15(選択手段に対応)と、任意視点画像生成部16(生成手段に対応)と、画像平滑化部17(画像処理手段に対応)と、キャリブレーション部18と、動物体自動追従部19とを備える。これら各部はバスを介して接続されている。
Hereinafter, an embodiment of the present invention will be described with reference to the accompanying drawings for illustration only. First, the configuration of the image processing system 1 in the present embodiment will be described. As shown in FIG. 1, the image processing system 1 includes an image processing apparatus 10 (corresponding to a camera selection apparatus) and five cameras C1 to C5 having the same object scene. Further, the
以下、画像処理システム1の各構成要素について詳細に説明する。
カメラC1〜C5は、各カメラに固有の撮影方向及び視野角を有し、動物体やその背景を含む被写界を撮影する。撮影された被写界の画像は、後述の任意視点画像生成部16に出力された後、所定の処理が施された提示画像としてユーザに提供される。カメラC1〜C5は、魚眼カメラ、ピンホールカメラ、全方位カメラなど、その種類を限定するものではないが、一度に獲得可能な撮像範囲を広くする観点から、魚眼レンズを搭載した広角カメラを使用することが望ましい。
Hereinafter, each component of the image processing system 1 will be described in detail.
The cameras C1 to C5 have a shooting direction and a viewing angle unique to each camera, and shoot a scene including a moving object and its background. The captured image of the scene is output to an arbitrary viewpoint
視者情報入力部11は、被写界に存在するユーザに関する情報を設定する。ユーザに関する情報とは、例えばユーザの位置や視線方向である。視者情報入力部11は、必要に応じて、動物体自動追従部19により追従される動物体の位置及び移動方向を視者情報として使用する。ユーザは、実存するユーザに限らず、仮想的なユーザであってもよい。また、被写界Aと外界との境界面に関しても、壁面に限らず、仮想面であってもよい。視者情報入力部11をネットワーク経由で外部機器と接続することで、遠隔監視(テレモニタリング)が実現される。
The viewer
撮影環境設定部12は、ユーザによる指示操作に従って、撮影環境に関する情報の設定を行う。例えば、撮影環境設定部12には、カメラC1〜C5の配設された位置に関する情報が登録される。また、高さH0における被写界Aの断面がレイアウトマップとして定義付けされた情報が登録される。
The shooting
本実施の形態では、図2に示すような形状の被写界Aを想定する。図2は、x軸とy軸とにより規定されるxy平面による被写界Aの断面図である。カメラC1〜C5は、被写界Aの一部を撮影可能な位置にそれぞれ配置されており、カメラC1〜C5の何れによっても撮影不能な位置は被写界A内に存在しないもとする。カメラC1の位置座標をC1(c1x,c1y)とし、以下同様に、カメラC2〜C5の位置座標をそれぞれC2(c2x,c2y)〜C5(c5x,c5y)とする。また、各カメラC1〜C5の光軸中心ベクトルをそれぞれベクトルe1⊥〜e5⊥とする。更に、視者の位置座標をP(x,y)、視者が視点Q(X,Y)を見ているときの光軸中心ベクトルに対する角度をαとする。このとき、△CkPQの面積は、式(1)により表される。
視者位置特定部13は、視者情報入力部11による設定内容を参照して、被写界Aにおける視者の位置P(x,y)を特定する。
視者位置類似性演算部14は、撮影環境設定部12により予め登録されている各カメラC1〜C5の位置座標C1(c1x,c1y)〜C5(c5x,c5y)の中から、視点Q(X,Y)に関して、現時点における視者位置P(x,y)と類似性の高いカメラを2台選択する。具体的な処理内容に関しては、動作説明において後述するが、視者位置類似性演算部14は、視者位置特定部13により特定された視者位置Pとカメラの位置(例えばC1,C2)と視点Qとが形成する三角形の面積、及び、カメラの光軸中心ベクトル(例えばe1⊥,e2⊥)とベクトルPQとの為す角度を算出する。
The viewer
The viewer position
カメラ選択部15は、視者位置類似性演算部14による演算結果から、最小二乗法を用いて、視点Qに関する視者位置Pとの類似性の高い2台のカメラ(例えばC1,C2)を選択する。選択された2台のカメラは、視点Qを中心として被写界Aを撮影し、任意視点画像生成部16に撮影画像を出力する。
The
任意視点画像生成部16は、提示画像の生成に際して、選択された2台のカメラによる撮影画像を個々に平面展開し、より画質の高い方のカメラによる撮影画像を優先的に使用する。画質の高い方のカメラとは、例えば、撮影画像の解像度が高いカメラである。但し、一方のカメラの視野角にオクルージョンが発生する場合には、任意視点画像生成部16は、画質の低いカメラの撮影画像により、死角部分を補う(合成する)こともできる。
When generating the presentation image, the arbitrary viewpoint
画像平滑化部17は、任意視点画像生成部16により生成された画像に平滑化処理(スムージング)を施す。このとき、対象画像が、解像度の異なる複数の撮影画像を組み合わせたものである場合には、画像平滑化部17は、その解像度に応じた平滑化を行う。すなわち、解像度の低い画素に関しては、自画素の周辺画素(大きい画素)による平滑化を行うと共に、解像度の高い画素に関しては、当該画素の周辺画素(小さい画素)による平滑化を行う。これにより、高解像度部分の画質を劣化させることなく、画素の輪郭が消失した滑らかな提示画像を得る。
The
キャリブレーション部18は、補正変換用行列算出部181と基礎行列算出部182とを有する。補正変換用行列算出部181は、カメラC1〜C5により撮影された画像のうち、魚眼展開画像面(CCD(Charge-Coupled Device)面)に射影されない領域と、射影される領域との境界位置(境界特徴点)の座標を算出する。その後、当該座標から推定された、魚眼展開画像領域の輪郭の曲線係数から、補正変換用行列を算出し、この行列を用いて撮影画像のキャリブレーションを行う。基礎行列算出部182は、2つの魚眼カメラの視線方向を変化させて複数の境界特徴点を同時に撮影することで、同様の手法により、複数のカメラを利用したキャリブレーションを行う。
The
動物体自動追従部19は、動物体検出部191と動物体撮影用データ算出部192とを有する。動物体検出部191は、ステレオペアとなる2つのカメラ間に共通の撮影領域における時間的な差分画像から連結領域を抽出し、該領域の画素値が閾値を超える場合に動物体の検出を認識する。同時に、動物体検出部191は、ステレオペアとなる2つのカメラ間に共通の撮影領域における参照視差画像(リファレンス画像)との差分画像から連結領域を抽出し、該領域の画素値が閾値を超える場合にも動物体の検出を認識する。つまり、動物体検出部191は、時間的な差分と参照画像からの差分との少なくとも一方の発生を以って、動物体の検出を認識する。
The moving object
動物体撮影用データ算出部192は、各ステレオペアに対応する矩形領域の頂点とカメラの中心点とを結ぶベクトルの交点から、動物体が存在する画像領域を推定する。更に、この領域に外接する矩形領域の重心を算出することで、画像の中心に動物体を捉えることを可能とする。動物体撮影用データ算出部192は、上記矩形領域の重心の時間的変化を動物体の移動ベクトルとして抽出することで、これと反対方向、すなわち動物体に対峙する方向からの撮影を可能とする。 The moving object photographing data calculation unit 192 estimates the image area where the moving object exists from the intersection of the vector connecting the vertex of the rectangular area corresponding to each stereo pair and the center point of the camera. Further, by calculating the center of gravity of the rectangular area circumscribing this area, it is possible to capture the moving object at the center of the image. The moving object photographing data calculation unit 192 extracts the temporal change in the center of gravity of the rectangular area as a moving vector of the moving object, thereby enabling shooting from the opposite direction, that is, the direction facing the moving object. .
次に、画像処理システム1の動作を説明し、併せて、本発明に係るカメラ選択方法を構成する各ステップについて説明する。まず、図2及び図3を参照しながら、カメラ選択部15により実行されるカメラ選択処理について説明する。
Next, the operation of the image processing system 1 will be described, and the steps constituting the camera selection method according to the present invention will be described together. First, the camera selection process executed by the
説明の前提として、本実施の形態におけるカメラ選択処理においては、図2に示した状況(被写界A、カメラ位置C1〜C5、視者位置P、視点Q)を想定し、カメラ選択部15は、視者位置Pから視点Qに対する視線に最も近いカメラの選択を試行するものとする。
As a premise for explanation, in the camera selection processing in the present embodiment, the situation shown in FIG. 2 (field A, camera positions C 1 to C 5 , viewer position P, viewpoint Q) is assumed, and camera selection is performed. The
図3のS1では、撮影環境設定部12により、カメラ情報が定義される。カメラ情報としては、位置Ck(ckx,cky)と光軸中心ベクトルek⊥とが定義される。但し、本実施の形態では、被写界Aにおいて5台のカメラの存在を仮定しているので、kは1〜5の整数である。
In S <b> 1 of FIG. 3, camera information is defined by the shooting
続いてS2では、撮影環境設定部12により、高さH0における被写界Aの平面図がレイアウトマップとして定義される。ここで、高さH0は、地面から光軸中心ベクトルek⊥までの距離であり、固定値である。このレイアウトマップは、図2に示したように、外界との境界線が直線となるように定義される。
Then, at S2, the imaging
S3では、視者情報入力部11により、遠隔サイトにおける視者の仮想位置P(x,y)が入力される。仮想位置Pの視点方向水平面角をαとし、仰角をβとする。
撮影環境及び視者情報が確定すると、視者位置類似性演算部14により、視者位置Pを通りek⊥に対する傾きがαの直線と、レイアウトマップの境界線との交点Q(X,Y)が算出される(S4)。
In S3, the viewer's virtual position P (x, y) at the remote site is input by the viewer
When the shooting environment and the viewer information are determined, the viewer position
S5では、視者位置類似性演算部14は、各カメラの位置Ckに関して、下記評価式E(Ck)を算出する。なお、λは、カメラCkの解像度特性を表す定数であり、魚眼カメラの場合には、例えばθ若しくはsinθが使用される。
E(Ck)=(△CkPQの面積)2+λ(ベクトルek⊥とベクトルCkQとのなす角θ)2
In S < b> 5, the viewer position
E (C k ) = (Area of ΔC k PQ) 2 + λ (An angle θ formed by the vector e k ⊥ and the vector C k Q) 2
S6では、カメラ選択部15が、S5における演算結果を基に、E(Ck)を最小にするものから順に2つのカメラを選択する。上記想定下では、kmin1=1とkmin2=2とが算出され、視者位置に最も類似性の高いカメラとしてC1が、二番目に類似性の高いカメラとしてC2が選択される。
In S6, the
カメラ選択部15は、S2で定義されたレイアウトマップの表示制御機能を有しており、S6で選択された2台のカメラと視者情報(視点や視野角)とをレイアウトマップ上に表示させる(S7)。これにより、ユーザは、配設された5台のカメラのうち、画像の提示に使用されているカメラ、及び視者に関する情報を簡易迅速に把握することができる。
The
カメラ選択部15は、ユーザによる終了指示を検知すると(S8;YES)、カメラ選択処理を終了させる。使用されるカメラや視点は、視者位置の移動に伴って経時的に変化するが、画像処理装置10が、上述した一連のカメラ選択処理を繰り返し実行することで、常に最新の情報をユーザに提示することができる。
The
続いて、図4〜図7を参照しながら、任意視点画像生成部16が、カメラより入力された撮影画像から提示画像を生成する処理について説明する。本任意視点画像生成処理においては、オクルージョンの発生を想定し、これを解決する手法についても併せて説明する。
Next, a process in which the arbitrary viewpoint
本実施の形態では、高さH0における被写界Aのxy平面及びカメラC1〜C5の配設位置として、図4に示す状況を想定する。図4においては、視者の位置Pと視点Qとを三次元として捉え、それぞれの座標をP(x,y,0),Q(qx,qy,qz)とする。また、図中水平方向にx軸を規定し、垂直方向にy軸を規定した場合に、ベクトルPQがx軸と為す水平角度をθpとし、視者の視線水平角(z軸回り)をα、視野水平角幅をΔα、視者の視線仰角(y軸回り)をβ、視野仰角幅をΔβとする。このとき、θpは、図4に示す式(2)を満たす。また、PQ間の距離をdとすると、θpとqzとの間には、下記の式(3)に示す関係が成り立つ。
なお、ΔθC1は、視者の視野角に応じて決定されたカメラC1の視野角である。RM2,RM3は、カメラC2の光線と境界壁との交点である。θC1は、視点を点Qにおいた時のカメラ視線方向角である。S1〜S2は、オクルージョンの発生範囲を示す。ΔθC2は、オクルージョンの発生範囲に応じて決定されたカメラC2の視野角である。S1〜S2〜S3〜S4は、仮想的な展開画像面を示す。 Note that Δθ C1 is the viewing angle of the camera C1 determined according to the viewing angle of the viewer. R M2 and R M3 are intersections between the light beam of the camera C2 and the boundary wall. θ C1 is the camera viewing direction angle when the viewpoint is at point Q. S 1 to S 2 indicate the occurrence range of occlusion. Δθ C2 is the viewing angle of the camera C2 determined according to the occurrence range of occlusion. S 1 to S 2 to S 3 to S 4 indicate virtual expanded image planes.
図5のS11,S12では、撮影環境設定部12により、カメラ選択処理と同様の手法でカメラ情報が定義される。その結果、以降のカメラ情報として、位置Ck(ckx,cky)と光軸中心ベクトルek⊥とが使用され、高さH0における被写界Aの平面図がレイアウトマップとして使用される。
S13では、視者情報入力部11により、視者の仮想位置P(x,y)が入力される。
In S <b> 11 and S <b> 12 of FIG. 5, camera information is defined by the shooting
In S <b> 13, the viewer's virtual position P (x, y) is input by the viewer
S14ではまず、任意視点画像生成部16は、視者位置座標Pを通りek⊥に対する傾きをαとする直線と、上記レイアウトマップの境界線との、交点であるQv(qvx,qvy,qvz)の座標を算出する。同様に、任意視点画像生成部16は、視者位置座標Pを通りek⊥に対する傾きをα±Δαとする直線と、上記レイアウトマップの境界線との、交点であるRs(qrsx,qrsy,qrsz),Re(qrex,qrey,qrez)の座標をそれぞれ算出する。
In S14, first, the arbitrary viewpoint
S15では、任意視点画像生成部16は、S14で算出された3つの座標とカメラ座標C1とから、直線C1Q,C1Rs,C1Reを算出し、これらの直線とレイアウトマップの境界線との全ての交点Rtmp(図示せず)の座標を算出する。
In S15, the arbitrary viewpoint
S16では、φpの初期値が設定される。φpは、ベクトルPQがx軸と為す仰角であり(図6参照)、φpとQ(qx,qy,qz)との間には、図6に示す条件式(4)が成立する。ここで設定されたφpは、視者の視野角(β−Δβ≦φp≦β+Δβ)の範囲内で、図7のS24をループ端として、Δφpの刻み幅で加算される。同様に、S17では、上記条件式(2)及び関係式(3)を満たすθpの初期値が設定された後、図7のS25をループ端としてΔθp単位で加算される。θpは、固定視野角(α−Δα≦θp≦α+Δα)の範囲内で更新される。 In S16, the initial value of phi p is set. φ p is an elevation angle that the vector PQ makes with the x-axis (see FIG. 6), and between φ p and Q (q x , q y , q z ), the conditional expression (4) shown in FIG. To establish. Φ p set here is added within the range of the viewing angle of the viewer (β−Δβ ≦ φ p ≦ β + Δβ) with a step size of Δφ p with S24 in FIG. 7 as a loop end. Similarly, in S17, after the initial value of theta p satisfying the conditions (2) and relational expression (3) is set, it is added in [Delta] [theta] p units S25 in FIG. 7 as a loop end. θ p is updated within a range of a fixed viewing angle (α−Δα ≦ θ p ≦ α + Δα).
S18では、任意視点画像生成部16は、視者位置座標Pを通りベクトルek⊥に対する傾きがθpである直線と、上記レイアウトマップ上の対象となる(本実施の形態では視点側の)境界線との、交点であるQp_tmp(図示せず)の座標を算出する。更に、算出されたQp_tmpとカメラ位置C1とから|C1Qp_tmp|の最小値Qpが算出される(S19)。
In S18, the arbitrary viewpoint
図7に移り、S20では、任意視点画像生成部16は、S19で算出されたQpから、直線C1Qpと、レイアウトマップ上で対象となる境界線との交点であるQc1_tmpを算出する。同様の処理により、直線C2Qpと、境界線との交点であるQc2_tmpが算出される。続いて、任意視点画像生成部16は、算出されたQc1_tmpとカメラ位置C1とから|C1Qc1_tmp|の最小値Qc1を算出し、Qc2_tmpとカメラ位置C2とから|C2Qc2_tmp|の最小値Qc2を算出する(S21)。
Moving to FIG. 7, in S20, the arbitrary viewpoint
S22では、任意視点画像生成部16は、S21で算出されたQc1が、S19で算出されたQpと一致するか否かを判定する。当該判定の結果、Qc1=Qpである場合には(S22;YES)、任意視点画像生成部16は、魚眼展開画像上においてQc1に対応する画素の値を、任意視点画像の画素値として抽出する(S23)。S17〜S23の一連の処理は、θpが上限値(α+Δα)に達するまで各θpに関して順次実行され、更に、S16〜S24の一連の処理は、φpが上限値(β+Δβ)に達するまで各φpに関して順次実行される。その結果、視者位置Pからの視点Qに対する画像が得られる。
In S22, the arbitrary viewpoint
一方、S22における判定の結果、Qc1=Qpでない場合には(S22;NO)、オクルージョンが発生しているものと判断できるため、カメラC2による撮影画像により、カメラC1の撮影画像を補完することが望ましい。したがって、任意視点画像生成部16は、Qc2とQpとの同一性を判定することで、Qc2に対応する画素値による撮影画像の補完が可能であるか否かの判定を行う(S25)。判定の結果、Qc2=Qpである場合には(S26;YES)、任意視点画像生成部16は、魚眼展開画像上においてQc2に対応する画素の値を、任意視点画像の画素値として抽出する(S27)。抽出された画素値は、カメラC1から死角となった被写界の一部分の画像生成に使用される。その後は、上述したS24以降の処理を実行する。
On the other hand, if the result of determination in S22 is not Q c1 = Q p (S22; NO), since it can be determined that occlusion has occurred, the image captured by camera C1 is complemented by the image captured by camera C2. It is desirable. Therefore, the arbitrary viewpoint
ここで、図8は、S23,S27において実行される処理、すなわち実空間上の点から、これに対応する魚眼展開画像面上の点を算出する手法を説明するための図である。図8に示すように、xy平面上に魚眼展開画像面が規定され、魚眼展開画像面の中心線にz軸が規定されている。なお、座標系の取り方と魚眼展開画像にはキャリブレーションが必要であるが、その方法に関しては後述する。図8において、魚眼レンズ上の任意の点をq(X,Y,Z)とし、射影後における魚眼展開画像面上の任意の点をp(ximage,yimage,0)とする。ここで、ベクトルqがz軸となす角度(入射角)をθとし、魚眼展開画像面上でベクトルpがx軸となす角度をφとすると、θとX,Y,Zとの間には式(5)が成立する。また、φとX,Yとの間には式(6)が成立する。 Here, FIG. 8 is a diagram for explaining the processing executed in S23 and S27, that is, a technique for calculating a point on the fisheye expanded image plane corresponding to the point on the real space. As shown in FIG. 8, the fish-eye developed image plane is defined on the xy plane, and the z-axis is defined on the center line of the fish-eye developed image plane. It should be noted that calibration is required for the coordinate system and the fish-eye developed image, but the method will be described later. In FIG. 8, an arbitrary point on the fisheye lens is q (X, Y, Z), and an arbitrary point on the fisheye developed image plane after projection is p ( ximage , yimage , 0). Here, if the angle (incident angle) that the vector q makes with the z-axis is θ, and the angle that the vector p makes with the x-axis on the fisheye developed image plane is φ, the angle between θ and X, Y, and Z Equation (5) holds. Further, the equation (6) is established between φ and X, Y.
かかる条件下において焦点距離fを用いると、正射影方式によっては、p(ximage,yimage,0)が以下の式(7)により特定される。焦点距離fとしては、例えば、魚眼展開画像の垂直方向の解像度を使用できる。
図7に戻り、S26における判定の結果、Qc2=Qpでない場合には(S26;NO)、任意視点画像生成部16は、カメラC2を使用してもオクルージョンを回避できないものと判断し、オクルージョン不可避の値を任意視点映像の画素値に代入する。その後は、S24以降の処理を実行する。
Returning to FIG. 7, if Q c2 = Q p is not the result of the determination in S26 (S26; NO), the arbitrary viewpoint
S16〜S25の一連の処理が終了すると、画像平滑化部17による平滑化処理(スムージング)が実行される(S29)。画像平滑化部17は、周知慣用の画像処理技術であるGaussianフィルタを用いて、上記得られた画像を平滑化する。得られた画像は、部分によっては、オクルージョンを回避した結果、他の画像部分よりも解像度が低くなっている。このため、全ての画素に関して、合成部分に依存しない均一なフィルタ処理を実行すると、その結果、高解像度であった部分まで他の低い解像度の部分の画質と同一になってしまう。そこで、画像平滑化部17は、処理の特長として、上記画像を構成する各画素の周辺画素に応じたフィルタリングを行う。換言すれば、広角カメラの撮影画像を平面展開した際の解像度特性を考慮したフィルタ形状の平滑化処理を施す。これにより、高解像度部分の画質を活かしつつ、画素間で滑らかな提示画像の生成を可能とする。
任意視点画像生成処理は、ユーザによる指示があると終了する(S30)。
When the series of processing of S16 to S25 is finished, smoothing processing (smoothing) by the
The arbitrary viewpoint image generation processing ends when an instruction is given by the user (S30).
以上説明したように、本発明に係る画像処理装置10は、主要な機能の1つとして、最適カメラ選択機能を有する。最適カメラ選択機能によれば、画像処理装置10は、カメラ位置Ck(kは1〜5の自然数)と視者位置Pと視点Qとが形成する三角形の面積が極力小さくなるようなカメラを選択して画像生成を行う。△CkPQの面積を小さくとることで、距離PCkが短く、かつ、∠CkPQが狭くなり、視者の位置及び視者の視線に近いカメラが選択される。同時に、画像処理装置10は、カメラの光軸中心ベクトルek⊥とベクトルPQとの為す角度が極力小さくなるようなカメラを選択して画像生成を行う。つまり視者の視線方向に近い光軸方向を有するカメラが選択される。このため、より歪みの少ない画像を得ることができる。
As described above, the
すなわち、従来のカメラ選択技術においては、生成画像との視点の近さが考慮されていたが、カメラの視点に応じた光学特性に基づく解像度特性までは考慮されていなかった。上記のようなカメラの選択基準を採ることで、かかる特性に基づく解像度特性を提示画像に反映させることができるので、魚眼カメラのような広角カメラにも対応したカメラ選択が可能となる。また、オクルージョンを補うカメラの選択に際しても同様に、視点に応じた光学特性に基づく解像度特性を考慮することができ、広角カメラへの対応が可能となる。 That is, in the conventional camera selection technology, the closeness of the viewpoint with the generated image is considered, but the resolution characteristics based on the optical characteristics according to the viewpoint of the camera are not considered. By adopting the camera selection criteria as described above, the resolution characteristics based on such characteristics can be reflected in the presented image, so that it is possible to select a camera compatible with a wide-angle camera such as a fish-eye camera. Similarly, when selecting a camera that compensates for occlusion, resolution characteristics based on optical characteristics according to the viewpoint can be taken into consideration, and it is possible to cope with a wide-angle camera.
任意視点画像生成部16は、任意視点画像の生成に際して、キャリブレーション部18により補正された魚眼カメラの撮影画像を使用することができる。以下、図9〜図11を参照しながら、魚眼カメラにおけるキャリブレーション処理について説明する。
The arbitrary viewpoint
複数のカメラC1〜C5の撮影画像がキャリブレーション部18に入力されると(図9のS31)、補正変換用行列の算出処理と基礎行列の算出処理とが並列に実行される。まず、補正変換用行列の算出処理を説明する。補正変換用行列算出部181は、魚眼展開画像面に投影されない黒色領域とそれ以外の領域との境界線上の点(境界特徴点)をエッジ位置座標として抽出する(S32)。例えば、レンズのずれ角をφ、光軸中心とxy平面との交点座標をO’(x’,y’)とする。この場合、図10に示すように、黒色領域B1〜B4と楕円状の魚眼展開画像領域D1との境界線を形成する複数の点Eが抽出される。このエッジ抽出処理に関しては周知慣用の画像解析技術であるので、詳細な説明や図示(数式を含む)は省略し、好適な方法を簡略に説明する。補正変換用行列算出部181は、例えばソーベルフィルタを有し、取得された画像中の任意の1画素を中心とした上下左右の9(=3×3)の画素値に、水平及び垂直方向の2つの係数行列をそれぞれ乗算する。そして、乗算結果に基づいて上記各画素値の変化量を算定し、画素値の変化量が大きい部分(境界特徴点に該当)をエッジとして検出する。画素値は例えば輝度である。
When captured images of the plurality of cameras C1 to C5 are input to the calibration unit 18 (S31 in FIG. 9), the correction conversion matrix calculation process and the basic matrix calculation process are executed in parallel. First, correction conversion matrix calculation processing will be described. The correction conversion
S33では、任意視点画像生成部16は、最小二乗法により、S32で抽出されたエッジ位置座標からconic係数(二次曲線係数)を推定する。
任意視点画像生成部16は、推定されたconic係数に基づいて、各魚眼カメラの補正変換用行列R(=RθT)を算出する(S34)。算出に際しては、まず、推定されたconic係数が楕円の標準形のconic係数となるような回転角を算定し、この回転角から回転行列Rθを求める。更に、上記楕円の中心と魚眼展開画像面(CCD面)の中心とが一致するような平行移動量を算定し、この移動量から平行移動行列Tを求める。そして、回転行列Rθと平行移動行列Tとを乗算して補正変換用行列Rを求める。この補正変換用行列Rは、各魚眼カメラ(本実施の形態ではカメラC1〜C5)に関して算出される(S35)。
In S33, the arbitrary viewpoint
The arbitrary viewpoint
S36では、オクルージョン回避のための画像合成、あるいは、動物体の検出のために、更に他の魚眼カメラを利用するか否かが判定される。他の魚眼カメラを利用しない場合には(S36;NO)、任意視点画像生成部16は、魚眼カメラにより撮影された画像を展開(射影)する時に、S34で算出された補正変換用行列R(=RθT)からP’を算出する。P’は、魚眼展開画像面の座標Pに補正変換用行列Rを乗算することで算出される(S37)。これにより、キャリブレーションが施された魚眼展開画像面が生成される。
In S36, it is determined whether or not another fisheye camera is to be used for image synthesis for avoiding occlusion or detection of a moving object. When no other fisheye camera is used (S36; NO), the arbitrary viewpoint
続いて、基礎行列の算出処理を説明する。まず、基礎行列算出部182は、複数の魚眼カメラ(本実施の形態ではカメラC1〜C5)の中から任意の2つの魚眼カメラ(例えば、カメラC1,C2)を選択する(S38)。基礎行列算出部182は、選択された2つの魚眼カメラの視線方向を変化させることにより複数の特徴点を同時に撮影していき(S39)、各魚眼カメラで撮影された画像中の特徴点の位置座標を抽出する(S40)。特徴点の抽出は、マウス等の操作による手入力で行うことができる。
Next, the basic matrix calculation process will be described. First, the basic
S41では、S33と同様の手順で、特徴点の位置座標を入力データとして、最小二乗法に基づく基礎行列Fが算出される。基礎行列算出部182は、射影行列で一致させた画像同士の色分布が同じになるように色空間(RGB空間)の規格化を行う(S42)。S39〜S42の一連の処理は、S43をループ端として、視線方向の可動範囲内で繰り返し実行される。更に、これら一連の処理は、S44をループ端として、魚眼カメラの全ての組合せに関して繰り返し実行される。その結果、魚眼カメラ単位の基礎行列Fが視点毎に算出される(S45)。
In S41, a basic matrix F based on the method of least squares is calculated using the position coordinates of the feature points as input data in the same procedure as in S33. The basic
S46は、S36にて他の魚眼カメラを利用すると判定された場合(S36;YES)に実行される処理である。任意視点画像生成部16は、魚眼カメラにより撮影された画像を展開する時に、S34で算出された補正変換用行列R(=RθT)と、S45で算出された基礎行列FとからP’を算出する。P’は、魚眼展開画像面の座標Pに、基礎行列Fと補正変換用行列Rとの積を乗算することで算出される(S46)。これにより、魚眼カメラにおけるキャリブレーション処理が完了する。
S46 is a process executed when it is determined in S36 that another fisheye camera is used (S36; YES). The arbitrary viewpoint
魚眼カメラキャリブレーション処理を実行した結果、補正された魚眼展開画像領域D2の一例を図11に示す。魚眼レンズが完全半球面であり、その屈折率が点(半球中心)対称であると仮定すると、図10に示した魚眼展開画像領域D1は、その中心がレンズの光軸中心となり、かつ、楕円状の領域の長軸・短軸がそれぞれx軸・y軸と平行になるように補正される。その結果、魚眼展開画像領域D2が得られる。このように、画像処理装置10は、カメラC1〜C5に魚眼カメラを使用した場合であっても、適切なキャリブレーションを適用できるので、撮影画像から生成された任意視点画像、ひいては提示画像の質を向上することができる。
FIG. 11 shows an example of the fisheye expanded image area D2 corrected as a result of executing the fisheye camera calibration process. Assuming that the fish-eye lens is a perfect hemisphere and its refractive index is point (hemisphere center) symmetrical, the fish-eye developed image region D1 shown in FIG. The long axis and the short axis of the region are corrected so as to be parallel to the x axis and the y axis, respectively. As a result, a fish-eye developed image area D2 is obtained. In this way, the
次に、図12〜図15を参照しながら動物体自動追従処理について説明する。図12は、動物体自動追従機能を実現するシステム環境の概要を例示する図である。図12に示すように、画像処理システムは、動物体自動追従型のテレモニタリングシステムとして機能すべく、遠隔サイト、映像処理サービスサイト、及びユーザサイトを形成している。これら各サイトの構成要素である装置は、有線または無線のLAN(Local Area Network)を基点として双方向に信号の伝達が可能なように接続されている。 Next, the moving object automatic tracking process will be described with reference to FIGS. FIG. 12 is a diagram illustrating an overview of a system environment that realizes the moving object automatic tracking function. As shown in FIG. 12, the image processing system forms a remote site, a video processing service site, and a user site so as to function as a telemonitoring system that automatically follows a moving object. The devices that are constituent elements of these sites are connected so that signals can be transmitted bidirectionally from a wired or wireless local area network (LAN).
遠隔サイトにおいては、カメラC1〜C5が被写界Aを撮影し、これらの撮影画像を画像収集装置20が収集する。収集された撮影画像は、ネットワークN経由で画像処理装置10に送信された後、自律的なカメラワークや任意視点画像生成、あるいは動物体検出といった処理に使用される。映像処理サービスサイトでは、画像処理装置10は、複数の撮影画像から提示画像を生成し、画像配信装置30によりネットワークNを介して通信端末40にこれを配信させる。ユーザサイトにおいては、通信端末40が提示画像を受信及び表示することで、ユーザUによるモニタリングを可能とする。通信端末40は、例えば、通信機能を有するパーソナルコンピュータ、携帯電話、PDA(Personal Digital Assistant)である。
At the remote site, the cameras C1 to C5 capture the scene A, and the captured images are collected by the
続いて、上記システムが画像処理装置10により実行する動物体自動追従処理について説明する。
図13のS51では、撮影環境設定部12により、カメラ情報が定義される。カメラ情報としては、位置Ck(ckx,cky)と光軸中心ベクトルek⊥とが定義される。本実施の形態では、被写界Aにおいて5台のカメラの存在を仮定しているので、kは1〜5の整数である。また、カメラ間情報として、射影変換行列及び共通撮影領域が定義される(S52)。更に、光軸地上高H0における被写界Aの平面図がレイアウトマップとして定義される(S53)。ここで、高さH0は、地面から光軸中心ベクトルek⊥までの距離であり、固定値である。
Next, the moving object automatic tracking process executed by the
In S <b> 51 of FIG. 13, camera information is defined by the shooting
カメラC1〜C5による撮影画像が任意視点画像生成部16に入力されると(S54)、動物体検出部191は、時刻tを初期値として設定し(S55)、5台のカメラC1〜C5の中からステレオペアとなる2台のカメラを選択する(S56)。続いて、動物体検出部191は、選択された2台のカメラのうち、一方の画像A(x,y,t)に射影変換行列HABを掛け合わせることで、他方の画像B(x,y,t)と同一の視点から見た画像B’(x,y,t)を生成する(S57)。
When images taken by the cameras C1 to C5 are input to the arbitrary viewpoint image generation unit 16 (S54), the moving
S58では、上記画像B(x,y,t)と、S57で生成された画像B’(x,y,t)との視差画像CAB(x,y,t)が算出される。更にS59では、CAB(x,y,t)−CAB(x,y,t−1)を算出することにより、単位時間における視差画像の差分画像TimeDiff(x,y)が算出される。動物体検出部191は、上記2台のカメラ間に共通の撮影領域における時間的な差分画像TimeDiff(x,y)から連結領域STiを抽出し(S60)、閾値ThTを超える連結領域STiの有無を判定することにより、被写界Aにおける動物体の存否を確認する(図14のS61)。
In S58, a parallax image CAB (x, y, t) between the image B (x, y, t) and the image B ′ (x, y, t) generated in S57 is calculated. Further, in S59, by calculating CAB (x, y, t) −CAB (x, y, t−1), the difference image TimeDiff (x, y) of the parallax image in unit time is calculated. The moving
上記判定の結果、STi>閾値ThTを満たす連結領域が有る場合には(S61;YES)、動物体検出部191は、この時点で、x,y両軸への射影ヒストグラムを用いて、当該連結領域に外接する矩形領域Riの抽出を行う(S62)。一方、STi>閾値ThTを満たす連結領域が無い場合には(S61;NO)、S63に移行し、動物体検出部191は、参照視差画像(リファレンス画像)との時刻tにおける差分画像RefDiff(x,y)を、CAB(x,y,t)−Cref(x,y)により算出する。
As a result of the determination, if there is a connected region that satisfies ST i > threshold Th T (S61; YES), the moving
更に、動物体検出部191は、上記2台のカメラ間に共通の撮影領域における参照視差画像との差分画像RefDiff(x,y)に対して、二値化処理及び膨張縮退処理を施し、連結領域SRiを抽出する(S64)。その後、S61と同様の手順で、閾値ThRを超える連結領域SRiの有無を判定することにより、被写界Aにおける動物体の存否を確認する(S65)。上記判定の結果、SRi>閾値ThRを満たす連結領域が有る場合には(S65;YES)、動物体検出部191は、当該連結領域SRiに外接する矩形領域Riの抽出を行う(S62)。
Further, the moving
このように、画像処理装置10の動物体自動追従部19は、背景差分情報を用いることなく、視差情報の変動を実時間で捉えることで(S57〜S62)、照明条件に依存することのない動物体の検出を実現する。併せて、動物体自動追従部19は、環境固有の視差情報と、リアルタイムに検出される視差情報との差異を監視しながら動物体を抽出する(S63〜S65,S62)。これにより、動物体の状態に依存することなく、換言すれば動物体が停留していも移動していても、動物体の検出が可能となる。
As described above, the moving object
S56〜S66の処理は、被写界Aを撮影するカメラC1〜C5のうち、全てのステレオペア(2台ずつのカメラ)に関して実行された後、図15のS67以降の処理、すなわち動物体撮影用データ算出モジュールに移行する。まずS67において、動物体撮影用データ算出部192は、S56で選択されたステレオペアの抽出した連結領域STi又はSRi毎に、矩形領域Riの各頂点とカメラの中心点とを結んだ4つの方向ベクトルを抽出する。続いて、抽出された4つの方向ベクトルの交点を算出した後、これらのベクトルで囲まれた領域を動物体の存在する領域と認識する(S68)。 The processing in S56 to S66 is executed for all stereo pairs (two cameras each) among the cameras C1 to C5 that photograph the object A, and then the processing after S67 in FIG. Move to the data calculation module. First, in S67, the moving object photographing data calculation unit 192 connects each vertex of the rectangular region R i and the center point of the camera for each connected region ST i or SR i extracted in the stereo pair selected in S56. Four direction vectors are extracted. Subsequently, after calculating the intersection of the four extracted direction vectors, the region surrounded by these vectors is recognized as the region where the moving object exists (S68).
動物体撮影用データ算出部192は、S68にて認識された領域に外接する矩形領域の重心Gi(t)を算出した後(S69)、その値を動物体の位置として抽出する。更に、時刻tにおけるGi(t)と、単位時間前の時刻t−1におけるGi(t−1)との差分ベクトルであるDiffGi(t)を動物体の移動ベクトルとして抽出する(S70)。上述したS55〜S70の一連の処理は、S71をループ端として、終了指示があるまで繰り返し実行される。続いて、動物体撮影用データ算出部192は、動物体の位置Gi(t)、及び、上記差分ベクトルDiffGi(t)の反対方向ベクトルを、任意視点画像生成部16に出力する(S72)。動物体は、通常、移動方向を正面として移動するので、移動方向の反対方向を撮影方向とするカメラ(動物体に対峙するカメラ)を画像生成に使用する。これにより、動物体の全貌を正面から捉えることを可能とする。 The moving object photographing data calculation unit 192 calculates the center of gravity G i (t) of the rectangular area circumscribing the area recognized in S68 (S69), and then extracts the value as the position of the moving object. Furthermore, DiffG i (t), which is a difference vector between G i (t) at time t and G i (t−1) at time t−1 before unit time, is extracted as a moving vector of the moving object (S70). ). The above-described series of processing from S55 to S70 is repeatedly executed until an end instruction is given with S71 as a loop end. Subsequently, the moving object photographing data calculation unit 192 outputs the position G i (t) of the moving object and the opposite direction vector of the difference vector DiffG i (t) to the arbitrary viewpoint image generation unit 16 (S72). ). Since the moving object usually moves with the moving direction as the front, a camera (camera facing the moving object) whose imaging direction is the opposite direction of the moving direction is used for image generation. This makes it possible to capture the entire body from the front.
以上説明したように、本発明に係る画像処理装置10は、主要な機能の1つとして、動物体追従機能を有する。画像処理装置10は、フレーム間における時間的な差分を抽出するとともに、射影変換しても初期の視差情報(リファレンス画像)に戻らない画像部分(差分)をも抽出する。そして、1組のカメラが同時に捉えている画像から得られる視差の変動に、これら双方の差分のうち少なくとも一方を加味することで動物体を検出する。このため、更新型背景画像との差分情報を利用した従来の動物体検出方法に対しては、影などの照明条件の変動あるいは停留などの動物体の状態遷移による影響の少ない精確な動物体検出が可能となるという効果がある。また、ステレオカメラの視差情報に基づく従来の動物体検出方法に対しては、横断歩道やナンバープレートといった平面だけなく、立体形状を有する一般の場所への適用が可能となるという効果がある。
As described above, the
更に、画像処理装置10は、被写界Aにて検出された動物体の位置情報と移動ベクトルとを算定し、これに上記のカメラ選択基準を適用することで、自律的なカメラワークを実現する。これにより、動物体を常に正面から撮影することができるので、遠隔地からの効果的なモニタリングが可能となる。
Furthermore, the
なお、本発明は、本実施の形態に限定されるものではなく、その趣旨を逸脱しない範囲において、適宜変形態様を採ることもできる。
例えば、上記実施の形態では、ユーザの仮想視点を1点としたが、複数の通信端末を画像処理装置10に接続することで、複数のユーザが同時に自由な視点で遠隔モニタリングを行うことが可能となる。この態様においては、ユーザが通信端末を傾けた方向を視点方向として検出可能なように、通信端末は、360度視覚センサや方位センサ(例えばジャイロセンサ)を搭載することが特に効果的である。これにより、例えば、テレビ電話でコミュニケーションをとりながら、通話相手のいる環境を任意の視点でモニタリングするといった用途が可能となる。
In addition, this invention is not limited to this Embodiment, In the range which does not deviate from the meaning, a deformation | transformation aspect can also be taken suitably.
For example, in the above embodiment, the user's virtual viewpoint is one point, but by connecting a plurality of communication terminals to the
また、上記実施の形態では、カメラ選択部15の選択するカメラの台数を2台としたが、3台以上であっても勿論よい。また、視者位置Pからの視点Qにオクルージョンが発生しないことが被写界において明らかな場合には、1台のカメラであってもよい。
Moreover, in the said embodiment, although the number of the cameras which the
1…画像処理システム、C1,C2,C3〜Cn…カメラ、10…画像処理装置、11…視者情報入力部、12…撮影環境設定部、13…視者位置特定部、14…視者位置類似性演算部、15…カメラ選択部、16…任意視点画像生成部、17…画像平滑化部、18…キャリブレーション部、181…補正変換用行列算出部、182…基礎行列算出部、19…動物体自動追従部、191…動物体検出部、192…動物体撮影用データ算出部、20…画像収集装置、30…画像配信装置、40…通信端末、A…被写界、M…動物体、N…ネットワーク DESCRIPTION OF SYMBOLS 1 ... Image processing system, C1, C2, C3-Cn ... Camera, 10 ... Image processing apparatus, 11 ... Viewer information input part, 12 ... Shooting environment setting part, 13 ... Viewer position specific | specification part, 14 ... Viewer position Similarity calculation unit, 15 ... camera selection unit, 16 ... arbitrary viewpoint image generation unit, 17 ... image smoothing unit, 18 ... calibration unit, 181 ... correction conversion matrix calculation unit, 182 ... basic matrix calculation unit, 19 ... Automatic body tracking unit, 191 ... Animal body detection unit, 192 ... Animal body imaging data calculation unit, 20 ... Image collection device, 30 ... Image distribution device, 40 ... Communication terminal, A ... Object, M ... Animal body , N ... Network
Claims (5)
前記特定手段により特定された視者位置とカメラの位置と視点とが形成する三角形の面積、並びに、前記カメラの光軸中心ベクトルと、前記視者位置から前記視点へのベクトルとの為す角度を、前記複数のカメラに関して算出する算出手段と、
前記算出手段による算出結果を使用して、前記視点を中心とする撮影画像を出力するカメラを選択する選択手段と
を備えることを特徴とするカメラ選択装置。 A specifying means for specifying the position of the viewer in a scene that can be photographed by a plurality of cameras;
The triangular area formed by the viewer position specified by the specifying means, the camera position and the viewpoint, and the angle formed by the optical axis center vector of the camera and the vector from the viewer position to the viewpoint. Calculating means for calculating the plurality of cameras;
A camera selection apparatus comprising: a selection unit that selects a camera that outputs a captured image centered on the viewpoint using a calculation result obtained by the calculation unit.
一のカメラによる撮影にオクルージョンが生じた場合には、他のカメラによる撮影画像を当該オクルージョン箇所に適用することで、提示画像を生成する生成手段を更に備えることを特徴とする請求項1に記載のカメラ選択装置。 The selection means uses the calculation result to select a plurality of cameras that output a captured image centered on the viewpoint,
The apparatus according to claim 1, further comprising: a generation unit configured to generate a presentation image by applying an image captured by another camera to the occlusion portion when an occlusion occurs in the image captured by one camera. Camera selection device.
前記特定ステップにて特定された視者位置とカメラの位置と視点とが形成する三角形の面積、並びに、前記カメラの光軸中心ベクトルと、前記視者位置から前記視点へのベクトルとの為す角度を、前記複数のカメラに関して算出する算出ステップと、
前記算出ステップにおける算出結果を使用して、前記視点を中心とする撮影画像を出力するカメラを選択する選択ステップと
を含むことを特徴とするカメラ選択方法。 A specific step of identifying the position of the viewer in a scene that can be photographed by a plurality of cameras;
The triangular area formed by the viewer position, the camera position, and the viewpoint specified in the specifying step, and the angle formed by the optical axis center vector of the camera and the vector from the viewer position to the viewpoint Calculating with respect to the plurality of cameras;
And a selection step of selecting a camera that outputs a photographed image centered on the viewpoint using the calculation result in the calculation step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004071463A JP2005260731A (en) | 2004-03-12 | 2004-03-12 | Camera selecting device and camera selecting method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004071463A JP2005260731A (en) | 2004-03-12 | 2004-03-12 | Camera selecting device and camera selecting method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005260731A true JP2005260731A (en) | 2005-09-22 |
Family
ID=35086012
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004071463A Pending JP2005260731A (en) | 2004-03-12 | 2004-03-12 | Camera selecting device and camera selecting method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005260731A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014002398A1 (en) | 2012-06-28 | 2014-01-03 | 日本電気株式会社 | Camera position/posture evaluation device, camera position/posture evaluation method, and camera position/posture evaluation program |
WO2014199786A1 (en) * | 2013-06-11 | 2014-12-18 | シャープ株式会社 | Imaging system |
-
2004
- 2004-03-12 JP JP2004071463A patent/JP2005260731A/en active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014002398A1 (en) | 2012-06-28 | 2014-01-03 | 日本電気株式会社 | Camera position/posture evaluation device, camera position/posture evaluation method, and camera position/posture evaluation program |
US9367752B2 (en) | 2012-06-28 | 2016-06-14 | Nec Corporation | Camera position posture evaluating device, camera position posture evaluating method, and camera position posture evaluating program |
WO2014199786A1 (en) * | 2013-06-11 | 2014-12-18 | シャープ株式会社 | Imaging system |
CN105165004A (en) * | 2013-06-11 | 2015-12-16 | 夏普株式会社 | Imaging system |
JP6077655B2 (en) * | 2013-06-11 | 2017-02-08 | シャープ株式会社 | Shooting system |
CN105165004B (en) * | 2013-06-11 | 2019-01-22 | 夏普株式会社 | Camera chain |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102595168B (en) | Seamless left/right views for 360-degree stereoscopic video | |
US20170180680A1 (en) | Object following view presentation method and system | |
KR102225617B1 (en) | Method of setting algorithm for image registration | |
CN105530431A (en) | Reflective panoramic imaging system and method | |
KR101521008B1 (en) | Correction method of distortion image obtained by using fisheye lens and image display system implementing thereof | |
WO2014023231A1 (en) | Wide-view-field ultrahigh-resolution optical imaging system and method | |
EP3016065A1 (en) | Coordinate computation device and method, and image processing device and method | |
CN103971375A (en) | Panoramic gaze camera space calibration method based on image splicing | |
CN106534670B (en) | It is a kind of based on the panoramic video generation method for connecting firmly fish eye lens video camera group | |
EP3606059B1 (en) | Projector calibration method and projection system using the same | |
KR101916419B1 (en) | Apparatus and method for generating multi-view image from wide angle camera | |
KR101977635B1 (en) | Multi-camera based aerial-view 360-degree video stitching and object detection method and device | |
JP4193342B2 (en) | 3D data generator | |
JP6700935B2 (en) | Imaging device, control method thereof, and control program | |
CN110738696B (en) | Driving blind area perspective video generation method and driving blind area view perspective system | |
CN103546680B (en) | A kind of deformation-free omni-directional fisheye photographic device and a method for implementing the same | |
JP2005258953A (en) | Fish eye camera and calibration method in the fish eye camera | |
JP4595313B2 (en) | Imaging display apparatus and method, and image transmission / reception system | |
JP2005260753A (en) | Device and method for selecting camera | |
Lin et al. | Large-area, multilayered, and high-resolution visual monitoring using a dual-camera system | |
KR101132976B1 (en) | Mobile device with a plurality of camera, method for display using the sane | |
JP2005260731A (en) | Camera selecting device and camera selecting method | |
US20230005213A1 (en) | Imaging apparatus, imaging method, and program | |
JP5509986B2 (en) | Image processing apparatus, image processing system, and image processing program | |
KR101559739B1 (en) | System for merging virtual modeling and image data of cameras |