JP2005260731A - Camera selecting device and camera selecting method - Google Patents

Camera selecting device and camera selecting method Download PDF

Info

Publication number
JP2005260731A
JP2005260731A JP2004071463A JP2004071463A JP2005260731A JP 2005260731 A JP2005260731 A JP 2005260731A JP 2004071463 A JP2004071463 A JP 2004071463A JP 2004071463 A JP2004071463 A JP 2004071463A JP 2005260731 A JP2005260731 A JP 2005260731A
Authority
JP
Japan
Prior art keywords
camera
image
viewpoint
viewer
cameras
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004071463A
Other languages
Japanese (ja)
Inventor
Toshiki Iso
俊樹 磯
Hironori Suzuki
裕紀 鈴木
Atsuki Tomioka
淳樹 富岡
Masaharu Kurakake
正治 倉掛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2004071463A priority Critical patent/JP2005260731A/en
Publication of JP2005260731A publication Critical patent/JP2005260731A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To select an optimum camera corresponding to the viewpoint of an animal from among a plurality of cameras. <P>SOLUTION: In this image processing device 10 when a viewer's position is specified, a viewer position similarity operating section 14 calculates an area of ▵C<SB>k</SB>PQ formed by the viewer's position P, the position of a camera C<SB>k</SB>and a viewpoint Q. At the same time, the section 14 calculates an angle formed by an optical axis center vector e<SB>k⊥</SB>of the camera Ck and a vector PQ. A camera selector 15 selects two Cks in an order of cameras having a smallest value obtained by substituting the area and the angle into a predetermined evaluation formula E(C<SB>k</SB>). The two selected cameras Ck<SB>min1</SB>and Ck<SB>min2</SB>photograph a field A to be photographed centered at the viewpoint Q, and output photographed images to an arbitrary viewpoint image generator 16. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、異なる位置に配設された複数のカメラによって動物体を撮影する技術に関する。   The present invention relates to a technique for photographing a moving object using a plurality of cameras arranged at different positions.

従来、複数箇所に設置されたカメラを使用して、被写界に存在する動物体の撮影を行うシステムが実用化されている。例えば、特許文献1には、使用者の要望に応じて、カメラとレンズとの組合せを容易に選択できるようにした、レンズの選択装置が開示されている。当該装置では、レンズの選択に際して、カメラの画面サイズ、撮影距離、焦点距離、被写体の大きさ、絞りの方式などの撮影条件が考慮される。撮影条件に適合するレンズが検索されると、これが表示装置に表示され、使用者による選択を待って、撮影に使用されるレンズが決定する。
特開平10−257361号公報
2. Description of the Related Art Conventionally, a system for photographing a moving object existing in an object scene using cameras installed at a plurality of places has been put into practical use. For example, Patent Document 1 discloses a lens selection device that can easily select a combination of a camera and a lens according to a user's request. In this apparatus, when selecting a lens, shooting conditions such as the camera screen size, shooting distance, focal length, subject size, and aperture method are taken into consideration. When a lens that matches the photographing condition is searched, this is displayed on the display device, and the lens used for photographing is determined after waiting for selection by the user.
JP-A-10-257361

しかしながら、上記従来技術は、監視を含む動物体の撮影を主な目的としたものであり、任意の視点から観た映像の提供を目的としたものではないことから、以下に示す問題点があった。すなわち、カメラの選択基準として、個々のカメラの特性は考慮されているが、カメラの視点と動物体の視点との類似度合い、あるいは、位置に応じたカメラの解像度特性といった、両者の相関性は充分に考慮されていなかった。このため、高画質な撮像をユーザに提供するという観点から、必ずしも最適なカメラが選択されるとは限らなかった。   However, the above-mentioned prior art is mainly intended for photographing a moving body including surveillance, and is not intended to provide an image viewed from an arbitrary viewpoint, and therefore has the following problems. It was. In other words, the characteristics of individual cameras are taken into account as the camera selection criteria, but the degree of similarity between the camera viewpoint and the viewpoint of the moving object or the resolution characteristics of the camera according to the position is not correlated. It was not considered enough. For this reason, the optimal camera is not always selected from the viewpoint of providing the user with high-quality imaging.

そこで、本発明の課題は、複数のカメラの中から、動物体の視点に応じた最適なカメラを選択することである。   Therefore, an object of the present invention is to select an optimal camera corresponding to the viewpoint of a moving object from a plurality of cameras.

上記課題を解決するために、本発明に係るカメラ選択装置は、複数のカメラにより撮影可能な被写界において、視者(動物体)の位置を特定する特定手段と、前記特定手段により特定された視者位置とカメラの位置と視点とが形成する三角形の面積、並びに、前記カメラの光軸中心ベクトルと、前記視者位置から前記視点へのベクトルとの為す角度を、前記複数のカメラに関して算出する算出手段と、前記算出手段による算出結果を使用して、前記視点を中心とする撮影画像を出力するカメラを選択する選択手段とを備える。   In order to solve the above-described problems, a camera selection device according to the present invention is specified by a specifying unit that specifies the position of a viewer (animal body) in an object field that can be captured by a plurality of cameras, and the specifying unit. The area of the triangle formed by the viewer position, the camera position, and the viewpoint, and the angle formed by the optical axis center vector of the camera and the vector from the viewer position to the viewpoint are related to the plurality of cameras. Calculation means for calculating, and selection means for selecting a camera that outputs a captured image centered on the viewpoint using a calculation result by the calculation means.

本発明に係るカメラ選択方法は、複数のカメラにより撮影可能な被写界において、視者(動物体)の位置を特定する特定ステップと、前記特定ステップにて特定された視者位置とカメラの位置と視点とが形成する三角形の面積、並びに、前記カメラの光軸中心ベクトルと、前記視者位置から前記視点へのベクトルとの為す角度を、前記複数のカメラに関して算出する算出ステップと、前記算出ステップにおける算出結果を使用して、前記視点を中心とする撮影画像を出力するカメラを選択する選択ステップとを含む。   The camera selection method according to the present invention includes a specifying step of specifying a position of a viewer (animal body) in a field that can be photographed by a plurality of cameras, a viewer position specified in the specifying step, and a camera A calculation step of calculating an angle formed by the area of the triangle formed by the position and the viewpoint, the optical axis center vector of the camera, and the vector from the viewer position to the viewpoint with respect to the plurality of cameras; And a selection step of selecting a camera that outputs a captured image centered on the viewpoint using the calculation result in the calculation step.

これらの発明は、カメラの選択に際して、特定された視者位置とカメラの位置と視点とが形成する三角形の面積を使用するので、視者位置からの視点と類似性のより高い視点を有するカメラを選択可能とする。また、カメラの光軸中心ベクトルと、視者位置から視点に向かうベクトルとの為す角度が併せて使用するので、撮影方向に応じたカメラの解像度特性をも勘案したカメラの選択を同時に可能とする。このように選択されたカメラは、特定された視者位置からの高画質な撮影画像を出力することのできるカメラである。つまり、これらの発明によれば、複数のカメラの中から、動物体の視点に応じた最適なカメラを選択することができる。   Since these inventions use a triangular area formed by the specified viewer position, the camera position, and the viewpoint when selecting a camera, a camera having a viewpoint that is more similar to the viewpoint from the viewer position Can be selected. In addition, since the angle between the optical axis center vector of the camera and the vector from the viewer position to the viewpoint is used in combination, it is possible to simultaneously select the camera considering the resolution characteristics of the camera according to the shooting direction. . The camera selected in this way is a camera that can output a high-quality captured image from the specified viewer position. That is, according to these inventions, an optimal camera can be selected from a plurality of cameras according to the viewpoint of the moving object.

本発明に係るカメラ選択装置において好ましくは、前記選択手段は、前記算出結果を使用して、前記視点を中心とする撮影画像を出力するカメラを複数選択し、一のカメラによる撮影にオクルージョンが生じた場合には、他のカメラによる撮影画像を当該オクルージョン箇所に適用することで、提示画像を生成する生成手段を更に備える。   Preferably, in the camera selection device according to the present invention, the selection unit uses the calculation result to select a plurality of cameras that output a photographed image centered on the viewpoint, and occlusion occurs in photographing with one camera. In such a case, the image processing apparatus further includes a generation unit that generates a presentation image by applying an image captured by another camera to the occlusion portion.

被写界の形状や遮蔽体の介在によっては、被写界内であっても死角となって、一台のカメラでは撮影不能な視点が存在する可能性がある。かかる状況を想定して、本発明は、一方のカメラから死角となった画像部分を、別のカメラによる撮影画像で補完することで、オクルージョンの発生を回避する。これにより、例えば、被写界に現存するユーザからは不可視な領域に関しての撮影画像を、遠隔に位置するユーザに提示することができる。   Depending on the shape of the object scene and the intervention of the shield, there may be a blind spot even in the object scene, and there may be a viewpoint that cannot be taken with one camera. Assuming such a situation, the present invention avoids the occurrence of occlusion by complementing an image portion that has become a blind spot from one camera with an image captured by another camera. Thereby, for example, a captured image regarding an area invisible to the user who is present in the scene can be presented to a user located remotely.

本発明に係るカメラ選択装置において、より好ましくは、前記生成手段により提示画像を生成した結果、相互に解像度の異なる画像部分が存在する場合には、個々の画素の解像度に応じた平滑化を行う画像処理手段を更に備える。   In the camera selection device according to the present invention, more preferably, when there are image portions having different resolutions as a result of generating the presentation image by the generation unit, smoothing according to the resolution of each pixel is performed. Image processing means is further provided.

低解像度の画素値を用いて一律に画像平滑化処理(スムージング処理)を実行すると、これに伴い、高解像度の部分の画質が劣化することが懸念される。かかる懸念は、解像度の高い撮影画像のオクルージョンを、これよりも解像度の低い画像で補って提示画像を生成した場合などに特に顕著である。本発明によれば、画像の平滑化処理は、提示画像を構成する各画素の解像度に応じて実行されるので、高解像度の画像部分の画質を維持しながら、提示画像全体の画質を高めることができる。   When image smoothing processing (smoothing processing) is uniformly performed using low-resolution pixel values, there is a concern that the image quality of the high-resolution portion deteriorates accordingly. Such a concern is particularly noticeable when a presentation image is generated by supplementing occlusion of a captured image with a high resolution with an image with a lower resolution. According to the present invention, since the image smoothing process is performed according to the resolution of each pixel constituting the presentation image, the image quality of the entire presentation image is improved while maintaining the image quality of the high-resolution image portion. Can do.

本発明に係るカメラ選択装置において、前記視者の位置は、前記被写界内に指定された仮想的なユーザの位置であってもよい。   In the camera selection device according to the present invention, the position of the viewer may be a virtual user position designated in the object scene.

本発明のように、特定された視者位置は、実存するユーザの位置であるか、仮想的なユーザの位置であるかを問わない。したがって、遠隔操作によって、仮想的な視者の位置をユーザが可変的に制御することにより、実際には被写界に存在しなくとも、任意の位置から所望の視点を中心とする画像を閲覧することができる。また、本発明は、被写界内であれば、如何なる位置からの視点をも提示できるので、実ユーザでは到達不能な高い位置や進入不能な狭い場所からの撮影画像の閲覧をユーザが所望する場合に、特に有効である。   As in the present invention, it does not matter whether the specified viewer position is an existing user position or a virtual user position. Therefore, the user can variably control the position of a virtual viewer by remote control, so that an image centered on a desired viewpoint can be viewed from an arbitrary position even if it is not actually present in the object scene. can do. In addition, since the present invention can present a viewpoint from any position within the object scene, the user desires to view a photographed image from a high position that cannot be reached by a real user or from a narrow place that cannot be entered. This is particularly effective when

本発明によれば、複数のカメラの中から、動物体の視点に応じた最適なカメラを選択することが可能となる。   According to the present invention, it is possible to select an optimal camera according to the viewpoint of a moving object from among a plurality of cameras.

以下、例示のみの為に添付された図面を参照しながら、本発明の一実施形態について説明する。まず、本実施の形態における画像処理システム1の構成について説明する。図1に示すように、画像処理システム1は、画像処理装置10(カメラ選択装置に対応)と、被写界を同一とする5台のカメラC1〜C5とを備える。更に、画像処理装置10は、機能的な構成要素として、視者情報入力部11と、撮影環境設定部12と、視者位置特定部13(特定手段に対応)と、視者位置類似性演算部14(算出手段に対応)と、カメラ選択部15(選択手段に対応)と、任意視点画像生成部16(生成手段に対応)と、画像平滑化部17(画像処理手段に対応)と、キャリブレーション部18と、動物体自動追従部19とを備える。これら各部はバスを介して接続されている。   Hereinafter, an embodiment of the present invention will be described with reference to the accompanying drawings for illustration only. First, the configuration of the image processing system 1 in the present embodiment will be described. As shown in FIG. 1, the image processing system 1 includes an image processing apparatus 10 (corresponding to a camera selection apparatus) and five cameras C1 to C5 having the same object scene. Further, the image processing apparatus 10 includes, as functional components, a viewer information input unit 11, a shooting environment setting unit 12, a viewer position specifying unit 13 (corresponding to a specifying unit), and a viewer position similarity calculation. A unit 14 (corresponding to the calculation unit), a camera selection unit 15 (corresponding to the selection unit), an arbitrary viewpoint image generation unit 16 (corresponding to the generation unit), an image smoothing unit 17 (corresponding to the image processing unit), A calibration unit 18 and a moving object automatic tracking unit 19 are provided. These units are connected via a bus.

以下、画像処理システム1の各構成要素について詳細に説明する。
カメラC1〜C5は、各カメラに固有の撮影方向及び視野角を有し、動物体やその背景を含む被写界を撮影する。撮影された被写界の画像は、後述の任意視点画像生成部16に出力された後、所定の処理が施された提示画像としてユーザに提供される。カメラC1〜C5は、魚眼カメラ、ピンホールカメラ、全方位カメラなど、その種類を限定するものではないが、一度に獲得可能な撮像範囲を広くする観点から、魚眼レンズを搭載した広角カメラを使用することが望ましい。
Hereinafter, each component of the image processing system 1 will be described in detail.
The cameras C1 to C5 have a shooting direction and a viewing angle unique to each camera, and shoot a scene including a moving object and its background. The captured image of the scene is output to an arbitrary viewpoint image generation unit 16 described later, and then provided to the user as a presentation image that has been subjected to predetermined processing. The cameras C1 to C5 are not limited to their types, such as fisheye cameras, pinhole cameras, and omnidirectional cameras, but use a wide-angle camera equipped with a fisheye lens from the viewpoint of widening the imaging range that can be acquired at once. It is desirable to do.

視者情報入力部11は、被写界に存在するユーザに関する情報を設定する。ユーザに関する情報とは、例えばユーザの位置や視線方向である。視者情報入力部11は、必要に応じて、動物体自動追従部19により追従される動物体の位置及び移動方向を視者情報として使用する。ユーザは、実存するユーザに限らず、仮想的なユーザであってもよい。また、被写界Aと外界との境界面に関しても、壁面に限らず、仮想面であってもよい。視者情報入力部11をネットワーク経由で外部機器と接続することで、遠隔監視(テレモニタリング)が実現される。   The viewer information input unit 11 sets information related to a user existing in the object scene. Information about the user is, for example, the user's position and line-of-sight direction. The viewer information input unit 11 uses the position and moving direction of the moving object followed by the moving object automatic tracking unit 19 as the viewer information as necessary. The user is not limited to an existing user, and may be a virtual user. Further, the boundary surface between the object scene A and the outside world is not limited to a wall surface, and may be a virtual surface. Remote monitoring (telemonitoring) is realized by connecting the viewer information input unit 11 to an external device via a network.

撮影環境設定部12は、ユーザによる指示操作に従って、撮影環境に関する情報の設定を行う。例えば、撮影環境設定部12には、カメラC1〜C5の配設された位置に関する情報が登録される。また、高さHにおける被写界Aの断面がレイアウトマップとして定義付けされた情報が登録される。 The shooting environment setting unit 12 sets information related to the shooting environment in accordance with an instruction operation by the user. For example, information related to the positions where the cameras C1 to C5 are disposed is registered in the shooting environment setting unit 12. In addition, information in which a cross section of the object scene A at the height H 0 is defined as a layout map is registered.

本実施の形態では、図2に示すような形状の被写界Aを想定する。図2は、x軸とy軸とにより規定されるxy平面による被写界Aの断面図である。カメラC1〜C5は、被写界Aの一部を撮影可能な位置にそれぞれ配置されており、カメラC1〜C5の何れによっても撮影不能な位置は被写界A内に存在しないもとする。カメラC1の位置座標をC(c1x,c1y)とし、以下同様に、カメラC2〜C5の位置座標をそれぞれC(c2x,c2y)〜C(c5x,c5y)とする。また、各カメラC1〜C5の光軸中心ベクトルをそれぞれベクトルe1⊥〜e5⊥とする。更に、視者の位置座標をP(x,y)、視者が視点Q(X,Y)を見ているときの光軸中心ベクトルに対する角度をαとする。このとき、△CPQの面積は、式(1)により表される。

Figure 2005260731
In the present embodiment, an object scene A having a shape as shown in FIG. 2 is assumed. FIG. 2 is a cross-sectional view of the object scene A along the xy plane defined by the x-axis and the y-axis. The cameras C1 to C5 are respectively arranged at positions where a part of the object scene A can be photographed, and there are no positions in the object scene A that cannot be photographed by any of the cameras C1 to C5. The position coordinates of the camera C1 are defined as C 1 (c 1x , c 1y ). Similarly, the position coordinates of the cameras C2 to C5 are defined as C 2 (c 2x , c 2y ) to C 5 (c 5x , c 5y ), respectively. To do. In addition, the center vectors of the optical axes of the cameras C1 to C5 are set as vectors e 1 〜 to e 5 , respectively. Further, the position coordinate of the viewer is P (x, y), and the angle with respect to the optical axis center vector when the viewer is looking at the viewpoint Q (X, Y) is α. At this time, the area of ΔC k PQ is expressed by Expression (1).
Figure 2005260731

視者位置特定部13は、視者情報入力部11による設定内容を参照して、被写界Aにおける視者の位置P(x,y)を特定する。
視者位置類似性演算部14は、撮影環境設定部12により予め登録されている各カメラC1〜C5の位置座標C(c1x,c1y)〜C(c5x,c5y)の中から、視点Q(X,Y)に関して、現時点における視者位置P(x,y)と類似性の高いカメラを2台選択する。具体的な処理内容に関しては、動作説明において後述するが、視者位置類似性演算部14は、視者位置特定部13により特定された視者位置Pとカメラの位置(例えばC,C)と視点Qとが形成する三角形の面積、及び、カメラの光軸中心ベクトル(例えばe1⊥,e2⊥)とベクトルPQとの為す角度を算出する。
The viewer position specifying unit 13 specifies the position P (x, y) of the viewer in the object scene A with reference to the setting content by the viewer information input unit 11.
The viewer position similarity calculation unit 14 includes position coordinates C 1 (c 1x , c 1y ) to C 5 (c 5x , c 5y ) of the cameras C 1 to C 5 registered in advance by the shooting environment setting unit 12. From the viewpoint Q (X, Y), two cameras having high similarity to the current viewer position P (x, y) are selected. Specific processing contents will be described later in the description of the operation, but the viewer position similarity calculation unit 14 determines the viewer position P specified by the viewer position specifying unit 13 and the camera position (for example, C 1 , C 2). ) And the viewpoint Q, and the angle formed by the optical axis center vector (for example, e 1⊥ , e 2⊥ ) of the camera and the vector PQ is calculated.

カメラ選択部15は、視者位置類似性演算部14による演算結果から、最小二乗法を用いて、視点Qに関する視者位置Pとの類似性の高い2台のカメラ(例えばC1,C2)を選択する。選択された2台のカメラは、視点Qを中心として被写界Aを撮影し、任意視点画像生成部16に撮影画像を出力する。   The camera selection unit 15 selects two cameras (for example, C1 and C2) having high similarity to the viewer position P with respect to the viewpoint Q from the calculation result by the viewer position similarity calculation unit 14 using the least square method. select. The two selected cameras capture the scene A around the viewpoint Q and output the captured image to the arbitrary viewpoint image generator 16.

任意視点画像生成部16は、提示画像の生成に際して、選択された2台のカメラによる撮影画像を個々に平面展開し、より画質の高い方のカメラによる撮影画像を優先的に使用する。画質の高い方のカメラとは、例えば、撮影画像の解像度が高いカメラである。但し、一方のカメラの視野角にオクルージョンが発生する場合には、任意視点画像生成部16は、画質の低いカメラの撮影画像により、死角部分を補う(合成する)こともできる。   When generating the presentation image, the arbitrary viewpoint image generation unit 16 individually develops the images captured by the two selected cameras, and preferentially uses the images captured by the camera with the higher image quality. The camera with the higher image quality is, for example, a camera with a high resolution of a captured image. However, when occlusion occurs in the viewing angle of one camera, the arbitrary viewpoint image generation unit 16 can also supplement (synthesize) the blind spot portion with a photographed image of a camera with low image quality.

画像平滑化部17は、任意視点画像生成部16により生成された画像に平滑化処理(スムージング)を施す。このとき、対象画像が、解像度の異なる複数の撮影画像を組み合わせたものである場合には、画像平滑化部17は、その解像度に応じた平滑化を行う。すなわち、解像度の低い画素に関しては、自画素の周辺画素(大きい画素)による平滑化を行うと共に、解像度の高い画素に関しては、当該画素の周辺画素(小さい画素)による平滑化を行う。これにより、高解像度部分の画質を劣化させることなく、画素の輪郭が消失した滑らかな提示画像を得る。   The image smoothing unit 17 performs smoothing processing (smoothing) on the image generated by the arbitrary viewpoint image generation unit 16. At this time, when the target image is a combination of a plurality of captured images having different resolutions, the image smoothing unit 17 performs smoothing according to the resolution. That is, for pixels with a low resolution, smoothing is performed using peripheral pixels (large pixels) of the pixel, and for pixels with high resolution, smoothing is performed using peripheral pixels (small pixels) of the pixel. Thereby, a smooth presentation image in which the outline of the pixel disappears is obtained without degrading the image quality of the high resolution portion.

キャリブレーション部18は、補正変換用行列算出部181と基礎行列算出部182とを有する。補正変換用行列算出部181は、カメラC1〜C5により撮影された画像のうち、魚眼展開画像面(CCD(Charge-Coupled Device)面)に射影されない領域と、射影される領域との境界位置(境界特徴点)の座標を算出する。その後、当該座標から推定された、魚眼展開画像領域の輪郭の曲線係数から、補正変換用行列を算出し、この行列を用いて撮影画像のキャリブレーションを行う。基礎行列算出部182は、2つの魚眼カメラの視線方向を変化させて複数の境界特徴点を同時に撮影することで、同様の手法により、複数のカメラを利用したキャリブレーションを行う。   The calibration unit 18 includes a correction conversion matrix calculation unit 181 and a basic matrix calculation unit 182. The correction conversion matrix calculation unit 181 is a boundary position between a region that is not projected onto a fish-eye developed image surface (CCD (Charge-Coupled Device) surface) and a region that is projected among images captured by the cameras C1 to C5. The coordinates of (boundary feature points) are calculated. Thereafter, a correction conversion matrix is calculated from the curve coefficient of the contour of the fisheye developed image area estimated from the coordinates, and the captured image is calibrated using this matrix. The basic matrix calculation unit 182 performs calibration using a plurality of cameras by a similar method by simultaneously capturing a plurality of boundary feature points by changing the line-of-sight directions of the two fisheye cameras.

動物体自動追従部19は、動物体検出部191と動物体撮影用データ算出部192とを有する。動物体検出部191は、ステレオペアとなる2つのカメラ間に共通の撮影領域における時間的な差分画像から連結領域を抽出し、該領域の画素値が閾値を超える場合に動物体の検出を認識する。同時に、動物体検出部191は、ステレオペアとなる2つのカメラ間に共通の撮影領域における参照視差画像(リファレンス画像)との差分画像から連結領域を抽出し、該領域の画素値が閾値を超える場合にも動物体の検出を認識する。つまり、動物体検出部191は、時間的な差分と参照画像からの差分との少なくとも一方の発生を以って、動物体の検出を認識する。   The moving object automatic tracking unit 19 includes a moving object detection unit 191 and a moving object photographing data calculation unit 192. The moving object detection unit 191 extracts a connected area from a temporal difference image in a common shooting area between two cameras that form a stereo pair, and recognizes the detection of the moving object when the pixel value of the area exceeds a threshold value. To do. At the same time, the moving object detection unit 191 extracts a connected area from a difference image from a reference parallax image (reference image) in a common shooting area between two cameras that form a stereo pair, and the pixel value of the area exceeds a threshold value Also recognize the detection of moving objects. That is, the moving object detection unit 191 recognizes the detection of the moving object by generating at least one of the temporal difference and the difference from the reference image.

動物体撮影用データ算出部192は、各ステレオペアに対応する矩形領域の頂点とカメラの中心点とを結ぶベクトルの交点から、動物体が存在する画像領域を推定する。更に、この領域に外接する矩形領域の重心を算出することで、画像の中心に動物体を捉えることを可能とする。動物体撮影用データ算出部192は、上記矩形領域の重心の時間的変化を動物体の移動ベクトルとして抽出することで、これと反対方向、すなわち動物体に対峙する方向からの撮影を可能とする。   The moving object photographing data calculation unit 192 estimates the image area where the moving object exists from the intersection of the vector connecting the vertex of the rectangular area corresponding to each stereo pair and the center point of the camera. Further, by calculating the center of gravity of the rectangular area circumscribing this area, it is possible to capture the moving object at the center of the image. The moving object photographing data calculation unit 192 extracts the temporal change in the center of gravity of the rectangular area as a moving vector of the moving object, thereby enabling shooting from the opposite direction, that is, the direction facing the moving object. .

次に、画像処理システム1の動作を説明し、併せて、本発明に係るカメラ選択方法を構成する各ステップについて説明する。まず、図2及び図3を参照しながら、カメラ選択部15により実行されるカメラ選択処理について説明する。   Next, the operation of the image processing system 1 will be described, and the steps constituting the camera selection method according to the present invention will be described together. First, the camera selection process executed by the camera selection unit 15 will be described with reference to FIGS. 2 and 3.

説明の前提として、本実施の形態におけるカメラ選択処理においては、図2に示した状況(被写界A、カメラ位置C〜C、視者位置P、視点Q)を想定し、カメラ選択部15は、視者位置Pから視点Qに対する視線に最も近いカメラの選択を試行するものとする。 As a premise for explanation, in the camera selection processing in the present embodiment, the situation shown in FIG. 2 (field A, camera positions C 1 to C 5 , viewer position P, viewpoint Q) is assumed, and camera selection is performed. The unit 15 tries to select a camera closest to the line of sight from the viewer position P to the viewpoint Q.

図3のS1では、撮影環境設定部12により、カメラ情報が定義される。カメラ情報としては、位置C(ckx,cky)と光軸中心ベクトルek⊥とが定義される。但し、本実施の形態では、被写界Aにおいて5台のカメラの存在を仮定しているので、kは1〜5の整数である。 In S <b> 1 of FIG. 3, camera information is defined by the shooting environment setting unit 12. As camera information, a position C k (c kx , c ky ) and an optical axis center vector ek ⊥ are defined. However, in the present embodiment, since it is assumed that there are five cameras in the object scene A, k is an integer of 1 to 5.

続いてS2では、撮影環境設定部12により、高さHにおける被写界Aの平面図がレイアウトマップとして定義される。ここで、高さHは、地面から光軸中心ベクトルek⊥までの距離であり、固定値である。このレイアウトマップは、図2に示したように、外界との境界線が直線となるように定義される。 Then, at S2, the imaging environment setting unit 12, a plan view of the object scene A at the height H 0 is defined as the layout map. Here, the height H 0 is a distance from the ground to the optical axis center vector ek⊥ , and is a fixed value. As shown in FIG. 2, this layout map is defined so that the boundary line with the outside world is a straight line.

S3では、視者情報入力部11により、遠隔サイトにおける視者の仮想位置P(x,y)が入力される。仮想位置Pの視点方向水平面角をαとし、仰角をβとする。
撮影環境及び視者情報が確定すると、視者位置類似性演算部14により、視者位置Pを通りek⊥に対する傾きがαの直線と、レイアウトマップの境界線との交点Q(X,Y)が算出される(S4)。
In S3, the viewer's virtual position P (x, y) at the remote site is input by the viewer information input unit 11. The viewpoint horizontal plane angle of the virtual position P is α, and the elevation angle is β.
When the shooting environment and the viewer information are determined, the viewer position similarity calculation unit 14 causes the intersection point Q (X, Y) between the straight line passing through the viewer position P and having an inclination α relative to ek⊥ and the boundary of the layout map. ) Is calculated (S4).

S5では、視者位置類似性演算部14は、各カメラの位置Cに関して、下記評価式E(C)を算出する。なお、λは、カメラCkの解像度特性を表す定数であり、魚眼カメラの場合には、例えばθ若しくはsinθが使用される。
E(C)=(△CPQの面積)+λ(ベクトルek⊥とベクトルCQとのなす角θ)
In S < b> 5, the viewer position similarity calculation unit 14 calculates the following evaluation formula E (C k ) for the position C k of each camera. Note that λ is a constant representing the resolution characteristic of the camera Ck, and in the case of a fisheye camera, for example, θ or sin θ is used.
E (C k ) = (Area of ΔC k PQ) 2 + λ (An angle θ formed by the vector e k and the vector C k Q) 2

S6では、カメラ選択部15が、S5における演算結果を基に、E(C)を最小にするものから順に2つのカメラを選択する。上記想定下では、kmin1=1とkmin2=2とが算出され、視者位置に最も類似性の高いカメラとしてC1が、二番目に類似性の高いカメラとしてC2が選択される。 In S6, the camera selection unit 15 selects two cameras in order from the one that minimizes E (C k ) based on the calculation result in S5. Under the above assumption, and k min1 = 1 and k min2 = 2 is calculated, C1 as the most similarity to the viewer position camera, C2 is selected as the high affinity camera second.

カメラ選択部15は、S2で定義されたレイアウトマップの表示制御機能を有しており、S6で選択された2台のカメラと視者情報(視点や視野角)とをレイアウトマップ上に表示させる(S7)。これにより、ユーザは、配設された5台のカメラのうち、画像の提示に使用されているカメラ、及び視者に関する情報を簡易迅速に把握することができる。   The camera selection unit 15 has a display control function of the layout map defined in S2, and displays the two cameras selected in S6 and viewer information (viewpoint and viewing angle) on the layout map. (S7). Thereby, the user can grasp | ascertain quickly and easily the information which is used for presentation of an image among the five arranged cameras and the viewer.

カメラ選択部15は、ユーザによる終了指示を検知すると(S8;YES)、カメラ選択処理を終了させる。使用されるカメラや視点は、視者位置の移動に伴って経時的に変化するが、画像処理装置10が、上述した一連のカメラ選択処理を繰り返し実行することで、常に最新の情報をユーザに提示することができる。   The camera selection part 15 will complete | finish a camera selection process, if the termination instruction | indication by a user is detected (S8; YES). The camera and viewpoint used change over time as the viewer position moves. However, the image processing apparatus 10 repeatedly executes the series of camera selection processes described above, so that the latest information is always sent to the user. Can be presented.

続いて、図4〜図7を参照しながら、任意視点画像生成部16が、カメラより入力された撮影画像から提示画像を生成する処理について説明する。本任意視点画像生成処理においては、オクルージョンの発生を想定し、これを解決する手法についても併せて説明する。   Next, a process in which the arbitrary viewpoint image generation unit 16 generates a presentation image from a captured image input from the camera will be described with reference to FIGS. In this arbitrary viewpoint image generation process, the occurrence of occlusion is assumed, and a method for solving this will also be described.

本実施の形態では、高さHにおける被写界Aのxy平面及びカメラC1〜C5の配設位置として、図4に示す状況を想定する。図4においては、視者の位置Pと視点Qとを三次元として捉え、それぞれの座標をP(x,y,0),Q(q,q,q)とする。また、図中水平方向にx軸を規定し、垂直方向にy軸を規定した場合に、ベクトルPQがx軸と為す水平角度をθとし、視者の視線水平角(z軸回り)をα、視野水平角幅をΔα、視者の視線仰角(y軸回り)をβ、視野仰角幅をΔβとする。このとき、θは、図4に示す式(2)を満たす。また、PQ間の距離をdとすると、θとqとの間には、下記の式(3)に示す関係が成り立つ。

Figure 2005260731
In the present embodiment, the situation shown in FIG. 4 is assumed as the xy plane of the object scene A at the height H 0 and the arrangement positions of the cameras C1 to C5. In FIG. 4, the viewer's position P and viewpoint Q are regarded as three-dimensional, and the respective coordinates are P (x, y, 0) and Q (q x , q y , q z ). In the figure, when the x-axis is defined in the horizontal direction and the y-axis is defined in the vertical direction, the horizontal angle that the vector PQ makes with the x-axis is θ p , and the viewer's gaze horizontal angle (around the z-axis) It is assumed that α, the visual field horizontal angle width is Δα, the viewer's gaze elevation angle (around the y axis) is β, and the visual field elevation angle width is Δβ. In this case, theta p satisfies Formula (2) shown in FIG. If the distance between PQs is d, the relationship shown in the following formula (3) is established between θ p and q z .
Figure 2005260731

なお、ΔθC1は、視者の視野角に応じて決定されたカメラC1の視野角である。RM2,RM3は、カメラC2の光線と境界壁との交点である。θC1は、視点を点Qにおいた時のカメラ視線方向角である。S〜Sは、オクルージョンの発生範囲を示す。ΔθC2は、オクルージョンの発生範囲に応じて決定されたカメラC2の視野角である。S〜S〜S〜Sは、仮想的な展開画像面を示す。 Note that Δθ C1 is the viewing angle of the camera C1 determined according to the viewing angle of the viewer. R M2 and R M3 are intersections between the light beam of the camera C2 and the boundary wall. θ C1 is the camera viewing direction angle when the viewpoint is at point Q. S 1 to S 2 indicate the occurrence range of occlusion. Δθ C2 is the viewing angle of the camera C2 determined according to the occurrence range of occlusion. S 1 to S 2 to S 3 to S 4 indicate virtual expanded image planes.

図5のS11,S12では、撮影環境設定部12により、カメラ選択処理と同様の手法でカメラ情報が定義される。その結果、以降のカメラ情報として、位置C(ckx,cky)と光軸中心ベクトルek⊥とが使用され、高さHにおける被写界Aの平面図がレイアウトマップとして使用される。
S13では、視者情報入力部11により、視者の仮想位置P(x,y)が入力される。
In S <b> 11 and S <b> 12 of FIG. 5, camera information is defined by the shooting environment setting unit 12 by the same method as the camera selection process. As a result, the position C k (c kx , c ky ) and the optical axis center vector ek 軸 are used as subsequent camera information, and the plan view of the object scene A at the height H 0 is used as the layout map. The
In S <b> 13, the viewer's virtual position P (x, y) is input by the viewer information input unit 11.

S14ではまず、任意視点画像生成部16は、視者位置座標Pを通りek⊥に対する傾きをαとする直線と、上記レイアウトマップの境界線との、交点であるQ(qvx,qvy,qvz)の座標を算出する。同様に、任意視点画像生成部16は、視者位置座標Pを通りek⊥に対する傾きをα±Δαとする直線と、上記レイアウトマップの境界線との、交点であるR(qrsx,qrsy,qrsz),R(qrex,qrey,qrez)の座標をそれぞれ算出する。 In S14, first, the arbitrary viewpoint image generation unit 16 sets Q v (q vx , q) that is an intersection of a straight line that passes through the viewer position coordinates P and has an inclination α with respect to ek α and a boundary line of the layout map. vy , q vz ) coordinates are calculated. Similarly, the arbitrary viewpoint image generation unit 16 has R s (q rsx , which is an intersection of a straight line that passes through the viewer position coordinates P and has an inclination with respect to ek of α ± Δα and the boundary line of the layout map. The coordinates of q rsy , q rsz ) and R e (q rex , q rey , q rez ) are respectively calculated.

S15では、任意視点画像生成部16は、S14で算出された3つの座標とカメラ座標Cとから、直線CQ,C,Cを算出し、これらの直線とレイアウトマップの境界線との全ての交点Rtmp(図示せず)の座標を算出する。 In S15, the arbitrary viewpoint image generation unit 16 calculates straight lines C 1 Q, C 1 R s , and C 1 R e from the three coordinates calculated in S14 and the camera coordinates C 1, and these straight lines and layout are calculated. The coordinates of all intersections R tmp (not shown) with the map boundary are calculated.

S16では、φの初期値が設定される。φは、ベクトルPQがx軸と為す仰角であり(図6参照)、φとQ(q,q,q)との間には、図6に示す条件式(4)が成立する。ここで設定されたφは、視者の視野角(β−Δβ≦φ≦β+Δβ)の範囲内で、図7のS24をループ端として、Δφの刻み幅で加算される。同様に、S17では、上記条件式(2)及び関係式(3)を満たすθの初期値が設定された後、図7のS25をループ端としてΔθ単位で加算される。θは、固定視野角(α−Δα≦θ≦α+Δα)の範囲内で更新される。 In S16, the initial value of phi p is set. φ p is an elevation angle that the vector PQ makes with the x-axis (see FIG. 6), and between φ p and Q (q x , q y , q z ), the conditional expression (4) shown in FIG. To establish. Φ p set here is added within the range of the viewing angle of the viewer (β−Δβ ≦ φ p ≦ β + Δβ) with a step size of Δφ p with S24 in FIG. 7 as a loop end. Similarly, in S17, after the initial value of theta p satisfying the conditions (2) and relational expression (3) is set, it is added in [Delta] [theta] p units S25 in FIG. 7 as a loop end. θ p is updated within a range of a fixed viewing angle (α−Δα ≦ θ p ≦ α + Δα).

S18では、任意視点画像生成部16は、視者位置座標Pを通りベクトルek⊥に対する傾きがθである直線と、上記レイアウトマップ上の対象となる(本実施の形態では視点側の)境界線との、交点であるQp_tmp(図示せず)の座標を算出する。更に、算出されたQp_tmpとカメラ位置Cとから|Cp_tmp|の最小値Qが算出される(S19)。 In S18, the arbitrary viewpoint image generation unit 16 becomes a target on the layout map and a straight line passing through the viewer position coordinates P and having an inclination of θ p with respect to the vector ek⊥ (on the viewpoint side in the present embodiment). The coordinates of Q p_tmp (not shown) that is the intersection with the boundary line are calculated. Further, the minimum value Q p of | C 1 Q p_tmp | is calculated from the calculated Q p_tmp and the camera position C 1 (S19).

図7に移り、S20では、任意視点画像生成部16は、S19で算出されたQから、直線Cと、レイアウトマップ上で対象となる境界線との交点であるQc1_tmpを算出する。同様の処理により、直線Cと、境界線との交点であるQc2_tmpが算出される。続いて、任意視点画像生成部16は、算出されたQc1_tmpとカメラ位置Cとから|Cc1_tmp|の最小値Qc1を算出し、Qc2_tmpとカメラ位置Cとから|Cc2_tmp|の最小値Qc2を算出する(S21)。 Moving to FIG. 7, in S20, the arbitrary viewpoint image generation unit 16 calculates Q c1_tmp that is the intersection of the straight line C 1 Q p and the target boundary line on the layout map from Q p calculated in S19. To do. By similar processing, Q c2_tmp that is the intersection of the straight line C 2 Q p and the boundary line is calculated. Subsequently, arbitrary viewpoint image generation unit 16, the calculated Q C1_tmp and camera position C 1 Tokyo | C 1 Q c1_tmp | calculates the minimum value Q c1 of the Q C2_tmp and camera position C 2 Metropolitan | C 2 A minimum value Q c2 of Q c2tmp | is calculated (S21).

S22では、任意視点画像生成部16は、S21で算出されたQc1が、S19で算出されたQと一致するか否かを判定する。当該判定の結果、Qc1=Qである場合には(S22;YES)、任意視点画像生成部16は、魚眼展開画像上においてQc1に対応する画素の値を、任意視点画像の画素値として抽出する(S23)。S17〜S23の一連の処理は、θが上限値(α+Δα)に達するまで各θに関して順次実行され、更に、S16〜S24の一連の処理は、φが上限値(β+Δβ)に達するまで各φに関して順次実行される。その結果、視者位置Pからの視点Qに対する画像が得られる。 In S22, the arbitrary viewpoint image generation unit 16 determines whether or not Q c1 calculated in S21 matches Q p calculated in S19. As a result of the determination, if Q c1 = Q p (S22; YES), the arbitrary viewpoint image generation unit 16 sets the pixel value corresponding to Q c1 on the fisheye expanded image to the pixel of the arbitrary viewpoint image. Extracted as a value (S23). Series of processes S17~S23 are, theta p are sequentially performed for each theta p to reach the upper limit value (α + Δα), until further series of processes S16~S24 is, phi p reaches the upper limit value (β + Δβ) It is sequentially performed for each phi p. As a result, an image with respect to the viewpoint Q from the viewer position P is obtained.

一方、S22における判定の結果、Qc1=Qでない場合には(S22;NO)、オクルージョンが発生しているものと判断できるため、カメラC2による撮影画像により、カメラC1の撮影画像を補完することが望ましい。したがって、任意視点画像生成部16は、Qc2とQとの同一性を判定することで、Qc2に対応する画素値による撮影画像の補完が可能であるか否かの判定を行う(S25)。判定の結果、Qc2=Qである場合には(S26;YES)、任意視点画像生成部16は、魚眼展開画像上においてQc2に対応する画素の値を、任意視点画像の画素値として抽出する(S27)。抽出された画素値は、カメラC1から死角となった被写界の一部分の画像生成に使用される。その後は、上述したS24以降の処理を実行する。 On the other hand, if the result of determination in S22 is not Q c1 = Q p (S22; NO), since it can be determined that occlusion has occurred, the image captured by camera C1 is complemented by the image captured by camera C2. It is desirable. Therefore, the arbitrary viewpoint image generation unit 16 determines whether or not the captured image can be complemented with the pixel value corresponding to Q c2 by determining the identity between Q c2 and Q p (S25). ). As a result of the determination, if Q c2 = Q p (S26; YES), the arbitrary viewpoint image generation unit 16 sets the pixel value corresponding to Q c2 on the fisheye expanded image as the pixel value of the arbitrary viewpoint image. (S27). The extracted pixel value is used to generate an image of a part of the scene that has become a blind spot from the camera C1. After that, the processes after S24 described above are executed.

ここで、図8は、S23,S27において実行される処理、すなわち実空間上の点から、これに対応する魚眼展開画像面上の点を算出する手法を説明するための図である。図8に示すように、xy平面上に魚眼展開画像面が規定され、魚眼展開画像面の中心線にz軸が規定されている。なお、座標系の取り方と魚眼展開画像にはキャリブレーションが必要であるが、その方法に関しては後述する。図8において、魚眼レンズ上の任意の点をq(X,Y,Z)とし、射影後における魚眼展開画像面上の任意の点をp(ximage,yimage,0)とする。ここで、ベクトルqがz軸となす角度(入射角)をθとし、魚眼展開画像面上でベクトルpがx軸となす角度をφとすると、θとX,Y,Zとの間には式(5)が成立する。また、φとX,Yとの間には式(6)が成立する。 Here, FIG. 8 is a diagram for explaining the processing executed in S23 and S27, that is, a technique for calculating a point on the fisheye expanded image plane corresponding to the point on the real space. As shown in FIG. 8, the fish-eye developed image plane is defined on the xy plane, and the z-axis is defined on the center line of the fish-eye developed image plane. It should be noted that calibration is required for the coordinate system and the fish-eye developed image, but the method will be described later. In FIG. 8, an arbitrary point on the fisheye lens is q (X, Y, Z), and an arbitrary point on the fisheye developed image plane after projection is p ( ximage , yimage , 0). Here, if the angle (incident angle) that the vector q makes with the z-axis is θ, and the angle that the vector p makes with the x-axis on the fisheye developed image plane is φ, the angle between θ and X, Y, and Z Equation (5) holds. Further, the equation (6) is established between φ and X, Y.

かかる条件下において焦点距離fを用いると、正射影方式によっては、p(ximage,yimage,0)が以下の式(7)により特定される。焦点距離fとしては、例えば、魚眼展開画像の垂直方向の解像度を使用できる。

Figure 2005260731
また、等距離射影方式によっては、p(ximage,yimage,0)は以下の式(8)により特定される。
Figure 2005260731
When the focal length f is used under such conditions, p (x image , y image , 0) is specified by the following equation (7) depending on the orthogonal projection method. As the focal length f, for example, the vertical resolution of the fisheye developed image can be used.
Figure 2005260731
Further, depending on the equidistant projection method, p (x image , y image , 0) is specified by the following equation (8).
Figure 2005260731

図7に戻り、S26における判定の結果、Qc2=Qでない場合には(S26;NO)、任意視点画像生成部16は、カメラC2を使用してもオクルージョンを回避できないものと判断し、オクルージョン不可避の値を任意視点映像の画素値に代入する。その後は、S24以降の処理を実行する。 Returning to FIG. 7, if Q c2 = Q p is not the result of the determination in S26 (S26; NO), the arbitrary viewpoint image generation unit 16 determines that the occlusion cannot be avoided even if the camera C2 is used. Substitute an inevitable value for occlusion into the pixel value of the arbitrary viewpoint video. Thereafter, the processing after S24 is executed.

S16〜S25の一連の処理が終了すると、画像平滑化部17による平滑化処理(スムージング)が実行される(S29)。画像平滑化部17は、周知慣用の画像処理技術であるGaussianフィルタを用いて、上記得られた画像を平滑化する。得られた画像は、部分によっては、オクルージョンを回避した結果、他の画像部分よりも解像度が低くなっている。このため、全ての画素に関して、合成部分に依存しない均一なフィルタ処理を実行すると、その結果、高解像度であった部分まで他の低い解像度の部分の画質と同一になってしまう。そこで、画像平滑化部17は、処理の特長として、上記画像を構成する各画素の周辺画素に応じたフィルタリングを行う。換言すれば、広角カメラの撮影画像を平面展開した際の解像度特性を考慮したフィルタ形状の平滑化処理を施す。これにより、高解像度部分の画質を活かしつつ、画素間で滑らかな提示画像の生成を可能とする。
任意視点画像生成処理は、ユーザによる指示があると終了する(S30)。
When the series of processing of S16 to S25 is finished, smoothing processing (smoothing) by the image smoothing unit 17 is executed (S29). The image smoothing unit 17 smoothes the obtained image using a Gaussian filter which is a well-known and commonly used image processing technique. The obtained image has a resolution lower than that of other image portions as a result of avoiding occlusion in some portions. For this reason, if a uniform filtering process that does not depend on the synthesis portion is executed for all pixels, the image quality of the other low-resolution portions is the same as the high-resolution portions. Therefore, the image smoothing unit 17 performs filtering according to the peripheral pixels of each pixel constituting the image as a feature of the processing. In other words, the filter shape is smoothed in consideration of the resolution characteristics when the image captured by the wide-angle camera is developed on a plane. This makes it possible to generate a smooth presentation image between pixels while utilizing the image quality of the high resolution portion.
The arbitrary viewpoint image generation processing ends when an instruction is given by the user (S30).

以上説明したように、本発明に係る画像処理装置10は、主要な機能の1つとして、最適カメラ選択機能を有する。最適カメラ選択機能によれば、画像処理装置10は、カメラ位置C(kは1〜5の自然数)と視者位置Pと視点Qとが形成する三角形の面積が極力小さくなるようなカメラを選択して画像生成を行う。△CPQの面積を小さくとることで、距離PCが短く、かつ、∠CPQが狭くなり、視者の位置及び視者の視線に近いカメラが選択される。同時に、画像処理装置10は、カメラの光軸中心ベクトルek⊥とベクトルPQとの為す角度が極力小さくなるようなカメラを選択して画像生成を行う。つまり視者の視線方向に近い光軸方向を有するカメラが選択される。このため、より歪みの少ない画像を得ることができる。 As described above, the image processing apparatus 10 according to the present invention has an optimal camera selection function as one of main functions. According to the optimum camera selection function, the image processing apparatus 10 uses a camera in which the area of the triangle formed by the camera position C k (k is a natural number of 1 to 5), the viewer position P, and the viewpoint Q is minimized. Select to generate an image. △ By taking C k PQ reduce the area of the distance PC k is short and, ∠C k PQ is narrowed, the camera close to the line of sight of the viewer position and viewer are selected. At the same time, the image processing apparatus 10 performs image generation by selecting a camera that minimizes the angle formed by the optical axis center vector ek ベ ク ト ル of the camera and the vector PQ. That is, a camera having an optical axis direction close to the visual line direction of the viewer is selected. For this reason, an image with less distortion can be obtained.

すなわち、従来のカメラ選択技術においては、生成画像との視点の近さが考慮されていたが、カメラの視点に応じた光学特性に基づく解像度特性までは考慮されていなかった。上記のようなカメラの選択基準を採ることで、かかる特性に基づく解像度特性を提示画像に反映させることができるので、魚眼カメラのような広角カメラにも対応したカメラ選択が可能となる。また、オクルージョンを補うカメラの選択に際しても同様に、視点に応じた光学特性に基づく解像度特性を考慮することができ、広角カメラへの対応が可能となる。   That is, in the conventional camera selection technology, the closeness of the viewpoint with the generated image is considered, but the resolution characteristics based on the optical characteristics according to the viewpoint of the camera are not considered. By adopting the camera selection criteria as described above, the resolution characteristics based on such characteristics can be reflected in the presented image, so that it is possible to select a camera compatible with a wide-angle camera such as a fish-eye camera. Similarly, when selecting a camera that compensates for occlusion, resolution characteristics based on optical characteristics according to the viewpoint can be taken into consideration, and it is possible to cope with a wide-angle camera.

任意視点画像生成部16は、任意視点画像の生成に際して、キャリブレーション部18により補正された魚眼カメラの撮影画像を使用することができる。以下、図9〜図11を参照しながら、魚眼カメラにおけるキャリブレーション処理について説明する。   The arbitrary viewpoint image generation unit 16 can use the captured image of the fisheye camera corrected by the calibration unit 18 when generating the arbitrary viewpoint image. Hereinafter, the calibration process in the fisheye camera will be described with reference to FIGS.

複数のカメラC1〜C5の撮影画像がキャリブレーション部18に入力されると(図9のS31)、補正変換用行列の算出処理と基礎行列の算出処理とが並列に実行される。まず、補正変換用行列の算出処理を説明する。補正変換用行列算出部181は、魚眼展開画像面に投影されない黒色領域とそれ以外の領域との境界線上の点(境界特徴点)をエッジ位置座標として抽出する(S32)。例えば、レンズのずれ角をφ、光軸中心とxy平面との交点座標をO’(x’,y’)とする。この場合、図10に示すように、黒色領域B1〜B4と楕円状の魚眼展開画像領域D1との境界線を形成する複数の点Eが抽出される。このエッジ抽出処理に関しては周知慣用の画像解析技術であるので、詳細な説明や図示(数式を含む)は省略し、好適な方法を簡略に説明する。補正変換用行列算出部181は、例えばソーベルフィルタを有し、取得された画像中の任意の1画素を中心とした上下左右の9(=3×3)の画素値に、水平及び垂直方向の2つの係数行列をそれぞれ乗算する。そして、乗算結果に基づいて上記各画素値の変化量を算定し、画素値の変化量が大きい部分(境界特徴点に該当)をエッジとして検出する。画素値は例えば輝度である。   When captured images of the plurality of cameras C1 to C5 are input to the calibration unit 18 (S31 in FIG. 9), the correction conversion matrix calculation process and the basic matrix calculation process are executed in parallel. First, correction conversion matrix calculation processing will be described. The correction conversion matrix calculation unit 181 extracts a point (boundary feature point) on the boundary line between the black region that is not projected on the fisheye-expanded image plane and the other region (boundary feature point) as edge position coordinates (S32). For example, the lens shift angle is φ, and the intersection coordinates of the optical axis center and the xy plane are O ′ (x ′, y ′). In this case, as shown in FIG. 10, a plurality of points E that form the boundary lines between the black areas B1 to B4 and the elliptical fish-eye developed image area D1 are extracted. Since this edge extraction process is a well-known and commonly used image analysis technique, a detailed description and illustrations (including mathematical expressions) are omitted, and a preferred method will be briefly described. The correction conversion matrix calculation unit 181 includes, for example, a Sobel filter, and converts the horizontal and vertical directions to 9 (= 3 × 3) pixel values centered on an arbitrary pixel in the acquired image. Are multiplied by the two coefficient matrices, respectively. Then, the change amount of each pixel value is calculated based on the multiplication result, and a portion where the change amount of the pixel value is large (corresponding to a boundary feature point) is detected as an edge. The pixel value is, for example, luminance.

S33では、任意視点画像生成部16は、最小二乗法により、S32で抽出されたエッジ位置座標からconic係数(二次曲線係数)を推定する。
任意視点画像生成部16は、推定されたconic係数に基づいて、各魚眼カメラの補正変換用行列R(=RθT)を算出する(S34)。算出に際しては、まず、推定されたconic係数が楕円の標準形のconic係数となるような回転角を算定し、この回転角から回転行列Rθを求める。更に、上記楕円の中心と魚眼展開画像面(CCD面)の中心とが一致するような平行移動量を算定し、この移動量から平行移動行列Tを求める。そして、回転行列Rθと平行移動行列Tとを乗算して補正変換用行列Rを求める。この補正変換用行列Rは、各魚眼カメラ(本実施の形態ではカメラC1〜C5)に関して算出される(S35)。
In S33, the arbitrary viewpoint image generation unit 16 estimates a conic coefficient (secondary curve coefficient) from the edge position coordinates extracted in S32 by the least square method.
The arbitrary viewpoint image generation unit 16 calculates a correction conversion matrix R (= RθT) for each fisheye camera based on the estimated conic coefficient (S34). In the calculation, first, a rotation angle is calculated such that the estimated conic coefficient is an elliptical conic coefficient, and a rotation matrix Rθ is obtained from the rotation angle. Further, a parallel movement amount is calculated such that the center of the ellipse and the center of the fish-eye developed image surface (CCD surface) coincide with each other, and a parallel movement matrix T is obtained from this movement amount. Then, a correction conversion matrix R is obtained by multiplying the rotation matrix Rθ and the translation matrix T. This correction conversion matrix R is calculated for each fisheye camera (cameras C1 to C5 in the present embodiment) (S35).

S36では、オクルージョン回避のための画像合成、あるいは、動物体の検出のために、更に他の魚眼カメラを利用するか否かが判定される。他の魚眼カメラを利用しない場合には(S36;NO)、任意視点画像生成部16は、魚眼カメラにより撮影された画像を展開(射影)する時に、S34で算出された補正変換用行列R(=RθT)からP’を算出する。P’は、魚眼展開画像面の座標Pに補正変換用行列Rを乗算することで算出される(S37)。これにより、キャリブレーションが施された魚眼展開画像面が生成される。   In S36, it is determined whether or not another fisheye camera is to be used for image synthesis for avoiding occlusion or detection of a moving object. When no other fisheye camera is used (S36; NO), the arbitrary viewpoint image generation unit 16 develops (projects) the image captured by the fisheye camera, and the correction conversion matrix calculated in S34. P ′ is calculated from R (= RθT). P ′ is calculated by multiplying the coordinates P of the fisheye developed image plane by the correction conversion matrix R (S37). Thereby, the fish-eye expansion | deployment image surface where the calibration was performed is produced | generated.

続いて、基礎行列の算出処理を説明する。まず、基礎行列算出部182は、複数の魚眼カメラ(本実施の形態ではカメラC1〜C5)の中から任意の2つの魚眼カメラ(例えば、カメラC1,C2)を選択する(S38)。基礎行列算出部182は、選択された2つの魚眼カメラの視線方向を変化させることにより複数の特徴点を同時に撮影していき(S39)、各魚眼カメラで撮影された画像中の特徴点の位置座標を抽出する(S40)。特徴点の抽出は、マウス等の操作による手入力で行うことができる。   Next, the basic matrix calculation process will be described. First, the basic matrix calculation unit 182 selects any two fisheye cameras (for example, cameras C1 and C2) from a plurality of fisheye cameras (cameras C1 to C5 in the present embodiment) (S38). The basic matrix calculation unit 182 captures a plurality of feature points simultaneously by changing the line-of-sight directions of the two selected fisheye cameras (S39), and the feature points in the images captured by each fisheye camera. Are extracted (S40). Extraction of feature points can be performed by manual input by operating a mouse or the like.

S41では、S33と同様の手順で、特徴点の位置座標を入力データとして、最小二乗法に基づく基礎行列Fが算出される。基礎行列算出部182は、射影行列で一致させた画像同士の色分布が同じになるように色空間(RGB空間)の規格化を行う(S42)。S39〜S42の一連の処理は、S43をループ端として、視線方向の可動範囲内で繰り返し実行される。更に、これら一連の処理は、S44をループ端として、魚眼カメラの全ての組合せに関して繰り返し実行される。その結果、魚眼カメラ単位の基礎行列Fが視点毎に算出される(S45)。   In S41, a basic matrix F based on the method of least squares is calculated using the position coordinates of the feature points as input data in the same procedure as in S33. The basic matrix calculation unit 182 normalizes the color space (RGB space) so that the color distributions of the images matched in the projection matrix are the same (S42). A series of processes of S39 to S42 is repeatedly executed within the movable range in the line-of-sight direction with S43 as a loop end. Further, the series of processing is repeatedly executed for all combinations of fisheye cameras with S44 as a loop end. As a result, a basic matrix F for each fisheye camera is calculated for each viewpoint (S45).

S46は、S36にて他の魚眼カメラを利用すると判定された場合(S36;YES)に実行される処理である。任意視点画像生成部16は、魚眼カメラにより撮影された画像を展開する時に、S34で算出された補正変換用行列R(=RθT)と、S45で算出された基礎行列FとからP’を算出する。P’は、魚眼展開画像面の座標Pに、基礎行列Fと補正変換用行列Rとの積を乗算することで算出される(S46)。これにより、魚眼カメラにおけるキャリブレーション処理が完了する。   S46 is a process executed when it is determined in S36 that another fisheye camera is used (S36; YES). The arbitrary viewpoint image generation unit 16 calculates P ′ from the correction conversion matrix R (= RθT) calculated in S34 and the basic matrix F calculated in S45 when developing an image captured by the fisheye camera. calculate. P ′ is calculated by multiplying the coordinates P of the fisheye developed image plane by the product of the basic matrix F and the correction conversion matrix R (S46). This completes the calibration process in the fisheye camera.

魚眼カメラキャリブレーション処理を実行した結果、補正された魚眼展開画像領域D2の一例を図11に示す。魚眼レンズが完全半球面であり、その屈折率が点(半球中心)対称であると仮定すると、図10に示した魚眼展開画像領域D1は、その中心がレンズの光軸中心となり、かつ、楕円状の領域の長軸・短軸がそれぞれx軸・y軸と平行になるように補正される。その結果、魚眼展開画像領域D2が得られる。このように、画像処理装置10は、カメラC1〜C5に魚眼カメラを使用した場合であっても、適切なキャリブレーションを適用できるので、撮影画像から生成された任意視点画像、ひいては提示画像の質を向上することができる。   FIG. 11 shows an example of the fisheye expanded image area D2 corrected as a result of executing the fisheye camera calibration process. Assuming that the fish-eye lens is a perfect hemisphere and its refractive index is point (hemisphere center) symmetrical, the fish-eye developed image region D1 shown in FIG. The long axis and the short axis of the region are corrected so as to be parallel to the x axis and the y axis, respectively. As a result, a fish-eye developed image area D2 is obtained. In this way, the image processing apparatus 10 can apply appropriate calibration even when a fisheye camera is used for the cameras C1 to C5, so that an arbitrary viewpoint image generated from a captured image, and thus a presentation image can be displayed. The quality can be improved.

次に、図12〜図15を参照しながら動物体自動追従処理について説明する。図12は、動物体自動追従機能を実現するシステム環境の概要を例示する図である。図12に示すように、画像処理システムは、動物体自動追従型のテレモニタリングシステムとして機能すべく、遠隔サイト、映像処理サービスサイト、及びユーザサイトを形成している。これら各サイトの構成要素である装置は、有線または無線のLAN(Local Area Network)を基点として双方向に信号の伝達が可能なように接続されている。   Next, the moving object automatic tracking process will be described with reference to FIGS. FIG. 12 is a diagram illustrating an overview of a system environment that realizes the moving object automatic tracking function. As shown in FIG. 12, the image processing system forms a remote site, a video processing service site, and a user site so as to function as a telemonitoring system that automatically follows a moving object. The devices that are constituent elements of these sites are connected so that signals can be transmitted bidirectionally from a wired or wireless local area network (LAN).

遠隔サイトにおいては、カメラC1〜C5が被写界Aを撮影し、これらの撮影画像を画像収集装置20が収集する。収集された撮影画像は、ネットワークN経由で画像処理装置10に送信された後、自律的なカメラワークや任意視点画像生成、あるいは動物体検出といった処理に使用される。映像処理サービスサイトでは、画像処理装置10は、複数の撮影画像から提示画像を生成し、画像配信装置30によりネットワークNを介して通信端末40にこれを配信させる。ユーザサイトにおいては、通信端末40が提示画像を受信及び表示することで、ユーザUによるモニタリングを可能とする。通信端末40は、例えば、通信機能を有するパーソナルコンピュータ、携帯電話、PDA(Personal Digital Assistant)である。   At the remote site, the cameras C1 to C5 capture the scene A, and the captured images are collected by the image collection device 20. The collected captured images are transmitted to the image processing apparatus 10 via the network N, and then used for processing such as autonomous camera work, arbitrary viewpoint image generation, or moving object detection. In the video processing service site, the image processing apparatus 10 generates a presentation image from a plurality of captured images, and causes the image distribution apparatus 30 to distribute it to the communication terminal 40 via the network N. At the user site, the communication terminal 40 receives and displays the presented image, thereby enabling monitoring by the user U. The communication terminal 40 is, for example, a personal computer, a mobile phone, or a PDA (Personal Digital Assistant) having a communication function.

続いて、上記システムが画像処理装置10により実行する動物体自動追従処理について説明する。
図13のS51では、撮影環境設定部12により、カメラ情報が定義される。カメラ情報としては、位置C(ckx,cky)と光軸中心ベクトルek⊥とが定義される。本実施の形態では、被写界Aにおいて5台のカメラの存在を仮定しているので、kは1〜5の整数である。また、カメラ間情報として、射影変換行列及び共通撮影領域が定義される(S52)。更に、光軸地上高Hにおける被写界Aの平面図がレイアウトマップとして定義される(S53)。ここで、高さHは、地面から光軸中心ベクトルek⊥までの距離であり、固定値である。
Next, the moving object automatic tracking process executed by the image processing apparatus 10 by the system will be described.
In S <b> 51 of FIG. 13, camera information is defined by the shooting environment setting unit 12. As camera information, a position C k (c kx , c ky ) and an optical axis center vector ek ⊥ are defined. In the present embodiment, since it is assumed that there are five cameras in the object scene A, k is an integer of 1 to 5. Further, a projective transformation matrix and a common shooting area are defined as inter-camera information (S52). Further, a plan view of the object scene A at the optical axis ground height H 0 is defined as a layout map (S53). Here, the height H 0 is a distance from the ground to the optical axis center vector ek⊥ , and is a fixed value.

カメラC1〜C5による撮影画像が任意視点画像生成部16に入力されると(S54)、動物体検出部191は、時刻tを初期値として設定し(S55)、5台のカメラC1〜C5の中からステレオペアとなる2台のカメラを選択する(S56)。続いて、動物体検出部191は、選択された2台のカメラのうち、一方の画像A(x,y,t)に射影変換行列HABを掛け合わせることで、他方の画像B(x,y,t)と同一の視点から見た画像B’(x,y,t)を生成する(S57)。   When images taken by the cameras C1 to C5 are input to the arbitrary viewpoint image generation unit 16 (S54), the moving object detection unit 191 sets the time t as an initial value (S55), and the five cameras C1 to C5 are set. Two cameras to be a stereo pair are selected from the inside (S56). Subsequently, the moving object detection unit 191 multiplies one image A (x, y, t) of the two selected cameras by the projection transformation matrix HAB, thereby obtaining the other image B (x, y , T), an image B ′ (x, y, t) viewed from the same viewpoint is generated (S57).

S58では、上記画像B(x,y,t)と、S57で生成された画像B’(x,y,t)との視差画像CAB(x,y,t)が算出される。更にS59では、CAB(x,y,t)−CAB(x,y,t−1)を算出することにより、単位時間における視差画像の差分画像TimeDiff(x,y)が算出される。動物体検出部191は、上記2台のカメラ間に共通の撮影領域における時間的な差分画像TimeDiff(x,y)から連結領域STを抽出し(S60)、閾値Thを超える連結領域STの有無を判定することにより、被写界Aにおける動物体の存否を確認する(図14のS61)。 In S58, a parallax image CAB (x, y, t) between the image B (x, y, t) and the image B ′ (x, y, t) generated in S57 is calculated. Further, in S59, by calculating CAB (x, y, t) −CAB (x, y, t−1), the difference image TimeDiff (x, y) of the parallax image in unit time is calculated. The moving object detection unit 191 extracts the connection area ST i from the temporal difference image TimeDiff (x, y) in the imaging area common to the two cameras (S60), and the connection area ST exceeds the threshold Th T. By determining the presence or absence of i, the presence or absence of a moving object in the object scene A is confirmed (S61 in FIG. 14).

上記判定の結果、ST>閾値Thを満たす連結領域が有る場合には(S61;YES)、動物体検出部191は、この時点で、x,y両軸への射影ヒストグラムを用いて、当該連結領域に外接する矩形領域Rの抽出を行う(S62)。一方、ST>閾値Thを満たす連結領域が無い場合には(S61;NO)、S63に移行し、動物体検出部191は、参照視差画像(リファレンス画像)との時刻tにおける差分画像RefDiff(x,y)を、CAB(x,y,t)−Cref(x,y)により算出する。 As a result of the determination, if there is a connected region that satisfies ST i > threshold Th T (S61; YES), the moving object detection unit 191 uses a projection histogram on both the x and y axes at this time, and extracts a rectangular region R i circumscribing the consolidated region (S62). On the other hand, when there is no connected region satisfying ST i > threshold Th T (S61; NO), the process proceeds to S63, and the moving object detection unit 191 determines the difference image RefDiff at time t from the reference parallax image (reference image). (X, y) is calculated by CAB (x, y, t) -Cref (x, y).

更に、動物体検出部191は、上記2台のカメラ間に共通の撮影領域における参照視差画像との差分画像RefDiff(x,y)に対して、二値化処理及び膨張縮退処理を施し、連結領域SRを抽出する(S64)。その後、S61と同様の手順で、閾値Thを超える連結領域SRの有無を判定することにより、被写界Aにおける動物体の存否を確認する(S65)。上記判定の結果、SR>閾値Thを満たす連結領域が有る場合には(S65;YES)、動物体検出部191は、当該連結領域SRに外接する矩形領域Rの抽出を行う(S62)。 Further, the moving object detection unit 191 performs binarization processing and expansion / reduction processing on the difference image RefDiff (x, y) with respect to the reference parallax image in the common imaging region between the two cameras, and connects The region SR i is extracted (S64). Thereafter, the presence or absence of the moving object in the scene A is confirmed by determining the presence or absence of the connected region SR i exceeding the threshold Th R in the same procedure as S61 (S65). As a result of the determination, if there is a connected region satisfying SR i > threshold Th R (S65; YES), the moving object detection unit 191 extracts a rectangular region R i circumscribing the connected region SR i ( S62).

このように、画像処理装置10の動物体自動追従部19は、背景差分情報を用いることなく、視差情報の変動を実時間で捉えることで(S57〜S62)、照明条件に依存することのない動物体の検出を実現する。併せて、動物体自動追従部19は、環境固有の視差情報と、リアルタイムに検出される視差情報との差異を監視しながら動物体を抽出する(S63〜S65,S62)。これにより、動物体の状態に依存することなく、換言すれば動物体が停留していも移動していても、動物体の検出が可能となる。   As described above, the moving object automatic tracking unit 19 of the image processing apparatus 10 does not depend on the illumination condition by capturing the change in the parallax information in real time without using the background difference information (S57 to S62). Realize detection of moving objects. In addition, the moving object automatic tracking unit 19 extracts moving objects while monitoring the difference between the disparity information unique to the environment and the disparity information detected in real time (S63 to S65, S62). This makes it possible to detect the moving object without depending on the state of the moving object, in other words, whether the moving object is stationary or moving.

S56〜S66の処理は、被写界Aを撮影するカメラC1〜C5のうち、全てのステレオペア(2台ずつのカメラ)に関して実行された後、図15のS67以降の処理、すなわち動物体撮影用データ算出モジュールに移行する。まずS67において、動物体撮影用データ算出部192は、S56で選択されたステレオペアの抽出した連結領域ST又はSR毎に、矩形領域Rの各頂点とカメラの中心点とを結んだ4つの方向ベクトルを抽出する。続いて、抽出された4つの方向ベクトルの交点を算出した後、これらのベクトルで囲まれた領域を動物体の存在する領域と認識する(S68)。 The processing in S56 to S66 is executed for all stereo pairs (two cameras each) among the cameras C1 to C5 that photograph the object A, and then the processing after S67 in FIG. Move to the data calculation module. First, in S67, the moving object photographing data calculation unit 192 connects each vertex of the rectangular region R i and the center point of the camera for each connected region ST i or SR i extracted in the stereo pair selected in S56. Four direction vectors are extracted. Subsequently, after calculating the intersection of the four extracted direction vectors, the region surrounded by these vectors is recognized as the region where the moving object exists (S68).

動物体撮影用データ算出部192は、S68にて認識された領域に外接する矩形領域の重心G(t)を算出した後(S69)、その値を動物体の位置として抽出する。更に、時刻tにおけるG(t)と、単位時間前の時刻t−1におけるG(t−1)との差分ベクトルであるDiffG(t)を動物体の移動ベクトルとして抽出する(S70)。上述したS55〜S70の一連の処理は、S71をループ端として、終了指示があるまで繰り返し実行される。続いて、動物体撮影用データ算出部192は、動物体の位置G(t)、及び、上記差分ベクトルDiffG(t)の反対方向ベクトルを、任意視点画像生成部16に出力する(S72)。動物体は、通常、移動方向を正面として移動するので、移動方向の反対方向を撮影方向とするカメラ(動物体に対峙するカメラ)を画像生成に使用する。これにより、動物体の全貌を正面から捉えることを可能とする。 The moving object photographing data calculation unit 192 calculates the center of gravity G i (t) of the rectangular area circumscribing the area recognized in S68 (S69), and then extracts the value as the position of the moving object. Furthermore, DiffG i (t), which is a difference vector between G i (t) at time t and G i (t−1) at time t−1 before unit time, is extracted as a moving vector of the moving object (S70). ). The above-described series of processing from S55 to S70 is repeatedly executed until an end instruction is given with S71 as a loop end. Subsequently, the moving object photographing data calculation unit 192 outputs the position G i (t) of the moving object and the opposite direction vector of the difference vector DiffG i (t) to the arbitrary viewpoint image generation unit 16 (S72). ). Since the moving object usually moves with the moving direction as the front, a camera (camera facing the moving object) whose imaging direction is the opposite direction of the moving direction is used for image generation. This makes it possible to capture the entire body from the front.

以上説明したように、本発明に係る画像処理装置10は、主要な機能の1つとして、動物体追従機能を有する。画像処理装置10は、フレーム間における時間的な差分を抽出するとともに、射影変換しても初期の視差情報(リファレンス画像)に戻らない画像部分(差分)をも抽出する。そして、1組のカメラが同時に捉えている画像から得られる視差の変動に、これら双方の差分のうち少なくとも一方を加味することで動物体を検出する。このため、更新型背景画像との差分情報を利用した従来の動物体検出方法に対しては、影などの照明条件の変動あるいは停留などの動物体の状態遷移による影響の少ない精確な動物体検出が可能となるという効果がある。また、ステレオカメラの視差情報に基づく従来の動物体検出方法に対しては、横断歩道やナンバープレートといった平面だけなく、立体形状を有する一般の場所への適用が可能となるという効果がある。   As described above, the image processing apparatus 10 according to the present invention has a moving object tracking function as one of main functions. The image processing apparatus 10 extracts a temporal difference between frames and also extracts an image portion (difference) that does not return to the initial parallax information (reference image) even when projective transformation is performed. Then, the moving object is detected by adding at least one of the differences between the parallax fluctuations obtained from the images captured by a pair of cameras at the same time. For this reason, accurate detection of moving objects is less affected by changes in lighting conditions such as shadows or changes in the state of moving objects such as stationary, compared to conventional moving object detection methods that use difference information from an updated background image. There is an effect that becomes possible. In addition, the conventional moving object detection method based on the parallax information of the stereo camera has an effect that it can be applied not only to a plane such as a pedestrian crossing and a license plate but also to a general place having a three-dimensional shape.

更に、画像処理装置10は、被写界Aにて検出された動物体の位置情報と移動ベクトルとを算定し、これに上記のカメラ選択基準を適用することで、自律的なカメラワークを実現する。これにより、動物体を常に正面から撮影することができるので、遠隔地からの効果的なモニタリングが可能となる。   Furthermore, the image processing apparatus 10 calculates the position information and the movement vector of the moving object detected in the object scene A, and realizes autonomous camera work by applying the above-mentioned camera selection criteria to this. To do. Thereby, since a moving body can always be image | photographed from the front, the effective monitoring from a remote place is attained.

なお、本発明は、本実施の形態に限定されるものではなく、その趣旨を逸脱しない範囲において、適宜変形態様を採ることもできる。
例えば、上記実施の形態では、ユーザの仮想視点を1点としたが、複数の通信端末を画像処理装置10に接続することで、複数のユーザが同時に自由な視点で遠隔モニタリングを行うことが可能となる。この態様においては、ユーザが通信端末を傾けた方向を視点方向として検出可能なように、通信端末は、360度視覚センサや方位センサ(例えばジャイロセンサ)を搭載することが特に効果的である。これにより、例えば、テレビ電話でコミュニケーションをとりながら、通話相手のいる環境を任意の視点でモニタリングするといった用途が可能となる。
In addition, this invention is not limited to this Embodiment, In the range which does not deviate from the meaning, a deformation | transformation aspect can also be taken suitably.
For example, in the above embodiment, the user's virtual viewpoint is one point, but by connecting a plurality of communication terminals to the image processing apparatus 10, a plurality of users can simultaneously perform remote monitoring from a free viewpoint. It becomes. In this aspect, it is particularly effective that the communication terminal is equipped with a 360-degree visual sensor or an orientation sensor (for example, a gyro sensor) so that the direction in which the user tilts the communication terminal can be detected as the viewpoint direction. As a result, for example, it is possible to monitor the environment where the other party is located from an arbitrary viewpoint while communicating via a videophone.

また、上記実施の形態では、カメラ選択部15の選択するカメラの台数を2台としたが、3台以上であっても勿論よい。また、視者位置Pからの視点Qにオクルージョンが発生しないことが被写界において明らかな場合には、1台のカメラであってもよい。   Moreover, in the said embodiment, although the number of the cameras which the camera selection part 15 selects was two, of course, you may be three or more. If it is clear in the field that no occlusion occurs in the viewpoint Q from the viewer position P, one camera may be used.

本発明に係る画像処理装置の機能的構成を示す図である。It is a figure which shows the functional structure of the image processing apparatus which concerns on this invention. カメラ、視者、視点の位置関係の一例を示す被写界のxy平面図である。It is an xy top view of a scene showing an example of a positional relationship between a camera, a viewer, and a viewpoint. カメラ選択処理を説明するためのフローチャートである。It is a flowchart for demonstrating a camera selection process. オクルージョンの発生する視者と視点、及びカメラの位置関係の一例を示す被写界のxy平面図である。It is an xy plan view of an object scene showing an example of a positional relationship between a viewer, a viewpoint, and a camera in which occlusion occurs. 任意視点画像生成処理の前半部分を説明するためのフローチャートである。It is a flowchart for demonstrating the first half part of arbitrary viewpoint image generation processing. 視者位置の高さ及び視線方向の一例を示す被写界のxz平面図である。It is xz top view of a subject field which shows an example of the height of a viewer position, and a look direction. 任意視点画像生成処理の後半部分を説明するためのフローチャートである。It is a flowchart for demonstrating the latter half part of an arbitrary viewpoint image generation process. 実空間上の点を魚眼展開する手法の一例を説明するための図である。It is a figure for demonstrating an example of the method of fish-eye-expanding the point on real space. 魚眼カメラキャリブレーション処理を説明するためのフローチャートである。It is a flowchart for demonstrating a fisheye camera calibration process. キャリブレーションによる補正前における魚眼展開画像領域の一例を示す図である。It is a figure which shows an example of the fisheye expansion | deployment image area | region before correction | amendment by calibration. キャリブレーションによる補正後における魚眼展開画像領域の一例を示す図である。It is a figure which shows an example of the fisheye expansion | deployment image area | region after correction | amendment by calibration. 動物体自動追従型テレモニタリングを実現するシステム環境の一例を示す概略図である。It is the schematic which shows an example of the system environment which implement | achieves a moving body automatic tracking type | mold telemonitoring. 動物体自動追従処理を構成する動物体検出モジュールの前半部分を説明するためのフローチャートである。It is a flowchart for demonstrating the first half part of the moving body detection module which comprises a moving body automatic tracking process. 動物体自動追従処理を構成する動物体検出モジュールの後半部分を説明するためのフローチャートである。It is a flowchart for demonstrating the second half part of the moving object detection module which comprises a moving object automatic tracking process. 動物体自動追従処理を構成する動物体撮影用データ算出モジュールを説明するためのフローチャートである。It is a flowchart for demonstrating the data calculation module for moving body imaging | photography which comprises a moving body automatic tracking process.

符号の説明Explanation of symbols

1…画像処理システム、C1,C2,C3〜Cn…カメラ、10…画像処理装置、11…視者情報入力部、12…撮影環境設定部、13…視者位置特定部、14…視者位置類似性演算部、15…カメラ選択部、16…任意視点画像生成部、17…画像平滑化部、18…キャリブレーション部、181…補正変換用行列算出部、182…基礎行列算出部、19…動物体自動追従部、191…動物体検出部、192…動物体撮影用データ算出部、20…画像収集装置、30…画像配信装置、40…通信端末、A…被写界、M…動物体、N…ネットワーク   DESCRIPTION OF SYMBOLS 1 ... Image processing system, C1, C2, C3-Cn ... Camera, 10 ... Image processing apparatus, 11 ... Viewer information input part, 12 ... Shooting environment setting part, 13 ... Viewer position specific | specification part, 14 ... Viewer position Similarity calculation unit, 15 ... camera selection unit, 16 ... arbitrary viewpoint image generation unit, 17 ... image smoothing unit, 18 ... calibration unit, 181 ... correction conversion matrix calculation unit, 182 ... basic matrix calculation unit, 19 ... Automatic body tracking unit, 191 ... Animal body detection unit, 192 ... Animal body imaging data calculation unit, 20 ... Image collection device, 30 ... Image distribution device, 40 ... Communication terminal, A ... Object, M ... Animal body , N ... Network

Claims (5)

複数のカメラにより撮影可能な被写界において、視者の位置を特定する特定手段と、
前記特定手段により特定された視者位置とカメラの位置と視点とが形成する三角形の面積、並びに、前記カメラの光軸中心ベクトルと、前記視者位置から前記視点へのベクトルとの為す角度を、前記複数のカメラに関して算出する算出手段と、
前記算出手段による算出結果を使用して、前記視点を中心とする撮影画像を出力するカメラを選択する選択手段と
を備えることを特徴とするカメラ選択装置。
A specifying means for specifying the position of the viewer in a scene that can be photographed by a plurality of cameras;
The triangular area formed by the viewer position specified by the specifying means, the camera position and the viewpoint, and the angle formed by the optical axis center vector of the camera and the vector from the viewer position to the viewpoint. Calculating means for calculating the plurality of cameras;
A camera selection apparatus comprising: a selection unit that selects a camera that outputs a captured image centered on the viewpoint using a calculation result obtained by the calculation unit.
前記選択手段は、前記算出結果を使用して、前記視点を中心とする撮影画像を出力するカメラを複数選択し、
一のカメラによる撮影にオクルージョンが生じた場合には、他のカメラによる撮影画像を当該オクルージョン箇所に適用することで、提示画像を生成する生成手段を更に備えることを特徴とする請求項1に記載のカメラ選択装置。
The selection means uses the calculation result to select a plurality of cameras that output a captured image centered on the viewpoint,
The apparatus according to claim 1, further comprising: a generation unit configured to generate a presentation image by applying an image captured by another camera to the occlusion portion when an occlusion occurs in the image captured by one camera. Camera selection device.
前記生成手段により提示画像を生成した結果、相互に解像度の異なる画像部分が存在する場合には、個々の画素の解像度に応じた平滑化を行う画像処理手段を更に備えることを特徴とする請求項2に記載のカメラ選択装置。   The image processing means for performing smoothing according to the resolution of each pixel when there is an image portion having a different resolution as a result of generating the presentation image by the generating means. 3. The camera selection device according to 2. 前記視者の位置は、前記被写界内に指定された仮想的なユーザの位置であることを特徴とする請求項1に記載のカメラ選択装置。   The camera selection apparatus according to claim 1, wherein the position of the viewer is a position of a virtual user designated in the object scene. 複数のカメラにより撮影可能な被写界において、視者の位置を特定する特定ステップと、
前記特定ステップにて特定された視者位置とカメラの位置と視点とが形成する三角形の面積、並びに、前記カメラの光軸中心ベクトルと、前記視者位置から前記視点へのベクトルとの為す角度を、前記複数のカメラに関して算出する算出ステップと、
前記算出ステップにおける算出結果を使用して、前記視点を中心とする撮影画像を出力するカメラを選択する選択ステップと
を含むことを特徴とするカメラ選択方法。
A specific step of identifying the position of the viewer in a scene that can be photographed by a plurality of cameras;
The triangular area formed by the viewer position, the camera position, and the viewpoint specified in the specifying step, and the angle formed by the optical axis center vector of the camera and the vector from the viewer position to the viewpoint Calculating with respect to the plurality of cameras;
And a selection step of selecting a camera that outputs a photographed image centered on the viewpoint using the calculation result in the calculation step.
JP2004071463A 2004-03-12 2004-03-12 Camera selecting device and camera selecting method Pending JP2005260731A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004071463A JP2005260731A (en) 2004-03-12 2004-03-12 Camera selecting device and camera selecting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004071463A JP2005260731A (en) 2004-03-12 2004-03-12 Camera selecting device and camera selecting method

Publications (1)

Publication Number Publication Date
JP2005260731A true JP2005260731A (en) 2005-09-22

Family

ID=35086012

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004071463A Pending JP2005260731A (en) 2004-03-12 2004-03-12 Camera selecting device and camera selecting method

Country Status (1)

Country Link
JP (1) JP2005260731A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014002398A1 (en) 2012-06-28 2014-01-03 日本電気株式会社 Camera position/posture evaluation device, camera position/posture evaluation method, and camera position/posture evaluation program
WO2014199786A1 (en) * 2013-06-11 2014-12-18 シャープ株式会社 Imaging system

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014002398A1 (en) 2012-06-28 2014-01-03 日本電気株式会社 Camera position/posture evaluation device, camera position/posture evaluation method, and camera position/posture evaluation program
US9367752B2 (en) 2012-06-28 2016-06-14 Nec Corporation Camera position posture evaluating device, camera position posture evaluating method, and camera position posture evaluating program
WO2014199786A1 (en) * 2013-06-11 2014-12-18 シャープ株式会社 Imaging system
CN105165004A (en) * 2013-06-11 2015-12-16 夏普株式会社 Imaging system
JP6077655B2 (en) * 2013-06-11 2017-02-08 シャープ株式会社 Shooting system
CN105165004B (en) * 2013-06-11 2019-01-22 夏普株式会社 Camera chain

Similar Documents

Publication Publication Date Title
CN102595168B (en) Seamless left/right views for 360-degree stereoscopic video
US20170180680A1 (en) Object following view presentation method and system
KR102225617B1 (en) Method of setting algorithm for image registration
CN105530431A (en) Reflective panoramic imaging system and method
KR101521008B1 (en) Correction method of distortion image obtained by using fisheye lens and image display system implementing thereof
WO2014023231A1 (en) Wide-view-field ultrahigh-resolution optical imaging system and method
EP3016065A1 (en) Coordinate computation device and method, and image processing device and method
CN103971375A (en) Panoramic gaze camera space calibration method based on image splicing
CN106534670B (en) It is a kind of based on the panoramic video generation method for connecting firmly fish eye lens video camera group
EP3606059B1 (en) Projector calibration method and projection system using the same
KR101916419B1 (en) Apparatus and method for generating multi-view image from wide angle camera
KR101977635B1 (en) Multi-camera based aerial-view 360-degree video stitching and object detection method and device
JP4193342B2 (en) 3D data generator
JP6700935B2 (en) Imaging device, control method thereof, and control program
CN110738696B (en) Driving blind area perspective video generation method and driving blind area view perspective system
CN103546680B (en) A kind of deformation-free omni-directional fisheye photographic device and a method for implementing the same
JP2005258953A (en) Fish eye camera and calibration method in the fish eye camera
JP4595313B2 (en) Imaging display apparatus and method, and image transmission / reception system
JP2005260753A (en) Device and method for selecting camera
Lin et al. Large-area, multilayered, and high-resolution visual monitoring using a dual-camera system
KR101132976B1 (en) Mobile device with a plurality of camera, method for display using the sane
JP2005260731A (en) Camera selecting device and camera selecting method
US20230005213A1 (en) Imaging apparatus, imaging method, and program
JP5509986B2 (en) Image processing apparatus, image processing system, and image processing program
KR101559739B1 (en) System for merging virtual modeling and image data of cameras