JP6392737B2 - Optical apparatus and imaging system - Google Patents

Optical apparatus and imaging system Download PDF

Info

Publication number
JP6392737B2
JP6392737B2 JP2015235175A JP2015235175A JP6392737B2 JP 6392737 B2 JP6392737 B2 JP 6392737B2 JP 2015235175 A JP2015235175 A JP 2015235175A JP 2015235175 A JP2015235175 A JP 2015235175A JP 6392737 B2 JP6392737 B2 JP 6392737B2
Authority
JP
Japan
Prior art keywords
image
camera
virtual viewpoint
mirror
omnidirectional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015235175A
Other languages
Japanese (ja)
Other versions
JP2017103612A (en
Inventor
康輔 高橋
康輔 高橋
弾 三上
弾 三上
麻理子 五十川
麻理子 五十川
明 小島
明 小島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2015235175A priority Critical patent/JP6392737B2/en
Publication of JP2017103612A publication Critical patent/JP2017103612A/en
Application granted granted Critical
Publication of JP6392737B2 publication Critical patent/JP6392737B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Stereoscopic And Panoramic Photography (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

本発明は、被写体を撮影するために用いる光学装置及び撮像システムに関する。   The present invention relates to an optical device and an imaging system used for photographing a subject.

近年、周囲360度を含む全天の画像である全天球画像を撮影できるカメラ(以下、全天球カメラという。)およびその全天球画像の視聴において利用者が向いた方向を視聴することができるヘッドマウントディスプレイ(HMD)が普及し始めている。そして、ネットワークを介して全天球画像を配信するサービスが注目を集めている。上記のような全天球画像は、HMDで視聴することで高い臨場感を得ることができ、スポーツやアーティストのライブ等のコンテンツの視聴における利用が期待されている。   In recent years, a camera capable of capturing a omnidirectional image, which is a omnidirectional image including 360 degrees around (hereinafter referred to as a omnidirectional camera), and viewing the direction in which the user is facing in viewing the omnidirectional image. Head mounted displays (HMD) that can be used are beginning to spread. And, a service that distributes omnidirectional images via a network is attracting attention. The omnidirectional image as described above can provide a high sense of realism when viewed with an HMD, and is expected to be used for viewing content such as sports and live performances by artists.

一般に、これらの全天球画像は、所望の視点に全天球カメラを設置することで撮影することができる。しかしながら、競技中のサッカーコートの中やバスケットコートの中は、全天球カメラを設置しようとすると競技者の邪魔となるため、全天球カメラを設置することができない。しかし、競技中のサッカーコートの中やバスケットコートの中に立っているかのような映像を視聴してみたいという要望がある。そこで、通常では全天球カメラを設置することのできない場所に仮想的な視点である仮想視点を設定して、仮想視点を含む領域を撮影する複数のカメラを設置し、それらのカメラからの画像を合成することにより、この仮想視点において全天球カメラで撮影したかのような全天球画像を得る技術が考案されている(例えば、非特許文献1)。以下の説明において、仮想視点における全天球画像を、仮想全天球画像という。   Generally, these omnidirectional images can be taken by installing an omnidirectional camera at a desired viewpoint. However, it is not possible to install a omnidirectional camera in a soccer court or a basketball court during competition because it would interfere with the competitors if an omnidirectional camera is installed. However, there is a desire to watch videos as if standing in a soccer court or basketball court during competition. Therefore, a virtual viewpoint, which is a virtual viewpoint, is usually set in a place where an omnidirectional camera cannot be installed, and multiple cameras that shoot an area including the virtual viewpoint are installed, and images from these cameras are displayed. Has been devised to obtain an omnidirectional image as if it was taken with an omnidirectional camera at this virtual viewpoint (for example, Non-Patent Document 1). In the following description, the omnidirectional image at the virtual viewpoint is referred to as a virtual omnidirectional image.

仮想全天球画像を複数のカメラからの画像の合成によって得る画像処理システムの具体例について説明する。図12は、従来の仮想全天球画像を得るための画像処理システムを示す図である。図12に示すように、画像処理システム1は、全天球カメラ2と、N台の複数のカメラ3−1、3−2、3−3、…、3−N(以下、カメラ群3とする。)と、画像処理装置4と、表示装置5とを備える。画像処理システム1は、フットサルのコート10内に仮想視点11を設定した場合に、コート10の周囲に設置したカメラ群3からの画像の合成によって仮想視点11における仮想全天球画像を得る。   A specific example of an image processing system for obtaining a virtual omnidirectional image by combining images from a plurality of cameras will be described. FIG. 12 is a diagram illustrating an image processing system for obtaining a conventional virtual omnidirectional image. As shown in FIG. 12, the image processing system 1 includes an omnidirectional camera 2 and a plurality of N cameras 3-1, 3-2, 3-3,... And an image processing device 4 and a display device 5. When the virtual viewpoint 11 is set in the futsal court 10, the image processing system 1 obtains a virtual omnidirectional image at the virtual viewpoint 11 by synthesizing images from the camera group 3 installed around the court 10.

全天球カメラ2は、全天球画像を撮影するカメラである。全天球カメラ2は、試合が行われる前のタイミングでコート10内の仮想視点11の位置に設置される。全天球カメラ2は、予め、仮想視点11の位置から仮想全天球画像の背景となる背景画像20を撮影する。全天球カメラ2で撮影された背景画像20は、画像処理装置4に入力されて蓄積される。   The omnidirectional camera 2 is a camera that captures an omnidirectional image. The omnidirectional camera 2 is installed at the position of the virtual viewpoint 11 in the court 10 at a timing before the game is played. The omnidirectional camera 2 captures in advance a background image 20 that is the background of the virtual omnidirectional image from the position of the virtual viewpoint 11. The background image 20 captured by the omnidirectional camera 2 is input to the image processing device 4 and accumulated.

コート10の周囲には、N台の複数のカメラ群3が設置されている。図12においてNは4以上の自然数である。カメラ群3は、それぞれ仮想視点11を含む画角となるようにコート10の周囲に設置されている。画像処理装置4は、背景画像20に対して合成するため各カメラ群3が出力する入力画像に対して画像処理を行う。画像処理装置4は、全天球カメラ2より取得した背景画像20に画像処理後の入力画像を合成して仮想全天球画像を生成する。表示装置5は、画像処理装置4で生成した仮想全天球画像を表示する装置であり、液晶ディスプレイ等である。   Around the court 10, a plurality of N camera groups 3 are installed. In FIG. 12, N is a natural number of 4 or more. The camera group 3 is installed around the court 10 so as to have an angle of view including the virtual viewpoint 11. The image processing apparatus 4 performs image processing on an input image output from each camera group 3 for synthesis with the background image 20. The image processing device 4 combines the input image after image processing with the background image 20 acquired from the omnidirectional camera 2 to generate a virtual omnidirectional image. The display device 5 is a device that displays the virtual omnidirectional image generated by the image processing device 4, and is a liquid crystal display or the like.

画像処理システム1における画像処理の具体例を説明する。図13は、画像処理システム1における画像処理される画像の具体例を示す図である。図13(A)は、仮想視点11の位置に設置された全天球カメラ2で撮影された背景画像20の例を示す図である。仮想視点11を中心とする360度の画像となっている。背景画像20は、競技開始前に撮影される画像であるのでコート10内に競技を行う選手等は映っていない。   A specific example of image processing in the image processing system 1 will be described. FIG. 13 is a diagram illustrating a specific example of an image subjected to image processing in the image processing system 1. FIG. 13A is a diagram illustrating an example of the background image 20 captured by the omnidirectional camera 2 installed at the position of the virtual viewpoint 11. The image is a 360 degree image centered on the virtual viewpoint 11. Since the background image 20 is an image taken before the start of the competition, no player or the like who competes in the court 10 is shown.

図13(B)は、左からカメラ3−1で撮影した入力画像21と、カメラ3−2で撮影した入力画像22と、カメラ3−3で撮影した入力画像23とを示している。画像処理装置4は、入力画像21〜23のそれぞれから仮想視点11を含み、かつ、フットサルの選手を含む領域211、221、231を切り出す。画像処理装置4は、切り出した領域211、221、231の画像に対して、画像処理を行うことで背景画像20に貼り付け可能な部分画像211a、221a、231aを生成する。   FIG. 13B shows an input image 21 taken by the camera 3-1, an input image 22 taken by the camera 3-2, and an input image 23 taken by the camera 3-3 from the left. The image processing device 4 cuts out regions 211, 221, and 231 including the virtual viewpoint 11 and including futsal players from each of the input images 21 to 23. The image processing apparatus 4 generates partial images 211 a, 221 a, and 231 a that can be pasted on the background image 20 by performing image processing on the cut out images of the areas 211, 221, and 231.

画像処理装置4は、背景画像20に対して部分画像211a、221a、231aを合成することで、仮想全天球画像24を生成する。図13(C)は、画像処理装置4が生成する仮想全天球画像24の例を示す図である。図13(C)に示すように、仮想全天球画像24は、所定の領域に部分画像211a、221a、231aを貼り付けているので、コート10上で競技を行っているフットサルの選手が映っている画像である。   The image processing device 4 generates the virtual omnidirectional image 24 by combining the background images 20 with the partial images 211a, 221a, and 231a. FIG. 13C is a diagram illustrating an example of the virtual omnidirectional image 24 generated by the image processing device 4. As shown in FIG. 13C, since the virtual omnidirectional image 24 has the partial images 211a, 221a, and 231a pasted in a predetermined area, the futsal player who is playing the game on the court 10 is shown. It is an image.

従来の画像処理システム1は、合成に用いているカメラ群3の光学中心および仮想視点11において想定する仮想全天球カメラの光学中心はそれぞれ異なる。このため、合成された仮想全天球画像24は幾何学的に正しくない画像を含む。これを防ぐためには、画像処理装置4は、部分画像211a、221a、231aを、仮想視点11からの距離を示す奥行きの一点で整合性が保たれるよう画像処理を行い背景画像20に貼り付ける必要がある。しかしながら、整合性が保たれる奥行きに存在せずに別の奥行に存在している物体(例えば、競技中の選手)の部分画像を貼り付ける場合には、画像処理により奥行きの整合性を保つことができない。このような奥行に整合性のない物体は、仮想全天球画像24において、その画像が分身(多重像)したり、消失したりする現象が発生する。   In the conventional image processing system 1, the optical center of the camera group 3 used for composition and the optical center of the virtual omnidirectional camera assumed in the virtual viewpoint 11 are different from each other. For this reason, the synthesized virtual omnidirectional image 24 includes a geometrically incorrect image. In order to prevent this, the image processing device 4 performs image processing so that the consistency is maintained at one point indicating the distance from the virtual viewpoint 11 and pastes the partial images 211a, 221a, and 231a on the background image 20. There is a need. However, when pasting a partial image of an object (for example, a player in competition) that does not exist at a depth where consistency is maintained but is present at another depth, the depth consistency is maintained by image processing. I can't. Such an object whose depth is inconsistent causes a phenomenon that the virtual omnidirectional image 24 becomes a duplicated image (multiple image) or disappears.

以下に、図面を用いて仮想全天球画像24において、物体の画像が分身したり、消失したりする現象について説明する。図14は、画像処理システム1における課題を説明するための図である。図14において、撮影範囲41は、カメラ3−1の撮影範囲の一部であって図13(B)に示した領域211の撮影範囲を示す。撮影範囲42は、カメラ3−2の撮影範囲の一部であって図13(B)に示した領域221の撮影範囲を示す。撮影範囲43は、カメラ3−3の撮影範囲の一部であって図13(B)に示した領域231の撮影範囲を示す。すなわち、撮影範囲41〜43は、入力画像から切り出す切り出し領域に対応する撮影範囲を示している。また、仮想視点11からの距離(奥行)が異なる3つの被写体(選手)49〜51が存在する。   Hereinafter, a phenomenon in which an image of an object is duplicated or disappeared in the virtual omnidirectional image 24 will be described with reference to the drawings. FIG. 14 is a diagram for explaining a problem in the image processing system 1. In FIG. 14, the shooting range 41 is a part of the shooting range of the camera 3-1 and indicates the shooting range of the region 211 shown in FIG. The imaging range 42 is a part of the imaging range of the camera 3-2 and indicates the imaging range of the area 221 shown in FIG. The shooting range 43 is a part of the shooting range of the camera 3-3 and indicates the shooting range of the area 231 shown in FIG. That is, the shooting ranges 41 to 43 indicate shooting ranges corresponding to the cutout areas cut out from the input image. In addition, there are three subjects (players) 49 to 51 having different distances (depths) from the virtual viewpoint 11.

図14において破線で示している仮想視点11からの第1の距離を示す奥行46は、各撮影範囲41〜43が、重なりなく並んでいる。このような奥行46に位置する被写体49は、その画像が分身したり消失したりすることがなく、奥行に整合性のある被写体49である。仮想視点11からの第2の距離を示す奥行47は、各撮影範囲41〜43が、横線部分44に示すように重なっている。このような奥行47に位置する被写体50は、その画像が分身してしまうので、奥行に整合性のない被写体50となる。仮想視点11からの第3の距離を示す奥行48は、各撮影範囲41〜43の間が斜線部分45に示すように空いている。このような奥行48に位置する被写体51は、その画像の一部が消失してしまうので、奥行に整合性のない被写体51となる。   In the depth 46 which shows the 1st distance from the virtual viewpoint 11 shown with the broken line in FIG. 14, each imaging | photography range 41-43 is located in a line without overlapping. The subject 49 positioned at the depth 46 is a subject 49 that is consistent in the depth without the image being duplicated or lost. In the depth 47 indicating the second distance from the virtual viewpoint 11, the shooting ranges 41 to 43 overlap as shown by the horizontal line portion 44. The subject 50 positioned at the depth 47 is a subject 50 that is inconsistent in the depth because the image is duplicated. The depth 48 indicating the third distance from the virtual viewpoint 11 is vacant as indicated by the hatched portion 45 between the imaging ranges 41 to 43. Since the subject 51 located at the depth 48 is partially lost, the subject 51 is not consistent with the depth.

高橋康輔、外3名、「複数カメラ映像を用いた仮想全天球映像合成に関する検討」、信学技報、2015年06月01日、vol.115, no.76、MVE2015-5、p.43-48Kosuke Takahashi and three others, “Study on virtual spherical image composition using multiple camera images”, IEICE Technical Report, June 1, 2015, vol.115, no.76, MVE2015-5, p. 43-48

仮想全天球画像24において、物体の画像が分身したり、消失したりする問題を解決する一つの方法として、カメラ群3の設置数を仮想全天球画像の画素数と同じ数だけ設置する方法がある。しかし、カメラの数が膨大となるので現実的な解決方法ではない。   In the virtual omnidirectional image 24, as one method for solving the problem that an image of an object is divided or disappeared, the number of cameras 3 is set as many as the number of pixels of the virtual omnidirectional image. There is a way. However, since the number of cameras becomes enormous, it is not a realistic solution.

上記事情に鑑み、本発明は、仮想視点の周囲に設置するカメラの数を抑制しながら画質の劣化を抑制した仮想全天球画像を提供する光学装置及び撮像システムを提供することを目的としている。   In view of the above circumstances, an object of the present invention is to provide an optical device and an imaging system that provide a virtual omnidirectional image in which the deterioration of image quality is suppressed while suppressing the number of cameras installed around a virtual viewpoint. .

本発明の一態様は、仮想的な視点である仮想視点において撮影したかのような仮想画像を、前記仮想視点以外の位置に設置した撮像装置からの画像に基づいて作成する場合に用いられる光学装置であって、前記仮想視点の位置を焦点とする凸レンズと、前記凸レンズから入射される光線を前記撮像装置へ反射し、前記撮像装置の光学中心の位置を焦点とする楕円又は放物面に沿った形状の鏡面を有する反射部と、を備える光学装置である。   One embodiment of the present invention is an optical that is used when creating a virtual image as if taken at a virtual viewpoint, which is a virtual viewpoint, based on an image from an imaging device installed at a position other than the virtual viewpoint. A convex lens having a focal point at the position of the virtual viewpoint and a light beam incident from the convex lens to the imaging device, and an ellipse or paraboloid having a focal point at the optical center of the imaging device. And a reflecting portion having a mirror surface with a shape along the shape.

本発明の一態様は、前記の光学装置であって、前記反射部の前記鏡面は、前記撮像装置の画角に応じた大きさである。   One aspect of the present invention is the above-described optical device, wherein the mirror surface of the reflecting portion has a size corresponding to a field angle of the imaging device.

本発明の一態様は、前記の光学装置であって、前記楕円に沿った前記鏡面は、複数の平面鏡により構成される。   One aspect of the present invention is the above-described optical device, wherein the mirror surface along the ellipse includes a plurality of plane mirrors.

本発明の一態様は、前記の光学装置であって、前記複数の平面鏡の角度及び位置を調整する鏡駆動部と、任意の曲率の楕円の円周を近似する鏡面を形成するように前記複数の平面鏡の角度及び位置を調整するよう前記鏡駆動部を制御する鏡制御部と、をさらに備える。   One aspect of the present invention is the above-described optical device, wherein the plurality of planar drive mirrors that adjust angles and positions of the plurality of plane mirrors and a mirror surface that approximates the circumference of an ellipse having an arbitrary curvature are formed. A mirror control unit that controls the mirror driving unit to adjust the angle and position of the plane mirror.

本発明の一態様は、前記の光学装置と、前記撮像装置と、を備える撮像システムである。   One embodiment of the present invention is an imaging system including the optical device and the imaging device.

本発明の一態様は、前記の光学装置と、前記撮像装置と、前記鏡制御部からの制御に応じて前記複数の平面鏡が任意の曲率の楕円の円周を近似する鏡面を形成した場合に、前記楕円の第2の焦点に前記撮像装置の光学中心が位置するように前記撮像装置の位置を調整する駆動部と、を備える撮像システムである。   According to one aspect of the present invention, when the plurality of plane mirrors form a mirror surface that approximates the circumference of an ellipse having an arbitrary curvature according to the control from the optical device, the imaging device, and the mirror control unit. And a drive unit that adjusts the position of the imaging device so that the optical center of the imaging device is located at the second focal point of the ellipse.

本発明の一態様は、前記の撮像システムであって、前記撮像装置及び前記光学装置による撮影方向を調整する方向駆動部と、前記楕円の第1の焦点が前記仮想視点に位置するように前記方向駆動部を制御する方向制御部と、をさらに備える。   One aspect of the present invention is the above-described imaging system, wherein the direction driving unit that adjusts the imaging direction of the imaging device and the optical device, and the ellipse first focus is positioned at the virtual viewpoint. A direction control unit that controls the direction driving unit.

本発明により、仮想視点の周囲に設置するカメラの数を抑制しながら画質の劣化を抑制した仮想全天球画像を提供することができる。   According to the present invention, it is possible to provide a virtual omnidirectional image in which deterioration of image quality is suppressed while suppressing the number of cameras installed around the virtual viewpoint.

第1の実施形態における画像処理システムの概略を示す図である。It is a figure showing the outline of the image processing system in a 1st embodiment. 第1の実施形態におけるカメラシステム群6の構成例を示す図である。It is a figure which shows the structural example of the camera system group 6 in 1st Embodiment. 第1の実施形態における画像処理装置30の構成例を示す図である。It is a figure which shows the structural example of the image processing apparatus 30 in 1st Embodiment. 入力画像の各画素と背景画像20の各画素との対応関係を示すテーブルの取得方法について説明する図である。It is a figure explaining the acquisition method of the table which shows the correspondence of each pixel of an input image, and each pixel of the background image 20. FIG. 入力画像の各画素と全天球画像の各画素との対応関係を示す対応情報テーブル303の具体例を示す図である。It is a figure which shows the specific example of the corresponding | compatible information table 303 which shows the corresponding relationship between each pixel of an input image, and each pixel of a spherical image. 画像合成部32における合成処理を示すフロー図である。It is a flowchart which shows the synthetic | combination process in the image synthetic | combination part. 第1の実施形態における画像処理装置30が仮想全天球画像を作成する動作を示すフロー図である。It is a flowchart which shows the operation | movement which the image processing apparatus 30 in 1st Embodiment produces a virtual omnidirectional image. カメラシステム群6における各カメラシステムの撮影範囲の広さと、その撮影範囲の広さに応じて必要となる各カメラシステムの設置個数との関係について説明する図である。It is a figure explaining the relationship between the width of the imaging range of each camera system in the camera system group 6 and the number of installed camera systems required according to the size of the imaging range. 第2の実施形態におけるカメラシステム6−1Aの構成例を示す図である。It is a figure which shows the structural example of the camera system 6-1A in 2nd Embodiment. 第3の実施形態におけるカメラシステム6−1Bの構成例を示す図である。It is a figure which shows the structural example of the camera system 6-1B in 3rd Embodiment. 第4の実施形態におけるカメラシステム6−1Baの構成例を示す図である。It is a figure which shows the structural example of camera system 6-1Ba in 4th Embodiment. 従来の仮想全天球画像を得るための画像処理システムを示す図である。It is a figure which shows the image processing system for obtaining the conventional virtual omnidirectional image. 画像処理システム1における画像処理される画像の具体例を示す図である。3 is a diagram illustrating a specific example of an image to be image processed in the image processing system 1. FIG. 画像処理システム1における課題を説明するための図である。2 is a diagram for explaining a problem in the image processing system 1. FIG.

以下、図面を参照して、本発明の実施形態について説明する。
(第1の実施形態)
図1は、第1の実施形態における画像処理システムの概略を示す図である。図1に示す画像処理システム1Aにおいて、図12に示した従来の画像処理システム1と同じ構成には、同一符号を付しており、説明を簡略化する。
Embodiments of the present invention will be described below with reference to the drawings.
(First embodiment)
FIG. 1 is a diagram showing an outline of an image processing system according to the first embodiment. In the image processing system 1A shown in FIG. 1, the same components as those in the conventional image processing system 1 shown in FIG.

図1に示すように、画像処理システム1Aは、全天球カメラ2と、m台の複数のカメラシステム6−1、6−2、6−3、…、6−m(以下、カメラシステム群6とする。)と、画像処理装置30と、表示装置5とを備える。画像処理システム1Aは、フットサルのコート10内に仮想視点11を設定した場合に、コート10の周囲に設置したカメラシステム群6からの画像の合成によって仮想視点11における仮想全天球画像を得る。   As shown in FIG. 1, the image processing system 1A includes an omnidirectional camera 2 and a plurality of m camera systems 6-1, 6-2, 6-3,. 6), an image processing device 30, and a display device 5. When the virtual viewpoint 11 is set in the futsal court 10, the image processing system 1 </ b> A obtains a virtual omnidirectional image at the virtual viewpoint 11 by synthesizing images from the camera system group 6 installed around the court 10.

全天球カメラ2は、全天球画像を撮影するカメラである。全天球カメラ2は、競技が行われる前のタイミングでコート10内の仮想視点11の位置に設置される。全天球カメラ2は、予め、仮想視点11の位置から仮想全天球画像の背景となる背景画像20を撮影する。全天球カメラ2で撮影された背景画像20は、画像処理装置4に入力されて蓄積される。全天球カメラ2は、競技中も仮想視点11に設置したままだと競技の支障となるため、競技開始前に仮想視点11の位置から取り除かれる。   The omnidirectional camera 2 is a camera that captures an omnidirectional image. The omnidirectional camera 2 is installed at the position of the virtual viewpoint 11 in the court 10 at the timing before the competition is performed. The omnidirectional camera 2 captures in advance a background image 20 that is the background of the virtual omnidirectional image from the position of the virtual viewpoint 11. The background image 20 captured by the omnidirectional camera 2 is input to the image processing device 4 and accumulated. The omnidirectional camera 2 is removed from the position of the virtual viewpoint 11 before the start of the competition because the omnidirectional camera 2 becomes a hindrance to the competition if it remains installed at the virtual viewpoint 11 during the competition.

コート10の周囲には、m台の複数のカメラシステム群6が設置されている。カメラシステム群6の各カメラシステム6−1、6−2、6−3、…、6−mは、背景画像20に対して合成する入力画像を動画で撮影するカメラシステムであり、それぞれ仮想視点11を含む画角となるようにコート10の周囲を取り囲むように設置されている。mは、2以上の整数であり、同程度の画質の仮想全天球画像を得ようとするのであればコート10が大きいほど大きな値となり、コート10の大きさが同じであれば仮想全天球画像の画質を高いものにしようとするほど大きな値となる。   A plurality of m camera system groups 6 are installed around the court 10. Each of the camera systems 6-1, 6-2, 6-3,. 11 is installed so as to surround the periphery of the coat 10 so as to have an angle of view including 11. m is an integer equal to or greater than 2. If a virtual omnidirectional image having the same image quality is to be obtained, the larger the coat 10, the larger the value. The higher the image quality of the spherical image, the larger the value.

画像処理装置30は、各カメラシステム群6からの入力画像に対して画像処理を施して、全天球カメラ2より取得した背景画像20に画像処理後の入力画像を合成する処理を行う。表示装置5は、画像処理装置30で生成した仮想全天球画像を表示する装置であり、液晶ディスプレイ、ヘッドマウントディスプレイ(HMD)等である。   The image processing device 30 performs image processing on the input image from each camera system group 6 and performs processing for combining the input image after image processing with the background image 20 acquired from the omnidirectional camera 2. The display device 5 is a device that displays a virtual omnidirectional image generated by the image processing device 30, and is a liquid crystal display, a head mounted display (HMD), or the like.

表示装置5がHMDである場合、図1には示していないが画像処理装置30から映像信号等を受信する受信部と、受信部を介して受信した映像信号を表示する液晶ディスプレイや有機ELディスプレイ等で構成される画面と、視聴者の頭の動きを検出する検出部とを備える。HMDの画面に表示される映像は、仮想全天球画像に基づいた仮想全天球映像の一部であり視野と呼ぶ。HMDは、検出部が検出した視聴者の頭の動きに応じて表示する映像の範囲である視野を変更する機能を有する。   When the display device 5 is an HMD, although not shown in FIG. 1, a reception unit that receives a video signal or the like from the image processing device 30, and a liquid crystal display or an organic EL display that displays the video signal received via the reception unit And a detection unit that detects the movement of the viewer's head. The video displayed on the screen of the HMD is a part of the virtual omnidirectional video based on the virtual omnidirectional image and is called a visual field. The HMD has a function of changing a visual field that is a range of an image to be displayed according to the movement of the viewer's head detected by the detection unit.

頭を上下左右に動かすことに応じて視聴している映像が変化するので、HMDを頭に装着した視聴者は、仮想視点11の位置から競技を見ているかのような映像を視聴することができる。このように、HMDを装着した視聴者は、あたかも仮想視点11に立って競技を観戦しているかのような臨場感のある映像を視聴することができる。   Since the video being viewed changes as the head moves up, down, left, and right, the viewer wearing the HMD can view the video as if watching the competition from the position of the virtual viewpoint 11. it can. Thus, the viewer wearing the HMD can watch a video with a sense of presence as if he was watching the competition from the virtual viewpoint 11.

次に、カメラシステム群6の構成例について説明する。図2は、第1の実施形態におけるカメラシステム群6の構成例を示す図である。カメラシステム6−1は、仮想視点11の位置に焦点を有し仮想視点11からの光線を平行光にする凸レンズL−1と、放物面の形状をした鏡面を有し凸レンズL−1からの平行光を反射する放物面鏡M−1と、放物面鏡M−1の放物面の焦点に配置され放物面鏡M−1が反射する光線を受光するカメラC−1とを備える。放物面鏡M−1の軸と凸レンズL−1の軸は一致している。1つの放物面鏡M−1に対して、凸レンズL−1及びカメラC−1はそれぞれ1つずつ設置されている。凸レンズL−1の位置は光軸方向に可変であり、凸レンズL−1の焦点の位置にある仮想視点11を移動させることができる。なお、凸レンズL−1は、複数のレンズから構成されるものであってもよい。   Next, a configuration example of the camera system group 6 will be described. FIG. 2 is a diagram illustrating a configuration example of the camera system group 6 in the first embodiment. The camera system 6-1 has a convex lens L-1 which has a focal point at the position of the virtual viewpoint 11 and makes the light beam from the virtual viewpoint 11 parallel light, and a mirror surface having a paraboloid shape. A parabolic mirror M-1 that reflects the parallel light, and a camera C-1 that receives light rays that are arranged at the focal point of the parabolic surface of the parabolic mirror M-1 and reflected by the parabolic mirror M-1. Is provided. The axis of the parabolic mirror M-1 is coincident with the axis of the convex lens L-1. One convex lens L-1 and one camera C-1 are installed for each parabolic mirror M-1. The position of the convex lens L-1 is variable in the optical axis direction, and the virtual viewpoint 11 at the focal position of the convex lens L-1 can be moved. The convex lens L-1 may be composed of a plurality of lenses.

カメラシステム6−2は、仮想視点11の位置に焦点を有し仮想視点11からの光線を平行光にする凸レンズL−2と、放物面の形状をした鏡面を有し凸レンズL−2からの平行光を反射する放物面鏡M−2と、放物面鏡M−2の放物面の焦点に配置され放物面鏡M−2が反射する光線を受光するカメラC−2とを備える。カメラシステム6−3は、仮想視点11の位置に焦点を有し仮想視点11からの光線を平行光にする凸レンズL−3と、放物面の形状をした鏡面を有し凸レンズL−3からの平行光を反射する放物面鏡M−3と、放物面鏡M−3の放物面の焦点に配置され放物面鏡M−3が反射する光線を受光するカメラC−3とを備える。上述した放物面鏡M−1の軸と凸レンズL−1の軸の関係及び放物面鏡M−1に対する凸レンズL−1及びカメラC−1の対応関係は、カメラシステム6−2、6−3についても同様である。   The camera system 6-2 includes a convex lens L-2 that has a focal point at the position of the virtual viewpoint 11 and makes a light beam from the virtual viewpoint 11 parallel light, and a mirror surface having a paraboloid shape. A parabolic mirror M-2 that reflects the parallel light, and a camera C-2 that receives a light beam that is disposed at the focal point of the parabolic surface of the parabolic mirror M-2 and reflected by the parabolic mirror M-2. Is provided. The camera system 6-3 includes a convex lens L-3 that has a focal point at the position of the virtual viewpoint 11 and collimates the light beam from the virtual viewpoint 11, and a convex surface that has a parabolic mirror surface. A parabolic mirror M-3 that reflects the parallel light, and a camera C-3 that is disposed at the focal point of the parabolic surface of the parabolic mirror M-3 and receives a light beam reflected by the parabolic mirror M-3; Is provided. The relationship between the axis of the parabolic mirror M-1 and the axis of the convex lens L-1 and the correspondence between the convex lens L-1 and the camera C-1 with respect to the parabolic mirror M-1 are as follows. The same applies to -3.

図2に示すように、カメラシステム6−1〜6−3は、凸レンズの物体側の焦点からでた光線は凸レンズに入射すると屈折して凸レンズの光軸と平行な光線となるという性質と、放物面の軸に平行に入射した光線は、全て放物面の焦点に集まるという性質とを利用して、仮想視点11からの光線を効率的にカメラC−1〜C−3に集光している。これにより、カメラシステム6−1〜6−3は、仮想視点11を視点とする撮影範囲12−1〜12−3に示す範囲をそれぞれ撮影することができる。各カメラシステム群6で撮影される入力画像は、所定のフレーム周期を有する動画像であり、各フレームには撮影時間が関連付けられている。なお、図2は、カメラシステム6−1〜6−3の3台のみ示しているが、他のカメラシステム6−4〜6−mについても同様の構成である。   As shown in FIG. 2, the camera systems 6-1 to 6-3 have the property that light rays emitted from the focal point on the object side of the convex lens are refracted and become parallel to the optical axis of the convex lens when entering the convex lens Utilizing the property that all rays incident parallel to the paraboloid axis are collected at the focal point of the paraboloid, the rays from the virtual viewpoint 11 are efficiently condensed on the cameras C-1 to C-3. doing. Thereby, the camera systems 6-1 to 6-3 can shoot the ranges shown in the shooting ranges 12-1 to 12-3 with the virtual viewpoint 11 as the viewpoint. An input image photographed by each camera system group 6 is a moving image having a predetermined frame period, and a photographing time is associated with each frame. FIG. 2 shows only three camera systems 6-1 to 6-3, but the other camera systems 6-4 to 6-m have the same configuration.

次に、第1の実施形態における画像処理システム1Aの画像処理装置30の構成例について説明する。
図3は、第1の実施形態における画像処理装置30の構成例を示す図である。図3に示すように、画像処理装置30は、画像入力部31と、画像合成部32と、表示処理部33と、各カメラシステム群6が撮影した入力画像を格納する入力画像格納部301と、背景画像20を格納する背景画像格納部302と、入力画像の各画素と背景画像20の各画素との対応関係を示すテーブルを格納する対応情報テーブル303とを備える。
Next, a configuration example of the image processing device 30 of the image processing system 1A in the first embodiment will be described.
FIG. 3 is a diagram illustrating a configuration example of the image processing apparatus 30 according to the first embodiment. As shown in FIG. 3, the image processing apparatus 30 includes an image input unit 31, an image composition unit 32, a display processing unit 33, and an input image storage unit 301 that stores input images taken by each camera system group 6. A background image storage unit 302 that stores the background image 20, and a correspondence information table 303 that stores a table indicating the correspondence between each pixel of the input image and each pixel of the background image 20.

入力画像格納部301は、カメラシステム群6内の各カメラシステムを特定するカメラコードに関連付けて各カメラシステム群6で撮影した入力画像を格納する。入力画像は、撮影時刻と関連付けられた動画の画像データを含むものである。入力画像格納部301は、例えば、カメラシステム6−1で撮影した入力画像を、カメラシステム6−1を特定するカメラコードに関連付けて格納する。   The input image storage unit 301 stores an input image captured by each camera system group 6 in association with a camera code that identifies each camera system in the camera system group 6. The input image includes moving image data associated with the shooting time. For example, the input image storage unit 301 stores an input image captured by the camera system 6-1 in association with a camera code that identifies the camera system 6-1.

背景画像格納部302は、全天球カメラ2で撮影した全天球画像である背景画像20を格納する。背景画像格納部302は、例えば、コート10内の仮想視点11に設置した全天球カメラ2で撮影した図13(A)に示す背景画像20を格納する。格納する背景画像20は、1フレーム分の画像データでも所定時間分の動画の画像データでもよい。所定時間分の画像データを格納する場合は、背景画像20において周期的に変化する部分(例えば電光掲示板が映っている部分があり、かつ、電光掲示板の表示内容が周期的に変化している部分。)があれば、その周期に応じた時間分の画像データを背景画像20として格納すればよい。   The background image storage unit 302 stores the background image 20 that is an omnidirectional image captured by the omnidirectional camera 2. The background image storage unit 302 stores the background image 20 shown in FIG. 13A taken by the omnidirectional camera 2 installed at the virtual viewpoint 11 in the court 10, for example. The background image 20 to be stored may be image data for one frame or moving image data for a predetermined time. When storing image data for a predetermined time, a portion that periodically changes in the background image 20 (for example, a portion in which an electric bulletin board is reflected and a portion in which the display content of the electric bulletin board is periodically changed) .), Image data for a time corresponding to the cycle may be stored as the background image 20.

画像処理装置30が全天球カメラ2から背景画像20を取得する構成はどのような構成であってもよい。例えば、画像処理装置30が全天球カメラ2と有線又は無線で通信可能な通信部を備えて、その通信部を介して背景画像20を取得する構成であってもよい。また、全天球カメラ2に着脱可能な記録媒体を用いて当該記録媒体に背景画像20を記録して、記録後の記録媒体を画像処理装置30に接続して、画像処理装置30が記録媒体から背景画像20を読み出す構成により、背景画像20を取得する構成であってもよい。また、画像処理装置30が、カメラシステム群6から入力画像を取得する構成も全天球カメラ2の場合と同様にどのような構成であってもよい。   The configuration in which the image processing apparatus 30 acquires the background image 20 from the omnidirectional camera 2 may be any configuration. For example, the image processing apparatus 30 may include a communication unit that can communicate with the omnidirectional camera 2 in a wired or wireless manner, and the background image 20 may be acquired via the communication unit. In addition, the background image 20 is recorded on the recording medium using a recording medium that can be attached to and removed from the omnidirectional camera 2, and the recorded recording medium is connected to the image processing apparatus 30. A configuration in which the background image 20 is acquired from the background image 20 may be obtained. The configuration in which the image processing apparatus 30 acquires an input image from the camera system group 6 may be any configuration as in the case of the omnidirectional camera 2.

画像入力部31は、入力画像格納部301から入力画像を取得し、背景画像格納部302から背景画像20を取得して、入力画像及び背景画像20を画像合成部32へ出力する。画像合成部32は、対応情報テーブル303を参照して入力画像の各画素の値を、背景画像20の対応する画素の値として貼り付けて合成することで仮想全天球画像を生成する。   The image input unit 31 acquires an input image from the input image storage unit 301, acquires the background image 20 from the background image storage unit 302, and outputs the input image and the background image 20 to the image composition unit 32. The image composition unit 32 refers to the correspondence information table 303 and generates a virtual omnidirectional image by pasting and compositing the values of the pixels of the input image as the values of the corresponding pixels of the background image 20.

ここで、対応情報テーブル303に格納する入力画像の各画素と背景画像20の各画素との対応関係を示すテーブルの取得方法について説明する。図4は、入力画像の各画素と背景画像20の各画素との対応関係を示すテーブルの取得方法について説明する図である。図4に示すように、点光源54を全天球カメラ2及びカメラシステム6−1で撮影することでテーブルを取得する。なお、説明を簡単にするため図4では、カメラシステム6−1の処理のみを示しているが、他のカメラシステム6−2〜6−mにおいても同様の処理を行う。   Here, a method for acquiring a table indicating the correspondence between each pixel of the input image stored in the correspondence information table 303 and each pixel of the background image 20 will be described. FIG. 4 is a diagram for explaining a method for obtaining a table indicating the correspondence between each pixel of the input image and each pixel of the background image 20. As shown in FIG. 4, the table is acquired by photographing the point light source 54 with the omnidirectional camera 2 and the camera system 6-1. In FIG. 4, only the processing of the camera system 6-1 is shown in order to simplify the description, but the same processing is performed in the other camera systems 6-2 to 6-m.

まず、コート10内の仮想視点11に全天球カメラ2を設置して、図2に示したカメラシステム6−1の撮影範囲12−1内で点光源54を点灯する。図4において撮像面57は、全天球カメラ2において被写体像が結像する撮像面を仮想的に示したものである。点光源54からの光は、全天球カメラ2において撮像面57の画素57Aで受光される。全天球カメラ2は、点光源54を撮影した全天球画像55を出力する。図4に示すように、仮想視点11における全天球画像55には、画素55Aに点光源54の光が写っている。全天球画像55の画素55Aは、撮像面57の画素57Aに対応する画素である。点光源54を移動させて撮影範囲12−1の全ての画素に対応する位置で撮影を行う。撮影を終えると全天球カメラ2を仮想視点11から取り去る。   First, the omnidirectional camera 2 is installed at the virtual viewpoint 11 in the court 10, and the point light source 54 is turned on within the imaging range 12-1 of the camera system 6-1 shown in FIG. In FIG. 4, an imaging surface 57 virtually shows an imaging surface on which a subject image is formed in the omnidirectional camera 2. Light from the point light source 54 is received by the pixel 57 </ b> A of the imaging surface 57 in the omnidirectional camera 2. The omnidirectional camera 2 outputs an omnidirectional image 55 obtained by photographing the point light source 54. As shown in FIG. 4, in the omnidirectional image 55 at the virtual viewpoint 11, the light of the point light source 54 is reflected in the pixel 55A. The pixel 55A of the omnidirectional image 55 is a pixel corresponding to the pixel 57A of the imaging surface 57. The point light source 54 is moved to perform imaging at positions corresponding to all the pixels in the imaging range 12-1. When shooting is completed, the omnidirectional camera 2 is removed from the virtual viewpoint 11.

次に、カメラシステム6−1は、撮影範囲12−1内で点灯する点光源54を撮影して、画像56を出力する。図4において、撮像面58は、カメラC−1において被写体像が結像する撮像面を仮想的に示したものである。点光源54からの光線は、仮想視点11を通過して凸レンズL−1で屈折され、放物面鏡M−1で反射されてカメラC−1において撮像面58の画素58Aで受光される。図4に示すように、カメラシステム6−1で撮影した画像56には、画素56Aに点光源54の光が写っている。画像56の画素56Aは、撮像面58の画素58Aに対応する画素である。全天球カメラ2の時と同様に、点光源54を移動させてカメラシステム6−1の撮影範囲12−1の全ての画素に対応する位置で撮影を行う。点光源54を点灯させる位置とその順番は、全天球カメラ2の時と同じとする。   Next, the camera system 6-1 captures the point light source 54 that is lit within the capturing range 12-1, and outputs an image 56. In FIG. 4, an imaging surface 58 virtually shows an imaging surface on which a subject image is formed in the camera C-1. The light beam from the point light source 54 passes through the virtual viewpoint 11, is refracted by the convex lens L-1, is reflected by the parabolic mirror M-1, and is received by the pixel 58A of the imaging surface 58 in the camera C-1. As shown in FIG. 4, in the image 56 photographed by the camera system 6-1, the light of the point light source 54 is reflected on the pixel 56A. A pixel 56 </ b> A of the image 56 is a pixel corresponding to the pixel 58 </ b> A of the imaging surface 58. As in the case of the omnidirectional camera 2, the point light source 54 is moved to perform imaging at positions corresponding to all the pixels in the imaging range 12-1 of the camera system 6-1. The position and the order in which the point light source 54 is turned on are the same as in the omnidirectional camera 2.

以上の処理により、同じ位置で点灯させた点光源54が写っている画素を対応させることで、入力画像の各画素と全天球画像(=背景画像20)の各画素との対応関係を示すテーブルを作成する。図5は、入力画像の各画素と全天球画像の各画素との対応関係を示す対応情報テーブル303の具体例を示す図である。図5に示すように、全天球画像の各画素の識別子qj(j=1〜Nq)及び画素アドレスを示すq1:(0、0)、q2:(0、1)、…、qNq:(3839、1919)と、カメラシステム群6の識別子Si(i=1〜M)及び識別子Siで特定されるカメラシステムからの入力画像の画素アドレスを示すS1、(100、50)、S1、(100、52)、…、Sm、(100、200)とを対応させている。   Through the above processing, the correspondence between the pixels of the input image and the pixels of the omnidirectional image (= background image 20) is shown by associating the pixels in which the point light source 54 lit at the same position appears. Create a table. FIG. 5 is a diagram showing a specific example of the correspondence information table 303 indicating the correspondence between each pixel of the input image and each pixel of the omnidirectional image. As shown in FIG. 5, the identifier qj (j = 1 to Nq) of each pixel of the omnidirectional image and q1: (0, 0), q2: (0, 1),..., QNq :( 3839, 1919), S1, (100, 50), S1, (100) indicating the pixel address of the input image from the camera system specified by the identifier Si (i = 1 to M) of the camera system group 6 and the identifier Si. , 52),..., Sm, (100, 200).

識別子S1、S2、…、Smは、カメラシステム6−1、6−2、…、6−mを特定する識別子である。図5に示した対応情報テーブル303は、全天球画像の全画素に対してカメラシステム群6の入力画像の画素との対応情報を格納したが、これに限定されるものではない。例えば、対応情報テーブル303は、全天球画像の一部の画素に対してのみカメラシステム群6の入力画像の画素との対応情報を格納してもよい。例えば、全天球画像において、カメラシステム群6が対応していない領域があれば、その領域の対応情報は格納する必要がない。このような対応情報テーブル303を備えることで、カメラシステム群6に備えられる放物面鏡M−1〜M−mの鏡面が理想的な放物面から多少ずれた曲率であったり、放物面鏡M−1〜M−m間で鏡面の曲率がばらついたりしても生成する全天球画像の画質への影響を抑えることができる。   Identifiers S1, S2,..., Sm are identifiers that identify the camera systems 6-1, 6-2,. Although the correspondence information table 303 illustrated in FIG. 5 stores correspondence information between the pixels of the input image of the camera system group 6 with respect to all the pixels of the omnidirectional image, the present invention is not limited to this. For example, the correspondence information table 303 may store correspondence information with pixels of the input image of the camera system group 6 for only some pixels of the omnidirectional image. For example, if there is an area that the camera system group 6 does not support in the omnidirectional image, it is not necessary to store the corresponding information of that area. By providing such a correspondence information table 303, the mirror surfaces of the parabolic mirrors M-1 to M-m provided in the camera system group 6 have a curvature slightly deviated from an ideal paraboloid, Even if the curvature of the mirror surface varies between the surface mirrors M-1 to M-m, the influence on the image quality of the generated omnidirectional image can be suppressed.

次に、画像合成部32における、対応情報テーブル303を参照して入力画像の各画素の値を、背景画像20の対応する画素の値として貼り付ける処理について説明する。図6は、画像合成部32における合成処理を示すフロー図である。画像合成部32は、背景画像20の各画素qjに関するループを開始する(ステップS101)。具体的には、画像合成部32は、背景画像20の画素q1の処理から画素qNqまでの処理のループを開始する。   Next, processing for pasting the value of each pixel of the input image as the value of the corresponding pixel of the background image 20 with reference to the correspondence information table 303 in the image composition unit 32 will be described. FIG. 6 is a flowchart showing a composition process in the image composition unit 32. The image composition unit 32 starts a loop for each pixel qj of the background image 20 (step S101). Specifically, the image composition unit 32 starts a processing loop from the processing of the pixel q1 of the background image 20 to the pixel qNq.

画像合成部32は、対応情報テーブル303を参照して、背景画像20の画素qjに対応するカメラシステムの識別子Si及び識別子Siのカメラシステムで撮影した入力画像の画素アドレスを特定し、特定した画素アドレスの画素の値を、背景画像20の画素qjの値とする(ステップS102)。画像合成部32は、背景画像20の画素qNq対する処理を終えたか否かを判断することで、ループを終了させるか否かを判断する(ステップS103)。ここで画素qNq対する処理を終えていなければ、画像合成部32は、ステップS101に戻り、画素qNq対する処理を終えていれば合成処理を終了する。以上の処理により、画像合成部32は、対応情報テーブル303を参照してカメラシステム群6からの入力画像の各画素の値を、背景画像20の対応する画素の値として貼り付けて合成して得た仮想全天球画像を出力する。   The image composition unit 32 refers to the correspondence information table 303, identifies the identifier Si of the camera system corresponding to the pixel qj of the background image 20 and the pixel address of the input image captured by the camera system of the identifier Si, and identifies the identified pixel The pixel value of the address is set as the value of the pixel qj of the background image 20 (step S102). The image composition unit 32 determines whether or not to end the loop by determining whether or not the processing for the pixel qNq of the background image 20 has been completed (step S103). If the process for the pixel qNq has not been completed, the image synthesis unit 32 returns to step S101, and if the process for the pixel qNq has been completed, the synthesis process ends. With the above processing, the image composition unit 32 refers to the correspondence information table 303 and pastes and synthesizes the value of each pixel of the input image from the camera system group 6 as the value of the corresponding pixel of the background image 20. The obtained virtual omnidirectional image is output.

表示処理部33は、画像合成部32が出力する仮想全天球画像を表示装置5において表示可能な映像信号に変換して出力する。仮想全天球画像は、図13(C)に示した通り、歪みを含む画像であり、かつ、仮想視点11を中心とする360度の景色を含む画像であるので、表示処理部33は、仮想全天球画像から表示装置5に表示させる範囲の画像を切り出して、切り出した画像の歪みを補正する機能を有する。   The display processing unit 33 converts the virtual omnidirectional image output from the image composition unit 32 into a video signal that can be displayed on the display device 5 and outputs the video signal. As shown in FIG. 13C, the virtual omnidirectional image is an image including distortion and an image including a landscape of 360 degrees with the virtual viewpoint 11 as the center. It has a function of cutting out an image in a range to be displayed on the display device 5 from the virtual omnidirectional image and correcting distortion of the cut out image.

画像処理装置30は、入力画像格納部301及び背景画像格納部302を備える構成としたが、これに限定されるものではない。例えば、入力画像格納部301及び背景画像格納部302を備える画像格納装置を別に設け、画像処理装置30は、画像格納装置から入力画像格納部301及び背景画像格納部302を取得する構成であってもよい。また、画像処理装置30は、入力画像格納部301を備えずに、カメラシステム群6から入力される入力画像をリアルタイムで取得して、取得した入力画像を順次処理する構成としてもよい。   The image processing apparatus 30 includes the input image storage unit 301 and the background image storage unit 302, but is not limited thereto. For example, an image storage device including an input image storage unit 301 and a background image storage unit 302 is provided separately, and the image processing device 30 acquires the input image storage unit 301 and the background image storage unit 302 from the image storage device. Also good. Further, the image processing apparatus 30 may be configured not to include the input image storage unit 301 but to acquire an input image input from the camera system group 6 in real time and sequentially process the acquired input image.

次に、画像処理システム1Aにおいて仮想全天球画像を作成する動作について説明する。図7は、第1の実施形態における画像処理装置30が仮想全天球画像を作成する動作を示すフロー図である。図7に示す動作は、入力画像に基づいて各撮影時刻における仮想全天球画像を生成する処理の前に、予め対応情報テーブル303を取得する処理、背景画像20を取得して背景画像格納部302に格納する処理及び入力画像を取得して入力画像格納部301に格納する処理も含まれる。   Next, an operation for creating a virtual omnidirectional image in the image processing system 1A will be described. FIG. 7 is a flowchart showing an operation in which the image processing device 30 according to the first embodiment creates a virtual omnidirectional image. The operation shown in FIG. 7 includes a process of acquiring the correspondence information table 303 in advance and a background image storage unit that acquires the background image 20 before the process of generating the virtual omnidirectional image at each shooting time based on the input image. The process stored in 302 and the process which acquires an input image and stores it in the input image storage part 301 are also included.

仮想視点11に全天球カメラ2を設置し、点光源54を全天球画像の各画素に対応する位置に所定の順番で移動させて、移動先の各位置で点灯してその全天球画像を撮影する(ステップS201)。全天球カメラ2を仮想視点11から取り去って、カメラシステム群6の各カメラシステムは、点光源54をステップS201の時と同じ位置、同じ順番で移動させて、移動先の各位置で点灯してその画像をする。具体的には、カメラシステム群6の各カメラシステムは、自身の撮影範囲に点光源54が存在する場合に、画像の撮影を行う。同じ位置で点灯させた点光源54が写っている画素を対応させることで、全天球画像の各画素qjと識別子Siで特定されるカメラシステムで撮影され入力画像の画素との対応関係を示すテーブルである対応情報テーブル303を作成する(ステップS202)。   The omnidirectional camera 2 is installed at the virtual viewpoint 11, the point light source 54 is moved to a position corresponding to each pixel of the omnidirectional image in a predetermined order, and the omnidirectional light is turned on at each destination position. An image is taken (step S201). The omnidirectional camera 2 is removed from the virtual viewpoint 11, and each camera system of the camera system group 6 moves the point light source 54 in the same position and in the same order as in step S201, and lights up at each destination position. To do the image. Specifically, each camera system of the camera system group 6 captures an image when the point light source 54 exists in its own capturing range. By associating the pixels in which the point light source 54 lit at the same position is associated, the correspondence between each pixel qj of the omnidirectional image and the pixel of the input image captured by the camera system specified by the identifier Si is shown. A correspondence information table 303, which is a table, is created (step S202).

仮想視点11に全天球カメラ2が設置され、全天球カメラ2は、背景画像20を撮影する(ステップS203)。撮影された背景画像20は、背景画像格納部302に格納される。次に、全天球カメラ2を仮想視点11から取り去った後に、例えばコート10おける競技開始と共に、カメラシステム群6は入力画像の撮影を開始する(ステップS204)。これにより、画像処理装置30は、カメラシステム群6が撮影した入力画像を入力画像格納部301に格納する。   The omnidirectional camera 2 is installed at the virtual viewpoint 11, and the omnidirectional camera 2 captures the background image 20 (step S203). The captured background image 20 is stored in the background image storage unit 302. Next, after the omnidirectional camera 2 is removed from the virtual viewpoint 11, the camera system group 6 starts capturing an input image, for example, at the start of a competition on the court 10 (step S204). As a result, the image processing apparatus 30 stores the input image captured by the camera system group 6 in the input image storage unit 301.

画像合成部32は、対応情報テーブル303を参照してカメラシステム群6からの入力画像の各画素の値を、背景画像20の対応する画素の値として貼り付けて合成して得た仮想全天球画像を出力する(ステップS205)。   The image compositing unit 32 refers to the correspondence information table 303 and pastes the value of each pixel of the input image from the camera system group 6 as the value of the corresponding pixel of the background image 20 to obtain a virtual total sky A spherical image is output (step S205).

以上に説明したように、第1の実施形態における画像処理装置30は、放物面鏡を備えカメラシステム群6を用いて所定の撮影範囲からの仮想視点11を通る光線に基づく被写体像を撮影して入力画像を取得し、この入力画像を背景画像20に合成して仮想全天球画像を生成することができる。これにより、第1の実施形態における画像処理装置30は、仮想全天球画像に含まれる被写体において分身が起こったり、消失が起こったりすることを抑制し、かつ、カメラシステム群6に含まれる各カメラシステムを所定の撮影範囲が重ならない間隔で設置することができる。すなわち、第1の実施形態における画像処理装置30は、仮想視点の周囲に設置するカメラシステムの数を抑制し、かつ、画質の劣化を抑制した仮想全天球画像を得ることができる。第1の実施形態における画像処理装置30は、仮想視点の周囲に設置する限られた数のカメラシステムの中で、より精度の高い仮想全天球画像を得ることができる。   As described above, the image processing apparatus 30 according to the first embodiment captures a subject image based on a light beam passing through the virtual viewpoint 11 from a predetermined imaging range using the camera system group 6 provided with a parabolic mirror. Thus, an input image can be acquired, and this input image can be combined with the background image 20 to generate a virtual omnidirectional image. As a result, the image processing apparatus 30 according to the first embodiment suppresses the occurrence of alternation or disappearance in the subject included in the virtual omnidirectional image, and each included in the camera system group 6. Camera systems can be installed at intervals that do not overlap the predetermined shooting ranges. That is, the image processing apparatus 30 according to the first embodiment can obtain a virtual omnidirectional image in which the number of camera systems installed around the virtual viewpoint is suppressed and deterioration in image quality is suppressed. The image processing apparatus 30 according to the first embodiment can obtain a virtual omnidirectional image with higher accuracy in a limited number of camera systems installed around a virtual viewpoint.

上述した画像処理システム1Aの動作の変形例として、カメラシステム群6で撮影した入力画像をリアルタイムで背景画像20に合成して仮想全天球画像を生成する動作について説明する。リアルタイムで仮想全天球画像を生成する場合、画像処理システム1Aは、図7の処理において、ステップS201〜S203までの処理を事前に行い、ステップS204、S205の処理をリアルタイムで行う。リアルタイムで仮想全天球画像を生成するとは、例えば、入力画像が1秒間に60フレームを有する動画像であれば、画像処理システム1Aが、その動画像の入力画像を処理して、1秒間に60フレームを有する仮想全天球画像を生成することである。   As a modification of the operation of the image processing system 1A described above, an operation of generating a virtual omnidirectional image by synthesizing an input image captured by the camera system group 6 with the background image 20 in real time will be described. When generating a virtual omnidirectional image in real time, the image processing system 1A performs the processes from step S201 to S203 in advance in the process of FIG. 7, and performs the processes of steps S204 and S205 in real time. For example, if the input image is a moving image having 60 frames per second, the image processing system 1A processes the input image of the moving image and generates the virtual omnidirectional image in real time. Generating a virtual celestial sphere image having 60 frames.

ここで、カメラシステム群6における各カメラシステムの撮影範囲の広さと、その撮影範囲の広さに応じて必要となる各カメラシステムの設置個数(m個)との関係について説明する。図8は、カメラシステム群6における各カメラシステムの撮影範囲の広さと、その撮影範囲の広さに応じて必要となる各カメラシステムの設置個数(m個)との関係について説明する図である。図8では、凸レンズL−1と、放物面鏡M−1と、カメラC−1とを備えるカメラシステム6−1を例に挙げて説明する。   Here, the relationship between the wide shooting range of each camera system in the camera system group 6 and the number of installed camera systems (m) required according to the wide shooting range will be described. FIG. 8 is a diagram for explaining the relationship between the shooting range of each camera system in the camera system group 6 and the number of installed camera systems (m) required according to the width of the shooting range. . In FIG. 8, a camera system 6-1 including a convex lens L-1, a parabolic mirror M-1, and a camera C-1 will be described as an example.

図8に示すように、凸レンズL−1の半径をrとし、凸レンズの焦点距離をfとする。また、凸レンズL−1の焦点fから凸レンズの両端へ入射する光線がなす角を角度θとすると、角度θは以下の(式1)で表される。

Figure 0006392737
As shown in FIG. 8, the radius of the convex lens L-1 is r, and the focal length of the convex lens is f. Further, when the light rays incident from the focal point f 1 of the convex lens L-1 to both ends of the convex lens an angle and the angle theta, the angle theta is expressed by the following equation (1).
Figure 0006392737

そして、カメラC−1の実質的な画角は、上記(式1)で求めた角度θである。撮影範囲の大きさが角度θであるカメラシステム6−1の個数は、背景画像20に対して合成したい範囲が角度θである場合に、以下の(式2)を満たす個数mである。なお、(式2)において、θとはカメラシステム6−i(1≦i≦m)の撮影範囲を示す。(式2)に示すように、背景画像20に対して合成したい範囲の角度θの値が大きくなれば、カメラシステム6−1の個数mの値も大きくなる。

Figure 0006392737
The substantial angle of view of the camera C-1 is the angle θ obtained in the above (Equation 1). The number of the camera system 6-1 size of the imaging range is an angle theta, if the range to be synthesized with respect to the background image 20 is an angle theta a, a number m satisfying the following (Equation 2). In (Equation 2), θ i indicates the shooting range of the camera system 6-i (1 ≦ i ≦ m). As shown in (Equation 2), the larger the value of the angle theta a range to be synthesized with respect to the background image 20, the value of the number m of camera system 6-1 is also increased.
Figure 0006392737

(第2の実施形態)
第2の実施形態におけるカメラシステムの構成例について説明する。図2等に示した第1の実施形態におけるカメラシステム群6の各カメラシステムの放物面鏡にはカメラが写り込んでいる領域がある。これに対して、第2の実施形態におけるカメラシステムは、各カメラシステムの放物面鏡においてカメラが写り込む領域を無くす(カメラが写り込まない領域のみ残す)構成としたものである。これにより、放物面鏡の軽量化および小型化を図ることができる。
(Second Embodiment)
A configuration example of the camera system in the second embodiment will be described. The parabolic mirror of each camera system of the camera system group 6 in the first embodiment shown in FIG. 2 has a region where the camera is reflected. On the other hand, the camera system according to the second embodiment is configured to eliminate the area in which the camera is reflected in the parabolic mirror of each camera system (leave only the area in which the camera is not reflected). Thereby, the weight reduction and size reduction of a parabolic mirror can be achieved.

図9は、第2の実施形態におけるカメラシステム6−1Aの構成例を示す図である。カメラシステム6−1Aは、凸レンズL−1と、カメラC−1と、欠損部90を有する放物面鏡M−1Aとを具備する。放物面鏡M−1Aの欠損部90は、図2に示した放物面鏡M−1においてカメラC−1が写り込む領域に穴をあけることで形成することができる。また、放物面鏡M−1Aは、更に図9の光軸から上半分又は下半分の領域を取り除いた構成としてもよく、目的とする撮影範囲に応じた領域に放物面となる鏡面を備える構成であればよい。   FIG. 9 is a diagram illustrating a configuration example of the camera system 6-1A in the second embodiment. The camera system 6-1A includes a convex lens L-1, a camera C-1, and a parabolic mirror M-1A having a defect portion 90. The missing part 90 of the parabolic mirror M-1A can be formed by making a hole in a region where the camera C-1 is reflected in the parabolic mirror M-1 shown in FIG. Further, the parabolic mirror M-1A may be configured by further removing the upper half or lower half region from the optical axis of FIG. 9, and a mirror surface serving as a paraboloid is provided in a region corresponding to a target photographing range. Any configuration may be used.

なお、カメラシステム6−1Aは、図1に示すようにコート10の周囲にm個配置されるものであり、m個のカメラシステム6−1Aの凸レンズL−1〜L−Mの物体側(放物面鏡M−1Aと反対側)の焦点は仮想視点11の位置に一致する。第2の実施形態におけるカメラシステム6−1Aを図1に示す画像処理システム1Aに適用することで、画像処理システム1Aの軽量化及び小型化を実現することができる。   In addition, as shown in FIG. 1, m camera systems 6-1A are arranged around the coat 10, and the object side of convex lenses L-1 to LM of m camera systems 6-1A ( The focal point of the paraboloidal mirror M-1A) coincides with the position of the virtual viewpoint 11. By applying the camera system 6-1A in the second embodiment to the image processing system 1A shown in FIG. 1, the image processing system 1A can be reduced in weight and size.

(第3の実施形態)
第3の実施形態におけるカメラシステムの構成例について説明する。図2等に示した第1の実施形態におけるカメラシステム群6の各カメラシステムは放物面鏡を用いている。これに対して、第3の実施形態におけるカメラシステムは、楕円の一部と同じ曲率の曲面を有して光線を反射する楕円鏡を用いて較正したものである。これにより、仮想視点の位置をより柔軟に設定することができる。
(Third embodiment)
A configuration example of the camera system according to the third embodiment will be described. Each camera system of the camera system group 6 in the first embodiment shown in FIG. 2 and the like uses a parabolic mirror. On the other hand, the camera system in the third embodiment is calibrated using an elliptical mirror that has a curved surface having the same curvature as a part of an ellipse and reflects light rays. Thereby, the position of the virtual viewpoint can be set more flexibly.

図10は、第3の実施形態におけるカメラシステム6−1Bの構成例を示す図である。カメラシステム6−1Bは、凸レンズL−1a、L−1bと、カメラC−1と、楕円鏡M−1Bとを具備する。楕円鏡M−1Bの軸と、凸レンズL−1a、L−1bの軸は一致している。カメラC−1は、楕円鏡M−1Bの第1の焦点の位置に設置されている。楕円鏡M−1Bの第2の焦点は、凸レンズL−1aの焦点と同じ位置fである。凸レンズL−1bの焦点は、仮想視点11と同じ位置fである。 FIG. 10 is a diagram illustrating a configuration example of a camera system 6-1B according to the third embodiment. The camera system 6-1B includes convex lenses L-1a and L-1b, a camera C-1, and an elliptical mirror M-1B. The axis of the elliptical mirror M-1B and the axes of the convex lenses L-1a and L-1b coincide. The camera C-1 is installed at the position of the first focus of the elliptical mirror M-1B. The second focus of the elliptical mirror M-1B is the same position f 0 and the focus of the convex lens L-1a. The focus of the convex lens L-1b is the same position f 1 and the virtual viewpoint 11.

凸レンズL−1aと凸レンズL−1bとの間の距離をdiとし、楕円鏡M−1Bに基づく楕円の中心をOとし、楕円鏡M−1Bの焦点距離をfとし、凸レンズL−1aの焦点距離をfとし、凸レンズL−1bの焦点距離をfとする。仮想視点11から中心Oまでの距離は、f+f+di+fで求まる。すなわち、これらの各f、f、di、fの値を調整することで、仮想視点11の位置を調整することができる。 The distance between the convex lens L-1a and the convex lens L-1b is di, the center of the ellipse based on the elliptical mirror M-1B is O, the focal length of the elliptical mirror M-1B is f, and the focal point of the convex lens L-1a distance and f 0, the focal length of the convex lens L-1b and f 1. The distance from the virtual viewpoint 11 to the center O is obtained by f + f 0 + di + f 1 . That is, the position of the virtual viewpoint 11 can be adjusted by adjusting the values of these f, f 0 , di, and f 1 .

楕円鏡M−1Bの焦点距離fについては、本実施形態では固定であるが、後述する第4の実施形態に記載の構成とすることで調整することができる。凸レンズL−1aの焦点距離fと、凸レンズL−1bの焦点距離fとは、凸レンズL−1a、L−1aの製造時に任意の焦点距離を設定することができる。なお、凸レンズL−1a、L−1aの焦点距離を可変とする構成とすれば、製造後も焦点距離を変更可能である。凸レンズL−1aと凸レンズL−1bとの間の距離をdiは、凸レンズL−1a又は凸レンズL−1bを光軸方向に移動可能とする構成とすれば変更可能となる。 The focal length f of the elliptical mirror M-1B is fixed in this embodiment, but can be adjusted by adopting the configuration described in the fourth embodiment to be described later. The focal length f 0 of the convex lens L-1a, the focal length f 1 and the convex lens L-1b, can be a convex lens L-1a, in the production of L-1a sets an arbitrary focal length. In addition, if it is set as the structure which makes the focal distance of the convex lenses L-1a and L-1a variable, a focal distance can be changed after manufacture. The distance di between the convex lens L-1a and the convex lens L-1b can be changed if the convex lens L-1a or the convex lens L-1b is configured to be movable in the optical axis direction.

ここで、カメラシステム群6における各カメラシステム6−1Bの撮影範囲の広さと、その撮影範囲の広さに応じて必要となる各カメラシステム6−1Bの設置個数(m個)との関係について説明する。カメラC−1の画角をθ、カメラシステム6−1Bの撮影範囲をθ、楕円鏡M−1Bの焦点距離をf、凸レンズL−1aの焦点距離をf、凸レンズL−1bの焦点距離をfとして、楕円鏡M−1Bに基づく楕円の中心を原点とするxy座標において、カメラC−1の画角θとカメラシステム6−1Bの撮影範囲θは、以下の(式3)、(式4)で表すことができる。

Figure 0006392737
Here, the relationship between the shooting range of each camera system 6-1B in the camera system group 6 and the number of installed camera systems 6-1B (m) required according to the width of the shooting range. explain. The angle of view of the camera C-1 is θ 0 , the shooting range of the camera system 6-1B is θ 1 , the focal length of the elliptical mirror M-1B is f, the focal length of the convex lens L-1a is f 0 , and the convex lens L-1b With the focal length set to f 1 and the xy coordinates with the origin of the center of the ellipse based on the elliptical mirror M-1B, the field angle θ 0 of the camera C-1 and the shooting range θ 1 of the camera system 6-1B are as follows: It can be expressed by Formula 3) and Formula 4.
Figure 0006392737

撮影範囲の大きさが角度θであるカメラシステム6−1Bの個数は、背景画像20に対して合成したい範囲が角度θである場合に、以下の(式5)を満たす個数mである。なお、(式5)において、θ とはカメラシステム6−iB(1≦i≦m)の撮影範囲を示す。(式5)に示すように、背景画像20に対して合成したい範囲の角度θの値が大きくなれば、カメラシステム6−1Bの個数mの値も大きくなる。

Figure 0006392737
The number of the camera system 6-1B size of the imaging range is an angle theta 1, if the range to be synthesized with respect to the background image 20 is an angle theta, a number m satisfying the following Equation (5). In (Expression 5), θ 1 i indicates a shooting range of the camera system 6-iB (1 ≦ i ≦ m). As shown in (Expression 5), if the value of the angle θ in the range to be combined with the background image 20 is increased, the value m of the camera system 6-1B is also increased.
Figure 0006392737

なお、カメラシステム6−1Bは、図1に示すようにコート10の周囲にm個配置されるものであり、m個のカメラシステム6−1Bの凸レンズL−1b〜L−Mbの物体側(楕円鏡M−1Bと反対側)の焦点は仮想視点11の位置に一致する。第3の実施形態におけるカメラシステム6−1Bを図1に示す画像処理システム1Aに適用することで、画像処理システム1Aがコート10内に設定する仮想視点11の位置を柔軟に変更することができる。   In addition, as shown in FIG. 1, m camera systems 6-1B are arranged around the coat 10, and the object side of convex lenses L-1b to L-Mb of the m camera systems 6-1B ( The focal point of the elliptical mirror M-1B is the same as that of the virtual viewpoint 11. By applying the camera system 6-1B in the third embodiment to the image processing system 1A shown in FIG. 1, the position of the virtual viewpoint 11 set in the court 10 by the image processing system 1A can be flexibly changed. .

(第4の実施形態)
第4の実施形態におけるカメラシステムの構成例について説明する。図10に示した第3の実施形態におけるカメラシステム6−1Bの楕円鏡M−1Bの曲率は固定である。これに対して、第4の実施形態におけるカメラシステムは、楕円鏡の曲率を変更可能に構成したものである。これにより、楕円鏡の鏡面に基づく楕円の焦点の位置を変更することができる。そして、楕円鏡の焦点距離fを変更することで、凸レンズL−1a、L−1bの先にある仮想視点11の位置を変更することができる。
(Fourth embodiment)
A configuration example of the camera system in the fourth embodiment will be described. The curvature of the elliptical mirror M-1B of the camera system 6-1B in the third embodiment shown in FIG. 10 is fixed. On the other hand, the camera system in the fourth embodiment is configured so that the curvature of the elliptical mirror can be changed. Thereby, the position of the focal point of the ellipse based on the mirror surface of the elliptical mirror can be changed. And the position of the virtual viewpoint 11 ahead of the convex lenses L-1a and L-1b can be changed by changing the focal length f of the elliptical mirror.

図11は、第4の実施形態におけるカメラシステム6−1Baの構成例を示す図である。カメラシステム6−1Baは、カメラC−1a、焦点位置を変更可能な楕円鏡M−1Ba及び撮影方向を駆動する撮影方向駆動部84を備えるカメラ部85と、撮影方向駆動部84に対して撮影方向を制御する信号を出力するカメラ制御部86とを具備する。カメラC−1aは、駆動部83により図11に示す矢印方向(カメラC−1aの光軸方向)に位置を変更することができる。駆動部83は、楕円鏡M−1Baの焦点位置の変更に応じて、カメラC−1aの位置を変更する。   FIG. 11 is a diagram illustrating a configuration example of a camera system 6-1Ba according to the fourth embodiment. The camera system 6-1 Ba has a camera unit 85 including a camera C- 1 a, an elliptical mirror M- 1 Ba that can change the focal position, and a shooting direction driving unit 84 that drives the shooting direction, and shooting with respect to the shooting direction driving unit 84. And a camera control unit 86 that outputs a signal for controlling the direction. The position of the camera C-1a can be changed by the drive unit 83 in the arrow direction (the optical axis direction of the camera C-1a) shown in FIG. The drive unit 83 changes the position of the camera C-1a according to the change of the focal position of the elliptical mirror M-1Ba.

楕円鏡M−1Baは、平面鏡80−1〜80−5と、平面鏡80−1〜80−5のそれぞれに設けられ各平面鏡80−1〜80−5の角度及び位置を変更する鏡駆動部81−1〜81−5と、鏡駆動部81−1〜81−5に対して、平面鏡80−1〜80−5により第1の焦点(カメラシステム6−1Ba側の焦点)が所望の位置となる曲率の楕円を近似する配置となるよう制御信号を出力する鏡制御部82とを備える。楕円鏡M−1Baが近似する楕円の第1の焦点が変更されると、第2の焦点(凸レンズL−1aの焦点と重なっている焦点)までの距離も変更される。仮想視点11の位置で複数のカメラシステム6−1Ba〜6−mBaの凸レンズL−1bの焦点が重なるように、カメラ制御部86は、カメラ部85の撮影方向を制御する。   The elliptical mirror M-1Ba is provided in each of the plane mirrors 80-1 to 80-5 and the plane mirrors 80-1 to 80-5, and a mirror driving unit 81 that changes the angles and positions of the plane mirrors 80-1 to 80-5. -1 to 81-5 and the mirror driving units 81-1 to 81-5, the first focus (focus on the camera system 6-1Ba side) is set to a desired position by the plane mirrors 80-1 to 80-5. And a mirror control unit 82 that outputs a control signal so as to have an arrangement that approximates an ellipse having a certain curvature. When the first focal point of the ellipse approximated by the elliptical mirror M-1Ba is changed, the distance to the second focal point (the focal point overlapping the focal point of the convex lens L-1a) is also changed. The camera control unit 86 controls the shooting direction of the camera unit 85 so that the focal points of the convex lenses L-1b of the plurality of camera systems 6-1Ba to 6-mBa overlap at the position of the virtual viewpoint 11.

なお、カメラシステム6−1Baは、図1に示すようにコート10の周囲にm個配置されるものであり、m個のカメラシステム6−1Baの凸レンズL−1bの焦点は仮想視点11の位置に一致する。第4の実施形態におけるカメラシステム6−1Baを用いることで、カメラシステム6−1Baから仮想視点11までの距離を任意の距離に変更することができる。   As shown in FIG. 1, m camera systems 6-1Ba are arranged around the court 10, and the focus of the convex lens L-1b of the m camera systems 6-1Ba is the position of the virtual viewpoint 11. Matches. By using the camera system 6-1Ba in the fourth embodiment, the distance from the camera system 6-1Ba to the virtual viewpoint 11 can be changed to an arbitrary distance.

なお、カメラシステム6−1Baの楕円鏡M−1Baにおいて、鏡面の楕円への近似の精度を変更するため平面鏡80−1〜80−5の数を変えてもよい。平面鏡の数を増やして個々の平面鏡のサイズを小さくするほど、楕円への近似の精度が高くなる。   In the elliptical mirror M-1Ba of the camera system 6-1Ba, the number of plane mirrors 80-1 to 80-5 may be changed in order to change the accuracy of approximation of the mirror surface to the ellipse. The accuracy of approximation to an ellipse increases as the number of plane mirrors increases and the size of each plane mirror decreases.

上述した第1の実施形態の画像処理システム1Aは、仮想視点11に設置した全天球カメラ2で撮影した全天球画像を背景画像20としたが、仮想視点11に広角で撮影可能な広角カメラを設置して撮影した広角画像を背景画像20としてもよい。このような場合は、画像処理システム1Aは、広角画像である背景画像20に対して部分画像を合成することで仮想広角画像を生成する。ただし、仮想広角画像に写る範囲は、仮想全天球画像に比べて狭い範囲となる。   In the image processing system 1A of the first embodiment described above, the omnidirectional image captured by the omnidirectional camera 2 installed at the virtual viewpoint 11 is used as the background image 20, but the wide angle at which the virtual viewpoint 11 can be captured at a wide angle. A wide-angle image taken with a camera installed may be used as the background image 20. In such a case, the image processing system 1A generates a virtual wide-angle image by synthesizing the partial image with the background image 20 that is a wide-angle image. However, the range shown in the virtual wide-angle image is narrower than the virtual omnidirectional image.

上述した第1の実施形態の画像処理システム1Aは、全天球カメラ2を含む構成としたが、背景画像20となる全天球画像を得ることができる構成であれば、全天球カメラ2を含まない構成でもよい。上述した第1の実施形態の画像処理装置30は、入力画像格納部301と、背景画像格納部302とを備える構成としたが、これに限定されるものではない。入力画像格納部301及び背景画像格納部302を備える装置を別に設けて、画像処理装置30は、その装置から入力画像及び背景画像20を取得する構成でもよい。   The image processing system 1A according to the first embodiment described above includes the omnidirectional camera 2. However, any omnidirectional camera 2 may be used as long as the omnidirectional image that becomes the background image 20 can be obtained. The structure which does not contain may be sufficient. Although the image processing apparatus 30 according to the first embodiment described above includes the input image storage unit 301 and the background image storage unit 302, the present invention is not limited to this. A device including the input image storage unit 301 and the background image storage unit 302 may be provided separately, and the image processing device 30 may acquire the input image and the background image 20 from the devices.

上述した第1の実施形態における画像処理装置30が備える各機能部及び第4の実施形態におけるカメラシステム6−1aが備える鏡制御部82及びカメラ制御部86は、例えば、コンピュータで実現することができる。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、FPGA(Field Programmable Gate Array)等のプログラマブルロジックデバイスを用いて実現されるものであってもよい。   Each functional unit included in the image processing device 30 in the first embodiment described above and the mirror control unit 82 and the camera control unit 86 included in the camera system 6-1a in the fourth embodiment may be realized by a computer, for example. it can. In that case, a program for realizing this function may be recorded on a computer-readable recording medium, and the program recorded on this recording medium may be read into a computer system and executed. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory inside a computer system serving as a server or a client in that case may be included and a program held for a certain period of time. Further, the program may be a program for realizing a part of the above-described functions, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system. You may implement | achieve using programmable logic devices, such as FPGA (Field Programmable Gate Array).

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.

本発明の光学装置及び撮像システムは、サッカー等のスポーツの映像やコンサート、ライブなどの映像のように、様々な奥行きのオブジェクト(人など)がシーン内に存在する映像を仮想全天球映像として視聴者に視聴させるシステムを構築する場合に用いることができる。   The optical device and the imaging system of the present invention use, as a virtual celestial sphere image, an image in which objects (such as people) of various depths exist in a scene, such as an image of sports such as soccer, an image of concerts, and live performances. This can be used to construct a system that allows viewers to view.

1A…画像処理システム, 2…全天球カメラ, 6…カメラシステム群, 6−1〜6−m、6−1A、6−1B、6−1Ba…カメラシステム, 4、30…画像処理装置, 5…表示装置, 20…背景画像, 31…画像入力部, 32…画像合成部, 33…表示処理部, 80−1〜80−5…平面鏡, 81−1〜81−5…鏡駆動部, 82…鏡制御部, 83…駆動部, 84…撮影方向駆動部, 85…カメラ部, 86…カメラ制御部, 301…入力画像格納部, 302…背景画像格納部, 303…対応情報テーブル, C−1、C−2、C−3、C−1a…カメラ,L−1、L−2、L−3、L−1a、L−1b…凸レンズ, M−1、M−2、M−3、M−1a…放物面鏡(反射部), M−1B、M−1Ba…楕円鏡(反射部) DESCRIPTION OF SYMBOLS 1A ... Image processing system, 2 ... Spherical camera, 6 ... Camera system group, 6-1-6-m, 6-1A, 6-1B, 6-1Ba ... Camera system, 4, 30 ... Image processing apparatus, DESCRIPTION OF SYMBOLS 5 ... Display apparatus, 20 ... Background image, 31 ... Image input part, 32 ... Image composition part, 33 ... Display processing part, 80-1 to 80-5 ... Plane mirror, 81-1 to 81-5 ... Mirror drive part, 82 ... Mirror control unit, 83 ... Drive unit, 84 ... Shooting direction drive unit, 85 ... Camera unit, 86 ... Camera control unit, 301 ... Input image storage unit, 302 ... Background image storage unit, 303 ... Corresponding information table, C -1, C-2, C-3, C-1a ... Camera, L-1, L-2, L-3, L-1a, L-1b ... Convex lens, M-1, M-2, M-3 , M-1a ... parabolic mirror (reflecting part), M-1B, M-1Ba ... elliptical mirror ( Cum part)

Claims (8)

仮想的な視点である仮想視点において撮影したかのような仮想画像を、前記仮想視点以外の位置に設置した複数の撮像装置からの画像に基づいて作成する場合に用いられる光学装置であって、
前記仮想視点の位置を焦点とする凸レンズと、
前記複数の撮像装置のうち自装置に対応する1つの撮像装置の光学中心の位置を焦点とする楕円又は放物面に沿った形状の鏡面を有し、前記凸レンズを介して前記仮想視点から入射される光線を前記鏡面によって反射して自装置に対応する前記撮像装置へ入射させる反射部と、
を備え
前記仮想視点の位置を中心とする球面上に配置される前記複数の撮像装置のそれぞれに1つずつ設けられる、
光学装置。
An optical device used when creating a virtual image as if taken at a virtual viewpoint, which is a virtual viewpoint, based on images from a plurality of imaging devices installed at positions other than the virtual viewpoint,
A convex lens focusing on the position of the virtual viewpoint;
Have a mirror surface of said plurality of shape along the elliptical or parabolic and the focal position of the optical center of one imaging device corresponding to the own device in the imaging device, incident from the virtual viewpoint through said convex lens A reflecting portion that reflects the reflected light beam by the mirror surface and enters the imaging device corresponding to the device itself ;
Equipped with a,
One is provided for each of the plurality of imaging devices arranged on a spherical surface centered on the position of the virtual viewpoint.
Optical device.
前記反射部の前記鏡面は、前記撮像装置の画角に応じた大きさである請求項1に記載の光学装置。   The optical device according to claim 1, wherein the mirror surface of the reflection unit has a size corresponding to an angle of view of the imaging device. 前記楕円に沿った前記鏡面は、複数の平面鏡により構成される請求項1又は請求項2に記載の光学装置。   The optical device according to claim 1, wherein the mirror surface along the ellipse includes a plurality of plane mirrors. 前記複数の平面鏡の角度及び位置を調整する鏡駆動部と、
任意の曲率の楕円の円周を近似する鏡面を形成するように前記複数の平面鏡の角度及び位置を調整するよう前記鏡駆動部を制御する鏡制御部と、
をさらに備える請求項3に記載の光学装置。
A mirror driver for adjusting the angle and position of the plurality of plane mirrors;
A mirror control unit that controls the mirror driving unit to adjust the angle and position of the plurality of plane mirrors so as to form a mirror surface that approximates the circumference of an ellipse of an arbitrary curvature;
The optical device according to claim 3, further comprising:
仮想的な視点である仮想視点において撮影したかのような仮想画像を、前記仮想視点以外の位置に設置した撮像装置からの画像に基づいて作成する場合に用いられる光学装置であって、An optical device used when creating a virtual image as if taken at a virtual viewpoint, which is a virtual viewpoint, based on an image from an imaging device installed at a position other than the virtual viewpoint,
前記仮想視点の位置を焦点とする凸レンズと、A convex lens focusing on the position of the virtual viewpoint;
複数の平面鏡により構成される鏡面であって、前記撮像装置の光学中心の位置を焦点とする楕円又は放物面に沿った形状の鏡面を有し、前記凸レンズから入射される光線を前記撮像装置へ反射する反射部と、A mirror surface composed of a plurality of plane mirrors, having a mirror surface with a shape along an ellipse or a paraboloid focusing on the position of the optical center of the imaging device, and incident light from the convex lens to the imaging device A reflective part that reflects to
前記複数の平面鏡の角度及び位置を調整する鏡駆動部と、A mirror driver for adjusting the angle and position of the plurality of plane mirrors;
任意の曲率の楕円の円周を近似する鏡面を形成するように前記複数の平面鏡の角度及び位置を調整するよう前記鏡駆動部を制御する鏡制御部と、A mirror control unit that controls the mirror driving unit to adjust the angle and position of the plurality of plane mirrors so as to form a mirror surface that approximates the circumference of an ellipse of an arbitrary curvature;
を備える光学装置。An optical device comprising:
請求項1からのいずれか一項に記載の光学装置と、
前記撮像装置と、
を備える撮像システム。
An optical device according to any one of claims 1 to 5 ,
The imaging device;
An imaging system comprising:
請求項4又は5に記載の光学装置と、
前記撮像装置と、
前記鏡制御部からの制御に応じて前記複数の平面鏡が任意の曲率の楕円の円周を近似する鏡面を形成した場合に、前記楕円の第2の焦点に前記撮像装置の光学中心が位置するように前記撮像装置の位置を調整する駆動部と、
を備える撮像システム。
An optical device according to claim 4 or 5 ,
The imaging device;
When the plurality of plane mirrors form a mirror surface that approximates the circumference of an ellipse having an arbitrary curvature in accordance with control from the mirror control unit, the optical center of the imaging device is located at the second focal point of the ellipse. A drive unit for adjusting the position of the imaging device,
An imaging system comprising:
前記撮像装置及び前記光学装置による撮影方向を調整する方向駆動部と、
前記楕円の第1の焦点が前記仮想視点に位置するように前記方向駆動部を制御する方向制御部と、
をさらに備える請求項に記載の撮像システム。
A direction driving unit that adjusts a photographing direction by the imaging device and the optical device;
A direction control unit that controls the direction driving unit so that the first focal point of the ellipse is located at the virtual viewpoint;
The imaging system according to claim 7 , further comprising:
JP2015235175A 2015-12-01 2015-12-01 Optical apparatus and imaging system Active JP6392737B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015235175A JP6392737B2 (en) 2015-12-01 2015-12-01 Optical apparatus and imaging system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015235175A JP6392737B2 (en) 2015-12-01 2015-12-01 Optical apparatus and imaging system

Publications (2)

Publication Number Publication Date
JP2017103612A JP2017103612A (en) 2017-06-08
JP6392737B2 true JP6392737B2 (en) 2018-09-19

Family

ID=59017596

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015235175A Active JP6392737B2 (en) 2015-12-01 2015-12-01 Optical apparatus and imaging system

Country Status (1)

Country Link
JP (1) JP6392737B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0965247A (en) * 1995-08-22 1997-03-07 Olympus Optical Co Ltd Image display device
JP3847927B2 (en) * 1997-11-18 2006-11-22 キヤノン株式会社 Arc tube and light source device using the same
JP2006011103A (en) * 2004-06-28 2006-01-12 Yokogawa Electric Corp Spherical mirror imaging apparatus
JP2010019924A (en) * 2008-07-08 2010-01-28 Alpine Electronics Inc Photographing apparatus

Also Published As

Publication number Publication date
JP2017103612A (en) 2017-06-08

Similar Documents

Publication Publication Date Title
US11176707B2 (en) Calibration apparatus and calibration method
US9838668B2 (en) Systems and methods for transferring a clip of video data to a user facility
CN106797460B (en) The reconstruction of 3 D video
US10425638B2 (en) Equipment and method for promptly performing calibration and verification of intrinsic and extrinsic parameters of a plurality of image capturing elements installed on electronic device
US11721040B2 (en) Imaging system, calibration method, and calibrator
US20200034989A1 (en) Imaging system, calibration method, and calibrator
US8102395B2 (en) Display apparatus, image processing apparatus and image processing method, imaging apparatus, and program
JP6496093B1 (en) Exposure control of 3D 360 degree virtual reality camera
WO2017086263A1 (en) Image processing device and image generation method
US11756279B1 (en) Techniques for depth of field blur for immersive content production systems
CN107439002B (en) Depth imaging
WO2019039378A1 (en) Information processing device and image display method
CN108600729B (en) Dynamic 3D model generation device and image generation method
CN105898139A (en) Panoramic video production method and device and panoramic video play method and device
CN105812640A (en) Spherical omni-directional camera device and video image transmission method thereof
JP6392737B2 (en) Optical apparatus and imaging system
CN108737808B (en) 3D model generation device and method
JP6392736B2 (en) Optical apparatus and imaging system
CN108513122B (en) Model adjusting method and model generating device based on 3D imaging technology
US11137582B2 (en) Omnidirectional catadioptric lens with odd aspheric contour or multi-lens
US11792511B2 (en) Camera system utilizing auxiliary image sensors
CN107003601B (en) Omnidirection refracting-reflecting lens structure
Routhier Virtually perfect: Factors affecting the quality of a VR experience and the need for a VR content quality standard
TW202036369A (en) Image processing apparatus and method thereof
EP3229070B1 (en) Three-dimensional, 360-degree virtual reality camera exposure control

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170801

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180703

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180821

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180823

R150 Certificate of patent or registration of utility model

Ref document number: 6392737

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150