JP6016662B2 - Image composition apparatus and image composition method - Google Patents

Image composition apparatus and image composition method Download PDF

Info

Publication number
JP6016662B2
JP6016662B2 JP2013025608A JP2013025608A JP6016662B2 JP 6016662 B2 JP6016662 B2 JP 6016662B2 JP 2013025608 A JP2013025608 A JP 2013025608A JP 2013025608 A JP2013025608 A JP 2013025608A JP 6016662 B2 JP6016662 B2 JP 6016662B2
Authority
JP
Japan
Prior art keywords
parameter set
degree
line
coincidence
reference directions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013025608A
Other languages
Japanese (ja)
Other versions
JP2014155168A (en
Inventor
勇一郎 村地
勇一郎 村地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2013025608A priority Critical patent/JP6016662B2/en
Publication of JP2014155168A publication Critical patent/JP2014155168A/en
Application granted granted Critical
Publication of JP6016662B2 publication Critical patent/JP6016662B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

この発明は、複数のカメラにより撮影された画像を合成して、所望の方向におけるパノラマ画像を生成する画像合成装置及び画像合成方法に関するものである。   The present invention relates to an image synthesizing apparatus and an image synthesizing method for synthesizing images taken by a plurality of cameras and generating a panoramic image in a desired direction.

画像合成装置によるパノラマ画像の生成処理は、複数のカメラにより撮影されたカメラ画像を重ね合せて、単一の画像を生成する処理である。
また、パノラマ画像の生成処理は、通常のカメラでは撮影することができない画角の画像や、自由な視点からの画像を生成するための技術であり、運転操縦支援、監視、娯楽などの幅広い分野で用いられている。
The panoramic image generation processing by the image composition device is processing for generating a single image by superimposing camera images taken by a plurality of cameras.
In addition, panoramic image generation processing is a technology for generating images with an angle of view that cannot be taken with a normal camera and images from a free viewpoint. It is used in.

図8は航空機の運転操縦支援におけるパノラマ画像の生成例を示す説明図である。
図8の例では、航空機の機体の周囲に6個のカメラが取り付けられており、6個のカメラの画像を合成して、所望の方向(以下、「視線方向」と称する)のパノラマ画像を生成して表示機器に出力している。
なお、視線方向は、必ずしも誰かの視線の方向と一致する必要はない。例えば、搭乗者が見たい任意の方向でもよいし、固定方向であってもよい。もちろん、誰かの視線方向と一致するものであってもよい。
FIG. 8 is an explanatory diagram showing an example of generating a panoramic image in aircraft driving support.
In the example of FIG. 8, six cameras are attached around the aircraft body, and images of the six cameras are combined to form a panoramic image in a desired direction (hereinafter referred to as “line-of-sight direction”). Generated and output to the display device.
Note that the line-of-sight direction does not necessarily coincide with the direction of someone's line of sight. For example, any direction that the passenger wants to see may be used, or a fixed direction may be used. Of course, it may coincide with someone's line of sight.

パノラマ画像の生成処理では、カメラ画像を平面・曲面などの様々な形状の仮想投影面に投影し、その仮想投影面の中から視線方向の表示面に対応する部分を切り出すことでパノラマ画像を生成する。
図9はパノラマ画像の生成処理を示す概念図である。
In the panorama image generation process, a camera image is projected onto a virtual projection surface of various shapes such as a plane and a curved surface, and a panorama image is generated by cutting out the part corresponding to the display surface in the viewing direction from the virtual projection surface To do.
FIG. 9 is a conceptual diagram showing panoramic image generation processing.

仮想投影面を用いるパノラマ画像の生成処理には、多様なアルゴリズムが存在する。
最も単純なアルゴリズムでは、カメラの撮像面から仮想投影面にカメラ画像を射影変換することで、一旦、全てのカメラ画像を合成し、その合成画像の一部を視線方向の平面に射影変換すれば、視線方向のパノラマ画像を得ることが可能である。
なお、レイトレーシング手法を用いれば、視線方向の画像だけを逆算して求めることができるため、より少ない演算量・メモリ容量で、視線方向のパノラマ画像を得ることが可能である。
Various algorithms exist for panoramic image generation processing using a virtual projection plane.
The simplest algorithm is to project all the camera images by projective transformation of the camera image from the camera imaging plane to the virtual projection plane, and projectively transform a part of the synthesized image to the plane of the line of sight. A panoramic image in the line-of-sight direction can be obtained.
If the ray tracing method is used, only the image in the line-of-sight direction can be obtained by back calculation, so that a panoramic image in the line-of-sight direction can be obtained with a smaller amount of calculation and memory capacity.

ここで、カメラ画像から投影面上の画像を生成する際(あるいは、レイトレーシング法で、投影面からカメラへの逆算を行う際)には、カメラ−投影面間の相対位置関係(以下、「カメラ相対位置」と称する)から演算式の係数が決定される。
従来のパノラマ画像の生成処理では、カメラ相対位置が、仮想投影面と実際のカメラの向きの関係にできる限り一致するように一意に設定され、視線方向が変化しても一定の値をとるようにしている。
Here, when generating an image on the projection surface from the camera image (or when performing reverse calculation from the projection surface to the camera by the ray tracing method), the relative positional relationship between the camera and the projection surface (hereinafter, “ The coefficient of the arithmetic expression is determined from “camera relative position”.
In conventional panoramic image generation processing, the camera relative position is uniquely set to match the relationship between the virtual projection plane and the actual camera orientation as much as possible, and takes a constant value even if the line-of-sight direction changes. I have to.

パノラマ画像の生成処理では、カメラ固有の歪みが存在するため、生成したパノラマ画像の継ぎ目には不連続性(不自然さ)が発生する。
例を挙げると、パノラマ画像の粗さ・明るさなどが均一でなかったり、パノラマ画像の一部で単一の物体が複数に見えたり、直線が曲がって見えたりする。
カメラ画像に対して歪み補正を行っても、この不自然さを完全に解消するのは困難である。
即ち、全てのカメラの画像全体に対して全く歪みがなく、補正結果の画角も、現実と完全に一致するような理想的な歪み補正を行わない限りは、例えば、A部分の継ぎを合わせるとB部分の継ぎ目がずれ、B部分の継ぎを合わせるとA部分の継ぎ目がずれるなどの現象が発生して、投影面上の複数の箇所で不自然な継ぎ目ができてしまうことがある。
特に、カメラの個数が多い場合や、撮影対象の周囲を4個のカメラで囲む場合などは、同時に位置合わせしなければならない継ぎ目が増えてしまうため、上記の現象が顕著に発生する。
In the panorama image generation process, camera-specific distortion exists, so discontinuity (unnaturalness) occurs at the seam of the generated panorama image.
For example, the roughness or brightness of the panoramic image is not uniform, a single object appears to be plural in a part of the panoramic image, or a straight line appears to be bent.
Even if distortion correction is performed on the camera image, it is difficult to completely eliminate this unnaturalness.
That is, there is no distortion in the entire image of all the cameras, and the joint of the A portion is matched, for example, unless ideal distortion correction is performed so that the angle of view of the correction result completely matches the reality. When the joints of the B part are shifted and the joints of the B part are combined, a phenomenon such as the seam of the A part shifting may occur, and unnatural seams may be formed at a plurality of locations on the projection surface.
In particular, when the number of cameras is large, or when the periphery of an object to be imaged is surrounded by four cameras, the number of joints that must be aligned at the same time increases, and thus the above phenomenon occurs remarkably.

以下の特許文献1には、複数のカメラ画像の重ね合わせの良否を判定し、重ね合せが不良な箇所があれば、カメラのパン角・チルト角・ズーム率を調整することで、画像の継ぎ目に発生する不自然さを解消して、好適なパノラマ画像を生成する画像合成装置が開示されている。   In Patent Document 1 below, whether or not a plurality of camera images are superposed is determined, and if there is a poorly superposed portion, the panning / tilt angle / zoom rate of the camera is adjusted to adjust the seam of the images. An image synthesizing apparatus that generates a suitable panoramic image by eliminating the unnaturalness that occurs in the system is disclosed.

特開2001−036898号公報(段落番号[0007])JP 2001-036898 A (paragraph number [0007])

従来の画像合成装置は以上のように構成されているので、カメラのパン角・チルト角・ズーム率を調整すれば、重ね合せが不良な箇所を補正することができる。しかし、カメラのパン角・チルト角・ズーム率を調整するには、カメラを制御する制御信号をカメラにフィードバックする機構を追加する必要があるため、部品・コストが増加してしまう課題があった。
また、フィードバック信号をカメラに出力する機構は、機械を介するフィードバックループであるため、常に視線方向が移動するリアルタイム性が高い機器への応用が困難である課題があった。
Since the conventional image synthesizing apparatus is configured as described above, it is possible to correct a poorly superimposed portion by adjusting the pan angle / tilt angle / zoom rate of the camera. However, in order to adjust the pan angle, tilt angle, and zoom ratio of the camera, it is necessary to add a mechanism that feeds back a control signal for controlling the camera to the camera. .
Further, since the mechanism for outputting the feedback signal to the camera is a feedback loop through the machine, there is a problem that it is difficult to apply to a device with high real-time characteristics in which the line-of-sight direction always moves.

この発明は上記のような課題を解決するためになされたもので、カメラを制御するための機構を追加することなく、視線方向が移動しても、パノラマ画像の継ぎ目の不連続性をリアルタイムに改善することができる画像合成装置及び画像合成方法を得ることを目的とする。   The present invention has been made to solve the above-mentioned problems. Even if the line-of-sight direction moves without adding a mechanism for controlling the camera, the discontinuity of the seam of the panoramic image is realized in real time. It is an object of the present invention to obtain an image composition apparatus and an image composition method that can be improved.

この発明に係る画像合成装置は、複数のカメラにより投影される投影面の各位置に対する視点からの方向である基準方向毎に、当該基準方向における各カメラの投影面間の相対位置関係を示すパラメータセットを記憶しているパラメータセット記憶手段と、視線方向に対する複数の基準方向の一致度を算出する一致度算出手段と、一致度算出手段により算出された複数の基準方向の一致度にしたがって、パラメータセット記憶手段により記憶されている複数の基準方向に対応するパラメータセットからパノラマ画像の生成に用いるパラメータセットを生成するパラメータセット生成手段とを設け、パノラマ画像生成手段が、パラメータセット生成手段により生成されたパラメータセットを用いて、複数のカメラの画像を合成して、視線方向におけるパノラマ画像を生成するようにしたものである。   The image composition device according to the present invention provides a parameter indicating a relative positional relationship between the projection planes of each camera in the reference direction for each reference direction that is a direction from the viewpoint with respect to each position of the projection planes projected by a plurality of cameras. Parameter set storage means for storing the set, coincidence degree calculating means for calculating the coincidence degree of the plurality of reference directions with respect to the line-of-sight direction, and the parameters according to the coincidence degrees of the plurality of reference directions calculated by the coincidence degree calculating means Parameter set generating means for generating a parameter set used for generating a panoramic image from parameter sets corresponding to a plurality of reference directions stored in the set storage means, and the panorama image generating means is generated by the parameter set generating means. Combine the images from multiple cameras using Kicking is obtained so as to generate a panoramic image.

この発明によれば、視線方向に対する複数の基準方向の一致度を算出する一致度算出手段と、一致度算出手段により算出された複数の基準方向の一致度にしたがって、パラメータセット記憶手段により記憶されている複数の基準方向に対応するパラメータセットからパノラマ画像の生成に用いるパラメータセットを生成するパラメータセット生成手段とを設け、パノラマ画像生成手段が、パラメータセット生成手段により生成されたパラメータセットを用いて、複数のカメラの画像を合成して、視線方向におけるパノラマ画像を生成するように構成したので、カメラを制御するための機構を追加することなく、視線方向が移動しても、パノラマ画像の継ぎ目の不連続性をリアルタイムに改善することができる効果がある。   According to the present invention, the degree-of-matching calculating means for calculating the degree of matching of the plurality of reference directions with respect to the line-of-sight direction, and the parameter set storage means store the matching degrees according to the degree of matching of the plurality of reference directions calculated by the matching degree calculating means. Parameter set generating means for generating a parameter set used for generating a panoramic image from parameter sets corresponding to a plurality of reference directions, and the panoramic image generating means uses the parameter set generated by the parameter set generating means. Since the panoramic image in the line-of-sight direction is generated by combining the images of the plurality of cameras, the seam of the panoramic image can be moved even if the line-of-sight direction moves without adding a mechanism for controlling the camera. This has the effect of improving discontinuity in real time.

この発明の実施の形態1による画像合成装置を示す構成図である。It is a block diagram which shows the image synthesizing | combining apparatus by Embodiment 1 of this invention. この発明の実施の形態1による画像合成装置の処理内容(画像合成方法)を示すフローチャートである。It is a flowchart which shows the processing content (image composition method) of the image composition apparatus by Embodiment 1 of this invention. 3個のカメラを使用してパノラマ画像を合成する際に設定された4つの基準方向a〜dに対応するパラメータセットa〜dの一例を示す説明図である。It is explanatory drawing which shows an example of parameter set ad corresponding to four reference directions ad set when combining a panoramic image using three cameras. 4つの基準方向a〜dと視線方向の一例を示す説明図である。It is explanatory drawing which shows an example of four reference directions ad and a gaze direction. 加重平均によるパラメータセットの生成例を示す説明図である。It is explanatory drawing which shows the example of the production | generation of the parameter set by a weighted average. レイトレーシング法による画素位置の算出処理を示す概念図である。It is a conceptual diagram which shows the calculation process of the pixel position by a ray tracing method. 一定間隔毎に基準方向を設定する場合の一例を示す説明図である。It is explanatory drawing which shows an example in the case of setting a reference direction for every fixed interval. 航空機の運転操縦支援におけるパノラマ画像の生成例を示す説明図である。It is explanatory drawing which shows the example of a production | generation of the panoramic image in the driving | operation control assistance of an aircraft. パノラマ画像の生成処理を示す概念図である。It is a conceptual diagram which shows the production | generation process of a panoramic image.

実施の形態1.
図1はこの発明の実施の形態1による画像合成装置を示す構成図である。
図1において、パラメータセット記憶部1は例えばRAMやハードディスクなどの記憶装置から構成されており、N台(Nは2以上の整数)のカメラにより投影される投影面の各位置に対する視点からの方向である基準方向毎に、当該基準方向における各カメラの投影面間の相対位置関係を示すパラメータセットを記憶している。なお、パラメータセット記憶部1はパラメータセット記憶手段を構成している。
Embodiment 1 FIG.
FIG. 1 is a block diagram showing an image composition apparatus according to Embodiment 1 of the present invention.
In FIG. 1, a parameter set storage unit 1 is composed of a storage device such as a RAM or a hard disk, for example, and the direction from the viewpoint for each position of the projection plane projected by N cameras (N is an integer of 2 or more). For each reference direction, a parameter set indicating the relative positional relationship between the projection planes of the cameras in the reference direction is stored. The parameter set storage unit 1 constitutes parameter set storage means.

一致度算出部2は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、視線方向に対する複数の基準方向の一致度を算出する処理を実施する。なお、一致度算出部2は一致度算出手段を構成している。
パラメータセット生成部3は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、一致度算出部2により算出された複数の基準方向の一致度にしたがって、パラメータセット記憶部1により記憶されている複数の基準方向に対応するパラメータセットからパノラマ画像の生成に用いるパラメータセットを生成する処理を実施する。なお、パラメータセット生成部3はパラメータセット生成手段を構成している。
The coincidence degree calculation unit 2 is constituted by, for example, a semiconductor integrated circuit on which a CPU is mounted, a one-chip microcomputer, or the like, and performs a process of calculating the coincidence degree of a plurality of reference directions with respect to the line-of-sight direction. The coincidence calculation unit 2 constitutes a coincidence calculation unit.
The parameter set generation unit 3 is composed of, for example, a semiconductor integrated circuit on which a CPU is mounted, or a one-chip microcomputer. The parameter set generation unit 3 is configured according to the degree of coincidence in a plurality of reference directions calculated by the degree of coincidence calculation unit 2. A process of generating a parameter set used for generating a panoramic image from a parameter set corresponding to a plurality of reference directions stored in the storage unit 1 is performed. The parameter set generation unit 3 constitutes parameter set generation means.

パノラマ画像生成部4は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、パラメータセット生成部3により生成されたパラメータセットを用いて、N台のカメラの画像を合成して、視線方向におけるパノラマ画像を生成する処理を実施する。なお、パノラマ画像生成部4はパノラマ画像生成手段を構成している。   The panorama image generation unit 4 is composed of, for example, a semiconductor integrated circuit on which a CPU is mounted, a one-chip microcomputer, or the like, and uses the parameter set generated by the parameter set generation unit 3, and images of N cameras. To generate a panoramic image in the line-of-sight direction. The panorama image generation unit 4 constitutes a panorama image generation unit.

図1の例では、画像合成装置の構成要素であるパラメータセット記憶部1、一致度算出部2、パラメータセット生成部3及びパノラマ画像生成部4のそれぞれが専用のハードウェアで構成されているものを想定しているが、画像合成装置がコンピュータで構成されていてもよい。
画像合成装置がコンピュータで構成されている場合、パラメータセット記憶部1をコンピュータのメモリ上に構成するとともに、一致度算出部2、パラメータセット生成部3及びパノラマ画像生成部4の処理内容を記述しているプログラムをコンピュータのメモリに格納し、当該コンピュータのCPUが当該メモリに格納されているプログラムを実行するようにすればよい。
図2はこの発明の実施の形態1による画像合成装置の処理内容(画像合成方法)を示すフローチャートである。
In the example of FIG. 1, each of the parameter set storage unit 1, the coincidence calculation unit 2, the parameter set generation unit 3, and the panorama image generation unit 4 that is a component of the image composition device is configured by dedicated hardware. However, the image composition device may be configured by a computer.
When the image synthesizing apparatus is configured by a computer, the parameter set storage unit 1 is configured on the memory of the computer, and the processing contents of the coincidence calculation unit 2, the parameter set generation unit 3 and the panoramic image generation unit 4 are described. May be stored in the memory of the computer, and the CPU of the computer may execute the program stored in the memory.
FIG. 2 is a flowchart showing the processing contents (image composition method) of the image composition apparatus according to Embodiment 1 of the present invention.

次に動作について説明する。
パラメータセット記憶部1には、予め、外部から複数のパラメータセットが設定される。
パラメータセットは、N台(Nは2以上の整数)のカメラにより投影される投影面の各位置に対する視点からの方向である基準方向毎に、当該基準方向における各カメラの投影面間の相対位置関係(投影面に対するN台のカメラの相対位置・角度など)を示すものである。
即ち、パラメータセットは、N台のカメラの画像を合成してパノラマ画像を生成する際、そのパノラマ画像の視線方向が、ある基準方向と一致するとき、N台のカメラの画像をどのように重ね合せれば、好適なパノラマ画像が得られるかを示すものである。
このため、パラメータセットの設定においては、各々の基準方向毎に、当該基準方向におけるN台のカメラの投影面間の相対位置関係を事前に調査して設定する。
Next, the operation will be described.
In the parameter set storage unit 1, a plurality of parameter sets are set in advance from the outside.
The parameter set is a relative position between the projection planes of each camera in the reference direction for each reference direction that is a direction from the viewpoint with respect to each position of the projection plane projected by N cameras (N is an integer of 2 or more). This shows the relationship (relative positions and angles of N cameras with respect to the projection plane).
That is, when the panoramic image is generated by synthesizing the images of the N cameras, the parameter set indicates how to superimpose the images of the N cameras when the viewing direction of the panoramic image matches a certain reference direction. Together, it indicates whether a suitable panoramic image can be obtained.
For this reason, in setting the parameter set, for each reference direction, the relative positional relationship between the projection planes of the N cameras in the reference direction is set by investigating in advance.

図3は3個のカメラを使用してパノラマ画像を合成する際に設定された4つの基準方向a〜dに対応するパラメータセットa〜dの一例を示す説明図である。
ここでは、カメラの台数が3台、基準方向の数が4方向である例を示しているが、これは一例に過ぎない。したがって、カメラの台数は2台以上、基準方向の数は2方向以上であれば、どんな数でもよい。
パラメータセットの設定においては、基準方向周辺の継ぎ目が特に重要である。即ち、基準方向から外れている領域はあまり重要ではなく、基準方向周辺が自然に見え、かつ、見えるべき方向が見えるようにカメラ(1)〜(3)の位置・角度を設定する。
FIG. 3 is an explanatory diagram showing an example of parameter sets a to d corresponding to the four reference directions a to d set when a panoramic image is synthesized using three cameras.
Here, an example in which the number of cameras is three and the number of reference directions is four is shown, but this is only an example. Accordingly, any number of cameras may be used as long as the number of cameras is two or more and the number of reference directions is two or more.
In setting the parameter set, the seam around the reference direction is particularly important. That is, the region deviating from the reference direction is not so important, and the positions and angles of the cameras (1) to (3) are set so that the periphery of the reference direction can be seen naturally and the direction to be seen can be seen.

ただし、基準方向は、カメラの投影面に対する基準の方向が一意に定まるものであれば、どのような座標形式で与えられてもよい。例えば、基準方向は直交座標で与えられてもよいし、極座標などで与えられてもよい。
座標変換の演算量を低減する必要があれば、視線方向と同一の座標形式で与えられることが望ましいが、必ずしもその限りではない。座標形式については、各カメラの相対位置についても同様のことが言える。
However, the reference direction may be given in any coordinate format as long as the reference direction with respect to the projection plane of the camera is uniquely determined. For example, the reference direction may be given by orthogonal coordinates or may be given by polar coordinates.
If it is necessary to reduce the amount of calculation for coordinate transformation, it is desirable that the coordinate format is the same as that of the line-of-sight direction, but this is not necessarily the case. The same can be said for the relative position of each camera.

パラメータセットの数は上述したように任意である。パラメータセットの数を増やせば継ぎ目の自然さが大きく向上するが演算量は増加する。一方、パラメータセットを減らせば継ぎ目の自然さが低下するが演算量は抑えられる。
複数の基準方向に対するパラメータセットがパラメータセット記憶部1に設定されたのち、視線方向が外部から与えられる。
視線方向は、どのような座標形式で与えられてもよいが、上述したように、演算量を低減する必要があれば、基準方向と同一の座標形式で与えられることが望ましいが、必ずしもその限りではない。
The number of parameter sets is arbitrary as described above. Increasing the number of parameter sets greatly improves the naturalness of the seam, but increases the amount of computation. On the other hand, if the parameter set is reduced, the naturalness of the seam is reduced, but the calculation amount is suppressed.
After parameter sets for a plurality of reference directions are set in the parameter set storage unit 1, the line-of-sight direction is given from the outside.
The line-of-sight direction may be given in any coordinate format, but as described above, if it is necessary to reduce the amount of calculation, it is desirable to give it in the same coordinate format as the reference direction. is not.

一致度算出部2は、外部から視線方向が与えられると、パラメータセット記憶部1により記憶されているパラメータセットa〜dに対応する4つの基準方向a〜dと、その視線方向との一致度を算出する(図2のステップST1)。
ここで、図4は4つの基準方向a〜dと視線方向の一例を示す説明図である。
図4の例では、視線方向が基準方向bの近辺を指しているため、視線方向は、4つの基準方向a〜dの中で、基準方向bと最も良く一致しており、次に良く一致しているのが基準方向cである。
なお、視線方向と基準方向の一致度は、視線方向のベクトルと基準方向のベクトルとの内積を算出することで求めることでできる。内積の値が大きいほど、一致度が高いことを表している。
When the line-of-sight direction is given from the outside, the degree-of-match calculation unit 2 matches the four reference directions a to d corresponding to the parameter sets a to d stored in the parameter set storage unit 1 and the line-of-sight direction. Is calculated (step ST1 in FIG. 2).
Here, FIG. 4 is an explanatory diagram illustrating an example of four reference directions a to d and a line-of-sight direction.
In the example of FIG. 4, since the line-of-sight direction points to the vicinity of the reference direction b, the line-of-sight direction best matches the reference direction b among the four reference directions a to d. What is done is the reference direction c.
The degree of coincidence between the line-of-sight direction and the reference direction can be obtained by calculating the inner product of the vector in the line-of-sight direction and the vector in the reference direction. The larger the inner product value, the higher the matching degree.

視線方向に対する基準方向の一致度の算出は、パラメータセット記憶部1により記憶されている全てのパラメータセットの基準方向に対して実施するようにしてもよいし、一部のパラメータセットの基準方向に対してだけ実施するようにしてもよい。
各々の基準方向の間に規則性がない場合には、どの基準方向に対する視線方向の一致度が高くなるかの予想がつかないため、全ての基準方向に対して一致度の算出を行うしかないが、例えば、視線方向及び基準方向の座標形式として極座標を使用し、一定間隔毎に基準方向を設定しておけば、視線方向の極座標から近似値の大きい基準方向の候補を簡単に予測することが可能である。
この場合には、近似度の高い基準方向の候補の周囲の基準方向に対してだけ一致度の算出を行うことで、演算量を低減することが可能である。
The calculation of the degree of coincidence of the reference direction with respect to the line-of-sight direction may be performed with respect to the reference directions of all parameter sets stored in the parameter set storage unit 1 or may be performed in the reference directions of some parameter sets. You may make it implement only with respect to it.
If there is no regularity between each reference direction, it is impossible to predict which match direction of the line-of-sight direction will be high, so there is no choice but to calculate the coincidence for all reference directions. For example, if polar coordinates are used as the coordinate format of the line-of-sight direction and the reference direction, and a reference direction is set at regular intervals, a candidate for a reference direction having a large approximate value can be easily predicted from the polar coordinates of the line-of-sight direction. Is possible.
In this case, it is possible to reduce the amount of calculation by calculating the degree of coincidence only with respect to the reference direction around the reference direction candidate having a high degree of approximation.

パラメータセット生成部3は、一致度算出部2が視線方向に対する基準方向a〜dの一致度を算出すると、基準方向a〜dの一致度にしたがって、パラメータセット記憶部1により記憶されている基準方向a〜dに対応するパラメータセットからパノラマ画像の生成に用いるパラメータセットを生成する。
以下、パノラマ画像の生成に用いるパラメータセットの生成処理を具体的に説明する。
When the coincidence calculation unit 2 calculates the coincidence of the reference directions a to d with respect to the line-of-sight direction, the parameter set generation unit 3 stores the reference stored in the parameter set storage unit 1 according to the coincidence of the reference directions a to d. A parameter set used for generating a panoramic image is generated from parameter sets corresponding to the directions a to d.
Hereinafter, a process for generating a parameter set used for generating a panoramic image will be specifically described.

まず、パラメータセット生成部3は、一致度算出部2により算出された基準方向a〜dの一致度に基づいて、基準方向a〜dに対応するパラメータセットa〜dの重み係数を設定する(ステップST2)。
基準方向a〜dに対応するパラメータセットa〜dの重み係数として、当該基準方向の一致度が高い程、大きな重み係数を設定する。
パラメータセット生成部3は、基準方向a〜dに対応するパラメータセットa〜dの重み係数a〜dを設定すると、その重み係数a〜dを用いて、基準方向a〜dに対応するパラメータセットa〜dの加重平均を算出し、加重平均後のパラメータセットをパノラマ画像の生成に用いるパラメータセットとして、パノラマ画像生成部4に出力する(ステップST3)。
図4の例では、基準方向b,cの一致度が高いので、パノラマ画像の生成に用いるパラメータセットは、基準方向b,cに対応するパラメータセットb,cが大きく反映されたパラメータセットになる。
図5は加重平均によるパラメータセットの生成例を示す説明図である。
First, the parameter set generation unit 3 sets the weighting factors of the parameter sets a to d corresponding to the reference directions a to d based on the matching degrees of the reference directions a to d calculated by the matching degree calculation unit 2 ( Step ST2).
As the weight coefficient of the parameter sets a to d corresponding to the reference directions a to d, a larger weight coefficient is set as the matching degree in the reference direction is higher.
When the parameter set generation unit 3 sets the weight coefficients a to d of the parameter sets a to d corresponding to the reference directions a to d, the parameter set corresponding to the reference directions a to d is used using the weight coefficients a to d. The weighted average of a to d is calculated, and the parameter set after the weighted average is output to the panoramic image generation unit 4 as a parameter set used for generating a panoramic image (step ST3).
In the example of FIG. 4, since the degree of coincidence between the reference directions b and c is high, the parameter set used for generating the panoramic image is a parameter set that largely reflects the parameter sets b and c corresponding to the reference directions b and c. .
FIG. 5 is an explanatory diagram showing an example of generating a parameter set by weighted averaging.

ここでは、パラメータセット記憶部1により記憶されている全てのパラメータセットa〜dの加重平均を算出する例を示しているが、一致度が所定の閾値より高い基準方向に対応するパラメータセットだけの平均や加重平均を算出し、その算出結果をパノラマ画像の生成に用いるパラメータセットとして、パノラマ画像生成部4に出力するようにしてもよい。
例えば、基準方向b,c,dの一致度が閾値より高く、基準方向aの一致度が閾値より低い場合、基準方向b,c,dに対応するパラメータセットb,c,dの平均や加重平均を算出することになる。
Here, an example is shown in which the weighted average of all the parameter sets a to d stored in the parameter set storage unit 1 is shown, but only the parameter set corresponding to the reference direction having a matching degree higher than a predetermined threshold value. An average or a weighted average may be calculated, and the calculation result may be output to the panorama image generation unit 4 as a parameter set used for generating the panorama image.
For example, when the coincidence degree of the reference directions b, c, d is higher than the threshold value and the coincidence degree of the reference direction a is lower than the threshold value, the average or weight of the parameter sets b, c, d corresponding to the reference directions b, c, d The average will be calculated.

なお、視線方向と基準方向の一致度は、視線方向のベクトルと基準方向のベクトルとの内積の値が大きいほど高くなることは、上述した通りであるが、視線方向と基準方向の角度が90度以上の場合(一致度が0以下の場合)は、内積の値が負の値になるため、負の値の場合には、加重平均の対象から除外するようにする。
これにより、一致度が低いパラメータセットが容易に除外され、一致度が低いパラメータセットが反映され難くなる利点が得られる。パラメータセットが少なく、基準方向によってカメラの相対位置が緩やかに変化する場合などに好適な重ね合せ結果が得られる。
Note that, as described above, the degree of coincidence between the line-of-sight direction and the reference direction increases as the inner product value of the line-of-sight direction vector and the vector in the reference direction increases. When the degree is equal to or greater than the degree (when the degree of coincidence is 0 or less), the inner product value is a negative value. Therefore, in the case of a negative value, it is excluded from the target of the weighted average.
As a result, a parameter set with a low degree of coincidence can be easily excluded and a parameter set with a low degree of coincidence is hardly reflected. A suitable overlay result can be obtained when there are few parameter sets and the relative position of the camera changes gradually depending on the reference direction.

また、ここでは、基準方向a〜dに対応するパラメータセットa〜dの加重平均を算出することで、パノラマ画像の生成に用いるパラメータセットを生成する例を示しているが、以下のようにして、パノラマ画像の生成に用いるパラメータセットを生成するようにしてもよい。
まず、パラメータセット生成部3は、4つの基準方向a〜dの中から、一致度算出部2により算出された一致度が最も高い基準方向を選択する。
図4の例では、一致度が最も高い基準方向として、基準方向bが選択される。以下、基準方向bが選択されるものとして説明する。
パラメータセット生成部3は、一致度が最も高い基準方向bを選択すると、パラメータセット記憶部1により記憶されている基準方向a〜dに対応するパラメータセットの中から、一致度が最も高い基準方向bに対応するパラメータセットを読み出し、そのパラメータセットをパノラマ画像の生成に用いるパラメータセットとして、パノラマ画像生成部4に出力する。
Also, here, an example is shown in which a parameter set used for generating a panoramic image is generated by calculating a weighted average of the parameter sets a to d corresponding to the reference directions a to d. A parameter set used for generating a panoramic image may be generated.
First, the parameter set generation unit 3 selects a reference direction having the highest matching degree calculated by the matching degree calculation unit 2 from the four reference directions a to d.
In the example of FIG. 4, the reference direction b is selected as the reference direction with the highest degree of coincidence. In the following description, it is assumed that the reference direction b is selected.
When the parameter set generation unit 3 selects the reference direction b having the highest degree of coincidence, the reference direction having the highest degree of coincidence among the parameter sets corresponding to the reference directions a to d stored in the parameter set storage unit 1 The parameter set corresponding to b is read, and the parameter set is output to the panoramic image generation unit 4 as a parameter set used for generating a panoramic image.

パノラマ画像生成部4は、パラメータセット生成部3がパノラマ画像の生成に用いるパラメータセットを生成すると、そのパラメータセットを用いて、N台のカメラの画像を合成して、視線方向におけるパノラマ画像を生成する(ステップST4)。
各カメラの相対位置からカメラ画像を投影面に投影してパノラマ画像の合成を行うものであれば、どのようなアルゴリズムを利用してもよいが、以下、一例として、球面の投影面を用いるレイトレーシング法で、パノラマ画像を生成する場合の処理内容を簡単に説明する。
When the parameter set generation unit 3 generates a parameter set used by the parameter set generation unit 3 to generate a panoramic image, the panorama image generation unit 4 combines the images of N cameras using the parameter set to generate a panoramic image in the line-of-sight direction. (Step ST4).
Any algorithm may be used as long as the panoramic image is synthesized by projecting the camera image onto the projection plane from the relative position of each camera, but in the following, as an example, a rate using a spherical projection plane is used. The processing contents when generating a panoramic image by the racing method will be briefly described.

レイトレーシング法は、表示画面の全画素に対して、レイトレーシング(光線追跡)を行うことで、カメラ画像上の対応する画素位置を算出し、その画素位置の画素(入力されたカメラ画像の画素)を出力画素として用いる手法である。
図6はレイトレーシング法による画素位置の算出処理を示す概念図である。
The ray tracing method calculates the corresponding pixel position on the camera image by performing ray tracing (ray tracing) for all the pixels on the display screen, and the pixel at the pixel position (the pixel of the input camera image). ) As an output pixel.
FIG. 6 is a conceptual diagram showing pixel position calculation processing by the ray tracing method.

まず、視点から表示画面上の対象画素(図中、Aの画素)に対して直線を引き、その直線と投影面が交差する点の座標(図中、Bの座標)を算出する。
この座標は、視線方向、視点位置を示す情報、表示画面を示す情報、投影面を示す情報及び対象画素の位置から算出することが可能である。
次に、投影面上の交差座標から各カメラ位置に対して直線を引き、その直線とカメラ撮像面が交差する点の座標(図中、Cの座標)を算出する。
この座標は、カメラ相対位置結果と、カメラ撮像面を示す情報から算出することが可能である。
First, a straight line is drawn from the viewpoint to the target pixel (pixel A in the figure) on the display screen, and the coordinates of the point where the straight line intersects the projection plane (coordinate B in the figure) are calculated.
The coordinates can be calculated from the line-of-sight direction, the information indicating the viewpoint position, the information indicating the display screen, the information indicating the projection plane, and the position of the target pixel.
Next, a straight line is drawn with respect to each camera position from the intersection coordinates on the projection plane, and the coordinates (the coordinates of C in the figure) of the point where the straight line and the camera imaging plane intersect are calculated.
This coordinate can be calculated from the camera relative position result and information indicating the camera imaging surface.

さらに、各カメラ撮像面の交差点の画素値をカメラ間で重ね合せることにより、表示画面上の対象画素の出力画素値を得る。ここで、直線が撮像面と交差しない場合は、そのカメラを重ね合せの対象外(図中、D)とする。重ね合わせには、平均・加重平均や最近傍法などを用いるのが一般的である。
このように、レイトレーシング法を用いたパノラマ画像の合成処理では、視線(視点)とカメラ相対位置に基づいて、算出対象の画素位置から投影面上の画素位置や撮像面上の画素位置を逆算することで、表示するべき画素値が得られる。
Further, the output pixel value of the target pixel on the display screen is obtained by superimposing the pixel values at the intersections of the camera imaging surfaces between the cameras. Here, when the straight line does not intersect with the imaging surface, the camera is excluded from superposition (D in the figure). For superposition, an average / weighted average or nearest neighbor method is generally used.
As described above, in the panoramic image synthesis processing using the ray tracing method, the pixel position on the projection plane and the pixel position on the imaging plane are calculated backward from the pixel position to be calculated based on the line of sight (viewpoint) and the camera relative position. By doing so, the pixel value to be displayed is obtained.

以上で明らかなように、この実施の形態1によれば、視線方向に対する複数の基準方向の一致度を算出する一致度算出部2と、一致度算出部2により算出された複数の基準方向の一致度にしたがって、パラメータセット記憶部1により記憶されている複数の基準方向に対応するパラメータセットからパノラマ画像の生成に用いるパラメータセットを生成するパラメータセット生成部3とを設け、パノラマ画像生成部4が、パラメータセット生成部3により生成されたパラメータセットを用いて、複数のカメラの画像を合成して、視線方向におけるパノラマ画像を生成するように構成したので、カメラを制御するための機構を追加することなく、視線方向が移動しても、パノラマ画像の継ぎ目の不連続性をリアルタイムに改善することができる効果を奏する。   As is apparent from the above, according to the first embodiment, the coincidence degree calculation unit 2 that calculates the degree of coincidence of a plurality of reference directions with respect to the line-of-sight direction, and the plurality of reference directions calculated by the coincidence degree calculation unit 2 According to the degree of coincidence, there is provided a parameter set generation unit 3 for generating a parameter set used for generating a panoramic image from parameter sets corresponding to a plurality of reference directions stored in the parameter set storage unit 1, and a panoramic image generation unit 4 Is configured to generate a panoramic image in the line-of-sight direction by combining the images of a plurality of cameras using the parameter set generated by the parameter set generation unit 3, so a mechanism for controlling the camera is added. Even if the line-of-sight direction moves, the discontinuity of the seam of the panoramic image can be improved in real time. Achieve the results.

即ち、視線方向と一致度が高い基準方向のカメラ相対位置から視線方向に対して適応的なカメラ相対位置を算出しているので、どのような視線方向に対しても、画像の継ぎ目が自然なパノラマ画像を得ることができる。
また、基準方向の周囲の継ぎ目だけが自然に重なり合うようにパラメータセットの設定を行えばよいため、パラメータセットの設定が容易である。
That is, since the camera relative position adaptive to the line-of-sight direction is calculated from the camera relative position in the reference direction having a high degree of coincidence with the line-of-sight direction, the seam of the image is natural for any line-of-sight direction. A panoramic image can be obtained.
Further, since it is only necessary to set the parameter set so that only the seams around the reference direction overlap naturally, the parameter set can be easily set.

実施の形態2.
上記実施の形態1では、一致度算出部2が、視線方向と複数の基準方向の一致度として、視線方向のベクトルと複数の基準方向のベクトルとの内積を算出するものを示したが、一致度算出部2が、視線方向のベクトルと複数の基準方向との外積のスカラ値を算出するようにしてもよい。
視線方向と基準方向の一致度は、ベクトル外積のスカラ値が小さいほど、一致度が高いことを表している。
Embodiment 2. FIG.
In the first embodiment, the coincidence degree calculation unit 2 calculates the inner product of the line-of-sight direction vector and the plurality of reference direction vectors as the degree of coincidence between the line-of-sight direction and the plurality of reference directions. The degree calculation unit 2 may calculate a scalar value of an outer product of a vector in the line-of-sight direction and a plurality of reference directions.
The degree of coincidence between the line-of-sight direction and the reference direction indicates that the degree of coincidence is higher as the scalar value of the vector outer product is smaller.

パラメータセット生成部3は、一致度算出部2が基準方向a〜dの一致度として、視線方向と基準方向a〜dとのベクトル外積のスカラ値を算出すると、ベクトル外積のスカラ値に基づいて、基準方向a〜dに対応するパラメータセットa〜dの重み係数を設定する。
基準方向a〜dに対応するパラメータセットa〜dの重み係数として、当該基準方向のベクトル外積のスカラ値が小さい程(当該基準方向の一致度が高い程)、大きな重み係数を設定する。
パラメータセット生成部3は、基準方向a〜dに対応するパラメータセットa〜dの重み係数a〜dを設定すると、上記実施の形態1と同様に、その重み係数a〜dを用いて、基準方向a〜dに対応するパラメータセットa〜dの加重平均を算出し、加重平均後のパラメータセットをパノラマ画像の生成に用いるパラメータセットとして、パノラマ画像生成部4に出力する。
The parameter set generation unit 3 calculates the scalar value of the vector outer product of the line-of-sight direction and the reference directions a to d as the degree of matching of the reference directions a to d, based on the scalar value of the vector outer product. The weight coefficients of the parameter sets a to d corresponding to the reference directions a to d are set.
As the weight coefficient of the parameter sets a to d corresponding to the reference directions a to d, a larger weight coefficient is set as the scalar value of the vector outer product in the reference direction is smaller (the matching degree in the reference direction is higher).
When the parameter set generation unit 3 sets the weight coefficients a to d of the parameter sets a to d corresponding to the reference directions a to d, the weight set a to d is used as the reference in the same manner as in the first embodiment. A weighted average of the parameter sets a to d corresponding to the directions a to d is calculated, and the parameter set after the weighted average is output to the panoramic image generation unit 4 as a parameter set used for generating a panoramic image.

ここでは、パラメータセット記憶部1により記憶されている全てのパラメータセットa〜dの加重平均を算出する例を示しているが、ベクトル外積のスカラ値が所定の閾値より小さい基準方向(一致度が所定の閾値より高い基準方向)に対応するパラメータセットだけの平均や加重平均を算出するようにしてもよい。
また、4つの基準方向a〜dの中から、ベクトル外積のスカラ値が最も小さい基準方向(一致度が最も高い基準方向)を選択し、パラメータセット記憶部1から当該基準方向に対応するパラメータセットを読み出すようにしてもよい。
Here, an example is shown in which the weighted average of all the parameter sets a to d stored in the parameter set storage unit 1 is shown. However, the reference direction in which the scalar value of the vector outer product is smaller than a predetermined threshold (the degree of coincidence is An average or a weighted average of only parameter sets corresponding to a reference direction higher than a predetermined threshold value may be calculated.
Further, a reference direction having the smallest vector cross product scalar value (reference direction having the highest degree of coincidence) is selected from the four reference directions a to d, and the parameter set corresponding to the reference direction is selected from the parameter set storage unit 1. May be read out.

ただし、ベクトル外積のスカラ値は、視線方向と基準方向の角度が90度の場合に最大値をとり、90度以上で再び減少する点に注意が必要である。
即ち、ベクトル外積のスカラ値を一致度として使用する場合、視線方向と基準方向の角度が90度以上の場合には、何らかの方法で、その基準方向に対応するパラメータセットを加重平均の対象から除外する必要がある。例えば、内積値を別途算出し、その内積値の正負によって判定してもよいし、角度を算出して判定するようにしてもよい。
However, it should be noted that the scalar value of the vector outer product takes the maximum value when the angle between the line-of-sight direction and the reference direction is 90 degrees, and decreases again when the angle is 90 degrees or more.
That is, when the scalar value of the vector cross product is used as the degree of coincidence, if the angle between the line-of-sight direction and the reference direction is 90 degrees or more, the parameter set corresponding to the reference direction is excluded from the target of the weighted average by some method. There is a need to. For example, the inner product value may be calculated separately, and the determination may be made based on whether the inner product value is positive or negative, or the angle may be calculated for determination.

視線方向と複数の基準方向の一致度として、ベクトル外積のスカラ値を算出する場合、最も一致する場合の一致度が必ず0になる(ベクトル内積を用いる場合、基準方向のベクトルのスカラ値によっては、最も一致する場合の値が異なる)。
よって、一致度に対する単純な閾値処理によって、加重平均の対象を制限することが可能である。
一致度で閾値設定した範囲の基準方向を参照することができるため、パラメータセットが多く、基準方向によってカメラの相対位置が激しく変化する場合などに好適な重ね合せ結果が得られる。
When calculating the scalar value of the vector outer product as the degree of coincidence between the line-of-sight direction and a plurality of reference directions, the degree of coincidence in the case of the best match is always 0 (depending on the scalar value of the vector in the reference direction when using the vector inner product) , The best match value is different).
Therefore, it is possible to limit the target of the weighted average by simple threshold processing for the degree of coincidence.
Since it is possible to refer to the reference direction of the range set as a threshold value by the degree of coincidence, a suitable overlay result can be obtained when there are many parameter sets and the relative position of the camera changes drastically depending on the reference direction.

実施の形態3.
上記実施の形態1では、一致度算出部2が、視線方向と複数の基準方向の一致度として、視線方向のベクトルと複数の基準方向のベクトルとの内積を算出するものを示したが、一致度算出部2が、視線方向と複数の基準方向とのヨー値及びピッチ値の近似度を算出するようにしてもよい。
近似度を示す値としては、スカラ値同士の近似度を示す値であれば、どのような値を算出するようにしてもよいが、例えば、ヨー値、ピッチ値の差分絶対値や差分自乗値等を算出するようにしてもよい。また、ベクトル同士のなす角の余弦値を近似度として算出するようにしてもよい。
Embodiment 3 FIG.
In the first embodiment, the coincidence degree calculation unit 2 calculates the inner product of the line-of-sight direction vector and the plurality of reference direction vectors as the degree of coincidence between the line-of-sight direction and the plurality of reference directions. The degree calculation unit 2 may calculate the degree of approximation of the yaw value and pitch value between the line-of-sight direction and a plurality of reference directions.
As the value indicating the degree of approximation, any value may be calculated as long as it is a value indicating the degree of approximation between the scalar values. For example, the absolute value of the difference between the yaw value and the pitch value, or the square value of the difference Etc. may be calculated. Further, the cosine value of the angle formed by the vectors may be calculated as the degree of approximation.

一致度算出部2が、視線方向と複数の基準方向の一致度として、視線方向と複数の基準方向とのヨー値及びピッチ値の近似度を算出する場合、ヨー値・ピッチ値の一定間隔毎に、基準方向を設定しておけば、入力された視線方向のヨー値・ピッチ値から一致度が高くなる基準方向に対応するパラメータセットの候補を容易に予測することが可能である。
図7は一定間隔毎に基準方向を設定する場合の一例を示す説明図である。
図7の例では、ヨー値・ピッチ値45度おきに基準方向を設定している。
例えば、視線方向が、ヨー値0〜45度、ピッチ値90〜135度の範囲にあれば、最も一致度が高い基準方向に対応するパラメータセットの候補は、4つの範囲(ヨー値−ピッチ値が0度−90度、45度−90度、0度−135度、または、45度−135度)の中のいずれかに絞られる。
When the coincidence calculation unit 2 calculates the degree of approximation of the yaw value and the pitch value between the line-of-sight direction and the plurality of reference directions as the degree of coincidence between the line-of-sight direction and the plurality of reference directions, In addition, if a reference direction is set, it is possible to easily predict parameter set candidates corresponding to the reference direction having a high degree of coincidence from the input yaw value / pitch value in the line-of-sight direction.
FIG. 7 is an explanatory diagram illustrating an example in which a reference direction is set at regular intervals.
In the example of FIG. 7, the reference direction is set every 45 degrees of the yaw value / pitch value.
For example, if the line-of-sight direction is in the range of the yaw value of 0 to 45 degrees and the pitch value of 90 to 135 degrees, the parameter set candidates corresponding to the reference direction having the highest degree of coincidence are in four ranges (yaw value-pitch value). 0 degree-90 degrees, 45 degrees-90 degrees, 0 degrees-135 degrees, or 45 degrees-135 degrees).

したがって、一致度を算出する前に、一致度が高いパラメータセットを限定することができるため、一致度を算出する対象を減らすことが可能である。
上記の周囲4パラメータセットに対してのみ一致度を算出するようにしてもよいし、もっと範囲を広げたパラメータセット、もしくは、範囲狭めた他の個数のパラメータセットを一致度の算出対象としてもよい。もちろん、全てのパラメータセットに対して、一致度を算出することもできる。
Therefore, since the parameter set having a high matching degree can be limited before calculating the matching degree, it is possible to reduce the number of targets for calculating the matching degree.
The degree of coincidence may be calculated only for the above four surrounding parameter sets, or a parameter set with a wider range or another number of parameter sets with a narrower range may be used as the degree of coincidence calculation. . Of course, the degree of coincidence can be calculated for all parameter sets.

この実施の形態3では、ヨー値・ピッチ値について、一定間隔で基準方向を設定することにより、一致度が高い基準方向のパラメータセットを事前に予測することができるため、一致度が低い基準方向のパラメータセットを容易に算出対象から除外することができる利点がある。
内積値や外積のスカラ値を用いる場合と比べて、加重平均の項数を大幅に削減することができるため、より小さい演算量で好適な重ね合せ結果を得ることができる。
In the third embodiment, a reference direction with a high degree of coincidence can be predicted in advance by setting a reference direction for the yaw value / pitch value at regular intervals. The parameter set can be easily excluded from the calculation target.
Compared to the case of using the inner product value or the scalar product of the outer product, the number of terms of the weighted average can be greatly reduced, so that a suitable overlapping result can be obtained with a smaller calculation amount.

なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。   In the present invention, within the scope of the invention, any combination of the embodiments, or any modification of any component in each embodiment, or omission of any component in each embodiment is possible. .

1 パラメータセット記憶部(パラメータセット記憶手段)、2 一致度算出部(一致度算出手段)、3 パラメータセット生成部(パラメータセット生成手段)、4 パノラマ画像生成部(パノラマ画像生成手段)。   DESCRIPTION OF SYMBOLS 1 Parameter set memory | storage part (parameter set memory | storage means), 2 Concordance degree calculation part (coincidence degree calculation means), 3 Parameter set production | generation part (parameter set production | generation means), 4 Panorama image generation part (panoramic image production | generation means)

Claims (7)

複数のカメラにより投影される投影面の各位置に対する視点からの方向である基準方向毎に、当該基準方向における各カメラの投影面間の相対位置関係を示すパラメータセットを記憶しているパラメータセット記憶手段と、
視線方向に対する複数の基準方向の一致度を算出する一致度算出手段と、
上記一致度算出手段により算出された複数の基準方向の一致度にしたがって、上記パラメータセット記憶手段により記憶されている複数の基準方向に対応するパラメータセットからパノラマ画像の生成に用いるパラメータセットを生成するパラメータセット生成手段と、
上記パラメータセット生成手段により生成されたパラメータセットを用いて、複数のカメラの画像を合成して、視線方向におけるパノラマ画像を生成するパノラマ画像生成手段と
を備えた画像合成装置。
A parameter set storage that stores a parameter set indicating a relative positional relationship between the projection planes of each camera in the reference direction for each reference direction that is a direction from the viewpoint with respect to each position of the projection plane projected by a plurality of cameras. Means,
A degree of coincidence calculating means for calculating a degree of coincidence of a plurality of reference directions with respect to the line-of-sight direction;
A parameter set used for generating a panoramic image is generated from parameter sets corresponding to the plurality of reference directions stored in the parameter set storage unit according to the matching degrees of the plurality of reference directions calculated by the matching level calculation unit. Parameter set generation means;
An image synthesizing apparatus comprising: a panoramic image generating unit configured to generate a panoramic image in the line-of-sight direction by combining the images of a plurality of cameras using the parameter set generated by the parameter set generating unit.
パラメータセット生成手段は、一致度算出手段により算出された複数の基準方向の一致度を重みとして、パラメータセット記憶手段により記憶されている複数の基準方向に対応するパラメータセットの加重平均を求め、加重平均後のパラメータセットをパノラマ画像の生成に用いるパラメータセットとして出力することを特徴とする請求項1記載の画像合成装置。   The parameter set generation means obtains a weighted average of the parameter sets corresponding to the plurality of reference directions stored by the parameter set storage means, using the degree of coincidence of the plurality of reference directions calculated by the degree of coincidence calculation means as a weight. The image synthesizing apparatus according to claim 1, wherein the averaged parameter set is output as a parameter set used for generating a panoramic image. パラメータセット生成手段は、パラメータセット記憶手段により記憶されている複数の基準方向に対応するパラメータセットの中から、一致度算出手段により算出された視線方向に対する一致度が最も高い基準方向に対応するパラメータセットを選択し、上記パラメータセットをパノラマ画像の生成に用いるパラメータセットとして出力することを特徴とする請求項1記載の画像合成装置。   The parameter set generating means is a parameter corresponding to the reference direction having the highest degree of coincidence with respect to the line-of-sight direction calculated by the coincidence degree calculating means from among the parameter sets corresponding to the plurality of reference directions stored by the parameter set storage means. 2. The image composition apparatus according to claim 1, wherein a set is selected and the parameter set is output as a parameter set used for generating a panoramic image. 一致度算出手段は、視線方向に対する複数の基準方向の一致度として、視線方向と複数の基準方向とのベクトル内積値を算出することを特徴とする請求項1から請求項3のうちのいずれか1項記載の画像合成装置。   The coincidence degree calculating means calculates a vector dot product value between the line-of-sight direction and the plurality of reference directions as the degree of coincidence of the plurality of reference directions with respect to the line-of-sight direction. The image composition device according to claim 1. 一致度算出手段は、視線方向に対する複数の基準方向の一致度として、視線方向と複数の基準方向とのベクトル外積のスカラ値を算出することを特徴とする請求項1から請求項3のうちのいずれか1項記載の画像合成装置。   The coincidence degree calculating means calculates a scalar value of a vector outer product of the line-of-sight direction and the plurality of reference directions as the degree of coincidence of the plurality of reference directions with respect to the line-of-sight direction. The image composition device according to any one of the preceding claims. 一致度算出手段は、視線方向に対する複数の基準方向の一致度として、視線方向と複数の基準方向とのヨー値及びピッチ値の近似度を算出することを特徴とする請求項1から請求項3のうちのいずれか1項記載の画像合成装置。   The degree-of-match calculation means calculates the degree of approximation of the yaw value and pitch value between the line-of-sight direction and the plurality of reference directions as the degree of match of the plurality of reference directions with respect to the line-of-sight direction. The image composition device according to any one of the above. 予め、複数のカメラにより投影される投影面の各位置に対する視点からの方向である基準方向毎に、当該基準方向における各カメラの投影面間の相対位置関係を示すパラメータセットを記憶しており、
一致度算出手段が、視線方向に対する複数の基準方向の一致度を算出する一致度算出処理ステップと、
パラメータセット生成手段が、上記一致度算出処理ステップで算出された複数の基準方向の一致度にしたがって、予め記憶している複数の基準方向に対応するパラメータセットからパノラマ画像の生成に用いるパラメータセットを生成するパラメータセット生成処理ステップと、
パノラマ画像生成手段が、上記パラメータセット生成処理ステップで生成されたパラメータセットを用いて、複数のカメラの画像を合成して、視線方向におけるパノラマ画像を生成するパノラマ画像生成処理ステップと
を備えた画像合成方法。
For each reference direction that is a direction from the viewpoint for each position of the projection plane projected by a plurality of cameras, a parameter set indicating a relative positional relationship between the projection planes of each camera in the reference direction is stored in advance.
A degree-of-matching calculating means for calculating a degree of matching of a plurality of reference directions with respect to the line-of-sight direction;
The parameter set generating means uses the parameter set used for generating the panoramic image from the parameter sets corresponding to the plurality of reference directions stored in advance according to the matching degrees of the plurality of reference directions calculated in the matching degree calculation processing step. A parameter set generation processing step to be generated;
A panorama image generation unit that combines the images of a plurality of cameras using the parameter set generated in the parameter set generation processing step to generate a panoramic image in the line-of-sight direction. Synthesis method.
JP2013025608A 2013-02-13 2013-02-13 Image composition apparatus and image composition method Active JP6016662B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013025608A JP6016662B2 (en) 2013-02-13 2013-02-13 Image composition apparatus and image composition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013025608A JP6016662B2 (en) 2013-02-13 2013-02-13 Image composition apparatus and image composition method

Publications (2)

Publication Number Publication Date
JP2014155168A JP2014155168A (en) 2014-08-25
JP6016662B2 true JP6016662B2 (en) 2016-10-26

Family

ID=51576602

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013025608A Active JP6016662B2 (en) 2013-02-13 2013-02-13 Image composition apparatus and image composition method

Country Status (1)

Country Link
JP (1) JP6016662B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190102871A (en) * 2018-02-27 2019-09-04 포디리플레이코리아 주식회사 Transmitting system for multi channel image and controlling method, and image processing method of multi channel image

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6267809B1 (en) 2016-08-15 2018-01-24 株式会社オプティム Panorama image synthesis analysis system, panorama image synthesis analysis method and program
KR102558473B1 (en) 2016-09-30 2023-07-25 삼성전자주식회사 Method for displaying an image and an electronic device thereof
US10176615B2 (en) 2016-12-13 2019-01-08 Topcon Corporation Image processing device, image processing method, and image processing program
WO2019053790A1 (en) * 2017-09-12 2019-03-21 株式会社Splyza Position coordinate calculation method and position coordinate calculation device
WO2023079623A1 (en) * 2021-11-04 2023-05-11 株式会社ソニー・インタラクティブエンタテインメント Image display system, image transmission device, display control device, and image display method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000253391A (en) * 1999-02-26 2000-09-14 Hitachi Ltd Panorama video image generating system
JP2010049313A (en) * 2008-08-19 2010-03-04 Sony Corp Image processor, image processing method, program
JP5780561B2 (en) * 2010-11-16 2015-09-16 小平アソシエイツ株式会社 Visibility video information generator

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190102871A (en) * 2018-02-27 2019-09-04 포디리플레이코리아 주식회사 Transmitting system for multi channel image and controlling method, and image processing method of multi channel image
KR102055777B1 (en) 2018-02-27 2019-12-13 포디리플레이코리아 주식회사 Transmitting system for multi channel image and controlling method, and image processing method of multi channel image

Also Published As

Publication number Publication date
JP2014155168A (en) 2014-08-25

Similar Documents

Publication Publication Date Title
JP6016662B2 (en) Image composition apparatus and image composition method
TWI524306B (en) Image transformation and multi-view output systems and methods
US9852494B2 (en) Overhead image generation apparatus
JP4935440B2 (en) Image processing apparatus and camera apparatus
JP2019083402A (en) Image processing apparatus, image processing system, image processing method, and program
US8019180B2 (en) Constructing arbitrary-plane and multi-arbitrary-plane mosaic composite images from a multi-imager
US10699372B2 (en) Image generation apparatus and image display control apparatus
JP2006350852A (en) Image generation system
JP6278771B2 (en) Projection position determination device and projection position determination program
US10397514B2 (en) Projection apparatus, image processing apparatus, and image processing method
JP2011103031A (en) Perspective conversion parameter generation device, image correction device, perspective conversion parameter generation method, image correction method and program
JP2017069920A (en) Free viewpoint image data production device and free viewpoint image data reproduction device
JP2821042B2 (en) Image synthesis device
US11734875B2 (en) Image representation of a scene
US20220165015A1 (en) Image signal representing a scene
JP2009055332A (en) Video composition and display device
JP6336856B2 (en) Multi-view video expression device and program thereof
JP6967013B2 (en) Methods and devices for determining the transition between two display images, as well as a vehicle.
CN111480335B (en) Image processing device, image processing method, program, and projection system
JP2012191380A (en) Camera, image conversion apparatus, and image conversion method
EP4344237A1 (en) Generation of depth maps for images
WO2022044806A1 (en) Information processing device and method
WO2018134947A1 (en) Image delivery device
JP2023111638A (en) Information processing device, information processing method, and program
JP2007213161A (en) Image processor, image processing method, and program for making computer execute the same method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160815

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160830

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160927

R150 Certificate of patent or registration of utility model

Ref document number: 6016662

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250