JPWO2018105097A1 - Image synthesizing device, image synthesizing method, and image synthesizing program - Google Patents
Image synthesizing device, image synthesizing method, and image synthesizing program Download PDFInfo
- Publication number
- JPWO2018105097A1 JPWO2018105097A1 JP2018555410A JP2018555410A JPWO2018105097A1 JP WO2018105097 A1 JPWO2018105097 A1 JP WO2018105097A1 JP 2018555410 A JP2018555410 A JP 2018555410A JP 2018555410 A JP2018555410 A JP 2018555410A JP WO2018105097 A1 JPWO2018105097 A1 JP WO2018105097A1
- Authority
- JP
- Japan
- Prior art keywords
- image
- reference area
- adjustment
- photographed
- average luminance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000002194 synthesizing effect Effects 0.000 title claims abstract description 13
- 238000000034 method Methods 0.000 title claims description 53
- 238000012545 processing Methods 0.000 claims abstract description 55
- 238000012937 correction Methods 0.000 claims abstract description 39
- 230000008569 process Effects 0.000 claims description 36
- 230000002093 peripheral effect Effects 0.000 claims description 21
- 239000002131 composite material Substances 0.000 abstract description 30
- 235000019557 luminance Nutrition 0.000 description 139
- 238000003384 imaging method Methods 0.000 description 86
- 230000009466 transformation Effects 0.000 description 19
- 230000006870 function Effects 0.000 description 13
- 238000006243 chemical reaction Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 8
- 238000009434 installation Methods 0.000 description 7
- 238000012544 monitoring process Methods 0.000 description 7
- 238000001514 detection method Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 229920006395 saturated elastomer Polymers 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Transforming Electric Information Into Light Information (AREA)
- Controls And Circuits For Display Device (AREA)
- Image Processing (AREA)
Abstract
合成画像のつなぎ目において撮影画像間の輝度の違いによる輝度むらを低減し、認識しやすい合成画像を提供する。画像合成装置100は、画像処理部200と、記憶装置210と、入力インタフェース220と、出力インタフェース230と、参照領域設定部240とを備える。画像処理部200は、歪補正部110と、輝度調整部120と、画像合成部130とを備える。画像合成装置100は、参照領域設定部240により複数の撮影画像内の一部に参照領域を設定し、輝度調整部120により参照領域の輝度が予め決めた閾値を超えないように、複数の撮影画像間の輝度を調整する。Non-uniform luminance due to a difference in luminance between captured images at joints of composite images is reduced, and a composite image that is easy to recognize is provided. The image synthesizing device 100 includes an image processing unit 200, a storage device 210, an input interface 220, an output interface 230, and a reference area setting unit 240. The image processing unit 200 includes a distortion correction unit 110, a luminance adjustment unit 120, and an image combining unit 130. In the image combining device 100, the reference area setting unit 240 sets the reference area to a part of the plurality of photographed images, and the luminance adjustment unit 120 performs the plurality of photographing so that the luminance of the reference area does not exceed a predetermined threshold. Adjust the brightness between images.
Description
本発明は、複数の撮影装置の撮影により取得された複数の撮影画像を合成して一つの連続した画像を生成する画像合成装置、画像合成方法、及び画像合成プログラムに関する。 The present invention relates to an image combining apparatus, an image combining method, and an image combining program for combining a plurality of captured images acquired by capturing by a plurality of capturing devices to generate one continuous image.
従来、被写体(例えば、車両)周辺に取り付けた複数のカメラにより複数の撮影画像を生成し、生成した複数の撮影画像を連結(合成)してパノラマ画像を生成する技術がある。この際、撮影時刻及び撮影場所によって被写体の明るさ(照度)が変化する場合は、撮影画像の輝度調整は、カメラの持つAGC(Automatic Gain Control)機能を使用して、各カメラ撮影画像の輝度を調整するのが一般的である。 BACKGROUND Conventionally, there is a technique of generating a plurality of photographed images by a plurality of cameras attached around an object (for example, a vehicle) and connecting (combining) the generated plurality of photographed images to generate a panoramic image. At this time, when the brightness (illuminance) of the subject changes depending on the shooting time and the shooting location, the brightness adjustment of the shot image uses the AGC (Automatic Gain Control) function of the camera to set the brightness of each shot image of the camera. It is common to adjust the
しかし、カメラの向き又は取付け方向が異なると、各撮影画像の輝度にばらつきが生じるため、複数の撮影画像をそのまま合成しただけでは、撮影画像間の輝度差のために、撮影画像間のつなぎ目が目立ち、合成画像の連続性が損なわれ、一枚の画としての見た目が不自然となる問題がある。そこで、特許文献1には、複数の撮影画像の中から画面内の平均輝度が最も高い画像を基準画像として選定し、基準画像の輝度に合わせるように、合成画像全体の輝度を調整する技術が開示されている。 However, if the camera orientation or mounting direction is different, the luminance of each photographed image will vary, so if only a plurality of photographed images are synthesized as they are, the seams between photographed images will be due to the luminance difference between the photographed images. There is a problem that the continuity of the composite image is impaired and the appearance as a single picture becomes unnatural. Therefore, Patent Document 1 selects an image having the highest average brightness in the screen from among a plurality of photographed images as a reference image, and adjusts the brightness of the entire composite image to match the brightness of the reference image. It is disclosed.
しかしながら、特許文献1の技術では、複数の撮影画像の中で平均輝度が最も高い画像を基準にしているため、他の撮影画像の平均輝度を増加するように輝度調整がされる。このとき、輝度調整される撮影画像内には、輝度の低い部分(暗部)と輝度の高い部分(明部)が混在しており、画面全体の輝度調整を行うと、元々の明部の輝度が高い場合は、明部の輝度は元画像よりもさらに高くなってしまい、輝度が飽和した状態(いわゆる白とび)になるという問題がある。 However, in the technique of Patent Document 1, since the image with the highest average luminance among the plurality of photographed images is used as a reference, the luminance adjustment is performed so as to increase the average luminance of the other photographed images. At this time, a low-brightness portion (dark portion) and a high-brightness portion (bright portion) are mixed in the photographed image to be subjected to brightness adjustment, and if the brightness adjustment of the entire screen is performed, the brightness of the original bright portion is adjusted. Is high, the brightness of the bright part becomes higher than that of the original image, and there is a problem that the brightness becomes saturated (so-called overexposure).
また、車両などの移動体を監視する用途に合成画像を使用する場合であって、明部に移動体が現れることが予めわかっている場合では、輝度調整後の撮影画像の輝度が飽和した状態であると、監視者が移動体を認識することが困難となる(認識までに時間がかかる)問題がある。 In addition, in the case where the composite image is used for monitoring a moving object such as a vehicle, and it is known in advance that the moving object appears in the bright part, the state in which the brightness of the photographed image after the brightness adjustment is saturated. If this is the case, there is a problem that it becomes difficult for the observer to recognize the moving object (it takes time to recognize).
本発明に係る画像合成装置、画像合成方法、及び画像合成プログラムは、上記のような問題点を解決するためになされたものであり、合成画像のつなぎ目において撮影画像間の輝度の違いによる輝度むらを低減し、認識しやすい合成画像を提供することを目的とする。 The image combining apparatus, the image combining method, and the image combining program according to the present invention have been made to solve the above problems, and the uneven brightness due to the difference in brightness between the photographed images at the joint of the combined image. And provide a composite image that is easy to recognize.
本発明の一態様に係る画像合成装置は、複数の撮影装置の撮影により取得された複数の撮影画像の一部が重畳するように前記複数の撮影画像を合成して一つの連続した画像を生成する画像合成装置において、前記複数の撮影画像の内の少なくとも一つの撮影画像の一部を参照領域として設定する参照領域設定部と、前記参照領域が設定された前記撮影画像である第1の撮影画像における前記参照領域の平均輝度が予め定められた第1の閾値以上であるときは、前記参照領域の平均輝度が前記第1の閾値未満となるように前記参照領域の平均輝度を調整する第1の調整と、前記参照領域の前記第1の調整後の平均輝度に基づいて前記第1の撮影画像に隣接する前記撮影画像である第2の撮影画像の平均輝度を調整する第2の調整とを行い、前記参照領域の平均輝度が前記第1の閾値未満であるときは、前記第1の調整が行われていない前記第1の撮影画像の平均輝度に基づいて前記第2の調整を行う、輝度調整部と、前記輝度調整部により輝度が調整された前記複数の撮影画像を合成して前記一つの連続した画像を生成する画像合成部とを有する。 The image combining apparatus according to an aspect of the present invention combines the plurality of captured images so that a part of the plurality of captured images obtained by the plurality of capturing apparatuses capture one another and generates one continuous image. A reference area setting unit configured to set a part of at least one of the plurality of photographed images as a reference area, and a first photographed image as the photographed image in which the reference area is set. The average luminance of the reference area is adjusted such that the average luminance of the reference area is less than the first threshold when the average luminance of the reference area in the image is equal to or greater than a predetermined first threshold. A second adjustment for adjusting the average luminance of a second photographed image which is the photographed image adjacent to the first photographed image based on the adjustment of 1 and the average luminance of the reference area after the first adjustment And the above A luminance adjustment unit that performs the second adjustment based on the average luminance of the first photographed image for which the first adjustment has not been performed, when the average luminance of the reference area is less than the first threshold; And an image combining unit configured to combine the plurality of photographed images whose brightness has been adjusted by the brightness adjusting unit to generate one continuous image.
本発明の他の態様に係る画像合成方法は、複数の撮影装置の撮影により取得された複数の撮影画像の一部が重畳するように前記複数の撮影画像を合成して一つの連続した画像を生成するための画像合成方法において、前記複数の撮影画像の内の少なくとも一つの撮影画像の一部を参照領域として設定する参照領域設定ステップと、前記参照領域が設定された前記撮影画像である第1の撮影画像における前記参照領域の平均輝度が予め定められた第1の閾値以上であるときは、前記参照領域の平均輝度が前記第1の閾値未満となるように前記参照領域の平均輝度を調整する第1の調整と、前記参照領域の前記第1の調整後の平均輝度に基づいて前記第1の撮影画像に隣接する前記撮影画像である第2の撮影画像の平均輝度を調整する第2の調整とを行い、前記参照領域の平均輝度が前記第1の閾値未満であるときは、前記第1の調整が行われていない前記第1の撮影画像の平均輝度に基づいて前記第2の調整を行う、輝度調整ステップと、前記輝度調整ステップにより輝度が調整された前記複数の撮影画像を合成して前記一つの連続した画像を生成する画像合成ステップとを有する。 In an image combining method according to another aspect of the present invention, a plurality of captured images are combined such that a part of a plurality of captured images captured by a plurality of capturing devices is superimposed and one continuous image is displayed. In the image combining method for generating, a reference area setting step of setting a part of at least one photographed image of the plurality of photographed images as a reference area, and the photographed image in which the reference area is set. When the average luminance of the reference area in one captured image is equal to or greater than a predetermined first threshold, the average luminance of the reference area is set so that the average luminance of the reference area is less than the first threshold. Adjusting an average luminance of a second photographed image which is the photographed image adjacent to the first photographed image based on the first adjustment to be adjusted and the average luminance of the reference area after the first adjustment; Adjustment of 2 And if the average luminance of the reference area is less than the first threshold, perform the second adjustment based on the average luminance of the first captured image for which the first adjustment has not been performed. And an image combining step of combining the plurality of photographed images whose brightness has been adjusted by the brightness adjusting step to generate one continuous image.
本発明によれば、合成画像のつなぎ目において撮影画像間の輝度の違いによる輝度むらを低減し、認識しやすい合成画像を提供することができる。 According to the present invention, it is possible to reduce luminance unevenness due to a difference in luminance between photographed images at joints of synthetic images, and to provide a synthetic image that is easy to recognize.
以下、本発明の実施の形態に係る画像合成装置について説明する。なお、実施の形態では、撮影装置を4台用いた例について説明するが、撮影装置の数は4台に限定されない。また、以下で説明する画像合成装置の発明は、画像合成方法又は画像合成プログラムの発明として捉えることも可能である。 Hereinafter, an image combining device according to an embodiment of the present invention will be described. In the embodiment, an example in which four imaging devices are used will be described, but the number of imaging devices is not limited to four. In addition, the invention of the image combining device described below can be understood as the invention of an image combining method or an image combining program.
《1》実施の形態1
《1−1》実施の形態1の構成
図1は、本発明の実施の形態1に係る画像合成装置100の概略的な構成を示すブロック図である。実施の形態1において、画像合成装置100は、例えば、コンピュータである。図1に示されるように、画像合成装置100は、画像処理部200と、記憶装置210と、入力インタフェース220と、出力インタフェース230と、参照領域設定部240とを備える。画像処理部200と、記憶装置210と、入力インタフェース220と、出力インタフェース230とは、画像合成装置100のハードウェアである。図1に示されるように、入力インタフェース220は、第1撮影装置101aと、第2撮影装置101bと、第3撮影装置101cと、第4撮影装置101dとに接続されている。<< 1 >> Embodiment 1
<< 1-1 >> Configuration of First Embodiment FIG. 1 is a block diagram showing a schematic configuration of an
図1に示されるように、画像処理部200は、歪補正部110と、輝度調整部120と、画像合成部130とを備える。画像処理部200は、画像合成装置100におけるソフトウェアに記述された命令を実行するプロセッサである。
As shown in FIG. 1, the
画像処理部200は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。画像処理部200は、プロセッシングを行うIC(Integrated Circuit)である。画像処理部200は、例えば、CPU(Central Processing Unit)である。
The
以下の説明では、画像処理部200における歪補正部110と、輝度調整部120と、画像合成部130との機能をまとめて、画像処理部200の機能という。画像合成装置100の画像処理部200の機能は、ソフトウェアにより実現されることができる。
In the following description, the functions of the
画像合成装置100は、1つの画像処理部200のみを備えていてもよいし、複数の画像処理部200を備えていてもよい。複数の画像処理部200が、画像処理部200の機能を実現するプログラムを連携して実行してもよい。
The image synthesizing
図1に示されるように、記憶装置210は、補助記憶装置211と、メモリ212とを備える。補助記憶装置211は、記憶部150を備える。記憶部150には、歪補正テーブル160と、参照領域情報170と、座標変換テーブル180と、カメラ設置情報190とが記憶されている。記憶装置210は、補助記憶装置211及びメモリ212を含む。
As shown in FIG. 1, the
補助記憶装置211は、例えば、ROM(Read Only Memory)、フラッシュメモリ、又は、HDD(Hard Disk Drive)である。メモリ212は、例えば、RAM(Random Access Memory)である。記憶部150は、補助記憶装置211により実現される。なお、記憶部150が補助記憶装置211とメモリ212とにより実現されてもよい。
The
補助記憶装置211には、画像処理部200の機能を実現するプログラムが記憶されている。このプログラムは、メモリ212にロードされ、画像処理部200に読み込まれ、画像処理部200によって実行される。補助記憶装置211には、OS(Operating System)も記憶されている。OSの少なくとも一部がメモリ212にロードされ、画像処理部200はOSを実行しながら、画像処理部200の機能を実現するプログラムを実行する。
In the
画像処理部200の機能による処理の結果を示す情報、データ、信号値、及び、変数値は、補助記憶装置211、メモリ212、又は、画像処理部200内のレジスタ又はキャッシュメモリに記憶される。なお、図1において、各部と記憶部150とを結ぶ矢印は、各部が処理の結果を記憶部150に記憶すること、あるいは、各部が記憶部150から情報を読み出すことを表している。また、各部を結ぶ矢印は、制御の流れを表している。また、各画像情報が各部間でメモリ212を介して授受されることを表すメモリ212と各部間の矢印については省略する。
Information, data, signal values, and variable values indicating the results of processing by the function of the
画像処理部200の機能を実現するプログラムは、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ブルーレイ(登録商標)ディスク、DVD(Digital Versatile Disc)といった可搬記録媒体に記憶されてもよい。
The program for realizing the function of the
なお、画像処理部200の機能を実現するプログラムを画像処理プログラムともいう。また、画像処理プログラムプロダクトと称されるものは、画像処理プログラムが記録された記憶媒体及び記憶装置であり、見た目の形式に関わらず、コンピュータ読み取り可能なプログラムをロードしているものである。
A program for realizing the function of the
入力インタフェース220は、第1撮影装置101aと、第2撮影装置101bと、第3撮影装置101cと、第4撮影装置101dとに接続されるポートである。入力インタフェース220は、各撮影装置により撮像された画像を画像合成装置100に取り込む画像入力インタフェースである。入力インタフェース220により取り込まれた各撮影画像はメモリ212に記憶される。また、入力インタフェース220は、マウス、キーボード、タッチパネルといった入力装置と接続されるポートであってもよい。
The
入力インタフェース220は、具体的には、LAN(Local Area Network)と接続されるポートである。なお、入力インタフェース220は、USB(Universal Serial Bus)端子であってもよい。また、入力インタフェース220は、SDI(Serial Digital Interface)、HDMI(登録商標)(High Definition Multimedia Interface)、VGA(Video Graphics Array)、DVI(Digital Video Interface)、コンポーネント等の映像信号を画像合成装置100に取り込むことのできる、キャプチャボードであってもよい。
Specifically, the
出力インタフェース230は、ディスプレイといった表示機器のケーブルが接続されるポートである。出力インタフェース230は、例えば、USB端子又はHDMI(登録商標)(High Definition Multimedia Interface)端子である。ディスプレイは、例えば、LCD(Liquid Crystal Display)である。
The
参照領域設定部240は、各撮影画像に参照領域を設定する機能を有する。参照領域とは、合成画像の観測者(監視者)が撮像画像内で優先的に注視する領域である。この参照領域は、観測者(ユーザ)が各撮影装置の任意の画像内の任意の領域に設定することが可能である。図1に示されるように、参照領域設定部240により設定された参照領域は、記憶部150の参照領域情報170に記憶される。
The reference
《1−2》実施の形態1の動作
次に、本発明の実施の形態1に係る画像合成装置100の動作について説明する。図2は、実施の形態1における、第1撮影装置101a、第2撮影装置101b、第3撮影装置101c、及び第4撮影装置101dの配置と、撮影範囲300を示す図である。以下の説明において、第1撮影装置101a、第2撮影装置101b、第3撮影装置101c、及び第4撮影装置101dを、撮影装置101a、101b、101c、101dともいう。<1-2> Operation of First Embodiment Next, the operation of the
図2に示されるように、実施の形態1では、広範囲の撮影範囲300を4台の撮影装置101a、101b、101c、101dにより撮影している。図2の例では、撮影範囲300は道路であり、撮影装置101a、101b、101c、101dは道路状況を監視する監視カメラであり、監視対象(被写体)301は道路を走る車両である。
As shown in FIG. 2, in the first embodiment, the
撮影装置101a、101b、101c、101dは、CCD(Charged−Coupled Devices)あるいはCMOS(Complementary Metal−oxide−Semiconductor)といった撮像素子とレンズとを備えるカメラ機器である。
The
撮影装置101a、101b、101c、101dは、同一種類の撮像素子及び同一種類のレンズを備える。撮影装置101a、101b、101c、101dは、例えば、監視カメラのような固定カメラである。また、撮影装置101a、101b、101c、101dは、AGC(Automatic Gain Control)機能を備えていることが望ましい。
The
次に、撮影装置101a、101b、101c、101dにより撮像された画像を合成する動作について説明する。まず、画像処理部200における歪補正部110の動作について説明する。撮影装置101a、101b、101c、101dで撮像された画像には、撮影装置のレンズ特性などにより歪みが生じている。特に、広角レンズを用いた場合は撮影画像の歪みが大きくなる。
Next, an operation of combining the images captured by the
この歪みを補正するために、撮影装置101a、101b、101c、101dにより撮像された各画像は、入力インタフェース220により画像合成装置100に取り込まれ、一旦、メモリ212に保持された後、歪補正部110に送られる。
In order to correct this distortion, the images captured by the
歪補正部110では、撮影画像の歪みを補正する処理を行う。歪みの補正処理は、使用する撮影装置にレンズ歪みを補正するための補正データを、予め歪補正テーブル160として作成して、記憶部150に保持しておく。歪補正部110は、記憶部150に保持された歪補正テーブル160の補正データを参照して、撮影画像の歪みを補正する。
The
歪補正テーブル160は、撮影装置の種類毎に個別に設けることができる。撮影装置の種類が異なる場合でも、撮影装置に合わせた歪補正テーブルを使用することにより、撮影画像の歪を補正することができる。歪補正部110により歪補正が施された撮影画像は、輝度調整部120に送られる。輝度調整部120では、歪補正が施された後の撮影画像の輝度が調整される。
The distortion correction table 160 can be provided individually for each type of imaging device. Even when the type of imaging apparatus is different, distortion of a captured image can be corrected by using a distortion correction table that is matched to the imaging apparatus. The photographed image subjected to distortion correction by the
次に、輝度調整部120の動作について図3から図5を用いて説明する。図2に示すように異なる向きで設置された4台のカメラから出力されるカメラ映像(画像)を一つの投影面360に射影変換して繋ぎ合わせた画像では、第1撮影装置101a、第2撮影装置101b、第3撮影装置101c、及び第4撮影装置101dの撮影映像(画像)間での明るさのばらつきが大きいと、合成画像の連続性が損なわれてしまう。そこで、輝度調整部120により、撮影画像間における輝度を調整する。
Next, the operation of the
図3は、実施の形態1における、第1撮影装置101a、第2撮影装置101b、第3撮影装置101c、第4撮影装置101dにより撮影される映像(画像)内において、合成画像の輝度調整をする際に参照する参照領域(輝度参照領域)について示す図である。
FIG. 3 shows the brightness adjustment of the composite image in the video (image) captured by the
図3において、画像400aは第1撮影装置101aで撮影された画像が歪補正部110で歪補正された画像であり、画像400bは第2撮影装置101bで撮影された画像が歪補正部110で歪補正された画像であり、画像400cは第3撮影装置101cで撮影された画像が歪補正部110で歪補正された画像であり、画像400dは第4撮影装置101dで撮影された各画像が歪補正部110で歪補正された画像である。
In FIG. 3, an
なお、以降では、画像400a、画像400b、画像400c、及び画像400dをまとめて、歪補正された画像400a、400b、400c、400dともいう。
Hereinafter, the
図2に示される例のように、実施の形態1における画像合成装置100を監視用途として使用する場合、監視対象となる被写体(例えば、車両)が撮像映像(画像)内に現れる(フレームイン)または撮像映像(画像)内から無くなる(フレームアウト)する瞬間を捕えることは重要となる。
As in the example shown in FIG. 2, when the
そこで、実施の形態1では、画像合成装置100が撮影画像内で被写体がフレームインまたはフレームアウトする領域を参照領域として予め指定しておき、被写体がフレームインまたはフレームアウトする際において、参照領域内の輝度が適切になるように、合成画像全体の輝度調整を行うようにしている。
Therefore, in the first embodiment, when the
具体的には、画像400a内の道路の右端部分に参照領域A1を、画像400d内の道路の左端部分に参照領域A2を設定している。なお、参照領域は、画像の中(特に動画)で被写体がフレームインまたはフレームアウトする一部領域を指すものとし、画面全体を示すものではない。
Specifically, the reference area A1 is set at the right end of the road in the
参照領域A1、A2を参照する際の優先順位はA1、A2の順とし、第1参照領域を参照領域A1、第2参照領域を参照領域A2とする。なお、参照領域は合成画像の中に一つ以上設ける。参照領域は、例えば、合成画像を形成する各撮影画像の中に複数設けてもよいし、参照領域を設けない撮影画像が存在してもよい。 The priority when referring to the reference areas A1 and A2 is A1 and A2 in this order, and the first reference area is referred to as the reference area A1 and the second reference area is referred to as the reference area A2. Note that one or more reference areas are provided in the composite image. For example, a plurality of reference areas may be provided in each photographed image forming a composite image, or a photographed image in which the reference area is not provided may exist.
また、図3には、画像400a、400b、400c、400dを合成する際の重畳領域(重畳部分)が示されている。452aは、画像400aにおける画像400aと画像400bとの重畳領域であり、451bは、画像400bにおける画像400aと画像400bとの重畳領域であり、452bは、画像400bにおける画像400bと画像400cとの重畳領域であり、451cは、画像400cにおける画像400bと画像400cとの重畳領域であり、452cは、画像400cにおける画像400cと画像400dとの重畳領域であり、451dは、画像400dにおける画像400cと画像400dとの重畳領域である。画像400a、400b、400c、400dを合成する処理の詳細については、後述する。
Further, FIG. 3 shows overlapping regions (overlapping portions) when combining the
次に、実施の形態1における輝度調整部120の輝度調整処理について、図4及び図5を用いて説明する。図4は、実施の形態1における輝度調整部120の動作を示すフローチャートである。輝度調整部120は、まず、参照領域情報170から第1参照領域である参照領域A1を読み込み、参照領域A1含む画像400aを基準画像としてメモリ212に記憶する(ステップST101)。参照領域情報170には、参照領域に係る情報(例えば、参照領域を含む撮影装置、画面内の参照領域の位置、参照領域の輝度の閾値)が保存されている。
Next, the brightness adjustment processing of the
次に、輝度調整部120は、第1参照領域である参照領域A1の平均輝度Ia1を算出し(ステップST102)、予め参照領域情報170に保持されている参照領域の輝度に関する閾値X(第1の閾値)と参照領域A1の平均輝度Ia1を比較する(ステップST103)。
Next, the
輝度調整部120は、参照領域A1の平均輝度Ia1が閾値X以上である場合(ステップST103においてNO)は、ステップST104に移行し、参照領域A1の平均輝度Ia1が閾値Xよりも低くなるまで基準画像400aの画面輝度レベルを下げる(第1の調整)。参照領域A1の平均輝度Ia1が閾値X未満である場合(ステップST103においてYES)は、次のステップ(ステップST105)に移行する。
When the average luminance Ia1 of the reference area A1 is equal to or higher than the threshold X (NO in step ST103), the
なお、閾値Xは、参照領域内の平均輝度が白とびしない(輝度が高すぎない)程度の値に設定する。例えば255を最も明るい最高輝度とする8ビットデータにおいて、200から250程度の範囲の値に設定する。閾値Xは前記値に限らず、撮影装置の設置環境、被写体種類などにより適宜調整するのが好ましい。なお、閾値Xは図示しない手段により観測者(ユーザ)が適宜設定できるようにしてもよい。 The threshold value X is set to a value such that the average luminance in the reference area is not overexposed (the luminance is not too high). For example, in 8-bit data in which 255 is the brightest maximum luminance, the value is set to a value in the range of approximately 200 to 250. The threshold value X is not limited to the above value, and it is preferable that the threshold value X be appropriately adjusted according to the installation environment of the imaging device, the type of subject, and the like. The threshold value X may be set appropriately by the observer (user) by means not shown.
ステップST105の処理では、輝度調整部120は、基準画像400aに隣接する画像400bの画面輝度を調整する(第2の調整)。参照領域A1の平均輝度Ia1が閾値Xを超えない範囲で、基準画像400aと隣接画像400bの重畳部分452aと451bの輝度レベルが同じとなるように、基準画像400aあるいは隣接画像400bの画面輝度レベルを調整する。
In the process of step ST105, the
ここで、一般的には、撮影画像は画面輝度が高い方が観測者に見やすい画面となる。したがって、参照領域A1の平均輝度Ia1が閾値Xに満たない場合は、参照領域A1の平均輝度Ia1が閾値Xを超えない範囲で基準画像400aの画面輝度が高くなるように調整して、調整後の基準画像400aの画面輝度と同じレベルになるように隣接画像400bの画面輝度を調整する。
Here, in general, the photographed image is a screen that is easy for the observer to see when the screen brightness is high. Therefore, when the average luminance Ia1 of the reference area A1 does not satisfy the threshold X, the adjustment is performed so that the screen luminance of the
また、基準画像400aの画面輝度を変えずに(基準画像400aの画面輝度はそのまま)隣接画像400bの輝度を調整することにしてもよい。これは、観測者にとって基準画像400aが最も重要な画像であり、基準画像400aの画面輝度に合わせて合成画像を生成した方が、自然な見え方となる場合があるためである。
Alternatively, the luminance of the
基準画像と隣接画像の画面輝度調整方法に関して、基準画像の画面輝度を変えずに調整するか、基準画像の画面輝度が高くなるように調整するかは、観測者(ユーザ)が予め選択できるようにしておき、参照領域情報170にどちらを選択するのかという輝度調整方法の選択肢を保持させておき、ステップST105にて、輝度調整方法の選択肢を読み出し、読み出した方法により輝度調整を行うようにしてもよい。
With regard to the method of adjusting the screen brightness of the reference image and the adjacent image, the observer (user) can select in advance whether to adjust without changing the screen brightness of the reference image or to adjust the screen brightness of the reference image to be high. The
ここで、基準画像400aと隣接画像400bの重畳部分452aと451bの輝度レベルの調整方法は、重畳部分452aの平均輝度と重畳部分451bの平均輝度が同じレベルとなるようにすればよい。また、重畳部分452aと重畳部分451bの対応点が既知なことより、予め重畳部分452aと重畳部分451bの特徴点を数点から数十点抽出しておいて、前記特徴点の平均輝度が同じレベルになるように輝度調整をしてもよい。
Here, as a method of adjusting the luminance levels of the superimposed
次に、ステップST106の処理では、輝度調整部120は、輝度調整された隣接画像400bに参照領域が存在するか判定する。実施の形態1では、隣接画像400bに参照領域は存在しないので、次のステップST107に移行する。
Next, in the process of step ST106, the
次に、ステップST107の処理では、輝度調整部120は、全ての撮影画面(撮影画像)に対して輝度調整処理が行われたか否かを判定する。本実施の形態では、画像400cと画像400dの輝度調整処理が未実施なので、ステップST108の処理に移行する。
Next, in the process of step ST107, the
次に、ステップST108の処理では、輝度調整部120は、ステップST105により輝度調整された隣接画像400bを仮基準画像として設定し、仮基準画像400bに隣接する画像400cとの重畳部分452bの輝度レベルを算出してメモリ212に記憶する。
Next, in the process of step ST108, the
次に、ステップST109の処理では、輝度調整部120は、仮基準画像400bに隣接する画像400cの重畳部分451cの輝度レベルが、メモリ212に記憶した重畳部分452bの輝度レベルと同一となるように、隣接画像400cの画面輝度レベルの調整を行う。ステップST109の処理が終わると、ステップST106の処理に移行する。
Next, in the process of step ST109, the
ここでの画面輝度レベルの調整方法は、基準画像400aと隣接画像400bと同様に、重畳部分452bの平均輝度と重畳部分451cの平均輝度が同じレベルとなるようにすればよい。また、重畳部分452bと重畳部分451cの対応点が既知なことより、予め重畳部分452bと重畳部分451cの特徴点を数点から数十点抽出しておいて、前記特徴点の平均輝度が同じレベルになるように輝度調整をしてもよい。
Here, the method of adjusting the screen luminance level may be performed so that the average luminance of the superimposed
次に、ステップST106で、輝度調整部120は、直前の処理で画面輝度レベルを調整した画像400cに参照領域が含まれるか判定する。本実施の形態では、隣接画像400cに参照領域は存在しないので、次のステップST107に移行し、輝度調整部120は、全ての撮影画面に対して輝度調整処理が行われたか否かを判定する。本実施の形態では、画像400dの輝度調整処理が未実施なので、ステップST108の処理に移行する。
Next, in step ST106, the
ステップST108の処理では、輝度調整部120は、直前に輝度調整された隣接画像400cを仮基準画像として設定し、仮基準画像400cの隣接画像400dとの重畳部分452cの輝度レベルを算出してメモリ212に記憶する(ステップST108)。
In the process of step ST108, the
ステップST109の処理では、輝度調整部120は、仮基準画像400cに隣接する画像400dの重畳部分451dの輝度レベルが、メモリ212に記憶した重畳部分452cの輝度レベルと同一となるように、隣接画像400dの画面輝度レベルの調整を行う。ここでの画面輝度レベルの調整方法は、基準画像400aと隣接画像400bと同様である。
In the process of step ST109, the
次に、ステップST106で、輝度調整部120は、直前の処理で画面輝度レベルを調整した画像400dに参照領域が含まれるか判定する。隣接画像400dには第2参照領域A2が含まれるので、処理Aに移行する。
Next, in step ST106, the
図5は、図4における処理Aの動作の詳細を示すフローチャートである。図5に示されるように、処理Aでは、輝度調整部120は、第2参照領域を含む画像400dを仮基準画像として設定し、参照領域A2の平均輝度Ianを算出し、メモリ212に記憶する(ステップST201)。
FIG. 5 is a flowchart showing the details of the operation of process A in FIG. As shown in FIG. 5, in processing A, the
次に、輝度調整部120は、予め参照領域情報170に保持されている閾値Xと参照領域A2の平均輝度Ianを比較する(ステップST202)。輝度調整部120は、参照領域A2の平均輝度Ianが閾値X未満の場合(ステップST202においてYES)は、何も処理をせずに処理Bに移行し、全ての撮影画面に対して輝度調整処理が行われたか否かを判定する(図4におけるステップST107)。
Next, the
ステップST202において、輝度調整部120は、参照領域A2の平均輝度Ianが閾値X以上である場合(ステップST202においてNO)は、ステップST203の処理に移行し、参照領域A2の平均輝度Ianが閾値X未満となるまで、仮基準画像400dの画面輝度レベルを下げる。
In step ST202, when the average luminance Ian of the reference area A2 is equal to or higher than the threshold X (NO in step ST202), the
ステップST204において、輝度調整部120は、仮基準画像400dの画面輝度レベルを下げた割合(下げ率)をメモリ212に記憶し、メモリ212に記憶した下げ率に合わせて、仮基準画像400dを除くすべての画像400c、画像400b、画像400aの画面輝度レベルを下げる。ステップST204の処理が終了した後、処理Bに移行し、輝度調整部120は、全ての撮影画面に対して輝度調整処理が行われたか否かを判定する(ステップST107)。
In step ST204, the
実施の形態1では、画像400dの輝度調整処理が終了したことによりすべての画像に対する輝度調整処理が終了となり、輝度調整された4枚の画像である、画像400a、画像400b、画像400c、画像400dはメモリ212に記憶される。画像合成部130は記憶された前記4枚の輝度調整された画像から合成画像を生成する。生成された合成画像は、参照領域A1及びA2に白とびが無く、かつ、合成画像全体で輝度のばらつきの少ない、認識しやすい画像となる。
In the first embodiment, the brightness adjustment processing for all the images is completed by the end of the brightness adjustment processing for the
次に、画像合成部130の動作について図6を用いて説明する。図6は、実施の形態1における画像合成部130の動作を説明するための図である。輝度調整部120により輝度調整処理が施された画像は、一旦、メモリ212に記憶され、画像合成部130に送られる。なお、画像合成部130に送られる画像は、輝度調整部120で輝度調整処理が施されていなくても、画像合成部130での処理動作は同じである。
Next, the operation of the
画像合成部130では、歪補正及び輝度調整が施された複数の撮影画像を1枚の画像として合成する処理が行われる。合成処理は、画像合成部130で定義されている投影面360に、歪補正及び輝度調整が施された複数の画像を貼り付けることにより実現される。なお投影面360は実空間に設けられた面ではなく、メモリ212に設けられた仮想の投影面であり、投影面360として定義されたメモリ空間上の定められた座標位置に、各画像を貼り付ける。
The
まず、歪補正及び輝度調整が施された複数の撮影画像を投影面360に貼り付けるための前処理として、記憶部150に保持されている座標変換テーブル180を用いて、歪補正及び輝度調整が施された複数の撮影画像の射影変換を行う。
First, as preprocessing for attaching a plurality of photographed images subjected to distortion correction and luminance adjustment to the
歪補正及び輝度調整が施された第1撮影画像400a、第2撮影画像400b、第3撮影画像400c、及び第4撮影画像400dは、射影変換により、第1撮影画像410a、第2撮影画像410b、第3撮影画像410c、及び第4撮影画像410dに変換される。以下、射影変換後の第1撮影画像410a、第2撮影画像410b、第3撮影画像410c、及び第4撮影画像410dを、画像410a、410b、410c、410dともいう。
The first captured
次に、画像合成部130は、射影変換後の画像410a、410b、410c、410dを投影面360上へ貼り付ける。
Next, the
射影変換後の画像410a、410b、410c、410dの投影面360上への貼り付け位置は、第1撮影装置101a、第2撮影装置101b、第3撮影装置101c、及び第4撮影装置101dの設置位置情報(例えば、カメラ姿勢、設置座標)を基にして予め決められており、記憶部150のカメラ設置情報190に記憶されている。
The attachment positions of the
図6に示されるように、画像合成部130は、射影変換後の第1撮影画像410aを第1画像投影領域361に、射影変換後の第2撮影画像410bを第2画像投影領域362に、射影変換後の第3撮影画像410cを第3画像投影領域363に、射影変換後の第4撮影画像410dを第4投影領域364に貼り付ける。
As shown in FIG. 6, the
図6に示されるように、射影変換後の画像410a、410b、410c、410dを投影面360に貼り付ける際には、それぞれ隣接する画像の一部が重畳するように貼り付け位置が決められている。
As shown in FIG. 6, when the
図6における重畳領域370は、射影変換後の第1撮影画像410aと射影変換後の第2撮影画像410bとの重畳領域であり、重畳領域380は、射影変換後の第2撮影画像410bと射影変換後の第3撮影画像410cとの重畳領域であり、重畳領域390は、射影変換後の第3撮影画像410cと射影変換後の第4撮影画像410dとの重畳領域である。
A superimposed
歪補正された画像400a、400b、400c、400dを射影変換して投影面360に貼り付けるまでの工程は、定式により行われることから、投影面360上の画素位置と歪補正後の画像との対応を取る(知る)ことが可能となる。つまり、歪補正された画像400a、400b、400c、400dの各画素が、投影面360上のどの位置に投影されるかを予め知ることができる。
The process until projective transformation of the distortion-corrected
前述のように、投影面360上の画素位置と歪補正後の画像との対応関係を予め知ることができるので、図3における歪補正された画像400a、400b、400c、400dと、図6における投影面360上での各画像が重畳する領域370、380、390との対応関係を知ることができる。
As described above, since the correspondence between the pixel position on the
具体的には、図6における重畳領域370は、図3における領域452aと領域451bとに対応し、図6における重畳領域380は、図3における領域452bと領域451cとに対応し、図6における重畳領域390は、図3における領域452cと領域451dとに対応する。
Specifically, the overlapping
射影変換後の画像410a、410b、410c、410dを投影面360に貼り付けることにより、合成画像350が生成される。以上のようにして生成された合成画像350は、出力インタフェース230を介して、ディスプレイなどの表示機器に出力される。
The
《1−3》実施の形態1の効果
以上のように、実施の形態1に係る画像合成装置100によれば、複数の撮影画像を合成する際に、被写体が撮影画面内に現れる領域、または被写体が撮影画面から無くなる領域を参照領域として設定し、参照領域の輝度が予め決めた閾値Xを超えないように、複数の撮影画像の輝度を調整する。これにより、輝度ばらつきの少ない合成画像が得られるとともに、観測者が観測するべき被写体が撮影画面内に現れる領域また被写体が撮影画面から無くなる領域においても、輝度過剰による白とびのない、見やすい画像を得ることができる。特に、監視領域に被写体が出現(または消失)したか否かを監視する用途において、監視者に見やすい合成画像を提供できる。特に、合成画像を監視者の目視補助として使用する場合に有用である。<1-3> Effects of First Embodiment As described above, according to the
《2》実施の形態2
《2−1》実施の形態2の構成
実施の形態2では、主に、実施の形態1と異なる点について説明する。実施の形態1では、参照領域の平均輝度が、少なくとも参照領域周辺部の輝度に対して急峻に変化しない場合を前提としていた。これに対して、実施の形態2では、参照領域の平均輝度が、参照領域周辺部の輝度に対して急峻に変化する場合の画像合成装置100の輝度調整部120の動作について説明する。<< 2 >> Second Embodiment
<< 2-1 >> Configuration of Second Embodiment In the second embodiment, points different from the first embodiment will be mainly described. In the first embodiment, it is assumed that the average luminance of the reference area does not change sharply with respect to at least the peripheral area of the reference area. On the other hand, in the second embodiment, the operation of the
図7、図8、図9を用いて、実施の形態2における輝度調整部120の動作について説明する。なお、画像合成装置100の構成は実施の形態1で説明した構成と同様であるので、その説明を省略する。
The operation of the
図7は、実施の形態2における、第1撮影装置101a、第2撮影装置101b、第3撮影装置101c、第4撮影装置101dで撮影される映像(画像)内における参照領域及び周辺領域について示す図である。実施の形態2では、第1撮影装置101a、第2撮影装置101b、第3撮影装置101c、第4撮影装置101dで撮影される映像(画像)の画面輝度が低い場合、例えば、夜間の屋外撮影を想定している。
FIG. 7 shows the reference area and the surrounding area in the video (image) captured by the
図7において、B1は参照領域A1の周辺領域、B2は参照領域A2の周辺領域である。周辺領域B1、B2は、参照領域A1、A2に隣接する領域である。なお、周辺領域B1、B2には、それぞれ参照領域A1、A2は含まれない。図7では、参照領域A1内に、ライトを点灯した車両301が映っている状態を示している。
In FIG. 7, B1 is a peripheral area of the reference area A1, and B2 is a peripheral area of the reference area A2. The peripheral areas B1 and B2 are areas adjacent to the reference areas A1 and A2. Note that the reference areas A1 and A2 are not included in the peripheral areas B1 and B2, respectively. FIG. 7 shows a state in which the
参照領域A1、A2と周辺領域B1、B2とは近接しており、通常は両者の間に大きな輝度差は生じない。しかし、図7に示される例では、参照領域A1内に車両301のライトが点灯した画像が写っているため、参照領域A1の輝度が高く、周辺領域B1の輝度が低くなっており、参照領域A1の輝度と周辺領域B1の輝度との間に大きな差が生じている。
The reference areas A1 and A2 and the peripheral areas B1 and B2 are close to each other, and usually, a large difference in luminance does not occur. However, in the example shown in FIG. 7, since the image in which the light of the
次に、実施の形態2における輝度調整部120の動作について説明する。図8及び図9は、実施の形態2における輝度調整部120の輝度調整動作を説明するフローチャートである。図8及び図9のフローチャートにおいて、実施の形態2の特徴となる処理はステップST300、ステップST301、ステップST302、ステップST303である。他の処理ステップについては実施の形態1と同様であるので説明を省略する。
Next, the operation of the
ステップST103で第1参照領域の平均輝度Ia1が閾値X以上となった場合、参照領域情報170に記憶されている周辺領域B1の情報(画面内の位置、画素情報)から、周辺領域B1の平均輝度Ib1を算出し(ステップST300)、次に、第1参照領域の平均輝度Ia1と周辺領域B1の平均輝度Ib1の輝度差分を求め、前記輝度差分と予め参照領域情報170に記憶されている閾値Y(第2の閾値)とを比較する(ステップST301)。閾値Yは、参照領域輝度と周辺輝度との輝度差が、経験的(見た目、主観)で不自然となるような値に設定するとよい。
When the average luminance Ia1 of the first reference area becomes equal to or greater than the threshold X in step ST103, the average of the peripheral area B1 is determined from the information (the position in the screen, pixel information) of the peripheral area B1 stored in the
例えば、図7の場合、夜間の屋外状態を想定しているので、255を最も明るい最高輝度とする8ビットデータにおいて、参照領域の輝度と周辺領域の輝度との差が100以上になるように設定する。閾値Yは上記値に限らず、撮影装置の設置環境、被写体種類などにより適宜調整するのが好ましい。なお、閾値Yは図示しない手段により観測者(ユーザ)が適宜設定できるようにしてもよい。 For example, in the case of FIG. 7, since the outdoor state at night is assumed, the difference between the brightness of the reference area and the brightness of the peripheral area is 100 or more in 8-bit data having 255 as the brightest maximum brightness. Set The threshold value Y is not limited to the above value, and it is preferable that the threshold value Y be appropriately adjusted according to the installation environment of the imaging device, the type of subject, and the like. The threshold value Y may be appropriately set by the observer (user) by means not shown.
前記輝度差分が閾値Y以上の場合(ST301においてNO)は、参照領域内に高輝度の被写体が映ったと判断して、輝度調整処理を行わないでステップST105へ移行する。前記輝度差分が閾値Y未満の場合(ST301においてYES)は、実施の形態1と同様にステップST104の処理が実行される。 If the luminance difference is equal to or larger than the threshold Y (NO in ST301), it is determined that a high luminance object appears in the reference area, and the process proceeds to step ST105 without performing the luminance adjustment processing. If the luminance difference is less than the threshold Y (YES in ST301), the process of step ST104 is performed as in the first embodiment.
前記輝度差分が閾値Y以上の場合は、参照領域内に高輝度の被写体が映る場合である。図7の場合では、ライトを点灯した車両301が参照領域A1内に映るため参照領域A1の輝度が高くなるが、実際は、画面全体が明るくなるわけではない。この状態でステップST104の処理を実行すると、基準画像全体の輝度を下げることになるため、結果的に合成画像全体の輝度が低くなり、見にくい画像になってしまう。
When the luminance difference is equal to or larger than the threshold Y, a high luminance subject appears in the reference area. In the case of FIG. 7, the luminance of the reference area A1 is high because the
よって、実施の形態2では、前記輝度差分が閾値Y以上の場合は、参照領域内に高輝度の被写体が映ったと判断して、基準画像の輝度調整を行わないようにすることにより、基準画像の輝度を下げることなく合成画像を生成することができる。 Therefore, in the second embodiment, when the luminance difference is equal to or more than the threshold value Y, it is determined that the high luminance subject appears in the reference area, and the reference image is not adjusted to thereby perform the reference image. The composite image can be generated without reducing the brightness of the image.
図9のフローチャートにおけるステップST303、ステップST304の処理も、基本的にステップST300、ステップST301の処理と同様である。第2参照領域A2の平均輝度Ianと第2参照領域の周辺領域輝度Ibnの差分輝度が閾値Y以上の場合は、参照領域を含む画面輝度の調整を行わないようにする。 The processes of step ST303 and step ST304 in the flowchart of FIG. 9 are also basically the same as the processes of step ST300 and step ST301. When the difference luminance between the average luminance Ian of the second reference area A2 and the peripheral area luminance Ibn of the second reference area is equal to or greater than the threshold Y, the screen luminance including the reference area is not adjusted.
《2−2》実施の形態2の効果
以上のように、実施の形態2に係る画像合成装置100によれば、複数の撮影画像を合成する際に、被写体が撮影画面内に現れる領域、または被写体が撮影画面から無くなる領域を参照領域として設定し、また、参照領域の周辺の領域である周辺領域を設定し、参照領域の輝度と周辺領域の輝度との差が大きい場合は、参照領域を含む画面の輝度調整を行わないようにするので、合成画像全体の輝度を無駄に下げることなく、見やすい合成画像を提供することができる。<2-2> Effects of Second Embodiment As described above, according to the
《3》変形例
上記実施の形態2では、参照領域の平均輝度と周辺領域の平均輝度とを比較していたが、周辺領域の輝度の代わりに、参照領域の過去時刻における参照領域の平均輝度を取得してメモリ212に保持しておき、前記過去時刻の参照領域の平均輝度と現在時刻における参照領域の平均輝度を比較して、両者の間に大きな輝度差が生じる場合は、参照領域内に高輝度の被写体が映った場合と判断するようにしてもよい。この場合には、メモリ212は、時刻情報を取得する時刻取得部を有することが望ましい。<< 3 >> Modifications Although the average luminance of the reference area and the average luminance of the peripheral area are compared in the second embodiment, the average luminance of the reference area at the past time of the reference area is used instead of the luminance of the peripheral area. Is stored in the
すなわち、前記高輝度の被写体が映った場合は、参照領域を含む画面輝度の調整を行わないようにする。なお、この場合、過去時刻における参照領域の平均輝度は、参照領域に被写体が映っていない場合の参照領域の平均輝度となる。なお、過去時刻における参照領域の平均輝度を取得するタイミングは、被写体の移動速度などにより適宜設定すればよい。 That is, when the high-brightness subject appears, the screen brightness including the reference area is not adjusted. In this case, the average luminance of the reference area at the past time is the average luminance of the reference area when the subject is not shown in the reference area. The timing for acquiring the average luminance of the reference area at the past time may be appropriately set according to the moving speed of the subject and the like.
また、上記実施の形態では、第1参照領域である参照領域A1が合成画像350の一番端に位置する画像400aにある場合について説明した。この場合、輝度調整順序は第1参照領域が含まれる画像400aに隣接する画像400b、400c、400dの順で処理した。
Further, in the above embodiment, the case where the reference area A1, which is the first reference area, is in the
一方、第1参照領域である参照領域A1が合成画像の端以外にある画像に含まれる場合、例えば、画像400bに参照領域A1が含まれる場合は、参照領域A1が含まれる画像400bに離接する画像は画像400cと画像400aの2つある。ここで、輝度調整の順序を、次の参照領域A2が含まれる画像400dに近い方から行うと効率的に輝度調整処理を行うことができる。具体的には、輝度調整順序を、画像400c、画像400d、画像400aの順に行えばよい。
On the other hand, when the reference area A1 which is the first reference area is included in the image other than the end of the composite image, for example, when the
また、上記実施の形態では、横長の合成画像(いわゆるパノラマ画像)を生成する場合について説明したが、本発明の画像合成装置100の合成画像の形態は横長画像だけに限らない。図10は、変形例における合成画像の形態を示す図である。例えば、図10に示されるように、画像を上下左右に合成する場合にも適用できる。
Further, in the above embodiment, the case of generating a horizontally long composite image (so-called panoramic image) has been described, but the form of the composite image of the
図10に示される例では、画像400aに隣接する画像400b、画像400c、画像400dとの重畳部分440の輝度レベルが同一となるように輝度調整を行う。図10の例では、第1参照領域A1を含む画像400aと第2参照領域A2を含む画像400cの輝度調整を行った後、残りの隣接画像である画像400bと画像400dの輝度を調整すればよい。
In the example illustrated in FIG. 10, the luminance adjustment is performed so that the luminance level of the overlapping
また、合成画像は、上から見下ろすような俯瞰画像であってもよい。俯瞰画像に変換する場合は、画像合成装置100において、画像合成部130の処理に俯瞰変換処理機能を設ければよい。
Further, the composite image may be a bird's-eye-view image as viewed from above. In the case of converting into the overhead image, in the
上記実施の形態では、参照領域を予め設定するようにしていたが、画像合成装置100とは別に被写体位置検出手段を設け、前記被写体検知手段から得られる被写体位置情報を基にして参照領域を設定するようにしてもよい。被写体位置検出手段としては、被写体にGPS発信機を持たせる、路側帯に物体検出センサーを設置するなどの方法が考えられる。
In the above embodiment, the reference area is set in advance, but subject position detection means is provided separately from the
上記実施の形態では、撮影範囲を屋外、被写体を車両としていたが、本発明の画像合成装置の使用例はこれに限るものではなく、撮影範囲内のある程度定められた領域に被写体がフレームインあるいはフレームアウトするような用途に適用可能である。例えば飛行場面(空港面、滑走路面)の監視用途に適用した場合が考えられる。 In the above embodiment, the shooting range is outdoor, and the subject is a vehicle. However, the usage example of the image combining apparatus of the present invention is not limited to this, and the subject is framed in a certain area within the shooting range. It is applicable to the use which carries out a flameout. For example, it may be applied to monitoring of a flight scene (airport surface, runway surface).
この場合、図2における道路300に滑走路面が相当し、図2における車両301に飛行機が相当する。また、参照領域は滑走路端上の空域となる。飛行上面の場合、空港監視レーダーの情報等から飛行機が滑走路に着陸してくる方向が予め知ることが可能で、飛行機が着陸してくる方向に合わせて、撮影画像面内に参照領域を適宜設定することが可能となる。
In this case, a sliding surface corresponds to the
100 画像合成装置、 101a 第1撮影装置、 101b 第2撮影装置、 101c 第3撮影装置、 101d 第4撮影装置、 110 歪補正部、 120 輝度調整部、 130 画像合成部、 150記憶部、 160 歪補正テーブル、 170 参照領域情報、 180 座標変換テーブル、 190 カメラ設置情報、 200 画像処理部、 210 記憶装置、 211 補助記憶装置、 212 メモリ、 220 入力インタフェース、 230 出力インタフェース、 240 参照領域設定部、 300 撮影範囲、 301 被写体、 350 合成画像、 360 投影面、 361 第1画像投影領域、 362 第2画像投影領域、 363 第3画像投影領域、 364 第4画像投影領域、 370 射影変換後の第1撮影画像と射影変換後の第2撮影画像との重畳領域、 380 射影変換後の第2撮影画像と射影変換後の第3撮影画像との重畳領域、 390 射影変換後の第3撮影画像と射影変換後の第4撮影画像との重畳領域、 400a 歪補正後の第1撮影画像、 400b 歪補正後の第2撮影画像、 400c 歪補正後の第3撮影画像、 400d 歪補正後の第4撮影画像、 410a 射影変換後の第1撮影画像、 410b 射影変換後の第2撮影画像、 410c 射影変換後の第3撮影画像、 410d 射影変換後の第4撮影画像、 440 第1撮影画像と第2撮影画像と第3撮影画像と第4撮影画像の重畳領域、 452a 第1撮影画像と第2撮影画像との重畳領域の第1撮影装置で撮影された画像部分、 451b 第1撮影画像と第2撮影画像との重畳領域の第2撮影装置で撮影された画像部分、 452b 第2撮影画像と第3撮影画像との重畳領域の第2撮影装置で撮影された画像部分、 451c 第2撮影画像と第3撮影画像との重畳領域の第3撮影装置で撮影された画像部分、 452c 第3撮影画像と第4撮影画像との重畳領域の第3撮影装置で撮影された画像部分、 451d 第3撮影画像と第4撮影画像との重畳領域の第4撮影装置で撮影された画像部分、 A1 第1参照領域、 A2 第2参照領域、 B1 第1参照領域の周辺領域、 B2 第2参照領域の周辺領域。
DESCRIPTION OF SYMBOLS 100 Image synthesizing device, 101a 1st imaging device, 101b 2nd imaging device, 101c 3rd imaging device, 101d 4th imaging device, 110 distortion correction part, 120 brightness adjustment part, 130 image synthesizing part, 150 storage part, 160 distortion Correction table, 170 reference area information, 180 coordinate conversion table, 190 camera installation information, 200 image processing section, 210 storage unit, 211 auxiliary storage unit, 212 memory, 220 input interface, 230 output interface, 240 reference area setting unit, 300 Shooting range, 301 subject, 350 composite image, 360 projection plane, 361 first image projection area, 362 second image projection area, 363 third image projection area, 364 fourth image projection area, 370 first projection after projection conversion Superimposed area of the image and the second captured image after projective transformation 380 Superimposed area of second photographed image after projective transformation and third photographed image after projective transformation 390 Superimposed area of third photographed image after projective transformation and fourth photographed image after projective transformation 400a After distortion correction First photographed image of 400b Second corrected image after distortion correction 400c Third photographed image after distortion correction 400d Fourth photographed image after distortion correction 410a First photographed image after projective conversion 410b After projective conversion Second photographed image, 410c third photographed image after projective transformation, 410d fourth photographed image after projective transformation, 440 overlapping area of first photographed image, second photographed image, third photographed image and fourth photographed image, 452a An image portion captured by the first imaging device of the superimposed region of the first captured image and the second captured image, 451b An image captured by the second imaging device of the superimposed region of the first captured image and the second captured image Part, 452b An image portion captured by the second imaging device of the superimposed area of the second captured image and the third captured image, 451c An image portion captured by the third imaging device of the superimposed area of the second captured image and the third captured image , 452c An image portion captured by the third imaging device of the superimposed region of the third captured image and the fourth captured image, 451d captured by the fourth imaging device of the superimposed region of the third captured image and the fourth captured image Image part, A1 first reference area, A2 second reference area, B1 peripheral area of first reference area, B2 peripheral area of second reference area.
Claims (9)
前記複数の撮影画像の内の少なくとも一つの撮影画像の一部を参照領域として設定する参照領域設定部と、
前記参照領域が設定された前記撮影画像である第1の撮影画像における前記参照領域の平均輝度が予め定められた第1の閾値以上であるときは、前記参照領域の平均輝度が前記第1の閾値未満となるように前記参照領域の平均輝度を調整する第1の調整と、前記参照領域の前記第1の調整後の平均輝度に基づいて前記第1の撮影画像に隣接する前記撮影画像である第2の撮影画像の平均輝度を調整する第2の調整とを行い、
前記参照領域の平均輝度が前記第1の閾値未満であるときは、前記第1の調整が行われていない前記第1の撮影画像の平均輝度に基づいて前記第2の調整を行う、輝度調整部と、
前記輝度調整部により輝度が調整された前記複数の撮影画像を合成して前記一つの連続した画像を生成する画像合成部と
を有する画像合成装置。In an image combining device that combines a plurality of captured images so as to overlap a part of a plurality of captured images captured by a plurality of capturing devices, and generates one continuous image,
A reference area setting unit configured to set a part of at least one photographed image of the plurality of photographed images as a reference area;
When the average luminance of the reference area in the first photographed image, which is the photographed image in which the reference area is set, is equal to or greater than a predetermined first threshold, the average luminance of the reference area is the first The first adjustment of adjusting the average luminance of the reference area to be less than the threshold, and the photographed image adjacent to the first photographed image based on the average luminance after the first adjustment of the reference area. Perform a second adjustment to adjust the average brightness of a second captured image;
When the average luminance of the reference area is less than the first threshold, the second adjustment is performed based on the average luminance of the first photographed image for which the first adjustment is not performed. Department,
An image combining unit configured to combine the plurality of photographed images whose brightness has been adjusted by the brightness adjusting unit to generate the one continuous image.
請求項1に記載の画像合成装置。When the difference between the average luminance in the reference area and the average luminance in the peripheral area adjacent to the reference area is equal to or greater than a predetermined second threshold, the luminance adjustment unit may adjust the first adjustment. The image synthesizing device according to claim 1, wherein
過去時刻における前記参照領域の平均輝度を記憶する記憶部と
をさらに有し、
前記輝度調整部は、現在時刻における前記参照領域の平均輝度と、前記過去時刻における前記参照領域の平均輝度との差が、予め定められた第2の閾値以上である場合には、前記第1の調整を行わない
請求項1又は2に記載の画像合成装置。A time acquisition unit that acquires time information;
And a storage unit storing average brightness of the reference area at a past time.
When the difference between the average luminance of the reference area at the current time and the average luminance of the reference area at the past time is equal to or greater than a predetermined second threshold, the luminance adjustment unit may The image synthesizing device according to claim 1, wherein the adjustment of is not performed.
前記参照領域は、前記ユーザにより前記第1の撮影画像の任意の位置に設定された領域である
請求項1から3のいずれか1項に記載の画像合成装置。Among the plurality of photographed images, the first photographed image for which the reference area is set is a photographed image arbitrarily selected by the user of the image combining device,
The image synthesizing device according to any one of claims 1 to 3, wherein the reference area is an area set by the user at an arbitrary position of the first photographed image.
請求項1から4のいずれか1項に記載の画像合成装置。The reference area setting unit sets two or more of the reference areas in different areas of one of the plurality of photographed images, or sets two or more of the plurality of photographed images. The image synthesizing device according to any one of claims 1 to 4, wherein two or more reference areas are set.
請求項5に記載の画像合成装置。The image combining apparatus according to claim 5, wherein the brightness adjustment unit prioritizes the two or more reference areas, and performs the first and second adjustments in accordance with the priorities.
請求項1から6のいずれか1項に記載の画像合成装置。The image synthesizing device according to any one of claims 1 to 6, further comprising a distortion correction unit configured to correct distortion of the plurality of photographed images.
前記複数の撮影画像の内の少なくとも一つの撮影画像の一部を参照領域として設定する参照領域設定ステップと、
前記参照領域が設定された前記撮影画像である第1の撮影画像における前記参照領域の平均輝度が予め定められた第1の閾値以上であるときは、前記参照領域の平均輝度が前記第1の閾値未満となるように前記参照領域の平均輝度を調整する第1の調整と、前記参照領域の前記第1の調整後の平均輝度に基づいて前記第1の撮影画像に隣接する前記撮影画像である第2の撮影画像の平均輝度を調整する第2の調整とを行い、
前記参照領域の平均輝度が前記第1の閾値未満であるときは、前記第1の調整が行われていない前記第1の撮影画像の平均輝度に基づいて前記第2の調整を行う、輝度調整ステップと、
前記輝度調整ステップにより輝度が調整された前記複数の撮影画像を合成して前記一つの連続した画像を生成する画像合成ステップと
を有する画像合成方法。An image combining method for combining the plurality of captured images so as to generate a single continuous image so that a part of the plurality of captured images captured by the plurality of capturing devices is superimposed;
A reference area setting step of setting a part of at least one photographed image of the plurality of photographed images as a reference area;
When the average luminance of the reference area in the first photographed image, which is the photographed image in which the reference area is set, is equal to or greater than a predetermined first threshold, the average luminance of the reference area is the first The first adjustment of adjusting the average luminance of the reference area to be less than the threshold, and the photographed image adjacent to the first photographed image based on the average luminance after the first adjustment of the reference area. Perform a second adjustment to adjust the average brightness of a second captured image;
When the average luminance of the reference area is less than the first threshold, the second adjustment is performed based on the average luminance of the first photographed image for which the first adjustment is not performed. Step and
An image combining step of combining the plurality of photographed images whose brightness has been adjusted in the brightness adjusting step to generate the one continuous image.
複数の撮影装置の撮影により取得された複数の撮影画像の一部が重畳するように前記複数の撮影画像を合成して一つの連続した画像を生成させるための画像合成プログラムにおいて、
前記複数の撮影画像の内の少なくとも一つの撮影画像の一部を参照領域として設定する参照領域設定処理と、
前記参照領域が設定された前記撮影画像である第1の撮影画像における前記参照領域の平均輝度が予め定められた第1の閾値以上であるときは、前記参照領域の平均輝度が前記第1の閾値未満となるように前記参照領域の平均輝度を調整する第1の調整と、前記参照領域の前記第1の調整後の平均輝度に基づいて前記第1の撮影画像に隣接する前記撮影画像である第2の撮影画像の平均輝度を調整する第2の調整とを行い、
前記参照領域の平均輝度が前記第1の閾値未満であるときは、前記第1の調整が行われていない前記第1の撮影画像の平均輝度に基づいて前記第2の調整を行う、輝度調整処理と、
前記輝度調整処理により輝度が調整された前記複数の撮影画像を合成して前記一つの連続した画像を生成する画像合成処理と
を実行させる画像合成プログラム。On the computer
An image combining program for combining the plurality of captured images so as to generate one continuous image so that a part of the plurality of captured images captured by the plurality of capturing devices is superimposed,
Reference area setting processing of setting a part of at least one photographed image of the plurality of photographed images as a reference area;
When the average luminance of the reference area in the first photographed image, which is the photographed image in which the reference area is set, is equal to or greater than a predetermined first threshold, the average luminance of the reference area is the first The first adjustment of adjusting the average luminance of the reference area to be less than the threshold, and the photographed image adjacent to the first photographed image based on the average luminance after the first adjustment of the reference area. Perform a second adjustment to adjust the average brightness of a second captured image;
When the average luminance of the reference area is less than the first threshold, the second adjustment is performed based on the average luminance of the first photographed image for which the first adjustment is not performed. Processing and
An image combining program for executing an image combining process of combining the plurality of photographed images whose brightness has been adjusted by the brightness adjustment process to generate one continuous image.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2016/086688 WO2018105097A1 (en) | 2016-12-09 | 2016-12-09 | Image synthesis device, image synthesis method, and image synthesis program |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018105097A1 true JPWO2018105097A1 (en) | 2019-04-25 |
JP6513309B2 JP6513309B2 (en) | 2019-05-15 |
Family
ID=62490971
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018555410A Active JP6513309B2 (en) | 2016-12-09 | 2016-12-09 | Image synthesizing device, image synthesizing method, and image synthesizing program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6513309B2 (en) |
WO (1) | WO2018105097A1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7546369B2 (en) | 2020-03-27 | 2024-09-06 | キヤノン株式会社 | Image processing device and image processing method |
CN115037882B (en) * | 2021-03-05 | 2024-02-20 | 思特威(上海)电子科技股份有限公司 | Image brightness adjusting method, imaging device and computer storage medium |
WO2023032125A1 (en) * | 2021-09-02 | 2023-03-09 | 日本電信電話株式会社 | Panoramic image generation device, panoramic image generation method, and panoramic image generation program |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005175620A (en) * | 2003-12-08 | 2005-06-30 | Canon Inc | Image processing method and apparatus |
JP2015084512A (en) * | 2013-09-18 | 2015-04-30 | 株式会社リコー | Image processing system |
JP2015186170A (en) * | 2014-03-26 | 2015-10-22 | ソニー株式会社 | Image processing apparatus and image processing method |
JP2016208306A (en) * | 2015-04-23 | 2016-12-08 | パナソニックIpマネジメント株式会社 | Image processing device, imaging system having the same and image processing method |
-
2016
- 2016-12-09 WO PCT/JP2016/086688 patent/WO2018105097A1/en active Application Filing
- 2016-12-09 JP JP2018555410A patent/JP6513309B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005175620A (en) * | 2003-12-08 | 2005-06-30 | Canon Inc | Image processing method and apparatus |
JP2015084512A (en) * | 2013-09-18 | 2015-04-30 | 株式会社リコー | Image processing system |
JP2015186170A (en) * | 2014-03-26 | 2015-10-22 | ソニー株式会社 | Image processing apparatus and image processing method |
JP2016208306A (en) * | 2015-04-23 | 2016-12-08 | パナソニックIpマネジメント株式会社 | Image processing device, imaging system having the same and image processing method |
Also Published As
Publication number | Publication date |
---|---|
WO2018105097A1 (en) | 2018-06-14 |
JP6513309B2 (en) | 2019-05-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106713755B (en) | Panoramic image processing method and device | |
JP4806476B2 (en) | Image processing apparatus, image generation system, method, and program | |
US20150109408A1 (en) | System and method for capturing and rendering a landscape image or video | |
JP6513309B2 (en) | Image synthesizing device, image synthesizing method, and image synthesizing program | |
JP2013165487A (en) | Image processing apparatus, image capturing apparatus, and program | |
JP6040042B2 (en) | Image processing apparatus, image processing method, and program | |
JP6351377B2 (en) | Image processing system, imaging apparatus, and recording apparatus | |
JP2013029995A (en) | Imaging system | |
US10171733B2 (en) | Image processing apparatus and method, and program and recording medium | |
KR102282457B1 (en) | Method and apparatus for reducing color moire, and image processing apparatus | |
WO2014188647A1 (en) | Image adjustment device, image adjustment method, image adjustment program, and image capture device | |
US11310440B2 (en) | Image processing apparatus, surveillance camera system, and image processing method | |
US9357133B2 (en) | Digital photographing apparatus, auto-focusing method, and computer-readable storage medium for executing the auto-focusing method | |
US9571720B2 (en) | Image processing device, display device, imaging apparatus, image processing method, and program | |
JP5585117B2 (en) | Multi-display system, multi-display adjustment method and program | |
JP2013258537A (en) | Imaging apparatus and image display method of the same | |
US11206344B2 (en) | Image pickup apparatus and storage medium | |
JP6157274B2 (en) | Imaging apparatus, information processing method, and program | |
US11356611B2 (en) | Image capture apparatus and control method thereof | |
EP3799416A1 (en) | Image processing apparatus and method, and image capturing apparatus | |
CN116343652A (en) | LED display screen splice line compensation system, method, equipment and storage medium | |
JP6762843B2 (en) | Image processing equipment, image processing methods, and programs | |
WO2021059991A1 (en) | Imaging device | |
WO2019198198A1 (en) | Image processing device, image processing method, and image processing program | |
JP2019180057A (en) | Video processing apparatus, video processing system, video processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190118 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20190118 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20190221 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190312 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190409 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6513309 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |