JPWO2018105097A1 - Image synthesizing device, image synthesizing method, and image synthesizing program - Google Patents

Image synthesizing device, image synthesizing method, and image synthesizing program Download PDF

Info

Publication number
JPWO2018105097A1
JPWO2018105097A1 JP2018555410A JP2018555410A JPWO2018105097A1 JP WO2018105097 A1 JPWO2018105097 A1 JP WO2018105097A1 JP 2018555410 A JP2018555410 A JP 2018555410A JP 2018555410 A JP2018555410 A JP 2018555410A JP WO2018105097 A1 JPWO2018105097 A1 JP WO2018105097A1
Authority
JP
Japan
Prior art keywords
image
reference area
adjustment
photographed
average luminance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018555410A
Other languages
Japanese (ja)
Other versions
JP6513309B2 (en
Inventor
古木 一朗
一朗 古木
浩平 岡原
浩平 岡原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2018105097A1 publication Critical patent/JPWO2018105097A1/en
Application granted granted Critical
Publication of JP6513309B2 publication Critical patent/JP6513309B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

合成画像のつなぎ目において撮影画像間の輝度の違いによる輝度むらを低減し、認識しやすい合成画像を提供する。画像合成装置100は、画像処理部200と、記憶装置210と、入力インタフェース220と、出力インタフェース230と、参照領域設定部240とを備える。画像処理部200は、歪補正部110と、輝度調整部120と、画像合成部130とを備える。画像合成装置100は、参照領域設定部240により複数の撮影画像内の一部に参照領域を設定し、輝度調整部120により参照領域の輝度が予め決めた閾値を超えないように、複数の撮影画像間の輝度を調整する。Non-uniform luminance due to a difference in luminance between captured images at joints of composite images is reduced, and a composite image that is easy to recognize is provided. The image synthesizing device 100 includes an image processing unit 200, a storage device 210, an input interface 220, an output interface 230, and a reference area setting unit 240. The image processing unit 200 includes a distortion correction unit 110, a luminance adjustment unit 120, and an image combining unit 130. In the image combining device 100, the reference area setting unit 240 sets the reference area to a part of the plurality of photographed images, and the luminance adjustment unit 120 performs the plurality of photographing so that the luminance of the reference area does not exceed a predetermined threshold. Adjust the brightness between images.

Description

本発明は、複数の撮影装置の撮影により取得された複数の撮影画像を合成して一つの連続した画像を生成する画像合成装置、画像合成方法、及び画像合成プログラムに関する。   The present invention relates to an image combining apparatus, an image combining method, and an image combining program for combining a plurality of captured images acquired by capturing by a plurality of capturing devices to generate one continuous image.

従来、被写体(例えば、車両)周辺に取り付けた複数のカメラにより複数の撮影画像を生成し、生成した複数の撮影画像を連結(合成)してパノラマ画像を生成する技術がある。この際、撮影時刻及び撮影場所によって被写体の明るさ(照度)が変化する場合は、撮影画像の輝度調整は、カメラの持つAGC(Automatic Gain Control)機能を使用して、各カメラ撮影画像の輝度を調整するのが一般的である。   BACKGROUND Conventionally, there is a technique of generating a plurality of photographed images by a plurality of cameras attached around an object (for example, a vehicle) and connecting (combining) the generated plurality of photographed images to generate a panoramic image. At this time, when the brightness (illuminance) of the subject changes depending on the shooting time and the shooting location, the brightness adjustment of the shot image uses the AGC (Automatic Gain Control) function of the camera to set the brightness of each shot image of the camera. It is common to adjust the

しかし、カメラの向き又は取付け方向が異なると、各撮影画像の輝度にばらつきが生じるため、複数の撮影画像をそのまま合成しただけでは、撮影画像間の輝度差のために、撮影画像間のつなぎ目が目立ち、合成画像の連続性が損なわれ、一枚の画としての見た目が不自然となる問題がある。そこで、特許文献1には、複数の撮影画像の中から画面内の平均輝度が最も高い画像を基準画像として選定し、基準画像の輝度に合わせるように、合成画像全体の輝度を調整する技術が開示されている。   However, if the camera orientation or mounting direction is different, the luminance of each photographed image will vary, so if only a plurality of photographed images are synthesized as they are, the seams between photographed images will be due to the luminance difference between the photographed images. There is a problem that the continuity of the composite image is impaired and the appearance as a single picture becomes unnatural. Therefore, Patent Document 1 selects an image having the highest average brightness in the screen from among a plurality of photographed images as a reference image, and adjusts the brightness of the entire composite image to match the brightness of the reference image. It is disclosed.

特開2011−160019号公報JP, 2011-160019, A

しかしながら、特許文献1の技術では、複数の撮影画像の中で平均輝度が最も高い画像を基準にしているため、他の撮影画像の平均輝度を増加するように輝度調整がされる。このとき、輝度調整される撮影画像内には、輝度の低い部分(暗部)と輝度の高い部分(明部)が混在しており、画面全体の輝度調整を行うと、元々の明部の輝度が高い場合は、明部の輝度は元画像よりもさらに高くなってしまい、輝度が飽和した状態(いわゆる白とび)になるという問題がある。   However, in the technique of Patent Document 1, since the image with the highest average luminance among the plurality of photographed images is used as a reference, the luminance adjustment is performed so as to increase the average luminance of the other photographed images. At this time, a low-brightness portion (dark portion) and a high-brightness portion (bright portion) are mixed in the photographed image to be subjected to brightness adjustment, and if the brightness adjustment of the entire screen is performed, the brightness of the original bright portion is adjusted. Is high, the brightness of the bright part becomes higher than that of the original image, and there is a problem that the brightness becomes saturated (so-called overexposure).

また、車両などの移動体を監視する用途に合成画像を使用する場合であって、明部に移動体が現れることが予めわかっている場合では、輝度調整後の撮影画像の輝度が飽和した状態であると、監視者が移動体を認識することが困難となる(認識までに時間がかかる)問題がある。   In addition, in the case where the composite image is used for monitoring a moving object such as a vehicle, and it is known in advance that the moving object appears in the bright part, the state in which the brightness of the photographed image after the brightness adjustment is saturated. If this is the case, there is a problem that it becomes difficult for the observer to recognize the moving object (it takes time to recognize).

本発明に係る画像合成装置、画像合成方法、及び画像合成プログラムは、上記のような問題点を解決するためになされたものであり、合成画像のつなぎ目において撮影画像間の輝度の違いによる輝度むらを低減し、認識しやすい合成画像を提供することを目的とする。   The image combining apparatus, the image combining method, and the image combining program according to the present invention have been made to solve the above problems, and the uneven brightness due to the difference in brightness between the photographed images at the joint of the combined image. And provide a composite image that is easy to recognize.

本発明の一態様に係る画像合成装置は、複数の撮影装置の撮影により取得された複数の撮影画像の一部が重畳するように前記複数の撮影画像を合成して一つの連続した画像を生成する画像合成装置において、前記複数の撮影画像の内の少なくとも一つの撮影画像の一部を参照領域として設定する参照領域設定部と、前記参照領域が設定された前記撮影画像である第1の撮影画像における前記参照領域の平均輝度が予め定められた第1の閾値以上であるときは、前記参照領域の平均輝度が前記第1の閾値未満となるように前記参照領域の平均輝度を調整する第1の調整と、前記参照領域の前記第1の調整後の平均輝度に基づいて前記第1の撮影画像に隣接する前記撮影画像である第2の撮影画像の平均輝度を調整する第2の調整とを行い、前記参照領域の平均輝度が前記第1の閾値未満であるときは、前記第1の調整が行われていない前記第1の撮影画像の平均輝度に基づいて前記第2の調整を行う、輝度調整部と、前記輝度調整部により輝度が調整された前記複数の撮影画像を合成して前記一つの連続した画像を生成する画像合成部とを有する。   The image combining apparatus according to an aspect of the present invention combines the plurality of captured images so that a part of the plurality of captured images obtained by the plurality of capturing apparatuses capture one another and generates one continuous image. A reference area setting unit configured to set a part of at least one of the plurality of photographed images as a reference area, and a first photographed image as the photographed image in which the reference area is set. The average luminance of the reference area is adjusted such that the average luminance of the reference area is less than the first threshold when the average luminance of the reference area in the image is equal to or greater than a predetermined first threshold. A second adjustment for adjusting the average luminance of a second photographed image which is the photographed image adjacent to the first photographed image based on the adjustment of 1 and the average luminance of the reference area after the first adjustment And the above A luminance adjustment unit that performs the second adjustment based on the average luminance of the first photographed image for which the first adjustment has not been performed, when the average luminance of the reference area is less than the first threshold; And an image combining unit configured to combine the plurality of photographed images whose brightness has been adjusted by the brightness adjusting unit to generate one continuous image.

本発明の他の態様に係る画像合成方法は、複数の撮影装置の撮影により取得された複数の撮影画像の一部が重畳するように前記複数の撮影画像を合成して一つの連続した画像を生成するための画像合成方法において、前記複数の撮影画像の内の少なくとも一つの撮影画像の一部を参照領域として設定する参照領域設定ステップと、前記参照領域が設定された前記撮影画像である第1の撮影画像における前記参照領域の平均輝度が予め定められた第1の閾値以上であるときは、前記参照領域の平均輝度が前記第1の閾値未満となるように前記参照領域の平均輝度を調整する第1の調整と、前記参照領域の前記第1の調整後の平均輝度に基づいて前記第1の撮影画像に隣接する前記撮影画像である第2の撮影画像の平均輝度を調整する第2の調整とを行い、前記参照領域の平均輝度が前記第1の閾値未満であるときは、前記第1の調整が行われていない前記第1の撮影画像の平均輝度に基づいて前記第2の調整を行う、輝度調整ステップと、前記輝度調整ステップにより輝度が調整された前記複数の撮影画像を合成して前記一つの連続した画像を生成する画像合成ステップとを有する。   In an image combining method according to another aspect of the present invention, a plurality of captured images are combined such that a part of a plurality of captured images captured by a plurality of capturing devices is superimposed and one continuous image is displayed. In the image combining method for generating, a reference area setting step of setting a part of at least one photographed image of the plurality of photographed images as a reference area, and the photographed image in which the reference area is set. When the average luminance of the reference area in one captured image is equal to or greater than a predetermined first threshold, the average luminance of the reference area is set so that the average luminance of the reference area is less than the first threshold. Adjusting an average luminance of a second photographed image which is the photographed image adjacent to the first photographed image based on the first adjustment to be adjusted and the average luminance of the reference area after the first adjustment; Adjustment of 2 And if the average luminance of the reference area is less than the first threshold, perform the second adjustment based on the average luminance of the first captured image for which the first adjustment has not been performed. And an image combining step of combining the plurality of photographed images whose brightness has been adjusted by the brightness adjusting step to generate one continuous image.

本発明によれば、合成画像のつなぎ目において撮影画像間の輝度の違いによる輝度むらを低減し、認識しやすい合成画像を提供することができる。   According to the present invention, it is possible to reduce luminance unevenness due to a difference in luminance between photographed images at joints of synthetic images, and to provide a synthetic image that is easy to recognize.

本発明の実施の形態1に係る画像合成装置の概略的な構成を示すブロック図である。FIG. 1 is a block diagram showing a schematic configuration of an image combining device according to Embodiment 1 of the present invention. 実施の形態1における、第1撮影装置、第2撮影装置、第3撮影装置、及び第4撮影装置の配置と、撮影範囲を示す図である。FIG. 7 is a diagram showing the arrangement of a first imaging device, a second imaging device, a third imaging device, and a fourth imaging device, and an imaging range in Embodiment 1. 実施の形態1における、第1撮影装置、第2撮影装置、第3撮影装置、及び第4撮影装置により撮影される映像(画像)内における参照領域について示す図である。FIG. 7 is a diagram showing a reference area in a video (image) captured by the first imaging device, the second imaging device, the third imaging device, and the fourth imaging device in the first embodiment. 実施の形態1における輝度調整部の動作を示すフローチャートである。7 is a flowchart showing an operation of a luminance adjustment unit in Embodiment 1. 図4における処理Aの動作の詳細を示すフローチャートである。It is a flowchart which shows the detail of operation | movement of the process A in FIG. 実施の形態1における画像合成部の動作を説明するための図である。FIG. 6 is a diagram for describing an operation of an image combining unit in Embodiment 1. 実施の形態2における、第1撮影装置、第2撮影装置、第3撮影装置、第4撮影装置で撮影される映像(画像)内における参照領域及び周辺領域について示す図である。FIG. 17 is a diagram showing a reference area and a surrounding area in a video (image) captured by the first imaging device, the second imaging device, the third imaging device, and the fourth imaging device in the second embodiment. 実施の形態2における輝度調整部の動作を示すフローチャートである。FIG. 13 is a flowchart showing an operation of a luminance adjustment unit in Embodiment 2. FIG. 図8における処理Aの動作の詳細を示すフローチャートである。It is a flowchart which shows the detail of operation | movement of the process A in FIG. 変形例における合成画像の形態を示す図である。It is a figure which shows the form of the synthesized image in a modification.

以下、本発明の実施の形態に係る画像合成装置について説明する。なお、実施の形態では、撮影装置を4台用いた例について説明するが、撮影装置の数は4台に限定されない。また、以下で説明する画像合成装置の発明は、画像合成方法又は画像合成プログラムの発明として捉えることも可能である。   Hereinafter, an image combining device according to an embodiment of the present invention will be described. In the embodiment, an example in which four imaging devices are used will be described, but the number of imaging devices is not limited to four. In addition, the invention of the image combining device described below can be understood as the invention of an image combining method or an image combining program.

《1》実施の形態1
《1−1》実施の形態1の構成
図1は、本発明の実施の形態1に係る画像合成装置100の概略的な構成を示すブロック図である。実施の形態1において、画像合成装置100は、例えば、コンピュータである。図1に示されるように、画像合成装置100は、画像処理部200と、記憶装置210と、入力インタフェース220と、出力インタフェース230と、参照領域設定部240とを備える。画像処理部200と、記憶装置210と、入力インタフェース220と、出力インタフェース230とは、画像合成装置100のハードウェアである。図1に示されるように、入力インタフェース220は、第1撮影装置101aと、第2撮影装置101bと、第3撮影装置101cと、第4撮影装置101dとに接続されている。
<< 1 >> Embodiment 1
<< 1-1 >> Configuration of First Embodiment FIG. 1 is a block diagram showing a schematic configuration of an image combining device 100 according to the first embodiment of the present invention. In the first embodiment, the image combining device 100 is, for example, a computer. As shown in FIG. 1, the image combining device 100 includes an image processing unit 200, a storage device 210, an input interface 220, an output interface 230, and a reference area setting unit 240. The image processing unit 200, the storage device 210, the input interface 220, and the output interface 230 are hardware of the image combining device 100. As shown in FIG. 1, the input interface 220 is connected to the first imaging device 101a, the second imaging device 101b, the third imaging device 101c, and the fourth imaging device 101d.

図1に示されるように、画像処理部200は、歪補正部110と、輝度調整部120と、画像合成部130とを備える。画像処理部200は、画像合成装置100におけるソフトウェアに記述された命令を実行するプロセッサである。   As shown in FIG. 1, the image processing unit 200 includes a distortion correction unit 110, a luminance adjustment unit 120, and an image combining unit 130. The image processing unit 200 is a processor that executes instructions described in software in the image combining device 100.

画像処理部200は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。画像処理部200は、プロセッシングを行うIC(Integrated Circuit)である。画像処理部200は、例えば、CPU(Central Processing Unit)である。   The image processing unit 200 is connected to other hardware via a signal line and controls the other hardware. The image processing unit 200 is an integrated circuit (IC) that performs processing. The image processing unit 200 is, for example, a CPU (Central Processing Unit).

以下の説明では、画像処理部200における歪補正部110と、輝度調整部120と、画像合成部130との機能をまとめて、画像処理部200の機能という。画像合成装置100の画像処理部200の機能は、ソフトウェアにより実現されることができる。   In the following description, the functions of the distortion correction unit 110, the brightness adjustment unit 120, and the image combining unit 130 in the image processing unit 200 are collectively referred to as the function of the image processing unit 200. The function of the image processing unit 200 of the image combining device 100 can be realized by software.

画像合成装置100は、1つの画像処理部200のみを備えていてもよいし、複数の画像処理部200を備えていてもよい。複数の画像処理部200が、画像処理部200の機能を実現するプログラムを連携して実行してもよい。   The image synthesizing device 100 may include only one image processing unit 200, or may include a plurality of image processing units 200. The plurality of image processing units 200 may cooperatively execute a program for realizing the function of the image processing unit 200.

図1に示されるように、記憶装置210は、補助記憶装置211と、メモリ212とを備える。補助記憶装置211は、記憶部150を備える。記憶部150には、歪補正テーブル160と、参照領域情報170と、座標変換テーブル180と、カメラ設置情報190とが記憶されている。記憶装置210は、補助記憶装置211及びメモリ212を含む。   As shown in FIG. 1, the storage device 210 includes an auxiliary storage device 211 and a memory 212. The auxiliary storage device 211 includes a storage unit 150. The storage unit 150 stores a distortion correction table 160, reference area information 170, a coordinate conversion table 180, and camera installation information 190. The storage device 210 includes an auxiliary storage device 211 and a memory 212.

補助記憶装置211は、例えば、ROM(Read Only Memory)、フラッシュメモリ、又は、HDD(Hard Disk Drive)である。メモリ212は、例えば、RAM(Random Access Memory)である。記憶部150は、補助記憶装置211により実現される。なお、記憶部150が補助記憶装置211とメモリ212とにより実現されてもよい。   The auxiliary storage device 211 is, for example, a read only memory (ROM), a flash memory, or a hard disk drive (HDD). The memory 212 is, for example, a random access memory (RAM). The storage unit 150 is realized by the auxiliary storage device 211. The storage unit 150 may be realized by the auxiliary storage device 211 and the memory 212.

補助記憶装置211には、画像処理部200の機能を実現するプログラムが記憶されている。このプログラムは、メモリ212にロードされ、画像処理部200に読み込まれ、画像処理部200によって実行される。補助記憶装置211には、OS(Operating System)も記憶されている。OSの少なくとも一部がメモリ212にロードされ、画像処理部200はOSを実行しながら、画像処理部200の機能を実現するプログラムを実行する。   In the auxiliary storage device 211, a program for realizing the function of the image processing unit 200 is stored. The program is loaded into the memory 212, read into the image processing unit 200, and executed by the image processing unit 200. The auxiliary storage device 211 also stores an operating system (OS). At least a part of the OS is loaded into the memory 212, and the image processing unit 200 executes a program that implements the functions of the image processing unit 200 while executing the OS.

画像処理部200の機能による処理の結果を示す情報、データ、信号値、及び、変数値は、補助記憶装置211、メモリ212、又は、画像処理部200内のレジスタ又はキャッシュメモリに記憶される。なお、図1において、各部と記憶部150とを結ぶ矢印は、各部が処理の結果を記憶部150に記憶すること、あるいは、各部が記憶部150から情報を読み出すことを表している。また、各部を結ぶ矢印は、制御の流れを表している。また、各画像情報が各部間でメモリ212を介して授受されることを表すメモリ212と各部間の矢印については省略する。   Information, data, signal values, and variable values indicating the results of processing by the function of the image processing unit 200 are stored in the auxiliary storage device 211, the memory 212, or a register or cache memory in the image processing unit 200. In FIG. 1, an arrow connecting each unit to the storage unit 150 indicates that each unit stores the result of processing in the storage unit 150 or that each unit reads information from the storage unit 150. Further, arrows connecting the respective parts represent the flow of control. Further, arrows between the memory 212 and each part indicating that each piece of image information is exchanged between the parts via the memory 212 will be omitted.

画像処理部200の機能を実現するプログラムは、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ブルーレイ(登録商標)ディスク、DVD(Digital Versatile Disc)といった可搬記録媒体に記憶されてもよい。   The program for realizing the function of the image processing unit 200 may be stored in a portable recording medium such as a magnetic disk, a flexible disk, an optical disk, a compact disk, a Blu-ray (registered trademark) disk, or a DVD (Digital Versatile Disc).

なお、画像処理部200の機能を実現するプログラムを画像処理プログラムともいう。また、画像処理プログラムプロダクトと称されるものは、画像処理プログラムが記録された記憶媒体及び記憶装置であり、見た目の形式に関わらず、コンピュータ読み取り可能なプログラムをロードしているものである。   A program for realizing the function of the image processing unit 200 is also referred to as an image processing program. An image processing program product is a storage medium and a storage device in which the image processing program is recorded, and a computer readable program is loaded regardless of the format of the image processing program.

入力インタフェース220は、第1撮影装置101aと、第2撮影装置101bと、第3撮影装置101cと、第4撮影装置101dとに接続されるポートである。入力インタフェース220は、各撮影装置により撮像された画像を画像合成装置100に取り込む画像入力インタフェースである。入力インタフェース220により取り込まれた各撮影画像はメモリ212に記憶される。また、入力インタフェース220は、マウス、キーボード、タッチパネルといった入力装置と接続されるポートであってもよい。   The input interface 220 is a port connected to the first imaging device 101a, the second imaging device 101b, the third imaging device 101c, and the fourth imaging device 101d. The input interface 220 is an image input interface that takes in an image captured by each imaging device into the image combining device 100. Each captured image captured by the input interface 220 is stored in the memory 212. Further, the input interface 220 may be a port connected to an input device such as a mouse, a keyboard, or a touch panel.

入力インタフェース220は、具体的には、LAN(Local Area Network)と接続されるポートである。なお、入力インタフェース220は、USB(Universal Serial Bus)端子であってもよい。また、入力インタフェース220は、SDI(Serial Digital Interface)、HDMI(登録商標)(High Definition Multimedia Interface)、VGA(Video Graphics Array)、DVI(Digital Video Interface)、コンポーネント等の映像信号を画像合成装置100に取り込むことのできる、キャプチャボードであってもよい。   Specifically, the input interface 220 is a port connected to a LAN (Local Area Network). The input interface 220 may be a USB (Universal Serial Bus) terminal. In addition, the input interface 220 is an image synthesis device 100 for video signals such as serial digital interface (SDI), high definition multimedia interface (HDMI) (registered trademark), video graphics array (VGA), digital video interface (DVI), and components. It may be a capture board that can be captured.

出力インタフェース230は、ディスプレイといった表示機器のケーブルが接続されるポートである。出力インタフェース230は、例えば、USB端子又はHDMI(登録商標)(High Definition Multimedia Interface)端子である。ディスプレイは、例えば、LCD(Liquid Crystal Display)である。   The output interface 230 is a port to which a cable of a display device such as a display is connected. The output interface 230 is, for example, a USB terminal or an HDMI (registered trademark) (High Definition Multimedia Interface) terminal. The display is, for example, an LCD (Liquid Crystal Display).

参照領域設定部240は、各撮影画像に参照領域を設定する機能を有する。参照領域とは、合成画像の観測者(監視者)が撮像画像内で優先的に注視する領域である。この参照領域は、観測者(ユーザ)が各撮影装置の任意の画像内の任意の領域に設定することが可能である。図1に示されるように、参照領域設定部240により設定された参照領域は、記憶部150の参照領域情報170に記憶される。   The reference area setting unit 240 has a function of setting a reference area in each captured image. The reference area is an area in which the observer (supervisor) of the composite image focuses on the captured image with priority. This reference area can be set by the observer (user) to an arbitrary area in an arbitrary image of each imaging device. As shown in FIG. 1, the reference area set by the reference area setting unit 240 is stored in the reference area information 170 of the storage unit 150.

《1−2》実施の形態1の動作
次に、本発明の実施の形態1に係る画像合成装置100の動作について説明する。図2は、実施の形態1における、第1撮影装置101a、第2撮影装置101b、第3撮影装置101c、及び第4撮影装置101dの配置と、撮影範囲300を示す図である。以下の説明において、第1撮影装置101a、第2撮影装置101b、第3撮影装置101c、及び第4撮影装置101dを、撮影装置101a、101b、101c、101dともいう。
<1-2> Operation of First Embodiment Next, the operation of the image combining device 100 according to the first embodiment of the present invention will be described. FIG. 2 is a diagram showing the arrangement of the first imaging device 101a, the second imaging device 101b, the third imaging device 101c, and the fourth imaging device 101d and the imaging range 300 in the first embodiment. In the following description, the first imaging device 101a, the second imaging device 101b, the third imaging device 101c, and the fourth imaging device 101d are also referred to as imaging devices 101a, 101b, 101c, and 101d.

図2に示されるように、実施の形態1では、広範囲の撮影範囲300を4台の撮影装置101a、101b、101c、101dにより撮影している。図2の例では、撮影範囲300は道路であり、撮影装置101a、101b、101c、101dは道路状況を監視する監視カメラであり、監視対象(被写体)301は道路を走る車両である。   As shown in FIG. 2, in the first embodiment, the wide imaging range 300 is imaged by four imaging devices 101a, 101b, 101c, and 101d. In the example of FIG. 2, the imaging range 300 is a road, the imaging devices 101a, 101b, 101c, and 101d are monitoring cameras that monitor the road condition, and the monitoring target (subject) 301 is a vehicle traveling on the road.

撮影装置101a、101b、101c、101dは、CCD(Charged−Coupled Devices)あるいはCMOS(Complementary Metal−oxide−Semiconductor)といった撮像素子とレンズとを備えるカメラ機器である。   The imaging devices 101a, 101b, 101c, and 101d are camera devices including an imaging element such as a CCD (Charged-Coupled Devices) or a CMOS (Complementary Metal-Oxide-Semiconductor) and a lens.

撮影装置101a、101b、101c、101dは、同一種類の撮像素子及び同一種類のレンズを備える。撮影装置101a、101b、101c、101dは、例えば、監視カメラのような固定カメラである。また、撮影装置101a、101b、101c、101dは、AGC(Automatic Gain Control)機能を備えていることが望ましい。   The imaging devices 101a, 101b, 101c, and 101d include the same type of imaging device and the same type of lens. The imaging devices 101a, 101b, 101c, and 101d are, for example, fixed cameras such as surveillance cameras. Further, it is desirable that the photographing devices 101a, 101b, 101c, and 101d have an AGC (Automatic Gain Control) function.

次に、撮影装置101a、101b、101c、101dにより撮像された画像を合成する動作について説明する。まず、画像処理部200における歪補正部110の動作について説明する。撮影装置101a、101b、101c、101dで撮像された画像には、撮影装置のレンズ特性などにより歪みが生じている。特に、広角レンズを用いた場合は撮影画像の歪みが大きくなる。   Next, an operation of combining the images captured by the imaging devices 101a, 101b, 101c, and 101d will be described. First, the operation of the distortion correction unit 110 in the image processing unit 200 will be described. The images captured by the imaging devices 101a, 101b, 101c, and 101d are distorted due to lens characteristics of the imaging device and the like. In particular, when a wide-angle lens is used, distortion of a captured image becomes large.

この歪みを補正するために、撮影装置101a、101b、101c、101dにより撮像された各画像は、入力インタフェース220により画像合成装置100に取り込まれ、一旦、メモリ212に保持された後、歪補正部110に送られる。   In order to correct this distortion, the images captured by the imaging devices 101a, 101b, 101c, and 101d are taken into the image combining device 100 by the input interface 220, temporarily stored in the memory 212, and then corrected for distortion. It is sent to 110.

歪補正部110では、撮影画像の歪みを補正する処理を行う。歪みの補正処理は、使用する撮影装置にレンズ歪みを補正するための補正データを、予め歪補正テーブル160として作成して、記憶部150に保持しておく。歪補正部110は、記憶部150に保持された歪補正テーブル160の補正データを参照して、撮影画像の歪みを補正する。   The distortion correction unit 110 performs processing for correcting distortion of a captured image. In distortion correction processing, correction data for correcting lens distortion in an imaging device to be used is created in advance as a distortion correction table 160 and held in the storage unit 150. The distortion correction unit 110 corrects distortion of a captured image with reference to the correction data of the distortion correction table 160 held in the storage unit 150.

歪補正テーブル160は、撮影装置の種類毎に個別に設けることができる。撮影装置の種類が異なる場合でも、撮影装置に合わせた歪補正テーブルを使用することにより、撮影画像の歪を補正することができる。歪補正部110により歪補正が施された撮影画像は、輝度調整部120に送られる。輝度調整部120では、歪補正が施された後の撮影画像の輝度が調整される。   The distortion correction table 160 can be provided individually for each type of imaging device. Even when the type of imaging apparatus is different, distortion of a captured image can be corrected by using a distortion correction table that is matched to the imaging apparatus. The photographed image subjected to distortion correction by the distortion correction unit 110 is sent to the luminance adjustment unit 120. The luminance adjustment unit 120 adjusts the luminance of the photographed image after the distortion correction is performed.

次に、輝度調整部120の動作について図3から図5を用いて説明する。図2に示すように異なる向きで設置された4台のカメラから出力されるカメラ映像(画像)を一つの投影面360に射影変換して繋ぎ合わせた画像では、第1撮影装置101a、第2撮影装置101b、第3撮影装置101c、及び第4撮影装置101dの撮影映像(画像)間での明るさのばらつきが大きいと、合成画像の連続性が損なわれてしまう。そこで、輝度調整部120により、撮影画像間における輝度を調整する。   Next, the operation of the luminance adjustment unit 120 will be described using FIGS. 3 to 5. As shown in FIG. 2, in an image in which camera images (images) output from four cameras installed in different directions are projectively transformed and connected to one projection plane 360, the first imaging device 101 a, the second If the variation in brightness among photographed images (images) of the photographing device 101b, the third photographing device 101c, and the fourth photographing device 101d is large, the continuity of the combined image is lost. Therefore, the brightness adjustment unit 120 adjusts the brightness between the photographed images.

図3は、実施の形態1における、第1撮影装置101a、第2撮影装置101b、第3撮影装置101c、第4撮影装置101dにより撮影される映像(画像)内において、合成画像の輝度調整をする際に参照する参照領域(輝度参照領域)について示す図である。   FIG. 3 shows the brightness adjustment of the composite image in the video (image) captured by the first imaging device 101a, the second imaging device 101b, the third imaging device 101c, and the fourth imaging device 101d in the first embodiment. It is a figure shown about the reference field (brightness reference field) referred when performing.

図3において、画像400aは第1撮影装置101aで撮影された画像が歪補正部110で歪補正された画像であり、画像400bは第2撮影装置101bで撮影された画像が歪補正部110で歪補正された画像であり、画像400cは第3撮影装置101cで撮影された画像が歪補正部110で歪補正された画像であり、画像400dは第4撮影装置101dで撮影された各画像が歪補正部110で歪補正された画像である。   In FIG. 3, an image 400 a is an image of which an image captured by the first imaging device 101 a has been subjected to distortion correction by the distortion correction unit 110, and an image 400 b is an image captured by the second imaging device 101 b by the distortion correction unit 110. The image 400c is an image subjected to distortion correction, the image 400c is an image subjected to distortion correction by the distortion correction unit 110, and the image 400d is each image taken by the fourth imaging device 101d. It is an image that has been subjected to distortion correction by the distortion correction unit 110.

なお、以降では、画像400a、画像400b、画像400c、及び画像400dをまとめて、歪補正された画像400a、400b、400c、400dともいう。   Hereinafter, the image 400a, the image 400b, the image 400c, and the image 400d are collectively referred to as distortion-corrected images 400a, 400b, 400c, and 400d.

図2に示される例のように、実施の形態1における画像合成装置100を監視用途として使用する場合、監視対象となる被写体(例えば、車両)が撮像映像(画像)内に現れる(フレームイン)または撮像映像(画像)内から無くなる(フレームアウト)する瞬間を捕えることは重要となる。   As in the example shown in FIG. 2, when the image synthesizing device 100 according to the first embodiment is used as a monitoring application, a subject (for example, a vehicle) to be monitored appears in a captured video (image) (frame in) Or it is important to capture the moment when it disappears (frames out) from within the captured image (image).

そこで、実施の形態1では、画像合成装置100が撮影画像内で被写体がフレームインまたはフレームアウトする領域を参照領域として予め指定しておき、被写体がフレームインまたはフレームアウトする際において、参照領域内の輝度が適切になるように、合成画像全体の輝度調整を行うようにしている。   Therefore, in the first embodiment, when the image combining apparatus 100 pre-specifies an area where a subject frame-in or frame-out in a captured image as a reference area, when the subject is frame-in or frame-out, the inside of the reference area The brightness adjustment of the entire composite image is performed so that the brightness of the image is appropriate.

具体的には、画像400a内の道路の右端部分に参照領域A1を、画像400d内の道路の左端部分に参照領域A2を設定している。なお、参照領域は、画像の中(特に動画)で被写体がフレームインまたはフレームアウトする一部領域を指すものとし、画面全体を示すものではない。   Specifically, the reference area A1 is set at the right end of the road in the image 400a, and the reference area A2 is set at the left end of the road in the image 400d. Note that the reference area refers to a partial area in which an object is framed in or out in an image (in particular, a moving image), and does not indicate the entire screen.

参照領域A1、A2を参照する際の優先順位はA1、A2の順とし、第1参照領域を参照領域A1、第2参照領域を参照領域A2とする。なお、参照領域は合成画像の中に一つ以上設ける。参照領域は、例えば、合成画像を形成する各撮影画像の中に複数設けてもよいし、参照領域を設けない撮影画像が存在してもよい。   The priority when referring to the reference areas A1 and A2 is A1 and A2 in this order, and the first reference area is referred to as the reference area A1 and the second reference area is referred to as the reference area A2. Note that one or more reference areas are provided in the composite image. For example, a plurality of reference areas may be provided in each photographed image forming a composite image, or a photographed image in which the reference area is not provided may exist.

また、図3には、画像400a、400b、400c、400dを合成する際の重畳領域(重畳部分)が示されている。452aは、画像400aにおける画像400aと画像400bとの重畳領域であり、451bは、画像400bにおける画像400aと画像400bとの重畳領域であり、452bは、画像400bにおける画像400bと画像400cとの重畳領域であり、451cは、画像400cにおける画像400bと画像400cとの重畳領域であり、452cは、画像400cにおける画像400cと画像400dとの重畳領域であり、451dは、画像400dにおける画像400cと画像400dとの重畳領域である。画像400a、400b、400c、400dを合成する処理の詳細については、後述する。   Further, FIG. 3 shows overlapping regions (overlapping portions) when combining the images 400a, 400b, 400c, and 400d. 452a is a superimposed area of the image 400a and the image 400b in the image 400a, 451b is a superimposed area of the image 400a and the image 400b in the image 400b, 452b is a superimposed of the image 400b and the image 400c in the image 400b An area 451c is a superimposed area of the image 400b and the image 400c in the image 400c, 452c is a superimposed area of the image 400c and the image 400d in the image 400c, and 451d is the image 400c and the image in the image 400d It is an overlapping area with 400d. Details of the process of combining the images 400a, 400b, 400c, and 400d will be described later.

次に、実施の形態1における輝度調整部120の輝度調整処理について、図4及び図5を用いて説明する。図4は、実施の形態1における輝度調整部120の動作を示すフローチャートである。輝度調整部120は、まず、参照領域情報170から第1参照領域である参照領域A1を読み込み、参照領域A1含む画像400aを基準画像としてメモリ212に記憶する(ステップST101)。参照領域情報170には、参照領域に係る情報(例えば、参照領域を含む撮影装置、画面内の参照領域の位置、参照領域の輝度の閾値)が保存されている。   Next, the brightness adjustment processing of the brightness adjustment unit 120 according to the first embodiment will be described using FIGS. 4 and 5. FIG. 4 is a flowchart showing the operation of the luminance adjustment unit 120 in the first embodiment. First, the brightness adjustment unit 120 reads the reference area A1 which is the first reference area from the reference area information 170, and stores the image 400a including the reference area A1 in the memory 212 as a reference image (step ST101). The reference area information 170 stores information related to the reference area (for example, an imaging device including the reference area, the position of the reference area in the screen, and the threshold of the luminance of the reference area).

次に、輝度調整部120は、第1参照領域である参照領域A1の平均輝度Ia1を算出し(ステップST102)、予め参照領域情報170に保持されている参照領域の輝度に関する閾値X(第1の閾値)と参照領域A1の平均輝度Ia1を比較する(ステップST103)。   Next, the luminance adjusting unit 120 calculates the average luminance Ia1 of the reference area A1 which is the first reference area (step ST102), and the threshold X relating to the luminance of the reference area held in advance in the reference area information 170 (first And the average luminance Ia1 of the reference area A1 (step ST103).

輝度調整部120は、参照領域A1の平均輝度Ia1が閾値X以上である場合(ステップST103においてNO)は、ステップST104に移行し、参照領域A1の平均輝度Ia1が閾値Xよりも低くなるまで基準画像400aの画面輝度レベルを下げる(第1の調整)。参照領域A1の平均輝度Ia1が閾値X未満である場合(ステップST103においてYES)は、次のステップ(ステップST105)に移行する。   When the average luminance Ia1 of the reference area A1 is equal to or higher than the threshold X (NO in step ST103), the luminance adjustment unit 120 proceeds to step ST104 and performs the reference until the average luminance Ia1 of the reference area A1 becomes lower than the threshold X The screen brightness level of the image 400a is lowered (first adjustment). If the average luminance Ia1 of the reference area A1 is less than the threshold X (YES in step ST103), the process proceeds to the next step (step ST105).

なお、閾値Xは、参照領域内の平均輝度が白とびしない(輝度が高すぎない)程度の値に設定する。例えば255を最も明るい最高輝度とする8ビットデータにおいて、200から250程度の範囲の値に設定する。閾値Xは前記値に限らず、撮影装置の設置環境、被写体種類などにより適宜調整するのが好ましい。なお、閾値Xは図示しない手段により観測者(ユーザ)が適宜設定できるようにしてもよい。   The threshold value X is set to a value such that the average luminance in the reference area is not overexposed (the luminance is not too high). For example, in 8-bit data in which 255 is the brightest maximum luminance, the value is set to a value in the range of approximately 200 to 250. The threshold value X is not limited to the above value, and it is preferable that the threshold value X be appropriately adjusted according to the installation environment of the imaging device, the type of subject, and the like. The threshold value X may be set appropriately by the observer (user) by means not shown.

ステップST105の処理では、輝度調整部120は、基準画像400aに隣接する画像400bの画面輝度を調整する(第2の調整)。参照領域A1の平均輝度Ia1が閾値Xを超えない範囲で、基準画像400aと隣接画像400bの重畳部分452aと451bの輝度レベルが同じとなるように、基準画像400aあるいは隣接画像400bの画面輝度レベルを調整する。   In the process of step ST105, the brightness adjustment unit 120 adjusts the screen brightness of the image 400b adjacent to the reference image 400a (second adjustment). The screen luminance level of the reference image 400a or the adjacent image 400b so that the luminance levels of the superimposed portions 452a and 451b of the reference image 400a and the adjacent image 400b become the same within the range where the average luminance Ia1 of the reference area A1 does not exceed the threshold X Adjust the

ここで、一般的には、撮影画像は画面輝度が高い方が観測者に見やすい画面となる。したがって、参照領域A1の平均輝度Ia1が閾値Xに満たない場合は、参照領域A1の平均輝度Ia1が閾値Xを超えない範囲で基準画像400aの画面輝度が高くなるように調整して、調整後の基準画像400aの画面輝度と同じレベルになるように隣接画像400bの画面輝度を調整する。   Here, in general, the photographed image is a screen that is easy for the observer to see when the screen brightness is high. Therefore, when the average luminance Ia1 of the reference area A1 does not satisfy the threshold X, the adjustment is performed so that the screen luminance of the reference image 400a becomes high in the range where the average luminance Ia1 of the reference area A1 does not exceed the threshold X The screen brightness of the adjacent image 400b is adjusted to be the same level as the screen brightness of the reference image 400a.

また、基準画像400aの画面輝度を変えずに(基準画像400aの画面輝度はそのまま)隣接画像400bの輝度を調整することにしてもよい。これは、観測者にとって基準画像400aが最も重要な画像であり、基準画像400aの画面輝度に合わせて合成画像を生成した方が、自然な見え方となる場合があるためである。   Alternatively, the luminance of the adjacent image 400b may be adjusted without changing the screen luminance of the reference image 400a (the screen luminance of the reference image 400a remains unchanged). This is because the reference image 400a is the most important image for the observer, and it may be natural to see a composite image generated according to the screen brightness of the reference image 400a.

基準画像と隣接画像の画面輝度調整方法に関して、基準画像の画面輝度を変えずに調整するか、基準画像の画面輝度が高くなるように調整するかは、観測者(ユーザ)が予め選択できるようにしておき、参照領域情報170にどちらを選択するのかという輝度調整方法の選択肢を保持させておき、ステップST105にて、輝度調整方法の選択肢を読み出し、読み出した方法により輝度調整を行うようにしてもよい。   With regard to the method of adjusting the screen brightness of the reference image and the adjacent image, the observer (user) can select in advance whether to adjust without changing the screen brightness of the reference image or to adjust the screen brightness of the reference image to be high. The reference area information 170 holds the option of the brightness adjustment method to be selected, and in step ST105, the option of the brightness adjustment method is read, and the brightness adjustment is performed by the read method. It is also good.

ここで、基準画像400aと隣接画像400bの重畳部分452aと451bの輝度レベルの調整方法は、重畳部分452aの平均輝度と重畳部分451bの平均輝度が同じレベルとなるようにすればよい。また、重畳部分452aと重畳部分451bの対応点が既知なことより、予め重畳部分452aと重畳部分451bの特徴点を数点から数十点抽出しておいて、前記特徴点の平均輝度が同じレベルになるように輝度調整をしてもよい。   Here, as a method of adjusting the luminance levels of the superimposed portions 452a and 451b of the reference image 400a and the adjacent image 400b, the average luminance of the superimposed portion 452a and the average luminance of the superimposed portion 451b may be the same level. Also, since the corresponding points of the overlapping portion 452a and the overlapping portion 451b are known, the feature points of the overlapping portion 452a and the overlapping portion 451b are extracted in advance from several points to several tens points, and the average luminance of the feature points is the same. The brightness may be adjusted to be the level.

次に、ステップST106の処理では、輝度調整部120は、輝度調整された隣接画像400bに参照領域が存在するか判定する。実施の形態1では、隣接画像400bに参照領域は存在しないので、次のステップST107に移行する。   Next, in the process of step ST106, the luminance adjusting unit 120 determines whether a reference area exists in the adjacent image 400b whose luminance has been adjusted. In the first embodiment, since the reference area does not exist in the adjacent image 400b, the process proceeds to the next step ST107.

次に、ステップST107の処理では、輝度調整部120は、全ての撮影画面(撮影画像)に対して輝度調整処理が行われたか否かを判定する。本実施の形態では、画像400cと画像400dの輝度調整処理が未実施なので、ステップST108の処理に移行する。   Next, in the process of step ST107, the luminance adjustment unit 120 determines whether or not the luminance adjustment process has been performed on all photographed screens (photographed images). In the present embodiment, since the brightness adjustment processing of the image 400c and the image 400d is not performed yet, the process proceeds to step ST108.

次に、ステップST108の処理では、輝度調整部120は、ステップST105により輝度調整された隣接画像400bを仮基準画像として設定し、仮基準画像400bに隣接する画像400cとの重畳部分452bの輝度レベルを算出してメモリ212に記憶する。   Next, in the process of step ST108, the luminance adjusting unit 120 sets the adjacent image 400b adjusted in luminance in step ST105 as a temporary reference image, and the luminance level of the overlapping portion 452b with the image 400c adjacent to the temporary reference image 400b. Are calculated and stored in the memory 212.

次に、ステップST109の処理では、輝度調整部120は、仮基準画像400bに隣接する画像400cの重畳部分451cの輝度レベルが、メモリ212に記憶した重畳部分452bの輝度レベルと同一となるように、隣接画像400cの画面輝度レベルの調整を行う。ステップST109の処理が終わると、ステップST106の処理に移行する。   Next, in the process of step ST109, the luminance adjusting unit 120 is configured such that the luminance level of the superimposed portion 451c of the image 400c adjacent to the temporary reference image 400b is the same as the luminance level of the superimposed portion 452b stored in the memory 212. , Adjust the screen brightness level of the adjacent image 400c. When the process of step ST109 ends, the process proceeds to step ST106.

ここでの画面輝度レベルの調整方法は、基準画像400aと隣接画像400bと同様に、重畳部分452bの平均輝度と重畳部分451cの平均輝度が同じレベルとなるようにすればよい。また、重畳部分452bと重畳部分451cの対応点が既知なことより、予め重畳部分452bと重畳部分451cの特徴点を数点から数十点抽出しておいて、前記特徴点の平均輝度が同じレベルになるように輝度調整をしてもよい。   Here, the method of adjusting the screen luminance level may be performed so that the average luminance of the superimposed portion 452b and the average luminance of the superimposed portion 451c become the same level as the reference image 400a and the adjacent image 400b. Further, since the corresponding points of the overlapping portion 452b and the overlapping portion 451c are known, the feature points of the overlapping portion 452b and the overlapping portion 451c are extracted in advance from several points to several tens points, and the average luminance of the feature points is the same. The brightness may be adjusted to be the level.

次に、ステップST106で、輝度調整部120は、直前の処理で画面輝度レベルを調整した画像400cに参照領域が含まれるか判定する。本実施の形態では、隣接画像400cに参照領域は存在しないので、次のステップST107に移行し、輝度調整部120は、全ての撮影画面に対して輝度調整処理が行われたか否かを判定する。本実施の形態では、画像400dの輝度調整処理が未実施なので、ステップST108の処理に移行する。   Next, in step ST106, the luminance adjustment unit 120 determines whether the reference area is included in the image 400c whose screen luminance level has been adjusted in the immediately preceding process. In the present embodiment, since the reference area does not exist in the adjacent image 400c, the process proceeds to the next step ST107, and the brightness adjustment unit 120 determines whether or not the brightness adjustment processing has been performed on all photographed screens. . In the present embodiment, since the brightness adjustment process of the image 400d is not performed yet, the process proceeds to step ST108.

ステップST108の処理では、輝度調整部120は、直前に輝度調整された隣接画像400cを仮基準画像として設定し、仮基準画像400cの隣接画像400dとの重畳部分452cの輝度レベルを算出してメモリ212に記憶する(ステップST108)。   In the process of step ST108, the brightness adjustment unit 120 sets the adjacent image 400c, which has been subjected to the brightness adjustment immediately before, as a temporary reference image, calculates the brightness level of the overlapping portion 452c of the temporary reference image 400c with the adjacent image 400d, and stores the memory. It stores in 212 (step ST108).

ステップST109の処理では、輝度調整部120は、仮基準画像400cに隣接する画像400dの重畳部分451dの輝度レベルが、メモリ212に記憶した重畳部分452cの輝度レベルと同一となるように、隣接画像400dの画面輝度レベルの調整を行う。ここでの画面輝度レベルの調整方法は、基準画像400aと隣接画像400bと同様である。   In the process of step ST109, the brightness adjustment unit 120 sets the adjacent image so that the brightness level of the superimposed portion 451d of the image 400d adjacent to the temporary reference image 400c is the same as the brightness level of the superimposed portion 452c stored in the memory 212. Adjust the screen brightness level of 400d. The adjustment method of the screen luminance level here is the same as that of the reference image 400a and the adjacent image 400b.

次に、ステップST106で、輝度調整部120は、直前の処理で画面輝度レベルを調整した画像400dに参照領域が含まれるか判定する。隣接画像400dには第2参照領域A2が含まれるので、処理Aに移行する。   Next, in step ST106, the luminance adjustment unit 120 determines whether the reference area is included in the image 400d of which the screen luminance level has been adjusted in the immediately preceding process. Since the adjacent image 400d includes the second reference area A2, the processing shifts to processing A.

図5は、図4における処理Aの動作の詳細を示すフローチャートである。図5に示されるように、処理Aでは、輝度調整部120は、第2参照領域を含む画像400dを仮基準画像として設定し、参照領域A2の平均輝度Ianを算出し、メモリ212に記憶する(ステップST201)。   FIG. 5 is a flowchart showing the details of the operation of process A in FIG. As shown in FIG. 5, in processing A, the brightness adjustment unit 120 sets an image 400 d including the second reference area as a temporary reference image, calculates the average brightness I an of the reference area A 2, and stores it in the memory 212. (Step ST201).

次に、輝度調整部120は、予め参照領域情報170に保持されている閾値Xと参照領域A2の平均輝度Ianを比較する(ステップST202)。輝度調整部120は、参照領域A2の平均輝度Ianが閾値X未満の場合(ステップST202においてYES)は、何も処理をせずに処理Bに移行し、全ての撮影画面に対して輝度調整処理が行われたか否かを判定する(図4におけるステップST107)。   Next, the luminance adjustment unit 120 compares the threshold X held in advance in the reference area information 170 with the average luminance Ian of the reference area A2 (step ST202). When the average luminance Ian of the reference area A2 is less than the threshold X (YES in step ST202), the luminance adjustment unit 120 proceeds to processing B without performing any processing, and performs luminance adjustment processing for all photographed screens. It is determined whether or not (step ST107 in FIG. 4).

ステップST202において、輝度調整部120は、参照領域A2の平均輝度Ianが閾値X以上である場合(ステップST202においてNO)は、ステップST203の処理に移行し、参照領域A2の平均輝度Ianが閾値X未満となるまで、仮基準画像400dの画面輝度レベルを下げる。   In step ST202, when the average luminance Ian of the reference area A2 is equal to or higher than the threshold X (NO in step ST202), the luminance adjustment unit 120 proceeds to the process of step ST203, and the average luminance Ian of the reference area A2 is the threshold X The screen brightness level of the provisional reference image 400d is lowered until the value becomes less than.

ステップST204において、輝度調整部120は、仮基準画像400dの画面輝度レベルを下げた割合(下げ率)をメモリ212に記憶し、メモリ212に記憶した下げ率に合わせて、仮基準画像400dを除くすべての画像400c、画像400b、画像400aの画面輝度レベルを下げる。ステップST204の処理が終了した後、処理Bに移行し、輝度調整部120は、全ての撮影画面に対して輝度調整処理が行われたか否かを判定する(ステップST107)。   In step ST204, the luminance adjusting unit 120 stores the rate (decreasing rate) at which the screen luminance level of the temporary reference image 400d is lowered in the memory 212, and removes the temporary reference image 400d in accordance with the lowering rate stored in the memory 212. The screen brightness levels of all the images 400c, 400b, and 400a are lowered. After the process of step ST204 ends, the process proceeds to process B, and the brightness adjustment unit 120 determines whether the brightness adjustment process has been performed on all the photographed screens (step ST107).

実施の形態1では、画像400dの輝度調整処理が終了したことによりすべての画像に対する輝度調整処理が終了となり、輝度調整された4枚の画像である、画像400a、画像400b、画像400c、画像400dはメモリ212に記憶される。画像合成部130は記憶された前記4枚の輝度調整された画像から合成画像を生成する。生成された合成画像は、参照領域A1及びA2に白とびが無く、かつ、合成画像全体で輝度のばらつきの少ない、認識しやすい画像となる。   In the first embodiment, the brightness adjustment processing for all the images is completed by the end of the brightness adjustment processing for the image 400d, and the images 400a, 400b, 400c, and 400d, which are the four images whose brightness has been adjusted. Are stored in the memory 212. The image combining unit 130 generates a combined image from the stored four brightness-adjusted images. The generated composite image is an image that is easy to be recognized with no whiteout in the reference areas A1 and A2 and with little variation in luminance throughout the composite image.

次に、画像合成部130の動作について図6を用いて説明する。図6は、実施の形態1における画像合成部130の動作を説明するための図である。輝度調整部120により輝度調整処理が施された画像は、一旦、メモリ212に記憶され、画像合成部130に送られる。なお、画像合成部130に送られる画像は、輝度調整部120で輝度調整処理が施されていなくても、画像合成部130での処理動作は同じである。   Next, the operation of the image combining unit 130 will be described using FIG. FIG. 6 is a diagram for explaining the operation of the image combining unit 130 in the first embodiment. The image subjected to the brightness adjustment processing by the brightness adjustment unit 120 is temporarily stored in the memory 212 and sent to the image combining unit 130. The processing operation of the image combining unit 130 is the same as that of the image sent to the image combining unit 130 even if the brightness adjustment processing has not been performed by the brightness adjusting unit 120.

画像合成部130では、歪補正及び輝度調整が施された複数の撮影画像を1枚の画像として合成する処理が行われる。合成処理は、画像合成部130で定義されている投影面360に、歪補正及び輝度調整が施された複数の画像を貼り付けることにより実現される。なお投影面360は実空間に設けられた面ではなく、メモリ212に設けられた仮想の投影面であり、投影面360として定義されたメモリ空間上の定められた座標位置に、各画像を貼り付ける。   The image combining unit 130 combines the plurality of photographed images subjected to the distortion correction and the brightness adjustment as one image. The combining process is realized by pasting a plurality of images subjected to distortion correction and brightness adjustment to the projection plane 360 defined by the image combining unit 130. Note that the projection plane 360 is not a plane provided in the real space, but is a virtual projection plane provided in the memory 212, and each image is pasted at a defined coordinate position on the memory space defined as the projection plane 360. wear.

まず、歪補正及び輝度調整が施された複数の撮影画像を投影面360に貼り付けるための前処理として、記憶部150に保持されている座標変換テーブル180を用いて、歪補正及び輝度調整が施された複数の撮影画像の射影変換を行う。   First, as preprocessing for attaching a plurality of photographed images subjected to distortion correction and luminance adjustment to the projection surface 360, distortion correction and luminance adjustment are performed using the coordinate conversion table 180 held in the storage unit 150. Projective transformation is performed on a plurality of photographed images.

歪補正及び輝度調整が施された第1撮影画像400a、第2撮影画像400b、第3撮影画像400c、及び第4撮影画像400dは、射影変換により、第1撮影画像410a、第2撮影画像410b、第3撮影画像410c、及び第4撮影画像410dに変換される。以下、射影変換後の第1撮影画像410a、第2撮影画像410b、第3撮影画像410c、及び第4撮影画像410dを、画像410a、410b、410c、410dともいう。   The first captured image 400a, the second captured image 400b, the third captured image 400c, and the fourth captured image 400d subjected to distortion correction and luminance adjustment are projectively converted into the first captured image 410a and the second captured image 410b. , The third captured image 410c, and the fourth captured image 410d. Hereinafter, the first captured image 410a, the second captured image 410b, the third captured image 410c, and the fourth captured image 410d after projective transformation are also referred to as images 410a, 410b, 410c, and 410d.

次に、画像合成部130は、射影変換後の画像410a、410b、410c、410dを投影面360上へ貼り付ける。   Next, the image combining unit 130 pastes the images 410 a, 410 b, 410 c, and 410 d after projective transformation on the projection plane 360.

射影変換後の画像410a、410b、410c、410dの投影面360上への貼り付け位置は、第1撮影装置101a、第2撮影装置101b、第3撮影装置101c、及び第4撮影装置101dの設置位置情報(例えば、カメラ姿勢、設置座標)を基にして予め決められており、記憶部150のカメラ設置情報190に記憶されている。   The attachment positions of the images 410a, 410b, 410c, and 410d after projective transformation on the projection surface 360 are the installation of the first imaging device 101a, the second imaging device 101b, the third imaging device 101c, and the fourth imaging device 101d. It is determined in advance based on position information (for example, camera posture, installation coordinates), and is stored in the camera installation information 190 of the storage unit 150.

図6に示されるように、画像合成部130は、射影変換後の第1撮影画像410aを第1画像投影領域361に、射影変換後の第2撮影画像410bを第2画像投影領域362に、射影変換後の第3撮影画像410cを第3画像投影領域363に、射影変換後の第4撮影画像410dを第4投影領域364に貼り付ける。   As shown in FIG. 6, the image combining unit 130 sets the first captured image 410 a after projective conversion to the first image projection area 361, and the second captured image 410 b after projective conversion to the second image projection area 362, The third photographed image 410 c after projective transformation is pasted to the third image projection area 363, and the fourth photographed image 410 d after projective transformation is pasted to the fourth projection area 364.

図6に示されるように、射影変換後の画像410a、410b、410c、410dを投影面360に貼り付ける際には、それぞれ隣接する画像の一部が重畳するように貼り付け位置が決められている。   As shown in FIG. 6, when the images 410a, 410b, 410c, and 410d after projective transformation are attached to the projection surface 360, the attachment positions are determined so that parts of adjacent images overlap each other. There is.

図6における重畳領域370は、射影変換後の第1撮影画像410aと射影変換後の第2撮影画像410bとの重畳領域であり、重畳領域380は、射影変換後の第2撮影画像410bと射影変換後の第3撮影画像410cとの重畳領域であり、重畳領域390は、射影変換後の第3撮影画像410cと射影変換後の第4撮影画像410dとの重畳領域である。   A superimposed area 370 in FIG. 6 is a superimposed area of the first photographed image 410a after projective transformation and the second photographed image 410b after projective transformation, and the superimposed area 380 is a projected area of the second photographed image 410b after projective transformation. The overlapping area 390 is a superimposed area of the third captured image 410c after projective conversion and the fourth captured image 410d after projective conversion.

歪補正された画像400a、400b、400c、400dを射影変換して投影面360に貼り付けるまでの工程は、定式により行われることから、投影面360上の画素位置と歪補正後の画像との対応を取る(知る)ことが可能となる。つまり、歪補正された画像400a、400b、400c、400dの各画素が、投影面360上のどの位置に投影されるかを予め知ることができる。   The process until projective transformation of the distortion-corrected images 400a, 400b, 400c, and 400d is performed by a formula is performed, so that the pixel position on the projection plane 360 and the image after distortion correction are It is possible to take a response (know). That is, it is possible to know in advance at which position on the projection plane 360 each pixel of the distortion-corrected images 400 a, 400 b, 400 c, and 400 d is projected.

前述のように、投影面360上の画素位置と歪補正後の画像との対応関係を予め知ることができるので、図3における歪補正された画像400a、400b、400c、400dと、図6における投影面360上での各画像が重畳する領域370、380、390との対応関係を知ることができる。   As described above, since the correspondence between the pixel position on the projection plane 360 and the image after distortion correction can be known in advance, the distortion corrected images 400a, 400b, 400c, and 400d in FIG. The correspondence with the areas 370, 380, and 390 on which the respective images overlap on the projection plane 360 can be known.

具体的には、図6における重畳領域370は、図3における領域452aと領域451bとに対応し、図6における重畳領域380は、図3における領域452bと領域451cとに対応し、図6における重畳領域390は、図3における領域452cと領域451dとに対応する。   Specifically, the overlapping area 370 in FIG. 6 corresponds to the area 452a and the area 451b in FIG. 3, and the overlapping area 380 in FIG. 6 corresponds to the area 452b and the area 451c in FIG. The overlapping area 390 corresponds to the area 452 c and the area 451 d in FIG.

射影変換後の画像410a、410b、410c、410dを投影面360に貼り付けることにより、合成画像350が生成される。以上のようにして生成された合成画像350は、出力インタフェース230を介して、ディスプレイなどの表示機器に出力される。   The composite image 350 is generated by attaching the images 410 a, 410 b, 410 c, and 410 d after projective transformation to the projection plane 360. The composite image 350 generated as described above is output to a display device such as a display via the output interface 230.

《1−3》実施の形態1の効果
以上のように、実施の形態1に係る画像合成装置100によれば、複数の撮影画像を合成する際に、被写体が撮影画面内に現れる領域、または被写体が撮影画面から無くなる領域を参照領域として設定し、参照領域の輝度が予め決めた閾値Xを超えないように、複数の撮影画像の輝度を調整する。これにより、輝度ばらつきの少ない合成画像が得られるとともに、観測者が観測するべき被写体が撮影画面内に現れる領域また被写体が撮影画面から無くなる領域においても、輝度過剰による白とびのない、見やすい画像を得ることができる。特に、監視領域に被写体が出現(または消失)したか否かを監視する用途において、監視者に見やすい合成画像を提供できる。特に、合成画像を監視者の目視補助として使用する場合に有用である。
<1-3> Effects of First Embodiment As described above, according to the image combining device 100 according to the first embodiment, when combining a plurality of captured images, the area where the subject appears in the shooting screen, or An area where the subject disappears from the photographing screen is set as a reference area, and the luminances of a plurality of photographed images are adjusted so that the luminance of the reference area does not exceed a predetermined threshold X. As a result, a composite image with little variation in luminance can be obtained, and in a region where the subject to be observed by the observer appears in the shooting screen or in a region where the subject disappears from the shooting screen, an easy-to-see image with no overexposure due to excessive brightness You can get it. In particular, in an application for monitoring whether or not an object appears (or disappears) in a monitoring area, it is possible to provide a composite image that is easy for the observer to view. In particular, it is useful when using a composite image as a visual aid of the observer.

《2》実施の形態2
《2−1》実施の形態2の構成
実施の形態2では、主に、実施の形態1と異なる点について説明する。実施の形態1では、参照領域の平均輝度が、少なくとも参照領域周辺部の輝度に対して急峻に変化しない場合を前提としていた。これに対して、実施の形態2では、参照領域の平均輝度が、参照領域周辺部の輝度に対して急峻に変化する場合の画像合成装置100の輝度調整部120の動作について説明する。
<< 2 >> Second Embodiment
<< 2-1 >> Configuration of Second Embodiment In the second embodiment, points different from the first embodiment will be mainly described. In the first embodiment, it is assumed that the average luminance of the reference area does not change sharply with respect to at least the peripheral area of the reference area. On the other hand, in the second embodiment, the operation of the luminance adjustment unit 120 of the image combining device 100 when the average luminance of the reference area changes sharply with respect to the luminance of the peripheral area of the reference area will be described.

図7、図8、図9を用いて、実施の形態2における輝度調整部120の動作について説明する。なお、画像合成装置100の構成は実施の形態1で説明した構成と同様であるので、その説明を省略する。   The operation of the luminance adjustment unit 120 according to the second embodiment will be described with reference to FIGS. 7, 8 and 9. The configuration of the image combining device 100 is the same as the configuration described in the first embodiment, and thus the description thereof is omitted.

図7は、実施の形態2における、第1撮影装置101a、第2撮影装置101b、第3撮影装置101c、第4撮影装置101dで撮影される映像(画像)内における参照領域及び周辺領域について示す図である。実施の形態2では、第1撮影装置101a、第2撮影装置101b、第3撮影装置101c、第4撮影装置101dで撮影される映像(画像)の画面輝度が低い場合、例えば、夜間の屋外撮影を想定している。   FIG. 7 shows the reference area and the surrounding area in the video (image) captured by the first imaging device 101a, the second imaging device 101b, the third imaging device 101c, and the fourth imaging device 101d in the second embodiment. FIG. In the second embodiment, when the screen brightness of the video (image) captured by the first imaging device 101a, the second imaging device 101b, the third imaging device 101c, and the fourth imaging device 101d is low, for example, outdoor imaging at night Is assumed.

図7において、B1は参照領域A1の周辺領域、B2は参照領域A2の周辺領域である。周辺領域B1、B2は、参照領域A1、A2に隣接する領域である。なお、周辺領域B1、B2には、それぞれ参照領域A1、A2は含まれない。図7では、参照領域A1内に、ライトを点灯した車両301が映っている状態を示している。   In FIG. 7, B1 is a peripheral area of the reference area A1, and B2 is a peripheral area of the reference area A2. The peripheral areas B1 and B2 are areas adjacent to the reference areas A1 and A2. Note that the reference areas A1 and A2 are not included in the peripheral areas B1 and B2, respectively. FIG. 7 shows a state in which the vehicle 301 whose light is turned on is shown in the reference area A1.

参照領域A1、A2と周辺領域B1、B2とは近接しており、通常は両者の間に大きな輝度差は生じない。しかし、図7に示される例では、参照領域A1内に車両301のライトが点灯した画像が写っているため、参照領域A1の輝度が高く、周辺領域B1の輝度が低くなっており、参照領域A1の輝度と周辺領域B1の輝度との間に大きな差が生じている。   The reference areas A1 and A2 and the peripheral areas B1 and B2 are close to each other, and usually, a large difference in luminance does not occur. However, in the example shown in FIG. 7, since the image in which the light of the vehicle 301 is turned on appears in the reference area A1, the luminance of the reference area A1 is high and the luminance of the peripheral area B1 is low. A large difference occurs between the brightness of A1 and the brightness of the peripheral area B1.

次に、実施の形態2における輝度調整部120の動作について説明する。図8及び図9は、実施の形態2における輝度調整部120の輝度調整動作を説明するフローチャートである。図8及び図9のフローチャートにおいて、実施の形態2の特徴となる処理はステップST300、ステップST301、ステップST302、ステップST303である。他の処理ステップについては実施の形態1と同様であるので説明を省略する。   Next, the operation of the luminance adjustment unit 120 in the second embodiment will be described. FIG. 8 and FIG. 9 are flowcharts explaining the luminance adjustment operation of the luminance adjustment unit 120 in the second embodiment. In the flowcharts of FIG. 8 and FIG. 9, the processing that is the feature of the second embodiment is step ST300, step ST301, step ST302, and step ST303. The other processing steps are the same as in the first embodiment, and thus the description thereof is omitted.

ステップST103で第1参照領域の平均輝度Ia1が閾値X以上となった場合、参照領域情報170に記憶されている周辺領域B1の情報(画面内の位置、画素情報)から、周辺領域B1の平均輝度Ib1を算出し(ステップST300)、次に、第1参照領域の平均輝度Ia1と周辺領域B1の平均輝度Ib1の輝度差分を求め、前記輝度差分と予め参照領域情報170に記憶されている閾値Y(第2の閾値)とを比較する(ステップST301)。閾値Yは、参照領域輝度と周辺輝度との輝度差が、経験的(見た目、主観)で不自然となるような値に設定するとよい。   When the average luminance Ia1 of the first reference area becomes equal to or greater than the threshold X in step ST103, the average of the peripheral area B1 is determined from the information (the position in the screen, pixel information) of the peripheral area B1 stored in the reference area information 170. The luminance Ib1 is calculated (step ST300), and then the luminance difference between the average luminance Ia1 of the first reference area and the average luminance Ib1 of the peripheral area B1 is determined, and the luminance difference and the threshold stored in advance in the reference area information 170 It compares with Y (the second threshold) (step ST301). The threshold value Y may be set to a value such that the difference in brightness between the reference area brightness and the surrounding brightness is unnatural (appearing and subjective).

例えば、図7の場合、夜間の屋外状態を想定しているので、255を最も明るい最高輝度とする8ビットデータにおいて、参照領域の輝度と周辺領域の輝度との差が100以上になるように設定する。閾値Yは上記値に限らず、撮影装置の設置環境、被写体種類などにより適宜調整するのが好ましい。なお、閾値Yは図示しない手段により観測者(ユーザ)が適宜設定できるようにしてもよい。   For example, in the case of FIG. 7, since the outdoor state at night is assumed, the difference between the brightness of the reference area and the brightness of the peripheral area is 100 or more in 8-bit data having 255 as the brightest maximum brightness. Set The threshold value Y is not limited to the above value, and it is preferable that the threshold value Y be appropriately adjusted according to the installation environment of the imaging device, the type of subject, and the like. The threshold value Y may be appropriately set by the observer (user) by means not shown.

前記輝度差分が閾値Y以上の場合(ST301においてNO)は、参照領域内に高輝度の被写体が映ったと判断して、輝度調整処理を行わないでステップST105へ移行する。前記輝度差分が閾値Y未満の場合(ST301においてYES)は、実施の形態1と同様にステップST104の処理が実行される。   If the luminance difference is equal to or larger than the threshold Y (NO in ST301), it is determined that a high luminance object appears in the reference area, and the process proceeds to step ST105 without performing the luminance adjustment processing. If the luminance difference is less than the threshold Y (YES in ST301), the process of step ST104 is performed as in the first embodiment.

前記輝度差分が閾値Y以上の場合は、参照領域内に高輝度の被写体が映る場合である。図7の場合では、ライトを点灯した車両301が参照領域A1内に映るため参照領域A1の輝度が高くなるが、実際は、画面全体が明るくなるわけではない。この状態でステップST104の処理を実行すると、基準画像全体の輝度を下げることになるため、結果的に合成画像全体の輝度が低くなり、見にくい画像になってしまう。   When the luminance difference is equal to or larger than the threshold Y, a high luminance subject appears in the reference area. In the case of FIG. 7, the luminance of the reference area A1 is high because the vehicle 301 whose light is turned on appears in the reference area A1, but the entire screen is not actually bright. If the process of step ST104 is executed in this state, the luminance of the entire reference image is lowered, and as a result, the luminance of the entire composite image is lowered, which makes the image difficult to see.

よって、実施の形態2では、前記輝度差分が閾値Y以上の場合は、参照領域内に高輝度の被写体が映ったと判断して、基準画像の輝度調整を行わないようにすることにより、基準画像の輝度を下げることなく合成画像を生成することができる。   Therefore, in the second embodiment, when the luminance difference is equal to or more than the threshold value Y, it is determined that the high luminance subject appears in the reference area, and the reference image is not adjusted to thereby perform the reference image. The composite image can be generated without reducing the brightness of the image.

図9のフローチャートにおけるステップST303、ステップST304の処理も、基本的にステップST300、ステップST301の処理と同様である。第2参照領域A2の平均輝度Ianと第2参照領域の周辺領域輝度Ibnの差分輝度が閾値Y以上の場合は、参照領域を含む画面輝度の調整を行わないようにする。   The processes of step ST303 and step ST304 in the flowchart of FIG. 9 are also basically the same as the processes of step ST300 and step ST301. When the difference luminance between the average luminance Ian of the second reference area A2 and the peripheral area luminance Ibn of the second reference area is equal to or greater than the threshold Y, the screen luminance including the reference area is not adjusted.

《2−2》実施の形態2の効果
以上のように、実施の形態2に係る画像合成装置100によれば、複数の撮影画像を合成する際に、被写体が撮影画面内に現れる領域、または被写体が撮影画面から無くなる領域を参照領域として設定し、また、参照領域の周辺の領域である周辺領域を設定し、参照領域の輝度と周辺領域の輝度との差が大きい場合は、参照領域を含む画面の輝度調整を行わないようにするので、合成画像全体の輝度を無駄に下げることなく、見やすい合成画像を提供することができる。
<2-2> Effects of Second Embodiment As described above, according to the image combining device 100 according to the second embodiment, when combining a plurality of captured images, the area where the subject appears in the shooting screen, or An area where the subject disappears from the shooting screen is set as a reference area, and a peripheral area which is an area around the reference area is set. If the difference between the luminance of the reference area and the luminance of the peripheral area is large, the reference area is selected. Since the luminance adjustment of the screen including is not performed, it is possible to provide an easily viewable composite image without wasting the luminance of the entire composite image.

《3》変形例
上記実施の形態2では、参照領域の平均輝度と周辺領域の平均輝度とを比較していたが、周辺領域の輝度の代わりに、参照領域の過去時刻における参照領域の平均輝度を取得してメモリ212に保持しておき、前記過去時刻の参照領域の平均輝度と現在時刻における参照領域の平均輝度を比較して、両者の間に大きな輝度差が生じる場合は、参照領域内に高輝度の被写体が映った場合と判断するようにしてもよい。この場合には、メモリ212は、時刻情報を取得する時刻取得部を有することが望ましい。
<< 3 >> Modifications Although the average luminance of the reference area and the average luminance of the peripheral area are compared in the second embodiment, the average luminance of the reference area at the past time of the reference area is used instead of the luminance of the peripheral area. Is stored in the memory 212, and the average luminance of the reference area at the past time and the average luminance of the reference area at the current time are compared, and if a large luminance difference occurs between them, It may be determined that a high-brightness subject appears on the display. In this case, the memory 212 preferably has a time acquisition unit that acquires time information.

すなわち、前記高輝度の被写体が映った場合は、参照領域を含む画面輝度の調整を行わないようにする。なお、この場合、過去時刻における参照領域の平均輝度は、参照領域に被写体が映っていない場合の参照領域の平均輝度となる。なお、過去時刻における参照領域の平均輝度を取得するタイミングは、被写体の移動速度などにより適宜設定すればよい。   That is, when the high-brightness subject appears, the screen brightness including the reference area is not adjusted. In this case, the average luminance of the reference area at the past time is the average luminance of the reference area when the subject is not shown in the reference area. The timing for acquiring the average luminance of the reference area at the past time may be appropriately set according to the moving speed of the subject and the like.

また、上記実施の形態では、第1参照領域である参照領域A1が合成画像350の一番端に位置する画像400aにある場合について説明した。この場合、輝度調整順序は第1参照領域が含まれる画像400aに隣接する画像400b、400c、400dの順で処理した。   Further, in the above embodiment, the case where the reference area A1, which is the first reference area, is in the image 400a positioned at the end of the composite image 350 has been described. In this case, the brightness adjustment order is processed in the order of the images 400b, 400c, and 400d adjacent to the image 400a including the first reference area.

一方、第1参照領域である参照領域A1が合成画像の端以外にある画像に含まれる場合、例えば、画像400bに参照領域A1が含まれる場合は、参照領域A1が含まれる画像400bに離接する画像は画像400cと画像400aの2つある。ここで、輝度調整の順序を、次の参照領域A2が含まれる画像400dに近い方から行うと効率的に輝度調整処理を行うことができる。具体的には、輝度調整順序を、画像400c、画像400d、画像400aの順に行えばよい。   On the other hand, when the reference area A1 which is the first reference area is included in the image other than the end of the composite image, for example, when the image 400b includes the reference area A1, the image 400b includes the reference area A1. There are two images, an image 400c and an image 400a. Here, if the order of the brightness adjustment is performed from the side closer to the image 400d including the next reference area A2, the brightness adjustment processing can be efficiently performed. Specifically, the brightness adjustment order may be performed in the order of the image 400c, the image 400d, and the image 400a.

また、上記実施の形態では、横長の合成画像(いわゆるパノラマ画像)を生成する場合について説明したが、本発明の画像合成装置100の合成画像の形態は横長画像だけに限らない。図10は、変形例における合成画像の形態を示す図である。例えば、図10に示されるように、画像を上下左右に合成する場合にも適用できる。   Further, in the above embodiment, the case of generating a horizontally long composite image (so-called panoramic image) has been described, but the form of the composite image of the image combining device 100 of the present invention is not limited to only a horizontally long image. FIG. 10 is a view showing the form of a composite image in the modification. For example, as shown in FIG. 10, the present invention can be applied to the case of combining an image vertically and horizontally.

図10に示される例では、画像400aに隣接する画像400b、画像400c、画像400dとの重畳部分440の輝度レベルが同一となるように輝度調整を行う。図10の例では、第1参照領域A1を含む画像400aと第2参照領域A2を含む画像400cの輝度調整を行った後、残りの隣接画像である画像400bと画像400dの輝度を調整すればよい。   In the example illustrated in FIG. 10, the luminance adjustment is performed so that the luminance level of the overlapping portion 440 with the image 400b, the image 400c, and the image 400d adjacent to the image 400a is the same. In the example of FIG. 10, after performing the brightness adjustment of the image 400a including the first reference area A1 and the image 400c including the second reference area A2, the brightness of the image 400b and the image 400d, which are the remaining adjacent images, may be adjusted. Good.

また、合成画像は、上から見下ろすような俯瞰画像であってもよい。俯瞰画像に変換する場合は、画像合成装置100において、画像合成部130の処理に俯瞰変換処理機能を設ければよい。   Further, the composite image may be a bird's-eye-view image as viewed from above. In the case of converting into the overhead image, in the image combining device 100, the processing of the image combining unit 130 may be provided with the overhead conversion processing function.

上記実施の形態では、参照領域を予め設定するようにしていたが、画像合成装置100とは別に被写体位置検出手段を設け、前記被写体検知手段から得られる被写体位置情報を基にして参照領域を設定するようにしてもよい。被写体位置検出手段としては、被写体にGPS発信機を持たせる、路側帯に物体検出センサーを設置するなどの方法が考えられる。   In the above embodiment, the reference area is set in advance, but subject position detection means is provided separately from the image combining apparatus 100, and the reference area is set based on the subject position information obtained from the subject detection means. You may do it. As the subject position detection means, a method of providing a subject with a GPS transmitter, installing an object detection sensor in the roadside zone, or the like can be considered.

上記実施の形態では、撮影範囲を屋外、被写体を車両としていたが、本発明の画像合成装置の使用例はこれに限るものではなく、撮影範囲内のある程度定められた領域に被写体がフレームインあるいはフレームアウトするような用途に適用可能である。例えば飛行場面(空港面、滑走路面)の監視用途に適用した場合が考えられる。   In the above embodiment, the shooting range is outdoor, and the subject is a vehicle. However, the usage example of the image combining apparatus of the present invention is not limited to this, and the subject is framed in a certain area within the shooting range. It is applicable to the use which carries out a flameout. For example, it may be applied to monitoring of a flight scene (airport surface, runway surface).

この場合、図2における道路300に滑走路面が相当し、図2における車両301に飛行機が相当する。また、参照領域は滑走路端上の空域となる。飛行上面の場合、空港監視レーダーの情報等から飛行機が滑走路に着陸してくる方向が予め知ることが可能で、飛行機が着陸してくる方向に合わせて、撮影画像面内に参照領域を適宜設定することが可能となる。   In this case, a sliding surface corresponds to the road 300 in FIG. 2, and an airplane corresponds to the vehicle 301 in FIG. Also, the reference area is the airspace above the runway end. In the case of the top of the flight, it is possible to know in advance the direction in which the plane lands on the runway from the information of the airport surveillance radar etc., and in accordance with the direction in which the plane lands It becomes possible to set.

100 画像合成装置、 101a 第1撮影装置、 101b 第2撮影装置、 101c 第3撮影装置、 101d 第4撮影装置、 110 歪補正部、 120 輝度調整部、 130 画像合成部、 150記憶部、 160 歪補正テーブル、 170 参照領域情報、 180 座標変換テーブル、 190 カメラ設置情報、 200 画像処理部、 210 記憶装置、 211 補助記憶装置、 212 メモリ、 220 入力インタフェース、 230 出力インタフェース、 240 参照領域設定部、 300 撮影範囲、 301 被写体、 350 合成画像、 360 投影面、 361 第1画像投影領域、 362 第2画像投影領域、 363 第3画像投影領域、 364 第4画像投影領域、 370 射影変換後の第1撮影画像と射影変換後の第2撮影画像との重畳領域、 380 射影変換後の第2撮影画像と射影変換後の第3撮影画像との重畳領域、 390 射影変換後の第3撮影画像と射影変換後の第4撮影画像との重畳領域、 400a 歪補正後の第1撮影画像、 400b 歪補正後の第2撮影画像、 400c 歪補正後の第3撮影画像、 400d 歪補正後の第4撮影画像、 410a 射影変換後の第1撮影画像、 410b 射影変換後の第2撮影画像、 410c 射影変換後の第3撮影画像、 410d 射影変換後の第4撮影画像、 440 第1撮影画像と第2撮影画像と第3撮影画像と第4撮影画像の重畳領域、 452a 第1撮影画像と第2撮影画像との重畳領域の第1撮影装置で撮影された画像部分、 451b 第1撮影画像と第2撮影画像との重畳領域の第2撮影装置で撮影された画像部分、 452b 第2撮影画像と第3撮影画像との重畳領域の第2撮影装置で撮影された画像部分、 451c 第2撮影画像と第3撮影画像との重畳領域の第3撮影装置で撮影された画像部分、 452c 第3撮影画像と第4撮影画像との重畳領域の第3撮影装置で撮影された画像部分、 451d 第3撮影画像と第4撮影画像との重畳領域の第4撮影装置で撮影された画像部分、 A1 第1参照領域、 A2 第2参照領域、 B1 第1参照領域の周辺領域、 B2 第2参照領域の周辺領域。
DESCRIPTION OF SYMBOLS 100 Image synthesizing device, 101a 1st imaging device, 101b 2nd imaging device, 101c 3rd imaging device, 101d 4th imaging device, 110 distortion correction part, 120 brightness adjustment part, 130 image synthesizing part, 150 storage part, 160 distortion Correction table, 170 reference area information, 180 coordinate conversion table, 190 camera installation information, 200 image processing section, 210 storage unit, 211 auxiliary storage unit, 212 memory, 220 input interface, 230 output interface, 240 reference area setting unit, 300 Shooting range, 301 subject, 350 composite image, 360 projection plane, 361 first image projection area, 362 second image projection area, 363 third image projection area, 364 fourth image projection area, 370 first projection after projection conversion Superimposed area of the image and the second captured image after projective transformation 380 Superimposed area of second photographed image after projective transformation and third photographed image after projective transformation 390 Superimposed area of third photographed image after projective transformation and fourth photographed image after projective transformation 400a After distortion correction First photographed image of 400b Second corrected image after distortion correction 400c Third photographed image after distortion correction 400d Fourth photographed image after distortion correction 410a First photographed image after projective conversion 410b After projective conversion Second photographed image, 410c third photographed image after projective transformation, 410d fourth photographed image after projective transformation, 440 overlapping area of first photographed image, second photographed image, third photographed image and fourth photographed image, 452a An image portion captured by the first imaging device of the superimposed region of the first captured image and the second captured image, 451b An image captured by the second imaging device of the superimposed region of the first captured image and the second captured image Part, 452b An image portion captured by the second imaging device of the superimposed area of the second captured image and the third captured image, 451c An image portion captured by the third imaging device of the superimposed area of the second captured image and the third captured image , 452c An image portion captured by the third imaging device of the superimposed region of the third captured image and the fourth captured image, 451d captured by the fourth imaging device of the superimposed region of the third captured image and the fourth captured image Image part, A1 first reference area, A2 second reference area, B1 peripheral area of first reference area, B2 peripheral area of second reference area.

Claims (9)

複数の撮影装置の撮影により取得された複数の撮影画像の一部が重畳するように前記複数の撮影画像を合成して一つの連続した画像を生成する画像合成装置において、
前記複数の撮影画像の内の少なくとも一つの撮影画像の一部を参照領域として設定する参照領域設定部と、
前記参照領域が設定された前記撮影画像である第1の撮影画像における前記参照領域の平均輝度が予め定められた第1の閾値以上であるときは、前記参照領域の平均輝度が前記第1の閾値未満となるように前記参照領域の平均輝度を調整する第1の調整と、前記参照領域の前記第1の調整後の平均輝度に基づいて前記第1の撮影画像に隣接する前記撮影画像である第2の撮影画像の平均輝度を調整する第2の調整とを行い、
前記参照領域の平均輝度が前記第1の閾値未満であるときは、前記第1の調整が行われていない前記第1の撮影画像の平均輝度に基づいて前記第2の調整を行う、輝度調整部と、
前記輝度調整部により輝度が調整された前記複数の撮影画像を合成して前記一つの連続した画像を生成する画像合成部と
を有する画像合成装置。
In an image combining device that combines a plurality of captured images so as to overlap a part of a plurality of captured images captured by a plurality of capturing devices, and generates one continuous image,
A reference area setting unit configured to set a part of at least one photographed image of the plurality of photographed images as a reference area;
When the average luminance of the reference area in the first photographed image, which is the photographed image in which the reference area is set, is equal to or greater than a predetermined first threshold, the average luminance of the reference area is the first The first adjustment of adjusting the average luminance of the reference area to be less than the threshold, and the photographed image adjacent to the first photographed image based on the average luminance after the first adjustment of the reference area. Perform a second adjustment to adjust the average brightness of a second captured image;
When the average luminance of the reference area is less than the first threshold, the second adjustment is performed based on the average luminance of the first photographed image for which the first adjustment is not performed. Department,
An image combining unit configured to combine the plurality of photographed images whose brightness has been adjusted by the brightness adjusting unit to generate the one continuous image.
前記輝度調整部は、前記参照領域における平均輝度と、前記参照領域に隣接する周辺領域における平均輝度との差が、予め定められた第2の閾値以上である場合には、前記第1の調整を行わない
請求項1に記載の画像合成装置。
When the difference between the average luminance in the reference area and the average luminance in the peripheral area adjacent to the reference area is equal to or greater than a predetermined second threshold, the luminance adjustment unit may adjust the first adjustment. The image synthesizing device according to claim 1, wherein
時刻情報を取得する時刻取得部と、
過去時刻における前記参照領域の平均輝度を記憶する記憶部と
をさらに有し、
前記輝度調整部は、現在時刻における前記参照領域の平均輝度と、前記過去時刻における前記参照領域の平均輝度との差が、予め定められた第2の閾値以上である場合には、前記第1の調整を行わない
請求項1又は2に記載の画像合成装置。
A time acquisition unit that acquires time information;
And a storage unit storing average brightness of the reference area at a past time.
When the difference between the average luminance of the reference area at the current time and the average luminance of the reference area at the past time is equal to or greater than a predetermined second threshold, the luminance adjustment unit may The image synthesizing device according to claim 1, wherein the adjustment of is not performed.
前記参照領域が設定される前記第1の撮影画像は、前記複数の撮影画像の内、前記画像合成装置のユーザにより任意に選択された撮影画像であり、
前記参照領域は、前記ユーザにより前記第1の撮影画像の任意の位置に設定された領域である
請求項1から3のいずれか1項に記載の画像合成装置。
Among the plurality of photographed images, the first photographed image for which the reference area is set is a photographed image arbitrarily selected by the user of the image combining device,
The image synthesizing device according to any one of claims 1 to 3, wherein the reference area is an area set by the user at an arbitrary position of the first photographed image.
前記参照領域設定部は、前記複数の撮影画像の内の一つの撮影画像の異なる領域に前記参照領域を二つ以上設定する、又は、前記複数の撮影画像の内の二つ以上の撮影画像に前記参照領域を二つ以上設定する
請求項1から4のいずれか1項に記載の画像合成装置。
The reference area setting unit sets two or more of the reference areas in different areas of one of the plurality of photographed images, or sets two or more of the plurality of photographed images. The image synthesizing device according to any one of claims 1 to 4, wherein two or more reference areas are set.
前記輝度調整部は、前記二つ以上の参照領域に優先順位をつけ、前記優先順位に従って前記第1及び第2の調整を行う
請求項5に記載の画像合成装置。
The image combining apparatus according to claim 5, wherein the brightness adjustment unit prioritizes the two or more reference areas, and performs the first and second adjustments in accordance with the priorities.
前記複数の撮影画像の歪みを補正する歪補正部を更に有する
請求項1から6のいずれか1項に記載の画像合成装置。
The image synthesizing device according to any one of claims 1 to 6, further comprising a distortion correction unit configured to correct distortion of the plurality of photographed images.
複数の撮影装置の撮影により取得された複数の撮影画像の一部が重畳するように前記複数の撮影画像を合成して一つの連続した画像を生成するための画像合成方法において、
前記複数の撮影画像の内の少なくとも一つの撮影画像の一部を参照領域として設定する参照領域設定ステップと、
前記参照領域が設定された前記撮影画像である第1の撮影画像における前記参照領域の平均輝度が予め定められた第1の閾値以上であるときは、前記参照領域の平均輝度が前記第1の閾値未満となるように前記参照領域の平均輝度を調整する第1の調整と、前記参照領域の前記第1の調整後の平均輝度に基づいて前記第1の撮影画像に隣接する前記撮影画像である第2の撮影画像の平均輝度を調整する第2の調整とを行い、
前記参照領域の平均輝度が前記第1の閾値未満であるときは、前記第1の調整が行われていない前記第1の撮影画像の平均輝度に基づいて前記第2の調整を行う、輝度調整ステップと、
前記輝度調整ステップにより輝度が調整された前記複数の撮影画像を合成して前記一つの連続した画像を生成する画像合成ステップと
を有する画像合成方法。
An image combining method for combining the plurality of captured images so as to generate a single continuous image so that a part of the plurality of captured images captured by the plurality of capturing devices is superimposed;
A reference area setting step of setting a part of at least one photographed image of the plurality of photographed images as a reference area;
When the average luminance of the reference area in the first photographed image, which is the photographed image in which the reference area is set, is equal to or greater than a predetermined first threshold, the average luminance of the reference area is the first The first adjustment of adjusting the average luminance of the reference area to be less than the threshold, and the photographed image adjacent to the first photographed image based on the average luminance after the first adjustment of the reference area. Perform a second adjustment to adjust the average brightness of a second captured image;
When the average luminance of the reference area is less than the first threshold, the second adjustment is performed based on the average luminance of the first photographed image for which the first adjustment is not performed. Step and
An image combining step of combining the plurality of photographed images whose brightness has been adjusted in the brightness adjusting step to generate the one continuous image.
コンピュータに、
複数の撮影装置の撮影により取得された複数の撮影画像の一部が重畳するように前記複数の撮影画像を合成して一つの連続した画像を生成させるための画像合成プログラムにおいて、
前記複数の撮影画像の内の少なくとも一つの撮影画像の一部を参照領域として設定する参照領域設定処理と、
前記参照領域が設定された前記撮影画像である第1の撮影画像における前記参照領域の平均輝度が予め定められた第1の閾値以上であるときは、前記参照領域の平均輝度が前記第1の閾値未満となるように前記参照領域の平均輝度を調整する第1の調整と、前記参照領域の前記第1の調整後の平均輝度に基づいて前記第1の撮影画像に隣接する前記撮影画像である第2の撮影画像の平均輝度を調整する第2の調整とを行い、
前記参照領域の平均輝度が前記第1の閾値未満であるときは、前記第1の調整が行われていない前記第1の撮影画像の平均輝度に基づいて前記第2の調整を行う、輝度調整処理と、
前記輝度調整処理により輝度が調整された前記複数の撮影画像を合成して前記一つの連続した画像を生成する画像合成処理と
を実行させる画像合成プログラム。
On the computer
An image combining program for combining the plurality of captured images so as to generate one continuous image so that a part of the plurality of captured images captured by the plurality of capturing devices is superimposed,
Reference area setting processing of setting a part of at least one photographed image of the plurality of photographed images as a reference area;
When the average luminance of the reference area in the first photographed image, which is the photographed image in which the reference area is set, is equal to or greater than a predetermined first threshold, the average luminance of the reference area is the first The first adjustment of adjusting the average luminance of the reference area to be less than the threshold, and the photographed image adjacent to the first photographed image based on the average luminance after the first adjustment of the reference area. Perform a second adjustment to adjust the average brightness of a second captured image;
When the average luminance of the reference area is less than the first threshold, the second adjustment is performed based on the average luminance of the first photographed image for which the first adjustment is not performed. Processing and
An image combining program for executing an image combining process of combining the plurality of photographed images whose brightness has been adjusted by the brightness adjustment process to generate one continuous image.
JP2018555410A 2016-12-09 2016-12-09 Image synthesizing device, image synthesizing method, and image synthesizing program Active JP6513309B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/086688 WO2018105097A1 (en) 2016-12-09 2016-12-09 Image synthesis device, image synthesis method, and image synthesis program

Publications (2)

Publication Number Publication Date
JPWO2018105097A1 true JPWO2018105097A1 (en) 2019-04-25
JP6513309B2 JP6513309B2 (en) 2019-05-15

Family

ID=62490971

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018555410A Active JP6513309B2 (en) 2016-12-09 2016-12-09 Image synthesizing device, image synthesizing method, and image synthesizing program

Country Status (2)

Country Link
JP (1) JP6513309B2 (en)
WO (1) WO2018105097A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021157600A (en) 2020-03-27 2021-10-07 キヤノン株式会社 Image processing device and image processing method
CN115037882B (en) * 2021-03-05 2024-02-20 思特威(上海)电子科技股份有限公司 Image brightness adjusting method, imaging device and computer storage medium
JPWO2023032125A1 (en) * 2021-09-02 2023-03-09

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005175620A (en) * 2003-12-08 2005-06-30 Canon Inc Image processing method and apparatus
JP2015084512A (en) * 2013-09-18 2015-04-30 株式会社リコー Image processing system
JP2015186170A (en) * 2014-03-26 2015-10-22 ソニー株式会社 Image processing apparatus and image processing method
JP2016208306A (en) * 2015-04-23 2016-12-08 パナソニックIpマネジメント株式会社 Image processing device, imaging system having the same and image processing method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005175620A (en) * 2003-12-08 2005-06-30 Canon Inc Image processing method and apparatus
JP2015084512A (en) * 2013-09-18 2015-04-30 株式会社リコー Image processing system
JP2015186170A (en) * 2014-03-26 2015-10-22 ソニー株式会社 Image processing apparatus and image processing method
JP2016208306A (en) * 2015-04-23 2016-12-08 パナソニックIpマネジメント株式会社 Image processing device, imaging system having the same and image processing method

Also Published As

Publication number Publication date
JP6513309B2 (en) 2019-05-15
WO2018105097A1 (en) 2018-06-14

Similar Documents

Publication Publication Date Title
CN106713755B (en) Panoramic image processing method and device
JP4806476B2 (en) Image processing apparatus, image generation system, method, and program
US20150109408A1 (en) System and method for capturing and rendering a landscape image or video
JP6513309B2 (en) Image synthesizing device, image synthesizing method, and image synthesizing program
JP2013165487A (en) Image processing apparatus, image capturing apparatus, and program
JP6040042B2 (en) Image processing apparatus, image processing method, and program
JP6351377B2 (en) Image processing system, imaging apparatus, and recording apparatus
JP2013029995A (en) Imaging system
US10171733B2 (en) Image processing apparatus and method, and program and recording medium
KR102282457B1 (en) Method and apparatus for reducing color moire, and image processing apparatus
WO2014188647A1 (en) Image adjustment device, image adjustment method, image adjustment program, and image capture device
US11310440B2 (en) Image processing apparatus, surveillance camera system, and image processing method
US9357133B2 (en) Digital photographing apparatus, auto-focusing method, and computer-readable storage medium for executing the auto-focusing method
US9571720B2 (en) Image processing device, display device, imaging apparatus, image processing method, and program
JP5585117B2 (en) Multi-display system, multi-display adjustment method and program
JP2013258537A (en) Imaging apparatus and image display method of the same
US11206344B2 (en) Image pickup apparatus and storage medium
JP6157274B2 (en) Imaging apparatus, information processing method, and program
US11356611B2 (en) Image capture apparatus and control method thereof
EP3799416A1 (en) Image processing apparatus and method, and image capturing apparatus
CN116343652A (en) LED display screen splice line compensation system, method, equipment and storage medium
JP6762843B2 (en) Image processing equipment, image processing methods, and programs
WO2021059991A1 (en) Imaging device
JP6800693B2 (en) Imaging device and driving method of imaging device
WO2019198198A1 (en) Image processing device, image processing method, and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190118

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190118

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190409

R150 Certificate of patent or registration of utility model

Ref document number: 6513309

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250