JP2018186514A - Image processing device, imaging system having the same and image processing method - Google Patents

Image processing device, imaging system having the same and image processing method Download PDF

Info

Publication number
JP2018186514A
JP2018186514A JP2018112543A JP2018112543A JP2018186514A JP 2018186514 A JP2018186514 A JP 2018186514A JP 2018112543 A JP2018112543 A JP 2018112543A JP 2018112543 A JP2018112543 A JP 2018112543A JP 2018186514 A JP2018186514 A JP 2018186514A
Authority
JP
Japan
Prior art keywords
image
cameras
reference camera
camera
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018112543A
Other languages
Japanese (ja)
Inventor
亮司 荻野
Ryoji Ogino
亮司 荻野
純哉 桑田
Junya Kuwata
純哉 桑田
廣田 亮
Ryo Hirota
亮 廣田
西山 明雄
Akio Nishiyama
明雄 西山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2018112543A priority Critical patent/JP2018186514A/en
Publication of JP2018186514A publication Critical patent/JP2018186514A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To enable proper display of a captured image as a reference while boundaries of areas of respective images to be combined in a composed panoramic composite image are suppressed from being unnaturally conspicuous.SOLUTION: An image processing device 3 includes a reference camera determination unit 41 that determines one of the plurality of cameras CAM 1 -CAM 7 as a reference camera, an imaging condition acquisition unit 42 that acquires imaging conditions relating to exposure and white balance set in the reference camera, an imaging condition setting unit 43 for transmitting setting commands concerning exposure and white balance to other cameras excluding the reference camera based on the imaging conditions of the reference camera, and an image composing unit 43 that performs image composing processing on a plurality of captured images acquired from a plurality of cameras CAM1 to CAM7 and outputs a panoramic composite image.SELECTED DRAWING: Figure 3

Description

本発明は、複数の撮像画像に対して画像合成処理を行って合成画像を出力する画像処理装置及びこれを備えた撮像システムならびに画像処理方法に関するものである。   The present invention relates to an image processing apparatus that performs image composition processing on a plurality of captured images and outputs a composite image, an imaging system including the image processing apparatus, and an image processing method.

従来、複数のカメラにより撮像された画像を合成して1つのパノラマ合成画像を生成する撮像システムでは、いわゆるスティッチング処理を行うことで、1台のカメラでは得ることができない広角画像をシームレスな状態で生成することができる。このようなスティッチング処理では、隣り合う2つのカメラを、各々の撮像エリアが一部重複するように配置して、2つのカメラの撮像エリアの重複部分に対応する境界部の画像領域を重ね合わせ、また、適宜にトリミングを行って画像を合成する。   Conventionally, in an imaging system that generates a single panoramic composite image by combining images captured by a plurality of cameras, a wide-angle image that cannot be obtained by a single camera can be obtained in a seamless state by performing so-called stitching processing. Can be generated. In such stitching processing, two adjacent cameras are arranged so that the respective imaging areas partially overlap, and the image areas at the boundary portions corresponding to the overlapping portions of the imaging areas of the two cameras are overlapped. In addition, the image is synthesized by appropriately trimming.

一方、2つのカメラの撮像エリアの重複部分に、カメラからの距離が大きく異なる被写体が存在する、すなわち、遠景となる被写体と近影となる被写体とが存在すると、2つのカメラの各撮像画像の間には、遠景となる被写体の像と近影となる被写体の像との位置関係がずれた状態、いわゆる視差が発生し、合成画像に、近影の像が2重に現れたり、近影の像の一部が消失したりする不具合が発生する。そこで、スティッチングでは、視差に起因する画像の不具合を抑制する視差補正が行われる。   On the other hand, if there is a subject whose distance from the camera is significantly different in the overlapping area of the imaging areas of the two cameras, that is, if there is a subject that is a distant view and a subject that is a close-up view, between the captured images of the two cameras In this case, the positional relationship between the image of the subject in the distant view and the image of the subject in the close shadow is shifted, so-called parallax occurs, and the close-up image appears twice in the composite image, or one of the close-up images. The trouble that a part disappears occurs. Thus, in stitching, parallax correction is performed to suppress image defects caused by parallax.

このような視差補正に関するものとして、従来、エッジや特徴量に基づくブロックマッチングにより、2つのカメラの各撮像画像に現れる被写体の像の位置関係を取得して、この情報に基づいて画像を変形させる視差補正を行う技術が知られている(特許文献1参照)。   As for such parallax correction, conventionally, the positional relationship between the images of the subjects appearing in the captured images of the two cameras is obtained by block matching based on edges and feature amounts, and the image is deformed based on this information. A technique for performing parallax correction is known (see Patent Document 1).

また、人物など近景の像が現れている画像領域、すなわちコスト関数が高い画像領域を回避するように、2つの画像に対して屈曲したスティッチング境界を設定し、このスティッチング境界に沿って2つの画像を切り出すトリミングを行った上で画像合成する技術が知られている(特許文献2参照)。   Further, a bent stitching boundary is set with respect to the two images so as to avoid an image region in which a near-field image such as a person appears, that is, an image region having a high cost function, and 2 along the stitching boundary. A technique for synthesizing images after performing trimming to cut out two images is known (see Patent Document 2).

2010−50842号公報2010-50842 特許第5225313号公報Japanese Patent No. 5225313

ところで、上記従来の撮像システムでは、各カメラの撮像環境(例えば、順光および逆光等)が互いに異なるため、露出やホワイトバランス等に関する撮像条件は、カメラ毎に適正となるように個別に設定されるのが一般的である。   By the way, in the above conventional imaging system, since the imaging environment (for example, forward light and backlight) of each camera is different from each other, imaging conditions regarding exposure, white balance, etc. are individually set so as to be appropriate for each camera. It is common.

しかしながら、上記特許文献1、2に開示された従来技術では、上述のように撮像条件が個別に設定された複数のカメラによる撮像画像(被合成画像)のスティッチング処理をそのまま実行すると、各撮像画像間の明るさや色合いの差によって合成画像における各撮像画像の領域の境界が不自然に目立ってしまうという問題があった。   However, in the conventional techniques disclosed in Patent Documents 1 and 2, when the stitching processing of captured images (composited images) by a plurality of cameras in which imaging conditions are individually set as described above is executed as it is, There is a problem that the boundary of the area of each captured image in the composite image becomes unnaturally conspicuous due to a difference in brightness and hue between images.

一方、全てのカメラに対して一様に露出やホワイトバランス等に関する撮像条件を設定することも考えられるが、基準となる撮像画像(例えば、ユーザが注目する可能性のある重要度の高い撮像画像)を撮像するカメラにおいて露出やホワイトバランスが適正に設定されず、撮像対象が適切に表示されない(例えば、白飛びや黒つぶれ等が生じる)場合が生じ得る。   On the other hand, it is conceivable to set the imaging conditions for exposure, white balance, etc. uniformly for all cameras, but the reference captured image (for example, a highly important captured image that may be noticed by the user) ), The exposure and white balance are not properly set, and the imaging target is not properly displayed (for example, overexposure or blackout occurs).

本発明は、このような従来技術の問題点を解消するべく案出されたものであり、その主な目的は、パノラマ合成画像において、基準となる撮像画像の領域を適切に表示しつつ、合成された各撮像画像の領域の境界が不自然に目立つことを抑制する画像処理装置及びこれを備えた撮像システムならびに画像処理方法を提供することにある。   The present invention has been devised to solve such problems of the prior art, and the main purpose of the present invention is to appropriately display a region of a captured image as a reference in a panorama composite image while appropriately displaying the region. An object of the present invention is to provide an image processing apparatus that suppresses unnaturally conspicuous boundaries between regions of each captured image, an imaging system including the image processing apparatus, and an image processing method.

本発明の画像処理装置は、複数のカメラと通信可能に接続され、前記複数のカメラから取得した複数の撮像画像に対して画像合成処理を行ってパノラマ合成画像を出力する画像処理装置であって、前記複数のカメラのうちの1つを基準カメラとして決定する基準カメラ決定部と、前記基準カメラにおいて設定された露出およびホワイトバランスに関する撮像条件を取得する撮像条件取得部と、前記複数のカメラのうち前記基準カメラを除く他のカメラに対し、前記基準カメラの前記撮像条件に基づき、露出およびホワイトバランスに関する設定指令を送出する撮像条件設定部と、前記複数のカメラから取得した複数の撮像画像に対して画像合成処理を行って前記パノラマ合成画像を出力する画像合成部とを備えたことを特徴とする。   An image processing apparatus of the present invention is an image processing apparatus that is communicably connected to a plurality of cameras, outputs a panorama composite image by performing an image composition process on a plurality of captured images acquired from the plurality of cameras. A reference camera determination unit that determines one of the plurality of cameras as a reference camera, an imaging condition acquisition unit that acquires an imaging condition related to exposure and white balance set in the reference camera, and a plurality of cameras Among them, an imaging condition setting unit that sends a setting command related to exposure and white balance based on the imaging conditions of the reference camera to other cameras other than the reference camera, and a plurality of captured images acquired from the plurality of cameras And an image composition unit for performing image composition processing and outputting the panorama composite image.

また、本発明の画像処理方法は、複数のカメラと通信可能に接続された画像処理装置において、前記複数のカメラから取得した複数の撮像画像に対して画像合成処理を行ってパノラマ合成画像を出力する画像処理方法であって、前記複数のカメラのうちの1つを基準カメラとして決定する基準カメラ決定ステップと、前記基準カメラにおいて設定された露出およびホワイトバランスに関する撮像条件を取得する撮像条件取得ステップと、前記複数のカメラのうち前記基準カメラを除く他のカメラに対し、前記基準カメラの前記撮像条件に基づき、露出およびホワイトバランスに関する撮像条件の設定指令を送出する撮像条件設定ステップと、前記複数のカメラから取得した複数の撮像画像に対して画像合成処理を行って前記パノラマ合成画像を出力する画像合成ステップとを有することを特徴とする。   The image processing method of the present invention outputs a panorama composite image by performing an image composition process on a plurality of captured images acquired from the plurality of cameras in an image processing apparatus connected to be communicable with the plurality of cameras. A reference camera determination step of determining one of the plurality of cameras as a reference camera, and an imaging condition acquisition step of acquiring an imaging condition related to exposure and white balance set in the reference camera An imaging condition setting step of sending an imaging condition setting command relating to exposure and white balance to other cameras other than the reference camera among the plurality of cameras based on the imaging conditions of the reference camera; The panoramic composite image is obtained by performing image composition processing on a plurality of captured images acquired from the camera And having an image combining step of outputting.

本発明によれば、パノラマ合成画像において、基準となる撮像画像の領域を適切に表示しつつ、合成された各撮像画像の領域の境界が不自然に目立つことを抑制することが可能となる。   ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to suppress that the boundary of the area | region of each synthesized captured image stands out unnaturally, displaying the area | region of the captured image used as a reference | standard appropriately in a panoramic composite image.

実施形態に係る撮像システムを示す全体構成図1 is an overall configuration diagram showing an imaging system according to an embodiment 図1中の表示装置で表示される合成画像を示す説明図Explanatory drawing which shows the synthesized image displayed with the display apparatus in FIG. 実施形態に係る撮像システムを示す機能ブロック図Functional block diagram showing an imaging system according to an embodiment 視差補正を実施しない場合および視差補正を実施した場合の画像の状態を模式的に示す説明図Explanatory drawing which shows typically the state of the image when not implementing parallax correction, and when parallax correction is implemented 視差補正を実施しない場合および視差補正を実施した場合の画像の実際の状態を示す説明図Explanatory drawing which shows the actual state of the image when parallax correction is not performed and when parallax correction is performed 基準カメラ決定部による基準カメラの決定方法を示す説明図Explanatory drawing which shows the determination method of the reference camera by a reference camera determination part 基準カメラ決定部による基準カメラの決定方法の第1変形例を示す説明図Explanatory drawing which shows the 1st modification of the determination method of the reference camera by a reference camera determination part. 基準カメラ決定部による基準カメラの決定方法の第2変形例を示す説明図Explanatory drawing which shows the 2nd modification of the determination method of the reference camera by a reference camera determination part. 実施形態に係る画像処理装置の処理の流れを示すフロー図FIG. 3 is a flowchart showing a processing flow of the image processing apparatus according to the embodiment. 図9中のステップST107の処理内容を示す説明図Explanatory drawing which shows the processing content of step ST107 in FIG.

前記課題を解決するためになされた第1の発明は、複数のカメラと通信可能に接続され、前記複数のカメラから取得した複数の撮像画像に対して画像合成処理を行ってパノラマ合成画像を出力する画像処理装置であって、前記複数のカメラのうちの1つを基準カメラとして決定する基準カメラ決定部と、前記基準カメラにおいて設定された露出およびホワイトバランスに関する撮像条件を取得する撮像条件取得部と、前記複数のカメラのうち前記基準カメラを除く他のカメラに対し、前記基準カメラの前記撮像条件に基づき、露出およびホワイトバランスに関する設定指令を送出する撮像条件設定部と、前記複数のカメラから取得した複数の撮像画像に対して画像合成処理を行って前記パノラマ合成画像を出力する画像合成部とを備えたことを特徴とする。   A first invention made to solve the above problems is connected to a plurality of cameras so as to be communicable, and performs an image synthesis process on a plurality of captured images acquired from the plurality of cameras to output a panorama synthesized image. A reference camera determination unit that determines one of the plurality of cameras as a reference camera, and an imaging condition acquisition unit that acquires imaging conditions related to exposure and white balance set in the reference camera An imaging condition setting unit that sends a setting command related to exposure and white balance based on the imaging conditions of the reference camera to other cameras other than the reference camera among the plurality of cameras, and the plurality of cameras An image composition unit that performs image composition processing on the plurality of acquired captured images and outputs the panorama composite image And features.

この第1の発明に係る画像処理装置によれば、複数のカメラのうちの1つが基準カメラとして決定され、その基準カメラの露出およびホワイトバランスに関する撮像条件に基づき他のカメラの撮像条件が設定されるため、基準となる撮像画像の領域を適切に表示(すなわち、基準カメラによる撮像画像の領域の白飛びや黒つぶれ等を抑制)しつつ、合成された各撮像画像の領域の境界が不自然に目立つことを抑制(すなわち、複数の撮像画像の領域の明るさや色合いの差を抑制)することが可能となる。   According to the image processing apparatus of the first aspect, one of the plurality of cameras is determined as the reference camera, and the imaging conditions of the other cameras are set based on the imaging conditions regarding the exposure and white balance of the reference camera. Therefore, the boundary of each synthesized image area is unnatural while appropriately displaying the area of the captured image serving as a reference (that is, suppressing overexposure or blackout in the area of the captured image by the reference camera). It is possible to suppress the conspicuousness (that is, to suppress the difference in brightness and hue in a plurality of captured image areas).

また、第2の発明は、上記第1の発明において、前記基準カメラ決定部は、前記基準カメラの決定に際して前記複数のカメラによってそれぞれ撮像された撮像画像の輝度の情報を取得し、それら複数の輝度のうち中央値となる輝度を有する撮像画像を撮像したカメラを前記基準カメラとして決定することを特徴とする。   In a second aspect based on the first aspect, the reference camera determining unit obtains luminance information of captured images respectively captured by the plurality of cameras when the reference camera is determined. A camera that captures a captured image having a median luminance value among the luminance values is determined as the reference camera.

この第2の発明に係る画像処理装置によれば、撮像画像の輝度の統計的な比較に基づく簡易な手法により、複数のカメラのうちの1つを標準的な撮像画像を撮影する基準カメラとして適切に決定することができる。   According to the image processing apparatus of the second invention, one of a plurality of cameras is used as a reference camera for capturing a standard captured image by a simple method based on a statistical comparison of the brightness of the captured image. Can be determined appropriately.

また、第3の発明は、上記第1の発明において、前記基準カメラ決定部は、前記基準カメラの決定に際して前記複数のカメラによってそれぞれ撮像された撮像画像の輝度の情報を取得し、それら複数の輝度の平均値に最も近い輝度を有する撮像画像を撮像したカメラを前記基準カメラとして決定することを特徴とする。   In a third aspect based on the first aspect, the reference camera determination unit acquires information on the luminance of captured images respectively captured by the plurality of cameras when the reference camera is determined. A camera that captures a captured image having a brightness closest to an average value of the brightness is determined as the reference camera.

この第3の発明に係る画像処理装置によれば、撮像画像の輝度の統計的な比較に基づく簡易な手法により、複数のカメラのうちの1つを標準的な撮像画像を撮影する基準カメラとして適切に決定することができる。   According to the image processing apparatus of the third aspect of the present invention, one of a plurality of cameras is used as a reference camera for capturing a standard captured image by a simple method based on a statistical comparison of the brightness of the captured image. Can be determined appropriately.

また、第4の発明は、上記第1の発明において、前記基準カメラ決定部は、前記複数のカメラのうちユーザによって選択された1つのカメラを前記基準カメラとして決定することを特徴とする。   In a fourth aspect based on the first aspect, the reference camera determination unit determines one camera selected by the user from the plurality of cameras as the reference camera.

この第4の発明に係る画像処理装置によれば、ユーザの選択に基づく簡易な手法により、複数のカメラのうちの1つをユーザにとって重要度の高い基準カメラとして適切に決定することができる。   According to the image processing apparatus of the fourth aspect of the present invention, one of a plurality of cameras can be appropriately determined as a reference camera having high importance for the user by a simple method based on the user's selection.

また、第5の発明は、上記第1の発明において、前記基準カメラ決定部は、前記基準カメラの決定に際して前記複数のカメラによってそれぞれ撮像された撮像画像における所定の撮像対象の画像認識結果を取得し、その画像認識結果に基づき前記基準カメラを決定することを特徴とする。   In a fifth aspect based on the first aspect, the reference camera determining unit obtains an image recognition result of a predetermined imaging target in the captured images respectively captured by the plurality of cameras when determining the reference camera. The reference camera is determined based on the image recognition result.

この第5の発明に係る画像処理装置によれば、予めユーザが設定可能な所定の撮像対象の画像認識結果に基づく簡易な手法により、複数のカメラのうちの1つを所望の撮像対象を含む重要度の高い基準カメラとして適切に決定することができる。   According to the image processing apparatus of the fifth invention, one of a plurality of cameras includes a desired imaging target by a simple method based on an image recognition result of a predetermined imaging target that can be set in advance by the user. It can be appropriately determined as a reference camera with high importance.

また、第6の発明は、上記第1から第5の発明のいずれかにおいて、前記撮像条件設定部は、前記画像合成部により前記複数の撮像画像に対する前記画像合成処理が実行される際に、隣接する2つの前記撮像画像の境界領域における輝度および色差の少なくとも一方の差分が予め設定された閾値を越えた場合、前記他のカメラに対し、前記閾値を越えた前記差分を小さくするように、前記設定指令における前記撮像条件を補正することを特徴とする。   In addition, in a sixth aspect based on any one of the first to fifth aspects, the imaging condition setting unit is configured to execute the image composition processing on the plurality of captured images by the image composition unit. When the difference between at least one of the luminance and the color difference in the boundary region between the two adjacent captured images exceeds a preset threshold value, the difference exceeding the threshold value is reduced with respect to the other camera. The imaging condition in the setting command is corrected.

この第6の発明に係る画像処理装置によれば、基準カメラの露出およびホワイトバランスに関する撮像条件に基づき他のカメラの撮像条件が設定されたにも拘わらず、他のカメラにおけるイメージセンサの個体差(出力のばらつき)等により2つの撮像画像の境界領域における輝度および色差の少なくとも一方の差が閾値を越えた(すなわち、境界領域が不自然に目立つ可能性がある)場合でも、2つの撮像画像を撮像するカメラの少なくとも一方の撮像条件を補正することにより、合成された各撮像画像の領域の境界が不自然に目立つことをより確実に抑制することが可能となる。   According to the image processing apparatus of the sixth aspect of the invention, the individual difference of the image sensor in the other camera is set even though the imaging condition of the other camera is set based on the imaging condition regarding the exposure and white balance of the reference camera. Even when the difference between at least one of the luminance and the color difference in the boundary region between two captured images exceeds a threshold due to (output variation) or the like (that is, the boundary region may be unnaturally conspicuous), the two captured images By correcting the imaging condition of at least one of the cameras that capture the image, it is possible to more reliably suppress unnaturally conspicuous boundaries between the areas of the combined captured images.

また、第7の発明は、上記第1から第6の発明のいずれかに係る前記画像処理装置と、前記複数のカメラとを備えた撮像システムである。   A seventh invention is an imaging system including the image processing device according to any one of the first to sixth inventions and the plurality of cameras.

また、第8の発明は、複数のカメラと通信可能に接続された画像処理装置において、前記複数のカメラから取得した複数の撮像画像に対して画像合成処理を行ってパノラマ合成画像を出力する画像処理方法であって、前記複数のカメラのうちの1つを基準カメラとして決定する基準カメラ決定ステップと、前記基準カメラにおいて設定された露出およびホワイトバランスに関する撮像条件を取得する撮像条件取得ステップと、前記複数のカメラのうち前記基準カメラを除く他のカメラに対し、前記基準カメラの前記撮像条件に基づき、露出およびホワイトバランスに関する撮像条件の設定指令を送出する撮像条件設定ステップと、前記複数のカメラから取得した複数の撮像画像に対して画像合成処理を行って前記パノラマ合成画像を出力する画像合成ステップとを有することを特徴とする。   According to an eighth aspect of the present invention, in the image processing apparatus that is communicably connected to a plurality of cameras, an image synthesis process is performed on the plurality of captured images acquired from the plurality of cameras to output a panorama synthesized image. A processing method, a reference camera determination step for determining one of the plurality of cameras as a reference camera, an imaging condition acquisition step for acquiring an imaging condition related to exposure and white balance set in the reference camera, An imaging condition setting step for sending imaging condition setting commands relating to exposure and white balance to other cameras other than the reference camera among the plurality of cameras based on the imaging conditions of the reference camera; and the plurality of cameras The image synthesis process is performed on the plurality of captured images acquired from the image and the panorama synthesized image is output. And having a image synthesis step.

以下、本発明の実施の形態について図面を参照しながら説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の実施形態に係る撮像システム1を示す全体構成図であり、図2は、図1に示した画像処理装置3で生成されて表示装置4で表示される合成画像を示す説明図である。   FIG. 1 is an overall configuration diagram illustrating an imaging system 1 according to an embodiment of the present invention, and FIG. 2 illustrates a composite image generated by the image processing device 3 illustrated in FIG. 1 and displayed on the display device 4. It is explanatory drawing.

図1に示すように、撮像システム1は、合成用の撮像画像(ここでは、動画)を生成する第1〜第7のカメラCAM1−CAM7を有するカメラユニット2と、それら撮像画像の画像合成処理を行うことにより、合成画像を順次生成する画像処理装置3と、画像処理装置3から出力された合成画像を表示する表示装置4とを備える。   As shown in FIG. 1, the imaging system 1 includes a camera unit 2 having first to seventh cameras CAM1 to CAM7 that generate captured images (here, moving images) for synthesis, and image synthesis processing of these captured images. By performing the above, the image processing device 3 that sequentially generates the composite image and the display device 4 that displays the composite image output from the image processing device 3 are provided.

カメラCAM1−CAM7は、広角な画角(例えば120°)を有し、撮像画像をデジタルデータとして記録する公知の構成を有する。第1〜第6のカメラCAM1−CAM6は、光軸が略水平方向の放射状となるように周方向に等間隔をおいて配置され、第7のカメラCAM7は、光軸が略垂直方向上向きとなるように配置されている。カメラCAM1−CAM7は、隣り合う2つのカメラCAM1−CAM7同士で撮像エリアが一部重複するように配置されている。なお、撮像システム1において合成用の撮像画像を生成するカメラの台数および配置等は、図1に示すものに限らず種々の変更が可能である。例えば、上向きのカメラCAM7を省略してもよい。   The cameras CAM1 to CAM7 have a wide angle of view (for example, 120 °) and have a known configuration for recording captured images as digital data. The first to sixth cameras CAM1 to CAM6 are arranged at equal intervals in the circumferential direction so that the optical axes are substantially horizontal, and the seventh camera CAM7 has an optical axis facing upward in a substantially vertical direction. It is arranged to be. The cameras CAM1-CAM7 are arranged so that the imaging areas are partially overlapped between two adjacent cameras CAM1-CAM7. It should be noted that the number and arrangement of cameras that generate captured images for synthesis in the imaging system 1 are not limited to those shown in FIG. 1 and can be variously changed. For example, the upward camera CAM 7 may be omitted.

画像処理装置3は、カメラCAM1−CAM7との間で無線または有線通信可能なPC(Personal Computer)から構成される。また、表示装置4は、画像処理装置3に接続された液晶モニタ等の公知の画像表示装置から構成される。   The image processing apparatus 3 includes a PC (Personal Computer) capable of wireless or wired communication with the cameras CAM1 to CAM7. The display device 4 includes a known image display device such as a liquid crystal monitor connected to the image processing device 3.

詳細は図示しないが、画像処理装置3は、所定の制御プログラムに基づきカメラCAM1−CAM7や表示装置4の制御などを統括的に実行するCPU(Central Processing Unit)、CPUのワークエリア等として機能するRAM(Random Access Memory)、CPUが実行する制御プログラムやデータを格納するROM(Read Only Memory)、スピーカ、入力デバイス、及びHDD(Hard Disk Drive)などを含む公知のハードウェア構成を有している。また、画像処理装置3において実行される各種機能(後に詳述する画像合成処理、撮像条件設定等)の少なくとも一部については、CPUが専用の制御プログラム(画像合成処理用プログラム、撮像条件設定用プログラム等)を実行することによって実現可能である。なお、画像処理装置3としては、PCに限らず、同様の機能を果たす他の情報処理装置(サーバ等)を用いることもできる。また、画像処理装置3の機能の少なくとも一部を他の公知のハードウェアによる処理によって代替してもよい。   Although not shown in detail, the image processing device 3 functions as a CPU (Central Processing Unit) that centrally executes control of the cameras CAM1-CAM7 and the display device 4 based on a predetermined control program, a work area of the CPU, and the like. It has a known hardware configuration including a RAM (Random Access Memory), a ROM (Read Only Memory) that stores a control program executed by the CPU and data, a speaker, an input device, an HDD (Hard Disk Drive), and the like. . Further, for at least a part of various functions executed in the image processing apparatus 3 (image composition processing, imaging condition setting, etc., which will be described in detail later), the CPU has a dedicated control program (image composition processing program, imaging condition setting program). This can be realized by executing a program). Note that the image processing device 3 is not limited to a PC, and other information processing devices (such as a server) that perform the same function may be used. Further, at least a part of the functions of the image processing apparatus 3 may be replaced by processing using other known hardware.

画像処理装置3では、図2に示すように、第1〜第7のカメラCAM1−CAM7により撮像された撮像画像(ここでは、7つの画像)を合成して1つのパノラマ合成画像を生成する処理(スティッチング)がフレームごとに行われ、このフレームごとの合成画像が表示装置4に出力されて、表示装置4に合成画像(カメラ映像)がリアルタイムに表示される。なお、画像処理装置3では、表示装置4に合成画像を表示させる代わりに、或いは、それと同時に、HDD等の公知の記憶装置(図示せず)に合成画像を順次記憶させることも可能である。   As shown in FIG. 2, the image processing device 3 synthesizes captured images (here, seven images) captured by the first to seventh cameras CAM1 to CAM7 to generate one panorama composite image. (Stitching) is performed for each frame, a composite image for each frame is output to the display device 4, and the composite image (camera image) is displayed on the display device 4 in real time. In the image processing device 3, instead of displaying the composite image on the display device 4, or simultaneously, it is also possible to store the composite image sequentially in a known storage device (not shown) such as an HDD.

図3は、本発明の実施形態に係る撮像システム1を示す機能ブロック図である。ここでは、2つのカメラCAM1、CAM2の撮像画像を処理する部分のみを示しているが、図1に示した他のカメラCAM3−CAM7についても同様の構成を有する。本実施形態では、視差補正量算出部31は、隣り合う2つのカメラCAM1−CAM7の組み合わせごとに設けられ、また、パノラマ画像生成部32および視差補正部33はカメラCAM1−CAM7ごとに設けられる。   FIG. 3 is a functional block diagram showing the imaging system 1 according to the embodiment of the present invention. Here, only the part for processing the captured images of the two cameras CAM1 and CAM2 is shown, but the other cameras CAM3-CAM7 shown in FIG. 1 have the same configuration. In the present embodiment, the parallax correction amount calculation unit 31 is provided for each combination of two adjacent cameras CAM1-CAM7, and the panoramic image generation unit 32 and the parallax correction unit 33 are provided for each camera CAM1-CAM7.

図3に示すように、各カメラCAM1、CAM2は、同一構成を有しており、レンズ等の光学系を含むレンズ部11と、レンズ部11からの光を受光して光電変換することにより画像信号(デジタル信号)を出力するイメージセンサ部12と、イメージセンサ部12からの画像信号に対して種々の信号処理を実施する信号処理部13と、イメージセンサ部12および信号処理部13の動作を統括的に制御するカメラ制御部14とを備える。   As shown in FIG. 3, each of the cameras CAM1 and CAM2 has the same configuration, and receives a light from the lens unit 11 including an optical system such as a lens and photoelectrically converts the image by receiving light. The operation of the image sensor unit 12 that outputs a signal (digital signal), the signal processing unit 13 that performs various signal processing on the image signal from the image sensor unit 12, and the operation of the image sensor unit 12 and the signal processing unit 13 And a camera control unit 14 that performs overall control.

イメージセンサ部12は、CMOSイメージセンサ、CDS(Correlated Double Sampling)、AFE(Analog Front End)、及び駆動回路等の公知の構成を有している。また、イメージセンサ部12では、電子シャッタに関するシャッタ値(シャッタスピード)の変更や、AFE内のAGC(Auto Gain Control)回路(すなわち、AD変換前のアナログ回路)に適用されるセンサゲイン値の変更により、露出(明るさ)を調整することが可能である。   The image sensor unit 12 has a known configuration such as a CMOS image sensor, a CDS (Correlated Double Sampling), an AFE (Analog Front End), and a drive circuit. Further, the image sensor unit 12 changes a shutter value (shutter speed) related to the electronic shutter, and changes a sensor gain value applied to an AGC (Auto Gain Control) circuit (that is, an analog circuit before AD conversion) in the AFE. Thus, it is possible to adjust the exposure (brightness).

信号処理部13は、イメージセンサ部12から出力された画像信号に基づくRAW画像に対して公知の信号処理(デジタルゲイン調整、ホワイトバランス補正、輪郭補正、γ補正、YC変換、色差補正、ノイズリダクション等)を実施し、輝度および色差信号に基づく撮像画像を出力する。信号処理部13は、デジタルゲイン調整に関するデジタルゲイン値の変更により、露出(明るさ)を調整することが可能であり、また、ホワイトバランス補正に関するホワイトバランスゲイン値の変更により、ホワイトバランス(色合い)を調整することが可能である。   The signal processing unit 13 performs known signal processing (digital gain adjustment, white balance correction, contour correction, γ correction, YC conversion, color difference correction, noise reduction, etc.) on the RAW image based on the image signal output from the image sensor unit 12. Etc.) and a captured image based on the luminance and color difference signals is output. The signal processing unit 13 can adjust exposure (brightness) by changing a digital gain value related to digital gain adjustment, and can also adjust white balance (hue) by changing a white balance gain value related to white balance correction. Can be adjusted.

カメラ制御部14は、カメラCAM1−CAM7で実行されるオート撮影モードにおいて、適正な露出およびホワイトバランスで撮像を行うために、イメージセンサ部12のシャッタ値およびセンサゲイン値、ならびに信号処理部13のデジタルゲイン値およびホワイトバランスゲイン値を制御する。   In the auto shooting mode executed by the cameras CAM1 to CAM7, the camera control unit 14 performs imaging with appropriate exposure and white balance, and the shutter value and sensor gain value of the image sensor unit 12 and the signal processing unit 13 Controls the digital gain value and white balance gain value.

後に詳述するように、カメラ制御部14は、画像処理装置3によって自身のカメラが基準カメラとして決定されると、画像処理装置3に対して露出およびホワイトバランスに関する撮像条件(ここでは、シャッタ値、センサゲイン値、デジタルゲイン値、及びホワイトバランスゲイン値)を送出する。一方で、基準カメラでない他のカメラにおけるカメラ制御部14は、画像処理装置3から基準カメラにおける露出およびホワイトバランスに関する撮像条件の設定指令を取得し、その設定指令に基づき露出およびホワイトバランスに関する撮像条件の設定(ここでは、イメージセンサ部12におけるシャッタ値およびセンサゲイン値の設定、信号処理部13におけるデジタルゲイン値およびホワイトバランスゲイン値の設定)を行う。   As will be described in detail later, when the image processing apparatus 3 determines that its own camera is the reference camera, the camera control unit 14 causes the image processing apparatus 3 to perform imaging conditions relating to exposure and white balance (here, the shutter value). , Sensor gain value, digital gain value, and white balance gain value). On the other hand, the camera control unit 14 in another camera that is not the reference camera acquires an imaging condition setting command related to exposure and white balance in the reference camera from the image processing device 3, and the imaging condition related to exposure and white balance based on the setting command. (Here, setting of shutter value and sensor gain value in the image sensor unit 12, setting of digital gain value and white balance gain value in the signal processing unit 13).

画像処理装置3は、各撮像画像を貼り合わせるように合成するスティッチング部21と、カメラCAM1−CAM7の撮像を制御する撮像制御部22とを備える。   The image processing apparatus 3 includes a stitching unit 21 that synthesizes the captured images so as to be pasted together, and an imaging control unit 22 that controls imaging of the cameras CAM1-CAM7.

スティッチング部21は、視差補正量算出部31と、パノラマ画像生成部32と、視差補正部33と、画像合成部34とを備えている。   The stitching unit 21 includes a parallax correction amount calculation unit 31, a panoramic image generation unit 32, a parallax correction unit 33, and an image composition unit 34.

視差補正量算出部31では、視差補正時の画像の変形度合いを規定する視差補正量をフレームごとに算出する処理が行われる。具体的には、平行化(円柱への投影)、処理領域切り出し、および視差算出の各処理が行われる。視差算出処理では、2つの撮像画像間のブロックマッチングにより視差(ずれ量)を算出する。すなわち、2つの撮像画像を少しずつずらしながら2つの撮像画像間の差分を算出し、その差分が最も小さくなる位置関係から視差を求める。   The parallax correction amount calculation unit 31 performs a process of calculating a parallax correction amount that defines the degree of deformation of the image at the time of parallax correction for each frame. Specifically, parallelization (projection onto a cylinder), processing area cutout, and parallax calculation are performed. In the parallax calculation process, parallax (deviation amount) is calculated by block matching between two captured images. That is, the difference between the two captured images is calculated while shifting the two captured images little by little, and the parallax is obtained from the positional relationship in which the difference is the smallest.

パノラマ画像生成部32では、2つのカメラCAM1、CAM2からそれぞれ出力される撮像画像に対してパノラマ化(球への投影)を行って、2つのパノラマ画像を生成する処理が行われる。   The panorama image generation unit 32 performs panoramaization (projection onto a sphere) on the captured images output from the two cameras CAM1 and CAM2 to generate two panorama images.

視差補正部33では、視差補正量算出部31から出力される視差補正量に基づいて、パノラマ画像生成部32で生成した2つのパノラマ画像に対して視差補正を行って、2つの視差補正画像を生成する処理が行われる。   The parallax correction unit 33 performs the parallax correction on the two panoramic images generated by the panoramic image generation unit 32 based on the parallax correction amount output from the parallax correction amount calculation unit 31 to obtain two parallax correction images. Processing to generate is performed.

画像合成部34では、視差補正部33でそれぞれ生成した2つの視差補正画像に対して画像合成処理を行って、1つの合成画像を生成する処理が行われる。この画像合成部34で生成したパノラマ合成画像は表示装置4に出力され、表示装置4にパノラマ合成画像が表示される。   In the image composition unit 34, an image composition process is performed on the two parallax correction images generated by the parallax correction unit 33 to generate one composite image. The panorama composite image generated by the image composition unit 34 is output to the display device 4, and the panorama composite image is displayed on the display device 4.

撮像制御部22は、基準カメラ決定部41と、撮像条件取得部42と、撮像条件設定部43とを備えている。   The imaging control unit 22 includes a reference camera determination unit 41, an imaging condition acquisition unit 42, and an imaging condition setting unit 43.

詳細は後述するが、基準カメラ決定部41は、複数のカメラCAM1−CAM7のうちの1つを基準カメラとして決定する。なお、基準カメラは、ユーザ注目する或いはその可能性のある重要度の高い撮像画像(または人や物あるいはそれらの一部などの撮像対象)を撮像可能なカメラであることが好ましい。また、撮像条件取得部42は、基準カメラ決定部41によって決定された基準カメラで設定された露出およびホワイトバランスに関する撮像条件(ここでは、シャッタ値、センサゲイン値、デジタルゲイン値、及びホワイトバランスゲイン値)を取得する。また、撮像条件設定部43は、基準カメラで設定された露出およびホワイトバランスに関する撮像条件に基づき、基準カメラを除く他のカメラに対し、露出およびホワイトバランスに関する撮像条件の設定指令を送出する。   Although details will be described later, the reference camera determination unit 41 determines one of the plurality of cameras CAM1 to CAM7 as a reference camera. Note that the reference camera is preferably a camera that can capture a highly important captured image (or an imaging target such as a person, an object, or a part thereof) that is noticed by the user or is likely to be the user. In addition, the imaging condition acquisition unit 42 captures imaging conditions related to exposure and white balance set by the reference camera determined by the reference camera determination unit 41 (here, shutter value, sensor gain value, digital gain value, and white balance gain). Value). Further, the imaging condition setting unit 43 sends an imaging condition setting command related to exposure and white balance to other cameras except the reference camera based on the imaging conditions related to exposure and white balance set by the reference camera.

次に、画像処理装置3(スティッチング部21)で行われる視差補正について説明する。図4は、視差補正を実施しない場合および視差補正を実施した場合の画像の状態を模式的に示す説明図であり、図5は、視差補正を実施しない場合および視差補正を実施した場合の画像の実際の状態を示す説明図である。なお、ここでは、説明の便宜上、隣り合う2つのカメラCAM1、CAM2の画像を処理する例を示す。   Next, parallax correction performed by the image processing apparatus 3 (stitching unit 21) will be described. FIG. 4 is an explanatory diagram schematically illustrating a state of an image when parallax correction is not performed and when parallax correction is performed, and FIG. 5 is an image when parallax correction is not performed and when parallax correction is performed. It is explanatory drawing which shows the actual state of. Here, for convenience of explanation, an example in which images of two adjacent cameras CAM1 and CAM2 are processed is shown.

図4(A)は、隣り合う2つのカメラCAM1、CAM2による撮像状況を示している。この図4(A)に示す例では、人物とその背景となる山とが2つのカメラCAM1、CAM2により同時に撮像される。   FIG. 4A shows an imaging situation by two adjacent cameras CAM1 and CAM2. In the example shown in FIG. 4A, a person and a mountain as a background are simultaneously imaged by two cameras CAM1 and CAM2.

図4(B−1)、(B−2)は、2つのカメラCAM1、CAM2による撮像画像を示している。この図4(B−1)、(B−2)に示すように、2つのカメラCAM1、CAM2による撮像画像には、2つのカメラCAM1、CAM2の撮像エリアの重複部分に対応する境界部の画像領域に、山を表す遠景の像と人物を表す近影の像とが現れる。ここで、遠景となる山と近影となる人物とでは、カメラCAM1、CAM2からの距離が大きく異なり、2つの撮像画像では、遠景の像と近影の像との位置関係がずれた状態となる。   4B-1 and 4B-2 illustrate images captured by the two cameras CAM1 and CAM2. As shown in FIGS. 4B-1 and 4B-2, the images captured by the two cameras CAM1 and CAM2 are images of boundaries corresponding to overlapping portions of the imaging areas of the two cameras CAM1 and CAM2. A distant view image representing a mountain and a close-up image representing a person appear in the region. Here, the distance from the cameras CAM1 and CAM2 is greatly different between a mountain that is a distant view and a person that is a close view, and the positional relationship between the far view image and the close view image is shifted between the two captured images.

図4(C−1)、(C−2)は、2つのカメラCAM1、CAM2による撮像画像に対して遠景の像を基準にした単純合成を行って得られた合成画像を示している。前記のように、2つの撮像画像では遠景の像と近影の像との位置関係がずれているため、遠景の像を基準にして2つの撮像画像を単純に合成すると、図4(C−1)、(C−2)に示すように、合成画像に、近影の像が2重に現れたり、近影の像の一部が消失したりする不具合が発生する。   FIGS. 4C-1 and 4C-2 illustrate composite images obtained by performing simple composition on the basis of a distant view image with respect to images captured by the two cameras CAM1 and CAM2. As described above, since the positional relationship between the distant view image and the close-up image is shifted in the two captured images, when the two captured images are simply combined on the basis of the distant view image, FIG. ), As shown in (C-2), there is a problem in that the near-shadow image appears twice or a part of the near-shadow image disappears in the composite image.

ここで、遠景の像を基準にしたときの近影の像のずれは、2つのカメラCAM1、CAM2の各撮像画像の間の視差を表している。2つのカメラCAM1、CAM2にそれぞれ現れる遠景の像の位置関係は、近影がない状態で予め求めておくことができ、この情報に基づいて画像合成が行われる。したがって、近影の像がない状態では2つのカメラCAM1、CAM2の撮像画像には視差は存在せず、近影の像が現れると、2つのカメラCAM1、CAM2の撮像画像間に視差が発生する。   Here, the shift of the near-shadow image when the distant view image is used as a reference represents the parallax between the captured images of the two cameras CAM1 and CAM2. The positional relationship between the distant view images that respectively appear in the two cameras CAM1 and CAM2 can be obtained in advance in the absence of a close shadow, and image synthesis is performed based on this information. Accordingly, there is no parallax in the captured images of the two cameras CAM1 and CAM2 in the absence of the near-shadow image, and when the near-shadow image appears, parallax occurs between the captured images of the two cameras CAM1 and CAM2.

このように、2つのカメラCAM1、CAM2の撮像画像における境界部の画像領域に遠景の像と近影の像とが現れる状態では、2つの撮像画像間に発生する視差が原因で、合成画像に近影の像が2重に現れるなどの不具合が発生する。そこで、この不具合を解消するための視差補正が必要となり、この視差補正には代表的には2種類の補正方式がある。図4(C−3)は、第1の補正方式による場合であり、図4(C−4)は、第2の補正方式による場合である。   In this manner, in the state where the distant view image and the close-up image appear in the image area at the boundary portion of the picked-up images of the two cameras CAM1 and CAM2, the close-up image appears in the composite image due to the parallax generated between the two picked-up images. Such as appearing double images. Therefore, parallax correction is necessary to eliminate this problem, and there are typically two types of correction methods for this parallax correction. FIG. 4C-3 shows the case of the first correction method, and FIG. 4C-4 shows the case of the second correction method.

図4(C−3)に示すように、第1の補正方式は、2つのカメラCAM1、CAM2の撮像画像の間で遠景の像と近影の像との位置関係が整合するように、2つのカメラCAM1、CAM2の撮像画像に対して、主に近影の像が現れる画像領域を横方向にずらすように画像を変形させる視差補正を行った上で画像合成するものである。   As shown in FIG. 4 (C-3), the first correction method has two methods so that the positional relationship between the distant view image and the close-up image matches between the images captured by the two cameras CAM1 and CAM2. The image synthesis is performed on the captured images of the cameras CAM1 and CAM2 after performing parallax correction for deforming the image so that an image region in which a close-in image appears mainly is shifted in the horizontal direction.

図4(C−4)に示すように、第2の補正方式は、近影の像が現れる画像領域を避けるように屈曲したスティッチング境界を設定し、このスティッチング境界に沿って2つのカメラCAM1、CAM2の撮像画像を切り出すトリミングを行った上で画像合成するものである。   As shown in FIG. 4C-4, in the second correction method, a stitching boundary that is bent so as to avoid an image region in which a near-shadow image appears is set, and two cameras CAM1 are set along the stitching boundary. The image is synthesized after performing trimming to cut out the captured image of CAM2.

図5(A−1)は、視差補正を実施しない単純合成による合成画像を示し、図5(A−2)は、視差補正を実施した合成画像を示している。図5(B−1)、(B−2)はそれぞれ、図5(A−1)、(A−2)に示した合成画像における近景の像の周辺部を拡大して示している。   FIG. 5A-1 shows a composite image obtained by simple synthesis without performing parallax correction, and FIG. 5A-2 shows a composite image subjected to parallax correction. FIGS. 5B-1 and 5B-2 show enlarged views of the periphery of the foreground image in the composite image shown in FIGS. 5A-1 and 5A-2, respectively.

図5(A−1)、(B−1)に示すように、視差補正を実施しない単純合成では、合成画像に、近影の像の一部が消失したり、近影の像が2重に現れたりする不具合が発生しているが、図5(A−2)、(B−2)に示すように、視差補正を実施すると、単純合成のような不具合が改善され、適切な画像を生成することができる。   As shown in FIGS. 5 (A-1) and (B-1), in simple composition without parallax correction, a part of the near-shadow image disappears or the near-shadow image appears twice in the composite image. However, when parallax correction is performed as shown in FIGS. 5A-2 and 5B-2, a problem such as simple composition is improved and an appropriate image is generated. be able to.

このように視差補正を行うことで適切な画像を生成することができ、本実施形態では、第1の補正方式、すなわち、2つのカメラCAM1、CAM2の撮像画像の間で遠景の像と近影の像との位置関係が整合するように、2つのカメラCAM1、CAM2の撮像画像に対して、主に近影の像が現れる画像領域を横方向にずらすように画像を変形させる視差補正を行う。   By performing parallax correction in this way, an appropriate image can be generated. In the present embodiment, the first correction method, that is, a distant view image and a close shadow image between the captured images of the two cameras CAM1 and CAM2 are used. In order to match the positional relationship with the images, parallax correction is performed on the captured images of the two cameras CAM1 and CAM2 so that the image is deformed so that an image region in which a near-shadow image mainly appears is shifted in the horizontal direction.

図6は、図3に示した基準カメラ決定部41による基準カメラの決定方法を示す説明図であり、図7および図8は、それぞれ基準カメラの決定方法の第1及び第2変形例を示す説明図である。   FIG. 6 is an explanatory diagram showing a reference camera determination method by the reference camera determination unit 41 shown in FIG. 3, and FIGS. 7 and 8 show first and second modifications of the reference camera determination method, respectively. It is explanatory drawing.

基準カメラ決定部41は、基準カメラの決定に際してカメラCAM1−CAM7によってそれぞれ撮像された撮像画像を取得し、図6に示すように、各撮像画像における明るさの情報(ここでは、全画素の輝度の平均)を取得する。そして、基準カメラ決定部41は、それら複数の輝度のうち中央値となる輝度を有する撮像画像を撮像したカメラ(ここでは、カメラCAM4)を基準カメラとして決定する。   The reference camera determination unit 41 acquires captured images captured by the cameras CAM1 to CAM7 when determining the reference camera, and as illustrated in FIG. 6, brightness information (here, luminance of all pixels) in each captured image is acquired. Average). Then, the reference camera determination unit 41 determines the camera (here, the camera CAM4) that has captured a captured image having a median brightness among the plurality of brightnesses as the reference camera.

なお、基準カメラ決定部41は、上述の中央値となる輝度を有する撮像画像を撮像したカメラの代わりに、複数の輝度の平均値に最も近い輝度を有する撮像画像を撮像したカメラを基準カメラとして決定してもよい。また、撮像画像における輝度の算出は必ずしも全画素を対象とする必要はなく、撮像画像の一部の領域(例えば、ユーザが選択した画像の範囲や、ユーザが設定した撮像対象が占める画像領域)から輝度が算出される構成としてもよい。   Note that the reference camera determination unit 41 uses, as a reference camera, a camera that captures a captured image having the brightness closest to the average value of a plurality of brightnesses, instead of the camera that captures the captured image having the median brightness described above. You may decide. In addition, the calculation of the luminance in the captured image does not necessarily have to target all pixels, and a part of the captured image (for example, the range of the image selected by the user or the image region occupied by the imaging target set by the user) The luminance may be calculated from the above.

上記基準カメラの決定方法の第1変形例として、基準カメラ決定部41は、ユーザによって予め設定された撮影対象について公知の画像認識処理を実行し、この画像認識結果に基づき基準カメラを決定することも可能である。図7では、撮影対象として人の顔50がユーザによって設定された例を示しており、基準カメラ決定部41は、人の顔50が検出された撮像画像を撮像したカメラ(ここでは、カメラCAM3)を基準カメラとして決定する。   As a first modification of the reference camera determination method, the reference camera determination unit 41 executes a known image recognition process for a photographing target preset by the user, and determines a reference camera based on the image recognition result. Is also possible. FIG. 7 shows an example in which a human face 50 is set by the user as an imaging target. The reference camera determination unit 41 captures a captured image from which the human face 50 is detected (here, the camera CAM3). ) As a reference camera.

なお、人の顔が複数の撮像画像から検出された場合には、基準カメラ決定部41は、各顔領域の面積を算出し、顔領域の面積が最大となる撮像画像を撮像したカメラを基準カメラとして決定することができる。或いは、基準カメラ決定部41は、各撮像画像における顔の数を算出し、含まれる顔の数が最大となる撮像画像を撮像したカメラを基準カメラとして決定することもできる。また、別法として、基準カメラ決定部41は、ユーザによって予め設定された撮像対象の所定の動作(例えば、手を振る動作)を検出し、その動作の検出結果に基づき基準カメラを決定することもできる。   When a human face is detected from a plurality of captured images, the reference camera determination unit 41 calculates the area of each face area, and uses the camera that captured the captured image that maximizes the area of the face area as a reference. It can be determined as a camera. Alternatively, the reference camera determination unit 41 can calculate the number of faces in each captured image and determine the camera that has captured the captured image with the maximum number of included faces as the reference camera. As another method, the reference camera determination unit 41 detects a predetermined operation (for example, an operation of shaking hands) of an imaging target preset by the user, and determines a reference camera based on the detection result of the operation. You can also.

さらに、上記基準カメラの決定方法の第2変形例として、基準カメラ決定部41は、ユーザによって予め設定された所定のマーカーについて公知の画像認識処理を実行し、この画像認識結果に基づき基準カメラを決定することも可能である。図8では、予め設定された2次元コード60がマーカーとしてユーザによって設定された例を示しており、基準カメラ決定部41は、2次元コード60が検出された撮像画像を撮像したカメラ(ここでは、カメラCAM3)を基準カメラとして決定する。この場合、ユーザは、2次元コード60が表示されたパネルを所望のカメラの撮像エリアに掲げることで、重要度の高い撮像画像を撮影する基準カメラを指定することができる。なお、使用されるマーカーは、2次元コードに限らず、特定の配色がなされたパネルなど種々の変更が可能である。   Furthermore, as a second modification of the reference camera determination method, the reference camera determination unit 41 executes a known image recognition process for a predetermined marker set in advance by the user, and selects a reference camera based on the image recognition result. It is also possible to decide. FIG. 8 shows an example in which a preset two-dimensional code 60 is set by the user as a marker, and the reference camera determining unit 41 captures a captured image from which the two-dimensional code 60 is detected (here, , Camera CAM3) is determined as the reference camera. In this case, the user can designate a reference camera that captures a highly important captured image by placing the panel on which the two-dimensional code 60 is displayed in the imaging area of a desired camera. The marker used is not limited to a two-dimensional code, and various changes such as a panel with a specific color scheme can be made.

なお、上述の例に限らず、ユーザの操作に基づき基準カメラを決定することも可能である。例えば、図1に示すように、各カメラCAM1−CAM7に基準カメラ決定ボタン65をそれぞれ設け、基準カメラ決定部41は、基準カメラ決定ボタン65の操作が検出されたカメラを基準カメラとして決定する構成としてもよい。或いは、画像処理装置3において、ユーザが入力デバイス(キーボード、タッチパネル等)を介して選択したカメラ(或いは、表示画面においてユーザが選択した撮像画像を撮像したカメラ)を基準カメラとして決定することも可能である。   The reference camera is not limited to the above-described example, and the reference camera can be determined based on a user operation. For example, as shown in FIG. 1, each camera CAM1-CAM7 is provided with a reference camera determination button 65, and the reference camera determination unit 41 determines a camera in which an operation of the reference camera determination button 65 is detected as a reference camera. It is good. Alternatively, in the image processing apparatus 3, it is also possible to determine the camera selected by the user via the input device (keyboard, touch panel, etc.) (or the camera that captured the captured image selected by the user on the display screen) as the reference camera. It is.

図9は、実施形態に係る画像処理装置3の処理の流れを示すフロー図であり、図10は、図9中のステップST107の処理内容を示す説明図である。   FIG. 9 is a flowchart showing a processing flow of the image processing apparatus 3 according to the embodiment, and FIG. 10 is an explanatory diagram showing processing contents of step ST107 in FIG.

図9に示すように、画像処理装置3では、カメラCAM1−CAM7の撮像条件を設定するための処理が実行される。この撮像条件の設定処理では、上述のように、まず、基準カメラ決定部41が、複数のカメラCAM1−CAM7のうちの1つを基準カメラとして決定する(ST101)。   As shown in FIG. 9, in the image processing device 3, processing for setting the imaging conditions of the cameras CAM1-CAM7 is executed. In this imaging condition setting process, as described above, first, the reference camera determination unit 41 determines one of the plurality of cameras CAM1-CAM7 as the reference camera (ST101).

続いて、撮像条件取得部42は、基準カメラで設定された露出およびホワイトバランスに関する撮像条件を取得する(ST102)。そこで、撮像条件設定部43は、撮像条件取得部42によって取得された基準カメラの露出およびホワイトバランスに関する撮像条件に基づき、他のカメラ(基準カメラ以外)に対する撮像条件の設定指令を送出し、その設定指令(ここでは、基準カメラでのシャッタ値、センサゲイン値、デジタルゲイン値、及びホワイトバランスゲイン値を含む)を取得した他カメラのカメラ制御部14は、その設定指令に基づき自身のカメラにおける撮像条件の設定を行う(ST103)。ここで、他カメラでは、撮像条件として、基準カメラにおけるシャッタ値、センサゲイン値、デジタルゲイン値、及びホワイトバランスゲイン値がそのまま設定される。   Subsequently, the imaging condition acquisition unit 42 acquires imaging conditions related to exposure and white balance set by the reference camera (ST102). Therefore, the imaging condition setting unit 43 sends an imaging condition setting command for other cameras (other than the reference camera) based on the imaging conditions regarding the exposure and white balance of the reference camera acquired by the imaging condition acquisition unit 42. The camera control unit 14 of the other camera that has acquired the setting command (here, including the shutter value, sensor gain value, digital gain value, and white balance gain value in the reference camera) Imaging conditions are set (ST103). Here, in the other camera, the shutter value, sensor gain value, digital gain value, and white balance gain value in the reference camera are set as they are as the imaging conditions.

次に、画像処理装置3では、複数の撮像画像を合成するための画像合成処理が実行される。まず、画像合成部34における画像合成部34は、スティッチングを未実行の2つの隣接する撮像画像を選択し(ST104)、それら2つの画像の境界領域における輝度(平均値)Yおよび色差(平均値)R、Bを比較(差分値を計算)する(ST105)。この場合、輝度Yおよび色差R、Bの値は、境界領域において比較的平坦な領域における画素のみから取得するとよい。   Next, in the image processing device 3, an image synthesis process for synthesizing a plurality of captured images is executed. First, the image composition unit 34 in the image composition unit 34 selects two adjacent captured images that have not been stitched (ST104), and the luminance (average value) Y and color difference (average) in the boundary region between the two images. Value) R and B are compared (difference value is calculated) (ST105). In this case, the luminance Y and the color differences R and B may be acquired only from pixels in a relatively flat area in the boundary area.

そこで、ステップST105での輝度Yの差分値が予め設定された輝度の閾値以下(例えば、256階調中の4階調以下)であり、かつステップST105での色差R、Bの差分値がそれぞれ予め設定された色差の閾値以下(例えば、ともに256階調中の4階調以下)である場合には(ST106:Yes)、2つの画像の領域の境界が不自然に目立つ可能性は低いため、画像合成部34は、それら2つの隣接する撮像画像のスティッチング処理を実行する(ST108)。   Therefore, the difference value of the luminance Y in step ST105 is less than or equal to a preset luminance threshold value (for example, less than four gradations in 256 gradations), and the difference values of the color differences R and B in step ST105 are respectively If it is less than or equal to a preset color difference threshold (for example, less than 4 of 256 gradations) (ST106: Yes), it is unlikely that the boundary between two image areas will be unnaturally conspicuous. The image compositing unit 34 performs stitching processing of these two adjacent captured images (ST108).

一方、ステップST106において、輝度Yの差分値が予め設定された輝度の閾値を越えている、或いは色差R、Bの差分値が予め設定された輝度の閾値を越えている場合(No)には、画像合成部34は、撮像条件設定部43により、輝度Yの差分値および色差R、Bの差分値がともにそれぞれの閾値以下となるように、上記2つの隣接する撮像画像の少なくとも一方を撮像したカメラに対し、撮像条件設定部43により、少なくとも一部の撮像条件を変更した設定指令(撮像条件の補正指令)を送出させる(ST107)。   On the other hand, when the difference value of luminance Y exceeds a preset luminance threshold value or the difference value of color differences R and B exceeds a preset luminance threshold value (No) in step ST106. The image composition unit 34 captures at least one of the two adjacent captured images by the imaging condition setting unit 43 so that the difference value of the luminance Y and the difference values of the color differences R and B are both equal to or less than the respective threshold values. The imaging condition setting unit 43 sends a setting command (imaging condition correction command) in which at least a part of the imaging conditions is changed to the camera (ST107).

より詳細には、例えば、図10(A)に示すように、上記ステップST103において、シャッタ値S、センサゲイン値Gs、デジタルゲイン値Gd、ホワイトバランスゲイン値Gr、Gb(基準カメラと同一値)が設定された結果、撮像画像(3)の境界領域71では輝度Y=120、色差R=150、色差B=100であり、撮像画像(4)の境界領域72では輝度Y=132、色差R=180、色差B=90である場合を想定する。このような撮像画像(3)、(4)の間の輝度Yおよび色差R、Bのばらつきは、各カメラのイメージセンサ部12におけるCMOSイメージセンサの個体差(性能のばらつき)等に起因するものである。   More specifically, for example, as shown in FIG. 10A, in step ST103, the shutter value S, the sensor gain value Gs, the digital gain value Gd, the white balance gain values Gr, Gb (same values as the reference camera). As a result, brightness Y = 120, color difference R = 150, color difference B = 100 in the boundary area 71 of the captured image (3), and brightness Y = 132, color difference R in the boundary area 72 of the captured image (4). = 180, color difference B = 90 is assumed. Such variations in luminance Y and color differences R and B between the captured images (3) and (4) are caused by individual differences (performance variations) of CMOS image sensors in the image sensor unit 12 of each camera. It is.

この場合、上記ステップST106における判定では、撮像画像(3)と撮像画像(4)との輝度Yの差分値(ここでは、差分の絶対値=12)は、予め設定された閾値=4を越えている。また、撮像画像(3)と撮像画像(4)の色差R、Bの差分値(ここでは、色差Rの差分の絶対値=30、色差Bの差分の絶対値=10)は、予め設定された閾値=4(ここでは、色差R、Bともに同一の値)を越えている。   In this case, in the determination in step ST106, the difference value of the brightness Y between the captured image (3) and the captured image (4) (here, the absolute value of the difference = 12) exceeds a preset threshold value = 4. ing. Further, the difference values of the color differences R and B between the captured image (3) and the captured image (4) (here, the absolute value of the difference of the color difference R = 30 and the absolute value of the difference of the color difference B = 10) are set in advance. Threshold value = 4 (here, the color differences R and B are the same value).

そこで、上記ステップST107において、画像合成部34は、輝度Yの差分値および色差R、Bの差分値がともにそれぞれの閾値以下となるように、撮像条件設定部43により、カメラCAM3に対してデジタルゲイン値、ホワイトバランスゲイン値を変更した(ここでは、Gd×1.1、Gr×1.2、Gb×0.9とする)設定指令を送出させる。   Therefore, in step ST107, the image composition unit 34 digitally controls the camera CAM3 by the imaging condition setting unit 43 so that the difference value of the luminance Y and the difference values of the color differences R and B are both equal to or less than the respective threshold values. A setting command in which the gain value and the white balance gain value are changed (here, Gd × 1.1, Gr × 1.2, and Gb × 0.9) is transmitted.

これにより、図10(B)に示すように、撮像画像(3)の境界領域71では、撮像画像(4)の境界領域72とそれぞれ同一の輝度Y=132、色差R=180、色差B=90となり、2つの隣接する撮像画像の境界領域における明るさおよび色合いが平準化される。その後、それらの撮像画像のスティッチング処理が実行される(ST108)。   Accordingly, as shown in FIG. 10B, in the boundary area 71 of the captured image (3), the same luminance Y = 132, color difference R = 180, and color difference B = the boundary area 72 of the captured image (4), respectively. 90, and the brightness and hue in the boundary region between two adjacent captured images are leveled. Thereafter, stitching processing of those captured images is executed (ST108).

なお、ここでは、デジタルゲイン値、ホワイトバランスゲイン値を変更(補正)した例を示したが、これに限らず、他の撮像条件を変更する補正も可能である。また、上記ステップST105の判定は、全ての隣接する撮像画像を対象として順次実行され、必要に応じてステップST107が実行される。上記ステップST106の判定順序(すなわち、ステップST104の選択順序)は、カメラCAM1−CAM7の小さい番号順に実行されるが、これに限らず、例えば、周方向の配置において基準カメラにより近いカメラから順に実行することもできる。   Although an example in which the digital gain value and the white balance gain value are changed (corrected) has been described here, the present invention is not limited to this, and correction for changing other imaging conditions is also possible. Further, the determination in step ST105 is sequentially executed for all adjacent captured images, and step ST107 is executed as necessary. The determination order of step ST106 (that is, the selection order of step ST104) is executed in ascending order of the numbers of the cameras CAM1 to CAM7. However, the order is not limited to this. You can also

また、ステップST107において、撮像条件設定部43により設定指令が送出されるカメラは、基準カメラの撮像画像からより離れた位置の撮像画像を撮像したカメラとするとよい。また、ステップST107においては、基準カメラの輝度Yおよび色差R、Bを基準として、双方のカメラに対してデジタルゲイン値、ホワイトバランスゲイン値を変更した設定指令を送出することもできる。   In step ST107, the camera to which the setting command is sent by the imaging condition setting unit 43 may be a camera that captures a captured image at a position further away from the captured image of the reference camera. In step ST107, a setting command in which the digital gain value and the white balance gain value are changed can be sent to both cameras with reference to the luminance Y and the color differences R and B of the reference camera.

上記ステップST104−ST108は、最終的に全ての撮像画像のスティッチングが完了するまで繰り返し実行される(ST109)。なお、ステップST101−ST1−7、ST109の処理は、全ての撮像画像(フレーム)に対して実行する必要はなく、通常はステップST108のみを実行し、所定の時間間隔で、或いは数フレーム毎(例えば、60fpsのカメラ映像における10フレーム毎)にステップST101−ST1−7、ST109を実行するようにしてもよい。   Steps ST104 to ST108 are repeatedly executed until the stitching of all captured images is finally completed (ST109). Note that the processing of steps ST101-ST1-7 and ST109 does not have to be executed for all captured images (frames). Normally, only step ST108 is executed, and at predetermined time intervals or every several frames ( For example, steps ST101-ST1-7 and ST109 may be executed every 10 frames in a 60 fps camera video.

以上、本発明を特定の実施形態に基づいて説明したが、これらの実施形態はあくまでも例示であって、本発明はこれらの実施形態によって限定されるものではない。また、上記実施形態に示した画像処理装置及びこれを備えた撮像システムならびに画像処理方法の各構成要素は、必ずしも全てが必須ではなく、少なくとも本発明の範囲を逸脱しない限りにおいて適宜取捨選択することが可能である。   As mentioned above, although this invention was demonstrated based on specific embodiment, these embodiment is an illustration to the last, Comprising: This invention is not limited by these embodiment. In addition, all the components of the image processing apparatus, the imaging system including the image processing apparatus, and the image processing method shown in the above embodiment are not necessarily essential, and may be appropriately selected as long as they do not depart from the scope of the present invention. Is possible.

例えば、上記実施形態では、複数のカメラを備えたカメラユニットと別に設けられた画像処理装置(PCを含む)で、撮像条件設定および画像合成処理を行って合成画像を出力するようにしたが、画像処理装置を内蔵するカメラユニット(撮像装置)として構成することもできる。場合によっては、複数のカメラのうちの少なくとも1つのカメラに上述の画像処理装置と同様の機能を付加することも可能である。また、上述の画像処理装置における撮像条件設定の機能(撮像制御部の機能)を画像処理装置とは別の他の装置(撮像条件設定装置)が実行する構成としてもよい。   For example, in the above embodiment, an image processing apparatus (including a PC) provided separately from a camera unit including a plurality of cameras performs imaging condition setting and image composition processing, and outputs a composite image. It can also be configured as a camera unit (imaging device) incorporating an image processing device. In some cases, it is possible to add a function similar to that of the above-described image processing apparatus to at least one of the plurality of cameras. The imaging condition setting function (imaging control unit function) in the above-described image processing apparatus may be configured to be executed by another apparatus (imaging condition setting apparatus) different from the image processing apparatus.

本発明に係る画像処理装置及びこれを備えた撮像システムならびに画像処理方法は、パノラマ合成画像において、基準となる撮像画像の領域を適切に表示しつつ、合成された各撮像画像の領域の境界が不自然に目立つことを抑制可能とし、複数の撮像画像に対して画像合成処理を行ってパノラマ合成画像を出力する画像処理装置及びこれを備えた撮像システムならびに画像処理方法などとして有用である。   An image processing apparatus, an imaging system including the image processing apparatus, and an image processing method according to the present invention appropriately display an area of a captured image serving as a reference in a panoramic composite image, and a boundary between areas of the combined captured images This is useful as an image processing apparatus capable of suppressing unnatural standing and performing image composition processing on a plurality of captured images to output a panorama composite image, an imaging system including the image processing apparatus, and an image processing method.

1 撮像システム
2 カメラユニット
3 画像処理装置
4 表示装置
12 イメージセンサ部
13 信号処理部
14 カメラ制御部
21 スティッチング部
22 撮像制御部
34 画像合成部
41 基準カメラ決定部
42 撮像条件取得部
43 撮像条件設定部
65 基準カメラ決定ボタン
71、72 境界領域
CAM1−CAM7 カメラ
DESCRIPTION OF SYMBOLS 1 Imaging system 2 Camera unit 3 Image processing apparatus 4 Display apparatus 12 Image sensor part 13 Signal processing part 14 Camera control part 21 Stitching part 22 Imaging control part 34 Image composition part 41 Reference camera determination part 42 Imaging condition acquisition part 43 Imaging condition Setting unit 65 Reference camera decision buttons 71, 72 Boundary area CAM1-CAM7 Camera

Claims (10)

複数のカメラと通信可能に接続され、前記複数のカメラから取得した複数の撮像画像に対して画像合成処理を行ってパノラマ合成画像を出力する画像処理装置であって、
前記複数のカメラのうちの1つを基準カメラとして決定する基準カメラ決定部と、
前記基準カメラにおいて設定された露出およびホワイトバランスに関する撮像条件を取得する撮像条件取得部と、
前記複数のカメラのうち前記基準カメラを除く他のカメラに対し、前記基準カメラの前記撮像条件に基づき、露出およびホワイトバランスに関する撮像条件の設定指令を送出する撮像条件設定部と、
前記設定指令送出後、前記複数のカメラのそれぞれにおいて設定された撮像条件に基づいて撮像され、前記複数のカメラから取得した複数の撮像画像に対して画像合成処理を行って前記パノラマ合成画像を出力する画像合成部と、を備えたことを特徴とする画像処理装置。
An image processing apparatus that is communicably connected to a plurality of cameras, performs image composition processing on a plurality of captured images acquired from the plurality of cameras, and outputs a panorama composite image,
A reference camera determination unit that determines one of the plurality of cameras as a reference camera;
An imaging condition acquisition unit that acquires imaging conditions related to exposure and white balance set in the reference camera;
An imaging condition setting unit that sends out an imaging condition setting command related to exposure and white balance based on the imaging conditions of the reference camera to other cameras other than the reference camera among the plurality of cameras;
After sending the setting command, images are captured based on the imaging conditions set in each of the plurality of cameras, and the panorama composite image is output by performing image composition processing on the plurality of captured images acquired from the plurality of cameras. An image synthesizing unit.
前記撮像条件設定部は、前記画像合成部により前記複数の撮像画像に対する前記画像合成処理が実行される際に、前記複数の撮像画像のうち、隣接する2つの隣接撮像画像の境界領域における輝度および色差の少なくとも一方の差分が予め設定された閾値を超えるか否かの判定処理を、各隣接撮像画像毎に行い、前記判定処理において前記閾値を越えた場合、前記隣接撮像画像を撮像した2つのカメラのうち一方の設定変更対象カメラに対して、前記閾値を越えた前記差分を小さくするように、前記設定変更対象カメラの撮像条件に対する設定変更指令を送出し、
前記画像合成部は、前記撮像条件設定部により前記各隣接撮像画像の全てについて前記判定処理が実行された後、前記判定処理において前記閾値を超えると判定された隣接撮像画像がある場合は、前記設定変更指令に基づいて撮像された前記設定変更対象カメラの撮像画像を含む前記複数の撮像画像に対して画像合成処理を行って前記パノラマ合成画像を出力することを特徴とする、請求項1に記載の画像処理装置。
The imaging condition setting unit, when the image synthesizing process is performed on the plurality of captured images by the image synthesizing unit, out of the plurality of captured images, brightness in a boundary region between two adjacent captured images, and A process for determining whether or not at least one of the color differences exceeds a preset threshold is performed for each adjacent captured image. When the threshold is exceeded in the determination process, two adjacent captured images are captured. For one setting change target camera among the cameras, a setting change command for the imaging condition of the setting change target camera is sent so as to reduce the difference exceeding the threshold value,
The image composition unit, after the determination process is executed for all the adjacent captured images by the imaging condition setting unit, if there is an adjacent captured image determined to exceed the threshold in the determination process, 2. The panorama composite image is output by performing an image composition process on the plurality of captured images including the captured images of the setting change target camera imaged based on a setting change command. The image processing apparatus described.
前記撮像条件設定部は、前記複数のカメラの小さい番号順に前記判定処理を実行する、請求項1又は請求項2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the imaging condition setting unit executes the determination process in ascending order of the plurality of cameras. 前記撮像条件設定部は、前記複数のカメラの周方向の配置において前記基準カメラにより近いカメラから順に前記判定処理を実行する、請求項1又は請求項2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the imaging condition setting unit executes the determination process in order from a camera closer to the reference camera in the circumferential arrangement of the plurality of cameras. 前記基準カメラ決定部は、前記基準カメラの決定に際して前記複数のカメラによってそれぞれ撮像された撮像画像の輝度の情報を取得し、それら複数の輝度のうち中央値となる輝度を有する撮像画像を撮像したカメラを前記基準カメラとして決定することを特徴とする請求項1に記載の画像処理装置。   The reference camera determination unit acquires information on the luminance of the captured images captured by the plurality of cameras when determining the reference camera, and images a captured image having a median luminance among the plurality of luminances. The image processing apparatus according to claim 1, wherein a camera is determined as the reference camera. 前記基準カメラ決定部は、前記基準カメラの決定に際して前記複数のカメラによってそれぞれ撮像された撮像画像の輝度の情報を取得し、それら複数の輝度の平均値に最も近い輝度を有する撮像画像を撮像したカメラを前記基準カメラとして決定することを特徴とする請求項1に記載の画像処理装置。   The reference camera determination unit obtains information on the luminance of the captured images captured by the plurality of cameras when determining the reference camera, and captures a captured image having a brightness closest to the average value of the plurality of luminances. The image processing apparatus according to claim 1, wherein a camera is determined as the reference camera. 前記基準カメラ決定部は、前記複数のカメラのうちユーザによって選択された1つのカメラを前記基準カメラとして決定することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the reference camera determination unit determines one camera selected by a user from the plurality of cameras as the reference camera. 前記基準カメラ決定部は、前記基準カメラの決定に際して前記複数のカメラによってそれぞれ撮像された撮像画像における所定の撮像対象の画像認識結果を取得し、その画像認識結果に基づき前記基準カメラを決定することを特徴とする請求項1に記載の画像処理装置。   The reference camera determining unit obtains an image recognition result of a predetermined imaging target in captured images respectively captured by the plurality of cameras when determining the reference camera, and determines the reference camera based on the image recognition result. The image processing apparatus according to claim 1. 請求項1から請求項8のいずれかに記載の前記画像処理装置と、前記複数のカメラとを備えた撮像システム。   An imaging system comprising the image processing apparatus according to claim 1 and the plurality of cameras. 複数のカメラと通信可能に接続された画像処理装置において、前記複数のカメラから取得した複数の撮像画像に対して画像合成処理を行ってパノラマ合成画像を出力する画像処理方法であって、
前記複数のカメラのうちの1つを基準カメラとして決定する基準カメラ決定ステップと、
前記基準カメラにおいて設定された露出およびホワイトバランスに関する撮像条件を取得する撮像条件取得ステップと、
前記複数のカメラのうち前記基準カメラを除く他のカメラに対し、前記基準カメラの前記撮像条件に基づき、露出およびホワイトバランスに関する撮像条件の設定指令を送出する撮像条件設定ステップと、
前記設定指令送出後、前記複数のカメラのそれぞれにおいて設定された撮像条件に基づいて撮像され、前記複数のカメラから取得した複数の撮像画像に対して画像合成処理を行って前記パノラマ合成画像を出力する画像合成ステップと、を有することを特徴とする画像処理方法。
In an image processing apparatus communicably connected to a plurality of cameras, an image processing method for outputting a panorama composite image by performing an image composition process on a plurality of captured images acquired from the plurality of cameras,
A reference camera determining step of determining one of the plurality of cameras as a reference camera;
An imaging condition acquisition step of acquiring imaging conditions related to exposure and white balance set in the reference camera;
An imaging condition setting step for sending an imaging condition setting command related to exposure and white balance to the other cameras other than the reference camera among the plurality of cameras based on the imaging conditions of the reference camera;
After sending the setting command, images are captured based on the imaging conditions set in each of the plurality of cameras, and the panorama composite image is output by performing image composition processing on the plurality of captured images acquired from the plurality of cameras. An image synthesizing step.
JP2018112543A 2018-06-13 2018-06-13 Image processing device, imaging system having the same and image processing method Pending JP2018186514A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018112543A JP2018186514A (en) 2018-06-13 2018-06-13 Image processing device, imaging system having the same and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018112543A JP2018186514A (en) 2018-06-13 2018-06-13 Image processing device, imaging system having the same and image processing method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015088487A Division JP6361931B2 (en) 2015-02-06 2015-04-23 Image processing apparatus, imaging system including the same, and image processing method

Publications (1)

Publication Number Publication Date
JP2018186514A true JP2018186514A (en) 2018-11-22

Family

ID=64355168

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018112543A Pending JP2018186514A (en) 2018-06-13 2018-06-13 Image processing device, imaging system having the same and image processing method

Country Status (1)

Country Link
JP (1) JP2018186514A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110213494A (en) * 2019-07-03 2019-09-06 Oppo广东移动通信有限公司 Image pickup method and device, electronic equipment, computer readable storage medium
CN112004029A (en) * 2019-05-27 2020-11-27 Oppo广东移动通信有限公司 Exposure processing method, exposure processing device, electronic apparatus, and computer-readable storage medium
CN113452903A (en) * 2021-06-17 2021-09-28 浙江大华技术股份有限公司 Snapshot equipment, snapshot method and main control chip
CN114040114A (en) * 2021-11-26 2022-02-11 重庆紫光华山智安科技有限公司 Panoramic shooting and light supplementing method, system, equipment and medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001320616A (en) * 2000-02-29 2001-11-16 Matsushita Electric Ind Co Ltd Image pickup system
JP2008028521A (en) * 2006-07-19 2008-02-07 Xanavi Informatics Corp Image display system
WO2013186806A1 (en) * 2012-06-11 2013-12-19 株式会社ソニー・コンピュータエンタテインメント Image capturing device, and image capturing method
JP2014239318A (en) * 2013-06-07 2014-12-18 カシオ計算機株式会社 Camera, photography control program and photography control method, and camera system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001320616A (en) * 2000-02-29 2001-11-16 Matsushita Electric Ind Co Ltd Image pickup system
JP2008028521A (en) * 2006-07-19 2008-02-07 Xanavi Informatics Corp Image display system
WO2013186806A1 (en) * 2012-06-11 2013-12-19 株式会社ソニー・コンピュータエンタテインメント Image capturing device, and image capturing method
JP2014239318A (en) * 2013-06-07 2014-12-18 カシオ計算機株式会社 Camera, photography control program and photography control method, and camera system

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112004029A (en) * 2019-05-27 2020-11-27 Oppo广东移动通信有限公司 Exposure processing method, exposure processing device, electronic apparatus, and computer-readable storage medium
CN112004029B (en) * 2019-05-27 2022-03-15 Oppo广东移动通信有限公司 Exposure processing method, exposure processing device, electronic apparatus, and computer-readable storage medium
CN110213494A (en) * 2019-07-03 2019-09-06 Oppo广东移动通信有限公司 Image pickup method and device, electronic equipment, computer readable storage medium
CN113452903A (en) * 2021-06-17 2021-09-28 浙江大华技术股份有限公司 Snapshot equipment, snapshot method and main control chip
CN113452903B (en) * 2021-06-17 2023-07-11 浙江大华技术股份有限公司 Snapshot equipment, snap method and main control chip
CN114040114A (en) * 2021-11-26 2022-02-11 重庆紫光华山智安科技有限公司 Panoramic shooting and light supplementing method, system, equipment and medium

Similar Documents

Publication Publication Date Title
JP6361931B2 (en) Image processing apparatus, imaging system including the same, and image processing method
KR101900097B1 (en) Image capturing method and image capturing apparatus
KR101247647B1 (en) Image synthesizing device, image synthesizing method, and recording medium
US8488019B2 (en) Image-capturing device, image-capturing method and storage medium storing image-capturing program for generating a wide dynamic range image
JP5652649B2 (en) Image processing apparatus, image processing method, and image processing program
JP5131257B2 (en) Display control apparatus and display control program
JP2005142680A (en) Image processing apparatus
JP2018186514A (en) Image processing device, imaging system having the same and image processing method
JP5609742B2 (en) Imaging apparatus, image composition method, and program
JP2003198891A (en) Image display controller, image display control method, and imaging apparatus
JP2012019397A (en) Image processing apparatus, image processing method and image processing program
JP2010206685A (en) Image processing apparatus and program
JP2017108309A (en) Imaging apparatus and imaging method
JP2010147786A (en) Imaging device and image processing method
JP2013029995A (en) Imaging system
JP5790858B2 (en) Image composition apparatus, image composition method, and program
US9912873B2 (en) Image pickup apparatus equipped with display section and method of controlling the same
JP7247609B2 (en) Imaging device, imaging method and program
JP2010192957A (en) Electronic camera
JP2015084512A (en) Image processing system
JP6157274B2 (en) Imaging apparatus, information processing method, and program
JP7442989B2 (en) Imaging device, control method for the imaging device, and program
JP2006157342A (en) Imaging apparatus
JP5541956B2 (en) Image composition method, image composition program, and image composition apparatus
JP7038935B2 (en) Image processing device, image processing method, and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180709

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190702

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190821

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200128