JP2015084512A - Image processing system - Google Patents

Image processing system Download PDF

Info

Publication number
JP2015084512A
JP2015084512A JP2014155426A JP2014155426A JP2015084512A JP 2015084512 A JP2015084512 A JP 2015084512A JP 2014155426 A JP2014155426 A JP 2014155426A JP 2014155426 A JP2014155426 A JP 2014155426A JP 2015084512 A JP2015084512 A JP 2015084512A
Authority
JP
Japan
Prior art keywords
image processing
image
images
input
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014155426A
Other languages
Japanese (ja)
Other versions
JP6379812B2 (en
Inventor
太一 吉岡
Taichi Yoshioka
太一 吉岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2014155426A priority Critical patent/JP6379812B2/en
Priority to CN201410478391.8A priority patent/CN104469135B/en
Publication of JP2015084512A publication Critical patent/JP2015084512A/en
Application granted granted Critical
Publication of JP6379812B2 publication Critical patent/JP6379812B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing system having an image processing apparatus which synthesizes images of a plurality of cameras, and provides an image required by a user for each scene, by properly switching image processing control using one or different parameters, thereby capturing a high-quality image desired by the user.SOLUTION: An image processing system includes: multiple pieces of image input means 2, 3 to be used for inputting images from a plurality of camera devices; multiple pieces of image processing means 4, 5 performing image processing on the images input from the input means 2, 3; synthesizing means 6 which synthesizes the images input from the image processing means 4, 5; detection means 7 which recognizes whether a seam part of the images synthesized by the synthesizing means 6 includes an important portion or not; and parameter determination means 8 which generates an operation parameter from the detection means 7. The parameter determination means 8 determines a parameter, on the basis of a result of the detection means 7.

Description

本発明は、複数の画像を合成して1つの画像にする画像処理システムに関する。   The present invention relates to an image processing system that combines a plurality of images into one image.

近年、遠隔会議の場において、音声での情報共有のみならず、映像による情報共有が可能なテレビ会議システムを使う機会は多い。また、映像を提供する際、1つのカメラ装置により四方の壁の一部分のみを表示するだけでなく、複数のカメラ装置を使うことで、パノラマ写真のような全方位型の映像を提供することが検討されている。   In recent years, there are many opportunities to use video conference systems capable of sharing information not only by voice but also by video in remote conferences. In addition, when providing video, not only a part of the four walls is displayed by one camera device, but also by using a plurality of camera devices, it is possible to provide an omnidirectional video such as a panoramic photo. It is being considered.

会議システムにおいて重要な点は、ユーザが着目している箇所(例えば、ホワイトボードや会議出席者の表情)を綺麗に映すことであり、必ずしも画面全体を綺麗に映す必要は無いという特徴がある。   An important point in the conference system is that the portion that the user is paying attention to (for example, the whiteboard or the facial expressions of the conference attendees) is clearly displayed, and the entire screen does not necessarily have to be clearly displayed.

一般に、画質向上に関する技術として、特定の被写体に対し、オートエクスポージャー機能により自動的に露出(輝度)を決定する技術や、オートホワイトバランス機能により自動的に色のバランスを決定する技術が知られている。   In general, as a technology related to image quality improvement, a technology that automatically determines the exposure (luminance) for a specific subject using the auto exposure function and a technology that automatically determines the color balance using the auto white balance function are known. Yes.

特許文献1には、車両に搭載される複数の車載カメラ装置において、(1)配置される位置や撮像する被写体の違いによって、輝度や色味のバランスは各画像で異なること、(2)上記(1)に対し、各画像で露光時間やゲインを同じレベルで制御すれば、各画像間の輝度や色味のバランスの違いは吸収されるが、本来別々に制御していたら見えていたはずの部分が見えなくなること、(3)上記(1)に対し、各画像を合成したとき、繋ぎ目において輝度と色味のバランスの違いが顕著に見られること、という課題が挙げられている。   In Patent Document 1, in a plurality of in-vehicle camera devices mounted on a vehicle, (1) the balance of brightness and color varies depending on the position where the vehicle is disposed and the subject to be imaged, and (2) the above In contrast to (1), if the exposure time and gain are controlled at the same level for each image, the difference in brightness and color balance between the images can be absorbed, but it should have been visible if it was originally controlled separately. (3) In contrast to the above (1), when each image is synthesized, there is a problem that a difference in brightness and color balance is noticeable at the joint.

各カメラ装置の取り付け位置を問わず、画像合成時に隣接するカメラとの輝度や色の調整ができるようにすることを目的とし、複数のカメラ装置をカメラ制御ユニットで接続し、任意に選択された第1のカメラ装置で得られた画像信号をリファレンスデータとして第2のカメラ装置に転送し、第2のカメラ装置内で信号処理を行って補正画像を生成し、合成画像を出力する構成が開示されている。   In order to be able to adjust the brightness and color of the adjacent camera at the time of image composition regardless of the mounting position of each camera device, multiple camera devices are connected by a camera control unit and arbitrarily selected A configuration is disclosed in which an image signal obtained by a first camera device is transferred as reference data to a second camera device, signal processing is performed in the second camera device to generate a corrected image, and a composite image is output. Has been.

しかし、特許文献1に開示されている制御ユニットを介して画像を合成して合成画像の画質を向上するカメラシステムでは、移動体カメラシステム(車載カメラシステム)にのみ言及され、会議室におけるユーザに必要な画像情報品質を最適化するという点については触れられていない。   However, in the camera system that combines images via the control unit disclosed in Patent Document 1 to improve the image quality of the combined image, only the mobile camera system (in-vehicle camera system) is mentioned, and the user in the conference room is referred to. There is no mention of optimizing the required image information quality.

複数のカメラで撮影された画像を合成して1つの画像にする場合、複数のカメラに設定するパラメータを共通にすると、画像の繋ぎ目は綺麗に繋がるが、個々のカメラに対して最適なパラメータではなくなってしまう可能性がある。一方、個々のカメラで個別のパラメータを設定すると個々のカメラにおいては最適な画像となるが画像の繋ぎ目が不自然になってしまう可能性があり、これらの制御をどのように切り替えるかという問題があった。   When combining images taken by multiple cameras into a single image, if the parameters set for multiple cameras are shared, the joints between the images will be connected beautifully, but the optimal parameters for each camera. It may disappear. On the other hand, if individual parameters are set for each camera, an optimal image will be obtained for each camera, but the seam between the images may become unnatural, and the problem of how to switch these controls was there.

本発明は、前記課題を解決するためのものであり、その目的とするところは、複数カメラの画像を合成する画像処理システムにおいて、1つのパラメータで画像処理を行う場合と個別のパラメータで画像処理を行う制御を適切に切り替えることでシーン毎にユーザが必要としている映像を提供することで、ユーザが見たいものをより綺麗に撮影する画像処理システムを提供することである。   The present invention is for solving the above-mentioned problems, and an object of the present invention is to perform image processing with one parameter and image processing with individual parameters in an image processing system that combines images from a plurality of cameras. It is to provide an image processing system that captures the image that the user wants to see more beautifully by providing a video that the user needs for each scene by appropriately switching the control to perform the above.

かかる目的を達成するために、本発明は、以下の特徴を有する。   In order to achieve this object, the present invention has the following features.

本発明に係る画像処理システムは、複数のカメラ装置から画像を入力する複数の画像入力手段と、該複数の画像入力手段から入力された画像に対し画像処理を実施する複数の画像処理手段と、該複数の画像処理手段から入力された複数の画像を合成する合成手段と、該合成手段で合成された画像の継ぎ目部分に重要なものがあるか認識する検知手段と、該検知手段から動作パラメータを生成するパラメータ決定手段と、を有し、該パラメータ決定手段は前記検知手段の結果を基に、パラメータを決定することを特徴とする。   An image processing system according to the present invention includes a plurality of image input means for inputting images from a plurality of camera devices, a plurality of image processing means for performing image processing on images input from the plurality of image input means, A synthesizing unit that synthesizes a plurality of images input from the plurality of image processing units; a detecting unit that recognizes whether there is an important seam portion of the image synthesized by the synthesizing unit; and an operation parameter from the detecting unit Parameter determining means for generating the parameter, wherein the parameter determining means determines the parameter based on the result of the detecting means.

本発明によれば、複数カメラの画像を合成する画像処理装置において、1つのパラメータで画像処理を行う場合と個別のパラメータで画像処理を行う制御を適切に切り替えることでシーン毎にユーザが必要としている映像を提供することで、ユーザは見たいものをより綺麗に見ることができる。   According to the present invention, in an image processing apparatus that synthesizes images from a plurality of cameras, a user needs to change scene control by appropriately switching between performing image processing with one parameter and controlling image processing with individual parameters. By providing a video image, the user can see what he / she wants to see more beautifully.

第1の実施形態に係る画像処理システムの全体構成を示すブロック図である。1 is a block diagram illustrating an overall configuration of an image processing system according to a first embodiment. 画像処理システムで撮影し、合成された画像イメージの概略図である。It is the schematic of the image image image | photographed and synthesize | combined by the image processing system. 各画像処理手段、入力手段に設定するパラメータ決定を示すフローチャートである。It is a flowchart which shows the parameter determination set to each image processing means and an input means. パラメータの決定について説明する図である。It is a figure explaining determination of a parameter. パラメータの決定について中間の設定の使用について説明する図である。It is a figure explaining use of an intermediate setting about determination of a parameter. 第2の実施形態に係る画像処理システムの全体構成を示すブロック図である。It is a block diagram which shows the whole structure of the image processing system which concerns on 2nd Embodiment. 人感センサの配置を示す概略図である。It is the schematic which shows arrangement | positioning of a human sensitive sensor.

以下、本実施形態について図面により詳細に説明する。   Hereinafter, the present embodiment will be described in detail with reference to the drawings.

(第1の実施形態)
図1は、第1の実施形態に係る画像処理システムの全体構成を示すブロック図である。画像処理システム1は、2つの入力手段2,3と2つの画像処理手段4,5と合成手段6と検知手段7とパラメータ決定手段8と制御手段9とを有している。
(First embodiment)
FIG. 1 is a block diagram showing the overall configuration of the image processing system according to the first embodiment. The image processing system 1 includes two input units 2 and 3, two image processing units 4 and 5, a synthesis unit 6, a detection unit 7, a parameter determination unit 8, and a control unit 9.

入力手段2,3は、レンズ、光学フィルタ等の光学系、センサ等を含んで構成され、レンズによって結像された画像をセンサに入力し、デジタルデータに変換して後段の画像処理手段4,5に入力する。レンズに広角レンズを使用することで1つの入力手段で広範囲の画像を撮影することができる。また、パラメータ決定手段8よりセンサの設定(ゲイン、露光時間等)やレンズの制御設定(絞り、フォーカス等)が設定される。   The input means 2 and 3 are configured to include an optical system such as a lens and an optical filter, a sensor, and the like. The image formed by the lens is input to the sensor, converted into digital data, and the subsequent image processing means 4 Enter 5. By using a wide-angle lens as the lens, a wide range of images can be taken with one input means. Also, sensor setting (gain, exposure time, etc.) and lens control settings (aperture, focus, etc.) are set by the parameter determination means 8.

入力された画像データは画像処理手段4,5に入力される。画像処理は、入力手段2,3から入力された画像に対して、レンズの特性の補正処理(シェーディング補正、色収差補正等)やセンサの特性の補正処理(ガンマ補正、欠陥画素補正等、ゲイン調整)、画質の向上のための処理(ノイズ除去、エッジ強調、色補正等、ダイナミックレンジ拡大)、画像処理を行うためのパラメータはパラメータ決定手段8によって設定される。   The input image data is input to the image processing means 4 and 5. Image processing is performed on the images input from the input means 2 and 3, such as lens characteristic correction processing (shading correction, chromatic aberration correction, etc.) and sensor characteristic correction processing (gamma correction, defective pixel correction, etc.). ), Parameters for performing processing for improving image quality (noise removal, edge enhancement, color correction, dynamic range expansion, etc.) and image processing are set by the parameter determination means 8.

また、画像処理手段4,5では、AWB、AE、AF等を実施するため画像の明るさやホワイトバランス、MTFを取得する機能も有する。画像処理手段4,5から入力された複数枚の画像データを、合成手段6によって複数画像を繋ぎ合わせて1つの画像にする。   The image processing means 4 and 5 also have a function of acquiring image brightness, white balance, and MTF in order to perform AWB, AE, AF, and the like. A plurality of image data input from the image processing means 4 and 5 are combined into a single image by the combining means 6.

検知手段7では、合成手段6で合成された1枚の画像について、認識処理を行い、画像の繋ぎ目部分にどのような情報があるかを判断する。パラメータ決定手段8は、検知手段7の結果を基に各画像処理手段4,5、入力手段2,3に設定するパラメータを決定する。
なお、本実施形態では入力手段と画像処理手段とが各2つの構成であるが、これらが各3つ以上で構成されていても良い。
The detection unit 7 performs recognition processing on one image synthesized by the synthesis unit 6 and determines what information is present at the joint portion of the image. The parameter determination unit 8 determines parameters to be set in the image processing units 4 and 5 and the input units 2 and 3 based on the result of the detection unit 7.
In the present embodiment, the input unit and the image processing unit have two configurations, but the input unit and the image processing unit may include three or more units.

制御手段9は、重要なものが写っていると報告された場合、画像処理手段4,5から与えられた画像を見てシーンを判定し、各カメラのシーン特性を基に、各シーンパラメータを同じにするか異ならせるかを決定し、パラメータ決定手段8に与える。
画像処理手段4,5から画像データが制御手段9に送られる。検知手段7は、画像の繋ぎ目に重要なものが写っているかどうか判断し、その判断結果を制御手段9に送る。
When it is reported that the important thing is reflected, the control means 9 determines the scene by looking at the images given from the image processing means 4 and 5, and sets each scene parameter based on the scene characteristics of each camera. It is determined whether they are the same or different and is given to the parameter determining means 8.
Image data is sent from the image processing means 4, 5 to the control means 9. The detection unit 7 determines whether or not an important image is captured at the joint of the images, and sends the determination result to the control unit 9.

図2は、画像処理システムで撮影し、合成された画像イメージの概略図である。複数枚合成した画像処理システムにおいてユースケースによっては、合成された360度のパノラマ画像において重要度が位置ごとに異なる場合がある。例えば、TV会議システムにおいては、会議出席者の顔やホワイトボード、スクリーンなどが非常に重要で、それ以外の部分の重要度は低い。   FIG. 2 is a schematic view of an image image synthesized by the image processing system. Depending on the use case in the image processing system in which a plurality of images are combined, the importance may be different for each position in the combined 360 degree panoramic image. For example, in a TV conference system, the faces of attendees, whiteboards, screens, etc. are very important, and the other parts are less important.

図2(a)に示すように、第1の入力手段2の撮影範囲に出席者Aと出席者Bが写り、第2の入力手段3の撮影範囲にホワイトボードが写っている。
複数枚合成した画像の繋ぎ目に重要なものが写っておらず、且つ画像入力手段が撮影しているシーン特性が合成される2つの画像で異なっていると判断した場合、第1の入力手段2、第1の画像処理手段4に設定するパラメータ、第2の入力手段3、第2の画像処理手段5に設定するパラメータ、はそれぞれ各画像に対して最適なものを設定する。
As shown in FIG. 2A, the attendee A and the attendee B are shown in the shooting range of the first input means 2, and the whiteboard is shown in the shooting range of the second input means 3.
When it is determined that important things are not shown at the joint between the images synthesized and the scene characteristics captured by the image input means are different between the two images to be synthesized, the first input means 2. The parameters set for the first image processing means 4 and the parameters set for the second input means 3 and the second image processing means 5 are respectively set to optimum values for each image.

これにより、繋ぎ目部分では各画像間の差(例えば、明るさやホワイトバランス等)に差が生じるため、繋ぎ目部分の画像が不自然になる可能性があるが、各シーンに最適化されたパラータが入力手段画像処理手段に設定されているため、ユーザにとって重要な情報を高画質で提供することができる。   As a result, there is a difference between the images (for example, brightness, white balance, etc.) in the joint portion, so the image of the joint portion may become unnatural, but it has been optimized for each scene. Since the parameter is set in the input means image processing means, information important to the user can be provided with high image quality.

図2(b)に示すように、第1の入力手段2の撮影範囲に出席者Aと出席者Bが写り、第1の入力手段2の撮影範囲と第2の入力手段3の撮影範囲との繋ぎ目にホワイトボードが写っている。   As shown in FIG. 2B, the attendee A and the attendee B are shown in the shooting range of the first input means 2, and the shooting range of the first input means 2 and the shooting range of the second input means 3 are A whiteboard is visible at the joint.

また、図2(c)に示すように、第1の入力手段2の撮影範囲に出席者Aが写り、第2の入力手段3の撮影範囲にホワイトボードが写っている。第1の入力手段2の撮影範囲と第2の入力手段3の撮影範囲との繋ぎ目に出席者Bが写っている。   Further, as shown in FIG. 2C, the attendee A is shown in the shooting range of the first input means 2, and the whiteboard is shown in the shooting range of the second input means 3. The attendee B is shown at the joint between the shooting range of the first input means 2 and the shooting range of the second input means 3.

複数枚合成した画像の繋ぎ目に重要なものが写っていると判断した場合、第1の入力手段2、第1の画像処理手段4に設定するパラメータ、第2の入力手段3、第2の画像処理手段5に設定するパラメータ、は各入力手段、画像処理手段で共通のパラメータを設定する。共通のパラメータは、複数の入力手段のシーンで最適化されたパラメータを平均化して設定する。   If it is determined that an important image is present at the joint of the plurality of synthesized images, the parameters to be set in the first input means 2, the first image processing means 4, the second input means 3, the second The parameters to be set in the image processing means 5 are parameters common to the input means and the image processing means. The common parameter is set by averaging parameters optimized in a scene of a plurality of input means.

これにより、各画像は最適化されたものではなくなってしまうが、繋ぎ目部分はスムーズにつなぐことができ、繋ぎ目部分に写っている被写体を自然に映すことができるようになる。   As a result, each image is not optimized, but the joint portion can be smoothly connected, and the subject reflected in the joint portion can be naturally projected.

図3は、各画像処理手段、入力手段に設定するパラメータ決定を示すフローチャートである。各入力手段2,3が撮影しているシーンの特徴が、同じなのか異なるのかの判断を行う(ステップS1)。各入力手段2,3で撮影しているシーンの特徴が同じ場合(ステップS1、Yes)、各入力手段2,3、各画像処理手段4,5で共通のパラメータを設定する(ステップS4)。   FIG. 3 is a flowchart showing parameter determination to be set for each image processing unit and input unit. It is determined whether the features of the scenes photographed by the input means 2 and 3 are the same or different (step S1). If the characteristics of the scenes photographed by the input means 2 and 3 are the same (step S1, Yes), common parameters are set by the input means 2 and 3 and the image processing means 4 and 5 (step S4).

各入力手段2,3で撮影しているシーンの特徴が異なる場合(ステップS1、No)、入力画像の継ぎ目部分に重要なものが写っているか判断を行う(ステップS2)。入力画像の継ぎ目部分に重要なものが写っていないと判断した場合(ステップS2、No)、各入力手段2,3、各画像処理手段4,5で個別に最適化したパラメータを設定する(ステップS3)。入力画像の継ぎ目部分に重要なものが写っていると判断した場合(ステップS2、Yes)、各入力手段2,3、各画像処理手段4,5で共通のパラメータを設定する(ステップS4)。   When the features of the scenes photographed by the input means 2 and 3 are different (No in step S1), it is determined whether important items are shown in the joint portion of the input image (step S2). When it is determined that important items are not shown in the seam portion of the input image (No in step S2), optimized parameters are individually set by the input units 2 and 3 and the image processing units 4 and 5 (step S2). S3). When it is determined that an important image is reflected in the joint portion of the input image (step S2, Yes), common parameters are set in the input means 2 and 3 and the image processing means 4 and 5 (step S4).

ステップS1で判断するシーンの特性は、例えば明るさ、色温度などが挙げられる。例えば、明るさに関しては、各入力手段2,3が撮影している領域の片側のみに光源がある場合は、一方は明るめの画像となり、もう一方は暗めの画像となる。もしくは蛍光灯と太陽光など光源が複数ある場合、入力手段毎に撮影している画像の明るさレベルが異なる場合がある。   Examples of the scene characteristics determined in step S1 include brightness and color temperature. For example, with respect to the brightness, when the light source is on only one side of the area photographed by the input means 2 and 3, one is a bright image and the other is a dark image. Alternatively, when there are a plurality of light sources such as fluorescent lamps and sunlight, the brightness level of the captured image may be different for each input means.

図4は、パラメータの決定について説明する図である。判断するシーンの特徴の例として明るさであれば、決定する必要の有るパラメータとして、ゲイン値が挙げられる。ゲイン値は入力手段2,3のセンサや画像処理手段4,5のパラメータとして存在する。一般的にゲインは輝度が低い場合(暗い場合)、画像を明るく撮影するため、大きな値を設定する。逆に輝度が高い(明るい)場合は、画像が白飛びしないようにするため、ゲインを低く設定する。   FIG. 4 is a diagram for explaining determination of parameters. If brightness is an example of a scene feature to be determined, a gain value may be cited as a parameter that needs to be determined. The gain value exists as a parameter of the sensors of the input means 2 and 3 and the image processing means 4 and 5. In general, when the luminance is low (when dark), the gain is set to a large value in order to capture a bright image. Conversely, when the luminance is high (bright), the gain is set low in order to prevent the image from being overexposed.

入力手段2側は暗く、入力手段3側は明るい場合、各入力手段2,3で共通のパラメータを設定する場合は、各個別最適パラメータの中間値求めて共通のパラメータとして使用する。   When the input means 2 side is dark and the input means 3 side is bright, and when a common parameter is set in each input means 2 and 3, an intermediate value of each individual optimum parameter is obtained and used as a common parameter.

図5は、パラメータの決定について個別最適または共通の2択ではなく、中間の設定も使用する実施形態について説明する図である。本実施形態では、図4で示したような2択でパラメータを決めるのではなく、各入力手段2,3、各画像処理手段4,5に設定するパラメータを変更していく。   FIG. 5 is a diagram illustrating an embodiment in which an intermediate setting is used instead of individual optimization or common two options for parameter determination. In the present embodiment, the parameters set in the input units 2 and 3 and the image processing units 4 and 5 are changed instead of determining the parameters by two options as shown in FIG.

画像の繋ぎ目部分に重要なものが写っているか否かの判定結果を、2値判定ではなく数値で算出し、その値を基にパラメータの補正値を決定する。ゲイン量の補正値Xは、式(1)である。   A determination result as to whether or not an important thing is reflected in the joint portion of the image is calculated not by binary determination but by a numerical value, and a parameter correction value is determined based on the value. The gain amount correction value X is expressed by Equation (1).

Figure 2015084512
Figure 2015084512

Xはゲイン量の補正値、αは比例係数、Iは画像の繋ぎ目部分に重要なものが写っているか否かの判定結果(Iは大→重要なものが写っている、Iは小→重要なものが写っていない)である。重要度Iは、重要なものが写っている確率としても良い。   X is a correction value of gain amount, α is a proportional coefficient, I is a determination result of whether or not an important thing is reflected in the joint portion of the image (I is large → important is reflected, I is small → Important things are not shown). The importance level I may be a probability that an important thing is reflected.

また、繋ぎ目に写っているものの重要度が最大の場合、入力手段2と3の最適値の中間値とするため、以下の式(2)のような関係性が必要となる。ΔPは各入力
手段に最適なパラメータの差分値、IMAXはIの最大値である。
In addition, when the importance of what is shown at the joint is the maximum, the relationship between the optimum values of the input means 2 and 3 is set to the relationship shown in the following equation (2). ΔP is the optimum parameter difference value for each input means, and I MAX is the maximum value of I.

Figure 2015084512
Figure 2015084512

(第2の実施形態)
図6は、情報取得手段11によって重要物の判断を行う画像処理システムの全体構成を示すブロック図である。第2の実施形態では情報取得手段11が追加されている。第1の実施形態と同一の構成は、同一の符号を付して説明を省略する。第1の実施形態では合成手段6で合成された画像を用いて検知手段7で繋ぎ目部分にユーザにとって重要なものが写っているかどうかを判断していた。
(Second Embodiment)
FIG. 6 is a block diagram showing the overall configuration of an image processing system in which important information is determined by the information acquisition unit 11. In the second embodiment, information acquisition means 11 is added. The same configurations as those of the first embodiment are denoted by the same reference numerals and description thereof is omitted. In the first embodiment, the image synthesized by the synthesizing unit 6 is used to determine whether the detection unit 7 shows what is important for the user at the joint portion.

しかし、第2の実施形態では画像による判断に加えて情報取得手段11によって取得された画像処理システムの周辺情報を基に、検知手段7は、合成手段6で合成される繋ぎ目部分に重要なものが写っているか判断し、パラメータ決定手段8は、入力手段2,3、画像処理手段4,5に設定するパラメータを決定する。画像からの情報に加えて、情報取得手段11からの情報を使用して画像の繋ぎ目部分に重要なものが写っているか判断することで判断の精度を向上させることができる。   However, in the second embodiment, based on the peripheral information of the image processing system acquired by the information acquisition unit 11 in addition to the determination by the image, the detection unit 7 is important for the joint portion synthesized by the synthesis unit 6. It is determined whether an object is captured, and the parameter determination unit 8 determines parameters to be set in the input units 2 and 3 and the image processing units 4 and 5. In addition to the information from the image, it is possible to improve the accuracy of the determination by determining whether or not an important thing is reflected in the joint portion of the image using the information from the information acquisition unit 11.

図7は、人感センサ21,22の配置を示す概略図である。具体的に情報取得手段11としては、人感センサ21,22があげられる。画角180度以上のレンズを設置した入力手段23,24が2つ組み合わされたシステムである。2つの入力手段23,24が重なって撮影している領域が画像の繋ぎ目部分25となる。   FIG. 7 is a schematic diagram showing the arrangement of the human sensors 21 and 22. Specifically, the information acquisition means 11 includes human sensors 21 and 22. This is a system in which two input means 23 and 24 each having a lens having an angle of view of 180 degrees or more are combined. A region where the two input units 23 and 24 are overlapped to form an image is a joint portion 25 of the image.

人感センサ21,22を画像の繋ぎ目部分25になる方向に配置することで、繋ぎ目部分25に人がいるかどうかの判定に人感センサ21,22の情報を使用して、判断精度を画像認識だけで行う場合と比較して判断精度を向上させることができる。図中の矢印は、人感センサ21,22の感知方向を示している。   By arranging the human sensors 21 and 22 in the direction to become the joint portion 25 of the image, the information of the human sensors 21 and 22 is used to determine whether or not there is a person at the joint portion 25, and the determination accuracy is improved. The determination accuracy can be improved as compared with the case where only image recognition is performed. The arrows in the figure indicate the sensing directions of the human sensors 21 and 22.

また、合成画像の認識は使わずに人感センサ21,22のみで判断するという実施形態も可能である。また、人感センサではなくマイクアレイなどを使用して、話をしている人物を検知するなどしても良い。   In addition, an embodiment in which determination is made only by the human sensors 21 and 22 without using recognition of the composite image is possible. In addition, a person who is talking may be detected using a microphone array instead of a human sensor.

本実施形態によれば、複数カメラで撮影した画像の継ぎ目部分にユーザにとって必要性の高いものが写っているかどうかを認識することで、継ぎ目部分に必要性が高いものが写っている場合、1つのパラメータで画像処理を実施するモードで動作し継ぎ目の画質を向上させ、継ぎ目部分に必要性が高いものが写っていない場合、個別のパラメータで画像処理を実施することで個々の画像の品質を最適化する。   According to the present embodiment, when a thing that is highly necessary for the user is reflected in a joint portion of images taken by a plurality of cameras, when a highly necessary portion is reflected in the joint portion, 1 When operating in a mode that performs image processing with one parameter to improve the image quality of the seam, and if there is no necessity in the seam part, image processing is performed with individual parameters to improve the quality of each image. Optimize.

そのため、複数カメラの画像を合成する画像処理装置において、1つのパラメータで画像処理を行う場合と個別のパラメータで画像処理を行う制御を適切に切り替えることでシーン毎にユーザが必要としている映像を提供することで、ユーザは見たいものをより綺麗に見ることができる。   Therefore, in an image processing device that synthesizes images from multiple cameras, it provides video that the user needs for each scene by appropriately switching between image processing with one parameter and control that performs image processing with individual parameters. By doing so, the user can see what he / she wants to see more clearly.

なお、上述した実施の形態は、本発明の好適な実施の形態の一例を示すものであり、本発明はそれに限定されることなく、その要旨を逸脱しない範囲内において、種々変形実施が可能である。   The above-described embodiment shows an example of a preferred embodiment of the present invention, and the present invention is not limited thereto, and various modifications can be made without departing from the scope of the invention. is there.

1 画像処理システム
2 入力手段
4 画像処理手段
6 合成手段
7 検知手段
8 パラメータ決定手段
9 制御手段
11 情報取得手段
21 人感センサ
25 繋ぎ目部分
DESCRIPTION OF SYMBOLS 1 Image processing system 2 Input means 4 Image processing means 6 Synthesis | combination means 7 Detection means 8 Parameter determination means 9 Control means 11 Information acquisition means 21 Human sensor 25 Joint part

特許第4325642号公報Japanese Patent No. 4325642

Claims (6)

複数のカメラ装置から画像を入力する複数の画像入力手段と、
該複数の画像入力手段から入力された画像に対し画像処理を実施する複数の画像処理手段と、
該複数の画像処理手段から入力された複数の画像を合成する合成手段と、
該合成手段で合成された画像の継ぎ目部分に重要なものがあるか認識する検知手段と、
該検知手段から動作パラメータを生成するパラメータ決定手段と、を有し、
該パラメータ決定手段は前記検知手段の結果を基に、パラメータを決定することを特徴とする画像処理システム。
A plurality of image input means for inputting images from a plurality of camera devices;
A plurality of image processing means for performing image processing on images input from the plurality of image input means;
Combining means for combining a plurality of images inputted from the plurality of image processing means;
Detection means for recognizing whether there is an important seam portion of the image synthesized by the synthesis means;
Parameter determining means for generating operating parameters from the detecting means,
The parameter determining means determines a parameter based on the result of the detecting means.
1つ以上の情報取得手段を有し、
前記検知手段は、情報取得手段で取得した情報を、前記合成手段で合成された画像の継ぎ目部分に重要なものがあるか認識する検知に活用することを特徴とする請求項1記載の画像処理システム。
Having one or more information acquisition means;
The image processing according to claim 1, wherein the detection unit uses the information acquired by the information acquisition unit for detection of whether there is an important seam portion of the image combined by the combining unit. system.
前記検知手段は、画像の継ぎ目部分に重要なものが無い場合、個別最適化されたパラメータを使用し、画像の継ぎ目部分に重要なものがある場合、個別最適化されたパラメータの中間値を使用することを特徴とする請求項1または2記載の画像処理システム。   The detection means uses individually optimized parameters when there is nothing important in the seam portion of the image, and uses an intermediate value of the individually optimized parameters when there is something important in the seam portion of the image. The image processing system according to claim 1, wherein: 前記検知手段は、画像の継ぎ目部分に重要度に応じて、前記複数の画像処理手段と前記複数の画像入力手段とのパラメータを個別最適化されたパラメータと、個別最適化されたパラメータの中間値の間で切り替えていくことを特徴とする請求項1または2記載の画像処理システム。   The detection means is a parameter obtained by individually optimizing the parameters of the plurality of image processing means and the plurality of image input means, and an intermediate value between the individually optimized parameters according to the importance of the joint portion of the image The image processing system according to claim 1, wherein the image processing system is switched between. 前記情報取得手段は、人感センサであることを特徴とする請求項2〜4のいずれか1項に記載の画像処理システム。   The image processing system according to claim 2, wherein the information acquisition unit is a human sensor. 前記情報取得手段は、マイクアレイであることを特徴とする請求項2〜4のいずれか1項に記載の画像処理システム。   The image processing system according to claim 2, wherein the information acquisition unit is a microphone array.
JP2014155426A 2013-09-18 2014-07-30 Image processing system Expired - Fee Related JP6379812B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014155426A JP6379812B2 (en) 2013-09-18 2014-07-30 Image processing system
CN201410478391.8A CN104469135B (en) 2013-09-18 2014-09-18 Image processing system

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013193424 2013-09-18
JP2013193424 2013-09-18
JP2014155426A JP6379812B2 (en) 2013-09-18 2014-07-30 Image processing system

Publications (2)

Publication Number Publication Date
JP2015084512A true JP2015084512A (en) 2015-04-30
JP6379812B2 JP6379812B2 (en) 2018-08-29

Family

ID=53047915

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014155426A Expired - Fee Related JP6379812B2 (en) 2013-09-18 2014-07-30 Image processing system

Country Status (1)

Country Link
JP (1) JP6379812B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017104395A1 (en) * 2015-12-15 2017-06-22 株式会社リコー Image-processing device and image-processing method
WO2018105097A1 (en) * 2016-12-09 2018-06-14 三菱電機株式会社 Image synthesis device, image synthesis method, and image synthesis program
WO2023002776A1 (en) * 2021-07-19 2023-01-26 富士フイルム株式会社 Image processing device, image processing system, image processing method, and image processing program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007194928A (en) * 2006-01-19 2007-08-02 Matsushita Electric Ind Co Ltd Remote monitoring device and method
JP2011193062A (en) * 2010-03-11 2011-09-29 Fujifilm Corp Panoramic image imaging device and panoramic image compositing method
US20120294549A1 (en) * 2011-05-17 2012-11-22 Apple Inc. Positional Sensor-Assisted Image Registration for Panoramic Photography

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007194928A (en) * 2006-01-19 2007-08-02 Matsushita Electric Ind Co Ltd Remote monitoring device and method
JP2011193062A (en) * 2010-03-11 2011-09-29 Fujifilm Corp Panoramic image imaging device and panoramic image compositing method
US20120294549A1 (en) * 2011-05-17 2012-11-22 Apple Inc. Positional Sensor-Assisted Image Registration for Panoramic Photography

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017104395A1 (en) * 2015-12-15 2017-06-22 株式会社リコー Image-processing device and image-processing method
KR20180080297A (en) * 2015-12-15 2018-07-11 가부시키가이샤 리코 IMAGE PROCESSING DEVICE AND IMAGE PROCESSING METHOD
JPWO2017104395A1 (en) * 2015-12-15 2018-09-06 株式会社リコー Image processing apparatus and image processing method
KR102102740B1 (en) * 2015-12-15 2020-04-21 가부시키가이샤 리코 Image processing apparatus and image processing method
US10699393B2 (en) 2015-12-15 2020-06-30 Ricoh Company, Ltd. Image processing apparatus and image processing method
WO2018105097A1 (en) * 2016-12-09 2018-06-14 三菱電機株式会社 Image synthesis device, image synthesis method, and image synthesis program
JPWO2018105097A1 (en) * 2016-12-09 2019-04-25 三菱電機株式会社 Image synthesizing device, image synthesizing method, and image synthesizing program
WO2023002776A1 (en) * 2021-07-19 2023-01-26 富士フイルム株式会社 Image processing device, image processing system, image processing method, and image processing program

Also Published As

Publication number Publication date
JP6379812B2 (en) 2018-08-29

Similar Documents

Publication Publication Date Title
KR101817657B1 (en) Digital photographing apparatus splay apparatus and control method thereof
US8749653B2 (en) Apparatus and method of blurring background of image in digital image processing device
WO2011151867A1 (en) Imaging device, imaging means and program
US9684988B2 (en) Imaging device, image processing method, and recording medium
JP2019030007A (en) Electronic device for acquiring video image by using plurality of cameras and video processing method using the same
JP2010028596A (en) Image sensing device
JP2016208306A (en) Image processing device, imaging system having the same and image processing method
US9167150B2 (en) Apparatus and method for processing image in mobile terminal having camera
JP2018037857A (en) Image processing system, image processing method and program
JP6379812B2 (en) Image processing system
JP2018186514A (en) Image processing device, imaging system having the same and image processing method
JP5896680B2 (en) Imaging apparatus, image processing apparatus, and image processing method
US8681245B2 (en) Digital photographing apparatus, and method for providing bokeh effects
JP6541501B2 (en) IMAGE PROCESSING APPARATUS, IMAGING APPARATUS, AND IMAGE PROCESSING METHOD
CN104469135B (en) Image processing system
US11805326B2 (en) Image processing apparatus, control method thereof, and storage medium
JP2017092850A (en) Imaging device, imaging method, and conference terminal equipment
JP2020123837A (en) Imaging apparatus, imaging method, and program
JP2009182832A (en) Photographing device and through image displaying method
JP6157274B2 (en) Imaging apparatus, information processing method, and program
JP2015106860A (en) Monitoring imaging system and program
KR101960508B1 (en) Display apparatus and method
JP6725105B2 (en) Imaging device and image processing method
KR20110060499A (en) Digital image signal processing apparatus and method for controlling the same
JP2016208118A (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170721

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20171004

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180409

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180417

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180606

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180703

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180716

R151 Written notification of patent or utility model registration

Ref document number: 6379812

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees