JP2019033470A - Image processing system, imaging apparatus, image processing apparatus, control method, and program - Google Patents

Image processing system, imaging apparatus, image processing apparatus, control method, and program Download PDF

Info

Publication number
JP2019033470A
JP2019033470A JP2018094397A JP2018094397A JP2019033470A JP 2019033470 A JP2019033470 A JP 2019033470A JP 2018094397 A JP2018094397 A JP 2018094397A JP 2018094397 A JP2018094397 A JP 2018094397A JP 2019033470 A JP2019033470 A JP 2019033470A
Authority
JP
Japan
Prior art keywords
area
image processing
region
image
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018094397A
Other languages
Japanese (ja)
Inventor
萌美 浦野
Megumi Urano
萌美 浦野
小野 光洋
Mitsuhiro Ono
光洋 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to US16/056,144 priority Critical patent/US20190052803A1/en
Priority to CN201810896293.4A priority patent/CN109391804A/en
Priority to EP18188039.4A priority patent/EP3442218A1/en
Publication of JP2019033470A publication Critical patent/JP2019033470A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)

Abstract

To solve the problem in which there is a possibility that a problem may occur in performing correction processing on an image in which different input and output characteristics (gamma curves) are applied to a plurality of partial areas in the image.SOLUTION: By acquiring area information indicating at least one of a first area to which a first input and output characteristic is applied and a second area to which a second input and output characteristic is applied, the first area and the second area are distinguished from each other and displayed, and a correction intended by a user is performed to improve color reproducibility of a photographed image.SELECTED DRAWING: Figure 5

Description

本発明は、複数の画像を合成した撮影画像について領域毎の補正処理を適用する技術に関する。   The present invention relates to a technique for applying correction processing for each region to a captured image obtained by combining a plurality of images.

近年、ネットワークカメラを利用した監視システムが広く普及している。ネットワークカメラは大規模な公共機関や量販店などにおける監視カメラとして幅広い分野で利用されているため、屋内および屋外などの照度差の大きな環境または照明が異なる環境などに対してダイナミックレンジの拡大が課題になっている。   In recent years, monitoring systems using network cameras have become widespread. Since network cameras are used in a wide range of fields as surveillance cameras in large-scale public institutions and mass retailers, it is necessary to expand the dynamic range for environments with large illuminance differences, such as indoors and outdoors, or environments with different lighting. It has become.

また、色をより正確に表示することも要求されている。例えば特許文献1では、被写体の認識を行って異なる領域を区分し、区分された複数の領域に対して露出条件と画像処理条件とを含む撮像条件を決定する方法が記載されている。また、特許文献2では、複数の領域ごとにホワイトバランスを算出し補正することが提案されている。   It is also required to display colors more accurately. For example, Patent Document 1 describes a method of recognizing a subject to classify different areas and determine imaging conditions including an exposure condition and an image processing condition for the divided areas. Patent Document 2 proposes to calculate and correct white balance for each of a plurality of regions.

特開2016−192606号公報Japanese Patent Laid-Open No. 2006-192606 特開2015−192152号公報Japanese Patent Laying-Open No. 2015-192152

しかし、ダイナミックレンジの拡大などのために、互いに異なる入出力特性(ガンマ曲線)が画像内の複数の部分領域に其々適用されている画像について、補正処理をする場合に不具合が生じるおそれがある。詳細には、ユーザーが部分領域毎に適用された入出力特性を意識せずに画像全体を対象としたホワイトバランスなどの調整処理を行うと、好ましい色再現を得ることが困難である。   However, there is a possibility that a malfunction may occur when performing correction processing on an image in which different input / output characteristics (gamma curves) are applied to a plurality of partial areas in the image due to expansion of the dynamic range. . Specifically, when the user performs adjustment processing such as white balance for the entire image without being conscious of the input / output characteristics applied to each partial region, it is difficult to obtain preferable color reproduction.

上記課題を解決するために、本発明に係る画像処理システムは、撮像装置と画像処理装置とを有する画像処理システムであって、前記撮像装置は、撮像画像を取得する撮像手段と、前記撮像手段により取得した撮像画像について、第1の入出力特性を適用する第1領域と、第2の入出力特性を適用する第2領域とを設定する設定手段と、前記第1領域または前記第2領域の少なくとも一方を示す領域情報を出力する出力手段と、を備え、前記画像処理装置は、前記撮像装置から前記領域情報を取得し、前記第1領域と前記第2領域とを区別して表示させる表示制御手段を備えることを特徴とする。   In order to solve the above problems, an image processing system according to the present invention is an image processing system having an imaging device and an image processing device, the imaging device including an imaging unit that acquires a captured image, and the imaging unit. Setting means for setting a first area to which the first input / output characteristic is applied and a second area to which the second input / output characteristic is applied, and the first area or the second area, Output means for outputting area information indicating at least one of the display, the image processing apparatus acquires the area information from the imaging apparatus, and displays the first area and the second area separately Control means is provided.

本発明によれば、異なるガンマカーブなどを適用した領域をユーザーが識別し易い様にすることで、領域毎にホワイトバランス調整などの補正処理を適用しやすくし、好ましい色再現性を得ることができる。   According to the present invention, by making it easy for a user to identify a region to which a different gamma curve or the like is applied, correction processing such as white balance adjustment can be easily applied to each region, and preferable color reproducibility can be obtained. it can.

システム構成を示す模式図である。It is a schematic diagram which shows a system configuration. カメラの構成を示すブロック図である。It is a block diagram which shows the structure of a camera. クライアントの構成を示すブロック図である。It is a block diagram which shows the structure of a client. カメラの画像処理部の構成の詳細を示すブロック図である。It is a block diagram which shows the detail of a structure of the image process part of a camera. ガンマ調整処理のフローチャートである。It is a flowchart of a gamma adjustment process. (a)シーンの例を示す模式図である。(b)ヒストグラムを説明するための模式図である。(c)ガンマカーブを説明するための模式図である。(d)マップを示す模式図である。(A) It is a schematic diagram which shows the example of a scene. (B) It is a schematic diagram for demonstrating a histogram. (C) It is a schematic diagram for demonstrating a gamma curve. (D) It is a schematic diagram which shows a map. GUIの概略を示す模式図である。It is a schematic diagram which shows the outline of GUI. 画像処理部の処理の概略を示すフローチャートである。It is a flowchart which shows the outline of a process of an image process part. (a)〜(d)其々露出が異なるシーンの例を示す模式図である。(A)-(d) It is a schematic diagram which shows the example of the scene from which exposure differs, respectively. (a)画像合成比率を説明するための模式図である。(b)マップを示す模式図である。(A) It is a schematic diagram for demonstrating an image composition ratio. (B) It is a schematic diagram which shows a map. (a)GUIの概略を示す模式図である。(b)優先モードを適用した場合のカメラ設定について示す表である。(A) It is a schematic diagram which shows the outline of GUI. (B) It is a table | surface shown about the camera setting at the time of applying priority mode. ホワイトバランスの設定をするための処理を示すフローチャートである。It is a flowchart which shows the process for setting a white balance. 画像処理部の各構成に其々設定される複数のパラメータの例を示す模式図である。It is a schematic diagram which shows the example of the several parameter each set to each structure of an image process part. 画像処理部の構成の詳細を示すブロック図である。It is a block diagram which shows the detail of a structure of an image process part. 画像処理部の処理の概略を示すフローチャートである。It is a flowchart which shows the outline of a process of an image process part. GUIの概略を示す模式図である。It is a schematic diagram which shows the outline of GUI.

以下に、本発明の実施形態を図面に基づいて詳細に説明する。   Embodiments of the present invention will be described below in detail with reference to the drawings.

<<実施形態1>>
以下、図1〜図10を参照して、本発明の実施形態1について説明する。以下においては、本発明の一実施形態としてネットワークカメラについて説明する。
<< Embodiment 1 >>
Hereinafter, Embodiment 1 of the present invention will be described with reference to FIGS. In the following, a network camera will be described as an embodiment of the present invention.

図1は、実施形態1にかかる画像処理システムとしてのネットワークカメラシステムの概略構成の一例を示す図である。図1に示すように、ネットワークカメラシステム100は撮像装置としてのネットワークカメラ110(以降、カメラと称す)とビューワークライアント120(以降、クライアントと称す)とネットワーク130とを有している。カメラ110とクライアント120はネットワーク130によって互いに通信可能に接続されている。なお、撮影装置は、ネットワークカメラに限らず、たとえば、デジタル一眼レフカメラ、ミラーレス一眼カメラ、コンパクトデジタルカメラ、カムコーダ、タブレット端末、PHS、スマートフォン、フィーチャフォン、携帯ゲーム機など、撮影機能を有する別の携帯の装置に置き換えてもよい。   FIG. 1 is a diagram illustrating an example of a schematic configuration of a network camera system as an image processing system according to the first embodiment. As shown in FIG. 1, the network camera system 100 includes a network camera 110 (hereinafter referred to as a camera) as an imaging device, a viewer client 120 (hereinafter referred to as a client), and a network 130. The camera 110 and the client 120 are communicably connected to each other via a network 130. Note that the photographing apparatus is not limited to a network camera, and other types having a photographing function such as a digital single lens reflex camera, a mirrorless single lens camera, a compact digital camera, a camcorder, a tablet terminal, a PHS, a smartphone, a feature phone, and a portable game machine. It may be replaced with a portable device.

カメラ110は撮影(撮像)した画像を含む画像データを、ネットワーク130を介して配信する。クライアント120はカメラ110にアクセスして、カメラ110の初期設定をして、カメラ110の撮像パラメータを設定したり、配信設定をしたりする等して、所望の画像データを取得できるようにする。そして、クライアント120はカメラ110から配信された画像データを処理したり、配信された画像データを蓄積したり、蓄積された画像データなどを処理したりして、処理後の画像データに基づいて画像の表示を行う。   The camera 110 distributes image data including a captured (captured) image via the network 130. The client 120 accesses the camera 110, makes initial settings for the camera 110, sets the imaging parameters of the camera 110, sets the distribution settings, and so forth, so that desired image data can be acquired. Then, the client 120 processes the image data distributed from the camera 110, stores the distributed image data, processes the stored image data, and the like, and processes the image based on the processed image data. Is displayed.

ネットワーク130は、カメラ110とクライアント120とを通信可能に接続するものであり、例えば、Ethernet等の通信規格を満足する複数のルータ、スイッチ、ケーブル等を含んでいる。なお、本実施形態において、ネットワーク130はカメラ110とクライアント120との間の通信(画像配信用とカメラの設定用)が支障なく行えるものであれば、その通信規格や規模、構成は問わない。したがって、ネットワーク130としては、インターネットから有線LAN、無線LANにいたるまで適用が可能である。   The network 130 connects the camera 110 and the client 120 so that they can communicate with each other. For example, the network 130 includes a plurality of routers, switches, cables, and the like that satisfy a communication standard such as Ethernet. In the present embodiment, the communication standard, scale, and configuration of the network 130 are not limited as long as communication (for image distribution and camera setting) between the camera 110 and the client 120 can be performed without any problem. Therefore, the network 130 can be applied from the Internet to a wired LAN and a wireless LAN.

図2は、本実施形態におけるカメラ110の構成を示すブロック図である。撮像光学系201は対物レンズ、ズームレンズ、フォーカスレンズ、光学絞り等を備えており、被写体の光情報を後述の撮像素子部202へ集光する。撮像素子部202は、撮像光学系201にて集光された光情報を電流値へと変換する素子でCCDまたはCMOSセンサを備え、カラーフィルタなどと組み合わせることで色情報を取得する。ここで、撮像素子部202は基本的に、各画素について任意の露光時間を設定可能な撮像センサとする。   FIG. 2 is a block diagram showing a configuration of the camera 110 in the present embodiment. The imaging optical system 201 includes an objective lens, a zoom lens, a focus lens, an optical diaphragm, and the like, and collects light information of a subject on an imaging element unit 202 described later. The imaging element unit 202 is an element that converts light information collected by the imaging optical system 201 into a current value, and includes a CCD or CMOS sensor, and acquires color information by combining with a color filter or the like. Here, the image sensor unit 202 is basically an image sensor that can set an arbitrary exposure time for each pixel.

CPU203は、バス210に接続されている各構成の処理に関わる。例えば、ROM(Read Only Memory)204や、RAM(Random Access Memory)205に格納された命令をCUP203が順次に読み込み、解釈し、その結果に従って処理を実行する。撮像系制御部206は撮像光学系201に対して、フォーカスレンズを駆動しフォーカスを合わせたり、CPU203から絞りを調整するなどの指示があれば指示されたとおりの制御を行ったりする。   The CPU 203 is involved in the processing of each component connected to the bus 210. For example, the CUP 203 sequentially reads and interprets instructions stored in a ROM (Read Only Memory) 204 or a RAM (Random Access Memory) 205, and executes processing according to the result. The imaging system control unit 206 controls the imaging optical system 201 as instructed if there is an instruction such as driving the focus lens to adjust the focus or adjusting the diaphragm from the CPU 203.

より詳細には、絞りの駆動制御はプログラムAE(Automatic Exposure)、シャッター速度優先AE、絞り優先AEなど、ユーザーが設定する撮影モードにより指定されるAE機能に基づいて計算された露出値に基づいて行われる。   More specifically, aperture drive control is based on an exposure value calculated based on an AE function specified by a shooting mode set by the user, such as a program AE (Automatic Exposure), shutter speed priority AE, or aperture priority AE. Done.

また、CPU203はAE制御に併せてAF(Autofocus)制御を行う。AF制御には、アクティブ方式、位相差検出方式、コントラスト検出方式等が適用される。なお、この種のAEおよびAFの構成および制御については周知の一般的な技術を利用すればよいため、ここで詳細な説明は省略する。   The CPU 203 performs AF (Autofocus) control in conjunction with AE control. An active method, a phase difference detection method, a contrast detection method, or the like is applied to the AF control. In addition, since it is sufficient to use a known general technique for the configuration and control of this type of AE and AF, detailed description thereof is omitted here.

撮像素子部202においてデジタル化された画像信号は、画像処理部207に入力される。画像処理部207では、後述の画像処理を行い、輝度信号Y、色差信号Cb・Crを生成する。   The image signal digitized by the image sensor unit 202 is input to the image processing unit 207. The image processing unit 207 performs image processing described later to generate a luminance signal Y and color difference signals Cb / Cr.

エンコーダ部208は、画像処理部207にて処理した画像データをJpegやH.264、H.265などの所定のフォーマットに変換する符号化処理を行う。   The encoder unit 208 converts the image data processed by the image processing unit 207 to Jpeg or H.264. H.264, H.C. An encoding process for converting to a predetermined format such as H.265 is performed.

通信部209は、クライアント120とonvifなどのカメラ制御用プロトコルに従った通信をしたり、撮影された画像データをネットワーク130経由でクライアント120へ配信したりする。カメラ制御用プロトコルを用いた通信とは、クライアント120からのカメラ操作コマンドやカメラ設定コマンド、機能の問合せ等を受信し、そのレスポンスや画像データ以外の必要なデータの送信を行うことである。   The communication unit 209 communicates with the client 120 according to a camera control protocol such as onvif, and distributes photographed image data to the client 120 via the network 130. The communication using the camera control protocol is to receive a camera operation command, a camera setting command, a function inquiry, or the like from the client 120 and transmit necessary data other than the response and image data.

図3は、本実施形態におけるクライアント120の概略構成を示すブロック図である。CPU301は、クライアント120における動作を統括的に制御するものである。ROM302は、CPU301が処理を実行するために必要な制御プログラム等を記憶する不揮発性メモリである。RAM303は、CPU301の主メモリ、ワークエリア等として機能する。すなわち、CPU301は、処理の実行に際してROM302から必要なプログラム等をRAM303にロードし、ロードしたプログラム等を実行することで各種の機能動作を実現したり、後述の図5や図8に示す処理を実施したりする。   FIG. 3 is a block diagram showing a schematic configuration of the client 120 in the present embodiment. The CPU 301 controls the operation of the client 120 in an integrated manner. The ROM 302 is a non-volatile memory that stores a control program necessary for the CPU 301 to execute processing. A RAM 303 functions as a main memory, work area, and the like for the CPU 301. That is, the CPU 301 loads a necessary program or the like from the ROM 302 to the RAM 303 when executing the process, and implements various functional operations by executing the loaded program or the like, or performs the processes shown in FIGS. 5 and 8 to be described later. Or do it.

HDD304は大容量の2次記憶部であって、例えば、CPU301が処理を行う際に必要な各種データや、画像データ、各種情報等を記憶している。また、HDD304には、CPU301がプログラム等を用いた処理を行うことにより得られた各種データや、画像データ、各種情報等が記憶される。   The HDD 304 is a large-capacity secondary storage unit and stores, for example, various data necessary for the CPU 301 to perform processing, image data, various information, and the like. The HDD 304 stores various data, image data, various information, and the like obtained by the CPU 301 performing processing using a program or the like.

操作入力部305は電源ボタンやキーボードやマウス等の操作デバイスを備える入力部であり、ユーザーからの各種設定(後述する、領域毎の画像処理設定や優先度の設定)を受け付ける受付部として機能する。通信部306は、クライアント120とネットワーク130との通信の処理を行う。具体的には、カメラ110において撮影された画像データをネットワーク130経由で受信する。また、カメラ操作コマンドをカメラ110へ送信し、そのレスポンスや画像データ以外の必要なデータを受信する。   The operation input unit 305 is an input unit including operation devices such as a power button, a keyboard, and a mouse, and functions as a reception unit that receives various settings (image processing settings and priority settings for each area, which will be described later) from the user. . The communication unit 306 performs communication processing between the client 120 and the network 130. Specifically, image data captured by the camera 110 is received via the network 130. In addition, a camera operation command is transmitted to the camera 110, and necessary data other than the response and image data are received.

表示部307は、カメラ110の各種制御パラメータ入力のためのGUI(詳細は後述)やディスプレイを備えている。表示部307は、外部のディスプレイに後述するGUIなどを表示させるように表示制御する構成であってもよい。また。クライアント120の各要素の一部または全部の機能は、CPU301がプログラムを実行することで実現することができる。ただし、クライアント120の各要素のうち少なくとも一部(GPUやDMAなど)が専用のハードウェアとしてCPU301とは別に動作するようにしてもよい。この場合、専用のハードウェアは、CPU301の制御に基づいて動作する。   The display unit 307 includes a GUI (details will be described later) and a display for inputting various control parameters of the camera 110. The display unit 307 may be configured to perform display control so that a GUI or the like described later is displayed on an external display. Also. Some or all of the functions of each element of the client 120 can be realized by the CPU 301 executing a program. However, at least a part (GPU, DMA, etc.) of each element of the client 120 may operate separately from the CPU 301 as dedicated hardware. In this case, the dedicated hardware operates based on the control of the CPU 301.

図4は本実施形態の画像処理部207の構成の詳細を示すブロック図である。画像処理部207は現像処理部400とダイナミックレンジ拡張処理部410の2つのブロックに大きく分かれておりローカルバス430を介してメモリ420と接続している。   FIG. 4 is a block diagram showing details of the configuration of the image processing unit 207 of this embodiment. The image processing unit 207 is roughly divided into two blocks, a development processing unit 400 and a dynamic range expansion processing unit 410, and is connected to the memory 420 via the local bus 430.

現像処理部400は、撮像素子部202より入力された画像データに対して、レンズ収差の補正や周辺光量の補正など撮像光学系201の補正を行う光学補正部401、センサのキズや欠陥の補正やオフセット調整など撮像素子部202の補正を行うセンサ補正部402、センサのゲインと合わせてデジタル値でゲイン調整を行うゲイン調整部403を備える。さらに現像処理部400は、ノイズリダクション処理を行うNR処理部404、ホワイトバランスの調整を行うWB調整部405、ガンマ補正を行うガンマ補正部406、シャープネス処理を行うシャープネス処理部407、コントラスト調整処理や彩度調整処理や色変換処理などの色処理を行う色処理部408などの画像内容の補正処理を実施する構成を備える。現像処理部400の出力は、メモリ420に一時的に蓄えられる。   The development processing unit 400 includes an optical correction unit 401 that corrects the imaging optical system 201 such as lens aberration correction and peripheral light amount correction for the image data input from the image sensor unit 202, and correction of sensor defects and defects. And a sensor correction unit 402 that performs correction of the imaging element unit 202 such as offset adjustment, and a gain adjustment unit 403 that performs gain adjustment with a digital value together with the gain of the sensor. Further, the development processing unit 400 includes an NR processing unit 404 that performs noise reduction processing, a WB adjustment unit 405 that performs white balance adjustment, a gamma correction unit 406 that performs gamma correction, a sharpness processing unit 407 that performs sharpness processing, a contrast adjustment processing, A color processing unit 408 that performs color processing such as saturation adjustment processing and color conversion processing, etc., has a configuration for performing image content correction processing. The output of the development processing unit 400 is temporarily stored in the memory 420.

ダイナミックレンジ拡張処理部410は、ヒストグラム解析処理部411と後述するマップ作成処理部412、ガンマ調整部413、WDR合成処理部414を備える。マップ作成処理412で作成されたマップ情報もメモリ420に蓄えられる。ダイナミックレンジ拡張処理部410の有する各機能モジュールの説明は後述する。   The dynamic range expansion processing unit 410 includes a histogram analysis processing unit 411, a map creation processing unit 412, a gamma adjustment unit 413, and a WDR synthesis processing unit 414, which will be described later. The map information created in the map creation process 412 is also stored in the memory 420. A description of each functional module included in the dynamic range expansion processing unit 410 will be given later.

アトリビュート生成部409では、画素の輝度に基づいて画像処理の内容を変えるために、アトリビュート情報を画像処理部207(現像処理部400)の各構成に出力する。各構成はアトリビュート生成部409から出力されたアトリビュート情報を参照して、画像データを処理する際の処理パラメータを変更することが可能なように構成されている。   The attribute generation unit 409 outputs attribute information to each component of the image processing unit 207 (development processing unit 400) in order to change the content of the image processing based on the luminance of the pixel. Each configuration is configured such that a processing parameter when processing image data can be changed with reference to attribute information output from the attribute generation unit 409.

例えば、輝度しきい値Ythをアトリビュート生成部409に設定する。そして、アトリビュート生成部409は、処理画素ごとに輝度値を輝度しきい値Ythと比較し、しきい値よりも大きいか否かを示す情報を、画素の輝度情報にアトリビュート情報として付加する。例えば、アトリビュート情報はブーリアン値でよく、画素の輝度値がYthより大きければ”1”、小さければ”0”の値を保持する。光学補正部401〜色処理部408は、アトリビュート情報を参照し、アトリビュート情報に対応する処理パラメータを設定する。 For example, the brightness threshold value Y th is set in the attribute generation unit 409. Then, the attribute generation unit 409 compares the luminance value for each processing pixel with the luminance threshold value Yth, and adds information indicating whether the value is larger than the threshold value to the luminance information of the pixel as attribute information. For example, attribute information may be a boolean value, if the luminance value of the pixel is greater than the Y th "1", holds the value of smaller if "0". The optical correction unit 401 to the color processing unit 408 refer to the attribute information and set a processing parameter corresponding to the attribute information.

次に図5において、画像処理部207の動作フローについて説明する。ステップS501では、画像処理部207が撮像素子部202から画像データを受信する。次に、ステップS502において、現像処理部400の各構成が受信した画像データについて種々の処理を実施する。   Next, the operation flow of the image processing unit 207 will be described with reference to FIG. In step S <b> 501, the image processing unit 207 receives image data from the image sensor unit 202. Next, in step S502, various processes are performed on the image data received by each component of the development processing unit 400.

次に、ステップS503で画像処理部207が、クライアント120からマップ作成についての指示を受けたか判定する。この指示は、本実施形態においては、ユーザーがホワイトバランスなどの画像調整の作業を開始する際にクライアントから送られてくるコマンドのことである。例えば、明るさによって現像処理の内容が異なる領域がある際に、そのマップ情報をクライアント120から要求があったことを意味するコマンドである。このコマンドを受信していなければ、後述のステップS507においてガンマ調整処理を行い、処理を終了する。一方で、マップ作成指示がある場合は、ステップS504に遷移する。   In step S <b> 503, the image processing unit 207 determines whether a map creation instruction has been received from the client 120. In this embodiment, this instruction is a command sent from the client when the user starts an image adjustment operation such as white balance. For example, it is a command that means that the map information is requested from the client 120 when there is a region where the content of the development processing differs depending on the brightness. If this command has not been received, gamma adjustment processing is performed in step S507 described later, and the processing ends. On the other hand, if there is a map creation instruction, the process proceeds to step S504.

ステップS504ではヒストグラム解析処理部411がヒストグラム解析を行う。ヒストグラムについては図6を用いて説明する。図6(a)は、撮影シーンの一例を示しており、網掛けで示す窓601の外と室内602を含む範囲が撮影されている。窓601の外と室内602は異なる光源の影響を受けており、窓601の画像領域と室内602の画像領域とでは輝度差が大きいとする。このような輝度差のあるシーンの場合、ヒストグラムは、図6(b)に示すように室内602に対応するピーク702を持つヒストグラムと、窓601に対応するピーク701を持つヒストグラムとが、谷703を挟んでいる様になる。   In step S504, the histogram analysis processing unit 411 performs histogram analysis. The histogram will be described with reference to FIG. FIG. 6A shows an example of a shooting scene, and a range including the outside of the window 601 indicated by shading and the room 602 is shot. The outside of the window 601 and the room 602 are affected by different light sources, and it is assumed that the luminance difference between the image area of the window 601 and the image area of the room 602 is large. In the case of a scene having such a luminance difference, as shown in FIG. 6B, the histogram includes a histogram having a peak 702 corresponding to the room 602 and a histogram having a peak 701 corresponding to the window 601. It seems that is sandwiched.

ヒストグラム解析部411は、ステップS504において、画像データから画素毎の輝度値についてのヒストグラムを生成し、生成したヒストグラムについて2つの山ができるか、1つしか山がないかを検知する。解析結果となるピークの数によってステップS505において処理を分岐する。   In step S504, the histogram analysis unit 411 generates a histogram for the luminance value for each pixel from the image data, and detects whether the generated histogram has two peaks or only one peak. In step S505, the process branches depending on the number of peaks that are the analysis results.

検出されたピークが1つ以下である場合は、後述のガンマ調整処理507を行い画像処理部207の処理を終了する。ピークが2つある場合、ステップS506においてマップ作製の処理を行う。さらに、ピークが2つある場合、ピークの谷703の輝度値をヒストグラム解析部411がアトリビュート生成部409に設定する。なお、3つ以上のピークを検出するように構成してもよく、検出されたピークに対応する分だけ領域を分割してもよいし、含まれる画素数が少なければ(ピークが属する領域のサイズが小さければ)無視するように構成してもよい。   When the number of detected peaks is one or less, gamma adjustment processing 507 described later is performed and the processing of the image processing unit 207 is ended. If there are two peaks, map creation processing is performed in step S506. Further, when there are two peaks, the histogram analysis unit 411 sets the luminance value of the peak valley 703 in the attribute generation unit 409. It may be configured to detect three or more peaks, and the region may be divided by an amount corresponding to the detected peak, or if the number of pixels included is small (the size of the region to which the peak belongs). It may be configured to be ignored (if it is small).

ステップS506ではマップ作成処理部412がマップを作成する。ピークが2つ検出された画像に対して、マップは、ヒストグラムの2つのピークのどちらに属する領域であるかを画像上で示している。まず、マップ作成処理部412が画像を複数の輝度領域に分割する。本実施形態では、処理画像604の解像度は、1920×1080であり、64×36のブロック603に分割する。このブロックの中でヒストグラムの谷703の輝度値よりも大きい輝度値の画素がブロック内の画素数の2/3を超えるブロック603と、そうでないブロック603とに分割しマップとして示す。図6に示した画像に対応するマップを図6(c)に示す。窓の部分が明るいため窓601の部分と、それ以外とで領域がわかれていることがわかる。このマップ情報と、ステップS505で検出されたピーク数とはダイナミックレンジ拡張処理部410がメモリ420に出力し、通信部209がクライアント120へ通知する。   In step S506, the map creation processing unit 412 creates a map. For an image in which two peaks are detected, the map shows on the image which region the histogram belongs to. First, the map creation processing unit 412 divides the image into a plurality of luminance areas. In this embodiment, the resolution of the processed image 604 is 1920 × 1080 and is divided into 64 × 36 blocks 603. This block is divided into a block 603 in which a pixel having a luminance value larger than the luminance value of the valley 703 of the histogram exceeds 2/3 of the number of pixels in the block, and a block 603 that does not, and is shown as a map. A map corresponding to the image shown in FIG. 6 is shown in FIG. Since the window portion is bright, it can be seen that the region is divided between the window 601 portion and the other portions. The dynamic range expansion processing unit 410 outputs the map information and the number of peaks detected in step S505 to the memory 420, and the communication unit 209 notifies the client 120.

ステップS507では、ガンマ調整部413がガンマ調整処理を実施する。ステップS506のマップ作成処理を行っていない場合は、調整用のガンマは図6(c)において点線801で示されたガンマカーブ(ガンマ曲線)となっている。ここで、マップを作成した場合、調整用のガンマは、図8において実線802(第1の入出力特性)、803(第2の入出力特性)に示されるような特性となるように調整する。図6(c)に示す通り、ガンマ特性として不連続な階調特性となる。この不連続な輝度を境界に輝度領域を分割する。つまり、図6(b)において谷703以降の明るさの領域の明るさを下げるように調整されており、全体的なダイナミックレンジを確保する処理となる。谷703に相当する輝度値でいったん出力値が下がっており、このようなガンマカーブで輝度調整を行うことで、ダイナミックレンジが拡大され明るいエリアの視認性が向上する。以上のように画像処理部207の処理が完了する。   In step S507, the gamma adjustment unit 413 performs gamma adjustment processing. When the map creation process in step S506 is not performed, the adjustment gamma is a gamma curve (gamma curve) indicated by a dotted line 801 in FIG. Here, when the map is created, the adjustment gamma is adjusted so as to have characteristics as indicated by solid lines 802 (first input / output characteristics) and 803 (second input / output characteristics) in FIG. . As shown in FIG. 6C, the gradation characteristics are discontinuous as the gamma characteristics. The luminance area is divided using this discontinuous luminance as a boundary. That is, in FIG. 6B, the brightness is adjusted so as to lower the brightness of the area after the valley 703, and the process is to secure the entire dynamic range. The output value is once lowered at the luminance value corresponding to the valley 703. By adjusting the luminance with such a gamma curve, the dynamic range is expanded and the visibility of a bright area is improved. As described above, the processing of the image processing unit 207 is completed.

次に、後述するクライアント120から送信された設定パラメータをカメラ110が受信した後の処理について説明する。クライアント120から受信する設定パラメータは、各画像処理モジュール(図4の構成401〜409)の画像処理のパラメータとして反映され、アトリビュート生成部409で設定されたしきい値によって切り替えられる。詳しくは、アトリビュート生成部409へ輝度しきい値としてヒストグラムの谷の値の703に相当する輝度しきい値が設定され、この値を境に各画像処理パラメータが変更される。そのため、被写体が移動した場合においても、同一の被写体であれば同様のガンマ補正が適用され続ける。また同様に、輝度の明るい画素に対するホワイトバランスの処理も維持される。   Next, processing after the camera 110 receives a setting parameter transmitted from the client 120 described later will be described. The setting parameter received from the client 120 is reflected as an image processing parameter of each image processing module (configurations 401 to 409 in FIG. 4), and is switched according to a threshold set by the attribute generation unit 409. Specifically, a luminance threshold value corresponding to the value 703 of the valley of the histogram is set as a luminance threshold value in the attribute generation unit 409, and each image processing parameter is changed with this value as a boundary. Therefore, even when the subject moves, the same gamma correction is continuously applied to the same subject. Similarly, the white balance process for bright pixels is also maintained.

ここで、ホワイトバランス処理について詳細に説明する。ホワイトバランスは自動設定と、手動設定の2つの動作モードを有している。この動作モードは、クライアント120から指定されるが、クライアントの動作については後述する。   Here, the white balance processing will be described in detail. White balance has two operation modes: automatic setting and manual setting. This operation mode is designated by the client 120, and the operation of the client will be described later.

また、ホワイトバランスの自動モードが指定される場合は、ホワイトバランスの測定領域を示す領域情報もクライアント120からカメラ110に送られてくる。手動モードでは、クライアント120からホワイトバランスの色温度情報や光源情報を受信する。この手動モード、自動モードの設定はステップS504のヒストグラム解析において2つの領域が検出された際は、其々の領域に対応する設定が可能であるため、2つの設定情報をカメラ110で受信することになる。   When the white balance automatic mode is designated, the area information indicating the white balance measurement area is also sent from the client 120 to the camera 110. In the manual mode, white balance color temperature information and light source information are received from the client 120. The manual mode and the automatic mode are set such that when two areas are detected in the histogram analysis in step S504, settings corresponding to the respective areas can be made, so that the camera 110 receives the two setting information. become.

自動モードが選択された際には、クライアント120から指定された測定領域から白と思われる画素を抽出する(例えば、ノイズ以外であって、一番、白の値に近い画素値を有する画素を抽出する)。次に抽出された白と思われる画素の値を、白の値に近づけるような色変換の係数を算出し、算出された係数に基づく色変換の処理を処理対象の画素全体にかけることで、ホワイトバランス調整を行う。一方で、クライアント120から測定領域の指定がない場合は、マップにより分割されたそれぞれの領域から白と思われる画素を抽出して、各領域の其々について係数を算出し色変換してホワイトバランス調整を実施する。   When the automatic mode is selected, a pixel that is considered to be white is extracted from the measurement region designated by the client 120 (for example, a pixel other than noise and having a pixel value closest to the white value is selected. Extract). Next, by calculating a color conversion coefficient that approximates the extracted white pixel value to the white value, and applying the color conversion process based on the calculated coefficient to the entire processing target pixel, Adjust the white balance. On the other hand, if the measurement area is not designated by the client 120, pixels that are considered to be white are extracted from each area divided by the map, a coefficient is calculated for each area, color conversion is performed, and white balance is obtained. Make adjustments.

手動モードの場合は、マップで分けられたそれぞれの領域ごとにクライアント120から指定された色温度や光源情報に基づいてホワイトバランスの調整を行うが、輝度値しきい値を持ち、しきい値を超える画素と超えない画素で処理パラメータを異ならせることでホワイトバランスの設定を行うように構成する。   In the manual mode, the white balance is adjusted based on the color temperature and light source information specified from the client 120 for each area divided by the map. The configuration is such that the white balance is set by changing the processing parameters for the pixels that do not exceed the pixels that do not.

さらに、ホワイトバランス調整以外の画像処理、例えば、ノイズリダクション処理やシャープネス処理、コントラスト調整、彩度調整も同様にアトリビュート生成部409に設定された輝度しきい値により処理設定を変えることができる。   Furthermore, image processing other than white balance adjustment, for example, noise reduction processing, sharpness processing, contrast adjustment, and saturation adjustment can be similarly changed according to the brightness threshold set in the attribute generation unit 409.

図13にアトリビュート生成部409が設定するしきい値により画像処理部207の各構成のパラメータが切り替えられる様子を示す。各画像処理部207の構成毎に、アトリビュート生成部409に設定された輝度しきい値との比較によって処理内容を設定可能となる。ホワイトバランスは、しきい値未満の暗い領域ではAuto、しきい値以上の明るい領域ではManual(5500K)に設定する。また、ノイズリダクション、シャープネス等についても同様に、図13に示す様に設定する。   FIG. 13 shows how the parameters of each component of the image processing unit 207 are switched according to the threshold value set by the attribute generation unit 409. For each configuration of each image processing unit 207, the processing content can be set by comparison with the luminance threshold value set in the attribute generation unit 409. The white balance is set to Auto in a dark area below the threshold value and set to Manual (5500 K) in a bright area above the threshold value. Similarly, noise reduction, sharpness, etc. are set as shown in FIG.

例えば、ノイズリダクションについては、しきい値以上の明るい領域については、しきい値未満の領域よりもノイズリダクションが弱めに実施される様なパラメータを設定する。シャープネス、コントラスト調整、彩度調整については、しきい値以上の明るい領域については、しきい値未満の領域よりも各処理が強めに実施されるようなパラメータを設定する。以上の様に明るい領域として合成されている領域について、パラメータを切り替えることで、より好ましい色再現性を得ることができる。   For example, for noise reduction, a parameter is set such that noise reduction is performed weaker in a bright area above the threshold than in an area below the threshold. For sharpness, contrast adjustment, and saturation adjustment, parameters are set such that each process is executed more strongly in a bright area that is equal to or greater than the threshold value than in an area that is less than the threshold value. As described above, more preferable color reproducibility can be obtained by switching the parameter for the region synthesized as a bright region.

次に、クライアント120の処理について説明する。クライアント120においては、カメラ110から配信される動画像を表示するとともに、カメラ110へ撮影に関する設定やネットワークに関する設定を行うことができる。   Next, processing of the client 120 will be described. In the client 120, a moving image distributed from the camera 110 can be displayed, and settings related to shooting and network settings can be performed on the camera 110.

ここで、ユーザーのホワイトバランスの設定について図12を用いて説明する。まず、ステップS1201においてクライアント120は、ホワイトバランス設定のモードに遷移するとカメラ110に対して、画像処理部207におけるステップS504で検出されたピーク数と、ステップS505で作成されたマップに更新があるかどうかを確認する。更新がある場合にステップS1202およびステップS1203において、画像処理部207におけるステップS504で検出されたピーク数と、ステップS505で作成されたマップをカメラ110の通信部209が配信しクライアント120の通信部306が受信する。   Here, the setting of the user's white balance will be described with reference to FIG. First, in step S1201, when the client 120 transitions to the white balance setting mode, whether the number of peaks detected in step S504 in the image processing unit 207 and the map created in step S505 are updated for the camera 110. Check if. When there is an update, in step S1202 and step S1203, the communication unit 209 of the camera 110 distributes the peak number detected in step S504 in the image processing unit 207 and the map created in step S505, and the communication unit 306 of the client 120 Receive.

次に、ステップS1204において通信部306が110カメラ110の配信画像を受信する。さらに、ステップS1205において、表示部307が、ユーザーが使用するモニターやディスプレイなどの表示画面上にカメラ110から配信される撮影画像に上記で受信したマップを重畳して表示する。この時、マップ上で入出力特性が異なる領域を枠で囲ってもよいし、異なる色で塗りつぶしてもよいし、どちらか一方を点滅表示させたりクリック選択時に入出力特性に対応する文字列やシンボルを表示させたりしてもよい。   Next, in step S1204, the communication unit 306 receives the distribution image of the 110 camera 110. Further, in step S1205, the display unit 307 superimposes and displays the received map on the captured image distributed from the camera 110 on a display screen such as a monitor or display used by the user. At this time, areas with different input / output characteristics on the map may be surrounded by a frame, or may be filled with different colors, or either one of them blinks or a character string corresponding to the input / output characteristics when clicking is selected. A symbol may be displayed.

図7にユーザーがホワイトバランス調整領域およびホワイトバランス調整方法(動作モード)を選択する表示画面の一例を示す。本図は窓のある部屋を撮影した例の模式図であり左側に明るい窓があり外を歩く人物が写っている。また室内の人と植物が写っている例を示している。ユーザーは表示されたマップにより分けられた領域毎にホワイトバランス調整の白の基準の抽出領域を選択することができる。図7では、互いに異なるガンマカーブが適用される領域として、窓の外の明るい領域1001と、室内を撮影し、窓の外に比べて暗い領域1002とが区別可能な様にマップとして表示されている。そのため、各々の領域に対応するホワイトバランス調整方法を選択することができる。   FIG. 7 shows an example of a display screen on which the user selects a white balance adjustment region and a white balance adjustment method (operation mode). This figure is a schematic diagram of an example of a room with a window, with a bright window on the left and a person walking outside. It also shows an example of indoor people and plants. The user can select a white reference extraction region for white balance adjustment for each region divided by the displayed map. In FIG. 7, as areas to which different gamma curves are applied, a bright area 1001 outside the window and a room 1002 are displayed as a map so that a dark area 1002 can be distinguished from the outside of the window. Yes. Therefore, it is possible to select a white balance adjustment method corresponding to each region.

ここで、指定した領域に対してホワイトバランス調整モードは複数選ぶことができ、自動(Auto)で処理するモード、手動で光源または環境の種類などの色温度を選択するモードを選択することもできる。図7に示す例では、領域1001に対応する領域1と領域1002に対応する領域2の其々について、表示されている各種のホワイトバランス調整モードからユーザーが選択欄1006、選択欄1007から1つずつ指定できる。ホワイトバランス調整モードとしては「AWB(オート・ホワイト・バランス)」、「Fluorescent3000K,4000K,6500K(蛍光灯と色温度ケルビン)」、「Indoor(屋内)」、「Outdoor(屋外)」がある。もちろん、プルダウン形式で選択可能であってもよい。なお、初期設定は各領域「Auto」設定がされており、選択欄1006を選択することで「Manual」設定がされる。   Here, a plurality of white balance adjustment modes can be selected for the designated area, and a mode for automatically processing (Auto) and a mode for manually selecting a color temperature such as a light source or an environment type can also be selected. . In the example illustrated in FIG. 7, the user selects one from the selection column 1006 and the selection column 1007 for each of the region 1 corresponding to the region 1001 and the region 2 corresponding to the region 1002 from the various white balance adjustment modes displayed. Can be specified one by one. The white balance adjustment mode includes “AWB (auto white balance)”, “Fluorescent 3000K, 4000K, 6500K (fluorescent lamp and color temperature Kelvin)”, “Indoor (indoor)”, and “Outdoor (outdoor)”. Of course, it may be selectable in a pull-down format. Note that each area “Auto” is set as an initial setting, and “Manual” is set by selecting the selection field 1006.

さらに、自動で処理するモードの場合、マップにより分けられた領域ごとにホワイトバランスの測定領域として画像上の任意の位置(例えば、図7の領域1003、領域1004)をドラック&ドロップ等の操作で指定することもできる。このため、例えばユーザーが白基準となる領域(基準領域)をあらかじめ指定することでホワイトバランスの補正精度が高まる。図7では、白い壁が写っている場合に矩形1004を指定することで、ホワイトバランスの補正精度が好ましくなる。   Further, in the case of the automatic processing mode, an arbitrary position on the image (for example, the area 1003 and the area 1004 in FIG. 7) is operated by drag & drop or the like as a white balance measurement area for each area divided by the map. It can also be specified. For this reason, for example, the white balance correction accuracy is increased by designating a region (reference region) as a white reference in advance by the user. In FIG. 7, white balance correction accuracy is preferable by specifying a rectangle 1004 when a white wall is reflected.

このホワイトバランスの測定領域をユーザーが指定した場合、この測定領域を示す領域情報は画像処理部207のWB調整部405の設定値としてカメラ110へ送信される。ユーザーが指定し、カメラ110へ送信される領域の形は矩形以外の任意の形でもよい。また、特にユーザーがホワイトバランス領域を指定しない場合は、カメラ110にAutoを通知し、カメラ110において自動的にマップ毎のホワイトバランス調整を行うようにしてもよい。   When the user designates the white balance measurement area, the area information indicating the measurement area is transmitted to the camera 110 as a setting value of the WB adjustment unit 405 of the image processing unit 207. The shape of the area designated by the user and transmitted to the camera 110 may be any shape other than a rectangle. In particular, when the user does not designate a white balance area, Auto may be notified to the camera 110, and the camera 110 may automatically perform white balance adjustment for each map.

以上のとおり、本発明によれば、ガンマカーブ毎にホワイトバランス補正を適用することで、照度差または環境が異なる領域に対して色を正確に再現することができる。   As described above, according to the present invention, by applying white balance correction for each gamma curve, it is possible to accurately reproduce colors for areas with different illuminance differences or environments.

さらに、本実施形態においては、位置的な領域ではなく、輝度の高い低いといった輝度領域において処理を変えているため、例えばカメラの画角がパンやチルトといった変化がある場面や、夜間の交通監視のように画面中を明るい被写体が移動するような場面においても、照度差または環境が異なる領域に対して色を正確に再現することができる。   Furthermore, in the present embodiment, since the processing is changed not in the position area but in the brightness area where the brightness is high and low, for example, when the angle of view of the camera changes such as panning and tilting, and at night traffic monitoring Even in such a scene where a bright subject moves in the screen, colors can be accurately reproduced for areas with different illuminance differences or environments.

<<実施形態2>>
次に、本発明の実施形態2について説明する。実施形態1では、1枚の画像中の明部をヒストグラム解析し、輝度で分割した部分領域毎に異なるガンマ調整値(ガンマ曲線)を用いて画像を作成し、ホワイトバランスを明部と暗部で異ならせる実施形態について述べた。本実施形態においては、さらに露出の異なる複数枚の画像を合成して合成画像を生成する実施形態について説明する。
<< Embodiment 2 >>
Next, Embodiment 2 of the present invention will be described. In the first embodiment, a bright portion in one image is subjected to histogram analysis, an image is generated using a different gamma adjustment value (gamma curve) for each partial region divided by luminance, and white balance is adjusted between the bright portion and the dark portion. Different embodiments have been described. In the present embodiment, an embodiment in which a plurality of images with different exposures are combined to generate a combined image will be described.

なお、実施形態1と同一機能を有する構成や工程には同一符号を付すとともに、構成的、機能的に変わらないものについては、その説明を省略する。   In addition, while the same code | symbol is attached | subjected to the structure and process which have the same function as Embodiment 1, the description is abbreviate | omitted about the thing which does not change structurally and functionally.

本実施形態では、互いに露出が異なる撮像条件で撮像した2枚のフレーム(撮像画像)を取得し、そのうち明るい被写体側に対応するフレームを実施形態1の方法でヒストグラム解析、現像処理、ガンマ調整処理を行い、その後にすべてのフレームを合成して合成画像として出力する。もちろん、露出を変えて撮像した画像を合成する数は2つに限定されるものではなく、3枚以上の撮像画像を合成してもよい。また、本実施形態では、簡便のため撮影エリア全体を合成する例について説明するが、これに限らず撮影される画像の少なくとも一部について合成するようにしてもよい。   In the present embodiment, two frames (captured images) captured under imaging conditions with different exposures are acquired, and a frame corresponding to the bright subject side is analyzed by histogram analysis, development processing, and gamma adjustment processing using the method of the first embodiment. After that, all the frames are combined and output as a combined image. Of course, the number of images to be combined with different exposures is not limited to two, and three or more captured images may be combined. In the present embodiment, an example in which the entire shooting area is combined for simplicity is described. However, the present invention is not limited to this, and at least a part of the captured image may be combined.

まず、図8を用いて画像処理部207の動作フローについて説明する。ステップS501、S502は実施形態1と同様で、本実施形態ではステップS1101において画像処理部207が、合成のために必要なフレーム分の画像を受信し現像処理をしたかを判断する。なお、本実施形態では互いに露出条件の異なる撮影で得られた2枚の画像を取得する。露出の条件としては、シャッター速度を変えてもよいし、撮像素子のゲインを変えてもよいし、シャッター速度とゲインの双方を変えてもよい。合成に必要な枚数が受信されていれば、ステップS503に遷移し、必要な枚数に達していなければ、ステップS501に戻る。   First, the operation flow of the image processing unit 207 will be described with reference to FIG. Steps S501 and S502 are the same as those in the first embodiment. In this embodiment, in step S1101, the image processing unit 207 determines whether an image for a frame necessary for composition has been received and developed. In the present embodiment, two images obtained by photographing with different exposure conditions are acquired. As an exposure condition, the shutter speed may be changed, the gain of the image sensor may be changed, or both the shutter speed and the gain may be changed. If the required number of sheets has been received, the process proceeds to step S503. If the required number has not been reached, the process returns to step S501.

次にステップS504において、実施形態1におけるステップS503と同様にクライアント120からマップ作成の指示があるかどうかを判定する。ここで、実施形態2におけるマップ作成について説明する。マップ作成が必要な場合は、実施形態1と同様にステップS504においてヒストグラム解析を行い、ステップS505においてピークの数を判定する。ここで、ヒストグラム解析処理部411がヒストグラム解析を行うフレームは、高EVフレーム(後述する)とする。ヒストグラムの解析方法については、実施形態1と同様であるため説明を省略する。ここで、高EV・低EVフレームについて説明を補足する。図9のように、明るい対象物に露出を合わせて撮影したフレーム(以降、高EVフレーム)を図9(a)、暗い対象物に露出を合わせて撮影したフレーム(以降、低EVフレーム)を図9(c)に示す。低EVフレーム図9(c)では、明るい窓の外などは白飛んでしまう一方、暗い室内は適正値に近い露出が得られる。ここで、EVとは露出値(Exposure Value)のことを示す。   Next, in step S504, it is determined whether or not there is a map creation instruction from the client 120 as in step S503 in the first embodiment. Here, map creation in the second embodiment will be described. If map creation is necessary, a histogram analysis is performed in step S504 as in the first embodiment, and the number of peaks is determined in step S505. Here, the frame for which the histogram analysis processing unit 411 performs the histogram analysis is a high EV frame (described later). Since the histogram analysis method is the same as that of the first embodiment, the description thereof is omitted. Here, the description of the high EV / low EV frame will be supplemented. As shown in FIG. 9, a frame (hereinafter referred to as a high EV frame) shot with a bright object adjusted for exposure (hereinafter, a high EV frame) is shown in FIG. 9A, and a frame shot with a dark object adjusted for exposure (hereinafter referred to as a low EV frame). As shown in FIG. In the low EV frame FIG. 9 (c), the outside of a bright window is whitened, while an exposure close to an appropriate value is obtained in a dark room. Here, EV represents an exposure value (Exposure Value).

ステップS505でピークの数が2つである場合に、ステップS506においてマップを作成する。本実施形態では、2枚の露出の異なるフレームの合成を想定しているため、マップは複数画像の合成比率に応じたマップとなる。具体的には、輝度の低い側から、低EVフレーム比率が100%のエリア、低EVフレームと高EVフレームの混合エリア、高EVフレーム比率100%のエリア、高EVフレーム比率100%であり、かつ複数のピークが検出されガンマ特性の異なるエリアの4カテゴリーを持つマップとなる。もちろんマップ作成は、高EVフレーム、もしくは低EVフレームに対して行ってもよい。図9の撮影シーンにおいて本実施形態で作成されたマップの例を図10(b)に示す。   If the number of peaks is two in step S505, a map is created in step S506. In this embodiment, since it is assumed that two frames with different exposures are combined, the map is a map corresponding to a combination ratio of a plurality of images. Specifically, from the low luminance side, the area where the low EV frame ratio is 100%, the mixed area of the low EV frame and the high EV frame, the area where the high EV frame ratio is 100%, and the high EV frame ratio are 100%, A plurality of peaks are detected, and the map has four categories of areas having different gamma characteristics. Of course, the map creation may be performed for a high EV frame or a low EV frame. FIG. 10B shows an example of a map created in the present embodiment in the shooting scene of FIG.

陰になっている暗いエリア1401は、低EVフレーム比率が100%のエリアである。もっとも広いエリア1402は、低EVフレームと高EVフレームの混合エリアとなっている。室内の人が明るく映っているため、エリア1403は高EVフレーム比率100%のエリアとなっている。窓の外が写っているエリア1404はもっとも明るく、高EVフレーム比率100%であり、複数ピークが検出されガンマ特性の異なるエリアとなっている。ここで作成されたマップはクライアント120へ送信される。   A shaded dark area 1401 is an area where the low EV frame ratio is 100%. The widest area 1402 is a mixed area of a low EV frame and a high EV frame. Since an indoor person is reflected brightly, the area 1403 is an area having a high EV frame ratio of 100%. An area 1404 in which the outside of the window is reflected is the brightest and has a high EV frame ratio of 100%, and a plurality of peaks are detected and the areas have different gamma characteristics. The map created here is transmitted to the client 120.

その後、ステップS507の処理は、実施形態1と同様である。図9(a)に示す明るい対象物に露出を合わせて撮影した画像に、ヒストグラム解析を行い、現像、ガンマ調整処理を行った画像を図9(b)に示す。ガンマを調整したことで、窓の外の明るい領域の輝度が下がり適切な輝度になる。   Thereafter, the processing in step S507 is the same as that in the first embodiment. FIG. 9B shows an image obtained by performing histogram analysis, developing, and gamma adjustment processing on the image taken with exposure adjusted to the bright object shown in FIG. By adjusting the gamma, the brightness of the bright area outside the window is lowered to an appropriate brightness.

次に、ステップS1103で高EVフレームのガンマ調整後の画像と低EVフレームの合成処理をWDR合成処理部414により行う。WDR合成処理部414による合成処理について、図10(a)を参照して説明する。図10(a)の横軸は基準輝度を、縦軸は画像を加算合成する際の合成比率を表す。実線1301で示す合成比率は、基準輝度に対する低EVフレームの合成比率を表し、1点鎖線1302で示す合成比率は、基準輝度に対する高いEVフレームの合成比率を表している。合成する際の基準輝度の閾値Y1より暗い領域は低EVフレームのみを使用し、基準輝度の閾値Y2より明るい領域では高EVフレームのみを用いる。また、基準輝度の閾値付近の境界Y1〜Y2の中間領域では、合成比率を徐々に変化させることで画像の切り替えを滑らかにすることができる。基準輝度として用いるのは、本実施形態では高EVフレームとなる。   Next, in step S1103, the WDR composition processing unit 414 performs composition processing of the image after the gamma adjustment of the high EV frame and the low EV frame. A synthesis process performed by the WDR synthesis processing unit 414 will be described with reference to FIG. In FIG. 10A, the horizontal axis represents the reference luminance, and the vertical axis represents the combination ratio when the images are added and combined. A combination ratio indicated by a solid line 1301 represents a combination ratio of a low EV frame with respect to the reference luminance, and a combination ratio indicated by a one-dot chain line 1302 represents a combination ratio of a high EV frame with respect to the reference luminance. Only a low EV frame is used for an area darker than the reference luminance threshold Y1 when combining, and only a high EV frame is used for an area brighter than the reference luminance threshold Y2. Also, in the intermediate region between the boundaries Y1 and Y2 near the reference luminance threshold, the image switching can be made smooth by gradually changing the composition ratio. In this embodiment, a high EV frame is used as the reference luminance.

図9(d)に合成処理後の画像を示す。図9(a)と図9(c)が合成されることで、明るいエリアから暗いエリアまで表現できるダイナミックレンジの広い画像となっている。なお、クライアント120における処理は、マップ情報の領域数が4つになること以外は、実施形態1と同様である。   FIG. 9D shows an image after the synthesis process. By combining FIG. 9A and FIG. 9C, an image having a wide dynamic range that can be expressed from a bright area to a dark area is obtained. The processing in the client 120 is the same as that in the first embodiment except that the number of map information areas is four.

以上により、WDR撮影においてもガンマカーブ毎にホワイトバランス補正を適用することで、照度差または環境が異なる領域に対して色を正確に再現することができる。   As described above, even in WDR shooting, by applying white balance correction for each gamma curve, it is possible to accurately reproduce colors for areas with different illuminance differences or environments.

さらに、本実施形態においては、位置的な領域ではなく、輝度の高い低いといった輝度領域において処理を変えているため、例えばカメラの画角についてパンやチルトといった変化がある場面や、夜間の交通監視のように画面中を明るい被写体が移動するような場面においても、照度差または環境が異なる領域に対して色をより正確に再現することができる。   Furthermore, in the present embodiment, since the processing is changed not in the position area but in the brightness area where the brightness is high and low, for example, a scene where the angle of view of the camera changes such as pan or tilt, or night traffic monitoring Even in such a scene where a bright subject moves in the screen as described above, it is possible to more accurately reproduce the color for areas with different illuminance differences or environments.

<<実施形態3>>
次に、本発明の実施形態3について説明する。実施形態1および実施形態2では、輝度に基づいて分割した範囲の其々に異なるガンマ調整値を設定しホワイトバランス調整を行うのに対して、本実施形態では輝度に基づいて分割した範囲の其々に異なるガンマ調整値と優先モードとを適用する。なお、実施形態1、2と同一機能を有する構成や工程には同一符号を付すとともに、構成的、機能的に変わらないものについては、その説明を省略する。
<< Embodiment 3 >>
Next, a third embodiment of the present invention will be described. In the first embodiment and the second embodiment, a different gamma adjustment value is set for each of the ranges divided based on the luminance to perform white balance adjustment, whereas in the present embodiment, each of the ranges divided based on the luminance is set. Different gamma adjustment values and priority modes are applied. In addition, while the same code | symbol is attached | subjected to the structure and process which have the same function as Embodiment 1, 2, the description is abbreviate | omitted about what does not change structurally and functionally.

クライアントの動作について説明する。図11(a)はユーザーが設定するための表示画面(GUI)の一例である。ユーザーは、クライアント120で表示画面に重畳されたマップ情報をもとに優先させたいモード、例えば「動き優先」、「ノイズ優先」または「解像度優先」などを選択することができる。本実施形態では、マップは最大4つの領域を持つが、例えば、シャッター速度を変える変更の場合、本実施形態では2枚の合成となるため、高EVフレームと高EVフレームのガンマ特性の異なる領域を分けることは意味をなさないため、設定項目によってユーザーに表示する領域を削減してもよい。   The operation of the client will be described. FIG. 11A shows an example of a display screen (GUI) for setting by the user. The user can select a mode that the client 120 wants to prioritize based on the map information superimposed on the display screen, such as “motion priority”, “noise priority”, or “resolution priority”. In this embodiment, the map has a maximum of four areas. For example, in the case of changing the shutter speed, in this embodiment, since two images are combined, areas having different gamma characteristics between the high EV frame and the high EV frame. Since it does not make sense to divide, the area displayed to the user may be reduced depending on the setting item.

ユーザーが選択した優先モードを適用した場合のカメラ設定変更の一例を図11(b)に示す。例として、図11(a)に示すように領域601で「動き優先」が選択された場合について説明する。   An example of the camera setting change when the priority mode selected by the user is applied is shown in FIG. As an example, a case where “motion priority” is selected in the area 601 as shown in FIG.

図11(b)にあるように、領域601に対応するフレームのシャッター速度はそれ以外が選択された場合に比べ短い値になる。これにより、動きブレの少ない画像を取得することができる。なお、実施形態1において、ノイズリダクション強度を弱めることでも同様に動きブレを弱めることができるため、この方法を用いてもよい。   As shown in FIG. 11B, the shutter speed of the frame corresponding to the region 601 is shorter than that when the other is selected. Thereby, an image with little motion blur can be acquired. In the first embodiment, it is also possible to use this method because motion blur can be similarly reduced by reducing the noise reduction intensity.

さらに、領域602について「解像度」優先が設定されている場合は、図11(b)に示すようにエッジ強調などのシャープネス調整、またはガンマカーブの調整をすることでコントラストの高めた解像感の高い画像を得ることができる。なお、ノイズリダクションを弱めることでコントラストを強める補正などをしてもよい。   Further, when “resolution” priority is set for the region 602, the sharpness adjustment such as edge enhancement or the gamma curve adjustment as shown in FIG. A high image can be obtained. In addition, you may correct | amend etc. which strengthen contrast by weakening noise reduction.

本発明によれば、異なるガンマカーブ毎に優先モードを適用することで、照度差または環境が異なる領域ごとに動きぶれが少ない、ノイズが低い、シャープネスが高い画像などを詳細に設定することで、ユーザーの所望の画像を得ることができる。   According to the present invention, by applying the priority mode for each different gamma curve, by setting in detail an image with low motion blur, low noise, high sharpness, etc. for each region with different illuminance differences or environments, A user's desired image can be obtained.

また、上述の実施形態では、互いに異なるガンマカーブを適用する領域(第1領域、第2領域)を主とした説明をしているが、互いに異なる露出設定を適用する領域についても、本発明を適用することもできる。詳細には、合成画像について領域毎に異なる露出補正を適用する場合について、領域毎に上述の実施形態で示す補正処理を設定し、適用できるようにしてもよい。   Further, in the above-described embodiment, the description is mainly made on the areas to which different gamma curves are applied (first area and second area), but the present invention is also applied to areas to which different exposure settings are applied. It can also be applied. Specifically, when different exposure correction is applied for each region of the composite image, the correction processing shown in the above-described embodiment may be set for each region and applied.

<<実施形態4>>
次に、本発明の実施形態4について説明する。実施形態1および実施形態2では、輝度に基づいて分割した範囲の其々に異なるガンマ調整値を設定しホワイトバランス調整を行うのに対して、本実施形態ではフォーカスの調整を行う。なお、実施形態1、2と同一機能を有する構成や工程には同一符号を付すとともに、構成的、機能的に変わらないものについては、その説明を省略する。
<< Embodiment 4 >>
Next, a fourth embodiment of the present invention will be described. In the first and second embodiments, a different gamma adjustment value is set for each of the ranges divided based on the luminance to perform white balance adjustment, whereas in this embodiment, focus adjustment is performed. In addition, while the same code | symbol is attached | subjected to the structure and process which have the same function as Embodiment 1, 2, the description is abbreviate | omitted about what does not change structurally and functionally.

本実施形態では、実施形態2における露出の異なる複数枚の画像を合成して合成画像を生成する実施形態に基づいて説明するが、実施形態1に基づく1枚の画像に適応してもよい。   In the present embodiment, a description will be given based on an embodiment in which a plurality of images with different exposures in the second embodiment are combined to generate a combined image, but the present invention may be applied to one image based on the first embodiment.

まず、図14に本実施形態の画像処理部207の構成の詳細を示す。本実施形態においては、画像処理部207の現像処理部400にフォーカス評価値取得部1701を持つ。フォーカス評価値取得部1701は、指定されたエリアのフォーカスの評価値を取得する取得部であり、露出の異なる複数枚の画像それぞれについてフォーカス評価値を取得する。   First, FIG. 14 shows details of the configuration of the image processing unit 207 of the present embodiment. In the present embodiment, the development processing unit 400 of the image processing unit 207 has a focus evaluation value acquisition unit 1701. A focus evaluation value acquisition unit 1701 is an acquisition unit that acquires a focus evaluation value of a designated area, and acquires a focus evaluation value for each of a plurality of images with different exposures.

次に、図15を用いて撮像系制御部206および画像処理部207の動作フローについて説明する。本実施形態では、S501の画像受信ののちに、フォーカス評価値取得部1701においてフォーカス評価値を取得する(ステップS1501)。次のS502、S1101は実施形態2と同様の処理であり説明を省略する。   Next, the operation flow of the imaging system control unit 206 and the image processing unit 207 will be described with reference to FIG. In this embodiment, after the image reception in S501, the focus evaluation value acquisition unit 1701 acquires the focus evaluation value (step S1501). The next steps S502 and S1101 are the same as those in the second embodiment, and a description thereof will be omitted.

次に、S1502においてS1501で取得したフォーカス評価値を用いてフォーカス処理を行う。フォーカス評価値は、ユーザーから指定されたエリアの評価値が、露出の異なる画像ごとに保持されている。本ステップにおいてユーザーから指定された露出の画像のフォーカス評価値を基にフォーカスを駆動する。   Next, in S1502, focus processing is performed using the focus evaluation value acquired in S1501. As the focus evaluation value, the evaluation value of the area designated by the user is held for each image with different exposure. In this step, focus is driven based on the focus evaluation value of the exposure image specified by the user.

ここで、ユーザー指定エリアとフォーカス評価値について詳細に説明する。ユーザーは、実施形態1及び2と同様の図10(b)に示すマップの領域エリア1401〜1404からフォーカス判定に用いる領域を選択する。   Here, the user designated area and the focus evaluation value will be described in detail. The user selects an area used for focus determination from the area areas 1401 to 1404 of the map shown in FIG.

エリア1401は、低EVフレーム比率が100%のエリアであるため、ユーザーがこのエリアを選択した場合には、低EVフレームを基にフォーカス評価値を算出する。エリア1403、およびエリア1404は、高EVフレーム比率が100%のエリアであるため、ユーザーがこのエリアを選択した場合には、高EVフレームを基にフォーカス評価値を算出する。   Since the area 1401 is an area having a low EV frame ratio of 100%, when the user selects this area, the focus evaluation value is calculated based on the low EV frame. Since the area 1403 and the area 1404 are areas having a high EV frame ratio of 100%, when the user selects this area, the focus evaluation value is calculated based on the high EV frame.

エリア1402は、低EVフレームと高EVフレームの混合エリアとなっている。このエリアを指定した場合は、高EV,低EVどちらのフレームを用いてもよい。本実施形態では、フォーカス評価値が高い値であるフレームのフォーカス評価値を採用した。   An area 1402 is a mixed area of a low EV frame and a high EV frame. When this area is designated, either a high EV frame or a low EV frame may be used. In this embodiment, the focus evaluation value of a frame having a high focus evaluation value is used.

以降のS503〜S1103は実施形態2と同様の処理になるため説明を省略する。   Subsequent steps S503 to S1103 are the same as those in the second embodiment, and a description thereof will be omitted.

以上説明してきた構成により、ユーザーはフォーカス対象となるエリアを指定できるため、フォーカスしたい領域と露出を選択でき、所望のエリアに対して視認性を向上することができる。さらに、被写体に動きがある場合においても、露出を指定してフォーカス評価値を取得しているため、被写体の動きによって評価値が変化することなく安定した値を取得できる。   With the configuration described above, the user can specify an area to be focused, so that it is possible to select a region to be focused and exposure, and to improve the visibility with respect to a desired area. Furthermore, even when the subject is moving, since the focus evaluation value is acquired by specifying the exposure, a stable value can be acquired without changing the evaluation value due to the movement of the subject.

また、実施形態1及び2において実施しているS507ガンマ調整処理は、本実施形態とは依存せずに実行の可否を設定可能である。   The S507 gamma adjustment processing implemented in the first and second embodiments can be set to be executable without depending on the present embodiment.

<<その他の実施形態>>
その他の実施形態として、実施形態1および2においてホワイトバランス調整を行い、実施形態3では画像パラメータ調整、実施形態4においてはフォーカス調整を行っていたが、本実施形態では指定されたエリアに対して上述の複数の調整機能を選択的に実施してもよい。
<< Other Embodiments >>
As other embodiments, the white balance adjustment is performed in the first and second embodiments, the image parameter adjustment is performed in the third embodiment, and the focus adjustment is performed in the fourth embodiment. The plurality of adjustment functions described above may be selectively performed.

図16にユーザーが設定するための表示画面(GUI)の一例を示す。ユーザーはクライアント120で表示画面に重畳されたマップ情報をもとに調整したいモード、例えば「ノイズ優先」、「フォーカス」、「ホワイトバランス」など複数選択可能である。ただし、フォーカスについては、一つのマップ情報でのみ有効に設定可能となる。   FIG. 16 shows an example of a display screen (GUI) for setting by the user. The user can select a plurality of modes such as “noise priority”, “focus”, and “white balance” that the client 120 wants to adjust based on the map information superimposed on the display screen. However, the focus can be set effectively only with one map information.

これにより、ユーザーが注目している露出エリアに対して、前述の調整処理を選択的に一括して設定することが可能となり、容易に所望の画像を得ることができる。   As a result, the above-described adjustment process can be selectively set collectively for the exposure area that the user is paying attention to, and a desired image can be easily obtained.

また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

Claims (22)

撮像装置と画像処理装置とを有する画像処理システムであって、
前記撮像装置は、
撮像画像を取得する撮像手段と、
前記撮像手段により取得した撮像画像について、第1の入出力特性を適用する第1領域と、第2の入出力特性を適用する第2領域とを設定する設定手段と、
前記第1領域または前記第2領域の少なくとも一方を示す領域情報を出力する出力手段と、を備え、
前記画像処理装置は、
前記撮像装置から前記領域情報を取得し、前記第1領域と前記第2領域とを区別して表示させる表示制御手段を備えることを特徴とする画像処理システム。
An image processing system having an imaging device and an image processing device,
The imaging device
An imaging means for acquiring a captured image;
Setting means for setting a first area to which the first input / output characteristic is applied and a second area to which the second input / output characteristic is applied to the captured image acquired by the imaging means;
Output means for outputting area information indicating at least one of the first area and the second area,
The image processing apparatus includes:
An image processing system comprising: display control means for acquiring the region information from the imaging device and displaying the first region and the second region separately.
前記撮像手段は互いに異なる撮像条件で撮像した複数の撮像画像を取得し、前記設定手段は前記複数の撮像画像の輝度値に基づいて前記第1領域と前記第2領域とを設定することを特徴とする請求項1に記載の画像処理システム。   The imaging unit acquires a plurality of captured images captured under different imaging conditions, and the setting unit sets the first region and the second region based on luminance values of the plurality of captured images. The image processing system according to claim 1. 前記撮像条件は露出条件であり、前記撮像装置は前記設定手段により設定した第1領域の輝度と第2領域の輝度と、前記複数の撮像画像とに基づいて、ダイナミックレンジを拡張した合成画像を取得する合成手段を更に備えることを特徴とする請求項2に記載の画像処理システム。   The imaging condition is an exposure condition, and the imaging apparatus generates a composite image with an expanded dynamic range based on the brightness of the first area and the brightness of the second area set by the setting unit and the plurality of captured images. The image processing system according to claim 2, further comprising a synthesizing unit for acquiring. 前記入出力特性はガンマ曲線であって、前記第1の入出力特性に対応する第1のガンマ曲線と前記第2の入出力特性に対応する第2のガンマ曲線とは不連続であることを特徴とする請求項1乃至3のいずれか1項に記載の画像処理システム。   The input / output characteristic is a gamma curve, and the first gamma curve corresponding to the first input / output characteristic and the second gamma curve corresponding to the second input / output characteristic are discontinuous. The image processing system according to any one of claims 1 to 3, wherein the image processing system is characterized in that: 前記画像処理装置は、前記表示制御手段で表示させている前記第1領域と前記第2領域の其々について、補正処理の適用を受け付ける受付手段を更に備えることを特徴とする請求項1乃至4のいずれか1項に記載の画像処理システム。   5. The image processing apparatus further comprises accepting means for accepting application of correction processing for each of the first area and the second area displayed by the display control means. The image processing system according to any one of the above. 前記撮像手段は、前記受付手段で受け付けた補正処理を実施する現像処理手段を更に備えることを特徴とする請求項5に記載の画像処理システム。   The image processing system according to claim 5, wherein the imaging unit further includes a development processing unit that performs the correction process received by the receiving unit. 前記補正処理は、ホワイトバランスを調整する処理であることを特徴とする請求項5または6に記載の画像処理システム。   The image processing system according to claim 5, wherein the correction process is a process of adjusting white balance. 前記補正処理は、ノイズリダクション処理、シャープネス処理、色処理の少なくとも1つを含むことを特徴とする請求項5乃至7のいずれか1項に記載の画像処理システム。   The image processing system according to claim 5, wherein the correction processing includes at least one of noise reduction processing, sharpness processing, and color processing. 前記画像処理装置は、前記表示制御手段に表示させている前記第1領域と前記第2領域のいずれかについて、合焦度の評価値を算出する処理の指示を受け付ける受付手段を更に備えることを特徴とする請求項1乃至4のいずれか1項に記載の画像処理システム。   The image processing apparatus further includes a receiving unit that receives a processing instruction for calculating an evaluation value of a degree of focus for either the first region or the second region displayed on the display control unit. The image processing system according to any one of claims 1 to 4, wherein the image processing system is characterized in that: 撮像画像を取得する撮像手段と、
前記撮像手段により取得した撮像画像について、第1の入出力特性を適用する第1領域と、第2の入出力特性を適用する第2領域とを設定する設定手段と、
前記第1領域または前記第2領域の少なくとも一方を示す領域情報を出力する出力手段とを有することを特徴とする撮像装置。
An imaging means for acquiring a captured image;
Setting means for setting a first area to which the first input / output characteristic is applied and a second area to which the second input / output characteristic is applied to the captured image acquired by the imaging means;
An imaging apparatus comprising: output means for outputting area information indicating at least one of the first area and the second area.
複数のホワイトバランスの設定値を持ち、前記第1領域または前記第2領域の輝度値に基づいて、前記複数のホワイトバランスの設定値を切り替えてホワイトバランスを調整する補正処理手段を更に備ることを特徴とする請求項10に記載の撮像装置。   Correction processing means having a plurality of white balance setting values and switching the plurality of white balance setting values and adjusting the white balance based on the luminance value of the first area or the second area; The imaging apparatus according to claim 10. 撮像画像について、第1の入出力特性を適用する第1領域と第2の入出力特性を適用する第2領域の少なくとも一方を示す領域情報を撮像装置から取得する取得手段と、
前記第1領域と前記第2領域とを区別して表示させる表示制御手段と
を有することを特徴とする画像処理装置。
Acquisition means for acquiring, from the imaging device, area information indicating at least one of a first area to which the first input / output characteristic is applied and a second area to which the second input / output characteristic is applied with respect to the captured image;
An image processing apparatus comprising: display control means for distinguishing and displaying the first area and the second area.
前記第1領域と前記第2領域の其々について、ホワイトバランスを調整するための設定を受付ける受付手段を更に有することを特徴とする請求項11に記載の画像処理装置。   The image processing apparatus according to claim 11, further comprising a receiving unit configured to receive a setting for adjusting a white balance for each of the first area and the second area. 前記第1領域と前記第2領域の其々について、ホワイトバランス調整のための基準領域の設定を受付ける受付手段を更に有することを特徴とする請求項11に記載の画像処理装置。   The image processing apparatus according to claim 11, further comprising a receiving unit configured to receive a setting of a reference area for white balance adjustment for each of the first area and the second area. 前記第1領域と前記第2領域の其々について、撮影の優先度の設定を受付ける受付手段を更に有することを特徴とする請求項11に記載の画像処理装置。   The image processing apparatus according to claim 11, further comprising a reception unit configured to receive setting of shooting priority for each of the first area and the second area. 前記第1領域と前記第2領域の其々について、画像処理パラメータの設定を受付ける受付手段を更に有することを特徴とする請求項11に記載の画像処理装置。   The image processing apparatus according to claim 11, further comprising an accepting unit that accepts setting of an image processing parameter for each of the first area and the second area. 前記第1領域と前記第2領域は互いに露出設定が異なる領域であることを特徴とする請求項11乃至15のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 11, wherein the first area and the second area are areas having different exposure settings. 撮像装置と画像処理装置とを有する画像処理システムの制御方法であって、
前記撮像装置が、
撮像画像を取得する取得工程と、
前記取得工程において取得した撮像画像について、第1の入出力特性を適用する第1領域と、第2の入出力特性を適用する第2領域とを設定する設定工程と、
前記第1領域または前記第2領域の少なくとも一方を示す領域情報を出力する出力工程と、を実施し、
前記画像処理装置が、
前記撮像装置から前記領域情報を取得する取得工程と、
前記第1領域と前記第2領域とを区別して表示させる表示制御工程とを実施することを特徴とする画像処理システムの制御方法。
A control method of an image processing system having an imaging device and an image processing device,
The imaging device is
An acquisition step of acquiring a captured image;
A setting step for setting a first region to which the first input / output characteristic is applied and a second region to which the second input / output characteristic is applied to the captured image acquired in the acquisition step;
An output step of outputting region information indicating at least one of the first region or the second region; and
The image processing apparatus is
An acquisition step of acquiring the region information from the imaging device;
A control method for an image processing system, comprising: performing a display control step of distinguishing and displaying the first area and the second area.
撮像装置の制御方法であって、
撮像画像を取得する取得工程と、
前記取得工程において取得した撮像画像について、第1の入出力特性を適用する第1領域と、第2の入出力特性を適用する第2領域とを設定する設定工程と、
前記第1領域または前記第2領域の少なくとも一方を示す領域情報を出力する出力工程とを有することを特徴とする撮像装置の制御方法。
A method for controlling an imaging apparatus,
An acquisition step of acquiring a captured image;
A setting step for setting a first region to which the first input / output characteristic is applied and a second region to which the second input / output characteristic is applied to the captured image acquired in the acquisition step;
And a step of outputting region information indicating at least one of the first region and the second region.
撮像装置と通信可能に接続されている画像処理装置の制御方法であって、
前記撮像装置から領域情報を取得する取得工程と、
前記第1領域と前記第2領域とを区別して表示させる表示制御工程と
を有することを特徴とする画像処理装置の制御方法。
A method for controlling an image processing apparatus connected to an imaging device in a communicable manner,
An acquisition step of acquiring region information from the imaging device;
A control method for an image processing apparatus, comprising: a display control step of displaying the first area and the second area separately.
コンピュータを、
撮像画像を取得する撮像手段と、
前記撮像手段により取得した撮像画像について、第1の入出力特性を適用する第1領域と、第2の入出力特性を適用する第2領域とを設定する設定手段と、
前記第1領域または前記第2領域の少なくとも一方を示す領域情報を出力する出力手段として機能させることを特徴とするプログラム。
Computer
An imaging means for acquiring a captured image;
Setting means for setting a first area to which the first input / output characteristic is applied and a second area to which the second input / output characteristic is applied to the captured image acquired by the imaging means;
A program that functions as output means for outputting area information indicating at least one of the first area and the second area.
コンピュータを、
撮像画像について、第1の入出力特性を適用する第1領域と第2の入出力特性を適用する第2領域の少なくとも一方を示す領域情報を撮像装置から取得する取得手段と、
前記第1領域と前記第2領域とを区別して表示させる表示制御手段と
して機能させることを有することを特徴とするプログラム。
Computer
Acquisition means for acquiring, from the imaging device, area information indicating at least one of a first area to which the first input / output characteristic is applied and a second area to which the second input / output characteristic is applied with respect to the captured image;
A program comprising: functioning as display control means for distinguishing and displaying the first area and the second area.
JP2018094397A 2017-08-09 2018-05-16 Image processing system, imaging apparatus, image processing apparatus, control method, and program Pending JP2019033470A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/056,144 US20190052803A1 (en) 2017-08-09 2018-08-06 Image processing system, imaging apparatus, image processing apparatus, control method, and storage medium
CN201810896293.4A CN109391804A (en) 2017-08-09 2018-08-08 Photographic device, image processing apparatus and system, control method and storage medium
EP18188039.4A EP3442218A1 (en) 2017-08-09 2018-08-08 Imaging apparatus and control method for outputting images with different input/output characteristics in different regions and region information, client apparatus and control method for receiving images with different input/output characteristics in different regions and region information and displaying the regions in a distinguishable manner

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017153813 2017-08-09
JP2017153813 2017-08-09

Publications (1)

Publication Number Publication Date
JP2019033470A true JP2019033470A (en) 2019-02-28

Family

ID=65523762

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018094397A Pending JP2019033470A (en) 2017-08-09 2018-05-16 Image processing system, imaging apparatus, image processing apparatus, control method, and program

Country Status (1)

Country Link
JP (1) JP2019033470A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020177340A (en) * 2019-04-16 2020-10-29 株式会社デンソー Image processing system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020177340A (en) * 2019-04-16 2020-10-29 株式会社デンソー Image processing system
JP7230658B2 (en) 2019-04-16 2023-03-01 株式会社デンソー Image processing device

Similar Documents

Publication Publication Date Title
CN111107276A (en) Information processing apparatus, control method thereof, storage medium, and imaging system
US20190082092A1 (en) Imaging apparatus, image processing apparatus, imaging method, image processing method, and storage medium
JP2022179514A (en) Control apparatus, imaging apparatus, control method, and program
CN110392205B (en) Image processing apparatus, information display apparatus, control method, and storage medium
JP2015211233A (en) Image processing apparatus and control method for image processing apparatus
JP2019033470A (en) Image processing system, imaging apparatus, image processing apparatus, control method, and program
JP5335964B2 (en) Imaging apparatus and control method thereof
EP3442218A1 (en) Imaging apparatus and control method for outputting images with different input/output characteristics in different regions and region information, client apparatus and control method for receiving images with different input/output characteristics in different regions and region information and displaying the regions in a distinguishable manner
JP6786273B2 (en) Image processing equipment, image processing methods, and programs
JP7224826B2 (en) Imaging control device, imaging control method, and program
JP2018195938A (en) Imaging apparatus, control method of imaging apparatus, and program
JP6157274B2 (en) Imaging apparatus, information processing method, and program
JP7075272B2 (en) Image processing equipment, information display equipment, control methods, and programs
JP7353864B2 (en) Information processing device, control method and program for information processing device, imaging system
JP5351663B2 (en) Imaging apparatus and control method thereof
WO2023245391A1 (en) Preview method and apparatus for camera
JP5483949B2 (en) Image processing apparatus, image processing method, and program
JP2019050551A (en) Imaging device, image processing device, imaging method, image processing method, and program
JP2023090492A (en) Image processing device, image processing method, and imaging apparatus
JP6039726B2 (en) Imaging apparatus and control method thereof
WO2019216072A1 (en) Image processing device, image processing method, and program
JP6232712B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP2020178166A (en) Projection control device, projection control method, and program
JP2019134332A (en) Image processor and control method therefor
JP2018019435A (en) Image processing apparatus