JP2019033470A - Image processing system, imaging apparatus, image processing apparatus, control method, and program - Google Patents
Image processing system, imaging apparatus, image processing apparatus, control method, and program Download PDFInfo
- Publication number
- JP2019033470A JP2019033470A JP2018094397A JP2018094397A JP2019033470A JP 2019033470 A JP2019033470 A JP 2019033470A JP 2018094397 A JP2018094397 A JP 2018094397A JP 2018094397 A JP2018094397 A JP 2018094397A JP 2019033470 A JP2019033470 A JP 2019033470A
- Authority
- JP
- Japan
- Prior art keywords
- area
- image processing
- region
- image
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Color Television Image Signal Generators (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、複数の画像を合成した撮影画像について領域毎の補正処理を適用する技術に関する。 The present invention relates to a technique for applying correction processing for each region to a captured image obtained by combining a plurality of images.
近年、ネットワークカメラを利用した監視システムが広く普及している。ネットワークカメラは大規模な公共機関や量販店などにおける監視カメラとして幅広い分野で利用されているため、屋内および屋外などの照度差の大きな環境または照明が異なる環境などに対してダイナミックレンジの拡大が課題になっている。 In recent years, monitoring systems using network cameras have become widespread. Since network cameras are used in a wide range of fields as surveillance cameras in large-scale public institutions and mass retailers, it is necessary to expand the dynamic range for environments with large illuminance differences, such as indoors and outdoors, or environments with different lighting. It has become.
また、色をより正確に表示することも要求されている。例えば特許文献1では、被写体の認識を行って異なる領域を区分し、区分された複数の領域に対して露出条件と画像処理条件とを含む撮像条件を決定する方法が記載されている。また、特許文献2では、複数の領域ごとにホワイトバランスを算出し補正することが提案されている。
It is also required to display colors more accurately. For example, Patent Document 1 describes a method of recognizing a subject to classify different areas and determine imaging conditions including an exposure condition and an image processing condition for the divided areas.
しかし、ダイナミックレンジの拡大などのために、互いに異なる入出力特性(ガンマ曲線)が画像内の複数の部分領域に其々適用されている画像について、補正処理をする場合に不具合が生じるおそれがある。詳細には、ユーザーが部分領域毎に適用された入出力特性を意識せずに画像全体を対象としたホワイトバランスなどの調整処理を行うと、好ましい色再現を得ることが困難である。 However, there is a possibility that a malfunction may occur when performing correction processing on an image in which different input / output characteristics (gamma curves) are applied to a plurality of partial areas in the image due to expansion of the dynamic range. . Specifically, when the user performs adjustment processing such as white balance for the entire image without being conscious of the input / output characteristics applied to each partial region, it is difficult to obtain preferable color reproduction.
上記課題を解決するために、本発明に係る画像処理システムは、撮像装置と画像処理装置とを有する画像処理システムであって、前記撮像装置は、撮像画像を取得する撮像手段と、前記撮像手段により取得した撮像画像について、第1の入出力特性を適用する第1領域と、第2の入出力特性を適用する第2領域とを設定する設定手段と、前記第1領域または前記第2領域の少なくとも一方を示す領域情報を出力する出力手段と、を備え、前記画像処理装置は、前記撮像装置から前記領域情報を取得し、前記第1領域と前記第2領域とを区別して表示させる表示制御手段を備えることを特徴とする。 In order to solve the above problems, an image processing system according to the present invention is an image processing system having an imaging device and an image processing device, the imaging device including an imaging unit that acquires a captured image, and the imaging unit. Setting means for setting a first area to which the first input / output characteristic is applied and a second area to which the second input / output characteristic is applied, and the first area or the second area, Output means for outputting area information indicating at least one of the display, the image processing apparatus acquires the area information from the imaging apparatus, and displays the first area and the second area separately Control means is provided.
本発明によれば、異なるガンマカーブなどを適用した領域をユーザーが識別し易い様にすることで、領域毎にホワイトバランス調整などの補正処理を適用しやすくし、好ましい色再現性を得ることができる。 According to the present invention, by making it easy for a user to identify a region to which a different gamma curve or the like is applied, correction processing such as white balance adjustment can be easily applied to each region, and preferable color reproducibility can be obtained. it can.
以下に、本発明の実施形態を図面に基づいて詳細に説明する。 Embodiments of the present invention will be described below in detail with reference to the drawings.
<<実施形態1>>
以下、図1〜図10を参照して、本発明の実施形態1について説明する。以下においては、本発明の一実施形態としてネットワークカメラについて説明する。
<< Embodiment 1 >>
Hereinafter, Embodiment 1 of the present invention will be described with reference to FIGS. In the following, a network camera will be described as an embodiment of the present invention.
図1は、実施形態1にかかる画像処理システムとしてのネットワークカメラシステムの概略構成の一例を示す図である。図1に示すように、ネットワークカメラシステム100は撮像装置としてのネットワークカメラ110(以降、カメラと称す)とビューワークライアント120(以降、クライアントと称す)とネットワーク130とを有している。カメラ110とクライアント120はネットワーク130によって互いに通信可能に接続されている。なお、撮影装置は、ネットワークカメラに限らず、たとえば、デジタル一眼レフカメラ、ミラーレス一眼カメラ、コンパクトデジタルカメラ、カムコーダ、タブレット端末、PHS、スマートフォン、フィーチャフォン、携帯ゲーム機など、撮影機能を有する別の携帯の装置に置き換えてもよい。
FIG. 1 is a diagram illustrating an example of a schematic configuration of a network camera system as an image processing system according to the first embodiment. As shown in FIG. 1, the
カメラ110は撮影(撮像)した画像を含む画像データを、ネットワーク130を介して配信する。クライアント120はカメラ110にアクセスして、カメラ110の初期設定をして、カメラ110の撮像パラメータを設定したり、配信設定をしたりする等して、所望の画像データを取得できるようにする。そして、クライアント120はカメラ110から配信された画像データを処理したり、配信された画像データを蓄積したり、蓄積された画像データなどを処理したりして、処理後の画像データに基づいて画像の表示を行う。
The
ネットワーク130は、カメラ110とクライアント120とを通信可能に接続するものであり、例えば、Ethernet等の通信規格を満足する複数のルータ、スイッチ、ケーブル等を含んでいる。なお、本実施形態において、ネットワーク130はカメラ110とクライアント120との間の通信(画像配信用とカメラの設定用)が支障なく行えるものであれば、その通信規格や規模、構成は問わない。したがって、ネットワーク130としては、インターネットから有線LAN、無線LANにいたるまで適用が可能である。
The
図2は、本実施形態におけるカメラ110の構成を示すブロック図である。撮像光学系201は対物レンズ、ズームレンズ、フォーカスレンズ、光学絞り等を備えており、被写体の光情報を後述の撮像素子部202へ集光する。撮像素子部202は、撮像光学系201にて集光された光情報を電流値へと変換する素子でCCDまたはCMOSセンサを備え、カラーフィルタなどと組み合わせることで色情報を取得する。ここで、撮像素子部202は基本的に、各画素について任意の露光時間を設定可能な撮像センサとする。
FIG. 2 is a block diagram showing a configuration of the
CPU203は、バス210に接続されている各構成の処理に関わる。例えば、ROM(Read Only Memory)204や、RAM(Random Access Memory)205に格納された命令をCUP203が順次に読み込み、解釈し、その結果に従って処理を実行する。撮像系制御部206は撮像光学系201に対して、フォーカスレンズを駆動しフォーカスを合わせたり、CPU203から絞りを調整するなどの指示があれば指示されたとおりの制御を行ったりする。
The
より詳細には、絞りの駆動制御はプログラムAE(Automatic Exposure)、シャッター速度優先AE、絞り優先AEなど、ユーザーが設定する撮影モードにより指定されるAE機能に基づいて計算された露出値に基づいて行われる。 More specifically, aperture drive control is based on an exposure value calculated based on an AE function specified by a shooting mode set by the user, such as a program AE (Automatic Exposure), shutter speed priority AE, or aperture priority AE. Done.
また、CPU203はAE制御に併せてAF(Autofocus)制御を行う。AF制御には、アクティブ方式、位相差検出方式、コントラスト検出方式等が適用される。なお、この種のAEおよびAFの構成および制御については周知の一般的な技術を利用すればよいため、ここで詳細な説明は省略する。
The
撮像素子部202においてデジタル化された画像信号は、画像処理部207に入力される。画像処理部207では、後述の画像処理を行い、輝度信号Y、色差信号Cb・Crを生成する。
The image signal digitized by the
エンコーダ部208は、画像処理部207にて処理した画像データをJpegやH.264、H.265などの所定のフォーマットに変換する符号化処理を行う。
The
通信部209は、クライアント120とonvifなどのカメラ制御用プロトコルに従った通信をしたり、撮影された画像データをネットワーク130経由でクライアント120へ配信したりする。カメラ制御用プロトコルを用いた通信とは、クライアント120からのカメラ操作コマンドやカメラ設定コマンド、機能の問合せ等を受信し、そのレスポンスや画像データ以外の必要なデータの送信を行うことである。
The
図3は、本実施形態におけるクライアント120の概略構成を示すブロック図である。CPU301は、クライアント120における動作を統括的に制御するものである。ROM302は、CPU301が処理を実行するために必要な制御プログラム等を記憶する不揮発性メモリである。RAM303は、CPU301の主メモリ、ワークエリア等として機能する。すなわち、CPU301は、処理の実行に際してROM302から必要なプログラム等をRAM303にロードし、ロードしたプログラム等を実行することで各種の機能動作を実現したり、後述の図5や図8に示す処理を実施したりする。
FIG. 3 is a block diagram showing a schematic configuration of the
HDD304は大容量の2次記憶部であって、例えば、CPU301が処理を行う際に必要な各種データや、画像データ、各種情報等を記憶している。また、HDD304には、CPU301がプログラム等を用いた処理を行うことにより得られた各種データや、画像データ、各種情報等が記憶される。
The
操作入力部305は電源ボタンやキーボードやマウス等の操作デバイスを備える入力部であり、ユーザーからの各種設定(後述する、領域毎の画像処理設定や優先度の設定)を受け付ける受付部として機能する。通信部306は、クライアント120とネットワーク130との通信の処理を行う。具体的には、カメラ110において撮影された画像データをネットワーク130経由で受信する。また、カメラ操作コマンドをカメラ110へ送信し、そのレスポンスや画像データ以外の必要なデータを受信する。
The
表示部307は、カメラ110の各種制御パラメータ入力のためのGUI(詳細は後述)やディスプレイを備えている。表示部307は、外部のディスプレイに後述するGUIなどを表示させるように表示制御する構成であってもよい。また。クライアント120の各要素の一部または全部の機能は、CPU301がプログラムを実行することで実現することができる。ただし、クライアント120の各要素のうち少なくとも一部(GPUやDMAなど)が専用のハードウェアとしてCPU301とは別に動作するようにしてもよい。この場合、専用のハードウェアは、CPU301の制御に基づいて動作する。
The
図4は本実施形態の画像処理部207の構成の詳細を示すブロック図である。画像処理部207は現像処理部400とダイナミックレンジ拡張処理部410の2つのブロックに大きく分かれておりローカルバス430を介してメモリ420と接続している。
FIG. 4 is a block diagram showing details of the configuration of the
現像処理部400は、撮像素子部202より入力された画像データに対して、レンズ収差の補正や周辺光量の補正など撮像光学系201の補正を行う光学補正部401、センサのキズや欠陥の補正やオフセット調整など撮像素子部202の補正を行うセンサ補正部402、センサのゲインと合わせてデジタル値でゲイン調整を行うゲイン調整部403を備える。さらに現像処理部400は、ノイズリダクション処理を行うNR処理部404、ホワイトバランスの調整を行うWB調整部405、ガンマ補正を行うガンマ補正部406、シャープネス処理を行うシャープネス処理部407、コントラスト調整処理や彩度調整処理や色変換処理などの色処理を行う色処理部408などの画像内容の補正処理を実施する構成を備える。現像処理部400の出力は、メモリ420に一時的に蓄えられる。
The
ダイナミックレンジ拡張処理部410は、ヒストグラム解析処理部411と後述するマップ作成処理部412、ガンマ調整部413、WDR合成処理部414を備える。マップ作成処理412で作成されたマップ情報もメモリ420に蓄えられる。ダイナミックレンジ拡張処理部410の有する各機能モジュールの説明は後述する。
The dynamic range
アトリビュート生成部409では、画素の輝度に基づいて画像処理の内容を変えるために、アトリビュート情報を画像処理部207(現像処理部400)の各構成に出力する。各構成はアトリビュート生成部409から出力されたアトリビュート情報を参照して、画像データを処理する際の処理パラメータを変更することが可能なように構成されている。
The
例えば、輝度しきい値Ythをアトリビュート生成部409に設定する。そして、アトリビュート生成部409は、処理画素ごとに輝度値を輝度しきい値Ythと比較し、しきい値よりも大きいか否かを示す情報を、画素の輝度情報にアトリビュート情報として付加する。例えば、アトリビュート情報はブーリアン値でよく、画素の輝度値がYthより大きければ”1”、小さければ”0”の値を保持する。光学補正部401〜色処理部408は、アトリビュート情報を参照し、アトリビュート情報に対応する処理パラメータを設定する。
For example, the brightness threshold value Y th is set in the
次に図5において、画像処理部207の動作フローについて説明する。ステップS501では、画像処理部207が撮像素子部202から画像データを受信する。次に、ステップS502において、現像処理部400の各構成が受信した画像データについて種々の処理を実施する。
Next, the operation flow of the
次に、ステップS503で画像処理部207が、クライアント120からマップ作成についての指示を受けたか判定する。この指示は、本実施形態においては、ユーザーがホワイトバランスなどの画像調整の作業を開始する際にクライアントから送られてくるコマンドのことである。例えば、明るさによって現像処理の内容が異なる領域がある際に、そのマップ情報をクライアント120から要求があったことを意味するコマンドである。このコマンドを受信していなければ、後述のステップS507においてガンマ調整処理を行い、処理を終了する。一方で、マップ作成指示がある場合は、ステップS504に遷移する。
In step S <b> 503, the
ステップS504ではヒストグラム解析処理部411がヒストグラム解析を行う。ヒストグラムについては図6を用いて説明する。図6(a)は、撮影シーンの一例を示しており、網掛けで示す窓601の外と室内602を含む範囲が撮影されている。窓601の外と室内602は異なる光源の影響を受けており、窓601の画像領域と室内602の画像領域とでは輝度差が大きいとする。このような輝度差のあるシーンの場合、ヒストグラムは、図6(b)に示すように室内602に対応するピーク702を持つヒストグラムと、窓601に対応するピーク701を持つヒストグラムとが、谷703を挟んでいる様になる。
In step S504, the histogram
ヒストグラム解析部411は、ステップS504において、画像データから画素毎の輝度値についてのヒストグラムを生成し、生成したヒストグラムについて2つの山ができるか、1つしか山がないかを検知する。解析結果となるピークの数によってステップS505において処理を分岐する。
In step S504, the
検出されたピークが1つ以下である場合は、後述のガンマ調整処理507を行い画像処理部207の処理を終了する。ピークが2つある場合、ステップS506においてマップ作製の処理を行う。さらに、ピークが2つある場合、ピークの谷703の輝度値をヒストグラム解析部411がアトリビュート生成部409に設定する。なお、3つ以上のピークを検出するように構成してもよく、検出されたピークに対応する分だけ領域を分割してもよいし、含まれる画素数が少なければ(ピークが属する領域のサイズが小さければ)無視するように構成してもよい。
When the number of detected peaks is one or less,
ステップS506ではマップ作成処理部412がマップを作成する。ピークが2つ検出された画像に対して、マップは、ヒストグラムの2つのピークのどちらに属する領域であるかを画像上で示している。まず、マップ作成処理部412が画像を複数の輝度領域に分割する。本実施形態では、処理画像604の解像度は、1920×1080であり、64×36のブロック603に分割する。このブロックの中でヒストグラムの谷703の輝度値よりも大きい輝度値の画素がブロック内の画素数の2/3を超えるブロック603と、そうでないブロック603とに分割しマップとして示す。図6に示した画像に対応するマップを図6(c)に示す。窓の部分が明るいため窓601の部分と、それ以外とで領域がわかれていることがわかる。このマップ情報と、ステップS505で検出されたピーク数とはダイナミックレンジ拡張処理部410がメモリ420に出力し、通信部209がクライアント120へ通知する。
In step S506, the map
ステップS507では、ガンマ調整部413がガンマ調整処理を実施する。ステップS506のマップ作成処理を行っていない場合は、調整用のガンマは図6(c)において点線801で示されたガンマカーブ(ガンマ曲線)となっている。ここで、マップを作成した場合、調整用のガンマは、図8において実線802(第1の入出力特性)、803(第2の入出力特性)に示されるような特性となるように調整する。図6(c)に示す通り、ガンマ特性として不連続な階調特性となる。この不連続な輝度を境界に輝度領域を分割する。つまり、図6(b)において谷703以降の明るさの領域の明るさを下げるように調整されており、全体的なダイナミックレンジを確保する処理となる。谷703に相当する輝度値でいったん出力値が下がっており、このようなガンマカーブで輝度調整を行うことで、ダイナミックレンジが拡大され明るいエリアの視認性が向上する。以上のように画像処理部207の処理が完了する。
In step S507, the
次に、後述するクライアント120から送信された設定パラメータをカメラ110が受信した後の処理について説明する。クライアント120から受信する設定パラメータは、各画像処理モジュール(図4の構成401〜409)の画像処理のパラメータとして反映され、アトリビュート生成部409で設定されたしきい値によって切り替えられる。詳しくは、アトリビュート生成部409へ輝度しきい値としてヒストグラムの谷の値の703に相当する輝度しきい値が設定され、この値を境に各画像処理パラメータが変更される。そのため、被写体が移動した場合においても、同一の被写体であれば同様のガンマ補正が適用され続ける。また同様に、輝度の明るい画素に対するホワイトバランスの処理も維持される。
Next, processing after the
ここで、ホワイトバランス処理について詳細に説明する。ホワイトバランスは自動設定と、手動設定の2つの動作モードを有している。この動作モードは、クライアント120から指定されるが、クライアントの動作については後述する。
Here, the white balance processing will be described in detail. White balance has two operation modes: automatic setting and manual setting. This operation mode is designated by the
また、ホワイトバランスの自動モードが指定される場合は、ホワイトバランスの測定領域を示す領域情報もクライアント120からカメラ110に送られてくる。手動モードでは、クライアント120からホワイトバランスの色温度情報や光源情報を受信する。この手動モード、自動モードの設定はステップS504のヒストグラム解析において2つの領域が検出された際は、其々の領域に対応する設定が可能であるため、2つの設定情報をカメラ110で受信することになる。
When the white balance automatic mode is designated, the area information indicating the white balance measurement area is also sent from the
自動モードが選択された際には、クライアント120から指定された測定領域から白と思われる画素を抽出する(例えば、ノイズ以外であって、一番、白の値に近い画素値を有する画素を抽出する)。次に抽出された白と思われる画素の値を、白の値に近づけるような色変換の係数を算出し、算出された係数に基づく色変換の処理を処理対象の画素全体にかけることで、ホワイトバランス調整を行う。一方で、クライアント120から測定領域の指定がない場合は、マップにより分割されたそれぞれの領域から白と思われる画素を抽出して、各領域の其々について係数を算出し色変換してホワイトバランス調整を実施する。
When the automatic mode is selected, a pixel that is considered to be white is extracted from the measurement region designated by the client 120 (for example, a pixel other than noise and having a pixel value closest to the white value is selected. Extract). Next, by calculating a color conversion coefficient that approximates the extracted white pixel value to the white value, and applying the color conversion process based on the calculated coefficient to the entire processing target pixel, Adjust the white balance. On the other hand, if the measurement area is not designated by the
手動モードの場合は、マップで分けられたそれぞれの領域ごとにクライアント120から指定された色温度や光源情報に基づいてホワイトバランスの調整を行うが、輝度値しきい値を持ち、しきい値を超える画素と超えない画素で処理パラメータを異ならせることでホワイトバランスの設定を行うように構成する。
In the manual mode, the white balance is adjusted based on the color temperature and light source information specified from the
さらに、ホワイトバランス調整以外の画像処理、例えば、ノイズリダクション処理やシャープネス処理、コントラスト調整、彩度調整も同様にアトリビュート生成部409に設定された輝度しきい値により処理設定を変えることができる。
Furthermore, image processing other than white balance adjustment, for example, noise reduction processing, sharpness processing, contrast adjustment, and saturation adjustment can be similarly changed according to the brightness threshold set in the
図13にアトリビュート生成部409が設定するしきい値により画像処理部207の各構成のパラメータが切り替えられる様子を示す。各画像処理部207の構成毎に、アトリビュート生成部409に設定された輝度しきい値との比較によって処理内容を設定可能となる。ホワイトバランスは、しきい値未満の暗い領域ではAuto、しきい値以上の明るい領域ではManual(5500K)に設定する。また、ノイズリダクション、シャープネス等についても同様に、図13に示す様に設定する。
FIG. 13 shows how the parameters of each component of the
例えば、ノイズリダクションについては、しきい値以上の明るい領域については、しきい値未満の領域よりもノイズリダクションが弱めに実施される様なパラメータを設定する。シャープネス、コントラスト調整、彩度調整については、しきい値以上の明るい領域については、しきい値未満の領域よりも各処理が強めに実施されるようなパラメータを設定する。以上の様に明るい領域として合成されている領域について、パラメータを切り替えることで、より好ましい色再現性を得ることができる。 For example, for noise reduction, a parameter is set such that noise reduction is performed weaker in a bright area above the threshold than in an area below the threshold. For sharpness, contrast adjustment, and saturation adjustment, parameters are set such that each process is executed more strongly in a bright area that is equal to or greater than the threshold value than in an area that is less than the threshold value. As described above, more preferable color reproducibility can be obtained by switching the parameter for the region synthesized as a bright region.
次に、クライアント120の処理について説明する。クライアント120においては、カメラ110から配信される動画像を表示するとともに、カメラ110へ撮影に関する設定やネットワークに関する設定を行うことができる。
Next, processing of the
ここで、ユーザーのホワイトバランスの設定について図12を用いて説明する。まず、ステップS1201においてクライアント120は、ホワイトバランス設定のモードに遷移するとカメラ110に対して、画像処理部207におけるステップS504で検出されたピーク数と、ステップS505で作成されたマップに更新があるかどうかを確認する。更新がある場合にステップS1202およびステップS1203において、画像処理部207におけるステップS504で検出されたピーク数と、ステップS505で作成されたマップをカメラ110の通信部209が配信しクライアント120の通信部306が受信する。
Here, the setting of the user's white balance will be described with reference to FIG. First, in step S1201, when the
次に、ステップS1204において通信部306が110カメラ110の配信画像を受信する。さらに、ステップS1205において、表示部307が、ユーザーが使用するモニターやディスプレイなどの表示画面上にカメラ110から配信される撮影画像に上記で受信したマップを重畳して表示する。この時、マップ上で入出力特性が異なる領域を枠で囲ってもよいし、異なる色で塗りつぶしてもよいし、どちらか一方を点滅表示させたりクリック選択時に入出力特性に対応する文字列やシンボルを表示させたりしてもよい。
Next, in step S1204, the
図7にユーザーがホワイトバランス調整領域およびホワイトバランス調整方法(動作モード)を選択する表示画面の一例を示す。本図は窓のある部屋を撮影した例の模式図であり左側に明るい窓があり外を歩く人物が写っている。また室内の人と植物が写っている例を示している。ユーザーは表示されたマップにより分けられた領域毎にホワイトバランス調整の白の基準の抽出領域を選択することができる。図7では、互いに異なるガンマカーブが適用される領域として、窓の外の明るい領域1001と、室内を撮影し、窓の外に比べて暗い領域1002とが区別可能な様にマップとして表示されている。そのため、各々の領域に対応するホワイトバランス調整方法を選択することができる。
FIG. 7 shows an example of a display screen on which the user selects a white balance adjustment region and a white balance adjustment method (operation mode). This figure is a schematic diagram of an example of a room with a window, with a bright window on the left and a person walking outside. It also shows an example of indoor people and plants. The user can select a white reference extraction region for white balance adjustment for each region divided by the displayed map. In FIG. 7, as areas to which different gamma curves are applied, a
ここで、指定した領域に対してホワイトバランス調整モードは複数選ぶことができ、自動(Auto)で処理するモード、手動で光源または環境の種類などの色温度を選択するモードを選択することもできる。図7に示す例では、領域1001に対応する領域1と領域1002に対応する領域2の其々について、表示されている各種のホワイトバランス調整モードからユーザーが選択欄1006、選択欄1007から1つずつ指定できる。ホワイトバランス調整モードとしては「AWB(オート・ホワイト・バランス)」、「Fluorescent3000K,4000K,6500K(蛍光灯と色温度ケルビン)」、「Indoor(屋内)」、「Outdoor(屋外)」がある。もちろん、プルダウン形式で選択可能であってもよい。なお、初期設定は各領域「Auto」設定がされており、選択欄1006を選択することで「Manual」設定がされる。
Here, a plurality of white balance adjustment modes can be selected for the designated area, and a mode for automatically processing (Auto) and a mode for manually selecting a color temperature such as a light source or an environment type can also be selected. . In the example illustrated in FIG. 7, the user selects one from the
さらに、自動で処理するモードの場合、マップにより分けられた領域ごとにホワイトバランスの測定領域として画像上の任意の位置(例えば、図7の領域1003、領域1004)をドラック&ドロップ等の操作で指定することもできる。このため、例えばユーザーが白基準となる領域(基準領域)をあらかじめ指定することでホワイトバランスの補正精度が高まる。図7では、白い壁が写っている場合に矩形1004を指定することで、ホワイトバランスの補正精度が好ましくなる。
Further, in the case of the automatic processing mode, an arbitrary position on the image (for example, the
このホワイトバランスの測定領域をユーザーが指定した場合、この測定領域を示す領域情報は画像処理部207のWB調整部405の設定値としてカメラ110へ送信される。ユーザーが指定し、カメラ110へ送信される領域の形は矩形以外の任意の形でもよい。また、特にユーザーがホワイトバランス領域を指定しない場合は、カメラ110にAutoを通知し、カメラ110において自動的にマップ毎のホワイトバランス調整を行うようにしてもよい。
When the user designates the white balance measurement area, the area information indicating the measurement area is transmitted to the
以上のとおり、本発明によれば、ガンマカーブ毎にホワイトバランス補正を適用することで、照度差または環境が異なる領域に対して色を正確に再現することができる。 As described above, according to the present invention, by applying white balance correction for each gamma curve, it is possible to accurately reproduce colors for areas with different illuminance differences or environments.
さらに、本実施形態においては、位置的な領域ではなく、輝度の高い低いといった輝度領域において処理を変えているため、例えばカメラの画角がパンやチルトといった変化がある場面や、夜間の交通監視のように画面中を明るい被写体が移動するような場面においても、照度差または環境が異なる領域に対して色を正確に再現することができる。 Furthermore, in the present embodiment, since the processing is changed not in the position area but in the brightness area where the brightness is high and low, for example, when the angle of view of the camera changes such as panning and tilting, and at night traffic monitoring Even in such a scene where a bright subject moves in the screen, colors can be accurately reproduced for areas with different illuminance differences or environments.
<<実施形態2>>
次に、本発明の実施形態2について説明する。実施形態1では、1枚の画像中の明部をヒストグラム解析し、輝度で分割した部分領域毎に異なるガンマ調整値(ガンマ曲線)を用いて画像を作成し、ホワイトバランスを明部と暗部で異ならせる実施形態について述べた。本実施形態においては、さらに露出の異なる複数枚の画像を合成して合成画像を生成する実施形態について説明する。
<<
Next,
なお、実施形態1と同一機能を有する構成や工程には同一符号を付すとともに、構成的、機能的に変わらないものについては、その説明を省略する。 In addition, while the same code | symbol is attached | subjected to the structure and process which have the same function as Embodiment 1, the description is abbreviate | omitted about the thing which does not change structurally and functionally.
本実施形態では、互いに露出が異なる撮像条件で撮像した2枚のフレーム(撮像画像)を取得し、そのうち明るい被写体側に対応するフレームを実施形態1の方法でヒストグラム解析、現像処理、ガンマ調整処理を行い、その後にすべてのフレームを合成して合成画像として出力する。もちろん、露出を変えて撮像した画像を合成する数は2つに限定されるものではなく、3枚以上の撮像画像を合成してもよい。また、本実施形態では、簡便のため撮影エリア全体を合成する例について説明するが、これに限らず撮影される画像の少なくとも一部について合成するようにしてもよい。 In the present embodiment, two frames (captured images) captured under imaging conditions with different exposures are acquired, and a frame corresponding to the bright subject side is analyzed by histogram analysis, development processing, and gamma adjustment processing using the method of the first embodiment. After that, all the frames are combined and output as a combined image. Of course, the number of images to be combined with different exposures is not limited to two, and three or more captured images may be combined. In the present embodiment, an example in which the entire shooting area is combined for simplicity is described. However, the present invention is not limited to this, and at least a part of the captured image may be combined.
まず、図8を用いて画像処理部207の動作フローについて説明する。ステップS501、S502は実施形態1と同様で、本実施形態ではステップS1101において画像処理部207が、合成のために必要なフレーム分の画像を受信し現像処理をしたかを判断する。なお、本実施形態では互いに露出条件の異なる撮影で得られた2枚の画像を取得する。露出の条件としては、シャッター速度を変えてもよいし、撮像素子のゲインを変えてもよいし、シャッター速度とゲインの双方を変えてもよい。合成に必要な枚数が受信されていれば、ステップS503に遷移し、必要な枚数に達していなければ、ステップS501に戻る。
First, the operation flow of the
次にステップS504において、実施形態1におけるステップS503と同様にクライアント120からマップ作成の指示があるかどうかを判定する。ここで、実施形態2におけるマップ作成について説明する。マップ作成が必要な場合は、実施形態1と同様にステップS504においてヒストグラム解析を行い、ステップS505においてピークの数を判定する。ここで、ヒストグラム解析処理部411がヒストグラム解析を行うフレームは、高EVフレーム(後述する)とする。ヒストグラムの解析方法については、実施形態1と同様であるため説明を省略する。ここで、高EV・低EVフレームについて説明を補足する。図9のように、明るい対象物に露出を合わせて撮影したフレーム(以降、高EVフレーム)を図9(a)、暗い対象物に露出を合わせて撮影したフレーム(以降、低EVフレーム)を図9(c)に示す。低EVフレーム図9(c)では、明るい窓の外などは白飛んでしまう一方、暗い室内は適正値に近い露出が得られる。ここで、EVとは露出値(Exposure Value)のことを示す。
Next, in step S504, it is determined whether or not there is a map creation instruction from the
ステップS505でピークの数が2つである場合に、ステップS506においてマップを作成する。本実施形態では、2枚の露出の異なるフレームの合成を想定しているため、マップは複数画像の合成比率に応じたマップとなる。具体的には、輝度の低い側から、低EVフレーム比率が100%のエリア、低EVフレームと高EVフレームの混合エリア、高EVフレーム比率100%のエリア、高EVフレーム比率100%であり、かつ複数のピークが検出されガンマ特性の異なるエリアの4カテゴリーを持つマップとなる。もちろんマップ作成は、高EVフレーム、もしくは低EVフレームに対して行ってもよい。図9の撮影シーンにおいて本実施形態で作成されたマップの例を図10(b)に示す。 If the number of peaks is two in step S505, a map is created in step S506. In this embodiment, since it is assumed that two frames with different exposures are combined, the map is a map corresponding to a combination ratio of a plurality of images. Specifically, from the low luminance side, the area where the low EV frame ratio is 100%, the mixed area of the low EV frame and the high EV frame, the area where the high EV frame ratio is 100%, and the high EV frame ratio are 100%, A plurality of peaks are detected, and the map has four categories of areas having different gamma characteristics. Of course, the map creation may be performed for a high EV frame or a low EV frame. FIG. 10B shows an example of a map created in the present embodiment in the shooting scene of FIG.
陰になっている暗いエリア1401は、低EVフレーム比率が100%のエリアである。もっとも広いエリア1402は、低EVフレームと高EVフレームの混合エリアとなっている。室内の人が明るく映っているため、エリア1403は高EVフレーム比率100%のエリアとなっている。窓の外が写っているエリア1404はもっとも明るく、高EVフレーム比率100%であり、複数ピークが検出されガンマ特性の異なるエリアとなっている。ここで作成されたマップはクライアント120へ送信される。
A shaded
その後、ステップS507の処理は、実施形態1と同様である。図9(a)に示す明るい対象物に露出を合わせて撮影した画像に、ヒストグラム解析を行い、現像、ガンマ調整処理を行った画像を図9(b)に示す。ガンマを調整したことで、窓の外の明るい領域の輝度が下がり適切な輝度になる。 Thereafter, the processing in step S507 is the same as that in the first embodiment. FIG. 9B shows an image obtained by performing histogram analysis, developing, and gamma adjustment processing on the image taken with exposure adjusted to the bright object shown in FIG. By adjusting the gamma, the brightness of the bright area outside the window is lowered to an appropriate brightness.
次に、ステップS1103で高EVフレームのガンマ調整後の画像と低EVフレームの合成処理をWDR合成処理部414により行う。WDR合成処理部414による合成処理について、図10(a)を参照して説明する。図10(a)の横軸は基準輝度を、縦軸は画像を加算合成する際の合成比率を表す。実線1301で示す合成比率は、基準輝度に対する低EVフレームの合成比率を表し、1点鎖線1302で示す合成比率は、基準輝度に対する高いEVフレームの合成比率を表している。合成する際の基準輝度の閾値Y1より暗い領域は低EVフレームのみを使用し、基準輝度の閾値Y2より明るい領域では高EVフレームのみを用いる。また、基準輝度の閾値付近の境界Y1〜Y2の中間領域では、合成比率を徐々に変化させることで画像の切り替えを滑らかにすることができる。基準輝度として用いるのは、本実施形態では高EVフレームとなる。
Next, in step S1103, the WDR
図9(d)に合成処理後の画像を示す。図9(a)と図9(c)が合成されることで、明るいエリアから暗いエリアまで表現できるダイナミックレンジの広い画像となっている。なお、クライアント120における処理は、マップ情報の領域数が4つになること以外は、実施形態1と同様である。
FIG. 9D shows an image after the synthesis process. By combining FIG. 9A and FIG. 9C, an image having a wide dynamic range that can be expressed from a bright area to a dark area is obtained. The processing in the
以上により、WDR撮影においてもガンマカーブ毎にホワイトバランス補正を適用することで、照度差または環境が異なる領域に対して色を正確に再現することができる。 As described above, even in WDR shooting, by applying white balance correction for each gamma curve, it is possible to accurately reproduce colors for areas with different illuminance differences or environments.
さらに、本実施形態においては、位置的な領域ではなく、輝度の高い低いといった輝度領域において処理を変えているため、例えばカメラの画角についてパンやチルトといった変化がある場面や、夜間の交通監視のように画面中を明るい被写体が移動するような場面においても、照度差または環境が異なる領域に対して色をより正確に再現することができる。 Furthermore, in the present embodiment, since the processing is changed not in the position area but in the brightness area where the brightness is high and low, for example, a scene where the angle of view of the camera changes such as pan or tilt, or night traffic monitoring Even in such a scene where a bright subject moves in the screen as described above, it is possible to more accurately reproduce the color for areas with different illuminance differences or environments.
<<実施形態3>>
次に、本発明の実施形態3について説明する。実施形態1および実施形態2では、輝度に基づいて分割した範囲の其々に異なるガンマ調整値を設定しホワイトバランス調整を行うのに対して、本実施形態では輝度に基づいて分割した範囲の其々に異なるガンマ調整値と優先モードとを適用する。なお、実施形態1、2と同一機能を有する構成や工程には同一符号を付すとともに、構成的、機能的に変わらないものについては、その説明を省略する。
<< Embodiment 3 >>
Next, a third embodiment of the present invention will be described. In the first embodiment and the second embodiment, a different gamma adjustment value is set for each of the ranges divided based on the luminance to perform white balance adjustment, whereas in the present embodiment, each of the ranges divided based on the luminance is set. Different gamma adjustment values and priority modes are applied. In addition, while the same code | symbol is attached | subjected to the structure and process which have the same function as
クライアントの動作について説明する。図11(a)はユーザーが設定するための表示画面(GUI)の一例である。ユーザーは、クライアント120で表示画面に重畳されたマップ情報をもとに優先させたいモード、例えば「動き優先」、「ノイズ優先」または「解像度優先」などを選択することができる。本実施形態では、マップは最大4つの領域を持つが、例えば、シャッター速度を変える変更の場合、本実施形態では2枚の合成となるため、高EVフレームと高EVフレームのガンマ特性の異なる領域を分けることは意味をなさないため、設定項目によってユーザーに表示する領域を削減してもよい。
The operation of the client will be described. FIG. 11A shows an example of a display screen (GUI) for setting by the user. The user can select a mode that the
ユーザーが選択した優先モードを適用した場合のカメラ設定変更の一例を図11(b)に示す。例として、図11(a)に示すように領域601で「動き優先」が選択された場合について説明する。
An example of the camera setting change when the priority mode selected by the user is applied is shown in FIG. As an example, a case where “motion priority” is selected in the
図11(b)にあるように、領域601に対応するフレームのシャッター速度はそれ以外が選択された場合に比べ短い値になる。これにより、動きブレの少ない画像を取得することができる。なお、実施形態1において、ノイズリダクション強度を弱めることでも同様に動きブレを弱めることができるため、この方法を用いてもよい。
As shown in FIG. 11B, the shutter speed of the frame corresponding to the
さらに、領域602について「解像度」優先が設定されている場合は、図11(b)に示すようにエッジ強調などのシャープネス調整、またはガンマカーブの調整をすることでコントラストの高めた解像感の高い画像を得ることができる。なお、ノイズリダクションを弱めることでコントラストを強める補正などをしてもよい。
Further, when “resolution” priority is set for the
本発明によれば、異なるガンマカーブ毎に優先モードを適用することで、照度差または環境が異なる領域ごとに動きぶれが少ない、ノイズが低い、シャープネスが高い画像などを詳細に設定することで、ユーザーの所望の画像を得ることができる。 According to the present invention, by applying the priority mode for each different gamma curve, by setting in detail an image with low motion blur, low noise, high sharpness, etc. for each region with different illuminance differences or environments, A user's desired image can be obtained.
また、上述の実施形態では、互いに異なるガンマカーブを適用する領域(第1領域、第2領域)を主とした説明をしているが、互いに異なる露出設定を適用する領域についても、本発明を適用することもできる。詳細には、合成画像について領域毎に異なる露出補正を適用する場合について、領域毎に上述の実施形態で示す補正処理を設定し、適用できるようにしてもよい。 Further, in the above-described embodiment, the description is mainly made on the areas to which different gamma curves are applied (first area and second area), but the present invention is also applied to areas to which different exposure settings are applied. It can also be applied. Specifically, when different exposure correction is applied for each region of the composite image, the correction processing shown in the above-described embodiment may be set for each region and applied.
<<実施形態4>>
次に、本発明の実施形態4について説明する。実施形態1および実施形態2では、輝度に基づいて分割した範囲の其々に異なるガンマ調整値を設定しホワイトバランス調整を行うのに対して、本実施形態ではフォーカスの調整を行う。なお、実施形態1、2と同一機能を有する構成や工程には同一符号を付すとともに、構成的、機能的に変わらないものについては、その説明を省略する。
<< Embodiment 4 >>
Next, a fourth embodiment of the present invention will be described. In the first and second embodiments, a different gamma adjustment value is set for each of the ranges divided based on the luminance to perform white balance adjustment, whereas in this embodiment, focus adjustment is performed. In addition, while the same code | symbol is attached | subjected to the structure and process which have the same function as
本実施形態では、実施形態2における露出の異なる複数枚の画像を合成して合成画像を生成する実施形態に基づいて説明するが、実施形態1に基づく1枚の画像に適応してもよい。 In the present embodiment, a description will be given based on an embodiment in which a plurality of images with different exposures in the second embodiment are combined to generate a combined image, but the present invention may be applied to one image based on the first embodiment.
まず、図14に本実施形態の画像処理部207の構成の詳細を示す。本実施形態においては、画像処理部207の現像処理部400にフォーカス評価値取得部1701を持つ。フォーカス評価値取得部1701は、指定されたエリアのフォーカスの評価値を取得する取得部であり、露出の異なる複数枚の画像それぞれについてフォーカス評価値を取得する。
First, FIG. 14 shows details of the configuration of the
次に、図15を用いて撮像系制御部206および画像処理部207の動作フローについて説明する。本実施形態では、S501の画像受信ののちに、フォーカス評価値取得部1701においてフォーカス評価値を取得する(ステップS1501)。次のS502、S1101は実施形態2と同様の処理であり説明を省略する。
Next, the operation flow of the imaging
次に、S1502においてS1501で取得したフォーカス評価値を用いてフォーカス処理を行う。フォーカス評価値は、ユーザーから指定されたエリアの評価値が、露出の異なる画像ごとに保持されている。本ステップにおいてユーザーから指定された露出の画像のフォーカス評価値を基にフォーカスを駆動する。 Next, in S1502, focus processing is performed using the focus evaluation value acquired in S1501. As the focus evaluation value, the evaluation value of the area designated by the user is held for each image with different exposure. In this step, focus is driven based on the focus evaluation value of the exposure image specified by the user.
ここで、ユーザー指定エリアとフォーカス評価値について詳細に説明する。ユーザーは、実施形態1及び2と同様の図10(b)に示すマップの領域エリア1401〜1404からフォーカス判定に用いる領域を選択する。
Here, the user designated area and the focus evaluation value will be described in detail. The user selects an area used for focus determination from the
エリア1401は、低EVフレーム比率が100%のエリアであるため、ユーザーがこのエリアを選択した場合には、低EVフレームを基にフォーカス評価値を算出する。エリア1403、およびエリア1404は、高EVフレーム比率が100%のエリアであるため、ユーザーがこのエリアを選択した場合には、高EVフレームを基にフォーカス評価値を算出する。
Since the
エリア1402は、低EVフレームと高EVフレームの混合エリアとなっている。このエリアを指定した場合は、高EV,低EVどちらのフレームを用いてもよい。本実施形態では、フォーカス評価値が高い値であるフレームのフォーカス評価値を採用した。
An
以降のS503〜S1103は実施形態2と同様の処理になるため説明を省略する。 Subsequent steps S503 to S1103 are the same as those in the second embodiment, and a description thereof will be omitted.
以上説明してきた構成により、ユーザーはフォーカス対象となるエリアを指定できるため、フォーカスしたい領域と露出を選択でき、所望のエリアに対して視認性を向上することができる。さらに、被写体に動きがある場合においても、露出を指定してフォーカス評価値を取得しているため、被写体の動きによって評価値が変化することなく安定した値を取得できる。 With the configuration described above, the user can specify an area to be focused, so that it is possible to select a region to be focused and exposure, and to improve the visibility with respect to a desired area. Furthermore, even when the subject is moving, since the focus evaluation value is acquired by specifying the exposure, a stable value can be acquired without changing the evaluation value due to the movement of the subject.
また、実施形態1及び2において実施しているS507ガンマ調整処理は、本実施形態とは依存せずに実行の可否を設定可能である。 The S507 gamma adjustment processing implemented in the first and second embodiments can be set to be executable without depending on the present embodiment.
<<その他の実施形態>>
その他の実施形態として、実施形態1および2においてホワイトバランス調整を行い、実施形態3では画像パラメータ調整、実施形態4においてはフォーカス調整を行っていたが、本実施形態では指定されたエリアに対して上述の複数の調整機能を選択的に実施してもよい。
<< Other Embodiments >>
As other embodiments, the white balance adjustment is performed in the first and second embodiments, the image parameter adjustment is performed in the third embodiment, and the focus adjustment is performed in the fourth embodiment. The plurality of adjustment functions described above may be selectively performed.
図16にユーザーが設定するための表示画面(GUI)の一例を示す。ユーザーはクライアント120で表示画面に重畳されたマップ情報をもとに調整したいモード、例えば「ノイズ優先」、「フォーカス」、「ホワイトバランス」など複数選択可能である。ただし、フォーカスについては、一つのマップ情報でのみ有効に設定可能となる。
FIG. 16 shows an example of a display screen (GUI) for setting by the user. The user can select a plurality of modes such as “noise priority”, “focus”, and “white balance” that the
これにより、ユーザーが注目している露出エリアに対して、前述の調整処理を選択的に一括して設定することが可能となり、容易に所望の画像を得ることができる。 As a result, the above-described adjustment process can be selectively set collectively for the exposure area that the user is paying attention to, and a desired image can be easily obtained.
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。 The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
Claims (22)
前記撮像装置は、
撮像画像を取得する撮像手段と、
前記撮像手段により取得した撮像画像について、第1の入出力特性を適用する第1領域と、第2の入出力特性を適用する第2領域とを設定する設定手段と、
前記第1領域または前記第2領域の少なくとも一方を示す領域情報を出力する出力手段と、を備え、
前記画像処理装置は、
前記撮像装置から前記領域情報を取得し、前記第1領域と前記第2領域とを区別して表示させる表示制御手段を備えることを特徴とする画像処理システム。 An image processing system having an imaging device and an image processing device,
The imaging device
An imaging means for acquiring a captured image;
Setting means for setting a first area to which the first input / output characteristic is applied and a second area to which the second input / output characteristic is applied to the captured image acquired by the imaging means;
Output means for outputting area information indicating at least one of the first area and the second area,
The image processing apparatus includes:
An image processing system comprising: display control means for acquiring the region information from the imaging device and displaying the first region and the second region separately.
前記撮像手段により取得した撮像画像について、第1の入出力特性を適用する第1領域と、第2の入出力特性を適用する第2領域とを設定する設定手段と、
前記第1領域または前記第2領域の少なくとも一方を示す領域情報を出力する出力手段とを有することを特徴とする撮像装置。 An imaging means for acquiring a captured image;
Setting means for setting a first area to which the first input / output characteristic is applied and a second area to which the second input / output characteristic is applied to the captured image acquired by the imaging means;
An imaging apparatus comprising: output means for outputting area information indicating at least one of the first area and the second area.
前記第1領域と前記第2領域とを区別して表示させる表示制御手段と
を有することを特徴とする画像処理装置。 Acquisition means for acquiring, from the imaging device, area information indicating at least one of a first area to which the first input / output characteristic is applied and a second area to which the second input / output characteristic is applied with respect to the captured image;
An image processing apparatus comprising: display control means for distinguishing and displaying the first area and the second area.
前記撮像装置が、
撮像画像を取得する取得工程と、
前記取得工程において取得した撮像画像について、第1の入出力特性を適用する第1領域と、第2の入出力特性を適用する第2領域とを設定する設定工程と、
前記第1領域または前記第2領域の少なくとも一方を示す領域情報を出力する出力工程と、を実施し、
前記画像処理装置が、
前記撮像装置から前記領域情報を取得する取得工程と、
前記第1領域と前記第2領域とを区別して表示させる表示制御工程とを実施することを特徴とする画像処理システムの制御方法。 A control method of an image processing system having an imaging device and an image processing device,
The imaging device is
An acquisition step of acquiring a captured image;
A setting step for setting a first region to which the first input / output characteristic is applied and a second region to which the second input / output characteristic is applied to the captured image acquired in the acquisition step;
An output step of outputting region information indicating at least one of the first region or the second region; and
The image processing apparatus is
An acquisition step of acquiring the region information from the imaging device;
A control method for an image processing system, comprising: performing a display control step of distinguishing and displaying the first area and the second area.
撮像画像を取得する取得工程と、
前記取得工程において取得した撮像画像について、第1の入出力特性を適用する第1領域と、第2の入出力特性を適用する第2領域とを設定する設定工程と、
前記第1領域または前記第2領域の少なくとも一方を示す領域情報を出力する出力工程とを有することを特徴とする撮像装置の制御方法。 A method for controlling an imaging apparatus,
An acquisition step of acquiring a captured image;
A setting step for setting a first region to which the first input / output characteristic is applied and a second region to which the second input / output characteristic is applied to the captured image acquired in the acquisition step;
And a step of outputting region information indicating at least one of the first region and the second region.
前記撮像装置から領域情報を取得する取得工程と、
前記第1領域と前記第2領域とを区別して表示させる表示制御工程と
を有することを特徴とする画像処理装置の制御方法。 A method for controlling an image processing apparatus connected to an imaging device in a communicable manner,
An acquisition step of acquiring region information from the imaging device;
A control method for an image processing apparatus, comprising: a display control step of displaying the first area and the second area separately.
撮像画像を取得する撮像手段と、
前記撮像手段により取得した撮像画像について、第1の入出力特性を適用する第1領域と、第2の入出力特性を適用する第2領域とを設定する設定手段と、
前記第1領域または前記第2領域の少なくとも一方を示す領域情報を出力する出力手段として機能させることを特徴とするプログラム。 Computer
An imaging means for acquiring a captured image;
Setting means for setting a first area to which the first input / output characteristic is applied and a second area to which the second input / output characteristic is applied to the captured image acquired by the imaging means;
A program that functions as output means for outputting area information indicating at least one of the first area and the second area.
撮像画像について、第1の入出力特性を適用する第1領域と第2の入出力特性を適用する第2領域の少なくとも一方を示す領域情報を撮像装置から取得する取得手段と、
前記第1領域と前記第2領域とを区別して表示させる表示制御手段と
して機能させることを有することを特徴とするプログラム。
Computer
Acquisition means for acquiring, from the imaging device, area information indicating at least one of a first area to which the first input / output characteristic is applied and a second area to which the second input / output characteristic is applied with respect to the captured image;
A program comprising: functioning as display control means for distinguishing and displaying the first area and the second area.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/056,144 US20190052803A1 (en) | 2017-08-09 | 2018-08-06 | Image processing system, imaging apparatus, image processing apparatus, control method, and storage medium |
CN201810896293.4A CN109391804A (en) | 2017-08-09 | 2018-08-08 | Photographic device, image processing apparatus and system, control method and storage medium |
EP18188039.4A EP3442218A1 (en) | 2017-08-09 | 2018-08-08 | Imaging apparatus and control method for outputting images with different input/output characteristics in different regions and region information, client apparatus and control method for receiving images with different input/output characteristics in different regions and region information and displaying the regions in a distinguishable manner |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017153813 | 2017-08-09 | ||
JP2017153813 | 2017-08-09 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019033470A true JP2019033470A (en) | 2019-02-28 |
Family
ID=65523762
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018094397A Pending JP2019033470A (en) | 2017-08-09 | 2018-05-16 | Image processing system, imaging apparatus, image processing apparatus, control method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019033470A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020177340A (en) * | 2019-04-16 | 2020-10-29 | 株式会社デンソー | Image processing system |
-
2018
- 2018-05-16 JP JP2018094397A patent/JP2019033470A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020177340A (en) * | 2019-04-16 | 2020-10-29 | 株式会社デンソー | Image processing system |
JP7230658B2 (en) | 2019-04-16 | 2023-03-01 | 株式会社デンソー | Image processing device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111107276A (en) | Information processing apparatus, control method thereof, storage medium, and imaging system | |
US20190082092A1 (en) | Imaging apparatus, image processing apparatus, imaging method, image processing method, and storage medium | |
JP2022179514A (en) | Control apparatus, imaging apparatus, control method, and program | |
CN110392205B (en) | Image processing apparatus, information display apparatus, control method, and storage medium | |
JP2015211233A (en) | Image processing apparatus and control method for image processing apparatus | |
JP2019033470A (en) | Image processing system, imaging apparatus, image processing apparatus, control method, and program | |
JP5335964B2 (en) | Imaging apparatus and control method thereof | |
EP3442218A1 (en) | Imaging apparatus and control method for outputting images with different input/output characteristics in different regions and region information, client apparatus and control method for receiving images with different input/output characteristics in different regions and region information and displaying the regions in a distinguishable manner | |
JP6786273B2 (en) | Image processing equipment, image processing methods, and programs | |
JP7224826B2 (en) | Imaging control device, imaging control method, and program | |
JP2018195938A (en) | Imaging apparatus, control method of imaging apparatus, and program | |
JP6157274B2 (en) | Imaging apparatus, information processing method, and program | |
JP7075272B2 (en) | Image processing equipment, information display equipment, control methods, and programs | |
JP7353864B2 (en) | Information processing device, control method and program for information processing device, imaging system | |
JP5351663B2 (en) | Imaging apparatus and control method thereof | |
WO2023245391A1 (en) | Preview method and apparatus for camera | |
JP5483949B2 (en) | Image processing apparatus, image processing method, and program | |
JP2019050551A (en) | Imaging device, image processing device, imaging method, image processing method, and program | |
JP2023090492A (en) | Image processing device, image processing method, and imaging apparatus | |
JP6039726B2 (en) | Imaging apparatus and control method thereof | |
WO2019216072A1 (en) | Image processing device, image processing method, and program | |
JP6232712B2 (en) | Image processing apparatus, imaging apparatus, and image processing program | |
JP2020178166A (en) | Projection control device, projection control method, and program | |
JP2019134332A (en) | Image processor and control method therefor | |
JP2018019435A (en) | Image processing apparatus |