JP7051365B2 - Image processing equipment, image processing methods, and programs - Google Patents

Image processing equipment, image processing methods, and programs Download PDF

Info

Publication number
JP7051365B2
JP7051365B2 JP2017201144A JP2017201144A JP7051365B2 JP 7051365 B2 JP7051365 B2 JP 7051365B2 JP 2017201144 A JP2017201144 A JP 2017201144A JP 2017201144 A JP2017201144 A JP 2017201144A JP 7051365 B2 JP7051365 B2 JP 7051365B2
Authority
JP
Japan
Prior art keywords
image
saturation
level correction
saturation level
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017201144A
Other languages
Japanese (ja)
Other versions
JP2019075716A (en
Inventor
広崇 大森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017201144A priority Critical patent/JP7051365B2/en
Priority to US16/159,363 priority patent/US10861194B2/en
Priority to CN201811209221.4A priority patent/CN109672810B/en
Priority to EP18200887.0A priority patent/EP3474532B1/en
Publication of JP2019075716A publication Critical patent/JP2019075716A/en
Application granted granted Critical
Publication of JP7051365B2 publication Critical patent/JP7051365B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/409Edge or detail enhancement; Noise or error suppression
    • H04N1/4092Edge or detail enhancement
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/41Extracting pixel data from a plurality of image sensors simultaneously picking up an image, e.g. for increasing the field of view by combining the outputs of a plurality of sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
    • H04N25/611Correction of chromatic aberration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/066Adjustment of display parameters for control of contrast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Color Image Communication Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Color Television Image Signal Generators (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

本発明は、撮像されて取得された全方位画像を処理する技術に関する。 The present invention relates to a technique for processing an omnidirectional image captured and acquired.

近年、撮像装置の一つである監視カメラにおいて、広範囲を俯瞰して監視・撮影することができる全方位カメラ(例えば水平および垂直画角が180度以上のレンズを備えた監視カメラ)がある。全方位カメラの場合、イメージサークルの外縁の一部が撮像素子の撮像範囲の内側に含まれるため、当該全方位カメラの撮像素子から出力される画像は、光が入射されたイメージサークルの領域と光入射のない領域の境界が存在した画像となる。 In recent years, in a surveillance camera, which is one of image pickup devices, there is an omnidirectional camera (for example, a surveillance camera equipped with a lens having a horizontal and vertical angle of view of 180 degrees or more) that can monitor and shoot a wide range from a bird's-eye view. In the case of an omnidirectional camera, a part of the outer edge of the image circle is included inside the image pickup range of the image sensor, so that the image output from the image sensor of the omnidirectional camera is the area of the image circle on which the light is incident. The image is an image in which the boundary of the region without light incident exists.

また、監視カメラを含むデジタルスチルカメラ、デジタルビデオカメラ等で撮像された画像には、いわゆるフリンジと呼ばれる色滲みが視認されることがある。フリンジとは、輝度差の大きな輪郭が撮像画像中に存在する場合に、その輪郭部分に青色や紫色の縁取りのような色滲みが発生してしまう現象を指す。前述の全方位カメラで撮像された画像のように、イメージサークルによる光入射のある領域と光入射のない領域との境界が存在する画像の場合、特にフリンジが発生しやすい。 In addition, color bleeding, so-called fringe, may be visually recognized in an image captured by a digital still camera including a surveillance camera, a digital video camera, or the like. Fringe refers to a phenomenon in which when a contour with a large difference in luminance is present in a captured image, color bleeding such as a blue or purple border occurs in the contour portion. In the case of an image having a boundary between a region having light incident and a region without light incident due to an image circle, such as an image captured by the above-mentioned omnidirectional camera, fringes are particularly likely to occur.

フリンジの発生は、撮像センサー、レンズ、画像処理等の工程によって引き起こされるものであり、従来、この問題を解決する様々な手法が提案されている。例えば、特許文献1には、レンズの特性を予め計測して補正データをメモリに格納しておき、撮影時にその補正データを用いて補正処理を実行する手法が開示されている。また、特許文献2には、複数回の撮影を行って撮影条件の異なる複数の画像を取得し、それらの画像を合成することでフリンジの補正を行う手法が開示されている。 The generation of fringes is caused by processes such as an image sensor, a lens, and image processing, and various methods for solving this problem have been conventionally proposed. For example, Patent Document 1 discloses a method in which the characteristics of a lens are measured in advance, correction data is stored in a memory, and correction processing is executed using the correction data at the time of shooting. Further, Patent Document 2 discloses a method of performing fringe correction by performing a plurality of shootings to acquire a plurality of images having different shooting conditions and synthesizing the images.

特開2003-60983号公報Japanese Patent Application Laid-Open No. 2003-60983 特開2011-211329号公報Japanese Unexamined Patent Publication No. 2011-21129

しかしながら、特許文献1の手法のようにレンズの特性を予め計測して色滲みの補正データをメモリに格納する手法では、メモリ容量が増大するとともに調整工程も増えて構成が複雑になり、さらにレンズに関わる全ての影響を正確に補正することが困難である。また、特許文献2の技術では、予め色滲みの補正データを格納する必要はないが、撮影を2回以上行う必要があり処理量が増大する。 However, in the method of measuring the characteristics of the lens in advance and storing the color bleeding correction data in the memory as in the method of Patent Document 1, the memory capacity increases, the adjustment process increases, the configuration becomes complicated, and the lens becomes more complicated. It is difficult to accurately correct all the effects related to. Further, in the technique of Patent Document 2, it is not necessary to store the color blur correction data in advance, but it is necessary to perform photography twice or more, which increases the processing amount.

そこで、本発明は、簡易な構成および少ない処理量で、撮像画像の色滲みを抑制可能にすることを目的とする。 Therefore, an object of the present invention is to make it possible to suppress color bleeding of a captured image with a simple configuration and a small amount of processing.

本発明は、撮像された全方位画像のイメージサークル内の彩度決定するための彩度パラメーターを取得す取得手段と、前記彩度パラメーターおよび前記イメージサークル内の画素の位置に基づいて、彩度レベル補正処理により前記彩度を低下させる強度を決定するための彩度レベル補正パラメーターを算出する算出手段と、前記撮像された前記全方位画像の彩度を、前記彩度レベル補正パラメーターに応じた彩度に低下させる彩度レベル補正処理を行う処理手段と、を備え、前記算出手段は、前記イメージサークルの中心側よりも前記イメージサークル内の外縁側の前記画素の彩度が低下するように前記彩度レベル補正パラメーターを算出することを特徴とする。 The present invention is based on an acquisition means for acquiring a saturation parameter for determining the saturation in an image circle of an omnidirectional image captured, the saturation parameter , and the position of a pixel in the image circle . , The calculation means for calculating the saturation level correction parameter for determining the intensity for reducing the saturation by the saturation level correction processing, and the saturation of the captured omnidirectional image, the saturation level correction parameter. The calculation means includes a processing means for performing a saturation level correction process for reducing the saturation according to the above, and the calculation means lowers the saturation of the pixel on the outer edge side in the image circle than on the center side of the image circle. It is characterized in that the saturation level correction parameter is calculated so as to be performed.

本発明によれば、簡易な構成および少ない処理量で、撮像画像の色滲みを抑制可能となる。 According to the present invention, it is possible to suppress color bleeding of a captured image with a simple configuration and a small amount of processing.

本実施形態の撮像システムの概略構成例を示す図である。It is a figure which shows the schematic configuration example of the image pickup system of this embodiment. 本実施形態の撮像装置の概略内部構成例を示す図である。It is a figure which shows the schematic internal structure example of the image pickup apparatus of this embodiment. 画像処理部の構成例を示すブロック図である。It is a block diagram which shows the structural example of an image processing part. 現像処理部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the development processing part. 彩度レベル補正処理部例の構成を示すブロック図である。It is a block diagram which shows the structure of the saturation level correction processing part example. 第1実施形態の彩度レベル補正パラメーター算出のフローチャートである。It is a flowchart of the saturation level correction parameter calculation of 1st Embodiment. 撮像素子、イメージサークル、彩度レベル補正処理該当画素の関係を示す図である。It is a figure which shows the relationship of the image pickup element, the image circle, and the pixel corresponding to the saturation level correction processing. 彩度レベル補正パラメーターと像高位置の関係を示す図である。It is a figure which shows the relationship between the saturation level correction parameter and the image height position. 彩度レベル補正パラメーターと像高位置の複数変化点を示す図である。It is a figure which shows the saturation level correction parameter and a plurality of change points of an image height position. 第2実施形態の彩度レベル補正パラメーター算出のフローチャートである。It is a flowchart of the saturation level correction parameter calculation of 2nd Embodiment. 第2実施形態の色成分を加えた彩度レベル補正の説明図である。It is explanatory drawing of the saturation level correction which added the color component of 2nd Embodiment. 全方位画像からパノラマ画像を生成する例を示した図である。It is a figure which showed the example which generates the panoramic image from the omnidirectional image. 第3実施形態の彩度レベル補正パラメーター算出のフローチャートである。It is a flowchart of the saturation level correction parameter calculation of 3rd Embodiment. 第3の実施形態の表示モードを加えた彩度レベル補正の説明図である。It is explanatory drawing of the saturation level correction which added the display mode of 3rd Embodiment.

以下、本発明の好適な一実施形態について、図面を参照して詳細に説明する。
図1は本実施形態における撮像システムの概略的な構成を示す図である。
図1に示す撮像システムは、動画像の撮像および本実施形態に係る画像処理を行う画像処理装置としての監視カメラ101と、IPネットワーク網を介して相互に通信可能な状態で接続されるクライアント装置102とを有して構成されている。クライアント装置102は、例えばパーソナルコンピュータと表示装置とを有して構成されているとする。本実施形態では、監視カメラ101が画像処理装置の機能を有する例を挙げて説明するが、クライアント装置102において本実施形態に係る画像処理を行うことも可能である。また、本実施形態において、監視カメラ101は、例えば広範囲を俯瞰して監視・撮影することができる全方位カメラ(水平および垂直画角が180度以上のレンズを備えた監視カメラ)であるとする。
Hereinafter, a preferred embodiment of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a diagram showing a schematic configuration of an imaging system according to the present embodiment.
The image pickup system shown in FIG. 1 is a client device connected to a surveillance camera 101 as an image processing device for capturing a moving image and performing image processing according to the present embodiment in a state in which they can communicate with each other via an IP network. It is configured to have 102. It is assumed that the client device 102 includes, for example, a personal computer and a display device. In the present embodiment, an example in which the surveillance camera 101 has a function of an image processing device will be described, but it is also possible for the client device 102 to perform image processing according to the present embodiment. Further, in the present embodiment, the surveillance camera 101 is assumed to be, for example, an omnidirectional camera (surveillance camera equipped with a lens having a horizontal and vertical angle of view of 180 degrees or more) capable of monitoring and photographing a wide range from a bird's-eye view. ..

図2は、本実施形態の監視カメラ101の概略的な内部構成例を示す図である。
撮像光学系201は、ズームレンズ、フォーカスレンズ、ブレ補正レンズ、絞り、シャッター等を有して構成され、被写体等からの光を集光して、被写体等の光像を撮像センサー202の撮像素子の撮像面(センサー面)上に形成させる。本実施形態の場合、撮像光学系201のレンズは、水平および垂直画角が180度以上のレンズであるとする。撮像センサー202は、撮像光学系201により撮像面上に形成された光像を電流値へと変換する撮像素子を有する。撮像センサー202は、撮像素子の撮像面上にカラーフィルタが設けられていることでRGBの色情報をも取得する。また、撮像センサー202は、撮像素子の全ての画素に対して、任意の露光時間を設定可能となされているとする。
FIG. 2 is a diagram showing a schematic internal configuration example of the surveillance camera 101 of the present embodiment.
The image pickup optical system 201 includes a zoom lens, a focus lens, a blur correction lens, a diaphragm, a shutter, and the like, collects light from the subject and the like, and captures an optical image of the subject and the like as an image pickup element of the image pickup sensor 202. It is formed on the image pickup surface (sensor surface) of. In the case of the present embodiment, it is assumed that the lens of the imaging optical system 201 is a lens having a horizontal and vertical angle of view of 180 degrees or more. The image pickup sensor 202 has an image pickup element that converts an optical image formed on the image pickup surface by the image pickup optical system 201 into a current value. The image pickup sensor 202 also acquires RGB color information by providing a color filter on the image pickup surface of the image pickup element. Further, it is assumed that the image sensor 202 can set an arbitrary exposure time for all the pixels of the image sensor.

CPU203は、各構成の処理と制御のすべてに関わり、ROM(リードオンリーメモリ)204や、RAM(ランダムアクセスメモリ)205に格納された命令を順次に読み込み、解釈し、その結果に従って各処理と制御を実行する。撮像系制御部206は、CPU203からの指示の下で、撮像光学系201に対し、フォーカスを合わせる制御、シャッターを開閉する制御、絞りを調整する制御など各種撮像制御を行う。制御部207は、クライアント装置102からの指示に応じた制御を行う。A/D変換部208は、撮像センサー202からの撮像信号をデジタル信号値の画像データに変換する。画像処理部209は、A/D変換部208からの画像データに対して本実施形態に係る画像処理を行う部分であり、その詳細については後述する。エンコーダ部210は、画像処理部209による画像処理後の画像データを、いわゆるMotion JpegやH264などのファイルフォーマットに変換処理(エンコード処理)する。エンコーダ部210によるエンコード処理後の画像データは、例えばクライアント装置102に出力される。 The CPU 203 is involved in all the processing and control of each configuration, sequentially reads and interprets the instructions stored in the ROM (read-only memory) 204 and the RAM (random access memory) 205, and each processing and control according to the result. To execute. Under the instruction from the CPU 203, the image pickup system control unit 206 performs various image pickup controls such as a control for focusing on the image pickup optical system 201, a control for opening and closing a shutter, and a control for adjusting an aperture. The control unit 207 performs control according to an instruction from the client device 102. The A / D conversion unit 208 converts the image pickup signal from the image pickup sensor 202 into image data of digital signal values. The image processing unit 209 is a unit that performs image processing according to the present embodiment on the image data from the A / D conversion unit 208, and the details thereof will be described later. The encoder unit 210 converts (encodes) the image data after the image processing by the image processing unit 209 into a file format such as so-called Motion Jpeg or H264. The image data after the encoding process by the encoder unit 210 is output to, for example, the client device 102.

図3は、本実施形態の画像処理部209の概略的な内部構成を示すブロック図である。
画像入力部301は、前述した撮像センサー202にて撮像され、A/D変換部208にてデジタル変換された画像データを取得する。前処理部302は、撮像センサー起因の固定パターンノイズ除去やゲイン調整などの補正処理を行う。現像処理部303は、前処理部302による補正処理後の画像データに現像処理を行う。後処理部304は、現像処理部303にて現像処理された画像に空間方向のNRフィルタおよび時間方向のNRフィルタを掛けることで、ランダムに発生するノイズを低減する処理を行う。画像出力部305は、後処理部304からの画像データを図1のエンコーダ部210に出力する。
FIG. 3 is a block diagram showing a schematic internal configuration of the image processing unit 209 of the present embodiment.
The image input unit 301 acquires image data imaged by the image sensor 202 described above and digitally converted by the A / D conversion unit 208. The preprocessing unit 302 performs correction processing such as removal of fixed pattern noise caused by the image pickup sensor and gain adjustment. The development processing unit 303 performs development processing on the image data after the correction processing by the preprocessing unit 302. The post-processing unit 304 applies a spatial NR filter and a temporal NR filter to the image developed by the development processing unit 303 to reduce randomly generated noise. The image output unit 305 outputs the image data from the post-processing unit 304 to the encoder unit 210 in FIG.

図4は、現像処理部303の内部構成例を示したブロック図である。
現像処理部303は、デモザイク処理部401と、ホワイトバランス処理部402と、彩度レベル補正処理部403と、ガンマ処理部404とを有して構成されている。デモザイク処理部401は前処理部302から入力された画像データに対しデモザイク処理を行い、ホワイトバランス処理部402はデモザイク処理後の画像データに対しホワイトバランス処理を行う。彩度レベル補正処理部403の詳細については後述するが、彩度レベル補正処理部403が彩度差レベル補正処理を行うことによって、色滲みを目立たなくすることができる。ガンマ処理部404は、彩度レベル補正処理部403から入力された画像データに対しガンマ処理を行う。そして、ガンマ処理部404から出力された画像データは、図3の後処理部304へ送られる。
FIG. 4 is a block diagram showing an example of the internal configuration of the development processing unit 303.
The development processing unit 303 includes a demosaic processing unit 401, a white balance processing unit 402, a saturation level correction processing unit 403, and a gamma processing unit 404. The demosaic processing unit 401 performs demosaic processing on the image data input from the preprocessing unit 302, and the white balance processing unit 402 performs white balance processing on the image data after the demosaic processing. The details of the saturation level correction processing unit 403 will be described later, but the color bleeding can be made inconspicuous by performing the saturation difference level correction processing by the saturation level correction processing unit 403. The gamma processing unit 404 performs gamma processing on the image data input from the saturation level correction processing unit 403. Then, the image data output from the gamma processing unit 404 is sent to the post-processing unit 304 of FIG.

<第1実施形態の彩度レベル補正処理>
以下、第1実施形態における彩度レベル補正処理部403の構成と彩度レベル補正処理について説明する。
図5は、第1実施形態における彩度レベル補正処理部403の概略構成例を示すブロック図である。第1実施形態の彩度レベル補正処理部403は、動画信号の各フレームの画像に対して彩度レベル補正を行うための構成であるとする。彩度レベル補正処理部403は、入力信号取得部501、彩度強調処理パラメーター取得部502、彩度レベル補正パラメーター算出処理部503、彩度レベル補正実行処理部504を有して構成される。
<Saturation level correction processing of the first embodiment>
Hereinafter, the configuration of the saturation level correction processing unit 403 and the saturation level correction processing in the first embodiment will be described.
FIG. 5 is a block diagram showing a schematic configuration example of the saturation level correction processing unit 403 according to the first embodiment. It is assumed that the saturation level correction processing unit 403 of the first embodiment is configured to perform saturation level correction for the image of each frame of the moving image signal. The saturation level correction processing unit 403 includes an input signal acquisition unit 501, a saturation enhancement processing parameter acquisition unit 502, a saturation level correction parameter calculation processing unit 503, and a saturation level correction execution processing unit 504.

図6は、第1実施形態の彩度レベル補正処理部403が実行する彩度レベル補正処理の流れを示すフローチャートである。以下、第1実施形態における彩度レベル補正処理の流れを、図6のフローチャートを参照しながら説明する。以下の説明では、図6のフローチャートの各処理ステップS601~ステップS604をS601~S604と略記する。この図6のフローチャートの処理は、ハードウェア構成により実行されてもよいし、一部がソフトウェア構成で残りがハードウェア構成により実現されてもよい。ソフトウェア構成により処理が実行される場合、例えばROMに記憶されている本実施形態に係る画像処理のプログラムをCPU等が実行することにより実現される。本実施形態に係るプログラムは、ROMに予め用意されていてもよく、また着脱可能な半導体メモリ等から読み出されたり、不図示のインターネット等のネットワークからダウンロードされたりしてもよい。これらのことは後述する他のフローチャートにおいても同様であるとする。 FIG. 6 is a flowchart showing the flow of the saturation level correction processing executed by the saturation level correction processing unit 403 of the first embodiment. Hereinafter, the flow of the saturation level correction process in the first embodiment will be described with reference to the flowchart of FIG. In the following description, each processing step S601 to S604 in the flowchart of FIG. 6 will be abbreviated as S601 to S604. The processing of the flowchart of FIG. 6 may be executed by the hardware configuration, or may be partially realized by the software configuration and the rest by the hardware configuration. When the processing is executed by the software configuration, it is realized by, for example, the CPU or the like executing the image processing program according to the present embodiment stored in the ROM. The program according to the present embodiment may be prepared in advance in the ROM, may be read from a detachable semiconductor memory or the like, or may be downloaded from a network such as the Internet (not shown). It is assumed that these things are the same in other flowcharts described later.

まず、S601において、入力信号取得部501は、全方位カメラである本実施形態の監視カメラ101により撮像された動画信号のフレーム毎に画像(以下、全方位画像とする)を取得する。
次に、S602において、彩度強調処理パラメーター取得部502は、入力画像に対して彩度(色の濃さ)をどの程度強調するかを決定する彩度パラメーター(以下、彩度強調処理パラメーターとする。)を取得する。例えば、監視カメラの場合、ユーザーはクライアント装置102を介して指示を入力することで、彩度をどの程度強調するかを調整することができる。以下、彩度を調整する処理を彩度レベル補正処理とする。より具体的には、ユーザーが選択できる彩度レベル補正処理の調整幅が例えば"0~100"の範囲であり、ユーザーが彩度レベル補正処理を"50"の強度で指定した場合、彩度強調処理パラメーター取得部502は、彩度強調処理パラメーターとして"50"値を取得する。なお、彩度強調処理パラメーターとして"50"値は標準的な値であり、ユーザーから指定が無い場合にデフォルトで設定されている彩度レベルと同じ値であるものとする。
First, in S601, the input signal acquisition unit 501 acquires an image (hereinafter referred to as an omnidirectional image) for each frame of the moving image signal captured by the surveillance camera 101 of the present embodiment, which is an omnidirectional camera.
Next, in S602, the saturation enhancement processing parameter acquisition unit 502 includes a saturation parameter (hereinafter referred to as a saturation enhancement processing parameter) that determines how much the saturation (color density) is emphasized with respect to the input image. To). For example, in the case of a surveillance camera, the user can adjust how much the saturation is emphasized by inputting an instruction via the client device 102. Hereinafter, the process of adjusting the saturation is referred to as the saturation level correction process. More specifically, when the adjustment range of the saturation level correction process that can be selected by the user is, for example, in the range of "0 to 100" and the user specifies the saturation level correction process with an intensity of "50", the saturation The enhancement processing parameter acquisition unit 502 acquires a "50" value as the saturation enhancement processing parameter. The "50" value as the saturation enhancement processing parameter is a standard value, and is assumed to be the same value as the saturation level set by default when not specified by the user.

次に、S603において、彩度レベル補正パラメーター算出処理部503は、彩度強調処理パラメーター、および、撮像画像内の画素の位置に基づいて、彩度レベル補正パラメーターを算出する。本実施形態において、彩度レベル補正パラメーターを算出する際の撮像画像内の画素の位置は、撮像素子の撮像面の中心からの距離を表す像高、または座標位置として取得される。なお、イメージサークルの中心を正確に特定することができるのであれば、そのイメージサークルの中心からの距離を、画素の位置として取得してもよい。
その後、S604において、彩度レベル補正実行処理部504は、入力信号取得部501で取得された撮像画像に対し、S603で算出された彩度レベル補正パラメーターに応じた彩度レベル補正処理を実行する。
Next, in S603, the saturation level correction parameter calculation processing unit 503 calculates the saturation level correction parameter based on the saturation enhancement processing parameter and the position of the pixel in the captured image. In the present embodiment, the positions of the pixels in the captured image when calculating the saturation level correction parameter are acquired as the image height representing the distance from the center of the image pickup surface of the image pickup device or the coordinate position. If the center of the image circle can be accurately specified, the distance from the center of the image circle may be acquired as the position of the pixel.
After that, in S604, the saturation level correction execution processing unit 504 executes the saturation level correction processing according to the saturation level correction parameter calculated in S603 for the captured image acquired by the input signal acquisition unit 501. ..

以下、前述のS603の彩度レベル補正パラメーターの算出処理について、図7~図9と下記の式(1)、式(2)を用いて、より具体的に説明する。
図7は、撮像センサー202が備えている撮像素子の撮像範囲700と、撮像光学系201により形成されるイメージサークル701とを、模式的に示した図である。ここで、図7には、彩度レベル補正処理が実行される該当画素702の座標位置を(x,y)、撮像素子の撮像面の中心(以下、画面中心703とする。)の座標位置を(X,Y)、イメージサークル701の中心から外縁までの距離をRとして表している。なお、画面中心703とイメージサークル701の中心は一致しているとする。このとき、該当画素702が画面中心703からどの程度離れているかを表す像高指標M(x,y)は、下記の式(1)により算出される。
M(x,y)={(X-x)2+(Y-y)2}/R2 式(1)
Hereinafter, the calculation process of the saturation level correction parameter of S603 described above will be described more specifically by using FIGS. 7 to 9 and the following equations (1) and (2).
FIG. 7 is a diagram schematically showing an image pickup range 700 of an image pickup element included in the image pickup sensor 202 and an image circle 701 formed by the image pickup optical system 201. Here, in FIG. 7, the coordinate position of the corresponding pixel 702 on which the saturation level correction processing is executed is (x, y), and the coordinate position of the center of the image pickup surface of the image pickup device (hereinafter referred to as the screen center 703). (X, Y), and the distance from the center of the image circle 701 to the outer edge is represented as R. It is assumed that the center of the screen 703 and the center of the image circle 701 are the same. At this time, the image height index M (x, y) indicating how far the corresponding pixel 702 is from the screen center 703 is calculated by the following equation (1).
M (x, y) = {(X-x) 2 + (Y-y) 2 } / R 2 equation (1)

ここで、像高指標M(x,y)が例えば0.0~1.0の値をとる場合、該当画素702はイメージサークル701の中に含まれる画素を表しているとする。一方、像高指標M(x,y)が例えば1.0よりも大きな値をとる場合、該当画素702は、イメージサークル701の外に存在する画素を表しているとする。
また、座標位置(x,y)の該当画素702に対する彩度レベル補正パラメーターを補正パラメーターN(x,y)として表すとする。ここで、例えば、彩度レベル補正処理の調整幅が"0~100"の範囲であり、S602で取得される彩度強調処理パラメーターが"50"であったとする。この場合、補正パラメーターN(x,y)は、式(1)で算出される画面中心703からどの程度離れているかの像高指標M(x,y)を用いて、下記の式(2)により算出できる。

Figure 0007051365000001
Here, when the image height index M (x, y) takes a value of, for example, 0.0 to 1.0, it is assumed that the corresponding pixel 702 represents a pixel included in the image circle 701. On the other hand, when the image height index M (x, y) takes a value larger than, for example, 1.0, it is assumed that the corresponding pixel 702 represents a pixel existing outside the image circle 701.
Further, it is assumed that the saturation level correction parameter for the corresponding pixel 702 at the coordinate position (x, y) is expressed as the correction parameter N (x, y). Here, for example, it is assumed that the adjustment range of the saturation level correction processing is in the range of "0 to 100" and the saturation enhancement processing parameter acquired in S602 is "50". In this case, the correction parameter N (x, y) uses the image height index M (x, y) indicating how far away from the screen center 703 calculated by the equation (1), and the following equation (2) is used. Can be calculated by
Figure 0007051365000001

図8は、式(2)で表される像高指標M(x,y)と補正パラメーターN(x,y)の関係の一例を実線800により表した図である。図8の縦軸は補正パラメーターN、横軸は像高指標Mを表している。図8の実線800に示すように、補正パラメーターN(x,y)は、イメージサークルの外縁に近いほど彩度レベルを小さくするような値に設定される。イメージサークルの中心部は例えばユーザーの監視対象等が撮影されている可能性が高いため、図8では彩度レベル補正処理の強度をユーザーの意図である彩度強調処理パラメーターに一致するような関係になされている。つまり、図8の例の場合、補正パラメーターN(x,y)は、イメージサークルの中心部に近づくほど、彩度強調処理パラメーターの"50"に近い値となされる。これにより、この補正パラメーターN(x,y)を用いた彩度レベル補正処理が、彩度レベル補正実行処理部504にて実行された場合、イメージサークルの外縁に近いほど彩度レベルが小さくなる。そのため、外縁では彩度レベル処理を適用する前よりも彩度の大きさが小さくなり、フリンジの色が青色や紫色から無彩色に変更され、色滲みを抑制する(目立たなくする)ことが可能となる。一方、図8において、イメージサークルの外側に位置する光入射のない領域(像高指標Mが1.0より大きい領域)に対しては、S604で彩度レベルが0となるような補正パラメーターN(x,y)が設定される。あるいは、彩度レベル補正実行処理部504では、撮像素子の光入射のある領域に対してのみ彩度レベル補正処理が実行され、光入射のない領域に対しては彩度レベル補正処理が実行されないようにしてもよい。 FIG. 8 is a diagram showing an example of the relationship between the image height index M (x, y) represented by the equation (2) and the correction parameter N (x, y) by the solid line 800. The vertical axis of FIG. 8 represents the correction parameter N, and the horizontal axis represents the image height index M. As shown by the solid line 800 in FIG. 8, the correction parameter N (x, y) is set to a value that reduces the saturation level as it is closer to the outer edge of the image circle. Since there is a high possibility that the central part of the image circle is photographed, for example, the user's monitoring target, etc., in FIG. 8, the relationship is such that the intensity of the saturation level correction processing matches the saturation enhancement processing parameter intended by the user. It has been done. That is, in the case of the example of FIG. 8, the correction parameter N (x, y) is set to a value closer to the saturation enhancement processing parameter “50” as it approaches the center of the image circle. As a result, when the saturation level correction process using this correction parameter N (x, y) is executed by the saturation level correction execution processing unit 504, the saturation level becomes smaller as it is closer to the outer edge of the image circle. .. Therefore, at the outer edge, the saturation level is smaller than before applying the saturation level processing, and the color of the fringe is changed from blue or purple to achromatic color, and it is possible to suppress (make it inconspicuous) color bleeding. Will be. On the other hand, in FIG. 8, the correction parameter N such that the saturation level becomes 0 in S604 for the region without light incident (the region where the image height index M is larger than 1.0) located outside the image circle. (X, y) is set. Alternatively, in the saturation level correction execution processing unit 504, the saturation level correction processing is executed only for the region where the light is incident on the image sensor, and the saturation level correction processing is not executed for the region where the light is not incident. You may do so.

なお、補正パラメーターNは式(1)、式(2)によって算出される値に限るものではなく、例えば図9の実線900に示すように、変化点901を複数設けることで、補正パラメーターNの変化を滑らかに算出する方法を採用してもよい。図9は、図8同様に、縦軸が補正パラメーターN、横軸が像高指標Mを表している。また、補正パラメーターNは彩度レベル補正処理の強度に限るものではなく、色成分に対するゲイン等の補正パラメーターを採用してもよい。 The correction parameter N is not limited to the values calculated by the equations (1) and (2). For example, as shown by the solid line 900 in FIG. 9, the correction parameter N can be set by providing a plurality of change points 901. A method of smoothly calculating the change may be adopted. In FIG. 9, similarly to FIG. 8, the vertical axis represents the correction parameter N and the horizontal axis represents the image height index M. Further, the correction parameter N is not limited to the intensity of the saturation level correction processing, and a correction parameter such as a gain for a color component may be adopted.

第1実施形態においては、以上のように補正パラメーターNが設定されることで、中心部ではユーザーの意図した彩度を実現しつつ、イメージサークル外縁に発生するフリンジを抑制することが可能になる。すなわち、本実施形態の彩度レベル補正処理部403では、前述した図6のS601~S604の処理を動画の画像データに対して行うことで、簡易な構成および少ない処理量で、入力された画像に色滲みが生ずるのを抑制することができる。
第1実施形態では、監視カメラ101において彩度レベル補正処理を実行したが、彩度レベル補正処理が実行される対象には特に制限はない。例えば、魚眼レンズを使用した場合や、イメージサークルの外縁の一部が撮像素子の撮像範囲の内側に含まれるような広角レンズを使用した場合や、画像の四隅にケラレが発生している場合に対して、同様の処理を実行することが可能である。
In the first embodiment, by setting the correction parameter N as described above, it becomes possible to suppress the fringe generated at the outer edge of the image circle while realizing the saturation intended by the user in the central portion. .. That is, in the saturation level correction processing unit 403 of the present embodiment, the processing of S601 to S604 of FIG. 6 described above is performed on the image data of the moving image, so that the input image has a simple configuration and a small amount of processing. It is possible to suppress the occurrence of color bleeding.
In the first embodiment, the saturation level correction process is executed in the surveillance camera 101, but the target to which the saturation level correction process is executed is not particularly limited. For example, when using a fisheye lens, when using a wide-angle lens such that a part of the outer edge of the image circle is included inside the image pickup range of the image sensor, or when vignetting occurs at the four corners of the image. It is possible to execute the same process.

<第2実施形態の彩度レベル補正処理>
前述した第1実施形態では、図6のS603において、彩度レベル補正パラメーター算出処理部503が、彩度強調処理パラメーターおよび画素の位置(像高または座標)に応じて彩度レベル補正処理パラメーターを算出する方法について説明した。以下の第2実施形態では、彩度レベル補正パラメーター算出処理部503において、彩度強調処理パラメーターおよび画素の位置に加え、色成分の情報を考慮して、彩度レベル補正パラメーターを算出する。なお、第2実施形態において、画像処理に係る構成は前述の第1実施形態と同様であるため、その図示および説明は省略する。第2実施形態においても第1実施形態と同じ構成については同じ符号を付し、それらの説明を省略する。
<Saturation level correction processing of the second embodiment>
In the first embodiment described above, in S603 of FIG. 6, the saturation level correction parameter calculation processing unit 503 sets the saturation level correction processing parameter according to the saturation enhancement processing parameter and the pixel position (image height or coordinates). The calculation method was explained. In the following second embodiment, the saturation level correction parameter calculation processing unit 503 calculates the saturation level correction parameter in consideration of the color component information in addition to the saturation enhancement processing parameter and the pixel position. In the second embodiment, the configuration related to the image processing is the same as that of the first embodiment described above, so the illustration and description thereof will be omitted. Also in the second embodiment, the same reference numerals are given to the same configurations as those in the first embodiment, and the description thereof will be omitted.

図10は、第2実施形態の彩度レベル補正パラメーター算出処理部503における彩度レベル補正処理のパラメーター算出処理のフローチャートである。以下、第2実施形態の彩度レベル補正処理の流れについて図10のフローチャートを参照して説明する。
まず、S1001において、彩度レベル補正パラメーター算出処理部503は、色成分を取得するために、下記の式(3)のように、入力信号のRGB値を、輝度(Y)成分と色(UV)成分に変換する。
FIG. 10 is a flowchart of the parameter calculation process of the saturation level correction process in the saturation level correction parameter calculation process unit 503 of the second embodiment. Hereinafter, the flow of the saturation level correction process of the second embodiment will be described with reference to the flowchart of FIG.
First, in S1001, the saturation level correction parameter calculation processing unit 503 uses the RGB value of the input signal as the luminance (Y) component and the color (UV) in order to acquire the color component, as shown in the following equation (3). ) Convert to components.

Y(x,y)=0.299×R(x,y)+0.587×G(x,y)+0.114×B(x,y)
U(x,y)=-0.169×R(x,y)-0.331×G(x,y)+0.500×B(x,y) 式(3)
V(x,y)=0.500×R(x,y)-0.419×G(x,y)-0.081×B(x,y)
Y (x, y) = 0.299 x R (x, y) + 0.587 x G (x, y) + 0.114 x B (x, y)
U (x, y) = -0.169 x R (x, y) -0.331 x G (x, y) + 0.500 x B (x, y) Equation (3)
V (x, y) = 0.500 x R (x, y) -0.419 x G (x, y) -0.081 x B (x, y)

ここで、式(3)のR(x,y)、G(x,y)、B(x,y)は座標位置(x,y)のRGB信号値を表し、Y(x,y)、U(x,y)、V(x,y)はYUV信号を表す。なお、色信号は式(3)によって算出される値に限るものではなく、Lab変換によって得られるa,b値や、YCbCr変換によって得られるCb,Cr値を採用してもよい。 Here, R (x, y), G (x, y), and B (x, y) in the equation (3) represent RGB signal values at the coordinate position (x, y), and Y (x, y) ,. U (x, y) and V (x, y) represent YUV signals. The color signal is not limited to the value calculated by the equation (3), and the a and b values obtained by the Lab conversion and the Cb and Cr values obtained by the YCbCr conversion may be adopted.

続いて、S1002において、彩度レベル補正パラメーター算出処理部503は、イメージサークル外縁から画面中心にかけて、UV成分の大きさを像高別に取得し、その取得した値について0.0~1.0の値への正規化を行う。以下、UV成分の大きさを正規化した値をUV強度O(x,y)と呼ぶ。
さらにステップS1003において、彩度レベル補正パラメーター算出処理部503は、式(1)による像高指標M(x,y)と彩度強調処理パラメーターLとS1002によるUV強度O(x,y)を用い、補正パラメーターN(x,y)を式(4)にて算出する。

Figure 0007051365000002
Subsequently, in S1002, the saturation level correction parameter calculation processing unit 503 acquires the magnitude of the UV component for each image height from the outer edge of the image circle to the center of the screen, and the acquired value is 0.0 to 1.0. Normalize to a value. Hereinafter, the value obtained by normalizing the magnitude of the UV component is referred to as UV intensity O (x, y).
Further, in step S1003, the saturation level correction parameter calculation processing unit 503 uses the image height index M (x, y) according to the equation (1), the saturation enhancement processing parameters L, and the UV intensity O (x, y) according to S1002. , The correction parameter N (x, y) is calculated by the equation (4).
Figure 0007051365000002

図11(a)と図11(b)は、式(4)を用いて補正パラメーターNを算出する場合のUV強度O、像高指標M、補正パラメーターNの関係説明に用いる図である。図11(a)は、撮像素子の撮像範囲1100とイメージサークル1101を示した図である。図11(a)に示すように、イメージサークル1101において、画面中心側の領域C1はUV成分の高い被写体が多く分布(UV強度が大きい領域)し、中間位置の領域C2はほぼ無彩色の被写体が多く分布(UV強度が小さい領域)しているものとする。一方、イメージサークル1101の外縁部分の領域C3はUV成分の高い被写体が比較的多く分布する領域とする。図11(b)は、第2実施形態の場合の像高指標Mと補正パラメーターNの関係の一例を実線1111により表した図であり、前述の図8同様に、縦軸が補正パラメーターN、横軸が像高指標Mを表している。 11 (a) and 11 (b) are diagrams used for explaining the relationship between the UV intensity O, the image height index M, and the correction parameter N when the correction parameter N is calculated using the equation (4). FIG. 11A is a diagram showing an image pickup range 1100 and an image circle 1101 of the image pickup device. As shown in FIG. 11A, in the image circle 1101, the region C1 on the center side of the screen has many subjects with high UV components (regions with high UV intensity), and the region C2 at the intermediate position is an almost achromatic subject. It is assumed that there are many distributions (regions with low UV intensity). On the other hand, the region C3 of the outer edge portion of the image circle 1101 is a region in which a relatively large number of subjects having a high UV component are distributed. FIG. 11B is a diagram showing an example of the relationship between the image height index M and the correction parameter N in the second embodiment by a solid line 111, and the vertical axis is the correction parameter N, as in FIG. 8 described above. The horizontal axis represents the image height index M.

この図11(a)および図11(b)に示すように、領域C1や領域C3のような色成分が多く含まれる(UV成分の大きい)領域に対しては、彩度レベル補正パラメーターによる彩度レベル補正処理の強度の変化は緩やかになされる。例えば、画面中心のUV成分が多く分布(UV強度が大きい)している領域C1では彩度レベル補正パラメーターの変化を略々無くして彩度の変化をより小さくする。また、イメージサークル外縁のUV成分が比較的多く分布する領域C3では彩度レベル補正パラメーターの変化を小さくして彩度の段差が生じないようにする。一方、中間位置のように無彩色に近い領域C2については、彩度レベル補正パラメーターを大きく変化させて彩度の変化を大きくする。 As shown in FIGS. 11 (a) and 11 (b), for a region containing a large amount of color components (large UV component) such as region C1 and region C3, the color is colored by the saturation level correction parameter. The change in the intensity of the degree level correction process is made gradual. For example, in the region C1 in which a large amount of UV components are distributed (high UV intensity) in the center of the screen, the change in the saturation level correction parameter is substantially eliminated to make the change in saturation smaller. Further, in the region C3 where a relatively large amount of UV components are distributed on the outer edge of the image circle, the change in the saturation level correction parameter is made small so that a step in saturation does not occur. On the other hand, for the region C2 that is close to achromatic color such as the intermediate position, the saturation level correction parameter is greatly changed to increase the change in saturation.

このように、第2実施形態によれば、UV強度O(x,y)をも考慮して彩度レベル補正処理パラメーターを算出することで、像高位置ごとに異なる彩度レベル補正処理を実行する場合であっても、像高別の彩度の違いを目立たなくすることができる。
また、補正パラメーターNは、式(4)によって算出される値に限るものではなく、例えば式(5)のように算出する方法を採用してもよい。

Figure 0007051365000003
As described above, according to the second embodiment, by calculating the saturation level correction processing parameter in consideration of the UV intensity O (x, y), different saturation level correction processing is executed for each image height position. Even in this case, the difference in saturation for each image height can be made inconspicuous.
Further, the correction parameter N is not limited to the value calculated by the equation (4), and a method of calculating the correction parameter N may be adopted, for example, as in the equation (5).
Figure 0007051365000003

式(5)を用いて彩度レベル補正パラメーターを算出した場合、イメージサークル外縁に存在する色成分の大きな被写体に対して、彩度レベルの補正処理を実行した場合でも、ユーザーの意図した彩度を実現することが可能になる。なお、式(4)と式(5)の算出方法を像高位置に応じて組み合わせて算出する方法を採用してもよい。
以上説明したように、第2実施形態によれば、彩度レベル補正処理によって生じる像高別の彩度の違いを軽減しつつ、イメージサークル外縁に発生する色滲みを抑制することが可能になる。
When the saturation level correction parameter is calculated using the equation (5), even if the saturation level correction processing is executed for a subject having a large color component existing on the outer edge of the image circle, the saturation intended by the user is executed. Will be possible. It should be noted that a method of calculating by combining the calculation methods of the equation (4) and the equation (5) according to the image height position may be adopted.
As described above, according to the second embodiment, it is possible to suppress the color bleeding that occurs at the outer edge of the image circle while reducing the difference in saturation for each image height caused by the saturation level correction processing. ..

<第3実施形態の彩度レベル補正処理>
第3実施形態では、彩度レベル補正パラメーター算出処理部503において、彩度強調処理パラメーターおよび画素の像高または座標に加えて、表示モードを考慮して、彩度レベル補正パラメーターを算出する例を説明する。なお、第3実施形態において、画像処理に係る構成は前述の第1実施形態と同様であるため、その図示および説明は省略する。第3実施形態においても第1実施形態と同じ構成については同じ符号を付し、それらの説明を省略する。
<Saturation level correction processing of the third embodiment>
In the third embodiment, an example in which the saturation level correction parameter calculation processing unit 503 calculates the saturation level correction parameter in consideration of the display mode in addition to the saturation enhancement processing parameter and the image height or coordinates of the pixel. explain. In the third embodiment, the configuration related to the image processing is the same as that of the first embodiment described above, so the illustration and description thereof will be omitted. Also in the third embodiment, the same reference numerals are given to the same configurations as those in the first embodiment, and the description thereof will be omitted.

ここで、本実施形態の撮像システムでは、クライアント装置102の表示装置上に画像を表示させる際の表示方法をユーザーが任意に設定可能となされている。表示方法の設定は、一例として、複数の表示モードからユーザーが所望の表示モードを指定することにより行われる。表示モードとしては、例えば、全方位カメラで撮影された画像に対し、ユーザーが任意の領域を指定して、歪みのある全方位画像に対して歪曲補正を行わせた上でパノラマ画像のように表示させるモード(パノラマモードとする。)を挙げることができる。 Here, in the image pickup system of the present embodiment, the user can arbitrarily set the display method when displaying an image on the display device of the client device 102. As an example, the display method is set by the user specifying a desired display mode from a plurality of display modes. The display mode is, for example, a panoramic image after the user specifies an arbitrary area for an image taken by an omnidirectional camera and performs distortion correction on the distorted omnidirectional image. The mode to be displayed (referred to as panoramic mode) can be mentioned.

図12は、撮像素子の撮像範囲1200とイメージサークル1201を示した図である。イメージサークル1201の全方位画像は、パノラマモードで表示される領域P1とパノラマモードで表示されない領域P2とに分けられる。パノラマモードでの表示が行われる場合、イメージサークル1201の全方位画像の中から、領域P1の画像が取り出され、歪曲補正を行った上で、パノラマ画像1210として表示される。この図12に示すように、例えばユーザーがパノラマ画像を表示させたい場合、全方位画像の中心部分を除いた領域P1を用いてパノラマ画像1210が作成される。ここで、パノラマモードでは、図12に示すように、イメージサークル1201の一部領域が表示されないため、ユーザーが例えば監視を行っている画像に彩度レベル補正処理の効果が反映されない領域が存在することになる。すなわち、表示モードによっては画像に彩度レベル補正処理の効果が反映されない領域が存在するため、第3実施形態の彩度レベル補正パラメーター算出処理では、表示モードに応じた彩度レベル補正パラメーターを算出する。 FIG. 12 is a diagram showing an image pickup range 1200 and an image circle 1201 of an image pickup device. The omnidirectional image of the image circle 1201 is divided into an area P1 displayed in the panoramic mode and an area P2 not displayed in the panoramic mode. When the display is performed in the panoramic mode, the image of the region P1 is taken out from the omnidirectional image of the image circle 1201, and after distortion correction, it is displayed as the panoramic image 1210. As shown in FIG. 12, for example, when the user wants to display a panoramic image, the panoramic image 1210 is created using the region P1 excluding the central portion of the omnidirectional image. Here, in the panorama mode, as shown in FIG. 12, since a part of the image circle 1201 is not displayed, there is an area in which the effect of the saturation level correction processing is not reflected in the image being monitored by the user, for example. It will be. That is, since there is an area in which the effect of the saturation level correction processing is not reflected in the image depending on the display mode, the saturation level correction parameter corresponding to the display mode is calculated in the saturation level correction parameter calculation processing of the third embodiment. do.

図13は、第3実施形態における彩度レベル補正パラメーター算出処理のフローチャートである。以下、第3実施形態における彩度レベル補正処理の処理フローについて図13のフローチャートを参照して説明する。
まず、S1301において、彩度レベル補正パラメーター算出処理部503は、例えばクライアント装置102を介してユーザーにより選択された表示モードを取得する。
続いて、ステップS1302において、彩度レベル補正パラメーター算出処理部503は、式(1)による像高指標M(x,y)と、彩度強調処理パラメーターLと、S1301で取得した表示モードとに基づいて、彩度レベル補正パラメーターを算出する。
FIG. 13 is a flowchart of the saturation level correction parameter calculation process in the third embodiment. Hereinafter, the processing flow of the saturation level correction processing in the third embodiment will be described with reference to the flowchart of FIG.
First, in S1301, the saturation level correction parameter calculation processing unit 503 acquires the display mode selected by the user, for example, via the client device 102.
Subsequently, in step S1302, the saturation level correction parameter calculation processing unit 503 sets the image height index M (x, y) according to the equation (1), the saturation enhancement processing parameter L, and the display mode acquired in S1301. Based on this, the saturation level correction parameters are calculated.

図14(a)と図14(b)は、第3実施形態において、表示モードとしてパノラマモードが選択された場合の、像高指標M、彩度レベル補正パラメーター(補正パラメーターN)の関係説明に用いる図である。図14(a)は、撮像素子の撮像範囲1400とイメージサークル1401を示した図である。図14(a)に示すように、イメージサークル1401において、画面中心側の領域P2はパノラマモードで表示されない領域であり、それ以外の領域P1はパノラマモードで表示される領域である。図14(b)は、第3実施形態の場合の像高指標Mと補正パラメーターNの関係の一例を実線1411により表した図であり、前述の図8同様に、縦軸が補正パラメーターN、横軸が像高指標Mを表している。 14 (a) and 14 (b) explain the relationship between the image height index M and the saturation level correction parameter (correction parameter N) when the panorama mode is selected as the display mode in the third embodiment. It is a figure to use. FIG. 14A is a diagram showing an image pickup range 1400 and an image circle 1401 of an image pickup device. As shown in FIG. 14A, in the image circle 1401, the area P2 on the center side of the screen is an area that is not displayed in the panoramic mode, and the other area P1 is an area that is displayed in the panoramic mode. FIG. 14B is a diagram showing an example of the relationship between the image height index M and the correction parameter N in the case of the third embodiment by a solid line 1411, and the vertical axis is the correction parameter N, as in FIG. 8 described above. The horizontal axis represents the image height index M.

第3実施形態の場合、図14(a)および図14(b)に示すように、パノラマモードで表示されない領域P2では彩度レベル補正パラメーターが、彩度強調処理パラメーターから得られる値と同等の値に設定される。また、イメージサークル1401において、領域P2を除く、パノラマモードで表示される領域P1では、第1実施形態の図8で説明したのと同様に、像高指標Mに応じて彩度レベル補正処理の強度が徐々に弱まるように彩度レベル補正パラメーターが設定される。 In the case of the third embodiment, as shown in FIGS. 14 (a) and 14 (b), the saturation level correction parameter is equivalent to the value obtained from the saturation enhancement processing parameter in the region P2 not displayed in the panorama mode. Set to a value. Further, in the area P1 displayed in the panoramic mode excluding the area P2 in the image circle 1401, the saturation level correction processing is performed according to the image height index M, as described with FIG. 8 of the first embodiment. The saturation level correction parameter is set so that the intensity gradually decreases.

このように、第3実施形態においては、表示モードに応じて彩度レベル補正処理パラメーターを算出することで、ユーザーが選択した表示モードに応じた最適な彩度レベル補正処理を実行することが可能になる。
なお、第3実施形態では、第1実施形態で説明した彩度強調処理パラメーターおよび画素の位置(像高または座標)に表示モードの情報を加えた例を挙げたが、さらに第2実施形態で説明した色成分の情報をも加えて彩度レベル補正処理パラメーターを算出してもよい。
As described above, in the third embodiment, by calculating the saturation level correction processing parameter according to the display mode, it is possible to execute the optimum saturation level correction processing according to the display mode selected by the user. become.
In the third embodiment, an example in which the information of the display mode is added to the saturation enhancement processing parameters and the pixel positions (image height or coordinates) described in the first embodiment is given, but further in the second embodiment. The saturation level correction processing parameter may be calculated by adding the information of the color component described.

以上説明したように、第1~第3実施形態においては、イメージサークル(結像範囲)の外縁の一部が撮像素子の撮像範囲内に含まれる画像に対し好適な彩度レベル補正処理を行うことで、色滲みを抑制することができる。第1~第3実施形態によれば、全方位画像を撮影可能な監視カメラにおいて、簡易な構成および少ない処理量で、撮像画像に発生する色滲み、特に、イメージサークルの外縁領域に発生するフリンジの発生を抑制するための彩度レベル補正処理を実現可能となる。 As described above, in the first to third embodiments, a saturation level correction process suitable for an image in which a part of the outer edge of the image circle (imaging range) is included in the imaging range of the image pickup device is performed. Therefore, color bleeding can be suppressed. According to the first to third embodiments, in a surveillance camera capable of capturing an omnidirectional image, color bleeding that occurs in the captured image with a simple configuration and a small amount of processing, particularly fringes that occur in the outer edge region of the image circle. It becomes possible to realize the saturation level correction processing for suppressing the occurrence of.

<その他の実施形態>
本実施形態の画像処理装置は、監視カメラに限定されない。例えば、広い画角範囲を撮影可能なデジタルカメラ、デジタルビデオカメラ、カメラ機能を備えたスマートフォンやタブレット端末等の各種携帯端末にも適用可能であり、さらには工業用カメラ、車載カメラ、医療用カメラ等にも本実施形態は適用可能である。
<Other embodiments>
The image processing device of the present embodiment is not limited to the surveillance camera. For example, it can be applied to various mobile terminals such as digital cameras, digital video cameras, and smartphones and tablet terminals equipped with camera functions that can shoot a wide range of angles, as well as industrial cameras, in-vehicle cameras, and medical cameras. This embodiment is also applicable to the above.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

上述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 The above-mentioned embodiments are merely examples of embodiment in carrying out the present invention, and the technical scope of the present invention should not be construed in a limited manner by these. That is, the present invention can be implemented in various forms without departing from its technical idea or its main features.

101:監視レンズ、101:クライアント装置、201:撮像光学系、202:撮像センサー、209:画像処理部、203:CPU、403:彩度レベル補正処理部、503:彩度レベル補正パラメーター算出処理部、504:彩度レベル補正実行処理部 101: Surveillance lens, 101: Client device, 201: Imaging optical system, 202: Image sensor, 209: Image processing unit, 203: CPU, 403: Saturation level correction processing unit, 503: Saturation level correction parameter calculation processing unit , 504: Saturation level correction execution processing unit

Claims (9)

撮像された全方位画像のイメージサークル内の彩度決定するための彩度パラメーターを取得す取得手段と、
前記彩度パラメーターおよび前記イメージサークル内の画素の位置に基づいて、彩度レベル補正処理により前記彩度を低下させる強度を決定するための彩度レベル補正パラメーターを算出する算出手段と、
前記撮像された前記全方位画像の彩度を、前記彩度レベル補正パラメーターに応じた彩度に低下させる彩度レベル補正処理を行う処理手段と、
備え、
前記算出手段は、前記イメージサークルの中心側よりも前記イメージサークル内の外縁側の前記画素の彩度が低下するように前記彩度レベル補正パラメーターを算出することを特徴とする画像処理装置。
An acquisition means for acquiring the saturation parameters for determining the saturation in the image circle of the captured omnidirectional image, and
A calculation means for calculating the saturation level correction parameter for determining the intensity for reducing the saturation by the saturation level correction processing based on the saturation parameter and the position of the pixel in the image circle .
A processing means for performing a saturation level correction process for reducing the saturation of the captured omnidirectional image to a saturation corresponding to the saturation level correction parameter.
Equipped with
The calculation means is an image processing apparatus characterized in that the saturation level correction parameter is calculated so that the saturation of the pixel on the outer edge side in the image circle is lower than that on the center side of the image circle .
前記撮像された前記全方位画像は、前記イメージサークルの外縁の少なくとも一部が、撮像素子の撮像範囲の内側に含まれる画像であることを特徴とする請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the captured omnidirectional image is an image in which at least a part of the outer edge of the image circle is included in the image pickup range of the image pickup device. 前記算出手段は、前記画素の位置として、撮像素子の撮像面の中心からの距離を表す像高、または座標を用いることを特徴とする請求項1または2に記載の画像処理装置。 The image processing apparatus according to claim 1 or 2, wherein the calculation means uses image height or coordinates representing a distance from the center of the image pickup surface of the image pickup device as the position of the pixel. 前記算出手段は、複数の変化点を有する前記彩度レベル補正パラメーターを算出することを特徴とする請求項1からのいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 3 , wherein the calculation means calculates the saturation level correction parameter having a plurality of change points. 前記処理手段は、撮像素子への光入射のある領域に対して前記彩度レベル補正処理実行、前記光入射のない領域に対しては前記彩度レベル補正処理実行ないとを特徴とする請求項1からのいずれか1項に記載の画像処理装置。 The processing means executes the saturation level correction processing on the region where the light is incident on the image sensor, and does not execute the saturation level correction processing on the region where the light is not incident. The image processing apparatus according to any one of claims 1 to 4 , which is characterized. 前記算出手段は、前記彩度パラメーター前記イメージサークル内の画素の位置、及び前記撮像された全方位画像の色成分の情報に基づいて、前記彩度レベル補正パラメーターを算出することを特徴とする請求項1からのいずれか1項に記載の画像処理装置。 The calculation means is characterized in that the saturation level correction parameter is calculated based on the information of the saturation parameter , the position of a pixel in the image circle , and the color component of the captured omnidirectional image. The image processing apparatus according to any one of claims 1 to 5 . 前記算出手段は、前記彩度パラメーターおよび前記イメージサークル内の画素の位置、及び前記全方位画像が表示される際の表示方法の情報に基づいて、前記彩度レベル補正パラメーターを算出することを特徴とする請求項1からのいずれか1項に記載の画像処理装置。 The calculation means calculates the saturation level correction parameter based on the saturation parameter , the position of the pixel in the image circle , and the information of the display method when the omnidirectional image is displayed. The image processing apparatus according to any one of claims 1 to 6 , which is characterized. 撮像された全方位画像を処理する画像処理装置が実行する画像処理方法であって、
撮像された前記全方位画像のイメージサークル内の彩度決定するための彩度パラメーターを取得す取得工程と、
前記彩度パラメーターおよび前記イメージサークル内の画素の位置に基づいて、彩度レベル補正処理により前記彩度を低下させる強度を決定するための彩度レベル補正パラメーターを算出する算出工程と、
前記撮像された前記全方位画像の彩度を、前記彩度レベル補正パラメーターに応じた彩度に低下させる彩度レベル補正処理を行う処理工程と、
備え、
前記算出工程は、前記イメージサークルの中心側よりも前記イメージサークル内の外縁側の前記画素の彩度が低下するように前記彩度レベル補正パラメーターを算出することを特徴とする画像処理方法。
It is an image processing method executed by an image processing device that processes an captured omnidirectional image.
The acquisition process for acquiring the saturation parameter for determining the saturation in the image circle of the captured omnidirectional image, and the acquisition process.
A calculation step of calculating the saturation level correction parameter for determining the intensity for reducing the saturation by the saturation level correction process based on the saturation parameter and the position of the pixel in the image circle .
A processing step of performing a saturation level correction process of reducing the saturation of the captured omnidirectional image to a saturation corresponding to the saturation level correction parameter, and
Equipped with
The calculation step is an image processing method characterized in that the saturation level correction parameter is calculated so that the saturation of the pixel on the outer edge side in the image circle is lower than that on the center side of the image circle .
コンピュータを、請求項1からのいずれか1項に記載の画像処理装置して機能させるためのプログラム。 A program for operating a computer as the image processing device according to any one of claims 1 to 7 .
JP2017201144A 2017-10-17 2017-10-17 Image processing equipment, image processing methods, and programs Active JP7051365B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017201144A JP7051365B2 (en) 2017-10-17 2017-10-17 Image processing equipment, image processing methods, and programs
US16/159,363 US10861194B2 (en) 2017-10-17 2018-10-12 Image processing apparatus, image processing method, and storage medium
CN201811209221.4A CN109672810B (en) 2017-10-17 2018-10-17 Image processing apparatus, image processing method, and storage medium
EP18200887.0A EP3474532B1 (en) 2017-10-17 2018-10-17 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017201144A JP7051365B2 (en) 2017-10-17 2017-10-17 Image processing equipment, image processing methods, and programs

Publications (2)

Publication Number Publication Date
JP2019075716A JP2019075716A (en) 2019-05-16
JP7051365B2 true JP7051365B2 (en) 2022-04-11

Family

ID=63915185

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017201144A Active JP7051365B2 (en) 2017-10-17 2017-10-17 Image processing equipment, image processing methods, and programs

Country Status (4)

Country Link
US (1) US10861194B2 (en)
EP (1) EP3474532B1 (en)
JP (1) JP7051365B2 (en)
CN (1) CN109672810B (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111246051B (en) * 2018-11-09 2021-06-29 浙江宇视科技有限公司 Method, device, equipment and storage medium for automatically detecting stripes and inhibiting stripes
JP7016835B2 (en) 2019-06-06 2022-02-07 キヤノン株式会社 Image processing method, image processing device, image processing system, learned weight manufacturing method, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004088408A (en) 2002-08-27 2004-03-18 Minolta Co Ltd Digital camera
JP2011103640A (en) 2009-10-15 2011-05-26 Olympus Corp Image processing apparatus, method and image
JP2014078926A (en) 2012-09-18 2014-05-01 Ricoh Co Ltd Image adjustment device, image adjustment method and program

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003060983A (en) 2001-08-10 2003-02-28 Olympus Optical Co Ltd Imaging device
JP4196845B2 (en) * 2003-03-31 2008-12-17 セイコーエプソン株式会社 Image processing device
US7576767B2 (en) 2004-07-26 2009-08-18 Geo Semiconductors Inc. Panoramic vision system and method
JP4770154B2 (en) 2004-11-08 2011-09-14 ソニー株式会社 Image processing apparatus, image processing method, and computer program
JP5018052B2 (en) 2006-12-08 2012-09-05 株式会社ニコン Image processing apparatus and image processing program for correcting image color
JP5378283B2 (en) 2010-03-29 2013-12-25 富士フイルム株式会社 Imaging apparatus and control method thereof
US9870617B2 (en) * 2014-09-19 2018-01-16 Brain Corporation Apparatus and methods for saliency detection based on color occurrence analysis

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004088408A (en) 2002-08-27 2004-03-18 Minolta Co Ltd Digital camera
JP2011103640A (en) 2009-10-15 2011-05-26 Olympus Corp Image processing apparatus, method and image
JP2014078926A (en) 2012-09-18 2014-05-01 Ricoh Co Ltd Image adjustment device, image adjustment method and program

Also Published As

Publication number Publication date
EP3474532B1 (en) 2021-12-08
EP3474532A1 (en) 2019-04-24
CN109672810B (en) 2021-07-30
JP2019075716A (en) 2019-05-16
CN109672810A (en) 2019-04-23
US10861194B2 (en) 2020-12-08
US20190114806A1 (en) 2019-04-18

Similar Documents

Publication Publication Date Title
JP5971207B2 (en) Image adjustment apparatus, image adjustment method, and program
WO2021073331A1 (en) Zoom blurred image acquiring method and device based on terminal device
JP6065474B2 (en) Imaging control apparatus, imaging control method, and program
RU2562918C2 (en) Shooting device, shooting system and control over shooting device
TWI602152B (en) Image capturing device nd image processing method thereof
JP6460653B2 (en) Image processing apparatus, imaging apparatus including the same, image processing method, and image processing program
JP6267502B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
JP5968073B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
JP5882789B2 (en) Image processing apparatus, image processing method, and program
US20140184853A1 (en) Image processing apparatus, image processing method, and image processing program
JP2007324856A (en) Imaging apparatus and imaging control method
JP2013243639A (en) Image processing apparatus, image processing method, and program
JP2015019354A (en) Imaging apparatus, image processing apparatus, and control method therefor
JP7051365B2 (en) Image processing equipment, image processing methods, and programs
JP6299116B2 (en) Imaging apparatus, imaging method, and recording medium
JP7247609B2 (en) Imaging device, imaging method and program
JP2019047336A (en) Image processing apparatus, imaging device, image processing method, and program
CN116266877A (en) Image processing apparatus and method, image capturing apparatus, and computer readable medium
JP7442989B2 (en) Imaging device, control method for the imaging device, and program
JP2006135744A (en) Image processing apparatus, image processing method, and computer program
JP6157274B2 (en) Imaging apparatus, information processing method, and program
JP6245847B2 (en) Image processing apparatus and image processing method
JP2015119436A (en) Imaging apparatus
JP2016040870A (en) Image processing apparatus, image forming method and program
JP5943682B2 (en) Imaging apparatus, control method thereof, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200928

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210810

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211005

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220330

R151 Written notification of patent or utility model registration

Ref document number: 7051365

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151