JP7051365B2 - Image processing equipment, image processing methods, and programs - Google Patents
Image processing equipment, image processing methods, and programs Download PDFInfo
- Publication number
- JP7051365B2 JP7051365B2 JP2017201144A JP2017201144A JP7051365B2 JP 7051365 B2 JP7051365 B2 JP 7051365B2 JP 2017201144 A JP2017201144 A JP 2017201144A JP 2017201144 A JP2017201144 A JP 2017201144A JP 7051365 B2 JP7051365 B2 JP 7051365B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- saturation
- level correction
- saturation level
- parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
- H04N23/81—Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/40—Picture signal circuits
- H04N1/409—Edge or detail enhancement; Noise or error suppression
- H04N1/4092—Edge or detail enhancement
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/54—Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/55—Optical parts specially adapted for electronic image sensors; Mounting thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/698—Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/40—Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
- H04N25/41—Extracting pixel data from a plurality of image sensors simultaneously picking up an image, e.g. for increasing the field of view by combining the outputs of a plurality of sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/60—Noise processing, e.g. detecting, correcting, reducing or removing noise
- H04N25/61—Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/60—Noise processing, e.g. detecting, correcting, reducing or removing noise
- H04N25/61—Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
- H04N25/611—Correction of chromatic aberration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/06—Adjustment of display parameters
- G09G2320/066—Adjustment of display parameters for control of contrast
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
- Color Image Communication Systems (AREA)
- Closed-Circuit Television Systems (AREA)
- Color Television Image Signal Generators (AREA)
- Facsimile Image Signal Circuits (AREA)
Description
本発明は、撮像されて取得された全方位画像を処理する技術に関する。 The present invention relates to a technique for processing an omnidirectional image captured and acquired.
近年、撮像装置の一つである監視カメラにおいて、広範囲を俯瞰して監視・撮影することができる全方位カメラ(例えば水平および垂直画角が180度以上のレンズを備えた監視カメラ)がある。全方位カメラの場合、イメージサークルの外縁の一部が撮像素子の撮像範囲の内側に含まれるため、当該全方位カメラの撮像素子から出力される画像は、光が入射されたイメージサークルの領域と光入射のない領域の境界が存在した画像となる。 In recent years, in a surveillance camera, which is one of image pickup devices, there is an omnidirectional camera (for example, a surveillance camera equipped with a lens having a horizontal and vertical angle of view of 180 degrees or more) that can monitor and shoot a wide range from a bird's-eye view. In the case of an omnidirectional camera, a part of the outer edge of the image circle is included inside the image pickup range of the image sensor, so that the image output from the image sensor of the omnidirectional camera is the area of the image circle on which the light is incident. The image is an image in which the boundary of the region without light incident exists.
また、監視カメラを含むデジタルスチルカメラ、デジタルビデオカメラ等で撮像された画像には、いわゆるフリンジと呼ばれる色滲みが視認されることがある。フリンジとは、輝度差の大きな輪郭が撮像画像中に存在する場合に、その輪郭部分に青色や紫色の縁取りのような色滲みが発生してしまう現象を指す。前述の全方位カメラで撮像された画像のように、イメージサークルによる光入射のある領域と光入射のない領域との境界が存在する画像の場合、特にフリンジが発生しやすい。 In addition, color bleeding, so-called fringe, may be visually recognized in an image captured by a digital still camera including a surveillance camera, a digital video camera, or the like. Fringe refers to a phenomenon in which when a contour with a large difference in luminance is present in a captured image, color bleeding such as a blue or purple border occurs in the contour portion. In the case of an image having a boundary between a region having light incident and a region without light incident due to an image circle, such as an image captured by the above-mentioned omnidirectional camera, fringes are particularly likely to occur.
フリンジの発生は、撮像センサー、レンズ、画像処理等の工程によって引き起こされるものであり、従来、この問題を解決する様々な手法が提案されている。例えば、特許文献1には、レンズの特性を予め計測して補正データをメモリに格納しておき、撮影時にその補正データを用いて補正処理を実行する手法が開示されている。また、特許文献2には、複数回の撮影を行って撮影条件の異なる複数の画像を取得し、それらの画像を合成することでフリンジの補正を行う手法が開示されている。 The generation of fringes is caused by processes such as an image sensor, a lens, and image processing, and various methods for solving this problem have been conventionally proposed. For example, Patent Document 1 discloses a method in which the characteristics of a lens are measured in advance, correction data is stored in a memory, and correction processing is executed using the correction data at the time of shooting. Further, Patent Document 2 discloses a method of performing fringe correction by performing a plurality of shootings to acquire a plurality of images having different shooting conditions and synthesizing the images.
しかしながら、特許文献1の手法のようにレンズの特性を予め計測して色滲みの補正データをメモリに格納する手法では、メモリ容量が増大するとともに調整工程も増えて構成が複雑になり、さらにレンズに関わる全ての影響を正確に補正することが困難である。また、特許文献2の技術では、予め色滲みの補正データを格納する必要はないが、撮影を2回以上行う必要があり処理量が増大する。 However, in the method of measuring the characteristics of the lens in advance and storing the color bleeding correction data in the memory as in the method of Patent Document 1, the memory capacity increases, the adjustment process increases, the configuration becomes complicated, and the lens becomes more complicated. It is difficult to accurately correct all the effects related to. Further, in the technique of Patent Document 2, it is not necessary to store the color blur correction data in advance, but it is necessary to perform photography twice or more, which increases the processing amount.
そこで、本発明は、簡易な構成および少ない処理量で、撮像画像の色滲みを抑制可能にすることを目的とする。 Therefore, an object of the present invention is to make it possible to suppress color bleeding of a captured image with a simple configuration and a small amount of processing.
本発明は、撮像された全方位画像のイメージサークル内の彩度を決定するための彩度パラメーターを取得する取得手段と、前記彩度パラメーター、および前記イメージサークル内の画素の位置に基づいて、彩度レベル補正処理により前記彩度を低下させる強度を決定するための彩度レベル補正パラメーターを算出する算出手段と、前記撮像された前記全方位画像の彩度を、前記彩度レベル補正パラメーターに応じた彩度に低下させる彩度レベル補正処理を行う処理手段と、を備え、前記算出手段は、前記イメージサークルの中心側よりも前記イメージサークル内の外縁側の前記画素の彩度が低下するように前記彩度レベル補正パラメーターを算出することを特徴とする。 The present invention is based on an acquisition means for acquiring a saturation parameter for determining the saturation in an image circle of an omnidirectional image captured, the saturation parameter , and the position of a pixel in the image circle . , The calculation means for calculating the saturation level correction parameter for determining the intensity for reducing the saturation by the saturation level correction processing, and the saturation of the captured omnidirectional image, the saturation level correction parameter. The calculation means includes a processing means for performing a saturation level correction process for reducing the saturation according to the above, and the calculation means lowers the saturation of the pixel on the outer edge side in the image circle than on the center side of the image circle. It is characterized in that the saturation level correction parameter is calculated so as to be performed.
本発明によれば、簡易な構成および少ない処理量で、撮像画像の色滲みを抑制可能となる。 According to the present invention, it is possible to suppress color bleeding of a captured image with a simple configuration and a small amount of processing.
以下、本発明の好適な一実施形態について、図面を参照して詳細に説明する。
図1は本実施形態における撮像システムの概略的な構成を示す図である。
図1に示す撮像システムは、動画像の撮像および本実施形態に係る画像処理を行う画像処理装置としての監視カメラ101と、IPネットワーク網を介して相互に通信可能な状態で接続されるクライアント装置102とを有して構成されている。クライアント装置102は、例えばパーソナルコンピュータと表示装置とを有して構成されているとする。本実施形態では、監視カメラ101が画像処理装置の機能を有する例を挙げて説明するが、クライアント装置102において本実施形態に係る画像処理を行うことも可能である。また、本実施形態において、監視カメラ101は、例えば広範囲を俯瞰して監視・撮影することができる全方位カメラ(水平および垂直画角が180度以上のレンズを備えた監視カメラ)であるとする。
Hereinafter, a preferred embodiment of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a diagram showing a schematic configuration of an imaging system according to the present embodiment.
The image pickup system shown in FIG. 1 is a client device connected to a
図2は、本実施形態の監視カメラ101の概略的な内部構成例を示す図である。
撮像光学系201は、ズームレンズ、フォーカスレンズ、ブレ補正レンズ、絞り、シャッター等を有して構成され、被写体等からの光を集光して、被写体等の光像を撮像センサー202の撮像素子の撮像面(センサー面)上に形成させる。本実施形態の場合、撮像光学系201のレンズは、水平および垂直画角が180度以上のレンズであるとする。撮像センサー202は、撮像光学系201により撮像面上に形成された光像を電流値へと変換する撮像素子を有する。撮像センサー202は、撮像素子の撮像面上にカラーフィルタが設けられていることでRGBの色情報をも取得する。また、撮像センサー202は、撮像素子の全ての画素に対して、任意の露光時間を設定可能となされているとする。
FIG. 2 is a diagram showing a schematic internal configuration example of the
The image pickup
CPU203は、各構成の処理と制御のすべてに関わり、ROM(リードオンリーメモリ)204や、RAM(ランダムアクセスメモリ)205に格納された命令を順次に読み込み、解釈し、その結果に従って各処理と制御を実行する。撮像系制御部206は、CPU203からの指示の下で、撮像光学系201に対し、フォーカスを合わせる制御、シャッターを開閉する制御、絞りを調整する制御など各種撮像制御を行う。制御部207は、クライアント装置102からの指示に応じた制御を行う。A/D変換部208は、撮像センサー202からの撮像信号をデジタル信号値の画像データに変換する。画像処理部209は、A/D変換部208からの画像データに対して本実施形態に係る画像処理を行う部分であり、その詳細については後述する。エンコーダ部210は、画像処理部209による画像処理後の画像データを、いわゆるMotion JpegやH264などのファイルフォーマットに変換処理(エンコード処理)する。エンコーダ部210によるエンコード処理後の画像データは、例えばクライアント装置102に出力される。
The
図3は、本実施形態の画像処理部209の概略的な内部構成を示すブロック図である。
画像入力部301は、前述した撮像センサー202にて撮像され、A/D変換部208にてデジタル変換された画像データを取得する。前処理部302は、撮像センサー起因の固定パターンノイズ除去やゲイン調整などの補正処理を行う。現像処理部303は、前処理部302による補正処理後の画像データに現像処理を行う。後処理部304は、現像処理部303にて現像処理された画像に空間方向のNRフィルタおよび時間方向のNRフィルタを掛けることで、ランダムに発生するノイズを低減する処理を行う。画像出力部305は、後処理部304からの画像データを図1のエンコーダ部210に出力する。
FIG. 3 is a block diagram showing a schematic internal configuration of the
The
図4は、現像処理部303の内部構成例を示したブロック図である。
現像処理部303は、デモザイク処理部401と、ホワイトバランス処理部402と、彩度レベル補正処理部403と、ガンマ処理部404とを有して構成されている。デモザイク処理部401は前処理部302から入力された画像データに対しデモザイク処理を行い、ホワイトバランス処理部402はデモザイク処理後の画像データに対しホワイトバランス処理を行う。彩度レベル補正処理部403の詳細については後述するが、彩度レベル補正処理部403が彩度差レベル補正処理を行うことによって、色滲みを目立たなくすることができる。ガンマ処理部404は、彩度レベル補正処理部403から入力された画像データに対しガンマ処理を行う。そして、ガンマ処理部404から出力された画像データは、図3の後処理部304へ送られる。
FIG. 4 is a block diagram showing an example of the internal configuration of the
The
<第1実施形態の彩度レベル補正処理>
以下、第1実施形態における彩度レベル補正処理部403の構成と彩度レベル補正処理について説明する。
図5は、第1実施形態における彩度レベル補正処理部403の概略構成例を示すブロック図である。第1実施形態の彩度レベル補正処理部403は、動画信号の各フレームの画像に対して彩度レベル補正を行うための構成であるとする。彩度レベル補正処理部403は、入力信号取得部501、彩度強調処理パラメーター取得部502、彩度レベル補正パラメーター算出処理部503、彩度レベル補正実行処理部504を有して構成される。
<Saturation level correction processing of the first embodiment>
Hereinafter, the configuration of the saturation level
FIG. 5 is a block diagram showing a schematic configuration example of the saturation level
図6は、第1実施形態の彩度レベル補正処理部403が実行する彩度レベル補正処理の流れを示すフローチャートである。以下、第1実施形態における彩度レベル補正処理の流れを、図6のフローチャートを参照しながら説明する。以下の説明では、図6のフローチャートの各処理ステップS601~ステップS604をS601~S604と略記する。この図6のフローチャートの処理は、ハードウェア構成により実行されてもよいし、一部がソフトウェア構成で残りがハードウェア構成により実現されてもよい。ソフトウェア構成により処理が実行される場合、例えばROMに記憶されている本実施形態に係る画像処理のプログラムをCPU等が実行することにより実現される。本実施形態に係るプログラムは、ROMに予め用意されていてもよく、また着脱可能な半導体メモリ等から読み出されたり、不図示のインターネット等のネットワークからダウンロードされたりしてもよい。これらのことは後述する他のフローチャートにおいても同様であるとする。
FIG. 6 is a flowchart showing the flow of the saturation level correction processing executed by the saturation level
まず、S601において、入力信号取得部501は、全方位カメラである本実施形態の監視カメラ101により撮像された動画信号のフレーム毎に画像(以下、全方位画像とする)を取得する。
次に、S602において、彩度強調処理パラメーター取得部502は、入力画像に対して彩度(色の濃さ)をどの程度強調するかを決定する彩度パラメーター(以下、彩度強調処理パラメーターとする。)を取得する。例えば、監視カメラの場合、ユーザーはクライアント装置102を介して指示を入力することで、彩度をどの程度強調するかを調整することができる。以下、彩度を調整する処理を彩度レベル補正処理とする。より具体的には、ユーザーが選択できる彩度レベル補正処理の調整幅が例えば"0~100"の範囲であり、ユーザーが彩度レベル補正処理を"50"の強度で指定した場合、彩度強調処理パラメーター取得部502は、彩度強調処理パラメーターとして"50"値を取得する。なお、彩度強調処理パラメーターとして"50"値は標準的な値であり、ユーザーから指定が無い場合にデフォルトで設定されている彩度レベルと同じ値であるものとする。
First, in S601, the input
Next, in S602, the saturation enhancement processing
次に、S603において、彩度レベル補正パラメーター算出処理部503は、彩度強調処理パラメーター、および、撮像画像内の画素の位置に基づいて、彩度レベル補正パラメーターを算出する。本実施形態において、彩度レベル補正パラメーターを算出する際の撮像画像内の画素の位置は、撮像素子の撮像面の中心からの距離を表す像高、または座標位置として取得される。なお、イメージサークルの中心を正確に特定することができるのであれば、そのイメージサークルの中心からの距離を、画素の位置として取得してもよい。
その後、S604において、彩度レベル補正実行処理部504は、入力信号取得部501で取得された撮像画像に対し、S603で算出された彩度レベル補正パラメーターに応じた彩度レベル補正処理を実行する。
Next, in S603, the saturation level correction parameter
After that, in S604, the saturation level correction
以下、前述のS603の彩度レベル補正パラメーターの算出処理について、図7~図9と下記の式(1)、式(2)を用いて、より具体的に説明する。
図7は、撮像センサー202が備えている撮像素子の撮像範囲700と、撮像光学系201により形成されるイメージサークル701とを、模式的に示した図である。ここで、図7には、彩度レベル補正処理が実行される該当画素702の座標位置を(x,y)、撮像素子の撮像面の中心(以下、画面中心703とする。)の座標位置を(X,Y)、イメージサークル701の中心から外縁までの距離をRとして表している。なお、画面中心703とイメージサークル701の中心は一致しているとする。このとき、該当画素702が画面中心703からどの程度離れているかを表す像高指標M(x,y)は、下記の式(1)により算出される。
M(x,y)={(X-x)2+(Y-y)2}/R2 式(1)
Hereinafter, the calculation process of the saturation level correction parameter of S603 described above will be described more specifically by using FIGS. 7 to 9 and the following equations (1) and (2).
FIG. 7 is a diagram schematically showing an
M (x, y) = {(X-x) 2 + (Y-y) 2 } / R 2 equation (1)
ここで、像高指標M(x,y)が例えば0.0~1.0の値をとる場合、該当画素702はイメージサークル701の中に含まれる画素を表しているとする。一方、像高指標M(x,y)が例えば1.0よりも大きな値をとる場合、該当画素702は、イメージサークル701の外に存在する画素を表しているとする。
また、座標位置(x,y)の該当画素702に対する彩度レベル補正パラメーターを補正パラメーターN(x,y)として表すとする。ここで、例えば、彩度レベル補正処理の調整幅が"0~100"の範囲であり、S602で取得される彩度強調処理パラメーターが"50"であったとする。この場合、補正パラメーターN(x,y)は、式(1)で算出される画面中心703からどの程度離れているかの像高指標M(x,y)を用いて、下記の式(2)により算出できる。
Further, it is assumed that the saturation level correction parameter for the
図8は、式(2)で表される像高指標M(x,y)と補正パラメーターN(x,y)の関係の一例を実線800により表した図である。図8の縦軸は補正パラメーターN、横軸は像高指標Mを表している。図8の実線800に示すように、補正パラメーターN(x,y)は、イメージサークルの外縁に近いほど彩度レベルを小さくするような値に設定される。イメージサークルの中心部は例えばユーザーの監視対象等が撮影されている可能性が高いため、図8では彩度レベル補正処理の強度をユーザーの意図である彩度強調処理パラメーターに一致するような関係になされている。つまり、図8の例の場合、補正パラメーターN(x,y)は、イメージサークルの中心部に近づくほど、彩度強調処理パラメーターの"50"に近い値となされる。これにより、この補正パラメーターN(x,y)を用いた彩度レベル補正処理が、彩度レベル補正実行処理部504にて実行された場合、イメージサークルの外縁に近いほど彩度レベルが小さくなる。そのため、外縁では彩度レベル処理を適用する前よりも彩度の大きさが小さくなり、フリンジの色が青色や紫色から無彩色に変更され、色滲みを抑制する(目立たなくする)ことが可能となる。一方、図8において、イメージサークルの外側に位置する光入射のない領域(像高指標Mが1.0より大きい領域)に対しては、S604で彩度レベルが0となるような補正パラメーターN(x,y)が設定される。あるいは、彩度レベル補正実行処理部504では、撮像素子の光入射のある領域に対してのみ彩度レベル補正処理が実行され、光入射のない領域に対しては彩度レベル補正処理が実行されないようにしてもよい。
FIG. 8 is a diagram showing an example of the relationship between the image height index M (x, y) represented by the equation (2) and the correction parameter N (x, y) by the
なお、補正パラメーターNは式(1)、式(2)によって算出される値に限るものではなく、例えば図9の実線900に示すように、変化点901を複数設けることで、補正パラメーターNの変化を滑らかに算出する方法を採用してもよい。図9は、図8同様に、縦軸が補正パラメーターN、横軸が像高指標Mを表している。また、補正パラメーターNは彩度レベル補正処理の強度に限るものではなく、色成分に対するゲイン等の補正パラメーターを採用してもよい。
The correction parameter N is not limited to the values calculated by the equations (1) and (2). For example, as shown by the
第1実施形態においては、以上のように補正パラメーターNが設定されることで、中心部ではユーザーの意図した彩度を実現しつつ、イメージサークル外縁に発生するフリンジを抑制することが可能になる。すなわち、本実施形態の彩度レベル補正処理部403では、前述した図6のS601~S604の処理を動画の画像データに対して行うことで、簡易な構成および少ない処理量で、入力された画像に色滲みが生ずるのを抑制することができる。
第1実施形態では、監視カメラ101において彩度レベル補正処理を実行したが、彩度レベル補正処理が実行される対象には特に制限はない。例えば、魚眼レンズを使用した場合や、イメージサークルの外縁の一部が撮像素子の撮像範囲の内側に含まれるような広角レンズを使用した場合や、画像の四隅にケラレが発生している場合に対して、同様の処理を実行することが可能である。
In the first embodiment, by setting the correction parameter N as described above, it becomes possible to suppress the fringe generated at the outer edge of the image circle while realizing the saturation intended by the user in the central portion. .. That is, in the saturation level
In the first embodiment, the saturation level correction process is executed in the
<第2実施形態の彩度レベル補正処理>
前述した第1実施形態では、図6のS603において、彩度レベル補正パラメーター算出処理部503が、彩度強調処理パラメーターおよび画素の位置(像高または座標)に応じて彩度レベル補正処理パラメーターを算出する方法について説明した。以下の第2実施形態では、彩度レベル補正パラメーター算出処理部503において、彩度強調処理パラメーターおよび画素の位置に加え、色成分の情報を考慮して、彩度レベル補正パラメーターを算出する。なお、第2実施形態において、画像処理に係る構成は前述の第1実施形態と同様であるため、その図示および説明は省略する。第2実施形態においても第1実施形態と同じ構成については同じ符号を付し、それらの説明を省略する。
<Saturation level correction processing of the second embodiment>
In the first embodiment described above, in S603 of FIG. 6, the saturation level correction parameter
図10は、第2実施形態の彩度レベル補正パラメーター算出処理部503における彩度レベル補正処理のパラメーター算出処理のフローチャートである。以下、第2実施形態の彩度レベル補正処理の流れについて図10のフローチャートを参照して説明する。
まず、S1001において、彩度レベル補正パラメーター算出処理部503は、色成分を取得するために、下記の式(3)のように、入力信号のRGB値を、輝度(Y)成分と色(UV)成分に変換する。
FIG. 10 is a flowchart of the parameter calculation process of the saturation level correction process in the saturation level correction parameter
First, in S1001, the saturation level correction parameter
Y(x,y)=0.299×R(x,y)+0.587×G(x,y)+0.114×B(x,y)
U(x,y)=-0.169×R(x,y)-0.331×G(x,y)+0.500×B(x,y) 式(3)
V(x,y)=0.500×R(x,y)-0.419×G(x,y)-0.081×B(x,y)
Y (x, y) = 0.299 x R (x, y) + 0.587 x G (x, y) + 0.114 x B (x, y)
U (x, y) = -0.169 x R (x, y) -0.331 x G (x, y) + 0.500 x B (x, y) Equation (3)
V (x, y) = 0.500 x R (x, y) -0.419 x G (x, y) -0.081 x B (x, y)
ここで、式(3)のR(x,y)、G(x,y)、B(x,y)は座標位置(x,y)のRGB信号値を表し、Y(x,y)、U(x,y)、V(x,y)はYUV信号を表す。なお、色信号は式(3)によって算出される値に限るものではなく、Lab変換によって得られるa,b値や、YCbCr変換によって得られるCb,Cr値を採用してもよい。 Here, R (x, y), G (x, y), and B (x, y) in the equation (3) represent RGB signal values at the coordinate position (x, y), and Y (x, y) ,. U (x, y) and V (x, y) represent YUV signals. The color signal is not limited to the value calculated by the equation (3), and the a and b values obtained by the Lab conversion and the Cb and Cr values obtained by the YCbCr conversion may be adopted.
続いて、S1002において、彩度レベル補正パラメーター算出処理部503は、イメージサークル外縁から画面中心にかけて、UV成分の大きさを像高別に取得し、その取得した値について0.0~1.0の値への正規化を行う。以下、UV成分の大きさを正規化した値をUV強度O(x,y)と呼ぶ。
さらにステップS1003において、彩度レベル補正パラメーター算出処理部503は、式(1)による像高指標M(x,y)と彩度強調処理パラメーターLとS1002によるUV強度O(x,y)を用い、補正パラメーターN(x,y)を式(4)にて算出する。
Further, in step S1003, the saturation level correction parameter
図11(a)と図11(b)は、式(4)を用いて補正パラメーターNを算出する場合のUV強度O、像高指標M、補正パラメーターNの関係説明に用いる図である。図11(a)は、撮像素子の撮像範囲1100とイメージサークル1101を示した図である。図11(a)に示すように、イメージサークル1101において、画面中心側の領域C1はUV成分の高い被写体が多く分布(UV強度が大きい領域)し、中間位置の領域C2はほぼ無彩色の被写体が多く分布(UV強度が小さい領域)しているものとする。一方、イメージサークル1101の外縁部分の領域C3はUV成分の高い被写体が比較的多く分布する領域とする。図11(b)は、第2実施形態の場合の像高指標Mと補正パラメーターNの関係の一例を実線1111により表した図であり、前述の図8同様に、縦軸が補正パラメーターN、横軸が像高指標Mを表している。
11 (a) and 11 (b) are diagrams used for explaining the relationship between the UV intensity O, the image height index M, and the correction parameter N when the correction parameter N is calculated using the equation (4). FIG. 11A is a diagram showing an
この図11(a)および図11(b)に示すように、領域C1や領域C3のような色成分が多く含まれる(UV成分の大きい)領域に対しては、彩度レベル補正パラメーターによる彩度レベル補正処理の強度の変化は緩やかになされる。例えば、画面中心のUV成分が多く分布(UV強度が大きい)している領域C1では彩度レベル補正パラメーターの変化を略々無くして彩度の変化をより小さくする。また、イメージサークル外縁のUV成分が比較的多く分布する領域C3では彩度レベル補正パラメーターの変化を小さくして彩度の段差が生じないようにする。一方、中間位置のように無彩色に近い領域C2については、彩度レベル補正パラメーターを大きく変化させて彩度の変化を大きくする。 As shown in FIGS. 11 (a) and 11 (b), for a region containing a large amount of color components (large UV component) such as region C1 and region C3, the color is colored by the saturation level correction parameter. The change in the intensity of the degree level correction process is made gradual. For example, in the region C1 in which a large amount of UV components are distributed (high UV intensity) in the center of the screen, the change in the saturation level correction parameter is substantially eliminated to make the change in saturation smaller. Further, in the region C3 where a relatively large amount of UV components are distributed on the outer edge of the image circle, the change in the saturation level correction parameter is made small so that a step in saturation does not occur. On the other hand, for the region C2 that is close to achromatic color such as the intermediate position, the saturation level correction parameter is greatly changed to increase the change in saturation.
このように、第2実施形態によれば、UV強度O(x,y)をも考慮して彩度レベル補正処理パラメーターを算出することで、像高位置ごとに異なる彩度レベル補正処理を実行する場合であっても、像高別の彩度の違いを目立たなくすることができる。
また、補正パラメーターNは、式(4)によって算出される値に限るものではなく、例えば式(5)のように算出する方法を採用してもよい。
Further, the correction parameter N is not limited to the value calculated by the equation (4), and a method of calculating the correction parameter N may be adopted, for example, as in the equation (5).
式(5)を用いて彩度レベル補正パラメーターを算出した場合、イメージサークル外縁に存在する色成分の大きな被写体に対して、彩度レベルの補正処理を実行した場合でも、ユーザーの意図した彩度を実現することが可能になる。なお、式(4)と式(5)の算出方法を像高位置に応じて組み合わせて算出する方法を採用してもよい。
以上説明したように、第2実施形態によれば、彩度レベル補正処理によって生じる像高別の彩度の違いを軽減しつつ、イメージサークル外縁に発生する色滲みを抑制することが可能になる。
When the saturation level correction parameter is calculated using the equation (5), even if the saturation level correction processing is executed for a subject having a large color component existing on the outer edge of the image circle, the saturation intended by the user is executed. Will be possible. It should be noted that a method of calculating by combining the calculation methods of the equation (4) and the equation (5) according to the image height position may be adopted.
As described above, according to the second embodiment, it is possible to suppress the color bleeding that occurs at the outer edge of the image circle while reducing the difference in saturation for each image height caused by the saturation level correction processing. ..
<第3実施形態の彩度レベル補正処理>
第3実施形態では、彩度レベル補正パラメーター算出処理部503において、彩度強調処理パラメーターおよび画素の像高または座標に加えて、表示モードを考慮して、彩度レベル補正パラメーターを算出する例を説明する。なお、第3実施形態において、画像処理に係る構成は前述の第1実施形態と同様であるため、その図示および説明は省略する。第3実施形態においても第1実施形態と同じ構成については同じ符号を付し、それらの説明を省略する。
<Saturation level correction processing of the third embodiment>
In the third embodiment, an example in which the saturation level correction parameter
ここで、本実施形態の撮像システムでは、クライアント装置102の表示装置上に画像を表示させる際の表示方法をユーザーが任意に設定可能となされている。表示方法の設定は、一例として、複数の表示モードからユーザーが所望の表示モードを指定することにより行われる。表示モードとしては、例えば、全方位カメラで撮影された画像に対し、ユーザーが任意の領域を指定して、歪みのある全方位画像に対して歪曲補正を行わせた上でパノラマ画像のように表示させるモード(パノラマモードとする。)を挙げることができる。
Here, in the image pickup system of the present embodiment, the user can arbitrarily set the display method when displaying an image on the display device of the
図12は、撮像素子の撮像範囲1200とイメージサークル1201を示した図である。イメージサークル1201の全方位画像は、パノラマモードで表示される領域P1とパノラマモードで表示されない領域P2とに分けられる。パノラマモードでの表示が行われる場合、イメージサークル1201の全方位画像の中から、領域P1の画像が取り出され、歪曲補正を行った上で、パノラマ画像1210として表示される。この図12に示すように、例えばユーザーがパノラマ画像を表示させたい場合、全方位画像の中心部分を除いた領域P1を用いてパノラマ画像1210が作成される。ここで、パノラマモードでは、図12に示すように、イメージサークル1201の一部領域が表示されないため、ユーザーが例えば監視を行っている画像に彩度レベル補正処理の効果が反映されない領域が存在することになる。すなわち、表示モードによっては画像に彩度レベル補正処理の効果が反映されない領域が存在するため、第3実施形態の彩度レベル補正パラメーター算出処理では、表示モードに応じた彩度レベル補正パラメーターを算出する。
FIG. 12 is a diagram showing an
図13は、第3実施形態における彩度レベル補正パラメーター算出処理のフローチャートである。以下、第3実施形態における彩度レベル補正処理の処理フローについて図13のフローチャートを参照して説明する。
まず、S1301において、彩度レベル補正パラメーター算出処理部503は、例えばクライアント装置102を介してユーザーにより選択された表示モードを取得する。
続いて、ステップS1302において、彩度レベル補正パラメーター算出処理部503は、式(1)による像高指標M(x,y)と、彩度強調処理パラメーターLと、S1301で取得した表示モードとに基づいて、彩度レベル補正パラメーターを算出する。
FIG. 13 is a flowchart of the saturation level correction parameter calculation process in the third embodiment. Hereinafter, the processing flow of the saturation level correction processing in the third embodiment will be described with reference to the flowchart of FIG.
First, in S1301, the saturation level correction parameter
Subsequently, in step S1302, the saturation level correction parameter
図14(a)と図14(b)は、第3実施形態において、表示モードとしてパノラマモードが選択された場合の、像高指標M、彩度レベル補正パラメーター(補正パラメーターN)の関係説明に用いる図である。図14(a)は、撮像素子の撮像範囲1400とイメージサークル1401を示した図である。図14(a)に示すように、イメージサークル1401において、画面中心側の領域P2はパノラマモードで表示されない領域であり、それ以外の領域P1はパノラマモードで表示される領域である。図14(b)は、第3実施形態の場合の像高指標Mと補正パラメーターNの関係の一例を実線1411により表した図であり、前述の図8同様に、縦軸が補正パラメーターN、横軸が像高指標Mを表している。
14 (a) and 14 (b) explain the relationship between the image height index M and the saturation level correction parameter (correction parameter N) when the panorama mode is selected as the display mode in the third embodiment. It is a figure to use. FIG. 14A is a diagram showing an
第3実施形態の場合、図14(a)および図14(b)に示すように、パノラマモードで表示されない領域P2では彩度レベル補正パラメーターが、彩度強調処理パラメーターから得られる値と同等の値に設定される。また、イメージサークル1401において、領域P2を除く、パノラマモードで表示される領域P1では、第1実施形態の図8で説明したのと同様に、像高指標Mに応じて彩度レベル補正処理の強度が徐々に弱まるように彩度レベル補正パラメーターが設定される。
In the case of the third embodiment, as shown in FIGS. 14 (a) and 14 (b), the saturation level correction parameter is equivalent to the value obtained from the saturation enhancement processing parameter in the region P2 not displayed in the panorama mode. Set to a value. Further, in the area P1 displayed in the panoramic mode excluding the area P2 in the
このように、第3実施形態においては、表示モードに応じて彩度レベル補正処理パラメーターを算出することで、ユーザーが選択した表示モードに応じた最適な彩度レベル補正処理を実行することが可能になる。
なお、第3実施形態では、第1実施形態で説明した彩度強調処理パラメーターおよび画素の位置(像高または座標)に表示モードの情報を加えた例を挙げたが、さらに第2実施形態で説明した色成分の情報をも加えて彩度レベル補正処理パラメーターを算出してもよい。
As described above, in the third embodiment, by calculating the saturation level correction processing parameter according to the display mode, it is possible to execute the optimum saturation level correction processing according to the display mode selected by the user. become.
In the third embodiment, an example in which the information of the display mode is added to the saturation enhancement processing parameters and the pixel positions (image height or coordinates) described in the first embodiment is given, but further in the second embodiment. The saturation level correction processing parameter may be calculated by adding the information of the color component described.
以上説明したように、第1~第3実施形態においては、イメージサークル(結像範囲)の外縁の一部が撮像素子の撮像範囲内に含まれる画像に対し好適な彩度レベル補正処理を行うことで、色滲みを抑制することができる。第1~第3実施形態によれば、全方位画像を撮影可能な監視カメラにおいて、簡易な構成および少ない処理量で、撮像画像に発生する色滲み、特に、イメージサークルの外縁領域に発生するフリンジの発生を抑制するための彩度レベル補正処理を実現可能となる。 As described above, in the first to third embodiments, a saturation level correction process suitable for an image in which a part of the outer edge of the image circle (imaging range) is included in the imaging range of the image pickup device is performed. Therefore, color bleeding can be suppressed. According to the first to third embodiments, in a surveillance camera capable of capturing an omnidirectional image, color bleeding that occurs in the captured image with a simple configuration and a small amount of processing, particularly fringes that occur in the outer edge region of the image circle. It becomes possible to realize the saturation level correction processing for suppressing the occurrence of.
<その他の実施形態>
本実施形態の画像処理装置は、監視カメラに限定されない。例えば、広い画角範囲を撮影可能なデジタルカメラ、デジタルビデオカメラ、カメラ機能を備えたスマートフォンやタブレット端末等の各種携帯端末にも適用可能であり、さらには工業用カメラ、車載カメラ、医療用カメラ等にも本実施形態は適用可能である。
<Other embodiments>
The image processing device of the present embodiment is not limited to the surveillance camera. For example, it can be applied to various mobile terminals such as digital cameras, digital video cameras, and smartphones and tablet terminals equipped with camera functions that can shoot a wide range of angles, as well as industrial cameras, in-vehicle cameras, and medical cameras. This embodiment is also applicable to the above.
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
上述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 The above-mentioned embodiments are merely examples of embodiment in carrying out the present invention, and the technical scope of the present invention should not be construed in a limited manner by these. That is, the present invention can be implemented in various forms without departing from its technical idea or its main features.
101:監視レンズ、101:クライアント装置、201:撮像光学系、202:撮像センサー、209:画像処理部、203:CPU、403:彩度レベル補正処理部、503:彩度レベル補正パラメーター算出処理部、504:彩度レベル補正実行処理部 101: Surveillance lens, 101: Client device, 201: Imaging optical system, 202: Image sensor, 209: Image processing unit, 203: CPU, 403: Saturation level correction processing unit, 503: Saturation level correction parameter calculation processing unit , 504: Saturation level correction execution processing unit
Claims (9)
前記彩度パラメーター、および前記イメージサークル内の画素の位置に基づいて、彩度レベル補正処理により前記彩度を低下させる強度を決定するための彩度レベル補正パラメーターを算出する算出手段と、
前記撮像された前記全方位画像の彩度を、前記彩度レベル補正パラメーターに応じた彩度に低下させる彩度レベル補正処理を行う処理手段と、
を備え、
前記算出手段は、前記イメージサークルの中心側よりも前記イメージサークル内の外縁側の前記画素の彩度が低下するように前記彩度レベル補正パラメーターを算出することを特徴とする画像処理装置。 An acquisition means for acquiring the saturation parameters for determining the saturation in the image circle of the captured omnidirectional image, and
A calculation means for calculating the saturation level correction parameter for determining the intensity for reducing the saturation by the saturation level correction processing based on the saturation parameter and the position of the pixel in the image circle .
A processing means for performing a saturation level correction process for reducing the saturation of the captured omnidirectional image to a saturation corresponding to the saturation level correction parameter.
Equipped with
The calculation means is an image processing apparatus characterized in that the saturation level correction parameter is calculated so that the saturation of the pixel on the outer edge side in the image circle is lower than that on the center side of the image circle .
撮像された前記全方位画像のイメージサークル内の彩度を決定するための彩度パラメーターを取得する取得工程と、
前記彩度パラメーター、および前記イメージサークル内の画素の位置に基づいて、彩度レベル補正処理により前記彩度を低下させる強度を決定するための彩度レベル補正パラメーターを算出する算出工程と、
前記撮像された前記全方位画像の彩度を、前記彩度レベル補正パラメーターに応じた彩度に低下させる彩度レベル補正処理を行う処理工程と、
を備え、
前記算出工程は、前記イメージサークルの中心側よりも前記イメージサークル内の外縁側の前記画素の彩度が低下するように前記彩度レベル補正パラメーターを算出することを特徴とする画像処理方法。 It is an image processing method executed by an image processing device that processes an captured omnidirectional image.
The acquisition process for acquiring the saturation parameter for determining the saturation in the image circle of the captured omnidirectional image, and the acquisition process.
A calculation step of calculating the saturation level correction parameter for determining the intensity for reducing the saturation by the saturation level correction process based on the saturation parameter and the position of the pixel in the image circle .
A processing step of performing a saturation level correction process of reducing the saturation of the captured omnidirectional image to a saturation corresponding to the saturation level correction parameter, and
Equipped with
The calculation step is an image processing method characterized in that the saturation level correction parameter is calculated so that the saturation of the pixel on the outer edge side in the image circle is lower than that on the center side of the image circle .
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017201144A JP7051365B2 (en) | 2017-10-17 | 2017-10-17 | Image processing equipment, image processing methods, and programs |
US16/159,363 US10861194B2 (en) | 2017-10-17 | 2018-10-12 | Image processing apparatus, image processing method, and storage medium |
CN201811209221.4A CN109672810B (en) | 2017-10-17 | 2018-10-17 | Image processing apparatus, image processing method, and storage medium |
EP18200887.0A EP3474532B1 (en) | 2017-10-17 | 2018-10-17 | Image processing apparatus, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017201144A JP7051365B2 (en) | 2017-10-17 | 2017-10-17 | Image processing equipment, image processing methods, and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019075716A JP2019075716A (en) | 2019-05-16 |
JP7051365B2 true JP7051365B2 (en) | 2022-04-11 |
Family
ID=63915185
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017201144A Active JP7051365B2 (en) | 2017-10-17 | 2017-10-17 | Image processing equipment, image processing methods, and programs |
Country Status (4)
Country | Link |
---|---|
US (1) | US10861194B2 (en) |
EP (1) | EP3474532B1 (en) |
JP (1) | JP7051365B2 (en) |
CN (1) | CN109672810B (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111246051B (en) * | 2018-11-09 | 2021-06-29 | 浙江宇视科技有限公司 | Method, device, equipment and storage medium for automatically detecting stripes and inhibiting stripes |
JP7016835B2 (en) | 2019-06-06 | 2022-02-07 | キヤノン株式会社 | Image processing method, image processing device, image processing system, learned weight manufacturing method, and program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004088408A (en) | 2002-08-27 | 2004-03-18 | Minolta Co Ltd | Digital camera |
JP2011103640A (en) | 2009-10-15 | 2011-05-26 | Olympus Corp | Image processing apparatus, method and image |
JP2014078926A (en) | 2012-09-18 | 2014-05-01 | Ricoh Co Ltd | Image adjustment device, image adjustment method and program |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003060983A (en) | 2001-08-10 | 2003-02-28 | Olympus Optical Co Ltd | Imaging device |
JP4196845B2 (en) * | 2003-03-31 | 2008-12-17 | セイコーエプソン株式会社 | Image processing device |
US7576767B2 (en) | 2004-07-26 | 2009-08-18 | Geo Semiconductors Inc. | Panoramic vision system and method |
JP4770154B2 (en) | 2004-11-08 | 2011-09-14 | ソニー株式会社 | Image processing apparatus, image processing method, and computer program |
JP5018052B2 (en) | 2006-12-08 | 2012-09-05 | 株式会社ニコン | Image processing apparatus and image processing program for correcting image color |
JP5378283B2 (en) | 2010-03-29 | 2013-12-25 | 富士フイルム株式会社 | Imaging apparatus and control method thereof |
US9870617B2 (en) * | 2014-09-19 | 2018-01-16 | Brain Corporation | Apparatus and methods for saliency detection based on color occurrence analysis |
-
2017
- 2017-10-17 JP JP2017201144A patent/JP7051365B2/en active Active
-
2018
- 2018-10-12 US US16/159,363 patent/US10861194B2/en active Active
- 2018-10-17 EP EP18200887.0A patent/EP3474532B1/en active Active
- 2018-10-17 CN CN201811209221.4A patent/CN109672810B/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004088408A (en) | 2002-08-27 | 2004-03-18 | Minolta Co Ltd | Digital camera |
JP2011103640A (en) | 2009-10-15 | 2011-05-26 | Olympus Corp | Image processing apparatus, method and image |
JP2014078926A (en) | 2012-09-18 | 2014-05-01 | Ricoh Co Ltd | Image adjustment device, image adjustment method and program |
Also Published As
Publication number | Publication date |
---|---|
EP3474532B1 (en) | 2021-12-08 |
EP3474532A1 (en) | 2019-04-24 |
CN109672810B (en) | 2021-07-30 |
JP2019075716A (en) | 2019-05-16 |
CN109672810A (en) | 2019-04-23 |
US10861194B2 (en) | 2020-12-08 |
US20190114806A1 (en) | 2019-04-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5971207B2 (en) | Image adjustment apparatus, image adjustment method, and program | |
WO2021073331A1 (en) | Zoom blurred image acquiring method and device based on terminal device | |
JP6065474B2 (en) | Imaging control apparatus, imaging control method, and program | |
RU2562918C2 (en) | Shooting device, shooting system and control over shooting device | |
TWI602152B (en) | Image capturing device nd image processing method thereof | |
JP6460653B2 (en) | Image processing apparatus, imaging apparatus including the same, image processing method, and image processing program | |
JP6267502B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM | |
JP5968073B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and image processing program | |
JP5882789B2 (en) | Image processing apparatus, image processing method, and program | |
US20140184853A1 (en) | Image processing apparatus, image processing method, and image processing program | |
JP2007324856A (en) | Imaging apparatus and imaging control method | |
JP2013243639A (en) | Image processing apparatus, image processing method, and program | |
JP2015019354A (en) | Imaging apparatus, image processing apparatus, and control method therefor | |
JP7051365B2 (en) | Image processing equipment, image processing methods, and programs | |
JP6299116B2 (en) | Imaging apparatus, imaging method, and recording medium | |
JP7247609B2 (en) | Imaging device, imaging method and program | |
JP2019047336A (en) | Image processing apparatus, imaging device, image processing method, and program | |
CN116266877A (en) | Image processing apparatus and method, image capturing apparatus, and computer readable medium | |
JP7442989B2 (en) | Imaging device, control method for the imaging device, and program | |
JP2006135744A (en) | Image processing apparatus, image processing method, and computer program | |
JP6157274B2 (en) | Imaging apparatus, information processing method, and program | |
JP6245847B2 (en) | Image processing apparatus and image processing method | |
JP2015119436A (en) | Imaging apparatus | |
JP2016040870A (en) | Image processing apparatus, image forming method and program | |
JP5943682B2 (en) | Imaging apparatus, control method thereof, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200928 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210729 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210810 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211005 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220301 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220330 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7051365 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |