JP6316006B2 - SUBJECT SEARCH DEVICE, ITS CONTROL METHOD, CONTROL PROGRAM, AND IMAGING DEVICE - Google Patents

SUBJECT SEARCH DEVICE, ITS CONTROL METHOD, CONTROL PROGRAM, AND IMAGING DEVICE Download PDF

Info

Publication number
JP6316006B2
JP6316006B2 JP2014014559A JP2014014559A JP6316006B2 JP 6316006 B2 JP6316006 B2 JP 6316006B2 JP 2014014559 A JP2014014559 A JP 2014014559A JP 2014014559 A JP2014014559 A JP 2014014559A JP 6316006 B2 JP6316006 B2 JP 6316006B2
Authority
JP
Japan
Prior art keywords
subject
image
blocks
complexity
search
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014014559A
Other languages
Japanese (ja)
Other versions
JP2015142281A5 (en
JP2015142281A (en
Inventor
茂夫 小川
茂夫 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014014559A priority Critical patent/JP6316006B2/en
Publication of JP2015142281A publication Critical patent/JP2015142281A/en
Publication of JP2015142281A5 publication Critical patent/JP2015142281A5/ja
Application granted granted Critical
Publication of JP6316006B2 publication Critical patent/JP6316006B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、被写体探索装置、その制御方法、および制御プログラム、並びに撮像装置に関し、特に、撮影の結果得られた画像において被写体領域を探索する手法に関する。   The present invention relates to a subject search device, a control method thereof, a control program, and an imaging device, and more particularly to a method for searching a subject region in an image obtained as a result of shooting.

一般に、デジタルカメラなどの撮像装置において、撮像の結果得られた画像を色領域分割して、当該色領域に関して被写体領域をエリア分けすることが行われている。そして、エリア分けした結果とオートフォーカス(以下AFという)によって得られた距離情報とに基づいてトリミングする領域を決定するようにしている。   In general, in an imaging device such as a digital camera, an image obtained as a result of imaging is divided into color regions, and a subject region is divided into areas with respect to the color region. An area to be trimmed is determined based on the result of area division and distance information obtained by autofocus (hereinafter referred to as AF).

例えば、入力画像から特徴量として輝度値を抽出し、入力画像の被写体領域における輝度値の分布に基づく評価を示す輝度スコアを得る。そして、当該輝度スコア値に応じて入力画像の撮れ具合の評価を示すようにした撮像装置がある(特許文献1参照)。   For example, a luminance value is extracted as a feature amount from the input image, and a luminance score indicating evaluation based on the distribution of the luminance value in the subject area of the input image is obtained. In addition, there is an imaging apparatus configured to show the evaluation of the shooting state of an input image according to the luminance score value (see Patent Document 1).

さらに、画像データにおいて、人物の顔に相当すると推定される領域を抽出する。そして、当該顔領域の数又は顔領域のサイズのばらつき度合い又は顔領域の平均濃度のばらつき度合いに基づいて画像の複雑度を求めて、当該複雑度に応じて露光量を求めるようにした撮像装置がある(特許文献2参照)。   Furthermore, an area estimated to correspond to a human face is extracted from the image data. Then, the imaging apparatus obtains the complexity of the image based on the number of the face areas, the degree of variation of the size of the face area, or the degree of dispersion of the average density of the face area, and obtains the exposure amount according to the complexity. (See Patent Document 2).

特開2010−287948号公報JP 2010-287948 A 特開平9−146194号公報JP-A-9-146194

上述の撮像装置においては、撮像の結果得られた画像において色によって境界が規定できる場合又は画像において被写体領域と他の領域との間で距離差がある場合には、被写体領域を認識することができる。そして、当該被写体領域を自動的にトリミング領域として決定することが可能である。   In the above-described imaging device, when the boundary can be defined by color in the image obtained as a result of imaging, or when there is a distance difference between the subject region and another region in the image, the subject region is recognized. it can. Then, it is possible to automatically determine the subject area as a trimming area.

ところが、画像において色による領域分割ができない場合又は画像において距離差が存在しない場合には、そして、被写体領域であるトリミング領域の距離を求めることが困難である撮影シーンなどにおいては、撮影者が意図しない領域がトリミング領域とされることがある。   However, when the area cannot be divided by color in the image or when there is no distance difference in the image, and in a shooting scene where it is difficult to obtain the distance of the trimming area that is the subject area, the photographer intends An area that is not to be used may be a trimming area.

従って、本発明の目的は、撮影シーンに拘わらず精度よく被写体領域であるトリミング領域を決定することのできる被写体探索装置、その制御方法、および制御プログラム、並びに撮像装置を提供することにある。   Accordingly, an object of the present invention is to provide a subject search device, a control method thereof, a control program, and an imaging device that can accurately determine a trimming region that is a subject region regardless of a shooting scene.

上記の目的を達成するため、本発明による被写体探索装置は、被写体を撮像して得られた画像において前記被写体を探索する被写体探索装置であって、前記画像において特徴の複雑度を算出する算出手段と、前記画像において前記被写体の領域を示す被写体領域を探索する探索手段と、前記複雑度が所定の複雑度閾値を超えると、前記画像を所定の第1のブロック数で複数のブロックに分割して、当該ブロックの各々においてブロックを代表する代表値に応じて前記ブロックをグルーピングして得られたグループ化ブロックに基づいて前記被写体領域を探索する第1の被写体探索処理を前記探索手段に行わせ、前記複雑度が前記複雑度閾値以下であると前記第1の被写体探索処理と異なる第2の被写体探索処理を前記探索手段に行わせる制御手段と、を有することを特徴とする。 In order to achieve the above object, a subject search device according to the present invention is a subject search device that searches for a subject in an image obtained by imaging the subject, and calculates a complexity of a feature in the image Search means for searching for a subject area indicating the subject area in the image, and when the complexity exceeds a predetermined complexity threshold , the image is divided into a plurality of blocks with a predetermined first number of blocks. Thus, the search means performs a first subject search process for searching for the subject region based on a grouped block obtained by grouping the blocks according to a representative value representing the block in each of the blocks. , when the complexity is less than the complexity threshold, system to perform the first object search process is different from the second subject search processing in the search means And having a means.

本発明による撮像装置は、被写体を撮像して画像を得る撮像手段と、上記の被写体探索装置と、を有することを特徴とする。   An image pickup apparatus according to the present invention includes an image pickup unit that picks up a subject and obtains an image, and the subject search device.

本発明による制御方法は、被写体を撮像して得られた画像において前記被写体を探索する被写体探索装置の制御方法であって、前記画像において特徴の複雑度を算出する算出ステップと、前記画像において前記被写体の領域を示す被写体領域を探索する探索ステップと、を有し、前記探索ステップでは、前記複雑度が所定の複雑度閾値を超えると、前記画像を所定の第1のブロック数で複数のブロックに分割して、当該ブロックの各々においてブロックを代表する代表値に応じて前記ブロックをグルーピングして得られたグループ化ブロックに基づいて前記被写体領域を探索する第1の被写体探索処理を行い、前記複雑度が前記複雑度閾値以下であると前記第1の被写体探索処理と異なる第2の被写体探索処理を行うことを特徴とする。 The control method according to the present invention is a control method for a subject search apparatus that searches for a subject in an image obtained by imaging the subject, a calculation step for calculating the complexity of features in the image, A search step for searching for a subject area indicating a subject area, wherein in the search step, when the complexity exceeds a predetermined complexity threshold , the image is divided into a plurality of blocks with a predetermined first number of blocks. Performing a first subject search process for searching the subject region based on a grouped block obtained by grouping the blocks according to a representative value representing the block in each of the blocks , When the complexity is equal to or less than the complexity threshold value, a second subject search process different from the first subject search process is performed.

本発明による制御プログラムは、被写体を撮像して得られた画像において前記被写体を探索する被写体探索装置で用いられる制御プログラムであって、前記被写体探索装置が備えるコンピュータに、前記画像において特徴の複雑度を算出する算出ステップと、前記画像において前記被写体の領域を示す被写体領域を探索する探索ステップと、を実行させ、前記探索ステップでは、前記複雑度が所定の複雑度閾値を超えると、前記画像を所定の第1のブロック数で複数のブロックに分割して、当該ブロックの各々においてブロックを代表する代表値に応じて前記ブロックをグルーピングして得られたグループ化ブロックに基づいて前記被写体領域を探索する第1の被写体探索処理を行い、前記複雑度が前記複雑度閾値以下であると前記第1の被写体探索処理と異なる第2の被写体探索処理を行うことを特徴とする。 The control program according to the present invention is a control program used in a subject search device for searching for a subject in an image obtained by capturing an image of a subject. And a search step for searching for a subject region indicating the subject region in the image. In the search step, when the complexity exceeds a predetermined complexity threshold , the image is The subject area is searched based on a grouped block obtained by dividing the block into a plurality of blocks with a predetermined first number of blocks and grouping the blocks according to representative values representing the blocks in each of the blocks. first performs a subject search processing, the object complexity is the first of less than or equal to the complexity threshold for And performing body search process different from the second object search process.

本発明によれば、画像の複雑度の判定結果に応じて、被写体を探索する際の探索処理を変更するようにしたので、撮影シーンに拘わらず精度よく被写体領域であるトリミング領域を決定することができる。   According to the present invention, since the search process when searching for a subject is changed according to the determination result of the complexity of the image, the trimming region that is the subject region can be accurately determined regardless of the shooting scene. Can do.

本発明の実施の形態による被写体探索装置を備える撮像装置の一例についてその構成を示すブロック図である。It is a block diagram which shows the structure about an example of an imaging device provided with the to-be-photographed object search apparatus by embodiment of this invention. 図1に示すカメラにおける撮影処理を説明するためのフローチャートである。3 is a flowchart for explaining a photographing process in the camera shown in FIG. 1. 図1に示すカメラで行われる複雑度の算出を説明するための図であり、(a)は撮影の結果得られた画像を示す図、(b)は(a)に示す画像を領域分割した状態を示す図、(c)はエッジ成分が高い領域をカウントする状態を示す図である。It is a figure for demonstrating calculation of the complexity performed with the camera shown in FIG. 1, (a) is a figure which shows the image obtained as a result of imaging | photography, (b) divided the image shown in (a) into the area | region The figure which shows a state, (c) is a figure which shows the state which counts the area | region where an edge component is high. 図1に示すカメラで行われる主要被写体探索処理を説明するための図であり、(a)は撮影の結果得られた画像を示す図、(b)は(a)に示す画像を領域分割した状態の一例を示す図、(c)は(a)に示す画像を領域分割した状態の他の例を示す図、(d)は(c)において領域のグルーピングを示す図である。2A and 2B are diagrams for explaining main subject search processing performed by the camera shown in FIG. 1, in which FIG. 1A is a diagram showing an image obtained as a result of shooting, and FIG. 2B is a diagram in which the image shown in FIG. FIG. 8C is a diagram illustrating an example of a state, FIG. 10C is a diagram illustrating another example of a state in which the image illustrated in FIG. 9A is divided into regions, and FIG.

以下に、本発明の実施の形態による被写体探索装置を備える撮像装置の一例について図面を参照して説明する。   Hereinafter, an example of an imaging apparatus including a subject searching apparatus according to an embodiment of the present invention will be described with reference to the drawings.

図1は、本発明の実施の形態による被写体探索装置を備える撮像装置の一例についてその構成を示すブロック図である。   FIG. 1 is a block diagram illustrating a configuration of an example of an imaging apparatus including a subject search device according to an embodiment of the present invention.

図示の撮像装置は、例えば、デジタルカメラ(以下単にカメラと呼ぶ)であり、CCD又はCMOSセンサなどの撮像素子101を有している。この撮像素子101は、例えば、ベイヤー配列によるRGBカラーフィルタがその表面に配置されており、これによって、カラー撮影を行うことができる。   The illustrated imaging apparatus is, for example, a digital camera (hereinafter simply referred to as a camera), and includes an imaging element 101 such as a CCD or CMOS sensor. For example, an RGB color filter based on a Bayer array is arranged on the surface of the image pickup device 101, and color imaging can be performed.

撮像素子101の前面側には、フォーカスレンズ、絞り、およびシャッターなどを備える撮影レンズユニット(以下単に撮影レンズと呼ぶ)100が配置されており、撮影レンズを介して光学像が撮像素子101に結像する。撮像素子101は光学像に応じた電気信号(アナログ画像信号)を生成して、当該アナログ画像信号をA/D変換によってデジタル画像信号として出力する。そして、このデジタル画像信号は一旦メモリ102に記録される。   A photographing lens unit (hereinafter simply referred to as a photographing lens) 100 including a focus lens, a diaphragm, a shutter, and the like is disposed on the front side of the imaging element 101, and an optical image is connected to the imaging element 101 via the photographing lens. Image. The image sensor 101 generates an electrical signal (analog image signal) corresponding to the optical image, and outputs the analog image signal as a digital image signal by A / D conversion. The digital image signal is once recorded in the memory 102.

CPU114は、カメラ全体の制御を司る。CPU114は、例えば、後述するように、撮影の結果得られた画像が明るくなるシャッター速度および絞り値を求めるとともに、被写体に合焦させるためのフォーカスレンズの駆動量を求める。   The CPU 114 controls the entire camera. For example, as will be described later, the CPU 114 obtains a shutter speed and an aperture value at which an image obtained as a result of photographing becomes brighter, and obtains a driving amount of a focus lens for focusing on the subject.

CPU114において求められた露出値(シャッター速度および絞り値)とフォーカスレンズ駆動量とは制御回路113に送られ、制御回路113は露出値およびフォーカスレンズ駆動量に応じてシャッター、絞り、およびフォーカスレンズを駆動制御する。   The exposure value (shutter speed and aperture value) obtained by the CPU 114 and the focus lens drive amount are sent to the control circuit 113, which controls the shutter, aperture, and focus lens according to the exposure value and the focus lens drive amount. Drive control.

さらに、制御回路113はCPU114の制御下で、撮像素子101の画素読み出し制御を行うとともに、必要に応じて撮像に同期してストロボ116を発光させる。   Furthermore, the control circuit 113 performs pixel readout control of the image sensor 101 under the control of the CPU 114, and causes the strobe 116 to emit light in synchronization with imaging as necessary.

ホワイトバランス(WB)制御部103はメモリ102に記憶されたデジタル画像信号を読み出して、当該デジタル画像信号に応じてWBゲイン値を求める。そして、WB制御部103はWBゲイン値を用いてデジタル画像信号についてWBゲインの補正を行って、WB補正画像信号を出力する。   The white balance (WB) control unit 103 reads a digital image signal stored in the memory 102 and obtains a WB gain value according to the digital image signal. The WB control unit 103 corrects the WB gain for the digital image signal using the WB gain value, and outputs a WB corrected image signal.

色変換マトリックス(MTX)回路104は、WB補正画像信号を最適な色で再現するため、WB補正画像信号に色ゲインを乗算して色差信号R−YおよびB−Yを得る。そして、ローパスフィルタ(LPF)回路105は色差信号R−YおよびB−Yの帯域を制限して、CSUP(Chroma Supress)回路106に与える。   A color conversion matrix (MTX) circuit 104 multiplies the WB corrected image signal by a color gain to obtain color difference signals RY and BY in order to reproduce the WB corrected image signal with an optimum color. The low-pass filter (LPF) circuit 105 limits the bands of the color difference signals RY and BY and supplies them to a CSUP (Chroma Suppress) circuit 106.

CSUP回路106はLPF回路105で帯域制限された画像信号において、飽和部分における偽色信号を抑圧する。   The CSUP circuit 106 suppresses the false color signal in the saturated portion in the image signal band-limited by the LPF circuit 105.

一方、WB制御部103からWB補正画像信号が輝度信号(Y)生成回路111に与えられる。Y生成回路111はWB補正画像信号から輝度信号Yを生成する。エッジ強調回路112は輝度信号Yに対してエッジ強調処理を施してエッジ強調輝度信号Yを出力する。   On the other hand, the WB correction image signal is given from the WB control unit 103 to the luminance signal (Y) generation circuit 111. The Y generation circuit 111 generates a luminance signal Y from the WB corrected image signal. The edge enhancement circuit 112 performs edge enhancement processing on the luminance signal Y and outputs an edge enhanced luminance signal Y.

CSUP回路106の出力である色差信号R−YおよびB−Yとエッジ強調回路112の出力であるエッジ強調輝度信号YはRGB変換回路107に与えられる。RGB変換回路107は色差信号R−YおよびB−Yとエッジ強調輝度信号YとをRGB信号(色信号)に変換する。そして、ガンマ(γ)補正回路108はRBG信号に対して階調補正を施して、諧調補正後のRGB信号を色輝度変換回路109に送る。   The color difference signals RY and BY output from the CSUP circuit 106 and the edge enhanced luminance signal Y output from the edge enhancement circuit 112 are supplied to the RGB conversion circuit 107. The RGB conversion circuit 107 converts the color difference signals RY and BY and the edge enhanced luminance signal Y into RGB signals (color signals). Then, the gamma (γ) correction circuit 108 performs gradation correction on the RBG signal, and sends the RGB signal after gradation correction to the color luminance conversion circuit 109.

色輝度変換回路109は、諧調補正後のRGB信号を、色情報を輝度信号(Y)、輝度信号と青色成分の差(U)、そして、輝度信号と赤色成分の差(V)との組み合わせで表すYUV信号に変換する。   The color luminance conversion circuit 109 is a combination of the RGB signal after gradation correction, the color information as the luminance signal (Y), the difference between the luminance signal and the blue component (U), and the difference between the luminance signal and the red component (V). Is converted into a YUV signal represented by

JPEG圧縮回路110はYUV信号を圧縮処理して、当該圧縮処理されたYUV信号を外部記録媒体又は内部記録媒体(図示せず)に画像データとして記録する。   The JPEG compression circuit 110 compresses the YUV signal and records the compressed YUV signal as image data on an external recording medium or an internal recording medium (not shown).

なお、画像処理回路115は、メモリからデジタル画像信号を読み出して、所定の画像処理を施して、表示部(図示せず)に画像として表示する。   The image processing circuit 115 reads out a digital image signal from the memory, performs predetermined image processing, and displays it as an image on a display unit (not shown).

図2は、図1に示すカメラにおける撮影処理を説明するためのフローチャートである。なお、図示のフローチャートに係る処理は、CPU114の制御下で行われる。   FIG. 2 is a flowchart for explaining a photographing process in the camera shown in FIG. Note that the processing according to the illustrated flowchart is performed under the control of the CPU 114.

カメラにおいて、図示しない操作部によって撮影開始が指示されると、CPU114の制御下で、画像処理回路115は撮像素子101で得られたデジタル画像信号に応じてライブ表示用の画像データを生成して表示部にライブ表示用画像(ライブ画像)を表示する(ステップS201:ライブ画像取得)。   In the camera, when the start of shooting is instructed by an operation unit (not shown), under the control of the CPU 114, the image processing circuit 115 generates image data for live display according to the digital image signal obtained by the image sensor 101. The live display image (live image) is displayed on the display unit (step S201: live image acquisition).

続いて、CPU114は、後述するようにして、ライブ画像における複雑度(ライブ複雑度)を算出する(ステップS202)。そして、CPU114は当該複雑度が所定の複雑度閾値を超えるか否かを判定して判定結果を得る。つまり、CPU114はライブ画像が複雑であるか否かを判定することになる(ステップS203)。   Subsequently, the CPU 114 calculates the complexity (live complexity) in the live image as described later (step S202). Then, the CPU 114 determines whether the complexity exceeds a predetermined complexity threshold and obtains a determination result. That is, the CPU 114 determines whether or not the live image is complicated (step S203).

ライブ画像が複雑であると(ステップS203において、YES)、CPU114は撮影シーンが複雑であるとして、後述する第1の主要被写体探索処理(標準)を行う(ステップS204)。ステップS204の処理おいては、ライブ画像を分割して標準的なメッシュ分割数において主要被写体(つまり、被写体領域)を探索する。   If the live image is complicated (YES in step S203), the CPU 114 performs a first main subject search process (standard), which will be described later, assuming that the shooting scene is complicated (step S204). In the process of step S204, the live image is divided and a main subject (that is, a subject region) is searched with a standard number of mesh divisions.

一方、ライブ画像が複雑でないと(ステップS203において、NO)、CPU114は撮影シーンが複雑でないとして、後述する第2の主要被写体探索処理(詳細)を行う(ステップS205)。ステップS205の処理は、複雑度が低いのでライブ画像における特徴が乏しく、通常の主要被写体探索では被写体を認識することが難しい撮影シーンの場合に用いられる。ここでは、メッシュ分割数を多く設定して被写体の小さな特徴を捉え、輝度信号Yを用いて主要被写体(つまり、被写体領域)を探索する。   On the other hand, if the live image is not complicated (NO in step S203), the CPU 114 performs a second main subject search process (details) described later, assuming that the shooting scene is not complicated (step S205). The processing in step S205 is used in the case of a shooting scene in which the complexity of the live image is low due to low complexity and it is difficult to recognize the subject in a normal main subject search. Here, a large number of mesh divisions are set to capture small features of the subject, and the main subject (that is, the subject region) is searched using the luminance signal Y.

図示のステップS201〜S205の処理は撮影準備シーケンスであって、撮影準備シーケンスが終了すると、CPU114は現像シーケンスに移行する。   The processing in steps S201 to S205 shown in the figure is a shooting preparation sequence, and when the shooting preparation sequence ends, the CPU 114 shifts to a development sequence.

ステップS204又はS205の処理に続いて、CPU114はステップS203の処理と同様にして画像の複雑度を判定する(ステップS206)。画像が複雑でないと(ステップS206において、NO)、CPU114は第1又は第2の主要被写体探索処理において主要被写体が探索できたか否かを判定する(ステップS207)。   Subsequent to step S204 or S205, the CPU 114 determines the complexity of the image in the same manner as in step S203 (step S206). If the image is not complicated (NO in step S206), CPU 114 determines whether or not the main subject has been searched in the first or second main subject search process (step S207).

主要被写体が探索できたと判定すると(ステップS297において、YES)、CPU114はブラケット撮影を行う(ステップS208)。ここでは、例えば、CPU114はピント位置を変更するAFブラケット撮影又は露出を変更するAEブラケット撮影を行う。   If it is determined that the main subject has been found (YES in step S297), CPU 114 performs bracket shooting (step S208). Here, for example, the CPU 114 performs AF bracket shooting for changing the focus position or AE bracket shooting for changing the exposure.

なお、画像が複雑であると(ステップS206において、YES)、CPU114はステップS208の処理に進み、ブラケット撮影を行う。ここでは、画像の複雑度が高いので、画像においては様々な特徴を有する被写体が存在する。このため、標準的な撮影パラメータを変更して撮影を行うことができる。   If the image is complicated (YES in step S206), the CPU 114 proceeds to the process of step S208 and performs bracket shooting. Here, since the complexity of the image is high, there are subjects having various characteristics in the image. For this reason, it is possible to perform imaging by changing standard imaging parameters.

主要被写体が探索できないと判定すると(ステップS297において、NO)、CPU114は画像の特徴が乏しく、撮影パラメータを変更した撮影による効果的な撮影が見込めないとして単写撮影(シングル撮影)を行う(ステップS209)。   If it is determined that the main subject cannot be searched (NO in step S297), the CPU 114 performs single shooting (single shooting) on the assumption that the image characteristics are poor and effective shooting by changing shooting parameters cannot be expected (step shooting). S209).

前述のステップS208の処理に続いて、CPU114は、ブラケット撮影によって得られた静止画(つまり、撮影画像)について、ステップS202と同様にして複雑度(静止画複雑度)を算出する(ステップS210)。   Subsequent to the processing in step S208 described above, the CPU 114 calculates the complexity (still image complexity) for the still image (that is, the captured image) obtained by bracket shooting in the same manner as in step S202 (step S210). .

なお、ブラケット撮影によって複数の静止画像を得た際に複雑度を算出する場合には、ブラケット撮影で得た全ての静止画像について複雑度を算出して、その平均値を求める。又は複数の複雑度のうち最も低い複雑度を選択するようにしてもよい。さらには、ブラケット撮影で得られた静止画像においてその代表画像から複雑度を求めるようにしてもよい。   When calculating the complexity when a plurality of still images are obtained by bracket shooting, the complexity is calculated for all the still images obtained by bracket shooting, and the average value is obtained. Alternatively, the lowest complexity among a plurality of complexity may be selected. Furthermore, the complexity may be obtained from the representative image in the still image obtained by bracket shooting.

ここで、ブラケット撮影がAEブラケット撮影であれば、適正露出の静止画像が代表画像として選択される。また、ブラケット撮影がAFブラケット撮影であれば、最初のフォーカス位置にピントを合わせた静止画像を代表画像として選択される。   Here, if bracket shooting is AE bracket shooting, a still image with proper exposure is selected as a representative image. If bracket shooting is AF bracket shooting, a still image focused on the first focus position is selected as a representative image.

続いて、CPU114は、静止画複雑度に応じて静止画像(又は代表画像)が複雑であるか否かを判定する(ステップS211)。つまり、CPU114は静止画複雑度が所定の閾値を超えるか否かを判定する。   Subsequently, the CPU 114 determines whether or not the still image (or representative image) is complicated according to the still image complexity (step S211). That is, the CPU 114 determines whether the still image complexity exceeds a predetermined threshold value.

静止画像が複雑であると(ステップS211において、YES)、CPU114は第1の主要被写体探索処理を行う(ステップS212)。一方、静止画像が複雑でないと(ステップS211において、NO)、CPU114は第2の主要被写体探索処理を行う(ステップS213)。なお、ステップS209の処理の後、CPU114はステップS213の処理に進む。   If the still image is complicated (YES in step S211), the CPU 114 performs a first main subject search process (step S212). On the other hand, if the still image is not complicated (NO in step S211), the CPU 114 performs a second main subject search process (step S213). Note that after the process of step S209, the CPU 114 proceeds to the process of step S213.

ステップS212又はS213の処理の後、CPU114は静止画において主要被写体が探索できたか否かを判定する(ステップS214)。   After the process of step S212 or S213, the CPU 114 determines whether or not the main subject has been searched for in the still image (step S214).

静止画において主要被写体が探索できたと判定すると(ステップS214において、YES)、CPU114は画像処理回路115によって主要被写体を切り出して主要被写体を含む領域をトリミングする画像処理を行う(ステップS215)。そして、CPU114は撮影処理を終了する。   If it is determined that the main subject has been searched for in the still image (YES in step S214), the CPU 114 performs image processing for cutting out the main subject by the image processing circuit 115 and trimming a region including the main subject (step S215). Then, the CPU 114 ends the photographing process.

一方、静止画において主要被写体が探索できないと判定する(ステップS214において、NO)、CPU114は静止画像の特徴が乏しいとしてトリミングを行うことなく、画像処理回路115によって過去に撮影した画像又はフレームなどのグラフィック要素と画像合成処理を行う。そして、CPU114は撮影処理を終了する。   On the other hand, if it is determined that the main subject cannot be searched for in the still image (NO in step S214), the CPU 114 does not perform trimming on the assumption that the feature of the still image is poor. Performs image composition processing with graphic elements. Then, the CPU 114 ends the photographing process.

なお、ステップS206からステップS216の処理は現像シーケンスである。   Note that the processing from step S206 to step S216 is a development sequence.

図3は、図1に示すカメラで行われる複雑度の算出を説明するための図である。そして、図3(a)は撮影の結果得られた画像(元画像)を示す図であり、図3(b)は図3(a)に示す画像を領域分割した状態を示す図である。また、図3(c)はエッジ成分が高い領域をカウントする状態を示す図である。   FIG. 3 is a diagram for explaining the calculation of the complexity performed by the camera shown in FIG. FIG. 3A is a diagram showing an image (original image) obtained as a result of photographing, and FIG. 3B is a diagram showing a state where the image shown in FIG. 3A is divided into regions. FIG. 3C is a diagram showing a state in which regions with high edge components are counted.

図示の画像301は画像全体がグレーの色調であって、白黒のロゴ(east side)が主要被写体である。CPU114は画像301に対して輝度エッジ検出してエッジ成分(高周波成分)を抽出する。そして、CPU114はエッジ成分が抽出された画像に対して所定のメッシュ分割数でメッシュ分割を行って画像302を得る。ここでは、画像302は矩形状の30のブロック(領域)304に分割されている。   The illustrated image 301 has a gray tone as a whole, and a black and white logo (east side) is the main subject. The CPU 114 detects the luminance edge of the image 301 and extracts an edge component (high frequency component). Then, the CPU 114 performs mesh division with a predetermined number of mesh divisions on the image from which the edge component has been extracted to obtain an image 302. Here, the image 302 is divided into 30 rectangular blocks (areas) 304.

続いて、CPU114は画像302においてブロック304の各々についてエッジ成分を積分して積分値を求める。そして、CPU114は当該積分値をブロックの画素数で正規化してブロックのエッジ評価値を求める。   Subsequently, the CPU 114 integrates the edge component for each of the blocks 304 in the image 302 to obtain an integral value. Then, the CPU 114 normalizes the integral value with the number of pixels of the block and obtains an edge evaluation value of the block.

次に、CPU114は、エッジ評価値を算出した後の画像303においてブロックのエッジ評価値に応じてエッジ評価値が高いブロックの数をカウントしてカウント数を得る。ここでは、CPU114はエッジ評価値が所定のエッジ閾値を超えるブロックの数をカウントする。   Next, the CPU 114 counts the number of blocks having a high edge evaluation value in accordance with the edge evaluation value of the block in the image 303 after calculating the edge evaluation value to obtain the count number. Here, the CPU 114 counts the number of blocks whose edge evaluation value exceeds a predetermined edge threshold.

図示の例では、主要被写体であるロゴ(east side)を含む2つブロックがエッジ評価値の高いブロックであり、CPU114はエッジ評価が高いブロックの数(ここでは、高エッジ評価値のブロック数(つまり、カウント数)=2)を画像301の複雑度とする。   In the illustrated example, two blocks including a logo (east side) which is a main subject are blocks having a high edge evaluation value, and the CPU 114 counts the number of blocks having a high edge evaluation (here, the number of blocks having a high edge evaluation value ( That is, the count number) = 2) is defined as the complexity of the image 301.

そして、前述のように、CPU114は複雑度が所定の複雑度閾値を超えるか否かを判定する。つまり、CPU114は高エッジ評価ブロックの数が少ない場合には画像301の複雑度は低く、画像に特徴が乏しいと判定することになる。   As described above, the CPU 114 determines whether the complexity exceeds a predetermined complexity threshold. That is, when the number of high edge evaluation blocks is small, the CPU 114 determines that the complexity of the image 301 is low and the image has poor features.

図4は、図1に示すカメラで行われる主要被写体探索処理を説明するための図である。そして、図4(a)は撮影の結果得られた画像(元画像)を示す図であり、図4(b)は図4(a)に示す画像を領域分割した状態の一例を示す図である。また、図4(c)は図4(a)に示す画像を領域分割した状態の他の例を示す図であり、図4(d)は図4(c)において領域のグルーピングを示す図である。   FIG. 4 is a diagram for explaining a main subject search process performed by the camera shown in FIG. 4A is a diagram illustrating an image (original image) obtained as a result of photographing, and FIG. 4B is a diagram illustrating an example of a state where the image illustrated in FIG. 4A is divided into regions. is there. FIG. 4C is a diagram showing another example of a state where the image shown in FIG. 4A is divided into regions, and FIG. 4D is a diagram showing grouping of regions in FIG. 4C. is there.

図示の画像401は画像全体がグレーの色調であって、白黒のロゴ(east side)が主要被写体である。CPU114は画像401に対して所定の第1のメッシュ分割数でメッシュ分割を行う。ここでは、画像402においては矩形状の30のブロック(領域)406に分割されている。   The illustrated image 401 has a gray tone as a whole, and a black and white logo (east side) is the main subject. The CPU 114 performs mesh division on the image 401 with a predetermined first mesh division number. Here, the image 402 is divided into 30 rectangular blocks (areas) 406.

次に、CPU114はブロックの各々についてその代表色を求める。図示の例では、CPU114はブロックの色信号値を積分して積分値を得た後、当該積分値を画素数で正規化することによってブロックの代表値である代表色を決定する。   Next, the CPU 114 obtains a representative color for each of the blocks. In the illustrated example, the CPU 114 integrates the color signal values of the block to obtain an integrated value, and then normalizes the integrated value by the number of pixels to determine a representative color that is a representative value of the block.

さらに、CPU114は代表色が近似するブロックをグルーピングしてグループ化ブロックを得る。画像402においては画像の全てのブロックにおいて代表色が近似するので、CPU114はグルーピングすることができない。つまり、CPU114は主要被写体であるロゴ(east side)を探索することができない。   Furthermore, the CPU 114 groups the blocks that approximate the representative colors to obtain grouped blocks. In the image 402, the CPU 114 cannot perform grouping because the representative colors approximate in all blocks of the image. That is, the CPU 114 cannot search for a logo (east side) that is a main subject.

図4(b)に示す例は、第1の主要被写体探索処理を行う際の例である。つまり、複雑度が所定の複雑度閾値を超える場合には、図4(b)に示す分割によって主要被写体探索処理が行われる。一方、ここでは、画像401の複雑度は低いので(つまり、複雑度は複雑度閾値以下であるので)、第1の主要被写体探索処理では主要被写体を探索することができない。よって、ここでは、図4(c)に示す第2の主要被写体探索処理が行われる。   The example shown in FIG. 4B is an example when the first main subject search process is performed. That is, when the complexity exceeds a predetermined complexity threshold, the main subject search process is performed by the division shown in FIG. On the other hand, since the complexity of the image 401 is low here (that is, the complexity is equal to or lower than the complexity threshold value), the main subject cannot be searched in the first main subject search process. Therefore, here, the second main subject search process shown in FIG. 4C is performed.

CPU114は画像401に対して所定の第2のメッシュ分割数でメッシュ分割を行う。ここでは、画像402において矩形状の120のブロック(領域)407に分割されている。   The CPU 114 performs mesh division on the image 401 with a predetermined second mesh division number. Here, the image 402 is divided into 120 rectangular blocks (areas) 407.

次に、CPU114はブロックの各々についてその代表値である輝度評価値を求める。図示の例では、CPU114はブロックの輝度信号値を積分して積分値を得た後、当該積分値を画素数で正規化することによってブロックの輝度評価値を決定する。   Next, the CPU 114 obtains a luminance evaluation value that is a representative value for each of the blocks. In the illustrated example, the CPU 114 integrates the luminance signal value of the block to obtain an integrated value, and then normalizes the integrated value with the number of pixels to determine the luminance evaluation value of the block.

さらに、CPU114は輝度評価値が近似するブロックをグルーピングしてグループ化ブロックを得る。図4(d)に示す状態では、画像404において輝度評価値が近似する3つのブロック405がグループ化ブロックとされ、CPU114は主要被写体であるロゴ(east side)を探索することができる。つまり、画像の複雑度は低い場合には、CPU114は第2の主要被写体探索処理を行って主要被写体を探索する。   Further, the CPU 114 obtains a grouped block by grouping blocks having similar brightness evaluation values. In the state shown in FIG. 4D, the three blocks 405 whose luminance evaluation values approximate in the image 404 are grouped blocks, and the CPU 114 can search for a logo (east side) that is a main subject. That is, when the complexity of the image is low, the CPU 114 performs a second main subject search process to search for the main subject.

ところで、図4(c)および図4(d)に示す第2の主要被写体探索処理においては、代表値として、ブロック毎に輝度評価値を求めてグルーピングを行うようにしている。輝度評価値を用いてグルーピングを行うと小さなグループが多数存在することになるため、主要被写体探索には適さない。ところが、画像における特徴が乏しい場合に(つまり複雑度が低い場合に)、メッシュ分割数を多くして、輝度評価値に応じてブロックのグルーピングを行うと、良好に主要被写体の探索を行うことができる。   By the way, in the second main subject search process shown in FIGS. 4C and 4D, the luminance evaluation value is obtained for each block as a representative value and grouping is performed. When grouping is performed using the luminance evaluation value, there are many small groups, which is not suitable for the main subject search. However, when the features in the image are poor (that is, when the complexity is low), if the number of mesh divisions is increased and block grouping is performed according to the luminance evaluation value, the main subject can be searched well. it can.

このように、本発明の実施の形態では、色によって領域分割することが難しく、さらに画像において被写体の距離差が少ない場合のように、特徴が得にくい撮影シーンで得られた画像において、主要被写体を探索してトリミング処理又はブラケット撮影行うことができる。   As described above, in the embodiment of the present invention, it is difficult to divide the area by color, and the main subject in an image obtained in a shooting scene where it is difficult to obtain features, such as a case where the distance difference between subjects in the image is small. Can be trimmed or bracketed.

なお、上述の実施の形態では、複雑度を算出する際には画像全体に亘って均一に取り扱うようにしたが、画像において、主要被写体が位置する可能性が高い中央部と周辺部とにおいて重みづけを変更して複雑度を求めるようにしてもよい。   In the above-described embodiment, when calculating the complexity, the entire image is handled uniformly. However, in the image, weights are given to the central portion and the peripheral portion where the main subject is likely to be located. The complexity may be obtained by changing the attachment.

さらに、上述の実施の形態では、複雑度が低く、かつ主要被写体が探索できない場合には、画像合成処理を行うようにしたが、台形状に画像を変形させる処理又はクロスフィルター処理などを行うようにしてもよい。   Furthermore, in the above-described embodiment, when the complexity is low and the main subject cannot be searched, the image composition process is performed. However, the process of transforming the image into a trapezoidal shape or the cross filter process is performed. It may be.

以上、本発明について実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。   As mentioned above, although this invention was demonstrated based on embodiment, this invention is not limited to these embodiment, Various forms of the range which does not deviate from the summary of this invention are also contained in this invention. .

例えば、上記の実施の形態の機能を制御方法として、この制御方法を被写体探索装置に実行させるようにすればよい。また、上述の実施の形態の機能を有するプログラムを制御プログラムとして、当該制御プログラムを被写体探索装置が備えるコンピュータに実行させるようにしてもよい。なお、制御プログラムは、例えば、コンピュータに読み取り可能な記録媒体に記録される。   For example, the function of the above embodiment may be used as a control method, and the control method may be executed by the subject search device. Further, a program having the functions of the above-described embodiments may be used as a control program, and the control program may be executed by a computer included in the subject search device. The control program is recorded on a computer-readable recording medium, for example.

また、本発明は、以下の処理を実行することによっても実現される。つまり、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種の記録媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPUなど)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various recording media, and the computer (or CPU, MPU, etc.) of the system or apparatus reads the program. To be executed.

101 撮像素子
103 WB制御部
104 色変換MTX回路
107 RGB変換回路
108 ガンマ補正回路
109 色輝度変換回路
111 Y生成回路
112 エッジ強調回路
113 制御回路
114 CPU
115 画像処理回路
DESCRIPTION OF SYMBOLS 101 Image pick-up element 103 WB control part 104 Color conversion MTX circuit 107 RGB conversion circuit 108 Gamma correction circuit 109 Color luminance conversion circuit 111 Y generation circuit 112 Edge emphasis circuit 113 Control circuit 114 CPU
115 Image processing circuit

Claims (10)

被写体を撮像して得られた画像において前記被写体を探索する被写体探索装置であって、
前記画像において特徴の複雑度を算出する算出手段と、
前記画像において前記被写体の領域を示す被写体領域を探索する探索手段と、
前記複雑度が所定の複雑度閾値を超えると、前記画像を所定の第1のブロック数で複数のブロックに分割して、当該ブロックの各々においてブロックを代表する代表値に応じて前記ブロックをグルーピングして得られたグループ化ブロックに基づいて前記被写体領域を探索する第1の被写体探索処理を前記探索手段に行わせ、前記複雑度が前記複雑度閾値以下であると前記第1の被写体探索処理と異なる第2の被写体探索処理を前記探索手段に行わせる制御手段と、
を有することを特徴とする被写体探索装置。
A subject search device for searching for a subject in an image obtained by imaging the subject,
Calculating means for calculating the complexity of features in the image;
Search means for searching a subject area indicating the area of the subject in the image;
When the complexity exceeds a predetermined complexity threshold , the image is divided into a plurality of blocks with a predetermined first number of blocks, and the blocks are grouped according to representative values representing the blocks in each of the blocks. the first object search process of searching for the subject region based on the grouping blocks obtained by performed the search means, wherein the complexity is not more than the complexity threshold, the first object search Control means for causing the search means to perform a second subject search process different from the process;
A subject search device characterized by comprising:
前記算出手段は、前記画像を複数のブロックに分割して当該ブロックの各々において当該ブロックのエッジ成分を抽出して当該エッジ成分に応じたエッジ評価値が所定のエッジ閾値を超えるブロックの数をカウントし、当該カウントを前記複雑度とすることを特徴とする請求項1に記載の被写体探索装置。   The calculation means divides the image into a plurality of blocks, extracts edge components of the blocks in each of the blocks, and counts the number of blocks whose edge evaluation value corresponding to the edge components exceeds a predetermined edge threshold value. The subject search apparatus according to claim 1, wherein the count is the complexity. 前記第1の被写体探索処理で用いられる代表値は、ブロックの各々について色信号値を積分して得られた積分値をその画素数で正規化した代表色であることを特徴とする請求項1又は2に記載の被写体探索装置。 Representative value used in the first object search process, according to claim 1, characterized in that the representative color obtained by normalizing the integral value obtained by integrating the color signal values for each of the blocks in the number of pixels Or the subject search device according to 2; 前記第2の被写体探索処理は、前記画像を前記第1のブロック数よりも多い第2のブロック数で複数のブロックに分割して、当該ブロックの各々においてブロックを代表する代表値に応じて前記ブロックをグルーピングして得られたグループ化ブロックに基づいて前記被写体領域を探索する処理であることを特徴とする請求項1〜のいずれか1項に記載の被写体探索装置。 The second subject search process divides the image into a plurality of blocks with a second number of blocks larger than the first number of blocks, and according to a representative value representing the block in each of the blocks object search device according to any one of claims 1 to 3, characterized in that a process of searching for the subject region based on the grouping blocks obtained by grouping the blocks. 前記第2の被写体探索処理で用いられる代表値は、ブロックの各々について輝度信号値を積分して得られた積分値をその画素数で正規化した輝度評価値であることを特徴とする請求項に記載の被写体探索装置。 The representative value used in the second subject search process is a luminance evaluation value obtained by normalizing an integrated value obtained by integrating luminance signal values for each block by the number of pixels. 5. A subject search device according to 4 . 被写体を撮像して画像を得る撮像手段と、
請求項1〜のいずれか1項に記載の被写体探索装置と、
を有することを特徴とする撮像装置。
Imaging means for capturing an image of a subject and obtaining an image;
The subject search device according to any one of claims 1 to 5 ,
An imaging device comprising:
前記被写体探索装置に備えられた探索手段によって被写体領域が探索されると、当該被写体領域に対して所定の画像処理を行う画像処理手段を有することを特徴とする請求項に記載の撮像装置。 The imaging apparatus according to claim 6 , further comprising an image processing unit configured to perform predetermined image processing on the subject area when the subject area is searched for by the search unit included in the subject search apparatus. 前記被写体探索装置に備えられた探索手段によって被写体領域が探索されると、前記撮像手段を制御してブラケット撮影を行う撮影制御手段を有することを特徴とする請求項又はに記載の撮像装置。 When the subject region is searched by the search means provided in the subject search device, an imaging apparatus according to claim 6 or 7 characterized by having a photographing control means for controlling to bracketing said imaging means . 被写体を撮像して得られた画像において前記被写体を探索する被写体探索装置の制御方法であって、
前記画像において特徴の複雑度を算出する算出ステップと、
前記画像において前記被写体の領域を示す被写体領域を探索する探索ステップと、を有し、
前記探索ステップでは、前記複雑度が所定の複雑度閾値を超えると、前記画像を所定の第1のブロック数で複数のブロックに分割して、当該ブロックの各々においてブロックを代表する代表値に応じて前記ブロックをグルーピングして得られたグループ化ブロックに基づいて前記被写体領域を探索する第1の被写体探索処理を行い、前記複雑度が前記複雑度閾値以下であると前記第1の被写体探索処理と異なる第2の被写体探索処理を行うことを特徴とする制御方法。
A method for controlling a subject search apparatus for searching for a subject in an image obtained by imaging a subject,
A calculating step for calculating the complexity of the feature in the image;
Searching for a subject area indicating the subject area in the image, and
In the searching step, when the complexity exceeds a predetermined complexity threshold value , the image is divided into a plurality of blocks with a predetermined first number of blocks, and a representative value representing a block in each of the blocks is determined. First subject search processing for searching for the subject region based on the grouped blocks obtained by grouping the blocks, and the first subject search processing when the complexity is equal to or less than the complexity threshold value. And performing a second subject search process different from the above.
被写体を撮像して得られた画像において前記被写体を探索する被写体探索装置で用いられる制御プログラムであって、
前記被写体探索装置が備えるコンピュータに、
前記画像において特徴の複雑度を算出する算出ステップと、
前記画像において前記被写体の領域を示す被写体領域を探索する探索ステップと、を実行させ、
前記探索ステップでは、前記複雑度が所定の複雑度閾値を超えると、前記画像を所定の第1のブロック数で複数のブロックに分割して、当該ブロックの各々においてブロックを代表する代表値に応じて前記ブロックをグルーピングして得られたグループ化ブロックに基づいて前記被写体領域を探索する第1の被写体探索処理を行い、前記複雑度が前記複雑度閾値以下であると前記第1の被写体探索処理と異なる第2の被写体探索処理を行うことを特徴とする制御プログラム。
A control program used in a subject search apparatus for searching for a subject in an image obtained by imaging a subject,
A computer provided in the subject search device,
A calculating step for calculating the complexity of the feature in the image;
Searching for a subject area indicating the subject area in the image; and
In the searching step, when the complexity exceeds a predetermined complexity threshold value , the image is divided into a plurality of blocks with a predetermined first number of blocks, and a representative value representing a block in each of the blocks is determined. First subject search processing for searching for the subject region based on the grouped blocks obtained by grouping the blocks, and the first subject search processing when the complexity is equal to or less than the complexity threshold value. A control program for performing a second subject search process different from the above.
JP2014014559A 2014-01-29 2014-01-29 SUBJECT SEARCH DEVICE, ITS CONTROL METHOD, CONTROL PROGRAM, AND IMAGING DEVICE Active JP6316006B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014014559A JP6316006B2 (en) 2014-01-29 2014-01-29 SUBJECT SEARCH DEVICE, ITS CONTROL METHOD, CONTROL PROGRAM, AND IMAGING DEVICE

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014014559A JP6316006B2 (en) 2014-01-29 2014-01-29 SUBJECT SEARCH DEVICE, ITS CONTROL METHOD, CONTROL PROGRAM, AND IMAGING DEVICE

Publications (3)

Publication Number Publication Date
JP2015142281A JP2015142281A (en) 2015-08-03
JP2015142281A5 JP2015142281A5 (en) 2017-02-23
JP6316006B2 true JP6316006B2 (en) 2018-04-25

Family

ID=53772362

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014014559A Active JP6316006B2 (en) 2014-01-29 2014-01-29 SUBJECT SEARCH DEVICE, ITS CONTROL METHOD, CONTROL PROGRAM, AND IMAGING DEVICE

Country Status (1)

Country Link
JP (1) JP6316006B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023032876A1 (en) * 2021-09-06 2023-03-09 Dmg森精機株式会社 Information processing device, and machine tool
JP7405899B2 (en) * 2021-09-06 2023-12-26 Dmg森精機株式会社 Information processing equipment and machine tools

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009033386A (en) * 2007-07-26 2009-02-12 Fujifilm Corp Photographing device and method
JP5067234B2 (en) * 2008-03-28 2012-11-07 カシオ計算機株式会社 Imaging apparatus, imaging method, and imaging control program
JP2011150594A (en) * 2010-01-22 2011-08-04 Sony Corp Image processor and image processing method, and program
JP5448983B2 (en) * 2010-04-05 2014-03-19 三菱電機株式会社 Resolution conversion apparatus and method, scanning line interpolation apparatus and method, and video display apparatus and method
JP2013137587A (en) * 2011-12-27 2013-07-11 Toshiba Corp Image processing device and image processing method

Also Published As

Publication number Publication date
JP2015142281A (en) 2015-08-03

Similar Documents

Publication Publication Date Title
US10021313B1 (en) Image adjustment techniques for multiple-frame images
JP5398156B2 (en) WHITE BALANCE CONTROL DEVICE, ITS CONTROL METHOD, AND IMAGING DEVICE
CN102131056B (en) Image-capturing device and image-capturing method
US9426437B2 (en) Image processor performing noise reduction processing, imaging apparatus equipped with the same, and image processing method for performing noise reduction processing
EP2426928A2 (en) Image processing apparatus, image processing method and program
JP5169318B2 (en) Imaging apparatus and imaging method
JP6720881B2 (en) Image processing apparatus and image processing method
JP2007067815A (en) Image processing device and image processing method
JP5225137B2 (en) Imaging apparatus, image processing method, and program
US9762805B2 (en) Image processing apparatus performing tone correction process and method, and image capturing apparatus performing tone correction process
JP6316006B2 (en) SUBJECT SEARCH DEVICE, ITS CONTROL METHOD, CONTROL PROGRAM, AND IMAGING DEVICE
JP2006253970A (en) Imaging apparatus, shading correction data generating method, and program
JP5335964B2 (en) Imaging apparatus and control method thereof
JP2010213105A (en) Imaging apparatus
JP2016046610A (en) Imaging apparatus
JP4705146B2 (en) Imaging apparatus and imaging method
JP2015119436A (en) Imaging apparatus
JP5943682B2 (en) Imaging apparatus, control method thereof, and program
US11641525B2 (en) Image capturing apparatus capable of displaying live view image high in visibility, method of controlling image capturing apparatus, and storage medium
JP5818515B2 (en) Image processing apparatus, image processing method and program thereof
JP5629562B2 (en) Image processing apparatus, control method therefor, and program
KR101595888B1 (en) Photographing apparatus controlling method of photographing apparatus and recording medium storing program to implement the controlling method
JP6126638B2 (en) Image processing apparatus, image processing method and program thereof
JP6601062B2 (en) Imaging control apparatus, imaging control method, and program
US8106977B2 (en) Image capturing system and image processing method for applying grayscale conversion to a video signal, and computer-readable recording medium having recorded thereon an image processing program for applying grayscale conversion to a video signal

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170123

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170123

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180327

R151 Written notification of patent or utility model registration

Ref document number: 6316006

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151