JP2018121346A - Image processing apparatus, imaging apparatus, and image processing program - Google Patents

Image processing apparatus, imaging apparatus, and image processing program Download PDF

Info

Publication number
JP2018121346A
JP2018121346A JP2018040736A JP2018040736A JP2018121346A JP 2018121346 A JP2018121346 A JP 2018121346A JP 2018040736 A JP2018040736 A JP 2018040736A JP 2018040736 A JP2018040736 A JP 2018040736A JP 2018121346 A JP2018121346 A JP 2018121346A
Authority
JP
Japan
Prior art keywords
subject
region
area
image processing
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018040736A
Other languages
Japanese (ja)
Inventor
鉾井 逸人
Hayato Hokoi
逸人 鉾井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2018040736A priority Critical patent/JP2018121346A/en
Publication of JP2018121346A publication Critical patent/JP2018121346A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To extract a specific region accurately according to a subject.SOLUTION: An image processing apparatus includes an area detector for detecting multiple subject areas included in an image by color information or brightness information, a calculating section for calculating area changes of the subject areas detected in the area detector, by using multiple images including the subject areas, and an extracting section for extracting a specific area from the multiple subject areas detected by the area detector by the area changes of the subject areas calculated by the calculating section. The extracting section extracts the subject area as the specific based on the area changes of the subject areas calculated by the calculating section, out of the multiple subject areas detected by the area detector.SELECTED DRAWING: Figure 1

Description

本発明は、画像処理装置、撮像装置、および画像処理プログラムに関する。   The present invention relates to an image processing device, an imaging device, and an image processing program.

従来、焦点調節に関する様々な技術が考えられている。例えば、特許文献1の発明では、被写体抽出の手法を用いた焦点調節を行う撮像装置が開示されている。特許文献1の発明では、被写体形状の変化量に応じてAF測距枠を変形することにより、被写体がカメラ方向に移動する場合でも、被写体に対して最適に自動焦点調節を行うことを可能としている。   Conventionally, various techniques relating to focus adjustment have been considered. For example, the invention of Patent Document 1 discloses an imaging apparatus that performs focus adjustment using a subject extraction technique. In the invention of Patent Document 1, it is possible to optimally perform automatic focus adjustment on a subject even when the subject moves in the camera direction by deforming the AF distance measurement frame in accordance with the amount of change in the subject shape. Yes.

特開2009−069748号公報JP 2009-069748 A

ところで、被写界内に複数の被写体が存在する場合など、ユーザが撮影対象としている特定領域(例えば、被写体領域や注目領域など)と、背景である特定領域とが撮像装置の光軸方向において重なって撮影される場合がある。このような場合には、背景である特定領域が抽出されてしまい、必ずしもユーザにとって望ましい特定領域が抽出されない場合がある。   By the way, when there are a plurality of subjects in the object scene, a specific region (for example, a subject region or a region of interest) that the user is photographing and a specific region that is a background are in the optical axis direction of the imaging apparatus. There are cases where images are overlapped. In such a case, the specific area as the background is extracted, and the specific area desirable for the user may not necessarily be extracted.

本発明は、前記の点に鑑みてなされたものであり、被写体に応じて、的確に特定領域の抽出を行うことを目的とする。   The present invention has been made in view of the above points, and an object of the present invention is to accurately extract a specific area according to a subject.

本発明の画像処理装置は、色情報又は輝度情報により画像に含まれる被写体領域を複数検出する領域検出部と、前記領域検出部で検出された前記被写体領域の面積変化を、前記被写体領域を含む複数の画像を用いて算出する算出部と、前記算出部で算出された前記被写体領域の面積変化により前記領域検出部で検出された複数の前記被写体領域から特定領域を抽出する抽出部と、を備え、前記抽出部は、前記領域検出部で検出された複数の前記被写体領域のうち、前記算出部で算出された前記被写体領域の面積変化に基づいて被写体領域を前記特定領域として抽出する。   An image processing apparatus according to the present invention includes a region detection unit that detects a plurality of subject regions included in an image based on color information or luminance information, and an area change of the subject region detected by the region detection unit includes the subject region. A calculation unit that calculates using a plurality of images, and an extraction unit that extracts a specific region from the plurality of subject areas detected by the region detection unit based on a change in the area of the subject region calculated by the calculation unit, The extraction unit extracts a subject region as the specific region based on a change in the area of the subject region calculated by the calculation unit among the plurality of subject regions detected by the region detection unit.

なお、前記抽出部は、前記算出部で算出された前記被写体領域の面積変化により前記領域検出部で検出された複数の前記被写体領域に対して前記特定領域を抽出するための優先度を設定しても良い。   The extraction unit sets priorities for extracting the specific region with respect to the plurality of subject regions detected by the region detection unit based on the area change of the subject region calculated by the calculation unit. May be.

また、前記抽出部は、前記領域検出部で検出された複数の前記被写体領域のうち、前記算出部で算出された前記被写体領域の面積変化が大きい被写体領域に対して前記優先度を低く設定しても良い。   In addition, the extraction unit sets the priority to be low for a subject region having a large area change of the subject region calculated by the calculation unit among the plurality of subject regions detected by the region detection unit. May be.

また、前記抽出部で抽出された前記特定領域を、前記特定領域が含まれる複数の画像を用いて継続的に検出されているか否かを判定する判定部を備える。   Moreover, the determination part which determines whether the said specific area extracted by the said extraction part is continuously detected using the some image in which the said specific area is included is provided.

また、前記算出部により前記領域検出部で検出された前記被写体領域の面積変化を算出するために用いる画像の数を変更する操作部材を備える。   The calculation unit further includes an operation member that changes the number of images used for calculating the area change of the subject region detected by the region detection unit.

本発明の撮像装置は、被写体を撮像する撮像素子と、上述した何れかの画像処理装置とを備え、前記算出部は、前記領域検出部で検出された前記被写体領域の面積変化を算出するために用いる画像の数を前記撮像素子のフレームレートにより変更する。   An imaging apparatus according to the present invention includes an imaging device that captures an image of a subject and any of the image processing devices described above, and the calculation unit calculates an area change of the subject region detected by the region detection unit. The number of images used for is changed according to the frame rate of the image sensor.

また、本発明の撮像装置は、光学系を介して被写体を撮像する撮像素子と、上述した何れかの画像処理装置とを備え、前記算出部は、前記領域検出部で検出された前記被写体領域の面積変化を算出するために用いる画像の数を前記光学系のズーム倍率により変更する。   The image pickup apparatus of the present invention includes an image pickup device that picks up a subject via an optical system and any one of the image processing devices described above, and the calculation unit detects the subject region detected by the region detection unit. The number of images used for calculating the area change is changed by the zoom magnification of the optical system.

本発明の画像処理プログラムは、コンピュータに、色情報又は輝度情報により画像に含まれる被写体領域を複数検出する領域検出手順と、前記領域検出手順で検出された前記被写体領域の面積変化を、前記被写体領域を含む複数の画像を用いて算出する算出手順と、前記算出手順で算出された前記被写体領域の面積変化により前記領域検出手順で検出された複数の前記被写体領域から特定領域を抽出する抽出手順と、を実行させ、前記抽出手順は、前記領域検出手順で検出された複数の前記被写体領域のうち、前記算出手順で算出された前記被写体領域の面積変化に基づいて被写体領域を前記特定領域として抽出する。   The image processing program of the present invention allows a computer to detect an area detection procedure for detecting a plurality of subject areas included in an image based on color information or luminance information, and an area change of the subject area detected by the area detection procedure. A calculation procedure for calculating using a plurality of images including a region, and an extraction procedure for extracting a specific region from the plurality of subject areas detected by the region detection procedure based on an area change of the subject region calculated by the calculation procedure The extraction procedure uses the subject region as the specific region based on the area change of the subject region calculated by the calculation procedure among the plurality of subject regions detected by the region detection procedure. Extract.

本発明によれば、被写体に応じて、的確に特定領域の抽出を行うことができる。   According to the present invention, it is possible to accurately extract a specific area according to a subject.

レンズ鏡筒10と、撮像装置20と、記憶媒体40との構成を示すブロック図である。2 is a block diagram illustrating configurations of a lens barrel 10, an imaging device 20, and a storage medium 40. FIG. 従来のマスク抽出処理について説明する図である。It is a figure explaining the conventional mask extraction process. 本実施形態の自動検出モード実行時のCPU26の動作を示すフローチャートである。It is a flowchart which shows operation | movement of CPU26 at the time of automatic detection mode execution of this embodiment. 変化特性の算出について説明する図である。It is a figure explaining calculation of a change characteristic. マスク抽出処理について説明する図である。It is a figure explaining a mask extraction process.

以下、実施形態について図面を参照して詳細に説明する。   Hereinafter, embodiments will be described in detail with reference to the drawings.

本実施形態では、図1に示すようなレンズ鏡筒10と、撮像装置20と、記憶媒体40とを有する装置を例に挙げて説明する。   In the present embodiment, an apparatus having the lens barrel 10, the imaging device 20, and the storage medium 40 as shown in FIG. 1 will be described as an example.

撮像装置20は、レンズ鏡筒10から入射される光学像を撮像する。得られた画像は静止画又は動画の画像として、記憶媒体40に記憶される。   The imaging device 20 captures an optical image incident from the lens barrel 10. The obtained image is stored in the storage medium 40 as a still image or a moving image.

レンズ鏡筒10は、焦点調整レンズ(以下、「AF(Auto Focus)レンズ」と称する)11と、レンズ駆動部12と、AFエンコーダ13と、鏡筒制御部14とを備える。なお、レンズ鏡筒10は、撮像装置20に着脱可能に接続されても良いし、撮像装置20と一体であっても良い。   The lens barrel 10 includes a focus adjustment lens (hereinafter referred to as an “AF (Auto Focus) lens”) 11, a lens driving unit 12, an AF encoder 13, and a lens barrel control unit 14. The lens barrel 10 may be detachably connected to the imaging device 20 or may be integrated with the imaging device 20.

撮像装置20は、撮像部21と、画像処理装置22と、表示部23と、バッファメモリ部24と、記憶部25と、CPU26と、操作部27と、通信部28とを備える。撮像部21は、撮像素子29と、A/D(Analog/Digital)変換部30とを備える。撮像部21は、不図示の撮像素子を備え、設定された撮像条件(例えば絞り値、露出値等)に従って、CPU26により制御される。   The imaging device 20 includes an imaging unit 21, an image processing device 22, a display unit 23, a buffer memory unit 24, a storage unit 25, a CPU 26, an operation unit 27, and a communication unit 28. The imaging unit 21 includes an imaging element 29 and an A / D (Analog / Digital) conversion unit 30. The imaging unit 21 includes an imaging element (not shown), and is controlled by the CPU 26 according to set imaging conditions (for example, an aperture value, an exposure value, etc.).

レンズ鏡筒10において、AFレンズ11は、レンズ駆動部12により駆動され、撮像装置20の撮像部21における不図示の撮像素子の受光面(光電変換面)に、光学像を導く。AFエンコーダ13は、AFレンズ11の移動を検出し、AFレンズ11の移動量に応じた信号を、鏡筒制御部14に出力する。ここで、AFレンズ11の移動量に応じた信号とは、例えば、AFレンズ11の移動量に応じて位相が変化するサイン(sin)波信号であってもよい。   In the lens barrel 10, the AF lens 11 is driven by the lens driving unit 12, and guides an optical image to a light receiving surface (photoelectric conversion surface) of an imaging element (not shown) in the imaging unit 21 of the imaging device 20. The AF encoder 13 detects the movement of the AF lens 11 and outputs a signal corresponding to the movement amount of the AF lens 11 to the lens barrel control unit 14. Here, the signal corresponding to the movement amount of the AF lens 11 may be, for example, a sine wave signal whose phase changes according to the movement amount of the AF lens 11.

鏡筒制御部14は、撮像装置20のCPU26から入力される駆動制御信号に応じて、レンズ駆動部12を制御する。ここで、駆動制御信号とは、AFレンズ11を光軸方向に駆動させる制御信号である。鏡筒制御部14は、駆動制御信号に応じて、例えば、レンズ駆動部12に出力するパルス電圧のステップ数を変更する。また、鏡筒制御部14は、AFレンズ11の移動量に応じた信号に基づいて、レンズ鏡筒10におけるAFレンズ11の位置(フォーカスポジション)を、撮像装置20のCPU26に出力する。ここで、鏡筒制御部14は、例えば、AFレンズ11の移動量に応じた信号を、AFレンズ11の移動方向に応じて積算することで、レンズ鏡筒10におけるAFレンズ11の移動量(レンズの位置)を算出してもよい。レンズ駆動部12は、鏡筒制御部14の制御に応じてAFレンズ11を駆動し、AFレンズ11をレンズ鏡筒10内で光軸方向に移動させる。   The lens barrel control unit 14 controls the lens driving unit 12 in accordance with a drive control signal input from the CPU 26 of the imaging device 20. Here, the drive control signal is a control signal for driving the AF lens 11 in the optical axis direction. The lens barrel control unit 14 changes, for example, the number of steps of the pulse voltage output to the lens driving unit 12 according to the drive control signal. Further, the lens barrel control unit 14 outputs the position (focus position) of the AF lens 11 in the lens barrel 10 to the CPU 26 of the imaging device 20 based on a signal corresponding to the movement amount of the AF lens 11. Here, the lens barrel control unit 14 integrates, for example, signals according to the movement amount of the AF lens 11 according to the movement direction of the AF lens 11, thereby moving the AF lens 11 in the lens barrel 10 ( Lens position) may be calculated. The lens driving unit 12 drives the AF lens 11 according to the control of the lens barrel control unit 14 and moves the AF lens 11 in the optical axis direction within the lens barrel 10.

撮像装置20において、撮像部21は、例えば、レンズ鏡筒10(光学系)により光電変換面に結像された光学像を撮像素子内でデジタル信号に変換して出力する撮像素子を備えても良い。また、例えば、撮像部21は、撮像素子およびA/D変換部を備え、撮像素子はレンズ鏡筒10(光学系)により光電変換面に結像された光学像を電気信号に変換してA/D変換部に出力し、A/D変換部は、撮像素子によって変換された電気信号をデジタル化して、デジタル信号として出力する構成としても良い。なお、撮像素子は、例えば、CMOS(Complementary Metal Oxide Semiconductor)などの光電変換素子で構成される。また、撮像素子は、光電変換面の一部の領域について、光学像を電気信号に変換するようにしてもよい(画像切り出し)。また、撮像部21は、操作部27を介してユーザからの撮影指示を受け付けた際に得られる画像を、通信部28を介して記憶媒体40に出力する。一方、撮像部21は、操作部27を介してユーザからの撮影指示を受け付ける前の状態において、連続的に得られる画像をスルー画像として、バッファメモリ部24及び表示部23に出力する。   In the imaging device 20, the imaging unit 21 may include, for example, an imaging element that converts an optical image formed on the photoelectric conversion surface by the lens barrel 10 (optical system) into a digital signal and outputs the digital signal. good. In addition, for example, the imaging unit 21 includes an imaging device and an A / D conversion unit, and the imaging device converts an optical image formed on the photoelectric conversion surface by the lens barrel 10 (optical system) into an electrical signal and converts it into an A signal. The A / D converter may output to the / D converter, and the A / D converter may digitize the electrical signal converted by the image sensor and output the digital signal. Note that the imaging element is configured by a photoelectric conversion element such as a CMOS (Complementary Metal Oxide Semiconductor), for example. Further, the image sensor may convert an optical image into an electric signal for a partial region of the photoelectric conversion surface (image clipping). Further, the imaging unit 21 outputs an image obtained when a shooting instruction from the user is received via the operation unit 27 to the storage medium 40 via the communication unit 28. On the other hand, the imaging unit 21 outputs continuously obtained images to the buffer memory unit 24 and the display unit 23 as through images in a state before receiving a shooting instruction from the user via the operation unit 27.

画像処理装置22は、記憶部25に記憶されている画像処理条件に基づいて、バッファメモリ部24に一時的に記憶されている画像に対する画像処理を行う。そして、画像処理後の画像は、通信部28を介して記憶媒体40に記憶される。また、画像処理装置22は、バッファメモリ部24に一時的に記憶されている画像に対して、マスク抽出処理を行う(詳細は後述する)。そして、マスク抽出処理の結果に関する情報は、CPU26に出力されるとともに、記憶部25や記憶媒体40等に記憶される。   The image processing device 22 performs image processing on the image temporarily stored in the buffer memory unit 24 based on the image processing conditions stored in the storage unit 25. The image after image processing is stored in the storage medium 40 via the communication unit 28. Further, the image processing device 22 performs mask extraction processing on the image temporarily stored in the buffer memory unit 24 (details will be described later). Information about the result of the mask extraction process is output to the CPU 26 and stored in the storage unit 25, the storage medium 40, and the like.

表示部23は、例えば液晶ディスプレイであって、撮像部21によって生成された画像、及び操作画面等を表示する。バッファメモリ部24は、撮像部21によって生成された画像を一時的に記憶する。記憶部25は、撮像条件や、各種判定の際にCPU26によって参照される判定条件などを記憶する。   The display unit 23 is, for example, a liquid crystal display, and displays an image generated by the imaging unit 21, an operation screen, and the like. The buffer memory unit 24 temporarily stores the image generated by the imaging unit 21. The storage unit 25 stores imaging conditions, determination conditions referred to by the CPU 26 in various determinations, and the like.

CPU26は、領域検出部31、特性算出部32、制御部33の各部を備え、画像処理装置22や記憶部25などから適宜必要な情報を取得し、取得した情報に基づいて、撮像装置20内の各部を統括的に制御する。各部の具体的な動作については後述する。CPU26による制御には、焦点調整(AF)の設定、露出調整(AE)の設定、ホワイトバランス調整(WB)の設定、閃光の発光量の変更の設定、被写体追尾の設定、各種撮影モードの設定、各種画像処理の設定、各種表示の設定、ズーム倍率に連動した明るさの最適化の設定などが含まれる。また、CPU26は、操作部27の操作状態を監視するとともに、表示部23への画像データの出力を行う。   The CPU 26 includes an area detection unit 31, a characteristic calculation unit 32, and a control unit 33. The CPU 26 acquires necessary information from the image processing device 22, the storage unit 25, and the like, and based on the acquired information, Centrally control each part of. Specific operations of each part will be described later. For control by the CPU 26, focus adjustment (AF) setting, exposure adjustment (AE) setting, white balance adjustment (WB) setting, flash emission amount change setting, subject tracking setting, various shooting mode settings, etc. , Various image processing settings, various display settings, brightness optimization settings linked to zoom magnification, and the like. In addition, the CPU 26 monitors the operation state of the operation unit 27 and outputs image data to the display unit 23.

操作部27は、例えば、電源スイッチ、シャッタボタン、マルチセレクタ(十字キー)、又はその他の操作キーを備え、ユーザによって操作されることでユーザの操作入力を受け付け、操作入力に応じた信号をCPU26に出力する。   The operation unit 27 includes, for example, a power switch, a shutter button, a multi-selector (cross key), or other operation keys. The operation unit 27 receives a user operation input when operated by the user, and outputs a signal corresponding to the operation input to the CPU 26. Output to.

通信部28は、カードメモリ等の取り外しが可能な記憶媒体40と接続され、この記憶媒体40への情報(画像データ、領域の情報など)の書込み、読み出し、あるいは消去を行う。   The communication unit 28 is connected to a removable storage medium 40 such as a card memory, and writes, reads, or deletes information (image data, area information, etc.) to the storage medium 40.

記憶媒体40は、撮像装置20に対して着脱可能に接続される記憶部であって、情報(画像データ、領域の情報など)を記憶する。なお、記憶媒体40は、撮像装置20と一体であってもよい。   The storage medium 40 is a storage unit that is detachably connected to the imaging device 20 and stores information (image data, area information, and the like). Note that the storage medium 40 may be integrated with the imaging device 20.

撮像装置20は、撮影時に、焦点調節情報に基づいて特定領域(例えば、主要被写体領域や注目領域など)を検出する通常モードの他に、自動で特定領域を検出する自動検出モードを備える。自動検出モードは、構図確認用のスルー画像等に基づいて、特定領域を自動で継続的に検出し、検出した特定領域の情報に基づいて、各部を制御するモードである。この自動検出モードは操作部27を介したユーザ操作により設定可能であっても良いし、CPU26により自動で設定可能であっても良い。   The imaging device 20 includes an automatic detection mode for automatically detecting a specific area in addition to a normal mode for detecting a specific area (for example, a main subject area or a region of interest) based on focus adjustment information during shooting. The automatic detection mode is a mode in which a specific region is automatically and continuously detected based on a through image for composition confirmation and the like, and each unit is controlled based on information on the detected specific region. This automatic detection mode may be set by a user operation via the operation unit 27, or may be automatically set by the CPU.

ここで、本実施形態により解決しようとするケースについて図2を参照して説明する。図2A、図2B、図2Cは、時間的に連続して生成された画像である。図2Aから図2Cでは、被写界の手前側に主要被写体である人物が存在し、被写界の奥側にバスが存在している。そして、手前側の人物はユーザによるフレーミングにより画面内での位置が変化しており、奥側のバスは画面の左側から右側に向かって移動している。このような場合に、従来の自動検出を行うと、図2Aに示すように、背景(後景)であるバスが、前景である人物により分断され、複数の特定領域として抽出される場合がある。また、図2Aの場合には、例えば、m1〜m4の4つの特定領域が抽出され、特定領域m2が主要被写体領域として検出される。しかし、図2Bの場合には、例えば、m1〜m3の3つの特定領域が抽出され、特定領域m1が主要被写体領域として検出されてしまう場合がある。これは、図2Bの例において、背景であるバスの一部に相当する特定領域m1の方が、前景である人物に相当する特定領域m2よりも中央に近いためである。このように、本来は背景である被写体が主要被写体領域として抽出されてしまい、必ずしもユーザにとって望ましい特定領域が抽出されないという問題を解消するために、本実施形態では、被写体に応じて、的確に特定領域の抽出を行うことを目的とした処理を実行する。   Here, a case to be solved by the present embodiment will be described with reference to FIG. 2A, FIG. 2B, and FIG. 2C are images generated continuously in time. In FIGS. 2A to 2C, a person who is a main subject exists on the near side of the object scene, and a bus exists on the back side of the object scene. The position of the person on the front side changes in the screen due to framing by the user, and the bus on the back side moves from the left side to the right side of the screen. In such a case, when conventional automatic detection is performed, as shown in FIG. 2A, the bus that is the background (background) may be divided by the person who is the foreground and extracted as a plurality of specific areas. . In the case of FIG. 2A, for example, four specific areas m1 to m4 are extracted, and the specific area m2 is detected as the main subject area. However, in the case of FIG. 2B, for example, three specific areas m1 to m3 may be extracted, and the specific area m1 may be detected as the main subject area. This is because, in the example of FIG. 2B, the specific area m1 corresponding to a part of the background bus is closer to the center than the specific area m2 corresponding to the foreground person. As described above, in order to solve the problem that the subject that is originally the background is extracted as the main subject region and the specific region desirable for the user is not necessarily extracted, in the present embodiment, the subject is accurately identified according to the subject. A process intended to extract a region is executed.

以下、特定領域として主要被写体領域を検出する自動検出モード実行時のCPU26の動作について、図3のフローチャートを参照して説明する。   The operation of the CPU 26 when executing the automatic detection mode for detecting the main subject area as the specific area will be described below with reference to the flowchart of FIG.

ステップS101において、CPU26は、撮像部21を制御して、スルー画像の取得を開始する。取得されたスルー画像の画像情報はバッファメモリ部24に一時的に記憶される。このスルー画像は、所定の時間間隔で連続して生成される。そして、CPU26によるスルー画像の取得は、時間的に連続して順次行われる。   In step S <b> 101, the CPU 26 controls the imaging unit 21 to start acquiring a through image. The acquired image information of the through image is temporarily stored in the buffer memory unit 24. This through image is continuously generated at a predetermined time interval. The acquisition of the through image by the CPU 26 is sequentially performed sequentially in time.

ステップS102において、CPU26は、画像処理装置22を制御して通常の画像処理を行う。通常の画像処理とは、ホワイトバランス調整、補間処理、色調補正処理、階調変換処理などである。各処理の具体的な方法は公知技術と同様であるため説明を省略する。画像処理装置22は、バッファメモリ部24から対象となる画像の画像データを取得し、画像処理を施した後に、再びバッファメモリ部24に出力する。   In step S102, the CPU 26 controls the image processing device 22 to perform normal image processing. Normal image processing includes white balance adjustment, interpolation processing, color tone correction processing, gradation conversion processing, and the like. Since the specific method of each process is the same as that of a well-known technique, description is abbreviate | omitted. The image processing device 22 acquires the image data of the target image from the buffer memory unit 24, performs image processing, and then outputs the image data to the buffer memory unit 24 again.

ステップS103において、CPU26は、領域検出部31によりマスク抽出処理を行う。マスク抽出処理とは、画像における特徴量を算出し、特徴量が類似する、または、同一のかたまり(マスク)に基づいて主要被写体領域を検出するための一手法である。例えば、領域検出部31は、画像における特徴量から評価値を求め、同一、または同一と見なせる評価値の連続領域を求めることによりマスク抽出を行う。マスクには、例えば、純色マスク、色マスク、輝度マスク等が含まれる。マスク抽出の手法はどのような方法であっても良い。また、マスク抽出の具体的な方法は公知技術と同様であるため説明を省略する。   In step S <b> 103, the CPU 26 performs mask extraction processing by the area detection unit 31. The mask extraction process is a technique for calculating a feature amount in an image and detecting a main subject region based on a similar feature amount (mask). For example, the area detection unit 31 obtains an evaluation value from a feature amount in an image, and performs mask extraction by obtaining a continuous area of evaluation values that can be regarded as identical or identical. Examples of the mask include a pure color mask, a color mask, and a luminance mask. Any method of mask extraction may be used. In addition, since a specific method for extracting a mask is the same as that of a known technique, description thereof is omitted.

なお、画像処理装置22は、複数種類のマスクを作成し、作成した複数種類のマスクから、不要なマスクを排除し、残ったマスクについて優先度を決定する。優先度とは、複数種類のマスクから、実際に被写体領域の抽出に用いるマスクを決定する際の優先度合を示す。優先度は、一般に、色情報に関するマスクの優先度が相対的に高く決定されている。そして、画像処理装置22は、これらの優先度に応じて、優先度の高い各マスクを優先しつつ、一定評価値以上のマスクを求め、被写体領域を抽出するためのマスクとする。また、ステップS103において、画像処理装置22は、評価値の高い順にN個のマスクを抽出する。なお、上述したNは所定の数(例えば、N=5)であり、操作部27を介したユーザ操作などに基づいて適宜変更可能としても良い。画像処理装置22は、選択したN個のマスクに基づいて、それぞれ被写体領域を抽出し、後述するステップS104に進む。以下では、上述したN=5とし、画像処理装置22は、5個のマスク(マスクM1〜M5)を抽出するものとする。そして、以降のマスク抽出処理においては、基本的に、この5個のマスク(マスクM1〜M5)を継続的に抽出する。なお、この5個のマスク(マスクM1〜M5)については、抽出条件を緩く設定し、継続的な抽出を行いやすくしても良い。   Note that the image processing apparatus 22 creates a plurality of types of masks, excludes unnecessary masks from the created types of masks, and determines priorities for the remaining masks. The priority indicates a priority when determining a mask that is actually used for extracting a subject region from a plurality of types of masks. The priority is generally determined such that the priority of the mask related to color information is relatively high. Then, the image processing apparatus 22 obtains a mask having a certain evaluation value or higher while giving priority to each mask having a high priority in accordance with these priorities, and uses the mask as a mask for extracting a subject area. In step S103, the image processing apparatus 22 extracts N masks in descending order of evaluation values. N described above is a predetermined number (for example, N = 5), and may be appropriately changed based on a user operation via the operation unit 27. The image processing device 22 extracts subject areas based on the selected N masks, and proceeds to step S104 described later. In the following, it is assumed that N = 5 described above, and the image processing apparatus 22 extracts five masks (masks M1 to M5). In the subsequent mask extraction process, the five masks (masks M1 to M5) are basically extracted continuously. For these five masks (masks M1 to M5), the extraction conditions may be set loosely to facilitate continuous extraction.

ステップS104において、CPU26は、被写体領域を抽出できたか否かを判定する。CPU26は、1つ以上の被写体領域を抽出できたと判定するとステップS105に進む。一方、被写体領域を1つも抽出できないと判定すると、CPU26は、ステップS102に戻り、次のフレームの画像に対してステップS102以降の処理を行う。   In step S104, the CPU 26 determines whether or not the subject area has been extracted. If the CPU 26 determines that one or more subject areas have been extracted, the process proceeds to step S105. On the other hand, if it is determined that no subject area can be extracted, the CPU 26 returns to step S102, and performs the processing from step S102 onward for the image of the next frame.

ステップS105において、CPU26は、マスク情報を記録する。CPU26は、ステップS103で実行したマスク抽出処理の結果についての情報を、マスク情報としてバッファメモリ部24や記憶部25等に記録する。マスク情報には、ステップS103のマスク抽出処理の抽出条件(色区分やマスク区分など)、マスクの位置、マスクの大きさや形状、評価値による各マスクの順位などの情報が含まれる。   In step S105, the CPU 26 records mask information. The CPU 26 records information about the result of the mask extraction process executed in step S103 in the buffer memory unit 24, the storage unit 25, and the like as mask information. The mask information includes information such as the extraction conditions (color classification, mask classification, etc.) of the mask extraction processing in step S103, the position of the mask, the size and shape of the mask, and the rank of each mask based on the evaluation value.

ステップS106において、CPU26は、n回(nフレーム)以上連続して同一のマスクを抽出したか否かを判定する。CPU26は、n回以上連続して同一のマスクを抽出したと判定すると、同一の被写体領域が継続的に検出されているものとし、後述するステップS107に進む。一方、n回以上連続して同一のマスクを抽出していないと判定すると、CPU26は、上述したステップS102に戻り、次のスルー画像を対象としてステップS102以降の処理を行う。   In step S106, the CPU 26 determines whether or not the same mask has been extracted continuously n times (n frames) or more. If the CPU 26 determines that the same mask has been extracted n times or more in succession, it is assumed that the same subject area is continuously detected, and the process proceeds to step S107 described later. On the other hand, when determining that the same mask has not been extracted n times or more in succession, the CPU 26 returns to step S102 described above, and performs the processing from step S102 onward for the next through image.

この判定は、ステップS103で説明した5個のマスクのそれぞれについて行われる。ただし、必ずしも全てのマスクについてn回以上連続して同一のマスクを抽出する必要はなく、ステップS103で説明した5個のマスクのうち、少なくとも1つのマスクについて、n回以上連続して同一のマスクを抽出すれば良い。同一のマスクを抽出する場合とは、複数フレームにおいて、略同色、略同サイズのマスクが、略同じ位置において抽出される場合である。この判定には、ステップS105で説明したマスク情報等を用いれば良い。何れの場合も、フレーム間の変化量が規定以内である場合に、同一と判定することができる。   This determination is made for each of the five masks described in step S103. However, it is not always necessary to extract the same mask n times or more consecutively for all the masks. Of the five masks described in step S103, the same mask is continuously applied n times or more for at least one mask. Should be extracted. The case where the same mask is extracted is a case where masks of substantially the same color and size are extracted at substantially the same position in a plurality of frames. For this determination, the mask information described in step S105 may be used. In any case, when the amount of change between frames is within a specified range, it can be determined that they are the same.

なお、上述したnは所定の閾値(例えば、n=7)であり、撮像部21による撮像時のフレームレート、レンズ鏡筒10におけるズーム倍率、操作部27を介したユーザ操作などに基づいて適宜変更可能としても良い。さらに、ステップS105で説明したマスク情報等に基づいて、過去に行われたマスク抽出の傾向(抽出されたマスクの種類、出現頻度など)を求め、この傾向に応じて上述したnの値を適宜変更可能としても良い。例えば、過去に高い頻度で抽出されたマスクについては、nの値を小さめに変更しても良い。   Note that n described above is a predetermined threshold (for example, n = 7), and is appropriately determined based on the frame rate at the time of image capturing by the image capturing unit 21, the zoom magnification in the lens barrel 10, the user operation via the operation unit 27, and the like. It may be changeable. Further, the tendency of mask extraction performed in the past (the type of extracted mask, the appearance frequency, etc.) is obtained based on the mask information described in step S105, and the value of n described above is appropriately set according to this tendency. It may be changeable. For example, for a mask extracted at a high frequency in the past, the value of n may be changed to a smaller value.

また、CPU26は、ステップS106で行った判定の内容を、ステップS105で説明したマスク情報に追加して記録しておき、以降のフレームに関する処理時に用いる構成としても良い。   Further, the CPU 26 may be configured to record the contents of the determination made in step S106 in addition to the mask information described in step S105, and to use it at the time of processing related to subsequent frames.

また、CPU26は、上述した以外の方法でマスク抽出処理が安定して行われているか否かを判定する構成としても良い。例えば、前回まで連続して同一のマスクを抽出したか否かを加味して判定を行っても良い。このような構成とすれば、今回のみ一時の未抽出が発生した場合でも、それまでの蓄積を無効にせず、次のフレームにおいて同一のマスクを抽出した場合には、前回までの安定状態が維持されているものと見なすことができる。例えば、図2で例示したケースとは逆に、人物が奥側に存在し、その手前側を車や電車などが通過する場合にも、一時の未抽出として対応することができる。   Further, the CPU 26 may be configured to determine whether or not the mask extraction process is stably performed by a method other than that described above. For example, the determination may be performed in consideration of whether the same mask has been extracted continuously until the previous time. With this configuration, even if temporary unextraction occurs only this time, if the same mask is extracted in the next frame without invalidating the previous accumulation, the previous stable state is maintained. Can be considered. For example, contrary to the case illustrated in FIG. 2, when a person exists on the back side and a car or a train passes through the front side, it can be handled as temporary unextraction.

ステップS107において、CPU26は、特性算出部32により各マスクの面積の変化特性を算出する。特性算出部32は、複数のフレームにおいて、所定の時間内の各マスクの面積の変化を求める。図4は、フレーム番号(時刻)とマスク面積との関係を示すグラフである。図4の縦軸はマスク面積を示し、上に行くほど面積は大きくなる。図4の横軸は、フレーム番号(時刻)を示し、右へ行くほどフレーム番号は大きくなり、時間が経過する。特性算出部32は、図4に示すように、ステップS103で説明した5個のマスク(マスクM1〜M5)のそれぞれについて、変化特性として、マスク面積の変化を求める。   In step S <b> 107, the CPU 26 calculates a change characteristic of the area of each mask by the characteristic calculation unit 32. The characteristic calculation unit 32 obtains a change in the area of each mask within a predetermined time in a plurality of frames. FIG. 4 is a graph showing the relationship between the frame number (time) and the mask area. The vertical axis in FIG. 4 indicates the mask area, and the area increases as it goes upward. The horizontal axis in FIG. 4 indicates the frame number (time), and the frame number increases toward the right, and time elapses. As shown in FIG. 4, the characteristic calculation unit 32 obtains a change in the mask area as a change characteristic for each of the five masks (masks M1 to M5) described in step S103.

ステップS108において、CPU26は、制御部33により、ステップS107で算出した変化特性に基づいて、主要被写体領域を抽出できたか否かを判定する。CPU26は、制御部33により主要被写体領域を抽出できたと判定するとステップS109に進む。一方、制御部33により主要被写体領域を抽出できていないと判定すると、CPU26は、上述したステップS102に戻り、次のスルー画像を対象としてステップS102以降の処理を行う。   In step S108, the CPU 26 determines whether or not the main subject region has been extracted by the control unit 33 based on the change characteristic calculated in step S107. If the CPU 26 determines that the main subject area has been extracted by the control unit 33, the process proceeds to step S109. On the other hand, if the control unit 33 determines that the main subject region has not been extracted, the CPU 26 returns to step S102 described above and performs the processing from step S102 onward for the next through image.

主要被写体領域を抽出できたか否かは、ステップS107で算出した変化特性に基づき、所定の基準フレーム(基準画像)と処理対象のフレーム(画像)とにおけるマスク面積の変化に基づいて判定するか、または、処理対象のフレーム(画像)とその直前の(または処理対象のフレームよりも前に取得された)フレーム(画像)とにおけるマスク面積の変化に基づいて判定することができる。基準フレームは、例えば、所定の時刻のフレームであっても良いし、ステップS106でn回(nフレーム)以上連続して同一のマスクを抽出したと判定した際の、n回の最初のフレームであっても良い。   Whether or not the main subject region has been extracted can be determined based on the change characteristics calculated in step S107 based on a change in mask area between a predetermined reference frame (reference image) and a processing target frame (image). Alternatively, the determination can be made based on a change in mask area between a frame (image) to be processed and a frame (image) immediately before (or acquired before the frame to be processed). For example, the reference frame may be a frame at a predetermined time, or the first frame of n times when it is determined in step S106 that the same mask has been extracted n times (n frames) or more. There may be.

制御部33は、例えば、任意のマスクに関して、面積の変化が大きいほど、そのマスクの優先度を低く設定する。つまり、制御部33は、面積の変化が大きいほど、そのマスクを主要被写体領域として抽出させにくくする、あるいは、主要被写体領域として抽出させないようにする。図2でも説明したように、背景(後景)の領域は、面積の変化が大きくなる傾向がある。そこで、図4の例では、マスクM1については、面積の変化が大きいため、主要被写体領域ではなく、背景(後景)の領域であると判断する。   For example, with respect to an arbitrary mask, the control unit 33 sets the priority of the mask to be lower as the change in area is larger. That is, the control unit 33 makes it difficult to extract the mask as the main subject region or prevent the mask from being extracted as the main subject region as the change in the area is larger. As described with reference to FIG. 2, the area of the background (background) tends to have a large change in area. Therefore, in the example of FIG. 4, since the change in the area of the mask M1 is large, it is determined that it is not the main subject area but the background (background) area.

逆に、制御部33は、任意のマスクに関して、面積の変化が小さいほど、そのマスクの優先度を高く設定する。つまり、面積の変化が小さいほど、制御部33は、そのマスクを主要被写体領域として抽出させやすくする、あるいは、主要被写体領域として抽出させるようにする。図2でも説明したように、主要被写体領域は、面積の変化が小さい(あるいは無い)傾向がある。そこで、図4の例では、マスクM2やマスクM4については、面積の変化が小さいため、背景(後景)の領域ではなく、主要被写体領域であると判断する。   Conversely, the control unit 33 sets a higher priority for an arbitrary mask as the change in the area is smaller. That is, the smaller the change in area, the easier it is for the control unit 33 to extract the mask as the main subject region, or to extract the mask as the main subject region. As described with reference to FIG. 2, the main subject region tends to have a small (or no) change in area. Therefore, in the example of FIG. 4, since the change in the area of the mask M2 and the mask M4 is small, it is determined that it is not the background (background) area but the main subject area.

なお、制御部33は、このような判定を、どのようなファクターを用いて行っても良い。例えば、制御部33は、平均値やメディアン値を求めることにより、マスク面積を統計的に評価し、面積比率や、画面の中心からのマスクの距離変化などをファクターとしても良い。また、例えば、制御部33は、面積変化の偏差や、画面の中心からのマスクの距離偏差などをファクターとしても良い。   Note that the control unit 33 may make such a determination using any factor. For example, the control unit 33 may statistically evaluate the mask area by obtaining an average value or a median value, and the area ratio or a change in the distance of the mask from the center of the screen may be used as a factor. Further, for example, the control unit 33 may use an area change deviation or a mask distance deviation from the center of the screen as a factor.

以上説明したステップS108の判定について、図5を参照して説明する。図5のFaからFeは、それぞれ、フレーム番号1,10,20,30,40の画像に対して、従来のマスク抽出処理を行った場合の例を示し、図5のFAからFEは、同様に、それぞれ、フレーム番号1,10,20,30,40の画像に対して、本実施形態のマスク抽出処理を行った場合の例を示す。図5のFaからFe、FAからFEにおいては、ステップS103で説明した5個のマスク(マスクM1〜M5)(の一部)が抽出されている。なお、マスクM2およびマスクM5が本来の主要被写体に相当する領域であり、その他のマスクは背景(後景)に相当する領域であるものとする。図5のFaおよびFbにおいては、主要被写体に相当する領域であるマスクM2が主要被写体領域として正しく抽出される。図5のFAおよびFBにおいても同様である。しかし、図5のFcにおいては、背景(後景)に相当する領域であるマスクM1が主要被写体領域として誤って抽出される。一方、図5のFCにおいては、上述した判定により、マスクM1の優先度が低く設定されるため、背景(後景)に相当する領域であるマスクM1は主要被写体領域として誤って抽出されていない。そして、図5のFdおよびFeにおいては、新たに画面内に入ってきた主要被写体に相当する領域であるマスクM5が主要被写体領域として正しく抽出される。図5のFDおよびFEにおいても同様である。   The determination in step S108 described above will be described with reference to FIG. In FIG. 5, Fa to Fe show examples when the conventional mask extraction processing is performed on images of frame numbers 1, 10, 20, 30, and 40, respectively, and FA to FE in FIG. In the following, an example in which the mask extraction processing of this embodiment is performed on the images of frame numbers 1, 10, 20, 30, and 40 will be shown. In Fa to Fe and FA to FE in FIG. 5, the five masks (masks M1 to M5) (parts) described in step S103 are extracted. Note that the mask M2 and the mask M5 are regions corresponding to the original main subject, and the other masks are regions corresponding to the background (background). In Fa and Fb of FIG. 5, the mask M2 that is an area corresponding to the main subject is correctly extracted as the main subject area. The same applies to FA and FB in FIG. However, in Fc of FIG. 5, the mask M1, which is an area corresponding to the background (background), is erroneously extracted as the main subject area. On the other hand, in the FC of FIG. 5, the priority of the mask M1 is set low by the above-described determination, so the mask M1 that is an area corresponding to the background (background) is not erroneously extracted as the main subject area. . Then, in Fd and Fe of FIG. 5, the mask M5 that is a region corresponding to the main subject newly entering the screen is correctly extracted as the main subject region. The same applies to FD and FE in FIG.

制御部33が、上述した処理を行うと、CPU26は、主要被写体領域を抽出できたか否かの判定を行う。   When the control unit 33 performs the above-described processing, the CPU 26 determines whether or not the main subject area has been extracted.

ステップS109において、CPU26は、制御部33により主要被写体領域を設定する。CPU26は、ステップS108において主要被写体と判定されたマスクに対応する領域を主要被写体領域として設定する。この主要被写体領域は撮影準備動作に用いることができる。   In step S <b> 109, the CPU 26 sets a main subject area by the control unit 33. The CPU 26 sets an area corresponding to the mask determined as the main subject in step S108 as the main subject area. This main subject area can be used for a shooting preparation operation.

ステップS110において、CPU26は、撮影指示が行われたか否かを判定する。CPU26は、撮影指示が行われたと判定するとステップS111に進む。一方、所定の時間を経過しても撮影指示が行われないと判定すると、CPU26は、上述したステップS102に戻り、次のスルー画像を対象としてステップS102以降の処理を行う。なお、撮影指示は、操作部27のシャッタボタンを介したユーザ操作により行われる。このユーザ操作は、いわゆる半シャッタと全シャッタの何れであっても良い。   In step S110, the CPU 26 determines whether or not a shooting instruction has been issued. If the CPU 26 determines that a shooting instruction has been given, the process proceeds to step S111. On the other hand, if it is determined that the shooting instruction is not issued even after a predetermined time has elapsed, the CPU 26 returns to step S102 described above, and performs the processing from step S102 onward for the next through image. The photographing instruction is performed by a user operation via the shutter button of the operation unit 27. This user operation may be a so-called half shutter or all shutter.

ステップS111において、CPU26は、各部を制御して撮影を実行する。なお、AE、AF、WB等の処理については、ステップS109で設定した主要被写体領域の情報に基づいて行われる。   In step S111, the CPU 26 controls each unit to perform shooting. Note that processing such as AE, AF, and WB is performed based on information on the main subject region set in step S109.

ステップS112において、CPU26は、ステップS111で実行した撮影により生成した画像の画像データを、通信部28を介して記憶媒体40に記録して一連の処理を終了する。   In step S112, the CPU 26 records the image data of the image generated by the shooting executed in step S111 on the storage medium 40 via the communication unit 28, and ends the series of processes.

以上説明したように、本実施形態によれば、時間的に連続して生成された複数の画像データを順次取得し、取得した画像データにより示される画像の特徴量を複数算出し、複数の特徴量に基づいて特定領域(例えば、被写体領域や注目領域など)を検出する領域検出部と、取得した複数の画像データにより示される画像のうち、少なくとも2枚の画像について算出された特徴量に基づいて、特徴量の変化特性を求める特性算出部とを備え、変化特性に基づいて、複数の特徴量における優先度を決定し、決定した優先度に基づいて領域検出部による特定領域の検出を行う。したがって、上述の構成により、背景(後景)である被写体の領域が誤って特定領域として抽出されるのを防ぎ、被写体に応じて、的確に特定領域の抽出を行うことができる。   As described above, according to the present embodiment, a plurality of image data generated sequentially in time are sequentially acquired, a plurality of image feature amounts indicated by the acquired image data are calculated, and a plurality of features are calculated. An area detection unit that detects a specific area (for example, a subject area or an attention area) based on the amount, and a feature amount calculated for at least two images among the images indicated by the plurality of acquired image data And a characteristic calculation unit that obtains a change characteristic of the feature quantity, and determines priority in the plurality of feature quantities based on the change characteristic, and performs detection of a specific area by the area detection unit based on the determined priority. . Therefore, with the above-described configuration, it is possible to prevent an area of the subject that is the background (background) from being erroneously extracted as the specific area, and accurately extract the specific area according to the subject.

また、本実施形態によれば、複数の画像データにより示される画像のうち、少なくとも2枚の画像において検出された特定領域を比較することにより、領域検出部により特定領域が継続的に検出されているか否かを判定し、特定領域が継続的に検出されていると判定すると、特性算出部により変化特性を求め、優先度に基づいて領域検出部による特定領域の検出を行う。したがって、変化特性により被写体の変化を把握し、被写体の変化に応じた特定領域の抽出を行うことができる。   Further, according to the present embodiment, the specific region is continuously detected by the region detection unit by comparing the specific regions detected in at least two images among the images indicated by the plurality of image data. If it is determined whether or not the specific area is continuously detected, a change characteristic is obtained by the characteristic calculation unit, and the specific area is detected by the area detection unit based on the priority. Therefore, the change of the subject can be grasped by the change characteristic, and the specific area can be extracted according to the change of the subject.

また、本実施形態によれば、複数の画像データにより示される画像のうち、少なくとも2枚の画像について検出された特定領域の面積に関する変化特性を求め、求めた変化特性に基づいて、変化特性の算出の対象となった特定領域の検出に用いた特徴量の優先度を決定し、決定した優先度に基づいて領域検出部による特定領域の検出を行う。したがって、面積に関する変化特性によって、被写体の変化をより正確に把握することができる。   Further, according to the present embodiment, a change characteristic related to the area of the specific area detected for at least two images among images indicated by a plurality of image data is obtained, and the change characteristic is determined based on the obtained change characteristic. The priority of the feature amount used for detection of the specific area that is the calculation target is determined, and the specific area is detected by the area detection unit based on the determined priority. Therefore, the change of the subject can be grasped more accurately by the change characteristic regarding the area.

また、本実施形態によれば、変化特性に基づいて、面積の変化が大きいほど、優先度を低く設定して、領域検出部による特定領域の検出を行う。したがって、面積の変化が大きいほど、その領域は背景(後景)の領域であると判断し、背景(後景)である被写体の領域が誤って特定領域として抽出されるのを防ぐことができる。   Also, according to the present embodiment, based on the change characteristics, the priority is set lower as the area change is larger, and the specific area is detected by the area detector. Therefore, the larger the change in the area, the more the area is determined to be the background (background), and the subject area that is the background (background) can be prevented from being erroneously extracted as the specific area. .

また、本実施形態によれば、変化特性に基づいて、面積の変化率を求め、変化率が所定の閾値より大きい場合には、変化特性の算出の対象となった特定領域の検出に用いた特徴量の優先度を、変化率が所定の閾値より小さい場合よりも低く設定して、領域検出部による特定領域の検出を行う。したがって、面積の変化率が大きいほど、その領域は背景(後景)の領域であると判断し、背景(後景)である被写体の領域が誤って特定領域として抽出されるのを防ぐことができる。   Further, according to the present embodiment, the area change rate is obtained based on the change characteristic, and when the change rate is larger than a predetermined threshold, it is used to detect the specific region that is the target of the change characteristic calculation. The priority of the feature amount is set lower than when the rate of change is smaller than a predetermined threshold, and the specific region is detected by the region detection unit. Therefore, as the area change rate increases, it is determined that the area is a background (background) area, and the subject area that is the background (background) is prevented from being erroneously extracted as a specific area. it can.

なお、上記の実施形態では、変化特性に応じて優先度を決定する例を示したが、特殊な例として、変化特性に応じて優先度を下げたマスクであっても、継続的に抽出されたマスクについては、特定領域として抽出しても良い。つまり、複数の画像データにより示される画像のうち、少なくとも2枚の画像において検出された特定領域を比較することにより、領域検出部により特定領域が継続的に検出されているか否かを判定し、特定領域が継続的に検出されていると判定すると、継続的に検出された特定領域の検出に用いた特徴量の優先度を、特定領域が継続的に検出されていない場合よりも高く設定して、領域検出部による特定領域の検出を行う。したがって、特定領域が継続的に検出されている場合には、その特定領域がユーザの所望の領域であると判断して、的確な特定領域の抽出を行うことができる。   In the above embodiment, an example in which the priority is determined according to the change characteristic has been shown. However, as a special example, even a mask whose priority is lowered according to the change characteristic is continuously extracted. The mask may be extracted as a specific area. That is, it is determined whether or not the specific area is continuously detected by the area detection unit by comparing the specific areas detected in at least two images among the images indicated by the plurality of image data. If it is determined that the specific area is continuously detected, the priority of the feature amount used for detecting the specific area continuously detected is set higher than when the specific area is not continuously detected. Thus, the specific area is detected by the area detecting unit. Therefore, when a specific area is continuously detected, it can be determined that the specific area is a user-desired area, and an accurate specific area can be extracted.

また、上記の実施形態においては、一連の処理を行っている最中にレンズ鏡筒10におけるズーム倍率が変更された場合には、面積の比較は無用となる。そのため、このような場合には、処理をリセットするか、または、ズーム倍率に応じた面積の換算を適宜実行すると良い。   In the above embodiment, when the zoom magnification in the lens barrel 10 is changed during a series of processes, the comparison of the areas is unnecessary. Therefore, in such a case, it is preferable to reset the processing or appropriately convert the area according to the zoom magnification.

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.

上記の実施形態では、構図確認用のスルー画像に基づいて、一連の処理を行う例を示したが、本発明はこの例に限定されない。例えば、一眼レフカメラなどにおいて生成される構図確認用のライブビュー画像を対象とする場合にも、本発明を同様に適用することができる。また、記憶媒体40等に記録された動画像を対象とする場合にも、本発明を同様に適用することができる。   In the above embodiment, an example in which a series of processing is performed based on a through image for composition confirmation has been described, but the present invention is not limited to this example. For example, the present invention can be similarly applied to a case where a live view image for composition confirmation generated in a single-lens reflex camera or the like is targeted. Further, the present invention can be similarly applied to a case where a moving image recorded in the storage medium 40 or the like is a target.

また、上記の実施形態においては、すべてのフレームを対象として一連の処理を行う例を示したが、本発明はこの例に限定されない。例えば、時間的に間欠して生成された複数の画像を対象としても良い。具体的には、適宜フレーム間引きを行った複数の画像を対象としても良い。この場合、上記の実施形態における一連の処理は間引きされた複数の画像を対象として実行しつつ、すべての画像について表示を行っても良い。このような処理を行うことにより、処理負荷を軽減することができる。   In the above embodiment, an example in which a series of processing is performed for all frames has been described, but the present invention is not limited to this example. For example, a plurality of images generated intermittently in time may be targeted. Specifically, a plurality of images subjected to frame thinning as appropriate may be targeted. In this case, a series of processes in the above embodiment may be performed on a plurality of thinned images, and all the images may be displayed. By performing such processing, the processing load can be reduced.

また、コンピュータと画像処理プログラムとを有する「コンピュータシステム」により、上述した実施形態で説明した画像処理をソフトウェア的に実現しても良い。この場合、実施形態で説明したフローチャートの処理の一部または全部をコンピュータシステムで実行する構成とすれば良い。例えば、図3のステップS102からステップS109の処理の一部または全部をコンピュータで実行しても良い。このような構成とすることにより、上述した実施形態と同様の処理を実施することが可能になる。   Further, the image processing described in the above-described embodiment may be realized by software by a “computer system” having a computer and an image processing program. In this case, a part or all of the processing of the flowchart described in the embodiment may be configured to be executed by the computer system. For example, part or all of the processing from step S102 to step S109 in FIG. 3 may be executed by a computer. By adopting such a configuration, it is possible to perform the same processing as in the above-described embodiment.

また、「コンピュータシステム」は、wwwシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、コンピュータ読み取り可能な記録媒体とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。   Further, the “computer system” includes a homepage providing environment (or display environment) if a www system is used. The computer-readable recording medium is a writable nonvolatile memory such as a flexible disk, a magneto-optical disk, a ROM, or a flash memory, a portable medium such as a CD-ROM, and a storage such as a hard disk built in the computer system. Refers to the device.

さらにコンピュータ読み取り可能な記録媒体とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。   Further, the computer-readable recording medium is a volatile memory (for example, DRAM (Dynamic Random Access) in a computer system serving as a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. Memory)) that holds a program for a certain period of time is also included.

また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。   The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.

また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。   The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.

20…撮像装置、21…撮像部、22…画像処理装置、23‥表示部、26…CPU DESCRIPTION OF SYMBOLS 20 ... Imaging device, 21 ... Imaging part, 22 ... Image processing apparatus, 23 ... Display part, 26 ... CPU

Claims (8)

色情報又は輝度情報により画像に含まれる被写体領域を複数検出する領域検出部と、
前記領域検出部で検出された前記被写体領域の面積変化を、前記被写体領域を含む複数の画像を用いて算出する算出部と、
前記算出部で算出された前記被写体領域の面積変化により前記領域検出部で検出された複数の前記被写体領域から特定領域を抽出する抽出部と、を備え、
前記抽出部は、前記領域検出部で検出された複数の前記被写体領域のうち、前記算出部で算出された前記被写体領域の面積変化に基づいて被写体領域を前記特定領域として抽出する画像処理装置。
An area detection unit for detecting a plurality of object areas included in an image based on color information or luminance information;
A calculation unit for calculating an area change of the subject region detected by the region detection unit using a plurality of images including the subject region;
An extraction unit that extracts a specific region from the plurality of subject regions detected by the region detection unit based on a change in the area of the subject region calculated by the calculation unit;
The extraction unit is an image processing apparatus that extracts a subject region as the specific region based on an area change of the subject region calculated by the calculation unit among the plurality of subject regions detected by the region detection unit.
請求項1に記載の画像処理装置において、
前記抽出部は、前記算出部で算出された前記被写体領域の面積変化により前記領域検出部で検出された複数の前記被写体領域に対して前記特定領域を抽出するための優先度を設定する画像処理装置。
The image processing apparatus according to claim 1.
The extraction unit is configured to perform image processing for setting a priority for extracting the specific region with respect to a plurality of the subject regions detected by the region detection unit based on an area change of the subject region calculated by the calculation unit. apparatus.
請求項2に記載の画像処理装置において、
前記抽出部は、前記領域検出部で検出された複数の前記被写体領域のうち、前記算出部で算出された前記被写体領域の面積変化が大きい被写体領域に対して前記優先度を低く設定する画像処理装置。
The image processing apparatus according to claim 2,
The extraction unit sets the priority to be low for a subject region in which the area change of the subject region calculated by the calculation unit is large among the plurality of subject regions detected by the region detection unit. apparatus.
請求項1から請求項3のいずれか一項に記載の画像処理装置において、
前記抽出部で抽出された前記特定領域を、前記特定領域が含まれる複数の画像を用いて継続的に検出されているか否かを判定する判定部を備える画像処理装置。
The image processing apparatus according to any one of claims 1 to 3,
An image processing apparatus provided with the determination part which determines whether the said specific area extracted by the said extraction part is continuously detected using the some image in which the said specific area is included.
請求項1から請求項4のいずれか一項に記載の画像処理装置において、
前記算出部により前記領域検出部で検出された前記被写体領域の面積変化を算出するために用いる画像の数を変更する操作部材を備える画像処理装置。
In the image processing device according to any one of claims 1 to 4,
An image processing apparatus comprising: an operation member that changes the number of images used for calculating an area change of the subject region detected by the region detection unit by the calculation unit.
被写体を撮像する撮像素子と、
請求項1から請求項5のいずれか一項に記載の画像処理装置と、を備え、
前記算出部は、前記領域検出部で検出された前記被写体領域の面積変化を算出するために用いる画像の数を前記撮像素子のフレームレートにより変更する撮像装置。
An image sensor for imaging a subject;
An image processing device according to any one of claims 1 to 5,
The image pickup apparatus, wherein the calculation unit changes the number of images used for calculating the area change of the subject region detected by the region detection unit according to a frame rate of the image pickup element.
光学系を介して被写体を撮像する撮像素子と、
請求項1から請求項5のいずれか一項に記載の画像処理装置と、を備え、
前記算出部は、前記領域検出部で検出された前記被写体領域の面積変化を算出するために用いる画像の数を前記光学系のズーム倍率により変更する撮像装置。
An image sensor for imaging a subject via an optical system;
An image processing device according to any one of claims 1 to 5,
The image pickup apparatus, wherein the calculation unit changes the number of images used for calculating an area change of the subject region detected by the region detection unit according to a zoom magnification of the optical system.
コンピュータに、
色情報又は輝度情報により画像に含まれる被写体領域を複数検出する領域検出手順と、
前記領域検出手順で検出された前記被写体領域の面積変化を、前記被写体領域を含む複数の画像を用いて算出する算出手順と、
前記算出手順で算出された前記被写体領域の面積変化により前記領域検出手順で検出された複数の前記被写体領域から特定領域を抽出する抽出手順と、を実行させ、
前記抽出手順は、前記領域検出手順で検出された複数の前記被写体領域のうち、前記算出手順で算出された前記被写体領域の面積変化に基づいて被写体領域を前記特定領域として抽出する画像処理プログラム。
On the computer,
An area detection procedure for detecting a plurality of object areas included in an image based on color information or luminance information;
A calculation procedure for calculating an area change of the subject region detected by the region detection procedure using a plurality of images including the subject region;
An extraction procedure for extracting a specific region from a plurality of the subject regions detected by the region detection procedure based on an area change of the subject region calculated by the calculation procedure;
The extraction procedure is an image processing program for extracting a subject region as the specific region based on an area change of the subject region calculated by the calculation procedure among the plurality of subject regions detected by the region detection procedure.
JP2018040736A 2018-03-07 2018-03-07 Image processing apparatus, imaging apparatus, and image processing program Pending JP2018121346A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018040736A JP2018121346A (en) 2018-03-07 2018-03-07 Image processing apparatus, imaging apparatus, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018040736A JP2018121346A (en) 2018-03-07 2018-03-07 Image processing apparatus, imaging apparatus, and image processing program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013220996A Division JP6303395B2 (en) 2013-10-24 2013-10-24 Image processing apparatus, imaging apparatus, and image processing program

Publications (1)

Publication Number Publication Date
JP2018121346A true JP2018121346A (en) 2018-08-02

Family

ID=63045434

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018040736A Pending JP2018121346A (en) 2018-03-07 2018-03-07 Image processing apparatus, imaging apparatus, and image processing program

Country Status (1)

Country Link
JP (1) JP2018121346A (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003110935A (en) * 2001-09-28 2003-04-11 Fujitsu General Ltd Ccd camera
JP2010056692A (en) * 2008-08-26 2010-03-11 Canon Inc Imaging apparatus and its control method
JP2013042201A (en) * 2011-08-11 2013-02-28 Nikon Corp Image processing apparatus, imaging apparatus, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003110935A (en) * 2001-09-28 2003-04-11 Fujitsu General Ltd Ccd camera
JP2010056692A (en) * 2008-08-26 2010-03-11 Canon Inc Imaging apparatus and its control method
JP2013042201A (en) * 2011-08-11 2013-02-28 Nikon Corp Image processing apparatus, imaging apparatus, and program

Similar Documents

Publication Publication Date Title
US9489747B2 (en) Image processing apparatus for performing object recognition focusing on object motion, and image processing method therefor
US8284994B2 (en) Image processing apparatus, image processing method, and storage medium
US8970716B2 (en) Image-capturing apparatus and control method of the image-capturing apparatus
JP2008104051A (en) Imaging apparatus, imaging method, image processor, image processing method and image processing program
US8823863B2 (en) Image capturing apparatus and control method therefor
US9706131B2 (en) Image combining apparatus for generating a combined image from a plurality of images, image combining system, and image combining method
US11477384B2 (en) Information processing apparatus, imaging apparatus, information processing method, control method for imaging apparatus, and storage medium for notifying of a subject blur occuring in a captured image
JP5499531B2 (en) Electronic camera
JP7319871B2 (en) Image processing device, image processing method, program, storage medium
JP4871664B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP6303395B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP2018121346A (en) Image processing apparatus, imaging apparatus, and image processing program
JP6429497B2 (en) Imaging apparatus, control method, and program
JP2019205172A (en) Image processing apparatus, imaging apparatus, and image processing program
JP2010016469A (en) Electronic camera
JP2010050527A (en) Image device
US9525815B2 (en) Imaging apparatus, method for controlling the same, and recording medium to control light emission
JP6421032B2 (en) Focus detection apparatus, focus detection method, and focus detection program
JP6273766B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP7361546B2 (en) Image processing device, image processing method, program, storage medium
JP2014023054A (en) Image processing apparatus, imaging apparatus, and image processing program
US20240179393A1 (en) Imaging apparatus, control method of the same, and storage medium
JP6003383B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP6011146B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP2018116723A (en) Image processing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180308

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181204

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190402

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190903

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20191101

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200303